WO2022003830A1 - 制御装置、制御方法、及びコンピュータ可読媒体 - Google Patents

制御装置、制御方法、及びコンピュータ可読媒体 Download PDF

Info

Publication number
WO2022003830A1
WO2022003830A1 PCT/JP2020/025685 JP2020025685W WO2022003830A1 WO 2022003830 A1 WO2022003830 A1 WO 2022003830A1 JP 2020025685 W JP2020025685 W JP 2020025685W WO 2022003830 A1 WO2022003830 A1 WO 2022003830A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
image
projection
irradiation light
unit
Prior art date
Application number
PCT/JP2020/025685
Other languages
English (en)
French (fr)
Inventor
紘也 高田
尚志 水本
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2020/025685 priority Critical patent/WO2022003830A1/ja
Priority to JP2022532891A priority patent/JPWO2022003830A5/ja
Publication of WO2022003830A1 publication Critical patent/WO2022003830A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Definitions

  • the present invention relates to the control of a projection device that projects an image used for an input operation.
  • Patent Document 1 discloses an electronic device that recognizes an input operation for an input key projected on the ground by using a projection device and an image pickup device.
  • the projection device projects the image of the input key onto the ground in front of the elevator.
  • the image pickup apparatus captures the place where the image of the input key is projected.
  • the electronic device analyzes the captured image obtained from the image pickup device, and detects that a key that cannot be recognized from the captured image (that is, a key hidden by a foot or the like) has been operated.
  • Patent Document 1 In order to use the electronic device of Patent Document 1, it is necessary to provide both a projection device and an image pickup device. Therefore, in order to use the electronic device, a space where these two devices can be installed is required, and the installation place is limited.
  • An object of the present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide a technique for making a device for recognizing an input operation for a projected image available in a wider range of places. ..
  • the control device of the present disclosure controls a projection device.
  • the projection device has a projection unit that projects irradiation light and a light receiving unit that captures the reflected light of the irradiation light and generates an image captured image in the same housing.
  • the control device uses a projection control unit that controls the projection device to project irradiation light representing an operation image onto the projected surface, and an image captured by the light receiving unit to project the projected surface.
  • the said It has an input specifying unit that specifies the content of an input operation by an indicator, and an output unit that outputs input information that represents the content of the specified input operation.
  • the control method of the present disclosure is performed by a computer that controls a projection device.
  • the projection device has a projection unit that projects irradiation light and a light receiving unit that captures the reflected light of the irradiation light and generates an image captured image in the same housing.
  • the control method uses the projection control step of controlling the projection device to project the irradiation light representing the operation image onto the projected surface, and the captured image generated by the light receiving unit to the projected surface.
  • the distance measuring step for calculating the distance to each of the above plurality of positions, and the position of the indicator for performing an operation on the operation image based on the distance calculated for each of the plurality of positions, are used to specify the position of the indicator. It has an input specifying step for specifying the content of an input operation by an indicator, and an output step for outputting input information representing the content of the specified input operation.
  • the computer-readable medium of the present disclosure stores a program that causes a computer to execute the control method of the present disclosure.
  • FIG. 1 is a block diagram showing a configuration of an information input system 1 including a control device 30 according to the present embodiment.
  • the information input system 1 includes a projection device 50 and a control device 30. These devices may be installed in the same housing or may be installed individually.
  • the control device 30 is a device that controls the projection device 50.
  • the projection device 50 has a projection unit 20 and a light receiving unit 60.
  • the projection device 50 projects the image by projecting light representing the image.
  • the light receiving unit 60 generates an captured image by receiving the reflected light of the light projected by the projection unit 20.
  • the projection unit 20 and the light receiving unit 60 are provided in one common housing.
  • FIG. 2 is a conceptual diagram showing a typical usage scene of the information input system 1 of the present embodiment.
  • the information input system 1 of the present embodiment is used to input authentication information such as a password at an entrance of a place having a high security level.
  • the projection device 50 is installed on the ceiling near the entrance.
  • an image representing a user interface hereinafter, UI: UserInterface
  • target person an image representing desired display information (characters, symbols, frames, etc.)
  • an operation image an image representing desired display information (characters, symbols, frames, etc.)
  • the space through which the irradiation light projected from the projection device 50 passes is, for example, a three-dimensional space inside a substantially quadrangular pyramid having the projection portion of the projection device 50 as an apex. ..
  • the shape of the projection space is not limited to a substantially quadrangular pyramid, and can be various shapes such as a substantially cone.
  • the control device 30 projects the irradiation light onto the projection unit 20 of the projection device 50 so that the operation image representing the UI for the input operation is displayed on the projected surface 40.
  • the projected surface 40 is preferably a place where the subject can operate the operation image displayed on the projected surface 40 with his / her feet.
  • the projected surface 40 is a place where the subject can easily step on the ground (including the floor) or an object (such as a board) provided on the ground.
  • the control device 30 uses the captured image generated by the light receiving unit 60 (that is, using the captured image captured by the light projected from the projection unit 20) to determine the position of the indicator on the projected surface 40. Specify and specify the content of the input operation performed by the indicator on the operation image based on the specified position.
  • the indicator is the foot of the subject.
  • the position of the indicator is specified by distance measurement using the above-mentioned captured image.
  • the control device 30 uses the captured image to calculate the distance from the projection device 50 for each of the plurality of positions on the projected surface 40. Then, the control device 30 specifies the position of the indicator based on the calculated distance to each position. The distance from the projection device 50 to the position where the indicator such as the foot is present is shorter than the distance from the projection device 50 to the projected surface 40. Therefore, the position of the indicator can be specified by the above-mentioned distance measurement.
  • the control device 30 transmits information representing the content of the specified input operation (hereinafter, input information) to a device (hereinafter, processing device) that performs processing according to the input operation.
  • a device that performs authentication according to an input operation detected by the information input system 1 is a processing device.
  • the processing device may be housed in the same housing as the control device 30, or may be installed separately. In the latter case, the processing device can be realized, for example, by a server machine or the like connected to the control device 30 via a network.
  • the input operation for the operation image projected on the projected surface 40 by using the projection unit 20 included in the projection device 50 is performed by the light receiving unit 60 also included in the projection device 50. It is identified based on the results of the distance measurement performed using it.
  • the projection unit 20 and the light receiving unit 60 are provided in one common housing. In this way, the display of the operation image and the specification of the content of the input operation for the operation image can be realized by the device provided in one common housing. Therefore, the size of the device can be reduced as compared with the case where the device for projecting the operation image and the device for specifying the content of the input operation for the operation image are provided in different housings.
  • the projection unit 20 has two roles of projecting an operation image and projecting light for distance measurement.
  • the two functions of projecting light for displaying an operation image and projecting light for ranging can be realized by one component called a projection unit 20. Therefore, from this point as well, it is possible to reduce the size of the projection device 50.
  • FIG. 3 is a block diagram illustrating a functional configuration of the control device 30.
  • the control device 30 includes a projection control unit 31, a distance measuring unit 32, an input specifying unit 33, and an output unit 34.
  • the projection control unit 31 controls the projection unit 20 to project the irradiation light representing the operation image onto the projected surface 40.
  • the distance measuring unit 32 calculates the distance to each of the plurality of positions on the projected surface 40 by using the captured image generated by the light receiving unit 60.
  • the input specifying unit 33 specifies the position of the indicator that performs an operation on the operation image based on the distance calculated for each of the plurality of positions. Then, the input specifying unit 33 specifies the content of the input operation by the indicator based on the position of the identified indicator.
  • the output unit 34 outputs input information representing the content of the specified input operation.
  • Each functional component of the control device 30 may be realized by hardware that realizes each functional component (eg, a hard-wired electronic circuit, etc.), or a combination of hardware and software (eg, electronic). It may be realized by a combination of a circuit and a program that controls it).
  • a case where each functional component of the control device 30 is realized by a combination of hardware and software will be further described.
  • FIG. 4 is a block diagram illustrating a hardware configuration of a computer 500 that realizes a control device 30.
  • the computer 500 is any computer.
  • the computer 500 is an integrated circuit such as an SoC (System on a Chip) or a SiP (System in a Package).
  • the computer 500 may be a portable machine such as a smartphone or a tablet terminal, or a stationary machine such as a PC (Personal Computer) or a server machine.
  • the computer 500 may be a dedicated computer designed to realize the control device 30, or may be a general-purpose computer.
  • the computer 500 has a bus 502, a processor 504, a memory 506, a storage device 508, an input / output interface 510, and a network interface 512.
  • the bus 502 is a data transmission path for the processor 504, the memory 506, the storage device 508, the input / output interface 510, and the network interface 512 to transmit and receive data to and from each other.
  • the method of connecting the processors 504 and the like to each other is not limited to the bus connection.
  • the processor 504 is various processors such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or an FPGA (Field-Programmable Gate Array).
  • the memory 506 is a main storage device realized by using RAM (RandomAccessMemory) or the like.
  • the storage device 508 is an auxiliary storage device realized by using a hard disk, SSD (Solid State Drive), memory card, ROM (Read Only Memory), or the like.
  • the input / output interface 510 is an interface for connecting the computer 500 and the input / output device.
  • a projection device 50 is connected to the input / output interface 510.
  • an input device such as a keyboard or an output device such as a display device may be connected to the input / output interface 510.
  • the network interface 512 is an interface for connecting the computer 500 to the network.
  • This network may be a LAN (Local Area Network) or a WAN (Wide Area Network).
  • a processing device to which input information is transmitted is connected to the network interface 512.
  • the storage device 508 stores a program that realizes each functional component of the control device 30.
  • the processor 504 reads this program into the memory 506 and executes it to realize each functional component of the control device 30.
  • the control device 30 may be realized by one computer 500 or may be realized by a plurality of computers 500. In the latter case, the configurations of the computers 500 do not have to be the same and can be different.
  • FIG. 5 is a block diagram showing the configuration of the projection unit 20.
  • FIG. 6 is a conceptual diagram showing a configuration example of an optical system included in the projection unit 20.
  • the projection unit 20 includes a light source 21, a light source drive power supply 22, a spatial light modulation element 23, a modulation element driving means 24, and a projection optical system 25.
  • FIG. 5 is conceptual and does not accurately represent the positional relationship between each component, the irradiation direction of light, and the like.
  • the light source 21 emits light 110 having a specific wavelength.
  • a laser light source can be used as the light source 21.
  • the light 110 emitted from the light source 21 is preferably coherent light having the same phase.
  • the light source 21 is configured to emit light in the visible region.
  • the light source 21 may be configured to emit light other than the visible region such as an infrared region or an ultraviolet region.
  • the light source 21 may be configured by a light source other than a laser light source such as a light emitting diode, an incandescent light bulb, or a discharge tube.
  • the light 110 emitted by the light source 21 becomes coherent light 110 by the collimator 210 and is incident on the display portion of the spatial light modulation element 23.
  • the color of the display information can be changed by changing the wavelength of the light emitted from the light source 21.
  • display information composed of a plurality of colors can be displayed.
  • the light source drive power source 22 (also called a light source drive means) is a power source for driving the light source 21 according to the control of the control device 30 and emitting light from the light source 21.
  • the spatial light modulation element 23 itself creates a pattern (hereinafter, modulation pattern) for generating irradiation light capable of displaying a desired operation image on the projected surface 40 under the control of the modulation element driving means 24. It is displayed on the display part of.
  • the light 110 is irradiated to the display unit in a state where the modulation pattern is displayed on the display unit of the spatial light modulation element 23.
  • the spatial light modulation element 23 emits the reflected light (modulated light 130) of the incident light 110 toward the projection optical system 25.
  • the incident angle of the light 110 is not perpendicular to the display unit of the spatial light modulation element 23. That is, the emission axis of the light 110 from the light source 21 is slanted with respect to the display portion of the spatial light modulation element 23. In this way, if the emission axis of the light 110 is set obliquely with respect to the display unit of the spatial light modulation element 23, the light 110 can be incident on the display unit of the spatial light modulation element 23 without using a beam splitter. Efficiency can be improved.
  • the spatial light modulation element 23 can be realized by a phase modulation type spatial light modulation element that receives the incident of coherent light 110 having the same phase and modulates the phase of the incident light 110. Since the light emitted from the projection optical system using the phase modulation type spatial light modulation element 23 is focus-free, even if the light is projected onto the display area set to a plurality of projection distances, the light is projected for each projection distance. There is no need to change the focus to.
  • the spatial light modulation element 23 may be an element of a method different from the phase modulation type as long as the display information can be displayed in each display area, but in order to realize focus-free, the phase modulation type element may be used. Is preferable.
  • the phase distribution of the display information in the operation image is displayed on the display unit of the phase modulation type spatial light modulation element 23.
  • the modulated light 130 reflected in the display region of the spatial light modulation element 23 becomes an image in which a kind of diffraction grating forms an aggregate, and the image is formed so that the light diffracted by the diffraction grating gathers. Will be done.
  • the spatial light modulation element 23 is realized by, for example, a spatial light modulation element using a ferroelectric liquid crystal display, a homogenius liquid crystal display, a vertically oriented liquid crystal display, or the like.
  • the spatial light modulation element 23 can be realized by LCOS (Liquid Crystal on Silicon).
  • the spatial light modulation element 23 may be realized by, for example, a MEMS (Micro Electro Mechanical System).
  • phase modulation type spatial light modulation element 23 energy can be concentrated on the display information portion by operating so as to sequentially switch the display area for projecting the irradiation light. Therefore, if the phase modulation type spatial light modulation element 23 is used, the display information can be displayed brighter than those of other methods if the output of the light source is the same.
  • the modulation element driving means 24 displays the modulation pattern on the display unit of the spatial light modulation element 23 according to the control of the control device 30.
  • the modulation element driving means 24 spatially photomodulates the parameters that determine the difference between the phase of the light 110 irradiated on the display unit of the spatial light modulation element 23 and the phase of the modulated light 130 reflected by the display unit. Drives the element 23.
  • the parameters that determine the difference between the phase of the light 110 applied to the display unit of the phase modulation type spatial optical modulation element 23 and the phase of the modulated light 130 reflected by the display unit are, for example, the refractive index and the optical path length. It is a parameter related to optical characteristics.
  • the modulation element driving means 24 changes the refractive index of the display unit by changing the voltage applied to the display unit of the spatial light modulation element 23. As a result, the light 110 applied to the display unit is appropriately diffracted based on the refractive index of the display unit. That is, the phase distribution of the light 110 irradiated to the phase modulation type spatial light modulation element 23 is modulated according to the optical characteristics of the display unit.
  • the method of driving the spatial light modulation element 23 by the modulation element driving means 24 is not limited to the above.
  • the projection optical system 25 projects the modulated light 130 modulated by the spatial light modulation element 23 as the irradiation light 150.
  • the projection optical system 25 includes a Fourier transform lens 251, an aperture 252, and a projection lens 253.
  • the modulated light 130 modulated by the spatial light modulation element 23 is irradiated as irradiation light 150 by the projection optical system 25. If the display information can be displayed in each display area, any one of the components of the projection optical system 25 may be omitted.
  • the Fourier transform lens 251 is an optical lens for forming an image formed when the modulated light 130 reflected by the display unit of the spatial light modulation element 23 is projected at infinity at a nearby focal point. In FIG. 6, the focus is formed at the position of the aperture 252.
  • the aperture 252 has a function of shielding high-order light contained in the light focused by the Fourier transform lens 251 and specifying a display area.
  • the opening of the aperture 252 is opened smaller than the outermost circumference of the display area at the position of the aperture 252, and is installed so as to block the peripheral area of the display information at the position of the aperture 252.
  • the opening of the aperture 252 is formed in a rectangular or circular shape.
  • the aperture 252 is preferably installed at the focal position of the Fourier transform lens 251 but may be deviated from the focal position as long as it can exert a function of erasing higher-order light.
  • the projection lens 253 is an optical lens that magnifies and projects the light focused by the Fourier transform lens 251.
  • the projection lens 253 projects the irradiation light 150 so that the display information corresponding to the phase distribution input to the spatial light modulation element 23 is displayed in each display area.
  • the irradiation light 150 projected from the projection optical system 25 is not uniformly projected onto each display area, but characters, symbols, and frames. It is projected intensively on the part that represents the display information such as.
  • the information input system 1 the amount of light emitted from the light 110 can be substantially reduced, so that the overall light output can be suppressed. That is, since the information input system 1 can be configured by a small and low power light source 21, the light source drive power source 22 for driving the light source 21 can have a low output, and the overall power consumption can be reduced.
  • FIG. 7 is a block diagram showing the configuration of the light receiving unit 60.
  • the light receiving unit 60 of FIG. 7 includes a light receiving optical system 61, an image sensor 62, an image processing processor 63, a memory 64, and an output circuit 65.
  • the light receiving optical system 61 is an optical system for guiding the light to be imaged to the image pickup element 62, and has, for example, a shutter and a lens.
  • the image pickup element 62 is an element for capturing the light projected from the projection unit 20.
  • the image pickup device 62 is a photoelectric conversion element in which semiconductor components are integrated into an integrated circuit, and has a structure in which a plurality of light receiving regions are arranged in a grid pattern.
  • the image pickup device 62 can be realized by, for example, a solid-state image pickup device such as a CCD (Charge-Coupled Device) or COMS (Complementary Metal-Oxide-Semiconductor).
  • the CCD and COMS have a plurality of light receiving regions arranged in an array.
  • the image processing processor 63 executes image processing such as dark current correction, interpolation calculation, color space conversion, gamma correction, aberration correction, noise reduction, or image compression on the image data generated by the image pickup element 62. It is an integrated circuit. If the image information is not processed, the image processing processor 63 may be omitted.
  • the memory 64 is a storage element that temporarily stores image data that cannot be processed when image processing is performed by the image processing processor 63 and image data that has been processed.
  • the image data captured by the image pickup device 62 may be temporarily stored in the memory 64.
  • the memory 64 may be configured by a general memory.
  • the output circuit 65 outputs the image data processed by the image processing processor 63 to the control device 30.
  • the control device 30 acquires the image data output from the output circuit 65 as the above-mentioned captured image.
  • FIG. 8 is a flowchart illustrating the flow of processing executed by the control device 30 of the first embodiment.
  • the projection control unit 31 controls the projection unit 20 of the projection device 50 to project the irradiation light representing the operation image onto the projected surface 40 (S102).
  • the distance measuring unit 32 calculates the distance to each of the plurality of positions on the projected surface 40 by using the captured image generated by the light receiving unit 60 (S104).
  • the input specifying unit 33 specifies the position of the indicator that performs the operation on the operation image based on the distance calculated for each of the plurality of positions (S106).
  • the input specifying unit 33 specifies the content of the input operation by the indicator based on the position of the identified indicator (S108).
  • the output unit 34 outputs input information representing the content of the specified input operation (S110).
  • the indicator is not detected in S106 until the input operation is performed. Therefore, for example, the control device 30 repeatedly executes S102 to S106 until the indicator is detected, and then executes S108 and subsequent steps when the indicator is detected.
  • the projection control unit 31 controls the projection unit 20 so as to project the light representing the captured image onto the projected surface 40 (S102).
  • the modulation pattern corresponding to the desired image is displayed on the display unit of the spatial light modulation element 23. In this state, the display unit is irradiated with light 110.
  • the projection control unit 31 sets a modulation pattern corresponding to a desired operation image (that is, an operation image including display information to be presented to the target person) in the display unit of the spatial light modulation element 23, and then sets the modulation pattern.
  • the light source 21 is made to output the light 110.
  • the irradiation light 150 representing the operation image is projected from the projection unit 20.
  • the operation image is displayed on the projected surface 40.
  • An existing technique can be used as a method of setting a modulation pattern corresponding to a desired image on the display unit of the spatial light modulation element 23.
  • the modulation pattern corresponding to the operation image may be prepared in advance or may be generated by the projection control unit 31. In the latter case, the projection control unit 31 performs a process of converting the operation image into a modulation pattern.
  • Existing technology can be used as the technology for converting an image into a modulation pattern.
  • the method by which the projection control unit 31 acquires a desired operation image and the corresponding modulation pattern is arbitrary.
  • the identification information of the operation image and the operation image are associated with each other and stored in a storage device accessible from the projection control unit 31.
  • the projection control unit 31 acquires the identification information of the operation image to be used, and acquires the operation image corresponding to the identification information from the storage device.
  • the projection control unit 31 acquires the modulation pattern corresponding to the identification information.
  • the identification information of the operation image is acquired from the above-mentioned processing device (a device that uses the input information output from the control device 30). That is, the processing device outputs the identification information of the operation image to the control device 30, so that the desired operation image is displayed on the projection surface 40, and the target person can input the desired input (for example, input of a user name or password, etc.). ). Then, the processing device acquires the input information from the control device 30, acquires the content of the input operation performed by the target person, and performs the desired processing (for example, acquires the input user name and password). , Perform authentication processing). Instead of the identification information of the operation image, the operation image or the modulation pattern itself may be acquired from the processing device.
  • the processing device a device that uses the input information output from the control device 30. That is, the processing device outputs the identification information of the operation image to the control device 30, so that the desired operation image is displayed on the projection surface 40, and the target person can input the desired input (for example, input of a user name or password, etc
  • the ranging unit 32 identifies the distance from the projection device 50 to each of the plurality of positions within the projection range by using the captured image obtained from the light receiving unit 60 that captures the reflected light of the irradiation light (S104).
  • the projection range is a region of the projected surface 40 on which the irradiation light is projected.
  • the irradiation light used for distance measurement may be irradiation light representing an operation image or irradiation light representing other images.
  • the image projected from the projection unit 20 in the latter case is called a ranging image.
  • FIG. 9 is a diagram illustrating variations of the ranging image.
  • A is an example of a ranging image showing a striped pattern (stripe light).
  • the striped pattern may be horizontal stripes instead of vertical stripes.
  • B is an example of a ranging image representing elements (patterned light) arranged in an array.
  • each pattern includes two parts, a portion where the light is weak and a portion where the light is strong, for convenience of illustration, the portion where the light is strong is represented by white and the portion where the light is weak is represented by a dot pattern.
  • a random pattern can be used.
  • the captured image obtained from the light receiving unit 60 includes the display information included in the operation image and the pattern included in the ranging image in the original image. It will be in a state deviated from what was left. Therefore, for example, the ranging unit 32 decomposes the captured image into a plurality of partial regions, and the display information and patterns included in each partial region and the display information and patterns included in the portion corresponding to the partial region in the original image. And, the deviation is calculated. Then, the distance measuring unit 32 specifies the distance between the position on the projected surface 40 corresponding to the partial region and the projection unit 20 based on the calculated magnitude of the deviation. As a specific technique for converting the magnitude of such a deviation into a distance, an existing technique can be used.
  • the projection unit 20 projects these two images on the projection unit 20 at different timings (that is, time division multiplexing). For example, the projection unit 20 repeats the operation of "projecting the operation image for t1 millisecond and then projecting the distance measurement image for t2 millisecond". It is preferable that the length t2 of the period for projecting the distance measurement image is shorter than that of t1 so that the subject cannot recognize that there is a period during which the operation image is not displayed.
  • the plurality of captured images obtained from the light receiving unit 60 include an operation image (an image of the projected surface 40 in a state where the operation image is displayed) and a ranging image. It can be roughly classified into the ones (the ones obtained by imaging the projected surface 40 in the state where the distance measurement image is displayed). Therefore, the distance measuring unit 32 selects an captured image including the distance measuring image from a plurality of captured images obtained from the light receiving unit 60, and specifies the distance by using the captured image.
  • the ranging unit 32 compares the captured image obtained from the light receiving unit 60 with both the operation image and the ranging image, so that the captured image is more similar to the operation image or the ranging image. To judge. Then, the ranging unit 32 acquires the captured image determined to be more similar to the ranging image than the operation image as the captured image including the ranging image.
  • the method of projecting both the operation image and the distance measurement image on the projection unit 20 is not limited to time division multiplexing.
  • the projection unit 20 may simultaneously project the operation image and the distance measurement image by projecting the light on which the visible light representing the operation image and the invisible light representing the distance measurement image are superimposed.
  • a sensor that receives the invisible light is used for the light receiving unit 60.
  • the light receiving unit 60 receives infrared rays to generate an image (so-called infrared image).
  • the projection unit 20 When the projection unit 20 is configured so that two types of light can be projected in this way, for example, the projection unit 20 includes a set of a light source 21, a light source drive power supply 22, a spatial light modulation element 23, and a modulation element driving means 24. Have one. One set is used to project the operating image and the other set is used to project the ranging image. Therefore, a light source that irradiates visible light is used for one light source 21, and a light source that irradiates invisible light is used for the other light source 21. Further, a modulation pattern corresponding to the operation image is set in one of the spatial light modulation elements 23, and a modulation pattern corresponding to the ranging image is set in the other spatial light modulation element 23.
  • the two modulated lights 130 emitted from these two spatial light modulation elements 23 are superimposed on the projection optical system 25.
  • the light in which the visible light representing the operation image and the invisible light representing the distance measurement image are superimposed can be projected from the projection unit 20.
  • the size of the projection unit 20 can be reduced as compared with the case where the projection optical system 25 is not shared.
  • the input specifying unit 33 specifies the position of the indicator based on the result of the distance measurement by the distance measuring unit 32 (S106).
  • the input specifying unit 33 has a plurality of positions within the projection range in which the distance from the position to the projection device 50 is significantly shorter than the distance from the other positions to the projection device 50. Detects the position of the indicator.
  • the input specifying unit 33 has a thickness significantly larger than the thickness of the object assumed as the indicator (such as the body and head of the subject) or a thickness significantly smaller than the thickness of the object assumed as the indicator. It is preferable that the object (such as dust) is not detected as an indicator.
  • the distance between the positions where the distance is measured is smaller than the size of the indicator, the distance can be measured at multiple positions of the indicator.
  • the input specifying unit 33 represents the position of the indicator as a set of a plurality of positions satisfying the condition.
  • the input specifying unit 33 specifies the content of the input operation performed on the operation image based on the position of the specified indicator body (S108).
  • the input operation is an input operation that selects one of a plurality of options represented by the operation image.
  • the input specifying unit 33 specifies in which part on the operation image the position of the specified indicator body is included. More specifically, the input specifying unit 33 identifies and specifies a partial area including the position of the specified operating body from the partial areas (a part of the area of the entire operation image) corresponding to each of the plurality of options. The operation of selecting the option corresponding to the subregion is specified as an input operation.
  • the operation image is an image of a numeric keypad containing 10 numbers from 0 to 9, and the position of the indicator is included in the partial area corresponding to representing the key "0".
  • the input specifying unit 33 can specify that the operation of selecting "0" has been performed.
  • the input specifying unit 33 determines that the operation has been performed when the same operation has been continuously performed for a predetermined time or longer (for example, when the same option has been continuously selected for a predetermined time or longer). You may. In this case, the input specifying unit 33 sequentially specifies the content of the input operation for each of the plurality of captured images obtained from the light receiving unit 60, and the same input operation continues for a predetermined time or longer (for example, in a predetermined number or more captured images). If it is done, identify that the input operation was done.
  • the output unit 34 outputs input information representing the content of the input operation specified by the input specifying unit 33 (S110).
  • Various existing methods can be used as a method for generating and outputting information representing the contents of the input operation. For example, assume that the input operation selects one of a plurality of options represented by the operation image. In this case, the input information includes identification information of the options selected by the indicator. For example, suppose that the operation image is an image showing two options, YES and NO, and the former and the latter are given identification information of 0 and 1, respectively. In this case, if YES is selected by the input operation, input information indicating identification information of 0 is generated.
  • Non-temporary computer-readable media include various types of tangible storage media.
  • Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks), CD-ROMs, CD-Rs, CD-Rs. / W, including semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM).
  • the program may also be provided to the computer by various types of temporary computer readable medium. Examples of temporary computer-readable media include electrical, optical, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • (Appendix 1) It is a control device that controls the projection device.
  • the projection device has a projection unit that projects irradiation light and a light receiving unit that captures the reflected light of the irradiation light and generates an image to be captured in the same housing.
  • a projection control unit that controls the projection device to project irradiation light representing an operation image onto the projected surface.
  • a distance measuring unit that calculates distances to each of a plurality of positions on the projected surface using the captured image generated by the light receiving unit, and a distance measuring unit.
  • An input specifying unit that specifies the content of an input operation by the indicator by specifying the position of the indicator that performs an operation on the operation image based on the distance calculated for each of the plurality of positions.
  • a control device including an output unit that outputs input information representing the content of the specified input operation.
  • the projection unit projects both a first irradiation light representing the operation image and a second irradiation light representing a ranging image different from the operation image.
  • the distance measuring unit acquires an image captured by capturing the reflected light of the second irradiation light from the light receiving unit, and based on the difference between the acquired image and the distance measuring image, the projected surface.
  • the control device according to Appendix 1, which calculates the distance to each of the above plurality of positions.
  • Appendix 3 The control device according to Appendix 2, wherein the projection control unit projects the first irradiation light and the second irradiation light onto the projection unit at different timings from each other.
  • Appendix 4 The first irradiation light is visible light, and is The second irradiation light is invisible light, and is The control device according to Appendix 2, wherein the projection unit projects light on which the first irradiation light and the second irradiation light are superimposed.
  • the input specifying unit specifies a position where the calculated distance is equal to or greater than a first predetermined value and is equal to or less than a second predetermined value among a plurality of positions for which the distance has been calculated by the ranging unit as the position of the indicator.
  • the control device according to any one of Supplementary note 1 to 4.
  • the indicator is the foot of the person performing the input operation.
  • the control device according to any one of Supplementary note 1 to 5, wherein the projected surface is the ground or an object placed on the ground.
  • Appendix 7) A control method performed by a computer that controls a projection device.
  • the projection device has a projection unit that projects irradiation light and a light receiving unit that captures the reflected light of the irradiation light and generates an image to be captured in the same housing.
  • the control method is A projection control step that controls the projection device to project the irradiation light representing the operation image onto the projected surface.
  • a distance measuring step for calculating the distance to each of a plurality of positions on the projected surface using the captured image generated by the light receiving unit, and
  • An input specifying step that specifies the content of an input operation by the indicator by specifying the position of the indicator that performs an operation on the operation image based on the distance calculated for each of the plurality of positions.
  • a control method comprising an output step for outputting input information representing the content of the specified input operation.
  • the projection unit projects both a first irradiation light representing the operation image and a second irradiation light representing a ranging image different from the operation image.
  • an image taken by capturing the reflected light of the second irradiation light is acquired from the light receiving unit, and the projected surface is based on the difference between the acquired image and the distance measuring image.
  • the control method according to Appendix 7, which calculates the distance to each of the above plurality of positions. (Appendix 9) The control method according to Appendix 8, wherein in the projection control step, the first irradiation light and the second irradiation light are projected onto the projection unit at different timings from each other.
  • the first irradiation light is visible light, and is The second irradiation light is invisible light, and is The control method according to Appendix 8, wherein the projection unit projects light on which the first irradiation light and the second irradiation light are superimposed.
  • Appendix 11 In the input specifying step, among the plurality of positions for which the distance is calculated by the distance measuring step, the position where the calculated distance is equal to or greater than the first predetermined value and equal to or less than the second predetermined value is specified as the position of the indicator. , The control method according to any one of Supplementary note 7 to 10.
  • the indicator is the foot of the person performing the input operation.
  • a computer-readable medium containing a program The program is executed by a computer that controls the projection device.
  • the projection device has a projection unit that projects irradiation light and a light receiving unit that captures the reflected light of the irradiation light and generates an image to be captured in the same housing.
  • the program is applied to the computer.
  • a projection control step that controls the projection device to project the irradiation light representing the operation image onto the projected surface.
  • an image taken by capturing the reflected light of the second irradiation light is acquired from the light receiving unit, and the projected surface is based on the difference between the acquired image and the distance measuring image.
  • the computer-readable medium according to Appendix 13 which calculates the distance to each of the above plurality of positions.
  • Appendix 15 The computer-readable medium according to Appendix 14, wherein in the projection control step, the first irradiation light and the second irradiation light are projected onto the projection unit at different timings from each other.
  • the first irradiation light is visible light, and is The second irradiation light is invisible light, and is The computer-readable medium according to Appendix 14, wherein the projection unit projects light on which the first irradiation light and the second irradiation light are superimposed.
  • Appendix 17 In the input specifying step, among the plurality of positions for which the distance is calculated by the distance measuring step, the position where the calculated distance is equal to or greater than the first predetermined value and equal to or less than the second predetermined value is specified as the position of the indicator.
  • the indicator is the foot of the person performing the input operation.
  • the computer-readable medium according to any one of Supplementary note 13 to 17, wherein the projected surface is the ground or an object placed on the ground.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Projection Apparatus (AREA)

Abstract

制御装置(30)は投射装置(50)を制御する。投射装置(50)は、同一の筐体内に投射部(20)及び受光部(60)を有する。投射部(20)は照射光を投射する。受光部(60)は照射光の反射光を撮像して撮像画像を生成する。制御装置(30)は、投射部(20)を制御して、操作画像を表す照射光を被投射面上に投射させる。制御装置(30)は、受光部(60)によって生成される撮像画像を利用して、被投射面上の複数の位置それぞれまでの距離を算出する。制御装置(30)は、複数の位置それぞれについて算出した距離に基づいて、操作画像に対して操作を加える指示体の位置を特定することにより、指示体による入力操作の内容を特定する。制御装置(30)は、特定した入力操作の内容を表す入力情報を出力する。

Description

制御装置、制御方法、及びコンピュータ可読媒体
 本発明は、入力操作に用いる画像を投射する投射装置の制御に関する。
 近年、プロジェクタから投影したユーザインターフェース(以下、UI:User Interface)に対して直感的に情報入力できるシステムが報告されている。例えば特許文献1は、投影装置と撮像装置を利用して、地面に投影した入力キーに対する入力操作を認識する電子装置を開示している。投影装置は、入力キーの画像をエレベータの前の地面に投影する。撮像装置は、入力キーの画像が投影されている場所を撮像する。電子装置は、撮像装置から得た撮像画像を解析し、当該撮像画像から認識できないキー(すなわち、足などで隠れているキー)が操作されたことを検出する。
国際公開第2012/120960号
 特許文献1の電子装置を利用するためには、投影装置と撮像装置の双方を設ける必要がある。そのため、電子装置を利用するためには、これら2つの装置を設けることができるスペースが必要であり、設置場所が限定されてしまう。
 本発明の目的は上述した課題に鑑みてなされたものであり、その目的は、投影された画像に対する入力操作を認識する装置を、より広範な場所で利用可能とする技術を提供することである。
 本開示の制御装置は投射装置を制御する。前記投射装置は、照射光を投射する投射部と、前記照射光の反射光を撮像して撮像画像を生成する受光部と、を同一の筐体内に有する。
 当該制御装置は、前記投射装置を制御して、操作画像を表す照射光を被投射面上に投射させる投射制御部と、前記受光部によって生成される撮像画像を利用して、前記被投射面上の複数の位置それぞれまでの距離を算出する測距部と、前記複数の位置それぞれについて算出した距離に基づいて、前記操作画像に対して操作を加える指示体の位置を特定することにより、前記指示体による入力操作の内容を特定する入力特定部と、前記特定した入力操作の内容を表す入力情報を出力する出力部と、を有する。
 本開示の制御方法は、投射装置を制御するコンピュータによって実行される。前記投射装置は、照射光を投射する投射部と、前記照射光の反射光を撮像して撮像画像を生成する受光部と、を同一の筐体内に有する。
 当該制御方法は、前記投射装置を制御して、操作画像を表す照射光を被投射面上に投射させる投射制御ステップと、前記受光部によって生成される撮像画像を利用して、前記被投射面上の複数の位置それぞれまでの距離を算出する測距ステップと、前記複数の位置それぞれについて算出した距離に基づいて、前記操作画像に対して操作を加える指示体の位置を特定することにより、前記指示体による入力操作の内容を特定する入力特定ステップと、前記特定した入力操作の内容を表す入力情報を出力する出力ステップと、を有する。
 本開示のコンピュータ可読媒体は、本開示の制御方法をコンピュータに実行させるプログラムを格納している。
 本発明によれば、投影された画像に対する入力操作を認識する装置を、より広範な場所で利用可能とする技術が提供される。
本実施形態に係る制御装置を含む情報入力システムの構成を示すブロック図である。 本実施形態の情報入力システムの典型的な利用シーンを示す概念図である。 制御装置の機能構成を例示するブロック図である。 制御装置を実現するコンピュータのハードウエア構成を例示するブロック図である。 投射部の構成を示すブロック図である。 投射部に含まれる光学系の構成例を示す概念図である。 受光部の構成を示すブロック図である。 実施形態1の制御装置によって実行される処理の流れを例示するフローチャートである。 測距画像のバリエーションを例示する図である。
 以下に、本発明を実施するための形態について図面を用いて説明する。ただし、以下に述べる実施形態には、本発明を実施するために技術的に好ましい限定がされているが、発明の範囲を以下に限定するものではない。なお、以下の実施形態の説明に用いる全図においては、特に理由がない限り、同様箇所には同一符号を付す。また、以下の実施形態において、同様の構成・動作に関しては繰り返しの説明を省略する場合がある。また、以下の実施形態において、図面中ブロック間における矢印の向きは、信号の流れの一例を端的に示したものであり、信号の流れの方向を限定するものではない。
[実施形態1]
 <概要>
 図1は、本実施形態に係る制御装置30を含む情報入力システム1の構成を示すブロック図である。情報入力システム1は、投射装置50及び制御装置30を備える。これら装置は、同一の筐体に納められた状態で設置されてもよいし、個別に設置されていてもよい。
 制御装置30は、投射装置50を制御する装置である。投射装置50は、投射部20及び受光部60を有する。投射装置50は、画像を表す光を投射することによって当該画像の投影を行う。受光部60は、投射部20によって投射された光の反射光を受光することで撮像画像を生成する。投射部20と受光部60は、共通の1つの筐体の中に設けられている。
 図2は、本実施形態の情報入力システム1の典型的な利用シーンを示す概念図である。例えば、本実施形態の情報入力システム1は、セキュリティレベルの高い場所の入り口などにおいてパスワードなどの認証情報を入力するために使用される。図2では、入り口付近の天井に投射装置50が設置されている。また、投射装置50の下方の被投射面40に対し、認証対象者(以下、対象者)によって操作されるユーザインターフェース(以下、UI:User Interface)を表す画像が投射されている。以下、投射装置50によって被投射面上に投射される画像(所望の表示情報(文字、記号、又は枠など)を表す画像)のことを、操作画像と表記する。
 図2のように、投射装置50から投射される照射光が通過する空間(以下、投射空間)は、例えば、投射装置50の投射部分を頂点とする略四角錐の内部の三次元空間である。ただし、投射空間の形状は略四角錐には限定されず、略円錐などといった種々の形状とすることができる。
 制御装置30は、入力操作のための UI を表す操作画像が被投射面40に表示されるように、投射装置50の投射部20に照射光を投射させる。被投射面40は、対象者が当該被投射面40上に表示された操作画像を足で操作できる場所であることが好ましい。例えば被投射面40は、地面(床も含む)、又は地面上に設けられた物体(板など)のように、対象者が足で踏むことが容易な場所である。
 制御装置30は、受光部60によって生成される撮像画像を用いて(すなわち、投射部20から投射された光が撮像された撮像画像を用いて)、被投射面40上の指示体の位置を特定し、特定した位置に基づいて、当該指示体が操作画像に対して行った入力操作の内容を特定する。例えば指示体は、対象者の足などである。
 ここで、指示体の位置の特定は、上記撮像画像を利用した測距によって実現される。具体的には、制御装置30は、撮像画像を利用して、被投射面40上の複数の位置それぞれについて、投射装置50からの距離を算出する。そして、制御装置30は、算出された各位置までの距離に基づいて、指示体の位置を特定する。投射装置50から足などの指示体が存在する位置までの距離は、投射装置50から被投射面40までの距離よりも短くなる。そのため、上述した測距により、指示体の位置を特定することができる。
 制御装置30は、特定した入力操作の内容を表す情報(以下、入力情報)を、当該入力操作に応じた処理を行う装置(以下、処理装置)へ送信する。例えば、情報入力システム1を認証に利用する場合、情報入力システム1によって検出された入力操作に応じて認証を行う装置が処理装置となる。なお、処理装置は、制御装置30と同一の筐体に納められていてもよいし、別途設置されていてもよい。後者の場合、例えば、ネットワークを介して制御装置30と接続されているサーバマシン等などで、処理装置を実現することができる。
<作用効果の一例>
 本実施形態の制御装置30によれば、投射装置50に含まれる投射部20を利用して被投射面40に投射された操作画像に対する入力操作が、同じく投射装置50に含まれる受光部60を利用して行った測距の結果に基づいて特定される。そして、投射部20と受光部60は、共通の1つの筐体の中に設けられている。このように、操作画像の表示と当該操作画像に対する入力操作の内容の特定を、共通の1つの筐体の中に設けられている装置で実現できる。そのため、操作画像の投射を行う装置と、当該操作画像に対する入力操作の内容の特定を行う装置が、互いに異なる筐体の中に設けられるケースと比較し、装置のサイズを小さくすることができる。
 また、投射部20は、操作画像の投射と、測距のための光の投射という2つの役割を持つ。言い換えれば、操作画像を表示するための光の投射、及び測距のための光の投射という2つの機能を、投射部20という1つの構成要素で実現することができる。そのため、この点からも、投射装置50のサイズを小さくすることが可能である。
 以下、本実施形態の情報入力システム1について、より詳細に説明する。
<機能構成の例>
 図3は、制御装置30の機能構成を例示するブロック図である。図3のように、制御装置30は、投射制御部31、測距部32、入力特定部33、及び出力部34を有する。投射制御部31は、投射部20を制御して、操作画像を表す照射光を被投射面40上に投射させる。測距部32は、受光部60によって生成される撮像画像を利用して、被投射面40上の複数の位置それぞれまでの距離を算出する。入力特定部33は、複数の位置それぞれについて算出した距離に基づいて、操作画像に対して操作を加える指示体の位置を特定する。そして、入力特定部33は、特定した指示体の位置に基づいて、指示体による入力操作の内容を特定する。出力部34は、特定した入力操作の内容を表す入力情報を出力する。
<制御装置30のハードウエア構成の例>
 制御装置30の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、制御装置30の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
 図4は、制御装置30を実現するコンピュータ500のハードウエア構成を例示するブロック図である。コンピュータ500は、任意のコンピュータである。例えばコンピュータ500は、SoC(System on a Chip)や SiP(System in a Package)などの集積回路である。その他にも例えば、コンピュータ500は、スマートフォンやタブレット端末などといった可搬型のマシンや、PC(Personal Computer)やサーバマシンなどの据え置き型のマシンであってもよい。コンピュータ500は、制御装置30を実現するために設計された専用のコンピュータであってもよいし、汎用のコンピュータであってもよい。
 コンピュータ500は、バス502、プロセッサ504、メモリ506、ストレージデバイス508、入出力インタフェース510、及びネットワークインタフェース512を有する。バス502は、プロセッサ504、メモリ506、ストレージデバイス508、入出力インタフェース510、及びネットワークインタフェース512が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ504などを互いに接続する方法は、バス接続に限定されない。
 プロセッサ504は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は FPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ506は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス508は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。
 入出力インタフェース510は、コンピュータ500と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース510には、図4に示すように、投射装置50が接続される。また、入出力インタフェース510には、キーボードなどの入力装置や、ディスプレイ装置などの出力装置が接続されてもよい。
 ネットワークインタフェース512は、コンピュータ500をネットワークに接続するためのインタフェースである。このネットワークは、LAN(Local Area Network)であってもよいし、WAN(Wide Area Network)であってもよい。例えばネットワークインタフェース512には、入力情報の送信先となる処理装置が接続される。
 ストレージデバイス508は、制御装置30の各機能構成部を実現するプログラムを記憶している。プロセッサ504は、このプログラムをメモリ506に読み出して実行することで、制御装置30の各機能構成部を実現する。
 制御装置30は、1つのコンピュータ500で実現されてもよいし、複数のコンピュータ500で実現されてもよい。後者の場合において、各コンピュータ500の構成は同一である必要はなく、それぞれ異なるものとすることができる。
<投射部20の構成>
 投射部20の構成について、図面を参照しながら説明する。図5は、投射部20の構成を示すブロック図である。また、図6は、投射部20に含まれる光学系の構成例を示す概念図である。
 図5のように、投射部20は、光源21と、光源駆動電源22と、空間光変調素子23と、変調素子駆動手段24と、投射光学系25とを備える。なお、図5は概念的なものであり、各構成要素間の位置関係や、光の照射方向などを正確に表したものではない。
 光源21は、特定波長の光110を出射する。例えば、レーザ光源を光源21として用いることができる。光源21から出射される光110は、位相がそろったコヒーレントな光であることが好ましい。通常、光源21は、可視領域の光を出射するように構成する。なお、光源21は、赤外領域や紫外領域などの可視領域以外の光を出射するように構成してもよい。また、光源21は、発光ダイオードや白熱電球、放電管などのレーザ光源以外で構成してもよい。
 図6のように、光源21が出射した光110は、コリメータ210によってコヒーレントな光110となり、空間光変調素子23の表示部に入射される。例えば、複数の波長の光を出射するように光源21を構成すれば、光源21から出射する光の波長を変えることによって、表示情報の色を変更することができる。また、異なる波長の光を同時に出射するように光源21を構成すれば、複数の色によって構成される表示情報を表示させることができる。
 光源駆動電源22(光源駆動手段ともよぶ)は、制御装置30の制御に応じて光源21を駆動させて、光源21から光を出射させるための電源である。
 空間光変調素子23は、変調素子駆動手段24の制御に応じて、被投射面40に所望の操作画像を表示することができる照射光を生成するためのパターン(以下、変調パターン)を、自身の表示部に表示する。本実施形態においては、空間光変調素子23の表示部に変調パターンが表示された状態で、その表示部に光110を照射する。空間光変調素子23は、入射される光110の反射光(変調光130)を投射光学系25に向けて出射する。
 ここで、図6のように、空間光変調素子23の表示部に対して光110の入射角を非垂直にすることが好ましい。すなわち、光源21からの光110の出射軸を空間光変調素子23の表示部に対して斜めにする。このように、空間光変調素子23の表示部に対して光110の出射軸を斜めに設定すれば、ビームスプリッタを用いなくても空間光変調素子23の表示部に光110を入射できるため、効率を向上させることができる。
 空間光変調素子23は、位相がそろったコヒーレントな光110の入射を受け、入射された光110の位相を変調する位相変調型の空間光変調素子によって実現できる。位相変調型の空間光変調素子23を用いた投射光学系からの出射光は、フォーカスフリーであるため、複数の投射距離に設定される表示領域に光を投射することになっても投射距離ごとに焦点を変える必要がない。なお、空間光変調素子23は、各表示領域に表示情報を表示できるのであれば位相変調型とは異なる方式の素子であってもよいが、フォーカスフリーを実現するためには位相変調型の素子である方が好ましい。
 位相変調型の空間光変調素子23の表示部には、操作画像内の表示情報の位相分布が表示される。この場合、空間光変調素子23の表示領域で反射された変調光130は、一種の回折格子が集合体を形成したような画像になり、回折格子で回折された光が集まるように画像が形成される。
 空間光変調素子23は、例えば、強誘電性液晶やホモジーニアス液晶、垂直配向液晶などを用いた空間光変調素子によって実現される。空間光変調素子23は、具体的には、LCOS(Liquid Crystal on Silicon)によって実現できる。また、空間光変調素子23は、例えば、MEMS(Micro Electro Mechanical System)によって実現してもよい。
 位相変調型の空間光変調素子23では、照射光を投射する表示領域を順次切り替えるように動作させることによってエネルギーを表示情報の部分に集中することができる。そのため、位相変調型の空間光変調素子23を用いれば、光源の出力が同じであれば、その他の方式のものよりも表示情報を明るく表示させることができる。
 変調素子駆動手段24は、制御装置30の制御に応じて、変調パターンを空間光変調素子23の表示部に表示させる。変調素子駆動手段24は、空間光変調素子23の表示部に照射される光110の位相と、表示部で反射される変調光130の位相との差分を決定づけるパラメータが変化するように空間光変調素子23を駆動する。
 位相変調型の空間光変調素子23の表示部に照射される光110の位相と、表示部で反射される変調光130の位相との差分を決定づけるパラメータは、例えば、屈折率や光路長などの光学的特性に関するパラメータである。例えば、変調素子駆動手段24は、空間光変調素子23の表示部に印加する電圧を変化させることによって、表示部の屈折率を変化させる。その結果、表示部に照射された光110は、表示部の屈折率に基づいて適宜回折される。すなわち、位相変調型の空間光変調素子23に照射された光110の位相分布は、表示部の光学的特性に応じて変調される。なお、変調素子駆動手段24による空間光変調素子23の駆動方法はここで挙げた限りではない。
 投射光学系25は、空間光変調素子23で変調された変調光130を照射光150として投射する。図6のように、投射光学系25は、フーリエ変換レンズ251、アパーチャ252および投射レンズ253を有する。空間光変調素子23で変調された変調光130は、投射光学系25によって照射光150として照射される。なお、各表示領域に表示情報を表示させることができれば、投射光学系25の構成要素のうちいずれかを省略して構成してもよい。
 フーリエ変換レンズ251は、空間光変調素子23の表示部で反射された変調光130を無限遠に投射した際に形成される像を、近傍の焦点に結像させるための光学レンズである。図6では、アパーチャ252の位置に焦点が形成されている。
 アパーチャ252は、フーリエ変換レンズ251によって集束された光に含まれる高次光を遮蔽し、表示領域を特定する機能を有する。アパーチャ252の開口部は、アパーチャ252の位置における表示領域の最外周よりも小さく開口され、アパーチャ252の位置における表示情報の周辺領域を遮るように設置される。例えば、アパーチャ252の開口部は、矩形状や円形状に形成される。アパーチャ252は、フーリエ変換レンズ251の焦点位置に設置されることが好ましいが、高次光を消去する機能を発揮できれば焦点位置からずれていても構わない。
 投射レンズ253は、フーリエ変換レンズ251によって集束された光を拡大して投射する光学レンズである。投射レンズ253は、空間光変調素子23に入力された位相分布に対応する表示情報が各表示領域に表示されるように照射光150を投射する。
 単純な記号などの線画を投射する用途に情報入力システム1を用いる場合、投射光学系25から投射された照射光150は、各表示領域に均一に投射されるのではなく、文字や記号、枠などといった表示情報を表す部分に集中的に投射される。そのような場合、情報入力システム1によれば、光110の出射量を実質的に減らせるため、全体的な光出力を抑えることができる。すなわち、情報入力システム1は、小型かつ低電力な光源21で構成できるため、その光源21を駆動する光源駆動電源22を低出力にでき、全体的な消費電力を低減できる。
<受光部60の構成>
 受光部60の構成について、図面を参照しながら説明する。図7は、受光部60の構成を示すブロック図である。図7の受光部60は、受光光学系61、撮像素子62、画像処理プロセッサ63、メモリ64、及び出力回路65を有する。
 受光光学系61は、撮像する光を撮像素子62へ導くための光学系であり、例えば、シャッタとレンズを有する。撮像素子62は、投射部20から投射された光を撮像するための素子である。例えば撮像素子62は、半導体部品が集積回路化された光電変換素子であり、複数の受光領域が格子状に配置された構造を有する。撮像素子62は、例えば、CCD(Charge-Coupled Device)や COMS(Complementary Metal-Oxide-Semiconductor)などの固体撮像素子によって実現できる。CCD や COMS は、アレイ状に配置された複数の受光領域を有する。
 画像処理プロセッサ63は、撮像素子62によって生成された画像データに対して、暗電流補正や補間演算、色空間変換、ガンマ補正、収差の補正、ノイズリダクション、又は画像圧縮などの画像処理を実行する集積回路である。なお、画像情報を加工しない場合は、画像処理プロセッサ63を省略してもよい。
 メモリ64は、画像処理プロセッサ63によって画像処理を行う際に処理しきれない画像データや、処理済みの画像データを一時的に格納する記憶素子である。なお、撮像素子62によって撮像された画像データをメモリ64に一時的に記憶するように構成してもよい。メモリ64は、一般的なメモリによって構成すればよい。
 出力回路65は、画像処理プロセッサ63によって処理された画像データを制御装置30に出力する。制御装置30は、出力回路65から出力される画像データを、前述した撮像画像として取得する。
<処理の流れ>
 図8は、実施形態1の制御装置30によって実行される処理の流れを例示するフローチャートである。投射制御部31は、投射装置50の投射部20を制御して、操作画像を表す照射光を被投射面40上に投射させる(S102)。測距部32は、受光部60によって生成される撮像画像を利用して、被投射面40上の複数の位置それぞれまでの距離を算出する(S104)。入力特定部33は、複数の位置それぞれについて算出した距離に基づいて、操作画像に対して操作を加える指示体の位置を特定する(S106)。入力特定部33は、特定した指示体の位置に基づいて、指示体による入力操作の内容を特定する(S108)。出力部34は、特定した入力操作の内容を表す入力情報を出力する(S110)。なお、入力操作が行われるまでは、S106において、指示体が検出されない。そこで例えば、制御装置30は、指示体が検出されるまではS102からS106を繰り返し実行し、指示体が検出されたら、S108以降を実行する。
<操作画像の投射:S102>
 投射制御部31は、撮像画像を表す光を被投射面40に投射するように、投射部20を制御する(S102)。前述したように、投射部20から所望の画像を表す照射光が投射されるようにするためには、空間光変調素子23の表示部に、当該所望の画像に対応する変調パターンが表示された状態で、その表示部に光110を照射する。
 そこで例えば、投射制御部31は、所望の操作画像(すなわち、対象者に提示すべき表示情報を含む操作画像)に対応する変調パターンを、空間光変調素子23の表示部に設定した上で、光源21に光110を出力させる。こうすることで、投射部20から、当該操作画像を表す照射光150が投射される。その結果として、被投射面40上に、操作画像が表示される。なお、所望の画像に対応する変調パターンを空間光変調素子23の表示部に設定する方法には、既存の技術を利用することができる。
 ここで、操作画像に対応する変調パターンは、予め用意されていてもよいし、投射制御部31によって生成されてもよい。後者の場合、投射制御部31は、操作画像を変調パターンに変換する処理を行う。画像を変調パターンに変換する技術には、既存の技術を利用することができる。
 所望の操作画像やそれに対応する変調パターンを投射制御部31が取得する方法は任意である。例えば、操作画像の識別情報と操作画像とを対応づけて、投射制御部31からアクセス可能な記憶装置に格納しておく。この場合、投射制御部31は、利用すべき操作画像の識別情報を取得し、当該識別情報に対応する操作画像を記憶装置から取得する。
 操作画像に対応する変調パターンが予め用意されている場合、操作画像の識別情報と、その操作画像に対応する変調パターンとの対応付けを、前述した記憶装置に格納しておく。投射制御部31は、操作画像の識別情報を取得したら、その識別情報に対応する変調パターンを取得する。
 例えば操作画像の識別情報は、前述した処理装置(制御装置30から出力される入力情報を利用する装置)から取得する。すなわち、処理装置は、操作画像の識別情報を制御装置30に出力することで、所望の操作画像を被投射面40に表示させ、対象者に所望の入力(例えば、ユーザ名やパスワードの入力など)を行わせる。そして、処理装置は、制御装置30から入力情報を取得することで、対象者によって行われた入力操作の内容を取得し、所望の処理を行う(例えば、入力されたユーザ名やパスワードを取得し、認証処理を行う)。なお、操作画像の識別情報の代わりに、操作画像や変調パターンそのものを処理装置から取得するようにしてもよい。
<照射光を利用した測距:S104>
 測距部32は、照射光の反射光を撮像する受光部60から得られる撮像画像を利用して、投射装置50から投射範囲内の複数の位置それぞれまでの距離を特定する(S104)。ここで、投射範囲とは、被投射面40のうち、照射光が投射される領域のことである。なお、測距に利用する照射光は、操作画像を表す照射光であってもよいし、その他の画像を表す照射光であってもよい。後者の場合に投射部20から投射される画像を、測距画像と呼ぶ。
 図9は、測距画像のバリエーションを例示する図である。Aは、ストライプ状のパターン(ストライプ光を)を表す測距画像の例である。なお、ストライプ状のパターンは、縦縞ではなく、横縞であってもよい。Bは、アレイ状に配列させた要素(パターン光)を表す測距画像の例である。なお、いずれのパターンも、光が弱い部分と強い部分の2つを含むが、図示の都合上、光が強い部分を白色で表し、光が弱い部分をドット柄で表している。なお、これらのパターン以外にも、例えば、ランダムパターンなどを利用することができる。
 投射部20の投射範囲内に指示体などの物体が存在する場合、受光部60から得られる撮像画像では、操作画像に含まれる表示情報や測距画像に含まれるパターンが、元々の画像に含まれていたものからずれた状態となる。そこで例えば、測距部32は、撮像画像を複数の部分領域に分解し、各部分領域に含まれる表示情報やパターンと、元の画像において当該部分領域に相当する部分に含まれる表示情報やパターンとについて、そのずれを算出する。そして測距部32は、算出したずれの大きさに基づいて、その部分領域に対応する被投射面40上の位置と投射部20との間の距離を特定する。なお、このようなずれの大きさを距離に変換する具体的な技術については、既存の技術を利用することができる。
<<操作画像と測距画像の双方を投射する方法>>
 測距画像を利用する場合、投射部20に操作画像と測距画像の双方を投射させる必要がある。投射部20にこれら複数の画像を投射させる方法は様々である。例えば投射部20は、これら2つの画像を異なるタイミングで投射部20に投射させる(すなわち、時分割多重)。例えば投射部20は、「t1 ミリ秒間操作画像を投射した後、t2 ミリ秒間測距画像を投射する」という動作を繰り返す。なお、操作画像が表示されていない期間があることを対象者が認識できないように、測距画像を投射する期間の長さ t2 は、t1 と比較して短くすることが好適である。
 この場合、受光部60から得られる複数の撮像画像は、操作画像が含まれているもの(操作画像が表示されている状態の被投射面40を撮像したもの)と、測距画像が含まれているもの(測距画像が表示されている状態の被投射面40を撮像したもの)とに大別できる。そこで測距部32は、受光部60から得られる複数の撮像画像の中から、測距画像が含まれている撮像画像を選択肢、当該撮像画像を利用して距離の特定を行う。
 ここで、受光部60から得られる撮像画像を、操作画像が含まれているものと測距画像が含まれているものに分類する方法は様々である。例えば測距部32は、受光部60から得られる撮像画像を、操作画像と測距画像の双方と比較することで、当該撮像画像が、操作画像と測距画像のどちらとより類似しているかを判定する。そして、測距部32は、操作画像よりも測距画像に類似していると判定された撮像画像を、測距画像が含まれている撮像画像として取得する。
 操作画像と測距画像の双方を投射部20に投射させる方法は、時分割多重に限定されない。例えば投射部20は、操作画像を表す可視光線と、測距画像を表す不可視光線とが重畳された光を投射することで、操作画像と測距画像を同時に投射してもよい。この場合、受光部60には、当該不可視光線を受光するセンサが利用される。例えば不可視光線として赤外線を利用する場合、受光部60は、赤外線を受光して撮像画像(いわゆる赤外画像)を生成する。
 このように2種類の光を投射できるように投射部20を構成する場合、例えば投射部20は、光源21、光源駆動電源22、空間光変調素子23、及び変調素子駆動手段24のセットを2つ有する。一方のセットは操作画像の投射に利用され、他方のセットは測距画像の投射に利用される。そのため、一方の光源21には可視光線を照射する光源が利用され、他方の光源21には不可視光線を照射する光源が利用される。また、一方の空間光変調素子23には操作画像に対応する変調パターンが設定され、他方の空間光変調素子23には測距画像に対応する変調パターンが設定される。
 これら2つの空間光変調素子23から照射される2つの変調光130は、投射光学系25において重畳される。これにより、操作画像を表す可視光線と測距画像を表す不可視光線を重畳した光を投射部20から投射することができる。このように、少なくとも投射光学系25を可視光線と不可視光線とで共有することで、投射光学系25を共有しない場合と比較し、投射部20のサイズを小さくすることができる。
<指示体の検出:S106>
 入力特定部33は、測距部32による測距の結果に基づいて、指示体の位置の特定を行う(S106)。ここで、被投射面40上の投射範囲内に指示体が存在すると、投射範囲内の位置のうち、指示体が存在する位置から投射装置50までの距離が、指示体が存在しない位置から投射装置50までの距離よりも短くなる。そこで例えば、入力特定部33は、投射範囲内の複数の位置の中から、当該位置から投射装置50までの距離が、それ以外の位置から投射装置50までの距離と比較して有意に短いものを検出することで、指示体の位置を特定する。
 ただし、投射範囲内に指示体以外の物体が含まれてしまうケースも考えられる。例えば、地面に表示された操作画像を対象者が足で操作する場合に、対象者の胴体や頭なども投射範囲内に入ってしまうケースである。この場合、胴体や頭などは指示体としては検出せず、足の周辺のみを指示体として検出することで、指示体の位置を正確に特定することが好ましい。また、投射範囲内にゴミなどの異物が存在する可能性もある。そのため、入力特定部33は、指示体として想定する物体の厚さよりも有意に大きい厚さの物体(対象者の胴体や頭など)や、指示体として想定する物体の厚さよりも有意に小さい厚さの物体(ゴミなど)については、指示体として検出しないように構成されることが好ましい。
 そこで例えば、指示体の厚みの大きさ(すなわち、投射装置50から指示体までの距離が、投射装置50から被投射面40までの距離よりもどの程度短くなるのか)の範囲を示す情報を予め用意し、入力特定部33からアクセス可能な記憶装置に格納しておく。この情報を、サイズ情報と呼ぶ。例えば、サイズ情報として、「L1 以上 L2 以下」を定めておく。また、投射装置50から被投射面40までの距離 B が予め測定されているとする。この場合、入力特定部33は、投射範囲に含まれる複数の位置のうち、投射装置50からの距離 D が「B-L2<=D<=B-L1」の範囲となる位置を、指示体の位置として特定する。
 なお、距離を測定する各位置の間隔が指示体の大きさより小さい場合、指示体の複数箇所の位置について距離が測定されうる。この場合、距離が算出された複数の位置の中に、指示体の位置としての条件(前述の例では「B-L2<=D<=B-L1」)を満たすものが複数存在しうる。この場合、入力特定部33は、指示体の位置を、当該条件を満たす複数の位置の集合で表す。
<入力内容の特定:S108>
 入力特定部33は、特定した指示体の位置に基づいて、操作画像に対して行われた入力操作の内容を特定する(S108)。ここで、指示体の位置に基づいて入力内容を特定する方法は様々である。例えば入力操作が、操作画像によって表される複数の選択肢のうちの1つを選択する入力操作であるとする。この場合、例えば入力特定部33は、特定した指示体の位置が、操作画像上のどの部分に含まれるかを特定する。より具体的には、入力特定部33は、複数の選択肢それぞれに対応する部分領域(操作画像全体の領域の一部)の中から、特定した操作体の位置を含む部分領域を特定し、特定した部分領域に対応する選択肢を選択する操作を、入力操作として特定する。
 例えば図2の例のように、操作画像が0から9の10個の数字を含むテンキーの画像であり、指示体の位置が、「0」というキーを表すに対応する部分領域に含まれているとする。この場合、入力特定部33は、「0」を選択する操作が行われたことを特定することができる。
 なお、入力特定部33は、同じ操作が所定時間以上継続して行われている場合(例えば、同じ選択肢が所定時間以上継続して選択されている場合)に、当該操作が行われたと判定してもよい。この場合、入力特定部33は、受光部60から得られる複数の撮像画像それぞれについて順次入力操作の内容を特定し、同一の入力操作が所定時間以上(例えば、所定数以上の撮像画像において継続して)行われている場合に、当該入力操作が行われたと特定する。
<入力情報の出力:S110>
 出力部34は、入力特定部33によって特定された入力操作の内容を表す入力情報を出力する(S110)。入力操作の内容を表す情報を生成・出力する方法には、既存の種々の方法を利用することができる。例えば入力操作が、操作画像によって表される複数の選択肢のうちの1つを選択するものであるとする。この場合、入力情報には、指示体によって選択された選択肢の識別情報が含まれる。例えば操作画像が YES と NO という2つの選択肢を表す画像であり、前者と後者のそれぞれに0と1という識別情報が与えられていたとする。この場合、入力操作によって YES が選択された場合には、0という識別情報を示す入力情報が生成される。
 以上、実施形態を参照して本発明を説明してきたが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 なお、上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに提供することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD-ROM、CD-R、CD-R/W、半導体メモリ(例えば、マスク ROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに提供されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 投射装置を制御する制御装置であって、
 前記投射装置は、照射光を投射する投射部と、前記照射光の反射光を撮像して撮像画像を生成する受光部と、を同一の筐体内に有し、
 前記投射装置を制御して、操作画像を表す照射光を被投射面上に投射させる投射制御部と、
 前記受光部によって生成される撮像画像を利用して、前記被投射面上の複数の位置それぞれまでの距離を算出する測距部と、
 前記複数の位置それぞれについて算出した距離に基づいて、前記操作画像に対して操作を加える指示体の位置を特定することにより、前記指示体による入力操作の内容を特定する入力特定部と、
 前記特定した入力操作の内容を表す入力情報を出力する出力部と、を有する制御装置。
 (付記2)
 前記投射部は、前記操作画像を表す第1の照射光と、前記操作画像とは異なる測距画像を表す第2の照射光の双方を投射し、
 前記測距部は、前記受光部から、前記第2の照射光の反射光を撮像した撮像画像を取得し、前記取得した撮像画像と前記測距画像との差異に基づいて、前記被投射面上の複数の位置それぞれまでの距離を算出する、付記1に記載の制御装置。
 (付記3)
 前記投射制御部は、前記投射部に、前記第1の照射光と前記第2の照射光を互いに異なるタイミングで投射させる、付記2に記載の制御装置。
 (付記4)
 前記第1の照射光は可視光線であり、
 前記第2の照射光は不可視光線であり、
 前記投射部は、前記第1の照射光と前記第2の照射光が重畳された光を投射する、付記2に記載の制御装置。
 (付記5)
 前記入力特定部は、前記測距部によって距離が算出された複数の位置のうち、算出された距離が第1所定値以上第2所定値以下である位置を、前記指示体の位置として特定する、付記1から4いずれか一項に記載の制御装置。
 (付記6)
 前記指示体は入力操作を行う人物の足であり、
 前記被投射面は、地面又は地面上に置かれた物体である、付記1から5いずれか一項に記載の制御装置。
 (付記7)
 投射装置を制御するコンピュータによって実行される制御方法であって、
 前記投射装置は、照射光を投射する投射部と、前記照射光の反射光を撮像して撮像画像を生成する受光部と、を同一の筐体内に有し、
 当該制御方法は、
 前記投射装置を制御して、操作画像を表す照射光を被投射面上に投射させる投射制御ステップと、
 前記受光部によって生成される撮像画像を利用して、前記被投射面上の複数の位置それぞれまでの距離を算出する測距ステップと、
 前記複数の位置それぞれについて算出した距離に基づいて、前記操作画像に対して操作を加える指示体の位置を特定することにより、前記指示体による入力操作の内容を特定する入力特定ステップと、
 前記特定した入力操作の内容を表す入力情報を出力する出力ステップと、を有する制御方法。
 (付記8)
 前記投射部は、前記操作画像を表す第1の照射光と、前記操作画像とは異なる測距画像を表す第2の照射光の双方を投射し、
 前記測距ステップにおいて、前記受光部から、前記第2の照射光の反射光を撮像した撮像画像を取得し、前記取得した撮像画像と前記測距画像との差異に基づいて、前記被投射面上の複数の位置それぞれまでの距離を算出する、付記7に記載の制御方法。
 (付記9)
 前記投射制御ステップにおいて、前記投射部に、前記第1の照射光と前記第2の照射光を互いに異なるタイミングで投射させる、付記8に記載の制御方法。
 (付記10)
 前記第1の照射光は可視光線であり、
 前記第2の照射光は不可視光線であり、
 前記投射部は、前記第1の照射光と前記第2の照射光が重畳された光を投射する、付記8に記載の制御方法。
 (付記11)
 前記入力特定ステップにおいて、前記測距ステップによって距離が算出された複数の位置のうち、算出された距離が第1所定値以上第2所定値以下である位置を、前記指示体の位置として特定する、付記7から10いずれか一項に記載の制御方法。
 (付記12)
 前記指示体は入力操作を行う人物の足であり、
 前記被投射面は、地面又は地面上に置かれた物体である、付記7から11いずれか一項に記載の制御方法。
 (付記13)
 プログラムが格納されているコンピュータ可読媒体であって、
 前記プログラムは、投射装置を制御するコンピュータによって実行され、
 前記投射装置は、照射光を投射する投射部と、前記照射光の反射光を撮像して撮像画像を生成する受光部と、を同一の筐体内に有し、
 前記プログラムは、前記コンピュータに、
 前記投射装置を制御して、操作画像を表す照射光を被投射面上に投射させる投射制御ステップと、
 前記受光部によって生成される撮像画像を利用して、前記被投射面上の複数の位置それぞれまでの距離を算出する測距ステップと、
 前記複数の位置それぞれについて算出した距離に基づいて、前記操作画像に対して操作を加える指示体の位置を特定することにより、前記指示体による入力操作の内容を特定する入力特定ステップと、
 前記特定した入力操作の内容を表す入力情報を出力する出力ステップと、を実行させるコンピュータ可読媒体。
 (付記14)
 前記投射部は、前記操作画像を表す第1の照射光と、前記操作画像とは異なる測距画像を表す第2の照射光の双方を投射し、
 前記測距ステップにおいて、前記受光部から、前記第2の照射光の反射光を撮像した撮像画像を取得し、前記取得した撮像画像と前記測距画像との差異に基づいて、前記被投射面上の複数の位置それぞれまでの距離を算出する、付記13に記載のコンピュータ可読媒体。
 (付記15)
 前記投射制御ステップにおいて、前記投射部に、前記第1の照射光と前記第2の照射光を互いに異なるタイミングで投射させる、付記14に記載のコンピュータ可読媒体。
 (付記16)
 前記第1の照射光は可視光線であり、
 前記第2の照射光は不可視光線であり、
 前記投射部は、前記第1の照射光と前記第2の照射光が重畳された光を投射する、付記14に記載のコンピュータ可読媒体。
 (付記17)
 前記入力特定ステップにおいて、前記測距ステップによって距離が算出された複数の位置のうち、算出された距離が第1所定値以上第2所定値以下である位置を、前記指示体の位置として特定する、付記13から16いずれか一項に記載のコンピュータ可読媒体。
 (付記18)
 前記指示体は入力操作を行う人物の足であり、
 前記被投射面は、地面又は地面上に置かれた物体である、付記13から17いずれか一項に記載のコンピュータ可読媒体。
1      情報入力システム
20      投射部
21      光源
22      光源駆動電源
23      空間光変調素子
24      変調素子駆動手段
25      投射光学系
30      制御装置
31      投射制御部
32      測距部
33      入力特定部
34      出力部
40      被投射面
50      投射装置
60      受光部
61      受光光学系
62      撮像素子
63      画像処理プロセッサ
64      メモリ
65      出力回路
110      光
130      変調光
150      照射光
210      コリメータ
251      フーリエ変換レンズ
252      アパーチャ
253      投射レンズ
500      コンピュータ
502      バス
504      プロセッサ
506      メモリ
508      ストレージデバイス
510      入出力インタフェース
512      ネットワークインタフェース

Claims (18)

  1.  投射装置を制御する制御装置であって、
     前記投射装置は、照射光を投射する投射部と、前記照射光の反射光を撮像して撮像画像を生成する受光部と、を同一の筐体内に有し、
     前記投射装置を制御して、操作画像を表す照射光を被投射面上に投射させる投射制御部と、
     前記受光部によって生成される撮像画像を利用して、前記被投射面上の複数の位置それぞれまでの距離を算出する測距部と、
     前記複数の位置それぞれについて算出した距離に基づいて、前記操作画像に対して操作を加える指示体の位置を特定することにより、前記指示体による入力操作の内容を特定する入力特定部と、
     前記特定した入力操作の内容を表す入力情報を出力する出力部と、を有する制御装置。
  2.  前記投射部は、前記操作画像を表す第1の照射光と、前記操作画像とは異なる測距画像を表す第2の照射光の双方を投射し、
     前記測距部は、前記受光部から、前記第2の照射光の反射光を撮像した撮像画像を取得し、前記取得した撮像画像と前記測距画像との差異に基づいて、前記被投射面上の複数の位置それぞれまでの距離を算出する、請求項1に記載の制御装置。
  3.  前記投射制御部は、前記投射部に、前記第1の照射光と前記第2の照射光を互いに異なるタイミングで投射させる、請求項2に記載の制御装置。
  4.  前記第1の照射光は可視光線であり、
     前記第2の照射光は不可視光線であり、
     前記投射部は、前記第1の照射光と前記第2の照射光が重畳された光を投射する、請求項2に記載の制御装置。
  5.  前記入力特定部は、前記測距部によって距離が算出された複数の位置のうち、算出された距離が第1所定値以上第2所定値以下である位置を、前記指示体の位置として特定する、請求項1から4いずれか一項に記載の制御装置。
  6.  前記指示体は入力操作を行う人物の足であり、
     前記被投射面は、地面又は地面上に置かれた物体である、請求項1から5いずれか一項に記載の制御装置。
  7.  投射装置を制御するコンピュータによって実行される制御方法であって、
     前記投射装置は、照射光を投射する投射部と、前記照射光の反射光を撮像して撮像画像を生成する受光部と、を同一の筐体内に有し、
     当該制御方法は、
     前記投射装置を制御して、操作画像を表す照射光を被投射面上に投射させる投射制御ステップと、
     前記受光部によって生成される撮像画像を利用して、前記被投射面上の複数の位置それぞれまでの距離を算出する測距ステップと、
     前記複数の位置それぞれについて算出した距離に基づいて、前記操作画像に対して操作を加える指示体の位置を特定することにより、前記指示体による入力操作の内容を特定する入力特定ステップと、
     前記特定した入力操作の内容を表す入力情報を出力する出力ステップと、を有する制御方法。
  8.  前記投射部は、前記操作画像を表す第1の照射光と、前記操作画像とは異なる測距画像を表す第2の照射光の双方を投射し、
     前記測距ステップにおいて、前記受光部から、前記第2の照射光の反射光を撮像した撮像画像を取得し、前記取得した撮像画像と前記測距画像との差異に基づいて、前記被投射面上の複数の位置それぞれまでの距離を算出する、請求項7に記載の制御方法。
  9.  前記投射制御ステップにおいて、前記投射部に、前記第1の照射光と前記第2の照射光を互いに異なるタイミングで投射させる、請求項8に記載の制御方法。
  10.  前記第1の照射光は可視光線であり、
     前記第2の照射光は不可視光線であり、
     前記投射部は、前記第1の照射光と前記第2の照射光が重畳された光を投射する、請求項8に記載の制御方法。
  11.  前記入力特定ステップにおいて、前記測距ステップによって距離が算出された複数の位置のうち、算出された距離が第1所定値以上第2所定値以下である位置を、前記指示体の位置として特定する、請求項7から10いずれか一項に記載の制御方法。
  12.  前記指示体は入力操作を行う人物の足であり、
     前記被投射面は、地面又は地面上に置かれた物体である、請求項7から11いずれか一項に記載の制御方法。
  13.  プログラムが格納されているコンピュータ可読媒体であって、
     前記プログラムは、投射装置を制御するコンピュータによって実行され、
     前記投射装置は、照射光を投射する投射部と、前記照射光の反射光を撮像して撮像画像を生成する受光部と、を同一の筐体内に有し、
     前記プログラムは、前記コンピュータに、
     前記投射装置を制御して、操作画像を表す照射光を被投射面上に投射させる投射制御ステップと、
     前記受光部によって生成される撮像画像を利用して、前記被投射面上の複数の位置それぞれまでの距離を算出する測距ステップと、
     前記複数の位置それぞれについて算出した距離に基づいて、前記操作画像に対して操作を加える指示体の位置を特定することにより、前記指示体による入力操作の内容を特定する入力特定ステップと、
     前記特定した入力操作の内容を表す入力情報を出力する出力ステップと、を実行させるコンピュータ可読媒体。
  14.  前記投射部は、前記操作画像を表す第1の照射光と、前記操作画像とは異なる測距画像を表す第2の照射光の双方を投射し、
     前記測距ステップにおいて、前記受光部から、前記第2の照射光の反射光を撮像した撮像画像を取得し、前記取得した撮像画像と前記測距画像との差異に基づいて、前記被投射面上の複数の位置それぞれまでの距離を算出する、請求項13に記載のコンピュータ可読媒体。
  15.  前記投射制御ステップにおいて、前記投射部に、前記第1の照射光と前記第2の照射光を互いに異なるタイミングで投射させる、請求項14に記載のコンピュータ可読媒体。
  16.  前記第1の照射光は可視光線であり、
     前記第2の照射光は不可視光線であり、
     前記投射部は、前記第1の照射光と前記第2の照射光が重畳された光を投射する、請求項14に記載のコンピュータ可読媒体。
  17.  前記入力特定ステップにおいて、前記測距ステップによって距離が算出された複数の位置のうち、算出された距離が第1所定値以上第2所定値以下である位置を、前記指示体の位置として特定する、請求項13から16いずれか一項に記載のコンピュータ可読媒体。
  18.  前記指示体は入力操作を行う人物の足であり、
     前記被投射面は、地面又は地面上に置かれた物体である、請求項13から17いずれか一項に記載のコンピュータ可読媒体。
PCT/JP2020/025685 2020-06-30 2020-06-30 制御装置、制御方法、及びコンピュータ可読媒体 WO2022003830A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2020/025685 WO2022003830A1 (ja) 2020-06-30 2020-06-30 制御装置、制御方法、及びコンピュータ可読媒体
JP2022532891A JPWO2022003830A5 (ja) 2020-06-30 制御装置、制御方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/025685 WO2022003830A1 (ja) 2020-06-30 2020-06-30 制御装置、制御方法、及びコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2022003830A1 true WO2022003830A1 (ja) 2022-01-06

Family

ID=79315746

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/025685 WO2022003830A1 (ja) 2020-06-30 2020-06-30 制御装置、制御方法、及びコンピュータ可読媒体

Country Status (1)

Country Link
WO (1) WO2022003830A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008006551A (ja) * 2006-06-29 2008-01-17 National Univ Corp Shizuoka Univ 作動装置
JP2013034168A (ja) * 2011-08-01 2013-02-14 Fuji Xerox Co Ltd 画像投影装置ならびに画像投影制御装置およびプログラム
JP2016048454A (ja) * 2014-08-27 2016-04-07 富士通株式会社 表示体、位置算出装置、情報処理方法、プログラム及び情報処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008006551A (ja) * 2006-06-29 2008-01-17 National Univ Corp Shizuoka Univ 作動装置
JP2013034168A (ja) * 2011-08-01 2013-02-14 Fuji Xerox Co Ltd 画像投影装置ならびに画像投影制御装置およびプログラム
JP2016048454A (ja) * 2014-08-27 2016-04-07 富士通株式会社 表示体、位置算出装置、情報処理方法、プログラム及び情報処理装置

Also Published As

Publication number Publication date
JPWO2022003830A1 (ja) 2022-01-06

Similar Documents

Publication Publication Date Title
US11619484B2 (en) Distance measurement system, distance measurement method, and program recording medium
US10605661B2 (en) Image capturing with filters of overlapping passbands
US10497132B2 (en) Irradiation system, irradiation method, and program storage medium
JP5504781B2 (ja) プロジェクタ
JP2012002541A (ja) 画像処理装置、画像処理方法、プログラム、及び電子機器
US10712203B2 (en) Color calibration device, color calibration system, color calibration hologram, color calibration method, and program
JP6740538B2 (ja) 投射システム
US20090244497A1 (en) Projection Display Apparatus and Control Method Thereof
US10466048B2 (en) Distance measuring apparatus, distance measuring method, and image pickup apparatus
US10887563B2 (en) Projection system, projection method, and program recording medium
WO2013015145A1 (ja) 情報取得装置および物体検出装置
JP2010085472A (ja) 画像投影・撮像装置
WO2022003830A1 (ja) 制御装置、制御方法、及びコンピュータ可読媒体
JP2014157044A (ja) 距離検出カメラ
JP6645588B2 (ja) 表示システム
JP7505129B2 (ja) 制御装置、制御方法、制御プログラム、及び投影システム
TW201621451A (zh) 投影裝置及將影像用像素方式投影的方法
WO2022003876A1 (ja) 制御装置、制御方法、及びコンピュータ可読媒体
JP2020515100A (ja) ビネッティングの補償
US11037316B2 (en) Parallax calculation apparatus, parallax calculation method, and control program of parallax calculation apparatus
JP5875953B2 (ja) 光学装置
JP2019120811A (ja) 異常検出装置、投影装置、異常検出方法、及びプログラム
US20210132705A1 (en) Information processing apparatus, information processing method, and recording medium
JP2013257199A (ja) 立体形状推定装置
JP5561520B2 (ja) 画像処理装置、画像処理方法、プログラム、および電子装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20943385

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022532891

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20943385

Country of ref document: EP

Kind code of ref document: A1