WO2022003876A1 - 制御装置、制御方法、及びコンピュータ可読媒体 - Google Patents

制御装置、制御方法、及びコンピュータ可読媒体 Download PDF

Info

Publication number
WO2022003876A1
WO2022003876A1 PCT/JP2020/025908 JP2020025908W WO2022003876A1 WO 2022003876 A1 WO2022003876 A1 WO 2022003876A1 JP 2020025908 W JP2020025908 W JP 2020025908W WO 2022003876 A1 WO2022003876 A1 WO 2022003876A1
Authority
WO
WIPO (PCT)
Prior art keywords
posture
image
projected surface
projection
projected
Prior art date
Application number
PCT/JP2020/025908
Other languages
English (en)
French (fr)
Inventor
紘也 高田
敦 鴨居
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2020/025908 priority Critical patent/WO2022003876A1/ja
Priority to JP2022532929A priority patent/JPWO2022003876A5/ja
Publication of WO2022003876A1 publication Critical patent/WO2022003876A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means

Definitions

  • the present invention relates to the control of a projection device that projects an image used for an input operation.
  • Patent Document 1 discloses a device that projects an operation image on the palm of an automobile occupant and recognizes an input to the projected operation image.
  • the projection position of the operation image is changed according to the movement.
  • Patent Document 1 does not mention the change in the posture (tilt) of the occupant's palm. Therefore, for example, when the occupant changes the posture of the palm without changing the position of the palm, the operation image in the same state is continuously projected. However, if the operation image in the same state is projected on the palm regardless of the posture of the palm, the operation image may be difficult to see.
  • An object of the present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide a technique for making an operation image easier to see in an environment in which light representing an operation image is projected from a projection device and an input for the operation image is accepted. To provide.
  • the control device of the present disclosure includes a detection unit that detects a projected surface from an image captured by an image pickup device that captures a projection range of the projection device, a posture specifying unit that specifies the posture of the projected surface, and the above-mentioned.
  • the indicator is detected from the projection control unit that projects the irradiation light representing the source image converted to the same posture as the specified posture onto the projection device and the image captured by the image pickup device, and is input by the indicator. It has an input specifying unit that specifies the content of the operation, and an output unit that outputs input information that represents the content of the specified input operation.
  • the control method of the present disclosure is executed by a computer.
  • the control method is specified as a detection step of detecting a projected surface from an image captured by an imaging device that captures a projection range of the projection device, and a posture specifying step of specifying the posture of the projected surface.
  • the indicator is detected from the projection control step of projecting the irradiation light representing the source image converted into the same posture as the posture onto the projection device and the image captured by the image pickup device, and the input operation by the indicator is performed. It has an input specifying step for specifying the content and an output step for outputting input information representing the content of the specified input operation.
  • the computer-readable medium of the present disclosure stores a program that causes a computer to execute the control method of the present disclosure.
  • FIG. 1 It is a block diagram which shows the structure of the information input system including the control device which concerns on this embodiment. It is a conceptual diagram which shows the typical use scene of the information input system of this embodiment. It is a block diagram which illustrates the functional structure of a control device. It is a block diagram which illustrates the hardware composition of the computer which realizes a control device. It is a block diagram which shows the structure of a projection part. It is a conceptual diagram which shows the structural example of the optical system included in the projection part. It is a flowchart which illustrates the flow of the process executed by the control apparatus of Embodiment 1.
  • FIG. 1 It is a block diagram which shows the structure of the information input system including the control device which concerns on this embodiment. It is a conceptual diagram which shows the typical use scene of the information input system of this embodiment. It is a block diagram which illustrates the functional structure of a control device. It is a block diagram which illustrates the hardware composition of the computer which realizes a control device. It is a block diagram which shows the
  • FIG. 1 is a block diagram showing a configuration of an information input system 1 including a control device 30 according to the present embodiment.
  • the information input system 1 includes an image pickup device 10, a projection device 20, and a control device 30. These three devices may be installed in the same housing, or may be installed individually. Further, any two of these three devices (for example, the projection device 20 and the control device 30) may be housed in the same housing and installed, and the remaining one device may be separately installed.
  • the image pickup device 10 is a camera having an image pickup function.
  • the projection device 20 is a projector having a projection function.
  • the control device 30 is a device that controls the projection device 20. Further, the control device 30 may have a function of controlling the image pickup device 10.
  • FIG. 2 is a conceptual diagram showing a typical usage scene of the information input system 1 of the present embodiment.
  • the information input system 1 of the present embodiment is used to input authentication information such as a password at an entrance of a place having a high security level.
  • the projection device 20 is installed on the ceiling near the entrance.
  • a plate 40 used as a projected object is installed under the projection device 20 so as to face diagonally upward.
  • On the board 40 an image showing a user interface (hereinafter, UI: UserInterface) operated by the authentication target person (hereinafter, target person) is displayed.
  • UI UserInterface
  • an image representing desired display information (characters, symbols, frames, etc.) to be displayed on the projection surface is referred to as a source image, and is actually displayed on the projection surface on the projection object by irradiation light.
  • the image (the image formed on the projected surface by the irradiation light) is referred to as a display image.
  • the control device 30 controls the projection device 20 so that the displayed image is a similar enlargement of the source image.
  • the display image does not have to be a strictly similar-enlarged version of the source image, and may be close to it (for example, an image that looks the same as the source image to the target person).
  • the projection range of the irradiation light projected from the projection device 20 is, for example, a three-dimensional space inside a substantially quadrangular pyramid having a projection portion of the projection device 20 as an apex. Then, among the surfaces of the objects located in the projection range, the surface to which the irradiation light hits becomes the projection surface.
  • the shape of the projection range is not limited to a substantially quadrangular pyramid, and may be various shapes such as a substantially cone.
  • the image pickup device 10 captures all or part of the projection range of the projection device 20 (at least the range including the plate 40) to generate an captured image.
  • the control device 30 analyzes the captured image generated by the image pickup device 10, identifies the position of the plate 40, and projects irradiation light in order to display the display image on the plate 40. For example, the control device 30 detects the plate 40 by verifying the inside of the projection range at a predetermined timing or receiving a notification from another system indicating that the target person has entered the projection range. It should be noted that, among the objects included in the projection range, which object is detected as the projected object is determined in advance (details will be described later).
  • the control device 30 identifies the posture of the detected plate 40 so that the display image of the posture corresponding to the posture is displayed on the projection surface. For example, the control device 30 deforms the source image according to the posture, and projects the irradiation light spatially modulated by using the transformed source image onto the projection device 20. By doing so, regardless of the posture of the board 40, a display image corresponding to a similar enlarged (or close to) the source image is displayed on the board 40, so that the UI is easier for the target person to handle. Become.
  • the control device 30 detects a predetermined indicator (for example, a finger) from the captured image generated by the image pickup device 10, and specifies the content of the input operation performed by the indicator on the display image on the board 40. Then, the control device 30 transmits information representing the content of the specified input operation (hereinafter, input information) to a device (hereinafter, processing device) that performs processing according to the input operation.
  • a device that performs authentication according to an input operation detected by the information input system 1 is a processing device.
  • the processing device may be housed in the same housing as the control device 30, or may be installed separately. In the latter case, the processing device can be realized, for example, by a server machine or the like connected to the control device 30 via a network.
  • the image is projected after adjusting the posture of the image to the posture of the projected surface. Therefore, regardless of the posture of the projected surface, the display image of the shape or pattern intended by the operator can be displayed on the projected surface. Therefore, the displayed image is easier for the target person to see than the case where the displayed image is projected on the projected surface without considering the posture of the projected surface.
  • FIG. 3 is a block diagram illustrating a functional configuration of the control device 30.
  • the control device 30 includes a detection unit 31, a posture specifying unit 32, a projection control unit 33, an input specifying unit 34, and an output unit 35.
  • the detection unit 31 detects the projected surface from the captured image generated by the image pickup device 10.
  • the posture specifying unit 32 specifies the posture of the projected surface.
  • the projection control unit 33 projects the irradiation light representing the source image of the posture according to the specified posture onto the projection device 20.
  • the input specifying unit 34 detects the indicator from the captured image generated by the image pickup device 10 and specifies the content of the input operation by the indicator.
  • the output unit 35 outputs input information representing the content of the specified input operation.
  • Each functional component of the control device 30 may be realized by hardware that realizes each functional component (eg, a hard-wired electronic circuit, etc.), or a combination of hardware and software (eg, electronic). It may be realized by a combination of a circuit and a program that controls it).
  • a case where each functional component of the control device 30 is realized by a combination of hardware and software will be further described.
  • FIG. 3 is a block diagram illustrating a hardware configuration of a computer 500 that realizes a control device 30.
  • the computer 500 is any computer.
  • the computer 500 is an integrated circuit such as an SoC (System on a Chip) or a SiP (System in a Package).
  • the computer 500 may be a portable machine such as a smartphone or a tablet terminal, or a stationary machine such as a PC (Personal Computer) or a server machine.
  • the computer 500 may be a dedicated computer designed to realize the control device 30, or may be a general-purpose computer.
  • the computer 500 has a bus 502, a processor 504, a memory 506, a storage device 508, an input / output interface 510, and a network interface 512.
  • the bus 502 is a data transmission path for the processor 504, the memory 506, the storage device 508, the input / output interface 510, and the network interface 512 to transmit and receive data to and from each other.
  • the method of connecting the processors 504 and the like to each other is not limited to the bus connection.
  • the processor 504 is various processors such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or an FPGA (Field-Programmable Gate Array).
  • the memory 506 is a main storage device realized by using RAM (RandomAccessMemory) or the like.
  • the storage device 508 is an auxiliary storage device realized by using a hard disk, an SSD (Solid State Drive), a memory card, a ROM (Read Only Memory), or the like.
  • the input / output interface 510 is an interface for connecting the computer 500 and the input / output device.
  • an image pickup device 10 and a projection device 20 are connected to the input / output interface 510.
  • an input device such as a keyboard or an output device such as a display device may be connected to the input / output interface 510.
  • the network interface 512 is an interface for connecting the computer 500 to the network.
  • This network may be a LAN (Local Area Network) or a WAN (Wide Area Network).
  • a processing device to which input information is transmitted is connected to the network interface 512.
  • the storage device 508 stores a program that realizes each functional component of the control device 30.
  • the processor 504 reads this program into the memory 506 and executes it to realize each functional component of the control device 30.
  • the control device 30 may be realized by one computer 500 or may be realized by a plurality of computers 500. In the latter case, the configurations of the computers 500 do not have to be the same and can be different.
  • FIG. 5 is a block diagram showing the configuration of the projection device 20.
  • FIG. 6 is a conceptual diagram showing a configuration example of an optical system included in the projection device 20.
  • the projection device 20 includes a light source 21, a light source drive power supply 22, a spatial light modulation element 23, a modulation element driving means 24, and a projection optical system 25.
  • FIG. 5 is conceptual and does not accurately represent the positional relationship between each component, the irradiation direction of light, and the like.
  • the light source 21 emits light 110 having a specific wavelength.
  • a laser light source can be used as the light source 21.
  • the light 110 emitted from the light source 21 is preferably coherent light having the same phase.
  • the light source 21 is configured to emit light in the visible region.
  • the light source 21 may be configured to emit light other than the visible region such as an infrared region or an ultraviolet region.
  • the light source 21 may be configured by a light source other than a laser light source such as a light emitting diode, an incandescent light bulb, or a discharge tube.
  • the light 110 emitted by the light source 21 becomes coherent light 110 by the collimator 210 and is incident on the display portion of the spatial light modulation element 23.
  • the color of the display information can be changed by changing the wavelength of the light emitted from the light source 21.
  • display information composed of a plurality of colors can be displayed.
  • the light source drive power source 22 (also called a light source drive means) is a power source for driving the light source 21 according to the control of the control device 30 and emitting light from the light source 21.
  • the spatial light modulation element 23 has its own pattern (hereinafter, modulation pattern) for generating irradiation light capable of displaying a desired display image on the projected surface according to the control of the modulation element driving means 24. Display on the display.
  • the light 110 is irradiated to the display unit in a state where the modulation pattern is displayed on the display unit of the spatial light modulation element 23.
  • the spatial light modulation element 23 emits the reflected light (modulated light 130) of the incident light 110 toward the projection optical system 25.
  • the incident angle of the light 110 is not perpendicular to the display unit of the spatial light modulation element 23. That is, the emission axis of the light 110 from the light source 21 is slanted with respect to the display portion of the spatial light modulation element 23. In this way, if the emission axis of the light 110 is set obliquely with respect to the display unit of the spatial light modulation element 23, the light 110 can be incident on the display unit of the spatial light modulation element 23 without using a beam splitter. Efficiency can be improved.
  • the spatial light modulation element 23 can be realized by a phase modulation type spatial light modulation element that receives the incident of coherent light 110 having the same phase and modulates the phase of the incident light 110. Since the light emitted from the projection optical system using the phase modulation type spatial light modulation element 23 is focus-free, even if the light is projected onto the display area set to a plurality of projection distances, the light is projected for each projection distance. There is no need to change the focus to.
  • the spatial light modulation element 23 may be an element of a method different from the phase modulation type as long as the display information can be displayed in each display area, but in order to realize focus-free, the phase modulation type element may be used. Is preferable.
  • the phase distribution of the display information in the source image according to the posture of the projected surface is displayed on the display unit of the phase modulation type spatial light modulation element 23.
  • the modulated light 130 reflected in the display region of the spatial light modulation element 23 becomes an image in which a kind of diffraction grating forms an aggregate, and the image is formed so that the light diffracted by the diffraction grating gathers. Will be done.
  • the spatial light modulation element 23 is realized by, for example, a spatial light modulation element using a ferroelectric liquid crystal display, a homogenius liquid crystal display, a vertically oriented liquid crystal display, or the like.
  • the spatial light modulation element 23 can be realized by LCOS (Liquid Crystal on Silicon).
  • the spatial light modulation element 23 may be realized by, for example, a MEMS (Micro Electro Mechanical System).
  • phase modulation type spatial light modulation element 23 energy can be concentrated on the display information portion by operating so as to sequentially switch the display area for projecting the irradiation light. Therefore, if the phase modulation type spatial light modulation element 23 is used, the display information can be displayed brighter than those of other methods if the output of the light source is the same.
  • the modulation element driving means 24 displays the modulation pattern on the display unit of the spatial light modulation element 23 according to the control of the control device 30.
  • the modulation element driving means 24 spatially photomodulates the parameters that determine the difference between the phase of the light 110 irradiated on the display unit of the spatial light modulation element 23 and the phase of the modulated light 130 reflected by the display unit. Drives the element 23.
  • the parameters that determine the difference between the phase of the light 110 applied to the display unit of the phase modulation type spatial optical modulation element 23 and the phase of the modulated light 130 reflected by the display unit are, for example, the refractive index and the optical path length. It is a parameter related to optical characteristics.
  • the modulation element driving means 24 changes the refractive index of the display unit by changing the voltage applied to the display unit of the spatial light modulation element 23. As a result, the light 110 applied to the display unit is appropriately diffracted based on the refractive index of the display unit. That is, the phase distribution of the light 110 irradiated to the phase modulation type spatial light modulation element 23 is modulated according to the optical characteristics of the display unit.
  • the method of driving the spatial light modulation element 23 by the modulation element driving means 24 is not limited to the above.
  • the projection optical system 25 projects the modulated light 130 modulated by the spatial light modulation element 23 as the irradiation light 150.
  • the projection optical system 25 includes a Fourier transform lens 251, an aperture 252, and a projection lens 253.
  • the modulated light 130 modulated by the spatial light modulation element 23 is irradiated as irradiation light 150 by the projection optical system 25. If the display information can be displayed in each display area, any one of the components of the projection optical system 25 may be omitted.
  • the Fourier transform lens 251 is an optical lens for forming an image formed when the modulated light 130 reflected by the display unit of the spatial light modulation element 23 is projected at infinity at a nearby focal point. In FIG. 6, the focus is formed at the position of the aperture 252.
  • the aperture 252 has a function of shielding high-order light contained in the light focused by the Fourier transform lens 251 and specifying a display area.
  • the opening of the aperture 252 is opened smaller than the outermost circumference of the display area at the position of the aperture 252, and is installed so as to block the peripheral area of the display information at the position of the aperture 252.
  • the opening of the aperture 252 is formed in a rectangular or circular shape.
  • the aperture 252 is preferably installed at the focal position of the Fourier transform lens 251 but may be deviated from the focal position as long as it can exert a function of erasing higher-order light.
  • the projection lens 253 is an optical lens that magnifies and projects the light focused by the Fourier transform lens 251.
  • the projection lens 253 projects the irradiation light 150 so that the display information corresponding to the phase distribution input to the spatial light modulation element 23 is displayed in each display area.
  • the irradiation light 150 projected from the projection optical system 25 is not uniformly projected onto each display area, but characters, symbols, and frames. It is projected intensively on the part that represents the display information such as.
  • the information input system 1 the amount of light emitted from the light 110 can be substantially reduced, so that the overall light output can be suppressed. That is, since the information input system 1 can be composed of a small and low power light source 21, the light source drive power source 22 for driving the light source 21 can have a low output, and the overall power consumption can be reduced.
  • the projected surface can be a part or all of an arbitrary object (projected object).
  • the projected object is a plate such as the above-mentioned acrylic plate, and the projected surface is one surface of the plate.
  • the irradiation light generated in consideration of the posture of the projected surface is projected, so that when the plate is installed, "the surface of the plate on which the display image is projected is the projection direction of the projection device 20". There is no restriction that "it must be installed so that it is perpendicular to the vertical", and installation is easy.
  • the projected object is a part of the subject's body or belongings (for example, a palm, an arm, or a sleeve of clothes), and the projected surface is a surface thereof. Since the displayed image is projected according to the posture of the projected surface, when the palm or arm is held within the projection range, "the palm or the like that projects the displayed image is perpendicular to the projection direction of the projection device 20".
  • the information input system 1 can be easily used by the subject in a free posture without the restriction that "it must be held up”.
  • the mist sprayed from the injection device can be used as the projectile.
  • fog since fog is easily affected by wind and air conditioning, it is considered that the attitude of the projected surface formed by fog is likely to change.
  • the projection device 20 by using the projection device 20, it is possible to display the displayed image while following the change in the posture of the projected surface formed by such fog.
  • accumulated water for example, water from a pond, a pool, or a hot spring
  • the water surface is the projected surface.
  • the shape of the surface of water that a person enters tends to change due to the influence of the movement of the person.
  • the shape of the water surface may change due to the effects of bird landing and wind.
  • the projection device 20 it is possible to display a display image on the water surface while following such a change in the posture of the water surface.
  • the projectiles include objects that are easy to maintain cleanliness (objects that are easy to clean, fog that is repeatedly replaced with new ones, etc.). It is preferable to use the subject's own body and belongings.
  • an object that can be easily washed such as an acrylic plate, or the body of the subject himself / herself can be easily used as the projected object. Therefore, the information input system 1 can be operated hygienically.
  • FIG. 7 is a flowchart illustrating the flow of processing executed by the control device 30 of the first embodiment.
  • the detection unit 31 detects the projected surface (S102).
  • the posture specifying unit 32 specifies the posture of the projected surface (S104).
  • the projection control unit 33 projects the irradiation light representing the source image according to the posture of the projected surface onto the projection device 20 (S106).
  • the input specifying unit 34 specifies the content of the input operation (S108).
  • the output unit 35 outputs input information representing the content of the specified input operation (S110).
  • the surface to be projected may be detected and its posture may be specified at each input operation, or may be performed only at the beginning of a series of input operations.
  • the information input system 1 is operated according to the detection of the target person by the sensor.
  • the control device 30 keeps using the position and the posture of the projected surface initially specified while the information input system 1 is being used by the same target person. Therefore, while the information input system 1 is being operated by the same target person, S102 and S104 are executed only once, and then S106 to S108 are repeated.
  • the detection unit 31 detects the projected surface from the captured image generated by the image pickup device 10 (S102). For example, the detection unit 31 detects a predetermined projected surface by object recognition processing. In this case, for example, the feature amount on the image of the projected surface (hereinafter referred to as the image feature amount) is stored in advance in a storage device accessible from the detection unit 31. Then, the detection unit 31 detects an image region having an image feature amount similar to the image feature amount of the projected surface acquired from the storage device (for example, the similarity is equal to or higher than a predetermined threshold value) from the captured image, and the detection unit 31 detects the image region. The image area is detected as the projected surface.
  • the timing at which the detection unit 31 detects the projected surface is arbitrary.
  • the detection unit 31 sequentially acquires captured images (for example, each video frame constituting the video data) repeatedly generated by the imaging device 10 until the projected surface is detected, and targets each captured image as a target. Performs processing to detect the projected surface.
  • a separate sensor for example, a motion sensor
  • the detection unit 31 detects the projected surface only on the captured image generated while the situation is detected.
  • the control device 30 may control the image pickup device 10 so that the image pickup device 10 performs the image pickup only while the above situation is detected.
  • the posture specifying unit 32 specifies the posture of the projected surface detected from the captured image (S104).
  • the data representing the posture of the projected surface is referred to as posture data.
  • the method of expressing the posture of the projected surface is arbitrary.
  • the attitude data is a transformation matrix (rotation matrix) for converting a plane having the same size as the projected plane and parallel to the XY plane into the projected plane.
  • the posture specifying unit 32 compares the reference image, which is an image obtained by capturing the projected surface in a plan view, with the image of the projected surface extracted from the captured image, thereby displaying the projected surface. Identify the posture of.
  • an existing technique can be used as a technique for specifying the posture of the object by comparing the image of the object with the reference posture with the image of the object obtained from the captured image.
  • the posture specifying unit 32 calculates a transformation matrix for converting a reference image into an image of the projected surface extracted from the captured image, and sets the transformation matrix as the posture of the projected surface.
  • the reference image is stored in advance in a storage device accessible from the posture specifying unit 32.
  • the posture specifying unit 32 needs to use a reference image corresponding to the current projectile.
  • the identification information of the projected object and the reference image of the projected surface of the projected object are associated with each other and stored in a storage device accessible from the posture specifying unit 32.
  • the detection unit 31 identifies the identification information of the projected object when the projected surface is detected by object recognition or the like.
  • the posture specifying unit 32 identifies the posture of the projected surface by using the reference image corresponding to the specified identification information.
  • a marker having a known shape may be provided on the projected surface, and the posture of the projected surface may be specified by using the marker.
  • an image in which the marker is viewed in a plane is prepared as a reference image.
  • the posture specifying unit 32 extracts an image representing the marker from the captured image generated by the image pickup device 10, and identifies the posture of the marker by comparing the extracted marker image with the reference image. Then, the posture specifying unit 32 specifies the posture of the specified marker as the posture of the projected surface.
  • the posture specifying unit 32 calculates a transformation matrix for converting a reference image into an image of a marker extracted from a captured image, and treats the transformation matrix as the posture of the marker (that is, the posture of the projected surface).
  • the posture specifying unit 32 needs to use a reference image corresponding to the marker provided on the current projection surface.
  • the identification information of the marker is associated with the reference image of the marker and stored in a storage device accessible from the posture specifying unit 32.
  • the posture specifying unit 32 identifies a marker on the projection surface by object recognition or the like, and acquires a reference image associated with the identification information of the specified marker.
  • the posture specifying unit 32 may specify distances to a plurality of positions on the projected surface, and may specify the posture of the projected surface based on each of the specified distances. Once the distances to each of the plurality of positions on the projected surface are known, the posture of the projected surface in the above-mentioned three-dimensional space can be reproduced based on those distances. Therefore, the posture of the projected surface can be specified. It is preferable to measure the distance to three or more positions on the projected surface.
  • any distance measuring device can be used to specify the distance to the projected surface.
  • the posture specifying unit 32 projects irradiation light representing an image including a predetermined pattern (for example, an image in which circles of a predetermined size are arranged at predetermined intervals).
  • the projection device 20 is controlled so as to perform the above, and the distances to each of the plurality of positions on the projected surface are calculated based on the deviation of the predetermined pattern in the reflected light.
  • a specific method of using the projection device as a distance measuring device is disclosed in, for example, Patent Document 2.
  • the following method can be used as a method of specifying the posture of the projected surface using the result of distance measurement.
  • the posture specifying unit 32 treats one of a plurality of positions on the projected surface measured at a distance as a reference position, passes through the reference position, and is a plane parallel to the above-mentioned XY plane (hereinafter referred to as a reference). Face).
  • the posture specifying unit 32 specifies the posture of the projected surface by comparing the projected surface specified by the distance measurement with the reference surface.
  • the posture of the projected surface can be calculated as a transformation matrix for converting the reference surface to the projected surface.
  • the projection control unit 33 controls the projection by the projection device 20 so that the irradiation light representing the source image transformed into the same posture as the specified posture of the projected surface is irradiated (S104). More specifically, the projection control unit 33 controls the spatial light modulation element 23 of the projection device 20 based on the orientation of the specified projected surface. As described above, in order to project the irradiation light representing the desired image from the projection device 20, the modulation pattern corresponding to the desired image is displayed on the display unit of the spatial light modulation element 23. In this state, the display unit is irradiated with light 110.
  • the projection control unit 33 acquires a source image including display information to be presented to the target person, and deforms the source image so as to have the same posture as the projected surface. For example, as described above, when the posture of the projected surface is represented by a transformation matrix, the projection control unit 33 deforms the source image based on the transformation matrix to make the posture of the source image the same as the projected surface. Change to posture. Then, the projection control unit 33 sets the modulation pattern corresponding to the transformed source image on the display unit of the spatial light modulation element 23. By doing so, the projection light 20 representing the source image having the same posture as the posture of the projected surface is projected from the projection device 20.
  • a display image corresponding to (or close to) a similar enlarged source image is displayed on the projected surface.
  • An existing technique can be used as a method of setting a modulation pattern corresponding to a desired image on the display unit of the spatial light modulation element 23.
  • a modulation pattern corresponding to the source image may be prepared in advance.
  • a modulation pattern corresponding to each of one or more source images available to the projection device 20 is stored in advance in a storage device accessible from the projection control unit 33.
  • the projection control unit 33 acquires a modulation pattern corresponding to a desired source image from the storage device, and converts the modulation pattern into a modulation pattern corresponding to the source image having the same posture as the posture of the projected surface. Then, the projection control unit 33 sets the converted modulation pattern on the display unit of the spatial light modulation element 23.
  • the projection control unit 33 converts the modulation pattern corresponding to the source image into the source image, and applies the transformation matrix described above to the source image to convert the source image into the same posture as the projected surface. obtain. Then, the projection control unit 33 converts the converted source image into a modulation pattern.
  • a conversion process for outputting a modulation pattern corresponding to an image having a posture represented by the posture data in response to input of a modulation pattern and posture data (transformation matrix, etc.) is defined in advance. You may leave it.
  • the posture specifying unit 32 has the same posture as the projected surface by inputting the modulation pattern corresponding to the desired source image and the posture data generated by the posture specifying unit 32 for the conversion process. A modulation pattern corresponding to the source image can be obtained.
  • the method by which the projection control unit 33 acquires a desired source image (that is, a source image corresponding to the display image to be displayed on the projection surface) and the corresponding modulation pattern is arbitrary.
  • the identification information of the source image and the source image are associated with each other and stored in a storage device accessible from the projection control unit 33.
  • the projection control unit 33 acquires the identification information of the source image to be used, and acquires the source image corresponding to the identification information from the storage device.
  • the projection control unit 33 acquires the modulation pattern corresponding to the identification information.
  • the identification information of the source image is acquired from the above-mentioned processing device (a device that uses the input information output from the control device 30). That is, the processing device outputs the identification information of the source image to the control device 30, so that the desired display image is displayed on the projection surface, and the target person can input the desired image (for example, input of a user name or password). To do. Then, the processing device acquires the input information from the control device 30, acquires the content of the input operation performed by the target person, and performs the desired processing (for example, acquires the input user name and password). , Perform authentication processing).
  • the identification information of the source image the source image or the modulation pattern itself may be acquired from the processing device.
  • the input specifying unit 34 specifies the content of the input operation performed on the display image (S108). For example, the input specifying unit 34 acquires a captured image generated by the imaging device 10 after the displayed image is displayed, and detects a predetermined indicator from the captured image. Then, the input specifying unit 34 detects that the input operation by the indicator has been performed, and specifies the content of the input operation.
  • the input specifying unit 34 detects that an input operation has been performed by analyzing a plurality of captured images (hereinafter, image sequences) sequentially generated by the imaging device 10. For example, the input specifying unit 34 determines that the input operation has been performed when the indicator has stopped for a predetermined time or longer.
  • image sequences a plurality of captured images sequentially generated by the imaging device 10.
  • the input specifying unit 34 determines that the input operation has been performed when the indicator has stopped for a predetermined time or longer.
  • stop as used herein is not limited to being completely stopped, and also includes that the amount of movement is sufficiently small (for example, the amount of movement is equal to or less than a predetermined size).
  • the input specifying unit 34 may determine that the input operation has been performed when a predetermined movement is performed by the indicator.
  • the predetermined movement is, for example, a movement of touching the projected surface, a movement of drawing a predetermined shape, and the like.
  • the input specifying unit 34 detects both the display image and the indicator from the captured image obtained from the image pickup device 10, and specifies the content of the input operation based on the positional relationship between them. Specifically, the input specifying unit 34 detects the indicator body and the display image from the captured image, and identifies in which portion on the display image the indicator body is located. Then, the input specifying unit 34 specifies the content of the input operation corresponding to the position on the specified display image as the content of the input operation performed by the indicator. For example, when the displayed image is an image of the numeric keypad, it is assumed that the indicator is located on the key "7". In this case, the input specifying unit 34 can specify that the operation of selecting "7" has been performed.
  • the input specifying unit 34 does not have to detect the displayed image.
  • the input specifying unit 34 detects the indicator and the projected surface from the image captured by the image pickup device 10, and calculates the relative position of the indicator with respect to the projected surface. Further, the input specifying unit 34 specifies to which part of the display image projected on the projected surface the indicator is located based on the calculated relative position. Then, the input specifying unit 34 specifies the content of the input operation corresponding to the position on the specified display image as the content of the input operation performed by the indicator.
  • the method of specifying the relative position of the indicator with respect to the projected surface is not limited to the method of using the captured image.
  • the input specifying unit 34 uses a distance measuring device to calculate the distance to each of a plurality of positions on the projected surface.
  • the portion where the indicator exists above is shorter in distance from the distance measuring device as compared with the other portions. Therefore, by using the distance data obtained from the distance measuring device, it is possible to grasp which part on the projected surface the indicator is located.
  • the output unit 35 outputs input information representing the content of the input operation specified by the input specifying unit 34 (S110).
  • Various existing methods can be used as a method for generating and outputting information representing the contents of the input operation. For example, assume that the input operation selects one of a plurality of options represented by the displayed image. In this case, the input information includes identification information of the options selected by the indicator. For example, suppose that the displayed image is an image representing two options, YES and NO, and the former and the latter are given identification information of 0 and 1, respectively. In this case, if YES is selected by the input operation, input information indicating identification information of 0 is generated.
  • Non-temporary computer-readable media include various types of tangible storage media.
  • Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks), CD-ROMs, CD-Rs, CD-Rs. / W, including semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM).
  • the program may also be provided to the computer by various types of temporary computer readable medium. Examples of temporary computer-readable media include electrical, optical, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • (Appendix 1) A detection unit that detects the projected surface from the captured image generated by the imaging device that captures the projection range of the projection device, and A posture specifying part that specifies the posture of the projected surface, and A projection control unit that projects irradiation light representing a source image converted to the same posture as the specified posture onto the projection device.
  • An input specifying unit that detects an indicator from an image captured by the image pickup device and specifies the content of an input operation by the indicator.
  • a control device including an output unit that outputs input information representing the content of the specified input operation.
  • the posture specifying unit identifies the posture of the projected surface by comparing the image of the projected surface included in the captured image with the image of the projected surface having a reference posture.
  • the control device described. (Appendix 3) A marker is provided on the projected surface, and the marker is provided.
  • the posture specifying unit identifies the posture of the marker by comparing the image of the marker included in the captured image with the image of the marker in the reference posture, and is based on the posture of the specified marker.
  • Appendix 4 The control device according to Appendix 1, wherein the posture specifying unit specifies the posture of the projected surface based on the result of measuring the distance to each of a plurality of positions on the projected surface.
  • Appendix 5 The control device according to Appendix 4, wherein the measurement of the distance to each of the plurality of positions on the projected surface is performed by using the reflection term of the light projected from the projection device onto the projected surface.
  • Appendix 6) The projection device has a spatial light modulation element. The projection control unit is converted to the same posture as the projected surface by setting a modulation pattern representing the source image converted to the same posture as the projected surface in the spatial light modulation element.
  • the control device according to any one of Supplementary note 1 to 5, wherein the irradiation light representing the source image is projected onto the projection device.
  • Appendix 7 A control method performed by a computer A detection step for detecting the projected surface from the captured image generated by the imaging device that captures the projection range of the projection device, and A posture specifying step for specifying the posture of the projected surface, and A projection control step of projecting irradiation light representing a source image converted into the same posture as the specified posture onto the projection device, An input specifying step of detecting an indicator from an image captured by the image pickup device and specifying the content of an input operation by the indicator.
  • a control method comprising an output step for outputting input information representing the content of the specified input operation.
  • the posture of the projected surface is specified by comparing the image of the projected surface included in the captured image with the image of the projected surface in the reference posture in the posture specifying step.
  • the control method described. (Appendix 9) A marker is provided on the projected surface, and the marker is provided.
  • the posture of the marker is specified by comparing the image of the marker included in the captured image with the image of the marker in the reference posture, and the posture of the marker is specified based on the posture of the specified marker.
  • Appendix 10 The control method according to Appendix 7, wherein the posture of the projected surface is specified based on the result of measuring the distances to each of the plurality of positions on the projected surface in the posture specifying step.
  • Appendix 11 The control method according to Appendix 10, wherein the measurement of the distance to each of the plurality of positions on the projected surface is performed by using the reflection term of the light projected from the projection device onto the projected surface.
  • Appendix 12 The projection device has a spatial light modulation element. In the projection control step, the spatial light modulation element is set with a modulation pattern representing the source image converted to the same posture as the projected surface, so that the posture is converted to the same posture as the projected surface.
  • a computer-readable medium that stores programs The program is on the computer A detection step for detecting the projected surface from the captured image generated by the imaging device that captures the projection range of the projection device, and A posture specifying step for specifying the posture of the projected surface, and A projection control step of projecting irradiation light representing a source image converted into the same posture as the specified posture onto the projection device, An input specifying step of detecting an indicator from an image captured by the image pickup device and specifying the content of an input operation by the indicator.
  • the posture of the projected surface is specified by comparing the image of the projected surface included in the captured image with the image of the projected surface in the reference posture in the posture specifying step.
  • the computer-readable medium described. (Appendix 15) A marker is provided on the projected surface, and the marker is provided. In the posture specifying step, the posture of the marker is specified by comparing the image of the marker included in the captured image with the image of the marker in the reference posture, and the posture of the marker is specified based on the posture of the specified marker.
  • Appendix 16 The computer-readable medium according to Appendix 13, which specifies the posture of the projected surface based on the result of measuring the distances to each of the plurality of positions on the projected surface in the posture specifying step.
  • Appendix 17 The computer-readable medium according to Appendix 16, wherein the measurement of the distance to each of the plurality of positions on the projected surface is performed by utilizing the reflection term of the light projected from the projection device onto the projected surface.
  • the projection device has a spatial light modulation element. In the projection control step, the spatial light modulation element is set with a modulation pattern representing the source image converted to the same posture as the projected surface, so that the posture is converted to the same posture as the projected surface.
  • Image pickup device 20
  • Projection device 21
  • Light source 22
  • Light source drive power supply 23
  • Spatial light modulation element 24
  • Modulation element drive means 25
  • Projection optical system 30
  • Control device 31
  • Detection unit 32
  • Attitude specification unit 33
  • Projection control unit 34
  • Input specification unit 35
  • Output Part 40
  • Plate 110
  • Modulated light 150
  • Irradiation light 210
  • Fourier conversion lens 252
  • Aperture 253
  • Computer 500 Each computer 502
  • Bus 504 Processor 506 Memory 508 Storage device 510
  • Input / output interface 512
  • Network interface 512

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Projection Apparatus (AREA)

Abstract

制御装置(30)は、投射装置(20)の投射範囲を撮像する撮像装置(10)によって生成される撮像画像から、被投射面を検出する。制御装置(30)は、被投射面の姿勢を特定し、特定した姿勢と同じ姿勢に変換されたソース画像を表す照射光を、投射装置(20)に投射させる。制御装置(30)は、撮像装置(10)によって生成される撮像画像から指示体を検出し、指示体による入力操作の内容を特定する。制御装置(30)は、特定した入力操作の内容を表す入力情報を出力する。

Description

制御装置、制御方法、及びコンピュータ可読媒体
 本発明は、入力操作に用いる画像を投射する投射装置の制御に関する。
 近年、プロジェクタから投影したユーザインターフェース(以下、UI:User Interface)に対して直感的に情報入力できるシステムが報告されている。例えば特許文献1は、自動車の乗員の手のひらに操作画像を投影し、投影された操作画像に対する入力を認識する装置を開示している。特許文献1の装置では、乗員が手のひらを動かした際に、その動きに追従して、操作画像の投影位置が変更される。
特開2016-005157号公報
 特許文献1の装置は、乗員の手のひらの姿勢(傾き)の変化については言及していない。そのため、例えば、乗員が手のひらの位置を変えずに手の平の姿勢を変化させた場合、同じ状態の操作画像が投影され続ける。しかしながら、手のひらの姿勢にかかわらず同じ状態の操作画像を手のひらに投影すると、操作画像が見えづらくなってしまう恐れがある。
 本発明の目的は上述した課題に鑑みてなされたものであり、その目的は、操作画像を表す光を投射装置から投射して当該操作画像に対する入力を受け付ける環境において、操作画像を見やすくする技術を提供することにある。
 本開示の制御装置は、投射装置の投射範囲を撮像する撮像装置によって生成される撮像画像から、被投射面を検出する検出部と、前記被投射面の姿勢を特定する姿勢特定部と、前記特定した姿勢と同じ姿勢に変換されたソース画像を表す照射光を、前記投射装置に投射させる投射制御部と、前記撮像装置によって生成される撮像画像から指示体を検出し、前記指示体による入力操作の内容を特定する入力特定部と、前記特定した入力操作の内容を表す入力情報を出力する出力部と、を有する。
 本開示の制御方法は、コンピュータによって実行される。当該制御方法は、投射装置の投射範囲を撮像する撮像装置によって生成される撮像画像から、被投射面を検出する検出ステップと、前記被投射面の姿勢を特定する姿勢特定ステップと、前記特定した姿勢と同じ姿勢に変換されたソース画像を表す照射光を、前記投射装置に投射させる投射制御ステップと、前記撮像装置によって生成される撮像画像から指示体を検出し、前記指示体による入力操作の内容を特定する入力特定ステップと、前記特定した入力操作の内容を表す入力情報を出力する出力ステップと、を有する。
 本開示のコンピュータ可読媒体は、本開示の制御方法をコンピュータに実行させるプログラムを格納している。
 本発明によれば、操作画像を表す光を投射装置から投射して当該操作画像に対する入力を受け付ける環境において、操作画像を見やすくする技術が提供される。
本実施形態に係る制御装置を含む情報入力システムの構成を示すブロック図である。 本実施形態の情報入力システムの典型的な利用シーンを示す概念図である。 制御装置の機能構成を例示するブロック図である。 制御装置を実現するコンピュータのハードウエア構成を例示するブロック図である。 投射部の構成を示すブロック図である。 投射部に含まれる光学系の構成例を示す概念図である。 実施形態1の制御装置によって実行される処理の流れを例示するフローチャートである。
 以下に、本発明を実施するための形態について図面を用いて説明する。ただし、以下に述べる実施形態には、本発明を実施するために技術的に好ましい限定がされているが、発明の範囲を以下に限定するものではない。なお、以下の実施形態の説明に用いる全図においては、特に理由がない限り、同様箇所には同一符号を付す。また、以下の実施形態において、同様の構成・動作に関しては繰り返しの説明を省略する場合がある。また、以下の実施形態において、図面中ブロック間における矢印の向きは、信号の流れの一例を端的に示したものであり、信号の流れの方向を限定するものではない。
[実施形態1]
<概要>
 図1は、本実施形態に係る制御装置30を含む情報入力システム1の構成を示すブロック図である。情報入力システム1は、撮像装置10、投射装置20、及び制御装置30を備える。これら3つの装置は、同一の筐体に納められた状態で設置されてもよいし、個別に設置されていてもよい。また、これら3つの装置のうちの任意の2つ(例えば、投射装置20と制御装置30)を同一の筐体に納めて設置し、残りの1つの装置を別途設置するようにしてもよい。
 撮像装置10は、撮像機能を有するカメラである。投射装置20は、投射機能を有するプロジェクタである。制御装置30は、投射装置20を制御する装置である。また、制御装置30は、撮像装置10を制御する機能を有していてもよい。
 図2は、本実施形態の情報入力システム1の典型的な利用シーンを示す概念図である。例えば、本実施形態の情報入力システム1は、セキュリティレベルの高い場所の入り口などにおいてパスワードなどの認証情報を入力するために使用される。図2では、入り口付近の天井に投射装置20が設置されている。また、投射装置20の下に、被投射体として利用される板40が、斜め上を向くように設置されている。板40には、認証対象者(以下、対象者)によって操作されるユーザインターフェース(以下、UI:User Interface)を表す画像が表示されている。
 以下、被投射面上に表示したい所望の表示情報(文字、記号、又は枠など)を表す画像のことをソース画像と表記し、照射光によって実際に被投射体上の被投射面に表示された画像(照射光によって被投射面上に形成される画像)を表示画像と表記する。理想的には、制御装置30は、表示画像がソース画像を相似拡大したものとなるように、投射装置20を制御する。ただし、表示画像は、ソース画像を厳密に相似拡大したものとなる必要はなく、それに近いもの(例えば、対象者から見てソース画像と同等に見えるもの)であればよい。
 図2のように、投射装置20から投射される照射光の投射範囲は、例えば、投射装置20の投射部分を頂点とする略四角錐の内部の三次元空間である。そして、投射範囲に位置する物体の表面のうち、照射光が当たる面が被投射面となる。なお、投射範囲の形状は略四角錐には限定されず、略円錐などといった種々の形状とすることができる。
 撮像装置10は、投射装置20の投射範囲の全て又は一部(少なくとも板40を含む範囲)を撮像して、撮像画像を生成する。制御装置30は、撮像装置10によって生成された撮像画像を解析して板40の位置を特定し、板40に表示画像を表示させるために、照射光を投射する。例えば制御装置30は、所定のタイミングで投射範囲内を検証したり、別のシステムから対象者が投射範囲内に入ったことを示す通知を受けたりして、板40の検出を行う。なお、投射範囲内に含まれる物体のうち、どの物体を被投射体として検出するかは、予め定めておく(詳しくは後述する)。
 ここで、制御装置30は、検出した板40の姿勢を特定し、当該姿勢に合わせた姿勢の表示画像が被投射面に表示されるようにする。例えば制御装置30は、ソース画像を当該姿勢に合わせて変形し、変形後のソース画像を利用して空間変調した照射光を、投射装置20に投射させる。こうすることで、板40の姿勢にかかわらず、ソース画像を相似拡大したもの(又はそれに近いもの)に相当する表示画像が板40に表示されるため、対象者にとって UI がより扱いやすいものとなる。
 制御装置30は、撮像装置10によって生成される撮像画像から所定の指示体(例えば指)を検出し、当該指示体が板40上の表示画像に対して行った入力操作の内容を特定する。そして、制御装置30は、特定した入力操作の内容を表す情報(以下、入力情報)を、当該入力操作に応じた処理を行う装置(以下、処理装置)へ送信する。例えば、情報入力システム1を認証に利用する場合、情報入力システム1によって検出された入力操作に応じて認証を行う装置が処理装置となる。なお、処理装置は、制御装置30と同一の筐体に納められていてもよいし、別途設置されていてもよい。後者の場合、例えば、ネットワークを介して制御装置30と接続されているサーバマシン等などで、処理装置を実現することができる。
<作用効果の一例>
 本実施形態の制御装置30によれば、対象者が操作する表示画像が投射装置20によって投射される環境において、被投射面の姿勢に画像の姿勢を合わせた上で、画像が投射される。そのため、被投射面の姿勢にかかわらず、運用者の意図した形状や模様の表示画像を、被投射面に表示させることができる。よって、被投射面の姿勢を考慮せずに表示画像が被投射面に投射されるケースと比較し、対象者にとって表示画像が見やすいものとなる。
 以下、本実施形態の情報入力システム1について、より詳細に説明する。
<機能構成の例>
 図3は、制御装置30の機能構成を例示するブロック図である。図3のように、制御装置30は、検出部31、姿勢特定部32、投射制御部33、入力特定部34、及び出力部35を有する。検出部31は、撮像装置10によって生成される撮像画像から、被投射面を検出する。姿勢特定部32は、被投射面の姿勢を特定する。投射制御部33は、特定した姿勢に合わせた姿勢のソース画像を表す照射光を、投射装置20に投射させる。入力特定部34は、撮像装置10によって生成される撮像画像から指示体を検出し、指示体による入力操作の内容を特定する。出力部35は、特定した入力操作の内容を表す入力情報を出力する。
<制御装置30のハードウエア構成の例>
 制御装置30の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、制御装置30の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
 図3は、制御装置30を実現するコンピュータ500のハードウエア構成を例示するブロック図である。コンピュータ500は、任意のコンピュータである。例えばコンピュータ500は、SoC(System on a Chip)や SiP(System in a Package)などの集積回路である。その他にも例えば、コンピュータ500は、スマートフォンやタブレット端末などといった可搬型のマシンや、PC(Personal Computer)やサーバマシンなどの据え置き型のマシンであってもよい。コンピュータ500は、制御装置30を実現するために設計された専用のコンピュータであってもよいし、汎用のコンピュータであってもよい。
 コンピュータ500は、バス502、プロセッサ504、メモリ506、ストレージデバイス508、入出力インタフェース510、及びネットワークインタフェース512を有する。バス502は、プロセッサ504、メモリ506、ストレージデバイス508、入出力インタフェース510、及びネットワークインタフェース512が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ504などを互いに接続する方法は、バス接続に限定されない。
 プロセッサ504は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は FPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ506は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス508は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。
 入出力インタフェース510は、コンピュータ500と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース510には、図4に示すように、撮像装置10や投射装置20が接続される。また、入出力インタフェース510には、キーボードなどの入力装置や、ディスプレイ装置などの出力装置が接続されてもよい。
 ネットワークインタフェース512は、コンピュータ500をネットワークに接続するためのインタフェースである。このネットワークは、LAN(Local Area Network)であってもよいし、WAN(Wide Area Network)であってもよい。例えばネットワークインタフェース512には、入力情報の送信先となる処理装置が接続される。
 ストレージデバイス508は、制御装置30の各機能構成部を実現するプログラムを記憶している。プロセッサ504は、このプログラムをメモリ506に読み出して実行することで、制御装置30の各機能構成部を実現する。
 制御装置30は、1つのコンピュータ500で実現されてもよいし、複数のコンピュータ500で実現されてもよい。後者の場合において、各コンピュータ500の構成は同一である必要はなく、それぞれ異なるものとすることができる。
<投射装置20の構成>
 投射装置20の構成について、図面を参照しながら説明する。図5は、投射装置20の構成を示すブロック図である。また、図6は、投射装置20に含まれる光学系の構成例を示す概念図である。
 図5のように、投射装置20は、光源21と、光源駆動電源22と、空間光変調素子23と、変調素子駆動手段24と、投射光学系25とを備える。なお、図5は概念的なものであり、各構成要素間の位置関係や、光の照射方向などを正確に表したものではない。
 光源21は、特定波長の光110を出射する。例えば、レーザ光源を光源21として用いることができる。光源21から出射される光110は、位相がそろったコヒーレントな光であることが好ましい。通常、光源21は、可視領域の光を出射するように構成する。なお、光源21は、赤外領域や紫外領域などの可視領域以外の光を出射するように構成してもよい。また、光源21は、発光ダイオードや白熱電球、放電管などのレーザ光源以外で構成してもよい。
 図6のように、光源21が出射した光110は、コリメータ210によってコヒーレントな光110となり、空間光変調素子23の表示部に入射される。例えば、複数の波長の光を出射するように光源21を構成すれば、光源21から出射する光の波長を変えることによって、表示情報の色を変更することができる。また、異なる波長の光を同時に出射するように光源21を構成すれば、複数の色によって構成される表示情報を表示させることができる。
 光源駆動電源22(光源駆動手段ともよぶ)は、制御装置30の制御に応じて光源21を駆動させて、光源21から光を出射させるための電源である。
 空間光変調素子23は、変調素子駆動手段24の制御に応じて、被投射面に所望の表示画像を表示することができる照射光を生成するためのパターン(以下、変調パターン)を、自身の表示部に表示する。本実施形態においては、空間光変調素子23の表示部に変調パターンが表示された状態で、その表示部に光110を照射する。空間光変調素子23は、入射される光110の反射光(変調光130)を投射光学系25に向けて出射する。
 ここで、図6のように、空間光変調素子23の表示部に対して光110の入射角を非垂直にすることが好ましい。すなわち、光源21からの光110の出射軸を空間光変調素子23の表示部に対して斜めにする。このように、空間光変調素子23の表示部に対して光110の出射軸を斜めに設定すれば、ビームスプリッタを用いなくても空間光変調素子23の表示部に光110を入射できるため、効率を向上させることができる。
 空間光変調素子23は、位相がそろったコヒーレントな光110の入射を受け、入射された光110の位相を変調する位相変調型の空間光変調素子によって実現できる。位相変調型の空間光変調素子23を用いた投射光学系からの出射光は、フォーカスフリーであるため、複数の投射距離に設定される表示領域に光を投射することになっても投射距離ごとに焦点を変える必要がない。なお、空間光変調素子23は、各表示領域に表示情報を表示できるのであれば位相変調型とは異なる方式の素子であってもよいが、フォーカスフリーを実現するためには位相変調型の素子である方が好ましい。
 位相変調型の空間光変調素子23の表示部には、被投射面の姿勢に合わせたソース画像内の表示情報の位相分布が表示される。この場合、空間光変調素子23の表示領域で反射された変調光130は、一種の回折格子が集合体を形成したような画像になり、回折格子で回折された光が集まるように画像が形成される。
 空間光変調素子23は、例えば、強誘電性液晶やホモジーニアス液晶、垂直配向液晶などを用いた空間光変調素子によって実現される。空間光変調素子23は、具体的には、LCOS(Liquid Crystal on Silicon)によって実現できる。また、空間光変調素子23は、例えば、MEMS(Micro Electro Mechanical System)によって実現してもよい。
 位相変調型の空間光変調素子23では、照射光を投射する表示領域を順次切り替えるように動作させることによってエネルギーを表示情報の部分に集中することができる。そのため、位相変調型の空間光変調素子23を用いれば、光源の出力が同じであれば、その他の方式のものよりも表示情報を明るく表示させることができる。
 変調素子駆動手段24は、制御装置30の制御に応じて、変調パターンを空間光変調素子23の表示部に表示させる。変調素子駆動手段24は、空間光変調素子23の表示部に照射される光110の位相と、表示部で反射される変調光130の位相との差分を決定づけるパラメータが変化するように空間光変調素子23を駆動する。
 位相変調型の空間光変調素子23の表示部に照射される光110の位相と、表示部で反射される変調光130の位相との差分を決定づけるパラメータは、例えば、屈折率や光路長などの光学的特性に関するパラメータである。例えば、変調素子駆動手段24は、空間光変調素子23の表示部に印加する電圧を変化させることによって、表示部の屈折率を変化させる。その結果、表示部に照射された光110は、表示部の屈折率に基づいて適宜回折される。すなわち、位相変調型の空間光変調素子23に照射された光110の位相分布は、表示部の光学的特性に応じて変調される。なお、変調素子駆動手段24による空間光変調素子23の駆動方法はここで挙げた限りではない。
 投射光学系25は、空間光変調素子23で変調された変調光130を照射光150として投射する。図6のように、投射光学系25は、フーリエ変換レンズ251、アパーチャ252および投射レンズ253を有する。空間光変調素子23で変調された変調光130は、投射光学系25によって照射光150として照射される。なお、各表示領域に表示情報を表示させることができれば、投射光学系25の構成要素のうちいずれかを省略して構成してもよい。
 フーリエ変換レンズ251は、空間光変調素子23の表示部で反射された変調光130を無限遠に投射した際に形成される像を、近傍の焦点に結像させるための光学レンズである。図6では、アパーチャ252の位置に焦点が形成されている。
 アパーチャ252は、フーリエ変換レンズ251によって集束された光に含まれる高次光を遮蔽し、表示領域を特定する機能を有する。アパーチャ252の開口部は、アパーチャ252の位置における表示領域の最外周よりも小さく開口され、アパーチャ252の位置における表示情報の周辺領域を遮るように設置される。例えば、アパーチャ252の開口部は、矩形状や円形状に形成される。アパーチャ252は、フーリエ変換レンズ251の焦点位置に設置されることが好ましいが、高次光を消去する機能を発揮できれば焦点位置からずれていても構わない。
 投射レンズ253は、フーリエ変換レンズ251によって集束された光を拡大して投射する光学レンズである。投射レンズ253は、空間光変調素子23に入力された位相分布に対応する表示情報が各表示領域に表示されるように照射光150を投射する。
 単純な記号などの線画を投射する用途に情報入力システム1を用いる場合、投射光学系25から投射された照射光150は、各表示領域に均一に投射されるのではなく、文字や記号、枠などといった表示情報を表す部分に集中的に投射される。そのような場合、情報入力システム1によれば、光110の出射量を実質的に減らせるため、全体的な光出力を抑えることができる。すなわち、情報入力システム1は、小型かつ低電力な光源21で構成できるため、その光源21を駆動する光源駆動電源22を低出力にでき、全体的な消費電力を低減できる。
<被投射面について>
 被投射面は、任意の物体(被投射体)の一部又は全部とすることができる。例えば被投射体は、前述したアクリル板などの板であり、被投射面は当該板の一面である。情報入力システム1では、被投射面の姿勢を考慮して生成された照射光が投射されるため、板を設置する際に、「表示画像を投射させる板の面が、投射装置20の投射方向に対して垂直となるように設置しなければならない」といった制限がなく、設置が容易となる。その他にも例えば、被投射体は、対象者の体や所持品の一部(例えば、手の平、腕、又は服の袖など)であり、被投射面はこれらの表面である。被投射面の姿勢に応じて表示画像が投射されるため、手の平や腕を投射範囲内にかざす際に、「表示画像を投射させる手の平などが、投射装置20の投射方向に対して垂直となるようにかざさなければならない」という制限がなく、対象者が自由な姿勢で容易に情報入力システム1を利用することができる。
 その他にも例えば、噴射装置から噴霧した霧を被投射体として利用することができる。この場合、平面をなすように霧を噴霧し、当該平面を被投射面とすることが好ましい。しかしながら、霧は風や空調の影響を受けやすいため、霧によって形成される被投射面はその姿勢が変化しやすいと考えられる。この点、投射装置20を利用することにより、このような霧によって形成される被投射面の姿勢の変化に追従しながら、表示画像を表示させることができる。その他にも例えば、被投射体として、蓄積されている水(例えば、池、プール、又は温泉などの水)を利用することができる。この場合、水面が被投射面となる。プールや温泉などのように人がその中に入る水の水面は、人の動きの影響によってその形状が変化しやすい。また、通常は人が入らない池でも、鳥の着水や風の影響により、水面の形状が変化することがある。この点、投射装置20を利用することにより、このような水面の姿勢の変化に追従しながら、水面に表示画像を表示させることができる。
 ここで、被投射面には入力操作用の表示画像が表示されるため、たとえ表示画像に触れずに入力操作を行えるように情報入力システム1が構成されたとしても、対象者が被投射面に触れてしまう可能性がある。そのため、衛生上の観点(例えば、感染症の感染拡大の防止など)から、被投射体には、清潔さを保ちやすい物体(洗浄が容易な物体や、繰り返し新しいものに入れ替わる霧など)や、対象者自身の体や所持品を利用することが好ましい。この点、情報入力システム1によれば、前述したように、アクリル板などの洗浄が容易な物体や、対象者自身の体などを、容易に被投射体として利用することができる。そのため、情報入力システム1を衛生的に運用することができる。
<処理の流れ>
 図7は、実施形態1の制御装置30によって実行される処理の流れを例示するフローチャートである。検出部31は、被投射面を検出する(S102)。姿勢特定部32は、被投射面の姿勢を特定する(S104)。投射制御部33は、被投射面の姿勢に合わせたソース画像を表す照射光を、投射装置20に投射させる(S106)。入力特定部34は、入力操作の内容を特定する(S108)。出力部35は、特定した入力操作の内容を表す入力情報を出力する(S110)。
 なお、被投射面の検出及びその姿勢の特定は、入力操作の度に行われてもよいし、一連の入力操作の最初のみに行われてもよい。後者の場合、例えば後述するように、センサによって対象者が検知されたことに応じて情報入力システム1が動作するようにする。この場合、例えば制御装置30は、同一の対象者によって情報入力システム1が利用されている間は、最初に特定した被投射面の位置と姿勢を利用し続けるようにする。そのため、同一の対象者によって情報入力システム1が操作されている間は、S102とS104が一度だけ実行された後、S106からS108が繰り返されることになる。
<被投射面の検出:S102>
 検出部31は、撮像装置10によって生成された撮像画像から、被投射面を検出する(S102)。例えば検出部31は、オブジェクト認識処理によって、所定の被投射面を検出する。この場合、例えば、被投射面の画像上の特徴量(以下、画像特徴量)を、検出部31からアクセス可能な記憶装置に予め格納しておく。そして、検出部31は、記憶装置から取得した被投射面の画像特徴量と類似する(例えば、類似度が所定の閾値以上である)画像特徴量を持つ画像領域を撮像画像から検出し、当該画像領域を被投射面として検出する。
 検出部31が被投射面の検出を行うタイミングは任意である。例えば検出部31は、被投射面が検出するされるまで、撮像装置10によって繰り返し生成される撮像画像(例えば、ビデオデータを構成する各ビデオフレーム)を順次取得し、各撮像画像を対象として、被投射面を検出する処理を行う。その他にも例えば、別途のセンサ(例えば人感センサ)を用いて、被投射体が投射装置20の投射範囲内に入っている可能性が高い状況を検出してもよい。この場合、例えば検出部31は、当該状況が検出されている間に生成された撮像画像のみを対象として、被投射面の検出を行う。また、制御装置30は、上記状況が検出されている間のみ撮像装置10による撮像が行われるように、撮像装置10を制御してもよい。
<姿勢の特定:S104>
 姿勢特定部32は、撮像画像から検出された被投射面について、その姿勢を特定する(S104)。以下、被投射面の姿勢を表すデータを、姿勢データと呼ぶ。ここで、被投射面の姿勢の表し方は任意である。例えば、投射装置20による光の投射方向を Z 軸とし、当該 Z 軸に直交する平面を XY 平面とする3次元空間において、XY 平面に対する被投射面の傾きを表すデータを、被投射面の姿勢を表す姿勢データとして利用することができる。この場合、例えば姿勢データは、被投射面と同じサイズで XY 平面に平行な平面を被投射面へ変換するための変換行列(回転行列)である。
 以下、被投射面の姿勢を特定する方法について、具体的にいくつか例示する。
<<被投射面の基準画像との比較による特定>>
 例えば姿勢特定部32は、姿勢特定部32は、平面視で被投射面を撮像した画像である基準画像と、撮像画像から抽出された被投射面の画像とを比較することで、被投射面の姿勢を特定する。ここで、基準となる姿勢の物体の画像と、撮像画像から得られた物体の画像とを比較することで、その物体の姿勢を特定する技術には、既存の技術を利用することができる。例えば姿勢特定部32は、撮像画像から抽出された被投射面の画像へ基準画像を変換するための変換行列を算出し、当該変換行列を被投射面の姿勢とする。基準画像は、姿勢特定部32からアクセス可能な記憶装置に予め格納しておく。
 なお、被投射体として複数の種類の物体を扱うことができる場合、姿勢特定部32は、現在の被投射体に対応する基準画像を利用する必要がある。この場合、被投射体の識別情報と、その被投射体の被投射面の基準画像とを対応づけて、姿勢特定部32からアクセス可能な記憶装置に格納しておく。検出部31は、オブジェクト認識等によって被投射面を検出する際、被投射体の識別情報を特定する。姿勢特定部32は、特定された識別情報に対応する基準画像を利用して、被投射面の姿勢を特定する。
<<マーカの基準画像との比較による特定>>
 その他にも例えば、被投射面に、形状が既知であるマーカを設けておき、これを利用して被投射面の姿勢を特定してもよい。この場合、当該マーカを平面視した画像を、基準画像として用意しておく。姿勢特定部32は、撮像装置10によって生成された撮像画像からマーカを表す画像を抽出し、抽出したマーカの画像と基準画像を比較することで、マーカの姿勢を特定する。そして、姿勢特定部32は、特定したマーカの姿勢を、被投射面の姿勢として特定する。例えば姿勢特定部32は、撮像画像から抽出されたマーカの画像へ基準画像を変換するための変換行列を算出し、当該変換行列をマーカの姿勢(すなわち、被投射面の姿勢)として扱う。
 なお、複数種類のマーカを扱うことができる場合、姿勢特定部32は、現在の被投射面に設けられているマーカに対応する基準画像を利用する必要がある。この場合、マーカの識別情報と、そのマーカの基準画像とを対応づけて、姿勢特定部32からアクセス可能な記憶装置に格納しておく。姿勢特定部32は、オブジェクト認識等によって被投射面上のマーカを特定し、特定したマーカの識別情報に対応づけられている基準画像を取得する。
<<測距による特定>>
 その他にも例えば、姿勢特定部32は、被投射面上の複数の位置までの距離を特定し、特定した各距離に基づいて、被投射面の姿勢を特定してもよい。被投射面上の複数の各位置までの距離が分かると、それらの距離に基づいて、前述した3次元空間上における被投射面の姿勢を再現することができる。そのため、被投射面の姿勢を特定することができる。測距は、被投射面上の3つ以上の位置に対して行うことが好適である。
 被投射面までの距離の特定には、任意の測距装置(投射装置20やライダなど)を利用することができる。投射装置20を測距装置として利用する場合、例えば姿勢特定部32は、所定パターンが含まれる画像(例えば、所定の大きさの円が所定の間隔で配置された画像)を表す照射光を投射するように投射装置20を制御し、その反射光における上記所定パターンのずれに基づいて、被投射面上の複数の位置それぞれまでの距離を算出する。なお、投射装置を測距装置として利用する具体的な方法については、例えば特許文献2に開示されている。
 測距の結果を用いて被投射面の姿勢を特定する方法としては、例えば以下の方法を利用することができる。まず姿勢特定部32は、測距された被投射面上の複数の位置のうちの1つを基準の位置として扱い、当該基準位置を通り、なおかつ前述した XY 平面と平行な面(以下、基準面)を特定する。そして、姿勢特定部32は、測距によって特定された被投射面と基準面との比較により、被投射面の姿勢を特定する。例えば、被投射面の姿勢は、基準面を被投射面へ変換するための変換行列として算出することができる。
<姿勢に基づく照射光の制御:S106>
 投射制御部33は、特定した被投射面の姿勢と同じ姿勢に変形されたソース画像を表す照射光が照射されるように、投射装置20による投射を制御する(S104)。より具体的には、投射制御部33は、特定した被投射面の姿勢に基づいて、投射装置20の空間光変調素子23を制御する。前述したように、投射装置20から所望の画像を表す照射光が投射されるようにするためには、空間光変調素子23の表示部に、当該所望の画像に対応する変調パターンが表示された状態で、その表示部に光110を照射する。
 そこで例えば、投射制御部33は、対象者に提示すべき表示情報を含むソース画像を取得し、当該ソース画像を、被投射面と同じ姿勢になるように変形する。例えば前述したように、被投射面の姿勢が変換行列で表される場合、投射制御部33は、ソース画像を変換行列に基づいて変形することで、ソース画像の姿勢を、被投射面と同じ姿勢に変更する。そして、投射制御部33は、変形後のソース画像に対応する変調パターンを空間光変調素子23の表示部に設定する。こうすることで、投射装置20から、被投射面の姿勢と同じ姿勢のソース画像を表す投射光が投射される。その結果、被投射面に、ソース画像を相似拡大したものに相当する(又はそれに近い)表示画像が表示される。なお、所望の画像に対応する変調パターンを空間光変調素子23の表示部に設定する方法には、既存の技術を利用することができる。
 また、ソース画像に対応する変調パターンが予め用意されていてもよい。例えば、投射装置20が利用可能な1つ以上のソース画像それぞれに対応する変調パターンを、投射制御部33からアクセス可能な記憶装置に予め格納しておく。投射制御部33は、所望のソース画像に対応する変調パターンを記憶装置から取得し、その変調パターンを、被投射面の姿勢と同じ姿勢を持つソース画像に対応する変調パターンに変換する。そして、投射制御部33は、変換後の変調パターンを、空間光変調素子23の表示部に設定する。
 被投射面の姿勢に合わせて変調パターンの変換を行う方法は様々である。例えば投射制御部33は、ソース画像に対応する変調パターンをソース画像に変換し、当該ソース画像に対して前述した変換行列を適用することで、被投射面と同じ姿勢に変換されたソース画像を得る。そして投射制御部33は、変換後のソース画像を変調パターンに変換する。その他にも例えば、変調パターンと姿勢データ(変換行列等)が入力されたことに応じて、当該姿勢データによって表される姿勢を持つ画像に対応する変調パターンを出力する変換処理を、予め定義しておいてもよい。この場合、姿勢特定部32は、当該変換処理に対し、所望のソース画像に対応する変調パターンと、姿勢特定部32によって生成された姿勢データを入力することにより、被投射面と同じ姿勢を持つソース画像に対応する変調パターンを得ることができる。
 所望のソース画像(すなわち、被投射面に表示されるべき表示画像に対応するソース画像)やそれに対応する変調パターンを投射制御部33が取得する方法は任意である。例えば、ソース画像の識別情報とソース画像とを対応づけて、投射制御部33からアクセス可能な記憶装置に格納しておく。この場合、投射制御部33は、利用すべきソース画像の識別情報を取得し、当該識別情報に対応するソース画像を記憶装置から取得する。
 ソース画像に対応する変調パターンが予め用意されている場合、ソース画像の識別情報と、そのソース画像に対応する変調パターンとの対応付けを、前述した記憶装置に格納しておく。投射制御部33は、ソース画像の識別情報を取得したら、その識別情報に対応する変調パターンを取得する。
 例えばソース画像の識別情報は、前述した処理装置(制御装置30から出力される入力情報を利用する装置)から取得する。すなわち、処理装置は、ソース画像の識別情報を制御装置30に出力することで、所望の表示画像を被投射面に表示させ、対象者に所望の入力(例えば、ユーザ名やパスワードの入力など)を行わせる。そして、処理装置は、制御装置30から入力情報を取得することで、対象者によって行われた入力操作の内容を取得し、所望の処理を行う(例えば、入力されたユーザ名やパスワードを取得し、認証処理を行う)。なお、ソース画像の識別情報の代わりに、ソース画像や変調パターンそのものを処理装置から取得するようにしてもよい。
<入力内容の特定:S108>
 入力特定部34は、表示画像に対して行われた入力操作の内容を特定する(S108)。例えば入力特定部34は、表示画像が表示された後に撮像装置10によって生成された撮像画像を取得し、当該撮像画像から所定の指示体を検出する。そして入力特定部34は、指示体による入力操作が行われたことを検出し、その入力操作の内容を特定する。
 指示体によって入力操作が行われたことを特定する方法は様々である。例えば入力特定部34は、撮像装置10によって順次生成される複数の撮像画像(以下、画像シーケンス)を解析することで、入力操作が行われたことを検出する。例えば、入力特定部34は、指示体が所定時間以上停止した場合に、入力操作が行われたと判定する。なお、ここでいう「停止」は、完全に停止していることに限定されず、移動量が十分に小さいこと(例えば、移動量が所定の大きさ以下であること)も含む。その他にも例えば、入力特定部34は、指示体によって所定の動きが行われた場合に、入力操作が行われたと判定してもよい。所定の動きとは、例えば、被投射面に触れる動きや、所定の形を描く動きなどである。その他にも例えば、投射装置20によって表示画像が投射された時点から所定時間が経過したら、入力操作が行われたと判定してもよい。
 指示体の位置に基づいて入力内容を特定する方法は様々である。例えば入力操作が、表示画像によって表される複数の選択肢のうちの1つを選択する入力操作であるとする。この場合、例えば入力特定部34は、撮像装置10から得られた撮像画像から、表示画像と指示体の双方を検出し、これらの位置関係に基づいて入力操作の内容を特定する。具体的には、入力特定部34は、撮像画像から指示体と表示画像を検出し、指示体が表示画像上のどの部分に位置しているのかを特定する。そして、入力特定部34は、特定した表示画像上の位置に対応する入力操作の内容を、指示体によって行われた入力操作の内容として特定する。例えば表示画像がテンキーの画像である場合において、指示体が「7」というキーの上に位置していたとする。この場合、入力特定部34は、「7」を選択する操作が行われたことを特定することができる。
 入力特定部34は、表示画像の検出を行わなくてもよい。この場合、例えば入力特定部34は、撮像装置10の撮像画像から指示体と被投射面を検出し、被投射面に対する指示体の相対位置を算出する。また、入力特定部34は、算出した相対位置に基づいて、被投射面に投射された表示画像のどの部分に指示体が位置しているかを特定する。そして、入力特定部34は、特定した表示画像上の位置に対応する入力操作の内容を、指示体によって行われた入力操作の内容として特定する。
 被投射面に対する指示体の相対位置を特定する方法は、撮像画像を利用する方法に限定されない。例えば入力特定部34は、測距装置を利用して、被投射面上の複数の位置それぞれまでの距離を算出する。ここで、被投射面上の各位置のうち、上方に指示体が存在する部分については、他の部分と比較して、測距装置からの距離が短くなる。そのため、測距装置から得られる距離のデータを利用することで、被投射面上のどの部分に指示体が位置しているのかを把握することができる。
<入力情報の出力:S110>
 出力部35は、入力特定部34によって特定された入力操作の内容を表す入力情報を出力する(S110)。入力操作の内容を表す情報を生成・出力する方法には、既存の種々の方法を利用することができる。例えば入力操作が、表示画像によって表される複数の選択肢のうちの1つを選択するものであるとする。この場合、入力情報には、指示体によって選択された選択肢の識別情報が含まれる。例えば、表示画像が YES と NO という2つの選択肢を表す画像であり、前者と後者のそれぞれに0と1という識別情報が与えられていたとする。この場合、入力操作によって YES が選択された場合には、0という識別情報を示す入力情報が生成される。
 以上、実施形態を参照して本発明を説明してきたが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 なお、上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに提供することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD-ROM、CD-R、CD-R/W、半導体メモリ(例えば、マスク ROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに提供されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 投射装置の投射範囲を撮像する撮像装置によって生成される撮像画像から、被投射面を検出する検出部と、
 前記被投射面の姿勢を特定する姿勢特定部と、
 前記特定した姿勢と同じ姿勢に変換されたソース画像を表す照射光を、前記投射装置に投射させる投射制御部と、
 前記撮像装置によって生成される撮像画像から指示体を検出し、前記指示体による入力操作の内容を特定する入力特定部と、
 前記特定した入力操作の内容を表す入力情報を出力する出力部と、を有する制御装置。
 (付記2)
 前記姿勢特定部は、前記撮像画像に含まれる前記被投射面の画像と、基準となる姿勢の前記被投射面の画像とを比較することによって前記被投射面の姿勢を特定する、付記1に記載の制御装置。
 (付記3)
 前記被投射面にマーカが設けられており、
 前記姿勢特定部は、前記撮像画像に含まれる前記マーカの画像と、基準となる姿勢の前記マーカの画像とを比較することによって前記マーカの姿勢を特定し、前記特定したマーカの姿勢に基づいて前記被投射面の姿勢を特定する、付記1に記載の制御装置。
 (付記4)
 前記姿勢特定部は、前記被投射面上の複数の位置それぞれまでの距離を測定した結果に基づいて、前記被投射面の姿勢を特定する、付記1に記載の制御装置。
 (付記5)
 前記被投射面上の複数の位置それぞれまでの距離の測定は、前記投射装置から前記被投射面に投射した光の反射項を利用して行われる、付記4に記載の制御装置。
 (付記6)
 前記投射装置は空間光変調素子を有し、
 前記投射制御部は、前記被投射面の姿勢と同じ姿勢に変換されたソース画像を表す変調パターンを前記空間光変調素子に設定することで、前記被投射面の姿勢と同じ姿勢に変換されたソース画像を表す照射光を前記投射装置に投射させる、付記1から5いずれか一項に記載の制御装置。
 (付記7)
 コンピュータによって実行される制御方法であって、
 投射装置の投射範囲を撮像する撮像装置によって生成される撮像画像から、被投射面を検出する検出ステップと、
 前記被投射面の姿勢を特定する姿勢特定ステップと、
 前記特定した姿勢と同じ姿勢に変換されたソース画像を表す照射光を、前記投射装置に投射させる投射制御ステップと、
 前記撮像装置によって生成される撮像画像から指示体を検出し、前記指示体による入力操作の内容を特定する入力特定ステップと、
 前記特定した入力操作の内容を表す入力情報を出力する出力ステップと、を有する制御方法。
 (付記8)
 前記姿勢特定ステップにおいて、前記撮像画像に含まれる前記被投射面の画像と、基準となる姿勢の前記被投射面の画像とを比較することによって前記被投射面の姿勢を特定する、付記7に記載の制御方法。
 (付記9)
 前記被投射面にマーカが設けられており、
 前記姿勢特定ステップにおいて、前記撮像画像に含まれる前記マーカの画像と、基準となる姿勢の前記マーカの画像とを比較することによって前記マーカの姿勢を特定し、前記特定したマーカの姿勢に基づいて前記被投射面の姿勢を特定する、付記7に記載の制御方法。
 (付記10)
 前記姿勢特定ステップにおいて、前記被投射面上の複数の位置それぞれまでの距離を測定した結果に基づいて、前記被投射面の姿勢を特定する、付記7に記載の制御方法。
 (付記11)
 前記被投射面上の複数の位置それぞれまでの距離の測定は、前記投射装置から前記被投射面に投射した光の反射項を利用して行われる、付記10に記載の制御方法。
 (付記12)
 前記投射装置は空間光変調素子を有し、
 前記投射制御ステップにおいて、前記被投射面の姿勢と同じ姿勢に変換されたソース画像を表す変調パターンを前記空間光変調素子に設定することで、前記被投射面の姿勢と同じ姿勢に変換されたソース画像を表す照射光を前記投射装置に投射させる、付記7から11いずれか一項に記載の制御方法。
 (付記13)
 プログラムを格納しているコンピュータ可読媒体であって、
 前記プログラムはコンピュータに、
 投射装置の投射範囲を撮像する撮像装置によって生成される撮像画像から、被投射面を検出する検出ステップと、
 前記被投射面の姿勢を特定する姿勢特定ステップと、
 前記特定した姿勢と同じ姿勢に変換されたソース画像を表す照射光を、前記投射装置に投射させる投射制御ステップと、
 前記撮像装置によって生成される撮像画像から指示体を検出し、前記指示体による入力操作の内容を特定する入力特定ステップと、
 前記特定した入力操作の内容を表す入力情報を出力する出力ステップと、を実行させる、コンピュータ可読媒体。
 (付記14)
 前記姿勢特定ステップにおいて、前記撮像画像に含まれる前記被投射面の画像と、基準となる姿勢の前記被投射面の画像とを比較することによって前記被投射面の姿勢を特定する、付記13に記載のコンピュータ可読媒体。
 (付記15)
 前記被投射面にマーカが設けられており、
 前記姿勢特定ステップにおいて、前記撮像画像に含まれる前記マーカの画像と、基準となる姿勢の前記マーカの画像とを比較することによって前記マーカの姿勢を特定し、前記特定したマーカの姿勢に基づいて前記被投射面の姿勢を特定する、付記13に記載のコンピュータ可読媒体。
 (付記16)
 前記姿勢特定ステップにおいて、前記被投射面上の複数の位置それぞれまでの距離を測定した結果に基づいて、前記被投射面の姿勢を特定する、付記13に記載のコンピュータ可読媒体。
 (付記17)
 前記被投射面上の複数の位置それぞれまでの距離の測定は、前記投射装置から前記被投射面に投射した光の反射項を利用して行われる、付記16に記載のコンピュータ可読媒体。
 (付記18)
 前記投射装置は空間光変調素子を有し、
 前記投射制御ステップにおいて、前記被投射面の姿勢と同じ姿勢に変換されたソース画像を表す変調パターンを前記空間光変調素子に設定することで、前記被投射面の姿勢と同じ姿勢に変換されたソース画像を表す照射光を前記投射装置に投射させる、付記13から17いずれか一項に記載のコンピュータ可読媒体。
1      情報入力システム
10      撮像装置
20      投射装置
21      光源
22      光源駆動電源
23      空間光変調素子
24      変調素子駆動手段
25      投射光学系
30      制御装置
31      検出部
32      姿勢特定部
33      投射制御部
34      入力特定部
35      出力部
40      板
110      光
130      変調光
150      照射光
210      コリメータ
251      フーリエ変換レンズ
252      アパーチャ
253      投射レンズ
500      コンピュータ
500      各コンピュータ
502      バス
504      プロセッサ
506      メモリ
508      ストレージデバイス
510      入出力インタフェース
512      ネットワークインタフェース

Claims (18)

  1.  投射装置の投射範囲を撮像する撮像装置によって生成される撮像画像から、被投射面を検出する検出部と、
     前記被投射面の姿勢を特定する姿勢特定部と、
     前記特定した姿勢と同じ姿勢に変換されたソース画像を表す照射光を、前記投射装置に投射させる投射制御部と、
     前記撮像装置によって生成される撮像画像から指示体を検出し、前記指示体による入力操作の内容を特定する入力特定部と、
     前記特定した入力操作の内容を表す入力情報を出力する出力部と、を有する制御装置。
  2.  前記姿勢特定部は、前記撮像画像に含まれる前記被投射面の画像と、基準となる姿勢の前記被投射面の画像とを比較することによって前記被投射面の姿勢を特定する、請求項1に記載の制御装置。
  3.  前記被投射面にマーカが設けられており、
     前記姿勢特定部は、前記撮像画像に含まれる前記マーカの画像と、基準となる姿勢の前記マーカの画像とを比較することによって前記マーカの姿勢を特定し、前記特定したマーカの姿勢に基づいて前記被投射面の姿勢を特定する、請求項1に記載の制御装置。
  4.  前記姿勢特定部は、前記被投射面上の複数の位置それぞれまでの距離を測定した結果に基づいて、前記被投射面の姿勢を特定する、請求項1に記載の制御装置。
  5.  前記被投射面上の複数の位置それぞれまでの距離の測定は、前記投射装置から前記被投射面に投射した光の反射項を利用して行われる、請求項4に記載の制御装置。
  6.  前記投射装置は空間光変調素子を有し、
     前記投射制御部は、前記被投射面の姿勢と同じ姿勢に変換されたソース画像を表す変調パターンを前記空間光変調素子に設定することで、前記被投射面の姿勢と同じ姿勢に変換されたソース画像を表す照射光を前記投射装置に投射させる、請求項1から5いずれか一項に記載の制御装置。
  7.  コンピュータによって実行される制御方法であって、
     投射装置の投射範囲を撮像する撮像装置によって生成される撮像画像から、被投射面を検出する検出ステップと、
     前記被投射面の姿勢を特定する姿勢特定ステップと、
     前記特定した姿勢と同じ姿勢に変換されたソース画像を表す照射光を、前記投射装置に投射させる投射制御ステップと、
     前記撮像装置によって生成される撮像画像から指示体を検出し、前記指示体による入力操作の内容を特定する入力特定ステップと、
     前記特定した入力操作の内容を表す入力情報を出力する出力ステップと、を有する制御方法。
  8.  前記姿勢特定ステップにおいて、前記撮像画像に含まれる前記被投射面の画像と、基準となる姿勢の前記被投射面の画像とを比較することによって前記被投射面の姿勢を特定する、請求項7に記載の制御方法。
  9.  前記被投射面にマーカが設けられており、
     前記姿勢特定ステップにおいて、前記撮像画像に含まれる前記マーカの画像と、基準となる姿勢の前記マーカの画像とを比較することによって前記マーカの姿勢を特定し、前記特定したマーカの姿勢に基づいて前記被投射面の姿勢を特定する、請求項7に記載の制御方法。
  10.  前記姿勢特定ステップにおいて、前記被投射面上の複数の位置それぞれまでの距離を測定した結果に基づいて、前記被投射面の姿勢を特定する、請求項7に記載の制御方法。
  11.  前記被投射面上の複数の位置それぞれまでの距離の測定は、前記投射装置から前記被投射面に投射した光の反射項を利用して行われる、請求項10に記載の制御方法。
  12.  前記投射装置は空間光変調素子を有し、
     前記投射制御ステップにおいて、前記被投射面の姿勢と同じ姿勢に変換されたソース画像を表す変調パターンを前記空間光変調素子に設定することで、前記被投射面の姿勢と同じ姿勢に変換されたソース画像を表す照射光を前記投射装置に投射させる、請求項7から11いずれか一項に記載の制御方法。
  13.  プログラムを格納しているコンピュータ可読媒体であって、
     前記プログラムはコンピュータに、
     投射装置の投射範囲を撮像する撮像装置によって生成される撮像画像から、被投射面を検出する検出ステップと、
     前記被投射面の姿勢を特定する姿勢特定ステップと、
     前記特定した姿勢と同じ姿勢に変換されたソース画像を表す照射光を、前記投射装置に投射させる投射制御ステップと、
     前記撮像装置によって生成される撮像画像から指示体を検出し、前記指示体による入力操作の内容を特定する入力特定ステップと、
     前記特定した入力操作の内容を表す入力情報を出力する出力ステップと、を実行させる、コンピュータ可読媒体。
  14.  前記姿勢特定ステップにおいて、前記撮像画像に含まれる前記被投射面の画像と、基準となる姿勢の前記被投射面の画像とを比較することによって前記被投射面の姿勢を特定する、請求項13に記載のコンピュータ可読媒体。
  15.  前記被投射面にマーカが設けられており、
     前記姿勢特定ステップにおいて、前記撮像画像に含まれる前記マーカの画像と、基準となる姿勢の前記マーカの画像とを比較することによって前記マーカの姿勢を特定し、前記特定したマーカの姿勢に基づいて前記被投射面の姿勢を特定する、請求項13に記載のコンピュータ可読媒体。
  16.  前記姿勢特定ステップにおいて、前記被投射面上の複数の位置それぞれまでの距離を測定した結果に基づいて、前記被投射面の姿勢を特定する、請求項13に記載のコンピュータ可読媒体。
  17.  前記被投射面上の複数の位置それぞれまでの距離の測定は、前記投射装置から前記被投射面に投射した光の反射項を利用して行われる、請求項16に記載のコンピュータ可読媒体。
  18.  前記投射装置は空間光変調素子を有し、
     前記投射制御ステップにおいて、前記被投射面の姿勢と同じ姿勢に変換されたソース画像を表す変調パターンを前記空間光変調素子に設定することで、前記被投射面の姿勢と同じ姿勢に変換されたソース画像を表す照射光を前記投射装置に投射させる、請求項13から17いずれか一項に記載のコンピュータ可読媒体。
PCT/JP2020/025908 2020-07-01 2020-07-01 制御装置、制御方法、及びコンピュータ可読媒体 WO2022003876A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2020/025908 WO2022003876A1 (ja) 2020-07-01 2020-07-01 制御装置、制御方法、及びコンピュータ可読媒体
JP2022532929A JPWO2022003876A5 (ja) 2020-07-01 制御装置、制御方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/025908 WO2022003876A1 (ja) 2020-07-01 2020-07-01 制御装置、制御方法、及びコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2022003876A1 true WO2022003876A1 (ja) 2022-01-06

Family

ID=79314968

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/025908 WO2022003876A1 (ja) 2020-07-01 2020-07-01 制御装置、制御方法、及びコンピュータ可読媒体

Country Status (1)

Country Link
WO (1) WO2022003876A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009043157A (ja) * 2007-08-10 2009-02-26 Panasonic Electric Works Co Ltd 画像表示装置
JP2014067349A (ja) * 2012-09-27 2014-04-17 Seiko Epson Corp ヒューマンインターフェース装置及び方法
JP2015179182A (ja) * 2014-03-19 2015-10-08 セイコーエプソン株式会社 プロジェクター、及び表示状態調整方法
JP2015201064A (ja) * 2014-04-09 2015-11-12 株式会社東芝 情報処理装置、映像投影装置、情報処理方法及びプログラム
JP2016099742A (ja) * 2014-11-19 2016-05-30 株式会社東芝 情報処理装置、映像投影装置、情報処理方法及びプログラム
JP2019078845A (ja) * 2017-10-23 2019-05-23 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009043157A (ja) * 2007-08-10 2009-02-26 Panasonic Electric Works Co Ltd 画像表示装置
JP2014067349A (ja) * 2012-09-27 2014-04-17 Seiko Epson Corp ヒューマンインターフェース装置及び方法
JP2015179182A (ja) * 2014-03-19 2015-10-08 セイコーエプソン株式会社 プロジェクター、及び表示状態調整方法
JP2015201064A (ja) * 2014-04-09 2015-11-12 株式会社東芝 情報処理装置、映像投影装置、情報処理方法及びプログラム
JP2016099742A (ja) * 2014-11-19 2016-05-30 株式会社東芝 情報処理装置、映像投影装置、情報処理方法及びプログラム
JP2019078845A (ja) * 2017-10-23 2019-05-23 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法

Also Published As

Publication number Publication date
JPWO2022003876A1 (ja) 2022-01-06

Similar Documents

Publication Publication Date Title
US20190261618A1 (en) Light irradiation device and light irradiation system
US11619484B2 (en) Distance measurement system, distance measurement method, and program recording medium
US9984508B2 (en) Light-based radar system for augmented reality
US9992474B2 (en) Stereo depth camera using VCSEL with spatially and temporally interleaved patterns
CN106489265B (zh) 图像捕捉装置及计算系统
CN104581124B (zh) 产生场景的深度图的方法和装置
KR101824888B1 (ko) 3차원 형상 측정 장치 및 그의 측정 방법
JP2020525936A (ja) 少なくとも1つの物体の位置を決定するための検出器
US20190302964A1 (en) Information input device and information input method
US10670857B2 (en) Projection device and interface device having mirror which reflects light other than zero-order light toward a projection lens
US20110089841A1 (en) Control information for controlling light-system
US20180217235A1 (en) Projection System for a Time-of-Flight Sensor and Method of Operation of Same
US20230015956A1 (en) Providing feedback on a treatment operation performed on a body part of a subject
JP2020150400A (ja) ウェアラブルデバイスおよび制御方法
WO2022003876A1 (ja) 制御装置、制御方法、及びコンピュータ可読媒体
JP6828747B2 (ja) 投射システム、投射方法およびプログラム
JP6645588B2 (ja) 表示システム
JP2014087067A (ja) プロジェクション装置を備えた、とりわけ通信機器である電子機器、および、電子機器の動作方法
WO2022003830A1 (ja) 制御装置、制御方法、及びコンピュータ可読媒体
TWI691736B (zh) 發光裝置及應用其之圖像採集裝置
CN111127578B (zh) 智能可编程光源dot成像系统、方法和装置
TW202004556A (zh) 光學投射系統
US20230031320A1 (en) Management system
JP2021012623A (ja) 表示システムおよび表示方法
TW202121003A (zh) 結構光發射模組及圖像採集裝置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20942876

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022532929

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20942876

Country of ref document: EP

Kind code of ref document: A1