WO2020008877A1 - 情報処理装置、情報処理方法、及び、記録媒体 - Google Patents

情報処理装置、情報処理方法、及び、記録媒体 Download PDF

Info

Publication number
WO2020008877A1
WO2020008877A1 PCT/JP2019/024213 JP2019024213W WO2020008877A1 WO 2020008877 A1 WO2020008877 A1 WO 2020008877A1 JP 2019024213 W JP2019024213 W JP 2019024213W WO 2020008877 A1 WO2020008877 A1 WO 2020008877A1
Authority
WO
WIPO (PCT)
Prior art keywords
pointing
light
output
information processing
image
Prior art date
Application number
PCT/JP2019/024213
Other languages
English (en)
French (fr)
Inventor
青木 悠
健太郎 井田
拓也 池田
文彦 飯田
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201980043371.9A priority Critical patent/CN112334866A/zh
Priority to DE112019003374.3T priority patent/DE112019003374T5/de
Priority to US17/254,595 priority patent/US20210132705A1/en
Publication of WO2020008877A1 publication Critical patent/WO2020008877A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0386Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Definitions

  • the present technology relates to an information processing device, an information processing method, and a recording medium, and more particularly, to an information processing device, an information processing method, and a recording medium that improve detection accuracy of a position indicated by a position pointing device.
  • the present technology has been made in view of such a situation, and aims to improve the detection accuracy of a position indicated by a position pointing device.
  • An information processing apparatus is configured to output information indicating an output state of a pointing light of a position pointing device, and the pointing position based on sensor data detected in a space indicated by the pointing light.
  • a pointing light control unit that controls the output of the pointing light of the position pointing device based on the detection result of the pointing position.
  • An information processing method includes an output information indicating an output state of a pointing light of a position pointing device, and the pointing position based on sensor data detected in a space indicated by the pointing light. And the output of the pointing light is controlled based on the detection result of the pointing position.
  • the recording medium is based on output information indicating an output state of a pointing light of a position pointing device, and sensor data detected in a space where the pointing position is indicated by the pointing light.
  • a program for performing detection and executing a process of controlling the output of the pointing light based on the detection result of the pointing position is recorded.
  • detection of the pointing position is performed based on output information indicating an output state of a pointing light of a position pointing device and sensor data detected in a space indicated by the pointing light.
  • the output of the pointing light of the position pointing device is controlled based on the detection result of the pointing position.
  • FIG. 1 is a block diagram illustrating a first embodiment of an information processing system to which the present technology is applied.
  • FIG. 3 is a block diagram illustrating a configuration example of a sensor unit, an information processing device, and a processing unit. It is a block diagram showing an example of composition of a position pointing device. It is a figure showing the example of installation of an information processor. It is a flowchart for demonstrating a pointing position detection process.
  • FIG. 11 is a diagram illustrating an example of an image in which detection of a designated position is successful.
  • FIG. 9 is a diagram illustrating an example of an image in which detection of a designated position has failed.
  • FIG. 9 is a diagram illustrating an example of an image in which detection of a designated position has failed.
  • FIG. 9 is a diagram illustrating an example of an image in which detection of a designated position has failed.
  • FIG. 9 is a diagram illustrating an example of an image in which detection of a designated position has failed. It is a flow chart for explaining details of control parameter adjustment processing.
  • FIG. 13 is a diagram illustrating a second embodiment of an information processing system to which the present technology is applied.
  • FIG. 14 is a diagram illustrating a third embodiment of an information processing system to which the present technology is applied.
  • FIG. 11 is a diagram illustrating a configuration example of a computer.
  • FIG. 1 is a block diagram illustrating a configuration example of an information processing system 1 to which the present technology is applied.
  • the information processing system 1 includes a sensor unit 11, an information processing device 12, a position pointing device 13, and a processing unit 14.
  • the sensor unit 11 detects a state of a space in which a position is indicated by the position pointing device 13, that is, a space in which a pointing position is indicated by pointing light output from the position pointing device 13 (hereinafter, referred to as a pointing target space). .
  • the sensor unit 11 supplies the information processing device 12 with sensor data indicating the detection result of the situation of the designated space.
  • the information processing device 12 detects the position indicated by the position pointing device 13 based on the sensor data from the sensor unit 11 and the output information indicating the output state of the pointing light of the position pointing device 13.
  • the information processing device 12 supplies the designated position information indicating the detection result of the designated position to the processing unit 14. Further, the information processing device 12 sets a sensor parameter used for controlling the sensor unit 11 based on a detection result of the designated position and supplies the sensor parameter to the sensor unit 11. Further, the information processing device 12 generates output control information used for controlling the output of the pointing light of the position pointing device 13 based on the detection result of the pointing position and the like, and transmits the output control information to the position pointing device 13.
  • the position pointing device 13 is configured by, for example, an irradiation type position pointing device that outputs a pointing light and indicates a pointing position by a position where the pointing light is irradiated.
  • the position pointing device 13 includes a laser marker or the like.
  • the position pointing device 13 controls the output of the pointing light based on the output control information received from the information processing device 12. Further, the position pointing device 13 generates output information indicating the output state of the pointing light, and transmits the output information to the information processing device 12.
  • the processing unit 14 performs various processes based on the detection result of the designated position.
  • FIG. 2 illustrates a configuration example of the sensor unit 11, the information processing device 12, and the processing unit 14.
  • the sensor unit 11 includes an image sensor 31 including, for example, a camera.
  • the image sensor 31 captures an image of the target space and supplies data of the captured image to the information processing device 12.
  • the information processing device 12 includes an input unit 41, a control unit 42, a designated position detection unit 43, an I / F (interface) unit 44, a communication unit 45, and a storage unit 46.
  • the input unit 41 includes operation devices such as a touch panel, a button, a microphone, a switch, and a lever.
  • the input unit 41 generates an input signal based on data, instructions, and the like input by the user, and supplies the input signal to the control unit 42.
  • the control unit 42 is based on an input signal from the input unit 41, data of a captured image from the image sensor 31, output information from the position pointing device 13, and the like, based on the sensor unit 11, the information processing device 12, and the position pointing device. 13 and controls various processes of the processing unit 14.
  • the control unit 42 includes a pointing light control unit 51, a sensor control unit 52, and a detection control unit 53.
  • the pointing light control unit 51 controls the output of the pointing light of the position pointing device 13.
  • the pointing light control unit 51 controls a method of outputting the pointing light of the position pointing device 13. More specifically, for example, the pointing light control unit 51 sets an output parameter indicating a method of outputting the pointing light, and generates output control information including the output parameter.
  • the pointing light control unit 51 transmits the output control information to the position pointing device 13 via the communication unit 45. Further, the instruction light control unit 51 causes the storage unit 46 to store the output parameter.
  • the sensor control unit 52 controls the imaging of the image sensor 31 of the sensor unit 11.
  • the sensor control unit 52 sets a sensor parameter used for controlling the imaging of the image sensor 31, and supplies the sensor parameter to the sensor unit 11 via the I / F unit 44 or stores the sensor parameter in the storage unit 46.
  • the detection control unit 53 controls the detection of the designated position by the designated position detection unit 43.
  • the detection control unit 53 sets a detection parameter used for detecting the designated position, supplies the detection parameter to the designated position detection unit 43, or causes the storage unit 46 to store the detection parameter.
  • the designated position detection unit 43 performs a process of detecting the designated position by the position designation device 13 based on the captured image from the image sensor 31, the output information from the position designation device 13, and the detection parameter.
  • the designated position detecting unit 43 supplies designated position information indicating the result of detecting the designated position to the control unit 42, supplies the designated position information to the processing unit 14 via the I / F unit 44, or stores the designated position information in the storage unit 46. .
  • the I / F unit 44 exchanges data with the sensor unit 11 and the processing unit 14, and the like. Communication between the information processing device 12, the sensor unit 11, and the processing unit 14 may be wired or wireless.
  • the communication unit 45 communicates with the position pointing device 13.
  • the communication unit 45 includes a transmission unit 61 and a reception unit 62.
  • the transmission unit 61 performs wireless communication with the position pointing device 13 and transmits information such as output control information to the position pointing device 13.
  • the receiving unit 62 performs wireless communication with the position pointing device 13, receives information such as output information from the position pointing device 13, and supplies the information to the control unit 42 and the pointed position detecting unit 43.
  • the storage unit 46 stores information necessary for the processing of the information processing apparatus 12, such as control parameters (output parameters, sensor parameters, and detection parameters).
  • the processing unit 14 includes the projector 71.
  • the projector 71 is constituted by a driving type projector in which the projection direction of an image is variable.
  • the projector 71 controls the projection position of the image based on the designated position information.
  • FIG. 3 shows a configuration example of the position pointing device 13.
  • the position pointing device 13 includes an input unit 101, a control unit 102, a pointing light output unit 103, a communication unit 104, and a storage unit 105.
  • the input unit 101 includes, for example, operation devices such as buttons and switches.
  • the input unit 101 is used, for example, for turning on / off the power of the position pointing device 13, turning on / off the output of the pointing light, and the like.
  • the input unit 101 generates an input signal based on data, instructions, and the like input by the user, and supplies the input signal to the control unit 102.
  • the control unit 102 controls various processes of the position pointing device 13 based on an input signal from the input unit 41, output control information from the information processing device 12, and the like.
  • the control unit 102 includes an output control unit 111.
  • the output control unit 111 controls the output of the pointing light by the pointing light output unit 103 based on the input signal from the input unit 101 and the output control information from the information processing device 12.
  • the output control unit 111 causes the storage unit 105 to store the output control information. Further, the output control unit 111 generates output information indicating an output state of the instruction light, and supplies the output information to the communication unit 104.
  • the instruction light output unit 103 includes, for example, a laser light source or an LED.
  • the instruction light output unit 103 controls the output of the instruction light under the control of the output control unit 111.
  • the indicator light may be visible light or non-visible light such as infrared light.
  • the pointing light is infrared light
  • an image sensor capable of detecting infrared light is used for the image sensor 31.
  • the wavelength (color) of the indicating light may be variable or fixed.
  • the communication unit 104 communicates with the information processing device 12.
  • the communication unit 104 includes a reception unit 121 and a transmission unit 122.
  • the receiving unit 121 performs wireless communication with the transmitting unit 61 of the information processing apparatus 12, receives information such as output control information from the transmitting unit 61, and supplies the information to the control unit 102.
  • the transmission unit 122 performs wireless communication with the reception unit 62 of the information processing device 12 and transmits information such as output information to the reception unit 62.
  • the storage unit 105 stores information such as output control information necessary for the processing of the position pointing device 13 and the like.
  • FIG. 4 shows an installation example of the information processing system 1.
  • the information processing system 1 is installed in a room 151 which is a designated space.
  • the room 151 is a space surrounded by a ceiling 161, a floor 162, and walls 163a to 163d (however, the wall 163d is not shown).
  • the image sensor 31 is installed so as to look down on the entire room 151 from the ceiling 161 and captures an image of the inside of the room 151.
  • the projector 71 is installed on the floor 162 and moves the projection position of the image I in accordance with the position P specified by the position pointing device 13. For example, the projector 71 projects the image I on the wall 163 where the designated position P is detected among the walls 163a to 163d.
  • the information processing device 12 may be installed in the room 151 or may be installed outside the room 151.
  • the positions of the image sensor 31 and the projector 71 are changed according to the range in which the image I is projected.
  • This process is started, for example, when a command to start the designated position detection process is input to the control unit 42 via the input unit 41.
  • step S1 the control unit 42 sets the control parameters to initial values.
  • the pointing light control unit 51 reads the initial value of the output parameter from the storage unit 46, and generates output control information including the read output parameter.
  • the pointing light control unit 51 transmits the output control information to the position pointing device 13 via the transmitting unit 61.
  • the output parameters include, for example, the intensity of the pointing light, the cross-sectional shape, the color, and the temporal pattern.
  • the shape of the cross section of the pointing light indicates the size and shape of the cross section of the pointing light.
  • the size or shape of the cross section of the pointing light changes, the size or shape of an image (hereinafter, referred to as a pointing image) formed by irradiating the pointing light onto a wall or the like changes.
  • the temporal pattern of the indicator light indicates, for example, a time-series change pattern of the indicator light.
  • the temporal pattern of the indicator light indicates a blinking pattern of the indicator light, that is, a pattern of a lighting time and a turning-off time when the indicator light repeats blinking.
  • the temporal pattern of the pointing light is a parameter value and a change when at least one or more parameters among the intensity, color, cross-sectional size, and cross-sectional shape of the pointing light change in a time series. And the like.
  • the initial value of the output parameter for example, a predetermined default value is used, or a value at the time when the designated position was successfully detected in the previous designated position detection process is used.
  • the output control unit 111 of the position pointing device 13 receives the output control information via the receiving unit 121.
  • the instruction light output unit 103 outputs the instruction light based on the output parameters included in the output control information under the control of the output control unit 111. That is, the intensity, shape, color, and temporal pattern of the pointing light are controlled by the output parameters.
  • the sensor control unit 52 reads the initial values of the sensor parameters of the image sensor 31 from the storage unit 46, and supplies the initial values to the sensor unit 11 via the I / F unit 44.
  • the sensor parameters include, for example, shooting parameters of the image sensor 31.
  • the sensor parameters include, for example, a shutter speed, a gain, an aperture, and the like of the image sensor 31.
  • the initial values of the sensor parameters for example, a predetermined default value is used, or a value at the time when the designated position was successfully detected in the previous designated position detection process is used.
  • the image sensor 31 performs imaging in the pointing target space based on the sensor parameters set by the sensor control unit 52.
  • the detection control unit 53 reads the initial values of the detection parameters of the designated position detection unit 43 from the storage unit 46, and supplies the initial values to the designated position detection unit 43.
  • the detection parameter includes, for example, a parameter used for detecting an instruction image in a captured image, and is set according to an output parameter, a sensor parameter, and the like.
  • the detection parameters include, for example, the luminance, size, shape, color, and temporal pattern of the designated image to be detected.
  • the range of each parameter is set.
  • the range of the luminance of the pointing image is set based on the intensity of the pointing light and the like.
  • the temporal pattern of the pointing image is set according to the temporal pattern of the pointing light.
  • the initial value of the detection parameter for example, a predetermined default value is used, or a value at the time when the designated position was successfully detected in the previous designated position detection process is used.
  • the initial value of the detection parameter may be set based on the initial value of the output parameter and the initial value of the sensor parameter.
  • step S2 the pointing position detection unit 43 acquires output information.
  • the output control unit 111 of the position pointing device 13 generates output information indicating an output state of the pointing light, and transmits the output information to the information processing device 12 via the transmission unit 122.
  • the output information includes, for example, the presence / absence of the output of the indicator light and the method of outputting the indicator light.
  • the presence or absence of the output of the indicator light indicates whether or not the indicator light is output from the indicator light output unit 103.
  • the output method of the indicator light includes, for example, an output parameter used for outputting the indicator light.
  • the designated position detection unit 43 receives the output information transmitted from the position designation device 13 via the reception unit 62.
  • step S3 the designated position detection unit 43 determines whether or not the position is designated by the position designation device 13.
  • the output information indicates that the pointing light is being output from the position pointing device 13
  • the pointing position detecting unit 43 determines that the position is pointed by the position pointing device 13, and the process proceeds to step S4. move on.
  • step S4 the designated position detection unit 43 acquires a captured image.
  • the image sensor 31 captures an image of the pointing target space, and supplies the obtained captured image data to the information processing device 12.
  • the designated position detection unit 43 acquires the data of the captured image supplied from the image sensor 31 via the I / F unit 44.
  • the designated position detection unit 43 detects the designated position. Specifically, the pointing position detection unit 43 detects the pointing image in the captured image based on the detection parameter. When the pointing image is successfully detected, the pointing position detection unit 43 detects the pointing position in the pointing target space based on the position of the pointing image in the captured image.
  • step S6 the designated position detection unit 43 determines whether the designated position has been successfully detected. If it is determined that the pointing position has been successfully detected, the process proceeds to step S7.
  • FIG. 6 shows an example of an image obtained by binarizing a captured image in which the designated position has been successfully detected.
  • the pointing image is shown in the dotted frame A1, and the pointing position is detected based on the position of the pointing image in the image.
  • the designated position detecting unit 43 outputs designated position information. Specifically, the designated position detecting unit 43 generates designated position information including a result of detecting the designated position. The designated position detection unit 43 supplies the designated position information to the processing unit 14 via the I / F unit 44 and supplies the designated position information to the control unit 42.
  • the projector 71 of the processing unit 14 controls the projection position of the image based on the designated position information, for example. Specifically, the projector 71 sets the projection position of the image based on the designated position. For example, the projector 71 sets a predetermined range around the designated position as the projection position. Alternatively, for example, the projector 71 sets a predetermined position on a surface (for example, any of the walls 163 in FIG. 4) on which the designated position is detected as a projection position. Then, the projector 71 starts projecting the image on the set projection position.
  • step S8 the information processing device 12 stores the control parameters for which the detection of the designated position was successful.
  • the pointing light control unit 51 causes the storage unit 46 to store the current output parameter as the latest output parameter for which detection of the pointing position was successful. At this time, when the output parameter at the time when the pointing position was successfully detected in the past is stored in the storage unit 46, the pointing light control unit 51 may leave the past output parameter or delete it. It may be.
  • the sensor control unit 52 causes the storage unit 46 to store the current sensor parameter as the latest sensor parameter for which the detection of the indicated position has succeeded. At this time, if the sensor parameter at the time of successful detection of the designated position in the past is stored in the storage unit 46, the sensor control unit 52 may leave the past sensor parameter or delete it. You may.
  • the detection control unit 53 causes the storage unit 46 to store the current detection parameter as the latest detection parameter for which the detection of the designated position has succeeded. At this time, when the detection parameter at the time of successful detection of the designated position in the past is stored in the storage unit 46, the detection control unit 53 may leave the past detection parameter or delete it. You may.
  • step S6 determines whether the detection of the designated position has failed. If it is determined in step S6 that the detection of the designated position has failed, the process proceeds to step S9.
  • FIGS. 7 to 9 show examples of binarized images of captured images for which detection of the designated position has failed.
  • the objects serving as the pointing image candidates are detected. That is, other objects due to noise (for example, disturbance light) and the like are detected in addition to the pointing image. In this case, it is difficult to distinguish the pointing image from other objects, and the detection of the pointing position fails.
  • the pointing image is shown in the dotted frame A4.
  • the pointing image in the frame A4 is small, and erroneous detection of noise or the like is assumed, and the reliability of the detection result of the pointing image becomes extremely low. As a result, it is determined that the detection of the indicated position has failed.
  • the pointing image is very small or the brightness of the pointing image is very low, and no object serving as the pointing image candidate is detected. As a result, detection of the indicated position fails.
  • step S9 the control unit 42 determines whether to adjust the control parameters. For example, if a control parameter pattern (combination of control patterns) that has not been tried remains, the control unit 42 determines that the control parameter should be adjusted, and the process proceeds to step S10.
  • step S10 the information processing device 12 executes a control parameter adjustment process, and then the process proceeds to step S11.
  • step S51 the pointing light control unit 51 determines whether to adjust the output parameter. For example, in the case where an output parameter pattern (combination of output parameters) that has not been tried remains, the indicating light control unit 51 determines that the output parameters are to be adjusted, and the process proceeds to step S52.
  • step S52 the pointing light control unit 51 adjusts output parameters. For example, the pointing light control unit 51 adjusts the output parameter so that the pointing image appears remarkably in the captured image, and the detection accuracy of the pointing position is improved.
  • the output parameter adjustment method can be set arbitrarily. For example, the output parameters are adjusted based on the detection result of the pointing image in the captured image.
  • the output parameters are adjusted so that the pointing image is clearly identified from other objects.
  • At least one of the color and the temporal pattern of the indicator light is preferentially changed.
  • the color of the pointing light is changed so that the color of the pointing image is different from that of another object.
  • a time-series change for example, blinking
  • a temporal pattern for example, a blinking pattern
  • the cross-sectional area of the pointing light is increased so that the pointing image is significantly larger than other objects.
  • the cross-sectional area of the pointing light is increased, the light is diffused, and the brightness of the pointing image decreases, the intensity of the pointing light is increased.
  • the shape of the cross section of the pointing light is changed so that the shape of the pointing image is different from that of another object.
  • the intensity of the pointing light, the size of the cross section, and the shape of the cross section is preferentially changed.
  • the cross-sectional area of the pointing light is increased so that the pointing image is significantly larger than the noise.
  • the intensity of the pointing light is increased.
  • the shape of the sectional area of the pointing light is changed so that the shape of the pointing image is significantly different from noise or the like. If the detection of the pointing position fails even when the intensity of the pointing light, the size of the cross section, and the shape of the cross section are changed, for example, the color or the temporal pattern of the pointing light is changed.
  • the pointing light control unit 51 changes the output parameters in a predetermined order regardless of the detection result of the pointing image in the captured image.
  • the intensity of the pointing light is gradually increased at predetermined intervals.
  • the sectional area of the pointing light is gradually increased at predetermined intervals.
  • the shape of the indicator light is changed in a predetermined order.
  • the color of the indicator light is changed in a predetermined order.
  • the temporal pattern of the indicator light is changed in a predetermined order. For example, when blinking the indicator light, the blink interval of the indicator light is gradually shortened.
  • the order in which the output parameters are changed can be set arbitrarily. Further, two or more types of output parameters may be changed simultaneously.
  • the intensity and the temporal pattern of the pointing light have a particularly large effect on the power consumption of the position pointing device 13. Therefore, for example, it is desirable to reduce the intensity of the pointing light or lengthen the interval of the temporal pattern of the pointing light within a range where the detection of the pointing position does not fail after the detection of the pointing position succeeds.
  • the pointing light control unit 51 generates output control information including the adjusted output parameter, and transmits the generated output control information to the position pointing device 13 via the transmission unit 61.
  • the output control unit 111 of the position pointing device 13 receives the output control information via the receiving unit 121.
  • the instruction light output unit 103 outputs the instruction light based on the adjusted output parameters under the control of the output control unit 111.
  • step S51 for example, if all of the output parameter patterns have been tried, the indicating light control unit 51 determines that the output parameters are not to be adjusted, skips step S52, and returns to step S53. move on.
  • step S53 the sensor control unit 52 determines whether to adjust the sensor parameters. For example, if a sensor parameter pattern (combination of sensor parameters) that has not been tried remains, the sensor control unit 52 determines that the sensor parameters should be adjusted, and the process proceeds to step S54.
  • step S54 the sensor control unit 52 adjusts the sensor parameters.
  • the sensor control unit 52 adjusts the shutter speed, the gain, the aperture, and the like of the image sensor 31 so that the luminance of the designated image in the captured image becomes an appropriate value.
  • the sensor control unit 52 supplies the adjusted sensor parameters to the sensor unit 11 via the I / F unit 44.
  • the image sensor 31 performs imaging in the pointing target space based on the adjusted sensor parameters.
  • step S53 for example, when all the sensor parameter patterns have been tried, the sensor control unit 52 determines that the sensor parameters are not to be adjusted, the process of step S54 is skipped, and the process proceeds to step S55. .
  • step S55 the detection control unit 53 determines whether to adjust the detection parameter. For example, the detection control unit 53 determines the necessity of changing the detection parameter based on the adjustment contents of the output parameter and the sensor parameter. If the detection control unit 53 determines that the detection parameters need to be changed, it determines that the detection parameters should be adjusted, and the process proceeds to step S56.
  • the detection control unit 53 adjusts the detection parameters. For example, the detection control unit 53 adjusts a luminance range, a size range, a shape range, a color range, and a temporal pattern of the pointing image to be detected according to the output parameter, the sensor parameter, and the like. .
  • the detection control unit 53 may adjust the detection parameter so as to detect the designated image and try again.
  • step S55 when the detection control unit 53 determines that it is not necessary to change the detection parameter, it determines that the detection parameter is not to be adjusted, and the control parameter adjustment process ends.
  • step S9 for example, if all the control parameter patterns have been tried, the control unit 42 determines that the control parameters are not to be adjusted, and the process proceeds to step S11.
  • step S11 the information processing device 12 notifies that the designated position cannot be detected.
  • the designated position detection unit 43 generates designated position information indicating that the designated position cannot be detected, supplies the designated position information to the processing unit 14 via the I / F unit 44, and supplies the same to the control unit 42.
  • the projector 71 notifies the user by a predetermined method that the designated position cannot be detected and the projected position of the image cannot be controlled.
  • step S12 the control unit 42 determines whether or not to end the processing. If it is determined that the processing is not to be ended, the processing returns to step S2.
  • steps S2 to S12 is repeatedly executed until it is determined in step S12 that the processing is to be ended.
  • step S12 for example, when an instruction to end the designated position detection process is input via the input unit 41, the control unit 42 determines that the process is to be terminated, and the designated position detection process ends.
  • control parameters (the output parameters, the sensor parameters, and the detection parameters) are appropriately adjusted, and the detection accuracy of the indicated position is improved.
  • a system that is robust against changes in the environment and the like is realized. For example, even if the environment (for example, the lighting environment) of the pointing target space, the pointing position of the position pointing device 13, and the installation position of the image sensor 31 change, the control parameters are appropriately set. , The detection accuracy of is kept good.
  • the above-described pointing position detection processing can be applied to the initial setting of the information processing system 1. That is, when the information processing system 1 is installed, it is possible to detect and set an appropriate control parameter for the installation location.
  • two position pointing devices the position pointing device 13a and the position pointing device 13b, and two image sensors, the image sensor 31a and the image sensor 31b, are provided.
  • the pointing position Pa by the position pointing device 13a and the pointing position Pb by the position pointing device 13b are detected.
  • the pointing light of the position pointing device 13a and the pointing light of the position pointing device 13b are individually controlled. Then, for example, each pointing light is output by a different output method so that the pointing position Pa and the pointing position Pb are clearly identified.
  • the output control information is individually transmitted from the pointing light control unit 51 of the information processing device 12 to the position pointing device 13a and the position pointing device 13b via the transmitting unit 61. Then, the output parameters are set to different values so that the pointing image of the position pointing device 13a by the pointing light and the pointing image of the position pointing device 13b by the pointing light can be clearly identified. For example, at least one of the intensity of each pointing light, the size of the cross section, the shape of the cross section, the color, and the temporal pattern is set to a different value.
  • the output parameters of each position pointing device 13 and the sensor parameters of each image sensor 31 can be appropriately set without performing complicated adjustment work by the above-described processing.
  • the third embodiment shows an example in which output-type position pointing devices 201a to 201d in which a pointing position is indicated by a position where a pointing light is output are used instead of the irradiation-type position pointing device 13. ing.
  • position pointing device 201 when it is not necessary to distinguish the position pointing devices 201a to 201d individually, they are simply referred to as the position pointing device 201.
  • Each position pointing device 201 is composed of, for example, a stationary marker. Each position pointing device 201 is installed at a predetermined position on the wall 163a.
  • the user selects, via the input unit 41 of the information processing device 12, the position pointing device 201 that outputs the pointing light.
  • the pointing light control unit 51 of the information processing device 12 generates output control information including an output parameter, and transmits the output control information to the position pointing device 201 that outputs the pointing light via the transmitting unit 61.
  • the position pointing device 201 that has received the output control information outputs the pointing light based on the output parameters included in the output control information.
  • the indicated position is indicated by the position of the position indicating device 201 that has output the indicating light, that is, the position where the indicating light is output.
  • the projector 71 controls the projection position of the image I based on the designated position.
  • the pointing position detection fails, the pointing light intensity of the position pointing device 201, the cross-sectional size, the cross-sectional shape, the color, and , The temporal pattern is adjusted.
  • the number and installation positions of the position pointing devices 201 in FIG. 12 are merely examples, and can be arbitrarily changed.
  • the position pointing device 201 can be installed on a wall 163 other than the ceiling 161, the floor 162, and the wall 163a.
  • control method of the control parameters described above is an example, and another method can be adopted.
  • the information processing device 12 may control the control parameters based on the environment of the designated space.
  • the luminance and the size of the pointing image change depending on the distance between the surface on which the pointing light is irradiated (hereinafter, referred to as irradiation surface) and the position pointing device 13. . Therefore, for example, at least one of the intensity of the pointing light and the size of the cross section may be controlled based on the distance between the irradiation surface and the position pointing device 13. For example, as the distance between the irradiation surface and the position pointing device 13 increases, the brightness of the pointing image decreases or the pointing image decreases, so that the intensity of the pointing light increases or the cross-sectional area of the pointing light increases. Or be done.
  • the distance between the irradiation surface and the position pointing device 13 is detected, for example, by providing a distance measuring sensor or the like to the position pointing device 13.
  • the luminance of the pointing image changes depending on the reflectance of the irradiation surface. Therefore, for example, the intensity of the pointing light may be controlled based on the reflectance of the irradiation surface. For example, as the reflectance of the irradiation surface decreases, the luminance of the pointing image decreases, and thus the intensity of the pointing light increases.
  • the reflectance of the irradiation surface is detected by, for example, providing a sensor for measuring the reflectance in the sensor unit 11 or the position indicating device 13.
  • the reflectance of each surface in the pointing target space may be measured in advance, and the measurement result may be stored in the storage unit 46 of the information processing device 12. Good.
  • the color of the illumination in the pointing target space affects the detection accuracy of the pointing image. For example, as the color of the pointing light becomes closer to the color of the illumination, the detection accuracy of the pointing image decreases, and as a result, the detection accuracy of the pointing position decreases. Therefore, for example, the color of the instruction light may be controlled according to the color of the illumination. For example, the color of the instruction light is set to a color having a large difference from the color of the illumination light.
  • the illumination color is detected based on, for example, a captured image captured by the image sensor 31.
  • a spectroscope or the like may be provided in the sensor unit 11 to detect the color of illumination.
  • the color of the surface on which the pointing position is indicated affects the detection accuracy of the pointing image.
  • the pointing surface affects the detection accuracy of the pointing image.
  • the pointing surface affects the detection accuracy of the pointing image.
  • the color of the pointing surface is detected based on, for example, an image captured by the image sensor 31.
  • a spectroscope or the like may be provided in the sensor unit 11 to detect the color of the pointing surface.
  • the color of the image projected on the pointing surface affects the detection accuracy of the pointing image.
  • the projector 71 outputs projection light of each color in a time-sharing manner as in DLP (Digital Light Processing, registered trademark) (for example, in a case where projection light of red, green, and blue is output in a time-sharing manner)
  • DLP Digital Light Processing, registered trademark
  • the temporal pattern of the color of the pointing light may be controlled so as not to overlap the temporal pattern of the color of the projection light.
  • the output parameters are controlled based on the environment of the pointing space, for example, when the lighting environment of the pointing space is fixed and the color of the illumination hardly changes, the intensity of the pointing light, the cross section of the pointing light , And at least one of the shape of the cross section of the pointing light is preferentially changed. Further, the sensor parameters are changed in accordance with the change of the output parameters.
  • the color of the pointing light is preferentially changed.
  • the color of the illumination light or the color of the pointing surface is fixed and hardly changes, for example, the color of the pointing light may be fixed and not changed.
  • the pointing light when the pointing light is reflected by the irradiation surface, it is assumed that the color of the reflected light changes due to the influence of the irradiation surface, and the color of the pointing image greatly differs from the color of the pointing light. In this case, the range of the color of the pointing image included in the detection parameter becomes inappropriate, and the detection accuracy of the pointing image decreases. As a result, the detection accuracy of the pointing position may decrease. On the other hand, for example, by adjusting the color of the pointing light or the color range of the pointing image of the detection parameter, the detection accuracy of the pointing image is improved.
  • control parameter may be controlled based on both the detection result of the pointing image in the captured image and the environment of the pointing target space.
  • control parameters may be controlled based on the output information received from the position pointing device 13.
  • control parameters the output parameters, the detection parameters, and the sensor parameters described above are merely examples, and the types of the parameters can be added or reduced.
  • At least one of the detection parameter and the sensor parameter may be fixed so that the automatic adjustment is not performed.
  • the output parameters may be automatically adjusted, only the output parameters and the detection parameters may be automatically adjusted, or only the output parameters and the sensor parameters may be automatically adjusted. Even if at least one of the detection parameter and the sensor parameter is fixed, the output parameter is automatically adjusted to appropriately set the output method of the pointing light, so that the detection accuracy of the pointing position is improved.
  • the sharing of the functions of the sensor unit 11, the information processing device 12, and the processing unit 14 shown in FIG. 2 is merely an example, and can be changed.
  • at least one of the sensor unit 11 and the processing unit 14 can be provided in the information processing device 12.
  • a part of the function of the information processing device 12 can be provided in at least one of the sensor unit 11 and the processing unit 14.
  • the output method of the indicator light can be deleted from the output information.
  • the projection position of the image of the projector 71 is controlled based on the detection result of the designated position, but the detection result of the designated position can be used for other purposes.
  • at least one of hardware and software using the detection result of the designated position is provided in the processing unit 14.
  • the present technology can be applied to a system using both the irradiation type position pointing device 13 and the output type position pointing device 201. Also in this case, for example, by individually transmitting output control information to each position pointing device and setting output parameters, the pointing light of each position pointing device is individually controlled.
  • FIG. 13 is a block diagram illustrating a configuration example of hardware of a computer that executes the series of processes described above by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the input / output interface 505 is further connected to the bus 504.
  • An input unit 506, an output unit 507, a storage unit 508, a communication unit 509, and a drive 510 are connected to the input / output interface 505.
  • the input unit 506 includes an input switch, a button, a microphone, an image sensor, and the like.
  • the output unit 507 includes a display, a speaker, and the like.
  • the storage unit 508 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 509 includes a network interface and the like.
  • the drive 510 drives a removable medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 501 loads the program recorded in the storage unit 508 into the RAM 503 via the input / output interface 505 and the bus 504, and executes the program, for example. A series of processing is performed.
  • the program executed by the computer 500 can be provided by being recorded on, for example, a removable medium 511 as a package medium or the like. Further, the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 508 via the input / output interface 505 by attaching the removable medium 511 to the drive 510.
  • the program can be received by the communication unit 509 via a wired or wireless transmission medium and installed in the storage unit 508.
  • the program can be installed in the ROM 502 or the storage unit 508 in advance.
  • the program executed by the computer may be a program in which processing is performed in chronological order according to the order described in this specification, or may be performed in parallel or at a necessary timing such as when a call is made. It may be a program that performs processing.
  • a system means a set of a plurality of components (devices, modules (parts), and the like), and it does not matter whether all components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device housing a plurality of modules in one housing are all systems. .
  • the present technology can adopt a configuration of cloud computing in which one function is shared by a plurality of devices via a network and processed jointly.
  • each step described in the above-described flowchart can be executed by a single device, or can be shared and executed by a plurality of devices.
  • one step includes a plurality of processes
  • the plurality of processes included in the one step may be executed by one device or may be shared and executed by a plurality of devices.
  • the present technology can also have the following configurations.
  • the output parameter includes at least one of an intensity of the pointing light, a cross-sectional size, a cross-sectional shape, a color, and a temporal pattern.
  • the information processing apparatus according to any one of (2) to (4), further including a detection control unit configured to control a detection parameter used for detecting the pointing position based on the method of outputting the pointing light.
  • the detection parameter includes at least one of a luminance, a size, a shape, a color, and a temporal pattern of a pointing image that is an image formed by the pointing light.
  • the information processing device controls the plurality of position pointing devices to output the pointing light using different output methods.
  • the information processing device according to any one of (1) to (7), further including a sensor control unit configured to control a sensor parameter used for controlling a sensor that detects the sensor data based on a detection result of the designated position. .
  • the sensor is an image sensor, The information processing device according to (8), wherein the sensor parameter includes at least one of a gain of the image sensor, a shutter speed, and an aperture.
  • the sensor data is data of an image captured in the space, The information according to any one of (1) to (9), wherein the pointing light control unit controls an output of the pointing light based on a detection result of a pointing image that is an image of the pointing light in the image. Processing equipment. (11) The pointing light control unit preferentially changes at least one of the intensity of the pointing light, a cross-sectional size, and a cross-sectional shape when the pointing image candidate is not detected in the image. The information processing device according to (10). (12) The indication light control unit, when a plurality of indication image candidates are detected in the image, preferentially changes at least one of a color and a temporal pattern of the indication light. (10) or ( An information processing device according to 11).
  • the information processing device controls an output of the instruction light based on an environment of the space.
  • the indicating light control unit controls at least one of an intensity of the indicating light and a size of a cross section based on a distance between an irradiation surface irradiated with the indicating light and the position indicating device.
  • the information processing device according to (13).
  • (15) The information processing device (13) or (14), wherein the instruction light control unit controls the intensity of the instruction light based on a reflectance of an irradiation surface irradiated with the instruction light.
  • the indication light control unit controls the color of the indication light based on at least one of a color of illumination in the space and a color of a surface on which the indication position is indicated.
  • the information processing device according to any one of (15).
  • the pointing light control unit controls the temporal pattern of the color of the pointing light based on the temporal pattern of the color of the image projected on the surface on which the pointing position is indicated.
  • (13) to (16) The information processing device according to any one of the above.
  • the information processing apparatus according to any one of (1) to (17), wherein the output information includes presence or absence of output of the pointing light.
  • the output information further includes an output method of the indicator light.
  • the information processing apparatus according to any one of (1) to (19), wherein the pointing position is a position where the pointing light is irradiated.
  • the information processing apparatus according to any one of (1) to (19), wherein the pointing position is a position where the pointing light is output.
  • the information processing apparatus according to any one of (1) to (21), wherein the designated position is used for controlling a projection position of a projector capable of changing a projection position of an image.
  • the indicating light control unit generates output control information used for controlling the output of the indicating light, A transmitting unit that transmits the output control information to the position pointing device,
  • the information processing apparatus according to any one of (1) to (22), further including: a receiving unit configured to receive the output information from the position pointing device.
  • An indicating light output unit that outputs an indicating light for indicating the indicating position
  • a receiving unit that receives output control information used for controlling the output of the indicator light from the information processing device
  • An output control unit that controls output of the pointing light based on the output control information and generates output information indicating an output state of the pointing light
  • a transmission unit for transmitting the output information to the information processing device.
  • the position pointing device according to any one of (26) to (28), wherein the output control information includes an output parameter indicating a method of outputting the pointing light.
  • the output parameter includes at least one of an intensity of the pointing light, a cross-sectional size, a cross-sectional shape, a color, and a temporal pattern.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本技術は、位置指示装置による指示位置の検出精度を向上させることができるようにする情報処理装置、情報処理方法、及び、記録媒体に関する。 情報処理装置は、位置指示装置の指示光の出力状態を示す出力情報、及び、前記指示光により指示位置が示される空間において検出されたセンサデータに基づいて、前記指示位置の検出を行う指示位置検出部と、前記指示位置の検出結果に基づいて、前記位置指示装置の前記指示光の出力を制御する指示光制御部とを備える。本技術は、例えば、駆動型プロジェクタの制御を行う装置に適用できる。

Description

情報処理装置、情報処理方法、及び、記録媒体
 本技術は、情報処理装置、情報処理方法、及び、記録媒体に関し、特に、位置指示装置による指示位置の検出精度を向上させるようにした情報処理装置、情報処理方法、及び、記録媒体に関する。
 従来、カラーホイールが備える複数の色のフィルタセグメントを介して投影された投影画像に、レーザポインタによりポインタを指し示す場合に、レーザポインタの色に近いフィルタセグメントからの投影光が投影面に投影されていない間に、投影面の画像を撮影することにより、レーザ光の照射点を安定して検出できるようにすることが提案されている(例えば、特許文献1参照)。
特開2015-37250号公報
 しかしながら、特許文献1に記載の発明では、投影画像にポインタを指し示す場面以外では、レーザポインタの照射点(指示位置)の検出精度を向上させることができない。
 本技術は、このような状況に鑑みてなされたものであり、位置指示装置による指示位置の検出精度を向上させるようにするものである。
 本技術の一側面の情報処理装置は、位置指示装置の指示光の出力状態を示す出力情報、及び、前記指示光により指示位置が示される空間において検出されたセンサデータに基づいて、前記指示位置の検出を行う指示位置検出部と、前記指示位置の検出結果に基づいて、前記位置指示装置の前記指示光の出力を制御する指示光制御部とを備える。
 本技術の一側面の情報処理方法は、位置指示装置の指示光の出力状態を示す出力情報、及び、前記指示光により指示位置が示される空間において検出されたセンサデータに基づいて、前記指示位置の検出を行い、前記指示位置の検出結果に基づいて、前記指示光の出力を制御する。
 本技術の一側面の記録媒体は、位置指示装置の指示光の出力状態を示す出力情報、及び、前記指示光により指示位置が示される空間において検出されたセンサデータに基づいて、前記指示位置の検出を行い、前記指示位置の検出結果に基づいて、前記指示光の出力を制御する処理を実行させるためのプログラムが記録されている。
 本技術の一側面においては、位置指示装置の指示光の出力状態を示す出力情報、及び、前記指示光により指示位置が示される空間において検出されたセンサデータに基づいて、前記指示位置の検出が行われ、前記指示位置の検出結果に基づいて、前記位置指示装置の前記指示光の出力が制御される。
 本技術の一側面によれば、位置指示装置による指示位置の検出精度を向上させることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
本技術を適用した情報処理システムの第1の実施の形態を示すブロック図である。 センサ部、情報処理装置、及び、処理部の構成例を示すブロック図である。 位置指示装置の構成例を示すブロック図である。 情報処理装置の設置例を示す図である。 指示位置検出処理を説明するためのフローチャートである。 指示位置の検出に成功した画像例を示す図である。 指示位置の検出に失敗した画像例を示す図である。 指示位置の検出に失敗した画像例を示す図である。 指示位置の検出に失敗した画像例を示す図である。 制御パラメータ調整処理の詳細を説明するためのフローチャートである。 本技術を適用した情報処理システムの第2の実施の形態を示す図である。 本技術を適用した情報処理システムの第3の実施の形態を示す図である。 コンピュータの構成例を示す図である。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.第1の実施の形態
 2.第2の実施の形態
 3.第3の実施の形態
 4.変形例
 5.その他
 <<1.第1の実施の形態>>
 まず、図1乃至図11を参照して、本技術の第1の実施の形態について説明する。
  <情報処理システム1の構成例>
 図1は、本技術を適用した情報処理システム1の構成例を示すブロック図である。
 情報処理システム1は、センサ部11、情報処理装置12、位置指示装置13、及び、処理部14を備える。
 センサ部11は、位置指示装置13により位置が指示される空間、すなわち、位置指示装置13から出力される指示光により指示位置が示される空間(以下、指示対象空間と称する)の状況を検出する。センサ部11は、指示対象空間の状況の検出結果を示すセンサデータを情報処理装置12に供給する。
 情報処理装置12は、センサ部11からのセンサデータ、及び、位置指示装置13の指示光の出力状態を示す出力情報に基づいて、位置指示装置13による指示位置の検出を行う。情報処理装置12は、指示位置の検出結果を示す指示位置情報を処理部14に供給する。また、情報処理装置12は、指示位置の検出結果等に基づいて、センサ部11の制御に用いるセンサパラメータを設定し、センサ部11に供給する。さらに、情報処理装置12は、指示位置の検出結果等に基づいて、位置指示装置13の指示光の出力の制御に用いる出力制御情報を生成し、位置指示装置13に送信する。
 位置指示装置13は、例えば、指示光を出力し、指示光が照射される位置により指示位置を示す照射型の位置指示装置により構成される。例えば、位置指示装置13は、レーザマーカ等により構成される。位置指示装置13は、情報処理装置12から受信した出力制御情報に基づいて、指示光の出力を制御する。また、位置指示装置13は、指示光の出力状態を示す出力情報を生成し、情報処理装置12に送信する。
 処理部14は、指示位置の検出結果に基づいて、各種の処理を行う。
  <センサ部11、情報処理装置12、及び、処理部14の構成例>
 図2は、センサ部11、情報処理装置12、及び、処理部14の構成例を示している。
 センサ部11は、例えば、カメラ等からなる画像センサ31を備える。画像センサ31は、指示対象空間の撮影を行い、得られた撮影画像のデータを情報処理装置12に供給する。
 情報処理装置12は、入力部41、制御部42、指示位置検出部43、I/F(インタフェース)部44、通信部45、及び、記憶部46を備える。
 入力部41は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイスを備える。入力部41は、ユーザにより入力されたデータや指示等に基づいて入力信号を生成し、制御部42に供給する。
 制御部42は、入力部41からの入力信号、画像センサ31からの撮影画像のデータ、及び、位置指示装置13からの出力情報等に基づいて、センサ部11、情報処理装置12、位置指示装置13、及び、処理部14の各種の処理の制御を行う。制御部42は、指示光制御部51、センサ制御部52、及び、検出制御部53を備える。
 指示光制御部51は、位置指示装置13の指示光の出力の制御を行う。例えば、指示光制御部51は、位置指示装置13の指示光の出力方法を制御する。より具体的には、例えば、指示光制御部51は、指示光の出力方法を示す出力パラメータを設定し、出力パラメータを含む出力制御情報を生成する。指示光制御部51は、出力制御情報を、通信部45を介して位置指示装置13に送信する。また、指示光制御部51は、出力パラメータを記憶部46に記憶させる。
 センサ制御部52は、センサ部11の画像センサ31の撮影の制御を行う。例えば、センサ制御部52は、画像センサ31の撮影の制御に用いるセンサパラメータを設定し、I/F部44を介してセンサ部11に供給したり、記憶部46に記憶させたりする。
 検出制御部53は、指示位置検出部43による指示位置の検出の制御を行う。例えば、検出制御部53は、指示位置の検出に用いられる検出パラメータを設定し、指示位置検出部43に供給したり、記憶部46に記憶させたりする。
 指示位置検出部43は、画像センサ31からの撮影画像、位置指示装置13からの出力情報、及び、検出パラメータに基づいて、位置指示装置13による指示位置の検出処理を行う。指示位置検出部43は、指示位置の検出結果を示す指示位置情報を制御部42に供給するとともに、I/F部44を介して処理部14に供給したり、記憶部46に記憶させたりする。
 I/F部44は、センサ部11及び処理部14との間のデータの授受等を行う。なお、情報処理装置12とセンサ部11及び処理部14との間の通信は、有線又は無線のいずれであってもよい。
 通信部45は、位置指示装置13と通信を行う。通信部45は、送信部61及び受信部62を備える。
 送信部61は、位置指示装置13と無線通信を行い、出力制御情報等の情報を位置指示装置13に送信する。
 受信部62は、位置指示装置13と無線通信を行い、位置指示装置13から出力情報等の情報を受信し、制御部42及び指示位置検出部43に供給する。
 記憶部46は、制御パラメータ(出力パラメータ、センサパラメータ、及び、検出パラメータ)等の情報処理装置12の処置に必要な情報等を記憶する。
 処理部14は、プロジェクタ71を備える。
 プロジェクタ71は、画像の投影方向が可変の駆動型プロジェクタにより構成される。プロジェクタ71は、指示位置情報に基づいて、画像の投影位置を制御する。
  <位置指示装置13の構成例>
 図3は、位置指示装置13の構成例を示している。
 位置指示装置13は、入力部101、制御部102、指示光出力部103、通信部104、及び、記憶部105を備える。
 入力部101は、例えば、ボタン、スイッチ等の操作デバイスを備える。入力部101は、例えば、位置指示装置13の電源のオン/オフ、指示光の出力のオン/オフの操作等に用いられる。入力部101は、ユーザにより入力されたデータや指示等に基づいて入力信号を生成し、制御部102に供給する。
 制御部102は、入力部41からの入力信号、及び、情報処理装置12からの出力制御情報等に基づいて、位置指示装置13の各種の処理の制御を行う。制御部102は、出力制御部111を備える。
 出力制御部111は、入力部101からの入力信号、及び、情報処理装置12からの出力制御情報に基づいて、指示光出力部103による指示光の出力を制御する。また、出力制御部111は、出力制御情報を記憶部105に記憶させる。さらに、出力制御部111は、指示光の出力状態を示す出力情報を生成し、通信部104に供給する。
 指示光出力部103は、例えば、レーザ光源又はLED等を備える。指示光出力部103は、出力制御部111の制御の下に、指示光の出力を制御する。
 なお、指示光は、可視光でもよいし、赤外光等の非可視光でもよい。指示光が赤外光の場合、例えば、赤外光を検出可能な画像センサが画像センサ31に用いられる。また、指示光の波長(色)は、可変であってもよいし、固定であってもよい。
 なお、以下、指示光が可視光であり、色が可変の場合の例について説明する。
 通信部104は、情報処理装置12と通信を行う。通信部104は、受信部121及び送信部122を備える。
 受信部121は、情報処理装置12の送信部61と無線通信を行い、出力制御情報等の情報を送信部61から受信し、制御部102に供給する。
 送信部122は、情報処理装置12の受信部62と無線通信を行い、出力情報等の情報を受信部62に送信する。
 記憶部105は、出力制御情報等の位置指示装置13の処理に必要な情報等を記憶する。
  <情報処理システム1の設置例>
 図4は、情報処理システム1の設置例を示している。
 図4の例では、情報処理システム1は、指示対象空間である部屋151内に設置されている。部屋151は、天井161、床162、及び、壁163a乃至壁163d(ただし、壁163dは不図示)により囲まれた空間である。
 なお、以下、壁163a乃至壁163dを個々に区別する必要がない場合、単に壁163と称する。
 画像センサ31は、天井161から部屋151全体を見下ろすように設置され、部屋151内を撮影する。
 プロジェクタ71は、床162の上に設置され、位置指示装置13による指示位置Pに応じて、画像Iの投影位置を移動させる。例えば、プロジェクタ71は、壁163a乃至壁163dのうち指示位置Pが検出された壁163に画像Iを投影する。
 情報処理装置12は、部屋151内に設置されてもよいし、部屋151の外に設置されてもよい。
 なお、画像センサ31及びプロジェクタ71の位置は、画像Iの投影を行う範囲等に応じて変更される。
  <指示位置検出処理>
 次に、図5のフローチャートを参照して、情報処理装置12により実行される指示位置検出処理について説明する。
 この処理は、例えば、入力部41を介して、指示位置検出処理の開始の指令が制御部42に入力されたとき開始される。
 ステップS1において、制御部42は、制御パラメータを初期値に設定する。
 具体的には、指示光制御部51は、出力パラメータの初期値を記憶部46から読み出し、読み出した出力パラメータを含む出力制御情報を生成する。指示光制御部51は、送信部61を介して、出力制御情報を位置指示装置13に送信する。
 出力パラメータは、例えば、指示光の強度、断面の形状、色、及び、時間的パターンを含む。
 なお、指示光の断面の形状は、指示光の断面の大きさ及び形を示す。指示光の断面の大きさ又は形が変化すると、指示光が壁等に照射されることにより形成される像(以下、指示像と称する)の大きさ又は形が変化する。
 指示光の時間的パターンは、例えば、指示光の時系列の変化パターンを示す。例えば、指示光の時間的パターンは、指示光の点滅パターン、すなわち、指示光が点滅を繰り返す場合の点灯時間及び消灯時間のパターンを示す。或いは、例えば、指示光の時間的パターンは、指示光の強度、色、断面の大きさ、及び、断面の形のうち少なくとも1つ以上のパラメータが時系列に変化する場合のパラメータの値及び変化するタイミング等を示す。
 なお、出力パラメータの初期値には、例えば、所定のデフォルト値が用いられるか、或いは、前回の指示位置検出処理において指示位置の検出に成功したときの値が用いられる。
 これに対して、位置指示装置13の出力制御部111は、受信部121を介して、出力制御情報を受信する。指示光出力部103は、出力制御部111の制御の下に、出力制御情報に含まれる出力パラメータに基づいて、指示光の出力を行う。すなわち、出力パラメータにより、指示光の強度、形状、色、及び、時間的パターンが制御される。
 センサ制御部52は、画像センサ31のセンサパラメータの初期値を記憶部46から読み出し、I/F部44を介してセンサ部11に供給する。
 センサパラメータは、例えば、画像センサ31の撮影パラメータを含む。具体的には、センサパラメータは、例えば、画像センサ31のシャッタ速度、ゲイン、絞り等を含む。
 なお、センサパラメータの初期値には、例えば、所定のデフォルト値が用いられるか、或いは、前回の指示位置検出処理において指示位置の検出に成功したときの値が用いられる。
 これに対して、画像センサ31は、センサ制御部52により設定されたセンサパラメータに基づいて、指示対象空間内の撮影を行う。
 検出制御部53は、指示位置検出部43の検出パラメータの初期値を記憶部46から読み出し、指示位置検出部43に供給する。
 検出パラメータは、例えば、撮影画像内の指示像の検出に用いるパラメータを含み、出力パラメータ及びセンサパラメータ等に応じて設定される。具体的には、検出パラメータは、例えば、検出対象とする指示像の輝度、大きさ、形、色、及び、時間的パターンを含む。
 なお、指示像の輝度、大きさ、形、及び、色については、例えば、各パラメータの範囲が設定される。例えば、指示光の強度等に基づいて、指示像の輝度の範囲が設定される。また、指示像の時間的パターンは、指示光の時間的パターンに応じて設定される。
 なお、検出パラメータの初期値には、例えば、所定のデフォルト値が用いられるか、或いは、前回の指示位置検出処理において指示位置の検出に成功したときの値が用いられる。或いは、例えば、検出パラメータの初期値を、出力パラメータの初期値及びセンサパラメータの初期値に基づいて設定するようにしてもよい。
 ステップS2において、指示位置検出部43は、出力情報を取得する。
 具体的には、位置指示装置13の出力制御部111は、指示光の出力状態を示す出力情報を生成し、送信部122を介して、情報処理装置12に送信する。
 出力情報は、例えば、指示光の出力の有無、及び、指示光の出力方法を含む。
 指示光の出力の有無は、指示光出力部103から指示光が出力されているか否かを示す。
 指示光の出力方法は、例えば、指示光の出力に用いられている出力パラメータを含む。
 指示位置検出部43は、位置指示装置13から送信された出力情報を、受信部62を介して受信する。
 ステップS3において、指示位置検出部43は、位置指示装置13により位置が指示されているか否かを判定する。指示位置検出部43は、位置指示装置13から指示光が出力されていることが出力情報に示されている場合、位置指示装置13により位置が指示されていると判定し、処理はステップS4に進む。
 ステップS4において、指示位置検出部43は、撮影画像を取得する。
 具体的には、画像センサ31は、指示対象空間内を撮影し、得られた撮影画像のデータを情報処理装置12に供給する。
 指示位置検出部43は、画像センサ31から供給された撮影画像のデータを、I/F部44を介して取得する。
 ステップS5において、指示位置検出部43は、指示位置の検出を行う。具体的には、指示位置検出部43は、検出パラメータに基づいて、撮影画像内の指示像の検出を行う。また、指示位置検出部43は、指示像の検出に成功した場合、撮影画像内の指示像の位置に基づいて、指示対象空間内における指示位置を検出する。
 ステップS6において、指示位置検出部43は、指示位置の検出に成功したか否かを判定する。指示位置の検出に成功したと判定された場合、処理はステップS7に進む。
 図6は、指示位置の検出に成功した撮影画像を2値化した画像の例を示している。図6の画像においては、点線の枠A1内に指示像が写っており、この指示像の画像内の位置に基づいて、指示位置が検出される。
 ステップS7において、指示位置検出部43は、指示位置情報を出力する。具体的には、指示位置検出部43は、指示位置の検出結果を含む指示位置情報を生成する。指示位置検出部43は、指示位置情報をI/F部44を介して処理部14に供給するとともに、制御部42に供給する。
 これに対して、処理部14のプロジェクタ71は、例えば、指示位置情報に基づいて、画像の投影位置を制御する。具体的には、プロジェクタ71は、指示位置に基づいて画像の投影位置を設定する。例えば、プロジェクタ71は、指示位置を中心とする所定の範囲を投影位置に設定する。或いは、例えば、プロジェクタ71は、指示位置が検出された面(例えば、図4の壁163のいずれか)の所定の位置を投影位置に設定する。そして、プロジェクタ71は、設定した投影位置への画像の投影を開始する。
 ステップS8において、情報処理装置12は、指示位置の検出に成功した制御パラメータを保存する。
 例えば、指示光制御部51は、現在の出力パラメータを、指示位置の検出に成功した最新の出力パラメータとして記憶部46に記憶させる。このとき、指示光制御部51は、過去に指示位置の検出に成功したときの出力パラメータが記憶部46に記憶されている場合、過去の出力パラメータを残すようにしてもよいし、消去するようにしてもよい。
 センサ制御部52は、現在のセンサパラメータを、指示位置の検出に成功した最新のセンサパラメータとして記憶部46に記憶させる。このとき、過去に指示位置の検出に成功したときのセンサパラメータが記憶部46に記憶されている場合、センサ制御部52は、過去のセンサパラメータを残すようにしてもよいし、消去するようにしてもよい。
 検出制御部53は、現在の検出パラメータを、指示位置の検出に成功した最新の検出パラメータとして記憶部46に記憶させる。このとき、過去に指示位置の検出に成功したときの検出パラメータが記憶部46に記憶されている場合、検出制御部53は、過去の検出パラメータを残すようにしてもよいし、消去するようにしてもよい。
 その後、処理はステップS12に進む。
 一方、ステップS6において、指示位置の検出に失敗したと判定された場合、処理はステップS9に進む。
 図7乃至図9は、指示位置の検出に失敗した撮影画像を2値化した画像の例を示している。
 図7の画像では、点線の枠A2内と枠A3内において、指示像の候補となるオブジェクトがそれぞれ検出されている。すなわち、指示像以外に、ノイズ(例えば、外乱光)等による他のオブジェクトが検出されている。この場合、指示像と他のオブジェクトとの識別が困難であり、指示位置の検出は失敗する。
 図8の画像では、点線の枠A4内に指示像が写っている。しかし、枠A4内の指示像は小さく、ノイズ等の誤検出も想定され、指示像の検出結果に対する信頼度が非常に低くなる。その結果、指示位置の検出に失敗したと判定される。
 図9の画像では、例えば、指示像が非常に小さかったり、指示像の輝度が非常に低かったりして、指示像の候補となるオブジェクトが検出されていない。その結果、指示位置の検出は失敗する。
 ステップS9において、制御部42は、制御パラメータを調整するか否かを判定する。例えば、制御部42は、まだ試していない制御パラメータのパターン(制御パターンの組合せ)が残っている場合、制御パラメータを調整すると判定し、処理はステップS10に進む。
 ステップS10において、情報処理装置12は、制御パラメータ調整処理を実行し、その後、処理はステップS11に進む。
 ここで、図10のフローチャートを参照して、制御パラメータ調整処理の詳細について説明する。
 ステップS51において、指示光制御部51は、出力パラメータを調整するか否かを判定する。例えば、指示光制御部51は、まだ試していない出力パラメータのパターン(出力パラメータの組合せ)が残っている場合、出力パラメータを調整すると判定し、処理はステップS52に進む。
 ステップS52において、指示光制御部51は、出力パラメータを調整する。例えば、指示光制御部51は、撮影画像内において指示像が顕著に現れ、指示位置の検出精度が向上するように、出力パラメータを調整する。
 なお、出力パラメータの調整方法は、任意に設定することができる。例えば、撮影画像内の指示像の検出結果に基づいて、出力パラメータが調整される。
 例えば、上述した図7の例のように、指示像の候補が複数検出されている場合、指示像が他のオブジェクトと明確に識別されるように、出力パラメータが調整される。
 例えば、指示光の色及び時間的パターンのうち少なくとも1つが優先的に変更される。例えば、指示像の色が他のオブジェクトと異なるように、指示光の色が変更される。或いは、例えば、指示光の時系列の変化(例えば、点滅)が開始されたり、指示光の時間的パターン(例えば、点滅パターン)が変更されたりする。
 指示光の色及び時間的パターンを変更しても指示位置の検出が失敗する場合、例えば、指示像が他のオブジェクトより顕著に大きくなるように、指示光の断面積が大きくされる。この場合、指示光の断面積が大きくされることにより、光が拡散し、指示像の輝度が低下する場合、指示光の強度が上げられる。或いは、例えば、指示像の形が他のオブジェクトと異なるように、指示光の断面の形が変更される。
 また、上述した図8及び図9の例のように、指示像とノイズとの識別が困難な場合や、指示像の候補が検出されなかった場合、指示像がノイズ等と明確に識別されるように、出力パラメータが調整される。
 例えば、指示光の強度、断面の大きさ、及び、断面の形のうち少なくとも1つが優先的に変更される。例えば、指示像がノイズと比較して顕著に大きくなるように、指示光の断面積が大きくされる。この場合、指示光の断面積が大きくされることにより、光が拡散し、指示像の輝度が低下する場合、指示光の強度が上げられる。また、例えば、指示像の形がノイズ等と顕著に異なるように、指示光の断面積の形が変更される。指示光の強度、断面の大きさ、及び、断面の形を変更しても指示位置の検出が失敗する場合、例えば、指示光の色又は時間的パターンが変更される。
 或いは、例えば、指示光制御部51は、撮影画像における指示像の検出結果に関わらず、所定の順序で出力パラメータを変更する。
 例えば、指示光の強度が所定の間隔で徐々に引き上げられる。
 次に、指示光の断面積が所定の間隔で徐々に大きくされる。
 次に、指示光の形が所定の順序で変更される。
 次に、指示光の色が所定の順序で変更される。
 次に、指示光の時間的パターンが所定の順序で変更される。例えば、指示光を点滅させる場合、指示光の点滅間隔が徐々に短くされる。
 なお、出力パラメータを変更する順序は任意に設定することが可能である。また、2種類以上の出力パラメータを同時に変更するようにしてもよい。
 なお、指示光の強度及び時間的パターンは、位置指示装置13の消費電力に与える影響が特に大きい。そこで、例えば、指示位置の検出が成功した後、指示位置の検出が失敗しない範囲で、指示光の強度を下げたり、指示光の時間的パターンの間隔を長くしたりすることが望ましい。
 指示光制御部51は、調整後の出力パラメータを含む出力制御情報を生成し、送信部61を介して位置指示装置13に送信する。
 これに対して、位置指示装置13の出力制御部111は、受信部121を介して、出力制御情報を受信する。指示光出力部103は、出力制御部111の制御の下に、調整後の出力パラメータに基づいて、指示光の出力を行う。
 その後、処理はステップS53に進む。
 一方、ステップS51において、例えば、指示光制御部51は、全ての出力パラメータのパターンをすでに試している場合、出力パラメータを調整しないと判定し、ステップS52の処理はスキップされ、処理はステップS53に進む。
 ステップS53において、センサ制御部52は、センサパラメータを調整するか否かを判定する。例えば、センサ制御部52は、まだ試していないセンサパラメータのパターン(センサパラメータの組合せ)が残っている場合、センサパラメータを調整すると判定し、処理はステップS54に進む。
 ステップS54において、センサ制御部52は、センサパラメータを調整する。
 例えば、センサ制御部52は、撮影画像内の指示像の輝度が適切な値になるように、画像センサ31のシャッタ速度、ゲイン、絞り等を調整する。
 センサ制御部52は、調整後のセンサパラメータを、I/F部44を介してセンサ部11に供給する。
 これに対して、画像センサ31は、調整後のセンサパラメータに基づいて、指示対象空間内の撮影を行う。
 その後、処理はステップS55に進む。
 一方、ステップS53において、例えば、センサ制御部52は、全てのセンサパラメータのパターンをすでに試している場合、センサパラメータを調整しないと判定し、ステップS54の処理はスキップされ、処理はステップS55に進む。
 ステップS55において、検出制御部53は、検出パラメータを調整するか否かを判定する。例えば、検出制御部53は、出力パラメータ及びセンサパラメータの調整内容等に基づいて、検出パラメータの変更の必要性を判定する。検出制御部53は、検出パラメータの変更が必要であると判定した場合、検出パラメータを調整すると判定し、処理はステップS56に進む。
 ステップS56において、検出制御部53は、検出パラメータを調整する。例えば、検出制御部53は、出力パラメータ及びセンサパラメータ等に応じて、検出対象とする指示像の輝度の範囲、大きさの範囲、形の範囲、色の範囲、及び、時間的パターンを調整する。
 なお、例えば、検出制御部53は、出力パラメータ及びセンサパラメータが変更されていなくても、指示像が検出されるように、検出パラメータを調整し、試行するようにしてもよい。
 その後、制御パラメータ調整処理は終了する。
 一方、ステップS55において、検出制御部53は、検出パラメータの変更が必要でないと判定した場合、検出パラメータを調整しないと判定し、制御パラメータ調整処理は終了する。
 図5に戻り、一方、ステップS9において、例えば、制御部42は、全ての制御パラメータのパターンをすでに試している場合、制御パラメータを調整しないと判定し、処理はステップS11に進む。
 ステップS11において、情報処理装置12は、指示位置の検出不可を通知する。例えば、指示位置検出部43は、指示位置の検出不可であることを示す指示位置情報を生成し、I/F部44を介して処理部14に供給するとともに、制御部42に供給する。
 これに対して、例えば、プロジェクタ71は、指示位置が検出できないため、画像の投影位置を制御できないことを、所定の方法でユーザに通知する。
 その後、処理はステップS12に進む。
 ステップS12において、制御部42は、処理を終了するか否かを判定する。処理を終了しないと判定された場合、処理はステップS2に戻る。
 その後、ステップS12において、処理を終了すると判定されるまで、ステップS2乃至ステップS12の処理が繰り返し実行される。
 一方、ステップS12において、例えば、制御部42は、入力部41を介して、指示位置検出処理の終了の指令が入力された場合、処理を終了すると判定し、指示位置検出処理は終了する。
 以上のようにして、制御パラメータ(出力パラメータ、センサパラメータ、及び、検出パラメータ)が適切に調整され、指示位置の検出精度が向上する。
 また、例えば、環境等の変化等に対してロバストなシステムが実現される。例えば、指示対象空間の環境(例えば、照明環境等)、位置指示装置13による指示位置、及び、画像センサ31の設置位置等が変化しても、適切に制御パラメータが設定されるため、指示位置の検出精度が良好に保たれる。
 さらに、ユーザが制御パラメータを調整する必要がないため、ユーザの負担が軽減される。
 なお、例えば、情報処理システム1が環境等の条件の変動が小さい場所に据え置かれる場合、上述した指示位置検出処理を、情報処理システム1の初期設定に適用することが可能である。すなわち、情報処理システム1の設置時に、設置場所に対して適切な制御パラメータを検出し、設定することができる。
 <<2.第2の実施の形態>>
 次に、図11を参照して、本技術の第2の実施の形態について説明する。
 第2の実施の形態では、位置指示装置13a及び位置指示装置13bの2つの位置指示装置、並びに、画像センサ31a及び画像センサ31bの2つの画像センサが設けられている。
 そして、画像センサ31a及び画像センサ31bにより撮影された撮影画像に基づいて、位置指示装置13aによる指示位置Pa及び位置指示装置13bによる指示位置Pbが検出される。
 この場合、位置指示装置13aの指示光及び位置指示装置13bの指示光は、個別に制御される。そして、指示位置Pa及び指示位置Pbが明確に識別されるように、例えば、各指示光がそれぞれ異なる出力方法で出力される。
 例えば、情報処理装置12の指示光制御部51から、送信部61を介して、位置指示装置13a及び位置指示装置13bに個別に出力制御情報が送信される。そして、位置指示装置13aの指示光による指示像と、位置指示装置13bの指示光による指示像とが明確に識別できるように、出力パラメータが異なる値に設定される。例えば、各指示光の強度、断面の大きさ、断面の形、色、及び、時間的パターンのうち少なくとも1つが異なる値に設定される。
 このとき、上述した処理により、煩雑な調整作業を行うことなく、各位置指示装置13の出力パラメータ、及び、各画像センサ31のセンサパラメータを適切に設定することができる。
 なお、位置指示装置13の数、及び、画像センサ31の数を、それぞれ3以上に設定することも可能である。
 <<3.第3の実施の形態>>
 次に、図12を参照して、本技術の第3の実施の形態について説明する。
 第3の実施の形態は、指示光が出力される位置により指示位置が示される出力型の位置指示装置201a乃至位置指示装置201dを、照射型の位置指示装置13の代わりに用いた例を示している。
 以下、位置指示装置201a乃至位置指示装置201dを個々に区別する必要がない場合、単に位置指示装置201と称する。
 各位置指示装置201は、例えば、設置型のマーカにより構成される。各位置指示装置201は、壁163aの所定の位置に設置されている。
 例えば、ユーザは、情報処理装置12の入力部41を介して、指示光を出力させる位置指示装置201を選択する。情報処理装置12の指示光制御部51は、出力パラメータを含む出力制御情報を生成し、送信部61を介して、指示光を出力する位置指示装置201に送信する。
 出力制御情報を受信した位置指示装置201は、出力制御情報に含まれる出力パラメータに基づいて、指示光の出力を行う。そして、指示光を出力した位置指示装置201の位置により、すなわち、指示光が出力された位置により、指示位置が示される。
 これに対して、プロジェクタ71は、上述した例と同様に、指示位置に基づいて、画像Iの投影位置を制御する。
 また、上述した例と同様に、指示位置の検出に失敗した場合、指示位置の検出が成功するように、位置指示装置201の指示光の強度、断面の大きさ、断面の形、色、及び、時間的パターンが調整される。
 なお、図12の位置指示装置201の数や設置位置は、その一例であり、任意に変更することが可能である。例えば、位置指示装置201は、天井161、床162、及び、壁163a以外の壁163等に設置することが可能である。
 <<4.変形例>>
 以下、上述した本技術の実施の形態の変形例について説明する。
  <制御パラメータの制御方法に関する変形例>
 上述した制御パラメータの制御方法は、その一例であり、他の方法を採用することも可能である。
 例えば、情報処理装置12が、指示対象空間の環境に基づいて、制御パラメータを制御するようにしてもよい。
 例えば、照射型の位置指示装置13の場合、指示光が照射されている面(以下、照射面と称する)と位置指示装置13との間の距離により、指示像の輝度及び大きさが変化する。そこで、例えば、照射面と位置指示装置13との間の距離に基づいて、指示光の強度及び断面の大きさのうち少なくとも1つが制御されるようにしてもよい。例えば、照射面と位置指示装置13との間の距離が離れるほど、指示像の輝度が低下したり、指示像が小さくなるため、指示光の強度が上げられたり、指示光の断面積が大きくされたりする。
 なお、照射面と位置指示装置13との間の距離は、例えば、位置指示装置13に測距センサ等を設けることにより、検出される。
 例えば、照射型の位置指示装置13の場合、照射面の反射率により、指示像の輝度が変化する。そこで、例えば、照射面の反射率に基づいて、指示光の強度が制御されるようにしてもよい。例えば、照射面の反射率が低下するほど、指示像の輝度が低下するため、指示光の強度が上げられる。
 なお、照射面の反射率は、例えば、センサ部11又は位置指示装置13に、反射率を測定するセンサを設けることにより、検出される。或いは、指示対象空間が固定される場合には、例えば、指示対象空間内の各面の反射率を予め測定し、測定結果を情報処理装置12の記憶部46に記憶させておくようにしてもよい。
 例えば、照射型の位置指示装置13及び出力型の位置指示装置201のいずれの場合においても、指示対象空間内の照明の色が、指示像の検出精度に影響を与える。例えば、指示光の色と照明の色が近くなるほど、指示像の検出精度が低下し、その結果、指示位置の検出精度が低下する。そこで、例えば、照明の色に応じて、指示光の色が制御されるようにしてもよい。例えば、指示光の色が、照明光の色との差が大きい色に設定される。
 なお、照明の色は、例えば、画像センサ31により撮影される撮影画像に基づいて検出される。或いは、例えば、分光器等をセンサ部11に設けて、照明の色を検出するようにしてもよい。
 例えば、照射型の位置指示装置13及び出力型の位置指示装置201のいずれの場合においても、指示位置が示される面(以下、指示面と称する)の色が、指示像の検出精度に影響を与える。なお、照射型の位置指示装置13の場合、指示面と照射面が等しくなる。出力型の位置指示装置201の場合、例えば、位置指示装置201が設けられている面が指示面となる。例えば、指示光の色と指示面の色が近くなるほど、指示像の検出精度が低下し、その結果、指示位置の検出精度が低下する。そこで、例えば、指示面の色に応じて、指示光の色が制御されるようにしてもよい。例えば、指示光の色が、指示面の色との差が大きい色に設定される。
 なお、指示面の色は、例えば、画像センサ31により撮影される撮影画像に基づいて検出される。或いは、例えば、分光器等をセンサ部11に設けて、指示面の色を検出するようにしてもよい。
 例えば、照射型の位置指示装置13及び出力型の位置指示装置201のいずれの場合においても、指示面に投影される画像の色が、指示像の検出精度に影響を与える。例えば、プロジェクタ71が、DLP(Digital Light Processing、登録商標)のように各色の投影光を時分割に出力する場合(例えば、赤、緑、青の投影光を時分割に出力する場合)、投影光の色が指示光の色に近くなると、指示像の検出精度が低下し、その結果、指示位置の検出精度が低下する。そこで、例えば、投影光の色の時間的パターンと重ならないように、指示光の色の時間的パターンが制御されるようにしてもよい。
 なお、指示対象空間の環境に基づいて出力パラメータを制御する場合、例えば、指示対象空間の照明環境が固定されており、照明の色等がほとんど変化しないとき、指示光の強度、指示光の断面の大きさ、及び、指示光の断面の形のうち少なくとも1つが優先的に変更される。また、出力パラメータの変更に合わせて、センサパラメータが変更される。
 一方、指示対象空間の照明環境が大きく変化するとき、又は、照明環境が不明なとき、例えば、指示光の色が優先的に変更される。
 なお、照明光の色や指示面の色が固定されており、ほとんど変化しない場合、例えば、指示光の色を固定し、変更しないようにしてもよい。
 また、例えば、指示光が照射面により反射されるときに、照射面の影響により反射光の色が変化し、指示像の色が指示光の色と大きく異なる場合が想定される。この場合、検出パラメータに含まれる指示像の色の範囲が不適切となり、指示像の検出精度が低下し、その結果、指示位置の検出精度が低下するおそれがある。これに対して、例えば、指示光の色、又は、検出パラメータの指示像の色の範囲を調整することにより、指示像の検出精度が向上する。
 なお、例えば、撮影画像における指示像の検出結果、及び、指示対象空間の環境の両方に基づいて、制御パラメータを制御するようにしてもよい。
 また、例えば、位置指示装置13から受信した出力情報に基づいて、制御パラメータ(特に、検出パラメータ)を制御するようにしてもよい。
  <制御パラメータに関する変形例>
 上述した制御パラメータ(出力パラメータ、検出パラメータ、及び、センサパラメータ)の種類は、その一例であり、パラメータの種類を追加したり、削減したりすることが可能である。
 また、検出パラメータ及びセンサパラメータのうちの少なくとも一方を固定し、自動調整を行わないようにしてもよい。例えば、出力パラメータのみを自動調整したり、出力パラメータ及び検出パラメータのみを自動調整したり、出力パラメータ及びセンサパラメータのみを自動調整したりするようにしてもよい。検出パラメータ及びセンサパラメータのうちの少なくとも一方を固定しても、出力パラメータを自動調整することにより、指示光の出力方法が適切に設定されるため、指示位置の検出精度は向上する。
  <その他の変形例>
 以上の説明では、画像センサ31により撮影された撮影画像に基づいて、指示位置を検出する例を示したが、本技術は、その他のセンサにより得られたセンサデータに基づいて、指示位置を検出する場合にも適用することができる。
 また、図2に示されるセンサ部11、情報処理装置12、及び、処理部14の機能の分担は、その一例であり、変更することが可能である。例えば、センサ部11及び処理部14の少なくとも一方を情報処理装置12に設けることが可能である。また、例えば、情報処理装置12の機能の一部を、センサ部11及び処理部14の少なくとも一方に設けることが可能である。
 さらに、例えば、出力情報から、指示光の出力方法を削除することも可能である。
 また、以上の説明では、指示位置の検出結果に基づいて、プロジェクタ71の画像の投影位置を制御する例を示したが、指示位置の検出結果を他の用途に使用することも可能である。この場合、指示位置の検出結果を使用するハードウエア及びソフトウエアのうち少なくとも1つが、処理部14に設けられる。
 さらに、本技術は、照射型の位置指示装置13と出力型の位置指示装置201の両方を用いるシステムにも適用することができる。この場合も、例えば、各位置指示装置に対して、個別に出力制御情報を送信し、出力パラメータを設定することにより、各位置指示装置の指示光が個別に制御される。
 <<5.その他>>
  <コンピュータの構成例>
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図13は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 コンピュータ500において、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
 バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、入力部506、出力部507、記憶部508、通信部509、及びドライブ510が接続されている。
 入力部506は、入力スイッチ、ボタン、マイクロフォン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記憶部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインタフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア511を駆動する。
 以上のように構成されるコンピュータ500では、CPU501が、例えば、記憶部508に記録されているプログラムを、入出力インタフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ500(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータ500では、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インタフェース505を介して、記憶部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記憶部508にインストールすることができる。その他、プログラムは、ROM502や記憶部508に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
  <構成の組み合わせ例>
 本技術は、以下のような構成をとることもできる。
(1)
 位置指示装置の指示光の出力状態を示す出力情報、及び、前記指示光により指示位置が示される空間において検出されたセンサデータに基づいて、前記指示位置の検出を行う指示位置検出部と、
 前記指示位置の検出結果に基づいて、前記位置指示装置の前記指示光の出力を制御する指示光制御部と
 を備える情報処理装置。
(2)
 前記指示光制御部は、前記指示光の出力方法を制御する
 前記(1)に記載の情報処理装置。
(3)
 前記指示光制御部は、前記指示光の出力方法を示す出力パラメータを制御する
 前記(2)に記載の情報処理装置。
(4)
 前記出力パラメータは、前記指示光の強度、断面の大きさ、断面の形、色、及び、時間的パターンのうちの少なくとも1つを含む
 前記(3)に記載の情報処理装置。
(5)
 前記指示光の出力方法に基づいて、前記指示位置の検出に用いられる検出パラメータを制御する検出制御部を
 さらに備える前記(2)乃至(4)のいずれかに記載の情報処理装置。
(6)
 前記検出パラメータは、前記指示光による像である指示像の輝度、大きさ、形、色、及び、時間的パターンのうち少なくとも1つを含む
 前記(5)に記載の情報処理装置。
(7)
 前記指示光制御部は、複数の前記位置指示装置がそれぞれ異なる出力方法で前記指示光を出力するように制御する
 前記(2)乃至(6)のいずれかに記載の情報処理装置。
(8)
 前記指示位置の検出結果に基づいて、前記センサデータを検出するセンサの制御に用いられるセンサパラメータを制御するセンサ制御部を
 さらに備える前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
 前記センサは、画像センサであり、
 前記センサパラメータは、前記画像センサのゲイン、シャッタ速度、及び、絞りのうち少なくとも1つを含む
 前記(8)に記載の情報処理装置。
(10)
 前記センサデータは、前記空間内を撮影した画像のデータであり、
 前記指示光制御部は、前記画像内の前記指示光による像である指示像の検出結果に基づいて、前記指示光の出力を制御する
 前記(1)乃至(9)のいずれかに記載の情報処理装置。
(11)
 前記指示光制御部は、前記画像内において前記指示像の候補が検出されていない場合、前記指示光の強度、断面の大きさ、及び、断面の形のうち少なくとも1つを優先的に変更する
 前記(10)に記載の情報処理装置。
(12)
 前記指示光制御部は、前記画像内において前記指示像の候補が複数検出されている場合、前記指示光の色及び時間的パターンのうち少なくとも1つを優先的に変更する
 前記(10)又は(11)に記載の情報処理装置。
(13)
 前記指示光制御部は、前記空間の環境に基づいて、前記指示光の出力を制御する
 前記(1)乃至(12)のいずれかに記載の情報処理装置。
(14)
 前記指示光制御部は、前記指示光が照射されている照射面と前記位置指示装置との間の距離に基づいて、前記指示光の強度及び断面の大きさのうち少なくとも1つを制御する
 前記(13)に記載の情報処理装置。
(15)
 前記指示光制御部は、前記指示光が照射されている照射面の反射率に基づいて、前記指示光の強度を制御する
 前記(13)又は(14)に記載の情報処理装置。
(16)
 前記指示光制御部は、前記空間内の照明の色、及び、前記指示位置が示されている面の色のうち少なくとも1つに基づいて、前記指示光の色を制御する
 前記(13)乃至(15)のいずれかに記載の情報処理装置。
(17)
 前記指示光制御部は、前記指示位置が示されている面に投影される画像の色の時間的パターンに基づいて、前記指示光の色の時間的パターンを制御する
 前記(13)乃至(16)のいずれかに記載の情報処理装置。
(18)
 前記出力情報は、前記指示光の出力の有無を含む
 前記(1)乃至(17)のいずれかに記載の情報処理装置。
(19)
 前記出力情報は、さらに前記指示光の出力方法を含む
 前記(18)に記載の情報処理装置。
(20)
 前記指示位置は、前記指示光が照射される位置である
 前記(1)乃至(19)のいずれかに記載の情報処理装置。
(21)
 前記指示位置は、前記指示光が出力される位置である
 前記(1)乃至(19)のいずれかに記載の情報処理装置。
(22)
 前記指示位置は、画像の投影位置を変更可能なプロジェクタの投影位置の制御に用いられる
 前記(1)乃至(21)のいずれかに記載の情報処理装置。
(23)
 前記指示光制御部は、前記指示光の出力の制御に用いられる出力制御情報を生成し、
 前記出力制御情報を前記位置指示装置に送信する送信部と、
 前記出力情報を前記位置指示装置から受信する受信部と
 をさらに備える前記(1)乃至(22)のいずれかに記載の情報処理装置。
(24)
 位置指示装置の指示光の出力状態を示す出力情報、及び、前記指示光により指示位置が示される空間において検出されたセンサデータに基づいて、前記指示位置の検出を行い、
 前記指示位置の検出結果に基づいて、前記指示光の出力を制御する
 情報処理方法。
(25)
 位置指示装置の指示光の出力状態を示す出力情報、及び、前記指示光により指示位置が示される空間において検出されたセンサデータに基づいて、前記指示位置の検出を行い、
 前記指示位置の検出結果に基づいて、前記指示光の出力を制御する
 処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
(26)
 指示位置を示すための指示光を出力する指示光出力部と、
 前記指示光の出力の制御に用いられる出力制御情報を情報処理装置から受信する受信部と、
 前記出力制御情報に基づいて前記指示光の出力を制御するとともに、前記指示光の出力状態を示す出力情報を生成する出力制御部と、
 前記出力情報を前記情報処理装置に送信する送信部と
 を備える位置指示装置。
(27)
 前記出力情報は、前記指示光の出力の有無を含む
 前記(26)に記載の位置指示装置。
(28)
 前記出力情報は、前記指示光の出力方法をさらに含む
 前記(27)に記載の位置指示装置。
(29)
 前記出力制御情報は、前記指示光の出力方法を示す出力パラメータを含む
 前記(26)乃至(28)のいずれかに記載の位置指示装置。
(30)
 前記出力パラメータは、前記指示光の強度、断面の大きさ、断面の形、色、及び、時間的パターンのうちの少なくとも1つを含む
 前記(29)に記載の位置指示装置。
(31)
 位置指示装置と、
 情報処理装置と、
 を備え、
 前記位置指示装置は、
  指示位置を示すための指示光を出力する指示光出力部と、
  前記指示光の出力の制御に用いられる出力制御情報を前記情報処理装置から受信する第1の受信部と、
  前記出力制御情報に基づいて前記指示光の出力を制御するとともに、前記指示光の出力状態を示す出力情報を生成する出力制御部と、
  前記出力情報を前記情報処理装置に送信する第1の送信部と
 を備え、
 前記情報処理装置は、
  前記出力情報を前記位置指示装置から受信する第2の受信部と、
  前記出力情報、及び、前記指示位置が示される空間において検出されたセンサデータに基づいて、前記指示位置の検出を行う指示位置検出部と、
  前記指示位置の検出結果に基づいて、前記出力制御情報を生成する指示光制御部と、
  前記出力制御情報を前記位置指示装置に送信する第2の送信部と、
 を備える情報処理システム。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 1 情報処理システム, 11 センサ部, 12 情報処理装置, 13,13a,13b 位置指示装置, 14 処理部, 31,31a,31b 画像センサ, 42 制御部, 43 指示位置検出部, 45 通信部, 51 指示光制御部, 52 センサ制御部, 53 検出制御部, 61 送信部, 62 受信部, 102 制御部, 103 指示光出力部, 104 通信部, 111 出力制御部, 121 受信部, 122 送信部, 201a乃至201d 位置指示装置

Claims (20)

  1.  位置指示装置の指示光の出力状態を示す出力情報、及び、前記指示光により指示位置が示される空間において検出されたセンサデータに基づいて、前記指示位置の検出を行う指示位置検出部と、
     前記指示位置の検出結果に基づいて、前記位置指示装置の前記指示光の出力を制御する指示光制御部と
     を備える情報処理装置。
  2.  前記指示光制御部は、前記指示光の出力方法を制御する
     請求項1に記載の情報処理装置。
  3.  前記指示光の出力方法に基づいて、前記指示位置の検出に用いられる検出パラメータを制御する検出制御部を
     さらに備え、
     前記指示光制御部による前記指示光の出力方法を示す出力パラメータの制御、及び、前記検出制御部による前記検出パラメータの制御のうち少なくとも1つを行う
     請求項2に記載の情報処理装置。
  4.  前記出力パラメータは、前記指示光の強度、断面の大きさ、断面の形、色、及び、時間的パターンのうちの少なくとも1つを含み、
     前記検出パラメータは、前記指示光による像である指示像の輝度、大きさ、形、色、及び、時間的パターンのうち少なくとも1つを含む
     請求項3に記載の情報処理装置。
  5.  前記指示光制御部は、複数の前記位置指示装置がそれぞれ異なる出力方法で前記指示光を出力するように制御する
     請求項2に記載の情報処理装置。
  6.  前記指示位置の検出結果に基づいて、前記センサデータを検出するセンサの制御に用いられるセンサパラメータを制御するセンサ制御部を
     さらに備える請求項1に記載の情報処理装置。
  7.  前記センサデータは、前記空間内を撮影した画像のデータであり、
     前記指示光制御部は、前記画像内の前記指示光による像である指示像の検出結果に基づいて、前記指示光の出力を制御する
     請求項1に記載の情報処理装置。
  8.  前記指示光制御部は、前記画像内において前記指示像の候補が検出されていない場合、前記指示光の強度、断面の大きさ、及び、断面の形のうち少なくとも1つを優先的に変更する
     請求項7に記載の情報処理装置。
  9.  前記指示光制御部は、前記画像内において前記指示像の候補が複数検出されている場合、前記指示光の色及び時間的パターンのうち少なくとも1つを優先的に変更する
     請求項7に記載の情報処理装置。
  10.  前記指示光制御部は、前記空間の環境に基づいて、前記指示光の出力を制御する
     請求項1に記載の情報処理装置。
  11.  前記指示光制御部は、前記指示光が照射されている照射面と前記位置指示装置との間の距離に基づいて、前記指示光の強度及び断面の大きさのうち少なくとも1つを制御する
     請求項10に記載の情報処理装置。
  12.  前記指示光制御部は、前記指示光が照射されている照射面の反射率に基づいて、前記指示光の強度を制御する
     請求項10に記載の情報処理装置。
  13.  前記指示光制御部は、前記空間内の照明の色、及び、前記指示位置が示されている面の色のうち少なくとも1つに基づいて、前記指示光の色を制御する
     請求項10に記載の情報処理装置。
  14.  前記指示光制御部は、前記指示位置が示されている面に投影される画像の色の時間的パターンに基づいて、前記指示光の色の時間的パターンを制御する
     請求項10に記載の情報処理装置。
  15.  前記出力情報は、前記指示光の出力の有無を含む
     請求項1に記載の情報処理装置。
  16.  前記出力情報は、さらに前記指示光の出力方法を含む
     請求項15に記載の情報処理装置。
  17.  前記指示位置は、画像の投影位置を変更可能なプロジェクタの投影位置の制御に用いられる
     請求項1に記載の情報処理装置。
  18.  前記指示光制御部は、前記指示光の出力の制御に用いられる出力制御情報を生成し、
     前記出力制御情報を前記位置指示装置に送信する送信部と、
     前記出力情報を前記位置指示装置から受信する受信部と
     をさらに備える請求項1に記載の情報処理装置。
  19.  位置指示装置の指示光の出力状態を示す出力情報、及び、前記指示光により指示位置が示される空間において検出されたセンサデータに基づいて、前記指示位置の検出を行い、
     前記指示位置の検出結果に基づいて、前記指示光の出力を制御する
     情報処理方法。
  20.  位置指示装置の指示光の出力状態を示す出力情報、及び、前記指示光により指示位置が示される空間において検出されたセンサデータに基づいて、前記指示位置の検出を行い、
     前記指示位置の検出結果に基づいて、前記指示光の出力を制御する
     処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2019/024213 2018-07-03 2019-06-19 情報処理装置、情報処理方法、及び、記録媒体 WO2020008877A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201980043371.9A CN112334866A (zh) 2018-07-03 2019-06-19 信息处理设备、信息处理方法和记录介质
DE112019003374.3T DE112019003374T5 (de) 2018-07-03 2019-06-19 Informationsverarbetungseinrichtung, informationsverarbeitungsverfahren und aufzeichnungsmedium
US17/254,595 US20210132705A1 (en) 2018-07-03 2019-06-19 Information processing apparatus, information processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018126759A JP2021165865A (ja) 2018-07-03 2018-07-03 情報処理装置、情報処理方法、及び、記録媒体
JP2018-126759 2018-07-03

Publications (1)

Publication Number Publication Date
WO2020008877A1 true WO2020008877A1 (ja) 2020-01-09

Family

ID=69060218

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/024213 WO2020008877A1 (ja) 2018-07-03 2019-06-19 情報処理装置、情報処理方法、及び、記録媒体

Country Status (5)

Country Link
US (1) US20210132705A1 (ja)
JP (1) JP2021165865A (ja)
CN (1) CN112334866A (ja)
DE (1) DE112019003374T5 (ja)
WO (1) WO2020008877A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016105541A (ja) * 2014-12-01 2016-06-09 セイコーエプソン株式会社 プロジェクター及びプロジェクターの制御方法
JP2016194894A (ja) * 2015-03-31 2016-11-17 富士通株式会社 コンテンツ表示制御方法、コンテンツ表示制御装置およびコンテンツ表示制御プログラム
JP2017157916A (ja) * 2016-02-29 2017-09-07 国立大学法人東京工業大学 多重情報表示システム及びこれに用いる照光装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3867205B2 (ja) * 2002-08-30 2007-01-10 カシオ計算機株式会社 指示位置検出装置、及び指示位置検出システム、並びに指示位置検出方法
JP2012145646A (ja) * 2011-01-07 2012-08-02 Sanyo Electric Co Ltd 投写型映像表示装置
US11029766B2 (en) * 2013-06-26 2021-06-08 Sony Corporation Information processing apparatus, control method, and storage medium
JP2015014882A (ja) * 2013-07-04 2015-01-22 ソニー株式会社 情報処理装置、操作入力検出方法、プログラム、および記憶媒体
US9857918B2 (en) * 2015-03-31 2018-01-02 Fujitsu Limited Content display control method and system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016105541A (ja) * 2014-12-01 2016-06-09 セイコーエプソン株式会社 プロジェクター及びプロジェクターの制御方法
JP2016194894A (ja) * 2015-03-31 2016-11-17 富士通株式会社 コンテンツ表示制御方法、コンテンツ表示制御装置およびコンテンツ表示制御プログラム
JP2017157916A (ja) * 2016-02-29 2017-09-07 国立大学法人東京工業大学 多重情報表示システム及びこれに用いる照光装置

Also Published As

Publication number Publication date
US20210132705A1 (en) 2021-05-06
CN112334866A (zh) 2021-02-05
JP2021165865A (ja) 2021-10-14
DE112019003374T5 (de) 2021-03-25

Similar Documents

Publication Publication Date Title
WO2015002303A1 (ja) 追尾装置、追尾方法及び追尾プログラムを記憶した非一時的記憶媒体
WO2016031359A1 (ja) 制御装置、制御方法、及びプログラム
JP2007293195A (ja) 自動輝度調整機構を有するプロジェクタと自動輝度調整方法
JP2009289243A (ja) 位置検出装置、位置検出システム、映像表示装置、及び映像表示システム
WO2016209506A1 (en) Technologies for projecting a noncontinuous image
WO2020008877A1 (ja) 情報処理装置、情報処理方法、及び、記録媒体
US11146766B2 (en) Projection-type video display device
KR101747740B1 (ko) 프로젝터 및 제어 방법
CN113840133A (zh) 成像方法、成像系统、制造系统、以及用于制造产品的方法
US10652508B2 (en) Projector and method for projecting an image pixel by pixel
JP6492588B2 (ja) プロジェクター及びプロジェクターの制御方法
JP2017225073A (ja) 撮像装置とその制御方法、プログラム及び撮像システム
US20210232840A1 (en) Object recognition system, object control device, object recognition device, object recognition method, object control method, and recording medium
JP7424311B2 (ja) 制御装置、制御方法、およびプログラム
JP2015022043A (ja) 画像処理装置及び画像処理システム
JP6611525B2 (ja) 撮像装置及び撮像システム
JP2017200060A5 (ja)
JP2016114991A (ja) 位置検出装置、画像投写装置及び画像操作システム
US11322058B2 (en) Device management apparatus, device managing method, and program
WO2022153817A1 (ja) 情報処理装置、輝度制御方法、及び、プログラム
EP3486719B1 (en) Image pickup apparatus and control method thereof
US20230276033A1 (en) Control method for display device and display device
US20160037041A1 (en) Adaptive illumination apparatus and method
WO2022209087A1 (ja) 照明制御システム、照明制御方法、及び、プログラム
WO2019181125A1 (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19829964

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19829964

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP