WO2022009645A1 - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
WO2022009645A1
WO2022009645A1 PCT/JP2021/023056 JP2021023056W WO2022009645A1 WO 2022009645 A1 WO2022009645 A1 WO 2022009645A1 JP 2021023056 W JP2021023056 W JP 2021023056W WO 2022009645 A1 WO2022009645 A1 WO 2022009645A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
tilt
information processing
unit
provisional
Prior art date
Application number
PCT/JP2021/023056
Other languages
English (en)
French (fr)
Inventor
拓也 池田
健太郎 井田
悠 青木
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2022009645A1 publication Critical patent/WO2022009645A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means

Definitions

  • the present technology relates to an information processing device and an information processing method, and in particular, is a result of detecting an optical spot formed on an input surface by light emitted by an input device having a light emitting unit based on an image captured on the input surface.
  • the present invention relates to an information processing device that performs a process of recognizing an input position by an input device based on the above, and a technical field of an information processing method.
  • Patent Document 1 discloses a technique for detecting an input position based on an ultrasonic signal emitted by an electronic pen
  • Patent Document 2 discloses a screen (a screen) generated by light emitted by an electronic pen having a light emitting portion at its tip.
  • a technique for detecting an input position based on the position of an image (light spot) formed on the input surface) is disclosed.
  • a predetermined position in the light spot such as the center position of the light spot is determined. It is conceivable to detect the representative position of the above as an input position. However, since the shape of the light spot changes according to the change in the tilt state of the input device with respect to the input surface, the detected input is detected by the method of detecting a predetermined representative position in the light spot as the input position as described above. The position deviates from the true value, making it difficult to accurately detect the input position.
  • This technology was made in view of the above circumstances, and aims to improve the detection accuracy of the input position.
  • the information processing apparatus detects an optical spot formed on an input surface by light emitted by an input device having a light emitting unit based on an image captured on the input surface, and determines a predetermined representative position in the optical spot. Based on the position detection unit that detects the provisional input position, which is the provisional position of the input position, and the attitude change interlocking information that changes in conjunction with the attitude change of the input device, the tilt state of the input device with respect to the input surface is estimated. It includes a tilt estimation unit and a correction unit that corrects the provisional input position based on the tilt state of the input device estimated by the tilt estimation unit. As a result, when the input device is tilted with respect to the input surface, the provisional input position is corrected based on the tilt state of the input device.
  • the position detection unit is configured to detect the center position of the light spot as the provisional input position.
  • the detection of the provisional input position is realized by a simple process of detecting the center position of the light spot formed on the input surface.
  • the correction unit is estimated by the inclination estimation unit based on table information showing a correspondence relationship between the inclination state of the input device and the correction value of the provisional input position. It is conceivable to acquire the correction value corresponding to the tilt state of the input device and correct the provisional input position based on the acquired correction value. This makes it possible to eliminate the process of calculating the correction value from the tilted state each time when correcting the provisional input position according to the tilted state of the input device.
  • the tilt state of the input device when the tilt state of the input device is changed to a plurality of different tilt states in a state where the input position by the input device matches a known position on the input surface.
  • the configuration is provided with a calibration processing unit for performing the above. By performing the calibration process as described above, it is possible to generate table information suitable for the usage environment by the user as table information used for correction of the provisional input position.
  • the calibration processing unit is configured to perform the calibration processing for each of a plurality of regions formed by dividing the input surface. This makes it possible to generate appropriate table information for each area even when the correspondence between the tilt state of the input device and the correction value changes for each area of the input surface.
  • the calibration processing unit applies the correction value for the tilt state in which the position detection unit does not detect the provisional input position to the position detection unit. It is conceivable that the configuration is obtained by interpolating from the correction value calculated for the tilt state in which the input position is detected. This reduces the number of times the tilt state is changed in calibration.
  • the calibration processing unit is configured to perform processing for displaying information for guiding the known position on the input surface. This makes it possible to guide which position on the input surface the input position by the input device should be adjusted to at the time of calibration.
  • the calibration processing unit is configured to perform processing for displaying information for guiding the target tilt state on the input surface. This makes it possible to guide how the input device should be tilted with respect to the input surface during calibration.
  • the calibration processing unit displays information indicating the difference between the target tilt state and the tilt state estimated by the tilt estimation unit on the input surface. It is conceivable that the configuration is such that processing is performed. This makes it possible to appropriately guide how the input device should be tilted with respect to the input surface at the time of calibration.
  • the pen-type input device is configured to detect the provisional input position, estimate the tilt state, and correct the provisional input position. This makes it possible to improve the detection accuracy of the input position of the input system that enables the position input by the pen type input device.
  • the tilt estimation unit estimates the tilt state based on the posture detection result by the posture detection unit that detects the posture of the input device.
  • the attitude detection unit include those that perform attitude detection based on detection signals from motion sensors such as acceleration sensors and angular velocity sensors provided in the input device, and those that perform attitude detection based on captured images captured by the input device. be able to.
  • the posture detection unit detects the posture information of the input device based on the detection signal of the motion sensor provided in the input device to detect the movement of the input device.
  • the tilt estimation unit converts the posture information of the input device detected by the posture detection unit into posture information in the coordinate system of the input surface, and estimates the tilt state based on the converted posture information. Is conceivable. As a result, even if the coordinate system of the posture information detected by the input device does not match the coordinate system of the input surface, the coordinate system is appropriately converted to the coordinate system of the input surface.
  • the tilt estimation unit is configured to estimate the tilt state by image analysis of the light spot.
  • the tilt state of the input device with respect to the input surface changes, the shape of the light spot and the luminance distribution change. Therefore, it is possible to estimate the tilt state of the input device by performing image analysis on the light spot as described above.
  • the tilt estimation unit may be configured to estimate the tilt state based on the result of analyzing the shape of the light spot.
  • the shape of the light spot changes.
  • the tilt estimation unit estimates the tilt direction of the input device based on the detection result of the brightness change direction of the light spot, and is obtained by elliptical fitting processing for the light spot. It is conceivable that the tilt angle of the input device is estimated based on the length of the axis corresponding to the tilt direction of the major axis or the minor axis of the elliptical ellipse.
  • the tilt direction of the input device with respect to the input surface changes, the direction of change in brightness at the light spot changes, and when the tilt angle of the input device with respect to the input surface changes, the long axis and the short axis when the light spot is regarded as an ellipse. The length of the changes.
  • the information processing apparatus detects a light spot formed on the input surface by the light emitted by the input device having a light emitting unit based on the captured image of the input surface, and in the light spot.
  • a predetermined representative position is detected as a provisional input position which is a provisional position of an input position, and an inclination state of the input device with respect to the input surface is estimated based on the attitude change interlocking information which changes in conjunction with the attitude change of the input device.
  • This is an information processing method for correcting the provisional input position based on the estimated tilt state of the input device. Even with such an information processing method, the same operation as that of the information processing apparatus according to the present technology can be obtained.
  • First Embodiment> [1-1. Configuration of input system as the first embodiment] [1-2. Posture alignment process] [1-3. Calibration process] [1-4. Processing procedure for input position detection] ⁇ 2.
  • Second embodiment> [2-1. Configuration of input system as the second embodiment] [2-2. Method of estimating tilt state as the second embodiment] [2-3. Calibration process] [2-4. Processing procedure for input position detection] ⁇ 3.
  • Modification example> ⁇ 4. Summary of embodiments> ⁇ 5. This technology>
  • FIG. 1 is a diagram showing a configuration example of an input system 100 including an information processing apparatus 1 as a first embodiment according to the present technology.
  • the input system 100 includes at least an information processing device 1, an electronic pen 2, a projector device 3, and a camera 4.
  • the electronic pen 2 is an embodiment of an input device in the present technology, and is used by a user to indicate an input position on an input surface S on a predetermined input object ob.
  • the electronic pen 2 in this example has a light emitting portion at the tip portion (pen tip portion), and the pen tip is brought into contact with the input surface S on the input surface S to indicate an input position. In the state, a light spot corresponding to the light emitted by the light emitting unit is formed on the input surface S.
  • the input object ob is an object for image projection by the projector device 3, and the input surface S coincides with the projection surface of the image by the projector device 3.
  • the camera 4 is configured as a digital camera device that has an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) type or a CCD (Charge Coupled Device) type to perform image pickup, and is arranged so as to image the input surface S. There is.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • the information processing apparatus 1 includes a computer apparatus, and detects an optical spot formed on the input surface S by the light emitted by the electronic pen 2 based on an image captured by the input surface S obtained by the camera 4. Based on the result, the input position by the electronic pen 2 is detected. In this example, the information processing apparatus 1 detects such an input position at predetermined time intervals, and projects an image by the projector apparatus 3 so that an image showing a movement locus of the input position is displayed on the input surface S. To execute. As a result, the electronic pen 2 can function as an input device for drawing.
  • the projector device 3 can be configured as a device having, for example, a drive mechanism and capable of projecting an image in an arbitrary direction. With such a configuration having a drive mechanism, an image can be projected and displayed not only in one place but also in various places. Further, at this time, by having a mechanism for arranging the camera 4 and the projector device 3 in the vicinity and driving them at the same time, it is possible to construct a system capable of projecting an image at an arbitrary location and inputting the image to the projection location with the electronic pen 2.
  • the camera 4 is assumed to be a camera capable of capturing an image projection area by the projector device 3, the optical axis direction is substantially parallel to the optical axis direction of the projector device 3, and the projector device 3 is used. It shall be placed in the vicinity. Since the input position on the projection surface of the projector device 3 is detected based on the captured image of the camera 4, it is necessary to convert from the camera coordinate system to the projection surface coordinate system (that is, the coordinate system of the input surface S in this example). From the viewpoint of the detection accuracy of the input position, it is desirable that the positions of the projector device 3 and the camera 4 are as close as possible and the optical axes of both are as close as possible.
  • the use of the input system 100 is not limited to the drawing use as described above, and can be widely and suitably applied to various operation input uses such as an editing operation use of an image displayed on the input surface S. .. Further, in the input system 100, not only the image display but also the sound output from the speaker may be combined.
  • FIG. 2 is an explanatory diagram of a light emitting unit 21 and a switch 22 included in the electronic pen 2.
  • a light emitting unit 21 is arranged at a tip portion serving as a pen tip.
  • the light emitting unit 21 has, for example, a light emitting element using an LED (Light Emitting Diode) or the like, and emits light in the direction in which the pen tip faces.
  • the light emitting unit 21 of this example emits light outside the visible light region. Specifically, the light emitting unit 21 emits infrared light.
  • the electronic pen 2 is configured to emit infrared light, and in response to this, a camera capable of receiving infrared light is used as the camera 4.
  • a camera capable of receiving infrared light is used as the camera 4.
  • an optical filter that transmits light in the corresponding wavelength band and cuts light in other wavelength bands may be used. can.
  • the electronic pen 2 is provided with a switch 22 for making it possible to determine whether or not the input surface S is in an input state.
  • the switch 22 is configured as a mechanical switch whose on / off state changes depending on whether the pen tip of the electronic pen 2 is pressed against the input surface S or separated from the input surface S.
  • the switch 22 of this example is configured to be turned on when the pen tip is pressed against the input surface S and turned off when the pen tip is separated from the input surface S.
  • FIG. 3 is a block diagram showing an example of the internal configuration of the electronic pen 2.
  • the electronic pen 2 includes a light emitting unit 21 and a switch 22 shown in FIG. 2, as well as a control unit 23, a communication unit 24, and a sensor unit 25.
  • the communication unit 24 performs data communication with the information processing device 1 according to a predetermined data communication method.
  • the data communication with the information processing apparatus 1 by the communication unit 24 is performed by wireless communication, and specifically, the communication unit 24 performs data communication by the Bluetooth (registered trademark) method.
  • the communication method between the electronic pen 2 and the information processing device 1 is not limited to Bluetooth, and other wireless communication methods such as a wireless LAN (Local Area Network) and ZigBee can also be adopted. Alternatively, it is also possible to adopt wired communication instead of wireless communication.
  • the sensor unit 25 comprehensively represents a sensor for detecting the posture of the electronic pen 2.
  • a motion sensor motion sensor
  • the sensor unit 25 of this example is provided with an acceleration sensor that detects the gravitational acceleration acting on the electronic pen 2 and an angular velocity sensor (gyro sensor) that detects the angular velocity.
  • the control unit 23 is configured to include, for example, a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and the CPU is included in a program stored in, for example, the ROM.
  • a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and the CPU is included in a program stored in, for example, the ROM.
  • the control unit 23 executes a process for realizing the functions shown as the light emission control unit 23a, the state notification unit 23b, and the posture calculation unit 23c in the figure.
  • the light emitting control unit 23a controls the light emission of the light emitting unit 21 based on the instruction from the information processing device 1. Specifically, in this example, it is assumed that a light emission control command from the information processing apparatus 1 side gives a light emission instruction and a light emission stop instruction of the light emitting unit 21, and the light emission control unit 23a emits light according to the light emission control command. The light emission of the unit 21 is controlled.
  • the status notification unit 23b notifies the information processing device 1 side of the on / off status of the switch 22.
  • the input position by the electronic pen 2 is set on the condition that the pen tip of the electronic pen 2 is pressed against the input surface S, that is, the switch 22 is on. Is processed for detection.
  • the status notification unit 23b performs a process of notifying the information processing apparatus 1 of information indicating an on / off state of the switch 22, which indicates whether or not the input position recognition process should be performed in this way.
  • the posture calculation unit 23c calculates the posture information indicating the posture of the electronic pen 2 based on the detection signal by the sensor provided in the sensor unit 25. Specifically, in this example, the attitude information of the electronic pen 2 is calculated based on the detection signals of the acceleration sensor and the angular velocity sensor provided in the sensor unit 25. Note that this posture information is used by the information processing apparatus 1 in the correction of the detection input position described later, and this point will be described again.
  • the flowchart of FIG. 4 shows a specific processing example executed by the control unit 23 of the electronic pen 2 as the light emission control unit 23a and the status notification unit 23b described above.
  • the control unit 23 determines whether or not the connection with the information processing device 1 is completed (step S01).
  • the control unit 23 performs a connection process with the information processing device 1 after the start-up, and determines whether or not the connection process is completed. If the connection is not completed, the control unit 23 executes the process of step S01 again.
  • control unit 23 transmits the ID of the electronic pen 2 to the information processing device 1 side (step S02). With this ID, the information processing apparatus 1 side can identify the electronic pen 2 of the communication partner.
  • the control unit 23 determines whether or not a light emission control command has been received (step S03).
  • the light emission / light emission stop instruction of the light emitting unit 21 is given from the information processing device 1 side, and the light emission control command is issued by the information processing device 1 side to give such a light emission / light emission stop instruction. It becomes an order.
  • control unit 23 When the light emission control command is received, the control unit 23 performs a process of causing the light emitting unit 21 to emit light or stopping the light emission according to the content of the light emission control command as the light emission state change process (step S04). Then, after the light emission state change process, the control unit 23 returns the result to the information processing device 1 (step S05). That is, information indicating the result of whether the light emitting unit 21 is made to emit light or is stopped is transmitted to the information processing apparatus 1.
  • control unit 23 determines whether or not a switch state change has been detected (step S06). That is, it is determined whether or not there is a change in the on / off state of the switch 22. The control unit 23 also executes the determination process of step S06 even when it is determined in step S03 that the light emission control command has not been received.
  • step S07 When the switch state change is detected, the control unit 23 performs a process of transmitting a switch state change event (step S07). That is, a process of transmitting event information indicating that the on / off state of the switch 22 has changed to the information processing apparatus 1 is performed.
  • step S08 determines whether or not the processing end condition is satisfied (step S08). That is, it is determined whether or not a predetermined processing end condition such as power off is satisfied.
  • the control unit 23 also performs the end determination process of step S08 even when it is determined that the switch state change has not been detected in step S06.
  • control unit 23 returns to step S03, and if the processing end condition is satisfied, the series of processing shown in FIG. 4 is completed.
  • control unit 23 transmits the ID of the electronic pen 2 to the information processing device 1 side in response to the completion of the connection with the information processing device 1 after activation, and then emits light from the information processing device 1.
  • the control command is received, the light emitting state of the light emitting unit 21 is changed.
  • the state change of the switch 22 is detected, the state change event of the switch 22 is transmitted to the information processing apparatus 1.
  • the flowchart of FIG. 5 shows an example of a process executed by the control unit 23 of the electronic pen 2 with respect to the posture information.
  • the control unit 23 performs a process of acquiring the detected value by the acceleration sensor and the angular velocity sensor in the sensor unit 25 as a process of acquiring the sensor value (step S10), and calculates the electronic pen posture (step S11). That is, the posture information representing the posture of the electronic pen 2 is calculated.
  • the control unit 23 performs a process of acquiring the detected value by the acceleration sensor and the angular velocity sensor in the sensor unit 25 as a process of acquiring the sensor value (step S10), and calculates the electronic pen posture (step S11). That is, the posture information representing the posture of the electronic pen 2 is calculated.
  • the detection values of the acceleration sensor and the angular velocity sensor it is possible to calculate the relative attitude change from the start of the electronic pen 2.
  • the control unit 23 determines whether or not the information processing device 1 is connected to the information processing device 1 (step S12), and if it is in the connected state, the current electronic pen posture, that is, the latest execution.
  • the posture information calculated in the process of step S11 is transmitted to the information processing apparatus 1 (step S13). If it is not in the connected state, the control unit 23 returns to step S10. As a result, the calculation of the electronic pen posture is repeated until the connected state is reached.
  • control unit 23 determines whether or not the processing end condition is satisfied (step S14), and if the processing end condition is not satisfied, returns to step S10 and returns to the processing end condition. If is satisfied, the series of processes shown in FIG. 5 is completed.
  • FIG. 6 is a block diagram for explaining an internal configuration example of the information processing apparatus 1, and shows the projector apparatus 3 and the camera 4 shown in FIG. 1 together with the internal configuration example of the information processing apparatus 1.
  • the information processing apparatus 1 includes a control unit 11, a communication unit 12, an image input unit 13, an image output unit 14, and a memory unit 15.
  • the communication unit 12 performs data communication with the electronic pen 2, and in this example, performs wireless data communication by Bluetooth.
  • the image input unit 13 inputs an image captured by the camera 4 based on the instruction of the control unit 11.
  • the image output unit 14 outputs the image instructed by the control unit 11 to the projector device 3.
  • the control unit 11 is configured to include, for example, a microcomputer having a CPU, a ROM, and a RAM, and the CPU executes various operations and information processing according to a program stored in the ROM or the like, for example. Control is performed to realize various operations of the device 1.
  • the memory unit 15 is composed of, for example, a semiconductor storage device such as a flash memory or a non-volatile storage device such as an HDD (Hard Disk Drive), and various data used for processing by the control unit 11 are stored.
  • the memory unit 15 of this example stores the coordinate conversion information 15a and the information as the coordinate correction table 15b by performing various processes described later by the control unit 11, but the details of these information will be described again. ..
  • control unit 11 includes an electronic pen management unit 11a, an input / output image management unit 11b, a position detection unit 11c, a tilt estimation unit 11d, a posture adjustment processing unit 11e, a position correction processing unit 11f, and a calibration processing unit. It has various functions shown as 11 g.
  • the electronic pen management unit 11a manages the connection with the electronic pen 2, the above-mentioned ID and switch state change event of the connected electronic pen 2, and transmission processing of a light emission control command to the electronic pen 2.
  • the input / output image management unit 11b controls the input of the captured image from the camera 4 via the image input unit 13 and the control of the image output to the projector device 3 via the image output unit 14. Further, the input / output image management unit 11b also performs a process of generating an image to be output to the projector device 3 based on the detection result of the input position by the electronic pen 2. Specifically, in this example, a process of generating an image showing a movement locus of an input position and outputting it to the projector device 3 is performed corresponding to the above-mentioned drawing application.
  • the position detection unit 11c detects a light spot formed on the input surface S by the light emitted by the electronic pen 2 based on the captured image of the input surface S, and determines a predetermined representative position in the light spot at the provisional position of the input position. It is detected as a certain provisional input position Pr.
  • FIG. 7A illustrates an image captured by the camera 4 in a state where an input operation by the electronic pen 2 is being performed.
  • the captured image in this case, the light spot Sp formed on the input surface S (projection region of the image by the projector device 3) due to the light emitted by the electronic pen 2 is projected.
  • the projection area is projected and cut out from the captured image of the camera 4 (Fig. 7B). As a result, an image equivalent to the result of capturing the projection area from the front with the camera 4 is obtained.
  • the image cut out in this way is subjected to binarization processing (FIG. 7C), and the contour Ol of the light spot Sp is detected in the image after binarization (FIG. 7D).
  • This contour Ol detection process can be rephrased as a light spot Sp shape and size detection process.
  • the center position of the contour Ol (that is, the center position of the light spot Sp) is detected as the provisional input position Pr (FIG. 7E).
  • a predetermined representative position in the light spot Sp is set as the center position of the light spot Sp, but the representative position is not limited to the center position of the light spot Sp, for example, on the contour Ol. It can also be defined as the center-to-center point of a straight line connecting two points that are most separated from each other.
  • the representative position here may be any position within the light spot Sp that is obtained as a position that satisfies at least a predetermined geometrical condition.
  • the shape of the light spot Sp changes according to the change in the tilted state of the electronic pen 2 with respect to the input surface S.
  • 8A, 8B, and 8C exemplify a captured image (enlarged image) of the camera 4 when the tilting state of the electronic pen 2 with respect to the input surface S is set to a different state.
  • the shape of the light spot Sp becomes different, and accordingly, the provisional input position Pr is also detected as a different position. If the electronic pen 2 is substantially perpendicular to the input surface S as shown in FIG.
  • the provisional input position Pr is corrected according to the tilt state of the electronic pen 2 by providing the tilt estimation unit 11d and the position correction unit 11f shown in FIG.
  • the tilt estimation unit 11d estimates the tilt state of the electronic pen 2 with respect to the input surface S based on the posture change interlocking information that changes in conjunction with the posture change of the electronic pen 2.
  • the tilt state of the electronic pen 2 is estimated based on the posture information of the electronic pen 2 calculated by the electronic pen 2 based on the detection signal of the sensor unit 25 (motion sensor).
  • the position correction unit 11f corrects the provisional input position Pr based on the tilt state of the electronic pen 2 estimated by the tilt estimation unit 11d.
  • FIG. 9 is a diagram for explaining the relationship between the electronic pen coordinate system and the input surface coordinate system.
  • the posture information calculated by the electronic pen 2 is information indicating the posture change from the time when the electronic pen 2 is started, and the electronic pen coordinate system is determined when the electronic pen 2 is started. It becomes a thing.
  • FIG. 9A shows an example of each axis of the electronic pen coordinate system determined at the time of starting the electronic pen 2.
  • the axes of X, Y, and Z in the electronic pen coordinate system are expressed as Xp, Yp, and Zp.
  • the posture information of the electronic pen 2 is calculated by calculating the relative posture change from the electronic pen coordinate system determined at the time of activation as a rotation matrix with reference to the electronic pen coordinate system.
  • the latest posture when the electronic pen 2 is used is represented by each axis of Xp', Yp', and Zp', and each axis of Xp, Yp, and Zp determined at startup is represented by a dotted line.
  • the rotation matrix that transforms these is calculated as the attitude information of the electronic pen 2.
  • each of X, Y, and Z in the input plane coordinate system are expressed as Xs, Ys, and Zs.
  • Xs, Ys, and Zs the axes of each of X, Y, and Z in the input plane coordinate system.
  • the posture is adjusted to eliminate the deviation between the electronic pen coordinate system and the input surface coordinate system.
  • the posture matching processing unit 11e shown in FIG. 6 performs such processing for posture matching.
  • FIG. 10 illustrates the state of the input system 100 during the posture matching process.
  • FIG. 11 shows a flowchart of a processing example executed by the control unit 11 as the posture matching processing.
  • the control unit 11 first performs a process for displaying a UI (User Interface) image for posture matching on the input surface S in step S101.
  • a UI User Interface
  • a UI image representing message information for instructing the vertical state is generated, and the UI image is projected onto the input surface S by the projector device 3.
  • step S102 the control unit 11 determines whether or not the input of the electronic pen 2 is detected. This determination is performed as a determination as to whether or not the switch 22 of the electronic pen 2 is in the on state. If it is determined that the input of the electronic pen 2 is not detected, the control unit 11 returns to step S101.
  • step S103 acquires the posture information of the electronic pen 2 at the time of input. That is, the posture information calculated by the electronic pen 2 which is in a state perpendicular to the input surface S is acquired.
  • step S104 the control unit 11 calculates a rotation matrix to be converted into the input surface coordinate system, and in step S105, performs a process of storing the calculated rotation matrix as coordinate conversion information 15a in the memory unit 15.
  • the control unit 11 ends a series of processes shown in FIG. 11 in response to executing the process of step S105.
  • the tilt estimation unit 11d shown in FIG. 6 estimates the tilt state of the electronic pen 2 based on the posture information acquired from the electronic pen 2 and the coordinate conversion information 15a stored in the memory unit 15 as described above. Specifically, the posture information acquired from the electronic pen 2 is multiplied by the rotation matrix as the coordinate conversion information 15a to convert the posture information into the posture information of the electronic pen 2 in the input surface coordinate system. Then, from the posture information of the electronic pen 2 in this input surface coordinate system, information indicating the tilt state of the electronic pen 2 with respect to the input surface S is obtained.
  • the information indicating the tilt state of the electronic pen 2 with respect to the input surface S the information of the tilt angle ⁇ and the information of the tilt direction ⁇ as shown in FIG. 12 are obtained.
  • the tilt angle ⁇ is information indicating the tilt angle from the state in which the electronic pen 2 is parallel to the axis (Zs axis) orthogonal to the input surface S.
  • the tilting direction ⁇ is information indicating in which direction the electronic pen 2 is tilted around the axis of the axis orthogonal to the input surface S.
  • the position correction unit 11f shown in FIG. 6 corrects the provisional input position Pr based on the tilt state of the electronic pen 2 estimated by the tilt estimation unit 11d.
  • this correction is a memory. This is performed using the coordinate correction table 15b stored in the unit 15.
  • the coordinate correction table 15b is table information showing the correspondence between the tilt state of the electronic pen 2 and the correction value of the provisional input position.
  • the information processing apparatus 1 of this example has a function of creating such a coordinate correction table 15b by performing the following calibration processing.
  • the control unit 11 has a calibration processing unit 11g shown in FIG. 6 for realizing this function.
  • the calibration process here is a provisional input when the tilt state of the input device is changed to a plurality of different tilt states in a state where the input position by the electronic pen 2 matches a known position on the input surface S. This is a process in which the position Pr is detected by the position detection unit 11c, and the difference value between the provisional input position Pr detected in each tilt state and the known position is calculated as a correction value for each tilt state.
  • the calibration process is performed by dividing the input surface S into a plurality of regions and obtaining a correction value for each region as illustrated in FIG.
  • the example of FIG. 13 shows an example in which the projection area on the input surface S is divided into three equal parts in the vertical direction and the horizontal direction, respectively, and is equally divided into nine areas from ⁇ 0> to ⁇ 8>.
  • FIG. 14 illustrates the state of the input system 100 at the time of calibration.
  • the projector device 3 displays a UI image including information for guiding whether or not the tilting state should be performed (information for guiding the target tilting state in calibration).
  • the mark Mc is displayed at a known position in the corresponding area (that is, a position where the control unit 11 grasps the coordinates).
  • the display of the illustration of the electronic pen 2 is used to guide the tilt direction ⁇ of the electronic pen 2, and the message information at the lower part of the image is used to guide the target. It is supposed to guide the inclination angle ⁇ .
  • the calibration processing unit 11g sequentially changes the guide content of the UI image displayed on the input surface S in this way, and changes the tilted state of the electronic pen 2 to a plurality of different tilted states. Then, in each tilted state, the position detection unit 11c detects the provisional input position Pr, and for each tilted state, the difference value between the detected provisional input position Pr and the known position (the position of the mark Mc) is corrected. Calculated as. Specifically, this difference value (correction value) is calculated as a difference value of the Xs coordinate value in the input surface coordinate system and a difference value of the Ys coordinate value.
  • control unit 11 can grasp the tilt state of the electronic pen 2 by the tilt estimation unit 11d, it can determine whether or not the tilt state of the electronic pen 2 matches the target tilt state at the time of calibration. Based on this determination, the control unit 11 detects the provisional input position Pr when the tilted state of the electronic pen 2 matches the tilted state of the target. In this way, it is necessary to estimate the tilt state by the tilt estimation unit 11d even at the time of calibration. Therefore, before performing the calibration, it is necessary to perform the posture matching process described with reference to FIG. 11 in advance.
  • the calibration processing unit 11g performs the correction value for each tilt state of the electronic pen 2 (in this example, the combination of the tilt angle ⁇ and the tilt direction ⁇ ) for each region of the input surface S by the calibration process as described above. obtain. Then, the calibration processing unit 11g stores the information indicating the correspondence between the respective tilt states and the correction values obtained for each area in the memory unit 15 as the coordinate correction table 15b.
  • FIG. 15 shows an example of the coordinate correction table 15b.
  • the coordinate correction table 15b is information indicating the correspondence between the Xs coordinate correction value and the Ys coordinate correction value for each combination of the tilt angle ⁇ and the tilt direction ⁇ for each region formed by dividing the input surface S. It is said that.
  • the Xs coordinate correction value and the Ys coordinate correction value are calculated as the difference value of the Xs coordinate value between the detected provisional input position Pr and the known position, and the difference value of the Ys coordinate value. It is a thing.
  • the numerical values of the tilt angle ⁇ and the tilt direction ⁇ shown in FIG. 15 are merely examples for explanation, and are not limited to these numerical values.
  • the calibration the provisional input position Pr is detected only for a part of the tilt states and the correction value is calculated, and the correction value for the other tilt states for which the provisional input position Pr is not detected is described above. It is also possible to adopt a method of interpolating from the correction values calculated for some tilt states. In other words, the correction value for the tilt state in which the position detection unit 11c does not detect the provisional input position Pr is interpolated from the correction value calculated for the tilt state in which the position detection unit 11c detects the provisional input position Pr. You can also ask. At this time, it is conceivable that the correction value is interpolated by, for example, linear interpolation.
  • FIG. 16 is a flowchart showing the overall flow of the calibration process.
  • the control unit 11 resets the area identifier i to 0 in step S110.
  • the area identifier i is a value for identifying each area formed by dividing the input surface S, and can be a value of 0 to 8 in this example.
  • step S111 the control unit 11 performs a process of displaying a UI image for the i-th region.
  • the projector device 3 projects a UI image in which at least the position of the mark Mc is a position corresponding to the i-th region.
  • step S112 the control unit 11 executes the coordinate correction table update process. This coordinate correction table update process will be described with reference to FIG.
  • the control unit 11 determines in step S113 whether or not the area identifier i is smaller than the maximum value iMAX (“8” in this example). If the area identifier i is smaller than the maximum value iMAX, the control unit 11 increments the value of the area identifier i by 1 in step S114, and returns to step S111. On the other hand, if the area identifier i is smaller than the maximum value iMAX, the control unit 11 ends a series of processes shown in FIG. By the process of FIG. 16, the coordinate correction table update process of step S112 is executed for each area.
  • FIG. 17 is a flowchart of the coordinate correction table update process in step S112.
  • the control unit 11 resets the tilt state identifier j to 0 in step S120.
  • the tilt state identifier j is a value for identifying a plurality of tilt states (combination of the tilt angle ⁇ and the tilt direction ⁇ ) defined as the provisional input position Pr to be detected in the calibration.
  • step S121 following step S120 the control unit 11 performs a process of instructing the user to input in the j-th tilted state.
  • the projector device 3 projects a UI image including guide information for setting the tilted state of the electronic pen 2 to the j-th tilted state on the input surface S.
  • step S122 the control unit 11 determines whether or not the input of the electronic pen 2 is detected. That is, it is determined whether or not the switch 22 of the electronic pen 2 is in the on state. If the input of the electronic pen 2 is not detected, the control unit 11 returns to step S121.
  • step S123 When the input of the electronic pen 2 is detected, the control unit 11 proceeds to step S123 to acquire the posture information of the electronic pen 2 at the time of input, and in the following step S124, converts the posture of the electronic pen 2 into the input surface coordinate system. And proceed to step S125.
  • step S125 the control unit 11 determines whether or not it matches the j-th tilt state. That is, the tilted state of the electronic pen 2 is estimated from the posture information of the electronic pen 2 converted in step S124, and it is determined whether or not the estimated tilted state matches the j-th tilted state. If it is determined that the tilt state does not match the j-th tilt state, the control unit 11 returns to step S121.
  • step S126 the control unit 11 proceeds to step S126 to detect the provisional input position Pr.
  • the provisional input position Pr at the time of calibration is also detected by the same method as in FIG. 7 above (including the projection conversion shown as the transition from FIG. 7A to FIG. 7B).
  • the coordinate correction table 15b is generated based on the image observed from the front, and the same conditions can be obtained at the time of calibration and at the time of use.
  • step S127 the control unit 11 calculates the difference value between the mark position and the provisional input position Pr. That is, the difference value (difference value of each of the Xs coordinate value and the Ys coordinate value) between the position of the mark Mc in the i-th region and the provisional input position Pr detected in step S126 is calculated. Then, in the following step S128, the control unit 11 performs a process of registering the difference value as a correction value in the table. That is, the calculated difference value is registered in the coordinate correction table 15b as the coordinate correction value corresponding to the j-th tilt state.
  • step S129 following the registration process of step S128, the control unit 11 determines whether or not the tilt state identifier j is smaller than the maximum value jMAX, and if the tilt state identifier j is smaller than the maximum value jMAX, tilts in step S130.
  • the state identifier j is incremented by 1 and the process returns to step S121. As a result, processing for detecting the provisional input position Pr and calculating / registering the correction value is started for the next tilted state.
  • the control unit 11 ends the coordinate correction table update process in step S112.
  • the calibration process described above is performed in a state where the input system 100 is placed in the user's usage environment.
  • the coordinate correction table 15b can generate table information suitable for the usage environment by the user, and can improve the correction accuracy of the provisional input position Pr (that is, improve the detection accuracy of the input position).
  • the differences in the usage environment depending on the user include, for example, the reflectance of the input surface S for the light emitted by the light emitting unit 21, the remaining charge of the electronic pen 2 (affecting the amount of light emitted by the light emitting unit 21), and the input surface.
  • the influence of external light around S is considered.
  • the calibration process is performed at the time of shipment from the factory of the information processing apparatus 1 in consideration of the work load on the user.
  • the control unit 11 can grasp the tilt state of the electronic pen 2 by the tilt estimation unit 11d, so that the difference from the target tilt state can also be grasped. Therefore, at the time of calibration, the control unit 11 performs a process of displaying (displaying on the input surface S) information indicating the difference between the estimated tilt state of the electronic pen 2 and the target tilt state. You can also. For example, with respect to the tilt direction ⁇ , information indicating a deviation direction with respect to the target direction may be displayed, or information such as an arrow mark indicating the moving direction of the electronic pen 2 for matching with the target direction may be displayed. Conceivable.
  • FIG. 18 is a flowchart showing an example of a processing procedure for input position detection performed by the control unit 11 in response to the use of the electronic pen 2.
  • the control unit 11 performs a connection process with the electronic pen 2 in step S150, and then performs a light emission command transmission process in step S151. That is, as the above-mentioned light emission control command, a process of transmitting a light emission command instructing the light emission of the light emitting unit 21 to the electronic pen 2 is performed.
  • step S152 the control unit 11 confirms the state of the switch 22 of the electronic pen 2, executes the process of step S152 again if the switch 22 is in the off state, and steps if the switch 22 is in the on state.
  • the process proceeds to S153.
  • step S152 the process for input position detection described below is not performed unless the electronic pen 2 is in the input state.
  • step S153 the control unit 11 determines whether or not the light spot Sp has been detected. That is, it is determined whether or not the light spot Sp is detected in the captured image input from the camera 4. If the light spot Sp is not detected, the control unit 11 returns to step S152. As a result, even if the electronic pen 2 is in the input state, if the light spot Sp is not detected in the captured image, the process for detecting the input position described below is not performed.
  • control unit 11 proceeds to step S154 to detect the provisional input position Pr.
  • step S155 the control unit 11 acquires the posture information of the electronic pen 2. Then, in the following step S156, the control unit 11 determines whether or not the postures of the input surface S and the electronic pen 2 have been adjusted. That is, it is determined whether or not the posture matching process described above has been executed for the currently connected electronic pen 2. If the posture matching process has not been executed, the control unit 11 proceeds to step S157 to execute the posture matching process, and proceeds to step S158. Since this posture adjustment process has already been explained with reference to FIG. 11, duplicate explanation is avoided. If the posture matching process has already been executed, the control unit 11 passes the process of step S157 and proceeds to step S158.
  • step S158 the control unit 11 converts the electronic pen posture into the input surface coordinate system, and in the subsequent step S159, estimates the tilt state. That is, the tilt state (tilt angle ⁇ and tilt direction ⁇ ) of the electronic pen 2 is obtained based on the posture information of the electronic pen 2 converted as the posture information of the input surface coordinate system in step S158.
  • step S160 following step S159 the control unit 11 acquires the coordinate correction value from the coordinate correction table 15b. That is, among the coordinate correction values (correction values of each of the Xs coordinate value and the Ys coordinate value) registered in the coordinate correction table 15b, the coordinate correction value corresponding to the tilt state estimated in step S159 is acquired.
  • step S161 the control unit 11 corrects the coordinate value of the provisional input position Pr detected in step S154 by the coordinate correction value acquired in step S160 as the correction process of the provisional input position Pr.
  • step S162 following step S161, the control unit 11 performs image generation / output processing. That is, a process of generating an image reflecting the input position of the electronic pen 2 obtained by correcting the provisional input position Pr and outputting it to the projector device 3 is performed. Specifically, in the case of this example corresponding to the drawing application, a process of generating an image showing the movement locus of the input position and outputting it to the projector device 3 is performed.
  • step S163 the control unit 11 determines whether or not the processing end condition is satisfied.
  • the processing end condition here include the termination of an application that uses the input position of the electronic pen 2, such as a drawing application that uses the electronic pen 2 as an input device. If it is determined in step S163 that the processing end condition is not satisfied, the control unit 11 returns to step S152.
  • step S163 when it is determined in step S163 that the processing end condition is satisfied, the control unit 11 transmits a light emission control command instructing the electronic pen 2 to stop the light emission as the light emission stop command transmission process in step S164. A series of processes shown in FIG. 18 is completed.
  • the posture detection unit in this case is not limited to the one that detects the posture information based on the detection signal of the motion sensor provided in the electronic pen 2 in this way.
  • a device that detects posture information of the electronic pen 2 based on an image captured by the electronic pen 2 can be mentioned. In this case, it is not necessary to provide the motion sensor on the electronic pen 2.
  • the camera that captures the image of the electronic pen 2 for posture detection can also be used as the camera 4.
  • Second embodiment> [2-1. Configuration of input system as the second embodiment] Subsequently, the second embodiment will be described.
  • the second embodiment estimates the tilted state of the electronic pen 2 by image analysis of the light spot Sp.
  • the same parts as those already described will be designated by the same reference numerals and the description thereof will be omitted.
  • FIG. 19 is a block diagram showing an internal configuration example of the electronic pen 2A as the second embodiment
  • FIG. 20 is a block diagram showing an internal configuration example of the information processing apparatus 1A as the second embodiment.
  • the electronic pen 2A is different from the electronic pen 2 shown in FIG. 3 in that the sensor unit 25 is omitted and that the control unit 23A is provided in place of the control unit 23.
  • the control unit 23A is different from the control unit 23 in that the posture calculation unit 23c is omitted.
  • the tilt state is estimated by image analysis of the image captured by the camera 4, it is not necessary to use the motion sensor for estimating the tilt state as in the first embodiment, and the motion sensor is detected. It is not necessary to calculate the attitude information of the electronic pen 2A based on the signal. Therefore, as described above, the sensor unit 25 and the posture calculation unit 23c are omitted.
  • the information processing apparatus 1A is different from the information processing apparatus 1 shown in FIG. 6 in that the control unit 11A is provided in place of the control unit 11.
  • the control unit 11A has a point where the posture matching processing unit 11e is omitted, a point where the inclination estimation unit 11dA is provided instead of the inclination estimation unit 11d, and a calibration processing unit 11g.
  • the difference is that the calibration processing unit 11gA is provided instead.
  • the posture matching processing unit 11e is omitted as described above.
  • the tilt estimation unit 11dA and the calibration processing unit 11gA each perform estimation processing by image analysis for the optical spot Sp as the tilt state estimation processing of the electronic pen 2A, respectively. It is different from the calibration processing unit 11g.
  • the coordinate conversion information 15a is not stored in the memory unit 15.
  • FIG. 21 is an explanatory diagram of an inclination state estimation method as a second embodiment.
  • the image captured by the camera 4 is cut out in the projection region accompanied by the projective transformation shown as the transition from FIG. 21A to FIG. 21B, and the image after cutting is shown in FIG. 7C.
  • the contour Ol of the light spot Sp shown in FIG. 7D is detected. Since the cutting process, the binarization process, and the process of detecting the contour Ol of the light spot Sp are the same as those described with reference to FIG. 7, duplicate explanations are avoided.
  • a brightness change vector V 1 ⁇ ⁇ (“V 1 ⁇ ⁇ ” indicates a direction of change in brightness (specifically, a direction in which the brightness decreases) in the light spot Sp is “ ⁇ ” on “V 1 ”. Means the symbol in which is placed) is calculated. This is because the place where the electronic pen 2 emits light has high brightness, and the brightness becomes smaller as the distance from the place increases. Therefore, the tilt direction ⁇ of the electronic pen 2 is estimated by obtaining the change in brightness.
  • the long-axis line segment V m0 ⁇ -calculated by the above elliptical fitting, the short-axis line segment V m1 ⁇ -, and the brightness change vector V 1 ⁇ ⁇ To find the vector of the line segment closest to the direction of change in brightness. This corresponds to the one in which the inner product of the luminance change vector V 1 ⁇ ⁇ and each direction of the line segment is the smallest.
  • the input direction of the electronic pen 2 can be robustly estimated in consideration of not only the change in brightness but also the shape.
  • the vector V m0 ⁇ ⁇ of the line segment V m0 ⁇ - is the finally specified vector, which is converted into an angle ⁇ from the reference axis (for example, the Xs axis) to form an electron.
  • the reference axis for example, the Xs axis
  • the inclination angle ⁇ is estimated from the length of the vector V m0 ⁇ ⁇ of the line segment V m0 ⁇ -that is, the length of the vector of the line segment closest to the direction of change in brightness.
  • a function f showing the correspondence between the length of the vector and the inclination angle ⁇ .
  • table information showing the correspondence between the length of the vector and the tilt angle ⁇ can be used instead of the above-mentioned function f. It is conceivable to obtain the correspondence between the length of the vector and the inclination angle ⁇ by calibration in advance.
  • FIG. 22 is a flowchart showing the overall flow of the calibration process as the second embodiment executed by the control unit 11A as the calibration process unit 11 gA. The difference from the process shown in FIG. 16 is that the coordinate correction table update process in step S112'is performed instead of the coordinate correction table update process in step S112.
  • FIG. 23 is a flowchart showing an example of the coordinate correction table update process in step S112'.
  • the processing of steps S120 to S121 is the same as that described with reference to FIG. 17, and thus the description thereof will be omitted.
  • the control unit 11A performs a process of estimating the tilt state of the electronic pen 2 by optical spot image analysis in step S140. Specifically, the tilt angle ⁇ and the tilt direction ⁇ are estimated based on the image captured by the camera 4 by the method described with reference to FIG. 21 above.
  • step S140 the control unit 11A advances the process to step S125, determines whether or not it matches the j-th tilt state, and if it does not match the j-th tilt state, step. Returning to S122, if it matches the j-th tilt state, the provisional input position Pr is detected in step S126.
  • control unit 11A executes the process after step S127, but the process after step S127 is the same as that described with reference to FIG. Is omitted.
  • the vector of the line segment closest to the brightness change direction (in the figure
  • the tilt angle ⁇ is not calculated in the tilt estimation process of the electronic pen 2, and the corresponding coordinate correction value is obtained from the table based on
  • FIG. 25 is a flowchart showing an example of a processing procedure for input position detection as a second embodiment performed by the control unit 11A in response to the use of the electronic pen 2.
  • steps S150 to S154 in the figure are the same as in the case of FIG. 18, the description thereof will be omitted.
  • the control unit 11A proceeds to step S170 and performs a process of estimating the tilt state of the electronic pen 2 by optical spot image analysis in response to the process of detecting the provisional input position Pr in step S154. That is, the tilt angle ⁇ and the tilt direction ⁇ are estimated based on the image captured by the camera 4 by the method described with reference to FIG. 21.
  • control unit 11A executes the processing after step S160 in response to the execution of the estimation processing in step S170. Since the processes from step S160 to step S164 are the same as in FIG. 18, the description thereof will be omitted.
  • the method of performing elliptical fitting to the light spot Sp is exemplified for the estimation of the tilt state by the image analysis of the light spot Sp, but other than that, for example, the tilt angle ⁇ and the tilt direction from the image of the light spot Sp.
  • a method using a machine-learned judgment device to judge ⁇ can be mentioned.
  • a determination device can be generated by learning the tilt angle ⁇ and the tilt direction ⁇ of the correct answer for the image of the observed light spot Sp.
  • the tilt angle ⁇ and the tilt direction ⁇ can be obtained by inputting the image of the observed light spot Sp into the determination device.
  • the embodiment is not limited to the specific examples described above, and configurations as various modified examples can be adopted.
  • the calibration process for grasping the correspondence between the tilt state of the electronic pen 2 and the correction value in the above, an example of performing calibration for each divided area of the input surface S is given, but the area is divided. Calibration may be performed only at the representative position on the input surface S.
  • FIG. 26 shows an explanatory diagram.
  • FIG. 26A shows a case where the camera 4 is taking an image from directly in front of the projection area.
  • the projection area captured by the camera 4 is not distorted. Therefore, the area to be calibrated may be only one place in the center of the projection area. This is because the projection area imaged by the camera 4 is not distorted, and even if it is considered that the light of the electronic pen 2 is uniformly observed at all points, it is considered that the influence on the accuracy is small. be.
  • the tilt direction ⁇ of the electronic pen 2 to be calibrated at this time it is sufficient that the tilt direction ⁇ for 90 degrees, which is 1/4 of the entire circumference, can be observed. This is because the projection area seen from the camera 4 is observed facing directly. Based on the calibrated 90 degree result, the correction value for the other tilt direction ⁇ can be interpolated.
  • FIG. 26B shows a case where the observation is performed diagonally in the horizontal direction with respect to the projection area.
  • the calibration area is divided into three in the vertical direction.
  • the region ⁇ 1> in the figure corresponds to the region close to the camera 4 and the region ⁇ 3> corresponds to the region far from the camera 4, and the appearance of the light of the electronic pen 2 may be different in each region.
  • the tilt direction ⁇ of the electronic pen 2 to be calibrated at this time it is sufficient to know the direction (upper half or lower half) of 180 degrees, which is 1/2 of the entire circumference. This is because the projection area seen from the camera 4 is observed without vertical distortion. Based on the calibrated 180 degree result, the correction value for the other tilt direction ⁇ can be interpolated.
  • FIG. 26C shows a case where the observation is performed diagonally in the direction perpendicular to the projection area.
  • the calibration area is divided into three in the horizontal direction.
  • the region ⁇ 1> in the figure corresponds to the region far from the camera 4 and the region ⁇ 3> corresponds to the region close to the camera, and the appearance of the light of the electronic pen 2 may be different in each region.
  • the tilt direction ⁇ of the electronic pen 2 to be calibrated at this time it is sufficient to know the direction (right half or left half) of 180 degrees, which is 1/2 of the entire circumference. This is because the projection area seen from the camera 4 is observed without left-right distortion. Based on the calibrated 180 degree result, the correction value for the other tilt direction ⁇ can be interpolated.
  • the minimum necessary calibration work as shown in FIGS. 26A to 26C may be selected.
  • the calibration process for one plane is assumed, but in the system using the projector device 3 having the drive mechanism as described above as the projector device 3, the plurality of surfaces are covered. It is possible to project an image. Therefore, calibration processing is performed for each projection surface to be registered, a plurality of coordinate correction tables 15b for each projection surface are stored in the memory unit 15, and the coordinate correction table 15b to be referred to is changed according to the current projection surface. You may.
  • the correction value for each tilt state to be stored is not limited to being obtained by calibration, and for example, a value obtained by calculation from a design value or the like may be stored.
  • the first embodiment and the second embodiment it is possible to combine the first embodiment and the second embodiment.
  • the tilt state estimation process by image analysis of the optical spot Sp described in the second embodiment can be performed.
  • the posture of the electronic pen 2 can calculate the relative rotation amount from the electronic pen coordinate system defined at the time of activation. Therefore, a rotation matrix that is converted into the posture information of the electronic pen in the input surface coordinate system is performed as the posture matching process.
  • the electronic pen 2 may have a structure in which the electronic pen 2 is arranged at a known place with respect to the input surface coordinate system. For example, by providing a box for accommodating the electronic pen 2 so as to be parallel to the Ys axis (see FIG. 9B) of the screen coordinate system, the relative rotation between the coordinate system and the input surface coordinate system when the electronic pen 2 is activated is provided. The amount can be known, and the posture of the electronic pen 2 can be converted into an input surface coordinate system. As a result, the work and processing for posture matching described in FIGS. 10 and 11 can be omitted.
  • the provisional input position Pr is corrected in consideration of the remaining battery level of the electronic pen 2.
  • this can be realized by providing a mechanism for notifying the remaining battery level of the information processing device 1 (or 1A) from the electronic pen 2 and correcting the coordinate correction value according to the remaining battery level. Specifically, by setting a variable that changes according to the remaining battery level (takes a value from 0.0 to 1.0 and becomes smaller as the remaining battery level decreases), and multiplying that value by the coordinate correction value. The correction value can be corrected.
  • the posture is calculated based on the detection signal of the motion sensor provided on the electronic pen 2, but a pressure sensitive sensor may be provided on the pen tip of the electronic pen 2. Since the value of the pressure-sensitive sensor (how it is pressed) changes depending on the tilt of the electronic pen 2 with respect to the input surface S, by creating table information corresponding to the value of the pressure-sensitive sensor and the tilted state of the electronic pen 2, the electron can be used. The tilt of the pen 2 can be estimated.
  • a marker is attached to the pen tip and the base (the end opposite to the pen tip) of the electronic pen 2, and the direction and tilt of the three-dimensional electronic pen 2 are detected by photographing the marker with a plurality of cameras. be able to.
  • the movement sensor is provided on the electronic pen 2 to calculate the posture, but the posture can be calculated by the camera attached to the outside.
  • the electronic pen 2 has been mentioned as an example of the input device according to the present technology, but the input device according to the present technology remotely projects light toward the input surface S, for example, like a laser pointer.
  • the input device according to the present technology remotely projects light toward the input surface S, for example, like a laser pointer.
  • FIG. 27 shows an example of a pistol-type pointing device 2'as an example of such a pointing device.
  • the projector device 3 is used as a display device for displaying an image on the input surface S
  • a display device such as a liquid crystal display device or an organic EL display device may be used. It can also be used.
  • the display surface of the display device is the input surface S.
  • a rear projection type projector device that projects an image from the opposite side to the input surface S can also be used.
  • the light spot formed on the input surface by the light emitted by the input device (electronic pen 2 or 2A) having a light emitting unit is captured as an image of the input surface.
  • a position detection unit (11c) that detects based on the above and detects a predetermined representative position in the light spot as a provisional input position, which is a provisional position of the input position, and a posture change interlocking that changes in conjunction with the posture change of the input device.
  • the tilt estimation unit (11d, 11dA) that estimates the tilt state of the input device with respect to the input surface based on the information (for example, the detection signal of the motion sensor or the captured image of the camera 4 that captures the light spot Sp) and the tilt estimation. It is provided with a correction unit (position correction unit 11f) that corrects the provisional input position based on the tilt state of the input device estimated by the unit. As a result, when the input device is tilted with respect to the input surface, the provisional input position is corrected based on the tilt state of the input device. Therefore, it is possible to improve the detection accuracy of the input position.
  • the position detection unit detects the center position of the light spot as a provisional input position.
  • the detection of the provisional input position is realized by a simple process of detecting the center position of the light spot formed on the input surface. Therefore, it is possible to reduce the processing load related to the detection of the provisional input position.
  • the correction unit is estimated by the inclination estimation unit based on the table information (coordinate correction table 15b) indicating the correspondence relationship between the inclination state of the input device and the correction value of the provisional input position.
  • the correction value corresponding to the tilted state of the input device is acquired, and the provisional input position is corrected based on the acquired correction value.
  • Calibration processing unit that performs calibration processing to detect the provisional input position in the position detection unit and calculate the difference value between the provisional input position detected in each tilt state and the known position as the correction value for each tilt state (same as above). 11g, 11gA).
  • the calibration processing unit performs calibration processing for each of a plurality of regions formed by dividing the input surface. This makes it possible to generate appropriate table information for each area even when the correspondence between the tilt state of the input device and the correction value changes for each area of the input surface. Therefore, the correction accuracy of the provisional input position can be improved, and the detection accuracy of the input position can be improved.
  • the calibration processing unit causes the position detection unit to detect the correction value for the tilt state in which the provisional input position is not detected, and the position detection unit to detect the provisional input position. It is obtained by interpolating from the correction value calculated for the state. This reduces the number of times the tilt state is changed in calibration. Therefore, it is possible to reduce the work load required for calibration.
  • the calibration processing unit performs a process of displaying information (mark Mc in FIG. 14) that guides a known position on an input surface. This makes it possible to guide which position on the input surface the input position by the input device should be adjusted to at the time of calibration. Therefore, it is possible to improve the easiness of the work required for calibration and the work efficiency.
  • the calibration processing unit performs a process of displaying information for guiding a target tilt state on an input surface (see FIG. 14). This makes it possible to guide how the input device should be tilted with respect to the input surface during calibration. Therefore, it is possible to improve the easiness of the work required for calibration and the work efficiency.
  • the calibration processing unit performs a process of displaying information indicating the difference between the target tilt state and the tilt state estimated by the tilt estimation unit on the input surface. .. This makes it possible to appropriately guide how the input device should be tilted with respect to the input surface at the time of calibration. Therefore, it is possible to improve the easiness of the work required for calibration and the work efficiency.
  • the pen-type input device is detected for the provisional input position, the tilt state is estimated, and the provisional input position is corrected. As a result, it is possible to improve the detection accuracy of the input position of the input system that enables the position input by the pen type input device.
  • the inclination estimation unit estimates the inclination state based on the attitude detection result by the attitude detection unit that detects the attitude of the input device.
  • the attitude detection unit include those that perform attitude detection based on detection signals from motion sensors such as acceleration sensors and angular velocity sensors provided in the input device, and those that perform attitude detection based on captured images captured by the input device. be able to.
  • the attitude detection unit (sensor unit 25 and attitude calculation unit 23c) is an input device based on a detection signal of a motion sensor provided in the input device to detect the movement of the input device.
  • the tilt estimation unit (11d) converts the posture information of the input device detected by the posture detection unit into the posture information in the coordinate system of the input surface, and the tilt state is based on the converted posture information. Is estimated.
  • the coordinate system of the posture information detected by the input device does not match the coordinate system of the input surface, the coordinate system is appropriately converted to the coordinate system of the input surface. Therefore, the tilt state of the input device can be appropriately estimated.
  • the tilt estimation unit (11dA) estimates the tilt state by image analysis of the light spot.
  • the shape of the light spot and the luminance distribution change. Therefore, it is possible to estimate the tilt state of the input device by performing image analysis on the light spot as described above.
  • the tilt estimation unit (11dA) estimates the tilt state by image analysis of the light spot.
  • the tilt estimation unit estimates the tilt state based on the result of analyzing the shape of the light spot (see FIG. 21).
  • the tilted state of the input device can be appropriately estimated by configuring the configuration to estimate the tilted state of the input device based on the shape analysis result of the light spot as described above.
  • the tilt estimation unit estimates the tilt direction of the input device based on the detection result of the brightness change direction of the light spot, and the length of the ellipse obtained by the elliptical fitting process for the light spot.
  • the tilt angle of the input device is estimated based on the length of the shaft corresponding to the tilt direction of the shaft or the short shaft (see FIG. 21).
  • the information processing apparatus detects a light spot formed on the input surface by the light emitted by the input device having a light emitting unit based on an image captured on the input surface, and the light spot is included in the light spot.
  • the predetermined representative position is detected as the provisional input position, which is the provisional position of the input position, and the tilt state of the input device with respect to the input surface is estimated and estimated based on the attitude change interlocking information that changes in conjunction with the attitude change of the input device.
  • This is an information processing method that corrects the provisional input position based on the tilted state of the input device. Even with such an information processing method, the same operations and effects as those of the information processing apparatus as the above-described embodiment can be obtained.
  • This technology can also adopt the following configurations.
  • a light spot formed on the input surface by the light emitted by the input device having a light emitting unit is detected based on the captured image of the input surface, and a predetermined representative position in the light spot is a provisional input which is a provisional position of the input position.
  • a position detector that detects as a position, and a position detector
  • An inclination estimation unit that estimates the inclination state of the input device with respect to the input surface based on the attitude change interlocking information that changes in conjunction with the attitude change of the input device.
  • An information processing device including a correction unit that corrects the provisional input position based on the inclination state of the input device estimated by the inclination estimation unit.
  • the position detection unit is The information processing apparatus according to (1) above, which detects the center position of the light spot as the provisional input position.
  • the correction unit Based on the table information showing the correspondence relationship between the tilt state of the input device and the correction value of the provisional input position, the correction value corresponding to the tilt state of the input device estimated by the tilt estimation unit was acquired and acquired.
  • the information processing apparatus according to (1) or (2) which corrects the provisional input position based on the correction value.
  • the position detection unit detects the provisional input position when the tilt state of the input device is changed to a plurality of different tilt states in a state where the input position by the input device matches a known position on the input surface. (3) ).
  • the information processing device is The information processing apparatus according to (1) above, which detects the center position of the light spot as the provisional input position.
  • the correction unit Based on the table information showing the correspondence relationship between the tilt state of the input device and the correction value of the provisional input position, the correction value corresponding to the tilt state of the input device estimated by the tilt
  • the calibration processing unit is The information processing apparatus according to (4), wherein the calibration process is performed for each of a plurality of regions formed by dividing the input surface.
  • the calibration processing unit is The correction value for the tilt state in which the position detection unit does not detect the provisional input position is interpolated from the correction value calculated for the tilt state in which the position detection unit detects the provisional input position.
  • the calibration processing unit is The information processing apparatus according to any one of (4) to (6), which performs a process of displaying information for guiding the known position on the input surface.
  • the calibration processing unit is The information processing apparatus according to any one of (4) to (7), which performs a process of displaying information for guiding a target tilted state on the input surface.
  • the calibration processing unit is The information processing apparatus according to (8) above, which performs a process of displaying information indicating a difference between the target tilt state and the tilt state estimated by the tilt estimation unit on the input surface.
  • the information processing device according to any one of (1) to (9) above, wherein the pen-type input device detects the provisional input position, estimates the tilt state, and corrects the provisional input position.
  • the inclination estimation unit is The information processing device according to any one of (1) to (10), which estimates the tilt state based on the posture detection result by the posture detection unit that detects the posture of the input device.
  • the posture detection unit detects the posture information of the input device based on the detection signal of the motion sensor provided in the input device and detects the movement of the input device.
  • the inclination estimation unit is The information according to (11) above, wherein the posture information of the input device detected by the posture detection unit is converted into posture information in the coordinate system of the input surface, and the tilt state is estimated based on the converted posture information. Processing equipment.
  • the inclination estimation unit is The information processing apparatus according to any one of (1) to (12), wherein the tilt state is estimated by image analysis of the light spot.
  • the inclination estimation unit is The information processing apparatus according to (13), wherein the tilt state is estimated based on the result of analyzing the shape of the light spot.
  • the inclination estimation unit is The tilt direction of the input device is estimated based on the detection result of the brightness change direction of the light spot, and the major axis or the minor axis of the ellipse obtained by the ellipse fitting process for the light spot is the axis corresponding to the tilt direction.
  • the information processing device according to (13) or (14), which estimates the tilt angle of the input device based on the length.
  • Information processing equipment A light spot formed on the input surface by the light emitted by the input device having a light emitting unit is detected based on the captured image of the input surface, and a predetermined representative position in the light spot is a provisional input which is a provisional position of the input position. Detected as a position, Based on the attitude change interlocking information that changes in conjunction with the attitude change of the input device, the tilt state of the input device with respect to the input surface is estimated. An information processing method that corrects the provisional input position based on the estimated tilt state of the input device.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)

Abstract

本技術に係る情報処理装置は、発光部を有する入力装置が発した光によって入力面に形成される光スポットを入力面の撮像画像に基づき検出し、光スポット内における所定の代表位置を入力位置の暫定位置である暫定入力位置として検出する位置検出部と、入力装置の姿勢変化に連動して変化する姿勢変化連動情報に基づき、入力面に対する入力装置の傾き状態を推定する傾き推定部と、傾き推定部が推定した入力装置の傾き状態に基づいて、暫定入力位置を補正する補正部とを備える。

Description

情報処理装置、情報処理方法
 本技術は、情報処理装置、及び情報処理方法に関するものであり、特には、発光部を有する入力装置が発した光によって入力面に形成される光スポットを入力面の撮像画像に基づき検出した結果に基づいて入力装置による入力位置を認識する処理を行う情報処理装置、及び情報処理方法の技術分野に関する。
 例えば、下記特許文献1、2のように、電子ペン等の入力装置が指し示す位置を入力位置として検出するための技術が提案されている。特許文献1には、電子ペンが発する超音波信号に基づいて入力位置を検出する技術が開示され、特許文献2には、先端部に発光部が設けられた電子ペンが発した光によってスクリーン(入力面)上に形成される像(光スポット)の位置に基づき入力位置を検出する技術が開示されている。
特開2010-9542号公報 特開2015-166922号公報
 ここで、特許文献2のように入力装置が発した光によって入力面上に形成される光スポットの位置に基づき入力位置を検出するにあたっては、例えば光スポットの中心位置等、光スポット内の所定の代表位置を入力位置として検出することが考えられる。
 しかしながら、光スポットの形状は入力装置の入力面に対する傾き状態が変化することに応じて変化するため、上記のように光スポット内の所定の代表位置を入力位置として検出する手法では、検出した入力位置が真値からずれてしまい、入力位置を正確に検出することが困難となってしまう。
 本技術は上記事情に鑑み為されたものであり、入力位置の検出精度向上を図ることを目的とする。
 本技術に係る情報処理装置は、発光部を有する入力装置が発した光によって入力面に形成される光スポットを前記入力面の撮像画像に基づき検出し、前記光スポット内における所定の代表位置を入力位置の暫定位置である暫定入力位置として検出する位置検出部と、前記入力装置の姿勢変化に連動して変化する姿勢変化連動情報に基づき、前記入力面に対する前記入力装置の傾き状態を推定する傾き推定部と、前記傾き推定部が推定した前記入力装置の傾き状態に基づいて、前記暫定入力位置を補正する補正部と、を備えるものである。
 これにより、入力装置が入力面に対して傾いた場合には、暫定入力位置が入力装置の傾き状態に基づいて補正される。
 上記した本技術に係る情報処理装置においては、前記位置検出部は、前記光スポットの中心位置を前記暫定入力位置として検出する構成とすることが考えられる。
 これにより、暫定入力位置の検出は、入力面上に形成される光スポットの中心位置を検出するという簡易な処理で実現される。
 上記した本技術に係る情報処理装置においては、前記補正部は、前記入力装置の傾き状態と前記暫定入力位置の補正値との対応関係を示すテーブル情報に基づき、前記傾き推定部が推定した前記入力装置の傾き状態に対応する前記補正値を取得し、取得した前記補正値に基づいて前記暫定入力位置の補正を行う構成とすることが考えられる。
 これにより、入力装置の傾き状態に応じた暫定入力位置の補正にあたり、傾き状態から補正値を都度算出する処理を不要とすることが可能となる。
 上記した本技術に係る情報処理装置においては、前記入力装置による入力位置を入力面上の既知の位置に一致させた状態において、前記入力装置の傾き状態を複数の異なる傾き状態に変化させたときの前記暫定入力位置を前記位置検出部に検出させ、各前記傾き状態で検出された前記暫定入力位置と前記既知の位置との差分値を前記傾き状態ごとの前記補正値として算出するキャリブレーション処理を行うキャリブレーション処理部を備えた構成とすることが考えられる。
 上記のようなキャリブレーション処理を行うことで、暫定入力位置の補正に用いるテーブル情報としてユーザによる使用環境に適したテーブル情報を生成することが可能となる。
 上記した本技術に係る情報処理装置においては、前記キャリブレーション処理部は、前記入力面を分割して形成される複数の領域ごとに前記キャリブレーション処理を行う構成とすることが考えられる。
 これにより、入力装置の傾き状態と補正値との対応関係が入力面の領域ごとに変化する場合であっても、領域ごとに適切なテーブル情報を生成することが可能となる。
 上記した本技術に係る情報処理装置においては、前記キャリブレーション処理部は、前記位置検出部に前記暫定入力位置を検出させていない前記傾き状態についての前記補正値を、前記位置検出部に前記暫定入力位置を検出させた前記傾き状態について算出した前記補正値から補間して求める構成とすることが考えられる。
 これにより、キャリブレーションにおいて傾き状態を変化させる回数の削減が図られる。
 上記した本技術に係る情報処理装置においては、前記キャリブレーション処理部は、前記既知の位置をガイドする情報を前記入力面上に表示する処理を行う構成とすることが考えられる。
 これにより、キャリブレーション時において入力装置による入力位置を入力面上の何れの位置に合わせればよいかをガイドすることが可能となる。
 上記した本技術に係る情報処理装置においては、前記キャリブレーション処理部は、目標とする前記傾き状態をガイドする情報を前記入力面上に表示する処理を行う構成とすることが考えられる。
 これにより、キャリブレーション時において入力装置を入力面に対してどのように傾ければよいかをガイドすることが可能となる。
 上記した本技術に係る情報処理装置においては、前記キャリブレーション処理部は、目標とする前記傾き状態と前記傾き推定部が推定した前記傾き状態との差異を示す情報を前記入力面上に表示する処理を行う構成とすることが考えられる。
 これにより、キャリブレーション時において入力装置を入力面に対してどのように傾ければよいかを適切にガイドすることが可能となる。
 上記した本技術に係る情報処理装置においては、ペン型の前記入力装置について、前記暫定入力位置の検出、前記傾き状態の推定、及び前記暫定入力位置の補正を行う構成とすることが考えられる。
 これにより、ペン型の入力装置による位置入力を可能とする入力システムについて、入力位置の検出精度向上を図ることが可能となる。
 上記した本技術に係る情報処理装置においては、前記傾き推定部は、前記入力装置の姿勢検出を行う姿勢検出部による姿勢検出結果に基づいて前記傾き状態を推定する構成とすることが考えられる。
 姿勢検出部としては、例えば入力装置に設けられた加速度センサや角速度センサ等の動きセンサによる検出信号に基づき姿勢検出を行うものや、入力装置を撮像した撮像画像に基づき姿勢検出を行うものを挙げることができる。
 上記した本技術に係る情報処理装置においては、前記姿勢検出部は、前記入力装置に設けられて前記入力装置の動きを検出する動きセンサの検出信号に基づいて前記入力装置の姿勢情報を検出し、前記傾き推定部は、前記姿勢検出部が検出した前記入力装置の姿勢情報を前記入力面の座標系における姿勢情報に変換し、変換後の前記姿勢情報に基づいて前記傾き状態を推定する構成とすることが考えられる。
 これにより、入力装置で検出される姿勢情報の座標系が入力面の座標系と一致しない場合であっても、入力面の座標系に適切に変換される。
 上記した本技術に係る情報処理装置においては、前記傾き推定部は、前記光スポットについての画像解析により前記傾き状態を推定する構成とすることが考えられる。
 入力面に対する入力装置の傾き状態が変化すると、光スポットの形状や輝度分布に変化が生じる。このため、上記のように光スポットについての画像解析を行うことで、入力装置の傾き状態を推定することが可能である。
 上記した本技術に係る情報処理装置においては、前記傾き推定部は、前記光スポットの形状を解析した結果に基づいて前記傾き状態を推定する構成とすることが考えられる。
 入力装置の傾き状態が変化すると、光スポットの形状が変化する。
 上記した本技術に係る情報処理装置においては、前記傾き推定部は、前記光スポットの輝度変化方向の検出結果に基づき前記入力装置の傾き方向を推定し、前記光スポットに対する楕円フィッティング処理で求められた楕円の長軸又は短軸のうち前記傾き方向に対応する軸の長さに基づき前記入力装置の傾き角度を推定する構成とすることが考えられる。
 入力面に対する入力装置の傾き方向が変化すると、光スポットにおける輝度変化方向が変化し、また、入力面に対する入力装置の傾き角度が変化すると、光スポットを楕円とみなした際の長軸、短軸の長さが変化する。
 本技術に係る情報処理方法は、情報処理装置が、発光部を有する入力装置が発した光によって入力面に形成される光スポットを前記入力面の撮像画像に基づき検出し、前記光スポット内における所定の代表位置を入力位置の暫定位置である暫定入力位置として検出し、前記入力装置の姿勢変化に連動して変化する姿勢変化連動情報に基づき、前記入力面に対する前記入力装置の傾き状態を推定し、推定した前記入力装置の傾き状態に基づいて、前記暫定入力位置を補正する情報処理方法である。
 このような情報処理方法によっても、上記した本技術に係る情報処理装置と同様の作用が得られる。
第一実施形態としての情報処理装置を備える入力システムの構成例を示した図である。 実施形態における電子ペンが有する発光部とスイッチの説明図である。 第一実施形態における電子ペンの内部構成例を示したブロック図である。 実施形態の電子ペンが実行する発光制御及び状態通知に係る処理の例を示したフローチャートである。 第一実施形態の電子ペンが姿勢情報に関して実行する処理の例を示したフローチャートである。 第一実施形態としての情報処理装置の内部構成例を説明するためのブロック図である。 暫定入力位置の検出の具体例を説明するための図である。 電子ペンの入力面に対する傾き状態をそれぞれ異なる状態とした場合におけるカメラの撮像画像(拡大画像)を例示した図である。 電子ペン座標系と入力面座標系との関係を説明するための図である。 姿勢合わせ処理の際の入力システムの様子を例示した図である。 第一実施形態としての情報処理装置が姿勢合わせ処理として実行する処理例を示したフローチャートである。 実施形態において傾き情報として求める傾き角度と傾き方向の情報についての説明図である。 キャリブレーションにおける入力面の領域分割例を示した図である。 キャリブレーション時における入力システムの様子を例示した図である。 座標補正テーブルの例を示した図である。 第一実施形態としてのキャリブレーション処理の全体的な流れを示したフローチャートである。 第一実施形態としての座標補正テーブル更新処理のフローチャートである。 第一実施形態としての入力位置検出のための処理手順の例を示したフローチャートである。 第二実施形態における電子ペンの内部構成例を示したブロック図である。 第二実施形態としての情報処理装置の内部構成例を示したブロック図である。 第二実施形態としての傾き状態の推定手法の説明図である。 第二実施形態としてのキャリブレーション処理の全体的な流れを示したフローチャートである。 第二実施形態としての座標補正テーブル更新処理のフローチャートである。 第二実施形態における変形例としての座標補正テーブルを例示した図である。 第二実施形態としての入力位置検出のための処理手順の例を示したフローチャートである。 キャリブレーション処理の変形例についての説明図である。 変形例としての入力装置の例を示した図である。
 以下、実施形態を次の順序で説明する。
<1.第一実施形態>
[1-1.第一実施形態としての入力システムの構成]
[1-2.姿勢合わせ処理について]
[1-3.キャリブレーション処理について]
[1-4.入力位置検出のための処理手順]
<2.第二実施形態>
[2-1.第二実施形態としての入力システムの構成]
[2-2.第二実施形態としての傾き状態の推定手法]
[2-3.キャリブレーション処理について]
[2-4.入力位置検出のための処理手順]
<3.変形例>
<4.実施形態のまとめ>
<5.本技術>
<1.第一実施形態>
[1-1.第一実施形態としての入力システムの構成]

 図1は、本技術に係る第一実施形態としての情報処理装置1を備える入力システム100の構成例を示した図である。
 図示のように入力システム100は、情報処理装置1、電子ペン2、プロジェクタ装置3、及びカメラ4を少なくとも備える。
 電子ペン2は、本技術における入力装置の一実施形態であり、所定の入力対象物obにおける入力面S上の入力位置を指し示すためにユーザによって用いられる。後述するように、本例における電子ペン2は、先端部分(ペン先部分)に発光部を有しており、入力面S上でペン先を入力面Sに当接させて入力位置を指し示した状態では、入力面S上において、発光部が発する光に応じた光スポットが形成される。
 本例において、入力対象物obは、プロジェクタ装置3による画像投影の対象物とされ、入力面Sはプロジェクタ装置3による画像の投影面に一致している。
 カメラ4は、例えばCMOS(Complementary Metal Oxide Semiconductor)型やCCD(Charge Coupled Device)型などのイメージセンサを有して撮像を行うデジタルカメラ装置として構成され、入力面Sを撮像するように配置されている。
 情報処理装置1は、コンピュータ装置を有して構成され、カメラ4により得られる入力面Sの撮像画像に基づき、電子ペン2が発する光によって入力面S上に形成される光スポットを検出し、その結果に基づいて電子ペン2による入力位置を検出する。
 本例において、情報処理装置1は、このような入力位置の検出を所定の時間間隔で行い、入力位置の移動軌跡を示す画像が入力面S上に表示されるようにプロジェクタ装置3による画像投影を実行させる。これにより、電子ペン2を描画のための入力装置として機能させることができる。
 ここで、プロジェクタ装置3は、例えば駆動機構を有して任意の方向に画像投影が可能な装置として構成することができる。このような駆動機構を有した構成とすることで、一カ所だけでなく様々な箇所に画像を投影表示することができる。また、このとき、カメラ4とプロジェクタ装置3を近傍に配置して同時に駆動させる機構を有することで、任意場所に画像投影かつ電子ペン2で投影場所に入力できるシステムを構築できる。
 また、本例において、カメラ4については、プロジェクタ装置3による画像投影領域を撮像可能なカメラを想定しており、光軸方向がプロジェクタ装置3の光軸方向と略平行となり、且つプロジェクタ装置3の近傍に配置されるものとする。
 プロジェクタ装置3の投影面上の入力位置をカメラ4の撮像画像に基づき検出する関係上、カメラ座標系から投影面座標系(つまり本例では入力面Sの座標系)へ変換する必要があるため、入力位置の検出精度の観点からプロジェクタ装置3とカメラ4の位置はできるだけ近く且つ両者の光軸ができるだけ平行に近くなることが望ましい。
 なお、入力システム100の用途については上記のような描画用途に限定されるものではなく、例えば入力面S上に表示された画像の編集操作用途等、各種の操作入力用途に広く好適に適用できる。
 また、入力システム100においては、画像表示のみでなく、スピーカからの音出力を組み合わせてもよい。
 図2は、電子ペン2が有する発光部21とスイッチ22の説明図である。
 図示のように電子ペン2は、ペン先となる先端部において発光部21が配置されている。発光部21は、例えばLED(Light Emitting Diode)等による発光素子を有し、ペン先が向く方向に光を発する。本例の発光部21は、可視光領域外の光を発する。具体的に、発光部21は赤外光を発光する。
 このように本例では電子ペン2が赤外光を発する構成とされるため、これに対応し、カメラ4としては赤外光を受光可能なカメラを用いる。このとき、カメラ4としては、少なくとも赤外光を受光可能であればよいため、例えば該当する波長帯の光を透過し他の波長帯の光はカットする光学フィルタを用いた構成とすることもできる。
 また、本例において、電子ペン2には、入力面Sに対する入力状態であるか否かの判定を可能とするためのスイッチ22が設けられる。スイッチ22は、電子ペン2のペン先を入力面Sに押し付けた状態と入力面Sから離間させた状態とでon/off状態が変化するメカスイッチとして構成されている。具体的に、本例のスイッチ22は、ペン先が入力面Sに押し付けられた状態でon、入力面Sから離間された状態でoffとなるように構成されている。
 図3は、電子ペン2の内部構成例を示したブロック図である。
 図示のように電子ペン2は、図2に示した発光部21とスイッチ22を備えると共に、制御部23、通信部24、及びセンサ部25を備えている。
 通信部24は、情報処理装置1との間で所定のデータ通信方式に従ったデータ通信を行う。本例において、通信部24による情報処理装置1との間のデータ通信は、無線通信により行われ、具体的に通信部24は、Bluetooth(登録商標)方式によるデータ通信を行う。
 なお、電子ペン2と情報処理装置1との間の通信方式はBluetoothに限定されるものでなく、例えば無線LAN(Local Area Network)やZigBee等の他の無線通信方式を採用することもできる。或いは、無線でなく有線による通信を採用することも可能である。
 センサ部25は、電子ペン2の姿勢検出のためのセンサを包括的に表している。本例では、姿勢検出のためのセンサとして、電子ペン2の動きを検出する動きセンサ(モーションセンサ)が用いられる。具体的に、本例のセンサ部25には、電子ペン2に作用する重力加速度を検出する加速度センサ、及び角速度を検出する角速度センサ(ジャイロセンサ)が設けられている。
 制御部23は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を有するマイクロコンピュータを備えて構成され、上記CPUが例えば上記ROM等に格納されたプログラムに従った処理を実行することで、各種の演算や電子ペン2の各種動作を実現するための制御を行う。
 特に、制御部23は、図中に発光制御部23a、状態通知部23b、姿勢算出部23cとして示す機能を実現するための処理を実行する。
 発光制御部23aは、情報処理装置1からの指示に基づき、発光部21の発光制御を行う。具体的に、本例においては、情報処理装置1側からの発光制御命令により、発光部21の発光指示、及び発光停止指示が行われものとされ、発光制御部23aは該発光制御命令に従って発光部21の発光制御を行う。
 状態通知部23bは、スイッチ22のon/off状態を情報処理装置1側に通知する。本例の入力システム100において、情報処理装置1では、電子ペン2のペン先が入力面Sに押しつけられている状態、すなわちスイッチ22がonの状態であることを条件として電子ペン2による入力位置の検出のための処理が行われる。状態通知部23bは、このように入力位置の認識処理を行うべき状態か否かを示す、スイッチ22のon/off状態を示す情報を情報処理装置1に通知する処理を行う。
 姿勢算出部23cは、センサ部25に設けられたセンサによる検出信号に基づき、電子ペン2の姿勢を示す姿勢情報を算出する。具体的に本例では、センサ部25に設けられた加速度センサと角速度センサそれぞれの検出信号に基づいて電子ペン2の姿勢情報を算出する。
 なお、この姿勢情報は、後述する検出入力位置の補正において情報処理装置1が用いるものとなるが、この点については改めて説明する。
 図4のフローチャートは、電子ペン2の制御部23が上記した発光制御部23a、状態通知部23bとして実行する具体的な処理例を示している。
 先ず、制御部23は、情報処理装置1との接続が完了しているか否かを判定する(ステップS01)。制御部23は、起動後に情報処理装置1との接続処理を行うが、この接続処理が完了した状態であるか否かを判定するものである。接続が完了していなければ、制御部23は再びステップS01の処理を実行する。
 接続が完了していれば、制御部23は電子ペン2のIDを情報処理装置1側に送信する(ステップS02)。このIDにより、情報処理装置1側は通信相手の電子ペン2を識別することが可能となる。
 次いで、制御部23は、発光制御命令を受信したか否かを判定する(ステップS03)。本例では、発光部21の発光/発光停止の指示は情報処理装置1側から行われ、発光制御命令はこのような発光/発光停止の指示を行うために情報処理装置1側で発行される命令となる。
 発光制御命令を受信した場合、制御部23は発光状態変更処理(ステップS04)として、発光制御命令の内容に従って発光部21を発光させる、又は発光停止させる処理を行う。そして、この発光状態変更処理後、制御部23は情報処理装置1へ結果を返信する(ステップS05)。すなわち、発光部21を発光させたか、又は発光停止させたかの結果を示す情報を情報処理装置1に送信する。
 上記の返信処理を実行したことに応じ、制御部23はスイッチ状態変化を検知したか否かを判定する(ステップS06)。すなわち、スイッチ22のon/off状態に変化があったか否かを判定する。制御部23は,ステップS03で発光制御命令を受信していないと判定した場合も、ステップS06の判定処理を実行する。
 スイッチ状態変化を検知した場合、制御部23はスイッチ状態変化イベントを送信する処理を行う(ステップS07)。すなわち、スイッチ22のon/off状態が変化した旨を示すイベント情報を情報処理装置1に送信する処理を行う。
 スイッチ状態変化イベントを送信したことに応じ、制御部23は処理終了条件が成立したか否かを判定する(ステップS08)。すなわち、例えば電源off等の所定の処理終了条件が成立したか否かを判定する。制御部23は、ステップS06でスイッチ状態変化を検知していないと判定した場合にもステップS08の終了判定処理を行う。
 処理終了条件が成立していなければ、制御部23はステップS03に戻り、処理終了条件が成立していれば図4の一連の処理を終える。
 このように制御部23は、起動後において情報処理装置1との接続が完了したことに応じて、電子ペン2のIDを情報処理装置1側に送信し、その後、情報処理装置1からの発光制御命令を受信した場合は、発光部21の発光状態を変更する。また、スイッチ22の状態変化を検知した場合は、情報処理装置1へスイッチ22の状態変化イベントを送信する。
 図5のフローチャートは、電子ペン2の制御部23が姿勢情報に関して実行する処理の例を示している。
 先ず、制御部23は、センサ値を取得する処理(ステップS10)として、センサ部25における加速度センサ、角速度センサによる検出値を取得する処理を行い、電子ペン姿勢を算出する(ステップS11)。すなわち、電子ペン2の姿勢を表す姿勢情報を算出する。ここで、加速度センサ、角速度センサの検出値を用いることで、電子ペン2の起動時からの相対的な姿勢変化を算出することが可能である。
 姿勢情報を算出したことに応じ、制御部23は、情報処理装置1と接続状態であるか否かを判定し(ステップS12)、接続状態であれば、現在の電子ペン姿勢、すなわち直近で実行したステップS11の処理で算出した姿勢情報を情報処理装置1に送信する(ステップS13)。
 接続状態でなければ、制御部23はステップS10に戻る。これにより、接続状態となるまで電子ペン姿勢の算出が繰り返される。
 現在の電子ペン姿勢を送信したことに応じ、制御部23は処理終了条件が成立したか否かを判定し(ステップS14)、処理終了条件が成立していなければステップS10に戻り、処理終了条件が成立していれば図5の一連の処理を終える。
 図6は、情報処理装置1の内部構成例を説明するためのブロック図であり、情報処理装置1の内部構成例と共に、図1に示したプロジェクタ装置3とカメラ4を併せて示している。
 図示のように情報処理装置1は、制御部11、通信部12、画像入力部13、画像出力部14、及びメモリ部15を備えている。
 通信部12は、電子ペン2との間でデータ通信を行うものであり、本例ではBluetoothによる無線データ通信を行う。
 画像入力部13は、制御部11の指示に基づいてカメラ4による撮像画像を入力する。
 画像出力部14は、制御部11から指示された画像をプロジェクタ装置3に出力する。
 制御部11は、例えばCPU、ROM、及びRAMを有するマイクロコンピュータを備えて構成され、上記CPUが例えば上記ROM等に格納されたプログラムに従った処理を実行することで、各種の演算や情報処理装置1の各種動作を実現するための制御を行う。
 メモリ部15は、例えばフラッシュメモリ等の半導体記憶装置やHDD(Hard Disk Drive)等の不揮発性の記憶装置で構成され、制御部11が処理に用いる各種データが記憶される。本例のメモリ部15には、制御部11が後述する各種の処理を行うことにより座標変換情報15a、座標補正テーブル15bとしての情報が記憶されるが、これらの情報の詳細については改めて説明する。
 ここで、制御部11は、図中において電子ペン管理部11a、入出力画像管理部11b、位置検出部11c、傾き推定部11d、姿勢合わせ処理部11e、位置補正部11f、及びキャリブレーション処理部11gとして示す各種の機能を有する。
 電子ペン管理部11aは、電子ペン2との接続や、接続された電子ペン2についての上述したIDやスイッチ状態変化イベントについての管理、及び電子ペン2に対する発光制御命令の送信処理等を行う。
 入出力画像管理部11bは、画像入力部13を介したカメラ4からの撮像画像の入力についての制御、及び画像出力部14を介したプロジェクタ装置3への画像出力についての制御を行う。また、入出力画像管理部11bは、電子ペン2による入力位置の検出結果に基づき、プロジェクタ装置3に出力する画像を生成する処理も行う。具体的に、本例では、前述した描画用途に対応して、入力位置の移動軌跡を示す画像を生成してプロジェクタ装置3に出力する処理を行う。
 位置検出部11cは、電子ペン2が発した光によって入力面Sに形成される光スポットを入力面Sの撮像画像に基づき検出し、光スポット内における所定の代表位置を入力位置の暫定位置である暫定入力位置Prとして検出する。
 図7を参照し、暫定入力位置Prの検出の具体例を説明する。
 図7Aは、電子ペン2による入力操作が行われている状態でのカメラ4による撮像画像を例示している。この場合の撮像画像中には、電子ペン2が発した光によって入力面S(プロジェクタ装置3による画像の投影領域)に形成される光スポットSpが映し出される。
 本例では、使用時においてカメラ4が投影領域に対してどのような位置関係で配置されているかは不明なため、先ず、カメラ4の撮像画像中から、投影領域を射影変換して切り出す(図7B)。これにより、投影領域を正面からカメラ4で撮像した結果と同等の画像を得る。
 そして、このように切り出した画像に対して二値化処理を施し(図7C)、二値化後の画像において光スポットSpの輪郭Olを検出する(図7D)。この輪郭Olの検出処理は、光スポットSpの形状及びサイズの検出処理と換言できる。
 さらに、検出した輪郭Olの情報に基づき、この輪郭Olの中心位置(つまり光スポットSpの中心位置)を暫定入力位置Prとして検出する(図7E)。
 なお、上記では光スポットSp内の所定の代表位置を光スポットSpの中心位置とする例を挙げたが、代表位置は光スポットSpの中心位置に限定されるものではなく、例えば、輪郭Ol上において最も離間している2点間を結ぶ直線の中心間点として定めることもできる。ここでの代表位置とは、光スポットSp内の位置のうち少なくとも所定の幾何学的条件を満たす位置として求められるものであればよい。
 ここで、電子ペン2の入力位置としては、上記のように検出される暫定入力位置Prをそのまま用いるということも考えられる。しかしながら、光スポットSpの形状は電子ペン2の入力面Sに対する傾き状態が変化することに応じて変化するものである。
 図8A、図8B、図8Cでは、電子ペン2の入力面Sに対する傾き状態をそれぞれ異なる状態とした場合におけるカメラ4の撮像画像(拡大画像)を例示している。このように入力面Sに対する傾き状態が変化すると光スポットSpの形状が異なるものとなり、それに伴い、暫定入力位置Prについてもそれぞれ異なる位置として検出されてしまう。図8Cのように電子ペン2が入力面Sに対しほぼ垂直状態であれば、入力位置の真値Pt(真の入力位置)に対する暫定入力位置Prのずれは小さいものとなるが、図8Aや図8Bのように入力面Sに対する傾きが大きくなると、暫定入力位置Prの真値Ptからのずれも大きくなる。
 このように、暫定入力位置Prをそのまま入力位置として適用する手法では、入力位置を正確に検出することが困難となってしまう。
 そこで、本実施形態では、図6に示した傾き推定部11d、及び位置補正部11fを設けることで、電子ペン2の傾き状態に応じて暫定入力位置Prを補正するという手法を採る。
 傾き推定部11dは、電子ペン2の姿勢変化に連動して変化する姿勢変化連動情報に基づき、入力面Sに対する電子ペン2の傾き状態を推定するものである。具体的に、本例では、電子ペン2がセンサ部25(動きセンサ)の検出信号に基づいて算出する電子ペン2の姿勢情報に基づいて電子ペン2の傾き状態を推定する。
 また、位置補正部11fは、傾き推定部11dが推定した電子ペン2の傾き状態に基づいて暫定入力位置Prを補正する。
 ここで、上記のように電子ペン2におけるセンサ部25の検出信号に基づいて算出された電子ペン2の姿勢情報から傾き状態を推定する際には、電子ペン2の姿勢情報が前提とする座標系(以下「電子ペン座標系」と表記する)と、入力位置の検出において前提とする入力面Sの座標系(以下「入力面座標系」と表記する)とが必ずしも一致するものでない点を考慮すべきである。
 図9は電子ペン座標系と入力面座標系との関係を説明するための図である。
 前述したように、電子ペン2(制御部23)が算出する姿勢情報は、電子ペン2の起動時からの姿勢変化を示す情報であり、電子ペン座標系は電子ペン2の起動時に決定されるものとなる。図9Aでは、電子ペン2の起動時に決定された電子ペン座標系の各軸の例を示している。電子ペン座標系におけるX,Y,Zそれぞれの軸をXp、Yp、Zpと表記する。
 電子ペン2の姿勢情報は、このように起動時に定まった電子ペン座標系を基準として、そこからの相対姿勢変化を回転行列として算出したものとなる。具体的に、図9Bでは、電子ペン2の使用時における最新の姿勢をXp’、Yp’、Zp’の各軸で表し、また、起動時に決定したXp、Yp、Zpの各軸を点線により示しているが、これらを変換する回転行列が電子ペン2の姿勢情報として算出されるものである。
 また、図9Bでは、入力面座標系のX,Y,Zそれぞれの軸をXs、Ys、Zsと表記している。このXs、Ys、Zsの各軸とXp、Yp、Zpの各軸とを比較して分かるように、電子ペン座標系の各軸が入力面座標系の各軸と一致する保証はない。
 このため、本例では、電子ペン座標系と入力面座標系とのずれを解消するための姿勢合わせを行う。図6に示した姿勢合わせ処理部11eは、このような姿勢合わせのための処理を行う。
[1-2.姿勢合わせ処理について]

 姿勢合わせ処理部11eによる姿勢合わせ処理について説明する。
 図10に、姿勢合わせ処理の際の入力システム100の様子を例示する。また、図11に、制御部11が姿勢合わせ処理として実行する処理例のフローチャートを示す。
 姿勢合わせ処理において、制御部11は、先ずステップS101で、入力面Sに姿勢合わせのためのUI(User Interface)画像を表示するための処理を行う。具体的には、例えば図10に例示するように電子ペン2の入力位置を指示するためのマークMcと、該マークMcの位置を入力位置とした状態で電子ペン2を入力面Sに対して垂直の状態とすることを指示するためのメッセージ情報を表したUI画像を生成し、該UI画像をプロジェクタ装置3により入力面S上に投影させる。
 ステップS101に続くステップS102で制御部11は、電子ペン2の入力を検出したか否かを判定する。この判定は、電子ペン2のスイッチ22がon状態となったか否かの判定として行う。
 電子ペン2の入力が検出されなかったと判定した場合、制御部11はステップS101に戻る。
 一方、電子ペン2の入力が検出したと判定した場合、制御部11はステップS103に進んで入力時の電子ペン2の姿勢情報を取得する。つまり、入力面Sに対して垂直な状態とされた電子ペン2において算出された姿勢情報を取得するものである。
 ステップS103に続くステップS104で制御部11は、入力面座標系へ変換する回転行列を計算し、ステップS105において、計算した回転行列を座標変換情報15aとしてメモリ部15に記憶する処理を行う。
 制御部11は、ステップS105の処理を実行したことに応じて図11に示す一連の処理を終える。
 ここで、上記のような姿勢合わせ処理は、電子ペン2が起動されるごとに行うことが考えられる。
 図6に示した傾き推定部11dは、電子ペン2の傾き状態を、電子ペン2から取得した姿勢情報と上記のようにメモリ部15に記憶した座標変換情報15aとに基づき推定する。具体的には、電子ペン2から取得した姿勢情報に対し、座標変換情報15aとしての回転行列を乗算することで、入力面座標系における電子ペン2の姿勢情報に変換する。そして、この入力面座標系における電子ペン2の姿勢情報から、電子ペン2の入力面Sに対する傾き状態を示す情報を求める。
 本例において、電子ペン2の入力面Sに対する傾き状態を示す情報としては、図12に示すような傾き角度θの情報と傾き方向ψの情報を求める。
 傾き角度θは、電子ペン2が入力面Sに直交する軸(Zs軸)と平行な状態を基準として、そこからの傾斜角度を示す情報である。また、傾き方向ψは、電子ペン2が入力面Sに直交する軸の軸周りにおける何れの方向に傾斜しているかを示す情報である。
[1-3.キャリブレーション処理について]

 前述のように、図6に示した位置補正部11fは、傾き推定部11dが推定した電子ペン2の傾き状態に基づいて暫定入力位置Prを補正するが、本例において、この補正は、メモリ部15に記憶された座標補正テーブル15bを用いて行われる。
 ここで、座標補正テーブル15bは、電子ペン2の傾き状態と暫定入力位置の補正値との対応関係を示すテーブル情報である。
 本例の情報処理装置1は、このような座標補正テーブル15bを以下のようなキャリブレーション処理を行って作成する機能を有している。制御部11は、この機能の実現のため、図6に示したキャリブレーション処理部11gを有する。
 ここでのキャリブレーション処理とは、電子ペン2による入力位置を入力面S上の既知の位置に一致させた状態において、入力装置の傾き状態を複数の異なる傾き状態に変化させたときの暫定入力位置Prを位置検出部11cに検出させ、各傾き状態で検出された暫定入力位置Prと既知の位置との差分値を傾き状態ごとの補正値として算出する処理である。
 本例において、キャリブレーション処理は、図13に例示するように入力面Sを複数の領域に分けて、領域ごとに補正値を求めるようにして行う。
 具体的に、図13の例では、入力面Sにおける投影領域を縦方向及び横方向にそれぞれ3等分して<0>から<8>の九つの領域に等分割した例を示している。
 図14は、キャリブレーション時における入力システム100の様子を例示している。
 領域ごとのキャリブレーション時には、入力面S上において、図示のように電子ペン2の入力位置を指示するためのマークMcと、該マークMcの位置を入力位置とした状態で電子ペン2をどのように傾斜させればよいかをガイドするための情報(キャリブレーションにおいて目標とする傾き状態をガイドするための情報)とを含むUI画像をプロジェクタ装置3により表示させる。ここで、マークMcは、該当する領域における既知の位置(つまり制御部11が座標を把握している位置)に表示させる。
 また、ガイドについては、図14の例では、電子ペン2のイラストの表示により電子ペン2の傾き方向ψを何れの方向とすればよいかのガイドを行い、また、画像下部のメッセージ情報により目標とする傾き角度θをガイドするものとしている。
 キャリブレーション処理部11gは、このように入力面S上に表示するUI画像のガイド内容を逐次変更して、電子ペン2の傾き状態を複数の異なる傾き状態に変化させる。そして、各傾き状態で、位置検出部11cにより暫定入力位置Prを検出させ、それら傾き状態ごとに、検出された暫定入力位置Prと既知の位置(マークMcの位置)との差分値を補正値として算出する。具体的に、この差分値(補正値)としては、入力面座標系におけるXs座標値の差分値、及びYs座標値の差分値として算出する。
 ここで、制御部11は、傾き推定部11dにより電子ペン2の傾き状態を把握できるため、キャリブレーション時において、電子ペン2の傾き状態が目標の傾き状態に一致したか否かを判定できる。制御部11は、この判定により、電子ペン2の傾き状態が目標の傾き状態と一致したときの暫定入力位置Prを検出する。
 なお、このようにキャリブレーション時においても傾き推定部11dによる傾き状態の推定を行う必要がある。このため、キャリブレーションを行うにあたっては、図11で説明した姿勢合わせ処理を事前に行っておくことを要する。
 キャリブレーション処理部11gは、上記のようなキャリブレーション処理により、入力面Sの領域ごとに、電子ペン2の傾き状態(本例では傾き角度θと傾き方向ψとの組み合わせ)ごとの補正値を得る。そして、キャリブレーション処理部11gは、このように領域ごとに得られる、それぞれの傾き状態と補正値との対応関係を示す情報を、座標補正テーブル15bとしてメモリ部15に記憶する。
 図15は、座標補正テーブル15bの例を示している。
 図示のように座標補正テーブル15bは、入力面Sを分割して形成される各領域について、傾き角度θと傾き方向ψの組み合わせごとのXs座標補正値及びYs座標補正値の対応関係を示す情報とされる。上記説明から理解されるように、Xs座標補正値、Ys座標補正値は、検出された暫定入力位置Prと既知の位置とのXs座標値の差分値、Ys座標値の差分値として算出されたものである。
 なお、図15に示す傾き角度θ、及び傾き方向ψの数値についてはあくまで説明上の一例を示したものに過ぎず、これらの数値に限定されないことは言うまでもない。
 ここで、キャリブレーションとしては、一部の傾き状態についてのみ暫定入力位置Prを検出して補正値の算出を行い、暫定入力位置Prを検出していない他の傾き状態についての補正値は、上記一部の傾き状態について算出した補正値から補間して求めるという手法を採ることもできる。換言すれば、位置検出部11cに暫定入力位置Prを検出させていない傾き状態についての補正値を、位置検出部11cに暫定入力位置Prを検出させた傾き状態について算出した補正値から補間して求めることもできる。
 この際、補正値の補間は、例えば線形補間により行うことが考えられる。
 図16は、キャリブレーション処理の全体的な流れを示したフローチャートである。
 先ず、制御部11はステップS110で、領域識別子iを0リセットする。領域識別子iは、入力面Sを分割して形成される各領域を識別するための値であり、本例では0から8の値をとり得る。
 次いで、制御部11はステップS111で、i番目の領域についてのUI画像を表示する処理を行う。具体的には、少なくともマークMcの位置をi番目の領域に対応する位置としたUI画像をプロジェクタ装置3により投影させる処理を行う。
 ステップS111に続くステップS112で制御部11は、座標補正テーブル更新処理を実行する。この座標補正テーブル更新処理については図17で説明する。
 ステップS112の座標補正テーブル更新処理を実行したことに応じ、制御部11はステップS113で領域識別子iが最大値iMAX(本例では「8」)よりも小さいか否かを判定する。領域識別子iが最大値iMAXよりも小さければ、制御部11はステップS114で領域識別子iの値を1インクリメントし、ステップS111に戻る。
 一方、領域識別子iが最大値iMAXよりも小さければ、制御部11は図16に示す一連の処理を終える。
 この図16の処理により、各領域についてステップS112の座標補正テーブル更新処理が実行される。
 図17は、ステップS112の座標補正テーブル更新処理のフローチャートである。
 座標補正テーブル更新処理において、制御部11はステップS120で傾き状態識別子jを0リセットする。傾き状態識別子jは、キャリブレーションにおいて暫定入力位置Prを検出すべきものとして定められた複数の傾き状態(傾き角度θと傾き方向ψの組み合わせ)を識別するための値である。
 ステップS120に続くステップS121で制御部11は、j番目の傾き状態で入力するようにユーザに指示する処理を行う。具体的には、電子ペン2の傾き状態をj番目の傾き状態とするためのガイド情報を含むUI画像をプロジェクタ装置3により入力面S上に投影させる。
 ステップS121に続くステップS122で制御部11は、電子ペン2の入力を検出したか否かを判定する。すなわち、電子ペン2のスイッチ22がon状態となったか否かを判定する。
 電子ペン2の入力が検出されなければ、制御部11はステップS121に戻る。
 電子ペン2の入力が検出された場合、制御部11はステップS123に進んで入力時の電子ペン2の姿勢情報を取得し、続くステップS124で電子ペン2の姿勢を入力面座標系へ変換してステップS125に進む。
 ステップS125で制御部11は、j番目の傾き状態と一致したか否かを判定する。すなわち、ステップS124で変換した電子ペン2の姿勢情報から電子ペン2の傾き状態を推定し、推定した傾き状態がj番目の傾き状態と一致したか否かを判定する。
 j番目の傾き状態と一致していないと判定した場合、制御部11はステップS121に戻る。
 一方、j番目の傾き状態と一致したと判定した場合、制御部11はステップS126に進んで暫定入力位置Prの検出を行う。
 なお、キャリブレーション時における暫定入力位置Prの検出についても、先の図7と同様の手法で行う(図7A→図7Bの遷移として示した射影変換も含む)。これにより、正面から観測した画像を基準として座標補正テーブル15bを生成することになり、キャリブレーション時と使用時とで同条件となるように図ることができる。
 ステップS126の検出処理に続くステップS127で制御部11は、マーク位置と暫定入力位置Prとの差分値を計算する。すなわち、i番目の領域のマークMcの位置とステップS126で検出した暫定入力位置Prとの差分値(Xs座標値、Ys座標値それぞれの差分値)を計算する。
 そして、続くステップS128で制御部11は、差分値を補正値としてテーブルに登録する処理を行う。すなわち、算出した差分値を、j番目の傾き状態に対応する座標補正値として座標補正テーブル15bに登録する処理を行う。
 ステップS128の登録処理に続くステップS129で制御部11は、傾き状態識別子jが最大値jMAXよりも小さいか否かを判定し、傾き状態識別子jが最大値jMAXよりも小さければ、ステップS130で傾き状態識別子jを1インクリメントしてステップS121に戻る。これにより、次の傾き状態について、暫定入力位置Prの検出や補正値の算出・登録のための処理が開始される。
 一方、傾き状態識別子jが最大値jMAXよりも小さくなければ、制御部11はステップS112の座標補正テーブル更新処理を終える。
 ここで、上記により説明したキャリブレーション処理は、入力システム100がユーザの使用環境に置かれた状態で行うことが考えられる。これにより、座標補正テーブル15bとして、ユーザによる使用環境に適したテーブル情報を生成することが可能となり、暫定入力位置Prの補正精度向上(つまり入力位置の検出精度向上)を図ることができる。なお、ユーザによる使用環境の差異としては、例えば、発光部21が発する光についての入力面Sの反射率や、電子ペン2の充電残量(発光部21の発光量に影響する)、入力面S周囲の外光の影響等が考えられる。
 或いは、キャリブレーション処理は、ユーザによる作業負担を考慮し、情報処理装置1の工場出荷時に行っておくことも考えられる。
 また、キャリブレーション時において制御部11は、傾き推定部11dにより電子ペン2の傾き状態を把握できるため、目標とする傾き状態との差異も把握できる。このため、キャリブレーション時において制御部11は、推定した電子ペン2の傾き状態と目標とする傾き状態との差異を示す情報をUI画像に表示する(入力面Sに表示する)処理を行うこともできる。
 例えば、傾き方向ψについて、目標とする方向に対するずれ方向を示す情報を表示したり、目標とする方向と一致させるための電子ペン2の移動方向を示す例えば矢印マーク等の情報を表示することが考えられる。或いは、傾き角度θについて、目標とする角度と一致させるためにあと何度傾ければよいかを示す情報を表示することも考えられる。
 このように 電子ペン2の傾き状態と目標とする傾き状態との差異を示す情報を入力面Sに表示する処理を行うことで、キャリブレーション時において電子ペン2を入力面Sに対してどのように傾ければよいかを適切にガイドすることが可能となり、キャリブレーションに要する作業についての容易性の向上、及び作業効率の向上を図ることができる。
[1-4.入力位置検出のための処理手順]

 図18は、制御部11が電子ペン2の使用時に対応して行う入力位置検出のための処理手順の例を示したフローチャートである。
 先ず、制御部11はステップS150で、電子ペン2との接続処理を行い、続くステップS151で発光命令送信処理を行う。すなわち、前述した発光制御命令として、発光部21の発光を指示する発光命令を電子ペン2に送信する処理を行う。
 ステップS151に続くステップS152で制御部11は、電子ペン2のスイッチ22の状態を確認し、スイッチ22がoff状態であれば再度ステップS152の処理を実行し、スイッチ22がon状態であればステップS153に処理を進める。このステップS152の処理により、電子ペン2が入力状態になければ以下で説明する入力位置検出のための処理が行われないものとなる。
 ステップS153で制御部11は、光スポットSpを検出したか否かを判定する。すなわち、カメラ4から入力した撮像画像中に光スポットSpが検出されたか否かを判定する。光スポットSpを検出していなければ、制御部11はステップS152に戻る。これにより、電子ペン2が入力状態であっても撮像画像内に光スポットSpが検出されていなければ、以下で説明する入力位置検出のための処理は行われない。
 光スポットSpを検出した場合、制御部11はステップS154に進んで暫定入力位置Prの検出を行う。
 ステップS154に続くステップS155で制御部11は、電子ペン2の姿勢情報を取得する。そして、続くステップS156で制御部11は、入力面Sと電子ペン2の姿勢合わせ済みであるか否かを判定する。すなわち、現在接続中の電子ペン2について、前述した姿勢合わせ処理を実行済みであるか否かを判定する。
 姿勢合わせ処理を実行済みでなければ、制御部11はステップS157に進んで姿勢合わせ処理を実行し、ステップS158に処理を進める。この姿勢合わせ処理については既に図11を参照して説明済みであるため重複説明は避ける。
 また、制御部11は、姿勢合わせ処理を実行済みであった場合は、ステップS157の処理をパスしてステップS158に処理を進める。
 ステップS158で制御部11は、電子ペン姿勢を入力面座標系へ変換し、続くステップS159で傾き状態の推定を行う。すなわち、ステップS158で入力面座標系の姿勢情報として変換された電子ペン2の姿勢情報に基づき、電子ペン2の傾き状態(傾き角度θ及び傾き方向ψ)を求める。
 ステップS159に続くステップS160で制御部11は、座標補正テーブル15bから座標補正値を取得する。すなわち、座標補正テーブル15bに登録された座標補正値(Xs座標値、Ys座標値それぞれの補正値)のうち、ステップS159で推定した傾き状態に対応する座標補正値を取得する。
 そして、ステップS160に続くステップS161で制御部11は、暫定入力位置Prの補正処理として、ステップS154で検出した暫定入力位置Prの座標値をステップS160で取得した座標補正値により補正する。
 ステップS161に続くステップS162で制御部11は、画像生成・出力処理を行う。すなわち、暫定入力位置Prを補正して求まった電子ペン2の入力位置を反映した画像を生成し、プロジェクタ装置3に出力する処理を行う。具体的に、描画用途に対応した本例の場合には、入力位置の移動軌跡を示す画像を生成してプロジェクタ装置3に出力する処理を行う。
 ステップS162に続くステップS163で制御部11は、処理終了条件が成立したか否かを判定する。ここでの処理終了条件としては、例えば、電子ペン2を入力装置とした描画アプリケーション等、電子ペン2の入力位置を利用するアプリケーションの終了等を挙げることができる。
 ステップS163において、処理終了条件が成立していないと判定した場合、制御部11はステップS152に戻る。
 一方、ステップS163において処理終了条件が成立したと判定した場合、制御部11はステップS164の発光停止命令送信処理として、電子ペン2に発光部21の発光停止を指示する発光制御命令を送信し、図18に示す一連の処理を終える。
 なお、第一実施形態では、電子ペン2の傾き状態の推定において姿勢検出部の姿勢検出結果を用いる例として、電子ペン2に設けられた動きセンサの検出信号に基づく姿勢検出結果を用いる例を挙げたが、この場合における姿勢検出部は、このように電子ペン2に設けられた動きセンサの検出信号に基づき姿勢情報を検出するものに限定されない。例えば、電子ペン2を撮像した撮像画像に基づき、電子ペン2の姿勢情報検出を行うものを挙げることができる。この場合、電子ペン2に動きセンサを設ける必要はない。また、姿勢検出のために電子ペン2を撮像するカメラは、カメラ4と兼用することも可能である。
<2.第二実施形態>
[2-1.第二実施形態としての入力システムの構成]

 続いて、第二実施形態について説明する。
 第二実施形態は、光スポットSpについての画像解析により電子ペン2の傾き状態を推定するものである。
 なお、以下の説明において、既に説明済みとなった部分と同様となる部分については同一符号を付して説明を省略する。
 図19は、第二実施形態としての電子ペン2Aの内部構成例を示したブロック図、図20は、第二実施形態としての情報処理装置1Aの内部構成例を示したブロック図である。
 図19において、電子ペン2Aは、図3に示した電子ペン2と比較して、センサ部25が省略された点と、制御部23に代えて制御部23Aが設けられた点が異なる。
 制御部23Aは、制御部23と比較して、姿勢算出部23cが省略された点が異なる。
 第二実施形態では、傾き状態の推定がカメラ4による撮像画像の画像解析で行われるため、第一実施形態のように傾き状態の推定に動きセンサを用いる必要はなく、また、動きセンサの検出信号に基づき電子ペン2Aの姿勢情報を算出する必要もない。このため、上記のようにセンサ部25及び姿勢算出部23cが省略された構成となっている。
 図20において、情報処理装置1Aは、図6に示した情報処理装置1と比較して、制御部11に代えて制御部11Aが設けられた点が異なる。
 制御部11Aは、制御部11と比較して、姿勢合わせ処理部11eが省略された点、及び、傾き推定部11dに代えて傾き推定部11dAが設けられた点、及びキャリブレーション処理部11gに代えてキャリブレーション処理部11gAが設けられた点が異なる。
 電子ペン2Aの傾き状態の推定にあたり電子ペン2Aの姿勢情報を用いる必要がないため、上記のように姿勢合わせ処理部11eが省略された構成が採られている。
 傾き推定部11dA、及びキャリブレーション処理部11gAは、それぞれ電子ペン2Aの傾き状態の推定処理として、以降で説明するように光スポットSpについての画像解析による推定処理を行う点が傾き推定部11d、キャリブレーション処理部11gと異なる。
 また、第二実施形態では、姿勢合わせ処理が不要であるため、メモリ部15において座標変換情報15aは記憶されていない。
[2-2.第二実施形態としての傾き状態の推定手法]

 図21は、第二実施形態としての傾き状態の推定手法の説明図である。
 先ず、この場合における傾き状態の推定にあたっては、カメラ4による撮像画像について、図21Aから図21Bへの遷移として示す射影変換を伴う投影領域の切り出し処理、及び切り出し後の画像について図7Cに示す二値化処理、及び二値化後の画像について図7Dに示す光スポットSpの輪郭Olの検出処理を行う。これら切り出し処理、二値化処理、及び光スポットSpの輪郭Olの検出処理については図7で説明したものと同様となるため重複説明は避ける。
 この場合は、図21Dに示す輪郭Olの検出後、この輪郭Olの形状に対して楕円フィッティングを行う(図21E)。これにより、楕円の長軸の線分Vm0^-(「Vm0^-」は「Vm0」上に「-」を配置した記号を意味する)と、短軸の線分Vm1^-(「Vm1^-」は「Vm1」上に「-」を配置した記号を意味する)を得ることができる。ここで、或る形状に対する楕円フィッティングを行う手法については公知の技術を用いればよい。例えば、「http://opencv.jp/sample/computational_geometry.html」に示された手法等を用いることが考えられる。
 また、このように楕円フィッティングで求められた楕円についての長軸の線分Vm0^-、及び短軸の線分Vm1^-を求める一方で、この場合は、図21Bの切り出し処理後の画像について、光スポットSp内における輝度変化方向(具体的には輝度が低下していく方向)を示す輝度変化ベクトルV^→(「V^→」は「V」上に「→」を配置した記号を意味する)を算出する。これは、電子ペン2が発光している場所は高輝度に、そこから離れるほど輝度が小さくなることから、輝度変化を求めることで電子ペン2の傾き方向ψを推定するためである。
 電子ペン2の傾き方向ψを決めるにあたっては、上記の楕円フィッティングで算出された長軸の線分Vm0^-、及び短軸の線分Vm1^-と、輝度変化ベクトルV^→とを比較し、輝度変化方向に最も近い線分のベクトルを求める。これは、輝度変化ベクトルV^→と線分の各方向との内積が最も小さいものに該当する。これにより輝度変化だけでなく、形状も加味して電子ペン2の入力方向をロバストに推定することができる。図21Fでは、線分Vm0^-のベクトルVm0^→が最終的に特定されたベクトルとなっており、これを基準となる軸(例えばXs軸)からの角度ψに変換して、電子ペン2の傾き方向ψを求める。
 傾き角度θについては、線分Vm0^-のベクトルVm0^→の長さ、すなわち、輝度変化方向に最も近い線分のベクトルの長さから推定する。この推定には、ベクトルの長さと傾き角度θとの対応関係を示す関数fを用いることが考えられる。この場合、傾き角度θは、図21Fに示すように「θ=f(|Vm0^→|)」により求める。
 ここで、傾き角度θの推定においては、上記した関数fではなく、ベクトルの長さと傾き角度θとの対応関係を示すテーブル情報を用いることもできる。ベクトルの長さと傾き角度θとの対応関係は、予めキャリブレーションにより求めておくことが考えられる。
[2-3.キャリブレーション処理について]

 図22は、制御部11Aがキャリブレーション処理部11gAとして実行する第二実施形態としてのキャリブレーション処理の全体的な流れを示したフローチャートである。
 先の図16に示した処理との差は、ステップS112の座標補正テーブル更新処理に代えて、ステップS112’の座標補正テーブル更新処理を行う点である。
 図23は、ステップS112’の座標補正テーブル更新処理の例を示したフローチャートである。
 先ず、ステップS120からS121の処理については、図17で説明したものと同様となるため説明を省略する。
 この場合、制御部11Aは、ステップS122で電子ペン2の入力が検出されたと判定した場合に、ステップS140で光スポット画像解析により電子ペン2の傾き状態を推定する処理を行う。具体的には、先の図21を参照して説明した手法により、カメラ4による撮像画像に基づき傾き角度θ及び傾き方向ψを推定する。
 ステップS140の処理を実行したことに応じ、制御部11AはステップS125に処理を進めて、j番目の傾き状態と一致したか否かを判定し、j番目の傾き状態と一致していなければステップS122に戻り、j番目の傾き状態と一致していればステップS126で暫定入力位置Prの検出を行う。
 ステップS126による暫定入力位置Prの検出処理を実行したことに応じ、制御部11AはステップS127以降の処理を実行するが、ステップS127以降の処理については図17で説明したものと同様となるため説明を省略する。
 なお、第二実施形態において、座標補正テーブル15bとしては、図24に例示するように輝度変化方向に最も近い線分のベクトル(図中|v^→|:「v^→」は「v」上に「→」を配置した符号を意味する)を格納した情報とすることもできる。
 この場合、以下で説明する暫定入力位置Prの補正では、電子ペン2の傾き推定処理において、傾き角度θまでを算出せず、|v^→|に基づいてテーブルから対応する座標補正値を取得することが可能となる。
[2-4.入力位置検出のための処理手順]

 図25は、制御部11Aが電子ペン2の使用時に対応して行う第二実施形態としての入力位置検出のための処理手順の例を示したフローチャートである。
 先ず、図中のステップS150からS154までの処理については図18の場合と同様となるため説明を省略する。
 制御部11Aは、ステップS154の暫定入力位置Prの検出処理を行ったことに応じて、ステップS170に処理を進めて光スポット画像解析により電子ペン2の傾き状態を推定する処理を行う。すなわち、図21を参照して説明した手法により、カメラ4による撮像画像に基づき傾き角度θ及び傾き方向ψを推定する。
 そして、制御部11Aは、ステップS170の推定処理を実行したことに応じて、ステップS160以降の処理を実行する。なお、ステップS160以降、ステップS164までの処理については図18の場合と同様となるため説明を省略する。
 上記のような第二実施形態によれば、電子ペン2の傾き状態の推定のためには光スポットSpを撮像した撮像画像が取得されればよく、電子ペン2に対して動きセンサを設ける必要をなくすことが可能となる。動きセンサの検出信号に基づく傾き状態の推定を行う必要がなくなることから、前述した姿勢合わせ処理(図11、S157)や姿勢合わせ処理結果に基づく座標変換処理(S124、S158)を行う必要もなくなり、情報処理装置1Aの処理負担軽減を図ることができる。
 なお、上記では、光スポットSpの画像解析による傾き状態の推定について、光スポットSpに対する楕円フィッティングを行う手法を例示したが、それ以外にも、例えば光スポットSpの画像から傾き角度θや傾き方向ψを判定するように機械学習された判定器を用いる手法を挙げることができる。例えば、観測される光スポットSpの画像に対して正解の傾き角度θ及び傾き方向ψを学習させ、判定器を生成することができる。実使用時は、観測した光スポットSpの画像を判定器に入力することで傾き角度θ及び傾き方向ψを求めることができる。
<3.変形例>

 ここで、実施形態としては上記で説明した具体例に限定されるものではなく、多様な変形例としての構成を採り得るものである。
 例えば、電子ペン2の傾き状態と補正値との対応関係を把握するためのキャリブレーション処理について、上記では、入力面Sの分割領域ごとにキャリブレーションを行う例を挙げたが、領域分割はせず入力面S上の代表位置でのみキャリブレーションを行ってもよい。
 また、キャリブレーション処理については、入力面Sの投影領域とそれを撮像するカメラ4との位置関係によって作業の簡易化を行ってもよい。
 図26に説明図を示す。
 図26Aは、投影領域に対してカメラ4が真正面から撮像しているケースである。この場合、カメラ4により撮像された投影領域に歪みが生じていない。そのため、キャリブレーションする領域は投影領域の中央一カ所のみで行ってもよい。これは、カメラ4により撮像された投影領域に歪みが生じていないことから、全箇所で均一に電子ペン2の光が観測されるとみなしても、精度への影響が小さいと考えられるためである。
 また、この際のキャリブレーションする電子ペン2の傾き方向ψに関しても、全周の1/4である90度分の傾き方向ψが観測できればよい。これは、カメラ4から見た投影領域は正対して観測されるためである。キャリブレーションした90度分の結果に基づき、他の傾き方向ψについての補正値を補間することができる。
 図26Bは、投影領域に対して水平方向に斜めに観測しているケースである。この場合、カメラ4により撮像された投影領域の水平方向に歪みが生じる。そのため、例えば、キャリブレーション領域を縦方向に3分割して行う。これは、図中の領域<1>はカメラ4に近い領域、領域<3>はカメラ4から遠い領域にあたり、それぞれで電子ペン2の光の見え方が異なる可能性があるためである。
 また、この際のキャリブレーションする電子ペン2の傾き方向ψに関しては、全周の1/2である180度分の向き(上半分か下半分)が分かればよい。これは、カメラ4から見た投影領域は、上下の歪みがなく観測されるからである。キャリブレーションした180度分の結果に基づき、他の傾き方向ψについての補正値を補間することができる。
 図26Cは、投影領域に対して垂直方向に斜めに観測しているケースである。この場合、カメラ4により撮像された投影領域の垂直方向に歪みが生じる。そのため、例えばキャリブレーション領域を横方向に3分割して行う。これは、図中の領域<1>はカメラ4から遠い領域、領域<3>はカメラに近い領域にあたり、それぞれで電子ペン2の光の見え方が異なる可能性があるためである。
 この際のキャリブレーションする電子ペン2の傾き方向ψに関しては、全周の1/2である180度分の向き(右半分か左半分)が分かればよい。これは、カメラ4から見た投影領域は、左右の歪みなく観測されるからである。キャリブレーションした180度分の結果に基づき、他の傾き方向ψについての補正値を補間することができる。
 ここで、カメラ4と投影領域との位置合わせの際には、カメラ4から観測される投影領域が水平方向、垂直方向にどれだけ歪んでいるかを算出することができる。その歪みの状態をもとに、図26Aから図26Cのような必要最低限のキャリブレーション作業を選定してもよい。
 また、これまでの説明では、一つの平面に対するキャリブレーション処理を想定していたが、プロジェクタ装置3として、前述したような駆動機構を有するプロジェクタ装置3を用いたシステムでは、複数の面に対して画像投影することが可能である。そのため、登録する投影面ごとにキャリブレーション処理を行い、それら投影面ごとの複数の座標補正テーブル15bをメモリ部15に記憶しておき、現在の投影面に合わせて参照する座標補正テーブル15bを変えてもよい。
 また、座標補正テーブル15bに関して、格納する傾き状態ごとの補正値としては、キャリブレーションで求めることに限定されず、例えば、設計値等から計算により求められた値を格納してもよい。
 また、第一実施形態と第二実施形態を組み合わせることが可能である。
 例えば、電子ペン2の動きセンサが何らかの理由で故障して利用できない場合に、第二実施形態で説明した、光スポットSpの画像解析による傾き状態の推定処理を行うといったことを挙げることができる。或いは、光スポットSpの画像解析から電子ペン2の傾き状態の推定が困難な状況では第一実施形態で説明した傾き状態推定手法を採用するといったことも可能である。
 このように、状況に合わせて傾き状態の推定手法を切り替えることで、よりロバストに入力位置検出を行うことができる。
 上記では、電子ペン2の姿勢は起動時に定義される電子ペン座標系からの相対的な回転量を算出できることを述べた。そのため、入力面座標系における電子ペンの姿勢情報に変換する回転行列を姿勢合わせ処理として行っている。
 これに対し、電子ペン2が入力面座標系に対して既知の場所に配置される構造を有してもよい。例えば、スクリーン座標系のYs軸(図9B参照)と平行になるように電子ペン2を収納するボックスを設ける等により、電子ペン2が起動したときの座標系と入力面座標系との相対回転量を既知とすることができ、電子ペン2の姿勢を入力面座標系に変換することができる。これにより、図10や図11で述べた姿勢合わせのための作業や処理を省略することができる。
 また、電子ペン2の電池残量によって、座標補正値を修正することも考えられる。
 電子ペン2は、電池残量によって発光部21の発光量や発光強度が低下し、カメラ4で観測される光スポットSpの強度が変化し得る。このため、電子ペン2の電池残量を考慮した暫定入力位置Prの補正を行う。この場合、電子ペン2から情報処理装置1(又は1A)には電池残量を通知する仕組みを設け、電池残量に応じて座標補正値を修正することでこれを実現できる。具体的には、電池残量に応じて変化する変数(0.0から1.0の値をとり、電池残量が少なくなるほど小さくなる)を設け、その値を座標補正値に乗算することで補正値の修正が可能である。
 また、第一実施形態では、電子ペン2に設けた動きセンサの検出信号に基づき姿勢を算出していたが、電子ペン2のペン先に感圧センサを設けてもよい。入力面Sに対する電子ペン2の傾きによって感圧センサの値(押し付けられ方)が変わるため、感圧センサの値と電子ペン2の傾き状態とを対応させたテーブル情報を作成することで、電子ペン2の傾きを推定することができる。
 また、電子ペン2のペン先および根本(ペン先と反対側の端)にマーカを付与し、それを複数のカメラで撮像することで、三次元的な電子ペン2の方向および傾きを検出することができる。これにより、第一実施形態では電子ペン2に動きセンサを設けて姿勢を算出していたが、外部に取り付けられたカメラによって姿勢を算出することができる。
 また、これまでの説明では、本技術に係る入力装置の例として電子ペン2を挙げたが、本技術に係る入力装置は、例えばレーザポインタのように、遠隔から入力面Sに向けて投光によるポインティングを行うような装置形態もあり得る。
 図27では、このようなポインティングデバイスの例として、拳銃型のポインティングデバイス2’の例を示している。
 また、これまでの説明では、入力面Sに対して画像を表示する表示装置としてプロジェクタ装置3を用いる例を挙げたが、表示装置としては、液晶ディスプレイ装置や有機ELディスプレイ装置等のディスプレイ装置を用いることもできる。この場合、ディスプレイ装置の表示面を入力面Sとすることが考えられる。また、表示装置としては、入力面Sに対して反対側から画像投影を行うリアプロジェクション型のプロジェクタ装置を用いることもできる
<4.実施形態のまとめ>

 上記のように実施形態の情報処理装置(同1,1A)は、発光部を有する入力装置(電子ペン2又は2A)が発した光によって入力面に形成される光スポットを入力面の撮像画像に基づき検出し、光スポット内における所定の代表位置を入力位置の暫定位置である暫定入力位置として検出する位置検出部(同11c)と、入力装置の姿勢変化に連動して変化する姿勢変化連動情報(例えば、動きセンサの検出信号、又は光スポットSpを撮像するカメラ4の撮像画像)に基づき、入力面に対する入力装置の傾き状態を推定する傾き推定部(同11d、11dA)と、傾き推定部が推定した入力装置の傾き状態に基づいて、暫定入力位置を補正する補正部(位置補正部11f)と、を備えるものである。
 これにより、入力装置が入力面に対して傾いた場合には、暫定入力位置が入力装置の傾き状態に基づいて補正される。
 従って、入力位置の検出精度向上を図ることができる。
 また、実施形態としての情報処理装置においては、位置検出部は、光スポットの中心位置を暫定入力位置として検出している。
 これにより、暫定入力位置の検出は、入力面上に形成される光スポットの中心位置を検出するという簡易な処理で実現される。
 従って、暫定入力位置の検出に係る処理負担軽減を図ることができる。
 さらに、実施形態としての情報処理装置においては、補正部は、入力装置の傾き状態と暫定入力位置の補正値との対応関係を示すテーブル情報(座標補正テーブル15b)に基づき、傾き推定部が推定した入力装置の傾き状態に対応する補正値を取得し、取得した補正値に基づいて暫定入力位置の補正を行っている。
 これにより、入力装置の傾き状態に応じた暫定入力位置の補正にあたり、傾き状態から補正値を都度算出する処理を不要とすることが可能となる。
 従って、暫定入力位置の補正に係る処理負担軽減を図ることができる。また、暫定入力位置の補正までを含めた入力位置検出に要する時間の短縮化を図ることができる。
 さらにまた、実施形態としての情報処理装置においては、入力装置による入力位置を入力面上の既知の位置に一致させた状態において、入力装置の傾き状態を複数の異なる傾き状態に変化させたときの暫定入力位置を位置検出部に検出させ、各傾き状態で検出された暫定入力位置と既知の位置との差分値を傾き状態ごとの補正値として算出するキャリブレーション処理を行うキャリブレーション処理部(同11g、11gA)を備えている。
 上記のようなキャリブレーション処理を行うことで、暫定入力位置の補正に用いるテーブル情報としてユーザによる使用環境に適したテーブル情報を生成することが可能となる。
 従って、暫定入力位置の補正精度向上を図ることができ、入力位置の検出精度向上を図ることができる。
 また、実施形態としての情報処理装置においては、キャリブレーション処理部は、入力面を分割して形成される複数の領域ごとにキャリブレーション処理を行っている。
 これにより、入力装置の傾き状態と補正値との対応関係が入力面の領域ごとに変化する場合であっても、領域ごとに適切なテーブル情報を生成することが可能となる。
 従って、暫定入力位置の補正精度向上を図ることができ、入力位置の検出精度向上を図ることができる。
 さらに、実施形態としての情報処理装置においては、キャリブレーション処理部は、位置検出部に暫定入力位置を検出させていない傾き状態についての補正値を、位置検出部に暫定入力位置を検出させた傾き状態について算出した補正値から補間して求めている。
 これにより、キャリブレーションにおいて傾き状態を変化させる回数の削減が図られる。
 従って、キャリブレーションに要する作業負担の軽減を図ることができる。
 さらにまた、実施形態としての情報処理装置においては、キャリブレーション処理部は、既知の位置をガイドする情報(図14のマークMc)を入力面上に表示する処理を行っている。
 これにより、キャリブレーション時において入力装置による入力位置を入力面上の何れの位置に合わせればよいかをガイドすることが可能となる。
 従って、キャリブレーションに要する作業についての容易性の向上、及び作業効率の向上を図ることができる。
 また、実施形態としての情報処理装置においては、キャリブレーション処理部は、目標とする傾き状態をガイドする情報を入力面上に表示する処理を行っている(図14参照)。
 これにより、キャリブレーション時において入力装置を入力面に対してどのように傾ければよいかをガイドすることが可能となる。
 従って、キャリブレーションに要する作業についての容易性の向上、及び作業効率の向上を図ることができる。
 さらに、実施形態としての情報処理装置においては、キャリブレーション処理部は、目標とする傾き状態と傾き推定部が推定した傾き状態との差異を示す情報を入力面上に表示する処理を行っている。
 これにより、キャリブレーション時において入力装置を入力面に対してどのように傾ければよいかを適切にガイドすることが可能となる。
 従って、キャリブレーションに要する作業についての容易性の向上、及び作業効率の向上を図ることができる。
 さらにまた、実施形態としての情報処理装置においては、ペン型の入力装置について、暫定入力位置の検出、傾き状態の推定、及び暫定入力位置の補正を行っている。
 これにより、ペン型の入力装置による位置入力を可能とする入力システムについて、入力位置の検出精度向上を図ることができる。
 また、実施形態としての情報処理装置においては、傾き推定部は、入力装置の姿勢検出を行う姿勢検出部による姿勢検出結果に基づいて傾き状態を推定している。
 姿勢検出部としては、例えば入力装置に設けられた加速度センサや角速度センサ等の動きセンサによる検出信号に基づき姿勢検出を行うものや、入力装置を撮像した撮像画像に基づき姿勢検出を行うものを挙げることができる。
 上記のように姿勢検出部による姿勢検出結果を用いることで、入力装置の傾き状態を適切に推定することができる。
 さらに、実施形態としての情報処理装置においては、姿勢検出部(センサ部25及び姿勢算出部23c)は、入力装置に設けられて入力装置の動きを検出する動きセンサの検出信号に基づいて入力装置の姿勢情報を検出し、傾き推定部(同11d)は、姿勢検出部が検出した入力装置の姿勢情報を入力面の座標系における姿勢情報に変換し、変換後の姿勢情報に基づいて傾き状態を推定している。
 これにより、入力装置で検出される姿勢情報の座標系が入力面の座標系と一致しない場合であっても、入力面の座標系に適切に変換される。
 従って、入力装置の傾き状態を適切に推定することができる。
 さらにまた、実施形態としての情報処理装置においては、傾き推定部(同11dA)は、光スポットについての画像解析により傾き状態を推定している。
 入力面に対する入力装置の傾き状態が変化すると、光スポットの形状や輝度分布に変化が生じる。このため、上記のように光スポットについての画像解析を行うことで、入力装置の傾き状態を推定することが可能である。
 上記構成によれば、入力装置の傾き状態の推定のためには光スポットを撮像した撮像画像が取得されればよく、入力装置に対して姿勢検出部を設ける必要をなくすことが可能となる。そのため、入力装置の部品点数削減を図ることができ、入力装置の小型化、軽量化やコスト削減を図ることができる。
 また、入力装置の省電力化を図ることができ、同じ充電容量であってもより長時間の入力装置の利用が可能となる。
 また、実施形態としての情報処理装置においては、傾き推定部は、光スポットの形状を解析した結果に基づいて傾き状態を推定している(図21参照)。
 入力装置の傾き状態が変化すると、光スポットの形状が変化する。
 従って、上記のように光スポットについての形状解析結果に基づき入力装置の傾き状態を推定する構成とすることで、入力装置の傾き状態を適切に推定することができる。
 さらに、実施形態としての情報処理装置においては、傾き推定部は、光スポットの輝度変化方向の検出結果に基づき入力装置の傾き方向を推定し、光スポットに対する楕円フィッティング処理で求められた楕円の長軸又は短軸のうち傾き方向に対応する軸の長さに基づき入力装置の傾き角度を推定している(図21参照)。
 入力面に対する入力装置の傾き方向が変化すると、光スポットにおける輝度変化方向が変化し、また、入力面に対する入力装置の傾き角度が変化すると、光スポットを楕円とみなした際の長軸、短軸の長さが変化する。
 従って、上記構成によれば、入力面に対する入力装置の傾き方向、傾き角度を適切に推定することができる。
 また、実施形態としての情報処理方法は、情報処理装置が、発光部を有する入力装置が発した光によって入力面に形成される光スポットを入力面の撮像画像に基づき検出し、光スポット内における所定の代表位置を入力位置の暫定位置である暫定入力位置として検出し、入力装置の姿勢変化に連動して変化する姿勢変化連動情報に基づき、入力面に対する入力装置の傾き状態を推定し、推定した入力装置の傾き状態に基づいて、暫定入力位置を補正する情報処理方法である。
 このような情報処理方法によっても、上記した実施形態としての情報処理装置と同様の作用及び効果を得ることができる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
<5.本技術>

 本技術は以下のような構成も採ることができる。
(1)
 発光部を有する入力装置が発した光によって入力面に形成される光スポットを前記入力面の撮像画像に基づき検出し、前記光スポット内における所定の代表位置を入力位置の暫定位置である暫定入力位置として検出する位置検出部と、
 前記入力装置の姿勢変化に連動して変化する姿勢変化連動情報に基づき、前記入力面に対する前記入力装置の傾き状態を推定する傾き推定部と、
 前記傾き推定部が推定した前記入力装置の傾き状態に基づいて、前記暫定入力位置を補正する補正部と、を備える
 情報処理装置。
(2)
 前記位置検出部は、
 前記光スポットの中心位置を前記暫定入力位置として検出する
 前記(1)に記載の情報処理装置。
(3)
 前記補正部は、
 前記入力装置の傾き状態と前記暫定入力位置の補正値との対応関係を示すテーブル情報に基づき、前記傾き推定部が推定した前記入力装置の傾き状態に対応する前記補正値を取得し、取得した前記補正値に基づいて前記暫定入力位置の補正を行う
 前記(1)又は(2)に記載の情報処理装置。
(4)
 前記入力装置による入力位置を入力面上の既知の位置に一致させた状態において、前記入力装置の傾き状態を複数の異なる傾き状態に変化させたときの前記暫定入力位置を前記位置検出部に検出させ、各前記傾き状態で検出された前記暫定入力位置と前記既知の位置との差分値を前記傾き状態ごとの前記補正値として算出するキャリブレーション処理を行うキャリブレーション処理部を備えた
 前記(3)に記載の情報処理装置。
(5)
 前記キャリブレーション処理部は、
 前記入力面を分割して形成される複数の領域ごとに前記キャリブレーション処理を行う
 前記(4)に記載の情報処理装置。
(6)
 前記キャリブレーション処理部は、
 前記位置検出部に前記暫定入力位置を検出させていない前記傾き状態についての前記補正値を、前記位置検出部に前記暫定入力位置を検出させた前記傾き状態について算出した前記補正値から補間して求める
 前記(4)又は(5)に記載の情報処理装置。
(7)
 前記キャリブレーション処理部は、
 前記既知の位置をガイドする情報を前記入力面上に表示する処理を行う
 前記(4)から(6)の何れかに記載の情報処理装置。
(8)
 前記キャリブレーション処理部は、
 目標とする前記傾き状態をガイドする情報を前記入力面上に表示する処理を行う
 前記(4)から(7)の何れかに記載の情報処理装置。
(9)
 前記キャリブレーション処理部は、
 目標とする前記傾き状態と前記傾き推定部が推定した前記傾き状態との差異を示す情報を前記入力面上に表示する処理を行う
 前記(8)に記載の情報処理装置。
(10)
 ペン型の前記入力装置について、前記暫定入力位置の検出、前記傾き状態の推定、及び前記暫定入力位置の補正を行う
 前記(1)から(9)の何れかに記載の情報処理装置。
(11)
 前記傾き推定部は、
 前記入力装置の姿勢検出を行う姿勢検出部による姿勢検出結果に基づいて前記傾き状態を推定する
 前記(1)から(10)の何れかに記載の情報処理装置。
(12)
 前記姿勢検出部は、前記入力装置に設けられて前記入力装置の動きを検出する動きセンサの検出信号に基づいて前記入力装置の姿勢情報を検出し、
 前記傾き推定部は、
 前記姿勢検出部が検出した前記入力装置の姿勢情報を前記入力面の座標系における姿勢情報に変換し、変換後の前記姿勢情報に基づいて前記傾き状態を推定する
 前記(11)に記載の情報処理装置。
(13)
 前記傾き推定部は、
 前記光スポットについての画像解析により前記傾き状態を推定する
 前記(1)から(12)の何れかに記載の情報処理装置。
(14)
 前記傾き推定部は、
 前記光スポットの形状を解析した結果に基づいて前記傾き状態を推定する
 前記(13)に記載の情報処理装置。
(15)
 前記傾き推定部は、
 前記光スポットの輝度変化方向の検出結果に基づき前記入力装置の傾き方向を推定し、前記光スポットに対する楕円フィッティング処理で求められた楕円の長軸又は短軸のうち前記傾き方向に対応する軸の長さに基づき前記入力装置の傾き角度を推定する
 前記(13)又は(14)に記載の情報処理装置。
(16)
 情報処理装置が、
 発光部を有する入力装置が発した光によって入力面に形成される光スポットを前記入力面の撮像画像に基づき検出し、前記光スポット内における所定の代表位置を入力位置の暫定位置である暫定入力位置として検出し、
 前記入力装置の姿勢変化に連動して変化する姿勢変化連動情報に基づき、前記入力面に対する前記入力装置の傾き状態を推定し、
 推定した前記入力装置の傾き状態に基づいて、前記暫定入力位置を補正する
 情報処理方法。
100 入力システム
1,1A 情報処理装置
2,2A 電子ペン
ob 入力対象物
S 入力面
11,11A 制御部
11a 電子ペン管理部
11b 入出力画像管理部
11c 位置検出部
11d,11dA 傾き推定部
11e 姿勢合わせ処理部
11f 位置補正部
11g,11gA キャリブレーション処理部
15 メモリ部
15a 座標変換情報
15b 座標補正テーブル
21 発光部
22 スイッチ
23,23A 制御部
23a 発光制御部
23b 状態通知部
23c 姿勢算出部
25 センサ部
Sp 光スポット
Ol 輪郭
Pr 暫定入力位置
Pt 真値
Mc マーク
2’ ポインティングデバイス

Claims (16)

  1.  発光部を有する入力装置が発した光によって入力面に形成される光スポットを前記入力面の撮像画像に基づき検出し、前記光スポット内における所定の代表位置を入力位置の暫定位置である暫定入力位置として検出する位置検出部と、
     前記入力装置の姿勢変化に連動して変化する姿勢変化連動情報に基づき、前記入力面に対する前記入力装置の傾き状態を推定する傾き推定部と、
     前記傾き推定部が推定した前記入力装置の傾き状態に基づいて、前記暫定入力位置を補正する補正部と、を備える
     情報処理装置。
  2.  前記位置検出部は、
     前記光スポットの中心位置を前記暫定入力位置として検出する
     請求項1に記載の情報処理装置。
  3.  前記補正部は、
     前記入力装置の傾き状態と前記暫定入力位置の補正値との対応関係を示すテーブル情報に基づき、前記傾き推定部が推定した前記入力装置の傾き状態に対応する前記補正値を取得し、取得した前記補正値に基づいて前記暫定入力位置の補正を行う
     請求項1に記載の情報処理装置。
  4.  前記入力装置による入力位置を入力面上の既知の位置に一致させた状態において、前記入力装置の傾き状態を複数の異なる傾き状態に変化させたときの前記暫定入力位置を前記位置検出部に検出させ、各前記傾き状態で検出された前記暫定入力位置と前記既知の位置との差分値を前記傾き状態ごとの前記補正値として算出するキャリブレーション処理を行うキャリブレーション処理部を備えた
     請求項3に記載の情報処理装置。
  5.  前記キャリブレーション処理部は、
     前記入力面を分割して形成される複数の領域ごとに前記キャリブレーション処理を行う
     請求項4に記載の情報処理装置。
  6.  前記キャリブレーション処理部は、
     前記位置検出部に前記暫定入力位置を検出させていない前記傾き状態についての前記補正値を、前記位置検出部に前記暫定入力位置を検出させた前記傾き状態について算出した前記補正値から補間して求める
     請求項4に記載の情報処理装置。
  7.  前記キャリブレーション処理部は、
     前記既知の位置をガイドする情報を前記入力面上に表示する処理を行う
     請求項4に記載の情報処理装置。
  8.  前記キャリブレーション処理部は、
     目標とする前記傾き状態をガイドする情報を前記入力面上に表示する処理を行う
     請求項4に記載の情報処理装置。
  9.  前記キャリブレーション処理部は、
     目標とする前記傾き状態と前記傾き推定部が推定した前記傾き状態との差異を示す情報を前記入力面上に表示する処理を行う
     請求項8に記載の情報処理装置。
  10.  ペン型の前記入力装置について、前記暫定入力位置の検出、前記傾き状態の推定、及び前記暫定入力位置の補正を行う
     請求項1に記載の情報処理装置。
  11.  前記傾き推定部は、
     前記入力装置の姿勢検出を行う姿勢検出部による姿勢検出結果に基づいて前記傾き状態を推定する
     請求項1に記載の情報処理装置。
  12.  前記姿勢検出部は、前記入力装置に設けられて前記入力装置の動きを検出する動きセンサの検出信号に基づいて前記入力装置の姿勢情報を検出し、
     前記傾き推定部は、
     前記姿勢検出部が検出した前記入力装置の姿勢情報を前記入力面の座標系における姿勢情報に変換し、変換後の前記姿勢情報に基づいて前記傾き状態を推定する
     請求項11に記載の情報処理装置。
  13.  前記傾き推定部は、
     前記光スポットについての画像解析により前記傾き状態を推定する
     請求項1に記載の情報処理装置。
  14.  前記傾き推定部は、
     前記光スポットの形状を解析した結果に基づいて前記傾き状態を推定する
     請求項13に記載の情報処理装置。
  15.  前記傾き推定部は、
     前記光スポットの輝度変化方向の検出結果に基づき前記入力装置の傾き方向を推定し、前記光スポットに対する楕円フィッティング処理で求められた楕円の長軸又は短軸のうち前記傾き方向に対応する軸の長さに基づき前記入力装置の傾き角度を推定する
     請求項13に記載の情報処理装置。
  16.  情報処理装置が、
     発光部を有する入力装置が発した光によって入力面に形成される光スポットを前記入力面の撮像画像に基づき検出し、前記光スポット内における所定の代表位置を入力位置の暫定位置である暫定入力位置として検出し、
     前記入力装置の姿勢変化に連動して変化する姿勢変化連動情報に基づき、前記入力面に対する前記入力装置の傾き状態を推定し、
     推定した前記入力装置の傾き状態に基づいて、前記暫定入力位置を補正する
     情報処理方法。
PCT/JP2021/023056 2020-07-09 2021-06-17 情報処理装置、情報処理方法 WO2022009645A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-118526 2020-07-09
JP2020118526 2020-07-09

Publications (1)

Publication Number Publication Date
WO2022009645A1 true WO2022009645A1 (ja) 2022-01-13

Family

ID=79552996

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/023056 WO2022009645A1 (ja) 2020-07-09 2021-06-17 情報処理装置、情報処理方法

Country Status (1)

Country Link
WO (1) WO2022009645A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61194523A (ja) * 1985-02-23 1986-08-28 Nippon Telegr & Teleph Corp <Ntt> 座標入力表示装置
JP2001344069A (ja) * 2000-03-31 2001-12-14 Seiko Epson Corp 画像処理を用いた指示位置の検出
JP2012053603A (ja) * 2010-08-31 2012-03-15 Sanyo Electric Co Ltd 情報表示システム
JP2017181540A (ja) * 2016-03-28 2017-10-05 セイコーエプソン株式会社 プロジェクターおよび制御方法
WO2019013222A1 (ja) * 2017-07-14 2019-01-17 株式会社ワコム ペン座標とポインタの表示位置との間のズレを補正する方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61194523A (ja) * 1985-02-23 1986-08-28 Nippon Telegr & Teleph Corp <Ntt> 座標入力表示装置
JP2001344069A (ja) * 2000-03-31 2001-12-14 Seiko Epson Corp 画像処理を用いた指示位置の検出
JP2012053603A (ja) * 2010-08-31 2012-03-15 Sanyo Electric Co Ltd 情報表示システム
JP2017181540A (ja) * 2016-03-28 2017-10-05 セイコーエプソン株式会社 プロジェクターおよび制御方法
WO2019013222A1 (ja) * 2017-07-14 2019-01-17 株式会社ワコム ペン座標とポインタの表示位置との間のズレを補正する方法

Similar Documents

Publication Publication Date Title
CN110154017B (zh) 输送机跟踪系统以及校准方法
EP3619498B1 (en) Triangulation scanner having flat geometry and projecting uncoded spots
US10571254B2 (en) Three-dimensional shape data and texture information generating system, imaging control program, and three-dimensional shape data and texture information generating method
US10805546B2 (en) Image processing system, image processing device, and image processing program
KR20140008262A (ko) 로봇 시스템, 로봇, 로봇 제어 장치, 로봇 제어 방법 및 로봇 제어 프로그램
JP2017019072A (ja) 位置計測システム
JP6677522B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
TWI724977B (zh) 機器手臂的座標系校正設備及校正方法
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
JP2014089081A (ja) 計測装置及びその制御方法、プログラム
US20180222055A1 (en) Calibration article for a 3d vision robotic system
US11590657B2 (en) Image processing device, control method thereof, and program storage medium
JP2017100202A (ja) ロボットシステム、制御装置、制御方法、及びプログラム
JP7502003B2 (ja) 移動機械の移動軌跡のずれを取得する装置、及び方法
JP7216775B2 (ja) ロボットアームの座標系校正装置及び校正方法
JP2009222568A (ja) 3次元形状データの生成方法および装置ならびにコンピュータプログラム
WO2022009645A1 (ja) 情報処理装置、情報処理方法
JP2019077026A (ja) 制御装置、ロボットシステム、制御装置の動作方法及びプログラム
EP2957397B1 (en) Measurement system, object pickup system, measurement method, and carrier means
US11926064B2 (en) Remote control manipulator system and remote control assistance system
JP2006190212A (ja) 3次元位置入力装置
JP2021024052A (ja) 画像処理装置、画像処理方法およびプログラム
WO2021145280A1 (ja) ロボットシステム
CN115972192A (zh) 具有可变空间分辨率的3d计算机视觉系统
CN109917904B (zh) 虚拟现实或增强现实环境中对象的空间位置计算系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21837782

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21837782

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP