WO2019181118A1 - 3次元位置指示器及び3次元位置検出システム - Google Patents

3次元位置指示器及び3次元位置検出システム Download PDF

Info

Publication number
WO2019181118A1
WO2019181118A1 PCT/JP2018/046976 JP2018046976W WO2019181118A1 WO 2019181118 A1 WO2019181118 A1 WO 2019181118A1 JP 2018046976 W JP2018046976 W JP 2018046976W WO 2019181118 A1 WO2019181118 A1 WO 2019181118A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimensional
spatial
position indicator
position detection
indicator
Prior art date
Application number
PCT/JP2018/046976
Other languages
English (en)
French (fr)
Inventor
博史 宗像
浩 玉野
元昊 陳
Original Assignee
株式会社ワコム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ワコム filed Critical 株式会社ワコム
Priority to CN201880091007.5A priority Critical patent/CN111837096A/zh
Priority to JP2020507357A priority patent/JP7321995B2/ja
Priority to EP18910270.0A priority patent/EP3770732B1/en
Publication of WO2019181118A1 publication Critical patent/WO2019181118A1/ja
Priority to US17/010,652 priority patent/US11294478B2/en
Priority to US17/681,666 priority patent/US11934592B2/en
Priority to JP2023121723A priority patent/JP2023129627A/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/046Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by electromagnetic means

Definitions

  • the present invention relates to a three-dimensional position indicator and a three-dimensional position detection system suitable for use, for example, for three-dimensional drawing (3D drawing).
  • a drawing system that creates an animation image or the like by drawing a coordinate input device called a digitizer by continuously pointing the position with an electronic pen.
  • the operator detects the position while the pen tip of the electronic pen is in contact with the input surface of the tablet device incorporating the digitizer or is not in contact with the input surface of the tablet device.
  • a position instruction operation for generating a drawn image is performed in a state (hover state) placed in a possible upper region.
  • the digitizer detects a position designated by the electronic pen, generates a drawing image as a result of the detection, and displays it on the display screen. The operator performs drawing while confirming the drawing image displayed on the display screen.
  • drawing systems and applications that enable a drawing image displayed on a two-dimensional display screen to be visually expressed like a three-dimensional image have appeared.
  • the drawing system or application can move, dent, or inflate the drawing image generated using the digitizer based on the movement of the operator's hand or finger.
  • three-dimensional drawing expression processing is performed based on the detected motion operation (gesture).
  • Patent Document 1 US Pat. No. 9,367,169 uses a device including a touch sensor that detects an operator's finger touch and a motion sensor that detects a motion.
  • a touch controller configured to switch a touch sensor from a hover event detection mode to a gesture event detection mode in response is disclosed.
  • the hover event detection mode and the gesture event detection mode are switched in a hover region that is a space region within a limited distance range from the input surface of the touch sensor. It is necessary to perform a gesture while maintaining the hover state for. For this reason, since it is necessary for the operator to perform a gesture in a limited space area, there is a problem that it is difficult to perform the work for 3D drawing. Further, in Patent Document 1, since an operation with an operator's finger is assumed, there is also a problem that a finer instruction operation is difficult. Further, in Patent Document 1, since the hover event detection mode and the gesture event detection mode are switched according to a signal from the motion sensor, there is a problem that the inclination of the device has to be changed every time for switching. .
  • An object of the present invention is to provide a three-dimensional position indicator and a three-dimensional position detection system capable of solving the above problems.
  • a three-dimensional position indicator capable of instructing a position on the input surface of the position detection sensor and indicating a position in a three-dimensional space by a tip portion on one end side in the axial direction of the rod-shaped part
  • a spatial position indicator for interacting with an external device and causing the external device to detect the position and direction in the spatial coordinate system of the three-dimensional space is specified as the detected position and direction with respect to the tip.
  • an interaction part for interacting with the position detection sensor is provided in order to cause the position detection sensor to detect the indicated position by the tip part
  • the position indicated by the tip in the three-dimensional space can be calculated based on the position and direction detected by the interaction with the space position indicator and the specific positional relationship and direction
  • a three-dimensional position indicator is provided.
  • a three-dimensional position detection system comprising a three-dimensional position indicator, a position detection sensor, and a spatial position detection device having a tip portion on one end side in the axial direction of a rod-shaped portion as an indication position
  • the three-dimensional position indicator is The spatial position detecting device interacts with the spatial position detecting device to detect the position and direction in the spatial coordinate system of the three-dimensional space with the spatial position detecting device, and the spatial position detecting device
  • a spatial position index unit provided to be in a specific positional relationship and directional relationship with the detected position and direction;
  • an interaction unit provided in the rod-shaped part;
  • the spatial position detection device includes: Based on the position and direction detected by the interaction with the spatial position indicator of the three-dimensional position indicator and the specific positional relationship and direction relation, the three-dimensional position indicator in the three-dimensional space
  • a three-dimensional position detection system is provided that calculates a position indicated by the tip.
  • the three-dimensional position indicator configured as described above causes the position detection sensor to detect the position indicated by the tip on the one end side in the axial direction of the rod-shaped part by interacting with the position detection sensor by the interaction part.
  • the three-dimensional position indicator includes a spatial position index unit that interacts with an external device.
  • the spatial position detection device of the three-dimensional position detection system that is the external device includes a spatial position index unit of the three-dimensional position indicator. The position and direction of the three-dimensional position indicator in the three-dimensional space are detected by the above interaction. Therefore, in the above-described three-dimensional position detection system, the spatial position detection device can detect the position of the three-dimensional position indicator regardless of the positional relationship between the three-dimensional position indicator and the position detection sensor.
  • the operator can perform fine drawing on the input surface of the position detection sensor by a position instruction by the tip of the rod-shaped portion of the three-dimensional position indicator, By performing a gesture based on the movement of the position of the three-dimensional position indicator in a three-dimensional space having no positional relationship with the detection sensor, it is possible to perform an input operation on the 3D rendered image.
  • the three-dimensional position indicator detected by the position detection sensor And the indicated position by the three-dimensional position indicator detected by the spatial position detector.
  • the three-dimensional position indicator is used to switch the drawing operation with the position detection sensor and the gesture operation with the spatial position detection device as a series of operations, the three-dimensional position indicator is used.
  • the position indicated by the indicator varies depending on the operation, and the continuous position indicating operation cannot be performed, and there is a fear that the operation does not go smoothly.
  • the distal end portion on one end side in the axial direction of the rod-shaped portion has a specific position and a position and direction detected by the interaction between the spatial position indicator and the spatial position detection device. It is provided so as to have a relationship and a direction relationship.
  • the axial direction of the rod-shaped part is based on the position and direction detected by the interaction with the spatial position index part and the specific positional relation and directional relation with respect to the tip part. It is possible to detect the position of the tip portion on one end side as the designated position.
  • the user can set the distal end portion on one end side in the axial direction of the rod-shaped portion as the indicated position not only in the input surface of the position detection sensor but also in the three-dimensional space by the spatial position detection device.
  • consistency is maintained, and 3D drawing work can be performed smoothly.
  • the display unit is configured as a head-mounted display
  • the 3D drawing space is virtual reality (VR (Virtual Reality), MR (Mixed Reality), AR (Augmented Reality), etc.).
  • VR Virtual Reality
  • MR Magnetic Reality
  • AR Augmented Reality
  • the space is abbreviated as VR.
  • FIG. 1 is a diagram showing an outline of the overall configuration of the spatial position detection system according to the first embodiment in which a VR space is a 3D drawing space.
  • FIG. 2 is a block diagram illustrating a detailed configuration example of functions of respective units of the spatial position detection system according to the first embodiment.
  • the spatial position detection system includes a three-dimensional position indicator, a digitizer 20, a spatial position detection unit 30, a spatial drawing information generation device 40, and a head mounted display. (Hereinafter referred to as HMD) 50.
  • the space drawing information generation device 40 includes functions of an input information processing unit 41 and a display image generation unit 42 in this example, and is configured by a personal computer, for example.
  • the input information processing unit 41 has a function of a spatial position detection device.
  • each processing function executed by the program of the personal computer is shown as each “circuit” block for convenience of explanation.
  • the spatial drawing information generation device 40 including the input information processing unit 41 and the display image generation unit 42 is used.
  • the spatial position detection system of the present invention As a configuration comprising a three-dimensional position indicator, a digitizer 20, a spatial position detection unit 30, and an input information processing unit 41, the display image generation unit 42 may be provided separately.
  • the three-dimensional position indicator 10 sets the position of the tip on the one end side in the axial direction of the rod-shaped part as the indicated position on the input surface of the digitizer 20 and uses the spatial position detection unit 30 to It has a function to set the designated position in the three-dimensional space detected by the spatial position detection function.
  • the bar-shaped portion of the three-dimensional position indicator 10 is composed of an electronic pen 11 that can be inserted and removed.
  • a tip 11a of a core body (hereinafter referred to as a pen tip 11a) protruding from an opening at one end in the axial direction of a cylindrical casing of the electronic pen 11 is one end in the axial direction of the rod-shaped portion. It becomes the tip of the side.
  • an electromagnetic induction type electronic pen is used as an example, but the electronic pen 11 is not limited to the electromagnetic induction type, and may be an electrostatic coupling type electronic pen. .
  • the electronic pen 11 may be provided integrally or fixed without being detachable from the three-dimensional position indicator 10. That is, the rod-shaped portion may be provided integrally with or fixed to the three-dimensional position indicator 10. A detailed description of a configuration example of the three-dimensional position indicator 10 will be described later.
  • the digitizer 20 includes a thin rectangular parallelepiped casing 21, and the surface of the digitizer 20 is used as a position instruction input surface 21 ⁇ / b> S by the pen tip 11 a of the electronic pen 11 of the three-dimensional position indicator 10.
  • the digitizer 20 includes a position detection sensor unit 22 and a position detection circuit 23 (see FIG. 2).
  • the position detection sensor unit 22 has a plurality of loop coils arranged in the horizontal direction (X-axis direction) of the case of the digitizer 20 and the vertical direction (Y-axis direction) of the case. It is installed and configured.
  • the electronic pen 11 of the three-dimensional position indicator 10 is provided with a resonance circuit (not shown) including a coil and a capacitor on the pen tip 11a side, and the position detection sensor unit 22 of the digitizer 20 is provided.
  • the digitizer 20 is of an electromagnetic induction type in accordance with the electronic pen 11.
  • the digitizer 20 interacts with the electronic pen by electrostatic coupling.
  • the position detection circuit 23 of the digitizer 20 supplies a signal to the electronic pen 11 through the loop coil of the position detection sensor unit 22, receives a signal fed back from the electronic pen 11 through the loop coil, and based on the received signal.
  • the position indicated by the pen tip 11 a of the electronic pen 11 is detected in the detection area of the position detection sensor unit 22.
  • the digitizer 20 is configured to detect the position designated by the pen tip 11 a of the electronic pen 11 as the designated position of the electronic pen 11.
  • a plurality of loop coils of the sensor unit 22 are disposed so as to cover almost the entire area of the input surface 21S.
  • the position detection area where the digitizer 20 can detect the indicated position of the electronic pen 11 is a planar area when the pen tip 11a of the electronic pen 11 is in contact with the input surface 21S of the digitizer 20.
  • the pen tip 11a of the electronic pen 11 is not in contact with the input surface 21S of the digitizer 20, and the input surface 21S is orthogonal to the input surface 21S (the X-axis direction and the Y-axis direction are orthogonal).
  • it is separated in the Z-axis direction), it includes a spatial region (a hover region in the hover state of the electronic pen 11) in which the indicated position of the electronic pen 11 can be detected through transmission and reception of signals by electromagnetic coupling.
  • FIG. 3 is a diagram for explaining a detection space area of the indication position of the electronic pen 11 of the three-dimensional position indicator 10 in the digitizer 20, and includes the three-dimensional position indicator 10 in the spatial position detection unit 30 described later.
  • a detection space region (three-dimensional space region) of a detection target (referred to as an object) is also shown.
  • the position detection region DT in which the digitizer 20 can detect the indicated position of the electronic pen 11 is a planar region of the input surface 21S indicated by hatching in FIG. 3 and above the input surface 21S. It becomes the space area of a rectangular parallelepiped.
  • the length of the input surface 21S of the digitizer 20 in the X-axis direction is Lx
  • the length in the Y-axis direction is Ly
  • the critical height position in the Z-axis direction can detect the hover state.
  • Is Lz as shown in FIG. 3, P0 (0, 0, 0), P1 (Lx, 0, 0), P2 (Lx, Ly, 0), P3 (0, Ly, 0), P4 ( 0, 0, Lz), P5 (Lx, 0, Lz), P6 (Lx, Ly, Lz), P7 (0, Ly, Lz), the region surrounded by the coordinate point positions of the eight points is the position of the digitizer 20 It becomes the detection region DT.
  • the information on the designated position of the electronic pen 11 detected in the position detection area DT is supplied to the input information processing unit 41 of the space drawing information generating device 40.
  • the spatial position detection unit 30 sets a three-dimensional space area in which the digitizer 20 exists, detects the position of the three-dimensional position indicator 10 in the three-dimensional space area, and detects the position of the digitizer 20. It is comprised so that it can detect.
  • the spatial position detection unit 30 is configured to search for an object existing in the search area, using the spatial area including the position detection area DT of the digitizer 20 as a search area.
  • the objects detected by the spatial position detection unit 30 are the three-dimensional position indicator 10 and the digitizer 20.
  • the three-dimensional space area (search area) set by the spatial position detection unit 30 is referred to as a motion detection space area MD for convenience.
  • the spatial position detection unit 30 detects the position of the object by optical interaction with the object. As shown in FIGS. 1 and 2, two light emission tracking devices 31A are used. , 31B and an optical position notification unit (hereinafter referred to as a tracker) attached to the object.
  • a tracker an optical position notification unit
  • the tracker detects the infrared laser light from the light emission tracking devices 31A and 31B, and when the light reception sensor detects the reception of the infrared laser light, for example, to notify the light emission tracking devices 31A and 31B, And a light emitting unit made of LED (Light Emitting Diode).
  • a plurality of light receiving sensors are provided in each tracker so as to receive laser light from any direction.
  • the objects to which the tracker is mounted are the three-dimensional position indicator 10 and the digitizer 20. That is, in this example, in order to be able to notify the spatial position and orientation (direction of the input surface 21S) in the motion detection space region MD of the digitizer 20, the casing of the digitizer 20 that is a thin rectangular parallelepiped shape is used. A tracker 24A and a tracker 24B are attached to the upper left corner and the lower right corner. As described above, by using the tracker, not only the position but also the direction can be detected. Therefore, only one tracker may be attached to the digitizer 20.
  • the three-dimensional position indicator 10 has a pen tip 11 a side in the axial direction of the electronic pen 11.
  • a tracker 12 is mounted on the rear end side opposite to the above.
  • the tracker 12 constitutes a spatial position index part of the three-dimensional position indicator 10.
  • the tracker is also provided with, for example, a 9-axis sensor for detecting movement and direction (orientation) in this example. Then, the light receiving output of the light receiving sensor and the output of the 9-axis sensor are supplied from each tracker to the space drawing information generating device 40 by wire, wirelessly, or via an attached object.
  • the information from the trackers 12, 24A, 24B includes their own identification information.
  • the space drawing information generation device 40 detects the posture and movement of the object on which the tracker is mounted in the three-dimensional space from the light reception outputs of the plurality of light reception sensors from the tracker and / or the output of the 9-axis sensor.
  • the tracker may be provided with one of a plurality of light receiving sensors and a nine-axis sensor.
  • the two light emission tracking devices 31A and 31B have the same configuration, and each includes a laser light emitting unit for infrared laser light, and search means for searching the movement detection space region MD by the emitted infrared laser light. And optical position detecting means for detecting the light emission of the light emitting portions of the trackers 12, 24A, 24B that have received the infrared laser light.
  • the light emission tracking device 31A scans the motion detection space region MD in the horizontal direction with the infrared laser light, and sequentially sets the horizontal scanning position in the vertical direction at a predetermined pitch ⁇ X. Search to move. Further, the light emission tracking device 31B scans the motion detection space region MD in the vertical direction with the infrared laser light, and sequentially moves the vertical scanning position at a predetermined pitch ⁇ Y in the horizontal direction. Search.
  • Each of the trackers 12, 24A, and 24B monitors the reception of the infrared laser beam with a light receiving sensor, and turns on the light emitting unit composed of the LED when the reception of the infrared laser beam is detected.
  • the light emission tracking devices 31A and 31B detect the light emission of the light emitting units of the trackers 12, 24A and 24B, thereby detecting the position of the object on which the trackers 12, 24A and 24B are mounted in the motion detection space region MD. .
  • the light emission tracking devices 31A and 31B can also detect the elapsed time from the light emission time of the emitted infrared laser at the time of detection. It is configured. In this case, each of the trackers 12, 24A, 24B emits different light according to its own identification information.
  • the spatial position detection unit 30 sets the positions of the trackers 12, 24A, 24B attached to the object in the motion detection space area MD (that is, the positions of the objects) to the predetermined pitch ⁇ X and the predetermined pitch ⁇ Y.
  • the position can be detected with appropriate accuracy.
  • the two light emission tracking devices 31A and 31B are connected to the space drawing information generation device 40 in a wired or wireless manner, and the detected trackers 12, 24A and 31B are connected to the space drawing information generation device 40.
  • the spatial position information in the motion detection space area MD of 24B is notified.
  • the information from the two light emission tracking devices 31A and 31B includes their own identification information.
  • the spatial position information in the motion detection space region MD of the trackers 12, 24A, 24B detected by the two light emission tracking devices 31A, 31B is input to the space drawing information generation device 40 as shown in FIG. This is supplied to the spatial position detection circuit 410 of the information processing unit 41.
  • the light reception output of the light reception sensor from the trackers 12, 24A, and 24B and the detection output of the nine-axis sensor are also supplied to the spatial position detection circuit 410 of the input information processing unit 41 of the spatial drawing information generation device 40. .
  • the spatial position detection circuit 410 includes a position indicator detection circuit 4101, an indication position calculation circuit 4102, and a digitizer detection circuit 4103.
  • the three-dimensional position indicator 10 is described later.
  • the position indicator detection circuit 4101 is a three-dimensional position indicator in the motion detection space region MD based on the position information detected by the light emission tracking devices 31A and 31B by optical interaction with the tracker 12 of the three-dimensional position indicator 10.
  • 3 position including a direction in which the 3D position indicator 10 faces in the motion detection space region MD from the light receiving output of the light receiving sensor from the tracker 12 and the detection output of the 9 axis sensor.
  • the attitude of the indicator 10 is detected.
  • the posture of the three-dimensional position indicator 10 includes the axial direction of the electronic pen 11 as a rod-shaped portion and the rotational direction position (rotation angle) centered on this axial direction.
  • the indication position of the three-dimensional position indicator 10 is the position of the pen tip 11 a of the electronic pen 11, and is different from the position of the three-dimensional position indicator 10 detected by the position indicator detection circuit 4101.
  • the pen tip 11 a of the electronic pen 11 includes the position and direction of the three-dimensional position indicator 10 detected by the position indicator detection circuit 4101 of the spatial position detection circuit 410. It is attached and configured so as to have a specific positional relationship and directional relationship.
  • the indicated position calculation circuit 4102 includes the position information and direction information of the three-dimensional position indicator 10 detected by the position indicator detection circuit 4101 based on the specific position relationship and direction relationship described above, and the pen of the electronic pen 11. Correction information for detecting the position indicated by the tip 11a is stored in the correction memory 4102M.
  • the pointing position calculation circuit 4102 is based on the position information and direction information of the three-dimensional position pointer 10 detected by the position pointer detection circuit 4101 and the correction information stored in the correction memory 4102M. The position indicated by the pen tip 11a is calculated and output. Further, the pointing position calculation circuit 4102 determines the orientation of the electronic pen 11 in the axial direction (tilt of the electronic pen 11) based on the posture information of the three-dimensional position pointer 10 detected by the position pointer detection circuit 4101. In addition to the calculation, the rotation and movement of the electronic pen 11 are calculated and output as posture information of the electronic pen 11.
  • the digitizer detection circuit 4103 of the spatial position detection circuit 410 then detects the position of the digitizer 20 in the motion detection space region MD based on the positional information detected by the light emission tracking devices 31A and 31B by optical interaction with the trackers 24A and 24B. Is detected.
  • the digitizer detection circuit 4103 includes a digitizer including a direction in which the input surface 21S of the digitizer 20 faces in the motion detection space region MD from the light reception output of the light reception sensor from the trackers 24A and 24B and the detection output of the 9-axis sensor. 20 postures are detected, and the detected posture information is output together with the position information.
  • the operation information detection circuit 4104 detects and outputs operation information of the operation unit of the three-dimensional position indicator 10.
  • the input information processing unit 41 In the input information processing unit 41, the information on the position indicated by the pen tip 11a of the electronic pen 11 of the three-dimensional position indicator 10 in the position detection area DT detected by the digitizer 20 as described above, and the spatial position detection described above.
  • Information to be supplied to the display image generation unit 42 is generated from the posture information of the container 10 and the operation information. Then, the input information processing unit 41 supplies the generated information to the display image generation unit 42.
  • the display image generation unit 42 includes a drawing image generation circuit 421 for generating a 3D drawing image, and a VR image generation circuit 422 for generating a VR image to be displayed on the HMD 50.
  • processing related to generation of a 3D drawing image in the drawing image generation circuit 421 is referred to as 3D drawing system processing.
  • processing related to VR image generation in the VR image generation circuit 422 is referred to as VR image processing.
  • the 3D drawing image drawn in the motion detection space area MD including the position detection area DT of the digitizer 20 is displayed on the HMD 50 as a virtual display image, and the electronic pen of the 3D position indicator 10 is displayed. 11 and the digitized image of the digitizer 20 are displayed.
  • the drawing image generation circuit 421 generates a 3D drawing image based on the position indication by the pen tip 11 a of the electronic pen 11 of the three-dimensional position indicator 10 and the posture information of the electronic pen 11, and the three-dimensional position indicator 10. Based on the gesture executed by the operator, processing such as deformation, rotation, and movement of the 3D drawing image is performed. As shown in FIG. 2, the display image generation unit 42 is provided with a gesture detection processing circuit 423 for detecting a gesture executed by the operator of the three-dimensional position indicator 10. The gesture detection result at 423 is supplied to the drawing image generation circuit 421. The gesture detection processing circuit 423 detects a gesture executed by the operator of the three-dimensional position indicator 10 from the change in position and posture of the three-dimensional position indicator 10.
  • the VR image generation circuit 422 of the display image generation unit 42 generates a VR image to be displayed on the HMD 50.
  • the VR image includes the VR image of the electronic pen 11, the VR image of the digitizer 20, and the VR image of the 3D drawing image generated by the drawing image generation circuit 421. Note that a VR image of the three-dimensional position indicator 10 including the electronic pen 11 may be generated.
  • the input information processing unit 41 generates the drawing system processing information and the VR image system processing information as described above from the information from the digitizer 20 and the information from the spatial position detection unit 30. To the display image generation unit 42.
  • the input information processing unit 41 is more accurate than the spatial position detection unit 30.
  • the VR image generation circuit of the display image generation unit 42 uses the information on the position indicated by the pen tip 11a of the electronic pen 11 of the three-dimensional position indicator 10 detected by the digitizer 20 capable of detecting the position of the eleven pen tips 11a. 422.
  • the input information processing unit 41 is detected using the spatial position detection unit 30.
  • Information on the position of the pen tip 11 a of the electronic pen 11 of the three-dimensional position indicator 10 is supplied to the VR image generation circuit 422 of the display image generation unit 42. That is, the input information processing unit 41 indicates information on the indicated position of the three-dimensional position indicator 10, and the pen tip 11a of the electronic pen 11 of the three-dimensional position indicator 10 indicates which of the position detection area DT and the motion detection space area MD.
  • the image is switched according to whether the image is present in the display image generation unit 42 and supplied to the display image generation unit 42.
  • the input information processing unit 41 uses the pointing position calculation circuit 4102 based on the posture information of the three-dimensional position indicator 10 detected using the spatial position detection unit 30.
  • the calculated orientation information including the tilt and rotation of the electronic pen 11 is used for the drawing image generation circuit 421 and the VR image generation circuit 422 of the display image generation unit 42 regardless of the spatial position where the pen tip 11a of the electronic pen 11 is present. To supply.
  • the spatial coordinate system information of the position detection area DT of the digitizer 20 and the motion detection space area MD of the spatial position detection unit 30 in each of the 3D drawing system process and the VR image system process is used mutually. In this case, there is no problem as long as the two spatial coordinate systems can be made completely the same, but as described above, they can be set independently, so the following points need to be considered.
  • the three axes of the spatial coordinate system of the motion detection space area MD use the suffix s as the Xs axis, the Ys axis, and the Zs axis, and the X axis, Y of the spatial coordinate system of the detection area DT of the digitizer 20
  • the axis and the Z axis are shown separately.
  • the directions of the Xs axis, the Ys axis, and the Zs axis are shown as the same directions as the directions of the X axis, the Y axis, and the Z axis, but within the motion detection space region MD.
  • the Xs axis, Ys axis, and Zs axis directions are different from the X axis, Y axis, and Z axis directions because of the inclination of the input surface 21S when the digitizer 20 is installed. obtain.
  • the digitizer 20 is arranged in the motion detection space region MD of the spatial position detection unit 30, and the spatial coordinate system of the motion detection space region MD of the spatial position detection unit 30 is the position of the digitizer 20.
  • the detection area DT is configured to include at least a part of the spatial coordinate system as a common area.
  • the information on the indicated position by the pen tip 11a of the electronic pen 11 of the three-dimensional position indicator 10 is a common area between the spatial coordinate system of the position detection area DT and the spatial coordinate system of the motion detection space area MD. Is used to perform coordinate transformation using spatial position correction information described later.
  • the movement and the spatial coordinate system of the position detection region DT are performed.
  • the spatial coordinate system of the detection space region MD can be handled in common as one spatial coordinate system by considering the difference between the origin positions of both spatial coordinate systems. That is, for example, the offset values in the X-axis direction, the Y-axis direction, and the Z-axis direction between the origin position of the spatial coordinate system of the position detection area DT and the origin position of the spatial coordinate system of the motion detection space area MD are respectively set to OFSx and OFSy.
  • Zs) can be converted into coordinate values (X, Y, Z) in the spatial coordinate system of the position detection region DT.
  • the spatial coordinate system of the position detection area DT of the digitizer 20 provided independently and the motion detection space area MD of the spatial position detection unit 30 are provided.
  • the directions of the X axis, the Y axis, and the Z axis may be different from the directions of the Xs axis, the Ys axis, and the Zs axis.
  • the X-axis, Y-axis, and Z-axis directions are the same as the Xs-axis, Ys-axis, and Zs-axis directions, it is difficult to accurately define the offset value of the origin position. Therefore, there is a possibility that it may be different for each space position indicating system.
  • the coordinate positions in the two spatial coordinate systems will be different, and the spatial coordinate system of the position detection area DT of the digitizer 20 and the spatial coordinate system of the motion detection space area MD of the spatial position detection unit 30 will be two.
  • the spatial coordinate system is switched, for example, the coordinates of the position of the pen tip 11a of the electronic pen 11 on the display screen of the HMD 50 may change so as to jump. In this case, the user who is going to input a drawing image has to specify the indicated position again, which is inconvenient.
  • the position detection region is obtained by utilizing that at least a part of the position detection region DT of the digitizer 20 is a common space region with the motion detection space region MD of the spatial position detection unit 30.
  • Correction information for deviation between the spatial coordinate system of the DT and the spatial coordinate system of the motion detection space area MD is generated to perform coordinate conversion.
  • the coordinate values (Xs, Ys, Zs) of the motion detection space area MD detected using the spatial position detection unit 30 are used as the coordinates of the spatial coordinate system of the position detection area DT of the digitizer 20.
  • the correction information for the conversion will be described next.
  • the position detection region DT is utilized by utilizing that at least a part of the position detection region DT of the digitizer 20 is a common space region with the motion detection space region MD of the spatial position detection unit 30. Correction information for conversion between the spatial coordinate system of the motion detection space region MD and the spatial coordinate system of the motion detection space region MD is generated.
  • At least three points Pa, Pb, and Pc in the common spatial region of the position detection region DT of the digitizer 20 and the motion detection space region MD of the spatial position detection unit 30 are specified.
  • the coordinate values obtained from these devices will be the same value, but unless calibration is performed, these coordinate values usually do not match.
  • the coordinate values of the spatial coordinate system of the motion detection space region MD of the spatial position detection unit 30 are used as the digitizer. It is preferable to match the coordinate values of the spatial coordinate system of the 20 position detection areas DT.
  • the coordinate values (X, Y, Z) of the corresponding position detection area DT and the coordinate values (Xs, Ys, Substituting Zs) into Equation 1 yields three equations.
  • the conversion between the spatial coordinate system of the position detection region DT and the spatial coordinate system of the motion detection space region MD is not limited to the above method, and at least three coordinate values in the common region are learned by machine learning, User calibration or the like may be used.
  • the difference between the spatial coordinate system of the position detection area DT of the digitizer 20 and the spatial coordinate system of the motion detection space area MD of the spatial position detection unit 30 is detected.
  • the correction is made so that it can be handled as a common coordinate system, but this correction processing is performed in the input information processing unit 41.
  • the information on the indicated position of the electronic pen 10 is represented by the spatial coordinate system of the position detection area DT of the digitizer 20 and the spatial coordinate system of the motion detection space area MD of the spatial position detection unit 30. Even if they are switched, since both can be handled as a common coordinate system, for example, the state where the indication position by the pen tip 11a of the electronic pen 11 is not changed does not occur.
  • the spatial position indicating system of the first embodiment is configured to have at least a part of the position detection area DT of the digitizer 20 as a common area in the motion detection space area MD of the spatial position detection unit 30. .
  • the position of the pen tip 11a of the electronic pen 11 of the three-dimensional position indicator 10 in the space of the motion detection space region MD from the input surface 21S of the sensor unit 22 of the digitizer 20 is detected.
  • the coordinates of the indicated position of the pen tip 11a of the electronic pen 11 of the three-dimensional position indicator 10 detected by the digitizer 20 are used, or the three-dimensional position indicator detected using the spatial position detection unit 30. Whether to use the coordinates of the indicated position of the pen tip 11a of the ten electronic pens 11 is switched.
  • the digitizer 20 can detect the hover state of the electronic pen 11 of the three-dimensional position indicator 10 based on the separation distance (separation distance in the Z-axis direction) ⁇ th from the input surface 21S serving as a switching point. It is set to a critical height distance Lz or less in the Z-axis direction.
  • the separation distance ⁇ th from the input surface 21 ⁇ / b> S serving as a switching point is the Z-axis direction in which the digitizer 20 can detect the hover state of the electronic pen 11 of the three-dimensional position indicator 10. Is set equal to the critical height distance Lz, that is, the length Lz of the position detection region DT in the Z-axis direction.
  • the digitizer 20 when the distance from the input surface 21S of the pen tip 11a of the electronic pen 11 of the three-dimensional position indicator 10 is ⁇ th or less, the digitizer 20 However, the information on the position indicated by the pen tip 11a of the electronic pen 11 of the three-dimensional position indicator 10 detected in the position detection area DT is used.
  • the separation distance (the separation distance in the Z-axis direction) of the position of the pen tip 11a of the electronic pen 11 of the three-dimensional position indicator 10 from the input surface 21S of the sensor unit 22 of the digitizer 20 is the distance of the digitizer 20 in this embodiment. Since the signal level (signal strength) of the reception signal from the electronic pen 11 at the sensor unit 22 is a value corresponding to the separation distance, the input information processing unit 41 receives the reception signal from the electronic pen 11 obtained from the digitizer 20. It detects based on the signal level.
  • the position detection circuit 23 constituting the digitizer 20 supplies the selection circuit 411 with the detection output of the indication position of the pen tip 11a of the electronic pen 11 of the three-dimensional position indicator 10 as one of the input signals thereof, and the selection.
  • One input signal is supplied to the circuit 412.
  • the information supplied from the position detection circuit 23 to the selection circuits 411 and 412 includes a brush applied to the pen tip 11 a of the electronic pen 11 in addition to the detection output of the indicated position of the pen tip 11 a of the electronic pen 11. Pressure information is included.
  • the indication position calculation circuit 4102 of the spatial position detection circuit 410 outputs the detection output of the spatial position of the pen tip 11 a of the electronic pen 11 (indication position of the electronic pen 11) of the three-dimensional position indicator 10 to the coordinate conversion circuit 413.
  • the coordinate conversion circuit 413 stores the components a 11 to a 33 of the matrix of 3 rows and 3 columns of (Expression 1) described above, and performs spatial position detection by performing the calculation of (Expression 1) described above.
  • Information on the spatial coordinate system of the motion detection space area MD of the unit 30 is converted into information on the spatial coordinate system of the position detection area DT of the digitizer 20. Then, the coordinate conversion circuit 413 supplies the converted coordinate output to the selection circuits 411 and 412 as the other input signal.
  • the position detection circuit 23 of the digitizer 20 supplies information on the signal level of the received signal from the electronic pen 10 to the selection control signal generation circuit 414.
  • the selection control signal generation circuit 414 detects and detects the separation distance from the input surface 21S of the digitizer 20 of the pen tip 11a of the electronic pen 11 of the three-dimensional position indicator 10 from the signal level of the received signal from the electronic pen 10.
  • the selection control signal SE is generated based on the separation distance from the input surface 21S.
  • the generated selection control signal SE is supplied to selection circuits 411 and 412.
  • the selection circuits 411 and 412 can detect the separation distance from the input surface 21S of the digitizer 20 of the pen tip 11a of the electronic pen 11 and the hover state of the electronic pen 11 by the digitizer 20 by the selection control signal SE. When it is below the critical height Lz in the Z-axis direction, it is controlled to select the position detection output from the position detection circuit 23 of the digitizer 20, and when it is greater than the critical height Lz, the output from the coordinate conversion circuit 413 is output. Controlled to select.
  • information on the indicated position of the pen tip 11a of the electronic pen 11 of the three-dimensional position indicator 10 from the selection circuit 411 is supplied to the drawing image generation circuit 421 for 3D drawing processing and the gesture detection processing circuit 423.
  • Information on the indicated position of the pen tip 11a of the electronic pen 11 of the three-dimensional position indicator 10 from the selection circuit 412 is supplied to the VR image generation circuit 422 for VR image processing.
  • the orientation information of the electronic pen 11 from the indicated position calculation circuit 4102 of the spatial position detection circuit 410 and the operation information of the operation unit of the three-dimensional position indicator 10 from the operation information detection circuit 4104 are the drawing image generation circuit. 421, the gesture detection processing circuit 423, and the VR image generation circuit 422. Further, the position information and orientation information of the digitizer 20 from the digitizer detection circuit 4103 are supplied to the drawing image generation circuit 421 and the VR image generation circuit 422, respectively. As will be described later, in the drawing image generation circuit 421, the posture information of the digitizer 20 is used to convert the posture information of the electronic pen 11 into information of a relative posture with respect to the input surface of the digitizer 20.
  • the drawn image generation circuit 421 is based on the detection output of the indicated position of the pen tip 11a of the electronic pen 11 from the selection circuit 411 and the information on the attitude of the electronic pen 11 detected by the spatial position detection unit 30. It has a pen drawing function for drawing simple line drawings and the like.
  • the drawn image generation circuit 421 also detects the movement (gesture) detected by the gesture detection processing circuit 423 based on the spatial position of the electronic pen 11 detected by the spatial position detection unit 30 and the posture information of the electronic pen.
  • a gesture processing function for performing a drawing process based on the above.
  • the selection control signal SE from the selection control signal generation circuit 414 is supplied to the drawing image generation circuit 421 and the gesture detection processing circuit 423.
  • the drawing image generation circuit 421 executes the pen drawing function when the position of the pen tip 11a of the electronic pen 11 of the three-dimensional position indicator 10 is within the space area of the position detection area DT of the digitizer 20.
  • the gesture detection processing circuit 423 operates to execute gesture processing when the position of the pen tip 11a of the electronic pen 11 is outside the space area of the position detection area DT of the digitizer 20.
  • the drawing image generation circuit 421 the inclination included in the posture information of the electronic pen 11 is reflected in the thickness of the drawing line, and the inclination is determined by the position of the pen tip 11a of the electronic pen 11. When it is within the position detection area DT, it is necessary to set the inclination with respect to the input surface 21S of the digitizer 20.
  • the orientation information of the electronic pen 11 from the indicated position calculation circuit 4102 is detected using the spatial position detection unit 30, the surface direction of the input surface 21S of the digitizer 20 is determined by the spatial position detection unit 30. In the motion detection space region MD in FIG. 2, the inclination of the digitizer 20 with respect to the input surface 21S is not shown.
  • the drawn image generation circuit 421 and the gesture detection processing circuit 423 also perform processing based on the operation information of the operation unit of the three-dimensional position indicator 10 from the operation information detection circuit 4104.
  • the VR image generation circuit 422 of the display image generation unit 42 uses the information on the position of the pen tip 11 a of the electronic pen 11 of the three-dimensional position indicator 10 and the information on the attitude of the electronic pen 11 from the selection circuit 412. Eleven VR images are generated.
  • the VR image of the electronic pen 11 is generated so that the position of the pen tip 11a of the electronic pen 11 is displayed at the detected indication position.
  • the coordinate conversion circuit 413 performs coordinate conversion so that the information on the indicated position of the pen tip 11a of the electronic pen 11 from the spatial position detection circuit 410 becomes the same indicated position information as the digitizer 20. For this reason, the information on the position of the pen tip 11a of the electronic pen 11 of the three-dimensional position indicator 10 from the selection circuit 412 does not change when the selection circuit 412 is switched by the selection control signal SE. Therefore, there is no display shift such as a movement of the display position of the VR image of the electronic pen 11 so as to jump.
  • the VR image generation circuit 422 generates a VR image of the digitizer 20 based on the position and orientation information of the digitizer 20 from the digitizer detection circuit 4103 and displays it in the motion detection space region MD. . Further, the VR image generation circuit 422 further receives the operation information of the operation unit of the three-dimensional position indicator 10 from the operation information detection circuit 4104, and displays, for example, a menu for 3D drawing or VR of the operation button. Or display an image.
  • the drawing image generation circuit 421 recognizes the position of the VR image of the menu and the VR image of the operation button in the motion detection space region MD, and the pen tip 11a of the electronic pen 11 of the three-dimensional position indicator 10 It is possible to detect whether or not the VR image position has been instructed (similar to clicking) and perform corresponding processing.
  • the 3D drawing image information generated by the drawing image generation circuit 421 as described above is supplied to the VR image generation circuit 422 to be a VR image, and is supplied to the HMD 50 through the display drive circuit 424 together with the VR image described above. Displayed.
  • FIG. 5 is a perspective view showing an appearance of the three-dimensional position indicator 10 of this embodiment.
  • FIG. 6 is a figure for demonstrating the component of the three-dimensional position indicator 10 of this embodiment, and its assembly.
  • the three-dimensional position indicator 10 of this embodiment includes an electronic pen 11 shown in FIG. 6A and a holder 13 that constitutes a gripping part that is gripped by the user.
  • the tracker 12 constituting the spatial position index part is attached to the holder 13.
  • the tip end portion of the core body protrudes as a pen tip 11a from one opening side in the axial direction of the cylindrical rod-shaped casing 110.
  • a coil wound around a ferrite core is arranged near the pen tip 11a in the hollow portion of the cylindrical casing 110 of the electronic pen 11 and the hollow portion 110
  • the printed circuit board provided with the capacitor is provided with a capacitor which is connected in parallel with the coil and forms a resonance circuit.
  • the electronic pen 11 is provided with a side switch 11 s that controls on / off of the capacitor for changing the frequency of the resonance circuit, exposed from the housing 110 so as to be operable by the user. It has been.
  • the holder 13 includes a grip portion 131 that is covered with a palm portion when the user grips the three-dimensional position indicator 10, an electronic pen attachment portion 132, and a tracker attachment portion 133.
  • the electronic pen mounting portion 132 has a cylindrical shape, and the electronic pen 11 is inserted in the axial center direction from the rear end portion 11b opposite to the pen tip 11a side and locked to the holder 13.
  • the cylindrical concave hole portion 132a is provided. When the electronic pen 11 is inserted and attached, the cylindrical concave hole portion 132a exposes the pen tip 11a side, and exposes the side switch 11s to the outside and holds it in an operable state. As described above, it has a length in the axial direction.
  • the electronic pen 11 is provided with a ring-shaped concave groove 11c on the rear end portion 11b side in the axial direction, and in the cylindrical concave hole portion 132a. Is formed with a ring-shaped protrusion 132b that fits into the ring-shaped concave groove 11c of the electronic pen 11 to lock the electronic pen 11 in the cylindrical concave hole 132a.
  • a step portion 11d is formed on the rear end portion 11b side of the electronic pen 11, and when the step portion 11d abuts the end portion of the cylindrical concave hole portion 132a, the step of the electronic pen 11 is performed.
  • the ring-shaped concave groove 11c and the ring-shaped protrusion 132b in the cylindrical concave portion 132a are fitted, and the electronic pen 11 is configured to be locked in the cylindrical concave portion 132a of the electronic pen mounting portion 132. Has been.
  • the configuration in which the electronic pen 11 is locked in the cylindrical concave portion 132a of the electronic pen mounting portion 132 is limited to the configuration in which the ring-shaped concave groove 11c and the ring-shaped protrusion 132b are provided as in this example. Instead, when the step portion 11d on the rear end portion 11b side of the electronic pen 11 collides with the end portion of the cylindrical concave portion 132a, the electronic pen 11 is inserted into the cylindrical concave portion 132a of the electronic pen mounting portion 132. Any configuration may be used as long as it can be locked inside.
  • the grip portion 131 extends from the peripheral side surface of the cylindrical electronic pen mounting portion 132 in a direction orthogonal to the axial direction, and is configured to be easily gripped by the user.
  • the grip portion 131 is provided with operation buttons 131a and 131b at locations where the user can operate with the index finger or the like when gripped by the user, and can be rotated and pressed by the user's thumb.
  • An operation unit 131c is provided.
  • the three-dimensional position indicator 10 shown in FIGS. 5 and 6 the three-dimensional position indicator 10 is for a left-handed user, and the circular operation unit 131c grips the grip unit 131 with the left hand. Sometimes it is attached so that it can be operated with the thumb of the left hand.
  • the tracker mounting portion 133 is arranged in a direction orthogonal to the axial direction from the opposite angular position of the circumferential side surface of the cylindrical electronic pen mounting portion 132 that is 180 degrees different from the angular position where the grip portion 131 is formed. It is attached to extend.
  • the tracker 12 described above is provided for the tracker mounting portion 133. Therefore, when the user grips the grip portion 131 so that the user wraps it in the palm, the tracker 12 attached to the tracker mounting portion 133 is located above the back of the hand and is not covered with the hand.
  • the tracker 12 is shaped to have three protrusions on the upper surface (plane) 12a of the disk-shaped member. As shown in FIG. 5 and FIGS. 6B and 6C, the tracker 12 has three pieces so that the infrared laser can be received no matter which direction the infrared laser comes from.
  • a plurality of light receiving sensors 121 are provided on the protrusions and the disk-shaped member.
  • one of the three protrusions of the tracker 12 is provided with an LED 122 as a light emitting element for notifying the received light by light emission when any of the light receiving sensors 121 receives the infrared laser. .
  • the 9-axis sensor is provided inside the tracker 12.
  • a cable for connecting to the space drawing information generation device 40 is connected to the tracker 12.
  • a connector is provided, and a communication means is provided inside the tracker 12 when connecting wirelessly.
  • the tracker 12 has a track direction in which the surface direction of the upper surface 12a of the disk-shaped member (the direction in which the surface including the upper surface 12a faces) is
  • the mounting unit 133 is attached in a state orthogonal to the extending direction of the mounting unit 133 and parallel to the axial direction of the cylindrical electronic pen mounting unit 132.
  • LED122 is attached on the extension direction of the tracker mounting part 133.
  • the position indicator detection circuit 4101 of the spatial position detection circuit 410 uses the tracker 12 as the position of the tracker 12 in the spatial coordinate system of the motion detection space region MD.
  • the position Pt of the LED 122 provided is detected.
  • the position indicator detection circuit 4101 as described above, as the direction (direction) of the three-dimensional position indicator 10, in this example, the surface direction of the upper surface 12 a of the tracker 12 (the direction in which the plane including the upper surface faces). ) Is detected.
  • the position Pt of the tracker 12 detected by the position indicator detection circuit 4101 of the spatial position detection circuit 410 is different from the position Pp of the pen tip 11 a of the electronic pen 11 mounted on the holder 13. ing.
  • the position Pt of the tracker 12 (the position of the LED 122) detected by the position indicator detection circuit 4101 of the spatial position detection circuit 410 and the position Pp of the pen tip 11a of the electronic pen 11 mounted on the holder 13 are 3
  • the dimension position indicator 10 has a specific positional relationship.
  • the three-dimensional coordinate system that defines the mechanical configuration of the three-dimensional position indicator 10 has a cylindrical shape parallel to the upper surface 12a of the tracker 12 with the position Pt of the tracker 12 as the origin, as shown in FIG.
  • the direction parallel to the axial center direction of the shaped electronic pen mounting portion 132 is defined as the coordinate axis Zt
  • the direction parallel to the upper surface 12a of the tracker 12 and orthogonal to the axial direction of the cylindrical electronic pen mounting portion 132 is defined as the coordinate axis Yt.
  • the direction perpendicular to the upper surface 12a of the tracker 12 (the direction perpendicular to the coordinate axes Zt and Yt) is set as the coordinate axis Xt.
  • the deviation amount ⁇ x in the Xt-axis direction and the deviation amount ⁇ z in the Zt-axis direction are the three-dimensional position indicator. It can be defined as 10 mechanical dimension values. That is, ⁇ x is obtained as a dimension from the position of the LED 122 to the central axis position of the electronic pen mounting portion 132, and ⁇ z is determined from the intersection position between the position of the LED 122 and the central axis position of the electronic pen mounting portion 132. It is calculated
  • the position Pt of the tracker 12 detected by the spatial position detection circuit 410 using the spatial position detection unit 30 is the spatial coordinate system (Xs, Ys, Zs) in the spatial position detection circuit 410, and is described above. It must be considered that the directions of the coordinate axes do not always coincide with the three-dimensional coordinate system (Xt, Yt, Zt) that defines the mechanical configuration of the three-dimensional position indicator 10. This is because the three-dimensional position indicator 10 is used by being directed in an arbitrary direction by the user.
  • the direction of the three-dimensional position indicator 10 detected by the position indicator detection circuit 4101 is the spatial position. It is detected by the spatial position detection circuit 410 using the detection unit 30. If the direction in which the upper surface 12a of the tracker 12 faces can be detected, the direction of each coordinate axis of the three-dimensional coordinate system (Xt, Yt, Zt) that defines the mechanical configuration of the three-dimensional position indicator 10 described above is It can be specified by the spatial coordinate system (Xs, Ys, Zs) in the spatial position detection circuit 410.
  • the direction of each coordinate axis of the three-dimensional coordinate system (Xt, Yt, Zt) that defines the mechanical configuration of the three-dimensional position indicator 10 indicates the spatial coordinate system (Xs, Ys, Zs)
  • the spatial coordinate system (Xs) of the spatial position detection circuit 410 can be obtained by using the correction value COR from the position Pt of the tracker 12 detected by the position indicator detection circuit 4101 of the spatial position detection circuit 410.
  • Ys, Zs the indicated position of the pen tip 11a of the electronic pen 11 can be calculated.
  • the tracker 12 is set so that the correction value COR can be easily set from the mechanical dimension value of the three-dimensional position indicator 10.
  • the electronic pen mounting unit 132 and the electronic pen 11 are configured as described above.
  • the tracker 12 may be attached to the holder 13 in any state.
  • the correction value COR can be obtained as follows and stored in the correction memory 4102M.
  • the three-dimensional position indicator 10 is adjusted in the space of the motion detection space region MD by adjusting the direction of the tracker 12 to define the mechanical configuration of the three-dimensional position indicator 10 (Xt, Yt , Zt) such that the direction of each coordinate axis coincides with the direction of each coordinate axis of the spatial coordinate system (Xs, Ys, Zs) detected by the spatial position detection circuit 410 using the spatial position detection unit 30.
  • the direction of each coordinate axis coincides with the direction of each coordinate axis of the spatial coordinate system (Xs, Ys, Zs) detected by the spatial position detection circuit 410 using the spatial position detection unit 30.
  • the position Pp of the pen tip 11 a of the electronic pen 11 of the three-dimensional position indicator 10 is detected using the digitizer 20, and the detected coordinate value is detected using the spatial position detection unit 30.
  • the position Pt of the tracker 12 of the three-dimensional position indicator 10 is detected as a coordinate value of a spatial coordinate system (Xs, Ys, Zs) detected by the spatial position detection circuit 410.
  • a deviation amount ( ⁇ x, ⁇ y, ⁇ z) between the detected coordinate value of the position Pt of the tracker 12 and the coordinate value of the position Pp of the pen tip 11a of the electronic pen 11 is calculated, and the calculated deviation amounts ( ⁇ x, ⁇ y) , ⁇ z) is stored in the correction memory 4102M as the correction value COR.
  • the storage process of the correction value COR in the correction memory 4102M may be performed when the spatial position detection system is constructed, or may be performed later by the user as appropriate.
  • a drawing operation is performed on the digitizer 20 using the three-dimensional position indicator 10, and a gesture operation or the like is performed in the space defined by the spatial position detection unit 30.
  • the pointing position can always be the position of the pen tip 11a of the electronic pen 11 of the three-dimensional position pointing device 10, the user can perform a consistent operation from drawing to gesture. There is an effect that can be performed.
  • the spatial coordinates of the detection area of the digitizer 20 and the spatial coordinates of the detection area of the spatial position detection unit 30 can be handled as common coordinates. Further, even when the output from the digitizer 20 and the output of the spatial position detection unit 30 are switched, there is a feature that no coordinate deviation occurs.
  • the operator can move the electronic pen 10 spatially on the digitizer 20 without being aware of switching between the digitizer 20 and the spatial position detection unit 30, and can perform operations from a fine drawing to a gesture seamlessly. Can do.
  • the position information of the electronic pen 11 (position information of the pen tip 11a) for generating the VR image of the electronic pen 11 of the three-dimensional position indicator 10 in the VR image processing.
  • the position detection output of the digitizer 20 with higher accuracy and faster reaction speed than the detection output of the spatial position detection unit 30 can be used.
  • a VR image that responds accurately according to the operation of the electronic pen 11 by the user is obtained.
  • each circuit portion of the input information processing unit 41 and the display image generation unit 42 may be configured as a software function unit that is executed by a software program. Needless to say, you can.
  • correction value ( ⁇ x, ⁇ y, ⁇ z) information is stored in advance in the correction memory 4102M of the indicated position calculation circuit 4102 at the time of factory shipment.
  • the correction memory 4102M may transmit correction value information from the three-dimensional position indicator 10 as a buffer memory.
  • the three-dimensional position indicator 10 adds the light reception output information of the light reception sensor of the tracker 12, the output information of the 9-axis sensor, and the operation information of the operation buttons 131a and 131b.
  • the correction value ( ⁇ x, ⁇ y, ⁇ z) information is transmitted to the spatial position detection circuit 410.
  • the pointing position calculation circuit 4102 of the spatial position detection circuit 410 the position of the pen tip 11a of the electronic pen 11 is used as the pointing position of the three-dimensional position pointer 10 using the correction value held in the correction memory 4102M as the buffer memory.
  • ID means identification information of the three-dimensional position indicator 10.
  • the three-dimensional position indicator used in the spatial position detection system ones having different amounts of deviation between the position of the tracker 12 and the position of the pen tip 11a of the electronic pen 11 can be used.
  • a plurality of types of electronic pens having different axial lengths can be attached to the three-dimensional position indicator 10.
  • the three-dimensional position indicator 10 stores a correction value corresponding to each of the electronic pens having different lengths in the axial direction, and any one of the correction values is stored. The user can select and set whether to use it by operating the operation means according to the attached electronic pen.
  • the electronic pen 11 can be inserted and removed in the three-dimensional position indicator 10 of the first embodiment described above, the electronic pen 11 may be fixed to the holder 13.
  • the electronic pen 11 is not used, but the functional portion of the electronic pen 11, that is, the coil wound around the ferrite core, and the resonance circuit connected in parallel to the coil are disposed in the rod-shaped portion.
  • the bar-shaped part may be configured integrally with the holder 13 by disposing the capacitor to be configured.
  • the second embodiment is a modification of the above-described first embodiment, and the same reference numerals are given to the same portions as the respective portions of the above-described first embodiment, and the description thereof is omitted.
  • the position of the pen tip 11a of the electronic pen 11 is always set as the indicated position by the three-dimensional position indicator 10.
  • the position of the tracker 12 may be used as an indication position so that it can be used for other purposes.
  • the position of the pen tip 11a of the mounted electronic pen 11 is the same as in the first embodiment.
  • the position of the tracker 12 is used as the designated position as it is.
  • FIG. 9 is a diagram for explaining a configuration example of a main part of the three-dimensional position indicator 10A of the second embodiment.
  • FIG. 9 shows a cross-sectional view of a part of the grip portion 131, the electronic pen attachment portion 132, and the tracker attachment portion 133 of the holder 13A of the three-dimensional position indicator 10A of the second embodiment.
  • the holder 13A of the three-dimensional position indicator 10A is provided with mounting detection means for detecting whether or not the electronic pen 11 is mounted.
  • the mounting detection output of the electronic pen 11 by the mounting detection unit is transmitted through the tracker 12 together with the light receiving output of the light receiving sensor and the spatial position detection circuit of the space drawing information generating device 40A in the second embodiment.
  • 410A (see FIG. 10) is notified.
  • it may be configured such that the mounting detection output of the electronic pen 11 from the mounting detection means is notified not to the tracker 12 but to the spatial position detection circuit 410A of the spatial rendering information generating device 40A independently.
  • a switch member 134 including a pressing element 134a that can be elastically displaced in the direction of an arrow AR is used as the attachment detection means.
  • the switch member 134 is in a switch-off state, for example, in a state in which the pressing member 134a is not pressed and protrudes outside the casing of the switch member 134, and the pressing member 134a is pressed and pushed into the casing of the switch member 134. In this state, the switch is turned on.
  • FIG. 10 shows a configuration example of the space drawing information generating apparatus 40A, particularly the space position detecting circuit 410A in the case of the second embodiment.
  • the same parts as those of the space rendering information generation device 40 and the space position detection circuit 410 of the first embodiment described above are denoted by the same reference numerals, and detailed description thereof is omitted. .
  • an electronic pen attachment detection circuit 4105 is used in addition to the position indicator detection circuit 4101, the pointing position calculation circuit 4102, the digitizer detection circuit 4103, and the operation information detection circuit 4104. And a switch circuit 4106 are provided.
  • the electronic pen attachment detection circuit 4105 receives and analyzes the attachment detection output of the electronic pen 11 from the three-dimensional position indicator 10A, detects whether or not the electronic pen 11 is attached to the electronic pen attachment unit 132, A mounting detection output DP is output as the detection result.
  • Information TI of the position of the tracker 12 of the three-dimensional position indicator 10A detected by the position indicator detection circuit 4101 is supplied to one input terminal T of the switch circuit 4106, and the indication position is supplied to the other input terminal P.
  • Information PI on the position of the pen tip 11a of the mounted electronic pen 11 calculated by the calculation circuit 4102 is supplied.
  • the switch circuit 4106 is supplied with the mounting detection output DP of the electronic pen mounting detection circuit 4105 as a switching control signal.
  • the switch circuit 4106 is switched to one input end T side and outputs the position information TI of the tracker 12 as output information by the attachment detection output DP.
  • the electronic pen 11 is attached to the three-dimensional position indicator 10A, it is switched to the other input end P side, and information PI on the position of the pen tip 11a of the electronic pen 11 is output as output information.
  • output information of the switch circuit 4106 is supplied to the coordinate conversion circuit 413.
  • the attachment detection output DP of the electronic pen attachment detection circuit 4105 is supplied to the VR image generation circuit 422A.
  • the VR image generation circuit 422A determines from the attachment detection output DP that the electronic pen 11 is attached to the three-dimensional position indicator 10A, the VR image of the electronic pen 11 is the same as that in the first embodiment. Is generated and displayed on the HMD 50.
  • the VR image generation circuit 422A determines that the electronic pen 11 is not attached to the three-dimensional position indicator 10A based on the attachment detection output DP, in the second embodiment, the VR image of the electronic pen 11 is determined. Is generated, for example, a VR image of the tracker 12 or a predetermined mark is generated at the position of the detected tracker 12 and displayed on the HMD 50.
  • the same operation as in the first embodiment is performed only when the electronic pen 11 is attached to the three-dimensional position indicator 10A.
  • the electronic pen 11 is not attached to the three-dimensional position indicator 10A, it can be used for other purposes using the tracker position.
  • a switch member is used as a mounting detection means for automatically detecting when the electronic pen 11 is mounted on the electronic pen mounting portion 132A of the holder 13 of the three-dimensional position indicator 10A.
  • the mounting detection means is not limited to the switch member 134.
  • the mounting detection means for automatically detecting when the electronic pen 11 is mounted on the electronic pen mounting portion 132A of the holder 13 of the three-dimensional position indicator 10A.
  • the user may notify the space position detection circuit 410A of the space drawing information generation device 40A of the attachment of the electronic pen 11 by the user's operation.
  • the electronic pen 11 is actually attached. Even if the electronic pen 11 is virtually mounted on the three-dimensional position indicator 10, the VR image generation circuit 422A can generate a VR image of the electronic pen 11 and display it on the HMD 50. it can.
  • the holder 13 is configured to include the grip portion 131.
  • a three-dimensional position indicator having a holder 13 ⁇ / b> B including an electronic pen mounting portion 132 and a tracker mounting portion 133 without including the grip portion 131. 10B may be configured.
  • the three-dimensional position indicator 10B is shown in FIGS. 5 and 6 except that the configuration of the holder is changed as shown with the same reference numerals in FIGS. 11 (A), (B), and (C). The same configuration as that of the three-dimensional position indicator 10 described with reference to FIG.
  • the operation buttons 131a and 131b shown in FIGS. 5 and 6 may be provided on the electronic pen mounting portion 132.
  • the electronic pen 11 may be fixed to the holder 13B, and the function of the electronic pen 11 is not used in the rod-shaped portion as the rod-shaped portion.
  • the rod-like portion may be configured integrally with the holder 13B.
  • the spatial position detection unit 30 includes a light emission tracking device that emits infrared laser light and a tracker.
  • the configuration is not limited to this configuration.
  • a configuration using other invisible light sensors, visible light sensors, or a combination thereof may be used.
  • the electronic pen is provided with a battery and a radio wave transmission / reception means, and the radio pen transmits a radio wave from the outside and receives the radio wave from the electronic pen to detect the spatial position of the electronic pen. It is good also as a structure.
  • the thing using a magnetic resonance and the thing using an ultrasonic wave may be used.
  • the object (electronic pen or tablet) whose spatial position is detected may be photographed with one or a plurality of cameras, and the spatial position of the object may be detected using the photographed image.
  • the VR image of the digitizer 20 is generated and the operator recognizes the position of the digitizer 20 on the display screen of the HMD 50.
  • the HMD is compatible with AR (augmented reality).
  • the digitizer 20 may be configured so that it can be directly seen.
  • the gesture based on the movement of the electronic pen is detected in the space area outside the position detection area DT of the digitizer. It is also possible to detect the position indicated by the pen tip of the electronic pen instead of the movement and use it for drawing.
  • the method of detecting the separation distance between the position of the pen tip 11a of the electronic pen 11 and the input surface of the digitizer 20 is not limited to this.
  • the spatial position detection unit 30 can detect the position of the pen tip 11a of the electronic pen 10 and the position of the input surface 21S of the digitizer 20, the detected position of the pen tip 11a of the electronic pen 11 is detected. And the distance between the position of the pen tip 11a of the electronic pen 11 and the input surface 21S of the digitizer 20 is detected from the position of the input surface 21S of the digitizer 20, and the selection control signal of the selection circuit 401 is generated. Good.
  • the means for displaying a three-dimensional image is not limited to the HMD, and a 3D display, an AI (Aerial Imaging) plate, and a hologram technique may be used.
  • the digitizer 20 may be provided with a display such as an LCD, and 3D display may be performed on the display. These display means may be used together with the HMD so that a person other than the wearer of the HMD can view a drawing image displayed on the HMD.
  • the coordinate conversion is such that the coordinate value of the pen tip of the electronic pen detected by the spatial position detection unit 30 is converted to the coordinate value of the coordinate system in the digitizer 20, but conversely the electronic detected by the digitizer 20 You may make it convert the coordinate value of the pen point of a pen into the coordinate value of the coordinate system in the unit 30 for space position detection.
  • the electronic pen and the digitizer are electromagnetic induction types.
  • the electronic pen and digitizer are not limited to these, and are not limited to the electrostatic type (active electrostatic coupling type, passive electrostatic coupling type). Of course) and other types of electronic pens and digitizers can also be used.
  • the digitizer of the above-described embodiment may be a portable mobile phone terminal called a so-called smart phone, or may be a personal computer with a digitizer.
  • the drawing image targeted by the present invention may be a 2D drawing image or a 2.5D drawing image.
  • SYMBOLS 10 Three-dimensional position indicator, 11 ... Electronic pen, 11a ... Pen tip of electronic pen 11, 12 ... Tracker, 13 ... Holder, 20 ... Digitizer, 22 ... Position detection sensor, 23 ... Position detection circuit, 24A, 24B ... Tracker, 30 ... spatial position detection unit, 31A, 31B ... emission tracking device, 40 ... spatial drawing information generation device, 41 ... input information processing unit, 42 ... display image generation unit, 50 ... HMD, 131 ... grip unit, 132 ... Electronic pen attachment part, 133 ... Tracker attachment part, 410 ... Spatial position detection circuit, 413 ... Coordinate conversion circuit, 421 ... Drawing image generation circuit, 422 ... VR image generation circuit

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

位置検出センサの入力面と、空間位置検出装置による3次元空間とで、同じ指示位置とすることで、操作作業に一貫性が保たれる3次元位置指示器を提供する。 外部装置とインタラクションして3次元空間の空間座標系における位置と方向とを外部装置に検出させるための空間位置指標部が、棒状部の軸心方向の一端側の先端部に対して、検出される位置及び方向と特定の位置関係及び方向関係となるように設けられている。棒状部内には、先端部による指示位置を、位置検出センサで検出させるために、位置検出センサとインタラクションするためのインタラクション部が設けられている。外部装置において、空間位置指標部とのインタラクションにより検出された位置及び方向と、特定の位置関係及び方向関係とに基づいて、3次元空間における棒状部の軸心方向の一端側の先端部による指示位置を算出可能とする。

Description

3次元位置指示器及び3次元位置検出システム
 この発明は、例えば3次元描画(3D描画)のために用いて好適な3次元位置指示器及び3次元位置検出システムに関する。
 デジタイザと呼ばれる座標入力装置に対して、電子ペンにより連続的に位置指示することにより描画することで、アニメーション画像などを作成する描画システムが知られている。この場合に、操作者は、電子ペンのペン先を、デジタイザを内蔵したタブレット装置の入力面に接触させた状態で、あるいは、タブレット装置の入力面には非接触の状態ではあるが、位置検出可能な上方領域に置いた状態(ホバー状態)で、描画画像を生成するための位置指示操作するようにする。デジタイザは、電子ペンにより指示された位置を検出し、その検出結果として描画画像を生成し、表示画面に表示する。操作者は、表示画面に表示されている描画画像を確認しながら、描画を実行するようにする。
 最近は、2次元の表示画面に表示された描画画像を、視覚的に、3次元画像のように描画表現することができるようにする描画システムやアプリケーションが登場している。その場合には、描画システムやアプリケーションは、操作者の手や指の動きによる、デジタイザを用いて生成した描画画像に対して、削ったり、凹ましたり、膨らませたりなどの動き操作(ジャスチャー)を、動きセンサを用いて検出し、その検出した動き操作(ジェスチャー)に基づいて3次元の描画表現処理を行うようにするものが多い。
 ところで、上述のような位置指示入力とジェスチャーなどの操作入力の両方を行えるユーザインターフェースが提供されている。例えば特許文献1(米国特許第9367169号明細書)には、操作者の指タッチを検出するタッチセンサと、動きを検出するモーションセンサを備える装置を用いるものであって、モーションセンサからの信号に応答してタッチセンサをホバーイベント検出モードからジェスチャイベント検出モードに切り替えるように構成されたタッチコントローラが開示されている。
米国特許第9367169号明細書
 しかしながら、特許文献1においては、タッチセンサの入力面から限定された距離範囲の空間領域であるホバー領域において、ホバーイベント検出モードとジェスチャイベント検出モードとを切り替えるものであり、操作者は、タッチセンサに対するホバー状態を維持してジェスチャーを行う必要がある。このため、操作者は、制限された空間領域でジェスチャーを行う必要があるため、3D描画のための作業がし辛いという問題がある。また、特許文献1では、操作者の指での操作を想定しているために、より細かい指示操作がし辛いという問題もある。また、特許文献1においては、モーションセンサからの信号に応じてホバーイベント検出モードとジェスチャイベント検出モードとを切り替えるので、切替のためにデバイスの傾きを、都度、変更しなければならないという問題がある。
 この発明は、以上の問題点を解決することができるようにした3次元位置指示器及び3次元位置検出システムを提供することを目的とする。
 上記の課題を解決するために、
 棒状部の軸心方向の一端側の先端部により、位置検出センサの入力面における位置指示が可能であると共に、3次元空間における位置指示が可能である3次元位置指示器であって、
 外部装置とインタラクションして前記3次元空間の空間座標系における位置と方向とを前記外部装置に検出させるための空間位置指標部が、前記先端部に対して、前記検出される位置及び方向と特定の位置関係及び方向関係となるように設けられていると共に、
 前記棒状部内には、前記先端部による指示位置を、前記位置検出センサで検出させるために、前記位置検出センサとインタラクションするためのインタラクション部が設けられており、
 前記外部装置において、前記空間位置指標部とのインタラクションにより前記検出された位置及び方向と、前記特定の位置関係及び方向関係とに基づいて、前記3次元空間における前記先端部による指示位置を算出可能とする
 ことを特徴とする3次元位置指示器を提供する。
 また、上記の課題を解決するために、
 棒状部の軸心方向の一端側の先端部を指示位置とする3次元位置指示器と、位置検出センサと、空間位置検出装置とを備える3次元位置検出システムであって、
 前記3次元位置指示器は、
 前記空間位置検出装置とインタラクションして前記3次元空間の空間座標系における位置と方向とを前記空間位置検出装置で検出させるためのものであって、前記先端部に対して前記空間位置検出装置で検出される位置及び方向と特定の位置関係及び方向関係となるように設けられている空間位置指標部と、
 前記位置検出センサとインタラクションして、前記先端部による指示位置を前記位置検出センサで検出させるために、前記棒状部内に設けられるインタラクション部と、
 を備え、
 前記空間位置検出装置は、
 前記3次元位置指示器の前記空間位置指標部とのインタラクションにより前記検出された位置及び方向と、前記特定の位置関係及び方向関係とに基づいて、前記3次元空間における前記3次元位置指示器の前記先端部による指示位置を算出する
 ことを特徴とする3次元位置検出システムを提供する。
 上述の構成の3次元位置指示器は、インタラクション部により位置検出センサとインタラクションすることで、棒状部の軸心方向の一端側の先端部による指示位置を位置検出センサで検出させるようにする。
 そして、3次元位置指示器は、外部装置とインタラクションする空間位置指標部を備えており、外部装置である3次元位置検出システムの空間位置検出装置は、3次元位置指示器の空間位置指標部とのインタラクションにより、3次元位置指示器の3次元空間における位置及び方向を検出する。したがって、上述の3次元位置検出システムにおいては、空間位置検出装置は、3次元位置指示器の位置を、3次元位置指示器と位置検出センサとの位置関係とは無関係に検出することができる。
 この構成により、上述の3次元位置検出システムにおいては、操作者は、位置検出センサの入力面上で、3次元位置指示器の棒状部の先端部による位置指示によって精細な描画ができると共に、位置検出センサとの位置関係の制限無い3次元空間で、3次元位置指示器の位置の動きに基づくジェスチャーをすることにより、3D描画像に対する入力操作をすることができる。
 ここで、3次元位置指示器の空間位置指標部の位置が、棒状部の軸心方向の先端部とは異なる位置となっている場合には、位置検出センサで検出される3次元位置指示器による指示位置と、空間位置検出装置で検出される3次元位置指示器による指示位置とで異なってしまう。このようになると、3次元位置指示器を用いて、位置検出センサでの描画操作と、空間位置検出装置でのジェスチャー操作とを一連の操作として切り替えて作業するようにする場合に、3次元位置指示器による指示位置が、操作によって異なってしまうことなり、連続的な位置指示操作ができなくなってしまい、作業がスムースに行くなく恐れがある。
 しかし、上述の構成の3次元位置指示器では、棒状部の軸心方向の一端側の先端部は、空間位置指標部と空間位置検出装置とのインタラクションにより検出される位置及び方向と特定の位置関係及び方向関係となるように設けられている。これにより、空間位置検出装置においては、空間位置指標部とのインタラクションにより検出される位置及び方向と、上記の先端部についての特定の位置関係及び方向関係とに基づいて、棒状部の軸心方向の一端側の先端部の位置を指示位置として検出することができる。
 したがって、使用者は、位置検出センサの入力面のみではなく、空間位置検出装置による3次元空間においても、棒状部の軸心方向の一端側の先端部を指示位置とすることができ、操作作業に一貫性が保たれ、スムースに3次元描画作業を行うことができるようになる。
この発明による空間位置検出システムの第1の実施形態の概要を説明するための図である。 この発明による空間位置検出システムの第1の実施形態の構成例を説明するためのブロック図である。 この発明による空間位置指示システムの第1の実施形態における空間座標系を説明するための図である。 この発明による空間位置指示システムの第1の実施形態における電子ペンの位置検出用の座標系の切り替えを説明するための図である。 この発明による3次元位置指示器の第1の実施形態の外観を示す斜視図である。 この発明による3次元位置指示器の第1の実施形態の構成例を説明するための図である。 この発明による3次元位置指示器の第1の実施形態の構成例を説明するための図である。 この発明による3次元位置指示器の第1の実施形態の他の構成例を説明するための図である。 この発明による3次元位置指示器の第2の実施形態の構成例を説明するための図である。 この発明による空間位置検出システムの第2の実施形態の構成例を説明するためのブロック図である。 この発明による3次元位置指示器の他の実施形態の構成例を説明するための図である。
 以下、この発明による空間位置検出システムの幾つかの実施形態を、図を参照しながら説明する。
 [第1の実施形態]
 この発明による第1の実施形態の空間位置検出システムは、表示部をヘッドマウントディスプレイの構成として、3D描画空間をバーチャルリアリティー(VR(Virtual Reality)、MR(Mixed Reality)、AR(Augmented Reality)などを含む。以下、VRと略称する)の空間とした例である。
 図1は、VRの空間を3D描画空間とした、この第1の実施形態の空間位置検出システムの全体の構成の概要を示す図である。また、図2は、この第1の実施形態の空間位置検出システムの各部の機能の詳細構成例を示すブロック図である。
 この第1の実施形態の空間位置検出システムは、図1に示すように、3次元位置指示器と、デジタイザ20と、空間位置検出用ユニット30と、空間描画情報生成装置40と、ヘッドマウントディスプレイ(以下、HMDと称する)50とを備えて構成されている。空間描画情報生成装置40は、図2に示すように、この例では、この例では、入力情報処理部41と表示画像生成部42との機能を備えるもので、例えばパーソナルコンピュータで構成される。入力情報処理部41は、空間位置検出装置の機能を備える。なお、図2に示すように、この明細書においては、パーソナルコンピュータのプログラムで実行される処理機能のそれぞれを、説明の便宜上、各「回路」ブロックとして示している。
 なお、この第1の実施形態の空間位置検出システムでは、入力情報処理部41と表示画像生成部42とを備える空間描画情報生成装置40を用いるようにしたが、この発明の空間位置検出システムとしては、3次元位置指示器と、デジタイザ20と、空間位置検出用ユニット30と、入力情報処理部41とからなる構成として、表示画像生成部42は、別途設けるように構成してもよい。
 3次元位置指示器10は、棒状部の軸心方向の一端側の先端の位置を、デジタイザ20の入力面における指示位置とすると共に、空間位置検出用ユニット30を用いて入力情報処理部41の空間位置検出機能で検出する3次元空間における指示位置とする機能を有する。
 図1に示すように、この例では、3次元位置指示器10の棒状部は、挿脱可能とされる電子ペン11で構成されている。この例では、電子ペン11の筒状の筐体の軸心方向の一方の端部の開口から突出する芯体の先端11a(以下、ペン先11aという)が、棒状部の軸心方向の一端側の先端となる。電子ペン11としては、この第1の実施形態においては、電磁誘導方式の電子ペンを例に用いるが、電磁誘導方式に限定されるものではなく、静電結合方式の電子ペンであってもよい。
 なお、電子ペン11は、3次元位置指示器10に対して挿脱可能とせずに、一体的に、あるいは、固定されて設けられていても勿論よい。つまり、棒状部は、3次元位置指示器10に一体的に、あるいは、固定されて設けられていてもよい。3次元位置指示器10の構成例の詳細な説明については後述する。
 デジタイザ20は、この例では、薄型の直方体形状の筐体21を備え、その表面を3次元位置指示器10の電子ペン11のペン先11aによる位置指示の入力面21Sとしている。そして、デジタイザ20は、位置検出センサ部22と、位置検出回路23(図2参照)とを備える。
 位置検出センサ部22は、図示は省略するが、複数個のループコイルが、それぞれ、デジタイザ20の筐体の横方向(X軸方向)と、筐体の縦方向(Y軸方向)とに配設されて構成されている。3次元位置指示器10の電子ペン11は、図示は省略するが、ペン先11a側にコイルとコンデンサとからなる共振回路(図示は省略)を備えており、デジタイザ20の位置検出センサ部22のループコイルと、電子ペン11の共振回路との間で、電磁誘導結合することで、電子ペン11とデジタイザ20の位置検出センサ部22との間でインタラクションして信号の授受を行う。なお、この例では、デジタイザ20は、電子ペン11に合わせて電磁誘導方式のものとされているが、静電結合方式の場合には、電子ペンと静電結合によりインタラクションをする。
 デジタイザ20の位置検出回路23は、位置検出センサ部22のループコイルを通じて電子ペン11に信号を供給すると共に、電子ペン11から帰還される信号をループコイルを通じて受信し、その受信した信号に基づいて、位置検出センサ部22の検出領域において電子ペン11のペン先11aにより指示された位置を検出する。この実施形態では、デジタイザ20は、電子ペン11のペン先11aで指示された位置を電子ペン11の指示位置として検出するように構成されている。
 この例のデジタイザ20では、入力面21Sのほぼ全域をカバーするようにセンサ部22の複数個のループコイルが配設されている。
 そして、この実施形態では、デジタイザ20で電子ペン11の指示位置を検出することができる位置検出領域は、電子ペン11のペン先11aがデジタイザ20の入力面21Sに接触しているときの平面領域のみならず、電子ペン11のペン先11aがデジタイザ20の入力面21Sに非接触であって、入力面21Sとは、当該入力面21Sに直交する方向(X軸方向及びY軸方向に直交するZ軸方向)に離間しているが、電磁結合による信号の授受を通して電子ペン11の指示位置を検出することができる空間領域(電子ペン11のホバー状態のホバー領域)を含む。
 図3は、デジタイザ20における3次元位置指示器10の電子ペン11の指示位置の検出空間領域を説明するための図であり、後述する空間位置検出用ユニット30における3次元位置指示器10を含む検出対象物(オブジェクトという)の検出空間領域(3次元空間領域)を併せて示している。
 例えば、図1において、デジタイザ20の入力面21Sの左上隅の位置P0を、X軸方向、Y軸方向及びZ軸方向の原点の座標((X,Y,Z)=(0,0,0))としたとき、デジタイザ20における電子ペン11の指示位置の検出が可能となる位置検出領域DTは、図3において、斜線を付して示す入力面21Sの平面領域及び当該入力面21Sの上方の直方体の空間領域となる。
 すなわち、図3に示すように、デジタイザ20の入力面21SのX軸方向の長さをLx、Y軸方向の長さをLy、ホバー状態を検出することができるZ軸方向の臨界高さ位置をLzとすると、図3に示すように、P0(0,0,0)、P1(Lx,0,0)、P2(Lx,Ly,0)、P3(0,Ly,0)、P4(0,0,Lz)、P5(Lx,0,Lz)、P6(Lx,Ly,Lz)、P7(0,Ly,Lz)の8点の座標点位置で囲まれる領域が、デジタイザ20の位置検出領域DTとなる。このデジタイザ20において、位置検出領域DTにおいて検出された電子ペン11の指示位置の情報は、空間描画情報生成装置40の入力情報処理部41に供給される。
 空間位置検出用ユニット30は、この例では、デジタイザ20が存在する3次元空間領域を設定して、当該3次元空間領域において、3次元位置指示器10の位置を検出すると共に、デジタイザ20の位置を検出することができるように構成されている。
 空間位置検出用ユニット30は、図3に示すように、デジタイザ20の位置検出領域DTを含む空間領域を探索領域として、その探索領域に存するオブジェクトを探索するように構成されている。この実施形態では、空間位置検出用ユニット30で検出するオブジェクトは、3次元位置指示器10及びデジタイザ20とされている。以下の説明においては、この空間位置検出用ユニット30により設定される3次元空間領域(探索領域)を、便宜上、動き検出空間領域MDと記すこととする。
 空間位置検出用ユニット30は、この実施形態では、オブジェクトとの間での光学的なインタラクションによりオブジェクトの位置を検出するもので、図1及び図2に示すように、2個の発光追跡装置31A,31Bと、オブジェクトに取り付けられた光位置通知部(以下、トラッカーと称する)とを含んで構成されている。
 トラッカーは、発光追跡装置31A,31Bからの赤外線レーザ光を検知する受光センサと、受光センサで赤外線レーザ光の受光を検知したときに、発光追跡装置31A,31Bのそれを通知するための、例えばLED(Light Emitting Diode)からなる発光部とを備えている。受光センサは、いずれの方向からのレーザ光も受光することができるように、複数個が各トラッカーに設けられている。
 トラッカーが装着されるオブジェクトは、この実施形態では、3次元位置指示器10と、デジタイザ20である。すなわち、この例では、デジタイザ20の動き検出空間領域MDにおける空間位置及び向き(入力面21Sの向き)を通知することができるようにするために、薄型の直方体形状であるデジタイザ20の筐体の左上隅と右下隅とに、トラッカー24Aとトラッカー24Bとが装着されている。なお、上述のように、トラッカーを用いることで、位置だけでなく方向も検出することができるので、デジタイザ20に取り付けるトラッカーは、1個でもよい。
 また、3次元位置指示器10の動き検出空間領域MDにおける空間位置及び向きを通知するために、3次元位置指示器10には、この例では、電子ペン11の軸心方向のペン先11a側とは反対側の後端側にトラッカー12が装着されている。トラッカー12は、3次元位置指示器10の空間位置指標部を構成する。
 トラッカーには、また、この例では、動きや方向(向き)を検出するための例えば9軸センサも設けられている。そして、トラッカーのそれぞれから、受光センサの受光出力や9軸センサの出力が、有線で、または無線で、あるいは、取り付けられているオブジェクト経由で、空間描画情報生成装置40に供給される。この場合に、トラッカー12,24A,24Bからの情報には、それぞれ自身の識別情報が含まれる。
 空間描画情報生成装置40では、トラッカーからの複数個の受光センサの受光出力及び/または9軸センサの出力から、トラッカーが装着されているオブジェクトの3次元空間における姿勢や動きを検出する。なお、トラッカーが装着されているオブジェクトの3次元空間における姿勢や動きを検出するには、トラッカーには、複数個の受光センサと、9軸センサのいずれか一方が設けられていればよい。
 2個の発光追跡装置31A,31Bは、同一の構成を有するもので、それぞれ赤外線レーザ光のレーザ発光部と、発光した赤外線レーザ光により動き検出空間領域MD内をサーチするようにするサーチ手段と、赤外線レーザ光を受けたトラッカー12,24A,24Bの発光部の発光を検知する光位置検知手段とを備える。
 この場合に、例えば、発光追跡装置31Aは、赤外線レーザ光により、動き検出空間領域MD内を水平方向に走査すると共に、その水平方向の走査位置を、所定のピッチτXで、順次に垂直方向に移動するようにサーチする。また、発光追跡装置31Bは、赤外線レーザ光により、動き検出空間領域MD内を垂直方向に走査すると共に、その垂直方向の走査位置を、所定のピッチτYで、順次に水平方向に移動するようにサーチする。
 トラッカー12,24A,24Bのそれぞれは、赤外線レーザ光の受光を、受光センサで監視し、赤外線レーザ光の受光を検出したときに、LEDからなる発光部を点灯する。
 発光追跡装置31A,31Bは、トラッカー12,24A,24Bの発光部の発光を検知することで、当該トラッカー12,24A,24Bが装着されているオブジェクトの動き検出空間領域MD内における位置を検出する。発光追跡装置31A,31Bは、トラッカー12,24A,24Bの発光部の発光を検知したときに、当該検知した時点の、発光した赤外線レーザの発光時刻からの経過時刻をも検知することができるように構成されている。この場合に、トラッカー12,24A,24Bのそれぞれは、自身の識別情報に応じた異なる発光をする。
 これにより、空間位置検出用ユニット30は、動き検出空間領域MD内におけるオブジェクトに取り付けられたトラッカー12,24A,24Bの位置(つまり、オブジェクトの位置)を、所定のピッチτX及び所定のピッチτYに応じた精度で、位置検出することができる。
 2個の発光追跡装置31A,31Bは、空間描画情報生成装置40に対して、有線で、あるいは、無線で接続されており、空間描画情報生成装置40に対して、検知したトラッカー12,24A,24Bの動き検出空間領域MDにおける空間位置情報を通知する。この場合に、2個の発光追跡装置31A,31Bからの情報には、それぞれ自身の識別情報が含まれる。
 2個の発光追跡装置31A,31Bで検知されたトラッカー12,24A,24Bの動き検出空間領域MDにおける空間位置情報は、この例では、図2に示すように、空間描画情報生成装置40の入力情報処理部41の空間位置検出回路410に供給される。
 前述したように、トラッカー12,24A,24Bからの受光センサの受光出力と、9軸センサの検出出力も、空間描画情報生成装置40の入力情報処理部41の空間位置検出回路410に供給される。
 空間位置検出回路410は、この例では、位置指示器検出回路4101と、指示位置算出回路4102と、デジタイザ検出回路4103とを備えると共に、この例では、後述するように、3次元位置指示器10に設けられている操作部の操作情報を検出する操作情報検出回路4104とを備える。操作情報検出回路4104で検出された操作情報は、3次元位置指示器10から、受光センサの受光出力や9軸センサの出力と共に、空間描画情報生成装置40の空間位置検出回路410に供給される。
 位置指示器検出回路4101は、3次元位置指示器10のトラッカー12との光学的なインタラクションにより発光追跡装置31A及び31Bで検出された位置情報により、動き検出空間領域MD内における3次元位置指示器10の位置を検出すると共に、トラッカー12からの受光センサの受光出力と9軸センサの検出出力とから、動き検出空間領域MD内における3次元位置指示器10が向いている方向を含む3次元位置指示器10の姿勢を検出する。この場合に、3次元位置指示器10の姿勢には、棒状部としての電子ペン11の軸心方向と、この軸心方向を中心とする回転方向位置(回転角)を含む。
 位置指示器検出回路4101で検出された、3次元位置指示器10の位置の情報と、向いている方向を含む3次元位置指示器10の姿勢の情報とは、指示位置算出回路4102に供給される。ここで、3次元位置指示器10の指示位置は、電子ペン11のペン先11aの位置であり、位置指示器検出回路4101で検出された3次元位置指示器10の位置とは異なっている。後述するように、3次元位置指示器10においては、電子ペン11のペン先11aは、空間位置検出回路410の位置指示器検出回路4101で検出される3次元位置指示器10の位置及び方向と特定の位置関係及び方向関係となるように取り付けられて構成されている。
 指示位置算出回路4102には、上記の特定の位置関係及び方向関係から、位置指示器検出回路4101で検出される3次元位置指示器10の位置の情報及び方向の情報から、電子ペン11のペン先11aによる指示位置を検出するようにする補正情報が、補正メモリ4102Mに記憶されている。
 指示位置算出回路4102は、位置指示器検出回路4101で検出された3次元位置指示器10の位置の情報と方向の情報と、補正メモリ4102Mに記憶されている補正情報とから、電子ペン11のペン先11aによる指示位置を算出し、出力する。また、指示位置算出回路4102は、位置指示器検出回路4101で検出された3次元位置指示器10の姿勢の情報に基づいて、電子ペン11の軸心方向の向き(電子ペン11の傾き)を算出すると共に、電子ペン11の回転や動きを算出し、電子ペン11の姿勢の情報として出力する。
 そして、空間位置検出回路410のデジタイザ検出回路4103は、トラッカー24A,24Bとの光学的なインタラクションにより発光追跡装置31A及び31Bで検出された位置情報により、動き検出空間領域MD内におけるデジタイザ20の位置を検出する。また、デジタイザ検出回路4103は、トラッカー24A,24Bからの受光センサの受光出力と9軸センサの検出出力とから、動き検出空間領域MD内におけるデジタイザ20の入力面21Sが向いている方向を含むデジタイザ20の姿勢を検出し、検出した姿勢の情報を、位置の情報とと共に出力する。
 また、操作情報検出回路4104では、3次元位置指示器10の操作部の操作情報を検出して、出力する。
 入力情報処理部41では、前述したようにしてデジタイザ20で検出された、位置検出領域DTにおける3次元位置指示器10の電子ペン11のペン先11aによる指示位置の情報と、上述の空間位置検出回路410で検出された、動き検出空間領域MDにおける3次元位置指示器10の電子ペン11のペン先11aの位置(指示位置)の情報と、電子ペン11の姿勢の情報と、3次元位置指示器10の姿勢の情報と、操作情報とから、表示画像生成部42に供給する情報を生成する。そして、入力情報処理部41は、生成した情報を、表示画像生成部42に供給する。
 この実施形態では、表示画像生成部42は、図2に示すように、3D描画像を生成するための描画像生成回路421と、HMD50に表示するVR画像を生成するためのVR画像生成回路422とを備える。以下、描画像生成回路421における3D描画像の生成に関する処理を3D描画系処理という。また、VR画像生成回路422におけるVR画像の生成に関する処理をVR画像系処理という。この実施形態では、HMD50には、デジタイザ20の位置検出領域DTを含む動き検出空間領域MDで描画された3D描画画像が、仮想表示画像として表示されると共に、3次元位置指示器10の電子ペン11及びデジタイザ20の仮想表示画像が表示される。
 描画像生成回路421は、3次元位置指示器10の電子ペン11のペン先11aによる位置指示及び電子ペン11の姿勢の情報に基づいて3D描画像を生成すると共に、3次元位置指示器10の操作者により実行されたジェスチャーに基づいて、3D描画像の変形、回転、移動などの処理を行う。表示画像生成部42には、図2に示すように、3次元位置指示器10の操作者により実行されたジェスチャーを検出するためのジェスチャー検出処理回路423が設けられており、このジェスチャー検出処理回路423でのジェスチャーの検出結果が描画像生成回路421に供給される。ジェスチャー検出処理回路423は、3次元位置指示器10の位置の変化及び姿勢の変化から、3次元位置指示器10の操作者により実行されたジェスチャーを検出する。
 表示画像生成部42のVR画像生成回路422は、HMD50に表示するVR画像を生成する。VR画像としては、この実施形態では、電子ペン11のVR画像と、デジタイザ20のVR画像と、描画像生成回路421で生成された3D描画像のVR画像が含まれる。なお、電子ペン11を含む3次元位置指示器10のVR画像を生成してもよい。
 入力情報処理部41は、デジタイザ20からの情報と、空間位置検出用ユニット30からの情報とから、以上説明したような描画系処理用の情報と、VR画像系処理用の情報とを生成して、表示画像生成部42に供給する。
 この場合に、入力情報処理部41は、3次元位置指示器10の電子ペン11のペン先11aの位置が位置検出領域DTに存在するときには、空間位置検出用ユニット30よりも高精度で電子ペン11のペン先11aの位置を検出することができるデジタイザ20で検出された3次元位置指示器10の電子ペン11のペン先11aによる指示位置の情報を、表示画像生成部42のVR画像生成回路422に供給する。
 また、入力情報処理部41は、3次元位置指示器10の電子ペン11のペン先11aの位置が位置検出領域DT以外の空間に存在するときには、空間位置検出用ユニット30が用いられて検出される3次元位置指示器10の電子ペン11のペン先11aの位置の情報を、表示画像生成部42のVR画像生成回路422に供給する。すなわち、入力情報処理部41は、3次元位置指示器10の指示位置の情報を、3次元位置指示器10の電子ペン11のペン先11aが、位置検出領域DT及び動き検出空間領域MDのいずれに存在しているかに応じて切り替えて表示画像生成部42に供給する。
 そして、この実施形態では、入力情報処理部41は、上述したように、空間位置検出用ユニット30が用いられて検出された3次元位置指示器10の姿勢の情報から、指示位置算出回路4102で算出された電子ペン11の傾きや回転を含む姿勢の情報を、電子ペン11のペン先11aが存在する空間位置に関わらず、表示画像生成部42の描画像生成回路421及びVR画像生成回路422に供給する。
 [3次元位置指示器10の指示位置を検出する空間座標系間の座標変換について]
 ところで、この実施形態においては、デジタイザ20の位置検出領域DTの空間座標系と、空間位置検出用ユニット30の動き検出空間領域MDの空間座標系とは、図3に示したように、独立に設定され得る。
 上述したように、この実施形態では、3D描画系処理及びVR画像系処理のそれぞれにおいて、デジタイザ20の位置検出領域DTの空間座標系の情報と、空間位置検出用ユニット30の動き検出空間領域MDの空間座標系の情報とを相互に利用するようにしている。この場合に、2つの空間座標系は、全く共通にすることができれば問題はないが、上述したように、それぞれ独立に設定され得るので、以下に説明するような点を考慮する必要がある。
 図3においては、動き検出空間領域MDの空間座標系の3軸は、サフィックスsを用いて、Xs軸、Ys軸、Zs軸として、デジタイザ20の検出領域DTの空間座標系のX軸、Y軸、Z軸とは区別して示している。なお、図3では、便宜上、Xs軸、Ys軸、Zs軸のそれぞれの方向は、X軸、Y軸、Z軸のそれぞれの方向と同一方向として示しているが、動き検出空間領域MD内に配設されているデジタイザ20の設置時の入力面21Sの傾きなどの関係上、Xs軸、Ys軸、Zs軸のそれぞれの方向は、X軸、Y軸、Z軸のそれぞれの方向とは異なり得る。
 しかし、この実施形態では、デジタイザ20は、空間位置検出用ユニット30の動き検出空間領域MDに配置されて、空間位置検出用ユニット30の動き検出空間領域MDの空間座標系は、デジタイザ20の位置検出領域DTの空間座標系の少なくとも一部を共通領域として含むように構成されている。この実施形態では、3次元位置指示器10の電子ペン11のペン先11aによる指示位置の情報は、位置検出領域DTの空間座標系と、動き検出空間領域MDの空間座標系との共通の領域を用いることによって、後述する空間位置補正情報を用いて座標変換をするように構成されている。
 なお、この場合に、Xs軸、Ys軸、Zs軸のそれぞれの方向と、X軸、Y軸、Z軸のそれぞれの方向とが同一方向であれば、位置検出領域DTの空間座標系と動き検出空間領域MDの空間座標系とは、両空間座標系の原点位置の差分を考慮することで、一つの空間座標系として共通に取り扱うことができる。すなわち、例えば位置検出領域DTの空間座標系の原点位置と、動き検出空間領域MDの空間座標系の原点位置とのX軸方向、Y軸方向、Z軸方向のオフセット値を、それぞれOFSx、OFSy、OFSzとすれば、Xs-OFSx(=X)、Ys-OFSy(=Y)、Zs-OFSz(=Z)を求めることにより、動き検出空間領域MDの空間座標系の座標値(Xs,Ys,Zs)を、位置検出領域DTの空間座標系の座標値(X,Y,Z)に変換することできる。
 しかし、この第1の実施形態の空間位置指示システムにおいては、上述したように、独立に設けられるデジタイザ20の位置検出領域DTの空間座標系と空間位置検出用ユニット30の動き検出空間領域MDの空間座標系とは、X軸、Y軸、Z軸のそれぞれの方向と、Xs軸、Ys軸、Zs軸のそれぞれの方向とが異なり得る。また、X軸、Y軸、Z軸のそれぞれの方向と、Xs軸、Ys軸、Zs軸のそれぞれの方向とが同一である場合においても、原点位置のオフセット値を正確に規定することは困難であり、空間位置指示システム毎に異なってしまう恐れがある。
 すると、2つの空間座標系における座標位置が異なってしまうことになり、デジタイザ20の位置検出領域DTの空間座標系と空間位置検出用ユニット30の動き検出空間領域MDの空間座標系との2つの空間座標系を切り替えたときに、例えば、HMD50の表示画面において電子ペン11のペン先11aの位置の座標がジャンプするように変化してしまう恐れがある。このようになると、描画画像を入力しようとしている使用者は、指示位置を指示し直さなければならないようになり、不便である。
 そこで、この実施形態では、デジタイザ20の位置検出領域DTの少なくとも一部の領域は、空間位置検出用ユニット30の動き検出空間領域MDと共通の空間領域であることを利用して、位置検出領域DTの空間座標系と動き検出空間領域MDの空間座標系とのずれの補正情報を生成して座標変換するようにする。この例では、空間位置検出用ユニット30を用いて検出された動き検出空間領域MDの空間座標系の座標値(Xs,Ys,Zs)を、デジタイザ20の位置検出領域DTの空間座標系の座標値(X,Y,Z)に変換することで、両者のずれを補正した座標値を得ることができるようにする。その変換のための補正情報について次に説明する。
Figure JPOXMLDOC01-appb-M000001
 (数式1)は、空間位置検出用ユニット30を用いて検出された動き検出空間領域MDの空間座標系の座標値(Xs,Ys,Zs)を、デジタイザ20の位置検出領域DTの空間座標系の座標値(X,Y,Z)に線形変換するための行列式である。この行列式は3行3列であり、その成分をaij(i,j=1、2、3)で表す。
 この第1の実施形態では、デジタイザ20の位置検出領域DTの少なくとも一部は、空間位置検出用ユニット30の動き検出空間領域MDと共通の空間領域であることを利用して、位置検出領域DTの空間座標系と動き検出空間領域MDの空間座標系との間の変換のための補正情報を生成するようにする。
 すなわち、図3に示すように、デジタイザ20の位置検出領域DTと空間位置検出用ユニット30の動き検出空間領域MDとの共通の空間領域内の少なくとも3点Pa,Pb,Pcを位置指定して、それぞれの点のデジタイザ20の位置検出領域DTの空間座標系の座標値(X,Y,Z)と、空間位置検出用ユニット30の動き検出空間領域MDの空間座標系の座標値(Xs,Ys,Zs)とをそれぞれのデバイスから取得する。理想的には、これらのデバイスから取得した座標値は同じ値になるが、キャリブレーションを行わなければ、これらの座標値は通常は一致しない。一般には、デジタイザ20の位置検出の精度が空間位置検出用ユニット30を用いた位置検出の精度よりも高いため、空間位置検出用ユニット30の動き検出空間領域MDの空間座標系の座標値をデジタイザ20の位置検出領域DTの空間座標系の座標値に合わせることが好ましい。
 共通領域内で位置指定した1つの点につき、対応する位置検出領域DTの空間座標系の座標値(X,Y,Z)と動き検出空間領域MDの空間座標系の座標値(Xs,Ys,Zs)を数式1に代入すると3つの方程式が得られる。共通領域内で少なくとも3点の位置指定を行うことにより、a11~a33についての少なくとも9個の方程式が得られるので、a11~a33のそれぞれの値を求めることができる。また、位置検出領域DTの空間座標系と動き検出空間領域MDの空間座標系との間の変換は、上記方法に限定されず、共通領域における少なくとも3点の座標値を機械学習による学習や、ユーザによるキャリブレーションなどを用いてもよい。
 以上のようにして、この実施形態の空間位置指示システムにおいては、デジタイザ20の位置検出領域DTの空間座標系と、空間位置検出用ユニット30の動き検出空間領域MDの空間座標系とのずれを補正して、共通の一つの座標系として扱うことができるようにしているが、この補正処理は、入力情報処理部41において行う。
 このため、HMD50の表示画像において、電子ペン10の指示位置の情報が、デジタイザ20の位置検出領域DTの空間座標系と、空間位置検出用ユニット30の動き検出空間領域MDの空間座標系とで切り替えられたとしても、両者は、共通の一つの座標系として扱うことができるようにしているので、例えば電子ペン11のペン先11aによる指示位置が変化してしまうような状態は生じない。
 [3次元位置指示器10の指示位置を検出する空間座標系の切替]
 第1の実施形態の空間位置指示システムにおいては、空間位置検出用ユニット30の動き検出空間領域MD内に、デジタイザ20の位置検出領域DTの少なくとも一部を共通領域として有するように構成されている。
 そして、この実施形態の空間位置指示システムでは、動き検出空間領域MDの空間内における3次元位置指示器10の電子ペン11のペン先11aの位置のデジタイザ20のセンサ部22の入力面21Sからの離間距離に応じて、デジタイザ20で検出した3次元位置指示器10の電子ペン11のペン先11aの指示位置の座標を用いるか、空間位置検出用ユニット30を用いて検出した3次元位置指示器10の電子ペン11のペン先11aの指示位置の座標を用いるかを切り替えるようにする。
 この実施形態においては、切り替えポイントとなる入力面21Sからの離間距離(Z軸方向の離間距離)θthは、デジタイザ20が3次元位置指示器10の電子ペン11のホバー状態を検出することができるZ軸方向の臨界高さ距離Lz以下に設定される。この例では、切り替えポイントとなる入力面21Sからの離間距離θthは、図4に示すように、デジタイザ20が3次元位置指示器10の電子ペン11のホバー状態を検出することができるZ軸方向の臨界高さ距離Lz、すなわち、位置検出領域DTのZ軸方向の長さLzと等しく設定されている。
 すなわち、この実施形態の空間位置指示システムにおいては、図4に示すように、3次元位置指示器10の電子ペン11のペン先11aの入力面21Sからの離間距離がθth以下のときには、デジタイザ20が、その位置検出領域DTにおいて検出した3次元位置指示器10の電子ペン11のペン先11aによる指示位置の情報を用いる。
 また、この実施形態の空間位置指示システムにおいては、図4に示すように、3次元位置指示器10の電子ペン11のペン先11aの入力面21Sからの離間距離がθthよりも大きいときには、空間位置検出用ユニット30を用いて検出した3次元位置指示器10の電子ペン11のペン先11aによる指示位置の情報を用いる。
 3次元位置指示器10の電子ペン11のペン先11aの位置の、デジタイザ20のセンサ部22の入力面21Sからの離間距離(Z軸方向の離間距離)は、この実施形態では、デジタイザ20のセンサ部22での電子ペン11からの受信信号の信号レベル(信号強度)が、離間距離に応じた値となるので、入力情報処理部41において、デジタイザ20から得られる電子ペン11からの受信信号の信号レベルに基づいて検出する。
 [入力情報処理部41における切替処理]
 次に、以上のことを実現するように構成された図2の入力情報処理部41の構成例について説明する。すなわち、デジタイザ20を構成する位置検出回路23は、3次元位置指示器10の電子ペン11のペン先11aの指示位置の検出出力を、選択回路411にその一方の入力信号として供給すると共に、選択回路412にその一方の入力信号として供給する。なお、この位置検出回路23から選択回路411及び412に供給される情報には、電子ペン11のペン先11aの指示位置の検出出力に加えて、電子ペン11のペン先11aに印加される筆圧情報が含まれている。
 また、空間位置検出回路410の指示位置算出回路4102は、3次元位置指示器10の電子ペン11のペン先11aの空間位置(電子ペン11の指示位置)の検出出力を、座標変換回路413に供給する。この座標変換回路413は、上述の(数式1)の3行3列の行列の成分a11~a33を記憶しており、上述の(数式1)の演算を行うことにより、空間位置検出用ユニット30の動き検出空間領域MDの空間座標系の情報を、デジタイザ20の位置検出領域DTの空間座標系の情報に変換する。そして、座標変換回路413は、その変換後の座標出力を、選択回路411及び412に、その他方の入力信号として供給する。
 そして、この実施形態においては、デジタイザ20の位置検出回路23は、電子ペン10からの受信信号の信号レベルの情報を、選択制御信号生成回路414に供給する。選択制御信号生成回路414は、電子ペン10からの受信信号の信号レベルから、3次元位置指示器10の電子ペン11のペン先11aのデジタイザ20の入力面21Sからの離間距離を検出し、検出した入力面21Sからの離間距離に基づいて選択制御信号SEを生成する。生成された選択制御信号SEは、選択回路411及び412に供給される。
 そして、選択回路411及び412は、選択制御信号SEにより、電子ペン11のペン先11aのデジタイザ20の入力面21Sからの離間距離が、デジタイザ20が電子ペン11のホバー状態を検出することができるZ軸方向の臨界高さLz以下のときには、デジタイザ20の位置検出回路23からの位置検出出力を選択するように制御され、上記臨界高さLzよりも大きいときには、座標変換回路413からの出力を選択するように制御される。
 そして、選択回路411からの3次元位置指示器10の電子ペン11のペン先11aの指示位置の情報は、3D描画系処理用の描画像生成回路421及びジェスチャー検出処理回路423に供給される。また、選択回路412からの3次元位置指示器10の電子ペン11のペン先11aの指示位置の情報は、VR画像系処理用のVR画像生成回路422に供給する。
 そして、空間位置検出回路410の指示位置算出回路4102からの電子ペン11の姿勢の情報と、操作情報検出回路4104からの3次元位置指示器10の操作部の操作情報とは、描画像生成回路421、ジェスチャー検出処理回路423、VR画像生成回路422のそれぞれに供給される。また、デジタイザ検出回路4103からのデジタイザ20の位置情報及び姿勢情報は、描画像生成回路421及びVR画像生成回路422のそれぞれに供給される。後述するように、描画像生成回路421では、デジタイザ20の姿勢情報が、電子ペン11の姿勢の情報を、デジタイザ20の入力面に対する相対的な姿勢の情報に変換するために用いられる。
 [表示画像生成部42の処理動作]
 描画像生成回路421は、選択回路411からの、電子ペン11のペン先11aの指示位置の検出出力と空間位置検出用ユニット30で検出された電子ペン11の姿勢の情報とに基づいて、精細な線画等を描画するペン描画機能を備える。また、描画像生成回路421は、空間位置検出用ユニット30により検出された電子ペン11の空間位置と電子ペンの姿勢の情報とに基づいて、ジェスチャー検出処理回路423で検出された動き(ジェスチャー)に基づいた描画処理をするジェスチャー処理機能を備える。
 この例では、この描画像生成回路421及びジェスチャー検出処理回路423には、選択制御信号生成回路414からの選択制御信号SEが供給されている。これにより、描画像生成回路421は、3次元位置指示器10の電子ペン11のペン先11aの位置が、デジタイザ20の位置検出領域DTの空間領域内のときに、ペン描画機能を実行するように動作する。また、ジェスチャー検出処理回路423は、電子ペン11のペン先11aの位置が、デジタイザ20の位置検出領域DTの空間領域以外のときに、ジェスチャー処理を実行するように動作する。
 この場合に、描画像生成回路421においては、電子ペン11の姿勢の情報に含まれる傾きは描画線の太さなどに反映されるが、その傾きは、電子ペン11のペン先11aの位置が、位置検出領域DT内にあるときには、デジタイザ20の入力面21Sに対する傾きとする必要がある。
 しかし、指示位置算出回路4102からの電子ペン11の姿勢の情報は、空間位置検出用ユニット30を用いて検出したものであるので、デジタイザ20の入力面21Sの面方向が、空間位置検出ユニット30における動き検出空間領域MDにおけるX-Y平面の面方向とずれている場合には、デジタイザ20の入力面21Sに対する傾きを示すものとはなっていない。
 そこで、この実施形態の描画像生成回路421では、デジタイザ位置検出回路4103からのデジタイザ20の姿勢情報を用いて、空間位置検出回路410の動き検出空間領域MDの座標系で検出された電子ペン11の傾きを、デジタイザ20の入力面に対する相対的な傾きに補正する処理機能を備える。
 また、描画像生成回路421及びジェスチャー検出処理回路423は、操作情報検出回路4104からの3次元位置指示器10の操作部の操作情報に基づいた処理も行う。
 表示画像生成部42のVR画像生成回路422は、選択回路412からの3次元位置指示器10の電子ペン11のペン先11aの位置の情報と電子ペン11の姿勢の情報とを用いて電子ペン11のVR画像を生成する。この電子ペン11のVR画像は、電子ペン11のペン先11aの位置が、検出された指示位置に表示されるように生成される。
 この場合に、空間位置検出回路410からの電子ペン11のペン先11aの指示位置の情報は、デジタイザ20とで同じ指示位置の情報となるように、座標変換回路413で座標変換されている。このため、選択回路412からの3次元位置指示器10の電子ペン11のペン先11aの位置の情報は、選択制御信号SEにより、選択回路412で切り替えられたときに変化してしまうことはないので、電子ペン11のVR画像の表示位置がジャンプするように動くなどいうような表示ずれを生じるようなことはない。
 また、この実施形態では、VR画像生成回路422は、デジタイザ検出回路4103からのデジタイザ20の位置及び姿勢の情報に基づいて、デジタイザ20のVR画像を生成して、動き検出空間領域MDに表示する。そして、VR画像生成回路422は、更に、操作情報検出回路4104からの3次元位置指示器10の操作部の操作情報を受けて、例えば3D描画についてのメニューをVR表示したり、操作ボタンのVR画像を表示したりする。描画像生成回路421では、これらメニューのVR画像や操作ボタンのVR画像の動き検出空間領域MDにおける位置を認識しており、3次元位置指示器10の電子ペン11のペン先11aが、それらのVR画像位置を指示(クリックと同様)したか否かを検出して、対応する処理をすることができる。
 そして、前述したようにして描画像生成回路421で生成された3D描画画像情報は、VR画像生成回路422に供給されてVR画像とされ、上述のVR画像と共に、表示ドライブ回路424を通じてHMD50に供給されて表示される。
 [3次元位置指示器10の構成例」
 次に、この実施形態の3次元位置指示器10の構成例を、図5~図7を参照して説明する。図5は、この実施形態の3次元位置指示器10の外観を示す斜視図である。また、図6は、この実施形態の3次元位置指示器10の構成部品及びその組み立てを説明するための図である。
 この実施形態の3次元位置指示器10は、図6(A)に示す電子ペン11と、使用者が把持する把持部を構成するホルダー13とからなる。空間位置指標部を構成するトラッカー12は、ホルダー13に装着されている。
 電子ペン11は、この例では、図6(B)に示すように、円筒形状の棒状の筐体110の軸心方向の一方の開口側から、芯体の先端部がペン先11aとして突出している。図示は省略するが、電子ペン11の円筒状系の筐体110の中空部内のペン先11aの近傍には、周知のようにフェライトコアに巻回されたコイルが配置されていると共に、中空部内に配設されているプリント基板には、コイルと並列に接続されて共振回路を構成するキャパシタが配設されている。また、この例では、電子ペン11には、共振回路の周波数を変化させるためのキャパシタのオンオフを制御するサイドスイッチ11sが、使用者により操作可能となるように、筐体110から露出して設けられている。
 ホルダー13は、使用者が3次元位置指示器10を把持する際に掌の部分により覆われるようにされるグリップ部131と、電子ペン装着部132と、トラッカー装着部133とを備えている。
 電子ペン装着部132は、円筒状形状を有し、電子ペン11が、その軸心方向に、ペン先11a側とは反対側の後端部11bから挿入されてホルダー13に係止されるように構成されている筒状凹孔部132aを備える。筒状凹孔部132aは、電子ペン11を挿入して装着したときに、電子ペン11が、そのペン先11a側を露出すると共に、サイドスイッチ11sを外部に露出させて操作可能の状態で保持されるような、軸心方向の長さを有する。
 そして、この例では、電子ペン11には、図6(A)に示すように、軸心方向の後端部11b側にリング状凹溝11c設けられていると共に、筒状凹孔部132aには、この電子ペン11のリング状凹溝11cと嵌合して、電子ペン11を、筒状凹孔部132a内に係止させるようにするためのリング状突部132bが形成されている。
 この例では、電子ペン11の後端部11b側には、段部11dが形成されていて、この段部11dが筒状凹孔部132aの端部に衝合するときに、電子ペン11のリング状凹溝11cと筒状凹孔部132a内のリング状突部132bとが嵌合して、電子ペン11が電子ペン装着部132の筒状凹孔部132a内に係止するように構成されている。電子ペン11を、電子ペン装着部132の筒状凹孔部132a内に係止させる構成は、この例のようなリング状凹溝11cと、リング状突部132bとを設ける構成に限られるものではなく、電子ペン11の後端部11b側の段部11dが筒状凹孔部132aの端部に衝合するときに、電子ペン11を、電子ペン装着部132の筒状凹孔部132a内に係止させることができる構成であれば、どのような構成であってもよい。
 グリップ部131は、円筒状形状の電子ペン装着部132の周側面から軸心方向に直交する方向に延出されると共に、使用者が把持しやすい形状に構成されている。このグリップ部131には、使用者が把持したときに、人差し指などで操作可能な場所に、操作ボタン131a,131bが設けられていると共に、使用者の親指の腹で回転操作及び押下操作可能とされる操作部131cが設けられている。この図5及び図6に示した3次元位置指示器10の例は、3次元位置指示器10が左利きの使用者用とされており、円形操作部131cは、グリップ部131を左手で把持したときに、左手の親指で操作できるように取り付けられている。
 そして、トラッカー装着部133は、円筒形状の電子ペン装着部132の周側面の、グリップ部131が形成されている角度位置とは180度異なる反対側の角度位置から軸心方向に直交する方向に延出されるように取り付けられている。このトラッカー装着部133に対して、上述したトラッカー12が設けられている。したがって、グリップ部131を使用者が掌に包むようにして把持したときに、トラッカー装着部133に取り付けられたトラッカー12は、手の甲の上方側となって手で覆われない状態となる。
 この例では、トラッカー12は、図5に示すように、円板状部材の上面(平面)12aに3個の突部を備えるような形状とされている。このトラッカー12には、図5及び図6(B),(C)に示すように、いずれの方向から赤外線レーザが到来しても、当該赤外線レーザの受光を受けることができるように、3個の突部と円板状部材とに、複数個の受光センサ121が設けられている。また、トラッカー12の3個の突部の一つには、受光センサ121のいずれかで赤外線レーザを受光したときに、その受光を発光により通知するための発光素子としてのLED122が設けられている。なお、9軸センサは、トラッカー12の内部に設けられている。
 なお、図示は省略するが、トラッカー12と空間描画情報生成装置40との間を有線で接続する場合には、トラッカー12には、空間描画情報生成装置40と接続するためのケーブルが接続されるコネクタが設けられ、また、無線で接続する場合には、トラッカー12の内部に通信手段が設けられる。
 そして、トラッカー12は、この例では、図6(B),(C)に示すように、円板状部材の上面12aの面方向(上面12aが含まれる面が向いている方向)が、トラッカー装着部133の延出方向に対して直交する状態となると共に、円筒形状の電子ペン装着部132の軸心方向に平行となる状態で取り付けられている。そして、LED122は、トラッカー装着部133の延出方向上に取り付けられている。
 上述したように、空間位置検出用ユニット30を用いることにより、空間位置検出回路410の位置指示器検出回路4101では、動き検出空間領域MDの空間座標系におけるトラッカー12の位置として、当該トラッカー12に設けられているLED122の位置Ptが検出される。また、位置指示器検出回路4101では、前述したように、3次元位置指示器10の向き(方向)として、この例では、トラッカー12の上面12aの面方向(上面が含まれる平面が向いてる方向)が検出される。
 図5から明らかなように、空間位置検出回路410の位置指示器検出回路4101で検出されるトラッカー12の位置Ptは、ホルダー13に装着された電子ペン11のペン先11aの位置Ppとは異なっている。しかし、空間位置検出回路410の位置指示器検出回路4101で検出されるトラッカー12の位置Pt(LED122の位置)と、ホルダー13に装着された電子ペン11のペン先11aの位置Ppとは、3次元位置指示器10において、特定の位置関係となっている。
 ここで、3次元位置指示器10の機械的構成を規定する3次元座標系は、図5に示すように、トラッカー12の位置Ptを原点として、トラッカー12の上面12aに平行であって円筒状形状の電子ペン装着部132の軸心方向に平行な方向を座標軸Ztとし、トラッカー12の上面12aに平行であって円筒状形状の電子ペン装着部132の軸心方向に直交する方向を座標軸Ytとし、トラッカー12の上面12aに直交する方向(座標軸Zt及びYtに直交する方向)を座標軸Xtとするように構成されている。このように構成されているので、空間位置検出回路410の位置指示器検出回路4101で検出されるトラッカー12の位置Ptと、ホルダー13に装着された電子ペン11のペン先11aの位置Ppとは、図7に示すような位置関係となる。
 すなわち、座標軸Xt,Yt,Ztの空間においては、ホルダー13に装着された電子ペン11のペン先11aの位置Ppは、トラッカー12の位置Ptに対して、座標軸Xt方向に-Δxだけずれており、また、座標軸Zt方向に+Δzだけずれており、さらに、座標軸Yt方向のずれΔyは0(Δy=0)である位置となっている。したがって、これらの値を補正値COR(=(-Δx,Δy(=0),+Δz))として用いることで、トラッカー12の位置Ptから、電子ペン11のペン先11aの位置Ppを算出することができる。
 この実施形態では、3次元位置指示器10は、機構的に上述のように構成されているので、前記Xt軸方向のずれ量Δx及び前記Zt軸方向のずれ量Δzは、3次元位置指示器10の機械的な寸法値として規定することができる。すなわち、Δxは、LED122の位置と、電子ペン装着部132の中心軸位置までの寸法として求められ、Δzは、LED122の位置と電子ペン装着部132の中心軸位置との交点位置から、電子ペン11のペン先11aの先端部までの寸法として求められる。
 この場合に、空間位置検出用ユニット30を用いて空間位置検出回路410で検出されるトラッカー12の位置Ptは、空間位置検出回路410における空間座標系(Xs,Ys,Zs)であって、前述した3次元位置指示器10の機械的構成を規定する3次元座標系(Xt,Yt,Zt)とは、座標軸の方向が一致しているとは限らないことを考慮しなければならない。3次元位置指示器10は、使用者により任意の方向に向けられて使用されるからである。
 しかし、この実施形態では、位置指示器検出回路4101で検出される3次元位置指示器10の向き、すなわち、トラッカー12の上面12aが向いている方向(上面12aに直交する方向)は、空間位置検出用ユニット30を用いて空間位置検出回路410で検出される。そして、このトラッカー12の上面12aが向いている方向が検出できれば、前述した3次元位置指示器10の機械的構成を規定する3次元座標系(Xt,Yt,Zt)の各座標軸の方向が、空間位置検出回路410における空間座標系(Xs,Ys,Zs)で特定できる。
 このようにして、3次元位置指示器10の機械的構成を規定する3次元座標系(Xt,Yt,Zt)の各座標軸の方向が、空間位置検出回路410における空間座標系(Xs,Ys,Zs)で特定できると、空間位置検出回路410の位置指示器検出回路4101で検出されるトラッカー12の位置Ptから、前記補正値CORを用いることで、空間位置検出回路410の空間座標系(Xs,Ys,Zs)における電子ペン11のペン先11aの指示位置を算出することができる。
 以上のことを踏まえ、空間位置検出回路410の指示位置算出回路4102が備える補正メモリ4102Mには、前記補正値COR(=(-Δx,Δy(=0),+Δz))が記憶されている。そして、指示位置算出回路4102で、位置指示器検出回路4101で検出される3次元位置指示器10の向きと、補正メモリ4102Mに記憶されている前記補正値CORとを用いて、上述のようにして、3次元位置指示器10のトラッカー12の位置Ptから、電子ペン11のペン先11aの指示位置が算出される。
 なお、図5及び図6に示した3次元位置指示器10では、補正値CORを3次元位置指示器10の機械的な寸法値から容易に設定することができるようにするために、トラッカー12と電子ペン装着部132及び電子ペン11との位置関係が上述のようになるように構成とした。しかし、トラッカー12は、ホルダー13に対してどのような状態で取り付けられていてもよい。
 その場合には、補正値CORは、次のようにして求めて、補正メモリ4102Mに記憶しておくことができる。
 すなわち、3次元位置指示器10を、動き検出空間領域MDの空間内において、トラッカー12の向きを調整して、3次元位置指示器10の機械的構成を規定する3次元座標系(Xt,Yt,Zt)の各座標軸の方向と、空間位置検出用ユニット30を用いて空間位置検出回路410で検出する空間座標系(Xs,Ys,Zs)の各座標軸の方向とが一致するような状態とする。
 そして、3次元位置指示器10の電子ペン11のペン先11aの位置Ppを、デジタイザ20を用いて検出し、その検出した座標値を、空間位置検出用ユニット30を用いて空間位置検出回路410で検出する空間座標系(Xs,Ys,Zs)の座標値に変換する。この変換は、数式1に示した変換とは逆変換となる。また、3次元位置指示器10のトラッカー12の位置Ptを、空間位置検出回路410で検出する空間座標系(Xs,Ys,Zs)の座標値として検出する。
 そして、検出したトラッカー12の位置Ptの座標値と電子ペン11のペン先11aの位置Ppの座標値とのずれ量(Δx、Δy、Δz)を算出し、その算出したずれ量(Δx、Δy、Δz)を、補正値CORとして補正メモリ4102Mに記憶する。
 この補正メモリ4102Mへの補正値CORの記憶処理は、空間位置検出システムを構築した際に行うようにしてもよいし、適宜、使用者が事後的に行うようにしてもよい。
 以上説明したように、上述の実施形態の空間位置検出システムにおいては、3次元位置指示器10を用いて、デジタイザ20において描画すると共に、空間位置検出用ユニット30により規定される空間においてジェスチャー操作等をする場合において、指示位置は、常に、3次元位置指示器10の電子ペン11のペン先11aの位置とすることができるので、使用者は、描画からジェスチャーまで、一貫性を保った操作作業を行うことできるという効果を奏する。
 そして、上述した第1の実施形態では、デジタイザ20の検出領域の空間座標と、空間位置検出用ユニット30の検出領域の空間座標とを共通の座標として扱えるようにしたので、3D描画系処理において、デジタイザ20からの出力と、空間位置検出用ユニット30の出力とを切り替えたときにも、座標ずれが生じないという特徴がある。
 したがって、操作者は、デジタイザ20と、空間位置検出用ユニット30との切り替えを意識することなく、電子ペン10をデジタイザ20上において空間的に移動するだけで、シームレスに、精細描画からジェスチャーによる操作をすることができる。
 また、上述した第1の実施形態においては、VR画像系処理において、3次元位置指示器10の電子ペン11のVR画像を生成するための電子ペン11の位置情報(ペン先11aの位置情報)として、デジタイザ20の位置検出領域DTの空間領域においては、空間位置検出用ユニット30での検出出力よりも高精度で、反応速度も速いデジタイザ20の位置検出出力を用いることができるので、実際の使用者の電子ペン11の操作に応じて的確に反応するVR画像が得られる。
 なお、上述した空間描画情報生成装置40は、コンピュータにより構成されるので、入力情報処理部41及び表示画像生成部42の各回路の部分は、ソフトウェアプログラムにより実行するソフトウェア機能部として構成することができることは言うまでもない。
 なお、上述の第1の実施形態では、指示位置算出回路4102の補正メモリ4102Mには、工場出荷時などにおいて、予め、補正値(Δx、Δy、Δz)の情報が記憶されるようにした。しかし、この補正メモリ4102Mは、バッファメモリとして、3次元位置指示器10から補正値の情報を送信するようにしてもよい。
 その場合には、3次元位置指示器10からは、例えば図8に示すように、トラッカー12の受光センサの受光出力の情報、9軸センサの出力情報、操作ボタン131a,131bの操作情報に加えて、上記の補正値(Δx、Δy、Δz)の情報が、空間位置検出回路410に送信されるように構成される。そして、空間位置検出回路410の指示位置算出回路4102では、バッファメモリとしての補正メモリ4102Mに保持した補正値を用いて3次元位置指示器10の指示位置として、電子ペン11のペン先11aの位置を検出するようにする。なお、図8で、「ID」は、3次元位置指示器10の識別情報を意味している。
 このように構成すれば、空間位置検出システムにおいて使用する3次元位置指示器としては、トラッカー12の位置と電子ペン11のペン先11aの位置とのずれ量が異なるものが利用できるようになる。そして、3次元位置指示器10には、軸心方向の長さが異なる複数種の電子ペンを装着することも可能となる。ただし、その場合には、3次元位置指示器10には、軸心方向の長さ寸法が異なる電子ペンのそれぞれに応じた補正値を記憶しておくようにすると共に、そのいずれの補正値を使用するかを、装着された電子ペンに応じて、使用者が操作手段を操作することで選択設定することができるようにする。
 なお、上述の第1の実施形態の3次元位置指示器10は、電子ペン11を挿脱可能としたが、電子ペン11は、ホルダー13に固定されていてもよい。また、棒状部としては、電子ペン11を用いるのではなく、棒状部内に、電子ペン11の機能部、すなわち、フェライトコアに巻回されたコイルと、当該コイルに並列に接続されて共振回路を構成するキャパシタを配設することで、棒状部は、ホルダー13に一体的に構成するようにしてもよい。
 [第2の実施形態]
 第2の実施形態は、上述の第1の実施形態の変形例であり、上述の第1の実施形態の各部と同一部分には、同一の参照符号を付して、その説明は省略する。
 上述の第1の実施形態の3次元位置指示器10では、電子ペン11のペン先11aの位置を、常時、3次元位置指示器10による指示位置とするようにしている。しかし、電子ペン11をホルダー13に装着しないときには、トラッカー12の位置を指示位置として、他の用途に用いることができるように構成してもよい。
 すなわち、この第2の実施形態の3次元位置指示器10Aにおいては、電子ペン11をホルダー13Aに装着したときには、第1の実施形態と同様に、装着された電子ペン11のペン先11aの位置を指示位置とするが、電子ペン11をホルダー13Aに装着していないときには、トラッカー12の位置を、そのまま指示位置として使用するようにする。
 図9は、この第2の実施形態の3次元位置指示器10Aの要部の構成例を説明するための図である。図9は、この第2の実施形態の3次元位置指示器10Aのホルダー13Aの、グリップ部131、電子ペン装着部132及びトラッカー装着部133の一部分の断面図を示している。
 この第2の実施形態では、3次元位置指示器10Aのホルダー13Aには、電子ペン11が装着されているか否かを検出する装着検出手段が設けられている。そして、この装着検出手段における電子ペン11の装着検出出力が、この例では、トラッカー12を通じて、受光センサの受光出力などと共に、この第2の実施形態における空間描画情報生成装置40Aの空間位置検出回路410A(図10参照)に通知される。装着検出手段からの電子ペン11の装着検出出力は、トラッカー12を通じてではなく、独立して空間描画情報生成装置40Aの空間位置検出回路410Aに通知するように構成しても勿論よい。
 この例では、装着検出手段としては、図9に示すように、矢印ARの方向に弾性的に変位することが可能な押圧子134aを備えるスイッチ部材134が用いられる。スイッチ部材134は、押圧子134aが押圧されずに、スイッチ部材134の筐体外に突出している状態では、例えばスイッチオフの状態となり、押圧子134aが押圧されて、スイッチ部材134の筐体内に押し込まれる状態ではスイッチオンの状態となる。
 したがって、電子ペン11が、図9に示すように、電子ペン装着部132Aの筒状凹孔部132Aaに差し込まれると、当該電子ペン11の筐体により、スイッチ部材134の押圧子134aが押下されて、スイッチ部材134のスイッチ状態が変化する(この例ではスイッチオフからスイッチオンとなる)。そして、このスイッチ部材134におけるスイッチ状態が、電子ペン11の装着検出出力として、トラッカー12を通じて空間描画情報生成装置40Aの空間位置検出回路410Aに供給される。
 図10に、この第2の実施形態の場合の空間描画情報生成装置40Aの、特に空間位置検出回路410Aの構成例を示す。この図10の例においても、上述した第1の実施形態の空間描画情報生成装置40及び空間位置検出回路410と同一部分には、同一の参照符号を付して、その詳細な説明は省略する。
 この第2の実施形態の空間位置検出回路410Aにおいては、上述の位置指示器検出回路4101、指示位置算出回路4102、デジタイザ検出回路4103及び操作情報検出回路4104に加えて、電子ペン装着検出回路4105と、スイッチ回路4106とが設けられる。
 電子ペン装着検出回路4105は、3次元位置指示器10Aからの電子ペン11の装着検出出力を受信して解析し、電子ペン11が電子ペン装着部132に装着されているか否かを検出し、その検出結果として装着検出出力DPを出力する。
 スイッチ回路4106の一方の入力端Tには、位置指示器検出回路4101で検出された3次元位置指示器10Aのトラッカー12の位置の情報TIが供給され、他方の入力端Pには、指示位置算出回路4102で算出された装着されている電子ペン11のペン先11aの位置の情報PIが供給される。
 そして、スイッチ回路4106には、電子ペン装着検出回路4105の装着検出出力DPが切替制御信号として供給される。スイッチ回路4106は、装着検出出力DPにより、電子ペン11が3次元位置指示器10Aに装着されていないときには、一方の入力端T側に切り替えられて出力情報としてトラッカー12の位置の情報TIが出力され、電子ペン11が3次元位置指示器10Aに装着されているときには、他方の入力端P側に切り替えられて出力情報として電子ペン11のペン先11aの位置の情報PIが出力される。そして、スイッチ回路4106の出力情報が、座標変換回路413に供給される。
 また、電子ペン装着検出回路4105の装着検出出力DPは、VR画像生成回路422Aに供給される。VR画像生成回路422Aは、装着検出出力DPにより、電子ペン11が3次元位置指示器10Aに装着されていると判断したときには、電子ペン11のVR画像を、上述の第1の実施形態と同様にして生成してHMD50に表示する。また、VR画像生成回路422Aは、装着検出出力DPにより、電子ペン11が3次元位置指示器10Aに装着されてはいないと判断したときには、この第2の実施形態では、電子ペン11のVR画像は生成せずに、検出されたトラッカー12の位置に、例えばトラッカー12のVR画像や所定のマークを生成して、HMD50に表示するようにする。
 以上のようにして、第2の実施形態においては、3次元位置指示器10Aに電子ペン11が装着されているときにだけ、第1の実施形態と同様の動作となる。そして、3次元位置指示器10Aに電子ペン11が装着されていないときには、トラッカー位置を用いた他の用途として用いることが可能となる。
 なお、上述の例では、3次元位置指示器10Aのホルダー13の電子ペン装着部132Aに、電子ペン11が装着されたときに、それを自動的に検出するための装着検出手段として、スイッチ部材134を設けるようにしたが、装着検出手段としては、スイッチ部材134に限られる訳ではない。
 また、上述の第2の実施形態では、3次元位置指示器10Aのホルダー13の電子ペン装着部132Aに、電子ペン11が装着されたときに、それを自動的に検出するための装着検出手段を設けるようにしたが、装着検出手段ではなく、使用者の操作により、電子ペン11の装着を空間描画情報生成装置40Aの空間位置検出回路410Aに通知するようにしてもよい。
 また、使用者が3次元位置指示器10の操作部を操作することにより、電子ペン11の3次元位置指示器への装着を通知する例の場合には、実際には、電子ペン11が装着されていなくても、仮想的に電子ペン11が3次元位置指示器10に装着されているものとして、VR画像生成回路422Aでは、電子ペン11のVR画像を生成してHMD50に表示することができる。
 [上述の実施形態の変形例]
 上述の実施形態の3次元位置指示器10においては、ホルダー13は、グリップ部131を備える構成とした。しかし、図11(A),(B),(C)に示すように、グリップ部131を備えずに、電子ペン装着部132とトラッカー装着部133とからなるホルダー13Bを備える3次元位置指示器10Bを構成するようにしてもよい。なお、3次元位置指示器10Bは、図11(A),(B),(C)において同一の参照符号を付して示すように、ホルダーの構成を変更するほかは、図5及び図6を用いて説明した3次元位置指示器10と同一の構成とされている。
 この3次元位置指示器10Bの場合において、図5及び図6に示した操作ボタン131a,131bは、電子ペン装着部132に設けるようにしてもよい。また、3次元位置指示器10Bにおいても、電子ペン11は、ホルダー13Bに固定されていてもよいし、棒状部としては、電子ペン11を用いるのではなく、棒状部内に、電子ペン11の機能部を配設することで、棒状部は、ホルダー13Bに一体的に構成するようにしてもよい。さらに、図11に示した3次元位置指示器10Bの構成は、第2の実施形態の場合にも適用可能であることは言うまでもない。
 なお、上述の実施形態においては、空間位置検出用ユニット30は、赤外線レーザ光の発光する発光追跡装置と、トラッカーとを備える構成としたが、この構成に限られるものではないことは言うまでもない。例えば、その他の非可視光センサ、可視光線センサ又はこれらの組み合わせを用いた構成としてもよい。
 また、電子ペンにバッテリーを設けると共に電波の送受信手段を設けておいて、電子ペンに対して外部から電波を送信し、当該電子ペンからの電波を受信することで電子ペンの空間位置を検出する構成としてもよい。また、磁気共鳴を用いるもの、超音波を用いるものであってもよい。また、1台または複数台のカメラで空間位置を検出する対象物(電子ペンやタブレット)を撮影し、その撮影画像を用いて対象物の空間位置を検出ものであってもよい。
 また、上述の実施形態においては、デジタイザ20のVR画像を生成して、HMD50の表示画面で、操作者がデジタイザ20の位置を認識するように構成したが、HMDを、AR(拡張現実)対応のものとして、デジタイザ20を直接的に見ることができるように構成しても勿論よい。
 また、上述の実施形態の説明では、デジタイザの位置検出領域DTの外側の空間領域においては、電子ペンの動きに基づくジェスチャーを検出するようにしたが、前記外側の空間領域においても、電子ペンの動きではなく、電子ペンのペン先による指示位置を検出して描画に用いるようにすることもできる。
 また、上述の実施形態では、デジタイザ20のセンサ部22と、電子ペン11との間の信号の受信レベルに基づいて、電子ペン11のペン先11aの位置のデジタイザ20の入力面からの離間距離を検出するようにしたが、電子ペン11のペン先11aの位置とデジタイザ20の入力面との離間距離を検出する方法は、これに限られるものではない。
 例えば、空間位置検出用ユニット30では、電子ペン10のペン先11aの位置と、デジタイザ20の入力面21Sの位置とを検出することができるので、検出された電子ペン11のペン先11aの位置とデジタイザ20の入力面21Sの位置から、電子ペン11のペン先11aの位置とデジタイザ20の入力面21Sとの離間距離を検出して、選択回路401の選択制御信号を生成するようにしてもよい。
 また、3次元画像を表示する手段としては、HMDに限られるものではなく、3Dディスプレイや、AI(Aerial Imaging)プレート、さらには、ホログラム技術を用いるようにしてもよい。また、デジタイザ20に、例えばLCDなどのディスプレイを設け、そのディスプレイにおいて、3D表示をするようにしてもよい。これらの表示手段は、HMDと共に用いて、HMDの装着者以外の者がHMDに表示されている描画画像を観視するためのものとするようにしてもよい。
 また、座標の変換は、空間位置検出用ユニット30で検出した電子ペンのペン先の座標値をデジタイザ20における座標系の座標値に変換するようにしたが、逆に、デジタイザ20で検出した電子ペンのペン先の座標値を空間位置検出用ユニット30における座標系の座標値に変換するようにしてもよい。
 また、上述の実施形態では、電子ペン及びデジタイザは、電磁誘導方式のものを用いるようにしたが、これに限られるものではなく、静電方式(アクティブ静電結合方式、パッシブ静電結合方式を含む)やその他の方式の電子ペンとデジタイザを用いることも、勿論できる。
 また、上述の実施形態のデジタイザは、いわゆるスマートフォンと呼ばれる携帯型携帯電話端末であってもよいし、また、デジタイザ付のパーソナルコンピューターであってもよい。
 なお、以上の説明では、空間位置指示システムにより3D描画をする場合について説明したが、この発明の対象とする描画画像は、2D描画画像や2.5D描画画像であってもよい。
 10…3次元位置指示器、11…電子ペン、11a…電子ペン11のペン先、12…トラッカー、13…ホルダー、20…デジタイザ、22…位置検出センサ、23…位置検出回路、24A,24B…トラッカー、30…空間位置検出用ユニット、31A,31B…発光追跡装置、40…空間描画情報生成装置、41…入力情報処理部、42…表示画像生成部、50…HMD、131…グリップ部、132…電子ペン装着部、133…トラッカー装着部、410…空間位置検出回路、413…座標変換回路、421…描画像生成回路、422…VR画像生成回路
 

Claims (20)

  1.  棒状部の軸心方向の一端側の先端部により、位置検出センサの入力面における位置指示が可能であると共に、3次元空間における位置指示が可能である3次元位置指示器であって、
     外部装置とインタラクションして前記3次元空間の空間座標系における位置と方向とを前記外部装置に検出させるための空間位置指標部が、前記先端部に対して、前記検出される位置及び方向と特定の位置関係及び方向関係となるように設けられていると共に、
     前記棒状部内には、前記先端部による指示位置を、前記位置検出センサで検出させるために、前記位置検出センサとインタラクションするためのインタラクション部が設けられており、
     前記外部装置において、前記空間位置指標部とのインタラクションにより前記検出された位置及び方向と、前記特定の位置関係及び方向関係とに基づいて、前記3次元空間における前記先端部による指示位置を算出可能とする
     ことを特徴とする3次元位置指示器。
  2.  前記空間位置指標部は、前記棒状部を保持するためのホルダーに取り付けられていると共に、前記棒状部は、前記ホルダーとは別体の、前記先端部をペン先とする電子ペンとされており、
     前記ホルダーには、前記電子ペンを、前記ペン先と前記空間位置指標部との前記特定の位置関係及び方向関係を維持して装着するための装着部が設けられている
     ことを特徴とする請求項1に記載の3次元位置指示器。
  3.  前記ホルダーの前記装着部は、前記電子ペンを差し込むことで、前記ペン先と前記空間位置指標部との前記特定の位置関係及び方向関係を保持して係止する状態となる凹部を備える
     ことを特徴とする請求項2に記載の3次元位置指示器。
  4.  前記装着部に前記電子ペンが装着されていることを、前記外部装置に通知する手段を備える
     ことを特徴とする請求項2に記載の3次元位置指示器。
  5.  前記空間位置指標部は、使用者の手で隠れないうように前記ホルダーに設けられている
     ことを特徴とする請求項1に記載の3次元位置指示器。
  6.  前記ホルダーの前記装着部に前記電子ペンが装着されたときにも、前記電子ペンに設けられているスイッチ操作部の操作が可能となっている
     ことを特徴とする請求項2に記載の3次元位置指示器。
  7.  前記空間位置指標部は、前記外部装置と光学的にインタラクションするものであって、前記外部装置が備える発光部からの光を受光したときに、その受光を前記外部装置に通知する手段を備える
     ことを特徴とする請求項1に記載の3次元位置指示器。
  8.  前記インタラクション部は、前記位置検出センサと電磁誘導方式で結合することでインタラクションする
     ことを特徴とする請求項1に記載の3次元位置指示器。
  9.  前記インタラクション部は、前記位置検出センサと静電結合方式で結合することでインタラクションする
     ことを特徴とする請求項1に記載の3次元位置指示器。
  10.  前記ホルダーには、使用者が操作する1または複数の操作部が設けられており、
     前記操作部の操作情報を、前記外部装置に対して有線または無線で伝達する
     ことを特徴とする請求項1に記載の3次元位置指示器。
  11.  棒状部の軸心方向の一端側の先端部を指示位置とする3次元位置指示器と、位置検出センサと、空間位置検出装置とを備える3次元位置検出システムであって、
     前記3次元位置指示器は、
     前記空間位置検出装置とインタラクションして前記3次元空間の空間座標系における位置と方向とを前記空間位置検出装置で検出させるためのものであって、前記先端部に対して前記空間位置検出装置で検出される位置及び方向と特定の位置関係及び方向関係となるように設けられている空間位置指標部と、
     前記位置検出センサとインタラクションして、前記先端部による指示位置を前記位置検出センサで検出させるために、前記棒状部内に設けられるインタラクション部と、
     を備え、
     前記空間位置検出装置は、
     前記3次元位置指示器の前記空間位置指標部とのインタラクションにより前記検出された位置及び方向と、前記特定の位置関係及び方向関係とに基づいて、前記3次元空間における前記3次元位置指示器の前記先端部による指示位置を算出する
     ことを特徴とする3次元位置検出システム。
  12.  前記空間位置検出装置は、前記検出した前記3次元位置指示器の空間位置指標部の位置及び方向から前記先端部の指示位置を算出するための、前記3次元位置指示器の前記空間位置指標部と前記先端部との特定の位置関係及び方向関係に基づいて生成される補正値を記憶している
     ことを特徴とする請求項11に記載の3次元位置検出システム。
  13.  前記位置検出センサで検出された前記3次元位置指示器の前記先端部の位置と、前記空間位置検出装置で検出された前記3次元位置指示器の前記先端部の位置とのいずれかを選択して出力する選択出力手段を備える
     ことを特徴とする請求項11に記載の3次元位置検出システム。
  14.  前記空間位置検出装置の前記3次元空間内に、前記位置検出センサの入力面が含まれており、
     前記前記3次元空間の空間座標系と前記位置検出センサの入力面における座標系との一方を他方に一致させるための座標変換補正手段を、前記選択出力手段の前段に備える
     ことを特徴とする請求項13に記載の3次元位置検出システム。
  15.  前記選択出力手段からの指示位置の軌跡を表示する表示手段を備え、
     前記表示手段に表示される前記指示位置の軌跡の画像は、VR(Virtual Reality)画像である
     ことを特徴とする請求項13または請求項14に記載の3次元位置検出システム。
  16.  前記3次元位置指示器の前記空間位置指標部は、前記棒状部を保持するためのホルダーに取り付けられていると共に、前記棒状部は、前記ホルダーとは別体の、前記先端部をペン先とする電子ペンとされており、
     前記ホルダーには、前記電子ペンを、前記ペン先と前記空間位置指標部との前記特定の位置関係及び方向関係を維持して装着するための装着部が設けられており、
     前記3次元位置指示器には、前記装着部に前記電子ペンが装着されていることを、前記空間位置検出装置に通知する手段が設けられており、
     前記空間位置検出装置は、前記3次元位置指示器から前記電子ペンが装着されていることの通知を受けたときに、前記3次元位置指示器の前記空間位置指標部とのインタラクションにより前記検出された位置及び方向と、前記特定の位置関係及び方向関係とに基づいて、前記3次元空間における前記3次元位置指示器の前記先端部による指示位置を算出する
     ことを特徴とする請求項11に記載の3次元位置検出システム。
  17.  ホルダーに、空間位置検出装置とインタラクションして3次元空間の空間座標系における位置と方向とを前記空間位置検出装置に検出させる空間位置指標部が設けられている3次元位置指示器と、前記空間位置検出装置とを備える3次元位置検出システムであって、
     前記空間位置検出装置は、前記検出した前記3次元位置指示器の位置及び方向に対して特定の位置関係及び方向関係にある前記3次元空間内の位置を前記3次元位置指示器による指示位置として検出する
     ことを特徴とする3次元位置検出システム。
  18.  前記空間位置検出装置は、前記3次元位置指示器の空間位置指標部の位置及び方向から前記指示位置を検出するための、前記3次元位置指示器の前記空間位置指標部と前記指示位置との特定の位置関係及び方向関係に基づいて生成される補正値を記憶している
     ことを特徴とする請求項17に記載の3次元位置検出システム。
  19.  前記空間位置検出装置で検出された指示位置に基づいて、前記3次元空間において仮想的に描画を行う描画装置を備え、
     前記描画装置は、前記指示位置を先端部とするスタイラスの画像を仮想的に生成する手段を備える
     ことを特徴とする請求項17に記載の3次元位置検出システム。
  20.  前記3次元位置指示器は、前記ホルダーに、使用者が操作する操作部を備えると共に、前記操作部の操作情報を、前記空間位置検出装置に対して有線または無線で伝達する手段を備え、
     前記空間位置検出装置は、前記3次元位置指示器からの前記操作部の操作情報に応じて前記検出した前記3次元位置指示器の位置及び方向に対して特定の位置関係及び方向関係にある前記3次元空間内の位置を前記3次元位置指示器による指示位置として算出するか否かを決定する
     ことを特徴とする請求項17に記載の3次元位置検出システム。
     
PCT/JP2018/046976 2018-03-23 2018-12-20 3次元位置指示器及び3次元位置検出システム WO2019181118A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201880091007.5A CN111837096A (zh) 2018-03-23 2018-12-20 三维位置指示器及三维位置检测系统
JP2020507357A JP7321995B2 (ja) 2018-03-23 2018-12-20 位置指示器及び位置検出システム
EP18910270.0A EP3770732B1 (en) 2018-03-23 2018-12-20 Three-dimensional pointing device and three-dimensional position detection system
US17/010,652 US11294478B2 (en) 2018-03-23 2020-09-02 Three-dimensional position indicator and three-dimensional position detection system
US17/681,666 US11934592B2 (en) 2018-03-23 2022-02-25 Three-dimensional position indicator and three-dimensional position detection system including grip part orthogonal to electronic pen casing
JP2023121723A JP2023129627A (ja) 2018-03-23 2023-07-26 位置指示器及び位置検出システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018055544 2018-03-23
JP2018-055544 2018-03-23

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/010,652 Continuation US11294478B2 (en) 2018-03-23 2020-09-02 Three-dimensional position indicator and three-dimensional position detection system

Publications (1)

Publication Number Publication Date
WO2019181118A1 true WO2019181118A1 (ja) 2019-09-26

Family

ID=67987084

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/046976 WO2019181118A1 (ja) 2018-03-23 2018-12-20 3次元位置指示器及び3次元位置検出システム

Country Status (5)

Country Link
US (2) US11294478B2 (ja)
EP (1) EP3770732B1 (ja)
JP (2) JP7321995B2 (ja)
CN (1) CN111837096A (ja)
WO (1) WO2019181118A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021240930A1 (ja) * 2020-05-29 2021-12-02 株式会社ソニー・インタラクティブエンタテインメント 入力デバイス
WO2022003512A1 (en) * 2020-07-01 2022-01-06 Wacom Co., Ltd. Systems and methods for dynamic sketching with exaggerated content
WO2022085395A1 (ja) * 2020-10-23 2022-04-28 株式会社ワコム コンピュータ、方法、及びプログラム
WO2022201693A1 (ja) * 2021-03-22 2022-09-29 株式会社ワコム コントローラ及びトラッキングシステム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3764201A4 (en) * 2018-03-05 2021-12-08 Wacom Co., Ltd. INPUT DEVICE WITH ELECTRONIC PEN
US11644907B2 (en) * 2021-02-26 2023-05-09 Logitech Europe S.A. Systems, devices, and methods for physical surface tracking with a stylus device in an AR/VR environment
US11397478B1 (en) * 2021-02-26 2022-07-26 Logitech Europe S.A. Systems, devices, and methods for physical surface tracking with a stylus device in an AR/VR environment
US11630504B2 (en) * 2021-03-16 2023-04-18 Htc Corporation Handheld input device and electronic system
TWI796965B (zh) * 2021-05-03 2023-03-21 宏達國際電子股份有限公司 手持式電子裝置
US11681370B2 (en) * 2021-09-16 2023-06-20 Htc Corporation Handheld controller and control method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001296961A (ja) * 2000-04-14 2001-10-26 Ricoh Co Ltd 入力装置
JP2001344060A (ja) * 2000-05-31 2001-12-14 Matsushita Electric Ind Co Ltd インタラクティブボード用ペン
JP2004078496A (ja) * 2002-08-15 2004-03-11 Fujitsu Ltd 超音波型座標入力装置
US20070073133A1 (en) * 2005-09-15 2007-03-29 Schoenefeld Ryan J Virtual mouse for use in surgical navigation
JP2009205609A (ja) * 2008-02-29 2009-09-10 Sharp Corp ポインティング装置
JP2010509582A (ja) * 2006-11-10 2010-03-25 インテリジェント・アース・リミテッド 物体の位置及び定位検出システム
US9367169B2 (en) 2014-03-31 2016-06-14 Stmicroelectronics Asia Pacific Pte Ltd Method, circuit, and system for hover and gesture detection with a touch screen

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4991148A (en) * 1989-09-26 1991-02-05 Gilchrist Ian R Acoustic digitizing system
US5488204A (en) * 1992-06-08 1996-01-30 Synaptics, Incorporated Paintbrush stylus for capacitive touch sensor pad
US7268774B2 (en) * 1998-08-18 2007-09-11 Candledragon, Inc. Tracking motion of a writing instrument
EP1228480B1 (en) * 1999-11-08 2004-08-25 Itpen Europe Limited Method for digitizing writing and drawing with erasing and/or pointing capability
US20050190163A1 (en) * 2004-02-27 2005-09-01 Marko Sarasmo Electronic device and method of operating electronic device
JP2006092410A (ja) * 2004-09-27 2006-04-06 Pioneer Electronic Corp 電子ペンおよびタッチパネル装置
US20080166175A1 (en) * 2007-01-05 2008-07-10 Candledragon, Inc. Holding and Using an Electronic Pen and Paper
US20100021022A1 (en) * 2008-02-25 2010-01-28 Arkady Pittel Electronic Handwriting
JP2011018090A (ja) * 2009-07-07 2011-01-27 Panasonic Corp 電子ペン及び電子ペンシステム
US20120229384A1 (en) * 2009-12-03 2012-09-13 Sharp Kabushiki Kaisha Display device with location detection function and input location detection system
JP5362848B2 (ja) * 2009-12-11 2013-12-11 シャープ株式会社 光センサ回路、二次元座標検出装置、情報処理装置および光センサ素子のリフレッシュ駆動方法
JP2013084096A (ja) * 2011-10-07 2013-05-09 Sharp Corp 情報処理装置
US20150116289A1 (en) * 2012-04-23 2015-04-30 N-Trig Ltd. Pressure sensitive stylus for a digitizer
US20140354553A1 (en) * 2013-05-29 2014-12-04 Microsoft Corporation Automatically switching touch input modes
EP3056975B1 (en) * 2013-10-08 2020-08-12 Maxell, Ltd. Projection type image display device, manipulation detection device and projection type image display method
US20150116290A1 (en) * 2013-10-25 2015-04-30 Livescribe Inc. Combined activation mechanism of retractable marker and power status for an electronic pen
JP2016038902A (ja) * 2014-08-06 2016-03-22 株式会社リコー 接触検出システム、情報処理方法、情報処理装置、及びプログラム
CN106796460B (zh) * 2014-10-10 2019-10-11 Nec显示器解决方案株式会社 显示系统、输入装置、显示装置及显示方法
JP6477130B2 (ja) * 2015-03-27 2019-03-06 セイコーエプソン株式会社 インタラクティブプロジェクター及びインタラクティブプロジェクションシステム
US9684391B1 (en) * 2015-12-11 2017-06-20 Logomark, Inc. Telescopic mechanism and touch tool for writing instrument or the like
JP2017117312A (ja) * 2015-12-25 2017-06-29 株式会社リコー 情報処理装置、情報入力システム、情報処理方法およびプログラム
WO2019220803A1 (ja) * 2018-05-18 2019-11-21 株式会社ワコム 位置指示装置及び情報処理装置
JP7401427B2 (ja) * 2018-05-21 2023-12-19 株式会社ワコム 位置指示デバイス及び空間位置指示システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001296961A (ja) * 2000-04-14 2001-10-26 Ricoh Co Ltd 入力装置
JP2001344060A (ja) * 2000-05-31 2001-12-14 Matsushita Electric Ind Co Ltd インタラクティブボード用ペン
JP2004078496A (ja) * 2002-08-15 2004-03-11 Fujitsu Ltd 超音波型座標入力装置
US20070073133A1 (en) * 2005-09-15 2007-03-29 Schoenefeld Ryan J Virtual mouse for use in surgical navigation
JP2010509582A (ja) * 2006-11-10 2010-03-25 インテリジェント・アース・リミテッド 物体の位置及び定位検出システム
JP2009205609A (ja) * 2008-02-29 2009-09-10 Sharp Corp ポインティング装置
US9367169B2 (en) 2014-03-31 2016-06-14 Stmicroelectronics Asia Pacific Pte Ltd Method, circuit, and system for hover and gesture detection with a touch screen

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021240930A1 (ja) * 2020-05-29 2021-12-02 株式会社ソニー・インタラクティブエンタテインメント 入力デバイス
JP7401671B2 (ja) 2020-05-29 2023-12-19 株式会社ソニー・インタラクティブエンタテインメント 入力デバイス
WO2022003512A1 (en) * 2020-07-01 2022-01-06 Wacom Co., Ltd. Systems and methods for dynamic sketching with exaggerated content
WO2022085395A1 (ja) * 2020-10-23 2022-04-28 株式会社ワコム コンピュータ、方法、及びプログラム
WO2022201693A1 (ja) * 2021-03-22 2022-09-29 株式会社ワコム コントローラ及びトラッキングシステム

Also Published As

Publication number Publication date
EP3770732A1 (en) 2021-01-27
JP7321995B2 (ja) 2023-08-07
EP3770732A4 (en) 2021-06-09
CN111837096A (zh) 2020-10-27
US20200401245A1 (en) 2020-12-24
US20220179506A1 (en) 2022-06-09
JPWO2019181118A1 (ja) 2021-03-11
US11934592B2 (en) 2024-03-19
EP3770732B1 (en) 2023-06-14
JP2023129627A (ja) 2023-09-14
US11294478B2 (en) 2022-04-05

Similar Documents

Publication Publication Date Title
WO2019181118A1 (ja) 3次元位置指示器及び3次元位置検出システム
CN111033452B (zh) 空间位置指示系统
JP7386152B2 (ja) 入力システム及び入力方法
Foxlin et al. Weartrack: A self-referenced head and hand tracker for wearable computers and portable vr
JP5218016B2 (ja) 入力装置およびデータ処理システム
CN111344663B (zh) 渲染装置及渲染方法
JP5561092B2 (ja) 入力装置、入力制御システム、情報処理方法及びプログラム
US20230205416A1 (en) Spatial position indication system
CN103946773A (zh) 多功能笔输入外围计算机控制器
CN110209270A (zh) 一种数据手套、数据手套系统、校正方法及存储介质
CN212256257U (zh) 电子设备用控制器
JP2023531302A (ja) 動的な形状スケッチングのためのシステム及び方法
KR20040020262A (ko) 펜 타입의 다기능 마우스 입력장치
US20230333394A1 (en) Systems Having Peripherals With Magnetic Field Tracking
WO2023188659A1 (ja) 情報処理システム
JPH07271504A (ja) 3次元仮想指示入力装置
JP2024025076A (ja) マーカ位置登録装置、マーカ位置登録プログラム及びマーカ位置登録方法
CN115968465A (zh) 计算机、方法及程序

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18910270

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020507357

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018910270

Country of ref document: EP

Effective date: 20201023