WO2020250410A1 - 情報処理装置、情報処理方法、プログラム、表示システム、表示方法及び電子筆記具 - Google Patents

情報処理装置、情報処理方法、プログラム、表示システム、表示方法及び電子筆記具 Download PDF

Info

Publication number
WO2020250410A1
WO2020250410A1 PCT/JP2019/023625 JP2019023625W WO2020250410A1 WO 2020250410 A1 WO2020250410 A1 WO 2020250410A1 JP 2019023625 W JP2019023625 W JP 2019023625W WO 2020250410 A1 WO2020250410 A1 WO 2020250410A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic writing
information
writing instruments
information processing
display image
Prior art date
Application number
PCT/JP2019/023625
Other languages
English (en)
French (fr)
Inventor
貴広 浅野
Original Assignee
シャープNecディスプレイソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープNecディスプレイソリューションズ株式会社 filed Critical シャープNecディスプレイソリューションズ株式会社
Priority to JP2021525532A priority Critical patent/JPWO2020250410A1/ja
Priority to PCT/JP2019/023625 priority patent/WO2020250410A1/ja
Priority to CN201980097309.8A priority patent/CN113939790B/zh
Publication of WO2020250410A1 publication Critical patent/WO2020250410A1/ja
Priority to US17/527,860 priority patent/US11868544B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device

Definitions

  • the present invention relates to an information processing device, an information processing method, a program, a display system, a display method, and an electronic writing instrument.
  • a display system in which a user can write an object (for example, a character, a figure, or a symbol) on a display image projected on a projector or displayed on a display using an electronic writing instrument.
  • an object for example, a character, a figure, or a symbol
  • Patent Documents 1 and 2 describe an example of a display system.
  • an object is written on the display image by an electronic writing instrument.
  • the electronic writing instrument has a light emitting unit.
  • the light emitted from the light emitting part of the electronic writing instrument is captured by the camera. With this light, the electronic writing instrument can be detected.
  • a plurality of electronic writing instruments are located on one display image, for example, even if a plurality of electronic writing instruments are detected by a camera, for example, a feature of each of the plurality of electronic writing instruments that can be detected by the camera (for example, each).
  • a feature of each of the plurality of electronic writing instruments that can be detected by the camera for example, each.
  • An example of an object of the present invention is to accurately identify the position of each of a plurality of electronic writing instruments on a displayed image.
  • Other objects of the invention will become apparent from the description herein.
  • the detection positions of the plurality of electronic writing instruments on the display image are generated by processing the detection results output from the first sensor provided outside the plurality of electronic writing instruments for writing the plurality of objects on the display image.
  • the first information including the first information and the second information including the relative position of the other electronic writing instrument with respect to each electronic writing instrument generated by processing the detection result output from the second sensor provided in each of the plurality of electronic writing instruments.
  • the detection positions of the plurality of electronic writing instruments on the display image are generated by processing the detection results output from the first sensor provided outside the plurality of electronic writing instruments for writing the plurality of objects on the display image.
  • the first information including the first information and the second information including the relative position of the other electronic writing instrument with respect to each electronic writing instrument generated by processing the detection result output from the second sensor provided in each of the plurality of electronic writing instruments.
  • each of the plurality of electronic writing instruments and the respective positions of the plurality of electronic writing instruments on the display image are associated with each other. It is an information processing method including.
  • Yet another aspect of the present invention is On the computer
  • the detection positions of the plurality of electronic writing instruments on the display image are generated by processing the detection results output from the first sensor provided outside the plurality of electronic writing instruments for writing the plurality of objects on the display image.
  • the first information including the first information and the second information including the relative position of the other electronic writing instrument with respect to each electronic writing instrument generated by processing the detection result output from the second sensor provided in each of the plurality of electronic writing instruments.
  • Yet another aspect of the present invention is Display device and A plurality of electronic writing instruments used for writing a plurality of objects on a display image displayed by the display device, and a plurality of electronic writing instruments.
  • Information processing device and With The information processing device First information including detection positions of the plurality of electronic writing instruments generated by processing of detection results output from a first sensor provided outside the plurality of electronic writing instruments, and the plurality of electrons.
  • An associating means for associating each of the plurality of electronic writing instruments with the respective positions of the plurality of electronic writing instruments on the display image by using the first information and the second information. It is a display system equipped with.
  • Yet another aspect of the present invention is The relative position of the other electronic writing instrument with respect to each of the plurality of electronic writing instruments is detected by a sensor provided in each of the plurality of electronic writing instruments. Using the information on the relative positions of the other electronic writing instruments with respect to each of the plurality of electronic writing instruments, the objects associated with each of the plurality of electronic writing instruments are arranged in a manner corresponding to each of the plurality of electronic writing instruments. It is a display method to be displayed on the display screen.
  • Yet another aspect of the present invention is It ’s an electronic writing instrument, A light emitting part that emits light when writing an object to the display image, A sensor that detects another electronic writing instrument when writing the object to the display image, It is an electronic writing instrument equipped with.
  • FIG. It is a figure for demonstrating the display system which concerns on Embodiment 1.
  • FIG. It is a figure which shows an example of the electronic writing instrument used for the display system shown in FIG. (A) is a diagram for explaining an example of detection positions of a plurality of electronic writing instruments on a display image, and (b) is for explaining an example of relative positions of other electronic writing instruments with respect to each electronic writing instrument. It is a figure of. It is a flowchart which shows an example of each operation of the information processing apparatus, a plurality of electronic writing instruments, and a sensor apparatus shown in FIG. It is a figure for demonstrating the display system which concerns on Embodiment 2.
  • FIG. 1 is a diagram for explaining the display system 30 according to the first embodiment.
  • FIG. 2 is a diagram showing an example of an electronic writing instrument 300 used in the display system 30 shown in FIG.
  • FIG. 3A is a diagram for explaining an example of detection positions of a plurality of electronic writing instruments 300 on the display image 200.
  • the hatched circles in FIG. 3A indicate the detection positions of the plurality of electronic writing instruments 300.
  • FIG. 3B is a diagram for explaining an example of the relative position of another electronic writing instrument 300 with respect to each electronic writing instrument 300.
  • FIG. 3B shows the relative positions (tips of arrows in the figure) of the electronic writing instrument 300b and the electronic writing instrument 300c with respect to the electronic writing instrument 300a (black circles in the drawing), and FIG.
  • the middle part of b) shows the relative positions (tips of arrows in the figure) of the electronic writing instrument 300c and the electronic writing instrument 300a with respect to the electronic writing instrument 300b (black circles in the figure), and the lower part of FIG. 3B shows.
  • the relative positions (tips of arrows in the figure) of the electronic writing instrument 300a and the electronic writing instrument 300c with respect to the electronic writing instrument 300c are shown.
  • the display system 30 includes an information processing device 10, a display device 20, a plurality of electronic writing instruments 300, and a sensor device 400.
  • the display device 20 displays the display image 200.
  • the information processing device 10 includes an acquisition unit 110 and an association unit 120.
  • the acquisition unit 110 acquires the first information and the second information.
  • the first information includes the detection positions of the plurality of electronic writing instruments 300 on the display image 200.
  • the first information is generated by processing the detection result output from the first sensor 410.
  • the first sensor 410 is provided outside the plurality of electronic writing instruments 300.
  • the plurality of electronic writing instruments 300 are for writing a plurality of objects on the display image 200, respectively.
  • the second information includes the relative position of the other electronic writing instrument 300 with respect to each electronic writing instrument 300.
  • the second information is generated by processing the detection results output from the plurality of second sensors 320.
  • Each of the plurality of second sensors 320 is provided in each of the plurality of electronic writing instruments 300.
  • the association unit 120 uses the first information and the second information to associate each of the plurality of electronic writing instruments 300 with the respective positions of the plurality of electronic writing instruments 300 on the display image 200.
  • the association unit 120 not only detects the detection positions of the plurality of electronic writing instruments 300 on the display image 200 (for example, FIG. 3A), but also other electronic writing instruments 300 with respect to each electronic writing instrument 300.
  • the relative positions of the electronic writing instruments 300 are also used to associate each of the plurality of electronic writing instruments 300 with the respective positions of the plurality of electronic writing instruments 300 on the display image 200. .. For example, even if information on the detection positions of a plurality of electronic writing instruments 300 is obtained by the first sensor 410 as shown in FIG.
  • the electronic writing instrument located at each detection position is the electronic writing instrument 300a, the electronic writing instrument 300b, or the electronic writing instrument 300c. Can not do it.
  • the electronic writing instrument located at each detection position is detected by the second sensor 320 by detecting the relative position of the other electronic writing instrument 300 with respect to each electronic writing instrument 300. Is an electronic writing instrument 300a, an electronic writing instrument 300b, or an electronic writing instrument 300c.
  • the following display method is realized. That is, the relative positions of the other electronic writing instruments 300 with respect to each of the plurality of electronic writing instruments 300 are detected by the second sensor 320 provided in each of the plurality of electronic writing instruments 300. Next, using the information on the relative positions of the other electronic writing instruments 300 with respect to each of the plurality of electronic writing instruments 300, the objects associated with each of the plurality of electronic writing instruments 300 were set according to each of the plurality of electronic writing instruments 300. It is displayed on the display image 200 in an embodiment. In the present embodiment, as described above, it is possible to accurately specify which position of each of the plurality of electronic writing instruments 300 is located on the display image 200. Therefore, each aspect of the plurality of objects can be accurately associated with each of the plurality of electronic writing instruments 300.
  • the first sensor 410 can detect the light emitted from the light emitting unit 310 provided in each of the plurality of electronic writing instruments 300.
  • the first information (the respective positions of the plurality of electronic writing instruments 300 on the display image 200) is generated by processing the detection result of the light emitted from the light emitting unit 310.
  • the light generated from the light emitting unit 310 may be detected from an image including a display image 200 in which a plurality of objects are written.
  • the first sensor 410 may detect the contact or proximity of each of the plurality of electronic writing instruments 300 to the display image 200 instead of the light.
  • the first information (the respective positions of the plurality of electronic writing instruments 300 on the display image 200) is generated by processing the detection result of the position where the electronic writing instrument 300 comes into contact with or is close to the display image 200.
  • the display image 200 can be, for example, a touch screen
  • the first sensor 410 can be, for example, a contact sensor, a pressure sensor, or a proximity sensor provided on the touch screen.
  • the plurality of objects are displayed superimposed on the display image 200 based on the plurality of trajectories that the plurality of electronic writing instruments 300 each follow.
  • the locus followed by the electronic writing instrument 300 can be specified by using the detection result of the first sensor 410.
  • the acquisition unit 110 acquires the first information via one interface (for example, one of wired and wireless), and via another interface different from this one interface (for example, the other of wired and wireless).
  • the second information may be acquired.
  • the acquisition unit 110 may acquire both the first information and the second information via a common interface (for example, either wired or wireless).
  • the display device 20 is a projector.
  • the display image 200 may be an image projected on a projection surface (for example, a screen or a wall) by a projector (display device 20).
  • the display device 20 is a display.
  • the display image 200 may be an image displayed on the display surface by the display (display device 20).
  • the display image 200 is realized by, for example, an electronic blackboard.
  • Each of the plurality of objects is written in the display image 200 by each of the plurality of electronic writing instruments 300.
  • three different objects are written by the electronic writing instrument 300a, the electronic writing instrument 300b, and the electronic writing instrument 300c.
  • the electronic writing instrument 300 includes a support 302, a light emitting unit 310, a second sensor 320, a storage unit 330, a communication unit 340, and a pressing switch 350.
  • the support 302 has a front end and a rear end, and extends in one direction from the front end to the rear end.
  • the light emitting unit 310, the second sensor 320, the storage unit 330, the communication unit 340, and the pressing switch 350 are attached to the support body 302 and are integrated via the support body 302.
  • the light emitting unit 310 emits light when writing an object to the display image 200.
  • the light emitted from the light emitting unit 310 can be, for example, infrared light or visible light.
  • the light emitting unit 310 emits infrared rays
  • the light emitted from the light emitting unit 310 can be made not recognized by human vision.
  • the electronic writing instrument 300 moves in writing an object
  • the light emitted from the light emitting unit 310 also moves to form a trajectory of the light.
  • the light emitting unit 310 is located on the tip end side of the support 302. Therefore, the light emitting unit 310 can be brought close to the object. Therefore, the trajectory of the light emitted from the light emitting unit 310 can be made to almost follow the shape of the object.
  • the second sensor 320 detects the relative position of another electronic writing instrument 300 with respect to the electronic writing instrument 300 provided with the second sensor 320.
  • the second sensor 320 can be a sensor capable of detecting another electronic writing instrument 300, and includes, for example, at least one of an optical sensor and an ultrasonic sensor.
  • the second information is generated by processing the detection result output from the second sensor 320.
  • the place where the processing of the detection result of the second sensor 320 is executed is not particularly limited.
  • the processing of the detection result of the second sensor 320 may be executed inside the information processing apparatus 10 (for example, the acquisition unit 110), may be executed inside the electronic writing instrument 300, or information processing may be performed. It may be executed outside the device 10 and the electronic writing instrument 300 (for example, an external network).
  • the storage unit 330 stores the data (second information) obtained by processing the detection result of the second sensor 320.
  • the storage unit 330 may further store the identification information of the electronic writing instrument 300 (for example, the line color or the line shape of the object written by the electronic writing instrument 300) in advance.
  • the communication unit 340 transmits / receives a signal to an external device (for example, the information processing device 10 and the sensor device 400) of the electronic writing instrument 300.
  • the communication unit 340 can transmit the second information stored in the storage unit 330 to the information processing device 10.
  • the pressing switch 350 can be pressed against the display image 200.
  • the press switch 350 includes, for example, at least one selected from the group consisting of pressure sensors and contact sensors. While the pressing switch 350 is pressed by pressing the pressing switch 350 against the display image 200, the light emitting unit 310 emits light, the second sensor 320 detects another electronic writing instrument 300, and the storage unit 330 is the second. The data detected by the sensor 320 may be stored. In this way, the second sensor 320 can detect another electronic writing instrument 300 from the time when the electronic writing instrument 300 is pressed against the display image 200 until the electronic writing instrument 300 is separated from the display image 200. The second sensor 320 does not have to detect another electronic writing instrument 300 while the electronic writing instrument 300 is not pressed against the display image 200 (while the pressing switch 350 is not pressed).
  • the sensor device 400 includes a first sensor 410, a storage unit 420, and a communication unit 430.
  • the first sensor 410 detects the light emitted from the light emitting unit 310 of the electronic writing instrument 300. As a result, the first sensor 410 can detect the light (first information) emitted from the light emitting unit 310 of the electronic writing instrument 300.
  • the first sensor 410 has, for example, an imaging unit and an image processing unit.
  • the light (first information) emitted from the light emitting unit 310 of the electronic writing instrument 300 is generated by processing the image generated by the first sensor 410.
  • the image generated by this imaging unit is, for example, a moving image, and has a plurality of frame images.
  • the first information is generated by processing these frame images by the image processing unit.
  • the image processing unit is realized, for example, by installing software for image processing in a computer device having a CPU and a memory.
  • the image processing unit may be a microcomputer. This image processing unit may be provided integrally with the image pickup unit (for example, in the same housing), or may be provided separately from the image pickup unit.
  • the image processing unit may be included in the information processing device 10.
  • the first information is generated by processing the detection result output from the first sensor 410.
  • the place where the processing of the detection result of the first sensor 410 is executed is not particularly limited.
  • the processing of the detection result of the first sensor 410 may be executed inside the information processing device 10 (for example, acquisition unit 110) or outside the information processing device 10 (for example, an external network). You may.
  • the storage unit 420 stores the data (first information) obtained by the detection result of the first sensor 410.
  • the communication unit 430 transmits / receives a signal to an external device (for example, the information processing device 10 and the electronic writing instrument 300) of the sensor device 400.
  • the communication unit 430 can transmit the first information stored in the storage unit 420 to the information processing device 10.
  • the first sensor 410 may detect a plurality of electronic writing instruments 300 on the display image 200 from the time when the electronic writing instrument 300 is pressed against the display image 200 until the electronic writing instrument 300 is separated from the display image 200. For example, when the pressing switch 350 of the electronic writing instrument 300 is pressed against the display image 200 and the pressing switch 350 is pressed, the communication unit 340 of the electronic writing instrument 300 transmits a signal to the communication unit 430. In this case, even if the first sensor 410 detects the light of the light emitting unit 310 of the electronic writing instrument 300 and the storage unit 420 stores the data detected by the first sensor 410 while the pressing switch 350 is pressed. Good. The first sensor 410 does not have to detect the electronic writing instrument 300 while the electronic writing instrument 300 is not pressed against the display image 200.
  • the acquisition unit 110 acquires the first information transmitted from the sensor device 400 (first sensor 410), and acquires the second information transmitted from the electronic writing instrument 300 (second sensor 320).
  • the first information may be transmitted directly from the sensor device 400 (first sensor 410) to the acquisition unit 110, or to the acquisition unit 110 via a device different from the sensor device 400 (first sensor 410). It may be transmitted.
  • the second information may be transmitted directly from the electronic writing instrument 300 (second sensor 320) to the acquisition unit 110, or to the acquisition unit 110 via a device different from the electronic writing instrument 300 (second sensor 320). It may be transmitted.
  • FIG. 4 is a flowchart showing an example of the operation of each of the information processing device 10, the plurality of electronic writing instruments 300, and the sensor device 400 shown in FIG.
  • each electronic writing instrument 300 detects whether or not the pressing switch 350 is pressed until the pressing switch 350 is pressed against the display image 200 and the pressing switch 350 is pressed (step S210: No) (step S210). ).
  • each electronic writing instrument 300 detects that the pressing switch 350 is pressed (step S210: Yes)
  • each electronic writing instrument 300 causes the second sensor 320 to detect another electronic writing instrument 300, and the second sensor 320
  • the relative position (second information) generated by the processing of the detection result is stored in the storage unit 330 (step S220). Further, each electronic writing instrument 300 generates light from the light emitting unit 310 (step S230).
  • the sensor device 400 causes the first sensor 410 to detect the light emission of the light emitting unit 310 of each electronic writing instrument 300, and stores the detection position (first information) generated by the processing of the detection result of the first sensor 410 in the storage unit 420. It is stored (step S240).
  • the acquisition unit 110 of the information processing device 10 acquires the first information and the second information (step S110).
  • the acquisition unit 110 may acquire the first information and the second information.
  • the acquisition unit 110 may acquire the first information and the second information at different timings, or may acquire the first information and the second information at the same timing.
  • the acquisition unit 110 may acquire the first information after the step S220 is performed and before the steps S230 and S240 are performed, or after the steps S220, S230 and S240 are performed.
  • Second information may be acquired.
  • the acquisition unit 110 may acquire both the first information and the second information at the same timing after the steps S220, S230, and S240 are executed.
  • the associating unit 120 of the information processing apparatus 10 uses the first information and the second information to position each of the plurality of electronic writing instruments 300 and the positions of the plurality of electronic writing instruments 300 on the display image 200. And are associated with each other (step S120).
  • steps S220, S230 and S240 are carried out based on whether or not the pressing switch 350 of the electronic writing instrument 300 is pressed (step S210), but steps S220, S230 and S240 are performed. It may be carried out by a method other than the pressing switch 350 based on whether or not the electronic writing instrument 300 is in contact with or close to the display image 200.
  • FIG. 5 is a diagram for explaining the display system 30 according to the second embodiment.
  • the display system 30 according to the second embodiment is the same as the display system 30 according to the first embodiment except for the following points.
  • the information processing device 10 further includes a control unit 130.
  • the control unit 130 causes each of the plurality of objects to be displayed on the display image 200 in a different manner according to each of the plurality of electronic writing instruments 300.
  • each aspect of the plurality of objects can be accurately associated with each of the plurality of electronic writing instruments 300.
  • the association unit 120 has the positions of the plurality of electronic writing instruments 300 and the positions of the plurality of electronic writing instruments 300 on the display image 200. , Has acquired the correspondence.
  • the control unit 130 can display a plurality of objects on the display image 200 in different modes according to the plurality of electronic writing instruments 300. Therefore, each aspect of the plurality of objects can be accurately associated with each of the plurality of electronic writing instruments 300.
  • the aspect of the object may include, for example, at least one of the line color and the line shape of the object.
  • the line shape of the object includes, for example, at least one of line thickness and line type (eg, solid line, dashed line, dash-dotted line or double line).
  • the aspect of the object may differ depending on, for example, the identification information attached to the electronic writing instrument 300.
  • each of the plurality of electronic writing instruments 300 is provided with different identification information according to the plurality of electronic writing instruments 300.
  • the identification information may be stored in the storage unit 330 (FIG. 2) of the electronic writing instrument 300, for example.
  • the identification information may include, for example, the mode of the object written by each electronic writing instrument 300 (eg, the line color or line shape of the object).
  • the association unit 120 associates each of the plurality of identification information with the respective positions of the plurality of electronic writing instruments 300 on the display image 200. By doing so, each aspect of the plurality of objects can be accurately associated with each of the plurality of electronic writing instruments 300.
  • FIG. 6 is a flowchart showing an example of the operation of each of the information processing device 10, the plurality of electronic writing instruments 300, and the sensor device 400 shown in FIG.
  • the example shown in FIG. 6 is the same as the example shown in FIG. 4, except for the following points.
  • step S210, step S220, step S230 and step S240 are carried out in the same manner as in the example shown in FIG.
  • the acquisition unit 110 of the information processing device 10 acquires the first information, the second information, and a plurality of identification information (step S112).
  • the acquisition unit 110 may acquire the first information, the second information, and the plurality of identification information at different timings, or the first information, the second information, and the plurality of identification information at the same timing. And may be obtained.
  • the acquisition unit 110 may acquire a plurality of identification information before the step S210 is executed, or after the steps S210, S220, S230 and S240 are executed, the first information and the second information A plurality of identification information may be acquired at the same timing.
  • the associating unit 120 of the information processing apparatus 10 uses the first information and the second information to position each of the plurality of electronic writing instruments 300 and the positions of the plurality of electronic writing instruments 300 on the display image 200. And are associated with each other (step S120).
  • the associating unit 120 of the information processing apparatus 10 uses the first information, the second information, and the plurality of identification information to obtain each of the plurality of identification information and a plurality of electronic writing instruments on the display image 200.
  • Each position of 300 is associated with (step S130).
  • control unit 130 of the information processing apparatus 10 displays a plurality of objects on the display image 200 in different modes according to each of the plurality of electronic writing instruments 300 according to the association results of steps S120 and S130 (step). S140).
  • step S120 and step S130 each aspect of the plurality of objects can be accurately associated with each of the plurality of electronic writing instruments 300.
  • FIG. 7 is a diagram for explaining the display system 30 according to the third embodiment.
  • FIG. 8A is a diagram for explaining an example of detection positions of a plurality of electronic writing instruments 300 on the display image 200.
  • FIG. 8B is a diagram for explaining an example of each position of the plurality of electronic writing instruments 300 in the position information calculated by the calculation unit 140.
  • the display system 30 according to the third embodiment is the same as the display system 30 according to the first embodiment except for the following points.
  • the information processing device 10 further includes a calculation unit 140.
  • the calculation unit 140 calculates the position information by using the second information (the relative position of the other electronic writing instrument 300 with respect to each electronic writing instrument 300).
  • the position information includes the respective positions of the plurality of electronic writing instruments 300.
  • the associating unit 120 associates each of the plurality of electronic writing instruments 300 with the respective positions of the plurality of electronic writing instruments 300 on the display image 200 by using the first information and the position information.
  • the detection result (for example, the first information) of the first sensor 410 can be obtained by the second sensor. It can be complemented by the detection result (for example, position information) of the sensor 320.
  • the position information is calculated as follows, for example. First, for example, as shown in FIG. 3B, the relative positions of the other electronic writing instruments 300 with respect to each electronic writing instrument 300 are detected by the second sensor 320 of each of the plurality of electronic writing instruments 300. Next, each storage unit 330 of the plurality of electronic writing instruments 300 shares the relative position stored in the storage unit 330 of each electronic writing instrument 300. Then, for example, as shown in FIG. 8B, the calculation unit 140 calculates the respective positions of the plurality of electronic writing instruments 300 from the relative positions shared by each storage unit 330.
  • FIG. 9 is a flowchart showing an example of the operation of each of the information processing device 10, the plurality of electronic writing instruments 300, and the sensor device 400 shown in FIG. 7.
  • the example shown in FIG. 9 is the same as the example shown in FIG. 4, except for the following points.
  • step S210, step S220, step S230 and step S240 are carried out in the same manner as in the example shown in FIG.
  • the acquisition unit 110 of the information processing device 10 acquires the first information and the second information (step S110), and the calculation unit 140 of the information processing device 10 calculates the position information using the second information. (Step S115).
  • the timing of calculating the position information by the calculation unit 140 is not limited after the acquisition of the first information and the second information by the acquisition unit 110.
  • the calculation of the position information by the calculation unit 140 may be performed after the acquisition unit 110 acquires the second information and before the acquisition unit 110 acquires the first information.
  • the associating unit 120 of the information processing device 10 uses the first information and the position information to obtain each of the plurality of electronic writing instruments 300 and the respective positions of the plurality of electronic writing instruments 300 on the display image 200. , Are associated with each other (step S120).
  • FIG. 10 is a diagram showing an example of the hardware configuration of the information processing apparatus 10 according to the fourth embodiment.
  • the main configuration of the information processing device 10 is realized by using an integrated circuit.
  • This integrated circuit includes a bus 101, a processor 102, a memory 103, a storage device 104, an input / output interface 105, and a network interface 106.
  • the bus 101 is a data transmission path for the processor 102, the memory 103, the storage device 104, the input / output interface 105, and the network interface 106 to transmit and receive data to and from each other.
  • the method of connecting the processors 102 and the like to each other is not limited to the bus connection.
  • the processor 102 is an arithmetic processing unit realized by using a microprocessor or the like.
  • the memory 103 is a memory realized by using a RAM (Random Access Memory) or the like.
  • the storage device 104 is a storage device realized by using a ROM (Read Only Memory), a flash memory, or the like.
  • the input / output interface 105 is an interface for connecting the information processing device 10 to peripheral devices.
  • the network interface 106 is an interface for connecting the information processing device 10 to the communication network.
  • the method of connecting the network interface 106 to the communication network may be a wireless connection or a wired connection.
  • the information processing device 10 is connected to the display device 20, the electronic writing instrument 300 (for example, the communication unit 340 shown in FIG. 2) and the sensor device 400 (for example, the communication unit 430 shown in FIG. 1) via the network interface 106. Will be done.
  • the storage device 104 stores a program module for realizing each functional element of the information processing device 10.
  • the processor 102 realizes each function of the information processing device 10 by reading the program module into the memory 103 and executing the program module.
  • the hardware configuration of the integrated circuit described above is not limited to the configuration shown in FIG.
  • the program module may be stored in the memory 103.
  • the integrated circuit may not include the storage device 104.
  • the detection positions of the plurality of electronic writing instruments on the display image are generated by processing the detection results output from the first sensor provided outside the plurality of electronic writing instruments for writing the plurality of objects on the display image.
  • the first information including the first information and the second information including the relative position of the other electronic writing instrument with respect to each electronic writing instrument generated by processing the detection result output from the second sensor provided in each of the plurality of electronic writing instruments.
  • Information processing methods including. 1-2. 1-1.
  • Identification information is attached to each of the plurality of electronic writing instruments.
  • Corresponding each of the plurality of electronic writing instruments with the respective positions of the plurality of electronic writing instruments on the display image further further includes each of the plurality of identification information and the plurality of electrons on the display image.
  • In the information processing method described in Further including calculating the position information including the positions of the plurality of electronic writing instruments by using the second information.
  • Corresponding each of the plurality of electronic writing instruments with the respective positions of the plurality of electronic writing instruments on the display image uses the first information and the position information to associate the plurality of electronic writing instruments.
  • the information processing method described in any one of The first sensor is an information processing method for detecting light emitted from a light emitting unit provided in each of the plurality of electronic writing instruments. 1-5. 1-4.
  • In the information processing method described in any one of The first sensor is an information processing method for detecting the contact or proximity of each of the plurality of electronic writing instruments to the display image. 1-7. 1-1.
  • the information processing method described in any one of The second sensor is an information processing method including at least one of an optical sensor and an ultrasonic sensor. 1-8. 1-1. From 1-7.
  • the information processing method described in any one of Acquiring the first information and the second information acquires the first information and the second information when the plurality of electronic writing instruments are pressed against the display image.
  • the information processing method described in any one of An information processing method further comprising displaying the plurality of objects on the display image in a different manner according to each of the plurality of electronic writing instruments. 1-10. 1-9.
  • each of the plurality of objects comprises at least one of a line color and a line shape of each of the plurality of objects. 1-11. 1-1. From 1-10.
  • the display image is an image projected on a projection surface by a projector or an image displayed on a display surface by a display. 1-12. 1-1. From 1-11.
  • the plurality of objects are displayed superimposed on the display image based on a plurality of trajectories followed by the plurality of electronic writing instruments. 1-13. 1-1. From 1-12.
  • any one of Acquiring the first information and the second information means acquiring the first information via one interface and the second information via another interface different from the one interface. How to get information processing. 2-1.
  • the detection positions of the plurality of electronic writing instruments on the display image are generated by processing the detection results output from the first sensor provided outside the plurality of electronic writing instruments for writing the plurality of objects on the display image.
  • the first information including the first information and the second information including the relative position of the other electronic writing instrument with respect to each electronic writing instrument generated by processing the detection result output from the second sensor provided in each of the plurality of electronic writing instruments.
  • Identification information is attached to each of the plurality of electronic writing instruments.
  • the function of associating each of the plurality of electronic writing instruments with the respective positions of the plurality of electronic writing instruments on the display image further includes each of the plurality of identification information and the plurality of electrons on the display image.
  • the computer is further provided with a function of calculating position information including the positions of the plurality of electronic writing instruments.
  • the function of associating each of the plurality of electronic writing instruments with the respective positions of the plurality of electronic writing instruments on the displayed image is a function of associating the plurality of electronic writing instruments with the first information and the position information. And the position of each of the plurality of electronic writing instruments on the display image. 2-4. 2-1. From 2-3.
  • the first sensor is a program that detects light emitted from a light emitting unit provided in each of the plurality of electronic writing instruments. 2-5. 2-4.
  • a program in which the light emitted from the light emitting unit is detected from an image including the display image in which the plurality of objects are written. 2-6. 2-1. From 2-3.
  • the first sensor is a program that detects the contact or proximity of each of the plurality of electronic writing instruments to the display image. 2-7. 2-1. From 2-6.
  • the program described in any one of The second sensor is a program comprising at least one of an optical sensor and an ultrasonic sensor. 2-8. 2-1. From 2-7.
  • the program described in any one of The function of acquiring the first information and the second information acquires the first information and the second information when the plurality of electronic writing instruments are pressed against the display image. ,program. 2-9. 2-1. From 2-8.
  • any one of A program that further provides the computer with a function of displaying the plurality of objects on the display image in different modes according to each of the plurality of electronic writing instruments. 2-10. 2-9.
  • Each said aspect of the plurality of objects comprises at least one of the line color and line shape of each of the plurality of objects. 2-11. 2-1. From 2-10.
  • the display image is a program, which is an image projected on a projection surface by a projector or an image displayed on a display surface by a display. 2-12. 2-1. From 2-11.
  • the information processing device First information including detection positions of the plurality of electronic writing instruments generated by processing of detection results output from a first sensor provided outside the plurality of electronic writing instruments, and the plurality of electrons.
  • the associating means is a display system that further associates each of the plurality of identification information with the respective positions of the plurality of electronic writing instruments on the display image. 3-3. 3-1. Or 3-2.
  • the associating means is a display system that associates the plurality of electronic writing instruments with the respective positions of the plurality of electronic writing instruments on the display image by using the first information and the position information. .. 3-4. 3-1. From 3-3.
  • the first sensor is a display system that detects light emitted from a light emitting unit provided in each of the plurality of electronic writing instruments. 3-5. 3-4.
  • the display system described in any one of The first sensor is a display system that detects the contact or proximity of each of the plurality of electronic writing instruments to the display image. 3-7. 3-1. From 3-6.
  • the display system described in any one of The second sensor is a display system including at least one of an optical sensor and an ultrasonic sensor. 3-8. 3-1. From 3-7.
  • the acquisition means is a display system that acquires the first information and the second information when the plurality of electronic writing instruments are pressed against the display image. 3-9. 3-1.
  • each aspect of the plurality of objects comprises at least one of a line color and a line shape of each of the plurality of objects. 3-11. 3-1. From 3-10.
  • the display system described in any one of The display system is a display system in which the display image is an image projected on a projection surface by a projector or an image displayed on a display surface by a display. 3-12. 3-1. From 3-11.
  • the acquisition means is a display system that acquires the first information through one interface and acquires the second information through another interface different from the one interface.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

第1情報は、表示画像(200)上における複数の電子筆記具(300)の検出位置を含んでいる。第1情報は、第1センサ(410)から出力される検出結果の処理によって生成される。第1センサ(410)は、複数の電子筆記具(300)の外部に設けられている。複数の電子筆記具(300)は、表示画像(200)に複数のオブジェクトをそれぞれ書き込むためのものである。第2情報は、各電子筆記具(300)に対する他の電子筆記具(300)の相対的位置を含んでいる。第2情報は、複数の第2センサ(320)から出力される検出結果の処理によって生成される。複数の第2センサ(320)のそれぞれは、複数の電子筆記具(300)のそれぞれに設けられている。対応付け部(120)は、第1情報及び第2情報を用いて、複数の電子筆記具(300)のそれぞれと、表示画像(200)上における複数の電子筆記具(300)のそれぞれの位置と、を対応付ける。

Description

情報処理装置、情報処理方法、プログラム、表示システム、表示方法及び電子筆記具
 本発明は、情報処理装置、情報処理方法、プログラム、表示システム、表示方法及び電子筆記具に関する。
 近年、プロジェクタに投影され、又はディスプレイに表示された表示画像へユーザが電子筆記具を用いてオブジェクト(例えば、文字、図形又は記号)の書き込みが可能な表示システムが開発されている。
 特許文献1及び2には、表示システムの一例について記載されている。この表示システムでは、電子筆記具によって表示画像にオブジェクトが書き込まれている。電子筆記具は、発光部を有している。電子筆記具の発光部から発せられた光は、カメラによって撮像される。この光によって、電子筆記具を検出することができる。
特開2011-239319号公報 特開2018-156466号公報
 一の表示画像上に複数の電子筆記具が位置する場合、仮に、例えばカメラによって複数の電子筆記具を検出したとしても、例えば、複数の電子筆記具のそれぞれの、カメラによって検出可能な特徴(例えば、各電子筆記具の発光部から発せられる光の波長)が同一であるとき、複数の電子筆記具のそれぞれが表示画像上のいずれの位置に位置するかを特定することができない。
 本発明の目的の一例は、複数の電子筆記具のそれぞれが表示画像上のいずれの位置に位置するかを正確に特定することにある。本発明の他の目的は、本明細書の記載から明らかになるであろう。
 本発明の一態様は、
 表示画像に複数のオブジェクトをそれぞれ書き込むための複数の電子筆記具の外部に設けられた第1センサから出力される検出結果の処理によって生成され、前記表示画像上における前記複数の電子筆記具の検出位置を含む第1情報と、前記複数の電子筆記具のそれぞれに設けられた第2センサから出力される検出結果の処理によって生成され、各電子筆記具に対する他の電子筆記具の相対的位置を含む第2情報と、を取得する取得手段と、
 前記第1情報と、前記第2情報と、を用いて、前記複数の電子筆記具のそれぞれと、前記表示画像上における前記複数の電子筆記具のそれぞれの位置と、を対応付ける対応付け手段と、
を備える情報処理装置である。
 本発明の他の一態様は、
 表示画像に複数のオブジェクトをそれぞれ書き込むための複数の電子筆記具の外部に設けられた第1センサから出力される検出結果の処理によって生成され、前記表示画像上における前記複数の電子筆記具の検出位置を含む第1情報と、前記複数の電子筆記具のそれぞれに設けられた第2センサから出力される検出結果の処理によって生成され、各電子筆記具に対する他の電子筆記具の相対的位置を含む第2情報と、を取得することと、
 前記第1情報と、前記第2情報と、を用いて、前記複数の電子筆記具のそれぞれと、前記表示画像上における前記複数の電子筆記具のそれぞれの位置と、を対応付けることと、
を含む情報処理方法である。
 本発明のさらに他の一態様は、
 コンピュータに、
 表示画像に複数のオブジェクトをそれぞれ書き込むための複数の電子筆記具の外部に設けられた第1センサから出力される検出結果の処理によって生成され、前記表示画像上における前記複数の電子筆記具の検出位置を含む第1情報と、前記複数の電子筆記具のそれぞれに設けられた第2センサから出力される検出結果の処理によって生成され、各電子筆記具に対する他の電子筆記具の相対的位置を含む第2情報と、を取得する機能と、
 前記第1情報と、前記第2情報と、を用いて、前記複数の電子筆記具のそれぞれと、前記表示画像上における前記複数の電子筆記具のそれぞれの位置と、を対応付ける機能と、
を持たせるためのプログラムである。
 本発明のさらに他の一態様は、
 表示装置と、
 前記表示装置によって表示された表示画像への複数のオブジェクトの書き込みにそれぞれ用いられる複数の電子筆記具と、
 情報処理装置と、
を備え、
 前記情報処理装置は、
  前記複数の電子筆記具の外部に設けられた第1センサから出力される検出結果の処理によって生成され、前記表示画像上における前記複数の電子筆記具の検出位置を含む第1情報と、前記複数の電子筆記具のそれぞれに設けられた第2センサから出力される検出結果の処理によって生成され、各電子筆記具に対する他の電子筆記具の相対的位置を含む第2情報と、を取得する取得手段と、
  前記第1情報と、前記第2情報と、を用いて、前記複数の電子筆記具のそれぞれと、前記表示画像上における前記複数の電子筆記具のそれぞれの位置と、を対応付ける対応付け手段と、
を備える、表示システムである。
 本発明のさらに他の一態様は、
 複数の電子筆記具のそれぞれに対する他の電子筆記具の相対的位置を、前記複数の電子筆記具のそれぞれに設けられたセンサによって検出し、
 前記複数の電子筆記具のそれぞれに対する他の電子筆記具の前記相対的位置の情報を用いて、前記複数の電子筆記具のそれぞれに対応付けられたオブジェクトを、前記複数の電子筆記具のそれぞれに応じた態様で表示画面に表示させる、表示方法である。
 本発明のさらに他の一態様は、
 電子筆記具であって、
 表示画像へのオブジェクトの書き込みにおいて光を発する発光部と、
 前記表示画像への前記オブジェクトの書き込みにおいて他の電子筆記具を検出するセンサと、
を備える電子筆記具である。
 本発明の一態様によれば、複数の電子筆記具のそれぞれが表示画像上のいずれの位置に位置するかを正確に特定することができる。
 上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
実施形態1に係る表示システムを説明するための図である。 図1に示した表示システムに用いられる電子筆記具の一例を示す図である。 (a)は、表示画像上における複数の電子筆記具の検出位置の一例を説明するための図であり、(b)は、各電子筆記具に対する他の電子筆記具の相対的位置の一例を説明するための図である。 図1に示した情報処理装置、複数の電子筆記具及びセンサ装置のそれぞれの動作の一例を示すフローチャートである。 実施形態2に係る表示システムを説明するための図である。 図5に示した情報処理装置、複数の電子筆記具及びセンサ装置のそれぞれの動作の一例を示すフローチャートである。 実施形態3に係る表示システムを説明するための図である。 (a)は、表示画像上における複数の電子筆記具の検出位置の一例を説明するための図であり、(b)は、算出部によって算出される位置情報における複数の電子筆記具のそれぞれの位置の一例を説明するための図である。 図7に示した情報処理装置、複数の電子筆記具及びセンサ装置のそれぞれの動作の一例を示すフローチャートである。 実施形態4に係る情報処理装置のハードウエア構成の一例を示す図である。
 以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
(実施形態1)
 図1は、実施形態1に係る表示システム30を説明するための図である。図2は、図1に示した表示システム30に用いられる電子筆記具300の一例を示す図である。図3(a)は、表示画像200上における複数の電子筆記具300の検出位置の一例を説明するための図である。特に、図3(a)のハッチング表示された丸は、複数の電子筆記具300のそれぞれの検出位置を示している。図3(b)は、各電子筆記具300に対する他の電子筆記具300の相対的位置の一例を説明するための図である。特に、図3(b)の上段は、電子筆記具300a(図内における黒丸)に対する電子筆記具300b及び電子筆記具300cのそれぞれの相対的位置(図内における矢印の先端)を示しており、図3(b)の中段は、電子筆記具300b(図内における黒丸)に対する電子筆記具300c及び電子筆記具300aのそれぞれの相対的位置(図内における矢印の先端)を示しており、図3(b)の下段は、電子筆記具300c(図内における黒丸)に対する電子筆記具300a及び電子筆記具300cのそれぞれの相対的位置(図内における矢印の先端)を示している。
 表示システム30は、情報処理装置10、表示装置20、複数の電子筆記具300及びセンサ装置400を備えている。表示装置20は、表示画像200を表示する。
 図1を用いて、情報処理装置10の概要を説明する。情報処理装置10は、取得部110及び対応付け部120を備えている。取得部110は、第1情報及び第2情報を取得する。第1情報は、表示画像200上における複数の電子筆記具300の検出位置を含んでいる。第1情報は、第1センサ410から出力される検出結果の処理によって生成される。第1センサ410は、複数の電子筆記具300の外部に設けられている。複数の電子筆記具300は、表示画像200に複数のオブジェクトをそれぞれ書き込むためのものである。第2情報は、各電子筆記具300に対する他の電子筆記具300の相対的位置を含んでいる。第2情報は、複数の第2センサ320から出力される検出結果の処理によって生成される。複数の第2センサ320のそれぞれは、複数の電子筆記具300のそれぞれに設けられている。対応付け部120は、第1情報及び第2情報を用いて、複数の電子筆記具300のそれぞれと、表示画像200上における複数の電子筆記具300のそれぞれの位置と、を対応付ける。
 本実施形態によれば、複数の電子筆記具300のそれぞれが表示画像200上のいずれの位置に位置するかを正確に特定することができる。具体的には、本実施形態においては、対応付け部120は、表示画像200上における複数の電子筆記具300の検出位置(例えば、図3(a))だけでなく、各電子筆記具300に対する他の電子筆記具300の相対的位置(例えば、図3(b))も用いて、複数の電子筆記具300のそれぞれと、表示画像200上における複数の電子筆記具300のそれぞれの位置と、を対応付けている。例えば、仮に、図3(a)に示すように、第1センサ410によって複数の電子筆記具300の検出位置の情報が得られたとしても、例えば、各電子筆記具300の、第1センサ410によって検出可能な特徴(例えば、第1センサ410から発せられる光の波長)が同一であるとき、各検出位置に位置する電子筆記具が電子筆記具300a、電子筆記具300b及び電子筆記具300cのいずれであるかを特定することができない。これに対して、例えば、図3(b)に示すように、各電子筆記具300に対する他の電子筆記具300の相対的位置を第2センサ320によって検出することで、各検出位置に位置する電子筆記具が電子筆記具300a、電子筆記具300b及び電子筆記具300cのいずれであるかを特定することができる。
 さらに、本実施形態によれば、次のような表示方法が実現される。すなわち、複数の電子筆記具300のそれぞれに対する他の電子筆記具300の相対的位置を、複数の電子筆記具300のそれぞれに設けられた第2センサ320によって検出する。次いで、複数の電子筆記具300のそれぞれに対する他の電子筆記具300の相対的位置の情報を用いて、複数の電子筆記具300のそれぞれに対応付けられたオブジェクトを、複数の電子筆記具300のそれぞれに応じた態様で表示画像200に表示させる。本実施形態においては、上述したように、複数の電子筆記具300のそれぞれが表示画像200上のいずれの位置に位置するかを正確に特定することができる。したがって、複数のオブジェクトのそれぞれの態様を、複数の電子筆記具300のそれぞれに、正確に対応させることができる。
 本実施形態において、第1センサ410は、複数の電子筆記具300のそれぞれに設けられた発光部310から発せられた光を検出することができる。この場合、第1情報(表示画像200上における複数の電子筆記具300のそれぞれの位置)は、発光部310から発せられた光の検出結果の処理によって生成される。さらに、発光部310から発生される光は、複数のオブジェクトが書き込まれている表示画像200を含む画像から検出されるようにしてもよい。
 第1センサ410は、光に代えて、表示画像200への複数の電子筆記具300のそれぞれの接触又は近接を検出してもよい。この場合、第1情報(表示画像200上における複数の電子筆記具300のそれぞれの位置)は、電子筆記具300が表示画像200に接触し、又は近接した位置の検出結果の処理によって生成される。この例において、表示画像200は、例えば、タッチスクリーンにすることができ、第1センサ410は、例えば、タッチスクリーンに設けられた接触センサ、圧力センサ又は近接センサにすることができる。
 複数のオブジェクトは、複数の電子筆記具300がそれぞれ辿る複数の軌跡に基づいて、表示画像200に重畳して表示される。例えば、第1センサ410の検出結果を用いて、電子筆記具300が辿る軌跡を特定することができる。
 取得部110は、一のインタフェース(例えば、有線及び無線の一方)を介して第1情報を取得し、この一のインタフェースと異なる他の一のインタフェース(例えば、有線及び無線のもう一方)を介して第2情報を取得してもよい。或いは、取得部110は、共通のインタフェース(例えば、有線及び無線の一方)を介して第1情報及び第2情報の双方を取得してもよい。
 図1から図3を用いて、表示システム30の詳細を説明する。
 一例において、表示装置20は、プロジェクタである。この例において、表示画像200は、プロジェクタ(表示装置20)によって投影面(例えば、スクリーン又は壁)に投影された画像であってもよい。他の例において、表示装置20は、ディスプレイである。この例において、表示画像200は、ディスプレイ(表示装置20)によって表示面に表示された画像であってもよい。表示画像200は、例えば、電子黒板によって実現される。
 表示画像200には、複数の電子筆記具300のそれぞれによって複数のオブジェクトのそれぞれが書き込まれる。図1に示す例では、電子筆記具300a、電子筆記具300b及び電子筆記具300cによって3つの異なるオブジェクトが書き込まれる。
 電子筆記具300は、支持体302、発光部310、第2センサ320、記憶部330、通信部340及び押圧スイッチ350を備えている。
 支持体302は、先端及び後端を有し、先端から後端にかけて一方向に延伸している。発光部310、第2センサ320、記憶部330、通信部340及び押圧スイッチ350は、支持体302に取り付けられており、支持体302を介して一体となっている。
 発光部310は、表示画像200へのオブジェクトの書き込みにおいて光を発する。発光部310から発せられる光は、例えば、赤外線又は可視光にすることができる。発光部310が赤外線を発する場合、発光部310から発せられる光を人間の視覚では認識させなくすることができる。オブジェクトの書き込みにおいて電子筆記具300が移動すると、発光部310から発せられる光も移動して光の軌跡を形成する。発光部310は、支持体302の先端側に位置している。したがって、発光部310は、オブジェクトに近接させることができる。このため、発光部310から発せられる光の軌跡は、オブジェクトの形状にほとんど沿ったものにすることができる。
 第2センサ320は、第2センサ320が設けられた電子筆記具300に対する他の電子筆記具300の相対的位置を検出する。第2センサ320は、他の電子筆記具300を検出可能なセンサにすることができ、例えば、光センサ及び超音波センサのうちの少なくとも一を含む。
 第2情報は、第2センサ320から出力された検出結果の処理によって生成される。第2センサ320の検出結果の処理が実行される場所は、特に限定されない。例えば、第2センサ320の検出結果の処理は、情報処理装置10の内部(例えば、取得部110)において実行されてもよいし、電子筆記具300の内部において実行されてもよいし、又は情報処理装置10及び電子筆記具300の外部(例えば、外部ネットワーク)において実行されてもよい。
 記憶部330は、第2センサ320の検出結果の処理によって得られたデータ(第2情報)を記憶する。記憶部330は、電子筆記具300の識別情報(例えば、電子筆記具300によって書き込まれるオブジェクトの線の色又は線の形状)を予めさらに記憶していてもよい。
 通信部340は、電子筆記具300の外部装置(例えば、情報処理装置10及びセンサ装置400)に対する信号の送受信を行う。通信部340は、記憶部330に記憶された第2情報を情報処理装置10に送信することができる。
 押圧スイッチ350は、表示画像200に押し当て可能になっている。押圧スイッチ350は、例えば、圧力センサ及び接触センサからなる群から選択される少なくとも一を含んでいる。押圧スイッチ350を表示画像200に押し当てることで押圧スイッチ350が押されている間、発光部310は光を発し、第2センサ320は他の電子筆記具300を検出し、記憶部330は第2センサ320によって検出されたデータを記憶してもよい。このようにして、第2センサ320は、電子筆記具300が表示画像200に押し当てられてから電子筆記具300が表示画像200から離れるまで他の電子筆記具300を検出することができる。第2センサ320は、電子筆記具300が表示画像200に押し当てられていない間(押圧スイッチ350が押されていない間)、他の電子筆記具300を検出しなくてもよい。
 センサ装置400は、第1センサ410、記憶部420及び通信部430を備えている。
 第1センサ410は、電子筆記具300の発光部310から発せられる光を検出する。これによって、第1センサ410は、電子筆記具300の発光部310から発せられる光(第1情報)を検出することができる。
 第1センサ410は、例えば、撮像部及び画像処理部を有している。この例において、電子筆記具300の発光部310から発せられる光(第1情報)は、第1センサ410によって生成された画像の処理によって生成される。この撮像部によって生成された画像は、例えば動画であり、複数のフレーム画像を有している。これらのフレーム画像を画像処理部が処理することにより、第1情報が生成される。画像処理部は、例えばCPU及びメモリを有するコンピュータ装置に画像処理用のソフトウェアをインストールすることにより、実現される。画像処理部は、マイクロコンピュータであってもよい。この画像処理部は撮像部と一体(例えば、同一の筐体内)に設けられていてもよいし、撮像部から離間して設けられていてもよい。画像処理部は、情報処理装置10に含まれていてもよい。
 第1情報は、第1センサ410から出力された検出結果の処理によって生成される。第1センサ410の検出結果の処理が実行される場所は、特に限定されない。例えば、第1センサ410の検出結果の処理は、情報処理装置10の内部(例えば、取得部110)において実行されてもよいし、又は情報処理装置10の外部(例えば、外部ネットワーク)において実行されてもよい。
 記憶部420は、第1センサ410の検出結果によって得られたデータ(第1情報)を記憶する。
 通信部430は、センサ装置400の外部装置(例えば、情報処理装置10及び電子筆記具300)に対する信号の送受信を行う。通信部430は、記憶部420に記憶された第1情報を情報処理装置10に送信することができる。
 第1センサ410は、電子筆記具300が表示画像200に押し当てられてから電子筆記具300が表示画像200から離れるまで、表示画像200上の複数の電子筆記具300を検出してもよい。例えば、電子筆記具300の押圧スイッチ350が表示画像200に押し当てられて押圧スイッチ350が押された場合、電子筆記具300の通信部340は通信部430に信号を送信する。この場合において、押圧スイッチ350が押されている間、第1センサ410は電子筆記具300の発光部310の光を検出し、記憶部420は第1センサ410によって検出されたデータを記憶してもよい。第1センサ410は、電子筆記具300が表示画像200に押し当てられていない間、電子筆記具300を検出しなくてもよい。
 取得部110は、センサ装置400(第1センサ410)から送信された第1情報を取得し、電子筆記具300(第2センサ320)から送信された第2情報を取得する。第1情報は、センサ装置400(第1センサ410)から取得部110に直接に送信されてもよいし、又はセンサ装置400(第1センサ410)とは異なる装置を経由して取得部110に送信されてもよい。第2情報は、電子筆記具300(第2センサ320)から取得部110に直接に送信されてもよいし、又は電子筆記具300(第2センサ320)とは異なる装置を経由して取得部110に送信されてもよい。
 図4は、図1に示した情報処理装置10、複数の電子筆記具300及びセンサ装置400のそれぞれの動作の一例を示すフローチャートである。
 まず、各電子筆記具300は、押圧スイッチ350が表示画像200に押し当てられて押圧スイッチ350が押されるまで(ステップS210:No)、押圧スイッチ350が押されているか否かを検出する(ステップS210)。押圧スイッチ350が押されていることを各電子筆記具300が検出したとき(ステップS210:Yes)、各電子筆記具300は、他の電子筆記具300を第2センサ320に検出させ、第2センサ320の検出結果の処理によって生成された相対的位置(第2情報)を記憶部330に記憶させる(ステップS220)。さらに、各電子筆記具300は、発光部310から光を発生させる(ステップS230)。センサ装置400は、各電子筆記具300の発光部310の発光を第1センサ410に検出させて、第1センサ410の検出結果の処理によって生成された検出位置(第1情報)を記憶部420に記憶させる(ステップS240)。
 情報処理装置10の取得部110は、第1情報と、第2情報と、を取得する(ステップS110)。取得部110は、複数の電子筆記具300が表示画像200に押し当てられている場合(ステップS210:Yes)、第1情報と、第2情報と、を取得してもよい。取得部110は、異なるタイミングで第1情報及び第2情報を取得してもよいし、又は同じタイミングで第1情報及び第2情報を取得してもよい。例えば、取得部110は、ステップS220が実施された後、ステップS230及びS240が実施される前に、第1情報を取得してもよいし、又はステップS220、S230及びS240が実施された後に、第2情報を取得してもよい。或いは、取得部110は、ステップS220、S230及びS240が実施された後に、第1情報及び第2情報の双方を同じタイミングで取得してもよい。
 次いで、情報処理装置10の対応付け部120は、第1情報と、第2情報と、を用いて、複数の電子筆記具300のそれぞれと、表示画像200上における複数の電子筆記具300のそれぞれの位置と、を対応付ける(ステップS120)。
 図4に示す例において、ステップS220、S230及びS240は、電子筆記具300の押圧スイッチ350が押されているか否か(ステップS210)に基づいて実施されているが、ステップS220、S230及びS240は、押圧スイッチ350以外の方法によって、電子筆記具300が表示画像200に接触又は近接しているか否かに基づいて実施されてもよい。
(実施形態2)
 図5は、実施形態2に係る表示システム30を説明するための図である。実施形態2に係る表示システム30は、以下の点を除いて、実施形態1に係る表示システム30と同様である。
 情報処理装置10は、制御部130をさらに備えている。制御部130は、複数の電子筆記具300のそれぞれに応じて異なる態様で複数のオブジェクトのそれぞれを表示画像200に表示させる。
 本実施形態によれば、複数のオブジェクトのそれぞれの態様を、複数の電子筆記具300のそれぞれに、正確に対応させることができる。具体的には、本実施形態においては、対応付け部120は、実施形態1で説明したように、複数の電子筆記具300のそれぞれと、表示画像200上における複数の電子筆記具300のそれぞれの位置と、の対応関係を取得している。制御部130は、この対応関係を用いて、複数の電子筆記具300に応じて異なる態様で複数のオブジェクトを表示画像200に表示させることができる。したがって、複数のオブジェクトのそれぞれの態様を、複数の電子筆記具300のそれぞれに、正確に対応させることができる。
 オブジェクトの態様は、例えば、オブジェクトの線の色及び線の形状のうちの少なくとも一つを含んでいてもよい。オブジェクトの線の形状は、例えば、線の太さ及び線の種類(例えば、実線、破線、一点鎖線又は二重線)のうちの少なくとも一つを含む。
 オブジェクトの態様は、例えば、電子筆記具300に付された識別情報に応じて異なっていてもよい。この例において、複数の電子筆記具300のそれぞれには、複数の電子筆記具300に応じて異なる識別情報が付されている。識別情報は、例えば、電子筆記具300の記憶部330(図2)に記憶されていてもよい。識別情報は、例えば、各電子筆記具300によって書き込まれるオブジェクトの態様(例えば、オブジェクトの線の色又は線の形状)を含んでいてもよい。対応付け部120は、複数の識別情報のそれぞれと、表示画像200上における複数の電子筆記具300のそれぞれの位置と、を対応付ける。このようにすることで、複数のオブジェクトのそれぞれの態様を、複数の電子筆記具300のそれぞれに、正確に対応させることができる。
 図6は、図5に示した情報処理装置10、複数の電子筆記具300及びセンサ装置400のそれぞれの動作の一例を示すフローチャートである。図6に示す例は、以下の点を除いて、図4に示した例と同様である。
 まず、図4に示した例と同様にして、ステップS210、ステップS220、ステップS230及びステップS240を実施する。
 情報処理装置10の取得部110は、第1情報と、第2情報と、複数の識別情報と、を取得する(ステップS112)。取得部110は、異なるタイミングで第1情報と、第2情報と、複数の識別情報と、を取得してもよいし、又は同じタイミングで第1情報と、第2情報と、複数の識別情報と、を取得してもよい。例えば、取得部110は、ステップS210が実施される前に、複数の識別情報を取得してもよいし、ステップS210、S220、S230及びS240が実施された後に、第1情報及び第2情報と同じタイミングで複数の識別情報を取得してもよい。
 次いで、情報処理装置10の対応付け部120は、第1情報と、第2情報と、を用いて、複数の電子筆記具300のそれぞれと、表示画像200上における複数の電子筆記具300のそれぞれの位置と、を対応付ける(ステップS120)。
 次いで、情報処理装置10の対応付け部120は、第1情報と、第2情報と、複数の識別情報と、を用いて、複数の識別情報のそれぞれと、表示画像200上における複数の電子筆記具300のそれぞれの位置と、を対応付ける(ステップS130)。
 次いで、情報処理装置10の制御部130は、ステップS120及びステップS130の対応付け結果に応じて、複数の電子筆記具300のそれぞれに応じて異なる態様で複数のオブジェクトを表示画像200に表示させる(ステップS140)。ステップS120及びステップS130の対応付けによって、複数のオブジェクトのそれぞれの態様を、複数の電子筆記具300のそれぞれに、正確に対応させることができる。
(実施形態3)
 図7は、実施形態3に係る表示システム30を説明するための図である。図8(a)は、表示画像200上における複数の電子筆記具300の検出位置の一例を説明するための図である。図8(b)は、算出部140によって算出される位置情報における複数の電子筆記具300のそれぞれの位置の一例を説明するための図である。実施形態3に係る表示システム30は、以下の点を除いて、実施形態1に係る表示システム30と同様である。
 情報処理装置10は、算出部140をさらに備えている。算出部140は、第2情報(各電子筆記具300に対する他の電子筆記具300の相対的位置)を用いて、位置情報を算出する。位置情報は、複数の電子筆記具300のそれぞれの位置を含んでいる。対応付け部120は、第1情報と、位置情報と、を用いて、複数の電子筆記具300のそれぞれと、表示画像200上における複数の電子筆記具300のそれぞれの位置と、を対応付ける。
 本実施形態によれば、各電子筆記具300の第2センサ320の検出結果のみを用いて、複数の電子筆記具300のそれぞれの位置を決定することができる。したがって、第1センサ410が複数の電子筆記具300のうちの一部の電子筆記具300を検出することができなかったとしても、第1センサ410の検出結果(例えば、第1情報)を、第2センサ320の検出結果(例えば、位置情報)によって補完することができる。
 位置情報は、例えば次のようにして、算出される。まず、例えば、図3(b)に示すように、複数の電子筆記具300のそれぞれの第2センサ320によって、各電子筆記具300に対する他の電子筆記具300の相対的位置が検出される。次いで、複数の電子筆記具300のそれぞれの記憶部330は、各電子筆記具300の記憶部330に記憶された上記相対的位置を共有する。次いで、例えば、図8(b)に示すように、算出部140は、各記憶部330によって共有された上記相対的位置から、複数の電子筆記具300のそれぞれの位置を算出する。
 図9は、図7に示した情報処理装置10、複数の電子筆記具300及びセンサ装置400のそれぞれの動作の一例を示すフローチャートである。図9に示す例は、以下の点を除いて、図4に示した例と同様である。
 まず、図4に示した例と同様にして、ステップS210、ステップS220、ステップS230及びステップS240を実施する。
 情報処理装置10の取得部110は、第1情報と、第2情報と、を取得し(ステップS110)、情報処理装置10の算出部140は、第2情報を用いて、位置情報を算出する(ステップS115)。算出部140による位置情報の算出のタイミングは、取得部110による第1情報及び第2情報の取得後に限定されない。例えば、算出部140による位置情報の算出は、取得部110による第2情報の取得後、取得部110による第1情報の取得前に実施されてもよい。
 次いで、情報処理装置10の対応付け部120は、第1情報と、位置情報と、を用いて、複数の電子筆記具300のそれぞれと、表示画像200上における複数の電子筆記具300のそれぞれの位置と、を対応付ける(ステップS120)。
(実施形態4)
 図10は、実施形態4に係る情報処理装置10のハードウエア構成の一例を示す図である。
 情報処理装置10の主な構成は、集積回路を用いて実現される。この集積回路は、バス101、プロセッサ102、メモリ103、ストレージデバイス104、入出力インタフェース105及びネットワークインタフェース106を有する。
 バス101は、プロセッサ102、メモリ103、ストレージデバイス104、入出力インタフェース105、及びネットワークインタフェース106が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ102などを互いに接続する方法は、バス接続に限定されない。
 プロセッサ102は、マイクロプロセッサなどを用いて実現される演算処理装置である。
 メモリ103は、RAM(Random Access Memory)などを用いて実現されるメモリである。
 ストレージデバイス104は、ROM(Read Only Memory)やフラッシュメモリなどを用いて実現されるストレージデバイスである。
 入出力インタフェース105は、情報処理装置10を周辺デバイスと接続するためのインタフェースである。
 ネットワークインタフェース106は、情報処理装置10を通信網に接続するためのインタフェースである。ネットワークインタフェース106が通信網に接続する方法は、無線接続であってもよいし、又は有線接続であってもよい。情報処理装置10は、ネットワークインタフェース106を介して、表示装置20、電子筆記具300(例えば、図2に示した通信部340)及びセンサ装置400(例えば、図1に示した通信部430)に接続される。
 ストレージデバイス104は、情報処理装置10の各機能要素を実現するためのプログラムモジュールを記憶している。プロセッサ102は、このプログラムモジュールをメモリ103に読み出して実行することで、情報処理装置10の各機能を実現する。
 なお、上記した集積回路のハードウエア構成は図10に示した構成に限定されない。例えば、プログラムモジュールはメモリ103に格納されてもよい。この場合、集積回路は、ストレージデバイス104を備えていなくてもよい。
 以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1-1. 表示画像に複数のオブジェクトをそれぞれ書き込むための複数の電子筆記具の外部に設けられた第1センサから出力される検出結果の処理によって生成され、前記表示画像上における前記複数の電子筆記具の検出位置を含む第1情報と、前記複数の電子筆記具のそれぞれに設けられた第2センサから出力される検出結果の処理によって生成され、各電子筆記具に対する他の電子筆記具の相対的位置を含む第2情報と、を取得することと、
 前記第1情報と、前記第2情報と、を用いて、前記複数の電子筆記具のそれぞれと、前記表示画像上における前記複数の電子筆記具のそれぞれの位置と、を対応付けることと、
を含む情報処理方法。
1-2. 1-1.に記載の情報処理方法において、
 前記複数の電子筆記具のそれぞれには識別情報が付されており、
 前記複数の電子筆記具のそれぞれと、前記表示画像上における前記複数の電子筆記具のそれぞれの位置と、を対応付けることは、さらに、複数の前記識別情報のそれぞれと、前記表示画像上における前記複数の電子筆記具のそれぞれの位置と、を対応付ける、情報処理方法。
1-3. 1-1.又は1-2.に記載の情報処理方法において、
 前記第2情報を用いて、前記複数の電子筆記具のそれぞれの位置を含む位置情報を算出することをさらに含み、
 前記複数の電子筆記具のそれぞれと、前記表示画像上における前記複数の電子筆記具のそれぞれの位置と、を対応付けることは、前記第1情報と、前記位置情報と、を用いて、前記複数の電子筆記具と、前記表示画像上における前記複数の電子筆記具のそれぞれの前記位置と、を対応付ける、情報処理方法。
1-4. 1-1.から1-3.までのいずれか一つに記載の情報処理方法において、
 前記第1センサは、前記複数の電子筆記具のそれぞれに設けられた発光部から発せられた光を検出する、情報処理方法。
1-5. 1-4.に記載の情報処理方法において、
 前記発光部から発せられた前記光は、前記複数のオブジェクトが書き込まれている前記表示画像を含む画像から検出される、情報処理方法。
1-6. 1-1.から1-3.までのいずれか一つに記載の情報処理方法において、
 前記第1センサは、前記表示画像への前記複数の電子筆記具それぞれの接触又は近接を検出する、情報処理方法。
1-7. 1-1.から1-6.までのいずれか一つに記載の情報処理方法において、
 前記第2センサは、光センサ及び超音波センサのうちの少なくとも一を含む、情報処理方法。
1-8. 1-1.から1-7.までのいずれか一つに記載の情報処理方法において、
 前記第1情報と、前記第2情報と、を取得することは、前記複数の電子筆記具が前記表示画像に押し当てられている場合、前記第1情報と、前記第2情報と、を取得する、情報処理方法。
1-9. 1-1.から1-8.までのいずれか一つに記載の情報処理方法において、
 前記複数の電子筆記具のそれぞれに応じて異なる態様で前記複数のオブジェクトを前記表示画像に表示させることをさらに含む情報処理方法。
1-10. 1-9.に記載の情報処理方法において、
 前記複数のオブジェクトのそれぞれの前記態様は、前記複数のオブジェクトのそれぞれの線の色及び線の形状のうちの少なくとも一を含む、情報処理方法。
1-11. 1-1.から1-10.までのいずれか一つに記載の情報処理方法において、
 前記表示画像は、プロジェクタによって投影面に投影された画像又はディスプレイによって表示面に表示された画像である、情報処理方法。
1-12. 1-1.から1-11.までのいずれか一つに記載の情報処理方法において、
 前記複数のオブジェクトは、前記複数の電子筆記具がそれぞれ辿る複数の軌跡に基づいて、前記表示画像に重畳して表示される、情報処理方法。
1-13. 1-1.から1-12.までのいずれか一つに記載の情報処理方法において、
 前記第1情報と、前記第2情報と、を取得することは、一のインタフェースを介して前記第1情報を取得し、前記一のインタフェースと異なる他の一のインタフェースを介して前記第2情報を取得する、情報処理方法。
2-1. コンピュータに、
 表示画像に複数のオブジェクトをそれぞれ書き込むための複数の電子筆記具の外部に設けられた第1センサから出力される検出結果の処理によって生成され、前記表示画像上における前記複数の電子筆記具の検出位置を含む第1情報と、前記複数の電子筆記具のそれぞれに設けられた第2センサから出力される検出結果の処理によって生成され、各電子筆記具に対する他の電子筆記具の相対的位置を含む第2情報と、を取得する機能と、
 前記第1情報と、前記第2情報と、を用いて、前記複数の電子筆記具のそれぞれと、前記表示画像上における前記複数の電子筆記具のそれぞれの位置と、を対応付ける機能と、
を持たせるためのプログラム。
2-2. 2-1.に記載のプログラムにおいて、
 前記複数の電子筆記具のそれぞれには識別情報が付されており、
 前記複数の電子筆記具のそれぞれと、前記表示画像上における前記複数の電子筆記具のそれぞれの位置と、を対応付ける機能は、さらに、複数の前記識別情報のそれぞれと、前記表示画像上における前記複数の電子筆記具のそれぞれの位置と、を対応付ける、プログラム。
2-3. 2-1.又は2-2.に記載のプログラムにおいて、
 前記第2情報を用いて、前記複数の電子筆記具のそれぞれの位置を含む位置情報を算出する機能を前記コンピュータにさらに持たせ、
 前記複数の電子筆記具のそれぞれと、前記表示画像上における前記複数の電子筆記具のそれぞれの位置と、を対応付ける機能は、前記第1情報と、前記位置情報と、を用いて、前記複数の電子筆記具と、前記表示画像上における前記複数の電子筆記具のそれぞれの前記位置と、を対応付ける、プログラム。
2-4. 2-1.から2-3.までのいずれか一つに記載のプログラムにおいて、
 前記第1センサは、前記複数の電子筆記具のそれぞれに設けられた発光部から発せられた光を検出する、プログラム。
2-5. 2-4.に記載のプログラムにおいて、
 前記発光部から発せられた前記光は、前記複数のオブジェクトが書き込まれている前記表示画像を含む画像から検出される、プログラム。
2-6. 2-1.から2-3.までのいずれか一つに記載のプログラムにおいて、
 前記第1センサは、前記表示画像への前記複数の電子筆記具それぞれの接触又は近接を検出する、プログラム。
2-7. 2-1.から2-6.までのいずれか一つに記載のプログラムにおいて、
 前記第2センサは、光センサ及び超音波センサのうちの少なくとも一を含む、プログラム。
2-8. 2-1.から2-7.までのいずれか一つに記載のプログラムにおいて、
 前記第1情報と、前記第2情報と、を取得する機能は、前記複数の電子筆記具が前記表示画像に押し当てられている場合、前記第1情報と、前記第2情報と、を取得する、プログラム。
2-9. 2-1.から2-8.までのいずれか一つに記載のプログラムにおいて、
 前記複数の電子筆記具のそれぞれに応じて異なる態様で前記複数のオブジェクトを前記表示画像に表示させる機能を前記コンピュータにさらに持たせるプログラム。
2-10. 2-9.に記載のプログラムにおいて、
 前記複数のオブジェクトのそれぞれの前記態様は、前記複数のオブジェクトのそれぞれの線の色及び線の形状のうちの少なくとも一を含む、プログラム。
2-11. 2-1.から2-10.までのいずれか一つに記載のプログラムにおいて、
 前記表示画像は、プロジェクタによって投影面に投影された画像又はディスプレイによって表示面に表示された画像である、プログラム。
2-12. 2-1.から2-11.までのいずれか一つに記載のプログラムにおいて、
 前記複数のオブジェクトは、前記複数の電子筆記具がそれぞれ辿る複数の軌跡に基づいて、前記表示画像に重畳して表示される、プログラム。
2-13. 2-1.から2-12.までのいずれか一つに記載のプログラムにおいて、
 前記第1情報と、前記第2情報と、を取得する機能は、一のインタフェースを介して前記第1情報を取得し、前記一のインタフェースと異なる他の一のインタフェースを介して前記第2情報を取得する、プログラム。
3-1. 表示装置と、
 前記表示装置によって表示された表示画像への複数のオブジェクトの書き込みにそれぞれ用いられる複数の電子筆記具と、
 情報処理装置と、
を備え、
 前記情報処理装置は、
  前記複数の電子筆記具の外部に設けられた第1センサから出力される検出結果の処理によって生成され、前記表示画像上における前記複数の電子筆記具の検出位置を含む第1情報と、前記複数の電子筆記具のそれぞれに設けられた第2センサから出力される検出結果の処理によって生成され、各電子筆記具に対する他の電子筆記具の相対的位置を含む第2情報と、を取得する取得手段と、
  前記第1情報と、前記第2情報と、を用いて、前記複数の電子筆記具のそれぞれと、前記表示画像上における前記複数の電子筆記具のそれぞれの位置と、を対応付ける対応付け手段と、
を備える、表示システム。
3-2. 3-1.に記載の表示システムにおいて、
 前記複数の電子筆記具のそれぞれには識別情報が付されており、
 前記対応付け手段は、さらに、複数の前記識別情報のそれぞれと、前記表示画像上における前記複数の電子筆記具のそれぞれの位置と、を対応付ける、表示システム。
3-3. 3-1.又は3-2.に記載の表示システムにおいて、
 前記第2情報を用いて、前記複数の電子筆記具のそれぞれの位置を含む位置情報を算出する算出手段をさらに含み、
 前記対応付け手段は、前記第1情報と、前記位置情報と、を用いて、前記複数の電子筆記具と、前記表示画像上における前記複数の電子筆記具のそれぞれの前記位置と、を対応付ける、表示システム。
3-4. 3-1.から3-3.までのいずれか一つに記載の表示システムにおいて、
 前記第1センサは、前記複数の電子筆記具のそれぞれに設けられた発光部から発せられた光を検出する、表示システム。
3-5. 3-4.に記載の表示システムにおいて、
 前記発光部から発せられた前記光は、前記複数のオブジェクトが書き込まれている前記表示画像を含む画像から検出される、表示システム。
3-6. 3-1.から3-3.までのいずれか一つに記載の表示システムにおいて、
 前記第1センサは、前記表示画像への前記複数の電子筆記具それぞれの接触又は近接を検出する、表示システム。
3-7. 3-1.から3-6.までのいずれか一つに記載の表示システムにおいて、
 前記第2センサは、光センサ及び超音波センサのうちの少なくとも一を含む、表示システム。
3-8. 3-1.から3-7.までのいずれか一つに記載の表示システムにおいて、
 前記取得手段は、前記複数の電子筆記具が前記表示画像に押し当てられている場合、前記第1情報と、前記第2情報と、を取得する、表示システム。
3-9. 3-1.から3-8.までのいずれか一つに記載の表示システムにおいて、
 前記複数の電子筆記具のそれぞれに応じて異なる態様で前記複数のオブジェクトを前記表示画像に表示させる制御手段をさらに備える表示システム。
3-10. 3-9.に記載の表示システムにおいて、
 前記複数のオブジェクトのそれぞれの前記態様は、前記複数のオブジェクトのそれぞれの線の色及び線の形状のうちの少なくとも一を含む、表示システム。
3-11. 3-1.から3-10.までのいずれか一つに記載の表示システムにおいて、
 前記表示画像は、プロジェクタによって投影面に投影された画像又はディスプレイによって表示面に表示された画像である、表示システム。
3-12. 3-1.から3-11.までのいずれか一つに記載の表示システムにおいて、
 前記複数のオブジェクトは、前記複数の電子筆記具がそれぞれ辿る複数の軌跡に基づいて、前記表示画像に重畳して表示される、表示システム。
3-13. 3-1.から3-12.までのいずれか一つに記載の表示システムにおいて、
 前記取得手段は、一のインタフェースを介して前記第1情報を取得し、前記一のインタフェースと異なる他の一のインタフェースを介して前記第2情報を取得する、表示システム。

Claims (18)

  1.  表示画像に複数のオブジェクトをそれぞれ書き込むための複数の電子筆記具の外部に設けられた第1センサから出力される検出結果の処理によって生成され、前記表示画像上における前記複数の電子筆記具の検出位置を含む第1情報と、前記複数の電子筆記具のそれぞれに設けられた第2センサから出力される検出結果の処理によって生成され、各電子筆記具に対する他の電子筆記具の相対的位置を含む第2情報と、を取得する取得手段と、
     前記第1情報と、前記第2情報と、を用いて、前記複数の電子筆記具のそれぞれと、前記表示画像上における前記複数の電子筆記具のそれぞれの位置と、を対応付ける対応付け手段と、
    を備える情報処理装置。
  2.  請求項1に記載の情報処理装置において、
     前記複数の電子筆記具のそれぞれには識別情報が付されており、
     前記対応付け手段は、さらに、複数の前記識別情報のそれぞれと、前記表示画像上における前記複数の電子筆記具のそれぞれの位置と、を対応付ける、情報処理装置。
  3.  請求項1又は2に記載の情報処理装置において、
     前記第2情報を用いて、前記複数の電子筆記具のそれぞれの位置を含む位置情報を算出する算出手段をさらに含み、
     前記対応付け手段は、前記第1情報と、前記位置情報と、を用いて、前記複数の電子筆記具と、前記表示画像上における前記複数の電子筆記具のそれぞれの前記位置と、を対応付ける、情報処理装置。
  4.  請求項1から3までのいずれか一項に記載の情報処理装置において、
     前記第1センサは、前記複数の電子筆記具のそれぞれに設けられた発光部から発せられた光を検出する、情報処理装置。
  5.  請求項4に記載の情報処理装置において、
     前記発光部から発せられた前記光は、前記複数のオブジェクトが書き込まれている前記表示画像を含む画像から検出される、情報処理装置。
  6.  請求項1から3までのいずれか一項に記載の情報処理装置において、
     前記第1センサは、前記表示画像への前記複数の電子筆記具それぞれの接触又は近接を検出する、情報処理装置。
  7.  請求項1から6までのいずれか一項に記載の情報処理装置において、
     前記第2センサは、光センサ及び超音波センサのうちの少なくとも一を含む、情報処理装置。
  8.  請求項1から7までのいずれか一項に記載の情報処理装置において、
     前記取得手段は、前記複数の電子筆記具が前記表示画像に押し当てられている場合、前記第1情報と、前記第2情報と、を取得する、情報処理装置。
  9.  請求項1から8までのいずれか一項に記載の情報処理装置において、
     前記複数の電子筆記具のそれぞれに応じて異なる態様で前記複数のオブジェクトを前記表示画像に表示させる制御手段をさらに備える情報処理装置。
  10.  請求項9に記載の情報処理装置において、
     前記複数のオブジェクトのそれぞれの前記態様は、前記複数のオブジェクトのそれぞれの線の色及び線の形状のうちの少なくとも一を含む、情報処理装置。
  11.  請求項1から10までのいずれか一項に記載の情報処理装置において、
     前記表示画像は、プロジェクタによって投影面に投影された画像又はディスプレイによって表示面に表示された画像である、情報処理装置。
  12.  請求項1から11までのいずれか一項に記載の情報処理装置において、
     前記複数のオブジェクトは、前記複数の電子筆記具がそれぞれ辿る複数の軌跡に基づいて、前記表示画像に重畳して表示される、情報処理装置。
  13.  請求項1から12までのいずれか一項に記載の情報処理装置において、
     前記取得手段は、一のインタフェースを介して前記第1情報を取得し、前記一のインタフェースと異なる他の一のインタフェースを介して前記第2情報を取得する、情報処理装置。
  14.  表示画像に複数のオブジェクトをそれぞれ書き込むための複数の電子筆記具の外部に設けられた第1センサから出力される検出結果の処理によって生成され、前記表示画像上における前記複数の電子筆記具の検出位置を含む第1情報と、前記複数の電子筆記具のそれぞれに設けられた第2センサから出力される検出結果の処理によって生成され、各電子筆記具に対する他の電子筆記具の相対的位置を含む第2情報と、を取得することと、
     前記第1情報と、前記第2情報と、を用いて、前記複数の電子筆記具のそれぞれと、前記表示画像上における前記複数の電子筆記具のそれぞれの位置と、を対応付けることと、
    を含む情報処理方法。
  15.  コンピュータに、
     表示画像に複数のオブジェクトをそれぞれ書き込むための複数の電子筆記具の外部に設けられた第1センサから出力される検出結果の処理によって生成され、前記表示画像上における前記複数の電子筆記具の検出位置を含む第1情報と、前記複数の電子筆記具のそれぞれに設けられた第2センサから出力される検出結果の処理によって生成され、各電子筆記具に対する他の電子筆記具の相対的位置を含む第2情報と、を取得する機能と、
     前記第1情報と、前記第2情報と、を用いて、前記複数の電子筆記具のそれぞれと、前記表示画像上における前記複数の電子筆記具のそれぞれの位置と、を対応付ける機能と、
    を持たせるためのプログラム。
  16.  表示装置と、
     前記表示装置によって表示された表示画像への複数のオブジェクトの書き込みにそれぞれ用いられる複数の電子筆記具と、
     情報処理装置と、
    を備え、
     前記情報処理装置は、
      前記複数の電子筆記具の外部に設けられた第1センサから出力される検出結果の処理によって生成され、前記表示画像上における前記複数の電子筆記具の検出位置を含む第1情報と、前記複数の電子筆記具のそれぞれに設けられた第2センサから出力される検出結果の処理によって生成され、各電子筆記具に対する他の電子筆記具の相対的位置を含む第2情報と、を取得する取得手段と、
      前記第1情報と、前記第2情報と、を用いて、前記複数の電子筆記具のそれぞれと、前記表示画像上における前記複数の電子筆記具のそれぞれの位置と、を対応付ける対応付け手段と、
    を備える、表示システム。
  17.  複数の電子筆記具のそれぞれに対する他の電子筆記具の相対的位置を、前記複数の電子筆記具のそれぞれに設けられたセンサによって検出し、
     前記複数の電子筆記具のそれぞれに対する他の電子筆記具の前記相対的位置の情報を用いて、前記複数の電子筆記具のそれぞれに対応付けられたオブジェクトを、前記複数の電子筆記具のそれぞれに応じた態様で表示画面に表示させる、表示方法。
  18.  電子筆記具であって、
     表示画像へのオブジェクトの書き込みにおいて光を発する発光部と、
     前記表示画像への前記オブジェクトの書き込みにおいて他の電子筆記具を検出するセンサと、
    を備える電子筆記具。
PCT/JP2019/023625 2019-06-14 2019-06-14 情報処理装置、情報処理方法、プログラム、表示システム、表示方法及び電子筆記具 WO2020250410A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021525532A JPWO2020250410A1 (ja) 2019-06-14 2019-06-14 情報処理装置、情報処理方法、プログラム、表示システム、表示方法及び電子筆記具
PCT/JP2019/023625 WO2020250410A1 (ja) 2019-06-14 2019-06-14 情報処理装置、情報処理方法、プログラム、表示システム、表示方法及び電子筆記具
CN201980097309.8A CN113939790B (zh) 2019-06-14 2019-06-14 信息处理装置、信息处理方法、计算机程序产品、显示系统及电子书写用具系统
US17/527,860 US11868544B2 (en) 2019-06-14 2021-11-16 Information processing device, information processing method, program, display system, display method, and electronic writing tool

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/023625 WO2020250410A1 (ja) 2019-06-14 2019-06-14 情報処理装置、情報処理方法、プログラム、表示システム、表示方法及び電子筆記具

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/527,860 Continuation US11868544B2 (en) 2019-06-14 2021-11-16 Information processing device, information processing method, program, display system, display method, and electronic writing tool

Publications (1)

Publication Number Publication Date
WO2020250410A1 true WO2020250410A1 (ja) 2020-12-17

Family

ID=73781599

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/023625 WO2020250410A1 (ja) 2019-06-14 2019-06-14 情報処理装置、情報処理方法、プログラム、表示システム、表示方法及び電子筆記具

Country Status (4)

Country Link
US (1) US11868544B2 (ja)
JP (1) JPWO2020250410A1 (ja)
CN (1) CN113939790B (ja)
WO (1) WO2020250410A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017117434A (ja) * 2015-12-17 2017-06-29 株式会社リコー 座標検出システム、座標検出方法、画像処理装置、及びプログラム
JP2018132799A (ja) * 2017-02-13 2018-08-23 Necディスプレイソリューションズ株式会社 電子黒板システム、電子ペン、表示装置及び電子ペン位置検出方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011239319A (ja) * 2010-05-13 2011-11-24 Panasonic Corp 遠隔指示送受信システム
JP2016170462A (ja) * 2015-03-11 2016-09-23 ブラザー工業株式会社 電子筆記装置、電子筆記処理プログラム、電子筆記処理システム、及び被筆記媒体
WO2016208099A1 (ja) * 2015-06-24 2016-12-29 パナソニックIpマネジメント株式会社 情報処理装置、情報処理装置に対する入力を制御する入力制御方法及び入力制御方法を情報処理装置に実行させるためのプログラム
CN107850968B (zh) * 2015-07-29 2021-06-04 麦克赛尔株式会社 影像显示系统
CN108055870A (zh) 2015-09-11 2018-05-18 触觉实验室股份有限公司 半无源触控笔
JP6566044B2 (ja) * 2015-12-02 2019-08-28 株式会社リコー 位置検出装置、画像表示装置及び画像表示システム
JP2018013873A (ja) * 2016-07-19 2018-01-25 株式会社リコー 情報処理装置、情報表示システム、電子黒板システム、情報処理方法
JP2018156466A (ja) * 2017-03-17 2018-10-04 株式会社リコー 表示制御装置、表示制御方法、表示制御プログラム及び表示制御システム
JP7251095B2 (ja) * 2018-10-22 2023-04-04 セイコーエプソン株式会社 位置検出装置、表示装置、表示システム、及び、位置検出方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017117434A (ja) * 2015-12-17 2017-06-29 株式会社リコー 座標検出システム、座標検出方法、画像処理装置、及びプログラム
JP2018132799A (ja) * 2017-02-13 2018-08-23 Necディスプレイソリューションズ株式会社 電子黒板システム、電子ペン、表示装置及び電子ペン位置検出方法

Also Published As

Publication number Publication date
US20220091682A1 (en) 2022-03-24
JPWO2020250410A1 (ja) 2021-12-09
CN113939790B (zh) 2024-04-23
CN113939790A (zh) 2022-01-14
US11868544B2 (en) 2024-01-09

Similar Documents

Publication Publication Date Title
JP5680976B2 (ja) 電子黒板システム及びプログラム
US9696814B2 (en) Information processing device, gesture detection method, and gesture detection program
JP3994672B2 (ja) 画像処理を用いた指示位置の検出
US7502018B2 (en) Projector, electronic whiteboard system using projector and method of acquiring indicated point
JP4927021B2 (ja) 画像表示装置のカーソル制御装置及び制御方法、ならびに画像システム
JP4697916B2 (ja) 座標入力装置及びその制御方法、プログラム
KR102488663B1 (ko) 깊이 프로세서 및 3차원 이미지 기기
US11733771B2 (en) High-precision anti-interference VR system and operation method
US20200363902A1 (en) Electronic device and method for acquiring biometric information using light of display
US20060197742A1 (en) Computer pointing input device
CN108833888B (zh) 深度处理器和三维图像设备
US20040001074A1 (en) Image display apparatus and method, transmitting apparatus and method, image display system, recording medium, and program
CN110213407B (zh) 一种电子装置的操作方法、电子装置和计算机存储介质
WO2020250410A1 (ja) 情報処理装置、情報処理方法、プログラム、表示システム、表示方法及び電子筆記具
JP4434381B2 (ja) 座標入力装置
WO2020183519A1 (ja) 情報処理装置、情報処理方法、プログラム、表示システム、表示方法及び電子筆記具
US10969865B2 (en) Method for transmission of eye tracking information, head mounted display and computer device
JP7286612B2 (ja) 操作検出装置及び操作検出方法
US9569013B2 (en) Coordinate detection system, information processing apparatus, and recording medium
JP2017125764A (ja) 物体検出装置、及び物体検出装置を備えた画像表示装置
US20210398317A1 (en) Information processing device for identifying user who would have written object
JP2019164221A (ja) プロジェクター、プロジェクションシステム、及び、指示体を検出する方法
JP2018190110A (ja) 情報処理プログラム、情報処理方法及び情報処理装置
KR20160121963A (ko) 제스처 인식이 가능한 적외선 터치스크린 시스템
JP2000231444A (ja) 座標入力装置および座標入力装置の座標値出力方法およびコンピュータが読み出し可能なプログラムを格納した記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19932677

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021525532

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19932677

Country of ref document: EP

Kind code of ref document: A1