WO2015186453A1 - 座標検知装置、画像処理装置、及び座標検知方法 - Google Patents

座標検知装置、画像処理装置、及び座標検知方法 Download PDF

Info

Publication number
WO2015186453A1
WO2015186453A1 PCT/JP2015/062518 JP2015062518W WO2015186453A1 WO 2015186453 A1 WO2015186453 A1 WO 2015186453A1 JP 2015062518 W JP2015062518 W JP 2015062518W WO 2015186453 A1 WO2015186453 A1 WO 2015186453A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
event
image
coordinates
coordinate detection
Prior art date
Application number
PCT/JP2015/062518
Other languages
English (en)
French (fr)
Inventor
香川 正明
Original Assignee
株式会社リコー
香川 正明
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社リコー, 香川 正明 filed Critical 株式会社リコー
Publication of WO2015186453A1 publication Critical patent/WO2015186453A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to a coordinate detection device, an image processing device, and a coordinate detection method for detecting coordinates of a position designated by the indicator using an indicator for indicating a position on a display surface of the display device.
  • a so-called “electronic information board” product in which a touch panel is mounted on a display using a flat panel or a projector such as liquid crystal or plasma, is on the market.
  • an optical touch panel is often used.
  • the optical touch panel has a feature that it can be touched or written by any pen as long as it is a pen-shaped bar or finger (hereinafter referred to as a stylus) that blocks or reflects light.
  • a stylus a pen-shaped bar or finger
  • Detection is performed by blocking or reflecting a predetermined amount of light (hereinafter referred to as probe light). That is, it is determined whether or not the intensity of light detected by a predetermined light receiving element has reached a predetermined threshold value. When it is determined that the threshold value has been reached, the touch position information at that time is issued as a mouse event to the connected personal computer to notify the personal computer of the touch position.
  • probe light a predetermined amount of light
  • a dedicated stylus hereinafter referred to as a dedicated pen
  • a dedicated pen provides with a pressure sensor or the like that detects that the tip is physically in contact with the display surface.
  • the dedicated pen blocks the light
  • the pen tip physically contacts the display surface
  • the pressure sensor installed at the pen tip detects a predetermined pressure
  • Coordinate values are issued as mouse events.
  • coordinates are detected only when the pen tip physically contacts the display surface.
  • Patent Document 1 in a display device with a touch panel, a coordinate point on the display surface is detected, a physical contact of the dedicated pen with the display surface is detected, and an elapsed time after the coordinate point is detected is measured.
  • Event 1 is issued when contact with the display surface of the dedicated pen is detected, and event 2 is detected when contact with the display surface of the dedicated pen is not detected and the elapsed time exceeds a predetermined time ⁇ t.
  • event 1 such as drawing mode
  • other than a dedicated pen such as a finger
  • events such as erase mode 2 will reduce the burden on the user when switching events, and will allow the user to switch events without being aware of the current mode. It has the advantage.
  • the light blocking method is configured to detect the coordinate point by detecting the contact and the contact position of the pen or finger by blocking the light that the pen or finger scans the front of the display. Yes.
  • contact is detected when it is determined that the light scanning a certain distance on the front surface of the display is blocked. Therefore, if coordinate detection is performed with an indicator that does not have a switch on the finger or the tip of the pen, a detection event (mouse down event) is issued before the shielding object touches the front of the display, and it is actually shielded from there. By the time the object (pen or finger) touches the front of the display, the coordinate position is shifted, or a detection event (mouse move event) in which the coordinate detection is moved is issued.
  • the pen tip contacts the display.
  • double mouse down events are issued.
  • a double mouse up event is issued when the pen tip leaves the display.
  • the driver corresponding to the coordinate detection unit and the driver of the contact detection unit are independent, when a mouse down event is issued when the pen tip touches, the acquisition of the contact position is coordinate detection. May return the value acquired by the part, and the coordinate value in the double mouse down event is used as the starting point of the stroke, and an unnecessary line segment may be generated. was there.
  • the present invention has been made in view of the above, and as its purpose, coordinate detection that can prevent generation of unnecessary coordinates even when the coordinate detection unit and the contact detection unit are combined as independent devices.
  • the invention according to claim 1 is a coordinate detection device that detects the coordinates of the position indicated by the indicator using an indicator for indicating the position on the display surface of the display device. And when the indicator is in contact with the display surface or in a non-contact and approaching state, the first event state by the operation using the indicator is detected and the instruction on the display surface is detected.
  • Coordinate detection means for detecting the coordinates of a body, contact detection means for detecting a second event situation by an operation using the indicator when the indicator is in contact with the display surface, and the first event Effective coordinate extraction means for extracting effective coordinates for one stroke by handwriting operation on the display surface based on the situation, the second event situation, and the coordinates detected by the coordinate detection means; Characterized in that it obtain.
  • FIG. 1 is an overall configuration diagram of an image processing system according to the present embodiment.
  • FIG. 2 is a hardware configuration diagram of the electronic blackboard.
  • FIG. 3 is a functional block diagram of the electronic blackboard.
  • FIG. 4 is a functional block diagram of the file processing unit.
  • FIG. 5 is a functional block diagram of the server unit and the client unit.
  • FIG. 6 is a conceptual diagram showing page data.
  • FIG. 7 is a conceptual diagram showing stroke arrangement data.
  • FIG. 8 is a conceptual diagram showing coordinate array data.
  • FIG. 9 is a conceptual diagram showing media data.
  • FIG. 10 is a conceptual diagram showing a remote license management table.
  • FIG. 11 is a conceptual diagram showing an address book management table.
  • FIG. 12 is a conceptual diagram showing backup data.
  • FIG. 13 is a conceptual diagram showing a connection destination management table.
  • FIG. 14 is a conceptual diagram showing a participating base management table.
  • FIG. 15 is a conceptual diagram showing operation data.
  • FIG. 16 is a configuration diagram of each image layer.
  • FIG. 17 is a sequence diagram showing processing of each electronic blackboard.
  • FIG. 18 is a sequence diagram showing processing of each electronic blackboard.
  • FIG. 19 is a processing sequence diagram of event distribution processing by the event distribution unit.
  • FIG. 20 is a flowchart showing event distribution processing by the event distribution unit.
  • FIG. 1 is an overall configuration diagram of an image processing system according to the present embodiment.
  • the image processing system 1 includes a plurality of electronic blackboards 2a and 2b, a plurality of electronic pens 4a and 4b, USB memories 5a and 5b, notebook PCs (Personal Computer) 6a and 6b, a television ( Video) having conference terminals 7a, 7b and PC8.
  • PCs Personal Computer
  • the electronic blackboards 2a and 2b and the PC 8 are connected via a communication network 9 so that they can communicate with each other. Further, the plurality of electronic blackboards 2a and 2b are provided with displays 3a and 3b, respectively. Further, on the electronic blackboard 2a, an image drawn by an event generated by the electronic pen 4a (touch of the pen tip of the electronic pen 4a or the pen tip of the electronic pen 4a on the display 3a) is displayed on the display 3a. Can do. Note that the image displayed on the display 3a can be changed based not only on the electronic pen 4a but also on an event (a gesture such as enlargement, reduction, or page turning) generated by the user's hand Ha or the like.
  • an event a gesture such as enlargement, reduction, or page turning
  • a USB memory 5a can be connected to the electronic blackboard 2a, and the electronic blackboard 2a can read an electronic file such as PDF from the USB memory 5a or record an electronic file in the USB memory 5a.
  • the electronic blackboard 2a is connected to a display port, a DVI (Digital Visual Interface), an HDMI (registered trademark) (High-Definition Multimedia Interface), and a cable 10a1 capable of communication according to a standard such as VGA (Video Graphics Array).
  • a notebook PC 6a is connected. Then, the electronic blackboard 2a generates an event by touching the display 3a, and transmits event information indicating the event to the notebook PC 6a in the same manner as an event from an input device such as a mouse or a keyboard.
  • a television (video) conference terminal 7a is connected to the electronic blackboard 2a via a cable 10a2 capable of communication according to the above-mentioned standards.
  • the notebook PC 6a and the video conference terminal 7a may communicate with the electronic blackboard 2a by wireless communication complying with various wireless communication protocols such as Bluetooth (registered trademark).
  • the electronic blackboard 2b with the display 3b, the electronic pen 4b, the USB memory 5b, the notebook PC 6b, the video conference terminal 7b, the cable 10b1, and the cable 10b2 in the same manner as described above. Is used.
  • the image displayed on the display 3b can be changed based on an event caused by the user's hand Hb or the like.
  • the image drawn on the display 3a of the electronic blackboard 2a at one base is also displayed on the display 3b of the electronic blackboard 2b at another base, and conversely on the display 3b of the electronic blackboard 2b at another base.
  • the image drawn on is displayed on the display 3a of the electronic blackboard 2a at one base.
  • the image processing system 1 can perform remote sharing processing for sharing the same image at a remote location, and thus is very convenient when used for a conference or the like at a remote location.
  • an arbitrary electronic blackboard among the plurality of electronic blackboards is indicated, it is indicated as “electronic blackboard 2”.
  • display 3 is shown.
  • an arbitrary electronic pen among a plurality of electronic pens When an arbitrary electronic pen among a plurality of electronic pens is indicated, it is indicated as “electronic pen 4”.
  • USB memory When an arbitrary USB memory is indicated among the plurality of USB memories, it is indicated as “USB memory 5”.
  • an arbitrary notebook PC among the plurality of notebook PCs When an arbitrary video conference terminal is indicated among the plurality of video conference terminals, it is indicated as “video conference terminal 7”.
  • “hand H” is used when an arbitrary hand among the hands of a plurality of users is shown.
  • an arbitrary cable When an arbitrary cable is indicated among the plurality of cables, it is indicated as “cable 10”.
  • the electronic blackboard 2 will be described as an example of an image processing apparatus.
  • the electronic blackboard 2 is not limited thereto, and other examples of the image processing apparatus include an electronic signboard (digital signage), sports, weather forecasts, and the like. It may be a telestrator used in or a remote image (video) diagnostic device.
  • a notebook PC will be described as an example of the information processing terminal.
  • the present invention is not limited to this, and other examples of the information processing terminal include a desktop PC, a tablet PC, a PDA, a digital video camera, a digital camera, and a game. It may be a terminal capable of supplying image frames such as a machine.
  • the communication network 9 includes the Internet, a LAN (Local Area Network), a mobile phone communication network, and the like.
  • a USB memory is described as an example of a recording medium.
  • various recording media such as an SD card may be used as another example of the recording medium.
  • FIG. 2 is a hardware configuration diagram of the electronic blackboard.
  • the electronic blackboard 2 includes a CPU 101 that controls the operation of the electronic blackboard 2 as a whole, a ROM 102 that stores a program used to drive the CPU 101 such as an IPL, and a RAM 103 that is used as a work area of the CPU 101.
  • An SSD 104 for storing various data such as a program for the electronic blackboard 2, a network controller 105 for controlling communication with the communication network 9, and an external storage controller 106 for controlling communication with the USB memory 5.
  • the electronic blackboard 2 also captures video information displayed on the display of the notebook PC 6 as a still image or a moving image, a GPU (Graphics Processing Unit) 112 that specializes in graphics, and an output image from the GPU 112.
  • a display controller 113 is provided for controlling and managing screen display for output to the display 3 and the video conference terminal 7.
  • the electronic blackboard 2 further includes a sensor controller 114 that controls processing of the contact sensor 115 and a contact sensor 115 that detects that the electronic pen 4 or the hand H of the user touches the display 3.
  • the contact sensor 115 performs coordinate input and coordinate detection by an infrared ray blocking method.
  • two light emitting / receiving devices installed at both upper ends of the display 3 emit a plurality of infrared rays in parallel with the display 3 and are provided around the display 3.
  • This is a method of receiving light that is reflected by the reflecting member and returns on the same optical path as the light path emitted by the light receiving element.
  • the contact sensor 115 outputs infrared ID (Identification) emitted by the two light receiving and emitting devices blocked by the indicator to the sensor controller 114, and the sensor controller 114 specifies the coordinate position that is the contact position of the indicator. . All IDs shown below are examples of identification information.
  • the contact sensor 115 is not limited to the infrared ray blocking method, but a capacitance type touch panel that identifies a contact position by detecting a change in capacitance, or a contact position determined by a voltage change of two opposing resistance films.
  • Various detection means such as a resistance film type touch panel to be identified and an electromagnetic induction type touch panel to identify a contact position by detecting electromagnetic induction caused by contact of a contact object with the display unit may be used.
  • the electronic blackboard 2 includes an electronic pen controller 116. This electronic pen controller 116 communicates with the electronic pen 4 to determine whether or not there is a pen tip touch or a pen butt touch on the display 3.
  • the electronic pen controller 116 may determine whether or not the user grips the part of the electronic pen 4 as well as the other electronic pen part, as well as the pen tip and the bottom of the electronic pen 4.
  • the electronic blackboard 2 includes the CPU 101, ROM 102, RAM 103, SSD 104, network controller 105, external storage controller 106, capture device 111, GPU 112, sensor controller 114, and electronic pen controller 116 as shown in FIG.
  • a bus line 120 such as an address bus or a data bus for electrical connection is provided.
  • the program for the electronic blackboard 2 may be recorded and distributed on a computer-readable recording medium such as a CD-ROM.
  • FIG. 3 is a functional block diagram of the electronic blackboard.
  • the electronic blackboard 2 has each functional configuration shown in FIG. 3 by the hardware configuration and program shown in FIG.
  • the electronic blackboard 2 can be a “host device” that starts the remote sharing process first, and can also be a “participating device” that participates in the remote sharing process that has already started.
  • the electronic blackboard 2 is roughly composed of both the client unit 20 and the server unit 90.
  • the client unit 20 and the server unit 90 are functions realized in one housing of the electronic blackboard 2.
  • the electronic blackboard 2 When the electronic blackboard 2 is a hosting device, the electronic blackboard 2 implements the client unit 20 and the server unit 90. Further, when the electronic blackboard 2 is a participating device, in the electronic blackboard 2, the client unit 20 is realized, but the server unit 90 is not realized. That is, in FIG. 1, when the electronic blackboard 2a is the hosting device and the electronic blackboard 2b is the participating device, the client unit 20 of the electronic blackboard 2a receives the other via the server unit 90 realized in the same electronic blackboard 2a. Communicate with the client unit 20 of the electronic blackboard 2b. On the other hand, the client unit 20 of the electronic blackboard 2b communicates with the client unit 20 of the other electronic blackboard 2a via the server unit 90 realized in the other electronic blackboard 2a.
  • the client unit 20 includes a video acquisition unit 21, a coordinate detection unit 22, an automatic adjustment unit 23, a contact detection unit 24, an event distribution unit 25 (effective coordinate extraction unit), an operation processing unit 26, a gesture processing unit 27, and a video superimposition unit. 28, an image processing unit 30, and a communication control unit 60.
  • the video acquisition unit 21 acquires the output video of the video output device connected to the cable 10.
  • the video acquisition unit 21 analyzes the image signal, and updates the resolution of the image frame that is a display image of the video output device formed by the image signal.
  • Image information such as frequency is derived and output to the image acquisition unit 31.
  • the coordinate detection unit 22 detects the coordinate position of an event (such as an operation in which the user's hand H is touched on the display 3) generated by the user on the display 3.
  • the coordinate detection unit 22 also detects the touched area.
  • the coordinate detection unit 22 detects the first event situation by the operation using the electronic pen 4 when the electronic pen 4 is in contact with the display surface of the display 3 or in a non-contact and approaching state, and the display is performed.
  • the coordinates of the electronic pen 4 on the surface are detected.
  • the first event situation detected by the coordinate detection unit 22 includes a mouse down event, a mouse move event, a mouse up event, and the like.
  • the automatic adjustment unit 23 is activated when the electronic blackboard 2 is activated, and adjusts the image processing parameters of the sensor camera in the optical sensor method of the contact sensor 115 so that the contact sensor 115 can output an appropriate value to the coordinate detection unit 22.
  • the contact detection unit 24 detects an event (such as an operation in which the pen tip of the electronic pen 4 or the pen tip of the electronic pen 3 is pressed (touched) on the display 3).
  • the contact detection unit 24 detects a second event situation caused by an operation using the electronic pen 4 when the electronic pen 4 is in contact with the display surface.
  • the second event situation detected by the contact detection unit 24 includes a mouse down event, a mouse move event, a mouse up event, and the like.
  • the event distribution unit 25 distributes the coordinate position of the event detected by the coordinate detection unit 22 and the detection result detected by the contact detection unit 24 to each event of stroke drawing, UI operation, and gesture operation.
  • stroke drawing is performed when the user presses the electronic pen 4 on the display 3 when a stroke image (B) described later shown in FIG. 16 is displayed on the display 3. In this state, the electronic pen 4 is moved and finally the electronic pen 4 is released from the display 3.
  • alphabets “S” and “T” are drawn on the display 3.
  • the “stroke drawing” includes not only drawing an image but also an event of deleting an already drawn image or editing a drawn image.
  • the “UI operation” is an event in which the user presses a predetermined position with the electronic pen 4 or the hand H when a UI image (A) described later shown in FIG. 16 is displayed on the display 3. .
  • UI operation for example, the color or width of a line drawn by the electronic pen 4 is set.
  • the “gesture operation” is an event that the user touches and moves the display 3 with the hand H when a later-described stroke image (B) shown in FIG. 16 is displayed on the display 3.
  • this gesture operation for example, by moving the hand H while the user touches the display 3 with the hand H, the image can be enlarged (or reduced), the display area can be changed, or the page can be switched. it can.
  • the event distribution unit 25 Based on the first event situation, the second event situation, and the coordinates detected by the coordinate detection unit 22, the event distribution unit 25 extracts effective coordinates for one stroke by handwriting operation on the display surface.
  • the coordinate detection unit 22 detects a down event as the first event situation
  • the contact detection unit 24 detects a down event as the second event situation
  • the coordinates of the start point detected by the coordinate detection unit 22 are validated.
  • the event distribution unit 25 detects an electronic event detected by the coordinate detection unit 22 when the coordinate detection unit 22 detects a move event as the first event situation and the contact detection unit 24 detects an up event as the second event situation.
  • the coordinates of the end point of the pen 4 are valid.
  • the event distribution unit 25 extracts the coordinates of the points that have passed from the coordinates of the start point to the coordinates of the end point as the coordinates of the passing point.
  • the event distribution unit 25 is detected by the coordinate detection unit 22 when the coordinate detection unit 22 detects the down event as the first event situation and the contact detection unit 24 does not detect the down event as the second event situation.
  • the coordinates are invalid.
  • the event distribution unit 25 detects the coordinate detection unit 22 until the coordinate detection unit 22 detects the up event as the first event situation after the contact detection unit 24 detects the up event as the second event situation.
  • the coordinates of the electronic pen 4 are invalidated.
  • the operation processing unit 26 executes various operations according to the UI element in which the event is generated, from what is determined as the UI operation by the event distribution unit 25.
  • Examples of the UI element include a button, a list, a check box, and a text box.
  • the gesture processing unit 27 performs an operation corresponding to what is determined as a gesture operation by the event distribution unit 25.
  • the video superimposing unit 28 displays an image superimposed by a display superimposing unit 36 (to be described later) on the video output device (display 3 or the like) as a video.
  • the video superimposing unit 28 performs picture-in-picture of the video sent from another video output device (such as the video conference terminal 7) with respect to the video from the video output device (such as the notebook PC 6).
  • the video superimposing unit 28 performs switching for displaying the video that is picture-in-picture and displayed on a part of the display 3 on the entire display 3.
  • the image processing unit 30 performs superimposing processing of each image layer as shown in FIG.
  • the image processing unit 30 includes an image acquisition unit 31, a stroke processing unit 32, a UI image generation unit 33, a background generation unit 34, a layout management unit 35, a display superimposition unit 36, a page processing unit 37, a file processing unit 40, page data.
  • a storage unit 300 and a remote license management table 310 are provided.
  • the image acquisition unit 31 acquires each frame as an image from the video acquired by the video acquisition unit 21.
  • the image acquisition unit 31 outputs the image data to the page processing unit 37. This image corresponds to an output image (C) from the video output device (notebook PC 6 or the like) shown in FIG.
  • the stroke processing unit 32 draws an image, deletes the drawn image, or edits the drawn image based on the coordinate data for the event related to the stroke drawing allocated by the event distribution unit 25.
  • the image by this stroke drawing corresponds to the stroke image (B) shown in FIG.
  • the results of drawing, deleting, and editing an image based on the stroke drawing are stored in the operation data storage unit 840 as operation data described later.
  • the UI image generation unit 33 generates a UI (user interface) image set in advance on the electronic blackboard 2. This UI image corresponds to the UI image (A) shown in FIG.
  • the background generation unit 34 receives media data from the page data read from the page data storage unit 300 by the page processing unit 37 from the page processing unit 37.
  • the background generation unit 34 outputs the received media data to the display superimposing unit 36.
  • the image based on the media data corresponds to the background image (D) shown in FIG.
  • the pattern of the background image (D) is plain or grid display.
  • the layout management unit 35 provides layout information indicating the layout of each image output from the image acquisition unit 31, the stroke processing unit 32, and the UI image generation unit 33 (or the background generation unit 34) to the display superimposing unit 36. I manage. Thereby, the layout management unit 35 causes the display superimposing unit 36 to display the output image (C) and the stroke image (B) in the UI image (A) and the background image (D). It is possible to instruct whether to hide.
  • the display superimposing unit 36 displays the layout of each image output from the image acquisition unit 31, the stroke processing unit 32, and the UI image generation unit 33 (background generation unit 34). Do.
  • the page processing unit 37 stores the data of the stroke image (B) and the data of the output image (C) in one page data and stores them in the page data storage unit 300.
  • the data of the stroke image (B) forms part of page data as stroke arrangement data (each stroke data) indicated by the stroke arrangement data ID shown in FIG.
  • the data of the output image (C) forms part of the page data as the media data indicated by the media data ID shown in FIG.
  • the page processing unit 37 transmits the media data of the once stored page data to the display superimposing unit 36 via the background generating unit 34 so that the video superimposing unit 28 displays the background image (D). 3 can be displayed again.
  • the page processing unit 37 can return the stroke arrangement data (each stroke data) in the page data to the stroke processing unit 32 so that the stroke can be re-edited. Further, the page processing unit 37 can delete or duplicate page data. That is, the data of the output image (C) displayed on the display 3 when the page processing unit 37 stores the page data in the page data storage unit 300 is temporarily stored in the page data storage unit 300 and then When read from the page data storage unit 300, it is read as media data indicating the background image (D). Then, the page processing unit 37 outputs stroke arrangement data indicating the stroke image (B) among the page data read from the page data storage unit 300 to the stroke processing unit 32. Further, the page processing unit 37 outputs media data indicating the background image (D) among the page data read from the page data storage unit 300 to the background generation unit 34.
  • the display superimposing unit 36 includes an output image (C) from the image acquisition unit 31, a stroke image (B) from the stroke processing unit 32, a UI image (A) from the UI image generation unit 33, and a background generation unit 34.
  • the background image (D) is superimposed according to the layout designated by the layout management unit 35. Accordingly, as shown in FIG. 16, each of the UI image (A), the stroke image (B), the output image (C), and the background image (D) is displayed in the order in which the user can see even if the images overlap. It has a layer structure. Further, the display superimposing unit 36 can also superimpose the image (A) and the image (B) exclusively by switching the image (C) and the image (D) shown in FIG. .
  • the display superimposing unit 36 also performs display enlargement, display reduction, and display area movement processing.
  • the page data storage unit 300 stores page data as shown in FIG.
  • FIG. 6 is a conceptual diagram showing page data.
  • the page data is data for one page displayed on the display 3 (stroke arrangement data (each stroke data) and media data). Since there are many types of parameters included in the page data, the contents of the page data will be described here separately in FIGS.
  • the page data includes a page data ID for identifying an arbitrary page, a disclosure time indicating the start time of display of this page, and rewriting of the contents of the page by a stroke, a gesture, or the like.
  • the stroke arrangement data is data for displaying a stroke image (B) shown in FIG.
  • the media data is data for displaying a background image (D) shown in FIG.
  • the stroke arrangement data shows detailed information as shown in FIG.
  • FIG. 7 is a conceptual diagram showing stroke arrangement data.
  • one stroke arrangement data is represented by a plurality of stroke data.
  • One stroke data includes a stroke data ID for identifying the stroke data, a start time indicating the start time of writing one stroke, an end time indicating the end time of writing one stroke, the color of the stroke, A stroke width and coordinate array data ID for identifying an array of stroke passing points are shown.
  • the coordinate array data shows detailed information as shown in FIG.
  • FIG. 8 is a conceptual diagram showing coordinate array data. As shown in FIG.
  • the coordinate array data includes one point (X coordinate value, Y coordinate value) on the display 3, and a time difference (ms from the disclosure time of the stroke when the one point is passed) ) And writing pressure information of the electronic pen 4 at this one point. That is, the collection of one point shown in FIG. 8 is shown by one coordinate array data shown in FIG. For example, when the user draws the alphabet “S” with the electronic pen 4, it is drawn with a single stroke, but passes through a plurality of passing points until the drawing of “S” is completed. Information.
  • FIG. 9 is a conceptual diagram showing media data.
  • the media data is stored in the page data storage unit 300 from the page processing unit 37, the media data ID in the page data shown in FIG.
  • the recording time, the position of the image displayed on the display 3 by the page data (X coordinate value, Y coordinate value), the image size (width, height), and data indicating the contents of the media data are shown in association with each other.
  • the remote license management table 310 manages license data necessary to execute the remote sharing process.
  • the product ID of the electronic blackboard 3, the license ID used for authentication, and the expiration date of the license are managed in association with each other.
  • FIG. 4 is a functional block diagram of the file processing unit.
  • the file processing unit 40 includes a recovery processing unit 41, a file input unit 42a, a file output unit 42b, a file conversion unit 43, a file transmission unit 44, an address book input unit 45, a backup processing unit 46, a backup output unit 47, and a setting management unit. 48, a setting file input unit 49a, a setting file output unit 49b, and an address book input unit 50.
  • the file processing unit 40 includes an address book management table 410, a backup data storage unit 420, a setting file storage unit 430, and a connection destination management table 440.
  • the recovery processing unit 41 detects the abnormal end after the electronic blackboard 2 ends abnormally, and recovers the unsaved page data. For example, in the case of a normal end, page data is recorded as a PDF file in the USB memory 5 via the file processing unit 40, but in the case of an abnormal end such as a power down, the page data is stored in the page data storage unit 300. Is still recorded. Therefore, when the power is turned on again, the recovery processing unit 41 recovers by reading the page data from the page data storage unit 300.
  • the file input unit 42a reads a PDF file from the USB memory 5 and stores each page in the page data storage unit 300 as page data.
  • the file conversion unit 43 converts the page data stored in the page data storage unit 300 into a PDF format file.
  • the file output unit 42 b records the PDF file output by the file conversion unit 43 in the USB memory 5.
  • the file transmission unit 44 transmits the PDF file generated by the file conversion unit 43 by attaching it to an electronic mail.
  • the transmission destination of the file is displayed by displaying the contents of the address book management table 410 on the display 3 by the display superimposing unit 36, and the file transmitting unit 44 accepts the selection of the destination by the operation of the input device such as a touch panel by the user. It is determined.
  • the address book management table 410 as shown in FIG. 11, the name of the destination and the mail address of the destination e-mail are managed in association with each other. Further, the file transmission unit 44 can accept an input of a mail address as a destination by an operation of an input device such as a touch panel
  • the address book input unit 45 reads a list file of e-mail addresses from the USB memory 5 and manages it in the address book management table 410.
  • the backup processing unit 46 performs backup by storing the file output by the file output unit 42 b and the file transmitted by the file transmission unit 44 in the backup data storage unit 420. If the user does not set backup, backup processing is not performed.
  • the backup data is stored in the PDF format as shown in FIG.
  • the backup output unit 47 stores the backed up file in the USB memory 5. At the time of storage, a password is input for security by the operation of an input device such as a touch panel by the user.
  • the setting management unit 48 stores and reads various setting information of the electronic blackboard 2 in the setting file storage unit 430 for management.
  • the various setting information include network settings, date and time settings, region and language settings, mail server settings, address book settings, connection destination list settings, and backup settings.
  • the network setting is, for example, an IP address setting of the electronic blackboard 2, a net mask setting, a default gateway setting, a DNS (Domain Name System) setting, or the like.
  • the setting file output unit 49b records various setting information of the electronic blackboard 2 in the USB memory 5 as a setting file. Note that the settings file cannot be viewed by the user due to security.
  • the setting file input unit 49 a reads a setting file stored in the USB memory 5 and reflects various setting information on various settings on the electronic blackboard 2.
  • the address book input unit 50 reads a list file of connection destination IP addresses for remote sharing processing from the USB memory 5 and manages it in the connection destination management table 440. As shown in FIG. 13, in the connection destination management table 440, when the electronic blackboard 2 is a participating device that intends to participate in the remote sharing process, the user of the participating device plays a role as a host device.
  • connection destination management table 440 It is a table for managing beforehand in order to reduce the effort which inputs the IP address of the electronic blackboard 2.
  • the name of the base where the electronic blackboard 2 as a hosting apparatus that can participate is installed and the IP address of the electronic blackboard 2 as the hosting apparatus are managed in association with each other.
  • the connection destination management table 440 may be omitted.
  • the user of the participating device needs to input the IP address of the host device using an input device such as a touch panel in order to start remote sharing processing with the host device. Therefore, the user of the participating device obtains the IP address of the sponsoring device from the user of the sponsoring device by telephone or electronic mail.
  • FIG. 5 is a functional block diagram of the server unit and the client unit.
  • the communication control unit 60 controls communication with other electronic whiteboards 2 and communication with the later-described communication control unit 70 in the server unit 90 via the communication network 9. Therefore, the communication control unit 60 includes a remote start processing unit 61, a remote participation processing unit 62, a remote image transmission unit 63, a remote image reception unit 64, a remote operation transmission unit 65, a remote operation reception unit 66, and a participation base management table 610. have.
  • the remote start processing unit 61 requests the server unit 90 of the same electronic blackboard 2 to start a new remote sharing process, and receives the request result from the server unit 90.
  • the remote start processing unit 61 refers to the remote license management table 310 and makes a request to start remote sharing processing when license information (product ID, license ID, and expiration date) is managed. be able to.
  • license information product ID, license ID, and expiration date
  • the participation base management table 610 is a table for managing the electronic blackboard 2 as a participating device currently participating in the remote sharing process when the electronic blackboard 2 is a sponsor device. In the participating site management table 610, as shown in FIG.
  • the remote participation processing unit 62 sends the remote connection processing to the remote sharing processing to the remote connection request receiving unit 71 in the server unit 90 of the electronic blackboard 2 as the host apparatus that has already started the remote sharing processing via the communication network 9. Request participation. Also in this case, the remote participation processing unit 62 refers to the remote license management table 310. In addition, when the remote participation processing unit 62 participates in the remote sharing process that has already been started, the IP address of the electronic blackboard 2 of the participation destination is acquired with reference to the connection destination management table 440.
  • the connection destination management table 440 may not be referred to by the remote participation processing unit 62, and the IP address of the participation electronic blackboard 2 may be input by an operation of an input device such as a touch panel by the user.
  • the remote image transmission unit 63 transmits the output image (C) sent from the video acquisition unit 21 via the image acquisition unit 31 to the server unit 90.
  • the remote image receiving unit 64 receives image data from the video output device connected to the other electronic blackboard 2 from the server unit 90 and outputs it to the display superimposing unit 36, thereby enabling remote sharing processing.
  • the remote operation transmission unit 65 transmits various operation data necessary for remote sharing processing to the server unit 90. Examples of the operation data include adding a stroke, deleting a stroke, editing a stroke (enlarging, reducing, moving), storing page data, creating page data, duplicating page data, deleting page data, and displaying. Data related to the switching of the current page. Further, the remote operation receiving unit 66 receives the operation data input from another electronic blackboard 2 from the server unit 90 and outputs it to the image processing unit 30 to perform remote sharing processing.
  • server unit 90 includes a communication control unit 70 and a data management unit 80.
  • the communication control unit 70 controls communication with the communication control unit 60 in the client unit 20 in the same electronic blackboard 2 and the communication control unit 60 in the client unit 20 in another electronic blackboard 2 via the communication network 9.
  • the data management unit 80 manages operation data, image data, and the like. More specifically, the communication controller 70 includes a remote connection request receiver 71, a remote connection result transmitter 72, a remote image receiver 73, a remote image transmitter 74, a remote operation receiver 75, and a remote operation transmitter 75. have.
  • the remote connection request receiving unit 71 can receive a remote sharing processing start request from the remote start processing unit 61, or can receive a participation request for remote sharing processing from the remote participation processing unit 62.
  • the remote connection result transmission unit 72 can transmit the result of the remote sharing processing start request to the remote start processing unit 61 or can transmit the result of the participation request for the remote sharing processing to the remote participation processing unit 62.
  • the remote image receiving unit 73 receives the image data (data of the output image (C)) from the remote image transmitting unit 63 and transmits it to the remote image processing unit 82 described later.
  • the remote image transmission unit 74 receives image data from the remote image processing unit 82 and transmits this image data to the remote image reception unit 64.
  • the remote operation receiving unit 75 receives operation data (data such as a stroke image (B)) from the remote operation transmitting unit 65 and transmits it to the remote operation processing unit 83 described later.
  • the remote operation transmission unit 76 receives operation data from the remote operation processing unit 83 and transmits this operation data to the remote operation reception unit 66.
  • the data management unit 80 includes a remote connection processing unit 81, a remote image processing unit 82, a remote operation processing unit 83, an operation composition processing unit 84, and a page processing unit 85. Further, the data management unit 80 includes a passcode management unit 810, a participating site management table 820, an image data storage unit 830, an operation data storage unit 840, and a page data storage unit 850. Among these, the remote connection processing unit 81 starts the remote sharing process and ends the remote sharing process.
  • the remote connection processing unit 81 also receives the license information received by the remote connection request receiving unit 71 from the remote start processing unit 61 together with the remote sharing processing start request or the remote sharing processing unit 62 from the remote sharing processing participation request. Based on the received license information, it is confirmed whether there is a license and whether it is within the license period. Further, the remote connection processing unit 81 confirms whether or not the participation request from the other electronic blackboard 2 as the client unit exceeds the predetermined number of possible participations. Further, the remote connection processing unit 81 has the same passcode that is sent when another electronic blackboard 2 has requested to participate in remote sharing processing as the passcode managed by the passcode management unit 810. It is determined whether or not there is the same, and if they are the same, participation in the remote sharing process is permitted.
  • This passcode is issued by the remote connection processing unit 81 when a new remote sharing process is started, and the user of the electronic blackboard 2 as a participating apparatus who intends to participate in the remote sharing process can It is transmitted from the user of the electronic blackboard 2 by telephone or e-mail.
  • a user of a participating device who intends to participate in the remote sharing process inputs the pass code to the participating device using an input device such as a touch panel and requests participation, thereby permitting participation.
  • the confirmation of the passcode may be omitted only by confirming the license information.
  • the remote connection processing unit 81 uses the participation base information included in the participation request sent from the remote participation processing unit 62 of the participating device via the communication network 9 as the server unit.
  • the data are stored in the 90 participating site management table 820.
  • the remote connection processing unit 81 reads out the remote site information stored in the participating site management table 820 and transmits it to the remote connection result transmission unit 72.
  • the remote connection result transmission unit 72 transmits the remote base information to the remote start processing unit 61 in the client unit 20 of the same sponsor device.
  • the remote start processing unit 61 stores the remote site information in the participating site management table 610.
  • the host device manages remote site information in both the client unit 20 and the server unit 90.
  • the remote image processing unit 82 is an image from a video output device (notebook PC 6 or the like) connected to the client unit 20 of each electronic blackboard 2 (including the client unit of its own electronic blackboard that is the hosting device) during remote sharing processing.
  • Data output image (C)
  • the image data to be remotely shared in the server unit 90 of the electronic blackboard 2 that is the host device is displayed.
  • the remote image processing unit 82 refers to the participating site management table 820, and refers to all the client units 20 of the electronic blackboard 2 participating in the remote sharing process (including the client unit of its own electronic blackboard that is the host device).
  • the image data is transmitted in the determined order via the communication control unit 70 (remote image transmission unit 74).
  • the remote operation processing unit 83 performs various operation data (stroke image (B) including a stroke image drawn by the client unit of each electronic blackboard 2 (including the client unit of its own electronic blackboard that is the host device) during the remote sharing process. )) And the like, and the display order of the images to be remotely shared is determined in the order of time of arrival at the server unit 90 of the electronic blackboard 2 that is the host device.
  • the various operation data is the same as the various operation data described above.
  • the remote operation processing unit 83 refers to the participating site management table 820, and operates the operation data in the client units 20 of all electronic blackboards 2 (including the client unit of its own electronic blackboard that is the host device) during the remote sharing process. Send.
  • the operation synthesis processing unit 84 synthesizes the operation data of each electronic blackboard 2 output from the remote operation processing unit 83, stores the operation data as a result of this synthesis in the operation data storage unit 840 and the remote operation processing unit 83.
  • This operation data is transmitted from the remote operation transmission unit 76 to each of the client unit of the electronic blackboard that is the host device and the client unit of the electronic blackboard that is the participating device, so that the same operation data is obtained in each electronic blackboard 2. Such an image is displayed. Therefore, as shown in FIG. 15, the operation data includes SEQ (Sequence), the operation name of the operation data, the IP address of the electronic blackboard 2 that is the transmission source of the operation data, and the Port of the client unit (server unit). No.
  • the IP address of the electronic blackboard 2 which is the transmission destination of the operation data, and the Port No. of the client unit (server unit).
  • the operation type of the operation data, the operation target of the operation data, and the data indicating the contents of the operation data are shown in association with each other. For example, in SEQ1, when a stroke is drawn on a client unit (Port No .: 50001) of an electronic blackboard (IP address: 192.0.0.1) that is a hosting device, the electronic blackboard (IP It is shown that the operation data is sent to the server part (Port No .: 50000) of the address: 192.0.0.1).
  • the operation type is “STROKE”
  • the operation target is the page data ID “p005”
  • the data indicating the contents of the operation data is data indicating the stroke.
  • SEQ2 from the server unit (Port No .: 50000) of the electronic blackboard (IP address: 192.0.0.1) that is the hosting device, another electronic blackboard (IP address: 192.0) that is the participating device. 0.2) indicates that the operation data has been sent to the client unit (Port No .: 50001).
  • the operation composition processing unit 84 performs composition in the order in which the operation data is input to the operation composition processing unit 84. Therefore, if the communication network 9 is not congested, remote sharing is performed in the order of strokes by the users of the electronic blackboards 2.
  • a stroke image (B) is displayed on the displays 3 of all the electronic blackboards 2 being processed.
  • the page processing unit 85 has the same function as the page processing unit 37 in the image processing unit 30 of the client unit 20, and the server unit 90 also converts the page data shown in FIGS. 6 to 8 into a page data storage unit.
  • Store in 850 Note that the page data storage unit 850 has the same contents as the page data storage unit 300 in the image processing unit 30, and therefore the description thereof is omitted.
  • FIGS. 17 and 18 are sequence diagrams showing the processing of each electronic blackboard.
  • the electronic blackboard 2a serves as a hosting device (server unit and client unit) that hosts the remote sharing process, and the electronic blackboards 2b and 2c participate in the remote sharing process. A case where it plays a role as a device (client unit) will be described.
  • displays 3a, 3b, and 3c are connected to the electronic blackboards 2a, 2b, and 2c, respectively, and notebook PCs 6a, 6b, and 6c are connected to the electronic blackboards 2a, 2b, and 2c, respectively.
  • electronic pens 4a, 4b, and 4c are used, respectively.
  • the UI image generating unit 33 in the client unit 20 of the electronic blackboard 2a generates connection information for establishing a connection with the electronic blackboard 2a, and the video superimposing unit 28 transmits the display superimposing unit 36 from the UI image generating unit 33.
  • the connection information obtained through is displayed on the display 3a (step S22).
  • This connection information includes the host device's IP address and the passcode generated for the current remote sharing process.
  • the passcode stored in the passcode management unit 810 is read by the remote connection processing unit 81 shown in FIG. 5 and transmitted in the order of the remote connection result transmission unit 72 and the remote start processing unit 61.
  • the passcode is transmitted from the communication control unit 60 including the remote start processing unit 61 to the image processing unit 30 illustrated in FIG.
  • connection information includes the passcode.
  • the connection information is transmitted to the users of the electronic blackboards 2b and 2c by telephone or electronic mail by the user of the electronic blackboard 2a. If there is the connection destination management table 440, even if the connection information does not include the IP address of the hosting device, the participating device can make a participation request.
  • the remote participation processing unit 62 in the client unit 20 of each electronic blackboard 2a and 2b Based on the IP address, a participation request is made by transmitting a passcode to the communication control unit 70 in the server unit 90 of the electronic blackboard 2a via the communication network 9 (steps S23 and S24).
  • the remote connection request receiving unit 71 of the communication control unit 70 receives a participation request (including a passcode) from each of the electronic blackboards 2 b and 2 c, and outputs this passcode to the remote connection processing unit 81.
  • the remote connection processing unit 81 authenticates the passcode received from each electronic blackboard 2b, 2c using the passcode managed by the passcode management unit 810 (step S25). And the remote connection result transmission part 72 notifies an authentication result to the client part 20 of each electronic blackboard 2b, 2c (step S26, S27). If it is determined by the authentication in step S25 that each of the electronic blackboards 2b and 2c is a legitimate electronic blackboard, remote sharing between the electronic blackboard 2a that is the hosting device and the electronic blackboards 2b and 2c that are the participating devices Processing communication is established, and the remote participation processing unit 62 in the client unit 20 of each electronic blackboard 2b, 2c enables the start of remote sharing processing with other electronic blackboards (steps S28 and S29).
  • the electronic blackboard 2b displays the output image (C) on the display 3b (step S30).
  • the image acquisition unit 31 of the electronic blackboard 2b receives the data of the output image (C) displayed on the notebook PC 6b from the notebook PC 6b via the video acquisition unit 21, and displays the display superimposing unit 36 and the video.
  • the display 3b displays the output image (C).
  • the image processing unit 30 including the image acquisition unit 31 of the electronic blackboard 2 b transmits the output image (C) data to the remote image transmission unit 63, so that the communication control unit 60 including the remote image transmission unit 63 is performed.
  • the data of the output image (C) is transmitted to the communication control unit 70 of the electronic blackboard 2a that is the hosting device via the communication network 9 (step S31).
  • the remote image receiving unit 73 of the electronic blackboard 2a receives the output image (C) data and outputs it to the remote image processing unit 82, so that the remote image processing unit 82 outputs the output image to the image data storage unit 830.
  • the data of (C) is stored.
  • the electronic blackboard 2a which is the hosting device, displays the output image (C) on the display 3a (step S32).
  • the remote image processing unit 82 of the electronic blackboard 2 a outputs the output image (C) data received from the remote image receiving unit 73 to the remote image transmitting unit 74.
  • the remote image transmitting unit 74 outputs the data of the output image (C) to the remote image receiving unit 64 in the client unit 20 of the electronic blackboard 2a which is the same host device.
  • the remote image receiving unit 64 outputs the data of the output image (C) to the display superimposing unit 36.
  • the display superimposing unit 36 outputs the output image (C) data to the video superimposing unit 28.
  • the video superimposing unit 28 outputs the data of the output image (C) to the display 3a. Thereby, the display 3a displays the output image (C).
  • the communication control unit 70 including the remote image transmission unit 74 in the server unit 90 of the electronic blackboard 2a as the hosting device via the communication network 9 is the electronic blackboard 2b that is the transmission source of the data of the output image (C).
  • the data of the output image (C) is transmitted to the communication control unit 60 of the electronic blackboard 2c other than (step S33).
  • the remote image receiving part 64 of the electronic blackboard 2c which is a participating apparatus receives the data of an output image (C).
  • the electronic blackboard 2c displays the output image (C) on the display 3c (step S34).
  • the remote image receiving unit 64 of the electronic blackboard 2c outputs the data of the output image (C) received in step S33 to the display superimposing unit 36 of the electronic blackboard 2c.
  • the display superimposing unit 36 outputs the output image (C) data to the video superimposing unit 28.
  • the video superimposing unit 28 outputs the data of the output image (C) to the display 3c.
  • the display 3c displays the output image (C).
  • the display superimposing unit 36 superimposes them.
  • Images (A, B, C) are generated, and the video superimposing unit 28 outputs the data of the superimposed images (A, B, C) to the display 3c.
  • video conferencing video (E) data is sent from the video conference terminal 7 to the video superimposing unit 28, the video superimposing unit 28 displays the superimposed image (A, B, C).
  • Video conferencing video (E) data is superimposed by picture-in-picture and output to the display 3c.
  • the stroke processing unit 32 of the electronic blackboard 2b receives the coordinate data of the stroke image (B) as the operation data from the coordinate detection unit 22 and the contact detection unit 24 via the event distribution unit 25, and displays them. Transmit to the superimposing unit 36. Accordingly, the display superimposing unit 36 can superimpose the stroke image (B) on the UI image (A) and the output image (C), and the video superimposing unit 28 is placed on the display 3b of the electronic blackboard 2b. Superimposed images (A, B, C) can be displayed.
  • the image processing unit 30 including the stroke processing unit 32 of the electronic blackboard 2b transmits the coordinate data of the stroke image (B) to the remote operation transmission unit 65, so that the remote operation transmission unit 65 of the electronic blackboard 2b
  • the data of the stroke image (B) is transmitted via the communication network 9 to the communication control unit 70 of the electronic blackboard 2a that is the hosting device (step S43).
  • the remote operation receiving unit 75 of the electronic blackboard 2a receives the data of the stroke image (B) and outputs it to the remote operation processing unit 83, so that the remote operation processing unit 83 sends the stroke image to the operation composition processing unit 84.
  • the data of (B) is output.
  • the data of the stroke image (B) drawn on the electronic blackboard 2b is sequentially transmitted to the remote operation processing unit 83 of the electronic blackboard 2a that is the hosting device every time it is drawn.
  • the data of the stroke image (B) is data shown for each stroke data ID shown in FIG. Therefore, for example, as described above, when the user draws the alphabet “T” with the electronic pen 4, the stroke image (B) indicated by each of the two stroke data IDs is sequentially transmitted. Is done.
  • the electronic blackboard 2a which is the hosting apparatus, displays on the display 3a a superimposed image (A, B, C) including the data of the stroke image (B) sent from the electronic blackboard 2b (Step S). S44).
  • the operation composition processing unit 84 of the electronic blackboard 2a synthesizes the data of the plurality of stroke images (B) sequentially sent via the remote operation processing unit 83 and stores them in the operation data storage unit 840. Store and return to the remote operation processing unit 83.
  • the remote operation processing unit 83 outputs the combined stroke image (B) data received from the operation synthesis processing unit 84 to the remote operation transmission unit 76.
  • the remote operation transmitting unit 76 outputs the combined stroke image (B) data to the remote operation receiving unit 66 in the client unit 20 of the electronic blackboard 2a which is the same hosting device.
  • the remote operation receiving unit 66 outputs the combined stroke image (B) data to the display superimposing unit 36 in the image processing unit 30. Therefore, the display superimposing unit 36 superimposes the combined stroke image (B) on the UI image (A) and the output image (C).
  • the video superimposing unit 28 displays the superimposed image (A, B, C) superimposed by the display superimposing unit 36 on the display 3a.
  • the communication control unit 70 including the remote operation transmission unit 76 in the server unit 90 of the electronic blackboard 2a as the hosting device via the communication network 9 is the electronic blackboard 2b that is the transmission source of the stroke image (B) data.
  • the composite stroke image (B) data is transmitted to the communication control unit 60 of the electronic blackboard 2c other than (step S45).
  • the remote operation receiving part 66 of the electronic blackboard 2c which is a participating apparatus receives the data of the synthesized stroke image (B).
  • the electronic blackboard 2c displays a superimposed image (A, B, C) on the display 3c (step S46).
  • the remote operation receiving unit 66 of the electronic blackboard 2c outputs the combined stroke image (B) data received in step S45 to the image processing unit 30 of the electronic blackboard 2c.
  • the display superimposing unit 36 of the image processing unit 30 superimposes each data of the UI image (A) and the output image (C) and the data of the combined stroke image (B), and superimposes the superimposed image ( A, B, C) data is output.
  • the video superimposing unit 28 outputs the superimposed image (A, B, C) data to the display 3c. Thereby, the display 3c displays a superimposed image (A, B, C).
  • the output image (C) is displayed on the display 3, but a background image (D) may be displayed instead of the output image (C).
  • the exclusive relationship between the output image (C) and the background image (D) may be stopped, and both the output image (C) and the background image (D) may be displayed on the display 3 at the same time.
  • the remote connection request receiving unit 71 of the communication control unit 70 receives the participation end request from the electronic blackboard 2c, and outputs the participation end request together with the IP address of the electronic blackboard 2c to the remote connection processing unit 81. . Then, the remote connection processing unit 81 of the electronic blackboard 2a, based on the IP address sent from the remote connection request receiving unit 71, from the participation base management table 820, the IP of the electronic blackboard 2c that has requested participation. The address and the name of the base where the electronic blackboard 2c is installed are deleted. Next, the remote connection processing unit 81 outputs to the remote connection result transmission unit 72 an IP address of the electronic blackboard 2c and a notification that it has been deleted.
  • the communication control unit 70 including the remote connection result transmission unit 72 instructs the communication control unit 60 in the client unit 20 of the electronic blackboard 2c to end participation via the communication network 9 (step S48).
  • the remote participation processing unit 62 of the communication control unit 60 in the electronic blackboard 2c disconnects the communication of the remote sharing processing and performs the participation end processing, thereby completing the participation (step S49).
  • FIG. 19 is a processing sequence diagram of event distribution processing by the event distribution unit 25.
  • notification of each event will be described.
  • the coordinate detection unit 22 when an indicator such as the electronic pen 4a approaches the front of the display and blocks light, the mouse down event is notified to the event distribution unit 25, and these indicators are displayed on the front of the display.
  • the event distribution unit 25 When moved, the event distribution unit 25 is notified of a mouse move event.
  • the coordinate detection unit 22 notifies the event distribution unit 25 of a mouse up event when those objects do not leave the front of the display and block light.
  • the mouse down event is assigned to the event distribution unit 25.
  • a button installed on the electronic pen 4a such as a pen tip or a pen butt is pressed (such as when the pen tip touches the front of the display)
  • the mouse down event is assigned to the event distribution unit 25.
  • a mouse move event is notified to the event distribution unit 25 and when the pressed button is released (the pen tip moves away from the front of the display), the mouse up The event is notified to the event distribution unit 25.
  • the event distribution unit 25 receives a mouse down event notification from the coordinate detection unit 22 and receives a mouse down event notification from the contact detection unit 24.
  • the stroke drawing start instruction is transmitted to the stroke processing unit 32.
  • the stroke processing unit 32 that has received a stroke drawing start instruction from the event distribution unit 25 starts preparation for stroke drawing.
  • the event distribution unit 25 acquires the coordinate data of the stroke start point from the coordinate detection unit 22 and transmits this coordinate data to the stroke processing unit 32.
  • the stroke processing unit 32 that has received the coordinate data of the stroke start point from the event distribution unit 25 starts stroke drawing.
  • the event distribution unit 25 acquires the coordinate data of the stroke passing point from the coordinate detection unit 22 every time there is a mouse move event from the coordinate detection unit 22, and transmits this coordinate data to the stroke processing unit 32. .
  • the stroke processing unit 32 that has received the coordinate data of the stroke passing point from the event allocating unit 25 draws a locus formed by the stroke passing point.
  • the event distribution unit 25 transmits a stroke drawing end instruction to the stroke processing unit 32 when there is a mouse up event from the contact detection unit 24.
  • the stroke processing unit 32 that has received the stroke drawing end instruction from the event distribution unit 25 ends the stroke drawing.
  • FIG. 20 is a flowchart showing event distribution processing by the event distribution unit 25.
  • the event distribution unit 25 starts processing (step S101).
  • the event distribution unit 25 receives the event notification (step S103).
  • the event distribution unit 25 determines whether or not the received event is the first mouse down event (step S105). If it is the first mouse down event, it is an event from the coordinate detection unit 22, and therefore the process proceeds to step S107. If it is not the first mouse down event, the process returns to step S101. If it is the first mouse down event, a notification of the next event is received (step S107).
  • the event distribution unit 25 determines whether or not the received event is a second mouse down event (step S109).
  • step S110 If it is the second mouse down event, the event distribution unit 25 proceeds to step S110 because it is a genuine event from the contact detection unit 24. If it is not the second mouse down event, the event distribution unit 25 proceeds to step S101. Return. Accordingly, generation of unnecessary coordinates can be prevented by invalidating unnecessary coordinates, and the accuracy of coordinates representing the starting point when drawing one stroke can be improved.
  • the event distribution unit 25 transmits a stroke drawing start instruction to the stroke processing unit 32 (step S110).
  • the event distribution unit 25 receives an event notification (step S111).
  • the event distribution unit 25 determines whether or not the received event is the first mouse move event (step S113). If it is the first mouse move event, the process proceeds to step S115. Thereby, generation of unnecessary coordinates can be prevented, and the accuracy of coordinates representing the starting point when drawing one stroke can be improved. If it is not the first mouse move event, the event distribution unit 25 returns to step S101.
  • the event distribution unit 25 acquires the coordinate data of the stroke start point from the coordinate detection unit 22 (step S115).
  • the event distribution unit 25 transmits the coordinate data of the stroke start point to the stroke processing unit 32 (step S116).
  • the event distribution unit 25 receives an event notification (step S117).
  • the event distribution unit 25 determines whether or not the received event is a mouse up event (step S119), and if it is a mouse up event, the process proceeds to step S125. Thereby, generation of unnecessary coordinates can be prevented, and the accuracy of coordinates representing the starting point when drawing one stroke can be improved.
  • the event distribution part 25 is until the coordinate detection part 22 detects an up event as a 1st event situation.
  • the detected coordinates of the electronic pen 4 may be invalidated. Thereby, generation
  • step S121 the event distribution unit 25 determines whether or not the received event is a mouse move event (step S121), and if it is a mouse move event, the process proceeds to step S123, where the mouse move event is determined. If it is not an event, the process proceeds to step S125.
  • step S121 the event distribution unit 25 acquires the coordinate data of the stroke passing point from the coordinate detection unit 22 (step S123).
  • step S124 the event distribution unit 25 transmits the coordinate data of the stroke passing point to the stroke processing unit 32 (step S124), and returns to step S117.
  • step S119 if it is a mouse up event (step S119, Yes) or not a mouse move event (step S121, No), the event distribution unit 25 sends a stroke drawing end instruction to the stroke processing unit 32. Transmit (step S125). Next, the event distribution unit 25 ends the event distribution process related to one stroke. Thereby, generation of unnecessary coordinates can be prevented, and the accuracy of coordinates representing the start point and the end point when drawing one stroke can be improved.
  • the electronic blackboard 2 of this embodiment is an electronic blackboard that detects the coordinates of the position indicated by the electronic pen 4 using the electronic pen 4 for indicating the position on the display surface of the display 3.
  • a contact detection unit 24 that detects a second event situation by an operation using the electronic pen 4 when the electronic pen 4 is in contact with the display surface, a first event situation, a second event situation, and coordinates And an event distribution unit 25 for extracting effective coordinates for one stroke by a handwriting operation on the display surface based on the coordinates detected by the detection unit 22. According to this aspect, generation of unnecessary coordinates can be prevented, and the accuracy of coordinates representing the start point and end point when drawing one stroke can be improved.
  • the coordinate detection unit 22 detects a down event as a first event situation
  • the contact detection unit 24 detects a down event as a second event situation
  • a move event as a first event situation
  • the coordinates of the start point detected by the coordinate detection unit 22 are validated. According to this aspect, generation of unnecessary coordinates can be prevented, and the accuracy of coordinates representing the starting point when drawing one stroke can be improved.
  • the event distribution unit 25 of this aspect is detected by the coordinate detection unit 22 when the coordinate detection unit 22 detects a move event as the first event situation and the contact detection unit 24 detects an up event as the second event situation.
  • the coordinate of the end point of the electronic pen 4 is made valid. According to this aspect, generation of unnecessary coordinates can be prevented, and the accuracy of coordinates representing the end point when drawing one stroke can be improved.
  • the event distribution unit 25 is characterized in that the coordinates of the points that have passed from the coordinates of the start point to the coordinates of the end point are extracted as the coordinates of the passage point. According to this aspect, generation of unnecessary coordinates can be prevented, and the accuracy of coordinates representing the start point and end point when drawing one stroke can be improved.
  • the event distribution unit 25 includes the coordinate detection unit 22 when the coordinate detection unit 22 detects a down event as the first event situation and the contact detection unit 24 does not detect the down event as the second event situation.
  • the coordinates detected by are invalidated. According to this aspect, it is possible to prevent generation of unnecessary coordinates by invalidating unnecessary coordinates, and it is possible to improve the accuracy of coordinates representing the start point when drawing one stroke.
  • the event distribution unit 25 includes the coordinate detection unit 22 until the coordinate detection unit 22 detects the up event as the first event situation after the contact detection unit 24 detects the up event as the second event situation.
  • the coordinates of the electronic pen 4 detected by is invalidated. According to this aspect, generation of unnecessary coordinates can be prevented by invalidating unnecessary coordinates, and the accuracy of coordinates representing the end point when drawing one stroke can be improved.
  • the electronic blackboard 2 according to this aspect includes the coordinate detection device according to the first aspect. According to this aspect, generation of unnecessary coordinates can be prevented, and the accuracy of coordinates representing the start point and end point when drawing one stroke can be improved.
  • the coordinate detection method of this aspect is a coordinate detection method for detecting the coordinates of the position designated by the electronic pen 4 using the electronic pen 4 for designating the position on the display surface of the display 3.
  • the first event situation by the operation using the electronic pen 4 is detected, and the coordinates of the electronic pen 4 on the display surface are detected by the coordinate detection unit 22.
  • step S109 based on the first event situation, the second event situation, and the coordinates detected in the coordinate detection step, one stroke by handwriting operation on the display surface
  • the program according to this aspect is characterized by causing a processor to execute the steps of the eighth aspect. According to this aspect, since each step can be executed by the CPU (processor), generation of unnecessary coordinates can be prevented, and coordinates of the start point and end point when drawing one stroke are represented. Accuracy can be improved.
  • Page processing 40 ... file processing unit, 41 ... recovery processing unit, 43 ... file conversion unit, 44 ... file transmission unit, 45 ... address book input unit, 46 ... backup processing unit, 47 ... backup Output unit 48 ... Setting management unit 60 ... Communication control unit 61 ... Remote start processing unit 62 ... Remote participation processing unit 63 ... Remote image transmission unit 64 ... Remote image reception unit 65 ... Remote operation transmission unit 66 ... Remote operation reception unit, 71 ... Remote connection request reception unit, 72 ... Remote connection result transmission unit, 80 ... Data management unit, 81 ... Remote connection processing unit, 82 ... Remote image processing unit, 83 ... Remote operation processing unit, 84 ... Operational synthesis processing unit, 90 ... Server unit, 101 ...

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 電子黒板2は、ディスプレイ3の表示面上の位置を指示するための電子ペン4を用いて、電子ペン4により指示された位置の座標を検知する電子黒板であって、電子ペン4が表示面に接触状態、又は非接触且つ接近状態にあるときに、電子ペン4を用いた操作による第1イベント状況を検知するとともに、表示面上の電子ペン4の座標を検知する座標検知部22と、電子ペン4が表示面に接触状態にあるときに、電子ペン4を用いた操作による第2イベント状況を検知する接触検知部24と、第1イベント状況、第2イベント状況、及び座標検知部22が検知した座標に基づいて、表示面への手書き操作による1つのストロークについての有効な座標を抽出するイベント振分部25と、を備える。

Description

座標検知装置、画像処理装置、及び座標検知方法
 本発明は、表示装置の表示面上の位置を指示するための指示体を用いて、前記指示体により指示された位置の座標を検知する座標検知装置、画像処理装置、及び座標検知方法に関する。
 液晶やプラズマなどのフラットパネルやプロジェクタを用いたディスプレイに、タッチパネルを搭載した、いわゆる「電子情報ボード」製品が市場に出ている。電子情報ボードに搭載されるタッチパネルとしては、光学式のタッチパネルが多く用いられている。光学式タッチパネルは、例えば、光を遮断あるいは反射するペン状の形態の棒や指(以下、スタイラスと呼ぶ)であれば、何を用いてもタッチしたり筆記したりできるという特徴がある。
 このような光学式タッチパネルでは、スタイラスがディスプレイ面に挿入されたか否か、すなわちスタイラスがディスプレイ面に接触したか否かの判定は、スタイラスがディスプレイ面に挿入される過程で、ディスプレイ面近傍に配光された光(以下、プローブ光)を所定量遮るまたは反射することで検知する。すなわち所定の受光素子で検知される光の強度が所定のしきい値に達したか否かで判定される。しきい値に達したと判定されたときに、そのときのタッチ位置の情報を、接続されたパソコンに対してマウスイベントとして発行することで、タッチ位置をパソコンに通知している。
 しかし、光源とディスプレイ面との機械的配置精度、プローブ光の拡がり、スタイラスの像が常に受光素子上に結像する系ではないことによる受光素子上の像の拡がり、などいくつかの理由によって、ディスプレイ面上の全ての場所に渡って、スタイラスがディスプレイ面に物理的に接触する瞬間のディスプレイ面に垂直な方向に対するスタイラス先端の位置と、前記しきい値を一致させることが困難である。あるいは一致させるためには実用的なレベルを越えた高い機械精度が要求される。
 光学式タッチパネルを用いた従来のほとんどの電子情報ボードでは、しきい値に余裕度をとり、スタイラスがディスプレイ面に物理的に接触する少し前の状態に前記しきい値を設定する設計が行われている。その結果、スタイラスがディスプレイ面に物理的に接触する位置よりわずかにディスプレイ面からスタイラスが浮いた状態で、スタイラスがディスプレイ面にタッチしたとタッチパネルは判断する。そして、その位置でのマウスイベントが発行される。
 また、従来の電子情報ボードでは、先端がディスプレイ面に物理的に接触したことを検知する圧力センサ等を設置した専用のスタイラス(以下、専用ペン)を具備したものが多い。専用ペンを用いた場合では、専用ペンが光を遮り、さらにペン先がディスプレイ面に物理的に接触してペン先に設置された圧力センサが所定の圧力を検知したときに、そのときのタッチ座標値がマウスイベントとして発行される。この状態では、ペン先がディスプレイ面に物理的に接触したときのみ座標が検知されることになる。
 特許文献1には、タッチパネル付き表示装置において、表示面上の座標点を検出し、表示面に専用ペンが物理的に接触したことを検出し、座標点を検出してからの経過時間を計測し、専用ペンの表示面への接触を検出したときにはイベント1を発行し、専用ペンの表示面への接触を検出しない状態で、且つ、経過時間が所定の時間Δtを超えている時にはイベント2を発行することで、タッチパネル付き表示装置の電子情報ボードを操作する時に、専用ペンで操作したときには描画モードなどのイベント1になり、専用ペン以外(指など)で操作したときには消去モードなどのイベント2になるので、イベント切替え時のユーザの負担が少なくなり、また、ユーザが現在のモードを意識することなくイベントを切替えることが可能になるという利点を有している。
 このように、光遮断方式では、ペンや指などがディスプレイ前面を走査している光を遮断することで、ペンや指の接触、接触位置を検出して座標点を検知するように構成されている。
 しかしながら、光遮断方式では、ディスプレイ前面の一定の距離を走査する光を遮断したと判定されると接触を検知してしまう。そのため、指やペン先にスイッチ等のない指示体で座標検知を行うと、遮蔽物体がディスプレイ前面に接触する前に検知イベント(マウス・ダウン・イベント)を発行してしまい、そこから実際に遮蔽物体(ペンや指)がディスプレイ前面に接触するまでに、座標位置がズレたり、座標検知が移動した検知イベント(マウス・ムーブ・イベント)を発行してしまう。
 このため、これらのイベントを使って、そのまま、ストロークを描画すると、ペンまたは指がディスプレイ前面に接触する前の位置から描画が開始される。同様に、ディスプレイ前面からペンまたは指が離れた位置より、ディスプレイ前面の走査光の距離から離れた位置までのストロークを描画してしまう。このため、ストロークの開始と終了に不要な線分が描画されてしまうといった問題があった。
 このような問題を解決するため、ペン先にスイッチを付け、スイッチのオン・オフにより、ストロークの開始・終了を判定することで、不要な線分を描画することなく、精度のよいストロークを描画することができる。
 しかし、光遮断を利用する座標検知部と、ペン先に付けたスイッチのオン・オフを利用する接触検知部をそれぞれ、独立したイベント発行装置として組み合わせて構成した場合、ペン先がディスプレイに接触するときに、2重にマウス・ダウン・イベントが発行される。同様に、ペン先がディスプレイから離れるときも、2重にマウス・アップ・イベントが発行される。
 さらに、座標検知部に対応するドライバと、接触検知部のドライバとが独立していることにより、ペン先の接触時にマウス・ダウン・イベントが発行されたときに、接触位置の取得は、座標検知部で取得された値を返してしまうことがあり、2重のマウス・ダウン・イベントでの座標値をストロークの開始点に利用したので、不要な線分を生成してしまうことがあるといった問題があった。
 本発明は、上記に鑑みてなされたもので、その目的としては、座標検知部と接触検知部とを独立した装置として組み合わせた場合でも、不要な座標の生成を防止することが可能な座標検知装置、画像処理装置、及び座標検知方法を提供することにある。
 上記課題を解決するため、請求項1記載の発明は、表示装置の表示面上の位置を指示するための指示体を用いて、前記指示体により指示された位置の座標を検知する座標検知装置であって、前記指示体が前記表示面に接触状態、又は非接触且つ接近状態にあるときに、前記指示体を用いた操作による第1イベント状況を検知するとともに、前記表示面上の前記指示体の座標を検知する座標検知手段と、前記指示体が前記表示面に接触状態にあるときに、前記指示体を用いた操作による第2イベント状況を検知する接触検知手段と、前記第1イベント状況、前記第2イベント状況、及び前記座標検知手段が検知した座標に基づいて、前記表示面への手書き操作による1つのストロークについての有効な座標を抽出する有効座標抽出手段と、を備えることを特徴とする。
 本発明によれば、不要な座標の生成を防止することができ、1つのストロークを描画する際の開始点と終了点を表す座標の精度を向上することができる。
図1は、本実施形態の画像処理システムの全体構成図である。 図2は、電子黒板のハードウェア構成図である。 図3は、電子黒板の機能ブロック図である。 図4は、ファイル処理部の機能ブロック図である。 図5は、サーバ部及びクライアント部の機能ブロック図である。 図6は、ページデータを示す概念図である。 図7は、ストローク配列データを示す概念図である。 図8は、座標配列データを示す概念図である。 図9は、メディアデータを示す概念図である。 図10は、遠隔ライセンス管理テーブルを示す概念図である。 図11は、アドレス帳管理テーブルを示す概念図である。 図12は、バックアップデータを示す概念図である。 図13は、接続先管理テーブルを示す概念図である。 図14は、参加拠点管理テーブルを示す概念図である。 図15は、操作データを示す概念図である。 図16は、各画像レイヤの構成図である。 図17は、各電子黒板の処理を示したシーケンス図である。 図18は、各電子黒板の処理を示したシーケンス図である。 図19は、イベント振分部によるイベント振分処理の処理シーケンス図である。 図20は、イベント振分部によるイベント振分処理を示すフローチャートである。
 以下、図面を参照して、本発明の一実施形態について説明する。
<システムの概要>
 図1は、本実施形態の画像処理システムの全体構成図である。なお、図1では、説明を簡略化するために、2台の電子黒板2a、2b及びこれに付随する電子ペン4a、4b等を示しているだけであって、3台以上の電子黒板や電子ペン等を利用してもよい。
 図1に示されているように、画像処理システム1は、複数の電子黒板2a、2b、複数の電子ペン4a、4b、USBメモリ5a、5b、ノートPC(Personal Computer)6a、6b、テレビ(ビデオ)会議端末7a、7b、及びPC8を有する。また、電子黒板2a、2b、及びPC8は、通信ネットワーク9を介して通信可能に接続されている。更に、複数の電子黒板2a、2bには、それぞれディスプレイ3a、3bが設けられている。
 また、電子黒板2aには、電子ペン4aによって生じたイベント(ディスプレイ3aに電子ペン4aのペン先、又は、電子ペン4aのペン尻のタッチ)により描画された画像を、ディスプレイ3aに表示させることができる。なお、電子ペン4aだけでなく、ユーザの手Ha等によって生じたイベント(拡大、縮小、ページめくり等のジェスチャ)に基づいて、ディスプレイ3a上に表示されている画像を変更させることもできる。
 また、電子黒板2aには、USBメモリ5aが接続可能であり、電子黒板2aは、USBメモリ5aからPDF等の電子ファイルを読み出したり、USBメモリ5aに電子ファイルを記録したりすることができる。また、電子黒板2aには、DisplayPort、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)及びVGA(Video Graphics Array)等の規格による通信が可能なケーブル10a1を介して、ノートPC6aが接続されている。そして、電子黒板2aは、ディスプレイ3aに対する接触によってイベントを発生させ、このイベントを示すイベント情報を、マウスやキーボード等の入力装置からのイベントと同様に、ノートPC6aに送信する。同じく、電子黒板2aには、上記規格による通信が可能なケーブル10a2を介して、テレビ(ビデオ)会議端末7aが接続されている。なお、ノートPC6a、及びテレビ会議端末7aは、Bluetooth(登録商標)等の各種無線通信プロトコルに準拠した無線通信により、電子黒板2aと通信してもよい。
 一方、電子黒板2bが設置されている他の拠点では、上記と同様に、ディスプレイ3bを備えた電子黒板2b、電子ペン4b、USBメモリ5b、ノートPC6b、テレビ会議端末7b、ケーブル10b1、ケーブル10b2が利用される。更に、ユーザの手Hb等によって生じたイベントに基づいて、ディスプレイ3b上に表示されている画像を変更させることもできる。
 これにより、一の拠点で電子黒板2aのディスプレイ3a上に描画された画像は、他の拠点で電子黒板2bのディスプレイ3b上にも表示され、逆に他の拠点で電子黒板2bのディスプレイ3b上に描画された画像は、一の拠点で電子黒板2aのディスプレイ3a上に表示される。このように、画像処理システム1では、遠隔地において同じ画像を共有する遠隔共有処理を行うことができるため、遠隔地での会議等に用いると、非常に便利である。
 なお、以下では、複数の電子黒板のうち任意の電子黒板を示す場合には「電子黒板2」と示す。複数のディスプレイのうち任意のディスプレイを示す場合には「ディスプレイ3」と示す。複数の電子ペンのうち任意の電子ペンを示す場合には「電子ペン4」と示す。複数のUSBメモリのうち任意のUSBメモリを示す場合には「USBメモリ5」と示す。複数のノートPCのうち任意のノートPCを示す場合には「ノートPC6」と示す。複数のテレビ会議端末のうち任意のテレビ会議端末を示す場合には「テレビ会議端末7」と示す。また、複数のユーザの手のうち任意の手を示す場合には「手H」と示す。複数のケーブルのうち任意のケーブルを示す場合には「ケーブル10」と示す。
 また、本実施形態では、画像処理装置の一例として、電子黒板2を説明するが、これに限るものではなく、画像処理装置の他の例として、電子看板(デジタルサイネージ)、スポーツや天気予報等で利用されるテレストレータ、又は、遠隔画像(映像)診断装置等であってもよい。また、情報処理端末の一例として、ノートPCを説明するが、これに限るものではなく、情報処理端末の他の例として、デスクトップ型PCやタブレット型PC、PDA、デジタルビデオカメラ、デジタルカメラ、ゲーム機等の画像フレームを供給可能な端末であってもよい。更に、通信ネットワーク9には、インターネット、LAN(Local Area Network)、携帯電話通信網等が含まれる。また、本実施形態では、記録媒体の一例として、USBメモリを説明するが、これに限るものではなく、記録媒体の他の例として、SDカード等の各種記録メディアであってもよい。
<電子黒板のハードウェア構成>
 続いて、図2を用いて、本実施形態の電子黒板のハードウェア構成を説明する。なお、図2は、電子黒板のハードウェア構成図である。
 図2に示されているように、電子黒板2は、電子黒板2全体の動作を制御するCPU101、IPL等のCPU101の駆動に用いられるプログラムを記憶したROM102、CPU101のワークエリアとして使用されるRAM103、電子黒板2用のプログラム等の各種データを記憶するSSD104、通信ネットワーク9との通信を制御するネットワークコントローラ105、及び、USBメモリ5との通信を制御する外部記憶コントローラ106を備えている。
 また、電子黒板2は、ノートPC6のディスプレイに表示された映像情報を静止画または動画として取得するキャプチャデバイス111、グラフィクスを専門に扱うGPU(Graphics Processing Unit)112、及び、GPU112からの出力画像をディスプレイ3やテレビ会議端末7へ出力するために画面表示の制御及び管理を行うディスプレイコントローラ113を備えている。
 更に、電子黒板2は、接触センサ115の処理を制御するセンサコントローラ114、ディスプレイ3上に電子ペン4やユーザの手H等が接触したことを検知する接触センサ115を備えている。この接触センサ115は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ3の上側両端部に設置された2つ受発光装置が、ディスプレイ3に平行して複数の赤外線を放射し、ディスプレイ3の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。接触センサ115は、指示体によって遮断された2つの受発光装置が放射した赤外線のID(Identification)をセンサコントローラ114に出力し、センサコントローラ114が、指示体の接触位置である座標位置を特定する。なお、以下に示す全ての各IDは、識別情報の一例である。
 また、接触センサ115としては、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2の抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなどの種々の検出手段を用いてもよい。
 また、電子黒板2は、電子ペンコントローラ116を備えている。この電子ペンコントローラ116は、電子ペン4と通信することで、ディスプレイ3へのペン先のタッチやペン尻のタッチの有無を判断する。なお、電子ペンコントローラ116が、電子ペン4のペン先及びペン尻だけでなく、電子ペン4のユーザが握る部分や、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。
 更に、電子黒板2は、CPU101、ROM102、RAM103、SSD104、ネットワークコントローラ105、外部記憶コントローラ106、キャプチャデバイス111、GPU112、センサコントローラ114、及び電子ペンコントローラ116を、図2に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン120を備えている。
 なお、電子黒板2用のプログラムは、CD-ROM等のコンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。
<電子黒板の機能構成>
 続いて、図3乃至図16を用いて、電子黒板の機能構成について説明する。なお、先ずは、図3を用いて、電子黒板2の全体的な機能構成について説明する。図3は、電子黒板の機能ブロック図である。
 電子黒板2は、図2に示されているハードウェア構成及びプログラムによって、図3に示されている各機能構成を有する。電子黒板2は、最初に遠隔共有処理を開始する「主催装置」となり得ると共に、既に開始されている遠隔共有処理に後から参加する「参加装置」にもなり得る。
 また、電子黒板2は、大きく分けて、クライアント部20及びサーバ部90の両方によって構成されている。クライアント部20及びサーバ部90は、電子黒板2の1台の筐体内で実現される機能である。そして、電子黒板2が主催装置となる場合には、この電子黒板2では、クライアント部20とサーバ部90が実現される。また、電子黒板2が参加装置となる場合には、この電子黒板2では、クライアント部20は実現されるが、サーバ部90は実現されない。即ち、図1において、電子黒板2aが主催装置で、電子黒板2bが参加装置となる場合、電子黒板2aのクライアント部20は、同じ電子黒板2a内に実現されたサーバ部90を介して、他の電子黒板2bのクライアント部20と通信を行う。一方、電子黒板2bのクライアント部20は、他の電子黒板2a内に実現されたサーバ部90を介して、他の電子黒板2aのクライアント部20と通信を行う。
〔クライアント部20の機能構成〕
 続いて、主に図3乃至図5を用いて、クライアント部20の機能構成について説明する。クライアント部20は、映像取得部21、座標検知部22、自動調整部23、接触検知部24、イベント振分部25(有効座標抽出手段)、操作処理部26、ジェスチャ処理部27、映像重畳部28、画像処理部30、及び通信制御部60を有する。
 このうち、映像取得部21は、ケーブル10に接続された映像出力機器の出力映像を取得する。映像取得部21は、映像出力機器から画像信号を受信すると、この画像信号を解析して、この画像信号によって形成される映像出力機器の表示画像である画像フレームの解像度や、この画像フレームの更新頻度などの画像情報を導出し、画像取得部31に出力する。
 座標検知部22は、ディスプレイ3上でユーザによって生じたイベント(ディスプレイ3上にユーザの手Hがタッチされた動作等)の座標位置を検出する。また、座標検知部22は、タッチされた面積も検出する。さらに、座標検知部22は、電子ペン4がディスプレイ3の表示面に接触状態、又は非接触且つ接近状態にあるときに、電子ペン4を用いた操作による第1イベント状況を検知するとともに、表示面上の電子ペン4の座標を検知する。なお、座標検知部22により検知される第1イベント状況としては、マウス・ダウン・イベント、マウス・ムーブ・イベント、マウス・アップ・イベントなどがある。
 自動調整部23は、電子黒板2の起動時に起動され、接触センサ115が座標検知部22に適切な値を出力できるように、接触センサ115の光センサ方式におけるセンサーカメラの画像処理のパラメータを調整する。
 接触検知部24は、ユーザによって生じたイベント(ディスプレイ3上に電子ペン4のペン先又は電子ペン3のペン尻が押下(タッチ)された動作等)を検出する。接触検知部24は、電子ペン4が表示面に接触状態にあるときに、電子ペン4を用いた操作による第2イベント状況を検知する。接触検知部24により検知される第2イベント状況としては、マウス・ダウン・イベント、マウス・ムーブ・イベント、マウス・アップ・イベントなどがある。
 イベント振分部25は、座標検知部22によって検知されたイベントの座標位置と接触検知部24によって検出された検出結果を、ストローク描画、UI操作、及びジェスチャ操作の各イベントに振り分ける。
 ここで、「ストローク描画」は、ディスプレイ3上に図16に示されている後述のストローク画像(B)が表示されている場合に、ユーザがディスプレイ3上で電子ペン4を押下し、この押下した状態で電子ペン4を移動させ、最終的にディスプレイ3上から電子ペン4を離すまでのイベントである。このストローク描画により、例えば、アルファベット「S」や「T」等がディスプレイ3上に描画される。なお、この「ストローク描画」には、画像を描画するだけでなく、既に描画された画像を削除したり、描画された画像を編集したりするイベントも含まれる。
 「UI操作」は、ディスプレイ3上に図16に示されている後述のUI画像(A)が表示されている場合に、ユーザが電子ペン4又は手Hによって所定の位置を押下したイベントである。このUI操作により、例えば、電子ペン4により描画される線の色や幅等が設定される。
 「ジェスチャ操作」は、ディスプレイ3上に図16に示されている後述のストローク画像(B)が表示されている場合に、ユーザが手Hでディスプレイ3上をタッチして移動させるイベントである。このジェスチャ操作により、例えば、ユーザがディスプレイ3に手Hをタッチさせた状態で手Hを移動させることで、画像の拡大(若しくは縮小)、表示領域の変更、又は、ページ切り換え等を行うことができる。
 イベント振分部25は、第1イベント状況、第2イベント状況、及び座標検知部22が検知した座標に基づいて、表示面への手書き操作による1つのストロークについての有効な座標を抽出する。
 イベント振分部25は、座標検知部22が第1イベント状況としてダウンイベントを検知し、接触検知部24が第2イベント状況としてダウンイベントを検知し、且つ第1イベント状況としてムーブイベントを検知したときに、座標検知部22により検知された開始点の座標を有効とする。
 イベント振分部25は、座標検知部22が第1イベント状況としてムーブイベントを検知し、接触検知部24が第2イベント状況としてアップイベントを検知したときに、座標検知部22により検知された電子ペン4の終了点の座標を有効とする。
 イベント振分部25は、開始点の座標から、終了点の座標までに通過した点の座標を通過点の座標として抽出する。
 イベント振分部25は、座標検知部22が第1イベント状況としてダウンイベントを検知し、接触検知部24が第2イベント状況としてダウンイベントを検知していないときに、座標検知部22が検知した座標を無効とする。
 イベント振分部25は、接触検知部24が第2イベント状況としてアップイベントを検知した後に、座標検知部22が第1イベント状況としてアップイベントを検知するまでの間、座標検知部22が検知した電子ペン4の座標を無効とする。
 操作処理部26は、イベント振分部25によってUI操作と判断されたものから、イベントが発生されたUIの要素に従って、各種操作を実行する。このUIの要素としては、例えば、ボタン、リスト、チェックボックス、テキストボックスが挙げられる。
 ジェスチャ処理部27は、イベント振分部25によってジェスチャ操作と判断されたものに対応した操作を実行する。
 映像重畳部28は、後述の表示重畳部36で重畳された画像を映像として映像出力機器(ディスプレイ3等)に対して表示する。また、映像重畳部28は、映像出力機器(ノートPC6等)からの映像に対して、他の映像出力機器(テレビ会議端末7等)から送られて来た映像をピクチャ・イン・ピクチャする。更に、映像重畳部28は、ピクチャ・イン・ピクチャされてディスプレイ3の一部に表示された映像を、ディスプレイ3の全体に表示させるための切り替えを行う。
 画像処理部30は、図16に示されているような各画像レイヤの重畳処理等を行う。この画像処理部30は、画像取得部31、ストローク処理部32、UI画像生成部33、背景生成部34、レイアウト管理部35、表示重畳部36、ページ処理部37、ファイル処理部40、ページデータ記憶部300、及び遠隔ライセンス管理テーブル310を有している。
 このうち、画像取得部31は、映像取得部21で取得された映像から、各フレームを画像として取得する。画像取得部31は、この画像のデータを、ページ処理部37に出力する。この画像は、図16に示されている映像出力機器(ノートPC6等)からの出力画像(C)に相当する。
 ストローク処理部32は、イベント振分部25によって割り振られたストローク描画に係るイベントについて座標データに基づいて、画像を描画したり、描画された画像を削除したり、描画された画像を編集する。このストローク描画による画像は、図16に示されているストローク画像(B)に相当する。また、このストローク描画に基づいた画像の描画、削除、編集の各結果は、後述の操作データとして、操作データ記憶部840に記憶される。
 UI画像生成部33は、電子黒板2に予め設定されているUI(ユーザインターフェース)画像を生成する。このUI画像は、図16に示されているUI画像(A)に相当する。
 背景生成部34は、ページ処理部37がページデータ記憶部300から読み出したページデータのうちのメディアデータを、ページ処理部37から受信する。背景生成部34は、この受信したメディアデータを表示重畳部36に出力する。また、このメディアデータによる画像は、図16に示されている背景画像(D)に相当する。背景画像(D)のパターンは、無地、グリッド表示等である。
 レイアウト管理部35は、表示重畳部36に対して、画像取得部31、ストローク処理部32、及びUI画像生成部33(又は背景生成部34)から出力された各画像のレイアウトを示すレイアウト情報を管理している。これにより、レイアウト管理部35は、表示重畳部36に対して、出力画像(C)及びストローク画像(B)を、UI画像(A)及び背景画像(D)中のどの位置に表示させるか又は非表示にさせるかを指示することができる。
 表示重畳部36は、レイアウト管理部35から出力されたレイアウト情報に基づき、画像取得部31、ストローク処理部32、及びUI画像生成部33(背景生成部34)から出力された各画像のレイアウトを行う。
 ページ処理部37は、ストローク画像(B)のデータと出力画像(C)のデータを、1つのページデータにまとめてページデータ記憶部300に記憶する。ストローク画像(B)のデータは、図6に示されているストローク配列データIDで示されるストローク配列データ(各ストロークデータ)として、ページデータの一部を成す。出力画像(C)のデータは、図6に示されているメディアデータIDで示されているメディアデータとして、ページデータの一部を成す。そして、このメディアデータは、ページデータ記憶部300から読み出されると、背景画像(D)のデータとして取り扱われる。
 また、ページ処理部37は、一旦記憶されたページデータのうちのメディアデータを、背景生成部34を介して表示重畳部36に送信することで、映像重畳部28が背景画像(D)をディスプレイ3に再表示させることができる。また、ページ処理部37は、ページデータのうちのストローク配列データ(各ストロークデータ)を、ストローク処理部32に戻すことで、ストロークの再編集ができる状態にすることができる。更に、ページ処理部37は、ページデータを削除したり、複製したりすることもできる。
 即ち、ページ処理部37がページデータ記憶部300にページデータを記憶する時点でディスプレイ3上に表示されている出力画像(C)のデータは、一旦、ページデータ記憶部300に記憶され、その後にページデータ記憶部300から読み出される際には、背景画像(D)を示すメディアデータとして読みされる。そして、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、ストローク画像(B)を示すストローク配列データを、ストローク処理部32に出力する。また、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、背景画像(D)を示すメディアデータを、背景生成部34に出力する。
 表示重畳部36は、画像取得部31からの出力画像(C)、ストローク処理部32からのストローク画像(B)、UI画像生成部33からのUI画像(A)、及び、背景生成部34からの背景画像(D)を、レイアウト管理部35によって指定されたレイアウトに従って重畳する。これにより、図16に示されているように、各画像が重なってもユーザが見える順に、UI画像(A)、ストローク画像(B)、出力画像(C)、及び背景画像(D)の各レイヤの構成となっている。
 また、表示重畳部36は、図16に示されている画像(C)と画像(D)を切り替えて、画像(A)及び画像(B)に対して排他的に重畳することも可能である。例えば、当初、画像(A)、画像(B)及び画像(C)が表示されている状態で、電子黒板2と映像出力機器(ノートPC6等)との間のケーブル10が抜かれた場合には、レイアウト管理部35の指定によって、画像(C)を重畳対象から外し、画像(D)を表示させることができる。この場合に、また、表示重畳部36は、表示の拡大、表示の縮小、表示領域の移動処理も行う。
 ページデータ記憶部300は、図6に示されているようなページデータを記憶する。図6は、ページデータを示す概念図である。ページデータは、ディスプレイ3に表示される1ページ分のデータ(ストローク配列データ(各ストロークデータ)及びメディアデータ)である。なお、ページデータに含まれるパラメータの種類が多いため、ここでは、図6乃至9に分けて、ページデータの内容を説明する。
 ページデータは、図6に示されているように、任意の1ページを識別するためのページデータID、このページの表示を開始した時刻を示す開示時刻、ストロークやジェスチャ等によるページの内容の書き換えが行われなくなった時刻を示す終了時刻、電子ペン4やユーザの手Hによるストロークによって生じたストローク配列データを識別するためのストローク配列データID、及びメディアデータを識別するためのメディアデータIDが関連付けて記憶されている。ストローク配列データは、後述の図16に示されているストローク画像(B)がディスプレイ3上に表示されるためのデータである。メディアデータは、後述の図16に示されている背景画像(D)がディスプレイ3上に表示されるためのデータである。
 このようなページデータにより、例えば、ユーザが電子ペン4によってアルファベット「S」を描く場合は一筆書きとなるため、ストローク配列データIDが1つで一文字のアルファベット[S]が示される。ところが、ユーザが電子ペン4によってアルファベット「T」を描く場合、二筆書きとなるため、ストローク配列データIDが2つで一文字のアルファベット「T」が示されることになる。
 また、ストローク配列データは、図7に示されているように詳細な情報を示している。図7は、ストローク配列データを示す概念図である。図7に示されているように、1つのストローク配列データは、複数のストロークデータによって表される。そして、1つのストロークデータは、このストロークデータを識別するためのストロークデータID、1つのストロークの書き始めの時刻を示す開始時刻、1つのストロークの書き終わりの時刻を示す終了時刻、ストロークの色、ストロークの幅、及び、ストロークの通過点の配列を識別するための座標配列データIDを示している。
 更に、この座標配列データは、図8に示されているように詳細な情報を示している。図8は、座標配列データを示す概念図である。図8に示されているように、座標配列データは、ディスプレイ3上の1点(X座標値、Y座標値)、この1点を通過したときのストロークの開示時刻からの差分の時刻(ms)、及び、この1点における電子ペン4の筆圧の各情報を示している。即ち、図8に示されている1点の集まりが、図7に示されている1つの座標配列データで示されている。例えば、ユーザが電子ペン4によってアルファベット「S」を描く場合、一筆書きとなるが、「S」を描き終えるまでに、複数の通過点を通過するため、座標配列データは、これら複数の通過点の情報を示している。
 また、図6に示されているページデータのうちのメディアデータは、図9に示されているように詳細な情報を示している。図9は、メディアデータを示す概念図である。図9に示されているように、メディアデータは、図6に示されているページデータにおけるメディアデータID、メディアデータのデータ種類、ページ処理部37からページデータ記憶部300にページデータが記憶された記録時刻、ページデータによってディスプレイ3上に表示される画像の位置(X座標値、Y座標値)及び画像のサイズ(幅、高さ)、並びにメディアデータの内容を示すデータが関連付けられて示されている。このうち、ページデータによってディスプレイ3上に表示される画像の位置は、ディスプレイ3の左上端の座標を(X座標値,Y座標値)=(0,0)とした場合に、ページデータによって表示される画像の左上端の位置を示している。
 また、図3に戻り、遠隔ライセンス管理テーブル310は、遠隔共有処理を実行するために必要なライセンスデータを管理する。この遠隔ライセンス管理テーブル310では、図10に示されているように、電子黒板3のプロダクトID、認証に用いられるライセンスID、及びライセンスの有効期限が関連付けて管理されている。
(ファイル処理部40の機能構成)
 続いて、図4を用いて、図3に示されているファイル処理部40の機能構成を説明する。なお、図4は、ファイル処理部の機能ブロック図である。
 ファイル処理部40は、リカバリ処理部41、ファイル入力部42a、ファイル出力部42b、ファイル変換部43、ファイル送信部44、アドレス帳入力部45、バックアップ処理部46、バックアップ出力部47、設定管理部48、設定ファイル入力部49a、設定ファイル出力部49b、及びアドレス帳入力部50を有している。更に、ファイル処理部40は、アドレス帳管理テーブル410、バックアップデータ記憶部420、設定ファイル記憶部430、及び接続先管理テーブル440を有している。
 このうち、リカバリ処理部41は、電子黒板2が異常終了した後に、異常終了を検知し、未保存のページデータを復旧する。例えば、正常終了の場合は、ページデータがPDFファイルとしてファイル処理部40を介してUSBメモリ5に記録されるが、電源がダウンした等の異常終了の場合は、ページデータがページデータ記憶部300に記録されたままになっている。そのため、再び、電源オンになった際に、リカバリ処理部41は、ページデータ記憶部300からページデータを読み出すことで復旧させる。
 ファイル入力部42aは、USBメモリ5から、PDFファイルを読み込み、各ページをページデータとしてページデータ記憶部300に記憶する。
 ファイル変換部43は、ページデータ記憶部300に記憶されているページデータを、PDF形式のファイルに変換する。
 ファイル出力部42bは、ファイル変換部43によって出力されたPDFファイルをUSBメモリ5に記録する。
 ファイル送信部44は、ファイル変換部43によって生成されたPDFファイルを、電子メールに添付して送信する。このファイルの送信先は、表示重畳部36によってディスプレイ3上にアドレス帳管理テーブル410の内容を表示し、ファイル送信部44がユーザによるタッチパネル等の入力装置の操作により、宛先の選択を受け付けることによって決定される。アドレス帳管理テーブル410には、図11に示されているように、宛先の名前及び宛先の電子メールのメールアドレスが関連付けて管理されている。また、ファイル送信部44が、ユーザによるタッチパネル等の入力装置の操作により、宛先としてのメールアドレスの入力を受け付けることもできる。
 アドレス帳入力部45は、USBメモリ5から電子メールアドレスの一覧ファイルを読み込み、アドレス帳管理テーブル410に管理する。
 バックアップ処理部46は、ファイル出力部42bによって出力されたファイルや、ファイル送信部44によって送信されたファイルを、バックアップデータ記憶部420に記憶することでバックアップする。なお、ユーザがバックアップ設定しない場合は、バックアップの処理は行われない。バックアップデータは、図12に示されているように、PDF形式で記憶される。
 バックアップ出力部47は、バックアップされたファイルをUSBメモリ5に記憶する。この記憶の際には、ユーザによるタッチパネル等の入力装置の操作により、セキュリティーのためにパスワードが入力される。
 設定管理部48は、電子黒板2の各種設定情報を設定ファイル記憶部430に記憶したり読み出したりして管理する。この各種設定情報としては、例えば、ネットワーク設定、日付や時刻の設定、地域や言語の設定、メールサーバの設定、アドレス帳の設定、接続先リストの設定、バックアップに関する設定が挙げられる。なお、ネットワーク設定は、例えば、電子黒板2のIPアドレスの設定、ネットマスクの設定、デフォルトゲートウェイの設定、又はDNS(Domain Name System)の設定等である。
 設定ファイル出力部49bは、電子黒板2の各種設定情報を、設定ファイルとしてUSBメモリ5に記録させる。なお、設定ファイルはセキュリティーによって、ユーザは中身を見ることができない。
 設定ファイル入力部49aは、USBメモリ5に記憶されている設定ファイルを読み込み、各種設定情報を電子黒板2の各種設定に反映させる。
 アドレス帳入力部50は、USBメモリ5から遠隔共有処理の接続先IPアドレスの一覧ファイルを読み込み、接続先管理テーブル440に管理する。なお、図13に示されているように、接続先管理テーブル440は、電子黒板2が遠隔共有処理に参加しようとする参加装置である場合、この参加装置のユーザが主催装置としての役割を果たす電子黒板2のIPアドレスを入力する手間を削減するために、予め管理しておくためのテーブルである。この接続先管理テーブル440では、参加されることが可能な主催装置としての電子黒板2が設置されている拠点の名称、及び主催装置としての電子黒板2のIPアドレスが関連付けて管理されている。
 なお、接続先管理テーブル440は、無くてもよい。但し、この場合には、参加装置のユーザは、主催装置との間で遠隔共有処理を開始するために、タッチパネル等の入力装置によって、主催装置のIPアドレスを入力する必要がある。そのため、参加装置のユーザは、電話や電子メール等によって、主催装置のユーザから、主催装置のIPアドレスを知得する。
(通信制御部60の機能構成)
 次に、図5を用いて、通信制御部60の機能構成について説明する。図5は、サーバ部及びクライアント部の機能ブロック図である。通信制御部60は、通信ネットワーク9を介して、他の電子黒板2と行う通信や、サーバ部90における後述の通信制御部70と行う通信を制御する。そのため、通信制御部60は、遠隔開始処理部61、遠隔参加処理部62、遠隔画像送信部63、遠隔画像受信部64、遠隔操作送信部65、遠隔操作受信部66、及び参加拠点管理テーブル610を有している。
 このうち、遠隔開始処理部61は、同じ電子黒板2のサーバ部90に対して、新たに遠隔共有処理を開始する要求を行い、サーバ部90から要求の結果を受信する。この場合、遠隔開始処理部61は、遠隔ライセンス管理テーブル310を参照し、ライセンス情報(プロダクトID、ライセンスID、及び有効期限)が管理されている場合には、遠隔共有処理を開始する要求を行うことができる。但し、ライセンス情報が管理されていない場合には遠隔共有処理を開始する要求を行うことができない。
 参加拠点管理テーブル610は、電子黒板2が主催装置である場合、現在、遠隔共有処理に参加している参加装置としての電子黒板2を管理するテーブルである。この参加拠点管理テーブル610では、図14に示されているように、参加中の電子黒板2が設置されている拠点の名称及び当該電子黒板2のIPアドレスが関連付けて管理されている。
 遠隔参加処理部62は、通信ネットワーク9を介して、既に遠隔共有処理を開始している主催装置としての電子黒板2のサーバ部90における遠隔接続要求受信部71に対して、遠隔共有処理への参加要求を行う。この場合も、遠隔参加処理部62は、遠隔ライセンス管理テーブル310を参照する。また、遠隔参加処理部62が、既に開始されている遠隔共有処理に参加する場合には、接続先管理テーブル440を参照して、参加先の電子黒板2のIPアドレスを取得する。なお、遠隔参加処理部62によって接続先管理テーブル440が参照されず、ユーザによるタッチパネル等の入力装置の操作により参加先の電子黒板2のIPアドレスが入力されてもよい。
 遠隔画像送信部63は、映像取得部21から画像取得部31を介して送られて来た出力画像(C)を、サーバ部90に送信する。
 遠隔画像受信部64は、サーバ部90から、他の電子黒板2に接続された映像出力機器からの画像データを受信し、表示重畳部36に出力することで、遠隔共有処理を可能にする。
 遠隔操作送信部65は、遠隔共有処理に必要な各種操作データをサーバ部90に送信する。この各種操作データとしては、例えば、ストロークの追加、ストロークの削除、ストロークの編集(拡大、縮小、移動)、ページデータの記憶、ページデータの作成、ページデータの複製、ページデータの削除、表示されているページの切り替え等に関するデータが挙げられる。また、遠隔操作受信部66は、サーバ部90から、他の電子黒板2で入力された操作データを受信し、画像処理部30に出力することで、遠隔共有処理を行う。
〔サーバ部90の機能構成〕
 続いて、図5を用いて、サーバ部90の機能構成について説明する。サーバ部90は、各電子黒板2に設けられており、いずれの電子黒板2であっても、サーバ部としての役割を果たすことができる。そのため、サーバ部90は、通信制御部70、及びデータ管理部80を有している。
(通信制御部70の機能構成)
 次に、図5を用いて、通信制御部70の機能構成について説明する。
 通信制御部70は、同じ電子黒板2内のクライアント部20における通信制御部60、及び通信ネットワーク9を介して他の電子黒板2内のクライアント部20における通信制御部60との通信を制御する。データ管理部80は、操作データや画像データ等を管理する。
 更に詳細に説明すると、通信制御部70は、遠隔接続要求受信部71、遠隔接続結果送信部72、遠隔画像受信部73、遠隔画像送信部74、遠隔操作受信部75、及び遠隔操作送信部75を有している。
 このうち、遠隔接続要求受信部71は、遠隔開始処理部61からの遠隔共有処理の開始要求を受信したり、遠隔参加処理部62からの遠隔共有処理に対する参加要求を受信したりできる。遠隔接続結果送信部72は、遠隔開始処理部61へ遠隔共有処理の開始要求の結果を送信したり、遠隔参加処理部62へ遠隔共有処理に対する参加要求の結果を送信したりできる。
 遠隔画像受信部73は、遠隔画像送信部63からの画像データ(出力画像(C)のデータ)を受信し、後述の遠隔画像処理部82に送信する。遠隔画像送信部74は、遠隔画像処理部82から画像データを受信し、遠隔画像受信部64に対して、この画像データを送信する。
 遠隔操作受信部75は、遠隔操作送信部65からの操作データ(ストローク画像(B)等のデータ)を受信し、後述の遠隔操作処理部83に送信する。遠隔操作送信部76は、遠隔操作処理部83から操作データを受信し、遠隔操作受信部66に対して、この操作データを送信する。
(データ管理部80の機能構成)
 次に、図5を用いて、データ管理部80の機能構成について説明する。
 データ管理部80は、遠隔接続処理部81、遠隔画像処理部82、遠隔操作処理部83、操作合成処理部84、及びページ処理部85を有している。更に、データ管理部80は、パスコード管理部810、参加拠点管理テーブル820、画像データ記憶部830、操作データ記憶部840、及びページデータ記憶部850を有している。
 このうち、遠隔接続処理部81は、遠隔共有処理の開始、及び遠隔共有処理の終了を行う。また、遠隔接続処理部81は、遠隔接続要求受信部71が、遠隔開始処理部61から遠隔共有処理の開始要求と共に受信したライセンス情報、又は、遠隔参加処理部62から遠隔共有処理の参加要求と共に受信したライセンス情報に基づいて、ライセンスの有無やライセンスの期間内であるかを確認する。更に、遠隔接続処理部81は、クライアント部としての他の電子黒板2からの参加要求が予め定められた参加可能数を超えていないかを確認する。
 更に、遠隔接続処理部81は、他の電子黒板2から遠隔共有処理に対する参加要求があった際に送られて来たパスコードが、パスコード管理部810で管理されているパスコードと同じであるか否かを判断し、同じである場合には、遠隔共有処理の参加を許可する。なお、このパスコードは、新たに遠隔共有処理を開始する際に、遠隔接続処理部81によって発行され、遠隔共有処理に参加しようとする参加装置としての電子黒板2のユーザが、主催装置としての電子黒板2のユーザから、電話や電子メール等により伝えられる。これにより、遠隔共有処理に参加しようとする参加装置のユーザが、タッチパネル等の入力装置によって参加装置にパスコードを入力して参加要求することで、参加が許可されることになる。なお、セキュリティーよりもユーザの使い勝手を優先して、ライセンス情報の確認だけで、パスコードの確認を省略してもよい。
 また、電子黒板2が主催装置の場合、遠隔接続処理部81は、参加装置の遠隔参加処理部62から通信ネットワーク9を介して送られて来た参加要求に含まれる参加拠点情報を、サーバ部90の参加拠点管理テーブル820に記憶する。そして、遠隔接続処理部81は、参加拠点管理テーブル820に記憶されている遠隔拠点情報を読み出し、遠隔接続結果送信部72に送信する。遠隔接続結果送信部72は、同じ主催装置のクライアント部20における遠隔開始処理部61に遠隔拠点情報を送信する。遠隔開始処理部61は、参加拠点管理テーブル610に、遠隔拠点情報を記憶する。これにより、主催装置では、クライアント部20及びサーバ部90の両方で、遠隔拠点情報を管理することになる。
 遠隔画像処理部82は、遠隔共有処理中の各電子黒板2のクライアント部20(主催装置である自己の電子黒板のクライアント部を含む)に接続された映像出力機器(ノートPC6等)からの画像データ(出力画像(C))を受信して画像データ記憶部830に記憶すると共に、主催装置である自己の電子黒板2のサーバ部90に届いた時間順で遠隔共有処理すべき画像データの表示順を判定する。また、遠隔画像処理部82は、参加拠点管理テーブル820を参照し、遠隔共有処理に参加中の全ての電子黒板2のクライアント部20(主催装置である自己の電子黒板のクライアント部を含む)に、通信制御部70(遠隔画像送信部74)を介して、上記判定した順番で画像データを送信する。
 遠隔操作処理部83は、遠隔共有処理中の各電子黒板2のクライアント部(主催装置である自己の電子黒板のクライアント部を含む)で描画されたストローク画像等の各種操作データ(ストローク画像(B)等)を受信し、主催装置である自己の電子黒板2のサーバ部90に届いた時間順で遠隔共有処理すべき画像の表示順を判定する。なお、各種操作データは、上述の各種操作データと同じである。また、遠隔操作処理部83は、参加拠点管理テーブル820を参照し、遠隔共有処理中の全ての電子黒板2のクライアント部20(主催装置である自己の電子黒板のクライアント部を含む)に操作データを送信する。
 操作合成処理部84は、遠隔操作処理部83から出力された各電子黒板2の操作データを合成し、この合成結果としての操作データを、操作データ記憶部840に記憶するとともに遠隔操作処理部83に戻す。この操作データは、遠隔操作送信部76から、主催装置である電子黒板のクライアント部、及び参加装置である電子黒板のクライアント部のそれぞれに送信されることで、各電子黒板2で同じ操作データに係る画像が表示される。
 そのために、操作データは、図15に示されているように、SEQ(Sequence)、操作データの操作名、操作データの送信元である電子黒板2のIPアドレス及びクライアント部(サーバ部)のPort No.、操作データの送信先である電子黒板2のIPアドレス及びクライアント部(サーバ部)のPort No.、操作データの操作種類、操作データの操作対象、並びに操作データの内容を示すデータが関連付けられて示されている。例えば、SEQ1では、主催装置である電子黒板(IPアドレス:192.0.0.1)のクライアント部(Port No.:50001)でストロークが描画されると、同じ主催装置である電子黒板(IPアドレス:192.0.0.1)のサーバ部(Port No.:50000)に操作データが送られたことが示されている。この場合の操作種類は「STROKE」、操作対象はページデータID「p005」、及び、操作データの内容を示すデータはストロークを示すデータである。また、SEQ2では、主催装置である電子黒板(IPアドレス:192.0.0.1)のサーバ部(Port No.:50000)から、参加装置である他の電子黒板(IPアドレス:192.0.0.2)のクライアント部(Port No.:50001)に、操作データが送られたことが示されている。
 なお、操作合成処理部84は、この操作合成処理部84に操作データが入力された順に合成を行うため、通信ネットワーク9が混雑していなければ、各電子黒板2のユーザによるストローク順に、遠隔共有処理中の全ての電子黒板2のディスプレイ3にストローク画像(B)が表示される。
 ページ処理部85は、クライアント部20の画像処理部30におけるページ処理部37と同様の機能を有し、サーバ部90でも、図6乃至図8に示されているページデータを、ページデータ記憶部850に記憶する。なお、ページデータ記憶部850は、画像処理部30におけるページデータ記憶部300と同じ内容であるため、その説明を省略する。
<実施形態の処理又は動作>
 続いて、図17及び図18を用いて、本実施形態の処理又は動作について説明する。なお、図17及び図18は、各電子黒板の処理を示したシーケンス図である。
 図17及び図18に示す実施形態では、電子黒板2aが遠隔共有処理を主催する主催装置(サーバ部及びクライアント部)としての役割を果たしており、電子黒板2b、2cが遠隔共有処理に参加する参加装置(クライアント部)としての役割を果たす場合について説明する。また、ここでは、電子黒板2a、2b、2cには、それぞれディスプレイ3a、3b、3cが接続され、更に、それぞれノートPC6a、6b、6cが接続されている。また、電子黒板2a、2b、2cでは、それぞれ電子ペン4a、4b、4cが使用される。
(参加の処理)
 まずは、図17を用いて、電子黒板2b、2cが遠隔共有処理に参加するための処理について説明する。
 ユーザが電子黒板2aの電源スイッチをオンにすると、電子黒板2aのクライアント部20が起動する。そして、ユーザがタッチパネル等の入力装置によってサーバ部90を起動させる操作をすると、クライアント部20の遠隔開始処理部61から同じ電子黒板2aのサーバ部90における遠隔接続要求受信部71に、サーバ部90の処理を開始させる指示を出力する。これにより、電子黒板2aでは、クライアント部20だけでなくサーバ部90も各種処理を開始可能となる(ステップS21)。
 次に、電子黒板2aのクライアント部20におけるUI画像生成部33が電子黒板2aとの接続を確立するための接続情報を生成し、映像重畳部28が、UI画像生成部33から表示重畳部36を介して得た接続情報をディスプレイ3aに表示させる(ステップS22)。この接続情報には、主催装置のIPアドレス、及び今回の遠隔共有処理のために生成されたパスコードが含まれている。この場合、パスコード管理部810に記憶されているパスコードは、図5に示されている遠隔接続処理部81によって読み出され、遠隔接続結果送信部72、遠隔開始処理部61の順に送信される。更に、パスコードは、遠隔開始処理部61を含む通信制御部60から、図3に示されている画像処理部30に送信され、最終的にUI画像生成部33に入力される。これにより、接続情報には、パスコードが含まれる。そして、接続情報は、電子黒板2aのユーザによって、電話や電子メールにより、電子黒板2b、2cのユーザに伝えられる。なお、接続先管理テーブル440があれば、接続情報には、主催装置のIPアドレスが含まれていなくても、参加装置は参加要求を行うことができる。
 次に、電子黒板2b、2cでは、各ユーザによるタッチパネル等の入力装置の操作によって接続情報の入力を受け付けると、各電子黒板2a、2bのクライアント部20における遠隔参加処理部62が、接続情報のIPアドレスに基づき、通信ネットワーク9を介して、電子黒板2aのサーバ部90における通信制御部70に対してパスコードを送信して参加要求を行う(ステップS23、S24)。これにより、通信制御部70の遠隔接続要求受信部71は、各電子黒板2b、2cから、参加要求(パスコードを含む)を受信し、このパスコードを遠隔接続処理部81に出力する。
 次に、遠隔接続処理部81は、各電子黒板2b、2cから受信したパスコードに対し、パスコード管理部810で管理されているパスコードを用いて認証する(ステップS25)。そして、遠隔接続結果送信部72が、各電子黒板2b、2cのクライアント部20に認証結果を通知する(ステップS26、S27)。ステップS25の認証により、各電子黒板2b、2cが正当な電子黒板であると判断されていた場合には、主催装置である電子黒板2aと、参加装置である電子黒板2b、2cとの遠隔共有処理の通信が確立され、各電子黒板2b、2cのクライアント部20における遠隔参加処理部62が、それぞれ他の電子黒板との間の遠隔共有処理の開始を可能にする(ステップS28、S29)。
(出力画像の表示)
 続いて、図17を用いて、遠隔共有処理における出力画像(C)が表示される処理について説明する。
 まず、電子黒板2bは、ディスプレイ3bに出力画像(C)を表示する(ステップS30)。具体的には、電子黒板2bの画像取得部31が、ノートPC6bから映像取得部21を介して、ノートPC6bで表示されている出力画像(C)のデータを受信し、表示重畳部36及び映像重畳部28を介してディスプレイ3bに送信することで、ディスプレイ3bは出力画像(C)を表示する。
 次に、電子黒板2bの画像取得部31を含む画像処理部30が、遠隔画像送信部63に出力画像(C)のデータを送信することで、遠隔画像送信部63を含む通信制御部60が通信ネットワーク9を介して、主催装置である電子黒板2aの通信制御部70に出力画像(C)のデータを送信する(ステップS31)。これにより、電子黒板2aの遠隔画像受信部73は、出力画像(C)のデータを受信し、遠隔画像処理部82に出力することで、遠隔画像処理部82が画像データ記憶部830に出力画像(C)のデータを記憶する。
 次に、主催装置である電子黒板2aは、ディスプレイ3aに出力画像(C)を表示する(ステップS32)。具体的には、電子黒板2aの遠隔画像処理部82は、遠隔画像受信部73から受信した出力画像(C)のデータを、遠隔画像送信部74に出力する。遠隔画像送信部74は、同じ主催装置である電子黒板2aのクライアント部20における遠隔画像受信部64に、出力画像(C)のデータを出力する。遠隔画像受信部64は、表示重畳部36に出力画像(C)のデータを出力する。表示重畳部36は、映像重畳部28に出力画像(C)のデータを出力する。映像重畳部28はディスプレイ3aに出力画像(C)のデータを出力する。これにより、ディスプレイ3aは、出力画像(C)を表示する。
 次に、主催装置としての電子黒板2aのサーバ部90における遠隔画像送信部74を含む通信制御部70は、通信ネットワーク9を介して、出力画像(C)のデータの送信元である電子黒板2b以外の電子黒板2cの通信制御部60に出力画像(C)のデータを送信する(ステップS33)。これにより、参加装置である電子黒板2cの遠隔画像受信部64は、出力画像(C)のデータを受信する。
 次に、電子黒板2cは、ディスプレイ3cに出力画像(C)を表示する(ステップS34)。具体的には、電子黒板2cの遠隔画像受信部64が、上記ステップS33によって受信された出力画像(C)のデータを、電子黒板2cの表示重畳部36に出力する。表示重畳部36は、映像重畳部28に出力画像(C)のデータを出力する。映像重畳部28はディスプレイ3cに出力画像(C)のデータを出力する。これにより、ディスプレイ3cは、出力画像(C)を表示する。
 なお、出力画像(C)のデータだけでなく、UI画像(A)、及びストローク画像(B)の各データが、表示重畳部36に入力されている場合には、表示重畳部36により、重畳画像(A、B、C)が生成され、映像重畳部28はディスプレイ3cに重畳画像(A、B、C)のデータを出力する。また、テレビ会議端末7から映像重畳部28に、テレビ会議用の映像(E)のデータが送られて来ている場合には、映像重畳部28は、重畳画像(A、B、C)にピクチャ・イン・ピクチャによりテレビ会議用の映像(E)のデータを重畳して、ディスプレイ3cに出力する。
(重畳画像の表示)
 続いて、図18を用いて、遠隔共有処理における重畳画像が表示される処理について説明する。
 まず、電子黒板2bは、ユーザが電子ペン4bを用いて電子黒板2bにストローク画像(B)を描画する(ステップS41)。
 次に、電子黒板2bの表示重畳部36は、図16に示されているように、UI画像(A)、及び出力画像(C)に対して、ストローク画像(B)を重畳し、映像重畳部28が電子黒板2bのディスプレイ3b上に、重畳された重畳画像(A、B、C)を表示させる(ステップS42)。
 具体的には、電子黒板2bのストローク処理部32が座標検知部22及び接触検知部24からイベント振分部25を介して、操作データとしてのストローク画像(B)の座標データを受信し、表示重畳部36に送信する。これにより、表示重畳部36は、UI画像(A)、及び出力画像(C)に対して、ストローク画像(B)を重畳することができ、映像重畳部28が電子黒板2bのディスプレイ3b上に重畳画像(A、B、C)を表示させることができる。
 次に、電子黒板2bのストローク処理部32を含む画像処理部30が、遠隔操作送信部65にストローク画像(B)の座標データを送信することで、電子黒板2bの遠隔操作送信部65は、通信ネットワーク9を介して、主催装置である電子黒板2aの通信制御部70にストローク画像(B)のデータを送信する(ステップS43)。これにより、電子黒板2aの遠隔操作受信部75は、ストローク画像(B)のデータを受信し、遠隔操作処理部83に出力することで、遠隔操作処理部83が操作合成処理部84にストローク画像(B)のデータを出力する。このようにして、電子黒板2bで描画されたストローク画像(B)のデータは、描画される度に、主催装置である電子黒板2aの遠隔操作処理部83に順次送信される。このストローク画像(B)のデータは、図7に示されているストロークデータID毎に示されるデータである。よって、例えば、上述したように、ユーザが電子ペン4によってアルファベット「T」を描く場合は二筆書きとなるため、2つのストロークデータIDのそれぞれで示されるストローク画像(B)のデータが順次送信される。
 次に、主催装置である電子黒板2aは、ディスプレイ3aに、電子黒板2bから送られて来たストローク画像(B)のデータが含まれた重畳画像(A、B、C)を表示する(ステップS44)。具体的には、電子黒板2aの操作合成処理部84は、遠隔操作処理部83を介して順次送られて来た複数のストローク画像(B)のデータを合成して、操作データ記憶部840に記憶するとともに遠隔操作処理部83に戻す。これにより、遠隔操作処理部83は、操作合成処理部84から受信した、合成後のストローク画像(B)のデータを、遠隔操作送信部76に出力する。遠隔操作送信部76は、同じ主催装置である電子黒板2aのクライアント部20における遠隔操作受信部66に、合成後のストローク画像(B)のデータを出力する。遠隔操作受信部66は、画像処理部30における表示重畳部36に、合成後のストローク画像(B)のデータを出力する。よって、表示重畳部36は、UI画像(A)、及び出力画像(C)に対して、合成後のストローク画像(B)を重畳する。最後に、映像重畳部28が、表示重畳部36によって重畳された重畳画像(A、B、C)をディスプレイ3a上に表示させる。
 次に、主催装置としての電子黒板2aのサーバ部90における遠隔操作送信部76を含む通信制御部70は、通信ネットワーク9を介して、ストローク画像(B)のデータの送信元である電子黒板2b以外の電子黒板2cの通信制御部60に、合成後のストローク画像(B)のデータを送信する(ステップS45)。これにより、参加装置である電子黒板2cの遠隔操作受信部66は、合成後のストローク画像(B)のデータを受信する。
 次に、電子黒板2cは、ディスプレイ3cに重畳画像(A、B、C)を表示する(ステップS46)。具体的には、電子黒板2cの遠隔操作受信部66が、上記ステップS45によって受信された合成後のストローク画像(B)のデータを、電子黒板2cの画像処理部30に出力する。画像処理部30の表示重畳部36は、UI画像(A)、及び出力画像(C)の各データと、合成後のストローク画像(B)のデータを重畳し、映像重畳部28に重畳画像(A、B、C)のデータを出力する。映像重畳部28は、ディスプレイ3cに重畳画像(A、B、C)のデータを出力する。これにより、ディスプレイ3cは、重畳画像(A、B、C)を表示する。
 なお、上記処理では、ディスプレイ3上に出力画像(C)が表示されているが、この出力画像(C)に代えて、背景画像(D)を表示してもよい。また、出力画像(C)と背景画像(D)との排他的な関係をやめて、出力画像(C)と背景画像(D)との両方を同時にディスプレイ3上に表示させてもよい。
(参加の終了)
 続いて、図18を用いて、参加装置が遠隔共有処理への参加を終了する処理について説明する。図18に示す実施形態では、電子黒板2cが参加を終了する処理が示されている。
 まず、電子黒板2cでは、ユーザによるタッチパネル等の入力装置の操作によって参加の終了要求を受け付けると、遠隔参加処理部62は、主催装置としての電子黒板2aのサーバ部90における通信制御部70に、参加の終了要求を行う(ステップS47)。これにより、通信制御部70の遠隔接続要求受信部71は、電子黒板2cから、参加の終了要求を受信し、遠隔接続処理部81に、電子黒板2cのIPアドレスとともに参加の終了要求を出力する。
 そして、電子黒板2aの遠隔接続処理部81は、遠隔接続要求受信部71から送られて来たIPアドレスに基づいて、参加拠点管理テーブル820から、参加の終了要求を行った電子黒板2cのIPアドレス及び電子黒板2cが設置されている拠点の名称を削除する。次いで、遠隔接続処理部81は、遠隔接続結果送信部72に、電子黒板2cのIPアドレス及び削除した旨の通知を出力する。
 次に、遠隔接続結果送信部72を含んだ通信制御部70が、通信ネットワーク9を介して、電子黒板2cのクライアント部20における通信制御部60に、参加の終了を指示する(ステップS48)。これにより、電子黒板2cにおける通信制御部60の遠隔参加処理部62が、遠隔共有処理の通信を切断し、参加の終了処理を行うことで、参加が終了する(ステップS49)。
 次に、図19を参照して、イベント振分処理について説明する。図19は、イベント振分部25によるイベント振分処理の処理シーケンス図である。
 まず、各イベントの通知について説明する。
 座標検知部22では、電子ペン4aなどの指示体がディスプレイ前面に接近して光を遮断した場合にマウス・ダウン・イベントをイベント振分部25に通知し、それらの指示体がディスプレイ前面上において移動するとマウス・ムーブ・イベントをイベント振分部25に通知する。
 次いで、座標検知部22では、それらの物体がディスプレイ前面上から離れて光を遮断することがなくなるとマウス・アップ・イベントをイベント振分部25に通知する。
 次いで、接触検知部24では、ペン先やペン尻など電子ペン4aに設置されたボタンが押された場合(ペン先がディスプレイ前面に接触した等)にマウス・ダウン・イベントをイベント振分部25に通知する。次いで、ペン先がディスプレイ前面上において移動するとマウス・ムーブ・イベントをイベント振分部25に通知し、押されたボタンが離された場合(ペン先がディスプレイ前面より離れた)にマウス・アップ・イベントをイベント振分部25に通知する。
 イベント振分部25では、座標検知部22からマウス・ダウン・イベントの通知を受信した場合に、接触検知部24からマウス・ダウン・イベントの通知を受信したときに、真正のマウス・ダウン・イベントがあったこととして判断し、ストローク描画開始指示をストローク処理部32へ送信する。
 このとき、イベント振分部25からストローク描画開始指示を受信したストローク処理部32は、ストローク描画の準備を開始する。
 次いで、イベント振分部25では、座標検知部22からマウス・ムーブ・イベントがあった場合に、座標検知部22からストローク開始点の座標データを取得し、この座標データをストローク処理部32へ送信する。
 このとき、イベント振分部25からストローク開始点の座標データを受信したストローク処理部32は、ストローク描画を開始する。
 次いで、イベント振分部25では、座標検知部22からマウス・ムーブ・イベントがある都度に、座標検知部22からストローク通過点の座標データを取得し、この座標データをストローク処理部32へ送信する。
 このとき、イベント振分部25からストローク通過点の座標データを受信したストローク処理部32は、ストローク通過点により形成される軌跡を描画する。
 次いで、イベント振分部25では、接触検知部24からのマウス・アップ・イベントがあった場合に、ストローク描画終了指示をストローク処理部32へ送信する。
 このとき、イベント振分部25からストローク描画終了指示を受信したストローク処理部32は、ストローク描画を終了する。
 次に、図20を参照して、イベント振分処理について説明する。図20は、イベント振分部25によるイベント振分処理を示すフローチャートである。
 イベント振分部25は、処理を開始する(ステップS101)。
 イベント振分部25は、イベントの通知を受信する(ステップS103)。
 イベント振分部25は、受信したイベントが一回目のマウス・ダウン・イベントであるか否かを判断する(ステップS105)。一回目のマウス・ダウン・イベントである場合は、座標検知部22からのイベントであるためステップS107に進み、一回目のマウス・ダウン・イベントではない場合はステップS101に戻る。
 一回目のマウス・ダウン・イベントである場合は、次のイベントの通知を受信する(ステップS107)。
 次に、イベント振分部25は、受信したイベントが二回目のマウス・ダウン・イベントであるか否かを判断する(ステップS109)。イベント振分部25は、二回目のマウス・ダウン・イベントである場合は接触検知部24からの真正イベントであるためステップS110に進み、二回目のマウス・ダウン・イベントではない場合はステップS101に戻る。これにより、不要な座標を無効とすることで不要な座標の生成を防止することができ、1つのストロークを描画する際の開始点を表す座標の精度を向上することができる。
 次いで、イベント振分部25は、ストローク描画開始指示をストローク処理部32へ送信する(ステップS110)。
 次いで、イベント振分部25は、イベントの通知を受信する(ステップS111)。
 イベント振分部25は、受信したイベントが一回目のマウス・ムーブ・イベントであるか否かを判断する(ステップS113)。一回目のマウス・ムーブ・イベントである場合は、ステップS115に進む。
 これにより、不要な座標の生成を防止することができ、1つのストロークを描画する際の開始点を表す座標の精度を向上することができる。
 イベント振分部25は、一回目のマウス・ムーブ・イベントではない場合はステップS101に戻る。
 次いで、イベント振分部25は、座標検知部22からストローク開始点の座標データを取得する(ステップS115)。
 次いで、イベント振分部25は、ストローク開始点の座標データをストローク処理部32へ送信する(ステップS116)。
 次いで、イベント振分部25は、イベントの通知を受信する(ステップS117)。
 次いで、イベント振分部25は、受信したイベントがマウス・アップ・イベントであるか否かを判断し(ステップS119)、マウス・アップ・イベントである場合は、ステップS125に進む。これにより、不要な座標の生成を防止することができ、1つのストロークを描画する際の開始点を表す座標の精度を向上することができる。
 なお、イベント振分部25は、接触検知部24が第2イベント状況としてアップイベントを検知した後に、座標検知部22が第1イベント状況としてアップイベントを検知するまでの間、座標検知部22が検知した電子ペン4の座標を無効としてもよい。これにより、不要な座標を無効とすることで不要な座標の生成を防止することができ、1つのストロークを描画する際の終了点を表す座標の精度を向上することができる。
 イベント振分部25は、マウス・アップ・イベントではない場合はステップS121に進む。
 次いで、イベント振分部25は、受信したイベントがマウス・ムーブ・イベントであるか否かを判断し(ステップS121)、マウス・ムーブ・イベントである場合は、ステップS123に進み、マウス・ムーブ・イベントではない場合はステップS125に進む。
 次いで、イベント振分部25は、座標検知部22からストローク通過点の座標データを取得する(ステップS123)。
 次いで、イベント振分部25は、ストローク通過点の座標データをストローク処理部32へ送信し(ステップS124)、ステップS117に戻る。
 一方、マウス・アップ・イベントである場合(ステップS119、Yes)、又はマウス・ムーブ・イベントではない場合(ステップS121、No)、イベント振分部25は、ストローク描画終了指示をストローク処理部32へ送信する(ステップS125)。次いで、イベント振分部25は、一つのストロークに関するイベント振分処理を終了する。
 これにより、不要な座標の生成を防止することができ、1つのストロークを描画する際の開始点と終了点を表す座標の精度を向上することができる。
<本発明の実施態様例と効果>
<第1態様>
 本態様の電子黒板2は、ディスプレイ3の表示面上の位置を指示するための電子ペン4を用いて、電子ペン4により指示された位置の座標を検知する電子黒板であって、電子ペン4が表示面に接触状態、又は非接触且つ接近状態にあるときに、電子ペン4を用いた操作による第1イベント状況を検知するとともに、表示面上の電子ペン4の座標を検知する座標検知部22と、電子ペン4が表示面に接触状態にあるときに、電子ペン4を用いた操作による第2イベント状況を検知する接触検知部24と、第1イベント状況、第2イベント状況、及び座標検知部22が検知した座標に基づいて、表示面への手書き操作による1つのストロークについての有効な座標を抽出するイベント振分部25と、を備えることを特徴とする。
 本態様によれば、不要な座標の生成を防止することができ、1つのストロークを描画する際の開始点と終了点を表す座標の精度を向上することができる。
<第2態様>
 本態様のイベント振分部25は、座標検知部22が第1イベント状況としてダウンイベントを検知し、接触検知部24が第2イベント状況としてダウンイベントを検知し、且つ第1イベント状況としてムーブイベントを検知したときに、座標検知部22により検知された開始点の座標を有効とすることを特徴とする。
 本態様によれば、不要な座標の生成を防止することができ、1つのストロークを描画する際の開始点を表す座標の精度を向上することができる。
<第3態様>
 本態様のイベント振分部25は、座標検知部22が第1イベント状況としてムーブイベントを検知し、接触検知部24が第2イベント状況としてアップイベントを検知したときに、座標検知部22により検知された電子ペン4の終了点の座標を有効とすることを特徴とする。
 本態様によれば、不要な座標の生成を防止することができ、1つのストロークを描画する際の終了点を表す座標の精度を向上することができる。
<第4態様>
 本態様のイベント振分部25は、開始点の座標から、終了点の座標までに通過した点の座標を通過点の座標として抽出することを特徴とする。
 本態様によれば、不要な座標の生成を防止することができ、1つのストロークを描画する際の開始点と終了点を表す座標の精度を向上することができる。
<第5態様>
 本態様のイベント振分部25は、座標検知部22が第1イベント状況としてダウンイベントを検知し、接触検知部24が第2イベント状況としてダウンイベントを検知していないときに、座標検知部22が検知した座標を無効とすることを特徴とする。
 本態様によれば、不要な座標を無効とすることで不要な座標の生成を防止することができ、1つのストロークを描画する際の開始点を表す座標の精度を向上することができる。
<第6態様>
 本態様のイベント振分部25は、接触検知部24が第2イベント状況としてアップイベントを検知した後に、座標検知部22が第1イベント状況としてアップイベントを検知するまでの間、座標検知部22が検知した電子ペン4の座標を無効とすることを特徴とする。
 本態様によれば、不要な座標を無効とすることで不要な座標の生成を防止することができ、1つのストロークを描画する際の終了点を表す座標の精度を向上することができる。
<第7態様>
 本態様の電子黒板2は、第1態様に記載の座標検知装置を備えたことを特徴とする。
 本態様によれば、不要な座標の生成を防止することができ、1つのストロークを描画する際の開始点と終了点を表す座標の精度を向上することができる。
<第8態様>
 本態様の座標検知方法は、ディスプレイ3の表示面上の位置を指示するための電子ペン4を用いて、電子ペン4により指示された位置の座標を検知する座標検知方法であって、電子ペン4が表示面に接触状態、又は非接触且つ接近状態にあるときに、電子ペン4を用いた操作による第1イベント状況を検知するとともに、表示面上の電子ペン4の座標を座標検知部22により検知する座標検知ステップ(ステップS105)と、電子ペン4が表示面に接触状態にあるときに、電子ペン4を用いた操作による第2イベント状況を接触検知部24により検知する接触検知ステップ(ステップS109)と、第1イベント状況、第2イベント状況、及び座標検知ステップで検知した座標に基づいて、表示面への手書き操作による1つのストロークについての有効な座標をイベント振分部25により抽出する有効座標抽出ステップ(ステップS115)と、を備えることを特徴とする。
 本態様によれば、不要な座標の生成を防止することができ、1つのストロークを描画する際の開始点と終了点を表す座標の精度を向上することができる。
<第9態様>
 本態様のプログラムは、第8態様の各ステップをプロセッサに実行させることを特徴とする。
 本態様によれば、各ステップをCPU(プロセッサ)に実行させることができるので、不要な座標の生成を防止することができ、1つのストロークを描画する際の開始点と終了点を表す座標の精度を向上することができる。
1…画像処理システム、2…電子黒板、3…ディスプレイ、4…電子ペン、5…USBメモリ、6…ノートPC、7…テレビ会議端末、8…PC、9…通信ネットワーク、10a1…ケーブル、20…クライアント部、21…映像取得部、22…座標検知部、23…自動調整部、24…接触検知部、25…イベント振分部、26…操作処理部、27…ジェスチャ処理部、28…映像重畳部、30…画像処理部、31…画像取得部、32…ストローク処理部、33…UI画像生成部、34…背景生成部、35…レイアウト管理部、36…表示重畳部、37…ページ処理部、40…ファイル処理部、41…リカバリ処理部、43…ファイル変換部、44…ファイル送信部、45…アドレス帳入力部、46…バックアップ処理部、47…バックアップ出力部、48…設定管理部、60…通信制御部、61…遠隔開始処理部、62…遠隔参加処理部、63…遠隔画像送信部、64…遠隔画像受信部、65…遠隔操作送信部、66…遠隔操作受信部、71…遠隔接続要求受信部、72…遠隔接続結果送信部、80…データ管理部、81…遠隔接続処理部、82…遠隔画像処理部、83…遠隔操作処理部、84…操作合成処理部、90…サーバ部、101…CPU、102…ROM、103…RAM、104…SSD、105…ネットワークコントローラ、106…外部記憶コントローラ、111…キャプチャデバイス、112…GPU、113…ディスプレイコントローラ、115…接触センサ、114…センサコントローラ、116…電子ペンコントローラ、120…バスライン、300…ページデータ記憶部、310…遠隔ライセンス管理テーブル、410…アドレス帳管理テーブル、420…バックアップデータ記憶部、430…設定ファイル記憶部、440…接続先管理テーブル、610…参加拠点管理テーブル、810…パスコード管理部、830…画像データ記憶部、840…操作データ記憶部
特開2012-190392号公報

Claims (8)

  1.  表示装置の表示面上の位置を指示するための指示体を用いて、前記指示体により指示された位置の座標を検知する座標検知装置であって、
     前記指示体が前記表示面に接触状態、又は非接触且つ接近状態にあるときに、前記指示体を用いた操作による第1イベント状況を検知するとともに、前記表示面上の前記指示体の座標を検知する座標検知手段と、
     前記指示体が前記表示面に接触状態にあるときに、前記指示体を用いた操作による第2イベント状況を検知する接触検知手段と、
     前記第1イベント状況、前記第2イベント状況、及び前記座標検知手段が検知した座標に基づいて、前記表示面への手書き操作による1つのストロークについての有効な座標を抽出する有効座標抽出手段と、を備えることを特徴とする座標検知装置。
  2.  前記有効座標抽出手段は、
     前記座標検知手段が前記第1イベント状況としてダウンイベントを検知し、前記接触検知手段が前記第2イベント状況としてダウンイベントを検知し、且つ前記第1イベント状況としてムーブイベントを検知したときに、前記座標検知手段により検知された開始点の座標を有効とすることを特徴とする請求項1記載の座標検知装置。
  3.  前記有効座標抽出手段は、
     前記座標検知手段が前記第1イベント状況としてムーブイベントを検知し、前記接触検知手段が前記第2イベント状況としてアップイベントを検知したときに、前記座標検知手段により検知された前記指示体の終了点の座標を有効とすることを特徴とする請求項2記載の座標検知装置。
  4.  前記有効座標抽出手段は、
     前記開始点の座標から、前記終了点の座標までに通過した点の座標を通過点の座標として抽出することを特徴とする請求項3記載の座標検知装置。
  5.  前記有効座標抽出手段は、
     前記座標検知手段が前記第1イベント状況としてダウンイベントを検知し、前記接触検知手段が前記第2イベント状況としてダウンイベントを検知していないときに、前記座標検知手段が検知した座標を無効とすることを特徴とする請求項1記載の座標検知装置。
  6.  前記有効座標抽出手段は、
     前記接触検知手段が前記第2イベント状況としてアップイベントを検知した後に、前記座標検知手段が前記第1イベント状況としてアップイベントを検知するまでの間、前記座標検知手段が検知した前記指示体の座標を無効とすることを特徴とする請求項3記載の座標検知装置。
  7.  請求項1に記載の座標検知装置を備えたことを特徴とする画像処理装置。
  8.  表示装置の表示面上の位置を指示するための指示体を用いて、前記指示体により指示された位置の座標を検知する座標検知方法であって、
     前記指示体が前記表示面に接触状態、又は非接触且つ接近状態にあるときに、前記指示体を用いた操作による第1イベント状況を検知するとともに、前記表示面上の前記指示体の座標を検知する座標検知ステップと、
     前記指示体が前記表示面に接触状態にあるときに、前記指示体を用いた操作による第2イベント状況を検知する接触検知ステップと、
     前記第1イベント状況、前記第2イベント状況、及び前記座標検知ステップで検知した座標に基づいて、前記表示面への手書き操作による1つのストロークについての有効な座標を抽出する有効座標抽出ステップと、を備えることを特徴とする座標検知方法。
PCT/JP2015/062518 2014-06-05 2015-04-24 座標検知装置、画像処理装置、及び座標検知方法 WO2015186453A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-116604 2014-06-05
JP2014116604A JP2017129890A (ja) 2014-06-05 2014-06-05 座標検知装置、画像処理装置、座標検知方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2015186453A1 true WO2015186453A1 (ja) 2015-12-10

Family

ID=54766532

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/062518 WO2015186453A1 (ja) 2014-06-05 2015-04-24 座標検知装置、画像処理装置、及び座標検知方法

Country Status (2)

Country Link
JP (1) JP2017129890A (ja)
WO (1) WO2015186453A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220049407A (ko) 2020-10-14 2022-04-21 삼성전자주식회사 디스플레이 장치 및 그 제어 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334488A (ja) * 2003-05-07 2004-11-25 Make Softwear:Kk 画像入力装置および画像入力方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334488A (ja) * 2003-05-07 2004-11-25 Make Softwear:Kk 画像入力装置および画像入力方法

Also Published As

Publication number Publication date
JP2017129890A (ja) 2017-07-27

Similar Documents

Publication Publication Date Title
JP6094550B2 (ja) 情報処理装置、プログラム
JP2016134014A (ja) 電子情報ボード装置、情報処理方法およびプログラム
JP6493546B2 (ja) 電子黒板、記憶媒体、及び情報表示方法
JP6583432B2 (ja) 画像処理装置、画像表示方法、プログラム
WO2016121401A1 (en) Information processing apparatus and program
JP6620494B2 (ja) 通信システム、情報処理装置、通信方法、プログラム
JP6885416B2 (ja) 電子黒板、電子黒板の画像処理方法、及びプログラム
JP5846270B2 (ja) 画像処理システム、情報処理装置
JP6459545B2 (ja) 画像処理装置、画像処理システム及び画像処理方法
US20180082663A1 (en) Information processing apparatus, image displaying method, and non-transitory computer readable medium
WO2016121310A1 (en) Image processing device and electronic whiteboard
WO2017138233A1 (ja) 画像処理装置、画像処理システム及び画像処理方法
JP6036621B2 (ja) システム、情報処理装置
WO2015186453A1 (ja) 座標検知装置、画像処理装置、及び座標検知方法
JP2016075976A (ja) 画像処理装置、画像処理方法、画像通信システム、及びプログラム
JP2018067018A (ja) 電子黒板、画像処理方法、画像処理プログラム、及び画像処理システム
JP2020154660A (ja) 表示装置、及び表示方法
WO2016121403A1 (en) Information processing apparatus, image processing system, and program
JP7363064B2 (ja) 画像処理装置、方法、およびプログラム
JP2016076775A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2021086576A (ja) 表示装置、表示方法
JP2015056038A (ja) 画像処理装置及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15803783

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 15803783

Country of ref document: EP

Kind code of ref document: A1