WO2017138233A1 - 画像処理装置、画像処理システム及び画像処理方法 - Google Patents

画像処理装置、画像処理システム及び画像処理方法 Download PDF

Info

Publication number
WO2017138233A1
WO2017138233A1 PCT/JP2016/085712 JP2016085712W WO2017138233A1 WO 2017138233 A1 WO2017138233 A1 WO 2017138233A1 JP 2016085712 W JP2016085712 W JP 2016085712W WO 2017138233 A1 WO2017138233 A1 WO 2017138233A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
data
electronic blackboard
image processing
Prior art date
Application number
PCT/JP2016/085712
Other languages
English (en)
French (fr)
Inventor
加藤 喜永
Original Assignee
株式会社リコー
加藤 喜永
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社リコー, 加藤 喜永 filed Critical 株式会社リコー
Priority to EP16889934.2A priority Critical patent/EP3416361B1/en
Priority to CN201680081113.6A priority patent/CN108605078A/zh
Priority to JP2017566531A priority patent/JP6631643B2/ja
Publication of WO2017138233A1 publication Critical patent/WO2017138233A1/ja
Priority to US16/051,831 priority patent/US10489049B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3871Composing, repositioning or otherwise geometrically modifying originals the composed originals being of different kinds, e.g. low- and high-resolution originals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/41Bandwidth or redundancy reduction

Definitions

  • the present invention relates to an image processing apparatus, an image processing system, and an image processing method.
  • an electronic blackboard has been used in which a background image is displayed on a large display in a meeting at a company, educational institution, governmental organization, or the like, and a user can draw stroke images such as letters, numbers, and figures on the background image. ing.
  • Patent Document 1 discloses the following image processing apparatus.
  • an image processing device such as an electronic blackboard directly acquires a display image from the information processing device, and generates a drawing image using the contact position or the approach position of the object with respect to the display device.
  • the image processing device combines the display image and the drawing image to generate an image, and then displays the combined image on the display device.
  • the image processing apparatus stores display information for recording and storing display information for recombining and redisplaying the display image and the drawing image.
  • the image processing apparatus converts the contents of the content data into image data, generates display information based on the image data, and stores the display information.
  • an image processing apparatus that freely adds a page that uses content data stored in a notebook PC or a portable terminal of a conference participant as a background image is known.
  • the image processing apparatus may generate image data and the like, and store the generated image data or the like in an external apparatus or the like connected to the image processing apparatus. In this case, there is a problem that the data capacity of image data or the like stored in the external device becomes large.
  • One aspect of the present invention is to solve the above-described problem and to reduce the data capacity of image data or the like stored in an external device.
  • an image processing device that performs image processing of a superimposed image that shows a plurality of images superimposed thereon includes an image processing unit that generates at least a stroke image and a background image to generate the superimposed image, and the superimposed image.
  • a determination unit that determines whether or not a storage destination for storing image data is an external device connected to the image processing device, and the determination unit determines that the storage destination is the external device;
  • a changing unit that changes the image data.
  • the image processing apparatus of the present invention has an effect of reducing the data capacity of image data and the like stored in the external apparatus by adopting the above configuration.
  • 1 is an overall configuration diagram illustrating an example of an image processing system according to an embodiment. It is a block diagram which shows an example of the hardware constitutions of an electronic blackboard. It is a functional block diagram which shows an example of a function structure of an electronic blackboard. It is a functional block diagram which shows an example of a file processing part. It is a functional block diagram which shows an example of a server part and a transmission control part. It is a block diagram of an example of each image layer. It is the sequence diagram (the 1) which shows an example of a process of each electronic blackboard. It is the sequence diagram (the 2) which shows an example of a process of each electronic blackboard. It is a flowchart which shows an example of the process of determination and a change by an electronic blackboard.
  • FIG. 1 is an overall configuration diagram illustrating an example of an image processing system according to the present embodiment.
  • FIG. 1 for simplicity of explanation, only two electronic blackboards 2a and 2b and electronic pens 4a and 4b associated therewith are shown. A pen or the like may be used.
  • the image processing system 1 includes a plurality of electronic blackboards 2a and 2b, a plurality of electronic pens 4a and 4b, USB memories 5a and 5b, notebook PCs (Personal Computers) 6a and 6b, and a television (video) conference. Terminals 7a and 7b and a PC 8 are provided. Further, the electronic blackboards 2a and 2b and the PC 8 are connected via a communication network 9 so as to communicate with each other. Furthermore, the plurality of electronic blackboards 2a and 2b are provided with displays 3a and 3b, respectively.
  • the electronic blackboard 2a causes the display 3a to display an image drawn by an event generated by the electronic pen 4a (touch with the pen tip of the electronic pen 4a or the pen tip of the electronic pen 4a on the display 3a). Can do.
  • the electronic blackboard 2a changes the image displayed on the display 3a based on not only the electronic pen 4a but also an event (a gesture such as enlargement, reduction, or page turning) generated by the user's hand Ha or the like. You can also.
  • the electronic blackboard 2a can be connected to a USB memory 5a.
  • the electronic blackboard 2a reads an electronic file such as PDF from the USB memory 5a.
  • the electronic blackboard 2a stores an electronic file in the USB memory 5a. it can.
  • the electronic blackboard 2a is capable of communication using a standard 10 such as DisplayPort, DVI (Digital Visual Interface), HDMI (registered trademark) (High-Definition Multimedia Interface), and VGA (Video Graphics Array) 10 through a standard 10 capable of communication.
  • the notebook PC 6a is connected. Then, the electronic blackboard 2a generates an event by touching the display 3a, and transmits event information indicating the event to the notebook PC 6a in the same manner as an event from an input device such as a mouse or a keyboard.
  • a television (video) conference terminal 7a is connected to the electronic blackboard 2a via a cable 10a2 capable of communication according to the above standards.
  • the notebook PC 6a and the video conference terminal 7a may communicate with the electronic blackboard 2a by wireless communication complying with various wireless communication protocols such as Bluetooth (registered trademark).
  • the electronic blackboard 2b including the display 3b, the electronic pen 4b, the USB memory 5b, the notebook PC 6b, the video conference terminal 7b, the cable 10b1, and the cable 10b2 are used as described above. Is done. Furthermore, the electronic blackboard 2b can change the image displayed on the display 3b based on an event caused by the user's hand Hb or the like.
  • the image processing system 1 can perform remote sharing processing for sharing the same image at a remote location, and is convenient when used for a conference or the like at a remote location.
  • video conference terminal 7 when showing arbitrary video conference terminals among several video conference terminals, it is called “video conference terminal 7." Furthermore, when an arbitrary hand is shown among the hands of a plurality of users, it is referred to as “hand H”. Furthermore, when an arbitrary cable is indicated among the plurality of cables, it is indicated as “cable 10”.
  • the image processing apparatus is an electronic blackboard.
  • the image processing apparatus may be an electronic signboard (digital signage), a telestrator used in sports or weather forecast, or a remote image (video) diagnostic apparatus.
  • the information processing terminal is the notebook PC 6
  • the information processing terminal is not limited to this.
  • the information processing terminal may be a terminal capable of supplying image frames, such as a desktop PC, a tablet PC, a PDA, a digital video camera, a digital camera, or a game machine.
  • the communication network includes the Internet, a LAN (Local Area Network), a mobile phone communication network, and the like.
  • the communication network may be connected to the Internet by using a VPN (Virtual Private Network) in order to increase security.
  • VPN Virtual Private Network
  • the recording medium is not limited to this.
  • the recording medium may be another type of recording medium such as an SD (registered trademark) card.
  • the image processing apparatus is described as an electronic blackboard.
  • the present invention is not limited to this.
  • the image processing apparatus may be an information processing terminal connected to the electronic blackboard.
  • stroke image An image that shows characters, figures, numbers, symbols, lines, or a combination of these handwritten on the electronic blackboard by a user is called a stroke image.
  • FIG. 2 is a block diagram showing an example of the hardware configuration of the electronic blackboard.
  • the electronic blackboard 2 includes a CPU (Central Processing Unit) 101 that controls the operation of the entire electronic blackboard 2.
  • the electronic blackboard 2 includes a ROM (Read-Only Memory) 102 that stores a program used for driving the CPU 101 such as an IPL (Initial Program Loader).
  • the electronic blackboard 2 has a RAM (Random Access Memory) 103 used as a work area of the CPU 101.
  • the electronic blackboard 2 includes an SSD (Solid State Drive) 104 that stores various data such as a program for the electronic blackboard 2.
  • the electronic blackboard 2 includes a network controller 105 that controls communication using the communication network 9 and an external storage controller 106 that controls communication with external devices such as the USB memory 5.
  • the electronic blackboard 2 has a capture device 111 that acquires and displays video information displayed on a display or the like of the notebook PC 6 as a still image or a moving image. Furthermore, the electronic blackboard 2 includes a GPU (Graphics Processing Unit) 112 that specializes in graphics. The electronic blackboard 2 also includes a display controller 113 that controls and manages screen display in order to output an output image sent from the GPU 112 to the display 3 and the video conference terminal 7.
  • a capture device 111 that acquires and displays video information displayed on a display or the like of the notebook PC 6 as a still image or a moving image.
  • the electronic blackboard 2 includes a GPU (Graphics Processing Unit) 112 that specializes in graphics.
  • the electronic blackboard 2 also includes a display controller 113 that controls and manages screen display in order to output an output image sent from the GPU 112 to the display 3 and the video conference terminal 7.
  • the electronic blackboard 2 includes a sensor controller 114 that controls processing by the contact sensor 115 and a contact sensor 115 that detects that the electronic pen 4 or the hand H of the user touches the display 3.
  • the contact sensor 115 performs coordinate input and coordinate detection by, for example, an infrared ray blocking method.
  • this coordinate input and coordinate detection method first, two light emitting / receiving devices installed at both upper ends of the display 3 emit a plurality of infrared rays in parallel with the display 3. Next, infrared rays are reflected by the reflecting member provided around the display 3, and the light receiving and emitting device receives the light returning on the same optical path as the light path emitted by the light receiving element.
  • the contact sensor 115 outputs infrared IDs (Identification) emitted by the two light receiving and emitting devices blocked by an object such as the hand H to the sensor controller 114, and the sensor controller 114 detects the contact position of the object. Specify the coordinate position. All IDs shown below are examples of identification information.
  • the contact sensor 115 is not limited to a device using an infrared blocking method.
  • the contact sensor 115 may be a capacitive touch panel that identifies a contact position by detecting a change in capacitance, or a resistive film type touch panel that identifies a contact position based on a voltage change between two opposing resistance films. But you can.
  • the contact sensor 115 may be an electromagnetic induction type touch panel or the like that detects electromagnetic induction caused by contact of a contact object with the display unit and identifies a contact position. That is, the contact sensor 115 may use various detection means.
  • the electronic blackboard 2 has an electronic pen controller 116.
  • This electronic pen controller 116 communicates with the electronic pen 4 to determine whether the display 3 has a pen tip touch or a pen butt touch. Note that the electronic pen controller 116 may determine whether there is a touch on a part held by the user of the electronic pen 4 or a part of the other electronic pen, as well as the pen tip and the pen butt of the electronic pen 4.
  • the electronic blackboard 2 further includes an address bus and data for electrically connecting the CPU 101, ROM 102, RAM 103, SSD 104, network controller 105, external storage controller 106, capture device 111, GPU 112, sensor controller 114, and electronic pen controller 116.
  • a bus line 120 such as a bus is provided.
  • program for the electronic blackboard 2 may be recorded and distributed on a computer-readable recording medium such as a CD-ROM.
  • FIG. 3 is a functional block diagram showing an example of the functional configuration of the electronic blackboard.
  • the electronic blackboard 2 realizes each functional configuration by the hardware configuration and program shown in FIG.
  • the electronic blackboard 2 can be a “host device” that starts the remote sharing process first, and can also be a “participating device” that participates in the remote sharing process that has already started. Therefore, the electronic blackboard 2 mainly includes both the client unit 20 and the server unit 90 as illustrated. Note that the client unit 20 and the server unit 90 are functions realized in one housing of the electronic blackboard 2, for example.
  • the electronic blackboard 2 When the electronic blackboard 2 is a host device, the electronic blackboard 2 implements the client unit 20 and the server unit 90.
  • the client unit 20 when the electronic blackboard 2 is a participating device, the client unit 20 is realized in the electronic blackboard 2, but the server unit 90 is not realized. That is, in the example shown in FIG. 1, when the electronic blackboard 2a is the sponsoring device and the electronic blackboard 2b is the participating device, the client unit 20 included in the electronic blackboard 2a is the server unit 90 included in the electronic blackboard 2a.
  • the client unit 20 included in the electronic blackboard 2b communicates with the client unit 20 included in the electronic blackboard 2a via the server unit 90 included in the electronic blackboard 2a.
  • the client unit 20 includes a video acquisition unit 21, a coordinate detection unit 22, an automatic adjustment unit 23, a contact detection unit 24, an event distribution unit 25, an operation processing unit 26, a gesture processing unit 27, and a video superimposition.
  • Unit 28 image processing unit 30, and communication control unit 60.
  • the video acquisition unit 21 acquires the output video output from the video output device connected by the cable 10. Further, when receiving the image signal from the video output device, the video acquisition unit 21 analyzes the image signal, and the resolution of the image frame which is the display image of the video output device formed by the image signal or the image frame Image information indicating the update frequency or the like is derived and output to the image acquisition unit 31.
  • the coordinate detection unit 22 detects the coordinate position of an event (such as a touch of the user's hand H on the display 3) that occurs due to a user operation on the display 3. Further, the coordinate detection unit 22 may detect the touched area or the like.
  • an event such as a touch of the user's hand H on the display 3
  • the coordinate detection unit 22 may detect the touched area or the like.
  • the automatic adjustment unit 23 is activated when the electronic blackboard 2 is activated, for example. Then, the automatic adjustment unit 23 enables the contact sensor 115 (FIG. 2) to output coordinate values and the like to the coordinate detection unit 22. Specifically, the automatic adjustment unit 23 adjusts parameters and the like used for image processing by the sensor camera used in the optical sensor method performed by the contact sensor 115.
  • the contact detection unit 24 detects an event (such as pressing (touching) of the pen tip of the electronic pen 4 or the pen tip of the electronic pen 4 on the display 3) caused by a user operation.
  • the event distribution unit 25 distributes the coordinate position of the event detected by the coordinate detection unit 22 and the detection result detected by the contact detection unit 24 into events such as stroke drawing, UI operation, or gesture operation. For example, when an event occurs, an image is generated according to the event, and the image has the following layers.
  • FIG. 6 is a configuration diagram of an example of each image layer.
  • stroke drawing is an event performed when the stroke image (B) shown in FIG. 6 is displayed on the display 3 (FIG. 3).
  • the user presses the electronic pen 4 (FIG. 3) on the display 3, then moves the electronic pen 4 in the pressed state, and moves the electronic pen 4 from the display 3 after the movement. It is an event until it is released.
  • characters such as alphabet “S” or “T” are drawn on the display 3 by the electronic blackboard.
  • the “stroke drawing” may include not only drawing an image but also an event of deleting an already drawn image or editing a drawn image.
  • UI operation is an event performed when the UI image (A) shown in FIG. 6 is displayed on the display 3.
  • UI operation is an event in which the user presses a predetermined position with the electronic pen 4 or the hand H.
  • UI operation for example, the color or width of a line drawn by the electronic pen 4 is set.
  • “Gesture operation” is an event performed when the stroke image (B) shown in FIG. 6 is displayed on the display 3.
  • “gesture operation” is an event in which the user touches or moves the display 3 with the hand H.
  • the electronic blackboard enlarges (or reduces) the image, changes the display area, or switches the page. It can be performed.
  • the operation processing unit 26 performs processing corresponding to various operations based on the UI element that is the target of the “UI operation”.
  • the UI element is, for example, a GUI such as a button, list, check box, or text box.
  • the gesture processing unit 27 executes processing corresponding to the type of the input “gesture” operation when the event distribution unit 25 determines “gesture operation”.
  • the video superimposing unit 28 outputs the image superimposed by the display superimposing unit 36 to a video output device (display 3 or the like).
  • the video superimposing unit 28 pictures-in-pictures the video sent from another video output device (such as the video conference terminal 7) with respect to the video sent from the video output device (such as the notebook PC 6).
  • the video superimposing unit 28 switches the video that is picture-in-picture and displayed on a part of the display 3 to be displayed on the entire display 3.
  • the image processing unit 30 performs image processing such as superimposition processing for superimposing the image layers illustrated in FIG. That is, an image generated by the superimposition process (hereinafter referred to as “superimposed image”) is an image in which a plurality of images are superimposed.
  • the image processing unit 30 includes an image acquisition unit 31, a stroke processing unit 32, a UI image generation unit 33, a background generation unit 34, a layout management unit 35, a display superimposition unit 36, a page processing unit 37, a file processing unit 40, a page.
  • a data storage unit 300 and a remote license management table 310 are provided.
  • the image acquisition unit 31 acquires each frame as an image from the video acquired by the video acquisition unit 21. Further, the image acquisition unit 31 outputs the image data to the page processing unit 37.
  • This image is an output image from the video output device (notebook PC 6 or the like), and corresponds to the output image (C) in the example shown in FIG.
  • the stroke processing unit 32 draws an image, deletes the drawn image, or edits the drawn image when a “stroke drawing” event distributed by the event sorting unit 25 occurs.
  • the image by the “stroke drawing” is, for example, a stroke image (B) shown in FIG.
  • each result of drawing, deleting or editing an image based on this “stroke drawing” is stored as operation data in the operation data storage unit 840 (FIG. 5).
  • the UI image generation unit 33 generates a UI (user interface) image set in advance on the electronic blackboard 2.
  • the UI image is, for example, the UI image (A) shown in FIG.
  • the background generation unit 34 receives media data from the page processing unit 37 among the page data that the page processing unit 37 reads from the page data storage unit 300. Further, the background generation unit 34 outputs the received media data to the display superimposing unit 36.
  • the image based on the media data is, for example, the background image (D) shown in FIG.
  • the background image (D) is an image showing a plain color or a grid display.
  • the background image (D) may be a captured image or the like. That is, the background image (D) may be an image showing a document or presentation material.
  • the background image data is data indicating the background image (D).
  • the stroke image (C) is in front of the background image (D) (left side in FIG. 6). Therefore, in the superimposed image, the handwritten character or the like indicated by the stroke image is displayed in front of the material or the like indicated by the background image.
  • the layout management unit 35 manages the layout of each image output from the image acquisition unit 31, the stroke processing unit 32, and the UI image generation unit 33 (or the background generation unit 34) with respect to the display superimposing unit 36. Thereby, the layout management unit 35 causes the display superimposing unit 36 to display the output image (C) and the stroke image (B) in the UI image (A) and the background image (D). It is possible to instruct whether to hide.
  • the display superimposing unit 36 Based on the layout instruction output from the layout management unit 35, the display superimposing unit 36 displays the layout of each image output from the image acquisition unit 31, the stroke processing unit 32, and the UI image generation unit 33 (background generation unit 34). Do.
  • the page processing unit 37 stores, for example, data indicating the stroke image (B) and data indicating the output image (C) in one page data in the page data storage unit 300.
  • the data indicating the stroke image (B) forms part of page data as, for example, stroke arrangement data (each stroke data) indicated by the stroke arrangement data ID.
  • the data indicating the output image (C) forms part of page data as media data indicated by the media data ID. Then, when this media data is read from the page data storage unit 300, it is handled as data of the background image (D).
  • the page processing unit 37 transmits media data among the stored page data to the display superimposing unit 36 via the background generating unit 34. In this way, the video superimposing unit 28 redisplays the background image (D) on the display 3. Further, the page processing unit 37 can return the stroke arrangement data (each stroke data) of the page data to the stroke processing unit 32 so that the stroke can be re-edited. Further, the page processing unit 37 can delete or duplicate page data.
  • the page processing unit 37 when the page processing unit 37 stores page data in the page data storage unit 300, data indicating the output image (C) displayed on the display 3 is stored in the page data storage unit 300. Thereafter, when the data indicating the output image (C) is read from the page data storage unit 300, the data is read as media data indicating the background image (D). Then, the page processing unit 37 outputs stroke arrangement data indicating the stroke image (B) among the page data read from the page data storage unit 300 to the stroke processing unit 32. Further, the page processing unit 37 outputs media data indicating the background image (D) among the page data read from the page data storage unit 300 to the background generation unit 34.
  • the display superimposing unit 36 includes an output image (C) from the image acquisition unit 31, a stroke image (B) from the stroke processing unit 32, a UI image (A) from the UI image generation unit 33, and a background from the background generation unit 34.
  • the image (D) is superimposed according to the instruction from the layout management unit 35.
  • UI images (A), stroke images (B), and output images (C) are displayed in the order in which the user (from the left side in FIG. 6) can see the images even when the images overlap. And each layer of the background image (D).
  • the display superimposing unit 36 can also superimpose the image (A) and the image (B) exclusively by switching between the image (C) and the image (D) shown in FIG. For example, when the cable 10 between the electronic blackboard 2 and the video output device (notebook PC 6 or the like) is disconnected while the image (A), the image (B), and the image (C) are initially displayed, By designating the layout management unit 35, the image (C) can be removed from the superimposition target and the image (D) can be displayed. In this case, the display superimposing unit 36 may perform display enlargement, display reduction, or display area movement processing.
  • the page data storage unit 300 stores, for example, page data as shown in the following (Table 1).
  • the page data shown in (Table 1) is data for one page displayed on the display 3 (stroke arrangement data (each stroke data) and media data). Since there are many types of parameters included in the page data, the following description will be divided into a plurality of tables.
  • the page data is stored in association with the following data in order to identify an arbitrary page.
  • the stored data includes, for example, a page data ID, a start time indicating the start time of display of the page, an end time indicating a time when rewriting of the contents of the page by a stroke or a gesture is ended, and the like.
  • the stored data includes a stroke arrangement data ID for identifying stroke arrangement data generated by a stroke by the electronic pen 4 or the user's hand H.
  • the stored data is a media data ID for identifying the media data.
  • the stroke arrangement data is data for displaying the stroke image (B) shown in FIG.
  • the media data is data for displaying the background image (D) shown in FIG.
  • the stroke arrangement data is, for example, data shown in the following (Table 2).
  • one stroke arrangement data is indicated by a plurality of stroke data.
  • the above (Table 2) shows an example in which one line is one stroke data.
  • one stroke data has stroke data ID for identifying each stroke data, for example.
  • One stroke data has a start time indicating the start time of writing one stroke and an end time indicating the end time of writing one stroke.
  • one piece of stroke data has a coordinate arrangement data ID for identifying the arrangement of the stroke color, the stroke width, and the passage point of the stroke.
  • the coordinate array data specified by the “coordinate array data ID” is, for example, data shown in the following (Table 3).
  • the coordinate array data is a difference time (ms) that is a difference between one point (X coordinate value and Y coordinate value) on the display 3 and the time when the point indicated by the coordinate value passes from the start time of the stroke. ) And the writing pressure of the electronic pen 4 when the stroke is drawn. That is, a collection of one point shown in the above (Table 3) represents one coordinate array data shown in the above (Table 2). For example, when the user draws the letter “S” of the alphabet with the electronic pen 4, that is, in the case of one-stroke writing, the user passes through a plurality of passing points to draw “S”. Therefore, the coordinate array data indicates data related to the plurality of passing points.
  • the media data is, for example, data shown in the following (Table 4).
  • each piece of media data is stored in association with the media data ID in the page data shown in (Table 1).
  • the data stored in association with each other includes the data type of the media data and the recording time when the page data is stored in the page data storage unit 300 from the page processing unit 37.
  • the data stored in association with each other includes the position (X coordinate value and Y coordinate value) of the image displayed on the display 3 by page data, the size (width and height) of the image, the file name, and the like.
  • the position of the upper left corner of the image to be displayed is shown.
  • the remote license management table 310 manages license data necessary for executing the remote sharing process.
  • the license data is, for example, a remote license management table 310 shown in the following (Table 5).
  • the product ID of the electronic blackboard 2 the license ID used for authentication, the expiration date of the license, and the like are associated and managed.
  • FIG. 4 is a functional block diagram showing an example of the file processing unit.
  • the file processing unit 40 includes a recovery processing unit 41, a file input unit 42a, a file output unit 42b, and a file conversion unit 43.
  • the file processing unit 40 includes a file transmission unit 44, an address book input unit 45, a backup processing unit 46, a backup output unit 47, a setting management unit 48, a setting file input unit 49a, and a setting file output unit 49b.
  • the file processing unit 40 includes an address book management table 410, a backup data storage unit 420, a setting file storage unit 430, and a connection destination management table 440.
  • the recovery processing unit 41 detects the abnormal end and restores unsaved page data. For example, if it is a normal end, the page data is stored in the USB 5 via the file processing unit 40 in a file format such as PDF. On the other hand, the page data remains stored in the page data storage unit 300 when the power is turned off or the like is abnormally terminated. Therefore, when the power is turned on again, the recovery processing unit 41 reads the page data from the page data storage unit 300 and restores it.
  • the file input unit 42a reads a PDF file or the like from the USB memory 5, and stores each page in the page data storage unit 300 as page data.
  • the file conversion unit 43 converts the page data stored in the page data storage unit 300 into a file format such as PDF.
  • the file output unit 42 b records the PDF file output by the file conversion unit 43 in the USB memory 5.
  • the file transmission unit 44 transmits the PDF file generated by the file conversion unit 43 attached to an e-mail.
  • the address book management table 410 is displayed on the display 3 by the display superimposing unit 36 (FIG. 3).
  • the electronic blackboard accepts a transmission destination input by the user using an input device such as a touch panel, that is, a destination selection
  • the transmission destination is determined.
  • the address book management table 410 is, for example, data shown in the following (Table 6).
  • the file transmission part 44 may receive the character input which shows a mail address by operation using input devices, such as a touchscreen, by a user.
  • the address book input unit 45 reads the e-mail address list file from the USB memory 5 and manages it in the address book management table 410.
  • the backup processing unit 46 stores the file output by the file output unit 42b or the file transmitted by the file transmission unit 44 in the backup data storage unit 420 for backup. If the user is set not to back up, the backup process may not be performed.
  • the backup data is, for example, data as shown below (Table 7).
  • Table 7 The example shown in (Table 7) is an example in which each data is stored in the PDF format and each backup is performed.
  • the backup output unit 47 stores the backed up file in the USB memory 5. At the time of storage, a password or the like is input for security by the operation of an input device such as a touch panel by the user.
  • the setting management unit 48 manages and stores setting data stored in the electronic blackboard 2 in the setting file storage unit 430.
  • the setting data indicates, for example, network settings, date and time settings, region and language settings, mail server settings, address book settings, connection destination list settings, backup settings, and the like.
  • the network setting is, for example, an IP address setting, a netmask setting, a default gateway setting, or a DNS (Domain Name System) setting of the electronic blackboard 2.
  • the setting file output unit 49b stores setting data related to the electronic blackboard 2 in the USB memory 5 as a setting file.
  • the configuration file may be configured so that the user cannot see the contents due to security.
  • the setting file input unit 49a reads the setting file stored in the USB memory 5 and reflects it in the setting related to the electronic blackboard.
  • the address book input unit 50 reads the connection destination list file indicating the connection destination IP address of the remote sharing process from the USB memory 5 and manages it in the connection destination management table 440.
  • the connection destination list is data shown in the following (Table 8).
  • connection destination list is managed by the connection destination management table 440 or the like.
  • the name of the base where the electronic blackboard 2, which is a hosting apparatus that can participate, and the IP address of the hosting apparatus are managed in association with each other.
  • connection destination management table 440 may be omitted.
  • the user of the participating device inputs the IP address of the sponsoring device using an input device such as a touch panel in order to start remote request processing with the sponsoring device. Therefore, the user of the participating device obtains the IP address of the sponsoring device from the user of the sponsoring device by telephone or electronic mail.
  • FIG. 5 is a functional block diagram illustrating an example of the server unit and the transmission control unit.
  • the communication control unit 60 controls communication with another electronic blackboard 2 or communication with the communication control unit 70 in the server unit 90 via the communication network 9.
  • the communication control unit 60 includes a remote start processing unit 61, a remote participation processing unit 62, a remote image transmission unit 63, a remote image reception unit 64, a remote operation transmission unit 65, a remote operation reception unit 66, and a participation base management table 610.
  • a remote start processing unit 61 a remote participation processing unit 62
  • a remote image transmission unit 63 a remote image reception unit 64
  • a remote operation transmission unit 65 a remote operation reception unit 66
  • a participation base management table 610 a participation base management table 610.
  • the remote start processing unit 61 makes a request for starting a new remote sharing process to the server unit 90 included in the same electronic blackboard 2, and receives the request result from the server unit 90.
  • the remote start processing unit 61 refers to the remote license management table 310. Specifically, when license information (product ID, license ID, expiration date, etc.) is managed, the remote start processing unit 61 refers to the license information and makes a request to start remote sharing processing. Can do. On the other hand, when the license information is not managed, the remote start processing unit 61 is restricted from requesting to start remote sharing processing.
  • the participation base management table 610 is a table for managing the participating devices currently participating in the remote sharing process when the electronic blackboard is the sponsor device.
  • the participation base management table 610 is data shown in the following (Table 9).
  • the participating site management table 610 As shown in Table 9 above, in the participating site management table 610, the name of the site where the participating electronic blackboard 2 is installed and the IP address of the electronic blackboard 2 are managed in association with each other.
  • the remote participation processing unit 62 makes a participation request to the remote connection request receiving unit 71 in the server unit 90 of the host device that has already started the remote sharing processing via the communication network 9.
  • the remote participation processing unit 62 refers to the remote license management table 310.
  • the remote participation processing unit 62 refers to the connection destination management table 440 and acquires the IP address of the electronic blackboard 2 that is the participation destination.
  • the connection destination management table may not be referred to by the remote participation processing unit 62, and the IP address of the electronic blackboard 2 serving as a participation destination may be input numerically by the operation of an input device such as a touch panel by the user.
  • the remote image transmission unit 63 transmits the output image (C) sent from the video acquisition unit 21 (FIG. 3) via the image acquisition unit 31 to the server unit 90.
  • the remote image receiving unit 64 receives the image data transmitted from the video output device connected to the other electronic blackboard 2 from the server unit 90 and outputs it to the display superimposing unit 36. Thereby, the electronic blackboard realizes remote sharing processing.
  • the remote operation transmission unit 65 transmits operation data used for remote sharing processing to the server unit 90.
  • the operation data includes stroke addition, stroke deletion, stroke editing (enlargement, reduction or movement), page data storage, page data creation, page data duplication, page data deletion or displayed page This is data related to switching.
  • the remote operation receiving unit 66 receives the operation data input to the other electronic blackboard 2 from the server unit 90 and outputs it to the image processing unit 30 to realize remote sharing processing.
  • the client unit 20 includes a determination unit 20A1 and a change unit 20A2.
  • the determination unit 20A1 determines whether or not a storage area for storing the image data generated by the image processing unit 30, a so-called storage destination (hereinafter referred to as “storage destination”) is an external device such as the USB memory 5.
  • the change unit 20A2 changes the stored image data so that the changed image data is stored in the storage destination.
  • determination unit 20A1 and the change unit 20A2 are realized by the CPU 101 (FIG. 2), for example. Details of processing by the determination unit 20A1 and the change unit 20A2 will be described later.
  • the server unit 90 is provided in each electronic blackboard 2, for example. That is, in any electronic blackboard 2, the electronic blackboard 2 can serve as a server. Therefore, the server unit 90 includes a communication control unit 70 and a data management unit 80.
  • the communication control unit 70 controls communication with the communication control unit 70 in the client unit 20 in the same electronic blackboard 2 and the communication control unit 70 in the client unit 20 in another electronic blackboard 2 via the communication network 9.
  • the data management unit 80 manages operation data, image data, and the like.
  • the communication controller 70 includes a remote connection request receiver 71, a remote connection result transmitter 72, a remote image receiver 73, a remote image transmitter 74, a remote operation receiver 75, and a remote operation transmitter 76.
  • the remote connection request receiving unit 71 receives a remote sharing processing start request from the remote start processing unit 61 or receives a participation request for remote sharing processing from the remote participation processing unit 62.
  • the remote connection result transmission unit 72 transmits the result of the remote sharing processing start request to the remote start processing unit 61, or transmits the result of the participation request for the remote sharing processing to the remote participation processing unit 62.
  • the remote image receiving unit 73 receives the image data (such as data of the output image (C) shown in FIG. 6) from the remote image transmitting unit 63 and transmits it to the remote image processing unit 82.
  • image data such as data of the output image (C) shown in FIG. 6
  • the remote image transmission unit 74 receives the image data from the remote image processing unit 82 and transmits the image data (data of the output image (C) shown in FIG. 6) to the remote image reception unit 64.
  • the remote operation receiving unit 75 receives the operation data (data such as the stroke image (B) shown in FIG. 6) from the remote operation transmitting unit 65 and transmits it to the remote operation processing unit 83.
  • the remote operation transmission unit 76 receives operation data from the remote operation processing unit 83, and transmits operation data (data such as a stroke image (B) shown in FIG. 6) to the remote operation reception unit 66.
  • the data management unit 80 includes a remote connection processing unit 81, a remote image processing unit 82, a remote operation processing unit 83, an operation composition processing unit 84, and a page processing unit 85.
  • the server unit 90 includes a passcode management unit 810, a participating site management table 820, an image data storage unit 830, an operation data storage unit 840, and a page data storage unit 850.
  • the remote connection processing unit 81 starts remote sharing processing and ends remote sharing processing. Further, the remote connection processing unit 81 checks whether the remote connection request receiving unit 71 has a license or whether it is within the license period based on the received license information. The license information is received from the remote start processing unit 61 together with a request for starting remote sharing processing or received from the remote participation processing unit 62 together with a request for participation in remote sharing processing. Further, the remote connection processing unit 81 confirms whether or not the participation request from the other electronic blackboard 2 as the client unit 20 exceeds the predetermined number of possible participations.
  • the remote connection processing unit 81 determines whether or not the passcode sent from the other electronic whiteboard 2 upon request for participation in the remote sharing process is the same as the passcode managed by the passcode management unit 810. If they are the same, the participation in the remote sharing process is permitted.
  • This passcode is issued by the remote connection processing unit 81 when a new remote sharing process is started. Then, the user of the electronic blackboard 2 as a participating device who intends to participate in the remote sharing process is notified from the user of the electronic blackboard 2 as the hosting device by telephone or e-mail.
  • the hosting device may omit the confirmation of the passcode by giving priority to the user's usability over security.
  • the remote connection processing unit 81 uses the participation site information included in the participation request sent from the remote participation processing unit 62 of the participation device via the communication network 9 as the participation site of the server unit 90. Store in the management table 820. Then, the remote connection processing unit 81 reads out the remote site information stored in the participating site management table 820 and transmits it to the remote connection result transmission unit 72.
  • the remote connection result transmission unit 72 transmits the remote site information to the remote start processing unit 61 in the client unit 20 of the same host device. Further, the remote start processing unit 61 stores the remote site information in the participating site management table 610. Thereby, the sponsor apparatus manages the remote site information in both the client unit 20 and the server unit 90.
  • the remote image processing unit 82 is supplied from a video output device (notebook PC 6 or the like) connected to a client unit (including a client unit included in the electronic blackboard that is the hosting device) of each electronic blackboard 2 participating in the remote sharing process.
  • Image data output image (C) shown in FIG. 6) is received.
  • the electronic blackboard 2 serving as the host device stores the received image data in the image data storage unit 830. Further, the electronic blackboard 2 serving as the host device determines the display order of the image data to be remotely shared in the order of time sent to the server unit 90.
  • the remote image processing unit 82 refers to the participating site management table 820. Then, the remote image processing unit 82 is connected to the communication control unit 70 (remote image transmission unit 74) to the client unit (including the client unit included in the electronic blackboard serving as the hosting device) of the electronic blackboard 2 participating in the remote sharing process. The image data is transmitted in the order determined above.
  • the remote operation processing unit 83 includes various operation data such as a stroke image drawn by a client unit (including a client unit included in the electronic blackboard serving as a hosting device) included in each electronic blackboard 2 participating in the remote sharing process (see FIG. The stroke image (B) shown in FIG. Then, the remote operation processing unit 83 determines the display order of the images to be remotely shared in the order in which the operation data arrives at the server unit 90 included in the electronic blackboard 2 serving as the hosting device.
  • the various operation data is the same as the various operation data.
  • the remote operation processing unit 83 refers to the participating site management table 820 and operates the operation data in the client unit (including the client unit included in the electronic blackboard serving as the hosting device) of the electronic blackboard 2 participating in the remote sharing process. Send.
  • the operation composition processing unit 84 synthesizes the operation data of each electronic blackboard 2 output from the remote operation processing unit 83, and stores the operation data as a result of the synthesis in the operation data storage unit 840. Further, the operation synthesis processing unit 84 sends the synthesized operation data to the remote operation processing unit 83.
  • the operation data is transmitted from the remote operation transmission unit 76 to each of the client unit included in the electronic blackboard serving as the host device and the client unit included in the electronic blackboard serving as the participating device. Thereby, on each electronic blackboard 2, the image which concerns on the same operation data is displayed.
  • the operation data is, for example, data shown in the following (Table 10).
  • the operation data indicates SEQ (Sequence), the operation name of the data, the IP address of the electronic blackboard 2 that is the transmission source of the operation data, and the like.
  • the operation data includes a Port No. of the client unit (server unit), an IP address of the electronic blackboard 2 which is a transmission destination of the operation data, and a Port No. of the client unit (server unit).
  • the operation type of the operation data indicates data indicating the operation target of the operation data and the content of the operation data.
  • each item of the operation data is associated.
  • SEQ2 is sent from the server unit (Port No .: 50000) of the electronic blackboard (IP address: 192.0.0.1) serving as the hosting device to another electronic blackboard (IP address: 192.0.0.1) indicates that operation data has been sent to the client unit (Port No .: 50001).
  • the operation composition processing unit 84 performs composition in the order in which operation data is input to the operation composition processing unit 84. Therefore, if the communication network 9 is not congested, the stroke images (B) are displayed on the displays 3 of all the electronic blackboards 2 participating in the remote sharing process in the order of strokes by the users of the respective electronic blackboards 2.
  • the page processing unit 85 has the same function as the page processing unit 37 in the image processing unit 30 included in the client unit 20.
  • the server unit 90 also stores the page data shown in (Table 1) to (Table 3) in the page data storage unit 850. Note that the page data storage unit 850 has the same contents as the page data storage unit 300 in the image processing unit 30, and therefore the description thereof is omitted.
  • FIG. 7 and 8 are sequence diagrams showing an example of processing by each electronic blackboard.
  • the electronic blackboard 2a is a hosting device (server unit and client unit) that hosts the remote sharing process.
  • the electronic blackboards 2b and 2c are participating devices (client units) participating in the remote sharing process.
  • displays 3a, 3b, and 3c are connected to the electronic blackboards 2a, 2b, and 2c, respectively.
  • notebook PCs 6a, 6b, and 6c are connected to the electronic blackboards 2a, 2b, and 2c, respectively.
  • electronic pens 4a, 4b, and 4c are used, respectively.
  • the client unit 20 of the electronic blackboard 2a When the power switch of the electronic blackboard 2a is turned on by the user's operation, the client unit 20 of the electronic blackboard 2a is activated. And a user inputs operation which starts the server part 90 by input devices, such as a touch panel. In this way, an instruction to start processing of the server unit 90 is output from the remote start processing unit 61 included in the client unit 20 to the remote connection request receiving unit 71 in the server unit 90 included in the same electronic blackboard 2a. Thereby, in the electronic blackboard 2a, not only the client unit 20 but also the server unit 90 starts various processes (step S21).
  • the UI image generation unit 33 in the client unit 20 included in the electronic blackboard 2a generates connection information for establishing a connection with the electronic blackboard 2a.
  • the video superimposing unit 28 displays the connection information obtained from the UI image generating unit 33 via the display superimposing unit 36 on the display 3a (step S22).
  • This connection information includes the IP address of the host device and the passcode generated for the current remote sharing process.
  • the passcode stored in the passcode management unit 810 is read by the remote connection processing unit 81 shown in FIG. Further, the passcode is transmitted in the order of the remote connection result transmission unit 72 and the remote start processing unit 61. Further, the passcode is transmitted from the communication control unit 60 including the remote start processing unit 61 to the image processing unit 30 shown in FIG.
  • connection information includes the passcode.
  • the connection information is transmitted to the users of the electronic blackboards 2b and 2c by telephone or electronic mail by the user of the electronic blackboard 2a. If there is the connection destination management table 440, even if the connection information does not include the IP address of the sponsoring device, the participating device can make a participation request.
  • the remote participation processing unit 62 in the client unit 20 included in each electronic blackboard 2a and 2b Based on the IP address, a pass code is transmitted to the communication control unit 70 in the server unit 90 of the electronic blackboard 2a via the communication network 9 to make a participation request (steps S23 and S24).
  • the remote connection request receiving unit 71 of the communication control unit 70 receives a participation request (including a passcode) from each of the electronic blackboards 2 b and 2 c, and outputs this passcode to the remote connection processing unit 81.
  • the remote connection processing unit 81 authenticates the passcode received from each of the electronic blackboards 2b and 2c using the passcode managed by the passcode management unit 810 (step S25). And the remote connection result transmission part 72 notifies an authentication result to the client part 20 of each electronic blackboard 2b, 2c (step S26, S27). If it is determined by the authentication in step S25 that each of the electronic blackboards 2b and 2c is a legitimate electronic blackboard, the remote sharing processing communication between the electronic blackboard 2a serving as the hosting device and the electronic blackboards 2b and 2c serving as the participating devices. Is established. Thus, the remote participation processing unit 62 in the client unit 20 included in each electronic blackboard 2b, 2c enables the start of remote sharing processing with other electronic blackboards (steps S28 and S29).
  • the electronic blackboard 2b displays the output image (C) on the display 3b (FIG. 1) (step S30). Specifically, the image acquisition unit 31 included in the electronic blackboard 2b receives data indicating the output image (C) displayed on the notebook PC 6b from the notebook PC 6b (FIG. 1) via the video acquisition unit 21 (FIG. 3). Receive. Next, when the received data is transmitted to the display 3b via the display superimposing unit 36 and the video superimposing unit 28, the display 3b displays an output image (C).
  • the image processing unit 30 (FIG. 3) including the image acquisition unit 31 (FIG. 3) of the electronic blackboard 2b transmits the data of the output image (C) to the remote image transmission unit 63 (FIG. 5).
  • the communication control unit 60 (FIG. 5) including the remote image transmission unit 63 outputs the output image to the communication control unit 70 (FIG. 5) of the electronic blackboard 2a serving as the hosting device via the communication network 9 (FIG. 5).
  • the data of (C) is transmitted (step S31).
  • the remote image receiving unit 73 (FIG. 5) of the electronic blackboard 2a receives the data of the output image (C).
  • the remote image processing unit 82 stores the data of the output image (C) in the image data storage unit 830 (FIG. 5).
  • the electronic blackboard 2a serving as the host device displays the output image (C) on the display 3a (FIG. 1) (step S32).
  • the remote image processing unit 82 included in the electronic blackboard 2 a outputs the output image (C) data received from the remote image receiving unit 73 to the remote image transmitting unit 74.
  • the remote image transmission unit 74 outputs the data of the output image (C) to the remote image reception unit 64 in the client unit 20 included in the electronic blackboard 2a which is the same hosting device.
  • the remote image receiving unit 64 outputs the data of the output image (C) to the display superimposing unit 36 (FIG. 3).
  • the display superimposing unit 36 outputs the data of the output image (C) to the video superimposing unit 28 (FIG. 3).
  • the video superimposing unit 28 outputs the data of the output image (C) to the display 3a.
  • the display 3a displays the output image (C).
  • the communication control unit 70 including the remote image transmission unit 74 in the server unit 90 (FIG. 3) of the electronic blackboard 2 a that is the hosting device transmits the data of the output image (C) via the communication network 9.
  • the electronic blackboard 2c other than the electronic blackboard 2b that is the transmission source of the output image (C) is the communication control unit 60.
  • the remote image receiving part 64 which the electronic blackboard 2c which is a participating apparatus has receives the data of an output image (C).
  • the electronic blackboard 2c displays the output image (C) on the display 3c (step S34).
  • the remote image receiving unit 64 of the electronic blackboard 2c outputs the data of the output image (C) received in step S33 to the display superimposing unit 36 of the electronic blackboard 2c.
  • the display superimposing unit 36 outputs the output image (C) data to the video superimposing unit 28.
  • the video superimposing unit 28 outputs the data of the output image (C) to the display 3c. Thereby, the display 3c displays the output image (C).
  • the video superimposing unit 28 When not only the output image (C) data but also the UI image (A) and stroke image (B) data shown in FIG. A, B, C) are generated. Then, the video superimposing unit 28 outputs the data of the superimposed image (A, B, C) to the display 3c.
  • video conference video (E) data is sent from the video conference terminal 7 to the video superimposing unit 28, the video superimposing unit 28 adds picture-in to the superimposed image (A, B, C).
  • the video (E) data for video conference is superimposed by the picture and output to the display 3c.
  • the video (E) for video conference is an output video received from another terminal via the video conference terminal 7 or the communication network 9 (FIG. 3) shown in FIG.
  • the electronic blackboard 2b draws a stroke image (B) (FIG. 6) showing a stroke drawn by the user using the electronic pen 4b (step S41).
  • the display superimposing unit 36 (FIG. 3) of the electronic blackboard 2b superimposes the stroke image (B) on the UI image (A) and the output image (C).
  • the video superimposing unit 28 displays the superimposed images (A, B, C) superimposed on the display 3b (FIG. 1) of the electronic blackboard 2b (step S42).
  • the stroke processing unit 32 (FIG. 3) included in the electronic blackboard 2b is transmitted from the coordinate detection unit 22 (FIG. 3) and the contact detection unit 24 (FIG. 3) via the event distribution unit 25 (FIG. 3).
  • the data of the stroke image (B) as the operation data is received. Thereby, each data is transmitted to the display superimposing unit 36.
  • the display superimposing unit 36 can superimpose the stroke image (B) on the UI image (A) and the output image (C). Therefore, the video superimposing unit 28 can display the superimposed images (A, B, C) on the display 3b of the electronic blackboard 2b.
  • the image processing unit 30 including the stroke processing unit 32 (FIG. 3) of the electronic blackboard 2b transmits the data of the stroke image (B) to the remote operation transmission unit 65 (FIG. 5). Further, the remote operation transmission unit 65 included in the electronic blackboard 2b transmits the stroke image (B) data to the communication control unit 70 (FIG. 5) included in the electronic blackboard 2a serving as the hosting device via the communication network 9 (FIG. 1). Is transmitted (step S43). Thereby, the remote operation receiving part 75 (FIG. 5) which the electronic blackboard 2a has receives the data of a stroke image (B).
  • the remote operation receiving unit 75 outputs the received data to the remote operation processing unit 83, so that the remote operation processing unit 83 outputs the data of the stroke image (B) to the operation composition processing unit 84.
  • the data of the stroke image (B) drawn on the electronic blackboard 2b is sequentially transmitted to the remote operation processing unit 83 of the electronic blackboard 2a serving as the hosting device every time it is drawn.
  • the data of the stroke image (B) is data shown for each stroke data ID shown in the above (Table 2). Therefore, for example, when the user draws the letter “T” with the electronic pen 4, the stroke image (B) indicated by each of the two stroke data IDs is sequentially transmitted.
  • the electronic blackboard 2a which is the hosting apparatus, displays on the display 3a a superimposed image (A, B, C) including the data of the stroke image (B) sent from the electronic blackboard 2b (Step S). S44).
  • the operation composition processing unit 84 included in the electronic blackboard 2 a synthesizes data of a plurality of stroke images (B) that are sequentially transmitted via the remote operation processing unit 83 and stores them in the operation data storage unit 840. And return to the remote operation processing unit 83.
  • the remote operation processing unit 83 outputs the combined stroke image (B) data received from the operation synthesis processing unit 84 to the remote operation transmission unit 76.
  • the remote operation transmitting unit 76 outputs the combined stroke image (B) data to the remote operation receiving unit 66 in the client unit 20 of the electronic blackboard 2a serving as the hosting device. Further, the remote operation receiving unit 66 outputs the combined stroke image (B) data to the display superimposing unit 36 in the image processing unit 30. Therefore, the display superimposing unit 36 superimposes the combined stroke image (B) on the UI image (A) and the output image (C). Finally, the video superimposing unit 28 displays the superimposed image (A, B, C) superimposed by the display superimposing unit 36 on the display 3a.
  • the communication control unit 70 including the remote operation transmission unit 76 in the server unit 90 of the electronic blackboard 2a serving as the hosting device transmits the data of the combined stroke image (B) via the communication network 9 ( Step S45).
  • the transmission destination is the communication control unit 60 of the electronic blackboard 2c other than the electronic blackboard 2b that is the transmission source of the stroke image (B) data.
  • the remote operation receiving unit 66 of the electronic blackboard 2c serving as the participating device receives the data of the combined stroke image (B).
  • the electronic blackboard 2c displays a superimposed image (A, B, C) on the display 3c (step S46).
  • the remote control receiving unit 66 of the electronic blackboard 2c outputs the combined stroke image (B) data received in step S45 to the image processing unit 30 of the electronic blackboard 2c.
  • the display superimposing unit 36 included in the image processing unit 30 superimposes each data of the UI image (A) and the output image (C) and the data of the combined stroke image (B), and the video superimposing unit 28 Data of the superimposed image (A, B, C) is output.
  • the video superimposing unit 28 outputs the data of the superimposed image (A, B, C) to the display 3c.
  • the display 3c displays a superimposed image (A, B, C).
  • the output image (C) is displayed on the display 3, but a background image (D) may be displayed instead of the output image (C). Further, the exclusive relationship between the output image (C) and the background image (D) may be stopped, and both the output image (C) and the background image (D) may be displayed on the display 3 at the same time.
  • the electronic blackboard 2c accepts a participation termination request by an operation of an input device such as a touch panel by a user.
  • the remote participation processing unit 62 makes a participation end request to the communication control unit 70 (FIG. 5) in the server unit 90 (FIG. 5) of the electronic blackboard 2a serving as the hosting device (step S47). ).
  • the remote connection request receiving unit 71 included in the communication control unit 70 receives the participation end request from the electronic blackboard 2c.
  • the remote connection request receiving unit 71 outputs a participation termination request together with the IP address of the electronic blackboard 2c to the remote connection processing unit 81 (FIG. 5).
  • the remote connection processing unit 81 included in the electronic blackboard 2a edits the participating site management table 820 (FIG. 5) based on the IP address sent from the remote connection request receiving unit 71. Specifically, the IP address of the electronic blackboard 2c that has requested participation and the name of the base where the electronic blackboard 2c is installed are deleted from the participating base management table 820. In addition, the remote connection result transmission unit 72 (FIG. 5) outputs the IP address of the electronic blackboard 2c and a notification that it has been deleted.
  • the communication control unit 70 including the remote connection result transmission unit 72 transmits to the communication control unit 60 (FIG. 5) in the client unit 20 (FIG. 5) of the electronic blackboard 2c via the communication network 9 (FIG. 1).
  • the end of participation is instructed (step S48).
  • the remote participation processing unit 62 of the communication control unit 60 in the electronic blackboard 2c disconnects the communication of the remote sharing process, thereby completing the participation process, thereby completing the participation (step S49).
  • FIG. 9 is a flowchart illustrating an example of determination and change processing by the electronic blackboard.
  • the illustrated process is performed, for example, when an operation on image data generated by the electronic blackboard is input. More specifically, for example, in the process shown in FIG. 7, in the base where the electronic blackboard 2a is installed, after step S32 or in the base where the electronic blackboard 2c is installed, the process of step S34 is performed. Later. Moreover, the process shown in FIG. 9 is implement
  • the electronic blackboard inputs file operations by the user.
  • the file operation is accepted by the electronic blackboard by the following GUI (Graphical User Interface) (step S101).
  • GUI Graphic User Interface
  • FIG. 10 is an example of a diagram showing a file operation menu displayed on the electronic blackboard.
  • the electronic blackboard displays a screen PNL illustrated. Then, the user inputs a file operation on the displayed screen PNL. Specifically, when the file operation icon or the like is pressed, the electronic blackboard displays, for example, a file operation menu MNU. Furthermore, when the file saving menu FSV is pressed in the menu displayed by the file operation menu MNU, the electronic blackboard starts a process of storing image data and the like.
  • the electronic blackboard determines whether or not the setting for changing is made (step S102). Whether or not to make a change is set on the electronic blackboard by a user operation or the like. Details of the setting related to the change will be described later.
  • the change is, for example, compressing data. Hereinafter, an example in which the change is compression will be described.
  • the electronic blackboard proceeds to step S103. On the other hand, if it is determined that the setting is not to be changed (NO in step S102), the electronic blackboard proceeds to step S106.
  • the electronic blackboard determines whether or not the storage destination is an external device (step S103). For example, whether or not the storage destination is an external device is determined by a path indicating the storage destination that is input in the file operation (step S101).
  • the path is input as follows, for example.
  • FIG. 11 is an example of a diagram showing a GUI for inputting a storage destination in file operation.
  • the electronic blackboard displays a selection screen SPL as illustrated in the file operation using the screen PNL shown in FIG.
  • the user can select on the selection screen SPL whether the storage destination is an external device or an electronic blackboard (so-called “C drive” or the like).
  • the storage destination is set to the USB memory 5 (FIG. 2).
  • the storage destination is set to “temporary storage folder” generated in the SSD 104 (FIG. 2). Is done.
  • the partition is set in advance so that only the “C drive” exists in the SSD 104 (FIG. 2). Therefore, if any storage area in the electronic blackboard is a storage destination such as “temporary storage folder”, the path indicating the storage destination indicates a storage area in “C drive”.
  • the external device such as the USB memory 5
  • it is set to a drive other than “C drive”.
  • the path indicating the storage destination indicates any storage area in the “D drive”.
  • the “C drive” may be divided into two or more storage areas, such as “C drive” and “D drive”, depending on the partition. In this way, for example, files and application programs related to the OS (Operating System) are stored in the “C drive”.
  • “D drive” stores data including “temporary storage folder”.
  • the storage area may be configured such that the storage destination is a “temporary storage folder”, data is stored in “D drive”, and a link is established from the storage destination to “D drive”.
  • “C drive” and “D drive” are storage areas in the electronic blackboard.
  • the connected external device is, for example, “E drive”. That is, in this case, it is determined that a storage destination other than “C drive” and “D drive” is an external device.
  • the “save” button is grayed out.
  • the “save” button becomes valid (a state that can be pressed). Becomes).
  • the “save” button is pressed, the storage destination is determined, so the path indicating the storage destination is determined.
  • the electronic blackboard determines whether or not the storage destination is an external device based on whether or not the path indicating the determined storage destination indicates a predetermined storage area.
  • the predetermined storage area is set in advance. That is, if the path indicating the storage destination is “C drive” which is an example of a storage area set in advance, the electronic blackboard determines that the storage destination is not an external device (NO in step S103 shown in FIG. 9). . On the other hand, if the path indicating the storage destination is other than “C drive” such as a USB memory, the electronic whiteboard determines that the storage destination is an external device (YES in step S103 shown in FIG. 9). For example, when the area other than the predetermined storage area is other than “C drive”, the above example is obtained.
  • the external device is not limited to a USB memory. That is, the type of external device may be a device other than a USB memory or a recording medium.
  • the external device may be a so-called external hard disk.
  • FIG. 11 shows an example in which the setting relating to the change can be input when the change setting button BOP indicated by “option setting of saved file” is pressed. For example, when the change setting button BOP is pressed, the following option setting screen is displayed.
  • FIG. 12 is an example of a diagram showing an option setting screen for inputting the setting related to the change.
  • the option setting screen OPL shown in the drawing whether or not to change is set depending on whether or not “compress background image to reduce file size” is checked. That is, if “compress background image to reduce file size” is checked, the electronic blackboard determines that the setting is to be changed (YES in step S102 shown in FIG. 9). On the other hand, when the check of “compress background image to reduce file size” is removed, the electronic blackboard determines that the setting is not to be changed (NO in step S102 shown in FIG. 9).
  • compression rate or the like may be input.
  • parameters related to the change performed in step S105 shown in FIG. 9 may be set in advance.
  • the user can set the “compression rate” and the like, and the electronic blackboard can store image data in a format or data size desired by the user.
  • the electronic blackboard determines whether or not there is a background image in the stored image data (step S104).
  • the background image is, for example, the background image (D) shown in FIG.
  • the electronic blackboard proceeds to step S105.
  • the electronic blackboard proceeds to step S106.
  • the electronic blackboard changes the image data (step S105).
  • the electronic blackboard uses the background image (D) among the images of the layers shown in FIG.
  • the compression is, for example, JPEG (Joint Photographic Exports Group) compression.
  • the electronic blackboard may change the image size, the compression rate (for example, Q value), or a combination thereof.
  • the vertical and horizontal sizes are set to be any magnification that satisfies (0.0 ⁇ x ⁇ 0.7).
  • the Q value of JPEG is set to be (0 ⁇ y ⁇ 70). After these settings are made, compression is performed.
  • Normal The vertical and horizontal sizes are set so as to be any magnification (0.7 ⁇ x ⁇ 0.9).
  • the Q value of JPEG is set to be (70 ⁇ y ⁇ 80). After these settings are made, compression is performed.
  • Low The vertical and horizontal sizes are set to be any magnification that satisfies (0.9 ⁇ x ⁇ 1.0). Further, the Q value of JPEG is set to be (80 ⁇ y ⁇ 100). After these settings are made, compression is performed.
  • the size magnification is indicated by “x” and the Q value is indicated by “y”.
  • the compression method is not limited to JPEG. That is, the compression method may be another method such as GIF.
  • the change is not limited to compression, and may be a process of thinning out pixels in the BMP file format or the TIFF file format, for example. Further, the electronic blackboard may be further changed to a PDF format or the like after the compression or the like is changed.
  • the electronic blackboard stores the image data in the storage destination input in step S101 or the like (step S106). Data other than image data may be stored together.
  • image data of a superimposed image generated by superimposing images of each layer is stored in an external storage device such as a USB memory by a user file operation or the like. Since such image data represents an image, the data capacity often increases. Therefore, the electronic blackboard changes the background image or the like to reduce the capacity of the image data. In this way, since the image data having a large data capacity can be reduced, the storage capacity for storing the image data of the external device can be saved.
  • the stroke image data and the like are not subject to change.
  • the stroke image data or the like is input to another electronic blackboard, and thereafter the data indicated by the stroke image data may be edited. For this reason, if the data is changed, particularly irreversibly converted, data necessary for editing may be deleted or unusable. Therefore, it is desirable that the data to be changed is background image data. If it does in this way, after inputting image data via an external device to other electronic blackboards etc., a stroke picture etc. can be edited and communication can be made smooth.
  • the background image data often has a large data capacity, if the background image data is changed, the data capacity of the image data can be reduced.
  • a code may be input when storing image data in an external device.
  • a code is input on the following code input screen.
  • FIG. 13 is an example of a diagram showing a code input screen for inputting a code.
  • the code input screen CPL is a screen displayed after the selection screen SPL shown in FIG.
  • the user inputs, for example, a conference code or the like in the code input text box COD.
  • the input code that is, “1111” in the example shown in FIG. 13 is associated with the image data to be stored.
  • the electronic blackboard generates table data indicating this association.
  • This table data is stored in an external device together with image data, for example.
  • the code is associated with the image data etc. by this table data. That is, when the code is input, the electronic blackboard can specify image data and the like based on the table data. Therefore, when a code is input when reading image data or the like stored in the external device, the electronic blackboard can search for image data or the like specified based on the table data. In this way, the electronic blackboard can quickly read predetermined image data and the like, distinguishing from other image data and the like.
  • the above example has a configuration divided according to main functions in order to facilitate understanding of processing by the electronic blackboard 2. Therefore, the present invention is not limited by the method of dividing the processing unit or the name.
  • the processing of the electronic blackboard 2 may be divided into more processing units depending on the processing content.
  • One processing unit may be divided so as to include more processes.
  • the image processing apparatus is not limited to a configuration realized by one apparatus. That is, the embodiment according to the present invention may be realized by an image processing system having one or more information processing apparatuses. In the image processing apparatus or the image processing system, processing may be performed so that part or all of each processing is distributed, redundant, parallel, or a combination thereof.
  • each processing according to the present invention may be realized by a program for causing a computer described in a programming language or the like to execute an image processing method. That is, the program is a computer program for causing a computer such as an image processing apparatus to execute an image processing method.
  • the program can be stored and distributed in a computer-readable recording medium such as a flash memory, a flexible disk, an optical disk, an SD (registered trademark) card, or an MO. Furthermore, the program can be distributed through a telecommunication line.
  • a computer-readable recording medium such as a flash memory, a flexible disk, an optical disk, an SD (registered trademark) card, or an MO.
  • the program can be distributed through a telecommunication line.
  • Image processing system Electronic blackboard (an example of an image processing device) 3 Display 4 Electronic pen 5 USB memory 6 Notebook PC 7 Video conference terminal 8 PC 9 Communication network

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Facsimiles In General (AREA)
  • Storing Facsimile Image Data (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

複数の画像を重ねて示す重畳画像を画像処理する画像処理装置が、少なくともストローク画像と、背景画像とを重畳して前記重畳画像を生成し、前記重畳画像を示す画像データを記憶する記憶先が、前記画像処理装置に接続される外部装置であるか否かを判定し、前記判定によって前記記憶先が前記外部装置であると判定されると、前記画像データを変更することで上記課題を解決する。

Description

画像処理装置、画像処理システム及び画像処理方法
 本発明は、画像処理装置、画像処理システム及び画像処理方法に関する。
 従来、企業や教育機関、行政機関等における会議等において、大型ディスプレイに背景画像を表示させ、この背景画像の上にユーザが文字や数字、図形等のストローク画像を描画可能な電子黒板が利用されている。
 このような電子黒板の一例として、例えば、特許文献1によって、以下のような画像処理装置が知られている。まず、電子黒板等の画像処理装置が、情報処理装置から表示画像を直接取得し、表示装置に対する物体の接触位置又は接近位置を使用して描画画像を生成する。次に、画像処理装置が、表示画像及び描画画像を合成して画像を生成した上で、合成した画像を表示装置に表示する。続いて、画像処理装置が、表示画像及び描画画像を再合成及び再表示するための表示情報を記録及び保存するための表示情報を保存する。そして、任意の情報処理装置からネットワークを経由してコンテンツデータを受信すると、画像処理装置が、コンテンツデータの内容を画像データに変換して、画像データをもとに表示情報を生成し、保存する。このようにして、会議参加者のノートPC又は携帯端末に保存しているコンテンツデータを背景画像にするページを自由に追加する画像処理装置が知られている。
 しかしながら、画像処理装置が画像データ等を生成し、生成した画像データ等を画像処理装置に接続される外部装置等に記憶する場合がある。この場合において、外部装置に記憶させる画像データ等のデータ容量が大きくなるという問題がある。
 本発明の1つの側面は、上述した課題を解決するものであり、外部装置に記憶させる画像データ等のデータ容量を小さくすることを目的とする。
 一態様における、複数の画像を重ねて示す重畳画像を画像処理する画像処理装置は、少なくともストローク画像と、背景画像とを重畳して前記重畳画像を生成する画像処理部と、前記重畳画像を示す画像データを記憶する記憶先が、前記画像処理装置に接続される外部装置であるか否かを判定する判定部と、前記判定部によって前記記憶先が前記外部装置であると判定されると、前記画像データを変更する変更部とを備える。
 本発明の画像処理装置は、上記構成を採用することにより、外部装置に記憶させる画像データ等のデータ容量を小さくすることができる効果を奏する。
本実施形態の画像処理システムの一例を示す全体構成図である。 電子黒板のハードウェア構成の一例を示すブロック図である。 電子黒板の機能構成の一例を示す機能ブロック図である。 ファイル処理部の一例を示す機能ブロック図である。 サーバ部及び送信制御部の一例を示す機能ブロック図である。 各画像レイヤの一例の構成図である。 各電子黒板の処理の一例を示すシーケンス図(その1)である。 各電子黒板の処理の一例を示すシーケンス図(その2)である。 電子黒板による判定及び変更の処理の一例を示すフローチャートである。 電子黒板が表示するファイル操作メニューを示す図の一例である。 ファイル操作における記憶先を入力するためのGUIを示す図の一例である。 変更に係る設定を入力するためのオプション設定画面を示す図の一例である。 コードを入力するコード入力画面を示す図の一例である。
 以下、図面を用いて、本発明の一実施形態を説明する。
 <システムの概要>
 図1は、本実施形態の画像処理システムの一例を示す全体構成図である。なお、図1では、説明を簡略化するために、2台の電子黒板2a、2b及びこれに付随する電子ペン4a、4b等を示しているだけであって、3台以上の電子黒板又は電子ペン等が、利用されてもよい。
 図1に示すように、画像処理システム1は、複数の電子黒板2a、2b、複数の電子ペン4a、4b、USBメモリ5a、5b、ノートPC(Personal Computer)6a、6b、テレビ(ビデオ)会議端末7a、7b及びPC8を有する。また、電子黒板2a、2b及びPC8は、通信ネットワーク9を介して通信可能に接続される。さらに、複数の電子黒板2a、2bには、それぞれディスプレイ3a、3bが設けられる。
 また、電子黒板2aは、電子ペン4aによって生じたイベント(ディスプレイ3aに対して、電子ペン4aのペン先又は電子ペン4aのペン尻によるタッチ)で描画される画像を、ディスプレイ3aに表示させることができる。なお、電子ペン4aだけでなく、ユーザの手Ha等によって生じるイベント(拡大、縮小又はページめくり等のジェスチャ)に基づいて、電子黒板2aは、ディスプレイ3a上に表示されている画像を変更することもできる。
 また、電子黒板2aには、USBメモリ5aが接続可能であり、電子黒板2aは、USBメモリ5aからPDF等の電子ファイルを読み出したり、電子黒板2aは、USBメモリ5aに電子ファイルを記憶したりできる。また、電子黒板2aには、DisplayPort、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)及びVGA(Video Graphics Array)等の規格による通信が可能なケーブル10a1を介して、ノートPC6aが接続される。そして、電子黒板2aは、ディスプレイ3aに対する接触によってイベントを発生させ、このイベントを示すイベント情報を、マウス又はキーボード等の入力装置からのイベントと同様に、ノートPC6aに送信する。同じく、電子黒板2aには、上記規格による通信が可能なケーブル10a2を介して、テレビ(ビデオ)会議端末7aが接続される。なお、ノートPC6a及びテレビ会議端末7aは、Bluetooth(登録商標)等の各種無線通信プロトコルに準拠した無線通信により、電子黒板2aと通信してもよい。
 一方、電子黒板2bが設置される他の拠点では、上記と同様に、ディスプレイ3bを備える電子黒板2b、電子ペン4b、USBメモリ5b、ノートPC6b、テレビ会議端末7b、ケーブル10b1及びケーブル10b2が利用される。さらに、ユーザの手Hb等によって生じるイベントに基づいて、電子黒板2bは、ディスプレイ3b上に表示されている画像を変更することもできる。
 これにより、ある拠点で、電子黒板2aが有するディスプレイ3a上に描画された画像は、他の拠点で電子黒板2bが有するディスプレイ3b上に表示される。逆に、他の拠点で電子黒板2bが有するディスプレイ3b上に描画された画像は、ある拠点で電子黒板2aが有するディスプレイ3a上に表示される。このように、画像処理システム1は、遠隔地において同じ画像を共有する遠隔共有処理を行うことができるため、遠隔地での会議等に用いると、便利である。
 <用語について>
 なお、以下の例では、複数の電子黒板のうち、任意の電子黒板を示す場合には「電子黒板2」という。また、複数のディスプレイのうち、任意のディスプレイを示す場合には「ディスプレイ3」という。さらに、複数の電子ペンのうち、任意の電子ペンを示す場合には「電子ペン4」という。さらにまた、複数のUSBメモリのうち、任意のUSBメモリを示す場合には「USBメモリ5」という。他にも、複数のノートPCのうち、任意のノートPCを示す場合には「ノードPC6」という。また、複数のテレビ会議端末のうち、任意のテレビ会議端末を示す場合には「テレビ会議端末7」という。さらに、複数のユーザの手のうち、任意の手を示す場合には「手H」という。さらにまた、複数のケーブルのうち、任意のケーブルを示す場合には「ケーブル10」と示す。
 また、以下の説明では、画像処理装置が電子黒板である例を説明する。ただし、画像処理装置は、これに限られない。例えば、画像処理装置は、電子看板(デジタルサイネージ)、スポーツ若しくは天気予報等で利用されるテレストレータ又は遠隔画像(映像)診断装置等であってもよい。また、以下の説明では、情報処理端末がノートPC6である例で説明する。ただし、情報処理端末は、これに限られない。例えば、情報処理端末は、デスクトップ型PC、タブレット型PC、PDA、デジタルビデオカメラ、デジタルカメラ又はゲーム機等の画像フレームを供給可能な端末であってもよい。さらに、通信ネットワークには、インターネット、LAN(Local Area Network)、携帯電話通信網等が含まれる。そして、通信ネットワークは、セキュリティを高めるため、VPN(Vietual Private Network)を用いてインターネットと接続してもよい。また、以下の説明では、記録媒体がUSBメモリである例を説明する。ただし、記録媒体は、これに限られない。例えば、記録媒体は、SD(登録商標)カード等の他の種類の記録メディアであってもよい。
 また、以下の説明では、画像処理装置を電子黒板とする例で説明するが、これに限るものではなく、例えば、画像処理装置が電子黒板に接続される情報処理端末であってもよい。
 ユーザが電子黒板に手書きで書く文字、図形、数字、記号、線又はこれらの組み合わせを示す画像をストローク画像という。
 <電子黒板のハードウェア構成例>
 以下、本実施形態の電子黒板のハードウェア構成例を説明する。
 図2は、電子黒板のハードウェア構成の一例を示すブロック図である。
 図示するように、電子黒板2は、電子黒板2全体の動作を制御するCPU(Central Processing Unit)101を有する。また、電子黒板2は、IPL(Initial Program Loader)等のCPU101の駆動に用いられるプログラムを記憶したROM(Read-Only Memory)102を有する。さらに、電子黒板2は、CPU101のワークエリアとして使用されるRAM(Random Access Memory)103を有する。さらにまた、電子黒板2は、電子黒板2用のプログラム等の各種データを記憶するSSD(Solid State Drive)104を有する。また、電子黒板2は、通信ネットワーク9を用いる通信を制御するネットワークコントローラ105及びUSBメモリ5等の外部装置との通信を制御する外部記憶コントローラ106を有する。
 さらに、電子黒板2は、ノートPC6が有するディスプレイ等に表示される映像情報を静止画又は動画として取得し、表示するキャプチャデバイス111を有する。さらにまた、電子黒板2は、グラフィクスを専門に扱うGPU(Graphics Processing Unit)112を有する。また、電子黒板2は、GPU112から送られる出力画像をディスプレイ3及びテレビ会議端末7へ出力するために、画面表示の制御及び管理を行うディスプレイコントローラ113を有する。
 他にも、電子黒板2は、接触センサ115による処理を制御するセンサコントローラ114及びディスプレイ3上に電子ペン4若しくはユーザの手H等が接触したことを検知する接触センサ115を有する。この接触センサ115は、例えば、赤外線遮断方式によって、座標の入力及び座標の検知を行う。この座標の入力及び座標を検知する方法では、まず、ディスプレイ3の上側両端部に設置される2つ受発光装置が、ディスプレイ3に平行して複数の赤外線を放射する。次に、ディスプレイ3の周囲に設けられる反射部材によって赤外線が反射され、受光素子が放射した光の光路と同一の光路上を戻って来る光を受発光装置が受光する。このようにして、接触センサ115は、手H等の物体によって遮断された2つの受発光装置が放射した赤外線のID(Identification)をセンサコントローラ114に出力し、センサコントローラ114が、物体の接触位置である座標位置を特定する。なお、以下に示す全ての各IDは、識別情報の一例である。
 また、接触センサ115は、赤外線遮断方式を用いる装置に限られない。例えば、接触センサ115は、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル又は対向する2の抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル等でもよい。他にも、接触センサ115は、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネル等でもよい。すなわち、接触センサ115は、種々の検知手段を用いてもよい。
 また、電子黒板2は、電子ペンコントローラ116を有する。この電子ペンコントローラ116は、電子ペン4と通信することで、ディスプレイ3に対するペン先のタッチ又はペン尻のタッチの有無を判断する。なお、電子ペンコントローラ116が、電子ペン4のペン先及びペン尻だけでなく、電子ペン4のユーザが握る部分又はその他の電子ペンが有する部分のタッチの有無を判断するようにしてもよい。
 さらに、電子黒板2は、CPU101、ROM102、RAM103、SSD104、ネットワークコントローラ105、外部記憶コントローラ106、キャプチャデバイス111、GPU112、センサコントローラ114及び電子ペンコントローラ116を電気的に接続するためのアドレスバス及びデータバス等のバスライン120を備える。
 なお、電子黒板2用のプログラムは、CD-ROM等のコンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。
 <電子黒板の機能構成例>
 以下、電子黒板の機能構成の一例を説明する。まず、図3を用いて、電子黒板2の全体的な機能構成例を説明する。
 図3は、電子黒板の機能構成の一例を示す機能ブロック図である。
 電子黒板2は、図2に示すハードウェア構成及びプログラムによって、各機能構成を実現する。なお、電子黒板2は、最初に遠隔共有処理を開始する「主催装置」となり得ると共に、既に開始された遠隔共有処理に後から参加する「参加装置」にもなり得る。そのため、電子黒板2は、図示するように、主に、クライアント部20及びサーバ部90の両方を備える。なお、クライアント部20及びサーバ部90は、例えば、電子黒板2の1台の筐体内で実現される機能である。
 そして、電子黒板2が主催装置となる場合には、この電子黒板2では、クライアント部20と、サーバ部90とが実現される。一方で、電子黒板2が参加装置となる場合には、この電子黒板2では、クライアント部20は実現されるが、サーバ部90は実現されない。すなわち、図1に示す例において、電子黒板2aが主催装置であり、かつ、電子黒板2bが参加装置となる場合には、電子黒板2aが有するクライアント部20は、電子黒板2aが有するサーバ部90を介して、電子黒板2bが有するクライアント部20と通信を行う。一方で、電子黒板2bが有するクライアント部20は、電子黒板2aが有するサーバ部90を介して、電子黒板2aが有するクライアント部20と通信を行う。
 〔クライアント部20の機能構成例〕
 続いて、主に図3乃至図5を用いて、クライアント部20の機能構成の一例を説明する。図3に示すように、クライアント部20は、映像取得部21、座標検知部22、自動調整部23、接触検知部24、イベント振分部25、操作処理部26、ジェスチャ処理部27、映像重畳部28、画像処理部30及び通信制御部60を備える。
 このうち、映像取得部21は、ケーブル10によって接続される映像出力機器が出力する出力映像を取得する。また、映像取得部21は、映像出力機器から画像信号を受信すると、この画像信号を解析して、この画像信号によって形成される映像出力機器の表示画像である画像フレームの解像度又はこの画像フレームの更新頻度等を示す画像情報を導出し、画像取得部31に出力する。
 座標検知部22は、ディスプレイ3上で、ユーザの操作によって生じるイベント(ディスプレイ3上にユーザの手Hがタッチされる等)の座標位置を検知する。また、座標検知部22は、タッチされた面積等を検出してもよい。
 自動調整部23は、例えば、電子黒板2が起動すると起動する。そして、自動調整部23は、接触センサ115(図2)が座標検知部22に座標値等を出力できるようにする。具体的には、自動調整部23は、接触センサ115が行う光センサ方式において、使用されるセンサカメラによる画像処理に用いられるパラメータ等を調整する。
 接触検知部24は、ユーザの操作によって生じるイベント(ディスプレイ3上に電子ペン4のペン先又は電子ペン4のペン尻が押下(タッチ)される等)を検知する。
 イベント振分部25は、座標検知部22によって検知されるイベントの座標位置と、接触検知部24によって検知される検出結果とを、ストローク描画、UI操作又はジェスチャ操作等のイベントに振り分ける。例えば、イベントが生じると、イベントに応じて画像が生成され、画像は、以下のようなレイヤとなる。
 図6は、各画像レイヤの一例の構成図である。
 なお、「ストローク描画」は、図6に示すストローク画像(B)がディスプレイ3(図3)上に表示されている場合に行われるイベントである。例えば、「ストローク描画」は、ユーザがディスプレイ3上で電子ペン4(図3)を押下し、次に、この押下した状態で電子ペン4を移動させ、移動後にディスプレイ3上から電子ペン4を離すまでのイベントである。このストローク描画により、例えば、アルファベット「S」又は「T」等の文字が、電子黒板によって、ディスプレイ3上に描画される。なお、この「ストローク描画」には、画像を描画するだけでなく、既に描画された画像を削除したり、描画された画像を編集したりするイベントが含まれてもよい。
 「UI操作」は、図6に示すUI画像(A)がディスプレイ3上に表示されている場合に行われるイベントである。例えば、「UI操作」は、ユーザが電子ペン4又は手Hによって、所定の位置を押下するイベントである。この「UI操作」により、例えば、電子ペン4によって描画される線の色又は幅等が設定される。
 「ジェスチャ操作」は、図6に示すストローク画像(B)がディスプレイ3上に表示されている場合に行われるイベントである。例えば、「ジェスチャ操作」は、ユーザが手Hでディスプレイ3上をタッチしたり、移動させたりするイベントである。この「ジェスチャ操作」により、例えば、ユーザがディスプレイ3に手Hをタッチさせた状態で、手Hを移動させると、電子黒板は、画像の拡大(又は縮小)、表示領域の変更又はページ切り換え等を行うことができる。
 図3に戻り、操作処理部26は、イベント振分部25によって「UI操作」と判断されると、「UI操作」の対象となったUIの要素に基づいて、各種操作に対応する処理を実行する。なお、UIの要素は、例えば、ボタン、リスト、チェックボックス又はテキストボックス等のGUIである。
 ジェスチャ処理部27は、イベント振分部25によって「ジェスチャ操作」と判断されると、入力される「ジェスチャ」操作の種類に対応する処理を実行する。
 映像重畳部28は、表示重畳部36によって重畳される画像を映像出力機器(ディスプレイ3等)に出力する。また、映像重畳部28は、映像出力機器(ノートPC6等)から送られる映像に対して、他の映像出力機器(テレビ会議端末7等)から送られる映像をピクチャ・イン・ピクチャする。さらに、映像重畳部28は、ピクチャ・イン・ピクチャされ、ディスプレイ3の一部に表示された映像を、ディスプレイ3の全体に表示させるように切り替える。
 画像処理部30は、例えば、図6に示す各画像レイヤを重畳する重畳処理等の画像処理を行う。すなわち、重畳処理によって生成される画像(以下「重畳画像」という。)は、複数の画像を重ねて示す画像である。また、画像処理部30は、画像取得部31、ストローク処理部32、UI画像生成部33、背景生成部34、レイアウト管理部35、表示重畳部36、ページ処理部37、ファイル処理部40、ページデータ記憶部300及び遠隔ライセンス管理テーブル310を有する。
 画像取得部31は、映像取得部21によって取得される映像から各フレームを画像として取得する。また、画像取得部31は、画像データをページ処理部37に出力する。この画像は、映像出力機器(ノートPC6等)からの出力画像であり、図6に示す例では、出力画像(C)に相当する。
 ストローク処理部32は、イベント振分部25によって振り分けられる「ストローク描画」のイベントが起こると、画像を描画したり、描画された画像を削除したり又は描画された画像を編集したりする。この「ストローク描画」による画像は、例えば、図6に示すストローク画像(B)等である。また、この「ストローク描画」に基づく画像の描画、削除又は編集等の各結果は、操作データとして、操作データ記憶部840(図5)に記憶される。
 UI画像生成部33は、電子黒板2にあらかじめ設定されるUI(ユーザインターフェース)画像を生成する。なお、UI画像は、例えば、図6に示すUI画像(A)等である。
 背景生成部34は、ページ処理部37がページデータ記憶部300から読み出すページデータのうち、メディアデータをページ処理部37から受信する。また、背景生成部34は、受信するメディアデータを表示重畳部36に出力する。なお、メディアデータによる画像は、例えば、図6に示す背景画像(D)等である。また、背景画像(D)は、無地又はグリッド表示等を示す画像である。また、背景画像(D)は、キャプチャされた画像等でもよい。すなわち、背景画像(D)は、文書又はプレゼンテーション資料等を示す画像等でもよい。また、背景画像データは、背景画像(D)を示すデータである。
 なお、ストローク画像(C)及び背景画像(D)は、重畳して生成される重畳画像では、ストローク画像(C)が背景画像(D)より手前(図6では、左側)となる。したがって、重畳画像では、ストローク画像が示す手書きの文字等が、背景画像が示す資料等より手前に表示される。
 レイアウト管理部35は、表示重畳部36に対して、画像取得部31、ストローク処理部32及びUI画像生成部33(又は背景生成部34)から出力される各画像のレイアウトを管理する。これにより、レイアウト管理部35は、表示重畳部36に対して、出力画像(C)及びストローク画像(B)を、UI画像(A)及び背景画像(D)中のどの位置に表示させるか又は非表示にさせるかを指示することができる。
 表示重畳部36は、レイアウト管理部35から出力されるレイアウトの指示に基づき、画像取得部31、ストローク処理部32及びUI画像生成部33(背景生成部34)から出力される各画像のレイアウトを行う。
 ページ処理部37は、例えば、ストローク画像(B)を示すデータと、出力画像(C)を示すデータを、1つのページデータにまとめてページデータ記憶部300に記憶する。なお、ストローク画像(B)を示すデータは、例えば、ストローク配列データIDで示されるストローク配列データ(各ストロークデータ)として、ページデータの一部を成す。また、出力画像(C)を示すデータは、メディアデータIDで示されるメディアデータとして、ページデータの一部を成す。そして、このメディアデータは、ページデータ記憶部300から読み出されると、背景画像(D)のデータとして取り扱われる。
 また、ページ処理部37は、背景生成部34を介して、記憶されるページデータのうち、メディアデータを表示重畳部36に送信する。このようにすると、映像重畳部28が、背景画像(D)をディスプレイ3に再表示させる。また、ページ処理部37は、ページデータのうち、ストローク配列データ(各ストロークデータ)を、ストローク処理部32に戻すことで、ストロークの再編集ができる状態にすることができる。さらに、ページ処理部37は、ページデータを削除したり複製したりすることもできる。
 すなわち、ページ処理部37がページデータ記憶部300にページデータを記憶すると、ディスプレイ3上に表示されている出力画像(C)を示すデータは、ページデータ記憶部300に記憶される。その後、出力画像(C)を示すデータは、ページデータ記憶部300から読み出される場合には、背景画像(D)を示すメディアデータとして読み出される。そして、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、ストローク画像(B)を示すストローク配列データを、ストローク処理部32に出力する。また、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、背景画像(D)を示すメディアデータを、背景生成部34に出力する。
 表示重畳部36は、画像取得部31からの出力画像(C)、ストローク処理部32からのストローク画像(B)、UI画像生成部33からのUI画像(A)及び背景生成部34からの背景画像(D)を、レイアウト管理部35による指示に従って重畳する。これにより、例えば、図6に示すように、画像は、各画像が重なってもユーザ(図6では左側から)が見える順に、UI画像(A)、ストローク画像(B)、出力画像(C)及び背景画像(D)の各レイヤの構成となる。
 また、表示重畳部36は、図6に示す画像(C)と、画像(D)とを切り替えて、画像(A)及び画像(B)に対して排他的に重畳することも可能である。例えば、当初、画像(A)、画像(B)及び画像(C)が表示される状態において、電子黒板2と映像出力機器(ノートPC6等)との間のケーブル10が抜かれた場合には、レイアウト管理部35の指定によって、画像(C)を重畳対象から外し、画像(D)を表示させることができる。この場合には、表示重畳部36は、表示の拡大、表示の縮小又は表示領域の移動処理等を行ってもよい。
 ページデータ記憶部300は、例えば、下記(表1)に示すようなページデータを記憶する。
Figure JPOXMLDOC01-appb-T000001
 上記(表1)に示すページデータは、ディスプレイ3に表示される1ページ分のデータ(ストローク配列データ(各ストロークデータ)及びメディアデータ)である。なお、ページデータに含まれるパラメータの種類が多いため、以下、複数の表に分けて説明する。
 ページデータは、上記(表1)に示すように、任意の1ページを識別するため、以下のようなデータを関連付けて記憶する。記憶されるデータは、例えば、ページデータID、このページの表示を開始した時刻を示す開始時刻及びストローク若しくはジェスチャ等によるページの内容の書き換えが終了した時刻を示す終了時刻等である。他にも、記憶されるデータは、電子ペン4若しくはユーザの手Hによるストロークによって生じるストローク配列データを識別するためのストローク配列データID等である。さらに、記憶されるデータは、メディアデータを識別するためのメディアデータID等である。なお、ストローク配列データは、図6に示すストローク画像(B)をディスプレイ3上に表示するためのデータである。また、メディアデータは、図6に示す背景画像(D)をディスプレイ3上に表示するためのデータである。
 例えば、ユーザが電子ペン4によって、アルファベットの「S」の文字を描く場合は、一筆書きとなる。この場合には、ページデータでは、ストロークデータIDが1つで一文字のアルファベットの「S」が示される。一方で、ユーザが電子ペン4によって、アルファベットの「T」の文字を描く場合は、二筆書きとなる。そのため、ページデータでは、ストロークデータIDが2つで一文字のアルファベット「T」が示される。
 また、ストローク配列データは、例えば、下記(表2)に示すデータである。
Figure JPOXMLDOC01-appb-T000002
 上記(表2)に示すように、1つのストローク配列データは、複数のストロークデータによって示される。なお、上記(表2)は、1行が1つのストロークデータである例を示す。そして、1つのストロークデータは、例えば、各ストロークデータを識別するためのストロークデータIDを有する。また、1つのストロークデータは、1つのストロークの書き始めの時刻を示す開始時刻及び1つのストロークの書き終わりの時刻を示す終了時刻を有する。さらに、1つのストロークデータは、ストロークの色、ストロークの幅及びストロークの通過点の配列を識別するための座標配列データIDを有する。
 また、上記(表2)に示す例において、「座標配列データID」で特定される座標配列データは、例えば、下記(表3)に示すデータである。
Figure JPOXMLDOC01-appb-T000003
 上記(表3)では、座標配列データは、ディスプレイ3上の1点(X座標値及びY座標値)、ストロークの開始時刻から座標値が示す点を通過した時刻の差分となる差分時刻(ms)及びストロークが描画された際の電子ペン4の筆圧等を示す。すなわち、上記(表3)に示す1点の集まりが、上記(表2)に示す1つの座標配列データを示す。例えば、ユーザが電子ペン4によってアルファベットの「S」の文字を描く場合、すなわち、一筆書きの場合には、「S」を描くのに複数の通過点を通過する。そのため、座標配列データは、これら複数の通過点に係るデータを示す。
 また、上記(表1)に示すページデータのうち、メディアデータは、例えば、下記(表4)に示すデータである。
Figure JPOXMLDOC01-appb-T000004
 上記(表4)に示すように、メディアデータは、上記(表1)に示すページデータにおけるメディアデータIDに関連付けして各データを記憶する。上記(表4)に示す例では、関連付けされて記憶されるデータは、メディアデータのデータ種類及びページ処理部37からページデータ記憶部300にページデータが記憶された記録時刻等である。また、関連付けされて記憶されるデータは、ページデータによってディスプレイ3上に表示される画像の位置(X座標値及びY座標値)、画像のサイズ(幅及び高さ)及びファイル名等である。このうち、ページデータによってディスプレイ3上に表示される画像の位置は、ディスプレイ3の左上端の座標を(X座標値,Y座標値)=(0,0)とした場合に、ページデータによって表示される画像の左上端の位置を示す。
 図3に戻り、遠隔ライセンス管理テーブル310は、遠隔共有処理を実行するために必要なライセンスデータを管理する。なお、ライセンスデータは、例えば、下記(表5)に示す遠隔ライセンス管理テーブル310等である。
Figure JPOXMLDOC01-appb-T000005
 上記(表5)に示す遠隔ライセンス管理テーブル310の例では、電子黒板2のプロダクトID、認証に用いられるライセンスID及びライセンスの有効期限等が、関連付されて管理される。
 (ファイル処理部40の機能構成例)
 以下、図3に示すファイル処理部40の機能構成例を説明する。
 図4は、ファイル処理部の一例を示す機能ブロック図である。例えば、ファイル処理部40は、リカバリ処理部41、ファイル入力部42a、ファイル出力部42b及びファイル変換部43を有する。また、ファイル処理部40は、ファイル送信部44、アドレス帳入力部45、バックアップ処理部46、バックアップ出力部47、設定管理部48、設定ファイル入力部49a及び設定ファイル出力部49bを有する。さらに、ファイル処理部40は、アドレス帳管理テーブル410、バックアップデータ記憶部420、設定ファイル記憶部430及び接続先管理テーブル440を有する。
 リカバリ処理部41は、電子黒板2が異常終了すると、異常終了を検出し、未保存のページデータを復旧する。例えば、正常終了であると、ページデータは、PDF等のファイル形式で、ファイル処理部40を介してUSB5に記憶される。一方で、電源がダウンした等の異常終了であると、ページデータがページデータ記憶部300に記憶されたままとなる。そのため、再び、電源オンになった際に、リカバリ処理部41は、ページデータ記憶部300からページデータを読み出して復旧させる。
 ファイル入力部42aは、USBメモリ5から、PDFファイル等を読み込み、各ページをページデータとしてページデータ記憶部300に記憶する。
 ファイル変換部43は、ページデータ記憶部300に記憶されるページデータをPDF等のファイル形式に変換する。
 ファイル出力部42bは、ファイル変換部43によって出力されるPDFファイルをUSBメモリ5に記録する。
 ファイル送信部44は、ファイル変換部43によって生成されるPDFファイルを、電子メールに添付して送信する。例えば、まず、表示重畳部36(図3)によって、ディスプレイ3上にアドレス帳管理テーブル410が表示される。次に、ユーザによるタッチパネル等の入力装置を用いる操作で入力される送信先、すなわち、宛先の選択を電子黒板が受け付けると、送信先が決定される。なお、アドレス帳管理テーブル410は、例えば、下記(表6)に示すデータである。
Figure JPOXMLDOC01-appb-T000006
 上記(表6)に示すように、アドレス帳管理テーブル410では、宛先の名前及び宛先となる電子メールのメールアドレス等が関連付けされて管理される。また、ファイル送信部44は、ユーザによるタッチパネル等の入力装置を用いる操作により、メールアドレスを示す文字入力を受け付けてもよい。
 アドレス帳入力部45は、USBメモリ5から電子メールアドレスの一覧ファイルを読み込み、アドレス帳管理テーブル410に管理する。
 バックアップ処理部46は、ファイル出力部42bによって出力されるファイル又はファイル送信部44によって送信されるファイルをバックアップデータ記憶部420に記憶してバックアップする。なお、ユーザがバックアップしないように設定する場合には、バックアップの処理は、行われなくともよい。なお、バックアップデータは、例えば、下記(表7)に示すようなデータである。
Figure JPOXMLDOC01-appb-T000007
 上記(表7)に示す例では、PDF形式で各データを記憶して、各バックアップが行われる例である。
 バックアップ出力部47は、バックアップされたファイルをUSBメモリ5に記憶する。この記憶の際には、ユーザによるタッチパネル等の入力装置の操作により、セキュリティのためにパスワード等が入力される。
 設定管理部48は、電子黒板2が有する設定データを設定ファイル記憶部430に記憶したり、読み出したりして管理する。具体的には、設定データは、例えば、ネットワーク設定、日付並びに時刻の設定、地域並びに言語の設定、メールサーバの設定、アドレス帳の設定、接続先リストの設定又はバックアップに関する設定等を示す。なお、ネットワーク設定は、例えば、電子黒板2のIPアドレスの設定、ネットマスクの設定、デフォルトゲートウェイの設定又はDNS(Domain Name System)の設定等である。
 設定ファイル出力部49bは、電子黒板2に係る設定データを設定ファイルとしてUSBメモリ5に記憶する。なお、設定ファイルは、セキュリティによって、ユーザは、中身を見ることができないようにされてもよい。
 設定ファイル入力部49aは、USBメモリ5に記憶される設定ファイルを読み込み、電子黒板に係る設定に反映させる。
 アドレス帳入力部50は、USBメモリ5から遠隔共有処理の接続先IPアドレスを示す接続先リストのファイルを読み込み、接続先管理テーブル440に管理する。例えば、接続先リストは、下記(表8)に示すデータ等である。
Figure JPOXMLDOC01-appb-T000008
 上記(表8)に示す接続先リストを用いると、電子黒板2が参加装置である場合には、この参加装置のユーザは、主催装置としての役割を果たす電子黒板のIPアドレスを入力する手間を削減できる。そのため、接続先リストは、接続先管理テーブル440等で管理される。また、接続先管理テーブル440には、参加することが可能な主催装置である電子黒板2が設置されている拠点の名称及び主催装置のIPアドレスが、関連付けて管理される。
 なお、接続先管理テーブル440は、無くてもよい。ただし、この場合には、参加装置のユーザは、主催装置との間で遠隔要求処理の開始するために、タッチパネル等の入力装置によって、主催装置のIPアドレスを入力する。そのため、参加装置のユーザは、電話又は電子メール等によって、主催装置のユーザから、主催装置のIPアドレスを知得する。
 (通信制御部60の機能構成例)
 以下、図3に示す通信制御部60の機能構成例を説明する。
 図5は、サーバ部及び送信制御部の一例を示す機能ブロック図である。例えば、通信制御部60は、通信ネットワーク9を介して、他の電子黒板2との通信又はサーバ部90における通信制御部70との通信を制御する。
 そのため、通信制御部60は、遠隔開始処理部61、遠隔参加処理部62、遠隔画像送信部63、遠隔画像受信部64、遠隔操作送信部65、遠隔操作受信部66及び参加拠点管理テーブル610を有する。
 遠隔開始処理部61は、同じ電子黒板2が有するサーバ部90に対して、新たに遠隔共有処理を開始する要求を行い、サーバ部90から要求の結果を受信する。この場合には、遠隔開始処理部61は、遠隔ライセンス管理テーブル310を参照する。具体的には、遠隔開始処理部61は、ライセンス情報(プロダクトID、ライセンスID及び有効期限等)が管理されている場合には、ライセンス情報を参照し、遠隔共有処理を開始する要求を行うことができる。一方で、ライセンス情報が管理されていない場合には、遠隔開始処理部61は、遠隔共有処理を開始する要求が制限される。
 参加拠点管理テーブル610は、電子黒板が主催装置である場合には、現在、遠隔共有処理に参加している参加装置を管理するテーブルである。例えば、参加拠点管理テーブル610は、下記(表9)に示すデータである。
Figure JPOXMLDOC01-appb-T000009
 上記(表9)に示すように、参加拠点管理テーブル610では、参加中の電子黒板2が設置されている拠点の名称及び当該電子黒板2のIPアドレスが、関連付されて管理される。
 遠隔参加処理部62は、通信ネットワーク9を介して、既に遠隔共有処理を開始している主催装置が有するサーバ部90における遠隔接続要求受信部71に対して参加要求を行う。なお、参加要求の際には、遠隔参加処理部62は、遠隔ライセンス管理テーブル310を参照する。また、遠隔参加処理部62は、既に開始されている遠隔共有処理に参加する場合には、接続先管理テーブル440を参照して参加先となる電子黒板2のIPアドレスを取得する。なお、遠隔参加処理部62によって接続先管理テーブルが参照されず、ユーザによるタッチパネル等の入力装置の操作により、参加先となる電子黒板2のIPアドレスが数字で入力されてもよい。
 遠隔画像送信部63は、映像取得部21(図3)から画像取得部31を介して送られる出力画像(C)を、サーバ部90に送信する。
 遠隔画像受信部64は、サーバ部90から、他の電子黒板2に接続された映像出力機器から送信される画像データを受信し、表示重畳部36に出力する。これにより、電子黒板は、遠隔共有処理を実現する。
 遠隔操作送信部65は、遠隔共有処理に用いる操作データをサーバ部90に送信する。例えば、操作データは、ストロークの追加、ストロークの削除、ストロークの編集(拡大、縮小又は移動)、ページデータの記憶、ページデータの作成、ページデータの複製、ページデータの削除又は表示されているページの切り替えに関するデータである。
 遠隔操作受信部66は、サーバ部90から、他の電子黒板2に入力される操作データを受信し、画像処理部30に出力して遠隔共有処理を実現する。
 また、クライアント部20は、図3に示すように、判定部20A1と、変更部20A2とを備える。
 判定部20A1は、画像処理部30が生成する画像データ等を記憶する記憶領域、いわゆる保存先(以下「記憶先」という。)がUSBメモリ5等の外部装置であるか否かを判定する。
 変更部20A2は、判定部20A1によって、記憶先が外部装置と判定されると、記憶される画像データを変更して、記憶先に変更された画像データが記憶されるようにする。
 なお、判定部20A1及び変更部20A2は、例えば、CPU101(図2)等によって実現される。また、判定部20A1及び変更部20A2による処理の詳細は、後述する。
 〔サーバ部90の機能構成例〕
 以下、サーバ部90の機能構成例について説明する。
 サーバ部90は、例えば、各電子黒板2に設けられる。すなわち、いずれの電子黒板2であっても、電子黒板2は、サーバとしての役割を果たすことができる。そのため、サーバ部90は、通信制御部70及びデータ管理部80を有する。
 〔通信制御部70の機能構成例〕
 以下、通信制御部70の機能構成例について説明する。
 通信制御部70は、同じ電子黒板2内のクライアント部20における通信制御部70及び通信ネットワーク9を介して他の電子黒板2内のクライアント部20における通信制御部70との通信を制御する。データ管理部80は、操作データや画像データ等を管理する。
 通信制御部70は、遠隔接続要求受信部71、遠隔接続結果送信部72、遠隔画像受信部73、遠隔画像送信部74、遠隔操作受信部75及び遠隔操作送信部76を有する。
 遠隔接続要求受信部71は、遠隔開始処理部61からの遠隔共有処理の開始要求を受信したり、遠隔参加処理部62からの遠隔共有処理に対する参加要求を受信したりする。
 遠隔接続結果送信部72は、遠隔開始処理部61へ遠隔共有処理の開始要求の結果を送信したり、遠隔参加処理部62へ遠隔共有処理に対する参加要求の結果を送信したりする。
 遠隔画像受信部73は、遠隔画像送信部63からの画像データ(図6に示す出力画像(C)のデータ等)を受信し、遠隔画像処理部82に送信する。
 遠隔画像送信部74は、遠隔画像処理部82から画像データを受信し、遠隔画像受信部64に対して、画像データ(図6に示す出力画像(C)のデータ等)を送信する。
 遠隔操作受信部75は、遠隔操作送信部65からの操作データ(図6に示すストローク画像(B)等のデータ等)を受信し、遠隔操作処理部83に送信する。
 遠隔操作送信部76は、遠隔操作処理部83から操作データを受信し、遠隔操作受信部66に対して、操作データ(図6に示すストローク画像(B)等のデータ等)を送信する。
 〔データ管理部80の機能構成例〕
 以下、データ管理部80の機能構成例を説明する。
 データ管理部80は、遠隔接続処理部81、遠隔画像処理部82、遠隔操作処理部83、操作合成処理部84及びページ処理部85を有する。さらに、サーバ部90は、パスコード管理部810、参加拠点管理テーブル820、画像データ記憶部830、操作データ記憶部840及びページデータ記憶部850を有する。
 遠隔接続処理部81は、遠隔共有処理の開始及び遠隔共有処理の終了を行う。また、遠隔接続処理部81は、遠隔接続要求受信部71が、受信するライセンス情報に基づいて、ライセンスの有無又はライセンスの期間内であるか否か等を確認する。なお、ライセンス情報は、遠隔開始処理部61から遠隔共有処理の開始要求と共に受信する又は遠隔参加処理部62から遠隔共有処理の参加要求と共に受信する。さらに、遠隔接続処理部81は、クライアント部20としての他の電子黒板2からの参加要求があらかじめ定められる参加可能数を超えていないか否か等を確認する。
 また、遠隔接続処理部81は、他の電子黒板2から遠隔共有処理に対する参加要求の際に送られるパスコードが、パスコード管理部810で管理されるパスコードと同じであるか否かを判断し、同じである場合には、遠隔共有処理の参加を許可する。なお、このパスコードは、新たに遠隔共有処理を開始する際に、遠隔接続処理部81によって発行される。そして、遠隔共有処理に参加しようとする参加装置としての電子黒板2のユーザは、主催装置としての電子黒板2のユーザから、電話又は電子メール等によって伝えられる。これにより、遠隔共有処理に参加しようとする参加装置のユーザが、タッチパネル等の入力装置によって、参加装置にパスコードを入力して参加要求すると、参加が許可されることになる。なお、主催装置は、セキュリティよりもユーザの使い勝手を優先して、パスコードの確認を省略してもよい。
 また、主催装置である場合には、遠隔接続処理部81は、参加装置の遠隔参加処理部62から通信ネットワーク9を介して送られる参加要求に含まれる参加拠点情報を、サーバ部90の参加拠点管理テーブル820に記憶する。そして、遠隔接続処理部81は、参加拠点管理テーブル820に記憶されている遠隔拠点情報を読み出し、遠隔接続結果送信部72に送信する。
 遠隔接続結果送信部72は、同じ主催装置のクライアント部20における遠隔開始処理部61に遠隔拠点情報を送信する。また、遠隔開始処理部61は、参加拠点管理テーブル610に、遠隔拠点情報を記憶する。これにより、主催装置は、クライアント部20及びサーバ部90の両方で、遠隔拠点情報を管理する。
 遠隔画像処理部82は、遠隔共有処理に参加中の各電子黒板2が有するクライアント部(主催装置である電子黒板が有するクライアント部を含む。)に接続される映像出力機器(ノートPC6等)からの画像データ(図6に示す出力画像(C))を受信する。また、主催装置となる電子黒板2は、受信した画像データを画像データ記憶部830に記憶する。さらに、主催装置となる電子黒板2は、サーバ部90に送られた時間順で遠隔共有処理すべき画像データの表示順を判定する。
 遠隔画像処理部82は、参加拠点管理テーブル820を参照する。そして、遠隔画像処理部82は、遠隔共有処理に参加中の電子黒板2が有するクライアント部(主催装置となる電子黒板が有するクライアント部を含む。)に、通信制御部70(遠隔画像送信部74)を介して、上記判定した順番で画像データを送信する。
 遠隔操作処理部83は、遠隔共有処理に参加中の各電子黒板2が有するクライアント部(主催装置となる電子黒板が有するクライアント部を含む。)で描画されたストローク画像等の各種操作データ(図6に示すストローク画像(B)等)を受信する。そして、遠隔操作処理部83は、主催装置となる電子黒板2が有するサーバ部90に、操作データが届いた時間順で遠隔共有処理すべき画像の表示順を判定する。なお、各種操作データは、上記各種操作データと同じである。また、遠隔操作処理部83は、参加拠点管理テーブル820を参照し、遠隔共有処理に参加中の電子黒板2が有するクライアント部(主催装置となる電子黒板が有するクライアント部を含む。)に操作データを送信する。
 操作合成処理部84は、遠隔操作処理部83から出力された各電子黒板2の操作データを合成し、この合成結果としての操作データを、操作データ記憶部840に記憶する。さらに、操作合成処理部84は、合成した操作データを遠隔操作処理部83に送る。この操作データは、遠隔操作送信部76から、主催装置となる電子黒板が有するクライアント部及び参加装置となる電子黒板が有するクライアント部のそれぞれに送信される。これにより、各電子黒板2では、同じ操作データに係る画像が表示される。なお、操作データは、例えば、下記(表10)に示すデータである。
Figure JPOXMLDOC01-appb-T000010
 上記(表10)に示すように、操作データは、SEQ(Sequence)、データの操作名及び操作データの送信元である電子黒板2のIPアドレス等を示す。また、操作データは、クライアント部(サーバ部)のPort No.、操作データの送信先である電子黒板2のIPアドレス及びクライアント部(サーバ部)のPort No.及び操作データの操作種類等を示す。さらに、操作データは、操作データの操作対象及び操作データの内容を示すデータを示す。なお、上記(表10)に示すように、操作データの各項目は、関連付けがされる。例えば、「SEQ1」では、主催装置となる電子黒板(IPアドレス:192.0.0.1)が有するクライアント部(Port No.:50001)でストロークが描画されるとする。この場合には、上記(表10)は、主催装置となる電子黒板(IPアドレス:192.0.0.1)が有するサーバ部(Port No.:50000)に操作データが送られたと示す。なお、この場合の操作種類は、「STROKE」、操作対象は、ページデータID「p005」であり、操作データの内容を示すデータは、ストロークを示すデータである。また、「SEQ2」は、主催装置となる電子黒板(IPアドレス:192.0.0.1)が有するサーバ部(Port No.:50000)から、参加装置となる他の電子黒板(IPアドレス:192.0.0.1)が有するクライアント部(Port No.:50001)に、操作データが送られたことを示す。
 なお、操作合成処理部84は、この操作合成処理部84に操作データが入力された順に合成を行う。そのため、通信ネットワーク9が混雑していなければ、各電子黒板2のユーザによるストローク順に、遠隔共有処理に参加中の全ての電子黒板2が有するディスプレイ3にストローク画像(B)が表示される。
 ページ処理部85は、クライアント部20が有する画像処理部30におけるページ処理部37と同様の機能を有する。そして、サーバ部90でも、上記(表1)乃至(表3)に示すページデータを、ページデータ記憶部850に記憶する。なお、ページデータ記憶部850は、画像処理部30におけるページデータ記憶部300と同じ内容であるため、その説明を省略する。
 <処理例又は動作例>
 以下、本実施形態における処理例又は動作例について説明する。なお、図7及び図8は、各電子黒板による処理の一例を示すシーケンス図である。
 図7及び図8に示す例では、電子黒板2aが、遠隔共有処理を主催する主催装置(サーバ部及びクライアント部)となる。一方で、図7及び図8に示す例では、電子黒板2b、2cが、遠隔共有処理に参加する参加装置(クライアント部)となる。また、ここでは、電子黒板2a、2b、2cには、それぞれディスプレイ3a、3b、3cが接続される。さらに、電子黒板2a、2b、2cには、それぞれノートPC6a,6b,6cが接続される。また、電子黒板2a、2b、2cでは、それぞれ電子ペン4a、4b、4cが、使用される。
 (参加の処理例)
 以下、電子黒板2b,2cが遠隔共有処理に参加するための処理の一例を説明する。
 ユーザの操作によって、電子黒板2aが有する電源スイッチがオンとなると、電子黒板2aが有するクライアント部20が、起動する。そして、ユーザがタッチパネル等の入力装置によってサーバ部90を起動させる操作を入力する。このようにすると、クライアント部20が有する遠隔開始処理部61から、同じ電子黒板2aが有するサーバ部90における遠隔接続要求受信部71に、サーバ部90の処理を開始させる指示が出力される。これにより、電子黒板2aでは、クライアント部20だけでなく、サーバ部90も、各種処理を開始する(ステップS21)。
 次に、電子黒板2aが有するクライアント部20におけるUI画像生成部33が、電子黒板2aとの接続を確立するための接続情報を生成する。そして、映像重畳部28は、UI画像生成部33から表示重畳部36を介して得た接続情報をディスプレイ3aに表示させる(ステップS22)。この接続情報には、主催装置のIPアドレスと、今回の遠隔共有処理のために生成されたパスコードとが含まれる。この場合では、パスコード管理部810に記憶されるパスコードは、図5に示す遠隔接続処理部81によって読み出される。また、パスコードは、遠隔接続結果送信部72及び遠隔開始処理部61の順に送信される。さらに、パスコードは、遠隔開始処理部61を含む通信制御部60から、図3に示す画像処理部30に送信され、最終的にUI画像生成部33に入力される。これにより、接続情報には、パスコードが含まれる。そして、接続情報は、電子黒板2aのユーザによって、電話又は電子メール等により、電子黒板2b、2cのユーザに伝えられる。なお、接続先管理テーブル440があれば、接続情報に主催装置のIPアドレスが含まれなくても、参加装置は、参加要求を行うことができる。
 次に、電子黒板2b、2cでは、各ユーザによるタッチパネル等の入力装置の操作によって接続情報の入力を受け付けると、各電子黒板2a、2bが有するクライアント部20における遠隔参加処理部62は、接続情報のIPアドレスに基づいて、通信ネットワーク9を介して、電子黒板2aが有するサーバ部90における通信制御部70に対してパスコードを送信して参加要求を行う(ステップS23、S24)。これにより、通信制御部70の遠隔接続要求受信部71は、各電子黒板2b、2cから、参加要求(パスコードを含む。)を受信し、このパスコードを遠隔接続処理部81に出力する。
 次に、遠隔接続処理部81は、各電子黒板2b、2cのから受信するパスコードに対し、パスコード管理部810で管理されるパスコードを用いて認証する(ステップS25)。そして、遠隔接続結果送信部72が、各電子黒板2b,2cのクライアント部20に認証結果を通知する(ステップS26、S27)。ステップS25の認証により、各電子黒板2b,2cが正当な電子黒板であると判断されると、主催装置となる電子黒板2aと、参加装置となる電子黒板2b、2cとの遠隔共有処理の通信が確立される。これによって、各電子黒板2b、2cが有するクライアント部20における遠隔参加処理部62が、それぞれ他の電子黒板との間の遠隔共有処理の開始を可能にする(ステップS28、S29)。
 (出力画像の表示例)
 以下、遠隔共有処理における出力画像(C)(図6)が表示される処理の一例を説明する。
 まず、電子黒板2bは、ディスプレイ3b(図1)に出力画像(C)を表示する(ステップS30)。具体的には、電子黒板2bが有する画像取得部31が、ノートPC6b(図1)から映像取得部21(図3)を介して、ノートPC6bで表示されている出力画像(C)を示すデータを受信する。次に、表示重畳部36及び映像重畳部28を介して、受信したデータがディスプレイ3bに送信されると、ディスプレイ3bは、出力画像(C)を表示する。
 次に、電子黒板2bが有する画像取得部31(図3)を含む画像処理部30(図3)が、遠隔画像送信部63(図5)に出力画像(C)のデータを送信する。次に、遠隔画像送信部63を含む通信制御部60(図5)が通信ネットワーク9(図5)を介して、主催装置となる電子黒板2aが有する通信制御部70(図5)に出力画像(C)のデータを送信する(ステップS31)。これにより、電子黒板2aが有する遠隔画像受信部73(図5)は、出力画像(C)のデータを受信する。さらに、遠隔画像受信部73が遠隔画像処理部82(図5)に受信したデータを出力すると、遠隔画像処理部82は、画像データ記憶部830(図5)に出力画像(C)のデータを記憶する。
 次に、主催装置となる電子黒板2aは、ディスプレイ3a(図1)に出力画像(C)を表示する(ステップS32)。具体的には、電子黒板2aが有する遠隔画像処理部82は、遠隔画像受信部73から受信した出力画像(C)のデータを、遠隔画像送信部74に出力する。続いて、遠隔画像送信部74は、同じ主催装置である電子黒板2aが有するクライアント部20における遠隔画像受信部64に、出力画像(C)のデータを出力する。そして、遠隔画像受信部64は、表示重畳部36(図3)に出力画像(C)のデータを出力する。さらに、表示重畳部36は、映像重畳部28(図3)に出力画像(C)のデータを出力する。次に、映像重畳部28は、ディスプレイ3aに出力画像(C)のデータを出力する。これにより、ディスプレイ3aは、出力画像(C)を表示する。
 次に、主催装置である電子黒板2aが有するサーバ部90(図3)における遠隔画像送信部74を含む通信制御部70は、通信ネットワーク9を介して、出力画像(C)のデータを送信する(ステップS33)。なお、送信先は、出力画像(C)のデータの送信元である電子黒板2b以外の電子黒板2cが通信制御部60である。これにより、参加装置である電子黒板2cが有する遠隔画像受信部64は、出力画像(C)のデータを受信する。
 次に、電子黒板2cは、ディスプレイ3cに出力画像(C)を表示する(ステップS34)。具体的には、電子黒板2cの遠隔画像受信部64が、上記ステップS33によって受信された出力画像(C)のデータを、電子黒板2cの表示重畳部36に出力する。表示重畳部36は、映像重畳部28に出力画像(C)のデータを出力する。映像重畳部28はディスプレイ3cに出力画像(C)のデータを出力する。これにより、ディスプレイ3cは、出力画像(C)を表示する。
 なお、出力画像(C)のデータだけでなく、図6に示すUI画像(A)及びストローク画像(B)の各データが、入力されている場合には、表示重畳部36により、重畳画像(A、B、C)が生成される。そして、映像重畳部28は、ディスプレイ3cに重畳画像(A、B、C)のデータを出力する。また、テレビ会議端末7から映像重畳部28に、テレビ会議用の映像(E)のデータが送られた場合には、映像重畳部28は、重畳画像(A,B,C)にピクチャ・イン・ピクチャにより、テレビ会議用の映像(E)のデータを重畳して、ディスプレイ3cに出力する。なお、テレビ会議用の映像(E)は、図3に示すテレビ会議端末7又は通信ネットワーク9(図3)を介して他の端末から受信する出力映像である。
 (重畳画像の表示例)
 以下、図8を用いて、遠隔共有処理における重畳画像が表示される処理の一例を説明する。
 まず、電子黒板2bは、ユーザが電子ペン4bを用いて描画するストロークを示すストローク画像(B)(図6)を描画する(ステップS41)。
 次に、電子黒板2bが有する表示重畳部36(図3)は、図6に示すように、UI画像(A)及び出力画像(C)に対して、ストローク画像(B)を重畳する。このようにして、映像重畳部28は、電子黒板2bのディスプレイ3b(図1)上に、重畳された重畳画像(A、B、C)を表示させる(ステップS42)。具体的には、電子黒板2bが有するストローク処理部32(図3)は、座標検知部22(図3)及び接触検知部24(図3)からイベント振分部25(図3)を介して、操作データとしてのストローク画像(B)のデータを受信する。これにより、各データが表示重畳部36に送信される。そのため、表示重畳部36は、UI画像(A)及び出力画像(C)に対して、ストローク画像(B)を重畳することができる。ゆえに、映像重畳部28は、電子黒板2bのディスプレイ3b上に重畳画像(A、B、C)を表示させることができる。
 次に、電子黒板2bが有するストローク処理部32(図3)を含む画像処理部30が、遠隔操作送信部65(図5)にストローク画像(B)のデータを送信する。さらに、電子黒板2bが有する遠隔操作送信部65は、通信ネットワーク9(図1)を介して、主催装置となる電子黒板2aが有する通信制御部70(図5)にストローク画像(B)のデータを送信する(ステップS43)。これにより、電子黒板2aが有する遠隔操作受信部75(図5)は、ストローク画像(B)のデータを受信する。次に、遠隔操作受信部75は、受信したデータを遠隔操作処理部83に出力することで、遠隔操作処理部83が操作合成処理部84にストローク画像(B)のデータを出力する。このようにして、電子黒板2bで描画されたストローク画像(B)のデータは、描画されるごとに、主催装置となる電子黒板2aが有する遠隔操作処理部83に順次送信される。このストローク画像(B)のデータは、上記(表2)に示すストロークデータIDごとに示されるデータである。よって、例えば、ユーザが電子ペン4でアルファベット「T」の文字を描くと、二筆書きとなるため、2つのストロークデータIDのそれぞれで示されるストローク画像(B)のデータが順次送信される。
 次に、主催装置である電子黒板2aは、ディスプレイ3aに、電子黒板2bから送られて来たストローク画像(B)のデータが含まれた重畳画像(A、B、C)を表示する(ステップS44)。具体的には、電子黒板2aが有する操作合成処理部84は、遠隔操作処理部83を介して、順次送られる複数のストローク画像(B)のデータを合成して、操作データ記憶部840に記憶すると共に遠隔操作処理部83に戻す。これにより、遠隔操作処理部83は、操作合成処理部84から受信した、合成後のストローク画像(B)のデータを、遠隔操作送信部76に出力する。遠隔操作送信部76は、主催装置となる電子黒板2aが有するクライアント部20における遠隔操作受信部66に、合成後のストローク画像(B)のデータを出力する。また、遠隔操作受信部66は、画像処理部30における表示重畳部36に、合成後のストローク画像(B)のデータを出力する。よって、表示重畳部36は、UI画像(A)及び出力画像(C)に対して、合成後のストローク画像(B)を重畳する。最後に、映像重畳部28が、表示重畳部36によって重畳された重畳画像(A、B、C)をディスプレイ3a上に表示する。
 次に、主催装置となる電子黒板2aが有するサーバ部90における遠隔操作送信部76を含む通信制御部70は、通信ネットワーク9を介して、合成後のストローク画像(B)のデータを送信する(ステップS45)。なお、送信先は、ストローク画像(B)のデータの送信元である電子黒板2b以外の電子黒板2cの通信制御部60である。これにより、参加装置となる電子黒板2cが有する遠隔操作受信部66は、合成後のストローク画像(B)のデータを受信する。
 次に、電子黒板2cは、ディスプレイ3cに重畳画像(A、B、C)を表示する(ステップS46)。具体的には、電子黒板2cが有する遠隔操作受信部66は、ステップS45によって受信される合成後のストローク画像(B)のデータを電子黒板2cの画像処理部30に出力する。次に、画像処理部30が有する表示重畳部36は、UI画像(A)及び出力画像(C)の各データと、合成後のストローク画像(B)のデータを重畳し、映像重畳部28に重畳画像(A、B、C)のデータを出力する。そして、映像重畳部28は、ディスプレイ3cに重畳画像(A、B、C)のデータを出力する。これにより、ディスプレイ3cは、重畳画像(A、B、C)を表示する。
 なお、上記処理では、ディスプレイ3上に出力画像(C)が表示されるが、この出力画像(C)に代えて、背景画像(D)が表示されてもよい。また、出力画像(C)と背景画像(D)との排他的な関係をやめて、出力画像(C)と、背景画像(D)との両方が同時にディスプレイ3上に表示されてもよい。
 (参加の終了例)
 続いて、参加装置が遠隔共有処理への参加を終了する処理の一例を説明する。図示する例では、電子黒板2cが参加を終了する場合の例を示す。
 まず、電子黒板2cは、ユーザによるタッチパネル等の入力装置の操作によって、参加の終了要求を受け付ける。次に、遠隔参加処理部62(図5)は、主催装置となる電子黒板2aが有するサーバ部90(図5)における通信制御部70(図5)に、参加の終了要求を行う(ステップS47)。これにより、通信制御部70が有する遠隔接続要求受信部71(図5)は、電子黒板2cから、参加の終了要求を受信する。そして、遠隔接続要求受信部71は、遠隔接続処理部81(図5)に、電子黒板2cのIPアドレスと共に参加の終了要求を出力する。次に、電子黒板2aが有する遠隔接続処理部81は、遠隔接続要求受信部71から送られるIPアドレスに基づいて、参加拠点管理テーブル820(図5)を編集する。具体的には、参加の終了要求を行った電子黒板2cのIPアドレス及び電子黒板2cが設置されている拠点の名称が、参加拠点管理テーブル820から削除される。また、遠隔接続結果送信部72(図5)に、電子黒板2cのIPアドレス及び削除した旨の通知を出力する。
 次に、遠隔接続結果送信部72を含む通信制御部70が、通信ネットワーク9(図1)を介して、電子黒板2cのクライアント部20(図5)における通信制御部60(図5)に、参加の終了を指示する(ステップS48)。これにより、電子黒板2cにおける通信制御部60の遠隔参加処理部62が、遠隔共有処理の通信を切断することで、参加の終了処理を行うことで、参加が終了する(ステップS49)。
 (判定例及び変更例)
 図9は、電子黒板による判定及び変更の処理一例を示すフローチャートである。なお、図示する処理は、例えば、電子黒板が生成した画像データ等に対する操作を入力すると行われる。より具体的には、例えば、図7に示す処理において、電子黒板2aが設置されている拠点の方では、ステップS32の後、又は電子黒板2cが設置されている拠点の方では、ステップS34の後等である。また、図9に示す処理は、例えば、判定部20A1(図3)及び変更部20A2(図3)等によって実現される。
 電子黒板は、ユーザによるファイル操作を入力する。例えば、ファイル操作は、以下のようなGUI(Graphical User Interface)等によって、電子黒板に受け付けられる(ステップS101)。
 図10は、電子黒板が表示するファイル操作メニューを示す図の一例である。例えば、電子黒板は、図示する画面PNLを表示する。そして、ユーザは、表示される画面PNLに対してファイル操作を入力する。具体的には、電子黒板は、ファイル操作用のアイコン等が押下されると、例えば、ファイル操作メニューMNU等を表示する。さらに、ファイル操作メニューMNUが表示するメニューにおいて、ファイル保存メニューFSVが押下されると、電子黒板は、画像データ等を記憶する処理を開始する。
 図9に戻り、電子黒板は、変更を行う設定がされているか否か判断する(ステップS102)。なお、変更を行うか否かの設定は、ユーザの操作等によって電子黒板に設定される。変更に係る設定の詳細は、後述する。また、変更は、例えば、データを圧縮すること等である。以下、変更が圧縮である例で説明する。次に、変更を行う設定であると判断されると(ステップS102でYES)、電子黒板は、ステップS103に進む。一方で、変更を行う設定でないと判断されると(ステップS102でNO)、電子黒板は、ステップS106に進む。
 次に、電子黒板は、記憶先が外部装置であるか否か判断する(ステップS103)。例えば、記憶先が外部装置であるか否かは、ファイル操作(ステップS101)の際に入力される記憶先を示すパスによって判断される。なお、パスは、例えば、以下のようにして入力される。
 図11は、ファイル操作における記憶先の入力するGUIを示す図の一例である。例えば、電子黒板は、図10に示す画面PNLによるファイル操作において、図示するような選択画面SPLを表示する。この例では、ユーザは、記憶先を外部装置とするか電子黒板内とするか(いわゆる「Cドライブ」等)が選択画面SPLで選択できる。
 具体的には、選択画面SPLでは、「USB Memory」と示すUSBメモリ選択SUSBを選択する操作をユーザが行うと、記憶先は、USBメモリ5(図2)と設定される。一方で、選択画面SPLでは、「一時保存フォルダー」と示す電子黒板内選択STFを選択する操作をユーザが行うと、記憶先は、SSD104(図2)に生成される「一時保存フォルダー」と設定される。なお、以下に説明する例では、SSD104(図2)には、パーティションは、「Cドライブ」のみがあるようにあらかじめ設定されるとする。したがって、「一時保存フォルダー」のように、電子黒板内のいずれかの記憶領域を記憶先とすると、記憶先を示すパスは、「Cドライブ」内の記憶領域を示す。
 一方で、この例では、USBメモリ5等の外部装置は、電子黒板に接続されると、「Cドライブ」以外のドライブに設定される。例えば、USBメモリ5内のいずれかの記憶領域を記憶先とすると、記憶先を示すパスは、「Dドライブ」内のいずれかの記憶領域を示す。
 なお、「Cドライブ」は、パーティションによって、例えば、「Cドライブ」及び「Dドライブ」のように、2つ以上の記憶領域に分けられてもよい。このようにして、例えば、「Cドライブ」には、OS(Operating System)に係るファイル及びアプリケーションプログラム等が記憶される。一方で、「Dドライブ」には、「一時保存フォルダー」を含むデータが記憶される。また、記憶領域は、記憶先を「一時保存フォルダー」とし、「Dドライブ」にデータを記憶し、記憶先から「Dドライブ」にリンクを張る構成等でもよい。このような場合には、「Cドライブ」及び「Dドライブ」が、電子黒板内の記憶領域とされる。また、接続される外部装置は、例えば、「Eドライブ」等となる。すなわち、この場合には、「Cドライブ」及び「Dドライブ」以外の記憶先が、外部装置であると判断される。
 図11に示す選択画面SPLでは、「保存」ボタンがグレーアウトであるが、USBメモリ選択SUSB又は電子黒板内選択STFのどちらかが選択されると、「保存」ボタンが有効となる(押下できる状態となる)。そして、「保存」ボタンが押下されると、記憶先が決定するため、記憶先を示すパスが決定する。
 電子黒板は、例えば、この決定された記憶先を示すパスが、所定の記憶領域を示すか否かに基づいて、記憶先が外部装置であるか否か判断する。なお、所定の記憶領域は、あらかじめ設定される。つまり、記憶先を示すパスが、あらかじめ設定される記憶領域の例である「Cドライブ」であると、電子黒板は、記憶先が外部装置でないと判断する(図9に示すステップS103でNO)。一方で、記憶先を示すパスがUSBメモリ等の「Cドライブ」以外であると、電子黒板は、記憶先が外部装置であると判断する(図9に示すステップS103でYES)。例えば、所定の記憶領域以外を「Cドライブ」以外とすると上記の例のようになる。
 なお、外部装置は、USBメモリに限られない。すなわち、外部装置の種類は、USBメモリ以外の装置又は記録媒体でもよい。例えば、外部装置は、いわゆる外付けのハードディスク等でもよい。
 また、選択画面SPLでは、変更に係る設定が入力されてもよい。すなわち、図9に示すステップS102用の設定が、選択画面SPLによって入力されてもよい。図11は、図示する「保存ファイルのオプション設定」で示す変更設定ボタンBOPが押下されると、変更に係る設定が入力できる例を示す。例えば、変更設定ボタンBOPが押下されると、以下のようなオプション設定画面が表示されるとする。
 図12は、変更に係る設定を入力するためのオプション設定画面を示す図の一例である。この例では、図示するオプション設定画面OPLにおいて、「背景画像を圧縮してファイルサイズを小さくする」をチェックするか否かによって、変更を行うか否かの設定がされる例である。すなわち、「背景画像を圧縮してファイルサイズを小さくする」がチェックされると、電子黒板は、変更を行う設定であると判断する(図9に示すステップS102でYES)。一方で、「背景画像を圧縮してファイルサイズを小さくする」のチェックが外されると、電子黒板は、変更を行う設定でないと判断する(図9に示すステップS102でNO)。
 また、変更に係る設定では、図示するように、「圧縮率」等が入力できてもよい。すなわち、図9に示すステップS105で行われる変更に係るパラメータ等をあらかじめ設定できてもよい。このようにすると、ユーザは、「圧縮率」等を設定することができ、電子黒板は、ユーザが望ましい形式又はデータサイズで画像データを記憶することができる。
 図9に戻り、電子黒板は、記憶する画像データに背景画像があるか否かを判断する(ステップS104)。なお、背景画像は、例えば、図6に示す背景画像(D)等である。次に、背景画像があると判断されると(ステップS104でYES)、電子黒板は、ステップS105に進む。一方で、背景画像がないと判断されると(ステップS104でNO)、電子黒板は、ステップS106に進む。
 次に、電子黒板は、画像データを変更する(ステップS105)。例えば、電子黒板は、図6に示す各レイヤの画像のうち、背景画像(D)を圧縮の対象とする。なお、圧縮は、例えば、JPEG(Joint Photographic Exports Group)圧縮等である。また、電子黒板は、画像のサイズ、圧縮率(例えば、Q値)又はこれらの組み合わせ等を変える変更を行ってもよい。
 以下、「1280×720」の背景画像である例で説明する。この例では、図12に示すオプション設定画面OPLにおいて、「背景画像を圧縮してファイルサイズを小さくする」がチェックされ、「圧縮率」が設定される場合には、以下のように変更が行われる。なお、変更は、図12に示す「圧縮率」の箇所に入力された設定に応じて行われる。
 「高い」:縦及び横のそれぞれのサイズを(0.0<x≦0.7)となるいずれかの倍率となるように設定する。また、JPEGのQ値が(0<y≦70)となるように設定する。これらの設定がされた上で、圧縮が行われる。
 「ふつう」:縦及び横のそれぞれのサイズを(0.7<x≦0.9)となるいずれかの倍率となるように設定する。また、JPEGのQ値が(70<y≦80)となるように設定する。これらの設定がされた上で、圧縮が行われる。
 「低い」:縦及び横のそれぞれのサイズを(0.9<x≦1.0)となるいずれかの倍率となるように設定する。また、JPEGのQ値が(80<y<100)となるように設定する。これらの設定がされた上で、圧縮が行われる。
 なお、上記の例では、サイズの倍率を「x」、Q値を「y」で示す。また、圧縮方式は、JPEGに限られない。すなわち、圧縮方式は、例えば、GIF等の他の方式でもよい。さらに、変更は、圧縮に限られず、例えば、BMPファイル形式又はTIFFファイル形式等において、画素を間引く処理等でもよい。また、電子黒板は、圧縮等の変更後に、更にPDF形式等に変更してもよい。
 次に、電子黒板は、ステップS101等で入力される記憶先に画像データを記憶する(ステップS106)。なお、画像データ以外のデータが共に記憶されてもよい。
 ユーザのファイル操作等によって、図6に示すように、各レイヤの画像を重畳して生成される重畳画像の画像データ等が、USBメモリ等の外部記憶装置に記憶される場合がある。このような画像データは、画像を示すため、データ容量が大きくなる場合が多い。そこで、電子黒板は、背景画像等を変更して、画像データの容量を小さくする。このようにすると、データ容量が大きい画像データを小さくすることができるため、外部装置の画像データを記憶するための記憶容量を節約することができる。
 また、図6に示す画像データでは、ストローク画像データ等は、変更の対象外とされるのが望ましい。ストローク画像データ等は、他の電子黒板に入力され、その後、ストローク画像データが示すデータは、編集される場合がある。そのため、変更、特に、不可逆変換されると、編集に必要なデータが削除されたり、使用できなくなったりする場合がある。そこで、変更の対象となるデータは、背景画像データであるのが望ましい。このようにすると、他の電子黒板等に外部装置を介して画像データを入力した後、ストローク画像等が編集でき、コミュニケーションを円滑にすることができる。また、背景画像データは、データ容量が大きい場合が多いため、変更されると、画像データのデータ容量を小さくすることができる。
 他にも、外部装置に画像データを記憶する場合には、コードが入力されてもよい。例えば、以下のようなコード入力画面でコードが入力される。
 図13は、コードを入力するコード入力画面を示す図の一例である。例えば、コード入力画面CPLは、図11に示す選択画面SPLの後に表示される画面である。図示するように、ユーザは、例えば、会議コード等をコード入力テキストボックスCODに入力する。
 このようにして、入力されるコード、すなわち、図13に示す例では「1111」は、記憶する画像データ等と対応付けされる。また、電子黒板は、この対応付けを示すテーブルデータを生成する。このテーブルデータは、例えば、画像データ等と共に、外部装置に記憶される。
 このテーブルデータによって、コードと、画像データ等とが対応付けされる。すなわち、電子黒板は、コードが入力されると、テーブルデータに基づいて画像データ等を特定できる。したがって、外部装置に記憶された画像データ等を読み出す際に、コードが入力されると、電子黒板は、テーブルデータに基づいて特定される画像データ等を検索することができる。このようにして、他の画像データ等と区別し、電子黒板は、所定の画像データ等を速く読み出すことができる。
 また、上記の例は、電子黒板2による処理の理解を容易にするために、主な機能に応じて分割して示した構成である。そのため、処理単位の分割の仕方又は名称によって本願発明は、限定されない。例えば、電子黒板2の処理は、処理内容に応じて更に多くの処理単位に分割してもよい。また、1つの処理単位は、更に多くの処理を含むように分割されてもよい。
 他にも、画像処理装置は、1つの装置によって実現される構成に限られない。すなわち、1つ以上の情報処理装置を有する画像処理システムによって、本発明に係る実施形態は、実現されてもよい。なお、画像処理装置又は画像処理システムでは、各処理の一部又は全部が分散、冗長、並列又はこれらを組み合わせるように、処理が行われてもよい。
 なお、本発明に係る各処理の全部又は一部は、プログラミング言語等で記述されたコンピュータに画像処理方法を実行させるためのプログラムによって実現されてもよい。すなわち、プログラムは、画像処理装置等のコンピュータに画像処理方法を実行させるためのコンピュータプログラムである。
 また、プログラムは、フラッシュメモリ、フレキシブルディスク、光学ディスク、SD(登録商標)カード又はMO等のコンピュータが読み取り可能な記録媒体に格納して頒布することができる。さらにまた、プログラムは、電気通信回線を通じて頒布することができる。
 本国際出願は、2016年2月12日に出願された日本国特許出願2016-025360号に基づく優先権を主張するものであり、その全内容を本国際出願に援用する。
1 画像処理システム
2 電子黒板(画像処理装置の一例)
3 ディスプレイ
4 電子ペン
5 USBメモリ
6 ノートPC
7 テレビ会議端末
8 PC
9 通信ネットワーク
特開2013-210957号公報

Claims (9)

  1.  複数の画像を重ねて示す重畳画像を画像処理する画像処理装置であって、
     少なくともストローク画像と、背景画像とを重畳して前記重畳画像を生成する画像処理部と、
     前記重畳画像を示す画像データを記憶する記憶先が、前記画像処理装置に接続される外部装置であるか否かを判定する判定部と、
     前記判定部によって前記記憶先が前記外部装置であると判定されると、前記画像データを変更する変更部と
    を備える画像処理装置。
  2.  前記ストローク画像は、手書きにより入力された文字、図形、数字、記号、線又はこれらの組み合わせを示す画像である請求項1に記載の画像処理装置。
  3.  前記ストローク画像は、前記背景画像より手前に表示される画像である請求項1又は2に記載の画像処理装置。
  4.  前記変更部は、前記背景画像を示す背景画像データを圧縮する、前記背景画像の画像のサイズ、前記背景画像の圧縮率若しくはこれらの組み合わせを変える又は前記背景画像が有する画素を間引く請求項1乃至3のいずれか一項に記載の画像処理装置。
  5.  前記判定部は、前記記憶先を示すパスが所定の記憶領域を示すか否かに基づいて判定する請求項1乃至4のいずれか一項に記載の画像処理装置。
  6.  前記判定部は、前記記憶先が前記記憶領域以外であると、前記記憶先が前記外部装置であると判定する請求項5に記載の画像処理装置。
  7.  前記画像データと、前記画像データと関連付けされるコードとを示すテーブルデータを生成し、
     前記コードが入力されると、前記テーブルデータに基づいて、前記画像データを特定する請求項1乃至6のいずれか一項に記載の画像処理装置。
  8.  1つ以上の情報処理装置を有し、かつ、複数の画像を重ねて示す重畳画像を画像処理する画像処理システムであって、
     少なくともストローク画像と、背景画像とを重畳して前記重畳画像を生成する画像処理部と、
     前記重畳画像を示す画像データを記憶する記憶先が、前記情報処理装置に接続される外部装置であるか否かを判定する判定部と、
     前記判定部によって前記記憶先が前記外部装置であると判定されると、前記画像データを変更する変更部と
    を備える画像処理システム。
  9.  複数の画像を重ねて示す重畳画像を画像処理する画像処理装置が行う画像処理方法であって、
     前記画像処理装置が、少なくともストローク画像と、背景画像とを重畳して前記重畳画像を生成する画像処理手順と、
     前記画像処理装置が、前記重畳画像を示す画像データを記憶する記憶先が、前記画像処理装置に接続される外部装置であるか否かを判定する判定手順と、
     前記画像処理装置が、前記判定手順によって前記記憶先が前記外部装置であると判定されると、前記画像データを変更する変更手順と
    を含む画像処理方法。
PCT/JP2016/085712 2016-02-12 2016-12-01 画像処理装置、画像処理システム及び画像処理方法 WO2017138233A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP16889934.2A EP3416361B1 (en) 2016-02-12 2016-12-01 Image processing device, image processing system and image processing method
CN201680081113.6A CN108605078A (zh) 2016-02-12 2016-12-01 图像处理设备、图像处理系统和图像处理方法
JP2017566531A JP6631643B2 (ja) 2016-02-12 2016-12-01 画像処理装置、画像処理システム及び画像処理方法
US16/051,831 US10489049B2 (en) 2016-02-12 2018-08-01 Image processing apparatus, image processing system, and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-025360 2016-02-12
JP2016025360 2016-02-12

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/051,831 Continuation US10489049B2 (en) 2016-02-12 2018-08-01 Image processing apparatus, image processing system, and image processing method

Publications (1)

Publication Number Publication Date
WO2017138233A1 true WO2017138233A1 (ja) 2017-08-17

Family

ID=59563228

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/085712 WO2017138233A1 (ja) 2016-02-12 2016-12-01 画像処理装置、画像処理システム及び画像処理方法

Country Status (5)

Country Link
US (1) US10489049B2 (ja)
EP (1) EP3416361B1 (ja)
JP (1) JP6631643B2 (ja)
CN (1) CN108605078A (ja)
WO (1) WO2017138233A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11017544B2 (en) 2018-07-31 2021-05-25 Ricoh Company, Ltd. Communication terminal, communication system, communication control method, and recording medium
CN114581558B (zh) * 2022-02-25 2023-07-07 北京百度网讯科技有限公司 图像处理方法、装置、设备以及存储介质
CN115348328A (zh) * 2022-08-11 2022-11-15 环胜电子(深圳)有限公司 手写数据处理方法与手写数据处理系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04207451A (ja) * 1990-11-30 1992-07-29 Toshiba Corp 電子黒板
JP2004015619A (ja) * 2002-06-10 2004-01-15 Plus Vision Corp メモリー機能付き電子黒板装置
JP2013247545A (ja) * 2012-05-28 2013-12-09 Sharp Corp 電子黒板装置、データ管理システム、データ管理装置、画像形成システム、および、画像形成方法
JP2015084211A (ja) * 2013-09-17 2015-04-30 株式会社リコー 情報処理装置、情報処理システム、プログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW426813B (en) * 1995-09-22 2001-03-21 Nikon Corp Image recording apparatus
JPH1013799A (ja) * 1996-06-19 1998-01-16 Mega Chips:Kk テレビ電話装置
JP4089905B2 (ja) * 2004-06-22 2008-05-28 株式会社リコー 画像処理装置、画像処理方法、プログラム及び情報記録媒体
JP2006239944A (ja) 2005-03-01 2006-09-14 Seiko Epson Corp 親展印刷機能付きプリンタ、プリンタ制御方法及びそのプログラム
US7595805B2 (en) * 2006-04-11 2009-09-29 Qualcomm Incorporated Techniques to facilitate use of small line buffers for processing of small or large images
JP4720633B2 (ja) * 2006-06-09 2011-07-13 富士ゼロックス株式会社 画像処理システムおよび画像処理プログラム
US7848597B2 (en) * 2006-09-08 2010-12-07 Telefonaktiebolaget Lm Ericsson (Publ) Data processing
WO2010016113A1 (ja) * 2008-08-06 2010-02-11 三菱電機株式会社 プラント監視制御システム
US8705623B2 (en) * 2009-10-02 2014-04-22 Texas Instruments Incorporated Line-based compression for digital image data
US20120299881A1 (en) * 2011-05-27 2012-11-29 I.R.I.S. System for tracking and processing handwritten pen strokes on mobile terminal
CN102841896A (zh) * 2011-06-22 2012-12-26 腾讯科技(深圳)有限公司 一种移动终端图文信息显示的方法、系统及移动终端
JP5935456B2 (ja) 2012-03-30 2016-06-15 株式会社リコー 画像処理装置
US20170039372A1 (en) * 2013-03-15 2017-02-09 Electro Industries/Gauge Tech Devices, systems and methods for upgrading firmware in intelligent electronic devices
JP2015069284A (ja) * 2013-09-27 2015-04-13 株式会社リコー 画像処理装置
JP6399744B2 (ja) * 2013-12-04 2018-10-03 キヤノン株式会社 表示装置、表示方法
US9693010B2 (en) * 2014-03-11 2017-06-27 Sony Corporation Method, electronic device, and server for generating digitally processed pictures
JP6465569B2 (ja) * 2014-06-11 2019-02-06 キヤノン株式会社 画像処理方法、および画像処理装置
KR102314138B1 (ko) * 2015-03-05 2021-10-18 삼성전자 주식회사 모바일 장치 및 모바일 장치의 데이터 관리 방법
US10339052B2 (en) * 2015-03-11 2019-07-02 Centileo Llc Massive access request for out-of-core textures by a parallel processor with limited memory
US9996374B2 (en) * 2015-06-16 2018-06-12 Assured Information Security, Inc. Deployment and installation of updates in a virtual environment
JP6390860B2 (ja) * 2016-01-25 2018-09-19 パナソニックIpマネジメント株式会社 置去り物体監視装置およびこれを備えた置去り物体監視システムならびに置去り物体監視方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04207451A (ja) * 1990-11-30 1992-07-29 Toshiba Corp 電子黒板
JP2004015619A (ja) * 2002-06-10 2004-01-15 Plus Vision Corp メモリー機能付き電子黒板装置
JP2013247545A (ja) * 2012-05-28 2013-12-09 Sharp Corp 電子黒板装置、データ管理システム、データ管理装置、画像形成システム、および、画像形成方法
JP2015084211A (ja) * 2013-09-17 2015-04-30 株式会社リコー 情報処理装置、情報処理システム、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3416361A4 *

Also Published As

Publication number Publication date
EP3416361A1 (en) 2018-12-19
EP3416361B1 (en) 2022-08-31
JP6631643B2 (ja) 2020-01-15
JPWO2017138233A1 (ja) 2018-11-29
CN108605078A (zh) 2018-09-28
EP3416361A4 (en) 2019-01-09
US10489049B2 (en) 2019-11-26
US20180341385A1 (en) 2018-11-29

Similar Documents

Publication Publication Date Title
US9754559B2 (en) Image processing apparatus
JP6583432B2 (ja) 画像処理装置、画像表示方法、プログラム
JP6402826B2 (ja) 情報処理装置、画像表示方法、プログラム
WO2016174845A1 (en) Information processing apparatus, and image displaying method
JP6493546B2 (ja) 電子黒板、記憶媒体、及び情報表示方法
JP6020397B2 (ja) 画像処理装置および画像処理システム
US11294495B2 (en) Electronic whiteboard, method for image processing in electronic whiteboard, and recording medium containing computer program of electronic whiteboard
JP6143100B2 (ja) 画像処理装置及び画像処理システム
US10489049B2 (en) Image processing apparatus, image processing system, and image processing method
JP2017076207A (ja) 画像処理装置及び画像処理システム
US11610560B2 (en) Output apparatus, output system, and method of changing format information
JP2017091559A (ja) 装置及び方法
JP6036621B2 (ja) システム、情報処理装置
US20200301645A1 (en) Display apparatus and display method
JP7363064B2 (ja) 画像処理装置、方法、およびプログラム
JP7494539B2 (ja) 表示装置、負荷制御方法、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16889934

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2017566531

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016889934

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016889934

Country of ref document: EP

Effective date: 20180912