WO2010044157A1 - Information processing device, conference information generation method and recording medium - Google Patents

Information processing device, conference information generation method and recording medium Download PDF

Info

Publication number
WO2010044157A1
WO2010044157A1 PCT/JP2008/068733 JP2008068733W WO2010044157A1 WO 2010044157 A1 WO2010044157 A1 WO 2010044157A1 JP 2008068733 W JP2008068733 W JP 2008068733W WO 2010044157 A1 WO2010044157 A1 WO 2010044157A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
time
information processing
audio
processing apparatus
Prior art date
Application number
PCT/JP2008/068733
Other languages
French (fr)
Japanese (ja)
Inventor
幸司 石田
Original Assignee
Necディスプレイソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necディスプレイソリューションズ株式会社 filed Critical Necディスプレイソリューションズ株式会社
Priority to PCT/JP2008/068733 priority Critical patent/WO2010044157A1/en
Priority to JP2010533756A priority patent/JP5258070B2/en
Publication of WO2010044157A1 publication Critical patent/WO2010044157A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1831Tracking arrangements for later retrieval, e.g. recording contents, participants activities or behavior, network status

Definitions

  • the present invention relates to an information processing device, a conference information generation method, and a recording medium, and more particularly, to an information processing device, a conference information generation method, and a recording medium that can configure an electronic conference system.
  • Patent Document 1 describes an electronic conference system that can record the state of a conference.
  • This minutes creation system has a minutes management device in addition to the participant devices.
  • the minutes management device acquires audio data representing the speech of the conference participant from the participant devices in real time, and creates the minutes based on the audio data.
  • An information processing apparatus is an information processing apparatus connected to another information processing apparatus via a network, and includes a generation unit that generates time data representing time, a storage unit, and voice data.
  • the generation means the recording means for storing the voice data and the time data indicating the reception time of the voice data in the storage means in association with each other, and the storage means of the other information processing apparatus
  • a collection instruction for collecting stored data is input, request information for requesting data is transmitted to the other information processing apparatus, and voice data from the other information processing apparatus
  • Management means for receiving time data representing a reception time of the voice data and additionally storing the received voice data and time data in the storage means in association with each other.
  • the conference information generation method of the present invention is a conference information generation method in an information processing apparatus connected to another information processing apparatus via a network, and generates time data representing time and inputs voice data.
  • the audio data and the time data indicating the reception time of the audio data are stored in the storage unit in association with each other, and stored in the storage unit of the other information processing apparatus.
  • request information for requesting data is transmitted to the other information processing apparatus, and the voice data and the voice data of the voice data are transmitted from the other information processing apparatus.
  • Time data representing the reception time is received, and the received audio data and time data are additionally stored in the storage means in association with each other.
  • the recording medium of the present invention refers to a generation procedure for generating time data representing time and a sound data input to a computer connected to another information processing apparatus via a network.
  • a recording procedure for storing audio data and time data representing reception time of the audio data in association with each other in the storage unit, and collecting data stored in the storage unit of the other information processing apparatus When a collection instruction is input, request information for requesting data is transmitted to the other information processing apparatus, and voice data and time data indicating the reception time of the voice data are transmitted from the other information processing apparatus.
  • FIG. 1 is a block diagram showing a presenter device 1.
  • FIG. It is the block diagram which showed the participant apparatus 2.
  • 2 is a block diagram showing a network projector 4.
  • FIG. It is a flowchart for demonstrating operation
  • the electronic conference system includes a presenter device 1, a participant device 2, a participant device 3, and a network projector 4.
  • the presenter device 1, the participant device 2, the participant device 3, and the network projector 4 are connected to each other via a LAN (Local Area Network) 5.
  • LAN Local Area Network
  • each of the participant device 2, the participant device 3, and the network projector 4 displays the same screen as the screen that the presenter device 1 is displaying.
  • each of the presenter device 1, the participant device 2, and the participant device 3 accepts voice data representing the speech from the microphone connected to the device when the user of the device itself speaks.
  • the presenter device 1 associates the sound data with the time data indicating the reception time of the sound data. save.
  • the audio compression data is expanded and the audio data is decompressed.
  • Data (hereinafter referred to as “restored audio data”) is generated.
  • Each of the presenter device 1, the participant device 2, the participant device 3, and the network projector 4 outputs a sound corresponding to the restored sound data.
  • the presenter device 1 When the presenter device 1 accepts a reproduction instruction to reproduce data, the presenter device 1 reads and reproduces each audio data and image data in the presenter device 1 in the order of time represented by the time data corresponding to the data.
  • the voice recording device 103 When the voice recording device 103 receives voice data representing the speech of the user (presenter) of the own device, the voice recording device 103 refers to the time data generation unit 101 and refers to the voice data and time data representing the reception time of the voice data. Are associated with each other and stored in the storage device 102, and the audio data is provided to the audio compression unit 104.
  • the voice compression unit 104 can be generally called voice compression means.
  • the audio compression unit 104 When the audio compression unit 104 receives the audio data, the audio compression unit 104 compresses the audio data to generate first audio compression data. The audio compression unit 104 provides the first audio compression data to the management unit 113.
  • the video display device 107 can be generally called display means.
  • the image compression unit 109 can be generally called image compression means.
  • the image compression unit 109 When the image compression unit 109 receives the image data, the image compression unit 109 compresses the image data to generate compressed image data. The image compression unit 109 provides the compressed image data to the management unit 113.
  • the management unit 113 can generally be referred to as management means.
  • the management unit 113 When the management unit 113 receives the first audio compression data from the audio compression unit 104, the management unit 113 transmits the first audio compression data to each of the participant device 2, the participant device 3, and the network projector 4.
  • the management unit 113 When the management unit 113 receives the compressed image data from the image compression unit 109, the management unit 113 transmits the compressed image data to each of the participant device 2, the participant device 3, and the network projector 4.
  • the management unit 113 Upon receiving the audio compression data from either the participant device 2 or the participant device 3, the management unit 113 sends the audio compression data (hereinafter referred to as “second audio compression data”) to the audio expansion unit 110. provide.
  • the second audio compression data represents a statement of the user who transmitted the data.
  • the voice decompression unit 110 can be generally referred to as voice decompression means.
  • the audio expansion unit 110 Upon receiving the second audio compression data from the management unit 113, the audio expansion unit 110 expands the second audio compression data and generates restored audio data.
  • the audio decompression unit 110 provides the restored audio data to the audio output device 111.
  • the audio output device 111 can generally be referred to as audio output means.
  • the voice output device 111 When the voice output device 111 receives the restored voice data, the voice output device 111 outputs a voice corresponding to the restored voice data.
  • the management unit 113 After transmitting the request information, the management unit 113 transmits voice data representing the speech of the user of the device from each of the participant device 2 and the participant device 3, time data representing the time of the speech represented by the speech data, , The audio data and the time data are additionally stored in the storage device 102 in association with each other.
  • the TCP / IP protocol stack unit 105 is connected to the LAN 5 and controls communication between the presenter device 1 and other devices in the electronic conference system.
  • the conference management unit 106 grasps devices participating in the electronic conference system, and performs various commands (for example, request information) based on an instruction (for example, a collection instruction) from the user of the presenter device 1, that is, the presenter. ) Is output.
  • an instruction for example, a collection instruction
  • the reading unit 112 When the reading unit 112 receives the reproduction instruction, the reading unit 112 reads the audio data in the storage device 102 in the order of the time represented by the time data corresponding to the audio data.
  • the reading unit 112 when receiving the reproduction instruction, the reading unit 112 reads the audio data and the image data in the storage device 102 in the order of time represented by the time data corresponding to the data.
  • the reading unit 112 provides the audio data to the audio output device 111 every time the audio data is read, and provides the image data to the video display device 107 every time the image data is read.
  • the audio output device 111 When the audio output device 111 receives audio data from the reading unit 112, the audio output device 111 outputs audio corresponding to the audio data.
  • the image display device 107 When the image display device 107 receives image data from the reading unit 112, the image display device 107 outputs an image corresponding to the image data.
  • FIG. 3 is a block diagram showing components that function when the information processing apparatus having all functions of the presenter apparatus 1, the participant apparatus 2, and the participant apparatus 3 is the participant apparatus 2.
  • the participant device 2 includes a time data generation unit 201, a storage device 202, a voice recording device 203, a voice compression unit 204, a TCP / IP protocol stack unit 205, a conference management unit 206, an image An expansion unit 207, a video display device 208, an audio expansion unit 209, and an audio output device 210 are included.
  • the TCP / IP protocol stack unit 205 and the conference management unit 206 are included in the management unit 211.
  • the time data generation unit 201 generates time data representing time.
  • Storage device 202 can generally be referred to as data storage means.
  • the storage device 202 is, for example, a large capacity storage device.
  • the voice recording device 203 When the voice recording device 203 receives the voice data representing the speech of the user (participant) of the own device, the voice recording device 203 refers to the time data generation unit 201 and refers to the voice data and the time data representing the reception time of the voice data. Are associated with each other and stored in the storage device 202, and the sound data is provided to the sound compression unit 204.
  • the audio compression unit 204 When the audio compression unit 204 receives the audio data, the audio compression unit 204 compresses the audio data to generate second audio compression data. The audio compression unit 204 provides the second audio compression data to the management unit 211.
  • the management unit 211 When the management unit 211 receives the second audio compression data from the audio compression unit 204, the management unit 211 transmits the second audio compression data to each of the presenter device 1, the participant device 3, and the network projector 4.
  • the management unit 211 When receiving the compressed image data from the presenter apparatus 1, the management unit 211 provides the compressed image data to the image decompression unit 207.
  • the image decompression unit 207 can be generally called image data decompression means.
  • the image decompression unit 207 When the image decompression unit 207 receives the compressed image data, the image decompression unit 207 expands or decompresses the compressed image data to generate display image data.
  • the image expansion unit 207 provides display image data to the video display device 208.
  • the video display device 208 When the video display device 208 receives the display image data, the video display device 208 displays an image corresponding to the display image data.
  • the management unit 211 when receiving the audio compression data from the presenter device 1 or the participant device 3, the management unit 211 provides the audio compression data to the audio expansion unit 209.
  • the voice decompression unit 209 When the voice decompression unit 209 receives the voice compression data, the voice decompression unit 209 expands, that is, decompresses the voice compression data to generate restored voice data.
  • the audio decompression unit 209 provides the restored audio data to the audio output device 210.
  • the voice output device 210 When receiving the restored voice data, the voice output device 210 outputs a voice corresponding to the restored voice data.
  • the management unit 211 when receiving the request information from the presenter apparatus 1, the management unit 211 reads a set of audio data and time data stored in association with each other in the storage device 202, and sends the set to the presenter apparatus 1. Send.
  • the TCP / IP protocol stack unit 205 is connected to the LAN 5 and controls communication between the participant device 2 and other devices in the electronic conference system.
  • the conference management unit 206 grasps the devices participating in the electronic conference system, and responds to an instruction from the presenter device 1 (for example, request information) or an instruction from a user (participant) of the participant device 2. Based on this, various information is output.
  • FIG. 4 is a block diagram showing components that function when the information processing apparatus having all the functions of the presenter apparatus 1, the participant apparatus 2 and the participant apparatus 3 is the participant apparatus 3.
  • the participant device 3 includes a time data generation unit 301, a storage device 302, a voice recording device 303, a voice compression unit 304, a TCP / IP protocol stack unit 305, a conference management unit 306, an image A decompression unit 307, a video display device 308, an audio decompression unit 309, and an audio output device 310 are included.
  • the TCP / IP protocol stack unit 305 and the conference management unit 306 are included in the management unit 311.
  • the time data generation unit 301 functions in the same manner as the time data generation unit 201.
  • the storage device 302 functions in the same manner as the storage device 202.
  • the voice recording device 303 functions in the same manner as the voice recording device 203.
  • the audio compression unit 304 functions in the same manner as the audio compression unit 204.
  • the TCP / IP protocol stack unit 305 functions in the same manner as the TCP / IP protocol stack unit 205.
  • the conference management unit 306 functions in the same manner as the conference management unit 206.
  • the image expansion unit 307 functions in the same manner as the image expansion unit 207.
  • the video display device 308 functions in the same manner as the video display device 208.
  • the audio expansion unit 309 functions in the same manner as the audio expansion unit 209.
  • the audio output device 310 functions in the same manner as the audio output device 210.
  • an information processing device having all functions of the presenter device 1, the participant device 2, and the participant device 3 has a time data generation unit, a storage device, a voice recording device, and a voice compression Presenter device 1 for each of a copy unit, a TCP / IP protocol stack unit, a conference management unit, a video display device, a screen capture unit, an image compression unit, an audio expansion unit, an audio output device, a reading unit, a management unit, and an image expansion unit
  • the participant device 2 and the participant device 3 are assigned different reference numerals, but each of the same names has all the functions of the same names indicated by different signs.
  • An information processing apparatus having all the functions of the presenter apparatus 1, the participant apparatus 2, and the participant apparatus 3, for example, adds an image expansion unit 207 in the participant apparatus 2 to the configuration of the presenter apparatus 1, and
  • the management unit 113 in the presenter device 1 has the function of the management unit 211 in the participant device 2.
  • each component of the information processing apparatus having all the functions of the presenter device 1, the participant device 2, and the participant device 3 may be hardware or execute a program that defines the function of each component. May be realized by a computer.
  • the participant device 2 and the participant device 3 When each component of the information processing apparatus having all the functions of the presenter device 1, the participant device 2, and the participant device 3 is realized by a computer that executes a program, a program that defines the function of each component Is recorded on a computer-readable recording medium such as a CD-ROM, hard disk, or memory, and the computer reads and executes the computer from the recording medium to implement the above-described functions.
  • a computer-readable recording medium such as a CD-ROM, hard disk, or memory
  • FIG. 5 is a block diagram showing the network projector 4.
  • the network projector 4 includes a TCP / IP protocol stack unit 401, a conference management unit 402, an image expansion unit 403, a video display device 404, an audio expansion unit 405, and an audio output device 406. .
  • the TCP / IP protocol stack unit 401 and the conference management unit 402 are included in the management unit 407.
  • the management unit 407 When receiving the compressed image data from the presenter apparatus 1, the management unit 407 provides the compressed image data to the image decompression unit 403.
  • the image decompression unit 403 When the image decompression unit 403 receives the compressed image data, the image decompression unit 403 expands or decompresses the compressed image data to generate display image data.
  • the image expansion unit 403 provides display image data to the video display device 404.
  • the video display device 404 Upon receiving the display image data, the video display device 404 projects image light according to the display image data onto the screen 4a, and displays an image according to the display image data on the screen 4a.
  • the management unit 407 receives audio compression data from the presenter device 1, the participant device 2, or the participant device 3, the management unit 407 provides the audio compression data to the audio expansion unit 405.
  • the voice decompression unit 405 When the voice decompression unit 405 receives the voice compression data, the voice decompression unit 405 expands, that is, decompresses the voice compression data to generate restored voice data.
  • the audio decompression unit 405 provides the restored audio data to the audio output device 406.
  • the voice output device 406 When receiving the restored voice data, the voice output device 406 outputs a voice corresponding to the restored voice data.
  • the TCP / IP protocol stack unit 401 is connected to the LAN 5 and controls communication between the network projector 4 and other devices in the electronic conference system.
  • the conference management unit 402 grasps devices participating in the electronic conference system.
  • the TCP / IP protocol stack unit 105, the TCP / IP protocol stack unit 205, the TCP / IP protocol stack unit 305, and the TCP / IP protocol stack unit 401 are protocols for communication that are used as standard in the Internet or an intranet. Work on the basis.
  • presenter device 1, participant device 2, participant device 3, and network projector 4 have completed the setting of the TCP / IP protocol stack unit in their own devices, and are connected to the LAN 5 to communicate with each other. Suppose that it is possible.
  • FIG. 6 is a flowchart for explaining the operation of the electronic conference system. The operation of the electronic conference system will be described below with reference to FIG.
  • the presenter apparatus 1 connects to the network projector 4 (step 601).
  • the conference management unit 106 of the presenter device 1 stores the identification information of the presenter device 1 and the identification information of the network projector 4 as conference management information. It is assumed that the conference management unit 106 recognizes the identification information of the own device and the identification information of the network projector 4 in advance.
  • conference management information represents identification information of the devices participating in the conference.
  • the presenter device 1 transmits image data (specifically, compressed image data) and audio data (specifically, compressed audio data) to the network projector 4 (step 602).
  • image data specifically, compressed image data
  • audio data specifically, compressed audio data
  • step 602 the operation accompanying step 602 and step 602 will be described.
  • the conference management unit 106 of the presenter apparatus 1 sets the time currently indicated by the time data of the time data generation unit 101 to the conference start time t0. For this reason, the time data of the time data generation unit 101 represents a time based on the conference start time t0, that is, an elapsed time from the conference start time t0.
  • the conference management unit 106 starts the operations of the voice recording device 103 and the screen capture unit 108.
  • the voice recording device 103 Whenever the voice recording device 103 receives voice data from the microphone 1 a, the voice recording device 103 stores the voice data as the voice data 1 in the storage device 102 without being compressed, and simultaneously provides the voice data to the voice compression unit 104.
  • the audio compression unit 104 When the audio compression unit 104 receives the audio data, the audio compression unit 104 compresses the audio data to generate audio compression data.
  • the voice compression unit 104 provides the voice compression data to the TCP / IP protocol stack unit 105.
  • the TCP / IP protocol stack unit 105 When the TCP / IP protocol stack unit 105 receives the audio compression data, the TCP / IP protocol stack unit 105 transmits the audio compression data to the network projector 4 via the LAN 5.
  • the voice recording device 103 When the voice recording device 103 receives the voice data from the microphone 1a, the voice recording device 103 refers to the time data generation unit 101, associates the voice data 1 with the minutes data and the time data representing the meeting time t0, and the storage device. Save to 102.
  • the TCP / IP protocol stack unit 401 when the TCP / IP protocol stack unit 401 receives the audio compression data, the TCP / IP protocol stack unit 401 provides the audio compression unit 405 with the audio compression data.
  • the voice decompression unit 405 When the voice decompression unit 405 receives the voice compression data, the voice decompression unit 405 expands, that is, decompresses the voice compression data to generate restored voice data.
  • the audio decompression unit 405 provides the restored audio data to the audio output device 406.
  • the voice output device 406 When receiving the restored voice data, the voice output device 406 outputs a voice corresponding to the restored voice data.
  • the screen capture unit 108 captures image data representing an image being displayed by the video display device 107.
  • the image capture unit 108 stores the captured image data in the storage device 102 without being compressed, and simultaneously provides the image data to the image compression unit 109.
  • the image compression unit 109 When the image compression unit 109 receives the image data, the image compression unit 109 compresses the image data to generate compressed image data.
  • the image compression unit 109 provides the compressed image data to the TCP / IP protocol stack unit 105.
  • the TCP / IP protocol stack unit 105 When the TCP / IP protocol stack unit 105 receives the compressed image data, the TCP / IP protocol stack unit 105 transmits the compressed image data to the network projector 4 via the LAN 5.
  • the image capture unit 108 Each time the image capture unit 108 captures image data, the image capture unit 108 refers to the time data generation unit 101, associates the image data with the time data representing the conference time t0 as the minutes data, and stores it in the storage device 102. save.
  • the TCP / IP protocol stack unit 401 when the TCP / IP protocol stack unit 401 receives the compressed image data, the TCP / IP protocol stack unit 401 provides the compressed image data to the image expansion unit 403.
  • the image decompression unit 403 When the image decompression unit 403 receives the compressed image data, the image decompression unit 403 expands or decompresses the compressed image data to generate display image data.
  • the image expansion unit 403 provides display image data to the video display device 404.
  • the video display device 404 Upon receiving the display image data, the video display device 404 projects image light according to the display image data onto the screen 4a, and displays an image according to the display image data on the screen 4a.
  • step 602 the operation associated with step 602 and step 602 has been described.
  • the participant device 2 participates in the conference (step 603).
  • step 603 the operation accompanying step 603 and step 603 will be described.
  • the conference management unit 206 of the participant device 2 when the conference management unit 206 of the participant device 2 receives an instruction to join the conference from the user of the participant device 2, the conference management unit 206 provides a conference participation command to the TCP / IP protocol stack unit 205. To do.
  • the conference participation command is provided with identification information (hereinafter referred to as “participant information”) of the user of the participant device 2, that is, a participant who wants to participate, and identification information of the participant device 2.
  • identification information hereinafter referred to as “participant information”
  • the TCP / IP protocol stack unit 205 When the TCP / IP protocol stack unit 205 receives the conference participation command, it transmits the conference participation command to the presenter apparatus 1 via the LAN 5.
  • the TCP / IP protocol stack unit 105 when receiving the conference participation command, provides the conference management unit 106 with the conference participation command.
  • a general method is used as the determination process.
  • the conference management unit 106 when the conference management unit 106 receives permission information indicating permission of participation as a response from the presenter, the conference management unit 106 newly uses the identification information of the participant device 2 given to the conference participation command as conference management information. save.
  • the conference management unit 206 receives the conference participation information (in this case, the identification information of the network projector 4, the identification information of the presenter device 1, and the identification information of the participant device 2) added to the conference participation permission command. ,save.
  • the conference participation information in this case, the identification information of the network projector 4, the identification information of the presenter device 1, and the identification information of the participant device 2
  • the TCP / IP protocol stack unit 205 starts receiving image compression data and audio compression data from the presenter apparatus 1.
  • step 603 the operation associated with step 603 and step 603 has been described.
  • the participant device 3 participates in the conference (step 604).
  • the TCP / IP protocol stack unit 305 When the TCP / IP protocol stack unit 305 receives the conference participation command, the TCP / IP protocol stack unit 305 transmits the conference participation command to the presenter apparatus 1 via the LAN 5.
  • the conference management unit 106 determines whether or not to participate in the participant device 3 as in the case of the participant device 2.
  • the conference management unit 106 uses the conference management information to identify the network projector 4 identification information, the presenter device 1 identification information, the participant device 2 identification information, and the participant device 3 identification information. As will be saved.
  • the TCP / IP protocol stack unit 105 When the TCP / IP protocol stack unit 105 receives the conference participation permission command, the TCP / IP protocol stack unit 105 transmits the conference participation permission command to the participant apparatus 3 via the LAN 5.
  • the conference management unit 306 When the conference management unit 306 receives the conference participation permission command, the conference management unit 306 starts managing the conference time by using the conference start time t0 and the participation time t2 added to the conference participation permission command.
  • the conference management unit 306 also includes conference participation information added to the conference participation permission command (in this case, identification information of the network projector 4, identification information of the presenter device 1, identification information of the participant device 2, and The identification information of the participant apparatus 3) is stored.
  • conference participation information added to the conference participation permission command in this case, identification information of the network projector 4, identification information of the presenter device 1, identification information of the participant device 2, and The identification information of the participant apparatus 3) is stored.
  • the TCP / IP protocol stack unit 305 starts to receive the compressed image data and the compressed audio data from the presenter device 1 and outputs the image and the sound in the same manner as the participant device 2.
  • the voice recording device 203 saves the voice data provided from the microphone 2 a as the voice data 2 in the storage device 202 without being compressed, and at the same time, converts the voice data into the voice data.
  • the compression unit 204 Provided to the compression unit 204.
  • the audio compression unit 204 When the audio compression unit 204 receives the audio data, the audio compression unit 204 compresses the audio data to generate audio compression data in order to hold the conference in real time.
  • the voice compression unit 204 provides the voice compression data to the TCP / IP protocol stack unit 205.
  • the voice recording device 203 When the voice recording device 203 receives voice data from the microphone 2a, the voice recording device 203 refers to the time data generation unit 201 and stores the voice data 2 as minutes data in association with time data representing the meeting time t3. Save to device 202.
  • Each device expands the audio compression data from the participant device 2 to generate restored audio data, and the audio corresponding to the restored audio data Is output.
  • the voice recording device 303 stores the voice data provided from the microphone 3 a as the voice data 3 in the storage device 302 without being compressed, and at the same time, Provided to the compression unit 304.
  • step 606 the operation associated with step 606 and step 606 has been described.
  • the participant device 2 accepts the user's remarks (step 607).
  • the participant apparatus 2 performs the same process as in Step 605, and associates the audio data (audio data 4) provided from the microphone 2a with the time data representing the meeting time t5 as the minutes data. And stored in the storage device 202.
  • the presenter apparatus 1 accepts the user's remarks (step 608).
  • Step 608 and Step 608 will be described.
  • the voice recording apparatus 103 stores the voice data provided from the microphone 1 a as the voice data 5 in the storage device 102 without being compressed, and at the same time, Provided to the compression unit 104.
  • the audio compression unit 104 When the audio compression unit 104 receives the audio data, the audio compression unit 104 compresses the audio data to generate audio compression data in order to hold a conference in real time.
  • the voice compression unit 104 provides the voice compression data to the TCP / IP protocol stack unit 105.
  • the voice recording device 103 When the voice recording device 103 receives the voice data, the voice recording device 103 refers to the time data generation unit 101, associates the voice data 5 with the time data representing the meeting time t6 as the minutes data, and stores it in the storage device 102. save.
  • Each of the network projector 4, the participant device 2, and the participant device 3 expands the audio compression data from the presenter device 1 to generate restored audio data, and outputs audio corresponding to the restored audio data. .
  • the conference management unit 106 of the presenter apparatus 1 when the conference management unit 106 of the presenter apparatus 1 receives a conference end instruction from the user, the conference management unit 106 provides a TCP / IP protocol stack unit 105 with a conference end command.
  • the TCP / IP protocol stack unit 105 When the TCP / IP protocol stack unit 105 receives the conference end command, the TCP / IP protocol stack unit 105 refers to the conference management information in the conference management unit 106, and sends the conference end command via the LAN 5 to the network projector 4, the participant device 2, To the participant device 3.
  • the conference management unit of each device ends the conference.
  • step 609 the operation associated with step 609 and step 609 has been described.
  • the presenter apparatus 1 starts saving the minutes as meeting information (step 610).
  • the presenter device 1 requests minutes data from the participant device 2 (step 611).
  • the conference management unit 106 of the presenter device 1 receives a collection instruction to collect data from the user of the presenter device 1, for example, the conference management information in the conference management unit 106 is displayed.
  • a device different from presenter device 1 and network projector 4 that is, a device from which data is collected (hereinafter referred to as “collected device”) is identified.
  • the conference management information in the conference management unit 106 represents the identification information of the devices participating in the conference as described above.
  • the conference management unit 106 identifies the device to be collected as follows.
  • the conference management unit 106 collects the identification information from the conference management information in the conference management unit 106 excluding the identification information of the presenter device (own device) 1 and the identification information of the network projector 4. It is recognized as identification information.
  • the conference management unit 106 recognizes the identification information of the participant device 2 and the identification information of the participant device 3 as the identification information of the device to be collected.
  • the meeting management unit 106 When the meeting management unit 106 identifies the devices to be collected, the meeting management unit 106 transmits a meeting proceeding request command to each of the devices to be collected.
  • the conference management unit 106 first transmits a conference proceeding request command to the participant device 2, and then transmits a conference proceeding request command to the participant device 3.
  • the transmission order of the meeting proceeding request command is not limited to the above and can be changed as appropriate.
  • the conference management unit 106 first provides a conference proceeding request command addressed to the participant device 2 to the TCP / IP protocol stack unit 105.
  • meeting proceeding request command can be generally called request information.
  • the TCP / IP protocol stack unit 105 When the TCP / IP protocol stack unit 105 receives a conference proceeding request command addressed to the participant device 2 from the conference management unit 106, the TCP / IP protocol stack unit 105 transmits the conference proceeding request command to the participant device 2 via the LAN 5.
  • the conference proceeding request command is provided to the conference management unit 206.
  • the meeting management unit 206 Upon receiving the meeting proceeding request command, the meeting management unit 206 includes the audio data 2 and the audio data 4 stored in the storage device 202 including time data (conference time t3 and meeting time t5) corresponding to each of them.
  • the agenda data is provided to the TCP / IP protocol stack unit 205.
  • the TCP / IP protocol stack unit 205 transmits the agenda data (time data representing the voice data 2 and time t3 and time data representing the voice data 4 and time t5) to the presenter apparatus 1 via the LAN 5.
  • TCP / IP protocol stack section 105 receives audio data 2 and time data representing time t3 and audio data 4 and time data representing time t5, audio data is received.
  • the time data representing time 2 and time t3 and the time data representing sound data 4 and time t5 are associated with the sound data and the time data, and the storage device 102 stores the data of the presenter device 1 as shown in FIG.
  • the data is saved as a separate file (step 612).
  • FIG. 7 is an explanatory diagram showing the data stored in the storage device 102 of the presenter apparatus 1 in the order of time represented by the time data.
  • the presenter apparatus 1 requests the minutes data from the participant apparatus 3 (step 613).
  • the conference management unit 106 of the presenter device 1 provides the TCP / IP protocol stack unit 105 with a conference proceeding request command addressed to the participant device 3.
  • the TCP / IP protocol stack unit 105 When the TCP / IP protocol stack unit 105 receives a conference proceeding request command addressed to the participant device 3 from the conference management unit 106, the TCP / IP protocol stack unit 105 transmits the conference proceeding request command to the participant device 3 via the LAN 5.
  • the TCP / IP protocol stack unit 305 receives the conference proceeding request command from the presenter device 1, it provides the conference proceeding request command to the conference management unit 306.
  • the conference management unit 306 When the conference management unit 306 receives the conference proceeding request command, the conference management unit 306 transmits the voice data 3 stored in the storage device 302 as the conference data including the time data (meeting time t4) corresponding to the voice data 3 as TCP / Provided to the IP protocol stack unit 305.
  • the TCP / IP protocol stack unit 305 transmits the agenda data (voice data 3 and time data representing time t4) to the presenter apparatus 1 via the LAN 5.
  • the TCP / IP protocol stack unit 105 receives the audio data 3 and time data representing time t 4, the audio data 3 and time data representing time t 4 are associated with each other. Then, as shown in FIG. 7, the data of the presenter apparatus 1 and the data of the participant apparatus 2 are stored in the storage device 102 as a separate file (step 614).
  • the reading unit 112 when receiving a reproduction instruction from a third party, the reading unit 112 reads the audio data and the image data in the storage device 102 in the order of the time represented by the time data corresponding to the data.
  • the reading unit 112 reads audio data and image data in the storage device 102 as follows.
  • the reading unit 112 has a time measuring unit for measuring time, and when receiving a reproduction instruction, the reading unit 112 operates the time measuring unit after setting the time measuring unit to t0.
  • the reading unit 112 compares the time measured by the time measuring unit with the time represented by the time data in the storage device 102.
  • the reading unit 112 reads data (audio data, image data) corresponding to the time data from the storage device 102. .
  • the method by which the reading unit 112 reads the audio data and the image data in the storage device 102 is not limited to the above, and can be changed as appropriate.
  • the reading unit 112 first reads the image data and the sound data 1 from the storage device 102.
  • the reading unit 112 provides the image data to the video display device 107 and the audio data 1 to the audio output device 111.
  • the video display device 107 When receiving the image data, the video display device 107 displays an image corresponding to the image data.
  • the audio output device 111 receives the audio data 1, the audio output device 111 outputs audio corresponding to the audio data 1.
  • the reading operation of the reading unit 112 is switched from reading the voice data 1 to reading the voice data 2 at time t3.
  • the reading unit 112 provides the audio data 2 to the audio output device 111.
  • the audio output device 111 outputs audio corresponding to the audio data 2.
  • the reading operation of the reading unit 112 is switched from reading the voice data 2 to reading the voice data 3 at time t4.
  • the reading unit 112 provides the audio data 3 to the audio output device 111.
  • the audio output device 111 receives the audio data 3
  • the audio output device 111 outputs audio corresponding to the audio data 3.
  • the reading operation of the reading unit 112 is both the reading of the audio data 3 and the reading of the audio data 4 at time t5.
  • the reading unit 112 changes the operation in which the audio data 3 is output from the storage device 102 to the audio output device 111 to an operation in which the audio data 3 and the audio data 4 are mixed and output to the audio output device 111.
  • the two utterances are mixed and it is difficult to hear the utterance, but since the audio data 3 and the audio data 4 are stored separately, only the audio data 3 is reproduced or only the audio data 4 is reproduced. Is possible. Therefore, it is possible to clearly hear the speech of each participant device.
  • the reading operation of the reading unit 112 is switched from reading of the audio data 4 to reading of the audio data 5 at time t6.
  • the reading unit 112 provides the audio data 5 to the audio output device 111.
  • the audio output device 111 outputs audio corresponding to the audio data 5.
  • the voice recording device 103 in the presenter device 1 stores the voice data representing the speech of the user of the own device and the time data representing the reception time of the voice data in association with each other. Store in device 102.
  • the management unit 113 in the presenter device 1 After transmitting the request information to the participant devices 2 and 3, the management unit 113 in the presenter device 1 transmits voice data representing the speech of the user of the device from each of the participant devices 2 and 3 and the voice.
  • the time data representing the time of the utterance represented by the data is received, the received voice data and time data are additionally stored in the storage device 102 in association with each other.
  • the presenter device 1 including the time data generation unit 101, the storage device 102, the voice recording device 103, and the management unit 113.
  • the screen capture unit 108 in the presenter apparatus 1 captures image data corresponding to the image being displayed by the presenter apparatus 1, and represents the image data and the capture time of the image data.
  • the time data is stored in the storage device 102 in association with each other.
  • the reading unit 112 in the presenter apparatus 1 when the reading unit 112 in the presenter apparatus 1 receives a reproduction instruction, the reading unit 112 reads out each piece of audio data in the storage device 102 in the order of time represented by the time data corresponding to the audio data.
  • the audio output device 111 outputs audio corresponding to each audio data in the order in which the audio data is read.
  • the reading unit 112 in the presenter apparatus 1 when the reading unit 112 in the presenter apparatus 1 receives the reproduction instruction, the reading unit 112 reads out each audio data and image data in the storage device in the order of time represented by the time data corresponding to the data.
  • the video display device 107 in the presenter device 1 displays an image corresponding to the image data read by the reading unit 112.
  • the management unit 113 in the presenter device 1 stores identification information of other devices participating in the electronic conference system, and when a collection instruction is input, identification is performed using the identification information. Request information is transmitted to the device to be executed.
  • each of the presenter apparatus 1, the participant apparatus 2, and the participant apparatus 3 receives the audio data, compresses the audio data, and transmits the compressed audio data to other apparatuses. Send.
  • the compressed audio data is decompressed to generate restored audio data. Then, a sound corresponding to the restored sound data is output.
  • compressed audio data is used as audio information transmitted and received in real time
  • uncompressed data is used as information for reproducing the content of the conference.
  • the audio data is generally compressed with degraded sound quality because the compression rate is poor in the reversible compression method. Accordingly, when the speech is converted into text using a speech recognition device or the like later, erroneous recognition can be reduced by using uncompressed speech data rather than using compressed speech data.
  • the presenter device 1 generates compressed image data by compressing captured image data, and transmits the compressed image data to another device.
  • the compressed image data is decompressed to generate display image data, and an image corresponding to the display image data is displayed.
  • compressed image data is used as image information transmitted and received in real time
  • uncompressed data is used as information for reproducing the content of the conference.
  • the presenter device 1 does not hinder a real-time conference by collecting uncompressed data after the conference ends.
  • the presenter device 1 stores agenda data including audio data, image data, and time data as a separate file for each device. For this reason, in the time when the voice data overlaps and it is difficult to hear, it becomes possible to reproduce the voice data individually, making it easy to hear each voice, and when voice is transcribed by the voice recognition device, Misrecognition can be reduced.
  • the presenter device 1 ⁇ / b> A is used instead of the presenter device 1
  • the participant device 2 ⁇ / b> A is used instead of the participant device 2.
  • presenter device 1A the participant device 2A, and the participant device 3 are realized by individual information processing devices having a common function (component).
  • the participant device 2A collects and stores information (audio data and image data) for reproducing the conference content.
  • FIG. 8 is a block diagram showing components that function when the information processing apparatus having all functions of the presenter apparatus 1A, the participant apparatus 2A, and the participant apparatus 3 is the participant apparatus 2A.
  • the participant device 2 ⁇ / b> A includes a management unit 211 ⁇ / b> A instead of the management unit 211, and includes a TCP / IP protocol stack unit 205 ⁇ / b> A instead of the TCP / IP protocol stack unit 205.
  • a conference management unit 206A is included, and a reading unit 212 is further included.
  • the participant device 2 ⁇ / b> A will be described focusing on differences from the participant device 2.
  • Management section 211A can generally be referred to as management means.
  • the management unit 211A has the following functions in addition to the functions of the management unit 211.
  • the management unit 211A receives a collection instruction after a conference for transmitting and receiving audio compression data and image compression data to and from other devices in real time is completed, the presenter device 1 and the participant devices 3 that are information processing devices. Request information.
  • the management unit 211A After transmitting the request information, the management unit 211A transmits voice data representing the speech of the user of the presenter apparatus 1A, time data corresponding to the voice data, and an image displayed on the presenter apparatus 1A from the presenter apparatus 1A. Is received and the time data corresponding to the image data is received, the audio data and the image data are additionally stored in the storage device 202 in association with the time data corresponding to the data.
  • the management unit 211A Upon receiving the request information, the management unit 211A receives, from the participant device 3, voice data representing the speech of the user of the device and time data representing the speech time represented by the voice data. And time data are additionally stored in the storage device 202 in association with each other.
  • Read unit 212 can generally be referred to as read means.
  • the reading unit 212 operates in the same manner as the reading unit 112 shown in FIG.
  • FIG. 9 is a block diagram showing components that function when the information processing apparatus having all the functions of the presenter apparatus 1A, the participant apparatus 2A, and the participant apparatus 3 is the presenter apparatus 1A.
  • the presenter apparatus 1 ⁇ / b> A includes a management unit 113 ⁇ / b> A instead of the management unit 113, and includes a TCP / IP protocol stack unit 105 ⁇ / b> A instead of the TCP / IP protocol stack unit 105.
  • a conference management unit 106A is included.
  • Management unit 113A can generally be referred to as management means.
  • the management unit 113A has the following functions in addition to the functions of the management unit 113.
  • the management unit 113A Upon receipt of the request information from the participant device 2A, the management unit 113A reads out a set of audio data and time data and a set of image data and time data stored in association with each other in the storage device 102. These sets are transmitted to the participant apparatus 2A.
  • each component of the information processing apparatus having all the functions of the presenter device 1A, the participant device 2A, and the participant device 3 may be hardware, or execute a program that defines the function of each component. May be realized by a computer.
  • FIG. 10 is a flowchart for explaining an operation in which the participant device 2A stores the conference information.
  • the participant device 2 ⁇ / b> A stores the conference information
  • the participant device 2A requests the minutes data from the presenter device 1A (step 1002).
  • the conference management unit 206A of the participant device 2A receives a collection instruction from the user of the participant device 2A, for example, the conference management unit 206A refers to the conference management information in the conference management unit 206A and collects the collected device. Is identified. Note that the conference management unit 206 ⁇ / b> A identifies the device to be collected, similarly to the conference management unit 106.
  • the conference management unit 206A recognizes the presenter device 1A and the participant device 3 as devices to be collected.
  • the meeting management unit 106A Upon receiving the meeting proceeding request command, the meeting management unit 106A reads out a set of audio data and time data and a set of image data and time data stored in association with each other in the storage device 102, and these Are provided to the TCP / IP protocol stack unit 105A as agenda data.
  • TCP / IP protocol stack section 205A has image data and time data representing time t0, time data representing sound data 1 and time t0, and sound data 5 and time t6. Is received, the time data representing the image data and the time t0, the time data representing the audio data 1 and the time t0, and the time data representing the audio data 5 and the time t6 are associated with each other. Then, as shown in FIG. 7, it is stored in the storage device 202 as a separate file from the data of other devices (step 1003).

Abstract

An information processing device (1) to connect with other information processing devices includes a generating means (101) that generates time data indicative of time, a memory means (102), an audio recording means (103) that makes audio data correspond to the time data indicative of receiving time of the audio data with reference to the generating means (101) when the audio data are inputted and stores those data at the memory means (102), and a management means (113) that transmits request information to the other information processing devices when a collection instruction is input, receives audio data and time data indicative of their receiving time from the other information processing devices, and makes the received audio data and time data correspond to each other, thereby additionally storing them at the memory means (102).

Description

情報処理装置、会議情報生成方法および記録媒体Information processing apparatus, meeting information generation method, and recording medium
 本発明は、情報処理装置、会議情報生成方法および記録媒体に関し、特には、電子会議システムを構成可能な情報処理装置、会議情報生成方法および記録媒体に関する。 The present invention relates to an information processing device, a conference information generation method, and a recording medium, and more particularly, to an information processing device, a conference information generation method, and a recording medium that can configure an electronic conference system.
 会議参加者によって個別に使用される参加者装置が接続されてなる電子会議システムが知られている。 There is known an electronic conference system in which participant devices used individually by conference participants are connected.
 特許文献1には、会議の様子を記録可能な電子会議システムが記載されている。 Patent Document 1 describes an electronic conference system that can record the state of a conference.
 この電子会議システムは、参加者装置の他に、ディスプレイステーションを有する。ディスプレイステーションは、会議の様子を表した映像データおよび音声データと、会議で使用された資料を表した画像データと、をリアルタイムで記録する。 This electronic conference system has a display station in addition to the participant devices. The display station records in real time video data and audio data representing the state of the conference, and image data representing the material used in the conference.
 特許文献2には、会議の議事録を作成する議事録作成システムが記載されている。 Patent Document 2 describes a minutes creation system for creating minutes of a meeting.
 この議事録作成システムは、参加者装置の他に、議事録管理装置を有する。議事録管理装置は、参加者装置から、会議参加者の発言を表す音声データをリアルタイムで取得し、その音声データに基づいて、議事録を作成する。 This minutes creation system has a minutes management device in addition to the participant devices. The minutes management device acquires audio data representing the speech of the conference participant from the participant devices in real time, and creates the minutes based on the audio data.
 特許文献3には、会議内容を表す文書を作成して表示する文書作成閲覧装置が記載されている。 Patent Document 3 describes a document creation and browsing device that creates and displays a document representing the contents of a meeting.
 この文書作成閲覧装置は、会議の様子を撮影するビデオカメラから映像データをリアルタイムで受け付け、また、会議参加者の発言を受け付けるマイクロフォンから音声データをリアルタイムで受け付ける。この文書作成閲覧装置は、映像データと音声データに基づいて、会議内容を表す文書を作成して表示する。 This document creation and browsing device accepts video data in real time from a video camera that captures the state of the conference, and accepts audio data in real time from a microphone that accepts the speech of the conference participants. This document creation / viewing apparatus creates and displays a document representing the content of a meeting based on video data and audio data.
 なお、この文書作成閲覧装置は、参加者装置ではない。
特開2006-148730号公報 特開2004-80486号公報 再公表特許WO2005-027092号公報
This document creation / viewing apparatus is not a participant apparatus.
JP 2006-148730 A JP 2004-80486 A Republished patent WO2005-027092
 特許文献1に記載の電子会議システム、および、特許文献2に記載の議事録作成システムでは、参加者装置と異なる装置が、実際の会議の内容を示す会議情報、例えば、参加者の発言を表す音声データをリアルタイムで収集する。以下、参加者装置と異なり、かつ、会議情報を収集する装置を、「会議サーバ」と称する。 In the electronic conference system described in Patent Document 1 and the minutes creation system described in Patent Document 2, a device different from the participant device represents conference information indicating the content of the actual conference, for example, a participant's remarks. Collect voice data in real time. Hereinafter, a device that is different from the participant device and collects conference information is referred to as a “conference server”.
 特許文献3に記載の文書作成閲覧装置は、参加者装置と異なり、かつ、会議情報を収集するので、会議サーバに相当する。 The document creation and browsing device described in Patent Document 3 is different from the participant device and collects conference information, and thus corresponds to a conference server.
 このため、特許文献1から3に記載の技術を使用した場合、会議終了後に実際の会議を追体験可能な会議情報を生成するためには、会議サーバが必要となり、電子会議システムを構成する装置が多くなるという課題があった。 For this reason, when the techniques described in Patent Documents 1 to 3 are used, a conference server is required to generate conference information that allows the user to relive an actual conference after the conference is completed, and the device that constitutes the electronic conference system There was a problem that there were many.
 換言すると、会議サーバが存在しない電子会議システムでは、会議終了後に実際の会議を追体験可能な会議情報を生成しようとしても、会議情報を生成することができないという課題があった。 In other words, in an electronic conference system without a conference server, there is a problem that conference information cannot be generated even if an attempt is made to generate conference information that allows the user to relive the actual conference after the conference ends.
 本発明の目的は、上述した課題を解決することが可能な情報処理装置、会議情報生成方法および記録媒体を提供することにある。 An object of the present invention is to provide an information processing apparatus, a conference information generation method, and a recording medium that can solve the above-described problems.
 本発明の情報処理装置は、ネットワークを介して他の情報処理装置と接続する情報処理装置であって、時刻を表す時刻データを生成する生成手段と、記憶手段と、音声データが入力されると、前記生成手段を参照し、当該音声データと、当該音声データの受け付け時刻を表す時刻データとを、互いに対応づけて前記記憶手段に記憶する録音手段と、前記他の情報処理装置の記憶手段に記憶されているデータを収集する旨の収集指示が入力されると、前記他の情報処理装置に、データを要求する旨の要求情報を送信し、前記他の情報処理装置から、音声データと、当該音声データの受け付け時刻を表す時刻データと、を受信し、当該受信された音声データおよび時刻データを、互いに対応づけて前記記憶手段に追加記憶する管理手段と、を含む。 An information processing apparatus according to the present invention is an information processing apparatus connected to another information processing apparatus via a network, and includes a generation unit that generates time data representing time, a storage unit, and voice data. , Referring to the generation means, the recording means for storing the voice data and the time data indicating the reception time of the voice data in the storage means in association with each other, and the storage means of the other information processing apparatus When a collection instruction for collecting stored data is input, request information for requesting data is transmitted to the other information processing apparatus, and voice data from the other information processing apparatus, Management means for receiving time data representing a reception time of the voice data and additionally storing the received voice data and time data in the storage means in association with each other. .
 本発明の会議情報生成方法は、ネットワークを介して他の情報処理装置と接続する情報処理装置での会議情報生成方法であって、時刻を表す時刻データを生成し、音声データが入力されると、前記時刻データを参照し、当該音声データと、当該音声データの受け付け時刻を表す時刻データとを、互いに対応づけて記憶手段に記憶し、前記他の情報処理装置の記憶手段に記憶されているデータを収集する旨の収集指示が入力されると、前記他の情報処理装置に、データを要求する旨の要求情報を送信し、前記他の情報処理装置から、音声データと、当該音声データの受け付け時刻を表す時刻データと、を受信し、当該受信された音声データおよび時刻データを、互いに対応づけて前記記憶手段に追加記憶する。 The conference information generation method of the present invention is a conference information generation method in an information processing apparatus connected to another information processing apparatus via a network, and generates time data representing time and inputs voice data. , Referring to the time data, the audio data and the time data indicating the reception time of the audio data are stored in the storage unit in association with each other, and stored in the storage unit of the other information processing apparatus. When a collection instruction for collecting data is input, request information for requesting data is transmitted to the other information processing apparatus, and the voice data and the voice data of the voice data are transmitted from the other information processing apparatus. Time data representing the reception time is received, and the received audio data and time data are additionally stored in the storage means in association with each other.
 本発明の記録媒体は、ネットワークを介して他の情報処理装置と接続するコンピュータに、時刻を表す時刻データを生成する生成手順と、音声データが入力されると、前記時刻データを参照し、当該音声データと、当該音声データの受け付け時刻を表す時刻データとを、互いに対応づけて記憶手段に記憶する録音手順と、前記他の情報処理装置の記憶手段に記憶されているデータを収集する旨の収集指示が入力されると、前記他の情報処理装置に、データを要求する旨の要求情報を送信し、前記他の情報処理装置から、音声データと、当該音声データの受け付け時刻を表す時刻データと、を受信し、当該受信された音声データおよび時刻データを、互いに対応づけて前記記憶手段に追加記憶する管理手順と、を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体である。 The recording medium of the present invention refers to a generation procedure for generating time data representing time and a sound data input to a computer connected to another information processing apparatus via a network. A recording procedure for storing audio data and time data representing reception time of the audio data in association with each other in the storage unit, and collecting data stored in the storage unit of the other information processing apparatus When a collection instruction is input, request information for requesting data is transmitted to the other information processing apparatus, and voice data and time data indicating the reception time of the voice data are transmitted from the other information processing apparatus. And a management procedure for additionally storing the received audio data and time data in the storage means in association with each other. It is a computer-readable recording medium.
 本発明によれば、会議サーバが存在しない電子会議システムでも、会議終了後に実際の会議を追体験可能な会議情報を生成することが可能になる。 According to the present invention, even in an electronic conference system that does not have a conference server, it is possible to generate conference information that allows the user to relive an actual conference after the conference ends.
本発明の第1実施形態の情報処理装置を用いた電子会議システムを示したブロック図である。It is the block diagram which showed the electronic conference system using the information processing apparatus of 1st Embodiment of this invention. 発表者装置1を示したブロック図である。1 is a block diagram showing a presenter device 1. FIG. 参加者装置2を示したブロック図である。It is the block diagram which showed the participant apparatus 2. 参加者装置3を示したブロック図である。It is the block diagram which showed the participant apparatus. ネットワークプロジェクター4を示したブロック図である。2 is a block diagram showing a network projector 4. FIG. 電子会議システムの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of an electronic conference system. 記憶装置102に保存されるデータを、時刻データが表す時刻順に示した説明図である。It is explanatory drawing which showed the data preserve | saved at the memory | storage device 102 in order of the time which time data represent. 参加者装置2Aを示したブロック図である。It is the block diagram which showed participant apparatus 2A. 発表者装置1Aを示したブロック図である。It is the block diagram which showed the presenter apparatus 1A. 参加者装置2Aが会議情報を保存する動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement which 2 A of participant apparatuses preserve | save meeting information.
符号の説明Explanation of symbols
 1、1A 発表者装置
 2、2A、3 参加者装置
 4 ネットワークプロジェクター
 5 LAN
 6、7 ルータ
 1a、2a、3a マイク
 4a スクリーン
 101、201、301 時刻データ生成部
 102、202、302 記憶装置
 103、203、303 音声録音装置
 104、204、304 音声圧縮部
 105、105A、205、205A、305、401 TCP/IPプロトコルスタック部
 106、106A、206、206A、306、402 会議管理部
 107、208、308、404 映像表示装置
 108 画面キャプチャ部
 109 画像圧縮部
 110、209、309、405 音声伸張部
 111、210、310、406 音声出力装置
 112、212 読出部
 113、113A、211、211A、311、407 管理部
 207、307、403 画像伸張部
1, 1A Presenter device 2, 2A, 3 Participant device 4 Network projector 5 LAN
6, 7 Router 1a, 2a, 3a Microphone 4a Screen 101, 201, 301 Time data generation unit 102, 202, 302 Storage device 103, 203, 303 Audio recording device 104, 204, 304 Audio compression unit 105, 105A, 205, 205A, 305, 401 TCP / IP protocol stack unit 106, 106A, 206, 206A, 306, 402 Conference management unit 107, 208, 308, 404 Video display device 108 Screen capture unit 109 Image compression unit 110, 209, 309, 405 Audio decompression unit 111, 210, 310, 406 Audio output device 112, 212 Reading unit 113, 113A, 211, 211A, 311, 407 Management unit 207, 307, 403 Image decompression unit
 以下、本発明の実施形態を図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
 (第1実施形態)
 図1は、本発明の第1実施形態の情報処理装置を用いた電子会議システムを示したブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing an electronic conference system using the information processing apparatus according to the first embodiment of the present invention.
 図1において、電子会議システムは、発表者装置1と、参加者装置2と、参加者装置3と、ネットワークプロジェクター4と、を含む。発表者装置1と、参加者装置2と、参加者装置3と、ネットワークプロジェクター4とは、LAN(Local Area Network)5を介して、相互に接続されている。 In FIG. 1, the electronic conference system includes a presenter device 1, a participant device 2, a participant device 3, and a network projector 4. The presenter device 1, the participant device 2, the participant device 3, and the network projector 4 are connected to each other via a LAN (Local Area Network) 5.
 本実施形態では、発表者装置1と参加者装置2とネットワークプロジェクター4とは、ルータ6に接続されている。参加者装置3は、ルータ7を介して、ルータ6に接続されている。 In the present embodiment, the presenter device 1, the participant device 2, and the network projector 4 are connected to the router 6. Participant device 3 is connected to router 6 via router 7.
 発表者装置1と参加者装置2と参加者装置3とは、共通する機能(構成要素)を有する個々の情報処理装置によって実現される。つまり、この情報処理装置が発表者によって使用されると、この情報処理装置は、発表者装置として機能する。また、この情報処理装置が参加者によって使用されると、この情報処理装置は、参加者装置として機能する。 The presenter device 1, the participant device 2, and the participant device 3 are realized by individual information processing devices having a common function (component). That is, when this information processing apparatus is used by a presenter, this information processing apparatus functions as a presenter apparatus. Further, when the information processing apparatus is used by a participant, the information processing apparatus functions as a participant apparatus.
 本実施形態では、2台の参加者装置が用いられているが、参加者装置の数は2台に限らず1台以上であればよい。 In this embodiment, two participant devices are used, but the number of participant devices is not limited to two, and may be one or more.
 次に、電子会議システムの概要を説明する。 Next, an outline of the electronic conference system will be described.
 会議が開始されると、発表者装置1は、発表者装置1が表示中の画像を表す画像データを、その画像の表示時刻を表す時刻データと対応づけて、発表者装置1に保存する。 When the conference is started, the presenter apparatus 1 stores the image data representing the image being displayed by the presenter apparatus 1 in the presenter apparatus 1 in association with the time data representing the display time of the image.
 また、発表者装置1は、その画像データを圧縮して画像圧縮データを生成する。発表者装置1は、その画像圧縮データを、参加者装置2と、参加者装置3と、ネットワークプロジェクター4と、に送信する。 Also, the presenter device 1 generates compressed image data by compressing the image data. The presenter device 1 transmits the compressed image data to the participant device 2, the participant device 3, and the network projector 4.
 参加者装置2と参加者装置3とネットワークプロジェクター4とのそれぞれは、発表者装置1から画像圧縮データを受信すると、その画像圧縮データを伸張して画像データ(以下「表示用画像データ」と称する)を生成する。 When each of the participant device 2, the participant device 3, and the network projector 4 receives the compressed image data from the presenter device 1, it decompresses the compressed image data (hereinafter referred to as "display image data"). ) Is generated.
 参加者装置2と参加者装置3とのそれぞれは、表示用画像データに応じた画像を表示する。ネットワークプロジェクター4は、表示用画像データに応じた画像光を、スクリーン4aに投射して、スクリーン4a上に、表示用画像データに応じた画像を表示する。 Each of the participant device 2 and the participant device 3 displays an image corresponding to the display image data. The network projector 4 projects image light according to the display image data onto the screen 4a, and displays an image according to the display image data on the screen 4a.
 このため、参加者装置2と参加者装置3とネットワークプロジェクター4とのそれぞれは、発表者装置1が表示中の画面と同じ画面を表示することになる。 Therefore, each of the participant device 2, the participant device 3, and the network projector 4 displays the same screen as the screen that the presenter device 1 is displaying.
 また、発表者装置1と参加者装置2と参加者装置3とのそれぞれは、自装置の使用者が発言すると、自装置に接続されているマイクから、その発言を表す音声データを受け付ける。 Further, each of the presenter device 1, the participant device 2, and the participant device 3 accepts voice data representing the speech from the microphone connected to the device when the user of the device itself speaks.
 発表者装置1と参加者装置2と参加者装置3とのそれぞれは、マイクから音声データを受け付けるごとに、その音声データを、その音声データの受付時刻を示す時刻データと対応づけて自装置に保存する。 Each time the presenter device 1, the participant device 2, and the participant device 3 accept the sound data from the microphone, the presenter device 1 associates the sound data with the time data indicating the reception time of the sound data. save.
 また、発表者装置1と参加者装置2と参加者装置3とのそれぞれは、音声データを受け付けるごとに、その音声データを圧縮して音声圧縮データを生成する。発表者装置1と参加者装置2と参加者装置3とのそれぞれは、その音声圧縮データを、電子会議システム内の他の装置に送信する。 In addition, each time the presenter device 1, the participant device 2, and the participant device 3 receive the sound data, the sound data is compressed to generate sound compressed data. Each of the presenter device 1, the participant device 2, and the participant device 3 transmits the compressed audio data to other devices in the electronic conference system.
 また、発表者装置1と参加者装置2と参加者装置3とネットワークプロジェクター4とのそれぞれは、電子会議システム内の他の装置から音声圧縮データを受信すると、その音声圧縮データを伸張して音声データ(以下「復元音声データ」と称する)を生成する。 In addition, when each of the presenter device 1, the participant device 2, the participant device 3, and the network projector 4 receives the audio compression data from the other devices in the electronic conference system, the audio compression data is expanded and the audio data is decompressed. Data (hereinafter referred to as “restored audio data”) is generated.
 発表者装置1と参加者装置2と参加者装置3とネットワークプロジェクター4とのそれぞれは、復元音声データに応じた音声を出力する。 Each of the presenter device 1, the participant device 2, the participant device 3, and the network projector 4 outputs a sound corresponding to the restored sound data.
 このため、各装置の使用者の発言は、電子会議システムを介して、リアルタイムで、他の使用者に伝えられる。 For this reason, the remarks of the users of each device are transmitted to other users in real time via the electronic conference system.
 会議が終了すると、発表者装置1は、参加者装置2と参加者装置3とから、各装置内に互いに対応づけられて保存されている音声データおよび時刻データを収集して保存する。 When the conference is completed, the presenter device 1 collects and stores the voice data and time data stored in association with each other from the participant device 2 and the participant device 3.
 発表者装置1は、データを再生する旨の再生指示を受け付けると、発表者装置1内の各音声データおよび画像データを、そのデータに対応する時刻データが表す時刻順に読み出し再生する。 When the presenter device 1 accepts a reproduction instruction to reproduce data, the presenter device 1 reads and reproduces each audio data and image data in the presenter device 1 in the order of time represented by the time data corresponding to the data.
 このため、電子会議システムを使用した会議での各装置の使用者(発表者および参加者)の発言と、会議で表示された画像(例えば、説明用資料)と、を用いて、実際に行われた会議を再現することが可能になる。 For this reason, using the remarks of the users (presenters and participants) of each device in a conference using the electronic conference system and images (for example, explanatory materials) displayed at the conference, the actual performance is performed. It becomes possible to reproduce the conference that was closed.
 図2は、発表者装置1、参加者装置2および参加者装置3の全ての機能を有する情報処理装置が発表者装置1であるときに機能する構成要素を示したブロック図である。 FIG. 2 is a block diagram showing components that function when the information processing apparatus having all the functions of the presenter apparatus 1, the participant apparatus 2, and the participant apparatus 3 is the presenter apparatus 1.
 図2において、発表者装置1は、時刻データ生成部101と、記憶装置102と、音声録音装置103と、音声圧縮部104と、TCP/IP(Transmission Control Protocol / Internet Protocol)プロトコルスタック部105と、会議管理部106と、映像表示装置107と、画面キャプチャ部108と、画像圧縮部109と、音声伸張部110と、音声出力装置111と、読出部112と、を含む。TCP/IPプロトコルスタック部105と会議管理部106とは、管理部113に含まれる。 In FIG. 2, the presenter device 1 includes a time data generation unit 101, a storage device 102, a voice recording device 103, a voice compression unit 104, and a TCP / IP (Transmission Control Protocol / Internet Protocol) protocol stack unit 105. A conference management unit 106, a video display device 107, a screen capture unit 108, an image compression unit 109, an audio expansion unit 110, an audio output device 111, and a reading unit 112. The TCP / IP protocol stack unit 105 and the conference management unit 106 are included in the management unit 113.
 時刻データ生成部101は、一般的に生成手段と呼ぶことができる。時刻データ生成部101は、時刻を表す時刻データを生成する。なお、2つの時刻データ生成部101が設けられ、一方が音声録音装置103に内蔵され、他方が画面キャプチャ部108に内蔵されてもよい。 The time data generation unit 101 can be generally referred to as generation means. The time data generation unit 101 generates time data representing time. Two time data generation units 101 may be provided, one of which is built in the audio recording device 103 and the other is built in the screen capture unit 108.
 記憶装置102は、一般的に記憶手段と呼ぶことができる。記憶装置102は、例えば、大容量の記憶装置である。 Storage device 102 can generally be referred to as storage means. The storage device 102 is, for example, a large capacity storage device.
 音声録音装置103は、一般的に録音手段と呼ぶことができる。 The voice recording device 103 can generally be called a recording means.
 音声録音装置103は、自装置の使用者(発表者)の発言を表す音声データを受け付けると、時刻データ生成部101を参照して、その音声データと、その音声データの受け付け時刻を表す時刻データとを、互いに対応づけて記憶装置102に記憶すると共に、その音声データを、音声圧縮部104に提供する。 When the voice recording device 103 receives voice data representing the speech of the user (presenter) of the own device, the voice recording device 103 refers to the time data generation unit 101 and refers to the voice data and time data representing the reception time of the voice data. Are associated with each other and stored in the storage device 102, and the audio data is provided to the audio compression unit 104.
 音声圧縮部104は、一般的に音声圧縮手段と呼ぶことができる。 The voice compression unit 104 can be generally called voice compression means.
 音声圧縮部104は、音声データを受け付けると、その音声データを圧縮して第1音声圧縮データを生成する。音声圧縮部104は、第1音声圧縮データを、管理部113に提供する。 When the audio compression unit 104 receives the audio data, the audio compression unit 104 compresses the audio data to generate first audio compression data. The audio compression unit 104 provides the first audio compression data to the management unit 113.
 映像表示装置107は、一般的に表示手段と呼ぶことができる。 The video display device 107 can be generally called display means.
 映像表示装置107は、画像データに応じた画像を表示する。映像表示装置107は、例えば、発表用資料を表す画像データに応じた画像を表示する。 The video display device 107 displays an image corresponding to the image data. For example, the video display device 107 displays an image corresponding to the image data representing the presentation material.
 画面キャプチャ部108は、一般的にキャプチャ手段と呼ぶことができる。 The screen capture unit 108 can be generally called capture means.
 画面キャプチャ部108は、映像表示装置107に表示中の画像に応じた画像データをキャプチャし、時刻データ生成部101を参照して、画像データと、画像データのキャプチャ時刻を表す時刻データとを、互いに対応づけて記憶装置102に記憶すると共に、画像データを、画像圧縮部109に提供する。 The screen capture unit 108 captures image data corresponding to the image being displayed on the video display device 107, refers to the time data generation unit 101, and displays the image data and time data indicating the capture time of the image data. The image data is stored in the storage device 102 in association with each other, and the image data is provided to the image compression unit 109.
 画像圧縮部109は、一般的に画像圧縮手段と呼ぶことができる。 The image compression unit 109 can be generally called image compression means.
 画像圧縮部109は、画像データを受け付けると、画像データを圧縮して画像圧縮データを生成する。画像圧縮部109は、画像圧縮データを、管理部113に提供する。 When the image compression unit 109 receives the image data, the image compression unit 109 compresses the image data to generate compressed image data. The image compression unit 109 provides the compressed image data to the management unit 113.
 管理部113は、一般的に管理手段と呼ぶことができる。 The management unit 113 can generally be referred to as management means.
 管理部113は、音声圧縮部104から第1音声圧縮データを受け付けると、第1音声圧縮データを、参加者装置2と参加者装置3とネットワークプロジェクター4とのそれぞれに送信する。 When the management unit 113 receives the first audio compression data from the audio compression unit 104, the management unit 113 transmits the first audio compression data to each of the participant device 2, the participant device 3, and the network projector 4.
 管理部113は、画像圧縮部109から画像圧縮データを受け付けると、画像圧縮データを、参加者装置2と参加者装置3とネットワークプロジェクター4とのそれぞれに送信する。 When the management unit 113 receives the compressed image data from the image compression unit 109, the management unit 113 transmits the compressed image data to each of the participant device 2, the participant device 3, and the network projector 4.
 管理部113は、参加者装置2と参加者装置3とのいずれかから、音声圧縮データを受信すると、その音声圧縮データ(以下「第2音声圧縮データ」と称する)を、音声伸張部110に提供する。なお、第2音声圧縮データは、そのデータの送信元の使用者の発言を表す。 Upon receiving the audio compression data from either the participant device 2 or the participant device 3, the management unit 113 sends the audio compression data (hereinafter referred to as “second audio compression data”) to the audio expansion unit 110. provide. Note that the second audio compression data represents a statement of the user who transmitted the data.
 音声伸張部110は、一般的に音声伸張手段と呼ぶことができる。 The voice decompression unit 110 can be generally referred to as voice decompression means.
 音声伸張部110は、管理部113から第2音声圧縮データを受け付けると、第2音声圧縮データを伸張して復元音声データを生成する。音声伸張部110は、復元音声データを、音声出力装置111に提供する。 Upon receiving the second audio compression data from the management unit 113, the audio expansion unit 110 expands the second audio compression data and generates restored audio data. The audio decompression unit 110 provides the restored audio data to the audio output device 111.
 音声出力装置111は、一般的に音声出力手段と呼ぶことができる。 The audio output device 111 can generally be referred to as audio output means.
 音声出力装置111は、復元音声データを受け付けると、復元音声データに応じた音声を出力する。 When the voice output device 111 receives the restored voice data, the voice output device 111 outputs a voice corresponding to the restored voice data.
 また、管理部113は、例えば、リアルタイムで音声圧縮データと画像圧縮データとを他の装置との間で送受信する会議が終了した後に、データを収集する旨の収集指示を受け付けると、他の情報処理装置である参加者装置2および参加者装置3に、データを要求する旨の要求情報を送信する。 In addition, for example, when the management unit 113 receives a collection instruction to collect data after a conference for transmitting and receiving audio compression data and image compression data to and from other devices in real time is completed, the management unit 113 receives other information. Request information for requesting data is transmitted to the participant device 2 and the participant device 3 which are processing devices.
 管理部113は、要求情報送信後、参加者装置2と参加者装置3のそれぞれから、その装置の使用者の発言を表す音声データと、その音声データが表す発言の時刻を表す時刻データと、を受信すると、その音声データと時刻データとを、互いに対応づけて記憶装置102に追加記憶する。 After transmitting the request information, the management unit 113 transmits voice data representing the speech of the user of the device from each of the participant device 2 and the participant device 3, time data representing the time of the speech represented by the speech data, , The audio data and the time data are additionally stored in the storage device 102 in association with each other.
 TCP/IPプロトコルスタック部105は、LAN5と接続し、発表者装置1と電子会議システム内の他の装置との間の通信を制御する。 The TCP / IP protocol stack unit 105 is connected to the LAN 5 and controls communication between the presenter device 1 and other devices in the electronic conference system.
 会議管理部106は、電子会議システムに参加している装置を把握し、発表者装置1の使用者すなわち発表者からの指示(例えば、収集指示)に基づいて、種々のコマンド(例えば、要求情報)を出力する。 The conference management unit 106 grasps devices participating in the electronic conference system, and performs various commands (for example, request information) based on an instruction (for example, a collection instruction) from the user of the presenter device 1, that is, the presenter. ) Is output.
 読出部112は、一般的に読出手段と呼ぶことができる。 Reading unit 112 can generally be referred to as reading means.
 読出部112は、再生指示を受け付けると、記憶装置102内の音声データを、その音声データに対応する時刻データが表す時刻順に読み出す。 When the reading unit 112 receives the reproduction instruction, the reading unit 112 reads the audio data in the storage device 102 in the order of the time represented by the time data corresponding to the audio data.
 本実施形態では、読出部112は、再生指示を受け付けると、記憶装置102内の音声データおよび画像データを、そのデータに対応する時刻データが表す時刻順に読み出す。 In the present embodiment, when receiving the reproduction instruction, the reading unit 112 reads the audio data and the image data in the storage device 102 in the order of time represented by the time data corresponding to the data.
 読出部112は、音声データを読み出すごとに、その音声データを音声出力装置111に提供し、また、画像データを読み出すごとに、その画像データを映像表示装置107に提供する。 The reading unit 112 provides the audio data to the audio output device 111 every time the audio data is read, and provides the image data to the video display device 107 every time the image data is read.
 音声出力装置111は、読出部112から音声データを受け付けると、その音声データに応じた音声を出力する。 When the audio output device 111 receives audio data from the reading unit 112, the audio output device 111 outputs audio corresponding to the audio data.
 映像表示装置107は、読出部112から画像データを受け付けると、その画像データに応じた画像を出力する。 When the image display device 107 receives image data from the reading unit 112, the image display device 107 outputs an image corresponding to the image data.
 図3は、発表者装置1、参加者装置2および参加者装置3の全ての機能を有する情報処理装置が参加者装置2であるときに機能する構成要素を示したブロック図である。 FIG. 3 is a block diagram showing components that function when the information processing apparatus having all functions of the presenter apparatus 1, the participant apparatus 2, and the participant apparatus 3 is the participant apparatus 2.
 図3において、参加者装置2は、時刻データ生成部201と、記憶装置202と、音声録音装置203と、音声圧縮部204と、TCP/IPプロトコルスタック部205と、会議管理部206と、画像伸張部207と、映像表示装置208と、音声伸張部209と、音声出力装置210と、を含む。TCP/IPプロトコルスタック部205と、会議管理部206とは、管理部211に含まれる。 In FIG. 3, the participant device 2 includes a time data generation unit 201, a storage device 202, a voice recording device 203, a voice compression unit 204, a TCP / IP protocol stack unit 205, a conference management unit 206, an image An expansion unit 207, a video display device 208, an audio expansion unit 209, and an audio output device 210 are included. The TCP / IP protocol stack unit 205 and the conference management unit 206 are included in the management unit 211.
 時刻データ生成部201は、時刻を表す時刻データを生成する。 The time data generation unit 201 generates time data representing time.
 記憶装置202は、一般的にデータ記憶手段と呼ぶことができる。記憶装置202は、例えば、大容量の記憶装置である。 Storage device 202 can generally be referred to as data storage means. The storage device 202 is, for example, a large capacity storage device.
 音声録音装置203は、自装置の使用者(参加者)の発言を表す音声データを受け付けると、時刻データ生成部201を参照して、その音声データと、その音声データの受け付け時刻を表す時刻データとを、互いに対応づけて記憶装置202に記憶すると共に、その音声データを、音声圧縮部204に提供する。 When the voice recording device 203 receives the voice data representing the speech of the user (participant) of the own device, the voice recording device 203 refers to the time data generation unit 201 and refers to the voice data and the time data representing the reception time of the voice data. Are associated with each other and stored in the storage device 202, and the sound data is provided to the sound compression unit 204.
 音声圧縮部204は、音声データを受け付けると、その音声データを圧縮して第2音声圧縮データを生成する。音声圧縮部204は、第2音声圧縮データを、管理部211に提供する。 When the audio compression unit 204 receives the audio data, the audio compression unit 204 compresses the audio data to generate second audio compression data. The audio compression unit 204 provides the second audio compression data to the management unit 211.
 管理部211は、音声圧縮部204から第2音声圧縮データを受け付けると、第2音声圧縮データを、発表者装置1と参加者装置3とネットワークプロジェクター4のそれぞれに送信する。 When the management unit 211 receives the second audio compression data from the audio compression unit 204, the management unit 211 transmits the second audio compression data to each of the presenter device 1, the participant device 3, and the network projector 4.
 管理部211は、発表者装置1から画像圧縮データを受信すると、その画像圧縮データを、画像伸張部207に提供する。 When receiving the compressed image data from the presenter apparatus 1, the management unit 211 provides the compressed image data to the image decompression unit 207.
 画像伸張部207は、一般的に画像データ伸張手段と呼ぶことができる。 The image decompression unit 207 can be generally called image data decompression means.
 画像伸張部207は、画像圧縮データを受け付けると、その画像圧縮データを展開すなわち伸張して表示用画像データを生成する。画像伸張部207は、表示用画像データを、映像表示装置208に提供する。 When the image decompression unit 207 receives the compressed image data, the image decompression unit 207 expands or decompresses the compressed image data to generate display image data. The image expansion unit 207 provides display image data to the video display device 208.
 映像表示装置208は、表示用画像データを受け付けると、その表示用画像データに応じた画像を表示する。 When the video display device 208 receives the display image data, the video display device 208 displays an image corresponding to the display image data.
 また、管理部211は、発表者装置1または参加者装置3から音声圧縮データを受信すると、その音声圧縮データを、音声伸張部209に提供する。 Further, when receiving the audio compression data from the presenter device 1 or the participant device 3, the management unit 211 provides the audio compression data to the audio expansion unit 209.
 音声伸張部209は、音声圧縮データを受け付けると、その音声圧縮データを展開すなわち伸張して復元音声データを生成する。音声伸張部209は、復元音声データを、音声出力装置210に提供する。 When the voice decompression unit 209 receives the voice compression data, the voice decompression unit 209 expands, that is, decompresses the voice compression data to generate restored voice data. The audio decompression unit 209 provides the restored audio data to the audio output device 210.
 音声出力装置210は、復元音声データを受け付けると、その復元音声データに応じた音声を出力する。 When receiving the restored voice data, the voice output device 210 outputs a voice corresponding to the restored voice data.
 また、管理部211は、発表者装置1から要求情報を受信すると、記憶装置202内に互いに対応づけて記憶してある音声データおよび時刻データの組を読み出し、その組を、発表者装置1に送信する。 In addition, when receiving the request information from the presenter apparatus 1, the management unit 211 reads a set of audio data and time data stored in association with each other in the storage device 202, and sends the set to the presenter apparatus 1. Send.
 TCP/IPプロトコルスタック部205は、LAN5と接続し、参加者装置2と電子会議システム内の他の装置との間の通信を制御する。 The TCP / IP protocol stack unit 205 is connected to the LAN 5 and controls communication between the participant device 2 and other devices in the electronic conference system.
 会議管理部206は、電子会議システムに参加している装置を把握し、発表者装置1からの指示(例えば、要求情報)、または、参加者装置2の使用者(参加者)からの指示に基づいて、種々の情報を出力する。 The conference management unit 206 grasps the devices participating in the electronic conference system, and responds to an instruction from the presenter device 1 (for example, request information) or an instruction from a user (participant) of the participant device 2. Based on this, various information is output.
 図4は、発表者装置1、参加者装置2および参加者装置3の全ての機能を有する情報処理装置が参加者装置3であるときに機能する構成要素を示したブロック図である。 FIG. 4 is a block diagram showing components that function when the information processing apparatus having all the functions of the presenter apparatus 1, the participant apparatus 2 and the participant apparatus 3 is the participant apparatus 3.
 図4において、参加者装置3は、時刻データ生成部301と、記憶装置302と、音声録音装置303と、音声圧縮部304と、TCP/IPプロトコルスタック部305と、会議管理部306と、画像伸張部307と、映像表示装置308と、音声伸張部309と、音声出力装置310と、を含む。TCP/IPプロトコルスタック部305と、会議管理部306とは、管理部311に含まれる。 In FIG. 4, the participant device 3 includes a time data generation unit 301, a storage device 302, a voice recording device 303, a voice compression unit 304, a TCP / IP protocol stack unit 305, a conference management unit 306, an image A decompression unit 307, a video display device 308, an audio decompression unit 309, and an audio output device 310 are included. The TCP / IP protocol stack unit 305 and the conference management unit 306 are included in the management unit 311.
 なお、時刻データ生成部301は、時刻データ生成部201と同様に機能する。記憶装置302は、記憶装置202と同様に機能する。音声録音装置303は、音声録音装置203と同様に機能する。音声圧縮部304は、音声圧縮部204と同様に機能する。TCP/IPプロトコルスタック部305は、TCP/IPプロトコルスタック部205と同様に機能する。会議管理部306は、会議管理部206と同様に機能する。画像伸張部307は、画像伸張部207と同様に機能する。映像表示装置308は、映像表示装置208と同様に機能する。音声伸張部309は、音声伸張部209と同様に機能する。音声出力装置310は、音声出力装置210と同様に機能する。 Note that the time data generation unit 301 functions in the same manner as the time data generation unit 201. The storage device 302 functions in the same manner as the storage device 202. The voice recording device 303 functions in the same manner as the voice recording device 203. The audio compression unit 304 functions in the same manner as the audio compression unit 204. The TCP / IP protocol stack unit 305 functions in the same manner as the TCP / IP protocol stack unit 205. The conference management unit 306 functions in the same manner as the conference management unit 206. The image expansion unit 307 functions in the same manner as the image expansion unit 207. The video display device 308 functions in the same manner as the video display device 208. The audio expansion unit 309 functions in the same manner as the audio expansion unit 209. The audio output device 310 functions in the same manner as the audio output device 210.
 図2、図3および図4では、発表者装置1、参加者装置2および参加者装置3の全ての機能を有する情報処理装置が有する、時刻データ生成部、記憶装置、音声録音装置、音声圧縮部、TCP/IPプロトコルスタック部、会議管理部、映像表示装置、画面キャプチャ部、画像圧縮部、音声伸張部、音声出力装置、読出部、管理部、画像伸張部のそれぞれについて、発表者装置1と参加者装置2と参加者装置3とで別々の符号を付したが、同一名称の各々は、異なる符合で示された同一名称のものが有する機能の全てを有する。 2, 3, and 4, an information processing device having all functions of the presenter device 1, the participant device 2, and the participant device 3 has a time data generation unit, a storage device, a voice recording device, and a voice compression Presenter device 1 for each of a copy unit, a TCP / IP protocol stack unit, a conference management unit, a video display device, a screen capture unit, an image compression unit, an audio expansion unit, an audio output device, a reading unit, a management unit, and an image expansion unit The participant device 2 and the participant device 3 are assigned different reference numerals, but each of the same names has all the functions of the same names indicated by different signs.
 発表者装置1、参加者装置2および参加者装置3の全ての機能を有する情報処理装置は、例えば、発表者装置1の構成に、参加者装置2内の画像伸張部207を加え、さらに、発表者装置1内の管理部113が、参加者装置2内の管理部211の機能を有するものである。 An information processing apparatus having all the functions of the presenter apparatus 1, the participant apparatus 2, and the participant apparatus 3, for example, adds an image expansion unit 207 in the participant apparatus 2 to the configuration of the presenter apparatus 1, and The management unit 113 in the presenter device 1 has the function of the management unit 211 in the participant device 2.
 なお、発表者装置1、参加者装置2および参加者装置3の全ての機能を有する情報処理装置の各構成部は、ハードウェアでもよいし、また、各構成部の機能を規定したプログラムを実行するコンピュータによって実現されてもよい。 In addition, each component of the information processing apparatus having all the functions of the presenter device 1, the participant device 2, and the participant device 3 may be hardware or execute a program that defines the function of each component. May be realized by a computer.
 発表者装置1、参加者装置2および参加者装置3の全ての機能を有する情報処理装置の各構成部が、プログラムを実行するコンピュータにて実現される場合、各構成部の機能を規定したプログラムは、CD-ROM、ハードディスクまたはメモリ等のコンピュータ読み取り可能な記録媒体に記録されており、コンピュータが、その記録媒体から、そのコンピュータを読み取り実行して、上述した機能を実現する。 When each component of the information processing apparatus having all the functions of the presenter device 1, the participant device 2, and the participant device 3 is realized by a computer that executes a program, a program that defines the function of each component Is recorded on a computer-readable recording medium such as a CD-ROM, hard disk, or memory, and the computer reads and executes the computer from the recording medium to implement the above-described functions.
 図5は、ネットワークプロジェクター4を示したブロック図である。 FIG. 5 is a block diagram showing the network projector 4.
 図5において、ネットワークプロジェクター4は、TCP/IPプロトコルスタック部401と、会議管理部402と、画像伸張部403と、映像表示装置404と、音声伸張部405と、音声出力装置406と、を含む。TCP/IPプロトコルスタック部401と、会議管理部402とは、管理部407に含まれる。 5, the network projector 4 includes a TCP / IP protocol stack unit 401, a conference management unit 402, an image expansion unit 403, a video display device 404, an audio expansion unit 405, and an audio output device 406. . The TCP / IP protocol stack unit 401 and the conference management unit 402 are included in the management unit 407.
 管理部407は、発表者装置1から画像圧縮データを受信すると、その画像圧縮データを、画像伸張部403に提供する。 When receiving the compressed image data from the presenter apparatus 1, the management unit 407 provides the compressed image data to the image decompression unit 403.
 画像伸張部403は、画像圧縮データを受け付けると、その画像圧縮データを展開すなわち伸張して表示用画像データを生成する。画像伸張部403は、表示用画像データを、映像表示装置404に提供する。 When the image decompression unit 403 receives the compressed image data, the image decompression unit 403 expands or decompresses the compressed image data to generate display image data. The image expansion unit 403 provides display image data to the video display device 404.
 映像表示装置404は、表示用画像データを受け付けると、その表示用画像データに応じた画像光をスクリーン4aに投射して、スクリーン4a上に、表示用画像データに応じた画像を表示する。 Upon receiving the display image data, the video display device 404 projects image light according to the display image data onto the screen 4a, and displays an image according to the display image data on the screen 4a.
 また、管理部407は、発表者装置1、参加者装置2または参加者装置3から、音声圧縮データを受信すると、その音声圧縮データを、音声伸張部405に提供する。 Further, when the management unit 407 receives audio compression data from the presenter device 1, the participant device 2, or the participant device 3, the management unit 407 provides the audio compression data to the audio expansion unit 405.
 音声伸張部405は、音声圧縮データを受け付けると、その音声圧縮データを展開すなわち伸張して復元音声データを生成する。音声伸張部405は、復元音声データを、音声出力装置406に提供する。 When the voice decompression unit 405 receives the voice compression data, the voice decompression unit 405 expands, that is, decompresses the voice compression data to generate restored voice data. The audio decompression unit 405 provides the restored audio data to the audio output device 406.
 音声出力装置406は、復元音声データを受け付けると、その復元音声データに応じた音声を出力する。 When receiving the restored voice data, the voice output device 406 outputs a voice corresponding to the restored voice data.
 TCP/IPプロトコルスタック部401は、LAN5と接続し、ネットワークプロジェクター4と電子会議システム内の他の装置との通信を制御する。 The TCP / IP protocol stack unit 401 is connected to the LAN 5 and controls communication between the network projector 4 and other devices in the electronic conference system.
 会議管理部402は、電子会議システムに参加している装置を把握する。 The conference management unit 402 grasps devices participating in the electronic conference system.
 なお、TCP/IPプロトコルスタック部105、TCP/IPプロトコルスタック部205、TCP/IPプロトコルスタック部305およびTCP/IPプロトコルスタック部401は、インターネットまたはイントラネットで標準的に使われる通信のためのプロトコルに基づいて動作する。 Note that the TCP / IP protocol stack unit 105, the TCP / IP protocol stack unit 205, the TCP / IP protocol stack unit 305, and the TCP / IP protocol stack unit 401 are protocols for communication that are used as standard in the Internet or an intranet. Work on the basis.
 また、発表者装置1、参加者装置2、参加者装置3、ネットワークプロジェクター4とも、自装置内のTCP/IPプロトコルスタック部の設定は完了しており、LAN5に接続して、相互に通信が可能な状態になっているとする。 In addition, the presenter device 1, participant device 2, participant device 3, and network projector 4 have completed the setting of the TCP / IP protocol stack unit in their own devices, and are connected to the LAN 5 to communicate with each other. Suppose that it is possible.
 次に、動作を説明する。 Next, the operation will be described.
 図6は、電子会議システムの動作を説明するためのフローチャートである。以下、図6を参照して、電子会議システムの動作を説明する。 FIG. 6 is a flowchart for explaining the operation of the electronic conference system. The operation of the electronic conference system will be described below with reference to FIG.
 会議を開始するために、発表者装置1が、ネットワークプロジェクター4に接続する(ステップ601)。 In order to start the conference, the presenter apparatus 1 connects to the network projector 4 (step 601).
 続いて、発表者装置1の会議管理部106は、発表者装置1の識別情報と、ネットワークプロジェクター4の識別情報とを、会議管理情報として格納する。なお、会議管理部106は、自装置の識別情報と、ネットワークプロジェクター4の識別情報とを、予め認識しているものとする。 Subsequently, the conference management unit 106 of the presenter device 1 stores the identification information of the presenter device 1 and the identification information of the network projector 4 as conference management information. It is assumed that the conference management unit 106 recognizes the identification information of the own device and the identification information of the network projector 4 in advance.
 なお、会議管理情報は、会議に参加している装置の識別情報を表す。 Note that the conference management information represents identification information of the devices participating in the conference.
 次に、発表者装置1は、ネットワークプロジェクター4に、画像データ(具体的には、画像圧縮データ)と音声データ(具体的には、音声圧縮データ)とを送信する(ステップ602)。 Next, the presenter device 1 transmits image data (specifically, compressed image data) and audio data (specifically, compressed audio data) to the network projector 4 (step 602).
 以下、ステップ602とステップ602に伴う動作について説明する。 Hereinafter, the operation accompanying step 602 and step 602 will be described.
 図2を参照すると、発表者装置1の会議管理部106は、時刻データ生成部101の時刻データが現在表している時刻を、会議開始時刻t0に設定する。このため、時刻データ生成部101の時刻データは、会議開始時刻t0を基準にした時刻、すなわち、会議開始時刻t0からの経過時間を表すようになる。 Referring to FIG. 2, the conference management unit 106 of the presenter apparatus 1 sets the time currently indicated by the time data of the time data generation unit 101 to the conference start time t0. For this reason, the time data of the time data generation unit 101 represents a time based on the conference start time t0, that is, an elapsed time from the conference start time t0.
 続いて、会議管理部106は、音声録音装置103と画面キャプチャ部108の動作を開始させる。 Subsequently, the conference management unit 106 starts the operations of the voice recording device 103 and the screen capture unit 108.
 音声録音装置103は、マイク1aから音声データを受け付けるごとに、その音声データを、非圧縮のまま記憶装置102に音声データ1として保存すると同時に、その音声データを、音声圧縮部104に提供する。 Whenever the voice recording device 103 receives voice data from the microphone 1 a, the voice recording device 103 stores the voice data as the voice data 1 in the storage device 102 without being compressed, and simultaneously provides the voice data to the voice compression unit 104.
 音声圧縮部104は、音声データを受け付けると、その音声データを圧縮して音声圧縮データを生成する。音声圧縮部104は、音声圧縮データを、TCP/IPプロトコルスタック部105に提供する。 When the audio compression unit 104 receives the audio data, the audio compression unit 104 compresses the audio data to generate audio compression data. The voice compression unit 104 provides the voice compression data to the TCP / IP protocol stack unit 105.
 TCP/IPプロトコルスタック部105は、音声圧縮データを受け付けると、その音声圧縮データを、LAN5経由でネットワークプロジェクター4に送信する。 When the TCP / IP protocol stack unit 105 receives the audio compression data, the TCP / IP protocol stack unit 105 transmits the audio compression data to the network projector 4 via the LAN 5.
 リアルタイムで会議を行うためには、音声データを圧縮して、LAN5に出力されるデータを少なくすることが好ましい。 In order to hold a conference in real time, it is preferable to compress the audio data and reduce the data output to the LAN 5.
 なお、音声録音装置103は、マイク1aから音声データを受け付けると、時刻データ生成部101を参照し、音声データ1を議事録用データとして、会議時刻t0を表す時刻データと対応づけて、記憶装置102に保存する。 When the voice recording device 103 receives the voice data from the microphone 1a, the voice recording device 103 refers to the time data generation unit 101, associates the voice data 1 with the minutes data and the time data representing the meeting time t0, and the storage device. Save to 102.
 図5を参照すると、ネットワークプロジェクター4では、TCP/IPプロトコルスタック部401は、音声圧縮データを受信すると、その音声圧縮データを、音声伸張部405に提供する。 Referring to FIG. 5, in the network projector 4, when the TCP / IP protocol stack unit 401 receives the audio compression data, the TCP / IP protocol stack unit 401 provides the audio compression unit 405 with the audio compression data.
 音声伸張部405は、音声圧縮データを受け付けると、その音声圧縮データを展開すなわち伸張して復元音声データを生成する。音声伸張部405は、復元音声データを、音声出力装置406に提供する。 When the voice decompression unit 405 receives the voice compression data, the voice decompression unit 405 expands, that is, decompresses the voice compression data to generate restored voice data. The audio decompression unit 405 provides the restored audio data to the audio output device 406.
 音声出力装置406は、復元音声データを受け付けると、その復元音声データに応じた音声を出力する。 When receiving the restored voice data, the voice output device 406 outputs a voice corresponding to the restored voice data.
 図2を参照すると、画面キャプチャ部108は、映像表示装置107が表示中の画像を表す画像データをキャプチャする。 Referring to FIG. 2, the screen capture unit 108 captures image data representing an image being displayed by the video display device 107.
 画像キャプチャ部108は、キャプチャした画像データを、非圧縮のまま、記憶装置102に保存すると同時に、その画像データを、画像圧縮部109に提供する。 The image capture unit 108 stores the captured image data in the storage device 102 without being compressed, and simultaneously provides the image data to the image compression unit 109.
 画像圧縮部109は、画像データを受け付けると、その画像データを圧縮して画像圧縮データを生成する。画像圧縮部109は、画像圧縮データを、TCP/IPプロトコルスタック部105に提供する。 When the image compression unit 109 receives the image data, the image compression unit 109 compresses the image data to generate compressed image data. The image compression unit 109 provides the compressed image data to the TCP / IP protocol stack unit 105.
 TCP/IPプロトコルスタック部105は、画像圧縮データを受け付けると、その画像圧縮データを、LAN5経由でネットワークプロジェクター4に送信する。 When the TCP / IP protocol stack unit 105 receives the compressed image data, the TCP / IP protocol stack unit 105 transmits the compressed image data to the network projector 4 via the LAN 5.
 リアルタイムで会議を行うためには、画像データを圧縮して、LAN5に出力されるデータを少なくすることが好ましい。 In order to hold a conference in real time, it is preferable to compress the image data and reduce the data output to the LAN 5.
 なお、画像キャプチャ部108は、画像データをキャプチャするごとに、時刻データ生成部101を参照し、画像データを議事録用データとして、会議時刻t0を表す時刻データと対応づけて、記憶装置102に保存する。 Each time the image capture unit 108 captures image data, the image capture unit 108 refers to the time data generation unit 101, associates the image data with the time data representing the conference time t0 as the minutes data, and stores it in the storage device 102. save.
 図5を参照すると、ネットワークプロジェクター4では、TCP/IPプロトコルスタック部401は、画像圧縮データを受信すると、その画像圧縮データを、画像伸張部403に提供する。 Referring to FIG. 5, in the network projector 4, when the TCP / IP protocol stack unit 401 receives the compressed image data, the TCP / IP protocol stack unit 401 provides the compressed image data to the image expansion unit 403.
 画像伸張部403は、画像圧縮データを受け付けると、その画像圧縮データを展開すなわち伸張して表示用画像データを生成する。画像伸張部403は、表示用画像データを、映像表示装置404に提供する。 When the image decompression unit 403 receives the compressed image data, the image decompression unit 403 expands or decompresses the compressed image data to generate display image data. The image expansion unit 403 provides display image data to the video display device 404.
 映像表示装置404は、表示用画像データを受け付けると、表示用画像データに応じた画像光をスクリーン4aに投射して、スクリーン4a上に、表示用画像データに応じた画像を表示する。 Upon receiving the display image data, the video display device 404 projects image light according to the display image data onto the screen 4a, and displays an image according to the display image data on the screen 4a.
 ここまでが、ステップ602とステップ602に伴う動作についての説明である。 Up to this point, the operation associated with step 602 and step 602 has been described.
 次に、参加者装置2が、会議に参加する(ステップ603)。 Next, the participant device 2 participates in the conference (step 603).
 以下、ステップ603とステップ603に伴う動作について説明する。 Hereinafter, the operation accompanying step 603 and step 603 will be described.
 図3を参照すると、参加者装置2の会議管理部206は、参加者装置2の使用者から会議に参加する旨の指示を受け付けると、会議参加コマンドを、TCP/IPプロトコルスタック部205に提供する。 Referring to FIG. 3, when the conference management unit 206 of the participant device 2 receives an instruction to join the conference from the user of the participant device 2, the conference management unit 206 provides a conference participation command to the TCP / IP protocol stack unit 205. To do.
 会議参加コマンドには、参加者装置2の使用者すなわち参加希望者の識別情報(以下「参加者情報」と称する)と、参加者装置2の識別情報と、が付与される。 The conference participation command is provided with identification information (hereinafter referred to as “participant information”) of the user of the participant device 2, that is, a participant who wants to participate, and identification information of the participant device 2.
 TCP/IPプロトコルスタック部205は、会議参加コマンドを受け付けると、その会議参加コマンドを、LAN5経由で発表者装置1に送信する。 When the TCP / IP protocol stack unit 205 receives the conference participation command, it transmits the conference participation command to the presenter apparatus 1 via the LAN 5.
 図2を参照すると、発表者装置1では、TCP/IPプロトコルスタック部105は、会議参加コマンドを受信すると、その会議参加コマンドを会議管理部106に提供する。 Referring to FIG. 2, in the presenter device 1, when receiving the conference participation command, the TCP / IP protocol stack unit 105 provides the conference management unit 106 with the conference participation command.
 会議管理部106は、会議参加コマンドを受け付けると、参加希望者が会議へ参加することについて良否の判断を行う。 When the conference management unit 106 receives the conference participation command, the conference management unit 106 determines whether or not the applicant who wants to participate participates in the conference.
 判断処理としては、一般的な方法が用いられる。 A general method is used as the determination process.
 例えば、会議参加コマンドにパスワードが含まれている場合には、そのパスワードと予め設定されたパスワードとの照合結果に応じた判断処理が用いられてもよい。 For example, when a password is included in the conference participation command, a determination process according to a verification result between the password and a preset password may be used.
 また、会議参加コマンドに付与された参加者情報が発表者装置1に表示され、会議管理部106が、発表者に、参加希望者の会議への参加を許可するかどうかを問い合わせ、その回答に従って良否判断を行ってもよい。 In addition, the participant information given to the conference participation command is displayed on the presenter device 1, and the conference management unit 106 inquires of the presenter whether or not to permit participation of the applicant who wants to participate in the conference, and according to the response A pass / fail judgment may be made.
 会議管理部106は、例えば、発表者から、回答として、参加の許可を表す許可情報を受け付けると、会議参加コマンドに付与されている参加者装置2の識別情報を、会議管理情報として、新たに保存する。 For example, when the conference management unit 106 receives permission information indicating permission of participation as a response from the presenter, the conference management unit 106 newly uses the identification information of the participant device 2 given to the conference participation command as conference management information. save.
 よって、このとき、会議管理部106は、ネットワークプロジェクター4の識別情報と、発表者装置1の識別情報と、参加者装置2の識別情報とを、会議管理情報として、保存することになる。 Therefore, at this time, the conference management unit 106 stores the identification information of the network projector 4, the identification information of the presenter device 1, and the identification information of the participant device 2 as conference management information.
 続いて、会議管理部106は、時刻データ生成部101を参照し、会議管理情報と会議開始時刻t0と参加時刻t1が付加された会議参加許可コマンドを、TCP/IPプロトコルスタック部105に提供する。 Subsequently, the conference management unit 106 refers to the time data generation unit 101 and provides the TCP / IP protocol stack unit 105 with a conference participation permission command to which the conference management information, the conference start time t0, and the participation time t1 are added. .
 TCP/IPプロトコルスタック部105は、会議参加許可コマンドを受け付けると、その会議参加許可コマンドを、LAN5経由で、参加者装置2に送信する。 When the TCP / IP protocol stack unit 105 receives the conference participation permission command, the TCP / IP protocol stack unit 105 transmits the conference participation permission command to the participant apparatus 2 via the LAN 5.
 また、発表者装置1は、参加者装置2への画像圧縮データおよび音声圧縮データの送信を開始する。 In addition, the presenter device 1 starts transmitting image compression data and audio compression data to the participant device 2.
 図3を参照すると、参加者装置2では、TCP/IPプロトコルスタック部205は、会議参加許可コマンドを受信すると、会議参加許可コマンドを会議管理部206に提供する。 Referring to FIG. 3, in the participant device 2, when receiving the conference participation permission command, the TCP / IP protocol stack unit 205 provides the conference management unit 206 with the conference participation permission command.
 会議管理部206は、会議参加許可コマンドを受け付けると、その会議参加許可コマンドに付加されている会議開始時刻t0と参加時刻t1を用いて、会議時間の管理を開始する。 When the conference management unit 206 receives the conference participation permission command, the conference management unit 206 starts managing the conference time using the conference start time t0 and the participation time t1 added to the conference participation permission command.
 例えば、会議管理部206は、時刻データ生成部201の時刻データが現在表している時刻を、参加時刻t1に設定する。このため、時刻データ生成部201の時刻データは、時刻データ生成部101の時刻データと同期し、会議開始時刻t0を基準にした時刻、すなわち、会議開始時刻t0からの経過時間を表すようになる。 For example, the conference management unit 206 sets the time currently indicated by the time data of the time data generation unit 201 to the participation time t1. For this reason, the time data of the time data generation unit 201 is synchronized with the time data of the time data generation unit 101, and represents the time based on the conference start time t0, that is, the elapsed time from the conference start time t0. .
 また、会議管理部206は、会議参加許可コマンドに付加されている会議参加情報(この場合、ネットワークプロジェクター4の識別情報と、発表者装置1の識別情報と、参加者装置2の識別情報)を、保存する。 In addition, the conference management unit 206 receives the conference participation information (in this case, the identification information of the network projector 4, the identification information of the presenter device 1, and the identification information of the participant device 2) added to the conference participation permission command. ,save.
 また、TCP/IPプロトコルスタック部205は、発表者装置1からの画像圧縮データと音声圧縮データの受信を開始する。 Also, the TCP / IP protocol stack unit 205 starts receiving image compression data and audio compression data from the presenter apparatus 1.
 TCP/IPプロトコルスタック部205は、音声圧縮データを受信すると、その音声圧縮データを、音声伸張部209に提供する。 When the TCP / IP protocol stack unit 205 receives the audio compression data, it provides the audio compression unit 209 with the audio compression data.
 音声伸張部209は、音声圧縮データを受け付けると、その音声圧縮データを展開すなわち伸張して復元音声データを生成する。音声伸張部209は、復元音声データを、音声出力装置210に提供する。 When the voice decompression unit 209 receives the voice compression data, the voice decompression unit 209 expands, that is, decompresses the voice compression data to generate restored voice data. The audio decompression unit 209 provides the restored audio data to the audio output device 210.
 音声出力装置210は、復元音声データを受け付けると、その復元音声データに応じた音声を出力する。 When receiving the restored voice data, the voice output device 210 outputs a voice corresponding to the restored voice data.
 TCP/IPプロトコルスタック部205は、画像圧縮データを受信すると、その画像圧縮データを、画像伸張部207に提供する。 When the TCP / IP protocol stack unit 205 receives the compressed image data, the TCP / IP protocol stack unit 205 provides the compressed image data to the image decompression unit 207.
 画像伸張部207は、画像圧縮データを受け付けると、その画像圧縮データを展開すなわち伸張して表示用画像データを生成する。画像伸張部207は、表示用画像データを、映像表示装置208に提供する。 When the image decompression unit 207 receives the compressed image data, the image decompression unit 207 expands or decompresses the compressed image data to generate display image data. The image expansion unit 207 provides display image data to the video display device 208.
 映像表示装置208は、表示用画像データを受け付けると、その表示用画像データに応じた画像を表示する。 When the video display device 208 receives the display image data, the video display device 208 displays an image corresponding to the display image data.
 ここまでが、ステップ603とステップ603に伴う動作についての説明である。 Up to this point, the operation associated with step 603 and step 603 has been described.
 次に、参加者装置3が、会議に参加する(ステップ604)。 Next, the participant device 3 participates in the conference (step 604).
 以下、ステップ604とステップ604に伴う動作について説明する。 Hereinafter, the operation accompanying step 604 and step 604 will be described.
 図4を参照すると、参加者装置3の会議管理部306は、参加者装置3の使用者から会議に参加する旨の指示を受け付けると、会議参加コマンドを、TCP/IPプロトコルスタック部305に提供する。 Referring to FIG. 4, when the conference management unit 306 of the participant device 3 receives an instruction to join the conference from the user of the participant device 3, the conference management unit 306 provides a conference participation command to the TCP / IP protocol stack unit 305. To do.
 会議参加コマンドには、参加者装置3の使用者すなわち参加希望者の識別情報(参加者情報)と、参加者装置3の識別情報と、が付与される。 The conference participation command is provided with identification information (participant information) of the user of the participant device 3, that is, a participant who wants to participate, and identification information of the participant device 3.
 TCP/IPプロトコルスタック部305は、会議参加コマンドを受け付けると、その会議参加コマンドを、LAN5経由で発表者装置1に送信する。 When the TCP / IP protocol stack unit 305 receives the conference participation command, the TCP / IP protocol stack unit 305 transmits the conference participation command to the presenter apparatus 1 via the LAN 5.
 図2を参照すると、発表者装置1では、TCP/IPプロトコルスタック部105は、会議参加コマンドを受信すると、その会議参加コマンドを会議管理部106に提供する。 Referring to FIG. 2, in the presenter device 1, when receiving the conference participation command, the TCP / IP protocol stack unit 105 provides the conference management unit 106 with the conference participation command.
 会議管理部106は、参加者装置2の場合と同様に、参加者装置3に関する参加良否判断を行う。 The conference management unit 106 determines whether or not to participate in the participant device 3 as in the case of the participant device 2.
 会議管理部106は、例えば、発表者から、回答として、許可情報を受け付けると、会議参加コマンドに付加されている参加者装置3の識別情報を、会議管理情報として、新たに保存する。 For example, when the conference management unit 106 receives permission information as a response from the presenter, the conference management unit 106 newly stores the identification information of the participant device 3 added to the conference participation command as conference management information.
 よって、このとき、会議管理部106は、ネットワークプロジェクター4の識別情報と、発表者装置1の識別情報と、参加者装置2の識別情報と、参加者装置3の識別情報とを、会議管理情報として、保存することになる。 Therefore, at this time, the conference management unit 106 uses the conference management information to identify the network projector 4 identification information, the presenter device 1 identification information, the participant device 2 identification information, and the participant device 3 identification information. As will be saved.
 続いて、会議管理部106は、時刻データ生成部101を参照し、会議管理情報と会議開始時刻t0と参加時刻t2が付加された会議参加許可コマンドを、TCP/IPプロトコルスタック部105に提供する。 Next, the conference management unit 106 refers to the time data generation unit 101 and provides the TCP / IP protocol stack unit 105 with a conference participation permission command to which the conference management information, the conference start time t0, and the participation time t2 are added. .
 TCP/IPプロトコルスタック部105は、会議参加許可コマンドを受け付けると、その会議参加許可コマンドを、LAN5経由で、参加者装置3に送信する。 When the TCP / IP protocol stack unit 105 receives the conference participation permission command, the TCP / IP protocol stack unit 105 transmits the conference participation permission command to the participant apparatus 3 via the LAN 5.
 また、発表者装置1は、参加者装置3への画像圧縮データおよび音声圧縮データの送信を開始する。 In addition, the presenter device 1 starts transmitting image compression data and audio compression data to the participant device 3.
 また、発表者装置1は、会議に参加した参加者装置3の識別情報を付加した会議参加情報コマンドを、参加者装置2に通知する。 Also, the presenter device 1 notifies the participant device 2 of a conference participation information command to which identification information of the participant device 3 that has participated in the conference is added.
 図4を参照すると、参加者装置3では、TCP/IPプロトコルスタック部305は、会議参加許可コマンドを受信すると、会議参加許可コマンドを会議管理部306に提供する。 Referring to FIG. 4, in the participant device 3, when receiving the conference participation permission command, the TCP / IP protocol stack unit 305 provides the conference management unit 306 with the conference participation permission command.
 会議管理部306は、会議参加許可コマンドを受け付けると、その会議参加許可コマンドに付加されている会議開始時刻t0と参加時刻t2を用いて、会議時間の管理を開始する。 When the conference management unit 306 receives the conference participation permission command, the conference management unit 306 starts managing the conference time by using the conference start time t0 and the participation time t2 added to the conference participation permission command.
 例えば、会議管理部306は、時刻データ生成部301の時刻データが現在表している時刻を、参加時刻t2に設定する。このため、時刻データ生成部301の時刻データは、時刻データ生成部101の時刻データと同期し、会議開始時刻t0を基準にした時刻、すなわち、会議開始時刻t0からの経過時間を表すようになる。 For example, the conference management unit 306 sets the time that the time data of the time data generation unit 301 currently represents as the participation time t2. For this reason, the time data of the time data generation unit 301 is synchronized with the time data of the time data generation unit 101, and represents the time based on the conference start time t0, that is, the elapsed time from the conference start time t0. .
 また、会議管理部306は、会議参加許可コマンドに付加されている会議参加情報(この場合、ネットワークプロジェクター4の識別情報と、発表者装置1の識別情報と、参加者装置2の識別情報と、参加者装置3の識別情報)を、保存する。 The conference management unit 306 also includes conference participation information added to the conference participation permission command (in this case, identification information of the network projector 4, identification information of the presenter device 1, identification information of the participant device 2, and The identification information of the participant apparatus 3) is stored.
 また、TCP/IPプロトコルスタック部305は、発表者装置1からの画像圧縮データと音声圧縮データの受信を開始し、参加者装置2と同様に画像と音声を出力する。 Also, the TCP / IP protocol stack unit 305 starts to receive the compressed image data and the compressed audio data from the presenter device 1 and outputs the image and the sound in the same manner as the participant device 2.
 図3を参照すると、参加者装置2では、TCP/IPプロトコルスタック部205は、会議参加情報コマンドを受信すると、その会議参加情報コマンドを、会議管理部206に提供する。 Referring to FIG. 3, in the participant device 2, when receiving the conference participation information command, the TCP / IP protocol stack unit 205 provides the conference management unit 206 with the conference participation information command.
 会議管理部206は、会議参加情報コマンドを受け付けると、その会議参加情報コマンドに付加されている参加者装置3の識別情報を取得し、参加者装置3の識別情報を、会議参加情報として、新たに保存する。 Upon receiving the conference participation information command, the conference management unit 206 acquires the identification information of the participant device 3 added to the conference participation information command, and uses the identification information of the participant device 3 as the conference participation information. Save to.
 よって、このとき、会議管理部206は、ネットワークプロジェクター4の識別情報と、発表者装置1の識別情報と、参加者装置2の識別情報と、参加者装置3の識別情報とを、会議管理情報として、保存することになる。 Therefore, at this time, the conference management unit 206 uses the conference management information to identify the network projector 4 identification information, the presenter device 1 identification information, the participant device 2 identification information, and the participant device 3 identification information. As will be saved.
 ここまでが、ステップ604とステップ604に伴う動作についての説明である。 Up to this point, the operation associated with step 604 and step 604 has been described.
 次に、参加者装置2が、使用者の発言を受け付ける(ステップ605)。 Next, the participant device 2 accepts the user's remarks (step 605).
 以下、ステップ605とステップ605に伴う動作について説明する。 Hereinafter, the operation accompanying step 605 and step 605 will be described.
 図3を参照すると、参加者装置2では、音声録音装置203は、マイク2aから提供された音声データを、非圧縮のまま記憶装置202に音声データ2として保存すると同時に、その音声データを、音声圧縮部204に提供する。 Referring to FIG. 3, in the participant device 2, the voice recording device 203 saves the voice data provided from the microphone 2 a as the voice data 2 in the storage device 202 without being compressed, and at the same time, converts the voice data into the voice data. Provided to the compression unit 204.
 音声圧縮部204は、音声データを受け付けると、リアルタイムで会議を行うために、その音声データを圧縮して音声圧縮データを生成する。音声圧縮部204は、音声圧縮データを、TCP/IPプロトコルスタック部205に提供する。 When the audio compression unit 204 receives the audio data, the audio compression unit 204 compresses the audio data to generate audio compression data in order to hold the conference in real time. The voice compression unit 204 provides the voice compression data to the TCP / IP protocol stack unit 205.
 TCP/IPプロトコルスタック部205は、音声圧縮データを受け付けると、会議管理部206内の会議管理情報を参照して、その音声圧縮データを、LAN5経由で、ネットワークプロジェクター4と、発表者装置1と、参加者装置3に送信する。 When the TCP / IP protocol stack unit 205 receives the compressed audio data, the TCP / IP protocol stack unit 205 refers to the conference management information in the conference management unit 206 and sends the compressed audio data to the network projector 4 and the presenter device 1 via the LAN 5. To the participant device 3.
 なお、音声録音装置203は、マイク2aから音声データを受け付けると、時刻データ生成部201を参照し、音声データ2を、議事録用データとして、会議時刻t3を表す時刻データと対応づけて、記憶装置202に保存する。 When the voice recording device 203 receives voice data from the microphone 2a, the voice recording device 203 refers to the time data generation unit 201 and stores the voice data 2 as minutes data in association with time data representing the meeting time t3. Save to device 202.
 それぞれの装置(ネットワークプロジェクター4と、発表者装置1と、参加者装置3)は、参加者装置2からの音声圧縮データを展開して復元音声データを生成し、その復元音声データに応じた音声を出力する。 Each device (the network projector 4, the presenter device 1, and the participant device 3) expands the audio compression data from the participant device 2 to generate restored audio data, and the audio corresponding to the restored audio data Is output.
 ここまでが、ステップ605とステップ605に伴う動作についての説明である。 Up to this point, the operation associated with step 605 and step 605 has been described.
 次に、参加者装置3が、使用者の発言を受け付ける(ステップ606)。 Next, the participant device 3 accepts the user's remarks (step 606).
 以下、ステップ606とステップ606に伴う動作について説明する。 Hereinafter, the operation accompanying step 606 and step 606 will be described.
 図4を参照すると、参加者装置3では、音声録音装置303は、マイク3aから提供された音声データを、非圧縮のまま記憶装置302に音声データ3として保存すると同時に、その音声データを、音声圧縮部304に提供する。 Referring to FIG. 4, in the participant device 3, the voice recording device 303 stores the voice data provided from the microphone 3 a as the voice data 3 in the storage device 302 without being compressed, and at the same time, Provided to the compression unit 304.
 音声圧縮部304は、音声データを受け付けると、リアルタイムで会議を行うために、その音声データを圧縮して音声圧縮データを生成する。音声圧縮部304は、音声圧縮データを、TCP/IPプロトコルスタック部305に提供する。 When the audio compression unit 304 receives the audio data, the audio compression unit 304 compresses the audio data to generate audio compression data in order to hold the conference in real time. The voice compression unit 304 provides the voice compression data to the TCP / IP protocol stack unit 305.
 TCP/IPプロトコルスタック部305は、音声圧縮データを受け付けると、会議管理部306内の会議管理情報を参照して、その音声圧縮データを、LAN5経由で、ネットワークプロジェクター4と、発表者装置1と、参加者装置2に送信する。 When the TCP / IP protocol stack unit 305 receives the audio compression data, the TCP / IP protocol stack unit 305 refers to the conference management information in the conference management unit 306 and sends the audio compression data via the LAN 5 to the network projector 4, the presenter device 1, To the participant device 2.
 なお、音声録音装置303は、マイク3aから音声データを受け付けると、時刻データ生成部301を参照し、音声データ3を、議事録用データとして、会議時刻t4を表す時刻データと対応づけて、記憶装置302に保存する。 When the voice recording device 303 receives the voice data from the microphone 3a, the voice recording device 303 refers to the time data generation unit 301 and stores the voice data 3 as the minutes data in association with the time data representing the meeting time t4. Save to device 302.
 それぞれの装置(ネットワークプロジェクター4と、発表者装置1と、参加者装置2)は、参加者装置3からの音声圧縮データを展開して復元音声データを生成し、その復元音声データに応じた音声を出力する。 Each device (the network projector 4, the presenter device 1, and the participant device 2) expands the audio compression data from the participant device 3 to generate restored audio data, and the audio corresponding to the restored audio data Is output.
 ここまでが、ステップ606とステップ606に伴う動作についての説明である。 Up to this point, the operation associated with step 606 and step 606 has been described.
 次に、参加者装置2が、使用者の発言を受け付ける(ステップ607)。 Next, the participant device 2 accepts the user's remarks (step 607).
 この場合、参加者装置2は、ステップ605と同様の処理を行い、マイク2aから提供された音声データ(音声データ4)を、議事録用データとして、会議時刻t5を表す時刻データと対応づけて、記憶装置202に保存する。 In this case, the participant apparatus 2 performs the same process as in Step 605, and associates the audio data (audio data 4) provided from the microphone 2a with the time data representing the meeting time t5 as the minutes data. And stored in the storage device 202.
 なお、会議時刻t5での発言(音声データ4)が、会議時刻t4の発言(音声データ)がまだ終わっていない状態で始まった場合、参加者装置2と参加者装置3のそれぞれから音声圧縮データを受信する発表者装置1およびネットワークプロジェクター4は、参加者装置2と参加者装置3のそれぞれからの音声圧縮データを展開して各音声データを生成後、各音声データをミックスし、ミックスされた音声データに応じた音声を出力する。 In addition, when the utterance (audio data 4) at the conference time t5 starts in a state where the utterance (audio data) at the conference time t4 has not ended yet, the compressed audio data from each of the participant devices 2 and 3 The presenter device 1 and the network projector 4 that receive the data expand the audio compression data from each of the participant device 2 and the participant device 3 to generate each audio data, and then mix each audio data. Outputs audio according to audio data.
 次に、発表者装置1が、使用者の発言を受け付ける(ステップ608)。 Next, the presenter apparatus 1 accepts the user's remarks (step 608).
 以下、ステップ608とステップ608に伴う動作について説明する。 Hereinafter, the operation accompanying Step 608 and Step 608 will be described.
 図2を参照すると、発表者装置1では、音声録音装置103は、マイク1aから提供された音声データを、非圧縮のまま記憶装置102に音声データ5として保存すると同時に、その音声データを、音声圧縮部104に提供する。 Referring to FIG. 2, in the presenter apparatus 1, the voice recording apparatus 103 stores the voice data provided from the microphone 1 a as the voice data 5 in the storage device 102 without being compressed, and at the same time, Provided to the compression unit 104.
 音声圧縮部104は、音声データを受け付けると、リアルタイムで会議を行うために、その音声データを圧縮して音声圧縮データを生成する。音声圧縮部104は、音声圧縮データを、TCP/IPプロトコルスタック部105に提供する。 When the audio compression unit 104 receives the audio data, the audio compression unit 104 compresses the audio data to generate audio compression data in order to hold a conference in real time. The voice compression unit 104 provides the voice compression data to the TCP / IP protocol stack unit 105.
 TCP/IPプロトコルスタック部105は、音声圧縮データを受け付けると、会議管理部106内の会議管理情報を参照して、その音声圧縮データを、LAN5経由で、ネットワークプロジェクター4と、参加者装置2と、参加者装置3に送信する。 When the TCP / IP protocol stack unit 105 receives the compressed audio data, the TCP / IP protocol stack unit 105 refers to the conference management information in the conference management unit 106 and sends the compressed audio data to the network projector 4, the participant device 2, and the LAN via the LAN 5. To the participant device 3.
 なお、音声録音装置103は、音声データを受け付けると、時刻データ生成部101を参照し、音声データ5を、議事録用データとして、会議時刻t6を表す時刻データと対応づけて、記憶装置102に保存する。 When the voice recording device 103 receives the voice data, the voice recording device 103 refers to the time data generation unit 101, associates the voice data 5 with the time data representing the meeting time t6 as the minutes data, and stores it in the storage device 102. save.
 ネットワークプロジェクター4と、参加者装置2と、参加者装置3のそれぞれは、発表者装置1からの音声圧縮データを展開して復元音声データを生成し、その復元音声データに応じた音声を出力する。 Each of the network projector 4, the participant device 2, and the participant device 3 expands the audio compression data from the presenter device 1 to generate restored audio data, and outputs audio corresponding to the restored audio data. .
 ここまでが、ステップ608とステップ608に伴う動作についての説明である。 Up to this point, the operation associated with step 608 and step 608 has been described.
 次に、会議が終了する(ステップ609)。 Next, the conference ends (step 609).
 以下、ステップ609とステップ609に伴う動作について説明する。 Hereinafter, the operation accompanying step 609 and step 609 will be described.
 図2を参照すると、発表者装置1の会議管理部106は、使用者から会議終了の指示を受け付けると、会議終了コマンドを、TCP/IPプロトコルスタック部105に提供する。 Referring to FIG. 2, when the conference management unit 106 of the presenter apparatus 1 receives a conference end instruction from the user, the conference management unit 106 provides a TCP / IP protocol stack unit 105 with a conference end command.
 TCP/IPプロトコルスタック部105は、会議終了コマンドを受け付けると、会議管理部106内の会議管理情報を参照し、その会議終了コマンドを、LAN5経由で、ネットワークプロジェクター4と、参加者装置2と、参加者装置3と、に送信する。 When the TCP / IP protocol stack unit 105 receives the conference end command, the TCP / IP protocol stack unit 105 refers to the conference management information in the conference management unit 106, and sends the conference end command via the LAN 5 to the network projector 4, the participant device 2, To the participant device 3.
 ネットワークプロジェクター4と参加者装置2と参加者装置3のそれぞれでは、会議終了コマンドが受信されると、それぞれの装置の会議管理部が、会議を終了する。 In each of the network projector 4, the participant device 2, and the participant device 3, when the conference end command is received, the conference management unit of each device ends the conference.
 ここまでが、ステップ609とステップ609に伴う動作についての説明である。 Up to this point, the operation associated with step 609 and step 609 has been described.
 次に、発表者装置1が、会議情報である議事録の保存を開始する(ステップ610)。 Next, the presenter apparatus 1 starts saving the minutes as meeting information (step 610).
 まず、発表者装置1は、参加者装置2に議事録用データを要求する(ステップ611)。 First, the presenter device 1 requests minutes data from the participant device 2 (step 611).
 図2を参照すると、発表者装置1の会議管理部106は、例えば、発表者装置1の使用者から、データを収集する旨の収集指示を受け付けると、会議管理部106内の会議管理情報を参照して、会議に参加している装置のうち、発表者装置1およびネットワークプロジェクター4と異なる装置、つまり、データが収集される装置(以下「被収集装置」と称する)を特定する。なお、会議管理部106内の会議管理情報は、上述したように、会議に参加している装置の識別情報を表す。 Referring to FIG. 2, when the conference management unit 106 of the presenter device 1 receives a collection instruction to collect data from the user of the presenter device 1, for example, the conference management information in the conference management unit 106 is displayed. Referring to the devices participating in the conference, a device different from presenter device 1 and network projector 4, that is, a device from which data is collected (hereinafter referred to as “collected device”) is identified. Note that the conference management information in the conference management unit 106 represents the identification information of the devices participating in the conference as described above.
 例えば、会議管理部106は、以下のようにして、被収集装置を特定する。 For example, the conference management unit 106 identifies the device to be collected as follows.
 会議管理部106は、会議管理部106内の会議管理情報の中から、発表者装置(自装置)1の識別情報と、ネットワークプロジェクター4の識別情報と、を除いた識別情報を、被収集装置の識別情報として認識する。 The conference management unit 106 collects the identification information from the conference management information in the conference management unit 106 excluding the identification information of the presenter device (own device) 1 and the identification information of the network projector 4. It is recognized as identification information.
 この場合、会議管理部106は、参加者装置2の識別情報と、参加者装置3の識別情報とを、被収集装置の識別情報として認識する。 In this case, the conference management unit 106 recognizes the identification information of the participant device 2 and the identification information of the participant device 3 as the identification information of the device to be collected.
 会議管理部106は、被収集装置を特定すると、被収集装置のそれぞれに、会議議事要求コマンドを送信する。 When the meeting management unit 106 identifies the devices to be collected, the meeting management unit 106 transmits a meeting proceeding request command to each of the devices to be collected.
 本実施形態では、会議管理部106は、まず、参加者装置2宛に会議議事要求コマンドを送信し、その後、参加者装置3宛に会議議事要求コマンドを送信する。なお、会議議事要求コマンドの送信順序は、上記に限らず適宜変更可能である。 In the present embodiment, the conference management unit 106 first transmits a conference proceeding request command to the participant device 2, and then transmits a conference proceeding request command to the participant device 3. In addition, the transmission order of the meeting proceeding request command is not limited to the above and can be changed as appropriate.
 会議管理部106は、まず、参加者装置2宛の会議議事要求コマンドを、TCP/IPプロトコルスタック部105に提供する。 The conference management unit 106 first provides a conference proceeding request command addressed to the participant device 2 to the TCP / IP protocol stack unit 105.
 なお、会議議事要求コマンドは、一般的に要求情報と呼ぶことができる。 Note that the meeting proceeding request command can be generally called request information.
 TCP/IPプロトコルスタック部105は、会議管理部106から参加者装置2宛の会議議事要求コマンドを受け付けると、その会議議事要求コマンドを、LAN5経由で、参加者装置2に送信する。 When the TCP / IP protocol stack unit 105 receives a conference proceeding request command addressed to the participant device 2 from the conference management unit 106, the TCP / IP protocol stack unit 105 transmits the conference proceeding request command to the participant device 2 via the LAN 5.
 図3を参照すると、参加者装置2では、TCP/IPプロトコルスタック部205は、発表者装置1から会議議事要求コマンドを受信すると、その会議議事要求コマンドを、会議管理部206に提供する。 Referring to FIG. 3, in the participant device 2, when the TCP / IP protocol stack unit 205 receives the conference proceeding request command from the presenter device 1, the conference proceeding request command is provided to the conference management unit 206.
 会議管理部206は、会議議事要求コマンドを受け付けると、記憶装置202に保存している音声データ2と音声データ4を、各々に対応する時刻データ(会議時刻t3と会議時刻t5)を含めて、議事データとして、TCP/IPプロトコルスタック部205に提供する。 Upon receiving the meeting proceeding request command, the meeting management unit 206 includes the audio data 2 and the audio data 4 stored in the storage device 202 including time data (conference time t3 and meeting time t5) corresponding to each of them. The agenda data is provided to the TCP / IP protocol stack unit 205.
 TCP/IPプロトコルスタック部205は、議事データ(音声データ2と時刻t3を表す時刻データ、および、音声データ4と時刻t5を表す時刻データ)を、LAN5経由で、発表者装置1に送信する。 The TCP / IP protocol stack unit 205 transmits the agenda data (time data representing the voice data 2 and time t3 and time data representing the voice data 4 and time t5) to the presenter apparatus 1 via the LAN 5.
 図2を参照すると、発表者装置1では、TCP/IPプロトコルスタック部105が、音声データ2と時刻t3を表す時刻データ、および、音声データ4と時刻t5を表す時刻データを受信すると、音声データ2と時刻t3を表す時刻データ、および、音声データ4と時刻t5を表す時刻データについて、音声データと時刻データを対応づけて、記憶装置102に、図7に示すように、発表者装置1のデータとは別ファイルとして保存する(ステップ612)。 Referring to FIG. 2, in presenter apparatus 1, when TCP / IP protocol stack section 105 receives audio data 2 and time data representing time t3 and audio data 4 and time data representing time t5, audio data is received. The time data representing time 2 and time t3 and the time data representing sound data 4 and time t5 are associated with the sound data and the time data, and the storage device 102 stores the data of the presenter device 1 as shown in FIG. The data is saved as a separate file (step 612).
 なお、図7は、発表者装置1の記憶装置102に保存されるデータを、時刻データが表す時刻順に示した説明図である。 FIG. 7 is an explanatory diagram showing the data stored in the storage device 102 of the presenter apparatus 1 in the order of time represented by the time data.
 次に、発表者装置1は、参加者装置3に議事録用データを要求する(ステップ613)。 Next, the presenter apparatus 1 requests the minutes data from the participant apparatus 3 (step 613).
 図2を参照すると、発表者装置1の会議管理部106は、参加者装置3宛の会議議事要求コマンドを、TCP/IPプロトコルスタック部105に提供する。 Referring to FIG. 2, the conference management unit 106 of the presenter device 1 provides the TCP / IP protocol stack unit 105 with a conference proceeding request command addressed to the participant device 3.
 TCP/IPプロトコルスタック部105は、会議管理部106から参加者装置3宛の会議議事要求コマンドを受け付けると、その会議議事要求コマンドを、LAN5経由で、参加者装置3に送信する。 When the TCP / IP protocol stack unit 105 receives a conference proceeding request command addressed to the participant device 3 from the conference management unit 106, the TCP / IP protocol stack unit 105 transmits the conference proceeding request command to the participant device 3 via the LAN 5.
 図4を参照すると、参加者装置3では、TCP/IPプロトコルスタック部305は、発表者装置1から会議議事要求コマンドを受信すると、その会議議事要求コマンドを、会議管理部306に提供する。 Referring to FIG. 4, in the participant device 3, when the TCP / IP protocol stack unit 305 receives the conference proceeding request command from the presenter device 1, it provides the conference proceeding request command to the conference management unit 306.
 会議管理部306は、会議議事要求コマンドを受け付けると、記憶装置302に保存している音声データ3を、音声データ3に対応する時刻データ(会議時刻t4)を含めて、議事データとして、TCP/IPプロトコルスタック部305に提供する。 When the conference management unit 306 receives the conference proceeding request command, the conference management unit 306 transmits the voice data 3 stored in the storage device 302 as the conference data including the time data (meeting time t4) corresponding to the voice data 3 as TCP / Provided to the IP protocol stack unit 305.
 TCP/IPプロトコルスタック部305は、議事データ(音声データ3と時刻t4を表す時刻データ)を、LAN5経由で、発表者装置1に送信する。 The TCP / IP protocol stack unit 305 transmits the agenda data (voice data 3 and time data representing time t4) to the presenter apparatus 1 via the LAN 5.
 図2を参照すると、発表者装置1では、TCP/IPプロトコルスタック部105が、音声データ3と時刻t4を表す時刻データを受信すると、音声データ3と時刻t4を表す時刻データを互いに対応づけて、記憶装置102に、図7に示すように、発表者装置1のデータおよび参加者装置2のデータとは別ファイルとして保存する(ステップ614)。 Referring to FIG. 2, in the presenter apparatus 1, when the TCP / IP protocol stack unit 105 receives the audio data 3 and time data representing time t 4, the audio data 3 and time data representing time t 4 are associated with each other. Then, as shown in FIG. 7, the data of the presenter apparatus 1 and the data of the participant apparatus 2 are stored in the storage device 102 as a separate file (step 614).
 次に、記憶装置102に保存されたデータ(議事録データ)を、第三者が追体験する例について説明する。 Next, an example in which a third party relives data (minutes data) stored in the storage device 102 will be described.
 読出部112は、例えば、第三者から再生指示を受け付けると、記憶装置102内の音声データおよび画像データを、そのデータに対応する時刻データが表す時刻順に読み出す。 For example, when receiving a reproduction instruction from a third party, the reading unit 112 reads the audio data and the image data in the storage device 102 in the order of the time represented by the time data corresponding to the data.
 例えば、読取部112は、記憶装置102内の音声データおよび画像データを、以下のように読み出す。 For example, the reading unit 112 reads audio data and image data in the storage device 102 as follows.
 読出部112は、時刻を計時する計時部を有し、再生指示を受け付けると、計時部の計時時刻をt0にしてから、計時部を動作させる。 The reading unit 112 has a time measuring unit for measuring time, and when receiving a reproduction instruction, the reading unit 112 operates the time measuring unit after setting the time measuring unit to t0.
 読出部112は、計時部の計時時刻と、記憶装置102内の時刻データが表す時刻と、を比較していく。 The reading unit 112 compares the time measured by the time measuring unit with the time represented by the time data in the storage device 102.
 計時部の計時時刻が、記憶装置102内のいずれかの時刻データが表す時刻と一致すると、読出部112は、その時刻データに対応するデータ(音声データ、画像データ)を、記憶装置102から読み出す。 When the time measured by the time counting unit matches the time represented by any time data in the storage device 102, the reading unit 112 reads data (audio data, image data) corresponding to the time data from the storage device 102. .
 なお、読取部112が、記憶装置102内の音声データおよび画像データを読み出す手法は上記に限らず適宜変更可能である。 Note that the method by which the reading unit 112 reads the audio data and the image data in the storage device 102 is not limited to the above, and can be changed as appropriate.
 図7および図2を参照すると、読出部112は、まず、画像データと音声データ1を記憶装置102から読み出す。読出部112は、画像データを映像表示装置107に提供し、音声データ1を音声出力装置111に提供する。 7 and 2, the reading unit 112 first reads the image data and the sound data 1 from the storage device 102. The reading unit 112 provides the image data to the video display device 107 and the audio data 1 to the audio output device 111.
 映像表示装置107は、画像データを受け付けると、その画像データに応じた画像を表示する。また、音声出力装置111は、音声データ1を受け付けると、音声データ1に応じた音声を出力する。 When receiving the image data, the video display device 107 displays an image corresponding to the image data. When the audio output device 111 receives the audio data 1, the audio output device 111 outputs audio corresponding to the audio data 1.
 これにより、各参加者装置に出力された映像と音声が再現される。 This will reproduce the video and audio output to each participant device.
 次に、図7および図2を参照すると、読出部112の読み出し動作は、時刻t3で、音声データ1の読み出しから音声データ2の読み出しに切り替わる。読出部112は、音声データ2を音声出力装置111に提供する。音声出力装置111は、音声データ2を受け付けると、音声データ2に応じた音声を出力する。 Next, referring to FIG. 7 and FIG. 2, the reading operation of the reading unit 112 is switched from reading the voice data 1 to reading the voice data 2 at time t3. The reading unit 112 provides the audio data 2 to the audio output device 111. When receiving the audio data 2, the audio output device 111 outputs audio corresponding to the audio data 2.
 これにより、参加者装置2の使用者の発言が再現される。 This reproduces the speech of the user of the participant device 2.
 次に、図7および図2を参照すると、読出部112の読み出し動作は、時刻t4で、音声データ2の読み出しから音声データ3の読み出しに切り替わる。読出部112は、音声データ3を音声出力装置111に提供する。音声出力装置111は、音声データ3を受け付けると、音声データ3に応じた音声を出力する。 Next, referring to FIG. 7 and FIG. 2, the reading operation of the reading unit 112 is switched from reading the voice data 2 to reading the voice data 3 at time t4. The reading unit 112 provides the audio data 3 to the audio output device 111. When the audio output device 111 receives the audio data 3, the audio output device 111 outputs audio corresponding to the audio data 3.
 これにより、参加者装置3の使用者の発言が再現される。 This reproduces the speech of the user of the participant device 3.
 次に、図7および図2を参照すると、読出部112の読み出し動作は、時刻t5で、音声データ3の読み出しと音声データ4の読み出しとの両方になる。読出部112は、記憶装置102から音声データ3を音声出力装置111に出力していた動作を、音声データ3と音声データ4をミキシングして音声出力装置111に出力する動作に変更する。 Next, referring to FIG. 7 and FIG. 2, the reading operation of the reading unit 112 is both the reading of the audio data 3 and the reading of the audio data 4 at time t5. The reading unit 112 changes the operation in which the audio data 3 is output from the storage device 102 to the audio output device 111 to an operation in which the audio data 3 and the audio data 4 are mixed and output to the audio output device 111.
 その際、2つの発言が混在して発言が聞き取りにくくなるが、音声データ3と音声データ4は個別に保存されているため、音声データ3のみ再生したり、音声データ4のみ再生したりすることが可能となる。したがって、各参加者装置の発言を明瞭に聞き取ることが可能になる。 At that time, the two utterances are mixed and it is difficult to hear the utterance, but since the audio data 3 and the audio data 4 are stored separately, only the audio data 3 is reproduced or only the audio data 4 is reproduced. Is possible. Therefore, it is possible to clearly hear the speech of each participant device.
 次に、図7および図2を参照すると、読出部112の読み出し動作は、時刻t6で、音声データ4の読み出しから音声データ5の読み出しに切り替わる。読出部112は、音声データ5を音声出力装置111に提供する。音声出力装置111は、音声データ5を受け付けると、音声データ5に応じた音声を出力する。 Next, referring to FIG. 7 and FIG. 2, the reading operation of the reading unit 112 is switched from reading of the audio data 4 to reading of the audio data 5 at time t6. The reading unit 112 provides the audio data 5 to the audio output device 111. When receiving the audio data 5, the audio output device 111 outputs audio corresponding to the audio data 5.
 これにより、発表者装置1の使用者の発言が再現される。 This reproduces the speech of the user of the presenter device 1.
 続いて、会議が終了し、会議の追体験が完了する。 Subsequently, the conference ends, and the retrial of the conference is completed.
 次に、本実施形態の効果を説明する。 Next, the effect of this embodiment will be described.
 本実施形態によれば、発表者装置1内の音声録音装置103は、自装置の使用者の発言を表す音声データと、その音声データの受け付け時刻を表す時刻データとを、互いに対応づけて記憶装置102に記憶する。 According to the present embodiment, the voice recording device 103 in the presenter device 1 stores the voice data representing the speech of the user of the own device and the time data representing the reception time of the voice data in association with each other. Store in device 102.
 発表者装置1内の管理部113は、参加者装置2および3に要求情報を送信した後、参加者装置2および3のそれぞれから、その装置の使用者の発言を表す音声データと、その音声データが表す発言の時刻を表す時刻データと、を受信すると、その受信された音声データおよび時刻データを、互いに対応づけて記憶装置102に追加記憶する。 After transmitting the request information to the participant devices 2 and 3, the management unit 113 in the presenter device 1 transmits voice data representing the speech of the user of the device from each of the participant devices 2 and 3 and the voice. When the time data representing the time of the utterance represented by the data is received, the received voice data and time data are additionally stored in the storage device 102 in association with each other.
 このため、会議サーバが存在しない電子会議システムでも、会議終了後に実際の会議を追体験可能な会議情報を生成することが可能になる。 For this reason, even in an electronic conference system that does not have a conference server, it is possible to generate conference information that allows the user to experience an actual conference after the conference ends.
 なお、この効果は、時刻データ生成部101と、記憶装置102と、音声録音装置103と、管理部113とからなる発表者装置1でも奏される。 This effect is also achieved by the presenter device 1 including the time data generation unit 101, the storage device 102, the voice recording device 103, and the management unit 113.
 また、本実施形態では、発表者装置1内の画面キャプチャ部108は、発表者装置1が表示中の画像に応じた画像データをキャプチャし、その画像データと、その画像データのキャプチャ時刻を表す時刻データとを、互いに対応づけて記憶装置102に記憶する。 In the present embodiment, the screen capture unit 108 in the presenter apparatus 1 captures image data corresponding to the image being displayed by the presenter apparatus 1, and represents the image data and the capture time of the image data. The time data is stored in the storage device 102 in association with each other.
 この場合、会議サーバが存在しない電子会議システムでも、会議終了後に実際の会議を画像と音声で追体験可能な会議情報を生成することが可能になる。 In this case, even in an electronic conference system that does not have a conference server, it is possible to generate conference information that allows the user to relive the actual conference with images and sounds after the conference ends.
 また、本実施形態では、発表者装置1内の読出部112は、再生指示を受け付けると、記憶装置102内の各音声データを、その音声データに対応する時刻データが表す時刻順に読み出す。音声出力装置111は、音声データが読み出された順に、各音声データに応じた音声を出力する。 In the present embodiment, when the reading unit 112 in the presenter apparatus 1 receives a reproduction instruction, the reading unit 112 reads out each piece of audio data in the storage device 102 in the order of time represented by the time data corresponding to the audio data. The audio output device 111 outputs audio corresponding to each audio data in the order in which the audio data is read.
 このため、会議サーバが存在しない電子会議システムでも、会議終了後に実際の会議を追体験可能することが可能になる。 For this reason, even in an electronic conference system that does not have a conference server, it is possible to relive the actual conference after the conference ends.
 また、本実施形態では、発表者装置1内の読出部112は、再生指示を受け付けると、記憶装置内の各音声データおよび画像データを、そのデータに対応する時刻データが表す時刻順に読み出す。発表者装置1内の映像表示装置107は、読出部112にて読み出された画像データに応じた画像を表示する。 Further, in the present embodiment, when the reading unit 112 in the presenter apparatus 1 receives the reproduction instruction, the reading unit 112 reads out each audio data and image data in the storage device in the order of time represented by the time data corresponding to the data. The video display device 107 in the presenter device 1 displays an image corresponding to the image data read by the reading unit 112.
 このため、会議サーバが存在しない電子会議システムでも、会議終了後に実際の会議を画像と音声で追体験可能することが可能になる。 Therefore, even in an electronic conference system that does not have a conference server, it is possible to relive the actual conference with images and sounds after the conference ends.
 また、本実施形態では、発表者装置1内の管理部113は、電子会議システムに参加している他の装置の識別情報を格納し、収集指示が入力されると、その識別情報にて識別される装置に対して、要求情報を送信する。 In the present embodiment, the management unit 113 in the presenter device 1 stores identification information of other devices participating in the electronic conference system, and when a collection instruction is input, identification is performed using the identification information. Request information is transmitted to the device to be executed.
 このため、要求情報の送信先を、自動的に設定することが可能になる。よって、利用者は、要求情報の送信先を手動で設定するという煩わしい作業を行う必要がなくなる。 For this reason, it becomes possible to automatically set the transmission destination of the request information. Therefore, the user does not need to perform the troublesome work of manually setting the transmission destination of the request information.
 また、本実施形態では、発表者装置1と参加者装置2と参加者装置3とのそれぞれは、音声データを受け付けると、その音声データを圧縮し、圧縮された音声データを、他の装置に送信する。また、発表者装置1と参加者装置2と参加者装置3とのそれぞれは、他の装置から、圧縮された音声データを受信すると、その圧縮された音声データを伸張して復元音声データを生成し、その復元音声データに応じた音声を出力する。 Moreover, in this embodiment, each of the presenter apparatus 1, the participant apparatus 2, and the participant apparatus 3 receives the audio data, compresses the audio data, and transmits the compressed audio data to other apparatuses. Send. In addition, when each of the presenter device 1, the participant device 2, and the participant device 3 receives compressed audio data from another device, the compressed audio data is decompressed to generate restored audio data. Then, a sound corresponding to the restored sound data is output.
 この場合、リアルタイムで送受信される音声情報としては、圧縮された音声データが用いられ、会議内容を再生するための情報としては、非圧縮のデータが用いられる。 In this case, compressed audio data is used as audio information transmitted and received in real time, and uncompressed data is used as information for reproducing the content of the conference.
 このため、会議をリアルタイムで進行させながら、会議内容を再生するための情報を高品質にすることが可能になる。 For this reason, it is possible to improve the quality of information for reproducing the content of the conference while the conference proceeds in real time.
 なお、音声データは、可逆の圧縮方式では圧縮率が悪いため、音質を劣化させて圧縮するのが一般的である。従って、後から音声認識装置などで音声を文字化する場合、圧縮後の音声データを使用するよりも非圧縮の音声データを使用した方が、誤認識を減らすことができる。 Note that the audio data is generally compressed with degraded sound quality because the compression rate is poor in the reversible compression method. Accordingly, when the speech is converted into text using a speech recognition device or the like later, erroneous recognition can be reduced by using uncompressed speech data rather than using compressed speech data.
 また、本実施形態では、発表者装置1は、キャプチャされた画像データを圧縮して画像圧縮データを生成し、その画像圧縮データを、他の装置に送信する。他の装置は、画像圧縮データを受信すると、その画像圧縮データを伸張して表示用画像データを生成し、その表示用画像データに応じた画像を表示する。 Also, in the present embodiment, the presenter device 1 generates compressed image data by compressing captured image data, and transmits the compressed image data to another device. When the other device receives the compressed image data, the compressed image data is decompressed to generate display image data, and an image corresponding to the display image data is displayed.
 この場合、リアルタイムで送受信される画像情報としては、圧縮された画像データが用いられ、会議内容を再生するための情報としては、非圧縮のデータが用いられる。 In this case, compressed image data is used as image information transmitted and received in real time, and uncompressed data is used as information for reproducing the content of the conference.
 このため、会議をリアルタイムで進行させながら、会議内容を再生するための情報を高品質にすることが可能になる。 For this reason, it is possible to improve the quality of information for reproducing the content of the conference while the conference proceeds in real time.
 また、本実施形態では、発表者装置1は、非圧縮のデータを会議終了後に収集することにより、リアルタイムの会議を阻害しない。 Further, in the present embodiment, the presenter device 1 does not hinder a real-time conference by collecting uncompressed data after the conference ends.
 また、本実施形態では、発表者装置1は、装置ごとに別ファイルとして、音声データと画像データと時刻データからなる議事データを保存する。このため、音声データが重なって聞き取りにくくなっている時間では、音声データを個別に再生することが可能となり、個々の音声を聞き取りやすくなり、また、音声認識装置で音声を文字化する場合に、誤認識を減らすことができる。 In the present embodiment, the presenter device 1 stores agenda data including audio data, image data, and time data as a separate file for each device. For this reason, in the time when the voice data overlaps and it is difficult to hear, it becomes possible to reproduce the voice data individually, making it easy to hear each voice, and when voice is transcribed by the voice recognition device, Misrecognition can be reduced.
 (第2実施形態)
 次に、本発明の第2実施形態の情報処理装置を用いた電子会議システムについて説明する。
(Second Embodiment)
Next, an electronic conference system using the information processing apparatus according to the second embodiment of the present invention will be described.
 第2実施形態では、図1に示した電子会議システムにおいて、発表者装置1の代わりに発表者装置1Aが用いられ、参加者装置2の代わりに参加者装置2Aが用いられる。 In the second embodiment, in the electronic conference system shown in FIG. 1, the presenter device 1 </ b> A is used instead of the presenter device 1, and the participant device 2 </ b> A is used instead of the participant device 2.
 なお、発表者装置1Aと参加者装置2Aと参加者装置3とは、共通する機能(構成要素)を有する個々の情報処理装置によって実現される。 Note that the presenter device 1A, the participant device 2A, and the participant device 3 are realized by individual information processing devices having a common function (component).
 第2実施形態では、発表者装置1Aではなく、参加者装置2Aが、会議内容を再生するための情報(音声データと画像データ)を収集し保存する。 In the second embodiment, not the presenter device 1A but the participant device 2A collects and stores information (audio data and image data) for reproducing the conference content.
 図8は、発表者装置1A、参加者装置2Aおよび参加者装置3の全ての機能を有する情報処理装置が参加者装置2Aであるときに機能する構成要素を示したブロック図である。 FIG. 8 is a block diagram showing components that function when the information processing apparatus having all functions of the presenter apparatus 1A, the participant apparatus 2A, and the participant apparatus 3 is the participant apparatus 2A.
 なお、図8において、図3に示したものと同一構成のものには同一符号を付してある。 In FIG. 8, the same components as those shown in FIG. 3 are denoted by the same reference numerals.
 参加者装置2Aは、図3に示した参加者装置2と比較すると、管理部211の代わりに管理部211Aを含み、TCP/IPプロトコルスタック部205の代わりにTCP/IPプロトコルスタック部205Aを含み、会議管理部206の代わりに会議管理部206Aを含み、さらに、読出部212を含む。以下、参加者装置2Aについて、参加者装置2と異なる点を中心に説明する。 Compared to the participant device 2 shown in FIG. 3, the participant device 2 </ b> A includes a management unit 211 </ b> A instead of the management unit 211, and includes a TCP / IP protocol stack unit 205 </ b> A instead of the TCP / IP protocol stack unit 205. Instead of the conference management unit 206, a conference management unit 206A is included, and a reading unit 212 is further included. Hereinafter, the participant device 2 </ b> A will be described focusing on differences from the participant device 2.
 管理部211Aは、一般的に管理手段と呼ぶことができる。 Management section 211A can generally be referred to as management means.
 管理部211Aは、管理部211が有する機能に加えて、以下の機能を有する。 The management unit 211A has the following functions in addition to the functions of the management unit 211.
 管理部211Aは、例えば、リアルタイムで音声圧縮データと画像圧縮データとを他の装置と送受信する会議が終了した後に、収集指示を受け付けると、情報処理機器である発表者装置1および参加者装置3に、要求情報を送信する。 For example, when the management unit 211A receives a collection instruction after a conference for transmitting and receiving audio compression data and image compression data to and from other devices in real time is completed, the presenter device 1 and the participant devices 3 that are information processing devices. Request information.
 管理部211Aは、要求情報送信後、発表者装置1Aから、発表者装置1Aの使用者の発言を表す音声データと、その音声データに対応する時刻データと、発表者装置1Aで表示された画像を表す画像データと、その画像データに対応する時刻データと、を受信すると、その音声データと画像データを、そのデータに対応する時刻データと対応づけて記憶装置202に追加記憶する。 After transmitting the request information, the management unit 211A transmits voice data representing the speech of the user of the presenter apparatus 1A, time data corresponding to the voice data, and an image displayed on the presenter apparatus 1A from the presenter apparatus 1A. Is received and the time data corresponding to the image data is received, the audio data and the image data are additionally stored in the storage device 202 in association with the time data corresponding to the data.
 管理部211Aは、要求情報送信後、参加者装置3から、その装置の使用者の発言を表す音声データと、その音声データが表す発言の時刻を表す時刻データと、を受信すると、その音声データと時刻データとを、互いに対応づけて記憶装置202に追加記憶する。 Upon receiving the request information, the management unit 211A receives, from the participant device 3, voice data representing the speech of the user of the device and time data representing the speech time represented by the voice data. And time data are additionally stored in the storage device 202 in association with each other.
 読出部212は、一般的に読出手段と呼ぶことができる。読出部212は、図2に示した読出部112と同様に動作する。 Read unit 212 can generally be referred to as read means. The reading unit 212 operates in the same manner as the reading unit 112 shown in FIG.
 図9は、発表者装置1A、参加者装置2Aおよび参加者装置3の全ての機能を有する情報処理装置が発表者装置1Aであるときに機能する構成要素を示したブロック図である。 FIG. 9 is a block diagram showing components that function when the information processing apparatus having all the functions of the presenter apparatus 1A, the participant apparatus 2A, and the participant apparatus 3 is the presenter apparatus 1A.
 なお、図9において、図2に示したものと同一構成のものには同一符号を付してある。 In FIG. 9, the same components as those shown in FIG. 2 are denoted by the same reference numerals.
 発表者装置1Aは、図2に示した発表者装置1と比較すると、管理部113の代わりに管理部113Aを含み、TCP/IPプロトコルスタック部105の代わりにTCP/IPプロトコルスタック部105Aを含み、会議管理部106の代わりに会議管理部106Aを含む。 Compared to the presenter apparatus 1 shown in FIG. 2, the presenter apparatus 1 </ b> A includes a management unit 113 </ b> A instead of the management unit 113, and includes a TCP / IP protocol stack unit 105 </ b> A instead of the TCP / IP protocol stack unit 105. Instead of the conference management unit 106, a conference management unit 106A is included.
 管理部113Aは、一般的に管理手段と呼ぶことができる。管理部113Aは、管理部113が有する機能に加えて、以下の機能を有する。 Management unit 113A can generally be referred to as management means. The management unit 113A has the following functions in addition to the functions of the management unit 113.
 管理部113Aは、参加者装置2Aから要求情報を受信すると、記憶装置102内に互いに対応づけて記憶してある、音声データおよび時刻データの組と、画像データおよび時刻データの組と、を読み出し、それらの組を、参加者装置2Aに送信する。 Upon receipt of the request information from the participant device 2A, the management unit 113A reads out a set of audio data and time data and a set of image data and time data stored in association with each other in the storage device 102. These sets are transmitted to the participant apparatus 2A.
 図8、図9および図4では、発表者装置1A、参加者装置2Aおよび参加者装置3の全ての機能を有する情報処理装置が有する、時刻データ生成部、記憶装置、音声録音装置、音声圧縮部、TCP/IPプロトコルスタック部、会議管理部、映像表示装置、画面キャプチャ部、画像圧縮部、音声伸張部、音声出力装置、読出部、管理部、画像伸張部のそれぞれについて、発表者装置1Aと参加者装置2Aと参加者装置3とで別々の符号を付したが、同一名称の各々は、異なる符合で示された同一名称のものが有する機能の全てを有する。 8, 9, and 4, the time data generation unit, the storage device, the voice recording device, and the voice compression included in the information processing device having all the functions of the presenter device 1 </ b> A, the participant device 2 </ b> A, and the participant device 3. Presenter apparatus 1A for each of a copy unit, a TCP / IP protocol stack unit, a conference management unit, a video display device, a screen capture unit, an image compression unit, an audio expansion unit, an audio output device, a reading unit, a management unit, and an image expansion unit The participant apparatus 2A and the participant apparatus 3 are assigned different reference numerals, but each of the same names has all of the functions of the same name indicated by different signs.
 なお、発表者装置1A、参加者装置2Aおよび参加者装置3の全ての機能を有する情報処理装置の各構成部は、ハードウェアでもよいし、また、各構成部の機能を規定したプログラムを実行するコンピュータによって実現されてもよい。 Note that each component of the information processing apparatus having all the functions of the presenter device 1A, the participant device 2A, and the participant device 3 may be hardware, or execute a program that defines the function of each component. May be realized by a computer.
 発表者装置1A、参加者装置2Aおよび参加者装置3の全ての機能を有する情報処理装置の各構成部が、プログラムを実行するコンピュータにて実現される場合、各構成部の機能を規定したプログラムは、CD-ROM、ハードディスクまたはメモリ等のコンピュータ読み取り可能な記録媒体に記録されており、コンピュータが、その記録媒体から、そのコンピュータを読み取り実行して、上述した機能を実現する。 When each component of the information processing apparatus having all functions of the presenter device 1A, the participant device 2A, and the participant device 3 is realized by a computer that executes the program, a program that defines the function of each component Is recorded on a computer-readable recording medium such as a CD-ROM, hard disk, or memory, and the computer reads and executes the computer from the recording medium to implement the above-described functions.
 図10は、参加者装置2Aが会議情報を保存する動作を説明するためのフローチャートである。以下、図10を参照して、参加者装置2Aが会議情報を保存する動作を説明する。 FIG. 10 is a flowchart for explaining an operation in which the participant device 2A stores the conference information. Hereinafter, with reference to FIG. 10, an operation in which the participant device 2 </ b> A stores the conference information will be described.
 参加者装置2Aが、会議情報である議事録の保存を開始する(ステップ1001)。 Participant apparatus 2A starts saving minutes as meeting information (step 1001).
 次に、参加者装置2Aが、発表者装置1Aに議事録用データを要求する(ステップ1002)。 Next, the participant device 2A requests the minutes data from the presenter device 1A (step 1002).
 図8を参照すると、参加者装置2Aの会議管理部206Aは、例えば、参加者装置2Aの使用者から収集指示を受け付けると、会議管理部206A内の会議管理情報を参照して、被収集装置を特定する。なお、会議管理部206Aは、会議管理部106と同様に被収集装置を特定する。 Referring to FIG. 8, when the conference management unit 206A of the participant device 2A receives a collection instruction from the user of the participant device 2A, for example, the conference management unit 206A refers to the conference management information in the conference management unit 206A and collects the collected device. Is identified. Note that the conference management unit 206 </ b> A identifies the device to be collected, similarly to the conference management unit 106.
 この場合、会議管理部206Aは、発表者装置1Aと、参加者装置3とを、被収集装置として認識する。 In this case, the conference management unit 206A recognizes the presenter device 1A and the participant device 3 as devices to be collected.
 会議管理部206Aは、被収集装置を特定すると、被収集装置のそれぞれに、会議議事要求コマンドを送信する。 When the meeting management unit 206A specifies the devices to be collected, the meeting management unit 206A transmits a meeting proceeding request command to each of the devices to be collected.
 本実施形態では、会議管理部206Aは、まず、発表者装置1A宛に会議議事要求コマンドを送信し、その後、参加者装置3宛に会議議事要求コマンドを送信する。なお、会議議事要求コマンドの送信順序は、上記に限らず適宜変更可能である。 In the present embodiment, the conference management unit 206A first transmits a conference proceeding request command to the presenter device 1A, and then transmits a conference proceeding request command to the participant device 3. In addition, the transmission order of the meeting proceeding request command is not limited to the above and can be changed as appropriate.
 会議管理部206Aは、まず、発表者装置1A宛の会議議事要求コマンドを、TCP/IPプロトコルスタック部205Aに提供する。 The conference management unit 206A first provides a conference proceeding request command addressed to the presenter apparatus 1A to the TCP / IP protocol stack unit 205A.
 TCP/IPプロトコルスタック部205Aは、会議管理部206Aから発表者装置1A宛の会議議事要求コマンドを受け付けると、その会議議事要求コマンドを、LAN5経由で、発表者装置1Aに送信する。 When the TCP / IP protocol stack unit 205A receives the conference proceeding request command addressed to the presenter device 1A from the conference management unit 206A, the TCP / IP protocol stack unit 205A transmits the conference proceeding request command to the presenter device 1A via the LAN 5.
 図9を参照すると、発表者装置1Aでは、TCP/IPプロトコルスタック部105Aは、参加者装置2Aから会議議事要求コマンドを受信すると、その会議議事要求コマンドを、会議管理部106Aに提供する。 Referring to FIG. 9, in presenter apparatus 1A, when receiving a meeting proceeding request command from participant apparatus 2A, TCP / IP protocol stack section 105A provides the meeting proceeding request command to meeting managing section 106A.
 会議管理部106Aは、会議議事要求コマンドを受け付けると、記憶装置102内に互いに対応づけて記憶してある、音声データおよび時刻データの組と、画像データおよび時刻データの組と、を読み出し、それらの組を、議事データとして、TCP/IPプロトコルスタック部105Aに提供する。 Upon receiving the meeting proceeding request command, the meeting management unit 106A reads out a set of audio data and time data and a set of image data and time data stored in association with each other in the storage device 102, and these Are provided to the TCP / IP protocol stack unit 105A as agenda data.
 TCP/IPプロトコルスタック部105Aは、議事データ(画像データと時刻t0を表す時刻データ、音声データ1と時刻t0を表す時刻データ、および、音声データ5と時刻t6を表す時刻データ)を、LAN5経由で、参加者装置2Aに送信する。 The TCP / IP protocol stack unit 105A sends the agenda data (time data representing image data and time t0, time data representing audio data 1 and time t0, and time data representing audio data 5 and time t6) via the LAN 5. To the participant device 2A.
 図8を参照すると、参加者装置2Aでは、TCP/IPプロトコルスタック部205Aが、画像データと時刻t0を表す時刻データ、音声データ1と時刻t0を表す時刻データ、および、音声データ5と時刻t6を表す時刻データを受信すると、画像データと時刻t0を表す時刻データ、音声データ1と時刻t0を表す時刻データ、および、音声データ5と時刻t6を表す時刻データについて、音声データと時刻データを対応づけて、記憶装置202に、図7に示すように、他の装置のデータとは別ファイルとして保存する(ステップ1003)。 Referring to FIG. 8, in participant apparatus 2A, TCP / IP protocol stack section 205A has image data and time data representing time t0, time data representing sound data 1 and time t0, and sound data 5 and time t6. Is received, the time data representing the image data and the time t0, the time data representing the audio data 1 and the time t0, and the time data representing the audio data 5 and the time t6 are associated with each other. Then, as shown in FIG. 7, it is stored in the storage device 202 as a separate file from the data of other devices (step 1003).
 次に、参加者装置2Aは、参加者装置3に議事録用データを要求する(ステップ1004)。 Next, the participant device 2A requests the minutes data from the participant device 3 (step 1004).
 図8を参照すると、参加者装置2Aの会議管理部206Aは、参加者装置3宛の会議議事要求コマンドを、TCP/IPプロトコルスタック部205Aに提供する。 Referring to FIG. 8, the conference management unit 206A of the participant device 2A provides a conference proceeding request command addressed to the participant device 3 to the TCP / IP protocol stack unit 205A.
 TCP/IPプロトコルスタック部205Aは、会議管理部206Aから参加者装置3宛の会議議事要求コマンドを受け付けると、その会議議事要求コマンドを、LAN5経由で、参加者装置3に送信する。 When the TCP / IP protocol stack unit 205A receives a conference proceeding request command addressed to the participant device 3 from the conference management unit 206A, the TCP / IP protocol stack unit 205A transmits the conference proceeding request command to the participant device 3 via the LAN 5.
 図4を参照すると、参加者装置3では、会議管理部306が、TCP/IPプロトコルスタック部305を経て、会議議事要求コマンドを受信すると、記憶装置302に保存している音声データ3を、時刻t4を表す時刻データと共に、TCP/IPプロトコルスタック部305を経て、LAN5経由で、参加者装置2Aに送信する。 Referring to FIG. 4, in the participant device 3, when the conference management unit 306 receives the conference proceeding request command via the TCP / IP protocol stack unit 305, the audio data 3 stored in the storage device 302 is converted to the time Along with the time data representing t4, the data is transmitted to the participant apparatus 2A via the LAN 5 via the TCP / IP protocol stack unit 305.
 図8を参照すると、参加者装置2Aでは、TCP/IPプロトコルスタック部205Aが、音声データ3と時刻t4を表す時刻データを受信すると、音声データ3と時刻t4を表す時刻データを互いに対応づけて、記憶装置202に、図7に示すように、発表者装置1Aのデータおよび参加者装置2Aのデータとは別ファイルとして保存する(ステップ1005)。 Referring to FIG. 8, in the participant apparatus 2A, when the TCP / IP protocol stack unit 205A receives the audio data 3 and the time data representing the time t4, the audio data 3 and the time data representing the time t4 are associated with each other. Then, as shown in FIG. 7, the data of the presenter apparatus 1A and the data of the participant apparatus 2A are stored in the storage device 202 as a separate file (step 1005).
 本実施形態によれば、参加者装置2Aが、他の装置から、会議を再現するための会議情報(音声データおよび画像データ)を取得し、その会議情報を再生する。 According to this embodiment, the participant device 2A acquires conference information (audio data and image data) for reproducing a conference from another device, and reproduces the conference information.
 このため、本実施形態においても、会議サーバが存在しない電子会議システムでも、会議終了後に実際の会議を追体験可能な会議情報を生成することが可能になる。 For this reason, also in this embodiment, even in an electronic conference system without a conference server, it is possible to generate conference information that allows the user to relive the actual conference after the conference ends.
 なお、この効果は、時刻データ生成部201と、記憶装置202と、音声録音装置203と、管理部211Aとからなる参加者装置2Aでも奏する。 This effect is also achieved by the participant device 2A including the time data generation unit 201, the storage device 202, the voice recording device 203, and the management unit 211A.
 なお、上記各実施形態において、ネットワークプロジェクター4はなくてもよい。 In each of the above embodiments, the network projector 4 may not be provided.
 また、上記各実施形態において、ネットワークプロジェクター4は、音声伸張部405および音声出力装置406を含まなくてもよい。 In each of the above embodiments, the network projector 4 may not include the audio decompression unit 405 and the audio output device 406.
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 The present invention has been described above with reference to the embodiments, but the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

Claims (16)

  1.  ネットワークを介して他の情報処理装置と接続する情報処理装置であって、
     時刻を表す時刻データを生成する生成手段と、
     記憶手段と、
     音声データが入力されると、前記生成手段を参照し、当該音声データと、当該音声データの受け付け時刻を表す時刻データとを、互いに対応づけて前記記憶手段に記憶する録音手段と、
     前記他の情報処理装置の記憶手段に記憶されているデータを収集する旨の収集指示が入力されると、前記他の情報処理装置に、データを要求する旨の要求情報を送信し、前記他の情報処理装置から、音声データと、当該音声データの受け付け時刻を表す時刻データと、を受信し、当該受信された音声データおよび時刻データを、互いに対応づけて前記記憶手段に追加記憶する管理手段と、を含む情報処理装置。
    An information processing apparatus connected to another information processing apparatus via a network,
    Generating means for generating time data representing time;
    Storage means;
    When voice data is input, referring to the generation means, recording means for storing the voice data and time data indicating the reception time of the voice data in the storage means in association with each other;
    When a collection instruction for collecting data stored in the storage unit of the other information processing apparatus is input, request information for requesting data is transmitted to the other information processing apparatus, and the other Management means for receiving voice data and time data indicating the reception time of the voice data from the information processing apparatus, and additionally storing the received voice data and time data in the storage means in association with each other And an information processing apparatus.
  2.  画像を表示する表示手段と、
     前記表示手段が前記画像を表示すると、前記表示手段に表示中の画像に応じた画像データをキャプチャし、前記生成手段を参照して、当該画像データと、当該画像データのキャプチャ時刻を表す時刻データとを、互いに対応づけて前記記憶手段に記憶するキャプチャ手段と、をさらに含み、
     前記管理手段は、前記他の情報処理装置に前記要求情報を送信した後、当該他の情報処理装置から、さらに、前記画像データと当該画像データに対応する時刻データと、を受信すると、当該画像データと当該時刻データとを、互いに対応づけて前記記憶手段に追加記憶する、請求の範囲第1項に記載の情報処理装置。
    Display means for displaying an image;
    When the display means displays the image, the image data corresponding to the image being displayed on the display means is captured, and the image data and time data representing the capture time of the image data are referenced with reference to the generation means And capture means for storing them in the storage means in association with each other,
    When the management means receives the image data and time data corresponding to the image data from the other information processing apparatus after transmitting the request information to the other information processing apparatus, The information processing apparatus according to claim 1, wherein the data and the time data are additionally stored in the storage unit in association with each other.
  3.  データを再生する旨の再生指示が入力されると、前記記憶手段内の各音声データを、対応する時刻データが表す時刻順に読み出す読出手段と、
     前記読出手段にて読み出された順に、前記各音声データに応じた音声を出力する音声出力手段と、を含む、請求の範囲第1項または第2項に記載の情報処理装置。
    When a reproduction instruction for reproducing data is input, a reading unit that reads out each piece of audio data in the storage unit in order of time represented by corresponding time data;
    The information processing apparatus according to claim 1, further comprising: an audio output unit that outputs audio corresponding to each audio data in the order read by the reading unit.
  4.  データを再生する旨の再生指示が入力されると、前記記憶手段内の各音声データおよび画像データを、対応する時刻データが表す時刻順に読み出す読出手段と、
     前記読出手段にて読み出された順に、前記各音声データに応じた音声を出力する音声出力手段と、をさらに含み、
     前記表示手段は、前記読出手段にて読み出された画像データに応じた画像を表示する、請求の範囲第2項に記載の情報処理装置。
    When a reproduction instruction for reproducing data is input, reading means for reading out each audio data and image data in the storage means in the order of times represented by the corresponding time data;
    Voice output means for outputting voice corresponding to each voice data in the order read by the reading means;
    The information processing apparatus according to claim 2, wherein the display unit displays an image corresponding to the image data read by the reading unit.
  5.  前記管理手段は、前記他の情報処理装置の識別情報を格納し、前記収集指示が入力されると、前記識別情報にて識別される他の情報処理装置に対して、前記要求情報を送信する、請求の範囲第1項から第4項のいずれかに記載の情報処理装置。 The management unit stores identification information of the other information processing apparatus, and when the collection instruction is input, transmits the request information to another information processing apparatus identified by the identification information. An information processing apparatus according to any one of claims 1 to 4.
  6.  前記録音手段が前記音声データを受け付けた際に、当該音声データを圧縮して第1音声圧縮データを生成する音声圧縮手段と、
     音声伸張手段と、をさらに含み、
     前記管理手段は、前記音声圧縮手段にて生成された第1音声圧縮データを、前記他の情報処理装置に送信し、また、当該他の情報処理装置から、音声データが圧縮された第2音声圧縮データを受信し、
     前記音声伸張手段は、前記管理手段にて受信された第2音声圧縮データを伸張して復元音声データを生成し、
     前記音声出力手段は、前記音声伸張手段にて生成された復元音声データに応じた音声を出力する、請求の範囲第1項から第5項のいずれかに記載の情報処理装置。
    Audio compression means for compressing the audio data and generating first audio compression data when the recording means receives the audio data;
    Voice expansion means,
    The management means transmits the first voice compressed data generated by the voice compression means to the other information processing apparatus, and the second voice in which the voice data is compressed from the other information processing apparatus. Receive compressed data,
    The voice decompression means decompresses the second voice compressed data received by the management means to generate restored voice data,
    The information processing apparatus according to any one of claims 1 to 5, wherein the voice output unit outputs a voice corresponding to the restored voice data generated by the voice decompression unit.
  7.  前記キャプチャ手段が前記画像データをキャプチャした際に、当該画像データを圧縮して画像圧縮データを生成する画像圧縮手段と、
     画像伸張手段と、をさらに含み、
     前記管理手段は、前記画像圧縮手段にて生成された画像圧縮データを、前記他の情報処理装置に送信し、また、前記他の情報処理装置から、当該他の情報処理装置にてキャプチャされた画像データが圧縮された画像圧縮データを受信し、
     前記画像伸張手段は、前記管理手段にて受信された画像圧縮データを伸張して表示用画像データを生成し、
     前記表示手段は、前記画像伸張手段にて生成された表示用画像データに応じた画像を表示する、請求の範囲第2項または第4項に記載の情報処理装置。
    An image compression unit that compresses the image data to generate compressed image data when the capture unit captures the image data;
    Image expansion means,
    The management means transmits the compressed image data generated by the image compression means to the other information processing apparatus, and is captured by the other information processing apparatus from the other information processing apparatus. Receive the compressed image data compressed image data,
    The image decompression means decompresses the compressed image data received by the management means to generate display image data,
    The information processing apparatus according to claim 2, wherein the display unit displays an image corresponding to the display image data generated by the image expansion unit.
  8.  ネットワークを介して他の情報処理装置と接続する情報処理装置での会議情報生成方法であって、
     時刻を表す時刻データを生成し、
     音声データが入力されると、前記時刻データを参照し、当該音声データと、当該音声データの受け付け時刻を表す時刻データとを、互いに対応づけて記憶手段に記憶し、
     前記他の情報処理装置の記憶手段に記憶されているデータを収集する旨の収集指示が入力されると、前記他の情報処理装置に、データを要求する旨の要求情報を送信し、前記他の情報処理装置から、音声データと、当該音声データの受け付け時刻を表す時刻データと、を受信し、当該受信された音声データおよび時刻データを、互いに対応づけて前記記憶手段に追加記憶する、会議情報生成方法。
    A method for generating conference information in an information processing apparatus connected to another information processing apparatus via a network,
    Generate time data representing the time,
    When the voice data is input, the time data is referred to, the voice data and the time data representing the reception time of the voice data are stored in the storage unit in association with each other,
    When a collection instruction for collecting data stored in the storage unit of the other information processing apparatus is input, request information for requesting data is transmitted to the other information processing apparatus, and the other The audio data and the time data indicating the reception time of the audio data are received from the information processing apparatus, and the received audio data and the time data are additionally stored in the storage unit in association with each other. Information generation method.
  9.  表示手段が画像を表示すると、表示中の画像に応じた画像データをキャプチャし、前記時刻データを参照して、当該画像データと、当該画像データのキャプチャ時刻を表す時刻データとを、互いに対応づけて前記記憶手段に記憶し、
     前記他の情報処理装置に前記要求情報を送信した後、当該他の情報処理装置から、さらに、前記画像データと当該画像データに対応する時刻データと、を受信すると、当該画像データと当該時刻データとを、互いに対応づけて前記記憶手段に追加記憶する、請求の範囲第8項に記載の会議情報生成方法。
    When the display means displays the image, the image data corresponding to the image being displayed is captured, and the image data and the time data indicating the capture time of the image data are associated with each other with reference to the time data. Stored in the storage means,
    After transmitting the request information to the other information processing apparatus and further receiving the image data and time data corresponding to the image data from the other information processing apparatus, the image data and the time data The conference information generation method according to claim 8, wherein the information is additionally stored in the storage unit in association with each other.
  10.  データを再生する旨の再生指示が入力されると、前記記憶手段内の各音声データを、対応する時刻データが表す時刻順に読み出し、
     前記読み出された順に、前記各音声データに応じた音声を出力する、請求の範囲第8項または第9項に記載の会議情報生成方法。
    When a reproduction instruction for reproducing data is input, each audio data in the storage means is read in the order of the time represented by the corresponding time data,
    The conference information generation method according to claim 8 or 9, wherein a sound corresponding to each of the sound data is output in the read order.
  11.  データを再生する旨の再生指示が入力されると、前記記憶手段内の各音声データおよび画像データを、対応する時刻データが表す時刻順に読み出し、
     前記読み出された順に、前記各音声データに応じた音声を出力し、前記画像データに応じた画像を表示する、請求の範囲第9項に記載の会議情報生成方法。
    When a reproduction instruction for reproducing data is input, the audio data and image data in the storage means are read in the order of the time represented by the corresponding time data,
    The meeting information generation method according to claim 9, wherein a sound corresponding to each of the sound data is output in order of reading and an image corresponding to the image data is displayed.
  12.  前記他の情報処理装置の識別情報を格納し、
     前記収集指示が入力されると、前記識別情報にて識別される他の情報処理装置に対して、前記要求情報を送信する、請求の範囲第8項から第11項のいずれかに記載の会議情報生成方法。
    Storing identification information of the other information processing apparatus;
    The meeting according to any one of claims 8 to 11, wherein when the collection instruction is input, the request information is transmitted to another information processing apparatus identified by the identification information. Information generation method.
  13.  前記音声データを受け付けた際に、当該音声データを圧縮して第1音声圧縮データを生成し、
     前記第1音声圧縮データを、前記他の情報処理装置に送信し、
     前記他の情報処理装置から、音声データが圧縮された第2音声圧縮データを受信し、
     前記第2音声圧縮データを伸張して復元音声データを生成し、
     前記復元音声データに応じた音声を出力する、請求の範囲第8項から第12項のいずれかに記載の会議情報生成方法。
    When the audio data is received, the audio data is compressed to generate first audio compression data,
    Transmitting the first audio compression data to the other information processing apparatus;
    From the other information processing apparatus, the second audio compressed data obtained by compressing the audio data is received,
    Decompressing the second audio compression data to generate decompressed audio data;
    The conference information generation method according to any one of claims 8 to 12, wherein a sound corresponding to the restored voice data is output.
  14.  前記画像データをキャプチャした際に、当該画像データを圧縮して画像圧縮データを生成し、
     前記画像圧縮データを、前記他の情報処理装置に送信し、
     前記他の情報処理装置から、当該他の情報処理装置にてキャプチャされた画像データが圧縮された画像圧縮データを受信し、
     前記受信された画像圧縮データを伸張して表示用画像データを生成し、
     前記表示用画像データに応じた画像を表示する、請求の範囲第9項または第11項に記載の会議情報生成方法。
    When the image data is captured, the image data is compressed to generate compressed image data,
    Sending the compressed image data to the other information processing apparatus;
    Received from the other information processing apparatus is compressed image data in which the image data captured by the other information processing apparatus is compressed,
    Decompressing the received compressed image data to generate display image data;
    The conference information generation method according to claim 9 or 11, wherein an image corresponding to the display image data is displayed.
  15.  ネットワークを介して他の情報処理装置と接続するコンピュータに、
     時刻を表す時刻データを生成する生成手順と、
     音声データが入力されると、前記時刻データを参照し、当該音声データと、当該音声データの受け付け時刻を表す時刻データとを、互いに対応づけて記憶手段に記憶する録音手順と、
     前記他の情報処理装置の記憶手段に記憶されているデータを収集する旨の収集指示が入力されると、前記他の情報処理装置に、データを要求する旨の要求情報を送信し、前記他の情報処理装置から、音声データと、当該音声データの受け付け時刻を表す時刻データと、を受信し、当該受信された音声データおよび時刻データを、互いに対応づけて前記記憶手段に追加記憶する管理手順と、を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
    To a computer connected to another information processing device via a network,
    A generation procedure for generating time data representing time;
    When voice data is input, referring to the time data, the voice data and a recording procedure for storing the voice data and the time data representing the reception time of the voice data in the storage means in association with each other;
    When a collection instruction for collecting data stored in the storage unit of the other information processing apparatus is input, request information for requesting data is transmitted to the other information processing apparatus, and the other Management procedure for receiving audio data and time data representing the reception time of the audio data from the information processing apparatus, and additionally storing the received audio data and time data in the storage means in association with each other And a computer-readable recording medium on which a program for executing is recorded.
  16.  前記プログラムは、前記コンピュータに、さらに、
     表示手段が画像を表示すると、表示中の画像に応じた画像データをキャプチャし、前記時刻データを参照して、当該画像データと、当該画像データのキャプチャ時刻を表す時刻データとを、互いに対応づけて前記記憶手段に記憶する録画手順と、
     前記他の情報処理装置に前記要求情報を送信した後、当該他の情報処理装置から、さらに、前記画像データと当該画像データに対応する時刻データと、を受信すると、当該画像データと当該時刻データとを、互いに対応づけて前記記憶手段に追加記憶する追加録画手順と、を実行させる、請求の範囲第15項に記載の記録媒体。
    The program is further stored on the computer.
    When the display means displays the image, the image data corresponding to the image being displayed is captured, and the image data and the time data indicating the capture time of the image data are associated with each other with reference to the time data. Recording procedure stored in the storage means,
    After transmitting the request information to the other information processing apparatus and further receiving the image data and time data corresponding to the image data from the other information processing apparatus, the image data and the time data 16. The recording medium according to claim 15, wherein an additional recording procedure is additionally executed in which the additional recording procedure is additionally stored in the storage unit in association with each other.
PCT/JP2008/068733 2008-10-16 2008-10-16 Information processing device, conference information generation method and recording medium WO2010044157A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2008/068733 WO2010044157A1 (en) 2008-10-16 2008-10-16 Information processing device, conference information generation method and recording medium
JP2010533756A JP5258070B2 (en) 2008-10-16 2008-10-16 Information processing apparatus, meeting information generation method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/068733 WO2010044157A1 (en) 2008-10-16 2008-10-16 Information processing device, conference information generation method and recording medium

Publications (1)

Publication Number Publication Date
WO2010044157A1 true WO2010044157A1 (en) 2010-04-22

Family

ID=42106335

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/068733 WO2010044157A1 (en) 2008-10-16 2008-10-16 Information processing device, conference information generation method and recording medium

Country Status (2)

Country Link
JP (1) JP5258070B2 (en)
WO (1) WO2010044157A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06225302A (en) * 1993-01-27 1994-08-12 Canon Inc Television conference system
JPH0997220A (en) * 1995-09-29 1997-04-08 Toshiba Corp Electronic conference system and recording and reproducing method for time sequential data
JP2002101205A (en) * 2000-09-22 2002-04-05 Sharp Corp Conference support equipment and method, and storage medium used therein
JP2004080486A (en) * 2002-08-20 2004-03-11 Toppan Printing Co Ltd Minutes creating system, minutes data creating method, minutes data creating program
JP2005197867A (en) * 2004-01-05 2005-07-21 Fuji Photo Film Co Ltd System and method for conference progress support and utterance input apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06225302A (en) * 1993-01-27 1994-08-12 Canon Inc Television conference system
JPH0997220A (en) * 1995-09-29 1997-04-08 Toshiba Corp Electronic conference system and recording and reproducing method for time sequential data
JP2002101205A (en) * 2000-09-22 2002-04-05 Sharp Corp Conference support equipment and method, and storage medium used therein
JP2004080486A (en) * 2002-08-20 2004-03-11 Toppan Printing Co Ltd Minutes creating system, minutes data creating method, minutes data creating program
JP2005197867A (en) * 2004-01-05 2005-07-21 Fuji Photo Film Co Ltd System and method for conference progress support and utterance input apparatus

Also Published As

Publication number Publication date
JP5258070B2 (en) 2013-08-07
JPWO2010044157A1 (en) 2012-03-08

Similar Documents

Publication Publication Date Title
EP2362576A1 (en) Live navigation web-conferencing system
JP4787328B2 (en) Method and apparatus for capturing audio during a conference call
JP2007180828A (en) Network conference system, network conference method, and program for executing the method
JP2000023132A (en) Data communication controller, control method therefor and data communication system
JP2005341015A (en) Video conference system with minute creation support function
JP7427408B2 (en) Information processing device, information processing method, and information processing program
JP2019101754A (en) Summarization device and method for controlling the same, summarization system, and program
US20190198059A1 (en) Automatic high quality recordings in the cloud
JP6852478B2 (en) Communication terminal, communication program and communication method
JP4565232B2 (en) Lecture video creation system
KR20160094145A (en) Electronic board system with function for making conference record file
JP2016063477A (en) Conference system, information processing method and program
JP2000341659A (en) Remote presentation system, processor and recording medium
JP5258070B2 (en) Information processing apparatus, meeting information generation method, and recording medium
JP2000023130A (en) Video conference system
JP2011086123A (en) Information processing apparatus, conference system, information processing method, and computer program
US11611600B1 (en) Streaming data processing for hybrid online meetings
JP2019176375A (en) Moving image output apparatus, moving image output method, and moving image output program
JPH11355747A (en) Video/sound communication equipment and video conference equipment using the same equipment
JP6610076B2 (en) Information processing apparatus, information processing system, program, and recording medium
US20180262657A1 (en) Control method of operation apparatus, control method of command processing apparatus, and control method of content reproduction system
JP2003339034A (en) Network conference system, network conference method, and network conference program
JP6481937B2 (en) Communication device for video conference
US9253441B2 (en) Conference system, program and conference method
JP2013201505A (en) Video conference system and multipoint connection device and computer program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08877415

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010533756

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08877415

Country of ref document: EP

Kind code of ref document: A1