WO2013056721A1 - Verfahren und vorrichtung zur bereitstellung von in einer konferenz erzeugten daten - Google Patents

Verfahren und vorrichtung zur bereitstellung von in einer konferenz erzeugten daten Download PDF

Info

Publication number
WO2013056721A1
WO2013056721A1 PCT/EP2011/005234 EP2011005234W WO2013056721A1 WO 2013056721 A1 WO2013056721 A1 WO 2013056721A1 EP 2011005234 W EP2011005234 W EP 2011005234W WO 2013056721 A1 WO2013056721 A1 WO 2013056721A1
Authority
WO
WIPO (PCT)
Prior art keywords
conference
time
participant
speaking
participants
Prior art date
Application number
PCT/EP2011/005234
Other languages
English (en)
French (fr)
Inventor
Jürgen BRIESKORN
Original Assignee
Siemens Enterprise Communications Gmbh & Co.Kg
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Enterprise Communications Gmbh & Co.Kg filed Critical Siemens Enterprise Communications Gmbh & Co.Kg
Priority to EP11776094.2A priority Critical patent/EP2769541A1/de
Priority to PCT/EP2011/005234 priority patent/WO2013056721A1/de
Priority to BR112014008457A priority patent/BR112014008457A2/pt
Priority to US14/352,463 priority patent/US20140258413A1/en
Priority to CN201180074281.XA priority patent/CN103891271B/zh
Priority to PCT/EP2012/003034 priority patent/WO2013056756A1/en
Publication of WO2013056721A1 publication Critical patent/WO2013056721A1/de
Priority to US15/641,543 priority patent/US20170317843A1/en
Priority to US17/362,100 priority patent/US20210328822A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1822Conducting the conference, e.g. admission, detection, selection or grouping of participants, correlating users to one or more conference sessions, prioritising transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/567Multimedia conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1831Tracking arrangements for later retrieval, e.g. recording contents, participants activities or behavior, network status
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42221Conversation recording systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/41Electronic components, circuits, software, systems or apparatus used in telephone systems using speaker recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/568Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants
    • H04M3/569Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants using the instant speaker's algorithm

Definitions

  • the invention relates to a method for providing data generated in a conference, in which voice signals are mixed by participants of the conference in a conference bridge.
  • the invention further relates to a
  • Conference bridge for providing data generated in such a conference and using a
  • Terminal unit for carrying out such a method.
  • a conference bridge such as this one from the OpenScape Unified Communications System from Siemens
  • a conference bridge is understood as a unit which is set up so that it can be used to mix speech signals from participants in a conference.
  • the conference bridge can be in the form of a
  • PC application on a personal computer, abbreviated PC called, done.
  • PC is also called Media
  • the conference bridge is realized as an application on a PC, which acts as a server from the end units of the conference
  • Each participant receives their voice signals and sends the mixed voice signals to the end units of the participants.
  • an end unit of a subscriber can a Telephone terminal, an IP phone or a PC client act, with other end units, such as a mobile phone or other server, are possible.
  • a conference is understood to mean, in particular, a teleconference in which the participants in the conference are not in the same location in such a way that they can communicate with one another without the use of technical means. Instead, the participants communicate via the conference bridge by mixing the voice signals of the participants, whereby such a conference can be configured, for example, as a telephone conference or as a video conference. During a telephone conference, the participants only communicate via the exchange of language
  • both a landline telephone conference call and a conference call may be attended by one or more participants
  • Mobile network communicate with each other, as
  • Picture signals of the participants are transmitted in real time to other participants.
  • a conference is also understood as an application sharing, in which, in addition to the exchange of voice and video signals of the
  • Participants further media to be exchanged with the participants, for example in the form of a transfer of data between the participants.
  • This data can be displayed in real time to the voice and / or image signals of the participants or to these signals time-shifted on a screen, such as a PC.
  • a screen such as a PC.
  • higher data rates are required in the transmission than in a conventional telephone conference, in which only voice signals of the
  • circuit-switching network Combination of a circuit-switching network and a packet-switched network.
  • a transmission protocol in a circuit-switching network for example ISDN (Integrated Services Digital Network) can be used, wherein in a packet-switching network
  • TCT Transmission Control Protocol / Internet Protocol
  • a conferencing value added feature offered by the OpenScape Unified Communications System is speaker recognition by inserting the speaker name into the conference participant list. Speaker recognition takes place via a web interface, that is to say an interface to the Internet, of the OpenScape Unified Communications System, whereby the automatic identification of a participant of the conference is understood below speaker recognition by means of the voice of the subscriber, also called voice recognition.
  • OpenScape Unified Communications System is the representation of the speaking party on the speaker recognition in that the name of the speaking party on the list of participants
  • the speaking subscriber who is recognized by the speaker recognition, can be made by displaying an image of the speaking party that is on a user interface of an end unit of the conference
  • Telephone terminal individual calls to a specific account of the telephone user.
  • the object of the invention is to provide a method and a device for providing data generated in a conference, which avoid the disadvantages of the prior art and the Provide additional value-added features to conference participants.
  • a method and a device for providing data generated in a conference which avoid the disadvantages of the prior art and the Provide additional value-added features to conference participants.
  • Conference bridge are mixed, there is a provision of a running along the duration of the conference time base and setting up an automatic identification of each participant when this participant speaks in the conference.
  • a time base traveling over the duration of the conference can be provided, for example, on the basis of a system time of a conference server, an intranet or the Internet, wherein in the simplest case a mechanical, electrical or electronic clock can be used.
  • the automatic identification of each participant can be provided, for example, on the basis of a system time of a conference server, an intranet or the Internet, wherein in the simplest case a mechanical, electrical or electronic clock can be used.
  • Participant when this participant speaks in the conference, can be realized via a speaker recognition, which, as stated above based on a voice signal of a subscriber recognizes this participant. Furthermore, the method according to the invention comprises detecting a conversation contribution of each speaking participant to a conversation of the participants conducted in the conference as a speaking duration assigned to each speaking participant in the conference
  • the inventive method comprises assigning a time stamp to the recorded speech duration and generating statistical data by a
  • the method makes it possible for a conference bridge, which can run on a conference server as an application, to carry out statistical evaluations at the level of an individual contribution of a subscriber to a conference conducted in the conference and to select from the
  • the detection of the speech duration assigned to each speaking participant in the conference comprises the following steps: setting a
  • Conversation pause duration at the second time, a second party speaks and after the second time, a speech pause of the first party occurs, which is longer than a predetermined first speaking pause duration.
  • a speaking time of a participant is thus by a
  • Period defined the start time at a first time, and the closing time at a second time, which follows the first time occurs.
  • the first time comes when one of the participants in the conference starts talking. Whenever a participant beginning to speak is identified, a speech duration begins with that participant Beginning of the speaker's first set speech
  • the second time as the closing time of a speech duration is only set if at the second time the other participants are silent and after the second time a first conversation break occurs, which is as long as a fixed first call pause duration or longer than this. Background of this condition is that during a conversation break, so if none of the participants of
  • Conference speaks, the speaking time of a participant must end even if no other participant the
  • Conversation pause ended This may be the case when a participant has ended his contribution to the conversation and after the end of this contribution by the same participant, a new contribution, for example, to a new topic is started.
  • Another case of setting the closing time of a contribution is given if at the second time the other participants are silent and after the second
  • Closing time which occurs at the second time, another participant begins to speak within a second conversation break, which is shorter than the first one
  • Conversation pause duration This condition takes up the case when, after the end of a participant's contribution, another participant begins to speak either immediately or within a short conversation break.
  • a closing time of a speech duration of a subscriber is set if at the second time another subscriber speaks and after the second
  • the first speaking pause duration which, like the first pause duration, is defined individually by a subscriber, an administrator or automatically, for example based on predetermined maximum and / or minimum durations for a conversation contribution of a participant or by adopting known values from earlier conferences, or for each participant, and / or is changeable during the conference, may be smaller than the first call pause duration. This takes into account the fact that in a current
  • Discussion or an ongoing conversation the participants respond to each other in shorter intervals than in a conversation break, such as a pause for thought of all participants in a conversation.
  • the participants of the conference may have several
  • the first call pause duration requires a silence of all participants of the conference, it is sufficient for the first speaking pause duration to the occurrence of this first speaking pause duration when the respective speaking participant whose contribution is detected, stops
  • the first speaking pause duration should not occur in a spoken sentence of a participant in that a break occurs between the individual words of the participant's spoken sentence. Rather, the first speaking pause duration should only occur when a spoken sentence has ended and no further spoken sentence immediately follows the finished sentence. In the first
  • the first call pause duration and the first pause duration may be defined by the fact that a volume difference between an ambient noise and the speaking sound of the speaking subscriber is reached and / or exceeded.
  • Corresponding parameters can be assigned individually to the first call pause duration and the first pause duration. The setting of these parameters of the first call pause duration and the first
  • Speech pause durations can be set and changed before the conference or during the conference. In a further embodiment, each will
  • the statistical data is formed by the fact that at least one speaking time assigned to a speaking subscriber is related to the time
  • the statistical data generated by the statistical analysis of the speaking times of the participants may include one of the following information: Which participant in immediate call sequence with which other
  • Conversation sequence has spoken; which participant has spoken for how long in the conference, wherein the speaking times associated with this participant are summed up to form a subscriber-related overall speaking time which, as
  • Absolute value or as total talk time share this Participant is spent on the duration of the conference.
  • the statistical data can therefore be absolute values, ie a period of time or duration, for example in minutes and / or seconds, or a relative value, ie a time segment which relates to a different period of time, for example via a quotient formed from these time segments, expressed as a percentage. Indication can be given include.
  • a number of participant pairs that occurred in the conference can be found in
  • immediate conversation sequence in the conference have been formed. For example, if subscriber B has repeatedly responded to subscriber A's contributions, the number of these speaker changes in the conference can be detected and output, with a speaker being understood as a talking subscriber. It is also possible to record and output how often subscriber A has responded to subscriber B's messages.
  • An immediate sequence of calls is understood to mean that, after the end of a subscriber's contribution, the contribution of another subscriber immediately follows. This case can occur if there is a pause in speech between the contributions, if there is no speech break between the contributions or if the later contribution begins before the end of the previous contribution.
  • an immediate sequence of calls can also be understood as meaning that a contribution of one participant joins the contribution of another participant. In this way, the automatic identification of each subscriber when that subscriber is speaking in the conference can be lesser Quality requirements are sufficient, as in the case in which several participants speak simultaneously and are to be identified separately.
  • the statistical data may be generated for a fixed time portion of the conference that is shorter than the duration of the conference. In this way, only a certain temporal portion of the duration of the conference can be illuminated with regard to the statistical data to be generated by a user of the method according to the invention.
  • the fixed time portion of the conference may be selected as any portion of time from the beginning of the conference to its end.
  • Generation of the statistical data may be general or, in the case of considering only a fixed time portion of the conference, in real time from the beginning of the conference. In this case, the latest completion time is the specified one
  • the generated data is in the form of each speaking participant associated speaking times, each provided with a time stamp, and / or the statistical data by a statistical
  • Evaluation of the speaking times of participants can be generated in real time on a user interface of a
  • End unit of a participant of the conference for example, as an individual time, be made available.
  • the generation of the speaking times and the statistical data can be done by a conference server application.
  • individual or aggregated speaking times of individual participants from a conference archive can be combined or selectively retrieved.
  • the retrieval of speaking times and / or statistical data takes place
  • the speaking times and / or statistical data can be output, forwarded and / or
  • the media stream of the conference ie all data transmitted via the conference bridge and in the framework of the conference, for example voice data, image data and / or text data, can be output, stored and / or stored together with the statistical data.
  • Speech duration of the subscriber assigned to a particular business-relevant criterion, in particular a clearing account assigned to this subscriber In addition to a single speaking period of a participant and several speaking times and / or the statistical data one
  • a clearing account or a cost center can be understood as a particular business-relevant criterion.
  • An accounting application can also be a business-relevant criterion.
  • Participants in the conference can have a specific Form a business-relevant criterion.
  • the allocation of speaking times and / or statistical data generated by the method according to the invention to the particular business-relevant criterion can take place online or offline.
  • the assignment of the subscriber's talk time to the business-relevant criterion is triggered at an end unit by pressing a key, pressing a softkey on one
  • Speech duration can also be assigned several speaking times and / or the statistical data by means of key press, softkey actuation or gesture control the particular business-relevant criterion.
  • the end unit may be assigned to a participant of the conference or one
  • An evaluation of the speech durations and / or statistical data can be done immediately after triggering at the end unit, ie in real time or online, or
  • the end unit can, as already mentioned, be a telephone terminal, a mobile telephone, an IP phone or a PC client.
  • a user interface for example, a touch screen display of a PC screen, telephone terminal, mobile phone or a PDA (Personal Digital Assistant) in question.
  • PDA Personal Digital Assistant
  • Embodiments of a user interface are conceivable. To record a gesture and evaluate the gesture by means of
  • Gesture control can be a photocell of a mobile phone, a video camera or other optical device may be used.
  • the gesture control can take place in the end unit itself or, if the transmission rate is sufficient, in another device spatially separated from the end unit, eg a conference server.
  • the speaking times and / or the statistical data are output on an end unit of the subscriber in real time.
  • the output can be made via a conference application.
  • a call of speech and / or statistical data may be delayed in time for the conference or after the conference has ended
  • Speech durations and / or the statistical data forwarded to a higher-level business application for data evaluation.
  • Higher-level business application can be an assignment of the duration of the subscriber to a specific business relevant criterion, as mentioned above, take place.
  • Data evaluation can be triggered like the output of the speech periods and / or the statistical data at an end unit by pressing a key, pressing a
  • the higher-level business application for example an SAP module, can be an application that is separate from the conference application, by means of a link in the conference application be implemented or integrated in the conference application itself.
  • Business application for data evaluation can, in general, the output, forwarding and / or storage of this data via a user interface of the conference bridge to set up and manage the conference.
  • the user interface of the conference bridge can be accessed via a
  • Participant in a conference Participant in a conference.
  • Other definitions of the largest conversation contribution are conceivable, for example if the duration of the accumulated speaking times of one participant or the number of these speaking times of the participant is the same as that of another participant.
  • Information from the statistical data is determined to a respective participant of a conference and this
  • data generated by another non-realtime collaboration service is included in the generation of statistical data through the statistical analysis of the participants' speaking times. In this way, a statistical evaluation of the
  • Speaking times also referred to as speaker-related time quota, that can occur on real-time media servers are extended to other centrally hosted non-realtime collaboration / conferencing services, such as instant messaging or chat service.
  • non-realtime collaboration / conferencing services such as instant messaging or chat service.
  • Collaboration service generated data in the generation of statistical data can be done by eliminating the non-realtime collaboration service, the time base of the conference and is replaced by a linear sequence of contributions from the participants of non-realtime collaboration service, and a contribution period of each contribution by the
  • Conference related For example, a chat that takes place concurrently with a videoconference may supplement this videoconference as a non-realtime collaboration service, with the time base of the videoconference
  • all services, including the chat, of the conference session can be related to the time base of the videoconference as a common time base.
  • This expansion of the method according to the invention to non-realtime services makes it possible to extend a pure voice conference server to a multimedia conference and collaboration server.
  • the subsequent evaluation of the statistical data may be identical to the case where non-realtime collaboration service generated data is not included in the generation of the statistical data.
  • the other non-realtime collaboration service can be centrally hosted.
  • Procedures can expire if the conference bridge is server-based.
  • the conference is administered server-based, with the conference uniquely assigned a conference ID.
  • Conference Server can also record a full-length conference. Because of the duration of the
  • Participant all calls between specific participants or all aggregate contributions of the participants in a specific period of the conference, can be easily retrieved via the conference server.
  • conference media stream and statistical data together By storing the conference media stream and statistical data together on a conference server, these data can be comfortably evaluated together. In this way, for example, speaking times of individual
  • Participants summed up as statistical data displayed and played as payload of the conference.
  • Payload is also referred to as payload data and includes, for example, audio and / or video data.
  • payload data includes, for example, audio and / or video data.
  • Speech durations generated from data from another non-realtime collaboration service are identified and aggregated.
  • a participant's talk time at a conference may be the number of characters of a non-realtime collaboration service contribution or the duration of a non-realtime collaboration service contribution determined over the common time base , correspond.
  • Time base of the conference can be selected and retrieved.
  • the invention further relates to a conference bridge for providing data generated in a conference, in which speech signals of participants of the conference in the conference bridge are miscible, with a time base unit for providing a time base running over the duration of the conference.
  • the conference bridge comprises a speaker recognition unit for automatic
  • Evaluation unit for generating statistical data by a statistical evaluation of the speaking times.
  • Time base unit the speaker recognition unit
  • Timestamp allocation unit and the evaluation unit can be accommodated individually or together spatially in the conference bridge or spatially separated from the conference bridge. Next, these units or
  • the call charge acquisition unit of the conference bridge includes a termination unit for setting a start time of the talk time at a first time to speak to a first party
  • Speech duration at a second time at which the first participant stops speaking if at least one of the following conditions is met: At the second time, the other participants are silent and after the second
  • Conversation pause duration at the second time the other participants are silent and after the second time a second participant starts to speak within a second conversation pause shorter than the first one
  • Conversation pause duration at the second time, a second party speaks and after the second time, a speech pause of the first participant occurs, which is longer than a predetermined first speaking pause duration.
  • a conversation contribution acquisition unit configured in this way ensures in a simple manner that a conversation contribution of a participant to a conference held in the conference can be reliably detected.
  • the conference bridge is server-based, wherein the use of a conference server for the conference bridge, the advantages described for the corresponding method occur.
  • conference bridge can be contributions to the conference participants and interactions between the parties to this conference, such as a voice conference or a video conference, by a Tracking time base are recorded, statistically processed and made time-quantifiable. Individual speach-related contribution contingents or
  • Contribution quotas of certain call flows become identifiable and quantifiable. Contributions in a session of a non-realtime collaboration / conference service, such as instant messaging or chat, of participants hosted in a conference session by a conference server can also be included in the statistical evaluation of the conference data. In this way, interactions,
  • the participants of the conference and the session of a non-realtime collaboration / conference service are statistically evaluated by absolute and / or relative time shares in the duration of the conference.
  • the statistical analysis also allows integration and / or correlation, ie reference, of real-time and non-real-time interactions of the participants of the conference.
  • the statistical evaluation can take place in the conference bridge itself, for example in the form of a conference server application, or else, for example, via program interfaces by a business application which may differ from the conference server application.
  • Participants in the conversation in the conference and / or the statistical data generated therefrom or a part thereof can be assigned to a dedicated clearing account or another business application.
  • an end unit for example a telephone terminal, a mobile telephone or a PC client, a participant of a conference, for example a teleconference or video conference, is used to carry out the method according to the invention or one of its embodiments, wherein the end unit generates a speech signal miscible by a conference bridge ,
  • FIG. 1 shows a time course of a conversation in a conference with three participants
  • FIG. Fig. 2 is a schematic arrangement of a three party conference conducted over a conference server.
  • FIG. 3a shows a user interface of a conference application according to the invention with extended administration and evaluation functions
  • FIG. 3b another user interface a
  • FIG. 1 shows the time course 5 of a conference 6 with three participants T1, T2, T3.
  • the conference starts at a time t1, passes through the times t2 to t9 and ends at the time t10.
  • the times t1 to t10 are shown in FIG. 1 plotted on a timeline t from left to right. All times t1 to t10 are referenced over a time base, which over the duration
  • the conference will be one
  • the contribution of the participant Tl is recorded for the conference conducted in the 6 conference as the talk time la.
  • Participant Tl immediately connected. At the time t2, the other subscribers T2, T3 and the duration of the speech break lb of the subscriber Tl are shorter than one fixed first call duration Eq.
  • the speech pause lb of the subscriber Tl is for example 1 to 10
  • the first call pause time Gl is
  • the contribution of Participant Tl with a speaking duration ld which ranges from tl to t5, detected, although this participant Tl has not spoken between t2 and t3.
  • the other participants are silent, whereby at the time t 1 the participant T 1 starts to speak.
  • the conversation pause 2c which begins at time t6 and ends at time t1
  • the closing time of the voice duration 2 of the subscriber T2 is set at time t6.
  • the speech duration 2 of the subscriber T2 is thus over the period t4 to t5, in which both the participants Tl, T2 have spoken, as well as on the
  • Sl can have values of less than one second, 1 to 3 or 1 to 5 seconds. Other values for the first one
  • Speech pause duration Sl are possible.
  • the third participant T3 begins his contribution to the
  • Time t9 Since the call pause lg has a duration that is longer than the first pause duration Gl, the time t8 is detected as the closing time of the voice duration lf of the subscriber Tl. Had the third participant T3 his contribution 3 has started at a time that is before the end of the first call pause duration, the time t8 would nevertheless have been recorded as the closing time of the contribution lf of the subscriber Tl. The reason for this is that at the time t8 the other subscribers T2, T3 remained silent and after the second time the subscriber T3 had begun to speak within a conversation break that would have been shorter than the first one
  • contributions to the conference conducted in the conference 6 are recorded by the subscribers T1, T2, T3, the contribution of the subscriber T1 being recorded as the talk duration ld, which comprises the speaking times la, lc and the pause 1b.
  • each recorded contribution ld, lf, 2, 3 is in each case assigned a time stamp t1, t7, t4, t9
  • the speech duration ld of the subscriber Tl is assigned the time stamp tl.
  • the speech duration lf of the subscriber T1 is assigned the time stamp at the time t1.
  • the time stamp at the time t4 and the speech duration 3 of the subscriber T3 is assigned the time stamp at the time t9 to the contribution of the subscriber T2 as the speech duration 2.
  • Conversation sequence of conducted in the conference 6 conversation of the participants Tl, T2, T3 from the chronological order the time stamps t1, t4, t7, t9 are recorded as being each speech duration ld, lf, 2, 3 of each speaking party T1, T2, T3 as a speech duration ld, lf, 2, 3 assigned to each speaking party T1, T2, T3.
  • Participant Tl at the beginning of the speech period 2 of the subscriber T2 was not completed. It can be formed by a pair of participants Tl, T2, in the immediate
  • Conversation sequence tl, t4 has spoken in the conference 6.
  • statistical data can be formed such that at least one of a speaking subscriber Tl associated speech duration ld, lf with respect to the temporal sequence of calls with at least one another
  • the statistical evaluation may show that the participant Tl has spoken in the conference 6 for the duration of the speaking periods ld and lf.
  • Speech durations ld, lf is generated in the statistical evaluation of an absolute value, where it alternatively or
  • Conversation contributions of each speaking participant Tl, T2, T3 can also show the statistical evaluation whether a participant Tl, T2, T3 in the conference 6 is not in
  • Speech duration lf of the participant Tl be at a
  • Conversation sequence has spoken and which participant Tl, T2, T3 how long ld, lf, 2, 3 spoke in the conference, also include individual speaking times ld, lf one
  • FIG. 2 shows an arrangement of a conference 6 with the participants T1, T2, T3.
  • the conference 6 is in a data network 9 by means of a conference bridge 60th
  • the data network 9 may be an intranet or the Internet.
  • the conference bridge 60 can be on a
  • Conference conference server wherein the conference bridge over a conference bridge application, also called conference application is formed.
  • conference bridge 60 is formed via software in the form of the conference application, the hardware of the conference bridge 60
  • Conference Bridge 60 is the conference server.
  • the subscriber T1 is via an end unit 11 and / or a screen 12, also called display, a
  • Connection unit 10 another data connection 16 between the screen 12 and the connection unit 10, a data connection 61 between the end unit 31 and the connection unit 10 and a data connection 63 between the end unit 31 and the conference bridge 60.
  • Connection unit 10 as a client to the
  • the end unit 11 can by a Telephone terminal, a mobile phone, IP Phon or a PDA be formed.
  • the screen 12 may be a flat screen in the form of a TFT (thin film transistor) screen, a plasma screen or a
  • the data network 9 may be the Internet in which data is transmitted between the terminal 11 and / or the screen 12 and the conference bridge 60 by means of the TCP / IP protocol. A part of the transmission path between the terminal unit 11 and / or the screen 12 and the conference bridge 60 can take place by means of a circuit-switching network.
  • another subscriber T2 is also connected to the conference bridge 60
  • Participant T2 has one
  • End unit 21 for example in the form of a
  • Telephone terminal mobile phones or PDAs, and / or a screen 22, for example in the form of a
  • connection unit 20 is connected to the end unit 31 of a third via a data line 62
  • Participant T3 connected, in turn, over the
  • Data line 63 is connected to the conference bridge 60.
  • Connection unit 20 as a client.
  • This client can be installed on a computer, such as a PC be.
  • the end unit 31 may be an IP-Phone, for example an OpenStage-Phone, which is connected, for example by means of XML-based client-server architecture, to a conference server on which the conference bridge 60 is installed.
  • the end unit 31 comprises a pivotable panel 32 with a display 33, wherein the display 33 may be designed as a touchscreen.
  • the system time 35 and the date 34 are displayed in the form of the day of the week and the date with indication of the month, day and year.
  • the panel has 32 keys 40, these keys as
  • touch-sensitive keys can be executed.
  • the function associated with each of the keys 40 is determined by the occupancy of each key displayed on the display 33.
  • the key 41 has the
  • the key 41 is therefore a so-called softkey, to which different functions can be assigned depending on the screen display on the display 33.
  • a softkey may also be displayed on the display 33, for example, when the display 33 as
  • Touchscreen is formed.
  • the function of assigning a current picture to a speaker could be done by tapping on the phrase "Piconf" shown in the display 33. Let it be
  • the speaking times associated with a subscriber T1, T2, T3 are summed up and displayed in the display 33 of the terminal unit 31 as absolute values in minutes.
  • the participant Tl which is displayed as an image 50 in the display 33, a
  • Conversation portion of a subscriber Tl, T2, T3 in the form of a subscriber-related Bact Schemedauer can be button-activated, for example by means of a softkey, switched.
  • the display can be done in real time when the terminal unit, for example as a telephone terminal or PC client
  • Activation by means of a key can alternatively be done by other technical triggers, such as a
  • the display 33 forms a user interface for the
  • a conference ID is displayed as a distinctive feature of a particular conference 6. Also, the total duration 5 of the conference can be displayed on the display 33 and as information of the statistical evaluation of the speaking times of the participants Tl, T2, T3 are based.
  • a term 57 "account # 1" is assigned to the soft key 47 on the display 33.
  • the term 58 "account # 2" is associated with the soft key 48 and the term 59 "account # 3" is associated with the soft key 49.
  • T3 can assign his own speaking times to his clearing account "Account # 3" by pressing the key 49
  • Clearance accounts 57, 58, 59 are represented by a higher-level business application to which by means of a
  • the speaking times of the participants Tl, T2, T3 are forwarded as speaking times and / or statistical data for data evaluation.
  • Other business-relevant criteria for data evaluation of the speaking times of the participants Tl, T2, T3 are possible.
  • End unit 31 information is determined as to which participant Tl in the conference 6 provides the largest contribution to the conversation, this information is evaluated by a parent business application such that can be decided by a presence-based rule engine, whether this participant Tl a rule-based Call forwarding to a
  • Interlocutor should be enabled. This decision can be made immediately after the end of the conference 6 or even during the conference 6, ie in real time. With server-based execution of the conference bridge 60, it is also possible in a simple manner to transfer data from another non-real-time collaboration service, for example a centrally hosted instant messaging or chat service, into the evaluation of the statistical data by the
  • Time base 35 of the conference 6 can be obtained, it is possible that the time base 35 by a linear sequence of contributions of the participants Tl, T2, T3 in the
  • Session of the non-realtime collaboration service is replaced and a contribution period of each contribution of the participants Tl, T2, T3 in the session of non-realtime
  • FIG. 3a is a user interface 100 of a conference application with extended administration
  • an "OpenScape Web Client” 101 is used on one PC.
  • the user interface 100 includes the option of combining different participants 106, which can each occur as the creator 105 of a conference 6, into a conference 6.
  • the conference application "OpenScape Web Client” can be used to assign the type and number of softkeys 40 shown in FIG.
  • the conference bridge 60 now provides a user interface 110 for setting up and
  • Conference 6 is assigned a one-to-one conference ID 112 through which statistics are assigned to this conference 6
  • a media stream of the conference 6, which corresponds to the speaking times of the participants T 1, T 2, T 3, can be assigned to these speaking times, selected and called up.
  • the user interface 110 the
  • Phone numbers 123, 124, 125 reachable participants.
  • a temporal evaluation 130 is activated, this being
  • temporal evaluation is designed as a statistical evaluation of the time and speaker detection 140.
  • the time evaluation includes the possibility of
  • Conference 6 For example, the participant “Brieskorn” has a total speaking time of XX minutes 146 as a proportion of the conference participants in the conference 6. In addition, the talk time share of the subscriber “Brieskorn” at the conference 6 is shown as a percentage 143. The other participant of the conference "Kruse" has a temporal
  • FIG. 3b is next to the user interface 100 of
  • Participants 106 who may occur as the creator 105 of a conference 6, can be merged into a conference 6, a user interface 210 for
  • the account assignment 211 takes place by clicking on a corresponding function 131 under the heading "Participation options.”
  • the clearing accounts for the participants of the conference 6 each have a name 220, 221, 222 , where each account is assigned an account ID.
  • account ID 230 is assigned to account "# 1", account ID 231 to account “# 2", and account ID 232 to account "# 3".
  • the administrator of the conference 6 can this way different accounts different
  • Assign account IDs For example, a clearing account or a cost center is considered an account.
  • the accounting of the accounts with names 220, 221, 222 and account ID 230, 231, 232 does not have to take place via an application that is part of the conference application 101. Rather, it is also possible that a business application for
  • Account management of the accounts 220, 221, 222 which is executable separately from the conference application, expires and on the user interface 210 only an image of this
  • a time evaluation 130 for example, via a link between conference application and business application.
  • a time evaluation 130 for example, via a link between conference application and business application.
  • Subscribers to this post and a timestamp are assigned to reconstruct the conversation history and the call sequence of a conference. In this way, a whole series of value-added functions can be evaluated by a statistical evaluation of these speaking times to the participants of the

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Ein Verfahren zur Bereitstellung von in einer Konferenz erzeugten Daten, bei dem Sprachsignale von Teilnehmern der Konferenz in einer Konferenzbrücke gemischt werden, umfasst ein Bereitstellen einer über die Dauer der Konferenz mitlaufenden Zeitbasis und ein Einrichten einer automatischen Identifikation jedes Teilnehmers, wenn dieser Teilnehmer in der Konferenz spricht. Das Verfahren umfasst weiter ein Erfassen eines Gesprächsbeitrags jedes sprechenden Teilnehmers zu einem in der Konferenz geführten Gespräch der Teilnehmer als jedem sprechenden Teilnehmer zugeordnete Sprechdauer in der Konferenz, ein Zuordnen eines Zeitstempels zu der Sprechdauer, und ein Erzeugen statistischer Daten durch eine statistische Auswertung der Sprechdauern der Teilnehmer.

Description

Verfahren und Vorrichtung zur Bereitstellung von in einer
Konferenz erzeugten Daten
Besehreibung
Die Erfindung betrifft ein Verfahren zur Bereitstellung von in einer Konferenz erzeugten Daten, bei dem Sprachsignale von Teilnehmern der Konferenz in einer Konferenzbrücke gemischt werden. Die Erfindung betrifft ferner eine
Konferenzbrücke zur Bereitstellung von in einer solchen Konferenz erzeugten Daten und eine Verwendung einer
Endeinheit zur Ausführung eines solchen Verfahrens.
Eine Konferenzbrücke, wie diese beispielsweise von dem OpenScape Unified Communications System der Siemens
Enterprise Communications GmbH & Co . KG bereitgestellt wird, bietet neben der eigentlichen Mischung der
Sprachsignale der Teilnehmer der Konferenz aktuell wenige Mehrwertfunktionen zur Konferenzunterstützung. Im Folgenden wird unter einer Konferenzbrücke eine Einheit verstanden, die so eingerichtet ist, dass mit ihr eine Mischung von Sprachsignalen von Teilnehmern einer Konferenz erfolgen kann. Die Konferenzbrücke kann hierbei in Form einer
Applikation auf einem Personal Computer, abgekürzt PC genannt, erfolgen. Ein solcher PC wird auch als Media
Server oder als Konferenzserver bezeichnet. In diesem Fall ist die Konferenzbrücke als Applikation auf einem PC realisiert, der als Server von den Endeinheiten der
Teilnehmer jeweils deren Sprachsignale empfängt und die gemischten Sprachsignale an die Endeinheiten der Teilnehmer aussendet. Als Endeinheit eines Teilnehmers kann ein Telefonendgerät, eine IP-Phone oder ein PC-Client fungieren, wobei auch andere Endeinheiten, beispielsweise ein Mobiltelefon oder ein anderer Server, möglich sind. Unter einer Konferenz wird insbesondere eine Telekonferenz verstanden, bei der die Teilnehmer der Konferenz sich nicht derart an einem gleichen Ort aufhalten, dass diese ohne Einsatz technischer Mittel miteinander kommunizieren können. Die Kommunikation der Teilnehmer erfolgt vielmehr über die Konferenzbrücke durch Mischung der Sprachsignale der Teilnehmer, wobei eine solche Konferenz beispielsweise als Telefonkonferenz oder als Videokonferenz ausgestaltet sein kann. Bei einer Telefonkonferenz kommunizieren die Teilnehmer lediglich über den Austausch von Sprache
unabhängig davon, wie die Sprachsignale der Teilnehmer übertragen werden. Daher kann sowohl eine über ein Festnetz laufende Telefonkonferenz als auch eine Telefonkonferenz, bei der einer oder mehrere Teilnehmer über ein
Mobilfunknetz miteinander kommunizieren, als
Telefonkonferenz bezeichnet werden. Daneben ist eine
Konferenz in Form einer Videokonferenz möglich, bei der neben dem Austausch von Sprachsignalen der Teilnehmer
Bildsignale der Teilnehmer in Echtzeit an andere Teilnehmer übertragen werden. Im Folgenden wird unter einer Konferenz jedoch auch ein Application Sharing verstanden, bei dem neben dem Austausch von Sprach- und Bildsignalen der
Teilnehmer weitere Medien mit den Teilnehmern ausgetauscht werden, beispielsweise in Form einer Übertragung von Daten zwischen den Teilnehmern. Diese Daten können in Echtzeit zu den Sprach- und/oder Bildsignalen der Teilnehmer oder zu diesen Signalen zeitverschoben auf einem Bildschirm, beispielsweise dem eines PCs, angezeigt werden. Da für die gleichzeitige Übertragung von Sprach- und/oder Bild- und/oder Datensignalen höhere Datenraten bei der Übertragung erforderlich sind als bei einer herkömmlichen Telefonkonferenz, bei der lediglich Sprachsignale der
Teilnehmer übermittelt werden, kommt bei einem Application Sharing oftmals als Übertragungsmedium ein Intranet oder das Internet zum Einsatz. Hierbei werden die Sprach- und/oder Bild- und/oder Datensignale in Form von
Datenpaketen von einem Teilnehmer zu einem anderen
Teilnehmer übertragen. Als Übertragungsmedium der von der Konferenzbrücke gemischten Sprachsignale, die im Rahmen der Konferenz zu übertragen sind, kann allerdings auch eine herkömmliche schaltungsvermittelnde Telekommunikations- /Vermittlungsanlage zum Einsatz kommen oder eine
Kombination aus einem schaltungsvermittelnden Netz und einem paketvermittelnden Netz. Als Übertragungsprotokoll bei einem schaltungsvermittelnden Netz kann beispielsweise ISDN (Integrated Services Digital Network) zum Einsatz kommen, wobei bei einem paketvermittelnden Netz
beispielsweise als Übertragungsprotokoll H.323 oder TCT/IP (Transmission Control Protocol/Internet Protocol) verwendet werden kann.
Eine Mehrwertfunktion zur Konferenzunterstützung, die das OpenScape Unified Communications System bietet, ist eine Sprechererkennung durch Einblendung des Sprechernamens auf der Teilnehmerliste der Konferenz. Die Sprechererkennung erfolgt über ein Web-Interface, also eine Schnittstelle zum Internet, des OpenScape Unified Communications Systems, wobei im Folgenden unter Sprechererkennung die automatische Identifikation eines Teilnehmers der Konferenz anhand der Sprache des Teilnehmers, auch Voice Recognition genannt, verstanden wird. Bei dem OpenScape Unified Communications System erfolgt die Darstellung des sprechenden Teilnehmers über die Sprechererkennung dadurch, dass der Name des sprechenden Teilnehmers auf der Teilnehmerliste
dickgedruckt dargestellt wird, wobei die Namen der anderen Teilnehmer der Teilnehmerliste in Normalschrift dargestellt werden. Daneben kann der sprechende Teilnehmer, der über die Sprechererkennung erkannt ist, durch Darstellung eines Bildes des sprechenden Teilnehmers erfolgen, das auf einer Benutzeroberfläche einer Endeinheit der Konferenz
abgebildet wird.
Eine weitere Mehrwertfunktion bei der
Konferenzunterstützung ist die Anzeige der gesamten
Gesprächszeit über die Dauer der Konferenz hinweg. Neben der Anzeige der gesamten Gesprächszeit während der Dauer der Konferenz bieten heutige Konferenzserver keinen
Mehrwert bezüglich weitergehender statistischer
Auswertungen. Viele Teilnehmer an einer Konferenz,
beispielsweise Anwaltskanzleien und/oder Werbeagenturen, haben jedoch ein Interesse an der Auswertung von partner- /proj ektbezogenen Informationen, die sich durch eine
Gesprächszeiterfassung und daraus abgeleiteter
statistischer Gesprächsinteraktionen guantifizierbar machen. Bekannte Accounting-Applikationen ermöglichen es lediglich, dass durch Drücken einer Taste eines
Telefonendgerätes Einzelgespräche einem bestimmten Konto des Telefonbenutzers zugewiesen werden.
Ausgehend hiervon liegt der Erfindung die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zur Bereitstellung von in einer Konferenz erzeugten Daten bereitzustellen, die die Nachteile des Standes der Technik vermeiden und den Teilnehmern der Konferenz zusätzliche Mehrwertfunktionen bieten. Insbesondere sollen ein Verfahren und eine
Vorrichtung zur Bereitstellung von in einer Konferenz erzeugten Daten angegeben werden, mit denen eine einfache und gegenüber dem Stand der Technik weiterführende
Auswertung des Inhaltes der Konferenz möglich ist.
Gemäß dem erfindungsgemäßen Verfahren zur Bereitstellung von in einer Konferenz erzeugten Daten, bei dem
Sprachsignale von Teilnehmern der Konferenz in einer
Konferenzbrücke gemischt werden, erfolgt ein Bereitstellen einer über die Dauer der Konferenz mitlaufenden Zeitbasis und ein Einrichten einer automatischen Identifikation jedes Teilnehmers, wenn dieser Teilnehmer in der Konferenz spricht. Eine über die Dauer der Konferenz mitlaufende Zeitbasis kann beispielsweise anhand einer Systemzeit eines Konferenzservers, eines Intranets oder des Internets bereitgestellt werden, wobei im einfachsten Fall eine mechanische, elektrische oder elektronische Uhr verwendet werden kann. Die automatische Identifikation jedes
Teilnehmers, wenn dieser Teilnehmer in der Konferenz spricht, kann über eine Sprechererkennung, die wie oben ausgeführt anhand eines Sprachsignals eines Teilnehmers diesen Teilnehmer erkennt, realisiert sein. Weiterhin umfasst das erfindungsgemäße Verfahren ein Erfassen eines Gesprächsbeitrags jedes sprechenden Teilnehmers zu einem in der Konferenz geführten Gespräch der Teilnehmer als jedem sprechenden Teilnehmer zugeordnete Sprechdauer in der
Konferenz. Unter einer Sprechdauer wird eine Dauer
verstanden, bei der lediglich einer der Teilnehmer der Konferenz spricht. Im Gegensatz zur Sprechdauer wird unter einer Gesprächsdauer eine Dauer verstanden, bei der mindestens zwei Teilnehmer der Konferenz gleichzeitig sprechen. Weiter umfasst das erfindungsgemäße Verfahren ein Zuordnen eines Zeitstempels zu der erfassten Sprechdauer und ein Erzeugen statistischer Daten durch eine
statistische Auswertung der Sprechdauern der Teilnehmer. Es wird also nicht lediglich eine Zeiterfassung der gesamten Konferenzdauer durchgeführt, sondern einzelne Zeitanteile der Teilnehmer der Konferenz an einem in der Konferenz geführten Gespräch werden durch die mitlaufende Zeitbasis anhand der automatischen Identifikation des Teilnehmers, wenn dieser in der Konferenz spricht, identifiziert. Durch das Verfahren wird es einer Konferenzbrücke, die auf einem Konferenzserver als Applikation ablaufen kann, ermöglicht, statistische Auswertungen auf der Ebene eines einzelnen Beitrages eines Teilnehmers zu einem in der Konferenz geführten Gespräch durchzuführen und die aus den
Sprechdauern der Teilnehmer erzeugten statistischen Daten bereitzustellen. Die Erzeugung der statistischen Daten kann in Echtzeit während des Ablaufs der Konferenz,
zeitverschoben zu dem Ablauf der Konferenz oder nach Ende der Konferenz durchgeführt werden. Da einzelne Beiträge der Teilnehmer zu dem Konferenzgespräch erfasst werden, können in die statischen Daten nicht lediglich die Sprechdauern der Teilnehmer, sondern auch ein Sprecherwechsel, das heißt der Wechsel eines sprechenden Teilnehmers zu einem anderen sprechenden Teilnehmer, in die statistische Auswertung einbezogen werden. Mit dem Zuordnen eines Zeitstempels zu jeder Sprechdauer wird darüber hinaus der Gesprächsverlauf des Konferenzgesprächs erfasst, wobei der Gesprächsverlauf ebenfalls in die Erzeugung der statistischen Daten
einbezogen werden kann. Auf diese Weise können statistische Daten erzeugt und bereitgestellt werden, die auf einen Teilnehmer der Konferenz bezogen sind oder die auf Interaktionen einzelner Teilnehmer der Konferenz
untereinander bezogen sind. In einer Weiterbildung der Erfindung umfasst das Erfassen der jedem sprechenden Teilnehmer zugeordneten Sprechdauer in der Konferenz folgende Schritte: Setzen eines
Anfangszeitpunktes der Sprechdauer zu einem ersten
Zeitpunkt, an dem ein erster Teilnehmer zu sprechen
beginnt; Setzen eines Schlusszeitpunktes der Sprechdauer zu einem zweiten Zeitpunkt, an dem der erste Teilnehmer zu sprechen aufhört, wenn mindestens eine der folgenden
Bedingungen erfüllt ist: An dem zweiten Zeitpunkt schweigen die anderen Teilnehmer und nach dem zweiten Zeitpunkt tritt eine erste Gesprächspause auf, die so lang ist wie oder länger ist als eine festgelegte erste Gesprächspausendauer; an dem zweiten Zeitpunkt schweigen die anderen Teilnehmer und nach dem zweiten Zeitpunkt beginnt ein zweiter
Teilnehmer zu sprechen innerhalb einer zweiten
Gesprächspause, die kürzer ist, als die erste
Gesprächspausendauer; an dem zweiten Zeitpunkt spricht ein zweiter Teilnehmer und nach dem zweiten Zeitpunkt tritt eine Sprechpause des ersten Teilnehmers auf, die länger ist, als eine festgelegte erste Sprechpausendauer. Eine Sprechdauer eines Teilnehmers wird also durch einen
Zeitabschnitt definiert, dessen Anfangszeitpunkt zu einem ersten Zeitpunkt, und dessen Schlusszeitpunkt zu einem zweiten Zeitpunkt, der dem ersten Zeitpunkt nachfolgt, eintritt. Der erste Zeitpunkt tritt ein, sobald einer der Teilnehmer der Konferenz zu sprechen beginnt. Wann immer ein zu sprechen beginnender Teilnehmer identifiziert wird, beginnt für diesen Teilnehmer eine Sprechdauer mit dem zu Beginn des Sprechens des Teilnehmers gesetzten ersten
Zeitpunkt als Anfangszeitpunkt dieser Sprechdauer. Der zweite Zeitpunkt als Schlusszeitpunkt einer Sprechdauer wird nur dann gesetzt, wenn an dem zweiten Zeitpunkt die anderen Teilnehmer schweigen und nach dem zweiten Zeitpunkt eine erste Gesprächspause eintritt, die so lang ist wie eine festgelegte erste Gesprächspausendauer oder länger als diese ist. Hintergrund dieser Bedingung ist, dass bei einer Gesprächspause, wenn also keiner der Teilnehmer der
Konferenz spricht, die Sprechdauer eines Teilnehmers auch dann enden muss, wenn kein anderer Teilnehmer die
Gesprächspause beendet. Dies kann der Fall sein, wenn ein Teilnehmer seinen Beitrag zum Gespräch beendet hat und nach Ende dieses Beitrags von dem gleichen Teilnehmer ein neuer Beitrag, beispielsweise zu einem neuen Thema, begonnen wird. Ein anderer Fall des Setzens des Schlusszeitpunktes eines Beitrags ist gegeben, wenn an dem zweiten Zeitpunkt die anderen Teilnehmer schweigen und nach dem zweiten
Zeitpunkt ein anderer Teilnehmer als der bis dahin
sprechende Teilnehmer zu sprechen beginnt. In diesem Fall endet der Beitrag des Teilnehmers, wenn nach dem
Schlusszeitpunkt, der zum zweiten Zeitpunkt eintritt, ein anderer Teilnehmer innerhalb einer zweiten Gesprächspause zu sprechen beginnt, die kürzer ist, als die erste
Gesprächspausendauer. Diese Bedingung greift den Fall auf, wenn nach Ende eines Beitrags eines Teilnehmers entweder sofort oder innerhalb einer kurzen Gesprächspause ein anderer Teilnehmer zu sprechen beginnt. Schließlich wird erfindungsgemäß ein Schlusszeitpunkt einer Sprechdauer eines Teilnehmers gesetzt, wenn an dem zweiten Zeitpunkt ein anderer Teilnehmer spricht und nach dem zweiten
Zeitpunkt eine Sprechpause des ersten Teilnehmers auftritt, die länger ist als die festgelegte erste Sprechpausendauer. Bei dieser Bedingung fällt also beispielsweise ein anderer Teilnehmer einem sprechenden Teilnehmer ins Wort, wobei nun mindestens zwei Teilnehmer gleichzeitig sprechen und der zuerst sprechende Teilnehmer seinen Beitrag zum
Konferenzgespräch beendet. Die erste Sprechpausendauer, die wie die erste Gesprächspausendauer von einem Teilnehmer, einem Administrator oder automatisch, beispielsweise anhand vorgegebener Maximal- und/oder Mindestdauern für einen Gesprächsbeitrag eines Teilnehmers oder durch Übernahme bekannter Werte aus früheren Konferenzen, einheitlich oder für jeden Teilnehmer individuell festgelegt ist und/oder während der Konferenz veränderbar ist, kann kleiner gewählt sein als die erste Gesprächspausendauer. Hierdurch wird dem Umstand Rechnung getragen, dass bei einer laufenden
Diskussion oder einem laufenden Gespräch die Teilnehmer in kürzeren Intervallen aufeinander antworten als bei einer Gesprächspause, beispielsweise einer Denkpause sämtlicher Teilnehmer in einem Gespräch. Es können je nach dem Beginn des Sprechens der Teilnehmer der Konferenz mehrere
Sprechdauern gleichzeitig erfasst werden, wobei die
Anfangs- und Schlusszeitpunkte der Sprechdauern der
Teilnehmer zu unterschiedlichen Zeitpunkten eintreten können .
Während die erste Gesprächspausendauer ein Schweigen sämtlicher Teilnehmer der Konferenz voraussetzt, reicht es bei der ersten Sprechpausendauer zum Auftreten dieser ersten Sprechpausendauer aus, wenn der jeweils sprechende Teilnehmer, dessen Beitrag erfasst wird, aufhört zu
sprechen. Die erste Sprechpausendauer sollte nicht in einem gesprochenen Satz eines Teilnehmers auftreten dadurch, dass zwischen den einzelnen Worten des gesprochenen Satzes des Teilnehmers eine Pause auftritt. Vielmehr sollte die erste Sprechpausendauer nur dann auftreten, wenn ein gesprochener Satz beendet ist und kein weiterer gesprochener Satz dem beendeten Satz unmittelbar nachfolgt. Bei der ersten
Gesprächspausendauer ist lediglich ein Aufhören des
Gesprächs, das in der Konferenz geführt wird, erforderlich. Ein mögliches Hintergrundgeräusch, das nicht von einem der Teilnehmer der Konferenz stammt und die Lautstärke des Konferenzgesprächs sogar übertönen kann, sollte nicht dazu führen, dass eine Gesprächspause der Teilnehmer deswegen nicht erkannt wird, weil ein Geräusch vorliegt. Die erste Gesprächspausendauer und die erste Sprechpausendauer können dadurch definiert sein, dass ein Lautstärkeunterschied zwischen einem Umgebungsgeräusch und dem Sprechgeräusch des sprechenden Teilnehmers erreicht und/oder überschritten wird. Entsprechende Parameter können individuell der ersten Gesprächspausendauer und der ersten Sprechpausendauer zugeordnet werden. Die Einstellung dieser Parameter der ersten Gesprächspausendauer und der ersten
Sprechpausendauer können zeitlich vor der Konferenz oder während der Konferenz eingestellt und oder verändert werden . In einer weiteren Ausführungsform wird jeder
Gesprächsbeitrag jedes sprechenden Teilnehmers als jedem sprechenden Teilnehmer zugeordnete Sprechdauer erfasst und aus der zeitlichen Reihenfolge der Zeitstempel eine
zeitliche Gesprächsabfolge des in der Konferenz geführten Gesprächs der Teilnehmer rekonstruiert. Durch die Erfassung jedes Gesprächsbeitrags jedes sprechenden Teilnehmers kann der vollständige Gesprächsverlauf des in der Konferenz geführten Gesprächs rekonstruiert werden, wodurch es insbesondere möglich wird, einen sich wenig oder überhaupt nicht an dem in der Konferenz geführten Gespräch
beteiligten Teilnehmer zu identifizieren. Auf diese Weise können also Zuhörer in der Konferenz, die nur einen
geringen oder gar keinen Beitrag zum in der Konferenz geführten Gespräch leisten, bestimmt werden.
Vorteilhafterweise werden die statistischen Daten dadurch gebildet, dass mindestens eine einem sprechenden Teilnehmer zugeordnete Sprechdauer bezüglich der zeitlichen
Gesprächsabfolge mit mindestens einer einem anderen
sprechenden Teilnehmer zugeordneten Sprechdauer korreliert wird. Auf diese Weise können aufeinanderfolgende Beiträge unterschiedlicher Teilnehmer einander zugeordnet werden. Es können also Teilnehmerpaare, die in unmittelbarer
Gesprächsabfolge in der Konferenz (zueinander) gesprochen haben, identifiziert werden.
Die durch die statistische Auswertung der Sprechdauern der Teilnehmer erzeugten statistischen Daten können eine der folgenden Informationen umfassen: Welcher Teilnehmer in unmittelbarer Gesprächsabfolge mit welchem anderen
Teilnehmer wie lange in der Konferenz gesprochen hat;
welche Teilnehmerpaare wie oft in unmittelbarer
Gesprächsabfolge in der Konferenz gesprochen haben; welcher Teilnehmer in der Konferenz nicht in unmittelbarer
Gesprächsabfolge gesprochen hat; welcher Teilnehmer wie lange in der Konferenz gesprochen hat, wobei die diesem Teilnehmer zugeordneten Sprechdauern aufsummiert werden zu einer teilnehmerbezogenen Gesamtsprechdauer, die als
Absolutwert oder als Gesamtgesprächszeitanteil dieses Teilnehmers bezogen auf die Dauer der Konferenz ausgegeben wird. Die statistischen Daten können also Absolutwerte, also einen Zeitabschnitt oder Dauer, beispielsweise in Minuten und/oder Sekunden, oder einen Relativwert, also ein Zeitabschnitt, der auf einen anderen Zeitabschnitt bezogen ist, beispielsweise über ein aus diesen Zeitabschnitten gebildeten Quotienten, der als Prozent-Angabe angegeben werden kann, umfassen. Daneben kann eine Anzahl an in der Konferenz aufgetretenen Teilnehmerpaaren, die in
unmittelbarer Gesprächsabfolge in der Konferenz gesprochen haben, gebildet werden. Wenn beispielsweise Teilnehmer B mehrfach auf Beiträge von Teilnehmer A geantwortet hat, kann die Anzahl dieser Sprecherwechsel in der Konferenz erfasst und ausgegeben werden, wobei unter einem Sprecher ein sprechender Teilnehmer verstanden wird. Auch kann erfasst und ausgegeben werden, wie oft der Teilnehmer A auf Beiträge des Teilnehmers B geantwortet hat. Die
Reihenfolge, welcher Teilnehmer auf welchen anderen
Teilnehmer einen Gesprächsbeitrag geleistet hat, kann also in die Informationen, die die statistischen Daten umfassen, einfließen. Unter einer unmittelbaren Gesprächsabfolge wird verstanden, dass nach Ende eines Beitrags eines Teilnehmers sich der Beitrag eines anderen Teilnehmers unmittelbar anschließt. Dieser Fall kann eintreten, wenn zwischen den Beiträgen eine Sprechpause auftritt, zwischen den Beiträgen keine Sprechpause auftritt oder der spätere Beitrag vor Ende des früheren Beitrags beginnt. Alternativ kann unter einer unmittelbaren Gesprächsabfolge auch verstanden werden, dass ein Beitrag eines Teilnehmers sich dem Beitrag eines anderen Teilnehmers anschließt. Auf diese Weise kann die automatische Identifikation jedes Teilnehmers, wenn dieser Teilnehmer in der Konferenz spricht, geringeren Qualitätsanforderungen genügen, als in dem Fall, in dem mehrere Teilnehmer gleichzeitig sprechen und getrennt voneinander zu identifizieren sind.
Vorteilhafterweise können die statistischen Daten für einen festgelegten Zeitanteil der Konferenz, der kürzer ist als die Dauer der Konferenz, erzeugt werden. Auf diese Weise kann lediglich ein bestimmter zeitlicher Anteil der Dauer der Konferenz hinsichtlich der zu erzeugenden statistischen Daten von einem Benutzer des erfindungsgemäßen Verfahrens beleuchtet werden. Insbesondere wenn jeder Gesprächsbeitrag jedes sprechenden Teilnehmers erfasst wurde, kann der festgelegte Zeitanteil der Konferenz als ein beliebiger Zeitanteil vom Beginn der Konferenz bis zu dessen Ende ausgewählt werden. Die Erzeugung der statistischen Daten kann allgemein oder für den Fall der Betrachtung lediglich eines festgelegten Zeitanteils an der Konferenz ab dem Beginn der Konferenz in Echtzeit erfolgen. In diesem Fall ist der späteste Abschlusszeitpunkt des festgelegten
Zeitanteils der Erzeugung der statistischen Daten der momentane Konferenzzeitpunkt. Die erzeugten Daten in Form der jedem sprechenden Teilnehmer zugeordneten Sprechdauern, die jeweils mit einem Zeitstempel versehen sind, und/oder die statistischen Daten, die durch eine statistische
Auswertung der Sprechdauern der Teilnehmer erzeugt sind, können in Echtzeit auf einer Benutzeroberfläche einer
Endeinheit eines Teilnehmers der Konferenz, beispielsweise als individuelle Zeitangabe, zur Verfügung gestellt werden. Die Erzeugung der Sprechdauern und der statistischen Daten kann durch eine Konferenzserver-Applikation erfolgen.
Alternativ können einzelne oder aggregierte Sprechdauern einzelner Teilnehmer aus einem Konferenzarchiv zusammen oder selektiv abgerufen werden. In diesem Fall erfolgt der Abruf der Sprechdauern und/oder statistischen Daten
zeitverschoben zur Konferenz oder nach deren Ende. Eine Echtzeit-Darstellung der Sprechdauern und/oder
statistischen Daten wird auch als Online-Darstellung bezeichnet, wobei eine Darstellung der Sprechdauern
und/oder statistischen Daten zeitverschoben zur Konferenz oder nach Ende der Konferenz als Offline-Darstellung bezeichnet wird. Die Sprechdauern und/oder statistischen Daten können ausgegeben, weitergeleitet und/oder
abgespeichert werden. Optional kann der Medienstrom der Konferenz, also sämtliche über die Konferenzbrücke und im Rahmen der Konferenz übertragenen Daten beispielsweise Sprachdaten, Bilddaten und/oder Textdaten, zusammen mit den statistischen Daten ausgegeben, weitergeleitet und/oder abgespeichert werden.
In einer weiteren Ausführung der Erfindung wird die
Sprechdauer des Teilnehmers einem bestimmten Businessrelevanten Kriterium, insbesondere einem diesem Teilnehmer zugewiesenen Verrechnungskonto, zugeordnet. Neben einer einzelnen Sprechdauer eines Teilnehmers können auch mehrere Sprechdauern und/oder die statistischen Daten einem
bestimmten Business-relevanten Kriterium zugewiesen werden. Unter einem bestimmten Business-relevanten Kriterium kann insbesondere ein Verrechnungskonto oder eine Kostenstelle verstanden werden. Auch eine Accounting-Applikation kann ein Business-relevantes Kriterium darstellen. Andere
Funktionen zur weiteren Be- und/oder Verarbeitung der
Sprechdauern und/oder statistischen Daten zur
kostenseitigen Erfassung der Gesprächsbeiträge eines
Teilnehmers in der Konferenz können ein bestimmtes Business-relevantes Kriterium bilden. Wie oben ausgeführt kann die Zuordnung der Sprechdauern und/oder statistischen Daten, die mit dem erfindungsgemäßen Verfahren erzeugt werden, zu dem bestimmten Business-relevanten Kriterium online oder offline erfolgen.
In einer anderen Ausführungsform wird die Zuordnung der Sprechdauer des Teilnehmers zu dem Business-relevanten Kriterium getriggert an einer Endeinheit durch Drücken einer Taste, Betätigen eines Softkey auf einer
Benutzeroberfläche oder durch eine mittels Gestensteuerung erkannte Geste. Neben der Zuordnung einer einzelnen
Sprechdauer können auch mehrere Sprechdauern und/oder die statistischen Daten mittels Tastendruck, Softkey-Betätigung oder Gestensteuerung dem bestimmten Business-relevanten Kriterium zugeordnet werden. Die Endeinheit kann einem Teilnehmer der Konferenz zugeordnet sein oder einem
dritten, beispielsweise einem Administrator oder einem Konferenzausrichter, der selbst nicht an der Konferenz teilnimmt. Eine Auswertung der Sprechdauern und/oder statistischen Daten kann nach Triggerung an der Endeinheit unmittelbar, also in Echtzeit oder online, oder
zeitverschoben zur Triggerung, also der Triggerung
nachfolgend, erfolgen. Die Endeinheit kann, wie bereits erwähnt, ein Telefonendgerät, obiltelefon, ein IP-Phone oder ein PC-Client sein. Als Benutzeroberfläche kommt beispielsweise ein Touchscreen-Display eines PC- Bildschirms, Telefonendgeräts, Mobiltelefons oder eines PDA (Personal Digital Assistant) infrage. Andere
Ausgestaltungen einer Benutzeroberfläche sind denkbar. Zur Aufnahme einer Geste und Auswertung der Geste mittels
Gestensteuerung kann eine Fotozelle eines Mobiltelefons, eine Videokamera oder andere optische Einrichtung verwendet werden. Die Gestensteuerung kann in der Endeinheit selbst oder bei ausreichender Übertragungsrate in einem von der Endeinheit räumlich getrennten anderen Gerät, z.B. einem Konferenzserver, erfolgen.
Vorteilhafterweise werden die Sprechdauern und/oder die statistischen Daten auf einer Endeinheit des Teilnehmers in Echtzeit ausgegeben. Hierbei kann die Ausgabe über eine Konferenz-Applikation erfolgen. Ein Abruf der Sprechdauern und/oder der statistischen Daten kann zeitverschoben zur Konferenz oder nach Ende der Konferenz über ein
Konferenzarchiv, wie oben erwähnt, erfolgen.
In einer anderen Ausführung der Erfindung werden die
Sprechdauern und/oder die statistischen Daten an eine übergeordnete Business-Applikation zur Datenauswertung weitergeleitet. Im Rahmen der Weiterleitung der
Sprechdauern und/oder statistischen Daten an die
übergeordnete Business-Applikation kann eine Zuordnung der Sprechdauer des Teilnehmers an ein bestimmtes Businessrelevantes Kriterium, wie oben erwähnt, erfolgen. Die
Weiterleitung der Sprechdauern und/oder der statistischen Daten an die übergeordnete Business-Applikation zur
Datenauswertung kann wie die Ausgabe der Sprechdauern und/oder der statistischen Daten getriggert sein an einer Endeinheit durch Drücken einer Taste, Betätigen eines
Softkey auf einer Benutzeroberfläche oder durch eine mittels Gestensteuerung erkannte Geste. Die übergeordnete Business-Applikation, beispielsweise ein SAP-Modul, kann eine von der Konferenz-Applikation separate Applikation sein, mittels eines Links in der Konferenz-Applikation implementiert sein oder in der Konferenz-Applikation selbst integriert sein. Die Weiterleitung der Sprechdauern
und/oder der statistischen Daten an die übergeordnete
Business-Applikation zur Datenauswertung kann, wie generell die Ausgabe, Weiterleitung und/oder Speicherung dieser Daten über eine Benutzeroberfläche der Konferenzbrücke zum Einrichten und Verwalten der Konferenz erfolgen. Die
Benutzeroberfläche der Konferenzbrücke kann über eine
Konferenzbrücken-Applikation einem Benutzer dargestellt werden .
Von Vorteil ist es zudem, wenn aus den statistischen Daten eine Information ermittelt wird, welcher Teilnehmer in der Konferenz den größten Gesprächsbeitrag liefert, und diese Information ausgewertet wird, beispielsweise von einem präsenzbasierten Rule-Engine, um zu entscheiden, ob diesem Teilnehmer eine regelbasierte Rufweiterschaltung zu einem Gesprächspartner ermöglicht werden soll. Unter einem größten Gesprächsbeitrag kann die längste Dauer von
aufsummierten Sprechdauern eines Teilnehmers verstanden werden oder die größte Anzahl von Sprechdauern eines
Teilnehmers in einer Konferenz. Andere Definitionen des größten Gesprächsbeitrags sind denkbar, beispielsweise wenn die Dauer der aufsummierten Sprechdauern eines Teilnehmers oder die Anzahl dieser Sprechdauern des Teilnehmers gleich groß ist wie die eines anderen Teilnehmers. Alternativ ist es möglich, dass anstelle eines größten Gesprächsbeitrags der geringste oder ein geringer Gesprächsbeitrag als
Information aus den statistischen Daten zu einem jeweiligen Teilnehmer einer Konferenz ermittelt wird und diese
Information derart ausgewertet wird, dass von einem
präsenzbasierten Rule-Engine entschieden wird, ob diesem Teilnehmer eine regelbasierte Rufweiterschaltung zu einem Gesprächspartner verwehrt werden soll. Als Gesprächspartner kommt ein anderer Teilnehmer der Konferenz oder ein
Vorgesetzter eines Konferenzteilnehmers infrage. Die
Weiterleitung der Sprechdauern und/oder der statistischen Daten an die übergeordnete Business-Applikation in Form eines präsenzbasierten Rule-Engine erfolgt beispielsweise über eine Programmschnittstelle der Konferenzbrücken- Applikation. Vor Weiterleitung der Sprechdauern und/oder der statistischen Daten an die übergeordnete Business- Applikation können diese Daten auf einer serverbasierten Konferenzbrücken-Applikation, zentral und automatisch erfasst werden.
In einer weiteren Ausführungsform werden von einem anderen non-Realtime Kollaborationsdienst erzeugte Daten in die Erzeugung der statistischen Daten durch die statistische Auswertung der Sprechdauern der Teilnehmer einbezogen. Auf diese Weise kann eine statistische Auswertung der
Sprechdauern der Teilnehmer, auch als sprecherbezogene Zeitkontingente bezeichnet, die auf Echtzeit-Mediaservern erfolgen kann, auf andere zentral gehostete non-Realtime Kollaborations-/Konferenzdienste, beispielsweise einem Instant Messaging oder Chatservice, ausgedehnt werden. Der Einbezug der von einem anderen non-Realtime
Kollaborationsdienst erzeugten Daten in die Erzeugung der statistischen Daten kann erfolgen, indem für den non- Realtime Kollaborationsdienst die Zeitbasis der Konferenz entfällt und durch eine lineare Abfolge der Beiträge der Teilnehmer des non-Realtime Kollaborationsdienstes ersetzt wird, und eine Beitragsdauer jedes Beitrags durch die
Anzahl von Zeichen, die dieser Beitrag umfasst, ersetzt wird. Dieser Fall kann eintreten, wenn ein „reiner" non- Realtime Dienst einbezogen werden soll, der keine eigene Zeitbasis umfasst. Ergänzt jedoch der non-Realtime
Kollaborationsdienst die Konferenz auf einem
Konferenzserver, wird der non-Realtime Kollaborationsdienst als Teil der Konferenzsession auf die Zeitbasis der
Konferenz bezogen. Beispielsweise kann ein Chat, der zeitlich parallel zu einer Videokonferenz stattfindet, diese Videokonferenz als non-Realtime Kollaborationsdienst ergänzen, wobei die Zeitbasis der Videokonferenz
beibehalten wird. In diesem Fall können alle Dienste, also auch der Chat, der Konferenzsession auf die Zeitbasis der Videokonferenz als gemeinsame Zeitbasis bezogen werden. Diese Ausdehnung des erfindungsgemäßen Verfahrens auf non- Realtime Dienste ermöglicht eine Erweiterung eines reinen Sprachkonferenzservers auf einen multimedialen Konferenz- und Kollaborationsserver. Die nachfolgende Auswertung der statistischen Daten kann identisch erfolgen zu dem Fall, wo non-Realtime Kollaborationsdienst-erzeugte Daten nicht in die Erzeugung der statistischen Daten einbezogen werden. Wie bei einem Instant Messaging oder einem Chatservice gegeben, kann der andere non-Realtime Kollaborationsdienst zentral gehostet sein.
Sämtliche Ausführungsformen des erfindungsgemäßen
Verfahrens können ablaufen, wenn die Konferenzbrücke serverbasiert ausgeführt wird. In diesem Fall wird die Konferenz serverbasiert administriert, wobei der Konferenz eine Konferenz-ID eindeutig zugewiesen wird. Ein
Konferenzserver kann zudem eine Konferenz in vollständiger Länge aufzeichnen. Aufgrund der über die Dauer der
Konferenz mitlaufenden Zeitbasis, die für die statistische Auswertung der Sprechdauern der Teilnehmer, also der
Zuordnung von Sprecher und Gesprächszeit, verwendet wird, können aggregierte Sprechdauern einzelner Teilnehmer identifiziert werden und aus einem auf dem Konferenzserver installierten Konferenzarchiv selektiv abgerufen werden. Beispielsweise können alle Beiträge eines einzelnen
Teilnehmers, alle Gespräche zwischen bestimmten Teilnehmern oder aber alle aggregierten Beiträge der Teilnehmer in einem bestimmten Zeitabschnitt der Konferenz, komfortabel über den Konferenzserver abgerufen werden. Bei gemeinsamer Abspeicherung des Medienstroms der Konferenz und der statistischen Daten auf einem Konferenzserver können diese Daten komfortabel zusammen ausgewertet werden. Auf diese Weise können beispielsweise Sprechdauern einzelner
Teilnehmer aufsummiert, als statistische Daten angezeigt und als Nutzdaten der Konferenz abgespielt werden.
Nutzdaten werden auch als Payload-Daten bezeichnet und umfassen beispielsweise Audio- und/oder Video-Daten. Auf dem Konferenzserver können vorteilhafterweise neben den Sprechdauern der Teilnehmer der Konferenz analoge
Sprechdauern, die aus Daten eines anderen non-Realtime Kollaborationsdienstes erzeugt sind, identifiziert und aggregiert werden. Wie oben erwähnt kann die Sprechdauer eines Teilnehmers bei einer Konferenz bei einem non- Realtime Kollaborationsdienst der Anzahl der Zeichen eines Beitrags im Rahmen des non-Realtime Kollaborationsdienstes oder der Dauer eines Beitrags im Rahmen des non-Realtime Kollaborationsdienstes, die über die gemeinsame Zeitbasis ermittelt ist, entsprechen. Diese Zeitanteile, denen ein Gesprächsbeitrag in der Konferenz oder ein Beitrag
beispielsweise in einem Chat entsprechen, können, da diese gemeinsam auf einem Konferenzserver abgespeichert sind, gezielt identifiziert und die diesen Beiträgen
entsprechenden Teile der edienströme der Konferenz und des non-Realtime Kollaborationsdienstes können über die
Zeitbasis der Konferenz ausgewählt und abgerufen werden.
Die Erfindung betrifft weiter eine Konferenzbrücke zur Bereitstellung von in einer Konferenz erzeugten Daten, in der Sprachsignale von Teilnehmern der Konferenz in der Konferenzbrücke mischbar sind, mit einer Zeitbasiseinheit zum Bereitstellen einer über die Dauer der Konferenz mitlaufenden Zeitbasis. Weiter umfasst die Konferenzbrücke eine Sprechererkennungseinheit zur automatischen
Identifikation jedes Teilnehmers, wenn dieser Teilnehmer in der Konferenz spricht, eine
Gesprächsbeitragserfassungseinheit zum Erfassen eines
Gesprächsbeitrags jedes sprechenden Teilnehmers zu einem in der Konferenz geführten Gespräch der Teilnehmer als jedem sprechenden Teilnehmer zugeordnete Sprechdauer in der
Konferenz, eine Zeitstempelzuordnungseinheit zum Zuordnen eines Zeitstempels zu der Sprechdauer und eine
Auswerteeinheit zum Erzeugen statistischer Daten durch eine statistische Auswertung der Sprechdauern. Die
Zeitbasiseinheit, die Sprechererkennungseinheit, die
Gesprächsbeitragserfassungseinheit , die
Zeitstempelzuordnungseinheit und die Auswerteeinheit können einzeln oder zusammen räumlich in die Konferenzbrücke aufgenommen oder räumlich von der Konferenzbrücke getrennt angeordnet sein. Weiter können diese Einheiten oder
einzelne dieser Einheiten als Software, als Hardware oder als Kombination aus einer Hard- und Software realisiert sein . Bevorzugt umfasst die Gesprächsbeitragserfassungseinheit der Konferenzbrücke eine Terminierungseinheit zum Setzen eines Anfangszeitpunktes der Sprechdauer zu einem ersten Zeitpunkt, an dem ein erster Teilnehmer zu sprechen
beginnt, und zum Setzen eines Schlusszeitpunktes der
Sprechdauer zu einem zweiten Zeitpunkt, an dem der erste Teilnehmer zu sprechen aufhört, wenn mindestens eine der folgenden Bedingungen erfüllt ist: An dem zweiten Zeitpunkt schweigen die anderen Teilnehmer und nach dem zweiten
Zeitpunkt tritt eine festgelegte erste Gesprächspause auf, die so lang ist wie oder länger ist als eine erste
Gesprächspausendauer; an dem zweiten Zeitpunkt schweigen die anderen Teilnehmer und nach dem zweiten Zeitpunkt beginnt ein zweiter Teilnehmer zu sprechen innerhalb einer zweiten Gesprächspause, die kürzer ist als die erste
Gesprächspausendauer; an dem zweiten Zeitpunkt spricht ein zweiter Teilnehmer und nach dem zweiten Zeitpunkt tritt eine Sprechpause des ersten Teilnehmers auf, die länger ist als eine festgelegte erste Sprechpausendauer. Eine so ausgestaltete Gesprächsbeitragserfassungseinheit stellt auf einfache Weise sicher, dass ein Gesprächsbeitrag eines Teilnehmers zu einem in der Konferenz geführten Gespräch zuverlässig erfasst werden kann. Vorteilhafterweise ist die Konferenzbrücke serverbasiert, wobei durch den Einsatz eines Konferenzservers für die Konferenzbrücke die zu dem entsprechenden Verfahren geschilderten Vorteile auftreten.
Mit dem erfindungsgemäßen Verfahren und der
erfindungsgemäßen Konferenzbrücke können Gesprächsbeiträge der Teilnehmer einer Konferenz und Interaktionen zwischen Gesprächspartnern dieser Konferenz, beispielsweise einer Sprachkonferenz oder einer Videokonferenz, durch eine mitlaufende Zeitbasis erfasst, statistisch aufbereitet und zeitlich quantifizierbar gemacht werden. Individuelle sprecherbezogene Beitragszeitkontingente oder aber
Beitragskontingente bestimmter Gesprächsabläufe werden identifizierbar und quantifizierbar. Auch Beiträge in einer Session eines non-Realtime Kollaborations- /Konferenzdienstes , beispielsweise Instant Messaging oder Chat, von Teilnehmern, die in einer Konferenzsession von einem Konferenzserver gehostet werden, können in die statistische Auswertung der Daten der Konferenz aufgenommen werden. Auf diese Weise können Interaktionen,
beispielsweise als ausgetauschte Gesprächsbeiträge, Bilder, Daten etc., der Teilnehmer der Konferenz und der Session eines non-Realtime Kollaborations-/Konferenzdienstes durch absolute und/oder relative Zeitanteile an der Dauer der Konferenz statistisch ausgewertet werden. Diese
statistische Auswertung erlaubt unter anderem die
Bereitstellung folgender Informationen: Wer mit wem wie lange gesprochen/interagiert hat; wer absolut wie lange gesprochen/interagiert hat; wer überhaupt nicht
gesprochen/interagiert hat. Die statistische Auswertung erlaubt zudem eine Einbindung und/oder Korrelation, also Inbezugsetzung, von Realtime und non-Realtime Interaktionen der Teilnehmer der Konferenz. Die statistische Auswertung kann in der Konferenzbrücke selbst, beispielsweise in Form einer Konferenzserver-Applikation, oder aber beispielsweise über Programmschnittstellen durch eine Business- Applikation, die sich von der Konferenzserver-Applikation unterscheiden kann, erfolgen. Die Zeitanteile der
Teilnehmer an dem Gespräch in der Konferenz und/oder die daraus erzeugten statistischen Daten oder ein Teil hiervon können einem dedizierten Verrechnungskonto oder einer anderen Business-Applikation zugewiesen werden.
Erfindungsgemäß wird eine Endeinheit, beispielsweise ein Telefonendgerät, ein Mobiltelefon oder ein PC-Client, eines Teilnehmers einer Konferenz, beispielsweise eine Tele- oder Videokonferenz, zur Ausführung des erfindungsgemäßen Verfahrens oder einer seiner Ausführungsformen verwendet, wobei die Endeinheit ein von einer Konferenzbrücke mischbares Sprachsignal erzeugt.
Weitere Ausführungsbeispiele sowie Vorteile der Erfindung werden nachfolgend anhand der Figuren erläutert. Zur besseren Anschaulichkeit wird in den Figuren auf eine maßstabs-/ oder proportionsgetreue Darstellung verzichtet. In den Figuren bezeichnen, sofern nicht anders angegeben, gleiche Bezugszeichen gleiche Teile mit gleicher Bedeutung. Es zeigen:
FIG. 1 einen zeitlichen Verlauf eines Gesprächs in einer Konferenz mit drei Teilnehmern,
FIG. 2 eine schematische Anordnung einer Konferenz mit drei Teilnehmern, die über einen Konferenzserver geführt wird,
FIG. 3a eine Benutzeroberfläche einer erfindungsgemäßen Konferenz-Applikation mit erweiterten Administrations- und Auswertefunktionen, und
FIG. 3b eine weitere Benutzeroberfläche einer
erfindungsgemäßen Konferenz-Applikation mit erweiterten Administrationsfunktionen für den Fall einer aktivierten Kontozuweisung .
In FIG. 1 ist der zeitliche Verlauf 5 einer Konferenz 6 mit drei Teilnehmern Tl, T2, T3 dargestellt. Die Konferenz beginnt zu einem Zeitpunkt tl, durchläuft die Zeitpunkte t2 bis t9 und endet zu dem Zeitpunkt tlO. Die Zeitpunkte tl bis tlO sind in FIG. 1 auf einem Zeitstrahl t von links nach rechts aufgetragen. Sämtliche Zeitpunkte tl bis tlO werden über eine Zeitbasis referenziert , die über die Dauer
5 der Konferenz 6 mitläuft. In der Konferenz wird ein
Gespräch der Teilnehmer Tl, T2, T3 geführt, wobei einzelne Beiträge als Sprechdauern la, lc, lf, 2, 3 der Teilnehmer Tl, T2, T3 in Form von Sprachsignalen in einer
Konferenzbrücke (nicht dargestellt) gemischt werden. Weiter ist im Rahmen der Konferenz eine automatische
Identifikation jedes Teilnehmers Tl, T2, T3 gegeben, die erfolgt, wenn dieser Teilnehmer Tl, T2, T3 in der Konferenz
6 spricht. Es sei nun angenommen, dass der Teilnehmer Tl das Gespräch in der Konferenz dadurch eröffnet, dass er einen Gesprächsbeitrag la, der zu einem Zeitpunkt tl beginnt und zu einem Zeitpunkt t2 abgeschlossen ist, leistet. Da der Teilnehmer Tl während seines
Gesprächsbeitrages automatisch identifiziert wird,
beispielsweise über eine Sprechererkennungseinheit, wird der Beitrag des Teilnehmers Tl zum in der Konferenz 6 geführten Gespräch als Sprechdauer la erfasst. Zum
Zeitpunkt t2 hört der Teilnehmer Tl zu sprechen auf, wobei sich an den Zeitpunkt t2 eine Sprechpause lb des
Teilnehmers Tl unmittelbar anschließt. An dem Zeitpunkt t2 schweigen die anderen Teilnehmer T2, T3 und die Dauer der Sprechpause lb des Teilnehmers Tl ist kürzer als eine festgelegte erste Gesprächspausendauer Gl. Die Sprechpause lb des Teilnehmers Tl beträgt beispielsweise 1 bis 10
Sekunden, bevorzugt 1 bis 5 und besonders bevorzugt 1 bis 3 Sekunden. Die erste Gesprächspausendauer Gl beträgt
beispielsweise 10 bis 20 Sekunden, bevorzugt 5 bis 10
Sekunden und besonders bevorzugt 3 bis 7 Sekunden. Andere Dauern der ersten Gesprächspausendauer sind möglich. Da nun die Sprechpause lb des Teilnehmers Tl kleiner ist als die erste Gesprächspausendauer tritt kein Schlusszeitpunkt des erfassten Gesprächsbeitrages des Teilnehmers Tl ein, obwohl dieser für die Dauer lb zu sprechen aufhört. Zum Zeitpunkt t3 beginnt der Teilnehmer Tl wieder zu sprechen, wobei der zweite Beitrag des Teilnehmers Tl, die Sprechdauer lc, zum Zeitpunkt t5 beendet ist. An dem Zeitpunkt t5 des Endes der Sprechdauer lc des Teilnehmers Tl spricht der Teilnehmer
T2, der zum Zeitpunkt t4, der zwischen t3 und t5 liegt, zu sprechen begonnen hat. Nach dem Zeitpunkt t5 schweigt der Teilnehmer Tl bis zum Zeitpunkt tl für die Dauer le. Da die Dauer der Sprechpause le des Teilnehmers Tl länger ist als eine festgelegte erste Sprechpausendauer Sl, wird der
Zeitpunkt t5 als Ende des Beitrags la, lc des Teilnehmers Tl erfasst, obwohl die Sprechpause le kürzer ist als die erste Gesprächspausendauer Gl. Da an dem Zeitpunkt t5 ein weiterer Teilnehmer, nämlich T2, gesprochen hat, gilt nicht die zum Zeitpunkt t2
eingetretene Bedingung, nach der zu diesem Zeitpunkt kein anderer Teilnehmer gesprochen hat. Da zum Zeitpunkt t5 der Teilnehmer T2 gesprochen hat, wird das Ende des Beitrags des Teilnehmers Tl anhand der ersten Sprechpausendauer Sl und nicht anhand der ersten Gesprächspausendauer Gl
ermittelt. Daher wird erfindungsgemäß der Beitrag des Teilnehmers Tl mit einer Sprechdauer ld, die von tl bis t5 reicht, erfasst, obwohl dieser Teilnehmer Tl zwischen t2 und t3 nicht gesprochen hat. Der Beitrag des Teilnehmers T2, der zum Zeitpunkt t4 begonnen hat, endet zum Zeitpunkt t6. Zu diesem Zeitpunkt schweigen die anderen Teilnehmer, wobei zum Zeitpunkt tl der Teilnehmer Tl zu sprechen beginnt. Da die Gesprächspause 2c, die zum Zeitpunkt t6 beginnt und zum Zeitpunkt tl aufhört, eine Dauer aufweist, die kürzer ist als die erste Gesprächspausendauer Gl, wird zum Zeitpunkt t6 der Schlusszeitpunkt der Sprechdauer 2 des Teilnehmers T2 gesetzt. Die Sprechdauer 2 des Teilnehmers T2 wird also über den Zeitraum t4 bis t5, in dem sowohl die Teilnehmer Tl, T2 gesprochen haben, als auch über den
Zeitraum zwischen t5 und t6 erfasst, in dem lediglich der Teilnehmer T2 gesprochen hat. Die erste Sprechpausendauer
Sl kann Werte von weniger als einer Sekunde, 1 bis 3 oder 1 bis 5 Sekunden aufweisen. Andere Werte für die erste
Sprechpausendauer Sl sind möglich. Der Beitrag des Teilnehmers Tl, der zum Zeitpunkt tl beginnt, endet zum Zeitpunkt t8, wobei sich nach diesem Zeitpunkt eine Gesprächspause lg anschließt. Da die Dauer der Gesprächspause lg länger ist als die Dauer der ersten Gesprächspausendauer Gl, wird der Zeitpunkt t8 als
Schlusszeitpunkt des Beitrags lf des Teilnehmers Tl
erfasst .
Der dritte Teilnehmer T3 beginnt seinen Beitrag zum
Zeitpunkt t9. Da die Gesprächspause lg eine Dauer aufweist, die länger ist als die erste Gesprächspausendauer Gl, wird der Zeitpunkt t8 als Schlusszeitpunkt der Sprechdauer lf des Teilnehmers Tl erfasst. Hätte der dritte Teilnehmer T3 seinen Beitrag 3 zu einem Zeitpunkt begonnen, der vor dem Ende der ersten Gesprächspausendauer liegt, wäre dennoch der Zeitpunkt t8 als Schlusszeitpunkt des Beitrags lf des Teilnehmers Tl erfasst worden. Der Grund hierfür liegt darin, dass an dem Zeitpunkt t8 die anderen Teilnehmer T2, T3 geschwiegen haben und nach dem zweiten Zeitpunkt der Teilnehmer T3 innerhalb einer Gesprächspause zu sprechen begonnen hätte, die kürzer gewesen wäre als die erste
Gesprächspausendauer Gl.
Auf diese Weise werden erfindungsgemäß Beiträge zu dem in der Konferenz 6 geführten Gespräch von den Teilnehmern Tl, T2, T3 erfasst, wobei der Beitrag des Teilnehmers Tl als Sprechdauer ld erfasst wird, der die Sprechdauern la, lc und die Gesprächspause lb umfasst. Weiter wird die
Sprechdauer 2 des Teilnehmers T2, der Beitrag lf des
Teilnehmers Tl und der Beitrag 3 des Teilnehmers T3
erfasst. Zusätzlich zur Erfassung der Sprechdauern ld, lf, 2, 3 der Teilnehmer Tl, T2, T3 wird jedem erfassten Beitrag ld, lf, 2, 3 jeweils ein Zeitstempel tl, t7, t4, t9
zugeordnet. Beispielsweise wird der Sprechdauer ld des Teilnehmers Tl der Zeitstempel tl zugeordnet. Weiter wird der Sprechdauer lf des Teilnehmers Tl der Zeitstempel mit dem Zeitpunkt tl zugeordnet. Schließlich wird dem Beitrag des Teilnehmers T2 als Sprechdauer 2 der Zeitstempel zum Zeitpunkt t4 und der Sprechdauer 3 des Teilnehmers T3 der Zeitstempel zum Zeitpunkt t9 zugeordnet. Anschließend werden statistische Daten durch eine statistische
Auswertung der Sprechdauern ld, lf, 2, 3 der Teilnehmer Tl, T2, T3 erzeugt. Zur Konstruktion einer zeitlichen
Gesprächsabfolge des in der Konferenz 6 geführten Gesprächs der Teilnehmer Tl, T2, T3 aus der zeitlichen Reihenfolge der Zeitstempel tl, t4, t7, t9 wird jeder Sprechdauer ld, lf, 2, 3 jedes sprechenden Teilnehmers Tl, T2, T3 als jedem sprechenden Teilnehmer Tl, T2, T3 zugeordnete Sprechdauer ld, lf, 2, 3 erfasst. Auf diese Weise kann beispielsweise statistisch ermittelt werden, dass sich an die Sprechdauer ld des Teilnehmers Tl die Sprechdauer 2 des Teilnehmers T3 angeschlossen hat, obwohl die Sprechdauer ld des
Teilnehmers Tl zum Beginn der Sprechdauer 2 des Teilnehmers T2 nicht beendet war. Es kann dadurch ein Teilnehmerpaar Tl, T2 gebildet werden, das in unmittelbarer
Gesprächsabfolge tl, t4 in der Konferenz 6 gesprochen hat. Auf diese Weise lassen sich statistische Daten bilden derart, dass mindestens einer einem sprechenden Teilnehmer Tl zugeordnete Sprechdauer ld, lf bezüglich der zeitlichen Gesprächsabfolge mit mindestens einer einem anderen
sprechenden Teilnehmer T2 zugeordneten Sprechdauer 2 korreliert wird.
Aus den teilnehmerindividuellen Sprechdauern ld, lf, 2, 3 kann alternativ ermittelt werden, welcher Teilnehmer Tl, T2, T3 in der Konferenz 6 wie lange gesprochen hat.
Beispielsweise kann die statistische Auswertung ergeben, dass der Teilnehmer Tl für die Dauer der Sprechdauern ld und lf in der Konferenz 6 gesprochen hat. Durch die
Aufsummierung der dem Teilnehmer Tl zugeordneten
Sprechdauern ld, lf wird in der statistischen Auswertung ein Absolutwert erzeugt, wobei es alternativ oder
zusätzlich möglich ist, dass diese teilnehmerbezogene
Gesamtsprechdauer ld, lf als Gesamtgesprächszeitanteil des Teilnehmers Tl bezogen auf die Dauer 5 der Konferenz 6 ausgegeben wird. Zudem kann die statistische Auswertung der Sprechdauern ld, lf, 2, 3 der Teilnehmer Tl, T2, T3 ergeben, dass der Teilnehmer Tl zweimal in unmittelbarer Gesprächsabfolge in der Konferenz 6 gesprochen hat. Zum ersten Mal sprach der Teilnehmer Tl zum Zeitpunkt tl und zum zweiten Mal zum Zeitpunkt tl . Bei Erfassung jedes
Gesprächsbeitrags jedes sprechenden Teilnehmers Tl, T2, T3 kann die statistische Auswertung auch aufzeigen, ob ein Teilnehmer Tl, T2, T3 in der Konferenz 6 nicht in
unmittelbarer Gesprächsabfolge gesprochen hat. Bei dem zeitlichen Verlauf der FIG. 1 ergibt sich mithin, dass jeder Teilnehmer Tl, T2, T3 einen Beitrag zum Gespräch in der Konferenz 6 geleistet hat, sodass kein Teilnehmer in der Konferenz 6 nicht in unmittelbarer Gesprächsabfolge gesprochen hat. Die statistischen Daten als Ergebnis der statistischen
Auswertung der Sprechdauern Id, lf, 2, 3 der Teilnehmer Tl, T2, T3 müssen nicht über die Dauer 5 der Konferenz 6 erhoben werden. Es reicht aus, dass die statistischen Daten beispielsweise über den Zeitraum tl bis t5 erhoben werden. In diesem Fall reicht die Sprechdauer des Teilnehmers 2 nicht von t4 bis t6, sondern lediglich von t4 bis t5. Die Daten zu der Sprechdauer 3 des Teilnehmers T3 und der
Sprechdauer lf des Teilnehmers Tl werden bei einer
Betrachtung des Zeitfensters tl bis t5 ausgeblendet. Neben der Information der statistischen Daten, welcher Teilnehmer Tl, T2, T3 in unmittelbarer Gesprächsabfolge mit welchem anderen Teilnehmer Tl, T2, T3 wie lange ld, lf, 2, 3 in der Konferenz gesprochen hat, welche Teilnehmerpaare Tl, T2 wie oft (einmal) in unmittelbarer Gesprächsabfolge in der
Konferenz 6 gesprochen haben, welcher Teilnehmer Tl, T2, T3 in der Konferenz 6 nicht (keiner) in unmittelbarer
Gesprächsabfolge gesprochen hat und welcher Teilnehmer Tl, T2, T3 wie lange ld, lf, 2, 3 in der Konferenz gesprochen hat, umfassen auch einzelne Sprechdauern ld, lf eines
Teilnehmers Tl. Insofern stellen die mit einem Zeitstempel tl, t4, t7, t9 versehenen Sprechdauern ld, 2, lf, 3 der Teilnehmer Tl, T2, T3 bereits statistische Daten dar.
In FIG. 2 ist eine Anordnung einer Konferenz 6 mit den Teilnehmern Tl, T2, T3 dargestellt. Die Konferenz 6 wird in einem Datennetz 9 mittels einer Konferenzbrücke 60
geschaltet. Das Datennetz 9 kann ein Intranet oder das Internet sein. Die Konferenzbrücke 60 kann auf einem
Konferenzserver ablaufen, wobei die Konferenzbrücke über eine Konferenzbrücken-Applikation, auch Konferenz- Applikation genannt, gebildet ist. In diesem Fall wird die Konferenzbrücke 60 über Software in Form der Konferenz- Applikation gebildet, wobei als Hardware der
Konferenzbrücke 60 der Konferenzserver dient.
Der Teilnehmer Tl ist über eine Endeinheit 11 und/oder einen Bildschirm 12, auch Display genannt, eine
Verbindungseinheit 10 und eine Endeinheit 31 mit der
Konferenzbrücke 60 verbunden. Hierzu besteht eine
Datenverbindung 15 zwischen der Endeinheit 11 und der
Verbindungseinheit 10, eine weitere Datenverbindung 16 zwischen dem Bildschirm 12 und der Verbindungseinheit 10, eine Datenverbindung 61 zwischen der Endeinheit 31 und der Verbindungseinheit 10 und eine Datenverbindung 63 zwischen der Endeinheit 31 und der Konferenzbrücke 60. Bei
Ausgestaltung der Konferenzbrücke über eine Konferenz- Applikation auf einem Konferenzserver kann die
Verbindungseinheit 10 als Client gegenüber dem
Konferenzserver auftreten. Die Endeinheit 11 kann durch ein Telefonendgerät, ein Mobiltelefon, IP-Phonne oder einen PDA gebildet sein. Bei dem Bildschirm 12 kann es sich um einen Flachbildschirm in Form eines TFT (Thin Film Transistor) - Bildschirm, einen Plasmabildschirm oder um einen
konventionellen Röhrenmonitor handeln. Die
Datenverbindungen 15, 16, 61 und 63 können
datenpaketvermittelnde Datenübertragungsleitungen sein. Beispielsweise kann es sich bei dem Datennetz 9 um das Internet handeln, bei dem Daten zwischen dem Endeinheit 11 und/oder dem Bildschirm 12 und der Konferenzbrücke 60 mittels des TCP/IP-Protokolls übermittelt werden. Ein Teil des Übertragungsweges zwischen der Endeinheit 11 und/oder dem Bildschirm 12 und der Konferenzbrücke 60 kann mittels eines schaltungsvermittelnden Netzes erfolgen.
In ähnlicher Weise wie der Teilnehmer Tl ist auch ein weiterer Teilnehmer T2 an die Konferenzbrücke 60
angeschlossen. Der Teilnehmer T2 verfügt über eine
Endeinheit 21, beispielsweise in Form eines
Telefonendgerätes, Mobiltelefons oder PDAs, und/oder einen Bildschirm 22, beispielsweise in Form eines
Flachbildschirms oder Röhrenmonitors, wobei die Endeinheit 21 über die Datenleitung 25 und der Bildschirm 22 über die Datenleitung 26 an eine weitere Verbindungseinheit 20 angeschlossen sind. Die Verbindungseinheit 20 ist über eine Datenleitung 62 mit der Endeinheit 31 eines dritten
Teilnehmers T3 verbunden, die wiederum über die
Datenleitung 63 mit der Konferenzbrücke 60 verbunden ist. Bei Ausgestaltung der Konferenzbrücke als Konferenz- Applikation auf einem Konferenzserver tritt die
Verbindungseinheit 20 als Client auf. Dieser Client kann auf einem Computer, beispielsweise einem PC, installiert sein. Der Teilnehmer T3, der über die Endeinheit 31
verfügt, ist direkt über die Datenleitung 63 mit der
Konferenzbrücke 60 verbunden. Die Endeinheit 31 kann ein IP-Phone, beispielsweise ein OpenStage-Phone sein, das beispielsweise mittels XML-basierter Client-Server- Architektur an einen Konferenzserver angebunden ist, auf dem die Konferenzbrücke 60 installiert ist. Die Endeinheit 31 umfasst ein schwenkbares Panel 32 mit einem Display 33, wobei das Display 33 als Touchscreen ausgeführt sein kann. Im oberen Bereich des Displays 33 werden die Systemzeit 35 und das Datum 34 in Form des Wochentags und des Datums mit Angabe des Monats, Tags und Jahres angezeigt. Daneben weist das Paneel 32 Tasten 40 auf, wobei diese Tasten als
berührungssensitive Tasten ausgeführt sein können. Die Funktion, die jeder der Tasten 40 zugeordnet ist, wird über die Belegung jeder Taste bestimmt, die im Display 33 angezeigt wird. Beispielsweise hat die Taste 41 die
Funktion „Piconf", die bewirkt, dass einem automatisch anhand der Sprache eines Teilnehmers Tl, T2, T3 erkannten Teilnehmer Tl, T2, T3 ein aktuelles Bild zugeordnet wird.
Bei der Taste 41 handelt es sich daher um einen sogenannten Softkey, dem abhängig von der Bildschirmanzeige auf dem Display 33 unterschiedliche Funktionen zugeordnet werden können. Ein Softkey kann auch auf dem Display 33 abgebildet sein, beispielsweise dann, wenn das Display 33 als
Touchscreen ausgebildet ist. In diesem Fall könnte die Funktion der Zuordnung eines aktuellen Bildes zu einem Sprecher dadurch erfolgen, dass man auf den im Display 33 abgebildeten Ausdruck „Piconf" tippt. Es sei nun
angenommen, dass die Zuordnung eines Bildes zu einem sprechenden Teilnehmer Tl, T2, T3 in der Konferenz 6 erfolgt, wobei beispielsweise dem Teilnehmer Tl das Bild 50 und dem Teilnehmer T2 das Bild 51 zugeordnet ist und im Display 33 angezeigt wird.
Erfindungsgemäß ist vorgesehen, dass die einem Teilnehmer Tl, T2, T3 zugeordneten Sprechdauern aufsummiert werden und im Display 33 der Endeinheit 31 als Absolutwerte in Minuten angezeigt werden. Beispielsweise ist dem Teilnehmer Tl, der als Bild 50 im Display 33 dargestellt wird, eine
aggregierte Gesamtsprechdauer von 35 Minuten in Form der Abbildung 52 oberhalb des Bildes 50 des Teilnehmers Tl im Display 33 dargestellt. In ähnlicher Weise ist dem
Teilnehmer T2, der durch das Bild 51 im Display 33
dargestellt ist, eine aggregierte Gesamtsprechdauer von 75 Minuten als Anzeige 53 oberhalb des Bildes 51 im Display 33 zugeordnet. Die Anzeige 52, 53 des zeitlichen
Gesprächsanteils eines Teilnehmers Tl, T2, T3 in Form einer teilnehmerbezogenen Gesamtsprechdauer kann tastenaktiviert, beispielsweise mittels eines Softkey, geschaltet werden. Die Anzeige kann in Echtzeit erfolgen, wenn die Endeinheit, beispielsweise als Telefonendgerät oder PC-Client
ausgestaltet, direkten Zugriff auf die Konferenz- Applikation hat, die die automatische Identifikation der sprechenden Teilnehmer Tl, T2, T3 visualisiert . Die
Aktivierung mittels einer Taste kann alternativ durch andere technische Trigger erfolgen, beispielsweise eine
Geste, die über eine Gestenerkennungseinheit erkannt wird. Das Display 33 bildet eine Benutzeroberfläche für den
Teilnehmer T3, auf der beispielsweise eine Konferenz-ID als Erkennungsmerkmal einer bestimmten Konferenz 6 angezeigt wird. Auch kann auf dem Display 33 die Gesamtdauer 5 der Konferenz angezeigt werden und als Information der statistischen Auswertung der Sprechdauern der Teilnehmer Tl, T2, T3 zugrunde gelegt werden.
Zusätzlich ist auf dem Display 33 ein Begriff 57 „Konto#l" dem Softkey 47 als Funktion zugeordnet. In gleicher Weise ist der Begriff 58 ,,Konto#2" dem Softkey 48 zugeordnet und der Begriff 59 „Konto#3" dem Softkey 49 zugeordnet. Über die Softkeys 47 bis 49 können nun die erfassten
Gesamtsprechdauern 52, 53 unterschiedlichen Konten
zugewiesen werden. Beispielsweise kann die
Gesamtsprechdauer 52 über 35 Minuten des Teilnehmers Tl dem Verrechnungskonto „Konto#l" durch Drücken des Softkeys 47 zugeordnet werden. Ähnlich kann eine Sprechdauer des
Teilnehmers T2 dem Verrechnungskonto „Konto#2" durch
Drücken des Softkeys 48 zugeordnet werden. Der Teilnehmer
T3 kann seine eigenen Sprechdauern seinem Verrechnungskonto „Konto#3" mittels Drücken der Taste 49 zuordnen. Die
Verrechnungskonten 57, 58, 59 sind durch eine übergeordnete Business-Applikation abgebildet, an die mittels einer
Programmschnittstelle bei Ausgestaltung der Konferenzbrücke als Konferenz-Applikation die Sprechdauern der Teilnehmer Tl, T2, T3 als Sprechdauern und/oder statistische Daten weitergeleitet werden zur Datenauswertung. Andere Businessrelevante Kriterien zur Datenauswertung der Sprechdauern der Teilnehmer Tl, T2, T3 sind möglich. Wie bereits
erwähnt, kann die Zuordnung einer Sprechdauer des
Teilnehmers Tl, T2, T3 an der Endeinheit 31 erfolgen durch Drücken einer Taste 47, 48, 49, Betätigen eines Softkeys auf einer Benutzeroberfläche des Displays 33, mittels einer durch eine Gestensteuerung erkannten Geste oder per
Mausklick. Nach Auswertung der statistischen Daten durch eine Auswertung der Sprechdauern der Teilnehmer Tl, T2, T3 kann mittels Betätigen eines der Softkeys 40 an der
Endeinheit 31 eine Information dahingehend ermittelt werden, welcher Teilnehmer Tl in der Konferenz 6 den größten Gesprächsbeitrag liefert, wobei diese Information von einer übergeordneten Business-Applikation derart ausgewertet wird, dass von einem präsenzbasierten Rule- Engine entschieden werden kann, ob dieser Teilnehmer Tl eine regelbasierte Rufweiterschaltung zu einem
Gesprächspartner ermöglicht werden soll. Diese Entscheidung kann unmittelbar nach Ende der Konferenz 6 oder auch schon während der Konferenz 6, also in Echtzeit, erfolgen. Bei serverbasierter Ausführung der Konferenzbrücke 60 ist es auf einfache Weise zudem möglich, Daten von einem anderen non-Realtime-Kollaborationsdienst , beispielsweise einem zentral gehosteten Instant Messaging oder Chat-Service, in die Auswertung der statistischen Daten durch die
statistische Auswertung der Sprechdauern der Teilnehmer Tl, T2, T3 einzubeziehen . Falls die von dem non-Realtime- Kollaborationsdienst erzeugten Daten nicht auf die
Zeitbasis 35 der Konferenz 6 bezogen werden können, besteht die Möglichkeit, dass die Zeitbasis 35 durch eine lineare Abfolge der Beiträge der Teilnehmer Tl, T2, T3 in der
Session des non-Realtime-Kollaborationsdienstes ersetzt wird und eine Beitragsdauer jedes Beitrags der Teilnehmer Tl, T2, T3 in der Session des non-Realtime-
Kollaborationsdienstes durch die Anzahl von Zeichen, die dieser Beitrag umfasst, ersetzt wird.
In FIG. 3a ist eine Benutzeroberfläche 100 einer Konferenz- Applikation mit erweiterten Administrations- und
Auswertefunktionen dargestellt. Als Konferenz-Applikation kommt ein „OpenScape Web Client" 101 zum Einsatz auf einem PC. Die Benutzeroberfläche 100 umfasst die Möglichkeit unterschiedliche Teilnehmer 106, die jeweils als Ersteller 105 einer Konferenz 6 auftreten können, zu einer Konferenz 6 zusammenzuführen. Die Konferenz-Applikation „OpenScape Web Client" kann dazu verwendet werden, die Art und Anzahl der Softkeys 40, die in FIG. 2 dargestellt sind, zu
definieren und zu editieren. Die Konferenzbrücke 60 bietet nun eine Benutzeroberfläche 110 zum Einrichten und
Verwalten der Konferenz 6. Der Konferenz 6 wird eine eineindeutige Konferenz-ID 112 zugeordnet, über die dieser Konferenz 6 zugeordnete statistische Daten durch
statistische Auswertung der Sprechdauern der Teilnehmer Tl, T2, T3 identifiziert werden können. Zusätzlich kann über die Konferenz-ID 112 ein Medienstrom der Konferenz 6, der den Sprechdauern der Teilnehmer Tl, T2, T3 entspricht, diesen Sprechdauern zugeordnet, selektiert und abgerufen werden. Gemäß der Benutzeroberfläche 110 umfasst die
Konferenz 6 die Namen 113, 114, 115 der unter den
Telefonnummern 123, 124, 125 erreichbaren Teilnehmer. Eine zeitliche Auswertung 130 ist aktiviert, wobei diese
zeitliche Auswertung als statistische Auswertung der Zeit- und Sprecher-Erfassung 140 ausgestaltet ist. Neben einer Anzeige 141 der gesamten Konferenzdauer 5 in Minuten umfasst die zeitliche Auswertung die Möglichkeit der
Anzeige 142 von Anteilen der Konferenzteilnehmer an der
Konferenz 6. Beispielsweise hat der Teilnehmer „Brieskorn" eine Gesamtsprechdauer von XX Minuten 146 als Anteil der Konferenzteilnehmer an der Konferenz 6. Zusätzlich ist der Gesprächszeitanteil des Teilnehmers „Brieskorn" an der Konferenz 6 als Prozentangabe 143 dargestellt. Der weitere Teilnehmer der Konferenz „Kruse" hat einen zeitlichen
Gesprächsanteil von YY Minuten 147 an der Konferenz, der einem prozentualen Anteil YY 144 entspricht. Der letzte Teilnehmer „Monheimius" hat einen zeitlichen
Gesprächsanteil von ZZ Minuten 148, entsprechend einem prozentualen Anteil 145 „ZZ" an der Konferenz 6. Weiterhin sind auf der Benutzeroberfläche 110 Teilnehmerpaare in unmittelbarer Gesprächsabfolge als Konferenzteilnehmer in unmittelbarer Gesprächsabfolge 150 dargestellt. Das erste Teilnehmerpaar „Brieskorn/Kruse" hat in unmittelbarer Gesprächsfolge XX Minuten 154 entsprechend einem
prozentualen Anteil „XX" 151 in der Konferenz 6. Weiter hatte das Teilnehmerpaar „Kruse/Monheimius" einen
Gesprächsanteil 155 von YY Minuten an der Konferenz 6, entsprechend einem prozentualen Anteil 152. Schließlich hatte das Teilnehmerpaar „Monheimius/Brieskorn" einen Gesprächsanteil 156 in Minuten an der Konferenz 6,
entsprechend einem prozentualen Anteil „ZZ" 153.
In FIG. 3b ist neben der Benutzeroberfläche 100 der
Konferenz-Applikation „OpenScape Web Client", in der
Teilnehmer 106, die als Ersteller 105 einer Konferenz 6 auftreten können, zu einer Konferenz 6 zusammengeführt werden können, eine Benutzeroberfläche 210 zur
Administration im Fall einer aktivierten Kontozuweisung dargestellt. Neben dem Namen 112 der Konferenz 6 in Form einer Konferenz-ID erfolgt die Konto-Zuweisung 211 durch Anklicken einer entsprechenden Funktion 131 unter der Rubrik „Teilnahmeoptionen". Die Verrechnungskonten für die Teilnehmer der Konferenz 6 weisen jeweils einen Namen 220, 221, 222 auf, wobei jedem Konto eine Konto-ID zugewiesen ist. So ist dem Konto „#1" eine Konto-ID 230 zugewiesen, dem Konto „#2" die Konto-ID 231 und dem Konto „#3" die Konto-ID 232. Der Administrator der Konferenz 6 kann auf diese Weise unterschiedlichen Konten unterschiedliche
Konto-IDs zuweisen. Als Konto kommt beispielsweise ein Verrechnungskonto oder eine Kostenstelle in Betracht. , Die Kontoführung der Konten mit Namen 220, 221, 222 und Konto- ID 230, 231, 232 muss nicht über eine Applikation erfolgen, die Teil der Konferenz-Applikation 101 ist. Vielmehr ist es daneben möglich, dass eine Business-Applikation zur
Kontoführung der Konten 220, 221, 222, die separat von der Konferenz-Applikation ausführbar ist, abläuft und auf der Benutzeroberfläche 210 lediglich ein Abbild dieser
Business-Applikation dargestellt wird. Dies kann
beispielsweise über eine Verlinkung zwischen Konferenz- Applikation und Business-Applikation erfolgen. Neben der Kontozuweisung 131, wie sie auf der Benutzeroberfläche 210 dargestellt ist, kann über die gleiche Benutzeroberfläche 210 auch eine zeitliche Auswertung 130, wie in FIG. 3a dargestellt, erfolgen.
Mit der vorliegenden Erfindung ist es möglich, durch
Erfassen einzelner Gesprächsbeiträge, denen jeweils der
Teilnehmer dieses Beitrags und ein Zeitstempel zugeordnet werden, den Gesprächsverlauf und die Gesprächsabfolge einer Konferenz zu rekonstruieren. Auf diese Weise können eine ganze Reihe von Mehrwertfunktionen durch eine statistische Auswertung dieser Sprechdauern den Teilnehmern der
Konferenz und/oder übergeordneten Business-Applikationen bereitgestellt werden.

Claims

Patentansprüche
1. Verfahren zur Bereitstellung von in einer Konferenz (6) erzeugten Daten (ld, lf, 2, 3, tl, t4, t7, t9) , bei dem
Sprachsignale (ld, lf, 2, 3) von Teilnehmern (Tl, T2, T3) der Konferenz (6) in einer Konferenzbrücke (60) gemischt werden, mit folgenden Schritten:
- Bereitstellen einer über die Dauer (5) der Konferenz (6) mitlaufenden Zeitbasis (35),
- Einrichten einer automatischen Identifikation jedes Teilnehmers (Tl, T2, T3), wenn
dieser Teilnehmer (Tl, T2, T3) in der Konferenz (6)
spricht,
gekennzeichnet durch
- Erfassen eines Gesprächsbeitrags jedes sprechenden Teilnehmers (Tl, T2, T3) zu einem in der Konferenz geführten Gespräch der Teilnehmer (Tl, T2, T3) als jedem sprechenden Teilnehmer (Tl, T2, T3) zugeordnete Sprechdauer (ld, lf, 2, 3) in der Konferenz (6),
- Zuordnen eines Zeitstempels (tl, t4, t7, t9) zu der
Sprechdauer (ld, lf, 2, 3), und
- Erzeugen statistischer Daten (52, 53, 143-148, 151-156) durch eine statistische Auswertung der Sprechdauern (ld, lf , 2, 3) der Teilnehmer (Tl, T2, T3) .
2. Verfahren nach Anspruch 1, bei dem das Erfassen der jedem sprechenden Teilnehmer (Tl, T2, T3) zugeordneten
Sprechdauer (ld, lf, 2, 3) in der Konferenz (6) die Schrit- te umfasst:
- Setzen eines Anfangszeitpunktes (tl, t4, t6) der Sprech¬ dauer (ld, lf, 2) zu einem ersten Zeitpunkt, an dem ein erster Teilnehmer (Tl, T2) zu sprechen beginnt, - Setzen eines Schlusszeitpunktes (t5, t6, t8) der Sprechdauer (ld, If, 2) zu einem zweiten Zeitpunkt, an dem der erste Teilnehmer (Tl, T2) zu sprechen aufhört, wenn mindestens eine der folgenden Bedingungen erfüllt ist:
- an dem zweiten Zeitpunkt (t8) schweigen die anderen
Teilnehmer (T2, T3) und nach dem zweiten Zeitpunkt
(t7) tritt eine erste Gesprächspause (lg) auf, die so lang ist wie oder länger ist als eine festgelegte erste Gesprächspausendauer (Gl) ,
- an dem zweiten Zeitpunkt (t6) schweigen die anderen
Teilnehmer (Tl, T3) und nach dem zweiten Zeitpunkt
(t6) beginnt ein zweiter Teilnehmer (Tl) zu sprechen innerhalb einer zweiten Gesprächspause (2c) , die kür¬ zer ist als die erste Gesprächspausendauer (Gl) ,
- an dem zweiten Zeitpunkt (t5) spricht ein zweiter
Teilnehmer (T2) und nach dem zweiten Zeitpunkt tritt eine Sprechpause (le) des ersten Teilnehmers (Tl) auf, die länger ist als eine festgelegte erste Sprechpausendauer (Sl) .
3. Verfahren nach Anspruch 1 oder 2, bei dem
- jeder Gesprächsbeitrag jedes sprechenden Teilnehmers (Tl, T2, T3) als jedem sprechenden Teilnehmer (Tl, T2, T3) zugeordnete Sprechdauer (ld, lf, 2, 3) erfasst wird,
- aus der zeitlichen Reihenfolge der Zeitstempel (tl, t4, t7, t9) eine zeitliche Gesprächsabfolge des in der Konferenz (6) geführten Gesprächs der Teilnehmer (Tl, T2, T3) rekonstruiert wird.
4. Verfahren nach Anspruch 3, bei dem die statistischen Daten dadurch gebildet werden, dass mindestens eine einem sprechenden Teilnehmer (Tl) zugeordnete Sprechdauer (ld, lf) bezüglich der zeitlichen Gesprächsabfolge mit mindestens einer einem anderen sprechenden Teilnehmer (T2) zugeordneten Sprechdauer (2) korreliert wird.
5. Verfahren nach Anspruch 3 oder 4, bei dem die statistischen Daten eine der folgenden Information umfassen:
- welcher Teilnehmer (Tl, T2, T3) in unmittelbarer Gesprächsabfolge mit welchem anderen Teilnehmer (Tl, T2, T3) wie lange (151-156) in der Konferenz (6) gesprochen hat, - welche Teilnehmerpaare (Tl, T2) wie oft in unmittelbarer Gesprächsabfolge in der Konferenz (6) gesprochen haben,
- welcher Teilnehmer (Tl, T2, T3) in der Konferenz (6) nicht in unmittelbarer Gesprächsabfolge gesprochen hat,
- welcher Teilnehmer (Tl, T2, T3) wie lange (52, 53) in der Konferenz (6) gesprochen hat, wobei die diesem Teilnehmer
(Tl, T2, T3) zugeordneten Sprechdauern (ld, lf, 2, 3) auf¬ summiert werden zu einer teilnehmerbezogenen Gesamtsprechdauer (ld, lf ) , die als Absolutwert (146, 147, 148) oder als Gesamtgesprächszeitanteil (143, 144, 145) dieses Teil- nehmers (Tl, T2, T3) bezogen auf die Dauer (5) der Konferenz (6) ausgegeben wird,
6. Verfahren nach Anspruch 4 oder 5, bei dem die statistischen Daten für einen festgelegten Zeitanteil (tl, t6) der Konferenz (6), der kürzer ist als die Dauer (5, tl, tlO) der Konferenz (6), erzeugt werden.
7. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Sprechdauer (ld, lf, 2, 3) des Teilnehmers (Tl, T2, T3) einem bestimmten Business-relevanten Kriterium, insbesondere einem diesen Teilnehmer (Tl, T2, T3) zugewiesenen Verrechnungskonto (220, 221, 222), zugeordnet wird.
8. Verfahren nach Anspruch 7, bei dem die Zuordnung der Sprechdauer (ld, lf, 2, 3) des Teilnehmers (Tl, T2, T3) zu dem Business-relevanten Kriterium getriggert wird an einer Endeinheit (31) durch Drücken einer Taste (47, 48, 49), Betätigen eines Softkey (57, 58, 59) auf einer Benutzeroberfläche (33) oder durch eine mittels Gestensteuerung erkannte Geste.
9. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Sprechdauern (ld, lf, 2, 3, tl, t4, t7, t9)
und/oder die statistischen Daten (52, 53, 143-148, 151- 156) auf einer Endeinheit (11, 12, 21, 22, 31) des Teilnehmers (Tl, T2) in Echtzeit über eine Konferenzapplikation ausgegeben werden.
10. Verfahren nach einem der Ansprüche 1 bis 6, bei dem die Sprechdauern (ld, lf, 2, 3, tl, t4, t7, t9) und/oder die statistischen Daten (52, 53, 143-148, 151-156) an eine übergeordnete Businessapplikation zur Datenauswertung weitergeleitet werden.
11. Verfahren nach Anspruch 10, bei dem
- aus den statistischen Daten (52, 53, 143-148, 151-156) eine Information ermittelt wird, welcher Teilnehmer (Tl) in der Konferenz (6) den größten Gesprächsbeitrag (ld, lf) liefert, und
- diese Information ausgewertet wird, beispielsweise von einem Präsenz basierten Rule-Engine, um zu entscheiden, ob diesem Teilnehmer (Tl) eine regelbasierte Rufweiterschal- tung zu einem Gesprächspartner ermöglicht werden soll.
12. Verfahren nach einem der vorhergehenden Ansprüche, bei dem
von einem anderen Non-Realtime Kollaborationsdienst erzeugte Daten in die Erzeugung statistischer Daten (52, 53, 143-148, 151-156) durch die statistische Auswertung der Sprechdauern (ld, lf, 2, 3) der Teilnehmer (Tl, T2, T3) einbezogen werden.
13. Verfahren nach Anspruch 12, bei dem
- für den Non-Realtime Kollaborationsdienst die Zeitbasis (35) der Konferenz (6) entfällt und durch eine lineare Abfolge der Beiträge der Teilnehmer (Tl, T2, T3) des Non- Realtime Kollaborationsdienst ersetzt wird, und
- eine Beitragsdauer jedes Beitrags durch. die Anzahl von Zeichen, die dieser Beitrag umfasst, ersetzt wird.
14. Verfahren nach Anspruch 12, bei dem
- der Non-Realtime Kollaborationsdienst die Konferenz (6) auf einem Konferenzserver ergänzt, und
- der Non-Realtime Kollaborationsdienst als Teil der Konferenz-Session auf die Zeitbasis (35) der Konferenz (6) als gemeinsame Zeitbasis bezogen wird.
15. Verfahren nach Anspruch 12, bei dem der andere Non- Realtime Kollaborationsdienst zentral gehostet und ein Instant Messaging oder ein Chat Service ist.
16. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Konferenzbrücke (60) serverbasiert ausgeführt wird.
17. Konferenzbrücke (60) zur Bereitstellung von in einer Konferenz (6) erzeugten Daten (ld, lf, 2, 3, tl, t4, t7, t9) , in der Sprachsignale (ld, lf, 2, 3) von Teilnehmern (Tl, T2, T3) der Konferenz (6) in der Konferenzbrücke (60) mischbar sind, mit
- einer Zeitbasiseinheit zum Bereitstellen einer über die Dauer (5) der Konferenz (6) mitlaufenden Zeitbasis (35),
- einer Sprechererkennungseinheit zur automatischen Identifikation jedes Teilnehmers (Tl, T2, T3) , wenn dieser Teilnehmer (Tl, T2, T3) in der Konferenz (6) spricht,
gekennzeichnet durch
- eine Gesprächsbeitragserfassungseinheit zum Erfassen eines Gesprächsbeitrags jedes sprechenden Teilnehmers (Tl, T2, T3) zu einem in der Konferenz geführten Gespräch der Teilnehmer (Tl, T2, T3) als jedem sprechenden Teilnehmer (Tl, T2, T3) zugeordnete Sprechdauer (ld, lf, 2, 3) in der Konferenz (6),
- eine Zeitstempelzuordnungseinheit zum Zuordnen eines Zeitstempels (tl, t4, t7, t9) zu der Sprechdauer (ld, lf, 2 , 3 ) , und
- eine Auswerteeinheit zum Erzeugen statistischer Daten (52, 53, 143-148, 151-156) durch eine statistische Auswertung der Sprechdauern (ld, lf, 2, 3) der Teilnehmer (Tl, T2, T3) .
18. Konferenzbrücke (60) nach Anspruch 17, bei der die Ge- sprächsbeitragserfassungseinheit umfasst:
- eine Terminierungseinheit zum Setzen eines Anfangszeitpunktes (tl, t4, t6) der Sprechdauer (ld, lf, 2) zu einem ersten Zeitpunkt, an dem ein erster Teilnehmer (Tl, T2) zu sprechen beginnt, und zum Setzen eines Schlusszeitpunktes (t5, t6, t8) der Sprechdauer (ld, lf, 2) zu einem zweiten
Zeitpunkt, an dem der erste Teilnehmer (Tl, T2) zu sprechen aufhört, wenn mindestens eine der folgenden Bedingungen erfüllt ist:
- an dem zweiten Zeitpunkt (t8) schweigen die anderen Teilnehmer (T2, T3) und nach dem zweiten Zeitpunkt (t7) tritt eine festgelegte erste Gesprächspause (lg) auf, die so lang ist wie oder länger ist als eine erste Gesprächspausendauer (Gl) ,
- an dem zweiten Zeitpunkt (t6) schweigen die anderen Teilnehmer (Tl, T3) und nach dem zweiten Zeitpunkt (t6) beginnt ein zweiter Teilnehmer (Tl) zu sprechen innerhalb einer zweiten Gesprächspause (2c) , die kürzer ist als die erste Gesprächspausendauer (Gl),
- an dem zweiten Zeitpunkt (t5) spricht ein zweiter Teilnehmer (T2) und nach dem zweiten Zeitpunkt tritt eine
Sprechpause (le) des ersten Teilnehmers (Tl) auf, die länger ist als eine festgelegte erste Sprechpausendauer (Sl).
19. Konferenzbrücke (60) nach Anspruch 17 oder 18, bei der
- die Gesprächsbeitragserfassungseinheit so eingerichtet ist, dass jeder Gesprächsbeitrag jedes sprechenden Teilnehmers (Tl, T2, T3) als jedem sprechenden Teilnehmer (Tl, T2, T3) zugeordnete Sprechdauer (ld, lf, 2, 3) erfassbar ist, und
- die Auswerteeinheit so eingerichtet ist, dass aus der zeitlichen Reihenfolge der Zeitstempel (tl, t4, t7, t9) eine zeitliche Gesprächsabfolge des in der Konferenz (6) geführten Gesprächs der Teilnehmer (Tl, T2, T3) rekonstruierbar ist.
20. Konferenzbrücke (60) nach einem der Ansprüche 17 bis 19, wobei die Konferenzbrücke (60) serverbasiert ist.
21. Verwendung einer Endeinheit (11, 12, 21, 22, 31) eines Teilnehmers (Tl, T2, T3) einer Konferenz (6), wobei die Endeinheit (11, 12, 21, 22, 31) ein von einer Konferenzbrücke (60) mischbares Sprachsignal (ld, lf, 2, 3) erzeugt, zur Ausführung des Verfahrens nach einem der Ansprüche 1 bis 16.
PCT/EP2011/005234 2011-10-18 2011-10-18 Verfahren und vorrichtung zur bereitstellung von in einer konferenz erzeugten daten WO2013056721A1 (de)

Priority Applications (8)

Application Number Priority Date Filing Date Title
EP11776094.2A EP2769541A1 (de) 2011-10-18 2011-10-18 Verfahren und vorrichtung zur bereitstellung von in einer konferenz erzeugten daten
PCT/EP2011/005234 WO2013056721A1 (de) 2011-10-18 2011-10-18 Verfahren und vorrichtung zur bereitstellung von in einer konferenz erzeugten daten
BR112014008457A BR112014008457A2 (pt) 2011-10-18 2011-10-18 processo e dispositivo para obtenção de dados gerados em uma conferência
US14/352,463 US20140258413A1 (en) 2011-10-18 2011-10-18 Method and apparatus for providing data produced in a conference
CN201180074281.XA CN103891271B (zh) 2011-10-18 2011-10-18 用于提供在会议中产生的数据的方法和设备
PCT/EP2012/003034 WO2013056756A1 (en) 2011-10-18 2012-07-18 Method and apparatus for displaying visual information about participants in a teleconference
US15/641,543 US20170317843A1 (en) 2011-10-18 2017-07-05 Method and apparatus for providing data produced in a conference
US17/362,100 US20210328822A1 (en) 2011-10-18 2021-06-29 Method and apparatus for providing data produced in a conference

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2011/005234 WO2013056721A1 (de) 2011-10-18 2011-10-18 Verfahren und vorrichtung zur bereitstellung von in einer konferenz erzeugten daten

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/352,463 A-371-Of-International US20140258413A1 (en) 2011-10-18 2011-10-18 Method and apparatus for providing data produced in a conference
US15/641,543 Continuation US20170317843A1 (en) 2011-10-18 2017-07-05 Method and apparatus for providing data produced in a conference

Publications (1)

Publication Number Publication Date
WO2013056721A1 true WO2013056721A1 (de) 2013-04-25

Family

ID=46724306

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2011/005234 WO2013056721A1 (de) 2011-10-18 2011-10-18 Verfahren und vorrichtung zur bereitstellung von in einer konferenz erzeugten daten

Country Status (5)

Country Link
US (3) US20140258413A1 (de)
EP (1) EP2769541A1 (de)
CN (1) CN103891271B (de)
BR (1) BR112014008457A2 (de)
WO (1) WO2013056721A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016022588A1 (en) * 2014-08-04 2016-02-11 Flagler Llc Voice tallying system

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11580501B2 (en) * 2014-12-09 2023-02-14 Samsung Electronics Co., Ltd. Automatic detection and analytics using sensors
JP6238246B2 (ja) * 2015-04-16 2017-11-29 本田技研工業株式会社 会話処理装置、および会話処理方法
JP6210239B2 (ja) * 2015-04-20 2017-10-11 本田技研工業株式会社 会話解析装置、会話解析方法及びプログラム
JP6703420B2 (ja) * 2016-03-09 2020-06-03 本田技研工業株式会社 会話解析装置、会話解析方法およびプログラム
JP6672114B2 (ja) * 2016-09-13 2020-03-25 本田技研工業株式会社 会話メンバー最適化装置、会話メンバー最適化方法およびプログラム
KR102444165B1 (ko) * 2017-01-20 2022-09-16 삼성전자주식회사 적응적으로 회의를 제공하기 위한 장치 및 방법
JP6543848B2 (ja) * 2017-03-29 2019-07-17 本田技研工業株式会社 音声処理装置、音声処理方法及びプログラム
US11363083B2 (en) 2017-12-22 2022-06-14 British Telecommunications Public Limited Company Managing streamed audio communication sessions
US11277462B2 (en) * 2020-07-14 2022-03-15 International Business Machines Corporation Call management of 5G conference calls

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040263636A1 (en) * 2003-06-26 2004-12-30 Microsoft Corporation System and method for distributed meetings
FR2949894A1 (fr) * 2009-09-09 2011-03-11 Saooti Procede de determination de la courtoisie d'un individu

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3185505B2 (ja) * 1993-12-24 2001-07-11 株式会社日立製作所 会議録作成支援装置
JP2004505560A (ja) * 2000-08-01 2004-02-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音源への装置の照準化
US6611281B2 (en) * 2001-11-13 2003-08-26 Koninklijke Philips Electronics N.V. System and method for providing an awareness of remote people in the room during a videoconference
US20040125932A1 (en) * 2002-12-27 2004-07-01 International Business Machines Corporation Conference calls augmented by visual information
US7319745B1 (en) * 2003-04-23 2008-01-15 Cisco Technology, Inc. Voice conference historical monitor
CN100412832C (zh) * 2003-09-02 2008-08-20 竺红卫 一种基于优先级调度的非均匀多媒体流传输调度方法
US7617457B2 (en) * 2004-01-07 2009-11-10 At&T Intellectual Property I, L.P. System and method for collaborative call management
US8204884B2 (en) * 2004-07-14 2012-06-19 Nice Systems Ltd. Method, apparatus and system for capturing and analyzing interaction based content
US9300790B2 (en) * 2005-06-24 2016-03-29 Securus Technologies, Inc. Multi-party conversation analyzer and logger
EP1943824B1 (de) * 2005-10-31 2013-02-27 Telefonaktiebolaget LM Ericsson (publ) Verfahren und anordnung zur stimmenerfassung während einer telefonkonferenz
US20070133437A1 (en) * 2005-12-13 2007-06-14 Wengrovitz Michael S System and methods for enabling applications of who-is-speaking (WIS) signals
US7664246B2 (en) * 2006-01-13 2010-02-16 Microsoft Corporation Sorting speakers in a network-enabled conference
JP5045670B2 (ja) * 2006-05-17 2012-10-10 日本電気株式会社 音声データ要約再生装置、音声データ要約再生方法および音声データ要約再生用プログラム
US7848265B2 (en) * 2006-09-21 2010-12-07 Siemens Enterprise Communications, Inc. Apparatus and method for automatic conference initiation
US8289363B2 (en) * 2006-12-28 2012-10-16 Mark Buckler Video conferencing
WO2008114811A1 (ja) * 2007-03-19 2008-09-25 Nec Corporation 情報検索システム、情報検索方法及び情報検索用プログラム
EP2191461A1 (de) * 2007-09-13 2010-06-02 Alcatel, Lucent Verfahren zur steuerung einer videokonferenz
US8289362B2 (en) * 2007-09-26 2012-10-16 Cisco Technology, Inc. Audio directionality control for a multi-display switched video conferencing system
GB201017382D0 (en) * 2010-10-14 2010-11-24 Skype Ltd Auto focus
US9053750B2 (en) * 2011-06-17 2015-06-09 At&T Intellectual Property I, L.P. Speaker association with a visual representation of spoken content
US9179002B2 (en) * 2011-08-08 2015-11-03 Avaya Inc. System and method for initiating online social interactions based on conference call participation
US9601117B1 (en) * 2011-11-30 2017-03-21 West Corporation Method and apparatus of processing user data of a multi-speaker conference call

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040263636A1 (en) * 2003-06-26 2004-12-30 Microsoft Corporation System and method for distributed meetings
FR2949894A1 (fr) * 2009-09-09 2011-03-11 Saooti Procede de determination de la courtoisie d'un individu

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016022588A1 (en) * 2014-08-04 2016-02-11 Flagler Llc Voice tallying system

Also Published As

Publication number Publication date
BR112014008457A2 (pt) 2017-04-11
US20170317843A1 (en) 2017-11-02
CN103891271B (zh) 2017-10-20
CN103891271A (zh) 2014-06-25
EP2769541A1 (de) 2014-08-27
US20140258413A1 (en) 2014-09-11
US20210328822A1 (en) 2021-10-21

Similar Documents

Publication Publication Date Title
WO2013056721A1 (de) Verfahren und vorrichtung zur bereitstellung von in einer konferenz erzeugten daten
DE69736930T2 (de) Audiokonferenzsystem auf Netzwerkbasis
DE60303839T2 (de) Zusammenarbeit mittels Instant Messaging in multimedialen Telefonie-über-LAN Konferenzen
DE102011010441A1 (de) Kontextbezogene Zusammenfassung neuerer Kommunikation, Verfahren und Vorrichtung
DE102004010368A1 (de) Verfahren zum verspäteten Gesprächseinstieg oder Wiedereinstieg mindestens eines Funkkommunikationsgeräts in eine bereits laufende Push-To-Talk-Gruppendiskussion, Funkkommunikationsgerät, Vermittlungseinheit sowie Funkkommunikationsnetz
DE102010012549B4 (de) Verfahren und Vorrichtung für sequentiell geordnete Telefonie-Anwendungen nach dem Verbindungsabbau
EP2922015A1 (de) Verfahren und Vorrichtung zur Steuerung einer Konferenz
DE102008062300B3 (de) Verfahren und Vorrichtung zum intelligenten Zusammenstellen einer Multimedianachricht für ein Mobilfunksystem
EP3488585B1 (de) Vorrichtung und verfahren zur effizienten realisierung von online- und offline-telefonie in verbindung mit der übertragung und auswertung nutzerspezifischer daten
EP1762040B1 (de) Verfahren und vorrichtung zur statusanzeige in einem datenübertragungssystem
EP1858239A1 (de) Verfahren zum Verwalten von Abläufen auf einem mobilen Endgerät, Verwaltungssystem und mobiles Endgerät
DE19842803A1 (de) Vorrichtung und Verfahren zur Generierung und Verbreitung von individuellen Multimediabotschaften
EP1560140A1 (de) Verfahren und System zur elektronischen Interaktion in einem Netzwerk
DE102022202645A1 (de) Systeme und verfahren zur bereitstellung elektronischer ereignisinformationen
EP2822261B1 (de) Verfahren und anordnung zur poolinierung multimodaler wartefelder und suche aktueller telefonanrufe für einen benutzer in einem telekommunikationsnetz
DE102015001622A1 (de) Verfahren zur Übertragung von Daten in einem Multimedia-System, sowie Softwareprodukt und Vorrichtung zur Steuerung der Übertragung von Daten in einem Multimedia-System
DE202010006148U1 (de) Mitteilungssystem zur POIabhängigen Sprachübertragung
DE10348149B4 (de) Verfahren zur Durchführung einer Telefonkonferenz
DE102018123279B4 (de) Verfahren zum Aufbau und Handhabung eines Sprach- und/oder Videoanrufs zwischen mindestens zwei Benutzerendgeräten
DE102006022111A1 (de) Verfahren zur verknüpften Nachrichtenübertragung und -verarbeitung in einem Telekommunikationsnetz
DE102021130955A1 (de) Computer-implementiertes Videokonferenz-Verfahren
EP2717569B1 (de) Verfahren und System zur Verbesserung und Erweiterung der Funktionalität eines Videotelefonats
DE102012002186B4 (de) Verfahren zur Kommunikation in einem Kommunikationsnetzwerk
DE102007009135A1 (de) Verteilte Konferenz über Verbindung zwischen PBX und Konferenzbrücke
DE19954859A1 (de) Internet-Telefonie-Verfahren

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11776094

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14352463

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2011776094

Country of ref document: EP

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112014008457

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112014008457

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20140408