WO2012120624A1 - オペレータ評価支援装置及びオペレータ評価支援プログラム - Google Patents

オペレータ評価支援装置及びオペレータ評価支援プログラム Download PDF

Info

Publication number
WO2012120624A1
WO2012120624A1 PCT/JP2011/055279 JP2011055279W WO2012120624A1 WO 2012120624 A1 WO2012120624 A1 WO 2012120624A1 JP 2011055279 W JP2011055279 W JP 2011055279W WO 2012120624 A1 WO2012120624 A1 WO 2012120624A1
Authority
WO
WIPO (PCT)
Prior art keywords
operator
display
time
call
display screen
Prior art date
Application number
PCT/JP2011/055279
Other languages
English (en)
French (fr)
Inventor
直人 川島
直人 松平
祐相 藤内
吉田 洋
真吾 広野
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to CN201180069067.5A priority Critical patent/CN103416048B/zh
Priority to PCT/JP2011/055279 priority patent/WO2012120624A1/ja
Priority to JP2013503265A priority patent/JP5790757B2/ja
Publication of WO2012120624A1 publication Critical patent/WO2012120624A1/ja
Priority to US14/017,733 priority patent/US20140003598A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/5175Call or contact centers supervision arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/30Aspects of automatic or semi-automatic exchanges related to audio recordings in general
    • H04M2203/301Management of recordings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/40Aspects of automatic or semi-automatic exchanges related to call centers
    • H04M2203/401Performance feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42221Conversation recording systems

Definitions

  • the present invention relates to an operator evaluation support apparatus and an operator evaluation support program that support the evaluation of a call center operator.
  • call quality of operators has been regarded as important in call centers.
  • a supervisor who supervises the operator evaluates the call quality of each operator.
  • One aspect of evaluating call quality is, for example, the length of call time.
  • the time to wait for a call from a customer For example, the time to wait for a call from a customer, the number of times a customer's call is transferred, the silent time of a customer, etc. are used as indicators for judging whether or not an appropriate response has been made to the customer (ie, customer satisfaction).
  • the technique to do is known conventionally (refer patent document 1).
  • the supervisor can judge the customer's satisfaction level by estimating the psychological state of the customer.
  • the average time per call is calculated based on the response time of all customer-facing calls, and the operator's work skills are estimated by comparing the average time with the response time of the customer-facing call of the operator to be evaluated. (See Patent Document 2).
  • One embodiment of the present invention has an object to provide an operator evaluation support apparatus and an operator evaluation support program capable of easily grasping a problem portion of an operator's customer response.
  • an operator evaluation support apparatus is an operator evaluation support apparatus that evaluates an operator based on a call corresponding to an operator's call from a customer.
  • the utterance recording means for recording the utterance time of the operator and the display time for displaying the display screen in association with the display screen identification information for identifying the display screen displayed in the call on the operator terminal used by the operator
  • Display recording means for recording content recording means for recording screen content information explaining the contents of the display screen in association with display screen identification information of the display screen displayed on the operator terminal, and for the call, the utterance recording means ,
  • the display recording means and the content recording means when the customer and the operator speak
  • an operator evaluation support apparatus and an operator evaluation support program that can easily grasp the problem part of the customer response of the operator.
  • FIG. 1 is a configuration diagram of an example of a call center system according to the present embodiment.
  • the call center system shown in FIG. 1 includes a server 1, an operator terminal 2, an administrator terminal 3, and a customer terminal 4.
  • the server 1 is an example of an operator evaluation support device.
  • the server 1 is connected to the operator terminal 2, the administrator terminal 3, and the customer terminal 4 via a predetermined network such as the Internet, a LAN (Local Area Network), or a public network.
  • a predetermined network such as the Internet, a LAN (Local Area Network), or a public network.
  • the server 1 is a customer DB 11, a question DB 12, a FAQ DB 13, a product DB 14, an operator DB 15, a voice DB 16, an utterance time DB 17, a manual DB 18, a page switching DB 19, an evaluation DB 20, a call program 21, an OP (operator) evaluation program 22, and an information search program 23.
  • the operator terminal 2 has an operator program 31.
  • the administrator terminal 3 has an administrator terminal program 41. The administrator terminal 3 is operated by a supervisor as an example of an administrator.
  • the server 1 executes a call program 21, an OP evaluation program 22, and an information search program 23.
  • the server 1 executes the call program 21 to connect the customer terminal 4 and the operator terminal 2, record a call, and transmit customer information to the operator terminal 2.
  • the server 1 executes the OP evaluation program 22 to create information for the supervisor to evaluate the operator, and transmit information to the manager terminal 3 for the supervisor to evaluate the operator.
  • the server 1 executes the information search program 23 to search for information from the manual DB 18 or the like, to transmit the search result to the operator terminal 2, the contents of the information transmitted to the operator terminal 2, the information at the operator terminal 2 Record the time of display and non-display.
  • the operator terminal 2 executes an operator program 31.
  • the operator terminal 2 executes the operator program 31 to display the customer information received from the server 1 and the information retrieval result from the manual DB 18 or the like.
  • the administrator terminal 3 executes an administrator terminal program.
  • the administrator terminal 3 executes the administrator terminal program to display information for the supervisor received from the server 1 to evaluate the operator.
  • the customer terminal 4 may be any device having a telephone function such as a telephone or a PC having a telephone function.
  • Customer DB 11 records information about customers.
  • the question DB 12 records information related to inquiries from customers.
  • the FAQ DB 13 records information relating to frequently asked questions (FAQs).
  • the product DB 14 records information about products.
  • the operator DB 15 records information on the operator status (busy, available, etc.).
  • the voice DB 16 records information related to the voice file.
  • the utterance time DB 17 records information about the utterances of the customer and the operator such as the timing of the utterances of the customer and the operator.
  • the manual DB 18 records screen data and standard time required for each section (page) of the manual.
  • the page switching DB 19 records information related to manual display or non-display operations by the operator.
  • the evaluation DB 20 records information related to evaluation based on the difference between the standard required time and the actual required time.
  • FIG. 2 is a hardware configuration diagram of an example of a server.
  • the server 1 illustrated in FIG. 2 includes an input device 51, a display device 52, and a main body 53.
  • the main body 53 includes a main storage device 61, an arithmetic processing device 62, an interface device 63, a recording medium reading device 64, and an auxiliary storage device 65 that are connected to each other via a bus 67.
  • An input device 51 and a display device 52 are connected to the bus 67.
  • the input device 51, the display device 52, the main storage device 61, the arithmetic processing device 62, the interface device 63, the recording medium reading device 64, and the auxiliary storage device 65 that are connected to each other via the bus 67 are managed by the arithmetic processing device 62. Data can be sent and received between each other.
  • the arithmetic processing unit 62 is a central processing unit that controls the operation of the entire server 1.
  • the interface device 63 receives data from the operator terminal 2, the administrator terminal 3, the customer terminal 4, etc., and passes the contents of the data to the arithmetic processing device 62. Further, the interface device 63 transmits data to the operator terminal 2, the manager terminal 3, the customer terminal 4, etc. in response to an instruction from the arithmetic processing device 62.
  • the auxiliary storage device 65 stores an operator evaluation support program that causes a computer to execute at least processing in the operator evaluation support device as part of a program that causes the server 1 to exhibit the same function as the operator evaluation support device.
  • the operator evaluation support program includes a call program 21, an OP evaluation program 22, and an information search program 23.
  • the server 1 functions as an operator evaluation support device.
  • the operator evaluation support program may be stored in the main storage device 61 accessible to the arithmetic processing device 62.
  • the input device 51 receives data input under the control of the arithmetic processing device 62.
  • the operator evaluation support program can be recorded in a recording medium 66 that can be read by the server 1.
  • the recording medium 66 readable by the server 1 includes a magnetic recording medium, an optical disk, a magneto-optical recording medium, and a semiconductor memory.
  • Magnetic recording media include HDDs, flexible disks (FD), magnetic tapes (MT) and the like.
  • Optical discs include DVD (Digital Versatile Disc), DVD-RAM, CD-ROM (Compact Disc-Read Only Memory), CD-R (Recordable) / RW (ReWriteable), and the like.
  • Magneto-optical recording media include MO (Magneto-Optical disk).
  • a portable recording medium 66 such as a DVD or a CD-ROM in which the operator evaluation support program is recorded is sold.
  • the server 1 that executes the operator evaluation support program reads the operator evaluation support program from, for example, the recording medium 66 on which the recording medium reader 64 has recorded the operator evaluation support program.
  • the arithmetic processing device 62 stores the read operator evaluation support program in the main storage device 61 or the auxiliary storage device 65.
  • the server 1 reads the operator evaluation support program from the main storage device 61 or the auxiliary storage device 65, which is its own storage device, and executes processing according to the operator evaluation support program.
  • FIG. 3 is a hardware configuration diagram of an example of an operator terminal and an administrator terminal.
  • the hardware configurations of the operator terminal 2 and the administrator terminal 3 are the same. Therefore, here, the hardware configuration of the operator terminal 2 will be described. A description of the hardware configuration of the administrator terminal 3 is omitted.
  • the main body 70 includes a main storage device 81, a CPU 82, an auxiliary storage device 83, an image processing unit 84, an I / O processing unit 85, an audio processing unit 86, and a network card 87 that are connected to each other via an internal bus 88.
  • the headset 74 has a speaker 91 and a microphone 92.
  • the main storage device 81, auxiliary storage device 83, image processing unit 84, I / O processing unit 85, audio processing unit 86, and network card 87 connected to each other via the internal bus 88 are mutually controlled by the CPU 82. You can send and receive.
  • the CPU 82 is a central processing unit that controls the operation of the entire operator terminal 2.
  • the image processing unit 84 performs various processes necessary for displaying an image on the display device 71.
  • the I / O processing unit 85 processes data input / output with the pointing device 72 and the keyboard 73.
  • the audio processing unit 86 processes audio data exchanged between the speaker 91 and the microphone 92 of the headset 74.
  • the network card 87 receives data from the server 1 and the like, and passes the contents of the data to the CPU 82. Further, the network card 87 transmits data to the server 1 or the like in response to an instruction from the CPU 82.
  • an operator program 31 is installed in the operator terminal 2.
  • the operator terminal 2 executes an operator program 31.
  • the main storage device 81 stores at least an operator program 31 as part of a program for operating the operator terminal 2.
  • the CPU 82 reads the operator program 31 from the main storage device 81 and executes it.
  • the operator program 31 can be recorded on a recording medium readable by the operator terminal 2.
  • a recording medium readable by the operator terminal 2.
  • the operator terminal 2 that executes the operator program 31 reads the operator program 31 from the recording medium on which the operator program 31 is recorded.
  • the CPU 82 stores the operator program 31 in the main storage device 81.
  • the CPU 82 reads the operator program 31 from the main storage device 81 and executes processing according to the operator program 31.
  • FIG. 4 is a functional configuration diagram of an example of the server.
  • the server 1 has a customer DB 11, a question DB 12, a FAQ DB 13, a product DB 14, an operator DB 15, a voice DB 16, an utterance time DB 17, a manual DB 18, a page switching DB 19, and an evaluation DB 20.
  • the server 1 executes the customer information transmission unit 101, customer information acquisition unit 102, call connection unit 103, operator determination unit 104, call reception unit 105, customer voice recording unit 106, OP voice recording unit 107. , Implements the voice separation means 108.
  • the server 1 implements the utterance table sending means 109, the utterance table creation means 110, the call evaluation means 111, the call status acquisition means 112, and the utterance selection means 113 by executing the OP evaluation program 22. Further, the server 1 executes the information search program 23 to realize the information transmission unit 114, the information search unit 115, and the information search reception unit 116.
  • Customer information transmission means 101 transmits customer information to operator terminal 2.
  • the customer information acquisition unit 102 acquires customer information from the customer DB 11.
  • Call connection means 103 connects operator terminal 2 and customer terminal 4.
  • the operator determining means 104 determines an operator who is not in a call from the operator DB 15.
  • the call receiving unit 105 receives a call from the customer terminal 4.
  • Customer voice recording means 106 writes customer voice data into a voice file.
  • the customer voice recording means 106 writes the utterance start time and utterance end time of the customer in the utterance time DB 17.
  • the OP voice recording means 107 writes the operator's voice data in the voice file.
  • the OP voice recording means 107 writes the utterance start time and utterance end time of the operator in the utterance time DB 17.
  • Voice separation means 108 separates customer voice data and operator voice data.
  • the voice separation unit 108 separates, for example, the right channel of voice data as customer voice data and the left channel of voice data as operator voice data.
  • the utterance table sending means 109 transmits the utterance table to the administrator terminal 3.
  • the utterance table creation means 110 creates an utterance table.
  • the call evaluation unit 111 performs evaluation for each call using the evaluation DB 20.
  • the call status acquisition means 112 acquires information for evaluating each call from the question DB 12, the operator DB 15, the manual DB 18, and the page switching DB 19 as the call status.
  • the utterance selection unit 113 receives an utterance table display request from the administrator terminal 3.
  • the information transmission unit 114 transmits information retrieved from the FAQ DB 13, the product DB 14, and the manual DB 18 to the operator terminal 2.
  • the information retrieval unit 115 retrieves information from the FAQ DB 13, the product DB 14, and the manual DB 18.
  • the information search accepting unit 116 accepts an information search request from the operator terminal 2.
  • FIG. 5 is a configuration diagram of an example of the customer DB.
  • the customer DB 11 includes, as data items, a customer ID, a telephone number, a customer, an address, a purchased product model number, and a purchase store.
  • the data item “customer ID” is identification information for uniquely identifying a customer.
  • the data item “phone number” is the customer's phone number.
  • the data item “customer” is the name of the customer.
  • the data item “address” is the address of the customer.
  • the data item “purchased product model number” is the model number of the product purchased by the customer.
  • the data item “purchase store” is a store where the customer purchased the product.
  • FIG. 6 is a configuration diagram of an example of the question DB.
  • the question DB 12 includes a call ID, an inquiry date, an inquiry time, an inquiry customer, and an operator ID as data items.
  • the data item “call ID” is identification information for uniquely identifying a call.
  • the data item “inquiry date” is the date on which the call from the customer is received.
  • the data item “inquiry time” is the time when the call from the customer is received.
  • the data item “inquiry customer” is the customer ID of the customer who made the inquiry.
  • the data item “operator ID” is an operator ID of an operator corresponding to an inquiry from a customer.
  • FIG. 7 is a configuration diagram of an example of FAQDB.
  • the FAQ DB 13 includes product categories, series, question genres, and answers as data items.
  • the FAQ DB 13 records a text sentence of an answer for each product category, series, and question genre.
  • FIG. 8 is a configuration diagram of an example of the product DB.
  • the product DB 14 includes a product category, series, release year, and manual ID as data items.
  • the product DB 14 records a manual ID for each product category, series, and release year of the product.
  • the data item “manual ID” is identification information for uniquely identifying the manual.
  • FIG. 9 is a configuration diagram of an example of the operator DB.
  • the operator DB 15 includes an operator ID, an operator name, and a situation as data items.
  • the operator DB 15 records a situation such as busy or empty for each operator.
  • the data item “situation” is information indicating whether the operator can respond to an inquiry from a customer.
  • FIG. 10 is a configuration diagram of an example of the voice DB.
  • the voice DB 16 includes a call ID, a voice file name, a left channel speaker, and a right channel speaker as data items.
  • the voice DB 16 records a voice file name, a left channel speaker, and a right channel speaker for each call ID.
  • the data item “voice file name” is the file name of the voice file that records the call of the call corresponding to the call ID.
  • the data item “left channel speaker” is a speaker of voice data written in the left channel.
  • the data item “right channel speaker” is the speaker of the voice data written in the right channel.
  • FIG. 11 is a configuration diagram of an example of the utterance time DB.
  • the utterance time DB 17 includes a call ID, time, and contents as data items.
  • the utterance time DB 17 records the operator utterance start time, the operator utterance end time, the customer utterance start time, and the customer utterance end time in association with the call ID.
  • FIG. 12 is a configuration diagram of an example of the manual DB.
  • the manual DB 18 includes, as data items, a manual ID, a manual name, a section number, a section summary, screen data, and a standard required time.
  • the manual DB 18 records the section outline, screen data, and standard time for each section number of the manual.
  • the data item “section No.” is a manual page.
  • the data item “section summary” is a summary of a manual page represented by section number.
  • the data item “screen data” is screen data of a manual page represented by a section number.
  • the screen data is preferably in a data format that allows text search. When one “section” extends over a plurality of pages, the screen data may include a plurality of pages.
  • the data item “standard time required” is a standard time required for displaying the manual page represented by the section number. The standard required time may use the average time of the required time of all operators, or may be set in advance by the administrator.
  • FIG. 13 is a configuration diagram of an example of the page switching DB.
  • the page switching DB 19 includes time, call ID, manual ID, section number, and operation as data items.
  • the page switching DB 19 records a manual page display / non-display operation represented by a manual ID and a session number in association with the call ID and time.
  • FIG. 14 is a configuration diagram of an example of the evaluation DB.
  • the evaluation DB 20 includes a difference from the standard required time and evaluation points as data items.
  • the evaluation DB 20 records evaluation points for each difference from the standard required time.
  • FIG. 15 is a flowchart of an example of processing by the calling program.
  • the call receiving means 105 of the server 1 waits until a call from the customer terminal 4 is received.
  • the call receiving means 105 generates a call ID in step S2.
  • step S3 the operator determination unit 104 refers to the operator DB 15 and determines whether or not there is an operator whose data item “situation” is not in a call (is empty). If there is no operator who is not talking, the operator determining means 104 queues the customer who has received the call in step S4.
  • the operator determination means 104 waits until it can be determined that there is an operator who is not in a call. If it can be determined that there is an operator who is not talking, the call connection means 103 selects one operator who is not talking and connects the operator terminal 2 and the customer terminal 4 of the selected operator.
  • step S6 the operator determination means 104 sets the data item “situation” of the operator selected in the operator DB 15 to a call.
  • step S7 the call connection means 103 starts call recording. The recording process in step S8 is executed after call recording is started.
  • the customer information acquisition unit 102 acquires customer information from the customer DB 11 based on the telephone number of the call in step S9.
  • the customer information transmitting unit 101 transmits customer information to the operator terminal 2.
  • step S10 the operator determining means 104 waits until the call is finished.
  • the operator determination unit 104 adds a record relating to the ended call to the question DB 12.
  • step S12 the operator determination unit 104 empties the data item “situation” of the operator who has finished the call in the operator DB 15.
  • step S13 the call connection unit 103 closes the audio file.
  • step S ⁇ b> 14 the call connection unit 103 registers a record relating to the voice file of the terminated call in the voice file DB 16.
  • FIG. 16 is a flowchart of an example of the recording process.
  • the call connection means 103 opens the audio file in step S21.
  • the customer voice recording means 106 sets the customer's utterance state as unspeaked.
  • the OP voice recording means 107 sets the utterance state of the operator as unspeaked.
  • the customer voice recording unit 106 and the OP voice recording unit 107 repeat the processes in steps S24 to S26 until the call is finished.
  • step S24 the customer voice recording means 106 receives the customer voice data for 20 milliseconds out of the customer voice data carved by the voice carving means 108 and writes it into the voice file.
  • the OP voice recording means 107 receives the voice data of the operator for 20 milliseconds from the voice data of the operator carved by the voice carving means 108 and writes it to the voice file.
  • step S25 the customer voice recording means 106 performs an operator utterance confirmation process to be described later, confirms the utterance start time and utterance end time of the operator, and writes them in the utterance time DB 17.
  • step S26 the customer voice recording means 106 performs a customer utterance confirmation process described later, confirms the customer's utterance start time and utterance end time, and writes them in the utterance time DB 17.
  • FIG. 17 is a flowchart of an example of operator utterance confirmation processing.
  • the OP voice recording means 107 acquires the maximum volume (v1) of the voice data of the operator for 20 milliseconds.
  • step S32 the OP voice recording means 107 compares the maximum volume (v1) of the voice data of the operator with the volume (v0) determined to be silent, and determines whether or not v1> v0.
  • the OP voice recording means 107 determines in step S33 whether or not the operator's utterance state is unspoken. If the utterance state of the operator is not yet uttered, the OP voice recording means 107 records the current time in the utterance time DB 17 as the operator's utterance start time in step S34.
  • step S35 the OP voice recording means 107 finishes the operator utterance confirmation process in FIG. If the operator's utterance state is not yet uttered in step S33, the OP voice recording means 107 ends the operator utterance confirmation process of FIG.
  • the OP voice recording unit 107 determines in step S36 whether or not the operator's speech state is speaking. If the operator's speech state is speaking, the OP voice recording means 107 records the current time in the speech time DB 17 as the operator's speech end time in step S37.
  • step S38 the OP voice recording means 107 terminates the operator utterance confirmation process in FIG. If the operator's utterance state is not speaking in step S36, the OP voice recording means 107 ends the operator utterance confirmation process of FIG.
  • FIG. 18 is a flowchart of an example of a customer utterance confirmation process.
  • the customer voice recording means 106 acquires the maximum volume (v1) of customer voice data for 20 milliseconds.
  • step S42 the customer voice recording means 106 compares the maximum volume (v1) of the customer's voice data with the volume (v0) determined to be silent, and determines whether or not v1> v0.
  • the customer voice recording unit 106 determines whether or not the customer's utterance state is unspoken in step S43. If the customer's utterance state is not yet uttered, the customer voice recording means 106 records the current time in the utterance time DB 17 as the customer's utterance start time in step S44.
  • step S45 the customer voice recording means 106 finishes the customer utterance confirmation process in FIG. If the customer's utterance state is not yet uttered in step S43, the customer voice recording means 106 ends the customer utterance confirmation process of FIG.
  • the customer voice recording means 106 determines in step S46 whether or not the customer's speech state is speaking. If the customer's utterance state is speaking, the customer voice recording means 106 records the current time in the utterance time DB 17 as the customer's utterance end time in step S47.
  • step S48 the customer voice recording means 106 sets the customer's utterance state to unspoken, and then ends the customer utterance confirmation process of FIG.
  • step S36 the customer voice recording means 106 ends the customer utterance confirmation process of FIG. 18 if the customer's utterance state is not uttering.
  • FIG. 19 is a flowchart of an example of processing by the information search program.
  • the information search receiving unit 116 determines whether a manual display request is received from the operator terminal 2.
  • the information search unit 115 searches the manual DB 18 for information according to the manual display request in step S52.
  • the information transmission unit 114 transmits information in accordance with the manual display request to the operator terminal 2.
  • step S53 the information search unit 115 records a record of information (for example, time, call ID, manual ID, section number, operation) in accordance with the manual display request transmitted to the operator terminal 2 in the page switching DB 19, and then FIG.
  • information for example, time, call ID, manual ID, section number, operation
  • the information search means 115 determines whether or not a manual non-display request is received from the operator terminal 2 in step S54.
  • the information search unit 115 records the information record (for example, time, call ID, manual ID, section number, operation) in accordance with the non-displayed manual non-display request in the page switching DB 19. Then, the process of the flowchart of FIG. If the manual non-display request is not received, the information retrieval unit 115 ends the process of the flowchart of FIG.
  • FIG. 20 is a flowchart of an example of processing by the OP evaluation program.
  • the utterance selection unit 113 stands by until an utterance display request is received from the administrator terminal 3.
  • the utterance selection means 113 transmits a processing range selection screen described later to the administrator terminal 3 in step S62.
  • the administrator terminal 3 that has received the processing range selection screen displays a processing range selection screen described later and allows the administrator to input processing range selection information.
  • the administrator terminal 3 transmits the selection information of the processing range input from the administrator to the server 1.
  • the utterance selection unit 113 receives processing range selection information from the administrator terminal.
  • step S64 the call status acquisition unit 112 acquires a record of the first call ID corresponding to the processing range selection information received from the administrator terminal 3 from the question DB 12.
  • step S65 the call status acquisition unit 112 acquires the operator name from the operator DB 15 using the operator ID included in the record acquired from the question DB 12 in step S64.
  • step S66 the call status acquisition unit 112 acquires the start time and end time of the section from the page switching DB 19 by using the first call ID corresponding to the processing range selection information received from the administrator terminal.
  • the section start time is the time associated with the display operation.
  • the end time of the section is a time associated with non-display.
  • step S67 the call status acquisition unit 112 acquires the manual ID and the section number from the page switching DB 19 using the first call ID corresponding to the processing range selection information received from the administrator terminal.
  • the call status acquisition unit 112 acquires the standard required time of the section displayed by the operator from the manual DB 18 using the acquired manual ID and section number.
  • step S68 the call status acquisition unit 112 sets a value obtained by adding the standard required time to the start time of the section acquired in step S66 as the scheduled end time of the section.
  • step S69 the call status acquisition unit 112 calculates a difference between the section end time acquired in step S66 and the section end scheduled time calculated in step S68.
  • step S70 the call evaluation unit 111 acquires an evaluation score corresponding to the difference between the section end time calculated in step S69 and the section end scheduled time from the evaluation DB 20.
  • step S71 the call evaluation unit 111 adds a record to an utterance table data (work) -section table described later.
  • step S72 the call state acquisition unit 112 determines whether there is a next section. If there is a next section, the call state acquisition unit 112 performs the processing from step S67 again.
  • the call evaluation means 111 refers to the utterance table data (work) -section table in step S73, and sets a value obtained by adding the evaluation score of all sections to the full score of 100 as the evaluation score of this call. Then, the call evaluation unit 111 creates utterance table data (work) -call outline information described later.
  • step S74 the call table creation unit 110 acquires the start time and end time of each utterance from the utterance time DB 17 using the first call ID corresponding to the processing range selection information received from the administrator terminal.
  • step S75 the speech table creation unit 110 performs speech table creation processing.
  • step S76 the utterance table sending unit 109 transmits the utterance table to the manager terminal 3 that has received the utterance table display request.
  • step S ⁇ b> 77 the call status acquisition unit 112 determines whether there is a record of the next call ID corresponding to the processing range selection information received from the administrator terminal 3 in the question DB 12.
  • the call status acquisition means 112 acquires the record of the next call ID from the question DB 12 in step S64, and then performs the processing from step S65. If there is no record of the next call ID, the call status acquisition unit 112 ends the process of the flowchart of FIG.
  • FIG. 21 is an image diagram of an example of a processing range selection screen.
  • the processing range selection screen 200 is used to allow the administrator to input processing range selection information.
  • a call ID or a condition is specified as processing range selection information.
  • FIG. 22 is a configuration diagram of an example of the utterance table data (work) -section table.
  • Utterance table data (work) -section table 201 has data items such as a manual ID, a section number, a section summary, a section start time, a section end time, a section end scheduled time, and an evaluation score.
  • FIG. 23 is a block diagram of an example of speech table data (work) -call summary information.
  • the utterance table data (work) -call summary information 202 includes evaluation points, operator names, and call times as data items.
  • the data item “evaluation score” is obtained by adding evaluation scores for all sections to a full score of 100.
  • FIG. 24 is a configuration diagram of an example of an utterance table data (work) -utterance time table.
  • the utterance table data (work) -speech time table 203 includes, as data items, the start time, end time, and speaker of each utterance.
  • the utterance table data (work)-utterance time table 203 records the start time, end time, and speaker of each utterance in association with each other.
  • FIG. 25 is a flowchart of an example of an utterance table creation process.
  • the utterance table creating means 110 acquires the evaluation score and operator name from the utterance table data (work) -call outline information 202, and draws it on the screen.
  • step S83 the utterance table creation unit 110 sequentially acquires records from the utterance table data (work) -the utterance time table 203.
  • step S84 the speech table creation unit 110 determines whether a record has been acquired.
  • the speech table creation means 110 determines the display position from the start time of the speech in step S85.
  • the utterance table creation unit 110 determines the size of the box (speech frame) indicating the utterance on the screen based on the utterance time (utterance end time ⁇ utterance start time).
  • the speech table creation unit 110 draws a speech frame on the screen.
  • step S88 the utterance table creation unit 110 acquires the next record from the utterance table data (work) -the utterance time table 203.
  • the utterance table creation unit 110 repeats the processes of steps S84 to S88 until the next record cannot be acquired.
  • step S84 If it is determined in step S84 that a record could not be acquired, the utterance table creation unit 110 sequentially acquires records from the utterance table data (work) -section table 201 in step S89. In step S90, the speech table creation unit 110 determines whether a record has been acquired.
  • the speech table creating means 110 draws a vertical line at the position of the section start time and section end time in step S91.
  • the speech table creation unit 110 draws an arrow between the vertical lines drawn in step S91, and draws a section number and a section outline.
  • step S93 the speech table creation means 110 draws a vertical broken line at the position of the scheduled end time of the section.
  • step S94 the speech table creating means 110 draws an arrow between the vertical line drawn at the position of the section start time and the vertical broken line drawn at the position of the scheduled end time of the section. Draw.
  • step S95 the speech table creation unit 110 performs a painting process. After the painting process, the speech table creation unit 110 performs the process of step S90. The utterance table creation unit 110 repeats the processes of steps S90 to S95 until no record can be acquired. If the utterance table creation unit 110 determines in step S90 that the record could not be acquired, the process of the flowchart in FIG. 25 ends.
  • FIG. 26 is a flowchart of an example of the filling process.
  • the speech table creation unit 110 determines whether or not the section end time exceeds the scheduled end time.
  • the utterance table creation means 110 sets a record of the utterance started or ended between the scheduled end time of the section and the end time of the section in the utterance table data. (Work) —obtained from the utterance time table 203.
  • step S103 the speech table creation unit 110 determines whether or not a record has been acquired. If the record can be acquired, the utterance table creation unit 110 determines in step S104 whether only the utterance start time is included between the scheduled section end time and the section end time.
  • the utterance table creation means 110 uses the color ⁇ between the start time of the utterance and the end time of the section in step S105. Fill.
  • the utterance table creation means 110 only determines the end time of the section and the end time of the section. It is determined whether it is included in the end time.
  • the utterance table creation means 110 sets the color ⁇ between the section end scheduled time and the utterance end time in step S107. Fill with.
  • the utterance table creation means 110 sets the color between the utterance start time and the utterance end time in step S108. Fill with ⁇ .
  • the speech table creation unit 110 After the processes of steps S105, S107, and S108, the speech table creation unit 110 performs the process of step S103 again. If a record cannot be acquired in step S3, the process of the flowchart in FIG.
  • step S101 if the section end time does not exceed the scheduled end time, the utterance table creation unit 110 determines in step S109 whether the section end time is before the scheduled end time.
  • the utterance table creation means 110 sets a record of the utterance started or ended between the scheduled end time of the section and the end time of the section to the utterance table data ( Work) —obtained from the utterance time table 203.
  • step S111 the speech table creation unit 110 determines whether or not a record has been acquired. If the record can be acquired, the utterance table creation unit 110 determines in step S112 whether only the utterance start time is included between the scheduled section end time and the section end time.
  • the utterance table creation means 110 sets the color ⁇ between the start time of the utterance and the scheduled end time of the section in step S113. Fill with.
  • step S114 the utterance table creation means 110 only determines the end time of the section and the end time of the section. It is determined whether it is included in the end time.
  • the utterance table creation means 110 uses the color ⁇ between the section end time and the utterance end time in step S115. Fill.
  • the utterance table creation means 110 sets the color between the utterance start time and the utterance end time in step S116. Fill with ⁇ .
  • the speech table creation unit 110 After the processes in steps S113, S115, and S116, the speech table creation unit 110 performs the process in step S111 again. If a record cannot be acquired in step S111, the process of the flowchart in FIG. 26 is terminated. In step S109, if the section end time is not before the scheduled end time, the speech table creation unit 110 ends the process of the flowchart of FIG.
  • FIG. 27 is a screen image example of an utterance table.
  • the utterance table 300 in FIG. 27 includes an evaluation point, an operator name, a frame of utterances of the operator and the customer, a vertical line indicating the position of the start time and end time of the section, and an arrow drawn between the vertical lines.
  • the section number and section outline, the vertical broken line indicating the position of the scheduled end time of the section, the arrow drawn between the vertical line (section start time) and the vertical broken line, the section number and the standard required time are displayed. Yes.
  • the utterance table 300 can reproduce the recorded utterances of the operator and the customer, for example, by clicking the utterance frame of the operator and the customer with a mouse or the like.
  • the elapsed time is not an actual time but a relative time. Switching between real time and relative time can be easily performed.
  • FIG. 28 is a functional configuration diagram of an example of an operator terminal.
  • the operator terminal 2 includes information search requesting means 121, information receiving means 122, information display means 123, customer information acquisition means 124, customer information display means 125, voice output means 126, voice input means 127, and call communication means 128.
  • the operator terminal 2 executes information search request means 121, information receiving means 122, information display means 123, customer information acquisition means 124, customer information display means 125, voice output means 126, voice input means. 127 and call communication means 128 are realized.
  • the information search request means 121 requests the server 1 for an information search request.
  • the information receiving unit 122 receives information search results from the server 1.
  • the information display means 123 displays the search result on the display device 71 or the like.
  • Customer information acquisition means 124 receives customer information from server 1.
  • the customer information display means 125 displays customer information on the display device 71 and the like.
  • the sound output means 126 outputs sound through the speaker 91 or the like.
  • the voice input unit 127 inputs voice from the microphone 92 or the like.
  • the call communication means 128 communicates with the customer terminal 4.
  • FIG. 29 is a functional configuration diagram of an example of the administrator terminal.
  • the administrator terminal 3 includes an utterance table request unit 131, an utterance table reception unit 132, and an utterance table display unit 133.
  • the utterance table requesting unit 131 requests the server 1 to display an utterance table.
  • the utterance table receiving unit 132 receives the utterance table from the server 1.
  • the utterance table display means 133 displays the utterance table 300 as shown in FIG.
  • FIG. 30 is a flowchart of an example of processing of the administrator terminal.
  • the utterance table request unit 131 of the manager terminal 3 requests the server 1 to create an utterance table.
  • the utterance table request unit 131 receives the processing range selection screen 200 from the administrator terminal 3.
  • step S123 the utterance table request unit 131 displays the processing range selection screen 200 and allows the administrator to input processing range selection information.
  • the utterance table requesting unit 131 repeats the process of step S123 until it determines that the processing range selection information has been input from the administrator.
  • step S124 the utterance table requesting unit 131 sends the processing range selection information (call ID designation or condition (date range or operator ID) designation) to the server. 1 to send.
  • the utterance table receiving unit 132 repeats the process of step S125 until the data of the utterance table 300 is received from the server 1.
  • the utterance table display means 133 displays the utterance table 300 on the display device 71 etc. in step S126.
  • the utterance table 300 as shown in FIG. 27 can be created and sent to the administrator terminal 3.
  • the utterance table 300 shows a display time zone and display contents in which the operator has displayed the manual on the screen of the operator terminal 2 in conjunction with a graph showing each utterance time zone of the operator / customer. Furthermore, the utterance table 300 shows the standard required time for each display content and also shows the difference between the operator required time and the standard required time for each display content.
  • the administrator can easily find the problem part of the customer response by the operator as follows.
  • the administrator can easily predict the location where the difference between the required time of the operator and the standard required time shown in the speech table 300 is high as the location where the operator is likely to have a problem with the customer.
  • the utterance table 300 shows the display time zone and the display contents in which the manual was displayed. Therefore, the administrator can predict the content of the utterance to some extent before reproducing the recorded operator and customer utterances. The administrator can obtain reference information for improving the display content by statistically processing the frequency of occurrence of problems for each display content (manual page).
  • the utterance recording means described in the claims corresponds to the utterance time DB 17.
  • the display recording means corresponds to the page switching DB 19.
  • the content recording means corresponds to the manual DB 18.
  • the providing means corresponds to the speech table sending means 109.
  • the evaluation recording means corresponds to the evaluation DB 20.
  • the evaluation means corresponds to the call evaluation means 111.
  • the operator evaluation support program corresponds to the OP evaluation program 22.

Landscapes

  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

 オペレータの顧客応答の問題箇所を容易に把握させるオペレータ評価支援装置及びオペレータ評価支援プログラムを提供することを課題とし、通話における、顧客およびオペレータの発話時間を記録する発話記録手段と、オペレータが使用するオペレータ端末に、通話において表示された表示画面を識別する表示画面識別情報に関連づけて、該表示画面が表示された表示時間を記録する表示記録手段と、オペレータ端末に表示される表示画面の表示画面識別情報に関連づけて、該表示画面の内容を説明する画面内容情報を記録する内容記録手段と、通話について、発話記録手段、表示記録手段、および、内容記録手段を参照し、顧客およびオペレータの発話時間、オペレータ端末に表示された表示画面の表示時間、および、該表示画面に対応する画面内容情報を示す通話情報を作成し、オペレータを評価する管理者が使用する管理者端末に送信する提供手段とを有することを特徴とする。

Description

オペレータ評価支援装置及びオペレータ評価支援プログラム
 本発明は、コールセンタのオペレータの評価を支援するオペレータ評価支援装置及びオペレータ評価支援プログラムに関する。
 近年、コールセンタではオペレータの通話品質の向上が重要視されている。オペレータの通話品質の評価は、例えばオペレータを統括するスーパーバイザが、各オペレータの通話品質を評価する。通話品質を評価する観点の一つとしては例えば通話時間の長さがある。
 顧客に対して適切な対応ができたか否か(即ち、顧客満足度)を判断する指標として、例えば顧客からの電話を待たせた時間、顧客の電話の転送回数、顧客の無音時間等を採用する技術は従来から知られている(特許文献1参照)。
 顧客からの電話を待たせた時間、顧客の電話の転送回数、顧客の無音時間等を指標として採用することで、スーパーバイザは顧客の心理状態を推定して顧客満足度を判断できる。
 しかしながら、スーパーバイザは各オペレータに対する顧客の顧客満足度を判断する一方、顧客に対応するオペレータの応答が適正であるかという点も把握する必要がある。オペレータの顧客対応の評価という点では、たとえば、以下のような従来技術が知られている。
 たとえば、全ての顧客対応通話の対応時間に基づき一通話当たりの平均時間を算出し、その平均時間と評価対象となるオペレータの顧客対応通話の対応時間とを比較して、オペレータの業務スキルを推定する(特許文献2参照)。
 あるいは、業務課題ごとに顧客対応における対応シーケンスの時間情報を受け付け、複数の対応シーケンスごとの時間情報をもとに、業務課題に応じた対応時間を推定し、推定された対応時間に基づいてオペレータの業務スキルを推定する(特許文献3参照)。
 しかしながら、スーパーバイザは全オペレータの平均対応時間との差によりオペレータの顧客応答に問題があることが分かったとしても、オペレータの顧客応答の問題箇所を容易に見つけることができないという問題があった。
 すなわち、上記のようなオペレータの評価に基づき、スーパーバイザはオペレータ対応方法を適切に指導する必要があるため、平均対応時間より超過する原因を確認しなければならない。しかし、スーパーバイザは、通話記録を再生しない限り、具体的な通話内容が分からない。また、さらに通話を再生しても、スーパーバイザは、通話のどこに問題点があったのか分からないので、通話の最初から順次聞いていくしかない。このような確認方法では、非常に時間がかかって非効率的である。そのため、スーパーバイザは通話内容を十分に確認できず、その結果、適切な指導が実施されないことがあった。
特開2002-51153号公報 特開2005-258551号公報 特開2001-331624号公報
 本発明の一実施形態は、オペレータの顧客応答の問題箇所を容易に把握させることが可能なオペレータ評価支援装置及びオペレータ評価支援プログラムを提供することを課題としている。
 上記課題を解決するため、本発明の一実施形態のオペレータ評価支援装置は、顧客からの電話にオペレータが対応する通話に基づき該オペレータを評価するオペレータ評価支援装置であって、通話における、顧客およびオペレータの発話時間を記録する発話記録手段と、オペレータが使用するオペレータ端末に、前記通話において表示された表示画面を識別する表示画面識別情報に関連づけて、該表示画面が表示された表示時間を記録する表示記録手段と、オペレータ端末に表示される表示画面の表示画面識別情報に関連づけて、該表示画面の内容を説明する画面内容情報を記録する内容記録手段と、前記通話について、前記発話記録手段、前記表示記録手段、および、前記内容記録手段を参照し、前記顧客および前記オペレータの発話時間、前記オペレータ端末に表示された表示画面の表示時間、および、該表示画面に対応する画面内容情報を示す通話情報を作成し、オペレータを評価する管理者が使用する管理者端末に送信する提供手段とを有することを特徴とする。
 なお、本発明の一実施形態の構成要素、表現または構成要素の任意の組合せを、方法、装置、システム、コンピュータプログラム、記録媒体、データ構造などに適用したものも本発明の態様として有効である。
 本発明の一実施形態によれば、オペレータの顧客応答の問題箇所を容易に把握させることが可能なオペレータ評価支援装置及びオペレータ評価支援プログラムを提供可能である。
本実施例のコールセンタシステムの一例の構成図である。 サーバの一例のハードウェア構成図である。 オペレータ端末及び管理者端末の一例のハードウェア構成図である。 サーバの一例の機能構成図である。 顧客DBの一例の構成図である。 質問DBの一例の構成図である。 FAQDBの一例の構成図である。 製品DBの一例の構成図である。 オペレータDBの一例の構成図である。 音声DBの一例の構成図である。 発話時刻DBの一例の構成図である。 マニュアルDBの一例の構成図である。 ページ切り替えDBの一例の構成図である。 評価DBの一例の構成図である。 通話プログラムによる処理の一例のフローチャートである。 録音処理の一例のフローチャートである。 オペレータ発話確認処理の一例のフローチャートである。 顧客発話確認処理の一例のフローチャートである。 情報検索プログラムによる処理の一例のフローチャートである。 OP評価プログラムによる処理の一例のフローチャートである。 処理範囲選択画面の一例のイメージ図である。 発話表データ(ワーク)-セクション表の一例の構成図である。 発話表データ(ワーク)-通話概要情報の一例の構成図である。 発話表データ(ワーク)-発話時刻表の一例の構成図である。 発話表作成処理の一例のフローチャートである。 塗りつぶし処理の一例のフローチャートである。 発話表の一例の画面イメージ図である。 オペレータ端末の一例の機能構成図である。 管理者端末の一例の機能構成図である。 管理者端末の処理の一例のフローチャートである。
 1  サーバ
 2  オペレータ端末
 3  管理者端末
 4  顧客端末
 11  顧客DB
 12  質問DB
 13  FAQDB
 14  製品DB
 15  オペレータDB
 16  音声DB
 17  発話時刻DB
 18  マニュアルDB
 19  ページ切り替えDB
 20  評価DB
 21  通話プログラム
 22  OP(オペレータ)評価プログラム
 23  情報検索プログラム
 31  オペレータ用プログラム
 41  管理者端末用プログラム
 51  入力装置
 52  表示装置
 53  本体
 61  主記憶装置
 62  演算処理装置
 63  インターフェース装置
 64  記録媒体読取装置
 65  補助記憶装置
 66  記録媒体
 67  バス
 70  本体
 71  ディスプレイ装置
 72  ポインティングデバイス
 73  キーボード
 74  ヘッドセット
 81  主記憶装置
 82  CPU
 83  補助記憶装置
 84  画像処理部
 85  I/O処理部
 86  音声処理部
 87  ネットワークカード
 88  内部バス
 91  スピーカ
 92  マイク
 101  顧客情報送信手段
 102  顧客情報取得手段
 103  呼接続手段
 104  オペレータ決定手段
 105  呼受信手段
 106  顧客音声記録手段
 107  OP音声記録手段
 108  音声切り分け手段
 109  発話表送付手段
 110  発話表作成手段
 111  通話評価手段
 112  通話状況取得手段
 113  発話選択手段
 114  情報送信手段
 115  情報検索手段
 116  情報検索受付手段
 121  情報検索依頼手段
 122  情報受信手段
 123  情報表示手段
 124  顧客情報取得手段
 125  顧客情報表示手段
 126  音声出力手段
 127  音声入力手段
 128  呼通信手段
 131  発話表依頼手段
 132  発話表受信手段
 133  発話表表示手段
 200  処理範囲選択画面
 201  発話表データ(ワーク)-セクション表
 202  発話表データ(ワーク)-通話概要情報
 203  発話表データ(ワーク)-発話時刻表
 300  発話表
 次に、本発明を実施するための最良の形態を、以下の実施例に基づき図面を参照しつつ説明していく。
 図1は本実施例のコールセンタシステムの一例の構成図である。図1のコールセンタシステムはサーバ1、オペレータ端末2、管理者端末3、顧客端末4を有する構成である。なお、サーバ1はオペレータ評価支援装置の一例である。
 サーバ1はオペレータ端末2、管理者端末3、顧客端末4とインターネットやLAN(Local Area Network)、公衆網などの所定のネットワークを介して接続されている。
 サーバ1は顧客DB11、質問DB12、FAQDB13、製品DB14、オペレータDB15、音声DB16、発話時刻DB17、マニュアルDB18、ページ切り替えDB19、評価DB20、通話プログラム21、OP(オペレータ)評価プログラム22、情報検索プログラム23を有する。また、オペレータ端末2はオペレータ用プログラム31を有する。管理者端末3は管理者端末用プログラム41を有する。管理者端末3は管理者の一例としてのスーパーバイザが操作する。
 サーバ1は通話プログラム21、OP評価プログラム22及び情報検索プログラム23を実行する。サーバ1は通話プログラム21を実行することで顧客端末4とオペレータ端末2との接続、通話の録音、オペレータ端末2への顧客の情報の送信などを行う。
 また、サーバ1はOP評価プログラム22を実行することで、スーパーバイザがオペレータを評価する為の情報の作成、スーパーバイザがオペレータを評価する為の情報の管理者端末3への送信などを行う。
 また、サーバ1は情報検索プログラム23を実行することで、マニュアルDB18等からの情報の検索、オペレータ端末2への検索結果の送信、オペレータ端末2に送信した情報の内容、オペレータ端末2での情報の表示及び非表示の時刻の記録などを行う。
 オペレータ端末2はオペレータ用プログラム31を実行する。オペレータ端末2はオペレータ用プログラム31を実行することで、サーバ1から受信した顧客の情報の表示、マニュアルDB18等からの情報の検索結果の表示などを行う。管理者端末3は管理者端末用プログラムを実行する。管理者端末3は管理者端末用プログラムを実行することで、サーバ1から受信したスーパーバイザがオペレータを評価する為の情報の表示などを行う。なお、顧客端末4は電話機や電話機能を有するPCなど、電話機能を有する機器であればよい。
 顧客DB11は顧客に関する情報を記録する。質問DB12は顧客からの問い合わせに関する情報を記録する。FAQDB13は頻繁に尋ねられる質問であるFAQ(Frequently Asked Questions)に関する情報を記録する。製品DB14は製品に関する情報を記録する。
 オペレータDB15はオペレータの状況(通話中、空き等)に関する情報を記録する。音声DB16は音声ファイルに関する情報を記録する。発話時刻DB17は顧客及びオペレータの発話のタイミングなど、顧客及びオペレータの発話に関する情報を記録する。
 マニュアルDB18はマニュアルのセクション(ページ)毎の画面データや標準所要時間を記録する。ページ切り替えDB19はオペレータによるマニュアルの表示又は非表示の操作に関する情報を記録する。評価DB20は標準所要時間と実際の所要時間との差に基づいた評価に関する情報を記録する。
 図2はサーバの一例のハードウェア構成図である。図2に示すサーバ1は、入力装置51、表示装置52、本体53を有する。本体53はバス67で相互に接続されている主記憶装置61、演算処理装置62、インターフェース装置63、記録媒体読取装置64及び補助記憶装置65を有する。また、バス67には入力装置51及び表示装置52が接続されている。
 バス67で相互に接続された入力装置51、表示装置52、主記憶装置61、演算処理装置62、インターフェース装置63、記録媒体読取装置64及び補助記憶装置65は、演算処理装置62による管理下で相互にデータの送受を行うことができる。演算処理装置62はサーバ1全体の動作制御を司る中央処理装置である。
 インターフェース装置63はオペレータ端末2、管理者端末3、顧客端末4などからのデータを受信し、そのデータの内容を演算処理装置62に渡す。さらにインターフェース装置63は演算処理装置62からの指示に応じてオペレータ端末2、管理者端末3、顧客端末4などにデータを送信する。
 補助記憶装置65には、オペレータ評価支援装置と同様の機能をサーバ1に発揮させるプログラムの一部として、少なくともオペレータ評価支援装置における処理をコンピュータに実行させるオペレータ評価支援プログラムが記憶されている。オペレータ評価支援プログラムには、通話プログラム21、OP評価プログラム22及び情報検索プログラム23が含まれる。
 そして、演算処理装置62がオペレータ評価支援プログラムを補助記憶装置65から読み出して実行することで、サーバ1はオペレータ評価支援装置として機能するようになる。オペレータ評価支援プログラムは演算処理装置62とアクセス可能な主記憶装置61に格納されていても良い。入力装置51は演算処理装置62の管理下でデータの入力を受付ける。オペレータ評価支援プログラムはサーバ1が読み取り可能な記録媒体66に記録しておくことができる。
 サーバ1で読み取り可能な記録媒体66には、磁気記録媒体、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録媒体には、HDD、フレキシブルディスク(FD)、磁気テープ(MT)などがある。光ディスクには、DVD(Digital Versatile Disc)、DVD-RAM、CD-ROM(Compact Disc - Read Only Memory)、CD-R(Recordable)/RW(ReWritable)などがある。また、光磁気記録媒体には、MO(Magneto - Optical disk)などがある。
 オペレータ評価支援プログラムを流通させる場合には、例えば、オペレータ評価支援プログラムが記録されたDVD、CD-ROMなどの可搬型の記録媒体66が販売されることが考えられる。
 オペレータ評価支援プログラムを実行するサーバ1は、例えば記録媒体読取装置64がオペレータ評価支援プログラムを記録した記録媒体66から、オペレータ評価支援プログラムを読み出す。演算処理装置62は、読み出されたオペレータ評価支援プログラムを主記憶装置61若しくは補助記憶装置65に格納する。サーバ1は自己の記憶装置である主記憶装置61若しくは補助記憶装置65からオペレータ評価支援プログラムを読み取り、オペレータ評価支援プログラムに従った処理を実行する。
 図3はオペレータ端末及び管理者端末の一例のハードウェア構成図である。オペレータ端末2及び管理者端末3のハードウェア構成は同様である。そこで、ここではオペレータ端末2のハードウェア構成について説明する。管理者端末3のハードウェア構成についての説明は省略する。
 図3のオペレータ端末2は、本体70、ディスプレイ装置71、ポインティングデバイス72、キーボード73、ヘッドセット74を有する。本体70は内部バス88で相互に接続されている主記憶装置81、CPU82、補助記憶装置83、画像処理部84、I/O処理部85、音声処理部86、ネットワークカード87を有する。ヘッドセット74はスピーカ91、マイク92を有する。
 内部バス88で相互に接続されている主記憶装置81、補助記憶装置83、画像処理部84、I/O処理部85、音声処理部86、ネットワークカード87はCPU82による管理下で相互にデータの送受を行うことができる。CPU82はオペレータ端末2全体の動作制御を司る中央処理装置である。
 画像処理部84はディスプレイ装置71での画像の表示に必要な各種処理を行うものである。I/O処理部85はポインティングデバイス72及びキーボード73とのデータ入出力を処理する。音声処理部86はヘッドセット74のスピーカ91及びマイク92との間でやり取りする音声データを処理する。
 ネットワークカード87はサーバ1などからのデータを受信し、そのデータの内容をCPU82に渡す。さらに、ネットワークカード87はCPU82からの指示に応じてサーバ1などにデータを送信する。
 オペレータ端末2には例えばオペレータ用プログラム31がインストールされている。オペレータ端末2はオペレータ用プログラム31を実行する。主記憶装置81には、オペレータ端末2を動作させるプログラムの一部として、少なくともオペレータ用プログラム31が記憶されている。CPU82はオペレータ用プログラム31を主記憶装置81から読み出して実行する。
 オペレータ用プログラム31はオペレータ端末2が読み取り可能な記録媒体に記録しておくことができる。オペレータ用プログラム31を流通させる場合には例えばオペレータ用プログラム31が記録されたDVD、CD-ROM等の可搬型の記録媒体を販売することが考えられる。インターネット上にあるアプリ配布機構を用いる事も考えられる。
 オペレータ用プログラム31を実行するオペレータ端末2は、オペレータ用プログラム31を記録した記録媒体からオペレータ用プログラム31を読み出す。CPU82は、オペレータ用プログラム31を主記憶装置81に格納する。CPU82は、主記憶装置81からオペレータ用プログラム31を読み取り、オペレータ用プログラム31に従った処理を実行する。
 図4はサーバの一例の機能構成図である。サーバ1は、顧客DB11、質問DB12、FAQDB13、製品DB14、オペレータDB15、音声DB16、発話時刻DB17、マニュアルDB18、ページ切り替えDB19、評価DB20を有する。
 サーバ1は通話プログラム21を実行することで、顧客情報送信手段101、顧客情報取得手段102、呼接続手段103、オペレータ決定手段104、呼受信手段105、顧客音声記録手段106、OP音声記録手段107、音声切り分け手段108を実現する。
 また、サーバ1はOP評価プログラム22を実行することで、発話表送付手段109、発話表作成手段110、通話評価手段111、通話状況取得手段112、発話選択手段113を実現する。さらに、サーバ1は情報検索プログラム23を実行することで、情報送信手段114、情報検索手段115、情報検索受付手段116を実現する。
 顧客情報送信手段101は顧客の情報をオペレータ端末2に送信する。顧客情報取得手段102は顧客DB11から顧客の情報を取得する。呼接続手段103はオペレータ端末2と顧客端末4とを接続する。オペレータ決定手段104は通話中でないオペレータをオペレータDB15から決定する。呼受信手段105は顧客端末4からの呼を受信する。
 顧客音声記録手段106は顧客の音声データを音声ファイルに書き込む。顧客音声記録手段106は顧客の発話開始時刻、発話終了時刻を発話時刻DB17に書き込む。OP音声記録手段107は、オペレータの音声データを音声ファイルに書き込む。OP音声記録手段107は、オペレータの発話開始時刻、発話終了時刻を発話時刻DB17に書き込む。
 音声切り分け手段108は顧客の音声データとオペレータの音声データとを切り分ける。例えば音声切り分け手段108は例えば音声データの右チャネルを顧客の音声データとして切り分け、音声データの左チャネルをオペレータの音声データとして切り分ける。
 発話表送付手段109は発話表を管理者端末3に送信する。発話表作成手段110は発話表を作成する。通話評価手段111は評価DB20を用いて通話毎の評価を行う。
 通話状況取得手段112は通話毎の評価を行う為の情報を通話状況として質問DB12、オペレータDB15、マニュアルDB18、ページ切り替えDB19から取得する。発話選択手段113は管理者端末3から発話表表示依頼を受ける。
 情報送信手段114は、FAQDB13、製品DB14、マニュアルDB18から検索した情報をオペレータ端末2に送信する。情報検索手段115はFAQDB13、製品DB14、マニュアルDB18から情報を検索する。情報検索受付手段116はオペレータ端末2から情報の検索要求を受け付ける。
 図5は顧客DBの一例の構成図である。顧客DB11はデータ項目として顧客ID、電話番号、顧客、住所、購入製品型番、購入店を含む。
 データ項目「顧客ID」は顧客を一意に識別するための識別情報である。データ項目「電話番号」は顧客の電話番号である。データ項目「顧客」は顧客の名前である。データ項目「住所」は顧客の住所である。データ項目「購入製品型番」は顧客が購入した製品の型番である。データ項目「購入店」は顧客が製品を購入した購入店である。
 図6は質問DBの一例の構成図である。質問DB12はデータ項目としてコールID、問い合わせ日、問い合わせ時刻、問い合わせ顧客、オペレータIDを含む。
 データ項目「コールID」は呼を一意に識別するための識別情報である。データ項目「問い合わせ日」は顧客からの呼を受信した日である。データ項目「問い合わせ時刻」は顧客からの呼を受信した時刻である。データ項目「問い合わせ顧客」は問い合わせを行った顧客の顧客IDである。データ項目「オペレータID」は顧客からの問い合わせに対応したオペレータのオペレータIDである。
 図7はFAQDBの一例の構成図である。FAQDB13はデータ項目として製品カテゴリ、シリーズ、質問ジャンル、回答を含む。FAQDB13は製品の製品カテゴリ、シリーズ、質問ジャンル毎に、回答のテキスト文を記録している。
 図8は製品DBの一例の構成図である。製品DB14はデータ項目として製品カテゴリ、シリーズ、発売年、マニュアルIDを含む。製品DB14は製品の製品カテゴリ、シリーズ、発売年毎に、マニュアルIDを記録している。データ項目「マニュアルID」はマニュアルを一意に識別するための識別情報である。
 図9はオペレータDBの一例の構成図である。オペレータDB15はデータ項目としてオペレータID、オペレータ名、状況を含む。オペレータDB15は、オペレータ毎に通話中又は空き等の状況を記録している。データ項目「状況」は、オペレータが顧客からの問い合わせに対応できるかを示す情報である。
 図10は、音声DBの一例の構成図である。音声DB16は、データ項目としてコールID、音声ファイル名、左チャネル発話者、右チャネル発話者を含む。音声DB16はコールID毎に音声ファイル名、左チャネル発話者、右チャネル発話者を記録している。
 データ項目「音声ファイル名」はコールIDに対応する呼の通話を録音した音声ファイルのファイル名である。データ項目「左チャネル発話者」は左チャネルに書き込まれた音声データの発話者である。また、データ項目「右チャネル発話者」は右チャネルに書き込まれた音声データの発話者である。
 図11は発話時刻DBの一例の構成図である。発話時刻DB17は、データ項目としてコールID、時刻、内容を含む。発話時刻DB17は、オペレータの発話開始の時刻、オペレータの発話終了の時刻、顧客の発話開始の時刻、顧客の発話終了の時刻をコールIDと対応付けて記録している。
 図12はマニュアルDBの一例の構成図である。マニュアルDB18はデータ項目として、マニュアルID、マニュアル名、セクションNo、セクション概要、画面データ、標準所要時間を含む。
 マニュアルDB18はマニュアルのセクションNo毎に、セクション概要、画面データ、標準所要時間を記録している。データ項目「セクションNo」はマニュアルのページである。データ項目「セクション概要」はセクションNoで表されるマニュアルのページの概要である。データ項目「画面データ」はセクションNoで表されるマニュアルのページの画面データである。画面データはテキスト検索ができるデータ形式が望ましい。なお、一つの「セクション」が複数ページにまたがっている場合は、画面データが複数ページを含んでもよい。データ項目「標準所要時間」はセクションNoで表されるマニュアルのページが表示されている標準の所要時間である。標準の所要時間は全オペレータの所要時間の平均時間などを利用してもよいし、管理者が予め設定しておいてもよい。
 図13はページ切り替えDBの一例の構成図である。ページ切り替えDB19はデータ項目として、時刻、コールID、マニュアルID、セクションNo、操作を含む。ページ切り替えDB19は、マニュアルID及びセッションNoで表されるマニュアルのページの表示、非表示の操作をコールID、時刻と対応付けて記録している。
 図14は評価DBの一例の構成図である。評価DB20はデータ項目として標準所要時間との差、評価点を含む。評価DB20は標準所要時間との差ごとに評価点を記録している。
 図15は通話プログラムによる処理の一例のフローチャートである。ステップS1において、サーバ1の呼受信手段105は顧客端末4からの呼を受信するまで待機する。顧客端末4からの呼を受信すると、呼受信手段105はステップS2においてコールIDの生成を行う。
 ステップS3において、オペレータ決定手段104はオペレータDB15を参照して、データ項目「状況」が通話中でない(空きである)オペレータが存在するか否かを判定する。通話中でないオペレータが存在しなければ、オペレータ決定手段104はステップS4において、呼を受信した顧客を待ち行列に入れる。
 そして、通話中でないオペレータが存在すると判定できるまで、オペレータ決定手段104は待機する。通話中でないオペレータが存在すると判定できると、呼接続手段103は通話中でないオペレータを一人選択し、選択したオペレータのオペレータ端末2と顧客端末4とを接続する。
 ステップS6において、オペレータ決定手段104はオペレータDB15の選択したオペレータのデータ項目「状況」を通話中にする。そして、ステップS7において、呼接続手段103は通話録音を開始する。ステップS8の録音処理は通話録音が開始されたあと実行される。
 また、通話録音が開始されると、ステップS9において、顧客情報取得手段102は顧客DB11から呼の電話番号に基づいて顧客の情報を取得する。顧客情報送信手段101は顧客の情報をオペレータ端末2に送信する。
 ステップS10において、オペレータ決定手段104は通話が終了するまで待機する。通話が終了すると、ステップS11において、オペレータ決定手段104は終了した通話に関するレコードを質問DB12へ追加する。オペレータ決定手段104はステップS12において、オペレータDB15の通話が終了したオペレータのデータ項目「状況」を空きにする。ステップS13において、呼接続手段103は音声ファイルをクローズする。ステップS14において、呼接続手段103は音声DB16に、終了した通話の音声ファイルに関するレコードを音声ファイルDB16に登録する。
 図16は録音処理の一例のフローチャートである。呼接続手段103はステップS21において、音声ファイルをオープンする。ステップS22において、顧客音声記録手段106は顧客の発話状態を未発話とする。OP音声記録手段107はオペレータの発話状態を未発話とする。ステップS23において、顧客音声記録手段106及びOP音声記録手段107は通話が終了するまでステップS24~S26の処理を繰り返す。
 ステップS24において、顧客音声記録手段106は音声切り分け手段108が切り分けた顧客の音声データのうち、20ミリ秒分の顧客の音声データを受信して音声ファイルに書き込む。OP音声記録手段107は音声切り分け手段108が切り分けたオペレータの音声データのうち、20ミリ秒分のオペレータの音声データを受信して音声ファイルに書き込む。
 ステップS25において、顧客音声記録手段106は後述のオペレータ発話確認処理を行い、オペレータの発話開始時刻、発話終了時刻を確認して発話時刻DB17に書き込む。また、ステップS26において、顧客音声記録手段106は後述の顧客発話確認処理を行い、顧客の発話開始時刻、発話終了時刻を確認して発話時刻DB17に書き込む。
 図17はオペレータ発話確認処理の一例のフローチャートである。ステップS31において、OP音声記録手段107は20ミリ秒分のオペレータの音声データの最大音量(v1)を取得する。
 ステップS32において、OP音声記録手段107はオペレータの音声データの最大音量(v1)と無音と判断する音量(v0)とを比較し、v1>v0であるか否かを判定する。
 v1>v0であると判定すると、OP音声記録手段107はステップS33においてオペレータの発話状態が未発話か否かを判定する。オペレータの発話状態が未発話であれば、OP音声記録手段107はステップS34において現在時刻をオペレータの発話開始の時刻として発話時刻DB17に記録する。
 OP音声記録手段107はステップS35において、オペレータの発話状態を発話中にしたあと、図17のオペレータ発話確認処理を終了する。OP音声記録手段107は、ステップS33においてオペレータの発話状態が未発話でなければ図17のオペレータ発話確認処理を終了する。
 v1>v0でないと判定すると、OP音声記録手段107はステップS36においてオペレータの発話状態が発話中か否かを判定する。オペレータの発話状態が発話中であれば、OP音声記録手段107はステップS37において現在時刻をオペレータの発話終了の時刻として発話時刻DB17に記録する。
 OP音声記録手段107はステップS38において、オペレータの発話状態を未発話にしたあと、図17のオペレータ発話確認処理を終了する。OP音声記録手段107は、ステップS36においてオペレータの発話状態が発話中でなければ図17のオペレータ発話確認処理を終了する。
 図18は顧客発話確認処理の一例のフローチャートである。ステップS41において、顧客音声記録手段106は20ミリ秒分の顧客の音声データの最大音量(v1)を取得する。
 ステップS42において、顧客音声記録手段106は顧客の音声データの最大音量(v1)と無音と判断する音量(v0)とを比較し、v1>v0であるか否かを判定する。
 v1>v0であると判定すると、顧客音声記録手段106はステップS43において顧客の発話状態が未発話か否かを判定する。顧客音声記録手段106は顧客の発話状態が未発話であれば、ステップS44において現在時刻を顧客の発話開始の時刻として発話時刻DB17に記録する。
 顧客音声記録手段106はステップS45において、顧客の発話状態を発話中にしたあと、図18の顧客発話確認処理を終了する。顧客音声記録手段106は、ステップS43において顧客の発話状態が未発話でなければ図18の顧客発話確認処理を終了する。
 v1>v0でないと判定すると、顧客音声記録手段106はステップS46において顧客の発話状態が発話中か否かを判定する。顧客音声記録手段106は顧客の発話状態が発話中であれば、ステップS47において現在時刻を顧客の発話終了の時刻として発話時刻DB17に記録する。
 顧客音声記録手段106はステップS48において、顧客の発話状態を未発話にしたあと、図18の顧客発話確認処理を終了する。ステップS36において顧客音声記録手段106は顧客の発話状態が発話中でなければ図18の顧客発話確認処理を終了する。
 図19は情報検索プログラムによる処理の一例のフローチャートである。情報検索受付手段116はステップS51において、オペレータ端末2からマニュアル表示要求を受信したか否かを判定する。
 マニュアル表示要求を受信すると、情報検索手段115はステップS52においてマニュアルDB18からマニュアル表示要求に沿った情報を検索する。情報送信手段114はマニュアル表示要求に沿った情報をオペレータ端末2に送信する。
 ステップS53において、情報検索手段115はオペレータ端末2に送信したマニュアル表示要求に沿った情報のレコード(例えば時刻、コールID、マニュアルID、セクションNo、操作)をページ切り替えDB19に記録したあと、図19のフローチャートの処理を終了する。
 一方、マニュアル表示要求を受信しなければ、情報検索手段115はステップS54において、オペレータ端末2からマニュアル非表示要求を受信したか否かを判定する。マニュアル非表示要求を受信すると、情報検索手段115はステップS55において、非表示としたマニュアル非表示要求に沿った情報のレコード(例えば時刻、コールID、マニュアルID、セクションNo、操作)をページ切り替えDB19に記録したあと、図19のフローチャートの処理を終了する。マニュアル非表示要求を受信しなければ、情報検索手段115は図19のフローチャートの処理を終了する。
 図20はOP評価プログラムによる処理の一例のフローチャートである。発話選択手段113はステップS61において、管理者端末3から発話表示依頼を受けるまで待機する。管理者端末3から発話表示依頼を受けると、発話選択手段113はステップS62において、後述の処理範囲選択画面を管理者端末3に送信する。
 処理範囲選択画面を受信した管理者端末3は後述の処理範囲選択画面を表示して管理者に処理範囲の選択情報を入力させる。管理者端末3は管理者から入力された処理範囲の選択情報をサーバ1に送信する。ステップS63において、発話選択手段113は処理範囲の選択情報を管理者端末から受信する。
 ステップS64において、通話状況取得手段112は管理者端末3から受信した処理範囲の選択情報に対応する最初のコールIDのレコードを質問DB12から取得する。
 ステップS65において、通話状況取得手段112はステップS64において質問DB12から取得したレコードに含まれるオペレータIDを用いて、オペレータDB15からオペレータ名を取得する。
 ステップS66において、通話状況取得手段112は管理者端末から受信した処理範囲の選択情報に対応する最初のコールIDを用いて、ページ切り替えDB19からセクションの開始時刻及び終了時刻を取得する。なお、セクションの開始時刻は表示の操作と対応付けられている時刻である。セクションの終了時刻は非表示と対応付けられている時刻である。
 ステップS67において、通話状況取得手段112は管理者端末から受信した処理範囲の選択情報に対応する最初のコールIDを用いて、ページ切り替えDB19からマニュアルID及びセクションNoを取得する。通話状況取得手段112はオペレータが表示したセクションの標準所要時間を、取得したマニュアルID及びセクションNoを用いてマニュアルDB18から取得する。
 ステップS68において、通話状況取得手段112はステップS66で取得したセクションの開始時刻に標準所要時間を加えた値を、セクションの終了予定時刻とする。
 ステップS69において、通話状況取得手段112はステップS66で取得したセクションの終了時刻と、ステップS68で算出したセクションの終了予定時刻との差分を計算する。
 ステップS70において、通話評価手段111はステップS69で計算したセクションの終了時刻と、セクションの終了予定時刻との差分に対応する評価点を評価DB20から取得する。ステップS71において、通話評価手段111は後述の発話表データ(ワーク)-セクション表にレコードを追加する。
 ステップS72において、通話状態取得手段112は次のセクションがあるか否かを判定する。次のセクションがあれば、通話状態取得手段112は再びステップS67から処理を行う。
 次のセクションが無ければ、通話評価手段111はステップS73において発話表データ(ワーク)-セクション表を参照し、100点満点に全セクションの評価点を加えた値を本通話の評価点とする。そして、通話評価手段111は、後述の発話表データ(ワーク)-通話概要情報を作成する。
 ステップS74において、通話表作成手段110は管理者端末から受信した処理範囲の選択情報に対応する最初のコールIDを用いて、発話時刻DB17から各発話の開始時刻及び終了時刻を取得し、後述の発話表データ(ワーク)-発話時刻表を作成する。
 ステップS75において、発話表作成手段110は発話表作成処理を行う。発話表送付手段109はステップS76において、発話表表示依頼を受けた管理者端末3へ発話表を送信する。ステップS77において、通話状況取得手段112は管理者端末3から受信した処理範囲の選択情報に対応する次のコールIDのレコードが質問DB12にあるか否かを判定する。
 次のコールIDのレコードがあれば、通話状況取得手段112はステップS64において、次のコールIDのレコードを質問DB12から取得したあと、ステップS65以降の処理を行う。次のコールIDのレコードが無ければ、通話状況取得手段112は図20のフローチャートの処理を終了する。
 図21は処理範囲選択画面の一例のイメージ図である。処理範囲選択画面200は管理者に処理範囲の選択情報を入力させる為のものである。処理範囲選択画面200では処理範囲の選択情報として、コールIDの指定、又は、条件(日付範囲又はオペレータID)の指定を行わせる。
 図22は発話表データ(ワーク)-セクション表の一例の構成図である。発話表データ(ワーク)-セクション表201はデータ項目としてマニュアルID、セクションNo、セクション概要、セクションの開始時刻、セクションの終了時刻、セクションの終了予定時刻、評価点を有する。
 図23は発話表データ(ワーク)-通話概要情報の一例の構成図である。発話表データ(ワーク)-通話概要情報202はデータ項目として評価点、オペレータ名及び通話時間を有する。データ項目「評価点」は100点満点に全セクションの評価点を加えたものである。
 図24は、発話表データ(ワーク)-発話時刻表の一例の構成図である。発話表データ(ワーク)-発話時刻表203はデータ項目として各発話の開始時刻、終了時刻及び発話者を有する。発話表データ(ワーク)-発話時刻表203は各発話の開始時刻、終了時刻及び発話者を対応付けて記録するものである。
 図25は発話表作成処理の一例のフローチャートである。発話表作成手段110はステップS81において、発話表作成手段110は発話表データ(ワーク)-通話概要情報202から評価点、オペレータ名を取得し、画面に描画する。
 ステップS83において、発話表作成手段110は発話表データ(ワーク)-発話時刻表203からレコードを順次取得する。ステップS84において、発話表作成手段110はレコードを取得できたか否かを判定する。
 レコードを取得できれば、発話表作成手段110はステップS85において発話の開始時刻より表示位置を決定する。ステップS86において、発話表作成手段110は発話の時間(発話の終了時刻-発話の開始時刻)に基づき、画面上で発話を示す箱(発話の枠)の大きさを決定する。ステップS87において、発話表作成手段110は発話の枠を画面に描画する。
 ステップS88において、発話表作成手段110は発話表データ(ワーク)-発話時刻表203から次のレコードを取得する。次のレコードが取得できなくなるまで発話表作成手段110はステップS84~S88の処理を繰り返す。
 ステップS84においてレコードを取得できなかったと判定すると、発話表作成手段110はステップS89において、発話表データ(ワーク)-セクション表201からレコードを順次取得する。ステップS90において、発話表作成手段110はレコードを取得できたか否かを判定する。
 レコードが取得できれば、発話表作成手段110はステップS91においてセクションの開始時刻、セクションの終了時刻の位置に縦線を描画する。ステップS92において、発話表作成手段110はステップS91で描画した縦線の間に矢印を描画し、セクションNo、セクション概要を描画する。
 ステップS93において、発話表作成手段110はセクションの終了予定時刻の位置に縦破線を描画する。ステップS94において、発話表作成手段110はセクションの開始時刻の位置に描画した縦線と、セクションの終了予定時刻の位置に描画した縦破線との間に矢印を描画し、セクションNo、標準所要時間を描画する。
 ステップS95において、発話表作成手段110は塗りつぶし処理を行う。塗りつぶし処理の後、発話表作成手段110はステップS90の処理を行う。発話表作成手段110はレコードが取得できなくなるまでステップS90~S95の処理を繰り返す。発話表作成手段110は、ステップS90においてレコードを取得できなかったと判定すると、図25のフローチャートの処理を終了する。
 図26は塗りつぶし処理の一例のフローチャートである。ステップS101において、発話表作成手段110はセクションの終了時刻が終了予定時刻を超過しているか否かを判定する。
 セクションの終了時刻が終了予定時刻を超過していれば、発話表作成手段110はステップS102において、セクションの終了予定時刻とセクションの終了時刻との間に開始又は終了した発話のレコードを発話表データ(ワーク)-発話時刻表203から取得する。
 ステップS103において、発話表作成手段110はレコードを取得できたか否かを判定する。レコードが取得できれば、発話表作成手段110はステップS104において、発話の開始時刻のみセクションの終了予定時刻とセクションの終了時刻との間に含まれるか否かを判定する。
 発話の開始時刻のみセクションの終了予定時刻とセクションの終了時刻との間に含まれていれば、発話表作成手段110はステップS105において発話の開始時刻とセクションの終了時刻との間をカラーαで塗りつぶす。
 発話の開始時刻のみセクションの終了予定時刻とセクションの終了時刻との間に含まれているのでなければ、ステップS106において、発話表作成手段110は発話の終了時刻のみセクションの終了予定時刻とセクションの終了時刻との間に含まれるか否かを判定する。
 発話の終了時刻のみセクションの終了予定時刻とセクションの終了時刻との間に含まれていれば、発話表作成手段110はステップS107においてセクションの終了予定時刻と発話の終了時刻との間をカラーαで塗りつぶす。
 発話の終了時刻のみセクションの終了予定時刻とセクションの終了時刻との間に含まれているのでなければ、発話表作成手段110はステップS108において発話の開始時刻と発話の終了時刻との間をカラーαで塗りつぶす。
 ステップS105、S107及びS108の処理後、発話表作成手段110は再びステップS103の処理を行う。ステップS3においてレコードを取得できなければ図26のフローチャートの処理を終了する。
 ステップS101において、セクションの終了時刻が終了予定時刻を超過していなければ、発話表作成手段110はステップS109において、セクションの終了時刻が終了予定時刻の前であるか否かを判定する。
 セクションの終了時刻が終了予定時刻の前であれば、発話表作成手段110はステップS110において、セクションの終了予定時刻とセクションの終了時刻との間に開始又は終了した発話のレコードを発話表データ(ワーク)-発話時刻表203から取得する。
 ステップS111において、発話表作成手段110はレコードを取得できたか否かを判定する。レコードが取得できれば、発話表作成手段110はステップS112において、発話の開始時刻のみセクションの終了予定時刻とセクションの終了時刻との間に含まれるか否かを判定する。
 発話の開始時刻のみセクションの終了予定時刻とセクションの終了時刻との間に含まれていれば、発話表作成手段110はステップS113において発話の開始時刻とセクションの終了予定時刻との間をカラーβで塗りつぶす。
 発話の開始時刻のみセクションの終了予定時刻とセクションの終了時刻との間に含まれているのでなければ、ステップS114において、発話表作成手段110は発話の終了時刻のみセクションの終了予定時刻とセクションの終了時刻との間に含まれるか否かを判定する。
 発話の終了時刻のみセクションの終了予定時刻とセクションの終了時刻との間に含まれていれば、発話表作成手段110はステップS115においてセクションの終了時刻と発話の終了時刻との間をカラーβで塗りつぶす。
 発話の終了時刻のみセクションの終了予定時刻とセクションの終了時刻との間に含まれているのでなければ、発話表作成手段110はステップS116において発話の開始時刻と発話の終了時刻との間をカラーβで塗りつぶす。
 ステップS113、S115及びS116の処理後、発話表作成手段110は再びステップS111の処理を行う。ステップS111においてレコードを取得できなければ図26のフローチャートの処理を終了する。また、ステップS109において、セクションの終了時刻が終了予定時刻の前でなければ、発話表作成手段110は図26のフローチャートの処理を終了する。
 図27は発話表の一例の画面イメージ図である。図27の発話表300は、評価点と、オペレータ名と、オペレータ及び顧客の発話の枠と、セクションの開始時刻及び終了時刻の位置を表す縦線と、縦線の間に描画された矢印、セクションNo及びセクション概要と、セクションの終了予定時刻の位置を表す縦破線と、縦線(セクションの開始時刻)及び縦破線の間に描画された矢印、セクションNo及び標準所要時間とが表示されている。
 発話表300は、例えばオペレータ及び顧客の発話の枠をマウス等でクリックすることにより、録音されたオペレータ及び顧客の発話を再生できる。なお、図27の発話表300は経過時間が実時刻でなく相対時間となっている。実時刻と相対時間との切り替えは容易に行うことができる。
 図28はオペレータ端末の一例の機能構成図である。オペレータ端末2は、情報検索依頼手段121、情報受信手段122、情報表示手段123、顧客情報取得手段124、顧客情報表示手段125、音声出力手段126、音声入力手段127及び呼通信手段128を有する。
 オペレータ端末2はオペレータ用プログラム31を実行することで、情報検索依頼手段121、情報受信手段122、情報表示手段123、顧客情報取得手段124、顧客情報表示手段125、音声出力手段126、音声入力手段127及び呼通信手段128を実現する。
 情報検索依頼手段121は情報の検索要求をサーバ1に依頼する。情報受信手段122は情報の検索結果をサーバ1から受信する。情報表示手段123は検索結果をディスプレイ装置71等に表示する。
 顧客情報取得手段124はサーバ1から顧客の情報を受信する。顧客情報表示手段125は顧客の情報をディスプレイ装置71等に表示する。音声出力手段126は音声をスピーカ91等で出力する。音声入力手段127は音声をマイク92等から入力する。呼通信手段128は顧客端末4と通信を行う。
 図29は管理者端末の一例の機能構成図である。管理者端末3は、発話表依頼手段131、発話表受信手段132、発話表表示手段133を有する。発話表依頼手段131はサーバ1に対して発話表表示依頼を行う。発話表受信手段132は発話表をサーバ1から受信する。発話表表示手段133は図27に示すような発話表300をディスプレイ装置71等に表示する。
 図30は管理者端末の処理の一例のフローチャートである。ステップS121において、管理者端末3の発話表依頼手段131はサーバ1に対して発話表作成を依頼する。ステップS122において、発話表依頼手段131は処理範囲選択画面200を管理者端末3から受信する。
 ステップS123において、発話表依頼手段131は処理範囲選択画面200を表示して管理者に処理範囲の選択情報を入力させる。発話表依頼手段131は管理者から処理範囲の選択情報が入力されたと判定するまで、ステップS123の処理を繰り返す。
 管理者から処理範囲の選択情報が入力されると、ステップS124において、発話表依頼手段131は処理範囲の選択情報(コールIDの指定、又は、条件(日付範囲又はオペレータID)の指定)をサーバ1に送信する。発話表受信手段132はサーバ1から発話表300のデータを受信するまでステップS125の処理を繰り返す。そして、サーバ1から発話表300のデータを受信すると、発話表表示手段133はステップS126において、発話表300をディスプレイ装置71等に表示する。
 以上、本実施例のサーバ1によれば、図27に示すような発話表300を作成して管理者端末3に送付できる。発話表300はオペレータ/顧客のそれぞれの発話時間帯を示すグラフに連動して、オペレータがオペレータ端末2の画面にマニュアルを表示していた表示時間帯及び表示内容を示す。さらに、発話表300は表示内容毎の標準所要時間を示すと共に、オペレータの所要時間と標準所要時間との差分を表示内容毎に示している。
 管理者は発話表300を用いることで、オペレータによる顧客対応の問題箇所を以下のように容易に見つけることができる。管理者は、発話表300に示されたオペレータの所要時間と標準所要時間との差分が大きい箇所を、オペレータによる顧客対応の問題箇所の可能性が高い箇所であると容易に予想できる。
 また、発話表300にはマニュアルを表示していた表示時間帯及び表示内容が示される。したがって、管理者は録音されたオペレータ及び顧客の発話を再生する前に発話の内容をある程度、予想できる。なお、表示内容(マニュアルのページ)ごとの問題発生の頻度を統計処理することで、管理者は表示内容の改善を考える参考情報を得ることができる。
 請求の範囲に記載した発話記録手段は発話時刻DB17に相当する。表示記録手段はページ切り替えDB19に相当する。内容記録手段はマニュアルDB18に相当する。提供手段は発話表送付手段109に相当する。評価記録手段は評価DB20に相当する。評価手段は通話評価手段111に相当する。また、オペレータ評価支援プログラムはOP評価プログラム22に相当する。

Claims (18)

  1.  顧客からの電話にオペレータが対応する通話に基づき該オペレータを評価するオペレータ評価支援装置であって、
     通話における、顧客およびオペレータの発話時間を記録する発話記録手段と、
     オペレータが使用するオペレータ端末に、前記通話において表示された表示画面を識別する表示画面識別情報に関連づけて、該表示画面が表示された表示時間を記録する表示記録手段と、
     オペレータ端末に表示される表示画面の表示画面識別情報に関連づけて、該表示画面の内容を説明する画面内容情報を記録する内容記録手段と、
     前記通話について、前記発話記録手段、前記表示記録手段、および、前記内容記録手段を参照し、前記顧客および前記オペレータの発話時間、前記オペレータ端末に表示された表示画面の表示時間、および、該表示画面に対応する画面内容情報を示す通話情報を作成し、オペレータを評価する管理者が使用する管理者端末に送信する提供手段と
    を有することを特徴とするオペレータ評価支援装置。
  2.  前記内容記録手段は、前記表示画面識別情報に関連づけて、さらに、基準となる標準表示時間を記録し、
     前記提供手段は、前記内容記録手段を参照し、前記通話において表示された表示画面に対応する標準表示時間を特定し、該標準表示時間を示す前記通話情報を作成する
     ことを特徴とする請求項1に記載のオペレータ評価支援装置。
  3.  前記オペレータ端末に表示される表示画面の表示時間と前記表示画面の標準表示時間に基づく評価情報を記録する評価記録手段と、
     前記評価記録手段を参照し、前記通話における前記前記表示画面の表示時間と前記表示画面の標準表示時間に基づく評価情報を取得する評価手段
    をさらに備え、
    前記提供手段は、
     前記評価情報を含む前記通話情報を作成する
    ことを特徴とする請求項2に記載のオペレータ評価支援装置。
  4.  前記提供手段は、前記通話について、前記顧客とオペレータの発話時間、および、前記表示画面の表示時間を時間軸を基準に表示するとともに、該表示画面の表示開始時点を起点とした該表示画面の前記標準表示時間が完了する完了時点を特定し、該時間軸を基準に該完了時点を表示する
    ことを特徴とする請求項2に記載のオペレータ評価支援装置。
  5.  前記表示記録手段は、前記オペレータ端末に表示された表示画面のうち前記内容記録手段に標準の表示時間が記録された前記表示画面について、
    該オペレータ端末に表示された表示時間を記録する
    ことを特徴とする請求項1に記載のオペレータ評価支援装置。
  6.  前記表示記録手段は、前記オペレータが説明に利用するマニュアルのページ毎に表示時間を記録する
    ことを特徴とする請求項1に記載のオペレータ評価支援装置。
  7.  コンピュータが、顧客からの電話にオペレータが対応する通話に基づき該オペレータを評価するオペレータ評価支援方法であって、
      前記オペレータが使用するオペレータ端末に、前記通話において表示された表示画面を識別する表示画面識別情報に関連づけて、該表示画面が表示された表示時間を記録した表示記録手段を参照して、該通話において該オペレータ端末に表示された表示画面識別情報および表示時間を特定し、
     オペレータ端末に表示される表示画面の表示画面識別情報に関連づけて、該表示画面の内容を説明する画面内容情報を記録した内容記録手段を参照して、前記特定された表示画面識別情報に対応する画面内容情報を特定し、
     前記通話における前記顧客および前記オペレータの発話時間を記録した発話記録手段を参照し、前記通話における顧客およびオペレータの発話時間を特定し、
     前記通話おいて特定した前記顧客および前記オペレータの発話時間、前記特定した前記オペレータ端末に表示された表示画面の表示時間、および、前記特定した該表示画面に対応する画面内容情報を示す通話情報を作成し、
     オペレータを評価する管理者が使用する管理者端末に送信する
    ことを特徴とするオペレータ評価支援方法。
  8.  前記コンピュータは、
     前記表示画面識別情報に関連づけて、さらに、基準となる標準表示時間を記録した前記内容記録手段を参照し、前記通話において特定した表示画面識別情報に対応する標準表示時間を特定し、該標準表示時間を示す前記通話情報を作成する
     ことを特徴とする請求項7に記載のオペレータ評価支援方法。
  9.  前記コンピュータは、
     前記オペレータ端末に表示される表示画面の表示時間と前記表示画面の標準表示時間に基づく評価情報を記録する評価記録手段を参照し、前記通話における前記前記表示画面の表示時間と前記表示画面の標準表示時間により規定される評価情報を取得し、
     前記評価情報を含む前記通話情報を作成する
    ことを特徴とする請求項8に記載のオペレータ評価支援方法。
  10.  前記コンピュータは、
     前記通話について、前記顧客とオペレータの発話時間、および、前記表示画面の表示時間を、時間軸を基準に表示するとともに、該表示画面の表示開始時点を起点とした該表示画面の前記標準表示時間が完了する完了時点を特定し、該時間軸を基準に該完了時点を表示する
    ことを特徴とする請求項8に記載のオペレータ評価支援方法。
  11.  前記コンピュータは、
     前記オペレータ端末に表示された表示画面のうち、前記内容記録手段に標準の表示時間が記録された前記表示画面について、該オペレータ端末に表示された表示時間を前記表示記録手段に記録する
    ことを特徴とする請求項7に記載のオペレータ評価支援装置。
  12.  前記コンピュータは、
     前記オペレータが説明に利用するマニュアルのページ毎に、前記オペレータ端末に表示された表示時間を前記表示記録手段に記録する
    ことを特徴とする請求項7に記載のオペレータ評価支援装置。
  13.  顧客からの電話にオペレータが対応する通話に基づき該オペレータを評価するオペレータ評価支援方法をコンピュータに実行させるオペレータ評価支援プログラムを記録した記憶媒体であって、
     前記オペレータ評価支援プログラムは前記コンピュータに、
     前記オペレータが使用するオペレータ端末に、前記通話において表示された表示画面を識別する表示画面識別情報に関連づけて、該表示画面が表示された表示時間を記録した表示記録手段を参照して、該通話において該オペレータ端末に表示された表示画面識別情報および表示時間を特定し、
     オペレータ端末に表示される表示画面の表示画面識別情報に関連づけて、該表示画面の内容を説明する画面内容情報を記録した内容記録手段を参照して、前記特定された表示画面識別情報に対応する画面内容情報を特定し、
     前記通話における前記顧客および前記オペレータの発話時間を記録した発話記録手段を参照し、前記通話における顧客およびオペレータの発話時間を特定し、
     前記通話おいて特定した前記顧客および前記オペレータの発話時間、前記特定した前記オペレータ端末に表示された表示画面の表示時間、および、前記特定した該表示画面に対応する画面内容情報を示す通話情報を作成し、
     オペレータを評価する管理者が使用する管理者端末に送信する
    ことを実行させることを特徴とする記憶媒体。
  14.  前記コンピュータに、
     前記表示画面識別情報に関連づけて、さらに、基準となる標準表示時間を記録した前記内容記録手段を参照し、前記通話において特定した表示画面識別情報に対応する標準表示時間を特定し、該標準表示時間を示す前記通話情報を作成する
     ことを実行させる前記オペレータ評価支援プログラムを記録した請求項13に記載の記憶媒体。
  15.  前記コンピュータに、
     前記オペレータ端末に表示される表示画面の表示時間と前記表示画面の標準表示時間に基づく評価情報を記録する評価記録手段を参照し、前記通話における前記前記表示画面の表示時間と前記表示画面の標準表示時間により規定される評価情報を取得し、
     前記評価情報を含む前記通話情報を作成する
    ことを実行させる前記オペレータ評価支援プログラムを記録したことを特徴とする請求項14に記載の記憶媒体。
  16.  前記コンピュータに、
     前記通話について、前記顧客とオペレータの発話時間、および、前記表示画面の表示時間を、時間軸を基準に表示するとともに、該表示画面の表示開始時点を起点とした該表示画面の前記標準表示時間が完了する完了時点を特定し、該時間軸を基準に該完了時点を表示する
    ことを実行させる前記オペレータ評価支援プログラムを記録した請求項14に記載の記憶媒体。
  17.  前記コンピュータに、
     前記オペレータ端末に表示された表示画面のうち、前記内容記録手段に標準の表示時間が記録された前記表示画面について、該オペレータ端末に表示された表示時間を前記表示記録手段に記録する
    ことを実行させる前記オペレータ評価支援プログラムを記録した請求項13に記載の記憶媒体。
  18.  前記コンピュータに、
     前記オペレータが説明に利用するマニュアルのページ毎に、前記オペレータ端末に表示された表示時間を前記表示記録手段に記録する
    ことを実行させる前記オペレータ評価支援プログラムを記録した請求項13に記載の記憶媒体。
PCT/JP2011/055279 2011-03-07 2011-03-07 オペレータ評価支援装置及びオペレータ評価支援プログラム WO2012120624A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201180069067.5A CN103416048B (zh) 2011-03-07 2011-03-07 话务员评价支援装置以及话务员评价支援方法
PCT/JP2011/055279 WO2012120624A1 (ja) 2011-03-07 2011-03-07 オペレータ評価支援装置及びオペレータ評価支援プログラム
JP2013503265A JP5790757B2 (ja) 2011-03-07 2011-03-07 オペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラム
US14/017,733 US20140003598A1 (en) 2011-03-07 2013-09-04 Operator evaluation support device and operator evaluation support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/055279 WO2012120624A1 (ja) 2011-03-07 2011-03-07 オペレータ評価支援装置及びオペレータ評価支援プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/017,733 Continuation US20140003598A1 (en) 2011-03-07 2013-09-04 Operator evaluation support device and operator evaluation support method

Publications (1)

Publication Number Publication Date
WO2012120624A1 true WO2012120624A1 (ja) 2012-09-13

Family

ID=46797630

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/055279 WO2012120624A1 (ja) 2011-03-07 2011-03-07 オペレータ評価支援装置及びオペレータ評価支援プログラム

Country Status (4)

Country Link
US (1) US20140003598A1 (ja)
JP (1) JP5790757B2 (ja)
CN (1) CN103416048B (ja)
WO (1) WO2012120624A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5610059B2 (ja) * 2011-03-17 2014-10-22 富士通株式会社 通話管理装置、通話管理方法、及びプログラム
JP2015156062A (ja) * 2014-02-19 2015-08-27 株式会社東芝 業務支援システム
WO2019227622A1 (zh) * 2018-05-30 2019-12-05 平安科技(深圳)有限公司 呼叫中心的任务跟踪方法、装置、设备及存储介质
JP7515043B1 (ja) 2023-10-13 2024-07-12 株式会社ナレッジフロー 電話応対管理システム及び電話応対管理プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10917524B1 (en) 2019-10-30 2021-02-09 American Tel-A-Systems, Inc. Methods for auditing communication sessions

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003122890A (ja) * 2001-10-16 2003-04-25 Hochiki Corp 相談情報処理装置、相談情報処理方法、および、プログラム
JP2005293180A (ja) * 2004-03-31 2005-10-20 Fujitsu Ltd オペレータ支援プログラム,オペレータ支援システム,及び、オペレータ支援方法
JP2007074175A (ja) * 2005-09-06 2007-03-22 Fujitsu Ltd 電話業務検査システム及びそのプログラム
JP2007184699A (ja) * 2006-01-05 2007-07-19 Fujitsu Ltd 音声データの聞き出し部分特定処理プログラムおよび処理装置
JP2007286097A (ja) * 2006-04-12 2007-11-01 Nippon Telegr & Teleph Corp <Ntt> 音声受付クレーム検出方法、装置、音声受付クレーム検出プログラム、記録媒体

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5854832A (en) * 1995-06-26 1998-12-29 Rockwell International Corp. Monitoring system and method used in automatic call distributor for timing incoming telephone calls
US7203655B2 (en) * 2000-02-16 2007-04-10 Iex Corporation Method and system for providing performance statistics to agents
CA2408654C (en) * 2000-05-09 2009-09-08 Nice Systems Ltd. Method and apparatus for quality assurance in a multimedia communications environment
US7292689B2 (en) * 2002-03-15 2007-11-06 Intellisist, Inc. System and method for providing a message-based communications infrastructure for automated call center operation
US8130937B1 (en) * 2005-06-21 2012-03-06 Sprint Spectrum L.P. Use of speech recognition engine to track and manage live call center calls
CN100566360C (zh) * 2006-01-19 2009-12-02 北京讯鸟软件有限公司 实现坐席服务水平评价的呼叫中心服务方法
US8160233B2 (en) * 2006-02-22 2012-04-17 Verint Americas Inc. System and method for detecting and displaying business transactions
JP4734153B2 (ja) * 2006-03-20 2011-07-27 富士通株式会社 応対情報評価プログラム
JP2008176223A (ja) * 2007-01-22 2008-07-31 Freude Kk 記憶支援用データ表示装置及び記憶支援用データ表示プログラム
JP5241286B2 (ja) * 2008-03-31 2013-07-17 株式会社日立製作所 コールセンタ支援システム
US8515051B2 (en) * 2010-07-14 2013-08-20 Verint Americas, Inc. Determining and displaying application usage data in a contact center environment
JP4819177B2 (ja) * 2010-08-02 2011-11-24 富士通株式会社 画面処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003122890A (ja) * 2001-10-16 2003-04-25 Hochiki Corp 相談情報処理装置、相談情報処理方法、および、プログラム
JP2005293180A (ja) * 2004-03-31 2005-10-20 Fujitsu Ltd オペレータ支援プログラム,オペレータ支援システム,及び、オペレータ支援方法
JP2007074175A (ja) * 2005-09-06 2007-03-22 Fujitsu Ltd 電話業務検査システム及びそのプログラム
JP2007184699A (ja) * 2006-01-05 2007-07-19 Fujitsu Ltd 音声データの聞き出し部分特定処理プログラムおよび処理装置
JP2007286097A (ja) * 2006-04-12 2007-11-01 Nippon Telegr & Teleph Corp <Ntt> 音声受付クレーム検出方法、装置、音声受付クレーム検出プログラム、記録媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5610059B2 (ja) * 2011-03-17 2014-10-22 富士通株式会社 通話管理装置、通話管理方法、及びプログラム
JP2015156062A (ja) * 2014-02-19 2015-08-27 株式会社東芝 業務支援システム
WO2019227622A1 (zh) * 2018-05-30 2019-12-05 平安科技(深圳)有限公司 呼叫中心的任务跟踪方法、装置、设备及存储介质
JP7515043B1 (ja) 2023-10-13 2024-07-12 株式会社ナレッジフロー 電話応対管理システム及び電話応対管理プログラム

Also Published As

Publication number Publication date
JPWO2012120624A1 (ja) 2014-07-07
JP5790757B2 (ja) 2015-10-07
CN103416048B (zh) 2016-08-17
US20140003598A1 (en) 2014-01-02
CN103416048A (zh) 2013-11-27

Similar Documents

Publication Publication Date Title
JP4662861B2 (ja) モニタリング装置、評価データ選別装置、応対者評価装置、応対者評価システムおよびプログラム
US9288314B2 (en) Call evaluation device and call evaluation method
JP5585720B2 (ja) オペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラムを記録した記憶媒体
US9386154B2 (en) System, method and software program for enabling communications between customer service agents and users of communication devices
US8594285B2 (en) Method and system for analyzing separated voice data of a telephonic communication between a customer and a contact center by applying a psychological behavioral model thereto
JP5790757B2 (ja) オペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラム
US8000963B2 (en) Sound reproducing apparatus
JP5621910B2 (ja) オペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラムを記録した記憶媒体
JP2012503364A (ja) 無線機器に対する既定の応答方法及び装置
JP4275624B2 (ja) オペレータ支援装置、オペレータ支援プログラムおよびその記録媒体、ならびにオペレータ支援方法
JP6101841B1 (ja) 順番待ちを管理するシステム、サーバ、方法、及びプログラム
JP4686160B2 (ja) 会話記録装置および会話記録方法
KR101063261B1 (ko) 핵심키워드를 이용하여 통화 내용을 녹취하는 인터넷 프로토콜 컨텍트 센터 녹취 시스템 및 그 방법
US20030046181A1 (en) Systems and methods for using a conversation control system in relation to a plurality of entities
US8468027B2 (en) Systems and methods for deploying and utilizing a network of conversation control systems
CN116030788B (zh) 一种智能语音交互方法及装置
WO2012124116A1 (ja) 通話管理装置、通話管理方法、及びプログラム
US20030046102A1 (en) Systems and methods for maintaining consistency in interpersonal communications related to marketing operations
CN103444161B (zh) 话务员管理装置以及话务员管理方法
JP2017184842A (ja) 情報処理プログラム、情報処理装置及び情報処理方法
JP2010041286A (ja) 話者判別プログラム、話者判別装置、および話者判別方法
JP7180687B2 (ja) 処理システム、処理方法及びプログラム
JP2022066765A (ja) スキルレベル算出装置、対応者分配システム装置、スキルレベル算出方法、対応者分配方法、プログラム及び記録媒体
JP5291957B2 (ja) 着信管理装置、着信管理方法および着信管理プログラム
JP2005043663A (ja) 学習支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11860512

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013503265

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11860512

Country of ref document: EP

Kind code of ref document: A1