WO2012124120A1 - オペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラムを記録した記憶媒体 - Google Patents

オペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラムを記録した記憶媒体 Download PDF

Info

Publication number
WO2012124120A1
WO2012124120A1 PCT/JP2011/056462 JP2011056462W WO2012124120A1 WO 2012124120 A1 WO2012124120 A1 WO 2012124120A1 JP 2011056462 W JP2011056462 W JP 2011056462W WO 2012124120 A1 WO2012124120 A1 WO 2012124120A1
Authority
WO
WIPO (PCT)
Prior art keywords
operator
utterance
time
call
display screen
Prior art date
Application number
PCT/JP2011/056462
Other languages
English (en)
French (fr)
Inventor
直人 川島
直人 松平
祐相 藤内
吉田 洋
真吾 広野
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to JP2013504494A priority Critical patent/JP5621910B2/ja
Priority to PCT/JP2011/056462 priority patent/WO2012124120A1/ja
Priority to CN201180069294.8A priority patent/CN103443810B/zh
Publication of WO2012124120A1 publication Critical patent/WO2012124120A1/ja
Priority to US14/020,194 priority patent/US8908856B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/5175Call or contact centers supervision arrangements

Definitions

  • the present invention relates to an operator evaluation support apparatus, an operator evaluation support method, and a storage medium in which an operator evaluation support program is recorded that supports the evaluation of a call center operator.
  • a supervisor who supervises the operator evaluates the call quality of each operator.
  • the supervisor for example, by selecting and playing back speech files one by one from the graph showing the customer's and operator's utterance time zones (speech time zone graph), the contents of each utterance are grasped, and the operator's call quality was evaluated.
  • speech files are not subjected to speech recognition processing, it is difficult to grasp the contents of the operator's utterance and the relationship between multiple voice files from the utterance time zone graph. Have difficulty.
  • the supervisor cannot easily grasp the problem part of the operator's utterance without reproducing the utterance voice file.
  • the following conventional techniques are known in terms of selecting and playing back an utterance audio file.
  • Patent Document 1 A technique for interlocking playback of question and answer audio files has been known (see Patent Document 1).
  • Patent Document 2 A technique for reproducing a plurality of audio files without recognizing the contents of the audio files in advance has been known (see Patent Document 2). JP 2006-171579 A JP 2007-58767 A
  • the technique of the above-mentioned patent document 1 recognizes the contents of an audio file and accepts selective reproduction after creating a tree structure of a question and an answer, since the conventional technique for interlocking reproduction of an audio file of a question and an answer There is a problem that it is necessary to prepare a recognition technique for recognizing the contents of an audio file in advance, and an expensive device is required.
  • the conventional technique for reproducing a plurality of audio files without recognizing the contents of the audio file in advance creates an audio file for each utterance and includes it in a specified time zone. Therefore, it is not easy to grasp the problem part of the operator's utterance.
  • An embodiment of the present invention has an object to provide an operator evaluation support apparatus, an operator evaluation support method, and a storage medium in which an operator evaluation support program is recorded, which can reduce operations for selecting voice files of customer and operator utterances. .
  • an operator evaluation support apparatus is an operator evaluation support apparatus that supports an evaluation of the operator based on a call that corresponds to an operator's telephone call.
  • Display recording means for recording, content recording means for recording screen content information explaining the content of the display screen in association with display screen identification information of the display screen displayed on the operator terminal, and Refer to the utterance recording means, the display recording means, and the content recording means, and the customer and the operator Talk time, display time of the display screen displayed on the operator terminal, and call information indicating screen content information corresponding to the display screen are created, and the administrator terminal used by the administrator who evaluates the operator
  • an operator evaluation support apparatus an operator evaluation support method, and a storage medium in which an operator evaluation support program is recorded that can reduce operations for selecting voice files of utterances of customers and operators.
  • FIG. 1 is a configuration diagram of an example of a call center system according to the present embodiment.
  • the call center system shown in FIG. 1 includes a server 1, an operator terminal 2, an administrator terminal 3, and a customer terminal 4.
  • the server 1 is an example of an operator evaluation support device.
  • the server 1 is connected to the operator terminal 2, the administrator terminal 3, and the customer terminal 4 via a predetermined network such as the Internet, a LAN (Local Area Network), or a public network.
  • a predetermined network such as the Internet, a LAN (Local Area Network), or a public network.
  • Server 1 includes customer DB 11, question DB 12, FAQ DB 13, product DB 14, operator DB 15, voice DB 16, speech time DB 17, manual DB 18, page switching DB 19, threshold DB 20, call program 21, OP (operator) evaluation program 22, information search program 23.
  • the operator terminal 2 has an operator program 31.
  • the administrator terminal 3 has an administrator terminal program 41. The administrator terminal 3 is operated by a supervisor as an example of an administrator.
  • the server 1 executes a call program 21, an utterance reproduction program 22, and an information search program 23.
  • the server 1 executes the call program 21 to connect the customer terminal 4 and the operator terminal 2, record a call, and transmit customer information to the operator terminal 2.
  • the server 1 executes the utterance reproduction program 22 to create information for the supervisor to evaluate the operator, and to transmit information to the manager terminal 3 for the supervisor to evaluate the operator.
  • the server 1 executes the information search program 23 to search for information from the manual DB 18 or the like, to transmit the search result to the operator terminal 2, the contents of the information transmitted to the operator terminal 2, the information at the operator terminal 2 Record the time of display and non-display.
  • the operator terminal 2 executes an operator program 31.
  • the operator terminal 2 executes the operator program 31 to display the customer information received from the server 1 and the information retrieval result from the manual DB 18 or the like.
  • the administrator terminal 3 executes the administrator terminal program 41.
  • the administrator terminal 3 executes the administrator terminal program 41 so that the supervisor received from the server 1 displays information for evaluating the operator.
  • the customer terminal 4 may be any device having a telephone function such as a telephone or a PC having a telephone function.
  • Customer DB 11 records information about customers.
  • the question DB 12 records information related to inquiries from customers.
  • the FAQ DB 13 records information relating to frequently asked questions (FAQs).
  • the product DB 14 records information about products.
  • the operator DB 15 records information on the operator status (busy, available, etc.).
  • the voice DB 16 records information related to the voice file.
  • the utterance time DB 17 records information about the utterances of the customer and the operator such as the timing of the utterances of the customer and the operator.
  • the manual DB 18 records screen data and standard time required for each section (page) of the manual.
  • the page switching DB 19 records information related to manual display or non-display operations by the operator.
  • the threshold DB 20 records a threshold time described later.
  • FIG. 2 is a hardware configuration diagram of an example of a server.
  • the server 1 illustrated in FIG. 2 includes an input device 51, a display device 52, and a main body 53.
  • the main body 53 includes a main storage device 61, an arithmetic processing device 62, an interface device 63, a recording medium reading device 64, and an auxiliary storage device 65 that are connected to each other via a bus 67.
  • An input device 51 and a display device 52 are connected to the bus 67.
  • the input device 51, the display device 52, the main storage device 61, the arithmetic processing device 62, the interface device 63, the recording medium reading device 64, and the auxiliary storage device 65 that are connected to each other via the bus 67 are managed by the arithmetic processing device 62. Data can be sent and received between each other.
  • the arithmetic processing unit 62 is a central processing unit that controls the operation of the entire server 1.
  • the interface device 63 receives data from the operator terminal 2, the administrator terminal 3, the customer terminal 4, etc., and passes the contents of the data to the arithmetic processing device 62. Further, the interface device 63 transmits data to the operator terminal 2, the manager terminal 3, the customer terminal 4, etc. in response to an instruction from the arithmetic processing device 62.
  • the auxiliary storage device 65 stores an operator evaluation support program that causes a computer to execute at least processing in the operator evaluation support device as part of a program that causes the server 1 to exhibit the same function as the operator evaluation support device.
  • the operator evaluation support program includes a call program 21, an utterance reproduction program 22, and an information search program 23.
  • the server 1 functions as an operator evaluation support device.
  • the operator evaluation support program may be stored in the main storage device 61 accessible to the arithmetic processing device 62.
  • the input device 51 receives data input under the control of the arithmetic processing device 62.
  • the operator evaluation support program can be recorded in a recording medium 66 that can be read by the server 1.
  • the recording medium 66 readable by the server 1 includes a magnetic recording medium, an optical disk, a magneto-optical recording medium, and a semiconductor memory.
  • Magnetic recording media include HDDs, flexible disks (FD), magnetic tapes (MT) and the like.
  • Optical discs include DVD (Digital Versatile Disc), DVD-RAM, CD-ROM (Compact Disc-Read Only Memory), CD-R (Recordable) / RW (ReWriteable), and the like.
  • Magneto-optical recording media include MO (Magneto-Optical disk).
  • a portable recording medium 66 such as a DVD or a CD-ROM in which the operator evaluation support program is recorded is sold.
  • the server 1 that executes the operator evaluation support program reads the operator evaluation support program from, for example, the recording medium 66 on which the recording medium reader 64 has recorded the operator evaluation support program.
  • the arithmetic processing device 62 stores the read operator evaluation support program in the main storage device 61 or the auxiliary storage device 65.
  • the server 1 reads the operator evaluation support program from the main storage device 61 or the auxiliary storage device 65, which is its own storage device, and executes processing according to the operator evaluation support program.
  • FIG. 3 is a hardware configuration diagram of an example of an operator terminal and an administrator terminal.
  • the hardware configurations of the operator terminal 2 and the administrator terminal 3 are the same. Therefore, here, the hardware configuration of the operator terminal 2 will be described. A description of the hardware configuration of the administrator terminal 3 is omitted.
  • the main body 70 includes a main storage device 81, a CPU 82, an auxiliary storage device 83, an image processing unit 84, an I / O processing unit 85, an audio processing unit 86, and a network card 87 that are connected to each other via an internal bus 88.
  • the headset 74 has a speaker 91 and a microphone 92.
  • the main storage device 81, auxiliary storage device 83, image processing unit 84, I / O processing unit 85, audio processing unit 86, and network card 87 connected to each other via the internal bus 88 are mutually controlled by the CPU 82. You can send and receive.
  • the CPU 82 is a central processing unit that controls the operation of the entire operator terminal 2.
  • the image processing unit 84 performs various processes necessary for displaying an image on the display device 71.
  • the I / O processing unit 85 processes data input / output with the pointing device 72 and the keyboard 73.
  • the audio processing unit 86 processes audio data exchanged between the speaker 91 and the microphone 92 of the headset 74.
  • the network card 87 receives data from the server 1 and the like, and passes the contents of the data to the CPU 82. Further, the network card 87 transmits data to the server 1 or the like in response to an instruction from the CPU 82.
  • an operator program 31 is installed in the operator terminal 2.
  • the operator terminal 2 executes an operator program 31.
  • the main storage device 81 stores at least an operator program 31 as part of a program for operating the operator terminal 2.
  • the CPU 82 reads the operator program 31 from the main storage device 81 and executes it.
  • the operator program 31 can be recorded on a recording medium readable by the operator terminal 2.
  • a recording medium readable by the operator terminal 2.
  • the operator terminal 2 that executes the operator program 31 reads the operator program 31 from the recording medium on which the operator program 31 is recorded.
  • the CPU 82 stores the operator program 31 in the main storage device 81.
  • the CPU 82 reads the operator program 31 from the main storage device 81 and executes processing according to the operator program 31.
  • FIG. 4 is a functional configuration diagram of an example of the server.
  • the server 1 has a customer DB 11, a question DB 12, a FAQ DB 13, a product DB 14, an operator DB 15, a voice DB 16, an utterance time DB 17, a manual DB 18, a page switching DB 19, and a threshold DB 20.
  • the server 1 executes the customer information transmission unit 101, customer information acquisition unit 102, call connection unit 103, operator determination unit 104, call reception unit 105, customer voice recording unit 106, OP voice recording unit 107. , Implements the voice separation means 108.
  • the server 1 executes the utterance reproduction program 22 to realize an utterance voice transmission unit 109, a reproduction utterance determination unit 110, an utterance table sending unit 111, an utterance table creation unit 112, and an utterance table request reception unit 113.
  • the server 1 realizes an information transmission unit 114, an information search unit 115, and an information search reception unit 116.
  • Customer information transmission means 101 transmits customer information to operator terminal 2.
  • the customer information acquisition unit 102 acquires customer information from the customer DB 11.
  • Call connection means 103 connects operator terminal 2 and customer terminal 4.
  • the operator determining means 104 determines an operator who is not in a call from the operator DB 15.
  • the call receiving unit 105 receives a call from the customer terminal 4.
  • Customer voice recording means 106 writes customer voice data into a voice file.
  • the customer voice recording means 106 writes the utterance start time and utterance end time of the customer in the utterance time DB 17.
  • the OP voice recording means 107 writes the operator's voice data in the voice file.
  • the OP voice recording means 107 writes the utterance start time and utterance end time of the operator in the utterance time DB 17.
  • Voice separation means 108 separates customer voice data and operator voice data.
  • the voice separation unit 108 separates, for example, the right channel of voice data as customer voice data and the left channel of voice data as operator voice data.
  • the utterance voice transmission means 109 transmits a voice file to the administrator terminal 3.
  • the reproduction utterance determining means 110 determines the utterance to be reproduced and notifies the manager terminal 3 of it.
  • the utterance table sending unit 111 transmits the utterance table to the manager terminal 3.
  • the utterance table creation means 112 creates an utterance table.
  • the utterance table request receiving means 113 receives an utterance table display request from the administrator terminal 3.
  • the information transmission unit 114 transmits information retrieved from the FAQ DB 13, the product DB 14, and the manual DB 18 to the operator terminal 2.
  • the information retrieval unit 115 retrieves information from the FAQ DB 13, the product DB 14, and the manual DB 18.
  • the information search accepting unit 116 accepts an information search request from the operator terminal 2.
  • FIG. 5 is a configuration diagram of an example of the customer DB.
  • the customer DB 11 includes, as data items, a customer ID, a telephone number, a customer, an address, a purchased product model number, and a purchase store.
  • the data item “customer ID” is identification information for uniquely identifying a customer.
  • the data item “phone number” is the customer's phone number.
  • the data item “customer” is the name of the customer.
  • the data item “address” is the address of the customer.
  • the data item “purchased product model number” is the model number of the product purchased by the customer.
  • the data item “purchase store” is a store where the customer purchased the product.
  • FIG. 6 is a configuration diagram of an example of the question DB.
  • the question DB 12 includes a call ID, an inquiry date, an inquiry time, an inquiry customer, and an operator ID as data items.
  • the data item “call ID” is identification information for uniquely identifying a call.
  • the data item “inquiry date” is the date on which the call from the customer is received.
  • the data item “inquiry time” is the time when the call from the customer is received.
  • the data item “inquiry customer” is the customer ID of the customer who made the inquiry.
  • the data item “operator ID” is an operator ID of an operator corresponding to an inquiry from a customer.
  • FIG. 7 is a configuration diagram of an example of FAQDB.
  • the FAQ DB 13 includes product categories, series, question genres, and answers as data items.
  • the FAQ DB 13 records a text sentence of an answer for each product category, series, and question genre.
  • FIG. 8 is a configuration diagram of an example of the product DB.
  • the product DB 14 includes product categories, series, release year, and manual data as data items.
  • the product DB 14 records manual data for each product category, series, and release year of the product.
  • the manual data is, for example, a file name for uniquely identifying an image file in the pdf format.
  • FIG. 9 is a configuration diagram of an example of the operator DB.
  • the operator DB 15 includes an operator ID, an operator name, and a situation as data items.
  • the operator DB 15 records a situation such as busy or empty for each operator.
  • the data item “situation” is information indicating whether the operator can respond to an inquiry from a customer.
  • FIG. 10 is a configuration diagram of an example of the voice DB.
  • the voice DB 16 includes a call ID, a voice file name, a left channel speaker, and a right channel speaker as data items.
  • the voice DB 16 records a voice file name, a left channel speaker, and a right channel speaker for each call ID.
  • the data item “voice file name” is the file name of the voice file that records the call of the call corresponding to the call ID.
  • the data item “left channel speaker” is a speaker of voice data written in the left channel.
  • the data item “right channel speaker” is the speaker of the voice data written in the right channel.
  • FIG. 11 is a configuration diagram of an example of the utterance time DB.
  • the utterance time DB 17 includes a call ID, time, and contents as data items.
  • the utterance time DB 17 records the operator utterance start time, the operator utterance end time, the customer utterance start time, and the customer utterance end time in association with the call ID.
  • FIG. 12 is a configuration diagram of an example of the manual DB.
  • the manual DB 18 includes manual names, pages, and screen data as data items.
  • the data item “manual name” is the name of the manual.
  • the data item “page” is a manual page.
  • the data item “screen data” is screen data of a manual page.
  • the screen data is preferably in a data format (pdf format or the like) that allows text search.
  • FIG. 13 is a configuration diagram of an example of the page switching DB.
  • the page switching DB 19 includes time, call ID, summary, page, and operation as data items.
  • the page switching DB 19 records operations for displaying and hiding information represented by the summary and the page in association with the call ID and time.
  • FIG. 14 is a configuration diagram of an example of the threshold DB.
  • the threshold DB 20 includes a threshold time as a data item.
  • the threshold value DB 20 records a threshold value used in processing to be described later.
  • FIG. 15 is a flowchart of an example of processing by the calling program.
  • the call receiving means 105 of the server 1 waits until a call from the customer terminal 4 is received.
  • the call receiving means 105 generates a call ID in step S2.
  • step S3 the operator determination unit 104 refers to the operator DB 15 and determines whether or not there is an operator whose data item “situation” is not in a call (is empty). If there is no operator who is not talking, the operator determining means 104 queues the customer who has received the call in step S4.
  • the operator determination means 104 waits until it can be determined that there is an operator who is not in a call. If it can be determined that there is an operator who is not talking, the call connection means 103 selects one operator who is not talking and connects the operator terminal 2 and the customer terminal 4 of the selected operator.
  • step S6 the operator determination means 104 sets the data item “situation” of the operator selected in the operator DB 15 to a call.
  • step S7 the call connection means 103 starts call recording. The recording process in step S8 is executed after call recording is started.
  • the customer information acquisition unit 102 acquires customer information from the customer DB 11 based on the telephone number of the call in step S9.
  • the customer information transmitting unit 101 transmits customer information to the operator terminal 2.
  • step S10 the operator determining means 104 waits until the call is finished.
  • the operator determination unit 104 adds a record relating to the ended call to the question DB 12.
  • step S12 the operator determination unit 104 empties the data item “situation” of the operator who has finished the call in the operator DB 15.
  • step S13 the call connection unit 103 closes the audio file.
  • step S ⁇ b> 14 the call connection unit 103 registers a record relating to the voice file of the terminated call in the voice file DB 16.
  • FIG. 16 is a flowchart of an example of the recording process.
  • the call connection means 103 opens the audio file in step S21.
  • the customer voice recording means 106 sets the customer's utterance state as unspeaked.
  • the OP voice recording means 107 sets the utterance state of the operator as unspeaked.
  • the customer voice recording unit 106 and the OP voice recording unit 107 repeat the processes in steps S24 to S26 until the call is finished.
  • step S24 the customer voice recording means 106 receives the customer voice data for 20 milliseconds out of the customer voice data carved by the voice carving means 108 and writes it into the voice file.
  • the OP voice recording means 107 receives the voice data of the operator for 20 milliseconds from the voice data of the operator carved by the voice carving means 108 and writes it to the voice file.
  • step S25 the OP voice recording means 107 performs an operator utterance confirmation process described later, confirms the utterance start time and utterance end time of the operator, and writes them in the utterance time DB 17.
  • step S26 the customer voice recording means 106 performs a customer utterance confirmation process described later, confirms the customer's utterance start time and utterance end time, and writes them in the utterance time DB 17.
  • FIG. 17 is a flowchart of an example of operator utterance confirmation processing.
  • the OP voice recording means 107 acquires the maximum volume (v1) of the voice data of the operator for 20 milliseconds.
  • step S32 the OP voice recording means 107 compares the maximum volume (v1) of the voice data of the operator with the volume (v0) determined to be silent, and determines whether or not v1> v0.
  • the OP voice recording means 107 determines in step S33 whether or not the operator's utterance state is unspoken. If the utterance state of the operator is not yet uttered, the OP voice recording means 107 records the current time in the utterance time DB 17 as the operator's utterance start time in step S34.
  • step S35 the OP voice recording means 107 finishes the operator utterance confirmation process in FIG. If the operator's utterance state is not yet uttered in step S33, the OP voice recording means 107 ends the operator utterance confirmation process of FIG.
  • the OP voice recording unit 107 determines in step S36 whether or not the operator's speech state is speaking. If the operator's speech state is speaking, the OP voice recording means 107 records the current time in the speech time DB 17 as the operator's speech end time in step S37.
  • step S38 the OP voice recording means 107 terminates the operator utterance confirmation process in FIG. If the operator's utterance state is not speaking in step S36, the OP voice recording means 107 ends the operator utterance confirmation process of FIG.
  • FIG. 18 is a flowchart of an example of a customer utterance confirmation process.
  • the customer voice recording means 106 acquires the maximum volume (v1) of customer voice data for 20 milliseconds.
  • step S42 the customer voice recording means 106 compares the maximum volume (v1) of the customer's voice data with the volume (v0) determined to be silent, and determines whether or not v1> v0.
  • the customer voice recording unit 106 determines whether or not the customer's utterance state is unspoken in step S43. If the customer's utterance state is not yet uttered, the customer voice recording means 106 records the current time in the utterance time DB 17 as the customer's utterance start time in step S44.
  • step S45 the customer voice recording means 106 finishes the customer utterance confirmation process in FIG. If the customer's utterance state is not yet uttered in step S43, the customer voice recording means 106 ends the customer utterance confirmation process of FIG.
  • the customer voice recording means 106 determines in step S46 whether or not the customer's speech state is speaking. If the customer's utterance state is speaking, the customer voice recording means 106 records the current time in the utterance time DB 17 as the customer's utterance end time in step S47.
  • step S48 the customer voice recording means 106 sets the customer's utterance state to unspoken, and then ends the customer utterance confirmation process of FIG.
  • step S46 the customer voice recording means 106 ends the customer utterance confirmation process in FIG. 18 if the utterance state of the customer is not uttering.
  • FIG. 19 is a flowchart of an example of processing by the information search program.
  • the information search accepting unit 116 determines whether or not a manual, FAQ, and product information display request has been received from the operator terminal 2.
  • the information search unit 115 searches for information according to the display request in step S52. For example, when a manual display request is received, the information search means 115 searches the manual DB 18 for information according to the display request.
  • the information transmission unit 114 transmits information in accordance with the display request to the operator terminal 2.
  • step S53 the information search unit 115 records the information record in accordance with the display request transmitted to the operator terminal 2 in the page switching DB 19, and then ends the process of the flowchart of FIG.
  • the record of information in accordance with the display request includes the time when the display request is made and the target for which the display request is made.
  • an object for which a display request has been made is represented by an outline and a page.
  • step S54 the information search means 115 determines whether or not a manual, FAQ, and product information non-display request has been received from the operator terminal 2.
  • the information search unit 115 records the information record in accordance with the non-display request in the page switching DB 19 in step S55, and then ends the process of the flowchart of FIG.
  • the record of information in accordance with the non-display request includes the time when the non-display request was made and the target for which the non-display request was made.
  • the page switching DB 19 in FIG. 13 an object for which a non-display request has been made is represented by an outline and a page. If the information retrieval unit 115 does not receive the non-display request, the process of the flowchart of FIG. 19 is terminated.
  • FIG. 20 is a flowchart of an example of processing by the utterance reproduction program.
  • the utterance table request receiving unit 113 stands by until an utterance table display request is received from the administrator terminal 3.
  • the utterance table request receiving means 113 transmits a processing range selection screen to be described later to the administrator terminal 3 in step S62.
  • the administrator terminal 3 that has received the processing range selection screen displays a processing range selection screen described later and allows the administrator to input processing range selection information.
  • the administrator terminal 3 transmits the selection information of the processing range input from the administrator to the server 1.
  • the utterance table request receiving unit 113 receives processing range selection information from the administrator terminal 3.
  • step S64 the utterance table creation unit 112 obtains a record of the first call ID corresponding to the processing range selection information received from the administrator terminal 3 from the question DB 12.
  • step S65 the utterance table creation unit 112 acquires the operator name from the operator DB 15 using the operator ID included in the record acquired from the question DB 12.
  • step S66 the utterance table creation unit 112 uses the call ID included in the record acquired from the question DB 12 to acquire the time (operation time) when the display request or non-display request is made from the page switching DB 19.
  • step S67 the utterance table creation unit 112 acquires the start time and the end time of each utterance from the utterance time DB 17, using the call ID included in the record acquired from the question DB 12.
  • step S68 the utterance table creation means 112 performs an utterance table creation process to be described later.
  • step S69 the utterance table sending unit 111 transmits the utterance table to the administrator terminal 3 that has received the utterance table display request.
  • step S70 the utterance voice transmitting unit 109 acquires a voice file name from the voice DB 16 using the call ID included in the record acquired from the question DB 12, and sends the voice file having the voice file name to the administrator terminal 3. Send.
  • step S71 the reproduction utterance determination unit 110 determines whether or not selection of a reproduction utterance has been received from the administrator terminal 3.
  • the reproduction utterance determination unit 110 performs a reproduction utterance determination process described later in step S72. If the selection of the reproduction utterance is not accepted from the administrator terminal 3, the reproduction utterance determination unit 110 does not perform the reproduction utterance determination process described later.
  • step S73 the utterance table creation unit 112 determines whether or not the record of the next call ID corresponding to the processing range selection information received from the administrator terminal 3 exists in the question DB 12.
  • the utterance table creation unit 112 acquires the record of the next call ID from the question DB 12 in step S64, and then performs the processing from step S65. If there is no record of the next call ID, the speech table creation unit 112 ends the process of the flowchart of FIG.
  • FIG. 21 is an image diagram of an example of a processing range selection screen.
  • the processing range selection screen 200 is used to allow the administrator to input processing range selection information.
  • a call ID or a condition is specified as processing range selection information.
  • FIG. 22 is a flowchart of an example of an utterance table creation process.
  • the utterance table creation unit 112 draws the operator name acquired in step S65 on the utterance table.
  • the utterance table creation unit 112 selects one utterance for which the start time and end time have been acquired in step S67.
  • step S83 the utterance table creation unit 112 repeats the processing in steps S84 to S87 until it determines that the utterance having the start time and end time acquired in step S67 cannot be selected. If one utterance having the start time and end time acquired in step S67 can be selected, the utterance table creation means 112 determines the display position from the utterance start time in step S84.
  • step S85 the utterance table creation means 112 determines the size of the box (speech frame) indicating the utterance on the utterance table based on the utterance time (utterance end time ⁇ utterance start time).
  • step S86 the speech table creation unit 112 draws a speech frame on the speech table.
  • step S87 the utterance table creation unit 112 selects the next utterance that acquired the start time and end time in step S67.
  • step S83 If it is determined in step S83 that one of the utterances for which the start time and end time have been acquired cannot be selected, the utterance table creation unit 112 performs the process of step S88. In step S88, the utterance table creation unit 112 selects one operation time acquired in step S66.
  • the utterance table creation unit 112 draws a vertical broken line at the position of the display request time (display start time) and the non-display request time (display end time) in step S90.
  • step S91 the speech table creation unit 112 draws an arrow between the vertical broken lines drawn in step S90, and draws a page and an outline.
  • step S92 the utterance table creation unit 112 selects the next operation time acquired in step S66.
  • the speech table creating means 112 repeats the processing of steps S90 to S92 until it determines in step S89 that the next operation time cannot be selected. If it is determined in step S89 that the next operation time cannot be selected, the speech table creation unit 112 ends the process of the flowchart shown in FIG.
  • FIG. 23 is a screen image example of an utterance table.
  • the utterance table 300 in FIG. 23 includes an operator name, a vertical broken line 301 indicating the position of the display start time and end time, an arrow 302 drawn between the vertical lines 301, a page and an overview 303, an operator and a customer.
  • the utterance frame 304 is displayed.
  • the utterance table 300 can reproduce the utterance selected as described later from the recorded operator and customer utterances by clicking any of the operator and customer utterance frames 304 with a mouse or the like.
  • the elapsed time is not an actual time but a relative time. Switching between real time and relative time can be easily performed.
  • the width of the threshold time used in the reproduction utterance determination process described later is indicated by a vertical broken line 305. Note that the vertical broken line 305 may not be displayed.
  • utterances corresponding to the utterance frame 306 and the utterance frame 307 are selected and reproduced by a reproduction utterance determination process described later. .
  • the utterance table 306 since the utterance frame 306 included in the threshold time range is selected from the vertical broken line 301 indicating the position of the display start time and end time, the utterance table 306 has the same threshold time range as the utterance frame 306. In the example, an included utterance frame 307 is also selected, and utterances corresponding to the utterance frame 306 and the utterance frame 307 are selected and reproduced.
  • FIG. 24 is a screen image diagram of another example of the speech table. 24 is an example in which the utterance frame 307 is selected in the utterance table 300 of FIG.
  • the utterance table 300 in FIG. 24 shows that utterances corresponding to the utterance frame 306 and the utterance frame 307 are selected and reproduced by the reproduction utterance determination process described later.
  • the utterance table 307 since the utterance frame 307 included in the threshold time range is selected from the vertical broken line 301 indicating the position of the display start time and end time, the utterance table 307 has the same threshold time range as the utterance frame 307. An example is shown in which an included utterance frame 306 is also selected, and utterances corresponding to the utterance frame 306 and the utterance frame 307 are selected and reproduced.
  • FIG. 25 is a screen image diagram of another example of the speech table.
  • the utterance table 300 in FIG. 25 includes an operator name, a vertical broken line 301 indicating the position of the display start time and end time, an arrow 302 drawn between the vertical lines 301, and a page And an outline 303 and a frame 304 of an operator and customer utterance.
  • FIG. 25 shows that when an utterance frame 308 is selected, utterances corresponding to the utterance frame 308 and the utterance frame 309 are selected and reproduced by the reproduction utterance determination process described later.
  • the utterance frame 308 included in the threshold time range is selected from the vertical broken line 301 indicating the position of the display start time and end time, the utterance frame 308 has the same threshold time range as the utterance frame 308.
  • the included utterance frame 309 is also selected, and the utterances corresponding to the utterance frame 308 and the utterance frame 309 are selected and reproduced.
  • FIG. 26 is a screen image diagram of another example of the speech table.
  • the utterance table 300 in FIG. 26 is an example in which the utterance frame 309 is selected in the utterance table 300 in FIG.
  • the utterance table 300 in FIG. 26 indicates that utterances corresponding to the utterance frame 308 and the utterance frame 309 are selected and reproduced by the reproduction utterance determination process described later.
  • the utterance table 309 since the utterance frame 309 included in the threshold time range is selected from the vertical broken line 301 indicating the position of the display start time and end time, the utterance table 309 has the same threshold time range as the utterance frame 309. In the example, an included utterance frame 308 is also selected, and utterances corresponding to the utterance frame 308 and the utterance frame 309 are selected and reproduced.
  • the utterance table 300 in FIGS. 23 to 26 determines that the utterances of the operator and the customer included in the threshold time range from the page switching time are related, and one of the utterances of the operator and the customer is selected. Also, by playing both, the utterance selection operation is reduced.
  • FIG. 27 is a flowchart of an example of the playback utterance determination process.
  • the reproduction utterance determining unit 110 acquires the reproduction utterance start time and end time selected from the administrator terminal 3 from the utterance time DB 17.
  • step S102 the reproduction utterance determining unit 110 sets the reproduction utterance start time as the utterance start time and the reproduction utterance end time as the utterance end time.
  • the reproduction utterance determining means 110 obtains the utterance center time from the following equation (1). Note that the utterance time is the time from the utterance start time to the utterance end time.
  • step S103 the reproduction utterance determination unit 110 acquires the page switching operation time closest to the utterance center time from the page switching DB 19.
  • step S104 the reproduction utterance determining unit 110 determines whether or not the page switching time provided with a threshold time width before and after the page switching operation time overlaps with the reproduction utterance.
  • the playback utterance determining means 110 determines in step S105 whether or not the other party's utterance is included between the page switching time start time and the utterance start time.
  • the partner is an operator when the reproduction utterance is the customer's utterance, and a customer when the reproduction utterance is the operator's utterance.
  • step S105 it is determined that the other party's utterance is included between the start time of the page switching time and the utterance start time. If the other party's utterance is included between the start time of the page switching time and the utterance start time, the reproduction utterance determining means 110, in step S106, starts the utterance of the other party whose utterance start time is included in the page switching time. And the process of step S107 is performed. If the other party's utterance is not included between the start time of the page switching time and the utterance start time, the reproduction utterance determining unit 110 performs the process of step S107 without performing the process of step S106.
  • step S107 the reproduction utterance determining unit 110 determines whether or not the other party's utterance is included between the utterance end time and the page switching time end time.
  • step S105 it is determined in step S105 that the other party's speech is included between the speech end time and the page switching time end time. If the utterance of the other party is included between the utterance end time and the end time of the page switching time, the reproduction utterance determining means 110 in step S108, the utterance end time of the other party whose utterance end time is included in the page switching time. Then, the process of the flowchart shown in FIG.
  • step S104 if the page switching time and the reproduction utterance do not overlap, the reproduction utterance determination unit 110 ends the process of the flowchart shown in FIG.
  • FIG. 28 is a functional configuration diagram of an example of an operator terminal.
  • the operator terminal 2 includes information search requesting means 121, information receiving means 122, information display means 123, customer information acquisition means 124, customer information display means 125, voice output means 126, voice input means 127, and call communication means 128.
  • the operator terminal 2 executes information search request means 121, information receiving means 122, information display means 123, customer information acquisition means 124, customer information display means 125, voice output means 126, voice input means. 127 and call communication means 128 are realized.
  • the information search request means 121 requests the server 1 for an information search request.
  • the information receiving unit 122 receives information search results from the server 1.
  • the information display means 123 displays the search result on the display device 71 or the like.
  • Customer information acquisition means 124 receives customer information from server 1.
  • the customer information display means 125 displays customer information on the display device 71 and the like.
  • the sound output means 126 outputs sound through the speaker 91 or the like.
  • the voice input unit 127 inputs voice from the microphone 92 or the like.
  • the call communication means 128 communicates with the customer terminal 4.
  • FIG. 29 is a functional configuration diagram of an example of the administrator terminal.
  • the administrator terminal 3 includes an utterance reproduction unit 131, an utterance selection unit 132, an utterance table reception unit 133, and an utterance table request unit 134.
  • the utterance reproduction means 131 reproduces the reproduction utterance selected by the server 1.
  • the utterance selection unit 132 accepts the selection of the utterance by clicking on either the operator utterance frame 304 of the utterance table 300 or the customer's utterance frame 304 with a mouse or the like.
  • the utterance table receiving unit 133 receives the utterance table from the server 1.
  • the utterance table requesting unit 134 requests the server 1 to display an utterance table.
  • the utterance table display means 135 displays the utterance table 300 as shown in FIGS. 23 to 26 on the display device 71 or the like.
  • FIG. 30 is a flowchart of an example of processing of the administrator terminal.
  • the utterance table requesting unit 134 of the manager terminal 3 requests the server 1 to create an utterance table.
  • the utterance table request unit 134 receives the processing range selection screen 200 from the administrator terminal 3.
  • step S123 the utterance table requesting unit 134 displays the processing range selection screen 200 and allows the administrator to input processing range selection information.
  • the utterance table requesting unit 134 repeats the processing in step S123 until it determines that the processing range selection information has been input from the administrator.
  • the utterance table requesting unit 134 receives the processing range selection information (call ID designation or condition (date range or operator ID) designation) as a server. 1 to send.
  • the utterance table receiving unit 133 repeats the process of step S125 until the data and voice files of the utterance table 300 are received from the server 1.
  • the utterance table display means 135 Upon receiving the data and voice file of the utterance table 300 from the server 1, the utterance table display means 135 displays the utterance table 300 on the display device 71 and the like in step S126. Further, the utterance table display means 135 temporarily stores an audio file.
  • step S127 the utterance selection unit 132 determines whether an utterance has been selected by clicking any one of the frames 304 of the utterance table 300 with a mouse or the like. If it is determined that the utterance has been selected, the utterance selection unit 132 notifies the server 1 of the selected reproduction utterance. In step S129, the utterance reproduction unit 131 repeats the process of step S129 until the utterance start time and utterance end time of the reproduction utterance are received from the server 1.
  • the utterance playback means 131 Upon receiving the utterance start time and utterance end time of the playback utterance from the server 1, the utterance playback means 131 seeks and plays back the playback start position of the audio file in accordance with the utterance start time in step S130. In step S131, the utterance reproduction means 131 stops the reproduction of the audio file when the utterance end time has elapsed, and ends the processing of the flowchart shown in FIG. In step S127, also when the speech selection unit 132 determines that the speech is not selected, the processing of the flowchart shown in FIG.
  • the utterance table 300 as shown in FIGS. 23 to 26 can be created and sent to the administrator terminal 3.
  • the utterance table 300 is linked to a graph showing each utterance time zone of the operator / customer, and shows the objects displayed on the screen of the operator terminal 2 by the operator.
  • the server 1 of the present embodiment it is determined that the utterances of the operator and the customer included in the range of the threshold time from the page switching time are related, and either the utterance of the operator or the customer is selected. Can play both.
  • the administrator uses the utterance table 300 to display the display time zone and the display contents in which information such as a manual is displayed. Therefore, the administrator can predict the content of the utterance to some extent before reproducing the recorded operator and customer utterances.
  • the administrator selects only one of the operator and customer utterances that are likely to be related within the range of the threshold time from the page switching time, and the operator and customer utterances that are likely to be relevant. Since both can be reproduced, the operation of selecting an utterance is reduced.
  • the utterance recording means described in the claims corresponds to the utterance time DB 17.
  • the display recording means corresponds to the page switching DB 19.
  • the content recording means corresponds to the manual DB 18.
  • the providing means corresponds to the utterance table sending means 111.
  • the determining means corresponds to the reproduction utterance determining means 110.
  • the call information corresponds to the utterance table 300.
  • the threshold recording means corresponds to the threshold DB 20.
  • the operator evaluation support program corresponds to the utterance reproduction program 22.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

 顧客及びオペレータの発話を選択する操作を軽減できるオペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラムを記録した記憶媒体を提供することを課題とし、通話における顧客およびオペレータの発話時間を記録する発話記録手段と、オペレータ端末に表示された表示画面を識別する表示画面識別情報に関連づけて、表示画面が表示された表示時間を記録する表示記録手段と、オペレータ端末に表示される表示画面の表示画面識別情報に関連づけて、表示画面の内容を説明する画面内容情報を記録する内容記録手段と、発話記録手段、表示記録手段、および、内容記録手段を参照し、顧客とオペレータの発話時間、オペレータ端末に表示された表示画面の表示時間及び表示画面に対応する画面内容情報を示す通話情報を作成し、管理者端末に通話情報及び顧客とオペレータの発話の音声ファイルを送信する提供手段と、管理者端末から通話情報に含まれる顧客およびオペレータの発話の選択を受け付け、選択された発話がオペレータ端末に表示された表示画面の切り替えタイミングから所定時間内に含まれる場合に、選択された発話と共に所定時間内に含まれる他の発話も再生発話に決定する決定手段とを有することを特徴とする。

Description

オペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラムを記録した記憶媒体
 本発明はコールセンタのオペレータの評価を支援するオペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラムを記録した記憶媒体に関する。
 近年、コールセンタではオペレータの通話品質の向上が重要視されている。オペレータの通話品質の評価は、例えばオペレータを統括するスーパーバイザが、各オペレータの通話品質を評価する。スーパーバイザは、例えば顧客及びオペレータの発話時間帯を示すグラフ(発話時間帯グラフ)から発話の音声ファイルを一つずつ選択して再生することで、それぞれの発話の内容を把握し、オペレータの通話品質を評価していた。また、音声ファイルを音声認識処理させない場合、発話時間帯グラフからオペレータの発話の内容や複数の音声ファイル間の関連を把握することは困難であるため、オペレータの発話の問題個所を予想することも困難である。
 このように、スーパーバイザは発話の音声ファイルを再生しなければオペレータの発話の問題個所を容易に把握することができない。発話の音声ファイルを選択して再生するという点では、例えば、以下のような従来技術が知られている。
 質問と回答の音声ファイルを連動再生する技術は従来から知られている(特許文献1参照)。
 また、音声ファイルの内容を予め認識しないで複数の音声ファイルを再生する技術は、従来から知られている(特許文献2参照)。
特開2006-171579号公報 特開2007-58767号公報
 しかし、例えば上記特許文献1の技術は、質問と回答の音声ファイルを連動再生する従来の技術は音声ファイルの内容を認識し、質問と回答の木構造を作成した上で選択再生を受け付ける為、予め音声ファイルの内容を認識させる認識技術を用意する必要があり、高価な装置が必要となるという問題があった。
 また、例えば上記特許文献2による技術では、音声ファイルの内容を予め認識しないで複数の音声ファイルを再生する従来の技術は、発話毎の音声ファイルを作成しておき、指定された時間帯に含まれる複数の音声ファイルを再生するものであるため、オペレータの発話の問題個所の把握を容易に行えるものではない。
 このように、スーパーバイザはオペレータの顧客応答の問題箇所を容易に見つけることができないという問題があった。また、スーパーバイザはオペレータを適切に指導する必要があるため、オペレータの発話の問題個所を、把握しなければならない。しかし、スーパーバイザは、発話の音声ファイルを再生しない限り、具体的な通話内容が分からない。
 また、発話の音声ファイルを再生しても、スーパーバイザは通話のどこに問題点があったのか分からないので、通話の最初から順次聞いていくしかない。このような方法は非常に時間がかかって非効率的である。そのため、スーパーバイザは通話内容を十分に確認できず、その結果、適切な指導が実施できないことがあった。
 本発明の一実施形態は、顧客及びオペレータの発話の音声ファイルを選択する操作を軽減できるオペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラムを記録した記憶媒体を提供することを課題としている。
 上記課題を解決するため、本発明の一実施形態のオペレータ評価支援装置は、顧客からの電話にオペレータが対応する通話に基づく該オペレータの評価を支援するオペレータ評価支援装置であって、通話における、顧客およびオペレータの発話時間を記録する発話記録手段と、オペレータが使用するオペレータ端末に、前記通話において表示された表示画面を識別する表示画面識別情報に関連づけて、該表示画面が表示された表示時間を記録する表示記録手段と、前記オペレータ端末に表示される表示画面の表示画面識別情報に関連づけて、該表示画面の内容を説明する画面内容情報を記録する内容記録手段と、前記通話について、前記発話記録手段、前記表示記録手段、および、前記内容記録手段を参照し、前記顧客および前記オペレータの発話時間、前記オペレータ端末に表示された表示画面の表示時間、および、該表示画面に対応する画面内容情報を示す通話情報を作成し、オペレータを評価する管理者が使用する管理者端末に前記通話情報、および、該通話情報に含まれる前記顧客および前記オペレータの発話の音声ファイルを送信する提供手段と、前記管理者端末から該通話情報に含まれる前記顧客および前記オペレータの発話の選択を受け付け、選択された前記発話が前記オペレータ端末に表示された表示画面の切り替えタイミングから所定時間内に含まれる場合に、選択された前記発話と共に前記所定時間内に含まれる他の発話も再生発話に決定する決定手段とを有することを特徴とする。
 なお、本発明の一実施形態の構成要素、表現または構成要素の任意の組合せを、方法、装置、システム、コンピュータプログラム、記録媒体、データ構造などに適用したものも本発明の態様として有効である。
 本発明の一実施形態によれば、顧客及びオペレータの発話の音声ファイルを選択する操作を軽減できるオペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラムを記録した記憶媒体を提供可能である。
本実施例のコールセンタシステムの一例の構成図である。 サーバの一例のハードウェア構成図である。 オペレータ端末及び管理者端末の一例のハードウェア構成図である。 サーバの一例の機能構成図である。 顧客DBの一例の構成図である。 質問DBの一例の構成図である。 FAQDBの一例の構成図である。 製品DBの一例の構成図である。 オペレータDBの一例の構成図である。 音声DBの一例の構成図である。 発話時刻DBの一例の構成図である。 マニュアルDBの一例の構成図である。 ページ切り替えDBの一例の構成図である。 閾値DBの一例の構成図である。 通話プログラムによる処理の一例のフローチャートである。 録音処理の一例のフローチャートである。 オペレータ発話確認処理の一例のフローチャートである。 顧客発話確認処理の一例のフローチャートである。 情報検索プログラムによる処理の一例のフローチャートである。 発話再生プログラムによる処理の一例のフローチャートである。 処理範囲選択画面の一例のイメージ図である。 発話表作成処理の一例のフローチャートである。 発話表の一例の画面イメージ図である。 発話表の他の例の画面イメージ図である。 発話表の他の例の画面イメージ図である。 発話表の他の例の画面イメージ図である。 再生発話決定処理の一例のフローチャートである。 オペレータ端末の一例の機能構成図である。 管理者端末の一例の機能構成図である。 管理者端末の処理の一例のフローチャートである。
 1  サーバ
 2  オペレータ端末
 3  管理者端末
 4  顧客端末
 11  顧客DB
 12  質問DB
 13  FAQDB
 14  製品DB
 15  オペレータDB
 16  音声DB
 17  発話時刻DB
 18  マニュアルDB
 19  ページ切り替えDB
 20  閾値DB
 21  通話プログラム
 22  発話再生プログラム
 23  情報検索プログラム
 31  オペレータ用プログラム
 41  管理者端末用プログラム
 51  入力装置
 52  表示装置
 53  本体
 61  主記憶装置
 62  演算処理装置
 63  インターフェース装置
 64  記録媒体読取装置
 65  補助記憶装置
 66  記録媒体
 67  バス
 70  本体
 71  ディスプレイ装置
 72  ポインティングデバイス
 73  キーボード
 74  ヘッドセット
 81  主記憶装置
 82  CPU
 83  補助記憶装置
 84  画像処理部
 85  I/O処理部
 86  音声処理部
 87  ネットワークカード
 88  内部バス
 91  スピーカ
 92  マイク
 101  顧客情報送信手段
 102  顧客情報取得手段
 103  呼接続手段
 104  オペレータ決定手段
 105  呼受信手段
 106  顧客音声記録手段
 107  OP音声記録手段
 108  音声切り分け手段
 109  発話音声送信手段
 110  再生発話決定手段
 111  発話表送付手段
 112  発話表作成手段
 113  発話表依頼受付手段
 114  情報送信手段
 115  情報検索手段
 116  情報検索受付手段
 121  情報検索依頼手段
 122  情報受信手段
 123  情報表示手段
 124  顧客情報取得手段
 125  顧客情報表示手段
 126  音声出力手段
 127  音声入力手段
 128  呼通信手段
 131  発話再生手段
 132  発話選択手段
 133  発話表受信手段
 134  発話表依頼手段
 135  発話表表示手段
 200  処理範囲選択画面
 300  発話表
 301、305  縦破線
 302  矢印
 303  ページ及び概要
 304-309  発話の枠
 次に、本発明を実施するための最良の形態を、以下の実施例に基づき図面を参照しつつ説明していく。
 図1は本実施例のコールセンタシステムの一例の構成図である。図1のコールセンタシステムはサーバ1、オペレータ端末2、管理者端末3、顧客端末4を有する構成である。なお、サーバ1はオペレータ評価支援装置の一例である。
 サーバ1はオペレータ端末2、管理者端末3、顧客端末4とインターネットやLAN(Local Area Network)、公衆網などの所定のネットワークを介して接続されている。
 サーバ1は顧客DB11、質問DB12、FAQDB13、製品DB14、オペレータDB15、音声DB16、発話時刻DB17、マニュアルDB18、ページ切り替えDB19、閾値DB20、通話プログラム21、OP(オペレータ)評価プログラム22、情報検索プログラム23を有する。また、オペレータ端末2はオペレータ用プログラム31を有する。管理者端末3は管理者端末用プログラム41を有する。管理者端末3は管理者の一例としてのスーパーバイザが操作する。
 サーバ1は通話プログラム21、発話再生プログラム22及び情報検索プログラム23を実行する。サーバ1は通話プログラム21を実行することで顧客端末4とオペレータ端末2との接続、通話の録音、オペレータ端末2への顧客の情報の送信などを行う。
 また、サーバ1は発話再生プログラム22を実行することで、スーパーバイザがオペレータを評価する為の情報の作成、スーパーバイザがオペレータを評価する為の情報の管理者端末3への送信などを行う。
 また、サーバ1は情報検索プログラム23を実行することで、マニュアルDB18等からの情報の検索、オペレータ端末2への検索結果の送信、オペレータ端末2に送信した情報の内容、オペレータ端末2での情報の表示及び非表示の時刻の記録などを行う。
 オペレータ端末2はオペレータ用プログラム31を実行する。オペレータ端末2はオペレータ用プログラム31を実行することで、サーバ1から受信した顧客の情報の表示、マニュアルDB18等からの情報の検索結果の表示などを行う。
 管理者端末3は管理者端末用プログラム41を実行する。管理者端末3は管理者端末用プログラム41を実行することで、サーバ1から受信したスーパーバイザがオペレータを評価する為の情報の表示などを行う。なお、顧客端末4は電話機や電話機能を有するPCなど、電話機能を有する機器であればよい。
 顧客DB11は顧客に関する情報を記録する。質問DB12は顧客からの問い合わせに関する情報を記録する。FAQDB13は頻繁に尋ねられる質問であるFAQ(Frequently Asked Questions)に関する情報を記録する。製品DB14は製品に関する情報を記録する。
 オペレータDB15はオペレータの状況(通話中、空き等)に関する情報を記録する。音声DB16は音声ファイルに関する情報を記録する。発話時刻DB17は顧客及びオペレータの発話のタイミングなど、顧客及びオペレータの発話に関する情報を記録する。
 マニュアルDB18はマニュアルのセクション(ページ)毎の画面データや標準所要時間を記録する。ページ切り替えDB19はオペレータによるマニュアルの表示又は非表示の操作に関する情報を記録する。閾値DB20は後述の閾値時間を記録する。
 図2はサーバの一例のハードウェア構成図である。図2に示すサーバ1は、入力装置51、表示装置52、本体53を有する。本体53はバス67で相互に接続されている主記憶装置61、演算処理装置62、インターフェース装置63、記録媒体読取装置64及び補助記憶装置65を有する。また、バス67には入力装置51及び表示装置52が接続されている。
 バス67で相互に接続された入力装置51、表示装置52、主記憶装置61、演算処理装置62、インターフェース装置63、記録媒体読取装置64及び補助記憶装置65は、演算処理装置62による管理下で相互にデータの送受を行うことができる。演算処理装置62はサーバ1全体の動作制御を司る中央処理装置である。
 インターフェース装置63はオペレータ端末2、管理者端末3、顧客端末4などからのデータを受信し、そのデータの内容を演算処理装置62に渡す。さらにインターフェース装置63は演算処理装置62からの指示に応じてオペレータ端末2、管理者端末3、顧客端末4などにデータを送信する。
 補助記憶装置65には、オペレータ評価支援装置と同様の機能をサーバ1に発揮させるプログラムの一部として、少なくともオペレータ評価支援装置における処理をコンピュータに実行させるオペレータ評価支援プログラムが記憶されている。オペレータ評価支援プログラムには、通話プログラム21、発話再生プログラム22及び情報検索プログラム23が含まれる。
 そして、演算処理装置62がオペレータ評価支援プログラムを補助記憶装置65から読み出して実行することで、サーバ1はオペレータ評価支援装置として機能するようになる。オペレータ評価支援プログラムは演算処理装置62とアクセス可能な主記憶装置61に格納されていても良い。入力装置51は演算処理装置62の管理下でデータの入力を受付ける。オペレータ評価支援プログラムはサーバ1が読み取り可能な記録媒体66に記録しておくことができる。
 サーバ1で読み取り可能な記録媒体66には、磁気記録媒体、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録媒体には、HDD、フレキシブルディスク(FD)、磁気テープ(MT)などがある。光ディスクには、DVD(Digital Versatile Disc)、DVD-RAM、CD-ROM(Compact Disc - Read Only Memory)、CD-R(Recordable)/RW(ReWritable)などがある。また、光磁気記録媒体には、MO(Magneto - Optical disk)などがある。
 オペレータ評価支援プログラムを流通させる場合には、例えば、オペレータ評価支援プログラムが記録されたDVD、CD-ROMなどの可搬型の記録媒体66が販売されることが考えられる。
 オペレータ評価支援プログラムを実行するサーバ1は、例えば記録媒体読取装置64がオペレータ評価支援プログラムを記録した記録媒体66から、オペレータ評価支援プログラムを読み出す。演算処理装置62は、読み出されたオペレータ評価支援プログラムを主記憶装置61若しくは補助記憶装置65に格納する。サーバ1は自己の記憶装置である主記憶装置61若しくは補助記憶装置65からオペレータ評価支援プログラムを読み取り、オペレータ評価支援プログラムに従った処理を実行する。
 図3はオペレータ端末及び管理者端末の一例のハードウェア構成図である。オペレータ端末2及び管理者端末3のハードウェア構成は同様である。そこで、ここではオペレータ端末2のハードウェア構成について説明する。管理者端末3のハードウェア構成についての説明は省略する。
 図3のオペレータ端末2は、本体70、ディスプレイ装置71、ポインティングデバイス72、キーボード73、ヘッドセット74を有する。本体70は内部バス88で相互に接続されている主記憶装置81、CPU82、補助記憶装置83、画像処理部84、I/O処理部85、音声処理部86、ネットワークカード87を有する。ヘッドセット74はスピーカ91、マイク92を有する。
 内部バス88で相互に接続されている主記憶装置81、補助記憶装置83、画像処理部84、I/O処理部85、音声処理部86、ネットワークカード87はCPU82による管理下で相互にデータの送受を行うことができる。CPU82はオペレータ端末2全体の動作制御を司る中央処理装置である。
 画像処理部84はディスプレイ装置71での画像の表示に必要な各種処理を行うものである。I/O処理部85はポインティングデバイス72及びキーボード73とのデータ入出力を処理する。音声処理部86はヘッドセット74のスピーカ91及びマイク92との間でやり取りする音声データを処理する。
 ネットワークカード87はサーバ1などからのデータを受信し、そのデータの内容をCPU82に渡す。さらに、ネットワークカード87はCPU82からの指示に応じてサーバ1などにデータを送信する。
 オペレータ端末2には例えばオペレータ用プログラム31がインストールされている。オペレータ端末2はオペレータ用プログラム31を実行する。主記憶装置81には、オペレータ端末2を動作させるプログラムの一部として、少なくともオペレータ用プログラム31が記憶されている。CPU82はオペレータ用プログラム31を主記憶装置81から読み出して実行する。
 オペレータ用プログラム31はオペレータ端末2が読み取り可能な記録媒体に記録しておくことができる。オペレータ用プログラム31を流通させる場合には例えばオペレータ用プログラム31が記録されたDVD、CD-ROM等の可搬型の記録媒体を販売することが考えられる。インターネット上にあるアプリ配布機構を用いる事も考えられる。
 オペレータ用プログラム31を実行するオペレータ端末2は、オペレータ用プログラム31を記録した記録媒体からオペレータ用プログラム31を読み出す。CPU82は、オペレータ用プログラム31を主記憶装置81に格納する。CPU82は、主記憶装置81からオペレータ用プログラム31を読み取り、オペレータ用プログラム31に従った処理を実行する。
 図4はサーバの一例の機能構成図である。サーバ1は、顧客DB11、質問DB12、FAQDB13、製品DB14、オペレータDB15、音声DB16、発話時刻DB17、マニュアルDB18、ページ切り替えDB19、閾値DB20を有する。
 サーバ1は通話プログラム21を実行することで、顧客情報送信手段101、顧客情報取得手段102、呼接続手段103、オペレータ決定手段104、呼受信手段105、顧客音声記録手段106、OP音声記録手段107、音声切り分け手段108を実現する。サーバ1は発話再生プログラム22を実行することで、発話音声送信手段109、再生発話決定手段110、発話表送付手段111、発話表作成手段112、発話表依頼受付手段113を実現する。サーバ1は情報検索プログラム23を実行することで、情報送信手段114、情報検索手段115、情報検索受付手段116を実現する。
 顧客情報送信手段101は顧客の情報をオペレータ端末2に送信する。顧客情報取得手段102は顧客DB11から顧客の情報を取得する。呼接続手段103はオペレータ端末2と顧客端末4とを接続する。オペレータ決定手段104は通話中でないオペレータをオペレータDB15から決定する。呼受信手段105は顧客端末4からの呼を受信する。
 顧客音声記録手段106は顧客の音声データを音声ファイルに書き込む。顧客音声記録手段106は顧客の発話開始時刻、発話終了時刻を発話時刻DB17に書き込む。OP音声記録手段107は、オペレータの音声データを音声ファイルに書き込む。OP音声記録手段107は、オペレータの発話開始時刻、発話終了時刻を発話時刻DB17に書き込む。
 音声切り分け手段108は顧客の音声データとオペレータの音声データとを切り分ける。例えば音声切り分け手段108は例えば音声データの右チャネルを顧客の音声データとして切り分け、音声データの左チャネルをオペレータの音声データとして切り分ける。
 発話音声送信手段109は管理者端末3に音声ファイルを送信する。再生発話決定手段110は再生する発話を決定して管理者端末3に通知する。発話表送付手段111は発話表を管理者端末3に送信する。発話表作成手段112は発話表を作成する。発話表依頼受付手段113は管理者端末3から発話表表示依頼を受ける。
 情報送信手段114は、FAQDB13、製品DB14、マニュアルDB18から検索した情報をオペレータ端末2に送信する。情報検索手段115はFAQDB13、製品DB14、マニュアルDB18から情報を検索する。情報検索受付手段116はオペレータ端末2から情報の検索要求を受け付ける。
 図5は顧客DBの一例の構成図である。顧客DB11はデータ項目として顧客ID、電話番号、顧客、住所、購入製品型番、購入店を含む。
 データ項目「顧客ID」は顧客を一意に識別するための識別情報である。データ項目「電話番号」は顧客の電話番号である。データ項目「顧客」は顧客の名前である。データ項目「住所」は顧客の住所である。データ項目「購入製品型番」は顧客が購入した製品の型番である。データ項目「購入店」は顧客が製品を購入した購入店である。
 図6は質問DBの一例の構成図である。質問DB12はデータ項目としてコールID、問い合わせ日、問い合わせ時刻、問い合わせ顧客、オペレータIDを含む。
 データ項目「コールID」は呼を一意に識別するための識別情報である。データ項目「問い合わせ日」は顧客からの呼を受信した日である。データ項目「問い合わせ時刻」は顧客からの呼を受信した時刻である。データ項目「問い合わせ顧客」は問い合わせを行った顧客の顧客IDである。データ項目「オペレータID」は顧客からの問い合わせに対応したオペレータのオペレータIDである。
 図7はFAQDBの一例の構成図である。FAQDB13はデータ項目として製品カテゴリ、シリーズ、質問ジャンル、回答を含む。FAQDB13は製品の製品カテゴリ、シリーズ、質問ジャンル毎に、回答のテキスト文を記録している。
 図8は製品DBの一例の構成図である。製品DB14はデータ項目として製品カテゴリ、シリーズ、発売年、マニュアルデータを含む。製品DB14は製品の製品カテゴリ、シリーズ、発売年毎に、マニュアルデータを記録している。マニュアルデータは、例えばpdf形式の画像ファイルを一意に識別するためのファイル名である。
 図9はオペレータDBの一例の構成図である。オペレータDB15はデータ項目としてオペレータID、オペレータ名、状況を含む。オペレータDB15は、オペレータ毎に通話中又は空き等の状況を記録している。データ項目「状況」は、オペレータが顧客からの問い合わせに対応できるかを示す情報である。
 図10は、音声DBの一例の構成図である。音声DB16は、データ項目としてコールID、音声ファイル名、左チャネル発話者、右チャネル発話者を含む。音声DB16はコールID毎に音声ファイル名、左チャネル発話者、右チャネル発話者を記録している。
 データ項目「音声ファイル名」はコールIDに対応する呼の通話を録音した音声ファイルのファイル名である。データ項目「左チャネル発話者」は左チャネルに書き込まれた音声データの発話者である。また、データ項目「右チャネル発話者」は右チャネルに書き込まれた音声データの発話者である。
 図11は発話時刻DBの一例の構成図である。発話時刻DB17は、データ項目としてコールID、時刻、内容を含む。発話時刻DB17は、オペレータの発話開始の時刻、オペレータの発話終了の時刻、顧客の発話開始の時刻、顧客の発話終了の時刻をコールIDと対応付けて記録している。
 図12は、マニュアルDBの一例の構成図である。マニュアルDB18はデータ項目として、マニュアル名、ページ、画面データを含む。データ項目「マニュアル名」はマニュアルの名称である。データ項目「ページ」は、マニュアルのページである。データ項目「画面データ」はマニュアルのページの画面データである。画面データはテキスト検索ができるデータ形式(pdf形式など)が望ましい。
 図13はページ切り替えDBの一例の構成図である。ページ切り替えDB19はデータ項目として、時刻、コールID、概要、ページ、操作を含む。ページ切り替えDB19は、概要及びページで表される情報の表示、非表示の操作を、コールID及び時刻と対応付けて記録している。
 図14は閾値DBの一例の構成図である。閾値DB20はデータ項目として閾値時間を含む。閾値DB20は後述する処理で使用する閾値を記録している。
 図15は通話プログラムによる処理の一例のフローチャートである。ステップS1において、サーバ1の呼受信手段105は顧客端末4からの呼を受信するまで待機する。顧客端末4からの呼を受信すると、呼受信手段105はステップS2においてコールIDの生成を行う。
 ステップS3において、オペレータ決定手段104はオペレータDB15を参照して、データ項目「状況」が通話中でない(空きである)オペレータが存在するか否かを判定する。通話中でないオペレータが存在しなければ、オペレータ決定手段104はステップS4において、呼を受信した顧客を待ち行列に入れる。
 そして、通話中でないオペレータが存在すると判定できるまで、オペレータ決定手段104は待機する。通話中でないオペレータが存在すると判定できると、呼接続手段103は通話中でないオペレータを一人選択し、選択したオペレータのオペレータ端末2と顧客端末4とを接続する。
 ステップS6において、オペレータ決定手段104はオペレータDB15の選択したオペレータのデータ項目「状況」を通話中にする。そして、ステップS7において、呼接続手段103は通話録音を開始する。ステップS8の録音処理は通話録音が開始されたあと実行される。
 また、通話録音が開始されると、ステップS9において、顧客情報取得手段102は顧客DB11から呼の電話番号に基づいて顧客の情報を取得する。顧客情報送信手段101は顧客の情報をオペレータ端末2に送信する。
 ステップS10において、オペレータ決定手段104は通話が終了するまで待機する。通話が終了すると、ステップS11において、オペレータ決定手段104は終了した通話に関するレコードを質問DB12へ追加する。オペレータ決定手段104はステップS12において、オペレータDB15の通話が終了したオペレータのデータ項目「状況」を空きにする。ステップS13において、呼接続手段103は音声ファイルをクローズする。ステップS14において、呼接続手段103は音声DB16に、終了した通話の音声ファイルに関するレコードを音声ファイルDB16に登録する。
 図16は録音処理の一例のフローチャートである。呼接続手段103はステップS21において、音声ファイルをオープンする。ステップS22において、顧客音声記録手段106は顧客の発話状態を未発話とする。OP音声記録手段107はオペレータの発話状態を未発話とする。ステップS23において、顧客音声記録手段106及びOP音声記録手段107は通話が終了するまでステップS24~S26の処理を繰り返す。
 ステップS24において、顧客音声記録手段106は音声切り分け手段108が切り分けた顧客の音声データのうち、20ミリ秒分の顧客の音声データを受信して音声ファイルに書き込む。OP音声記録手段107は音声切り分け手段108が切り分けたオペレータの音声データのうち、20ミリ秒分のオペレータの音声データを受信して音声ファイルに書き込む。
 ステップS25において、OP音声記録手段107は後述のオペレータ発話確認処理を行い、オペレータの発話開始時刻、発話終了時刻を確認して発話時刻DB17に書き込む。また、ステップS26において、顧客音声記録手段106は後述の顧客発話確認処理を行い、顧客の発話開始時刻、発話終了時刻を確認して発話時刻DB17に書き込む。
 図17はオペレータ発話確認処理の一例のフローチャートである。ステップS31において、OP音声記録手段107は20ミリ秒分のオペレータの音声データの最大音量(v1)を取得する。
 ステップS32において、OP音声記録手段107はオペレータの音声データの最大音量(v1)と無音と判断する音量(v0)とを比較し、v1>v0であるか否かを判定する。
 v1>v0であると判定すると、OP音声記録手段107はステップS33においてオペレータの発話状態が未発話か否かを判定する。オペレータの発話状態が未発話であれば、OP音声記録手段107はステップS34において現在時刻をオペレータの発話開始の時刻として発話時刻DB17に記録する。
 OP音声記録手段107はステップS35において、オペレータの発話状態を発話中にしたあと、図17のオペレータ発話確認処理を終了する。OP音声記録手段107は、ステップS33においてオペレータの発話状態が未発話でなければ図17のオペレータ発話確認処理を終了する。
 v1>v0でないと判定すると、OP音声記録手段107はステップS36においてオペレータの発話状態が発話中か否かを判定する。オペレータの発話状態が発話中であれば、OP音声記録手段107はステップS37において現在時刻をオペレータの発話終了の時刻として発話時刻DB17に記録する。
 OP音声記録手段107はステップS38において、オペレータの発話状態を未発話にしたあと、図17のオペレータ発話確認処理を終了する。OP音声記録手段107は、ステップS36においてオペレータの発話状態が発話中でなければ図17のオペレータ発話確認処理を終了する。
 図18は顧客発話確認処理の一例のフローチャートである。ステップS41において、顧客音声記録手段106は20ミリ秒分の顧客の音声データの最大音量(v1)を取得する。
 ステップS42において、顧客音声記録手段106は顧客の音声データの最大音量(v1)と無音と判断する音量(v0)とを比較し、v1>v0であるか否かを判定する。
 v1>v0であると判定すると、顧客音声記録手段106はステップS43において顧客の発話状態が未発話か否かを判定する。顧客音声記録手段106は顧客の発話状態が未発話であれば、ステップS44において現在時刻を顧客の発話開始の時刻として発話時刻DB17に記録する。
 顧客音声記録手段106はステップS45において、顧客の発話状態を発話中にしたあと、図18の顧客発話確認処理を終了する。顧客音声記録手段106は、ステップS43において顧客の発話状態が未発話でなければ図18の顧客発話確認処理を終了する。
 v1>v0でないと判定すると、顧客音声記録手段106はステップS46において顧客の発話状態が発話中か否かを判定する。顧客音声記録手段106は顧客の発話状態が発話中であれば、ステップS47において現在時刻を顧客の発話終了の時刻として発話時刻DB17に記録する。
 顧客音声記録手段106はステップS48において、顧客の発話状態を未発話にしたあと、図18の顧客発話確認処理を終了する。ステップS46において顧客音声記録手段106は顧客の発話状態が発話中でなければ図18の顧客発話確認処理を終了する。
 図19は情報検索プログラムによる処理の一例のフローチャートである。情報検索受付手段116はステップS51において、マニュアル、FAQ、製品情報の表示要求をオペレータ端末2から受信したか否かを判定する。
 表示要求を受信すると、情報検索手段115はステップS52において表示要求に沿った情報を検索する。例えばマニュアルの表示要求を受信すると、情報検索手段115はマニュアルDB18から表示要求に沿った情報を検索する。情報送信手段114は表示要求に沿った情報をオペレータ端末2に送信する。
 ステップS53において、情報検索手段115はオペレータ端末2に送信した表示要求に沿った情報のレコードをページ切り替えDB19に記録したあと、図19のフローチャートの処理を終了する。なお、表示要求に沿った情報のレコードには表示要求があった時刻と、表示要求があった対象とが含まれる。図13のページ切り替えDB19では表示要求があった対象を、概要とページとで表している。
 一方、表示要求を受信しなければ、ステップS54において、情報検索手段115はオペレータ端末2から、マニュアル、FAQ、製品情報の非表示要求を受信したか否かを判定する。非表示要求を受信すると、情報検索手段115はステップS55において、非表示要求に沿った情報のレコードをページ切り替えDB19に記録したあと図19のフローチャートの処理を終了する。
 なお、非表示要求に沿った情報のレコードには非表示要求があった時刻と、非表示要求があった対象とが含まれる。図13のページ切り替えDB19では非表示要求があった対象を、概要とページとで表している。情報検索手段115は非表示要求を受信しなければ、図19のフローチャートの処理を終了する。
 図20は発話再生プログラムによる処理の一例のフローチャートである。発話表依頼受付手段113はステップS61において、管理者端末3から発話表表示依頼を受けるまで待機する。管理者端末3から発話表表示依頼を受けると、発話表依頼受付手段113はステップS62において、後述の処理範囲選択画面を管理者端末3に送信する。
 処理範囲選択画面を受信した管理者端末3は後述の処理範囲選択画面を表示して管理者に処理範囲の選択情報を入力させる。管理者端末3は管理者から入力された処理範囲の選択情報をサーバ1に送信する。ステップS63において、発話表依頼受付手段113は処理範囲の選択情報を管理者端末3から受信する。
 ステップS64において、発話表作成手段112は管理者端末3から受信した処理範囲の選択情報に対応する最初のコールIDのレコードを質問DB12から取得する。
 ステップS65において、発話表作成手段112は質問DB12から取得したレコードに含まれるオペレータIDを用いて、オペレータDB15からオペレータ名を取得する。
 ステップS66において、発話表作成手段112は質問DB12から取得したレコードに含まれるコールIDを用いて、ページ切り替えDB19から表示要求又は非表示要求のあった時刻(操作時刻)を取得する。
 ステップS67において、発話表作成手段112は質問DB12から取得したレコードに含まれるコールIDを用いて、発話時刻DB17から各発話の開始時刻及び終了時刻を取得する。
 ステップS68において、発話表作成手段112は、後述する発話表作成処理を行う。発話表送付手段111はステップS69において、発話表表示依頼を受けた管理者端末3へ発話表を送信する。
 ステップS70において、発話音声送信手段109は、質問DB12から取得したレコードに含まれるコールIDを用いて、音声DB16から音声ファイル名を取得して、その音声ファイル名の音声ファイルを管理者端末3に送信する。
 ステップS71において、再生発話決定手段110は管理者端末3から再生発話の選択を受け付けたか否かを判定する。管理者端末3から再生発話の選択を受け付けると、再生発話決定手段110は、ステップS72において後述の再生発話決定処理を行う。なお、管理者端末3から再生発話の選択を受け付けなければ、再生発話決定手段110は、後述の再生発話決定処理を行わない。
 ステップS73において、発話表作成手段112は管理者端末3から受信した処理範囲の選択情報に対応する次のコールIDのレコードが質問DB12にあるか否かを判定する。
 次のコールIDのレコードがあれば、発話表作成手段112はステップS64において、次のコールIDのレコードを質問DB12から取得したあと、ステップS65以降の処理を行う。次のコールIDのレコードが無ければ、発話表作成手段112は図20のフローチャートの処理を終了する。
 図21は処理範囲選択画面の一例のイメージ図である。処理範囲選択画面200は管理者に処理範囲の選択情報を入力させる為のものである。処理範囲選択画面200では処理範囲の選択情報として、コールIDの指定、又は、条件(日付範囲又はオペレータID)の指定を行わせる。
 図22は発話表作成処理の一例のフローチャートである。発話表作成手段112はステップS81において、ステップS65で取得したオペレータ名を発話表に描画する。ステップS82において、発話表作成手段112はステップS67で開始時刻及び終了時刻を取得した発話を一つ選択する。
 ステップS83において、発話表作成手段112はステップS67で開始時刻及び終了時刻を取得した発話を選択できないと判定するまで、ステップS84~S87の処理を繰り返す。ステップS67で開始時刻及び終了時刻を取得した発話を一つ選択できると、発話表作成手段112はステップS84において発話の開始時刻より表示位置を決定する。
 また、ステップS85において、発話表作成手段112は発話の時間(発話の終了時刻-発話の開始時刻)に基づき、発話表上で発話を示す箱(発話の枠)の大きさを決定する。ステップS86において、発話表作成手段112は発話の枠を発話表に描画する。ステップS87において、発話表作成手段112はステップS67で開始時刻及び終了時刻を取得した次の発話を選択する。
 ステップS83において、開始時刻及び終了時刻を取得した発話を一つ選択できなかったと判定すると、発話表作成手段112はステップS88の処理を行う。ステップS88において、発話表作成手段112はステップS66で取得した操作時刻を一つ選択する。
 操作時刻が選択できれば、発話表作成手段112はステップS90において表示要求のあった時刻(表示の開始時刻)及び非表示要求のあった時刻(表示の終了時刻)の位置に縦破線を描画する。
 ステップS91において、発話表作成手段112はステップS90で描画した縦破線の間に矢印を描画し、ページ、概要を描画する。ステップS92において、発話表作成手段112はステップS66で取得した次の操作時刻を選択する。発話表作成手段112はステップS89において、次の操作時刻を選択できないと判定するまでステップS90~S92の処理を繰り返す。ステップS89において、次の操作時刻を選択できなかったと判定すると、発話表作成手段112は図22に示すフローチャートの処理を終了する。
 図23は発話表の一例の画面イメージ図である。図23の発話表300は、オペレータ名と、表示の開始時刻及び終了時刻の位置を示す縦破線301と、縦線301の間に描画された矢印302と、ページ及び概要303と、オペレータ及び顧客の発話の枠304とが表示されている。
 発話表300は、例えばオペレータ及び顧客の発話の枠304の何れかをマウス等でクリックすることにより、録音されたオペレータ及び顧客の発話から後述のように選択された発話を再生できる。なお、図23の発話表300は経過時間が実時刻でなく相対時間となっている。実時刻と相対時間との切り替えは容易に行うことができる。
 図23の発話表300では後述の再生発話決定処理で使用する閾値時間の幅を縦破線305で示している。なお、縦破線305は表示しなくてもよい。また、図23の発話表300では発話の枠306を選択すると、後述の再生発話決定処理により発話の枠306と発話の枠307とに対応する発話が選択されて再生されることを表している。
 図23の発話表300では、表示の開始時刻及び終了時刻の位置を示す縦破線301から閾値時間の範囲に含まれる発話の枠306が選択されたため、発話の枠306と同じ閾値時間の範囲に含まれる発話の枠307も選択され、発話の枠306と発話の枠307とに対応する発話が選択されて再生される例を示している。
 図24は発話表の他の例の画面イメージ図である。図24の発話表300は図23の発話表300において、発話の枠307を選択した例である。図24の発話表300は、後述の再生発話決定処理により発話の枠306と発話の枠307とに対応する発話が選択されて再生されることを表している。
 図24の発話表300では、表示の開始時刻及び終了時刻の位置を示す縦破線301から閾値時間の範囲に含まれる発話の枠307が選択されたため、発話の枠307と同じ閾値時間の範囲に含まれる発話の枠306も選択され、発話の枠306と発話の枠307とに対応する発話が選択されて再生される例を示している。
 図25は発話表の他の例の画面イメージ図である。図25の発話表300も図23の発話表300と同様、オペレータ名と、表示の開始時刻及び終了時刻の位置を示す縦破線301と、縦線301の間に描画された矢印302と、ページ及び概要303と、オペレータ及び顧客の発話の枠304とが表示されている。
 図25の発話表300では発話の枠308を選択すると、後述の再生発話決定処理により発話の枠308と発話の枠309とに対応する発話が選択されて再生されることを表している。
 図25の発話表300では、表示の開始時刻及び終了時刻の位置を示す縦破線301から閾値時間の範囲に含まれる発話の枠308が選択されたため、発話の枠308と同じ閾値時間の範囲に含まれる発話の枠309も選択され、発話の枠308と発話の枠309とに対応する発話が選択されて再生される例を示している。
 図26は発話表の他の例の画面イメージ図である。図26の発話表300は図25の発話表300において、発話の枠309を選択した例である。図26の発話表300は、後述の再生発話決定処理により発話の枠308と発話の枠309とに対応する発話が選択されて再生されることを表している。
 図26の発話表300では、表示の開始時刻及び終了時刻の位置を示す縦破線301から閾値時間の範囲に含まれる発話の枠309が選択されたため、発話の枠309と同じ閾値時間の範囲に含まれる発話の枠308も選択され、発話の枠308と発話の枠309とに対応する発話が選択されて再生される例を示している。
 図23~図26の発話表300は、ページ切り替え時刻から閾値時間の範囲に含まれるオペレータ及び顧客の発話について、関連があると判断し、オペレータ及び顧客の発話のどちらか一方が選択されたとしても両方を再生することにより、発話の選択操作を軽減している。
 図27は再生発話決定処理の一例のフローチャートである。再生発話決定手段110はステップS101において、管理者端末3から選択された再生発話の開始時刻と終了時刻とを発話時刻DB17から取得する。
 ステップS102において、再生発話決定手段110は再生発話の開始時刻を発話開始時刻、再生発話の終了時刻を発話終了時刻とする。再生発話決定手段110は以下の式(1)から発話中心時刻を求める。なお、発話時間は発話開始時刻から発話終了時刻までの時間である。
Figure JPOXMLDOC01-appb-M000001
 ステップS103において、再生発話決定手段110はページ切り替えDB19から発話中心時刻に最も近い時刻のページ切り替え操作時刻を取得する。ステップS104において、再生発話決定手段110はページ切り替え操作時刻の前後に閾値時間の幅を設けたページ切り替え時間と、再生発話とが重複しているか否かを判定する。
 ページ切り替え時間と再生発話とが重複していれば、再生発話決定手段110はステップS105において、ページ切り替え時間の開始時刻と発話開始時刻との間に相手の発話が含まれているか否かを判定する。ここで相手とは再生発話が顧客の発話であるときにオペレータであり、再生発話がオペレータの発話であるときに顧客である。
 図24及び図26の発話表300ではステップS105において、ページ切り替え時間の開始時刻と発話開始時刻との間に相手の発話が含まれていると判定されることになる。ページ切り替え時間の開始時刻と発話開始時刻との間に相手の発話が含まれていれば、再生発話決定手段110はステップS106において、発話開始時刻をページ切り替え時間に含まれる相手の発話の開始時刻に変更し、ステップS107の処理を行う。ページ切り替え時間の開始時刻と発話開始時刻との間に相手の発話が含まれていなければ、再生発話決定手段110はステップS106の処理を行わずにステップS107の処理を行う。
 ステップS107において、再生発話決定手段110は発話終了時刻からページ切り替え時間の終了時刻との間に相手の発話が含まれているか否かを判定する。
 図23及び図25の発話表300ではステップS105において、発話終了時刻とページ切り替え時間の終了時刻との間に相手の発話が含まれていると判定されることになる。発話終了時刻とページ切り替え時間の終了時刻との間に相手の発話が含まれていれば、再生発話決定手段110はステップS108において、発話終了時刻をページ切り替え時間に含まれる相手の発話の終了時刻に変更したあと図27に示すフローチャートの処理を終了する。
 発話終了時刻とページ切り替え時間の終了時刻との間に相手の発話が含まれていなければ、再生発話決定手段110はステップS108の処理を行わずに図27に示すフローチャートの処理を終了する。また、ステップS104において、ページ切り替え時間と再生発話とが重複していなければ、再生発話決定手段110は図27に示すフローチャートの処理を終了する。
 図28はオペレータ端末の一例の機能構成図である。オペレータ端末2は、情報検索依頼手段121、情報受信手段122、情報表示手段123、顧客情報取得手段124、顧客情報表示手段125、音声出力手段126、音声入力手段127及び呼通信手段128を有する。
 オペレータ端末2はオペレータ用プログラム31を実行することで、情報検索依頼手段121、情報受信手段122、情報表示手段123、顧客情報取得手段124、顧客情報表示手段125、音声出力手段126、音声入力手段127及び呼通信手段128を実現する。
 情報検索依頼手段121は情報の検索要求をサーバ1に依頼する。情報受信手段122は情報の検索結果をサーバ1から受信する。情報表示手段123は検索結果をディスプレイ装置71等に表示する。
 顧客情報取得手段124はサーバ1から顧客の情報を受信する。顧客情報表示手段125は顧客の情報をディスプレイ装置71等に表示する。音声出力手段126は音声をスピーカ91等で出力する。音声入力手段127は音声をマイク92等から入力する。呼通信手段128は顧客端末4と通信を行う。
 図29は管理者端末の一例の機能構成図である。管理者端末3は、発話再生手段131、発話選択手段132、発話表受信手段133、発話表依頼手段134を有する。
 発話再生手段131はサーバ1が選択した再生発話を再生する。発話選択手段132は発話表300のオペレータ及び顧客の発話の枠304の何れかをマウス等でクリックされることにより、発話の選択を受け付ける。発話表受信手段133は発話表をサーバ1から受信する。発話表依頼手段134はサーバ1に対して発話表表示依頼を行う。発話表表示手段135は図23~図26に示すような発話表300をディスプレイ装置71等に表示する。
 図30は管理者端末の処理の一例のフローチャートである。ステップS121において、管理者端末3の発話表依頼手段134はサーバ1に対して発話表作成を依頼する。ステップS122において、発話表依頼手段134は処理範囲選択画面200を管理者端末3から受信する。
 ステップS123において、発話表依頼手段134は処理範囲選択画面200を表示して管理者に処理範囲の選択情報を入力させる。発話表依頼手段134は管理者から処理範囲の選択情報が入力されたと判定するまで、ステップS123の処理を繰り返す。
 管理者から処理範囲の選択情報が入力されると、ステップS124において、発話表依頼手段134は処理範囲の選択情報(コールIDの指定、又は、条件(日付範囲又はオペレータID)の指定)をサーバ1に送信する。発話表受信手段133はサーバ1から発話表300のデータ及び音声ファイルを受信するまでステップS125の処理を繰り返す。
 サーバ1から発話表300のデータ及び音声ファイルを受信すると、発話表表示手段135はステップS126において、発話表300をディスプレイ装置71等に表示する。また、発話表表示手段135は音声ファイルを一時保存する。
 ステップS127において、発話選択手段132は発話表300の枠304の何れかをマウス等でクリックされることにより発話が選択されたかを判定する。発話が選択されたと判定すると、発話選択手段132は選択された再生発話をサーバ1に通知する。ステップS129において、発話再生手段131はサーバ1から再生発話の発話開始時刻と発話終了時刻とを受信するまでステップS129の処理を繰り返す。
 サーバ1から再生発話の発話開始時刻と発話終了時刻とを受信すると、発話再生手段131はステップS130において、発話開始時刻に合わせて、音声ファイルの再生開始位置をシークし、再生する。ステップS131において、発話再生手段131は発話終了時刻を経過したら音声ファイルの再生を停止し、図30に示したフローチャートの処理を終了する。ステップS127において、発話選択手段132は発話が選択されなかったと判定したときも、図30に示したフローチャートの処理を終了する。
 以上、本実施例のサーバ1によれば、図23~図26に示すような発話表300を作成して管理者端末3に送付できる。発話表300はオペレータ/顧客のそれぞれの発話時間帯を示すグラフに連動して、オペレータがオペレータ端末2の画面に表示していた対象を示す。
 また、本実施例のサーバ1によれば、ページ切り替え時刻から閾値時間の範囲に含まれるオペレータ及び顧客の発話について、関連があると判断し、オペレータ及び顧客の発話のどちらか一方が選択されたとしても両方を再生できる。
 管理者は発話表300を用いることで、マニュアル等の情報を表示していた表示時間帯及び表示内容が示される。したがって、管理者は録音されたオペレータ及び顧客の発話を再生する前に発話の内容をある程度、予想できる。
 また、管理者はページ切り替え時刻から閾値時間の範囲に含まれる関連のある可能性の高いオペレータ及び顧客の発話のどちらか一方を選択するだけで、関連のある可能性の高いオペレータ及び顧客の発話の両方を再生できるので、発話の選択操作が軽減される。
 請求の範囲に記載した発話記録手段は発話時刻DB17に相当する。表示記録手段はページ切り替えDB19に相当する。内容記録手段はマニュアルDB18に相当する。提供手段は発話表送付手段111に相当する。決定手段は再生発話決定手段110に相当する。通話情報は発話表300に相当する。閾値記録手段は閾値DB20に相当する。また、オペレータ評価支援プログラムは発話再生プログラム22に相当する。

Claims (12)

  1.  顧客からの電話にオペレータが対応する通話に基づく該オペレータの評価を支援するオペレータ評価支援装置であって、
     通話における、顧客およびオペレータの発話時間を記録する発話記録手段と、
     オペレータが使用するオペレータ端末に、前記通話において表示された表示画面を識別する表示画面識別情報に関連づけて、該表示画面が表示された表示時間を記録する表示記録手段と、
     前記オペレータ端末に表示される表示画面の表示画面識別情報に関連づけて、該表示画面の内容を説明する画面内容情報を記録する内容記録手段と、
     前記通話について、前記発話記録手段、前記表示記録手段、および、前記内容記録手段を参照し、前記顧客および前記オペレータの発話時間、前記オペレータ端末に表示された表示画面の表示時間、および、該表示画面に対応する画面内容情報を示す通話情報を作成し、オペレータを評価する管理者が使用する管理者端末に前記通話情報、および、該通話情報に含まれる前記顧客および前記オペレータの発話の音声ファイルを送信する提供手段と、
     前記管理者端末から該通話情報に含まれる前記顧客および前記オペレータの発話の選択を受け付け、選択された前記発話が前記オペレータ端末に表示された表示画面の切り替えタイミングから所定時間内に含まれる場合に、選択された前記発話と共に前記所定時間内に含まれる他の発話も再生発話に決定する決定手段と
    を有することを特徴とするオペレータ評価支援装置。
  2.  前記決定手段は、前記発話記録手段を参照し、選択された前記発話の発話時間を読み出すと共に、前記表示記録手段を参照し、前記表示画面の切り替えタイミングを読み出し、選択された前記発話の発話時間が前記表示画面の切り替えタイミングから所定時間内に含まれ、且つ、前記表示画面の切り替えタイミングから所定時間内に、選択された前記発話の相手の通話が含まれている場合に、選択された前記通話と共に前記相手の通話を再生通話に決定する
    ことを特徴とする請求項1に記載のオペレータ評価支援装置。
  3.  閾値時間を記録する閾値記録手段を更に有し、
     前記決定手段は前記閾値記録手段を参照し、前記オペレータ端末に表示された表示画面の切り替えタイミングの前記閾値時間前から前記閾値時間後までの範囲を所定時間とする
    ことを特徴とする請求項1又は2に記載のオペレータ評価支援装置。
  4.  前記提供手段は、前記通話について、前記顧客とオペレータの発話時間、および、前記表示画面の表示時間を、時間軸を基準に表示する
    ことを特徴とする請求項1乃至3何れか一項に記載のオペレータ評価支援装置。
  5.  コンピュータが、顧客からの電話にオペレータが対応する通話に基づく該オペレータの評価を支援するオペレータ評価支援方法であって、
     前記オペレータが使用するオペレータ端末に、前記通話において表示された表示画面を識別する表示画面識別情報に関連づけて、該表示画面が表示された表示時間を記録する表示記録手段を参照して、該通話において該オペレータ端末に表示された表示画面識別情報および表示時間を特定し、
     前記オペレータ端末に表示される表示画面の表示画面識別情報に関連づけて、該表示画面の内容を説明する画面内容情報を記録する内容記録手段を参照して、前記特定された表示画面識別情報に対応する画面内容情報を特定し、
     通話における前記顧客およびオペレータの発話時間を記録した発話記録手段を参照して、前記通話における顧客およびオペレータの発話時間を特定し、
     前記通話において特定した前記顧客および前記オペレータの発話時間、前記オペレータ端末に表示された表示画面の表示時間、および、該表示画面に対応する画面内容情報を示す通話情報を作成し、オペレータを評価する管理者が使用する管理者端末に前記通話情報、および、該通話情報に含まれる前記顧客および前記オペレータの発話の音声ファイルを送信し、
     前記管理者端末から該通話情報に含まれる前記顧客および前記オペレータの発話の選択を受け付け、選択された前記発話が前記オペレータ端末に表示された表示画面の切り替えタイミングから所定時間内に含まれる場合に、選択された前記発話と共に前記所定時間内に含まれる他の発話も再生発話に決定する
    ことを特徴とするオペレータ評価支援方法。
  6.  前記コンピュータは、前記発話記録手段を参照し、選択された前記発話の発話時間を読み出すと共に、前記表示記録手段を参照し、前記表示画面の切り替えタイミングを読み出し、選択された前記発話の発話時間が前記表示画面の切り替えタイミングから所定時間内に含まれ、且つ、前記表示画面の切り替えタイミングから所定時間内に、選択された前記発話の相手の通話が含まれている場合に、選択された前記通話と共に前記相手の通話を再生通話に決定する
    ことを特徴とする請求項5に記載のオペレータ評価支援方法。
  7.  前記コンピュータは、
     閾値時間を記録する閾値記録手段を参照し、前記オペレータ端末に表示された表示画面の切り替えタイミングの前記閾値時間前から前記閾値時間後までの範囲を所定時間とする
    ことを特徴とする請求項5又は6に記載のオペレータ評価支援方法。
  8.  前記コンピュータは、
     前記通話について、前記顧客とオペレータの発話時間、および、前記表示画面の表示時間を、時間軸を基準に表示する
    ことを特徴とする請求項5乃至7何れか一項に記載のオペレータ評価支援方法。
  9.  顧客からの電話にオペレータが対応する通話に基づく該オペレータの評価を支援するオペレータ評価支援方法をコンピュータに実行させるオペレータ評価支援プログラムを記録した記憶媒体であって、
     前記オペレータ評価支援プログラムは前記コンピュータに、
     前記オペレータが使用するオペレータ端末に、前記通話において表示された表示画面を識別する表示画面識別情報に関連づけて、該表示画面が表示された表示時間を記録する表示記録手段を参照して、該通話において該オペレータ端末に表示された表示画面識別情報および表示時間を特定し、
     前記オペレータ端末に表示される表示画面の表示画面識別情報に関連づけて、該表示画面の内容を説明する画面内容情報を記録する内容記録手段を参照して、前記特定された表示画面識別情報に対応する画面内容情報を特定し、
     通話における前記顧客およびオペレータの発話時間を記録した発話記録手段を参照して、前記通話における顧客およびオペレータの発話時間を特定し、
     前記通話において特定した前記顧客および前記オペレータの発話時間、前記オペレータ端末に表示された表示画面の表示時間、および、該表示画面に対応する画面内容情報を示す通話情報を作成し、オペレータを評価する管理者が使用する管理者端末に前記通話情報、および、該通話情報に含まれる前記顧客および前記オペレータの発話の音声ファイルを送信し、
     前記管理者端末から該通話情報に含まれる前記顧客および前記オペレータの発話の選択を受け付け、選択された前記発話が前記オペレータ端末に表示された表示画面の切り替えタイミングから所定時間内に含まれる場合に、選択された前記発話と共に前記所定時間内に含まれる他の発話も再生発話に決定する
    ことを実行させることを特徴とする記憶媒体。
  10.  前記コンピュータに、
     前記発話記録手段を参照し、選択された前記発話の発話時間を読み出すと共に、前記表示記録手段を参照し、前記表示画面の切り替えタイミングを読み出し、選択された前記発話の発話時間が前記表示画面の切り替えタイミングから所定時間内に含まれ、且つ、前記表示画面の切り替えタイミングから所定時間内に、選択された前記発話の相手の通話が含まれている場合に、選択された前記通話と共に前記相手の通話を再生通話に決定する
    ことを実行させる前記オペレータ評価支援プログラムを記録した請求項9に記載の記憶媒体。
  11.  前記コンピュータに、
     閾値時間を記録する閾値記録手段を参照し、前記オペレータ端末に表示された表示画面の切り替えタイミングの前記閾値時間前から前記閾値時間後までの範囲を所定時間とする
    ことを実行させる前記オペレータ評価支援プログラムを記録したことを特徴とする請求項9又は10に記載の記憶媒体。
  12.  前記コンピュータに、
     前記通話について、前記顧客とオペレータの発話時間、および、前記表示画面の表示時間を、時間軸を基準に表示する
    ことを実行させる前記オペレータ評価支援プログラムを記録した請求項9乃至11何れか一項に記載の記憶媒体。
PCT/JP2011/056462 2011-03-17 2011-03-17 オペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラムを記録した記憶媒体 WO2012124120A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013504494A JP5621910B2 (ja) 2011-03-17 2011-03-17 オペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラムを記録した記憶媒体
PCT/JP2011/056462 WO2012124120A1 (ja) 2011-03-17 2011-03-17 オペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラムを記録した記憶媒体
CN201180069294.8A CN103443810B (zh) 2011-03-17 2011-03-17 话务员评价支援装置及话务员评价支援方法
US14/020,194 US8908856B2 (en) 2011-03-17 2013-09-06 Operator evaluation support device and operator evaluation support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/056462 WO2012124120A1 (ja) 2011-03-17 2011-03-17 オペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラムを記録した記憶媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/020,194 Continuation US8908856B2 (en) 2011-03-17 2013-09-06 Operator evaluation support device and operator evaluation support method

Publications (1)

Publication Number Publication Date
WO2012124120A1 true WO2012124120A1 (ja) 2012-09-20

Family

ID=46830247

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/056462 WO2012124120A1 (ja) 2011-03-17 2011-03-17 オペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラムを記録した記憶媒体

Country Status (4)

Country Link
US (1) US8908856B2 (ja)
JP (1) JP5621910B2 (ja)
CN (1) CN103443810B (ja)
WO (1) WO2012124120A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018045639A (ja) * 2016-09-16 2018-03-22 株式会社東芝 対話ログ分析装置、対話ログ分析方法およびプログラム
JP2019139276A (ja) * 2018-02-06 2019-08-22 ニューロネット株式会社 Web共有システム、プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10464386B2 (en) * 2016-12-21 2019-11-05 Kawasaki Jukogyo Kabushiki Kaisha Suspension structure of utility vehicle
JP2019101385A (ja) * 2017-12-08 2019-06-24 富士通株式会社 音声処理装置、音声処理方法及び音声処理用コンピュータプログラム
US10917524B1 (en) 2019-10-30 2021-02-09 American Tel-A-Systems, Inc. Methods for auditing communication sessions

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005072896A (ja) * 2003-08-22 2005-03-17 Fujitsu Ltd 音声記録装置
JP2005293180A (ja) * 2004-03-31 2005-10-20 Fujitsu Ltd オペレータ支援プログラム,オペレータ支援システム,及び、オペレータ支援方法
JP2006171579A (ja) * 2004-12-17 2006-06-29 Fujitsu Ltd 音声再生プログラムおよびその記録媒体、音声再生装置ならびに音声再生方法
JP2007058767A (ja) * 2005-08-26 2007-03-08 Canon Inc 発話記録作成システム
JP2007184699A (ja) * 2006-01-05 2007-07-19 Fujitsu Ltd 音声データの聞き出し部分特定処理プログラムおよび処理装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7305082B2 (en) * 2000-05-09 2007-12-04 Nice Systems Ltd. Method and apparatus for quality assurance in a multimedia communications environment
JP2001331624A (ja) 2000-05-22 2001-11-30 Hitachi Ltd 顧客対応者の技術レベル評価方法及びそのシステム
JP3872263B2 (ja) 2000-08-07 2007-01-24 富士通株式会社 Ctiサーバ及びプログラム記録媒体
JP2003122890A (ja) 2001-10-16 2003-04-25 Hochiki Corp 相談情報処理装置、相談情報処理方法、および、プログラム
JP4115114B2 (ja) * 2001-10-24 2008-07-09 興和株式会社 ネットワーク通話の品質評価設備
JP4308047B2 (ja) 2004-03-09 2009-08-05 富士通株式会社 業務スキル推定装置、業務スキル推定方法および業務スキル推定プログラム
JP2006208482A (ja) 2005-01-25 2006-08-10 Sony Corp 会議の活性化を支援する装置,方法,プログラム及び記録媒体
US8130937B1 (en) * 2005-06-21 2012-03-06 Sprint Spectrum L.P. Use of speech recognition engine to track and manage live call center calls
JP4522345B2 (ja) 2005-09-06 2010-08-11 富士通株式会社 電話業務検査システム及びそのプログラム
CN100566360C (zh) * 2006-01-19 2009-12-02 北京讯鸟软件有限公司 实现坐席服务水平评价的呼叫中心服务方法
US8160233B2 (en) 2006-02-22 2012-04-17 Verint Americas Inc. System and method for detecting and displaying business transactions
JP2007288242A (ja) 2006-04-12 2007-11-01 Nippon Telegr & Teleph Corp <Ntt> オペレータ評価方法、装置、オペレータ評価プログラム、記録媒体
JP2007286097A (ja) 2006-04-12 2007-11-01 Nippon Telegr & Teleph Corp <Ntt> 音声受付クレーム検出方法、装置、音声受付クレーム検出プログラム、記録媒体
CN101662549B (zh) * 2009-09-09 2013-02-27 中兴通讯股份有限公司 一种基于语音的客户评价系统及客户评价方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005072896A (ja) * 2003-08-22 2005-03-17 Fujitsu Ltd 音声記録装置
JP2005293180A (ja) * 2004-03-31 2005-10-20 Fujitsu Ltd オペレータ支援プログラム,オペレータ支援システム,及び、オペレータ支援方法
JP2006171579A (ja) * 2004-12-17 2006-06-29 Fujitsu Ltd 音声再生プログラムおよびその記録媒体、音声再生装置ならびに音声再生方法
JP2007058767A (ja) * 2005-08-26 2007-03-08 Canon Inc 発話記録作成システム
JP2007184699A (ja) * 2006-01-05 2007-07-19 Fujitsu Ltd 音声データの聞き出し部分特定処理プログラムおよび処理装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018045639A (ja) * 2016-09-16 2018-03-22 株式会社東芝 対話ログ分析装置、対話ログ分析方法およびプログラム
JP2019139276A (ja) * 2018-02-06 2019-08-22 ニューロネット株式会社 Web共有システム、プログラム

Also Published As

Publication number Publication date
JPWO2012124120A1 (ja) 2014-07-17
US8908856B2 (en) 2014-12-09
CN103443810A (zh) 2013-12-11
CN103443810B (zh) 2016-05-04
JP5621910B2 (ja) 2014-11-12
US20140010362A1 (en) 2014-01-09

Similar Documents

Publication Publication Date Title
JP5585720B2 (ja) オペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラムを記録した記憶媒体
JP5621910B2 (ja) オペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラムを記録した記憶媒体
US9288314B2 (en) Call evaluation device and call evaluation method
WO2007091453A1 (ja) モニタリング装置、評価データ選別装置、応対者評価装置、応対者評価システムおよびプログラム
CN109844859A (zh) 使用所分离的对象编辑音频信号的方法和相关联的装置
JP5790757B2 (ja) オペレータ評価支援装置、オペレータ評価支援方法及びオペレータ評価支援プログラム
US20020038214A1 (en) Automatic distribution of voice files
JPWO2004023772A1 (ja) オペレータ支援装置、オペレータ支援端末、オペレータ支援プログラムおよびその記録媒体、ならびにオペレータ支援方法
KR101063261B1 (ko) 핵심키워드를 이용하여 통화 내용을 녹취하는 인터넷 프로토콜 컨텍트 센터 녹취 시스템 및 그 방법
Wincott et al. Telling stories in soundspace: Placement, embodiment and authority in immersive audio journalism
KR101399581B1 (ko) 텔러 참여에 의한 자동 응답 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체
US20030046181A1 (en) Systems and methods for using a conversation control system in relation to a plurality of entities
US8468027B2 (en) Systems and methods for deploying and utilizing a network of conversation control systems
JP4191221B2 (ja) 記録再生装置、同時記録再生制御方法、および同時記録再生制御プログラム
KR20000024660A (ko) 네트워크와 웹기술을 이용한 매장내의 양방향 전자 주문시스템
WO2021084720A1 (ja) 音声録音プログラム、音声録音方法および音声録音システム
JP5376232B2 (ja) コミュニケーションプレイバックシステム、コミュニケーションプレイバック方法、プログラム
KR20000019259A (ko) 외국어 말하기 평가 시스템
KR102171479B1 (ko) 디지털 오디오 공동 재생 서비스 방법 및 시스템
WO2021084719A1 (ja) 音声再生プログラム、音声再生方法および音声再生システム
WO2021084721A1 (ja) 音声再生プログラム、音声再生方法および音声再生システム
JP5626426B2 (ja) コミュニケーションプレイバックシステム用端末装置、サーバ、プログラム
KR20010090669A (ko) 인터넷을 통한 다중모드음악 시스템 및 그 판매방법
KR20020022145A (ko) 광기록재생기에서의 디스크 재생방법
JP6385049B2 (ja) 学習支援装置、学習支援プログラム、学習支援方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180069294.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11860876

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013504494

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11860876

Country of ref document: EP

Kind code of ref document: A1