WO2013054491A1 - 顧客応対支援システムおよび顧客応対支援方法 - Google Patents

顧客応対支援システムおよび顧客応対支援方法 Download PDF

Info

Publication number
WO2013054491A1
WO2013054491A1 PCT/JP2012/006356 JP2012006356W WO2013054491A1 WO 2013054491 A1 WO2013054491 A1 WO 2013054491A1 JP 2012006356 W JP2012006356 W JP 2012006356W WO 2013054491 A1 WO2013054491 A1 WO 2013054491A1
Authority
WO
WIPO (PCT)
Prior art keywords
customer
text
dialogue
service
data
Prior art date
Application number
PCT/JP2012/006356
Other languages
English (en)
French (fr)
Inventor
紀子 三輪
啓之 山田
啓昭 高橋
Original Assignee
株式会社資生堂
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社資生堂 filed Critical 株式会社資生堂
Publication of WO2013054491A1 publication Critical patent/WO2013054491A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1069Session establishment or de-establishment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/401Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
    • H04L65/4015Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference where at least one of the additional parallel sessions is real time or time sensitive, e.g. white board sharing, collaboration or spawning of a subconference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/50Telephonic communication in combination with video communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/60Medium conversion

Definitions

  • the present invention relates to data processing technology, and more particularly to technology for supporting customer service.
  • the contents of past customer receptions may be accumulated in a database or the like.
  • Dialogue between the person in charge of the company and the customer may be made through different types of channels. For example, it may be done by text chat or telephone conversation.
  • the present invention has been made in view of these problems, and its main purpose is to provide a technique for collecting and accumulating the contents of customer service made through different types of channels.
  • a customer service support system specifies a voice dialogue service that is a voice dialogue service with an operator or a text dialogue service that is a text dialogue service with an operator.
  • a reception unit that receives a dialog request from a customer terminal, a first conversion unit that converts voice data indicating a dialog between the customer and the operator into text data when a voice dialog service is specified in the dialog request, and a dialog request
  • the relay unit that relays the text data indicating the dialogue contents between the customer and the operator between the customer terminal and the operator terminal, and the text data converted by the first conversion unit Summarize and accumulate each text data relayed by the relay unit And, equipped with a.
  • Another aspect of the present invention is a customer service support method.
  • This method includes a step of accepting a dialogue request specifying a voice dialogue service that is a voice dialogue service with an operator or a text dialogue service that is a dialogue dialogue service with an operator from a customer terminal, and a voice dialogue in the dialogue request.
  • the voice data indicating the conversation between the customer and the operator is converted to text data.
  • the text dialog service is specified in the dialog request, the text data indicating the conversation between the customer and the operator. Relaying between the customer terminal and the operator terminal, text data converted in the converting step, and summarizing and storing each of the text data relayed in the relaying step .
  • the “operator” may be a person who provides a dialogue service to the customer using at least voice or characters (text).
  • any combination of the above-described components, and a conversion of the expression of the present invention between an apparatus, a program, a recording medium storing the program, and the like are also effective as an aspect of the present invention.
  • FIG. 1 shows a configuration of an information processing system according to a first embodiment (hereinafter also referred to as “first embodiment”).
  • the customer service support system 20 is an information processing system that supports providing beauty counseling by a counselor of a cosmetic company to a customer.
  • the customer terminal 10 is an information processing device operated by a customer
  • the counselor terminal 12 is an information processing device operated by a counselor.
  • Each apparatus in FIG. 1 is connected via a communication network including a LAN, a WAN, the Internet, and the like.
  • the Customer support system 20 supports the provision of two types of counseling services.
  • the first counseling service is a counselor as an operator (including not only those whose main business is to provide a counseling service, but also those who receive consultations from customers while having a product salesperson as their main business) Is a dialogue service (hereinafter also referred to as “text dialogue service”).
  • a text chat service with the counselor terminal 12 is provided to the customer terminal 10.
  • the second counseling service is a voice dialogue service (hereinafter also referred to as “voice dialogue service”) via a telephone call between the counselor and the customer.
  • voice dialogue service hereinafter also referred to as “voice dialogue service”
  • the customer service support system 20 summarizes and accumulates the contents of the conversation between the counselor and the customer.
  • the text dialogue service since the dialogue between the counselor and the customer is basically made through a text chat, the text data exchanged between the customer terminal 10 and the counselor terminal 12 is set as a summary target.
  • the video chat server 22 stores text data relayed between the customer terminal 10 and the counselor terminal 12, and the summary server 26 acquires and summarizes the text data.
  • an input support process is performed in which voice data indicating the content of the counselor's utterance is taken and converted into text data.
  • the voice data is summarized in the customer reception support system 20. Excluded from the subject.
  • the conversation between the counselor and the customer is basically done through the telephone. Therefore, the voice data that indicates the contents of the telephone call, strictly speaking, the text converted from the voice data that indicates the telephone conversation. Summarize the data. Specifically, the counselor terminal 12 converts voice data indicating the contents of the dialogue with the customer into text data, and the storage server 24 stores the converted text data. The summary server 26 acquires and summarizes the text data. As described above, the text chat can be used in parallel in the voice interaction service, but the text data exchanged between the customer terminal 10 and the counselor terminal 12 is excluded from the summarization target in the customer reception support system 20. .
  • FIG. 2 shows a customer reception screen 200 displayed on the counselor terminal 12 of FIG.
  • the customer service screen 200 includes a camera image area 202, a shared content area 204, a chat area 206, a text input area 208, a speech button 210, and an end button 212.
  • the camera image area 202 is an area for displaying a captured image of a counselor by a camera.
  • the shared content area 204 is a content for visually explaining beauty advice, how to use cosmetics, and the like, which are themes of dialogue between the counselor and the customer, and is an area for displaying an image of content that can be edited by the counselor.
  • the chat area 206 in FIG. 2 is an area for displaying the contents of the text chat performed by the counselor and the customer.
  • a text input area 208 is an area for editing a character string input to the chat area 206.
  • the speech button 210 is a button object that causes the character string in the text input area 208 to be transferred to the chat area 206. In addition, pressing the speech button 210 also triggers the character string in the text input area 208 to be transferred to the customer terminal 10 for display.
  • the end button 212 is a button object that is pressed by the counselor at the end of counseling.
  • the customer reception screen 200 is displayed on the counselor terminal 12 in both the text dialogue service and the voice dialogue service.
  • a service use screen corresponding to the customer reception screen 200 is displayed on the customer terminal 10 in FIG.
  • the service use screen includes the camera image area 202, the shared content area 204, the chat area 206, the text input area 208, and the speech button 210 shown in FIG.
  • the display contents of the camera image area 202, the shared content area 204, and the chat area 206 are the same on the customer reception screen 200 and the service use screen, and so to speak, are shared between the counselor and the customer.
  • the customer service support system 20 includes a counselor terminal 12, a video chat server 22, a storage server 24, a summary server 26, and a service history DB 28.
  • FIG. 1 is also a block diagram showing a functional configuration of each server included in the customer reception support system 20.
  • Each block shown in the block diagram of the present specification can be realized in terms of hardware by an element such as a CPU of a computer or a mechanical device, and in terms of software, it can be realized by a computer program or the like.
  • the functional block realized by those cooperation is drawn. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by a combination of hardware and software.
  • the functional blocks in FIG. 1 may be installed in the storage of each server as a computer program. Then, the program module corresponding to each functional block may be read into the main memory of each server and executed by the CPU.
  • Each holding unit may be realized by a main memory or a storage.
  • the server is not limited to a server provided on a dedicated PC for performing the processing performed by the server, and includes a server environment constructed on a virtual computer system such as cloud computing.
  • the video chat server 22 in FIG. 1 is information processing that relays data indicating the contents of a dialogue performed between a customer and a counselor, in the first embodiment, text data and image data between the customer terminal 10 and the counselor terminal 12.
  • the video chat server 22 includes a dialogue request receiving unit 30, a dialogue instruction notifying unit 32, a data transfer unit 34, a first transfer data holding unit 36, and a second transfer data holding unit 38.
  • the video chat server 22 may have a web server function, and may send and receive data to and from the customer terminal 10 and the counselor terminal 12 via HTTP communication.
  • the dialog request receiving unit 30 receives a dialog request designating a text dialog service or a voice dialog service from the customer terminal 10.
  • the dialogue instruction notifying unit 32 notifies the counselor terminal 12 of a dialogue start instruction designating the text dialogue service or the voice dialogue service.
  • the data transfer unit 34 receives text data and image data transmitted from the counselor terminal 12 and transfers them to the customer terminal 10. Also, the text data transmitted from the customer terminal 10 is received and transferred to the counselor terminal 12.
  • the first transfer data holding unit 36 and the second transfer data holding unit 38 are storage areas for holding data indicating the contents of dialogue between the customer and the counselor.
  • the first transfer data holding unit 36 holds the text data to be summarized input at each terminal in the text chat between the customer terminal 10 and the counselor terminal 12.
  • the second transfer data holding unit 38 is text data input at each terminal in the text chat between the customer terminal 10 and the counselor terminal 12, and holds text data that is not a summary target. That is, the text data stored in the first transfer data holding unit 36 is acquired by the summary server 26, but the text data stored in the second transfer data holding unit 38 is not an acquisition target by the summary server 26.
  • the second transfer data holding unit 38 accumulates text data as a proof indicating the content of the dialogue between the customer and the counselor in the voice dialogue service.
  • the data transfer unit 34 When the text dialog service is specified in the dialog request, the data transfer unit 34 first transfers the text data transferred between the customer terminal 10 and the counselor terminal 12 together with data indicating the elapsed time since the text dialog service was started. The data is stored in the transfer data holding unit 36. Even when the voice dialogue service is designated in the dialogue request, the data transfer unit 34 transfers the text data between the customer terminal 10 and the counselor terminal 12, but the transferred text data is stored in the second transfer data holding unit 38. .
  • the storage server 24 in FIG. 1 stores voice data and text data indicating the contents of dialogue between the customer and the counselor.
  • the storage server 24 includes a call data receiving unit 40, a text data holding unit 42, and a voice data holding unit 44.
  • the call data reception unit 40 receives voice data and text data transmitted from the counselor terminal 12 at the end of the voice dialogue service.
  • Each of the voice data and the text data is data indicating the content of a dialogue performed between the customer and the counselor in the voice dialogue service, in other words, the content of a telephone call.
  • the call data receiving unit 40 stores the text data acquired from the counselor terminal 12 in the text data holding unit 42, and stores the voice data acquired from the counselor terminal 12 in the voice data holding unit 44.
  • the text data held in the text data holding unit 42 is to be summarized in the customer service support system 20, in other words, acquired by the summary server 26.
  • the voice data held in the voice data holding unit 44 is not a summarization target in the customer service support system 20, in other words, is not a target for acquisition by the summarization server 26.
  • the voice data holding unit 44 accumulates voice data as a proof indicating the contents of dialogue between the customer and the counselor in the voice dialogue service.
  • the summary server 26 in FIG. 1 summarizes and accumulates text data indicating the contents of dialogue between the customer and the counselor.
  • the summary server 26 includes a text data acquisition unit 50, a summary processing unit 52, a summary data holding unit 54, a summary data providing unit 56, and a response history update unit 58.
  • the text data acquisition unit 50 periodically acquires the text data held in the first transfer data holding unit 36 of the video chat server 22.
  • the text data acquisition unit 50 also periodically acquires the text data held in the text data holding unit 42 of the storage server 24.
  • the summary processing unit 52 summarizes the text data acquired by the text data acquisition unit 50 according to a predetermined algorithm.
  • the text data summarization function may be realized by “TRUE TELLER (registered trademark) VOICE digest” which is software provided by Nomura Research Institute, Ltd.
  • the summary processing unit 52 stores the summarized data (hereinafter also referred to as “customer service summary information”) in the summary data holding unit 54.
  • Fig. 3 shows customer service summary information.
  • This figure shows customer reception summary information in the voice conversation service, and the conversation contents between the customer and the counselor are set in the conversation contents area 220.
  • it may be the content of text data acquired from the storage server 24.
  • the customer reception summary information in the text dialogue service the contents of the text chat between the customer and the counselor are set in the dialogue content area 220.
  • the content of text data acquired from the video chat server 22 may be used.
  • a summary result for the text data in the dialog content area 220 is set in the summary content area 222.
  • the summary processing unit 52 extracts customer requirements, counselor responses, and customer attribute information (contact information) from the information in the dialog content area 220 and sets the information in the summary content area 222.
  • the summary data providing unit 56 accepts a request for confirmation of customer service summary information from the counselor terminal 12, and transmits the data of the customer service summary information editing screen including the customer service summary information to the counselor terminal 12 for display.
  • the response history update unit 58 acquires the edited customer response summary information displayed on the edit screen from the counselor terminal 12 when the end of editing is instructed on the edit screen of the customer response summary information. Then, the edited customer service summary information is stored in the service history DB 28 as a customer service history.
  • the response history DB 28 is a database that holds a customer response history. This customer service history is used for advice to customers counseled by a counselor and creation of documents for cosmetic proposals.
  • the format of the customer service history may be the same as the customer service summary information shown in FIG.
  • FIG. 4 is a block diagram showing a functional configuration of the counselor terminal 12 of FIG.
  • the convertor 64 is a so-called call recording adapter and is interposed between the telephone set 60 which is a telephone main body and a headset 62 including a microphone and headphones, and acquires voice during a call. Then, the audio data is transmitted to the counselor terminal 12 via USB and recorded.
  • the convertor 64 includes a first sound device 66 and a second sound device 68.
  • the first sound device 66 acquires received data passed from the telephone set 60 to the headset 62, in other words, voice data indicating the content of the customer's utterance, and sends it to the counselor terminal 12.
  • the second sound device 68 acquires transmission data passed from the headset 62 to the telephone set 60, in other words, voice data indicating the content of the counselor's utterance, and sends it to the counselor terminal 12.
  • the counselor terminal 12 includes a USB interface 70, a call content recording unit 72, an input support voice text conversion unit 74, a video chat plug-in 76, an image acquisition unit 78, a reception screen display control unit 80, and input information.
  • a reception unit 82, an audio data transfer unit 84, a summary display control unit 86, and a summary update unit 88 are included.
  • the call content recording unit 72 records the content of a phone call between the customer and the counselor.
  • the call content recording unit 72 may be realized by “AmiVoice (registered trademark) Assist” which is software provided by Advanced Media Co., Ltd.
  • the call content recording unit 72 includes a first recording unit 90, a second recording unit 92, a call data holding unit 94, and a storage voice text conversion unit 96.
  • the first recording unit 90 communicates the reception data input from the first sound device 66 of the converter 64 via the USB interface 70 together with data indicating the customer's speech and data indicating the elapsed time from the start of the call. Records in the data holding unit 94.
  • the second recording unit 92 transmits the transmission data input from the second sound device 68 of the convertor 64 via the USB interface 70 together with data indicating the speech of the counselor and data indicating the elapsed time from the start of the call. Record in the call data holding unit 94.
  • the storage voice text conversion unit 96 receives the reception data input from the first sound device 66 of the converter 64 via the USB interface 70 from the first recording unit 90, and converts the reception data into text data. Then, the converted text data is recorded in the call data holding unit 94 together with the data indicating the customer's speech and the data indicating the elapsed time from the start of the call.
  • the storage voice text conversion unit 96 accepts transmission data input from the second sound device 68 of the converter 64 via the USB interface 70 from the second recording unit 92 and converts the transmission data into text data. .
  • the converted text data is recorded in the call data holding unit 94 together with data indicating the counselor's speech and data indicating the elapsed time since the start of the call.
  • the input support voice text conversion unit 74 acquires the transmission data input from the second sound device 68 of the converter 64, converts the acquired transmission data into text data, and passes it to the reception screen display control unit 80.
  • the voice text conversion unit 74 for input support may be realized by “AmiVoice (registered trademark) Ex” which is software provided by Advanced Media Co., Ltd.
  • the input support speech-to-text conversion unit 74 performs speech-to-text conversion when an instruction for the text interaction service is received from the video chat server 22, and does not perform the speech-to-text conversion when an instruction for the speech interaction service is received. . That is, when a text chat is performed between the counselor and the customer, the input support voice-to-text conversion unit 74 automatically sets text data indicating the content of the counselor's remarks on the customer response screen 200, thereby allowing the counselor to input the text. To reduce the burden.
  • the video chat plug-in 76 is client software that communicates with the video chat server 22.
  • the video chat plug-in 76 may be downloaded from the video chat server 22 and installed in the counselor terminal 12 by ActiveX (registered trademark) control.
  • the video chat plug-in 76 receives a dialog start instruction designating a text dialog service or a voice dialog service and passes it to the response screen display control unit 80.
  • the video chat plug-in 76 relays the image data to the customer terminal 10 by transmitting the image data of the content in the shared content area 204 of the customer reception screen 200 to the video chat server 22.
  • the text data set as the counselor's speech content is transmitted to the chat area 206 of the customer service screen 200 to the video chat server 22 to relay the text data to the customer terminal 10.
  • the image data is relayed to the customer terminal 10.
  • the text data input to the service use screen at the customer terminal 10 is acquired from the video chat server 22, and the text data is transferred to the reception screen display control unit 80.
  • the image acquisition unit 78 acquires a counselor image captured by the camera, and passes the image data to the reception screen display control unit 80 and the video chat plug-in 76.
  • the reception screen display control unit 80 When the video chat plug-in 76 accepts a dialogue start instruction, the reception screen display control unit 80 outputs the data of the customer reception screen 200 to the display and starts controlling the display contents of the customer reception screen 200.
  • the reception screen display control unit 80 may be realized by a web browser.
  • the reception screen display control unit 80 sets the text data provided from the input support voice text conversion unit 74 in the text input area 208 of the customer reception screen 200.
  • the text data provided from the video chat plug-in 76 is set in the chat area 206 as the contents of the customer's speech.
  • the image data provided from the image acquisition unit 78 is set in the camera image area 202 of the customer reception screen 200.
  • the response screen display control unit 80 sets the content of the shared content area 204 according to the operation content in the shared content area 204 provided from the input information receiving unit 82, and passes the image data to the video chat plug-in 76. Also, the input data to the text input area 208 provided from the input information receiving unit 82 is set in the text input area 208. When the input information receiving unit 82 notifies that the message button 210 on the customer reception screen 200 has been pressed, the text data in the text input area 208 is transferred to the chat area 206. At the same time, the text data in the text input area 208 is passed to the video chat plug-in 76 as the counselor's utterance content.
  • the input information receiving unit 82 acquires data that the counselor has input to the customer reception screen 200 via a predetermined input device such as a keyboard or a mouse. For example, the input information reception unit 82 detects a content editing operation in the shared content area 204 of the customer reception screen 200 and notifies the reception screen display control unit 80 of the operation content.
  • the input information receiving unit 82 detects the input of text to the text input area 208 of the customer reception screen 200 and passes the text data to the reception screen display control unit 80. Further, it is detected that the message button 210 on the customer reception screen 200 has been pressed, and the fact is notified to the reception screen display control unit 80. Further, it is detected that the end button 212 of the customer reception screen 200 has been pressed, and a notification to that effect is sent to the voice data transfer unit 84.
  • the voice data transfer unit 84 acquires the voice data and text data held in the call data holding unit 94. Transmit to the storage server 24.
  • Each of the voice data and the text data includes the content of the counselor's speech and the elapsed time from the start of the dialogue, and the content of the customer's speech and the elapsed time from the start of the dialogue.
  • the input information receiving unit 82 receives a confirmation request for customer service summary information from the counselor and notifies the summary display control unit 86 of the request.
  • the summary display control unit 86 transmits a confirmation request for the customer service summary information to the summary server 26, acquires the data of the customer service summary information edit screen from the summary server 26, and displays the data on the display.
  • the summary display control unit 86 acquires the edited content on the customer service summary information editing screen via the input information receiving unit 82 and reflects the content in the customer service summary information.
  • the input information receiving unit 82 receives an instruction to end editing of customer service summary information from the counselor and notifies the summary update unit 88 of the instruction.
  • the summary update unit 88 transmits the customer service summary information displayed on the customer service summary information editing screen to the summary server 26 at that time.
  • FIG. 5 is a flowchart showing the operation of the customer reception support system 20.
  • a customer who wants to ask a cosmetic company counselor about cosmetics or beauty consultation operates the customer terminal 10 to access the customer service support system 20 and notifies a dialog request specifying a text dialog service or a voice dialog service.
  • the interaction request data may be transmitted to the web server of the customer service support system 20 by operating the web browser of the customer terminal 10.
  • the video chat server 22 receives a request for interaction with the counselor transmitted from the customer terminal 10 (Y in S10), the video chat server 22 notifies the counselor terminal 12 of an instruction for interaction with the customer (S12).
  • the text dialog processing described later is executed (S16).
  • the summary server 26 acquires text data indicating the dialogue contents between the customer and the counselor from the video chat server 22 (S18).
  • the voice dialogue processing described later is executed (S20).
  • the storage server 24 acquires and stores text data and voice data indicating the conversation contents between the customer and the counselor from the counselor terminal 12 (S22).
  • the summary server 26 acquires text data indicating the contents of dialogue between the customer and the counselor from the storage server 24 (S24).
  • the summary server 26 summarizes each of the text data acquired from the video chat server 22 and the text data acquired from the storage server 24, and stores the summary data summarizing the conversation contents between the customer and the counselor (S26).
  • the text dialogue service is specified in the dialogue request
  • the former text data is summarized
  • the voice dialogue service is designated in the dialogue request
  • the latter text data is summarized.
  • the video chat server 22 does not accept the dialogue request (N in S10)
  • S12 to S26 are skipped.
  • the summary server 26 receives a confirmation request for summary data from the counselor terminal 12 (Y in S28)
  • the summary server 26 provides the counselor terminal 12 with data on an edit screen in which summary data can be edited.
  • the summary server 26 stores the summary data edited by the counselor in the response history DB 28 as a customer response history (S30). If a summary data confirmation request is not accepted (N in S28), S30 is skipped.
  • FIG. 6 is a flowchart showing in detail the text dialogue process in S16 of FIG.
  • the counselor terminal 12 displays a customer response screen 200.
  • voice input that is, speech by the counselor is detected at the counselor terminal 12 (Y in S40)
  • the voice text converting unit 74 for input support of the counselor terminal 12 converts the voice data into text data and converts the text on the customer service screen 200. It is displayed on the input area 208 (S42).
  • the text data automatically set in the text input area 208 is appropriately edited by the counselor. If there is no voice input at the counselor terminal 12 (N in S40), S42 is skipped.
  • the voice data to be converted by the input support voice text converter 74 is not provided from the counselor terminal 12 to an external device, that is, not to be relayed by the video chat server 22 but also to the storage target of the storage server 24. Therefore, the summary server 26 is excluded from the summary target.
  • the counselor terminal 12 When the counselor terminal 12 detects text input to the chat area 206 on the customer reception screen 200, that is, pressing of the speech button 210 (Y in S44), the counselor terminal 12 converts the text data input to the chat area 206 into a video chat server. To 22.
  • the video chat server 22 transfers the text data to the customer terminal 10 (S46), and accumulates the text data in the first transfer data holding unit 36 (S48). If there is no text input to the chat area 206 in the counselor terminal 12 (N in S44), S46 and S48 are skipped.
  • the customer terminal 10 detects text input to the chat area on the service use screen (Y in S50)
  • the customer terminal 10 transmits the text data input to the chat area to the video chat server 22.
  • the video chat server 22 transfers the text data to the counselor terminal 12 (S52), and accumulates the text data in the first transfer data holding unit 36 (S54). If there is no text input to the chat area on the service use screen at the customer terminal 10 (N in S50), S52 and S54 are skipped.
  • a predetermined end process is executed (S58).
  • the counselor terminal 12 notifies the video chat server 22 that the text dialogue service has ended, and the video chat server 22 retains the first transfer data in a manner to be acquired by the summary server 26 for the text data relayed so far. You may store in the part 36.
  • the video chat server 22 may store the text data relayed so far in the first transfer data holding unit 36 in response to the notification from the counselor terminal 12 that the text conversation service has ended. If the end of the text dialogue service has not been detected (N in S56), the process returns to S40.
  • FIG. 7 is a flowchart showing in detail the voice dialogue process in S20 of FIG.
  • the counselor terminal 12 accepts a dialogue request from the video chat server 22
  • the counselor terminal 12 displays a customer response screen 200.
  • the counselor calls the customer requesting the customer and initiates a dialogue with the customer.
  • voice data indicating the contents of dialogue between the customer and the counselor is transmitted and received between the customer-side telephone and the counselor-side telephone via a PSTN (Public Switched Telephone Telephone Networks) network or an IP telephone network.
  • PSTN Public Switched Telephone Telephone Networks
  • the counselor terminal 12 When the counselor terminal 12 detects text input to the chat area 206 on the customer service screen 200 (Y in S60), the counselor terminal 12 transmits the text data input to the chat area 206 to the video chat server 22.
  • the video chat server 22 transfers the text data to the customer terminal 10 (S62), and accumulates the text data in the second transfer data holding unit 38 (S64). If there is no text input to the chat area 206 in the counselor terminal 12 (N in S60), S62 and S64 are skipped.
  • the customer terminal 10 detects text input to the chat area on the service usage screen (Y in S66)
  • the customer terminal 10 transmits the text data input to the chat area to the video chat server 22.
  • the video chat server 22 transfers the text data to the counselor terminal 12 (S68), and accumulates the text data in the second transfer data holding unit 38 (S70). If there is no text input to the chat area on the service use screen in the customer terminal 10 (N in S66), S68 and S70 are skipped. As described above, the text data stored in the second transfer data holding unit 38 is excluded from the summary targets of the summary server 26.
  • the call content recording unit 72 of the counselor terminal 12 acquires the reception data / transmission data via the convertor 64. (S74). Further, the stored voice text conversion unit 96 of the call content recording unit 72 converts each received data and transmitted data into text data and stores them (S76). If there is no transmission / reception of reception data / transmission data between the counselor's telephone 60 and the headset 62 (N in S72), S74 and S76 are skipped.
  • the counselor terminal 12 When the end of the voice interaction service is detected at the counselor terminal 12, that is, when pressing of the end button 212 on the customer reception screen 200 is detected (Y of S78), the counselor terminal 12 transmits the stored voice data and text data to the storage server 24. (S80). If the end of the voice interaction service has not been detected (N in S78), the process returns to S60.
  • the counselor terminal 12 further acquires a captured image of the counselor and an image of the shared content area 204 and transmits them to the video chat server 22.
  • the video chat server 22 transfers the image taken by the counselor and the image of the shared content area 204 to the customer terminal 10 and displays them on the service use screen of the customer terminal 10.
  • the customer reception support system 20 of the first embodiment it is possible to provide a customer with a dialogue service with a counselor via a plurality of types of channels (text or voice) that can be selected by the customer. Further, the contents of customer receptions made through a plurality of types of channels are centrally aggregated and accumulated as customer reception summary information and customer reception history in a common format. This makes it easy to use the customer service summary information and customer service history for various customer services in the company. For example, the user of the customer service summary information or the customer service history can refer without being aware of whether the dialogue channel with the customer is text or voice. In addition, it automatically creates customer service summary information from text data that records customer service contents, and allows the counselor to check the contents, thereby accumulating accurate customer service history while reducing the burden on the counselor. be able to.
  • the voice conversation service is basically a voice conversation between the customer and the counselor
  • the contents of the text chat between the customer and the counselor are excluded from the summary target.
  • the content of the voice conversation and the content of the text chat are not mixed in time series, and it becomes easy to create appropriate customer service summary information.
  • the customer service support system 20 since text chat between a customer and a counselor is fundamental in the text dialogue service, the voice data indicating the content of the speech by the counselor is converted into text data and input support is provided. Exclude audio data from summarization. As a result, the contents of the speech statements and the contents of the text chat are not mixed in chronological order, and it becomes easy to create appropriate customer reception summary information.
  • text chat and telephone conversation are provided as a plurality of types of channels for dialogue with the counselor.
  • a channel for dialogue with a counselor by videophone is further provided as a “videophone dialogue service”.
  • the system configuration of the second embodiment is the same as the system configuration of the first embodiment shown in FIG.
  • the same configuration as that of the first embodiment will be omitted, and different points will be described.
  • the dialog request receiving unit 30 of the video chat server 22 receives a dialog request designating a text dialog service, a voice dialog service, or a videophone dialog service from the customer terminal 10, and the dialog instruction notification unit 32 receives the dialog request from the counselor terminal 12. To notify.
  • the data transfer unit 34 of the video chat server 22 receives the text chat data received from the counselor terminal 12, the captured image of the counselor, the image of the shared content area 204, and the counselor's data when the videophone conversation service is specified in the dialogue request.
  • the voice data indicating the content of the message is relayed to the customer terminal 10.
  • the text chat data received from the customer terminal 10, the captured image of the customer captured by the customer terminal 10 and the voice data indicating the customer's remarks are relayed to the counselor terminal 12.
  • FIG. 8 is a block diagram showing a functional configuration of the counselor terminal 12 in the second embodiment.
  • the counselor terminal 12 further includes a playback sound device 100, a headphone terminal 102, a microphone terminal 104, and a recording sound device 106 in addition to the configuration of FIG.
  • a branch connector 110 and an aggregation connector 112 are provided outside the counselor terminal 12.
  • the branch connector 110 may be a known connector that branches and outputs audio data input from a single terminal into an L channel and an R channel.
  • the aggregation connector 112 may be a known connector that outputs audio data input from each of the L channel and the R channel from a single terminal.
  • the counselor terminal 12 may further include a configuration for providing the voice interaction service shown in FIG. 4, that is, the telephone set 60, the convertor 64, and the USB interface 70.
  • a configuration for providing the voice interaction service shown in FIG. 4 that is, the telephone set 60, the convertor 64, and the USB interface 70.
  • the video chat plug-in 76 passes the text data and image data received from the video chat server 22 to the reception screen display control unit 80 and displays them on the customer reception screen 200. Further, the audio data received from the video chat server 22 is transferred to the reproduction sound device 100 and reproduced by the headset 62 via the headphone terminal 102. Also, audio data indicating the counselor's speech content input to the headset 62 is received by the recording sound device 106 via the microphone terminal 104 and passed to the video chat plug-in 76. The video chat plug-in 76 transmits the audio data to the video chat server 22 and relays it to the customer terminal 10.
  • the call content recording unit 72 of the counselor terminal 12 records voice data and text data indicating the conversation content between the customer and the counselor. Then, the voice data transfer unit 84 transmits the voice data and the text data to the storage server 24 when the videophone conversation service ends.
  • the recording sound device 106 When recording the voice data indicating the content of the counselor's speech, the recording sound device 106 receives the voice data input to the headset 62, and the recording sound device 106 passes the voice data to the second recording unit 92. That's fine.
  • the audio data is directly transferred from the reproduction sound device 100 to the first recording unit 90 and recorded. It is possible to make it.
  • the counselor terminal 12 is prohibited from directly passing audio data from the playback sound device 100 to the first recording unit 90 from the viewpoint of digital content protection. For this reason, in the second embodiment, voice data indicating the content of the customer's speech is recorded by the following method.
  • the branch connector 110 outputs the audio data received from the playback sound device 100 via the headphone terminal 102 from both the L channel and the R channel.
  • the audio data output on the R channel is reproduced by the headset 62, while the audio data output on the L channel is input from the L channel of the aggregation connector 112.
  • Aggregation connector 112 receives voice data indicating the content of the counselor's speech input to headset 62 on the R channel, and can distinguish between voice data input on L channel and voice data input on R channel Is output to the microphone terminal 104.
  • the recording sound device 106 passes the audio data associated with the R channel to the input support audio text conversion unit 74, the second recording unit 92, and the video chat plug-in 76, while the audio data associated with the L channel. To the first recording unit 90.
  • the voice data and text data indicating the contents of the customer's speech received from the video chat server 22 are stored in the call data holding unit 94.
  • the customer reception support system 20 of the second embodiment in addition to the effects of the first embodiment, when providing a dialogue channel by videophone with a counselor, the contents of customer reception under the constraints for digital content protection Can be accumulated. That is, in the counselor terminal 12, the audio data transmitted from the customer terminal 10 is temporarily output from the sound device for reproduction to an external device, and the audio data via the external device is received by the sound device for recording. Recording of audio data transmitted from the terminal 10 is realized.
  • the functions to be fulfilled by the constituent elements described in the claims are realized by the individual constituent elements shown in the embodiments and modified examples or by their linkage.
  • the reception unit described in the claims may be realized by the dialogue request reception unit 30 of the video chat server 22, and the relay unit may be realized by the data transfer unit 34 of the video chat server 22.
  • the first conversion unit may be realized by the storage voice text conversion unit 96 of the counselor terminal 12, and the second conversion unit may be realized by the input support voice text conversion unit 74 of the counselor terminal 12.
  • dialog request reception units 10 customer terminals, 12 counselor terminals, 20 customer service support systems, 22 video chat servers, 24 storage servers, 26 summary servers, 28 response history DBs, 30 dialog request reception units, 32 dialog instruction notification units, 34 data transfer units, 36 First transfer data holding unit, 38 Second transfer data holding unit, 40 Call data receiving unit, 42 Text data holding unit, 44 Voice data holding unit, 50 Text data acquisition unit, 52 Summary processing unit, 54 Summary data holding unit, 56 Summary data providing section, 58 Response history updating section.
  • the present invention can be used for a system for supporting customer service.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Marketing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Operations Research (AREA)
  • Economics (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Telephonic Communication Services (AREA)

Abstract

 顧客応対支援システム20は、ビデオチャットサーバ22と蓄積サーバ24と要約サーバ26を備える。ビデオチャットサーバ22は、カウンセラーとの対話要求を顧客端末10から受け付けてカウンセラー端末12へ通知し、対話要求においてテキスト対話サービスが指定された場合、顧客とオペレータとの対話内容を示すテキストデータを顧客端末10とカウンセラー端末12の間で中継する。蓄積サーバ24は、対話要求において音声対話サービスが指定された場合、顧客とオペレータとの対話内容を示す音声データを変換したテキストデータを蓄積する。要約サーバ26は、蓄積サーバ24に蓄積されたテキストデータと、ビデオチャットサーバ22により中継されたテキストデータのそれぞれを要約して蓄積する。

Description

顧客応対支援システムおよび顧客応対支援方法
 本発明はデータ処理技術に関し、特に、顧客への応対を支援するための技術に関する。
 顧客の購買意欲を喚起するために、企業の担当者が顧客応対を適切に行うことは重要である。また、将来の顧客応対において過去の顧客応対の内容を活用するために、過去の顧客応対の内容がデータベース等に蓄積されることもある。
特開2011-113490号公報
 企業の担当者と顧客との対話は、異なる複数種類のチャネルを介してなされることがある。例えばテキストによるチャットや、電話による会話によりなされることがある。本発明者は、異なる複数種類のチャネルを介してなされた顧客応対の内容を集約して蓄積するための具体的な方法は、これまで十分に提案されてこなかったと考えた。
 本発明はこうした課題に鑑みてなされたものであり、その主な目的は、異なる複数種類のチャネルを介してなされた顧客応対の内容を集約して蓄積するための技術を提供することである。
 上記課題を解決するために、本発明のある態様の顧客応対支援システムは、オペレータとの音声による対話サービスである音声対話サービス、または、オペレータとのテキストによる対話サービスであるテキスト対話サービスを指定した対話要求を顧客の端末から受け付ける受付部と、対話要求において音声対話サービスが指定された場合、顧客とオペレータとの対話内容を示す音声データをテキストデータへ変換する第1の変換部と、対話要求においてテキスト対話サービスが指定された場合、顧客とオペレータとの対話内容を示すテキストデータを顧客の端末とオペレータの端末との間で中継する中継部と、第1の変換部により変換されたテキストデータと、中継部により中継されたテキストデータのそれぞれを要約して蓄積する要約部と、を備える。
 本発明の別の態様は、顧客応対支援方法である。この方法は、オペレータとの音声による対話サービスである音声対話サービス、または、オペレータとのテキストによる対話サービスであるテキスト対話サービスを指定した対話要求を顧客の端末から受け付けるステップと、対話要求において音声対話サービスが指定された場合、顧客とオペレータとの対話内容を示す音声データをテキストデータへ変換するステップと、対話要求においてテキスト対話サービスが指定された場合、顧客とオペレータとの対話内容を示すテキストデータを顧客の端末とオペレータの端末との間で中継するステップと、変換するステップにおいて変換されたテキストデータと、中継するステップにおいて中継されたテキストデータのそれぞれを要約して蓄積するステップと、を備える。
 なお、「オペレータ」とは、少なくとも音声または文字(テキスト)を用いて顧客に対する対話サービスを提供する者であってもよい。また、以上の構成要素の任意の組合せ、本発明の表現を装置、プログラム、プログラムを格納した記録媒体などの間で変換したものもまた、本発明の態様として有効である。
 本発明によれば、異なる複数種類のチャネルを介してなされた顧客応対の内容を集約して蓄積することができる。
第1の実施の形態の情報処理システムの構成を示す図である。 顧客応対画面を示す図である。 顧客応対要約情報を示す図である。 図1のカウンセラー端末の機能構成を示すブロック図である。 顧客応対支援システムの動作を示すフローチャートである。 図5のS16のテキスト対話処理を詳細に示すフローチャートである。 図5のS20の音声対話処理を詳細に示すフローチャートである。 第2の実施の形態におけるカウンセラー端末の機能構成を示すブロック図である。
 (第1の実施の形態)
 図1は、第1の実施の形態(以下、「第1実施形態」とも呼ぶ。)の情報処理システムの構成を示す。顧客応対支援システム20は、化粧品会社のカウンセラーによる美容に関するカウンセリングを顧客に提供することを支援する情報処理システムである。顧客端末10は顧客により操作される情報処理装置であり、カウンセラー端末12はカウンセラーにより操作される情報処理装置である。図1の各装置はLAN・WAN・インターネット等を含む通信網を介して接続される。
 顧客応対支援システム20は、2種類のカウンセリングサービスの提供を支援する。第1のカウンセリングサービスは、オペレータとしてのカウンセラー(カウンセリングサービスを提供することを主業務とする者のみならず、商品販売員を主業務とする中で顧客からの相談を受けるような者も含む)との文字による対話サービス(以下、「テキスト対話サービス」とも呼ぶ。)である。具体的には、カウンセラー端末12とのテキストチャットのサービスを顧客端末10へ提供する。第2のカウンセリングサービスは、カウンセラーと顧客との電話を介した音声による対話サービス(以下、「音声対話サービス」とも呼ぶ。)である。なお実施の形態では、音声対話サービスにおいてもテキストチャットを並行して使用できることとする。
 詳細は後述するが、顧客応対支援システム20は、カウンセラーと顧客との対話内容を要約して蓄積する。テキスト対話サービスでは、カウンセラーと顧客との対話は基本的にテキストチャットを介してなされるため、顧客端末10とカウンセラー端末12の間でやりとりされたテキストデータを要約対象とする。具体的にはビデオチャットサーバ22は顧客端末10~カウンセラー端末12間で中継したテキストデータを蓄積し、そのテキストデータを要約サーバ26が取得して要約する。テキスト対話サービスでは、カウンセラーによるテキスト入力を支援するために、カウンセラーの発言内容を示す音声データを取り込んでテキストデータへ変換する入力支援処理を実行するが、この音声データは顧客応対支援システム20における要約の対象から除外される。
 また音声対話サービスでは、カウンセラーと顧客との対話は基本的に電話を介してなされるため、電話での通話内容を示す音声データ、厳密には電話での通話内容を示す音声データを変換したテキストデータを要約対象とする。具体的にはカウンセラー端末12は顧客との対話内容を示す音声データをテキストデータへ変換し、蓄積サーバ24は変換後のテキストデータを蓄積する。要約サーバ26はそのテキストデータを取得して要約する。上述したように音声対話サービスにおいてもテキストチャットを並行して使用可能であるが、顧客端末10とカウンセラー端末12の間でやりとりされたテキストデータは顧客応対支援システム20における要約の対象から除外される。
 図2は、図1のカウンセラー端末12で表示される顧客応対画面200を示す。顧客応対画面200には、カメラ画像エリア202と、共有コンテンツエリア204と、チャットエリア206と、テキスト入力エリア208と、発言ボタン210と、終了ボタン212を含む。カメラ画像エリア202は、カメラによるカウンセラーの撮像画像を表示する領域である。共有コンテンツエリア204は、カウンセラーと顧客による対話のテーマである美容のアドバイスや化粧品の使い方等をビジュアルに説明するためのコンテンツであり、カウンセラーにより編集可能なコンテンツの画像を表示する領域である。
 図2のチャットエリア206は、カウンセラーと顧客とによりなされるテキストチャットの内容を表示する領域である。テキスト入力エリア208は、チャットエリア206に入力する文字列を編集する領域である。発言ボタン210は、テキスト入力エリア208の文字列をチャットエリア206へ転記させるボタンオブジェクトである。また発言ボタン210の押下は、テキスト入力エリア208の文字列を顧客端末10に転送して表示させる契機ともなる。終了ボタン212は、カウンセリングの終了時にカウンセラーにより押下されるボタンオブジェクトである。
 顧客応対画面200は、テキスト対話サービスと音声対話サービスの両方においてカウンセラー端末12に表示される。また図1の顧客端末10には、顧客応対画面200に対応するサービス利用画面が表示される。このサービス利用画面には、図2のカメラ画像エリア202、共有コンテンツエリア204、チャットエリア206、テキスト入力エリア208、および発言ボタン210が含まれる。カメラ画像エリア202、共有コンテンツエリア204、およびチャットエリア206の表示内容は、顧客応対画面200とサービス利用画面で同じであり、いわばカウンセラーと顧客の間で共有される。
 図1に戻り、顧客応対支援システム20は、カウンセラー端末12と、ビデオチャットサーバ22と、蓄積サーバ24と、要約サーバ26と、応対履歴DB28を含む。また図1は、顧客応対支援システム20に含まれる各サーバの機能構成を示すブロック図でもある。
 本明細書のブロック図において示される各ブロックは、ハードウェア的には、コンピュータのCPUをはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。例えば図1の機能ブロックは、コンピュータプログラムとして各サーバのストレージへインストールされてもよい。そして、各機能ブロックに対応するプログラムモジュールが各サーバのメインメモリに読み出されてCPUにより実行されてもよい。また各保持部はメインメモリやストレージにより実現されてもよい。サーバは当該サーバが行う処理を行うための専用のPCに設けられるもの限定されず、クラウドコンピューティングのような仮想化されたコンピュータシステム上に構築されるサーバ環境も含む。
 図1のビデオチャットサーバ22は、顧客とカウンセラーとの間で行われる対話内容を示すデータ、第1実施形態ではテキストデータや画像データを顧客端末10とカウンセラー端末12との間で中継する情報処理装置である。ビデオチャットサーバ22は、対話要求受付部30と、対話指示通知部32と、データ転送部34と、第1転送データ保持部36と、第2転送データ保持部38を含む。なおビデオチャットサーバ22は、ウェブサーバの機能を備えてもよく、顧客端末10およびカウンセラー端末12とHTTP通信を介してデータを送受してもよい。
 対話要求受付部30は、テキスト対話サービスもしくは音声対話サービスを指定した対話要求を顧客端末10から受け付ける。対話指示通知部32は、対話要求受付部30において対話要求が受け付けられた場合、テキスト対話サービスもしくは音声対話サービスを指定した対話開始指示をカウンセラー端末12へ通知する。データ転送部34は、カウンセラー端末12から送信されたテキストデータや画像データを受け付けて顧客端末10へ転送する。また、顧客端末10から送信されたテキストデータを受け付けてカウンセラー端末12へ転送する。
 第1転送データ保持部36および第2転送データ保持部38は、顧客とカウンセラーとの対話内容を示すデータを保持する記憶領域である。第1転送データ保持部36は、顧客端末10~カウンセラー端末12間のテキストチャットにおいてそれぞれの端末で入力された要約対象のテキストデータを保持する。第2転送データ保持部38は、顧客端末10~カウンセラー端末12間のテキストチャットにおいてそれぞれの端末で入力されたテキストデータであり、要約対象にならないテキストデータを保持する。すなわち、第1転送データ保持部36に格納されたテキストデータは要約サーバ26により取得されるが、第2転送データ保持部38に格納されたテキストデータは要約サーバ26による取得対象にはならない。第2転送データ保持部38は、音声対話サービスにおける顧客とカウンセラーとの対話内容を示す証左物としてテキストデータを蓄積する。
 対話要求においてテキスト対話サービスが指定された場合、データ転送部34は、顧客端末10~カウンセラー端末12間で転送したテキストデータを、テキスト対話サービスが開始されてからの経過時間を示すデータとともに第1転送データ保持部36へ格納する。対話要求において音声対話サービスが指定された場合も、データ転送部34は、顧客端末10~カウンセラー端末12間でテキストデータを転送するが、転送したテキストデータは第2転送データ保持部38へ格納する。
 図1の蓄積サーバ24は、顧客とカウンセラーとの対話内容を示す音声データおよびテキストデータを蓄積する。蓄積サーバ24は、通話データ受付部40と、テキストデータ保持部42と、音声データ保持部44を含む。
 通話データ受付部40は、音声対話サービスの終了時にカウンセラー端末12から送信された音声データおよびテキストデータを受け付ける。この音声データおよびテキストデータのそれぞれは音声対話サービスにおいて顧客とカウンセラーとの間で行われた対話内容、言い換えれば、電話での通話内容を示すデータである。通話データ受付部40は、カウンセラー端末12から取得したテキストデータをテキストデータ保持部42へ格納し、カウンセラー端末12から取得した音声データを音声データ保持部44へ格納する。
 ここで、テキストデータ保持部42に保持されたテキストデータは顧客応対支援システム20における要約対象となり、言い換えれば、要約サーバ26により取得される。その一方、音声データ保持部44に保持された音声データは顧客応対支援システム20における要約対象にはならず、言い換えれば、要約サーバ26による取得対象にはならない。音声データ保持部44は、音声対話サービスにおける顧客とカウンセラーとの対話内容を示す証左物として音声データを蓄積する。
 図1の要約サーバ26は、顧客とカウンセラーとの対話内容を示すテキストデータを要約して蓄積する。要約サーバ26は、テキストデータ取得部50と、要約処理部52と、要約データ保持部54と、要約データ提供部56と、応対履歴更新部58を含む。
 テキストデータ取得部50は、ビデオチャットサーバ22の第1転送データ保持部36に保持されたテキストデータを定期的に取得する。テキストデータ取得部50はまた、蓄積サーバ24のテキストデータ保持部42に保持されたテキストデータを定期的に取得する。要約処理部52は、テキストデータ取得部50により取得されたテキストデータを所定のアルゴリズムにしたがって要約する。テキストデータの要約機能は、株式会社野村総合研究所が提供するソフトウェアである「TRUE TELLER(登録商標) VOICEダイジェスト」により実現されてもよい。要約処理部52は要約した結果のデータ(以下、「顧客応対要約情報」とも呼ぶ。)を要約データ保持部54へ格納する。
 図3は、顧客応対要約情報を示す。同図は、音声対話サービスにおける顧客応対要約情報を示しており、対話内容エリア220には顧客とカウンセラーとの通話内容が設定される。例えば、蓄積サーバ24から取得されたテキストデータの内容であってもよい。テキスト対話サービスにおける顧客応対要約情報の場合、対話内容エリア220には顧客とカウンセラーとのテキストチャットの内容が設定される。例えば、ビデオチャットサーバ22から取得されたテキストデータの内容であってもよい。要約内容エリア222には対話内容エリア220のテキストデータに対する要約結果が設定される。具体的には、要約処理部52は、対話内容エリア220の情報から、顧客の用件やカウンセラーによる対応、顧客に関する属性情報(コンタクト情報)を抽出して要約内容エリア222へ設定する。
 図1に戻り、要約データ提供部56は、顧客応対要約情報の確認要求をカウンセラー端末12から受け付け、顧客応対要約情報を含む顧客応対要約情報の編集画面のデータをカウンセラー端末12へ送信して表示させる。応対履歴更新部58は、顧客応対要約情報の編集画面において編集終了が指示された際に、編集画面に表示された編集後の顧客応対要約情報をカウンセラー端末12から取得する。そして、編集後の顧客応対要約情報を顧客応対履歴として応対履歴DB28へ格納する。
 応対履歴DB28は、顧客応対履歴を保持するデータベースである。この顧客応対履歴は、カウンセラーがカウンセリングを行った顧客に対するアドバイスや、化粧品の提案のための文書作成に活用される。顧客応対履歴の形式は、図3で示した顧客応対要約情報と同じであってもよい。
 図4は、図1のカウンセラー端末12の機能構成を示すブロック図である。まずコンバージャ64は、いわゆる通話録音アダプターであり、電話機本体である電話機60と、マイクおよびヘッドフォンを含むヘッドセット62の間に介在して通話中の音声を取得する。そして、その音声データをUSB経由でカウンセラー端末12へ送信して記録させる。
 コンバージャ64は、第1サウンドデバイス66と第2サウンドデバイス68を含む。第1サウンドデバイス66は、電話機60からヘッドセット62へ渡される受話データ、言い換えれば、顧客の発言内容を示す音声データを取得してカウンセラー端末12へ送出する。第2サウンドデバイス68は、ヘッドセット62から電話機60へ渡される送話データ、言い換えれば、カウンセラーの発言内容を示す音声データを取得してカウンセラー端末12へ送出する。
 カウンセラー端末12は、USBインタフェース70と、通話内容記録部72と、入力支援用音声テキスト変換部74と、ビデオチャットプラグイン76と、画像取得部78と、応対画面表示制御部80と、入力情報受付部82と、音声データ転送部84と、要約表示制御部86と、要約更新部88を含む。
 通話内容記録部72は、顧客とカウンセラーとの電話での通話内容を記録する。通話内容記録部72は、株式会社アドバンスト・メディアが提供するソフトウェアである「AmiVoice(登録商標) Assist」により実現されてもよい。
 通話内容記録部72は、第1記録部90と第2記録部92と通話データ保持部94と蓄積用音声テキスト変換部96を含む。第1記録部90は、USBインタフェース70を介してコンバージャ64の第1サウンドデバイス66から入力された受話データを、顧客の発言であることを示すデータおよび通話開始からの経過時間を示すデータとともに通話データ保持部94へ記録する。第2記録部92は、USBインタフェース70を介してコンバージャ64の第2サウンドデバイス68から入力された送話データを、カウンセラーの発言であることを示すデータおよび通話開始からの経過時間を示すデータとともに通話データ保持部94へ記録する。
 蓄積用音声テキスト変換部96は、USBインタフェース70を介してコンバージャ64の第1サウンドデバイス66から入力された受話データを第1記録部90から受け付け、その受話データをテキストデータへ変換する。そして変換後のテキストデータを、顧客の発言であることを示すデータおよび通話開始からの経過時間を示すデータとともに通話データ保持部94へ記録する。また蓄積用音声テキスト変換部96は、USBインタフェース70を介してコンバージャ64の第2サウンドデバイス68から入力された送話データを第2記録部92から受け付け、その送話データをテキストデータへ変換する。そして変換後のテキストデータを、カウンセラーの発言であることを示すデータおよび通話開始からの経過時間を示すデータとともに通話データ保持部94へ記録する。
 入力支援用音声テキスト変換部74は、コンバージャ64の第2サウンドデバイス68から入力された送話データを取得し、取得した送話データをテキストデータへ変換して応対画面表示制御部80へ渡す。入力支援用音声テキスト変換部74は、株式会社アドバンスト・メディアが提供するソフトウェアである「AmiVoice(登録商標) Ex」により実現されてもよい。
 入力支援用音声テキスト変換部74は、テキスト対話サービスの指示がビデオチャットサーバ22から受け付けられた場合に音声テキスト変換を実行し、音声対話サービスの指示が受け付けられた場合は音声テキスト変換を実行しない。すなわち入力支援用音声テキスト変換部74は、カウンセラーと顧客との間でテキストチャットが行われる場合に、カウンセラーの発言内容を示すテキストデータを顧客応対画面200へ自動設定することにより、カウンセラーによるテキスト入力の負担を低減する。
 ビデオチャットプラグイン76は、ビデオチャットサーバ22と通信するクライアントソフトウェアである。ビデオチャットプラグイン76は、ActiveX(登録商標)コントロールにより、ビデオチャットサーバ22からダウンロードされてカウンセラー端末12へインストールされてもよい。ビデオチャットプラグイン76は、テキスト対話サービスもしくは音声対話サービスを指定した対話開始指示を受け付けて応対画面表示制御部80へ渡す。
 またビデオチャットプラグイン76は、顧客応対画面200の共有コンテンツエリア204のコンテンツの画像データをビデオチャットサーバ22へ送信することにより、その画像データを顧客端末10へ中継させる。また、顧客応対画面200のチャットエリア206に対してカウンセラーの発言内容として設定されたテキストデータをビデオチャットサーバ22へ送信することにより、そのテキストデータを顧客端末10へ中継させる。また、画像取得部78から提供された画像データをビデオチャットサーバ22へ送信することにより、その画像データを顧客端末10へ中継させる。また顧客端末10においてサービス利用画面に入力されたテキストデータをビデオチャットサーバ22から取得し、そのテキストデータを応対画面表示制御部80へ渡す。
 画像取得部78は、カメラにより撮像されたカウンセラーの画像を取得して、その画像データを応対画面表示制御部80およびビデオチャットプラグイン76へ渡す。
 応対画面表示制御部80は、ビデオチャットプラグイン76において対話開始指示が受け付けられた場合、顧客応対画面200のデータをディスプレイへ出力して、顧客応対画面200の表示内容の制御を開始する。応対画面表示制御部80はウェブブラウザにより実現されてもよい。
 応対画面表示制御部80は、入力支援用音声テキスト変換部74から提供されたテキストデータを顧客応対画面200のテキスト入力エリア208へ設定する。またビデオチャットプラグイン76から提供されたテキストデータを、顧客の発言内容としてチャットエリア206へ設定する。また画像取得部78から提供された画像データを顧客応対画面200のカメラ画像エリア202へ設定する。
 応対画面表示制御部80は、入力情報受付部82から提供された共有コンテンツエリア204における操作内容にしたがって共有コンテンツエリア204のコンテンツを設定し、またその画像データをビデオチャットプラグイン76へ渡す。また、入力情報受付部82から提供されたテキスト入力エリア208への入力データをテキスト入力エリア208へ設定する。また顧客応対画面200の発言ボタン210が押下された旨が入力情報受付部82から通知されると、テキスト入力エリア208のテキストデータをチャットエリア206へ転記する。それとともに、テキスト入力エリア208のテキストデータをカウンセラーの発言内容としてビデオチャットプラグイン76へ渡す。
 入力情報受付部82は、キーボードやマウス等の所定の入力デバイスを介してカウンセラーが顧客応対画面200へ入力したデータを取得する。例えば、入力情報受付部82は、顧客応対画面200の共有コンテンツエリア204におけるコンテンツの編集操作を検出して、その操作内容を応対画面表示制御部80へ通知する。
 また入力情報受付部82は、顧客応対画面200のテキスト入力エリア208に対するテキストの入力を検出して、そのテキストデータを応対画面表示制御部80へ渡す。また顧客応対画面200の発言ボタン210が押下されたことを検出して、その旨を応対画面表示制御部80へ通知する。また顧客応対画面200の終了ボタン212の押下されたことを検出して、その旨を音声データ転送部84へ通知する。
 音声データ転送部84は、顧客応対画面200の終了ボタン212が押下された旨が入力情報受付部82から通知されると、通話データ保持部94に保持された音声データおよびテキストデータを取得して蓄積サーバ24へ送信する。この音声データとテキストデータのそれぞれには、カウンセラーの発言内容と対話開始からの経過時間、顧客の発言内容と対話開始からの経過時間が含まれる。
 また入力情報受付部82は、顧客応対要約情報の確認要求をカウンセラーから受け付けて要約表示制御部86へ通知する。要約表示制御部86は、顧客応対要約情報の確認要求を要約サーバ26へ送信し、顧客応対要約情報の編集画面のデータを要約サーバ26から取得してディスプレイに表示させる。また要約表示制御部86は、顧客応対要約情報の編集画面における編集内容を入力情報受付部82を介して取得し、顧客応対要約情報に反映させる。
 入力情報受付部82は、顧客応対要約情報の編集終了の指示をカウンセラーから受け付けて要約更新部88へ通知する。要約更新部88は、顧客応対要約情報の編集終了の指示が受け付けられた場合、そのときに顧客応対要約情報の編集画面に表示された顧客応対要約情報を要約サーバ26へ送信する。
 以上の構成による顧客応対支援システム20の動作を以下説明する。
 図5は、顧客応対支援システム20の動作を示すフローチャートである。化粧品会社のカウンセラーに対して化粧品に関する質問や美容に関する相談を行いたい顧客は、顧客端末10を操作して顧客応対支援システム20にアクセスし、テキスト対話サービスもしくは音声対話サービスを指定した対話要求を通知する。例えば、顧客端末10のウェブブラウザを操作して、顧客応対支援システム20のウェブサーバに対して対話要求のデータを送信してもよい。顧客端末10から送信されたカウンセラーとの対話要求をビデオチャットサーバ22が受け付けると(S10のY)、ビデオチャットサーバ22は顧客との対話指示をカウンセラー端末12へ通知する(S12)。
 対話要求でテキスト対話サービスが指定された場合(S14のY)、後述のテキスト対話処理を実行する(S16)。テキスト対話処理が終了すると、要約サーバ26は、ビデオチャットサーバ22から、顧客とカウンセラーの対話内容を示すテキストデータを取得する(S18)。対話要求で音声対話サービスが指定された場合(S14のN)、後述の音声対話処理を実行する(S20)。音声対話処理が終了すると、蓄積サーバ24は、顧客とカウンセラーの対話内容を示すテキストデータおよび音声データをカウンセラー端末12から取得して蓄積する(S22)。要約サーバ26は、蓄積サーバ24から、顧客とカウンセラーの対話内容を示すテキストデータを取得する(S24)。
 要約サーバ26は、ビデオチャットサーバ22から取得したテキストデータと蓄積サーバ24から取得したテキストデータのそれぞれを要約して、顧客とカウンセラーの対話内容を要約した要約データを蓄積する(S26)。対話要求でテキスト対話サービスが指定された場合は前者のテキストデータを要約し、対話要求で音声対話サービスが指定された場合は後者のテキストデータを要約することになる。ビデオチャットサーバ22が対話要求を受け付けなければ(S10のN)、S12~S26をスキップする。要約サーバ26は、要約データの確認要求をカウンセラー端末12から受け付けると(S28のY)、要約データを編集可能な編集画面のデータをカウンセラー端末12へ提供して表示させる。要約サーバ26は、カウンセラーによる編集後の要約データを顧客応対履歴として応対履歴DB28へ格納する(S30)。要約データの確認要求を受け付けなければ(S28のN)、S30をスキップする。
 図6は、図5のS16のテキスト対話処理を詳細に示すフローチャートである。まずカウンセラー端末12は、ビデオチャットサーバ22から対話要求を受け付けると、顧客応対画面200を表示させる。カウンセラー端末12において音声入力、すなわちカウンセラーによる発言を検出すると(S40のY)、カウンセラー端末12の入力支援用音声テキスト変換部74は、その音声データをテキストデータへ変換して顧客応対画面200のテキスト入力エリア208へ表示させる(S42)。テキスト入力エリア208に自動設定されたテキストデータはカウンセラーにより適宜編集される。カウンセラー端末12において音声入力がなければ(S40のN)、S42はスキップされる。なお入力支援用音声テキスト変換部74による変換対象となる音声データは、カウンセラー端末12から外部の装置へ提供されず、すなわちビデオチャットサーバ22の中継対象にならず、蓄積サーバ24の蓄積対象にもならないため、要約サーバ26の要約対象から除外される。
 カウンセラー端末12において、顧客応対画面200のチャットエリア206へのテキスト入力、すなわち発言ボタン210の押下を検出すると(S44のY)、カウンセラー端末12はチャットエリア206へ入力されたテキストデータをビデオチャットサーバ22へ送信する。ビデオチャットサーバ22は、そのテキストデータを顧客端末10へ転送し(S46)、またそのテキストデータを第1転送データ保持部36に蓄積する(S48)。カウンセラー端末12においてチャットエリア206へのテキスト入力がなければ(S44のN)、S46およびS48をスキップする。顧客端末10において、サービス利用画面のチャットエリアへのテキスト入力を検出すると(S50のY)、顧客端末10はチャットエリアへ入力されたテキストデータをビデオチャットサーバ22へ送信する。ビデオチャットサーバ22は、そのテキストデータをカウンセラー端末12へ転送し(S52)、またそのテキストデータを第1転送データ保持部36に蓄積する(S54)。顧客端末10において、サービス利用画面のチャットエリアへのテキスト入力がなければ(S50のN)、S52およびS54をスキップする。
 カウンセラー端末12においてテキスト対話サービスの終了を検出すると、すなわち顧客応対画面200の終了ボタン212の押下を検出すると(S56のY)、所定の終了処理を実行する(S58)。例えば、テキスト対話サービスが終了した旨をカウンセラー端末12がビデオチャットサーバ22へ通知し、ビデオチャットサーバ22はそれまで中継したテキストデータを、要約サーバ26による取得対象となる態様で第1転送データ保持部36に格納してもよい。またビデオチャットサーバ22は、テキスト対話サービスが終了した旨がカウンセラー端末12から通知されたことを契機として、それまで中継したテキストデータを第1転送データ保持部36へ格納してもよい。テキスト対話サービスの終了を未検出であれば(S56のN)、S40へ戻る。
 図7は、図5のS20の音声対話処理を詳細に示すフローチャートである。まずカウンセラー端末12は、ビデオチャットサーバ22から対話要求を受け付けると、顧客応対画面200を表示させる。カウンセラーは応対要求元の顧客に対して電話をかけて顧客との対話を開始する。この場合、顧客とカウンセラーとの対話内容を示す音声データは、PSTN(Public Switched Telephone Networks)網やIP電話網を介して、顧客側の電話機とカウンセラー側の電話機で送受される。
 カウンセラー端末12において、顧客応対画面200のチャットエリア206へのテキスト入力を検出すると(S60のY)、カウンセラー端末12はチャットエリア206へ入力されたテキストデータをビデオチャットサーバ22へ送信する。ビデオチャットサーバ22は、そのテキストデータを顧客端末10へ転送し(S62)、またそのテキストデータを第2転送データ保持部38に蓄積する(S64)。カウンセラー端末12においてチャットエリア206へのテキスト入力がなければ(S60のN)、S62およびS64をスキップする。顧客端末10において、サービス利用画面のチャットエリアへのテキスト入力を検出すると(S66のY)、顧客端末10はチャットエリアへ入力されたテキストデータをビデオチャットサーバ22へ送信する。ビデオチャットサーバ22は、そのテキストデータをカウンセラー端末12へ転送し(S68)、またそのテキストデータを第2転送データ保持部38に蓄積する(S70)。顧客端末10において、サービス利用画面のチャットエリアへのテキスト入力がなければ(S66のN)、S68およびS70をスキップする。既述したように、第2転送データ保持部38に蓄積されたテキストデータは、要約サーバ26の要約対象から除外される。
 カウンセラーの電話機60~ヘッドセット62間で受話データ・送話データが送受された場合(S72のY)、カウンセラー端末12の通話内容記録部72はコンバージャ64を介して受話データ・送話データを取得して保存する(S74)。さらに通話内容記録部72の蓄積用音声テキスト変換部96は、受話データと送話データのそれぞれをテキストデータへ変換して保存する(S76)。カウンセラーの電話機60~ヘッドセット62間で受話データ・送話データの送受がなければ(S72のN)、S74およびS76をスキップする。カウンセラー端末12において音声対話サービスの終了を検出すると、すなわち顧客応対画面200の終了ボタン212の押下を検出すると(S78のY)、カウンセラー端末12は保存した音声データおよびテキストデータを蓄積サーバ24へ送信する(S80)。音声対話サービスの終了を未検出であれば(S78のN)、S60へ戻る。
 なお図6および図7には不図示であるが、カウンセラー端末12はカウンセラーの撮像画像や、共有コンテンツエリア204の画像をさらに取得してビデオチャットサーバ22へ送信する。ビデオチャットサーバ22は、カウンセラーの撮像画像や、共有コンテンツエリア204の画像を顧客端末10へ転送して、顧客端末10のサービス利用画面で表示させる。
 第1実施形態の顧客応対支援システム20によれば、顧客による選択が可能な複数種類のチャネル(テキストもしくは音声)を介したカウンセラーとの対話サービスを顧客へ提供できる。また、複数種類のチャネルを介してなされた顧客応対の内容を、共通の形式の顧客応対要約情報および顧客応対履歴として一元的に集約して蓄積する。これにより、顧客応対要約情報や顧客応対履歴を、企業における各種の顧客サービスに活用することが容易になる。例えば、顧客応対要約情報や顧客応対履歴の利用者は、顧客との対話チャネルがテキストであるか音声であるかを意識することなく参照することができる。また、顧客応対の内容を記録したテキストデータから顧客応対要約情報を自動的に作成して、その内容をカウンセラーに確認させることにより、カウンセラーの負担を軽減しつつ、正確な顧客応対履歴を蓄積することができる。
 また顧客応対支援システム20によれば、音声対話サービスにおいては顧客とカウンセラーとの音声による会話が基本であるため、顧客とカウンセラーによるテキストチャットの内容を要約対象から除外する。これにより、音声による会話の内容とテキストチャットの内容が時系列で混在することがなく、適切な顧客応対要約情報を作成しやすくなる。
 また顧客応対支援システム20によれば、テキスト対話サービスにおいては顧客とカウンセラーとのテキストチャットが基本であるため、カウンセラーによる発言内容を示す音声データをテキストデータ変換して入力支援を行う一方で、その音声データを要約対象から除外する。これにより、音声による発言の内容とテキストチャットの内容が時系列で混在することがなく、適切な顧客応対要約情報を作成しやすくなる。
 (第2の実施の形態)
 上記の第1実施形態では、カウンセラーと対話するための複数種類のチャネルとして、テキストチャットと電話による会話を提供することとした。第2の実施の形態(以下、「第2実施形態」とも呼ぶ。)では、カウンセラーとのテレビ電話による対話のチャネルを、「テレビ電話対話サービス」としてさらに提供する。
 第2実施形態のシステム構成は、図1に示す第1実施形態のシステム構成と同様である。以下、第1実施形態と同じ構成は説明を省略して異なる点を説明する。
 ビデオチャットサーバ22の対話要求受付部30は、テキスト対話サービス、音声対話サービス、もしくはテレビ電話対話サービスを指定した対話要求を顧客端末10から受け付け、対話指示通知部32はその対話要求をカウンセラー端末12へ通知する。ビデオチャットサーバ22のデータ転送部34は、対話要求においてテレビ電話対話サービスが指定された場合、カウンセラー端末12から受け付けたテキストチャットのデータ、カウンセラーの撮像画像、共有コンテンツエリア204の画像、およびカウンセラーの発言内容を示す音声データを顧客端末10へ中継する。さらに、顧客端末10から受け付けたテキストチャットのデータ、顧客端末10で撮像された顧客の撮像画像、および顧客の発言内容を示す音声データをカウンセラー端末12へ中継する。
 図8は、第2実施形態におけるカウンセラー端末12の機能構成を示すブロック図である。カウンセラー端末12は、図4の構成に加えて、再生用サウンドデバイス100とヘッドフォン端子102と、マイク端子104と、録音用サウンドデバイス106をさらに含む。また、カウンセラー端末12の外部に分岐コネクタ110と集約コネクタ112が設けられる。分岐コネクタ110は、単一の端子から入力された音声データをLチャネルおよびRチャネルに分岐して出力する公知のコネクタであってもよい。集約コネクタ112は、LチャネルおよびRチャネルのそれぞれから入力された音声データを単一の端子から出力する公知のコネクタであってもよい。
 図8では図示しないが、カウンセラー端末12は、図4で示す音声対話サービスを提供するための構成、すなわち電話機60、コンバージャ64、USBインタフェース70をさらに含んでもよいことはもちろんである。以下では、テレビ電話対話サービスに特有の構成を説明する。
 ビデオチャットプラグイン76は、ビデオチャットサーバ22から受け付けたテキストデータおよび画像データを応対画面表示制御部80へ渡して顧客応対画面200に表示させる。また、ビデオチャットサーバ22から受け付けた音声データを再生用サウンドデバイス100に渡してヘッドフォン端子102を介してヘッドセット62で再生させる。また、ヘッドセット62へ入力されたカウンセラーの発言内容を示す音声データをマイク端子104を介して録音用サウンドデバイス106が受け付けてビデオチャットプラグイン76に渡す。ビデオチャットプラグイン76はその音声データをビデオチャットサーバ22へ送信して顧客端末10へ中継させる。
 ここで、対話要求においてテレビ電話対話サービスが指定された場合、顧客とカウンセラーとの対話内容は、対話要求において音声対話サービスが指定された場合と同様の方式で要約される。すなわち、カウンセラー端末12の通話内容記録部72は顧客とカウンセラーの対話内容を示す音声データおよびテキストデータを記録する。そして、テレビ電話対話サービスの終了を契機として音声データ転送部84はその音声データおよびテキストデータを蓄積サーバ24へ送信する。
 カウンセラーの発言内容を示す音声データを記録する場合は、ヘッドセット62に入力された音声データを録音用サウンドデバイス106が受け付けて、録音用サウンドデバイス106がその音声データを第2記録部92へ渡せばよい。その一方、ビデオチャットサーバ22から受け付けられた音声データ、すなわち顧客の発言内容を示す音声データを記録する方式としては、その音声データを再生用サウンドデバイス100から第1記録部90へ直接渡して記録させることも考えられる。しかし、カウンセラー端末12ではデジタルコンテンツ保護の観点から、再生用サウンドデバイス100から第1記録部90へ音声データを直接渡すことが禁止される。そのため、第2実施形態では顧客の発言内容を示す音声データを以下の方式で記録する。
 すなわち、分岐コネクタ110は、ヘッドフォン端子102を介して再生用サウンドデバイス100から受け付けた音声データをLチャネルとRチャネルの両方から出力する。Rチャネルで出力された音声データはヘッドセット62で再生される一方、Lチャネルで出力された音声データは集約コネクタ112のLチャネルから入力される。集約コネクタ112は、ヘッドセット62に入力されたカウンセラーの発言内容を示す音声データをRチャネルで受け付け、Lチャネルに入力された音声データと、Rチャネルに入力された音声データとを識別可能な態様でマイク端子104へ出力する。録音用サウンドデバイス106は、Rチャネルに対応づけられた音声データを入力支援用音声テキスト変換部74、第2記録部92、ビデオチャットプラグイン76へ渡す一方、Lチャネルに対応づけられた音声データを第1記録部90へ渡す。これにより、ビデオチャットサーバ22から受け付けられた顧客の発言内容を示す音声データおよびテキストデータを通話データ保持部94へ保存させる。
 第2実施形態の顧客応対支援システム20によれば、第1実施形態における効果に加えて、カウンセラーとのテレビ電話による対話チャネルを提供する場合に、デジタルコンテンツ保護のための制約下において顧客応対内容を蓄積することができる。すなわち、カウンセラー端末12において、顧客端末10から送信された音声データを再生用のサウンドデバイスから一旦外部デバイスへ出力し、その外部デバイスを経由した音声データを録音用のサウンドデバイスで受け付けることで、顧客端末10から送信された音声データの記録を実現する。
 以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 上述した実施の形態および変形例の任意の組み合わせもまた本発明の実施の形態として有用である。組み合わせによって生じる新たな実施の形態は、組み合わされる実施の形態および変形例それぞれの効果をあわせもつ。
 請求項に記載の各構成要件が果たすべき機能は、実施の形態および変形例において示された各構成要素の単体もしくはそれらの連係によって実現されることも当業者には理解されるところである。例えば、請求項に記載の受付部はビデオチャットサーバ22の対話要求受付部30により実現されてもよく、中継部はビデオチャットサーバ22のデータ転送部34により実現されてもよい。また第1の変換部はカウンセラー端末12の蓄積用音声テキスト変換部96により実現されてもよく、第2の変換部はカウンセラー端末12の入力支援用音声テキスト変換部74により実現されてもよい。
 10 顧客端末、 12 カウンセラー端末、 20 顧客応対支援システム、 22 ビデオチャットサーバ、 24 蓄積サーバ、 26 要約サーバ、 28 応対履歴DB、 30 対話要求受付部、 32 対話指示通知部、 34 データ転送部、 36 第1転送データ保持部、 38 第2転送データ保持部、 40 通話データ受付部、 42 テキストデータ保持部、 44 音声データ保持部、 50 テキストデータ取得部、 52 要約処理部、 54 要約データ保持部、 56 要約データ提供部、 58 応対履歴更新部。
 本発明は、顧客への応対を支援するためのシステムに利用可能である。

Claims (5)

  1.  オペレータとの音声による対話サービスである音声対話サービス、または、オペレータとのテキストによる対話サービスであるテキスト対話サービスを指定した対話要求を顧客の端末から受け付ける受付部と、
     前記対話要求において音声対話サービスが指定された場合、顧客とオペレータとの対話内容を示す音声データをテキストデータへ変換する第1の変換部と、
     前記対話要求においてテキスト対話サービスが指定された場合、顧客とオペレータとの対話内容を示すテキストデータを顧客の端末とオペレータの端末との間で中継する中継部と、
     前記第1の変換部により変換されたテキストデータと、前記中継部により中継されたテキストデータのそれぞれを要約して蓄積する要約部と、
     を備えることを特徴とする顧客応対支援システム。
  2.  前記中継部は、前記対話要求において音声対話サービスが指定された場合も、顧客とオペレータとの対話内容を示すテキストデータを顧客の端末とオペレータの端末との間で中継する一方、当該テキストデータは前記要約部による要約の対象から除外されることを特徴とする請求項1に記載の顧客応対支援システム。
  3.  前記対話要求においてテキスト対話サービスが指定された場合、前記オペレータの端末において、オペレータの発言内容を示す音声データをテキストデータへ変換し、変換後のテキストデータを、前記顧客の端末へ送信すべきテキストデータとして出力する第2の変換部をさらに備え、
     前記オペレータの発言内容を示す音声データは、前記要約部による要約の対象から除外されることを特徴とする請求項1または2に記載の顧客応対支援システム。
  4.  前記要約部は、要約したデータを編集可能な態様でオペレータの端末へ提示することを特徴とする請求項1から3のいずれかに記載の顧客応対支援システム。
  5.  オペレータとの音声による対話サービスである音声対話サービス、または、オペレータとのテキストによる対話サービスであるテキスト対話サービスを指定した対話要求を顧客の端末から受け付けるステップと、
     前記対話要求において音声対話サービスが指定された場合、顧客とオペレータとの対話内容を示す音声データをテキストデータへ変換するステップと、
     前記対話要求においてテキスト対話サービスが指定された場合、顧客とオペレータとの対話内容を示すテキストデータを顧客の端末とオペレータの端末との間で中継するステップと、
     前記変換するステップにおいて変換されたテキストデータと、前記中継するステップにおいて中継されたテキストデータのそれぞれを要約して蓄積するステップと、
     を備えることを特徴とする顧客応対支援方法。
PCT/JP2012/006356 2011-10-11 2012-10-03 顧客応対支援システムおよび顧客応対支援方法 WO2013054491A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-223663 2011-10-11
JP2011223663A JP5758770B2 (ja) 2011-10-11 2011-10-11 顧客応対支援システムおよび顧客応対支援方法

Publications (1)

Publication Number Publication Date
WO2013054491A1 true WO2013054491A1 (ja) 2013-04-18

Family

ID=48081561

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/006356 WO2013054491A1 (ja) 2011-10-11 2012-10-03 顧客応対支援システムおよび顧客応対支援方法

Country Status (3)

Country Link
JP (1) JP5758770B2 (ja)
TW (1) TW201329894A (ja)
WO (1) WO2013054491A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5753936B1 (ja) * 2014-11-27 2015-07-22 株式会社野村総合研究所 表示制御方法
JP6436762B2 (ja) * 2014-12-25 2018-12-12 株式会社野村総合研究所 情報処理装置およびサービス提供方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207753A (ja) * 2001-01-10 2002-07-26 Teijin Seiki Co Ltd マルチメディア情報記録作成提供システム
JP2002245354A (ja) * 2001-02-20 2002-08-30 Telework:Kk サポートコールセンターシステム
JP2008021203A (ja) * 2006-07-14 2008-01-31 Csk Holdings Corp 顧客情報活用装置
JP2011010052A (ja) * 2009-06-26 2011-01-13 Traction Inc コールセンターシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207753A (ja) * 2001-01-10 2002-07-26 Teijin Seiki Co Ltd マルチメディア情報記録作成提供システム
JP2002245354A (ja) * 2001-02-20 2002-08-30 Telework:Kk サポートコールセンターシステム
JP2008021203A (ja) * 2006-07-14 2008-01-31 Csk Holdings Corp 顧客情報活用装置
JP2011010052A (ja) * 2009-06-26 2011-01-13 Traction Inc コールセンターシステム

Also Published As

Publication number Publication date
JP2013084123A (ja) 2013-05-09
TW201329894A (zh) 2013-07-16
JP5758770B2 (ja) 2015-08-05

Similar Documents

Publication Publication Date Title
JP5532598B2 (ja) オペレータ管理システム、その方法、及びプログラム
WO2020124725A1 (zh) 基于WebRTC协议的音视频推送方法和推流客户端
CN102388379A (zh) 用于在线协作计算会话的自动和增强的记笔记
JP2002535932A (ja) マルチメディアメッセージの選択および表示の方法と装置
JP5897277B2 (ja) カウンセリングシステム、カウンセリング装置、クライアント端末、及びカウンセリングプログラム
DE112013005923T5 (de) Aufzeichnungsdienst für Kontaktzentrale
US20120218396A1 (en) Method and apparatus for usability testing of a mobile device
JP2019068300A (ja) ダイジェストデータ生成装置、ダイジェストデータ再生装置、ダイジェストデータ生成システム、ダイジェストデータ生成方法及びプログラム
JP2004287201A (ja) 議事録作成装置及び方法、ならびに、コンピュータプログラム
JP2019153099A (ja) 会議支援システム及び会議支援プログラム
JP5758770B2 (ja) 顧客応対支援システムおよび顧客応対支援方法
JP7123448B1 (ja) 情報処理方法、コンピュータプログラム及び情報処理装置
JP2010041286A (ja) 話者判別プログラム、話者判別装置、および話者判別方法
JP2005292476A (ja) 顧客応対方法及び装置
JP4385501B2 (ja) 顧客端末メッセージ出力システム
JP6875905B2 (ja) 通話制御システム及び通話制御方法
WO2023053940A1 (ja) 情報処理システム、プログラム及び情報処理方法
JP6065574B2 (ja) ガイダンスシステム、ガイダンスシステム用サーバ及びガイダンスシステム用プログラム
US20240121449A1 (en) Information processing apparatus, control method for information processing apparatus, storage medium, information processing system, and control method for information processing system
JP2019135609A (ja) 文字入力支援システム、文字入力支援制御装置、文字入力支援プログラム
JP2003032651A (ja) 説明会情報配信方法、説明会情報配信システム及び説明会情報配信プログラム
JP6480987B2 (ja) 電話自動応答補助システムおよびプログラム
WO2022079853A1 (ja) 音楽データ処理方法
JP2008252511A (ja) コールセンタシステム、その受付方法およびコールセンタシステム用プログラム
WO2008102055A1 (en) Method, arrangement, terminal device, server and software for recording and storing of audio and/or video calls

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12839568

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12839568

Country of ref document: EP

Kind code of ref document: A1