WO2017175363A1 - 情報処理システム、受付サーバ、情報処理方法及びプログラム - Google Patents
情報処理システム、受付サーバ、情報処理方法及びプログラム Download PDFInfo
- Publication number
- WO2017175363A1 WO2017175363A1 PCT/JP2016/061448 JP2016061448W WO2017175363A1 WO 2017175363 A1 WO2017175363 A1 WO 2017175363A1 JP 2016061448 W JP2016061448 W JP 2016061448W WO 2017175363 A1 WO2017175363 A1 WO 2017175363A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- inquiry
- answer
- communicator
- terminal device
- unit
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/3349—Reuse of stored results of previous queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/3332—Query translation
- G06F16/3338—Query expansion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3343—Query execution using phonetics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Definitions
- the present invention relates to an information processing system, a reception server, an information processing method, and a program.
- a technology for automating call center operations for receiving inquiries from customers is known.
- a system is known that responds to inquiries by telephone from a customer to a call center by using an automatic voice response (IVR).
- IVR automatic voice response
- a system that accepts an inquiry from a customer to a call center via the Internet or the like using a virtual operator (VO).
- VO virtual operator
- the present invention has been made in view of such a situation, and an object thereof is to further improve the efficiency of operations for receiving inquiries from customers.
- an information processing system includes: An information processing system including a terminal device that transmits an inquiry and a reception server that receives the inquiry transmitted from the terminal device, The reception server is Accepting means for accepting the inquiry from the terminal device; First determination means for determining whether or not an answer to the inquiry can be searched from a response database in which a plurality of prepared questions and answers are stored; When it is determined by the first determination means that an answer to the inquiry cannot be searched, a replenishment process for replenishing information for performing an answer to the inquiry is executed, and the inquiry is answered based on the result of the replenishment process An answer generating means for generating an answer; Second determination means for determining whether or not an answer to the inquiry has been generated by the answer generation means; The answer retrieved by the first determination means when the first determination means determines that the answer to the inquiry can be searched and when the second determination means determines that the answer to the inquiry can be generated. Or answering means for sending the answer generated by the second determining means; Call means for executing
- FIG. 1 is a diagram showing a system configuration of an information processing system 1 according to the present invention.
- the information processing system 1 constitutes a proxy call center system that integrates and processes call center operations of a plurality of companies.
- primary inquiries are made using a virtual operator (VO) capable of voice recognition in response to an inquiry from a customer, and a virtual operator answers a fixed inquiry in which an answer is prepared in advance. Answer.
- VO virtual operator
- a virtual operator executes a process of supplementing information for generating an answer (supplement process) in response to an inquiry for which no answer is prepared in advance, Answer by virtual operator.
- an inquiry that needs to be handled by a human communicator is connected to a call center of each company and processed.
- the standardized query and the answer are sequentially added to the standard query corresponding by the virtual operator.
- the virtual operator presents a topic to the customer who has made an inquiry and performs a conversation, thereby presenting recommended information to the customer based on the information grasped through the conversation.
- the information processing system 1 includes a VO server 10, an IVR server 20, a plurality of CTI (Computer Telephony Integration) servers 30, an IP-PBX (Internet Protocol Private Exchange eXchange) server 40, and a screen.
- the server includes a linkage server 50, a CRM (Customer Relationship Management) server 60, and a terminal device 70.
- the terminal device 70 and the IVR server 20 are configured to be communicable via a public telephone network 80A, and the terminal device 70, the VO server 10, and the CRM server 60 are capable of communicating with each other via a public communication network 80B such as the Internet. Connected to.
- the VO server 10 and the CTI server 30 are connected to each other via a VPN (Virtual Private Network) 80C so that they can communicate with each other. Further, the CTI server 30 transmits and receives IP voice (voice communication using the Internet protocol) to and from the IVR server 20 via the IP-PBX server 40.
- VPN Virtual Private Network
- the VO server 10 responds to an inquiry through a public communication network from a terminal device 70 (such as a smartphone or a PC) equipped with a browser, and performs a primary reception using a virtual operator. Specifically, the VO server 10 recognizes the voice transmitted from the terminal device 70 and makes a response by voice according to the utterance content. Further, the VO server 10 records the conversation between the customer who made the inquiry and the virtual operator, and executes machine learning based on the recorded conversation. As a result of the machine learning, the VO server 10 changes the speech recognition method or changes the interpretation method of the customer's intention. In addition, the VO server 10 standardizes responses to similar inquiries by virtual operators based on the history of inquiries handled by the communicator.
- the IVR server 20 responds to an inquiry from the terminal device 70 via the public telephone network by an automatic voice response.
- the CTI server 30 is installed in each of a plurality of companies (here, company A to company C), and inquiries that exceed the scope of primary reception by the VO server 10 are taken over by human communicators at each company. Make it.
- a communicator PC used by the communicator is connected to the CTI server 30 and a communicator telephone is connected via the PBX.
- the CTI server 30 stores documents, URLs, PDF files, FAQ text data, and the like provided to customers as a database.
- the display of the screen is controlled via the screen cooperation server 50 that links the screen of the terminal device 70 used by the customer and the screen of the communicator PC.
- the communicator and the customer can make a call by transmitting / receiving IP voice or voice communication via the public telephone network 80A.
- the IP-PBX server 40 performs conversion between IP voice transmitted from the IVR server 20 or the terminal device 70 and voice on the telephone line.
- the screen linkage server 50 controls the terminal device 70 used by the customer and the communicator terminal device used by the communicator, and the screen of the terminal device 70 used by the customer and the screen of the communicator terminal device used by the communicator. Link.
- the CRM server 60 stores information related to customer attributes such as purchase history, behavior history, or preference information. Note that these pieces of information stored in the CRM server 60 are hereinafter referred to as “personal information” as appropriate.
- the CRM server 60 refers to the personal information in response to a request from the VO server 10 or the CTI server 30 and provides information that enables individually adapted responses to each customer.
- the terminal device 70 is a terminal device 70 used by a customer who makes an inquiry to the call center system configured by the information processing system 1, and is configured by, for example, a smartphone, a PC, or a mobile phone.
- the terminal devices 70 devices capable of displaying guidance on the screen by the VO server 10, such as smartphones or PCs, display guidance on the screen in addition to voice responses by the virtual operator.
- a voice response by a virtual operator is performed.
- the terminal device 70 performs communication of page data such as text and images and IP voice via the public communication network 80B. It is also possible to use a terminal device 70 that performs voice communication on a telephone line via the public telephone network 80A.
- the terminal device 70 communicates an inquiry to the VO server 10 or the IVR server 20, and displays a screen of a response transmitted from the VO server 10 or the IVR server 20 and outputs a sound.
- the VO server 10 In the information processing system 1, the VO server 10, IVR server 20, CTI server 30, IP-PBX server 40, screen cooperation server 50, and CRM server 60 are installed with software that realizes the function of each server in the server computer. Consists of.
- FIG. 2 is a diagram illustrating a hardware configuration of a server computer 800 configuring each server.
- a server computer 800 constituting each server includes a CPU (Central Processing Unit) 811, a ROM (Read Only Memory) 812, a RAM (Random Access Memory) 813, a bus 814, and an input unit. 815, an output unit 816, a storage unit 817, a communication unit 818, and a drive 819.
- CPU Central Processing Unit
- ROM Read Only Memory
- RAM Random Access Memory
- the CPU 811 executes various processes (processes for realizing the functions of each server) according to a program recorded in the ROM 812 or a program loaded from the storage unit 817 to the RAM 813.
- the RAM 813 appropriately stores data necessary for the CPU 811 to execute various processes.
- the CPU 811, the ROM 812, and the RAM 813 are connected to each other via a bus 814.
- An input unit 815, an output unit 816, a storage unit 817, a communication unit 818, and a drive 819 are connected to the bus 814.
- the input unit 815 is configured with various buttons and the like, and inputs various information according to an instruction operation.
- the output unit 816 includes a display, a speaker, and the like, and outputs an image and sound.
- the storage unit 817 is configured by a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various data managed by each server.
- the communication unit 818 controls communication performed with other devices via a network.
- a removable medium 821 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory or the like is appropriately attached.
- the program read from the removable medium 821 by the drive 819 is installed in the storage unit 817 as necessary.
- the terminal device 70 is configured by a terminal device 70 in which a browser such as a smartphone or a PC (Personal Computer) is mounted, a mobile phone or a fixed phone capable of voice communication, and the like.
- a browser such as a smartphone or a PC (Personal Computer) is mounted, a mobile phone or a fixed phone capable of voice communication, and the like.
- FIG. 3 is a diagram illustrating a hardware configuration of the terminal device 70.
- a hardware configuration of a smartphone is illustrated as an example of the terminal device 70.
- the terminal device 70 includes a CPU 911, a ROM 912, a RAM 913, a bus 914, a touch operation input unit 915, an output unit 916, a voice input unit 917, an imaging unit 918, and a storage unit. 919, a communication unit 920, and a drive 921.
- the CPU 911 executes various processes (processes for realizing the functions of the terminal device 70) in accordance with a program recorded in the ROM 912 or a program loaded from the storage unit 919 to the RAM 913.
- the RAM 913 appropriately stores data necessary for the CPU 911 to execute various processes.
- the CPU 911, the ROM 912, and the RAM 913 are connected to each other via a bus 914.
- a touch operation input unit 915, an output unit 916, an audio input unit 917, an imaging unit 918, a storage unit 919, a communication unit 920, and a drive 921 are connected to the bus 914.
- the touch operation input unit 915 includes, for example, a capacitance type or resistance film type position input sensor stacked in the display area of the output unit 916, and detects the coordinates of the position where the touch operation is performed.
- the touch operation refers to a contact or proximity operation of an object (such as a user's finger or a touch pen) with respect to the touch operation input unit 915.
- the output unit 916 includes a display, a speaker, and the like, and outputs an image and sound. In other words, in this embodiment, the touch operation input unit 915 and the display of the output unit 916 constitute a touch panel.
- the voice input unit 917 is constituted by a microphone, for example, and converts the input voice into an analog electric signal.
- the audio analog signal is subjected to A / D (Analog / Digital) conversion processing and converted into a digital signal representing the audio data.
- the execution subject of the A / D conversion processing is not particularly limited, and may be the CPU 911 or dedicated hardware (not shown). However, in the present embodiment, for convenience of explanation, the voice input unit 917 is used. It shall be. That is, in this embodiment, the voice input unit 917 outputs voice data based on the input voice to the CPU 911 or the like.
- the imaging unit 918 includes an optical lens unit and an image sensor.
- the optical lens unit is configured with a lens that collects light, such as a focus lens, for photographing a subject.
- a zoom lens that freely changes the focal length within a certain range may be provided in the optical lens unit.
- the optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.
- the image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
- the photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like.
- CMOS Complementary Metal Oxide Semiconductor
- a Bayer color filter is attached to the image sensor.
- the image sensor photoelectrically converts (images) the optical signal of the subject image incident and accumulated during a certain time interval, and sequentially supplies analog electric signals obtained as a result to the AFE.
- the AFE performs various signal processing such as A / D conversion processing on the analog electric signal. Through various signal processing, a digital signal is generated and output as an output signal of the imaging unit 918.
- the image data indicated by the output signal of the imaging unit 918 is hereinafter referred to as “captured image data” as appropriate.
- the captured image data is stored in the RAM 913 or the storage unit 919 in accordance with an instruction from the
- the storage unit 919 includes a storage device such as a DRAM and stores various data.
- the communication unit 920 controls communication performed with other devices via a network.
- a removable medium 931 is appropriately attached to the drive 921 as necessary.
- the program read from the removable medium 931 by the drive 921 is installed in the storage unit 919 as necessary.
- the removable medium 931 can also store various data stored in the storage unit 919 in the same manner as the storage unit 919.
- FIG. 4 is a block diagram illustrating a main functional configuration realized in the information processing system 1.
- the information processing system 1 includes a VO server 10 as a database, a character database 151, a personal database 152, a scenario database 153, a FAQ search database 154, a speech synthesis database 155, a marketing template.
- a database 156, a VOC database 157, a topic submission database 158, a communicator history database 159, and a dialogue history database 160 are provided.
- the CTI server 30 is provided with a document database 351 and a FAQ text database 352.
- the CRM server 60 is provided with a CRM personal database 651 and a meta database 652.
- the database is abbreviated as “DB”.
- the character database 151 stores data representing various expressions and gestures of the virtual operator.
- the personal database 152 stores user-specific information such as past inquiry contents and a part of CRM personal data acquired from the CRM server 60.
- the scenario database 153 stores a scenario (response pattern) in which a virtual operator regularly answers or interacts with an inquiry.
- the FAQ search database 154 stores FAQ (Frequently Asked Questions) data.
- the speech synthesis database 155 stores speech data for synthesizing sentences as speech.
- the marketing template database 156 stores template data in which questions relating to various marketing and questionnaires are assumed in advance.
- the VOC database 157 stores customer opinions and requests (VOC: Voice Of Customer) sent to the information processing system 1 as voice or text data.
- the topic suggestion database 158 stores topic data to be proposed according to the contents of the inquiry to the customer who made the inquiry.
- the communicator history database 159 stores history data of dialogue between the customer and the communicator.
- the dialogue history database 160 stores the history data of dialogue between the customer and the virtual operator.
- the document database 351 stores data such as documents, URLs, and PDFs that the communicator presents to the customer.
- the FAQ text database 352 stores FAQ text data presented to the customer by the communicator.
- the CRM personal database 651 stores user's personal attribute information and related information such as purchase history, behavior history, or preference information.
- the metadata database 652 stores purchase information, behavior information, SNS information, and preference information of a large number of users in summary (that is, as metadata).
- the information processing system 1 includes an inquiry voice receiving unit 201, an answer request unit 202, an answer receiving unit 203, and an answer voice transmitting unit 204 as functions of the IVR server 20.
- the functions of the VO server 10 include an IP communication unit 101, an utterance cutout unit 102, a user information acquisition unit 103, a voice recognition unit 104, an emotion analysis unit 105, a language determination unit 106, an intention / state interpretation.
- a response management unit 301 and a screen control unit 302 are provided as a function of the CTI server 302 are provided.
- the IP communication unit 101 transmits the IP voice transmitted from the terminal device 70 to the IP-PBX server 40.
- the utterance cutout unit 102 performs utterance cutout by detecting a silent portion of the input voice.
- the user information acquisition unit 103 is a user information (user-specific number, etc.) that uniquely identifies a user who is a user of the terminal based on information on the accessed terminal (IP address, user ID and password, terminal number, etc.) To get.
- the voice recognition unit 104 recognizes the utterance input from the utterance cutout unit 102 and converts it into a character string.
- the emotion analysis unit 105 analyzes the emotion of the speaker based on the utterance and the silent portion input from the utterance cutout unit 102, and outputs data obtained by quantifying the emotion. For example, the emotion analysis unit 105 calculates a numerical value for each parameter such as joy, anger, sadness, fun, calmness, or impatience about the emotion of the speaker based on the speaking speed of the speaker, the level of inflection, and the like.
- the language discrimination unit 106 discriminates the spoken language based on the character string input from the voice recognition unit 104.
- the language discriminating unit 106 is assumed to be a plurality of languages supported by the information processing system 1, and from the results of speech recognition performed by the speech recognition unit 104, the language with the highest accuracy of the analysis result is spoken It is determined that
- the intention / state interpreter 107 interprets the intention of the speaker and the current state of dialogue based on the character string whose language is determined by the language determiner 106 and the numerical value data of the emotion input from the emotion analyzer 105. . Specifically, the intention / state interpreting unit 107 determines the content of a character string whose language is determined by the language determining unit 106 (that is, a character string in which the speech of the speaker is converted into text), and the conversation of the speaker Interpret the intent (meaning content of the utterance). At this time, based on the user information acquired by the user information acquiring unit 103, the intention / state interpreting unit 107 stores the user's personal data stored in the CRM server 60 and the user stored in the personal database 152.
- the intention / state interpreting unit 107 interprets the intention when the speaker repeats the same question with an increased feeling of “anger” in response to the virtual operator. It is possible to determine that this is an error and change the interpretation of the intention.
- the intention / state interpreting unit 107 interprets the precondition of the speaker's current conversation as an element of the current conversation state from the flow of conversation from when the inquiry is made to the present. For example, if the speaker has specified a specific condition in the previous utterance (for example, if Shinjuku is specified as the area), the conversation that the speaker has already spoken in the next utterance has already been specified It is interpreted as assuming a specific condition.
- a specific condition in the previous utterance for example, if Shinjuku is specified as the area
- the conversation that the speaker has already spoken in the next utterance has already been specified It is interpreted as assuming a specific condition.
- the intention / state interpreting unit 107 interprets the type of the terminal device 70 used by the speaker as an element of the current dialog state. For example, the intention / state interpreting unit 107 interprets whether or not the terminal device 70 used by the speaker is the terminal device 70 capable of guidance by screen display as an element of the current dialog state. When the terminal device 70 used by the speaker is a terminal device 70 that cannot be guided by screen display, the intention / state interpretation unit 107 selects a dialog that does not use an image.
- the intention / state interpreting unit 107 searches the FAQ search database 154 on the basis of the intention of the speaker interpreted as described above and the state of the current dialogue, and determines whether or not the content of the dialogue can be determined (first step). Judgment). If the dialog content can be determined as a result of the first determination, the intention / state interpretation unit 107 determines the content of the dialog for the utterance. For example, when the speaker utters “What is a delicious restaurant in Shinjuku?”, The intention / state interpretation unit 107 determines the content of the dialog to answer a popular restaurant in Shinjuku.
- the intention / state interpretation unit 107 requests the supplement processing unit 111 to perform information supplement processing (described later) for determining the dialog content. Then, the intention / state interpretation unit 107 performs determination (second determination) as to whether or not the content of the dialogue can be determined based on the result of the supplement process. Specifically, the FAQ search database 154 is searched using the result of the replenishment process, and it is determined whether the dialog content can be determined, or whether information that can determine the dialog content is obtained from an information source other than the FAQ search database 154. The As a result of the second determination, when the conversation content can be determined, the intention / state interpretation unit 107 determines the conversation content for the utterance.
- the intention / state interpreting unit 107 calls the communicator of the inquired company via the communicator calling unit 112.
- the inquiry is made by chat (conversation using only characters) from the terminal device 70
- the character string transmitted by the chat is directly input to the intention / state interpreting unit 107, and thereafter the content of the dialogue is similar to the inquiry by voice. Is determined.
- the response to the terminal device 70 is performed by chat using a character string.
- the dialogue processing unit 108 refers to the scenario database 153 based on the dialogue contents interpreted by the intention / state interpretation unit 107, and determines a dialogue to respond to the speaker. For example, if the intention / state interpretation unit 107 determines that the content of the dialogue is to answer a popular restaurant in Shinjuku, the dialogue processing unit 108 follows the scenario stored in the scenario database 153 and reads “ Select the dialogue "Popular restaurants within ".
- the dialogue processing unit 108 associates the utterance of the speaker and the dialogue responded to the speaker with the user information of the speaker and the terminal device 70 of the speaker, and stores it in the dialogue history database 160 as a dialogue history.
- the speech synthesizer 109 synthesizes speech determined by the dialogue processing unit 108 and transmits it to the speaker's terminal device 70.
- the screen control unit 110 refers to the character database 151 based on the conversation content interpreted by the intention / state interpretation unit 107 and determines the virtual operator character data to be displayed on the terminal device 70 of the speaker. Specifically, the screen control unit 110 selects the facial expression and gesture character data corresponding to the conversation contents interpreted by the intention / state interpretation unit 107, and the screen data on which the virtual operator talks with the facial expression and gesture is displayed. Generate. Then, the screen control unit 110 transmits the generated screen data to the terminal device 70 of the speaker.
- the replenishment processing unit 111 executes a replenishment process of information for determining the content of dialogue when a request for a replenishment process is received from the intention / state interpretation unit 107. Specifically, the supplement processing unit 111 transmits a question for supplementing the inquiry content to the terminal device 70 when there are a plurality of answers to the inquiry, and the FAQ search database 154 does not include the answer to the inquiry. In some cases, information related to the inquiry content is searched from an information source (communication history database 159 or the Internet) other than the FAQ search database 154. Then, the replenishment processing unit 111 outputs an answer to the question and a search result to the intention / state interpretation unit 107 as a result of the replenishment processing.
- an information source communication history database 159 or the Internet
- the communicator calling unit 112 calls the communicator of the inquired company when a request for calling the communicator is received from the intention / state interpreting unit 107. Further, when an operation for calling the communicator is performed on the terminal device 70 (for example, pressing a “call” button in FIG. 6A described later), the communicator calling unit 112 selects the communicator. Execute the process to call. At this time, the communicator calling unit 112 may notify the communicator of the speaking rate of the speaker and the numerical value data of the emotion acquired in the dialogue with the virtual operator in addition to the inquiry contents of the customer who is the speaker. Good.
- the machine learning processing unit 113 refers to the conversation history stored in the conversation history database 160 and determines whether or not an inappropriate response is made in the conversation history. For example, the machine learning processing unit 113 determines whether or not there is a situation in which the speaker denies the response of the virtual operator or instructs the communicator instead of the virtual operator in the conversation history. Then, the machine learning processing unit 113 notifies the system administrator PC used by the system administrator of the conversation history determined that an inappropriate response has been made.
- the content of speech recognition from voice to text
- interpretation of the intention of the speaker is fed back to the processing in the speech recognition unit 104 and the intention / state interpretation unit 107.
- the stylization processing unit 114 refers to the communicator history database 159 by executing the knowledge management process, and when the communicator has made a plurality of responses to the same inquiry, the inquiry processing and the response to the inquiry are performed. Standardize and add to FAQ search database 154. At this time, the system administrator PC is notified of the standardized inquiry and answer, and when approved, the addition to the FAQ search database 154 may be executed.
- inquiries and responses to communicators in call centers of a plurality of companies are referred to in a unified manner, and standardization is performed according to whether or not a plurality of responses to similar inquiries are made. .
- the same inquiry and answer in a plurality of companies can be standardized, it is possible to increase the frequency with which the inquiry and answer can be standardized as compared with the case where a call center is operated in a single company.
- the communicator support unit 115 When the communicator responds to an inquiry from a customer, the communicator support unit 115 recognizes the dialogue by the voice recognition unit 104 and supports the communicator based on the text data that is the voice recognition result. I will provide a. For example, the communicator support unit 115 displays information on “NISA” on the communicator PC when the inquiry content by the customer is “NISA (small investment tax exemption system)”. The communicator support unit 115 analyzes the interaction between the customer and the communicator by the emotion analysis unit 105, and displays the change in the customer's emotion on the communicator PC based on the data obtained by quantifying the emotion. Also good.
- the inquiry voice receiving unit 201 of the IVR server 20 receives the voice transmitted from the terminal device 70 and outputs it to the answer request unit 202.
- the answer request unit 202 transmits the voice data input from the inquiry voice receiving unit 201 to the VO server 10 and requests the answer voice.
- the answer receiving unit 203 receives answer voice data transmitted from the VO server 10.
- the answer voice transmitting unit 204 transmits the answer voice data received by the answer receiving unit 203 to the terminal device 70 as voice.
- the response management unit 301 of the CTI server 30 manages and manages a customer and a communicator that has responded to an inquiry connected to the communicator.
- the screen control unit 302 controls the screen of the terminal device 70 via the screen cooperation server 50 according to the operation of the communicator.
- FIG. 5 is a flowchart showing a flow of acceptance processing executed by the information processing system 1.
- FIG. 6 is a diagram showing an example of a display screen displayed on the terminal device 70 in the acceptance process.
- FIG. 6A is an example of an initial reception screen
- FIG. 6B is an example of a display screen in a standard response
- FIG. 6 (C) is an example of a communicator screen
- FIG. 6 (D) is a diagram showing an example of a display screen in VOC collection.
- the flow of the reception process will be described with reference to FIG. 6 as appropriate.
- step S ⁇ b> 1 the voice recognition unit 104 of the VO server 10 determines whether there is an inquiry from the terminal device 70. When there is no inquiry from the terminal device 70, it is determined as NO in step S1, and the process of step S1 is repeated. On the other hand, if there is an inquiry from the terminal device 70, it is determined YES in step S1, and the process proceeds to step S2.
- step S2 the screen control unit 110 causes the terminal device 70 to display an initial reception screen (see FIG. 6A).
- step S3 the utterance cutout unit 102 cuts out the utterance, the voice recognition unit 104 recognizes the voice input from the utterance cutout unit 102, and the emotion analysis unit 105 performs the voice input from the utterance cutout unit 102. Perform emotion analysis.
- step S4 the language discrimination unit 106 discriminates the spoken language.
- step S5 the intention / state interpreting unit 107 interprets the intention of the speaker and the state of the current dialogue.
- the intention / state interpretation unit 107 searches the FAQ search database 154 based on the utterance content specified from the intention of the speaker interpreted in step S5 and the current conversation state.
- step S ⁇ b> 7 the intention / state interpreting unit 107 determines whether or not the dialog content can be determined (that is, whether or not the FAQ search database 154 has an answer).
- step S7 determines whether the dialog content can be determined. If the dialog content can be determined, YES is determined in step S7, and the process proceeds to step S8. On the other hand, if the dialog contents cannot be determined, NO is determined in step S7, and the process proceeds to step S10.
- step S8 the intention / state interpretation unit 107 determines the content of the dialogue based on the response retrieved from the FAQ search database 154, and makes a response (standard response) by the dialogue processing unit 108 (see FIG. 6B).
- step S9 the intention / state interpretation unit 107 determines whether or not the response to the inquiry has been completed. If the response to the inquiry has not been completed, the process proceeds to step S3. On the other hand, when the response to the inquiry is completed, the process proceeds to step S18.
- step S10 the intention / state interpretation unit 107 requests the replenishment processing unit 111 for replenishment processing. Specifically, when there are a plurality of answer candidates for the inquiry, the replenishment processing unit 111 transmits a question for replenishing the inquiry contents to the terminal device 70, and the answer to the inquiry is not included in the FAQ search database 154. In some cases, information related to the inquiry content is searched from an information source (communication history database 159 or the Internet) other than the FAQ search database 154.
- an information source communication history database 159 or the Internet
- step S ⁇ b> 11 the intention / state interpretation unit 107 determines whether the content of the dialogue can be determined as a result of the supplement process. If the dialog contents can be determined as a result of the replenishment process, YES is determined in step S11, and the process proceeds to step S12. On the other hand, if the dialog content cannot be determined as a result of the replenishment process, NO is determined in step S11, and the process proceeds to step S13.
- step S ⁇ b> 12 the intention / state interpretation unit 107 determines the content of the dialogue using the result of the supplement processing, and makes a response by the dialogue processing unit 108. After step S12, the process proceeds to step S9.
- step S13 the intention / state interpretation unit 107 calls the communicator of the inquired company via the communicator call unit 112.
- the screen controller 110 may respond to the virtual operator that the communicator is being called on the screen of the terminal device 70. If an operation for calling the communicator is performed in the terminal device 70, the process jumps to the process of step S13 by the interrupt process to call the communicator.
- step S14 the screen control unit 110 of the CTI server 30 displays the communicator screen on the screen of the terminal device 70 using the communicator's photograph as a background, and the conversation content is converted into text by voice recognition (see FIG. 6C). Is displayed. By displaying the communicator screen, the customer feels closer to the person (communicator) who is responding, and can make inquiries and responses more smoothly.
- step S15 the voice recognition unit 104 recognizes a dialogue between the customer and the communicator.
- step S ⁇ b> 16 the intention / state interpretation unit 107 determines whether or not the dialogue between the customer and the communicator has ended. If the conversation between the customer and the communicator has not ended, NO is determined in step S16, and the process proceeds to step S14. On the other hand, when the dialogue between the customer and the communicator is completed, YES is determined in step S16, and the process proceeds to step S17.
- step S17 the intention / state interpretation unit 107 executes a VOC collection process (see FIG. 6D).
- step S ⁇ b> 18 the dialogue processing unit 108 stores a series of dialogue histories for the inquiry in the dialogue history database 160. After step S18, the acceptance process is repeated until an end instruction is issued.
- the FAQ search database 154 when an inquiry is made from the terminal device 70, the FAQ search database 154 is referred to, and when an answer is prepared in the FAQ search database 154, a routine by a virtual operator is used. A response is made.
- the VO server 10 executes a supplement process of information for determining the content of the dialogue, and uses the result of the supplement process to receive an answer from the FAQ search database 154. Processing such as searching or acquiring information from an information source other than the FAQ search database 154 is performed, and a response by the virtual operator is made to the inquiry.
- FIG. 7 is a flowchart showing the flow of the VOC collection process.
- the intention / state interpretation unit 107 refers to the marketing template database 156, acquires a questionnaire template regarding the response of the communicator, and the screen control unit 110 uses the terminal device 70. A questionnaire is displayed on the screen.
- step S22 the intention / state interpretation unit 107 receives an answer to the questionnaire.
- the answer to the questionnaire can be input by characters in the terminal device 70 in addition to being input by voice.
- step S ⁇ b> 23 the intention / state interpretation unit 107 refers to the topic suggestion database 158, and proposes a topic corresponding to the inquiry content to the terminal device 70.
- step S ⁇ b> 24 the voice recognition unit 104 recognizes a response voice to the topic transmitted from the terminal device 70.
- the intention / state interpretation unit 107 searches the topic suggestion database 158 for a dialog for presenting cell information based on the keyword included in the answer acquired by speech recognition.
- the cell information is advertisement information intended for up-sell or cross-sell.
- presenting cell information it is possible to present cell information limited to a customer inquiry company or present cell information across a plurality of companies using the information processing system 1.
- step S26 the intention / state interpretation unit 107 determines whether or not a dialog for presenting cell information has been searched. If a dialog for presenting cell information can be searched, YES is determined in step S26, and the process proceeds to step S27. On the other hand, when the dialog for presenting the cell information cannot be searched, it is determined as NO in Step S26, and the process proceeds to Step S28.
- step S27 the intention / state interpreting unit 107 performs a dialog for presenting cell information and presents the cell information to the customer.
- step S29 the process proceeds to step S29.
- step S ⁇ b> 28 the intention / state interpretation unit 107 searches the terminal device 70 for a topic that continues from the topic suggestion database 158 and submits it.
- step S29 the intention / state interpretation unit 107 determines whether or not the end condition of the VOC collection process is met.
- the end condition of the VOC collection process can be defined when the customer gives an instruction to end the VOC collection process or when the customer requests product guidance according to the cell information. If the VOC collection process termination condition is not met, NO is determined in step S29, and the process proceeds to step S24. On the other hand, if the VOC collection process end condition is met, YES is determined in step S29, and the VOC collection process ends.
- the virtual operator and the customer perform related conversations (chat conversations) other than the inquiry itself, so that cell information corresponding to the content of the conversation is presented to the customers. Therefore, cell information that matches the customer's condition can be presented to the customer who has made an inquiry due to some event or the like. Therefore, more effective marketing can be performed using the call center business.
- FIG. 8 is a flowchart showing the flow of knowledge management processing executed by the information processing system 1.
- the knowledge management process is executed as a batch process or the like at a preset time.
- step S31 the stylization processing unit 114 refers to the communicator history database 159.
- step S32 the stylization processing unit 114 analyzes the history of the communicator history database 159.
- step S ⁇ b> 33 the stylization processing unit 114 determines whether there is a dialog that can be standardized in the history of the communicator history database 159. Whether or not there is a dialogue that can be standardized can be determined, for example, by whether or not an answer to a similar inquiry has been made a predetermined number of times or more. If there is no dialogue that can be standardized in the history of the communicator history database 159, it is determined as NO in step S33, and the knowledge management process is ended. On the other hand, if there is a dialog that can be standardized in the history of the communicator history database 159, it is determined YES in step S33, and the process proceeds to step S34.
- step S ⁇ b> 34 the stylization processing unit 114 adds the stylized inquiry and answer to the FAQ search database 154. After step S34, the knowledge management process ends.
- FIG. 9 is a block diagram illustrating a main functional configuration realized in the information processing system 1 according to the second embodiment.
- the information processing system 1 according to the second embodiment further includes a cooperation server 90 that realizes cooperation between the VO server 10 and the IVR server 20 in the information processing system 1 according to the first embodiment.
- the functions of each server shown in the first embodiment are omitted.
- the cooperation server 90 includes a cooperation processing unit 901 that executes processing for cooperation between the VO server 10 and the IVR server 20.
- the cooperation processing unit 901 calls the IVR server 20 in response to an operation for calling a communicator by a customer who uses the terminal device 70. Make a call.
- the cooperation processing unit 901 automatically makes a voice inquiry according to the content of the previous dialogue with the customer, and responds to the automatic voice response provided by the IVR server 20 while calling the communicator. Proceed with conversation automatically.
- the VO server 10 may have the function of the cooperation server 90 as described above.
- FIG. 10 is a flowchart illustrating the flow of the cooperation processing executed by the information processing system 1 according to the second embodiment.
- FIG. 11 is a diagram showing an example of a display screen displayed on the terminal device 70 in the cooperation process
- FIG. 11A is an example of a telephone number input screen
- FIG. 11B is a contact address of a communicator.
- FIG. 11C is a diagram showing an example of a screen displayed during calling of the communicator. Further, FIG.
- FIG. 12 is a diagram showing an example of a display screen displayed on the communicator PC in the cooperation process
- FIG. 12A is an example of a dialog history search screen
- FIG. 12B is an example of a dialog history confirmation screen
- FIG. 12C shows an example of a screen during power reception
- FIG. 12D shows an example of a screen after completion of response.
- FIGS. 11 and 12 the flow of the cooperation process will be described with reference to FIGS. 11 and 12 as appropriate.
- step S41 the intention / state interpreting unit 107 of the VO server 10 makes a response to prompt the customer to input his / her telephone number by the dialogue processing unit 108 (see FIG. 11A).
- the input of the telephone number by the customer can be either input by voice or input by character string.
- the customer's own telephone number is acquired in the VO server 10.
- step S42 the communicator calling unit 112 acquires a contact list of the communicator estimated to be the customer's inquiry destination from the cooperation processing unit 901 of the cooperation server 90, and transmits it to the terminal device 70 (FIG. 11). (See (B)). In FIG. 11B, three contact points that are likely to be customer inquiries and buttons for displaying all the contacts are displayed.
- the contact information of the communicator can be provided from the CTI server 30 to the cooperation processing unit 901, or the cooperation processing unit 901 can collect and acquire information from a general Web server. Further, as the contact information of the communicator, it is possible to indicate the department name and telephone number of the inquiry destination, or to indicate only the department name of the inquiry destination. In step S42, the data of the conversation history between the customer and the virtual operator so far is transmitted to the cooperation server 90.
- step S ⁇ b> 43 the communicator calling unit 112 acquires the contact address selected by the terminal device 70.
- step S ⁇ b> 44 the communicator calling unit 112 requests the cooperation processing unit 901 to make a call to the contact selected in the terminal device 70.
- step S44 the data of the conversation history between the customer and the virtual operator so far is transmitted to the cooperation server 90.
- step S45 the cooperation processing unit 901 makes a call to the IVR server 20, and automatically makes a voice inquiry according to the content of the previous dialogue with the customer. At this time, the cooperation processing unit 901 automatically advances the conversation up to the call of the communicator while corresponding to the automatic voice response provided by the IVR server 20. A message indicating that the communicator is being called is notified to the customer terminal device 70 by the virtual operator (see FIG. 11C).
- step S46 the IVR server 20 calls the communicator as a response result to the automatic conversation by the cooperation processing unit 901.
- the response management unit 301 of the CTI server 30 executes a power reception process that is executed when a call is made to the communicator.
- a dialog history search screen for searching for inquiry contents is displayed on the communicator PC (see FIG. 12A), and the communicator inputs an ID notified from the cooperation server 90.
- the dialog history confirmation screen the dialog history with the calling customer (dialog data managed by the cooperation server 90) is displayed as a character string, and the communicator calls the customer.
- Button power receiving button
- step S48 in response to the communicator operating the power receiving button, the cooperation processing unit 901 shifts to a “power receiving standby state” in which the communicator is ready for a call.
- a power reception screen for inputting the result after the power reception button operation is displayed (see FIG. 12C).
- step S49 the cooperation processing unit 901 sends a call from the communicator phone to the phone number input by the customer via the IP-PBX server 40.
- step S50 when the customer answers the phone, a call between the communicator and the customer is started. After step S50, the process returns to the acceptance process.
- the communicator displays on the screen when receiving power, "Call was completed”, “Did not answer”, “Out of service area”, “Voice mail", “Busy” Or, the result of contact with the customer such as “illegal phone number” is input.
- a screen after response completion displayed after the response to the customer by the communicator is completed is displayed (see FIG. 12D).
- the cooperation processing unit 901 of the cooperation server 90 advances the input of the conversation for the automatic voice response in the IVR server 20 and communicates via the IVR server 20. Can be called. Therefore, even when the VO server 10 and the CTI server 30 cannot directly cooperate, it is possible to call the communicator from the VO server 10 using the automatic voice response function of the IVR server 20.
- the character or clothes of the virtual operator can be made different depending on the inquired company. For example, if multiple types of characters with different personalities are stored in the character database, if the content of the inquiry is technical, the virtual operator will be a character that seems to be familiar with the technology, and if it is related to banking operations, the virtual operator will be solid It can be a character of clothes. Thereby, it is possible to make the customer who has inquired feel the virtual operator atmosphere suitable for the contents of the inquiry.
- the character or clothes of the virtual operator can be made different depending on the customer who made the inquiry.
- a plurality of types of characters having different personalities are stored in the character database, and the virtual operator can be an anime character when the customer who has made the inquiry is interested in animation.
- the virtual operator can be an anime character when the customer who has made the inquiry is interested in animation.
- the virtual operator may propose a procedure other than the content inquired by the customer and related to the content inquired so that these procedures can be performed together. As a result, the customer can reduce the possibility of omission of necessary procedures.
- the information processing system 1 includes the terminal device 70 and the VO server 10 as a reception server.
- the VO server 10 includes a voice recognition unit 104, an intention / state interpretation unit 107, and a communicator calling unit 112.
- the voice recognition unit 104 receives an inquiry from the terminal device 70.
- the intention / state interpretation unit 107 determines whether or not an answer to the inquiry can be searched from the FAQ search database 154 in which a plurality of prepared questions and answers are stored. Further, when it is determined that the answer to the inquiry cannot be searched, the intention / state interpreting unit 107 executes a supplement process for supplementing information for answering the inquiry, and an answer to the inquiry based on the result of the supplement process Is generated.
- the intention / state interpretation unit 107 determines whether an answer to the inquiry has been generated. In addition, the intention / state interpretation unit 107 transmits the searched answer or the generated answer when it is determined that the answer to the inquiry can be searched and when it is determined that the answer to the inquiry can be generated. When the intention / state interpreting unit 107 determines that the answer to the inquiry could not be generated, the communicator calling unit 112 executes a communicator calling process corresponding to the inquiry. Thereby, when an inquiry is made from the terminal device 70, the FAQ search database 154 is referred to, and when an answer is prepared in the FAQ search database 154, a standard response is made.
- the intention / state interpretation unit 107 transmits a question for supplementing the content of the inquiry to the terminal device 70 as the supplement processing. Thereby, when the answer to the inquiry cannot be narrowed down, a question for narrowing down the answer can be made.
- the intention / state interpreting unit 107 searches information related to the contents of the inquiry from information sources other than the FAQ search database 154 as a supplement process. Thereby, even if a reply to the inquiry is not prepared, information can be obtained from the searchable information source and the reply can be made.
- the voice recognition unit 104 receives an inquiry from the terminal device 70 by an automatic response using voice recognition.
- the intention / state interpretation unit 107 transmits the retrieved answer or the generated answer as a response by voice data. Thereby, an automatic response by voice can be performed in response to an inquiry from the terminal device.
- the VO server 10 also includes a stylization processing unit 114.
- the stylization processing unit 114 generates a combination of inquiry and answer to be standardized based on the response history of the communicator. As a result, when a similar inquiry is made a plurality of times for a non-standardized inquiry to which the communicator has responded, the inquiry and answer are determined as a standardized inquiry. Therefore, as the information processing system 1 is operated, the range of inquiries that regularly answer is expanded, so that the efficiency of work using the information processing system 1 can be improved.
- the communicator calling unit 112 executes a calling process for calling the communicator of the organization corresponding to the inquiry among the communicators installed corresponding to each of the plurality of organizations.
- the voice recognition unit 104 accepts inquiries to a plurality of organizations as a representative.
- the stylization processing unit 114 generates a combination of a query and a response that can be standardized by a plurality of organizations based on a history of responses from the communicator in response to the query to each organization.
- the VO server 10 also includes a personal database 152.
- the personal database 152 manages personal information related to individual customers who make inquiries.
- the intention / state interpreting unit 107 refers to the personal information and determines whether or not an answer to the inquiry can be searched from the FAQ search database 154. As a result, the intent of the inquiry can be accurately determined according to the customer who has made the inquiry, and the inquiry can be answered.
- the intention / state interpretation unit 107 provides a topic related to the content of the inquiry as a voice.
- the intention / state interpreting unit 107 recognizes a response from the user of the terminal device 70 to the topic and provides recommended information (cell information or the like) related to the response content as a sound.
- recommended information cell information or the like
- the system and the customer conduct a related conversation other than the inquiry itself (chat conversation)
- recommended information corresponding to the content of the conversation is presented to the customer. Therefore, it is possible to present recommended information that matches a customer's condition to a customer who has made an inquiry due to some event or the like. Therefore, it is possible to perform more effective marketing by utilizing the business for responding to inquiries.
- the information processing system 1 includes an IVR server 20 as an automatic voice response server and a cooperation server 90.
- the IVR server 20 responds to a preset inquiry from the terminal device 70 by an automatic voice response, and executes a communicator call process for a query other than the preset inquiry.
- the linking server 90 calls the communicator from the VO server 10
- it makes an inquiry to the IVR server 20 based on the inquiry and response made between the VO server 10 and the terminal device 70, and the communicator
- the conversation is automatically advanced until the call processing is performed, and the communicator is called.
- the cooperation server 90 can advance the input of the conversation for the automatic voice response in the IVR server 20 and can call the communicator via the IVR server 20. . Therefore, it is possible to call the communicator from the VO server 10 using the automatic voice response function of the IVR server 20.
- this invention is not limited to the above-mentioned embodiment,
- transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.
- the organization represented by the information processing system 1 is described as a company, but the present invention is not limited to this. That is, the present invention can be applied to schools, administrative institutions, medical institutions, etc., as well as corporations, as long as it is an organization that handles inquiries.
- each server is shown as an example. If the information processing system 1 as a whole has the functions of each server, the functions of a plurality of servers can be integrated, The functions of one server can be divided.
- the series of processes described above can be executed by hardware or can be executed by software.
- the functional configuration of FIG. 4 is merely an example, and is not particularly limited. That is, it is sufficient that the information processing system 1 has a function capable of executing the above-described series of processing as a whole, and what functional block is used to realize this function is not particularly limited to the example of FIG. .
- one functional block may be constituted by hardware alone, software alone, or a combination thereof.
- a program constituting the software is installed on a computer or the like from a network or a recording medium.
- the computer may be a computer incorporated in dedicated hardware.
- the computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.
- the recording medium including such a program is not only configured by the removable medium 821 shown in FIG. 2 distributed separately from the apparatus main body in order to provide the user with the program, but is also incorporated in the apparatus main body in advance. It is comprised with the recording medium etc. which are provided in this.
- the removable medium 821 is configured by, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like.
- the optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like.
- the magneto-optical disk is constituted by an MD (Mini-Disk) or the like.
- the recording medium provided to the user in a state of being incorporated in advance in the apparatus main body is configured by, for example, the ROM 812 in FIG. 2 in which the program is recorded, the DRAM included in the storage unit 817 in FIG.
- the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the order, but is not necessarily performed in chronological order, either in parallel or individually.
- the process to be executed is also included.
- the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.
- SYMBOLS 1 Information processing system, 10 ... VO server, 20 ... IVR server, 30 ... CTI server, 40 ... IP-PBX server, 50 ... Screen cooperation server, 60 ... CRM server, 70 ... terminal device, 80A ... public telephone network, 80B ... public communication network, 80C ... VPN, 90 ... cooperation server, 800 ... server computer, 811, 911 ..CPU, 812, 912 ... ROM, 813, 913 ... RAM, 814, 914 ... Bus, 815 ... Input unit, 816, 916 ... Output unit, 817, 919 ... Storage unit, 818, 920 ... communication unit, 819, 921 ...
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Telephonic Communication Services (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
例えば、顧客からコールセンターへの電話による問い合わせに対して、自動音声応答(IVR:Interactive Voice Response)による応答を行うシステムが知られている。また、顧客からコールセンターへのインターネット等による問い合わせに対して、バーチャルオペレータ(VO:Vertual Operator)による受け付けを行うシステムが知られている。
なお、コールセンター業務を自動化する技術は、例えば、特許文献1に記載されている。
問い合わせを送信する端末装置と、前記端末装置から送信された前記問い合わせを受け付ける受付サーバとを含む情報処理システムであって、
前記受付サーバは、
前記端末装置からの前記問い合わせを受け付ける受付手段と、
予め用意された複数の質問及び回答が格納された応答データベースから、前記問い合わせに対する回答が検索できるか否かを判定する第1判定手段と、
前記第1判定手段によって、前記問い合わせに対する回答が検索できないと判定された場合、前記問い合わせに対する回答を行うための情報を補充する補充処理を実行し、前記補充処理の結果に基づいて、前記問い合わせに対する回答を生成する回答生成手段と、
前記回答生成手段によって、前記問い合わせに対する回答が生成できたか否かを判定する第2判定手段と、
前記第1判定手段によって前記問い合わせに対する回答が検索できると判定された場合及び前記第2判定手段によって前記問い合わせに対する回答が生成できたと判定された場合に、前記第1判定手段によって検索された前記回答または前記第2判定手段によって生成された前記回答を送信する回答手段と、
前記第2判定手段によって、前記問い合わせに対する回答が生成できなかったと判定された場合、前記問い合わせに対応するコミュニケータの呼び出し処理を実行する呼び出し手段と、
を含むことを特徴とする。
[構成]
[システム構成]
図1は、本発明に係る情報処理システム1のシステム構成を示す図である。
画面連携サーバ50は、顧客が使用する端末装置70及びコミュニケータが使用するコミュニケータ用端末装置を制御し、顧客が使用する端末装置70の画面とコミュニケータが使用するコミュニケータ用端末装置の画面を連携させる。
次に、情報処理システム1におけるサーバ及び端末装置70のハードウェア構成を説明する。
情報処理システム1において、VOサーバ10、IVRサーバ20、CTIサーバ30、IP-PBXサーバ40、画面連携サーバ50及びCRMサーバ60は、サーバコンピュータに各サーバの機能を実現するソフトウェアがインストールされることにより構成される。
図2に示すように、各サーバを構成するサーバコンピュータ800は、CPU(Central Processing Unit)811と、ROM(Read Only Memory)812と、RAM(Random Access Memory)813と、バス814と、入力部815と、出力部816と、記憶部817と、通信部818と、ドライブ819と、を備えている。
RAM813には、CPU811が各種の処理を実行する上において必要なデータ等も適宜記憶される。
出力部816は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部817は、ハードディスクあるいはDRAM(Dynamic Random Access Memory)等で構成され、各サーバで管理される各種データを記憶する。
通信部818は、ネットワークを介して他の装置との間で行う通信を制御する。
情報処理システム1において、端末装置70は、スマートフォンあるいはPC(Personal Computer)等のブラウザを実装した端末装置70や、音声通信が可能な携帯電話機あるいは固定電話機等によって構成される。
なお、図3においては、端末装置70の一例として、スマートフォンのハードウェア構成を示している。
RAM913には、CPU911が各種の処理を実行する上において必要なデータ等も適宜記憶される。
出力部916は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
即ち、本実施形態では、タッチ操作入力部915と出力部916のディスプレイとにより、タッチパネルが構成されている。
なお、音声のアナログ信号は、A/D(Analog/Digital)変換処理が施されて、音声データを表すデジタル信号に変換される。このA/D変換処理の実行主体は、特に限定されず、CPU911であってもよいし、図示しない専用のハードウェアであってもよいが、本実施形態では説明の便宜上、音声入力部917であるものとする。
即ち、本実施形態では、音声入力部917は、入力された音声に基づく音声データをCPU911等に出力する。
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズ等で構成される。なお、フォーカスレンズの他、焦点距離を一定の範囲で自在に変化させるズームレンズを光学レンズ部に備えることとしてもよい。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。本実施形態においては撮像素子には、Bayer配列の色フィルタが装着されている。撮像素子は、一定時間毎に、その間に入射されて蓄積された被写体像の光信号を光電変換(撮像)して、その結果得られるアナログの電気信号をAFEに順次供給する。
AFEは、このアナログの電気信号に対して、A/D変換処理等の各種信号処理を実行する。各種信号処理によって、デジタル信号が生成され、撮像部918の出力信号として出力される。撮像部918の出力信号によって示される画像のデータを、以下、適宜「撮像画像データ」と呼ぶ。撮像画像データは、CPU911の指示に従って、RAM913あるいは記憶部919に記憶される。
通信部920は、ネットワークを介して他の装置との間で行う通信を制御する。
ドライブ921には、必要に応じて、リムーバブルメディア931が適宜装着される。ドライブ921によってリムーバブルメディア931から読み出されたプログラムは、必要に応じて記憶部919にインストールされる。また、リムーバブルメディア931は、記憶部919に記憶されている各種データも、記憶部919と同様に記憶することができる。
次に、情報処理システム1において実現される主な機能構成について説明する。
図4は、情報処理システム1において実現される主な機能構成を示すブロック図である。
なお、図4においては、データベースを「DB」と省略して記載している。
パーソナルデータベース152は、ユーザ情報によって特定されるユーザ(顧客)毎に、過去の問い合わせ内容や、CRMサーバ60から取得されるCRM個人データの一部等のユーザ固有の情報を記憶している。
FAQ検索データベース154は、FAQ(Frequently Asked Questions)のデータを記憶している。
音声合成データベース155は、文章を音声として合成するための音声データを記憶している。
VOCデータベース157は、情報処理システム1に寄せられた顧客の意見や要望(VOC:Voice Of Customer)を音声あるいはテキストのデータとして記憶している。
コミュニケータ履歴データベース159は、顧客とコミュニケータとの対話の履歴のデータを記憶している。
書類データベース351は、コミュニケータが顧客に提示する書類、URLあるいはPDF等のデータを記憶している。
FAQテキストデータベース352は、コミュニケータが顧客に提示するFAQのテキストデータを記憶している。
メタデータベース652は、多数のユーザの購買情報、行動情報、SNSの情報及び嗜好情報を要約して(即ち、メタデータとして)記憶している。
発話切り出し部102は、入力された音声の無音部分を検出することにより、発話の切り出しを実行する。
ユーザ情報取得部103は、アクセスした端末の情報(IPアドレス、ユーザID及びパスワード、端末番号等)を基に、端末の利用者であるユーザを一意に識別するユーザ情報(ユーザ固有の番号等)を取得する。
感情分析部105は、発話切り出し部102から入力された発話及び無音部分を基に、発話者の感情を分析し、感情を数値化したデータを出力する。例えば、感情分析部105は、発話者の話す速度や抑揚の大きさ等を基に、発話者の感情について、喜び、怒り、哀しい、楽しい、平静あるいは焦り等のパラメータ毎に数値を算出する。
なお、問い合わせが端末装置70からチャット(文字のみによる会話)によって行われた場合、チャットによって送信された文字列が意図・状態解釈部107に直接入力され、以後、音声による問い合わせと同様に対話内容が決定される。ただし、この場合、端末装置70への応答は文字列によるチャットによって行われる。
画面制御部110は、意図・状態解釈部107によって解釈された対話内容に基づいて、キャラクタデータベース151を参照し、発話者の端末装置70に表示するバーチャルオペレータのキャラクタデータを決定する。具体的には、画面制御部110は、意図・状態解釈部107によって解釈された対話内容に対応する表情及び仕草のキャラクタデータを選択し、バーチャルオペレータがその表情及び仕草で会話する画面のデータを生成する。そして、画面制御部110は、生成した画面のデータを発話者の端末装置70に送信する。
回答要求部202は、問い合わせ音声受信部201から入力された音声のデータをVOサーバ10に送信し、回答の音声を要求する。
回答受信部203は、VOサーバ10から送信される回答の音声のデータを受信する。
回答音声送信部204は、回答受信部203が受信した回答の音声のデータを音声として端末装置70に送信する。
画面制御部302は、コミュニケータの操作に従って、画面連携サーバ50を介して端末装置70の画面を制御する。
次に、情報処理システム1の動作を説明する。
図5は、情報処理システム1が実行する受け付け処理の流れを示すフローチャートである。
また、図6は、受け付け処理において端末装置70に表示される表示画面例を示す図であり、図6(A)は受付初期画面例、図6(B)は定型応答における表示画面例、図6(C)はコミュニケータ画面例、図6(D)はVOC収集における表示画面例を示す図である。以下、図6を適宜参照して、受け付け処理の流れを説明する。
端末装置70から問い合わせがない場合、ステップS1においてNOと判定されて、ステップS1の処理が繰り返される。
一方、端末装置70から問い合わせがある場合、ステップS1においてYESと判定されて、処理はステップS2に移行する。
ステップS3において、発話切り出し部102が発話の切り出しを行うと共に、音声認識部104が発話切り出し部102から入力された音声を認識し、感情分析部105が発話切り出し部102から入力された音声について、感情の分析を行う。
ステップS4において、言語判別部106は、発話された言語を判別する。
ステップS6において、意図・状態解釈部107は、ステップS5において解釈した発話者の意図及び現在の対話の状態から特定される発話内容に基づいて、FAQ検索データベース154を検索する。
ステップS7において、意図・状態解釈部107は、対話内容を決定できるか否か(即ち、FAQ検索データベース154に回答があるか否か)の判定を行う。
一方、対話内容を決定できない場合、ステップS7においてNOと判定されて、処理はステップS10に移行する。
ステップS8において、意図・状態解釈部107は、FAQ検索データベース154から検索した回答によって対話内容を決定し、対話処理部108による応答(定型的な応答)を行う(図6(B)参照)。
問い合わせに対する応答が完了していない場合、処理はステップS3に移行する。
一方、問い合わせに対する応答が完了した場合、処理はステップS18に移行する。
補充処理の結果、対話内容を決定できる場合、ステップS11においてYESと判定されて、処理はステップS12に移行する。
一方、補充処理の結果、対話内容を決定できない場合、ステップS11においてNOと判定されて、処理はステップS13に移行する。
ステップS12の後、処理はステップS9に移行する。
ステップS15において、音声認識部104は、顧客とコミュニケータとの対話を音声認識する。
顧客とコミュニケータとの対話が終了していない場合、ステップS16においてNOと判定されて、処理はステップS14に移行する。
一方、顧客とコミュニケータとの対話が終了した場合、ステップS16においてYESと判定されて、処理はステップS17に移行する。
ステップS18において、対話処理部108は、問い合わせに対する一連の対話履歴を対話履歴データベース160に記憶する。
ステップS18の後、終了の指示が行われるまで、受け付け処理が繰り返される。
そのため、情報処理システム1においては、バーチャルオペレータによる応答が可能な限り試みられ、コミュニケータを呼び出す頻度が低下される。
したがって、顧客からの問い合わせを受け付ける業務をより効率化することが可能となる。
図7は、VOC収集処理の流れを示すフローチャートである。
VOC収集処理が開始されると、ステップS21において、意図・状態解釈部107は、マーケティングテンプレートデータベース156を参照して、コミュニケータの応答に関するアンケートのテンプレートを取得し、画面制御部110によって端末装置70の画面にアンケートを表示させる。
ステップS24において、音声認識部104は、端末装置70から送信される話題に対する応答の音声を認識する。
セル情報を提示するための対話が検索できた場合、ステップS26においてYESと判定されて、処理はステップS27に移行する。
一方、セル情報を提示するための対話が検索できなかった場合、ステップS26においてNOと判定されて、処理はステップS28に移行する。
ステップS27の後、処理はステップS29に移行する。
ステップS28において、意図・状態解釈部107は、端末装置70に対して、話題提起データベース158から継続する話題を検索して提起する。
VOC収集処理の終了条件と合致していない場合、ステップS29においてNOと判定されて、処理はステップS24に移行する。
一方、VOC収集処理の終了条件と合致している場合、ステップS29においてYESと判定されて、VOC収集処理は終了となる。
そのため、何らかのイベント等が生じることによって問い合わせを行った顧客に対し、顧客の状態に合致したセル情報を提示することができる。
したがって、コールセンター業務を利用して、より効果的なマーケティングを行うことができる。
図8は、情報処理システム1が実行するナレッジ管理処理の流れを示すフローチャートである。
ナレッジ管理処理は、予め設定された時間にバッチ処理等として実行される。
ステップS32において、定型化処理部114は、コミュニケータ履歴データベース159の履歴を解析する。
コミュニケータ履歴データベース159の履歴に定型化できる対話がない場合、ステップS33においてNOと判定されて、ナレッジ管理処理は終了となる。
一方、コミュニケータ履歴データベース159の履歴に定型化できる対話がある場合、ステップS33においてYESと判定されて、処理はステップS34に移行する。
ステップS34の後、ナレッジ管理処理は終了となる。
したがって、情報処理システム1を運用する程、定型的に応答を行う問い合わせの範囲が拡大するため、情報処理システム1を用いたコールセンター業務の効率を向上させることができる。
次に、本発明の第2実施形態について説明する。
[構成]
図9は、第2実施形態に係る情報処理システム1において実現される主な機能構成を示すブロック図である。
第2実施形態に係る情報処理システム1は、第1実施形態における情報処理システム1において、VOサーバ10とIVRサーバ20との連携を実現する連携サーバ90をさらに含んでいる。なお、図9においては、第1実施形態で示した各サーバの機能は省略して示している。
このような処理により、VOサーバ10とCTIサーバ30とが直接連携できない場合にも、IVRサーバ20による自動音声応答機能を利用して、VOサーバ10からコミュニケータの呼び出しを行うことが可能となる。
なお、このような連携サーバ90の機能をVOサーバ10が備えることも可能である。
次に、動作を説明する。
第2実施形態に係る情報処理システム1は、第1実施形態と同様に、図6に示す受け付け処理を実行する。
そして、端末装置70において、コミュニケータを呼び出すための操作が行われた場合に、ステップS13のサブフローとして、連携処理が実行される。
図10は、第2実施形態に係る情報処理システム1が実行する連携処理の流れを示すフローチャートである。
また、図11は、連携処理において端末装置70に表示される表示画面例を示す図であり、図11(A)は電話番号の入力画面例、図11(B)はコミュニケータの連絡先の一覧を表示する画面例、図11(C)はコミュニケータの呼び出し中に表示される画面例を示す図である。
さらに、図12は、連携処理においてコミュニケータ用PCに表示される表示画面例を示す図であり、図12(A)は対話履歴検索画面例、図12(B)は対話履歴確認画面例、図12(C)は受電時画面例、図12(D)は応答完了後画面例を示す図である。
以下、図11及び図12を適宜参照して、連携処理の流れを説明する。
ステップS42において、コミュニケータ呼び出し部112は、顧客の問い合わせ先であると推定されるコミュニケータの連絡先の一覧を連携サーバ90の連携処理部901から取得し、端末装置70に送信する(図11(B)参照)。図11(B)では、顧客の問い合わせ先である可能性が高い3箇所の連絡先と、全ての連絡先を表示させるためのボタンとが表示されている。コミュニケータの連絡先は、CTIサーバ30から連携処理部901に提供したり、連携処理部901が一般のWebサーバから情報を収集して取得したりすること等が可能である。また、コミュニケータの連絡先として、問い合わせ先の部署名及び電話番号を示すことや、問い合わせ先の部署名のみを示すこと等が可能である。なお、ステップS42において、それまでの顧客とバーチャルオペレータとの対話履歴のデータが連携サーバ90に送信される。
ステップS44において、コミュニケータ呼び出し部112は、端末装置70において選択された連絡先への電話の発信を、連携処理部901に要求する。なお、ステップS44において、それまでの顧客とバーチャルオペレータとの対話履歴のデータが連携サーバ90に送信される。
ステップS45において、連携処理部901は、IVRサーバ20に電話の発信を行い、顧客とのそれまでの対話内容に応じて、音声による問い合わせを自動的に行う。このとき、連携処理部901は、IVRサーバ20によって提供される自動音声応答に対応しながら、コミュニケータの呼び出しまでの会話を自動的に進行する。なお、顧客の端末装置70には、コミュニケータを呼び出し中である旨のメッセージがバーチャルオペレータによって通知される(図11(C)参照)。
ステップS47において、CTIサーバ30の応答管理部301は、コミュニケータに対する呼び出しがあった場合に実行される受電処理を実行する。受電処理では、コミュニケータ用PCにおいて、問い合わせ内容を検索するための対話履歴検索画面が表示され(図12(A)参照)、コミュニケータは、連携サーバ90から通知されるIDを入力する。すると、対話履歴確認画面において、呼び出しを行った顧客との対話履歴(連携サーバ90で管理されている対話履歴のデータ)が文字列として表示されると共に、コミュニケータがその顧客に電話を発信するためのボタン(受電ボタン)が表示される(図12(B)参照)。
ステップS48において、連携処理部901は、コミュニケータが受電ボタンを操作することに対応して、コミュニケータによる通話の準備が完了した状態である「受電待ち状態」に移行する。このとき、コミュニケータ用PCにおいて、受電ボタン操作後の結果を入力するための受電時画面が表示される(図12(C)参照)。
ステップS50において、顧客が電話に出ると、コミュニケータと顧客の通話が開始される。
ステップS50の後、処理は受け付け処理に戻る。
なお、コミュニケータと顧客との通話が終了した後、コミュニケータは、受電時画面において、「通話できた」、「電話に出なかった」、「圏外」、「留守電」、「話し中」あるいは「電話番号不正」といった顧客への連絡の結果を入力する。コミュニケータによる入力が行われると、コミュニケータによる顧客への応答完了後に表示される応答完了後画面が表示される(図12(D)参照)。
したがって、VOサーバ10とCTIサーバ30とが直接連携できない場合にも、IVRサーバ20による自動音声応答機能を利用して、VOサーバ10からコミュニケータの呼び出しを行うことが可能となる。
上記実施形態において、バーチャルオペレータのキャラクターあるいは服装等を、問い合わせ先の企業に応じて異なるものとすることができる。例えば、キャラクタデータベースに個性の異なる複数種類のキャラクターを記憶しておき、問い合わせ内容が技術的なことであればバーチャルオペレータを技術に詳しそうなキャラクターとし、銀行業務に関することであればバーチャルオペレータを堅い服装のキャラクター等とすることができる。
これにより、問い合わせを行った顧客に対して、問い合わせ内容に相応しいバーチャルオペレータの雰囲気を感じさせることができる。
上記実施形態において、バーチャルオペレータのキャラクターあるいは服装等を、問い合わせを行った顧客に応じて異なるものとすることができる。例えば、キャラクタデータベースに個性の異なる複数種類のキャラクターを記憶しておき、問い合わせを行った顧客がアニメに興味がある場合にはバーチャルオペレータをアニメのキャラクターとすることができる。
これにより、顧客に好感を与えるバーチャルオペレータによって、コールセンターでの応答を行うことができるため、顧客満足度の向上を図ることができる。
上記実施形態において、問い合わせを行った顧客が、住所変更等、同様の手続きを複数社に対して行う場合、バーチャルオペレータの受け付けによって、複数社への手続きをまとめて行えるようにしてもよい。
これにより、顧客は、同一の手続きを複数回行う手間を軽減することができる。
上記実施形態において、顧客が問い合わせた内容以外の手続きであって、問い合わせた内容に関連する手続きをバーチャルオペレータが提案し、これらの手続きをまとめて行えるようにしてもよい。
これにより、顧客は、必要な手続きの漏れが生じる可能性を低減することができる。
VOサーバ10は、音声認識部104と、意図・状態解釈部107と、コミュニケータ呼び出し部112とを備える。
音声認識部104は、端末装置70からの問い合わせを受け付ける。
意図・状態解釈部107は、予め用意された複数の質問及び回答が格納されたFAQ検索データベース154から、問い合わせに対する回答が検索できるか否かを判定する。
また、意図・状態解釈部107は、問い合わせに対する回答が検索できないと判定された場合、問い合わせに対する回答を行うための情報を補充する補充処理を実行し、補充処理の結果に基づいて、問い合わせに対する回答を生成する。
また、意図・状態解釈部107は、問い合わせに対する回答が生成できたか否かを判定する。
また、意図・状態解釈部107は、問い合わせに対する回答が検索できると判定された場合及び問い合わせに対する回答が生成できたと判定された場合に、検索された回答または生成された回答を送信する。
コミュニケータ呼び出し部112は、意図・状態解釈部107によって、問い合わせに対する回答が生成できなかったと判定された場合、問い合わせに対応するコミュニケータの呼び出し処理を実行する。
これにより、端末装置70から問い合わせが行われた場合、FAQ検索データベース154を参照し、FAQ検索データベース154に回答が用意されている場合、定型的な応答が行われる。一方、FAQ検索データベース154に回答が用意されていない場合、問い合わせに対する回答を行うための情報の補充処理を実行し、補充処理の結果に基づいて回答が生成される。さらに、補充処理を行っても、問い合わせに対する回答が生成できない場合、コミュニケータが呼び出され、コミュニケータによる応答が行われる。
そのため、情報処理システム1においては、システムによる自動的な応答が可能な限り試みられ、コミュニケータを呼び出す頻度が低下される。
したがって、顧客からの問い合わせを受け付ける業務をより効率化することが可能となる。
これにより、問い合わせに対する回答が絞り切れない場合に、回答を絞り込む質問を行うことができる。
これにより、問い合わせに対する回答が用意されていない場合であっても、検索可能な情報源から情報を取得して回答を行うことができる。
また、意図・状態解釈部107は、検索された回答または生成された回答を、音声データによる応答として送信する。
これにより、端末装置からの問い合わせに対して、音声による自動応答を行うことができる。
定型化処理部114は、コミュニケータの応答の履歴に基づいて、定型化する問い合わせ及び回答の組み合わせを生成する。
これにより、コミュニケータが応答を行った定型化されていない問い合わせについて、同様の問い合わせが複数回行われた場合には、その問い合わせ及び回答が、定型化できる問い合わせとされる。
したがって、情報処理システム1を運用する程、定型的に応答を行う問い合わせの範囲が拡大するため、情報処理システム1を用いた業務の効率を向上させることができる。
音声認識部104は、複数の組織への問い合わせを代表して受け付ける。
定型化処理部114は、各組織への問い合わせに対して、コミュニケータが回答した履歴に基づいて、複数の組織に共通して定型化できる問い合わせと回答との組み合わせを生成する。
これにより、複数の組織における問い合わせへの対応業務を統合して行う場合に、複数の組織における同様の問い合わせ及び回答を定型化できるため、単独の組織で問い合わせへの対応業務を運用する場合に比べ、問い合わせ及び回答を定型化できる頻度を高めることが可能となる。
パーソナルデータベース152は、問い合わせを行う顧客個人に関するパーソナル情報を管理する。
意図・状態解釈部107は、パーソナル情報を参照して、問い合わせに対する回答がFAQ検索データベース154から検索できるか否かを判定する。
これにより、問い合わせを行った顧客に応じて問い合わせの意図を適確に判定して、問い合わせに対する回答を行うことができる。
また、意図・状態解釈部107は、話題に対する端末装置70のユーザからの応答を音声認識し、応答内容に関連する推奨情報(セル情報等)を音声として提供する。
これにより、システムと顧客とが問い合わせ自体以外の関連する会話(雑談的な会話)を行うことにより、会話の内容に応じた推奨情報が顧客に提示される。
そのため、何らかのイベント等が生じることによって問い合わせを行った顧客に対し、顧客の状態に合致した推奨情報を提示することができる。
したがって、問い合わせへの対応業務を利用して、より効果的なマーケティングを行うことができる。
IVRサーバ20は、端末装置70からの予め設定された問い合わせに対して、自動音声応答により回答すると共に、予め設定された問い合わせ以外に対しては、コミュニケータの呼び出し処理を実行する。
連携サーバ90は、VOサーバ10からコミュニケータの呼び出しを行う場合に、VOサーバ10と端末装置70との間で行われた問い合わせ及び応答に基づいて、IVRサーバ20に対する問い合わせを行い、コミュニケータの呼び出し処理が行われるまでの会話を自動的に進行して、コミュニケータの呼び出しを実行する。
これにより、顧客がコミュニケータの呼び出しを要求した場合に、連携サーバ90によって、IVRサーバ20における自動音声応答に対する会話の入力を進行し、IVRサーバ20を経由したコミュニケータの呼び出しを行うことができる。
したがって、IVRサーバ20による自動音声応答機能を利用して、VOサーバ10からコミュニケータの呼び出しを行うことが可能となる。
例えば、上記実施形態においては、情報処理システム1が代理する組織を企業であるものとして説明したが、これに限られない。
即ち、本発明は、問い合わせに対する対応業務を行う組織であれば、企業の他、学校、行政機関あるいは医療機関等に適用することが可能である。
換言すると、図4の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が情報処理システム1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図4の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
Claims (12)
- 問い合わせを送信する端末装置と、前記端末装置から送信された前記問い合わせを受け付ける受付サーバとを含む情報処理システムであって、
前記受付サーバは、
前記端末装置からの前記問い合わせを受け付ける受付手段と、
予め用意された複数の質問及び回答が格納された応答データベースから、前記問い合わせに対する回答が検索できるか否かを判定する第1判定手段と、
前記第1判定手段によって、前記問い合わせに対する回答が検索できないと判定された場合、前記問い合わせに対する回答を行うための情報を補充する補充処理を実行し、前記補充処理の結果に基づいて、前記問い合わせに対する回答を生成する回答生成手段と、
前記回答生成手段によって、前記問い合わせに対する回答が生成できたか否かを判定する第2判定手段と、
前記第1判定手段によって前記問い合わせに対する回答が検索できると判定された場合及び前記第2判定手段によって前記問い合わせに対する回答が生成できたと判定された場合に、前記第1判定手段によって検索された前記回答または前記第2判定手段によって生成された前記回答を送信する回答手段と、
前記第2判定手段によって、前記問い合わせに対する回答が生成できなかったと判定された場合、前記問い合わせに対応するコミュニケータの呼び出し処理を実行する呼び出し手段と、
を含むことを特徴とする情報処理システム。 - 前記回答生成手段は、前記補充処理として、前記端末装置に対して、前記問い合わせの内容を補充する質問を送信することを特徴とする請求項1に記載の情報処理システム。
- 前記回答生成手段は、前記補充処理として、前記問い合わせの内容に関する情報を前記応答データベース以外の情報源から検索することを特徴とする請求項1または2に記載の情報処理システム。
- 前記受付手段は、前記端末装置からの前記問い合わせを、音声認識を用いた自動応答によって受け付け、
前記回答手段は、前記第1判定手段によって検索された前記回答または前記第2判定手段によって生成された前記回答を、音声データによる応答として送信することを特徴とする請求項1から3のいずれか1項に記載の情報処理システム。 - 前記受付サーバは、
前記コミュニケータの応答の履歴に基づいて、定型化する問い合わせ及び回答の組み合わせを生成する定型化処理手段を備えることを特徴とする請求項1から4のいずれか1項に記載の情報処理システム。 - 前記呼び出し手段は、複数の組織それぞれに対応して設置されたコミュニケータのうち、前記問い合わせに対応する組織のコミュニケータを呼び出す前記呼び出し処理を実行し、
前記受付手段は、前記複数の組織への問い合わせを代表して受け付け、
前記定型化処理手段は、各組織への問い合わせに対して、前記コミュニケータが回答した履歴に基づいて、前記複数の組織に共通して定型化できる問い合わせと回答との組み合わせを生成することを特徴とする請求項5に記載の情報処理システム。 - 前記受付サーバは、前記問い合わせを行う顧客個人に関するパーソナル情報を管理するパーソナル情報管理手段を備え、
前記第1判定手段は、前記パーソナル情報を参照して、前記問い合わせに対する回答が前記応答データベースから検索できるか否かを判定することを特徴とする請求項1から6のいずれか1項に記載の情報処理システム。 - 前記受付サーバは、
前記問い合わせの内容に関連する話題を音声として提供する話題提供手段と、
前記話題に対する前記端末装置のユーザからの応答を音声認識し、応答内容に関連する推奨情報を音声として提供する推奨情報提供手段と、
を備えることを特徴とする請求項1から7のいずれか1項に記載の情報処理システム。 - 前記端末装置からの予め設定された問い合わせに対して、自動音声応答により回答すると共に、前記予め設定された問い合わせ以外に対しては、コミュニケータの呼び出し処理を実行する自動音声応答サーバと、
前記受付サーバからコミュニケータの呼び出しを行う場合に、前記受付サーバと前記端末装置との間で行われた前記問い合わせ及び応答に基づいて、前記自動音声応答サーバに対する問い合わせを行い、コミュニケータの呼び出し処理が行われるまでの会話を自動的に進行して、コミュニケータの呼び出しを実行する連携サーバと、
を含むことを特徴とする請求項1から8のいずれか1項に記載の情報処理システム。 - 問い合わせを送信する端末装置と、前記端末装置から送信された前記問い合わせを受け付ける受付サーバとを含む情報処理システムにおける受付サーバであって、
前記端末装置からの前記問い合わせを受け付ける受付手段と、
予め用意された複数の質問及び回答が格納された応答データベースから、前記問い合わせに対する回答が検索できるか否かを判定する第1判定手段と、
前記第1判定手段によって、前記問い合わせに対する回答が検索できないと判定された場合、前記問い合わせに対する回答を行うための情報を補充する補充処理を実行し、前記補充処理の結果に基づいて、前記問い合わせに対する回答を生成する回答生成手段と、
前記回答生成手段によって、前記問い合わせに対する回答が生成できたか否かを判定する第2判定手段と、
前記第1判定手段によって前記問い合わせに対する回答が検索できると判定された場合及び前記第2判定手段によって前記問い合わせに対する回答が生成できたと判定された場合に、前記第1判定手段によって検索された前記回答または前記第2判定手段によって生成された前記回答を送信する回答手段と、
前記第2判定手段によって、前記問い合わせに対する回答が生成できなかったと判定された場合、前記問い合わせに対応するコミュニケータの呼び出し処理を実行する呼び出し手段と、
を備えることを特徴とする受付サーバ。 - 問い合わせを送信する端末装置と、前記端末装置から送信された前記問い合わせを受け付ける受付サーバとを含む情報処理システムにおいて実行される情報処理方法であって、
前記端末装置からの前記問い合わせを受け付ける受付ステップと、
予め用意された複数の質問及び回答が格納された応答データベースから、前記問い合わせに対する回答が検索できるか否かを判定する第1判定ステップと、
前記第1判定ステップにおいて、前記問い合わせに対する回答が検索できないと判定された場合、前記問い合わせに対する回答を行うための情報を補充する補充処理を実行し、前記補充処理の結果に基づいて、前記問い合わせに対する回答を生成する回答生成ステップと、
前記回答生成ステップにおいて、前記問い合わせに対する回答が生成できたか否かを判定する第2判定ステップと、
前記第1判定ステップにおいて前記問い合わせに対する回答が検索できると判定された場合及び前記第2判定ステップにおいて前記問い合わせに対する回答が生成できたと判定された場合に、前記第1判定ステップにおいて検索された前記回答または前記第2判定ステップにおいて生成された前記回答を送信する回答ステップと、
前記第2判定ステップにおいて、前記問い合わせに対する回答が生成できなかったと判定された場合、前記問い合わせに対応するコミュニケータの呼び出し処理を実行する呼び出しステップと、
を含むことを特徴とする情報処理方法。 - 問い合わせを送信する端末装置と、前記端末装置から送信された前記問い合わせを受け付ける受付サーバとを含む情報処理システムにおける受付サーバを構成するコンピュータに、
前記端末装置からの前記問い合わせを受け付ける受付機能と、
予め用意された複数の質問及び回答が格納された応答データベースから、前記問い合わせに対する回答が検索できるか否かを判定する第1判定機能と、
前記第1判定機能によって、前記問い合わせに対する回答が検索できないと判定された場合、前記問い合わせに対する回答を行うための情報を補充する補充処理を実行し、前記補充処理の結果に基づいて、前記問い合わせに対する回答を生成する回答生成機能と、
前記回答生成機能によって、前記問い合わせに対する回答が生成できたか否かを判定する第2判定機能と、
前記第1判定機能によって前記問い合わせに対する回答が検索できると判定された場合及び前記第2判定機能によって前記問い合わせに対する回答が生成できたと判定された場合に、前記第1判定機能によって検索された前記回答または前記第2判定機能によって生成された前記回答を送信する回答機能と、
前記第2判定機能によって、前記問い合わせに対する回答が生成できなかったと判定された場合、前記問い合わせに対応するコミュニケータの呼び出し処理を実行する呼び出し機能と、
を実現させることを特徴とするプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020187030900A KR102136706B1 (ko) | 2016-04-07 | 2016-04-07 | 정보 처리 시스템, 접수 서버, 정보 처리 방법 및 프로그램 |
CN201680084202.6A CN108885625A (zh) | 2016-04-07 | 2016-04-07 | 信息处理系统、受理服务器、信息处理方法和程序 |
PCT/JP2016/061448 WO2017175363A1 (ja) | 2016-04-07 | 2016-04-07 | 情報処理システム、受付サーバ、情報処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/061448 WO2017175363A1 (ja) | 2016-04-07 | 2016-04-07 | 情報処理システム、受付サーバ、情報処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017175363A1 true WO2017175363A1 (ja) | 2017-10-12 |
Family
ID=60000416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2016/061448 WO2017175363A1 (ja) | 2016-04-07 | 2016-04-07 | 情報処理システム、受付サーバ、情報処理方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
KR (1) | KR102136706B1 (ja) |
CN (1) | CN108885625A (ja) |
WO (1) | WO2017175363A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109241251A (zh) * | 2018-07-27 | 2019-01-18 | 众安信息技术服务有限公司 | 一种会话交互方法 |
JP6898685B1 (ja) * | 2020-12-14 | 2021-07-07 | シンメトリー・ディメンションズ・インク | 業務支援装置、業務支援システム、及び、業務支援方法 |
WO2022081663A1 (en) * | 2020-10-13 | 2022-04-21 | Verint Americas Inc. | System and method for developing a common inquiry response |
JP7116971B1 (ja) | 2021-11-08 | 2022-08-12 | 株式会社アシスト | 自動音声応答システムおよびプログラム |
CN116957718A (zh) * | 2023-07-04 | 2023-10-27 | 深圳智汇创想科技有限责任公司 | 商品营销方法及计算机可读存储介质 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7026066B2 (ja) * | 2019-03-13 | 2022-02-25 | 株式会社日立ビルシステム | 音声案内システム及び音声案内方法 |
JP7318241B2 (ja) * | 2019-03-18 | 2023-08-01 | コニカミノルタ株式会社 | 音声情報処理装置及びプログラム |
WO2020202958A1 (ja) * | 2019-03-29 | 2020-10-08 | 株式会社カネカ | 分類装置および分類プログラム |
JP7448350B2 (ja) * | 2019-12-18 | 2024-03-12 | トヨタ自動車株式会社 | エージェント装置、エージェントシステム、及びエージェントプログラム |
JP7272293B2 (ja) * | 2020-01-29 | 2023-05-12 | トヨタ自動車株式会社 | エージェント装置、エージェントシステム及びプログラム |
JP2021149267A (ja) * | 2020-03-17 | 2021-09-27 | 東芝テック株式会社 | 情報処理装置、情報処理システム及びその制御プログラム |
CN113488036A (zh) * | 2020-06-10 | 2021-10-08 | 海信集团有限公司 | 一种多轮语音交互方法、终端及服务器 |
JP7374389B2 (ja) * | 2021-07-26 | 2023-11-06 | 三菱電機ビルソリューションズ株式会社 | 問合せ受付装置、問合せ受付システム、および問合せ受付方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005011140A (ja) * | 2003-06-20 | 2005-01-13 | Accela Technology Corp | ナレッジシステム、フィールドサポートシステム、フィールドサポート方法及びプログラム |
JP2005063158A (ja) * | 2003-08-13 | 2005-03-10 | Fuji Xerox Co Ltd | 質問応答装置および方法 |
JP4275624B2 (ja) * | 2002-09-06 | 2009-06-10 | 富士通株式会社 | オペレータ支援装置、オペレータ支援プログラムおよびその記録媒体、ならびにオペレータ支援方法 |
JP2009536500A (ja) * | 2006-05-05 | 2009-10-08 | ソニー エリクソン モバイル コミュニケーションズ, エービー | 移動無線端末のユーザにオーディオ及びビデオコンテンツを通知する方法及びシステム |
JP2013054413A (ja) * | 2011-09-01 | 2013-03-21 | It Solutions Co Ltd | Faqシステム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2493640C (en) * | 2002-07-29 | 2012-06-12 | Francis James Scahill | Improvements in or relating to information provision for call centres |
KR20090001716A (ko) * | 2007-05-14 | 2009-01-09 | 이병수 | 성장 지능형 가상 비서 운영시스템 및 그 방법 |
CN101556669A (zh) * | 2008-04-11 | 2009-10-14 | 上海赢思软件技术有限公司 | 利用人机交互技术与用户进行个性化营销的方法和设备 |
JP2014178381A (ja) | 2013-03-13 | 2014-09-25 | Toshiba Corp | 音声認識装置、音声認識システムおよび音声認識方法 |
CN104598445B (zh) * | 2013-11-01 | 2019-05-10 | 腾讯科技(深圳)有限公司 | 自动问答系统和方法 |
KR101575276B1 (ko) * | 2015-03-19 | 2015-12-08 | 주식회사 솔루게이트 | 가상 상담 시스템 |
CN104679910A (zh) * | 2015-03-25 | 2015-06-03 | 北京智齿博创科技有限公司 | 智能应答方法及系统 |
CN105072173A (zh) * | 2015-08-03 | 2015-11-18 | 谌志群 | 自动客服和人工客服自动切换的客服方法及系统 |
CN105227790A (zh) * | 2015-09-24 | 2016-01-06 | 北京车音网科技有限公司 | 一种语音应答方法、电子设备和系统 |
-
2016
- 2016-04-07 CN CN201680084202.6A patent/CN108885625A/zh active Pending
- 2016-04-07 KR KR1020187030900A patent/KR102136706B1/ko active IP Right Grant
- 2016-04-07 WO PCT/JP2016/061448 patent/WO2017175363A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4275624B2 (ja) * | 2002-09-06 | 2009-06-10 | 富士通株式会社 | オペレータ支援装置、オペレータ支援プログラムおよびその記録媒体、ならびにオペレータ支援方法 |
JP2005011140A (ja) * | 2003-06-20 | 2005-01-13 | Accela Technology Corp | ナレッジシステム、フィールドサポートシステム、フィールドサポート方法及びプログラム |
JP2005063158A (ja) * | 2003-08-13 | 2005-03-10 | Fuji Xerox Co Ltd | 質問応答装置および方法 |
JP2009536500A (ja) * | 2006-05-05 | 2009-10-08 | ソニー エリクソン モバイル コミュニケーションズ, エービー | 移動無線端末のユーザにオーディオ及びビデオコンテンツを通知する方法及びシステム |
JP2013054413A (ja) * | 2011-09-01 | 2013-03-21 | It Solutions Co Ltd | Faqシステム |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109241251A (zh) * | 2018-07-27 | 2019-01-18 | 众安信息技术服务有限公司 | 一种会话交互方法 |
CN109241251B (zh) * | 2018-07-27 | 2022-05-27 | 众安信息技术服务有限公司 | 一种会话交互方法 |
WO2022081663A1 (en) * | 2020-10-13 | 2022-04-21 | Verint Americas Inc. | System and method for developing a common inquiry response |
JP6898685B1 (ja) * | 2020-12-14 | 2021-07-07 | シンメトリー・ディメンションズ・インク | 業務支援装置、業務支援システム、及び、業務支援方法 |
JP2022093956A (ja) * | 2020-12-14 | 2022-06-24 | シンメトリー・ディメンションズ・インク | 業務支援装置、業務支援システム、及び、業務支援方法 |
JP7116971B1 (ja) | 2021-11-08 | 2022-08-12 | 株式会社アシスト | 自動音声応答システムおよびプログラム |
JP2023069902A (ja) * | 2021-11-08 | 2023-05-18 | 株式会社アシスト | 自動音声応答システムおよびプログラム |
CN116957718A (zh) * | 2023-07-04 | 2023-10-27 | 深圳智汇创想科技有限责任公司 | 商品营销方法及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR102136706B1 (ko) | 2020-07-22 |
KR20180123150A (ko) | 2018-11-14 |
CN108885625A (zh) | 2018-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6351562B2 (ja) | 情報処理システム、受付サーバ、情報処理方法及びプログラム | |
WO2017175363A1 (ja) | 情報処理システム、受付サーバ、情報処理方法及びプログラム | |
JP7159392B2 (ja) | 画像および/または他のセンサデータに基づいている自動アシスタント要求の解決 | |
CN112136175B (zh) | 用于在主设备处访问配套设备的呼叫功能的语音交互 | |
JP6911155B2 (ja) | 取得画像に関連したメタデータの記憶 | |
US7647228B2 (en) | Method and apparatus for speech processing incorporating user intent | |
CN112202978A (zh) | 智能外呼系统、方法、计算机系统及存储介质 | |
US20180239812A1 (en) | Method and apparatus for processing question-and-answer information, storage medium and device | |
JP2017152948A (ja) | 情報提供方法、情報提供プログラム、および情報提供システム | |
CN110050303A (zh) | 基于第三方代理内容的语音到文本转换 | |
CN112131358A (zh) | 场景流程结构及所应用的智能客服系统 | |
KR102653266B1 (ko) | 인공지능 기반의 챗봇 대화 상담 시스템 및 그 방법 | |
CN110047473B (zh) | 一种人机协作交互方法及系统 | |
TWI723988B (zh) | 資訊處理系統、受理伺服器、資訊處理方法及程式 | |
WO2019003395A1 (ja) | コールセンター会話内容表示システム、方法及びプログラム | |
CN111429896B (zh) | 用于在主设备处访问配套设备的呼叫功能的语音交互 | |
CN111062729A (zh) | 一种信息获取方法、装置和设备 | |
JP7237381B1 (ja) | プログラム、情報処理システム及び情報処理方法 | |
US20220207066A1 (en) | System and method for self-generated entity-specific bot | |
JP2019207647A (ja) | 対話型業務支援システム | |
CN112307186A (zh) | 基于情绪识别的问答服务方法、系统、终端设备及介质 | |
JP7205962B1 (ja) | 自動対話のためのシステム | |
US20240297935A1 (en) | Program, information processing system and information processing method | |
JP7363862B2 (ja) | 情報処理システム、チャットボットシステム、情報管理方法、プログラム | |
JP4001574B2 (ja) | 電話応答システム及び電話応答サーバ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 20187030900 Country of ref document: KR Kind code of ref document: A |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16897920 Country of ref document: EP Kind code of ref document: A1 |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 16897920 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: JP |