WO2017175363A1 - 情報処理システム、受付サーバ、情報処理方法及びプログラム - Google Patents

情報処理システム、受付サーバ、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2017175363A1
WO2017175363A1 PCT/JP2016/061448 JP2016061448W WO2017175363A1 WO 2017175363 A1 WO2017175363 A1 WO 2017175363A1 JP 2016061448 W JP2016061448 W JP 2016061448W WO 2017175363 A1 WO2017175363 A1 WO 2017175363A1
Authority
WO
WIPO (PCT)
Prior art keywords
inquiry
answer
communicator
terminal device
unit
Prior art date
Application number
PCT/JP2016/061448
Other languages
English (en)
French (fr)
Inventor
健 森脇
章吾 安藤
淳志 佐々木
優也 岡本
Original Assignee
株式会社アドバンスト・メディア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社アドバンスト・メディア filed Critical 株式会社アドバンスト・メディア
Priority to PCT/JP2016/061448 priority Critical patent/WO2017175363A1/ja
Priority to KR1020187030900A priority patent/KR102136706B1/ko
Priority to CN201680084202.6A priority patent/CN108885625A/zh
Publication of WO2017175363A1 publication Critical patent/WO2017175363A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3349Reuse of stored results of previous queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3338Query expansion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3343Query execution using phonetics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • the present invention relates to an information processing system, a reception server, an information processing method, and a program.
  • a technology for automating call center operations for receiving inquiries from customers is known.
  • a system is known that responds to inquiries by telephone from a customer to a call center by using an automatic voice response (IVR).
  • IVR automatic voice response
  • a system that accepts an inquiry from a customer to a call center via the Internet or the like using a virtual operator (VO).
  • VO virtual operator
  • the present invention has been made in view of such a situation, and an object thereof is to further improve the efficiency of operations for receiving inquiries from customers.
  • an information processing system includes: An information processing system including a terminal device that transmits an inquiry and a reception server that receives the inquiry transmitted from the terminal device, The reception server is Accepting means for accepting the inquiry from the terminal device; First determination means for determining whether or not an answer to the inquiry can be searched from a response database in which a plurality of prepared questions and answers are stored; When it is determined by the first determination means that an answer to the inquiry cannot be searched, a replenishment process for replenishing information for performing an answer to the inquiry is executed, and the inquiry is answered based on the result of the replenishment process An answer generating means for generating an answer; Second determination means for determining whether or not an answer to the inquiry has been generated by the answer generation means; The answer retrieved by the first determination means when the first determination means determines that the answer to the inquiry can be searched and when the second determination means determines that the answer to the inquiry can be generated. Or answering means for sending the answer generated by the second determining means; Call means for executing
  • FIG. 1 is a diagram showing a system configuration of an information processing system 1 according to the present invention.
  • the information processing system 1 constitutes a proxy call center system that integrates and processes call center operations of a plurality of companies.
  • primary inquiries are made using a virtual operator (VO) capable of voice recognition in response to an inquiry from a customer, and a virtual operator answers a fixed inquiry in which an answer is prepared in advance. Answer.
  • VO virtual operator
  • a virtual operator executes a process of supplementing information for generating an answer (supplement process) in response to an inquiry for which no answer is prepared in advance, Answer by virtual operator.
  • an inquiry that needs to be handled by a human communicator is connected to a call center of each company and processed.
  • the standardized query and the answer are sequentially added to the standard query corresponding by the virtual operator.
  • the virtual operator presents a topic to the customer who has made an inquiry and performs a conversation, thereby presenting recommended information to the customer based on the information grasped through the conversation.
  • the information processing system 1 includes a VO server 10, an IVR server 20, a plurality of CTI (Computer Telephony Integration) servers 30, an IP-PBX (Internet Protocol Private Exchange eXchange) server 40, and a screen.
  • the server includes a linkage server 50, a CRM (Customer Relationship Management) server 60, and a terminal device 70.
  • the terminal device 70 and the IVR server 20 are configured to be communicable via a public telephone network 80A, and the terminal device 70, the VO server 10, and the CRM server 60 are capable of communicating with each other via a public communication network 80B such as the Internet. Connected to.
  • the VO server 10 and the CTI server 30 are connected to each other via a VPN (Virtual Private Network) 80C so that they can communicate with each other. Further, the CTI server 30 transmits and receives IP voice (voice communication using the Internet protocol) to and from the IVR server 20 via the IP-PBX server 40.
  • VPN Virtual Private Network
  • the VO server 10 responds to an inquiry through a public communication network from a terminal device 70 (such as a smartphone or a PC) equipped with a browser, and performs a primary reception using a virtual operator. Specifically, the VO server 10 recognizes the voice transmitted from the terminal device 70 and makes a response by voice according to the utterance content. Further, the VO server 10 records the conversation between the customer who made the inquiry and the virtual operator, and executes machine learning based on the recorded conversation. As a result of the machine learning, the VO server 10 changes the speech recognition method or changes the interpretation method of the customer's intention. In addition, the VO server 10 standardizes responses to similar inquiries by virtual operators based on the history of inquiries handled by the communicator.
  • the IVR server 20 responds to an inquiry from the terminal device 70 via the public telephone network by an automatic voice response.
  • the CTI server 30 is installed in each of a plurality of companies (here, company A to company C), and inquiries that exceed the scope of primary reception by the VO server 10 are taken over by human communicators at each company. Make it.
  • a communicator PC used by the communicator is connected to the CTI server 30 and a communicator telephone is connected via the PBX.
  • the CTI server 30 stores documents, URLs, PDF files, FAQ text data, and the like provided to customers as a database.
  • the display of the screen is controlled via the screen cooperation server 50 that links the screen of the terminal device 70 used by the customer and the screen of the communicator PC.
  • the communicator and the customer can make a call by transmitting / receiving IP voice or voice communication via the public telephone network 80A.
  • the IP-PBX server 40 performs conversion between IP voice transmitted from the IVR server 20 or the terminal device 70 and voice on the telephone line.
  • the screen linkage server 50 controls the terminal device 70 used by the customer and the communicator terminal device used by the communicator, and the screen of the terminal device 70 used by the customer and the screen of the communicator terminal device used by the communicator. Link.
  • the CRM server 60 stores information related to customer attributes such as purchase history, behavior history, or preference information. Note that these pieces of information stored in the CRM server 60 are hereinafter referred to as “personal information” as appropriate.
  • the CRM server 60 refers to the personal information in response to a request from the VO server 10 or the CTI server 30 and provides information that enables individually adapted responses to each customer.
  • the terminal device 70 is a terminal device 70 used by a customer who makes an inquiry to the call center system configured by the information processing system 1, and is configured by, for example, a smartphone, a PC, or a mobile phone.
  • the terminal devices 70 devices capable of displaying guidance on the screen by the VO server 10, such as smartphones or PCs, display guidance on the screen in addition to voice responses by the virtual operator.
  • a voice response by a virtual operator is performed.
  • the terminal device 70 performs communication of page data such as text and images and IP voice via the public communication network 80B. It is also possible to use a terminal device 70 that performs voice communication on a telephone line via the public telephone network 80A.
  • the terminal device 70 communicates an inquiry to the VO server 10 or the IVR server 20, and displays a screen of a response transmitted from the VO server 10 or the IVR server 20 and outputs a sound.
  • the VO server 10 In the information processing system 1, the VO server 10, IVR server 20, CTI server 30, IP-PBX server 40, screen cooperation server 50, and CRM server 60 are installed with software that realizes the function of each server in the server computer. Consists of.
  • FIG. 2 is a diagram illustrating a hardware configuration of a server computer 800 configuring each server.
  • a server computer 800 constituting each server includes a CPU (Central Processing Unit) 811, a ROM (Read Only Memory) 812, a RAM (Random Access Memory) 813, a bus 814, and an input unit. 815, an output unit 816, a storage unit 817, a communication unit 818, and a drive 819.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the CPU 811 executes various processes (processes for realizing the functions of each server) according to a program recorded in the ROM 812 or a program loaded from the storage unit 817 to the RAM 813.
  • the RAM 813 appropriately stores data necessary for the CPU 811 to execute various processes.
  • the CPU 811, the ROM 812, and the RAM 813 are connected to each other via a bus 814.
  • An input unit 815, an output unit 816, a storage unit 817, a communication unit 818, and a drive 819 are connected to the bus 814.
  • the input unit 815 is configured with various buttons and the like, and inputs various information according to an instruction operation.
  • the output unit 816 includes a display, a speaker, and the like, and outputs an image and sound.
  • the storage unit 817 is configured by a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various data managed by each server.
  • the communication unit 818 controls communication performed with other devices via a network.
  • a removable medium 821 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory or the like is appropriately attached.
  • the program read from the removable medium 821 by the drive 819 is installed in the storage unit 817 as necessary.
  • the terminal device 70 is configured by a terminal device 70 in which a browser such as a smartphone or a PC (Personal Computer) is mounted, a mobile phone or a fixed phone capable of voice communication, and the like.
  • a browser such as a smartphone or a PC (Personal Computer) is mounted, a mobile phone or a fixed phone capable of voice communication, and the like.
  • FIG. 3 is a diagram illustrating a hardware configuration of the terminal device 70.
  • a hardware configuration of a smartphone is illustrated as an example of the terminal device 70.
  • the terminal device 70 includes a CPU 911, a ROM 912, a RAM 913, a bus 914, a touch operation input unit 915, an output unit 916, a voice input unit 917, an imaging unit 918, and a storage unit. 919, a communication unit 920, and a drive 921.
  • the CPU 911 executes various processes (processes for realizing the functions of the terminal device 70) in accordance with a program recorded in the ROM 912 or a program loaded from the storage unit 919 to the RAM 913.
  • the RAM 913 appropriately stores data necessary for the CPU 911 to execute various processes.
  • the CPU 911, the ROM 912, and the RAM 913 are connected to each other via a bus 914.
  • a touch operation input unit 915, an output unit 916, an audio input unit 917, an imaging unit 918, a storage unit 919, a communication unit 920, and a drive 921 are connected to the bus 914.
  • the touch operation input unit 915 includes, for example, a capacitance type or resistance film type position input sensor stacked in the display area of the output unit 916, and detects the coordinates of the position where the touch operation is performed.
  • the touch operation refers to a contact or proximity operation of an object (such as a user's finger or a touch pen) with respect to the touch operation input unit 915.
  • the output unit 916 includes a display, a speaker, and the like, and outputs an image and sound. In other words, in this embodiment, the touch operation input unit 915 and the display of the output unit 916 constitute a touch panel.
  • the voice input unit 917 is constituted by a microphone, for example, and converts the input voice into an analog electric signal.
  • the audio analog signal is subjected to A / D (Analog / Digital) conversion processing and converted into a digital signal representing the audio data.
  • the execution subject of the A / D conversion processing is not particularly limited, and may be the CPU 911 or dedicated hardware (not shown). However, in the present embodiment, for convenience of explanation, the voice input unit 917 is used. It shall be. That is, in this embodiment, the voice input unit 917 outputs voice data based on the input voice to the CPU 911 or the like.
  • the imaging unit 918 includes an optical lens unit and an image sensor.
  • the optical lens unit is configured with a lens that collects light, such as a focus lens, for photographing a subject.
  • a zoom lens that freely changes the focal length within a certain range may be provided in the optical lens unit.
  • the optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.
  • the image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
  • the photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like.
  • CMOS Complementary Metal Oxide Semiconductor
  • a Bayer color filter is attached to the image sensor.
  • the image sensor photoelectrically converts (images) the optical signal of the subject image incident and accumulated during a certain time interval, and sequentially supplies analog electric signals obtained as a result to the AFE.
  • the AFE performs various signal processing such as A / D conversion processing on the analog electric signal. Through various signal processing, a digital signal is generated and output as an output signal of the imaging unit 918.
  • the image data indicated by the output signal of the imaging unit 918 is hereinafter referred to as “captured image data” as appropriate.
  • the captured image data is stored in the RAM 913 or the storage unit 919 in accordance with an instruction from the
  • the storage unit 919 includes a storage device such as a DRAM and stores various data.
  • the communication unit 920 controls communication performed with other devices via a network.
  • a removable medium 931 is appropriately attached to the drive 921 as necessary.
  • the program read from the removable medium 931 by the drive 921 is installed in the storage unit 919 as necessary.
  • the removable medium 931 can also store various data stored in the storage unit 919 in the same manner as the storage unit 919.
  • FIG. 4 is a block diagram illustrating a main functional configuration realized in the information processing system 1.
  • the information processing system 1 includes a VO server 10 as a database, a character database 151, a personal database 152, a scenario database 153, a FAQ search database 154, a speech synthesis database 155, a marketing template.
  • a database 156, a VOC database 157, a topic submission database 158, a communicator history database 159, and a dialogue history database 160 are provided.
  • the CTI server 30 is provided with a document database 351 and a FAQ text database 352.
  • the CRM server 60 is provided with a CRM personal database 651 and a meta database 652.
  • the database is abbreviated as “DB”.
  • the character database 151 stores data representing various expressions and gestures of the virtual operator.
  • the personal database 152 stores user-specific information such as past inquiry contents and a part of CRM personal data acquired from the CRM server 60.
  • the scenario database 153 stores a scenario (response pattern) in which a virtual operator regularly answers or interacts with an inquiry.
  • the FAQ search database 154 stores FAQ (Frequently Asked Questions) data.
  • the speech synthesis database 155 stores speech data for synthesizing sentences as speech.
  • the marketing template database 156 stores template data in which questions relating to various marketing and questionnaires are assumed in advance.
  • the VOC database 157 stores customer opinions and requests (VOC: Voice Of Customer) sent to the information processing system 1 as voice or text data.
  • the topic suggestion database 158 stores topic data to be proposed according to the contents of the inquiry to the customer who made the inquiry.
  • the communicator history database 159 stores history data of dialogue between the customer and the communicator.
  • the dialogue history database 160 stores the history data of dialogue between the customer and the virtual operator.
  • the document database 351 stores data such as documents, URLs, and PDFs that the communicator presents to the customer.
  • the FAQ text database 352 stores FAQ text data presented to the customer by the communicator.
  • the CRM personal database 651 stores user's personal attribute information and related information such as purchase history, behavior history, or preference information.
  • the metadata database 652 stores purchase information, behavior information, SNS information, and preference information of a large number of users in summary (that is, as metadata).
  • the information processing system 1 includes an inquiry voice receiving unit 201, an answer request unit 202, an answer receiving unit 203, and an answer voice transmitting unit 204 as functions of the IVR server 20.
  • the functions of the VO server 10 include an IP communication unit 101, an utterance cutout unit 102, a user information acquisition unit 103, a voice recognition unit 104, an emotion analysis unit 105, a language determination unit 106, an intention / state interpretation.
  • a response management unit 301 and a screen control unit 302 are provided as a function of the CTI server 302 are provided.
  • the IP communication unit 101 transmits the IP voice transmitted from the terminal device 70 to the IP-PBX server 40.
  • the utterance cutout unit 102 performs utterance cutout by detecting a silent portion of the input voice.
  • the user information acquisition unit 103 is a user information (user-specific number, etc.) that uniquely identifies a user who is a user of the terminal based on information on the accessed terminal (IP address, user ID and password, terminal number, etc.) To get.
  • the voice recognition unit 104 recognizes the utterance input from the utterance cutout unit 102 and converts it into a character string.
  • the emotion analysis unit 105 analyzes the emotion of the speaker based on the utterance and the silent portion input from the utterance cutout unit 102, and outputs data obtained by quantifying the emotion. For example, the emotion analysis unit 105 calculates a numerical value for each parameter such as joy, anger, sadness, fun, calmness, or impatience about the emotion of the speaker based on the speaking speed of the speaker, the level of inflection, and the like.
  • the language discrimination unit 106 discriminates the spoken language based on the character string input from the voice recognition unit 104.
  • the language discriminating unit 106 is assumed to be a plurality of languages supported by the information processing system 1, and from the results of speech recognition performed by the speech recognition unit 104, the language with the highest accuracy of the analysis result is spoken It is determined that
  • the intention / state interpreter 107 interprets the intention of the speaker and the current state of dialogue based on the character string whose language is determined by the language determiner 106 and the numerical value data of the emotion input from the emotion analyzer 105. . Specifically, the intention / state interpreting unit 107 determines the content of a character string whose language is determined by the language determining unit 106 (that is, a character string in which the speech of the speaker is converted into text), and the conversation of the speaker Interpret the intent (meaning content of the utterance). At this time, based on the user information acquired by the user information acquiring unit 103, the intention / state interpreting unit 107 stores the user's personal data stored in the CRM server 60 and the user stored in the personal database 152.
  • the intention / state interpreting unit 107 interprets the intention when the speaker repeats the same question with an increased feeling of “anger” in response to the virtual operator. It is possible to determine that this is an error and change the interpretation of the intention.
  • the intention / state interpreting unit 107 interprets the precondition of the speaker's current conversation as an element of the current conversation state from the flow of conversation from when the inquiry is made to the present. For example, if the speaker has specified a specific condition in the previous utterance (for example, if Shinjuku is specified as the area), the conversation that the speaker has already spoken in the next utterance has already been specified It is interpreted as assuming a specific condition.
  • a specific condition in the previous utterance for example, if Shinjuku is specified as the area
  • the conversation that the speaker has already spoken in the next utterance has already been specified It is interpreted as assuming a specific condition.
  • the intention / state interpreting unit 107 interprets the type of the terminal device 70 used by the speaker as an element of the current dialog state. For example, the intention / state interpreting unit 107 interprets whether or not the terminal device 70 used by the speaker is the terminal device 70 capable of guidance by screen display as an element of the current dialog state. When the terminal device 70 used by the speaker is a terminal device 70 that cannot be guided by screen display, the intention / state interpretation unit 107 selects a dialog that does not use an image.
  • the intention / state interpreting unit 107 searches the FAQ search database 154 on the basis of the intention of the speaker interpreted as described above and the state of the current dialogue, and determines whether or not the content of the dialogue can be determined (first step). Judgment). If the dialog content can be determined as a result of the first determination, the intention / state interpretation unit 107 determines the content of the dialog for the utterance. For example, when the speaker utters “What is a delicious restaurant in Shinjuku?”, The intention / state interpretation unit 107 determines the content of the dialog to answer a popular restaurant in Shinjuku.
  • the intention / state interpretation unit 107 requests the supplement processing unit 111 to perform information supplement processing (described later) for determining the dialog content. Then, the intention / state interpretation unit 107 performs determination (second determination) as to whether or not the content of the dialogue can be determined based on the result of the supplement process. Specifically, the FAQ search database 154 is searched using the result of the replenishment process, and it is determined whether the dialog content can be determined, or whether information that can determine the dialog content is obtained from an information source other than the FAQ search database 154. The As a result of the second determination, when the conversation content can be determined, the intention / state interpretation unit 107 determines the conversation content for the utterance.
  • the intention / state interpreting unit 107 calls the communicator of the inquired company via the communicator calling unit 112.
  • the inquiry is made by chat (conversation using only characters) from the terminal device 70
  • the character string transmitted by the chat is directly input to the intention / state interpreting unit 107, and thereafter the content of the dialogue is similar to the inquiry by voice. Is determined.
  • the response to the terminal device 70 is performed by chat using a character string.
  • the dialogue processing unit 108 refers to the scenario database 153 based on the dialogue contents interpreted by the intention / state interpretation unit 107, and determines a dialogue to respond to the speaker. For example, if the intention / state interpretation unit 107 determines that the content of the dialogue is to answer a popular restaurant in Shinjuku, the dialogue processing unit 108 follows the scenario stored in the scenario database 153 and reads “ Select the dialogue "Popular restaurants within ".
  • the dialogue processing unit 108 associates the utterance of the speaker and the dialogue responded to the speaker with the user information of the speaker and the terminal device 70 of the speaker, and stores it in the dialogue history database 160 as a dialogue history.
  • the speech synthesizer 109 synthesizes speech determined by the dialogue processing unit 108 and transmits it to the speaker's terminal device 70.
  • the screen control unit 110 refers to the character database 151 based on the conversation content interpreted by the intention / state interpretation unit 107 and determines the virtual operator character data to be displayed on the terminal device 70 of the speaker. Specifically, the screen control unit 110 selects the facial expression and gesture character data corresponding to the conversation contents interpreted by the intention / state interpretation unit 107, and the screen data on which the virtual operator talks with the facial expression and gesture is displayed. Generate. Then, the screen control unit 110 transmits the generated screen data to the terminal device 70 of the speaker.
  • the replenishment processing unit 111 executes a replenishment process of information for determining the content of dialogue when a request for a replenishment process is received from the intention / state interpretation unit 107. Specifically, the supplement processing unit 111 transmits a question for supplementing the inquiry content to the terminal device 70 when there are a plurality of answers to the inquiry, and the FAQ search database 154 does not include the answer to the inquiry. In some cases, information related to the inquiry content is searched from an information source (communication history database 159 or the Internet) other than the FAQ search database 154. Then, the replenishment processing unit 111 outputs an answer to the question and a search result to the intention / state interpretation unit 107 as a result of the replenishment processing.
  • an information source communication history database 159 or the Internet
  • the communicator calling unit 112 calls the communicator of the inquired company when a request for calling the communicator is received from the intention / state interpreting unit 107. Further, when an operation for calling the communicator is performed on the terminal device 70 (for example, pressing a “call” button in FIG. 6A described later), the communicator calling unit 112 selects the communicator. Execute the process to call. At this time, the communicator calling unit 112 may notify the communicator of the speaking rate of the speaker and the numerical value data of the emotion acquired in the dialogue with the virtual operator in addition to the inquiry contents of the customer who is the speaker. Good.
  • the machine learning processing unit 113 refers to the conversation history stored in the conversation history database 160 and determines whether or not an inappropriate response is made in the conversation history. For example, the machine learning processing unit 113 determines whether or not there is a situation in which the speaker denies the response of the virtual operator or instructs the communicator instead of the virtual operator in the conversation history. Then, the machine learning processing unit 113 notifies the system administrator PC used by the system administrator of the conversation history determined that an inappropriate response has been made.
  • the content of speech recognition from voice to text
  • interpretation of the intention of the speaker is fed back to the processing in the speech recognition unit 104 and the intention / state interpretation unit 107.
  • the stylization processing unit 114 refers to the communicator history database 159 by executing the knowledge management process, and when the communicator has made a plurality of responses to the same inquiry, the inquiry processing and the response to the inquiry are performed. Standardize and add to FAQ search database 154. At this time, the system administrator PC is notified of the standardized inquiry and answer, and when approved, the addition to the FAQ search database 154 may be executed.
  • inquiries and responses to communicators in call centers of a plurality of companies are referred to in a unified manner, and standardization is performed according to whether or not a plurality of responses to similar inquiries are made. .
  • the same inquiry and answer in a plurality of companies can be standardized, it is possible to increase the frequency with which the inquiry and answer can be standardized as compared with the case where a call center is operated in a single company.
  • the communicator support unit 115 When the communicator responds to an inquiry from a customer, the communicator support unit 115 recognizes the dialogue by the voice recognition unit 104 and supports the communicator based on the text data that is the voice recognition result. I will provide a. For example, the communicator support unit 115 displays information on “NISA” on the communicator PC when the inquiry content by the customer is “NISA (small investment tax exemption system)”. The communicator support unit 115 analyzes the interaction between the customer and the communicator by the emotion analysis unit 105, and displays the change in the customer's emotion on the communicator PC based on the data obtained by quantifying the emotion. Also good.
  • the inquiry voice receiving unit 201 of the IVR server 20 receives the voice transmitted from the terminal device 70 and outputs it to the answer request unit 202.
  • the answer request unit 202 transmits the voice data input from the inquiry voice receiving unit 201 to the VO server 10 and requests the answer voice.
  • the answer receiving unit 203 receives answer voice data transmitted from the VO server 10.
  • the answer voice transmitting unit 204 transmits the answer voice data received by the answer receiving unit 203 to the terminal device 70 as voice.
  • the response management unit 301 of the CTI server 30 manages and manages a customer and a communicator that has responded to an inquiry connected to the communicator.
  • the screen control unit 302 controls the screen of the terminal device 70 via the screen cooperation server 50 according to the operation of the communicator.
  • FIG. 5 is a flowchart showing a flow of acceptance processing executed by the information processing system 1.
  • FIG. 6 is a diagram showing an example of a display screen displayed on the terminal device 70 in the acceptance process.
  • FIG. 6A is an example of an initial reception screen
  • FIG. 6B is an example of a display screen in a standard response
  • FIG. 6 (C) is an example of a communicator screen
  • FIG. 6 (D) is a diagram showing an example of a display screen in VOC collection.
  • the flow of the reception process will be described with reference to FIG. 6 as appropriate.
  • step S ⁇ b> 1 the voice recognition unit 104 of the VO server 10 determines whether there is an inquiry from the terminal device 70. When there is no inquiry from the terminal device 70, it is determined as NO in step S1, and the process of step S1 is repeated. On the other hand, if there is an inquiry from the terminal device 70, it is determined YES in step S1, and the process proceeds to step S2.
  • step S2 the screen control unit 110 causes the terminal device 70 to display an initial reception screen (see FIG. 6A).
  • step S3 the utterance cutout unit 102 cuts out the utterance, the voice recognition unit 104 recognizes the voice input from the utterance cutout unit 102, and the emotion analysis unit 105 performs the voice input from the utterance cutout unit 102. Perform emotion analysis.
  • step S4 the language discrimination unit 106 discriminates the spoken language.
  • step S5 the intention / state interpreting unit 107 interprets the intention of the speaker and the state of the current dialogue.
  • the intention / state interpretation unit 107 searches the FAQ search database 154 based on the utterance content specified from the intention of the speaker interpreted in step S5 and the current conversation state.
  • step S ⁇ b> 7 the intention / state interpreting unit 107 determines whether or not the dialog content can be determined (that is, whether or not the FAQ search database 154 has an answer).
  • step S7 determines whether the dialog content can be determined. If the dialog content can be determined, YES is determined in step S7, and the process proceeds to step S8. On the other hand, if the dialog contents cannot be determined, NO is determined in step S7, and the process proceeds to step S10.
  • step S8 the intention / state interpretation unit 107 determines the content of the dialogue based on the response retrieved from the FAQ search database 154, and makes a response (standard response) by the dialogue processing unit 108 (see FIG. 6B).
  • step S9 the intention / state interpretation unit 107 determines whether or not the response to the inquiry has been completed. If the response to the inquiry has not been completed, the process proceeds to step S3. On the other hand, when the response to the inquiry is completed, the process proceeds to step S18.
  • step S10 the intention / state interpretation unit 107 requests the replenishment processing unit 111 for replenishment processing. Specifically, when there are a plurality of answer candidates for the inquiry, the replenishment processing unit 111 transmits a question for replenishing the inquiry contents to the terminal device 70, and the answer to the inquiry is not included in the FAQ search database 154. In some cases, information related to the inquiry content is searched from an information source (communication history database 159 or the Internet) other than the FAQ search database 154.
  • an information source communication history database 159 or the Internet
  • step S ⁇ b> 11 the intention / state interpretation unit 107 determines whether the content of the dialogue can be determined as a result of the supplement process. If the dialog contents can be determined as a result of the replenishment process, YES is determined in step S11, and the process proceeds to step S12. On the other hand, if the dialog content cannot be determined as a result of the replenishment process, NO is determined in step S11, and the process proceeds to step S13.
  • step S ⁇ b> 12 the intention / state interpretation unit 107 determines the content of the dialogue using the result of the supplement processing, and makes a response by the dialogue processing unit 108. After step S12, the process proceeds to step S9.
  • step S13 the intention / state interpretation unit 107 calls the communicator of the inquired company via the communicator call unit 112.
  • the screen controller 110 may respond to the virtual operator that the communicator is being called on the screen of the terminal device 70. If an operation for calling the communicator is performed in the terminal device 70, the process jumps to the process of step S13 by the interrupt process to call the communicator.
  • step S14 the screen control unit 110 of the CTI server 30 displays the communicator screen on the screen of the terminal device 70 using the communicator's photograph as a background, and the conversation content is converted into text by voice recognition (see FIG. 6C). Is displayed. By displaying the communicator screen, the customer feels closer to the person (communicator) who is responding, and can make inquiries and responses more smoothly.
  • step S15 the voice recognition unit 104 recognizes a dialogue between the customer and the communicator.
  • step S ⁇ b> 16 the intention / state interpretation unit 107 determines whether or not the dialogue between the customer and the communicator has ended. If the conversation between the customer and the communicator has not ended, NO is determined in step S16, and the process proceeds to step S14. On the other hand, when the dialogue between the customer and the communicator is completed, YES is determined in step S16, and the process proceeds to step S17.
  • step S17 the intention / state interpretation unit 107 executes a VOC collection process (see FIG. 6D).
  • step S ⁇ b> 18 the dialogue processing unit 108 stores a series of dialogue histories for the inquiry in the dialogue history database 160. After step S18, the acceptance process is repeated until an end instruction is issued.
  • the FAQ search database 154 when an inquiry is made from the terminal device 70, the FAQ search database 154 is referred to, and when an answer is prepared in the FAQ search database 154, a routine by a virtual operator is used. A response is made.
  • the VO server 10 executes a supplement process of information for determining the content of the dialogue, and uses the result of the supplement process to receive an answer from the FAQ search database 154. Processing such as searching or acquiring information from an information source other than the FAQ search database 154 is performed, and a response by the virtual operator is made to the inquiry.
  • FIG. 7 is a flowchart showing the flow of the VOC collection process.
  • the intention / state interpretation unit 107 refers to the marketing template database 156, acquires a questionnaire template regarding the response of the communicator, and the screen control unit 110 uses the terminal device 70. A questionnaire is displayed on the screen.
  • step S22 the intention / state interpretation unit 107 receives an answer to the questionnaire.
  • the answer to the questionnaire can be input by characters in the terminal device 70 in addition to being input by voice.
  • step S ⁇ b> 23 the intention / state interpretation unit 107 refers to the topic suggestion database 158, and proposes a topic corresponding to the inquiry content to the terminal device 70.
  • step S ⁇ b> 24 the voice recognition unit 104 recognizes a response voice to the topic transmitted from the terminal device 70.
  • the intention / state interpretation unit 107 searches the topic suggestion database 158 for a dialog for presenting cell information based on the keyword included in the answer acquired by speech recognition.
  • the cell information is advertisement information intended for up-sell or cross-sell.
  • presenting cell information it is possible to present cell information limited to a customer inquiry company or present cell information across a plurality of companies using the information processing system 1.
  • step S26 the intention / state interpretation unit 107 determines whether or not a dialog for presenting cell information has been searched. If a dialog for presenting cell information can be searched, YES is determined in step S26, and the process proceeds to step S27. On the other hand, when the dialog for presenting the cell information cannot be searched, it is determined as NO in Step S26, and the process proceeds to Step S28.
  • step S27 the intention / state interpreting unit 107 performs a dialog for presenting cell information and presents the cell information to the customer.
  • step S29 the process proceeds to step S29.
  • step S ⁇ b> 28 the intention / state interpretation unit 107 searches the terminal device 70 for a topic that continues from the topic suggestion database 158 and submits it.
  • step S29 the intention / state interpretation unit 107 determines whether or not the end condition of the VOC collection process is met.
  • the end condition of the VOC collection process can be defined when the customer gives an instruction to end the VOC collection process or when the customer requests product guidance according to the cell information. If the VOC collection process termination condition is not met, NO is determined in step S29, and the process proceeds to step S24. On the other hand, if the VOC collection process end condition is met, YES is determined in step S29, and the VOC collection process ends.
  • the virtual operator and the customer perform related conversations (chat conversations) other than the inquiry itself, so that cell information corresponding to the content of the conversation is presented to the customers. Therefore, cell information that matches the customer's condition can be presented to the customer who has made an inquiry due to some event or the like. Therefore, more effective marketing can be performed using the call center business.
  • FIG. 8 is a flowchart showing the flow of knowledge management processing executed by the information processing system 1.
  • the knowledge management process is executed as a batch process or the like at a preset time.
  • step S31 the stylization processing unit 114 refers to the communicator history database 159.
  • step S32 the stylization processing unit 114 analyzes the history of the communicator history database 159.
  • step S ⁇ b> 33 the stylization processing unit 114 determines whether there is a dialog that can be standardized in the history of the communicator history database 159. Whether or not there is a dialogue that can be standardized can be determined, for example, by whether or not an answer to a similar inquiry has been made a predetermined number of times or more. If there is no dialogue that can be standardized in the history of the communicator history database 159, it is determined as NO in step S33, and the knowledge management process is ended. On the other hand, if there is a dialog that can be standardized in the history of the communicator history database 159, it is determined YES in step S33, and the process proceeds to step S34.
  • step S ⁇ b> 34 the stylization processing unit 114 adds the stylized inquiry and answer to the FAQ search database 154. After step S34, the knowledge management process ends.
  • FIG. 9 is a block diagram illustrating a main functional configuration realized in the information processing system 1 according to the second embodiment.
  • the information processing system 1 according to the second embodiment further includes a cooperation server 90 that realizes cooperation between the VO server 10 and the IVR server 20 in the information processing system 1 according to the first embodiment.
  • the functions of each server shown in the first embodiment are omitted.
  • the cooperation server 90 includes a cooperation processing unit 901 that executes processing for cooperation between the VO server 10 and the IVR server 20.
  • the cooperation processing unit 901 calls the IVR server 20 in response to an operation for calling a communicator by a customer who uses the terminal device 70. Make a call.
  • the cooperation processing unit 901 automatically makes a voice inquiry according to the content of the previous dialogue with the customer, and responds to the automatic voice response provided by the IVR server 20 while calling the communicator. Proceed with conversation automatically.
  • the VO server 10 may have the function of the cooperation server 90 as described above.
  • FIG. 10 is a flowchart illustrating the flow of the cooperation processing executed by the information processing system 1 according to the second embodiment.
  • FIG. 11 is a diagram showing an example of a display screen displayed on the terminal device 70 in the cooperation process
  • FIG. 11A is an example of a telephone number input screen
  • FIG. 11B is a contact address of a communicator.
  • FIG. 11C is a diagram showing an example of a screen displayed during calling of the communicator. Further, FIG.
  • FIG. 12 is a diagram showing an example of a display screen displayed on the communicator PC in the cooperation process
  • FIG. 12A is an example of a dialog history search screen
  • FIG. 12B is an example of a dialog history confirmation screen
  • FIG. 12C shows an example of a screen during power reception
  • FIG. 12D shows an example of a screen after completion of response.
  • FIGS. 11 and 12 the flow of the cooperation process will be described with reference to FIGS. 11 and 12 as appropriate.
  • step S41 the intention / state interpreting unit 107 of the VO server 10 makes a response to prompt the customer to input his / her telephone number by the dialogue processing unit 108 (see FIG. 11A).
  • the input of the telephone number by the customer can be either input by voice or input by character string.
  • the customer's own telephone number is acquired in the VO server 10.
  • step S42 the communicator calling unit 112 acquires a contact list of the communicator estimated to be the customer's inquiry destination from the cooperation processing unit 901 of the cooperation server 90, and transmits it to the terminal device 70 (FIG. 11). (See (B)). In FIG. 11B, three contact points that are likely to be customer inquiries and buttons for displaying all the contacts are displayed.
  • the contact information of the communicator can be provided from the CTI server 30 to the cooperation processing unit 901, or the cooperation processing unit 901 can collect and acquire information from a general Web server. Further, as the contact information of the communicator, it is possible to indicate the department name and telephone number of the inquiry destination, or to indicate only the department name of the inquiry destination. In step S42, the data of the conversation history between the customer and the virtual operator so far is transmitted to the cooperation server 90.
  • step S ⁇ b> 43 the communicator calling unit 112 acquires the contact address selected by the terminal device 70.
  • step S ⁇ b> 44 the communicator calling unit 112 requests the cooperation processing unit 901 to make a call to the contact selected in the terminal device 70.
  • step S44 the data of the conversation history between the customer and the virtual operator so far is transmitted to the cooperation server 90.
  • step S45 the cooperation processing unit 901 makes a call to the IVR server 20, and automatically makes a voice inquiry according to the content of the previous dialogue with the customer. At this time, the cooperation processing unit 901 automatically advances the conversation up to the call of the communicator while corresponding to the automatic voice response provided by the IVR server 20. A message indicating that the communicator is being called is notified to the customer terminal device 70 by the virtual operator (see FIG. 11C).
  • step S46 the IVR server 20 calls the communicator as a response result to the automatic conversation by the cooperation processing unit 901.
  • the response management unit 301 of the CTI server 30 executes a power reception process that is executed when a call is made to the communicator.
  • a dialog history search screen for searching for inquiry contents is displayed on the communicator PC (see FIG. 12A), and the communicator inputs an ID notified from the cooperation server 90.
  • the dialog history confirmation screen the dialog history with the calling customer (dialog data managed by the cooperation server 90) is displayed as a character string, and the communicator calls the customer.
  • Button power receiving button
  • step S48 in response to the communicator operating the power receiving button, the cooperation processing unit 901 shifts to a “power receiving standby state” in which the communicator is ready for a call.
  • a power reception screen for inputting the result after the power reception button operation is displayed (see FIG. 12C).
  • step S49 the cooperation processing unit 901 sends a call from the communicator phone to the phone number input by the customer via the IP-PBX server 40.
  • step S50 when the customer answers the phone, a call between the communicator and the customer is started. After step S50, the process returns to the acceptance process.
  • the communicator displays on the screen when receiving power, "Call was completed”, “Did not answer”, “Out of service area”, “Voice mail", “Busy” Or, the result of contact with the customer such as “illegal phone number” is input.
  • a screen after response completion displayed after the response to the customer by the communicator is completed is displayed (see FIG. 12D).
  • the cooperation processing unit 901 of the cooperation server 90 advances the input of the conversation for the automatic voice response in the IVR server 20 and communicates via the IVR server 20. Can be called. Therefore, even when the VO server 10 and the CTI server 30 cannot directly cooperate, it is possible to call the communicator from the VO server 10 using the automatic voice response function of the IVR server 20.
  • the character or clothes of the virtual operator can be made different depending on the inquired company. For example, if multiple types of characters with different personalities are stored in the character database, if the content of the inquiry is technical, the virtual operator will be a character that seems to be familiar with the technology, and if it is related to banking operations, the virtual operator will be solid It can be a character of clothes. Thereby, it is possible to make the customer who has inquired feel the virtual operator atmosphere suitable for the contents of the inquiry.
  • the character or clothes of the virtual operator can be made different depending on the customer who made the inquiry.
  • a plurality of types of characters having different personalities are stored in the character database, and the virtual operator can be an anime character when the customer who has made the inquiry is interested in animation.
  • the virtual operator can be an anime character when the customer who has made the inquiry is interested in animation.
  • the virtual operator may propose a procedure other than the content inquired by the customer and related to the content inquired so that these procedures can be performed together. As a result, the customer can reduce the possibility of omission of necessary procedures.
  • the information processing system 1 includes the terminal device 70 and the VO server 10 as a reception server.
  • the VO server 10 includes a voice recognition unit 104, an intention / state interpretation unit 107, and a communicator calling unit 112.
  • the voice recognition unit 104 receives an inquiry from the terminal device 70.
  • the intention / state interpretation unit 107 determines whether or not an answer to the inquiry can be searched from the FAQ search database 154 in which a plurality of prepared questions and answers are stored. Further, when it is determined that the answer to the inquiry cannot be searched, the intention / state interpreting unit 107 executes a supplement process for supplementing information for answering the inquiry, and an answer to the inquiry based on the result of the supplement process Is generated.
  • the intention / state interpretation unit 107 determines whether an answer to the inquiry has been generated. In addition, the intention / state interpretation unit 107 transmits the searched answer or the generated answer when it is determined that the answer to the inquiry can be searched and when it is determined that the answer to the inquiry can be generated. When the intention / state interpreting unit 107 determines that the answer to the inquiry could not be generated, the communicator calling unit 112 executes a communicator calling process corresponding to the inquiry. Thereby, when an inquiry is made from the terminal device 70, the FAQ search database 154 is referred to, and when an answer is prepared in the FAQ search database 154, a standard response is made.
  • the intention / state interpretation unit 107 transmits a question for supplementing the content of the inquiry to the terminal device 70 as the supplement processing. Thereby, when the answer to the inquiry cannot be narrowed down, a question for narrowing down the answer can be made.
  • the intention / state interpreting unit 107 searches information related to the contents of the inquiry from information sources other than the FAQ search database 154 as a supplement process. Thereby, even if a reply to the inquiry is not prepared, information can be obtained from the searchable information source and the reply can be made.
  • the voice recognition unit 104 receives an inquiry from the terminal device 70 by an automatic response using voice recognition.
  • the intention / state interpretation unit 107 transmits the retrieved answer or the generated answer as a response by voice data. Thereby, an automatic response by voice can be performed in response to an inquiry from the terminal device.
  • the VO server 10 also includes a stylization processing unit 114.
  • the stylization processing unit 114 generates a combination of inquiry and answer to be standardized based on the response history of the communicator. As a result, when a similar inquiry is made a plurality of times for a non-standardized inquiry to which the communicator has responded, the inquiry and answer are determined as a standardized inquiry. Therefore, as the information processing system 1 is operated, the range of inquiries that regularly answer is expanded, so that the efficiency of work using the information processing system 1 can be improved.
  • the communicator calling unit 112 executes a calling process for calling the communicator of the organization corresponding to the inquiry among the communicators installed corresponding to each of the plurality of organizations.
  • the voice recognition unit 104 accepts inquiries to a plurality of organizations as a representative.
  • the stylization processing unit 114 generates a combination of a query and a response that can be standardized by a plurality of organizations based on a history of responses from the communicator in response to the query to each organization.
  • the VO server 10 also includes a personal database 152.
  • the personal database 152 manages personal information related to individual customers who make inquiries.
  • the intention / state interpreting unit 107 refers to the personal information and determines whether or not an answer to the inquiry can be searched from the FAQ search database 154. As a result, the intent of the inquiry can be accurately determined according to the customer who has made the inquiry, and the inquiry can be answered.
  • the intention / state interpretation unit 107 provides a topic related to the content of the inquiry as a voice.
  • the intention / state interpreting unit 107 recognizes a response from the user of the terminal device 70 to the topic and provides recommended information (cell information or the like) related to the response content as a sound.
  • recommended information cell information or the like
  • the system and the customer conduct a related conversation other than the inquiry itself (chat conversation)
  • recommended information corresponding to the content of the conversation is presented to the customer. Therefore, it is possible to present recommended information that matches a customer's condition to a customer who has made an inquiry due to some event or the like. Therefore, it is possible to perform more effective marketing by utilizing the business for responding to inquiries.
  • the information processing system 1 includes an IVR server 20 as an automatic voice response server and a cooperation server 90.
  • the IVR server 20 responds to a preset inquiry from the terminal device 70 by an automatic voice response, and executes a communicator call process for a query other than the preset inquiry.
  • the linking server 90 calls the communicator from the VO server 10
  • it makes an inquiry to the IVR server 20 based on the inquiry and response made between the VO server 10 and the terminal device 70, and the communicator
  • the conversation is automatically advanced until the call processing is performed, and the communicator is called.
  • the cooperation server 90 can advance the input of the conversation for the automatic voice response in the IVR server 20 and can call the communicator via the IVR server 20. . Therefore, it is possible to call the communicator from the VO server 10 using the automatic voice response function of the IVR server 20.
  • this invention is not limited to the above-mentioned embodiment,
  • transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.
  • the organization represented by the information processing system 1 is described as a company, but the present invention is not limited to this. That is, the present invention can be applied to schools, administrative institutions, medical institutions, etc., as well as corporations, as long as it is an organization that handles inquiries.
  • each server is shown as an example. If the information processing system 1 as a whole has the functions of each server, the functions of a plurality of servers can be integrated, The functions of one server can be divided.
  • the series of processes described above can be executed by hardware or can be executed by software.
  • the functional configuration of FIG. 4 is merely an example, and is not particularly limited. That is, it is sufficient that the information processing system 1 has a function capable of executing the above-described series of processing as a whole, and what functional block is used to realize this function is not particularly limited to the example of FIG. .
  • one functional block may be constituted by hardware alone, software alone, or a combination thereof.
  • a program constituting the software is installed on a computer or the like from a network or a recording medium.
  • the computer may be a computer incorporated in dedicated hardware.
  • the computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.
  • the recording medium including such a program is not only configured by the removable medium 821 shown in FIG. 2 distributed separately from the apparatus main body in order to provide the user with the program, but is also incorporated in the apparatus main body in advance. It is comprised with the recording medium etc. which are provided in this.
  • the removable medium 821 is configured by, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like.
  • the optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like.
  • the magneto-optical disk is constituted by an MD (Mini-Disk) or the like.
  • the recording medium provided to the user in a state of being incorporated in advance in the apparatus main body is configured by, for example, the ROM 812 in FIG. 2 in which the program is recorded, the DRAM included in the storage unit 817 in FIG.
  • the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the order, but is not necessarily performed in chronological order, either in parallel or individually.
  • the process to be executed is also included.
  • the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.
  • SYMBOLS 1 Information processing system, 10 ... VO server, 20 ... IVR server, 30 ... CTI server, 40 ... IP-PBX server, 50 ... Screen cooperation server, 60 ... CRM server, 70 ... terminal device, 80A ... public telephone network, 80B ... public communication network, 80C ... VPN, 90 ... cooperation server, 800 ... server computer, 811, 911 ..CPU, 812, 912 ... ROM, 813, 913 ... RAM, 814, 914 ... Bus, 815 ... Input unit, 816, 916 ... Output unit, 817, 919 ... Storage unit, 818, 920 ... communication unit, 819, 921 ...

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Telephonic Communication Services (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

顧客からの問い合わせを受け付ける業務をより効率化すること。 情報処理システム1において、音声認識部104は、端末装置70からの問い合わせを受け付ける。意図・状態解釈部107は、FAQ検索データベース154から、問い合わせに対する回答が検索できるか否かを判定し、回答が検索できないと判定された場合、回答を行うための情報を補充する補充処理を実行し、補充処理の結果に基づいて回答を生成する。意図・状態解釈部107は、問い合わせに対する回答が生成できたか否かを判定し、回答が検索できると判定された場合及び問い合わせに対する回答が生成できたと判定された場合、検索された回答または生成された回答を送信する。コミュニケータ呼び出し部112は、意図・状態解釈部107によって、回答が生成できなかったと判定された場合、コミュニケータの呼び出し処理を実行する。

Description

情報処理システム、受付サーバ、情報処理方法及びプログラム
 本発明は、情報処理システム、受付サーバ、情報処理方法及びプログラムに関する。
 従来、顧客からの問い合わせを受け付けるコールセンター業務を自動化する技術が知られている。
 例えば、顧客からコールセンターへの電話による問い合わせに対して、自動音声応答(IVR:Interactive Voice Response)による応答を行うシステムが知られている。また、顧客からコールセンターへのインターネット等による問い合わせに対して、バーチャルオペレータ(VO:Vertual Operator)による受け付けを行うシステムが知られている。
 なお、コールセンター業務を自動化する技術は、例えば、特許文献1に記載されている。
特開2014-178381号公報
 しかしながら、コールセンター業務を自動化する従来の技術においては、自動化される業務がQ&Aの振り分けに限られる等、利用形態が限定的であるのが実情である。そのため、顧客からの問い合わせを受け付ける業務が十分に効率化されていなかった。
 本発明は、このような状況に鑑みてなされたものであり、顧客からの問い合わせを受け付ける業務をより効率化することを目的とする。
 上記目的を達成するため、本発明の一態様の情報処理システムは、
 問い合わせを送信する端末装置と、前記端末装置から送信された前記問い合わせを受け付ける受付サーバとを含む情報処理システムであって、
 前記受付サーバは、
 前記端末装置からの前記問い合わせを受け付ける受付手段と、
 予め用意された複数の質問及び回答が格納された応答データベースから、前記問い合わせに対する回答が検索できるか否かを判定する第1判定手段と、
 前記第1判定手段によって、前記問い合わせに対する回答が検索できないと判定された場合、前記問い合わせに対する回答を行うための情報を補充する補充処理を実行し、前記補充処理の結果に基づいて、前記問い合わせに対する回答を生成する回答生成手段と、
 前記回答生成手段によって、前記問い合わせに対する回答が生成できたか否かを判定する第2判定手段と、
 前記第1判定手段によって前記問い合わせに対する回答が検索できると判定された場合及び前記第2判定手段によって前記問い合わせに対する回答が生成できたと判定された場合に、前記第1判定手段によって検索された前記回答または前記第2判定手段によって生成された前記回答を送信する回答手段と、
 前記第2判定手段によって、前記問い合わせに対する回答が生成できなかったと判定された場合、前記問い合わせに対応するコミュニケータの呼び出し処理を実行する呼び出し手段と、
 を含むことを特徴とする。
 本発明によれば、顧客からの問い合わせを受け付ける業務をより効率化することができる。
本発明に係る情報処理システムのシステム構成を示す図である。 各サーバを構成するサーバコンピュータのハードウェア構成を示す図である。 端末装置のハードウェア構成を示す図である。 情報処理システムにおいて実現される主な機能構成を示すブロック図である。 情報処理システムが実行する受け付け処理の流れを示すフローチャートである。 受け付け処理において端末装置に表示される表示画面例を示す図である。 VOC収集処理の流れを示すフローチャートである。 情報処理システムが実行するナレッジ管理処理の流れを示すフローチャートである。 第2実施形態に係る情報処理システムにおいて実現される主な機能構成を示すブロック図である。 第2実施形態に係る情報処理システムが実行する連携処理の流れを示すフローチャートである。 連携処理において端末装置に表示される表示画面例を示す図である。 連携処理においてコミュニケータ用PCに表示される表示画面例を示す図である。
 以下、本発明の実施形態について、図面を用いて説明する。
[第1実施形態]
[構成]
[システム構成]
 図1は、本発明に係る情報処理システム1のシステム構成を示す図である。
 情報処理システム1は、複数企業のコールセンター業務を統合して処理する代理コールセンターシステムを構成している。情報処理システム1では、顧客からの問い合わせに対して、音声認識が可能なバーチャルオペレータ(VO)を利用した一次受付を行い、予め回答が用意されている定型的な問い合わせに対して、バーチャルオペレータが回答を行う。また、情報処理システム1では、予め回答が用意されていない問い合わせに対して、バーチャルオペレータが、回答を生成するための情報を補充する処理(補充処理)を実行し、回答が生成できた場合、バーチャルオペレータによる回答を行う。さらに、情報処理システム1では、人間のコミュニケータによる対応が必要な問い合わせを各社のコールセンターに繋いで処理する。
 また、情報処理システム1では、人間のコミュニケータによって対応を行った履歴を基に、定型化可能な問い合わせと回答とをバーチャルオペレータによって対応する定型的な問い合わせに逐次追加する。
 また、情報処理システム1では、問い合わせを行った顧客に対して、バーチャルオペレータが話題を提起し、会話を行うことにより、その会話を通じて把握された情報を基に、顧客に対する推奨情報を提示する。
 図1に示すように、情報処理システム1は、VOサーバ10と、IVRサーバ20と、複数のCTI(Computer Telephony Integration)サーバ30と、IP-PBX(Intenet Protocol Private Branch eXchange)サーバ40と、画面連携サーバ50と、CRM(Customer Relationship Management)サーバ60と、端末装置70とを含んで構成される。なお、端末装置70とIVRサーバ20とは、公衆電話ネットワーク80Aを介して通信可能に構成され、端末装置70、VOサーバ10及びCRMサーバ60はインターネット等の公衆通信ネットワーク80Bを介して互いに通信可能に接続される。また、VOサーバ10とCTIサーバ30とは、VPN(Virtual Private Network)80Cを介して互いに通信可能に接続される。さらに、CTIサーバ30は、IP-PBXサーバ40を介して、IVRサーバ20とIP音声(インターネットプロトコルを利用した音声通信)の送受信を行う。
 VOサーバ10は、ブラウザを実装した端末装置70(スマートフォンあるいはPC等)からの公衆通信ネットワークを介した問い合わせに対して、バーチャルオペレータを利用した一次受付の対応を実行する。具体的には、VOサーバ10は、端末装置70から送信される音声を認識し、発話内容に応じた音声による応答を行う。また、VOサーバ10は、問い合わせを行った顧客とバーチャルオペレータとの会話を記録し、記録された会話を基に機械学習を実行する。機械学習の結果、VOサーバ10は、音声認識の方法を変更したり、顧客の意図の解釈方法を変更したりする。また、VOサーバ10は、コミュニケータによって対応した問い合わせの履歴を基に、同様の問い合わせに対する回答をバーチャルオペレータによる対応に定型化したりする。
 IVRサーバ20は、端末装置70からの公衆電話ネットワークを介した問い合わせに対して、自動音声応答による対応を実行する。
 CTIサーバ30は、複数の企業(ここではA社~C社とする。)それぞれに設置され、VOサーバ10による一次受付の対応範囲を超える問い合わせを、各企業における人間のコミュニケータによる受け付けに引き継がせる。具体的には、CTIサーバ30には、コミュニケータが使用するコミュニケータ用PCが接続されていると共に、PBXを介してコミュニケータ用電話機が接続されている。また、CTIサーバ30には、顧客に提供される書類、URL及びPDFファイルあるいはFAQのテキストデータ等がデータベースとして記憶されている。また、CTIサーバ30がコミュニケータによる受け付けを行う場合、顧客が使用する端末装置70の画面とコミュニケータ用PCの画面とを連携させる画面連携サーバ50を介して画面の表示を制御する。なお、コミュニケータと顧客とは、IP音声の送受信あるいは公衆電話ネットワーク80Aを介した音声通信によって通話することが可能である。
 IP-PBXサーバ40は、IVRサーバ20または端末装置70から送信されたIP音声と電話回線における音声との変換を行う。
 画面連携サーバ50は、顧客が使用する端末装置70及びコミュニケータが使用するコミュニケータ用端末装置を制御し、顧客が使用する端末装置70の画面とコミュニケータが使用するコミュニケータ用端末装置の画面を連携させる。
 CRMサーバ60は、購買履歴、行動履歴あるいは嗜好情報等の顧客の属性に関する情報等を記憶する。なお、CRMサーバ60が記憶しているこれらの情報を、以下、適宜「パーソナル情報」と呼ぶ。CRMサーバ60は、VOサーバ10あるいはCTIサーバ30からの要求に応じて、パーソナル情報を参照し、各顧客に対して個別に適合した対応を可能とする情報を提供する。
 端末装置70は、情報処理システム1が構成するコールセンターシステムに問い合わせを行う顧客が使用する端末装置70であり、例えば、スマートフォン、PCあるいは携帯電話機によって構成される。端末装置70のうち、スマートフォンあるいはPC等、VOサーバ10による画面の案内表示が可能な装置は、バーチャルオペレータによる音声応答に加え、画面による案内表示が行われる。なお、画面による案内表示ができない端末装置70については、バーチャルオペレータによる音声応答が行われる。
 端末装置70は、公衆通信ネットワーク80Bを介して、テキスト・画像等のページデータやIP音声の通信を行う。なお、端末装置70として、公衆電話ネットワーク80Aを介して、電話回線における音声の通信を行うものを利用することも可能である。端末装置70は、VOサーバ10あるいはIVRサーバ20への問い合わせの通信を行うと共に、VOサーバ10あるいはIVRサーバ20から送信された応答の画面表示や音声出力を行ったりする。
[ハードウェア構成]
 次に、情報処理システム1におけるサーバ及び端末装置70のハードウェア構成を説明する。
[サーバのハードウェア構成]
 情報処理システム1において、VOサーバ10、IVRサーバ20、CTIサーバ30、IP-PBXサーバ40、画面連携サーバ50及びCRMサーバ60は、サーバコンピュータに各サーバの機能を実現するソフトウェアがインストールされることにより構成される。
 図2は、各サーバを構成するサーバコンピュータ800のハードウェア構成を示す図である。
 図2に示すように、各サーバを構成するサーバコンピュータ800は、CPU(Central Processing Unit)811と、ROM(Read Only Memory)812と、RAM(Random Access Memory)813と、バス814と、入力部815と、出力部816と、記憶部817と、通信部818と、ドライブ819と、を備えている。
 CPU811は、ROM812に記録されているプログラム、または、記憶部817からRAM813にロードされたプログラムに従って各種の処理(各サーバの機能を実現するための処理)を実行する。
 RAM813には、CPU811が各種の処理を実行する上において必要なデータ等も適宜記憶される。
 CPU811、ROM812及びRAM813は、バス814を介して相互に接続されている。バス814には、入力部815、出力部816、記憶部817、通信部818及びドライブ819が接続されている。
 入力部815は、各種釦等で構成され、指示操作に応じて各種情報を入力する。
 出力部816は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
 記憶部817は、ハードディスクあるいはDRAM(Dynamic Random Access Memory)等で構成され、各サーバで管理される各種データを記憶する。
 通信部818は、ネットワークを介して他の装置との間で行う通信を制御する。
 ドライブ819には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア821が適宜装着される。ドライブ819によってリムーバブルメディア821から読み出されたプログラムは、必要に応じて記憶部817にインストールされる。
[端末装置70のハードウェア構成]
 情報処理システム1において、端末装置70は、スマートフォンあるいはPC(Personal Computer)等のブラウザを実装した端末装置70や、音声通信が可能な携帯電話機あるいは固定電話機等によって構成される。
 図3は、端末装置70のハードウェア構成を示す図である。
 なお、図3においては、端末装置70の一例として、スマートフォンのハードウェア構成を示している。
 図3に示すように、端末装置70は、CPU911と、ROM912と、RAM913と、バス914と、タッチ操作入力部915と、出力部916と、音声入力部917と、撮像部918と、記憶部919と、通信部920と、ドライブ921と、を備えている。
 CPU911は、ROM912に記録されているプログラム、または、記憶部919からRAM913にロードされたプログラムに従って各種の処理(端末装置70の機能を実現するための処理)を実行する。
 RAM913には、CPU911が各種の処理を実行する上において必要なデータ等も適宜記憶される。
 CPU911、ROM912及びRAM913は、バス914を介して相互に接続されている。バス914には、タッチ操作入力部915、出力部916、音声入力部917、撮像部918、記憶部919、通信部920及びドライブ921が接続されている。
 タッチ操作入力部915は、例えば出力部916の表示領域に積層される静電容量式または抵抗膜式の位置入力センサにより構成され、タッチ操作がなされた位置の座標を検出する。ここで、タッチ操作とは、タッチ操作入力部915に対する物体(ユーザの指やタッチペン等)の接触または近接の操作をいう。
 出力部916は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
 即ち、本実施形態では、タッチ操作入力部915と出力部916のディスプレイとにより、タッチパネルが構成されている。
 音声入力部917は、例えばマイクロフォンにより構成され、入力された音声をアナログ電気信号に変換する。
 なお、音声のアナログ信号は、A/D(Analog/Digital)変換処理が施されて、音声データを表すデジタル信号に変換される。このA/D変換処理の実行主体は、特に限定されず、CPU911であってもよいし、図示しない専用のハードウェアであってもよいが、本実施形態では説明の便宜上、音声入力部917であるものとする。
 即ち、本実施形態では、音声入力部917は、入力された音声に基づく音声データをCPU911等に出力する。
 撮像部918は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
 光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズ等で構成される。なお、フォーカスレンズの他、焦点距離を一定の範囲で自在に変化させるズームレンズを光学レンズ部に備えることとしてもよい。
 光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
 イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
 光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。本実施形態においては撮像素子には、Bayer配列の色フィルタが装着されている。撮像素子は、一定時間毎に、その間に入射されて蓄積された被写体像の光信号を光電変換(撮像)して、その結果得られるアナログの電気信号をAFEに順次供給する。
 AFEは、このアナログの電気信号に対して、A/D変換処理等の各種信号処理を実行する。各種信号処理によって、デジタル信号が生成され、撮像部918の出力信号として出力される。撮像部918の出力信号によって示される画像のデータを、以下、適宜「撮像画像データ」と呼ぶ。撮像画像データは、CPU911の指示に従って、RAM913あるいは記憶部919に記憶される。
 記憶部919は、DRAM等の記憶装置で構成され、各種データを記憶する。
 通信部920は、ネットワークを介して他の装置との間で行う通信を制御する。
 ドライブ921には、必要に応じて、リムーバブルメディア931が適宜装着される。ドライブ921によってリムーバブルメディア931から読み出されたプログラムは、必要に応じて記憶部919にインストールされる。また、リムーバブルメディア931は、記憶部919に記憶されている各種データも、記憶部919と同様に記憶することができる。
[機能的構成]
 次に、情報処理システム1において実現される主な機能構成について説明する。
 図4は、情報処理システム1において実現される主な機能構成を示すブロック図である。
 図4に示すように、情報処理システム1は、データベースとして、VOサーバ10に、キャラクタデータベース151と、パーソナルデータベース152と、シナリオデータベース153と、FAQ検索データベース154と、音声合成データベース155と、マーケティングテンプレートデータベース156と、VOCデータベース157と、話題提起データベース158と、コミュニケータ履歴データベース159と、対話履歴データベース160と、を備えている。また、CTIサーバ30には、書類データベース351と、FAQテキストデータベース352と、が備えられている。さらに、CRMサーバ60には、CRM個人データベース651と、メタデータベース652と、が備えられている。
 なお、図4においては、データベースを「DB」と省略して記載している。
 キャラクタデータベース151は、バーチャルオペレータの各種表情及び仕草を表すデータを記憶している。
 パーソナルデータベース152は、ユーザ情報によって特定されるユーザ(顧客)毎に、過去の問い合わせ内容や、CRMサーバ60から取得されるCRM個人データの一部等のユーザ固有の情報を記憶している。
 シナリオデータベース153は、問い合わせに対してバーチャルオペレータによって定型的に回答または対話するシナリオ(応答のパターン)を記憶している。
 FAQ検索データベース154は、FAQ(Frequently Asked Questions)のデータを記憶している。
 音声合成データベース155は、文章を音声として合成するための音声データを記憶している。
 マーケティングテンプレートデータベース156は、各種マーケティングやアンケートに関する質問を予め想定したテンプレートのデータを記憶している。
 VOCデータベース157は、情報処理システム1に寄せられた顧客の意見や要望(VOC:Voice Of Customer)を音声あるいはテキストのデータとして記憶している。
 話題提起データベース158は、問い合わせを行った顧客に対して、問い合わせ内容に応じて提起する話題のデータを記憶している。
 コミュニケータ履歴データベース159は、顧客とコミュニケータとの対話の履歴のデータを記憶している。
 対話履歴データベース160は、顧客とバーチャルオペレータとの対話の履歴のデータを記憶している。
 書類データベース351は、コミュニケータが顧客に提示する書類、URLあるいはPDF等のデータを記憶している。
 FAQテキストデータベース352は、コミュニケータが顧客に提示するFAQのテキストデータを記憶している。
 CRM個人データベース651は、ユーザ個人の属性情報や、購買履歴、行動履歴あるいは嗜好情報等の関連情報を記憶している。
 メタデータベース652は、多数のユーザの購買情報、行動情報、SNSの情報及び嗜好情報を要約して(即ち、メタデータとして)記憶している。
 また、図4に示すように、情報処理システム1は、IVRサーバ20の機能として、問い合わせ音声受信部201と、回答要求部202と、回答受信部203と、回答音声送信部204と、を備えている。また、VOサーバ10の機能として、IP通信部101と、発話切り出し部102と、ユーザ情報取得部103と、音声認識部104と、感情分析部105と、言語判別部106と、意図・状態解釈部107と、対話処理部108と、音声合成部109と、画面制御部110と、補充処理部111と、コミュニケータ呼び出し部112と、機械学習処理部113と、定型化処理部114と、コミュニケータ支援部115と、を備えている。さらに、CTIサーバ30の機能として、応答管理部301と、画面制御部302と、を備えている。
 IP通信部101は、端末装置70から送信されたIP音声をIP-PBXサーバ40に送信する。
 発話切り出し部102は、入力された音声の無音部分を検出することにより、発話の切り出しを実行する。
 ユーザ情報取得部103は、アクセスした端末の情報(IPアドレス、ユーザID及びパスワード、端末番号等)を基に、端末の利用者であるユーザを一意に識別するユーザ情報(ユーザ固有の番号等)を取得する。
 音声認識部104は、発話切り出し部102から入力された発話を音声認識し、文字列に変換する。
 感情分析部105は、発話切り出し部102から入力された発話及び無音部分を基に、発話者の感情を分析し、感情を数値化したデータを出力する。例えば、感情分析部105は、発話者の話す速度や抑揚の大きさ等を基に、発話者の感情について、喜び、怒り、哀しい、楽しい、平静あるいは焦り等のパラメータ毎に数値を算出する。
 言語判別部106は、音声認識部104から入力された文字列に基づいて、発話された言語を判別する。例えば、言語判別部106は、情報処理システム1が対応する複数の各言語と仮定して、音声認識部104によって音声認識された結果のうち、最も解析結果の精度が高いものを発話された言語であると判別する。
 意図・状態解釈部107は、言語判別部106によって言語が判別された文字列及び感情分析部105から入力された感情の数値データに基づいて、発話者の意図及び現在の対話の状態を解釈する。具体的には、意図・状態解釈部107は、言語判別部106によって言語が判別された文字列(即ち、発話者の音声がテキスト化された文字列)の内容を判別し、発話者の会話の意図(発話の意味内容)を解釈する。このとき、意図・状態解釈部107は、ユーザ情報取得部103によって取得されたユーザ情報を基に、CRMサーバ60に格納されているそのユーザの個人データ及びパーソナルデータベース152に格納されているそのユーザの過去の問い合わせ内容を参照して、発話者の会話の意図を解釈する。例えば、音声認識された発話者の言葉に同音異義語が複数存在する単語が含まれている場合、意図・状態解釈部107は、その発話者が過去に問い合わせた内容や、購買履歴等を参照して単語の意味を絞り込み、最も可能性が高い意味に解釈する。これにより、問い合わせを行った発話者(顧客)に応じて問い合わせの意図を適確に判定して、問い合わせに対する回答を行うことができる。また、意図・状態解釈部107は、発話者の意図を解釈する際に、発話者がバーチャルオペレータの回答に対して同一の質問を「怒り」の感情を強めて繰り返した場合、意図の解釈が誤りであると判定し、意図の解釈を変更することが可能である。
 また、意図・状態解釈部107は、問い合わせが行われてから現在までの会話の流れから、発話者の現在の会話の前提条件を現在の対話の状態の要素として解釈する。例えば、発話者が1つ前の発話において特定の条件を指定している場合(例えば、地域として新宿を指定している場合等)、次の発話において発話者が発した会話を既に指定された特定の条件を前提とするものであると解釈する。
 また、意図・状態解釈部107は、発話者が使用している端末装置70の種類を現在の対話の状態の要素として解釈する。例えば、意図・状態解釈部107は、発話者が使用している端末装置70が画面表示による案内が可能な端末装置70であるか否かを現在の対話の状態の要素として解釈する。発話者が使用している端末装置70が画面表示による案内が可能でない端末装置70である場合、意図・状態解釈部107は、画像を用いない対話を選択する。
 意図・状態解釈部107は、このように解釈した発話者の意図及び現在の対話の状態を基に、FAQ検索データベース154を検索して、対話内容を決定できるか否かの判定(第1の判定)を行う。第1の判定の結果、対話内容を決定できる場合、意図・状態解釈部107は、発話に対する対話内容を決定する。例えば、発話者が「新宿にあるおいしいレストランは?」と発話した場合、意図・状態解釈部107は、新宿にある人気のレストランを回答する対話内容に決定する。一方、対話内容を決定できない場合、意図・状態解釈部107は、補充処理部111に対話内容を決定するための情報の補充処理(後述)を依頼する。そして、意図・状態解釈部107は、補充処理の結果に基づいて、対話内容を決定できるか否かの判定(第2の判定)を行う。具体的には、補充処理の結果を用いてFAQ検索データベース154を検索し、対話内容を決定できるか、あるいは、FAQ検索データベース154以外の情報源から対話内容を決定できる情報が取得されたかが判定される。第2の判定の結果、対話内容を決定できる場合、意図・状態解釈部107は、発話に対する対話内容を決定する。一方、対話内容を決定できない場合、意図・状態解釈部107は、コミュニケータ呼び出し部112を介して、問い合わせ先の企業のコミュニケータを呼び出す。
 なお、問い合わせが端末装置70からチャット(文字のみによる会話)によって行われた場合、チャットによって送信された文字列が意図・状態解釈部107に直接入力され、以後、音声による問い合わせと同様に対話内容が決定される。ただし、この場合、端末装置70への応答は文字列によるチャットによって行われる。
 対話処理部108は、意図・状態解釈部107によって解釈された対話内容に基づいて、シナリオデータベース153を参照し、発話者に対して応答する台詞を決定する。例えば、対話処理部108は、意図・状態解釈部107によって、新宿にある人気のレストランを回答する対話内容に決定された場合、シナリオデータベース153に格納されたシナリオに従い、「新宿駅から○○m以内にある人気のレストランは、・・・」という台詞を選択する。
 また、対話処理部108は、発話者の発話と発話者に対して応答された台詞とを、発話者のユーザ情報及び発話者の端末装置70と対応付けて、対話履歴として対話履歴データベース160に記憶する。
 音声合成部109は、対話処理部108によって決定された台詞を音声合成し、発話者の端末装置70に送信する。
 画面制御部110は、意図・状態解釈部107によって解釈された対話内容に基づいて、キャラクタデータベース151を参照し、発話者の端末装置70に表示するバーチャルオペレータのキャラクタデータを決定する。具体的には、画面制御部110は、意図・状態解釈部107によって解釈された対話内容に対応する表情及び仕草のキャラクタデータを選択し、バーチャルオペレータがその表情及び仕草で会話する画面のデータを生成する。そして、画面制御部110は、生成した画面のデータを発話者の端末装置70に送信する。
 補充処理部111は、意図・状態解釈部107から補充処理の依頼があった場合に、対話内容を決定するための情報の補充処理を実行する。具体的には、補充処理部111は、問い合わせに対する回答の候補が複数ある場合に、問い合わせ内容を補充する質問を端末装置70に送信したり、問い合わせに対する回答がFAQ検索データベース154に含まれていない場合に、問い合わせ内容に関する情報をFAQ検索データベース154以外の情報源(コミュニケータ履歴データベース159あるいはインターネット等)から検索したりする。そして、補充処理部111は、質問に対する回答や検索結果を補充処理の結果として意図・状態解釈部107に出力する。
 コミュニケータ呼び出し部112は、意図・状態解釈部107からコミュニケータの呼び出しの依頼があった場合に、問い合わせ先の企業のコミュニケータを呼び出す。また、端末装置70において、コミュニケータを呼び出すための操作(例えば、後述する図6(A)の「電話する」ボタンの押下等)が行われた場合、コミュニケータ呼び出し部112は、コミュニケータを呼び出すための処理を実行する。このとき、コミュニケータ呼び出し部112は、発話者である顧客の問い合わせ内容に加えて、バーチャルオペレータとの対話で取得した発話者の話す速度や感情の数値データ等をコミュニケータに通知することとしてもよい。
 機械学習処理部113は、対話履歴データベース160に格納された対話履歴を参照し、対話履歴において、不適切な応答が行われているか否かの判定を行う。例えば、機械学習処理部113は、対話履歴において、発話者がバーチャルオペレータの応答を否定したり、バーチャルオペレータではなくコミュニケータに繋ぐよう指示したりした状況があるか否かの判定を行う。そして、機械学習処理部113は、不適切な応答が行われたと判定した対話履歴を、システム管理者が使用するシステム管理者用PCに通知する。
 機械学習処理部113が不適切な応答が行われたと判定した対話履歴が、システム管理者用PCによって、不適切なものとして認定された場合、その対話履歴における音声認識の内容(音声からテキストへの変換)あるいは発話者の意図の解釈(文字列の内容の判別結果)の確度が低いものとして、音声認識部104及び意図・状態解釈部107における処理にフィードバックされる。
 定型化処理部114は、ナレッジ管理処理を実行することにより、コミュニケータ履歴データベース159を参照し、コミュニケータによって、同様の問い合わせに対する回答が複数行われている場合、その問い合わせと、それに対する回答を定型化し、FAQ検索データベース154に追加する。なお、このとき、システム管理者用PCに定型化された問い合わせ及び回答を通知し、承認された場合に、FAQ検索データベース154への追加を実行することとしてもよい。
 ここで、本実施形態においては、複数企業のコールセンターにおけるコミュニケータへの問い合わせ及び回答を一元的に参照し、同様の問い合わせに対する回答が複数行われているか否かに従って、定型化を行うものとする。これにより、複数企業における同様の問い合わせ及び回答を定型化できるため、単独の企業でコールセンターを運用する場合に比べ、問い合わせ及び回答を定型化できる頻度を高めることが可能となる。ただし、各企業毎にコールセンターにおけるコミュニケータへの問い合わせ及び回答を参照し、その企業において、同様の問い合わせに対する回答が複数行われているか否かに従って、各企業毎に問い合わせに対する回答を定型化することとしてもよい。
 コミュニケータ支援部115は、顧客による問い合わせに対してコミュニケータが応答する場合に、その対話を音声認識部104によって音声認識し、音声認識結果であるテキストデータに基づいて、コミュニケータを支援する情報を提供する。例えば、コミュニケータ支援部115は、顧客による問い合わせ内容が「NISA(少額投資非課税制度)」である場合に、「NISA」に関する情報をコミュニケータ用PCに表示させる。なお、コミュニケータ支援部115は、顧客とコミュニケータとの対話を感情分析部105によって分析し、感情を数値化したデータに基づいて、顧客の感情の変化をコミュニケータ用PCに表示させることとしてもよい。
 IVRサーバ20の問い合わせ音声受信部201は、端末装置70から送信された音声を受信し、回答要求部202に出力する。
 回答要求部202は、問い合わせ音声受信部201から入力された音声のデータをVOサーバ10に送信し、回答の音声を要求する。
 回答受信部203は、VOサーバ10から送信される回答の音声のデータを受信する。
 回答音声送信部204は、回答受信部203が受信した回答の音声のデータを音声として端末装置70に送信する。
 CTIサーバ30の応答管理部301は、コミュニケータに繋げられた問い合わせについて、顧客と、対応を行ったコミュニケータとを対応付けて管理する。
 画面制御部302は、コミュニケータの操作に従って、画面連携サーバ50を介して端末装置70の画面を制御する。
[動作]
 次に、情報処理システム1の動作を説明する。
 図5は、情報処理システム1が実行する受け付け処理の流れを示すフローチャートである。
 受け付け処理は、情報処理システム1の起動と共に開始される。
 また、図6は、受け付け処理において端末装置70に表示される表示画面例を示す図であり、図6(A)は受付初期画面例、図6(B)は定型応答における表示画面例、図6(C)はコミュニケータ画面例、図6(D)はVOC収集における表示画面例を示す図である。以下、図6を適宜参照して、受け付け処理の流れを説明する。
 ステップS1において、VOサーバ10の音声認識部104は、端末装置70から問い合わせがあるか否かの判定を行う。
 端末装置70から問い合わせがない場合、ステップS1においてNOと判定されて、ステップS1の処理が繰り返される。
 一方、端末装置70から問い合わせがある場合、ステップS1においてYESと判定されて、処理はステップS2に移行する。
 ステップS2において、画面制御部110は、端末装置70に受付初期画面(図6(A)参照)を表示させる。
 ステップS3において、発話切り出し部102が発話の切り出しを行うと共に、音声認識部104が発話切り出し部102から入力された音声を認識し、感情分析部105が発話切り出し部102から入力された音声について、感情の分析を行う。
 ステップS4において、言語判別部106は、発話された言語を判別する。
 ステップS5において、意図・状態解釈部107は、発話者の意図及び現在の対話の状態を解釈する。
 ステップS6において、意図・状態解釈部107は、ステップS5において解釈した発話者の意図及び現在の対話の状態から特定される発話内容に基づいて、FAQ検索データベース154を検索する。
 ステップS7において、意図・状態解釈部107は、対話内容を決定できるか否か(即ち、FAQ検索データベース154に回答があるか否か)の判定を行う。
 対話内容を決定できる場合、ステップS7においてYESと判定されて、処理はステップS8に移行する。
 一方、対話内容を決定できない場合、ステップS7においてNOと判定されて、処理はステップS10に移行する。
 ステップS8において、意図・状態解釈部107は、FAQ検索データベース154から検索した回答によって対話内容を決定し、対話処理部108による応答(定型的な応答)を行う(図6(B)参照)。
 ステップS9において、意図・状態解釈部107は、問い合わせに対する応答が完了したか否かの判定を行う。
 問い合わせに対する応答が完了していない場合、処理はステップS3に移行する。
 一方、問い合わせに対する応答が完了した場合、処理はステップS18に移行する。
 ステップS10において、意図・状態解釈部107は、補充処理部111に対して補充処理を依頼する。具体的には、補充処理部111が、問い合わせに対する回答の候補が複数ある場合に、問い合わせ内容を補充する質問を端末装置70に送信したり、問い合わせに対する回答がFAQ検索データベース154に含まれていない場合に、問い合わせ内容に関する情報をFAQ検索データベース154以外の情報源(コミュニケータ履歴データベース159あるいはインターネット等)から検索したりする。
 ステップS11において、意図・状態解釈部107は、補充処理の結果、対話内容を決定できるか否かの判定を行う。
 補充処理の結果、対話内容を決定できる場合、ステップS11においてYESと判定されて、処理はステップS12に移行する。
 一方、補充処理の結果、対話内容を決定できない場合、ステップS11においてNOと判定されて、処理はステップS13に移行する。
 ステップS12において、意図・状態解釈部107は、補充処理の結果を用いて、対話内容を決定し、対話処理部108による応答を行う。
 ステップS12の後、処理はステップS9に移行する。
 ステップS13において、意図・状態解釈部107は、コミュニケータ呼び出し部112を介して、問い合わせ先の企業のコミュニケータを呼び出す。このとき、画面制御部110によって、端末装置70の画面に、コミュニケータを呼び出している旨のバーチャルオペレータの応答を行うこととしてもよい。なお、端末装置70において、コミュニケータを呼び出すための操作が行われた場合、割り込み処理により、ステップS13の処理にジャンプして、コミュニケータの呼び出しが行われる。
 ステップS14において、CTIサーバ30の画面制御部110は、端末装置70の画面に、コミュニケータの写真を背景として、対話内容が音声認識によってテキスト化されたコミュニケータ画面(図6(C)参照)を表示させる。コミュニケータ画面が表示されることにより、顧客は対応を行っている人物(コミュニケータ)をより身近に感じ、問い合わせ及びその応答をより円滑に行うことが可能となる。
 ステップS15において、音声認識部104は、顧客とコミュニケータとの対話を音声認識する。
 ステップS16において、意図・状態解釈部107は、顧客とコミュニケータとの対話が終了したか否かの判定を行う。
 顧客とコミュニケータとの対話が終了していない場合、ステップS16においてNOと判定されて、処理はステップS14に移行する。
 一方、顧客とコミュニケータとの対話が終了した場合、ステップS16においてYESと判定されて、処理はステップS17に移行する。
 ステップS17において、意図・状態解釈部107は、VOC収集処理を実行する(図6(D)参照)。
 ステップS18において、対話処理部108は、問い合わせに対する一連の対話履歴を対話履歴データベース160に記憶する。
 ステップS18の後、終了の指示が行われるまで、受け付け処理が繰り返される。
 このような処理により、情報処理システム1では、端末装置70から問い合わせが行われた場合、FAQ検索データベース154を参照し、FAQ検索データベース154に回答が用意されている場合、バーチャルオペレータによる定型的な応答が行われる。一方、FAQ検索データベース154に回答が用意されていない場合、VOサーバ10が、対話内容を決定するための情報の補充処理を実行し、補充処理の結果を用いて、FAQ検索データベース154から回答を検索する、あるいは、FAQ検索データベース154以外の情報源から情報を取得するといった処理を行い、問い合わせに対してバーチャルオペレータによる応答が行われる。さらに、補充処理の結果を用いても、バーチャルオペレータによって問い合わせに対する応答を行えない場合、コミュニケータが呼び出され、コミュニケータによる応答が行われる。
 そのため、情報処理システム1においては、バーチャルオペレータによる応答が可能な限り試みられ、コミュニケータを呼び出す頻度が低下される。
 したがって、顧客からの問い合わせを受け付ける業務をより効率化することが可能となる。
 次に、受け付け処理のステップ17でサブフローとして実行されるVOC収集処理について説明する。
 図7は、VOC収集処理の流れを示すフローチャートである。
 VOC収集処理が開始されると、ステップS21において、意図・状態解釈部107は、マーケティングテンプレートデータベース156を参照して、コミュニケータの応答に関するアンケートのテンプレートを取得し、画面制御部110によって端末装置70の画面にアンケートを表示させる。
 ステップS22において、意図・状態解釈部107は、アンケートに対する回答を受信する。なお、アンケートに対する回答は、端末装置70において、音声によって入力することの他、文字によって入力したりすることも可能である。
 ステップS23において、意図・状態解釈部107は、話題提起データベース158を参照し、端末装置70に対して、問い合わせ内容に応じた話題を提起する。
 ステップS24において、音声認識部104は、端末装置70から送信される話題に対する応答の音声を認識する。
 ステップS25において、意図・状態解釈部107は、音声認識によって取得された回答に含まれるキーワードを基に、セル情報を提示するための対話を話題提起データベース158から検索する。なお、セル情報とは、アップセルあるいはクロスセルを意図した広告情報である。セル情報を提示する場合、顧客の問い合わせ先の企業に限定したセル情報を提示することや、情報処理システム1を利用する複数の企業を横断したセル情報を提示することが可能である。
 ステップS26において、意図・状態解釈部107は、セル情報を提示するための対話が検索できたか否かの判定を行う。
 セル情報を提示するための対話が検索できた場合、ステップS26においてYESと判定されて、処理はステップS27に移行する。
 一方、セル情報を提示するための対話が検索できなかった場合、ステップS26においてNOと判定されて、処理はステップS28に移行する。
 ステップS27において、意図・状態解釈部107は、セル情報を提示するための対話を行い、顧客に対してセル情報を提示する。
 ステップS27の後、処理はステップS29に移行する。
 ステップS28において、意図・状態解釈部107は、端末装置70に対して、話題提起データベース158から継続する話題を検索して提起する。
 ステップS29において、意図・状態解釈部107は、VOC収集処理の終了条件と合致しているか否かの判定を行う。VOC収集処理の終了条件とは、顧客がVOC収集処理の終了を指示した場合や、顧客がセル情報に応じて商品案内を求めた場合等を定義することができる。
 VOC収集処理の終了条件と合致していない場合、ステップS29においてNOと判定されて、処理はステップS24に移行する。
 一方、VOC収集処理の終了条件と合致している場合、ステップS29においてYESと判定されて、VOC収集処理は終了となる。
 このような処理により、バーチャルオペレータと顧客とが問い合わせ自体以外の関連する会話(雑談的な会話)を行うことにより、会話の内容に応じたセル情報が顧客に提示される。
 そのため、何らかのイベント等が生じることによって問い合わせを行った顧客に対し、顧客の状態に合致したセル情報を提示することができる。
 したがって、コールセンター業務を利用して、より効果的なマーケティングを行うことができる。
 次に、ナレッジ管理処理について説明する。
 図8は、情報処理システム1が実行するナレッジ管理処理の流れを示すフローチャートである。
 ナレッジ管理処理は、予め設定された時間にバッチ処理等として実行される。
 ステップS31において、定型化処理部114は、コミュニケータ履歴データベース159を参照する。
 ステップS32において、定型化処理部114は、コミュニケータ履歴データベース159の履歴を解析する。
 ステップS33において、定型化処理部114は、コミュニケータ履歴データベース159の履歴に定型化できる対話があるか否かの判定を行う。定型化できる対話があるか否かについては、例えば、同様の問い合わせに対する回答が予め設定された回数以上行われているか否かによって判定することができる。
 コミュニケータ履歴データベース159の履歴に定型化できる対話がない場合、ステップS33においてNOと判定されて、ナレッジ管理処理は終了となる。
 一方、コミュニケータ履歴データベース159の履歴に定型化できる対話がある場合、ステップS33においてYESと判定されて、処理はステップS34に移行する。
 ステップS34において、定型化処理部114は、定型化された問い合わせ及び回答をFAQ検索データベース154に追加する。
 ステップS34の後、ナレッジ管理処理は終了となる。
 このような処理の結果、コミュニケータが応答を行った定型化されていない問い合わせについて、同様の問い合わせが複数回行われた場合には、その問い合わせ及び回答が、定型化できる問い合わせとして、FAQ検索データベース154に追加される。そして、以後、同様の問い合わせが行われた場合には、コミュニケータではなく、バーチャルオペレータによる回答が行われる。
 したがって、情報処理システム1を運用する程、定型的に応答を行う問い合わせの範囲が拡大するため、情報処理システム1を用いたコールセンター業務の効率を向上させることができる。
[第2実施形態]
 次に、本発明の第2実施形態について説明する。
[構成]
 図9は、第2実施形態に係る情報処理システム1において実現される主な機能構成を示すブロック図である。
 第2実施形態に係る情報処理システム1は、第1実施形態における情報処理システム1において、VOサーバ10とIVRサーバ20との連携を実現する連携サーバ90をさらに含んでいる。なお、図9においては、第1実施形態で示した各サーバの機能は省略して示している。
 連携サーバ90は、VOサーバ10とIVRサーバ20との連携のための処理を実行する連携処理部901を備えている。連携処理部901は、VOサーバ10によって一次受付の対応を行っている場合に、端末装置70を使用する顧客がコミュニケータを呼び出すための操作を行うことに対応して、IVRサーバ20に電話の発信を行う。そして、連携処理部901は、顧客とのそれまでの対話内容に応じて、音声による問い合わせを自動的に行い、IVRサーバ20によって提供される自動音声応答に対応しながら、コミュニケータの呼び出しまでの会話を自動的に進行する。
 このような処理により、VOサーバ10とCTIサーバ30とが直接連携できない場合にも、IVRサーバ20による自動音声応答機能を利用して、VOサーバ10からコミュニケータの呼び出しを行うことが可能となる。
 なお、このような連携サーバ90の機能をVOサーバ10が備えることも可能である。
[動作]
 次に、動作を説明する。
 第2実施形態に係る情報処理システム1は、第1実施形態と同様に、図6に示す受け付け処理を実行する。
 そして、端末装置70において、コミュニケータを呼び出すための操作が行われた場合に、ステップS13のサブフローとして、連携処理が実行される。
 図10は、第2実施形態に係る情報処理システム1が実行する連携処理の流れを示すフローチャートである。
 また、図11は、連携処理において端末装置70に表示される表示画面例を示す図であり、図11(A)は電話番号の入力画面例、図11(B)はコミュニケータの連絡先の一覧を表示する画面例、図11(C)はコミュニケータの呼び出し中に表示される画面例を示す図である。
 さらに、図12は、連携処理においてコミュニケータ用PCに表示される表示画面例を示す図であり、図12(A)は対話履歴検索画面例、図12(B)は対話履歴確認画面例、図12(C)は受電時画面例、図12(D)は応答完了後画面例を示す図である。
 以下、図11及び図12を適宜参照して、連携処理の流れを説明する。
 ステップS41において、VOサーバ10の意図・状態解釈部107は、対話処理部108によって顧客自身の電話番号の入力を促す応答を行う(図11(A)参照)。このとき、顧客による電話番号の入力は、音声による入力及び文字列による入力のいずれとすることも可能である。これにより、VOサーバ10において顧客自身の電話番号が取得される。
 ステップS42において、コミュニケータ呼び出し部112は、顧客の問い合わせ先であると推定されるコミュニケータの連絡先の一覧を連携サーバ90の連携処理部901から取得し、端末装置70に送信する(図11(B)参照)。図11(B)では、顧客の問い合わせ先である可能性が高い3箇所の連絡先と、全ての連絡先を表示させるためのボタンとが表示されている。コミュニケータの連絡先は、CTIサーバ30から連携処理部901に提供したり、連携処理部901が一般のWebサーバから情報を収集して取得したりすること等が可能である。また、コミュニケータの連絡先として、問い合わせ先の部署名及び電話番号を示すことや、問い合わせ先の部署名のみを示すこと等が可能である。なお、ステップS42において、それまでの顧客とバーチャルオペレータとの対話履歴のデータが連携サーバ90に送信される。
 ステップS43において、コミュニケータ呼び出し部112は、端末装置70において選択された連絡先を取得する。
 ステップS44において、コミュニケータ呼び出し部112は、端末装置70において選択された連絡先への電話の発信を、連携処理部901に要求する。なお、ステップS44において、それまでの顧客とバーチャルオペレータとの対話履歴のデータが連携サーバ90に送信される。
 ステップS45において、連携処理部901は、IVRサーバ20に電話の発信を行い、顧客とのそれまでの対話内容に応じて、音声による問い合わせを自動的に行う。このとき、連携処理部901は、IVRサーバ20によって提供される自動音声応答に対応しながら、コミュニケータの呼び出しまでの会話を自動的に進行する。なお、顧客の端末装置70には、コミュニケータを呼び出し中である旨のメッセージがバーチャルオペレータによって通知される(図11(C)参照)。
 ステップS46において、IVRサーバ20は、連携処理部901による自動的な会話に対する応答結果として、コミュニケータの呼び出しを行う。
 ステップS47において、CTIサーバ30の応答管理部301は、コミュニケータに対する呼び出しがあった場合に実行される受電処理を実行する。受電処理では、コミュニケータ用PCにおいて、問い合わせ内容を検索するための対話履歴検索画面が表示され(図12(A)参照)、コミュニケータは、連携サーバ90から通知されるIDを入力する。すると、対話履歴確認画面において、呼び出しを行った顧客との対話履歴(連携サーバ90で管理されている対話履歴のデータ)が文字列として表示されると共に、コミュニケータがその顧客に電話を発信するためのボタン(受電ボタン)が表示される(図12(B)参照)。
 ステップS48において、連携処理部901は、コミュニケータが受電ボタンを操作することに対応して、コミュニケータによる通話の準備が完了した状態である「受電待ち状態」に移行する。このとき、コミュニケータ用PCにおいて、受電ボタン操作後の結果を入力するための受電時画面が表示される(図12(C)参照)。
 ステップS49において、連携処理部901は、IP-PBXサーバ40を介して、コミュニケータ用電話機から、顧客によって入力された電話番号に電話の発信を行う。
 ステップS50において、顧客が電話に出ると、コミュニケータと顧客の通話が開始される。
 ステップS50の後、処理は受け付け処理に戻る。
 なお、コミュニケータと顧客との通話が終了した後、コミュニケータは、受電時画面において、「通話できた」、「電話に出なかった」、「圏外」、「留守電」、「話し中」あるいは「電話番号不正」といった顧客への連絡の結果を入力する。コミュニケータによる入力が行われると、コミュニケータによる顧客への応答完了後に表示される応答完了後画面が表示される(図12(D)参照)。
 このような処理により、顧客がコミュニケータの呼び出しを要求した場合に、連携サーバ90の連携処理部901によって、IVRサーバ20における自動音声応答に対する会話の入力を進行し、IVRサーバ20を経由したコミュニケータの呼び出しを行うことができる。
 したがって、VOサーバ10とCTIサーバ30とが直接連携できない場合にも、IVRサーバ20による自動音声応答機能を利用して、VOサーバ10からコミュニケータの呼び出しを行うことが可能となる。
[応用例1]
 上記実施形態において、バーチャルオペレータのキャラクターあるいは服装等を、問い合わせ先の企業に応じて異なるものとすることができる。例えば、キャラクタデータベースに個性の異なる複数種類のキャラクターを記憶しておき、問い合わせ内容が技術的なことであればバーチャルオペレータを技術に詳しそうなキャラクターとし、銀行業務に関することであればバーチャルオペレータを堅い服装のキャラクター等とすることができる。
 これにより、問い合わせを行った顧客に対して、問い合わせ内容に相応しいバーチャルオペレータの雰囲気を感じさせることができる。
[応用例2]
 上記実施形態において、バーチャルオペレータのキャラクターあるいは服装等を、問い合わせを行った顧客に応じて異なるものとすることができる。例えば、キャラクタデータベースに個性の異なる複数種類のキャラクターを記憶しておき、問い合わせを行った顧客がアニメに興味がある場合にはバーチャルオペレータをアニメのキャラクターとすることができる。
 これにより、顧客に好感を与えるバーチャルオペレータによって、コールセンターでの応答を行うことができるため、顧客満足度の向上を図ることができる。
[応用例3]
 上記実施形態において、問い合わせを行った顧客が、住所変更等、同様の手続きを複数社に対して行う場合、バーチャルオペレータの受け付けによって、複数社への手続きをまとめて行えるようにしてもよい。
 これにより、顧客は、同一の手続きを複数回行う手間を軽減することができる。
[応用例4]
 上記実施形態において、顧客が問い合わせた内容以外の手続きであって、問い合わせた内容に関連する手続きをバーチャルオペレータが提案し、これらの手続きをまとめて行えるようにしてもよい。
 これにより、顧客は、必要な手続きの漏れが生じる可能性を低減することができる。
 以上説明したように、本実施形態に係る情報処理システム1は、端末装置70と、受付サーバとしてのVOサーバ10とを含む。
 VOサーバ10は、音声認識部104と、意図・状態解釈部107と、コミュニケータ呼び出し部112とを備える。
 音声認識部104は、端末装置70からの問い合わせを受け付ける。
 意図・状態解釈部107は、予め用意された複数の質問及び回答が格納されたFAQ検索データベース154から、問い合わせに対する回答が検索できるか否かを判定する。
 また、意図・状態解釈部107は、問い合わせに対する回答が検索できないと判定された場合、問い合わせに対する回答を行うための情報を補充する補充処理を実行し、補充処理の結果に基づいて、問い合わせに対する回答を生成する。
 また、意図・状態解釈部107は、問い合わせに対する回答が生成できたか否かを判定する。
 また、意図・状態解釈部107は、問い合わせに対する回答が検索できると判定された場合及び問い合わせに対する回答が生成できたと判定された場合に、検索された回答または生成された回答を送信する。
 コミュニケータ呼び出し部112は、意図・状態解釈部107によって、問い合わせに対する回答が生成できなかったと判定された場合、問い合わせに対応するコミュニケータの呼び出し処理を実行する。
 これにより、端末装置70から問い合わせが行われた場合、FAQ検索データベース154を参照し、FAQ検索データベース154に回答が用意されている場合、定型的な応答が行われる。一方、FAQ検索データベース154に回答が用意されていない場合、問い合わせに対する回答を行うための情報の補充処理を実行し、補充処理の結果に基づいて回答が生成される。さらに、補充処理を行っても、問い合わせに対する回答が生成できない場合、コミュニケータが呼び出され、コミュニケータによる応答が行われる。
 そのため、情報処理システム1においては、システムによる自動的な応答が可能な限り試みられ、コミュニケータを呼び出す頻度が低下される。
 したがって、顧客からの問い合わせを受け付ける業務をより効率化することが可能となる。
 また、意図・状態解釈部107は、補充処理として、端末装置70に対して、問い合わせの内容を補充する質問を送信する。
 これにより、問い合わせに対する回答が絞り切れない場合に、回答を絞り込む質問を行うことができる。
 また、意図・状態解釈部107は、補充処理として、問い合わせの内容に関する情報をFAQ検索データベース154以外の情報源から検索する。
 これにより、問い合わせに対する回答が用意されていない場合であっても、検索可能な情報源から情報を取得して回答を行うことができる。
 また、音声認識部104は、端末装置70からの問い合わせを、音声認識を用いた自動応答によって受け付ける。
 また、意図・状態解釈部107は、検索された回答または生成された回答を、音声データによる応答として送信する。
 これにより、端末装置からの問い合わせに対して、音声による自動応答を行うことができる。
 また、VOサーバ10は、定型化処理部114を備える。
 定型化処理部114は、コミュニケータの応答の履歴に基づいて、定型化する問い合わせ及び回答の組み合わせを生成する。
 これにより、コミュニケータが応答を行った定型化されていない問い合わせについて、同様の問い合わせが複数回行われた場合には、その問い合わせ及び回答が、定型化できる問い合わせとされる。
 したがって、情報処理システム1を運用する程、定型的に応答を行う問い合わせの範囲が拡大するため、情報処理システム1を用いた業務の効率を向上させることができる。
 また、コミュニケータ呼び出し部112は、複数の組織それぞれに対応して設置されたコミュニケータのうち、問い合わせに対応する組織のコミュニケータを呼び出す呼び出し処理を実行する。
 音声認識部104は、複数の組織への問い合わせを代表して受け付ける。
 定型化処理部114は、各組織への問い合わせに対して、コミュニケータが回答した履歴に基づいて、複数の組織に共通して定型化できる問い合わせと回答との組み合わせを生成する。
 これにより、複数の組織における問い合わせへの対応業務を統合して行う場合に、複数の組織における同様の問い合わせ及び回答を定型化できるため、単独の組織で問い合わせへの対応業務を運用する場合に比べ、問い合わせ及び回答を定型化できる頻度を高めることが可能となる。
 また、VOサーバ10は、パーソナルデータベース152を備える。
 パーソナルデータベース152は、問い合わせを行う顧客個人に関するパーソナル情報を管理する。
 意図・状態解釈部107は、パーソナル情報を参照して、問い合わせに対する回答がFAQ検索データベース154から検索できるか否かを判定する。
 これにより、問い合わせを行った顧客に応じて問い合わせの意図を適確に判定して、問い合わせに対する回答を行うことができる。
 また、意図・状態解釈部107は、問い合わせの内容に関連する話題を音声として提供する。
 また、意図・状態解釈部107は、話題に対する端末装置70のユーザからの応答を音声認識し、応答内容に関連する推奨情報(セル情報等)を音声として提供する。
 これにより、システムと顧客とが問い合わせ自体以外の関連する会話(雑談的な会話)を行うことにより、会話の内容に応じた推奨情報が顧客に提示される。
 そのため、何らかのイベント等が生じることによって問い合わせを行った顧客に対し、顧客の状態に合致した推奨情報を提示することができる。
 したがって、問い合わせへの対応業務を利用して、より効果的なマーケティングを行うことができる。
 また、情報処理システム1は、自動音声応答サーバとしてのIVRサーバ20と、連携サーバ90とを備える。
 IVRサーバ20は、端末装置70からの予め設定された問い合わせに対して、自動音声応答により回答すると共に、予め設定された問い合わせ以外に対しては、コミュニケータの呼び出し処理を実行する。
 連携サーバ90は、VOサーバ10からコミュニケータの呼び出しを行う場合に、VOサーバ10と端末装置70との間で行われた問い合わせ及び応答に基づいて、IVRサーバ20に対する問い合わせを行い、コミュニケータの呼び出し処理が行われるまでの会話を自動的に進行して、コミュニケータの呼び出しを実行する。
 これにより、顧客がコミュニケータの呼び出しを要求した場合に、連携サーバ90によって、IVRサーバ20における自動音声応答に対する会話の入力を進行し、IVRサーバ20を経由したコミュニケータの呼び出しを行うことができる。
 したがって、IVRサーバ20による自動音声応答機能を利用して、VOサーバ10からコミュニケータの呼び出しを行うことが可能となる。
 なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
 例えば、上記実施形態においては、情報処理システム1が代理する組織を企業であるものとして説明したが、これに限られない。
 即ち、本発明は、問い合わせに対する対応業務を行う組織であれば、企業の他、学校、行政機関あるいは医療機関等に適用することが可能である。
 また、上述の実施形態において、各サーバの構成は一例として示したものであり、情報処理システム1全体として、上記各サーバの機能が備えられていれば、複数のサーバの機能を統合したり、1つのサーバの機能を分割したりすることができる。
 上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
 換言すると、図4の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が情報処理システム1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図4の例に限定されない。
 また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
 一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
 コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
 このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図2のリムーバブルメディア821により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア821は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini-Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図2のROM812や、図2の記憶部817に含まれるDRAM等で構成される。
 なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
 また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
 1・・・情報処理システム,10・・・VOサーバ,20・・・IVRサーバ,30・・・CTIサーバ,40・・・IP-PBXサーバ,50・・・画面連携サーバ,60・・・CRMサーバ,70・・・端末装置,80A・・・公衆電話ネットワーク,80B・・・公衆通信ネットワーク,80C・・・VPN,90・・・連携サーバ,800・・・サーバコンピュータ,811、911・・・CPU,812、912・・・ROM,813、913・・・RAM,814、914・・・バス,815・・・入力部,816、916・・・出力部、817、919・・・記憶部、818、920・・・通信部、819、921・・・ドライブ,821、931・・・リムーバブルメディア,915・・・タッチ操作入力部,917・・・音声入力部,918・・・撮像部,151・・・キャラクタデータベース,152・・・パーソナルデータベース,153・・・シナリオデータベース,154・・・FAQ検索データベース,155・・・音声合成データベース,156・・・マーケティングテンプレートデータベース,157・・・VOCデータベース,158・・・話題提起データベース,159・・・コミュニケータ履歴データベース,160・・・対話履歴データベース,351・・・書類データベース,352・・・FAQテキストデータベース,651・・・CRM個人データベース,652・・・メタデータベース,201・・・問い合わせ音声受信部,202・・・回答要求部,203・・・回答受信部,204・・・回答音声送信部,101・・・IP通信部,102・・・発話切り出し部,103・・・ユーザ情報取得部,104・・・音声認識部,105・・・感情分析部,106・・・言語判別部,107・・・意図・状態解釈部,108・・・対話処理部,109・・・音声合成部,110、302・・・画面制御部,111・・・補充処理部,112・・・コミュニケータ呼び出し部,113・・・機械学習処理部,114・・・定型化処理部,115・・・コミュニケータ支援部,301・・・応答管理部,901・・・連携処理部

Claims (12)

  1.  問い合わせを送信する端末装置と、前記端末装置から送信された前記問い合わせを受け付ける受付サーバとを含む情報処理システムであって、
     前記受付サーバは、
     前記端末装置からの前記問い合わせを受け付ける受付手段と、
     予め用意された複数の質問及び回答が格納された応答データベースから、前記問い合わせに対する回答が検索できるか否かを判定する第1判定手段と、
     前記第1判定手段によって、前記問い合わせに対する回答が検索できないと判定された場合、前記問い合わせに対する回答を行うための情報を補充する補充処理を実行し、前記補充処理の結果に基づいて、前記問い合わせに対する回答を生成する回答生成手段と、
     前記回答生成手段によって、前記問い合わせに対する回答が生成できたか否かを判定する第2判定手段と、
     前記第1判定手段によって前記問い合わせに対する回答が検索できると判定された場合及び前記第2判定手段によって前記問い合わせに対する回答が生成できたと判定された場合に、前記第1判定手段によって検索された前記回答または前記第2判定手段によって生成された前記回答を送信する回答手段と、
     前記第2判定手段によって、前記問い合わせに対する回答が生成できなかったと判定された場合、前記問い合わせに対応するコミュニケータの呼び出し処理を実行する呼び出し手段と、
     を含むことを特徴とする情報処理システム。
  2.  前記回答生成手段は、前記補充処理として、前記端末装置に対して、前記問い合わせの内容を補充する質問を送信することを特徴とする請求項1に記載の情報処理システム。
  3.  前記回答生成手段は、前記補充処理として、前記問い合わせの内容に関する情報を前記応答データベース以外の情報源から検索することを特徴とする請求項1または2に記載の情報処理システム。
  4.  前記受付手段は、前記端末装置からの前記問い合わせを、音声認識を用いた自動応答によって受け付け、
     前記回答手段は、前記第1判定手段によって検索された前記回答または前記第2判定手段によって生成された前記回答を、音声データによる応答として送信することを特徴とする請求項1から3のいずれか1項に記載の情報処理システム。
  5.  前記受付サーバは、
     前記コミュニケータの応答の履歴に基づいて、定型化する問い合わせ及び回答の組み合わせを生成する定型化処理手段を備えることを特徴とする請求項1から4のいずれか1項に記載の情報処理システム。
  6.  前記呼び出し手段は、複数の組織それぞれに対応して設置されたコミュニケータのうち、前記問い合わせに対応する組織のコミュニケータを呼び出す前記呼び出し処理を実行し、
     前記受付手段は、前記複数の組織への問い合わせを代表して受け付け、
     前記定型化処理手段は、各組織への問い合わせに対して、前記コミュニケータが回答した履歴に基づいて、前記複数の組織に共通して定型化できる問い合わせと回答との組み合わせを生成することを特徴とする請求項5に記載の情報処理システム。
  7.  前記受付サーバは、前記問い合わせを行う顧客個人に関するパーソナル情報を管理するパーソナル情報管理手段を備え、
     前記第1判定手段は、前記パーソナル情報を参照して、前記問い合わせに対する回答が前記応答データベースから検索できるか否かを判定することを特徴とする請求項1から6のいずれか1項に記載の情報処理システム。
  8.  前記受付サーバは、
     前記問い合わせの内容に関連する話題を音声として提供する話題提供手段と、
     前記話題に対する前記端末装置のユーザからの応答を音声認識し、応答内容に関連する推奨情報を音声として提供する推奨情報提供手段と、
     を備えることを特徴とする請求項1から7のいずれか1項に記載の情報処理システム。
  9.  前記端末装置からの予め設定された問い合わせに対して、自動音声応答により回答すると共に、前記予め設定された問い合わせ以外に対しては、コミュニケータの呼び出し処理を実行する自動音声応答サーバと、
     前記受付サーバからコミュニケータの呼び出しを行う場合に、前記受付サーバと前記端末装置との間で行われた前記問い合わせ及び応答に基づいて、前記自動音声応答サーバに対する問い合わせを行い、コミュニケータの呼び出し処理が行われるまでの会話を自動的に進行して、コミュニケータの呼び出しを実行する連携サーバと、
     を含むことを特徴とする請求項1から8のいずれか1項に記載の情報処理システム。
  10.  問い合わせを送信する端末装置と、前記端末装置から送信された前記問い合わせを受け付ける受付サーバとを含む情報処理システムにおける受付サーバであって、
     前記端末装置からの前記問い合わせを受け付ける受付手段と、
     予め用意された複数の質問及び回答が格納された応答データベースから、前記問い合わせに対する回答が検索できるか否かを判定する第1判定手段と、
     前記第1判定手段によって、前記問い合わせに対する回答が検索できないと判定された場合、前記問い合わせに対する回答を行うための情報を補充する補充処理を実行し、前記補充処理の結果に基づいて、前記問い合わせに対する回答を生成する回答生成手段と、
     前記回答生成手段によって、前記問い合わせに対する回答が生成できたか否かを判定する第2判定手段と、
     前記第1判定手段によって前記問い合わせに対する回答が検索できると判定された場合及び前記第2判定手段によって前記問い合わせに対する回答が生成できたと判定された場合に、前記第1判定手段によって検索された前記回答または前記第2判定手段によって生成された前記回答を送信する回答手段と、
     前記第2判定手段によって、前記問い合わせに対する回答が生成できなかったと判定された場合、前記問い合わせに対応するコミュニケータの呼び出し処理を実行する呼び出し手段と、
     を備えることを特徴とする受付サーバ。
  11.  問い合わせを送信する端末装置と、前記端末装置から送信された前記問い合わせを受け付ける受付サーバとを含む情報処理システムにおいて実行される情報処理方法であって、
     前記端末装置からの前記問い合わせを受け付ける受付ステップと、
     予め用意された複数の質問及び回答が格納された応答データベースから、前記問い合わせに対する回答が検索できるか否かを判定する第1判定ステップと、
     前記第1判定ステップにおいて、前記問い合わせに対する回答が検索できないと判定された場合、前記問い合わせに対する回答を行うための情報を補充する補充処理を実行し、前記補充処理の結果に基づいて、前記問い合わせに対する回答を生成する回答生成ステップと、
     前記回答生成ステップにおいて、前記問い合わせに対する回答が生成できたか否かを判定する第2判定ステップと、
     前記第1判定ステップにおいて前記問い合わせに対する回答が検索できると判定された場合及び前記第2判定ステップにおいて前記問い合わせに対する回答が生成できたと判定された場合に、前記第1判定ステップにおいて検索された前記回答または前記第2判定ステップにおいて生成された前記回答を送信する回答ステップと、
     前記第2判定ステップにおいて、前記問い合わせに対する回答が生成できなかったと判定された場合、前記問い合わせに対応するコミュニケータの呼び出し処理を実行する呼び出しステップと、
     を含むことを特徴とする情報処理方法。
  12.  問い合わせを送信する端末装置と、前記端末装置から送信された前記問い合わせを受け付ける受付サーバとを含む情報処理システムにおける受付サーバを構成するコンピュータに、
     前記端末装置からの前記問い合わせを受け付ける受付機能と、
     予め用意された複数の質問及び回答が格納された応答データベースから、前記問い合わせに対する回答が検索できるか否かを判定する第1判定機能と、
     前記第1判定機能によって、前記問い合わせに対する回答が検索できないと判定された場合、前記問い合わせに対する回答を行うための情報を補充する補充処理を実行し、前記補充処理の結果に基づいて、前記問い合わせに対する回答を生成する回答生成機能と、
     前記回答生成機能によって、前記問い合わせに対する回答が生成できたか否かを判定する第2判定機能と、
     前記第1判定機能によって前記問い合わせに対する回答が検索できると判定された場合及び前記第2判定機能によって前記問い合わせに対する回答が生成できたと判定された場合に、前記第1判定機能によって検索された前記回答または前記第2判定機能によって生成された前記回答を送信する回答機能と、
     前記第2判定機能によって、前記問い合わせに対する回答が生成できなかったと判定された場合、前記問い合わせに対応するコミュニケータの呼び出し処理を実行する呼び出し機能と、
     を実現させることを特徴とするプログラム。
PCT/JP2016/061448 2016-04-07 2016-04-07 情報処理システム、受付サーバ、情報処理方法及びプログラム WO2017175363A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2016/061448 WO2017175363A1 (ja) 2016-04-07 2016-04-07 情報処理システム、受付サーバ、情報処理方法及びプログラム
KR1020187030900A KR102136706B1 (ko) 2016-04-07 2016-04-07 정보 처리 시스템, 접수 서버, 정보 처리 방법 및 프로그램
CN201680084202.6A CN108885625A (zh) 2016-04-07 2016-04-07 信息处理系统、受理服务器、信息处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/061448 WO2017175363A1 (ja) 2016-04-07 2016-04-07 情報処理システム、受付サーバ、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2017175363A1 true WO2017175363A1 (ja) 2017-10-12

Family

ID=60000416

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/061448 WO2017175363A1 (ja) 2016-04-07 2016-04-07 情報処理システム、受付サーバ、情報処理方法及びプログラム

Country Status (3)

Country Link
KR (1) KR102136706B1 (ja)
CN (1) CN108885625A (ja)
WO (1) WO2017175363A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109241251A (zh) * 2018-07-27 2019-01-18 众安信息技术服务有限公司 一种会话交互方法
JP6898685B1 (ja) * 2020-12-14 2021-07-07 シンメトリー・ディメンションズ・インク 業務支援装置、業務支援システム、及び、業務支援方法
WO2022081663A1 (en) * 2020-10-13 2022-04-21 Verint Americas Inc. System and method for developing a common inquiry response
JP7116971B1 (ja) 2021-11-08 2022-08-12 株式会社アシスト 自動音声応答システムおよびプログラム
CN116957718A (zh) * 2023-07-04 2023-10-27 深圳智汇创想科技有限责任公司 商品营销方法及计算机可读存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7026066B2 (ja) * 2019-03-13 2022-02-25 株式会社日立ビルシステム 音声案内システム及び音声案内方法
JP7318241B2 (ja) * 2019-03-18 2023-08-01 コニカミノルタ株式会社 音声情報処理装置及びプログラム
JP7448350B2 (ja) * 2019-12-18 2024-03-12 トヨタ自動車株式会社 エージェント装置、エージェントシステム、及びエージェントプログラム
JP7272293B2 (ja) * 2020-01-29 2023-05-12 トヨタ自動車株式会社 エージェント装置、エージェントシステム及びプログラム
JP2021149267A (ja) * 2020-03-17 2021-09-27 東芝テック株式会社 情報処理装置、情報処理システム及びその制御プログラム
CN113488036A (zh) * 2020-06-10 2021-10-08 海信集团有限公司 一种多轮语音交互方法、终端及服务器

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005011140A (ja) * 2003-06-20 2005-01-13 Accela Technology Corp ナレッジシステム、フィールドサポートシステム、フィールドサポート方法及びプログラム
JP2005063158A (ja) * 2003-08-13 2005-03-10 Fuji Xerox Co Ltd 質問応答装置および方法
JP4275624B2 (ja) * 2002-09-06 2009-06-10 富士通株式会社 オペレータ支援装置、オペレータ支援プログラムおよびその記録媒体、ならびにオペレータ支援方法
JP2009536500A (ja) * 2006-05-05 2009-10-08 ソニー エリクソン モバイル コミュニケーションズ, エービー 移動無線端末のユーザにオーディオ及びビデオコンテンツを通知する方法及びシステム
JP2013054413A (ja) * 2011-09-01 2013-03-21 It Solutions Co Ltd Faqシステム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004012431A1 (en) * 2002-07-29 2004-02-05 British Telecommunications Public Limited Company Improvements in or relating to information provision for call centres
KR20090001716A (ko) * 2007-05-14 2009-01-09 이병수 성장 지능형 가상 비서 운영시스템 및 그 방법
CN101556669A (zh) * 2008-04-11 2009-10-14 上海赢思软件技术有限公司 利用人机交互技术与用户进行个性化营销的方法和设备
JP2014178381A (ja) 2013-03-13 2014-09-25 Toshiba Corp 音声認識装置、音声認識システムおよび音声認識方法
CN104598445B (zh) * 2013-11-01 2019-05-10 腾讯科技(深圳)有限公司 自动问答系统和方法
KR101575276B1 (ko) * 2015-03-19 2015-12-08 주식회사 솔루게이트 가상 상담 시스템
CN104679910A (zh) * 2015-03-25 2015-06-03 北京智齿博创科技有限公司 智能应答方法及系统
CN105072173A (zh) * 2015-08-03 2015-11-18 谌志群 自动客服和人工客服自动切换的客服方法及系统
CN105227790A (zh) * 2015-09-24 2016-01-06 北京车音网科技有限公司 一种语音应答方法、电子设备和系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4275624B2 (ja) * 2002-09-06 2009-06-10 富士通株式会社 オペレータ支援装置、オペレータ支援プログラムおよびその記録媒体、ならびにオペレータ支援方法
JP2005011140A (ja) * 2003-06-20 2005-01-13 Accela Technology Corp ナレッジシステム、フィールドサポートシステム、フィールドサポート方法及びプログラム
JP2005063158A (ja) * 2003-08-13 2005-03-10 Fuji Xerox Co Ltd 質問応答装置および方法
JP2009536500A (ja) * 2006-05-05 2009-10-08 ソニー エリクソン モバイル コミュニケーションズ, エービー 移動無線端末のユーザにオーディオ及びビデオコンテンツを通知する方法及びシステム
JP2013054413A (ja) * 2011-09-01 2013-03-21 It Solutions Co Ltd Faqシステム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109241251A (zh) * 2018-07-27 2019-01-18 众安信息技术服务有限公司 一种会话交互方法
CN109241251B (zh) * 2018-07-27 2022-05-27 众安信息技术服务有限公司 一种会话交互方法
WO2022081663A1 (en) * 2020-10-13 2022-04-21 Verint Americas Inc. System and method for developing a common inquiry response
JP6898685B1 (ja) * 2020-12-14 2021-07-07 シンメトリー・ディメンションズ・インク 業務支援装置、業務支援システム、及び、業務支援方法
JP7116971B1 (ja) 2021-11-08 2022-08-12 株式会社アシスト 自動音声応答システムおよびプログラム
JP2023069902A (ja) * 2021-11-08 2023-05-18 株式会社アシスト 自動音声応答システムおよびプログラム
CN116957718A (zh) * 2023-07-04 2023-10-27 深圳智汇创想科技有限责任公司 商品营销方法及计算机可读存储介质

Also Published As

Publication number Publication date
CN108885625A (zh) 2018-11-23
KR102136706B1 (ko) 2020-07-22
KR20180123150A (ko) 2018-11-14

Similar Documents

Publication Publication Date Title
JP6351562B2 (ja) 情報処理システム、受付サーバ、情報処理方法及びプログラム
WO2017175363A1 (ja) 情報処理システム、受付サーバ、情報処理方法及びプログラム
JP7159392B2 (ja) 画像および/または他のセンサデータに基づいている自動アシスタント要求の解決
JP6911155B2 (ja) 取得画像に関連したメタデータの記憶
US7647228B2 (en) Method and apparatus for speech processing incorporating user intent
CN112202978A (zh) 智能外呼系统、方法、计算机系统及存储介质
US20180239812A1 (en) Method and apparatus for processing question-and-answer information, storage medium and device
JP2017152948A (ja) 情報提供方法、情報提供プログラム、および情報提供システム
JP6518020B1 (ja) リソース制約のあるデバイスにおけるオフライン意味論処理の促進
CN110050303A (zh) 基于第三方代理内容的语音到文本转换
CN112131358A (zh) 场景流程结构及所应用的智能客服系统
TWI723988B (zh) 資訊處理系統、受理伺服器、資訊處理方法及程式
WO2019003395A1 (ja) コールセンター会話内容表示システム、方法及びプログラム
CN111429896B (zh) 用于在主设备处访问配套设备的呼叫功能的语音交互
CN110047473B (zh) 一种人机协作交互方法及系统
WO2023090380A1 (ja) プログラム、情報処理システム及び情報処理方法
CN111062729A (zh) 一种信息获取方法、装置和设备
US20220207066A1 (en) System and method for self-generated entity-specific bot
CN110311943A (zh) 一种电力企业大数据平台中数据的查询与展示方法
JP2019207647A (ja) 対話型業務支援システム
JP7205962B1 (ja) 自動対話のためのシステム
JP7363862B2 (ja) 情報処理システム、チャットボットシステム、情報管理方法、プログラム
JP7370521B2 (ja) 音声分析装置、音声分析方法、オンラインコミュニケーションシステム、およびコンピュータプログラム
JP4001574B2 (ja) 電話応答システム及び電話応答サーバ
KR102653266B1 (ko) 인공지능 기반의 챗봇 대화 상담 시스템 및 그 방법

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20187030900

Country of ref document: KR

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16897920

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16897920

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP