WO2022208711A1 - 情報処理装置、情報処理システム、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理システム、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2022208711A1
WO2022208711A1 PCT/JP2021/013806 JP2021013806W WO2022208711A1 WO 2022208711 A1 WO2022208711 A1 WO 2022208711A1 JP 2021013806 W JP2021013806 W JP 2021013806W WO 2022208711 A1 WO2022208711 A1 WO 2022208711A1
Authority
WO
WIPO (PCT)
Prior art keywords
customer
information
information processing
call
unit
Prior art date
Application number
PCT/JP2021/013806
Other languages
English (en)
French (fr)
Inventor
円 小松原
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2023510007A priority Critical patent/JPWO2022208711A1/ja
Priority to PCT/JP2021/013806 priority patent/WO2022208711A1/ja
Publication of WO2022208711A1 publication Critical patent/WO2022208711A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Definitions

  • the present invention relates to an information processing device, an information processing system, an information processing method, and a program.
  • a technique for notifying information about the content of a call is known.
  • a voice recognition unit searches customer information from the customer's name, membership number, authentication ID, etc. from the content of the call between the operator and the customer based on the customer database, and the important customer flag of the customer information is
  • a speech recognizer is described that, when enabled, determines that a customer on a call is an important customer and activates a flag indicating that the call is for an important customer.
  • the speech recognition device can inform the supervisor that the operator is talking with an important customer, but the operator cannot know the characteristics of the customer or the past correspondence information. can't Therefore, there is a problem that it is difficult to respond appropriately to the other party.
  • One aspect of the present invention has been made in view of the above problems, and an example of its purpose is to provide a technology that makes it easier to respond appropriately to the person on the other end of the call.
  • An information processing apparatus includes identification means for identifying a calling party by voice recognition during a voice call, and display means for displaying information associated with the identified calling party.
  • An information processing method includes identifying a calling party by voice recognition during a voice call, and displaying information associated with the identified calling party.
  • An information processing system includes identification means for identifying a calling party by voice recognition during a voice call, display means for displaying information associated with the identified calling party, and displaying the information. a database for recording;
  • An information processing program uses a computer as identification means for identifying a calling party by speech recognition during a voice call, and display means for displaying information associated with the identified calling party. make it work.
  • FIG. 1 is a block diagram showing the configuration of an information processing device 1 according to exemplary Embodiment 1 of the present invention
  • FIG. 4 is a flow chart showing the flow of an information processing method S1 according to exemplary embodiment 1
  • 1 is a block diagram showing the configuration of an information processing system 2 according to Exemplary Embodiment 1
  • FIG. 3 is a block diagram showing the configuration of a service desk 3 of a company that provides services according to exemplary embodiment 2 of the present invention
  • 10 is an example of a display screen on which the display device according to Exemplary Embodiment 2 displays customer information.
  • FIG. 10 is a diagram showing an example of the structure of customer information recorded in a database according to Exemplary Embodiment 2;
  • FIG. 11 is a block diagram showing the configuration of a service desk 3A according to exemplary embodiment 3 of the present invention
  • FIG. 11 is an example of a display screen on which the display device according to exemplary embodiment 3 also displays the degree of importance of information
  • FIG. FIG. 11 is a block diagram showing the configuration of a service desk 3B according to exemplary embodiment 4 of the present invention
  • FIG. 12 is a diagram showing an example of a screen displayed by a display device according to Exemplary Embodiment 4
  • FIG. 11 is a block diagram showing the configuration of a service desk 3C according to the fifth exemplary embodiment of the present invention
  • FIG. FIG. 13 is a diagram showing an example of a screen displayed by a display device according to Exemplary Embodiment 5
  • FIG. 11 is a block diagram showing the configuration of an information processing device 7 according to exemplary Embodiment 6 of the present invention
  • 1 is a block diagram of a computer operating as an information processing device according to each exemplary embodiment
  • FIG. 1 is a block diagram showing the configuration of an information processing device 1.
  • the information processing device 1 includes an identification section 11 and a display section 12 .
  • the identification unit 11 identifies a calling party by voice recognition during voice communication.
  • the display unit 12 displays information associated with the identified calling party.
  • the identification unit 11 is an embodiment of the "identification means” described in the claims.
  • the display unit 12 is an embodiment of the "display means” described in the claims.
  • the identification unit 11 preferably identifies the other party during a voice call, for example.
  • "identify” is, for example, identifying the name of the other party, or the ID of the other party associated with the name of the other party.
  • a voiceprint recognition method that identifies a calling party from a type of speech frequency, a pattern of changes in speech intensity, a combination thereof, or the like can be used.
  • the voice recognition method may be a recognition method using a trained model for specifying the other party of the call by machine-learning voice data.
  • the display unit 12 acquires data of information to be displayed on a display device (not shown) and transmits the data to the display device. Thereby, the information is displayed on the display device.
  • display by the display unit the operation of the display unit to display on the display device is referred to as "display by the display unit".
  • the display unit 12 preferably displays the information, for example, during a voice call.
  • the display unit 12 displays the information in a manner that the attendant of the voice call can recognize it, for example.
  • Information displayed by the display unit 12 is recorded, for example, in a memory (not shown) of the information processing device 1 in association with the other party's ID.
  • a voice call is a voice call communicated by, for example, a landline phone, a mobile phone, a web-based conference system, or the like. Also, voice recognition is to identify an individual who has made a voice from the voice information of the other party obtained from the voice call.
  • the identification unit 11 and the display unit 12 are described as being incorporated in one information processing device 1, but they are necessarily incorporated in one information processing device. No need.
  • the identification section 11 and the display section 12 may be arranged separately. And these may be connected by wired communication or wireless communication. Also, both or one of the identification unit 11 and the display unit 12 may be on the cloud. This point also applies to the device configuration described below.
  • the identifying unit 11 that identifies a calling party by speech recognition during a voice call and information associated with the identified calling party are displayed.
  • a configuration including a display unit 12 is adopted.
  • the person answering the voice call can check the information of the other party during the answering. Therefore, according to the information processing apparatus 1 according to the present exemplary embodiment, it is possible to provide a technology that makes it easier to respond appropriately to the other party.
  • FIG. 2 is a flowchart showing the flow of the information processing method S1 executed by the information processing device 1.
  • the information processing method S1 includes steps S11 and S12.
  • step S11 the identifying unit 11 identifies the caller by speech recognition during voice communication.
  • step S12 the display unit 12 displays information associated with the identified calling party.
  • FIG. 3 is a block diagram showing the configuration of the information processing system 2.
  • the information processing system 2 includes an identification unit 21, a display unit 22, and a database DB1.
  • the identification unit 21 identifies a calling party by voice recognition during voice communication.
  • the display unit 22 displays information associated with the identified calling party.
  • the database DB1 records information associated with the identified calling party.
  • the identification unit 21 is an embodiment of the "identification means” described in the claims.
  • the display unit 22 is an embodiment of the "display means" described in the claims.
  • the identification unit 21 and the display unit 22 are equivalent to the identification unit 11 and the display unit 12 of the information processing device 1, respectively, so description thereof will be omitted.
  • the database DB1 records information associated with the identified calling party. In other words, the database DB1 records information of a certain individual in association with the identification information of that individual.
  • the identification information is, for example, a personal name, an identification ID associated with the personal name, or the like.
  • the identification unit 21, the display unit 22, and the database DB1 are connected to each other by wire or wirelessly so that information can be communicated.
  • the identification unit 21, the display unit 22, and the database DB1 may be partially or wholly arranged on the cloud so that information communication is possible.
  • the identification unit 21 that identifies the calling party by speech recognition during voice communication and the information associated with the identified calling party are displayed.
  • a configuration including a display unit 22 and a database DB1 for recording the information is adopted.
  • the person answering the voice call can check the information of the other party during the answering. Therefore, according to the information processing system 2 according to the present exemplary embodiment, it is possible to provide a technology that makes it easier to respond appropriately to the person on the other end of the call.
  • the customer contact point of a company that provides services has many opportunities to receive calls from customers regarding services provided to them.
  • the customer's image or favorability of the company will change greatly. Therefore, it is necessary to take measures based on customer preferences and characteristics.
  • a service desk which will be described below, is a facility for facilitating more suitable customer service.
  • FIG. 4 is a block diagram showing the configuration of the service desk 3 of a company that provides services.
  • the service desk 3 is equipment used in a department of a company that receives calls from customers, such as inquiries or complaints.
  • a service desk 3 including the information processing device 1 according to the first exemplary embodiment will be described.
  • the caller is a customer of the company providing the service.
  • the service desk 3 is an example of a configuration that implements the "information processing system" described in the claims.
  • services include not only the provision of services but also the manufacture or sale of products.
  • the product need not necessarily relate to the provision of services.
  • companies that provide services include companies that provide services, manufacture or sell products, and the like. Therefore, customers include those who receive services, those who request the manufacture of products, and those who purchase products.
  • the service desk 3 includes an information processing device 1, a display device 33, a voice communication device 34, a headset 35, and a database DB1.
  • the information processing device 1 is the information processing device 1 described in the exemplary embodiment 1, and includes an identification unit 11 and a display unit 12 .
  • the identification unit 11 identifies the customer from the call voice.
  • the display unit 12 displays customer information and the like on the display device 33 .
  • the display device 33 is, for example, a display.
  • the display device 33 is arranged in front of the operator, and the operator can check the information displayed on the display device 33 while serving customers.
  • the voice call device 34 is, for example, a telephone, and receives calls from customers.
  • a headset 35 is a communication device worn by an operator.
  • the database DB1 records customer information and the like.
  • a call from a customer is received by the voice communication device 34.
  • An operator who receives a call from a customer can have a conversation with the customer using the headset 35 worn by the operator.
  • the call voice from the customer received by the voice communication device 34 is transmitted to the identification unit 31 .
  • the identification unit 31 identifies the customer from the call voice during the voice call.
  • the identification unit 31 determines whether or not information on the identified customer exists in the database DB1. When the identification unit 31 determines that the identified customer information exists in the database DB1, the identification unit 31 displays the customer information on the display device 33 during the voice call. If the identification unit 31 determines that the identified customer information does not exist in the database DB1, the identification unit 31 displays that fact on the display device 33 .
  • voice data from the start of the voice call until a predetermined time has passed is transmitted to the information processing device 1.
  • the predetermined time is set to a length enough to obtain speech data long enough for speech recognition (for example, several seconds to several tens of seconds).
  • the voice data may be transmitted from the voice call device 34 to the information processing device 1 from the start of the voice call until the voice recognition is successful.
  • the information processing device 1 sends a transmission end signal to the voice communication device 34 to end the transmission of the voice data.
  • FIG. 5 is an example of a display screen on which the display device 33 displays customer information.
  • FIG. 5 shows, as display examples, an area 331 in which customer names are displayed and an area 332 in which customer information is displayed.
  • An area 331 displays, for example, the customer's personal name, identification number, or the like. The area 331 may also display the name of the corporation to which the customer belongs.
  • An area 332 displays customer information including at least one of a history of past correspondence with the customer, characteristics of the customer, and whether or not there is a complaint from the customer. If the customer information does not exist, for example, the area 331 displays that there is no customer information.
  • the displayed area and its contents are not limited to those shown in FIG. 5 and are arbitrary.
  • the specific content of the response history may be displayed in the place described as "response history”. Further, another screen including specific contents of the response history may be displayed by receiving an operation (for example, clicking) on the portion described as "response history”.
  • FIG. 6 is a diagram showing an example of the structure of customer information recorded in the database DB1.
  • information about the customer A is recorded in association with the personal name or identification ID of the customer A as data DB1A.
  • information on the customer B is recorded in association with the personal name or identification ID of the customer B as data DB1B.
  • the customer-related information includes, for example, correspondence history, features, and presence or absence of complaints as described above, but is not limited to these items. Also, the items of information may differ depending on the customer. For example, when information about customer A is newly input, the data is recorded in the form of being added to data DB 1A.
  • the caller is the customer of the company that provides the service
  • the information includes the history of correspondence with the customer in the past, the characteristics of the customer, and the information from the customer.
  • a configuration is adopted that includes at least one of the presence or absence of complaints.
  • FIG. 7 is a block diagram showing the configuration of the service desk 3A according to the third exemplary embodiment.
  • the service desk 3A includes an information processing device 4, a display device 33, a voice communication device 34, a headset 35, an input device 36, and a database DB1.
  • the display device 33, the voice communication device 34, the headset 35, and the database DB1 are the same as those described in the second exemplary embodiment, so their description will be omitted. Note that the content displayed on the display device may be different.
  • the input device 36 is, for example, a keyboard, touch panel, voice input device, or the like.
  • the operator can use the input device 36 to input information obtained by talking with the customer.
  • the entered information is displayed in area 333 of display device 33, as shown in FIG.
  • the area 333 is also called an input area.
  • the entered information may be recorded in the database DB1.
  • the information processing device 4 includes an identification unit 41 , a display unit 42 , an information acquisition unit 43 and a recording unit 44 .
  • the information acquisition unit 43 is an embodiment of the "information acquisition means” described in the claims.
  • the recording unit 44 is an embodiment of the "recording means” described in the claims.
  • the identification unit 41 and the display unit 42 are the same as the identification unit 31 and the display device 33 described in the second exemplary embodiment.
  • the information acquisition unit 43 acquires information on the customer. For example, if there is no customer-related information, area 331 displays that there is no customer-related information. In this case, the information acquisition unit 43 acquires information input by the input device 36 and displays it in the area 323 .
  • the recording unit 44 records the information about the customer acquired by the information acquisition unit 43 in the database DB1 in association with the customer. That is, the recording unit 44 associates and records the information input as the new customer and the new customer name. As an example, the information input in the blank area 331 is recognized as a new customer name, and is recorded in association with the information input in the area 333 .
  • information on customers is not limited to information on new customers, and information on already recorded customers can be added, corrected, or edited as appropriate.
  • the information acquisition unit 43 may acquire new information about the customer even when the information exists.
  • the recording unit 44 may add and record newly acquired information to the information linked to the existing customer in the database DB1.
  • the information acquisition unit 43 may acquire information input from the input device 36 during a voice call, or may acquire information input from the input device 36 after a voice call.
  • the recording unit 44 may record information acquired during a voice call, or may record information acquired after a voice call.
  • the display unit 42 may display the importance of information.
  • FIG. 8 is an example of a display screen on which the display unit 42 also displays the degree of importance of information.
  • the display screen of the display device 33 is provided with an area 334 for displaying the importance of the information adjacent to the area 332 for displaying the information on the customer.
  • the importance is represented by the number of star marks. That is, the higher the importance, the larger the number of star marks.
  • the degree of importance of information can be determined by summarizing the opinions of those who have experience dealing with customers in the past. Such work may be performed by the person in charge, or may be evaluated by providing an importance evaluation device using an algorithm that integrates various information and assigns importance.
  • the information acquisition unit 43 acquires information indicating the importance of information input by the input device 36, and the recording unit 44 records the information in the database DB1 in association with the customer.
  • the recording unit 44 records the information in the database DB1 in association with the customer.
  • the operator it is necessary for the operator to place greater importance on the "response history" than the "characteristics" and "presence or absence of complaints" for the other party.
  • the importance of response history is 4 stars
  • the importance of features is 2 stars
  • the importance of whether or not there are complaints is 1 star.” Enter information indicating that there are two.
  • the recording unit 44 records information indicating these importance levels in association with the customer. As a result, the next time the operator receives a voice call from the customer, he/she will respond while confirming the "response history" on the display screen by visually recognizing the screen of FIG. be able to.
  • the information processing device 4 includes the information acquisition unit 43 that acquires information on the customer, and records the acquired information on the customer in association with the customer.
  • a recording unit 44 for recording is further provided. Therefore, according to the information processing device 4 according to the present exemplary embodiment, information on new customers is recorded in the database DB1 in real time. This information will be displayed to you the next time you receive a call from the same customer to help you respond. Therefore, in addition to the effects of the information processing apparatus 1 according to the exemplary embodiment 1, as such information is accumulated, it is possible to more accurately select a response that increases customer satisfaction. You can get the effect of becoming Also, by assigning importance to customer information, it is possible to obtain an effect that it becomes possible to more accurately select a response that enhances customer satisfaction.
  • FIG. 9 is a block diagram showing the configuration of the service desk 3B according to the fourth exemplary embodiment.
  • the service desk 3B includes an information processing device 5, a display device 33, a voice communication device 34, a headset 35, an input device 36, and a database DB1.
  • the display device 33, the voice communication device 34, the headset 35, the input device 36, and the database DB1 are the same as those described in the third exemplary embodiment, so their description will be omitted. Note that the content displayed on the display device may be different.
  • the information processing device 5 includes an identification unit 51 , a display unit 52 , a call content acquisition unit 53 and an estimation unit 54 .
  • the identification unit 51 and the display unit 52 are the same as the identification unit 41 and the display unit 42 described in the service desk 3A.
  • the call content acquisition unit 53 acquires the customer's call content.
  • the estimation unit 54 refers to the information and the content of the call to estimate the content of the response requested by the customer.
  • the call content acquisition unit 53 is an embodiment of the “call content acquisition unit” described in the claims.
  • the estimating unit 54 is an embodiment of the "estimating means" described in the claims.
  • the call content acquisition unit 53 analyzes the call voice, converts it into text, and acquires the call content.
  • the call content acquisition unit 53 acquires preset targets such as “device”, “equipment”, “failure”, “recovery”, “by day”, “within day”, etc. from the textualized call content, Search for multiple keywords related to events, times, deadlines, etc., and acquire them including the surrounding text.
  • the estimation unit 54 combines the texts acquired by the call content acquisition unit 53 to estimate the customer's request, and displays the result on the display unit 52 .
  • FIG. 10 is a diagram showing an example of a screen displayed by the display device 33.
  • FIG. The area 331 where the customer name is displayed and the area 332 where the customer information is displayed are as described in the second exemplary embodiment.
  • the area 333 where the content entered by the operator is displayed is as described in the third exemplary embodiment.
  • An area 335 is an area that displays the content requested by the customer, estimated by the estimation unit 54 from the content of the call, together with the order of priority.
  • the example shown in FIG. 10 is a display example when there is a phone call requesting restoration of the customer's system due to a failure.
  • the estimation unit 54 estimates the content of the response requested by the customer and the priority of the response based on the text acquired by the call content acquisition unit 53 and the information about the customer stored in the database DB1.
  • the estimation unit 54 also displays the content of the response requested by the customer and the priority of the response in the area 335 .
  • the estimating unit 54 may, for example, refer to a rule that associates a combination of texts included in the call content with the content of the response, thereby estimating the content of the response requested by the customer.
  • the estimation unit 54 may estimate the priority by referring to a rule that associates the customer's characteristics with the priority of the response.
  • the estimation unit 54 is not limited to this, and uses a machine-learned model that inputs one or both of the text and customer information included in the call content and outputs one or both of the response content and priority. You may perform the estimation process mentioned above.
  • the estimation unit 54 determines from the text included in the call content acquired by the call content acquisition unit 53 that the customer is requesting system restoration. Furthermore, the estimating unit 54, from the database of the customer who is the other party of the past call, is the characteristic of the customer who is calling. We will place importance on the content of the report that was reached, and we will not attach much importance to the investigation of the cause.” The estimation unit 54 refers to such information to estimate the content of the response requested by the customer and the priority of the response, and displays the estimated information in the area 335 . In FIG. 10, the priority is indicated by the number of asterisks. That is, the larger the number of stars, the higher the priority.
  • the estimating unit 54 assumes that the content of the response that the customer may request is first to disseminate the system, then to prepare a report on failure recovery, and finally to investigate the cause and submit a policy for the future. Estimated and displayed with priority.
  • the call content acquisition unit 53 acquires the call content of the customer, and the information and the call content are referenced to estimate the content of the response requested by the customer.
  • a configuration is adopted in which an estimation unit 54 is further provided.
  • the estimated response requested by the customer is displayed on the display device. Therefore, according to the information processing device 5 according to the present exemplary embodiment, in addition to the effects of the information processing device 1 according to the first exemplary embodiment, it is possible to estimate with high accuracy the content of the service requested by the customer. effect can be obtained. Furthermore, by executing the response according to the priority, it is possible to obtain the effect that the customer's satisfaction can be further improved.
  • FIG. 11 is a block diagram showing the configuration of the service desk 3C according to the fifth exemplary embodiment.
  • the service desk 3C includes an information processing device 6, a display device 33, a voice communication device 34, a headset 35, an input device 36, and a database DB1.
  • the display device 33, the voice communication device 34, the headset 35, the input device 36, and the database DB1 are the same as those described in the third exemplary embodiment, so their description will be omitted. Note that the content displayed on the display device may be different.
  • the information processing device 6 includes an identification section 61 , a display section 62 and an extraction section 63 .
  • the identification unit 61 and the display unit 62 are the same as the identification unit 41 and the display unit 42 described in the third exemplary embodiment.
  • the extraction unit 63 extracts needs common to multiple customers from the information of multiple customers.
  • the extractor 63 is an embodiment of the "extractor" described in the claims.
  • the extraction unit 63 searches for a customer including a common keyword among the information of multiple customers recorded in the database DB1. Then, the extraction unit 63 arranges the keywords in descending order of the number of searched customers, and extracts the top keywords as common needs (items).
  • the extraction unit 63 may display the extracted needs on the display unit 62 . Specifically, the extracting unit 63 extracts 100 customers whose correspondence history includes the keyword “cause investigation”, extracts 50 customers whose features include the keyword “restoration work is prioritized”, extracts 50 customers whose features include the keyword Extract 10 customers that include "important about reporting”.
  • the extracting unit 63 displays on the display unit 62 the need 1 "cause investigation", the need 2 "prioritizing recovery work", and the need 3 "reporting" in this order.
  • a plurality of customers may be customers of the same corporation (company), or may be customers of a plurality of corporations.
  • companies companies
  • customers of a plurality of corporations When dealing with customers of the same legal entity, it is possible to extract the needs common to that legal entity.
  • FIG. 12 is a diagram showing an example of a screen displayed by the display device 33 according to this exemplary embodiment. As shown in FIG. 12, when the same corporate customer is processed, the display device 33 displays the corporate name in the area 336 . Also, area 337 displays one or more needs that the corporation seeks. In the example shown in FIG. 12, three needs are displayed. These needs are three needs listed in order of importance.
  • the extraction unit 63 may refer to customer requests to extract common needs.
  • the customer's requests are stored in the database DB1 in association with the customer.
  • the customer's requests are, for example, preferences, important matters, and priorities for each customer.
  • the listed requests are arranged in descending order of the number of customers requesting them, and the top items are extracted as common needs (items).
  • the information processing apparatus 6 employs a configuration that further includes the extraction unit 63 that extracts needs common to a plurality of customers from the information of the plurality of customers. Thereby, needs common to a plurality of customers can be displayed on the display device. Therefore, according to the information processing device 6 according to the present exemplary embodiment, in addition to the effects of the information processing device 1 according to the first exemplary embodiment, it is possible to extract needs common to a plurality of customers. effect can be obtained. Furthermore, by executing a response according to common needs, it is possible to obtain the effect of being able to further increase customer satisfaction.
  • FIG. 13 is a block diagram showing the configuration of the information processing device 7 according to the sixth exemplary embodiment.
  • the information processing device 7 includes an identification section 71 and a display section 72 .
  • the identification unit 71 includes an identification model 711 that performs speech recognition during voice communication.
  • the identification model 711 can use a voiceprint identification model or a trained model.
  • a voiceprint identification model is, for example, an identification model that identifies a caller from the type of voice frequency, the pattern of changes in voice intensity, and combinations of these.
  • the identification unit 71 further includes a database (not shown) that stores feature amounts of the customer's voice.
  • the speech recognition model applies various processes to the input speech data to calculate feature amounts.
  • the voice recognition model identifies the caller by comparing the calculated feature amount with the feature amount recorded in the database.
  • specific words may be used as voice data.
  • the specific words are, for example, the fixed phrase "Hello" on the phone, or the name of the company that provides the service expected to be uttered by the other party. Alternatively, it may be identified by analyzing a voice having a length of several seconds to several tens of seconds.
  • a trained model is, for example, a trained model that has been trained by machine learning so that the voice of the other party is input and information identifying the other party is output.
  • the trained model may be composed of a neural network, but is not limited to this.
  • Such a trained model may be trained using learning data in which the speech of the other party is labeled with the identification information of the other party, or may be learned by unsupervised learning.
  • the configuration is adopted in which the identification unit 71 includes the identification model 711 that performs voice recognition during voice communication. This makes it possible to identify the call voice more accurately. Therefore, according to the information processing device 7 according to the present exemplary embodiment, in addition to the effect of the information processing device 1 according to the first exemplary embodiment, the effect of being able to identify the caller with higher accuracy can be obtained. Obtainable.
  • Information processing devices 1 to 7, or identification unit 11 included in these information processing devices 1 to 7, display unit 12, etc., information acquisition unit 43, recording unit 44, call content acquisition unit 53, estimation unit 54, extraction unit 63 etc. may be realized by hardware such as an integrated circuit (IC chip) or by software.
  • the information processing device, etc. is implemented by a computer that executes program instructions, which are software that implements each function.
  • a computer that executes program instructions, which are software that implements each function.
  • FIG. Computer C comprises at least one processor C1 and at least one memory C2.
  • a program P for operating the computer C as an information processing device or the like is recorded in the memory C2.
  • the processor C1 reads the program P from the memory C2 and executes it, thereby realizing each function of the information processing device and the like.
  • processor C1 for example, CPU (Central Processing Unit), GPU (Graphic Processing Unit), DSP (Digital Signal Processor), MPU (Micro Processing Unit), FPU (Floating point number Processing Unit), PPU (Physics Processing Unit) , a microcontroller, or a combination thereof.
  • memory C2 for example, a flash memory, HDD (Hard Disk Drive), SSD (Solid State Drive), or a combination thereof can be used.
  • the computer C may further include a RAM (Random Access Memory) for expanding the program P during execution and temporarily storing various data.
  • Computer C may further include a communication interface for sending and receiving data to and from other devices.
  • Computer C may further include an input/output interface for connecting input/output devices such as a keyboard, mouse, display, and printer.
  • the program P can be recorded on a non-temporary tangible recording medium M that is readable by the computer C.
  • a recording medium M for example, a tape, disk, card, semiconductor memory, programmable logic circuit, or the like can be used.
  • the computer C can acquire the program P via such a recording medium M.
  • the program P can be transmitted via a transmission medium.
  • a transmission medium for example, a communication network or broadcast waves can be used.
  • Computer C can also obtain program P via such a transmission medium.
  • An information processing apparatus comprising identification means for identifying a calling party by voice recognition during a voice call, and display means for displaying information associated with the identified calling party.
  • the caller is a customer of the company that provides the service, and the information includes at least one of past correspondence history with the customer, characteristics of the customer, and presence or absence of complaints from the customer.
  • appendix 3 The information processing apparatus according to appendix 2, further comprising: information acquisition means for acquiring information on the customer; and recording means for recording the acquired information on the customer in association with the customer.
  • Appendix 4 The information processing apparatus according to appendix 2 or 3, wherein the display means displays the degree of importance of the information.
  • appendix 5 The method according to any one of appendices 2 to 4, further comprising call content acquisition means for acquiring the call content of the customer, and estimation means for estimating the content of the response requested by the customer by referring to the information and the call content. information processing equipment.
  • Appendix 6 The information processing apparatus according to any one of appendices 2 to 5, further comprising extraction means for extracting needs common to the plurality of customers from the information of the plurality of customers.
  • Appendix 7 The information processing apparatus according to appendix 6, wherein the customer's information includes the customer's request, and the extracting means refers to the customer's request to extract the common needs.
  • (Appendix 8) 8. The information processing apparatus according to any one of appendices 1 to 7, wherein the identification means includes at least one of a voiceprint identification model and a speech identification model using a trained model.
  • An information processing method including identifying a calling party by voice recognition during a voice call, and displaying information associated with the identified calling party.
  • An information processing system comprising identification means for identifying a calling party by voice recognition during a voice call, display means for displaying information associated with the identified calling party, and a database for recording the information.
  • Appendix 11 A program for causing a computer to function as identification means for identifying a calling party by voice recognition during a voice call, and display means for displaying information associated with the identified calling party.
  • Information processing comprising at least one processor, wherein the processor performs identification processing for identifying a calling party by voice recognition during a voice call, and display processing for displaying information associated with the identified calling party.
  • the processor performs identification processing for identifying a calling party by voice recognition during a voice call, and display processing for displaying information associated with the identified calling party.
  • the information processing apparatus may further include a memory, and the memory may store a program for causing the processor to execute the identification process and the display process. Also, this program may be recorded in a computer-readable non-temporary tangible recording medium.

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Telephonic Communication Services (AREA)

Abstract

通話相手に適した応対をより容易にする技術を提供するために、情報処理装置(1)は、音声通話時の音声認識により通話相手を識別する識別手段(11)と、識別された通話相手に紐付けられた情報を表示する表示手段(12)と、を備えている。

Description

情報処理装置、情報処理システム、情報処理方法及びプログラム
 本発明は、情報処理装置、情報処理システム、情報処理方法及びプログラムに関する。
 通話内容に関する情報を通知する技術が知られている。例えば、特許文献1には、音声認識部が顧客データベースに基づいて、オペレータと顧客の通話内容から顧客の氏名、会員番号、認証ID等から顧客情報を検索すること、顧客情報の重要顧客フラグが有効になっている場合、通話中の顧客が重要顧客であると判定し、この通話が重要顧客応対であることを示すフラグを有効にする音声認識装置が記載されている。
日本国特開2012-120120号公報
 特許文献1に記載の音声認識装置においては、音声認識装置がスーパーバイザにオペレータが重要顧客と通話中であることを伝えることができるが、オペレータが顧客の特徴、又は過去の対応情報等を知ることができない。そのため、通話相手に適した応対が難しいという問題があった。
 本発明の一態様は、上記の問題に鑑みてなされたものであり、その目的の一例は、通話相手に適した応対をより容易にする技術を提供することである。
 本発明の一側面に係る情報処理装置は、音声通話時の音声認識により通話相手を識別する識別手段と、識別された前記通話相手に紐付けられた情報を表示する表示手段と、を備える。
 本発明の一側面に係る情報処理方法は、音声通話時の音声認識により通話相手を識別すること、識別された前記通話相手に紐付けられた情報を表示すること、を含む。
 本発明の一側面に係る情報処理システムは、音声通話時の音声認識により通話相手を識別する識別手段と、識別された前記通話相手に紐付けられた情報を表示する表示手段と、前記情報を記録するデータベースと、を備える。
 本発明の一側面に係る情報処理プログラムは、コンピュータを、音声通話時の音声認識により通話相手を識別する識別手段、及び識別された前記通話相手に紐付けられた情報を表示する表示手段、として機能させる。
 本発明の一態様によれば、通話相手に適した応対をより容易にする技術を提供することができる。
本発明の例示的実施形態1に係る情報処理装置1の構成を示すブロック図である。 例示的実施形態1に係る情報処理方法S1の流れを示すフローチャートである。 例示的実施形態1に係る情報処理システム2の構成を示すブロック図である。 本発明の例示的実施形態2に係るサービスを提供する企業のサービスデスク3の構成を示すブロック図である。 例示的実施形態2に係る表示装置が顧客の情報を表示する表示画面の一例である。 例示的実施形態2に係るデータベースに記録された顧客情報の構造の一例を示す図である。 本発明の例示的実施形態3に係るサービスデスク3Aの構成を示すブロック図である。 例示的実施形態3に係る表示装置が情報の重要度を併せて表示する表示画面の一例である。 本発明の例示的実施形態4に係るサービスデスク3Bの構成を示すブロック図である。 例示的実施形態4に係る表示装置が表示する画面の一例を示す図である。 本発明の本例示的実施形態5に係るサービスデスク3Cの構成を示すブロック図である。 例示的実施形態5に係る表示装置が表示する画面の一例を示す図である。 本発明の例示的実施形態6に係る情報処理装置7の構成を示すブロック図である。 各例示的実施形態に係る情報処理装置として動作するコンピュータのブロック図である。
 〔例示的実施形態1〕
 本発明の第1の例示的実施形態について、図面を参照して詳細に説明する。本例示的実施形態は、後述する例示的実施形態の基本となる形態である。
 (情報処理装置1の構成)
 本例示的実施形態に係る情報処理装置1の構成について、図1を参照して説明する。図1は、情報処理装置1の構成を示すブロック図である。図1に示すように、情報処理装置1は、識別部11と表示部12とを備える。識別部11は、音声通話時の音声認識により通話相手を識別する。表示部12は、識別された通話相手に紐付けられた情報を表示する。識別部11は、請求の範囲に記載した「識別手段」の一実施形態である。また、表示部12は、請求の範囲に記載した「表示手段」の一実施形態である。
 識別部11は、例えば、音声通話中に、通話相手を識別することが好ましい。本例示的実施形態において、「識別する」とは、例えば、通話相手の名称、又は通話相手の名称に紐付けられた通話相手IDを特定することである。識別部11が行う音声認識の方法は、例えば、音声の周波数の種類、音声強度の変化のパターン、及びこれらの組み合わせ等から通話相手を特定する声紋認識方法を用いることができる。あるいは、音声認識の方法は、音声のデータを機械学習させて通話相手を特定する学習済モデルを用いた認識方法等を用いることができる。
 表示部12は、図示しない表示装置に表示する情報のデータを取得し、データを表示装置に送信する。これにより、表示装置に情報が表示される。以下、表示部が表示装置に表示させることを「表示部が表示する」と称する。表示部12は、例えば、音声通話中に、当該情報を表示することが好ましい。また、表示部12は、例えば、音声通話の応対者が認識可能に当該情報を表示することが好ましい。表示部12が表示する情報は、例えば、情報処理装置1の図示しないメモリに、通話相手IDに紐付けられて記録されている。
 本例示的実施形態において、音声通話とは、例えば固定電話、携帯電話、ウェブを介した会議システム等で交信される音声による通話である。また、音声認識とは、音声通話から得られる通話相手の音声情報から、音声を発した個人を識別することである。
 図1に示す例示的実施形態では、識別部11と表示部12が1つの情報処理装置1に組み込まれているように記載しているが、これらは必ずしも1つの情報処理装置に組み込まれている必要はない。例えば、識別部11と表示部12が別々に配置されていてもよい。そして、これらが有線通信又は無線通信で接続されていてもよい。また、識別部11と表示部12の両方又は一方がクラウド上にあってもよい。この点は、以下に示す装置構成についても同様である。
 (情報処理装置1の効果)
 以上のように、本例示的実施形態に係る情報処理装置1においては、音声通話時の音声認識により通話相手を識別する識別部11と、識別された通話相手に紐付けられた情報を表示する表示部12と、を備える構成が採用されている。これにより、音声通話の応対者が応対中に通話相手の情報を確認することが可能となる。このため、本例示的実施形態に係る情報処理装置1によれば、通話相手に適した応対をより容易にする技術を提供することができるという効果が得られる。
 (情報処理方法S1の流れ)
 本例示的実施形態に係る情報処理方法S1の流れについて、図2を参照して説明する。図2は、情報処理装置1が実行する情報処理方法S1の流れを示すフロー図である。図2に示すように、情報処理方法S1は、ステップS11とステップS12とを含む。ステップS11において、識別部11は、音声通話時の音声認識により通話相手を識別する。ステップS12において、表示部12は、識別された通話相手に紐付けられた情報を表示する。
 (情報処理方法S1の効果)
 以上のように、本例示的実施形態に係る情報処理方法S1においては、音声通話時の音声認識により通話相手を識別するステップと、識別された通話相手に紐付けられた情報を表示するステップとを含む構成が採用されている。これにより、音声通話の応対者が応対中に通話相手の情報を確認することが可能となる。このため、本例示的実施形態に係る情報処理方法S1によれば、通話相手に適した応対をより容易にする技術を提供することができるという効果が得られる。
 (情報処理システム2の構成)
 本例示的実施形態に係る情報処理システム2の構成について、図3を参照して説明する。図3は、情報処理システム2の構成を示すブロック図である。図3に示すように、情報処理システム2は、識別部21、表示部22、及びデータベースDB1を備える。識別部21は、音声通話時の音声認識により通話相手を識別する。表示部22は、識別された通話相手に紐付けられた情報を表示する。データベースDB1は、識別された通話相手に紐付けられた情報を記録する。識別部21は、請求の範囲に記載した「識別手段」の一実施形態である。また、表示部22は、請求の範囲に記載した「表示手段」の一実施形態である。
 識別部21と表示部22は、情報処理装置1の識別部11と表示部12にそれぞれ同等であるので、説明は省略する。データベースDB1は、識別された通話相手に紐付けられた情報を記録する。言い換えると、データベースDB1は、ある個人の情報を、その個人の識別情報に紐付けて記録する。識別情報は、一例として、個人名、又は個人名と紐付けられた識別ID等である。
 識別部21と、表示部22と、データベースDB1は、互いに有線又は無線で情報通信可能に接続されている。あるいは、識別部21と、表示部22と、データベースDB1は、その一部又は全部がクラウド上に情報通信可能に配置されていてもよい。
 (情報処理システム2の効果)
 以上のように、本例示的実施形態に係る情報処理システム2においては、音声通話時の音声認識により通話相手を識別する識別部21と、識別された通話相手に紐付けられた情報を表示する表示部22と、その情報を記録するデータベースDB1とを備える構成が採用されている。これにより、音声通話の応対者が応対中に通話相手の情報を確認することが可能となる。このため、本例示的実施形態に係る情報処理システム2によれば、通話相手に適した応対をより容易にする技術を提供することができるという効果が得られる。
 〔例示的実施形態2〕
 次に、本発明の例示的実施形態2について、図面を参照して説明する。なお、例示的実施形態1にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
 例えばサービスを提供する企業の顧客担当窓口は、顧客に提供したサービスに関する電話をその顧客から受ける機会が多い。顧客から電話を受ける場合は、何らかの対応を必要とする場合がほとんどである。そして、その対応如何で、その顧客の当該企業に対するイメージ、あるいは好感度が大きく変化する。そのため、顧客の好みや特徴を踏まえた対応が必要となる。
 通話相手(顧客)が個人である場合は、通話時に顧客の名前を知ることができるため、その顧客の好みや特徴を踏まえた対応をとりやすい。しかし顧客が法人又はその一部門の一員である場合は、通話時に顧客が個人名を名乗らずに法人名や部門名を名乗る場合があり、そのような場合は、すぐにはその顧客を特定することができないため、顧客の好みや特徴を踏まえた対応ができない場合がある。以下に説明するサービスデスクは、顧客に適した応対をより容易にするための設備である。
 (サービスデスク3の構成)
 図4は、サービスを提供する企業のサービスデスク3の装置構成を示すブロック図である。本例示的実施形態において、サービスデスク3は、ある企業の顧客からの問い合わせ、又は苦情等の電話を受け付ける部署で用いられる装置設備である。本例示的実施形態では、例示的実施形態1に係る情報処理装置1を含むサービスデスク3について説明する。この場合、通話相手は、サービスを提供する企業の顧客である。サービスデスク3は、請求の範囲に記載した「情報処理システム」を実現する構成の一例である。
 本例示的実施形態において、サービスとは、役務の提供のみならず、製品の製造又は販売も含む。その製品は、必ずしも役務の提供に関連するものでなくともよい。つまり、サービスを提供する企業とは、役務の提供、製品の製造又は販売等を行う企業を含む。従って、顧客とは、役務の提供を受けた者、製品の製造を依頼した者、製品を購入した者等が含まれる。
 図4に示すように、サービスデスク3は、情報処理装置1、表示装置33、音声通話装置34、ヘッドセット35、及びデータベースDB1を備える。情報処理装置1は、例示的実施形態1で説明した情報処理装置1であり、識別部11と表示部12とを備える。識別部11は、通話音声から顧客を識別する。表示部12は、表示装置33に顧客情報等を表示する。表示装置33は、例えばディスプレイである。表示装置33は、オペレータの前面に配置されており、オペレータは表示装置33に表示される情報を、顧客の応対をしながら確認することができる。音声通話装置34は、例えば電話器であり、顧客からの電話を受信する。ヘッドセット35は、オペレータが装着する通話装置である。データベースDB1は、顧客情報等を記録する。
 顧客からの電話は、音声通話装置34で受信される。顧客からの電話を受けたオペレータは、オペレータが装着するヘッドセット35を用いて顧客と会話をすることができる。音声通話装置34で受信された顧客からの通話音声は、識別部31に送信される。識別部31は、音声通話中に、通話音声から顧客を識別する。識別部31は、識別した顧客の情報がデータベースDB1に存在するか否かを判定する。識別部31は、識別した顧客の情報がデータベースDB1に存在すると判定した場合は、その顧客の情報を、音声通話中に表示装置33に表示する。識別部31は、識別した顧客の情報がデータベースDB1に存在しないと判定した場合は、その旨を表示装置33に表示する。
 音声通話装置34からは、例えば、当該音声通話の開始時点から所定時間経過するまでの音声データが情報処理装置1に送信される。なお、所定時間としては、音声認識が可能な長さの音声データが得られる程度の長さ(例えば、数秒から数十秒)が設定される。また、音声通話装置34から、音声認識に成功するまで、音声通話の開始から音声データが情報処理装置1に送信されてもよい。この場合、情報処理装置1は、音声認識に成功した場合、送信終了信号を音声通話装置34に送って音声データの送信を終了させる。
 図5は、表示装置33が顧客の情報を表示する表示画面の一例である。図5には、表示例として、顧客名が表示される領域331と顧客情報が表示される領域332が示されている。領域331には、例えば顧客の個人名、又は識別番号等が表示される。領域331には、顧客が所属する法人名が併せて表示されてもよい。領域332には、過去の当該顧客との対応履歴、当該顧客の特徴、当該顧客からの苦情の有無の少なくとも一つを含む顧客情報が表示される。当該顧客の情報が存在しない場合は、例えば領域331に、顧客情報はない旨が表示される。しかし、表示される領域とその内容は図5に限定されず、任意である。
 なお、図5の例では、「対応履歴」と記載した箇所に、対応履歴の具体的内容が表示されてもよい。また、「対応履歴」と記載した箇所に対する操作(例えば、クリック)が受け付けられることにより、対応履歴の具体的内容を含む他の画面が表示されてもよい。
 データベースDB1には、顧客の情報が記録されている。図6は、データベースDB1に記録された顧客情報の構造の一例を示す図である。図6に示すように、データベースDB1には、データDB1Aとして、顧客Aに関する情報が顧客Aの個人名又は識別IDと紐付けられて記録されている。また、データベースDB1には、データDB1Bとして、顧客Bに関する情報が顧客Bの個人名又は識別IDと紐付けられて記録されている。顧客に関する情報は、例えば前述のように対応履歴、特徴、苦情の有無を例示しているが、これらの項目に限定されない。また、顧客により情報の項目が異なってもよい。例えば、顧客Aに関する情報が新たに入力された場合、そのデータはデータDB1Aに追加される形で記録される。
 (サービスデスク3の効果)
 以上のように、本例示的実施形態に係るサービスデスク3においては、通話相手は、サービスを提供する企業の顧客であり、情報は、過去の顧客との対応履歴、顧客の特徴、及び顧客からの苦情の有無の少なくとも一つを含むという構成が採用されている。これにより、顧客からの音声通話を受けたサービスデスクのオペレータが、応対中に通話相手の情報を確認することが可能となる。このため、本例示的実施形態に係るサービスデスク3によれば、顧客に適した応対をより容易にする技術を提供することができるという効果が得られる。そして、顧客に対する対応履歴、特徴、苦情の有無等が表示装置33に表示されることにより、オペレータは、これらの情報を見て顧客の過去の経緯と特徴をすぐに知ることができる。そして、これらの情報に基づいて、適切な対応方法を選択することができ、顧客の満足度を向上させることができる。
 〔例示的実施形態3〕
 次に、本発明の例示的実施形態3について、図面を参照して説明する。なお、例示的実施形態1及び2にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
 (サービスデスク3Aの構成)
 図7は、本例示的実施形態3に係るサービスデスク3Aの構成を示すブロック図である。サービスデスク3Aは、情報処理装置4、表示装置33、音声通話装置34、ヘッドセット35、入力装置36、及びデータベースDB1を備える。表示装置33、音声通話装置34、ヘッドセット35、及びデータベースDB1については、例示的実施形態2で説明したとおりであるので、説明は省略する。なお、表示装置に表示される内容については異なってもよい。
 入力装置36は、例えばキーボード、タッチパネル、音声入力装置等である。オペレータは、顧客との通話によって取得した情報を、入力装置36によって入力することができる。入力された情報は、図8に示すように、表示装置33の領域333に表示される。領域333を入力領域とも称する。入力された情報は、データベースDB1に記録されてもよい。
 (情報処理装置4の構成)
 情報処理装置4は、識別部41、表示部42、情報取得部43、及び記録部44を備える。情報取得部43は、請求の範囲に記載した「情報取得手段」の一実施形態である。記録部44は、請求の範囲に記載した「記録手段」の一実施形態である。
 識別部41と表示部42は、例示的実施形態2で説明した識別部31と表示装置33と同様である。情報取得部43は、顧客に関する情報を取得する。例えば、顧客に関する情報が存在しない場合、領域331に顧客に関する情報が存在しないことが表示される。この場合、情報取得部43は、入力装置36により入力された情報を取得し、領域323に表示する。記録部44は、情報取得部43によって取得された顧客に関する情報を、その顧客に紐付けてデータベースDB1に記録する。つまり、記録部44は、新たな顧客として入力された情報と、新たな顧客名とを紐付けて記録する。一例として、空欄となった領域331に入力された情報が新たな顧客名として認識され、領域333に入力された情報と紐付けられて記録される。
 なお、顧客に関する情報は、新規な顧客に関する情報に限らず、すでに記録済の顧客の情報についても、適宜追加、修正、又は編集することができる。具体的には、情報取得部43は、情報が存在する場合にも、顧客に関する情報を新たに取得するようにしてもよい。また、記録部44は、データベースDB1の中の既存の顧客に紐付けられた情報に、新たに取得した情報を追加して記録してもよい。
 また、情報取得部43は、音声通話中に入力装置36から入力される情報を取得してもよいし、音声通話後に入力装置36から入力される情報を取得してもよい。また、記録部44は、音声通話中に取得された情報を記録してもよいし、音声通話後に取得される情報を記録してもよい。
 また、表示部42は、情報の重要度を表示してもよい。図8は、表示部42が情報の重要度を併せて表示する表示画面の一例である。図8に示すように、表示装置33の表示画面には、顧客に関する情報を表示する領域332に隣接して、その情報の重要度を表示する領域334が設けられている。この表示例では、重要度は、星型マークの数で表されている。つまり、重要度が高いほど星形マークの数が多い。
 顧客によって、何をサービス提供企業に求めているかが異なる。また、過去に対応を要求された内容は、今後の対応にも要求される可能性が高い。また、苦情の内容も顧客の満足度を向上させる一助となりうる。このような観点から、情報に重要度を与えることは、顧客の満足度を向上させるために役立つ。なお、情報の重要度は、顧客の対応を過去に行った経験がある者の意見を総合して決定することができる。そのような作業は、担当責任者が行ってもよく、種々の情報を総合して重要度を付与するアルゴリズムを用いた重要度評価装置を設けて評価させてもよい。
 例えば、情報取得部43は、入力装置36により入力された情報の重要度を示す情報を取得し、記録部44は、当該情報を当該顧客に紐付けてデータベースDB1に記録する。図8の例では、例えば、オペレータが、音声通話中に表示された図8の画面において、当該通話相手については「対応履歴」を「特徴」、「苦情の有無」に比べて重視する必要があると感じたとする。この場合、オペレータ、又はその顧客を担当した担当者は、入力装置36を介して、「対応履歴の重要度は星4つ、特徴の重要度は星2つ、苦情の有無の重要度は星2つ」であることを示す情報を入力する。記録部44は、当該顧客に紐付けてこれらの重要度を示す情報を記録する。これにより、オペレータは、次回に当該顧客からの音声通話を受けたときに、図8の画面を視認することにより、「対応履歴」を最も重視して表示画面にて確認しながら、応対を行うことができる。
 (情報処理装置4の効果)
 以上のように、本例示的実施形態に係る情報処理装置4においては、情報処理装置4が、顧客に関する情報を取得する情報取得部43と、取得された顧客に関する情報を顧客に紐付けて記録する記録部44と、をさらに備えるという構成が採用されている。このため、本例示的実施形態に係る情報処理装置4によれば、新たな顧客に関する情報が、リアルタイムでデータベースDB1に記録される。この情報は、次に同じ顧客から電話を受けた場合に表示され、対応の一助とされる。従って、例示的実施形態1に係る情報処理装置1の奏する効果に加えて、このような情報が蓄積されるにつれて、顧客に対して満足度を高める対応をより精度よく選択することができるようになるという効果が得られる。また、顧客情報に重要度を付与することによっても、顧客に対して満足度を高める対応をより精度よく選択することができるようになるという効果が得られる。
 〔例示的実施形態4〕
 次に、本発明の例示的実施形態4について、図面を参照して説明する。なお、例示的実施形態1~3にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
 (サービスデスク3Bの構成)
 図9は、本例示的実施形態4に係るサービスデスク3Bの構成を示すブロック図である。サービスデスク3Bは、情報処理装置5、表示装置33、音声通話装置34、ヘッドセット35、入力装置36、及びデータベースDB1を備える。表示装置33、音声通話装置34、ヘッドセット35、入力装置36、及びデータベースDB1については、例示的実施形態3で説明したとおりであるので、説明は省略する。なお、表示装置に表示される内容については異なってもよい。
  (情報処理装置5の構成)
 情報処理装置5は、識別部51、表示部52、通話内容取得部53、及び推定部54を備える。識別部51、表示部52は、サービスデスク3Aで説明した識別部41、表示部42と同様である。通話内容取得部53は、顧客の通話内容を取得する。推定部54は、情報及び通話内容を参照して、顧客が求める対応内容を推定する。通話内容取得部53は、請求の範囲に記載した「通話内容取得手段」の一実施形態である。推定部54は、請求の範囲に記載した「推定手段」の一実施形態である。
 通話内容取得部53は、一例として、通話音声を解析してテキスト化し、通話内容を取得する。例えば、通話内容取得部53は、テキスト化した通話内容から、「装置」、「設備」、「故障」、「復旧」、「日まで」、「日以内」等の、予め設定された対象、事象、時期、期限等に関する複数のキーワードを検索し、前後のテキストを含めて取得する。推定部54は、通話内容取得部53が取得したテキストを組み合わせて、顧客の要望を推定して表示部52に表示する。
 図10は、表示装置33が表示する画面の一例を示す図である。顧客名が表示される領域331、顧客情報が表示される領域332は、例示的実施形態2で説明したとおりである。オペレータが入力した内容が表示される領域333は、例示的実施形態3で説明したとおりである。
 領域335は、通話の内容から推定部54が推定した、顧客が求める内容を優先順位とともに表示する領域である。図10に示す例は、顧客側のシステムに障害が発生したため、その復旧を依頼する電話があった場合の表示例である。
 推定部54は、通話内容取得部53が取得したテキストと、当該顧客についてデータベースDB1に記憶された情報とに基づいて、顧客の要求する対応内容と、対応の優先度とを推定する。また、推定部54は、顧客の要求する対応内容と、対応の優先度とを領域335に表示する。なお、推定部54は、例えば、通話内容に含まれるテキストの組み合わせに対して対応内容を関連付けたルールを参照して、顧客の要求する対応内容を推定してもよい。また、推定部54は、例えば、顧客の特徴に対して対応の優先度を関連付けたルールを参照して、優先度を推定してもよい。なお、推定部54は、これに限らず、通話内容に含まれるテキスト及び顧客の情報の一方または両方を入力として、対応内容及び優先度の一方または両方を出力するよう機械学習されたモデルを用いて上述した推定処理を行ってもよい。
 具体的には、例えば、推定部54は、通話内容取得部53が取得した通話内容に含まれるテキストから、顧客がシステムの復旧を依頼していると判断する。さらに、推定部54は、過去の通話相手である顧客のデータベースから、通話している顧客の特徴である、「トラブルがあった場合は、そのトラブルの解消を最優先し、次にトラブル解消に至った報告書の内容を重視し、原因の究明はあまり重要視しない」という情報を取得する。推定部54は、このような情報を参照して、顧客の要求する対応内容及び対応の優先度を推定し、推定した情報を領域335に表示する。図10においては、優先度は星印の数で示している。つまり、星印の数が多いほど優先度が高いことを示す。具体的には、推定部54は、顧客が要求するであろう対応内容が、最初にシステムの普及作業、次に障害復旧の報告書の作成、最後に原因究明と今後の方針の提出、と推定し、優先度とともに表示している。
 (情報処理装置5の効果)
 以上のように、本例示的実施形態に係る情報処理装置5においては、顧客の通話内容を取得する通話内容取得部53と、情報及び通話内容を参照して、顧客が求める対応内容を推定する推定部54を更に備えるという構成が採用されている。これにより、推定された、顧客が求める対応内容が表示装置に表示される。このため、本例示的実施形態に係る情報処理装置5によれば、例示的実施形態1に係る情報処理装置1の奏する効果に加えて、顧客が求める対応内容を高い確度で推定することができるという効果を得ることができる。さらに、優先度に従った対応を実行することで、顧客の満足度をより高めることができるという効果を得ることができる。
 〔例示的実施形態5〕
 次に、本発明の例示的実施形態5について、図面を参照して説明する。なお、例示的実施形態1~4にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
 (サービスデスク3Cの構成)
 図11は、本例示的実施形態5に係るサービスデスク3Cの構成を示すブロック図である。サービスデスク3Cは、情報処理装置6、表示装置33、音声通話装置34、ヘッドセット35、入力装置36、及びデータベースDB1を備える。表示装置33、音声通話装置34、ヘッドセット35、入力装置36、及びデータベースDB1については、例示的実施形態3で説明したとおりであるので、説明は省略する。なお、表示装置に表示される内容については異なってもよい。
 (情報処理装置6の構成)
 情報処理装置6は、識別部61、表示部62、及び抽出部63を備える。識別部61、表示部62は、例示的実施形態3で説明した識別部41、表示部42と同様である。抽出部63は、複数の顧客の情報から、複数の顧客に共通するニーズを抽出する。抽出部63は、請求の範囲に記載した「抽出手段」の一実施形態である。
 抽出部63は、一例として、データベースDB1に記録された複数の顧客の情報のうち、共通するキーワードを含む顧客を検索する。そして、抽出部63は、検索した顧客の数が多い順にキーワードを配列し、上位のキーワードを共通するニーズ(事項)であるとして抽出する。抽出部63は、抽出したニーズを表示部62に表示してもよい。具体的には、抽出部63は、対応履歴にキーワード「原因究明」が含まれる顧客を100件抽出し、特徴にキーワード「復旧作業を優先」が含まれる顧客を50件抽出し、特徴にキーワード「報告を重視」が含まれる顧客を10件抽出する。この場合、抽出部63は、ニーズ1「原因究明」、ニーズ2「復旧作業を優先」、ニーズ3「報告を重視」としてこの順に表示部62に表示する。なお、複数の顧客は、同じ法人(企業)の顧客でもよく、また複数の法人にわたっての顧客でもよい。同じ法人の顧客について処理する場合は、その法人に共通するニーズを抽出することができる。また、複数の法人にわたっての顧客について処理する場合は、サービスを提供する企業の法人顧客全般に共通するニーズを抽出することができる。
 図12は、本例示的実施形態に係る表示装置33が表示する画面の一例を示す図である。図12に示すように、同じ法人の顧客について処理した場合は、表示装置33は、領域336に法人名を表示する。また、領域337に、その法人が求める1又は複数のニーズを表示する。図12に示す例では、3つのニーズが表示されている。これらのニーズは、重要度が高い順に3つリストアップされたニーズである。
 抽出部63は、顧客の要望事項を参照して共通するニーズを抽出してもよい。この場合、顧客の要望事項は、データベースDB1に、顧客に紐付けられて記憶されている。顧客の要望事項とは、例えば、顧客ごとの好み、重視する事項、優先順位当である。そして、リストアップした要望事項を、要望する顧客が多い順に配列し、上位の事項を共通するニーズ(事項)として抽出する。
 (情報処理装置6の効果)
 以上のように、本例示的実施形態に係る情報処理装置6においては、複数の顧客の情報から、複数の顧客に共通するニーズを抽出する抽出部63を更に備えるという構成が採用されている。これにより、複数の顧客に共通するニーズを表示装置に表示することができる。このため、本例示的実施形態に係る情報処理装置6によれば、例示的実施形態1に係る情報処理装置1の奏する効果に加えて、複数の顧客に共通するニーズを抽出することができるという効果を得ることができる。さらに、共通するニーズに従った対応を実行することで、顧客の満足度をより高めることができるという効果を得ることができる。
 〔例示的実施形態6〕
 次に、本発明の例示的実施形態6について、図面を参照して説明する。なお、例示的実施形態1~5にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
 (情報処理装置7の構成)
 図13は、本例示的実施形態6に係る情報処理装置7の構成を示すブロック図である。図13に示すように、情報処理装置7は、識別部71と表示部72とを備える。識別部71は、音声通話時の音声認識を行う識別モデル711を備える。識別モデル711は、声紋識別モデル、又は学習済モデルを用いることができる。
 声紋識別モデルは、一例として、音声の周波数の種類、音声強度の変化のパターン、及びこれらの組み合わせ等から通話相手を特定する識別モデルである。この場合、識別部71は、顧客の音声の特徴量を記憶したデータベース(図示せず)をさらに含む。具体的には、音声識別モデルは、入力された音声データに様々な処理を加えて特徴量を算出する。また、音声識別モデルは、算出した特徴量と、データベースに記録された特徴量とを比較して、通話相手を識別する。音声データとしては、一例として、特定の言葉を用いてもよい。特定の言葉とは、例えば、電話での決まり文句である「もしもし」、あるいは、通話相手が発すると予想される、サービスを提供する企業の名称等である。又は、数秒から数十秒程度の長さの音声を解析して識別してもよい。
 学習済モデルは、一例として、通話相手の音声を入力として、通話相手を識別する情報を出力するよう機械学習により学習された学習済モデルである。例えば、学習済モデルは、ニューラルネットワークにより構成されていてもよいが、これに限られない。このような学習済モデルは、通話相手の音声に対して通話相手の識別情報がラベル付けされた学習データを用いて学習されてもよいし、教師なし学習によって学習されてもよい。
 (情報処理装置7の効果)
 以上のように、本例示的実施形態に係る情報処理装置7においては、識別部71は、音声通話時の音声認識を行う識別モデル711を備えるという構成が採用されている。これにより、通話音声をより精度よく識別することができる。このため、本例示的実施形態に係る情報処理装置7によれば、例示的実施形態1に係る情報処理装置1の奏する効果に加えて、通話相手をより精度よく識別することができるという効果を得ることができる。
 〔ソフトウェアによる実現例〕
 情報処理装置1~7、又はこれらの情報処理装置1~7に含まれる識別部11等、表示部12等、情報取得部43、記録部44、通話内容取得部53、推定部54、抽出部63等(以下、「情報処理装置等」という)の一部又は全部の機能は、集積回路(ICチップ)等のハードウェアによって実現してもよいし、ソフトウェアによって実現してもよい。
 後者の場合、情報処理装置等は、例えば、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータによって実現される。このようなコンピュータの一例(以下、コンピュータCと記載する)を図14に示す。コンピュータCは、少なくとも1つのプロセッサC1と、少なくとも1つのメモリC2と、を備えている。メモリC2には、コンピュータCを情報処理装置等として動作させるためのプログラムPが記録されている。コンピュータCにおいて、プロセッサC1は、プログラムPをメモリC2から読み取って実行することにより、情報処理装置等の各機能が実現される。
 プロセッサC1としては、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、DSP(Digital Signal Processor)、MPU(Micro Processing Unit)、FPU(Floating point number Processing Unit)、PPU(Physics Processing Unit)、マイクロコントローラ、又は、これらの組み合わせなどを用いることができる。メモリC2としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、これらの組み合わせなどを用いることができる。
 なお、コンピュータCは、プログラムPを実行時に展開したり、各種データを一時的に記憶したりするためのRAM(Random Access Memory)を更に備えていてもよい。また、コンピュータCは、他の装置との間でデータを送受信するための通信インタフェースを更に備えていてもよい。また、コンピュータCは、キーボードやマウス、ディスプレイやプリンタなどの入出力機器を接続するための入出力インタフェースを更に備えていてもよい。
 また、プログラムPは、コンピュータCが読み取り可能な、一時的でない有形の記録媒体Mに記録することができる。このような記録媒体Mとしては、例えば、テープ、ディスク、カード、半導体メモリ、又はプログラマブルな論理回路などを用いることができる。コンピュータCは、このような記録媒体Mを介してプログラムPを取得することができる。また、プログラムPは、伝送媒体を介して伝送することができる。このような伝送媒体としては、例えば、通信ネットワーク、又は放送波などを用いることができる。コンピュータCは、このような伝送媒体を介してプログラムPを取得することもできる。
 〔付記事項1〕
 本発明は、上述した実施形態に限定されるものでなく、請求項に示した範囲で種々の変更が可能である。例えば、上述した実施形態に開示された技術的手段を適宜組み合わせて得られる実施形態についても、本発明の技術的範囲に含まれる。
 〔付記事項2〕
 上述した実施形態の一部又は全部は、以下のようにも記載され得る。ただし、本発明は、以下の記載する態様に限定されるものではない。
 (付記1)
 音声通話時の音声認識により通話相手を識別する識別手段と、識別された前記通話相手に紐付けられた情報を表示する表示手段と、を備えた情報処理装置。
 上記の構成によれば、通話相手に適した応対をより容易にする技術を提供することができる。
 (付記2)
 前記通話相手は、サービスを提供する企業の顧客であり、前記情報は、過去の前記顧客との対応履歴、前記顧客の特徴、及び前記顧客からの苦情の有無の少なくとも一つを含む付記1に記載の情報処理装置。
 上記の構成によれば、顧客に適した応対をより容易にする技術を提供することができる。
 (付記3)
 前記顧客に関する情報を取得する情報取得手段と、取得された前記顧客に関する情報を前記顧客に紐付けて記録する記録手段と、をさらに備える付記2に記載の情報処理装置。
 上記の構成によれば、顧客に関する情報が蓄積されるにつれて、顧客に対して満足度を高める対応をより精度よく選択することができるようになるという効果が得られる。
 (付記4)
 前記表示手段は、前記情報の重要度を表示する付記2又は3に記載の情報処理装置。
 上記の構成によれば、顧客情報に重要度を付与することによっても、顧客に対して満足度を高める対応をより精度よく選択することができるようになるという効果が得られる。
 (付記5)
 前記顧客の通話内容を取得する通話内容取得手段と、前記情報及び前記通話内容を参照して、前記顧客が求める対応内容を推定する推定手段を更に備える付記2から4のいずれか1項に記載の情報処理装置。
 上記の構成によれば、顧客が求める対応内容を高い確度で推定することができるという効果を得ることができる。
 (付記6)
 複数の前記顧客の前記情報から、前記複数の顧客に共通するニーズを抽出する抽出手段を更に備える、付記2から5のいずれか1項に記載の情報処理装置。
 上記の構成によれば、複数の顧客に共通するニーズを抽出することができるという効果を得ることができる。そして、共通するニーズに従った対応を実行することで、顧客の満足度をより高めることができるという効果を得ることができる。
 (付記7)
 前記顧客の前記情報には、前記顧客の要望事項が含まれ、前記抽出手段は、前記顧客の要望事項を参照して前記共通するニーズを抽出する付記6に記載の情報処理装置。
 上記の構成によれば、共通するニーズに従った対応を実行することで、顧客の満足度をより高めることができるという効果を得ることができる。
 (付記8)
 前記識別手段は、声紋識別モデル、又は学習済モデルを用いた音声識別モデルの少なくともいずれかを含む、付記1から7のいずれか1項に記載の情報処理装置。
 上記の構成によれば、通話相手をより精度よく識別することができるという効果を得ることができる。
 (付記9)
 音声通話時の音声認識により通話相手を識別すること、識別された前記通話相手に紐付けられた情報を表示すること、を含む情報処理方法。
 上記の構成によれば、通話相手に適した応対をより容易にする技術を提供することができる。
 (付記10)
 音声通話時の音声認識により通話相手を識別する識別手段と、識別された前記通話相手に紐付けられた情報を表示する表示手段と、前記情報を記録するデータベースと、を備えた情報処理システム。
 上記の構成によれば、通話相手に適した応対をより容易にする技術を提供することができる。
 (付記11)
 コンピュータを、音声通話時の音声認識により通話相手を識別する識別手段、及び識別された前記通話相手に紐付けられた情報を表示する表示手段、として機能させるためのプログラム。
 上記の構成によれば、通話相手に適した応対をより容易にする技術を提供することができる。
 〔付記事項3〕
 上述した実施形態の一部又は全部は、更に、以下のように表現することもできる。
 少なくとも1つのプロセッサを備え、前記プロセッサは、音声通話時の音声認識により通話相手を識別する識別処理と、識別された前記通話相手に紐付けられた情報を表示する表示処理とを実行する情報処理装置。
 なお、この情報処理装置は、更にメモリを備えていてもよく、このメモリには、前記識別処理と、前記表示処理とを前記プロセッサに実行させるためのプログラムが記憶されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。
 1,4,5,6,7 情報処理装置
 3,3A,3B,3C デスクトップ
 11,41,51,61,71 識別部
 12,42,52,62,72 表示部
 33 表示装置
 34 音声通話装置
 35 ヘッドセット
 36 入力装置
 43 情報取得部
 44 記録部
 53 通話内容取得部
 54 推定部
 63 抽出部
 711 識別モデル
 DB1 データベース

 

Claims (11)

  1.  音声通話時の音声認識により通話相手を識別する識別手段と、
     識別された前記通話相手に紐付けられた情報を表示する表示手段と、
    を備えた情報処理装置。
  2.  前記通話相手は、サービスを提供する企業の顧客であり、
     前記情報は、過去の前記顧客との対応履歴、前記顧客の特徴、及び前記顧客からの苦情の有無の少なくとも一つを含む請求項1に記載の情報処理装置。
  3.  前記顧客に関する情報を取得する情報取得手段と、
     取得された前記顧客に関する情報を前記顧客に紐付けて記録する記録手段と、
     をさらに備える請求項2に記載の情報処理装置。
  4.  前記表示手段は、前記情報の重要度を表示する請求項2又は3に記載の情報処理装置。
  5.  前記顧客の通話内容を取得する通話内容取得手段と、
     前記情報及び前記通話内容を参照して、前記顧客が求める対応内容を推定する推定手段を更に備える請求項2から4のいずれか1項に記載の情報処理装置。
  6.  複数の前記顧客の前記情報から、前記複数の顧客に共通するニーズを抽出する抽出手段を更に備える、請求項2から5のいずれか1項に記載の情報処理装置。
  7.  前記顧客の前記情報には、前記顧客の要望事項が含まれ、
     前記抽出手段は、前記顧客の要望事項を参照して前記共通するニーズを抽出する請求項6に記載の情報処理装置。
  8.  前記識別手段は、声紋識別モデル、又は学習済モデルを用いた音声識別モデルの少なくともいずれかを含む、請求項1から7のいずれか1項に記載の情報処理装置。
  9.  音声通話時の音声認識により通話相手を識別すること、
     識別された前記通話相手に紐付けられた情報を表示すること、
    を含む情報処理方法。
  10.  音声通話時の音声認識により通話相手を識別する識別手段と、
     識別された前記通話相手に紐付けられた情報を表示する表示手段と、
     前記情報を記録するデータベースと、
    を備えた情報処理システム。
  11.  コンピュータを、
     音声通話時の音声認識により通話相手を識別する識別手段、及び
     識別された前記通話相手に紐付けられた情報を表示する表示手段、
    として機能させるためのプログラム。

     
PCT/JP2021/013806 2021-03-31 2021-03-31 情報処理装置、情報処理システム、情報処理方法及びプログラム WO2022208711A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023510007A JPWO2022208711A1 (ja) 2021-03-31 2021-03-31
PCT/JP2021/013806 WO2022208711A1 (ja) 2021-03-31 2021-03-31 情報処理装置、情報処理システム、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/013806 WO2022208711A1 (ja) 2021-03-31 2021-03-31 情報処理装置、情報処理システム、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2022208711A1 true WO2022208711A1 (ja) 2022-10-06

Family

ID=83458188

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/013806 WO2022208711A1 (ja) 2021-03-31 2021-03-31 情報処理装置、情報処理システム、情報処理方法及びプログラム

Country Status (2)

Country Link
JP (1) JPWO2022208711A1 (ja)
WO (1) WO2022208711A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002330219A (ja) * 2001-04-27 2002-11-15 Web Progressive Inc コールセンタ業務を利用する情報提供システム及び中継サーバ装置
JP2010239598A (ja) * 2009-03-31 2010-10-21 Fujitsu Ltd 端末装置、オペレータ振り分けプログラム
JP2014095753A (ja) * 2012-11-07 2014-05-22 Hitachi Systems Ltd 音声自動認識・音声変換システム
JP2016192714A (ja) * 2015-03-31 2016-11-10 株式会社日立ハイテクフィールディング コールセンターシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002330219A (ja) * 2001-04-27 2002-11-15 Web Progressive Inc コールセンタ業務を利用する情報提供システム及び中継サーバ装置
JP2010239598A (ja) * 2009-03-31 2010-10-21 Fujitsu Ltd 端末装置、オペレータ振り分けプログラム
JP2014095753A (ja) * 2012-11-07 2014-05-22 Hitachi Systems Ltd 音声自動認識・音声変換システム
JP2016192714A (ja) * 2015-03-31 2016-11-10 株式会社日立ハイテクフィールディング コールセンターシステム

Also Published As

Publication number Publication date
JPWO2022208711A1 (ja) 2022-10-06

Similar Documents

Publication Publication Date Title
US10789039B2 (en) Call visualization
US20230334034A1 (en) Systems and methods for providing searchable customer call indexes
US8494149B2 (en) Monitoring device, evaluation data selecting device, agent evaluation device, agent evaluation system, and program
JP6358093B2 (ja) 分析対象決定装置及び分析対象決定方法
US10636047B2 (en) System using automatically triggered analytics for feedback data
US10354677B2 (en) System and method for identification of intent segment(s) in caller-agent conversations
US9569743B2 (en) Funnel analysis
WO2015131125A1 (en) Tag-based performance framework for contact center
JP2019028910A (ja) 対話分析システムおよび対話分析プログラム
JP4522345B2 (ja) 電話業務検査システム及びそのプログラム
JP2016143909A (ja) 通話内容分析表示装置、通話内容分析表示方法、及びプログラム
US10924611B2 (en) Voice recognition system and call evaluation setting method
WO2022208711A1 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
WO2023162009A1 (ja) 感情情報活用装置、感情情報活用方法及びプログラム
JP7169031B1 (ja) プログラム、情報処理装置、情報処理システム、情報処理方法、情報処理端末
WO2023119521A1 (ja) 可視化情報生成装置、可視化情報生成方法、及びプログラム
US20200257708A1 (en) Method for dynamic enrichment of inbound telephone calls based on real estate leads
WO2023119520A1 (ja) 推定装置、推定方法、及びプログラム
JP2022154230A (ja) 情報提供システム、情報提供方法及びコンピュータプログラム
CN114048283A (zh) 用户画像生成方法、装置、电子设备及存储介质
WO2015159299A1 (en) System and method for facilitating property transactions
WO2015047272A1 (en) System and method for context based knowledge retrieval
JP2017053997A (ja) 音声認識装置、音声認識方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21934880

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023510007

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21934880

Country of ref document: EP

Kind code of ref document: A1