WO2017130498A1 - 通信システムおよび通信制御方法 - Google Patents

通信システムおよび通信制御方法 Download PDF

Info

Publication number
WO2017130498A1
WO2017130498A1 PCT/JP2016/081987 JP2016081987W WO2017130498A1 WO 2017130498 A1 WO2017130498 A1 WO 2017130498A1 JP 2016081987 W JP2016081987 W JP 2016081987W WO 2017130498 A1 WO2017130498 A1 WO 2017130498A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
advertisement
agent
client terminal
users
Prior art date
Application number
PCT/JP2016/081987
Other languages
English (en)
French (fr)
Inventor
小野 秀行
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to KR1020187016852A priority Critical patent/KR20180104601A/ko
Priority to CN201680079319.5A priority patent/CN108475282B/zh
Priority to EP16888083.9A priority patent/EP3410309A1/en
Priority to US15/770,297 priority patent/US11144955B2/en
Priority to JP2017563696A priority patent/JP6888557B2/ja
Priority to CN202210197087.0A priority patent/CN114663131A/zh
Publication of WO2017130498A1 publication Critical patent/WO2017130498A1/ja
Priority to US17/473,861 priority patent/US20210406956A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0255Targeted advertisements based on user history
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0267Wireless devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3343Query execution using phonetics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0257User requested
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0277Online advertisement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0613Third-party assisted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking

Definitions

  • the present disclosure relates to a communication system and a communication control method.
  • a user can check a message transmitted from another terminal or transmit a message using an information processing terminal such as a smartphone, a mobile phone terminal, or a tablet terminal.
  • an agent system that automatically responds to user messages in information processing terminals has been proposed.
  • an agent of a navigation device mounted on a vehicle automatically exchanges information with an agent of a passenger's portable communication terminal to reproduce the passenger's favorite music. Or playing favorite music described in the passenger's profile data.
  • Patent Document 2 discloses a mutual growth system that shares and uses the content learned by one device when a plurality of electronic devices are connected to each other wirelessly or by wire.
  • Patent Document 3 user preferences learned by a certain agent device are stored in a recording medium (SD card), and when the recording medium is inserted into another agent device, the other agent device A system that can read and use user preferences learned by the apparatus from a recording medium is disclosed.
  • SD card recording medium
  • the present disclosure proposes a communication system and a communication control method that can draw out potential user requests and present more effective advertisement information.
  • the communication unit that collects the usage status of the user's client terminal or service, the preference is analyzed according to the usage status of the user collected via the communication unit, and the preference is analyzed.
  • a guidance message for drawing out an interest in the product via the communication unit is used as an utterance of the agent of the client terminal. So as to output to the client terminal of the user, and at a predetermined timing after transmission, to output an advertisement for promoting the product via the communication unit as a statement of the agent of the client terminal
  • a communication system comprising: a control unit that controls transmission to a user's client terminal.
  • the processor collects the usage status of the user's client terminal or service by the communication unit, analyzes the preference according to the usage status of the user collected via the communication unit, and the preference If it is determined that at least one user is a potential customer of a specific product according to the analysis result of the above, a message for inducing an interest in the product is sent to the client terminal via the communication unit.
  • a message for inducing an interest in the product is sent to the client terminal via the communication unit.
  • an advertisement for promoting the merchandise via the communication unit is transmitted as a utterance of the agent of the client terminal at a predetermined timing after being transmitted to the client terminal of the user.
  • Providing a communication control method including: controlling to transmit to a client terminal of the user to output To.
  • FIG. 1 is a diagram illustrating an overview of a communication control system according to an embodiment of the present disclosure.
  • the interaction with the agent 10 can be performed via the client terminal 1 such as a smartphone owned by the user, for example.
  • the client terminal 1 has a microphone and a speaker, and enables voice interaction with the user.
  • the communication control system is not limited to a voice agent that responds by voice, but may be a text-compatible agent that performs a text-based response at the client terminal 1.
  • FIG. 2 is a diagram showing the overall configuration of the communication control system according to the present embodiment.
  • the communication control system includes a client terminal 1 and an agent server 2.
  • the agent server 2 is connected to the client terminal 1 via the network 3 and transmits / receives data. Specifically, the agent server 2 generates a response voice for the uttered voice collected and transmitted by the client terminal 1 and transmits the response voice to the client terminal 1.
  • the agent server 2 has a phoneme DB (database) corresponding to one or more agents, and can generate a response voice with a voice of a specific agent.
  • the agent may be a character such as a cartoon, an animation, a game, a drama, a movie, a celebrity, a celebrity, a historical person, or the like. It may be an average person.
  • the agent may be an animal or a personified character.
  • the agent may be a person reflecting the personality of the user, or a person reflecting the personality of the user's friend, family, acquaintance, or the like.
  • FIG. 3 is a block diagram illustrating an example of the configuration of the agent server 2 according to the present embodiment.
  • the agent server 2 includes a voice agent I / F (interface) 20, a dialogue processing unit 30, a phoneme storage unit 40, a conversation DB generation unit 50, a phoneme DB generation unit 60, an advertisement insertion processing unit 70, An advertisement DB 72 and a feedback acquisition processing unit 80 are included.
  • the voice agent I / F 20 functions as a voice data input / output unit, a voice recognition unit, and a voice generation unit.
  • As the input / output unit a communication unit that performs transmission and reception with the client terminal 1 via the network 3 is assumed.
  • the voice agent I / F 20 can receive the user's uttered voice from the client terminal 1 and convert it into text by voice recognition. Also, the voice agent I / F 20 converts the agent answer text data (text) output from the dialogue processing unit 30 into voice using the phoneme data corresponding to the agent, and generates the generated response voice of the agent on the client terminal 1. Send to.
  • the dialogue processing unit 30 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the agent server 2 according to various programs.
  • the dialogue processing unit 30 is realized by an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor, for example. Further, the dialogue processing unit 30 according to the present embodiment functions as a basic dialogue processing unit 31, a character A dialogue processing unit 32, a person B dialogue processing unit 33, and a person C dialogue processing unit 34.
  • the character A dialogue processing unit 32, the person B dialogue processing unit 33, and the person C dialogue processing unit 34 realize a dialogue specialized for each agent.
  • “Character A”, “Person B”, and “Person C” are given as examples of the agent.
  • the present embodiment is not limited to this, and each dialogue that realizes a dialogue specialized for a large number of agents. You may have a process part.
  • the basic dialogue processing unit 31 realizes a general-purpose dialogue that is not specialized for each agent.
  • FIG. 4 is a diagram illustrating a configuration example of the dialogue processing unit 300 according to the present embodiment.
  • the dialogue processing unit 300 includes a question sentence search unit 310, an answer sentence generation unit 320, a phoneme data acquisition unit 340, and a conversation DB 330.
  • the conversation DB 330 stores conversation data in which question sentence data and answer sentence data are paired.
  • conversation data specialized for the agent is stored in the conversation DB 330
  • general-purpose dialogue processing unit general-purpose conversation data (that is, basic conversation that is not specialized for the agent) is stored in the conversation DB 330. Data) is stored.
  • the question sentence search unit 310 searches the conversation DB 330 for question sentence data that matches the question sentence that is output from the voice agent I / F 20 and recognized as a text by recognizing the user's question voice (an example of uttered voice).
  • the answer sentence generation unit 320 extracts answer sentence data stored in association with the question sentence data searched by the question sentence search unit 310 from the conversation DB 330, and generates answer sentence data.
  • the phoneme data acquisition unit 340 acquires phoneme data for converting the answer sentence generated by the answer sentence generation unit 320 from the phoneme storage unit 40 of the corresponding agent. For example, in the case of the character A dialogue processing unit 32, phoneme data for reproducing the answer sentence data with the voice of the character A is acquired from the character A phoneme DB 42. Then, the dialogue processing unit 300 outputs the generated answer sentence data and the acquired phoneme data to the voice agent I / F 20.
  • the phoneme storage unit 40 stores a phoneme database for generating speech for each agent.
  • the phoneme storage unit 40 can be realized by a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • a basic phoneme DB 41, a character A phoneme DB 42, a person B phoneme DB 43, and a person C phoneme DB 44 are stored.
  • Each phoneme DB stores, for example, a phoneme piece and a prosodic model that is control information thereof as phoneme data.
  • the conversation DB generation unit 50 has a function of generating the conversation DB 330 of the conversation processing unit 300. For example, the conversation DB generation unit 50 collects assumed question sentence data, collects answer sentence data corresponding to each question, and then saves the question sentence data and the answer sentence data in pairs. When a predetermined number of conversation data (a set of question sentence data and answer sentence data, for example, 100 sets) is collected, the conversation DB generation unit 50 registers the conversation data set in the conversation DB 330 as an agent conversation data set.
  • a predetermined number of conversation data a set of question sentence data and answer sentence data, for example, 100 sets
  • the phoneme DB generation unit 60 has a function of generating a phoneme DB stored in the phoneme storage unit 40.
  • the phoneme DB generation unit 60 analyzes speech information read out from a predetermined text, decomposes it into phoneme segments and prosodic models that are control information thereof, and collects a predetermined number or more of speech information as phoneme DB as phoneme data. Process to register with.
  • the advertisement insertion processing unit 70 has a function of inserting advertisement information into the agent dialogue.
  • the advertisement information to be inserted can be extracted from the advertisement DB 72.
  • advertisement information requested by a provider (vendor, supplier) of a company or the like for example, advertisement contents such as text, image, and sound, information on an advertiser, an advertisement period, an advertisement target person, etc. is registered. Yes.
  • the feedback acquisition processing unit 80 has a function for inserting a question for acquiring feedback into the agent's dialogue and obtaining feedback from the user.
  • the configuration of the agent server 2 according to this embodiment has been specifically described above. Note that the configuration of the agent server 2 according to the present embodiment is not limited to the example shown in FIG. For example, each configuration of the agent server 2 may be configured by other servers on the network.
  • FIG. 5 is a flowchart showing a process for generating the conversation DB 330 according to this embodiment. As shown in FIG. 5, first, the conversation DB generation unit 50 stores an assumed question sentence (step S103).
  • the conversation DB generating unit 50 stores a (paired) answer sentence corresponding to the question sentence (step S106).
  • FIG. 6 is a flowchart showing a phoneme DB generation process according to this embodiment.
  • the phoneme DB generation unit 60 displays an example sentence (step S113). For example, an example sentence necessary for generating phoneme data is displayed on a display of an information processing terminal (not shown).
  • the phoneme DB generation unit 60 records the voice that reads the example sentence (step S116) and analyzes the recorded voice (step S119). For example, the voice information read out by the person in charge of the agent's voice is collected by the microphone of the information processing terminal, and the phoneme DB generation unit 60 receives and stores it, and further performs voice analysis.
  • the phoneme DB generation unit 60 registers the prosodic models and phonemes in the phoneme storage unit 40 as a phoneme database for a predetermined agent (Ste S134).
  • the voice agent I / F 20 recognizes the question voice and converts it into text (step S149).
  • the voice agent I / F 20 outputs the question text converted to text to the dialogue processing unit of the specific agent specified by the agent ID. For example, in the case of “Agent ID: Character A”, the voice agent I / F 20 outputs the question text converted to text to the character A dialogue processing unit 32.
  • the dialogue processing unit 30 searches a question sentence that matches the question sentence converted to text from the conversation DB of the specific agent designated by the agent ID (step S152).
  • step S164 when there is no matching question sentence (step S164 / No), the basic dialogue processing unit 31 returns answer sentence data (for example, an answer sentence such as “I do not understand the question”) when there is no matching question sentence.
  • answer sentence data for example, an answer sentence such as “I do not understand the question”
  • the character A dialogue processing unit 32 refers to the phoneme DB of the specific agent specified by the agent ID (here, the character A phoneme DB 42), and the phoneme data of the character A for generating the voice of the answer sentence data is obtained. Obtained (step S173).
  • the voice agent I / F 20 converts the response sentence data (text) into speech using the phoneme data (speech synthesis) and transmits it to the client terminal 1 (step S179).
  • the answer sentence is reproduced with the voice of the character A.
  • the conversation data can be customized for the user. That is, for example, when “person B” is “person in 20s”, the common layer 332B holds average conversation data of 20s, and customized conversation data is maintained for each user by continuing the conversation with the user. Of personalization layer 331B.
  • the user can also select and purchase favorite phoneme data such as “male”, “female”, “high voice”, and “low voice” from the person B phoneme DB 43 as the voice of the person B.
  • the voice agent I / F 20 acquires (receives) the user's question voice from the client terminal 1, and converts it into text by voice recognition (step S183).
  • the text data (question sentence data) is output to the dialogue processing unit (in this case, for example, the character A dialogue processing unit 32) of the specific agent designated by the agent ID.
  • step S192 the character A dialogue processing unit 32 acquires the answer sentence data and outputs it to the voice agent I / F 20 together with the corresponding phoneme data of the character A.
  • the answer sentence is reproduced with the voice of the character A at the client terminal 1 (step S198).
  • FIG. 10 is a flowchart showing conversation data migration processing from the personalization layer to the common layer according to the present embodiment.
  • the conversation data migration processing from the personalization layer 331A to the common layer 332A of the character A dialogue processing unit 32 will be described.
  • FIG. 11 is a diagram for explaining the transfer of conversation data to the basic conversation conversation DB 330F according to the present embodiment.
  • the conversation processing unit 30 may include an A conversation DB 330A-X, a user Y character A conversation DB 330A-Y, and a user Z person B conversation DB 330B-Z.
  • each personalization layer 331A-X, 331A-Y, 331B-Z is registered with its own (customized) conversation pair according to the dialogue with each user X, user Y, and user Z. (See FIG. 9).
  • the personalization layers 331A-X and 331A-Y of the same agent they are registered in the common layers 332A-X and 332A-Y for each user (see FIG. 10).
  • the conversation processing unit 30 extracts a predetermined number or more of substantially the same conversation pairs from the common layers 332A-X, 332A-Y, and 332B-Z of a plurality of agents (which may include different agents), the conversation processing unit 30 The conversation pair is transferred to the conversation conversation DB 330F.
  • the basic conversation conversation DB 330 ⁇ / b> F is a conversation DB included in the basic conversation processing unit 31. This makes it possible to grow the basic conversation conversation DB 330F (expand conversation pairs).
  • FIG. 12 is a flowchart showing the conversation data migration processing to the basic dialogue DB 330F according to the present embodiment.
  • the dialogue processing unit 30 periodically searches a plurality of common layers 332 in the conversation DB 330 (step S223), and extracts substantially the same conversation pairs (step S226).
  • the advertisement information 621 includes, for example, an agent ID, a question sentence, advertisement contents, conditions, and a probability.
  • the agent ID designates an agent that speaks the advertisement contents
  • the question sentence designates a user's question sentence that triggers insertion of the advertisement contents
  • the advertisement contents are advertisement sentences to be inserted into the agent's dialogue.
  • the condition is a condition for inserting the advertisement content
  • the probability indicates the probability of inserting the advertisement content. For example, in the example shown in the first row of FIG.
  • the probability of inserting an advertisement may be set in this embodiment. Such a probability may be determined according to the advertisement fee. For example, the higher the advertising fee, the higher the probability.
  • FIG. 14 is a flowchart showing the insertion processing of advertisement content according to this embodiment.
  • the advertisement insertion processing unit 70 monitors the dialogue between the user and the agent (specifically, dialogue processing by the dialogue processing unit 30) (step S243).
  • the advertisement insertion processing unit 70 determines whether or not a question sentence having the same content as the question sentence registered in the advertisement DB 72 has appeared in the dialogue between the user and the agent (step S246).
  • the advertisement insertion processing unit 70 checks the advertisement insertion condition and probability associated with the corresponding question sentence (step S249).
  • the advertisement insertion processing unit 70 determines whether or not it is currently possible to place an advertisement based on the condition and the probability (step S252).
  • the advertisement insertion processing unit 70 temporarily stops the dialogue processing by the dialogue processing unit 30 (step S255), and inserts the advertisement content into the dialogue (step S258). Specifically, for example, the advertisement content is inserted into the agent's answer to the user's question.
  • the dialogue (conversation text data) including the advertisement content is output from the dialogue processing unit 30 to the voice agent I / F 20, transmitted from the voice agent I / F 20 to the client terminal 1, and reproduced by the voice of the agent (step S261). ).
  • the content of the advertisement can be presented to the user as an utterance of the character A by the following conversation.
  • the conversation data registration process As described above, the conversation data registration process, the phoneme DB generation process, the conversation control process, the conversation DB update process, and the advertisement insertion process have been described as basic operation processes of the communication control system according to the present embodiment.
  • FIG. 15 is a diagram illustrating a configuration of the dialogue processing unit 300 ′ according to the application example of the present embodiment.
  • the dialog processing unit 300 ′ is different from the configuration example shown in FIG. 4 in that it further includes a language analysis unit 311.
  • the language analysis unit 311 performs language analysis on the user's question sentence data converted into text by the voice agent I / F 20 and interprets the command.
  • the answer sentence generator 320 generates answer sentence data according to the command interpreted by the language analyzer 311.
  • the dialogue processing unit 300 ′ controls each configuration of the agent server 2 so as to perform processing according to the command according to the command interpreted by the language analysis unit 311. For example, in the case of a message transmission command, the dialogue processing unit 300 ′ generates response text data for a message transmission request from the user, and further, according to a messenger function executed by a message transmission / reception control unit 701 described later, a predetermined destination A message to be transmitted to the voice agent I / F.
  • the advertisement insertion processing according to the present embodiment is not limited to the above-described example.
  • the advertisement insertion processing unit 70 according to the present embodiment can draw out a user's potential request and present more effective advertisement information.
  • FIGS. 1-10 a specific description will be given with reference to FIGS.
  • FIG. 16 is a diagram illustrating a configuration example of the advertisement insertion processing unit 70 according to the present embodiment.
  • the advertisement insertion processing unit 70 includes a message transmission / reception control unit 701, a browsing history acquisition unit 702, a posting history acquisition unit 703, a schedule management unit 704, a social graph analysis unit 705, a language analysis unit 706, a potential customer. It has an extraction unit 707, an advertisement matching unit 708, an advertisement information output control unit 709, a user information DB 720, a schedule DB 721, a social graph DB 722, a potential customer DB 723, and an advertisement progress status DB 724.
  • the message transmission / reception control unit 701 realizes a messenger function, and controls message transmission / reception between the user's client terminal 1 and another device (for example, another user's client terminal 1).
  • the message transmission / reception control unit 701 requests the response of the agent related to message transmission / reception to the dialog processing unit 30, and the response processing related to message transmission / reception is generated by the user-specified agent in the dialog processing unit 30 and the voice agent I / F. 1 is played.
  • Such message transmission / reception control will be described with reference to FIGS.
  • the browsing history acquisition unit 702 acquires an Internet browsing history. For example, when the user requests the agent at the client terminal 1 to browse the Internet, the agent server 2 controls the interaction with the agent.
  • the browsing history acquisition unit 702 can monitor the dialogue processing unit 30 and acquire a user's Internet browsing history.
  • the posting history acquisition unit 703 acquires the posting history of voice, text, and images by the user to the Internet. For example, when the user requests the agent at the client terminal 1 to post to the Internet (such as posting to SNS), the interaction with the agent is controlled by the agent server 2.
  • the posting history acquisition unit 703 can monitor the dialogue processing unit 30 and acquire a user's posting history on the Internet.
  • the posting history acquisition unit 703 can also access the SNS server and acquire the posting history.
  • the user information DB 720 displays user information (user's client terminal or service usage status) such as message transmission / reception by the user, user's Internet browsing history, user's posting history, and user's schedule information. Extracted from the history acquisition unit 702, the posting history acquisition unit 703, and the schedule DB 721 and accumulated. These can be accumulated daily.
  • the language analysis unit 706 performs language analysis on messages and posted contents transmitted and received by the user from the user information DB 720, and analyzes user preferences.
  • the potential customer extraction unit 707 extracts a potential customer (determines whether or not it is a potential customer) based on the user preference analyzed by the language analysis by the language analysis unit 706. Then, the potential customer extraction unit 707 stores the extracted potential customer information in the potential customer DB 723.
  • the advertisement matching unit 708 performs matching between the potential customer information held in the potential customer DB 723 and the advertisement information stored in the advertisement DB 72, and determines an advertisement to be presented to the potential customer.
  • the advertisement matching unit 708 in the case of a product that can be a product only after the utility of the product hits a plurality of users at the same time (for example, a product that is used in a group or is subject to joint purchase), is a social graph DB 722. It is also possible to check the relationship between potential customers (existence of exchange, etc.) with reference to and match a plurality of potential customers with advertisement information.
  • the advertisement matching unit 708 registers the matching result in the advertisement progress status DB 724.
  • the configuration of the advertisement insertion processing unit 70 according to the present embodiment has been specifically described above. Subsequently, the operation processing according to the present embodiment will be specifically described with reference to FIGS.
  • FIG. 17 is a flowchart showing message transmission processing according to this embodiment.
  • the message transmission process is performed by the message transmission / reception control unit 701 through the dialogue processing unit 30.
  • the dialogue processing unit 30 controls the agent's dialogue to assist message transmission / reception in accordance with the control of the message transmission / reception control unit 701.
  • the answer sentence generation unit 320 generates answer sentence data (for example, “Create a message for the user Y”) according to the command (step S312).
  • the phoneme data acquisition unit 340 acquires phoneme data of a specific agent (for example, the character A) for converting the answer sentence data into speech, and outputs the phoneme data and the answer sentence data to the voice agent I / F 20 (step S40). S315).
  • the voice agent I / F 20 converts the answer sentence data into voice and transmits it to the client terminal 1x, and the answer sentence data is reproduced by the voice of the specific agent in the client terminal 1x.
  • reply sentence data (for example, “I am happy today” is transmitted) according to the command is generated (step S327).
  • the voice agent I / F 20 of the agent server 2 receives the voice of user Y (for example, “read a message”) from the client terminal 1y (step S352).
  • the generated answer sentence data is output to the voice agent I / F 20 together with the phoneme data of the specific agent (step S364).
  • the voice agent I / F 20 converts the reply sentence data into voice and transmits it to the client terminal 1y, and the reply sentence data is reproduced by the voice of the specific agent in the client terminal 1y.
  • the advertisement information output control unit 709 notifies the advertisement information of the advertisement ID: 4 to each user who is the target of the advertisement ID: 4.
  • the advertisement information is read out by each specific agent.
  • the advertisement progress status is updated to “status 4: advertisement distributed”.
  • the advertisement information output control unit 709 is interested in some of the users who were interested in the hair crab season by a prior guidance message, and browsed by tapping the advertisement link.
  • a message is sent to the user who has not yet tapped the advertisement link, saying, “Seven people seem to be interested in the previous advertisement!”.
  • the controller is According to the usage status of the user's service, a social graph indicating the relationship between users is estimated, Based on the social graph, when it is determined that a plurality of users who are potential customers of the specific product are acquaintances, the guidance message is transmitted to the client terminals of the plurality of users via the communication unit.
  • the communication system according to any one of (2) to (4), wherein the communication system is controlled as follows: (6)
  • the control unit transmits the guidance message to the client terminals of the plurality of users via the communication unit when a plurality of users who are potential customers of the specific product have reached the target number of users.
  • the communication system according to any one of (2) to (5), wherein the communication system is controlled.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】ユーザの潜在的な要求を引き出して、より効果的な広告情報の提示を行うことが可能な通信システムおよび通信制御方法を提供する。 【解決手段】ユーザのクライアント端末またはサービスの利用状況を収集する通信部と、前記通信部を介して収集した前記ユーザの利用状況に応じて嗜好を分析し、前記嗜の好分析結果に応じて、少なくとも一のユーザが、特定の商材の潜在顧客であると判定すると、前記通信部を介して、前記商材への興味を引き出すための誘導メッセージを、前記クライアント端末のエージェントの発言として出力するよう、当該ユーザのクライアント端末に送信し、送信後、所定のタイミングで、前記通信部を介して前記商材をプロモーションするための広告を前記クライアント端末のエージェントの発言として出力するよう、当該ユーザのクライアント端末に送信するよう制御する制御部と、を備える、通信システム。

Description

通信システムおよび通信制御方法
 本開示は、通信システムおよび通信制御方法に関する。
 近年、通信技術の発達により、ネットワークを介したメッセージのやり取りが頻繁に行われている。ユーザは、スマートフォンや携帯電話端末、タブレット端末等の情報処理端末を用いて、他端末から送信されたメッセージを確認したり、メッセージを送信したりすることができる。
 また、情報処理端末において、ユーザのメッセージに対して自動で応答を行うエージェントシステムが提案されている。このようなシステムに関し、例えば下記特許文献1では、車両に搭載されるナビゲーション装置のエージェントが、同乗者の携帯通信端末のエージェントと自動で情報交換を行って、同乗者の好みの音楽を再生したり、同乗者のプロフィールデータに記載されている好みの音楽を再生することが記載されている。
 また、下記特許文献2では、複数の電子機器が互いに無線または有線で接続されている場合に、一方の機器が学習した内容を共有して活用する相互成長システムが開示されている。
 また、下記特許文献3では、あるエージェント装置が学習したユーザの嗜好を記録媒体(SDカード)に格納し、記録媒体が他のエージェント装置に挿入されると、他のエージェント装置は、他のエージェント装置で学習されたユーザの嗜好を記録媒体から読み取って利用することができるシステムが開示されている。
特開2003-22278号公報 特開2005-063057号公報 特開2007-279971号公報
 ここで、インターネット上で広告をユーザに提示する1つの方法として、ユーザの検索履歴等から嗜好を分析し、ユーザが好反応を示すと推定される広告を選択して提示することが行われていたが、広告効果は必ずしも効果的ではなかった。すなわち、検索キーワードや閲覧商品といった明示的なリクエストから嗜好を分析して対応することができても、ユーザの潜在的な嗜好やリクエストまで考慮して広告を出すことは出来ていなかった。
 そこで、本開示では、ユーザの潜在的な要求を引き出して、より効果的な広告情報の提示を行うことが可能な通信システムおよび通信制御方法を提案する。
 本開示によれば、ユーザのクライアント端末またはサービスの利用状況を収集する通信部と、前記通信部を介して収集した前記ユーザの利用状況に応じて嗜好を分析し、前記嗜好の分析結果に応じて、少なくとも一のユーザが、特定の商材の潜在顧客であると判定すると、前記通信部を介して、前記商材への興味を引き出すための誘導メッセージを、前記クライアント端末のエージェントの発言として出力するよう、当該ユーザのクライアント端末に送信し、送信後、所定のタイミングで、前記通信部を介して前記商材をプロモーションするための広告を前記クライアント端末のエージェントの発言として出力するよう、当該ユーザのクライアント端末に送信するよう制御する制御部と、を備える、通信システムを提案する。
 本開示によれば、プロセッサが、ユーザのクライアント端末またはサービスの利用状況を通信部により収集することと、前記通信部を介して収集した前記ユーザの利用状況に応じて嗜好を分析し、前記嗜好の分析結果に応じて、少なくとも一のユーザが、特定の商材の潜在顧客であると判定すると、前記通信部を介して、前記商材への興味を引き出すための誘導メッセージを、前記クライアント端末のエージェントの発言として出力するよう、当該ユーザのクライアント端末に送信し、送信後、所定のタイミングで、前記通信部を介して前記商材をプロモーションするための広告を前記クライアント端末のエージェントの発言として出力するよう、当該ユーザのクライアント端末に送信するよう制御することと、を含む、通信制御方法を提案する。
 以上説明したように本開示によれば、ユーザの潜在的な要求を引き出して、より効果的な広告情報の提示を行うことが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による通信制御システムの概要について説明する図である。 本実施形態による通信制御システムの全体構成を示す図である。 本実施形態による音声エージェントサーバの構成の一例を示すブロック図である。 本実施形態による対話処理部の構成例を示す図である。 本実施形態による会話DBの生成処理を示すフローチャートである。 本実施形態による音素DBの生成処理を示すフローチャートである。 本実施形態による対話制御処理を示すフローチャートである。 本実施形態による会話DBのデータ構成例について説明する図である。 本実施形態による会話DBの更新処理を示すフローチャートである 本実施形態による個人化レイヤーから共通レイヤーへの会話データ移行処理を示すフローチャートである。 本実施形態による基本対話用会話DBへの会話データの移行について説明する図である。 本実施形態による基本対話用DBへの会話データ移行処理を示すフローチャートである。 本実施形態による広告DBに登録されている広告情報の一例を示す図である。 本実施形態による広告内容の挿入処理を示すフローチャートである。 本実施形態の応用例による対話処理部の構成を示す図である。 本実施形態による広告挿入処理部の構成例を示す図である。 本実施形態によるメッセージ送信処理を示すフローチャートである。 本実施形態によるメッセージ受信処理を示すフローチャートである。 本実施形態による送受信メッセージに基づく潜在顧客の抽出処理を示すフローチャートである。 本実施形態による投稿履歴に基づく潜在顧客の抽出処理を示すフローチャートである。 本実施形態による広告出力処理を示すフローチャートである。 本実施形態による広告情報受信処理を示すフローチャートである。 本実施形態による誘導/念押しメッセージ受信処理を示すフローチャートである。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、説明は以下の順序で行うものとする。
 1.本開示の一実施形態による通信制御システムの概要
 2.構成
  2-1.システム構成
  2-2.サーバの構成
 3.システム動作処理
  3-1.会話データ登録処理
  3-2.音素DB生成処理
  3-3.対話制御処理
  3-4.会話DB更新処理
  3-5.広告挿入処理
 4.広告挿入処理
  4-1.構成
  4-2.動作処理
 5.まとめ
 <<1.本開示の一実施形態による通信制御システムの概要>>
 本開示の一実施形態による通信制御システムは、ユーザの潜在的な要求を引き出して、より効果的な広告情報の提示を行うことを可能とする。以下、図1を参照して本実施形態による通信制御システムの概要について説明する。
 図1は、本開示の一実施形態による通信制御システムの概要について説明する図である。エージェント10との対話は、例えばユーザが所有するスマートフォン等のクライアント端末1を介して行われ得る。クライアント端末1は、マイクロホンおよびスピーカを有し、ユーザとの音声による対話を可能とする。
 ユーザは、クライアント端末1を常時携帯し、クライアント端末1で、スケジュールの確認や友人とのメッセージコミュニケーション、インターネットの閲覧などを行う。その際、クライアント端末1の表示画面にはバーチャルなエージェント10が表示され、ユーザへのアシストを行う。例えば登録されたスケジュール情報に基づいて、ユーザが出掛ける時間になった時にエージェント10が音声で「そろそろ出掛ける時間だよ!」と知らせたり、目的地までの道案内をしたりする。また、クライアント端末1が他ユーザからのメッセージを受信した時には、エージェント10が音声で「ねぇねぇ、メッセージが来たよ!」と知らせたり、メッセージの内容を読み上げたりすることも可能である。このように、エージェント10が音声でユーザの日々のクライアント端末1やサービスの利用を手助けし、クライアント端末1やサービスの価値を向上させている。
 本実施形態による通信制御システムは、上述したように日々の生活においてエージェント10によりユーザの手助けをする一方で、ユーザが所定の商材の潜在顧客であるか否か、すなわちユーザが所定の商材に興味を示す顧客であるか否かを判定する。そして、ユーザが潜在的顧客である場合、エージェント10により誘導するメッセージを発言させ、商材購入にユーザを導くことで、広告効果を高めることが可能となる。
 例えば、図1に示す例では、ユーザが「蟹鍋」(蟹を使った鍋料理)の潜在顧客であると判定された場合、エージェント10は、図1に示すように、「鍋料理が美味しい季節だね!」と発言して広告商材(ここでは、一例として「蟹鍋」)に興味が出るよう誘導したり、エージェント10の背景に広告商材に関連する画像(例えば蟹の画像やクーポン券の画像)を提示することで、ユーザの潜在的な興味を引き出すことができる。そして、このようにユーザの興味を引き付けた後、所定のタイミングで改めて広告商材を提示する。
 このように、ポップアップ広告やWebサイト閲覧時に広告バナー等で、最初から広告情報をユーザに提示するといったインターネット広告の方法よりも、日頃からユーザをアシストしているエージェント10との対話で興味を引き出すよう誘導してから広告商材を提示することで、ユーザの潜在的リクエストを自然と引き出すことができ、広告効果が向上することが見込まれる。
 なお、本実施形態による通信制御システム(エージェントシステム)は、音声により応答を行う音声エージェントに限定されず、クライアント端末1においてテキストベースで応答を行うテキスト対応エージェントであってもよい。
 <<2.構成>>
  <2-1.システム構成>
 続いて、上述した本実施形態による通信制御システムの全体構成について図2を参照して説明する。図2は、本実施形態による通信制御システムの全体構成を示す図である。
 図2に示すように、本実施形態による通信制御システムは、クライアント端末1およびエージェントサーバ2を含む。
 エージェントサーバ2は、ネットワーク3を介してクライアント端末1と接続し、データの送受信を行う。具体的には、エージェントサーバ2は、クライアント端末1で収音され、送信された発話音声に対する応答音声を生成し、クライアント端末1に送信する。エージェントサーバ2は、1以上のエージェントに対応する音素DB(データベース)を有し、特定のエージェントの音声で応答音声を生成することが可能である。ここで、エージェントとは、漫画、アニメ、ゲーム、ドラマ、映画等のキャラクターや、芸能人、著名人、歴史上の人物等であってもよいし、また、個人に特定せず、例えば世代別の平均的な人物であってもよい。また、エージェントは、動物や擬人化されたキャラクターであってもよい。また、エージェントは、ユーザ本人の性格を反映した人物や、ユーザの友人、家族、知人等の性格を反映した人物であってもよい。
 また、エージェントサーバ2は、各エージェントの性格を反映した応答内容を生成することが可能である。エージェントサーバ2は、エージェントを介して、ユーザのスケジュール管理、メッセージの送受信、情報提供等、様々なサービスをユーザとの対話を通じて提供し得る。
 なおクライアント端末1は、図2に示すようなスマートフォンに限定されず、例えば携帯電話端末、タブレット端末、PC(パーソナルコンピュータ)、ゲーム機、ウェアラブル端末(スマートアイグラス、スマートバンド、スマートウォッチ、スマートネック等)等であってもよい。また、クライアント端末1は、ロボットであってもよい。
 以上、本実施形態による通信制御システムの概要について説明した。続いて、本実施形態による通信制御システムのエージェントサーバ2の構成について図3を参照して具体的に説明する。
  <2-2.エージェントサーバ2>
 図3は、本実施形態によるエージェントサーバ2の構成の一例を示すブロック図である。図3に示すように、エージェントサーバ2は、音声エージェントI/F(インタフェース)20、対話処理部30、音素記憶部40、会話DB生成部50、音素DB生成部60、広告挿入処理部70、広告DB72、およびフィードバック取得処理部80を有する。
 音声エージェントI/F20は、音声データの入出力部、音声認識部、および音声生成部として機能する。入出力部としては、ネットワーク3を介してクライアント端末1と送受信を行う通信部が想定される。音声エージェントI/F20は、クライアント端末1からユーザの発話音声を受信し、音声認識によりテキスト化することが可能である。また、音声エージェントI/F20は、対話処理部30から出力されたエージェントの回答文データ(テキスト)を、当該エージェントに対応する音素データを用いて音声化し、生成したエージェントの応答音声をクライアント端末1に送信する。
 対話処理部30は、演算処理装置および制御装置として機能し、各種プログラムに従ってエージェントサーバ2内の動作全般を制御する。対話処理部30は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、本実施形態による対話処理部30は、基本対話処理部31、キャラクターA対話処理部32、人物B対話処理部33、人物C対話処理部34として機能する。
 キャラクターA対話処理部32、人物B対話処理部33、人物C対話処理部34は、エージェント毎に特化された対話を実現する。ここでは、エージェントの一例として「キャラクターA」「人物B」「人物C」を挙げているが、本実施形態は当然これに限定されず、さらに多数のエージェントに特化した対話を実現する各対話処理部を有していてもよい。基本対話処理部31は、エージェント毎に特化されていない、汎用の対話を実現する。
 ここで、基本対話処理部31、キャラクターA対話処理部32、人物B対話処理部33、および人物C対話処理部34に共通する基本構成について図4を参照して説明する。
 図4は、本実施形態による対話処理部300の構成例を示す図である。図4に示すように、対話処理部300は、質問文検索部310、回答文生成部320、音素データ取得部340、および会話DB330を有する。会話DB330は、質問文データと回答文データが組になった会話データが保存されている。エージェントに特化した対話処理部では、かかる会話DB330にエージェントに特化した会話データが保存され、汎用の対話処理部では、かかる会話DB330にエージェントに特化しない汎用の会話データ(すなわち、基本会話データ)が保存されている。
 質問文検索部310は、音声エージェントI/F20から出力された、ユーザの質問音声(発話音声の一例)を認識してテキスト化した質問文と一致する質問文データを会話DB330から検索する。回答文生成部320は、質問文検索部310により検索した質問文データに対応付けて保存されている回答文データを会話DB330から抽出し、回答文データを生成する。音素データ取得部340は、回答文生成部320により生成された回答文を音声化するための音素データを、対応するエージェントの音素記憶部40から取得する。例えば、キャラクターA対話処理部32の場合、キャラクターA音素DB42から、回答文データをキャラクターAの音声で再生するための音素データを取得する。そして、対話処理部300は、生成した回答文データおよび取得した音素データを音声エージェントI/F20に出力する。
 音素記憶部40は、エージェント毎の音声を生成するための音素データベースを格納する。音素記憶部40は、ROM(Read Only Memory)およびRAM(Random Access Memory)により実現され得る。図3に示す例では、基本音素DB41、キャラクターA音素DB42、人物B音素DB43、人物C音素DB44を格納する。各音素DBには、音素データとして、例えば音素片とその制御情報である韻律モデルが記憶されている。
 会話DB生成部50は、対話処理部300の会話DB330を生成する機能を有する。例えば会話DB生成部50は、想定される質問文データを収集し、各質問に対応する回答文データを収集した後に、質問文データと回答文データとを組にして保存する。そして、会話DB生成部50は、所定数の会話データ(質問文データと回答文データとの組、例えば100組)が集まったら、エージェントの会話データセットとして会話DB330に登録する。
 音素DB生成部60は、音素記憶部40に格納されている音素DBを生成する機能を有する。例えば音素DB生成部60は、所定のテキストを読み上げた音声情報を解析して、音素片とその制御情報である韻律モデルに分解し、所定数以上の音声情報が収集できたら音素データとして音素DBに登録する処理を行う。
 広告挿入処理部70は、エージェントの対話に広告情報を挿入する機能を有する。挿入する広告情報は、広告DB72から抽出し得る。広告DB72には、企業等の提供側(ベンダー、サプライヤー)から依頼された広告情報(例えばテキスト、画像、音声等の広告内容、広告主、広告期間、広告対象者等の情報)が登録されている。
 フィードバック取得処理部80は、エージェントの対話に、フィードバックを取得するための質問を挿入し、ユーザからフィードバックを得るための機能を有する。
 以上、本実施形態によるエージェントサーバ2の構成について具体的に説明した。なお、本実施形態によるエージェントサーバ2の構成は、図3に示す例に限定されない。例えば、エージェントサーバ2が有する各構成は、各々ネットワーク上の他サーバで構成されていてもよい。
 続いて、本実施形態による通信制御システムの基本的な動作処理について図5~図14を参照して説明する。
 <<3.システム動作処理>>
 <3-1.会話データ登録処理>
 図5は、本実施形態による会話DB330の生成処理を示すフローチャートである。図5に示すように、まず、会話DB生成部50は、想定される質問文を保存する(ステップS103)。
 次に、会話DB生成部50は、質問文に対応する(対の)回答文を保存する(ステップS106)。
 次いで、会話DB生成部50は、質問文と回答文のペア(会話データとも称す)が所定数集まったか否かを判断する(ステップS109)。
 そして、質問文と会話文のペアが所定数集まった場合(ステップS109/Yes)、会話DB生成部50は、質問文および回答文の多数のペアから成るデータセットを会話DB330に登録する(ステップS112)。質問文および回答文のペアの一例としては、例えば下記のようなものが想定される。
 質問文および回答文のペア例
 ペア1
  質問文:おはよう。
  回答文:今日の調子はどうですか?
 ペア2
  質問文:今日の天気は?
  回答文:今日の天気は○○です。
 このようなペアが、会話データとして会話DB330に登録され得る。
 <3-2.音素DB生成処理>
 図6は、本実施形態による音素DBの生成処理を示すフローチャートである。図6に示すように、まず、音素DB生成部60は、例文の表示を行う(ステップS113)。例文の表示は、例えば図示しない情報処理端末のディスプレイに、音素データ生成のために必要な例文を表示する。
 次に、音素DB生成部60は、例文を読み上げた音声を録音し(ステップS116)、録音音声を分析する(ステップS119)。例えば、エージェントの音声を担当する人物により読み上げられた音声情報が情報処理端末のマイクロホンにより収集され、音素DB生成部60がこれを受信し、記憶し、さらに音声分析を行う。
 次いで、音素DB生成部60は、音声情報に基づいて、韻律モデルを生成する(ステップS122)。韻律モデルとは、音声の韻律的特徴(例えば音の高低、音の強弱、発話速度等)を示す韻律パラメータを抽出するものであって、個人毎に異なる。
 次に、音素DB生成部60は、音声情報に基づいて、音素片(音素データ)を生成する(ステップS125)。
 次いで、音素DB生成部60は、韻律モデルおよび音素片を保存する(ステップS128)。
 続いて、音素DB生成部60は、韻律モデルおよび音素片が所定数集まったか否かを判断する(ステップS131)。
 そして、韻律モデルおよび音素片が所定数集まった場合(ステップS131/Yes)、音素DB生成部60は、韻律モデルおよび音素片を、所定のエージェント用の音素データベースとして音素記憶部40に登録する(ステップS134)。
 <3-3.対話制御処理>
 図7は、本実施形態による対話制御処理を示すフローチャートである。図7に示すように、まず、音声エージェントI/F20は、ユーザの質問音声およびエージェントIDを取得したか否かを確認する(ステップS143)。エージェントIDは、キャラクターA、人物B、人物Cといった特定のエージェントを示す識別情報である。ユーザは、エージェント毎の音素データを購入することができ、例えば購入処理時に購入したエージェントのIDがクライアント端末1に保存される。
 次に、ユーザの質問音声およびエージェントIDを取得すると(ステップS146/Yes)、音声エージェントI/F20は、質問音声を音声認識し、テキスト化する(ステップS149)。音声エージェントI/F20は、テキスト化した質問文を、エージェントIDで指定された特定エージェントの対話処理部に出力する。例えば「エージェントID:キャラクターA」の場合、音声エージェントI/F20は、テキスト化した質問文をキャラクターA対話処理部32に出力する。
 次いで、対話処理部30は、エージェントIDで指定された特定エージェントの会話DBから、テキスト化した質問文と一致する質問文を検索する(ステップS152)。
 次に、一致する質問があった場合(ステップS155/Yes)、キャラクターA対話処理部32は、質問に対応する(対になって保存されている)回答文データを特定エージェントの会話DBから取得する(ステップS158)。
 一方、一致する質問がなかった場合(ステップS155/No)、基本対話処理部31の会話DBから、テキスト化した質問文と一致する質問文が検索される(ステップS161)。
 一致する質問文があった場合(ステップS161/Yes)、基本対話処理部31は、質問に対応する(対になって保存されている)回答文データを基本対話処理部31の会話DBから取得する(ステップS167)。
 一方、一致する質問文がなかった場合(ステップS164/No)、基本対話処理部31は、一致する質問文が無い場合の回答文データ(例えば、「質問が解りません」といった回答文)を取得する(ステップS170)。
 次いで、キャラクターA対話処理部32により、エージェントIDで指定された特定エージェントの音素DB(ここでは、キャラクターA音素DB42)を参照し、回答文データの音声を生成するためのキャラクターAの音素データが取得される(ステップS173)。
 次に、取得された音素データと回答文データが音声エージェントI/F20に出力される(ステップS176)。
 そして、音声エージェントI/F20は、回答文データ(テキスト)を音素データを用いて音声化(音声合成)し、クライアント端末1に送信する(ステップS179)。クライアント端末1では、キャラクターAの音声で回答文が再生される。
 <3-4.会話DB更新処理>
 次に、各対話処理部300の会話DB330の更新処理について説明する。本実施形態では、ユーザとの会話によって会話DB330を成長させることが可能である。
 まず、会話DB330のデータ構成例について図8を参照して補足説明を行う。図8は、本実施形態による会話DB330のデータ構成例について説明する図である。図8に示すように、各会話DB330は、個人化レイヤー331と共通レイヤー332という2つのレイヤーを有する。例えばキャラクターA用会話DB330Aの場合、共通レイヤー332Aには、キャラクターAの性格や特徴が反映された会話データが保持される。一方、個人化レイヤー331Aには、ユーザとの会話により当該ユーザ向けにカスタマイズされた会話データが保持される。すなわち、キャラクターA音素DB42およびキャラクターA対話処理部32がセットでユーザに提供(販売)されるところ、あるユーザXと、ユーザYは、最初は同じキャラクターAと対話を行う(共通レイヤー332Aに保持されている会話データが使用される)が、対話を続けるにつれて、各ユーザ向けにカスタマイズされた会話データが、ユーザ毎の個人化レイヤー331Aに蓄積される。これにより、ユーザX、ユーザYそれぞれの好みに応じたキャラクターAとの対話を提供できるようになる。
 またエージェント「人物B」が、キャラクターAのような特定の性格を有さない平均的な世代別の人物の場合も、会話データがユーザ向けにカスタマイズされ得る。すなわち、例えば「人物B」が『20代の人物』の場合、共通レイヤー332Bには20代の平均的な会話データが保持され、ユーザとの対話を続けることでカスタマイズされた会話データがユーザ毎の個人化レイヤー331Bに保持される。また、ユーザは、人物Bの音声として「男性」、「女性」、「高い声」、「低い声」といった好きな音素データを人物B音素DB43から選択し、購入することも可能である。
 このような会話DB330のカスタマイズを行う際の具体的な処理について、図9を参照して説明する。図9は、本実施形態による会話DB330の更新処理を示すフローチャートである。
 図9に示すように、まず、音声エージェントI/F20は、クライアント端末1からユーザの質問音声を取得(受信)し、これを音声認識によりテキスト化する(ステップS183)。テキスト化されたデータ(質問文データ)は、エージェントIDにより指定されている特定エージェントの対話処理部(ここでは、例えばキャラクターA対話処理部32)に出力される。
 次に、キャラクターA対話処理部32は、質問文データが所定のコマンドであるか否かを判断する(ステップS186)。
 次いで、所定のコマンドである場合(ステップS186/Yes)、キャラクターA対話処理部32は、ユーザ指定の回答文データを、会話DB330Aの個人化レイヤー331Aに質問文データと対で登録する(ステップS189)。所定のコマンドとは、例えば「NG」、「設定」といった言葉であってもよい。例えば以下のような会話の流れにより、キャラクターAの会話DBをカスタマイズすることができる。
 ユーザ:「おはよう」
 キャラクターA:「おはよう」
 ユーザ:「NG。元気で頑張ってと答えて」
 キャラクターA:「元気で頑張って」
 上記の会話の流れでは、『NG』が所定のコマンドであって、キャラクターA対話処理部32は、ユーザから『NG』と発せられた後、ユーザ指定の回答文データ『元気で頑張って』を、質問文データ『おはよう』と対にして会話DB330Aの個人化レイヤー331Aに登録する。
 一方、所定のコマンドでない場合(ステップS186/No)、キャラクターA対話処理部32は、質問文データと対になって保持されている回答文データをキャラクターA用会話DB330Aから検索する。問文データと対になって保持されている回答文データがキャラクターA用会話DB330Aに保持されていない場合、すなわち、ユーザの質問が回答文の無い質問であった場合(ステップS192/Yes)、キャラクターA対話処理部32は、ユーザ指定の回答文データを、質問文と対にして個人化レイヤー331Aに登録する(ステップS195)。例えば以下のような会話の流れにより、キャラクターAの会話DBをカスタマイズすることができる。
 ユーザ:「元気?」
 キャラクターA:「質問がわかりません」(該当する回答が無い場合の回答データ例)
 ユーザ:「『元気?』と聞いたら、『今日も元気だよ』と答えて」
 キャラクターA:「今日も元気だよ」
 上記会話の流れでは、『元気?』と対になって保持される回答文データが無いため、該当する回答が無い場合の回答データ例である『質問がわかりません』がキャラクターA対話処理部32により取得され、対応するキャラクターAの音素データと共に音声エージェントI/F20に出力され、クライアント端末1で再生される。次いで、ユーザ指定の回答文『今日も元気だよ』が入力されると、キャラクターA対話処理部32は、質問文データ『元気?』と対にして個人化レイヤー331Aに登録する。
 なお、回答文の有る質問であった場合(ステップS192/No)、キャラクターA対話処理部32は、当該回答文データを取得し、対応するキャラクターAの音素データと共に音声エージェントI/F20に出力し、クライアント端末1で回答文がキャラクターAの音声で再生される(ステップS198)。
 次いで、個人化レイヤーから共通レイヤーへの会話データ移行について、図10を参照して説明する。図10は、本実施形態による個人化レイヤーから共通レイヤーへの会話データ移行処理を示すフローチャートである。ここでは、一例としてキャラクターA対話処理部32の個人化レイヤー331Aから共通レイヤー332Aへの会話データ移行処理について説明する。
 図10に示すように、まず、キャラクターA対話処理部32は、ユーザ毎の個人化レイヤー331Aを定期的にサーチし(ステップS203)、実質的に同じ内容の会話ペア(質問文データと回答文データのペア)を抽出する(ステップS206)。実質的に同じ内容の会話ペアとは、例えば質問文「元気?」と回答文「今日も元気だよ!」のペアと、質問文「元気ですか?」と回答文「今日も元気だよ!」のペアは、質問文が丁寧語か否かの違いのみであって、実質的に同じ内容の会話ペアと判断され得る。
 次に、キャラクターA対話処理部32は、ユーザ毎の個人化レイヤー331Aから会話ペアが所定数以上抽出された場合(ステップS209/Yes)、当該会話ペアを(ユーザ毎の)共通レイヤー332Aに登録する(ステップS212)。
 このように、ユーザ毎の個人化レイヤー331において実質的に内容が同じ会話ペアを共通レイヤー332に移行することで、共通レイヤー332を成長(会話ペアを拡充)させることが可能となる。
 また、本実施形態では、特定エージェントの会話DB(具体的には共通レイヤー)から基本対話用の会話DBへ会話データを移行して基本対話用の会話DBを成長させることも可能である。図11は、本実施形態による基本対話用会話DB330Fへの会話データの移行について説明する図である。例えば、ユーザXおよびユーザYが各々エージェント「キャラクターA」を選択(購入)し、ユーザZがエージェント「人物B」を選択(購入)している場合、図11に示すように、ユーザXのキャラクターA用会話DB330A-X、ユーザYのキャラクターA用会話DB330A-Y、およびユーザZの人物B用会話DB330B-Zが対話処理部30に存在し得る。この場合、各個人化レイヤー331A-X、331A-Y、331B-Zには、各ユーザX、ユーザY、ユーザZとの対話に応じて独自の(カスタマイズされた)会話ペアが登録されていく(図9参照)。次いで、同じエージェントの個人化レイヤー331A-X、331A-Yにおいて実質同じ会話ペアが所定数あると、ユーザ毎の共通レイヤー332A-X、332A-Yに各々登録される(図10参照)。
 そして、対話処理部30は、複数のエージェント(異なるエージェントを含んでもよい)の共通レイヤー332A-X、332A-Y、332B-Zから実質同じ会話ペアが所定数以上抽出された場合、上位の基本対話用会話DB330Fに会話ペアを移行する。基本対話用会話DB330Fは、基本対話処理部31が有する会話DBである。これにより、基本対話用会話DB330Fを成長(会話ペアを拡充)させることが可能となる。かかるデータ移行処理について、図12を参照して具体的に説明する。図12は、本実施形態による基本対話用DB330Fへの会話データ移行処理を示すフローチャートである。
 図12に示すように、まず、対話処理部30は、定期的に会話DB330の複数の共通レイヤー332をサーチし(ステップS223)、実質同じ会話ペアを抽出する(ステップS226)。
 次に、対話処理部30は、複数の共通レイヤー332から実質同じ会話ペアが所定数以上抽出された場合(ステップS229/Yes)、当該会話ペアを基本対話用会話DB330Fに登録する(ステップS232)。
 このように、複数のエージェントにおける会話DB330の共通レイヤー332において実質的に内容が同じ会話ペアを、基本対話用会話DB330Fに移行することで、基本対話用会話DB330Fを成長(会話ペアを拡充)させることが可能となる。
 <3-5.広告出力処理>
 続いて、広告挿入処理部70による広告情報の挿入処理について図13~図14を参照して説明する。本実施形態では、広告挿入処理部70により、エージェントの発言に広告DB72に格納されている広告情報の挿入を行うことが可能である。広告DB72には、予め広告情報が登録され得る。図13は、本実施形態による広告DB72に登録されている広告情報の一例を示す図である。
 図13に示すように、広告情報621は、例えばエージェントID、質問文、広告内容、条件、および確率を含む。エージェントIDは広告内容を発言するエージェントを指定し、質問文は広告内容を挿入するトリガとなるユーザの質問文を指定し、広告内容はエージェントの対話に挿入する広告文章である。また、条件は、広告内容を挿入する条件であって、確率は広告内容を挿入する確率を示す。例えば図13の1段目に示す例では、エージェント「キャラクターA」との対話において、30歳以下のユーザからの質問文に「チョコレート」という単語が含まれている場合に、「BB社の新しく発売されたチョコはミルクがたくさん入っていて美味しいよ」といった広告内容が回答文に挿入される。また、トリガとなる質問文が発せられた際に毎回広告内容を挿入するとユーザが煩わしく思ってしまうこともあるため、本実施形態では、広告を挿入する確率を設定するようにしてもよい。かかる確率は広告料に応じて決定されてもよい。例えば広告料が高いほど確率が高く設定される。
 このような広告内容の挿入処理について図14を参照して具体的に説明する。図14は、本実施形態による広告内容の挿入処理を示すフローチャートである。
 図14に示すように、まず、広告挿入処理部70は、ユーザとエージェントとの対話(具体的には、対話処理部30による対話処理)を監視する(ステップS243)。
 次に、広告挿入処理部70は、ユーザとエージェントとの対話に、広告DB72に登録されている質問文と同一の内容の質問文が登場したか否かを判断する(ステップS246)。
 次いで、同一の内容の質問文が登場した場合(ステップS246/Yes)、広告挿入処理部70は、該当する質問文と対応付けられている広告挿入の条件および確率を確認する(ステップS249)。
 続いて、広告挿入処理部70は、条件および確率に基づいて、現在、広告が出せる状態であるか否かを判断する(ステップS252)。
 次に、広告が出せる状態である場合(ステップS252/Yes)、広告挿入処理部70は、対話処理部30による対話処理を一時停止させ(ステップS255)、広告内容を対話に挿入する(ステップS258)。具体的には、例えばユーザの質問文に対するエージェントの回答文に、広告内容を挿入させる。
 そして、広告内容を含む対話(会話文データ)が対話処理部30から音声エージェントI/F20に出力され、音声エージェントI/F20からクライアント端末1に送信され、エージェントの音声で再生される(ステップS261)。具体的には、例えば以下のような会話により、キャラクターAの発言としてユーザに広告内容を提示することができる。
 ユーザ:「おはよう」
 キャラクターA:「おはよう!今日の調子はどうですか?」
 ユーザ:「元気だよ。何か美味しい物食べたいな」
 キャラクターA:「CC店の焼肉が美味しいらしいよ」
 上記会話では、まず、ユーザの質問文「おはよう」に対して、キャラクターAの会話DBから検索された対応する回答文「おはよう!今日の調子はどうですか?」が音声出力される。次いで、ユーザの質問文「元気だよ。何か美味しい物食べたいな」に、広告挿入のトリガとなる質問文「何か美味しい物食べたいな」が含まれているため(図13の2段目参照)、広告挿入処理部70は広告挿入処理を行い、キャラクターAの音声で広告内容「CC店の焼肉が美味しいらしいよ」といった回答文が出力される。
 以上、本実施形態による通信制御システムの基本的な動作処理として、会話データ登録処理、音素DB生成処理、対話制御処理、会話DB更新処理、および広告挿入処理について説明した。
 (補足)
 なお、本実施形態による対話処理部300の構成は、図4に示す例に限定されない。図15は、本実施形態の応用例による対話処理部300’の構成を示す図である。図15に示すように、対話処理部300’は、言語解析部311をさらに有する点が、図4に示す構成例と異なる。言語解析部311は、音声エージェントI/F20によりテキスト化されたユーザの質問文データの言語解析を行い、コマンドの解釈を行う。回答文生成部320は、言語解析部311により解釈されたコマンドに応じて回答文データを生成する。また、対話処理部300’は、言語解析部311により解釈されたコマンドに応じて、コマンドに従った処理を行うようエージェントサーバ2の各構成を制御する。例えば、メッセージ送信のコマンドの場合、対話処理部300’は、ユーザからのメッセージ送信依頼に対する回答文データを生成し、さらに、後述するメッセージ送受信制御部701により実行されるメッセンジャー機能に従って、所定の宛先へ送信するメッセージを音声エージェントI/Fに出力する。
 また、本実施形態による広告挿入処理は、上述した例に限定されない。本実施形態による広告挿入処理部70は、ユーザの潜在的な要求を引き出して、より効果的な広告情報の提示を行うことが可能である。以下、図16~図23を参照して具体的に説明する。
 <<4.広告挿入処理>>
 <4-1.構成>
 図16は、本実施形態による広告挿入処理部70の構成例を示す図である。図16に示すように、広告挿入処理部70は、メッセージ送受信制御部701、閲覧履歴取得部702、投稿履歴取得部703、スケジュール管理部704、ソーシャルグラフ解析部705、言語解析部706、潜在顧客抽出部707、広告マッチング部708、広告情報出力制御部709、ユーザ情報DB720、スケジュールDB721、ソーシャルグラフDB722、潜在顧客DB723、広告進行ステータスDB724を有する。
 メッセージ送受信制御部701は、メッセンジャー機能を実現し、ユーザのクライアント端末1と他装置(例えば他ユーザのクライアント端末1)との間におけるメッセージの送受信を制御する。メッセージ送受信制御部701は、メッセージ送受信に関するエージェントの応答を対話処理部30に依頼し、対話処理部30および音声エージェントI/Fにおいてユーザ指定のエージェントによりメッセージの送受信に関する応答音声が生成され、クライアント端末1で再生される。かかるメッセージ送受信制御については、図17~図18を参照して説明する。
 閲覧履歴取得部702は、インターネットの閲覧履歴を取得する。例えばクライアント端末1でユーザがエージェントに依頼してインターネットの閲覧を行う際、エージェントとの対話がエージェントサーバ2で制御される。閲覧履歴取得部702は、対話処理部30を監視し、ユーザのインターネットの閲覧履歴を取得し得る。
 投稿履歴取得部703は、インターネットへのユーザによる音声、テキスト、画像の投稿履歴を取得する。例えばクライアント端末1でユーザがエージェントに依頼してインターネットへの投稿(SNSへの投稿等)を行う際、エージェントとの対話がエージェントサーバ2で制御される。投稿履歴取得部703は、対話処理部30を監視し、ユーザのインターネットへの投稿履歴を取得し得る。なお投稿履歴取得部703は、SNSサーバへアクセスして投稿履歴を取得することも可能である。
 スケジュール管理部704は、ユーザのスケジュール情報の管理を行う。各ユーザのスケジュール情報は、スケジュールDB721に格納される。例えばクライアント端末1でユーザがエージェントに依頼してスケジュールの登録や確認を行う際、エージェントとの対話がエージェントサーバ2で制御される。スケジュール管理部704は、対話処理部30から出力されたスケジュールの登録依頼や確認依頼に基づいて、ユーザのスケジュール管理を行う。
 なお、上述したメッセージ送受信制御部701、閲覧履歴取得部702、投稿履歴取得部703、スケジュール管理部704、およびスケジュールDB721は、それぞれ独立した外部のサーバシステムにより実現されてもよい。
 ユーザ情報DB720は、ユーザによるメッセージの送受信、ユーザのインターネット閲覧履歴、ユーザの投稿履歴、およびユーザのスケジュール情報といったユーザ情報(ユーザのクライアント端末またはサービスの利用状況)を、メッセージ送受信制御部701、閲覧履歴取得部702、投稿履歴取得部703、およびスケジュールDB721から抽出し、蓄積する。これらは日々蓄積され得る。
 ソーシャルグラフ解析部705は、ユーザ情報DB720に蓄積されたユーザ情報に基づいて、ユーザの交流関係を解析し、解析結果(ソーシャルグラフ)をソーシャルグラフDB722に保存する。
 言語解析部706は、ユーザ情報DB720からユーザが送受信したメッセージや投稿内容の言語解析を行い、ユーザの嗜好を分析する。
 潜在顧客抽出部707は、言語解析部706による言語解析により分析されたユーザの嗜好に基づいて、潜在顧客の抽出(潜在顧客であるか否かの判定)を行う。そして、潜在顧客抽出部707は、抽出した潜在顧客の情報を潜在顧客DB723に保存する。
 広告マッチング部708は、潜在顧客DB723に保持された潜在顧客情報と、広告DB72に格納されている広告情報とのマッチングを行い、潜在顧客に提示する広告を決定する。この際、広告マッチング部708は、商材の効用が複数のユーザに同時にヒットして初めて商品となり得るもの(例えばグループで利用するものや、共同購入を条件としているもの)の場合、ソーシャルグラフDB722を参照して潜在顧客の関係(交流の有無等)を確認し、複数の潜在顧客と広告情報とのマッチングを行うことも可能である。また広告マッチング部708は、マッチング結果を広告進行ステータスDB724に登録する。
 広告情報出力制御部709は、広告マッチング部708によりマッチングされた広告情報をユーザに提示するよう制御する。この際、まず、広告情報出力制御部709は、マッチングされた広告情報への興味を引き出すための誘導メッセージをエージェントの発言としてクライアント端末1でユーザの音声により再生するよう対話処理部30に依頼する。広告情報出力制御部709は、誘導メッセージを行った場合は広告進行ステータスDB724のステータスを更新する。その後、広告情報出力制御部709は、適切なタイミングで広告情報をエージェントの音声でユーザへ提示するよう、対話処理部30に依頼する。このように、本実施形態では、広告商材の潜在顧客に誘導メッセージをエージェントの対話に挿入し、ユーザの広告商材への興味を引き出してから、広告情報をエージェントの対話に挿入して提示することで、広告のヒット率を上げることを可能とする。また、広告情報出力制御部709は、広告情報を送った場合も、広告進行ステータスDB724のステータスを更新する。
 以上、本実施形態による広告挿入処理部70の構成について具体的に説明した。続いて、本実施形態による動作処理について図17~図23を参照して具体的に説明する。
 <4-2.動作処理>
 (4-2-1.メッセージ送受信処理)
 図17は、本実施形態によるメッセージ送信処理を示すフローチャートである。メッセージの送信処理は、メッセージ送受信制御部701により、対話処理部30を通じて行われる。対話処理部30は、メッセージ送受信制御部701の制御に従って、メッセージ送受信をアシストするようエージェントの対話を制御する。
 具体的には、図17に示すように、まず、エージェントサーバ2の音声エージェントI/F20は、ユーザXのクライアント端末1(以下、クライアント端末1xと称す)からユーザXの発話音声(例えば「ユーザYにメッセージ」)を受信する(ステップS303)。
 次に、音声エージェントI/F20は、音声認識を行い、ユーザXの発話音声(質問文データ)をテキスト化する(ステップS306)。
 次いで、音声エージェントI/F20は、テキスト化した質問文データを、エージェントIDで指定された特定エージェントの対話処理部(例えばキャラクターA対話処理部32)に出力し、対話処理部32の言語解析部311により言語解析(コマンド解釈:メッセージの作成)が行われる(ステップS309)。
 次に、回答文生成部320は、コマンドに応じた回答文データ(例えば「ユーザYへのメッセージを作成します。」)を生成する(ステップS312)。
 次いで、音素データ取得部340は、回答文データを音声化するための特定エージェント(例えばキャラクターA)の音素データを取得し、当該音素データと回答文データを音声エージェントI/F20に出力する(ステップS315)。音声エージェントI/F20は回答文データを音声化してクライアント端末1xに送信し、クライアント端末1xにおいて回答文データが特定エージェントの音声で再生される。
 次に、音声エージェントI/F20は、ユーザXがクライアント端末1xに入力した送信メッセージ音声(例えば「今日は面白かったね。送信。」)をクライアント端末1xから受信する(ステップS318)。
 次いで、音声エージェントI/F20は、クライアント端末1xから受信したユーザXの音声(質問文データ)を音声認識(音声のテキスト化)する(ステップS321)。テキスト化された質問文データは、特定エージェントの対話処理部(例えばキャラクターA対話処理部32)に出力される。
 次に、言語解析部311により言語解析(コマンドの解釈:メッセージの送信)が行われる(ステップS324)。
 次いで、コマンドに応じた回答文データ(例えば「『今日面白かったね』を送信します。」)を生成する(ステップS327)。
 次に、回答文データを音声化するための特定エージェント(例えばキャラクターA)の音素データを取得し、当該音素データと回答文データを音声エージェントI/F20に出力する(ステップS330)。音声エージェントI/F20は、回答文データを音声化してクライアント端末1xに送信し、クライアント端末1xにおいて回答文データが特定エージェントの音声で再生される。
 次いで、音声エージェントI/F20は、メッセージ送受信制御部701の制御に従って、テキスト化したユーザY宛のメッセージ(例えば『今日面白かったね』)を、ユーザYのクライアント端末1(以下、クライアント端末1yと称す)へ送信する(ステップS333)。
 次に、メッセージを受信した場合の動作処理について図18を参照して説明する。図18は、本実施形態によるメッセージ受信処理を示すフローチャートである。
 図18に示すように、まず、ユーザYのクライアント端末1yは、エージェントサーバ2を介して、ユーザXからのメッセージを受信する(ステップS343)。この際、テキストベースでクライアント端末1yにメッセージが表示されてもよい。エージェントの対話形式でメッセージを再生する際は、エージェントサーバ2において下記の処理が行われる。
 具体的には、エージェントサーバ2の、ユーザY指定のエージェントIDの対話処理部(例えばキャラクターA対話処理部32)の回答文生成部320は、ユーザXからメッセージが送信されたことを通知するための回答文データ(例えば「ユーザXからメッセージが届きました」)を生成する(ステップS346)。
 次いで、対話処理部30から、特定エージェントの音素データと共に、回答文データが音声エージェントI/F20に出力される(ステップS349)。音声エージェントI/F20は当該回答文データを特定エージェントの音素データで音声化し、クライアント端末1yに送信する。クライアント端末1yでは、特定エージェントの音声で「ユーザXからメッセージが届きました」と再生される。
 次に、エージェントサーバ2の音声エージェントI/F20は、クライアント端末1yから、ユーザYの発話音声(例えば「メッセージを読んで」)を受信する(ステップS352)。
 次いで、音声エージェントI/F20は、ユーザYの発話音声(質問文データ)を音声認識によりテキスト化し、対話処理部30に出力する(ステップS355)。
 次に、特定エージェントの対話処理部(ここでは、キャラクターA対話処理部32)の言語解析部311は、テキスト化された質問文データを言語解析(コマンド解釈:メッセージの読み上げ)する(ステップS358)。
 次いで、回答文生成部320は、解釈されたコマンドに応じた回答文データ(例えば「メッセージを読み上げます。『今日面白かったね』」)を生成する(ステップS361)。
 そして、生成された回答文データは、特定エージェントの音素データと共に音声エージェントI/F20に出力される(ステップS364)。音声エージェントI/F20は、回答文データを音声化してクライアント端末1yに送信し、クライアント端末1yにおいて回答文データが特定エージェントの音声で再生される。
 以上説明したメッセージの送受信処理は、バックグラウンドでメッセージ送受信制御部701により制御され、メッセージの内容がユーザ情報DB720に保存され得る。
 (4-2-2.潜在顧客の抽出処理)
 続いて、広告挿入処理部70による潜在顧客の抽出処理について図19~図20を参照して説明する。図19は、送受信メッセージに基づく潜在顧客の抽出処理を示すフローチャートである。
 図19に示すように、まず、メッセージ送受信制御部701は、一のユーザから他のユーザ宛のメッセージを受信すると(ステップS373)、当該他のユーザにメッセージを送信する(ステップS376)。かかるメッセージ送受信を、特定エージェントの対話(対話処理部30を介した制御)により実現する場合については、図17~図18を参照して上述した通りである。また、メッセージ送受信の内容は、ユーザ情報DB720に登録される。
 次に、ソーシャルグラフ解析部705は、ユーザ情報DB720に登録されているメッセージの送受信履歴を解析し、メッセージのやり取りを行った両ユーザには交流があることを認識する(ステップS379)。
 次いで、ソーシャルグラフ解析部705は、認識した交流関係(解析結果)をソーシャルグラフDB722に保存する。
 次に、言語解析部706は、ユーザ情報DB720に登録されているメッセージを解析し、ユーザの嗜好を分析する(ステップS385)。ここで、ユーザの嗜好とは、潜在的嗜好を含み、曖昧な欲求が把握され得る。例えば、友人とのメッセージで、「どこか行きたいね」「美味しい物食べたいな」「綺麗な景色が見たい」「面白いことしたい」等、目的地や行動が一つに限定されていない欲求を示す文章から『曖昧な欲求』が把握され得る。例えば「どこか行きたい」という文章からは、「山へ行きたい」、「遊園地へ行きたい」、「ハワイへ行きたい」等の様々な欲求が含まれる『曖昧な欲求』と判断され得る。
 次いで、潜在顧客抽出部707は、言語解析部706により曖昧な欲求が把握されたユーザを潜在顧客として抽出する(ステップS388)。
 次に、潜在顧客が抽出できた場合(ステップS392/Yes)、潜在顧客抽出部707は、潜在顧客の情報(「曖昧な欲求」を含む)を潜在顧客DB723に登録する(ステップS395)。
 本実施形態による潜在顧客の抽出は、上述したメッセージに基づく場合に限定されず、閲覧履歴、投稿履歴、スケジュール情報等、各種ユーザ情報に基づいて抽出し得る。ここで、図20を参照して投稿履歴に基づく潜在顧客の抽出について説明する。
 図20は、本実施形態による投稿履歴に基づく潜在顧客の抽出処理を示すフローチャートである。図20に示すように、まず、ソーシャルグラフ解析部705は、ユーザ情報DB720から投稿履歴を取得し(ステップS403)、投稿内容の言語解析を行い(ステップS406)、曖昧な欲求が把握されたユーザを潜在顧客として抽出する(ステップS409)。
 次に、潜在顧客が抽出できた場合(ステップS412/Yes)、潜在顧客抽出部707は、潜在顧客の情報(「曖昧な欲求」を含む)を潜在顧客DB723に登録する(ステップS415)。
 以上、投稿履歴に基づく潜在顧客の抽出について説明した。なお閲覧履歴に基づいて潜在顧客を抽出する際は、ユーザ情報DB720から取得した閲覧履歴に基づいて、閲覧先が「旅行特集」「どこかへ行きたい」といったキーワードを含むWebサイトであれば、「行きたい」という曖昧な欲求であると把握され、「グルメ特集」「美味しい物を食べたい」といったキーワードを含むWebサイトであれば、「食べたい」という曖昧な欲求があると把握され得る。
 また、上述した実施形態では、メッセージ送受信履歴や投稿履歴等がユーザ情報DB720に保存されていることを前提としているが、本実施形態はこれに限定されず、ソーシャルグラフ解析部705が、エージェントサーバ2の通信部を介して他のサーバ(メッセージ履歴サーバ、投稿履歴サーバ、スケジュールサーバ等)から各種ユーザ情報を取得するようにしてもよい。
 (4-2-3.広告出力処理)
 次に、広告出力処理について図21を参照して説明する。図21は、本実施形態による広告出力処理を示すフローチャートである。
 図21に示すように、まず、広告マッチング部708は、潜在顧客DB723に蓄積された「潜在顧客の曖昧な要求」と、広告DB72に保存されている広告情報の広告タイプとを照合する(ステップS423)。ここで、広告DB72に保存されている広告情報の一例を下記表1に示す。
Figure JPOXMLDOC01-appb-T000001
 広告DB72は、図3に示す例ではエージェントサーバ2に含まれているが、独立した外部のサーバであってもよい。広告DB72には、企業等の広告主や代理店が、情報処理装置を介して広告情報を登録することが可能である。広告を登録する際には、広告対象商材の名称、広告タイプ、対象人数、その商品がお得な理由、対象者、商品内容等が入力される。ここでは、複数人での成約が広告主にとっても広告対象商材の顧客にとってもお得である広告も含まれる。例えば、友達グループで利用したときに安くなる旅行や、不特定多数の人が何人か集まると安くなる共同購入等が想定される。また、複数人対象に限定されず、1人以上を対象とする広告も当然含まれる。
 広告マッチング部708は、このような広告情報に含まれる広告タイプと、潜在顧客DB723に蓄積されている「潜在顧客の曖昧な要求」とを照合する。ここで、下記表2に照合テーブルの一例を示す。
Figure JPOXMLDOC01-appb-T000002
 上記表2で示すように、例えば「行きたい」は旅行、「食べたい」はグルメ、「見たい」は旅行、「したい」は旅行・趣味等の広告タイプに照合される。なお、例えば「沖縄グルメ旅」という広告は、曖昧な欲求が「行きたい」であっても「食べたい」であっても対応する広告として照合される。
 次に、上記照合により潜在顧客の曖昧な欲求に対応する広告を発見した場合(ステップS426/Yes)、広告マッチング部708は、広告進行ステータスDB724に、潜在顧客のユーザIDおよび広告IDと対応付けて、広告進行ステータス=1を登録する(ステップS429)。例えば、ユーザXの「どこか行きたい」という曖昧な欲求が登録されている場合、広告マッチング部708は、ユーザXの「どこか行きたい」という欲求に関しては「広告タイプ:旅行」が該当するため、広告ID:1の沖縄グルメ旅と広告ID:3のハワイ旅が対応する広告と判断し、広告進行ステータスDB724において、ユーザXのIDにこれらの広告IDを紐付けて、広告進行ステータス1を登録する。また、ユーザYの「美味しい物を食べたい」という曖昧な欲求が登録されている場合、広告マッチング部708は、「広告タイプ:グルメ」が該当するため、広告ID:1の沖縄グルメ旅と広告ID4の毛ガニが対応する広告と判断し、同様に広告進行ステータスDB724に登録する。このように登録された広告進行ステータスを下記表3に示す。
Figure JPOXMLDOC01-appb-T000003
 ここで、登録される広告進行ステータスの意味は、下記の通りである。
  ・ステータス1:ターゲットを決定した
  ・ステータス2:人数が揃った
  ・ステータス3:誘導した
  ・ステータス4:広告配信した
 次いで、広告マッチング部708は、広告進行ステータスDB724を参照し、広告対象の所定人数が揃ったか否かを確認する(ステップS432)。例えば上記表3に示す例では、2名以上の友人または家族を対象とする広告ID:1の沖縄グルメ旅にユーザXとユーザYがいずれも登録されており、ソーシャルグラフDB722により両者が友人関係であると把握できた場合、広告マッチング部708は、広告ID:1の対象者条件を満たすと判断する。
 次に、人数が揃った場合(ステップS432/Yes)、広告マッチング部708は、広告進行ステータスを「ステータス2:人数が揃った」に更新する(ステップS435)。更新した広告進行ステータスを下記表4に示す。これにより、ユーザXとユーザYが、広告ID:1の広告対象者ペアのターゲットとされる。
Figure JPOXMLDOC01-appb-T000004
 次いで、広告情報出力制御部709は、広告進行ステータスDB724を参照して「ステータス2」が登録されている場合、対象者に誘導メッセージを出力するよう制御し(ステップS438)、誘導メッセージを出力した場合は広告進行ステータスを「ステータス3:誘導した」に更新する(ステップS441)。
例えば、広告情報出力制御部709は、広告情報に含まれる「お得理由」を用いて誘導メッセージを生成してもよい。例えば広告ID:1のお得理由は「沖縄は今の季節が安い」であるため、「沖縄は今の季節が安いらしいですよ!」という誘導メッセージを生成して対話処理部30に出力する。対話処理部30では、当該誘導メッセージに対応する各ユーザの特定エージェントの音素データが取得され、音声エージェントI/F20に出力される。音声エージェントI/F20は、誘導メッセージを各々特定エージェントの音声で音声化し、クライアント端末1x、1yに送信する。クライアント端末1x、1yでは、各々の特定エージェントの音声で、「沖縄は今の季節が安いらしいですよ!」と発言し、沖縄への興味が引き出される。この時点ではまだ両ユーザは広告情報を受け取っていないが、沖縄は今の季節安いという知識を得る。
 次に、広告情報出力制御部709は、所定のタイミングで広告を出力し(ステップS444)、広告進行ステータスを「ステータス4:広告配信した」に更新する(ステップS447)。所定のタイミングとは、例えば誘導メッセージを出力してから1日後であってもよい。広告は、上記誘導メッセージと同様に、対話処理部30を介して音声エージェントI/F20により特定エージェントの音声で音声化され、各クライアント端末1で再生される。
 そして、広告情報出力制御部709は、さらに念押しメッセージを出力してもよい(ステップS429)。例えばエージェントによる誘導メッセージにより沖縄に興味を持っていたユーザXが、後日エージェントから提示された沖縄グルメ旅に興味を示し、クライアント端末1xに表示された広告のリンクをタップして閲覧した場合、ペアとなっているユーザBに対して「先ほど紹介した『沖縄グルメ旅』は、ユーザXさんも興味を持っていますよ!」と念押しのメッセージを通知する。これにより、ユーザYの興味をさらに引き出すことを可能とする。なお、広告情報出力制御部709は、ユーザYが広告リンクをタップして広告を閲覧した場合、ユーザXに対してユーザYが興味を示したことを通知してもよい。これにより、元々は「行きたい」、「食べたい」という異なる曖昧な欲求を持つ友人同士のユーザX、ユーザYであったが、互いに同じ商材(沖縄グルメ旅)に興味を持っていることが分かり、両ユーザ間で連絡を取り合い、当該商材を購入するよう促すことができる。
 以上、本実施形態による広告出力処理について説明した。なお、上述した例では、広告ID:1の広告出力処理について説明したが、不特定多数(他人同士も含まれる)が対象となる共同購入商品(広告ID:2)の広告出力処理についても一例として説明する。
 例えばユーザZがSNSで「冬の買い物をしたい」と投稿し、「季節商品を買いたい」という曖昧な欲求があると把握された場合、広告マッチング部708は、上記表1に示す広告情報を照合し、広告ID:2「布団」と広告ID:4「毛ガニ」を対応付ける。ここでは、広告ID:4は既にユーザYもターゲットになっているほか、他ユーザ10人もターゲットになっていたとする。この場合の広告ステータスの例を下記表5に示す。
 また、広告マッチング部708は、ソーシャルグラフDB722を参照して、広告ID:4の対象となっているユーザY、ユーザZ、さらに他のユーザ10人(不図示)が、友人であることは保存されていない(すなわち他人である)ことを把握する。広告マッチング部708は、広告ID:4の対象者条件は、「不特定多数の10人以上」であるため、条件を満たすと判断し、広告進行ステータスを「ステータス2:人数が揃った」に更新する。
 次いで、広告情報出力制御部709は、「ステータス2」に更新された、広告ID:4の対象者に対して、広告ID:4のお得理由「毛ガニシーズン到来」を用いた誘導メッセージを生成し、対象者に通知する。各対象者のクライアント端末1では、各特定エージェントの音声で、「毛ガニシーズン到来らしいですよ!」と発言され、各ユーザは毛ガニのシーズンであるという知識を得る。この際、広告進行ステータスは「ステータス3:誘導した」に更新される。
 そして、例えば誘導メッセージを通知してから1日後に、広告情報出力制御部709は、広告ID:4の対象となっている各ユーザに、広告ID:4の広告情報を通知する。各ユーザのクライアント端末1では、広告情報が各特定エージェントにより読み上げられる。この際、広告進行ステータスは「ステータス4:広告を配信した」に更新される。
 次いで、広告情報出力制御部709は、各ユーザのうち、事前の誘導メッセージにより毛ガニシーズンに興味を持っていた何人かが、通知された広告に興味を持ち、広告のリンクをタップして閲覧した場合、まだ広告のリンクをタップしていないユーザに対して「先ほどの広告に7人が興味を持ったようですよ!」と念押しメッセージを通知する。このように、他人同士も対象となる共同購入の場合でもあっても、どの程度の人数が興味を示しているかを念押しメッセージで通知することで、商材購入を促すことが可能となる。
 (4-2-4.広告情報受信処理)
 続いて、上述した広告情報を受信したクライアント端末1の動作処理について図22を参照して説明する。図22は、広告情報受信処理を示すフローチャートである。
 図22に示すように、クライアント端末1は、広告情報をエージェントサーバ2から受信する(ステップS463)。ここでは一例として広告情報(テキストデータ)と、音素データ(特定エージェントの音素データ)を受信するとする。
 次に、クライアント端末1は、受信した広告情報を音素データを用いて特定エージェントの音声で音声化(広告音声の生成)し(ステップS466)、クライアント端末1のスピーカから広告音声を再生する(ステップS469)。なお、クライアント端末1は、音声エージェントI/F20で音声化された広告音声を受信して、そのままスピーカから再生することも可能である。
 (4-2-5.誘導/念押しメッセージ受信処理)
 次に、上述した誘導/念押しメッセージを受信したクライアント端末1の動作処理について図22を参照して説明する。図23は、誘導/念押しメッセージ受信処理を示すフローチャートである。
 図23に示すように、クライアント端末1は、誘導/念押しメッセージをエージェントサーバ2から受信する(ステップS473)。ここでは一例として誘導/念押しメッセージ(テキストデータ)と、音素データ(特定エージェントの音素データ)を受信するとする。
 次に、クライアント端末1は、受信した誘導/念押しメッセージを音素データを用いて特定エージェントの音声で音声化(メッセージ音声の生成)し(ステップS476)、クライアント端末1のスピーカから誘導/念押しメッセージを再生する(ステップS479)。なお、クライアント端末1は、音声エージェントI/F20で音声化された誘導/念押しメッセージ音声を受信して、そのままスピーカから再生することも可能である。
  <<5.まとめ>>
 上述したように、本開示の実施形態による通信制御システムでは、ユーザの潜在的な要求を引き出して、より効果的な広告情報の提示を行うことが可能となる。
 これにより、ユーザの曖昧な欲求から潜在顧客を抽出し、効果的な広告効果を得ることができる。また、グループで利用するものや共同購入に関しても、効率的に対象者をマッチングし、購入のヒット率を上げることができる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上述したクライアント端末1、またはエージェントサーバ2に内蔵されるCPU、ROM、およびRAM等のハードウェアに、クライアント端末1、またはエージェントサーバ2の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
 また、上述した実施形態では、インターネット上のエージェントサーバ2で各種機能が実現される構成を示したが、本実施形態はこれに限定されず、図3に示すエージェントサーバ2の構成のうち少なくとも一部が、ユーザのクライアント端末1(スマートホンやウェアラブル端末等)にあってもよい。また、図3に示すエージェントサーバ2の構成全てがクライアント端末1に設けられ、クライアント端末1で全ての処理を行えるようにしてもよい。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 ユーザのクライアント端末またはサービスの利用状況を収集する通信部と、
 前記通信部を介して収集した前記ユーザの利用状況に応じて嗜好を分析し;
 前記嗜好の分析結果に応じて、少なくとも一のユーザが、特定の商材の潜在顧客であると判定すると、前記通信部を介して、前記商材への興味を引き出すための誘導メッセージを、前記クライアント端末のエージェントの発言として出力するよう、当該ユーザのクライアント端末に送信し;
 送信後、所定のタイミングで、前記通信部を介して前記商材をプロモーションするための広告を前記クライアント端末のエージェントの発言として出力するよう、当該ユーザのクライアント端末に送信するよう制御する制御部と、
を備える、通信システム。
(2)
 前記制御部は、
 前記嗜好の分析結果に応じて、複数のユーザが特定の商材の潜在顧客であると判定すると、前記通信部を介して、前記商材への興味を引き出すための誘導メッセージをクライアント端末のエージェントの発言として出力させるために、当該複数のユーザのクライアント端末に送信し、
 送信後、所定のタイミングで、前記通信部を介して、前記商材をプロモーションするための広告を、前記クライアント端末のエージェントの発言として出力させるために、当該複数のユーザのクライアント端末に送信するよう制御する、前記(1)に記載の通信システム。
(3)
 前記制御部は、前記特定の商材の属性に応じた条件が満たされた時、前記通信部を介して、前記誘導メッセージを当該複数のユーザのクライアント端末に送信するように制御する、前記(2)に記載の通信システム。
(4)
 前記特定の商材は、ある一定以上の顧客が集まらないと購入できないものである、前記(3)に記載の通信システム。
(5)
 前記制御部は、
 前記ユーザのサービスの利用状況に応じて、ユーザ同士の関係を示すソーシャルグラフを推定し、
 前記ソーシャルグラフに基づき、前記特定の商材の潜在顧客である複数のユーザが知人であると判定した時に、前記通信部を介して、前記誘導メッセージを当該複数のユーザのクライアント端末に送信するように制御する、前記(2)~(4)のいずれか1項に記載の通信システム。
(6)
 前記制御部は、前記特定の商材の潜在顧客である複数のユーザがターゲットの人数に達成した時に、前記通信部を介して、前記誘導メッセージを当該複数のユーザのクライアント端末に送信するように制御する、前記(2)~(5)のいずれか1項に記載の通信システム。
(7)
 前記制御部は、
 所定のタイミングで、前記通信部を介して、前記商材をプロモーションするための広告を送信した後、前記ユーザのサービスの利用状況により推定されたユーザ同士の関係を示すソーシャルグラフに基づき、当該広告に知人も興味を示していることをクライアント端末のエージェントの発言として出力させるよう、当該複数のユーザのクライアント端末に送信するように制御する、前記(2)~(5)のいずれか1項に記載の通信システム。
(8)
 前記制御部は、
 所定のタイミングで、前記通信部を介して、前記商材をプロモーションするための広告を送信した後、当該広告に何人のユーザが興味を示しているかを、クライアント端末のエージェントの発言として出力させるよう、当該複数のユーザのクライアント端末に送信するように制御する、前記(2)~(7)のいずれか1項に記載の通信システム。
(9)
 プロセッサが、
 ユーザのクライアント端末またはサービスの利用状況を通信部により収集することと、
 前記通信部を介して収集した前記ユーザの利用状況に応じて嗜好を分析し;
 前記嗜好の分析結果に応じて、少なくとも一のユーザが、特定の商材の潜在顧客であると判定すると、前記通信部を介して、前記商材への興味を引き出すための誘導メッセージを、前記クライアント端末のエージェントの発言として出力するよう、当該ユーザのクライアント端末に送信し;
 送信後、所定のタイミングで、前記通信部を介して前記商材をプロモーションするための広告を前記クライアント端末のエージェントの発言として出力するよう、当該ユーザのクライアント端末に送信するよう制御することと、
を含む、通信制御方法。
  1  クライアント端末
  2  エージェントサーバ
  30 対話処理部
   300 対話処理部
   310 質問文検索部
   320 回答文生成部
   330  会話DB
   340  音素データ取得部
  31 基本対話処理部
  32 キャラクターA対話処理部
  33 人物B対話処理部
  34 人物C対話処理部
  40 音素記憶部
  41 基本用音素DB
  42  キャラクターA音素DB
  43  人物B音素DB
  44  人物C音素DB
  50  会話DB生成部
  60  音素DB生成部
  70  広告挿入処理部
   701  メッセージ送受信制御部
   702  閲覧履歴取得部
   703  投稿履歴取得部
   704  スケジュール管理部
   705  ソーシャルグラフ解析部
   706  言語解析部
   707  潜在顧客抽出部707
   708  広告マッチング部
   709  広告情報出力制御部
   720  ユーザ情報DB
   721  スケジュールDB
   722  ソーシャルグラフDB
   723  潜在顧客DB
   724  広告進行ステータスDB
  72  広告DB
  80 フィードバック取得処理部
  3  ネットワーク
  10  エージェント

Claims (9)

  1.  ユーザのクライアント端末またはサービスの利用状況を収集する通信部と、
     前記通信部を介して収集した前記ユーザの利用状況に応じて嗜好を分析し;
     前記嗜好の分析結果に応じて、少なくとも一のユーザが、特定の商材の潜在顧客であると判定すると、前記通信部を介して、前記商材への興味を引き出すための誘導メッセージを、前記クライアント端末のエージェントの発言として出力するよう、当該ユーザのクライアント端末に送信し;
     送信後、所定のタイミングで、前記通信部を介して前記商材をプロモーションするための広告を前記クライアント端末のエージェントの発言として出力するよう、当該ユーザのクライアント端末に送信するよう制御する制御部と、
    を備える、通信システム。
  2.  前記制御部は、
     前記嗜好の分析結果に応じて、複数のユーザが特定の商材の潜在顧客であると判定すると、前記通信部を介して、前記商材への興味を引き出すための誘導メッセージをクライアント端末のエージェントの発言として出力させるために、当該複数のユーザのクライアント端末に送信し、
     送信後、所定のタイミングで、前記通信部を介して、前記商材をプロモーションするための広告を、前記クライアント端末のエージェントの発言として出力させるために、当該複数のユーザのクライアント端末に送信するよう制御する、請求項1に記載の通信システム。
  3.  前記制御部は、前記特定の商材の属性に応じた条件が満たされた時、前記通信部を介して、前記誘導メッセージを当該複数のユーザのクライアント端末に送信するように制御する、請求項2に記載の通信システム。
  4.  前記特定の商材は、ある一定以上の顧客が集まらないと購入できないものである、請求項3に記載の通信システム。
  5.  前記制御部は、
     前記ユーザのサービスの利用状況に応じて、ユーザ同士の関係を示すソーシャルグラフを推定し、
     前記ソーシャルグラフに基づき、前記特定の商材の潜在顧客である複数のユーザが知人であると判定した時に、前記通信部を介して、前記誘導メッセージを当該複数のユーザのクライアント端末に送信するように制御する、請求項2に記載の通信システム。
  6.  前記制御部は、前記特定の商材の潜在顧客である複数のユーザがターゲットの人数に達成した時に、前記通信部を介して、前記誘導メッセージを当該複数のユーザのクライアント端末に送信するように制御する、請求項2に記載の通信システム。
  7.  前記制御部は、
     所定のタイミングで、前記通信部を介して、前記商材をプロモーションするための広告を送信した後、前記ユーザのサービスの利用状況により推定されたユーザ同士の関係を示すソーシャルグラフに基づき、当該広告に知人も興味を示していることをクライアント端末のエージェントの発言として出力させるよう、当該複数のユーザのクライアント端末に送信するように制御する、請求項2に記載の通信システム。
  8.  前記制御部は、
     所定のタイミングで、前記通信部を介して、前記商材をプロモーションするための広告を送信した後、当該広告に何人のユーザが興味を示しているかを、クライアント端末のエージェントの発言として出力させるよう、当該複数のユーザのクライアント端末に送信するように制御する、請求項2に記載の通信システム。
  9.  プロセッサが、
     ユーザのクライアント端末またはサービスの利用状況を通信部により収集することと、
     前記通信部を介して収集した前記ユーザの利用状況に応じて嗜好を分析し;
     前記嗜好の分析結果に応じて、少なくとも一のユーザが、特定の商材の潜在顧客であると判定すると、前記通信部を介して、前記商材への興味を引き出すための誘導メッセージを、前記クライアント端末のエージェントの発言として出力するよう、当該ユーザのクライアント端末に送信し;
     送信後、所定のタイミングで、前記通信部を介して前記商材をプロモーションするための広告を前記クライアント端末のエージェントの発言として出力するよう、当該ユーザのクライアント端末に送信するよう制御することと、
    を含む、通信制御方法。
PCT/JP2016/081987 2016-01-25 2016-10-28 通信システムおよび通信制御方法 WO2017130498A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020187016852A KR20180104601A (ko) 2016-01-25 2016-10-28 통신 시스템 및 통신 제어 방법
CN201680079319.5A CN108475282B (zh) 2016-01-25 2016-10-28 通信系统和通信控制方法
EP16888083.9A EP3410309A1 (en) 2016-01-25 2016-10-28 Communication system and communication control method
US15/770,297 US11144955B2 (en) 2016-01-25 2016-10-28 Communication system and communication control method
JP2017563696A JP6888557B2 (ja) 2016-01-25 2016-10-28 通信システムおよび通信制御方法、ならびに、プログラム
CN202210197087.0A CN114663131A (zh) 2016-01-25 2016-10-28 通信系统、通信控制方法和计算机可读存储介质
US17/473,861 US20210406956A1 (en) 2016-01-25 2021-09-13 Communication system and communication control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016011663 2016-01-25
JP2016-011663 2016-01-25

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/770,297 A-371-Of-International US11144955B2 (en) 2016-01-25 2016-10-28 Communication system and communication control method
US17/473,861 Continuation US20210406956A1 (en) 2016-01-25 2021-09-13 Communication system and communication control method

Publications (1)

Publication Number Publication Date
WO2017130498A1 true WO2017130498A1 (ja) 2017-08-03

Family

ID=59397795

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/081987 WO2017130498A1 (ja) 2016-01-25 2016-10-28 通信システムおよび通信制御方法

Country Status (6)

Country Link
US (2) US11144955B2 (ja)
EP (1) EP3410309A1 (ja)
JP (2) JP6888557B2 (ja)
KR (1) KR20180104601A (ja)
CN (2) CN108475282B (ja)
WO (1) WO2017130498A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110611710A (zh) * 2019-09-11 2019-12-24 王英敏 户外智能广告推广系统及方法
WO2021132088A1 (ja) * 2019-12-25 2021-07-01 ソニーグループ株式会社 情報処理システム、情報処理装置及び情報処理方法
JP2021117581A (ja) * 2020-01-23 2021-08-10 株式会社ミクシィ 情報処理装置及びプログラム
JP2022019397A (ja) * 2020-07-17 2022-01-27 株式会社三鷹ホールディングス ポイントサイネージビジネスシステム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102304701B1 (ko) * 2017-03-28 2021-09-24 삼성전자주식회사 사용자의 음성 입력에 대한 답변을 제공하는 방법 및 장치
EP3968259A1 (en) * 2020-09-15 2022-03-16 Hyosung Tns Inc. Digital desk and image control method using same
JP7333442B1 (ja) 2022-04-15 2023-08-24 東芝テック株式会社 データ処理装置及びプログラム
JP7462368B1 (ja) 2023-11-21 2024-04-05 Spiral.AI株式会社 プログラム、コンピュータ、システムおよび情報処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297626A (ja) * 2001-03-30 2002-10-11 Just Syst Corp 情報提示装置、情報提示プログラム、及び情報提示方法
JP2003263674A (ja) * 2001-12-28 2003-09-19 Japan Tobacco Inc 情報処理装置およびそれを用いた自動販売機システム、広告方法
JP2012226455A (ja) * 2011-04-17 2012-11-15 Petabit Corp キャラクター着ぐるみ及びその使用方法
JP2015082133A (ja) * 2013-10-21 2015-04-27 株式会社ニコン ウェブページ提示システム

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08292786A (ja) * 1995-04-21 1996-11-05 Ricoh Co Ltd 音声合成装置
US5781887A (en) * 1996-10-09 1998-07-14 Lucent Technologies Inc. Speech recognition method with error reset commands
US6707421B1 (en) * 1997-08-19 2004-03-16 Siemens Vdo Automotive Corporation Driver information system
JP4202621B2 (ja) 2001-07-06 2008-12-24 アルパイン株式会社 情報交換システム
JP4737900B2 (ja) * 2001-09-28 2011-08-03 クラリオン株式会社 移動体接近警告システム及び方法、並びに移動体接近警告システムの利用側移動体端末
KR100451185B1 (ko) * 2001-12-15 2004-10-02 엘지전자 주식회사 이동통신 단말기를 이용한 지능형 광고시스템 및 광고방법
US7370002B2 (en) * 2002-06-05 2008-05-06 Microsoft Corporation Modifying advertisement scores based on advertisement response probabilities
JP4411900B2 (ja) 2003-08-08 2010-02-10 ソニー株式会社 電子機器間の相互成長システム、電子機器及びロボット装置
US7949529B2 (en) * 2005-08-29 2011-05-24 Voicebox Technologies, Inc. Mobile systems and methods of supporting natural language human-machine interactions
JP2007279971A (ja) 2006-04-05 2007-10-25 Kenwood Corp エージェント装置及びエージェントシステム
US7912724B1 (en) * 2007-01-18 2011-03-22 Adobe Systems Incorporated Audio comparison using phoneme matching
US20100125525A1 (en) * 2008-11-18 2010-05-20 Inamdar Anil B Price alteration through buyer affected aggregation of purchasers
US8768759B2 (en) * 2008-12-01 2014-07-01 Topsy Labs, Inc. Advertising based on influence
WO2010065108A1 (en) * 2008-12-01 2010-06-10 Topsy Labs, Inc Estimating influence
US20100161424A1 (en) * 2008-12-22 2010-06-24 Nortel Networks Limited Targeted advertising system and method
US20140236708A1 (en) * 2010-02-01 2014-08-21 Nevallco, Llc Methods and apparatus for a predictive advertising engine
US9015037B2 (en) * 2011-06-10 2015-04-21 Linkedin Corporation Interactive fact checking system
US20140063061A1 (en) * 2011-08-26 2014-03-06 Reincloud Corporation Determining a position of an item in a virtual augmented space
US20130249948A1 (en) * 2011-08-26 2013-09-26 Reincloud Corporation Providing interactive travel content at a display device
US20130222371A1 (en) * 2011-08-26 2013-08-29 Reincloud Corporation Enhancing a sensory perception in a field of view of a real-time source within a display screen through augmented reality
CN103021432B (zh) * 2011-09-22 2017-06-16 南京中兴软件有限责任公司 一种处理广告的方法和终端
WO2013155619A1 (en) * 2012-04-20 2013-10-24 Sam Pasupalak Conversational agent
WO2013170187A2 (en) * 2012-05-11 2013-11-14 Ripple Commerce, Inc. Consumer-initiated demand-driven interactive marketplace
US10417037B2 (en) * 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US20140278427A1 (en) * 2013-03-13 2014-09-18 Samsung Electronics Co., Ltd. Dynamic dialog system agent integration
US9355378B2 (en) * 2013-03-14 2016-05-31 American Express Travel Related Services Company, Inc. Systems and methods for identifying and delivering tailored content based upon a service dialog
US10311482B2 (en) * 2013-11-11 2019-06-04 At&T Intellectual Property I, Lp Method and apparatus for adjusting a digital assistant persona
US9571645B2 (en) * 2013-12-16 2017-02-14 Nuance Communications, Inc. Systems and methods for providing a virtual assistant
US20170017501A1 (en) * 2013-12-16 2017-01-19 Nuance Communications, Inc. Systems and methods for providing a virtual assistant
US9830044B2 (en) * 2013-12-31 2017-11-28 Next It Corporation Virtual assistant team customization
WO2015172036A1 (en) * 2014-05-09 2015-11-12 AdLyft, Inc. Advertising with interactions between a user and an advertised subject matter
US9639854B2 (en) * 2014-06-26 2017-05-02 Nuance Communications, Inc. Voice-controlled information exchange platform, such as for providing information to supplement advertising
WO2016014382A1 (en) * 2014-07-22 2016-01-28 Christopher Michaels Wireless navigation apparatus, method, and system
WO2016051693A1 (ja) * 2014-09-30 2016-04-07 パナソニックIpマネジメント株式会社 接客モニタリングシステム及び接客モニタリング方法
US10331312B2 (en) * 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US20170169726A1 (en) * 2015-12-09 2017-06-15 At&T Intellectual Property I, Lp Method and apparatus for managing feedback based on user monitoring
CN105791100A (zh) * 2016-05-11 2016-07-20 潘成军 聊天信息提示方法
US20180096505A1 (en) * 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces
US11086391B2 (en) * 2016-11-30 2021-08-10 At&T Intellectual Property I, L.P. Methods, and devices for generating a user experience based on the stored user information
US10600408B1 (en) * 2018-03-23 2020-03-24 Amazon Technologies, Inc. Content output management based on speech quality
KR102363469B1 (ko) * 2020-08-14 2022-02-15 네오사피엔스 주식회사 텍스트에 대한 합성 음성 생성 작업을 수행하는 방법
CN114971664A (zh) * 2021-02-26 2022-08-30 富联精密电子(天津)有限公司 广告投放方法及相关设备
US20220351741A1 (en) * 2021-04-29 2022-11-03 Rovi Guides, Inc. Systems and methods to alter voice interactions
US20230126052A1 (en) * 2021-10-27 2023-04-27 Soundhound, Inc. System and method for analysis of spoken natural language to detect promotion phrases for providing follow-up content

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297626A (ja) * 2001-03-30 2002-10-11 Just Syst Corp 情報提示装置、情報提示プログラム、及び情報提示方法
JP2003263674A (ja) * 2001-12-28 2003-09-19 Japan Tobacco Inc 情報処理装置およびそれを用いた自動販売機システム、広告方法
JP2012226455A (ja) * 2011-04-17 2012-11-15 Petabit Corp キャラクター着ぐるみ及びその使用方法
JP2015082133A (ja) * 2013-10-21 2015-04-27 株式会社ニコン ウェブページ提示システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3410309A4 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110611710A (zh) * 2019-09-11 2019-12-24 王英敏 户外智能广告推广系统及方法
WO2021132088A1 (ja) * 2019-12-25 2021-07-01 ソニーグループ株式会社 情報処理システム、情報処理装置及び情報処理方法
JP2021117581A (ja) * 2020-01-23 2021-08-10 株式会社ミクシィ 情報処理装置及びプログラム
JP7453513B2 (ja) 2020-01-23 2024-03-21 株式会社Mixi 情報処理装置及びプログラム
JP2022019397A (ja) * 2020-07-17 2022-01-27 株式会社三鷹ホールディングス ポイントサイネージビジネスシステム
JP7314442B2 (ja) 2020-07-17 2023-07-26 株式会社三鷹ホールディングス ポイントサイネージビジネスシステム

Also Published As

Publication number Publication date
KR20180104601A (ko) 2018-09-21
CN108475282B (zh) 2022-04-05
JP6888557B2 (ja) 2021-06-16
EP3410309A4 (en) 2018-12-05
CN108475282A (zh) 2018-08-31
EP3410309A1 (en) 2018-12-05
US11144955B2 (en) 2021-10-12
CN114663131A (zh) 2022-06-24
US20180315085A1 (en) 2018-11-01
JP7099589B2 (ja) 2022-07-12
JP2021119541A (ja) 2021-08-12
US20210406956A1 (en) 2021-12-30
JPWO2017130498A1 (ja) 2018-11-15

Similar Documents

Publication Publication Date Title
JP7099589B2 (ja) サーバ、通信制御方法、およびプログラム
JP7056780B2 (ja) 通信システム、通信制御方法およびプログラム
US20170213247A1 (en) Systems and methods for engaging an audience in a conversational advertisement
WO2017191696A1 (ja) 情報処理システム、および情報処理方法
US20120143693A1 (en) Targeting Advertisements Based on Emotion
JP6061729B2 (ja) 商品情報提供システムおよび商品情報提供用プログラム
WO2017130496A1 (ja) 通信システムおよび通信制御方法
JP6262613B2 (ja) 提示装置、提示方法及び提示プログラム
JP7178248B2 (ja) インタラクティブなエクスペリエンスに適合させた自然言語文法
WO2017163509A1 (ja) 情報処理システムおよび情報処理方法
CN112053177A (zh) 用户抽奖的方法、装置、系统、电子设备及介质
JP6066791B2 (ja) 商品情報提供システムおよび商品情報提供用プログラム
CN111611269A (zh) 一种对话聊天模式的人工智能情感陪护系统
JP6568263B2 (ja) 装置、方法及びプログラム
JP2020057221A (ja) 情報処理方法、情報処理装置及びプログラム
JP6368025B2 (ja) 装置、方法及びプログラム
CN111787042A (zh) 用于推送信息的方法和装置
JP2016207217A (ja) 管理装置及び嗜好性特定方法
CN117014640A (zh) 数据展示方法、装置、设备、可读存储介质及程序产品
CN118042235A (zh) 一种业务信息推送方法、装置、计算机设备和存储介质
JP2016206935A (ja) 管理装置及び嗜好性特定方法
CN117196723A (zh) 广告位匹配方法、系统、介质及设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16888083

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017563696

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15770297

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20187016852

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016888083

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016888083

Country of ref document: EP

Effective date: 20180827