WO2019188523A1 - 応答システム - Google Patents

応答システム Download PDF

Info

Publication number
WO2019188523A1
WO2019188523A1 PCT/JP2019/011274 JP2019011274W WO2019188523A1 WO 2019188523 A1 WO2019188523 A1 WO 2019188523A1 JP 2019011274 W JP2019011274 W JP 2019011274W WO 2019188523 A1 WO2019188523 A1 WO 2019188523A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
response
unit
caller
terminal device
Prior art date
Application number
PCT/JP2019/011274
Other languages
English (en)
French (fr)
Inventor
彰 丸山
隆伸 大庭
樹 柴田
洋樹 浅井
Original Assignee
株式会社Nttドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Nttドコモ filed Critical 株式会社Nttドコモ
Priority to JP2020510710A priority Critical patent/JP7258013B2/ja
Publication of WO2019188523A1 publication Critical patent/WO2019188523A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers

Definitions

  • the present invention relates to a response system.
  • a voice message providing system that provides a voice message of a category corresponding to a group to which a caller belongs in response to an incoming call from the caller is known (for example, see Patent Document 1).
  • an automatic response device that estimates a user's state when an incoming call is detected, and automatically responds by changing a voice message responding to a caller based on the estimated user's state ( For example, see Patent Document 2).
  • Embodiments of the present invention have been made in view of the above problems, and in a response system that responds to a caller on behalf of the user in response to a call to the user by the caller, a response to the caller It is easy to reflect the user's intention in the content.
  • a response system is a response system that responds to the caller on behalf of the user in response to a call to the user by the caller.
  • a response unit that responds to the user in a dialog
  • a notification unit that notifies the user of the dialog content by the response unit
  • a changing unit that changes the dialog content by the response unit according to a predetermined operation by the user with respect to the dialog content.
  • a response system that responds on behalf of a user in response to a call to the user by the caller, it becomes easy to reflect the user's intention in the response content to the caller.
  • FIG. (1) which shows the image of the display screen of the terminal device which concerns on 1st Embodiment.
  • FIG. (2) which shows the image of the display screen of the terminal device which concerns on 1st Embodiment. It is FIG.
  • FIG. (3) which shows the image of the display screen of the terminal device which concerns on 1st Embodiment.
  • FIG. (4) which shows the image of the display screen of the terminal device which concerns on 1st Embodiment.
  • It is a figure (1) which shows the example of the information which the response system which concerns on 2nd Embodiment manages.
  • FIG. (2) which shows the example of the information which the response system which concerns on 2nd Embodiment manages.
  • FIG. (3) which shows the example of the information which the response system which concerns on 2nd Embodiment manages.
  • FIG. 1 is a diagram illustrating an example of a system configuration of a communication system according to an embodiment.
  • the communication system 100 includes, for example, a response system 101 connected to the communication network 102 and a terminal device 103 used by the user 104.
  • the response system 101 is an information processing apparatus having a computer configuration or a system including a plurality of information processing apparatuses.
  • the response system 101 responds to the caller 106 on behalf of the user 104 with a natural conversation using a natural interaction platform based on AI (Artificial Intelligence) technology.
  • AI Artificial Intelligence
  • the response system 101 when the response system 101 detects a call accompanying the voice transmission from the terminal device 105 of the caller 106 to the terminal device 103 of the user 104, the response system 101 responds to the caller 106 with a voice dialogue using the natural dialogue platform.
  • the response by voice is an example, and the response system 101 may respond by a dialog such as a text message.
  • the terminal device 103 is an information terminal used by the user 104, such as a smartphone, a mobile phone, and a tablet terminal, and can communicate with other terminal devices 105, the response system 101, and the like via the communication network 102.
  • step S1 the caller 106 transmits to the terminal device 103 of the user 104 using the terminal device 105.
  • the response system 101 detects a call to the user 104 accompanying a call from the terminal device 105 to the terminal device 103 (step S2).
  • the response system 101 responds interactively to the caller 106 on behalf of the user 104 (step S3).
  • the response system 101 determines whether or not the terminal device 103 of the user 104 is set in the automatic response mode. Instead of answering caller 106.
  • the response system 101 notifies the content of the dialogue with the caller 106 to the terminal device 103 of the user 104 (step S4).
  • the response system 101 converts the conversation content between the caller 106 and the response system 101 into text (character string), and notifies the terminal device 103 of the converted text.
  • the terminal device 103 displays the content of the dialogue between the caller 106 and the response system 101 by displaying the text received from the response system 101 in, for example, a chat format (step S5).
  • the user 104 can perform a predetermined operation (for example, input of text, input of voice, etc.) on the displayed dialogue content (step S6).
  • a predetermined operation for example, input of text, input of voice, etc.
  • the terminal device 103 receives a predetermined operation by the user 104, the terminal device 103 notifies the response system 101 of the received operation content (step S7).
  • the response system 101 When the response system 101 receives an operation content by the user 104 from the terminal device 103, the response system 101 changes the content of the conversation with the caller 106 according to the operation content.
  • the response system 101 responds to the entered message.
  • the voice is output to the terminal device 105 of the caller 106.
  • the user 104 may select a response content from the options displayed on the display screen of the terminal device 105, or input voice. May be.
  • response system 101 that responds to the caller on behalf of the user in response to the call to user 104 by caller 106, the intention of user 104 is added to the response content to caller 106. Can be easily reflected.
  • FIG. 2 is a diagram illustrating another example of the communication system 100 according to the embodiment. Similar to the communication system 100 shown in FIG. 1, the communication system 100 shown in FIG. 2 includes a response system 101 connected to the communication network 102 and a terminal device 103 used by the user 104.
  • the caller 106 is a visitor who visits the building 203 such as the home or office of the user 104, and calls the user 104 using the door phone 201 or the like provided at the entrance of the building 203. To do.
  • a home terminal 202 connected to the communication network 102 is provided in the building 203.
  • the call button on the door phone 201 is pressed, the home terminal 202 is ringed to call the user 104. Can do.
  • the response system 101 detects a call accompanying a visit of the caller 106 using the home terminal 202 and interacts with the caller 106 on behalf of the user 104 via the home terminal 202 and the door phone 201. Reply with.
  • the response system 101 can notify the content of the conversation with the caller 106 to the terminal device 103 of the user 104 who is out, like the communication system 100 shown in FIG.
  • the response system 101 uses the home terminal 202 to transmit the conversation content with the caller 106 to the user 104. Can be notified by voice.
  • the user 104 changes the conversation content of the response system 101 by voice input to the home terminal 202, for example, according to the conversation content output by voice from the home terminal 202.
  • the home terminal 202 is another example of the terminal device of the user 104.
  • the device used by the caller 106 to call the user 104 is not limited to the terminal device 105 or the door phone 201.
  • various smart devices, car navigation devices, wearable terminals, etc. can be any device.
  • FIG. 3 is a diagram illustrating a hardware configuration of the response system according to the embodiment.
  • the response system 101 may be physically configured as a computer device including a processor 301, a memory 302, a storage 303, a communication device 304, an input device 305, an output device 306, a bus 307, and the like.
  • the term “apparatus” can be read as a circuit, a device, a unit, or the like.
  • the processor 301 controls the entire computer by operating an operating system, for example.
  • the processor 301 may be configured by a central processing unit (CPU: Central Processing ⁇ ⁇ Unit) including an interface with peripheral devices, a control device, an arithmetic device, a register, and the like.
  • CPU Central Processing ⁇ ⁇ Unit
  • the processor 301 reads a program (program code), a software module, and data from the storage 303 and / or the communication device 304 to the memory 302, and executes various processes according to these.
  • a program program code
  • a software module software module
  • data data from the storage 303 and / or the communication device 304 to the memory 302, and executes various processes according to these.
  • the program a program that causes a computer to execute at least a part of the operation of the response system 101 is used.
  • Various processes executed in the response system 101 may be executed by one processor 301, or may be executed simultaneously or sequentially by two or more processors 301.
  • the processor 301 may be implemented by one or more chips. Note that the program may be transmitted from a network via a telecommunication line.
  • the memory 302 is a computer-readable recording medium, and includes at least one of ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), RAM (Random Access Memory), and the like. May be.
  • the memory 302 may be called a register, a cache, a main memory (main storage device), or the like.
  • the memory 302 can store a program (program code), a software module, and the like that can be executed to implement the response method according to the embodiment of the present invention.
  • the storage 303 is a computer-readable recording medium such as an optical disc such as a CD-ROM (Compact Disc) ROM, a hard disc drive, a flexible disc, a magneto-optical disc (eg a compact disc, a digital versatile disc, a Blu-ray). (Registered trademark) disk, smart card, flash memory (for example, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, and the like.
  • the storage 303 may be called an auxiliary storage device.
  • the above-described storage medium may be, for example, a database including the memory 302 and / or the storage 303, a server, or other suitable medium.
  • the communication device 304 is hardware (transmission / reception device) for performing communication between computers via a wired and / or wireless network, and is also referred to as a network device, a network controller, a network card, a communication module, or the like.
  • the input device 305 is an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, etc.) that accepts an input from the outside.
  • the output device 306 is an output device (for example, a display, a speaker, an LED lamp, etc.) that performs output to the outside. Note that the input device 305 and the output device 306 may have an integrated configuration (for example, a touch panel).
  • each device such as the processor 301 and the memory 302 is connected by a bus 307 for communicating information.
  • the bus 307 may be configured with a single bus or may be configured with different buses between devices.
  • FIG. 4 is a diagram illustrating a hardware configuration of the terminal device according to the embodiment.
  • the terminal device 103 is physically configured as a computer device including a processor 401, a memory 402, a storage 403, a communication device 404, an input device 405, an output device 406, a voice input / output device 407, a positioning device 408, a bus 409, and the like. May be.
  • the processor 401, the memory 402, the storage 403, the communication device 404, the input device 405, the output device 406, and the bus 409 are the processor 301, the memory 302, the storage 303, the communication device 304, the input device 305, and the output device 306 described above. Since it is the same as that of the bus 307, description thereof is omitted here.
  • the audio input / output device 407 includes, for example, an amplifier circuit that amplifies an audio signal, a microphone that acquires audio and converts it into an audio signal, a speaker that converts the audio signal into audio, and an interface that outputs the audio signal. .
  • the positioning device 408 is a device that acquires position information of the terminal device 103, and includes, for example, a GPS receiver that receives a positioning signal transmitted from a GPS (Global Positioning System) satellite and outputs position information.
  • GPS Global Positioning System
  • the terminal device 103 performs, for example, a vibrator that notifies a call or the like by vibration, an acceleration center that detects movement or inclination of the terminal device 103, a sensor such as a gyro sensor, and short-range wireless communication.
  • a near field communication device may be included.
  • FIG. 5 is a diagram illustrating an example of a functional configuration of the response system according to the first embodiment.
  • the response system 101 includes, for example, a communication unit 501, a call detection unit 502, a response unit 503, a caller identification unit 504, a dialog content determination unit 505, a response content generation unit 506, a dialog content notification unit 507, an operation content reception unit 508, A dialogue content changing unit 509, a storage unit 510, and the like are included.
  • the response system 101 realizes each functional configuration described above by, for example, executing a predetermined program by the processor 301.
  • at least a part of each functional configuration described above may be realized by hardware.
  • the communication unit 501 connects the response system 101 to the communication network 102 and communicates with, for example, the terminal devices 103 and 105, the home terminal 202, the communication management system 530 that manages communication in the communication network 102, and the like.
  • the call detection unit 502 detects the call of the user 104 by the caller 106.
  • the call detection unit 502 communicates with a communication management system 530 that manages communication in the communication network 102, and detects a call accompanying a call from the terminal device 105 of the caller 106 to the terminal device 103 of the user 104.
  • the call detection unit 502 communicates with the home terminal 202 to detect a call to the user 104 by the door phone 201 of the building 203 such as the home or office of the user 104.
  • the response unit 503 When the call detection unit 502 detects a call to the user 104 by the call detection unit 502, the response unit 503 responds to the caller 106 by a natural conversation such as voice or text instead of the user 104.
  • the response unit 503 includes, for example, a voice recognition unit 521, a dialogue control unit 522, and a voice synthesis unit 523, and is also called a natural dialogue platform.
  • the voice recognition unit 521 recognizes the voice of a user such as the caller 106 and converts it into, for example, text data and outputs it.
  • the dialogue control unit 522 controls the natural dialogue with the caller 106 using the voice recognition unit 521, the dialogue content determination unit 505, the response content generation unit 506, the voice synthesis unit 523, and the like. For example, the dialogue control unit 522 outputs the text data converted by the voice recognition unit 521 or the text data input by the user to the dialogue content determination unit 505.
  • the dialogue control unit 522 converts the dialogue content (text data) determined by the response content generation unit 506 into speech using the speech synthesizer 523, or keeps the text data as it is for the caller 106 or the like. Output.
  • the voice synthesizing unit 523 synthesizes a voice to be output to a user such as the caller 106 according to the dialog content determined by the response content generating unit 506 according to the control by the dialog control unit 522, for example.
  • the caller identification unit 504 identifies the caller 106 of the call detected by the call detection unit 502 or the relationship between the user 104 and the caller 106.
  • the caller identification unit 504 determines whether the caller 106 or the user 104 The relationship with the caller 106 is specified.
  • FIG. 6A shows an example of the address book 511.
  • the address book 511 includes information such as “name”, “telephone number”, “mail address”, “group name”, and the like. “Name”, “Group name”, etc. can be specified.
  • the caller identification unit 504 extracts a keyword such as a name from the voice of the caller 106, and calls the caller 106.
  • a keyword such as a name
  • the relationship between the user 104 and the caller 106 may be specified.
  • the relationship between the user 104 and the caller 106 includes, for example, “group name” shown in FIG. 5A and / or pre-registered keywords such as “delivery”, “insurance”, “newspaper”, etc. Can be included.
  • the dialogue content determination unit 505 interprets the intention of the user such as the caller 106 from the text data output from the dialogue control unit 522. For example, interactive content judgment unit 505, "Hello, this is ⁇ .” If and are text data is input, to determine its intended as a "greeting", a plurality of example sentences and their intention is associated with Registered in advance. Accordingly, the dialogue content determination unit 505 interprets intentions such as “home delivery”, “absence”, “insurance”, “company name”, “personal name”, and the like from words included in the input text data. The response content generation unit 506, the caller identification unit 504, and the like are output. Note that the function of the dialog content determination unit 505 may be included in the dialog control unit 522.
  • the response content generation unit 506 generates response content (for example, text data) for the user in the caller 106 or the like according to the intention interpreted by the dialogue content determination unit 505. For example, the response content generation unit 506 generates response content based on a plurality of example sentence data and scenario data in which response sentences are stored in advance.
  • the response content generation unit 506 determines the caller 106 according to the intention interpreted by the dialogue content determination unit 505 and the relationship between the caller 106 or the user 104 and the caller 106 specified by the caller specifying unit 504.
  • the response content for the user is generated.
  • the response content generation unit 506 changes the information disclosure level of the user 104 disclosed to the user such as the caller 106 based on the response rule information 512 stored in the storage unit 510.
  • FIG. 6B shows an example of the response rule information 512.
  • the response rule information 512 includes information such as “address book registration”, “group name”, “keyword”, “information disclosure level”, and “notification of conversation content”.
  • Address book registration is information indicating whether or not the caller 106 is registered in the address book.
  • Group name is information indicating the group name of the address book in which the caller 106 is registered.
  • the “keyword” is information (keyword) indicating the relationship between the user 104 and the caller 106 specified by the caller specifying unit 504.
  • Information disclosure level is information indicating a level at which information of the user 104 is disclosed to a user such as the caller 106.
  • the information disclosure level “1” indicates that information disclosure of the user 104 is not restricted
  • the information disclosure level “2” indicates that information indicating the location is restricted among the information of the user 104.
  • the information disclosure level “3” discloses the outline of the reason why the user 104 cannot respond
  • the information disclosure level “4” does not disclose the user 104 information and only discloses that the user 104 cannot respond.
  • the information disclosure level “5” outputs only the fixed message without performing the dialogue.
  • the number, content, and the like of the information disclosure level are examples, and the content of the information disclosure level can be arbitrarily set.
  • “Notification of dialogue content” is information indicating whether or not to notify the user 104 of the dialogue content between the response unit 503 and the caller 106.
  • the response content generation unit 506 when the caller 106 is registered in the group name “favorite” of the address book, does not limit the information of the user 104 and calls The response content to the person 106 is generated.
  • the response content generation unit 506 generates response content to the caller 106 without disclosing the information of the user 104 when the caller 106 is not registered in the address book and corresponds to the keyword “delivery”. To do.
  • the dialogue content notification unit 507 notifies the user 104 of the dialogue content by the response unit 503.
  • the dialogue content notification unit 507 converts the dialogue between the caller 106 and the response unit 503 into text data (character string), and notifies the converted text data to the terminal device 103 of the user 104.
  • the dialogue content notification unit 507 outputs the dialogue content by the response unit 503 to the home terminal 202, the terminal device 103, or an external device connected to the terminal device 103 of the user 104 by voice. Also good.
  • the operation content receiving unit 508 receives a predetermined operation by the user 104 with respect to the dialog content notified by the dialog content notification unit 507 to the user 104. For example, the operation content receiving unit 508 receives text data transmitted from the terminal device 103 in response to a text input operation or the like by the user 104 for the dialog content. Alternatively, the operation content accepting unit 508 accepts audio data transmitted from the terminal device 103 in response to an audio input operation or the like by the user 104 for the dialog content.
  • the dialogue content changing unit 509 changes the dialogue content by the response unit 503 in accordance with a predetermined operation by the user 104 received by the operation content receiving unit 508.
  • the dialogue content changing unit 509 causes the response unit 503 to output a voice corresponding to the input text in response to a text input operation (an example of a predetermined operation) by the user 104.
  • a text input operation an example of a predetermined operation
  • the dialogue content changing unit 509 causes the response unit 503 to output a voice “I will contact you as soon as the meeting is over”.
  • the dialogue content changing unit 509 generates a text message “I will contact you as soon as the meeting is over” from a text input by the user 104 in a predetermined format such as “contact after meeting”. And you may make the response part 503 output with an audio
  • the dialogue content changing unit 509 outputs the input voice or a voice corresponding to the input voice in response to the voice input operation (another example of the predetermined operation) by the user 104. To output.
  • the storage unit 510 is realized by, for example, a program executed by the processor 301, the memory 302, the storage 303, and the like, and includes an address book 511 as illustrated in FIG. 6A, response rule information 512 as illustrated in FIG. 6B, and setting information. Etc. 513 etc. are memorized.
  • the setting information 513 is information related to the setting of the response system 101 corresponding to the user 104, and includes, for example, information indicating whether or not the response system 101 is set to the automatic response mode.
  • the terminal device 103 includes, for example, a communication unit 701, a display control unit 702, an operation reception unit 703, a voice control unit 704, a terminal information acquisition unit 705, an information transmission unit 706, a storage unit 707, and the like.
  • the terminal device 103 implements each functional configuration described above by executing a predetermined program by the processor 401.
  • at least a part of each functional configuration described above may be realized by hardware.
  • the communication unit 701 connects the terminal device 103 to the communication network 102 and communicates with, for example, the response system 101, the terminal device 105 of the caller 106, the home terminal 202, and the like.
  • the display control unit 702 displays a display screen on a display unit such as a display included in the output device 406.
  • the display control unit 702 causes the display unit to display text or the like indicating the content of interaction between the response system 101 and the caller 106 received from the response system 101.
  • the display control unit 702 causes the display unit to display one or more options for instructing the response content with respect to the dialog content, or a text input field.
  • the operation accepting unit 703 accepts an input operation input by the user 104 to an input device or the like included in the input device 405 with respect to the response content notified from the response system 101. For example, the operation accepting unit 703 accepts text input in the text input field displayed on the display unit.
  • the operation receiving unit 703 may receive an option selected by the user 104 from one or more options displayed on the display unit.
  • the voice control unit 704 controls voice input / output by the terminal device 103. For example, the voice control unit 704 outputs the voice of the dialogue content between the response system 101 and the caller 106 received from the response system 101 using the voice input / output device 407. The voice control unit 704 acquires the voice of the user 104 using the voice input / output device 407.
  • the terminal information acquisition unit 705 acquires information indicating the state of the terminal device 103 of the user 104.
  • the information indicating the state of the terminal device 103 includes, for example, position information of the terminal device 103, information on other devices connected to the terminal device 103, presence / absence of screen display, presence / absence of voice call, and the like.
  • the information transmission unit 706 is acquired by the operation reception unit 703, information on a predetermined operation by the user 104 for the response content notified from the response system 101, voice acquired by the voice control unit 704, or acquired by the terminal information acquisition unit 705.
  • the transmitted information is transmitted to the response system 101.
  • the storage unit 707 is realized by, for example, a program executed by the processor 401, the memory 402, the storage 403, and the like, and stores various information such as display screen information displayed by the display control unit 702.
  • FIG. 8 is a flowchart (1) illustrating an example of processing of the response system according to the first embodiment. This process shows an example of a basic process executed by the response system 101 when the response system 101 according to the first embodiment detects a call to the user 104 by the caller 106.
  • step S801 when the call detection unit 502 detects that the caller 106 calls the user 104 in step S801, the response system 101 executes processing in step S802 and subsequent steps.
  • the call detection unit 502 may detect a call accompanying a call from the terminal device 105 of the caller 106 to the terminal device 103 of the user 104, as shown in FIG. 2. As described above, a call accompanying a visit of the caller 106 may be detected.
  • step S ⁇ b> 802 the response unit 503 of the response system 101 responds to the caller 106 in a dialog on behalf of the user 104.
  • the response unit 503 interacts with the caller 106 by voice (or text) via the terminal device 105 of the caller 106 as shown in FIG.
  • the response unit 503 interacts with the caller 106 by voice via the door phone 201 as shown in FIG.
  • step S803 the dialogue content notification unit 507 of the response system 101 notifies the user 104 of the dialogue content between the caller 106 and the response unit 503.
  • the dialogue content notification unit 507 notifies the terminal device 103 of the user 104 of the dialogue content between the caller 106 and the response unit 503 with text data (or voice).
  • the dialogue content notification unit 507 transmits the dialogue content between the caller 106 and the response unit 503 to the terminal device 103 of the user 104. Notify by text data.
  • the dialogue content notification unit 507 notifies the home terminal 202 of the dialogue content between the caller 106 and the response unit 503 and outputs it.
  • step S804 the response system 101 determines whether or not the operation content receiving unit 508 has received a predetermined operation by the user 104. For example, the response system 101 determines whether the operation content reception unit 508 has received a text input by the user 104. As another example, the response system 101 determines whether the operation content reception unit 508 has received a voice input by the user 104.
  • the response system 101 shifts the process to step S805.
  • the response system 101 shifts the processing to step S806.
  • step S805 the dialogue content changing unit 509 of the response system 101 changes the dialogue content by the response unit 503 according to a predetermined operation received by the operation content receiving unit 508. For example, when the operation content receiving unit 508 receives text data input by a text input operation by the user 104, the response unit 503 causes the response unit 503 to output a voice corresponding to the received text data.
  • the response unit 503 outputs the audio corresponding to the received audio data to the response unit 503.
  • step S804 the response unit 503 of the response system 101 determines whether or not the dialogue with the caller 106 is finished. For example, the response unit 503 determines that the dialogue has ended when the communication of the caller 106 with the terminal device 105 has ended.
  • the response unit 503 returns the process to step S802 and continues the dialogue with the caller 106.
  • the response system 101 ends the process.
  • FIG. 9 is a flowchart (2) illustrating an example of processing of the response system according to the first embodiment. This process shows an example of a more specific process executed by the response system 101 when the response system 101 according to the first embodiment detects a call to the user 104 by the caller 106.
  • step S901 when the response detection unit 502 detects a call accompanying a call from the terminal device 105 of the caller 106 to the terminal device 103 of the user 104 by the call detection unit 502, the response system 101 executes the processing from step S902.
  • the response system 101 refers to, for example, the setting information 513 stored in the storage unit 510, and determines whether or not the setting of the response system 101 corresponding to the user 104 is set to the automatic response mode. .
  • the response system 101 ends the process. On the other hand, when the terminal device 103 of the user 104 is set to the automatic response mode, the response system 101 shifts the processing to step S903.
  • step S903 the caller identification unit 504 of the response system 101 identifies the caller 106 or the relationship between the caller 106 and the user 104.
  • the caller identification unit 504 determines whether the caller 106 is registered in the address book 511 based on the telephone number of the terminal device 105 of the caller 106 and the address book 511 of the user 104 as shown in FIG. 6A. Confirm. Furthermore, when the caller 106 is registered in the address book, the caller specifying unit 504 specifies the group name (an example of the relationship between the caller 106 and the user 104) in which the caller 106 is registered.
  • step S904 the response content generation unit 506 of the response system 101 determines the information disclosure level of the conversation content with the caller 106 according to the identification result by the caller identification unit 504. For example, the response content generation unit 506 uses the response rule information 512 as shown in FIG. 6B to apply the information disclosure level corresponding to the group name specified by the caller specifying unit 504 to the dialog content with the caller 106. To do.
  • step S903 and S904 is a suitable example, and is not essential.
  • step S ⁇ b> 905 the response unit 503 of the response system 101 responds to the caller 106 on behalf of the user 104 with the dialog content corresponding to the identification result (for example, information disclosure level) by the caller identification unit 504. For example, as shown in FIG. 1, the response unit 503 performs a voice conversation with the caller 106 via the terminal device 105 of the caller 106.
  • the identification result for example, information disclosure level
  • step S906 the dialogue content notification unit 507 of the response system 101 converts the dialogue content between the caller 106 and the response unit 503 into a character string, and notifies the terminal device 103 of the user 104 of the converted character string.
  • step S907 the response system 101 determines whether the operation content receiving unit 508 has received predetermined data from the terminal device 103 of the user 104.
  • the predetermined data includes, for example, text data input by a text input operation by the user 104 and data corresponding to an option selected by the user 104 from the options displayed on the display screen by the terminal device 103. Etc. are included.
  • the response system 101 shifts the processing to step S908.
  • the response system 101 shifts the processing to step S909.
  • step S908 the dialog content changing unit 509 of the response system 101 causes the response unit 503 to output a voice corresponding to the predetermined data received by the operation content receiving unit 508. Thereby, the content of the dialogue by the response unit 503 is changed.
  • step S907 the response unit 503 of the response system 101 determines whether or not the dialogue with the caller 106 is finished.
  • the response unit 503 returns the process to step S905 to continue the dialogue with the caller 106.
  • the response system 101 ends the process.
  • 10A, 10B, 10C, and 10D are diagrams showing images of display screens of the terminal device according to the first embodiment.
  • FIG. 10A shows an example of the display screen of the terminal device 103 corresponding to the processing of the response system 101 shown in FIG.
  • the display screen 1010 of the terminal device 103 includes a dialog display area 1011 that displays dialog contents notified from the response system 101 and an input reception area 1012 that receives message input.
  • the utterance content 1013 by the response unit 503 and the utterance content 1014 by the caller 106 are displayed in a chat format, for example.
  • the user 104 who sees the content of the dialogue inputs a character string “scheduled to be at home after 19:00” in the input field 1015 of the input reception area 1012 and selects the “input” button 1016, the input text Data is sent to the response system 101.
  • the text data transmitted to the response system 101 is, for example, in step S908 of FIG. 9, the dialog content changing unit 509 uses the response content generating unit 506, the response unit 503, etc. Is output to the caller 106.
  • the voice output to the caller 106 is notified to the terminal device 103 in step S906 of FIG. 9, and for example, the utterance content 1021 of the response unit 503 is displayed in the dialogue display area 1011 of the display screen 1020 as shown in FIG. 10B. Is displayed.
  • the display control unit 702 of the terminal device 103 displays, for example, a display screen 1030 as shown in FIG. 10C on the display unit according to a predetermined keyword such as “delivery”.
  • the display screen 1030 includes a dialog display area 1011 for displaying the dialog contents notified from the response system 101, and an option display area 1031 for displaying a plurality of options for instructing response contents for the dialog contents. included.
  • the display control unit 702 displays the schedule to return home as shown in FIG. 10D, for example.
  • a time input screen 1040 is displayed on the display unit.
  • the information transmission unit 706 displays a character string corresponding to the button selected in FIGS. 10C and 10D. 101.
  • the user 104 can transmit text data for instructing response contents to the response system 101 without inputting text with a software keyboard or the like.
  • the text data transmitted to the response system 101 may be only fragmentary text data indicating the intention of the user 104 such as “after 19:00” or “at home”.
  • the response system 101 estimates the intention of the user 104 from a character string such as “scheduled to return home” or “after 19:00”, and for example, response content such as “scheduled to be home after 19:00”. Is generated and output to the caller 106.
  • the user's intention is easily added to the response content to the caller 106. It can be reflected.
  • FIG. 11 is a diagram illustrating an example of a functional configuration of the response system according to the second embodiment.
  • the response system 101 according to the second embodiment includes a terminal information receiving unit 1101 and user state estimation.
  • the terminal information receiving unit 1101 is realized by a program executed by the processor 301, for example, and receives information indicating the state of the terminal device 103 transmitted from the terminal device 103 of the user 104.
  • the information indicating the state of the terminal device 103 includes, for example, position information of the terminal device 103, information on an external device connected to the terminal device 103, presence / absence of a screen display, presence / absence of a voice call, and the like.
  • the user state estimation unit 1102 is realized by a program executed by the processor 301, for example.
  • the user state estimation unit 1102 estimates the state of the user 104 based on, for example, information indicating the state of the terminal device 103 received by the terminal information reception unit 1101 and the schedule table 1111 of the user 104 stored in the storage unit 510.
  • the function of the user state estimation unit 1102 may be included in the dialogue content notification unit 507, the response content generation unit 506, or the like.
  • FIG. 12A shows an example of the schedule table 1111 of the user 104 stored in the storage unit 510.
  • the schedule table 1111 includes information such as “date and time”, “schedule”, and “repeat”.
  • “Date and time” is information indicating the date and time when the schedule is registered.
  • “Schedule” is information indicating the name or content of a schedule corresponding to “date and time”.
  • “Repeat” is information indicating whether “schedule” is a one-time schedule, or is scheduled to occur repeatedly on weekdays, holidays, days of the week, etc., for example.
  • the user state estimation unit 1102 uses the schedule table 1111 as shown in FIG. 12A to estimate that the user 104 is “meeting” at the date and time “20xx.01.02 9: 00-10: 00”. can do.
  • the dialogue content notification unit 507 notifies the content of the dialogue to the terminal device 103 by a different notification method according to the state of the user 104 of the terminal device 103.
  • the dialogue content notification unit 507 changes the notification method for notifying the dialogue content to the terminal device 103 of the user 104 based on the notification rule information 1112 stored in the storage unit 510.
  • FIG. 12B shows an example of the notification rule information 1112 stored in the storage unit 510.
  • the notification rule information 1112 includes information such as “connection destination”, “screen display”, and “notification method”.
  • Connection destination is information indicating a connection state of the terminal device 103, such as information on an external device to which the terminal device 103 is connected by short-range wireless communication, a cable, or the like.
  • “home terminal” indicates that the terminal device 103 is connected to the home terminal 202 via short-range wireless communication or wireless LAN.
  • “Screen display” is information indicating the display state of the terminal device 103, such as whether or not the terminal device 103 displays a display screen on the display unit. Note that “connection destination” and “screen display” are examples of information indicating the state of the terminal device 103.
  • “Notification method” is information indicating a method of notifying the content of dialogue corresponding to the state of the terminal device 103.
  • the connection destination is “home terminal”
  • “voice (home terminal)” is selected as the notification method.
  • the dialogue content notification unit 507 notifies the home terminal 202 by voice of the dialogue content between the caller 106 and the response unit 503.
  • the dialogue content notification unit 507 transmits the dialogue content between the caller 106 and the response unit 503 to the terminal device 103 by voice.
  • the conversation content is output by voice from a car navigation system (or terminal device 103) connected to the terminal device 103.
  • FIG. 12C shows an image of another example of the notification rule information stored in the storage unit 510.
  • the notification rule information 1112 includes information such as “location information”, “plan”, “notification method”, and the like.
  • “Position information” is information indicating the position of the terminal device 103, and is an example of information indicating the state of the terminal device 103. Whether or not the position of the terminal device 103 is “home” may be determined by the user registering the position of the home in advance, or at a predetermined time based on the history of position information. The terminal device 103 may determine that the place where the 103 returns is “home”. The same applies to “workplace”.
  • “Schedule” is schedule information of the user 104 of the terminal device 103, and corresponds to, for example, “schedule” in the schedule table 1111 shown in FIG. 12A.
  • “Notification method” is information indicating a method of notifying the dialog content corresponding to the state of the terminal device 103 and the schedule information of the user 104. For example, in the example of FIG. 12C, when the position information is “home” and the schedule is “sleeping”, the user 104 is considered to be sleeping, and therefore, for example, “text” is selected as the notification method. In this case, the dialogue content notification unit 507 transmits the dialogue content between the caller 106 and the response unit 503 to the terminal device 103 as text.
  • the dialogue content notification unit 507 may be used for different notification methods between the caller 106 and the response unit 503 depending on, for example, the state of the terminal device 103 of the user 104 and the state of the user 104 such as schedule information. Notify the conversation content.
  • the notification rule information 1112 illustrated in FIGS. 12B and 12C is an example.
  • the notification rule information 1112 may be information that stores the state of the user 104 estimated by the user state estimation unit 1102 and the notification method in association with each other.
  • the response content generation unit 506 has a function of changing the response content to be generated according to the state of the user 104 in addition to the function of the dialogue content determination unit 505 according to the first embodiment. is doing. Accordingly, the response unit 503 can interact with the caller 106 with different conversation contents according to the state of the user 104.
  • the response content generation unit 506 generates the content of interaction with the caller 106 based on the response rule information 1113 stored in the storage unit 510.
  • FIG. 12D shows an example of the response rule information 1113 stored in the storage unit 510.
  • the response rule information 1113 includes information such as “position information”, “plan”, “state”, and “interaction content”.
  • the “position information” and “schedule” information correspond to “position information” and “schedule” in FIG. 12C, respectively.
  • “Status” is information indicating the status of the terminal device 103. For example, “on the phone” indicates that the user 104 is on the phone using the terminal device 103. “Standby request reception” indicates that the terminal device 103 has received a standby request operation by the user 104. For example, when the user 104 intends to respond to the caller 106 but cannot respond immediately, the user 104 can perform a standby request operation on the terminal device 103.
  • “Rejection operation acceptance” indicates that the terminal device 103 has accepted a rejection operation by the user 104. For example, when the user 104 does not intend to respond to the caller 106, the user 104 can perform a refusal operation on the terminal device 103.
  • “location information”, “plan”, and “state” are examples of information indicating the state of the user 104.
  • Dialog content is information indicating the content of the dialogue corresponding to the state of the user 104.
  • the schedule is “none”, and the state is “calling”, “dialog notifying that the call is in progress” is selected as the dialogue content.
  • the position information is “home”
  • the schedule is “none”, and the state is “accepting standby request”, “dialog requesting standby” is selected as the dialog content.
  • Each conversation content is generated based on scenario data stored in advance in the storage unit 510 or an external server, for example.
  • the response rule information 1113 shown in FIG. 12D is an example.
  • the response rule information 1113 may be information in which the state of the user 104 estimated by the user state estimation unit 1102 and the conversation content are stored in association with each other.
  • the response unit 503 may interact with the caller 106 with different conversation contents according to the state of the user 104.
  • FIG. 13 is a sequence diagram (1) illustrating an example of processing of the response system according to the second embodiment.
  • This processing shows an example of basic processing executed by the response system 101 when the response system 101 according to the second embodiment detects a call to the user 104 by the caller 106.
  • a detailed description of the same processing as in the first embodiment is omitted.
  • step S1301 when the call detection unit 502 detects that the caller 106 calls the user 104 in step S1301, the response system 101 executes processing in step S1302 and subsequent steps.
  • step S1302 the response system 101 acquires information indicating the state of the user 104.
  • the response system 101 acquires information (for example, connection destination, screen display, position information, etc.) indicating the state of the terminal device 103 by the terminal information receiving unit 1101.
  • the response system 101 further acquires the schedule table 1111 of the user 104 stored in the storage unit 510.
  • step S1303 the response unit 503 of the response system 101 responds to the caller 106 in place of the user 104 through a dialog.
  • step S1304 the dialog content notification unit 507 of the response system 101 notifies the terminal device 103 of the user 104 of the dialog content with the caller 106 by a notification method corresponding to the state of the user 104 acquired in step S1302.
  • the dialog content notification unit 507 uses the connection destination and screen display information included in the information indicating the state of the terminal device 103 acquired in step S1302 and notification rule information 1112 as illustrated in FIG. 12B. , Decide how to notify the dialogue content.
  • the dialog content notification unit 507 includes the position information included in the information indicating the state of the terminal device 103 acquired in step S1302, the schedule table 1111 of the user 104, and the notification rule information 1112 illustrated in FIG. 12C. To determine how to notify the content of the dialog.
  • step S1305 the response system 101 determines whether or not the operation content receiving unit 508 has received a predetermined operation by the user 104.
  • the response system 101 shifts the process to step S1306.
  • the response system 101 shifts the processing to step S1307.
  • step S1306 the dialog content changing unit 509 of the response system 101 changes the content of the dialog by the response unit 503 in accordance with a predetermined operation received by the operation content receiving unit 508.
  • step S1305 the response unit 503 of the response system 101 determines whether or not the dialogue with the caller 106 has ended.
  • the response unit 503 returns the process to step S1303 and continues the dialogue with the caller 106. On the other hand, when the dialogue is ended, the response system 101 ends the process.
  • FIG. 14 is a flowchart (2) illustrating an example of processing of the response system according to the second embodiment. An example of more specific processing executed by the response system 101 when the response system 101 detects a call by the caller 106 to the user 104 is shown.
  • step S1401 when the call detection unit 502 detects a call accompanying a call from the terminal device 105 of the caller 106 to the terminal device 103 of the user 104 in step S1401, the response system 101 executes the processing from step S1402.
  • step S1402 the response system 101 refers to the setting information 513 stored in the storage unit 510, for example, and determines whether or not the setting of the response system 101 corresponding to the user 104 is set to the automatic response mode. .
  • the response system 101 If the setting of the response system 101 corresponding to the user 104 is not set to the automatic response mode, the response system 101 ends the process. On the other hand, when the setting of the response system 101 corresponding to the user 104 is set to the automatic response mode, the response system 101 shifts the processing to step S1403.
  • step S1403 the response system 101 acquires information indicating the state of the user 104.
  • the response system 101 acquires information (for example, connection destination, screen display, position information, etc.) indicating the state of the terminal device 103 by the terminal information receiving unit 1101.
  • the response system 101 further acquires the schedule table 1111 of the user 104 stored in the storage unit 510.
  • step S ⁇ b> 1404 the response system 101 determines the dialogue content with the caller 106 and a method for notifying the dialogue content according to the state of the user 104.
  • the response content generation unit 506 of the response system 101 uses the positional information and status information of the terminal device 103, the schedule table 1111 of the user 104 stored in the storage unit 510, and the response rule information 1113, The content of interaction with the caller 106 is determined.
  • the dialogue content notification unit 507 includes a connection destination and screen display information included in the information indicating the state of the terminal device 103 received by the terminal information reception unit 1101, and notification rule information 1112 as illustrated in FIG. 12B. Is used to determine the method for notifying the dialog content.
  • the dialogue content notification unit 507 includes the location information of the terminal device 103 received by the terminal information reception unit 1101, the schedule table 1111 of the user 104 stored in the storage unit 510, and the notification rule illustrated in FIG. Using the information 1112, a method for notifying the dialog content is determined.
  • step S1405 the response content generation unit 506 of the response system 101 generates the content of interaction with the caller 106 according to the content of interaction determined in step S1404. As a result, the response unit 503 of the response system 101 responds to the caller 106 in a dialog with the dialog content determined in step S1404.
  • step S1406 the dialogue content notification unit 507 of the response system 101 notifies the content of the dialogue to the terminal device 103 of the user 104 by the notification method determined in step S1404.
  • step S 1407 the response system 101 determines whether the operation content receiving unit 508 has received predetermined data from the terminal device 103 of the user 104.
  • the response system 101 shifts the processing to step S1408.
  • the response system 101 shifts the processing to step S1409.
  • step S1408 the dialog content changing unit 509 of the response system 101 causes the response unit 503 to output a voice corresponding to the predetermined data received by the operation content receiving unit 508. Thereby, the content of the dialogue by the response unit 503 is changed.
  • step S1407 the response unit 503 of the response system 101 determines whether or not the dialogue with the caller 106 is finished.
  • the response unit 503 returns the process to step S1405 and continues the dialogue with the caller 106.
  • the response system 101 ends the process.
  • the response system 101 can change the dialog content for the caller 106, the notification method of the dialog content, and the like according to the state of the user 104.
  • FIGS. 5 and 11 show functional unit blocks. These functional blocks (functional configurations) are realized by any combination of hardware and / or software. Further, the means for realizing each functional block is not particularly limited. That is, each functional block may be realized by one device physically and / or logically coupled, and two or more devices physically and / or logically separated may be directly and / or indirectly. (For example, wired and / or wireless) and may be realized by these plural devices.
  • the hardware configuration of the response system 101 and the terminal device 103 illustrated in FIGS. 3 and 4 may be configured to include one or a plurality of the devices illustrated in the drawings, or may not include some devices. It may be configured.
  • the response system 101 and the terminal device 103 include a microprocessor, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a programmable logic device (PLD), a field programmable gate array (FPGA), and the like. It may be configured to include hardware, and a part or all of each functional block may be realized by the hardware.
  • the processors 301 and 401 may be implemented by at least one of these hardware.
  • Each aspect / embodiment described herein includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced 4G, 5G, FRA (Future Radio Access), W-CDMA.
  • LTE Long Term Evolution
  • LTE-A Long Term Evolution-Advanced
  • SUPER 3G IMT-Advanced 4G
  • 5G FRA (Future Radio Access)
  • W-CDMA Wideband
  • GSM registered trademark
  • CDMA2000 Code Division Multiple Access 2000
  • UMB User Mobile Broadband
  • IEEE 802.11 Wi-Fi
  • IEEE 802.16 WiMAX
  • IEEE 802.20 UWB (Ultra-WideBand
  • the present invention may be applied to a Bluetooth (registered trademark), a system using another appropriate system, and / or a next generation system extended based on the system.
  • the input / output information or the like may be stored in a specific location (for example, a memory) or may be managed by a management table. Input / output information and the like can be overwritten, updated, or additionally written. The output information or the like may be deleted. The input information or the like may be transmitted to another device.
  • the determination may be performed by a value represented by 1 bit (0 or 1), may be performed by a true / false value (Boolean: true or false), or may be performed by comparing numerical values (for example, a predetermined value) (Comparison with values).
  • notification of predetermined information is not limited to explicitly performed, but is performed implicitly (for example, notification of the predetermined information is not performed). Also good.
  • software, instructions, etc. may be transmitted / received via a transmission medium.
  • software may use websites, servers, or other devices using wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave.
  • wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave.
  • DSL digital subscriber line
  • wireless technology such as infrared, wireless and microwave.
  • the channel and / or symbol may be a signal.
  • the signal may be a message.
  • the component carrier (CC) may also be called a carrier frequency, a cell, or the like.
  • system and “network” used in this specification are used interchangeably.
  • the information, parameters, and the like described in this specification may be represented by absolute values, may be represented by relative values from predetermined values, or may be represented by other corresponding information.
  • the radio resource may be indicated by an index.
  • a terminal device is defined by those skilled in the art as a subscriber station, mobile unit, subscriber unit, wireless unit, remote unit, mobile device, wireless device, wireless communication device, remote device, mobile subscriber station, access terminal, mobile terminal, wireless It may also be called terminal, remote terminal, handset, user agent, mobile client, client, or some other appropriate terminology.
  • the phrase “based on” does not mean “based only on”, unless expressly specified otherwise. In other words, the phrase “based on” means both “based only on” and “based at least on.”

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Telephonic Communication Services (AREA)

Abstract

応答システムは、呼出者によるユーザへの呼出に応じて、前記ユーザに代わって前記呼出者に応答する応答システムであって、前記呼出者に対話で応答する応答部と、前記応答部による対話内容を前記ユーザに通知する通知部と、前記対話内容に対する前記ユーザによる所定の操作に応じて、前記応答部による前記対話内容を変更する変更部と、を有する。

Description

応答システム
 本発明は、応答システムに関する。
 発信者からの着信に対して、自動的に音声メッセージで応答する応答システムが知られている。
 例えば、発信者からの着信に対して、発信者が属するグループに対応するカテゴリの音声メッセージを提供する音声メッセージ提供システムが知られている(例えば、特許文献1参照)。また、着信を検出したときに、ユーザの状態を推定し、推定されたユーザの状態に基づいて、発信者に応答する音声メッセージを変えて自動的に応答する自動応答装置が知られている(例えば、特許文献2参照)。
特開2004-56225号公報 特開2010-239242号公報
 特許文献1、2に示されるような従来の応答システムでは、予め設定されたテーブル情報等に基づいて、決められた音声メッセージを用いて応答するので、応答内容にユーザの意思を反映させることは困難である。
 本発明の実施形態は、上記の問題点に鑑みてなされたものであって、呼出者によるユーザへの呼出に応じて、ユーザに代わって呼出者に応答する応答システムにおいて、呼出者への応答内容にユーザの意思を反映させることを容易にする。
 上記の課題を解決するため、本発明の一実施形態に係る応答システムは、呼出者によるユーザへの呼出に応じて、前記ユーザに代わって前記呼出者に応答する応答システムであって、前記呼出者に対話で応答する応答部と、前記応答部による対話内容を前記ユーザに通知する通知部と、前記対話内容に対する前記ユーザによる所定の操作に応じて、前記応答部による前記対話内容を変更する変更部と、を有する。
 本発明の一実施形態によれば、呼出者によるユーザへの呼出に応じて、ユーザに代わって応答する応答システムにおいて、呼出者への応答内容にユーザの意思を反映させることが容易になる。
一実施形態に係る通信システムのシステム構成の一例を示す図である。 一実施形態に係る通信システムのシステム構成を別の一例を示す図である。 一実施形態に係る応答システムのハードウェア構成の例を示す図である。 一実施形態に係る端末装置のハードウェア構成の例を示す図である。 第1の実施形態に係る応答システムの機能構成の例を示す図である。 第1の実施形態に係る応答システムが管理する情報の例を示す図(1)である。 第1の実施形態に係る応答システムが管理する情報の例を示す図(2)である。 第1の実施形態に係る端末装置の機能構成の例を示す図である。 第1の実施形態に係る応答システムの処理の例を示すフローチャート(1)である。 第1の実施形態に係る応答システムの処理の例を示すフローチャート(2)である。 第1の実施形態に係る端末装置の表示画面のイメージを示す図(1)である。 第1の実施形態に係る端末装置の表示画面のイメージを示す図(2)である。 第1の実施形態に係る端末装置の表示画面のイメージを示す図(3)である。 第1の実施形態に係る端末装置の表示画面のイメージを示す図(4)である。 第2の実施形態に係る応答システムの機能構成の例を示す図である。 第2の実施形態に係る応答システムが管理する情報の例を示す図(1)である。 第2の実施形態に係る応答システムが管理する情報の例を示す図(2)である。 第2の実施形態に係る応答システムが管理する情報の例を示す図(3)である。 第2の実施形態に係る応答システムが管理する情報の例を示す図(4)である。 第2の実施形態に係る応答システムの処理の例を示すフローチャート(1)である。 第2の実施形態に係る応答システムの処理の例を示すフローチャート(2)である。
 以下、図面を参照して本発明の実施の形態を説明する。なお、以下で説明する実施の形態は一例であり、本発明が適用される実施の形態は、以下の実施の形態に限られない。
 <システム構成>
 図1は、一実施系形態に係る通信システムのシステム構成の一例を示す図である。通信システム100は、例えば、通信ネットワーク102に接続される応答システム101と、ユーザ104が利用する端末装置103とを含む。
 応答システム101は、コンピュータの構成を有する情報処理装置、又は複数の情報処理装置を含むシステムである。応答システム101は、呼出者106によるユーザ104への呼出に応じて、AI(Artificial Intelligence)技術による自然対話プラットフォームを用いて、ユーザ104に代わって呼出者106に自然対話で応答する。
 例えば、応答システム101は、呼出者106の端末装置105から、ユーザ104の端末装置103への音声発信に伴う呼出を検知すると、自然対話プラットフォームを用いて、呼出者106に音声による対話で応答する。ただし、音声による応答は一例であり、応答システム101は、例えば、テキストメッセージ等による対話で応答するものであっても良い。
 端末装置103は、ユーザ104が利用する、例えば、スマートフォン、携帯電話、タブレット端末等の情報端末であり、通信ネットワーク102を介して、他の端末装置105や応答システム101等と通信可能である。
 (処理の概要)
 図1において、例えば、呼出者106が、端末装置105を用いてユーザ104の端末装置103に発信するものとする(ステップS1)。これに応じて、応答システム101は、端末装置105から端末装置103への発信に伴うユーザ104への呼出を検知する(ステップS2)。応答システム101は、ユーザ104への呼出を検知すると、ユーザ104に代わって、呼出者106に対話で応答する(ステップS3)。
 好ましくは、応答システム101は、ユーザ104への呼出を検知すると、ユーザ104の端末装置103が自動応答モードに設定されているか否かを判断し、自動応答モードに設定されている場合、ユーザ104に代わって呼出者106に応答する。
 また、応答システム101は、呼出者106との対話内容を、ユーザ104の端末装置103に通知する(ステップS4)。例えば、応答システム101は、呼出者106と応答システム101との間の対話内容をテキスト(文字列)に変換し、変換したテキストを端末装置103に通知する。
 端末装置103は、応答システム101から受信したテキストを、例えば、チャット形式等で表示することにより、呼出者106と応答システム101との間の対話内容を表示する(ステップS5)。
 ユーザ104は、表示された対話内容に対して、所定の操作(例えば、テキストの入力、音声の入力等)を行うことができる(ステップS6)。端末装置103は、ユーザ104による所定の操作を受け付けると、受け付けた操作内容を応答システム101に通知する(ステップS7)。
 応答システム101は、端末装置103から、ユーザ104による操作内容を受付すると、操作内容に応じて、呼出者106との対話内容を変更する。
 一例として、ユーザ104が、端末装置103に表示された対話内容に対して、「会議が終わり次第、連絡します。」等とテキストで入力すると、応答システム101は、入力されたメッセージに対応する音声を、呼出者106の端末装置105に出力する。
 別の一例として、ユーザ104は、テキストを入力する代わりに、端末装置105の表示画面に表示された選択肢の中から応答内容を選択するものであっても良いし、音声を入力するものであっても良い。
 これにより、本実施形態によれば、呼出者106によるユーザ104への呼出に応じて、ユーザに代わって呼出者に応答する応答システム101において、呼出者106への応答内容にユーザ104の意思を、容易に反映させることができるようになる。
 (システム構成の別の一例)
 図2は、一実施形態に係る通信システム100の別の一例を示す図である。図2に示す通信システム100は、図1に示す通信システム100と同様に、通信ネットワーク102に接続される応答システム101と、ユーザ104が利用する端末装置103とを含む。
 図2の例では、呼出者106は、ユーザ104の自宅やオフィス等の建物203に訪問した来訪者であり、建物203の入り口に備えられたドアホン201等を用いて、ユーザ104を呼び出すものとする。
 また、建物203内には、通信ネットワーク102に接続されたホーム端末202が備えられており、ドアホン201の呼出ボタンを押下することにより、ホーム端末202を鳴動させて、ユーザ104の呼出を行うことができる。
 図2の例では、応答システム101は、ホーム端末202を用いて呼出者106の来訪に伴う呼出を検知し、ホーム端末202、及びドアホン201を介して、ユーザ104に代わって呼出者106に対話で応答する。
 図2に示すシステム構成において、応答システム101は、図1に示す通信システム100と同様に、外出中のユーザ104の端末装置103に、呼出者106との対話内容を通知することができる。
 また、応答システム101は、ユーザ104が建物203内にいる場合(例えば、端末装置103が建物203内にある場合)、ホーム端末202を用いて、呼出者106との対話内容を、ユーザ104に音声で通知することができる。
 この場合、ユーザ104は、ホーム端末202から音声で出力される対話内容に応じて、例えば、ホーム端末202への音声入力により、応答システム101の対話内容を変更する。なお、ホーム端末202は、ユーザ104の端末装置の別の一例である。
 本実施形態に係る通信システム100では、呼出者106が、ユーザ104への呼出に用いる装置は、端末装置105やドアホン201に限られず、例えば、各種のスマートデバイス、カーナビゲーション装置、ウェアラブル端末等の任意の装置であって良い。
 <ハードウェア構成>
 (応答システムのハードウェア構成)
 図3は、一実施形態に係る応答システムのハードウェア構成を示す図である。応答システム101は、物理的には、プロセッサ301、メモリ302、ストレージ303、通信装置304、入力装置305、出力装置306、バス307等を含むコンピュータ装置として構成されても良い。なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニット等に読み替えることができる。
 プロセッサ301は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ301は、周辺装置とのインタフェース、制御装置、演算装置、レジスタ等を含む中央処理装置(CPU:Central Processing Unit)で構成されても良い。
 また、プロセッサ301は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ303及び/又は通信装置304からメモリ302に読み出し、これらに従って各種の処理を実行する。プログラムとしては、応答システム101の動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。応答システム101において実行される各種処理は、1つのプロセッサ301で実行されても良いし、2以上のプロセッサ301により同時又は逐次に実行されても良い。プロセッサ301は、1以上のチップで実装されても良い。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
 メモリ302は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)等の少なくとも1つで構成されても良い。メモリ302は、レジスタ、キャッシュ、メインメモリ(主記憶装置)等と呼ばれても良い。メモリ302は、本発明の一実施の形態に係る応答方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュール等を保存することができる。
 ストレージ303は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)等の光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップ等の少なくとも1つで構成されても良い。ストレージ303は、補助記憶装置と呼ばれても良い。上述の記憶媒体は、例えば、メモリ302及び/又はストレージ303を含むデータベース、サーバその他の適切な媒体であっても良い。
 通信装置304は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュール等ともいう。
 入力装置305は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサ等)である。出力装置306は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカ、LEDランプ等)である。なお、入力装置305及び出力装置306は、一体となった構成(例えば、タッチパネル)であっても良い。
 また、プロセッサ301やメモリ302等の各装置は、情報を通信するためのバス307で接続される。バス307は、単一のバスで構成されても良いし、装置間で異なるバスで構成されても良い。
 (端末装置のハードウェア構成)
 図4は、一実施形態に係る端末装置のハードウェア構成を示す図である。端末装置103は、物理的には、プロセッサ401、メモリ402、ストレージ403、通信装置404、入力装置405、出力装置406、音声入出力装置407、測位装置408、バス409等を含むコンピュータ装置として構成されても良い。なお、プロセッサ401、メモリ402、ストレージ403、通信装置404、入力装置405、出力装置406、及びバス409は、前述したプロセッサ301、メモリ302、ストレージ303、通信装置304、入力装置305、出力装置306、バス307と同様であるため、ここでは説明を省略する。
 音声入出力装置407は、例えば、音声信号を増幅する増幅回路、音声を取得して音声信号に変換するマイク、音声信号を音声に変換して出力するスピーカ、音声信号を出力するインタフェース等を含む。
 測位装置408は、端末装置103の位置情報を取得する装置であり、例えば、GPS(Global Positioning System)衛星から送信される測位信号を受信して、位置情報を出力するGPS受信機等を含む。
 なお、端末装置103は、上記以外にも、例えば、振動で呼出等を通知するバイブレータ、端末装置103の移動や傾きなどを検知する加速度センタ、ジャイロセンサ等のセンサ、及び近距離無線通信を行う近距離無線通信装置が含まれ得る。
 [第1の実施形態]
 <機能構成>
 続いて、第1の実施形態に係る応答システム101、及び端末装置103の機能構成について説明する。
 (応答システムの機能構成)
 図5は、第1の実施形態に係る応答システムの機能構成の例を示す図である。応答システム101は、例えば、通信部501、呼出検知部502、応答部503、呼出者特定部504、対話内容判断部505、応答内容生成部506、対話内容通知部507、操作内容受付部508、対話内容変更部509、及び記憶部510等を有する。
 応答システム101は、例えば、プロセッサ301で所定のプログラムを実行することにより、上記の各機能構成を実現している。また、上記の各機能構成のうち、少なくとも一部はハードウェアによって実現されるものであっても良い。
 通信部501は、応答システム101を通信ネットワーク102に接続し、例えば、端末装置103、105、ホーム端末202、及び通信ネットワーク102における通信を管理する通信管理システム530等と通信を行う。
 呼出検知部502は、呼出者106によるユーザ104の呼出を検知する。例えば、呼出検知部502は、通信ネットワーク102における通信を管理する通信管理システム530と通信を行い、呼出者106の端末装置105から、ユーザ104の端末装置103への発信に伴う呼出を検知する。
 また、呼出検知部502は、ホーム端末202と通信を行い、ユーザ104の自宅やオフィス等の建物203のドアホン201による、ユーザ104への呼出を検知する。
 応答部503は、呼出検知部502により、呼出者106によるユーザ104への呼出を検知すると、ユーザ104に代わって呼出者106に、音声、テキスト等による自然対話で応答する。応答部503は、例えば、音声認識部521、対話制御部522、及び音声合成部523を含み、自然対話プラットフォームとも呼ばれる。
 音声認識部521は、呼出者106等の利用者の音声を認識し、例えば、テキストデータ等に変換して出力する。
 対話制御部522は、音声認識部521、対話内容判断部505、応答内容生成部506、及び音声合成部523等を用いて、呼出者106との自然対話を制御する。例えば、対話制御部522は、音声認識部521によって変換されたテキストデータ、又は利用者によって入力されたテキストデータ等を、対話内容判断部505に出力する。
 また、対話制御部522は、応答内容生成部506によって決定された対話内容(テキストデータ)を、音声合成部523を用いて音声に変換し、或いはテキストデータのまま、呼出者106等に対して出力する。
 音声合成部523は、例えば、対話制御部522による制御に従って、応答内容生成部506によって決定された対話内容に従って、呼出者106等の利用者に出力する音声を合成する。
 呼出者特定部504は、呼出検知部502が検知した呼出の呼出者106、又はユーザ104と呼出者106との関係を特定する。
 例えば、呼出者特定部504は、ユーザ104への呼出が発信に伴う呼出である場合、発信元の電話番号と、記憶部510に記憶したアドレス帳511とにより、呼出者106、又はユーザ104と呼出者106との関係を特定する。
 図6Aは、アドレス帳511の一例のイメージを示している。図6Aの例では、アドレス帳511には、「名前」、「電話番号」、「メールアドレス」、「グループ名」等の情報が含まれており、「電話番号」により、呼出者106の「名前」、「グループ名」等を特定することができる。
 また、別の一例として、呼出者特定部504は、ユーザ104への呼出が呼出者106の来訪に伴う呼出である場合、呼出者106の音声から名前等のキーワードを抽出して、呼出者106、又はユーザ104と呼出者106との関係を特定するものであっても良い。
 なお、ユーザ104と呼出者106との関係には、例えば、図5(a)に示す「グループ名」、及び/又は「宅配」、「保険」、「新聞」等の予め登録されたキーワード等が含まれ得る。
 対話内容判断部505は、対話制御部522から出力されるテキストデータから、呼出者106等の利用者の意図を解釈する。例えば、対話内容判断部505は、「こんにちは、○○です。」といるテキストデータが入力されると、その意図を「挨拶」と判断するように、複数の例文とその意図が対応付けられて予め登録されている。これにより、対話内容判断部505は、入力されたテキストデータに含まれる言葉から、例えば、「宅配」、「不在」、「保険」、「会社名」、「個人名」等の意図を解釈し、応答内容生成部506、呼出者特定部504等に出力する。なお、対話内容判断部505の機能は、対話制御部522に含まれていても良い。
 応答内容生成部506は、対話内容判断部505が解釈した意図に応じて、呼出者106等に利用者に対する応答内容(例えば、テキストデータ)を生成する。例えば、応答内容生成部506は、複数の例文データとその応答文を予め記憶したシナリオデータ等に基づいて、応答内容を生成する。
 好ましくは、応答内容生成部506は、対話内容判断部505が解釈した意図と、呼出者特定部504が特定した呼出者106又はユーザ104と呼出者106との関係とに応じて、呼出者106等に利用者に対する応答内容を生成する。一例として、応答内容生成部506は、記憶部510に記憶した応答ルール情報512等に基づいて、呼出者106等の利用者に開示するユーザ104の情報開示レベルを変更する。
 図6Bは、応答ルール情報512の一例のイメージを示している。図6Bの例では、応答ルール情報512には、「アドレス帳登録」、「グループ名」、「キーワード」、「情報開示レベル」、及び「対話内容の通知」等の情報が含まれている。
 「アドレス帳登録」は、呼出者106がアドレス帳に登録されているか否かを示す情報である。「グループ名」は、呼出者106が登録されているアドレス帳のグループ名を示す情報である。「キーワード」は、呼出者特定部504が特定した、ユーザ104と呼出者106との関係を示す情報(キーワード)である。
 「情報開示レベル」は、呼出者106等の利用者に対して、ユーザ104の情報を開示するレベルを示す情報である。
 一例として、情報開示レベル「1」は、ユーザ104の情報の開示を制限しないことを示し、情報開示レベル「2」は、ユーザ104の情報のうち、所在を示す情報を制限することを示す。また、情報開示レベル「3」は、ユーザ104の情報のうち、応答できない理由の概要を開示し、情報開示レベル「4」は、ユーザ104の情報を開示せず、応答できないことのみを開示する。さらに、情報開示レベル「5」は、対話を行わずに、固定メッセージのみを出力する。ただし、この情報開示レベルの数、内容等は一例であり、情報開示レベルの内容は任意に設定可能である。
 「対話内容の通知」は、応答部503と呼出者106との間の対話内容を、ユーザ104に通知する否かを示す情報である。
 例えば、このような応答ルール情報512に基づいて、応答内容生成部506は、呼出者106がアドレス帳のグループ名「お気に入り」に登録されている場合、ユーザ104の情報を制限せずに、呼出者106への応答内容を生成する。また、応答内容生成部506は、呼出者106がアドレス帳に登録されておらず、キーワード「宅配」に該当する場合、ユーザ104の情報を開示せずに、呼出者106への応答内容を生成する。
 ここで、図5に戻り、応答システム101の機能構成についての説明を続ける。
 対話内容通知部507は、応答部503による対話内容を、ユーザ104に通知する。例えば、対話内容通知部507は、呼出者106と応答部503との間の対話をテキストデータ(文字列)に変換し、変換したテキストデータを、ユーザ104の端末装置103に通知する。或いは、対話内容通知部507は、応答部503による対話内容を、音声で、ユーザ104のホーム端末202、端末装置103、又は端末装置103に接続されている外部機器等に出力させるものであっても良い。
 操作内容受付部508は、対話内容通知部507が、ユーザ104に通知した対話内容に対するユーザ104による所定の操作を受付する。例えば、操作内容受付部508は、対話内容に対するユーザ104によるテキストの入力操作等に応じて、端末装置103から送信されるテキストデータ等を受付する。或いは、操作内容受付部508は、対話内容に対するユーザ104による音声の入力操作等に応じて、端末装置103から送信される音声データ等を受付する。
 対話内容変更部509は、操作内容受付部508が受付した、ユーザ104による所定の操作に応じて、応答部503による対話内容を変更する。
 例えば、対話内容変更部509は、ユーザ104によるテキストの入力操作(所定の操作の一例)に応じて、入力されたテキストに対応する音声を、応答部503に出力させる。一例として、対話内容変更部509は、ユーザ104によって「会議が終わり次第、連絡します」とテキストが入力された場合、応答部503に「会議が終わり次第、連絡します」という音声を出力させる。
 別の一例として、対話内容変更部509は、ユーザ104によって、例えば、「会議後 連絡」等の所定の形式で入力されたテキストから、「会議が終わり次第、連絡します」というテキストメッセージを生成して、応答部503に音声で出力させるものであっても良い。
 同様にして、対話内容変更部509は、ユーザ104による音声の入力操作(所定の操作の別の一例)に応じて、入力された音声、又は入力された音声に対応する音声を、応答部503に出力させる。
 記憶部510は、例えば、プロセッサ301で実行されるプログラム、及びメモリ302、ストレージ303等によって実現され、図6Aに示すようなアドレス帳511、図6Bに示すような応答ルール情報512、及び設定情報等513等を記憶する。
 設定情報513は、ユーザ104に対応する応答システム101の設定に関する情報であり、例えば、応答システム101が、自動応答モードに設定されているか否かを示す情報等が含まれる。
 (端末装置の機能構成)
 端末装置103は、例えば、通信部701、表示制御部702、操作受付部703、音声制御部704、端末情報取得部705、情報送信部706、及び記憶部707等を有する。
 端末装置103は、プロセッサ401で所定のプログラムを実行することにより、上記の各機能構成を実現している。なお、上記の各機能構成のうち、少なくとも一部は、ハードウェアによって実現されるものであっても良い。
 通信部701は、端末装置103を通信ネットワーク102に接続し、例えば、応答システム101、呼出者106の端末装置105、ホーム端末202等と通信を行う。
 表示制御部702は、出力装置406に含まれるディスプレイ等の表示部に表示画面を表示させる。例えば、表示制御部702は、応答システム101から受信した、応答システム101と呼出者106との間の対話内容を示すテキスト等を、表示部に表示させる。
 また、表示制御部702は、対話内容に対する応答内容を指示する1つ以上の選択肢、又はテキストの入力欄等を、表示部に表示させる。
 操作受付部703は、応答システム101から通知された応答内容に対して、ユーザ104が入力装置405に含まれる入力デバイス等に入力した入力操作を受け付ける。例えば、操作受付部703は、表示部に表示されたテキストの入力欄に入力されるテキストを受け付ける。
 また、別の一例として、操作受付部703は、表示部に表示された1つ以上の選択肢から、ユーザ104によって選択された選択肢を受け付けるものであっても良い。
 音声制御部704は、端末装置103による音声の入出力を制御する。例えば、音声制御部704は、応答システム101から受信した応答システム101と呼出者106との間の対話内容の音声を、音声入出力装置407を用いて出力する。また、音声制御部704は、音声入出力装置407を用いて、ユーザ104の音声を取得する。
 端末情報取得部705は、ユーザ104の端末装置103の状態を示す情報を取得する。端末装置103の状態を示す情報には、例えば、端末装置103の位置情報、端末装置103に接続されている他の装置の情報、画面表示の有無、音声通話の有無等の情報が含まれる。
 情報送信部706は、操作受付部703が取得した、応答システム101から通知された応答内容に対するユーザ104による所定の操作の情報、音声制御部704が取得した音声、又は端末情報取得部705が取得した情報等を、応答システム101に送信する。
 記憶部707は、例えば、プロセッサ401で実行されるプログラム、及びメモリ402、ストレージ403等によって実現され、表示制御部702が表示する表示画面の情報等の様々な情報を記憶する。
 <処理の流れ>
 続いて、第1の実施形態に係る応答システムの処理の流れについて説明する。
 (応答システムの処理1)
 図8は、第1の実施形態に係る応答システムの処理の例を示すフローチャート(1)である。この処理は、第1の実施形態に係る応答システム101が、呼出者106によるユーザ104への呼出を検知したときに、応答システム101が実行する基本的な処理の例を示している。
 ステップS801において、応答システム101は、呼出検知部502により、呼出者106によるユーザ104への呼出を検知すると、ステップS802以降の処理を実行する。このとき、呼出検知部502は、例えば、図1に示すように、呼出者106の端末装置105から、ユーザ104の端末装置103に対する発信に伴う呼出を検知しても良いし、図2に示すように、呼出者106の来訪に伴う呼出を検知しても良い。
 ステップS802において、応答システム101の応答部503は、ユーザ104に代わって呼出者106に、対話で応答する。例えば、応答部503は、図1に示すように、呼出者106の端末装置105を介して、音声(又はテキスト)で、呼出者106と対話する。或いは、応答部503は、図2の示すように、ドアホン201を介して、音声で呼出者106と対話する。
 ステップS803において、応答システム101の対話内容通知部507は、呼出者106と応答部503との間の対話内容を、ユーザ104に通知する。例えば、対話内容通知部507は、図1に示すように、ユーザ104の端末装置103に、呼出者106と応答部503との間の対話内容を、テキストデータ(又は音声)で通知する。
 また、別の一例として、対話内容通知部507は、図2において、ユーザ104が建物203にいない場合、ユーザ104の端末装置103に、呼出者106と応答部503との間の対話内容を、テキストデータで通知する。一方、対話内容通知部507は、図2において、ユーザ104が建物203にいる場合、ホーム端末202に、呼出者106と応答部503との間の対話内容を、音声で通知して出力させる。
 ステップS804において、応答システム101は、操作内容受付部508が、ユーザ104による所定の操作を受付したか否かを判断する。例えば、応答システム101は、操作内容受付部508が、ユーザ104によって入力されたテキストを受付したか否かを判断する。また、別の一例として、応答システム101は、操作内容受付部508が、ユーザ104によって入力された音声を受付したか否かを判断する。
 ユーザ104による所定の操作を受付した場合、応答システム101は、処理をステップS805に移行させる。一方、ユーザ104による所定の操作を受付していない場合、応答システム101は、処理をステップS806に移行させる。
 ステップS805に移行すると、応答システム101の対話内容変更部509は、操作内容受付部508が受付した所定の操作に応じて、応答部503による対話内容を変更する。例えば、操作内容受付部508が、ユーザ104によるテキストの入力操作によって入力されたテキストデータを受け付けた場合、応答部503は、受け付けたテキストデータに対応する音声を、応答部503に出力させる。
 別の一例として、操作内容受付部508が、ユーザ104による音声の入力操作によって入力された音声データを受け付けた場合、応答部503は、受け付けた音声データに対応する音声を、応答部503に出力させる。
 ステップS804からステップS806に移行すると、応答システム101の応答部503は、呼出者106との対話が終了したか否かを判断する。例えば、応答部503は、呼出者106の端末装置105との通信が終了した場合、対話が終了したと判断する。
 対話が終了していない場合、応答部503は、処理をステップS802に戻して、呼出者106との対話を継続する。一方、対話が終了した場合、応答システム101は、処理を終了させる。
 (応答システムの処理2)
 図9は、第1の実施形態に係る応答システムの処理の例を示すフローチャート(2)である。この処理は、第1の実施形態に係る応答システム101が、呼出者106によるユーザ104への呼出を検知したときに、応答システム101が実行する、より具体的な処理の一例を示している。
 ここでは、通信システム100が、図1に示すようなシステム構成であるものとして、以下の説明を行う。なお、基本的な処理は、図8で説明した応答システムの処理1と同様なので、ここでは、同様の処理に対する詳細な説明は省略する。
 ステップS901において、応答システム101は、呼出検知部502により、呼出者106の端末装置105から、ユーザ104の端末装置103への発信に伴う呼出を検知すると、ステップS902以降の処理を実行する。
 ステップS902において、応答システム101は、例えば、記憶部510に記憶した設定情報513を参照して、ユーザ104に対応する応答システム101の設定が、自動応答モードに設定されているか否かを判断する。
 ユーザ104の端末装置103が自動応答モードに設定されていない場合、応答システム101は処理を終了させる。一方、ユーザ104の端末装置103が自動応答モードに設定されている場合、応答システム101は処理をステップS903に移行させる。
 ステップS903に移行すると、応答システム101の呼出者特定部504は、呼出者106、又は呼出者106とユーザ104との関係を特定する。
 例えば、呼出者特定部504は、呼出者106の端末装置105の電話番号と、図6Aに示すようなユーザ104のアドレス帳511とにより、呼出者106がアドレス帳511に登録されているか否かを確認する。さらに、呼出者特定部504は、呼出者106がアドレス帳に登録されている場合、呼出者106が登録されているグループ名(呼出者106とユーザ104との関係の一例)を特定する。
 ステップS904において、応答システム101の応答内容生成部506は、呼出者特定部504による特定結果に応じて、呼出者106との対話内容の情報開示レベルを決定する。例えば、応答内容生成部506は、図6Bに示すような応答ルール情報512を用いて、呼出者特定部504が特定したグループ名に対応する情報開示レベルを、呼出者106との対話内容に適用する。
 これにより、応答部503は、呼出者特定部504による特定結果に応じて、異なる対話内容で呼出者に応答する。なお、ステップS903、S904に示す処理は好適な一例であり、必須ではない。
 ステップS905において、応答システム101の応答部503は、呼出者特定部504による特定結果(例えば、情報開示レベル)に対応する対話内容で、ユーザ104に代わって呼出者106に応答する。例えば、応答部503は、図1に示すように、呼出者106の端末装置105を介して、呼出者106と音声による対話を行う。
 ステップS906において、応答システム101の対話内容通知部507は、呼出者106と応答部503との間の対話内容を文字列に変換し、変換した文字列をユーザ104の端末装置103に通知する。
 ステップS907において、応答システム101は、操作内容受付部508が、ユーザ104の端末装置103から、所定のデータを受付したか否かを判断する。
 ここで、所定のデータには、例えば、ユーザ104によるテキストの入力操作によって入力されたテキストデータ、端末装置103が表示画面に表示した選択肢の中から、ユーザ104によって選択された選択肢に対応するデータ等が含まれる。
 ユーザ104の端末装置103から所定のデータを受付した場合、応答システム101は、処理をステップS908に移行させる。一方、ユーザ104の端末装置103から所定のデータを受付していない場合、応答システム101は、処理をステップS909に移行させる。
 ステップS908に移行すると、応答システム101の対話内容変更部509は、操作内容受付部508が受付した所定のデータに対応する音声を、応答部503に出力させる。これにより、応答部503による対話内容が変更される。
 ステップS907からステップS909に移行すると、応答システム101の応答部503は、呼出者106との対話が終了したか否かを判断する。
 対話が終了していない場合、応答部503は、処理をステップS905に戻して、呼出者106との対話を継続する。一方、対話が終了した場合、応答システム101は、処理を終了させる。
 <表示画面の例>
 図10A、図10B、図10C、図10Dは、第1の実施形態に係る端末装置の表示画面のイメージを示す図である。
 図10Aは、図9に示す応答システム101の処理に対応する端末装置103の表示画面の一例を示している。図10Aの例では、端末装置103の表示画面1010には、応答システム101から通知される対話内容を表示する対話表示領域1011と、メッセージの入力を受付する入力受付領域1012とが含まれる。
 対話表示領域1011には、応答部503による発話内容1013と、呼出者106による発話内容1014とが、例えば、チャット形式等で表示される。この対話内容を見たユーザ104が、入力受付領域1012の入力欄1015に、例えば、「19時以降、在宅予定です」という文字列を入力し、「入力」ボタン1016を選択すると、入力したテキストデータが、応答システム101に送信される。
 応答システム101に送信されたテキストデータは、例えば、図9のステップS908において、対話内容変更部509が、応答内容生成部506や応答部503等を用いて、「19時以降、在宅予定です」という音声で呼出者106に出力する。
 また、呼出者106に出力した音声は、図9のステップS906において、端末装置103に通知され、例えば、図10Bに示すように表示画面1020の対話表示領域1011に、応答部503の発話内容1021として表示される。
 好適な一例として、端末装置103の表示制御部702は、例えば、「宅配」等の所定のキーワードに応じて、例えば、図10Cに示すような表示画面1030を、表示部に表示させる。
 図10Cの例では、表示画面1030には、応答システム101から通知される対話内容を表示する対話表示領域1011と、対話内容に対する応答内容を指示する複数の選択肢を表示する選択肢表示領域1031とが含まれる。
 例えば、この対話内容と、選択肢を見たユーザ104が、選択肢表示領域1031の「帰宅予定時間を通知」ボタン1032を選択すると、表示制御部702は、例えば、図10Dに示すような、帰宅予定時間の入力画面1040を表示部に表示させる。ユーザ104が、帰宅予定時間の入力画面1040から、例えば、「19時以降」ボタン1041を選択すると、情報送信部706により、図10C、図10Dで選択されたボタンに対応する文字列が応答システム101に送信される。
 これにより、ユーザ104は、例えば、ソフトウェアキーボード等でテキストを入力しなくても、応答システム101に応答内容を指示するテキストデータ等を送信することができるようになる。
 なお、このとき、応答システム101に送信されるテキストデータは、例えば、「19時以降」、「在宅」等、ユーザ104の意図を示す断片的なテキストデータだけであっても良い。この場合、応答システム101は、例えば、「帰宅予定」、「19時以降」等の文字列から、ユーザ104の意図を推定し、例えば、「19時以降、在宅予定です。」等の応答内容を生成して、呼出者106に出力する。
 このように、本実施形態によれば、呼出者106によるユーザ104への呼出に応じて、ユーザ104に代わって応答する応答システム101において、呼出者106への応答内容にユーザの意思を容易に反映させることができるようになる。
 [第2の実施形態]
 第2の実施形態では、応答システム101が、ユーザ104の状態に応じて、呼出者106に対する対話内容、対話内容の通知方法等を変更する場合の処理の例について説明する。
 <機能構成>
 図11は、第2の実施形態に係る応答システムの機能構成の例を示す図である。図11に示すように、第2の実施形態に係る応答システム101は、図5に示す第1の実施形態に係る応答システム101の機能構成に加えて、端末情報受信部1101、及びユーザ状態推定部1102を有している。
 端末情報受信部1101は、例えば、プロセッサ301で実行されるプログラムによって実現され、ユーザ104の端末装置103から送信される端末装置103の状態を示す情報を受信する。端末装置103の状態を示す情報には、例えば、端末装置103の位置情報、端末装置103に接続されている外部装置の情報、画面表示の有無、音声通話の有無等の情報が含まれる。
 ユーザ状態推定部1102は、例えば、プロセッサ301で実行されるプログラムによって実現される。ユーザ状態推定部1102は、例えば、端末情報受信部1101が受信した端末装置103の状態を示す情報、記憶部510に記憶したユーザ104の予定表1111等に基づいて、ユーザ104の状態を推定する。なお、ユーザ状態推定部1102の機能は、対話内容通知部507、又は応答内容生成部506等に含まれていても良い。
 図12Aは、記憶部510に記憶したユーザ104の予定表1111の一例のイメージを示している。図12Aの例では、予定表1111には、「日時」、「予定」、「繰り返し」等の情報が含まれる。
 「日時」は、予定が登録されている日時を示す情報である。「予定」は、「日時」対応する予定の名前、又は内容等を示す情報である。「繰り返し」は、「予定」が1回のみの予定であるか、例えば、平日、休日、曜日等によって繰り返し発生する予定であるかを示す情報である。
 例えば、ユーザ状態推定部1102は、図12Aに示すような予定表1111を用いて、日時「20xx.01.02 9:00-10:00」において、ユーザ104が「会議中」であると推定することができる。
 (対話内容通知部について)
 第2の実施形態に係る対話内容通知部507は、端末装置103のユーザ104の状態に応じて、異なる通知方法で対話内容を端末装置103に通知する。例えば、対話内容通知部507は、記憶部510に記憶した通知ルール情報1112に基づいて、ユーザ104の端末装置103に対話内容を通知する通知方法を変更する。
 図12Bは、記憶部510に記憶した通知ルール情報1112の一例のイメージを示している。図12Bの例では、通知ルール情報1112には、「接続先」、「画面表示」、「通知方法」等の情報が含まれる。
 「接続先」は、端末装置103が、近距離無線通信、ケーブル等によって接続している外部機器の情報等、端末装置103の接続状態を示す情報である。例えば、「ホーム端末」は、端末装置103がホーム端末202に、近距離無線通信や無線LAN等で接続していることを示している。
 「画面表示」は、端末装置103が、表示部に表示画面を表示しているか否か等、端末装置103の表示状態を示す情報である。なお、「接続先」、及び「画面表示」は、端末装置103の状態を示す情報の一例である。
 「通知方法」は、端末装置103の状態に対応する、対話内容の通知方法を示す情報である。例えば、図12Bの例では、接続先が「ホーム端末」である場合、図2において、ユーザ104が建物203内にいると考えられるので、通知方法は「音声(ホーム端末)」が選択される。この場合、対話内容通知部507は、呼出者106と応答部503との間の対話内容を、ホーム端末202に音声で通知する。
 また、図12Bにおいて、接続先が「カーナビ」であり、画面表示が「なし」である場合、ユーザ104が車を運転中と考えられるので、通知方法は「音声」が選択される。この場合、対話内容通知部507は、呼出者106と応答部503との間の対話内容を、音声で端末装置103に送信する。これにより、例えば、端末装置103に接続されたカーナビ(又は端末装置103)から、対話内容が音声で出力される。
 図12Cは、記憶部510に記憶した通知ルール情報の別の一例のイメージを示している。図12Cの例では、通知ルール情報1112には、「位置情報」、「予定」、「通知方法」等の情報が含まれる。
 「位置情報」は、端末装置103の位置を示す情報であり、端末装置103の状態を示す情報の一例である。なお、端末装置103の位置が「自宅」であるかどうかは、ユーザが予め自宅の位置を登録しておくものであっても良いし、位置情報の履歴に基づいて、所定の時間に端末装置103が戻ってくる場所を「自宅」として、端末装置103が判断するものであっても良い。「職場」についても同様である。
 「スケジュール」は、端末装置103のユーザ104の予定情報であり、例えば、図12Aに示す予定表1111の「予定」に対応している。
 「通知方法」は、端末装置103の状態、及びユーザ104の予定情報に対応する、対話内容の通知方法を示す情報である。例えば、図12Cの例では、位置情報が「自宅」であり、予定が「就寝」である場合、ユーザ104は就寝中と考えられるので、通知方法は、例えば、「テキスト」が選択される。この場合、対話内容通知部507は、呼出者106と応答部503との間の対話内容を、テキストで端末装置103に送信する。
 このように、対話内容通知部507は、例えば、ユーザ104の端末装置103の状態、予定情報等のユーザ104の状態等に応じて、異なる通知方法で呼出者106と応答部503との間の対話内容を通知する。
 なお、図12B、図12Cに示す通知ルール情報1112は一例である。例えば、通知ルール情報1112は、ユーザ状態推定部1102が推定するユーザ104の状態と、通知方法とを対応付けて記憶した情報であっても良い。
 (応答内容生成部について)
 第2の実施形態に係る応答内容生成部506は、第1の実施形態に係る対話内容判断部505の機能に加えて、ユーザ104の状態に応じて、生成する応答内容を変更する機能を有している。これにより、応答部503は、ユーザ104の状態に応じて、異なる対話内容で呼出者106と対話することができる。
 例えば、応答内容生成部506は、記憶部510に記憶した応答ルール情報1113に基づいて、呼出者106との対話内容を生成する。
 図12Dは、記憶部510に記憶した応答ルール情報1113の一例のイメージを示している。図12Dの例では、応答ルール情報1113には、「位置情報」、「予定」、「状態」、「対話内容」等の情報が含まれている。このうち、「位置情報」、「予定」の情報は、図12Cの「位置情報」、「予定」に、それぞれ対応している。
 「状態」は、端末装置103の状態を示す情報である。例えば、「電話中」は、ユーザ104が端末装置103を用いて電話中であることを示している。「待機依頼受付」は、端末装置103が、ユーザ104による待機依頼操作を受け付けた状態であることを示している。ユーザ104は、例えば、呼出者106に応答する意思があるが、直ぐには応答できないとき等に、端末装置103に待機依頼操作を行うことができる。
 「拒否操作受付」は、端末装置103が、ユーザ104による拒否操作を受け付けた状態であることを示している。ユーザ104は、例えば、呼出者106に応答する意思がないとき等に、端末装置103に拒否操作を行うことができる。なお、「位置情報」、「予定」、及び「状態」は、ユーザ104の状態を示す情報の一例である。
 「対話内容」は、ユーザ104の状態に対応する対話内容を示す情報である。例えば、図12Dの例では、位置情報が「自宅」、予定が「なし」、状態が「電話中」である場合、対話内容は、「電話中であることを通知する対話」が選択される。また、位置情報が「自宅」、予定が「なし」、状態が「待機依頼受付」である場合、対話内容は、「待機を要請する対話」が選択される。なお、各対話内容は、例えば、記憶部510や外部サーバ等に予め記憶されたシナリオデータに基づいて生成される。
 なお、図12Dに示す応答ルール情報1113は一例である。例えば、応答ルール情報1113は、ユーザ状態推定部1102が推定したユーザ104の状態と、対話内容とを対応付けて記憶した情報であっても良い。
 このように、第2の実施形態に係る応答部503は、ユーザ104の状態に応じて、異なる対話内容で呼出者106と対話を行うものであっても良い。
 なお、第2の実施形態に係る応答システム101の上記以外の機能構成は、図5に示す第1の実施形態に係る応答システム101の機能構成と同様で良い。
 <処理の流れ>
 続いて、第2の実施形態に係る応答システムの処理の流れについて説明する。
 (応答システムの処理3)
 図13は、第2の実施形態に係る応答システムの処理の例を示すシーケンス図(1)である。この処理は、第2の実施形態に係る応答システム101が、呼出者106によるユーザ104への呼出を検知したときに、応答システム101が実行する基本的な処理の例を示している。なお、ここでは、第1の実施形態と同様の処理に対する詳細な説明は省略する。
 ステップS1301において、応答システム101は、呼出検知部502により、呼出者106によるユーザ104への呼出を検知すると、ステップS1302以降の処理を実行する。
 ステップS1302において、応答システム101は、ユーザ104の状態を示す情報を取得する。一例として、応答システム101は、端末情報受信部1101により、端末装置103の状態を示す情報(例えば、接続先、画面表示、位置情報等)を取得する。別の一例として、応答システム101は、記憶部510に記憶したユーザ104の予定表1111を、さらに取得する。
 ステップS1303において、応答システム101の応答部503は、ユーザ104に代わって呼出者106に、対話で応答する。
 ステップS1304において、応答システム101の対話内容通知部507は、ステップS1302で取得したユーザ104の状態に対応する通知方法で、呼出者106との対話内容をユーザ104の端末装置103に通知する。
 一例として、対話内容通知部507は、ステップS1302で取得した端末装置103の状態を示す情報に含まれる接続先、及び画面表示の情報と、図12Bに示すような通知ルール情報1112とを用いて、対話内容の通知方法を決定する。
 別の一例として、対話内容通知部507は、ステップS1302で取得した端末装置103の状態を示す情報に含まれる位置情報と、ユーザ104の予定表1111と、図12Cに示す通知ルール情報1112とを用いて、対話内容の通知方法を決定する。
 ステップS1305において、応答システム101は、操作内容受付部508が、ユーザ104による所定の操作を受付したか否かを判断する。
 ユーザ104による所定の操作を受付した場合、応答システム101は、処理をステップS1306に移行させる。一方、ユーザ104による所定の操作を受付していない場合、応答システム101は、処理をステップS1307に移行させる。
 ステップS1306に移行すると、応答システム101の対話内容変更部509は、操作内容受付部508が受付した所定の操作に応じて、応答部503による対話内容を変更する。
 ステップS1305からステップS1307に移行すると、応答システム101の応答部503は、呼出者106との対話が終了したか否かを判断する。
 対話が終了していない場合、応答部503は、処理をステップS1303に戻して、呼出者106との対話を継続する。一方、対話が終了した場合、応答システム101は、処理を終了させる。
 (応答システムの処理4)
 図14は、第2の実施形態に係る応答システムの処理の例を示すフローチャート(2)である。応答システム101が、呼出者106によるユーザ104への呼出を検知したときに、応答システム101が実行する、より具体的な処理の一例を示している。
 ここでは、通信システム100が、図1に示すようなシステム構成であるものとして、以下の説明を行う。また、ここでは、第1の実施形態と同様の処理に対する詳細な説明は省略する。
 ステップS1401において、応答システム101は、呼出検知部502により、呼出者106の端末装置105から、ユーザ104の端末装置103への発信に伴う呼出を検知すると、ステップS1402以降の処理を実行する。
 ステップS1402において、応答システム101は、例えば、記憶部510に記憶した設定情報513を参照して、ユーザ104に対応する応答システム101の設定が、自動応答モードに設定されているか否かを判断する。
 ユーザ104に対応する応答システム101の設定が自動応答モードに設定されていない場合、応答システム101は処理を終了させる。一方、ユーザ104に対応する応答システム101の設定が自動応答モードに設定されている場合、応答システム101は処理をステップS1403に移行させる。
 ステップS1403に移行すると、応答システム101は、ユーザ104の状態を示す情報を取得する。一例として、応答システム101は、端末情報受信部1101により、端末装置103の状態を示す情報(例えば、接続先、画面表示、位置情報等)を取得する。別の一例として、応答システム101は、記憶部510に記憶したユーザ104の予定表1111を、さらに取得する。
 ステップS1404において、応答システム101は、ユーザ104の状態に応じて、呼出者106との対話内容、及び対話内容の通知方法を決定する。
 例えば、応答システム101の応答内容生成部506は、端末装置103の位置情報、及び状態を示す情報と、記憶部510に記憶したユーザ104の予定表1111と、応答ルール情報1113とを用いて、呼出者106との対話内容を決定する。
 一例として、対話内容通知部507は、端末情報受信部1101が受信した端末装置103の状態を示す情報に含まれる接続先、及び画面表示の情報と、図12Bに示すような通知ルール情報1112とを用いて、対話内容の通知方法を決定する。
 また、別の一例として、対話内容通知部507は、端末情報受信部1101が受信した端末装置103の位置情報と、記憶部510に記憶したユーザ104の予定表1111と、図12Cに示す通知ルール情報1112とを用いて、対話内容の通知方法を決定する。
 ステップS1405において、応答システム101の応答内容生成部506は、ステップS1404で決定された対話内容に従って、呼出者106との対話内容を生成する。これにより、応答システム101の応答部503は、ステップS1404で決定された対話内容で、呼出者106に対話で応答する。
 ステップS1406において、応答システム101の対話内容通知部507は、ステップS1404で決定された通知方法で、対話内容をユーザ104の端末装置103に通知する。
 ステップS1407において、応答システム101は、操作内容受付部508が、ユーザ104の端末装置103から、所定のデータを受付したか否かを判断する。
 ユーザ104の端末装置103から所定のデータを受付した場合、応答システム101は、処理をステップS1408に移行させる。一方、ユーザ104の端末装置103から所定のデータを受付していない場合、応答システム101は、処理をステップS1409に移行させる。
 ステップS1408に移行すると、応答システム101の対話内容変更部509は、操作内容受付部508が受付した所定のデータに対応する音声を、応答部503に出力させる。これにより、応答部503による対話内容が変更される。
 ステップS1407からステップS1409に移行すると、応答システム101の応答部503は、呼出者106との対話が終了したか否かを判断する。
 対話が終了していない場合、応答部503は、処理をステップS1405に戻して、呼出者106との対話を継続する。一方、対話が終了した場合、応答システム101は、処理を終了させる。
 以上、本発明の各実施形態によれば、応答システム101は、ユーザ104の状態に応じて、呼出者106に対する対話内容、対話内容の通知方法等を変更することができるようになる。
 <補足>
 なお、図5、11の機能構成図は、機能単位のブロックを示している。これらの機能ブロック(機能構成)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されても良いし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されても良い。
 また、図3、4に示す応答システム101、及び端末装置103のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されても良いし、一部の装置を含まずに構成されても良い。また、応答システム101、及び端末装置103は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等のハードウェアを含んで構成されても良く、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されても良い。例えば、プロセッサ301、401は、これらのハードウェアの少なくとも1つで実装されても良い。
 本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G、5G、FRA(Future Radio Access)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されても良い。
 本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャート等は、矛盾のない限り、順序を入れ替えても良い。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
 入出力された情報等は特定の場所(例えば、メモリ)に保存されても良いし、管理テーブルで管理しても良い。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されても良い。入力された情報等は他の装置へ送信されても良い。
 判定は、1ビットで表される値(0か1か)によって行われても良いし、真偽値(Boolean:true又はfalse)によって行われても良いし、数値の比較(例えば、所定の値との比較)によって行われても良い。
 本明細書で説明した各態様/実施形態は単独で用いても良いし、組み合わせて用いても良いし、実行に伴って切り替えて用いても良い。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われても良い。
 ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
 また、ソフトウェア、命令などは、伝送媒体を介して送受信されても良い。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。
 本明細書で説明した情報、信号等は、様々な異なる技術のいずれかを使用して表されても良い。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されても良い。
 なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えても良い。例えば、チャネル及び/又はシンボルは信号(シグナル)であっても良い。また、信号はメッセージであってもよい。また、コンポーネントキャリア(CC)は、キャリア周波数、セルなどと呼ばれても良い。
 本明細書で使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。
 また、本明細書で説明した情報、パラメータなどは、絶対値で表されても良いし、所定の値からの相対値で表されても良いし、対応する別の情報で表されてもよい。例えば、無線リソースはインデックスで指示されるものであっても良い。
 上述したパラメータに使用する名称はいかなる点においても限定的なものではない。さらに、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)及び情報要素(例えば、TPCなど)は、あらゆる好適な名称によって識別できるので、これらの様々なチャネル及び情報要素に割り当てている様々な名称は、いかなる点においても限定的なものではない。
 端末装置は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。
 本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
 「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書、或いは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書、或いは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。
 本開示の全体において、例えば、英語でのa, an, 及びtheのように、翻訳により冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数のものを含むものとする。
 以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。
 本願は、日本特許庁に2018年3月27日に出願した日本国特許出願2018-060625号に基づく優先権を主張するものであり、当該出願の全内容を本国際出願に援用する。
100   通信システム
101   応答システム
103   端末装置
104   ユーザ
106   呼出者
406   出力装置(表示部)
503   応答部
504   呼出者特定部(特定部)
507   対話内容通知部(通知部)
509   対話内容変更部(変更部)
702   表示制御部

Claims (10)

  1.  呼出者によるユーザへの呼出に応じて、前記ユーザに代わって前記呼出者に応答する応答システムであって、
     前記呼出者に対話で応答する応答部と、
     前記応答部による対話内容を前記ユーザに通知する通知部と、
     前記対話内容に対する前記ユーザによる所定の操作に応じて、前記応答部による前記対話内容を変更する変更部と、
     を有する、応答システム。
  2.  前記通知部は、前記対話内容を文字列に変換し、変換した文字列を前記ユーザの端末装置に通知する、請求項1に記載の応答システム。
  3.  前記通知部は、前記ユーザの状態に応じて、異なる通知方法で前記対話内容を前記ユーザの端末装置に通知する、請求項1に記載の応答システム。
  4.  前記ユーザの端末装置の状態を示す情報、又は前記ユーザの予定情報に基づいて、前記ユーザの状態を推定する、請求項3に記載の応答システム。
  5.  前記ユーザの端末装置の状態を示す情報は、前記端末装置と他の機器との接続状態、前記端末装置の表示画面の表示状態、又は前記端末装置の位置を示す情報を含む、請求項4に記載の応答システム。
  6.  前記変更部は、前記ユーザによるテキストの入力操作に応じて、前記テキストに対応する音声を前記応答部に出力させる、請求項1に記載の応答システム。
  7.  前記変更部は、前記ユーザによる音声の入力操作に応じて、前記音声、又は前記音声に対応する別の音声を前記応答部に出力させる、請求項1に記載の応答システム。
  8.  前記ユーザの端末装置は、前記端末装置の表示部に、前記対話内容に対する応答内容を指示する1つ以上の選択肢を表示させる表示制御部を有し、
     前記変更部は、前記ユーザによる前記選択肢の選択に応じて、選択された前記選択肢に対応する音声を前記応答部に出力させる、請求項1に記載の応答システム。
  9.  前記呼出者、又は前記呼出者と前記ユーザとの関係を特定する特定部を有し、
     前記応答部は、前記特定部による特定結果に応じて異なる対話内容で前記呼出者と対話する、請求項1に記載の応答システム。
  10.  前記応答部は、前記ユーザの状態に応じて、異なる対話内容で前記呼出者と対話する、請求項1に記載の応答システム。
PCT/JP2019/011274 2018-03-27 2019-03-18 応答システム WO2019188523A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020510710A JP7258013B2 (ja) 2018-03-27 2019-03-18 応答システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-060625 2018-03-27
JP2018060625 2018-03-27

Publications (1)

Publication Number Publication Date
WO2019188523A1 true WO2019188523A1 (ja) 2019-10-03

Family

ID=68061592

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/011274 WO2019188523A1 (ja) 2018-03-27 2019-03-18 応答システム

Country Status (2)

Country Link
JP (1) JP7258013B2 (ja)
WO (1) WO2019188523A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010239242A (ja) * 2009-03-30 2010-10-21 Nec Corp 自動応答装置、自動応答方法、自動応答プログラム
WO2017068816A1 (ja) * 2015-10-20 2017-04-27 ソニー株式会社 情報処理システム、および情報処理方法
JP2018023017A (ja) * 2016-08-04 2018-02-08 株式会社三菱東京Ufj銀行 情報提供システム、情報提供方法、および情報提供プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010239242A (ja) * 2009-03-30 2010-10-21 Nec Corp 自動応答装置、自動応答方法、自動応答プログラム
WO2017068816A1 (ja) * 2015-10-20 2017-04-27 ソニー株式会社 情報処理システム、および情報処理方法
JP2018023017A (ja) * 2016-08-04 2018-02-08 株式会社三菱東京Ufj銀行 情報提供システム、情報提供方法、および情報提供プログラム

Also Published As

Publication number Publication date
JPWO2019188523A1 (ja) 2021-04-01
JP7258013B2 (ja) 2023-04-14

Similar Documents

Publication Publication Date Title
AU2014201252B2 (en) Method and apparatus for providing state information
KR101942308B1 (ko) 메시지 기능을 제공하기 위한 방법 및 그 전자 장치
RU2526758C2 (ru) Коснитесь любого места, чтобы говорить
AU2015280093B2 (en) Location-based audio messaging
EP2520130B1 (en) Method and apparatus for performing multiple forms of communications in one session
EP1919174B1 (en) Presence information delivery apparatus and method for mobile communication network
EP2747389A2 (en) Mobile terminal having auto answering function and auto answering method for use in the mobile terminal
US9369425B2 (en) Email and instant messaging agent for dialog system
US10403272B1 (en) Facilitating participation in a virtual meeting using an intelligent assistant
CN103026740A (zh) 用于建议消息分段的方法和装置
KR20160148260A (ko) 전자 장치 및 이의 제어 방법
US10325244B2 (en) Method and device for processing a communication message
US20090248820A1 (en) Interactive unified access and control of mobile devices
KR20140078258A (ko) 대화 인식을 통한 이동 단말 제어 장치 및 방법, 회의 중 대화 인식을 통한 정보 제공 장치
US10708414B2 (en) Method for providing guidance during a call waiting state
CN105407160B (zh) 界面显示方法和装置
US10129340B2 (en) Method and apparatus for performing multiple forms of communications in one session
KR20190024921A (ko) 개인 일정 및 라이프 스타일을 반영한 인공지능의 컨텍 제어
US20160150355A1 (en) Method of controlling operation mode and electronic device therefor
WO2019188523A1 (ja) 応答システム
US20080162489A1 (en) Apparatus and method for exchanging information between devices
US10447842B1 (en) Push-to-talk to messaging application graphical interface
KR20160123074A (ko) 수신자의 상태정보에 따른 통신방법 및 디바이스
CN111277708A (zh) 一种信息处理方法及电子设备
JP2018005425A (ja) 表示制御方法、端末、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19775540

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020510710

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19775540

Country of ref document: EP

Kind code of ref document: A1