JP7438479B1 - Automatic voice response device, automatic voice response method, automatic voice response program, and automatic voice response system - Google Patents

Automatic voice response device, automatic voice response method, automatic voice response program, and automatic voice response system Download PDF

Info

Publication number
JP7438479B1
JP7438479B1 JP2023182831A JP2023182831A JP7438479B1 JP 7438479 B1 JP7438479 B1 JP 7438479B1 JP 2023182831 A JP2023182831 A JP 2023182831A JP 2023182831 A JP2023182831 A JP 2023182831A JP 7438479 B1 JP7438479 B1 JP 7438479B1
Authority
JP
Japan
Prior art keywords
voice
caller
response
terminal
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023182831A
Other languages
Japanese (ja)
Inventor
奥西亮賀
宮原忍
町田雄一郎
Original Assignee
株式会社IVRy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社IVRy filed Critical 株式会社IVRy
Priority to JP2023182831A priority Critical patent/JP7438479B1/en
Application granted granted Critical
Publication of JP7438479B1 publication Critical patent/JP7438479B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Telephonic Communication Services (AREA)

Abstract

【課題】 音声通話の発信者に応じた応答が可能な音声自動応答を実現する。【解決手段】一実施形態によれば、発信者と音声対話する音声自動応答装置であって、発信者端末から音声通話要求を受け付けるステップと、前記発信者端末から端末情報を取得するステップと、前記端末情報を含む発信者情報に基づいて、応答方法を決定するステップと、音声通話が開始された場合、決定された前記応答方法に従って、前記発信者と音声対話を実行するステップと、を実行する音声自動応答装置。【選択図】図6[Problem] To realize automatic voice response that can respond according to the caller of a voice call. According to one embodiment, an automatic voice response device that performs voice interaction with a caller includes the steps of receiving a voice call request from a caller terminal, acquiring terminal information from the caller terminal, determining a response method based on the caller information including the terminal information; and when a voice call is started, performing a voice interaction with the caller according to the determined response method. automatic voice response device. [Selection diagram] Figure 6

Description

本発明は、音声自動応答装置、音声自動応答方法、音声自動応答プログラム及び音声自動応答システムに関する。 The present invention relates to an automatic voice response device, an automatic voice response method, an automatic voice response program, and an automatic voice response system.

近年、音声通話の発信者に対して音声で自動的に応答する技術が普及している。このような技術として、例えば、引用文献1には、発信者がかけた呼を受信し、前記発信者との音声または操作のやりとりによって、目的のサービスへの誘導を行う音声自動応答装置であって、前記発信者に対して、次に行うやりとりを促すための、やりとりの種類に応じた複数の再生項目を所定の再生順序で記憶する記憶部と、前記再生順序に従って再生項目の再生を行う再生部と、前記発信者の、前記やりとりの種類ごとのやりとりの回数を計数する計数部と、前記計数部で計数した前記やりとりの回数に応じて、前記複数の再生項目の再生順序を変更する再生変更部とを有することを特徴とする音声自動応答装置が開示されている。 2. Description of the Related Art In recent years, technology for automatically responding with voice to a caller of a voice call has become widespread. As such technology, for example, cited document 1 discloses an automatic voice response device that receives a call made by a caller and guides the caller to a desired service by exchanging voice or operations with the caller. a storage unit that stores a plurality of playback items in a predetermined playback order according to the type of interaction in order to prompt the caller to carry out the next interaction; and a storage unit that plays back the playback items in accordance with the playback order. a playback unit, a counting unit that counts the number of interactions for each type of interaction between the caller, and changing the playback order of the plurality of playback items according to the number of interactions counted by the counting unit. An automatic voice response device is disclosed which is characterized by having a playback change section.

特開2019-153835号公報JP2019-153835A

音声自動応答では、予め設定されたメッセージを音声出力することにより、発信者に対する応答が行われていた。このため、画一的な応答しかできず、発信者に応じた応答を行うことは困難であった。 In automatic voice response, a response to a caller is made by outputting a preset message audibly. For this reason, only a uniform response can be made, and it is difficult to respond in accordance with the caller.

本発明は、上記の課題を鑑みてなされたものであり、音声通話の発信者に応じた応答が可能な音声自動応答を実現することを目的とする。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to realize an automatic voice response capable of responding according to the caller of a voice call.

一実施形態によれば、発信者と音声対話する音声自動応答装置であって、発信者端末から音声通話要求を受け付けるステップと、前記発信者端末から端末情報を取得するステップと、前記端末情報を含む発信者情報に基づいて、応答方法を決定するステップと、音声通話が開始された場合、決定された前記応答方法に従って、前記発信者と音声対話を実行するステップと、を実行する音声自動応答装置。 According to one embodiment, an automatic voice response device that performs voice interaction with a caller includes the steps of receiving a voice call request from a caller terminal, acquiring terminal information from the caller terminal, and transmitting the terminal information. an automatic voice response that performs the following steps: determining a response method based on caller information included; and when a voice call is initiated, performing a voice interaction with the caller according to the determined response method. Device.

一実施形態によれば、音声通話の発信者に応じた応答が可能な音声自動応答を実現することができる。 According to one embodiment, it is possible to realize an automatic voice response that can respond according to the caller of the voice call.

音声自動応答システム1000の構成の一例を示す図である。1 is a diagram showing an example of the configuration of an automatic voice response system 1000. FIG. 音声自動応答装置1のハードウェア構成の一例を示す図である。1 is a diagram showing an example of a hardware configuration of an automatic voice response device 1. FIG. 発信者端末2のハードウェア構成の一例を示す図である。2 is a diagram showing an example of the hardware configuration of a caller terminal 2. FIG. 音声自動応答装置1の機能構成の一例を示す図である。1 is a diagram showing an example of a functional configuration of an automatic voice response device 1. FIG. 発信者端末2の機能構成の一例を示す図である。2 is a diagram showing an example of a functional configuration of a caller terminal 2. FIG. 第1実施形態に係る音声自動応答システム1000が実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which the automatic voice response system 1000 based on 1st Embodiment performs. 第1実施例(1)に係る応答方法の決定方法の一例を示す図である。FIG. 7 is a diagram illustrating an example of a method for determining a response method according to the first embodiment (1). 第1実施例(1)に係る応答方法の決定方法の一例を示す図である。FIG. 7 is a diagram illustrating an example of a method for determining a response method according to the first embodiment (1). 第1実施例(2)に係る応答方法の決定方法の一例を示す図である。FIG. 7 is a diagram illustrating an example of a method for determining a response method according to the first embodiment (2). 第1実施例(3)に係る応答方法の決定方法の一例を示す図である。FIG. 7 is a diagram illustrating an example of a method for determining a response method according to the first embodiment (3). 第1実施例(4)に係る応答方法の決定方法の一例を示す図である。FIG. 7 is a diagram illustrating an example of a method for determining a response method according to the first embodiment (4). 第2実施例(1)に係る応答方法の決定方法の一例を示す図である。FIG. 7 is a diagram illustrating an example of a method for determining a response method according to the second embodiment (1). 第2実施例(2)に係る応答方法の決定方法の一例を示す図である。FIG. 7 is a diagram illustrating an example of a method for determining a response method according to the second embodiment (2). 第2実施例(3)に係る応答方法の決定方法の一例を示す図である。FIG. 7 is a diagram illustrating an example of a method for determining a response method according to the second embodiment (3). 第3実施例(1)に係る応答方法の決定方法の一例を示す図である。It is a figure which shows an example of the determination method of the response method based on 3rd Example (1). 第2実施形態に係る音声自動応答システム1000が実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which the automatic voice response system 1000 based on 2nd Embodiment performs.

以下、本発明の各実施形態について、添付の図面を参照しながら説明する。なお、各実施形態に係る明細書及び図面の記載に関して、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。 Hereinafter, each embodiment of the present invention will be described with reference to the accompanying drawings. Note that in the descriptions of the specifications and drawings related to each embodiment, the same reference numerals are given to the constituent elements having substantially the same functional configuration to omit redundant explanation.

[第1実施形態]
<システム構成>
まず、本実施形態に係る音声自動応答システム1000の概要について説明する。音声自動応答システム1000は、音声通話の発信者に対して音声で自動的に応答する情報処理システムである。音声自動応答システム1000は、発信者に関する情報に基づいて応答方法を決定することにより、発信者に応じた応答を実現することができる。音声自動応答システム1000は、飲食店や宿泊施設などの予約、商品の購入、イベントへの申し込みなど、音声通話で手続きを行う様々なサービスで利用できる。
[First embodiment]
<System configuration>
First, an overview of the automatic voice response system 1000 according to this embodiment will be explained. The automatic voice response system 1000 is an information processing system that automatically responds with voice to a caller of a voice call. The automated voice response system 1000 can realize a response tailored to the caller by determining a response method based on information about the caller. The automatic voice response system 1000 can be used for various services that require voice calls, such as making reservations for restaurants and accommodations, purchasing products, and applying for events.

図1は、音声自動応答システム1000の構成の一例を示す図である。図1に示すように、音声自動応答システム1000は、ネットワークNを介して相互に通信可能に接続された、音声自動応答装置1と、発信者端末2と、を備える。ネットワークNは、例えば、有線LAN(Local Area Network)、無線LAN、インターネット、公衆回線網、モバイルデータ通信網、又はこれらの組み合わせである。図1の例では、音声自動応答システム1000は、音声自動応答装置1及び発信者端末2をそれぞれ1つずつ備えるが、それぞれ複数備えてもよい。 FIG. 1 is a diagram showing an example of the configuration of an automated voice response system 1000. As shown in FIG. 1, the automated voice response system 1000 includes an automated voice response device 1 and a caller terminal 2, which are communicably connected to each other via a network N. The network N is, for example, a wired LAN (Local Area Network), a wireless LAN, the Internet, a public line network, a mobile data communication network, or a combination thereof. In the example of FIG. 1, the automatic voice response system 1000 includes one automatic voice response device 1 and one caller terminal 2, but it may include a plurality of each.

音声自動応答装置1は、発話者端末2との間で音声通話を成立させ、受信者の代わりに発信者との音声対話を実行する情報処理装置である。音声自動応答装置1は、例えば、PC(Personal Computer)、スマートフォン、タブレット端末、サーバ装置、又はマイクロコンピュータであるが、これに限られない。図1の例では、音声自動応答装置1は、1の情報処理装置であるが、ネットワークNを介して接続された複数の情報処理装置からなるシステムとして実現されてもよい。 The automatic voice response device 1 is an information processing device that establishes a voice call with a speaker terminal 2 and executes a voice conversation with the caller on behalf of the receiver. The automatic voice response device 1 is, for example, a PC (Personal Computer), a smartphone, a tablet terminal, a server device, or a microcomputer, but is not limited thereto. In the example of FIG. 1, the automatic voice response device 1 is one information processing device, but it may be realized as a system consisting of a plurality of information processing devices connected via a network N.

発信者端末2は、発信者が受信者に音声通話を要求するために利用する情報処理装置である。発信者は音声通話を要求する人であり、受信者は音声通話の要求を受ける任意の者である。受信者は、例えば、人、法人又は店舗であるが、これに限られない。発信者は、発信者端末2で動作するブラウザ又は音声通話が可能な任意のアプリケーションから、受信者に対して音声通話を要求する。発信者端末2は、例えば、PC、スマートフォン又はタブレット端末であるが、これに限られない。 The caller terminal 2 is an information processing device used by the caller to request a voice call from the receiver. A caller is a person requesting a voice call, and a recipient is any person receiving a request for a voice call. The recipient is, for example, a person, a corporation, or a store, but is not limited thereto. The sender requests a voice call to the receiver from a browser running on the caller terminal 2 or any application capable of making a voice call. The caller terminal 2 is, for example, a PC, a smartphone, or a tablet terminal, but is not limited thereto.

<音声自動応答装置1のハードウェア構成>
次に、音声自動応答装置1のハードウェア構成について説明する。図2は、音声自動応答装置1のハードウェア構成の一例を示す図である。図2に示すように、音声自動応答装置1は、バスB1を介して相互に接続された、プロセッサ101と、メモリ102と、ストレージ103と、通信I/F104と、入力装置105と、出力装置106と、ドライブ装置107と、を備える。
<Hardware configuration of automatic voice response device 1>
Next, the hardware configuration of the automatic voice response device 1 will be explained. FIG. 2 is a diagram showing an example of the hardware configuration of the automatic voice response device 1. As shown in FIG. As shown in FIG. 2, the automatic voice response device 1 includes a processor 101, a memory 102, a storage 103, a communication I/F 104, an input device 105, and an output device that are interconnected via a bus B1. 106 and a drive device 107.

プロセッサ101は、ストレージ103に記憶されたOS(Operating System)及び音声自動応答プログラムを含む各種のプログラムをメモリ102に展開して実行することにより、音声自動応答装置1の各構成を制御し、音声自動応答装置1の機能を実現する。プロセッサ101は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)又はDSP(Digital Signal Processor)であるが、これに限られない。 The processor 101 controls each configuration of the automatic voice response device 1 by expanding various programs including an OS (Operating System) and an automatic voice response program stored in the storage 103 into the memory 102 and executing them. The functions of the automatic response device 1 are realized. The processor 101 is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), or a DSP (Digital Signal Processor), but is not limited thereto. .

メモリ102は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、又はこれらの組み合わせである。ROMは、例えば、PROM(Programmable ROM)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、又はこれらの組み合わせである。RAMは、例えば、DRAM(Dynamic RAM)又はSRAM(Static RAM)であるが、これに限られない。 The memory 102 is, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), or a combination thereof. The ROM is, for example, a PROM (Programmable ROM), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), or a combination thereof. The RAM is, for example, DRAM (Dynamic RAM) or SRAM (Static RAM), but is not limited thereto.

ストレージ103は、OS及び音声自動応答プログラムを含む各種のプログラム及びデータを記憶する。ストレージ103は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)又はSCM(Storage Class Memories)であるが、これに限られない。 The storage 103 stores various programs and data including an OS and an automatic voice response program. The storage 103 is, for example, a flash memory, an HDD (Hard Disk Drive), an SSD (Solid State Drive), or an SCM (Storage Class Memories), but is not limited thereto.

通信I/F104は、音声自動応答装置1を、ネットワークNを介して外部装置に接続し、通信を制御するためのインタフェースである。通信I/F104は、例えば、Bluetooth(登録商標)、Wi-Fi(登録商標)、ZigBee(登録商標)又はEthernet(登録商標)であるが、これに限られない。 The communication I/F 104 is an interface for connecting the automatic voice response device 1 to an external device via the network N and controlling communication. The communication I/F 104 is, for example, Bluetooth (registered trademark), Wi-Fi (registered trademark), ZigBee (registered trademark), or Ethernet (registered trademark), but is not limited thereto.

入力装置105は、音声自動応答装置1に情報を入力するための装置である。入力装置105は、例えば、マウス、キーボード、タッチパネル、マイク、スキャナ、撮影装置(カメラ)、各種センサ又は操作ボタンであるが、これに限られない。 The input device 105 is a device for inputting information to the automatic voice response device 1. The input device 105 is, for example, a mouse, a keyboard, a touch panel, a microphone, a scanner, a photographing device (camera), various sensors, or an operation button, but is not limited thereto.

出力装置106は、音声自動応答装置1から情報を出力するための装置である。出力装置106は、例えば、表示装置(ディスプレイ)、プロジェクタ、プリンタ、スピーカ又はバイブレータであるが、これに限られない。 The output device 106 is a device for outputting information from the automatic voice response device 1. The output device 106 is, for example, a display, a projector, a printer, a speaker, or a vibrator, but is not limited thereto.

ドライブ装置107は、記録メディア108のデータを読み書きする装置である。ドライブ装置107は、例えば、磁気ディスクドライブ、光学ディスクドライブ、光磁気ディスクドライブ又はSDカードリーダであるが、これに限られない。記録メディア108は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、FD(Floppy Disk)、MO(Magneto-Optical disk)、BD(Blu-ray(登録商標) Disc)、USB(登録商標)メモリ又はSDカードであるが、これに限られない。 The drive device 107 is a device that reads and writes data on the recording medium 108. The drive device 107 is, for example, a magnetic disk drive, an optical disk drive, a magneto-optical disk drive, or an SD card reader, but is not limited thereto. The recording medium 108 is, for example, a CD (Compact Disc), a DVD (Digital Versatile Disc), an FD (Floppy Disk), an MO (Magneto-Optical disk), a BD (Blu-ray (registered trademark) Disc), or a USB (registered trademark). ) memory or SD card, but is not limited to this.

なお、本実施形態において、音声自動応答プログラムは、音声自動応答装置1の製造段階でメモリ102又はストレージ103に書き込まれてもよいし、ネットワークNを介して音声自動応答装置1に提供されてもよいし、記録メディア108などの非一時的でコンピュータ読み取り可能な記録媒体を介して音声自動応答装置1に提供されてもよい。 In this embodiment, the automatic voice response program may be written into the memory 102 or the storage 103 at the manufacturing stage of the automatic voice response device 1, or may be provided to the automatic voice response device 1 via the network N. Alternatively, the information may be provided to the automatic voice response device 1 via a non-transitory computer-readable recording medium such as the recording medium 108.

<発信者端末2のハードウェア構成>
次に、発信者端末2のハードウェア構成について説明する。図3は、発信者端末2のハードウェア構成の一例を示す図である。図3に示すように、発信者端末2は、バスB2を介して相互に接続された、プロセッサ201と、メモリ202と、ストレージ203と、通信I/F204と、入力装置205と、出力装置206と、を備える。
<Hardware configuration of caller terminal 2>
Next, the hardware configuration of the caller terminal 2 will be explained. FIG. 3 is a diagram showing an example of the hardware configuration of the caller terminal 2. As shown in FIG. As shown in FIG. 3, the caller terminal 2 includes a processor 201, a memory 202, a storage 203, a communication I/F 204, an input device 205, and an output device 206, which are interconnected via a bus B2. and.

プロセッサ201は、ストレージ203に記憶されたOS及び音声自動応答プログラムを含む各種のプログラムをメモリ202に展開して実行することにより、発信者端末2の各構成を制御し、発信者端末2の機能を実現する。プロセッサ201は、例えば、CPU、MPU、GPU、ASIC又はDSPであるが、これに限られない。 The processor 201 controls each configuration of the caller terminal 2 and controls the functions of the caller terminal 2 by expanding various programs including the OS and automatic voice response program stored in the storage 203 into the memory 202 and executing them. Realize. The processor 201 is, for example, a CPU, MPU, GPU, ASIC, or DSP, but is not limited thereto.

メモリ202は、例えば、ROM、RAM、又はこれらの組み合わせである。ROMは、例えば、PROM、EPROM、EEPROM、又はこれらの組み合わせである。RAMは、例えば、DRAM又はSRAMであるが、これに限られない。 Memory 202 is, for example, ROM, RAM, or a combination thereof. The ROM is, for example, a PROM, an EPROM, an EEPROM, or a combination thereof. RAM is, for example, DRAM or SRAM, but is not limited thereto.

ストレージ203は、OS及び音声自動応答プログラムを含む各種のプログラム及びデータを記憶する。ストレージ203は、例えば、フラッシュメモリ、HDD、SSD又はSCMであるが、これに限られない。 The storage 203 stores various programs and data including an OS and an automatic voice response program. The storage 203 is, for example, a flash memory, an HDD, an SSD, or an SCM, but is not limited thereto.

通信I/F204は、発信者端末2を、ネットワークNを介して外部装置に接続し、通信を制御するためのインタフェースである。通信I/F204は、例えば、Bluetooth(登録商標)、Wi-Fi(登録商標)、ZigBee(登録商標)又はEthernet(登録商標)であるが、これに限られない。 The communication I/F 204 is an interface for connecting the caller terminal 2 to an external device via the network N and controlling communication. The communication I/F 204 is, for example, Bluetooth (registered trademark), Wi-Fi (registered trademark), ZigBee (registered trademark), or Ethernet (registered trademark), but is not limited thereto.

入力装置205は、発信者端末2に情報を入力するための装置である。入力装置205は、例えば、マウス、キーボード、タッチパネル、マイク、スキャナ、撮影装置(カメラ)、各種センサ又は操作ボタンであるが、これに限られない。発信者端末2は、入力装置205として、マイク205Cを備える。 The input device 205 is a device for inputting information to the caller terminal 2. The input device 205 is, for example, a mouse, a keyboard, a touch panel, a microphone, a scanner, a photographing device (camera), various sensors, or an operation button, but is not limited thereto. The caller terminal 2 includes a microphone 205C as the input device 205.

出力装置206は、発信者端末2から情報を出力するための装置である。出力装置206は、例えば、表示装置(ディスプレイ)、プロジェクタ、プリンタ、スピーカ又はバイブレータであるが、これに限られない。発信者端末2は、出力装置206として、表示装置206D及びスピーカ206Sを備える。 The output device 206 is a device for outputting information from the caller terminal 2. The output device 206 is, for example, a display, a projector, a printer, a speaker, or a vibrator, but is not limited thereto. The sender terminal 2 includes a display device 206D and a speaker 206S as the output device 206.

なお、本実施形態において、音声自動応答プログラムは、発信者端末2の製造段階でメモリ202又はストレージ203に書き込まれてもよいし、ネットワークNを介して発信者端末2に提供されてもよいし、記録メディア208などの非一時的でコンピュータ読み取り可能な記録媒体を介して発信者端末2に提供されてもよい。 Note that in this embodiment, the automatic voice response program may be written into the memory 202 or the storage 203 during the manufacturing stage of the caller terminal 2, or may be provided to the caller terminal 2 via the network N. , may be provided to the caller terminal 2 via a non-transitory computer-readable recording medium, such as the recording medium 208.

<音声自動応答装置1の機能構成>
次に、音声自動応答装置1の機能構成について説明する。図4は、音声自動応答装置1の機能構成の一例を示す図である。図4に示すように、音声自動応答装置1は、通信部11と、記憶部12と、制御部13と、を備える。
<Functional configuration of automatic voice response device 1>
Next, the functional configuration of the automatic voice response device 1 will be explained. FIG. 4 is a diagram showing an example of the functional configuration of the automatic voice response device 1. As shown in FIG. As shown in FIG. 4, the automatic voice response device 1 includes a communication section 11, a storage section 12, and a control section 13.

通信部11は、通信I/F104により実現される。通信部11は、ネットワークNを介して、発信者端末2との間で情報の送受信を行う。 The communication unit 11 is realized by the communication I/F 104. The communication unit 11 transmits and receives information to and from the caller terminal 2 via the network N.

記憶部12は、メモリ102及びストレージ103により実現される。記憶部12は、発信者情報121と、受信者DB122と、会員DB123と、応答シナリオ情報124と、を記憶する。 The storage unit 12 is realized by a memory 102 and a storage 103. The storage unit 12 stores sender information 121, recipient DB 122, member DB 123, and response scenario information 124.

発信者情報121は、発信者に関する情報である。発信者情報121は、端末情報121aと、会員情報121bと、音声情報121cと、手続き情報121dと、を含む。 The sender information 121 is information regarding the sender. The sender information 121 includes terminal information 121a, member information 121b, voice information 121c, and procedure information 121d.

端末情報121aは、発信者端末2から取得した情報である。端末情報121aは、例えば、発信者端末2のセッションID、発信者の閲覧ページに関する情報(URL、タイトル、クエリ文字列、任意に設定された識別子など)、ブラウザに関する情報(ブラウザ種別、バージョン、設定言語、地域など)、発信者の識別情報(メールアドレス、電話番号、氏名、会員番号など)、デバイスに関する情報(デバイス種別、バージョン、設定言語、地域など)又は音声通話の目的(予約など)を示す情報を含む。 Terminal information 121a is information acquired from caller terminal 2. The terminal information 121a includes, for example, the session ID of the caller terminal 2, information about the page viewed by the caller (URL, title, query string, arbitrarily set identifier, etc.), information about the browser (browser type, version, settings, etc.). language, region, etc.), caller identification information (email address, phone number, name, membership number, etc.), device information (device type, version, language setting, region, etc.), or purpose of the voice call (reservation, etc.) Contains information indicating.

会員情報121bは、発信者に対応する会員情報である。会員情報121bは、例えば、発信者の会員ID、属性(名前、年齢、性別、住所、家族構成、職業、会員ランクなど)、電話番号、メールアドレス、保有ポイント又はアクセスログを示す情報を含む。 Member information 121b is member information corresponding to the sender. The member information 121b includes, for example, information indicating the sender's member ID, attributes (name, age, gender, address, family structure, occupation, membership rank, etc.), telephone number, email address, points held, or access log.

音声情報121cは、発信者が音声通話中に発話した音声の音声情報である。 The voice information 121c is voice information of the voice uttered by the caller during the voice call.

手続き情報121dは、音声対話により発信者が行った手続きに関する情報である。手続き情報121dは、音声情報121cを音声認識処理によりテキスト化し、得られたテキストから抽出される。 The procedure information 121d is information regarding the procedure performed by the caller through voice dialogue. The procedure information 121d is extracted from the text obtained by converting the speech information 121c into text through speech recognition processing.

受信者DB122は、音声自動応答システム1000における受信者として登録された者に関する情報である受信者情報のDB(Database)である。受信者DB122には、複数の受信者の受信者情報が登録される。受信者情報は、例えば、受信者ID、名前、住所、電話番号、又はメールアドレスを示す情報を含む。 The recipient DB 122 is a DB (Database) of recipient information, which is information regarding persons registered as recipients in the automatic voice response system 1000. In the recipient DB 122, recipient information of a plurality of recipients is registered. The recipient information includes, for example, information indicating the recipient ID, name, address, telephone number, or email address.

会員DB123は、音声自動応答システム1000における会員として登録された人に関する情報である会員情報のDBである。会員DB123には、複数の会員の会員情報が登録される。会員情報は、例えば、会員ID、属性(名前、年齢、性別、住所、家族構成、職業、会員ランクなど)、電話番号、メールアドレス、保有ポイント又はアクセスログを示す情報を含む。 The member DB 123 is a DB of member information that is information about people registered as members in the automatic voice response system 1000. Member information of a plurality of members is registered in the member DB 123. The member information includes, for example, information indicating a member ID, attributes (name, age, gender, address, family composition, occupation, member rank, etc.), telephone number, email address, points held, or access log.

応答シナリオ情報124は、発信者との応答のために予め用意された複数の応答シナリオに関する情報である。応答シナリオは、発信者に対して順番に発せられる複数のメッセージにより構成される。メッセージは、例えば、発信者に対する挨拶、質問又は確認に対応するメッセージを含む。また、 The response scenario information 124 is information regarding a plurality of response scenarios prepared in advance for responses with the caller. A response scenario consists of a plurality of messages that are issued in sequence to the caller. The messages include, for example, messages corresponding to greetings, questions, or confirmations to the caller. Also,

制御部13は、プロセッサ101がメモリ102からプログラムを読み出して実行し、他のハードウェア構成と協働することにより実現される。制御部13は、音声自動応答装置1の動作全体を制御する。制御部13は、音声通話制御部131と、発信者情報取得部132と、応答方法決定部133と、音声対話部134と、を備える。 The control unit 13 is realized by the processor 101 reading a program from the memory 102, executing it, and cooperating with other hardware configurations. The control unit 13 controls the entire operation of the automatic voice response device 1. The control unit 13 includes a voice call control unit 131, a caller information acquisition unit 132, a response method determination unit 133, and a voice interaction unit 134.

音声通話制御部131は、発信者端末2との音声通話を制御する。 The voice call control unit 131 controls voice calls with the caller terminal 2.

発信者情報取得部132は、発信者情報121を取得する。 The sender information acquisition unit 132 acquires the sender information 121.

応答方法決定部133は、応答方法を決定する。応答方法の決定方法は、例えば、音声対話に利用する応答シナリオの選択、応答シナリオに含まれるメッセージの少なくとも一部の変更、応答シナリオに含まれるメッセージの選択、音声設定の変更又は受信者端末3への転送を含む。 The response method determination unit 133 determines a response method. The method for determining the response method includes, for example, selecting a response scenario to be used for voice dialogue, changing at least a part of the message included in the response scenario, selecting a message included in the response scenario, changing voice settings, or receiving terminal 3. including transfers to.

音声対話部134は、応答方法決定部133により決定された応答方法に従って、発信者と音声対話を実行する。 The voice interaction unit 134 executes voice interaction with the caller according to the response method determined by the response method determination unit 133.

なお、音声自動応答装置1の機能構成は、上記の例に限られない。例えば、音声自動応答装置1は、上記の機能構成の一部を備え、残りを発信者端末2が備えてもよい。また、音声自動応答装置1は、上記以外の機能構成を備えてもよい。また、音声自動応答装置1の各機能構成は、上記の通り、ソフトウェアにより実現されてもよいし、ICチップ、SoC(System on Chip)、LSI(Large Scale Integration)、マイクロコンピュータ等のハードウェアによって実現されてもよい。 Note that the functional configuration of the automatic voice response device 1 is not limited to the above example. For example, the automatic voice response device 1 may include part of the above functional configuration, and the caller terminal 2 may include the rest. Further, the automatic voice response device 1 may have a functional configuration other than the above. Further, each functional configuration of the automatic voice response device 1 may be realized by software as described above, or by hardware such as an IC chip, SoC (System on Chip), LSI (Large Scale Integration), or microcomputer. May be realized.

<発信者端末2の機能構成>
次に、発信者端末2の機能構成について説明する。図5は、発信者端末2の機能構成の一例を示す図である。図5に示すように、発信者端末2は、通信部21と、記憶部22と、制御部23と、を備える。
<Functional configuration of caller terminal 2>
Next, the functional configuration of the caller terminal 2 will be explained. FIG. 5 is a diagram showing an example of the functional configuration of the caller terminal 2. As shown in FIG. As shown in FIG. 5, the caller terminal 2 includes a communication section 21, a storage section 22, and a control section 23.

通信部21は、通信I/F204により実現される。通信部21は、ネットワークNを介して、音声自動応答装置1との間で情報の送受信を行う。 The communication unit 21 is realized by the communication I/F 204. The communication unit 21 transmits and receives information to and from the automatic voice response device 1 via the network N.

記憶部22は、メモリ202及びストレージ203により実現される。記憶部22は、端末情報221を記憶する。 The storage unit 22 is realized by a memory 202 and a storage 203. The storage unit 22 stores terminal information 221.

端末情報221は、発信者端末2に関する情報である。端末情報221は、例えば、発信者端末2のセッションID、発信者の閲覧ページに関する情報(URL、タイトル、クエリ文字列、任意に設定された識別子など)、ブラウザに関する情報(ブラウザ種別、バージョン、設定言語、地域など)又は発信者の識別情報(メールアドレス、電話番号、氏名、会員番号など)を含む。 The terminal information 221 is information regarding the caller terminal 2. The terminal information 221 includes, for example, the session ID of the caller terminal 2, information about the page viewed by the caller (URL, title, query string, arbitrarily set identifier, etc.), information about the browser (browser type, version, settings, etc.). language, region, etc.) or caller identification information (email address, phone number, name, membership number, etc.).

制御部23は、プロセッサ201がメモリ202からプログラムを読み出して実行し、他のハードウェア構成と協働することにより実現される。制御部23は、発信者端末2の動作全体を制御する。制御部23は、音声通話制御部231を備える。 The control unit 23 is realized by the processor 201 reading a program from the memory 202, executing it, and cooperating with other hardware configurations. The control unit 23 controls the entire operation of the caller terminal 2. The control unit 23 includes a voice call control unit 231.

音声通話制御部231は、音声自動応答装置1との音声通話を制御する。 The voice call control unit 231 controls voice calls with the automatic voice response device 1 .

なお、発信者端末2の機能構成は、上記の例に限られない。例えば、発信者端末2は、上記の機能構成の一部を備え、残りを音声自動応答装置1が備えてもよい。また、発信者端末2は、上記以外の機能構成を備えてもよい。また、発信者端末2の各機能構成は、上記の通り、ソフトウェアにより実現されてもよいし、ICチップ、SoC、LSI、マイクロコンピュータ等のハードウェアによって実現されてもよい。 Note that the functional configuration of the caller terminal 2 is not limited to the above example. For example, the caller terminal 2 may include part of the above functional configuration, and the automatic voice response device 1 may include the rest. Further, the caller terminal 2 may have a functional configuration other than the above. Furthermore, each functional configuration of the caller terminal 2 may be realized by software as described above, or may be realized by hardware such as an IC chip, SoC, LSI, or microcomputer.

<音声自動応答システム1000が実行する学習処理>
次に、音声自動応答システム1000が実行する処理について説明する。図6は、音声自動応答システム1000が実行する処理の一例を示すフローチャートである。以下では、発信者Xが、音声自動応答システム1000が導入された会員制のウェブサービスY(例えば、飲食店の予約サービス)から、事業者Z(例えば、飲食店)に対して音声通話で手続き(例えば、予約)を行う場合を例に説明する。発信者Xは、ウェブサービスYの会員であり、事業者Zは、ウェブサービスYに登録された受信者であるものとする。
<Learning process executed by automatic voice response system 1000>
Next, the processing executed by the automatic voice response system 1000 will be explained. FIG. 6 is a flowchart illustrating an example of a process executed by the automatic voice response system 1000. In the following, a caller (For example, making a reservation) will be explained as an example. It is assumed that sender X is a member of web service Y, and provider Z is a recipient registered with web service Y.

(ステップS101)
まず、発信者Xは、発信者端末2の表示装置206DにウェブサービスYを表示し、自身の会員IDでログインし、ウェブサービスYに設けられた事業者Z宛の発信ボタンを押下する。発信者端末2は、発信ボタンの操作を受け付ける(ステップS101)。
(Step S101)
First, caller X displays web service Y on the display device 206D of caller terminal 2, logs in using his or her own member ID, and presses a call button provided on web service Y for provider Z. The caller terminal 2 accepts the operation of the call button (step S101).

(ステップS102)
発信者端末2の通信部21は、音声自動応答装置1に事業者Z宛の音声通話を要求する。また、発信者端末2の通信部21は、発信者Xの会員ID及び事業者Zの受信者IDを含む端末情報221を音声自動応答装置1に送信する(ステップS102)。
(Step S102)
The communication unit 21 of the caller terminal 2 requests the automatic voice response device 1 to make a voice call to the operator Z. Further, the communication unit 21 of the caller terminal 2 transmits the terminal information 221 including the member ID of the caller X and the recipient ID of the provider Z to the automatic voice response device 1 (step S102).

(ステップS103)
音声自動応答装置1の発信者情報取得部132は、発信者端末2から音声通話要求を受け付けると、発信者端末2から端末情報221を取得し、発信者Xの端末情報121aとして記憶部12に保存する(ステップS103)。
(Step S103)
When the caller information acquisition unit 132 of the automatic voice response device 1 receives a voice call request from the caller terminal 2, it acquires the terminal information 221 from the caller terminal 2 and stores it in the storage unit 12 as the caller X's terminal information 121a. Save (step S103).

(ステップS104)
発信者情報取得部132は、端末情報121aに含まれる発信者Xの会員IDを参照して、会員DB123から発信者Xの会員情報を取得し、発信者Xの会員情報121bとして記憶部12に保存する(ステップS104)。
(Step S104)
The caller information acquisition unit 132 refers to the member ID of the caller X included in the terminal information 121a, obtains the member information of the caller Save (step S104).

(ステップS105)
応答方法決定部133は、発信者Xの発信者情報121及び応答シナリオ情報124に基づいて、応答方法を決定する(ステップS105)。応答方法の決定方法について、詳しくは後述する。
(Step S105)
The response method determining unit 133 determines a response method based on the caller information 121 of the caller X and the response scenario information 124 (step S105). The method for determining the response method will be described in detail later.

(ステップS106)
音声通話制御部131は、音声自動応答装置1と発信者端末2との音声通話を開始する(ステップS106)。音声通話は自動的に開始されてもよいし、音声通話の開始が発信者端末2に通知され、この通知に対する発信者からの応答操作があってから開始されてもよい。
(Step S106)
The voice call control unit 131 starts a voice call between the automatic voice response device 1 and the caller terminal 2 (step S106). The voice call may be started automatically, or may be started after the caller terminal 2 is notified of the start of the voice call and the caller responds to this notification.

(ステップS107)
以降、音声通話が終了するまで、音声自動応答装置1の音声対話部134は、ステップS105で決定された応答方法に従って、発信者Xと音声対話を実行する(ステップS107)。
(Step S107)
Thereafter, until the voice call ends, the voice interaction unit 134 of the automatic voice response device 1 executes voice interaction with the caller X according to the response method determined in step S105 (step S107).

(ステップS108)
具体的には、音声対話部134は、発信者端末2にメッセージを送信する(ステップS108)。メッセージは、テキストであってもよいし、音声であってもよい。
(Step S108)
Specifically, the voice dialogue unit 134 transmits a message to the caller terminal 2 (step S108). The message may be text or audio.

(ステップS109)
発信者端末2の音声通話制御部231は、音声自動応答装置1から受信したメッセージを、スピーカー206Sから音声出力する(ステップS109)。音声通話制御部231は、メッセージがテキストである場合、テキストを音声合成して音声出力する。音声通話制御部231は、メッセージが音声である場合、そのまま音声出力する。
(Step S109)
The voice call control unit 231 of the caller terminal 2 outputs the message received from the automatic voice response device 1 as a voice from the speaker 206S (step S109). When the message is text, the voice call control unit 231 synthesizes the text into speech and outputs the speech. If the message is voice, the voice call control unit 231 outputs the voice as is.

(ステップS110)
音声出力されたメッセージに応答して発信者Xが発話すると、発信者端末2は、マイク205Cで収音した発信者Xの音声の音声情報を、音声自動応答装置1に送信する(ステップS110)。
(Step S110)
When caller X speaks in response to the voice output message, caller terminal 2 transmits audio information of caller X's voice collected by microphone 205C to automatic voice response device 1 (step S110). .

(ステップS111)
音声自動応答装置1の発信者情報取得部132は、発信者端末2から音声情報を取得すると、発信者Xの音声情報121cとして記憶部12に保存する(ステップS111)。
(Step S111)
When the caller information acquisition unit 132 of the automatic voice response device 1 acquires the voice information from the caller terminal 2, it stores it in the storage unit 12 as the voice information 121c of the caller X (step S111).

また、発信者情報取得部132は、音声情報121cを音声認識処理によりテキスト化し、得られたテキストから手続き情報121dを抽出(取得)し、記憶部12に保存する。これにより、例えば、予約日時、予約者(発信者)の名前、予約人数などの情報が取得される。 Further, the caller information acquisition unit 132 converts the voice information 121c into text by voice recognition processing, extracts (acquires) the procedure information 121d from the obtained text, and stores it in the storage unit 12. As a result, information such as the reservation date and time, the name of the person making the reservation (caller), and the number of people making the reservation is acquired.

(ステップS112)
音声通話制御部131は、音声通話の終了条件が満たされたか判定する(ステップS112)。終了条件は、例えば、発信者端末2から音声通話を切断されること、通信の不調により音声通話が切断されること、又は応答シナリオにおける終了メッセージが送信されることである。終了条件が満たされない場合(ステップS112:NO)、処理はステップS108に戻り、応答シナリオにおける次のメッセージが送信される(ステップS108)。終了条件が満たされた場合(ステップS112:YES)、処理はステップS115に進む。
(Step S112)
The voice call control unit 131 determines whether the voice call termination condition is satisfied (step S112). The termination condition is, for example, that the voice call is disconnected from the caller terminal 2, that the voice call is disconnected due to communication failure, or that a termination message in the response scenario is sent. If the termination condition is not met (step S112: NO), the process returns to step S108, and the next message in the response scenario is transmitted (step S108). If the termination condition is satisfied (step S112: YES), the process proceeds to step S115.

(ステップS113)
音声自動応答装置1と発信者端末2との音声通話が終了する(ステップS113)。音声通話の終了後、音声自動応答装置1は、例えば、手続き情報121dを発信者端末2に送信してもよいし、事業者Zに送信してもよい。
(Step S113)
The voice call between the automatic voice response device 1 and the caller terminal 2 ends (step S113). After the voice call ends, the automatic voice response device 1 may transmit the procedure information 121d to the caller terminal 2 or to the operator Z, for example.

<応答方法の決定方法>
ここで、応答方法の決定方法について詳しく説明する。
<How to determine response method>
Here, the method for determining the response method will be explained in detail.

[実施例1]
応答方法決定部133は、発信者情報121に基づいて、予め用意された複数の応答シナリオの中から、音声対話に利用する応答シナリオを選択する。複数の応答シナリオは、発信者情報121と対応づけて用意される。以下、具体例について説明する。
[Example 1]
Based on the caller information 121, the response method determining unit 133 selects a response scenario to be used for voice dialogue from among a plurality of response scenarios prepared in advance. A plurality of response scenarios are prepared in association with caller information 121. A specific example will be explained below.

(1)応答方法決定部133は、発信者の閲覧ページのURL(端末情報121a)の少なくとも一部に基づいて、複数の応答シナリオの中から、音声対話に利用する応答シナリオを選択することができる。 (1) The response method determining unit 133 can select a response scenario to be used for voice dialogue from among a plurality of response scenarios based on at least a part of the URL of the caller's viewing page (terminal information 121a). can.

例えば、ウェブサービスYが複数の飲食店が掲載された飲食店の予約サービスであり、ウェブサービスYの各飲食店のページのURLに、各飲食店の識別子が含まれる場合について考える。この場合、応答方法決定部133は、URLに含まれる識別子から飲食店を特定し、その飲食店に対応する応答シナリオを選択する。 For example, consider a case where web service Y is a reservation service for restaurants that lists a plurality of restaurants, and the URL of the page for each restaurant in web service Y includes an identifier for each restaurant. In this case, the response method determination unit 133 identifies the restaurant from the identifier included in the URL, and selects a response scenario corresponding to the restaurant.

図7の例では、飲食店001~003にそれぞれ対応する応答シナリオ001~003が用意されている。発信者の閲覧ページのURLとして「http://xxx.com/xxx/001」が取得されると、応答方法決定部133は、URLに含まれる飲食店の識別子(001)に基づいて、応答シナリオ001を選択する。 In the example of FIG. 7, response scenarios 001 to 003 corresponding to restaurants 001 to 003, respectively, are prepared. When “http://xxx.com/xxx/001” is acquired as the URL of the caller's viewing page, the response method determining unit 133 responds based on the restaurant identifier (001) included in the URL. Select scenario 001.

また例えば、ウェブサービスYが複数の飲食店が掲載された飲食店の予約サービスであり、ウェブサービスYの問い合わせページのURLに、問い合わせ内容の識別子が含まれる場合について考える。この場合、応答方法決定部133は、URLに含まれる識別子から問い合わせ内容を特定し、その問い合わせ内容に対応する応答シナリオを選択する。 Further, for example, consider a case where web service Y is a restaurant reservation service in which a plurality of restaurants are listed, and the URL of the inquiry page of web service Y includes an identifier of the content of the inquiry. In this case, the response method determining unit 133 identifies the content of the inquiry from the identifier included in the URL, and selects a response scenario corresponding to the content of the inquiry.

図8の例では、予約、予約内容の変更及び予約のキャンセルにそれぞれ対応する応答シナリオ001~003が用意されている。発信者の閲覧ページのURLとして「http://xxx.com/xxx/reservation」が取得されると、応答方法決定部133は、URLに含まれる問い合わせ内容の識別子(reservation)に基づいて、応答シナリオ001を選択する。 In the example of FIG. 8, response scenarios 001 to 003 are prepared respectively corresponding to reservations, changes in reservation details, and cancellations of reservations. When "http://xxx.com/xxx/reservation" is acquired as the URL of the caller's viewing page, the response method determining unit 133 responds based on the identifier (reservation) of the inquiry content included in the URL. Select scenario 001.

このように、発信者の閲覧ページのURLの少なくとも一部に基づいて、複数の応答シナリオの中から、音声対話に利用する応答シナリオを選択することにより、音声自動応答システム1000は、受信者や問い合わせ内容ごとの電話番号を用意することなく、受信者や問い合わせ内容に応じた応答メッセージを利用して、発信者との音声対話を実行することができる。 In this way, the automatic voice response system 1000 selects a response scenario to be used for voice interaction from a plurality of response scenarios based on at least part of the URL of the page the caller is viewing. Without having to prepare a telephone number for each inquiry content, it is possible to carry out a voice dialogue with the caller using a response message according to the recipient and the inquiry content.

(2)応答方法決定部133は、発信者の閲覧ページのクエリ文字列(端末情報121a)の少なくとも一部に基づいて、複数の応答シナリオの中から、音声対話に利用する応答シナリオを選択することができる。 (2) The response method determining unit 133 selects a response scenario to be used for voice dialogue from among a plurality of response scenarios based on at least a part of the query string (terminal information 121a) of the caller's viewing page. be able to.

例えば、応答方法決定部133は、クエリ文字列に含まれるキーワードから、そのキーワードに対応する応答シナリオを選択する。キーワードは、例えば、閲覧ページの参照元、メディア名、キャンペーン名、コンテンツ名又は有料検索広告のキーワードであるが、これに限られない。また、応答方法決定部133は、クエリ文字列に含まれる複数のキーワードの組み合わせから、そのキーワードの組み合わせに対応する応答シナリオを選択してもよい。 For example, the response method determining unit 133 selects a response scenario corresponding to the keyword from the keyword included in the query string. The keyword is, for example, a reference source of a viewed page, a media name, a campaign name, a content name, or a keyword of a paid search advertisement, but is not limited thereto. Further, the response method determining unit 133 may select a response scenario corresponding to a combination of keywords from among a combination of keywords included in the query string.

図9の例では、商品001の購入申し込みについて、通常時とセール時にそれぞれ対応する応答シナリオ001,002が用意されている。発信者の閲覧ページのクエリ文字列として「utm_campaign=sale&utm_content=product001」が取得されると、応答方法決定部133は、クエリ文字列に含まれるキャンペーン種類(sale)及び商品の識別子(product001)に基づいて、応答シナリオ001を選択する。 In the example of FIG. 9, response scenarios 001 and 002 are prepared for a purchase application for product 001, corresponding to normal times and sale times, respectively. When "utm_campaign=sale&utm_content=product001" is acquired as the query string of the page viewed by the sender, the response method determining unit 133 determines the response method based on the campaign type (sale) and product identifier (product001) included in the query string. and select response scenario 001.

このように、発信者の閲覧ページのクエリ文字列の少なくとも一部に基づいて、複数の応答シナリオの中から、音声対話に利用する応答シナリオを選択することにより、音声自動応答システム1000は、受信者の閲覧ページごとの電話番号を用意することなく、受信者の閲覧ページに応じた応答メッセージを利用して、発信者との音声対話を実行することができる。 In this way, the automated voice response system 1000 selects a response scenario to be used for voice interaction from a plurality of response scenarios based on at least a part of the query string of the page viewed by the caller. It is possible to carry out voice dialogue with the caller by using a response message according to the recipient's viewing page without having to prepare a telephone number for each recipient's viewing page.

(3)応答方法決定部133は、発信者端末2のブラウザの設定言語又は地域(端末情報121a)に基づいて、複数の応答シナリオの中から、音声対話に利用する応答シナリオを選択することができる。 (3) The response method determining unit 133 can select a response scenario to be used for voice dialogue from among a plurality of response scenarios based on the language or region (terminal information 121a) set in the browser of the caller terminal 2. can.

図10の例では、日本語及び英語の応答シナリオ001,002がそれぞれ用意されている。ブラウザの設定言語として「Accept-Language=en」が取得されると、応答方法決定部133は、英語の応答シナリオ002を選択する。 In the example of FIG. 10, Japanese and English response scenarios 001 and 002 are prepared, respectively. When "Accept-Language=en" is acquired as the browser setting language, the response method determining unit 133 selects the English response scenario 002.

このように、発信者端末2のブラウザに関する情報に基づいて、複数の応答シナリオの中から、音声対話に利用する応答シナリオを選択することにより、音声自動応答システム1000は、発信者の言語や地域に応じた応答メッセージを利用して、発信者との音声対話を実行することができる。 In this way, the automatic voice response system 1000 selects a response scenario to be used for voice dialogue from among a plurality of response scenarios based on information regarding the browser of the caller terminal 2. You can carry out voice dialogue with the caller using the response message according to the caller.

(4)応答方法決定部133は、発信者の属性(会員情報121b)に基づいて、複数の応答シナリオの中から、音声対話に利用する応答シナリオを選択することができる。 (4) The response method determining unit 133 can select a response scenario to be used for voice dialogue from among a plurality of response scenarios based on the caller's attributes (member information 121b).

図11の例では、会員ランクA,Bに対応する応答シナリオ001,002がそれぞれ用意されている。発信者の会員ランクが「会員ランクA」である場合、応答方法決定部133は、会員ランクAに対応する応答シナリオ001を選択する。 In the example of FIG. 11, response scenarios 001 and 002 corresponding to member ranks A and B are prepared, respectively. If the caller's membership rank is "membership rank A," the response method determining unit 133 selects response scenario 001 corresponding to membership rank A.

このように、発信者の属性に関する情報に基づいて、複数の応答シナリオの中から、音声対話に利用する応答シナリオを選択することにより、音声自動応答システム1000は、発信者の属性に応じた応答メッセージを利用して、発信者との音声対話を実行することができる。例えば、発信者の会員ランクに応じて挨拶が異なる応答メッセージを選択したり(図11参照)、発信者の年齢、性別又は職業などに応じて話し方の異なる応答メッセージを選択したりすることが考えられる。 In this way, by selecting a response scenario to be used for voice dialogue from a plurality of response scenarios based on information regarding the attributes of the caller, the automatic voice response system 1000 can respond in accordance with the attributes of the caller. Messages can be used to carry out a voice interaction with the caller. For example, it is possible to select response messages with different greetings depending on the caller's membership rank (see Figure 11), or select response messages with different speaking styles depending on the caller's age, gender, or occupation. It will be done.

[実施例2]
応答方法決定部133は、発信者情報121に基づいて、応答シナリオに含まれるメッセージの少なくとも一部を生成する。より詳細には、応答方法決定部133は、応答シナリオのメッセージのテンプレートに、発信者情報121に応じた情報を追加することで、音声対話に利用するメッセージを生成する。ここでは、音声対話に利用する応答シナリオは、1つしかない又は選択済みであるものとする。以下、具体例について説明する。
[Example 2]
The response method determining unit 133 generates at least a portion of the message included in the response scenario based on the sender information 121. More specifically, the response method determining unit 133 generates a message to be used for voice dialogue by adding information according to the caller information 121 to the message template of the response scenario. Here, it is assumed that there is only one response scenario used for voice dialogue or that it has already been selected. A specific example will be explained below.

(1)応答方法決定部133は、発信者の閲覧ページのタイトル(端末情報121a)を、メッセージのテンプレートに追加することで、音声対話に利用するメッセージを生成する。タイトルは、受信者の名前に相当する。 (1) The response method determining unit 133 generates a message to be used for voice dialogue by adding the title of the caller's viewing page (terminal information 121a) to the message template. The title corresponds to the recipient's name.

図12の例では、「[title]にお問い合わせいただきありがとうございます。」というメッセージを含む応答シナリオのテンプレートが用意されている。[title]は、発信者の閲覧ページのタイトルが追加されるタグである。発信者の閲覧ページのタイトルとして「xxxショッピング」が取得されると、応答方法決定部133は、テンプレートにタイトルを追加することにより、「xxxショッピングにお問い合わせいただきありがとうございます。」というメッセージを生成する。 In the example of FIG. 12, a response scenario template is prepared that includes the message "Thank you for contacting [title]." [title] is a tag to which the title of the page viewed by the sender is added. When "xxx Shopping" is acquired as the title of the page viewed by the caller, the response method determining unit 133 generates a message "Thank you for contacting XXX Shopping." by adding the title to the template. do.

このように、発信者の閲覧ページのタイトルに基づいて、応答シナリオに含まれるメッセージの少なくとも一部を生成することにより、音声自動応答システム1000は、受信者ごとのメッセージを用意することなく、受信者の名前を含むメッセージを利用して、発信者との音声対話を実行することができる。 In this way, by generating at least a part of the message included in the response scenario based on the title of the page viewed by the caller, the automated voice response system 1000 can receive messages without preparing messages for each recipient. A message containing the person's name can be used to carry out a voice interaction with the caller.

(2)応答方法決定部133は、受信者DB122を参照して、発信者の閲覧ページに設定された受信者の識別情報(端末情報121a)から受信者の名前を特定し、メッセージのテンプレートに追加することで、音声対話に利用するメッセージを生成する。受信者の識別情報は、閲覧ページのURL又はクエリ文字列に含まれる。 (2) The response method determination unit 133 refers to the recipient DB 122, identifies the recipient's name from the recipient's identification information (terminal information 121a) set on the sender's viewing page, and sets it in the message template. By adding it, a message to be used for voice dialogue is generated. The recipient's identification information is included in the URL or query string of the viewing page.

図13の例では、「[name]にお問い合わせいただきありがとうございます。」というメッセージを含む応答シナリオのテンプレートが用意されている。[name]は、受信者の名前が追加されるタグである。受信者の識別情報から受信者の名前が「株式会社xxx」に特定されると、応答方法決定部133は、テンプレートに受信者の名前を追加することにより、「株式会社xxxにお問い合わせいただきありがとうございます。」というメッセージを生成する。 In the example shown in FIG. 13, a response scenario template is provided that includes the message "Thank you for contacting [name]." [name] is a tag to which the recipient's name is added. When the recipient's name is identified as "xxx Co., Ltd." from the recipient's identification information, the response method determining unit 133 adds the recipient's name to the template, thereby adding "Thank you for contacting XXX Co., Ltd." ” message will be generated.

このように、発信者の閲覧ページに設定された受信者の識別情報に基づいて、応答シナリオに含まれるメッセージの少なくとも一部を生成することにより、音声自動応答システム1000は、受信者ごとのメッセージを用意することなく、受信者の名前を含むメッセージを利用して、発信者との音声対話を実行することができる。 In this way, by generating at least a part of the message included in the response scenario based on the recipient's identification information set on the caller's viewing page, the automated voice response system 1000 generates a message for each recipient. Messages that include the recipient's name can be used to conduct a voice conversation with the caller without having to prepare a message.

(3)応答方法決定部133は、発信者情報121bを参照して、発信者の会員IDから発信者の名前を特定し、メッセージのテンプレートに追加することで、音声対話に利用するメッセージを生成する。 (3) The response method determining unit 133 refers to the caller information 121b, identifies the caller's name from the caller's member ID, and adds it to the message template to generate a message to be used for voice dialogue. do.

図14の例では、「[name]様、お電話ありがとうございます。」というメッセージを含む応答シナリオのテンプレートが用意されている。[name]は、発信者の名前が追加されるタグである。会員IDから発信者の名前が「佐藤たろう」に特定されると、応答方法決定部133は、テンプレートに発信者の名前を追加することにより、「佐藤たろう様、お電話ありがとうございます。」というメッセージを生成する。 In the example shown in FIG. 14, a response scenario template is provided that includes the message "Dear [name], thank you for calling." [name] is a tag to which the caller's name is added. When the caller's name is identified as "Taro Sato" from the member ID, the response method determining unit 133 adds the caller's name to the template to say "Mr. Taro Sato, thank you for calling." Generate a message.

このように、会員IDに基づいて、応答シナリオに含まれるメッセージの少なくとも一部を生成することにより、音声自動応答システム1000は、発信者の名前を含むメッセージを利用して、発信者との音声対話を実行することができる。 In this manner, by generating at least a portion of the messages included in the response scenario based on the member ID, the automated voice response system 1000 utilizes the message that includes the caller's name to communicate with the caller via voice communication. Dialogue can be carried out.

[実施例3]
応答方法決定部133は、発信者情報121に基づいて、応答シナリオに含まれる複数のメッセージの中から、音声対話に利用する少なくとも1つのメッセージを選択する。ここでは、音声対話に利用する応答シナリオは、1つしかない又は選択済みであるものとする。以下、具体例について説明する。
[Example 3]
Based on the caller information 121, the response method determining unit 133 selects at least one message to be used for voice interaction from among the plurality of messages included in the response scenario. Here, it is assumed that there is only one response scenario used for voice dialogue or that it has already been selected. A specific example will be explained below.

(1)応答方法決定部133は、応答シナリオに含まれる発信者に対する質問に対応する複数のメッセージ(質問メッセージ)のうち、会員情報121bに回答が含まれない質問に対応するメッセージを、音声対話に利用するメッセージとして選択する。 (1) The response method determining unit 133 selects a message corresponding to a question whose answer is not included in the member information 121b from among a plurality of messages (question messages) corresponding to a question to the caller included in the response scenario, in a voice dialogue. Select as the message to be used for.

図15の例では、応答シナリオには質問メッセージ1~3が含まれる。会員情報121bとして発信者の名前(質問メッセージ1の回答)が取得できるため、応答方法決定部133は、応答シナリオに含まれる質問メッセージ1~3のうち、発信者の名前以外の回答を要求する質問メッセージ1,2を、音声対話に利用するメッセージとして選択する。 In the example of FIG. 15, the response scenario includes question messages 1 to 3. Since the sender's name (answer to question message 1) can be obtained as the member information 121b, the response method determining unit 133 requests an answer other than the caller's name among question messages 1 to 3 included in the response scenario. Question messages 1 and 2 are selected as messages to be used for voice dialogue.

このように、会員情報121bに回答が含まれない質問メッセージを音声対話に利用するメッセージとして選択することにより、音声自動応答システム1000は、発信者情報121に応じた質問メッセージを利用して、発信者との音声対話を実行することができる。 In this way, by selecting a question message whose answer is not included in the member information 121b as a message to be used for voice dialogue, the automatic voice response system 1000 uses the question message according to the caller information 121 to send a message. You can carry out voice dialogue with other people.

[実施例4]
応答方法決定部133は、発信者情報121に基づいて、音声対話に利用する音声設定を変更する。ここでは、音声対話に利用する応答シナリオは、1つしかない又は選択済みであるものとする。以下、具体例について説明する。
[Example 4]
The response method determining unit 133 changes the audio settings used for audio dialogue based on the caller information 121. Here, it is assumed that there is only one response scenario used for voice dialogue or that it has already been selected. A specific example will be explained below.

(1)応答方法決定部133は、発信者の属性(会員情報121b)に基づいて、音声対話に利用する音声設定を変更する。音声設定は、音声の性別、年齢、早さ、高さ及び話し方の少なくとも1つを含む。話し方は、表現の平易さ、丁寧さ、専門用語の有無、及び方言の少なくとも1つを含む。例えば、声の性別を発信者の性別に合わせたり、発信者が所定の年齢以上である場合に声の高さを低くしたりすることなどが考えられる。 (1) The response method determining unit 133 changes the audio settings used for audio dialogue based on the caller's attributes (member information 121b). The voice settings include at least one of voice gender, age, speed, pitch, and speaking style. The speaking style includes at least one of the following: simplicity of expression, politeness, presence or absence of technical terms, and dialect. For example, the gender of the voice may be matched to the gender of the caller, or the pitch of the voice may be lowered if the caller is over a predetermined age.

このように、発信者の属性に基づいて、音声対話に利用する音声設定を変更することにより、音声自動応答システム1000は、発信者の属性に応じた音声で、発信者との音声対話を実行することができる。 In this way, by changing the audio settings used for voice interaction based on the attributes of the caller, the automatic voice response system 1000 can perform voice interaction with the caller using the voice according to the attributes of the caller. can do.

(2)応答方法決定部133は、発信者の音声(音声情報121c)に基づいて、音声対話に利用する音声設定を変更する。本実施例では、ステップS105が、ステップS107の実行中にも追加で実施される。具体的には、応答方法決定部133は、発信者との音声対話により取得した音声情報121cを音声解析して発信者の声の要素(大きさ、高さ、ピッチ、フォルマントなど)を取得し、音声対話に利用する音声設定を、発信者の声の要素に対応する音声設定に変更する。例えば、音声対話に利用する音声のピッチを発信者の声のピッチに合わせたり、音声対話に利用する音声の大きさを発信者の声の大きさに合わせたりすることが考えられる。 (2) The response method determining unit 133 changes the audio settings used for audio dialogue based on the caller's audio (audio information 121c). In this embodiment, step S105 is additionally executed during execution of step S107. Specifically, the response method determining unit 133 performs voice analysis on the voice information 121c acquired through voice interaction with the caller to acquire elements of the caller's voice (volume, pitch, pitch, formant, etc.). , change the audio settings used for audio dialogue to audio settings that correspond to the elements of the caller's voice. For example, it is conceivable to match the pitch of the voice used for voice dialogue to the pitch of the caller's voice, or to match the volume of the voice used for voice dialogue to the volume of the caller's voice.

このように、発信者の音声に基づいて、音声対話に利用する音声設定を変更することにより、音声自動応答システム1000は、発信者の音声に応じた音声で、発信者との音声対話を実行することができる。 In this way, by changing the audio settings used for voice interaction based on the caller's voice, the automatic voice response system 1000 can execute voice interaction with the caller using a voice that corresponds to the caller's voice. can do.

なお、応答方法決定部133は、以上説明した実施例1~4の2つ以上を組み合わせて応答方法を決定してもよい。これにより、例えば、応答方法決定部133は、発信者情報121に基づいて、応答シナリオを選択し(実施例1)、メッセージを変更し(実施例2)、メッセージを選択し(実施例3)、音声設定を変更する(実施例4)ことができる。 Note that the response method determining unit 133 may determine a response method by combining two or more of the embodiments 1 to 4 described above. As a result, for example, the response method determining unit 133 selects a response scenario (Example 1), changes a message (Example 2), and selects a message (Example 3) based on the caller information 121. , the audio settings can be changed (Embodiment 4).

<まとめ>
以上説明した通り、本実施形態によれば、発信者と音声対話する音声自動応答装置1であって、発信者端末2から音声通話要求を受け付けるステップS103と、発信者端末2から端末情報121aを取得するステップS103と、端末情報121aを含む発信者情報121に基づいて、音声対話に利用する応答方法を決定するステップS105と、音声通話が開始された場合、決定された応答方法に従って、発信者と音声対話を実行するステップS107と、を実行する音声自動応答装置1が実現される。
<Summary>
As described above, according to the present embodiment, the automatic voice response device 1 that performs a voice conversation with a caller includes step S103 of accepting a voice call request from the caller terminal 2, and receiving terminal information 121a from the caller terminal 2. Step S103 of acquiring, Step S105 of determining a response method to be used for voice dialogue based on caller information 121 including terminal information 121a, and when a voice call is started, the caller The automatic voice response device 1 is realized which executes step S107 of executing voice dialogue.

このように、発信者情報121(端末情報121a、会員情報121b及び音声情報121cの少なくとも1つ)に基づいて応答方法を決定することにより、音声通話の発信者に応じた応答が可能な音声自動応答を実現することができる。 In this way, by determining the response method based on the caller information 121 (at least one of the terminal information 121a, the member information 121b, and the voice information 121c), the voice automation system can respond in accordance with the caller of the voice call. response can be realized.

なお、本実施形態では、記憶部12が会員DB123を有することを前提に説明したが、記憶部12は会員DB123を有しなくてもよい。この場合、音声自動応答装置1は、会員情報121b以外の発信者情報121を利用して応答方法を決定すればよい。これは、会員DB123に発信者の会員情報121bが存在しない場合も同様である。 Although the present embodiment has been described on the assumption that the storage unit 12 has the member DB 123, the storage unit 12 does not need to have the member DB 123. In this case, the automatic voice response device 1 may determine the response method using the caller information 121 other than the member information 121b. This also applies when the member information 121b of the sender does not exist in the member DB 123.

また、音声自動応答装置1は、会員情報121bを発信者端末2から取得してもよい。この場合、発信者端末2の入力フォームに発信者が会員情報121bを入力し、発信者端末2がこの会員情報121bを端末情報121aと共に音声自動応答装置1に送信すればよい。音声自動応答装置1は、発信者端末2から取得した会員情報121bを利用して、応答方法を決定することができる。 Further, the automatic voice response device 1 may acquire the member information 121b from the caller terminal 2. In this case, the caller inputs the member information 121b into the input form of the caller terminal 2, and the caller terminal 2 transmits the member information 121b to the automatic voice response device 1 together with the terminal information 121a. The automatic voice response device 1 can determine a response method using the member information 121b acquired from the caller terminal 2.

また、本実施形態では、発信者が発信ボタンを操作することで、音声自動応答装置1が全ての端末情報121aを取得したが、発信者が複数のボタンを操作することで、音声自動応答装置1が段階的に端末情報121aを取得してもよい。 Furthermore, in this embodiment, when the caller operates the call button, the automatic voice response device 1 acquires all the terminal information 121a, but when the caller operates multiple buttons, the automatic voice response device 1 may acquire the terminal information 121a in stages.

例えば、発信者が発信ボタンを操作すると、音声自動応答装置1がセッションIDなどの端末情報121aを取得し、予め設定されたメッセージを発信者端末2に送信する。その後、発信者端末2に音声通話の目的を選択するボタンが表示され、発信者が所望のボタンを選択すると、音声自動応答装置1が選択されたボタンに対応する音声通話の目的を示す情報などの端末情報121aを取得し、応答方法を決定する。すなわち、音声自動応答装置1が段階的に端末情報121aを取得する場合、音声自動応答装置1は、応答方法を決定するために必要な端末情報121aが揃ってから応答方法を決定すればよい。音声自動応答装置1は、3段階以上の工程で端末情報121aを取得してもよい。 For example, when a caller operates a call button, the automatic voice response device 1 acquires terminal information 121a such as a session ID, and transmits a preset message to the caller terminal 2. After that, a button for selecting the purpose of the voice call is displayed on the caller terminal 2, and when the caller selects the desired button, the automatic voice response device 1 displays information indicating the purpose of the voice call corresponding to the selected button, etc. The terminal information 121a is acquired and a response method is determined. That is, when the automatic voice response device 1 acquires the terminal information 121a in stages, the automatic voice response device 1 only needs to determine the response method after the terminal information 121a necessary for determining the response method is collected. The automatic voice response device 1 may acquire the terminal information 121a in three or more steps.

[第2実施形態]
本実施形態では、音声自動応答装置1が、発信者情報121に基づいて、発信者と音声対話を実行するか、受信者端末3に音声通話を転送するか判定する場合について説明する。
[Second embodiment]
In this embodiment, a case will be described in which the automatic voice response device 1 determines whether to perform a voice conversation with the caller or transfer the voice call to the receiver terminal 3 based on the caller information 121.

受信者端末3は、受信者が発信者との音声通話に利用する情報処理装置である。受信者は、受信者端末3を利用して発信者と音声通話する。受信者端末3は、例えば、電話機、PC、スマートフォン又はタブレット端末であるが、これに限られない。 The receiver terminal 3 is an information processing device that the receiver uses for voice communication with the caller. The recipient uses the recipient terminal 3 to make a voice call with the caller. The recipient terminal 3 is, for example, a telephone, a PC, a smartphone, or a tablet terminal, but is not limited thereto.

図16は、音声自動応答システム1000が実行する処理の一例を示すフローチャートである。受信者端末3は、電話機であるものとする。 FIG. 16 is a flowchart illustrating an example of processing executed by the automatic voice response system 1000. It is assumed that the recipient terminal 3 is a telephone.

また、図16のステップS201~S204は、図6のステップS101~S104と同じであるため説明を省略する。 Further, steps S201 to S204 in FIG. 16 are the same as steps S101 to S104 in FIG. 6, so the explanation will be omitted.

(ステップS205)
応答方法決定部133は、発信者Xの発信者情報121に基づいて、応答方法を決定する(ステップS205)。より詳細には、応答方法決定部133は、発信者Xの発信者情報121に基づいて、発信者と音声対話を実行するか受信者端末3に音声通話を転送するか判定する。
(Step S205)
The response method determination unit 133 determines a response method based on the caller information 121 of the caller X (step S205). More specifically, the response method determining unit 133 determines whether to perform a voice conversation with the caller or transfer the voice call to the receiver terminal 3 based on the caller information 121 of the caller X.

応答方法決定部133は、例えば、発信者の会員ランク(会員情報121b)に基づいて、発信者と音声対話を実行するか受信者端末3に音声通話を転送するか判定する。応答方法決定部133は、例えば、会員ランクが所定のランクより低い場合、音声対話を実行すると判定し、会員ランクが所定のランク以上である場合、受信者端末3に音声通話を転送すると判定する。これにより、発信者の会員ランクに応じた応答が可能となる。 The response method determining unit 133 determines whether to perform a voice conversation with the caller or transfer the voice call to the receiver terminal 3, based on the caller's membership rank (member information 121b), for example. For example, if the member rank is lower than a predetermined rank, the response method determination unit 133 determines to perform a voice conversation, and if the member rank is equal to or higher than a predetermined rank, the response method determination unit 133 determines to transfer the voice call to the recipient terminal 3. . This makes it possible to respond in accordance with the caller's membership rank.

ステップS205において、応答方法決定部133が、発信者と音声対話を実行すると判定した場合、以降の処理は図6のS106以降と同じであるため説明を省略する。一方、ステップS205において、応答方法決定部133が、受信者端末3に音声通話を転送すると判定した場合、処理はステップS206に進む。 In step S205, if the response method determination unit 133 determines to perform a voice dialogue with the caller, the subsequent processing is the same as that from S106 onward in FIG. 6, so the description thereof will be omitted. On the other hand, if the response method determination unit 133 determines in step S205 to transfer the voice call to the recipient terminal 3, the process proceeds to step S206.

(ステップS206)
音声通話制御部131は、受信者端末3に音声通話を転送する(ステップS206)。具体的には、音声通話制御部131は、受信者端末3に発呼(音声通話を要求)する(ステップS206)。
(Step S206)
The voice call control unit 131 transfers the voice call to the recipient terminal 3 (step S206). Specifically, the voice call control unit 131 makes a call (requests a voice call) to the recipient terminal 3 (step S206).

(ステップS207)
受信者は、受信者端末3で着呼(音声通話要求に応答)する(ステップS207)。これにより、音声自動応答装置1と受信者端末3との間で電話が繋がる。なお、受信者が所定時間以内に受信者端末3で着呼しなかった場合、処理は図6のS106に進む。
(Step S207)
The recipient receives a call (responses to the voice call request) at the recipient terminal 3 (step S207). Thereby, a telephone connection is established between the automatic voice response device 1 and the recipient terminal 3. Note that if the recipient does not receive a call at the recipient terminal 3 within a predetermined period of time, the process proceeds to S106 in FIG.

(ステップS208)
音声通話制御部131は、発信者端末2と受信者端末3との間の音声通話を開始する(ステップS208)。
(Step S208)
The voice call control unit 131 starts a voice call between the sender terminal 2 and the receiver terminal 3 (step S208).

(ステップS209)
音声通話の実施中、音声自動応答装置1は、受信者端末3から受信者の発話音声を受信し、発信者端末2に転送する(ステップS209)。
(Step S209)
During the voice call, the automatic voice response device 1 receives the recipient's uttered voice from the recipient terminal 3, and transfers it to the caller terminal 2 (step S209).

(ステップS210)
また、音声通話の実施中、音声自動応答装置1は、発信者端末2から発信者の発話音声を受信し、受信者端末3に転送する(ステップS210)。これにより、音声自動応答装置1を介して、発信者と受信者が音声通話する。
(Step S210)
Further, during the voice call, the automatic voice response device 1 receives the voice uttered by the caller from the caller terminal 2, and transfers it to the receiver terminal 3 (step S210). As a result, the caller and receiver have a voice conversation via the automatic voice response device 1.

(ステップS211)
発信者又は受信者が発信者端末2又は受信者端末3により通話の終了操作をすると、発信者端末2と受信者端末3との音声通話が終了する(ステップS211)。
(Step S211)
When the caller or the receiver performs an operation to end the call using the caller terminal 2 or the receiver terminal 3, the voice call between the caller terminal 2 and the receiver terminal 3 ends (step S211).

<まとめ>
以上説明した通り、本実施形態によれば、決定するステップS205は、発信者情報121に基づいて、音声対話を実行するか受信者端末3に音声通話を転送するか判定し、受信者端末3に音声通話を転送する判定した場合、発信者端末2と受信者端末3との間の音声通話を開始する。これにより、発信者に応じて、音声自動応答装置1による音声対話と、受信者との音声通話と、を使い分けることができる。
<Summary>
As explained above, according to the present embodiment, the determining step S205 determines whether to perform a voice dialogue or transfer the voice call to the receiver terminal 3 based on the caller information 121, and If it is determined that the voice call should be transferred to , the voice call between the sender terminal 2 and the receiver terminal 3 is started. Thereby, depending on the caller, it is possible to use the voice dialogue by the automatic voice response device 1 or the voice conversation with the recipient.

<付記>
本実施形態は、以下の開示を含む。
<Additional notes>
This embodiment includes the following disclosure.

(付記1)
発信者と音声対話する音声自動応答装置であって、
発信者端末から音声通話要求を受け付けるステップと、
前記発信者端末から端末情報を取得するステップと、
前記端末情報を含む発信者情報に基づいて、音声対話に利用する応答方法を決定するステップと、
音声通話が開始された場合、決定された前記応答方法に従って、前記発信者と音声対話を実行するステップと、
を実行する音声自動応答装置。
(Additional note 1)
An automatic voice response device that performs voice dialogue with a caller,
accepting a voice call request from a caller terminal;
obtaining terminal information from the caller terminal;
determining a response method to be used for voice dialogue based on caller information including the terminal information;
When a voice call is initiated, performing a voice interaction with the caller according to the determined response method;
Automatic voice response device that performs.

(付記2)
前記決定するステップは、前記発信者情報に基づいて、複数の応答シナリオの中から、前記音声対話に利用する応答シナリオを選択する
付記1に記載の音声自動応答装置。
(Additional note 2)
The automatic voice response device according to appendix 1, wherein the determining step selects a response scenario to be used for the voice dialogue from among a plurality of response scenarios based on the caller information.

(付記3)
前記決定するステップは、前記発信者の閲覧ページのURL又はクエリ文字列に基づいて、前記音声対話に利用する応答シナリオを選択する
付記2に記載の音声自動応答装置。
(Additional note 3)
The automatic voice response device according to appendix 2, wherein the determining step selects a response scenario to be used for the voice dialogue based on the URL of the page viewed by the caller or a query string.

(付記4)
前記決定するステップは、前記発信者端末のブラウザの設定言語に対応する言語の応答シナリオを、前記音声対話に利用する応答シナリオとして選択する
付記2に記載の音声自動応答装置。
(Additional note 4)
The automatic voice response device according to appendix 2, wherein the determining step selects a response scenario in a language corresponding to the language setting of the browser of the caller terminal as the response scenario to be used for the voice dialogue.

(付記5)
前記決定するステップは、前記発信者の属性に対応する応答シナリオを、前記音声対話に利用する応答シナリオとして選択する
付記2に記載の音声自動応答装置。
(Appendix 5)
The automatic voice response device according to appendix 2, wherein the determining step selects a response scenario corresponding to the attribute of the caller as a response scenario to be used for the voice dialogue.

(付記6)
前記決定するステップは、前記発信者情報に基づいて、応答シナリオに含まれるメッセージの少なくとも一部を生成する
付記1に記載の音声自動応答装置。
(Appendix 6)
The automatic voice response device according to appendix 1, wherein the determining step generates at least a part of the message included in the response scenario based on the caller information.

(付記7)
前記決定するステップは、発信者又は受信者の名前を含むメッセージを生成する
付記6に記載の音声自動応答装置。
(Appendix 7)
The automatic voice response device according to appendix 6, wherein the determining step generates a message including the name of the sender or the recipient.

(付記8)
前記決定するステップは、前記発信者情報に基づいて、応答シナリオに含まれる複数のメッセージの中から、前記音声対話に利用する少なくとも1つのメッセージを選択する
付記1に記載の音声自動応答装置。
(Appendix 8)
The automatic voice response device according to appendix 1, wherein the determining step selects at least one message to be used for the voice interaction from among a plurality of messages included in the response scenario, based on the caller information.

(付記9)
前記決定するステップは、前記発信者に対する質問に対応するメッセージのうち、前記発信者情報に回答が含まれない質問に対応するメッセージを、前記音声対話に利用するメッセージとして選択する
付記8に記載の音声自動応答装置。
(Appendix 9)
According to appendix 8, the determining step selects a message corresponding to a question whose answer is not included in the caller information, from among messages corresponding to questions to the caller, as a message to be used for the voice dialogue. Automatic voice response device.

(付記10)
前記決定するステップは、前記発信者情報に基づいて、前記音声対話に利用する音声設定を変更する
付記1に記載の音声自動応答装置。
(Appendix 10)
The automatic voice response device according to supplementary note 1, wherein the step of determining changes the voice settings used for the voice dialogue based on the caller information.

(付記11)
前記音声設定は、音声の性別、年齢、早さ、高さ及び話し方の少なくとも1つを含む
付記10に記載の音声自動応答装置。
(Appendix 11)
The automatic voice response device according to appendix 10, wherein the voice setting includes at least one of voice gender, age, speed, height, and speaking style.

(付記12)
前記決定するステップは、前記発信者の音声情報に基づいて、音声通話中に前記音声対話に利用する音声設定を変更する
付記10に記載の音声自動応答装置。
(Appendix 12)
The automatic voice response device according to appendix 10, wherein the step of determining changes the voice settings used for the voice dialogue during a voice call based on voice information of the caller.

(付記13)
前記決定するステップは、前記発信者情報に基づいて、音声対話を実行するか受信者端末に音声通話を転送するか判定し、前記受信者端末に音声通話を転送する判定した場合、前記発信者端末と前記受信者端末との間の音声通話を開始する
付記1に記載の音声自動応答装置。
(Appendix 13)
The determining step includes determining whether to perform a voice dialogue or transferring the voice call to the recipient terminal based on the caller information, and when it is determined to transfer the voice call to the recipient terminal, the caller The automatic voice response device according to supplementary note 1, which starts a voice call between a terminal and the recipient terminal.

(付記14)
発信者と音声対話する音声自動応答装置が実行する音声自動応答方法であって、
発信者端末から音声通話要求を受け付けるステップと、
前記発信者端末から端末情報を取得するステップと、
前記端末情報を含む発信者情報に基づいて、音声対話に利用する応答方法を決定するステップと、
音声通話が開始された場合、決定された前記応答方法に従って、前記発信者と音声対話を実行するステップと、
を含む音声自動応答方法。
(Appendix 14)
An automatic voice response method executed by an automatic voice response device that performs a voice conversation with a caller, the method comprising:
accepting a voice call request from a caller terminal;
obtaining terminal information from the caller terminal;
determining a response method to be used for voice dialogue based on caller information including the terminal information;
When a voice call is initiated, performing a voice interaction with the caller according to the determined response method;
automatic voice response methods including;

(付記15)
発信者と音声対話する音声自動応答装置に、
発信者端末から音声通話要求を受け付けるステップと、
前記発信者端末から端末情報を取得するステップと、
前記端末情報を含む発信者情報に基づいて、音声対話に利用する応答方法を決定するステップと、
音声通話が開始された場合、決定された前記応答方法に従って、前記発信者と音声対話を実行するステップと、
を含む音声自動応答方法を実行させる音声自動応答プログラム。
(Appendix 15)
A voice automatic response device that communicates with the caller by voice,
accepting a voice call request from a caller terminal;
obtaining terminal information from the caller terminal;
determining a response method to be used for voice dialogue based on caller information including the terminal information;
When a voice call is initiated, performing a voice interaction with the caller according to the determined response method;
A voice automatic response program that executes a voice automatic response method including.

(付記16)
発信者と音声対話する音声自動応答システムであって、
発信者端末と、音声自動応答装置と、を備え、
前記音声自動応答装置は、
発信者端末から音声通話要求を受け付けるステップと、
前記発信者端末から端末情報を取得するステップと、
前記端末情報を含む発信者情報に基づいて、音声対話に利用する応答方法を決定するステップと、
音声通話が開始された場合、決定された前記応答方法に従って、前記発信者と音声対話を実行するステップと、
を実行する音声自動応答システム。
(Appendix 16)
An automatic voice response system that performs voice dialogue with a caller,
Comprising a caller terminal and an automatic voice response device,
The automatic voice response device includes:
accepting a voice call request from a caller terminal;
obtaining terminal information from the caller terminal;
determining a response method to be used for voice dialogue based on caller information including the terminal information;
When a voice call is initiated, performing a voice interaction with the caller according to the determined response method;
An automatic voice response system that runs

今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。また、本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The embodiments disclosed herein are illustrative in all respects and should not be considered restrictive. The scope of the present invention is indicated by the scope of the claims, not the meaning described above, and is intended to include meanings equivalent to the scope of the claims and all changes within the scope. Further, the present invention is not limited to the embodiments described above, and various modifications can be made within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. The embodiments are also included in the technical scope of the present invention.

1:音声自動応答装置
2:発信者端末
11:通信部
12:記憶部
13:制御部
121:発信者情報
122:受信者DB
123:会員DB
124:応答シナリオ情報
131:音声通話制御部
132:発信者情報取得部
133:応答方法決定部
134:音声対話部
1: Automatic voice response device 2: Caller terminal 11: Communication unit 12: Storage unit 13: Control unit 121: Caller information 122: Receiver DB
123: Member DB
124: Response scenario information 131: Voice call control unit 132: Caller information acquisition unit 133: Response method determination unit 134: Voice dialogue unit

Claims (12)

発信者と音声対話する音声自動応答装置であって、
発信者端末から音声通話要求を受け付けるステップと、
前記発信者端末から端末情報を取得するステップと、
前記端末情報を含む発信者情報に基づいて、応答方法を決定するステップと、
音声通話が開始された場合、決定された前記応答方法に従って、前記発信者と音声対話を実行するステップと、
を実行し、
前記決定するステップは、前記発信者の閲覧ページのURL又はクエリ文字列に基づいて、内容が異なる複数の応答シナリオの中から、前記音声対話に利用する応答シナリオを選択する
音声自動応答装置。
An automatic voice response device that performs voice dialogue with a caller,
accepting a voice call request from a caller terminal;
obtaining terminal information from the caller terminal;
determining a response method based on caller information including the terminal information;
When a voice call is initiated, performing a voice interaction with the caller according to the determined response method;
Run
In the step of determining, the automatic voice response device selects a response scenario to be used for the voice interaction from among a plurality of response scenarios having different contents, based on the URL of the viewing page of the caller or a query string .
前記決定するステップは、前記発信者端末のブラウザの設定言語に対応する言語の応答シナリオを、前記音声対話に利用する応答シナリオとして選択する
請求項1に記載の音声自動応答装置。
2. The automatic voice response device according to claim 1, wherein the determining step selects a response scenario in a language corresponding to a language set in a browser of the caller terminal as a response scenario to be used for the voice dialogue.
前記決定するステップは、前記発信者の属性に対応する応答シナリオを、前記音声対話に利用する応答シナリオとして選択する
請求項1に記載の音声自動応答装置。
The automatic voice response device according to claim 1, wherein the determining step selects a response scenario corresponding to an attribute of the caller as a response scenario to be used for the voice dialogue.
前記決定するステップは、前記発信者情報に基づいて、応答シナリオに含まれるメッセージの少なくとも一部を生成する
請求項1に記載の音声自動応答装置。
The automatic voice response device according to claim 1, wherein the step of determining generates at least a part of the message included in the response scenario based on the caller information.
前記決定するステップは、発信者又は受信者の名前を含むメッセージを生成する
請求項に記載の音声自動応答装置。
5. The interactive voice response device of claim 4 , wherein the step of determining generates a message that includes the name of the sender or recipient.
前記決定するステップは、前記発信者情報に基づいて、応答シナリオに含まれる複数のメッセージの中から、前記音声対話に利用する少なくとも1つのメッセージを選択する
請求項1に記載の音声自動応答装置。
The automatic voice response device according to claim 1, wherein the step of determining selects at least one message to be used for the voice interaction from among a plurality of messages included in the response scenario, based on the caller information.
前記決定するステップは、前記発信者情報に基づいて、前記音声対話に利用する音声設定を変更する
請求項1に記載の音声自動応答装置。
The automatic voice response device according to claim 1, wherein the step of determining changes audio settings used for the voice interaction based on the caller information.
前記音声設定は、音声の性別、年齢、早さ、高さ及び話し方の少なくとも1つを含む
請求項に記載の音声自動応答装置。
The automatic voice response device according to claim 7 , wherein the voice settings include at least one of voice gender, age, speed, pitch, and speaking style.
前記決定するステップは、前記発信者情報に基づいて、音声対話を実行するか受信者端末に音声通話を転送するか判定し、前記受信者端末に音声通話を転送する判定した場合、前記発信者端末と前記受信者端末との間の音声通話を開始する
請求項1に記載の音声自動応答装置。
The determining step determines whether to perform a voice dialogue or transfer the voice call to the receiver terminal based on the caller information, and if it is determined to transfer the voice call to the receiver terminal, the caller The automatic voice response device according to claim 1, which initiates a voice call between a terminal and the recipient terminal.
発信者と音声対話する音声自動応答装置が実行する音声自動応答方法であって、
発信者端末から音声通話要求を受け付けるステップと、
前記発信者端末から端末情報を取得するステップと、
前記端末情報を含む発信者情報に基づいて、応答方法を決定するステップと、
音声通話が開始された場合、決定された前記応答方法に従って、前記発信者と音声対話を実行するステップと、
を実行し、
前記決定するステップは、前記発信者の閲覧ページのURL又はクエリ文字列に基づいて、内容が異なる複数の応答シナリオの中から、前記音声対話に利用する応答シナリオを選択する
音声自動応答方法。
An automatic voice response method executed by an automatic voice response device that performs a voice conversation with a caller, the method comprising:
accepting a voice call request from a caller terminal;
obtaining terminal information from the caller terminal;
determining a response method based on caller information including the terminal information;
When a voice call is initiated, performing a voice interaction with the caller according to the determined response method;
Run
In the automatic voice response method, the determining step selects a response scenario to be used for the voice dialogue from among a plurality of response scenarios having different contents based on the URL of the page viewed by the caller or a query string .
発信者と音声対話する音声自動応答装置に、
発信者端末から音声通話要求を受け付けるステップと、
前記発信者端末から端末情報を取得するステップと、
前記端末情報を含む発信者情報に基づいて、応答方法を決定するステップと、
音声通話が開始された場合、決定された前記応答方法に従って、前記発信者と音声対話を実行するステップと、
を実行し、
前記決定するステップは、前記発信者の閲覧ページのURL又はクエリ文字列に基づいて、内容が異なる複数の応答シナリオの中から、前記音声対話に利用する応答シナリオを選択する
音声自動応答方法を実行させる音声自動応答プログラム。
A voice automatic response device that communicates with the caller by voice,
accepting a voice call request from a caller terminal;
obtaining terminal information from the caller terminal;
determining a response method based on caller information including the terminal information;
When a voice call is initiated, performing a voice interaction with the caller according to the determined response method;
Run
The determining step executes an automatic voice response method that selects a response scenario to be used for the voice dialogue from among a plurality of response scenarios with different contents based on the URL of the page viewed by the caller or a query string. A voice automatic response program that allows you to
発信者と音声対話する音声自動応答システムであって、
発信者端末と、音声自動応答装置と、を備え、
前記音声自動応答装置は、
発信者端末から音声通話要求を受け付けるステップと、
前記発信者端末から端末情報を取得するステップと、
前記端末情報を含む発信者情報に基づいて、応答方法を決定するステップと、
音声通話が開始された場合、決定された前記応答方法に従って、前記発信者と音声対話を実行するステップと、
を実行し、
前記決定するステップは、前記発信者の閲覧ページのURL又はクエリ文字列に基づいて、内容が異なる複数の応答シナリオの中から、前記音声対話に利用する応答シナリオを選択する
音声自動応答システム。
An automatic voice response system that performs voice dialogue with a caller,
Comprising a caller terminal and an automatic voice response device,
The automatic voice response device includes:
accepting a voice call request from a caller terminal;
obtaining terminal information from the caller terminal;
determining a response method based on caller information including the terminal information;
When a voice call is initiated, performing a voice interaction with the caller according to the determined response method;
Run
In the automatic voice response system, the determining step selects a response scenario to be used for the voice dialogue from among a plurality of response scenarios having different contents, based on the URL of the page viewed by the caller or a query string .
JP2023182831A 2023-10-24 2023-10-24 Automatic voice response device, automatic voice response method, automatic voice response program, and automatic voice response system Active JP7438479B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023182831A JP7438479B1 (en) 2023-10-24 2023-10-24 Automatic voice response device, automatic voice response method, automatic voice response program, and automatic voice response system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023182831A JP7438479B1 (en) 2023-10-24 2023-10-24 Automatic voice response device, automatic voice response method, automatic voice response program, and automatic voice response system

Publications (1)

Publication Number Publication Date
JP7438479B1 true JP7438479B1 (en) 2024-02-27

Family

ID=90011429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023182831A Active JP7438479B1 (en) 2023-10-24 2023-10-24 Automatic voice response device, automatic voice response method, automatic voice response program, and automatic voice response system

Country Status (1)

Country Link
JP (1) JP7438479B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219038A (en) 2001-10-22 2003-07-31 Ntt Comware Corp Call center system apparatus and call method in interlocking with customer information
JP2006222603A (en) 2005-02-09 2006-08-24 Hitachi Kokusai Electric Inc Interactive voice response
JP2015049337A (en) 2013-08-30 2015-03-16 株式会社東芝 Voice response device, voice response program and voice response method
JP2015050636A (en) 2013-09-02 2015-03-16 株式会社日立情報通信エンジニアリング System and method for automatic answering
US20160360037A1 (en) 2015-06-05 2016-12-08 Ringcentral, Inc. Automatic language selection for interactive voice response system
JP2019175464A (en) 2019-04-04 2019-10-10 Nttテクノクロス株式会社 Information processing device, information processing method and program
JP2023535120A (en) 2020-10-06 2023-08-16 グーグル エルエルシー Automated navigation of interactive voice response (IVR) trees on behalf of human users

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219038A (en) 2001-10-22 2003-07-31 Ntt Comware Corp Call center system apparatus and call method in interlocking with customer information
JP2006222603A (en) 2005-02-09 2006-08-24 Hitachi Kokusai Electric Inc Interactive voice response
JP2015049337A (en) 2013-08-30 2015-03-16 株式会社東芝 Voice response device, voice response program and voice response method
JP2015050636A (en) 2013-09-02 2015-03-16 株式会社日立情報通信エンジニアリング System and method for automatic answering
US20160360037A1 (en) 2015-06-05 2016-12-08 Ringcentral, Inc. Automatic language selection for interactive voice response system
JP2019175464A (en) 2019-04-04 2019-10-10 Nttテクノクロス株式会社 Information processing device, information processing method and program
JP2023535120A (en) 2020-10-06 2023-08-16 グーグル エルエルシー Automated navigation of interactive voice response (IVR) trees on behalf of human users

Similar Documents

Publication Publication Date Title
US9971766B2 (en) Conversational agent
JP7396396B2 (en) Information processing device, information processing method, and program
US11024286B2 (en) Spoken dialog system, spoken dialog device, user terminal, and spoken dialog method, retrieving past dialog for new participant
JP5242794B2 (en) Communication method and communication system for identifying the order of services associated with a conversation
US20210125610A1 (en) Ai-driven personal assistant with adaptive response generation
KR102076793B1 (en) Method for providing electric document using voice, apparatus and method for writing electric document using voice
US10943603B2 (en) Systems and methods for a neighborhood voice assistant
US20090150341A1 (en) Generation of alternative phrasings for short descriptions
JP7207425B2 (en) Dialog device, dialog system and dialog program
US20130332170A1 (en) Method and system for processing content
JP5220953B1 (en) Product information providing system, product information providing device, and product information output device
JP2019197977A (en) Inquiry processing method, system, terminal, automatic voice interactive device, display processing method, call control method, and program
JP7438479B1 (en) Automatic voice response device, automatic voice response method, automatic voice response program, and automatic voice response system
WO2019003395A1 (en) Call center conversational content display system, method, and program
JPWO2002065399A1 (en) Animation data generation method, animation data generation device, terminal device, computer-readable recording medium recording animation data generation program, and animation data generation program
JP7310907B2 (en) DIALOGUE METHOD, DIALOGUE SYSTEM, DIALOGUE DEVICE, AND PROGRAM
JP2014109998A (en) Interactive apparatus and computer interactive method
JP2023070466A (en) Information processing method, computer program, and information processing apparatus
JP2019021157A (en) Information presentation system, information presentation method, and program
JP2022018724A (en) Information processing device, information processing method, and information processing program
JP2018067041A (en) Extraction apparatus and computer program
JP6774438B2 (en) Information processing systems, information processing methods, and programs
JP7284204B2 (en) Information processing device, information processing method and information processing program
JP6898064B2 (en) Dialogue decision system, dialogue decision method, dialogue decision program, and terminal device
WO2021220702A1 (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231024

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231024

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240125

R150 Certificate of patent or registration of utility model

Ref document number: 7438479

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150