WO2021095473A1 - 情報処理装置、情報処理方法及びコンピュータプログラム - Google Patents
情報処理装置、情報処理方法及びコンピュータプログラム Download PDFInfo
- Publication number
- WO2021095473A1 WO2021095473A1 PCT/JP2020/039623 JP2020039623W WO2021095473A1 WO 2021095473 A1 WO2021095473 A1 WO 2021095473A1 JP 2020039623 W JP2020039623 W JP 2020039623W WO 2021095473 A1 WO2021095473 A1 WO 2021095473A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- information
- operator
- answer
- behavior
- user
- Prior art date
Links
- 238000004590 computer program Methods 0.000 title claims description 7
- 238000003672 processing method Methods 0.000 title claims description 6
- 230000004044 response Effects 0.000 claims description 53
- 238000006243 chemical reaction Methods 0.000 claims description 13
- 230000002452 interceptive Effects 0.000 claims description 4
- 230000006399 behavior Effects 0.000 description 169
- 230000004048 modification Effects 0.000 description 43
- 238000006011 modification reaction Methods 0.000 description 43
- 230000014509 gene expression Effects 0.000 description 31
- 238000004458 analytical method Methods 0.000 description 26
- 230000001815 facial Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 239000003795 chemical substances by application Substances 0.000 description 16
- 230000000875 corresponding Effects 0.000 description 12
- 238000000034 method Methods 0.000 description 12
- 230000001537 neural Effects 0.000 description 5
- 241001122315 Polites Species 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 241000282326 Felis catus Species 0.000 description 3
- 125000002066 L-histidyl group Chemical group data:image/svg+xml;base64,<?xml version='1.0' encoding='iso-8859-1'?>
<svg version='1.1' baseProfile='full'
              xmlns='http://www.w3.org/2000/svg'
                      xmlns:rdkit='http://www.rdkit.org/xml'
                      xmlns:xlink='http://www.w3.org/1999/xlink'
                  xml:space='preserve'
width='300px' height='300px' viewBox='0 0 300 300'>
<!-- END OF HEADER -->
<rect style='opacity:1.0;fill:#FFFFFF;stroke:none' width='300.0' height='300.0' x='0.0' y='0.0'> </rect>
<path class='bond-0 atom-0 atom-1' d='M 261.9,148.2 L 257.5,132.7' style='fill:none;fill-rule:evenodd;stroke:#4284F4;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-0 atom-0 atom-1' d='M 257.5,132.7 L 253.1,117.2' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-10 atom-10 atom-0' d='M 225.5,192.6 L 238.4,184.0' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-10 atom-10 atom-0' d='M 238.4,184.0 L 251.3,175.3' style='fill:none;fill-rule:evenodd;stroke:#4284F4;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-1 atom-1 atom-2' d='M 253.1,117.2 L 236.8,116.6' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-1 atom-1 atom-2' d='M 236.8,116.6 L 220.6,116.0' style='fill:none;fill-rule:evenodd;stroke:#4284F4;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-1 atom-1 atom-2' d='M 247.8,126.9 L 236.5,126.5' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-1 atom-1 atom-2' d='M 236.5,126.5 L 225.1,126.1' style='fill:none;fill-rule:evenodd;stroke:#4284F4;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-2 atom-2 atom-3' d='M 196.0,135.9 L 191.2,149.0' style='fill:none;fill-rule:evenodd;stroke:#4284F4;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-2 atom-2 atom-3' d='M 191.2,149.0 L 186.4,162.0' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-3 atom-3 atom-4' d='M 186.4,162.0 L 138.7,175.7' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-9 atom-3 atom-10' d='M 186.4,162.0 L 225.5,192.6' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-9 atom-3 atom-10' d='M 198.4,158.8 L 225.8,180.2' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-4 atom-4 atom-5' d='M 138.7,175.7 L 103.0,141.2' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-5 atom-5 atom-6' d='M 103.0,141.2 L 55.3,154.8' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-8 atom-5 atom-9' d='M 103.0,141.2 L 108.8,128.1 L 104.0,126.9 Z' style='fill:#3B4143;fill-rule:evenodd;fill-opacity:1;stroke:#3B4143;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1;' />
<path class='bond-8 atom-5 atom-9' d='M 108.8,128.1 L 105.0,112.6 L 114.7,115.0 Z' style='fill:#4284F4;fill-rule:evenodd;fill-opacity:1;stroke:#4284F4;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1;' />
<path class='bond-8 atom-5 atom-9' d='M 108.8,128.1 L 104.0,126.9 L 105.0,112.6 Z' style='fill:#4284F4;fill-rule:evenodd;fill-opacity:1;stroke:#4284F4;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1;' />
<path class='bond-6 atom-6 atom-7' d='M 50.5,153.6 L 46.5,169.3' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-6 atom-6 atom-7' d='M 46.5,169.3 L 42.6,185.0' style='fill:none;fill-rule:evenodd;stroke:#E84235;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-6 atom-6 atom-7' d='M 60.1,156.0 L 56.2,171.7' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-6 atom-6 atom-7' d='M 56.2,171.7 L 52.3,187.4' style='fill:none;fill-rule:evenodd;stroke:#E84235;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-7 atom-6 atom-8' d='M 55.3,154.8 L 44.6,144.5' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-7 atom-6 atom-8' d='M 44.6,144.5 L 33.9,134.2' style='fill:none;fill-rule:evenodd;stroke:#7F7F7F;stroke-width:2.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<text x='260.7' y='174.8' class='atom-0' style='font-size:19px;font-style:normal;font-weight:normal;fill-opacity:1;stroke:none;font-family:sans-serif;text-anchor:start;fill:#4284F4' >N</text>
<text x='274.4' y='174.8' class='atom-0' style='font-size:19px;font-style:normal;font-weight:normal;fill-opacity:1;stroke:none;font-family:sans-serif;text-anchor:start;fill:#4284F4' >H</text>
<text x='197.5' y='125.3' class='atom-2' style='font-size:19px;font-style:normal;font-weight:normal;fill-opacity:1;stroke:none;font-family:sans-serif;text-anchor:start;fill:#4284F4' >N</text>
<text x='37.3' y='212.9' class='atom-7' style='font-size:19px;font-style:normal;font-weight:normal;fill-opacity:1;stroke:none;font-family:sans-serif;text-anchor:start;fill:#E84235' >O</text>
<text x='13.6' y='130.3' class='atom-8' style='font-size:19px;font-style:normal;font-weight:normal;fill-opacity:1;stroke:none;font-family:sans-serif;text-anchor:start;fill:#7F7F7F' >*</text>
<text x='109.1' y='103.0' class='atom-9' style='font-size:19px;font-style:normal;font-weight:normal;fill-opacity:1;stroke:none;font-family:sans-serif;text-anchor:start;fill:#4284F4' >N</text>
<text x='122.8' y='103.0' class='atom-9' style='font-size:19px;font-style:normal;font-weight:normal;fill-opacity:1;stroke:none;font-family:sans-serif;text-anchor:start;fill:#4284F4' >H</text>
<text x='136.5' y='110.9' class='atom-9' style='font-size:13px;font-style:normal;font-weight:normal;fill-opacity:1;stroke:none;font-family:sans-serif;text-anchor:start;fill:#4284F4' >2</text>
</svg>
 data:image/svg+xml;base64,<?xml version='1.0' encoding='iso-8859-1'?>
<svg version='1.1' baseProfile='full'
              xmlns='http://www.w3.org/2000/svg'
                      xmlns:rdkit='http://www.rdkit.org/xml'
                      xmlns:xlink='http://www.w3.org/1999/xlink'
                  xml:space='preserve'
width='85px' height='85px' viewBox='0 0 85 85'>
<!-- END OF HEADER -->
<rect style='opacity:1.0;fill:#FFFFFF;stroke:none' width='85.0' height='85.0' x='0.0' y='0.0'> </rect>
<path class='bond-0 atom-0 atom-1' d='M 74.5,44.1 L 72.8,38.4' style='fill:none;fill-rule:evenodd;stroke:#4284F4;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-0 atom-0 atom-1' d='M 72.8,38.4 L 71.2,32.7' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-10 atom-10 atom-0' d='M 63.4,54.1 L 68.2,50.9' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-10 atom-10 atom-0' d='M 68.2,50.9 L 72.9,47.7' style='fill:none;fill-rule:evenodd;stroke:#4284F4;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-1 atom-1 atom-2' d='M 71.2,32.7 L 65.2,32.5' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-1 atom-1 atom-2' d='M 65.2,32.5 L 59.3,32.3' style='fill:none;fill-rule:evenodd;stroke:#4284F4;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-1 atom-1 atom-2' d='M 69.3,35.4 L 65.1,35.3' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-1 atom-1 atom-2' d='M 65.1,35.3 L 61.0,35.2' style='fill:none;fill-rule:evenodd;stroke:#4284F4;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-2 atom-2 atom-3' d='M 55.9,35.6 L 54.1,40.5' style='fill:none;fill-rule:evenodd;stroke:#4284F4;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-2 atom-2 atom-3' d='M 54.1,40.5 L 52.3,45.4' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-3 atom-3 atom-4' d='M 52.3,45.4 L 38.8,49.3' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-9 atom-3 atom-10' d='M 52.3,45.4 L 63.4,54.1' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-9 atom-3 atom-10' d='M 55.7,44.5 L 63.5,50.6' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-4 atom-4 atom-5' d='M 38.8,49.3 L 28.7,39.5' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-5 atom-5 atom-6' d='M 28.7,39.5 L 15.2,43.4' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-8 atom-5 atom-9' d='M 28.7,39.5 L 30.7,34.5 L 29.3,34.2 Z' style='fill:#3B4143;fill-rule:evenodd;fill-opacity:1;stroke:#3B4143;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1;' />
<path class='bond-8 atom-5 atom-9' d='M 30.7,34.5 L 29.9,28.9 L 32.6,29.6 Z' style='fill:#4284F4;fill-rule:evenodd;fill-opacity:1;stroke:#4284F4;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1;' />
<path class='bond-8 atom-5 atom-9' d='M 30.7,34.5 L 29.3,34.2 L 29.9,28.9 Z' style='fill:#4284F4;fill-rule:evenodd;fill-opacity:1;stroke:#4284F4;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1;' />
<path class='bond-6 atom-6 atom-7' d='M 13.8,43.0 L 12.4,48.8' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-6 atom-6 atom-7' d='M 12.4,48.8 L 10.9,54.5' style='fill:none;fill-rule:evenodd;stroke:#E84235;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-6 atom-6 atom-7' d='M 16.5,43.7 L 15.1,49.5' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-6 atom-6 atom-7' d='M 15.1,49.5 L 13.7,55.2' style='fill:none;fill-rule:evenodd;stroke:#E84235;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-7 atom-6 atom-8' d='M 15.2,43.4 L 11.2,39.5' style='fill:none;fill-rule:evenodd;stroke:#3B4143;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<path class='bond-7 atom-6 atom-8' d='M 11.2,39.5 L 7.2,35.7' style='fill:none;fill-rule:evenodd;stroke:#7F7F7F;stroke-width:1.0px;stroke-linecap:butt;stroke-linejoin:miter;stroke-opacity:1' />
<text x='73.3' y='49.2' class='atom-0' style='font-size:6px;font-style:normal;font-weight:normal;fill-opacity:1;stroke:none;font-family:sans-serif;text-anchor:start;fill:#4284F4' >N</text>
<text x='77.4' y='49.2' class='atom-0' style='font-size:6px;font-style:normal;font-weight:normal;fill-opacity:1;stroke:none;font-family:sans-serif;text-anchor:start;fill:#4284F4' >H</text>
<text x='55.3' y='35.2' class='atom-2' style='font-size:6px;font-style:normal;font-weight:normal;fill-opacity:1;stroke:none;font-family:sans-serif;text-anchor:start;fill:#4284F4' >N</text>
<text x='10.0' y='60.0' class='atom-7' style='font-size:6px;font-style:normal;font-weight:normal;fill-opacity:1;stroke:none;font-family:sans-serif;text-anchor:start;fill:#E84235' >O</text>
<text x='3.3' y='36.6' class='atom-8' style='font-size:6px;font-style:normal;font-weight:normal;fill-opacity:1;stroke:none;font-family:sans-serif;text-anchor:start;fill:#7F7F7F' >*</text>
<text x='30.3' y='28.9' class='atom-9' style='font-size:6px;font-style:normal;font-weight:normal;fill-opacity:1;stroke:none;font-family:sans-serif;text-anchor:start;fill:#4284F4' >N</text>
<text x='34.4' y='28.9' class='atom-9' style='font-size:6px;font-style:normal;font-weight:normal;fill-opacity:1;stroke:none;font-family:sans-serif;text-anchor:start;fill:#4284F4' >H</text>
<text x='38.6' y='31.3' class='atom-9' style='font-size:3px;font-style:normal;font-weight:normal;fill-opacity:1;stroke:none;font-family:sans-serif;text-anchor:start;fill:#4284F4' >2</text>
</svg>
 [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000002996 emotional Effects 0.000 description 2
- 230000000877 morphologic Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 210000004709 Eyebrows Anatomy 0.000 description 1
- 210000003128 Head Anatomy 0.000 description 1
- 206010041308 Soliloquy Diseases 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000000295 complement Effects 0.000 description 1
- 238000009223 counseling Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/907—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING; COUNTING
- G06Q—DATA PROCESSING SYSTEMS OR METHODS, SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL, SUPERVISORY OR FORECASTING PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL, SUPERVISORY OR FORECASTING PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce, e.g. shopping or e-commerce
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Abstract
[課題]対話サービスにおいて効率よくユーザに応答する。 [解決手段]本開示の一側面の情報処理装置は、ユーザのコンテキスト情報を取得する情報取得部と、前記コンテキスト情報に基づき、機械による応答を行うオペレータと人間のオペレータとを含む複数のオペレータから前記ユーザに応答するオペレータを選択し、選択した前記オペレータを前記ユーザに割り当てるオペレータ選択部と、を備える。
Description
本開示は、情報処理装置、情報処理方法及びコンピュータプログラムに関する。
顧客から質問を受けて、オペレータが応答を返す対話サービスにおいて、近年、人的リソースの制約や人的コスト削減の観点から、オペレータとしてAI(Artificial Intelligence)を搭載したエージェント(AIオペレータ)を用いるケースも存在する。
AIオペレータでは、顧客の質問に満足の行く回答を行うことが難しい場合もある。人間のオペレータが対応すればこの問題は解消するが、オペレータの数や、1人のオペレータで対応できる顧客数にも制約がある。
特許文献1には、ユーザの現在位置やユーザの状況に合わせて適切な文を検索し、ユーザに提示する技術が開示されている。特許文献2には、定型文を用いて興趣性の高いテキストを作成する技術が開示されている。しかしながら、この技術を用いても、上述の問題は解消できない。
特許文献
特許文献
本開示は、対話サービスにおいて効率よくユーザに応答することを可能とする情報処理装置、情報処理方法及びコンピュータプログラムを提供する。
本開示の一側面の情報処理装置は、ユーザのコンテキスト情報を取得する情報取得部と、前記コンテキスト情報に基づき、機械による応答を行うオペレータと人間のオペレータとを含む複数のオペレータから前記ユーザに応答するオペレータを選択し、選択した前記オペレータを前記ユーザに割り当てるオペレータ選択部と、を備える。
前記コンテキスト情報は、前記ユーザの属性情報及び前記ユーザからセンシングした情報の少なくとも一方を含む。
前記オペレータ選択部は、コンテキスト情報に基づく条件と、オペレータとを対応付けた複数の選択ルールの中から、前記ユーザのコンテキスト情報が前記条件を満たす選択ルールを選択し、
選択した前記選択ルールに示されるオペレータを選択する。
選択した前記選択ルールに示されるオペレータを選択する。
前記オペレータ選択部は、前記複数の選択ルールの確信度に基づき、前記選択ルールを選択し、
前記オペレータの応答に対する前記ユーザの反応情報に基づき、選択した前記選択ルールの前記確信度を更新する選択ルール更新部を備える。
前記オペレータの応答に対する前記ユーザの反応情報に基づき、選択した前記選択ルールの前記確信度を更新する選択ルール更新部を備える。
前記オペレータ選択部は、前記ユーザのコンテキスト情報が前記条件を満たし、かつ前記確信度が一定値以上の選択ルールを選択する。
前記選択ルール更新部は、前記ユーザの反応情報が成立条件を満たすときは、前記確信度を高くし、前記ユーザの反応情報が成立条件を満たさないときは、前記確信度を低くする。
前記情報処理装置は、前記ユーザのコンテキスト情報に基づき、前記ユーザに対して前記オペレータが行う振る舞いを決定する振る舞い決定部と、
前記振る舞いで前記ユーザに応答する指示情報を前記オペレータに提供する対話処理部と、を備える。
前記振る舞いで前記ユーザに応答する指示情報を前記オペレータに提供する対話処理部と、を備える。
前記振る舞い決定部は、コンテキスト情報に基づく条件と、振る舞いとを対応付けた複数の振る舞いルールの中から、前記ユーザのコンテキスト情報が前記条件を満たす振る舞いルールを選択し、
選択した前記振る舞いルールに示される振る舞いを前記オペレータが行うことを決定する。
選択した前記振る舞いルールに示される振る舞いを前記オペレータが行うことを決定する。
前記振る舞い決定部は、前記複数の振る舞いルールの確信度に基づき、前記振る舞いルールを選択し、
前記情報処理装置は、前記振る舞いに対する前記ユーザの反応情報に基づき、選択した前記振る舞いルールの前記確信度を更新する更新部を備える。
前記情報処理装置は、前記振る舞いに対する前記ユーザの反応情報に基づき、選択した前記振る舞いルールの前記確信度を更新する更新部を備える。
前記振る舞い決定部は、前記ユーザのコンテキスト情報が前記条件を満たし、かつ前記確信度が一定値以上の振る舞いルールを選択する。
前記情報取得部は、前記オペレータに対する質問を含む質問情報を取得し、
前記質問情報を前記オペレータに提供する情報提供部と、
前記情報処理装置は、前記質問に対する前記オペレータの回答の要旨情報を前記オペレータから取得する要旨取得部と、
前記要旨情報と前記質問情報とに基づき、前記ユーザへの回答情報を生成する回答生成部と、を備える。
前記質問情報を前記オペレータに提供する情報提供部と、
前記情報処理装置は、前記質問に対する前記オペレータの回答の要旨情報を前記オペレータから取得する要旨取得部と、
前記要旨情報と前記質問情報とに基づき、前記ユーザへの回答情報を生成する回答生成部と、を備える。
前記回答生成部は、前記要旨情報に基づき、前記オペレータの回答の分類を特定し、特定した分類に応じた回答テンプレートを用いて、前記回答情報を生成する。
前記回答生成部は、前記要旨情報に基づき、前記オペレータの回答の確度を特定し、特定した確度に応じた回答テンプレートを用いて、前記回答情報を生成する。
前記回答生成部は、前記要旨情報に含まれる指示語を検出し、前記指示語が指す対象を前記コンテキスト情報から特定し、特定した前記対象を用いて前記回答情報を生成する。
前記回答生成部は、前記ユーザと前記オペレータとの対話が行われているタスクを、対話のタスクフローにおいて特定し、特定したタスクに基づいて、前記回答情報を生成する。
前記回答生成部は、前記オペレータの感情を前記オペレータの振る舞い及び前記要旨情報の少なくとも一方から特定し、特定した前記感情に基づいて前記回答情報を生成する。
前記回答生成部は、前記ユーザの感情を前記ユーザの振る舞いから特定し、特定した前記感情に基づいて前記回答情報を生成する。
前記ユーザは複数の人を含み、
前記回答生成部は、前記複数の人の関係に基づいて、前記回答情報を生成する。
前記回答生成部は、前記複数の人の関係に基づいて、前記回答情報を生成する。
本開示の一側面の情報処理方法は、ユーザのコンテキスト情報を取得する取得ステップと、前記コンテキスト情報に基づき、機械による応答を行うオペレータと人間のオペレータとを含む複数のオペレータから前記ユーザに応答するオペレータを選択する選択ステップと、選択した前記オペレータを前記ユーザに割り当てる割り当てステップと、を備える。
本開示の一側面のコンピュータプログラムは、ユーザのコンテキスト情報を取得する取得ステップと、前記コンテキスト情報に基づき、機械による応答を行うオペレータと人間のオペレータとを含む複数のオペレータから前記ユーザに応答するオペレータを選択する選択ステップと、選択した前記オペレータを前記ユーザに割り当てる割り当てステップと、をコンピュータに実行させる。
以下、図面を参照して、本開示の実施形態について説明する。本開示において示される1以上の実施形態において、各実施形態が含む要素を互いに組み合わせることができ、かつ、当該組み合わせられた結果物も本開示が示す実施形態の一部をなす。
(第1の実施形態)
図1は、本開示の第1の実施形態に係る情報処理システムの構成例を示すブロック図である。図1の情報処理システムは、情報処理装置101と、ユーザである顧客用のUI(ユーザインタフェース)装置111A、111B、111Cと、AI(Artificial Intelligence)オペレータを含むエージェント装置121と、オペレータ(人間オペレータ)用のUI装置131とを備える。本情報処理システムは、顧客から質問を受けて、オペレータが回答を含む応答を返す対話サービスを行う。図の例では、顧客用のUI装置が3台あるが、数は限定されず、2台以下でも、4台以上でもよい。
図1は、本開示の第1の実施形態に係る情報処理システムの構成例を示すブロック図である。図1の情報処理システムは、情報処理装置101と、ユーザである顧客用のUI(ユーザインタフェース)装置111A、111B、111Cと、AI(Artificial Intelligence)オペレータを含むエージェント装置121と、オペレータ(人間オペレータ)用のUI装置131とを備える。本情報処理システムは、顧客から質問を受けて、オペレータが回答を含む応答を返す対話サービスを行う。図の例では、顧客用のUI装置が3台あるが、数は限定されず、2台以下でも、4台以上でもよい。
オペレータは顧客の質問に対する応答を行う主体である。オペレータには、人間のオペレータと、機械による応答を行うオペレータとの2種類がある。エージェント装置121に搭載されたAIオペレータは、機械による応答を行うオペレータの一例に相当する。機械による応答を行うオペレータは人間の介在を伴わずに応答を返すことが可能なオペレータである。機械のオペレータは事前に機械学習により得られたものでもよいし、開発者のプログラミングにより生成したものでもよいし、その他の手法で生成したものでもよい。UIエージェント装置121が1台のみ存在するが、複数存在してもよい。また、人間オペレータ用のUI装置131が1台のみ存在するが、複数存在してもよい。1台のエージェント装置121が複数のAIオペレータを備えていてもよい。AIオペレータは、エージェント装置121に搭載されたソフトウェア又はプログラム(以下、プログラムに表現を統一する)として実現される。プログラムがCPU(Central Processing Unit)で実行されることで、AIオペレータの動作が実現される。
以下の説明において、オペレータと記載するときは、AIオペレータ及び人間オペレータのいずれを示してもよいものとする。また、以下では、顧客用のUI装置111A~111Cの任意の1台をUI装置111と記載する。
本実施形態の対話サービスは、顧客とオペレータとの対話を実現できる限り、どのようなものでもよい。例えば、顧客が不動産の購入を検討している者で、オペレータが顧客の相談による不動産業者に従事する職員、又は不動産業者から委託を受けたコールセンターの職員でもよい。また、顧客が資産運用の有効な方法を検討している者で、オペレータが金融機関、保険会社又は証券会社などに従事する職員、金融機関等から委託を受けたコールセンターの職員でもよい。ここに記載した対話サービスは一例に過ぎず、他のどのようなサービスでもよい。例えばカウンセリング業でもよい。営利目的及び非営利目的も問わない。
UI装置111は、入力部、出力部、制御部及び通信部を備えた一般的なコンピュータ装置である。入力部は、キーボード、マウス、タッチパネル、マイク、カメラ等のユーザが入力を行うための装置である。出力部は、データ又は画像を表示する表示装置、及びスピーカ等である。表示装置の例は、液晶表示装置、有機EL表示装置、プラズマ表示装置等を含む。制御部は、CPU等のプロセッサである。通信部は、有線又は無線通信用のインタフェース回路である。顧客用のUI装置111は、有線又は無線のネットワークを介して情報処理装置101に接続されている。
UI装置111には、OS(Operating System)、及び本対話サービスを実現するためのアプリケーションプログラムが格納されていてもよい。また、アプリケーションプログラムが情報処理装置101にサーバプログラムとして格納され、サーバプログラムの実行により本対話サービスを実現してもよい。この場合、UI装置111はURL(Uniform Resource Locator)又はURI(Uniform Resource Identifier)等に基づき情報処理装置101にアクセスしてもよい。UI装置111は対話サービスを提供する業者の施設内に配置されてもよいし、顧客の自宅に設置されていてもよい。UI装置111の画面には、対話サービス用のメニューが表示されて、顧客が対話サービスを利用できる環境になっていてもよい。
人間オペレータ用のUI装置131は、人間オペレータが顧客からの質問を受けて、顧客に応答する(すなわち対話する)ために用いる装置である。顧客用のUI装置111と同様、UI装置131は、入力部、出力部、制御部及び通信部を備えた一般的なコンピュータ装置である。入力部は、キーボード、マウス、タッチパネル、マイク、カメラ等のユーザが入力を行うための装置である。出力部は、データ又は画像を表示する表示装置、及びスピーカ等である。表示装置の例は、液晶表示装置、有機EL表示装置、プラズマ表示装置等を含む。制御部は、CPU等のプロセッサである。通信部は、有線又は無線通信用のインタフェース回路である。UI装置131は、有線又は無線のネットワークを介して情報処理装置101に接続されている。
UI装置131には、OS、及び本対話サービスを実現するためのアプリケーションプログラムが格納されていてもよい。また、アプリケーションプログラムが情報処理装置101にサーバプログラムとして格納され、サーバプログラムの実行により本対話サービスを実現してもよい。この場合、UI装置111はURL又はURI等に基づき情報処理装置101にアクセスしてもよい。UI装置131は対話サービスを提供する業者の施設内に配置されてもよいし、人間オペレータの自宅に設置されていてもよい。
エージェント装置(AIオペレータ)121は、顧客からの質問を受けて、顧客への回答を自動生成し、回答を含む応答を送信する装置である。エージェント装置121は、AIオペレータとしての動作を行うためのプログラム(AIプログラム)が格納されている。AIプログラムが、CPU等のプロセッサにより実行されることで、AIオペレータとしての動作が実現される。1台のエージェント装置121が、複数のAIオペレータを並行に実行して、複数の顧客と並行して対話してもよい。1つのAIオペレータが複数の顧客と同時に対話してもよい。
顧客がUI装置111で対話サービスを選択及び実行することで、情報処理装置101にアクセスする。情報処理装置101は顧客のコンテキスト情報とオペレータ選択ルールに基づき、顧客に応答するオペレータを、AIオペレータ及び人間オペレータから選択し、選択したオペレータを顧客に割り当てる。顧客は、割り当てられたオペレータと対話を行う。AIオペレータで対処可能な顧客にはAIオペレータを割り当てることで、人間オペレータの負荷を低減し、また人間オペレータのリソース節約できる。
顧客は、割り当てられたオペレータがAIオペレータか人間オペレータかを認識できなくてもよい。例えば、オペレータの応答がUI装置111の画面にテキストとして表示される場合や、UI装置111の画面にオペレータのアバターが表示される場合などがこれに相当する。ただし、ユーザにAIオペレータ及び人間オペレータのいずれを割り当てたかを示す情報を、UI装置111を介して顧客に通知するようにすることも可能である。また人間オペレータの映像をUI装置111に表示することも可能である。
情報処理装置101は、顧客にオペレータを割り当てた後、顧客の反応情報を検出し、顧客がオペレータの割当に満足したかを判断する。判断の結果に応じて、オペレータ選択ルールを更新する。これにより顧客の満足度を高めるように、オペレータ選択の精度を上げることができる。
以下、情報処理装置101についてさらに詳細に説明する。
図2は、情報処理装置101のブロック図である。情報処理装置101は、通信部11、通信部12、情報取得部13、オペレータ選択部14、選択ルールデータベース(DB)15、選択ルール更新部16、オペレータDB17、対話処理部18、振る舞い決定部21、振る舞いルールDB22、及び振る舞いルール更新部24を備えている。要素11~14、16、18、21、24は、ハードウェア、ソフトウェア又はこれらの組み合わせにより構成される。ハードウェアは、一例としてCPU等のプロセッサ又は専用の回路を含む。DB15、17、22は、メモリ装置又はハードディスク装置等の記憶装置により構成される。DB15、22は、情報処理装置101の外付け装置、あるいは有線又はネットワーク上のデータベースサーバとして設けられてもよい。時刻を計数する時計が情報処理装置101に設けられていてもよい。
通信部11は、有線又は無線のネットワークを介して、顧客用のUI装置111と通信する通信インタフェースである。通信部12は、有線又は無線のネットワークを介して、人間オペレータ用のUI装置111及びエージェント装置121(AIオペレータ)と通信する通信インタフェースである。通信部11、12の通信の方式は、無線LANなど一般的なプロトコルでもよいし、専用のプロトコルを定義して用いてもよい。通信部11、12は物理的に別々の装置でもよいし、物理的に同じ装置であってもよい。
情報取得部13は、顧客のコンテキスト情報を取得する。顧客のコンテキスト情報は、一例として、顧客の属性(性別、名前、年齢、生年月日、職業、容姿、収入、金融資産額、住所等)を含む。顧客のコンテキスト情報は、顧客がUI装置111を用いて入力してもよいし、顧客のコンテキスト情報を格納した顧客データベースを情報処理装置101に設け、顧客の氏名・会員番号等に基づき顧客データベースから読み出してもよい。
また、コンテキスト情報は、顧客からセンシングした情報でもよい。センシング情報は、例えば、画像(顔の画像、その他の部分の画像)又は音声等を含む。画像は、UI装置111に設けられたカメラで撮影したものでもよいし、事前に撮影して図示しない顧客データベースに保存しておいたものでもよい。画像の撮影又は音声の取得は、対話が始まる前のものでもよいし、対話が始まった後に顧客から撮影又は採音したものでもよい。また、コンテキスト情報は、対話開始後に取得される任意の情報でもよい。例えば対話の継続時間でもよい。
また、情報取得部13は、顧客からの質問を含む情報である質問情報を取得する。質問は、必ずしも疑問形である必要はなく、オペレータの応答につながるものであれば、内容は問わない。例えば顧客の独り言であっても、それに対してオペレータが応答するのであれば、それも本実施形態の質問に相当する。顧客の質問は、マイクを用いて音声によって行ってもよいし、カメラを用いて映像により行ってもよい。あるいは、タッチパネル・キーボード・マウス等を用いてテキスト入力により行ってもよい。あるいは、画面のメニューから選択することで行ってもよい。ここに記載した方法を組み合わせてもよい。質問情報がコンテキスト情報の一部であってもよい。
その他、情報取得部13は、UI装置111に顧客が入力する任意の情報(画像、音声、テキスト等)を取得してもよい。
オペレータ選択部14は、情報取得部13で取得されたコンテキスト情報と、選択ルールDB15とに基づき、顧客に応答するオペレータを、AIオペレータ及び人間オペレータのいずれにするかを決定する。AIオペレータを選択した場合、オペレータDB17に基づき、1つ以上のAIオペレータの中から割当可能なAIオペレータを選択し、選択したAIオペレータを顧客に割り当てる。人間オペレータを選択した場合、オペレータDB17に基づき、1人以上の人間オペレータの中から割当可能な人間オペレータを選択し、選択した人間オペレータを顧客に割り当てる。
選択ルールDB15は、コンテキスト情報に基づく条件と、オペレータとを対応付けた複数の選択ルールを含む。また選択ルールデータベース15は、各選択ルールに対する成立条件と、各選択ルールの確信度(信頼度)とを含む。
図3は、選択ルールDB15の一例を示す。“IF”はコンテキスト情報に基づく条件であり、“THEN”が、選択するオペレータを表す。例えば、IFがユーザ年齢>=60、THENがオペレータ=人である選択ルールは、顧客の年齢が60歳以上である場合は、人間オペレータを選択することを表す。IFがユーザ職種=エンジニア、THENがオペレータ=AIである選択ルールは、顧客の職種がエンジニアである場合は、AIオペレータを選択することを表す。図3の選択ルールは一例であり、選択ルールの形式は図3に限定されない。コンテキスト情報に基づく条件とオペレータとを対応づけた情報であれば、ルール形式以外のものを選択ルールに代えて用いることも可能である。例えば、コンテキスト情報を入力変数とし、人間オペレータ又はAIオペレータの情報を出力変数とする関数を用いてもよい。
成立条件は、選択ルールにより選択したオペレータが正しかったかどうかを判断するための条件である。例えば、1番目の選択ルールにおける“対話開始から5秒以内に顧客からネガティブ感情が検出されないこと”は、顧客に割り当てたオペレータとの対話が始まってから5秒以内にネガティブな感情が顧客から検出されなかったことを意味する。この条件が満たされる場合、人間オペレータを選択したことは正しかった又は正しかった可能性が高い。一方、この条件が満たされない場合、すなわち、顧客に割り当てたオペレータ(本例では人間オペレータ)との対話が始まってから5秒以内にネガティブな感情が顧客から検出された場合は、人間オペレータを選択したことは誤りであった又は誤りであった可能性が高い。顧客にネガティブな感情があるか否かは、顧客の顔画像を取得し、顔画像を感情解析することで判断してもよいし、顧客の音声を感情分析することで判断してもよい。あるいは、顧客の発話をテキストに変換し、テキストを感情分析することで判断してもよい。
確信度は選択ルールの成立条件が満たされた回数(成立回数)を、選択ルールを選択した回数(総試行回数)で除算することで計算される。図の例では、1番目の選択ルールの総試行回数が90で、成立条件が満たされた回数が9のため、確信度は9/90=0.1である。
“IF”、“THEN”及び成立条件は、情報処理装置101の管理者、操作者又は開発者等が定義してもよい。または、“IF”、“THEN”を自動で生成してもよい。例えば、顧客の属性毎に取り得る値を事前に定義しておき、これらの値の全組み合わせにより“IF”を生成する。そして、生成した“IF”ごとに、人間オペレータ又はAIオペレータを成立条件(THEN)として組み合わせる。
具体例として、顧客の年齢として、予め管理者等が、{0-19,20-39,40-59}を定義する。性別として、{男、女、その他}を定義する。また、オペレータとして{人、AI}を定義する。この場合、IF-THENの組み合わせは、3×3×2=18通りとなる。
オペレータ選択部14は、確信度が一定値以上の選択ルールのみを選択対象としてもよい。この場合、条件(IF)が満たされる選択ルールであっても、確信度が一定値未満であれば、その選択ルールは選択しない。
オペレータ選択部14は、コンテキスト情報に基づき選択ルールDB15内の各選択ルールの条件(IF)が満たされるかを判断し、条件が満たされる選択ルールに示されるオペレータを決定する。いずれの条件も満たされない場合は、AIオペレータ及び人間オペレータのうち予め定めたオペレータを決定してもよい。あるいは、ランダムにオペレータを決定してもよい。
オペレータDB17は、顧客への割当対象となるAIオペレータと人間オペレータに関する情報を格納している。
図4は、オペレータDB17の一例を示す。オペレータ種別、ID、アドレス、及び割当フラグが格納されている。オペレータ種別はAIとHUを含む。AIはAIオペレータ、HUは人間オペレータを表す。IDは、AIオペレータ及び人間オペレータの識別子である。アドレスは人間オペレータのUI装置131の所在箇所及びAIオペレータが搭載されたエージェント装置の所在箇所を示す。割当フラグは、オペレータが割当済みかを示す。“1”はオペレータが割当て済みであり、“0”はオペレータが割り当てられていないことを表す。
オペレータ選択部14は、人間オペレータを決定した場合、オペレータDB17において割当フラグが0の人間オペレータを選択する。選択した人間オペレータを顧客に割り当てる。そして、割当フラグを1に更新する。オペレータ選択部14は、AIオペレータを決定した場合、オペレータDB17において割当フラグが0のAIオペレータを選択する。選択したAIオペレータを顧客に割り当てる。そして、AIフラグを1に更新する。
オペレータ選択部14は、顧客の情報(又は顧客のUI装置111の情報)と、選択したオペレータの情報とを対話処理部18に提供する。
図4の例では、1つのAIオペレータが一人の顧客に対応し、1人の人間オペレータが一人の顧客に対応する場合を想定した。1つのAIオペレータが複数の顧客に同時に対応可能な場合は、1つのAIオペレータで対応可能な顧客数の上限値を設けし、上限値に達していないAIオペレータを選択してもよい。同様に、1人の人間オペレータが複数の顧客に同時に対応可能な場合は、1人で対応可能な顧客数の上限値を設け、上限値に達していない人間オペレータを選択してもよい。この場合、オペレータDB17に、同時に対応可能な顧客数の上限値の列と、割当済みの顧客数の列を設けてもよい。割当フラグの列は除去してもよい。
図5に、上限値の列と、割当済みの顧客数の列とを追加したオペレータDB17の例を示す。オペレータ選択部14は、顧客を割り当てるごとに、割当済み顧客数を1増加させる。割当済みの顧客数が上限値に達していないオペレータ(AIオペレータ又は人間オペレータ)を選択する。
対話処理部18は、顧客のUI装置111と、選択されたオペレータとを接続し、対話可能な状態に設定する。例えば人間オペレータが選択された場合、顧客のUI装置111をUI装置131に接続する。AIオペレータが選択された場合、顧客のUI装置111をエージェント装置121のAIオペレータに接続する。
対話処理部18は、顧客からの質問情報を取得し、選択したオペレータに提供する。すなわち、選択したオペレータがAIオペレータの場合は、質問情報をAIオペレータに提供し、選択したオペレータが人間オペレータの場合、質問情報をUI装置131に提供する。また対話処理部18は、オペレータからの回答を含む情報である応答情報(又は回答情報)を取得し、応答情報を顧客のUI装置111に提供する。すなわち、オペレータがAIオペレータの場合、AIオペレータから応答情報を顧客のUI装置111に提供し、人間オペレータの場合、UI装置131からの応答情報を顧客のUI装置111に提供する。なお、顧客から取得した情報が、質問情報かは任意の方法で判断すればよい。例えば、対話開始後に顧客から入力される情報は、質問情報としてもよい。あるいは、顧客から取得した情報を解析して、質問を含むかを判断してもよい。あるいは、顧客が画面の質問ボタンを押し、その後に入力する情報は質問情報であるとしてもよい。
選択ルール更新部16は、顧客にオペレータを割り当てた後(すなわち対話開始後)、適用した選択ルールに対応する成立条件が満たされるかを判断する。この判断のために、情報取得部13により取得されるコンテキスト情報を用いる。質問情報をさらに用いてもよい。
成立条件が満たされる場合、総試行回数を1増加させ、成立回数を1増加させ、成立回数を総試行回数で除算することで、確信度を更新する。図3の1番目の選択ルールの場合、総試行回数を90+1=91とし、成功回数を9+1=10とし、10/91により確信度を更新する。この結果、確信度は高くなる。
一方、成立条件が満たされない場合、総試行回数を1増加させ、現在の成立回数を、増加後の総試行回数で除算することで、確信度を更新する。図3の1番目の選択ルールの場合、総試行回数を90+1=91とし、9/91により確信度を更新する。この結果、確信度は低くなる。
オペレータ選択部14は、顧客とオペレータとの対話が終了したら、顧客とオペレータとの接続を切断する。対話が終了したか否かは、オペレータからの通知(AIオペレータからの通知又はUI装置131からの通知)により判断してもよいし、顧客のUI装置111からの通知により判断してもよい。あるいは、顧客とオペレータ間の情報の送受信が一定時間以上行われていない場合は、自動的に対話が終了したと判断して、接続を切断してもよい。
振る舞い決定部21は、顧客のコンテキスト情報と、振る舞いルールデータベース22とに基づき、オペレータ選択部14により選択したオペレータに顧客に対してどのような振る舞いをさせるかを決定する。すなわち、振る舞い決定部21は、オペレータによる顧客に対する振る舞いを決定する。
振る舞いルールDB22は、コンテキスト情報に基づく条件と、オペレータの振る舞いとを対応付けた複数の振る舞いルール(対話応答ルール、第2ルール)を含む。また振る舞いルールDB22は、各振る舞いルールに対する成立条件と、各振る舞いルールの確信度(信頼度)とを含む。振る舞いルールの条件は、コンテキスト情報のみでなく、質問情報に基づく条件であってもよい。
図6は、振る舞いルールDB22の一例を示す。“IF”はコンテキスト情報に基づく条件であり、“THEN”が、顧客に対して行うべき振る舞いを表す。例えば、IFが表情=ポジティブであり、THENが表現=フランクである振る舞いルールは、顧客の表情がポジティブであれば、オペレータの振る舞いをフランクにすることを表す。図6の振る舞いルールは一例であり、振る舞いルールの形式は図6に限定されない。コンテキスト情報に基づく条件とオペレータの振る舞いとを対応づけた情報であれば、ルール形式以外のものを振る舞いルールに代えて用いることも可能である。例えば、コンテキスト情報を入力変数とし、オペレータが行うべき振る舞いの情報を出力変数とする関数を用いてもよい。
成立条件は、振る舞いルールに示される振る舞いが正しかったかどうかを判断するための条件である。例えば、1番目の選択ルールにおける“対話開始から10秒以内に笑顔が検出されること”は、オペレータが顧客の質問に対して応答を開始してから10秒以内に笑顔が検出されたことを意味する。この条件が成立する場合、オペレータの振る舞いは正しかった又は正しかった可能性が高い。一方、この条件が成立しなかった場合、すなわち、オペレータが顧客の質問に対して応答を開始してから10秒以内に笑顔が検出されなかった場合は、オペレータの振る舞いは誤りであった又は誤りであった可能性が高い。顧客の表情がポジティブか否かは、顧客の顔画像を取得し、顔画像を感情解析することで判断してもよいし、顧客の音声を感情分析することで判断してもよい。あるいは、顧客の発話をテキストに変換し、テキストを感情分析することで判断してもよい。
確信度は振る舞いルールの成立条件が満たされた回数(成立回数)を、振る舞いルールを選択した回数(総試行回数)で除算することで計算される。図の例では、1番目の振る舞いルールの総試行回数が30で、成立条件が満たされた回数が28のため、確信度は28/30=0.933である。
振る舞い決定部21は、確信度が一定値以上の振る舞いルールのみを選択対象としてもよい。この場合、条件(IF)が満たされる振る舞いルールであっても、確信度が一定値未満であれば、その振る舞いルールは選択しない。
振る舞い決定部21は、コンテキスト情報及び質問情報の少なくとも一方に基づき、振る舞いルールDB22内の各振る舞いルールの条件(IF)が満たされるかを判断する。そして、条件が満たされる振る舞いルールを特定し、特定した振る舞いルールに示される振る舞いを選択する。いずれの条件も満たされない場合は、予め定めた振る舞いを選択してもよい。あるいは、ランダムに振る舞いを複数の候補の中から選択してもよい。
振る舞い決定部21は、決定した振る舞いで顧客に応答することを指示する指示情報を生成し、指示情報を対話処理部18に提供する。対話処理部18は、指示情報をオペレータに提供する。オペレータは、指示情報で指示される振る舞いで、顧客に応答(例えば顧客の質問に回答)する。
例えば、オペレータが人間オペレータの場合、UI装置131の画面に指示情報が表示され、オペレータは、表示された指示に従って、振る舞いを実際に行う(演技する)。例えば指示情報で指示された振る舞いが“フランク”の場合、フランクな口調又は表情で応答する。応答はテキスト、音声、映像又はこれらの任意の組み合わせにより行われる。UI装置111の画面に人間オペレータのアバターが表示される場合、人間オペレータの表情・身振り・手振りなどをアバターに反映させてもよい。オペレータの音声をそのまま、もしくはテキスト変換して、顧客に伝えてもよい。その場合は、オペレータの振る舞いを顧客に直接伝えることができる。なおUI装置131には、顧客の映像が表示されていてもよい。この場合、オペレータは顧客の様子を知ることができる。
図7は、オペレータに対して表示される画面の例を示す。UI装置131の画面に「顧客が笑顔なので、フランクに接してみてください」と表示されている。“笑顔”が振る舞いルールの条件(IF)に対応し、“フランク”が、振る舞いルールの振る舞い(THEN)に対応する。
オペレータがAIオペレータの場合も、基本的に人間オペレータの場合と同様である。例えばAIオペレータの場合、予め用意された複数の表現パターンからフランクの表現パターンを選択して応答してもよい。具体的に、表現パターンとして、フランクなテキスト又はフランクな音声の音源を用意しておいてもよい。
図8は、オペレータ選択部14の動作の一例のフローチャートである。
情報取得部13を介して顧客のコンテキスト情報を取得する。例えば年齢、性別、各種センサ情報(顧客の顔画像、音声)を取得する(S101)。
コンテキスト情報が、選択ルールDB15における各選択ルールの条件(IF)を満たすかを判断する(S102)。条件が満たされる選択ルールが存在する場合は(S102のYES)、当該選択ルールの総試行回数が所定値以上かを判断する(S103)。所定値未満の場合(S103のNO)、ステップS106に進む。総試行回数が所定値未満の場合は、学習モードに対応する。
総試行回数が所定値以上の場合(S103のYES)、選択ルールの確信度が閾値以上かを判断する(S104)。閾値以上の場合は(S104のYES)、ステップS105に進む。
ステップS105では、当該選択ルールが示すオペレータ(THEN)に基づき、人間オペレータ又はAIオペレータを決定する(S105)。人間オペレータを決定した場合、オペレータDB17から割当可能な人間オペレータを選択し、選択した人間オペレータを顧客に割り当てる(同S105)。AIオペレータを決定した場合、オペレータDB17から割当可能なAIオペレータを選択し、選択したAIオペレータを顧客に割り当てる(同S105)。顧客の情報と、割り当てたオペレータの情報とを対話処理部18に提供する。
条件が満たされる選択ルールが存在しない場合(S102のNO)、総試行回数が所定値未満の場合(S103のNO)、もしくは選択ルールの確信度が閾値未満の場合は(S104のNO)、予め定めた方法でオペレータをAIオペレータか人間オペレータかに決定する(S106)。人間オペレータを決定した場合、オペレータDB17から割当可能な人間オペレータを選択し、選択した人間オペレータを顧客に割り当てる(同S106)。AIオペレータを決定した場合、オペレータDB17から割当可能なAIオペレータを選択し、選択したAIオペレータを顧客に割り当てる(同S106)。顧客の情報と、割り当てたオペレータの情報とを対話処理部18に提供する。
図9は、選択ルール更新部16の動作の一例のフローチャートである。
対話開始後、顧客のUI装置111から、情報取得部13を介してコンテキスト情報を取得する(S111)。取得したコンテキスト情報に基づき、オペレータ選択部14で適用された選択ルールの成立条件が満たされるかを判断する(S112)。
成立条件が満たされる場合は(S112のYES)、確信度の値が大きくなるように、選択ルールの確信度を更新する(S113)。例えば総試行回数を1増加させ、成立条件の成立回数を1増加させ、成立回数を総試行回数で除算する。計算された値を、更新後の確信度とする。
成立条件が満たされない場合は(S112のNO)、確信度の値が低くなるように、選択ルールの確信度を更新する(S114)。例えば総試行回数を1増加させ、前回までの成立回数を総試行回数で除算する。計算された値を、更新後の確信度とする。
選択ルール更新部16の処理は、顧客とオペレータとの対話が終わった後に行ってもよいし、対話が行われている間に行ってもよい。選択ルール更新部16の処理(確信度の更新)を、図8のステップS103で総試行回数が所定値未満と判断された場合のみ、つまり、学習モードの間のみ行ってもよい。
図10は、振る舞い決定部21の動作の一例のフローチャートである。
情報取得部13を介して顧客のコンテキスト情報を取得する(S201)。コンテキスト情報は、例えば年齢、性別、各種センサ情報(顧客の顔画像、音声など)を含む。また、顧客の質問情報をさらに取得してもよい。質問情報は、例えば顧客の質問のテキスト又は音声を含む。
コンテキスト情報が、振る舞いルールDB22における各振る舞いルールの条件(IF)を満たすかを判断する(S202)。条件が満たされる振る舞いルールが存在する場合は(S202のYES)、当該振る舞いルールの総試行回数が所定値以上かを判断する(S203)。所定値未満の場合(S203のNO)、ステップS206に進む。総試行回数が所定値未満の場合は、学習モードに対応する。
総試行回数が所定値以上の場合(S203のYES)、振る舞いルールの確信度が閾値以上かを判断する(S204)。閾値以上の場合は(S204のYES)、ステップS205に進む。
ステップS205では、当該振る舞いルールが示すオペレータ(THEN)に基づき、人間オペレータ又はAIオペレータを決定する(S205)。決定した振る舞いで顧客に応答することを指示する指示情報を、対話処理部18を介して、オペレータに提供する。
条件が満たされる振る舞いルールが存在しない場合(S202のNO)、総試行回数が所定値未満の場合(S203のNO)、もしくは振る舞いルールの確信度が閾値未満の場合は(S204のNO)、予め定めた方法で振る舞いを決定する(S206)。決定した振る舞いで顧客に応答することを指示する指示情報を、対話処理部18を介して、オペレータに提供する。
図11は、振る舞いルール更新部24の動作の一例のフローチャートである。
オペレータに指示情報を提供した後、顧客のUI装置111から、情報取得部13を介して顧客のコンテキスト情報を取得する(S211)。取得したコンテキスト情報に基づき、振る舞い決定部21で適用された振る舞いルールに示される成立条件が満たされるかを判断する(S212)。
オペレータに指示情報を提供した後、顧客のUI装置111から、情報取得部13を介して顧客のコンテキスト情報を取得する(S211)。取得したコンテキスト情報に基づき、振る舞い決定部21で適用された振る舞いルールに示される成立条件が満たされるかを判断する(S212)。
成立条件が満たされる場合は(S212のYES)、確信度の値が大きくなるように、振る舞いルールの確信度を更新する(S213)。例えば総試行回数を1増加させ、成立条件の成立回数を1増加させ、成立回数を総試行回数で除算する。計算された値を、更新後の確信度とする。
成立条件が満たされない場合は(S212のNO)、確信度の値が低くなるように、振る舞いルールの確信度を更新する(S214)。例えば総試行回数を1増加させ、前回までの成立回数を総試行回数で除算する。計算された値を、更新後の確信度とする。
振る舞いルール更新部24の処理は、顧客とオペレータとの対話が終わった後に行ってもよいし、対話が行われている間に行ってもよい。振る舞いルール更新部24の処理(確信度の更新)を、図11のステップS203で総試行回数が所定値未満と判断された場合のみ、つまり、学習モードの間のみ、行ってもよい。
図12は、顧客(ユーザ)のUI装置111に表示される画面の表示例を示す。
顧客82が、UI装置111の画面を見ている。相談メニュー84と、オペレータ(人間オペレータ又はAIオペレータ)のアバター83が表示されている。相談メニュー84には不動産に関する複数の相談項目が選択可能に表示されている。UI装置111の表示部はタッチパネルになっており、顧客82は相談メニュー84から、相談したい項目を選択する。UI装置111は音声入力が可能となっており、音声入力ボタン81を押下すると、音声入力が可能になる。顧客82がいずれかの相談項目を選択し、相談に必要な情報(例えば顧客の属性情報など)を入力すると、前述した本実施形態の動作により、オペレータが選択され、選択されたオペレータが顧客82に割り当てられる。顧客82は、テキスト、音声、画像又はこれらの組み合わせにより、割り当てられたオペレータと対話する。アバター83はオペレータの振る舞いに応じて動いてもよい。例えばオペレータが手を動かすと、これに合わせてアバター83の手が動いてもよい。オペレータがフランクな振る舞いを行った場合又はフランクな振る舞いを行うことが決定された場合に、アバター83の表情を笑顔にしてもよい。人間オペレータの場合、アバター83の代わりに、オペレータの映像を表示してもよい。図12の表示例は一例であり、画面の表示は図12に限定されない。
顧客82が、UI装置111の画面を見ている。相談メニュー84と、オペレータ(人間オペレータ又はAIオペレータ)のアバター83が表示されている。相談メニュー84には不動産に関する複数の相談項目が選択可能に表示されている。UI装置111の表示部はタッチパネルになっており、顧客82は相談メニュー84から、相談したい項目を選択する。UI装置111は音声入力が可能となっており、音声入力ボタン81を押下すると、音声入力が可能になる。顧客82がいずれかの相談項目を選択し、相談に必要な情報(例えば顧客の属性情報など)を入力すると、前述した本実施形態の動作により、オペレータが選択され、選択されたオペレータが顧客82に割り当てられる。顧客82は、テキスト、音声、画像又はこれらの組み合わせにより、割り当てられたオペレータと対話する。アバター83はオペレータの振る舞いに応じて動いてもよい。例えばオペレータが手を動かすと、これに合わせてアバター83の手が動いてもよい。オペレータがフランクな振る舞いを行った場合又はフランクな振る舞いを行うことが決定された場合に、アバター83の表情を笑顔にしてもよい。人間オペレータの場合、アバター83の代わりに、オペレータの映像を表示してもよい。図12の表示例は一例であり、画面の表示は図12に限定されない。
図13は、人間オペレータのUI装置131の画面の表示例を示す。人間のオペレータ87が、UI装置131の画面を見ながら、複数の顧客A、B、C、Dに同時に対話している。画面の左側には、顧客A~Dの相談事項、属性(氏名、年齢)、対話開始からの経過時間、及び顧客A~Dの映像などが表示されている。顧客A~Dの映像は、顧客のUI装置111でリアルタイムに撮影されたものである。顧客A~Dの映像の代わりに、顧客A~Dの静止画像を用いてもよい。オペレータ87は対話をアクティブにする顧客を選択する。選択は、画面タッチ、音声入力、あるいはその他の手段で行う。図では顧客Bが選択されている。顧客Bのフレームの左端には、顧客Bが選択されていることを示すマーク90が表示されている。画面の右側には、アクティブにされている顧客Bとの対話の履歴が表示されている。図の例では、顧客が質問88を行っており、これに対して、オペレータ87が回答89を行っている状況が示される。オペレータ87は、テキスト、音声、画像又はこれらの組み合わせにより、回答の入力を行う。オペレータ87は、別の顧客に対話を切り替える場合は、画面タッチ等で、対話をアクティブにする別の顧客を選択する。別の顧客をアクティブにすると、画面の右側には、アクティブにした顧客との前回までの対話の履歴が表示される。オペレータ87は、前回までの対話の履歴を参照しつつ、アクティブにした顧客との対話を継続する。図13の表示例は一例であり、画面の表示は図13に限定されない。
以上、本実施形態によれば、顧客のコンテキスト情報を用いてAIオペレータと人間オペレータのいずれかを決定し、決定したオペレータを顧客に割り当てる。これにより、対話サービスにおいて効率よく多数のユーザに応答することができる。例えば、AIオペレータで適切に応答なケースではAIオペレータを割り当てることで、人間オペレータの負荷を低減できる。また、多数の顧客と同時に対話しなければならない要求にも応じることができる。
また、候補となる複数のルール(複数の選択ルール、複数の振る舞いルール)を作成しておき、確信度の高いルールを用いるようにすることで、オペレータを選択するルール及び振る舞いを決定するルールの学習速度を速めて、効率的に学習の精度を高めることができる。
(変形例1)
振る舞いルールの条件(IF)をコンテキスト情報が満たさない場合に、条件に含まれる複数の項目のうちの一部にマッチするかを判断する。マッチする項目数に応じて、適用する振る舞いルールを決定する。選択ルールについても同様に、条件に含まれる複数の項目のうち、マッチする項目数に応じて、適用する選択ルールを決定してもよい。以下、具体例を示す。
振る舞いルールの条件(IF)をコンテキスト情報が満たさない場合に、条件に含まれる複数の項目のうちの一部にマッチするかを判断する。マッチする項目数に応じて、適用する振る舞いルールを決定する。選択ルールについても同様に、条件に含まれる複数の項目のうち、マッチする項目数に応じて、適用する選択ルールを決定してもよい。以下、具体例を示す。
図14は、変形例1に係る振る舞いDB22の一例を示す。2つの振る舞いルールの例が示されている。1番目の振る舞いルールの条件は、“年齢>=60”及び“性別=男”の2つの項目を含む。2番目の振る舞いルールの条件は、“年齢<60”及び“性別=男”の2つの項目を含む。
顧客のコンテキスト情報から、年齢=70及び性別=女が取得されたとする。この場合、2つの振る舞いルールの条件をいずれも満たさない。この場合、各ルールに含まれる複数の項目のうち何個の項目がコンテキスト情報にマッチするかを判断する。1番目の振る舞いルールでは、“年齢>=60”がマッチするが、“性別=男”はマッチしない。よってマッチする項目数は1である。一方、2番目の振る舞いルールでは、“年齢>=60”及び“性別=男”のいずれにもマッチしない。よってマッチする項目数は0である。よって、マッチする項目数が多い1番目の振る舞いルールを選択する。マッチする項目数が同じ振る舞いルールが複数存在するときは、ランダムに1つの振る舞いルールを選択するなど、任意の方法で1つの振る舞いルールを選択すればよい。
振る舞いルールの確信度を更新する場合、マッチする項目数に応じた重み付けを行う。例えば1番目の振る舞いルールにおいて、成立条件が満たされる場合、第1の実施形態であれば、総試行回数を1増加して31、成立回数を1増加して11とし、11/31(=0.355)により確信度を更新した。これに対して、本変形例では、成立回数を1増やすのではなく、条件に含まれる複数の項目数に対するマッチする個数の比だけ増やす。本例では、1番目の振る舞いルールに2つの項目が含まれ、そのうちの1つの項目がマッチするため、1/2(=0.5)だけ成功回数を増やす。したがって、10.5/31(=0.399)により確信度を更新する。
このようにマッチする項目数に応じて確信度を更新することで、確信度が過度に反映されることを防止できる。
(変形例2)
あるドメインで作成した選択ルール及び振る舞いルールを、他のドメインに転用してもよい。例えば、銀行窓口における選択ルール及び振る舞いルールを、保険窓口に適用してもよい。他のドメインとして、あるドメインに類似しているドメインのみを転用の対象としてもよい。ドメイン間が類似しているかを判断するために、ドメイン間の類似度を定義する。類似度が閾値以上であれば、両ドメインは類似していると判断し、閾値未満であれば、両ドメインは類似していないと判断する。
あるドメインで作成した選択ルール及び振る舞いルールを、他のドメインに転用してもよい。例えば、銀行窓口における選択ルール及び振る舞いルールを、保険窓口に適用してもよい。他のドメインとして、あるドメインに類似しているドメインのみを転用の対象としてもよい。ドメイン間が類似しているかを判断するために、ドメイン間の類似度を定義する。類似度が閾値以上であれば、両ドメインは類似していると判断し、閾値未満であれば、両ドメインは類似していないと判断する。
類似度の計算方法の一例を示す。あるドメイン(ドメインAとする)において、オペレータの発話文のテキスト、顧客の発話文、又はこれらの両方のテキストを多数記録しておく。記録しておいた発話文のテキストを形態素解析することにより、複数の形態素に分割する。複数の形態素の中からドメインの特徴を表す形態素を抽出し、抽出した形態素を含むベクトルを生成する。例えば名詞の形態素の中で、ドメインの特徴を表す形態素を抽出する。ドメインの特徴を表す用語を含むリストを用意しておき、リストに存在する用語を、ドメインの特徴を表す用語と判断してもよい。あるいは、一般的な用語のリストを用意しておき、リストに存在しない用語をドメインの特徴を表す用語と判断してもよい。
他のドメイン(ドメインBとする)でも、同様の操作を行って、複数のベクトルを生成する。
ドメインA及びドメインBでそれぞれ1つのベクトルを選択して、選択したベクトル同士の類似度を計算する。類似度の具体例として、コサイン類似度がある。但し、これに限定するものではない。両ドメイン間で全てのベクトルのペアを生成してもよいし、ランダムに所定数のベクトルペアを生成してもよい。計算した類似度の平均又は中央値などを計算する。平均値が閾値委以上であれば、両ドメインは類似すると判断し、ドメインAの選択ルール及び振る舞いルールをドメインBに転用することを決定する。これによりドメインBのために新たに選択ルール及び振る舞いルールを生成したり、学習したりする作業を省略できる。
他のドメインに選択ルール及び振る舞いルールを転用するために、十分に学習が進んだ場合のみ、転用の対象としてもよい。例えば、全選択ルールのうち試行回数がN回以上の選択ルールが半分以上存在する場合、十分に学習が進んだと判断する。
本変形例の動作を行うための処理部、記憶部、入力部及び表示部等を情報処理装置101に追加してもよい。あるいは、本変形例の動作を行うための処理部、記憶部、入力部及び表示部を備えた装置を新たに構成してもよい。処理部は、CPU等のプロセッサ、プログラム又はこれらの両方により構成される。記憶部は一例として、メモリ装置又はハードウェア装置などにより構成される。入力部は一例としてキーボード、マウス、タッチパネル等である。表示部は、液晶表示装置等の表示装置である。処理部では、前述したような形態素解析、ベクトルの生成、ベクトル同士の類似度の計算、類似度の平均の計算、平均値と閾値との比較、比較結果に基づく転用の可否の判断等の処理を行う。記憶部には、オペレータの発話文のテキスト、顧客の発話文、又はこれらの両方のテキストを多数格納しておく。記憶部は、処理部が作業を行うための一時的な作業領域として用いられてもよい。入力部は各種指示又はデータを入力する。表示部は、処理部の処理の結果を表示する。
(変形例3)
図8におけるオペレータ選択部14の動作のフローチャートでは、確信度が閾値未満の場合、選択ルールを適用せず、予め定めた方法でオペレータを決定した。本変形例では、確信度が閾値未満の場合であっても、予め定めた頻度又は確率で、選択ルールを適用する。これにより確信度が低い選択ルールの選択の可能性を残し、効果的な学習が可能となる。
図8におけるオペレータ選択部14の動作のフローチャートでは、確信度が閾値未満の場合、選択ルールを適用せず、予め定めた方法でオペレータを決定した。本変形例では、確信度が閾値未満の場合であっても、予め定めた頻度又は確率で、選択ルールを適用する。これにより確信度が低い選択ルールの選択の可能性を残し、効果的な学習が可能となる。
同様に図10における振る舞い決定部21の動作のフローチャートでは、確信度が閾値未満の場合、振る舞いルールを適用せず、予め定めた方法で振る舞いを決定した。本変形例では、確信度が閾値未満の場合であっても、予め定めた頻度又は確率で、振る舞いルールを適用する。これにより確信度が低い振る舞いルールの選択の可能性を残し、効果的な学習が可能となる。
(変形例4)
図2の構成から、振る舞い決定部21、振る舞いルールDB22及び振る舞いルール更新部24を省いた構成も可能である。この場合、人間オペレータは自分の感性又はマニュアル等に基づき振る舞えばよい。またAIは予め定めたアルゴリズムで振る舞えばよい。これにより、情報処理装置101の構成を簡単にできる。
図2の構成から、振る舞い決定部21、振る舞いルールDB22及び振る舞いルール更新部24を省いた構成も可能である。この場合、人間オペレータは自分の感性又はマニュアル等に基づき振る舞えばよい。またAIは予め定めたアルゴリズムで振る舞えばよい。これにより、情報処理装置101の構成を簡単にできる。
(ハードウェア構成)
図15に、図2の情報処理装置101のハードウェア構成の一例を示す。図2の情報処理装置101は、コンピュータ装置200により構成される。コンピュータ装置200は、CPU201と、入力インタフェース202と、表示装置203と、通信装置204と、主記憶装置205と、外部記憶装置206とを備え、これらはバス207により相互に接続されている。コンピュータ装置200は、一例として、スマートフォン、タブレット、デスクトップ型PC(Perfonal Computer)、又はノート型PCとして構成される。
図15に、図2の情報処理装置101のハードウェア構成の一例を示す。図2の情報処理装置101は、コンピュータ装置200により構成される。コンピュータ装置200は、CPU201と、入力インタフェース202と、表示装置203と、通信装置204と、主記憶装置205と、外部記憶装置206とを備え、これらはバス207により相互に接続されている。コンピュータ装置200は、一例として、スマートフォン、タブレット、デスクトップ型PC(Perfonal Computer)、又はノート型PCとして構成される。
CPU(中央演算装置)201は、主記憶装置205上で、コンピュータプログラムである情報処理プログラムを実行する。情報処理プログラムは、情報処理装置101の上述の各機能構成を実現するプログラムのことである。情報処理プログラムは、1つのプログラムではなく、複数のプログラムやスクリプトの組み合わせにより実現されていてもよい。CPU201が、情報処理プログラムを実行することにより、各機能構成は実現される。
入力インタフェース202は、キーボード、マウス、およびタッチパネルなどの入力装置からの操作信号を、情報処理装置101に入力するための回路である。
表示装置203は、情報処理装置101から出力されるデータを表示する。表示装置203は、例えば、LCD(液晶ディスプレイ)、有機エレクトロルミネッセンスディスプレイ、CRT(ブラウン管)、またはPDP(プラズマディスプレイ)であるが、これに限られない。コンピュータ装置200から出力されたデータは、この表示装置203に表示することができる。
通信装置204は、情報処理装置101が外部装置と無線または有線で通信するための回路である。データは、通信装置204を介して外部装置から入力することができる。外部装置から入力したデータを、主記憶装置205や外部記憶装置206に格納することができる。
主記憶装置205は、情報処理プログラム、情報処理プログラムの実行に必要なデータ、および情報処理プログラムの実行により生成されたデータなどを記憶する。情報処理プログラムは、主記憶装置205上で展開され、実行される。主記憶装置205は、例えば、RAM、DRAM、SRAMであるが、これに限られない。図2のデータベースは、主記憶装置205上に構築されてもよい。
外部記憶装置206は、情報処理プログラム、情報処理プログラムの実行に必要なデータ、および情報処理プログラムの実行により生成されたデータなどを記憶する。これらの情報処理プログラムやデータは、情報処理プログラムの実行の際に、主記憶装置205に読み出される。外部記憶装置206は、例えば、ハードディスク、光ディスク、フラッシュメモリ、及び磁気テープであるが、これに限られない。図2のデータベースは、外部記憶装置206上に構築されてもよい。
なお、情報処理プログラムは、コンピュータ装置200に予めインストールされていてもよいし、CD-ROMなどの記憶媒体に記憶されていてもよい。また、情報処理プログラムは、インターネット上にアップロードされていてもよい。
また、情報処理装置101は、単一のコンピュータ装置200により構成されてもよいし、相互に接続された複数のコンピュータ装置200からなるシステムとして構成されてもよい。
(第2の実施形態)
1人のオペレータが多数の顧客に同時に対応しなければならない状況において、オペレータの負荷を低減して、効率的な応答を行うことを実現する。第2の実施形態は、オペレータが、顧客に対する回答の要旨のみを答えるだけで、要旨を反映させた回答情報を生成し、顧客に回答情報を提供するものである。第2の実施形態の情報処理装置は、第1の実施形態の情報処理装置における対話処理部を拡張したものである。
1人のオペレータが多数の顧客に同時に対応しなければならない状況において、オペレータの負荷を低減して、効率的な応答を行うことを実現する。第2の実施形態は、オペレータが、顧客に対する回答の要旨のみを答えるだけで、要旨を反映させた回答情報を生成し、顧客に回答情報を提供するものである。第2の実施形態の情報処理装置は、第1の実施形態の情報処理装置における対話処理部を拡張したものである。
第2の実施形態に係る情報処理装置のブロック図は、図2と同じである。対話処理部18以外のブロックは、基本的に図2と同じであり、拡張又は変更された処理を除き、説明は適宜省略する。振る舞い決定部21、振る舞いルールDB22及び振る舞いルール更新部24を省いた構成も可能である。
図16は、第2の実施形態に係る対話処理部18の詳細ブロック図である。対話処理部18は、情報取得部31、情報提供部32と、要旨取得部33と、回答生成部34、顧客・オペレータDB35、回答テンプレートDB36及び回答用コンテキストDB38を備えている。本例では、顧客に割り当てられたオペレータとして人間オペレータを想定する。但し、オペレータがAIオペレータの場合も、事前の機械学習により同様に実施可能である。
顧客・オペレータDB35は、顧客と、オペレータ選択部14によって割り当てられたオペレータとの対応を表す情報を格納している。一例として、顧客の識別子又はUI装置111の識別子と、オペレータの識別子又はUI装置131の識別子とを対応付けて格納している。
情報取得部31は、通信部11及び情報取得部13を介して、顧客のコンテキスト情報を取得する。また、情報取得部31は、通信部11及び情報取得部13を介して、オペレータに対する顧客の質問を含む情報(質問情報)を取得する。情報取得部13から取得するコンテキスト情報又は質問情報には、顧客の識別子が含まれていてもよい。情報取得部31は、コンテキスト情報及び質問情報の少なくとも一方を情報提供部32に提供する。また、情報取得部31は、コンテキスト情報及び質問情報の少なくとも一方を回答生成部34に提供する。
情報提供部32は、顧客に割り当てられたオペレータを顧客・オペレータDB35に基づき特定し、特定したオペレータに質問情報を提供する。より詳細には、通信部12を介して質問情報を、オペレータのUI装置131に送信する。質問情報はUI装置131に表示される。オペレータは、顧客の質問に対する回答の要旨を含む情報である要旨情報をUI装置131に入力する。UI装置131への入力方法は、テキストの入力でも、音声の入力でもよい。その他、ジェスチャによる入力でもよい。例えばオペレータがOKのサインを指で行った場合、UI装置131は、オペレータがOKを要旨として回答したと判断する。UI装置131は、オペレータから入力された要旨情報を情報処理装置101に提供する。
要旨情報は、顧客への回答を、キーワード又は用語を用いて短いパッセージ又は短い文章で表現したものである。用語は指示語(“それ”、“これ”など)であってもよい。
要旨取得部33は、オペレータにより入力された要旨情報を、通信部12(図2参照)を介して取得し、取得した要旨情報を回答生成部34に提供する。
回答生成部34は、オペレータの要旨情報と、回答テンプレートDB36と、回答用コンテキストDB38とに基づき、顧客への回答を含む情報である回答情報を生成する。回答生成部34は、生成した回答情報を、通信部12を介して、顧客のUI装置111に提供する。顧客は、UI装置111の画面に表示される回答情報を閲覧し、あるいは、スピーカから出力される回答情報の音声を聴くことで、オペレータの回答を知ることができる。
回答生成部34は、情報取得部31から取得したコンテキスト情報及び質問情報に基づき、顧客への回答のための回答用コンテキストを生成する。回答生成部34は、生成した回答用コンテキストを回答用コンテキストDB38に格納する。回答用コンテキストDB38は、回答用コンテキストを顧客の識別情報(氏名又はIDなど)に関連付けて内部に記憶する。
図17は、回答用コンテキストDB38の一例を示す。ここでは、氏名“山田太郎”の顧客に対して生成された回答用コンテキストを示す。回答用テキストは生成途中のものであってもよい。
この例では顧客は不動産の窓口で、UI装置111を用いて対話サービスを受けている。顧客は、不動産購入に関する相談をオペレータと行う。なお、不動産購入に関する相談を行うことは、顧客が相談メニューから不動産の購入相談の項目を選択することで特定されてもよいし、オペレータに不動産購入相談のために来店したことを通知してもよい。その他の方法でもよい。オペレータに通知する場合、オペレータはUI装置131を介して、回答生成部34に対して顧客の相談事項が不動産購入であるとの情報を送信する。回答生成部34は、不動産購入のための回答用コンテキストのフォーマットを用いて、回答用コンテキストを生成する。
図17の例では回答用コンテキストのフォーマットとして、“客”、“今年”、“タスク状態1”、“タスク状態2”、“土地”、“時期”、“Object1”などが要素の列が含まれている。内容の列には、各要素のデータが格納されている。回答生成部は、コンテキスト情報及び質問情報から、各要素の値を特定し、特定した値を内容の列に格納する。内容の列において、要素の値を引用することができる。例えば<土地>は、要素“土地”に対応する内容の値を指す。
コンテキスト情報又は質問情報に、要素に対応する項目が含まれる場合は、当該項目の値をそのまま用いて、要素に対応する内容の値とする。または、コンテキスト情報又は質問情報のテキストを形態素解析し、当該要素に該当する形態素(用語)を、当該要素の内容の値としてもよい。
ここでは回答生成部34が回答用コンテキストを生成したが、回答用コンテキストは、顧客がUI装置111を用いて直接、各要素の値を入力することで生成されてもよい。または、オペレータが顧客からヒヤリングすることにより、各要素の値を入力し、回答用コンテキストを生成してもよい。回答用コンテキストの生成方法は、ここに記載した以外の方法でもよい。
回答テンプレートDB36は、対話サービスのドメインごとに、タグ(用語)と、回答テンプレートとを対応付けて格納している。
図18は、回答テンプレートDB36の一例を示す。図の例はドメインとして不動産接客の場合を示している。例えば、タグ“予測”に対しては、回答テンプレート“私個人の見解としては、~と考えています”が格納されている。オペレータの要旨情報から回答がオペレータの予測に関するものである場合に、タグ“予測”がマッチするため、“予測”に対応する回答テンプレートを用いて回答情報を生成する。オペレータの要旨情報から複数のタグにマッチする場合は、複数のタグに対応する回答テンプレートを同時に用いてもよい。
回答生成部34は、オペレータの要旨情報から、分類、確度、主語、述語、時期を特定する。分類の種類として、「予測」、「断定」、「事実」などがある。分類は、回答の言い回しの型を決めるためのものである。確度の種類として、「多分」、「絶対」などがある。確度は、回答の精度に応じた言い回しを定めたものである。主語は回答文における主語、述語は回答文における述語である。時期は、回答の内容に関する時期である。
例えば、要旨情報が“多分、来年そこは値上がる”であったとする。この場合、分類は、“多分”があるため、「予測」であると判断できる。確度は、同じく“多分”があるため、「多分」であると判断できる。主語は、要旨情報内の指示語である“そこは”であり、回答用コンテキストのタスク状態1から土地を買うことを検討中であることが分かるから、主語は<土地>である。<土地>の値は、回答用コンテキストから尼崎市である。よって、主語は尼崎市の土地であると判断できる。このように、要旨情報に含まれる用語の意味を、回答用コンテキストから解釈できる。述語は、“値上がる”とあるから、「値上がる」である。時期は、“来年”とあるため、回答用コンテキストの<今年>の次の年である2020年である。
回答生成部34は、特定した分類「予測」に対応する回答テンプレート“私個人の見解としては、~と考えています”を回答テンプレートDB36から読み出す。また、特定した確度「多分」に対応する回答テンプレート“確かなことは申し上げられませんが”を読み出す。これらの回答テンプレートと、主語「尼崎市の土地」、述語「値上がる」、時期「2020年」を用いて、回答情報を生成する。回答情報として、「確かなことは申し上げられませんが、私個人の見解としては、2020年、尼崎市の土地は値上がると考えています」を得る。
表現の揺らぎの統一を図るため予め、各種表現(タグ)と、標準の言い回し(回答テンプレート)とを対応づけて、回答テンプレートDB36に格納してもよい。この場合、各種表現を標準の言い回しに変更してもよい。例えば、「土地は値上がる」が、標準の言い回し「地価は上がる」に対応づいている場合、回答情報は、「確かなことは申し上げられませんが、私個人の見解としては、2020年、尼崎市の地価は上がると考えています」となる。
図19に、本例においてオペレータの要旨情報から回答情報が生成され、回答情報が顧客に伝えられるまでのイメージの例を示す。
別の例として、要旨情報が“初心者はやめておいたほうがいい”であったとする。回答テンプレートDB36から“初心者”に対応する回答テンプレート“加入間もないお客様”を主語として特定する。述語に相当する“やめておいたほうがいい”は、標準の言い回し“お薦めいたしません”に変更する。分類、確度及び時期に関する用語は要旨情報に存在しないため、分類、確度及び時期は、このケースでは特定しない。よって、回答情報として、“加入間もないお客様にはお薦めいたしません”を得る。
図20は、対話処理部18の動作の一例のフローチャートである。情報取得部31が顧客の質問情報を取得し、情報提供部32がオペレータに質問情報を提供する(S301)。要旨取得部33が、オペレータから回答の要旨情報を取得する(S302)。回答生成部34は、要旨情報に基づき、回答テンプレートDB36から回答テンプートを特定する。また、回答用コンテキストDB38から要旨情報に含まれる用語を解釈する。解釈の結果と、回答テンプレートとを合わせて回答情報を生成する(S303)。回答生成部34は、生成した回答情報を顧客に提供する(S304)。すなわち、回答情報を、通信部11を介して顧客のUI装置111に送信する。
本実施形態のハードウェア構成は、第1の実施形態と同様、図15の構成で実現できる。
以上、本実施形態によれば、オペレータの要旨情報に基づき、回答テンプレートDBから回答テンプレートを特定し、回答用コンテキストDB38から要旨情報に含まれる意味を解釈する。そして解釈の結果と、特定した回答テンプレートとに基づき顧客への回答を生成する。よって、オペレータは回答を全て述べる必要はなく、最低限の短い文章又はパッセージによる要旨を述べるだけですむ。これによりオペレータの負荷は低減され、複数の顧客に同時に対応することも容易になる。
本実施形態ではルールベースで回答テンプレートを取得したが、機械学習により生成したモデルを用いて、回答テンプレートを取得する方法も可能である。例えばモデルとして、ニューラルネットワークを用いる。一例として、要旨情報を形態素解析し、各形態素をニューラルネットワークの各入力ノードに割り当てる。ニューラルネットワークの出力ノードには、各回答テンプレートが対応づけられており、各出力ノードの値が閾値以上の場合には、その回答テンプレートを採用し、閾値未満の場合は、その回答テンプレートを採用しない。学習用の教師データとして、要旨情報と、当該要旨情報に対応する1つ以上回答テンプレートとを1組としたものを複数用意する。教師データを用いて、バックプロパゲーション(誤差逆伝播法)などにより、ニューラルネットワークのパラメータ(各ノード間のリンクの重み)を決定する。これにより、ニューラルネットワークを生成する。
(変形例1)
図21は、変形例1に係る対話処理部18のブロック図を示す。図16にタスクフローDB41が追加されている。その他のブロックは基本的に図16と同じであり、拡張又は変更された動作を除き、説明は適宜省略する。なお、回答テンプレートDB36及び回答用コンテキストDB38の少なくとも一方が存在しなくてもよい。
図21は、変形例1に係る対話処理部18のブロック図を示す。図16にタスクフローDB41が追加されている。その他のブロックは基本的に図16と同じであり、拡張又は変更された動作を除き、説明は適宜省略する。なお、回答テンプレートDB36及び回答用コンテキストDB38の少なくとも一方が存在しなくてもよい。
タスクフローDB41は、顧客とオペレータ間の対話のタスクフローのデータを格納している。
図22は、タスクフローのデータの一例を示す。この例では、対話を開始し、顧客の相談内容の聞き出しを行う。顧客の相談内容に応じて、サービスカテゴリ_01~_10のいずれかに進む。サービスカテゴリ_01に進んだ場合、さらに顧客の相談内容に応じて、Service_01~_20のいずれかに進む。Service_01に進んだ場合、さらに、Plan_A、B、Cのいずれかに進む。タスクフローは、対話サービスのドメインごとに用意される。例えば不動産業界、金融業界といった業界ごとに用意されてもよいし、同じ業界内でも、購入相談と売却相談といった相談のテーマごとに用意されてもよい。
回答生成部34は、オペレータから取得した要旨情報に基づき、顧客とオペレータとの対話が、対話のタスクフローにおけるどのタスクに該当するかに基づいて、回答情報を生成する。対話がどのタスクに該当するかは、顧客とオペレータ間の対話を監視することで判断してもよい。例えば対話内容、顧客の画面に表示されている説明資料等から判断してもよい。あるいは、オペレータからのどのタスクにいるかの情報を取得することで判断してもよい。
一例として、現在のタスクが、図22の“Service_01”であり、どのようなプランがお薦めかを顧客から質問されているとする。オペレータの要旨情報が“安全なのでA”であったとする。この場合、回答情報として、“Plan_AとPlan_BとPlan_Cの可能性があり、お客様の場合ですとPlan_Aが安全でお薦めいたします。”を生成する。各タスクに対して、要旨情報と回答情報とを対応づけておくことで、このような回答が可能である。
図23に、本例においてオペレータの要旨情報から回答情報が生成され、回答情報が顧客に伝えられるまでのイメージの例を示す。
別の例として、現在のタスクが、図22の“Service_01”であり、顧客からPlan_Aは良いかどうか質問されているとする。オペレータの要旨情報が“それはやめておいたほうがいい”であったとする。この場合、回答情報として、例えば“Service_01ではPlan_Aはお薦めいたしません。”を生成する。この場合も、各タスクに対して、要旨情報と回答情報とを対応づけておくことで、このような回答が可能である。
図24に、オペレータの要旨情報“それはやめておいたほうがいい”に対して、現状のタスクから回答情報を取得する動作の例を示す。この例では、プログラムのコードの中で、各タスクに対して、ある要旨情報(“それはやめておいたほうがいい”)から回答情報を特定する動作が記述されている。タスク状況を特定し、特定したタスク状況に応じた回答情報を特定する例を示している。“それはやめておいたほうがいい”の表現は、非推奨の表現の一例であり、”やめておいたほうがいい”、“それはよくない“など他の同様の表現でもよく、表現の言い回しの違いは、第2の実施形態の回答テンプレートDB36(図16)などを用いて吸収してもよい。
図24のステップS311では、現在のタスクを特定する。現在のタスクがService_01であるときは(S312のService_01)、要旨情報でオペレータが示しているタスク(“***”と表す)を特定し、“Servce_01では***はお薦めいたしません”を生成する(S314)。要旨情報に直接、“Plan_A”が含まれていなくても、現在のタスクにおいて、Plan_Aの是非を顧客から問われている場合は、Plan_Aを、回答用コンテキストから特定できる。
現在のタスクがサービスカテゴリ_01であるときは(S312のサービスカテゴリ_01)、要旨情報でオペレータが示しているタスク(“***”と表す)を特定し、サービスカテゴリ_01では***はお薦めいたしません”を生成する(S315)。
現在のタスクが、Service_01及びサービスカテゴリ_01のいずれにも該当しないときは(S312のデフォルト)、デフォルトとして、“それはあまりお薦めしておりません”を生成する(S313)。
以上、本変形例1によれば、オペレータの要旨情報と、対話が行われている現在のタスクとに応じて回答情報を生成する。よって、オペレータは回答を全て述べる必要はなく、最低限の短い文章又はパッセージによる要旨を述べるだけですむ。これによりオペレータの負荷は低減され、複数の顧客に同時に対応することも容易になる。
(変形例2)
図25は、変形例2に係る対話処理部18のブロック図を示す。図16の回答生成部34に感情分析部51が追加されている。その他のブロックは基本的に図16と同じであり、拡張又は変更された動作を除き、説明は適宜省略する。なお、回答テンプレートDB36及び回答用コンテキストDB38の少なくとも一方が存在しなくてもよい。
図25は、変形例2に係る対話処理部18のブロック図を示す。図16の回答生成部34に感情分析部51が追加されている。その他のブロックは基本的に図16と同じであり、拡張又は変更された動作を除き、説明は適宜省略する。なお、回答テンプレートDB36及び回答用コンテキストDB38の少なくとも一方が存在しなくてもよい。
回答生成部34は、感情分析部51を備えている。感情分析部51は、オペレータの振る舞い(表情、口調、仕草等)及び要旨情報の少なくとも一方から、オペレータにより表出される感情(オペレータの感情)を特定する。感情は、例えば普通、悲しみ、喜び、心配、怒りがある。オペレータの振る舞いから感情を特定するか、要旨情報から感情を特定するかを事前にオペレータから設定可能にしてもよい。要旨情報から感情を特定する場合、オペレータは振る舞いに気を遣う必要はなく、回答の入力時間と負荷を下げることができる。オペレータの振る舞いから感情を特定する場合、オペレータの振る舞いのみならず、要旨情報も用いて、感情を特定してもよい。
例えばオペレータの振る舞いから感情を特定する場合は、オペレータの顔画像の感情分析、音声の感情分析などを行えばよい。例えば眉毛の両端がつり上がる動きを検出した場合、オペレータは怒りの感情を表出していると判断できる。また、音声の波形が平坦なときは、オペレータは落ち着いた感情を表出していると判断できる。その他、感情に応じた仕草を分類しておき、オペレータの仕草を画像分析により特定することで、感情を特定してもよい。例えば、目の縁をぬぐう動作を行ったときは、オペレータは悲しみの感情を表出していると判断できる。
要旨情報から感情を特定する場合、各感情(タグ)に応じたキーワード(回答テンプレート)を回答テンプレートDBに登録しておく。要旨情報に含まれる用語にマッチするキーワードを回答テンプレートDBから特定することにより、オペレータの感情を特定してもよい。例えば“Ok”は喜びの感情、“大変”は悲しみの感情などを登録しておく。回答テンプレートDBに登録されているキーワードが存在しない場合は、普通の感情であると判断してもよい。
ここで記載した感情の特定方法は一例であり、他のどのような方法で感情を特定してもよい。
回答生成部34は、特定したオペレータの感情に基づき、回答情報を生成する。
第1の具体例として、顧客が「(冗談っぽく)あなたが先週言っていた番組あまりおもしろくなかったわ」と言ったとする(この発言も本実施形態の質問情報の一形態である)。これに対して、オペレータが「それは残念」と、笑顔及び和やかな口調で要旨を応答したとする。感情分析部51は、オペレータの振る舞いを分析し、笑顔及び和やかな口調であることから、オペレータの感情を喜びの感情と判断する。回答生成部34は、喜びの感情による回答情報を生成する。例えば、和やかな口調の音源を用いて、「それは残念です」の回答情報を生成する。オペレータのアバターをUI装置111の画面に表示する場合、アバターの表情を笑顔にする。なお「です」は述語がないため自動的に補われている。
第2の具体例として、顧客が「その人はその後どうなったのですか?」と言ったとする。これに対して、オペレータが、「(暗い表情及び口調で)言いにくいですが、(明るい表情及び口調で)いまでは黒字」と要旨を応答したとする。感情分析部51は、オペレータの振る舞いを分析し、最初のパッセージでは暗い表情及び口調であることから、オペレータの感情を悲しみの感情と判断する。後のパッセージでは、明るい表情及び口調であることから、オペレータの感情を喜びの感情と判断する。回答生成部34は、喜びの感情による回答情報を生成する。例えば、暗い口調の音源の「申し上げにくいのですが…」と、和やかな口調の音源の「いまでは黒字になっております」を用いる。そして、「(暗い口調で)申し上げにくいのですが…、(明るい口調で)いまでは黒字になっております」の回答情報を生成する。オペレータのアバターをUI装置111の画面に表示する場合、「申し上げにくいのですが…」の部分では、アバターの表情を悲しい表情にする。「いまでは黒字になっております」の部分では、アバターの表情を笑顔にする。
第3の具体例として、要旨情報から感情を特定する例を示す。例えば、顧客が「今日も遅れてごめんなさい、家の鍵を閉めたいのにまた猫が見つからなくて」と言ったとする。これに対して、オペレータが「ok,猫によろしく」と要旨を応答したとする。この場合、「ok」の用語が喜びのキーワードであると判断し、オペレータの感情は喜びであると判断する。回答生成部34は、喜びの感情による回答情報を生成する。例えば、和やかな口調の音源を用いて、「問題ございません,猫ちゃんに宜しくお願いしますね」の回答情報を生成する。この回答情報の文は、第2の実施形態の手法を用いて生成すればよい。オペレータのアバターをUI装置111の画面に表示する場合、アバターの表情を笑顔にする。
図26に、上述の第3の具体例において、オペレータの要旨情報から感情を特定し、特定した感情による回答情報を生成するイメージの例を示す。生成した回答情報は顧客に伝えられる。
図27は、変形例2に係る回答生成部34の動作の一例のフローチャートである。オペレータから要旨情報のみから感情の特定を行うか(第1モード)、オペレータの振る舞い及び要旨情報の少なくとも前者から感情の特定を行うのか(第2モード)の設定を受け付ける(S321)。オペレータからの設定がない場合は、事前に定めた一方のモードを選択すればよい。
第1モードの場合、オペレータの要旨情報に基づき、オペレータの感情を特定する(S323)。
第2モードの場合、オペレータの振る舞い及び要旨情報の少なくとも前者に基づき、オペレータの感情を特定する(S324)。
特定した感情に基づき、要旨情報から回答情報を生成する(S325)。具体的には、喜びの感情の場合は、和やかな口調(映像の場合は笑顔)で回答情報を生成する。悲しみの感情の場合は、暗い口調(映像の場合は悲しい表情)で回答情報を生成する。普通の感情の場合は、平坦な口調(映像の場合は無表情)で回答情報を生成する。生成した回答情報を顧客に提供する。回答情報は、音声及び映像の少なくとも1つを含む。回答情報は、さらにテキストを含んでもよい。
生成した回答情報を顧客に提供する(S326)。
以上、本変形例2によれば、オペレータの感情を、要旨情報及びオペレータの振る舞いの少なくとも一方を用いて特定することにより、オペレータの感情を、オペレータの負荷を軽減しつつ顧客に伝えることができる。
(変形例3)
図28は、変形例3に係る対話処理部18のブロック図を示す。図16の回答生成部34に感情分析部61が追加されている。その他のブロックは基本的に図16と同じであり、拡張又は変更された動作を除き、説明は適宜省略する。なお、回答テンプレートDB36及び回答用コンテキストDB38の少なくとも一方が存在しなくてもよい。
図28は、変形例3に係る対話処理部18のブロック図を示す。図16の回答生成部34に感情分析部61が追加されている。その他のブロックは基本的に図16と同じであり、拡張又は変更された動作を除き、説明は適宜省略する。なお、回答テンプレートDB36及び回答用コンテキストDB38の少なくとも一方が存在しなくてもよい。
回答生成部34は感情分析部61を備えている。感情分析部61は、顧客の感情を顧客の振る舞い(表情、口調、仕草等)から特定する。感情は、例えば普通、悲しみ、喜び、心配、怒りがある。
回答生成部34は、顧客の感情に基づき、要旨情報から回答情報を生成する。
第1の具体例として、顧客が「(首を捻りながら)PLAN_Aが良いってことですよね」と言ったとする(この発言も本実施形態の質問情報の一形態である)。これに対して、オペレータが「はい」と応答したとする。感情分析部61は、顧客の振る舞いを分析し、首を捻っていることから、オペレータの感情を心配の感情と判断する。回答生成部34は、心配の感情に基づき、回答情報を生成する。例えば、丁寧な口調の音源を用いて、「左様です。何かお悩みでしょうか?」の回答情報を生成する。回答情報の文の作成方法は第2の実施形態と同様でよい。オペレータのアバターをUI装置111の画面に表示する場合、アバターの表情を真剣にする。
図29に、顧客の振る舞いから特定した感情に基づき、回答情報を生成するイメージの例を示す。生成した回答情報は顧客に伝えられる。
第2の具体例として、顧客が「(笑顔で)PLAN_Aが良いってことですよね」と言ったとする。これに対して、オペレータが「はい」と応答したとする。感情分析部61は、顧客の振る舞いを分析し、笑顔であることから、オペレータの感情を喜びの感情と判断する。回答生成部34は、喜びの感情に基づき回答情報を生成する。例えば、明るい口調の音源を用いて、「はい、この場合ですとPLAN_Aがお薦めですね!」の回答情報を生成する。回答情報の文の作成方法は第2の実施形態と同様でよい。オペレータのアバターをUI装置111の画面に表示する場合、アバターの表情を明るい表情にする。
第3の具体例として、顧客が「(怒り口調)どういうことですか?」と言ったとする。これに対して、オペレータが「実はBさんが条件を再考」と応答したとする。感情分析部61は、顧客の振る舞いを分析し、怒りの口調であることから、オペレータの感情を怒りの感情と判断する。回答生成部34は、怒りの感情に基づき回答情報を生成する。例えば、誤りの口調の音源を用いて、「申し訳ございません。実は売主のB様が売却の条件を再考されています」の回答情報を生成する。回答情報の文の作成方法は第2の実施形態と同様でよい。オペレータのアバターをUI装置111の画面に表示する場合、アバターの表情を謝罪の表情にする。
第4の具体例として、顧客が「(冷静沈着に)どういうことですか?」と言ったとする。これに対して、オペレータが「実はBさんが条件を再考」と応答したとする。感情分析部61は、顧客の振る舞いを分析し、冷静沈着の口調であることから、オペレータの感情を落ち着いた感情と判断する。回答生成部34は、落ち着いた感情に基づき回答情報を生成する。例えば、丁寧な口調の音源を用いて、「実は売主のB様が売却の条件を再考されています」の回答情報を生成する。回答情報の文の作成方法は第2の実施形態と同様でよい。第3の具体例との違いは、謝りの文を入れていない点である。オペレータのアバターをUI装置111の画面に表示する場合、アバターの表情を無表情にする。
図30は、変形例3に係る回答生成部34の動作の一例のフローチャートである。顧客の振る舞いに基づき、顧客の感情を特定する(S331)。オペレータから要旨情報を取得する(S332)。
特定した顧客の感情に基づき、要旨情報から回答情報を生成する(S333)。例えば、心配の感情の場合は、丁寧な口調で回答情報(映像の場合は無表情で)を生成する。喜びの感情の場合は、明るい口調で(映像の場合は笑顔で)回答情報を生成する。生成した回答情報を顧客に提供する。回答情報は、音声及び映像の少なくとも1つを含む。回答情報は、さらにテキストを含んでもよい。
生成した回答情報を顧客に提供する(S334)。
以上、本変形例3によれば、顧客の感情に基づき回答情報を生成する。オペレータは顧客の感情を知らなくてもよい。これにより、オペレータの負荷を軽減しつつ、顧客に状況に適した応答を行うことができる。
(変形例4)
前述した変形例3では、顧客の感情を感情分析部61が特定したが、オペレータが顧客の映像又は顧客の音声等から顧客の感情を特定してもよい。オペレータは、特定した感情に基づき振る舞いを行う、もしくは要旨情報を生成する。この後は、変形例2と同様にして、感情分析部が、オペレータの感情を特定し、特定した感情に基づき回答情報を生成する。
以上、本変形例4によれば、顧客の感情に基づき回答情報を生成する。これにより、オペレータの負荷を軽減しつつ、顧客に状況に適した応答を行うことができる。
(変形例5)
図31は、対話処理部18の変形例5のブロック図を示す。図16の回答生成部34に関係特定部71が追加されている。その他のブロックは基本的に図16と同じであり、拡張又は変更された動作を除き、説明は適宜省略する。
図31は、対話処理部18の変形例5のブロック図を示す。図16の回答生成部34に関係特定部71が追加されている。その他のブロックは基本的に図16と同じであり、拡張又は変更された動作を除き、説明は適宜省略する。
回答生成部34は関係特定部71を備えている。関係特定部71は、夫婦、親子又は未婚カップルなど、顧客が複数人の場合に、複数人の関係(顧客関係)を特定する。顧客関係は、顧客のコンテキスト情報から特定される。
回答テンプレートDB36は、顧客関係(タグ)と、回答テンプレートとを対応づけて格納している。例えば「父子」に対して「お父様にもお子様にも」の回答テンプレートを対応づける。また、「未婚カップル」に対して、「もし将来お子様をお考えでしたら」の回答テンプレートを対応づける。また、顧客関係と、削除用のテンプレート(削除すべき用語)とを対応づけてもよい。例えば「父子」に対して「教育」の削除テンプレートを対応づける。この場合、顧客への回答に「教育」を用いないようにする。例えば要旨情報に「教育」が含まれていれば、「教育」を削除する。削除テンプレートを用いる場合、回答テンプレートと区別するフラグを、回答テンプレートDB36に追加してもよい。
回答生成部34は、特定した顧客関係と、回答テンプレートDB36と基づいて、要旨情報から回答情報を生成する。
具体例として、顧客が父子である場合に、オペレータが「子供部屋は子供の教育に良いと人気」と応答したとする。回答生成部34は、顧客が父子であることから、回答情報として、例えば「子供部屋はお父様にもお子様にも良い評判は多いです」を生成する。このとき子供にも伝わる口調を用いてもよい。「教育に」は子供がいるため削除されている。「良いと人気」は「良い評判は多いです」に変えられている。これは第2の実施形態の手法を用いて行うことができる。
別の例として、顧客が未婚カップルである場合に、オペレータが上記同じ応答をしたとする。この場合、回答情報として、「もし将来お子様をお考えでしたら、子供部屋はお子様の教育に良いという評判は多いです」を生成する。このとき、慎重及び丁寧な口調を用いてもよい。
図32に、未婚カップルの顧客関係を特定し、特定した顧客関係に基づき、回答情報を生成するイメージの例を示す。生成した回答情報は顧客に伝えられる。
さらに別の例として、顧客が夫婦であり、夫婦には子供がいるとする(子供は来店していない)。オペレータが「子供部屋は子供の教育に良いと人気」と応答したとする。この場合、回答情報として、「子供部屋はお子様の教育に良いという評判は多いです」を生成する。この例では回答テンプレートDB36に顧客関係(夫婦)が登録されておらず、回答テンプレートは用いられていない。
図33は、変形例5に係る回答生成部34の動作の一例のフローチャートである。顧客のコンテキスト情報に基づき、同一組における複数人の関係(顧客関係)を特定する(S341)。また、オペレータから要旨情報を取得する(S342)。
特定した顧客関係に基づき、要旨情報から回答情報を生成する(S343)。
生成した回答情報を顧客に提供する(S334)。
以上、本変形例5によれば、顧客関係に基づいて回答情報を生成する。オペレータは顧客の関係を考慮した発言をしなくても、情報処理装置101がオペレータの要旨を補完した回答情報を生成する。これにより、オペレータの負荷を軽減しつつ、顧客に状況に適した応答を行うことができる。
(変形例6)
第2の実施形態に係る図16の対話処理部18の機能を、図2の情報処理装置から分離して単独の情報処理装置として構成してもよい。
第2の実施形態に係る図16の対話処理部18の機能を、図2の情報処理装置から分離して単独の情報処理装置として構成してもよい。
図34は、対話処理部18の機能を備えた情報処理装置のブロック図を示す。図16の構成に、通信部11、12が追加されている。通信部11、12は図2と同様の機能を備えている。図34の装置の説明は図16及び図2の説明から自明なため、省略する。
第2の実施形態の第1~第5の変形例についても、同様にして単独の装置として実現できる。
以上、本変形例6によれば、第2の実施形態及びその各種変形例の機能を単独で有する情報処理装置を提供することができる。
なお、上述の実施形態は本開示を具現化するための一例を示したものであり、その他の様々な形態で本開示を実施することが可能である。例えば、本開示の要旨を逸脱しない範囲で、種々の変形、置換、省略又はこれらの組み合わせが可能である。そのような変形、置換、省略等を行った形態も、本開示の範囲に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
また、本明細書に記載された本開示の効果は例示に過ぎず、その他の効果があってもよい。
なお、本開示は以下のような構成を取ることもできる。
[項目1]ユーザのコンテキスト情報を取得する情報取得部と、
前記コンテキスト情報に基づき、機械による応答を行うオペレータと人間のオペレータとを含む複数のオペレータから前記ユーザに応答するオペレータを選択し、選択した前記オペレータを前記ユーザに割り当てるオペレータ選択部と、
を備えた情報処理装置。
[項目2]前記コンテキスト情報は、前記ユーザの属性情報及び前記ユーザからセンシングした情報の少なくとも一方を含む
項目1に記載の情報処理装置。
[項目3]
前記オペレータ選択部は、コンテキスト情報に基づく条件と、オペレータとを対応付けた複数の選択ルールの中から、前記ユーザのコンテキスト情報が前記条件を満たす選択ルールを選択し、
選択した前記選択ルールに示されるオペレータを選択する
項目1又は2に記載の情報処理装置。
[項目4]
前記オペレータ選択部は、前記複数の選択ルールの確信度に基づき、前記選択ルールを選択し、
前記オペレータの応答に対する前記ユーザの反応情報に基づき、選択した前記選択ルールの前記確信度を更新する選択ルール更新部を備えた
項目3に記載の情報処理装置。
[項目5]
前記オペレータ選択部は、前記ユーザのコンテキスト情報が前記条件を満たし、かつ前記確信度が一定値以上の選択ルールを選択する
項目4に記載の情報処理装置。
[項目6]
前記選択ルール更新部は、前記ユーザの反応情報が成立条件を満たすときは、前記確信度を高くし、前記ユーザの反応情報が成立条件を満たさないときは、前記確信度を低くする
項目4又は5に記載の情報処理装置。
[項目7]
前記ユーザのコンテキスト情報に基づき、前記ユーザに対して前記オペレータが行う振る舞いを決定する振る舞い決定部と、
前記振る舞いで前記ユーザに応答する指示情報を前記オペレータに提供する対話処理部と
を備えた項目1~6のいずれか一項に記載の情報処理装置。
[項目8]
前記振る舞い決定部は、コンテキスト情報に基づく条件と、振る舞いとを対応付けた複数の振る舞いルールの中から、前記ユーザのコンテキスト情報が前記条件を満たす振る舞いルールを選択し、
選択した前記振る舞いルールに示される振る舞いを前記オペレータが行うことを決定する
項目7に記載の情報処理装置。
[項目9]
前記振る舞い決定部は、前記複数の振る舞いルールの確信度に基づき、前記振る舞いルールを選択し、
前記振る舞いに対する前記ユーザの反応情報に基づき、選択した前記振る舞いルールの前記確信度を更新する更新部を備えた
項目8に記載の情報処理装置。
[項目10]
前記振る舞い決定部は、前記ユーザのコンテキスト情報が前記条件を満たし、かつ前記確信度が一定値以上の振る舞いルールを選択する
項目9に記載の情報処理装置。
[項目11]
前記情報取得部は、前記オペレータに対する質問を含む質問情報を取得し、
前記質問情報を前記オペレータに提供する情報提供部と、
前記質問に対する前記オペレータの回答の要旨情報を前記オペレータから取得する要旨取得部と、
前記要旨情報と前記質問情報とに基づき、前記ユーザへの回答情報を生成する回答生成部と、
を備えた項目1~10のいずれかに記載の情報処理装置。
[項目12]
前記回答生成部は、前記要旨情報に基づき、前記オペレータの回答の分類を特定し、特定した分類に応じた回答テンプレートを用いて、前記回答情報を生成する
項目11に記載の情報処理装置。
[項目13]
前記回答生成部は、前記要旨情報に基づき、前記オペレータの回答の確度を特定し、特定した確度に応じた回答テンプレートを用いて、前記回答情報を生成する
項目12に記載の情報処理装置。
[項目14]
前記回答生成部は、前記要旨情報に含まれる指示語を検出し、前記指示語が指す対象を前記コンテキスト情報から特定し、特定した前記対象を用いて前記回答情報を生成する
項目12又は13に記載の情報処理装置。
[項目15]
前記回答生成部は、前記ユーザと前記オペレータとの対話が行われているタスクを、対話のタスクフローにおいて特定し、特定したタスクに基づいて、前記回答情報を生成する 項目11~14のいずれか一項に記載の情報処理装置。
[項目16]
前記回答生成部は、前記オペレータの感情を前記オペレータの振る舞い及び前記要旨情報の少なくとも一方から特定し、特定した前記感情に基づいて前記回答情報を生成する
項目11~15のいずれか一項に記載の情報処理装置。
[項目17]
前記回答生成部は、前記ユーザの感情を前記ユーザの振る舞いから特定し、特定した前記感情の表現で前記回答情報を生成する
項目11~16のいずれか一項に記載の情報処理装置。
[項目18]
前記ユーザは複数の人を含み、
前記回答生成部は、前記複数の人の関係に基づいて、前記回答情報を生成する
項目11~17のいずれか一項に記載の情報処理装置。
[項目19]
ユーザのコンテキスト情報を取得する取得ステップと、
前記コンテキスト情報に基づき、機械による応答を行うオペレータと人間のオペレータとを含む複数のオペレータから前記ユーザに応答するオペレータを選択する選択ステップと、
選択した前記オペレータを前記ユーザに割り当てる割り当てステップと、
を備えた情報処理方法。
[項目20]
ユーザのコンテキスト情報を取得する取得ステップと、
前記コンテキスト情報に基づき、機械による応答を行うオペレータと人間のオペレータとを含む複数のオペレータから前記ユーザに応答するオペレータを選択する選択ステップと、
選択した前記オペレータを前記ユーザに割り当てる割り当てステップと、
をコンピュータに実行させるためのコンピュータプログラム。
[項目1]ユーザのコンテキスト情報を取得する情報取得部と、
前記コンテキスト情報に基づき、機械による応答を行うオペレータと人間のオペレータとを含む複数のオペレータから前記ユーザに応答するオペレータを選択し、選択した前記オペレータを前記ユーザに割り当てるオペレータ選択部と、
を備えた情報処理装置。
[項目2]前記コンテキスト情報は、前記ユーザの属性情報及び前記ユーザからセンシングした情報の少なくとも一方を含む
項目1に記載の情報処理装置。
[項目3]
前記オペレータ選択部は、コンテキスト情報に基づく条件と、オペレータとを対応付けた複数の選択ルールの中から、前記ユーザのコンテキスト情報が前記条件を満たす選択ルールを選択し、
選択した前記選択ルールに示されるオペレータを選択する
項目1又は2に記載の情報処理装置。
[項目4]
前記オペレータ選択部は、前記複数の選択ルールの確信度に基づき、前記選択ルールを選択し、
前記オペレータの応答に対する前記ユーザの反応情報に基づき、選択した前記選択ルールの前記確信度を更新する選択ルール更新部を備えた
項目3に記載の情報処理装置。
[項目5]
前記オペレータ選択部は、前記ユーザのコンテキスト情報が前記条件を満たし、かつ前記確信度が一定値以上の選択ルールを選択する
項目4に記載の情報処理装置。
[項目6]
前記選択ルール更新部は、前記ユーザの反応情報が成立条件を満たすときは、前記確信度を高くし、前記ユーザの反応情報が成立条件を満たさないときは、前記確信度を低くする
項目4又は5に記載の情報処理装置。
[項目7]
前記ユーザのコンテキスト情報に基づき、前記ユーザに対して前記オペレータが行う振る舞いを決定する振る舞い決定部と、
前記振る舞いで前記ユーザに応答する指示情報を前記オペレータに提供する対話処理部と
を備えた項目1~6のいずれか一項に記載の情報処理装置。
[項目8]
前記振る舞い決定部は、コンテキスト情報に基づく条件と、振る舞いとを対応付けた複数の振る舞いルールの中から、前記ユーザのコンテキスト情報が前記条件を満たす振る舞いルールを選択し、
選択した前記振る舞いルールに示される振る舞いを前記オペレータが行うことを決定する
項目7に記載の情報処理装置。
[項目9]
前記振る舞い決定部は、前記複数の振る舞いルールの確信度に基づき、前記振る舞いルールを選択し、
前記振る舞いに対する前記ユーザの反応情報に基づき、選択した前記振る舞いルールの前記確信度を更新する更新部を備えた
項目8に記載の情報処理装置。
[項目10]
前記振る舞い決定部は、前記ユーザのコンテキスト情報が前記条件を満たし、かつ前記確信度が一定値以上の振る舞いルールを選択する
項目9に記載の情報処理装置。
[項目11]
前記情報取得部は、前記オペレータに対する質問を含む質問情報を取得し、
前記質問情報を前記オペレータに提供する情報提供部と、
前記質問に対する前記オペレータの回答の要旨情報を前記オペレータから取得する要旨取得部と、
前記要旨情報と前記質問情報とに基づき、前記ユーザへの回答情報を生成する回答生成部と、
を備えた項目1~10のいずれかに記載の情報処理装置。
[項目12]
前記回答生成部は、前記要旨情報に基づき、前記オペレータの回答の分類を特定し、特定した分類に応じた回答テンプレートを用いて、前記回答情報を生成する
項目11に記載の情報処理装置。
[項目13]
前記回答生成部は、前記要旨情報に基づき、前記オペレータの回答の確度を特定し、特定した確度に応じた回答テンプレートを用いて、前記回答情報を生成する
項目12に記載の情報処理装置。
[項目14]
前記回答生成部は、前記要旨情報に含まれる指示語を検出し、前記指示語が指す対象を前記コンテキスト情報から特定し、特定した前記対象を用いて前記回答情報を生成する
項目12又は13に記載の情報処理装置。
[項目15]
前記回答生成部は、前記ユーザと前記オペレータとの対話が行われているタスクを、対話のタスクフローにおいて特定し、特定したタスクに基づいて、前記回答情報を生成する 項目11~14のいずれか一項に記載の情報処理装置。
[項目16]
前記回答生成部は、前記オペレータの感情を前記オペレータの振る舞い及び前記要旨情報の少なくとも一方から特定し、特定した前記感情に基づいて前記回答情報を生成する
項目11~15のいずれか一項に記載の情報処理装置。
[項目17]
前記回答生成部は、前記ユーザの感情を前記ユーザの振る舞いから特定し、特定した前記感情の表現で前記回答情報を生成する
項目11~16のいずれか一項に記載の情報処理装置。
[項目18]
前記ユーザは複数の人を含み、
前記回答生成部は、前記複数の人の関係に基づいて、前記回答情報を生成する
項目11~17のいずれか一項に記載の情報処理装置。
[項目19]
ユーザのコンテキスト情報を取得する取得ステップと、
前記コンテキスト情報に基づき、機械による応答を行うオペレータと人間のオペレータとを含む複数のオペレータから前記ユーザに応答するオペレータを選択する選択ステップと、
選択した前記オペレータを前記ユーザに割り当てる割り当てステップと、
を備えた情報処理方法。
[項目20]
ユーザのコンテキスト情報を取得する取得ステップと、
前記コンテキスト情報に基づき、機械による応答を行うオペレータと人間のオペレータとを含む複数のオペレータから前記ユーザに応答するオペレータを選択する選択ステップと、
選択した前記オペレータを前記ユーザに割り当てる割り当てステップと、
をコンピュータに実行させるためのコンピュータプログラム。
101:情報処理装置、111、111A、111B、111C:顧客用のUI装置、121:エージェント装置、131:人間オペレータ用のUI装置
11、12:通信部、13:情報取得部、14:オペレータ選択部、15:選択ルールデータベース(DB)、16:選択ルール更新部、17:オペレータDB、18:対話処理部、21:振る舞い決定部、22:振る舞いルールDB、24:振る舞いルール更新部
200:コンピュータ装置、201:CPU、202:入力インタフェース、203:表示装置、204:通信装置、205:主記憶装置、206:外部記憶装置、207:バス、31:情報取得部、32:情報提供部、33:要旨取得部、34:回答生成部、35:顧客・オペレータDB、36:回答テンプレートDB、38:回答用コンテキストDB、41:タスクフローDB、51:感情分析部、61:感情分析部、
11、12:通信部、13:情報取得部、14:オペレータ選択部、15:選択ルールデータベース(DB)、16:選択ルール更新部、17:オペレータDB、18:対話処理部、21:振る舞い決定部、22:振る舞いルールDB、24:振る舞いルール更新部
200:コンピュータ装置、201:CPU、202:入力インタフェース、203:表示装置、204:通信装置、205:主記憶装置、206:外部記憶装置、207:バス、31:情報取得部、32:情報提供部、33:要旨取得部、34:回答生成部、35:顧客・オペレータDB、36:回答テンプレートDB、38:回答用コンテキストDB、41:タスクフローDB、51:感情分析部、61:感情分析部、
Claims (20)
- ユーザのコンテキスト情報を取得する情報取得部と、
前記コンテキスト情報に基づき、機械による応答を行うオペレータと人間のオペレータとを含む複数のオペレータから前記ユーザに応答するオペレータを選択し、選択した前記オペレータを前記ユーザに割り当てるオペレータ選択部と、
を備えた情報処理装置。 - 前記コンテキスト情報は、前記ユーザの属性情報及び前記ユーザからセンシングした情報の少なくとも一方を含む
請求項1に記載の情報処理装置。 - 前記オペレータ選択部は、コンテキスト情報に基づく条件と、オペレータとを対応付けた複数の選択ルールの中から、前記ユーザのコンテキスト情報が前記条件を満たす選択ルールを選択し、
選択した前記選択ルールに示されるオペレータを選択する
請求項1に記載の情報処理装置。 - 前記オペレータ選択部は、前記複数の選択ルールの確信度に基づき、前記選択ルールを選択し、
前記オペレータの応答に対する前記ユーザの反応情報に基づき、選択した前記選択ルールの前記確信度を更新する選択ルール更新部を備えた
請求項3に記載の情報処理装置。 - 前記オペレータ選択部は、前記ユーザのコンテキスト情報が前記条件を満たし、かつ前記確信度が一定値以上の選択ルールを選択する
請求項4に記載の情報処理装置。 - 前記選択ルール更新部は、前記ユーザの反応情報が成立条件を満たすときは、前記確信度を高くし、前記ユーザの反応情報が成立条件を満たさないときは、前記確信度を低くする
請求項4に記載の情報処理装置。 - 前記ユーザのコンテキスト情報に基づき、前記ユーザに対して前記オペレータが行う振る舞いを決定する振る舞い決定部と、
前記振る舞いで前記ユーザに応答する指示情報を前記オペレータに提供する対話処理部と
を備えた請求項1に記載の情報処理装置。 - 前記振る舞い決定部は、コンテキスト情報に基づく条件と、振る舞いとを対応付けた複数の振る舞いルールの中から、前記ユーザのコンテキスト情報が前記条件を満たす振る舞いルールを選択し、
選択した前記振る舞いルールに示される振る舞いを前記オペレータが行うことを決定する
請求項7に記載の情報処理装置。 - 前記振る舞い決定部は、前記複数の振る舞いルールの確信度に基づき、前記振る舞いルールを選択し、
前記振る舞いに対する前記ユーザの反応情報に基づき、選択した前記振る舞いルールの前記確信度を更新する更新部を備えた
請求項8に記載の情報処理装置。 - 前記振る舞い決定部は、前記ユーザのコンテキスト情報が前記条件を満たし、かつ前記確信度が一定値以上の振る舞いルールを選択する
請求項9に記載の情報処理装置。 - 前記情報取得部は、前記オペレータに対する質問を含む質問情報を取得し、
前記質問情報を前記オペレータに提供する情報提供部と、
前記質問に対する前記オペレータの回答の要旨情報を前記オペレータから取得する要旨取得部と、
前記要旨情報と前記質問情報とに基づき、前記ユーザへの回答情報を生成する回答生成部と、
を備えた請求項1に記載の情報処理装置。 - 前記回答生成部は、前記要旨情報に基づき、前記オペレータの回答の分類を特定し、特定した分類に応じた回答テンプレートを用いて、前記回答情報を生成する
請求項11に記載の情報処理装置。 - 前記回答生成部は、前記要旨情報に基づき、前記オペレータの回答の確度を特定し、特定した確度に応じた回答テンプレートを用いて、前記回答情報を生成する
請求項12に記載の情報処理装置。 - 前記回答生成部は、前記要旨情報に含まれる指示語を検出し、前記指示語が指す対象を前記コンテキスト情報から特定し、特定した前記対象を用いて前記回答情報を生成する
請求項12に記載の情報処理装置。 - 前記回答生成部は、前記ユーザと前記オペレータとの対話が行われているタスクを、対話のタスクフローにおいて特定し、特定したタスクに基づいて、前記回答情報を生成する 請求項11に記載の情報処理装置。
- 前記回答生成部は、前記オペレータの感情を前記オペレータの振る舞い及び前記要旨情報の少なくとも一方から特定し、特定した前記感情に基づいて前記回答情報を生成する
請求項11に記載の情報処理装置。 - 前記回答生成部は、前記ユーザの感情を前記ユーザの振る舞いから特定し、特定した前記感情に基づいて前記回答情報を生成する
請求項11に記載の情報処理装置。 - 前記ユーザは複数の人を含み、
前記回答生成部は、前記複数の人の関係に基づいて、前記回答情報を生成する
請求項11に記載の情報処理装置。 - ユーザのコンテキスト情報を取得する取得ステップと、
前記コンテキスト情報に基づき、機械による応答を行うオペレータと人間のオペレータとを含む複数のオペレータから前記ユーザに応答するオペレータを選択する選択ステップと、
選択した前記オペレータを前記ユーザに割り当てる割り当てステップと、
を備えた情報処理方法。 - ユーザのコンテキスト情報を取得する取得ステップと、
前記コンテキスト情報に基づき、機械による応答を行うオペレータと人間のオペレータとを含む複数のオペレータから前記ユーザに応答するオペレータを選択する選択ステップと、
選択した前記オペレータを前記ユーザに割り当てる割り当てステップと、
をコンピュータに実行させるためのコンピュータプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019206459 | 2019-11-14 | ||
JP2019-206459 | 2019-11-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021095473A1 true WO2021095473A1 (ja) | 2021-05-20 |
Family
ID=75912007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2020/039623 WO2021095473A1 (ja) | 2019-11-14 | 2020-10-21 | 情報処理装置、情報処理方法及びコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2021095473A1 (ja) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002358410A (ja) * | 2001-06-01 | 2002-12-13 | Daiwa Securities Group Inc | コールセンター支援システム、方法及びプログラム |
JP2003108650A (ja) * | 2001-09-29 | 2003-04-11 | Toshiba Corp | コールセンタシステムおよび応対者選定方法およびリクエストに対する対応者選定のためのコンピュータプログラム |
JP2003122834A (ja) * | 2001-10-16 | 2003-04-25 | Hochiki Corp | 相談情報処理装置、相談情報処理方法、および、プログラム |
JP2007004000A (ja) * | 2005-06-27 | 2007-01-11 | Tokyo Electric Power Co Inc:The | コールセンターにおけるオペレータ業務支援システム |
JP2008022546A (ja) * | 2006-06-15 | 2008-01-31 | Meiji Univ | コールセンタシステム,電話着信呼分配装置及び電話着信呼分配方法,プログラム |
JP2009159558A (ja) * | 2007-12-28 | 2009-07-16 | Fujitsu Fsas Inc | オペレータ受付監視・切替システム |
JP2012060387A (ja) * | 2010-09-08 | 2012-03-22 | Oki Networks Co Ltd | 対話シナリオ処理装置及びプログラム |
JP2015156062A (ja) * | 2014-02-19 | 2015-08-27 | 株式会社東芝 | 業務支援システム |
JP2017072976A (ja) * | 2015-10-07 | 2017-04-13 | エヌ・ティ・ティ・ソフトウェア株式会社 | 情報処理システム、情報処理方法及びプログラム |
JP2019062460A (ja) * | 2017-09-27 | 2019-04-18 | Kddi株式会社 | オペレータ選択装置、オペレータ選択システム、プログラム及びオペレータ選択方法 |
-
2020
- 2020-10-21 WO PCT/JP2020/039623 patent/WO2021095473A1/ja unknown
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002358410A (ja) * | 2001-06-01 | 2002-12-13 | Daiwa Securities Group Inc | コールセンター支援システム、方法及びプログラム |
JP2003108650A (ja) * | 2001-09-29 | 2003-04-11 | Toshiba Corp | コールセンタシステムおよび応対者選定方法およびリクエストに対する対応者選定のためのコンピュータプログラム |
JP2003122834A (ja) * | 2001-10-16 | 2003-04-25 | Hochiki Corp | 相談情報処理装置、相談情報処理方法、および、プログラム |
JP2007004000A (ja) * | 2005-06-27 | 2007-01-11 | Tokyo Electric Power Co Inc:The | コールセンターにおけるオペレータ業務支援システム |
JP2008022546A (ja) * | 2006-06-15 | 2008-01-31 | Meiji Univ | コールセンタシステム,電話着信呼分配装置及び電話着信呼分配方法,プログラム |
JP2009159558A (ja) * | 2007-12-28 | 2009-07-16 | Fujitsu Fsas Inc | オペレータ受付監視・切替システム |
JP2012060387A (ja) * | 2010-09-08 | 2012-03-22 | Oki Networks Co Ltd | 対話シナリオ処理装置及びプログラム |
JP2015156062A (ja) * | 2014-02-19 | 2015-08-27 | 株式会社東芝 | 業務支援システム |
JP2017072976A (ja) * | 2015-10-07 | 2017-04-13 | エヌ・ティ・ティ・ソフトウェア株式会社 | 情報処理システム、情報処理方法及びプログラム |
JP2019062460A (ja) * | 2017-09-27 | 2019-04-18 | Kddi株式会社 | オペレータ選択装置、オペレータ選択システム、プログラム及びオペレータ選択方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7005694B2 (ja) | コンピュータによるエージェントのための合成音声の選択 | |
US20200013071A1 (en) | Method for personalizing customer interaction experiences by routing to customer interaction channels | |
US11276400B2 (en) | User-programmable automated assistant | |
US20210304277A1 (en) | Systems and methods for virtual agents to help customers and businesses | |
US10853717B2 (en) | Creating a conversational chat bot of a specific person | |
US9489625B2 (en) | Rapid development of virtual personal assistant applications | |
US20200117858A1 (en) | System for minimizing repetition in intelligent virtual assistant conversations | |
US20210012766A1 (en) | Voice conversation analysis method and apparatus using artificial intelligence | |
US11347801B2 (en) | Multi-modal interaction between users, automated assistants, and other computing services | |
US11036285B2 (en) | Systems and methods for mixed reality interactions with avatar | |
US10614377B2 (en) | Method and system for using existing models in connection with new model development | |
Lopatovska et al. | User recommendations for intelligent personal assistants | |
CN111201566A (zh) | 用于处理数据和输出用户反馈的口语通信设备和计算体系架构以及相关方法 | |
Honold et al. | The automated interplay of multimodal fission and fusion in adaptive HCI | |
WO2021095473A1 (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
CN112424768A (zh) | 电子设备及其控制方法 | |
KR20200115695A (ko) | 전자 장치 및 이의 제어 방법 | |
Chen et al. | Consumers’ perception on artificial intelligence applications in marketing communication | |
Alikhademi et al. | AI-based technical approach for designing mobile decision aids | |
Yagi et al. | Predicting multimodal presentation skills based on instance weighting domain adaptation | |
Glasser et al. | Understanding deaf and hard-of-hearing users' interest in sign-language interaction with personal-assistant devices | |
Mleczko | Chatbot as a Tool for Knowledge Sharing in the Maintenance and Repair Processes | |
Vaz | Chatbot for digital marketing and customer support: an artificial intelligence approach | |
WO2021093821A1 (zh) | 智能助理评价、推荐方法、系统、终端及可读存储介质 | |
Lopatovska et al. | Contextual Perceptions of Feminine-, Masculine-and Gender-Ambiguous-Sounding Conversational Agents |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20888329 Country of ref document: EP Kind code of ref document: A1 |