JP2016090775A - 応答生成装置、応答生成方法およびプログラム - Google Patents
応答生成装置、応答生成方法およびプログラム Download PDFInfo
- Publication number
- JP2016090775A JP2016090775A JP2014224167A JP2014224167A JP2016090775A JP 2016090775 A JP2016090775 A JP 2016090775A JP 2014224167 A JP2014224167 A JP 2014224167A JP 2014224167 A JP2014224167 A JP 2014224167A JP 2016090775 A JP2016090775 A JP 2016090775A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- user
- response
- intimacy
- response generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
【課題】ユーザの発話内容から推定される感情を考慮して親密度を算出し、親密度に応じた応答を生成する応答生成装置、応答生成方法およびプログラムを提供する。
【解決手段】応答生成装置100において、まず音声認識部101がユーザの発話内容を認識する。感情推定部102が発話内容からユーザの感情の出現の有無を推定する。親密度データベース104は、発話の回数と感情の出現回数とを累積的に記録する。親密度算出部103が発話の回数と感情の出現回数との割合に応じて前記ユーザとの親密度を算出する。応答生成部105は、親密度が所定の閾値を上回る場合と、閾値以下である場合とで、異なる応答文を生成する。
【選択図】図1
【解決手段】応答生成装置100において、まず音声認識部101がユーザの発話内容を認識する。感情推定部102が発話内容からユーザの感情の出現の有無を推定する。親密度データベース104は、発話の回数と感情の出現回数とを累積的に記録する。親密度算出部103が発話の回数と感情の出現回数との割合に応じて前記ユーザとの親密度を算出する。応答生成部105は、親密度が所定の閾値を上回る場合と、閾値以下である場合とで、異なる応答文を生成する。
【選択図】図1
Description
本発明は応答生成装置、応答生成方法およびプログラムに関し、特に音声対話ロボット等において親密度を考慮した応答を生成する技術に関する。
特許文献1には、感情をこめて対話を行うロボット装置が開示されている。ロボット装置は、親密度データベースを保持しており、ユーザのインタラクションに応じて、ユーザとロボット装置間の親密度を更新する。インタラクションとは、ユーザのロボット装置に対する接し方のことであり、なでる、たたく、食事を提供する、話しかける、ボール遊びをする、等の動作をいう。ロボット装置は、これらのインタラクションが行われた回数や時間に基づいて親密度を更新する。
また、ロボット装置は、ユーザの発話を認識し、対話データベースに定義された応答文一覧表から、親密度に応じた応答文を選択する。そして、ユーザの発話内容から推定される感情に応じて、応答文の語尾や抑揚を変化させた応答を行う。
特許文献1記載のロボット装置は、インタラクションの回数や時間に基づいて親密度を算出する。しかしながら、親密度の算出に際し、ユーザの発話内容を使用しない。そのため、発話から推定されるユーザの感情を考慮した親密度の算出ができない。
そのため、特許文献1記載のロボット装置における親密度の算出手法は、ユーザの発話内容が定型である場合(タスクが決まっているような場合)など限られた状況においては有効であったが、ユーザとロボット装置とが雑談をするような状況においては、親密度を効果的に算出することができなかった。
本発明にかかる応答生成装置は、ユーザの発話内容を認識する音声認識部と、前記発話内容から前記ユーザの感情の出現の有無を推定する感情推定部と、前記発話の回数と前記感情の出現回数とを累積的に記録する親密度データベースと、前記発話の回数と前記感情の出現回数との割合に応じて前記ユーザとの親密度を算出する親密度算出部と、前記親密度の違いに応じて異なる応答文を生成する応答生成部と、を有する。
すなわち、本発明の応答生成装置は、ユーザの発話内容から感情を推定する。そして、発話中の感情出現率に応じて親密度を算出する。
本発明により、ユーザの発話内容から推定される感情を考慮して親密度を算出し、親密度に応じた応答を生成する応答生成装置、応答生成方法およびプログラムを提供することができる。
以下、図面を参照して本発明の実施の形態について説明する。
はじめに、図1のブロック図を用いて、本発明の実施の形態にかかる応答生成装置100の構成について説明する。
はじめに、図1のブロック図を用いて、本発明の実施の形態にかかる応答生成装置100の構成について説明する。
応答生成装置100は、ユーザの発話を認識して応答を返す装置であり、典型的には音声対話ロボット装置である。応答生成装置100は、例えば中央処理装置(CPU)、揮発性又は不揮発性のメモリ、及び音声入出力装置(マイク、スピーカ、A/D及びD/A変換装置等)等を含み、CPUがメモリに格納されたプログラムに従って情報処理を実行することにより、目的とする種々の機能を実現することができる。
応答生成装置100は、少なくとも音声認識部101、感情推定部102、親密度算出部103、親密度データベース104、応答生成部105を含む。さらに音声合成部106を含んでも良い。
音声認識部101は、ユーザの発話内容を認識する処理を行う。すなわち、音声認識部101は、ユーザの発話を音声データとして入力し、音声データからテキストデータを生成する処理を行う。なお、典型的には、マイクがユーザの発話をアナログ音声信号として取得し、A/D変換装置がアナログ音声信号を音声データに変換して、音声認識部101に入力する。音声データからのテキストデータの生成は、公知の種々の音声認識技術等により実現可能である。
感情推定部102は、音声認識部101が生成したテキストデータを利用してユーザの発話内容を解析し、ユーザの感情を推定する処理を行う。
親密度算出部103は、感情推定部102による感情推定結果を含む、ユーザとの対話に関する情報を用いて、ユーザとの親密度を算出する処理を行う。親密度算出部103は、ユーザとの対話に関する情報や親密度を後述の親密度データベース104に記録する。
親密度データベース104は、ユーザとの対話に関する情報や親密度を記録する記憶手段である。
応答生成部105は、親密度算出部103が算出したユーザとの親密度に応じ、当該ユーザに対する応答文を生成する処理を行う。応答文は、典型的にはテキストデータである。
音声合成部106は、応答生成部105が生成した応答文を音声データに変換する。テキストデータからの音声データの生成は、公知の種々の音声合成技術等により実現可能である。その後、典型的にはD/A変換装置が音声データをアナログ音声信号に変換し、スピーカがアナログ音声信号を音声として出力する。
つぎに、図2のフローチャートを用いて、本発明の実施の形態にかかる応答生成装置100の動作について説明する。
S101:音声認識
ユーザが、応答生成装置100に対して発話を行う。音声認識部101は、ユーザの発話内容を入力、認識し、テキストデータを生成する。
ユーザが、応答生成装置100に対して発話を行う。音声認識部101は、ユーザの発話内容を入力、認識し、テキストデータを生成する。
具体的には、マイクがユーザの発話をアナログ音声信号として取得し、A/D変換装置がアナログ音声信号を音声データに変換する。音声認識部101は、この音声データを入力し、公知の種々の音声認識技術等を利用して音声データをテキストデータに変換する。例えば、ユーザが「昨日、友達にプレゼントをもらったんだ」と発話すると、音声認識部101は「昨日、友達にプレゼントをもらったんだ」という内容のテキストデータを生成する。
S102:感情推定
感情推定部102が、S101で生成されたテキストデータを解析し、ユーザの感情の推定を試みる。ユーザの発話内容のテキストデータを解析し、ユーザの感情を推定する手法としては種々の方法が公知であり、本発明はいずれかの感情推定手法に限定されるものではない。上記感情推定方法のひとつとして、「Webから獲得した感情生起要因コーパスに基づく感情推定」(徳久良子ほか,言語処理学会第14回年次大会論文集,2008年3月)がある。
感情推定部102が、S101で生成されたテキストデータを解析し、ユーザの感情の推定を試みる。ユーザの発話内容のテキストデータを解析し、ユーザの感情を推定する手法としては種々の方法が公知であり、本発明はいずれかの感情推定手法に限定されるものではない。上記感情推定方法のひとつとして、「Webから獲得した感情生起要因コーパスに基づく感情推定」(徳久良子ほか,言語処理学会第14回年次大会論文集,2008年3月)がある。
感情推定部102は、上記感情推定処理により、ユーザの感情の種類を推定する。例えば、「昨日、友達にプレゼントをもらったんだ」というテキストデータからは、「嬉しい」という種類の感情が推定される。この他、テキストデータの内容に応じ、「楽しい」、「嫌」等の様々な種類の感情が推定され得る。
S103:親密度算出
親密度算出部103が、親密度データベース104に既に記録されている情報と、S102で推定されたユーザの感情に基づいて、親密度を算出する。
親密度算出部103が、親密度データベース104に既に記録されている情報と、S102で推定されたユーザの感情に基づいて、親密度を算出する。
ここで、親密度データベース104は、現在までの、ユーザの発話回数及び感情の種類毎の推定回数(感情出現回数)を累積的に記録している。また、親密度データベース104は、過去に算出されたユーザとの親密度を記録していても良い。なお、発話するユーザが複数存在する場合は、親密度データベース104は、上記情報をユーザ毎にそれぞれ記録することができる。
親密度算出部103は、親密度データベース104から、現在までのユーザの発話回数、及び、各感情の種類の出現回数を取得する。ここで、S102において何らかの感情が推定されたならば、当該感情の種類の出現回数を更新(+1)する。さらに、発話数を更新(+1)する。そして、親密度算出部103は、更新された発話数及び感情出現回数を用いて、例えば以下の算出式により親密度を算出する。
親密度 = 感情出現回数 / 発話回数
例えば、これまでの発話回数が20回であり、感情の種類として「嬉しい」が12回、「楽しい」が3回、「嫌」が2回それぞれ推定されている場合、親密度は
(12 + 3 + 2) / 20 =0.85
となる。
親密度 = 感情出現回数 / 発話回数
例えば、これまでの発話回数が20回であり、感情の種類として「嬉しい」が12回、「楽しい」が3回、「嫌」が2回それぞれ推定されている場合、親密度は
(12 + 3 + 2) / 20 =0.85
となる。
この算出式によれば、親密度は0乃至1.0の数値で表される。親密度が1.0に近いほど、ユーザとの親密度が高いことを意味する。
本実施の形態における親密度の算出手法は、発話回数と感情出現回数との割合に応じて決定されることに特徴がある。すなわち、たとえネガティブな感情表現(例えば「嫌」)であっても、感情出現回数が多くなるほど親密度はより高いものと判定される。なお、本発明は上に例示した算出式に限定されるものでなく、発話回数と感情出現回数との割合に応じて親密度を算出するものであれば、他の算出式を採用しても良い。
親密度算出部103は、S103において更新された発話回数、感情出現回数を親密度データベース104に記録する。S103において算出した親密度を併せて記録しても良い。
S104:親密度はしきい値より高いかを判定
応答生成部105は、S103において算出された親密度が、予め定められた閾値を上回っているか否かを判定する。応答生成部105は、この判定結果に応じ、ユーザに対する応答内容を変化させる。
応答生成部105は、S103において算出された親密度が、予め定められた閾値を上回っているか否かを判定する。応答生成部105は、この判定結果に応じ、ユーザに対する応答内容を変化させる。
S105:応答生成(1)
親密度が閾値を上回る場合、応答生成部105は、好ましくは感情表現を織り込んだ応答内容を含む応答文生成する。例えば、推定されたユーザの感情に共感する内容(共感応答)を含む応答文を生成しても良い。さらには、ユーザの話を深堀りするための問い返しを含む応答文を生成しても良い。例えば、ユーザの発話内容から「嬉しい」という感情が推定された場合は、「それは嬉しかったね。」「何を貰ったの?」という応答文を生成することができる。
親密度が閾値を上回る場合、応答生成部105は、好ましくは感情表現を織り込んだ応答内容を含む応答文生成する。例えば、推定されたユーザの感情に共感する内容(共感応答)を含む応答文を生成しても良い。さらには、ユーザの話を深堀りするための問い返しを含む応答文を生成しても良い。例えば、ユーザの発話内容から「嬉しい」という感情が推定された場合は、「それは嬉しかったね。」「何を貰ったの?」という応答文を生成することができる。
S106:応答生成(2)
一方、親密度が閾値以下である場合、応答生成部105は、S105とは異なる応答内容、好ましくはユーザの感情には関連しない応答内容を含む応答文を生成する。すなわち、推定されたユーザの感情を用いることなく、応答文を生成する。例えば、ユーザの感情に関連しない「へーそうなんだ。」等の応答文、あいづち、又はユーザの発話内容をオウム返しする応答文等を生成することができる。
一方、親密度が閾値以下である場合、応答生成部105は、S105とは異なる応答内容、好ましくはユーザの感情には関連しない応答内容を含む応答文を生成する。すなわち、推定されたユーザの感情を用いることなく、応答文を生成する。例えば、ユーザの感情に関連しない「へーそうなんだ。」等の応答文、あいづち、又はユーザの発話内容をオウム返しする応答文等を生成することができる。
S105及びS106のいずれにおいても、応答生成部105は、典型的には、図示しない記憶手段が保持する応答文テーブルを参照し、応答文テーブルから適切な応答文を選択することにより、応答文の生成を行うことができる。応答文テーブルは、感情の種類に対応付けられた応答文と、感情の種類に関わらず利用可能な応答文と、をそれぞれ含んでいることが望ましい。応答生成部105は、親密度が閾値を上回る場合には、応答文テーブルの中から、ユーザの感情の種類に予め対応付けられた応答文を選択する。例えば、「嬉しい」という感情に対応付けられている、「それは嬉しかったね。」という応答文を選択する。親密度が閾値以下である場合には、応答文テーブルの中から、感情の種類に関わらず利用可能な応答文、例えば「へーそうなんだ。」という文を選択する。
S107:音声合成
音声合成部106は、S106で生成された応答文を、公知の音声合成技術等を用いて音声データに変換する。その後、典型的にはスピーカが、D/A変換された応答文の音声データを音声として出力する。
音声合成部106は、S106で生成された応答文を、公知の音声合成技術等を用いて音声データに変換する。その後、典型的にはスピーカが、D/A変換された応答文の音声データを音声として出力する。
本実施の形態によれば、応答生成装置100は、感情推定部102によりユーザの発話内容から感情を推定する。そして、親密度算出部103により発話中の感情出現率に応じた親密度を算出する。
一般に、ユーザとロボット装置との親密度が高くなるほど、ユーザの発話には感情表現が多く含まれるようになる。この性質を用いることにより、ユーザの発話内容のみを用いて、非接触すなわち自然な形で的確に相手との親密度を測ることができる。また、ユーザとロボット装置との間において、人と人との間のようなより円滑なコミュニケーションを実現することができる。
また、本実施の形態では、応答生成部105が、ユーザとの親密度に応じて応答を変化させる。具体的には、親密度が所定の閾値より高ければ応答生成装置100側による感情表現を増やし、閾値より低ければ親密度が低い場合はオウム返しなど、ユーザの感情に関連しない応答をする。これにより、ユーザの気持ちや親密度に沿った適切な応答をすることができる。
100 応答生成装置
101 音声認識部
102 感情推定部
103 親密度算出部
104 親密度データベース
105 応答生成部
106 音声合成部
101 音声認識部
102 感情推定部
103 親密度算出部
104 親密度データベース
105 応答生成部
106 音声合成部
Claims (6)
- ユーザの発話内容を認識する音声認識部と、
前記発話内容から前記ユーザの感情の出現の有無を推定する感情推定部と、
前記発話の回数と前記感情の出現回数とを累積的に記録する親密度データベースと、
前記発話の回数と前記感情の出現回数との割合に応じて前記ユーザとの親密度を算出する親密度算出部と、
前記親密度の違いに応じて異なる応答文を生成する応答生成部と、を有する
応答生成装置。 - 前記感情推定部は、前記感情の出現の有無に加えて、前記感情の種類を推定する
請求項1記載の応答生成装置。 - 前記応答生成部は、前記親密度が所定の閾値を上回る場合、推定された前記感情の種類に対応する応答文を生成する
請求項2記載の応答生成装置。 - 前記応答生成部は、前記親密度が所定の閾値以下である場合、推定された前記感情の種類に関連しない応答文を生成する
請求項2又は3記載の応答生成装置。 - ユーザの発話内容を認識する音声認識ステップと、
前記発話内容から前記ユーザの感情の出現の有無を推定する感情推定ステップと、
前記発話の回数と前記感情の出現回数とを累積的に記録する記録ステップと、
前記発話の回数と前記感情の出現回数との割合に応じて前記ユーザとの親密度を算出する親密度更新ステップと、
前記親密度の違いに応じて異なる応答文を生成する応答生成ステップと、を有する
応答生成方法。 - コンピュータに、請求項5記載の方法を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014224167A JP2016090775A (ja) | 2014-11-04 | 2014-11-04 | 応答生成装置、応答生成方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014224167A JP2016090775A (ja) | 2014-11-04 | 2014-11-04 | 応答生成装置、応答生成方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016090775A true JP2016090775A (ja) | 2016-05-23 |
Family
ID=56017778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014224167A Pending JP2016090775A (ja) | 2014-11-04 | 2014-11-04 | 応答生成装置、応答生成方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016090775A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018169000A1 (ja) * | 2017-03-16 | 2018-09-20 | 国立研究開発法人情報通信研究機構 | 対話システム及びそのためのコンピュータプログラム |
CN109873756A (zh) * | 2019-03-08 | 2019-06-11 | 百度在线网络技术(北京)有限公司 | 用于发送信息的方法和装置 |
JP2019162714A (ja) * | 2016-08-29 | 2019-09-26 | Groove X株式会社 | 音源の方向を認識するロボット |
JP2023051772A (ja) * | 2021-09-30 | 2023-04-11 | 株式会社調和技研 | 情報処理装置及びプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001215993A (ja) * | 2000-01-31 | 2001-08-10 | Sony Corp | 対話処理装置および対話処理方法、並びに記録媒体 |
JP2005258235A (ja) * | 2004-03-15 | 2005-09-22 | Hitachi Ltd | 感情発話検知による対話修正機能を備えた対話制御装置 |
JP2006178063A (ja) * | 2004-12-21 | 2006-07-06 | Toyota Central Res & Dev Lab Inc | 対話処理装置 |
JP2008276543A (ja) * | 2007-04-27 | 2008-11-13 | Toyota Central R&D Labs Inc | 対話処理装置、応答文生成方法、及び応答文生成処理プログラム |
WO2009107185A1 (ja) * | 2008-02-25 | 2009-09-03 | パイオニア株式会社 | 車載ロボット |
JP4627152B2 (ja) * | 2004-06-01 | 2011-02-09 | 三星電子株式会社 | 危機監視システム |
-
2014
- 2014-11-04 JP JP2014224167A patent/JP2016090775A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001215993A (ja) * | 2000-01-31 | 2001-08-10 | Sony Corp | 対話処理装置および対話処理方法、並びに記録媒体 |
JP2005258235A (ja) * | 2004-03-15 | 2005-09-22 | Hitachi Ltd | 感情発話検知による対話修正機能を備えた対話制御装置 |
JP4627152B2 (ja) * | 2004-06-01 | 2011-02-09 | 三星電子株式会社 | 危機監視システム |
JP2006178063A (ja) * | 2004-12-21 | 2006-07-06 | Toyota Central Res & Dev Lab Inc | 対話処理装置 |
JP2008276543A (ja) * | 2007-04-27 | 2008-11-13 | Toyota Central R&D Labs Inc | 対話処理装置、応答文生成方法、及び応答文生成処理プログラム |
WO2009107185A1 (ja) * | 2008-02-25 | 2009-09-03 | パイオニア株式会社 | 車載ロボット |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019162714A (ja) * | 2016-08-29 | 2019-09-26 | Groove X株式会社 | 音源の方向を認識するロボット |
WO2018169000A1 (ja) * | 2017-03-16 | 2018-09-20 | 国立研究開発法人情報通信研究機構 | 対話システム及びそのためのコンピュータプログラム |
JP2018156273A (ja) * | 2017-03-16 | 2018-10-04 | 国立研究開発法人情報通信研究機構 | 対話システム及びそのためのコンピュータプログラム |
US11113335B2 (en) | 2017-03-16 | 2021-09-07 | National Institute Of Information And Communications Technology | Dialogue system and computer program therefor |
CN109873756A (zh) * | 2019-03-08 | 2019-06-11 | 百度在线网络技术(北京)有限公司 | 用于发送信息的方法和装置 |
CN109873756B (zh) * | 2019-03-08 | 2020-04-03 | 百度在线网络技术(北京)有限公司 | 用于发送信息的方法和装置 |
US11706172B2 (en) | 2019-03-08 | 2023-07-18 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and device for sending information |
JP2023051772A (ja) * | 2021-09-30 | 2023-04-11 | 株式会社調和技研 | 情報処理装置及びプログラム |
JP7440844B2 (ja) | 2021-09-30 | 2024-02-29 | 株式会社調和技研 | 情報処理装置及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9653097B2 (en) | Sound output device, network system, and sound output method | |
JP5327054B2 (ja) | 発音変動規則抽出装置、発音変動規則抽出方法、および発音変動規則抽出用プログラム | |
JP5195405B2 (ja) | 応答生成装置及びプログラム | |
JP6696923B2 (ja) | 音声対話装置、その処理方法及びプログラム | |
JP6732703B2 (ja) | 感情インタラクションモデル学習装置、感情認識装置、感情インタラクションモデル学習方法、感情認識方法、およびプログラム | |
JP6884947B2 (ja) | 対話システム及びそのためのコンピュータプログラム | |
WO2014073612A1 (ja) | 会話文生成装置、会話文生成方法及び会話文生成プログラム | |
JP2016090775A (ja) | 応答生成装置、応答生成方法およびプログラム | |
Chiba et al. | An analysis of the effect of emotional speech synthesis on non-task-oriented dialogue system | |
JP6390264B2 (ja) | 応答生成方法、応答生成装置及び応答生成プログラム | |
JPWO2014073613A1 (ja) | 会話文生成装置、会話文生成方法及び会話文生成プログラム | |
JP2008125815A (ja) | 会話ロボットシステム | |
JP2015069231A (ja) | キャラクタ生成装置およびプログラム | |
JP2018132704A (ja) | 対話装置 | |
JP6468258B2 (ja) | 音声対話装置および音声対話方法 | |
JP6709558B2 (ja) | 会話処理装置 | |
JP6295869B2 (ja) | 応答生成装置、応答生成方法及びプログラム | |
JP2016090776A (ja) | 応答生成装置、応答生成方法およびプログラム | |
JP2018155980A (ja) | 対話装置および対話方法 | |
JP2008107673A (ja) | 会話ロボット | |
JP6176137B2 (ja) | 音声対話装置、音声対話システム及びプログラム | |
JP2018132623A (ja) | 音声対話装置 | |
Takahashi et al. | Natural Language Dialog System Considering Speaker’s Emotion Calculated from Acoustic Features | |
JP2009198871A (ja) | 音声対話装置 | |
JP2021149664A (ja) | 出力装置、出力方法及び出力プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171121 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180605 |