JP2023515254A - ヒューマンマシン対話のための音声機能ジャンプ方法、電子機器及び記憶媒体 - Google Patents

ヒューマンマシン対話のための音声機能ジャンプ方法、電子機器及び記憶媒体 Download PDF

Info

Publication number
JP2023515254A
JP2023515254A JP2022562335A JP2022562335A JP2023515254A JP 2023515254 A JP2023515254 A JP 2023515254A JP 2022562335 A JP2022562335 A JP 2022562335A JP 2022562335 A JP2022562335 A JP 2022562335A JP 2023515254 A JP2023515254 A JP 2023515254A
Authority
JP
Japan
Prior art keywords
field
dialogue
human
electronic device
transition diagram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022562335A
Other languages
English (en)
Other versions
JP7342286B2 (ja
Inventor
洪博 宋
帥 樊
春 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AI Speech Ltd
Original Assignee
AI Speech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AI Speech Ltd filed Critical AI Speech Ltd
Publication of JP2023515254A publication Critical patent/JP2023515254A/ja
Application granted granted Critical
Publication of JP7342286B2 publication Critical patent/JP7342286B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0638Interactive procedures
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)

Abstract

本発明は、電子機器に用いられるヒューマンマシン対話のための音声機能ジャンプ方法であって、ユーザのヒューマンマシン対話の履歴データに基づいて予め分野遷移図を構築するステップと、外部音声を受信するステップと、前記外部音声がヒットする対話分野を確定するステップと、ヒットする対話分野が分野遷移図における複数の対話分野の一つに属するか否かを判断し、属さない場合には外部音声を無視し、属する場合にはヒットする対話分野に対応する音声機能にジャンプするステップと、を含み、前記分野遷移図は、複数の対話分野を含む有向グラフである、ことを特徴とするヒューマンマシン対話のための音声機能ジャンプ方法を開示する。本発明は、ユーザヒューマンマシン対話の履歴データに基づいて分野遷移図を生成し、分野遷移図に基づいて音声機能のジャンプを行うか否かを判断し、ヒューマンマシン対話の履歴データがユーザのインタラクション習慣を反映するため、分野遷移図と合わせることで明らかに異常な入力内容をシールドすることができ、タスク完成度及びインタラクション効率を向上させることができる。【選択図】図1

Description

本発明は人工知能の技術分野に関し、特に、ヒューマンマシン対話のための音声機能ジャンプ方法、電子機器及び記憶媒体に関する。
既存のヒューマンマシン対話における機能ディスパッチポリシーには、ルールベースのタスク型対話分野ディスパッチポリシーとルールベースの分野ジャンプポリシーの2種類が含まれる。
ルールベースのタスク型対話分野のディスパッチポリシーでは、ユーザが対話システムとインタラクションする時に入力内容に曖昧性がある場合、複数のセマンティック分野にヒットする(例えば、「周杰倫」と発話すると、音楽分野及び百科辞典分野にヒットする可能性がある)。ルールベースのディスパッチポリシーでは、配置された順序に従って最終的なセマンティック分野が決定される(例えば、音楽分野が配置テーブルの前に配置されている場合、音楽分野が選択される)。欠点は、規則的な配置順序が必ずしも正確とは限らないこと、又は一部のユーザに対してのみ正しいことである。
ルールベースの分野ジャンプポリシーにおいて、複数ラウンドの対話機能、例えば、ナビゲーション分野では、ルールベースの方法で、スロット溝を埋めるまで、ジャンプスイッチをオフにした場合に機能からジャンプすることができず、または、ジャンプスイッチをオンにした場合、ノイズの入力により、現在の分野からジャンプすることができるか否かが決定される可能性がある。
欠点は、分野ジャンプスイッチをオフにすると、ユーザは分野切り替えを行うことができず、明らかに不便であり、分野ジャンプスイッチをオンにすると、周囲のノイズや人声などによって誤識別が生じやすくなり、対話フローに影響を与えることにある。例えば、ナビゲーション機能において、ナビゲーションを開始するためにユーザが既に出発地と目的地を選択した場合、ノイズにより「天気」が誤入力されると、ナビゲーション機能からジャンプして対話コンテキストが失われる可能性があり、ナビゲーション機能のスロットフィリングインタラクションを再実行する必要がある。
本発明の実施例は、上述の技術的課題の少なくとも1つを解決するために、ヒューマンマシン対話のための音声機能ジャンプ方法、電子機器及び記憶媒体を提供する。
第1の態様によれば、本発明の実施例は、
電子機器に用いられるヒューマンマシン対話のための音声機能ジャンプ方法であって、
ユーザのヒューマンマシン対話の履歴データに基づいて予め分野遷移図を構築するステップと、
外部音声を受信するステップと、
外部音声がヒットする対話分野を確定するステップと、
ヒットする対話分野が分野遷移図における複数の対話分野の一つに属するか否かを判断し、属さない場合には外部音声を無視し、属する場合にはヒットした対話分野に対応する音声機能にジャンプするステップと、
を含み、
前記分野遷移図は、複数の対話分野を含む有向グラフである、
ことを特徴とするヒューマンマシン対話のための音声機能ジャンプ方法を提供する。
第2の態様によれば、本発明の実施例は、実行命令を含む1つまたは複数のプログラムを記憶する記憶媒体を提供する。実行命令は、本発明の上記いずれかのヒューマンマシン対話のための音声機能ジャンプ方法を実行するために、電子機器(コンピュータ、サーバ、又はネットワーク機器などを含むがこれらに限定されない)によって読み取られて実行することができる。
第3の態様によれば、少なくとも1つのプロセッサと、少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含む電子機器であって、メモリには、少なくとも1つのプロセッサによって実行可能な命令が記憶されており、本発明のヒューマンマシン対話のための音声機能ジャンプ方法が実行できるように、少なくとも1つのプロセッサによって命令を実行させることを特徴とする電子機器を提供する。
第4の態様によれば、本発明の実施例はさらに、記憶媒体に記憶されたコンピュータプログラムを含むコンピュータプログラム製品を提供し、コンピュータプログラムはプログラム命令を含み、プログラム命令がコンピュータによって実行されると、コンピュータに上記いずれかのヒューマンマシン対話のための音声機能ジャンプ方法を実行させる。
本発明の実施例による有益な効果は以下の通りである。ユーザヒューマンマシン対話の履歴データに基づいて分野遷移図を生成し、分野遷移図に基づいて音声機能のジャンプを行うか否かを判断する。ヒューマンマシン対話の履歴データがユーザのインタラクション習慣を反映するため、分野遷移図と合わせることで明らかに異常な入力内容(ユーザの習慣を超えるノイズなど)をシールドすることができ、タスク完成度及びインタラクション効率を向上させることができる。
本発明の実施例における技術案をより明確に説明するために、以下では、実施例の説明において使用する必要がある図面を簡単に紹介する。明らかに、図面は本発明のいくつかの実施例であり、当業者は創造的な労働をすることなくこれらの図面に基づいて他の図面を得ることもできる。
本発明のヒューマンマシン対話のための音声機能ジャンプ方法の一実施例のフローチャートである。 本発明における分野遷移図の概略図である。 本発明のヒューマンマシン対話のための音声機能ジャンプ方法の他の実施例のフローチャートである。 本発明のヒューマンマシン対話のための音声機能ジャンプ方法を実現する対話システムの一実施例の概略図である。 本発明のヒューマンマシン対話のための音声機能ジャンプ方法の別の実施例のフローチャートである。 本発明の電子機器の一実施例の構造概略図である。
本発明の実施例の目的、技術案及び利点をより明確にするために、以下では図面を参照しながら本発明の実施例における技術案を説明する。明らかに、説明されている実施例は本発明の一部の実施例であり、全ての実施例ではない。これらの実施例に基づいて、当業者が創造的な労働をせずに得られた全ての他の実施例は、いずれも本発明の保護範囲に入る。
なお、本願の実施形態と実施形態の特徴とは、互いに矛盾することなければ、組み合わせることができる。
本発明は、例えば、プログラムモジュールなどの、コンピュータによって実行されるコンピュータ実行可能命令の一般的なコンテキストで説明することができる。プログラムモジュールには、通常、特定のタスクを実行したり、特定の抽象データ型を実現したりするルーチン、プログラム、オブジェクト、コンポーネント、データ構造などが含まれる。本発明は、分散コンピューティング環境で実施することもできる。これらの分散コンピューティング環境では、通信ネットワークを介して接続されたリモート処理デバイスによって、タスクが実行される。分散コンピューティング環境では、プログラムモジュールは、ストレージデバイスを含むローカル及びリモートのコンピューターストレージメディアに配置できる。
本発明では、「モジュール」、「デバイス」、「システム」などは、例えば、ハードウェア、ハードウェアとソフトウェアの組み合わせ、ソフトウェア、又は実行中のソフトウェアなどのコンピュータに適用される関連エンティティを指す。具体的には、コンポーネントは、プロセッサで実行するプロセス、プロセッサ、オブジェクト、実行可能なコンポーネント、実行スレッド、プログラム、及び/又はコンピュータであるが、これらに限定されない。また、サーバで実行するアプリケーションプログラムやスクリプトプログラム、サーバがコンポーネントと呼ばれることもできる。実行のプロセス及び/又はスレッドには、一つ又は複数のコンポーネントを含んでもよく、且つ、コンポーネントは、一台のコンピュータにローカライズされ、及び/又は二台以上のコンピュータの間に分布され、さまざまなコンピュータ可読媒体で実行することができる。コンポーネントは、一つ以上のデータパケットを有する信号によって、ローカル及び/又はリモートプロセスを介して、通信することができる。信号は、例えば、ローカルシステム、分散システムにおけるもう一つのコンポーネントと相互作用するデータ、及び/又はインターネットのようなネットワークで信号を介して他のシステムと相互作用するデータからの信号である。
最後に、本発明の明細書、請求の範囲及び図面における関係用語「第一」及び「第二」などは、一つの実体又は操作をもう一つの実体又は操作と区別するためのものだけであり、これらの実体又は操作がいかなるこのような実際の関係又は順序を特定し、示唆するためのものではない。また、用語「含む」、「有する」は、それらの要素だけでなく、明示的にリストされていない他の要素、又はそのようなプロセス、方法、オブジェクト、又は機器に固有の要素も含む。これ以上の制限が課されない場合、用語「含む」によって定義された要素は、その要素を含むプロセス、方法、オブジェクト、又は機器に他の同一要素があることを除外しない。
図1に示すように、本発明の実施例は、電子機器に用いられるヒューマンマシン対話のための音声機能ジャンプ方法を提供し、当該電子機器は、スマートオーディオ、車載装置、スマートテレビ、スマートフォン、タブレット、スマート腕時計等のいずれかのヒューマンマシン音声インタラクション機能を備える電子機器であってもよく、本発明はこれに限定されない。この方法には、以下のステップが含まれる。
S10、電子機器は、ユーザのヒューマンマシン対話の履歴データに基づいて予め分野遷移図を構築し、分野遷移図は、複数の対話分野を含む有向グラフである。分野遷移図は、現在の分野状態に基づいて、次の分野を予測し、予測分野の信頼度を出力するために用いられる。
S20、電子機器は、外部音声を受信する。例示的に、電子機器は、マイクロフォンを介してユーザ音声を収集する。
S30、電子機器は、外部音声がヒットする対話分野を確定する。
S40、電子機器は、ヒットする対話分野が分野遷移図における複数の対話分野の一つに属するか否かを判断し、属さない場合には外部音声を無視し、属する場合にはヒットする対話分野に対応する音声機能にジャンプする。
本実施例では、ユーザヒューマンマシン対話の履歴データに基づいて分野遷移図を生成し、分野遷移図に基づいて音声機能のジャンプを行うか否かを判断する。ヒューマンマシン対話の履歴データがユーザのインタラクション習慣を反映するため、分野遷移図と合わせることで明らかに異常な入力内容(ユーザの習慣外のノイズなど)をうまくシールドすることができ、タスク完成度及びインタラクション効率を向上させることができる。
いくつかの実施例では、ステップS10において分野遷移図を構築する例は次のとおりである。ユーザが1ラウンドの対話を行うたびに、システムは、ユーザの環境情報、ユーザのインタラクション分野、及びインタラクション分野の切り替えパスを対話が終了するまで記録する。システムはインタラクションのフローを記録し、記録を生成する。
例えば、ユーザとのインタラクションフローは以下のとおりであり、ユーザはまず機器を起動させる。
ユーザ:会社までナビゲーションしてください。
機器:2つのルートが見つかりました。距離が最も近いルートと使用時間が最も少ないルートのうち、どちらをお選びになりますか。
ユーザ:使用時間が最も少ないルートです。
機器:ナビゲーションを開始します。
ユーザ:歌を聞きたいです。
機器:歌を再生します。
ユーザ:曲を変えてください。
ユーザ:明日の蘇州の天気はどうですか。
機器:明日、蘇州は晴れです......。
ユーザ:終了してください。
上記のインタラクションフローにより、対応する分野遷移図(図2を参照)が生成される。弧上の数字は、当該分野でのインタラクション回数を示し、2はナビゲーション分野での2ラウンドのインタラクションを表す。分野遷移図は重み付け有向グラフであり、ユーザのオンラインインタラクションデータに基づいて定期的に更新される。ユーザの使用データの蓄積に伴い、ユーザの環境情報(例えば、インタラクションしているユーザ、現在の時間、位置、シーン、天気など)と合わせて、重み付けのある分野遷移図を形成することができる。重み付けが高いパスは、特定の環境でのユーザのインタラクション習慣を反映することができる。
以下では、二つの例を挙げて解決しようとする問題のシーンを説明する。
例1:高頻度のユーザ習慣により、誤った対話フローを減少し、インタラクション効率及びタスク完成度を向上させる。
ユーザAは毎朝8時に自宅から会社まで車で移動し、車に乗り込んだ後に車載装置を起動させる。
ユーザA:会社までナビゲーションしてください。
機器:2つのルートが見つかりました。距離が最も近いルートと使用時間が最も少ないルートのうち、どちらをお選びになりますか。
この時、車上の放送音声は「周杰倫の歌」と識別される。
機器:周杰倫の歌を再生します。
上述の例のように、周囲の無関係な音(周杰倫の歌)が機器によって識別され、ユーザAの複数ラウンドの対話が中断され、このような状況は望ましくない。分野遷移図により、ユーザが毎日8時頃にナビゲーション機能を使用し、ナビゲーションの複数ラウンドのインタラクション中に他の対話分野に遷移しないことが発見されている。他の分野のセマンティックが出現する(且つ信頼度が高くない)と、その入力は誤操作と見なされ、システムによってシールドされるため、ノイズによる誤入力が減少する。
例2:ユーザが不完全な文を入力すると、分野解析の曖昧さが生じるが、分野遷移図を通じてより正確に曖昧さを解消することができる。ユーザAの装置は一台のスマートオーディオであり、最もよく使用される機能は音楽である場合、分野遷移図において、音楽を聴く重み付けが高い。ユーザが装置を起動した後、第一ラウンドのインタラクションで「劉徳華」と発話すると、音楽分野と百科辞典分野の両方に返り値と信頼度があり、分野遷移図により、ユーザの習慣を知ることができるため、ユーザの意図を正確に解析できる。
例示的に、分野遷移図には複数のサブ分野遷移図が含まれ、複数のサブ分野遷移図は複数の異なる環境情報に対応し、現在時間、現在位置、現在シーン及び現在天気のうちの少なくとも一つを含む。
いくつかの実施例において、ヒューマンマシン対話のための音声機能ジャンプ方法は、
電子機器が現在環境情報を取得するステップと、
電子機器が現在環境情報に基づいてマッチングするサブ分野遷移図を確定するステップと、
をさらに含み、
電子機器は、前記ヒットする対話分野が前記分野遷移図における複数の対話分野の一つに属するか否かを判断する場合、ヒットする対話分野が、マッチングするサブ分野遷移図における複数の対話分野の1つに属するかどうかを判断する。
図3は、本発明のヒューマンマシン対話のための音声機能ジャンプ方法の他の実施例のフローチャートである。この実施例において、分野遷移図における複数の対話分野のそれぞれに、対話ラウンド数が配置されている。図3に示す本実施例の方法には、さらに以下のステップが含まれる。
S201、電子機器は、外部音声を受信する前にサービスを提供する現在対話分野を確定し、現在対話分野は分野遷移図に属する。
S202、電子機器は、現在対話分野で完了した対話ラウンド数を確定する。
S203、完了した対話ラウンド数が、現在対話分野に配置された対話ラウンド数より少ない場合、電子機器は外部音声を無視する。
本実施例では、分野遷移図における各対話分野は、いずれもユーザの履歴対話データに基づいて対話ラウンド数を配置し(対話ラウンド数は、ユーザが当該対話分野で通常何回対話してから他の対話分野にジャンプすることを示す)、現在対話分野で既に行った対話ラウンド数が配置された対話ラウンド数より少ないことを確認した場合にのみ、ユーザの習慣によれば、現在対話分野の対話が完了していないことを確定できることを示すため、外部音声を無視する。
例示的に、ヒットする対話分野が分野遷移図における複数の対話分野の一つに属するか否かを判断する前に、さらに以下のステップを含む。
電子機器は、ヒットする対話分野に基づいて、対応するセマンティック情報信頼度を確定し、
セマンティック情報の信頼度が第一の設定閾値よりも大きい場合、ヒットする対話分野に対応する音声機能にジャンプする。
例示的に、ヒットする対話分野には複数の対話分野が含まれ、対応するセマンティック情報信頼度には複数のセマンティック情報信頼値が含まれている。ヒューマンマシン対話のための音声機能ジャンプ方法には、さらに以下のステップが含まれる。
複数のセマンティック情報信頼値における複数の値が第二の設定閾値より大きく、且つ第一の設定閾値以下である場合、電子機器は分野遷移図のコンテキスト状態に基づいて次の分野状態を予測し、
複数の値に対応する複数の対話分野の中に、次の分野状態に対応する対話分野が存在する場合、次の分野状態に対応するセマンティック機能にジャンプし、
存在しない場合、複数の値のうちの最大値に対応する対話分野のセマンティック機能にジャンプする。
例示的に、ヒューマンマシン対話のための音声機能ジャンプ方法には、さらに以下のステップが含まれる。
複数のセマンティック情報信頼値における最大値が第二の設定閾値以下である場合、電子機器は、外部音声の対話コンテキストに基づいて現在の対話シーンが高頻度インタラクションシーンであるか否かを確定する。対話コンテキストは、現在進行中の対話分野であってもよく、起動開始から現在分野への分野状態遷移パスである。高頻度インタラクションシーンである場合、電子機器は、高頻度インタラクションシーンに対応する分野遷移図に基づいて、外部音声に対応する音声機能をマッチングする。
例示的に、ユーザのインタラクション行動は、ログの形態で記録され、分野遷移図を生成し、アルゴリズム分類によってその中の異常行動を識別する。異常データは、手動による注釈で当該インタラクション記録が訂正又は削除され、分野遷移図が持続的に更新及びトレーニングされる。
図4は、本発明のヒューマンマシン対話のための音声機能ジャンプ方法を実現する対話システムの実施例の概略図であり、このシステムには、
ユーザ音声及びユーザ環境情報を取得するためのクライアント1と、
サービスリソースをディスパッチするためのアクセスサービスユニット2と、
オーディオを識別してnbest識別結果を得るための識別サービスユニット3と、
nbest識別結果に対して自然言語処理を行ってnbestセマンティック分野を得るためのNLPサービスユニット4と、
ユーザ環境情報、対話コンテキスト情報及びnbestセマンティック分野に基づいてヒット機能を確定するためのユーザ画像サービスユニット5と、
ヒットする機能にサービスして、ユーザの入力した音声に対応する最終対話結果を返すための対話サービスユニット6と、
が含まれる。
図5は、本発明のヒューマンマシン対話のための音声機能ジャンプ方法の別の実施例のフローチャートであり、この実施例には以下のステップが含まれる。
まず、ユーザが入力した音声を識別サービス(同時に環境情報を携帯してアクセスサービスにアップロードする)に送信し、識別サービスはnbest識別結果を返信する。
nbest識別結果はセマンティックサービスから別々に要求され、それに対してセマンティック解析を行い、セマンティック情報の信頼度に応じてそれぞれ処理を行う。
ユーザ環境情報、対話コンテキスト情報及び現在nbestセマンティック分野を携帯して、ユーザ画像サービスを要求する。
ユーザ画像サービスは分野遷移図状態に基づいて、ユーザ環境情報と合わせてヒットするセマンティック分野を計算する。
nbestセマンティック結果の信頼度において、threshold1より大きい信頼度があるか否かを判断する。例えば、threshold1の値の範囲が[0.9、1]であり、本実施例ではthreshold1の値は0.9である。
threshold1より大きい信頼度がある場合、信頼度が最も高いセマンティック分野をヒットする分野として選択し、当該セマンティック情報が正確であるとして、対話サービスを直接要求して応答を返す。
nbestセマンティック結果の信頼度がthreshold1より小さく、threshold2より大きく、且つnbestセマンティック結果が複数の分野であり、曖昧性の問題が存在する場合、分野遷移図のコンテキスト状態に基づいて、次の分野状態を予測する。nbest中のセマンティック分野にマッチングすれば当該分野を選択し、対話サービスを要求する。nbestにマッチングするセマンティックサービスがない場合、nbestセマンティック信頼度優先度に従ってセマンティック分野を選択する。例示的に、threshold2の値の範囲は[0.6、0.9]であり、本発明の実施例におけるthreshold2の値は0.7である。
nbestセマンティック結果の信頼度がthreshold2より小さい場合、当該インタラクションの対話コンテキストを発見し、分野遷移図の高頻度インタラクションパスをマッチングする。分野遷移図の予測結果がユーザ入力のセマンティック結果とマッチングしない場合、当該入力を破棄し、そうでなければ当該セマンティックの対話応答を返す。今回のインタラクション対話コンテキストが高頻度インタラクションパスではない場合、規則方法に従って、nbestセマンティック信頼度の優先度順にセマンティック分野を選択する。
本発明は、ユーザのインタラクション習慣に基づいて分野遷移図を生成し、ユーザのインタラクション過程における識別結果のnbest結果に基づいて、環境情報や対話コンテキスト等の情報と合わせて、ユーザの意図をより効果的に識別し、分野ジャンプの正確率を向上させる。明らかに異常な入力内容(ノイズなど)に対し、分野切り替え状態図と合わせてノイズ入力をシールドし、タスク完成度及びインタラクション効率を向上させる。
上記の各方法の実施例について、簡単に説明するために、一連の動作の統合として説明されているが、当業者は、説明されている動作の順序に限定されるものではなく、本願明細書に記載されているステップのいくつかは、本願明細書に記載されている他の順序を採用しても、同時に実施されてもよいことが認識されるであろう。次に、明細書に記載された実施の形態はいずれも好ましい実施の形態に属し、関連する動作およびモジュールは必ずしも本発明に必須ではないことが当業者によって認識されるべきである。上記の実施例では、各実施例の説明に重きが置かれているが、ある実施例で詳しく述べられていない部分については、他の実施の形態の説明を参照されたい。
いくつかの実施例において、本発明の実施例は、実行命令を含む1つまたは複数のプログラムを記憶する不揮発性コンピュータ可読記憶媒体を提供する。実行命令は、本発明の上記いずれかのヒューマンマシン対話のための音声機能ジャンプ方法を実行するために、電子機器(コンピュータ、サーバ、又はネットワーク機器などを含むがこれらに限定されない)によって読み取られて実行することができる。
いくつかの実施例において、本発明の実施例はさらに、不揮発性コンピュータ可読記憶媒体に記憶されたコンピュータプログラムを含むコンピュータプログラム製品を提供し、コンピュータプログラムにおけるプログラム命令がコンピュータによって実行されると、コンピュータに上記のいずれかのヒューマンマシン対話のための音声機能ジャンプ方法を実行させる。
いくつかの実施例において、本発明の実施例はさらに、少なくとも1つのプロセッサと、少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含む電子機器であって、メモリには、少なくとも1つのプロセッサによって実行可能な命令が記憶されており、ヒューマンマシン対話のための音声機能ジャンプ方法が実行できるように、少なくとも1つのプロセッサによって命令を実行させる電子機器を提供する。
いくつかの実施例において、本発明の実施例はさらに、コンピュータプログラムが記憶された記憶媒体を提供し、当該プログラムがプロセッサによって実行される時に、ヒューマンマシン対話のための音声機能ジャンプ方法が実現される。
図6は、本発明の他の実施例のヒューマンマシン対話のための音声機能ジャンプ方法を実行する電子機器のハードウェア構造概略図である。図6に示すように、当該機器には、1つまたは複数のプロセッサ610およびメモリ620が含まれ、図6では1つのプロセッサ610を例に取る。
ヒューマンマシン対話のための音声機能ジャンプ方法を実行する機器は、入力装置630と出力装置640とをさらに含むことができる。
プロセッサ610、メモリ620、入力装置630と出力装置640はバスまたは他の方法で接続することができ、図6ではバスによる接続を例に取る。
メモリ620は不揮発性コンピュータ可読記憶媒体として、不揮発性ソフトウェアプログラム、不揮発性コンピュータ実行可能プログラムおよびモジュールを記憶することができる。例えば、本発明の実施例におけるヒューマンマシン対話のための音声機能ジャンプ方法に対応するプログラム命令/モジュールを記憶することができる。プロセッサ610は、メモリ620に記憶されている不揮発性ソフトウェアプログラム、命令およびモジュールを実行することによって、サーバの各種機能応用およびデータ処理を実行し、即ち、上記実施例のヒューマンマシン対話のための音声機能ジャンプ方法を実現する。
メモリ620は、プログラム記憶領域とデータ記憶領域を含むことができる。プログラム記憶領域は、オペレーティングシステムや少なくとも1つの機能に必要なアプリケーションプログラムを記憶することができる。データ記憶領域は、ヒューマンマシン対話のための音声機能ジャンプ装置の使用に応じて作成されたデータなどを記憶することができる。さらに、メモリ620は、高速ランダムアクセスメモリ及び不揮発性メモリを含むことができ、例えば少なくとも1つの磁気ディスク記憶装置、フラッシュメモリ装置、または他の不揮発性固体記憶装置を含むことができる。いくつかの実施例において、メモリ620は、プロセッサ610から離れて設置されたメモリを含むことができ、ネットワークを介してヒューマンマシン対話のための音声機能ジャンプ装置に接続することができる。上記ネットワークには、インターネット、イントラネット、ローカルエリアネットワーク、移動体通信ネットワークおよびそれらの組合せが含まれるが、これらに限定されない。
入力装置630は、入力された数値や文字情報を受信し、ヒューマンマシン対話のための音声機能ジャンプ装置のユーザ設定および機能制御に関連する信号を生成することができる。出力装置640は、ディスプレイなどの表示装置を含むことができる。
1つまたは複数のモジュールはメモリ620に記憶され、モジュールが1つまたは複数のプロセッサ610によって実行されると、上記いずれかの方法実施例におけるヒューマンマシン対話のための音声機能ジャンプ方法を実行する。
上記の製品は、本発明の実施形態によって提供される方法を実行することができ、方法を実行するための対応する機能モジュール及び有利な効果を有する。本実施形態で詳細に説明されない技術的詳細については、本発明の実施形態が提供される方法を参照する。
本発明の実施形態の電子デバイスは、以下のデバイスを含むが、これらに限定されない様々な形態で存在する。
(1)モバイル通信デバイス:これらのデバイスは、その特徴がモバイル通信機能を備えることであり、音声及びデータ通信を提供することを主な目標として、スマートフォン(例えば、iphone(登録商標))、マルチメディア携帯電話、機能携帯電話、ローエンド携帯電話などを含む。
(2)ウルトラモバイルパソコンデバイス:これらのデバイスは、パソコンのカテゴリーに属し、計算及び処理の機能を持ち、一般にモバイルインターネットアクセスの特性を持って、例えば、iPad(登録商標)などのPDA、MID及びUMPCデバイスなどを含む。
(3)ポータブルエンターテイメントデバイス:これらのデバイスは、マルチメディアコンテンツを表示及び放送でき、オーディオ、ビデオプレーヤー(例えば、iPod(登録商標))、ハンドヘルドゲームデバイス、電子書籍、インテリジェントおもちゃ及びポータブルカーナビゲーションデバイスを含む。
(4)サーバ:コンピューティングサービスを提供するデバイスである。サーバの構成は、プロセッサ、ハードディスク、メモリ、システムバスなどを含む。サーバ及び汎用コンピュータはアーキテクチャが似るが、信頼性の高いサービスを提供する必要があるため、処理能力、安定性、信頼性、セキュリティ、スケーラビリティ、及び管理性などの方面での要求が高い。
(5)データ交換機能を備えたその他の電子デバイス。
上記の装置の実施形態は、単に例示的なものであり、分離するコンポーネントとして記載されたユニットは、物理的に分離されるものであってもよく、分離されないものであってもよい。ユニットとして表示されるコンポーネントは、物理ユニットであってもよく、物理ユニットではなくてもよい。即ち、一つの場所に配置することもでき、複数のネットワークユニットに分散することもできる。実際のニーズに応じて、いくつかのモジュール又はすべてのモジュールを選択することができ、実施形態の目的を達成するようになる。
上記の実施形態の説明を通じて、当業者は、各実施形態がソフトウェア及び共通のハードウェアプラットフォームによって実現することができ、もちろん、ハードウェアによって実現することもできることを明確に理解することができる。この理解に基づいて、上記の技術方案の本質又は関連技術に貢献する部分は、ソフトウェア製品の形式で具体化でき、コンピュータソフトウェア製品は、例えば、ROM/RAM、磁気ディスク、コンパクトディスクなどのコンピュータ可読記憶媒体に格納でき、コンピュータデバイス(パーソナルコンピュータ、サーバ又はネットワークデバイスなどである)に、各々の実施形態又は実施形態のある部分に記載された方法を実行させるように、いくつかの命令を含む。
最後に説明すべきことは、上記の実施例は、本発明の技術案を説明するためにのみ使用され、本発明を限定するものではない。前述の実施例を参照して本発明を詳細に説明したが、当業者であれば、依然として各実施例に記載の技術案を修正するか、又はそのうちの一部の技術的特徴を同等に置き換えることができることを理解すべきである。これらの修正又は置き換えは、対応する技術案の本質を、本発明の各実施例の技術案の精神及び範囲から逸脱させない。

Claims (9)

  1. 電子機器に用いられるヒューマンマシン対話のための音声機能ジャンプ方法であって、
    前記電子機器がユーザのヒューマンマシン対話の履歴データに基づいて予め分野遷移図を構築するステップと、
    前記電子機器が外部音声を受信するステップと、
    前記電子機器が前記外部音声によってヒットする対話分野を確定するステップと、
    前記電子機器が前記ヒットする対話分野が前記分野遷移図における複数の対話分野の一つに属するか否かを判断し、属さない場合には前記外部音声を無視し、属する場合には前記ヒットする対話分野に対応する音声機能にジャンプするステップと、
    を含み、
    前記分野遷移図は、複数の対話分野を含む有向グラフである、
    ことを特徴とするヒューマンマシン対話のための音声機能ジャンプ方法。
  2. 前記分野遷移図における複数の対話分野のそれぞれには、対話ラウンド数が配置されており、
    前記電子機器が、前記外部音声を受信する前にサービスを提供する現在対話分野を確定するステップと、
    前記電子機器が前記現在対話分野で完了した対話ラウンド数を確定するステップと、
    前記完了した対話ラウンド数が、前記現在対話分野に配置された対話ラウンド数より少ない場合、前記外部音声を無視するステップと、
    を含み、
    前記現在対話分野は前記分野遷移図に属する、
    ことを特徴とする請求項1に記載のヒューマンマシン対話のための音声機能ジャンプ方法。
  3. 前記ヒットする対話分野が前記分野遷移図における複数の対話分野の一つに属するか否かを判断する前に、さらに、
    前記電子機器が前記ヒットする対話分野に基づいて、対応するセマンティック情報信頼度を確定するステップと、
    前記セマンティック情報信頼度が第一の設定閾値よりも大きい場合、前記ヒットする対話分野に対応する音声機能にジャンプするステップと、
    を含むことを特徴とする請求項1に記載のヒューマンマシン対話のための音声機能ジャンプ方法。
  4. 前記ヒットする対話分野には複数の対話分野が含まれ、対応する前記セマンティック情報信頼度には複数のセマンティック情報信頼値が含まれており、
    前記複数のセマンティック情報信頼値における複数の値が第二の設定閾値より大きく、且つ第一の設定閾値以下である場合、前記電子機器は前記分野遷移図のコンテキスト状態に基づいて次の分野状態を予測するステップと、
    前記複数の値に対応する複数の対話分野の中に、前記次の分野状態に対応する対話分野が存在する場合、前記次の分野状態に対応するセマンティック機能にジャンプするステップと、
    存在しない場合、前記複数の値のうちの最大値に対応する対話分野のセマンティック機能にジャンプするステップと、
    を含むことを特徴とする請求項3に記載のヒューマンマシン対話のための音声機能ジャンプ方法。
  5. 前記複数のセマンティック情報信頼値における最大値が第二の設定閾値以下である場合、前記電子機器は、前記外部音声の対話コンテキストに基づいて現在の対話シーンが高頻度インタラクションシーンであるか否かを確定するステップと、
    高頻度インタラクションシーンである場合、前記電子機器は、前記高頻度インタラクションシーンに対応する分野遷移図に基づいて、前記外部音声に対応する音声機能をマッチングするステップと、
    をさらに含むことを特徴とする請求項4に記載のヒューマンマシン対話のための音声機能ジャンプ方法。
  6. 前記分野遷移図には複数のサブ分野遷移図が含まれており、前記複数のサブ分野遷移図は複数の異なる環境情報に対応し、
    前記電子機器が現在環境情報を取得するステップと、
    前記電子機器が前記現在環境情報に基づいてマッチングするサブ分野遷移図を確定するステップと、
    をさらに含み、
    前記電子機器は、前記ヒットする対話分野が前記分野遷移図における複数の対話分野の一つに属するか否かを判断する場合、前記ヒットする対話分野が、前記マッチングするサブ分野遷移図における複数の対話分野の1つに属するかどうかを判断する、
    ことを特徴とする請求項1に記載のヒューマンマシン対話のための音声機能ジャンプ方法。
  7. 前記環境情報には、現在時間、現在位置、現在シーン及び現在天気のうちの少なくとも一つが含まれる、
    ことを特徴とする請求項6に記載のヒューマンマシン対話のための音声機能ジャンプ方法。
  8. 少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含む電子機器であって、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、
    請求項1~7のいずれか1項に記載のヒューマンマシン対話のための音声機能ジャンプ方法のステップが実行できるように、前記少なくとも1つのプロセッサによって前記命令を実行させることを特徴とする電子機器。
  9. コンピュータプログラムが記憶されている記憶媒体であって、
    前記コンピュータプログラムがプロセッサによって実行されると、請求項1~7のいずれか1項に記載のヒューマンマシン対話のための音声機能ジャンプ方法のステップが実現できる、ことを特徴とする記憶媒体。
JP2022562335A 2020-04-15 2020-10-21 ヒューマンマシン対話のための音声機能ジャンプ方法、電子機器及び記憶媒体 Active JP7342286B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010296180.8A CN111506292B (zh) 2020-04-15 2020-04-15 用于人机对话的语音技能跳转方法、电子设备及存储介质
CN202010296180.8 2020-04-15
PCT/CN2020/122477 WO2021208392A1 (zh) 2020-04-15 2020-10-21 用于人机对话的语音技能跳转方法、电子设备及存储介质

Publications (2)

Publication Number Publication Date
JP2023515254A true JP2023515254A (ja) 2023-04-12
JP7342286B2 JP7342286B2 (ja) 2023-09-11

Family

ID=71872735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022562335A Active JP7342286B2 (ja) 2020-04-15 2020-10-21 ヒューマンマシン対話のための音声機能ジャンプ方法、電子機器及び記憶媒体

Country Status (5)

Country Link
US (1) US20230352012A1 (ja)
EP (1) EP4137931A4 (ja)
JP (1) JP7342286B2 (ja)
CN (1) CN111506292B (ja)
WO (1) WO2021208392A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111506292B (zh) * 2020-04-15 2021-06-15 思必驰科技股份有限公司 用于人机对话的语音技能跳转方法、电子设备及存储介质
CN111949178B (zh) * 2020-08-13 2022-02-22 百度在线网络技术(北京)有限公司 技能切换方法、装置、设备以及存储介质
CN112069830B (zh) * 2020-08-13 2024-05-28 腾讯科技(深圳)有限公司 一种智能会话方法及装置
CN112463939B (zh) * 2020-11-12 2024-05-24 深圳市欢太科技有限公司 人机对话方法、系统、服务设备及计算机存储介质
CN114203178B (zh) * 2021-12-10 2022-09-20 镁佳(北京)科技有限公司 一种智能语音系统拒识方法、装置及计算机设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007079397A (ja) * 2005-09-16 2007-03-29 Nippon Telegr & Teleph Corp <Ntt> 対話方法、対話装置、対話プログラムおよび記録媒体
JP2018081444A (ja) * 2016-11-15 2018-05-24 ソフトバンク株式会社 ユーザーサポートシステム、ユーザーサポートプログラム及びユーザーサポート方法
WO2019235190A1 (ja) * 2018-06-06 2019-12-12 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び対話システム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9645703B2 (en) * 2014-05-14 2017-05-09 International Business Machines Corporation Detection of communication topic change
CN105845137B (zh) * 2016-03-18 2019-08-23 中国科学院声学研究所 一种语音对话管理系统
CN106663129A (zh) * 2016-06-29 2017-05-10 深圳狗尾草智能科技有限公司 一种基于状态机上下文敏感多轮对话管理系统及方法
US10268680B2 (en) * 2016-12-30 2019-04-23 Google Llc Context-aware human-to-computer dialog
US11004444B2 (en) * 2017-09-08 2021-05-11 Amazon Technologies, Inc. Systems and methods for enhancing user experience by communicating transient errors
CN107861951A (zh) * 2017-11-17 2018-03-30 康成投资(中国)有限公司 智能客服中的会话主题识别方法
CN109086329B (zh) * 2018-06-29 2021-01-05 出门问问信息科技有限公司 基于话题关键词引导的进行多轮对话方法及装置
CN109710129A (zh) * 2018-12-20 2019-05-03 斑马网络技术有限公司 语音技能命令引导方法、装置、存储介质及电子设备
CN109815319A (zh) * 2018-12-24 2019-05-28 联想(北京)有限公司 信息处理方法及信息处理装置
CN110223692B (zh) * 2019-06-12 2021-08-13 思必驰科技股份有限公司 用于语音对话平台跨技能的多轮对话方法及系统
CN110570853A (zh) * 2019-08-12 2019-12-13 阿里巴巴集团控股有限公司 基于语音数据的意图识别方法和装置
CN110473537B (zh) * 2019-08-22 2022-04-26 百度在线网络技术(北京)有限公司 语音技能的控制方法、装置、设备及存储介质
CN110674338B (zh) * 2019-09-27 2022-11-01 百度在线网络技术(北京)有限公司 语音技能推荐方法、装置、设备及存储介质
CN111506292B (zh) * 2020-04-15 2021-06-15 思必驰科技股份有限公司 用于人机对话的语音技能跳转方法、电子设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007079397A (ja) * 2005-09-16 2007-03-29 Nippon Telegr & Teleph Corp <Ntt> 対話方法、対話装置、対話プログラムおよび記録媒体
JP2018081444A (ja) * 2016-11-15 2018-05-24 ソフトバンク株式会社 ユーザーサポートシステム、ユーザーサポートプログラム及びユーザーサポート方法
WO2019235190A1 (ja) * 2018-06-06 2019-12-12 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び対話システム

Also Published As

Publication number Publication date
WO2021208392A1 (zh) 2021-10-21
EP4137931A1 (en) 2023-02-22
CN111506292A (zh) 2020-08-07
CN111506292B (zh) 2021-06-15
EP4137931A4 (en) 2023-10-04
US20230352012A1 (en) 2023-11-02
JP7342286B2 (ja) 2023-09-11

Similar Documents

Publication Publication Date Title
JP7342286B2 (ja) ヒューマンマシン対話のための音声機能ジャンプ方法、電子機器及び記憶媒体
CN108984157B (zh) 用于语音对话平台的技能配置和调用方法及系统
CN111049996B (zh) 多场景语音识别方法及装置、和应用其的智能客服系统
US9424611B2 (en) User interface for managing questions and answers across multiple social media data sources
JP2021519472A (ja) 対話システム間の知識共有方法、対話方法、知識共有装置、対話装置、電子機器及び記憶媒体
CN110889039B (zh) 一种在阅读应用中进行书籍推送的方法与设备
JP7481475B2 (ja) 対話テキストの機能領域確定方法及び装置
CN110708588B (zh) 弹幕显示方法、装置、终端及存储介质
US9703841B1 (en) Context-based notifications in multi-application based systems
JP2023506341A (ja) 音声コマンド推奨を提供するためのシステムおよび方法
JP6850321B2 (ja) 情報を生成するための方法と装置
JP6990728B2 (ja) 音声スキルの起動方法、装置、デバイスおよび記憶媒体
JP2023509868A (ja) 能動的に対話の開始を提起するためのサーバ側処理方法及びサーバ、並びに能動的に対話の開始が提起できる音声インタラクションシステム
CN111063353B (zh) 允许自定义语音交互内容的客户端处理方法及用户终端
JP7436077B2 (ja) スキルの音声ウェイクアップ方法および装置
CN104572953A (zh) 一种基于搜索结果页面触发音乐播放的方法及装置
CN112182281B (zh) 一种音频推荐方法、装置及存储介质
CN111179973B (zh) 语音合成质量评价方法及系统
CN111949178B (zh) 技能切换方法、装置、设备以及存储介质
CN112786031B (zh) 人机对话方法及系统
CN108874975A (zh) 搜索内容推荐方法、装置、终端设备及存储介质
CN111339770B (zh) 用于输出信息的方法和装置
CN111356006B (zh) 视频播放方法、装置、服务器及存储介质
KR20220137733A (ko) 비디오 그룹 패키지 개선을 위한 사용자 인터페이스
CN113676761A (zh) 一种多媒体资源播放方法、装置及主控设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230220

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230830

R150 Certificate of patent or registration of utility model

Ref document number: 7342286

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150