JP7300435B2 - 音声インタラクションするための方法、装置、電子機器、およびコンピュータ読み取り可能な記憶媒体 - Google Patents

音声インタラクションするための方法、装置、電子機器、およびコンピュータ読み取り可能な記憶媒体 Download PDF

Info

Publication number
JP7300435B2
JP7300435B2 JP2020185935A JP2020185935A JP7300435B2 JP 7300435 B2 JP7300435 B2 JP 7300435B2 JP 2020185935 A JP2020185935 A JP 2020185935A JP 2020185935 A JP2020185935 A JP 2020185935A JP 7300435 B2 JP7300435 B2 JP 7300435B2
Authority
JP
Japan
Prior art keywords
information
labeling
intent
textual
module configured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020185935A
Other languages
English (en)
Other versions
JP2021081712A (ja
Inventor
ウー,ヂェン
ウー,イーファン
リィァン,フゥア
グー,ヂィアシィァン
パン,シンユァン
パイ,ヂンファン
ヂィア,レイ
Original Assignee
バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド filed Critical バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド
Publication of JP2021081712A publication Critical patent/JP2021081712A/ja
Application granted granted Critical
Publication of JP7300435B2 publication Critical patent/JP7300435B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding

Description

本開示の実施例は、主に人工知能の分野に関し、より具体的には、音声インタラクションするための方法、装置、電子機器、およびコンピュータ読み取り可能な記憶媒体に関する。
音声インタラクション技術は、人間(ヒューマン)と機械(マシン)とが音声でインタラクションする技術であり、自然な対話と類似した音声インタラクション体験を実現する。ヒューマン・マシンインタラクションは、コンピュータ時代のマウスおよびキーボードを画面に合わせたインタラクションから、スマートフォン時代のタッチスクリーンとの直接インタラクションまで発展してきている。ヒューマン・マシンインタラクションする方式は、ますます簡単になり、インタラクションのハードルはますます低くなっている。人工知能およびモバイルインターネットの活発な発展に伴い、人間と人間との対話と類似した自然な音声インタラクションは、ヒューマン・マシンインタラクションの新しい方式になりつつある。音声インタラクションは、入力帯域幅が広く、高精度、移動性が良く、使用ハードルが低いなどの利点を兼ね備えるため、ヒューマン・マシンインタラクションの最優先インタラクション方式の1つである。音声インタラクションでヒューマン・マシンインタラクションを実現することにより、情報処理の効率を向上させるとともに、ヒューマン・マシンインタラクションも容易になる。しかしながら、この音声インタラクションするプロセスでは解決すべき問題が依然として多く存在している。
本開示の例示的な実施例によれば、音声インタラクションするための技術案が提供される。
本開示の第1の態様では、受信された音声信号に対応するテキスト情報を決定するステップと、前記テキスト情報内の要素にラベル付けすることにより、前記テキスト情報のラベル付け情報を取得するステップと、前記ラベル付け情報に基づいて前記テキスト情報の第1の意図情報を決定するステップと、前記第1の意図情報および前記ラベル付け情報に基づいて、前記テキスト情報の語義を決定するステップと、を含む、音声インタラクションするための方法が提供される。
本開示の第2の態様では、受信された音声信号に対応するテキスト情報を決定するように構成されるテキスト情報決定モジュールと、前記テキスト情報内の要素にラベル付けすることにより、前記テキスト情報のラベル付け情報を取得するように構成されるラベル付けモジュールと、前記ラベル付け情報に基づいて前記テキスト情報の第1の意図情報を決定するように構成される第1の意図決定モジュールと、前記第1の意図情報および前記ラベル付け情報に基づいて、前記テキスト情報の語義を決定するように構成される語義決定モジュールと、を含む、音声インタラクションするための装置が提供される。
本開示の第3の態様では、一つまたは複数のプロセッサと、一つまたは複数のプログラムを記憶するための記憶装置とを含む電子機器であって、一つまたは複数のプログラムが一つまたは複数のプロセッサによって実行される場合、一つまたは複数のプロセッサが、本開示の第1の態様に係る方法を実現する電子機器が提供される。
本開示の第4の態様では、コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、当該プログラムがプロセッサによって実行される場合、本開示の第1の態様に係る方法が実現されるコンピュータ読み取り可能な記憶媒体が提供される。
本開示の第5の態様では、コンピュータ読み取り可能な記憶媒体に記憶されているコンピュータプログラムを提供し、前記コンピュータプログラムにおける命令が実行された場合に、第1の態様の実施例に記載の方法が実行される。
なお、発明の概要に説明された内容は、本開示の実施例の肝心または重要な特徴を限定することを意図しておらず、本開示の範囲を限定することも意図していない。本開示の他の特徴は、以下の説明により理解されやすくなる。
本開示の各実施例の上記および他の特徴、利点および態様は、図面を参照した以下の詳細な説明により、より明らかになる。図面では、同一または類似の符号は、同一または類似の要素を表す。
本開示の複数の実施例を実現可能な環境の一例の概略図を示す。 本開示の実施例に係る音声インタラクションするためのプロセスのフローチャートを示す。 本開示の実施例に係る語義を決定するためのプロセスのフローチャートを示す。 本開示の実施例に係る語義を決定するためのプロセスのフローチャートを示す。 本開示の実施例に係る音声インタラクションするための装置のブロック図を示す。 本開示の複数の実施例を実施可能なコンピューティング機器のブロック図を示す。
本開示の実施例を図面を参照して以下により詳細に説明する。図面に本開示のいくつかの実施例が示されているが、本発明は様々な形態で実現することができ、本明細書に記載の実施例に限定されると解釈されるべきではないことを理解されたい。逆に、これらの実施例を提供する目的は、本開示がより明確かつ完全で理解されることである。なお、本開示の図面および実施例は例示するものに過ぎず、本開示の保護範囲を限定するものではないと理解されたい。
本開示の実施例の説明において、「含む」という用語およびその類似の用語が、開放的な含む、すなわち「含むがこれに限定されない」と理解されるべきである。「に基づく」という用語は、「少なくとも部分的に基づく」ことを語義すると理解されるべきである。「一実施例」または「当該実施例」という用語は、「少なくとも一実施例」として理解されるべきである。「第1の」、「第2の」などの用語は、異なる対象または同一対象を指すことができる。以下の説明では、他の明示的および暗黙的な定義も含まれ得る。
音声インタラクションを実現するプロセスでは、基本的に1回のウェイクアップで一回のインタラクションを行う方法が採用される。このインタラクションする方法は、ウェイクアップワード検出技術と製品戦略とを組み合わせたものである。その主な特徴は、当該機器をアクティブ化するウェイクアップワードをユーザが言い終わるたびに、内蔵されたウェイクアップワード検出モジュールは、当該ウェイクアップワード信号を検出し、リスニングの認識を開始する。音声の終点を検出するか、予め設定された持続時間に達すると、リスニングを終了し、そのプロセスで受信された音声を認識し、ユーザのニーズに応えるプロセスに到達する。
しかしながら、現在、ヒューマン・マシンインタラクションする方式には多くの問題が存在する。まず、ユーザが要求を開始するたびに、機器をウェイクアップする必要があるため、非常に不便である。次に、ユーザが機器をウェイクアップしたが機器に話しかけていないと、機器が誤応答する可能性があり、ユーザ体験が悪くなる。問題の鍵は、認識された情報が機器に対して開始された要求情報であるか否かを区別して、ユーザの本当の要求に適時に応答し、非ユーザ要求を自動的にブロックすることである。ユーザが開始した要求が応答されない場合、または非ヒューマン・マシンインタラクションの要求が誤応答された場合、ユーザ体験が大きく損なわれる。したがって、ヒューマン・マシンインタラクション/非ヒューマン・マシンインタラクションの判定精度を如何に向上させるかは、複数回のインタラクションを行う案の最も中心的な問題である。
本開示の実施例によれば、音声インタラクションするための改良された技術案が提供される。この技術案では、語義理解技術を導入することにより、音声認識されたテキスト情報に基づいて語義結果を導出することができる。また、改良されたディープニューラルネットワークに基づく語義理解モデルと、オンラインのリアルタイム介入メカニズムと組み合わせて、高い精度の語義結果を取得することができる。また、ディープニューラルネットワークに基づいて、上記の語義結果、コンテキスト状態、音響信頼度などの情報から、当該テキスト情報がヒューマン・マシンインタラクション情報であるか非ヒューマン・マシン情報であるかの判定結果を取得してもよい。この方法により、音声インタラクション機器が取得された音声信号に応答する必要があるか否か、および音声信号の具体的な要求を複数の次元から判定することができるため、音声インタラクション制御をより正確に且つスマートに実現し、ユーザ体験を向上させることができる。
図1は、本開示の複数の実施例を実現可能な環境100の概略図を示す。この当該例示的な環境100では、ヒューマン・マシンインタラクションが実行されるとき、取得された音声信号110が管理機器120に送信される。
音声信号110は、ユーザのインタラクションを実行する任意の音声インタラクション機器によって取得することができる。いくつかの実施例では、ユーザが音声インタラクション機器に話しかけると、音声信号110を取得することができる。いくつかの実施例では、音声インタラクション機器がユーザの周りに存在する場合、ユーザが他の人とインタラクションするとき、音声インタラクション機器は、音声信号110を取得することができる。いくつかの実施例では、音声信号110は、テレビ内の話し声など、音声インタラクション機器によって受信される他の音声信号であってもよい。いくつかの実施例では、音声信号110は、1回のウェイクアップで複数回のインタラクションを実行する音声インタラクション機器によって得られる。上記の例は、単に本開示を説明するためのものであり、本開示を具体的に限定するものではない。
音声インタラクション機器は、ユーザの音声指示を収集するための関連付けられた集音器(例えば、1つまたは複数のマイクロフォン)を有してもよい。音声インタラクション機器は、サウンドを再生するための関連付けられたサウンドプレーヤ(例えば、1つまたは複数のスピーカ)を有してもよい。
音声インタラクション機器は、音声信号を介して制御および/またはインタラクションすることができる任意の電子機器であってもよい。音声インタラクティブ機器の例は、スマートスピーカ、音声インタラクションテレビボックス、スマート家電デバイス、音声チューター、スマートロボット、マップナビゲーションデバイス、スマートウェアラブルデバイスなどを含むが、これらに限定されない。音声インタラクション機器は、音声アシスタントアプリケーション、スマートカーマシンシステム、情報検索アプリケーション、地図アプリケーション、ソーシャルプラットフォームアプリケーション、オーディオおよびビデオ再生アプリケーション、スマートアシスタントアプリケーションなどの音声インタラクションアプリケーションがインストールされた任意の他の電子機器であってもよい。このような音声インタラクションアプリケーションをインストール可能な電子デバイスの例は、スマートフォン、マルチメディアコンピュータ、マルチメディアタブレット、インターネットノード、コミュニケーター、デスクトップコンピュータ、ラップトップコンピュータ、ノートブックコンピュータ、ネットブックコンピュータ、タブレットコンピュータ、パーソナルナビゲーションデバイス、パーソナルデジタルアシスタント(PDA)、オーディオ/ビデオプレーヤー、デジタルカメラ/撮像機、測位デバイス、電子書籍デバイス、ゲームデバイス、またはこれらの組み合わせを含むが、これらに限定されない。
例えば、音声インタラクション機器がスマートスピーカである場合、音声命令は、「**歌手の**歌を再生する」などであってもよい。音声インタラクション機器は、音声信号が正しく認識された後、対応する歌を検索してユーザに再生することができる。
音声インタラクション機器とインタラクションする間に、通常、ウェイクアップワードを介して音声インタラクション機器をウェイクアップしてインタラクション状態に入らせる必要がある。音声インタラクション機器は、1回のウェイクアップで複数回のインタラクションをサポートすることができる。1回のウェイクアップで複数回のインタラクションを行うシーンでは、音声インタラクション機器がウェイクアップされた後、機器が動作状態である限り、例えば、音を出している限り、ユーザは、ウェイクアップワードを再度出す必要はなく、音声インタラクション機器と直接インタラクションすることができる。これにより、インタラクションのハードルが低くなり、ユーザのインタラクションに対する意欲が向上する。いくつかの実施例では、インタラクションが天気のクエリなどのクエリカテゴリに属している場合、音声インタラクション機器が応答した後の一定時間内に、ユーザは、機器を再びウェイクアップする必要がなく、インタラクションを続行することができる。
音声信号110は、処理のために管理機器120に送信される。管理機器120は、受信した音声信号110に基づいて、当該音声信号110がユーザによって出された、音声インタラクション機器を実行させるための命令であるか否かを決定する。そうである場合、管理機器120は、実行命令を含む語義結果130、または取得されるコンテンツを含む語義結果130を、処理のために音声インタラクション機器に送信する。
いくつかの実施例では、管理機器120は、音声インタラクション機器によってアップロードされた音声データを処理するの、クラウドに配置されたコンピューティング機器であってもよい。いくつかの実施例では、管理機器120および音声インタラクション機器は同一機器である。したがって、音声信号110は、音声信号110を受信する音声インタラクション機器によって処理されてもよい。 音声インタラクション機器は、音声信号110が命令を実行するか否かを直接認識する。いくつかの実施例では、管理機器120は、パーソナルコンピュータ、サーバーコンピュータ、ハンドヘルドまたはラップトップデバイス、モバイルデバイス(例えば、携帯電話、携帯情報端末(PDA)、メディアプレーヤーなど)、マルチプロセッサシステム、家庭用電化製品、小型コンピュータ、メインフレームコンピュータ、上記のシステムまたはデバイスのいずれかを含む分散コンピューティング環境などを含むが、これらに限定されない。
図1に示される環境は、単に例示的なものであり、本開示を具体的に限定するものではないことを理解されたい。
図2は、本開示の実施例に係る音声インタラクションするためのプロセス200のフローチャートを示す。いくつかの実施例では、プロセス200は、図6に示される機器で実現されてもよい。次に、本開示の実施例に係る音声インタラクションするためのプロセス200を、図1を参照して説明する。理解を容易にするために、以下の説明で言及される具体的なデータは、例示的なものであり、本開示の保護範囲を限定することを意図するものではない。
ブロック210において、管理機器120は、受信された音声信号110に対応するテキスト情報を決定することができる。一例として、ユーザからの音声信号110を、例えば、「午後8時にジェイ・チョウ(周傑倫)の歌を聴く」などのテキスト情報に変換することができる。
ブロック220において、管理機器120は、テキスト情報内の要素にラベル付けすることにより、テキスト情報のラベル付け情報を取得することができる。いくつかの実施例では、管理機器120は、上記の要素内のエンティティ要素にラベル付けすることができ、当該エンティティ要素は、時間、数字、人物名、および地名のうちの少なくとも1つを含む。一例として、管理機器120は、「今日の北京の天気はどうですか」内の「今日」を時間としてラベル付けし、「今日の北京の天気はどうですか」内の「北京」を地名としてラベル付けすることができる。
いくつかの実施例では、管理機器120は、所定の知識ベースに基づいて前記要素の分野をラベル付けすることもできる。一例として、分野知識ベースおよび所定のシーン知識に合わせて分野の概念(ここでは、概念とはラベル付け情報である)をラベル付けすることができる。分野の概念は、音楽分野の歌手「ジェイ・チョウ」、歌、ビデオ分野のドラマ、映画、アニメーション、俳優などの分野エンティティの概念を含んでもよい。分野の概念は、音楽分野の「聞く」、「歌」、ビデオ分野の「視聴」、「ビデオ」などの分野非エンティティの概念を含んでもよい。
いくつかの実施例では、管理機器120は、コンテキスト自由文法に基づいて要素内の置き換え可能な要素にラベルを付けることもできる。一例として、「Aに電話してください」のテキスト情報について、コンテキスト自由文法に基づいて、その中の「A」を連絡先の概念としてラベル付けすることができる。
また、曖昧さまたは誤ったラベル付けを回避するために、所定のオフラインのトレーニングされたエンティティリソースに基づいてコンテキストの曖昧さ解消を行うことができる。
代替的または追加的に、K最適経路アルゴリズムを用いて順位が低く、冗長な候補概念を除外することにより、概念の導出を加速することができる。
いくつかの実施例では、管理機器120は、概念規約によって最終候補概念シーケンスを得ることができる。概念規約は、サブ概念の再利用を容易にすることができ、1対1の上下位概念規約(例えば、ラベル付けされた「歌手」の概念を「人物」として規約することができる)と、多対1の組み合わせ概念規約(例えば、ラベル付けされた「ふさわしい」+「シーン(例えば、寝る前)」+「聞く」の概念を「シーン」に規約することができる)とを含む。もう一方、概念規約は、逆順位の候補を減らすことで概念の導出を加速化することもできる。
ブロック230において、管理機器120は、ラベル付け情報に基づいてテキスト情報の第1の意図情報を決定することができる。いくつかの実施例では、管理機器120は、ラベル付け情報と意図情報とのマッピング関係に基づいて、ラベル付け情報に対応する複数の候補意図情報を決定することができる。一例として、ラベル付けされた概念のシーケンスに基づいて逆順位の意図を引き出し、候補意図リストを取得することができ、ここで、ラベル付けされた概念および意図のインデックス情報が予め構築される。例えば、「歌」、「…の歌を聴く」というラベルづけから、いずれも「音楽を再生する」という意図を引き出すことができる。
次に、管理機器120は、複数の候補意図情報から第1の意図情報を選択することができる。一例として、管理機器120は、複数の候補意図情報内の一部の候補意図情報が所定の制約条件を満たさないことに応答して、一部の候補意図情報を複数の候補意図情報から削除することができる。一例として、各候補意図の経路導出を順次に行うとともに、プルーニング戦略と組み合わせてプルーニングすることができる。当業者は、互いに重複しない一組のラベル付けされた概念のシーケンスが1つの経路であり、プルーニング戦略が当該概念のシーケンスに対する所定の制約条件であることを理解すべきである。
いくつかの実施例では、当該所定の制約条件は、ラベル付けされた概念と意図との対応関係、またはラベル付けされた概念(情報単位)の順序が正しいか否か、またはラベル付けされた概念が複数の値(つまり、配列フォマットをサポートするか否か)を有してもよいか否かである。
なお、候補経路の順位付けについて上位k個(top-k)の候補経路を選択し、順位付け条件は、概念シーケンスカバレッジ長、ngram確率、概念重み、および概念数を含んでもよいことを理解されたい。候補経路における対応する意図をさらに概念に規約できる場合は、概念の導出に引き続き参加できるため、この方法は意図の再帰的な導出をサポートする。
次に、管理機器120は、付けされたスコアが閾値を超えた経路を語義ツリー変換し、経路に対応する意図をルートノードとし、経路内の概念のシーケンス(すなわち、ラベル付け情報)を第1の層ノードとすることができる。
ブロック240において、管理機器120は、第1の意図情報およびラベル付け情報に基づいて、テキスト情報の語義を決定することができる。一般に、意図情報に基づいて分野情報を直接決定することができる。さらに、スロット情報はラベル付け情報のサブセットであるため、ラベル付け情報に基づいてスロット情報を決定することもできる。したがって、管理機器120は、決定された分野、意図、およびスロット情報をテキスト情報の語義として生成することができる。
このようにして、入力されたテキスト情報内の各セグメントに概念をラベル付けし、事前定義されたシーン知識に基づいて概念の組み合わせおよび導出を行うことにより、分野、意図、およびスロットを一体化した語義ツリーを取得することができる。従来の技術と比較して、音声信号110に適合する語義結果130をさらに柔軟に導出することができる。
図3に本開示の実施例に係る語義を決定するための詳細なプロセス300のフローチャートが示されている。いくつかの実施例では、プロセス300は、図6に示される機器で実現されてもよい。本開示の実施例に係る音声インタラクションのためのプロセス300を、図1を参照して以下に説明する。理解を容易にするために、以下の説明で言及される具体的なデータは例示的なものであり、本開示の保護範囲を限定することを意図していない。
ブロック310において、管理機器120は、第1の意図情報およびラベル付け情報に基づいて、テキスト情報の第1の分野情報および第1のスロット情報を決定することができる。いくつかの実施例では、意図情報に基づいて分野情報を直接決定してもよい。さらに、スロット情報はラベル付け情報のサブセットであるため、ラベル付け情報に基づいてスロット情報を決定されてもよい。さらに、構成可能な語義ツリーをシーケンス化することにより、ツリー状の語義結果をフラットな構造に変換することができる。
ブロック320において、管理機器120は、第1の意図情報、第1の分野情報、および第1のスロット情報に基づいて、テキスト情報の第1の語義情報を生成することができる。
ブロック330において、管理機器120は、少なくとも第1の語義情報に基づいて、テキスト情報の語義を決定することができる。本開示の実施例によれば、様々な方式でテキスト情報の語義を決定することができる。例えば、図4は本開示のいくつかの実施例に係る語義を決定するためのプロセス400のフローチャートを示す。理解を容易にするために、以下の説明で言及される具体的なデータは例示的なものであり、本開示の保護範囲を限定することを意図していない。
ブロック410において、管理機器120は、テキスト情報に関連付けられたテキスト特徴表現に基づいてテキスト情報の第2の分野情報および第2の意図情報を決定することができる。いくつかの実施例では、テキスト情報をテキスト特徴表現に変換し、トレーニングされた第1のニューラルネットワークモデルに入力して、テキスト情報の第2の分野情報および第2の意図情報を決定することができる。好ましくは、この第1のニューラルネットワークモデルは、ディープニューラルネットワークDNNであってもよい。代替的または追加的に、この第1のニューラルネットワークモデルは、ニューラルネットワークNN、畳み込みニューラルネットワークCNN、再帰的ニューラルネットワークRNNまたは自己注意ニューラルネットワークTransformerなどであってもよい。このようにすることで、分野と意図との関連特性を十分に学習することができる。
ブロック420において、管理機器120は、テキスト情報に関連付けられたテキスト特徴表現に基づいて、テキスト情報の第2のスロット情報を決定することができる。いくつかの実施例では、テキスト情報をテキスト特徴表現に変換し、トレーニングされた第2のニューラルネットワークモデルに入力して、テキスト情報の第2の分野情報および第2の意図情報を決定することができる。好ましくは、この第2のニューラルネットワークモデルは、ディープニューラルネットワークDNNでであってもよい。代替的または追加的に、この第2のニューラルネットワークモデルは、ニューラルネットワークNN、畳み込みニューラルネットワークCNN、再帰的ニューラルネットワークRNNまたは自己注意ニューラルネットワークTransformerなどであってもよい。
ブロック430において、管理機器120は、第2の分野情報、第2の意図情報、および第2のスロット情報に基づいて、テキスト情報の第2の語義情報を生成することができる。
ブロック440において、管理機器120は、第1の語義的情報および第2の語義的情報に基づいて、テキスト情報の語義を決定することができる。
このようにして、遠距離音声認識テキストの高ノイズ、高冗長性、高度口語化の問題を解決することができるとともに、非常に速い応答速度を兼ねることができる。これは、分野と意図との関連特性を充分に学習することができるとともに、モデルの数を少なくし、応答速度を加速化することもできる。
いくつかの実施例では、リアルタイム介入メカニズムを統合して、テキスト情報、キーワード、文法などの複数レベルのブラック/ホワイトリストを用いて、分野、意図、およびスロットという3つの粒度の語義結果をオンラインで自由に介入することもできる。その結果、製品のニーズに迅速、正確、かつ安定して答えることができ、オンラインユーザ体験を確保することができる。
いくつかの実施例では、ルールおよび深層学習モデルの音声語義一体化信頼度技術を融合することもでき、これにより、各音響信頼度の利点および語義分析結果をマージし、コンテキスト、クライアント側状態を考慮して、ヒューマン・マシンインタラクション/非ヒューマン・マシンインタラクションの最終的な結果判定を行う。この技術案では、既存の音響信頼度技術は、部分的単一音節音響信頼度、フルセンテンス単一音節音響信頼度、フルセンテンス音響特徴音響信頼度、および語義分析結果、前文の状態、言語モデルスコアなどを含めて、ニューラルネットワークモデルの1次元または多次元の入力特徴に正規化され、オンラインデータの大量のレベル付け結果に基づいて、トレーニングセットを構築し、上記のニューラルネットワークモデルをトレーニングする。このニューラルネットワークモデルは、音響および語義などの各入力特徴の利点を学習し、コンテキスト、クライアント側状態などの入力情報を融合して、ヒューマン・マシン/非ヒューマン・マシンの最終的な判定結果を出すことができる。このニューラルネットワークモデルは、ニューラルネットワークNN、畳み込みニューラルネットワークCNN、再帰的ニューラルネットワークRNNまたは自己注意ニューラルネットワークTransformerなどであってもよい。
上記の方法により、音声インタラクション機器によってインタラクションされた音声であるか否かを判定した後、実行される動作を語義に基づいて決定することができ、音声インタラクション中の音声命令実行の精度を向上させることができる。さらに、1回のウェイクアップで複数のインタラクションを行うことを前提に、音声命令を誤って実行しないことが確保され、ユーザ体験が向上する。
図5は、本開示の実施例に係る音声インタラクションするための装置500の概略ブロック図を示す。図5に示すように、装置500は、受信された音声信号に対応するテキスト情報を決定するように構成されるテキスト情報決定モジュール510と、テキスト情報内の要素にラベル付けすることによってテキスト情報のラベル付け情報を取得するように構成されるラベル付けモジュール520と、ラベル付け情報に基づいてテキスト情報の第1の意図情報を決定するように構成される第1の意図決定モジュール530と、第1の意図情報およびラベル付け情報に基づいて、テキスト情報の語義を決定するように構成される語義決定モジュール540と、を含むことができる。
いくつかの実施例では、語義決定モジュール540は、第1の意図情報およびラベル付け情報に基づいて、テキスト情報の第1の分野情報および第1のスロット情報を決定するように構成される分野スロット決定モジュール(図示せず)と、第1の意図情報、第1の分野情報および第1のスロット情報に基づいて、テキスト情報の第1の語義情報を生成するように構成される第1の語義情報生成モジュール(図示せず)と、少なくとも第1の語義情報に基づいて、テキスト情報の語義を決定するように構成される語義生成モジュール(図示せず)と、を含むことができる。
いくつかの実施例では、語義生成モジュールは、テキスト情報に関連付けられたテキスト特徴表現に基づいてテキスト情報の第2の分野情報および第2の意図情報を決定するように構成される分野意図決定モジュール(図示せず)2つの意図情報と、テキスト情報に関連付けられたテキスト特徴表現に基づいてテキスト情報の第2のスロット情報を決定するように構成されるスロット決定モジュール(図示せず)と、第2の分野情報、第2の意図情報および第2のスロット情報に基づいて、テキスト情報の第2の語義情報を生成するように構成される第2の語義情報生成モジュール(図示せず)と、第1の語義情報および第2の語義情報に基づいて、テキスト情報の語義を決定するように構成される語義結果決定モジュール(図示せず)と、を含むことができる。
いくつかの実施例では、ラベル付けモジュールは、時間、数字、人物名、および地名のうちの少なくとも1つを含む、要素内のエンティティ要素にラベル付けするように構成されるエンティティラベル付けモジュール(図示せず)と、所定の知識ベースに基づいて要素の分野をラベル付けするように構成される分野ラベル付けモジュール(図示せず)と、コンテキスト自由文法に基づいて、要素内の置き換え可能な要素にラベル付けするように構成される置き換え可能な要素ラベル付けモジュール(図示せず)との少なくとも1つを含むことができる。
いくつかの実施例では、第1の意図決定モジュールは、ラベル付け情報と意図情報とのマッピング関係に基づいて、ラベル付け情報に対応する複数の候補意図情報を決定するように構成される候補意図決定モジュール(図示せず)と、複数の候補意図情報から第1の意図情報を選択するように構成される第1の意図選択モジュール(図示せず)と、を含むことができる。
いくつかの実施例では、第1の意図選択モジュールは、複数の候補意図情報内の一部の候補意図情報が所定の制約条件を満たさないことに応答して、一部の候補意図情報を複数の候補意図情報から削除するように構成される削除モジュール(図示せず)であって、所定の制約条件は、ラベル付け情報内の情報単位の順序が正しいか否か、およびラベル付け情報内の1つの情報単位が複数の値を有するか否かの少なくとも1つを含む削除モジュールを含むことができる。
本開示の実施例によれば、コンピュータ読み取り可能な記憶媒体に記憶されているコンピュータプログラムが提供される。当該コンピュータプログラムにおける命令が実行された場合に、上記音声インタラクションするための方法が実行される。
図6は、本開示の実施例を実施可能なコンピューティング機器600を示す。機器600は、図1の管理機器140の実現に使用されてもよい。図に示すように、機器600は、リードオンリーメモリ(ROM)602に記憶されたコンピュータプログラム命令、または記憶ユニット608からランダムアクセスメモリ(RAM)603にローディングされたコンピュータプログラム命令に基づいて、各種の適切な動作および処理を実行可能な中央処理装置(CPU)601を含む。RAM603には、機器600の動作に必要な各種のプログラムおよびデータが格納されてもよい。CPU601と、ROM602と、RAM603とは、バス604を介して互いに接続されている。入力/出力(I/O)インターフェース605もバス604に接続されている。
機器600における複数のコンポーネントは、I/Oインターフェース605に接続されており、キーボードやマウスなどの入力ユニット606と、種々なディスプレイやスピーカなどの出力ユニット607と、磁気ディスクや光ディスクなどの記憶ユニット608と、ネットワークカード、モデム、無線通信トランシーバーなどの通信ユニット609と、を含む。通信ユニット609は、機器600がインターネットのようなコンピュータネットおよび/または種々なキャリアネットワークを介してその他の機器と情報/データを交換することを許可する。
中央処理装置601は、上記の各方法および処理、例えば、プロセス200、300および400を実行する。例えば、いくつかの実施例では、プロセス200、300および400は、記憶ユニット608のような機械読み取り可能な媒体に有形的に含まれるコンピュータソフトウエアプログラムとして実現することができる。いくつかの実施例では、コンピュータプログラムの一部または全ては、ROM602および/または通信ユニット609を介して、機器600にロードおよび/またはインストールすることができる。コンピュータプログラムがRAM603にロードされてCPU601によって実行される場合、上記のプロセス200、300および400の一つまたは複数のステップを実行することができる。代替可能に、他の実施例では、CPU601は、他の任意の適切な方式(例えば、ファームウェアにより)によりプロセス200、300および400を実行するように構成される。
本明細書で上述された機能は、少なくとも部分的に一つまたは複数のハードウェアロジックコンポーネントによって実現することができる。例えば、使用可能なハードウェアロジックコンポーネントは、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準品(ASSP)、システムオンチップ(SOC)、コンプレックスプログラマブルロジックデバイス(CPLD)などを含むが、これらに限定されない。
本開示の方法を実施するためのプログラムコードは、一つまたは複数のプログラミング言語の任意の組み合わせを用いて作成することができる。これらのプログラムコードは、汎用コンピュータ、専門コンピュータまたはその他のプログラミングデータ処理装置のプロセッサまたはコントローラに提供されることにより、プログラムコードがプロセッサまたはコントローラによって実行されるとき、フローチャートおよび/またはブロック図に規定された機能/動作を実行することができる。プログラムコードは、完全にマシンで実行されてもよく、部分的にマシンで実行されてもよく、独立したソフトパッケージとして部分的にマシンで実行されるとともに、部分的にリモートマシンで実行されてもよく、または完全にリモートマシンまたはサーバで実行されてもよい。
本開示の説明において、機械読み取り可能な媒体は、有形な媒体であってもよく、命令実行システム、装置または機器によって、または命令実行システム、装置または機器と合わせて使用されるプログラムを含み、または記憶する。機械読み取り可能な媒体は、機械読み取り可能な信号媒体または機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子、磁気、光学、電磁、赤外線、または半導体システム、装置、またはデバイス、または上述された内容の任意の適切な組み合わせを含んでもよいが、これらに限定されない。機械読み取り可能な記憶媒体のさらなる具体例として、ポータブルコンピュータディスクカートリッジ、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROMまたはフラッシュメモリ)、ポータブルコンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶装置、磁気記憶装置、または上述された内容の任意の組み合わせを含む。
また、特定の順番で各動作を説明したが、このような動作を、示される特定の順番または順次実行することが求められ、または図示した動作の全てを実行して所望の結果を取得することが求められることを理解されたい。一定の環境において、複数のタスクおよび並列処理が有利である可能性がある。同様に、以上の説明には、いくつかの具体的な実現の詳細が含まれたが、それが本開示の範囲を限定するものと理解されてはならない。個別の実施例に説明された一部の特徴は、組み合わせて一つの実現で実現されてもよい。逆に、一つの実施例に説明された種々な特徴は、個別または任意の適切なサブ組み合わせの方式で複数の実現で実現されてもよい。
構成の特徴および/または方法の論理動作に特有の言語で本テーマを説明したが、特許請求の範囲で限定される本題は、上記の特定の特徴または動作に限定されない。逆に、上記の特定の特徴および動作は、特許請求の範囲を実現する例示的な形態に過ぎない。

Claims (9)

  1. 音声インタラクションするための方法であって、
    受信された音声信号に対応するテキスト情報を決定するステップと、
    前記テキスト情報内の要素にラベル付けすることにより、前記テキスト情報のラベル付け情報を取得するステップと、
    前記ラベル付け情報に基づいて前記テキスト情報の第1の意図情報を決定するステップと、
    前記第1の意図情報および前記ラベル付け情報に基づいて、前記テキスト情報の語義を決定するステップと、を含み、
    前記テキスト情報の語義を決定するステップは、
    前記第1の意図情報および前記ラベル付け情報に基づいて、前記テキスト情報の第1の分野情報および第1のスロット情報を決定するステップと、
    前記第1の意図情報、前記第1の分野情報および前記第1のスロット情報に基づいて、前記テキスト情報の第1の語義情報を生成するステップと、
    少なくとも前記第1の語義情報に基づいて、前記テキスト情報の語義を決定するステップと、を含む、
    ことを特徴とする音声インタラクションするための方法。
  2. 前記テキスト情報内の要素にラベル付けするステップは、
    時間、数字、人物名、および地名のうちの少なくとも1つを含む、前記要素内のエンティティ要素にラベル付けするステップと、
    所定の知識ベースに基づいて前記要素の分野をラベル付けするステップと、
    コンテキスト自由文法に基づいて、前記要素内の置き換え可能な要素にラベル付けするステップと、の少なくとも1つを含む、
    ことを特徴とする請求項1に記載の方法。
  3. 前記テキスト情報の第1の意図情報を決定するステップは、
    前記ラベル付け情報と意図情報とのマッピング関係に基づいて、前記ラベル付け情報に対応する複数の候補意図情報を決定するステップと、
    前記複数の候補意図情報から前記第1の意図情報を選択するステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  4. 音声インタラクションするための装置であって、
    受信された音声信号に対応するテキスト情報を決定するように構成されるテキスト情報決定モジュールと、
    前記テキスト情報内の要素にラベル付けすることにより、前記テキスト情報のラベル付け情報を取得するように構成されるラベル付けモジュールと、
    前記ラベル付け情報に基づいて前記テキスト情報の第1の意図情報を決定するように構成される第1の意図決定モジュールと、
    前記第1の意図情報および前記ラベル付け情報に基づいて、前記テキスト情報の語義を決定するように構成される語義決定モジュールと、を含み、
    前記語義決定モジュールは、
    前記第1の意図情報および前記ラベル付け情報に基づいて、前記テキスト情報の第1の分野情報および第1のスロット情報を決定するように構成される分野スロット決定モジュールと、
    前記第1の意図情報、前記第1の分野情報および前記第1のスロット情報に基づいて、前記テキスト情報の第1の語義情報を生成するように構成される第1の語義情報生成モジュールと、
    少なくとも前記第1の語義情報に基づいて、前記テキスト情報の語義を決定するように構成される語義生成モジュールと、を含む、
    ことを特徴とする音声インタラクションするための装置。
  5. 前記ラベル付けモジュールは、
    時間、数字、人物名、および地名のうちの少なくとも1つを含む、前記要素内のエンティティ要素にラベル付けするように構成されるエンティティラベル付けモジュールと、
    所定の知識ベースに基づいて前記要素の分野をラベル付けするように構成される分野ラベル付けモジュールと、
    コンテキスト自由文法に基づいて、前記要素内の置き換え可能な要素にラベル付けするように構成される置き換え可能な要素レベル付けモジュールと、の少なくとも1つを含む、
    ことを特徴とする請求項に記載の装置。
  6. 前記第1の意図決定モジュールは、
    前記ラベル付け情報と意図情報とのマッピング関係に基づいて、前記ラベル付け情報に対応する複数の候補意図情報を決定するように構成される候補意図決定モジュールと、
    前記複数の候補意図情報から前記第1の意図情報を選択するように構成される第1の意図選択モジュールと、を含む、
    ことを特徴とする請求項に記載の装置。
  7. 一つまたは複数のプロセッサと、
    一つまたは複数のプログラムを記憶するための記憶装置と、を含む電子機器であって、
    前記一つまたは複数のプログラムが前記一つまたは複数のプロセッサによって実行される場合、前記一つまたは複数のプロセッサが、請求項1~のいずれかに記載の方法を実現する、
    ことを特徴とする電子機器。
  8. コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、
    前記プログラムがプロセッサによって実行される場合、請求項1~のいずれかに記載の方法が実現される、
    ことを特徴とするコンピュータ読み取り可能な記憶媒体。
  9. コンピュータ読み取り可能な記憶媒体に記憶されているコンピュータプログラムであって、
    前記コンピュータプログラムにおける命令が実行された場合に、請求項1~のいずれかに記載の方法が実行される、
    ことを特徴とするコンピュータ読み取り可能な記憶媒体に記憶されているコンピュータプログラム。
JP2020185935A 2019-11-14 2020-11-06 音声インタラクションするための方法、装置、電子機器、およびコンピュータ読み取り可能な記憶媒体 Active JP7300435B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201911115505.1 2019-11-14
CN201911115505.1A CN110866090A (zh) 2019-11-14 2019-11-14 用于语音交互的方法、装置、电子设备和计算机存储介质

Publications (2)

Publication Number Publication Date
JP2021081712A JP2021081712A (ja) 2021-05-27
JP7300435B2 true JP7300435B2 (ja) 2023-06-29

Family

ID=69654866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020185935A Active JP7300435B2 (ja) 2019-11-14 2020-11-06 音声インタラクションするための方法、装置、電子機器、およびコンピュータ読み取り可能な記憶媒体

Country Status (3)

Country Link
US (1) US11830482B2 (ja)
JP (1) JP7300435B2 (ja)
CN (1) CN110866090A (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021124613A (ja) * 2020-02-05 2021-08-30 キヤノン株式会社 音声入力装置およびその制御方法ならびにプログラム
CN111429903B (zh) * 2020-03-19 2021-02-05 百度在线网络技术(北京)有限公司 音频信号识别方法、装置、系统、设备和可读介质
US11531821B2 (en) * 2020-08-13 2022-12-20 Salesforce, Inc. Intent resolution for chatbot conversations with negation and coreferences
CN113591470A (zh) * 2021-06-24 2021-11-02 海信视像科技股份有限公司 一种语义理解方法及装置
CN113408274B (zh) * 2021-07-13 2022-06-24 北京百度网讯科技有限公司 训练语言模型的方法和标签设置方法
CN113674742B (zh) * 2021-08-18 2022-09-27 北京百度网讯科技有限公司 人机交互方法、装置、设备以及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108563790A (zh) 2018-04-28 2018-09-21 科大讯飞股份有限公司 一种语义理解方法及装置、设备、计算机可读介质
CN108959257A (zh) 2018-06-29 2018-12-07 北京百度网讯科技有限公司 一种自然语言解析方法、装置、服务器及存储介质
WO2019142427A1 (ja) 2018-01-16 2019-07-25 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11107462B1 (en) * 2017-10-30 2021-08-31 Facebook, Inc. Methods and systems for performing end-to-end spoken language analysis
CN108549656B (zh) * 2018-03-09 2022-06-28 北京百度网讯科技有限公司 语句解析方法、装置、计算机设备及可读介质
CN110309277B (zh) * 2018-03-28 2023-08-18 蔚来控股有限公司 人机对话语义解析方法和系统、车载人机对话方法和系统、控制器及存储介质
US10847153B2 (en) * 2018-06-06 2020-11-24 Amazon Technologies, Inc. Temporary account association with voice-enabled devices
CN109241524B (zh) * 2018-08-13 2022-12-20 腾讯科技(深圳)有限公司 语义解析方法及装置、计算机可读存储介质、电子设备
US11355098B1 (en) * 2018-12-13 2022-06-07 Amazon Technologies, Inc. Centralized feedback service for performance of virtual assistant
US11348573B2 (en) * 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11074908B2 (en) * 2019-03-29 2021-07-27 Nuance Communications, Inc. System and method for aligning ASR model weights with NLU concepts
US11657094B2 (en) * 2019-06-28 2023-05-23 Meta Platforms Technologies, Llc Memory grounded conversational reasoning and question answering for assistant systems
US11158321B2 (en) * 2019-09-24 2021-10-26 Google Llc Automated calling system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019142427A1 (ja) 2018-01-16 2019-07-25 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
CN108563790A (zh) 2018-04-28 2018-09-21 科大讯飞股份有限公司 一种语义理解方法及装置、设备、计算机可读介质
CN108959257A (zh) 2018-06-29 2018-12-07 北京百度网讯科技有限公司 一种自然语言解析方法、装置、服务器及存储介质

Also Published As

Publication number Publication date
US20210151039A1 (en) 2021-05-20
CN110866090A (zh) 2020-03-06
US11830482B2 (en) 2023-11-28
JP2021081712A (ja) 2021-05-27

Similar Documents

Publication Publication Date Title
JP7300435B2 (ja) 音声インタラクションするための方法、装置、電子機器、およびコンピュータ読み取り可能な記憶媒体
US11503155B2 (en) Interactive voice-control method and apparatus, device and medium
KR102313473B1 (ko) 자동 어시스턴트를 위한 명령 번들 제안 제공
JP6820058B2 (ja) 音声認識方法、装置、デバイス、及び記憶媒体
CN110288985B (zh) 语音数据处理方法、装置、电子设备及存储介质
US9805718B2 (en) Clarifying natural language input using targeted questions
US11016968B1 (en) Mutation architecture for contextual data aggregator
CN111667833B (zh) 基于对话的语音识别
US10860289B2 (en) Flexible voice-based information retrieval system for virtual assistant
KR20200127814A (ko) 사용자의 입력 입력에 기초하여 타겟 디바이스를 결정하고, 타겟 디바이스를 제어하는 서버 및 그 동작 방법
WO2018045646A1 (zh) 基于人工智能的人机交互方法和装置
JP7063937B2 (ja) 音声対話するための方法、装置、電子デバイス、コンピュータ読み取り可能な記憶媒体、及びコンピュータプログラム
US20160155445A1 (en) System and method for localized error detection of recognition results
US11289075B1 (en) Routing of natural language inputs to speech processing applications
US11398226B1 (en) Complex natural language processing
US11532301B1 (en) Natural language processing
CN113761268A (zh) 音频节目内容的播放控制方法、装置、设备和存储介质
US11817093B2 (en) Method and system for processing user spoken utterance
US11626107B1 (en) Natural language processing
CN111324626B (zh) 基于语音识别的搜索方法、装置、计算机设备及存储介质
CN112395414A (zh) 文本分类方法和分类模型的训练方法、装置、介质和设备
US11947912B1 (en) Natural language processing
US20240013782A1 (en) History-Based ASR Mistake Corrections
US11380308B1 (en) Natural language processing
US11893994B1 (en) Processing optimization using machine learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220331

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221129

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221129

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221212

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230619

R150 Certificate of patent or registration of utility model

Ref document number: 7300435

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150