JP2022037100A - 車載機器の音声処理方法、装置、機器及び記憶媒体 - Google Patents

車載機器の音声処理方法、装置、機器及び記憶媒体 Download PDF

Info

Publication number
JP2022037100A
JP2022037100A JP2021202644A JP2021202644A JP2022037100A JP 2022037100 A JP2022037100 A JP 2022037100A JP 2021202644 A JP2021202644 A JP 2021202644A JP 2021202644 A JP2021202644 A JP 2021202644A JP 2022037100 A JP2022037100 A JP 2022037100A
Authority
JP
Japan
Prior art keywords
text
voice
offline
user
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021202644A
Other languages
English (en)
Other versions
JP7213943B2 (ja
Inventor
坤 王
Kun Wang
学▲エン▼ 賀
Xueyan He
文策 何
Wence He
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022037100A publication Critical patent/JP2022037100A/ja
Application granted granted Critical
Publication of JP7213943B2 publication Critical patent/JP7213943B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B17/00Monitoring; Testing
    • H04B17/30Monitoring; Testing of propagation channels
    • H04B17/309Measuring or estimating channel quality parameters
    • H04B17/318Received signal strength
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Abstract

【課題】弱いネットワークシーンでの車載機器の音声処理の正確性を確保すると同時に、音声処理効率を高める音声処理方法、装置、機器及び記憶媒体を提供する。【解決手段】車載機器の音声処理方法は、ユーザ音声を取得することと、ユーザ音声にオフライン認識を行い、オフライン認識テキストを得て、且つユーザ音声をサーバに送信して、ユーザ音声にオンラインの音声認識とセマンティック解析を行うことと、ローカルのテキストデータベースにオフライン認識テキストとマッチングするテキストが存在する場合、オフライン認識テキストを解析し、ユーザ音声のオフライン解析結果を得ることと、オフライン解析結果に基づき、車載機器を制御することと、を含む。【選択図】図2

Description

本願は、人工知能分野における音声技術、カーネットワーキング技術、スマート車両技術に関し、特に、車載機器の音声処理方法、装置、機器及び記憶媒体に関する。
モノのインターネット技術、スマート車両技術、音声技術などの技術の発展につれて、車載機器のスマート化程度が益々高くなり、ひいては音声アシスタントの機能を実現することができる。車載機器は、音声アシスタントの機能を実現する時、ユーザ音声を認識することで、車窓を開けること、車内エアコンをオンにすること、音楽を再生することなどの所定の操作を実行する。
車載機器は、ユーザ音声を認識する時、通常、オフライン音声認識又はオンライン音声認識を採用する。オフライン音声認識の正確度が低く、少数の文型しか認識できず、適用性が高くない。オンライン音声認識の正確度が高いが、車載シーンのネットワーク性能が不安定であり、弱いネットワークシーンになりやすく、弱いネットワークシーンでのオンライン音声認識の効率が高くなく、車載機器の音声応答速度に影響を及ぼす。
如何に弱いネットワークシーンでの車載機器の音声応答速度を高めるかは、早急に解決すべき問題である。
本願は、車載機器の音声処理方法、装置、機器及び記憶媒体を提供する。
本願の第1の態様によれば、車載機器の音声処理方法を提供し、ユーザ音声を取得することと、前記ユーザ音声にオフライン認識を行い、オフライン認識テキストを得て、且つ前記ユーザ音声をサーバに送信して、前記ユーザ音声にオンラインの音声認識とセマンティック解析を行うことと、ローカルのテキストデータベースに前記オフライン認識テキストとマッチングするテキストが存在する場合、前記オフライン認識テキストを解析し、前記ユーザ音声のオフライン解析結果を得ることと、前記オフライン解析結果に基づき、車載機器を制御することと、を含む。
本願の第2の態様によれば、車載機器の音声処理装置を提供し、ユーザ音声を取得するための取得ユニットと、前記ユーザ音声にオフライン認識を行い、オフライン認識テキストを得て、且つ前記ユーザ音声をサーバに送信して、前記ユーザ音声にオンラインの音声認識とセマンティック解析を行うための認識ユニットと、テキストデータベースに前記オフライン認識テキストとマッチングするテキストが存在する場合、前記オフライン認識テキストを解析し、前記ユーザ音声のオフライン解析結果を得るための解析ユニットと、前記オフライン解析結果に基づき、車載機器を制御するための制御ユニットと、を含む。
本願の第3の態様によれば、電子機器を提供し、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、前記メモリには、前記少なくとも1つのプロセッサにより実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが第1の態様に記載の方法を実行できるように、前記少なくとも1つのプロセッサにより実行される。
本願の第4の態様によれば、コンピュータ命令が記憶された非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令は、コンピュータに第1の態様に記載の方法を実行させるために用いられる。
本願の第5の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムは読み取り可能な記憶媒体に記憶されており、電子機器の少なくとも1つのプロセッサは、前記読み取り可能な記憶媒体から前記コンピュータプログラムを読み取ることができ、前記少なくとも1つのプロセッサは、電子機器に第1の態様に記載の方法を実行させるように、前記コンピュータプログラムを実行する。
本願の第6の態様によれば、車両を提供し、車体を含み、前記車体の中央制御機器は、第3の態様に記載の電子機器を含む。
本願の技術案によれば、ユーザ音声にオフライン認識とオンライン認識を同時に行い、オフライン認識により得られたオフライン認識テキストがローカルのテキストデータベースにある場合、オフライン認識テキストを解析し、オフライン解析結果を得て、オフライン解析結果に基づき、車載機器を制御することで、車載環境で、特に、車両の弱いネットワークシーンで、ユーザ音声処理の正確性を確保し、ユーザ音声に対する処理効率を高め、更に車載機器の音声応答の正確性を確保し、車載機器の音声応答効率を高める。
なお、この部分に記載されている内容は、本願の実施例の肝心な又は重要な特徴を特定することを意図しておらず、本願の範囲を限定するものでもない。本願の他の特徴は、以下の説明を通じて容易に理解される。
図面は、本技術案をよりよく理解するために使用され、本願を限定するものではない。
本願の実施例を実現可能な適用シーンの例示的な図である。 本願の第1の実施例による模式図である。 本願の第2の実施例による模式図である。 本願の第3の実施例による模式図である。 本願の第4の実施例による模式図である。 本願の第5の実施例による模式図である。 本願の第6の実施例による模式図である。 本願の第7の実施例による模式図である。 本願の実施例の車載機器の音声処理方法を実現するための電子機器のブロック図である。
以下、図面を組み合わせて本願の例示的な実施例を説明する。理解を容易にするために、その中には本願の実施例の様々な細部が含まれており、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができる。同様に、わかりやすくかつ簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
車両がインテリジェントになるにつれて、車載機器は、音声アシスタントの機能を実現できる。例えば、車両の中央制御機器に音声アシスタントをインストールすることができ、音声アシスタントはユーザ音声を収集し、認識して解析し、解析結果を得て、中央制御機器は、解析結果に基づいて対応する制御操作を実行することができる。例えば、ユーザ音声が「音楽を再生する」である場合、中央制御機器は、音楽ソフトウェアを開いて音楽を再生し、また、例えば、ユーザ音声が「車窓を開ける」である場合、中央制御機器は、車窓を開けるように制御し、また、例えば、ユーザ音声が「エアコンをオンにする」である場合、中央制御機器は、車内のエアコンをオンにするように制御する。
音声アシスタントによるユーザ音声の認識と解析手段は、通常、オフラインの音声認識とセマンティック解析、及びオンラインの音声認識とセマンティック解析という2種がある。
音声認識は、音声を対応するテキストに認識したり、翻訳したりすることである。
セマンティック解析は、テキストに含まれるセマンティックを解析することである。
セマンティック解析では、近い意味を持つ異なるテキストを解析して、同じ又は近いセマンティックを得ることができ、例えば、「ガソリンスタンドへナビゲートする」と「近くのガソリンスタンドへナビゲートする」のセマンティックはほぼ同じであり、「音楽を聞かせる」と「音楽を再生する」のセマンティックは同じである。したがって、ユーザが異なる言語表現を変更して同一の意味を表す場合に、中央制御機器が同様な操作を実行できるように確保するために、ユーザ音声に音声認識を行った後に、セマンティック解析を行う必要もある。
上記した2つのユーザ音声の認識と解析手段は、以下の利点と欠点が存在している。
(一)オフラインの音声認識とセマンティック解析の効率が高いが、車載機器のコンピューティング能力及び記憶能力に制限されるため、オフラインの音声認識とセマンティック解析の正確性が高くなく、且つ少数の文型しか認識できず、適用性が高くない。
(二)オンラインの音声認識とセマンティック解析は、コンピューティング能力及び記憶能力に優れた機器で行うことができ、正確性が高いが、効率がネットワークに制限されている。
車両は、走行時にトンネル、橋の下などのネットワーク信号強度が弱いエリアを通る場合が多い。ネットワーク信号強度が弱いエリアで、即ち弱いネットワークシーンで、オンラインのセマンティック認識効率が高くなく、ひいては車載機器はユーザ音声に長期間応答できない可能性がある。
本願の実施例は、車載機器の音声処理方法、装置、機器及び記憶媒体を提供し、データ処理分野における音声技術、モノのインターネット技術、スマート車両技術に適用し、車載の弱いネットワークシーンで、車載機器の音声応答の正確性を確保すると同時に、車載機器の音声応答効率を高めることを達成する。
図1は、本願の実施例を実現可能な適用シーンの例示的な図である。図1に示すように、当該適用シーンは、車両101、サーバ102及び車両101内に位置する車載機器103を含み、車載機器103とサーバ102との間は、ネットワーク通信を行うことができる。車載機器103は、サーバ102においてユーザ音声にオンライン解析を行うように、ユーザ音声をサーバ102に送信することができる。
車載機器103は、例えば車両101の中央制御機器である。又は、車載機器103は、例えば車両101の中央制御機器と通信する他の電子機器であり、例えば携帯電話、ウェアラブルスマートデバイス、タブレットパソコンなどである。
図2は、本願の第1の実施例による模式図である。図2に示すように、本実施例により提供される車載機器の音声処理方法は、以下のステップを含む。
ステップS201では、ユーザ音声を取得する。
例示的に、本実施例の実行主体は、図1に示す車載機器である。
一例において、車載機器に音声コレクタが設けられており、車載機器は、音声コレクタを介して車両内のユーザ音声を収集する。音声コレクタは、例えばマイクロホンである。
他の例において、車両に音声コレクタが設けられており、音声コレクタは車載機器と通信することで、車載機器は、音声コレクタより車両内で収集したユーザ音声を受信することができる。
音声コレクタと車載機器とは、有線又は無線で直接又は間接通信を行うことができ、例えば、車載機器が車両の中央制御機器である場合、中央制御機器は、音声コレクタより車両内で収集したユーザ音声を直接受信することができ、車載機器が車両の中央制御機器と通信する他の電子機器である場合、車載機器は、中央制御機器によって転送された音声コレクタより車両内で収集したユーザ音声を受信することができる。
例示的に、ユーザが音声機能を使用する必要がない場合にユーザ音声を取得して、誤認識又は車載機器に対する誤制御の結果を招くことを回避するように、車載機器は、音声ウェークアップ状態でユーザ音声を取得する。
例示的に、ユーザは、例えば音声でウェークアップワードを入力し、又は、例えば車載機器にある物理ボタン又は車載機器のスクリーンにある仮想ボタンを介して、車載機器が音声ウェークアップ状態に入る。
ステップS202では、ユーザ音声にオフライン認識を行い、オフライン認識テキストを得て、且つユーザ音声をサーバに送信して、ユーザ音声にオンラインの音声認識とセマンティック解析を行う。
車載機器に音声認識モデルが予め配置されており、音声認識モデルは、例えばニューラルネットワークモデルであり、ここで、音声認識モデルに対して制限しない。
具体的には、ユーザ音声を取得した後、音声認識モデルによりユーザ音声にオフライン認識を行い、同時にユーザ音声をサーバに送信し、サーバによりユーザ音声にオンラインの音声認識とセマンティック解析を行うことで、ユーザ音声にオフライン認識とオンライン認識を同時に行う。車載機器がユーザ音声をサーバに送信する速度は、ネットワーク信号強度によって制限され、弱いネットワークシーンで、この速度が高くなく、オンライン認識の効率がオフライン認識の効率より低い。ユーザ音声のオフライン認識とオンライン認識を同時に行う場合、ユーザ音声のオフライン認識テキストを先に取得することになる。
オフライン認識テキストは、単一の単語であってもよいし、複数の単語で構成される1つ又は複数の文であってもよい。例えば、オフライン認識テキストが単一の単語である場合、オフライン認識テキストは「ナビゲート」であり、オフライン認識テキストが単一の文である場合、オフライン認識テキストは「ガソリンスタンドへナビゲートする」であり、オフライン認識テキストが複数の文である場合、オフライン認識テキストは「出発点が場所Aで、目的地が場所Bで、ナビゲートし始める」である。
ステップS203では、ローカルのテキストデータベースにオフライン認識テキストとマッチングするテキストが存在する場合、オフライン認識テキストを解析し、ユーザ音声のオフライン解析結果を得る。
車載機器にテキストデータベースが予め記憶されており、テキストデータベースは、複数の予め設定されたテキストを含み、テキストデータベースにおけるテキストにオフライン解析を行う時の正確性が高い。ユーザ音声のオフライン解析結果は、オフラインで解析して得られたユーザ音声のセマンティックであると理解することができる。
具体的には、オフライン認識テキストを取得した後、オフライン認識テキストとテキストデータベースにおける複数のテキストにテキストマッチングを行うことができる。例えば、オフライン認識テキストのテキスト特徴、テキストデータベースにおける各テキストのテキスト特徴を抽出し、オフライン認識テキストのテキスト特徴とテキストデータベースにおける各テキストのテキスト特徴をマッチングすることができる。ここで、テキストマッチングプロセスに対して制限しない。
テキストデータベースにオフライン認識テキストとマッチングするテキストが存在する場合、即ち、テキストデータベースにオフライン認識テキストが存在する場合、オフラインでオフライン認識テキストを解析する場合の正確性が高いことを示しているため、車載機器でオフライン認識テキストを解析し、ユーザ音声のオフライン解析結果を得て、ステップS204を実行する。
ステップS204では、オフライン解析結果に基づき、車載機器を制御する。
車載機器に複数のセマンティックと制御操作とのマッピング関係が予め設定されている。
例えば、セマンティック「音楽を再生する」に対応する制御操作は、車載機器における音楽再生アプリケーションプログラムを起動して音楽を再生することであり、また、例えば、セマンティック「エアコンを起動する」に対応する制御操作は、車内のエアコンに起動命令を送信することである。
具体的には、オフライン解析結果を得た後、複数のセマンティックと制御操作とのマッピング関係からオフライン解析結果に対応する制御操作を検索して実行することで、車載機器を制御することができる。
オフライン解析結果に基づき、車載機器を直接又は間接制御できることが分かる。例えば、現在の車載機器が中央制御機器である場合、中央制御機器を直接制御して対応するアプリケーションプログラムを開けてもよいし、中央制御機器を直接制御して他の車載機器に制御命令を送信してもよく、エアコン、車窓、ワイパーなどの他の車載機器に対する間接制御を実現する。
本実施例では、ユーザ音声を取得し、ユーザ音声にオフライン認識とオンライン認識を同時に行い、弱いネットワークシーンでオンライン認識の効率がオフライン認識の効率より明らかに低いため、ユーザ音声のオフライン認識テキストを取得することになる。オフライン認識テキストを得た後、ローカルのテキストデータベースにオフライン認識テキストが存在する場合、オフラインのセマンティック解析を採用することができ、且つオフラインのセマンティック解析の正確性が高いことを示しているため、オフライン認識テキストにオフラインのセマンティック解析を行い、ユーザ音声のオフライン解析結果を得る。オフライン解析結果に基づき、車載機器を制御する。
したがって、本実施例は、オフライン認識とオンライン認識を同時に行うとともに、条件に応じてオフライン認識を採用することにより、音声処理の正確性を確保すると同時に、音声処理の効率を高め、更に車載機器の音声応答の正確性を確保すると同時に、車載機器の音声応答効率を高める。
図3は、本願の第2の実施例による模式図である。図3に示すように、本実施例により提供される車載機器の音声処理方法は、以下のステップを含む。
ステップS301では、ユーザ音声を取得する。
ステップS302では、ユーザ音声にオフライン認識を行い、オフライン認識テキストを得て、且つユーザ音声をサーバに送信して、ユーザ音声にオンラインの音声認識とセマンティック解析を行う。
ステップS303では、ローカルのテキストデータベースにオフライン認識テキストとマッチングするテキストが存在するか否かを決定する。
テキストデータベースにオフライン認識テキストとマッチングするテキストが存在する場合、ステップS304を実行し、オフライン手段を採用してユーザ音声に認識と解析を行う。
テキストデータベースにオフライン認識テキストとマッチングするテキストが存在しない場合、オフライン認識テキストに対するオフライン解析が高い正確性を達成できることを確保できず、ステップS306を実行し、オンライン手段を採用してユーザ音声に認識と解析を行うことができる。
ステップS304では、オフライン認識テキストを解析し、ユーザ音声のオフライン解析結果を得る。
ステップS305では、オフライン解析結果に基づき、車載機器を制御する。
ステップS301~S305の実現プロセスは、前述した実施例を参照することができ、繰り返して説明しない。
ステップS306では、サーバから返信されたユーザ音声のオンライン解析結果を待つ。
具体的には、オンライン認識は、少なくとも2回の送受信プロセスを経る必要があり、1つは、車載機器がユーザ音声をサーバに送信することであり、もう1つは、サーバがユーザ音声のオンライン解析結果を車載機器に返信することであり、オフライン認識の場合にこれらの送受信プロセスが存在しない。弱いネットワーク環境で、車載機器とサーバとの間の通信速度が遅いため、オフライン認識してユーザ音声のオフライン認識テキストを得た後、テキストデータベースにオフライン認識テキストとマッチングするテキストが存在しない場合、サーバからユーザ音声のオンライン解析結果を返信するまで待つ必要がある。
例示的に、サーバのコンピューティング性能及び記憶性能が車載機器に優れているため、車載機器に比べて、サーバは、より完全で正確性がより高い音声認識モデル及びセマンティック解析モデルにより、ユーザ音声に認識と解析を行うことで、ユーザ音声の解析正確性を確保することができる。
ステップS307では、サーバから返信されたオンライン解析結果を受信した後、オンライン解析結果に基づき、車載機器を制御する。
ユーザ音声のオンライン解析結果は、オンライン手段により(即ち、遠隔サーバにより)解析して得られたユーザ音声のセマンティックであると理解することができる。
具体的には、サーバから返信されたオンライン解析結果を待った後、オンライン解析結果に基づき、車載機器を制御し、オンライン解析結果に基づき、車載機器を制御することは、オフライン解析結果に基づき、車載機器を制御するプロセスに類似するため、前述した実施例についての記載を参照することができ、繰り返して説明しない。
本実施例では、ユーザ音声を取得し、ユーザ音声にオフライン認識とオンライン認識を同時に行い、弱いネットワークシーンでオンライン認識の効率がオフライン認識の効率より明らかに低いため、ユーザ音声のオフライン認識テキストを取得することになる。オフライン認識テキストを得た後、ローカルのテキストデータベースにオフライン認識テキストとマッチングするテキストが存在する場合、オフラインのセマンティック解析を採用することができ、且つオフラインのセマンティック解析の正確性が高いことを示しているため、オフライン認識テキストにオフラインのセマンティック解析を行い、ユーザ音声のオフライン解析結果を得て、オフライン解析結果に基づき、車載機器を制御する。
ローカルのテキストデータベースにオフライン認識テキストとマッチングするテキストが存在しない場合、ユーザ音声処理の正確性を確保するために、サーバから返信されたオンライン解析結果を待ち、オンライン解析結果に基づき、車載機器を制御する。
したがって、本実施例は、オフライン認識とオンライン認識を同時に行うとともに、テキストデータベースに基づいてオフライン解析を採用する条件及びオンライン解析を採用する条件を設定することにより、音声処理の正確性を確保すると同時に、音声処理の効率を高め、更に車載機器の音声応答の正確性を確保すると同時に、車載機器の音声応答効率を高める。
図4は、本願の第3の実施例による模式図である。図4に示すように、本実施例により提供される車載機器の音声処理方法は、以下のステップを含む。
ステップS401では、ユーザ音声を取得する。
ステップS402では、ユーザ音声にオフライン認識を行い、オフライン認識テキストを得て、且つユーザ音声をサーバに送信して、ユーザ音声にオンラインの音声認識とセマンティック解析を行う。
ステップS401~S402の実現プロセスは、前述した実施例を参照することができるので、繰り返して説明しない。
ステップS403では、ローカルのテキストデータベースにオフライン認識テキストとマッチングするテキストが存在する場合、テキストデータベースにおける複数のテキストと解析セマンティックとの予め設定されたマッピング関係から、オフライン認識テキストに関連付けられた解析セマンティックを取得する。
テキストデータベースには、複数のテキストと解析セマンティックとの予め設定されたマッピング関係が含まれ、解析セマンティックとは、セマンティックである。複数のテキストと解析セマンティックとの予め設定されたマッピング関係の中で、複数のテキストは、同一の解析セマンティックに対応してもよく、異なる解析セマンティックに対応してもよい。例えば、テキスト「音楽を再生する」とテキスト「音楽を聞かせる」は、同一の解析セマンティックに対応し、テキスト「エアコンをオンにする」とテキスト「音楽を再生する」は、異なる解析セマンティックに対応する。
具体的には、テキストデータベースにオフライン認識テキストとマッチングするテキストが存在する場合、テキストデータベースにおける複数のテキストと解析セマンティックとの予め設定されたマッピング関係から、オフライン認識テキストとマッチングするテキストに対応する解析セマンティックを取得することができ、オフライン認識テキストとマッチングするテキストに対応する解析セマンティックは、オフライン認識テキストに関連付けられた解析セマンティックであり、オフライン解析の正確性が確保される。
ステップS404では、オフライン認識テキストに関連付けられた解析セマンティックをオフライン解析結果として決定する。
ステップS405では、オフライン解析結果に基づき、車載機器を制御する。
ステップS405の実現プロセスは、前述した実施例を参照することができ、繰り返して説明しない。
本実施例では、ユーザ音声にオフライン認識を行うと同時に、ユーザ音声をサーバに送信することにより、ユーザ音声にオンライン認識とオンライン解析を行う。先にユーザ音声のオフライン認識テキストを取得した後に、ローカルのテキストデータベースにオフライン認識テキストとマッチングするテキストが存在する場合、テキストデータベースにおける複数のテキストと解析セマンティックとのマッピング関係に応じて、オフライン認識テキストに関連付けられたオフライン解析結果を決定し、オフライン手段を採用してオフライン認識テキストを解析する場合の正確性が確保される。更に、オフライン解析結果に基づき、車載機器を制御する。
したがって、本実施例は、オフライン認識とオンライン認識を同時に行うとともに、テキストデータベースにオフライン認識テキストが含まれている場合、複数のテキストと解析セマンティックとのマッピング関係に応じて、オフライン解析結果を決定し、音声処理の正確性を確保すると同時に、音声処理の効率を高め、更に車載機器の音声応答の正確性を確保すると同時に、車載機器の音声応答効率を高める。
図5は、本願の第4の実施例による模式図である。図5に示すように、本実施例により提供される車載機器の音声処理方法は、以下のステップを含む。
ステップS501では、ユーザ音声を取得する。
ステップS502では、ユーザ音声にオフライン認識を行い、オフライン認識テキストを得て、且つユーザ音声をサーバに送信して、ユーザ音声にオンラインの音声認識とセマンティック解析を行う。
ステップS501~S502の実現プロセスは、前述した実施例を参照することができるので、繰り返して説明しない。
ステップS503では、ローカルのテキストデータベースにオフライン認識テキストとマッチングするテキストが存在する場合、セマンティック解析モデルによりオフライン認識テキストを解析し、オフライン解析結果を得て、セマンティック解析モデルのトレーニングプロセスで採用されたトレーニングデータは、テキストデータベースにおけるテキストを含む。
車載機器にセマンティック解析モデルが予め配置されており、セマンティック解析モデルの入力はテキストであり、出力はテキストのセマンティックである。例えば、セマンティック解析モデルとしては、自然言語処理分野の言語モデルを採用し、ここでセマンティック解析モデルの具体的な構造に対して制限しない。
具体的には、ローカルのテキストデータベースにオフライン認識テキストとマッチングするテキストが存在する場合、ローカルに配置されたセマンティック解析モデルによりオフライン認識テキストを解析し、オフライン認識テキストの解析セマンティック、即ちオフライン認識テキストのオフライン解析結果を得る。
例示的に、車載機器にセマンティック解析モデルを配置する前に、セマンティック解析モデルのセマンティック解析の正確性を高めるように、車載機器又はサーバは、予め収集されたトレーニングデータに基づいてセマンティック解析モデルをトレーニングすることができる。トレーニングデータは、テキストデータベースにおける全てのテキストを含み、トレーニング時に、テキストデータベースにおける全てのテキストに基づいてセマンティック解析モデルをトレーニングし、セマンティック解析モデルによりテキストデータベースにおける各テキストにセマンティック解析を行う場合の正確性が少なくとも保証される。
更に、テキストデータベースにおける全てのテキストに基づいてセマンティック解析モデルをトレーニングした後、またトレーニング後のセマンティック解析モデルによりテキストデータベースにおける全てのテキストを解析し、テキストデータベースにおける、セマンティック解析モデルにより正確に解析できないテキストを、テキストデータベースから削除し、セマンティック解析モデルによりテキストデータベースにおけるテキストを解析する場合の100%の正確性を確保する。
ステップS504では、オフライン解析結果に基づき、車載機器を制御する。
ステップS504の実現プロセスは、前述した実施例を参照することができるので、繰り返して説明しない。
本実施例では、オフライン認識とオンライン認識を同時に行うとともに、テキストデータベースにオフライン認識テキストが含まれている場合、ローカルに配置されたセマンティック解析モデルによりオフライン認識テキストを解析し、セマンティック解析モデルのトレーニングデータは、テキストデータベースにおけるテキストを含む。したがって、テキストデータベースにおけるテキストに対する解析の正確性が高いセマンティック解析モデルにより、オフライン手段によるセマンティック解析の正確性を確保し、音声処理の正確性を確保すると同時に、音声処理の効率を高め、更に車載機器の音声応答の正確性を確保すると同時に、車載機器の音声応答効率を高めることを実現する。
いくつかの実施例において、テキストデータベースは、自動車工場で予め設定されたテキストを含むことができ、例えば自動車工場でいくつかの疑問文、平叙文及び/又はキーワードをテキストデータベースにおけるテキストとして予め設定しており、且つ各テキストに対応するセマンティック及び各セマンティックに対応する操作を設定しておくことができる。したがって、オフライン手段により自動車工場で予め設定されたテキストに認識と解析を正確に行うことができる。
いくつかの実施例において、テキストデータベースは、自動車工場で予め設定されたテキストを含む以外、予め収集されたユーザ履歴データに基づいてテキストデータベースを構築することもでき、このようにテキストデータベースがユーザの音声習慣をカバーし、ユーザが頻繁に使用する音声内容にオフライン認識と解析を正確に行うことができる。
テキストデータベースの構築は、車載機器で行われてもよい。又は、テキストデータベースの構築は、サーバで行われてもよい。サーバでテキストデータベースを構築するプロセスで、更にテキストデータベースにおける複数のテキストと解析セマンティックとのマッピング関係を構築し、複数のテキストと解析セマンティックとのマッピング関係を含むテキストデータベースを車載機器に送信することもでき、又は、サーバは、テキストデータベースに基づいてセマンティック解析モデルをトレーニングし、テキストデータベース及びセマンティック解析モデルを車載機器に送信することができる。
テキストデータベースの構築及びセマンティック解析モデルのトレーニングがサーバで実行される場合を例とし、図6は、本願の第5の実施例による模式図である。図6に示すように、テキストデータベース及びセマンティック解析モデルは、下記プロセスによって得られる。
ステップS601では、予め収集されたユーザ履歴データを取得する。
車載機器は、ユーザ履歴データを予め収集して記憶し、ユーザ履歴データは、過去の期間でユーザが音声で入力した複数のテキストを含む。過去の期間は、現在の時点の前の期間であり、例えば過去の1か月、過去の半月である。
例示的に、車載機器の記憶スペースが限られているため、車載機器は、ユーザが最近の1か月以内又は最近の一週間以内で入力したユーザ音声に対応するテキストを記録することができるが、最近の1か月以内又は最近の一週間以内を超えたテキストは、削除又は上書きされることができる。
ステップS602では、ユーザ履歴データをサーバに送信する。
一例において、車載機器は、ユーザ履歴データをサーバに能動的に送信することができ、例えば所定の時間ごとにサーバにユーザ履歴データを一回送信する。
他例において、車載機器がサーバのデータ取得リクエストを受信した後、予め収集されたユーザ履歴データをサーバに送信する。
他例において、サーバ自身が異なる車載機器のユーザ履歴データを収集することができ、例えばオンライン認識時に車載機器から送信されたユーザ音声に対応するテキストを格納する。
ステップS603では、サーバから返信されたテキストデータベース及びセマンティック解析モデルを受信する。
具体的には、サーバがユーザ履歴データを受信した後、サーバにテキストデータベースが存在しない場合、ユーザ履歴データに基づいてテキストデータベースを構築し、サーバにテキストデータベースが存在する場合、ユーザ履歴データに基づいてテキストデータベースを更新する。サーバは、構築又は更新されたテキストデータベースに基づき、セマンティック解析モデルをトレーニングする。
サーバがテキストデータベースを構築又は更新する際に、1つの可能な実施形態としては、ユーザ履歴データにおける繰り返されるテキストをスクリーニングし、即ち繰り返されるテキストをスクリーニングしてユーザ履歴データから削除し、スクリーニング後のユーザ履歴データの各テキストによりテキストデータベースを構築し、又はスクリーニング後のユーザ履歴データとテキストデータベースとを合わせて、テキストデータベースを更新する。
サーバがテキストデータベースを構築又は更新する際に、もう1つの可能な実施形態としては、ユーザ履歴データにおけるユーザ履歴データでの各テキストの出現頻度又は割合を統計し、ユーザ履歴データにおける各テキストの出現頻度及び/又は割合に応じて、ユーザ履歴データにおける複数のテキストをスクリーニングし、ユーザ履歴データにおけるスクリーニング後のテキストに基づき、テキストデータベースを構築又は更新する。
ユーザ履歴データでの各テキストの出現頻度又は割合を得る時、各テキストの出現頻度又は割合の高から低まで順に各テキストをランキングし、その中から出現頻度が第1の閾値以上であるテキスト及び/又は割合が第2の閾値以上であるテキストを取得することができる。
したがって、構築されたテキストデータベースは、ユーザ履歴データにおける出現頻度が第1の閾値以上であるテキストを含み、及び/又はテキストデータベースにおける全てのテキストのユーザ履歴データに対する合計割合が予め設定された第2の閾値以上であり、テキストデータベースに含まれるテキストの合理性が効果的に高められ、テキストデータベースがユーザの最近頻繁に使用する音声内容を網羅することができる。第1の閾値及び第2の閾値は、予め設定された同じ閾値又は異なる閾値であってもよい。
サーバがテキストデータベースを構築又は更新する際に、更なる可能な実施形態としては、予め異なる期間に異なる時間重みを設定し、テキストデータベースを構築又は更新する際に、ユーザ履歴データにおける各テキストの時間重みを決定し、ユーザ履歴データにおける各テキストに対して、テキストの時間重みとテキストのユーザ履歴データでの出現回数との積に基づき、ユーザ履歴データにおける各テキストのテキスト重みを計算し、テキスト重みの高から低まで順にユーザ履歴データから予め設定された数のテキストを選んでテキストデータベースを構築又は更新するために使用され、又は、ユーザ履歴データからテキスト重みが予め設定された重み閾値より大きいテキストを選んでテキストデータベースを構築又は更新するために使用される。したがって、テキストの出現回数及び/又は出現頻度を考慮するだけでなく、テキストの出現時間も考慮するため、テキストデータベースに含まれるテキストの合理性が高められ、テキストデータベースによりユーザが最近頻繁に使用する音声内容にオフライン認識と解析を正確に行うことができる。
上記各例におけるテキストデータベースの構築及び/又は更新プロセスは、車載機器で実行されてもよく、車載機器は、構築及び/又は更新されたテキストデータベースをサーバに送信し、サーバは、テキストデータベースに基づいてセマンティック解析モデルをトレーニングし、更にセマンティック解析モデルを車載機器に送信する。
図7は、本願の第6の実施例による模式図である。図7に示すように、車載機器の音声処理方法は、以下のステップを含む。
ステップS701では、ユーザ音声を取得する。
ステップS701の実現プロセスは、前述した実施例を参照することができるので、繰り返して説明しない。
ステップS702では、車載機器の信号強度を取得する。
車載機器の信号強度は、車載機器のネットワーク信号又は通信信号の信号強度を指す。例えば、車載機器とサーバとの間のデータ伝送速度により車載機器の信号強度を評価することができ、更に車載機器における予め設定された信号検出ソフトウェア又はハードウェアにより車載機器の信号強度を検出することもできる。
ステップS703では、車載機器の信号強度が予め設定された強度閾値より大きいか否かを決定する。
具体的には、信号強度が予め設定された強度閾値以下である場合、現在の車載シーンが弱いネットワークシーンに属することを示し、ユーザ音声に対するオンライン認識の効率が高くないため、ステップS704を実行する。信号強度が強度閾値より大きい場合、現在の車載シーンのネットワーク信号が良好であることを示し、ユーザ音声に対するオンライン認識の効率が高いため、ステップS709を実行する。
ステップS704では、ユーザ音声にオフライン認識を行い、オフライン認識テキストを得て、且つユーザ音声をサーバに送信する。
ステップS705では、ローカルのテキストデータベースにオフライン認識テキストとマッチングするテキストが存在するか否かを決定する。
具体的には、ローカルのテキストデータベースにオフライン認識テキストとマッチングするテキストが存在する場合、ステップS706を実行し、そうでなければ、ステップS708を実行する。
ステップS706では、オフライン認識テキストを解析し、ユーザ音声のオフライン解析結果を得る。
ステップS707では、オフライン解析結果に基づき、車載機器を制御する。
ステップS708では、サーバから返信されたユーザ音声のオンライン解析結果を待つ。
具体的には、サーバから返信されたユーザ音声のオンライン解析結果を待ち、サーバから返信されたユーザ音声のオンライン解析結果を受信した場合、ステップS710を実行する。
ステップS704~S708の実現プロセスは、前述した実施例を参照することができるので、繰り返して説明しない。
ステップS709では、ユーザ音声をサーバに送信し、ユーザ音声にオンラインの音声認識とセマンティック解析を行う。
具体的には、車載機器の信号強度が強度閾値より大きい場合、ユーザ音声をサーバに直接送信し、ユーザ音声にオンラインの音声認識とセマンティック解析を行うとともに、ステップS710を実行し、オフライン認識を行う必要がない。
ステップS710では、サーバから返信されたオンライン解析結果を受信した後、オンライン解析結果に基づき、車載機器を制御する。
ステップS710の実現プロセスは、前述した実施例を参照することができるので、繰り返して説明しない。
本実施例では、ユーザ音声に認識と解析を行う前に、車載機器の信号強度を取得し、現在のシーンが弱いネットワークシーンであるか否かを判断することで、弱いネットワークシーンのみでオフライン認識とオンライン認識を同時に行い、そうでなければ、オンライン認識を直接行う。したがって、弱いネットワークシーンでオフライン認識とオンライン認識を同時に行うことにより、ユーザ音声に対する処理効率を高め、同時に、できるだけユーザ音声に対する処理の正確性を確保し、更に弱いネットワークシーンで車載機器の音声応答の正確性を確保すると同時に、車載機器の音声応答効率を高める。
図8は、本願の第7の実施例による模式図である。図8に示すように、本実施例により提供される車載機器の音声処理装置は、ユーザ音声を取得するための取得ユニット801と、ユーザ音声にオフライン認識を行い、オフライン認識テキストを得て、且つユーザ音声をサーバに送信して、ユーザ音声にオンラインの音声認識とセマンティック解析を行うための認識ユニット802と、テキストデータベースにオフライン認識テキストとマッチングするテキストが存在する場合、オフライン認識テキストを解析し、ユーザ音声のオフライン解析結果を得るための解析ユニット803と、オフライン解析結果に基づき、車載機器を制御するための制御ユニット804と、を含む。
1つの可能な実現形態において、解析ユニット803は、テキストデータベースにオフライン認識テキストとマッチングするテキストが存在しない場合、サーバから返信されたユーザ音声のオンライン解析結果を待つためのオンライン解析モジュールを更に含み、1つの可能な実現形態において、制御ユニット804は、サーバから返信されたオンライン解析結果を受信した後、オンライン解析結果に基づき、車載機器を制御するための制御サブモジュールを更に含む。
1つの可能な実現形態において、解析ユニット803は、テキストデータベースにおける複数のテキストと解析セマンティックとの予め設定されたマッピング関係から、オフライン認識テキストに関連付けられた解析セマンティックを取得し、オフライン認識テキストに関連付けられた解析セマンティックをオフライン解析結果として決定するための第1のオフライン解析モジュールを含む。
1つの可能な実現形態において、解析ユニット803は、セマンティック解析モデルによりオフライン認識テキストを解析し、オフライン解析結果を得るための第2のオフライン解析モジュールを含み、セマンティック解析モデルのトレーニングプロセスで採用されたトレーニングデータは、テキストデータベースにおけるテキスト含む。
1つの可能な実現形態において、取得ユニット801は、予め収集された、過去の期間でユーザが音声で入力した複数のテキストを含むユーザ履歴データを取得するための履歴データ取得モジュールを含み、装置は、ユーザ履歴データをサーバに送信するための送信ユニットと、サーバから返信されたテキストデータベース及びセマンティック解析モデルを受信するための受信ユニットと、を更に含む。
1つの可能な実現形態において、取得ユニット801は、予め収集された、過去の期間でユーザが入力した音声を認識して得られた複数のテキストを含むユーザ履歴データを取得するための履歴データ取得モジュールを含み、装置は、ユーザ履歴データにおける各テキストの出現頻度及び/又は割合に応じて、ユーザ履歴データにおける複数のテキストをスクリーニングし、ユーザ履歴データにおけるスクリーニング後のテキストに基づき、テキストデータベースを得るためのデータ処理ユニットを更に含み、テキストデータベースは、ユーザ履歴データにおける出現頻度が予め設定された第1の閾値以上であるテキストを含み、及び/又はテキストデータベースにおける全てのテキストのユーザ履歴データに対する合計割合が予め設定された第2の閾値以上である。
1つの可能な実現形態において、取得ユニット801は、車載機器の信号強度を取得するための信号取得モジュールを含み、認識ユニット802は、信号強度が予め設定された強度閾値以下である場合、ユーザ音声にオフライン認識を行い、オフライン認識テキストを得て、且つユーザ音声をサーバに送信するための第1の認識サブモジュールを含む。
1つの可能な実現形態において、認識ユニット802は、信号強度が強度閾値より大きい場合、ユーザ音声をサーバに送信し、ユーザ音声にオンラインの音声認識とセマンティック解析を行うための第2の認識サブモジュールを更に含み、制御ユニット804は、サーバから返信されたオンライン解析結果を受信した後、オンライン解析結果に基づき、車載機器を制御するための制御サブユニットを含む。
図8で提供された車載機器の音声処理装置は、前述した対応する方法の実施例を実行することができ、その実現原理及び技術的効果が類似するため、ここで繰り返して説明しない。
本願の実施例によれば、本願は、電子機器及び読み取り可能な記憶媒体を更に提供する。
本願の実施例によれば、本願は、コンピュータプログラムを更に提供し、コンピュータプログラムは読み取り可能な記憶媒体に記憶されており、電子機器の少なくとも1つのプロセッサは、読み取り可能な記憶媒体からコンピュータプログラムを読み取ることができ、少なくとも1つのプロセッサは、電子機器に上記何れか1つの実施例により提供される技術案を実行させるように、コンピュータプログラムを実行する。
図9は、本願の実施例を実施するために適用可能な例示的な電子機器900を示す模式的なブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタル処理、セルラ電話、スマートフォン、ウェアラブルデバイス、他の類似するコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本願の実施を制限することを意図したものではない。
図9に示すように、電子機器900は、リードオンリーメモリ(ROM)902に記憶されたコンピュータプログラム又は記憶ユニット908からランダムアクセスメモリ(RAM)903にロードされたコンピュータプログラムに基づき、各種の適切な動作及び処理を実行することができるコンピューティングユニット901を含む。RAM 903には、機器900の操作に必要な各種のプログラム及びデータを記憶することもできる。コンピューティングユニット901、ROM 902及びRAM 903は、バス904を介して互いに接続される。入力/出力(I/O)インタフェース905もバス904に接続される。
機器900における複数のコンポーネントは、I/Oインタフェース905に接続され、キーボード、マウスなどの入力ユニット906と、様々なタイプのディスプレイ、スピーカなどの出力ユニット907と、磁気ディスク、光学ディスクなどの記憶ユニット908と、ネットワークカード、モデム、無線通信送受信機などの通信ユニット909と、を含む。通信ユニット909によって、機器900がインターネットのようなコンピュータネットワーク及び/又は各種の電気通信網を介して他の機器と情報/データを交換可能になる。
コンピューティングユニット901は、各種の処理及びコンピューティング能力を有する汎用及び/又は専用処理部品であり得る。コンピューティングユニット901のいくつかの例として、中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、各種の専用の人工知能(AI)コンピューティングチップ、機器学習モデルアルゴリズムを実行する各種のコンピューティングユニット、デジタル信号プロセッサ(DSP)、及び任意の適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。コンピューティングユニット901は、以上に記載された車載機器の音声処理方法などの各方法及び処理を実行する。例えば、いくつかの実施例において、車載機器の音声処理方法は、コンピュータソフトウェアプログラムとして実現可能であり、記憶ユニット908のような機器読み取り可能な媒体に有形的に含まれる。いくつかの実施例において、コンピュータプログラムの一部又は全部は、ROM 902及び/又は通信ユニット909を介して機器900にロード及び/又はインストールされることができる。コンピュータプログラムがRAM 903にロードされてコンピューティングユニット901によって実行される時、以上に記載された車載機器の音声処理方法の1つ又は複数のステップを実行することができる。選択可能に、他の実施例において、コンピューティングユニット901は、他の任意の適切な手段により(例えば、ファームウェアにより)車載機器の音声処理方法を実行するように配置されてもよい。
本明細書において、以上に記載されたシステム及び技術の各種の実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途用標準品(ASSP)、システムオンチップのシステム(SOC)、複雑なプログラマブル論理デバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施され、当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラム可能なシステムで実行及び/又は解釈されることができ、当該プログラマブルプロセッサは、専用又は汎用のプログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令を当該記憶システム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送することができる。
本開示の方法を実施するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせでプログラミングすることができる。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ又は他のプログラム可能なデータ処理装置のプロセッサ又はコントローラに提供されることができ、プログラムコードがプロセッサ又はコントローラによって実行される時に、フローチャート及び/又はブロック図に規定された機能/操作が実施される。プログラムコードは、完全に機器で実行されてもよく、部分的に機器で実行されてもよく、独立したソフトウェアパッケージとして部分的に機器で実行されるとともに部分的に遠隔機器で実行されてもよく、又は完全に遠隔機器又はサーバで実行されてもよい。
本開示の文脈において、機器読み取り可能な媒体は、有形的媒体であってよく、命令実行システム、装置又は機器に使用されるか、或いは命令実行システム、装置又は機器と組み合わせて使用されるプログラムを含んだり、記憶したりすることができる。機器読み取り可能な媒体は、機器読み取り可能な信号媒体又は機器読み取り可能な記憶媒体であり得る。機器読み取り可能な媒体は、電子、磁性、光学、電磁、赤外、又は半導体のシステム、装置又は機器、又は上記内容の任意の適切な組み合わせを含むことができるが、これらに限定されない。機器読み取り可能な記憶媒体のより具体的な例は、1つ又は複数のワイヤに基づく電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスクリードオンリーメモリ(CD-ROM)、光学式記憶機器、磁気記憶機器、又は上記内容の任意の適切な組み合わせを含む。
ユーザとのインタラクションを提供するために、コンピュータ上で、ここで説明されているシステム及び技術を実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置も、ユーザとのインタラクションを提供することができ、例えば、ユーザに提供されるフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形態(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータであり、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションすることができる)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットとを含む。
コンピュータシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、かつ互いにクライアント-サーバの関係を有するコンピュータプログラムによって、クライアントとサーバとの関係が生成される。サーバは、クラウドサーバであってもよく、クラウドコンピューティングサーバ又はクラウド主体とも呼ばれ、クラウドコンピューティングサービス体系におけるホスト製品であり、従来の物理ホスト及び仮想プライベートサーバ(「Virtual Private Server」,「VPS」と略称される)において、管理難度が高く、サービス拡張性が弱いという欠陥を解決する。サーバは、分散型システムのサーバであってもよく、又はブロックチェーンを組み合わせたサーバであってもよい。
上記に示される様々な形態のフローを使用して、ステップを並べ替え、追加、又は削除することができる。例えば、本願に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本願で開示されている技術案が所望の結果を実現することができれば、本明細書では限定しない。
上記の具体的な実施形態は、本願の保護範囲を制限するものではない。当業者は、設計要件と他の要因に基づいて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。本願の精神と原則内で行われる任意の修正、同等の置換、及び改善などは、いずれも本願の保護範囲内に含まれるべきである。

Claims (20)

  1. ユーザ音声を取得することと、
    前記ユーザ音声にオフライン認識を行い、オフライン認識テキストを得て、且つ前記ユーザ音声をサーバに送信して、前記ユーザ音声にオンラインの音声認識とセマンティック解析を行うことと、
    ローカルのテキストデータベースに前記オフライン認識テキストとマッチングするテキストが存在する場合、前記オフライン認識テキストを解析し、前記ユーザ音声のオフライン解析結果を得ることと、
    前記オフライン解析結果に基づき、車載機器を制御することと、
    を含む車載機器の音声処理方法。
  2. 前記テキストデータベースに前記オフライン認識テキストとマッチングするテキストが存在しない場合、前記サーバから返信された前記ユーザ音声のオンライン解析結果を待つことと、
    前記サーバから返信されたオンライン解析結果を受信した後、前記オンライン解析結果に基づき、車載機器を制御することと、を更に含む、請求項1に記載の車載機器の音声処理方法。
  3. 前記オフライン認識テキストを解析し、前記ユーザ音声のオフライン解析結果を得ることは、
    前記テキストデータベースにおける複数のテキストと解析セマンティックとの予め設定されたマッピング関係から、前記オフライン認識テキストに関連付けられた解析セマンティックを取得することと、
    前記オフライン認識テキストに関連付けられた前記解析セマンティックを前記オフライン解析結果として決定することと、を含む、請求項1に記載の車載機器の音声処理方法。
  4. 前記オフライン認識テキストを解析し、前記ユーザ音声のオフライン解析結果を得ることは、
    セマンティック解析モデルにより前記オフライン認識テキストを解析し、前記オフライン解析結果を得ることを含み、前記セマンティック解析モデルのトレーニングプロセスで採用されたトレーニングデータは、前記テキストデータベースにおけるテキストを含む、請求項1に記載の車載機器の音声処理方法。
  5. 予め収集された、過去の期間でユーザが音声で入力した複数のテキストを含むユーザ履歴データを取得することと、
    前記ユーザ履歴データを前記サーバに送信することと、
    前記サーバから返信された前記テキストデータベース及び前記セマンティック解析モデルを受信することと、を更に含む、請求項4に記載の車載機器の音声処理方法。
  6. 予め収集された、過去の期間でユーザが入力した音声を認識して得られた複数のテキストを含むユーザ履歴データを取得することと、
    前記ユーザ履歴データにおける各テキストの出現頻度及び/又は割合に応じて、前記ユーザ履歴データにおける複数のテキストをスクリーニングすることと、
    前記ユーザ履歴データにおけるスクリーニング後のテキストに基づき、前記テキストデータベースを得ることと、を更に含み、
    前記テキストデータベースは、前記ユーザ履歴データにおける出現頻度が予め設定された第1の閾値以上であるテキストを含み、及び/又は前記テキストデータベースにおける全てのテキストの前記ユーザ履歴データに対する合計割合が予め設定された第2の閾値以上である、請求項1~4の何れか一項に記載の車載機器の音声処理方法。
  7. 前記車載機器の信号強度を取得することを更に含み、
    前記ユーザ音声にオフライン認識を行い、オフライン認識テキストを得て、且つ前記ユーザ音声をサーバに送信することは、
    前記信号強度が予め設定された強度閾値以下である場合、前記ユーザ音声にオフライン認識を行い、前記オフライン認識テキストを得て、且つ前記ユーザ音声を前記サーバに送信することを含む、請求項1~4の何れか一項に記載の車載機器の音声処理方法。
  8. 前記信号強度が前記強度閾値よりも大きい場合、前記ユーザ音声を前記サーバに送信して、前記ユーザ音声にオンラインの音声認識とセマンティック解析を行うことと、
    前記サーバから返信されたオンライン解析結果を受信した後、前記オンライン解析結果に基づき、車載機器を制御することと、を更に含む、請求項7に記載の車載機器の音声処理方法。
  9. ユーザ音声を取得するための取得ユニットと、
    前記ユーザ音声にオフライン認識を行い、オフライン認識テキストを得て、且つ前記ユーザ音声をサーバに送信して、前記ユーザ音声にオンラインの音声認識とセマンティック解析を行うための認識ユニットと、
    テキストデータベースに前記オフライン認識テキストとマッチングするテキストが存在する場合、前記オフライン認識テキストを解析し、前記ユーザ音声のオフライン解析結果を得るための解析ユニットと、
    前記オフライン解析結果に基づき、車載機器を制御するための制御ユニットと、
    を含む、車載機器の音声処理装置。
  10. 前記解析ユニットは、
    前記テキストデータベースに前記オフライン認識テキストとマッチングするテキストが存在しない場合、前記サーバから返信された前記ユーザ音声のオンライン解析結果を待つためのオンライン解析モジュールを更に含み、
    前記制御ユニットは、
    前記サーバから返信された前記オンライン解析結果を受信した後、前記オンライン解析結果に基づき、車載機器を制御するための制御サブモジュールを更に含む、請求項9に記載の車載機器の音声処理装置。
  11. 前記解析ユニットは、
    前記テキストデータベースにおける複数のテキストと解析セマンティックとの予め設定されたマッピング関係から、前記オフライン認識テキストに関連付けられた解析セマンティックを取得し、前記オフライン認識テキストに関連付けられた前記解析セマンティックを前記オフライン解析結果として決定するための第1のオフライン解析モジュールを含む、請求項9に記載の車載機器の音声処理装置。
  12. 前記解析ユニットは、
    セマンティック解析モデルにより前記オフライン認識テキストを解析し、前記オフライン解析結果を得るための第2のオフライン解析モジュールを含み、前記セマンティック解析モデルのトレーニングプロセスで採用されたトレーニングデータは、前記テキストデータベースにおけるテキストを含む、請求項9に記載の車載機器の音声処理装置。
  13. 前記取得ユニットは、
    予め収集された、過去の期間でユーザが音声で入力した複数のテキストを含むユーザ履歴データを取得するための履歴データ取得モジュールを含み、
    前記車載機器の音声処理装置は、
    前記ユーザ履歴データを前記サーバに送信するための送信ユニットと、
    前記サーバから返信された前記テキストデータベース及び前記セマンティック解析モデルを受信するための受信ユニットと、を更に含む、請求項12に記載の車載機器の音声処理装置。
  14. 前記取得ユニットは、
    予め収集された、過去の期間でユーザが入力した音声を認識して得られた複数のテキストを含むユーザ履歴データを取得するための履歴データ取得モジュールを含み、
    前記車載機器の音声処理装置は、
    前記ユーザ履歴データにおける各テキストの出現頻度及び/又は割合に応じて、前記ユーザ履歴データにおける複数のテキストをスクリーニングし、前記ユーザ履歴データにおけるスクリーニング後のテキストに基づき、前記テキストデータベースを得るためのデータ処理ユニットを更に含み、
    前記テキストデータベースは、前記ユーザ履歴データにおける出現頻度が予め設定された第1の閾値以上であるテキストを含み、及び/又は前記テキストデータベースにおける全てのテキストの前記ユーザ履歴データに対する合計割合が予め設定された第2の閾値以上である、請求項9~12の何れか一項に記載の車載機器の音声処理装置。
  15. 前記取得ユニットは、
    前記車載機器の信号強度を取得するための信号取得モジュールを含み、
    前記認識ユニットは、
    前記信号強度が予め設定された強度閾値以下である場合、前記ユーザ音声にオフライン認識を行い、前記オフライン認識テキストを得て、且つ前記ユーザ音声を前記サーバに送信するための第1の認識サブモジュールを含む、請求項9~12の何れか一項に記載の車載機器の音声処理装置。
  16. 前記認識ユニットは、
    前記信号強度が前記強度閾値よりも大きい場合、前記ユーザ音声を前記サーバに送信して、前記ユーザ音声にオンラインの音声認識とセマンティック解析を行うための第2の認識サブモジュールを更に含み、
    前記制御ユニットは、
    前記サーバから返信されたオンライン解析結果を受信した後、前記オンライン解析結果に基づき、車載機器を制御するための制御サブユニットを含む、請求項15に記載の車載機器の音声処理装置。
  17. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含む電子機器であって、
    前記メモリには、前記少なくとも1つのプロセッサにより実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが請求項1~8の何れか一項に記載の車載機器の音声処理方法を実行できるように、前記少なくとも1つのプロセッサにより実行される、電子機器。
  18. コンピュータ命令が記憶された非一時的なコンピュータ読み取り可能な記憶媒体であって、前記コンピュータ命令は、コンピュータに請求項1~8の何れか一項に記載の車載機器の音声処理方法を実行させるために用いられる、非一時的なコンピュータ読み取り可能な記憶媒体。
  19. コンピュータプログラムであって、前記コンピュータプログラムがプロセッサによって実行される際に、請求項1~8の何れか一項に記載の車載機器の音声処理方法が実現される、コンピュータプログラム。
  20. 車体を含む車両であって、前記車体の中央制御機器は、請求項17に記載の電子機器を含む、車両。
JP2021202644A 2020-12-22 2021-12-14 車載機器の音声処理方法、装置、機器及び記憶媒体 Active JP7213943B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011530797.8A CN112509585A (zh) 2020-12-22 2020-12-22 车载设备的语音处理方法、装置、设备及存储介质
CN202011530797.8 2020-12-22

Publications (2)

Publication Number Publication Date
JP2022037100A true JP2022037100A (ja) 2022-03-08
JP7213943B2 JP7213943B2 (ja) 2023-01-27

Family

ID=74922972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021202644A Active JP7213943B2 (ja) 2020-12-22 2021-12-14 車載機器の音声処理方法、装置、機器及び記憶媒体

Country Status (5)

Country Link
US (1) US20210343287A1 (ja)
EP (1) EP3958256B1 (ja)
JP (1) JP7213943B2 (ja)
KR (1) KR20210098880A (ja)
CN (1) CN112509585A (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113257245A (zh) * 2021-06-17 2021-08-13 智道网联科技(北京)有限公司 车载终端的巡检方法、装置及车载终端、存储介质
CN114327041B (zh) * 2021-11-26 2022-09-27 北京百度网讯科技有限公司 智能座舱的多模态交互方法、系统及具有其的智能座舱
CN114724558A (zh) * 2022-03-22 2022-07-08 青岛海尔空调器有限总公司 用于空调器语音控制的方法及装置、空调器、存储介质
CN115410579B (zh) * 2022-10-28 2023-03-31 广州小鹏汽车科技有限公司 语音交互方法、语音交互装置、车辆和可读存储介质
CN115662430B (zh) * 2022-10-28 2024-03-29 阿波罗智联(北京)科技有限公司 输入数据解析方法、装置、电子设备和存储介质
CN115906874A (zh) * 2023-03-08 2023-04-04 小米汽车科技有限公司 语义解析方法、系统、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106384594A (zh) * 2016-11-04 2017-02-08 湖南海翼电子商务股份有限公司 语音识别的车载终端及其方法
CN109961792A (zh) * 2019-03-04 2019-07-02 百度在线网络技术(北京)有限公司 用于识别语音的方法和装置
CN111145757A (zh) * 2020-02-18 2020-05-12 上海华镇电子科技有限公司 车载语音智能蓝牙集成装置和方法
US20200312324A1 (en) * 2019-03-28 2020-10-01 Cerence Operating Company Hybrid arbitration System

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7184539B2 (en) * 2003-04-29 2007-02-27 International Business Machines Corporation Automated call center transcription services
US7826945B2 (en) * 2005-07-01 2010-11-02 You Zhang Automobile speech-recognition interface
WO2008084575A1 (ja) * 2006-12-28 2008-07-17 Mitsubishi Electric Corporation 車載用音声認識装置
WO2009073806A2 (en) * 2007-12-05 2009-06-11 Johnson Controls Technology Company Vehicle user interface systems and methods
CA2747153A1 (en) * 2011-07-19 2013-01-19 Suleman Kaheer Natural language processing dialog system for obtaining goods, services or information
CN102708865A (zh) * 2012-04-25 2012-10-03 北京车音网科技有限公司 语音识别方法、装置及系统
US10354650B2 (en) * 2012-06-26 2019-07-16 Google Llc Recognizing speech with mixed speech recognition models to generate transcriptions
US9672822B2 (en) * 2013-02-22 2017-06-06 Next It Corporation Interaction with a portion of a content item through a virtual assistant
CN103247291B (zh) * 2013-05-07 2016-01-13 华为终端有限公司 一种语音识别设备的更新方法、装置及系统
CN103730119B (zh) * 2013-12-18 2017-01-11 惠州市车仆电子科技有限公司 车载人机语音交互系统
US10832664B2 (en) * 2016-08-19 2020-11-10 Google Llc Automated speech recognition using language models that selectively use domain-specific model components
US20180075842A1 (en) * 2016-09-14 2018-03-15 GM Global Technology Operations LLC Remote speech recognition at a vehicle
US10266182B2 (en) * 2017-01-10 2019-04-23 Ford Global Technologies, Llc Autonomous-vehicle-control system and method incorporating occupant preferences
CN108399919A (zh) * 2017-02-06 2018-08-14 中兴通讯股份有限公司 一种语义识别方法和装置
CN107146617A (zh) * 2017-06-15 2017-09-08 成都启英泰伦科技有限公司 一种新型语音识别设备及方法
CN107274902A (zh) * 2017-08-15 2017-10-20 深圳诺欧博智能科技有限公司 用于家电的语音控制装置和方法
CN111094924A (zh) * 2017-09-15 2020-05-01 宝马股份公司 用于执行基于语音的人机交互的数据处理装置和方法
CN110060668A (zh) * 2018-02-02 2019-07-26 上海华镇电子科技有限公司 一种语音识别控制中减少识别延时的系统及方法
CN108183844B (zh) * 2018-02-06 2020-09-08 四川虹美智能科技有限公司 一种智能家电语音控制方法、装置及系统
US20190311713A1 (en) * 2018-04-05 2019-10-10 GM Global Technology Operations LLC System and method to fulfill a speech request
CN111312253A (zh) * 2018-12-11 2020-06-19 青岛海尔洗衣机有限公司 语音控制方法、云端服务器及终端设备
CN111354363A (zh) * 2020-02-21 2020-06-30 镁佳(北京)科技有限公司 车载语音识别方法、装置、可读存储介质及电子设备
CN111292750A (zh) * 2020-03-09 2020-06-16 成都启英泰伦科技有限公司 一种基于云端改善的本地语音识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106384594A (zh) * 2016-11-04 2017-02-08 湖南海翼电子商务股份有限公司 语音识别的车载终端及其方法
CN109961792A (zh) * 2019-03-04 2019-07-02 百度在线网络技术(北京)有限公司 用于识别语音的方法和装置
US20200312324A1 (en) * 2019-03-28 2020-10-01 Cerence Operating Company Hybrid arbitration System
CN111145757A (zh) * 2020-02-18 2020-05-12 上海华镇电子科技有限公司 车载语音智能蓝牙集成装置和方法

Also Published As

Publication number Publication date
EP3958256A3 (en) 2022-06-15
EP3958256B1 (en) 2023-11-01
KR20210098880A (ko) 2021-08-11
EP3958256A2 (en) 2022-02-23
US20210343287A1 (en) 2021-11-04
JP7213943B2 (ja) 2023-01-27
CN112509585A (zh) 2021-03-16

Similar Documents

Publication Publication Date Title
JP2022037100A (ja) 車載機器の音声処理方法、装置、機器及び記憶媒体
US11435980B2 (en) System for processing user utterance and controlling method thereof
US10522136B2 (en) Method and device for training acoustic model, computer device and storage medium
CN109243432B (zh) 话音处理方法以及支持该话音处理方法的电子设备
CN109961792A (zh) 用于识别语音的方法和装置
CN107134279A (zh) 一种语音唤醒方法、装置、终端和存储介质
US11830482B2 (en) Method and apparatus for speech interaction, and computer storage medium
CN108055617B (zh) 一种麦克风的唤醒方法、装置、终端设备及存储介质
CN112735418B (zh) 一种语音交互的处理方法、装置、终端及存储介质
KR20180113075A (ko) 프레임워크를 이용한 자연어 표현 생성 방법 및 장치
WO2019232980A1 (zh) 节点配置方法及装置、计算机可读存储介质和电子设备
KR20180109631A (ko) 전자 장치 및 전자 장치의 기능 실행 방법
CN111312233A (zh) 一种语音数据的识别方法、装置及系统
CN111681647A (zh) 用于识别词槽的方法、装置、设备以及存储介质
CN112466289A (zh) 语音指令的识别方法、装置、语音设备和存储介质
CN111612178A (zh) 一种模型的诊断方法及相关设备
CN116235246A (zh) 基于个性化词汇和用户简档的语音响应系统-个性化语言学ai引擎
CN107478243A (zh) 导航方法、装置、设备及计算机可读存储介质
CN114333774A (zh) 语音识别方法、装置、计算机设备及存储介质
US20230005490A1 (en) Packet loss recovery method for audio data packet, electronic device and storage medium
EP4030424A2 (en) Method and apparatus of processing voice for vehicle, electronic device and medium
US20230085458A1 (en) Dialog data generating
CN113223500B (zh) 语音识别方法、训练语音识别模型的方法及对应装置
CN114220422A (zh) 系统构建、信息录制、模型训练方法、装置、设备及介质
CN113539272A (zh) 一种语音识别方法、装置、存储介质和电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230117

R150 Certificate of patent or registration of utility model

Ref document number: 7213943

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150