JP2023179631A - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP2023179631A
JP2023179631A JP2023174059A JP2023174059A JP2023179631A JP 2023179631 A JP2023179631 A JP 2023179631A JP 2023174059 A JP2023174059 A JP 2023174059A JP 2023174059 A JP2023174059 A JP 2023174059A JP 2023179631 A JP2023179631 A JP 2023179631A
Authority
JP
Japan
Prior art keywords
information
voice recognition
voice
speech recognition
recognition result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023174059A
Other languages
English (en)
Inventor
雄一 田村
Yuichi Tamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2023174059A priority Critical patent/JP2023179631A/ja
Publication of JP2023179631A publication Critical patent/JP2023179631A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)

Abstract

Figure 2023179631000001
【課題】適切な認識結果を得ることができる情報処理装置を提供する。
【解決手段】カーナビゲーションシステム10のCPU13が、利用者が発話した音声を音声認識する音声認識エンジン12の認識結果と、音圧情報、スコア、アルゴリズム判定からなるパラメータと、を取得し、さらに、同じ音声を音声認識したスマートフォン20の音声認識エンジン22の認識結果と、音圧情報、スコア、アルゴリズム判定からなるパラメータと、を近距離無線通信部15を介して取得する。そして、音声認識エンジン12のパラメータと音声認識エンジン22のパラメータに基づいて、音声認識エンジン12の認識結果と音声認識エンジン22の認識結果のいずれか一方を選択してコマンドとして実行させる。
【選択図】図2

Description

本発明は、音声認識処理結果に基づいて情報処理を行う情報処理装置に関する。
従来から様々な電子機器において、利用者が発話した音声を認識して、その認識結果に応じた動作を行う機器がある。それらは、機器毎に音声認識処理部のアルゴリズムや辞書等が異なるため、同じ音声であっても機器毎に認識率が異なる。
また、近年はクラウド型の音声認識システムが提案されている。これは、サーバに音声認識エンジンや辞書を備え、複数の端末がそれぞれネットワーク経由でサーバに接続して音声認識処理を依頼し、処理結果を取得するものである。このようなクラウド型の音声認識システムは、サーバに辞書を持つので語彙を非常に多くすることができるとともに高度なアルゴリズムでも処理可能であるといった利点がある。
また、特許文献1には、音声認識の結果を他の電子機器と共有することが開示されている。具体的には、外部機器20へ音声にて入力を行う場合は、携帯情報処理器10から外部機器20へ認識モジュールを送信し、外部機器20は受信した認識モジュールを利用して処理を行う。
特開2003-140690号公報
クラウド型の音声認識ステムは、基本的に会話を前提として認識が行われる。しかしながら、例えばカーナビゲーションシステムでは迂回検索やリルートするといった固有のフレーズを音声操作用のコマンドとして使用することができるが、クラウド型の音声認識ステムは、このような固有な環境で使用されるフレーズを適切に認識させることは困難である。
また、特許文献1に記載の方法では、複数の電子機器で認識結果を共有できるものの、例えば、カーナビゲーションシステムの認識モジュールを他の機器に移動した場合に、その認識モジュールはカーナビゲーションシステム固有の環境に適した認識を行うため、例えば通常の会話の認識をさせた場合に適切な認識結果を得られない場合がある。
そこで、本発明は、上述した問題に鑑み、例えば、適切な認識結果を得ることができる情報処理装置を提供することを課題とする。
上記課題を解決するために、音声を認識する第1音声認識部から第1音声認識結果情報及び第1音声認識処理情報を取得する第1取得部と、前記音声を認識する第2音声認識部から第2音声認識結果情報及び第2音声認識処理情報を取得する第2取得部と、前記第1音声認識処理情報及び前記第2音声認識処理情報に基づき前記第1音声認識結果情報又は前記第2音声認識結果情報のいずれかを選択し、選択された前記第1音声認識結果情報又は前記第2音声認識結果情報に関する処理を処理部に実行させる制御部と、を備えたことを特徴としている。
請求項12に記載の発明は、認識した音声に基づいて処理部に処理を実行させる情報処理装置の制御方法であって、前記音声を認識する第1音声認識部から第1音声認識結果情報及び第1音声認識処理情報を取得する第1取得工程と、前記音声を認識する第2音声認識部から第2音声認識結果情報及び第2音声認識処理情報を取得する第2取得工程と、前記第1音声認識処理情報及び前記第2音声認識処理情報に基づき前記第1音声認識結果情報又は前記第2音声認識結果情報のいずれかを選択し、選択された前記第1音声認識結果情報又は前記第2音声認識結果情報に関する処理を処理部に実行させる制御工程と、を含むことを特徴としている。
請求項13に記載の発明は、請求項12に記載の情報処理方法を、コンピュータにより実行させることを特徴としている。
請求項14に記載の発明は、請求項13に記載の情報処理プログラムを格納したことを特徴としている。
本発明の一実施例にかかるカーナビゲーションシステムの外観斜視図である。 図1に示されたカーナビゲーションシステムとスマートフォンのブロック構成図である。 図1に示されたカーナビゲーションシステムの音声認識動作のフローチャートである。 図3に示されたフローチャートの具体例を説明する表である。 図3に示されたフローチャートの具体例を説明する表である。
以下、本発明の一実施形態にかかる情報処理装置を説明する。本発明の一実施形態にかかる情報処理装置は、第1取得部が、利用者が発話した音声を音声認識する第1音声認識部の音声認識結果である第1音声認識結果情報と、第1音声認識部から第1音声認識結果情報とともに得られる情報である第1音声認識処理情報と、を取得し、第2取得部が、第1音声認識部が認識する音声を音声認識する第2音声認識部の音声認識結果である第2音声認識結果情報と、第2音声認識部から第2音声認識結果情報とともに得られる情報である第2音声認識処理情報と、を取得する。そして、制御部が、第1取得部が取得した第1音声認識処理情報および第2取得部が取得した第2音声認識処理情報に基づいて、第1音声認識結果情報または第2音声認識結果情報のいずれか一方を選択し、当該選択された第1音声認識結果情報または第2音声認識結果情報に基づいた情報処理を処理部に実行させる。このようにすることにより、同じ音声を認識した2つの音声認識部の結果から選択することができるので、単独で音声認識を行う以上の精度で音声認識をすることができる。例えば2つの音声認識部を異なるアルゴリズムや辞書を持ったものとすれば、様々な環境に合った認識結果を得ることができる。したがって、適切な認識結果を得ることができる。
また、制御部は、第1音声認識処理情報が予め定めた第1閾値以上である場合は、第1音声認識結果情報を選択して、該第1音声認識結果情報に基づいた情報処理を処理部に実行させてもよい。このようにすることにより、第1音声認識部の認識結果を利用して、例えばナビゲーションシステムのルート検索やインターネットを利用した店舗等の検索といった様々な情報処理をすることができる。
また、制御部は、第1音声認識処理情報が第1閾値未満かつ、第2音声認識処理情報が予め定めた第2閾値以上である場合は、第2音声認識結果情報を選択して、該第2音声認識結果情報に基づいた情報処理を処理部に実行させてもよい。このようにすることにより、第1音声認識部の認識結果の信頼性が低く適切でない可能性が高い場合は第2音声認識部の結果を利用して、例えばナビゲーションシステムのルート検索やインターネットを利用した店舗等の検索といった様々な情報処理をすることができる。
また、第2取得部は、第2音声認識結果情報に基づいて処理された結果である処理結果情報をさらに取得する。そして、制御部は、第1音声認識処理情報が予め定めた第1閾値未満かつ、第2音声認識処理情報が予め定めた第2閾値以上である場合は、第2音声認識結果情報が所定のコマンド群に含まれているか否かを判断し、含まれている場合は第2音声認識結果情報に基づいた情報処理を処理部に実行させ、含まれていない場合は、第2取得部が取得した処理結果情報に基づいた情報処理を処理部に実行させてもよい。このようにすることにより、第1音声認識部の認識結果が適切でない可能性が高い場合は第2音声認識部の結果を利用することができる。さらに、第2音声認識部の結果が、例えば機器を操作するためのコマンド等の所定のコマンド群に含まれる場合はそのコマンドに沿った動作をさせることができ、また、第2音声認識部の結果が所定のコマンド群に含まれない場合は、第2音声認識部を有する機器等で処理した結果を利用して情報処理をすることができる。
また、制御部は、第1音声認識処理情報が第1閾値未満かつ、第2音声認識処理情報が第2閾値未満である場合は、第1音声認識処理情報および第2音声認識処理情報それぞれに重み付けをした所定の演算を行い、当該演算結果に基づいて第1音声認識結果情報または第2音声認識結果情報を選択してもよい。このようにすることにより、第1閾値および第2閾値で認識結果を選択できない場合は、それぞれの結果に対して使用環境等に基づいた重みづけを行った演算をすることにより第1音声認識結果情報または第2音声認識結果情報のいずれか一方を選択することができる。
また、制御部は、第1音声認識処理情報が第1閾値未満かつ、第2音声認識処理情報が第2閾値未満である場合は、過去の使用履歴に基づいて第1音声認識結果情報または第2音声認識結果情報を選択してもよい。このようにすることにより、第1閾値および第2閾値で認識結果を選択できない場合は、過去の音声認識や検索あるいは操作等に使用されたかといった過去の使用履歴に基づいて第1音声認識結果情報または第2音声認識結果情報のいずれか一方を選択することができる。
また、制御部は、第1音声認識処理情報が第1閾値未満かつ、第2音声認識処理情報が第2閾値未満である場合は、過去の使用状況に基づいて第1音声認識結果情報または第2音声認識結果情報を選択してもよい。このようにすることにより、第1閾値および第2閾値で認識結果を選択できない場合は、時間帯、季節や天候といった過去の使用状況に基づいて第1音声認識結果情報または第2音声認識結果情報のいずれか一方を選択することができる。
また、第1音声認識処理情報および第2音声認識処理情報には、利用者が発話した音声と、第1音声認識結果情報または第2音声認識結果情報との関連の度合いに関する情報である関連度情報を含んでもよい。このようにすることにより、発話音声に基づいた認識結果との関連の度合い、即ち、発話音声と辞書との類似度を示すスコアに基づいて第1音声認識結果情報または第2音声認識結果情報のいずれか一方を選択することができる。
また、第1音声認識部と、第1取得部と、第2取得部と、制御部と、を一体的に備えていてもよい。このようにすることにより、第2音声認識部を有する外部機器等と連携させることで、情報処理装置において適切な認識結果を得ることができる。
また、制御部は、自身が選択した第1音声認識結果情報または第2音声認識結果情報に基づいて第1音声認識部および第2音声認識部に認識結果を学習させてもよい。このようにすることにより、それぞれの音声認識部に認識結果を共有させて以降の音声認識の精度を向上させることができる。
また、利用者が発話した音声がそれぞれ入力される入力部が第1音声認識部および第2音声認識部それぞれに対応して設けられてもよい。このようにすることにより、例えば入力部としてマイクをそれぞれに音声認識部に対応して設けることができ、第1音声認識処理情報や第2音声認識処理情報としてマイクから入力された音声の音圧や音量を取得することができる。
また、本発明の一実施形態にかかる情報処理装置の制御方法は、第1取得工程で、利用者が発話した音声を音声認識する第1音声認識部の音声認識結果である第1音声認識結果情報と、第1音声認識部から第1音声認識結果情報とともに得られる情報である第1音声認識処理情報と、を取得し、第2取得工程で、第1音声認識部が認識する音声を音声認識する第2音声認識部の音声認識結果である第2音声認識結果情報と、第2音声認識部から第2音声認識結果情報とともに得られる情報である第2音声認識処理情報と、を取得する。そして、制御工程で、第1取得工程で取得した第1音声認識処理情報および第2取得工程で取得した第2音声認識処理情報に基づいて、第1音声認識結果情報または第2音声認識結果情報のいずれか一方を選択し、当該選択された第1音声認識結果情報または第2音声認識結果情報に基づいた情報処理を処理部に実行させる。このようにすることにより、同じ音声を認識した2つの音声認識部の結果から選択することができるので、単独で音声認識を行う以上の精度で音声認識をすることができる。例えば2つの音声認識部を異なるアルゴリズムや辞書を持ったものとすれば、様々な環境に合った認識結果を得ることができる。したがって、適切な認識結果を得ることができる。
また、上述した情報処理装置の制御方法をコンピュータにより実行させる情報処理装置の制御プログラムとしてもよい。このようにすることにより、コンピュータを用いて、適切な認識結果を得ることができる。
また、上述した情報処理装置の制御プログラムをコンピュータ読み取り可能な記録媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。
本発明の一実施例にかかる情報処理装置としてのカーナビゲーションシステム10を図1乃至図5を参照して説明する。カーナビゲーションシステム10は、図1に示したように車両のインストルメントパネル100に装着されている。そして、カーナビゲーションシステム10は、例えば助手席101上に置かれている後述するスマートフォン20と無線または有線で接続して通信可能となっている。
図1に示したカーナビゲーションシステム10は、図2に示したように、マイク11と、音声認識エンジン12と、CPU13と、記憶装置14と、近距離無線通信部15と、GPS16と、表示部17と、を備えている。
入力部としてのマイク11は、利用者が発話した音声が入力され、電気信号である音声信号に変換して音声認識エンジン12に出力する。なお、マイク11は、カーナビゲーションシステム10に一体的に設けられていなくてもよく、利用者の近傍、例えば車両であればステアリングコラム等に設けてケーブルや無線等で接続されていてもよい。
第1音声認識部としての音声認識エンジン12は、マイク11から入力された音声信号に基づいて音声認識を行い、その認識した結果情報である単語や単語の組み合わせによるフレーズと、音声信号と自身が有する辞書にある語彙との近似度を示すスコア、自身が有する辞書とに照合度や前後の文脈から推定した候補との適合度等アルゴリズムによる判定の度合いを示すアルゴリズム判定、マイク11から入力された音声信号の音圧情報といったパラメータと、をCPU13に出力する。なお、結果情報は候補として複数あってもよく、その場合は候補ごとにスコア、アルゴリズム判定および音圧情報が出力される。また、音圧情報に代えて音量情報でもよい。また、パラメータは、前記した3つのうち1つ以上であればよいが、スコアが含まれていることが望ましい。即ち、フレーズが第1音声認識結果情報、パラメータが第1音声認識処理情報に相当する。また、スコアは、音声信号と辞書との近似度であるので、音声信号と辞書から検索されたフレーズとの関連の度合いに関する情報である関連度情報である。
なお、音声認識エンジン12に使用される認識アルゴリズムやスコアの算出方法は周知のものでよく特に限定しないが、音声認識エンジン12は、カーナビゲーションシステム10に設けられているので、カーナビゲーションシステム10の音声入力コマンド(操作コマンド)に用いられる「リルート」や「迂回検索」などのフレーズの認識確率が高くなるように調整されたものが好ましい。また、音声認識エンジン12は、カーナビゲーションシステム10が備えていなくてもよく、例えば、従来技術に記載したクラウド型の音声認識システムを利用してもよい。即ち、マイク11から入力された音声信号をサーバ等に送信してサーバで音声認識処理を行い、フレーズとパラメータをカーナビゲーションシステム10が受信するものであってもよい。
制御部、第1取得部、処理部としてのCPU13は、RAMやROM等を備えたマイクロコンピュータとして構成され、カーナビゲーションシステム10の全体制御を司る。そして、CPU13は、カーナビゲーションシステム10が一般的に有する機能、例えば目的地設定、ルート検索、案内、地図表示等の各種処理を実行する。また、CPU13は、音声認識エンジン12が出力したフレーズおよびパラメータを取得する。そして、音声認識エンジン12が出力したパラメータおよび後述するスマートフォン20から近距離無線通信部15が取得した音声認識エンジン22が出力したパラメータに基づいて、音声認識エンジン12が出力したフレーズおよびスマートフォン20から近距離無線通信部15が取得した音声認識エンジン22が出力したフレーズのいずれか一方を選択し、選択されたフレーズに基づいた処理を実行する。
記憶装置14は、例えばハードディスクや半導体メモリ等の不揮発性の読み書き自在な記憶媒体で構成されている。記憶装置14は、例えばカーナビゲーションシステム10で案内等に使用する地図等の情報が記憶されている。
第2取得部としての近距離無線通信部15は、例えばBleutooth(登録商標)や赤外線通信等の近距離無線通信により後述するスマートフォン20と接続して互いにデータ通信を行う。また、近距離無線通信部15は、スマートフォン20から後述する音声認識エンジン22が出力したフレーズおよびパラメータを取得する。なお、近距離無線通信部15は、近距離無線通信に限らず無線LAN(Local Area Network)などの他の無線通信でもよいし、USB(Universal Serial Bus)などの有線通信によるものでもよい。
GPS16は、公知であるように複数のGPS(Global Positioning System)衛星から発信される電波を受信して、現在の位置情報(現在位置情報)を求めてCPU13に出力する。なお、本実施例では、GPS16がカーナビゲーションシステム10に一体に設けられている例を示すが、GPS16が別体として構成され、カーナビゲーションシステム10と着脱自在となっていてもよい。
表示部17は、例えば液晶ディスプレイやEL(Electro Luminescence)ディスプレイ等の表示装置で構成されている。また、表示部17は、表示面にタッチパネルが重ねられていてもよい。表示部17は、地図、自車の位置、目的地や経路等の案内情報等や、各種操作メニューおよびタッチパネル操作用のボタン等が表示される。
上述した構成のカーナビゲーションシステム10は、図2に示したスマートフォン20と近距離無線通信部15により互いにデータ通信が行われる。なお、上述したように、カーナビゲーションシステム10は、地図情報を持ってルート検索等のナビゲーション機能を自身で行っていたが、外部サーバ等に地図情報を持ってナビゲーション機能をサーバに実行させて自身はその結果を受け取って表示する形態としてもよい。
スマートフォン20は、マイク21と、音声認識エンジン22と、CPU23と、記憶装置24と、近距離無線通信部25と、回線通信部26と、を備えている。
入力部としてのマイク21は、利用者が発話した音声が入力され、電気信号である音声信号に変換して音声認識エンジン22に出力する。
第2音声認識部としての音声認識エンジン22は、マイク21から入力された音声信号に基づいて音声認識を行い、その認識した結果情報である単語や単語の組み合わせによるフレーズと、音声信号と自身が有する辞書にある語彙との近似度を示すスコア、自身が有する辞書とに照合度を示すアルゴリズム判定、マイク21から入力された音声信号の音圧情報といったパラメータと、をCPU23に出力する。なお、結果情報は候補として複数あってもよく、その場合は候補ごとにスコア、アルゴリズム判定および音圧情報が出力される。即ち、フレーズが第2音声認識結果情報、パラメータが第2音声認識処理情報に相当する。
なお、音声認識エンジン22に使用される認識アルゴリズムやスコアの算出方法は周知のものでよく特に限定しないが、音声認識エンジン22は、音声認識エンジン12とは異なる認識アルゴリズムや辞書を持つものが望ましい。この場合、音声認識エンジン12では正しく認識できないフレーズを認識できる可能性が高まり、音声認識エンジン12を補完することができる。
また、音声認識エンジン22は、スマートフォン20が備えていなくてもよく、例えば、従来技術に記載したクラウド型の音声認識システムを利用してもよい。即ち、マイク21から入力された音声信号をサーバ等に送信してサーバで音声認識処理を行い、フレーズとパラメータをスマートフォン20が受信するものであってもよい。
CPU23は、RAMやROM等を備えたマイクロコンピュータとして構成され、スマートフォン20の全体制御を司る。そして、CPU23は、スマートフォン20が一般的に有する機能、例えば電話、メール、インターネット接続等の機能の実行、あるいはアプリの実行等を行う。また、CPU23は、音声認識エンジン22からフレーズと、パラメータを取得し、近距離無線通信部25を介してカーナビゲーションシステム10に送信する。また、音声認識エンジン22の認識結果に基づいてインターネット検索等の処理を行う。
記憶装置24は、例えば半導体メモリ等の不揮発性の読み書き自在な記憶媒体で構成されている。メモリーカードなどの着脱自在な記憶媒体でもよい。記憶装置24は、例えばスマートフォン20で使用する電話帳やアプリのデータ等が記憶されている。
近距離無線通信部25は、例えばBleutooth(登録商標)や赤外線通信等の近距離無線通信により後述するカーナビゲーションシステム10と接続して互いにデータ通信を行う。また、近距離無線通信部25は、音声認識エンジン22が出力したフレーズおよびパラメータをカーナビゲーションシステム10に送信する。
回線通信部26は、携帯電話回線網への接続を行い各種通信をする。回線通信部26は、例えばW-CDMA(Wideband Code Division Multiple Access)やLTE(Long Term Evolution)などの通信方式により基地局等と接続して携帯電話回線網へ接続する。
上述した構成のカーナビゲーションシステム10は、自身が持つ音声認識エンジン12と、スマートフォン20が持つ音声認識エンジン22と、の双方を利用してより適切な認識結果(フレーズ)を選択する。そして、選択されたフレーズに基づいた各種処理を実行する。詳細動作を図3に示したフローチャートを参照して説明する。図3に示したフローチャートは、CPU13が実行する。また、本フローチャートを実行する前に予めカーナビゲーションシステム10とスマートフォン20は近距離無線通信によって互いにデータ通信が行えるようになっている。
まず、第1取得工程としてのステップS1において、利用者が発話した音声をマイク11を介して音声認識エンジン12(カーナビゲーションシステム10)で音声認識し、フレーズおよびパラメータ(スコア、アルゴリズム判定、音圧情報)を取得してステップS3に進む。
一方、第2取得工程としてのステップS2においては、ステップS1と同じ音声を音声認識エンジン22(スマートフォン20)が音声認識したフレーズおよびパラメータを近距離無線通信部15を介して取得してステップS3に進む。
次に、ステップS3において、ステップS1で取得した音声認識エンジン12のパラメータと、ステップS2で取得した音声認識エンジン22のパラメータと、比較しステップS4に進む。
次に、ステップS4において、音声認識エンジン12が出力したパラメータのうち、スコアと音圧情報が予め定めた閾値以上か否かを判断し、閾値以上である場合(YESの場合)はステップS5に進み、閾値未満である場合(NOの場合)はステップS6に進む。この閾値は、例えば、音圧情報(音圧)の最大値を100としたときの値で85以上かつ、スコアが92以上と設定されている。本実施例では、スコアだけでなく、より大きな音圧であった方が正確な音声認識ができる可能性が高いとして音圧情報にも閾値を設けている。つまり、これらの条件を満たす場合閾値以上と判断される。即ち、本ステップの判断に用いられる閾値が第1閾値に相当する。
次に、ステップS5において、ステップS4で閾値以上と判断されたので、音声認識エンジン12の認識結果であるフレーズを判定語、つまり、後のステップで実行される操作コマンドと決定(選択)しステップS19に進む。
ステップS6においては、スマートフォン20から取得したパラメータのうち、スコアと音圧情報が予め定めた閾値以上か否かを判断し、閾値以上である場合(YESの場合)はステップS7に進み、閾値未満である場合(NOの場合)はステップS11に進む。この閾値は、例えば、音圧情報(音圧)の最大値を100としたときの値で82以上かつ、スコアが96以上と設定されている。即ち、これらの条件を満たす場合閾値以上と判断される。なお、本ステップで判断される閾値とステップS4で判断される閾値は同じ値であってもよい。また、これらの閾値は、設置位置や各音声認識エンジンのアルゴリズムなどから適宜設定すればよい。即ち、本ステップの判断に用いられる閾値が第2閾値に相当する。
次に、ステップS7において、ステップS6で閾値以上と判断されたので、スマートフォン20から取得した認識結果であるフレーズを判定語と決定(選択)しステップS8に進む。
次に、ステップS8において、ステップS7で決定した判定語がナビコマンドにあるか否かを判断し、ある場合(YESの場合)はそのフレーズを判定語と決定(選択)しステップS19に進み、無い場合(NOの場合)はステップS9に進む。ナビコマンドとは、カーナビゲーションシステム10の操作に利用される所定のコマンド群を示している。つまり、本ステップでは決定された判定語がナビコマンドか否かを判断している。
次に、ステップS9において、ステップS8においてナビコマンドに判定語が含まれていないと判断されたので、スマートフォン20に連携動作を行わせてステップS10に進む。連携動作とは、例えばスマートフォン20に音声認識エンジン22が出力したフレーズ(判定語)を用いてインターネット検索やナビゲーションのアプリ等がインストールされている場合は検索結果に関連する地点情報(店舗名や所在地あるいは緯度経度情報等)を行わせることである。この連携動作は、カーナビゲーションシステム10(CPU13)からスマートフォン20へ実行を指示するコマンド等を送信してもよいし、スマートフォン20が音声認識動作に引き続いて当該連携動作を予め行っていてもよい。
次に、ステップS10において、ステップS9でスマートフォン20に行わせた連携動作結果を近距離無線通信部15を介して取得しステップS19に進む。即ち、この連携動作結果が処理結果情報に相当する。
ステップS11においては、ステップS4、S6のいずれも閾値以下、即ち第1閾値未満かつ、第2閾値未満であったので、以下に示す(1)式、(2)式の計算式による評価を行ってステップS12に進む。
(音圧×a)×((スコア+判定)×b)・・・(1)
(音圧×c)×((スコア+判定)×d)・・・(2)
(1)式はスマートフォン20から取得したパラメータをそれぞれ代入して算出する式、(2)式は音声認識エンジン12が出力したパラメータをそれぞれ代入して算出する式である。また、判定はアルゴリズム判定の数値、a、b、c、dはそれぞれが乗算される項の重み付けをするための係数である。即ち、第1音声認識処理情報および第2音声認識処理情報それぞれに重み付けをした所定の演算を行っている。
次に、ステップS12において、ステップS11で行った評価の結果、1つに確定することができたか否かを判断し、確定できた場合(YESの場合)はステップS13に進み、確定できなった場合(NOの場合)はステップS14に進む。本ステップでは、例えば上記した(1)式や(2)式の算出結果の差が8以上であった場合は算出結果の多いフレーズを選択して1つに確定する。
次に、ステップS13において、ステップS12や後述するステップS15、S17で確定したフレーズを判定語として選択し、ステップS19に進む。
ステップS14においては、認識結果として取得したフレーズの過去の使用履歴に基づいて評価してステップS15に進む。この過去の使用履歴とは、例えば、音声認識の履歴に限らず、インターネット検索や目的地の検索などカーナビゲーションシステム10の動作やスマートフォン20で使われた履歴情報等である。なお、スマートフォン20の使用履歴情報は、例えば本ステップ実行時に近距離無線通信部15を介してフレーズを指定し取得すればよい。
次に、ステップS15において、ステップS14で行った評価の結果、1つに確定することができたか否かを判断し、確定できた場合(YESの場合)はステップS13に進み、確定できなった場合(NOの場合)はステップS16に進む。本ステップでは、例えばステップS14の結果、使用頻度の多いフレーズを選択して1つに確定する。
次に、ステップS16において、認識結果として取得したフレーズの過去の使用状況に基づいて評価してステップS15に進む。この過去の使用状況とは、過去にそのフレーズが使用されたシーン、例えば午前/午後等の時間帯や季節、天候等の外部環境等である。
次に、ステップS17において、ステップS16で行った評価の結果、1つに確定することができたか否かを判断し、確定できた場合(YESの場合)はステップS13に進み、確定できなった場合(NOの場合)はステップS18に進む。本ステップでは、例えばステップS16の結果、同じシーンで使用されているフレーズを選択して1つに確定する。
次に、ステップS18において、ステップS12~S17で1つに確定することができなかったのでスコアが最も高いフレーズを判定語として確定してステップS19に進む。
次に、ステップS19において、ステップS5、S7、S13、S18で確定した判定語を音声認識エンジン12、22に学習させてステップS20に進む。この学習は音声認識エンジン12に限らず、音声認識エンジン22にも行わせるため、判定語の情報を近距離無線通信部15を介してスマートフォン20にも送信する。
次に、ステップS20において、判定語に基づいてコマンドを実行する。つまり、当該判定語をカーナビゲーションシステム10の操作コマンドとして解釈して処理を実行する。また、ステップS10を実行してスマートフォン20から近距離無線通信部15が連携結果を取得した場合は、その結果に基づいて地点検索を行ったり、その内容をそのまま表示するといったことを行ってもよい。さらに、判定語が操作コマンドとして解釈できない場合は、エラーである旨を表示部17に表示したり、再度の入力を促してフローチャートを先頭からやり直すようにしてもよい。
以上の説明から明らかなように、ステップS4~S20は、ステップS1で取得したパラメータおよびステップS2で取得したパラメータに基づいて、音声認識エンジン12が出力したフレーズまたは音声認識エンジン22が出力したフレーズのいずれか一方を選択し、選択されたフレーズに基づいた情報処理を処理部に実行させる制御工程として機能している。
なお、ステップS11、S14、S16に示した動作は、この順序で行うに限らない。また、これら3つの動作を全て行わず、1つまたは2つのみを行うようにしてもよい。
ここで、具体例を図3に示したフローチャートに沿って説明する。例えば、利用者が「そば(蕎麦)好き」と発音した場合に、カーナビゲーションシステム10の音声認識エンジン12が音圧情報が87で「相馬市」と判定し、他の候補として「茂原市」を挙げ、スマートフォン20の音声認識エンジン22が音圧情報が78で「ソファーに」と判定し、他の候補として「そば好き」、「相馬市」、を挙げたとする。そして、それぞれの他の候補まで含めたスコアとアルゴリズム判定は、図4に示したとおりとする。図4に示しように、図2に示したフローチャートは、カーナビゲーションシステム10とスマートフォン20それぞれについて1つずつのフレーズで比較するに限らず、それぞれ複数の候補で比較してもよい。
このとき、ステップS4では、音声認識エンジン12が判定した「相馬市」や他の候補である「茂原市」も音圧情報85以上、スコア92以上の閾値を満たすことができない。そのため、ステップS6を実行するが、音声認識エンジン22が判定した「ソファーに」や他の候補である「そば好き」、「相馬市」も音圧情報82以上、スコア96以上の閾値を満たすことができない。
そこで、ステップS11で(1)式と(2)式を計算して評価し、ステップS12で判断する。このときアルゴリズム判定は◎や○などを適宜点数に換算して計算する。計算の結果、例えば、「ソファーに」が78、「そば好き」が76、「相馬市」が73、「茂原市」が41とする。そして、最高点数の候補と、その候補から8点以内の候補として、「ソファーに」、「そば好き」、「相馬市」が抽出されるが1つには確定できない。なお、「相馬市」はカーナビゲーションシステム10とスマートフォン20の双方の候補に挙げられているが、以降の判断は上記式の計算結果が大きい値となった方、例えばカーナビゲーションシステム10の結果に基づいて判断するものとする。あるいはこのフローチャートを実行するCPU13が設けられている音声認識エンジン12を優先としてもよい。
そして、ステップS14でカーナビゲーションシステム10とスマートフォン20それぞれで過去の使用履歴による評価をし、ステップS15で判断する。「ソファーに」、「そば好き」、「相馬市」の使用履歴(使用回数)は図5に示したとおりとする。ここで、カーナビゲーションシステム10とスマートフォン20の両方で履歴があるもの(回数が1以上)を抽出する。この場合、「そば好き」と「相馬市」が抽出されるが1つには確定できない。なお、両方で履歴があるものでなく、回数が何回以上や最高回数との差がいくつ以上などで絞ってもよい。また、いずれの候補も0回の場合は、全ての候補(「ソファーに」、「そば好き」、「相馬市」)について次の演算(ステップS16)を行う。
そして、ステップS16で過去にそのフレーズが使用された状況に基づいて評価し、ステップS17で判断する。これは上述したように、時間帯や季節、天候等の状況(ステータス)に基づいて一番該当するものを選択する。つまり、過去に使用された状況と今回の状況から類似するものを選択する。類似の判断は、例えば、3つのステータスのうち2つ以上一致で類似とするなどとすればよい。
ステップS17の結果「そば好き」の過去に使用された状況が今回と類似する場合は「そば好き」が選択され、ステップS13で判定語と決定される。また、「そば好き」と「相馬市」のいずれも類似に該当しない場合は、ステップS18を実行してスコアが最も高い「そば好き」が選択される。
次に、ステップS6で、「そば好き」が閾値を満たした場合を説明する。この場合、ステップS7で「そば好き」が判定語として決定され、ステップS8でナビコマンドにあるか否かが判断される。「そば好き」はカーナビゲーションシステム10を操作するためのコマンドには無いので、ステップS9でスマートフォン20の連携動作が行われる。スマートフォン20では「そば好き」に関連する検索がインターネット等を利用して行われ、例えばレストランや有名店、そば打ち体験イベントの名称や所在地の情報が得られたとすると、それらの情報を連携結果としてスマートフォン20が送信することで、カーナビゲーションシステム10が取得する(ステップS10)。
ステップS10で得られた情報は、ステップS19で判定語(「そば好き」)の学習後、ステップS20で利用される。例えば、ステップS10で得られたレストランやそば打ち体験イベント場等の名称や所在地等の情報に基づいて地点情報として登録したり、目的地として設定するか尋ねたり、地図上に表示したりする。つまり、この場合のステップS20におけるコマンド実行とは判定語を操作コマンドとして解釈するのではなく、得られた情報に基づいて、任意のコマンドを選択して実行することとなる。
本実施例によれば、カーナビゲーションシステム10のCPU13が、利用者が発話した音声を音声認識する音声認識エンジン12が認識したフレーズと、音圧情報、スコア、アルゴリズム判定からなるパラメータと、を取得し、さらに、同じ音声を音声認識したスマートフォン20の音声認識エンジン22が認識しやフレーズと、音圧情報、スコア、アルゴリズム判定からなるパラメータと、を近距離無線通信部15を介して取得する。そして、音声認識エンジン12のパラメータと音声認識エンジン22のパラメータに基づいて、音声認識エンジン12の認識結果と音声認識エンジン22の認識結果のいずれか一方を選択してコマンドとして実行させている。このようにすることにより、2つの音声認識エンジンの結果から選択することができるので、単独で音声認識を行う以上の精度で音声認識をすることができる。また、カーナビゲーションシステム10とスマートフォン20とで異なるアルゴリズムや辞書を持っているために、様々な環境に合った認識結果を得ることができる。したがって、適切な認識結果を得ることができる。
また、音声認識エンジン12のパラメータが閾値以上であった場合はカーナビゲーションシステム10(音声認識エンジン12)が認識したフレーズを判定語として選択しているので、カーナビゲーションシステム10の認識した結果を優先的に利用することができる。
また、音声認識エンジン12のパラメータが閾値未満かつ、スマートフォン20(音声認識エンジン22)のパラメータが閾値以上である場合は、スマートフォン20が認識したフレーズを判定語として選択しているので、カーナビゲーションシステム10の認識した結果の信頼性が低く利用に適さない可能性が高い場合にスマートフォン20の認識した結果を利用することができる。
また、音声認識エンジン12のパラメータが閾値未満かつ、スマートフォン20(音声認識エンジン22)のパラメータが閾値以上である場合で、スマートフォン20の認識結果がナビコマンドに無い場合は、スマートフォン20に連携動作を行わせ、その結果を取得して、CPU13内で処理を行っている。このようにすることにより、スマートフォン20の認識した結果の信頼性は高いが、そのフレーズがカーナビゲーションシステム10を操作するためのコマンドではない場合に、そのフレーズに関連する情報を得て動作させることができる。
また、判定語が決定した後に、カーナビゲーションシステム10とスマートフォン20に決定した判定語について学習させているので、双方の音声認識エンジンに認識結果を共有させて以降の音声認識の精度を向上させることができる。この場合、カーナビゲーションシステム10においては、これまで知り得なかった結果を学習することができ次回以降のスコア精度の向上や辞書の語彙の増加といった効果が期待できる。例えば新語や流行語などをタイムリーに学習させることができる。また、スマートフォン20においては、ナビコマンドを学習することができるので更なる音声認識精度の向上を図ることができる。
また、音声認識エンジン12のパラメータが閾値未満かつ、音声認識エンジン22のパラメータが閾値未満の場合は、(1)式および(2)式による評価や、過去の使用履歴による評価、過去の使用情報による評価などにより判定語を決定しているので、音圧情報やスコアおよびアルゴリズム判定の結果で判定語を決定できない場合でも判定語を決定することができる。
また、音声認識エンジン12と、CPU13と、近距離無線通信部15と、を一体的に備えているので、音声認識エンジン22を有するスマートフォン20と連携させることで、カーナビゲーションシステム10において適切な認識結果を得ることができる。
なお、図3に示したフローチャートでは、ステップS7でスマートフォン20の認識結果を判定語とした後にステップS8でナビコマンドか否かを判断していたが、このような判断を行わず、ステップS7で判定語として決定したらそのままステップS19を実行するようにしてもよい。
また、図1や図2に示した構成ではカーナビゲーションシステム10とスマートフォン20はそれぞれのマイク11、21に音声が入力されていたが、例えば、カーナビゲーションシステム10のマイク11に入力した音声を音声信号に変換した後にスマートフォン20に送信し、スマートフォン20はその音声信号に基づいて音声認識を行ってもよい。この場合、音圧情報はパラメータとして利用できなくなるが、スコアやアルゴリズム判定は異なることが多いので、これらの情報のみで判定することが可能である。即ち、入力部は1つであってもよい。
また、図3のフローチャートをコンピュータで実行可能なプログラムとして構成することで、情報制御装置の制御プログラムとして構成することができる。
また、上述した実施例ではカーナビゲーションシステム10が主となって動作する例であったが、スマートフォン20が主になってもよい。また、カーナビゲーションシステム10やスマートフォン20に限らず、パーソナルコンピュータや音声で操作可能な家電機器など他の情報処理装置に適用してもよい。
また、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の情報処理装置の構成を具備する限り、勿論、本発明の範疇に含まれるものである。
10 カーナビゲーションシステム(情報処理装置)
11 マイク(入力部)
12 音声認識エンジン(第1音声認識部)
13 CPU(制御部、第1取得部、処理部)
15 近距離無線通信部(第2取得部)
20 スマートフォン
21 マイク(入力部)
22 音声認識エンジン(第2音声認識部)
S1 ナビ側で音声認識(第1取得工程)
S2 スマートフォン側で音声認識(第2取得工程)
S4~S20 ナビかスマートフォンのいずれか一方を選択してコマンド実行する(制御工程)

Claims (1)

  1. 音声を認識する第1音声認識部から第1音声認識結果情報及び第1音声認識処理情報を取得する第1取得部と、
    前記音声を認識する第2音声認識部から第2音声認識結果情報及び第2音声認識処理情報を取得する第2取得部と、
    前記第1音声認識処理情報及び前記第2音声認識処理情報に基づき前記第1音声認識結果情報又は前記第2音声認識結果情報のいずれかを選択し、選択された前記第1音声認識結果情報又は前記第2音声認識結果情報に関する処理を処理部に実行させる制御部と、
    を備えたことを特徴とする情報処理装置。
JP2023174059A 2020-04-27 2023-10-06 情報処理装置 Pending JP2023179631A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023174059A JP2023179631A (ja) 2020-04-27 2023-10-06 情報処理装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020078433A JP2020129130A (ja) 2020-04-27 2020-04-27 情報処理装置
JP2022034339A JP2022071159A (ja) 2020-04-27 2022-03-07 情報処理装置
JP2023174059A JP2023179631A (ja) 2020-04-27 2023-10-06 情報処理装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022034339A Division JP2022071159A (ja) 2020-04-27 2022-03-07 情報処理装置

Publications (1)

Publication Number Publication Date
JP2023179631A true JP2023179631A (ja) 2023-12-19

Family

ID=72174554

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020078433A Pending JP2020129130A (ja) 2020-04-27 2020-04-27 情報処理装置
JP2022034339A Pending JP2022071159A (ja) 2020-04-27 2022-03-07 情報処理装置
JP2023174059A Pending JP2023179631A (ja) 2020-04-27 2023-10-06 情報処理装置

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2020078433A Pending JP2020129130A (ja) 2020-04-27 2020-04-27 情報処理装置
JP2022034339A Pending JP2022071159A (ja) 2020-04-27 2022-03-07 情報処理装置

Country Status (1)

Country Link
JP (3) JP2020129130A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2023007588A1 (ja) * 2021-07-27 2023-02-02
CN114446279A (zh) * 2022-02-18 2022-05-06 青岛海尔科技有限公司 语音识别方法、装置、存储介质及电子设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4086280B2 (ja) * 2002-01-29 2008-05-14 株式会社東芝 音声入力システム、音声入力方法及び音声入力プログラム
US7933777B2 (en) * 2008-08-29 2011-04-26 Multimodal Technologies, Inc. Hybrid speech recognition
JP5658641B2 (ja) * 2011-09-15 2015-01-28 株式会社Nttドコモ 端末装置、音声認識プログラム、音声認識方法および音声認識システム

Also Published As

Publication number Publication date
JP2022071159A (ja) 2022-05-13
JP2020129130A (ja) 2020-08-27

Similar Documents

Publication Publication Date Title
US10380992B2 (en) Natural language generation based on user speech style
JP6570651B2 (ja) 音声対話装置および音声対話方法
JP2023179631A (ja) 情報処理装置
JP6348831B2 (ja) 音声入力補助装置、音声入力補助システムおよび音声入力方法
US8903651B2 (en) Information terminal, server device, searching system, and searching method thereof
US9105267B2 (en) Speech recognition apparatus
CN105222797B (zh) 利用口授和部分匹配搜索的导航系统的系统和方法
KR102613210B1 (ko) 차량 및 그 제어방법
US20200321000A1 (en) Agent device, system, control method of agent device, and storage medium
JP2015141226A (ja) 情報処理装置
JP6281202B2 (ja) 応答制御システム、およびセンター
JP2009230068A (ja) 音声認識装置及びナビゲーションシステム
US11709065B2 (en) Information providing device, information providing method, and storage medium
US20200286479A1 (en) Agent device, method for controlling agent device, and storage medium
US20200319634A1 (en) Agent device, method of controlling agent device, and storage medium
US11195535B2 (en) Voice recognition device, voice recognition method, and voice recognition program
JP2018194849A (ja) 情報処理装置
US10978055B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium for deriving a level of understanding of an intent of speech
US20150192425A1 (en) Facility search apparatus and facility search method
JP2017181667A (ja) 音声認識装置および音声認識方法
US11355114B2 (en) Agent apparatus, agent apparatus control method, and storage medium
KR20060098673A (ko) 음성 인식 방법 및 장치
JP2020187163A (ja) 音声操作システム、音声操作制御方法、及び音声操作制御プログラム
JP6109373B2 (ja) サーバー装置および検索方法
CN112349284A (zh) 通知控制系统、通知控制装置、通知控制方法及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231006