JP6483680B2 - 情報処理システム、及び、車載装置 - Google Patents

情報処理システム、及び、車載装置 Download PDF

Info

Publication number
JP6483680B2
JP6483680B2 JP2016531131A JP2016531131A JP6483680B2 JP 6483680 B2 JP6483680 B2 JP 6483680B2 JP 2016531131 A JP2016531131 A JP 2016531131A JP 2016531131 A JP2016531131 A JP 2016531131A JP 6483680 B2 JP6483680 B2 JP 6483680B2
Authority
JP
Japan
Prior art keywords
pictogram
information
keyword
pictograph
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016531131A
Other languages
English (en)
Other versions
JPWO2016002251A1 (ja
Inventor
陽樹 小林
陽樹 小林
古郡 弘滋
弘滋 古郡
昌史 古賀
昌史 古賀
雅史 赤地
雅史 赤地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Publication of JPWO2016002251A1 publication Critical patent/JPWO2016002251A1/ja
Application granted granted Critical
Publication of JP6483680B2 publication Critical patent/JP6483680B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Description

本発明は、情報処理システム、及び、車載装置に関する。
本技術分野の背景技術として、特開2005−346252号公報(特許文献1)がある。この公報には、「第1のユーザ端末201は通信ネットワークを介して事業者サーバ204に接続して、電子メールの本文を音声情報でこれに送出する。事業者サーバ204は音声情報をテキスト情報に変換し、この中で絵文字に変換されるべき情報を判別して、これらを絵文字に再変換する。第1のユーザ端末201のユーザはメール本分から宛先を判別し、たとえば第2のユーザ端末202に対して絵文字とテキストの混合された本文の電子メールを送出する。テレビ電話でも同様に音声情報がテキスト情報や絵文字に変換され画像に合成されて表示される。」と記載されている。
特開2005−303372号公報
ここで、ユーザの発話に基づいて特定されたテキストに対応する絵文字は複数存在する場合があるが、特許文献1では、ユーザの発話に基づいて特定されたテキストが同じであれば、同じ絵文字に変換される。このため、例えば、ユーザは、今の気分によっていつもと違う絵文字をメールで送信することはできない。
そこで、本発明は、ユーザにとって利便性の高い情報処理システム、及び、車載装置を提供することを目的とする。
上記目的を達成するために、情報処理システムは、情報処理装置と、車両に搭載された車載装置と、を備える情報処理システムであって、前記車載装置は、音声を収音する収音部と、前記収音部で収音した音声に基づいて生成された音声データを前記情報処理装置に送信する送信部と、を有し、前記情報処理装置は、キーワードと、前記キーワードに対応する複数の絵文字を示す絵文字情報とを対応付けた絵文字対応情報を記憶する記憶部と、前記絵文字対応情報が有する前記キーワードの中から、前記音声データに基づく音声認識により生成された音声を示すテキストに対応する前記キーワードを選択し、選択した前記キーワードと対応付けられた複数の前記絵文字情報の中から、所定の条件に応じて、1の前記絵文字情報を選択する絵文字選択処理を実行する制御部と、を有し、前記情報処理装置の前記制御部は、前記音声データの送信元の前記車載装置が搭載された前記車両が走行中か否かを判別し、走行中の場合、前記絵文字選択処理を実行する一方、走行中でない場合、前記車載装置と通信し、選択した前記キーワードと対応付けられた複数の前記絵文字情報に対応する前記絵文字の中から、1の前記絵文字をユーザに選択させる処理を前記車載装置に実行させ、ユーザにより選択された1の前記絵文字に対応する1の前記絵文字情報を選択することを特徴とする。
本発明によれば、ユーザの利便性を高めることができる。
図1は、本実施形態に係る情報処理システムの構成を示す図である。 図2は、情報処理システムの機能ブロック図である。 図3は、情報処理システムを構成する各装置の動作を示すフローチャートである。 図4は、絵文字対応テーブルの一例を示す図である。 図5は、制御サーバの動作を示すフローチャートである。 図6は、制御サーバの動作を示すフローチャートである。 図7は、制御サーバの動作を示すフローチャートである。 図8は、車載装置に表示されるユーザインターフェイスの一例を示す図である。 図9は、第1テーブルを示す図である。 図10は、第2テーブルを示す図である。 図11は、第1の変形例に係る情報処理システムを示す図である。 図12は、第2の変形例に係る情報処理システムを示す図である。
図1は、本実施形態に係る情報処理システム1の構成を示す図である。
図1に示すように、情報処理システム1は、車両2に搭載された車載装置3と、インターネットや、電話網等を含んで構成されたネットワーク6に接続された制御サーバ8(情報処理装置)と、を有する。
ネットワーク6には、音声認識サーバ7が接続される。詳細は後述するが、音声認識サーバ7は、制御サーバ8の要求に応じて、車両2内で収音された音声の音声データに基づいて、音声を示すテキストを生成する機能を有するサーバである。
車載装置3には、車両2に搭乗するユーザが所有する携帯端末4が、ブルートゥース(Bluetooth:登録商標)等の近距離無線通信で接続される。携帯端末4は、ネットワーク6に接続可能であり、車載装置3は、携帯端末4を介してネットワーク6にアクセスし、制御サーバ8等のネットワーク6に接続された機器と通信する。
携帯端末4は、ユーザが持ち運び可能な携帯型の端末であり、例えばスマートフォンやタブレット型端末等である。携帯端末4は、ネットワーク6に接続されたメッセンジャーサーバ9が提供するメッセージ送受信システム(データ送受信システム)を利用して、他人が所有する携帯端末である通信先携帯端末5との間で、いわゆるチャットの形態で、メッセージの送受信を実行可能である。以下の説明において、「1の端末から、他の端末にメッセージを送る」とは、当該1の端末が、メッセンジャーサーバ9が提供するメッセージ送受信システムを利用して、当該他の端末にメッセージに関する情報を送信し、当該他の端末にメッセージを表示可能な状態とすることをいう。
メッセージの送受信について詳述すると、携帯端末4、及び、通信先携帯端末5のそれぞれには、メッセージ送受信システムを利用するための専用のアプリケーション(以下、「専用アプリAP」と表現する。)がインストールされる。
ユーザは、通信先携帯端末5にメッセージを送る場合、携帯端末4の専用アプリAPを立ち上げ、専用アプリAPの機能により提供されるユーザインターフェイスを利用して、メッセージを送る通信相手のユーザIDを入力する。ユーザIDとは、ユーザを識別するために、メッセージ送受信システム内で割り当てられた識別情報である。携帯端末4は、専用アプリAPの機能により、入力されたユーザIDを、メッセンジャーサーバ9に送信する。メッセンジャーサーバ9は、受信したユーザIDに基づいて、通信先携帯端末5を特定し、携帯端末4と通信先携帯端末5との間でメッセージの送受信を行える状態を確立する。
ユーザは、専用アプリAPの機能により提供されるユーザインターフェイスを利用して、メッセージを入力する。携帯端末4は、専用アプリAPの機能により、メッセージを含むデータをメッセンジャーサーバ9に送信し、メッセンジャーサーバ9は当該データを通信先携帯端末5に送信し、通信先携帯端末5は当該データに基づいて表示パネルにメッセージを表示する。
また、携帯端末4は、専用アプリAPの機能により、通信先携帯端末5からメッセンジャーサーバ9を介してメッセージを含むデータを受信した場合、当該データに基づいてメッセージを表示する。通信先携帯端末5との間で送受信したメッセージは、通信相手のユーザを特定する情報(ユーザIDであってもよく、ユーザの名前等の他の情報であってもよい。)と共に、専用アプリAPの機能によって提供される所定の画面に、時系列で、表示される。
ここで、携帯端末4は、メッセージとして、絵文字を送信する動作モード(以下、「絵文字送信モード」という。)を有する。本例において、「絵文字」とは、表示手段に表示可能な画像であって、後述する絵文字IDが付与された画像を意味する。絵文字としては、例えば、人間の表情を表現したイラストに係る画像や、病院や学校等の施設を表現したイラストに係る画像、文字や記号に加工を加えた画像等がある。また、本例において、「テキスト」とは、文字コードが付与された文字、記号を意味する。動作モードが絵文字送信モードの場合、携帯端末4は、メッセージとして絵文字を送信し、また、送信した絵文字を所定の画面に表示する。
以上の構成の下、本実施形態に係る情報処理システム1は、以下の処理の実行を可能とする。すなわち、情報処理システム1は、携帯端末4を所有するユーザが、車両2に搭乗し、車両2を運転している場合に、携帯端末4を操作することなく、メッセージを発話することにより、通信先携帯端末5に対してメッセージを送信することを可能とする。特に、情報処理システム1は、動作モードが絵文字送信モードである場合に、ユーザが携帯端末4を操作することなく、絵文字を表す音声を発話することにより、通信先携帯端末5にメッセージとしての絵文字を送信することを可能とする。その際、情報処理システム1は、発話された音声に対応する絵文字が、複数、存在する場合、的確な1の絵文字を選択する処理を行う。以下、情報処理システム1を構成する各装置の構成、及び、動作について詳述する。
図2は、本実施形態に係る情報処理システム1の機能ブロック図である。
図2に示すように、車載装置3は、制御部31と、記憶部32と、タッチパネル33と、操作部34と、車両情報取得部35と、収音部36と、通信部37と、を備える。
制御部31は、CPUや、ROM、RAM、その他の制御回路等を備え、車載装置3の各部を制御する。制御部31は、制御プログラムを実行することによって、後述する走行判別部311として機能する。
記憶部32は、ハードディスクや、EEPROM等の不揮発性メモリーを備え、データを書き換え可能に記憶する。
タッチパネル33は、表示パネル33aと、タッチセンサー33bとを備える。表示パネル33aは、液晶ディスプレイやEL(Electro Luminescent)ディスプレイ等のパネルを有し、制御部31の制御の下、各種情報を表示パネル33aに表示する。タッチセンサー33bは、表示パネル33aに重ねて配置され、ユーザのタッチ操作を検出し、制御部31に出力する。
車両情報取得部35は、車載装置3を搭載した車両2の状態に関する車両信号を取得し、制御部31に出力する。車両信号には、少なくとも車両2の走行速度を示す車速パルス信号、及び、車両2のパーキングブレーキの状態を示すパーキングブレーキ信号が含まれる。制御部31の走行判別部311は、車両情報取得部35から入力された車両信号に基づいて、車両2が停車中か否かを判別する。本実施形態で、「停車」とは、車両2が走行しておらず、かつ、パーキングブレーキによるブレーキが有効な状態をいう。このような状態の場合、運転手たるユーザは、タッチパネル33の操作を行うことが可能である。
収音部36は、マイクに接続され、ユーザが発話した音声をマイクによって収音し、収音した音声に基づいて音声データを生成し、生成した音声データを制御部31に出力する。
通信部37は、制御部31の制御の下、ブルートゥース等の近距離無線通信に係る通信規格に従って、携帯端末4と通信リンクを確立し、携帯端末4と通信する。本実施形態では、制御部31と、通信部37とが共同して、「送信部」として機能する。
図2に示すように、携帯端末4は、端末制御部40と、タッチパネル41と、端末記憶部42と、近距離無線通信部43と、ネットワーク通信部44と、を備える。
端末制御部40は、CPUや、ROM、RAM、その他の周辺回路等を備え、携帯端末4の各部を制御する。
タッチパネル41は、端末制御部40の制御で各種情報を表示し、また、ユーザによるタッチ操作を検出して端末制御部40に出力する。
端末記憶部42は、不揮発性メモリーを備え、各種データを記憶する。上述したように、携帯端末4には専用アプリAPがインストールされており、端末記憶部42には、専用アプリAPが記憶される。
近距離無線通信部43は、端末制御部40の制御の下、所定の近距離無線通信に係る通信規格に従って、車載装置3との間で通信リンクを確立し、当該通信規格に従って、車載装置3と通信する。
ネットワーク通信部44は、端末制御部40の制御の下、所定の通信規格に従って、ネットワーク6に接続された機器と通信する。
図2に示すように、制御サーバ8は、サーバ制御部81(制御部)と、サーバ記憶部82(記憶部)と、サーバ通信部83と、を備える。
サーバ制御部81は、CPUや、ROM、RAM、その他の周辺回路等を備え、制御サーバ8の各部を制御する。サーバ制御部81は、サーバ記憶部82が記憶する制御プログラムを実行することにより、絵文字選択部811として機能する。絵文字選択部811については、後述する。
サーバ通信部83は、サーバ制御部81の制御の下、所定の通信規格に従って、ネットワーク6に接続された機器と通信する。
サーバ記憶部82は、サーバ制御部81が実行する制御プログラムや、サーバ制御部81が処理するデータを記憶する。サーバ制御部81は、絵文字対応テーブル82a(絵文字対応情報)を記憶する。絵文字対応テーブル82aについては、後述する。
図2に示す音声認識サーバ7は、後述するように、ユーザが発話した音声に基づいて生成された音声データに基づいて、音声を示すテキストを生成する機能を有するサーバである。
図2に示すメッセンジャーサーバ9は、上述したメッセージ送受信システムを提供する機能を有するサーバである。
制御サーバ8、音声認識サーバ7、及び、メッセンジャーサーバ9は、必ずしも単一のサーバ装置でなくてもよく、複数のサーバ装置によって構成されるものであってもよく、所定のシステムの一部の機能によって実現されるものであってもよい。
次に、携帯端末4を所有するユーザが車両2に搭乗し、車両2の中で、絵文字を表す音声を発話することにより、当該絵文字をメッセージとして通信先携帯端末5に送信する場合の、各装置の動作について説明する。
なお、図2は、本願発明を理解容易にするために、情報処理システム1の各装置の機能構成を主な処理内容に応じて分類して示した概略図であり、各装置の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。
また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。
また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
また、各構成要素の処理は、1つのプログラムで実現されてもよいし。複数のプログラムで実現されてもよい。
また、制御サーバ8のサーバ制御部81が備える各機能ブロックは、例えば、サーバ記憶部82に記憶されている所定のプログラムをRAM等にロードして、サーバ制御部81が備えるCPUで実行することで実現可能である。
図3は、情報処理システム1を構成する各装置の動作を示すフローチャートであり、(A)は車載装置3の動作を示し、(B)は携帯端末4の動作を示し、(C)は制御サーバ8の動作を示し、(D)は音声認識サーバ7の動作を示し、(E)はメッセンジャーサーバの動作を示し、(F)は通信先携帯端末5の動作を示す。
ここで、車載装置3には、携帯端末4にインストールされた専用アプリAPに対応したアプリケーション(以下、「対応アプリTP」と表現する。)がインストールされている。車載装置3の対応アプリTPは、携帯端末4の専用アプリAPと通信して、専用アプリAPが携帯端末4のタッチパネル41に表示させている画面の描画データを取得し、描画データに基づいて、車載装置3のタッチパネル33の一部に、対応する画像を表示する。対応アプリTPの当該機能により、専用アプリAPの機能によって携帯端末4のタッチパネル41に表示される画面と、車載装置3のタッチパネル33に表示される画面とが同期し、各装置の画面が対応するものとなり、また、携帯端末4側の画面に変化があった場合は、車載装置3側の画面も対応して変化する。従って、専用アプリAPの機能により、携帯端末4のタッチパネル41に、通信先携帯端末5との間で送受信したメッセージが時系列で一覧的に表示される画面が表示されている場合は、車載装置3のタッチパネル33に対応する画面が表示され、携帯端末4側の画面に新たなメッセージが追加して表示された場合は、車載装置3側の画面に対応して新たなメッセージが追加して表示される。
図3のフローチャートが示す動作の開始時点では、以下のことを前提とする。
すなわち、携帯端末4の専用アプリAPが立ち上げられると共に、車載装置3の対応アプリTPが立ち上げられる。そして、専用アプリAPと、対応アプリTPとの間で所定のプロトコルに従ったコネクションが確立され、これらアプリケーション間で非同期でデータの送受信が行える状態が確立されていることを前提とする。上述したように、専用アプリAPの立ち上げに際し、ユーザは、通信相手のユーザID(本例では、通信先携帯端末5のユーザのユーザID)を入力する。
また、動作モードが、上述した絵文字送信モードであることを前提とする。
図3(A)に示すように、車載装置3の制御部31は、対応アプリTPの機能により、収音部36から音声データの入力があったか否かを監視する(ステップSA1)。上述したように、ユーザが発話した場合、収音部36に接続されたマイクにより発話に基づく音声が収音される。そして、収音部36は、収音された音声に基づいて音声データを生成し、生成した音声データを制御部31に出力する。
収音部36から音声データの入力があった場合(ステップSA1:YES)、制御部31は、走行判別部311の判別結果に基づいて、車両2が停車しているか否かを判別する(ステップSA2)。上述したように、本実施形態で、「停車」とは、車両2が走行しておらず、かつ、パーキングブレーキによるブレーキが有効な状態をいう。このような状態の場合、運転手たるユーザは、タッチパネル33の操作を行うことが可能である。
次いで、制御部31は、対応アプリTPの機能により、通信部37を制御して、車両2が停車している状態か否かを示す走行状態情報、及び、入力された音声データを、携帯端末4に送信する(ステップSA3)。
図3(B)に示すように、携帯端末4の端末制御部40は、近距離無線通信部43を制御して、走行状態情報、及び、音声データを受信する(ステップSB1)。
次いで、端末制御部40は、専用アプリAPの機能により、ユーザにより事前に入力された通信相手のユーザIDを取得する(ステップSB2)。
次いで、端末制御部40は、専用アプリAPの機能により、ネットワーク通信部44を制御して、ステップSB1で受信した走行状態情報、及び、音声データと、ステップSB2で取得したユーザIDとを、制御サーバ8に送信する(ステップSB3)。なお、車載装置3に係る対応アプリTPは、制御サーバ8のアドレス等、制御サーバ8と通信するために必要な情報を管理しており、専用アプリAPに事前に通知する。専用アプリAPは、事前に通知された情報に基づいて、制御サーバ8との間で所定の通信規格に従ってコネクションを確立し、コネクションを介して制御サーバ8にデータを送信する。
図3(C)に示すように、制御サーバ8のサーバ制御部81は、サーバ通信部83を制御して、走行状態情報、音声データ、及び、ユーザIDを受信する(ステップSC1)。
次いで、サーバ制御部81は、受信した音声データを含み、当該音声データに係る音声をテキスト化することを要求するテキスト化要求データを生成し、サーバ通信部83を制御して、音声認識サーバ7に送信する(ステップSC2)。なお、サーバ制御部81は、音声認識サーバ7と通信するために必要な情報を管理しており、当該サーバとの間で所定の通信規格に従ってコネクションを確立し、コネクションを利用してテキスト化要求データを送信する。
図3(D)に示すように、音声認識サーバ7は、テキスト化要求データを受信する(ステップSD1)。
次いで、音声認識サーバ7は、テキスト化要求データに含まれる音声データに基づいて、音声データに係る音声をテキスト化し、音声を示すテキスト(以下、「音声テキスト」という。)が記述されたテキストデータ(以下、「音声テキストデータ」という。)を生成する(ステップSD2)。
ここで、音声テキストデータの生成に際し、本実施形態に係る音声認識サーバ7は、音声データに基づく音声認識を行い、音声認識の結果に基づいて、認識の確度が高い順に(=認識誤りの可能性が低い順に)、音声テキストとして5つの候補を生成し、順番に音声テキストデータに記述する。従って、音声テキストデータには、音声認識の確度が高い順番で、5つの音声テキストが記述される。
なお、音声データに係る音声のテキスト化は、既存の全ての技術を利用可能であり、どのような方法で行われてもよい。
次いで、音声認識サーバ7は、生成した音声テキストデータを制御サーバ8に送信する(ステップSD3)。
なお、本実施形態では、音声データから音声テキストデータへの変換を、音声認識サーバ7が実行する構成である。しかしながら、制御サーバ8に当該変換を実行する機能を設け、制御サーバ8が、単独で、当該変換を実行する構成であってもよい。
図3(C)に示すように、制御サーバ8のサーバ制御部81は、サーバ通信部83を制御して、音声テキストデータを受信する(ステップSC3)。
次いで、サーバ制御部81の絵文字選択部811は、キーワード特定処理を実行する(ステップSC4)。以下、キーワード特定処理について詳述する。
キーワード特定処理とは、音声テキストデータに記述された音声テキストに基づいて、対応する後述する認識キーワード(キーワード)を特定し、特定した認識キーワードに対応する後述する絵文字ID(絵文字情報)を特定する処理である。以下、キーワード特定処理において、認識キーワードを特定する方法として、3つの方法を例示する。
<認識キーワードを特定する第1の方法(第1特定方法)>
図4(A)は、第1特定方法で認識キーワードを特定する場合に使用する絵文字対応テーブル82a(以下、「第1絵文字対応テーブルE1」と表現する。)を示す図である。
図4(A)に示すように、第1絵文字対応テーブルE1の1件のレコードは、認識キーワードを格納する認識キーワードフィールドFA1と、絵文字IDを格納する絵文字IDフィールドFA2とを有する。
認識キーワードとは、絵文字を言語によって表現した場合に、その言語を示すテキストのことである。すなわち、認識キーワードとは、絵文字を表すテキストである。例えば、学校が模された絵文字であり、視認したときに「学校」を連想させる絵文字については、認識キーワードとして、「がっこう(学校)」が設定される。事前に、絵文字ごとに、適切な1の認識キーワードが設定される。
絵文字IDとは、絵文字を識別するために、絵文字ごとに割り振られた識別情報である。
第1絵文字対応テーブルE1のそれぞれのレコードでは、対応関係にある認識キーワードと、絵文字IDとが対応付けられる。ここで、1つの認識キーワードに対応する絵文字IDは、複数、存在する場合がある。これは、ユーザが絵文字を表す音声を発話した場合、対応する絵文字の候補が、複数、存在する場合があることを意味する。例えば、図4(A)の1件目のレコードRA1の認識キーワードは、「りょうかい(了解)」であるが、当該認識キーワードに対応する絵文字IDは、「stamp1」、「stamp2」、「stamp3」、及び、「stamp4」の4つである。
第1絵文字対応テーブルE1は、後述する第2絵文字対応テーブルE2と比較して、以下の特徴がある。すなわち、第1絵文字対応テーブルE1の認識キーワードフィールドFA1には、音声認識の誤りが反映されたテキストを示す認識キーワードは格納されない。例えば、「りょうかい(了解)」に対応する絵文字が存在する場合において、当該絵文字をメッセージとして送信すべく、「りょうかい(了解)」と発話した場合、音声認識の結果、認識の誤りに起因して、「とうかい(東海)」等の「りょうかい(了解)」とは異なるテキストが生成される可能性がある。そして、第1絵文字対応テーブルE1では、後述する第2絵文字対応テーブルE2とは異なり、「とうかい(東海)」のような音声認識の誤りを反映したテキストを示す認識キーワードは、認識キーワードフィールドFA1に格納されない。つまり、認識キーワードフィールドFA1に格納される認識キーワードは、絵文字のそれぞれを表す認識キーワードのみである。
図5は、第1特定方法で、認識キーワードを特定する際の、絵文字選択部811の動作を示すフローチャートである。
第1特定方法において、絵文字選択部811は、音声テキストデータに記述された音声テキストのうち、1番目に記述された認識の確度の高い音声テキスト(以下、「第1音声テキスト」という。)を使用して、対応する1の認識キーワードを特定する。以下、図5のフローチャートを用いて詳述する。
図5に示すように、絵文字選択部811は、第1絵文字対応テーブルE1の1件目のレコードを処理対象のレコードとして取得し、所得したレコードの認識キーワードフィールドFA1に格納された認識キーワードを取得する(ステップSG1)。
絵文字選択部811は、取得した認識キーワードと、第1音声テキストとの文字列比較を行い、一致するか否かを判別する(ステップSG2)。
一致する場合(ステップSG2:YES)、絵文字選択部811は、一致した認識キーワードを、音声テキストに対応する認識キーワードとして特定し(ステップSG3)、処理を終了する。
一致しない場合(ステップSG2:NO)、絵文字選択部811は、第1音声テキストと、取得した認識キーワードとの発音記号列の距離を算出する(ステップSG4)。発音記号列の距離とは、その値が小さければ小さいほど、対象となった2つのテキストの音声が近似している関係となる数値である。
以下、第1音声テキストが「あいうえお」であり、認識キーワードが「かいうえお」であるとして、発音記号列の距離の算出方法について説明する。
まず、絵文字選択部811は、第1音声テキスト、及び、認識キーワードを、発音記号列に変換する。本例の場合、絵文字選択部811は、第1音声テキストについて「aiueo」と変換し、認識キーワードについて「kaiueo」と変換する。
次いで、絵文字選択部811は、第1音声テキストに係る発音記号列と、認識キーワードに係る発音記号列との比較に基づいて、これらテキストの編集距離を算出する。編集距離とは、2つの発音記号列の距離を算出する手法の1つである。一方の発音記号列を構成する「音素」に対して最小の削除、挿入、置換を行って、他方の発音記号列と同一の発音記号列とする場合に、行われる削除、挿入、置換の回数が、編集距離である。なお、編集距離の算出に関し、発音記号列を構成するアルファベットのそれぞれが「音素」に該当し、例えば、「aiu」という発音記号列については、「a」「i」、及び、「u」のそれぞれが「音素」である。
第1音声テキストに係る発音記号列「aiueo」と、認識キーワードに係る「kaiueo」との比較に基づく編集距離の算出は、以下のようにして行われる。すなわち、認識キーワードに係る発音記号列の先頭の音素「k」を削除することにより、認識キーワードに係る発音記号列を、第1音声テキストに係る発音記号列とすることができる。従って、第1音声テキストと、認識キーワードとの編集距離は、「1」である。なお、編集距離の算出に際し、認識誤りの発生しやすさを反映した補正を行ってもよい。
次いで、絵文字選択部811は、算出した編集距離を、認識キーワードに係る発音記号列の音素の数で割った値を算出する。ここで算出された値が、「発音記号列の距離」である。本例において、第1音声テキストと、認識キーワードとの編集距離の値は「1」であるため、「1」を、認識キーワードの音素の数である「6」で割った値「0.17」(≒1/6)が、これらテキストの発音記号列の距離となる。
ステップSG4で発音記号列の距離を算出し後、絵文字選択部811は、算出した値を、取得した認識キーワードと対応づけて所定の記憶領域に記憶する(ステップSG5)。
次いで、絵文字選択部811は、第1絵文字対応テーブルE1に、処理対象となっていないレコードが残っているか否かを判別する(ステップSG6)。
処理対象となっていないレコードが残っている場合(ステップSG6:YES)、絵文字選択部811は、処理対象としたレコードの次のレコードを処理対象として取得し、取得したレコードの認識キーワードフィールドFA1に格納された認識キーワードを取得し(ステップSG7)、処理手順をステップSG2へ移行する。
一方、処理対象となっていないレコードが残っていない場合(ステップSG6:NO)、絵文字選択部811は、以下の処理を実行する(ステップSG8)。なお、処理対象となっていないレコードが残っていない場合、第1絵文字対応テーブルE1に、第1音声テキストと文字列が一致する認識キーワードが存在しない。
ステップSG8で、絵文字選択部811は、第1絵文字対応テーブルE1に格納された認識キーワードのそれぞれに対応してステップSG4で算出した発音記号列の距離を取得し、最も値の小さい発音記号列の距離に対応する認識キーワードを、音声テキストに対応する認識キーワードとして特定し、処理を終了する。ステップSG8で、絵文字選択部811は、認識キーワードのうち、第1音声テキストと音声が最も近似するものを選択し、特定している。
以上のように、第1特定方法では、絵文字選択部811は、第1絵文字対応テーブルE1に第1音声テキストと文字列が一致する認識キーワードがあれば、その認識キーワードを特定する。一方、一致する認識キーワードがない場合、認識キーワードの中から、第1音声テキストに最も音声が近似する認識キーワードを特定する。これにより、ユーザが発話した音声に対応する認識キーワードを高い確度で選択し、特定できる。
絵文字選択部811は、さらに、第1絵文字対応テーブルE1において、特定した認識キーワードと対応付けられた絵文字IDを特定する。上述したように、対応する絵文字IDは、複数、存在する場合がある。
<認識キーワードを特定する第2の方法(第2特定方法)>
次に、認識キーワードを特定する第2の方法(第2特定方法)について説明する。
図4(B)は、第2特定方法で認識キーワードを特定する場合に使用する絵文字対応テーブル82a(以下、「第2絵文字対応テーブルE2」と表現する。)を示す図である。
図4(B)に示すように、第2絵文字対応テーブルE2の1件のレコードは、認識キーワードフィールドFB1と、絵文字IDフィールドFB2と、絵文字有無フィールドFB3と、選択絵文字フィールドFB4と、を備える。
認識キーワードフィールドFB1は、認識キーワードが格納されるフィールドである。ここで、第2絵文字対応テーブルE2に格納される認識キーワードは、第1絵文字対応テーブルE1に格納される認識キーワードと比較して、以下の特徴がある。すなわち、第2絵文字対応テーブルE2の認識キーワードフィールドFB1には、音声認識の誤りが反映されたテキストを示す認識キーワードが格納される。例えば、ユーザが発話した「りょうかい(了解)」に基づく音声データに基づいて音声認識した場合に、音声認識の誤りの結果、「とうかい(東海)」や、「きょうかい(教会)」、「けいかい(警戒)」、「しょうかい(紹介)」がテキストとして生成される可能性がある場合、これらテキストも、認識キーワードとして、認識キーワードフィールドFB1に格納される。なお、音声認識の誤りを反映した認識キーワードは、事前のテストや、シミュレーションの結果等を踏まえて、適切に設定される。
以下、音声認識の誤りが反映されていない認識キーワードを「主認識キーワードKW1」と表現し、音声認識の誤りが反映された認識キーワードを「副認識キーワードKW2」と表現する。
第2絵文字対応テーブルE2の絵文字IDフィールドFB2には、対応する認識キーワードフィールドFB1に格納された認識キーワードが、主認識キーワードKW1である場合に、主認識キーワードKW1に対応する1又は複数の絵文字IDが格納される。なお、対応する認識キーワードフィールドFB1に格納された認識キーワードが、副認識キーワードKW2である場合、絵文字IDフィールドFB2には、絵文字IDは格納されず、ヌルデータとされる。
絵文字有無フィールドFB3には、対応する絵文字が存在するか否かを示す情報が格納される。図4(B)の例では、「〇」が対応する絵文字が存在することを示す情報であり、「×」が対応する絵文字が存在しないことを示す情報である。対応する認識キーワードフィールドFB1に格納された認識キーワードが、主認識キーワードKW1である場合、絵文字有無フィールドFB3に、対応する絵文字が存在することを示す情報が格納される。対応する認識キーワードフィールドFB1に格納された認識キーワードが、副認識キーワードKW2である場合、絵文字有無フィールドFB3に、対応する絵文字が存在しないことを示す情報が格納される。
選択絵文字フィールドFB4には、対応する認識キーワードフィールドFB1に格納された認識キーワードが副認識キーワードKW2である場合に、対応する主認識キーワードKW1が格納される。副認識キーワードKW2に対応する主認識キーワードKW1とは、副認識キーワードKW2に施した誤りを反映していない認識キーワードのことである。
図6は、第2特定方法で、認識キーワードを特定する際の、絵文字選択部811の動作を示すフローチャートである。
第2特定方法において、絵文字選択部811は、上述した第1特定方法と同様、第1音声テキストを使用して、対応する1の認識キーワードを特定する。以下、図6のフローチャートを用いて詳述する。
図6に示すように、絵文字選択部811は、第2絵文字対応テーブルE2の1件目のレコードを処理対象のレコードとして取得し、取得したレコードの認識キーワードフィールドFB1に格納された認識キーワードを取得する(ステップSH1)。
次いで、絵文字選択部811は、取得した認識キーワードと、第1音声テキストとの文字列比較を行い、一致するか否かを判別する(ステップSH2)。
一致する場合(ステップSH2:YES)、絵文字選択部811は、処理対象のレコードの絵文字有無フィールドFB3を参照し、対応する絵文字が存在するか否かを判別する(ステップSH3)。対応する絵文字が存在する場合(ステップSH3:YES)、換言すれば、取得した認識キーワードが主認識キーワードKW1である場合、絵文字選択部811は、取得した認識キーワードを、第1音声テキストに対応する認識キーワードとして特定する(ステップSH4)。
一方、ステップSH3で、対応する絵文字が存在しないと判別した場合(ステップSH3:NO)、換言すれば、取得した認識キーワードが副認識キーワードKW2である場合、絵文字選択部811は、選択絵文字フィールドFB4を参照し、当該フィールドに格納された認識キーワード(=対応する主認識キーワードKW1)を、第1音声テキストに対応する認識キーワードとして特定する(ステップSH5)。
ステップSH2で、一致しないと判別した場合(ステップSH2:NO)、絵文字選択部811は、第2絵文字対応テーブルE2に、処理対象となっていないレコードが残っているか否かを判別する(ステップSH6)。
処理対象となっていないレコードが残っている場合(ステップSH6:YES)、絵文字選択部811は、処理対象としたレコードの次のレコードを処理対象として取得し、取得したレコードの認識キーワードフィールドFB1に格納された認識キーワードを取得し(ステップSH7)、処理手順をステップSH2へ移行する。
一方、処理対象となっていないレコードが残っていない場合(ステップSH6:NO)、絵文字選択部811は、以下の処理を実行する(ステップSH8)。なお、処理対象となっていないレコードが残っていない場合、第2絵文字対応テーブルE2に、第1音声テキストと文字列が一致する認識キーワードが存在しない。ステップSH8で、絵文字選択部811は、上述した方法で、認識キーワードフィールドFB1に格納された主認識キーワードKW1のうち、第1音声テキストに音声が最も近似するものを選択し、選択した主認識キーワードKW1を、第1音声テキストに対応する認識キーワードとして特定する。
絵文字選択部811は、さらに、第2絵文字対応テーブルE2において、特定した認識キーワードと対応付けられた絵文字IDを特定する。上述したように、対応する絵文字IDは、複数、存在する場合がある。
以上、第2特定方法について説明したが、この方法によれば、使用する第2絵文字対応テーブルE2のデータ量が、第1特定方法で使用する第1絵文字対応テーブルE1よりも大きい。また、副認識キーワードKW2を認識キーワードフィールドFB1に格納する必要があるため、第2特定方法で使用する第2絵文字対応テーブルE2は、第1特定方法で使用する第1絵文字対応テーブルE1と比較して、生成に労力を要する。一方で、第2特定方法によれば、第1特定方法と比較して、発音記号列の距離の値の算出、算出した値の比較等の、第1音声テキストに近似する認識キーワードを選択する処理を行わなくてよい確率が高く、処理効率が良い。
<認識キーワードを特定する第3の方法(第3特定方法)>
次に、認識キーワードを特定する第3の方法(第3特定方法)について説明する。
第3特定方法で、絵文字選択部811は、絵文字対応テーブル82aとして、図4(A)の第1絵文字対応テーブルE1を使用する。また、第3特定方法で、絵文字選択部811は、音声テキストに認識の確度の高い順番で記述される5つの音声テキストを使用する。以下、第1音声テキスト以外の4つの音声テキストについて、認識の確度の高い順に、「第2音声テキスト」、「第3音声テキスト」、「第4音声テキスト」、及び、「第5音声テキスト」と表現する。
図7は、第3特定方法で、認識キーワードを特定する際の、絵文字選択部811の動作を示すフローチャートである。
図7に示すように、絵文字選択部811は、音声テキストデータを参照し、第1音声テキストを処理対象の音声テキストとして取得する(ステップSI1)。
次いで、絵文字選択部811は、第1絵文字対応テーブルE1の各レコードの認識キーワードフィールドFA1を参照し、認識キーワードの中に、第1音声テキストデータと文字列が一致するものがあるか否かを判別する(ステップSI2)。
文字列が一致する認識キーワードがある場合(ステップSI2:YES)、絵文字選択部811は、当該文字列が一致する認識キーワードを、音声テキストに対応する認識キーワードとして特定し(ステップSI3)、処理を終了する。
文字列が一致する認識キーワードがない場合(ステップSI2:NO)、絵文字選択部811は、処理手順をステップSI4へ移行する。
ステップSI4〜ステップSI15で、絵文字選択部811は、第2音声テキストから、第5音声テキストへ向かって、順番に、音声テキストを取得していき、取得した音声テキストと、第1絵文字対応テーブルE1に格納された認識キーワードとを比較し、一致した場合、一致した認識キーワードを、音声テキストに対応する認識キーワードとして特定し、処理を終了する。
一方、第1音声テキスト〜第5音声テキストの全ての音声テキストについて、第1絵文字対応テーブルE1に格納された認識キーワードと文字列が一致するものがない場合、絵文字選択部811は、処理手順をステップSI16へ移行し、上述した方法で、認識キーワードフィールドFA1に格納された認識キーワードのうち、第1音声テキストに音声が最も近似するものを選択し、選択した認識キーワードを、音声テキストに対応する認識キーワードとして特定する。
絵文字選択部811は、さらに、第1絵文字対応テーブルE1において、特定した認識キーワードと対応付けられた絵文字IDを特定する。上述したように、対応する絵文字IDは、複数、存在する場合がある。
以上、第3特定方法について説明したが、この方法によれば、音声テキストデータに、認識の確度の順番に5つの音声テキストが記述されていることを有効に利用して、認識キーワードの特定を行える。また、第3特定方法によれば、第1特定方法と比較して、発音記号列の距離の値の算出、算出した値の比較等の、第1音声テキストに近似する認識キーワードを選択する処理を行わなくてよい確率が高く、処理効率が良い。
以上、3つの例を挙げて、認識キーワードを特定する方法について説明したが、当該方法は例示したものに限らない。
さて、図3(C)に戻り、ステップSC4のキーワード特定処理を実行した後、絵文字選択部811は、絵文字選択処理を実行する(ステップSC5)。以下、絵文字選択処理について詳述する。
絵文字選択処理は、ステップSC4のキーワード特定処理で特定した認識キーワードに対応する絵文字IDが、複数、存在する場合に、複数の絵文字IDの中から、メッセージとして送信する絵文字の絵文字IDを選択する処理である。なお、認識キーワードに対応する絵文字IDが1つの場合は、絵文字選択部811は、絵文字選択処理によらず、当該絵文字IDを、メッセージとして送信する絵文字の絵文字IDとして選択する。
絵文字選択処理は、車両2が停車している場合と、停車していない場合とで、処理内容が異なる。以下、まず、車両2が停車している場合の絵文字選択処理について説明し、次いで、車両2が走行していない場合の絵文字選択処理について説明する。なお、絵文字選択部811は、ステップSC1で受信した走行状態情報に基づいて、車両2が停車しているか否かを判別する。
<車両2が停車している場合の絵文字選択処理>
車両2が停車している場合、絵文字選択部811は、複数の絵文字IDに対応する絵文字の中から、ユーザに1の絵文字を選択させ、ユーザに選択された絵文字に対応する絵文字IDを、メッセージとして送信する絵文字の絵文字IDとして選択する。
詳述すると、絵文字選択部811は、携帯端末4の専用アプリAP、及び、車載装置3の対応アプリTPと通信して、これらアプリケーションに必要な情報を出力し、複数の絵文字IDに対応する絵文字が表示され、いずれか1つの絵文字を選択させるユーザインターフェイスをタッチパネル33に表示させる。なお、本実施形態では、専用アプリAPが、絵文字IDと、絵文字の画像データ等の絵文字を表示させるために必要なデータと、を対応付けたデータベースを有しており、絵文字IDから絵文字への変換は、専用アプリAPの機能により行われる。
図8は、タッチパネル33に表示されるユーザインターフェイスの一例を示す図である。図8の例では、画面に、認識キーワード「りょうかい(了解)」に対応する4つの絵文字ST1〜絵文字ST4が表示される。ユーザは、いずれかの絵文字に対応する領域をタッチ操作して、いずれかの絵文字を選択する。車両2は停車中であるため、ユーザは、ユーザインターフェイスを参照し、所望の絵文字を選択することが可能である。
携帯端末4の専用アプリAP、及び、車載装置3の対応アプリTPは、共同して、ユーザにより選択された絵文字の絵文字IDを、絵文字選択部811に出力する。絵文字選択部811は、入力された絵文字IDを選択する。
以上のように、車両2が停車中の場合は、ユーザが車載装置3に対応する操作を行うことができる状態であるため、絵文字選択部811は、ユーザに絵文字を選択させ、対応する絵文字IDを選択する。これにより、車両2が停車中であることを踏まえて、ユーザが望む絵文字に対応する絵文字IDを、確実に、選択できる。
<車両2が停車していない場合の絵文字選択処理>
以下、車両2が停車していない場合の絵文字選択処理について、2つの方法を例示する。
<車両2が停車していない場合の絵文字選択処理の第1の方法>
図9は、第1の方法に係る絵文字選択処理で使用する第1テーブルTB1のデータ構造を示す図である。
図9に示すように、第1テーブルTB1の1件のレコードは、認識キーワードフィールドFC1と、通信相手フィールドFC2と、絵文字IDフィールドFC3とを有する。認識キーワードフィールドFC1には、主認識キーワードKW1が格納される。通信相手フィールドFC2には、通信相手のユーザIDが格納される。絵文字IDフィールドFC3には、絵文字IDが格納される。すなわち、第1テーブルTB1の1件のレコードでは、認識キーワードと、ユーザIDと、絵文字IDとが対応付けられる。
第1テーブルTB1の1件のレコードは、以下のことを意味する。すなわち、1件のレコードは、認識キーワードフィールドFC1に格納された認識キーワードに対応する絵文字を、通信相手フィールドFC2に格納されたユーザIDの通信相手に送信する場合、絵文字IDフィールドFC3に格納された絵文字IDの絵文字を送信することを意味する。
なお、ユーザは、第1テーブルTB1の編集(レコードの追加、レコードの削除、レコードが有する情報の改変等)を、車両2の停車中における任意のタイミングで、行うことができる。すなわち、携帯端末4の専用アプリAPと、車載装置3の対応アプリTPは、第1テーブルTB1の編集に関する入力を行えるユーザインターフェイスを提供可能である。ユーザは、当該ユーザインターフェイスを利用して、各種入力を行い、第1テーブルTB1を編集する。
第1の方法に係る絵文字選択処理において、絵文字選択部811は、第1テーブルTB1を参照する。次いで、絵文字選択部811は、ステップSC4のキーワード特定処理で特定された認識キーワードが認識キーワードフィールドFC1に格納され、かつ、ステップSC1で受信したユーザIDが通信相手フィールドFC2に格納されたレコードを特定する。次いで、絵文字選択部811は、特定したレコードの絵文字IDフィールドFC3に格納された絵文字IDを取得する。絵文字選択部811は、取得した絵文字IDを、メッセージとして送信する絵文字の絵文字IDとして選択する。
第1の方法に係る絵文字選択処理で選択された絵文字IDは、ユーザが、通信相手ごとに事前に選択した絵文字の絵文字IDである。
<車両2が停車していない場合の絵文字選択処理の第2の方法>
図10は、第2の方法に係る絵文字選択処理で使用する第2テーブルTB2のデータ構造を示す図である。
図10に示すように、第2テーブルTB2の1件のレコードは、認識キーワードフィールドFD1と、絵文字IDフィールドFD2と、通信相手フィールドFD3と、使用頻度フィールドFD4とを有する。
認識キーワードフィールドFD1には、主認識キーワードKW1が格納される。絵文字IDフィールドFD2には、絵文字IDが格納される。通信相手フィールドFD3には、ユーザIDが格納される。使用頻度フィールドFD4には、使用頻度(後述)を示す情報が格納される。すなわち、第2テーブルTB2の1件のレコードでは、認識キーワードと、絵文字IDと、ユーザIDと、使用頻度を示す情報(以下、「使用頻度情報」という。)と、が対応付けられる。
第2テーブルTB2の1件のレコードは、以下のことを意味する。すなわち、認識キーワードフィールドFD1に格納された認識キーワードに対応する絵文字を、通信相手フィールドFD3に格納されたユーザIDの通信相手に送信する場合、絵文字IDフィールドFC3に格納された絵文字IDの絵文字をユーザが使用する使用頻度が、使用頻度フィールドFD4に格納された使用頻度情報が示す使用頻度であることを意味する。本例では、使用頻度情報は、1つのユーザIDについて、1つの認識キーワードに対応する複数の絵文字IDのうち、どの絵文字IDが最も使用頻度が高いかを識別できるような情報とされる。
なお、第2テーブルTB2は、絵文字選択部811により、自動で更新される。例えば、絵文字選択部811は、携帯端末4の専用アプリAPから、メッセージ送受信システムを利用して送信された絵文字の絵文字ID、絵文字を送信した通信相手のユーザID、及び、絵文字IDを送信したときの日時(日付+時刻)を示す情報を、所定のタイミングで受け取る。そして、絵文字選択部811は、受け取った情報を、所定のデータベースに格納する。そして、絵文字選択部811は、データベースに格納された情報に基づいて、ユーザIDと絵文字IDとの組み合わせごとに、所定の統計学的手法により、使用頻度を算出し、算出した使用頻度に基づいて、第2テーブルTB2にレコードを追加し、また、既存のレコードの使用頻度情報を書き換える。
また例えば、絵文字選択部811は、メッセンジャーサーバ9から、使用頻度を算出するために必要な情報を受け取り、受け取った情報に基づいて使用頻度を算出し、算出した使用頻度に基づいて、第2テーブルTB2にレコードを追加し、また、既存のレコードの使用頻度情報を書き換える。なお、絵文字選択部811に使用頻度を算出するために必要な情報を提供する提供元、及び、第2テーブルTB2の更新方法はどのようなものであってもよい。
第2の方法に係る絵文字選択処理において、絵文字選択部811は、第2テーブルTB2を参照する。次いで、絵文字選択部811は、ステップSC4のキーワード特定処理で特定された認識キーワードが認識キーワードフィールドFD1に格納され、かつ、ステップSC1で受信したユーザIDが通信相手フィールドFD3に格納されたレコードを特定する。
特定したレコードが1つの場合、換言すれば、認識キーワードに対応する複数の絵文字のうち、特定したレコードに対応する絵文字のみが過去にユーザによって使用された状況である場合、絵文字選択部811は、特定したレコードの絵文字IDフィールドFD2に格納された絵文字IDを、メッセージとして送信する絵文字の絵文字IDとして選択する。
特定したレコードが複数の場合、換言すれば、認識キーワードに対応する複数の絵文字のうち、複数の絵文字が過去にユーザによって使用された状況である場合、絵文字選択部811は、各レコードの使用頻度フィールドFD4に格納された使用頻度情報を取得する。次いで、絵文字選択部811は、取得した使用頻度情報のそれぞれに基づいて、最も使用頻度の高い絵文字IDを特定し、特定した絵文字IDを、メッセージとして送信する絵文字の絵文字IDとして選択する。このようにして、絵文字IDを選択することにより、特定の通信相手に送信する絵文字の絵文字IDとして、過去のユーザの使用態様が反映された適切な絵文字IDを選択することが可能である。
特定したレコードが1つもない場合、換言すれば、認識キーワードに対応する複数の絵文字のうち、いずれの絵文字も過去にユーザによって使用されていない状況である場合、絵文字選択部811は、認識キーワードに対応する複数の絵文字IDのうち、任意の1の絵文字IDを、メッセージとして送信する絵文字の絵文字IDとして選択する。任意の1の絵文字IDは、デフォルト値として予め定められているものでもよく、ユーザにより設定されたものであってもよい。
以上、車両2が停車していない場合の絵文字選択処理の方法として、2つの方法を説明したが、当該処理の方法は例示したものに限られない。また、複数の方法をユーザが切り替えることが可能な構成としてもよい。
さて、図3(C)に戻り、ステップSC5の絵文字選択処理が完了した後、サーバ制御部81は、サーバ通信部83を制御して、ステップSC5の絵文字選択処理で選択した絵文字ID、及び、ステップSC1で受信したユーザIDを、メッセンジャーサーバ9に送信する(ステップSC6)。ステップSC6では、絵文字IDや、ユーザIDのほか、車載装置3の動作モードや、車両2に搭乗するユーザのユーザID等、メッセンジャーサーバ9が、通信先携帯端末5に適切な態様で絵文字IDを送るために必要な情報が付加される。これらの情報を、サーバ制御部81は、携帯端末4の専用アプリAP、及び、車載装置3の対応アプリTPと通信して、所定の手段により、所定のタイミングで取得する。
図3(E)に示すように、メッセンジャーサーバ9は、絵文字ID、及び、ユーザIDを受信する(ステップSE1)。次いで、メッセンジャーサーバ9は、ユーザIDに対応する通信先携帯端末5を特定し、特定した通信先携帯端末5に絵文字IDを送信する(ステップSE2)。
図3(F)に示すように、通信先携帯端末5は、絵文字IDを受信し、所定の画面における受信した絵文字を表示する領域に、絵文字IDに対応する絵文字を表示する。
図3(C)に示すように、制御サーバ8のサーバ制御部81は、メッセンジャーサーバ9への情報の送信と合わせて、携帯端末4との間で確立したコネクションを利用して、絵文字IDを携帯端末4に送信する(ステップSC7)。
図3(B)に示すように、携帯端末4の端末制御部40は、ネットワーク通信部44を制御して、絵文字IDを受信する(ステップSB4)。
次いで、端末制御部40は、受信した絵文字IDに基づいて、所定の画面における送信した絵文字を表示する領域に、絵文字IDに対応する絵文字を表示する(ステップSB5)。
次いで、端末制御部40は、近距離無線通信部43を制御して、ステップSB5の処理で行われた画面の変化に関する情報を、車載装置3に送信する(ステップSB6)。
図3(A)に示すように、車載装置3の制御部31は、画面の変化に関する情報を受信する(ステップSA4)。
次いで、制御部31は、受信した情報に基づいて、タッチパネル33に表示された携帯端末4の画面に対応する画面を変化させる(ステップSA5)。このステップSA5の処理により、タッチパネル33の画面が、携帯端末4の画面に同期して変化し、タッチパネル33の画面に、送信した絵文字が表示される。
なお、図3のフローチャートの処理単位は、各装置の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。各装置の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、処理の順番も、図示した例に限られるものではない。
以上説明したように、本実施形態に係る情報処理システム1は、制御サーバ8(情報処理装置)と、車両2に搭載された車載装置3と、を備える。
車載装置3は、音声を収音する収音部36と、収音部36で収音した音声に基づいて生成された音声データを制御サーバ8に送信する送信部(制御部31、通信部37)と、を有する。
制御サーバ8は、認識キーワード(キーワード)と、認識キーワードに対応する複数の絵文字を示す絵文字ID(絵文字情報)とを対応付けた絵文字対応テーブル82a(絵文字対応情報)を記憶するサーバ記憶部82(記憶部)と、絵文字対応テーブル82aが有する認識キーワードの中から、音声データに基づく音声認識により生成された音声を示すテキストに対応する認識キーワードを選択し、選択した認識キーワードと対応付けられた複数の絵文字IDの中から、所定の条件に応じて、1の絵文字IDを選択する絵文字処理を実行するサーバ制御部81と、を有する。
この構成によれば、車両2内で発話された音声に対応する絵文字が、複数、ある場合に、制御サーバ8により所定の条件に応じた1の絵文字が選択されるため、ユーザは絵文字を選択する作業をする必要がなく、ユーザの利便性が向上する。
また、本実施形態では、制御サーバ8のサーバ記憶部82が記憶する絵文字対応テーブル82aは、絵文字IDと、使用頻度を示す情報とを対応付けて記憶する。そして、制御サーバ8のサーバ制御部81は、絵文字選択処理において、選択した認識キーワードと対応付けられた複数の絵文字IDの中から、使用された頻度の高い絵文字に対応する1の絵文字IDを選択することが可能である。
この構成によれば、制御サーバ8は、複数の絵文字の中から、ユーザの使用頻度を反映した1の絵文字を選択できる。
また、本実施形態では、制御サーバ8のサーバ記憶部82は、絵文字対応テーブル82aが有する絵文字IDについて、ユーザID(通信相手を示す情報)と対応付けて、対応する絵文字が使用された頻度を示す情報を記憶する。そして、制御サーバ8のサーバ制御部81は、絵文字選択処理において、ユーザID(絵文字を出力する通信相手)を取得し、選択した認識キーワードと対応付けられた複数の絵文字IDの中から、取得したユーザIDに出力する場合に使用された頻度の高い絵文字に対応する1の絵文字IDを選択することが可能である。
この構成によれば、制御サーバ8は、複数の絵文字の中から、通信相手に応じて、ユーザの使用頻度を反映した1の絵文字を選択できる。
また、本実施形態では、制御サーバ8のサーバ制御部81は、絵文字選択処理において、選択した認識キーワードと対応付けられた複数の絵文字IDの中から、事前に設定された1の絵文字IDを選択することが可能である。
この構成によれば、制御サーバ8は、複数の絵文字の中から、事前に設定された1の絵文字を選択することができる。
また、本実施形態では、制御サーバ8のサーバ制御部81は、絵文字対応テーブル82aが有する認識キーワードの中から、音声データに基づく音声テキストに対応する認識キーワードを選択する際、音声認識の誤りを反映した選択を行う。
この構成によれば、制御サーバ8は、音声の認識を反映した適切な1の認識キーワードを選択できる。
また、本実施形態では、制御サーバ8のサーバ制御部81は、音声データの送信元の車載装置3が搭載された車両2が走行中か否かを判別し、走行中の場合、絵文字選択処理を実行する一方、走行中でない場合、車載装置3と通信し、選択した認識キーワードと対応付けられた複数の絵文字IDに対応する絵文字の中から、1の絵文字をユーザに選択させる処理を車載装置3に実行させ、ユーザにより選択された1の絵文字に対応する1の絵文字IDを選択する。
この構成によれば、車両2が停車中であり、ユーザが車載装置3に対応する操作を可能な状態のときは、複数の絵文字の中からユーザに1の絵文字を選択させることにより、所望の絵文字を確実に選択できる。
<第1の変形例>
次に、第1の変形例について説明する。
図11は、第1の変形例に係る情報処理システム1の構成を示す図である。以下の説明で、上述した第1実施形態に係る情報処理システム1の構成要素と同様の構成要素については、同一の符号を付し、その詳細な説明は省略する。
図2と、図11との比較によって明らかなとおり、第1の変形例に係る情報処理システム1は、車載装置3の制御部31が、機能ブロックとして、絵文字選択部313を有する。絵文字選択部313は、上述した実施形態における絵文字選択部811と同様の機能を有する機能ブロックである。つまり、第1の変形例では、車載装置3が、キーワード特定処理、及び、絵文字選択処理を実行する。
また、制御部31は、音声認識部312を有する。また、記憶部32は、絵文字対応テーブル32aを有する。絵文字対応テーブル32aは、上述した実施形態における絵文字対応テーブル82aに対応するデータである。
次に、通信先携帯端末5にメッセージとして絵文字を送信する場合の第1の変形例に係る情報処理システム1の各装置の動作について説明する。
ユーザは、車両2で、絵文字を表現する音声を発話する。ユーザにより発話された音声は、収音部36により収音されて、音声データとして制御部31に出力される。
制御部31の音声認識部312は、音声認識を行って、入力された音声データに基づいて、音声テキストデータを生成する。このように、第1の変形例では、車載装置3が、音声認識を行って、音声データに基づいて、音声テキストデータを生成する機能を有する。
次いで、絵文字選択部313は、キーワード特定処理を行って、認識キーワードを特定する。次いで、絵文字選択部313は、絵文字選択処理を行って、対応する複数の絵文字IDの中から、1の絵文字IDを選択する。
次いで、制御部31は、携帯端末4を介して、メッセンジャーサーバ9と通信し、選択した絵文字IDの絵文字をメッセージとして通信先携帯端末5に送信する。また、制御部31と、携帯端末4の端末制御部40は、協同して、送信した絵文字を、送信履歴として表示する。
以上、第1の変形例で示したように、音声認識や、キーワード特定処理、絵文字選択処理を、車載装置3が実行する構成であってもよい。このような構成であっても、上述した実施形態と同様の効果を奏することができる。
<第2の変形例>
次いで、第2の変形例について説明する。
図12は、第2の変形例に係る情報処理システム1の構成を示す図である。
図2と、図12との比較によって明らかなとおり、第2の変形例では、車載装置3がネットワーク通信部38を有しており、車載装置3は、このネットワーク通信部38の機能により、ネットワーク6に接続された機器と通信できる。
また、第2の変形例では、車載装置3に専用アプリAPがインストールされている。車載装置3は、専用アプリAPの機能により、メッセンジャーサーバ9が提供するメッセージ送信システムを利用して、通信先携帯端末5との間でメッセージを送受信できる。
次に、通信先携帯端末5にメッセージとして絵文字を送信する場合の第2の変形例に係る情報処理システム1の各装置の動作について説明する。
ユーザは、車両2で、絵文字を表現する音声を発話する。ユーザにより発話された音声は、収音部36により収音されて、音声データとして制御部31に出力される。
制御部31の音声認識部312は、音声認識を行って、入力された音声データに基づいて、音声テキストデータを生成する。このように、第2の変形例では、車載装置3が、音声認識を行って、音声データに基づいて、音声テキストデータを生成する機能を有する。
次いで、絵文字選択部313は、キーワード特定処理を行って、認識キーワードを特定する。次いで、絵文字選択部313は、絵文字選択処理を行って、対応する複数の絵文字IDの中から、1の絵文字IDを選択する。
次いで、制御部31は、ネットワーク通信部38を制御して、メッセンジャーサーバ9と通信し、選択した絵文字IDの絵文字をメッセージとして通信先携帯端末5に送信する。また、制御部31は、送信した絵文字を、送信履歴として表示する。
以上、第2の変形例で示したように、音声認識や、キーワード特定処理、絵文字選択処理を、車載装置3が実行する構成であってもよい。さらに、車載装置3に専用アプリAPがインストールされ、車載装置3がメッセージ送信システムを利用し、メッセージを送受信する構成であってもよい。このような構成であっても、上述した実施形態と同様の効果を奏することができる。
上述した実施形態は、あくまでも本発明の一態様を例示するものであって、本発明の趣旨を逸脱しない範囲で任意に変形、及び、応用が可能である。
例えば、上述した実施形態では、メッセンジャーサーバ9と、制御サーバ8とを別体として例示したが、これらサーバが同一のサーバであってもよい。すなわち、制御サーバ8が、メッセンジャーサーバ9の機能を有していてもよい。
また、上述した実施形態では、携帯端末4と、通信先携帯端末5との間で、チャットの形態でメッセージを送受信する場合を例にして発明を説明したが、メッセージの送受信は、チャットの形態に限らず、メールの形態等の、他の形態であってもよい。
1 情報処理システム
2 車両
3 車載装置
8 制御サーバ(情報処理装置)
36 収音部
81 サーバ制御部(制御部)
82a 絵文字対応テーブル(絵文字対応情報)

Claims (6)

  1. 情報処理装置と、車両に搭載された車載装置と、を備える情報処理システムであって、
    前記車載装置は、
    音声を収音する収音部と、
    前記収音部で収音した音声に基づいて生成された音声データを前記情報処理装置に送信する送信部と、を有し、
    前記情報処理装置は、
    キーワードと、前記キーワードに対応する複数の絵文字を示す絵文字情報とを対応付けた絵文字対応情報を記憶する記憶部と、
    前記絵文字対応情報が有する前記キーワードの中から、前記音声データに基づく音声認識により生成された音声を示すテキストに対応する前記キーワードを選択し、選択した前記キーワードと対応付けられた複数の前記絵文字情報の中から、所定の条件に応じて、1の前記絵文字情報を選択する絵文字選択処理を実行する制御部と、を有し、
    前記情報処理装置の前記制御部は、
    前記音声データの送信元の前記車載装置が搭載された前記車両が走行中か否かを判別し、
    走行中の場合、前記絵文字選択処理を実行する一方、
    走行中でない場合、前記車載装置と通信し、選択した前記キーワードと対応付けられた複数の前記絵文字情報に対応する前記絵文字の中から、1の前記絵文字をユーザに選択させる処理を前記車載装置に実行させ、ユーザにより選択された1の前記絵文字に対応する1の前記絵文字情報を選択する
    ことを特徴とする情報処理システム。
  2. 前記絵文字は、所定のデータ送受信システムで、ユーザにより選択されて、指定された通信相手に出力されるものであり、
    前記情報処理装置の前記記憶部は、
    前記絵文字対応情報が有する前記絵文字情報について、対応する前記絵文字が使用された頻度を示す情報を記憶し、
    前記情報処理装置の前記制御部は、
    前記絵文字選択処理において、選択した前記キーワードと対応付けられた複数の前記絵文字情報の中から、使用された頻度の高い前記絵文字に対応する1の前記絵文字情報を選択することを特徴とする請求項1に記載の情報処理システム。
  3. 前記情報処理装置の前記記憶部は、
    前記絵文字対応情報が有する前記絵文字情報について、前記通信相手を示す情報と対応付けて、対応する前記絵文字が使用された頻度を示す情報を記憶し、
    前記情報処理装置の前記制御部は、
    前記絵文字選択処理において、前記絵文字を出力する前記通信相手を取得し、選択した前記キーワードと対応付けられた複数の前記絵文字情報の中から、取得した前記通信相手に出力する場合に使用された頻度の高い前記絵文字に対応する1の前記絵文字情報を選択することを特徴とする請求項2に記載の情報処理システム。
  4. 前記情報処理装置の前記制御部は、
    前記絵文字選択処理において、選択した前記キーワードと対応付けられた複数の前記絵文字情報の中から、事前に設定された1の前記絵文字情報を選択することを特徴とする請求項1に記載の情報処理システム。
  5. 前記情報処理装置の前記制御部は、
    前記絵文字対応情報が有する前記キーワードの中から、前記音声データに基づく前記テキストに対応する前記キーワードを選択する際、前記音声認識の誤りを反映した選択を行うことを特徴とする請求項1に記載の情報処理システム。
  6. 車両に搭載され、
    音声を収音する収音部と、
    キーワードと、前記キーワードに対応する複数の絵文字を示す絵文字情報とを対応付けた絵文字対応情報を記憶する記憶部と、
    前記収音部で収音した音声に基づいて生成された音声データに基づく音声認識を行い、音声認識の結果に基づいて、音声を示すテキストを生成するテキスト生成部と、
    前記絵文字対応情報が有する前記キーワードの中から、音声を示すテキストに対応する前記キーワードを選択し、選択した前記キーワードと対応付けられた複数の前記絵文字情報の中から、所定の条件に応じて、1の前記絵文字情報を選択する絵文字選択処理を実行する制御部と、を備え
    前記制御部は、
    前記車両が走行中か否かを判別し、
    走行中の場合、前記絵文字選択処理を実行する一方、
    走行中でない場合、選択した前記キーワードと対応付けられた複数の前記絵文字情報に対応する前記絵文字の中から、1の前記絵文字をユーザに選択させる処理を実行し、ユーザにより選択された1の前記絵文字に対応する1の前記絵文字情報を選択する
    ことを特徴とする車載装置。
JP2016531131A 2014-06-30 2015-02-25 情報処理システム、及び、車載装置 Active JP6483680B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014133997 2014-06-30
JP2014133997 2014-06-30
PCT/JP2015/055346 WO2016002251A1 (ja) 2014-06-30 2015-02-25 情報処理システム、及び、車載装置

Publications (2)

Publication Number Publication Date
JPWO2016002251A1 JPWO2016002251A1 (ja) 2017-05-25
JP6483680B2 true JP6483680B2 (ja) 2019-03-13

Family

ID=55018815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016531131A Active JP6483680B2 (ja) 2014-06-30 2015-02-25 情報処理システム、及び、車載装置

Country Status (5)

Country Link
US (1) US10008204B2 (ja)
EP (1) EP3163457B1 (ja)
JP (1) JP6483680B2 (ja)
CN (1) CN106462513B (ja)
WO (1) WO2016002251A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10831996B2 (en) * 2015-07-13 2020-11-10 Teijin Limited Information processing apparatus, information processing method and computer program
CN105825856B (zh) * 2016-05-16 2019-11-08 四川长虹电器股份有限公司 车载语音识别模块的自主学习方法
CN106372059B (zh) * 2016-08-30 2018-09-11 北京百度网讯科技有限公司 信息输入方法和装置
US10783883B2 (en) * 2016-11-03 2020-09-22 Google Llc Focus session at a voice interface device
CN107153496B (zh) * 2017-07-04 2020-04-28 北京百度网讯科技有限公司 用于输入表情图标的方法和装置
KR102348124B1 (ko) * 2017-11-07 2022-01-07 현대자동차주식회사 차량의 기능 추천 장치 및 방법
JP7094486B2 (ja) * 2017-12-27 2022-07-04 トヨタ自動車株式会社 情報提供装置
JP7259211B2 (ja) * 2018-05-07 2023-04-18 トヨタ自動車株式会社 情報処理装置、情報処理方法、及びプログラム
US11763821B1 (en) * 2018-06-27 2023-09-19 Cerner Innovation, Inc. Tool for assisting people with speech disorder
JP7178983B2 (ja) * 2019-12-04 2022-11-28 本田技研工業株式会社 エージェント装置、エージェント方法、及びプログラム
JP7465700B2 (ja) * 2020-03-27 2024-04-11 株式会社デンソーテン 車載装置および車載装置における音声処理方法
US11893978B2 (en) * 2021-08-12 2024-02-06 Ford Global Technologies, Llc Speech recognition in a vehicle

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6791529B2 (en) * 2001-12-13 2004-09-14 Koninklijke Philips Electronics N.V. UI with graphics-assisted voice control system
JP2005346252A (ja) * 2004-06-01 2005-12-15 Nec Corp 情報伝達システムおよび情報伝達方法
JP4670431B2 (ja) 2005-03-30 2011-04-13 日本電気株式会社 音声感情認識によるメール作成機能付携帯端末、携帯端末システム、及び、音声感情認識によるメール作成方法
JP2007127896A (ja) * 2005-11-04 2007-05-24 Nissan Motor Co Ltd 音声認識装置及び音声認識方法
US8620658B2 (en) * 2007-04-16 2013-12-31 Sony Corporation Voice chat system, information processing apparatus, speech recognition method, keyword data electrode detection method, and program for speech recognition
JP2008269072A (ja) 2007-04-17 2008-11-06 Nec Corp 辞書作成システムおよび辞書作成方法
JP5267450B2 (ja) * 2009-12-28 2013-08-21 株式会社デンソー 電子機器及びプログラム
JP2011209914A (ja) * 2010-03-29 2011-10-20 Ntt Docomo Inc 辞書データ配信装置及び辞書データ配信方法
JP5616142B2 (ja) 2010-06-28 2014-10-29 本田技研工業株式会社 携帯機器と連携した車載機器を用いてコンテンツを自動的に投稿するためのシステム
US20120185240A1 (en) * 2011-01-17 2012-07-19 Goller Michael D System and method for generating and sending a simplified message using speech recognition
JP5630830B2 (ja) * 2011-02-25 2014-11-26 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置及びその文字入力方法
JP5234160B2 (ja) * 2011-03-23 2013-07-10 株式会社デンソー 車両用装置および情報表示システム
JP2013088477A (ja) * 2011-10-13 2013-05-13 Alpine Electronics Inc 音声認識システム
JP5925313B2 (ja) * 2012-07-03 2016-05-25 三菱電機株式会社 音声認識装置
US9678573B2 (en) * 2012-07-30 2017-06-13 Microsoft Technology Licensing, Llc Interaction with devices based on user state
US8909153B2 (en) * 2012-09-05 2014-12-09 GM Global Technology Operations LLC Vehicle communications using a mobile device
CN104919278B (zh) * 2013-01-09 2017-09-19 三菱电机株式会社 语音识别装置及显示方法
US9390149B2 (en) * 2013-01-16 2016-07-12 International Business Machines Corporation Converting text content to a set of graphical icons
JP5925401B2 (ja) * 2014-02-21 2016-05-25 三菱電機株式会社 音声認識装置、システムおよび方法

Also Published As

Publication number Publication date
EP3163457A4 (en) 2018-03-07
CN106462513B (zh) 2019-05-28
US20170103756A1 (en) 2017-04-13
JPWO2016002251A1 (ja) 2017-05-25
US10008204B2 (en) 2018-06-26
CN106462513A (zh) 2017-02-22
EP3163457A1 (en) 2017-05-03
EP3163457B1 (en) 2018-10-10
WO2016002251A1 (ja) 2016-01-07

Similar Documents

Publication Publication Date Title
JP6483680B2 (ja) 情報処理システム、及び、車載装置
US10991374B2 (en) Request-response procedure based voice control method, voice control device and computer readable storage medium
KR102100389B1 (ko) 개인화된 엔티티 발음 학습
US11217230B2 (en) Information processing device and information processing method for determining presence or absence of a response to speech of a user on a basis of a learning result corresponding to a use situation of the user
US8903651B2 (en) Information terminal, server device, searching system, and searching method thereof
JP5951161B2 (ja) 音声認識装置及び音声認識方法
EP3407349A1 (en) Multiple recognizer speech recognition
JP2014106523A (ja) 音声入力対応装置及び音声入力対応プログラム
JPWO2013027360A1 (ja) 音声認識システム、認識辞書登録システム及び音響モデル識別子系列生成装置
US20150221308A1 (en) Voice recognition system
WO2016136207A1 (ja) 音声対話装置、音声対話システム、音声対話装置の制御方法、および、プログラム
JP2011232619A (ja) 音声認識装置および音声認識方法
JP2018040904A (ja) 音声認識装置および音声認識方法
JP5606951B2 (ja) 音声認識システムおよびこれを用いた検索システム
JP2009265307A (ja) 音声認識装置及びこれを用いる車両システム
JP2016081128A (ja) 検索システム
JP2014065359A (ja) 表示制御装置、表示システム及び表示制御方法
US20150192425A1 (en) Facility search apparatus and facility search method
JP2013068665A (ja) 音声認識装置
US10505879B2 (en) Communication support device, communication support method, and computer program product
CN112823047A (zh) 用于控制网络应用程序的系统和设备
JPWO2019103007A1 (ja) 情報処理装置及び情報処理方法
JP2020086010A (ja) 音声認識装置、音声認識方法及び音声認識プログラム
JP2009271835A (ja) 機器操作制御装置及びプログラム
JP2015129793A (ja) 音声認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190214

R150 Certificate of patent or registration of utility model

Ref document number: 6483680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150