JP6501217B2 - 情報端末システム - Google Patents

情報端末システム Download PDF

Info

Publication number
JP6501217B2
JP6501217B2 JP2015027687A JP2015027687A JP6501217B2 JP 6501217 B2 JP6501217 B2 JP 6501217B2 JP 2015027687 A JP2015027687 A JP 2015027687A JP 2015027687 A JP2015027687 A JP 2015027687A JP 6501217 B2 JP6501217 B2 JP 6501217B2
Authority
JP
Japan
Prior art keywords
specific identification
identification information
information terminal
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015027687A
Other languages
English (en)
Other versions
JP2016151608A (ja
Inventor
宏一 山下
宏一 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2015027687A priority Critical patent/JP6501217B2/ja
Priority to US15/003,213 priority patent/US9728187B2/en
Publication of JP2016151608A publication Critical patent/JP2016151608A/ja
Application granted granted Critical
Publication of JP6501217B2 publication Critical patent/JP6501217B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Telephone Function (AREA)

Description

本発明は、複数の情報端末を接続可能な電子装置に関し、特に、電子装置から複数の情報端末の音声認識機能を起動させる方法に関する。
キーボードなどによる手入力が困難な環境、例えば、走行中では、車載装置への入力手段として、音声入力の利用が増えてきている。また、車内に持ち込んだスマートフォン、タブレット型端末等の情報端末を車載装置に接続し、情報端末の機能を車載装置上で利用することも可能となっている。
車内に複数の情報端末が持ち込まれたとき、車載装置と通信を行うべき情報端末の接続先を選択する必要がある。特許文献1は、複数の話者の音声特徴をモデル化した音声モデルと各音声モデルに対応した携帯電話機の識別情報とを関連付けて記憶し、音声の発話があったとき、当該音声に一致する音声モデルに対応する携帯電話機を特定し、特定した携帯電話機を通信の接続先として選択する方法を開示している。
特開2010−74472号公報
図11は、従来の情報端末の接続システムの一例を示している。同図に示すように、車内に複数のスマートフォン(多機能型情報端末)4A、4Bが持ち込まれたとき、スマートフォン4A、4Bは、車載装置1と近距離無線通信5A、5Bを介して接続される。近距離無線通信5Aは、例えば、Bluetooth(登録商標)、WiFi(登録商標)などである。スマートフォン4A、4Bと車載装置1との通信接続が確立されると、車載装置1の表示部には、例えば、スマートフォン4A、4Bの機能を利用するためのメニュー画面2が立ち上がり、当該メニュー画面2のアイコンA1、A2、A3、A4を利用してスマートフォン4A、4Bへのユーザー入力を行うことができる。例えば、アイコンA1を選択すると、スマートフォン4Aに搭載されるナビゲーション機能が実行され、スマートフォン4Aから車載装置1に画像データが送信され、車載装置の表示部に自車位置を含む道路地図が表示される。また、アイコンA2を選択すると、スマートフォン4Bに搭載されるオーディオ再生機能が実行され、スマートフォン4Bから車載装置にオーディオデータが送信され、車載装置のスピーカから楽曲等が音声出力される。
また、メニュー画面には、スマートフォン4A、4Bに搭載される音声認識機能を起動させるための音声認識ボタン3が設けられている。ユーザーは、音声認識ボタン3を選択することで、音声入力を行うことが可能であるが、ユーザーインターフェースの煩雑さを回避するため、ユーザーが発話した音声信号は、スマートフォン4Aまたは4Bのいずれか一方へ送信される仕様になっている。例えば、夫婦で同乗している場合、一方のスマートフォン4Aによりナビゲーション機能を実行し、他方のスマートフォン4Bで音楽等を再生するエンターテイメント機能を実行している状況において、音声認識ボタン3を押下したとき、車載装置1では、ユーザーがいずれのスマートフォンの音声認識機能を利用したいのか判定することができないという課題がある。また、音声認識を実行したスマートフォンにおいて音声認識結果に応じた動作が実施されるため、例えば、エンターテイメント機能を利用するために発話した音声信号が、ナビゲーション機能を実行しているスマートフォン4Aへ送信されてしまうと、ユーザーが所望する動作と異なる動作が実施されてしまう。例えば、「○○に行きたい」という発話内容が、エンターテイメント機能を実行しているスマートフォン4Bに送信され、そのスマートフォン4Bにおいて「○○に行きたい」の音声認識結果に応じた動作が実施されると、意図していないスマートフォン4Bにおいてナビゲーション機能が起動されてしまう。また、「××を再生」という発話内容が、そのコンテンツを持たないスマートフォンに送信され、そのスマートフォンにおいて「××を再生」の音声認識結果に応じた動作が実施されると、コンテンツがないため再生することができない。
本発明は、このような従来の課題を解決するものであり、ユーザーの発話音声に応じて、複数の情報端末の中から情報端末を選択し、選択された情報端末の音声認識機能を自動的に起動させることができる、電子装置、情報端末システム、音声認識機能の起動プログラムおよび音声認識機能の起動方法を提供することを目的とする。
本発明に係る電子装置は、音声認識機能を備えた情報端末を複数同時に接続可能な接続手段と、発話音声を受け取り、発話音声に対応する音声信号を出力する音声入力手段と、前記音声入力手段から出力された音声信号の音声認識を行う音声認識手段と、前記音声認識手段の音声認識結果に基づき前記音声信号に特定の識別情報が含まれているか否かを判定する判定手段と、前記判定手段により特定の識別情報が含まれていると判定されたとき、前記特定の識別情報に基づき前記音声信号を送信すべき情報端末を選択する選択手段と、前記選択手段の選択結果に基づき前記音声信号を前記接続手段を介して送信する送信制御手段と、を有する。
好ましくは前記特定の識別情報は、情報端末の音声認識機能を起動させる情報である。好ましくは前記特定の識別情報は、情報端末を識別するための名称である。好ましくは電子装置はさらに、前記接続手段に接続された各情報端末に関連して特定の識別情報を格納する格納手段を含み、前記判定手段は、前記格納手段を参照して特定の識別情報の有無を判定する。好ましくは電子装置はさらに、前記判定手段により特定の識別情報が含まれていないと判定されたとき、特定の識別情報が含まれていない旨を警告する警告手段を含む。好ましくは電子装置はさらに、前記接続手段に接続された情報端末から特定の識別情報を取得する取得手段を含む。好ましくは前記警告手段は、前記接続手段により接続された各情報端末の特定の識別情報が同一であるとき、特定の識別情報が同一である旨を警告する。好ましくは前記警告手段は、前記接続手段により接続された情報端末の特定の識別情報を取得することができないとき、特定の識別情報を取得することができない旨を警告する。
本発明に係る情報端末システムは、上記構成の電子装置と、少なくとも第1および第2の情報端末を含むものであって、前記第1の情報端末は、第1の特定の識別情報に応答して起動される第1の音声認識機能と、第1の音声認識機能の認識結果に対応する機能を実行する第1の実行手段と、前記第1の実行手段の実行結果を電子装置に送信する第1の送信手段と、を有し、前記第2の情報端末は、第2の特定の識別情報に応答して起動される第2の音声認識機能と、第2の音声認識機能の認識結果に対応する機能を実行する第2の実行手段と、前記第2の実行手段の実行結果を電子装置に送信する第2の送信手段と、を有し、電子装置は、第1の送信手段または第2の送信手段から送信される実行結果を出力する出力手段を有する。
好ましくは第1の情報端末は、前記接続手段を介して電子装置に接続されたとき、第1の特定の識別情報を送信する第1の送信手段を含み、第2の情報端末は、前記接続手段を介して電子装置に接続されたとき、第2の特定の識別情報を送信する第2の送信手段を含む。好ましくは第1の情報端末は、第1の特定の識別情報を設定する第1の設定手段を含み、第2の情報端末は、第2の特定の識別情報を設定する第2の設定手段を含む。
本発明に係る音声認識機能の起動プログラムは、音声認識機能を有する情報端末を複数同時に接続可能な接続手段と、発話音声を受け取り、当該発話音声に対応する音声信号を提供する音声入力手段とを備えた電子装置が実行するものであって、前記音声入力手段から提供された音声信号を音声認識するステップと、前記音声認識ステップで認識された音声信号に特定の識別情報が含まれているか否かを判定するステップと、前記特定の識別情報が含まれていると判定されたとき、前記特定の識別情報に基づき前記音声信号を送信すべき情報端末を選択するステップと、選択された情報端末に前記音声信号を送信するステップとを有し、前記特定の識別情報は、情報端末の音声認識機能を起動される情報である。
本発明に係る音声認識機能の起動方法は、音声認識機能を有する情報端末を複数同時に接続可能な接続手段と、発話音声を受け取り、当該発話音声に対応する音声信号を提供する音声入力手段とを備えた電子装置におけるものであって、前記音声入力手段から提供された音声信号を音声認識するステップと、前記音声認識ステップで認識された音声信号に特定の識別情報が含まれているか否かを判定するステップと、前記特定の識別情報が含まれていると判定されたとき、前記特定の識別情報に基づき前記音声信号を送信すべき情報端末を選択するステップと、選択された情報端末に前記音声信号を送信するステップとを有し、前記特定の識別情報は、情報端末の音声認識機能を起動される情報である。
本発明によれば、発話音声に特定の識別情報が含まれている場合には、当該特定の識別情報により識別される情報端末を選択し、選択された情報端末に音声信号が送信されるようにしたので、ユーザーの意図に則した情報端末の音声認識機能を利用することができる。
本発明の第1の実施例に係る音声入力システムの全体を示す概要図である。 本発明の第1の実施例に係る車載装置の構成例を示す図である。 図2に示す音声認識モジュールの内部構成を示す図である。 図2に示す通信接続部の内部構成を示す図である。 本発明の第1の実施例に係る車載装置が実行する起動プログラムの機能的な構成例を示す図である。 本発明の第1の実施例に係るスマートフォンの機能的な構成例を示す図である。 本発明の第1の実施例に情報端末システムの動作を説明するフローチャートである。 車載装置から音声信号が送信された後のスマートフォンの音声認識動作を説明するフローチャートである。 本発明の第2の実施例に係る起動プログラムの機能的な構成例を示す図である。 本発明の第2の実施例に係る起動プログラムによる動作を説明するフローチャートである。 従来の情報端末接続システムの課題を説明する図である。
次に、本発明の実施の形態について説明する。本実施の形態に係る電子装置は、例えば、車両に予め搭載されるもの、あるいは車両に持ち込まれたものである。電子装置は、例えば、車両に搭載される車載装置であることができる。電子装置は、コンピュータ、電子処理装置、情報処理装置等であることができる。電子装置は、例えば、外部機器と通信する機能、ナビゲーション機能、オーディオ・ビデオデータを再生する機能、テレビ・ラジオを受信する機能等を備えることができる。
また、本実施の形態に情報端末は、例えば、スマートフォン、携帯電話機、タブレット端末等である。情報端末は、例えば、車内に持ち込まれたとき、車内の電子装置に接続され、電子装置は、情報端末に搭載された機能を利用することができる。例えば、情報端末に搭載されたナビゲーション機能や楽曲再生機能等を利用することができる。つまり、情報端末でナビゲーション機能が実行されたとき、電子装置の表示部にナビゲーション機能の道路地図が表示されたり、情報端末でオーディオデータが再生されたとき、電子装置のスピーカから再生されたオーディオが出力される。さらに本実施の形態では、情報端末は音声認識機能を備えており、複数の情報端末が電子装置に接続されているとき、電子装置に入力された発話音声を音声認識することで、いずれかの情報端末の音声認識機能を起動させる。
以下、図面を参照して本発明の実施例について説明する。図1は、本発明の第1の実施例に係る情報端末システムの全体を示す概要図である。情報端末システム10は、電子装置としての車載装置20と、情報端末としてのスマートフォン30A、30Bとを含み、スマートフォン30A、30Bは、それぞれ近距離無線通信40A、40Bを介して車載装置20に接続される。車載装置20は、スマートフォン30A、30Bが接続されると、表示部には、スマートフォン30A、30Bの機能を利用したり、スマートフォンとの連携を容易にするためのメニュー画面22が表示される。メニュー画面22には、例えば、アイコンA1、A2、A3、A4が表示される。ユーザーによってアイコンA1が選択されると、その入力信号が通信40Aを介してスマートフォン30Aへ送信され、例えば、スマートフォン30Aに搭載されるナビゲーション機能が実行され、スマートフォン30Aで実行されたナビゲーション機能の画像データが車載装置20へ送信され、次いで車載装置の表示部に自車位置を含む道路地図が表示される。また、ユーザーによってアイコンA2が選択されると、その入力信号が通信40Bを介してスマートフォン30Bへ送信され、例えば、スマートフォン30Bに搭載されるオーディオ再生機能が実行され、スマートフォン30Bで実行されたオーディオ再生機能のオーディオデータが車載装置20へ送信され、車載装置20のスピーカから音声が出力される。
さらにスマートフォン30A、30Bには、それぞれ独自の音声入力および音声認識機能が搭載されている。スマートフォン30A、30Bが車載装置20に接続されている間、車載装置20への発話音声をスマートフォン30A、30Bのいずれかへ入力させ、音声認識機能を利用することができる。ユーザーは、発話音声を入力させるとき、メニュー画面22の音声認識ボタン24を押下する。言い換えれば、音声認識ボタン24が押下されたとき、ユーザーの発話音声が車載装置20に取り込まれる。車載装置20は、取り込んだ発話音声の音声認識を行い、その認識結果に基づきスマートフォン30A、30Bのいずれの音声認識機能を利用するのかを選択または決定し、選択されたスマートフォンの音声認識機能を起動させる。
また、車載装置20は、近距離無線通信により、複数のスマートフォンを同時に接続することが可能である。近距離無線通信は、例えば、例えば、Bluetooth(登録商標)、WiFi(登録商標)、無線LAN、その他の通信手段であることができる。車載装置20は、複数のスマートフォンが接続されている状況で、各スマートフォンから画像データやオーディオを受け取り、受け取った画像データやオーディオデータを出力させることができる。車載装置20は、複数の画像データ、あるいは複数のオーディオデータが競合しないように、出力を調整する機能を有する。
図2は、第1の実施例に係る車載装置20の構成例を示す図である。車載装置20は、入力部100、音声認識モジュール110、通信接続部120、マルチメディア再生部130、音声出力部140、表示部150、ナビゲーション部160、記憶部170、制御部180を含んで構成される。
入力部100は、ユーザーからの入力を受け取り、これを制御部等へ提供する。入力部100は、例えば、タッチパネル、入力キーデバイス、ユーザーの発話音声を入力するマイクロフォン等を含む。ユーザーは、音声入力を行うとき、例えば、図1に示す音声認識ボタン24を押下する。これにより、マイクロフォンに入力された発話音声は、電気的な音声信号に変換され、音声認識モジュール110等へ提供される。
音声認識モジュール110は、マイクロフォンからの音声信号を受け取り、音声信号の音声認識を行う。図3は、音声認識モジュール110の内部構成例を示す図である。音声認識モジュール110は、マイクロフォン102からの音声信号S1を受け取り、この音声信号の符号化処理を行う符号化処理部112と、符号化処理された音声信号の音声認識を行う音声認識処理部114とを有する。音声認識処理部114は、符号化された音声信号から、発話音声に含まれる五十音やアルファベット等の認識を行う。この認識結果S2は、制御部180へ提供される。
通信接続部120は、図1に示すように、近距離無線通信40A、40Bにより複数のスマートフォン30A、30Bを同時に接続することを可能にするための複数の通信チャンネルを有する。ここでは、2つのスマートフォン30A、30Bを同時に接続する例を示しているため、通信接続部120は、2つの通信チャンネルを有するが、3つ以上のスマートフォンが同時に接続される場合には、3つ以上の通信チャンネルを有することになる。
図4は、通信接続部120の内部構成例を示す図である。通信接続部120は、音声信号S1を入力し、当該音声信号S1の出力を選択する出力選択部122と、出力選択部122に接続された2つの通信チャンネル124A、124Bとを有する。出力選択部122は、制御部180からの選択信号SELに従い、音声信号S1を通信チャンネル124Aまたは124Bに出力する。通信チャンネル124Aは、近距離無線通信40Aを介してスマートフォン30Aにデータを送信する送信部126A、およびスマートフォン30Aから近距離無線通信40Aを介してデータを受信する受信部128Aを有し、スマートフォン30Aとの間で双方向のデータ通信を可能にする。通信チャンネル124Bは、近距離無線通信40Bを介してスマートフォン30Bにデータを送信する送信部126B、およびスマートフォン30Bから近距離無線通信40Bを介してデータを受信する受信部128Bを有し、スマートフォン30Bとの間で双方向のデータ通信を可能にする。
ユーザーの発話音声がマイクロフォン102に入力されたとき、出力選択部122は、選択信号SELに従い、通信チャンネル124Aまたは124Bのいずれかを選択し、音声信号S1を選択された通信チャンネル124A、124Bの送信部126A、126Bを介してスマートフォン30A、30Bへ送信する。一方、スマートフォン30Aまたは30Bは、受信した音声信号S1に基づき音声認識機能を起動させ、かつ音声信号S1の音声認識を行い、さらに音声認識結果に応じた動作を実行する。実行した動作に関する画像データまたはオーディオデータは、選択された通信チャンネル124A、124Bの受信部128A、128Bで受信され、受信された画像データが表示部150に表示され、あるいは受信されたオーディオデータが音声出力部140から出力される。
マルチメディア再生部130は、DVD、CD、ブルーレイディスク等の記録媒体に記録されたビデオデータ、オーディオデータを再生する。再生されたビデオデータは、表示部150に表示され、オーディオデータは音声出力部140から出力される。
音声出力部140は、マルチメディア再生部130により再生されたオーディオデータ、スマートフォン30A、30Bから通信接続部120を介して受信されたオーディオデータを出力する。表示部150は、マルチメディア再生部130により再生された画像データ、スマートフォン30A、30Bから通信接続部120を介して受信された画像データを出力する。
ナビゲーション部160は、GPS衛星から送信される位置情報や、車両に搭載されたジャイロセンサや加速度センサ等のセンサから得られる位置情報に基づき、自車位置周辺の道路地図を表示部150に表示させたり、目的地までの経路の探索や案内を行ったりする。記憶部170は、車載装置20で実行されるアプリケーションソフトウエアや、制御部180が実行するプログラム、その他必要なデータ等を記憶することができる。例えば、ナビゲーション部160が必要とする道路データや施設データなどのデータベースを格納することができる。
制御部180は、マイクロプロセッサやマイクロコントローラを含み、ROM/RAMあるいは記憶部170に記憶されたプログラム等を実行することにより各部を制御する。さらに本実施例では、制御部180は、複数のスマートフォンが同時に接続されたとき、内蔵する音声認識機能を利用して、スマートフォンの音声認識機能を起動させるための起動プログラム200を実行する。
図5は、第1の実施例に係る起動プログラムの機能的な構成例を示す図である。起動プログラム200は、通信接続部120を介してスマートフォンが接続されたことを検出する接続検出部210、接続検出部210によりスマートフォンの接続が検出されたとき、スマートフォンの音声認識機能を起動させるためのキーワード(特定の識別情報)を取得するキーワード取得部220、キーワードを格納するキーワード格納部230、発話音声にキーワードが含まれるか否かを判定するキーワード判定部240、キーワード判定部240の判定結果に基づき出力選択部122の選択を制御する選択制御部250、マイクロフォンから入力された音声信号の送信を制御する送信制御部260、キーワード判定部240によりキーワードが含まれていないと判定された場合等に、警告を発する警告部270を含んで構成される。
接続検出部120は、通信接続部120にスマートフォンが接続されたことを検出すると、当該スマートフォンの固有のデバイス情報または機種名等を検出し、検出結果をキーワード取得部220やキーワード格納部230等へ提供する。
キーワード取得部220は、スマートフォンの接続が接続検出部210によって検出されたとき、スマートフォンから、当該スマートフォンの音声認識機能を起動させるためのキーワードを取得する。キーワードは、音声認識機能を起動させることができる情報であればよく、その取り決めは自由である。例えば、スマートフォンに搭載される音声認識機能を起動させるものとして予め規定された用語であってもよいし、あるいは、スマートフォン側において任意に設定された用語であってもよい。また、キーワード取得部220による動作は、必ずしも必須ではない。もし、車載装置側において、スマートフォンの音声認識機能を起動させるためのキーワードが既知であれば、キーワードを取得する必要はない。
キーワード格納部230は、キーワード取得部220により取得されたキーワード、あるいはスマートフォンに予め設定されている既知のキーワードを格納する。例えば、図1に示すように、スマートフォン30Aには、「Hoge」という端末名称が付与され、この「Hoge」は、スマートフォン30Aの音声認識機能(または音声認識アプリケーション)を起動させるキーワードであるとき、「Hoge」が、スマートフォン30Aの固有のデバイス情報または機種名と関連付けして格納される。また、スマートフォン30Bには、「Dore」という端末名称が付与され、この「Dore」は、スマートフォン30Bの音声認識機能(または音声認識アプリケーション)を起動させるキーワードであるとき、「Dore」は、スマートフォン30Bの固有のデバイス情報または機種名と関連付けして格納される。
キーワード判定部240は、ユーザーから発話音声が入力されたとき、音声認識モジュール110からの音声認識信号S2にキーワードが含まれているか否かを判定する。キーワードが含まれる位置は、特に限定されるものではないが、例えば、発話音声の先頭にキーワードが含まれている否かを判定する。図1の例で言えば、キーワード判定部240は、発話音声に、「Hoge」または「Dore」が含まれているか否かを判定する。この判定結果は、選択制御部250へ提供される。
選択制御部250は、キーワード判定部240によってキーワードが含まれていると判定された場合、キーワードにより識別されるスマートフォンを選択するための選択信号SELを通信接続部120へ提供する。例えば、音声発話に「Hoge」というキーワードが含まれているとき、選択制御部250は、出力選択部122が通信チャンネル124Aを選択するような選択信号SELを出力する。
キーワード判定部240による適切な判定が行われたとき、送信制御部260は、選択制御部250により選択された通信チャンネル124Aまたは124Bの送信部126A、126Bを介して音声信号S1が送信されるように送信を制御する。
警告部270は、キーワード判定部240により発話音声にキーワードが含まれていないと判定された場合、発話音声にキーワードが含まれていない旨を警告する。これにより、ユーザーは、音声発話が不適切であったことを知り、ユーザーは、再度、音声入力を行う。また、警告部270は、キーワード格納部270に格納されたキーワードが重複しているとき、その旨の警告を発する。キーワードが重複していると、スマートフォンの選択をすることができないためである。この場合には、スマートフォンの音声認識機能を起動させるキーワードを他のキーワードに変更し、これをキーワード格納部230に格納させる。格納方法は、ユーザー操作であってもよいし、あるいは、スマートフォンを再接続することで、キーワード取得部220に再度キーワードを取得させるようにしてもよい。さらに警告部270は、キーワード格納部270にキーワードを格納することができないとき、その旨の警告を発する。キーワードが分からないと、スマートフォンの選択をすることができないためである。この場合には、ユーザー入力によりキーワード格納部230にキーワードを格納するようにしてもよい。
図6は、スマートフォンに含まれる処理プログラムの構成例を示す図である。処理プログラム300は、車載装置20からの音声信号S1を入力する音声信号入力部310、入力された音声信号S1により起動されかつ音声信号S1の認識を行う音声認識処理部320、音声認識処理部320の認識結果に基づき動作を実行する実行部330、実行部330で実行された結果を車載装置20へ送信する送信部340、車載装置20からの要求に応答してキーワードを送信するキーワード送信部350、ユーザー入力等によりキーワードの設定および変更を可能にするキーワード設定・変更部360を含んで構成される。
音声信号入力部310は、車載装置20に発話音声が入力されたとき、送信制御部260によって送信された発話音声に対応する音声信号S1を受け取る。音声認識処理部320は、入力した音声信号S1に含まれるキーワードによって起動され、次いで音声信号S1の認識処理を行う。実行部330は、認識結果に対応する機能を実行し、送信部340は、実行された結果を車載装置20へ送信する。例えば、音声信号S1の発話内容が「Hoge、楽曲Aの再生」であるとき、音声認識処理部320は、「Hoge」によって起動され、かつ「Hoge、楽曲Aの再生」の認識結果を実行部330へ伝える。これにより、実行部320は、スマートフォン30Bのオーディオ再生機能を実行し、楽曲Aを再生する。送信部340は、実行部330によって実行された楽曲Aのオーディオデータを車載装置20へ送信する。車載装置20は、受信したオーディオデータを音声出力部140から出力する。
キーワード送信部350は、車載装置20のキーワード取得部220からの要求があったとき、これに応答して、キーワードを車載装置20へ送信する。キーワード設定・変更部360は、スマートフォンの音声認識機能を起動可能なキーワードを、例えば、メモリ等に記憶する。また、ある態様では、スマートフォンは、音声認識機能を起動させるためのキーワードを変更することが可能である。この変更は、ユーザー操作により行うことが可能である。例えば、スマートフォン30Aの音声認識機能を起動させるキーワードは、「Hoge」であるが、もし、「Hoge」が同一機種のスマートフォンの全てに共通であるならば、同一機種のスマートフォンが車載装置20に同時に接続されると、キーワードが同一になってしまう。そのような事態を解消するため、キーワードを他の名称、例えば、スマートフォンの端末の名称、あるいは他の固有の名称に変更する。この場合、キーワード設定・変更部360は、「Hoge」を変更するのではなく、「Hoge」と関連付けされた固有の名称を見かけのキーワードに設定する。つまり、ユーザーが見かけの固有名称を含む音声発話を行ったとしても、音声認識機能が起動されるようにする。
次に、本実施例の情報端末システムにおけるスマートフォンの音声認識機能の起動について図7のフローを参照して説明する。先ず、図1に示すように、複数のスマートフォン30A、30Bが同時に接続されている状況において、例えば、スマートフォン30Aのオーディオ再生が実施され、スマートフォン30Aから送信されたオーディオデータが車載装置20の音声出力部140から出力され、スマートフォン30Bのナビゲーション機能が実施され、スマートフォン30Bから送信された道路地図データが表示部150に表示される(S100)。
次に、ユーザーは、音声入力による所望の指示を与えるため、音声認識ボタン24を押下し、ユーザーの発話音声が車載装置20に入力される(S102)。発話音声が入力されると、起動プログラム200が動作される。発話音声が音声認識モジュール110によって認識処理され、次に、キーワード判定部210は、認識された信号S2に基づき、ユーザーの発話音声にキーワードが含まれているか否かを判定する(S104)。つまり、スマートフォン30Aの音声認識機能を起動させる「Hoge」またはスマートフォン30Bの音声認識機能を起動させる「Dore」が含まれているか否かが判定される。
キーワード判定部240により「Hoge」または「Dore」が含まれていると判定された場合、選択制御部250は、キーワードに基づき出力選択部122(図4)の選択を制御する(S106)。「Hoge」が含まれていれば、通信チャンネル124Aが選択され、「Dore」が含まれていれば、通信チャンネル124Bが選択されるような選択信号SELが出力選択部122へ出力される。次に、送信制御部260は、発話音声に対応する音声信号S1を、選択された通信チャンネルを介して選択されたスマートフォンへ送信する(S108)。一方、キーワード判定部240によりキーワードが含まれていないと判定された場合には、警告部270による警告が発せられる(S110)。警告は、例えば、いずれのスマートフォンが選択されているのかが識別できないことメッセージや、音声発話の再入力を促すメッセージなどを発する。
図8は、車載装置20から音声信号S1がスマートフォン30A/30Bへ送信された後の動作を説明するフローである。図7のS108によって音声信号S1がスマートフォン30A/30Bに送信されると、音声信号S1が音声信号入力部310で受け取られ、音声認識処理部320が起動される(S120)。音声認識処理部320は、音声信号S1を認識し、その認識結果に対応する機能が実行部330によって実行される(S122)。実行部330による実行結果は、送信部340により車載装置20に送信され(S124)、車載装置20は、処理結果を受け取り、これを出力する(S126)。
このように本実施例では、車載装置20から入力された発話音声を車載装置20の内蔵音声認識機能(音声認識モジュール110)により認識し、起動プログラム200によって、適切なスマートフォンの送信先として自動選択することが可能となる。例えば、スマートフォン30Aで音楽再生を行い、スマートフォン30Bでナビゲーション機能を実行し、各々の処理結果を車載装置20から出力しているような場合、ユーザーが音楽再生に対する指示を行いたければ、スマートフォン30Aのキーワードである端末名称「Hoge」を含む発話音声の入力指示を行うことにより、スマートフォン30Aに所望の指示、例えば、他の楽曲の再生の指示、を適切に与えることができる。また、ナビゲーション機能に対する指示を行いたい場合は、スマートフォン30Bのキーワードである端末名称「Dore」を含む発話音声の入力指示を行えば良い。これにより、音楽再生に対する指示が、ナビゲーション機能を実行しているスマートフォン30Bに送信されてしまうという不具合を防止することができる。
次に、本発明の第2の実施例について説明する。第2の実施例は、複数のスマートフォンの中から、一意にスマートフォンの選択ができなかった場合の対応に関する。なお、特段の記載がない限り、第2の実施例の車載装置20およびスマートフォン30A、30Bは、第1の実施例と同様の構成を有するものとする。
第2の実施例では、起動プログラム200Aはさらに、図9に示すように、スマートフォンを一意に選択できるか否かを判定する選択判定部280を含む。選択判定部280は、接続検出部210の検出結果、およびキーワード格納部230の格納結果を参照し、複数のスマートフォンに同一のキーワードが設定されているとき、あるいは接続されているスマートフォンのキーワードが設定されていないとき、スマートフォンを一意に選択することができないと判定し、その判定結果を警告部270へ提供する。選択判定部280により選択不可と判定された場合、警告部270は、スマートフォンを適切に選択できる環境にない旨をユーザーに通知する。例えば、警告部270は、複数のスマートフォンに同一のキーワードが付されている場合には、キーワードの変更を促す警告を出力し、スマートフォンにキーワードが設定されていない場合には、キーワードの設定を促す警告を出力する。警告方法は、例えば、音声出力部140からの音声メッセージ、表示部150からの表示メッセージである。
図10は、第2の実施例の動作を説明するフローである。選択判定部280による判定動作のタイミングは、特に制限されないが、例えば、スマートフォンが接続されたときに実施される。先ず、選択判定部280は、接続検出部210の検出結果およびキーワード格納部230の格納内容を参照し(S200)、スマートフォンの選択を行うことが可能か否かを判定する(S202)。選択可と判定された場合には、そのまま終了する。選択不可と判定された場合には、警告部270は、キーワードが重複する場合には(S204)、キーワードを変更する警告を出力する(S206)。キーワードの重複ではなく、キーワードが設定されていない場合には(S208)、キーワードの取得または設定を促す警告を出力する(S210)。キーワードの重複およびキーワードの未設定のいずれでもない場合には(S204、S208)、その他のエラーとして処理する(S212)。
キーワード重複やキーワードの未設定の警告が発せられたとき、ユーザーは、スマートフォン側のキーワード設定・変更部360によりキーワードの設定、変更をすることができる。この場合、スマートフォンと車載装置20との間の接続を切断した状態で、キーワードを変更する。そして、スマートフォンを車載装置20に再接続させたとき、キーワード取得部220が変更されたキーワードを取得し、これをキーワード格納部230に格納する。
このように第2の実施例によれば、スマートフォンを一意に選択できないような場合に、警告を発することで、ユーザーは、そのような不具合を解消することができ、適切なスマートフォンの選択が可能になる。
なお、上記実施例では、スマートフォンの端末名称またはその音声認識機能を起動させる名称のキーワード判定を行ったが、これは一例であり、他の固有の名称をキーワードに設定してもよい。また、上記実施例では、車載装置にスマートフォンが接続される例を示したが、スマートフォン以外のタブレット端末、携帯電話等の情報端末であってもよい。
以上、本発明の好ましい実施の形態について詳述したが、本発明は、特定の実施形態に限定されるものではなく、特許請求の範囲に記載された発明の要旨の範囲において、種々の変形、変更が可能である。
1:車載装置 2:メニュー画面
3:音声認識ボタン 4A、4B:スマートフォン
5A、5B:近距離無線通信 10:情報端末システム
20:車載装置 22:メニュー画面
24:音声認識ボタン 30A、30B:スマートフォン
40A、40B:近距離無線通信 100:入力部
102:マイクロフォン 110:音声認識モジュール
112:符号化処理部 114:音声認識処理部
120:通信部 122:出力選択部
124A、124B:通信チャンネル 126A、126B:送信部
128A、128B:受信部 130:マルチメディア再生部
140:音声出力部 150:表示部
160:ナビゲーション部 170:記憶部
180:制御部 200:起動プログラム
210:接続検出部 220:キーワード取得部
230:キーワード格納部 240:キーワード判定部
250:選択制御部 260:送信制御部
270:警告部 280:選択判定部
300:処理プログラム 310:音声信号入力部
320:音声認識処理部 330:実行部
340:送信部 350:キーワード送信部
360:キーワード設定・変更部 A1、A2、A3、A4:アイコン
S1:音声信号 S2:音声認識信号
SEL:選択信号

Claims (10)

  1. 電子装置と、少なくとも第1および第2の情報端末とを含む情報端末システムであって、
    前記電子装置は、
    音声認識機能を備えた情報端末を複数同時に接続可能な接続手段と、
    発話音声を受け取り、発話音声に対応する音声信号を出力する音声入力手段と、
    前記音声入力手段から出力された音声信号の音声認識を行う音声認識手段と、
    前記音声認識手段の音声認識結果に基づき前記音声信号に第1または第2の特定の識別情報が含まれているか否かを判定する判定手段と、
    前記判定手段により第1または第2の特定の識別情報が含まれていると判定されたとき、前記第1または第2の特定の識別情報に基づき前記音声信号を送信すべき情報端末を選択する選択手段と、
    前記選択手段の選択結果に基づき前記第1または第2の特定の識別情報を含む前記音声信号を前記接続手段を介して送信する送信制御手段とを有し、
    前記第1の情報端末は、
    前記送信制御手段により送信された前記第1の特定の識別情報を含む前記音声信号を入力する第1の入力手段と、
    前記第1の入力手段により入力された前記第1の特定の識別情報に応答して起動されかつ前記音声信号の認識を行う第1の音声認識機能と、
    第1の音声認識機能の認識結果に対応する機能を実行する第1の実行手段と、
    前記第1の実行手段の実行結果を電子装置に送信する第1の送信手段とを有し、
    前記第2の情報端末は、
    前記送信制御手段により送信された前記第2の特定の識別情報を含む前記音声信号を入力する第2の入力手段と、
    前記第2の入力手段により入力された前記第2の特定の識別情報に応答して起動されかつ前記音声信号の認識を行う第2の音声認識機能と、
    第2の音声認識機能の認識結果に対応する機能を実行する第2の実行手段と、
    前記第2の実行手段の実行結果を電子装置に送信する第2の送信手段とを有し、
    電子装置は、第1の送信手段または第2の送信手段から送信される実行結果を出力する出力手段を有する、情報端末システム。
  2. 前記第1または第2の特定の識別情報は、第1または第2の情報端末の音声認識機能を起動させる情報である、請求項1に記載の情報端末システム。
  3. 前記第1または第2の特定の識別情報は、情報端末を識別するための名称である、請求項2に記載の情報端末システム。
  4. 電子装置はさらに、前記接続手段に接続された各情報端末に関連して特定の識別情報を格納する格納手段を含み、前記判定手段は、前記格納手段を参照して前記第1または第2の特定の識別情報の有無を判定する、請求項1に記載の情報端末システム。
  5. 電子装置はさらに、前記判定手段により前記第1または第2の特定の識別情報が含まれていないと判定されたとき、特定の識別情報が含まれていない旨を警告する警告手段を含む、請求項1ないし4いずれか1つに記載の情報端末システム。
  6. 電子装置はさらに、前記接続手段に接続された第1および第2の情報端末から前記第1および第2の特定の識別情報を取得する取得手段を含む、請求項1ないし3いずれか1つに記載の情報端末システム。
  7. 前記警告手段は、前記接続手段により接続された各情報端末の前記第1および第2の特定の識別情報が同一であるとき、前記第1および第2の特定の識別情報が同一である旨を警告する、請求項4または6に記載の情報端末システム。
  8. 前記警告手段は、前記接続手段により接続された第1または第2の情報端末の前記第1または第2の特定の識別情報を取得することができないとき、前記第1または第2の特定の識別情報を取得することができない旨を警告する、請求項4または6に記載の情報端末システム。
  9. 第1の情報端末は、前記接続手段を介して電子装置に接続されたとき、第1の特定の識別情報を送信する第1の識別情報送信手段を含み、第2の情報端末は、前記接続手段を介して電子装置に接続されたとき、第2の特定の識別情報を送信する第2の識別情報送信手段を含む、請求項1に記載の情報端末システム。
  10. 第1の情報端末は、第1の特定の識別情報を設定する第1の設定手段を含み、第2の情報端末は、第2の特定の識別情報を設定する第2の設定手段を含む、請求項1または9に記載の情報端末システム。
JP2015027687A 2015-02-16 2015-02-16 情報端末システム Active JP6501217B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015027687A JP6501217B2 (ja) 2015-02-16 2015-02-16 情報端末システム
US15/003,213 US9728187B2 (en) 2015-02-16 2016-01-21 Electronic device, information terminal system, and method of starting sound recognition function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015027687A JP6501217B2 (ja) 2015-02-16 2015-02-16 情報端末システム

Publications (2)

Publication Number Publication Date
JP2016151608A JP2016151608A (ja) 2016-08-22
JP6501217B2 true JP6501217B2 (ja) 2019-04-17

Family

ID=56622328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015027687A Active JP6501217B2 (ja) 2015-02-16 2015-02-16 情報端末システム

Country Status (2)

Country Link
US (1) US9728187B2 (ja)
JP (1) JP6501217B2 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6501217B2 (ja) * 2015-02-16 2019-04-17 アルパイン株式会社 情報端末システム
US10115400B2 (en) * 2016-08-05 2018-10-30 Sonos, Inc. Multiple voice services
US10748531B2 (en) * 2017-04-13 2020-08-18 Harman International Industries, Incorporated Management layer for multiple intelligent personal assistant services
CN107360327B (zh) 2017-07-19 2021-05-07 腾讯科技(深圳)有限公司 语音识别方法、装置和存储介质
JP6543676B2 (ja) * 2017-11-01 2019-07-10 ソフトバンク株式会社 送信制御装置及びプログラム
JP2019086903A (ja) * 2017-11-02 2019-06-06 東芝映像ソリューション株式会社 音声対話端末、および音声対話端末制御方法
US10362183B2 (en) * 2017-11-10 2019-07-23 Toshiba Tec Kabushiki Kaisha System and method for natural language operation of multifunction peripherals
JP6752870B2 (ja) * 2017-12-18 2020-09-09 ネイバー コーポレーションNAVER Corporation 複数のウェイクワードを利用して人工知能機器を制御する方法およびシステム
CN108417214B (zh) * 2018-03-07 2020-06-26 深圳车盒子科技有限公司 智能车载语音辅助方法、智能语音设备、终端及存储介质
CN108428452B (zh) * 2018-03-14 2019-12-13 百度在线网络技术(北京)有限公司 终端支架和远场语音交互系统
CN108597510A (zh) * 2018-04-11 2018-09-28 上海思依暄机器人科技股份有限公司 一种数据处理方法和装置
DE102019127806A1 (de) * 2018-10-15 2020-04-16 Ford Global Technologies, Llc Verfahren und vorrichtungen zum erzeugen einer erweiterten umgebung, die eine gewichtsanzeige beinhaltet, für ein fahrzeug
JP7242248B2 (ja) * 2018-10-31 2023-03-20 キヤノン株式会社 電子機器、その制御方法、およびそのプログラム
CN109829117B (zh) * 2019-02-27 2021-04-27 北京字节跳动网络技术有限公司 用于推送信息的方法和装置
JP7266432B2 (ja) * 2019-03-14 2023-04-28 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP7278830B2 (ja) * 2019-03-27 2023-05-22 本田技研工業株式会社 端末装置、端末装置の制御方法、およびプログラム
JP7434016B2 (ja) 2020-03-26 2024-02-20 本田技研工業株式会社 起動語登録の支援方法、支援装置、音声認識装置、およびプログラム
JP7465700B2 (ja) * 2020-03-27 2024-04-11 株式会社デンソーテン 車載装置および車載装置における音声処理方法

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002116797A (ja) * 2000-10-11 2002-04-19 Canon Inc 音声処理装置、音声処理方法及び記憶媒体
US6052666A (en) * 1995-11-06 2000-04-18 Thomson Multimedia S.A. Vocal identification of devices in a home environment
US6496099B2 (en) * 1996-06-24 2002-12-17 Computer Motion, Inc. General purpose distributed operating room control system
US6112103A (en) * 1996-12-03 2000-08-29 Puthuff; Steven H. Personal communication device
US6584439B1 (en) * 1999-05-21 2003-06-24 Winbond Electronics Corporation Method and apparatus for controlling voice controlled devices
JP4314680B2 (ja) * 1999-07-27 2009-08-19 ソニー株式会社 音声認識制御システム及び音声認識制御方法
US6339706B1 (en) * 1999-11-12 2002-01-15 Telefonaktiebolaget L M Ericsson (Publ) Wireless voice-activated remote control device
US6397186B1 (en) * 1999-12-22 2002-05-28 Ambush Interactive, Inc. Hands-free, voice-operated remote control transmitter
JP2001296881A (ja) * 2000-04-14 2001-10-26 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2001319045A (ja) * 2000-05-11 2001-11-16 Matsushita Electric Works Ltd 音声マンマシンインタフェースを用いたホームエージェントシステム、及びプログラム記録媒体
JP2003084791A (ja) * 2001-09-07 2003-03-19 Olympus Optical Co Ltd 音声制御システム
JP2004053825A (ja) * 2002-07-18 2004-02-19 Yamaha Corp 言語識別装置、言語識別方法および言語識別プログラム
JP2005122128A (ja) * 2003-09-25 2005-05-12 Fuji Photo Film Co Ltd 音声認識システム及びプログラム
JP2006279844A (ja) * 2005-03-30 2006-10-12 Matsushita Electric Ind Co Ltd 携帯端末装置、充電器、および充電システム
US7826945B2 (en) * 2005-07-01 2010-11-02 You Zhang Automobile speech-recognition interface
US8010369B2 (en) * 2007-10-30 2011-08-30 At&T Intellectual Property I, L.P. System and method for controlling devices that are connected to a network
US9026447B2 (en) * 2007-11-16 2015-05-05 Centurylink Intellectual Property Llc Command and control of devices and applications by voice using a communication base system
CA2723301C (en) * 2008-05-27 2016-12-06 Stryker Corporation Wireless medical room control arrangement for control of a plurality of medical devices
JP5141463B2 (ja) 2008-09-18 2013-02-13 日産自動車株式会社 車載機器及び通信の接続先選択方法
US8565838B2 (en) * 2011-05-04 2013-10-22 General Motors Llc Method for controlling mobile communications
US20130073293A1 (en) * 2011-09-20 2013-03-21 Lg Electronics Inc. Electronic device and method for controlling the same
US8340975B1 (en) * 2011-10-04 2012-12-25 Theodore Alfred Rosenberger Interactive speech recognition device and system for hands-free building control
JP6123121B2 (ja) * 2011-10-14 2017-05-10 ヴイアールアイ株式会社 音声制御システム及びプログラム
US20130238326A1 (en) * 2012-03-08 2013-09-12 Lg Electronics Inc. Apparatus and method for multiple device voice control
US20130317827A1 (en) * 2012-05-23 2013-11-28 Tsung-Chun Fu Voice control method and computer-implemented system for data management and protection
US9478123B2 (en) * 2012-07-31 2016-10-25 Intellectual Discovery Co., Ltd. Remote control device and method
JP2014065554A (ja) * 2012-09-25 2014-04-17 Mitsubishi Electric Building Techno Service Co Ltd エレベータの指差呼称復唱装置
WO2014064324A1 (en) * 2012-10-26 2014-05-01 Nokia Corporation Multi-device speech recognition
JP6114915B2 (ja) * 2013-03-25 2017-04-19 パナソニックIpマネジメント株式会社 音声入力選択装置及び音声入力選択方法
JP6282516B2 (ja) * 2014-04-08 2018-02-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 複数機器の音声操作システム、音声操作方法及び、プログラム
JP6501217B2 (ja) * 2015-02-16 2019-04-17 アルパイン株式会社 情報端末システム

Also Published As

Publication number Publication date
JP2016151608A (ja) 2016-08-22
US20160240196A1 (en) 2016-08-18
US9728187B2 (en) 2017-08-08

Similar Documents

Publication Publication Date Title
JP6501217B2 (ja) 情報端末システム
US11327712B2 (en) Information processing device, information processing method, information processing program, and terminal device
KR101946364B1 (ko) 적어도 하나의 마이크 센서를 갖는 모바일 디바이스 및 그 제어방법
JP5652913B2 (ja) 車載端末装置
JP5821639B2 (ja) 音声認識装置
JP2017146437A (ja) 音声入力処理装置
CN102308182A (zh) 用于个人导航装置的车基系统接口
JP2009300537A (ja) 音声作動システム、音声作動方法および車載装置
JP5413321B2 (ja) 通信システム、車載端末、および携帯端末
JP6370193B2 (ja) 電子装置、システムおよび動作モード選択プログラム
JP5199797B2 (ja) 車載機および車載機に対する無線通信設定方法
JP2013134302A (ja) 音声認識装置
WO2016174955A1 (ja) 情報処理装置、及び、情報処理方法
JP6362875B2 (ja) 車載装置、車載情報システム
CN105635460A (zh) 一种用于信息输出的控制方法、移动终端及穿戴式设备
JP2015028566A (ja) 応答制御システム、車載器、およびセンター
JP5986468B2 (ja) 表示制御装置、表示システム及び表示制御方法
JP2015148831A (ja) 車載情報システム、情報端末、アプリケーション実行方法
KR102401379B1 (ko) 복수의 탑승자를 고려하여 차량용 기기의 사용언어를 결정하는 방법 및 장치
JP2013191979A (ja) 車載器、携帯端末および携帯端末用のプログラム
JP5626794B2 (ja) 車載機器システム及び該車載機器システムを構成する車載機器及び携帯端末
JP6910721B2 (ja) 電子装置および情報端末システム
US11735187B2 (en) Hybrid routing for hands-free voice assistant, and related systems and methods
JP4722787B2 (ja) データ呼出制御装置、データ呼出システム、データ呼出制御装置の音声認識語彙登録方法および車両
JP2019153933A (ja) コンテンツ再生装置、コンテンツ再生方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180807

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181004

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190213

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190312

R150 Certificate of patent or registration of utility model

Ref document number: 6501217

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150