JP2015041243A - Electronic device, voice recognition operation method of mobile terminal connected thereto, and in-vehicle system - Google Patents
Electronic device, voice recognition operation method of mobile terminal connected thereto, and in-vehicle system Download PDFInfo
- Publication number
- JP2015041243A JP2015041243A JP2013171870A JP2013171870A JP2015041243A JP 2015041243 A JP2015041243 A JP 2015041243A JP 2013171870 A JP2013171870 A JP 2013171870A JP 2013171870 A JP2013171870 A JP 2013171870A JP 2015041243 A JP2015041243 A JP 2015041243A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- input item
- voice input
- mobile terminal
- conversion table
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Abstract
Description
本発明は、電子機器およびこれに接続された携帯端末の音声認識操作方法、車載システムに関し、特に、携帯端末に画面表示された画像を電子機器に表示させて電子機器から携帯端末の操作を行うことができるようになされたシステムに適用して好適なものである。 The present invention relates to an electronic device, a voice recognition operation method for a mobile terminal connected to the electronic device, and an in-vehicle system, and in particular, an image displayed on the screen of the mobile terminal is displayed on the electronic device and the mobile terminal is operated from the electronic device. Therefore, the present invention is suitable for application to a system that can be used.
従来、第1の機器に第2の機器を接続し、第2の機器に対する操作によって第1の機器に関する処理を実行可能にした技術が提供されている(例えば、特許文献1参照)。特許文献1に記載のシステムでは、携帯型メディアデバイスに他のデバイス(アクセサリ)を接続し、携帯型メディアデバイスは自身に表示されるGUI画像をアクセサリに与え、アクセサリがそのGUI画像を通じて入力制御部のユーザ動作を携帯型メディアデバイスに送信すると、携帯型メディアデバイスはこのユーザ動作に応答してGUI画像を更新する。 Conventionally, a technique has been provided in which a second device is connected to a first device, and processing relating to the first device can be executed by an operation on the second device (see, for example, Patent Document 1). In the system described in Patent Document 1, another device (accessory) is connected to the portable media device, the portable media device gives a GUI image displayed on the accessory to the accessory, and the accessory controls the input control unit through the GUI image. When the user action is transmitted to the portable media device, the portable media device updates the GUI image in response to the user action.
また、最近では、スマートフォンのような携帯端末と車載機とを連携させるミラーリンク(登録商標:以下同様)と呼ばれる技術が提供されている。ミラーリンクは、携帯端末に表示された画像を車載機のディスプレイに鏡のようにそのまま映すという仕組みで、車載機のディスプレイに表示された画像を通じて携帯端末の操作を行うことができるようになされている。これにより、携帯端末にインストールしたミラーリンク対応のアプリケーション(以下、携帯アプリという)を車載機のディスプレイ上で操作できるようになる。 Recently, a technology called a mirror link (registered trademark: the same applies hereinafter) that links a mobile terminal such as a smartphone with an in-vehicle device has been provided. Mirror link is a mechanism that displays the image displayed on the mobile device as it is on the display of the in-vehicle device like a mirror, so that the mobile terminal can be operated through the image displayed on the in-vehicle device display. Yes. As a result, an application corresponding to a mirror link installed in the mobile terminal (hereinafter referred to as a mobile application) can be operated on the display of the in-vehicle device.
例えば、図4に示すように、地図アプリがインストールされた携帯端末101から、携帯端末101にて表示中の地図画像を車載機102に送信し、車載機102のディスプレイに携帯端末101と同じ地図画像を表示させることが可能である。また、車載機102のタッチパネルに対するタッチ位置を表す位置情報(座標情報)を車載機102から携帯端末101に送信し、携帯端末101がこの位置情報をもとに、携帯端末101のタッチパネル上で車載機102と同じ位置がタッチ操作されたのと同様の処理(地図のスクロール、拡大/縮小、回転など)を行うことも可能である。
For example, as shown in FIG. 4, a map image being displayed on the
このように、ミラーリンクでは、携帯アプリを車載機のディスプレイ上で操作できるようにするために、車載機のタッチパネルに対するタッチ位置を座標情報として車載機から携帯端末に送信する構成となっている。そのため、車載機において音声認識して得られるコマンドに基づいて携帯アプリを操作するための情報を携帯端末に送信することができない。よって、車載機での音声認識を用いて携帯アプリの操作を行うためには、携帯アプリ自体を音声認識対応にし、かつ、ミラーリンクではない他の通信制御を使用する必要があった。 As described above, the mirror link is configured to transmit the touch position on the touch panel of the in-vehicle device as coordinate information from the in-vehicle device to the mobile terminal so that the mobile application can be operated on the display of the in-vehicle device. For this reason, information for operating the mobile application based on a command obtained by voice recognition in the in-vehicle device cannot be transmitted to the mobile terminal. Therefore, in order to operate the mobile application using voice recognition in the in-vehicle device, it is necessary to make the mobile application itself compatible with voice recognition and use other communication control that is not a mirror link.
なお、ユーザが発話した音声からテキスト符号データを決定し、決定したテキスト符号データの画面上での配置領域(座標)を携帯端末に送信するようにした技術が知られている(例えば、特許文献2参照)。この特許文献2では、車載機が携帯端末から受信した画像データをもとに、画像中に含まれる操作ボタン等のテキスト符号データを抽出し、このテキスト符号データが画面上に位置する領域を特定しておく。そして、操作ボタンの名称等をユーザが発話したときに、その操作ボタンが位置する領域の座標を携帯端末に送信するようになされている。 A technique is known in which text code data is determined from speech uttered by a user, and an arrangement area (coordinates) on the screen of the determined text code data is transmitted to a mobile terminal (for example, Patent Literature) 2). In this Patent Document 2, text code data such as operation buttons included in an image is extracted based on image data received from a mobile terminal by an in-vehicle device, and an area where the text code data is located on the screen is specified. Keep it. When the user speaks the name of the operation button or the like, the coordinates of the area where the operation button is located are transmitted to the portable terminal.
しかしながら、上記特許文献2に記載の技術では、携帯端末から車載機に送信された画像上のあらかじめ決められた位置に配置されている操作ボタンを音声認識によって操作することができるのみである。そのため、携帯端末から車載機に送信されて表示された画像について、タッチパネル上のフリック操作(指で素早くなぞる操作)による画像のスクロール、ピンチ操作(2本の指を使ってその間隔を広げたり縮めたりする操作)による画像の拡大/縮小、ローテーション操作(指を回転させるようになぞる操作)による画像の回転などを音声認識で行うことができないという問題があった。 However, with the technique described in Patent Document 2, the operation buttons arranged at predetermined positions on the image transmitted from the mobile terminal to the vehicle-mounted device can only be operated by voice recognition. Therefore, for images displayed by being transmitted from the mobile terminal to the in-vehicle device, scrolling and pinching operations (flicking with a finger) on a touch panel (flicking with a finger) and pinching operations (widening or shrinking the interval using two fingers) There is a problem in that voice recognition cannot perform image enlargement / reduction by rotation operation, rotation of an image by rotation operation (operation to trace a finger), and the like.
なお、特許文献2に記載の技術を利用して、画像上にスクロールボタン、拡大ボタン、縮小ボタン、回転ボタンなどを表示させてそれぞれからテキスト符号データを抽出し、このテキスト符号データが画面上に位置する領域(座標)をあらかじめ特定しておけば、スクロール、拡大/縮小、回転などの操作を音声認識によって行うことも可能である。 By using the technique described in Patent Document 2, a scroll button, an enlargement button, a reduction button, a rotation button, etc. are displayed on the image, and text code data is extracted from each of them, and this text code data is displayed on the screen. If the area (coordinates) to be positioned is specified in advance, operations such as scrolling, enlargement / reduction, and rotation can be performed by voice recognition.
しかしながら、この場合は、画像上に複数の操作ボタンを配置しなければならなくなり、画像そのものを表示する領域が狭くなって画像の視認性が悪くなるという問題があった。なお、複数の操作ボタンを表示させるか否かを指示するための表示/非表示ボタンのみを初期状態で表示させておき、これが音声認識によって操作されたときに複数の操作ボタンを表示させるという方法も考えられるが、操作の手間が増えてしまうという問題があった。 However, in this case, a plurality of operation buttons must be arranged on the image, and there is a problem in that the visibility of the image is deteriorated because the area for displaying the image itself is narrowed. Note that only a display / non-display button for instructing whether or not to display a plurality of operation buttons is displayed in an initial state, and a plurality of operation buttons are displayed when this is operated by voice recognition. However, there is a problem that the operation time is increased.
本発明は、このような問題を解決するために成されたものであり、携帯端末に画面表示された画像を電子機器に表示させて電子機器から携帯端末の操作を行うことができるようになされたシステムにおいて、電子機器での音声認識に基づいて、携帯端末のタッチパネル上でのなぞり操作(フリック、ピンチ、ローテーションなど)を行うことができるようにすることを目的とする。 The present invention has been made to solve such a problem, and allows an electronic device to display an image displayed on a screen of a mobile terminal so that the mobile device can be operated from the electronic device. Another object of the present invention is to make it possible to perform a tracing operation (flicking, pinching, rotation, etc.) on a touch panel of a portable terminal based on voice recognition in an electronic device.
上記した課題を解決するために、本発明では、タッチパネル付きの携帯端末で生成された画像データを受信して画像表示するとともに、携帯端末の操作を行うことができるようになされた電子機器が、音声入力項目を所定の座標列に変換するための変換テーブル情報を格納した変換テーブル記憶部を備え、音声認識部により認識された発話音声が音声入力項目に該当する場合、変換テーブル情報を用いて音声入力項目から所定の座標列を生成して携帯端末に送信するようにしている。 In order to solve the above-described problem, in the present invention, an electronic device configured to receive and display image data generated by a mobile terminal with a touch panel and to operate the mobile terminal, A conversion table storage unit storing conversion table information for converting a voice input item into a predetermined coordinate sequence is provided, and when the uttered voice recognized by the voice recognition unit corresponds to the voice input item, the conversion table information is used. A predetermined coordinate sequence is generated from the voice input items and transmitted to the portable terminal.
上記のように構成した本発明によれば、電子機器において音声入力項目が音声認識されると、その音声入力項目が所定の座標列に変換されて携帯端末に送信されるので、携帯端末ではその座標列をもとに、携帯端末のタッチパネル上でその座標列に対応する位置がなぞり操作(フリック、ピンチ、ローテーションなど)されたのと同様の処理を行うことが可能となる。これにより、電子機器での音声認識に基づいて携帯端末のタッチパネル上でのなぞり操作を行うことができる。 According to the present invention configured as described above, when a voice input item is recognized by an electronic device, the voice input item is converted into a predetermined coordinate sequence and transmitted to the mobile terminal. Based on the coordinate sequence, it is possible to perform the same processing as when the position corresponding to the coordinate sequence on the touch panel of the mobile terminal is traced (flick, pinch, rotation, etc.). Thereby, the tracing operation on the touch panel of the mobile terminal can be performed based on the voice recognition in the electronic device.
以下、本発明の一実施形態を図面に基づいて説明する。図1は、本発明の電子機器の一実施形態に係る車載機の機能構成例を示すブロック図である。本実施形態の車載機10は、タッチパネル付きの携帯端末20とミラーリンクで連携する。そして、携帯端末20で生成された画像データを受信して画像表示するとともに、携帯端末20にインストールされているアプリケーション(本実施形態では、地図アプリ)の操作(地図のスクロール、拡大/縮小、回転)を車載機10から行うことができるようになされている。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a functional configuration example of an in-vehicle device according to an embodiment of an electronic device of the present invention. The in-
図1に示すように、本実施形態の車載機10は、その機能構成として、画像データ受信部11、画像表示制御部12、変換テーブル記憶部13、音声入力部14、音声認識部15、入力項目判定部16および制御部17を備えている。ここで、車載機10には、タッチパネル付きディスプレイ30(以下、単にディスプレイ30とも記す)およびマイク40が接続され、あるいは、一体として構成されている。
As shown in FIG. 1, the in-
上記各機能ブロック11〜12,14〜17は、ハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック11〜12,14〜17は、実際には車載機10が備えるコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたプログラムが動作することによって実現される。
Each of the
画像データ受信部11は、携帯端末20のタッチパネル付きディスプレイ21(以下、単にディスプレイ21とも記す)に表示中の地図画像に係る画像データを携帯端末20から受信する。画像表示制御部12は、画像データ受信部11により受信された画像データに基づいて、地図画像をディスプレイ30に表示させる。
The image
なお、携帯端末20のディスプレイ21は縦長型であり、車載機10に接続されたディスプレイ30は横長型である。携帯端末20は、車載機10とミラーリンク接続されたとき、ディスプレイ21に表示中の縦長型の地図画像を車載機10のディスプレイ30に表示すべき横長型の地図画像へと変換して自身のディスプレイ21の表示を横長型の地図画像に変更した上で、変換後の画像データを車載機10に送信する。車載機10の画像データ受信部11は、この画像データを受信する。
The
画像データ受信部11によって携帯端末20から画像データが受信され、画像表示制御部12によってその画像データに基づいて地図画像がディスプレイ30に表示されると、ディスプレイ30上で地図画像が表示された位置を示す座標情報(例えば、ディスプレイ30の四隅の座標情報)が車載機10から携帯端末20に返される。携帯端末20では、車載機10から返されてきたディスプレイ30の四隅の座標情報と、ディスプレイ21の四隅の座標情報とを対応付けて記憶する(以下、この記憶する情報を「座標関連付け情報」という)。
When image data is received from the
これにより、車載機10のタッチパネルに対するタッチ位置を表す座標情報を車載機10から携帯端末20に送信し、携帯端末20がこの座標情報を座標関連付け情報に基づいて携帯端末20のタッチパネル上の座標情報に変換することにより、携帯端末20のタッチパネル上で車載機10と同じ位置がタッチ操作されたのと同様の処理を行うことが可能な状態となる。
Thereby, coordinate information representing the touch position of the in-
変換テーブル記憶部13は、音声認識の対象としたい複数の音声入力項目(音声コマンド)をそれぞれタッチパネル付きディスプレイ30のタッチパネル上における座標列に変換するための変換テーブル情報をあらかじめ格納している。本実施形態において、音声入力項目は、地図画像のスクロール、拡大・縮小、回転の少なくともいずれかに関する音声コマンドを含む。
The conversion
例えば、地図画像のスクロールに関して、「右スクロール」、「左スクロール」、「上スクロール」、「下スクロール」といった音声コマンドをそれぞれ所定の座標列に変換するための情報が格納されている。また、地図画像の拡大・縮小に関して、「拡大」、「縮小」といった音声コマンドをそれぞれ所定の座標列に変換するための情報が格納されている。さらに、地図画像の回転に関して、「右回転」、「左回転」といった音声コマンドをそれぞれ所定の座標列に変換するための情報が格納されている。 For example, regarding the scrolling of the map image, information for converting voice commands such as “right scroll”, “left scroll”, “upward scroll”, and “downward scroll” into predetermined coordinate strings is stored. In addition, regarding the enlargement / reduction of the map image, information for converting voice commands such as “enlarge” and “reduction” into predetermined coordinate strings is stored. Further, regarding rotation of the map image, information for converting voice commands such as “right rotation” and “left rotation” into predetermined coordinate sequences is stored.
図2は、一例として「右スクロール」および「拡大」の音声コマンドをそれぞれ所定の座標列に変換するための変換テーブル情報を示す図である。図2に示すように、変換テーブル記憶部13には、「右スクロール」の音声コマンドに対応して、タッチパネル上の所定の開始位置から終了位置まで、右から左方向へと所定の長さだけ1本の指でフリック操作をした場合に得られる座標列が格納されている。また、「拡大」の音声コマンドに対応して、タッチパネル上の所定の開始位置(例えば、タッチパネルの中央点)を中心として、2本の指を使ってその間隔を押し広げるピンチ操作をした場合に得られる座標列が格納されている。
FIG. 2 is a diagram showing conversion table information for converting “right scroll” and “enlarged” voice commands into predetermined coordinate strings, as an example. As shown in FIG. 2, the conversion
音声入力部14は、ユーザが発話した音声をマイク40より入力する。音声認識部15は、音声入力部14により入力された発話音声を認識する。すなわち、音声認識部15は、音声認識辞書を備えており、音声入力部14により入力された発話音声が音声認識辞書に登録されている音声のどれと合致するかを認識し、合致した音声を例えばテキスト情報として出力する。
The
入力項目判定部16は、変換テーブル記憶部13に格納されている変換テーブル情報を参照して、音声認識部15により認識された発話音声が音声入力項目に該当するか否かを判定する。すなわち、入力項目判定部16は、音声認識部15より出力される認識音声のテキスト情報が、変換テーブル記憶部13に音声コマンドのテキスト情報として格納されているか否かを判定する。
The input
制御部17は、音声認識部15により認識された発話音声が音声入力項目に該当すると入力項目判定部16により判定された場合、変換テーブル記憶部13に格納されている変換テーブル情報を用いて、音声入力項目から所定の座標列を生成して携帯端末20に送信する。
When the input
携帯端末20では、制御部17により車載機10から送られてきた座標列をもとに、携帯端末20のタッチパネル上でその座標列に対応する位置がなぞり操作(フリック、ピンチ、ローテーションなど)されたのと同様の処理を行う。すなわち、携帯端末20では、上述した座標関連付け情報を用いて、車載機10から送られてきた座標列(タッチパネル付きディスプレイ30におけるタッチパネル上での疑似的な操作座標列)を、携帯端末20のタッチパネル上での疑似的な操作座標列に変換し、変換後の座標列に対応する位置がなぞり操作されたのと同様の処理を行う。
In the
図3は、上記のように構成した本実施形態による車載機10の動作例を示すフローチャートである。なお、図3に示すフローチャートの処理は、車載機10と携帯端末20とを接続してミラーリンクで連携させたときに開始する。まず、画像データ受信部11は、携帯端末20のディスプレイ21に表示中の地図画像に係る画像データを携帯端末20から受信する(ステップS1)。そして、画像表示制御部12は、画像データ受信部11により受信された画像データに基づいて、地図画像をディスプレイ30に表示させる(ステップS2)。その後、車載機10は、地図画像が表示されたディスプレイ30の四隅の座標情報を携帯端末20に返信する(ステップS3)。
FIG. 3 is a flowchart showing an operation example of the vehicle-mounted
次に、音声入力部14は、ユーザによる発話音声がマイク40より入力されたか否かを判定する(ステップS4)。発話音声が入力されていない場合、車載機10は、携帯端末20とのミラーリンクによる連携が終了したか否かを判定し(ステップS5)、連携が終了した場合は図3に示すフローチャートの処理を終了する。連携が終了していなければ、処理はステップS1に戻る。これにより、携帯端末20において地図画像が更新されるのに合わせて、車載機10においても地図画像が随時更新して表示される。
Next, the
一方、音声入力部14により発話音声が入力された場合、音声認識部15は、音声入力部14により入力された発話音声を認識する(ステップS6)。次いで、入力項目判定部16は、音声認識部15により認識された発話音声が所定の音声入力項目に該当するか否かを判定する(ステップS7)。ここで、音声認識部15により認識された発話音声が所定の音声入力項目に該当しないと判定された場合、入力項目判定部16は、発話音声が音声入力項目に該当しない旨をユーザに知らせるエラーメッセージをディスプレイ30に表示させる(ステップS8)。その後、処理はステップS1に戻る。
On the other hand, when the utterance voice is input by the
一方、音声認識部15により認識された発話音声が音声入力項目に該当すると入力項目判定部16により判定された場合、制御部17は、変換テーブル記憶部13に格納されている変換テーブル情報を用いて、音声入力項目から所定の座標列を生成して携帯端末20に送信する(ステップS9)。その後、処理はステップS1に戻る。これにより、車載機10から送られた座標列に基づいて携帯端末20において所定の処理が実行され、それによって更新された地図画像と同じ地図画像がディスプレイ30に表示されることとなる。
On the other hand, when the input
以上詳しく説明したように、本実施形態の車載機10は、音声認識用の音声入力項目(音声コマンド)を所定の座標列に変換するための変換テーブル情報を格納した変換テーブル記憶部13を備え、音声認識部15により認識された発話音声が音声入力項目に該当する場合、変換テーブル情報を用いて音声入力項目から所定の座標列を生成して携帯端末20に送信するようにしている。
As described above in detail, the in-
このように構成した本実施形態によれば、車載機10において音声入力項目が音声認識されると、その音声入力項目が所定の座標列に変換されて携帯端末20に送信されるので、携帯端末20ではその座標列をもとに、携帯端末20のタッチパネル上でその座標列に対応する位置がなぞり操作(フリック、ピンチ、ローテーションなど)されたのと同様の処理を行うことが可能となる。これにより、車載機10での音声認識に基づいて携帯端末20のタッチパネル上でのなぞり操作を行うことができる。
According to the present embodiment configured as described above, when a voice input item is recognized by the in-
なお、上記実施形態において、操作処理内容に加えて「速度(高速・低速)」を表す言葉が発話された場合には、車載機10から携帯端末20に座標列を送信する時間を通常より短くまたは長くするようにしてもよい。この場合、音声入力項目は、タッチパネルに対する操作の種類に関する第1の音声入力項目と、タッチパネルに対する操作の速度に関する第2の音声入力項目とを含む。変換テーブル記憶部13は、第1の音声入力項目をそれぞれタッチパネル付きディスプレイ30のタッチパネル上における座標列に変換するための変換テーブル情報をあらかじめ格納する。
In the above embodiment, when a word representing “speed (high speed / low speed)” is spoken in addition to the operation processing content, the time for transmitting the coordinate sequence from the in-
入力項目判定部16は、音声認識部15により認識された発話音声が第1の音声入力項目に該当するか否か、第2の音声入力項目に該当するか否かをそれぞれ判定する。具体的には、入力項目判定部16は、音声認識部15により認識された発話音声が第1の音声入力項目のみに該当するか否か、第1の音声入力項目と第2の音声入力項目との組み合わせに該当するか否かを判定する。
The input
制御部17は、音声認識部15により認識された発話音声が第1の音声入力項目のみに該当すると入力項目判定部16により判定された場合、変換テーブル情報を用いて第1の音声入力項目から所定の座標列を生成して携帯端末20に対し所定の速度で送信する。この動作は上述した実施形態と同様である。例えば、音声認識部15により認識された発話音声が「右スクロール」であった場合、制御部17は、「右スクロール」に対応する座標列を生成して携帯端末20に対してこれを通常の速度で送信する。
When the input
一方、音声認識部15により認識された発話音声が第1の音声入力項目および第2の音声入力項目の両方に該当すると入力項目判定部16により判定された場合、制御部17は、変換テーブル情報を用いて第1の音声入力項目から所定の座標列を生成し、携帯端末20に対して第2の音声入力項目に応じた速度で送信する。例えば、音声認識部15により認識された発話音声が「高速右スクロール」であった場合、制御部17は、「右スクロール」に対応する座標列を生成し、携帯端末20に対して通常よりも速い所定の速度で(つまり、1つ1つの座標を送信する時間間隔を短くして)送信する。また、音声認識部15により認識された発話音声が「低速右スクロール」であった場合、制御部17は、「右スクロール」に対応する座標列を生成し、これを携帯端末20に対して通常よりも遅い所定の速度で送信する。
On the other hand, when the input
「右スクロール」に対応する座標列が通常よりも速い速度で携帯端末20に送信された場合、携帯端末20では、地図画像の右スクロールが通常よりも速い速度で実行される。これにより、車載機10に表示される地図画像においても、地図画像の右スクロールが通常よりも速い速度で行われる。同様に、「右スクロール」に対応する座標列が通常よりも遅い速度で携帯端末20に送信された場合、携帯端末20では、地図画像の右スクロールが通常よりも遅い速度で実行される。これにより、車載機10に表示される地図画像においても、地図画像の右スクロールが通常よりも遅い速度で行われる。
When the coordinate sequence corresponding to “right scroll” is transmitted to the
また、上記実施形態において、操作処理内容に加えて「回数・段階」を表す言葉が発話された場合には、回数または段階に応じて座標列を車載機10から携帯端末20に複数回送信するようにしてもよい。この場合、音声入力項目は、タッチパネルに対する操作の種類に関する第1の音声入力項目と、タッチパネルに対する操作の回数に関する第3の音声入力項目とを含む。変換テーブル記憶部13は、第1の音声入力項目をそれぞれタッチパネル付きディスプレイ30のタッチパネル上における座標列に変換するための変換テーブル情報をあらかじめ格納する。
Further, in the above embodiment, when a word representing “number / stage” is spoken in addition to the operation processing content, the coordinate sequence is transmitted from the in-
入力項目判定部16は、音声認識部15により認識された発話音声が第1の音声入力項目に該当するか否か、第3の音声入力項目に該当するか否かをそれぞれ判定する。具体的には、入力項目判定部16は、音声認識部15により認識された発話音声が第1の音声入力項目のみに該当するか否か、第1の音声入力項目と第3の音声入力項目との組み合わせに該当するか否かを判定する。
The input
制御部17は、音声認識部15により認識された発話音声が第1の音声入力項目のみに該当すると入力項目判定部16により判定された場合、変換テーブル情報を用いて第1の音声入力項目から所定の座標列を生成して携帯端末20に対し1回送信する。この動作は上述した実施形態と同様である。例えば、音声認識部15により認識された発話音声が「拡大」であった場合、制御部17は、「拡大」に対応する座標列を生成し、これを携帯端末20に対して1回だけ送信する。
When the input
一方、音声認識部15により認識された発話音声が第1の音声入力項目および第3の音声入力項目の両方に該当すると入力項目判定部16により判定された場合、制御部17は、変換テーブル情報を用いて第1の音声入力項目から所定の座標列を生成し、これを携帯端末20に対して第3の音声入力項目に応じた回数送信する。
On the other hand, when the input
例えば、音声認識部15により認識された発話音声が「2段階拡大」であった場合、制御部17は、「拡大」に対応する座標列を生成し、携帯端末20に対してこれを2回送信する。「拡大」に対応する座標列が携帯端末20に2回送信された場合、携帯端末20では、地図画像の拡大が2段階にわたって実行される。これにより、車載機10に表示される地図画像においても、地図画像の拡大が2段階にわたって行われる。
For example, when the uttered voice recognized by the
なお、上記実施形態では、携帯端末20にインストールされている携帯アプリの例として地図アプリを挙げて説明したが、本発明を適用可能な携帯アプリは地図アプリに限定されない。すなわち、フリック、ピンチ、ローテーションなどのなぞり操作に応じて所定の処理を実行する機能を有する携帯アプリであれば、何れも適用することが可能である。
In the above embodiment, the map application is described as an example of the mobile application installed in the
また、上記実施形態では、電子機器の一例として車載機10を挙げて説明したが、本発明を適用可能な電子機器は車載機10に限定されない。すなわち、ミラーリンクまたはこれと同様の通信制御技術に対応した電子機器であれば何れにも適用することが可能である。
In the above embodiment, the in-
また、上記実施形態では、地図画像を拡大・縮小するための音声入力項目(音声コマンド)として「拡大」、「縮小」を用い、固定の一点(例えば、画面中央点)を中心として地図画像を拡大または縮小する例について説明したが、拡大/縮小の中心点の位置を第4の音声入力コマンドとして用いるようにしてもよい。例えば、音声認識部15により認識された発話音声が「右上拡大」であった場合、制御部17は、タッチパネル付きディスプレイ30の右上エリア内にある所定の1点を中心として、2本の指を使ってその間隔を押し広げるピンチ操作をした場合に得られる座標列を生成し、これを携帯端末20に対して送信する。
In the above embodiment, “zoom” and “shrink” are used as voice input items (voice commands) for enlarging / reducing the map image, and the map image is centered on a fixed point (for example, the screen center point). Although the example of enlarging or reducing has been described, the position of the center point of enlarging / reducing may be used as the fourth voice input command. For example, when the uttered voice recognized by the
その他、上記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。 In addition, each of the above-described embodiments is merely an example of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. That is, the present invention can be implemented in various forms without departing from the gist or the main features thereof.
10 車載機(電子機器)
11 画像データ受信部
12 画像表示制御部
13 変換テーブル記憶部
14 音声入力部
15 音声認識部
16 入力項目判定部
17 制御部
20 携帯端末
10 Onboard equipment (electronic equipment)
DESCRIPTION OF
Claims (8)
音声入力項目を所定の座標列に変換するための変換テーブル情報を格納した変換テーブル記憶部と、
ユーザが発話した音声を入力する音声入力部と、
上記音声入力部により入力された発話音声を認識する音声認識部と、
上記音声認識部により認識された発話音声が上記音声入力項目に該当するか否かを判定する入力項目判定部と、
上記音声認識部により認識された発話音声が上記音声入力項目に該当すると上記入力項目判定部により判定された場合、上記変換テーブル情報を用いて上記音声入力項目から上記所定の座標列を生成して上記携帯端末に送信する制御部とを備えたことを特徴とする電子機器。 The electronic device is configured to receive and display image data generated by a mobile terminal with a touch panel, and to operate the mobile terminal,
A conversion table storage unit that stores conversion table information for converting voice input items into a predetermined coordinate sequence;
A voice input unit for inputting voice spoken by the user;
A voice recognition unit for recognizing a speech voice input by the voice input unit;
An input item determination unit that determines whether or not the utterance voice recognized by the voice recognition unit corresponds to the voice input item;
If the input item determination unit determines that the speech voice recognized by the voice recognition unit corresponds to the voice input item, the predetermined coordinate sequence is generated from the voice input item using the conversion table information. An electronic apparatus comprising: a control unit that transmits to the portable terminal.
上記入力項目判定部は、上記音声認識部により認識された発話音声が上記第1の音声入力項目に該当するか否か、上記第2の音声入力項目に該当するか否かをそれぞれ判定し、
上記制御部は、上記音声認識部により認識された発話音声が上記第1の音声入力項目のみに該当すると上記入力項目判定部により判定された場合、上記変換テーブル情報を用いて上記第1の音声入力項目から上記所定の座標列を生成して上記携帯端末に対し所定の速度で送信し、上記音声認識部により認識された発話音声が上記第1の音声入力項目および上記第2の音声入力項目の両方に該当すると上記入力項目判定部により判定された場合、上記変換テーブル情報を用いて上記第1の音声入力項目から上記所定の座標列を生成して上記携帯端末に対し上記第2の音声入力項目に応じた速度で送信することを特徴とする請求項1に記載の電子機器。 The voice input items include a first voice input item related to the type of operation on the touch panel, and a second voice input item related to the speed of operation on the touch panel.
The input item determination unit determines whether the uttered voice recognized by the voice recognition unit corresponds to the first voice input item or whether the speech input item corresponds to the second voice input item, respectively.
When the input item determination unit determines that the utterance voice recognized by the voice recognition unit corresponds only to the first voice input item, the control unit uses the conversion table information to determine the first voice. The predetermined coordinate string is generated from the input items and transmitted to the portable terminal at a predetermined speed, and the uttered voice recognized by the voice recognition unit is the first voice input item and the second voice input item. If the input item determination unit determines that both are true, the predetermined coordinate string is generated from the first audio input item using the conversion table information, and the second audio is sent to the mobile terminal. The electronic apparatus according to claim 1, wherein transmission is performed at a speed corresponding to an input item.
上記入力項目判定部は、上記音声認識部により認識された発話音声が上記第1の音声入力項目に該当するか否か、上記第3の音声入力項目に該当するか否かをそれぞれ判定し、
上記制御部は、上記音声認識部により認識された発話音声が上記第1の音声入力項目のみに該当すると上記入力項目判定部により判定された場合、上記変換テーブル情報を用いて上記第1の音声入力項目から上記所定の座標列を生成して上記携帯端末に対し1回送信し、上記音声認識部により認識された発話音声が上記第1の音声入力項目および上記第3の音声入力項目の両方に該当すると上記入力項目判定部により判定された場合、上記変換テーブル情報を用いて上記第1の音声入力項目から上記所定の座標列を生成して上記携帯端末に対し上記第3の音声入力項目に応じた回数送信することを特徴とする請求項1に記載の電子機器。 The voice input items include a first voice input item related to the type of operation on the touch panel, and a third voice input item related to the number of operations on the touch panel.
The input item determination unit determines whether the uttered voice recognized by the voice recognition unit corresponds to the first voice input item or whether to correspond to the third voice input item, respectively.
When the input item determination unit determines that the utterance voice recognized by the voice recognition unit corresponds only to the first voice input item, the control unit uses the conversion table information to determine the first voice. The predetermined coordinate sequence is generated from the input item and transmitted once to the portable terminal, and the uttered voice recognized by the voice recognition unit is both the first voice input item and the third voice input item. If the input item determination unit determines that the condition is true, the predetermined coordinate string is generated from the first voice input item using the conversion table information, and the third voice input item is transmitted to the portable terminal. The electronic device according to claim 1, wherein the electronic device transmits the number of times in accordance with the electronic device.
上記入力項目判定部は、上記音声認識部により認識された発話音声が上記第1の音声入力項目に該当するか否か、上記第4の音声入力項目に該当するか否かをそれぞれ判定し、
上記制御部は、上記音声認識部により認識された発話音声が上記第1の音声入力項目のみに該当すると上記入力項目判定部により判定された場合、上記変換テーブル情報を用いて、所定の開始位置から操作を開始した場合の座標列を上記第1の音声入力項目から生成して上記携帯端末に送信し、上記音声認識部により認識された発話音声が上記第1の音声入力項目および上記第4の音声入力項目の両方に該当すると上記入力項目判定部により判定された場合、上記変換テーブル情報を用いて、上記第4の音声入力項目に応じた開始位置から操作を開始した場合の座標列を上記第1の音声入力項目から生成して上記携帯端末に送信することを特徴とする請求項1に記載の電子機器。 The voice input item includes a first voice input item related to a type of operation on the touch panel, and a fourth voice input item related to a start position of the operation on the touch panel.
The input item determination unit determines whether the uttered voice recognized by the voice recognition unit corresponds to the first voice input item or whether to correspond to the fourth voice input item, respectively.
When the input item determination unit determines that the utterance voice recognized by the voice recognition unit corresponds to only the first voice input item, the control unit uses the conversion table information to determine a predetermined start position. The coordinate sequence when the operation is started from the first voice input item is generated from the first voice input item and transmitted to the portable terminal, and the utterance voice recognized by the voice recognition unit is the first voice input item and the fourth voice input item. When the input item determination unit determines that the voice input item corresponds to both of the voice input items, the coordinate table when the operation is started from the start position corresponding to the fourth voice input item is obtained using the conversion table information. The electronic device according to claim 1, wherein the electronic device is generated from the first voice input item and transmitted to the portable terminal.
上記電子機器の音声入力部が、ユーザが発話した音声を入力する第1のステップと、
上記電子機器の音声認識部が、上記音声入力部により入力された発話音声を認識する第2のステップと、
上記電子機器の入力項目判定部が、上記音声認識部により認識された発話音声が所定の音声入力項目に該当するか否かを判定する第3のステップと、
上記電子機器の制御部が、上記音声認識部により認識された発話音声が上記音声入力項目に該当すると上記入力項目判定部により判定された場合、上記音声入力項目を所定の座標列に変換するための変換テーブル情報を用いて上記音声入力項目から上記所定の座標列を生成して上記携帯端末に送信する第4のステップとを有することを特徴とする、電子機器に接続された携帯端末の音声認識操作方法。 A voice recognition operation method for operating a portable terminal using voice recognition from the electronic device in a system configured to display an image displayed on a screen on a portable terminal with a touch panel. ,
A first step in which the voice input unit of the electronic device inputs voice spoken by the user;
A second step in which the voice recognition unit of the electronic device recognizes the uttered voice input by the voice input unit;
A third step in which the input item determination unit of the electronic device determines whether the uttered voice recognized by the voice recognition unit corresponds to a predetermined voice input item;
The control unit of the electronic device converts the voice input item into a predetermined coordinate sequence when the input item determination unit determines that the utterance voice recognized by the voice recognition unit corresponds to the voice input item. And a fourth step of generating the predetermined coordinate sequence from the voice input item using the conversion table information and transmitting the generated coordinate sequence to the portable terminal. The voice of the portable terminal connected to the electronic device Recognition operation method.
上記車載機は、
音声入力項目を所定の座標列に変換するための変換テーブル情報を格納した変換テーブル記憶部と、
ユーザが発話した音声を入力する音声入力部と、
上記音声入力部により入力された発話音声を認識する音声認識部と、
上記音声認識部により認識された発話音声が上記音声入力項目に該当するか否かを判定する入力項目判定部と、
上記音声認識部により認識された発話音声が上記音声入力項目に該当すると上記入力項目判定部により判定された場合、上記変換テーブル情報を用いて上記音声入力項目から上記所定の座標列を生成して上記携帯端末に送信する制御部とを備え、
上記携帯端末は、上記制御部により上記車載機から送られてきた座標列をもとに、上記タッチパネル上で上記座標列に対応する位置がなぞり操作されたのと同様の処理を行うことを特徴とする車載システム。 An in-vehicle system configured to display an image displayed on a mobile terminal with a touch panel on an in-vehicle device and to operate the mobile terminal from the in-vehicle device,
The in-vehicle device is
A conversion table storage unit that stores conversion table information for converting voice input items into a predetermined coordinate sequence;
A voice input unit for inputting voice spoken by the user;
A voice recognition unit for recognizing a speech voice input by the voice input unit;
An input item determination unit that determines whether or not the utterance voice recognized by the voice recognition unit corresponds to the voice input item;
If the input item determination unit determines that the speech voice recognized by the voice recognition unit corresponds to the voice input item, the predetermined coordinate sequence is generated from the voice input item using the conversion table information. A control unit for transmitting to the mobile terminal,
The portable terminal performs the same processing as when the position corresponding to the coordinate sequence is traced on the touch panel based on the coordinate sequence sent from the in-vehicle device by the control unit. In-vehicle system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013171870A JP2015041243A (en) | 2013-08-22 | 2013-08-22 | Electronic device, voice recognition operation method of mobile terminal connected thereto, and in-vehicle system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013171870A JP2015041243A (en) | 2013-08-22 | 2013-08-22 | Electronic device, voice recognition operation method of mobile terminal connected thereto, and in-vehicle system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015041243A true JP2015041243A (en) | 2015-03-02 |
Family
ID=52695368
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013171870A Pending JP2015041243A (en) | 2013-08-22 | 2013-08-22 | Electronic device, voice recognition operation method of mobile terminal connected thereto, and in-vehicle system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015041243A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105711523B (en) * | 2016-03-30 | 2019-01-01 | 奇瑞汽车股份有限公司 | Vehicle intelligent terminal, system and information sharing method |
US11531455B2 (en) | 2018-10-18 | 2022-12-20 | Samsung Electronics Co., Ltd. | Electronic device and method of controlling electronic device |
-
2013
- 2013-08-22 JP JP2013171870A patent/JP2015041243A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105711523B (en) * | 2016-03-30 | 2019-01-01 | 奇瑞汽车股份有限公司 | Vehicle intelligent terminal, system and information sharing method |
US11531455B2 (en) | 2018-10-18 | 2022-12-20 | Samsung Electronics Co., Ltd. | Electronic device and method of controlling electronic device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102428440B (en) | Synchronization and the system and method for disambiguation for multi-mode input | |
KR101426937B1 (en) | Gesture completion path display for gesture-based keyboards | |
US10346026B1 (en) | User interface | |
US9135914B1 (en) | Layered mobile application user interfaces | |
CN105074817A (en) | Systems and methods for switching processing modes using gestures | |
US20190066678A1 (en) | Information processing device, in-vehicle device, and storage medium | |
JP5777645B2 (en) | Character input method for portable terminal and portable terminal supporting the same | |
WO2018079332A1 (en) | Information processing device and information processing method | |
CN106303691A (en) | Frame of video sends system and frame of video sending method | |
JP2013228523A (en) | Mathematical expression input device and program | |
US20140195959A1 (en) | Apparatus and method for providing a virtual keypad | |
JP2015041243A (en) | Electronic device, voice recognition operation method of mobile terminal connected thereto, and in-vehicle system | |
EP3493048A1 (en) | Translation device and translation system | |
KR20080070930A (en) | Apparatus and method for inputing the korean alphabet in portable terminal | |
JP2005518585A (en) | Character input system for mobile terminal and mobile terminal using the same | |
US20120256832A1 (en) | Electronic device and method for activating application | |
US20200152172A1 (en) | Electronic device for recognizing abbreviated content name and control method thereof | |
JP6259225B2 (en) | Electronic device, gesture recognition operation method for mobile terminal connected to the same, and in-vehicle system | |
JP4702081B2 (en) | Character input device | |
KR20100080043A (en) | Method and system for inputting the korean alphabet | |
US20140068441A1 (en) | Typetell touch screen keystroke announcer | |
JP2002297577A (en) | Apparatus, and method of input conversion processing for chinese language and program therefor | |
JP2014236505A (en) | Universal user interface system | |
JP6034541B1 (en) | Information display device, information display method, and information display program | |
JP2014103533A (en) | Character input support device and program for controlling information display terminal |