JP2022111842A - Update program, update device, and update method - Google Patents
Update program, update device, and update method Download PDFInfo
- Publication number
- JP2022111842A JP2022111842A JP2021007513A JP2021007513A JP2022111842A JP 2022111842 A JP2022111842 A JP 2022111842A JP 2021007513 A JP2021007513 A JP 2021007513A JP 2021007513 A JP2021007513 A JP 2021007513A JP 2022111842 A JP2022111842 A JP 2022111842A
- Authority
- JP
- Japan
- Prior art keywords
- character string
- user
- voice
- update
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 58
- 238000012545 processing Methods 0.000 claims description 26
- 230000005540 biological transmission Effects 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 18
- 230000006870 function Effects 0.000 description 28
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 241000102542 Kara Species 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、更新プログラム、更新装置及び更新方法に関する。 The present invention relates to an update program, an update device, and an update method.
従来、検索クエリの音声入力に関する技術が知られている。例えば、ユーザが検索対象に関連するワードを把握していない場合に、音声入力を認識した音声認識結果、音声認識結果から抽出した指示語、並びに、ユーザの動作から推定したユーザの指示を基にユーザの検索指示を作成する技術が開示されている。 Conventionally, techniques related to voice input of search queries are known. For example, if the user does not know the words related to the search target, based on the speech recognition result of recognizing the voice input, the reference word extracted from the speech recognition result, and the user's instruction estimated from the user's behavior Techniques for creating user search instructions are disclosed.
しかしながら、上記の従来技術では、利用者が利用するサービスにおいて適切な検索クエリを提案できるとは言えない場合がある。 However, with the conventional technology described above, there are cases where it cannot be said that an appropriate search query can be proposed in the service used by the user.
例えば、上記の従来技術では、ユーザが検索対象に関連するワードを把握していない場合に検索指示を作成しているに過ぎず、利用者が利用するサービスにおいて適切な検索クエリを提案しているとは言えない。 For example, in the above conventional technology, only a search instruction is created when the user does not know the words related to the search target, and an appropriate search query is proposed in the service used by the user. It can not be said.
本願は、上記に鑑みてなされたものであって、利用者が利用するサービスにおいて適切な検索クエリを提案できる更新プログラム、更新装置及び更新方法を提供することを目的とする。 The present application has been made in view of the above, and aims to provide an update program, an update device, and an update method capable of proposing appropriate search queries in services used by users.
本願に係る更新プログラムは、音声を介して入力される検索クエリの候補であって、利用者が利用するサービスに対応する検索クエリの候補を示す文字列を表示する表示手順と、音声を介した情報の入力を前記利用者から受け付ける受付手順と、前記受付手順により受け付けられた情報の音声認識の結果に基づいて、前記文字列の表示態様を更新して表示する更新手順とをコンピュータに実行させることを特徴とする。 The update program according to the present application is a search query candidate input via voice, and includes a display procedure for displaying a character string indicating a search query candidate corresponding to a service used by a user; causing a computer to execute a receiving procedure for receiving input of information from the user and an updating procedure for updating and displaying the display mode of the character string based on the result of speech recognition of the information received by the receiving procedure; It is characterized by
実施形態の一態様によれば、利用者が利用するサービスにおいて適切な検索クエリを提案できるという効果を奏する。 According to one aspect of the embodiment, there is an effect that an appropriate search query can be proposed in the service used by the user.
以下に本願にかかる更新プログラム、更新装置及び更新方法を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る更新プログラム、更新装置及び更新方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Embodiments for implementing the update program, update device, and update method according to the present application (hereinafter referred to as "embodiments") will be described in detail below with reference to the drawings. Note that the update program, update device, and update method according to the present application are not limited to this embodiment. Also, in each of the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.
〔1.実施形態〕
図1を用いて、本実施形態の更新プログラム等により実現される更新処理を説明する。図1は、実施形態に係る更新処理の一例を示す図である。図1では、利用者の音声入力に対し音声認識の結果となる文字列を表示し、表示した文字列を所定の外部装置や他のアプリケーションに出力する音声入力アプリケーション(以下、「音声入力アプリ」と記載する場合がある)が、利用者が利用する端末装置100に実装されている例を示す。なお、図1では、音声入力アプリの機能によって実施形態に係る更新処理が実現されるものとする。
[1. embodiment]
The update processing realized by the update program etc. of this embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of update processing according to the embodiment. In FIG. 1, a voice input application (hereinafter referred to as a "voice input application") displays a character string resulting from voice recognition in response to a user's voice input, and outputs the displayed character string to a predetermined external device or other application. ) is installed in the
図1に示すように、実施形態に係る更新システム1は、サービスサーバ10と、端末装置100とを含む。サービスサーバ10及び端末装置100は、ネットワークN(例えば、図3参照)を介して有線または無線により相互に通信可能に接続される。ネットワークNは、例えば、インターネットなどのWAN(Wide Area Network)である。なお、図1に示した更新システム1には、複数台のサービスサーバ10及び複数台の端末装置100が含まれていてもよい。
As shown in FIG. 1 , an
図1に示すサービスサーバ10は、利用者に各種のサービスを提供する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。例えば、サービスサーバ10は、例えば、ポータルサイト、ニュースサイト、オークションサイト、天気予報サイト、ショッピングサイト、ファイナンス(株価)サイト、路線検索サイト、地図提供サイト、旅行サイト、飲食店紹介サイト、ウェブブログなどに関するウェブページや、端末装置100にインストールされた各種アプリ(例えば、ポータルアプリ、ニュースアプリ、オークションサイト、天気予報アプリ、ショッピングアプリ、ファイナンス(株価)アプリ、路線検索アプリ、地図提供アプリ、旅行アプリ、飲食店紹介アプリ、ブログ閲覧アプリ等)に表示する情報を端末装置100に配信する。
A
なお、サービスサーバ10は、端末装置100に制御情報を配信する配信装置として機能してもよい。ここで、制御情報は、例えば、JavaScript(登録商標)等のスクリプト言語やCSS(Cascading Style Sheets)等のスタイルシート言語により記述される。なお、サービスサーバ10から配信されるアプリケーションそのものを制御情報とみなしてもよい。
Note that the
図1に示す端末装置100は、利用者によって利用される情報処理装置である。端末装置100は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。なお、図1に示す例において、端末装置100は、利用者によって利用されるスマートフォンである場合を示す。また、端末装置100は、液晶ディスプレイ等の出力部(以下、画面と記載する場合がある)を有し、タッチパネルが採用されているものとする。すなわち、利用者U1は、指や専用ペンで出力部の表示面をタッチすることにより端末装置100の各種操作を行う。また、図1の例において、端末装置100には、音を集音する集音機器(マイク等)が含まれているものとする。
A
以下、図1を用いて、端末装置100が行う音声入力アプリの更新処理について説明する。なお、以下の説明では、端末装置100が利用者U1により利用される例を示す。また、以下の説明において、サービスサーバ10が、路線検索サービスを提供する路線検索サイトや路線検索アプリを提供する例を示す。
Hereinafter, update processing of the voice input application performed by the
まず、端末装置100は、利用者U1からの操作に対応するサービスに関する画面を表示する(ステップS1)。例えば、図1の例において、端末装置100は、利用者U1からの操作に応じて、サービスサーバ10が提供する路線検索サービスに関する画面C11を表示する。具体的な例を挙げると、端末装置100は、出発駅や到着駅などといった検索条件(検索クエリ)を入力するための領域AR11と、領域AR11に対する検索クエリの音声入力を指示するためのボタンB11とを含む画面C11を表示する。
First, the
ここで、図1の例において、利用者U1がボタンB11を押下したものとする。この場合、端末装置100は、音声入力アプリを起動し、サービスサーバ10が提供する路線検索サービスにおいて入力可能な検索クエリの候補を示す文字列を表示する画面に画面C11を遷移させる(ステップS2)。例えば、端末装置100は、入力される音声の認識結果を表示する領域AR12と、路線検索サービスにおける検索クエリの候補として予め設定された文字列であって、領域AR11に入力可能な文字列を表示する領域AR13及びAR14と、音声入力の開始を指示するためのボタンB12とを含む画面C12に遷移させる。
Here, in the example of FIG. 1, it is assumed that the user U1 presses the button B11. In this case, the
具体的な例を挙げると、端末装置100は、出発駅及び到着駅、並びに、出発駅から到着駅までの経路における始発(初電)または終電を指定するための文字列(以下、「文字列#11」と記載する場合がある)を領域AR13に表示する。より具体的な例を挙げると、端末装置100は、利用者U1によって音声入力される出発駅及び到着駅をそれぞれ表示する領域AR131及びAR132、並びに、「始発」及び「終電」を択一的に表示する領域AR133を含む文字列#11を表示する。
As a specific example, the
また、端末装置100は、出発駅及び到着駅、並びに、出発駅を出発する出発時刻、または、到着駅に到着する到着時刻を指定するための文字列(以下、「文字列#12」と記載する場合がある)を領域AR14に表示する。より具体的な例を挙げると、端末装置100は、利用者U1によって音声入力される出発駅及び到着駅をそれぞれ表示する領域AR141及びAR142、利用者U1によって音声入力される時刻を表示する領域AR143及びAR144、「出発」及び「到着」を択一的に表示する領域AR145を含む文字列#12を表示する。
The
続いて、利用者U1は、ボタンB12を押下し、画面C12に表示された文字列#11及び#12のいずれかに従い、音声入力(発話)を行う(ステップS3)。なお、図1の例において、利用者U1が、東京駅を出発駅とし、池袋駅を到着駅とする経路の終電を検索することを希望し、文字列#11に従い、端末装置100が含むマイクに対し「東京から池袋までの終電」と発話したものとする。 Subsequently, the user U1 presses the button B12 and performs voice input (utterance) according to either of the character strings #11 and #12 displayed on the screen C12 (step S3). In the example of FIG. 1, the user U1 desires to search for the last train on a route with Tokyo Station as the departure station and Ikebukuro Station as the arrival station. ``The last train from Tokyo to Ikebukuro'' is uttered.
続いて、端末装置100は、利用者U1からの発話を音声認識し、音声認識の結果に基づき、文字列#11及び#12の表示態様を更新する(ステップS4)。例えば、端末装置100は、音声認識の結果である文字列「東京から池袋までの終電」を領域AR12に表示する。そして、文字列#11のうち、音声認識の結果と一致する文字列の文字色を変更して強調表示し、文字列#11及び#12に含まれる各領域に音声認識の結果が示す文字列を表示する。具体的な例を挙げると、端末装置100は、文字列#11のうち、利用者U1が発話した「から」及び「までの」に対応する文字列の文字色を変更する。また、端末装置100は、「から」の前に利用者U1が発話した「東京」を領域AR131に表示し、「から」及び「までの」の間に発話した「池袋」を領域AR132に表示する。また、端末装置100は、領域AR133に表示する「始発」及び「終電」のうち、利用者U1の発話に対応する「終電」の文字色を変更する。そして、端末装置100は、文字列#11に含まれる文字列及び各領域に対する更新処理が完了した(言い換えると、文字列#11に基づく検索処理を行うための必須項目である情報が正常に音声入力された)ことを示すチェックマークを領域AR13に表示する。
Subsequently, the
また、端末装置100は、文字列#12についても同様に、音声認識の結果に基づく表示態様の更新を行う。具体的な例を挙げると、端末装置100は、文字列#12のうち、利用者U1が発話した「から」及び「までの」に対応する文字列の文字色を変更する。また、端末装置100は、「から」の前に利用者U1が発話した「東京」を領域AR141に表示し、「から」及び「までの」の間に発話した「池袋」を領域AR142に表示する。なお、図1の例では、利用者U1が「までの」の後の発話は「終電」であり、「終電」で発話が終了したため、端末装置100は、文字列#12のうち文字列「までの」の後に所在する領域AR143に「終電」を表示し、以降の文字列の表示態様を更新する処理を行わない。すなわち、文字列#11に含まれる文字列及び各領域に対する更新処理は未完了となる。
Similarly, the
続いて、端末装置100は、利用者U1からの操作に応じて、更新後の文字列を検索クエリとしてサービスサーバ10に送信する(ステップS5)。例えば、端末装置100は、更新後の文字列#11及び#12のうち、画面C13において利用者が選択した更新後の文字列#11を検索クエリとして送信する。
Subsequently, the
なお、端末装置100は、更新後の文字列#11及び#12のうち、更新処理が完了した文字列#11のみを選択可能としてもよく、更新処理が完了した文字列#11を検索クエリとして自動的にサービスサーバ10に送信してもよい。
Note that the
続いて、端末装置100は、サービスサーバ10から検索結果を受信する(ステップS6)。例えば、端末装置100は、更新後の文字列#11に含まれる「東京」及び「池袋」からそれぞれ特定された「東京駅」から「池袋駅」までの経路における終電の乗換案内を受信する。
Subsequently, the
続いて、端末装置100は、受信した検索結果を表示する(ステップS7)。例えば、東京駅から池袋駅までの乗換案内に関する情報(例えば、利用する路線や、経由する駅、運賃など)と、新たな検索クエリの音声入力を指示するためのボタンB13とを含む画面C14を表示する。具体的な例を挙げると、端末装置100は、乗換案内に関する情報の絞り込みを行うための検索クエリの音声入力を指示するためのボタンB13を表示する。
Subsequently, the
ここで、図2を用いて、ボタンB13が押下された場合に端末装置100が表示する画面の例を説明する。図2は、実施形態に係る端末装置の画面の一例を示す図である。
Here, an example of a screen displayed by the
図2に示すように、端末装置100は、音声入力アプリを起動し、路線検索サービスにおいて利用可能な絞り込み機能に対応する検索クエリの候補を示す文字列を画面C21に示すように表示する。例えば、端末装置100は、図1のステップS5において路線検索サービスに送信した検索クエリを表示する領域AR21と、入力される音声の認識結果を表示する領域AR22と、検索結果の絞り込みを行うための検索クエリの候補として予め設定された文字列を表示する領域AR23-AR25と、音声入力の開始を指示するためのボタンB21とを含む画面C21を表示する。
As shown in FIG. 2, the
具体的な例を挙げると、端末装置100は、東京駅から池袋駅まで経路の運賃を、ICカードを利用する場合の運賃で表示する(ICカード優先)か、現金(切符)を利用する場合の運賃で表示する(現金優先)かを指定するための文字列(以下、「文字列#21」と記載する場合がある)を領域AR23に表示する。より具体的な例を挙げると、端末装置100は、「ICカード優先」及び「現金優先」を択一的に表示する領域AR231を含む文字列#21を表示する。
As a specific example, the
また、端末装置100は、東京駅から池袋駅までの経路のうち、利用者U1が所有する定期券により利用可能な経路分の運賃を除いた運賃の表示を指示するための文字列(以下、「文字列#22」と記載する場合がある)を領域AR24に表示する。
The
また、端末装置100は、東京駅から池袋駅までの経路において乗換を行う際、駅構内等を利用者U1が移動する速度を想定した場合の乗換案内の表示を指示するための文字列(以下、「文字列#23」と記載する場合がある)を領域AR25に表示する。より具体的な例を挙げると、端末装置100は、利用者U1が急いで移動する場合(「急いで」)、利用者U1が少し急いで移動する場合(「少し急いで」)、利用者U1がゆっくり移動する場合(「ゆっくり」)、並びに、利用者U1が少しゆっくり移動する場合(「少しゆっくり」)を択一的に表示する領域AR251を含む文字列#23を表示する。
In addition, the
ここで、図2の例において、利用者U1が現金優先で運賃を表示することを希望し、ボタンB21を押下して文字列#21に従って「現金優先で調べる」と端末装置100が含むマイクに対して発話したものとする。この場合、端末装置100は、利用者U1からの発話を音声認識し、音声認識の結果に基づき文字列#21-#23の表示態様を更新した画面C22を表示する。例えば、端末装置100は、音声認識の結果である文字列「現金優先で調べる」を領域AR22に表示する。また、端末装置100は、文字列#21に含まれる領域AR231に表示する「ICカード優先」及び「現金優先」のうち、利用者U1の発話に対応する「現金優先」の文字色を変更する。また、端末装置100は、文字列#21に含まれる文字列のうち、「現金優先」の後に利用者U1が発話した「で調べる」に対応する文字列の文字色を変更する。そして、端末装置100は、文字列#21に含まれる文字列及び各領域に対する更新処理が完了したことを示すチェックマークを領域AR23に表示する。
Here, in the example of FIG. 2, the user U1 wishes to display the fare with cash priority, presses the button B21, follows the character string #21, and says "check with cash priority" to the microphone included in the
また、端末装置100は、文字列#22及び#23についても同様に、音声認識の結果に基づく表示態様の更新を行う。例えば、端末装置100は、文字列#22に含まれる文字列のうち、利用者U1が発話した「で調べる」に対応する文字列の文字色を変更する。そして、端末装置100は、利用者U1が「で調べる」の前に発話した「現金優先」に対応する文字列を文字列#22に挿入する。なお、端末装置100は、文字列#22に含まれる文字列「定期区間を考慮して」が利用者U1の発話に含まれないため、当該文字列の表示態様を更新する処理を行わない。
Similarly, the
また、例えば、端末装置100は、文字列#22に含まれる文字列のうち、利用者U1が発話した「現金優先で調べる」に対応する文字列を文字列#23に挿入する。なお、端末装置100は、文字列#22に含まれる領域AR251に表示する各文字列、並びに、文字列#22に含まれる文字列「乗り換える」が、利用者U1の発話に含まれないため、これらの文字列の表示態様を更新する処理を行わない。
In addition, for example, the
上記の更新処理が完了した後、端末装置100は、更新後の文字列#21-#23のうち、画面C22において利用者が選択した更新後の文字列#21を検索クエリとしてサービスサーバ10に送信する。そして、端末装置100は、東京駅から池袋駅までの乗換案内に関する情報であって、現金優先の運賃を含む情報を画面に表示する。言い換えると、端末装置100は、図1の画面C14に表示した情報に対応する情報であって、新後の文字列#21に基づき情報の絞り込みが行われた情報を画面に表示する。
After the above update process is completed, the
なお、端末装置100は、領域AR21に表示する情報の変更を受け付けてもよい。例えば、領域AR211が押下された場合、端末装置100は、文字列「東京」を削除し、新たな出発駅の音声入力を受け付ける。また、領域AR211が押下された場合、端末装置100は、文字列「池袋」を削除し、新たな到着駅の音声入力を受け付ける。
It should be noted that the
以上のように、実施形態に係る端末装置100は、利用者が利用するサービスにおいて利用可能な機能に対応する検索クエリの候補となる文字列を表示し、当該文字列に従い利用者が検索クエリの音声入力を行うことを可能とする。これにより、実施形態に係る端末装置100は、利用者が音声UIを使ってサービスの機能を呼び出す操作をする際、「どのような発話を行えばどのような操作を行うことができるか」、「どのような機能を音声で操作できるのか」、などといった情報を利用者が事前に把握していなくとも、どのような機能を音声入力で利用可能かを認識させることができる。すなわち、実施形態に係る端末装置100は、利用者が利用するサービスにおいて適切な検索クエリを提案できる。
As described above, the
〔2.端末装置の構成〕
次に、上述した更新処理を実現するための端末装置100について図3を用いて説明する。図3は、実施形態に係る端末装置の構成例を示す図である。図3に示すように、端末装置100は、通信部110と、入力部120と、出力部130と、制御部140とを有する。
[2. Configuration of terminal device]
Next, the
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、サービスサーバ10や、音声入力された情報の内容を解釈する処理を実行する解釈サーバ200等との間で情報の送受信を行う。例えば、解釈サーバ200は、API(Application Programming Interface)を介して、音声入力された情報の内容を解釈する機能を提供する。
(Regarding communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is connected to the network N by wire or wirelessly, and transmits and receives information to and from the
(入力部120及び出力部130について)
入力部120は、ユーザから各種操作を受け付ける入力装置である。例えば、入力部120は、キーボードやマウスや操作キー等によって実現される。出力部130は、各種情報を表示するための表示装置である。つまり、出力部130は、端末装置100の表示画面に相当する。例えば、出力部130は、液晶ディスプレイ等によって実現される。なお、端末装置100にタッチパネルが採用される場合には、入力部120と出力部130とは一体化される。
(Regarding the input unit 120 and the output unit 130)
The input unit 120 is an input device that receives various operations from the user. For example, the input unit 120 is implemented by a keyboard, mouse, operation keys, and the like. The output unit 130 is a display device for displaying various information. In other words, the output unit 130 corresponds to the display screen of the
(制御部140について)
制御部140は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、端末装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。なお、制御部140は、上述した表示処理を実現する制御情報又はアプリケーションをアプリケーション配信サーバ等から配信された場合、かかる制御情報又はアプリケーションに従って動作し、表示処理を実現する。
(Regarding the control unit 140)
The control unit 140 is a controller, and various programs stored in a storage device inside the
また、制御部140は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。実施形態に係る制御部140は、図3に示すように、音声入力アプリケーション141や、第1アプリケーション142、第2アプリケーション143等を有する。音声入力アプリケーション141は、上述した更新処理の機能や作用を実現または実行し、利用者の音声入力に対する音声認識の結果となる情報をサービスサーバ10に送信する。また、音声入力アプリケーション141は、音声認識の結果となる情報を第1アプリケーション142や、第2アプリケーション143等の他のアプリケーションに出力する。以下、図4を用いて、音声入力アプリケーション141が有する機能構成の一例ついて説明する。図4は、実施形態に係る音声入力アプリケーションの構成例を示す図である。実施形態に係る音声入力アプリケーション141は、図3に示すように、表示部1411と、受付部1412と、更新部1413と、提示部1414と、送信部1415とを有し、以下に説明する情報処理の機能や作用を実現または実行する。
Also, the control unit 140 is a controller, and is implemented by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 140 according to the embodiment has a
(表示部1411について)
表示部1411は、音声を介して入力される検索クエリの候補であって、利用者が利用するサービスに対応する検索クエリの候補を示す文字列を表示する。例えば、図1及び図2の例において、表示部1411は、サービスサーバ10が提供する路線検索サービスにおいて入力可能な検索クエリの候補を示す文字列であって、当該路線検索サービスにおける検索クエリの候補として予め設定された文字列を画面C12や画面C21などにおいて表示する。
(Regarding the display unit 1411)
The display unit 1411 displays a character string indicating a search query candidate input via voice and corresponding to a service used by the user. For example, in the examples of FIGS. 1 and 2, the display unit 1411 is a character string indicating search query candidates that can be input in the route search service provided by the
また、表示部1411は、サービスが提供する検索機能に対応する文字列を表示してもよい。例えば、図1及び図2の例において、表示部1411は、路線検索サービスが提供する検索サービスにおける路線検索機能や、路線検索サービスにおいて利用可能な絞り込み機能に対応する検索クエリの候補を示す文字列を画面C12や画面C21などにおいて表示する。 Also, the display unit 1411 may display a character string corresponding to a search function provided by the service. For example, in the examples of FIGS. 1 and 2, the display unit 1411 displays a character string indicating a search query candidate corresponding to a route search function in a search service provided by a route search service or a refinement function that can be used in a route search service. is displayed on the screen C12, the screen C21, or the like.
また、表示部1411は、サービスが提供する検索機能を用いて検索可能な対象を示す文字列を表示してもよい。例えば、図1の例において、表示部1411は、路線検索サービスが提供する検索機能を用いて検索可能な経路に関する文字列を画面C12や画面C21などにおいて表示する。 Also, the display unit 1411 may display a character string indicating a searchable target using a search function provided by the service. For example, in the example of FIG. 1, the display unit 1411 displays character strings related to routes that can be searched using the search function provided by the route search service on the screen C12, the screen C21, or the like.
また、表示部1411は、利用者の音声を介して入力される文字列が表示される表示領域を含む文字列を表示してもよい。例えば、図1の例において、表示部1411は、利用者U1によって音声入力される出発駅及び到着駅をそれぞれ表示する領域AR131及びAR132を含む文字列#11を表示する。また、表示部1411は、利用者U1によって音声入力される出発駅及び到着駅をそれぞれ表示する領域AR141及びAR142、利用者U1によって音声入力される時刻を表示する領域AR143及びAR144を含む文字列#12を表示する。 Moreover, the display unit 1411 may display a character string including a display area in which a character string input via the user's voice is displayed. For example, in the example of FIG. 1, the display unit 1411 displays a character string #11 including areas AR131 and AR132 respectively displaying a departure station and an arrival station voice-inputted by the user U1. In addition, the display unit 1411 displays a character string #, which includes areas AR141 and AR142 for displaying the departure station and the arrival station input by voice by the user U1, and areas AR143 and AR144 for displaying the time input by the user U1 by voice. Display 12.
また、表示部1411は、音声を介して入力可能な情報の種別を表示領域に表示してもよい。例えば、図1の例において、表示部1411は、領域AR131、AR132、領域AR141及びAR142にそれぞれ、音声を介して入力可能な情報の種別「駅」を表示する。また、表示部1411は、領域AR143及びAR144にそれぞれ、音声を介して入力可能な情報の種別「数」を表示する。 In addition, the display unit 1411 may display the types of information that can be input via voice in the display area. For example, in the example of FIG. 1, the display unit 1411 displays the information type "station" that can be input via voice in areas AR131, AR132, and areas AR141 and AR142. In addition, the display unit 1411 displays the type “number” of information that can be input via voice in the areas AR143 and AR144.
なお、後述する更新部1413は、表示領域に表示される文字列として、当該表示領域に表示される種別に対応しない文字列が音声入力された場合は、当該文字列を当該表示領域に表示しなくともよい。 Note that when a character string that does not correspond to the type displayed in the display area is voice-inputted as a character string to be displayed in the display area, the updating unit 1413 described later displays the character string in the display area. No need.
また、表示部1411は、所定の関連性を有する複数の文字列を表示する領域を含む文字列を表示してもよい。例えば、図1の例において、表示部1411は、「出発」及び「到着」を択一的に表示する領域AR145を含む文字列#12を表示する。また、図1の例において、表示部1411は、「出発」及び「到着」を択一的に表示する領域AR145を含む文字列#12を表示する。また、図2の例において、表示部1411は、「ICカード優先」及び「現金優先」を択一的に表示する領域AR231を含む文字列#21を表示する。また、図2の例において、表示部1411は、「急いで」、「少し急いで」、「ゆっくり」及び「少しゆっくり」を択一的に表示する領域AR251を含む文字列#23を表示する。 Moreover, the display unit 1411 may display a character string including an area for displaying a plurality of character strings having a predetermined relationship. For example, in the example of FIG. 1, the display unit 1411 displays a character string #12 including an area AR145 that alternatively displays "departure" and "arrival". Further, in the example of FIG. 1, the display unit 1411 displays a character string #12 including an area AR145 that alternatively displays "departure" and "arrival". In the example of FIG. 2, the display unit 1411 displays a character string #21 including an area AR231 that alternatively displays "IC card priority" and "cash priority". In addition, in the example of FIG. 2, the display unit 1411 displays a character string #23 including an area AR251 that alternatively displays "quickly", "quickly", "slowly", and "slightly slowly". .
(受付部1412について)
受付部1412は、音声を介した情報の入力を利用者から受け付ける。例えば、図1の例において、受付部1412は、端末装置100が含むマイクに対して行った発話を受け付ける。
(Regarding reception unit 1412)
The reception unit 1412 receives input of information from the user via voice. For example, in the example of FIG. 1, the accepting unit 1412 accepts an utterance made into the microphone included in the
(更新部1413について)
更新部1413は、受付部1412により受け付けられた情報の音声認識の結果に基づいて、文字列の表示態様を更新して表示する。例えば、図1の例において、更新部1413は、利用者U1からの発話の音声認識の結果である文字列「東京から池袋までの終電」に基づき、文字列#11及び#12の表示態様を更新する。また、図2の例において、更新部1413は、利用者U1からの発話の音声認識の結果である文字列「現金優先で調べる」に基づき、文字列#21-#23の表示態様を更新する。
(Regarding update unit 1413)
The updating unit 1413 updates and displays the display mode of the character string based on the speech recognition result of the information received by the receiving unit 1412 . For example, in the example of FIG. 1, the updating unit 1413 changes the display mode of the character strings #11 and #12 based on the character string "last train from Tokyo to Ikebukuro" which is the result of speech recognition of the utterance from user U1. Update. Also, in the example of FIG. 2, the updating unit 1413 updates the display mode of the character strings #21 to #23 based on the character string "check with cash priority" that is the result of voice recognition of the utterance from the user U1. .
また、更新部1413は、文字列のうち、音声認識の結果と対応する部分の表示態様を更新してもよい。例えば、図1及び図2の例において、更新部1413は、文字列#11、#12、文字列#21-#23のうち、音声認識の結果と対応する部分の表示態様を更新する。 Further, the updating unit 1413 may update the display mode of the portion of the character string corresponding to the speech recognition result. For example, in the examples of FIGS. 1 and 2, the updating unit 1413 updates the display mode of the portions of the character strings #11, #12, and character strings #21 to #23 that correspond to the results of speech recognition.
また、更新部1413は、文字列のうち、音声認識の結果と一致する文字列を強調表示してもよい。例えば、図1の例において、更新部1413は、文字列#11及び#12のうち、利用者U1からの発話の音声認識の結果と一致する文字列の文字色を変更する。また、図2の例において、更新部1413は、文字列#21-#23のうち、利用者U1からの発話の音声認識の結果と一致する文字列の文字色を変更する。 In addition, the updating unit 1413 may highlight a character string that matches the speech recognition result among the character strings. For example, in the example of FIG. 1, the updating unit 1413 changes the character color of character strings #11 and #12 that match the speech recognition result of the utterance from user U1. Also, in the example of FIG. 2, the updating unit 1413 changes the character color of the character strings that match the voice recognition result of the utterance from the user U1 among the character strings #21 to #23.
また、更新部1413は、音声認識の結果が示す文字列を表示領域に表示してもよい。例えば、図1の例において、更新部1413は、「から」の前に利用者U1が発話した「東京」を領域AR131に表示し、「から」及び「までの」の間に発話した「池袋」を領域AR132に表示する。 Further, the update unit 1413 may display the character string indicated by the speech recognition result in the display area. For example, in the example of FIG. 1, the updating unit 1413 displays "Tokyo" uttered by the user U1 before "kara" in the area AR131, and displays "Ikebukuro ” is displayed in the area AR132.
また、更新部1413は、複数の文字列のうち、音声認識の結果に対応する一の文字列を領域に表示してもよい。例えば、図1の例において、更新部1413は、文字列#11に含まれる領域AR133に表示する「始発」及び「終電」のうち、利用者U1の発話に対応する「終電」の文字色を変更する。また、図2の例において、更新部1413は、文字列#21に含まれる領域AR231に表示する「ICカード優先」及び「現金優先」のうち、利用者U1の発話に対応する「現金優先」の文字色を変更する。 Further, the updating unit 1413 may display one character string corresponding to the speech recognition result among the plurality of character strings in the area. For example, in the example of FIG. 1, the updating unit 1413 changes the character color of "last train" corresponding to the utterance of user U1 out of "first train" and "last train" displayed in area AR133 included in character string #11. change. In the example of FIG. 2, the updating unit 1413 selects "cash priority" corresponding to the utterance of user U1, out of "IC card priority" and "cash priority" displayed in the area AR231 included in the character string #21. change the text color of
ここで、利用者からの発話の音声認識の結果が、表示部1411が表示した文字列と一致していなくとも、音声認識の結果を解釈した内容が当該文字列と対応する場合には、当該文字列の表示態様を更新したいといった要望が考えられる。したがって、更新部1413は、外部装置による解釈の結果に基づいて、文字列の表示態様を更新して表示してもよい。例えば、更新部1413は、利用者が音声入力した情報を解釈した内容であって、利用者が音声入力した情報を解釈サーバ200が解釈した内容に基づき、表示部1411が表示する文字列の表示態様を更新する。具体的な例を挙げると、更新部1413は、解釈サーバ200が解釈した内容と、表示部1411が表示する文字列が示す内容とが対応する場合は、当該文字列の表示態様を変更する。
Here, even if the result of voice recognition of the user's utterance does not match the character string displayed by the display unit 1411, if the contents of the interpreted result of voice recognition correspond to the character string, There may be a desire to update the display mode of the character string. Therefore, the update unit 1413 may update and display the display mode of the character string based on the result of interpretation by the external device. For example, the update unit 1413 displays the character string displayed by the display unit 1411 based on the interpretation of the information input by the user by voice, which is interpreted by the
(提示部1414について)
ここで、例えば、利用者からの発話が正しく認識されず、表示部1411が表示した文字列の一部が更新されてない場合や、表示部1411が表示した文字列の一部(必須項目等)を利用者が発話していない場合、再度の音声入力を促したいといった要望が考えられる。したがって、提示部1414は、更新部1413により更新された文字列が所定の条件を満たす場合は、音声を介した新たな情報の入力を受け付けるためのコンテンツを利用者に提示する。例えば、提示部1414は、利用者が利用するサービスに対応する文字列であって、表示部1411が表示する文字列のうち、当該サービスにおいて設定された必須項目に対応する部分が更新部1413により更新されていない場合は、必要な情報が音声入力されていない旨を示すコンテンツであって、音声を介した新たな情報の入力を受け付けるためのコンテンツを利用者に提示する。具体的な例を挙げると、提示部1414は、必須項目に対応する部分の音声入力を受け付けるためのコンテンツを提示する。そして、更新部1413は、提示部1414が提示したコンテンツを介して音声入力された情報に基づき、必須項目に対応する部分の表示態様を更新する。
(About presentation unit 1414)
Here, for example, if the speech from the user is not correctly recognized and part of the character string displayed by the display unit 1411 is not updated, or if part of the character string displayed by the display unit 1411 (e.g., essential items) ) is not uttered by the user, it is conceivable that the user wants to prompt for voice input again. Therefore, when the character string updated by the update unit 1413 satisfies a predetermined condition, the presentation unit 1414 presents the user with content for receiving input of new information via voice. For example, the presentation unit 1414 causes the update unit 1413 to update the character string corresponding to the service used by the user, which is the character string displayed by the display unit 1411 and corresponds to the essential items set for the service. If it is not updated, the user is presented with content indicating that necessary information has not been input by voice, and content for accepting input of new information via voice. As a specific example, the presentation unit 1414 presents content for accepting voice input of portions corresponding to essential items. Then, the updating unit 1413 updates the display mode of the portion corresponding to the essential item based on the information input by voice via the content presented by the presentation unit 1414 .
また、提示部1414は、文字列のうち表示態様が更新されていない部分が存在する場合は、当該部分に対応する情報を入力するためのコンテンツを提示してもよい。例えば、提示部1414は、表示部1411が表示する文字列のすべてが更新部1413により更新されていない場合は、文字列の更新されていない部分の音声入力を受け付けるためのコンテンツを提示する。 In addition, when there is a part of the character string whose display mode has not been updated, the presentation unit 1414 may present content for inputting information corresponding to the part. For example, when all of the character strings displayed by the display unit 1411 have not been updated by the update unit 1413, the presentation unit 1414 presents content for accepting voice input of the portion of the character string that has not been updated.
また、提示部1414は、文字列に含まれる領域であって、利用者の音声を介して入力される文字列が表示される領域に文字列が表示されていない場合は、当該領域に対応する情報を入力するためのコンテンツを提示してもよい。例えば、図1を例にして説明すると、提示部1414は、文字列#11に含まれる領域AR131及びAR132のいずれかに文字列が表示されていない場合は、領域AR131またはAR132に対応する情報を入力するためのコンテンツを提示する。また、図1を例にして説明すると、提示部1414は、文字列#11に含まれる領域AR133において「始発」及び「終電」のいずれも表示態様が更新されていない場合は、「始発」及び「終電」のいずれかを選択するためのコンテンツを提示する。 In addition, when the character string is not displayed in the area included in the character string and in which the character string input via the user's voice is displayed, the presentation unit 1414 displays the character string corresponding to the area. Content for entering information may be presented. For example, using FIG. 1 as an example, if the character string is not displayed in either of the areas AR131 and AR132 included in the character string #11, the presentation unit 1414 displays the information corresponding to the area AR131 or AR132. Present content for input. Further, using FIG. 1 as an example, the presentation unit 1414 displays “first train” and A content for selecting one of "last trains" is presented.
また、提示部1414は、文字列に含まれる領域であって、利用者の音声を介して入力される文字列が表示される領域に表示する文字列の候補であって、音声認識の結果に基づく文字列の候補が複数存在する場合は、当該文字列の候補のいずれかを選択するためのコンテンツを提示してもよい。例えば、提示部1414は、利用者から音声入力された情報の漢字への変換候補が複数存在する場合は、いずれかの変換候補を選択するためのコンテンツを提示する。また、提示部1414は、利用者から音声入力された情報に対応する地名が複数存在する場合は、いずれかの地名を選択するためのコンテンツを提示する。具体的な例を挙げると、提示部1414は、利用者が「なかの」と音声入力した場合は、東京都に所在する「中野」、群馬県に所在する「中野」、並びに、長野県に所在する「中野」のいずれかを選択するためのコンテンツを提示する。 In addition, the presentation unit 1414 provides character string candidates to be displayed in an area that is included in the character string and in which the character string input via the user's voice is displayed. If there are multiple candidates for the character string based on, content may be presented for selecting one of the candidates for the character string. For example, when there are a plurality of conversion candidates for converting the information input by voice from the user into kanji, the presentation unit 1414 presents content for selecting one of the conversion candidates. If there are a plurality of place names corresponding to the information input by voice from the user, the presentation unit 1414 presents content for selecting one of the place names. As a specific example, when the user voice-inputs “Nakano”, the presentation unit 1414 selects “Nakano” located in Tokyo, “Nakano” located in Gunma Prefecture, and “Nakano” located in Nagano Prefecture. Contents for selecting one of the located "Nakano" are presented.
なお、表示部1411が、検索クエリの候補となる文字列を複数表示する場合、提示部1414は、いずれかの文字列が所定の条件を満たさない場合は、コンテンツを利用者に提示しなくともよい。例えば、図1を例にして説明すると、提示部1414は、文字列#11及び#12のうち、文字列#11に含まれる文字列及び各領域に対する更新処理が完了しているため、文字列#12に関する情報の音声入力を行うためのコンテンツを表示しなくともよい。言い換えると、表示部1411が表示する文字列のいずれかが検索クエリとして送信可能である場合、提示部1414は、コンテンツを提示しなくともよい。 Note that when the display unit 1411 displays a plurality of character strings that are search query candidates, the presentation unit 1414 does not present the content to the user if any character string does not satisfy a predetermined condition. good. For example, using FIG. 1 as an example, the presentation unit 1414 updates the character string and each area included in the character string #11 among the character strings #11 and #12. It is not necessary to display the content for voice input of information about #12. In other words, if any of the character strings displayed by the display unit 1411 can be transmitted as a search query, the presentation unit 1414 does not have to present the content.
また、提示部1414は、音声を介した新たな情報の入力を受け付けるためのコンテンツに限らず、端末装置100のタッチパネルや、キーボード、マウス、操作キーなどといった、音声以外により入力される情報を受け付けるためのコンテンツを提示してもよい。
In addition, the presentation unit 1414 is not limited to content for accepting input of new information via voice, and accepts information input by means other than voice, such as the touch panel, keyboard, mouse, and operation keys of the
(送信部1415について)
送信部1415は、更新部1413により更新された文字列の送信要求を利用者から受け付けた場合は、更新された文字列を検索クエリとして、サービスに対応する検索処理を実行する外部装置に送信する。例えば、図1の例において、送信部1415は、画面C13において利用者が選択した更新後の文字列#11を検索クエリとしてサービスサーバ10に送信する。
(Regarding the transmission unit 1415)
When a transmission request for a character string updated by the updating unit 1413 is received from the user, the transmitting unit 1415 transmits the updated character string as a search query to an external device that executes search processing corresponding to the service. . For example, in the example of FIG. 1, the transmission unit 1415 transmits the updated character string #11 selected by the user on the screen C13 to the
なお、送信部1415は、更新された文字列を検索クエリとして、利用者が利用中のサービスとは異なるサービスに対応する検索処理を実行する外部装置に送信してもよい。例えば、図1を例にして説明すると、送信部1415は、利用者からの操作に応じて、更新後の文字列#11を検索クエリとして、路線検索サービスとは異なるサービスを提供するサービスサーバ10に送信する。そして、端末装置100は、サービスサーバ10から検索結果を受信し、画面に表示する。
Note that the transmission unit 1415 may transmit the updated character string as a search query to an external device that executes search processing corresponding to a service different from the service currently being used by the user. For example, using FIG. 1 as an example, the transmission unit 1415 uses the updated character string #11 as a search query in response to an operation from the user, and the
また、送信部1415は、受付部1412により受け付けられた情報を、音声の内容を解釈する処理を実行する外部装置に送信してもよい。例えば、送信部1415は、音声入力された情報を解釈サーバ200に送信する。そして、更新部1413は、解釈サーバ200が解釈した内容に基づき更新処理を実行する。
Further, the transmitting unit 1415 may transmit the information received by the receiving unit 1412 to an external device that executes processing for interpreting the contents of the voice. For example, the transmission unit 1415 transmits information input by voice to the
〔3.更新処理のフロー〕
ここで、図5を用いて、実施形態に係る音声入力アプリの更新処理の手順について説明する。図5は、実施形態に係る更新処理手順の一例を示すフローチャートである。
[3. Update process flow]
Here, the procedure of update processing of the voice input application according to the embodiment will be described with reference to FIG. 5 . FIG. 5 is a flowchart illustrating an example of an update processing procedure according to the embodiment;
図5に示すように、端末装置100は、利用者が利用するサービスに対応する検索クエリの候補を示す文字列を表示する(ステップS101)。続いて、端末装置100は、音声を介した情報の入力を受け付ける(ステップS102)。続いて、端末装置100は、音声認識の結果に基づいて、文字列の表示態様を更新して表示する(ステップS103)。続いて、端末装置100は、更新後の文字列が所定の条件を満たすか否かを判定する(ステップS104)。所定の条件を満たす場合(ステップS104;Yes)、端末装置100は、音声を介した新たな情報の入力を受け付けるためのコンテンツを提示し(ステップS105)、ステップS102に戻り処理を繰り返す。
As shown in FIG. 5, the
一方、所定の条件を満たさない場合(ステップS104;No)、端末装置100は、文字列の送信要求を利用者から受け付けたか否かを判定する(ステップS106)。送信要求を受け付けていない場合(ステップS106;No)、端末装置100は、送信要求を受け付けるまで待機する。一方、送信要求を受け付けた場合(ステップS106;Yes)、端末装置100は、更新された文字列を検索クエリとして、検索処理を実行する外部装置に送信し(ステップS107)、処理を終了する。
On the other hand, if the predetermined condition is not satisfied (step S104; No), the
〔4.変形例〕
上述の実施形態は一例を示したものであり、種々の変更及び応用が可能である。
[4. Modification]
The above-described embodiment is an example, and various modifications and applications are possible.
〔4-1.サービスサーバ10が提供するサービスについて〕
上述の実施形態において、サービスサーバ10が路線検索サービスを提供する例を示したが、サービスサーバ10が提供するサービスはこのような例に限定されず、任意のサービスを提供してもよい。そして、表示部1411は、サービスサーバ10が提供するサービスに応じた文字列を表示してもよい。例えば、サービスサーバ10がショッピングサービスを提供する場合、表示部1411は、当該ショッピングサービスにおいて利用可能な検索機能に対応する文字列を、検索クエリの候補として表示してもよい。具体的な例を挙げると、表示部1411は、ショッピングサービスにおいて販売される商品の種別や、製造元、商品の価格帯などを示す文字列を表示する。
[4-1. Services Provided by Service Server 10]
In the above-described embodiment, an example in which the
〔4-2.更新部1413による更新処理ついて〕
上述の実施形態において、更新部1413が、表示部1411が表示した文字列のうち、利用者からの発話の音声認識の結果と一致する文字列の文字色を変更することにより更新処理を行う例を示したが、更新部1413の機能はこのような例に限定されない。例えば、更新部1413は、発話した内容が音声認識されたか否かを利用者が判別可能であれば任意の態様で文字列の更新処理を実行してもよい。
[4-2. Update processing by update unit 1413]
In the above-described embodiment, an example in which the update unit 1413 performs update processing by changing the character color of a character string that matches the voice recognition result of the user's utterance among the character strings displayed by the display unit 1411. , the function of the updating unit 1413 is not limited to such an example. For example, the update unit 1413 may perform the character string update process in any manner as long as the user can determine whether or not the uttered content has been recognized by voice.
〔4-3.表示部1411が表示する文字列について〕
上述の実施形態において、表示部1411が、利用者が利用するサービスが提供する検索機能に対応する文字列を表示する例を示したが、表示部1411の機能はこのような例に限定されない。例えば、表示部1411は、利用者が音声入力アプリを起動し、発話した内容に基づいて、文字列を表示してもよい。例えば、利用者が音声入力アプリを起動し、何らかの情報を音声入力した場合、送信部1415は、当該情報を解釈サーバ200に送信する。そして、表示部1411は、解釈サーバ200による解釈の結果に対応するサービスにおける検索クエリの候補を示す文字列を表示する。具体的な例を挙げると、利用者が「お腹が空いた」と発話した場合、表示部1411は、ショッピングサービスにおいて食料品を検索するための検索クエリの候補を示す文字列や、飲食店検索サービスにおいて利用者の現在位置に対応する店舗を検索するための検索クエリの候補を示す文字列などを表示する。
[4-3. Character String Displayed by Display Unit 1411]
In the above-described embodiment, the display unit 1411 displays a character string corresponding to the search function provided by the service used by the user, but the function of the display unit 1411 is not limited to such an example. For example, the display unit 1411 may display a character string based on what the user has uttered by activating a voice input application. For example, when the user activates a voice input application and inputs some information by voice, the transmission unit 1415 transmits the information to the
〔4-4.処理態様について〕
上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、逆に、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[4-4. About processing mode]
Of the processes described in the above embodiments, all or part of the processes described as being automatically performed can be manually performed, and conversely, all of the processes described as being manually performed can be performed manually. Alternatively, some can be done automatically by known methods. In addition, information including processing procedures, specific names, and various data and parameters shown in the above text and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Moreover, each of the embodiments described above can be appropriately combined within a range that does not contradict the processing contents.
〔5.効果〕
上述してきたように、実施形態に係る端末装置100が有する音声入力アプリケーション151は、表示部1411と、受付部1412と、更新部1413と、提示部1414と、送信部1415とを有する。表示部1411は、音声を介して入力される検索クエリの候補であって、利用者が利用するサービスに対応する検索クエリの候補を示す文字列を表示する。受付部1412は、音声を介した情報の入力を利用者から受け付ける。更新部1413は、受付部1412により受け付けられた情報の音声認識の結果に基づいて、文字列の表示態様を更新して表示する。更新部1413は、受付部1412により受け付けられた情報の音声認識の結果に基づいて、文字列の表示態様を更新して表示する。提示部1414は、更新部1413により更新された文字列が所定の条件を満たす場合は、音声を介した新たな情報の入力を受け付けるためのコンテンツを利用者に提示する。送信部1415は、更新部1413により更新された文字列の送信要求を利用者から受け付けた場合は、更新された文字列を検索クエリとして、サービスに対応する検索処理を実行する外部装置に送信する。
[5. effect〕
As described above, the voice input application 151 included in the
これにより、実施形態に係る端末装置100は、利用者が利用するサービスにおいてどのような機能を音声入力で利用可能かを認識させることができるため、利用者が利用するサービスにおいて適切な検索クエリを提案できる。
As a result, the
また、実施形態に係る端末装置100において、例えば、表示部1411は、サービスが提供する検索機能に対応する文字列を表示する。また、表示部1411は、サービスが提供する検索機能を用いて検索可能な対象を示す文字列を表示する。
Also, in the
これにより、実施形態に係る端末装置100は、利用者が利用するサービスにおいてどのような検索機能が利用可能かを認識させることができるため、利用者が利用するサービスにおいて適切な検索クエリを提案できる。
As a result, the
また、実施形態に係る端末装置100において、例えば、更新部1413は、文字列のうち、音声認識の結果と対応する部分の表示態様を更新する。また、更新部1413は、文字列のうち、音声認識の結果と一致する文字列を強調表示する。
In addition, in the
これにより、実施形態に係る端末装置100は、利用者が発話した内容が正しく音声認識されたか否かを把握することが可能となるため、音声入力における利便性を向上できる。
As a result, the
また、実施形態に係る端末装置100において、例えば、表示部1411は、利用者の音声を介して入力される文字列が表示される表示領域を含む文字列を表示する。そして、更新部1413は、音声認識の結果が示す文字列を表示領域に表示する。また、表示部1411は、音声を介して入力可能な情報の種別を表示領域に表示する。
In addition, in the
これにより、実施形態に係る端末装置100は、利用者が音声入力すべき情報の種別を表示することで当該情報の音声入力を促し、任意に入力された情報に基づく検索結果を提供することができるため、音声入力における利便性を向上できる。
As a result, the
また、実施形態に係る端末装置100において、例えば、表示部1411は、所定の関連性を有する複数の文字列を表示する領域を含む文字列を表示する。そして、更新部1413は、複数の文字列のうち、音声認識の結果に対応する一の文字列を領域に表示する。
Also, in the
これにより、実施形態に係る端末装置100は、利用者が音声入力すべき情報を択一的に表示し、選択させることができるため、音声入力における負担を軽減させ、利便性を向上できる。
As a result, the
また、実施形態に係る端末装置100において、例えば、送信部1415は、受付部1412により受け付けられた情報を、音声の内容を解釈する処理を実行する外部装置に送信する。そして、更新部1413は、外部装置による解釈の結果に基づいて、文字列の表示態様を更新して表示する。
In addition, in the
これにより、実施形態に係る端末装置100は、利用者からの発話の音声認識の結果が、表示部1411が表示した文字列と一致していなくとも、音声認識の結果を解釈した内容が当該文字列と対応する場合には、当該文字列の表示態様を更新することができるため、音声入力における利便性を向上できる。
As a result, even if the result of speech recognition of the user's speech does not match the character string displayed by the display unit 1411, the
また、実施形態に係る端末装置100において、例えば、提示部1414は、文字列のうち表示態様が更新されていない部分が存在する場合は、当該部分に対応する情報を入力するためのコンテンツを提示する。また、提示部1414は、文字列に含まれる領域であって、利用者の音声を介して入力される文字列が表示される領域に文字列が表示されていない場合は、当該領域に対応する情報を入力するためのコンテンツを提示する。また、提示部1414は、文字列に含まれる領域であって、利用者の音声を介して入力される文字列が表示される領域に表示する文字列の候補であって、音声認識の結果に基づく文字列の候補が複数存在する場合は、当該文字列の候補のいずれかを選択するためのコンテンツを提示する。
In addition, in the
これにより、実施形態に係る端末装置100は、利用者からの発話が正しく認識されず、表示部1411が表示した文字列の一部が更新されてない場合や、表示部1411が表示した文字列の一部(必須項目等)を利用者が発話していない場合、再度の音声入力を促すことができるため、音声入力における利便性を向上できる。
As a result, the
〔6.ハードウェア構成〕
また、上述してきた各実施形態に係る端末装置は、例えば図6に示すような構成のコンピュータ1000によって実現される。以下、端末装置100を例に挙げて説明する。図6は、端末装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、ROM1200、RAM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[6. Hardware configuration]
Also, the terminal device according to each of the embodiments described above is implemented by a
CPU1100は、ROM1200又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1200は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The CPU 1100 operates based on programs stored in the ROM 1200 or
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を記憶する。通信インターフェイス1500は、通信網500(実施形態のネットワークNに対応する)を介して他の機器からデータを受信してCPU1100へ送り、また、通信網500を介してCPU1100が生成したデータを他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。
The CPU 1100 controls output devices such as displays and printers, and input devices such as keyboards and mice, through an input/
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1300を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1300上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
Media interface 1700 reads programs or data stored in
例えば、コンピュータ1000が端末装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1300上にロードされたプログラムを実行することにより、制御部140の機能を実現する。また、HDD1400には、端末装置100の記憶装置内の各データが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。
For example, when the
〔7.その他〕
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
[7. others〕
As described above, some of the embodiments of the present application have been described in detail based on the drawings. It is possible to carry out the invention in other forms with modifications.
また、上述した端末装置100は、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。
In addition, the configuration of the above-described
また、特許請求の範囲に記載した「部」は、「手段」や「回路」などに読み替えることができる。例えば、表示部は、表示手段や表示回路に読み替えることができる。 In addition, the "unit" described in the claims can be read as "means", "circuit", or the like. For example, the display section can be read as display means or a display circuit.
100 端末装置
110 通信部
120 入力部
130 出力部
140 制御部
1411 表示部
1412 受付部
1413 更新部
1414 提示部
1415 送信部
142 第1アプリケーション
143 第2アプリケーション
100 terminal device 110 communication unit 120 input unit 130 output unit 140 control unit 1411 display unit 1412 reception unit 1413 update unit 1414 presentation unit 1415 transmission unit 142
Claims (16)
音声を介した情報の入力を前記利用者から受け付ける受付手順と、
前記受付手順により受け付けられた情報の音声認識の結果に基づいて、前記文字列の表示態様を更新して表示する更新手順と
をコンピュータに実行させることを特徴とする更新プログラム。 a display procedure for displaying a character string indicating a search query candidate input via voice and corresponding to a service used by a user;
a reception procedure for receiving input of information via voice from the user;
and an update program for causing a computer to execute an update procedure for updating and displaying the display mode of the character string based on a result of voice recognition of information accepted by the acceptance procedure.
前記サービスが提供する検索機能に対応する前記文字列を表示する
ことを特徴とする請求項1に記載の更新プログラム。 The display procedure is
2. The update program according to claim 1, wherein said character string corresponding to a search function provided by said service is displayed.
前記サービスが提供する検索機能を用いて検索可能な対象を示す前記文字列を表示する
ことを特徴とする請求項1または2に記載の更新プログラム。 The display procedure is
3. The update program according to claim 1, wherein the character string indicating an object that can be searched using a search function provided by the service is displayed.
前記文字列のうち、前記音声認識の結果と対応する部分の表示態様を更新する
ことを特徴とする請求項1から3のいずれか一つに記載の更新プログラム。 The update procedure includes:
The update program according to any one of claims 1 to 3, updating a display mode of a part of the character string corresponding to the speech recognition result.
前記文字列のうち、前記音声認識の結果と一致する文字列を強調表示する
ことを特徴とする請求項4に記載の更新プログラム。 The update procedure includes:
5. The update program according to claim 4, wherein, among the character strings, a character string that matches the speech recognition result is highlighted.
前記利用者の音声を介して入力される文字列が表示される表示領域を含む前記文字列を表示し、
前記更新手順は、
前記音声認識の結果が示す文字列を前記表示領域に表示する
ことを特徴とする請求項1から5のいずれか一つに記載の更新プログラム。 The display procedure is
displaying the character string including a display area in which the character string input via the user's voice is displayed;
The update procedure includes:
The update program according to any one of claims 1 to 5, wherein the character string indicated by the speech recognition result is displayed in the display area.
音声を介して入力可能な情報の種別を前記表示領域に表示する
ことを特徴とする請求項6に記載の更新プログラム。 The display procedure is
7. The update program according to claim 6, wherein a type of information that can be input via voice is displayed in the display area.
所定の関連性を有する複数の文字列を表示する領域を含む前記文字列を表示し、
前記更新手順は、
前記複数の文字列のうち、前記音声認識の結果に対応する一の文字列を前記領域に表示する
ことを特徴とする請求項1から7のいずれか一つに記載の更新プログラム。 The display procedure is
displaying the character string including an area for displaying a plurality of character strings having a predetermined relationship;
The update procedure includes:
The update program according to any one of claims 1 to 7, wherein one character string corresponding to the result of the speech recognition is displayed in the area among the plurality of character strings.
をさらに実行させることを特徴とする請求項1から8のいずれか一つに記載の更新プログラム。 and further executing a presentation procedure of presenting to the user content for receiving input of new information via voice when the character string updated by the update procedure satisfies a predetermined condition. The update program according to any one of claims 1 to 8.
前記文字列のうち表示態様が更新されていない部分が存在する場合は、当該部分に対応する情報を入力するための前記コンテンツを提示する
ことを特徴とする請求項9に記載の更新プログラム。 The presentation procedure includes:
10. The update program according to claim 9, wherein if there is a portion of the character string whose display mode has not been updated, the content for inputting information corresponding to the portion is presented.
前記文字列に含まれる領域であって、前記利用者の音声を介して入力される文字列が表示される領域に文字列が表示されていない場合は、当該領域に対応する情報を入力するための前記コンテンツを提示する
ことを特徴とする請求項9または10に記載の更新プログラム。 The presentation procedure includes:
To input information corresponding to the area included in the character string, if the character string is not displayed in the area where the character string input through the user's voice is displayed 11. The update program according to claim 9 or 10, presenting the content of .
前記文字列に含まれる領域であって、前記利用者の音声を介して入力される文字列が表示される領域に表示する文字列の候補であって、前記音声認識の結果に基づく文字列の候補が複数存在する場合は、当該文字列の候補のいずれかを選択するための前記コンテンツを提示する
ことを特徴とする請求項9から11のいずれか一つに記載の更新プログラム。 The presentation procedure includes:
A character string candidate to be displayed in an area that is included in the character string and in which the character string input via the user's voice is displayed, the character string based on the result of the speech recognition. 12. The update program according to any one of claims 9 to 11, wherein when there are a plurality of candidates, the content for selecting one of the candidates for the character string is presented.
をさらに実行させ、
前記更新手順は、
前記外部装置による解釈の結果に基づいて、前記文字列の表示態様を更新して表示する
ことを特徴とする請求項1から12のいずれか一つに記載の更新プログラム。 further executing a first transmission procedure for transmitting the information accepted by the acceptance procedure to an external device that executes a process of interpreting the contents of the voice;
The update procedure includes:
The update program according to any one of claims 1 to 12, wherein the display mode of the character string is updated and displayed based on the result of interpretation by the external device.
をさらに実行させることを特徴とする請求項1から13のいずれか一つに記載の更新プログラム。 When a transmission request for the character string updated by the updating procedure is received from the user, the updated character string is transmitted as a search query to an external device that executes search processing corresponding to the service. 14. The update program according to any one of claims 1 to 13, further causing a 2 transmission procedure to be executed.
音声を介した情報の入力を前記利用者から受け付ける受付部と、
前記受付部により受け付けられた情報の音声認識の結果に基づいて、前記文字列の表示態様を更新して表示する更新部と
を有することを特徴とする更新装置。 a display unit that displays a character string that is a search query candidate input via voice and that indicates a search query candidate corresponding to a service used by a user;
a reception unit that receives input of information via voice from the user;
and an updating unit that updates and displays a display mode of the character string based on a result of voice recognition of the information received by the receiving unit.
音声を介して入力される検索クエリの候補であって、利用者が利用するサービスに対応する検索クエリの候補を示す文字列を表示する表示工程と、
音声を介した情報の入力を前記利用者から受け付ける受付工程と、
前記受付工程により受け付けられた情報の音声認識の結果に基づいて、前記文字列の表示態様を更新して表示する更新工程と
を含むことを特徴とする更新方法。 A computer implemented update method comprising:
a display step of displaying a character string indicating a search query candidate input via voice, which is a search query candidate corresponding to a service used by a user;
a receiving step of receiving input of information via voice from the user;
and an updating step of updating and displaying the display mode of the character string based on a result of speech recognition of the information received by the receiving step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021007513A JP2022111842A (en) | 2021-01-20 | 2021-01-20 | Update program, update device, and update method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021007513A JP2022111842A (en) | 2021-01-20 | 2021-01-20 | Update program, update device, and update method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022111842A true JP2022111842A (en) | 2022-08-01 |
Family
ID=82655708
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021007513A Pending JP2022111842A (en) | 2021-01-20 | 2021-01-20 | Update program, update device, and update method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022111842A (en) |
-
2021
- 2021-01-20 JP JP2021007513A patent/JP2022111842A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12086541B2 (en) | Natural query completion for a real-time morphing interface | |
CN111277706B (en) | Application recommendation method and device, storage medium and electronic equipment | |
US10067938B2 (en) | Multilingual word prediction | |
US10592601B2 (en) | Multilingual word prediction | |
CN107330120B (en) | Inquire answer method, inquiry answering device and computer readable storage medium | |
US20190171339A1 (en) | Method, system, and apparatus for executing an action related to user selection | |
KR102223727B1 (en) | Systems and methods for providing content selection | |
AU2013287433B2 (en) | User interface apparatus and method for user terminal | |
KR102197560B1 (en) | Intelligent automated assistant | |
CN109885251A (en) | Information processing unit, information processing method and storage medium | |
JP2018536218A (en) | Action proposal for user-selected content | |
WO2019024692A1 (en) | Speech input method and device, computer equipment and storage medium | |
US10013152B2 (en) | Content selection disambiguation | |
WO2013155619A1 (en) | Conversational agent | |
US20150039318A1 (en) | Apparatus and method for selecting control object through voice recognition | |
JP6983118B2 (en) | Dialogue system control methods, dialogue systems and programs | |
KR102596841B1 (en) | Electronic device and method for providing one or more items responding to speech of user | |
CN105874531B (en) | Terminal device, server device, and computer-readable recording medium | |
JP6408080B1 (en) | Generating device, generating method, and generating program | |
JP6712940B2 (en) | Voice input device, voice input method | |
US9773038B2 (en) | Apparatus and method for starting up software | |
JP2022111842A (en) | Update program, update device, and update method | |
KR20160119740A (en) | System for providing the customized information based on user's intention, method thereof, and recordable medium storing the method | |
JP2020107283A (en) | Information processor, information processing method, program | |
JP7191763B2 (en) | Conversion device, conversion method and conversion program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20231026 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231120 |