JP2022111842A - Update program, update device, and update method - Google Patents

Update program, update device, and update method Download PDF

Info

Publication number
JP2022111842A
JP2022111842A JP2021007513A JP2021007513A JP2022111842A JP 2022111842 A JP2022111842 A JP 2022111842A JP 2021007513 A JP2021007513 A JP 2021007513A JP 2021007513 A JP2021007513 A JP 2021007513A JP 2022111842 A JP2022111842 A JP 2022111842A
Authority
JP
Japan
Prior art keywords
character string
user
voice
update
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021007513A
Other languages
Japanese (ja)
Inventor
佳純 吉村
Kasumi Yoshimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2021007513A priority Critical patent/JP2022111842A/en
Publication of JP2022111842A publication Critical patent/JP2022111842A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To propose appropriate search queries in a service used by users.SOLUTION: An update program pertaining to the present invention is characterized in causing a computer to execute: a display step for displaying character strings indicating candidates of a search query corresponding to a service used by a user, which are the candidates of the search query to be inputted through voice; a reception step for receiving an input of information through voice from the user; and an update step for updating and displaying a display mode of the character strings based on a voice recognition result of the information received by the reception step.SELECTED DRAWING: Figure 1

Description

本発明は、更新プログラム、更新装置及び更新方法に関する。 The present invention relates to an update program, an update device, and an update method.

従来、検索クエリの音声入力に関する技術が知られている。例えば、ユーザが検索対象に関連するワードを把握していない場合に、音声入力を認識した音声認識結果、音声認識結果から抽出した指示語、並びに、ユーザの動作から推定したユーザの指示を基にユーザの検索指示を作成する技術が開示されている。 Conventionally, techniques related to voice input of search queries are known. For example, if the user does not know the words related to the search target, based on the speech recognition result of recognizing the voice input, the reference word extracted from the speech recognition result, and the user's instruction estimated from the user's behavior Techniques for creating user search instructions are disclosed.

特開2015-153324号公報JP 2015-153324 A

しかしながら、上記の従来技術では、利用者が利用するサービスにおいて適切な検索クエリを提案できるとは言えない場合がある。 However, with the conventional technology described above, there are cases where it cannot be said that an appropriate search query can be proposed in the service used by the user.

例えば、上記の従来技術では、ユーザが検索対象に関連するワードを把握していない場合に検索指示を作成しているに過ぎず、利用者が利用するサービスにおいて適切な検索クエリを提案しているとは言えない。 For example, in the above conventional technology, only a search instruction is created when the user does not know the words related to the search target, and an appropriate search query is proposed in the service used by the user. It can not be said.

本願は、上記に鑑みてなされたものであって、利用者が利用するサービスにおいて適切な検索クエリを提案できる更新プログラム、更新装置及び更新方法を提供することを目的とする。 The present application has been made in view of the above, and aims to provide an update program, an update device, and an update method capable of proposing appropriate search queries in services used by users.

本願に係る更新プログラムは、音声を介して入力される検索クエリの候補であって、利用者が利用するサービスに対応する検索クエリの候補を示す文字列を表示する表示手順と、音声を介した情報の入力を前記利用者から受け付ける受付手順と、前記受付手順により受け付けられた情報の音声認識の結果に基づいて、前記文字列の表示態様を更新して表示する更新手順とをコンピュータに実行させることを特徴とする。 The update program according to the present application is a search query candidate input via voice, and includes a display procedure for displaying a character string indicating a search query candidate corresponding to a service used by a user; causing a computer to execute a receiving procedure for receiving input of information from the user and an updating procedure for updating and displaying the display mode of the character string based on the result of speech recognition of the information received by the receiving procedure; It is characterized by

実施形態の一態様によれば、利用者が利用するサービスにおいて適切な検索クエリを提案できるという効果を奏する。 According to one aspect of the embodiment, there is an effect that an appropriate search query can be proposed in the service used by the user.

図1は、実施形態に係る更新処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of update processing according to the embodiment. 図2は、実施形態に係る端末装置の画面の一例を示す図である。FIG. 2 is a diagram illustrating an example of a screen of the terminal device according to the embodiment; 図3は、実施形態に係る端末装置の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a terminal device according to the embodiment; 図4は、実施形態に係る音声入力アプリケーションの構成例を示す図である。FIG. 4 is a diagram illustrating a configuration example of a voice input application according to the embodiment. 図5は、実施形態に係る更新処理手順の一例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of an update processing procedure according to the embodiment; 図6は、端末装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 6 is a hardware configuration diagram showing an example of a computer that implements the functions of the terminal device.

以下に本願にかかる更新プログラム、更新装置及び更新方法を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る更新プログラム、更新装置及び更新方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Embodiments for implementing the update program, update device, and update method according to the present application (hereinafter referred to as "embodiments") will be described in detail below with reference to the drawings. Note that the update program, update device, and update method according to the present application are not limited to this embodiment. Also, in each of the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.

〔1.実施形態〕
図1を用いて、本実施形態の更新プログラム等により実現される更新処理を説明する。図1は、実施形態に係る更新処理の一例を示す図である。図1では、利用者の音声入力に対し音声認識の結果となる文字列を表示し、表示した文字列を所定の外部装置や他のアプリケーションに出力する音声入力アプリケーション(以下、「音声入力アプリ」と記載する場合がある)が、利用者が利用する端末装置100に実装されている例を示す。なお、図1では、音声入力アプリの機能によって実施形態に係る更新処理が実現されるものとする。
[1. embodiment]
The update processing realized by the update program etc. of this embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of update processing according to the embodiment. In FIG. 1, a voice input application (hereinafter referred to as a "voice input application") displays a character string resulting from voice recognition in response to a user's voice input, and outputs the displayed character string to a predetermined external device or other application. ) is installed in the terminal device 100 used by the user. In FIG. 1, it is assumed that the updating process according to the embodiment is realized by the function of the voice input application.

図1に示すように、実施形態に係る更新システム1は、サービスサーバ10と、端末装置100とを含む。サービスサーバ10及び端末装置100は、ネットワークN(例えば、図3参照)を介して有線または無線により相互に通信可能に接続される。ネットワークNは、例えば、インターネットなどのWAN(Wide Area Network)である。なお、図1に示した更新システム1には、複数台のサービスサーバ10及び複数台の端末装置100が含まれていてもよい。 As shown in FIG. 1 , an update system 1 according to the embodiment includes a service server 10 and terminal devices 100 . The service server 10 and the terminal device 100 are communicably connected to each other by wire or wirelessly via a network N (see FIG. 3, for example). The network N is, for example, a WAN (Wide Area Network) such as the Internet. Note that the update system 1 shown in FIG. 1 may include multiple service servers 10 and multiple terminal devices 100 .

図1に示すサービスサーバ10は、利用者に各種のサービスを提供する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。例えば、サービスサーバ10は、例えば、ポータルサイト、ニュースサイト、オークションサイト、天気予報サイト、ショッピングサイト、ファイナンス(株価)サイト、路線検索サイト、地図提供サイト、旅行サイト、飲食店紹介サイト、ウェブブログなどに関するウェブページや、端末装置100にインストールされた各種アプリ(例えば、ポータルアプリ、ニュースアプリ、オークションサイト、天気予報アプリ、ショッピングアプリ、ファイナンス(株価)アプリ、路線検索アプリ、地図提供アプリ、旅行アプリ、飲食店紹介アプリ、ブログ閲覧アプリ等)に表示する情報を端末装置100に配信する。 A service server 10 shown in FIG. 1 is an information processing device that provides various services to users, and is realized by, for example, a server device, a cloud system, or the like. For example, the service server 10 is a portal site, a news site, an auction site, a weather forecast site, a shopping site, a finance (stock price) site, a route search site, a map providing site, a travel site, a restaurant introduction site, a web blog, and the like. and various applications installed on the terminal device 100 (for example, a portal application, a news application, an auction site, a weather forecast application, a shopping application, a finance (stock price) application, a route search application, a map providing application, a travel application, (e.g. restaurant introduction application, blog browsing application, etc.) is distributed to the terminal device 100 .

なお、サービスサーバ10は、端末装置100に制御情報を配信する配信装置として機能してもよい。ここで、制御情報は、例えば、JavaScript(登録商標)等のスクリプト言語やCSS(Cascading Style Sheets)等のスタイルシート言語により記述される。なお、サービスサーバ10から配信されるアプリケーションそのものを制御情報とみなしてもよい。 Note that the service server 10 may function as a distribution device that distributes control information to the terminal device 100 . Here, the control information is described in, for example, a script language such as JavaScript (registered trademark) or a style sheet language such as CSS (Cascading Style Sheets). Note that the application itself distributed from the service server 10 may be regarded as control information.

図1に示す端末装置100は、利用者によって利用される情報処理装置である。端末装置100は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。なお、図1に示す例において、端末装置100は、利用者によって利用されるスマートフォンである場合を示す。また、端末装置100は、液晶ディスプレイ等の出力部(以下、画面と記載する場合がある)を有し、タッチパネルが採用されているものとする。すなわち、利用者U1は、指や専用ペンで出力部の表示面をタッチすることにより端末装置100の各種操作を行う。また、図1の例において、端末装置100には、音を集音する集音機器(マイク等)が含まれているものとする。 A terminal device 100 shown in FIG. 1 is an information processing device used by a user. The terminal device 100 is implemented by, for example, a smart phone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), or the like. Note that in the example shown in FIG. 1, the terminal device 100 is a smart phone used by a user. Also, the terminal device 100 has an output unit such as a liquid crystal display (hereinafter sometimes referred to as a screen), and adopts a touch panel. That is, the user U1 performs various operations of the terminal device 100 by touching the display surface of the output unit with a finger or a dedicated pen. In the example of FIG. 1, the terminal device 100 includes a sound collecting device (such as a microphone) that collects sound.

以下、図1を用いて、端末装置100が行う音声入力アプリの更新処理について説明する。なお、以下の説明では、端末装置100が利用者U1により利用される例を示す。また、以下の説明において、サービスサーバ10が、路線検索サービスを提供する路線検索サイトや路線検索アプリを提供する例を示す。 Hereinafter, update processing of the voice input application performed by the terminal device 100 will be described with reference to FIG. Note that the following description shows an example in which the terminal device 100 is used by the user U1. Also, in the following description, an example in which the service server 10 provides a route search site or a route search application that provides a route search service will be shown.

まず、端末装置100は、利用者U1からの操作に対応するサービスに関する画面を表示する(ステップS1)。例えば、図1の例において、端末装置100は、利用者U1からの操作に応じて、サービスサーバ10が提供する路線検索サービスに関する画面C11を表示する。具体的な例を挙げると、端末装置100は、出発駅や到着駅などといった検索条件(検索クエリ)を入力するための領域AR11と、領域AR11に対する検索クエリの音声入力を指示するためのボタンB11とを含む画面C11を表示する。 First, the terminal device 100 displays a screen regarding a service corresponding to an operation by the user U1 (step S1). For example, in the example of FIG. 1, the terminal device 100 displays a screen C11 regarding the route search service provided by the service server 10 in response to an operation by the user U1. To give a specific example, the terminal device 100 includes an area AR11 for inputting search conditions (search queries) such as a departure station and an arrival station, and a button B11 for instructing voice input of the search query to the area AR11. and a screen C11 is displayed.

ここで、図1の例において、利用者U1がボタンB11を押下したものとする。この場合、端末装置100は、音声入力アプリを起動し、サービスサーバ10が提供する路線検索サービスにおいて入力可能な検索クエリの候補を示す文字列を表示する画面に画面C11を遷移させる(ステップS2)。例えば、端末装置100は、入力される音声の認識結果を表示する領域AR12と、路線検索サービスにおける検索クエリの候補として予め設定された文字列であって、領域AR11に入力可能な文字列を表示する領域AR13及びAR14と、音声入力の開始を指示するためのボタンB12とを含む画面C12に遷移させる。 Here, in the example of FIG. 1, it is assumed that the user U1 presses the button B11. In this case, the terminal device 100 activates the voice input application, and changes the screen C11 to a screen displaying a character string indicating search query candidates that can be input in the route search service provided by the service server 10 (step S2). . For example, the terminal device 100 displays an area AR12 that displays the recognition result of the input voice, and a character string preset as a search query candidate for the route search service that can be input in the area AR11. and a button B12 for instructing the start of voice input.

具体的な例を挙げると、端末装置100は、出発駅及び到着駅、並びに、出発駅から到着駅までの経路における始発(初電)または終電を指定するための文字列(以下、「文字列#11」と記載する場合がある)を領域AR13に表示する。より具体的な例を挙げると、端末装置100は、利用者U1によって音声入力される出発駅及び到着駅をそれぞれ表示する領域AR131及びAR132、並びに、「始発」及び「終電」を択一的に表示する領域AR133を含む文字列#11を表示する。 As a specific example, the terminal device 100 includes a character string for designating a departure station, an arrival station, and the first train (first train) or the last train on the route from the departure station to the arrival station (hereinafter referred to as "character string #11”) is displayed in the area AR13. To give a more specific example, the terminal device 100 displays areas AR131 and AR132 that respectively display the departure station and arrival station input by voice from the user U1, and alternatively displays the "first train" and "last train". A character string #11 including the display area AR133 is displayed.

また、端末装置100は、出発駅及び到着駅、並びに、出発駅を出発する出発時刻、または、到着駅に到着する到着時刻を指定するための文字列(以下、「文字列#12」と記載する場合がある)を領域AR14に表示する。より具体的な例を挙げると、端末装置100は、利用者U1によって音声入力される出発駅及び到着駅をそれぞれ表示する領域AR141及びAR142、利用者U1によって音声入力される時刻を表示する領域AR143及びAR144、「出発」及び「到着」を択一的に表示する領域AR145を含む文字列#12を表示する。 The terminal device 100 also includes a character string (hereinafter referred to as “character string #12”) for designating the departure station, the arrival station, the departure time from the departure station, or the arrival time at the arrival station. may be) is displayed in the area AR14. To give a more specific example, the terminal device 100 has areas AR141 and AR142 that respectively display the departure station and arrival station input by voice by the user U1, and an area AR143 that displays the time input by voice by the user U1. and AR144, and a character string #12 including an area AR145 that alternatively displays "departure" and "arrival".

続いて、利用者U1は、ボタンB12を押下し、画面C12に表示された文字列#11及び#12のいずれかに従い、音声入力(発話)を行う(ステップS3)。なお、図1の例において、利用者U1が、東京駅を出発駅とし、池袋駅を到着駅とする経路の終電を検索することを希望し、文字列#11に従い、端末装置100が含むマイクに対し「東京から池袋までの終電」と発話したものとする。 Subsequently, the user U1 presses the button B12 and performs voice input (utterance) according to either of the character strings #11 and #12 displayed on the screen C12 (step S3). In the example of FIG. 1, the user U1 desires to search for the last train on a route with Tokyo Station as the departure station and Ikebukuro Station as the arrival station. ``The last train from Tokyo to Ikebukuro'' is uttered.

続いて、端末装置100は、利用者U1からの発話を音声認識し、音声認識の結果に基づき、文字列#11及び#12の表示態様を更新する(ステップS4)。例えば、端末装置100は、音声認識の結果である文字列「東京から池袋までの終電」を領域AR12に表示する。そして、文字列#11のうち、音声認識の結果と一致する文字列の文字色を変更して強調表示し、文字列#11及び#12に含まれる各領域に音声認識の結果が示す文字列を表示する。具体的な例を挙げると、端末装置100は、文字列#11のうち、利用者U1が発話した「から」及び「までの」に対応する文字列の文字色を変更する。また、端末装置100は、「から」の前に利用者U1が発話した「東京」を領域AR131に表示し、「から」及び「までの」の間に発話した「池袋」を領域AR132に表示する。また、端末装置100は、領域AR133に表示する「始発」及び「終電」のうち、利用者U1の発話に対応する「終電」の文字色を変更する。そして、端末装置100は、文字列#11に含まれる文字列及び各領域に対する更新処理が完了した(言い換えると、文字列#11に基づく検索処理を行うための必須項目である情報が正常に音声入力された)ことを示すチェックマークを領域AR13に表示する。 Subsequently, the terminal device 100 performs voice recognition of the utterance from the user U1, and updates the display mode of the character strings #11 and #12 based on the result of voice recognition (step S4). For example, the terminal device 100 displays the character string "last train from Tokyo to Ikebukuro", which is the result of speech recognition, in the area AR12. Then, among the character strings #11, the character strings that match the speech recognition results are highlighted by changing the character color, and the character strings indicated by the speech recognition results are displayed in the regions included in the character strings #11 and #12. display. To give a specific example, the terminal device 100 changes the character color of character strings corresponding to "from" and "to" uttered by the user U1 in the character string #11. In addition, the terminal device 100 displays "Tokyo" spoken by the user U1 before "kara" in the area AR131, and displays "Ikebukuro" spoken between "kara" and "made" in the area AR132. do. In addition, the terminal device 100 changes the character color of "last train" corresponding to user U1's utterance, out of "first train" and "last train" displayed in area AR133. Then, the terminal device 100 completes the updating process for the character string and each area included in the character string #11 (in other words, the information that is the essential item for performing the search process based on the character string #11 is normally voiced). input) is displayed in the area AR13.

また、端末装置100は、文字列#12についても同様に、音声認識の結果に基づく表示態様の更新を行う。具体的な例を挙げると、端末装置100は、文字列#12のうち、利用者U1が発話した「から」及び「までの」に対応する文字列の文字色を変更する。また、端末装置100は、「から」の前に利用者U1が発話した「東京」を領域AR141に表示し、「から」及び「までの」の間に発話した「池袋」を領域AR142に表示する。なお、図1の例では、利用者U1が「までの」の後の発話は「終電」であり、「終電」で発話が終了したため、端末装置100は、文字列#12のうち文字列「までの」の後に所在する領域AR143に「終電」を表示し、以降の文字列の表示態様を更新する処理を行わない。すなわち、文字列#11に含まれる文字列及び各領域に対する更新処理は未完了となる。 Similarly, the terminal device 100 updates the display mode of the character string #12 based on the speech recognition result. To give a specific example, the terminal device 100 changes the character color of character strings corresponding to "from" and "to" uttered by the user U1 in the character string #12. In addition, the terminal device 100 displays "Tokyo" uttered by the user U1 before "kara" in the area AR141, and displays "Ikebukuro" uttered between "kara" and "made" in the area AR142. do. In the example of FIG. 1, the user U1 uttered "last train" after "until", and the utterance ended with "last train". 'last train' is displayed in the area AR143 located after 'until', and the process of updating the display mode of the subsequent character string is not performed. That is, the update processing for the character string and each area included in the character string #11 is incomplete.

続いて、端末装置100は、利用者U1からの操作に応じて、更新後の文字列を検索クエリとしてサービスサーバ10に送信する(ステップS5)。例えば、端末装置100は、更新後の文字列#11及び#12のうち、画面C13において利用者が選択した更新後の文字列#11を検索クエリとして送信する。 Subsequently, the terminal device 100 transmits the updated character string as a search query to the service server 10 in response to an operation from the user U1 (step S5). For example, of the updated character strings #11 and #12, the terminal device 100 transmits the updated character string #11 selected by the user on the screen C13 as the search query.

なお、端末装置100は、更新後の文字列#11及び#12のうち、更新処理が完了した文字列#11のみを選択可能としてもよく、更新処理が完了した文字列#11を検索クエリとして自動的にサービスサーバ10に送信してもよい。 Note that the terminal device 100 may select only the updated character string #11 from the updated character strings #11 and #12, and uses the updated character string #11 as a search query. It may be automatically sent to the service server 10 .

続いて、端末装置100は、サービスサーバ10から検索結果を受信する(ステップS6)。例えば、端末装置100は、更新後の文字列#11に含まれる「東京」及び「池袋」からそれぞれ特定された「東京駅」から「池袋駅」までの経路における終電の乗換案内を受信する。 Subsequently, the terminal device 100 receives search results from the service server 10 (step S6). For example, the terminal device 100 receives transfer guidance for the last train on the route from "Tokyo Station" to "Ikebukuro Station" specified from "Tokyo" and "Ikebukuro" included in the updated character string #11.

続いて、端末装置100は、受信した検索結果を表示する(ステップS7)。例えば、東京駅から池袋駅までの乗換案内に関する情報(例えば、利用する路線や、経由する駅、運賃など)と、新たな検索クエリの音声入力を指示するためのボタンB13とを含む画面C14を表示する。具体的な例を挙げると、端末装置100は、乗換案内に関する情報の絞り込みを行うための検索クエリの音声入力を指示するためのボタンB13を表示する。 Subsequently, the terminal device 100 displays the received search results (step S7). For example, a screen C14 containing information on transfer guidance from Tokyo Station to Ikebukuro Station (for example, the route to be used, stations to go through, fares, etc.) and a button B13 for instructing voice input of a new search query. indicate. As a specific example, the terminal device 100 displays a button B13 for instructing voice input of a search query for narrowing down information on transfer guidance.

ここで、図2を用いて、ボタンB13が押下された場合に端末装置100が表示する画面の例を説明する。図2は、実施形態に係る端末装置の画面の一例を示す図である。 Here, an example of a screen displayed by the terminal device 100 when the button B13 is pressed will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of a screen of the terminal device according to the embodiment;

図2に示すように、端末装置100は、音声入力アプリを起動し、路線検索サービスにおいて利用可能な絞り込み機能に対応する検索クエリの候補を示す文字列を画面C21に示すように表示する。例えば、端末装置100は、図1のステップS5において路線検索サービスに送信した検索クエリを表示する領域AR21と、入力される音声の認識結果を表示する領域AR22と、検索結果の絞り込みを行うための検索クエリの候補として予め設定された文字列を表示する領域AR23-AR25と、音声入力の開始を指示するためのボタンB21とを含む画面C21を表示する。 As shown in FIG. 2, the terminal device 100 activates the voice input application, and displays a character string indicating search query candidates corresponding to the narrowing function available in the route search service, as shown in a screen C21. For example, the terminal device 100 includes an area AR21 for displaying the search query sent to the route search service in step S5 of FIG. A screen C21 including areas AR23 to AR25 for displaying character strings preset as search query candidates and a button B21 for instructing the start of voice input is displayed.

具体的な例を挙げると、端末装置100は、東京駅から池袋駅まで経路の運賃を、ICカードを利用する場合の運賃で表示する(ICカード優先)か、現金(切符)を利用する場合の運賃で表示する(現金優先)かを指定するための文字列(以下、「文字列#21」と記載する場合がある)を領域AR23に表示する。より具体的な例を挙げると、端末装置100は、「ICカード優先」及び「現金優先」を択一的に表示する領域AR231を含む文字列#21を表示する。 As a specific example, the terminal device 100 displays the fare for the route from Tokyo Station to Ikebukuro Station as the fare when using an IC card (IC card priority), or when using cash (tickets). A character string (hereinafter sometimes referred to as “character string #21”) for designating whether the fare is to be displayed (cash is preferred) is displayed in the area AR23. To give a more specific example, the terminal device 100 displays a character string #21 including an area AR231 that alternatively displays "IC card priority" and "Cash priority".

また、端末装置100は、東京駅から池袋駅までの経路のうち、利用者U1が所有する定期券により利用可能な経路分の運賃を除いた運賃の表示を指示するための文字列(以下、「文字列#22」と記載する場合がある)を領域AR24に表示する。 The terminal device 100 also displays a character string (hereinafter referred to as may be described as "character string #22") is displayed in area AR24.

また、端末装置100は、東京駅から池袋駅までの経路において乗換を行う際、駅構内等を利用者U1が移動する速度を想定した場合の乗換案内の表示を指示するための文字列(以下、「文字列#23」と記載する場合がある)を領域AR25に表示する。より具体的な例を挙げると、端末装置100は、利用者U1が急いで移動する場合(「急いで」)、利用者U1が少し急いで移動する場合(「少し急いで」)、利用者U1がゆっくり移動する場合(「ゆっくり」)、並びに、利用者U1が少しゆっくり移動する場合(「少しゆっくり」)を択一的に表示する領域AR251を含む文字列#23を表示する。 In addition, the terminal device 100, when changing trains on a route from Tokyo Station to Ikebukuro Station, uses a character string (hereinafter referred to as , may be described as “character string #23”) is displayed in the area AR25. To give a more specific example, when the user U1 moves in a hurry (“hurry”), when the user U1 moves a little in a hurry (“a little in a hurry”), the terminal device 100 may A character string #23 including an area AR251 for alternatively displaying the case where U1 moves slowly (“slowly”) and the case where user U1 moves a little slowly (“slightly slowly”) is displayed.

ここで、図2の例において、利用者U1が現金優先で運賃を表示することを希望し、ボタンB21を押下して文字列#21に従って「現金優先で調べる」と端末装置100が含むマイクに対して発話したものとする。この場合、端末装置100は、利用者U1からの発話を音声認識し、音声認識の結果に基づき文字列#21-#23の表示態様を更新した画面C22を表示する。例えば、端末装置100は、音声認識の結果である文字列「現金優先で調べる」を領域AR22に表示する。また、端末装置100は、文字列#21に含まれる領域AR231に表示する「ICカード優先」及び「現金優先」のうち、利用者U1の発話に対応する「現金優先」の文字色を変更する。また、端末装置100は、文字列#21に含まれる文字列のうち、「現金優先」の後に利用者U1が発話した「で調べる」に対応する文字列の文字色を変更する。そして、端末装置100は、文字列#21に含まれる文字列及び各領域に対する更新処理が完了したことを示すチェックマークを領域AR23に表示する。 Here, in the example of FIG. 2, the user U1 wishes to display the fare with cash priority, presses the button B21, follows the character string #21, and says "check with cash priority" to the microphone included in the terminal device 100. Suppose you speak to it. In this case, the terminal device 100 performs voice recognition of the utterance from the user U1, and displays a screen C22 in which the display mode of the character strings #21 to #23 is updated based on the result of voice recognition. For example, the terminal device 100 displays the character string "check with cash priority", which is the voice recognition result, in the area AR22. In addition, the terminal device 100 changes the character color of "cash priority" corresponding to the utterance of the user U1 out of "IC card priority" and "cash priority" displayed in the area AR231 included in the character string #21. . In addition, the terminal device 100 changes the character color of the character string corresponding to "check with" uttered by the user U1 after the "cash priority" among the character strings included in the character string #21. Then, the terminal device 100 displays in the area AR23 a check mark indicating that the character string included in the character string #21 and the update process for each area have been completed.

また、端末装置100は、文字列#22及び#23についても同様に、音声認識の結果に基づく表示態様の更新を行う。例えば、端末装置100は、文字列#22に含まれる文字列のうち、利用者U1が発話した「で調べる」に対応する文字列の文字色を変更する。そして、端末装置100は、利用者U1が「で調べる」の前に発話した「現金優先」に対応する文字列を文字列#22に挿入する。なお、端末装置100は、文字列#22に含まれる文字列「定期区間を考慮して」が利用者U1の発話に含まれないため、当該文字列の表示態様を更新する処理を行わない。 Similarly, the terminal device 100 updates the display mode of the character strings #22 and #23 based on the speech recognition result. For example, the terminal device 100 changes the character color of the character string corresponding to "check with" uttered by the user U1 among the character strings included in the character string #22. Then, the terminal device 100 inserts into the character string #22 a character string corresponding to "cash priority" uttered by the user U1 before "check with". Note that the terminal device 100 does not update the display mode of the character string "considering the regular interval" included in the character string #22 because the user U1 does not include the character string.

また、例えば、端末装置100は、文字列#22に含まれる文字列のうち、利用者U1が発話した「現金優先で調べる」に対応する文字列を文字列#23に挿入する。なお、端末装置100は、文字列#22に含まれる領域AR251に表示する各文字列、並びに、文字列#22に含まれる文字列「乗り換える」が、利用者U1の発話に含まれないため、これらの文字列の表示態様を更新する処理を行わない。 In addition, for example, the terminal device 100 inserts into character string #23 the character string corresponding to "check with cash priority" uttered by user U1 among the character strings included in character string #22. Terminal device 100 does not include each character string displayed in area AR251 included in character string #22 and the character string "transfer" included in character string #22 in user U1's utterance. Processing for updating the display mode of these character strings is not performed.

上記の更新処理が完了した後、端末装置100は、更新後の文字列#21-#23のうち、画面C22において利用者が選択した更新後の文字列#21を検索クエリとしてサービスサーバ10に送信する。そして、端末装置100は、東京駅から池袋駅までの乗換案内に関する情報であって、現金優先の運賃を含む情報を画面に表示する。言い換えると、端末装置100は、図1の画面C14に表示した情報に対応する情報であって、新後の文字列#21に基づき情報の絞り込みが行われた情報を画面に表示する。 After the above update process is completed, the terminal device 100 sends the updated character string #21 selected by the user on the screen C22 from among the updated character strings #21 to #23 to the service server 10 as a search query. Send. Then, the terminal device 100 displays, on the screen, information relating to transfer guidance from Tokyo Station to Ikebukuro Station, which includes a cash-preferred fare. In other words, the terminal device 100 displays, on the screen, information corresponding to the information displayed on the screen C14 of FIG. 1, which is narrowed down based on the new character string #21.

なお、端末装置100は、領域AR21に表示する情報の変更を受け付けてもよい。例えば、領域AR211が押下された場合、端末装置100は、文字列「東京」を削除し、新たな出発駅の音声入力を受け付ける。また、領域AR211が押下された場合、端末装置100は、文字列「池袋」を削除し、新たな到着駅の音声入力を受け付ける。 It should be noted that the terminal device 100 may accept changes in the information displayed in the area AR21. For example, when the area AR211 is pressed, the terminal device 100 deletes the character string "Tokyo" and accepts voice input of a new departure station. Further, when the area AR211 is pressed, the terminal device 100 deletes the character string "Ikebukuro" and accepts voice input of a new arrival station.

以上のように、実施形態に係る端末装置100は、利用者が利用するサービスにおいて利用可能な機能に対応する検索クエリの候補となる文字列を表示し、当該文字列に従い利用者が検索クエリの音声入力を行うことを可能とする。これにより、実施形態に係る端末装置100は、利用者が音声UIを使ってサービスの機能を呼び出す操作をする際、「どのような発話を行えばどのような操作を行うことができるか」、「どのような機能を音声で操作できるのか」、などといった情報を利用者が事前に把握していなくとも、どのような機能を音声入力で利用可能かを認識させることができる。すなわち、実施形態に係る端末装置100は、利用者が利用するサービスにおいて適切な検索クエリを提案できる。 As described above, the terminal device 100 according to the embodiment displays a character string that is a search query candidate corresponding to a function that can be used in a service that the user uses, and allows the user to enter a search query according to the character string. Allows voice input. As a result, when the user performs an operation of calling a service function using the voice UI, the terminal device 100 according to the embodiment can perform the following operations: Even if the user does not know information such as "what functions can be operated by voice" in advance, it is possible to make the user recognize what functions can be used by voice input. That is, the terminal device 100 according to the embodiment can propose an appropriate search query for the service used by the user.

〔2.端末装置の構成〕
次に、上述した更新処理を実現するための端末装置100について図3を用いて説明する。図3は、実施形態に係る端末装置の構成例を示す図である。図3に示すように、端末装置100は、通信部110と、入力部120と、出力部130と、制御部140とを有する。
[2. Configuration of terminal device]
Next, the terminal device 100 for implementing the update process described above will be described with reference to FIG. FIG. 3 is a diagram illustrating a configuration example of a terminal device according to the embodiment; As shown in FIG. 3, the terminal device 100 has a communication section 110, an input section 120, an output section 130, and a control section 140. FIG.

(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、サービスサーバ10や、音声入力された情報の内容を解釈する処理を実行する解釈サーバ200等との間で情報の送受信を行う。例えば、解釈サーバ200は、API(Application Programming Interface)を介して、音声入力された情報の内容を解釈する機能を提供する。
(Regarding communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is connected to the network N by wire or wirelessly, and transmits and receives information to and from the service server 10, the interpretation server 200 that executes processing for interpreting the content of information input by voice, and the like. For example, the interpretation server 200 provides a function of interpreting the content of voice input information via an API (Application Programming Interface).

(入力部120及び出力部130について)
入力部120は、ユーザから各種操作を受け付ける入力装置である。例えば、入力部120は、キーボードやマウスや操作キー等によって実現される。出力部130は、各種情報を表示するための表示装置である。つまり、出力部130は、端末装置100の表示画面に相当する。例えば、出力部130は、液晶ディスプレイ等によって実現される。なお、端末装置100にタッチパネルが採用される場合には、入力部120と出力部130とは一体化される。
(Regarding the input unit 120 and the output unit 130)
The input unit 120 is an input device that receives various operations from the user. For example, the input unit 120 is implemented by a keyboard, mouse, operation keys, and the like. The output unit 130 is a display device for displaying various information. In other words, the output unit 130 corresponds to the display screen of the terminal device 100 . For example, the output unit 130 is realized by a liquid crystal display or the like. When the terminal device 100 employs a touch panel, the input unit 120 and the output unit 130 are integrated.

(制御部140について)
制御部140は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、端末装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。なお、制御部140は、上述した表示処理を実現する制御情報又はアプリケーションをアプリケーション配信サーバ等から配信された場合、かかる制御情報又はアプリケーションに従って動作し、表示処理を実現する。
(Regarding the control unit 140)
The control unit 140 is a controller, and various programs stored in a storage device inside the terminal device 100 are executed by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like, using the RAM as a work area. It is realized by being executed. When control information or an application that implements the above-described display processing is delivered from an application delivery server or the like, the control unit 140 operates according to the control information or application to implement the display processing.

また、制御部140は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。実施形態に係る制御部140は、図3に示すように、音声入力アプリケーション141や、第1アプリケーション142、第2アプリケーション143等を有する。音声入力アプリケーション141は、上述した更新処理の機能や作用を実現または実行し、利用者の音声入力に対する音声認識の結果となる情報をサービスサーバ10に送信する。また、音声入力アプリケーション141は、音声認識の結果となる情報を第1アプリケーション142や、第2アプリケーション143等の他のアプリケーションに出力する。以下、図4を用いて、音声入力アプリケーション141が有する機能構成の一例ついて説明する。図4は、実施形態に係る音声入力アプリケーションの構成例を示す図である。実施形態に係る音声入力アプリケーション141は、図3に示すように、表示部1411と、受付部1412と、更新部1413と、提示部1414と、送信部1415とを有し、以下に説明する情報処理の機能や作用を実現または実行する。 Also, the control unit 140 is a controller, and is implemented by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 140 according to the embodiment has a voice input application 141, a first application 142, a second application 143, etc., as shown in FIG. The voice input application 141 realizes or executes the functions and actions of the updating process described above, and transmits to the service server 10 information that is the result of voice recognition for the user's voice input. The voice input application 141 also outputs information resulting from voice recognition to other applications such as the first application 142 and the second application 143 . An example of the functional configuration of the voice input application 141 will be described below with reference to FIG. FIG. 4 is a diagram illustrating a configuration example of a voice input application according to the embodiment. The voice input application 141 according to the embodiment has a display unit 1411, a reception unit 1412, an update unit 1413, a presentation unit 1414, and a transmission unit 1415, as shown in FIG. Realize or perform the function or action of a process.

(表示部1411について)
表示部1411は、音声を介して入力される検索クエリの候補であって、利用者が利用するサービスに対応する検索クエリの候補を示す文字列を表示する。例えば、図1及び図2の例において、表示部1411は、サービスサーバ10が提供する路線検索サービスにおいて入力可能な検索クエリの候補を示す文字列であって、当該路線検索サービスにおける検索クエリの候補として予め設定された文字列を画面C12や画面C21などにおいて表示する。
(Regarding the display unit 1411)
The display unit 1411 displays a character string indicating a search query candidate input via voice and corresponding to a service used by the user. For example, in the examples of FIGS. 1 and 2, the display unit 1411 is a character string indicating search query candidates that can be input in the route search service provided by the service server 10, and is a search query candidate for the route search service. is displayed on the screen C12, the screen C21, or the like.

また、表示部1411は、サービスが提供する検索機能に対応する文字列を表示してもよい。例えば、図1及び図2の例において、表示部1411は、路線検索サービスが提供する検索サービスにおける路線検索機能や、路線検索サービスにおいて利用可能な絞り込み機能に対応する検索クエリの候補を示す文字列を画面C12や画面C21などにおいて表示する。 Also, the display unit 1411 may display a character string corresponding to a search function provided by the service. For example, in the examples of FIGS. 1 and 2, the display unit 1411 displays a character string indicating a search query candidate corresponding to a route search function in a search service provided by a route search service or a refinement function that can be used in a route search service. is displayed on the screen C12, the screen C21, or the like.

また、表示部1411は、サービスが提供する検索機能を用いて検索可能な対象を示す文字列を表示してもよい。例えば、図1の例において、表示部1411は、路線検索サービスが提供する検索機能を用いて検索可能な経路に関する文字列を画面C12や画面C21などにおいて表示する。 Also, the display unit 1411 may display a character string indicating a searchable target using a search function provided by the service. For example, in the example of FIG. 1, the display unit 1411 displays character strings related to routes that can be searched using the search function provided by the route search service on the screen C12, the screen C21, or the like.

また、表示部1411は、利用者の音声を介して入力される文字列が表示される表示領域を含む文字列を表示してもよい。例えば、図1の例において、表示部1411は、利用者U1によって音声入力される出発駅及び到着駅をそれぞれ表示する領域AR131及びAR132を含む文字列#11を表示する。また、表示部1411は、利用者U1によって音声入力される出発駅及び到着駅をそれぞれ表示する領域AR141及びAR142、利用者U1によって音声入力される時刻を表示する領域AR143及びAR144を含む文字列#12を表示する。 Moreover, the display unit 1411 may display a character string including a display area in which a character string input via the user's voice is displayed. For example, in the example of FIG. 1, the display unit 1411 displays a character string #11 including areas AR131 and AR132 respectively displaying a departure station and an arrival station voice-inputted by the user U1. In addition, the display unit 1411 displays a character string #, which includes areas AR141 and AR142 for displaying the departure station and the arrival station input by voice by the user U1, and areas AR143 and AR144 for displaying the time input by the user U1 by voice. Display 12.

また、表示部1411は、音声を介して入力可能な情報の種別を表示領域に表示してもよい。例えば、図1の例において、表示部1411は、領域AR131、AR132、領域AR141及びAR142にそれぞれ、音声を介して入力可能な情報の種別「駅」を表示する。また、表示部1411は、領域AR143及びAR144にそれぞれ、音声を介して入力可能な情報の種別「数」を表示する。 In addition, the display unit 1411 may display the types of information that can be input via voice in the display area. For example, in the example of FIG. 1, the display unit 1411 displays the information type "station" that can be input via voice in areas AR131, AR132, and areas AR141 and AR142. In addition, the display unit 1411 displays the type “number” of information that can be input via voice in the areas AR143 and AR144.

なお、後述する更新部1413は、表示領域に表示される文字列として、当該表示領域に表示される種別に対応しない文字列が音声入力された場合は、当該文字列を当該表示領域に表示しなくともよい。 Note that when a character string that does not correspond to the type displayed in the display area is voice-inputted as a character string to be displayed in the display area, the updating unit 1413 described later displays the character string in the display area. No need.

また、表示部1411は、所定の関連性を有する複数の文字列を表示する領域を含む文字列を表示してもよい。例えば、図1の例において、表示部1411は、「出発」及び「到着」を択一的に表示する領域AR145を含む文字列#12を表示する。また、図1の例において、表示部1411は、「出発」及び「到着」を択一的に表示する領域AR145を含む文字列#12を表示する。また、図2の例において、表示部1411は、「ICカード優先」及び「現金優先」を択一的に表示する領域AR231を含む文字列#21を表示する。また、図2の例において、表示部1411は、「急いで」、「少し急いで」、「ゆっくり」及び「少しゆっくり」を択一的に表示する領域AR251を含む文字列#23を表示する。 Moreover, the display unit 1411 may display a character string including an area for displaying a plurality of character strings having a predetermined relationship. For example, in the example of FIG. 1, the display unit 1411 displays a character string #12 including an area AR145 that alternatively displays "departure" and "arrival". Further, in the example of FIG. 1, the display unit 1411 displays a character string #12 including an area AR145 that alternatively displays "departure" and "arrival". In the example of FIG. 2, the display unit 1411 displays a character string #21 including an area AR231 that alternatively displays "IC card priority" and "cash priority". In addition, in the example of FIG. 2, the display unit 1411 displays a character string #23 including an area AR251 that alternatively displays "quickly", "quickly", "slowly", and "slightly slowly". .

(受付部1412について)
受付部1412は、音声を介した情報の入力を利用者から受け付ける。例えば、図1の例において、受付部1412は、端末装置100が含むマイクに対して行った発話を受け付ける。
(Regarding reception unit 1412)
The reception unit 1412 receives input of information from the user via voice. For example, in the example of FIG. 1, the accepting unit 1412 accepts an utterance made into the microphone included in the terminal device 100 .

(更新部1413について)
更新部1413は、受付部1412により受け付けられた情報の音声認識の結果に基づいて、文字列の表示態様を更新して表示する。例えば、図1の例において、更新部1413は、利用者U1からの発話の音声認識の結果である文字列「東京から池袋までの終電」に基づき、文字列#11及び#12の表示態様を更新する。また、図2の例において、更新部1413は、利用者U1からの発話の音声認識の結果である文字列「現金優先で調べる」に基づき、文字列#21-#23の表示態様を更新する。
(Regarding update unit 1413)
The updating unit 1413 updates and displays the display mode of the character string based on the speech recognition result of the information received by the receiving unit 1412 . For example, in the example of FIG. 1, the updating unit 1413 changes the display mode of the character strings #11 and #12 based on the character string "last train from Tokyo to Ikebukuro" which is the result of speech recognition of the utterance from user U1. Update. Also, in the example of FIG. 2, the updating unit 1413 updates the display mode of the character strings #21 to #23 based on the character string "check with cash priority" that is the result of voice recognition of the utterance from the user U1. .

また、更新部1413は、文字列のうち、音声認識の結果と対応する部分の表示態様を更新してもよい。例えば、図1及び図2の例において、更新部1413は、文字列#11、#12、文字列#21-#23のうち、音声認識の結果と対応する部分の表示態様を更新する。 Further, the updating unit 1413 may update the display mode of the portion of the character string corresponding to the speech recognition result. For example, in the examples of FIGS. 1 and 2, the updating unit 1413 updates the display mode of the portions of the character strings #11, #12, and character strings #21 to #23 that correspond to the results of speech recognition.

また、更新部1413は、文字列のうち、音声認識の結果と一致する文字列を強調表示してもよい。例えば、図1の例において、更新部1413は、文字列#11及び#12のうち、利用者U1からの発話の音声認識の結果と一致する文字列の文字色を変更する。また、図2の例において、更新部1413は、文字列#21-#23のうち、利用者U1からの発話の音声認識の結果と一致する文字列の文字色を変更する。 In addition, the updating unit 1413 may highlight a character string that matches the speech recognition result among the character strings. For example, in the example of FIG. 1, the updating unit 1413 changes the character color of character strings #11 and #12 that match the speech recognition result of the utterance from user U1. Also, in the example of FIG. 2, the updating unit 1413 changes the character color of the character strings that match the voice recognition result of the utterance from the user U1 among the character strings #21 to #23.

また、更新部1413は、音声認識の結果が示す文字列を表示領域に表示してもよい。例えば、図1の例において、更新部1413は、「から」の前に利用者U1が発話した「東京」を領域AR131に表示し、「から」及び「までの」の間に発話した「池袋」を領域AR132に表示する。 Further, the update unit 1413 may display the character string indicated by the speech recognition result in the display area. For example, in the example of FIG. 1, the updating unit 1413 displays "Tokyo" uttered by the user U1 before "kara" in the area AR131, and displays "Ikebukuro ” is displayed in the area AR132.

また、更新部1413は、複数の文字列のうち、音声認識の結果に対応する一の文字列を領域に表示してもよい。例えば、図1の例において、更新部1413は、文字列#11に含まれる領域AR133に表示する「始発」及び「終電」のうち、利用者U1の発話に対応する「終電」の文字色を変更する。また、図2の例において、更新部1413は、文字列#21に含まれる領域AR231に表示する「ICカード優先」及び「現金優先」のうち、利用者U1の発話に対応する「現金優先」の文字色を変更する。 Further, the updating unit 1413 may display one character string corresponding to the speech recognition result among the plurality of character strings in the area. For example, in the example of FIG. 1, the updating unit 1413 changes the character color of "last train" corresponding to the utterance of user U1 out of "first train" and "last train" displayed in area AR133 included in character string #11. change. In the example of FIG. 2, the updating unit 1413 selects "cash priority" corresponding to the utterance of user U1, out of "IC card priority" and "cash priority" displayed in the area AR231 included in the character string #21. change the text color of

ここで、利用者からの発話の音声認識の結果が、表示部1411が表示した文字列と一致していなくとも、音声認識の結果を解釈した内容が当該文字列と対応する場合には、当該文字列の表示態様を更新したいといった要望が考えられる。したがって、更新部1413は、外部装置による解釈の結果に基づいて、文字列の表示態様を更新して表示してもよい。例えば、更新部1413は、利用者が音声入力した情報を解釈した内容であって、利用者が音声入力した情報を解釈サーバ200が解釈した内容に基づき、表示部1411が表示する文字列の表示態様を更新する。具体的な例を挙げると、更新部1413は、解釈サーバ200が解釈した内容と、表示部1411が表示する文字列が示す内容とが対応する場合は、当該文字列の表示態様を変更する。 Here, even if the result of voice recognition of the user's utterance does not match the character string displayed by the display unit 1411, if the contents of the interpreted result of voice recognition correspond to the character string, There may be a desire to update the display mode of the character string. Therefore, the update unit 1413 may update and display the display mode of the character string based on the result of interpretation by the external device. For example, the update unit 1413 displays the character string displayed by the display unit 1411 based on the interpretation of the information input by the user by voice, which is interpreted by the interpretation server 200 from the information input by the user by voice. Update the aspect. To give a specific example, when the content interpreted by the interpretation server 200 and the content indicated by the character string displayed by the display unit 1411 correspond, the updating unit 1413 changes the display mode of the character string.

(提示部1414について)
ここで、例えば、利用者からの発話が正しく認識されず、表示部1411が表示した文字列の一部が更新されてない場合や、表示部1411が表示した文字列の一部(必須項目等)を利用者が発話していない場合、再度の音声入力を促したいといった要望が考えられる。したがって、提示部1414は、更新部1413により更新された文字列が所定の条件を満たす場合は、音声を介した新たな情報の入力を受け付けるためのコンテンツを利用者に提示する。例えば、提示部1414は、利用者が利用するサービスに対応する文字列であって、表示部1411が表示する文字列のうち、当該サービスにおいて設定された必須項目に対応する部分が更新部1413により更新されていない場合は、必要な情報が音声入力されていない旨を示すコンテンツであって、音声を介した新たな情報の入力を受け付けるためのコンテンツを利用者に提示する。具体的な例を挙げると、提示部1414は、必須項目に対応する部分の音声入力を受け付けるためのコンテンツを提示する。そして、更新部1413は、提示部1414が提示したコンテンツを介して音声入力された情報に基づき、必須項目に対応する部分の表示態様を更新する。
(About presentation unit 1414)
Here, for example, if the speech from the user is not correctly recognized and part of the character string displayed by the display unit 1411 is not updated, or if part of the character string displayed by the display unit 1411 (e.g., essential items) ) is not uttered by the user, it is conceivable that the user wants to prompt for voice input again. Therefore, when the character string updated by the update unit 1413 satisfies a predetermined condition, the presentation unit 1414 presents the user with content for receiving input of new information via voice. For example, the presentation unit 1414 causes the update unit 1413 to update the character string corresponding to the service used by the user, which is the character string displayed by the display unit 1411 and corresponds to the essential items set for the service. If it is not updated, the user is presented with content indicating that necessary information has not been input by voice, and content for accepting input of new information via voice. As a specific example, the presentation unit 1414 presents content for accepting voice input of portions corresponding to essential items. Then, the updating unit 1413 updates the display mode of the portion corresponding to the essential item based on the information input by voice via the content presented by the presentation unit 1414 .

また、提示部1414は、文字列のうち表示態様が更新されていない部分が存在する場合は、当該部分に対応する情報を入力するためのコンテンツを提示してもよい。例えば、提示部1414は、表示部1411が表示する文字列のすべてが更新部1413により更新されていない場合は、文字列の更新されていない部分の音声入力を受け付けるためのコンテンツを提示する。 In addition, when there is a part of the character string whose display mode has not been updated, the presentation unit 1414 may present content for inputting information corresponding to the part. For example, when all of the character strings displayed by the display unit 1411 have not been updated by the update unit 1413, the presentation unit 1414 presents content for accepting voice input of the portion of the character string that has not been updated.

また、提示部1414は、文字列に含まれる領域であって、利用者の音声を介して入力される文字列が表示される領域に文字列が表示されていない場合は、当該領域に対応する情報を入力するためのコンテンツを提示してもよい。例えば、図1を例にして説明すると、提示部1414は、文字列#11に含まれる領域AR131及びAR132のいずれかに文字列が表示されていない場合は、領域AR131またはAR132に対応する情報を入力するためのコンテンツを提示する。また、図1を例にして説明すると、提示部1414は、文字列#11に含まれる領域AR133において「始発」及び「終電」のいずれも表示態様が更新されていない場合は、「始発」及び「終電」のいずれかを選択するためのコンテンツを提示する。 In addition, when the character string is not displayed in the area included in the character string and in which the character string input via the user's voice is displayed, the presentation unit 1414 displays the character string corresponding to the area. Content for entering information may be presented. For example, using FIG. 1 as an example, if the character string is not displayed in either of the areas AR131 and AR132 included in the character string #11, the presentation unit 1414 displays the information corresponding to the area AR131 or AR132. Present content for input. Further, using FIG. 1 as an example, the presentation unit 1414 displays “first train” and A content for selecting one of "last trains" is presented.

また、提示部1414は、文字列に含まれる領域であって、利用者の音声を介して入力される文字列が表示される領域に表示する文字列の候補であって、音声認識の結果に基づく文字列の候補が複数存在する場合は、当該文字列の候補のいずれかを選択するためのコンテンツを提示してもよい。例えば、提示部1414は、利用者から音声入力された情報の漢字への変換候補が複数存在する場合は、いずれかの変換候補を選択するためのコンテンツを提示する。また、提示部1414は、利用者から音声入力された情報に対応する地名が複数存在する場合は、いずれかの地名を選択するためのコンテンツを提示する。具体的な例を挙げると、提示部1414は、利用者が「なかの」と音声入力した場合は、東京都に所在する「中野」、群馬県に所在する「中野」、並びに、長野県に所在する「中野」のいずれかを選択するためのコンテンツを提示する。 In addition, the presentation unit 1414 provides character string candidates to be displayed in an area that is included in the character string and in which the character string input via the user's voice is displayed. If there are multiple candidates for the character string based on, content may be presented for selecting one of the candidates for the character string. For example, when there are a plurality of conversion candidates for converting the information input by voice from the user into kanji, the presentation unit 1414 presents content for selecting one of the conversion candidates. If there are a plurality of place names corresponding to the information input by voice from the user, the presentation unit 1414 presents content for selecting one of the place names. As a specific example, when the user voice-inputs “Nakano”, the presentation unit 1414 selects “Nakano” located in Tokyo, “Nakano” located in Gunma Prefecture, and “Nakano” located in Nagano Prefecture. Contents for selecting one of the located "Nakano" are presented.

なお、表示部1411が、検索クエリの候補となる文字列を複数表示する場合、提示部1414は、いずれかの文字列が所定の条件を満たさない場合は、コンテンツを利用者に提示しなくともよい。例えば、図1を例にして説明すると、提示部1414は、文字列#11及び#12のうち、文字列#11に含まれる文字列及び各領域に対する更新処理が完了しているため、文字列#12に関する情報の音声入力を行うためのコンテンツを表示しなくともよい。言い換えると、表示部1411が表示する文字列のいずれかが検索クエリとして送信可能である場合、提示部1414は、コンテンツを提示しなくともよい。 Note that when the display unit 1411 displays a plurality of character strings that are search query candidates, the presentation unit 1414 does not present the content to the user if any character string does not satisfy a predetermined condition. good. For example, using FIG. 1 as an example, the presentation unit 1414 updates the character string and each area included in the character string #11 among the character strings #11 and #12. It is not necessary to display the content for voice input of information about #12. In other words, if any of the character strings displayed by the display unit 1411 can be transmitted as a search query, the presentation unit 1414 does not have to present the content.

また、提示部1414は、音声を介した新たな情報の入力を受け付けるためのコンテンツに限らず、端末装置100のタッチパネルや、キーボード、マウス、操作キーなどといった、音声以外により入力される情報を受け付けるためのコンテンツを提示してもよい。 In addition, the presentation unit 1414 is not limited to content for accepting input of new information via voice, and accepts information input by means other than voice, such as the touch panel, keyboard, mouse, and operation keys of the terminal device 100. You may present content for

(送信部1415について)
送信部1415は、更新部1413により更新された文字列の送信要求を利用者から受け付けた場合は、更新された文字列を検索クエリとして、サービスに対応する検索処理を実行する外部装置に送信する。例えば、図1の例において、送信部1415は、画面C13において利用者が選択した更新後の文字列#11を検索クエリとしてサービスサーバ10に送信する。
(Regarding the transmission unit 1415)
When a transmission request for a character string updated by the updating unit 1413 is received from the user, the transmitting unit 1415 transmits the updated character string as a search query to an external device that executes search processing corresponding to the service. . For example, in the example of FIG. 1, the transmission unit 1415 transmits the updated character string #11 selected by the user on the screen C13 to the service server 10 as a search query.

なお、送信部1415は、更新された文字列を検索クエリとして、利用者が利用中のサービスとは異なるサービスに対応する検索処理を実行する外部装置に送信してもよい。例えば、図1を例にして説明すると、送信部1415は、利用者からの操作に応じて、更新後の文字列#11を検索クエリとして、路線検索サービスとは異なるサービスを提供するサービスサーバ10に送信する。そして、端末装置100は、サービスサーバ10から検索結果を受信し、画面に表示する。 Note that the transmission unit 1415 may transmit the updated character string as a search query to an external device that executes search processing corresponding to a service different from the service currently being used by the user. For example, using FIG. 1 as an example, the transmission unit 1415 uses the updated character string #11 as a search query in response to an operation from the user, and the service server 10 provides a service different from the route search service. Send to Then, the terminal device 100 receives the search result from the service server 10 and displays it on the screen.

また、送信部1415は、受付部1412により受け付けられた情報を、音声の内容を解釈する処理を実行する外部装置に送信してもよい。例えば、送信部1415は、音声入力された情報を解釈サーバ200に送信する。そして、更新部1413は、解釈サーバ200が解釈した内容に基づき更新処理を実行する。 Further, the transmitting unit 1415 may transmit the information received by the receiving unit 1412 to an external device that executes processing for interpreting the contents of the voice. For example, the transmission unit 1415 transmits information input by voice to the interpretation server 200 . Then, the update unit 1413 executes update processing based on the contents interpreted by the interpretation server 200 .

〔3.更新処理のフロー〕
ここで、図5を用いて、実施形態に係る音声入力アプリの更新処理の手順について説明する。図5は、実施形態に係る更新処理手順の一例を示すフローチャートである。
[3. Update process flow]
Here, the procedure of update processing of the voice input application according to the embodiment will be described with reference to FIG. 5 . FIG. 5 is a flowchart illustrating an example of an update processing procedure according to the embodiment;

図5に示すように、端末装置100は、利用者が利用するサービスに対応する検索クエリの候補を示す文字列を表示する(ステップS101)。続いて、端末装置100は、音声を介した情報の入力を受け付ける(ステップS102)。続いて、端末装置100は、音声認識の結果に基づいて、文字列の表示態様を更新して表示する(ステップS103)。続いて、端末装置100は、更新後の文字列が所定の条件を満たすか否かを判定する(ステップS104)。所定の条件を満たす場合(ステップS104;Yes)、端末装置100は、音声を介した新たな情報の入力を受け付けるためのコンテンツを提示し(ステップS105)、ステップS102に戻り処理を繰り返す。 As shown in FIG. 5, the terminal device 100 displays a character string indicating search query candidates corresponding to the service used by the user (step S101). Subsequently, the terminal device 100 accepts input of information via voice (step S102). Subsequently, the terminal device 100 updates and displays the display mode of the character string based on the voice recognition result (step S103). Subsequently, the terminal device 100 determines whether or not the updated character string satisfies a predetermined condition (step S104). If the predetermined condition is satisfied (step S104; Yes), the terminal device 100 presents content for receiving input of new information via voice (step S105), returns to step S102, and repeats the process.

一方、所定の条件を満たさない場合(ステップS104;No)、端末装置100は、文字列の送信要求を利用者から受け付けたか否かを判定する(ステップS106)。送信要求を受け付けていない場合(ステップS106;No)、端末装置100は、送信要求を受け付けるまで待機する。一方、送信要求を受け付けた場合(ステップS106;Yes)、端末装置100は、更新された文字列を検索クエリとして、検索処理を実行する外部装置に送信し(ステップS107)、処理を終了する。 On the other hand, if the predetermined condition is not satisfied (step S104; No), the terminal device 100 determines whether or not a character string transmission request has been received from the user (step S106). If the transmission request has not been received (step S106; No), the terminal device 100 waits until the transmission request is received. On the other hand, when the transmission request is received (step S106; Yes), the terminal device 100 transmits the updated character string as a search query to the external device executing the search process (step S107), and ends the process.

〔4.変形例〕
上述の実施形態は一例を示したものであり、種々の変更及び応用が可能である。
[4. Modification]
The above-described embodiment is an example, and various modifications and applications are possible.

〔4-1.サービスサーバ10が提供するサービスについて〕
上述の実施形態において、サービスサーバ10が路線検索サービスを提供する例を示したが、サービスサーバ10が提供するサービスはこのような例に限定されず、任意のサービスを提供してもよい。そして、表示部1411は、サービスサーバ10が提供するサービスに応じた文字列を表示してもよい。例えば、サービスサーバ10がショッピングサービスを提供する場合、表示部1411は、当該ショッピングサービスにおいて利用可能な検索機能に対応する文字列を、検索クエリの候補として表示してもよい。具体的な例を挙げると、表示部1411は、ショッピングサービスにおいて販売される商品の種別や、製造元、商品の価格帯などを示す文字列を表示する。
[4-1. Services Provided by Service Server 10]
In the above-described embodiment, an example in which the service server 10 provides a route search service has been shown, but the service provided by the service server 10 is not limited to such an example, and any service may be provided. The display unit 1411 may display a character string corresponding to the service provided by the service server 10. FIG. For example, when the service server 10 provides a shopping service, the display unit 1411 may display character strings corresponding to search functions available in the shopping service as search query candidates. As a specific example, the display unit 1411 displays a character string indicating the type of product sold in the shopping service, the manufacturer, the price range of the product, and the like.

〔4-2.更新部1413による更新処理ついて〕
上述の実施形態において、更新部1413が、表示部1411が表示した文字列のうち、利用者からの発話の音声認識の結果と一致する文字列の文字色を変更することにより更新処理を行う例を示したが、更新部1413の機能はこのような例に限定されない。例えば、更新部1413は、発話した内容が音声認識されたか否かを利用者が判別可能であれば任意の態様で文字列の更新処理を実行してもよい。
[4-2. Update processing by update unit 1413]
In the above-described embodiment, an example in which the update unit 1413 performs update processing by changing the character color of a character string that matches the voice recognition result of the user's utterance among the character strings displayed by the display unit 1411. , the function of the updating unit 1413 is not limited to such an example. For example, the update unit 1413 may perform the character string update process in any manner as long as the user can determine whether or not the uttered content has been recognized by voice.

〔4-3.表示部1411が表示する文字列について〕
上述の実施形態において、表示部1411が、利用者が利用するサービスが提供する検索機能に対応する文字列を表示する例を示したが、表示部1411の機能はこのような例に限定されない。例えば、表示部1411は、利用者が音声入力アプリを起動し、発話した内容に基づいて、文字列を表示してもよい。例えば、利用者が音声入力アプリを起動し、何らかの情報を音声入力した場合、送信部1415は、当該情報を解釈サーバ200に送信する。そして、表示部1411は、解釈サーバ200による解釈の結果に対応するサービスにおける検索クエリの候補を示す文字列を表示する。具体的な例を挙げると、利用者が「お腹が空いた」と発話した場合、表示部1411は、ショッピングサービスにおいて食料品を検索するための検索クエリの候補を示す文字列や、飲食店検索サービスにおいて利用者の現在位置に対応する店舗を検索するための検索クエリの候補を示す文字列などを表示する。
[4-3. Character String Displayed by Display Unit 1411]
In the above-described embodiment, the display unit 1411 displays a character string corresponding to the search function provided by the service used by the user, but the function of the display unit 1411 is not limited to such an example. For example, the display unit 1411 may display a character string based on what the user has uttered by activating a voice input application. For example, when the user activates a voice input application and inputs some information by voice, the transmission unit 1415 transmits the information to the interpretation server 200 . Then, the display unit 1411 displays a character string indicating search query candidates in the service corresponding to the result of the interpretation by the interpretation server 200 . As a specific example, when the user utters "I'm hungry," the display unit 1411 displays a character string indicating search query candidates for searching for foodstuffs in a shopping service, a restaurant search, and so on. Display a character string or the like that indicates search query candidates for searching for a store corresponding to the user's current location in the service.

〔4-4.処理態様について〕
上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、逆に、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[4-4. About processing mode]
Of the processes described in the above embodiments, all or part of the processes described as being automatically performed can be manually performed, and conversely, all of the processes described as being manually performed can be performed manually. Alternatively, some can be done automatically by known methods. In addition, information including processing procedures, specific names, and various data and parameters shown in the above text and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.

また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Moreover, each of the embodiments described above can be appropriately combined within a range that does not contradict the processing contents.

〔5.効果〕
上述してきたように、実施形態に係る端末装置100が有する音声入力アプリケーション151は、表示部1411と、受付部1412と、更新部1413と、提示部1414と、送信部1415とを有する。表示部1411は、音声を介して入力される検索クエリの候補であって、利用者が利用するサービスに対応する検索クエリの候補を示す文字列を表示する。受付部1412は、音声を介した情報の入力を利用者から受け付ける。更新部1413は、受付部1412により受け付けられた情報の音声認識の結果に基づいて、文字列の表示態様を更新して表示する。更新部1413は、受付部1412により受け付けられた情報の音声認識の結果に基づいて、文字列の表示態様を更新して表示する。提示部1414は、更新部1413により更新された文字列が所定の条件を満たす場合は、音声を介した新たな情報の入力を受け付けるためのコンテンツを利用者に提示する。送信部1415は、更新部1413により更新された文字列の送信要求を利用者から受け付けた場合は、更新された文字列を検索クエリとして、サービスに対応する検索処理を実行する外部装置に送信する。
[5. effect〕
As described above, the voice input application 151 included in the terminal device 100 according to the embodiment has the display unit 1411, the reception unit 1412, the update unit 1413, the presentation unit 1414, and the transmission unit 1415. The display unit 1411 displays a character string indicating a search query candidate input via voice and corresponding to a service used by the user. The reception unit 1412 receives input of information from the user via voice. The updating unit 1413 updates and displays the display mode of the character string based on the speech recognition result of the information received by the receiving unit 1412 . The updating unit 1413 updates and displays the display mode of the character string based on the speech recognition result of the information received by the receiving unit 1412 . If the character string updated by the update unit 1413 satisfies a predetermined condition, the presentation unit 1414 presents the user with content for receiving input of new information via voice. When a transmission request for a character string updated by the updating unit 1413 is received from the user, the transmitting unit 1415 transmits the updated character string as a search query to an external device that executes search processing corresponding to the service. .

これにより、実施形態に係る端末装置100は、利用者が利用するサービスにおいてどのような機能を音声入力で利用可能かを認識させることができるため、利用者が利用するサービスにおいて適切な検索クエリを提案できる。 As a result, the terminal device 100 according to the embodiment can recognize what functions can be used by voice input in the service used by the user. I can suggest.

また、実施形態に係る端末装置100において、例えば、表示部1411は、サービスが提供する検索機能に対応する文字列を表示する。また、表示部1411は、サービスが提供する検索機能を用いて検索可能な対象を示す文字列を表示する。 Also, in the terminal device 100 according to the embodiment, for example, the display unit 1411 displays a character string corresponding to the search function provided by the service. The display unit 1411 also displays a character string indicating a searchable target using a search function provided by the service.

これにより、実施形態に係る端末装置100は、利用者が利用するサービスにおいてどのような検索機能が利用可能かを認識させることができるため、利用者が利用するサービスにおいて適切な検索クエリを提案できる。 As a result, the terminal device 100 according to the embodiment can recognize what kind of search function can be used in the service used by the user, so that an appropriate search query can be proposed in the service used by the user. .

また、実施形態に係る端末装置100において、例えば、更新部1413は、文字列のうち、音声認識の結果と対応する部分の表示態様を更新する。また、更新部1413は、文字列のうち、音声認識の結果と一致する文字列を強調表示する。 In addition, in the terminal device 100 according to the embodiment, for example, the updating unit 1413 updates the display mode of the part of the character string that corresponds to the voice recognition result. In addition, the updating unit 1413 highlights a character string that matches the speech recognition result among the character strings.

これにより、実施形態に係る端末装置100は、利用者が発話した内容が正しく音声認識されたか否かを把握することが可能となるため、音声入力における利便性を向上できる。 As a result, the terminal device 100 according to the embodiment can recognize whether or not the content uttered by the user has been correctly recognized as voice, thereby improving the convenience of voice input.

また、実施形態に係る端末装置100において、例えば、表示部1411は、利用者の音声を介して入力される文字列が表示される表示領域を含む文字列を表示する。そして、更新部1413は、音声認識の結果が示す文字列を表示領域に表示する。また、表示部1411は、音声を介して入力可能な情報の種別を表示領域に表示する。 In addition, in the terminal device 100 according to the embodiment, for example, the display unit 1411 displays a character string including a display area in which a character string input via the user's voice is displayed. Then, the update unit 1413 displays the character string indicated by the speech recognition result in the display area. In addition, the display unit 1411 displays the types of information that can be input via voice in the display area.

これにより、実施形態に係る端末装置100は、利用者が音声入力すべき情報の種別を表示することで当該情報の音声入力を促し、任意に入力された情報に基づく検索結果を提供することができるため、音声入力における利便性を向上できる。 As a result, the terminal device 100 according to the embodiment prompts the user to input the information by voice by displaying the type of information to be input by voice, and provides search results based on the arbitrarily input information. Therefore, convenience in voice input can be improved.

また、実施形態に係る端末装置100において、例えば、表示部1411は、所定の関連性を有する複数の文字列を表示する領域を含む文字列を表示する。そして、更新部1413は、複数の文字列のうち、音声認識の結果に対応する一の文字列を領域に表示する。 Also, in the terminal device 100 according to the embodiment, for example, the display unit 1411 displays a character string including an area for displaying a plurality of character strings having a predetermined relationship. Then, the updating unit 1413 displays one character string corresponding to the voice recognition result among the plurality of character strings in the area.

これにより、実施形態に係る端末装置100は、利用者が音声入力すべき情報を択一的に表示し、選択させることができるため、音声入力における負担を軽減させ、利便性を向上できる。 As a result, the terminal device 100 according to the embodiment can selectively display and allow the user to select information to be input by voice, thereby reducing the burden of voice input and improving convenience.

また、実施形態に係る端末装置100において、例えば、送信部1415は、受付部1412により受け付けられた情報を、音声の内容を解釈する処理を実行する外部装置に送信する。そして、更新部1413は、外部装置による解釈の結果に基づいて、文字列の表示態様を更新して表示する。 In addition, in the terminal device 100 according to the embodiment, for example, the transmission unit 1415 transmits information received by the reception unit 1412 to an external device that executes processing for interpreting the contents of the voice. Then, the updating unit 1413 updates and displays the display mode of the character string based on the result of the interpretation by the external device.

これにより、実施形態に係る端末装置100は、利用者からの発話の音声認識の結果が、表示部1411が表示した文字列と一致していなくとも、音声認識の結果を解釈した内容が当該文字列と対応する場合には、当該文字列の表示態様を更新することができるため、音声入力における利便性を向上できる。 As a result, even if the result of speech recognition of the user's speech does not match the character string displayed by the display unit 1411, the terminal device 100 according to the embodiment can interpret the result of speech recognition as the character string. Since the display mode of the character string can be updated when it corresponds to the string, convenience in voice input can be improved.

また、実施形態に係る端末装置100において、例えば、提示部1414は、文字列のうち表示態様が更新されていない部分が存在する場合は、当該部分に対応する情報を入力するためのコンテンツを提示する。また、提示部1414は、文字列に含まれる領域であって、利用者の音声を介して入力される文字列が表示される領域に文字列が表示されていない場合は、当該領域に対応する情報を入力するためのコンテンツを提示する。また、提示部1414は、文字列に含まれる領域であって、利用者の音声を介して入力される文字列が表示される領域に表示する文字列の候補であって、音声認識の結果に基づく文字列の候補が複数存在する場合は、当該文字列の候補のいずれかを選択するためのコンテンツを提示する。 In addition, in the terminal device 100 according to the embodiment, for example, when there is a portion of the character string whose display mode has not been updated, the presentation unit 1414 presents content for inputting information corresponding to the portion. do. In addition, when the character string is not displayed in the area included in the character string and in which the character string input via the user's voice is displayed, the presentation unit 1414 displays the character string corresponding to the area. Present content for entering information. In addition, the presentation unit 1414 provides character string candidates to be displayed in an area that is included in the character string and in which the character string input via the user's voice is displayed. If there are multiple candidates for the character string based on it, content for selecting one of the candidates for the character string is presented.

これにより、実施形態に係る端末装置100は、利用者からの発話が正しく認識されず、表示部1411が表示した文字列の一部が更新されてない場合や、表示部1411が表示した文字列の一部(必須項目等)を利用者が発話していない場合、再度の音声入力を促すことができるため、音声入力における利便性を向上できる。 As a result, the terminal device 100 according to the embodiment does not correctly recognize the user's speech, and the character string displayed by the display unit 1411 is partially updated, or the character string displayed by the display unit 1411 is not updated. If the user does not speak a part of (essential items, etc.), it is possible to prompt voice input again, thereby improving the convenience of voice input.

〔6.ハードウェア構成〕
また、上述してきた各実施形態に係る端末装置は、例えば図6に示すような構成のコンピュータ1000によって実現される。以下、端末装置100を例に挙げて説明する。図6は、端末装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、ROM1200、RAM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[6. Hardware configuration]
Also, the terminal device according to each of the embodiments described above is implemented by a computer 1000 configured as shown in FIG. 6, for example. Hereinafter, the terminal device 100 will be described as an example. FIG. 6 is a hardware configuration diagram showing an example of a computer that implements the functions of the terminal device. Computer 1000 has CPU 1100 , ROM 1200 , RAM 1300 , HDD 1400 , communication interface (I/F) 1500 , input/output interface (I/F) 1600 and media interface (I/F) 1700 .

CPU1100は、ROM1200又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1200は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 operates based on programs stored in the ROM 1200 or HDD 1400 and controls each section. The ROM 1200 stores a boot program executed by the CPU 1100 when the computer 1000 is started, programs dependent on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を記憶する。通信インターフェイス1500は、通信網500(実施形態のネットワークNに対応する)を介して他の機器からデータを受信してCPU1100へ送り、また、通信網500を介してCPU1100が生成したデータを他の機器へ送信する。 The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. Communication interface 1500 receives data from another device via communication network 500 (corresponding to network N in the embodiment) and sends it to CPU 1100, and also transmits data generated by CPU 1100 via communication network 500 to other devices. Send to device.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。 The CPU 1100 controls output devices such as displays and printers, and input devices such as keyboards and mice, through an input/output interface 1600 . CPU 1100 acquires data from an input device via input/output interface 1600 . Also, CPU 1100 outputs the generated data to an output device via input/output interface 1600 .

メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1300を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1300上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 Media interface 1700 reads programs or data stored in recording medium 1800 and provides them to CPU 1100 via RAM 1300 . CPU 1100 loads such a program from recording medium 1800 onto RAM 1300 via media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable disc), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. etc.

例えば、コンピュータ1000が端末装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1300上にロードされたプログラムを実行することにより、制御部140の機能を実現する。また、HDD1400には、端末装置100の記憶装置内の各データが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the terminal device 100 , the CPU 1100 of the computer 1000 implements the functions of the control unit 140 by executing programs loaded on the RAM 1300 . Further, each data in the storage device of the terminal device 100 is stored in the HDD 1400 . CPU 1100 of computer 1000 reads these programs from recording medium 1800 and executes them, but as another example, these programs may be obtained from another device via a predetermined communication network.

〔7.その他〕
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
[7. others〕
As described above, some of the embodiments of the present application have been described in detail based on the drawings. It is possible to carry out the invention in other forms with modifications.

また、上述した端末装置100は、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。 In addition, the configuration of the above-described terminal device 100 can be flexibly changed, for example, by calling an external platform or the like using an API (Application Programming Interface), network computing, or the like, depending on the function.

また、特許請求の範囲に記載した「部」は、「手段」や「回路」などに読み替えることができる。例えば、表示部は、表示手段や表示回路に読み替えることができる。 In addition, the "unit" described in the claims can be read as "means", "circuit", or the like. For example, the display section can be read as display means or a display circuit.

100 端末装置
110 通信部
120 入力部
130 出力部
140 制御部
1411 表示部
1412 受付部
1413 更新部
1414 提示部
1415 送信部
142 第1アプリケーション
143 第2アプリケーション
100 terminal device 110 communication unit 120 input unit 130 output unit 140 control unit 1411 display unit 1412 reception unit 1413 update unit 1414 presentation unit 1415 transmission unit 142 first application 143 second application

Claims (16)

音声を介して入力される検索クエリの候補であって、利用者が利用するサービスに対応する検索クエリの候補を示す文字列を表示する表示手順と、
音声を介した情報の入力を前記利用者から受け付ける受付手順と、
前記受付手順により受け付けられた情報の音声認識の結果に基づいて、前記文字列の表示態様を更新して表示する更新手順と
をコンピュータに実行させることを特徴とする更新プログラム。
a display procedure for displaying a character string indicating a search query candidate input via voice and corresponding to a service used by a user;
a reception procedure for receiving input of information via voice from the user;
and an update program for causing a computer to execute an update procedure for updating and displaying the display mode of the character string based on a result of voice recognition of information accepted by the acceptance procedure.
前記表示手順は、
前記サービスが提供する検索機能に対応する前記文字列を表示する
ことを特徴とする請求項1に記載の更新プログラム。
The display procedure is
2. The update program according to claim 1, wherein said character string corresponding to a search function provided by said service is displayed.
前記表示手順は、
前記サービスが提供する検索機能を用いて検索可能な対象を示す前記文字列を表示する
ことを特徴とする請求項1または2に記載の更新プログラム。
The display procedure is
3. The update program according to claim 1, wherein the character string indicating an object that can be searched using a search function provided by the service is displayed.
前記更新手順は、
前記文字列のうち、前記音声認識の結果と対応する部分の表示態様を更新する
ことを特徴とする請求項1から3のいずれか一つに記載の更新プログラム。
The update procedure includes:
The update program according to any one of claims 1 to 3, updating a display mode of a part of the character string corresponding to the speech recognition result.
前記更新手順は、
前記文字列のうち、前記音声認識の結果と一致する文字列を強調表示する
ことを特徴とする請求項4に記載の更新プログラム。
The update procedure includes:
5. The update program according to claim 4, wherein, among the character strings, a character string that matches the speech recognition result is highlighted.
前記表示手順は、
前記利用者の音声を介して入力される文字列が表示される表示領域を含む前記文字列を表示し、
前記更新手順は、
前記音声認識の結果が示す文字列を前記表示領域に表示する
ことを特徴とする請求項1から5のいずれか一つに記載の更新プログラム。
The display procedure is
displaying the character string including a display area in which the character string input via the user's voice is displayed;
The update procedure includes:
The update program according to any one of claims 1 to 5, wherein the character string indicated by the speech recognition result is displayed in the display area.
前記表示手順は、
音声を介して入力可能な情報の種別を前記表示領域に表示する
ことを特徴とする請求項6に記載の更新プログラム。
The display procedure is
7. The update program according to claim 6, wherein a type of information that can be input via voice is displayed in the display area.
前記表示手順は、
所定の関連性を有する複数の文字列を表示する領域を含む前記文字列を表示し、
前記更新手順は、
前記複数の文字列のうち、前記音声認識の結果に対応する一の文字列を前記領域に表示する
ことを特徴とする請求項1から7のいずれか一つに記載の更新プログラム。
The display procedure is
displaying the character string including an area for displaying a plurality of character strings having a predetermined relationship;
The update procedure includes:
The update program according to any one of claims 1 to 7, wherein one character string corresponding to the result of the speech recognition is displayed in the area among the plurality of character strings.
前記更新手順により更新された前記文字列が所定の条件を満たす場合は、音声を介した新たな情報の入力を受け付けるためのコンテンツを前記利用者に提示する提示手順
をさらに実行させることを特徴とする請求項1から8のいずれか一つに記載の更新プログラム。
and further executing a presentation procedure of presenting to the user content for receiving input of new information via voice when the character string updated by the update procedure satisfies a predetermined condition. The update program according to any one of claims 1 to 8.
前記提示手順は、
前記文字列のうち表示態様が更新されていない部分が存在する場合は、当該部分に対応する情報を入力するための前記コンテンツを提示する
ことを特徴とする請求項9に記載の更新プログラム。
The presentation procedure includes:
10. The update program according to claim 9, wherein if there is a portion of the character string whose display mode has not been updated, the content for inputting information corresponding to the portion is presented.
前記提示手順は、
前記文字列に含まれる領域であって、前記利用者の音声を介して入力される文字列が表示される領域に文字列が表示されていない場合は、当該領域に対応する情報を入力するための前記コンテンツを提示する
ことを特徴とする請求項9または10に記載の更新プログラム。
The presentation procedure includes:
To input information corresponding to the area included in the character string, if the character string is not displayed in the area where the character string input through the user's voice is displayed 11. The update program according to claim 9 or 10, presenting the content of .
前記提示手順は、
前記文字列に含まれる領域であって、前記利用者の音声を介して入力される文字列が表示される領域に表示する文字列の候補であって、前記音声認識の結果に基づく文字列の候補が複数存在する場合は、当該文字列の候補のいずれかを選択するための前記コンテンツを提示する
ことを特徴とする請求項9から11のいずれか一つに記載の更新プログラム。
The presentation procedure includes:
A character string candidate to be displayed in an area that is included in the character string and in which the character string input via the user's voice is displayed, the character string based on the result of the speech recognition. 12. The update program according to any one of claims 9 to 11, wherein when there are a plurality of candidates, the content for selecting one of the candidates for the character string is presented.
前記受付手順により受け付けられた情報を、音声の内容を解釈する処理を実行する外部装置に送信する第1送信手順
をさらに実行させ、
前記更新手順は、
前記外部装置による解釈の結果に基づいて、前記文字列の表示態様を更新して表示する
ことを特徴とする請求項1から12のいずれか一つに記載の更新プログラム。
further executing a first transmission procedure for transmitting the information accepted by the acceptance procedure to an external device that executes a process of interpreting the contents of the voice;
The update procedure includes:
The update program according to any one of claims 1 to 12, wherein the display mode of the character string is updated and displayed based on the result of interpretation by the external device.
前記更新手順により更新された前記文字列の送信要求を前記利用者から受け付けた場合は、更新された前記文字列を検索クエリとして、前記サービスに対応する検索処理を実行する外部装置に送信する第2送信手順
をさらに実行させることを特徴とする請求項1から13のいずれか一つに記載の更新プログラム。
When a transmission request for the character string updated by the updating procedure is received from the user, the updated character string is transmitted as a search query to an external device that executes search processing corresponding to the service. 14. The update program according to any one of claims 1 to 13, further causing a 2 transmission procedure to be executed.
音声を介して入力される検索クエリの候補であって、利用者が利用するサービスに対応する検索クエリの候補を示す文字列を表示する表示部と、
音声を介した情報の入力を前記利用者から受け付ける受付部と、
前記受付部により受け付けられた情報の音声認識の結果に基づいて、前記文字列の表示態様を更新して表示する更新部と
を有することを特徴とする更新装置。
a display unit that displays a character string that is a search query candidate input via voice and that indicates a search query candidate corresponding to a service used by a user;
a reception unit that receives input of information via voice from the user;
and an updating unit that updates and displays a display mode of the character string based on a result of voice recognition of the information received by the receiving unit.
コンピュータが実行する更新方法であって、
音声を介して入力される検索クエリの候補であって、利用者が利用するサービスに対応する検索クエリの候補を示す文字列を表示する表示工程と、
音声を介した情報の入力を前記利用者から受け付ける受付工程と、
前記受付工程により受け付けられた情報の音声認識の結果に基づいて、前記文字列の表示態様を更新して表示する更新工程と
を含むことを特徴とする更新方法。
A computer implemented update method comprising:
a display step of displaying a character string indicating a search query candidate input via voice, which is a search query candidate corresponding to a service used by a user;
a receiving step of receiving input of information via voice from the user;
and an updating step of updating and displaying the display mode of the character string based on a result of speech recognition of the information received by the receiving step.
JP2021007513A 2021-01-20 2021-01-20 Update program, update device, and update method Pending JP2022111842A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021007513A JP2022111842A (en) 2021-01-20 2021-01-20 Update program, update device, and update method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021007513A JP2022111842A (en) 2021-01-20 2021-01-20 Update program, update device, and update method

Publications (1)

Publication Number Publication Date
JP2022111842A true JP2022111842A (en) 2022-08-01

Family

ID=82655708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021007513A Pending JP2022111842A (en) 2021-01-20 2021-01-20 Update program, update device, and update method

Country Status (1)

Country Link
JP (1) JP2022111842A (en)

Similar Documents

Publication Publication Date Title
US12086541B2 (en) Natural query completion for a real-time morphing interface
CN111277706B (en) Application recommendation method and device, storage medium and electronic equipment
US10067938B2 (en) Multilingual word prediction
US10592601B2 (en) Multilingual word prediction
CN107330120B (en) Inquire answer method, inquiry answering device and computer readable storage medium
US20190171339A1 (en) Method, system, and apparatus for executing an action related to user selection
KR102223727B1 (en) Systems and methods for providing content selection
AU2013287433B2 (en) User interface apparatus and method for user terminal
KR102197560B1 (en) Intelligent automated assistant
CN109885251A (en) Information processing unit, information processing method and storage medium
JP2018536218A (en) Action proposal for user-selected content
WO2019024692A1 (en) Speech input method and device, computer equipment and storage medium
US10013152B2 (en) Content selection disambiguation
WO2013155619A1 (en) Conversational agent
US20150039318A1 (en) Apparatus and method for selecting control object through voice recognition
JP6983118B2 (en) Dialogue system control methods, dialogue systems and programs
KR102596841B1 (en) Electronic device and method for providing one or more items responding to speech of user
CN105874531B (en) Terminal device, server device, and computer-readable recording medium
JP6408080B1 (en) Generating device, generating method, and generating program
JP6712940B2 (en) Voice input device, voice input method
US9773038B2 (en) Apparatus and method for starting up software
JP2022111842A (en) Update program, update device, and update method
KR20160119740A (en) System for providing the customized information based on user's intention, method thereof, and recordable medium storing the method
JP2020107283A (en) Information processor, information processing method, program
JP7191763B2 (en) Conversion device, conversion method and conversion program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231120