JP5584603B2 - Information providing system and information providing apparatus - Google Patents

Information providing system and information providing apparatus Download PDF

Info

Publication number
JP5584603B2
JP5584603B2 JP2010272059A JP2010272059A JP5584603B2 JP 5584603 B2 JP5584603 B2 JP 5584603B2 JP 2010272059 A JP2010272059 A JP 2010272059A JP 2010272059 A JP2010272059 A JP 2010272059A JP 5584603 B2 JP5584603 B2 JP 5584603B2
Authority
JP
Japan
Prior art keywords
information
unit
source
voice
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010272059A
Other languages
Japanese (ja)
Other versions
JP2012123492A (en
Inventor
勲 石橋
貴克 山下
徳親 板東
治樹 福山
貴洋 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2010272059A priority Critical patent/JP5584603B2/en
Publication of JP2012123492A publication Critical patent/JP2012123492A/en
Application granted granted Critical
Publication of JP5584603B2 publication Critical patent/JP5584603B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、ユーザの要求に応じた情報を提供する情報提供システムおよび情報提供装置に関する。   The present invention relates to an information providing system and an information providing apparatus that provide information according to a user's request.

近年、インターネットの普及により各種のサーバ装置から様々な情報が提供されるようになってきている。そして、このように提供される情報量は増大の一途を辿っており、従来であればすぐに入手できなかった情報であっても、インターネットからすぐに取得することが可能となってきており、利便性が高い。   In recent years, with the spread of the Internet, various information has been provided from various server devices. And the amount of information provided in this way is steadily increasing, and even if it was information that could not be obtained immediately before, it has become possible to obtain it immediately from the Internet. Convenience is high.

そのため、様々な機器でインターネットから情報を取得することができるようになってきている。このことは、カーナビゲーション装置などの車載装置においても同様であり、インターネットに接続して、様々な情報を入手する車載装置が提案されている(例えば、特許文献1)。   For this reason, it has become possible to acquire information from the Internet with various devices. The same applies to in-vehicle devices such as a car navigation device, and an in-vehicle device that connects to the Internet and obtains various information has been proposed (for example, Patent Document 1).

かかる車載装置では、運転中のドライバーが文字入力を行うことが困難であることから、音声認識機能を有しており、かかる機能によって、インターネットからの情報取得を可能としている。   Such an in-vehicle device has a voice recognition function because it is difficult for a driving driver to input characters, and this function enables information acquisition from the Internet.

特に、かかる車載装置では、ユーザの会話からユーザの興味特定に使用するキーワードを抽出し、さらに、ユーザの精神状態を検出して、これらの情報に応じた情報をウェブサイトなどから検索し、収集する。   In particular, in such an in-vehicle device, a keyword used for identifying the user's interest is extracted from the user's conversation, and further, the user's mental state is detected, and information corresponding to the information is searched from a website and collected. To do.

特開2009−294790号公報JP 2009-294790 A

しかしながら、上記車載装置では、車内での乗員間の会話から乗員の嗜好を判断してウェブサイトなどのソースから情報を動的に検索して収集するものであり、乗員間の会話が必要となる。従って、車内の乗員の一人がインターネットから積極的に検索することができない。しかも、ユーザの精神状態を検知する必要があるため、構成や処理が複雑となる。   However, in the in-vehicle device, the passenger's preference is determined from the conversation between the passengers in the vehicle, and information is dynamically searched and collected from a source such as a website, and the conversation between the passengers is required. . Therefore, one of the passengers in the vehicle cannot actively search from the Internet. Moreover, since it is necessary to detect the mental state of the user, the configuration and processing become complicated.

一方、音声認識を用いて、音声をテキストデータへ変換して、かかるテキストデータを用いてインターネット上の情報を検索し、収集することも考えられるが、インターネット上に存在する情報は莫大な量であることから、所望の情報を入手することは容易ではない。   On the other hand, it is conceivable to use speech recognition to convert speech into text data, and to search and collect information on the Internet using such text data. However, there is an enormous amount of information on the Internet. For this reason, it is not easy to obtain desired information.

すなわち、音声認識を用いて、音声をテキストデータへ変換したとしても、情報の絞り込みを行うために、ユーザは多くの言葉を口にする必要がある。しかし、ドライバーは運転操作に注意を向ける必要があり、情報の絞り込みのために多くの言葉を口にしたり、音声認識に基づく装置の動作に対して更に適切な操作を行なうと言ったことは困難である。また、近年では、車載に用いられる装置に限らず、直感的に情報を検索することのできる装置が求められている。   That is, even if voice is converted into text data using voice recognition, the user needs to speak many words in order to narrow down information. However, the driver needs to pay attention to the driving operation, and it is difficult to say that he / she speaks a lot of words to narrow down the information and that he / she performs more appropriate operation for the operation of the device based on voice recognition. It is. In recent years, there is a demand for an apparatus capable of intuitively searching for information without being limited to an apparatus used in a vehicle.

本発明は、上述した従来技術の課題を解決するためになされたものであり、ユーザによる操作要求を低減し、ユーザが直感的に操作することができる情報提供システムおよび情報提供装置を提供することを目的とする。   The present invention has been made to solve the above-described problems of the prior art, and provides an information providing system and an information providing apparatus that can reduce an operation request by a user and can be intuitively operated by the user. With the goal.

上述した課題を解決し、目的を達成するために、本発明は、ユーザの要求に応じた情報を提供する情報提供システムであって、前記ユーザが目的とする前記ユーザの動作に対応して設定されるソース種別とキーワードとを関連づける第1辞書データと、情報を提供するソースと前記ソース種別とを関連づける第2辞書データとを記憶する記憶部と、前記要求に応じたテキストデータを取得する取得部と、前記取得部によって取得されたテキストデータに含まれるキーワードおよび前記第1辞書データに基づいて、1以上の前記ソース種別を決定する決定部と、前記第2辞書データに基づいて、前記決定部によって決定されたソース種別に関連づけられたソースを選択し、当該選択したソースから情報を検索する検索部と、前記検索部によって検索された情報を提示する情報提供部とを備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention is an information providing system that provides information according to a user's request, and is set according to the user's intended operation of the user a storage unit for storing the first dictionary data relating the source type and the keyword, a source for providing information and a second dictionary data associating said source type is, acquisition for acquiring text data corresponding to the request A determination unit that determines one or more source types based on a keyword and the first dictionary data included in the text data acquired by the acquisition unit, and the determination based on the second dictionary data A search unit that selects a source associated with the source type determined by the unit and searches for information from the selected source, and the search unit And an information providing unit for presenting the searched information.

本発明によれば、ユーザによる操作要求を低減し、ユーザが直感的に操作することが可能となる。   According to the present invention, it is possible to reduce operation requests by the user and allow the user to operate intuitively.

図1は、本発明に係る一実施形態の情報提供手法の概要を示す図である。FIG. 1 is a diagram showing an outline of an information providing method according to an embodiment of the present invention. 図2は、本実施例に係る情報提供システムおよび車載装置の構成を示すブロック図である。FIG. 2 is a block diagram illustrating the configuration of the information providing system and the in-vehicle device according to the present embodiment. 図3は、音声認識サーバの構成を示すブロック図である。FIG. 3 is a block diagram showing the configuration of the voice recognition server. 図4は、情報解析サーバの構成を示すブロック図である。FIG. 4 is a block diagram showing the configuration of the information analysis server. 図5は、解析辞書データの一例を示す図である。FIG. 5 is a diagram illustrating an example of analysis dictionary data. 図6は、解析データの一例を示す図である。FIG. 6 is a diagram illustrating an example of analysis data. 図7は、選択画面の一例を示す図である。FIG. 7 is a diagram illustrating an example of the selection screen. 図8は、コンテンツ再生画面の一例を示す図である。FIG. 8 is a diagram illustrating an example of a content playback screen. 図9は、車載装置が実行する処理手順の概要を示すフローチャートである。FIG. 9 is a flowchart showing an outline of a processing procedure executed by the in-vehicle device. 図10は、音声認識サーバが実行する処理手順の概要を示すフローチャートである。FIG. 10 is a flowchart showing an outline of a processing procedure executed by the voice recognition server. 図11は、情報解析サーバが実行する処理手順の概要を示すフローチャートである。FIG. 11 is a flowchart illustrating an outline of a processing procedure executed by the information analysis server. 図12は、本実施例に係る情報提供システムおよび携帯端末装置の構成を示すブロック図である。FIG. 12 is a block diagram illustrating a configuration of the information providing system and the mobile terminal device according to the present embodiment.

以下に添付図面を参照して、本発明に係る情報提供システムおよび情報提供装置の好適な実施例を詳細に説明する。なお、以下では、本発明に係る一実施形態の情報提供手法の概要について図1を用いて説明した後に、本発明に係る情報提供システムおよび情報提供装置についての実施例を図2〜図12を用いて説明することとする。ここで、本発明に係る情報提供装置として、車載装置を実施の形態の一例として記載するが、本願に記載された情報提供手法を適用できる情報提供装置は、車載装置に限定されず、情報を検索し、検索された情報を提供する機能を有する可搬型の携帯端末装置(PND、携帯電話、携帯型表示端末など)であってもよい。なお、情報提供装置はユーザ端末装置の一例である。   Exemplary embodiments of an information providing system and an information providing apparatus according to the present invention will be described below in detail with reference to the accompanying drawings. In the following, an outline of an information providing method according to an embodiment of the present invention will be described with reference to FIG. 1, and then an example of an information providing system and an information providing apparatus according to the present invention will be described with reference to FIGS. It will be explained using. Here, an in-vehicle device is described as an example of an embodiment as an information providing device according to the present invention, but the information providing device to which the information providing method described in the present application is applicable is not limited to the in-vehicle device, It may be a portable mobile terminal device (PND, mobile phone, mobile display terminal, etc.) having a function of searching and providing the searched information. The information providing device is an example of a user terminal device.

まず、本実施形態に係る情報提供手法の概要について図1を用いて説明する。図1は、本実施形態に係る情報提供手法の概要を示す図である。   First, an outline of the information providing method according to the present embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an overview of an information providing method according to the present embodiment.

本実施形態に係る情報提供手法は、ユーザの要求に応じたテキストデータに基づいて検索対象のソース種別を決定し、かかるソース種別に関するソースからテキストデータに応じた情報を検索して、情報をユーザへ提示するものである。   The information providing method according to the present embodiment determines a source type to be searched based on text data according to a user's request, searches information according to the text data from a source related to the source type, and sends the information to the user. To be presented.

なお、ソース種別とは、例えば、「見る」、「聴く」、「行く」などのように、ユーザが目的とする動作に基づいて設定される種別である。かかるソース種別は、1以上のソースと予め関連づけられている。   Note that the source type is a type set based on an operation intended by the user, such as “see”, “listen”, and “go”. Such source type is associated with one or more sources in advance.

また、ソースとは、例えば、情報を提供することができる装置などを意味する。例えば、インターネット上のソースとして、ウェブサーバやデータベースサーバなどの各種のサーバがある。なお、ここでは、一つのウェブサーバに一つのウェブサイトがあることを前提として説明するが、一つのウェブサーバに複数のウェブサイトがある場合には、それぞれのウェブサイトがソースとなる。   The source means a device that can provide information, for example. For example, as a source on the Internet, there are various servers such as a web server and a database server. Here, the description will be made on the assumption that there is one website on one web server. However, when there are a plurality of websites on one web server, each website is a source.

ここでは、一例として、ユーザが「見る」という動作を目的とする場合のソース種別を「ソース種別A」とし、ユーザが「聴く」という動作を目的とする場合のソース種別を「ソース種別B」とし、ユーザが「行く」という動作を目的とする場合のソース種別を「ソース種別C」とする。   Here, as an example, the source type when the user intends the operation “view” is “source type A”, and the source type when the user aims the operation “listen” is “source type B”. The source type when the user intends to “go” is “source type C”.

また、ソース種別Aに関するソースは、動画情報を提供するソース(以下、「動画サイト」と記載する)であり、ソース種別Bに関するソースは、音楽情報を提供するウェブサイト(以下、「音楽サイト」と記載する)であり、ソース種別Cに関するウェブサイトは、地域情報を提供するウェブサイト(以下、「地域情報サイト」と記載する)であるものとする。   The source related to source type A is a source that provides video information (hereinafter referred to as “video site”), and the source related to source type B is a website that provides music information (hereinafter referred to as “music site”). It is assumed that the website regarding the source type C is a website providing regional information (hereinafter referred to as “regional information site”).

ソース種別に関するソースは、予め辞書データにより設定される。具体的には、辞書データには、ソース種別Aと所定の動画サイトとを関連づける情報と、ソース種別Bと所定の音楽サイトとを関連づける情報と、ソース種別Cと所定の地域情報サイトとを関連づける情報とが含まれているものとする。なお、各ソース種別に関連づけられるソースは、一つであっても複数であってもよい。   The source related to the source type is set in advance by dictionary data. Specifically, the dictionary data associates information that associates the source type A with a predetermined video site, information that associates the source type B with a predetermined music site, and a source type C and a predetermined area information site. Information. Note that there may be one or more sources associated with each source type.

なお、動画サイトが提供する情報には各種の動画コンテンツが含まれ、音楽サイトが提供する情報には各種の音楽コンテンツが含まれ、地域情報サイトが提供する情報には各種の地域情報コンテンツが含まれる。また、これらのコンテンツは、アドレス指定により各サイトから取得することができる。   The information provided by the video site includes various types of video content, the information provided by the music site includes various types of music content, and the information provided by the regional information site includes various types of local information content. It is. These contents can be acquired from each site by addressing.

図1の(A)に示されるように、ユーザPが「△△△」という言葉を発したとする。このとき、「△△△」という音声が車載装置1に入力される(図1の(1)参照)。なお、「△△△」は、検索のためのキーワードであり、例えば、歌手名や施設名などである。   As shown in FIG. 1A, it is assumed that the user P has issued the word “ΔΔΔ”. At this time, the voice “ΔΔΔ” is input to the in-vehicle device 1 (see (1) in FIG. 1). “ΔΔΔ” is a keyword for search, and is, for example, a singer name or a facility name.

車載装置1は、入力された音声「△△△」をデジタル変換して音声データとし、音声認識サーバへ送信する(図1の(2)参照)。音声認識サーバ2は、車載装置1から受信した音声データの音声認識を行って、かかる音声データをテキストデータへ変換する(図1の(3)参照)。   The in-vehicle device 1 digitally converts the input voice “ΔΔΔ” into voice data and transmits the voice data to the voice recognition server (see (2) in FIG. 1). The voice recognition server 2 performs voice recognition of the voice data received from the in-vehicle device 1 and converts the voice data into text data (see (3) in FIG. 1).

このように音声認識サーバ2によって変換されたテキストデータは、音声認識結果として車載装置1へ送信される(図1の(4)参照)。車載装置1は、音声認識サーバ2から音声認識結果であるテキストデータを受信すると、かかるテキストデータを情報解析サーバ3へ送信する(図1の(5)参照)。   The text data thus converted by the voice recognition server 2 is transmitted to the in-vehicle device 1 as a voice recognition result (see (4) in FIG. 1). When the in-vehicle device 1 receives text data as a speech recognition result from the speech recognition server 2, the in-vehicle device 1 transmits the text data to the information analysis server 3 (see (5) in FIG. 1).

情報解析サーバ3は、車載装置1からテキストデータを受信すると、かかるテキストデータを解析する。車載装置1から送信されるテキストデータは、「△△△」を示すデータを含み、情報解析サーバ3は、解析辞書データを参照して、「△△△」を関連づけられたソース種別の情報を決定する。   When the information analysis server 3 receives the text data from the in-vehicle device 1, the information analysis server 3 analyzes the text data. The text data transmitted from the in-vehicle device 1 includes data indicating “ΔΔΔ”, and the information analysis server 3 refers to the analysis dictionary data to obtain the information of the source type associated with “ΔΔΔ”. decide.

例えば、解析辞書データにおいて「△△△」がソース種別Aおよびソース種別Bと関連づけられている場合、情報解析サーバ3は、「△△△」を関連づけられたソース種別が、ソース種別Aおよびソース種別Bであると決定する。   For example, when “ΔΔΔ” is associated with source type A and source type B in the analysis dictionary data, the information analysis server 3 determines that the source type associated with “ΔΔΔ” is the source type A and the source type. The type B is determined.

そして、情報解析サーバ3は、決定したソース種別に関するソースから「△△△」に関する情報を検索する(図1の(6)参照)。上述したように、情報解析サーバ3は、ソース種別とソースとを関連づけた情報を解析辞書データ内に含んでおり、かかる情報を参照して、ソース種別に関するソースを判定する。   Then, the information analysis server 3 searches for information related to “ΔΔΔ” from the sources related to the determined source type (see (6) in FIG. 1). As described above, the information analysis server 3 includes information in which the source type and the source are associated with each other in the analysis dictionary data, and determines a source related to the source type with reference to the information.

具体的には、ソース種別Aには所定の動画サイトが関連づけられており、情報解析サーバ3は、かかる動画サイトから「△△△」に関する情報を検索する。また、ソース種別Bには所定の音楽サイトが関連づけられており、情報解析サーバ3は、かかる音楽サイトから「△△△」に関する音楽コンテンツを検索する。   Specifically, a predetermined moving image site is associated with the source type A, and the information analysis server 3 searches the moving image site for information related to “ΔΔΔ”. In addition, a predetermined music site is associated with the source type B, and the information analysis server 3 searches for music content related to “ΔΔΔ” from the music site.

このように、「△△△」に対応するソース種別には、予めソースが関連づけられているため、「△△△」の検索範囲を絞ることができ、検索処理の効率化を図ることができる。   Thus, since the source is associated with the source type corresponding to “ΔΔΔ” in advance, the search range of “ΔΔΔ” can be narrowed down, and the efficiency of the search process can be improved. .

つづいて、情報解析サーバ3は、検索結果を車載装置1へ送信する(図1の(7)参照)。送信結果を受信した車載装置1は、かかる検索結果に複数のソース種別に関する情報が含まれているときには、ソース種別を選択させるための選択画面(要求画面の一例)をユーザPへ提示する。   Subsequently, the information analysis server 3 transmits the search result to the in-vehicle device 1 (see (7) in FIG. 1). The in-vehicle device 1 that has received the transmission result presents a selection screen (an example of a request screen) for selecting the source type to the user P when the search result includes information on a plurality of source types.

ここでは、ソース種別Aに関するソースの情報とソース種別Bに関するソースの情報とが含まれているため、図1の(B)に示されるように、ソース種別Aを選択するためのボタン4aと、ソース種別Bを選択するためのボタン4bとが選択画面に提示される。この場合、ソース種別Aを選択するためのボタン4aには「見る」というユーザの動作が表示されており、ソース種別Bを選択するためのボタン4bには「聴く」というユーザの動作が表示されている。これにより、ユーザは、何がしたくて情報の検索を行ったのかという動作の目的に基づいてソースの選択が判断できるため、直感的で分かりやすい操作が可能となる。   Here, since the source information related to the source type A and the source information related to the source type B are included, a button 4a for selecting the source type A as shown in FIG. A button 4b for selecting the source type B is presented on the selection screen. In this case, the user's operation “view” is displayed on the button 4a for selecting the source type A, and the user's operation “listening” is displayed on the button 4b for selecting the source type B. ing. Accordingly, the user can determine the selection of the source based on the purpose of the operation that the user has searched for information to do, so that an intuitive and easy-to-understand operation is possible.

なお、本実施例では、ボタンを操作させる選択画面としたが、ソース種別の選択を要求するものであればよく、これに限られない。例えば、音声入力によりソース種別の選択を可能としてもよい。この場合、ボタン4aに表示された「見る」又はボタン4bに表示された「聴く」という言葉を発声すれば、音声認識処理が実行され、ソース種別を選択できる。   In this embodiment, the selection screen for operating the buttons is used. However, the selection screen is not limited to this as long as it requests the selection of the source type. For example, the source type may be selected by voice input. In this case, if the word “view” displayed on the button 4a or “listen” displayed on the button 4b is uttered, the speech recognition process is executed, and the source type can be selected.

ユーザPが選択画面においていずれかのボタンを選択すると、選択したボタンに対応するソース種別に関する情報がユーザPへ提示される(図1の(8)参照)。例えば、選択画面においてソース種別Aが選択された場合、図1の(C)に示されるように、「△△△」に関する動画コンテンツ名のリストが提示される。   When the user P selects any button on the selection screen, information on the source type corresponding to the selected button is presented to the user P (see (8) in FIG. 1). For example, when the source type A is selected on the selection screen, a list of moving image content names related to “ΔΔΔ” is presented as shown in FIG.

そして、リスト表示された動画コンテンツ名から所望の動画コンテンツをユーザPが選択することにより、「△△△」に関する動画コンテンツが車載装置1によって再生される。なお、動画コンテンツ名をリスト表示して動画コンテンツを選択させるのではなく、「△△△」に関する複数の動画コンテンツを順次再生するようにしてもよい。   Then, when the user P selects a desired moving image content from the displayed moving image content name, the moving image content related to “ΔΔΔ” is reproduced by the in-vehicle device 1. Instead of displaying the moving image content name in a list and selecting the moving image content, a plurality of moving image contents related to “ΔΔΔ” may be sequentially reproduced.

また、情報解析サーバ3から受信した送信結果に一つのソース種別に関する情報のみが含まれているときには、ソース種別の選択要求は行われず、コンテンツをリスト表示する。この場合も同様に、リスト表示を行わずに、複数のコンテンツを連続してユーザに順次提示するようにしてもよい。   When the transmission result received from the information analysis server 3 includes only information related to one source type, the source type selection request is not made and the content is displayed in a list. In this case as well, a plurality of contents may be successively presented to the user sequentially without displaying the list.

また、再生するコンテンツは、情報解析サーバ3から取得することもでき(情報解析サーバ3が一旦当該情報を取得して記憶し、その記憶した情報を提供)、また、再生しようとするコンテンツを有するソースから情報解析サーバ3を介さずに直接取得するようすることもできる。車載装置1は、再生しようとするコンテンツを情報解析サーバ3やソースに要求し、情報解析サーバ3やソースから送信されるコンテンツを再生する。なお、情報解析サーバ3から送信される検索結果にコンテンツを含める(情報解析サーバ3が解析結果に基づき検索まで行い、さらにその検索結果に該当するコンテンツを取得し、検索結果と当該コンテンツを車載装置1に送信する)ようにしてもよい。   Also, the content to be played back can be acquired from the information analysis server 3 (the information analysis server 3 once acquires and stores the information and provides the stored information), and has the content to be played back. It is also possible to obtain directly from the source without going through the information analysis server 3. The in-vehicle device 1 requests content to be reproduced from the information analysis server 3 and the source, and reproduces the content transmitted from the information analysis server 3 and the source. The content is included in the search result transmitted from the information analysis server 3 (the information analysis server 3 performs the search based on the analysis result, further acquires the content corresponding to the search result, and the search result and the content are included in the in-vehicle device. 1).

このように、ユーザPは、キーワードとして「△△△」を発声して、「見る」、「聴く」のいずれかを選択することによって、「△△△」に関する所望の情報を取得することができる。したがって、文字入力や音声入力を繰り返して検索を行う場合に比べて、ユーザによる操作要求を低減し、ユーザが直感的に操作することができる。   In this way, the user P can obtain desired information regarding “ΔΔΔ” by uttering “ΔΔΔ” as a keyword and selecting either “view” or “listen”. it can. Therefore, compared with the case where a search is performed by repeating character input and voice input, the operation request by the user is reduced, and the user can operate intuitively.

なお、解析辞書データとして、地域別の解析辞書データを用意しておき、車載装置1から送信される現在位置情報や目的地情報などに基づいて、キーワードとソース種別との関連づけ、ソース種別とソースとの関連づけなどを変更することもできる。このようにすることで、地域に応じた情報を得ることが可能となる。   Note that regional analysis dictionary data is prepared as analysis dictionary data, and the keyword and source type are associated with each other based on the current position information and destination information transmitted from the in-vehicle device 1, and the source type and source. You can also change the association with. By doing in this way, it becomes possible to obtain the information according to the area.

以下では、図1を用いて説明した情報提供手法を適用した情報提供システムおよび車載装置についての実施例を詳細に説明する。   Below, the Example about the information provision system and vehicle equipment which applied the information provision method demonstrated using FIG. 1 is described in detail.

まず、本実施例に係る情報提供システムおよび情報提供装置の構成について図2を用いて説明する。図2は、本実施例に係る情報提供システムおよび車載装置(情報提供装置)の構成を示す図である。ここで、本発明に係る情報提供装置として、車載装置を実施の形態の一例として記載するが、本願に記載された情報提供手法を適用できる装置としては、車載装置に限定されず、情報を検索し、検索された情報を提供する機能を有する可搬型の携帯端末装置(PND、携帯電話、携帯型表示端末など)であってもよい。   First, the configuration of the information providing system and the information providing apparatus according to the present embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating a configuration of the information providing system and the in-vehicle device (information providing device) according to the present embodiment. Here, as an information providing device according to the present invention, an in-vehicle device is described as an example of the embodiment, but the device to which the information providing method described in the present application can be applied is not limited to the in-vehicle device, and information is searched. In addition, it may be a portable portable terminal device (PND, cellular phone, portable display terminal, etc.) having a function of providing searched information.

図2に示すように、情報提供システムSは、車載装置10と、携帯端末装置20と、音声認識サーバ30と、情報解析サーバ40とを含んでいる。そして、車載装置10は、携帯端末装置20を介して、音声認識サーバ30や情報解析サーバ40と通信可能に接続される。   As shown in FIG. 2, the information providing system S includes an in-vehicle device 10, a mobile terminal device 20, a voice recognition server 30, and an information analysis server 40. The in-vehicle device 10 is connected to the voice recognition server 30 and the information analysis server 40 via the mobile terminal device 20 so as to be communicable.

具体的には、車載装置10と携帯端末装置20とは無線通信によって通信可能となっており、音声認識サーバ30や情報解析サーバ40は、インターネット22に接続されている。そして、携帯端末装置20は、無線基地局21を介してインターネット22に接続される。   Specifically, the in-vehicle device 10 and the mobile terminal device 20 can communicate with each other by wireless communication, and the voice recognition server 30 and the information analysis server 40 are connected to the Internet 22. The mobile terminal device 20 is connected to the Internet 22 via the radio base station 21.

本実施例に係る情報提供システムSは、このように構成されているため、車載装置10は、携帯端末装置20によって、音声認識サーバ30や情報解析サーバ40と通信可能であるが、各装置の接続形態はこれに限られない。   Since the information providing system S according to the present embodiment is configured as described above, the in-vehicle device 10 can communicate with the voice recognition server 30 and the information analysis server 40 by the mobile terminal device 20. The connection form is not limited to this.

例えば、車載装置10が基地局21を介して、音声認識サーバ30や情報解析サーバ40と通信する構成であってもよい。この場合、車載装置10には、基地局21と通信するための無線通信I/Fを設ける必要がある。また、音声認識サーバ30や情報解析サーバ40は、インターネット22ではなく電話通信網などの他のネットワークに接続されるようにしてもよい。   For example, the vehicle-mounted device 10 may be configured to communicate with the voice recognition server 30 or the information analysis server 40 via the base station 21. In this case, the in-vehicle device 10 needs to be provided with a wireless communication I / F for communicating with the base station 21. Further, the voice recognition server 30 and the information analysis server 40 may be connected not to the Internet 22 but to other networks such as a telephone communication network.

また、ここでは、コンテンツなどの情報を提供するソースの一例として、ウェブサーバ501〜506がインターネット22に接続されていることとして説明するが、情報を提供することができるものであれよい。例えば、データベースサーバやファイル転送サーバなどのサーバであってもよい。なお、説明を分かり易くするため、ここでは、各ウェブサーバ501〜506は、一つのウェブサイトのみを有するものとする。 In addition, here, as an example of a source that provides information such as content, the web servers 50 1 to 50 6 are described as being connected to the Internet 22, but the information may be provided. For example, a server such as a database server or a file transfer server may be used. For easy understanding, it is assumed here that each of the web servers 50 1 to 50 6 has only one website.

まず、車載装置10の構成について説明する。車載装置10は、カーナビゲーション機能やカーオーディオ機能などの機能を有しているが、図2では、車載装置10の特徴を説明するために必要な構成要素を主に示しており、一般的な構成要素についての記載を省略している。   First, the configuration of the in-vehicle device 10 will be described. The in-vehicle device 10 has functions such as a car navigation function and a car audio function, but FIG. 2 mainly shows components necessary for explaining the features of the in-vehicle device 10. The description about the component is omitted.

図2に示すように、車載装置10は、近距離通信部11と、マイク12と、表示操作部13と、スピーカ14と、制御部15とを備えている。   As shown in FIG. 2, the in-vehicle device 10 includes a short-range communication unit 11, a microphone 12, a display operation unit 13, a speaker 14, and a control unit 15.

近距離通信部11は、ブルートゥース(Bluetooth:登録商標)などの近距離無線通信を用いて携帯端末装置20との通信リンクをそれぞれ確立するとともに、確立した各通信リンクを用いて車載装置10と携帯端末装置20との間の通信処理を行う。   The short-range communication unit 11 establishes a communication link with the portable terminal device 20 using short-range wireless communication such as Bluetooth (registered trademark), and is carried with the vehicle-mounted device 10 using each established communication link. Communication processing with the terminal device 20 is performed.

ここで、ブルートゥース(登録商標)とは、2.4GHzの周波数帯を用いて半径数10m程度の無線通信を行う近距離無線通信規格であり、近年では、携帯電話やパーソナルコンピュータなどの電子機器に広く適用されている。   Here, Bluetooth (registered trademark) is a short-range wireless communication standard for performing wireless communication with a radius of several tens of meters using a 2.4 GHz frequency band. In recent years, it has been applied to electronic devices such as mobile phones and personal computers. Widely applied.

ここでは、ブルートゥース(登録商標)を用いて車載装置10/携帯端末装置20間の通信を行う場合について説明するが、Wi−Fi(ワイファイ:登録商標)、ZigBee(ジグビー:登録商標)といった他の無線通信規格を用いることとしてもよい。また、車載装置10と携帯端末装置20との間の通信を有線通信で行うこととしてもよい。   Here, a case where communication between the in-vehicle device 10 and the mobile terminal device 20 is performed using Bluetooth (registered trademark) will be described, but other types such as Wi-Fi (Wi-Fi: registered trademark) and ZigBee (ZigBee: registered trademark) are described. A wireless communication standard may be used. Moreover, it is good also as performing communication between the vehicle-mounted apparatus 10 and the portable terminal device 20 by wired communication.

マイク12は、車載装置10のユーザによって発せられた音声を入力する。また、表示操作部13は、文字情報や画像情報を表示する表示部と、音声入力の開始操作やリストの選択操作を受け付ける操作部とを備えている。   The microphone 12 inputs sound emitted by the user of the in-vehicle device 10. The display operation unit 13 includes a display unit that displays character information and image information, and an operation unit that receives a voice input start operation and a list selection operation.

たとえば、表示操作部13の表示部は、テキストデータや画像情報を表示するディスプレイを備えており、また、操作部は、音声入力の開始操作を行う「音声入力開始ボタン」やコンテンツやソース種別を選択する「選択ボタン」などを備えている。   For example, the display unit of the display operation unit 13 includes a display that displays text data and image information, and the operation unit displays a “voice input start button” for performing a voice input start operation, content, and source type. “Select button” etc. to select are provided.

なお、表示操作部13に備えるディスプレイや各種操作を行う構成部品を限定する必要はない。したがって、指やポインティングデバイスなどの押圧感知により入力を受け付け、かつ表示出力も兼ねるタッチパネル式の液晶ディスプレイを用いることとしてもよい。   Note that it is not necessary to limit the display provided in the display operation unit 13 or the components that perform various operations. Therefore, a touch panel type liquid crystal display that accepts an input by sensing a pressure of a finger or a pointing device and also serves as a display output may be used.

スピーカ14は、音楽サイト、CD(Compact Disc)およびインターネットラジオ等の音楽コンテンツを再生するための音声出力機器である。ここでは、スピーカ14を車載装置10に備えるように構成したが、別体であるように構成してもよい。   The speaker 14 is an audio output device for reproducing music content such as a music site, a CD (Compact Disc), and Internet radio. Here, the speaker 14 is configured to be included in the in-vehicle device 10, but may be configured to be a separate body.

制御部15は、車載装置10の全体制御を行う制御部である。制御部15は、音声取得部15aと、テキスト取得部15bと、検索要求部15cと、情報取得部15dと、情報提供処理部15eとをさらに備えている。   The control unit 15 is a control unit that performs overall control of the in-vehicle device 10. The control unit 15 further includes a voice acquisition unit 15a, a text acquisition unit 15b, a search request unit 15c, an information acquisition unit 15d, and an information provision processing unit 15e.

なお、図2には、制御部15の機能的な構成を示しているが、この制御部15は、物理的にはCPU(Central Processing Unit)とROM(Read Only Memory)とRAM(Random Access Memory)とを有する情報処理装置を備えている。   FIG. 2 shows a functional configuration of the control unit 15. The control unit 15 physically includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). ).

そして、CPUがROMから各種プログラムを読出し、RAMを作業領域として使用して実行することにより、音声取得部15a、テキスト取得部15b、検索要求部15c、情報取得部15d、情報提供処理部15e等として機能する。   Then, the CPU reads various programs from the ROM and executes them using the RAM as a work area, so that the voice acquisition unit 15a, the text acquisition unit 15b, the search request unit 15c, the information acquisition unit 15d, the information provision processing unit 15e, etc. Function as.

音声取得部15aは、マイク12から出力されたユーザの音声を取得して、携帯端末装置20を介して音声認識サーバ30へ受け渡す処理を行う処理部である。   The voice acquisition unit 15 a is a processing unit that acquires a user voice output from the microphone 12 and transfers the voice to the voice recognition server 30 via the mobile terminal device 20.

具体的には、音声取得部15aは、例えば、ドライバーや同乗者によって「音声入力開始ボタン」が押下された場合に、スピーカ14から出力される音声を取得する。また、音声取得部15aは、スピーカ14から取得した音声の情報をデジタル化して、携帯端末装置20を介して音声認識サーバ30へ送信する。この音声取得部15aは、ユーザの音声を入力し音声信号を変換する音声入力部、および音声入力部からの音声信号を音声認識サーバ30へ送信する音声信号送信部として機能する。   Specifically, the voice acquisition unit 15a acquires a voice output from the speaker 14 when, for example, a “voice input start button” is pressed by a driver or a passenger. The voice acquisition unit 15 a digitizes voice information acquired from the speaker 14 and transmits the digitized information to the voice recognition server 30 via the mobile terminal device 20. The voice acquisition unit 15 a functions as a voice input unit that inputs a user's voice and converts a voice signal, and a voice signal transmission unit that transmits a voice signal from the voice input unit to the voice recognition server 30.

テキスト取得部15bは、音声認識サーバ30による音声認識結果を取得する。この音声認識結果は、音声取得部15aによって送信された音声データに対する音声認識結果であり、テキストデータにより音声認識サーバ30から送信される。このテキストデータには、後述するように、キーワードと信頼度の情報とが含まれる。このテキスト取得部15bは、音声認識サーバ30からの音声認識結果を受信する端末側音声認識結果受信部として機能する。   The text acquisition unit 15b acquires a speech recognition result by the speech recognition server 30. This speech recognition result is a speech recognition result for the speech data transmitted by the speech acquisition unit 15a, and is transmitted from the speech recognition server 30 as text data. As will be described later, the text data includes keywords and reliability information. The text acquisition unit 15b functions as a terminal side speech recognition result receiving unit that receives the speech recognition result from the speech recognition server 30.

検索要求部15cは、テキスト取得部15bによって取得されたテキストデータを、携帯端末装置20を介して情報解析サーバ40へ受け渡す処理を行う処理部である。この索要求部15cは、テキスト取得部15bによって取得した音声認識結果を情報解析サーバ40へ送信する端末側音声認識結果送信部として機能する。   The search request unit 15 c is a processing unit that performs processing for delivering the text data acquired by the text acquisition unit 15 b to the information analysis server 40 via the mobile terminal device 20. The search request unit 15c functions as a terminal-side speech recognition result transmission unit that transmits the speech recognition result acquired by the text acquisition unit 15b to the information analysis server 40.

情報取得部15dは、情報解析サーバ40から送信される情報(解析結果情報)を、携帯端末装置20を介して取得する。情報解析サーバ40から送信される情報は、例えば、各種のコンテンツの名称やアドレス情報、およびソース種別の情報などである。   The information acquisition unit 15 d acquires information (analysis result information) transmitted from the information analysis server 40 via the mobile terminal device 20. Information transmitted from the information analysis server 40 is, for example, name and address information of various contents, information on the source type, and the like.

情報提供処理部15eは、例えば、表示操作部13の操作部への操作などを契機として、情報取得部15dによって取得された情報を表示操作部13の表示部やスピーカ14から出力する。情報提供処理部15eは、表示操作部13やスピーカ14と共に情報提供部として機能する。また、情報提供処理部15eは、コンテンツの名称を表示操作部13の表示部に表示したり、コンテンツのアドレス情報に基づいてコンテンツを取得して再生したりする。   The information provision processing unit 15e outputs the information acquired by the information acquisition unit 15d from the display unit of the display operation unit 13 or the speaker 14, for example, triggered by an operation of the display operation unit 13 on the operation unit. The information provision processing unit 15 e functions as an information provision unit together with the display operation unit 13 and the speaker 14. The information provision processing unit 15e displays the name of the content on the display unit of the display operation unit 13, or acquires and reproduces the content based on the address information of the content.

また、情報提供処理部15eには、動画再生アプリ15f、音再生アプリ15gおよびブラウザアプリ15hなどのアプリケーションを含んでいる。動画再生アプリ15fは、動画コンテンツを再生して表示操作部13の表示部やスピーカ14から出力する。音再生アプリ15gは、音声コンテンツを再生してスピーカ14から出力する。また、ブラウザアプリ15hは、ウェブページなどのコンテンツを再生して表示操作部13の表示部から出力する。   The information provision processing unit 15e includes applications such as a video playback application 15f, a sound playback application 15g, and a browser application 15h. The moving image reproduction application 15f reproduces the moving image content and outputs it from the display unit of the display operation unit 13 or the speaker 14. The sound reproduction application 15g reproduces the audio content and outputs it from the speaker 14. The browser application 15h reproduces content such as a web page and outputs it from the display unit of the display operation unit 13.

なお、ここでは、情報提供処理部15eは、動画再生アプリ15f、音再生アプリ15gおよびブラウザアプリ15hを含む例を示したが、情報提供処理部15eの構成はこれに限られるものではない。情報取得部15dによって取得されたコンテンツなどの情報を表示操作部13の表示部やスピーカ14から出力することができれば、情報提供処理部15eはどのような構成であってもよい。   In this example, the information provision processing unit 15e includes the moving image reproduction application 15f, the sound reproduction application 15g, and the browser application 15h. However, the configuration of the information provision processing unit 15e is not limited thereto. The information provision processing unit 15e may have any configuration as long as information such as content acquired by the information acquisition unit 15d can be output from the display unit of the display operation unit 13 or the speaker 14.

つづいて、音声認識サーバ30の構成について図3を参照して説明する。図3に示すように、音声認識サーバ30は、通信I/F31と、記憶部32と、制御部33とを備えている。また、記憶部32は、辞書情報32aを記憶する。   Next, the configuration of the voice recognition server 30 will be described with reference to FIG. As shown in FIG. 3, the voice recognition server 30 includes a communication I / F 31, a storage unit 32, and a control unit 33. The storage unit 32 stores dictionary information 32a.

通信I/F31は、インターネット22を介して、他の装置とデータの送受信を行うための通信デバイスで構成されている。たとえば、通信I/F31は、車載装置10からインターネット22を介して送信される音声データを取得する。また、通信I/F31は、車載装置10へインターネット22を介して音声認識結果を送信する。   The communication I / F 31 includes a communication device for transmitting / receiving data to / from other apparatuses via the Internet 22. For example, the communication I / F 31 acquires audio data transmitted from the in-vehicle device 10 via the Internet 22. Further, the communication I / F 31 transmits the voice recognition result to the in-vehicle device 10 via the Internet 22.

記憶部32は、不揮発性メモリやハードディスクドライブといった記憶デバイスで構成される記憶部である。この記憶部32は、複数の音声認識用辞書データを含む情報を辞書情報32aとして記憶する。   The storage unit 32 is a storage unit configured by a storage device such as a nonvolatile memory or a hard disk drive. The storage unit 32 stores information including a plurality of speech recognition dictionary data as dictionary information 32a.

制御部33は、音声認識サーバ30の全体制御を行う制御部である。制御部33は、音声データ取得部33aと、音声認識処理部33bと、音声認識結果送信部33cとをさらに備えている。   The control unit 33 is a control unit that performs overall control of the voice recognition server 30. The control unit 33 further includes a voice data acquisition unit 33a, a voice recognition processing unit 33b, and a voice recognition result transmission unit 33c.

なお、図3には、制御部33の機能的な構成を示しているが、この制御部33は、物理的にはCPU(Central Processing Unit)とROM(Read Only Memory)とRAM(Random Access Memory)とを有する情報処理装置を備えている。   3 shows a functional configuration of the control unit 33. The control unit 33 is physically configured by a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). ).

そして、CPUがROMから各種プログラムを読出し、RAMを作業領域として使用して実行することにより、音声データ取得部33a、音声認識処理部33b、音声認識結果送信部33c等として機能する。   The CPU reads out various programs from the ROM and executes them using the RAM as a work area, thereby functioning as a voice data acquisition unit 33a, a voice recognition processing unit 33b, a voice recognition result transmission unit 33c, and the like.

音声データ取得部33aは、車載装置10から音声データ(音声信号の一例)を受信したならば、受信した音声データを音声認識処理部33bへ送信する。   If the voice data acquisition unit 33a receives voice data (an example of a voice signal) from the in-vehicle device 10, the voice data acquisition unit 33a transmits the received voice data to the voice recognition processing unit 33b.

音声認識処理部33bは、音声データ取得部33aから受信した音声データに対して音声認識処理を行う。上述したように記憶部32には、複数の音声認識用辞書データが記憶されており、音声認識処理部33bは、辞書データ毎に音声認識処理を行う。   The voice recognition processing unit 33b performs voice recognition processing on the voice data received from the voice data acquisition unit 33a. As described above, the storage unit 32 stores a plurality of dictionary data for speech recognition, and the speech recognition processing unit 33b performs speech recognition processing for each dictionary data.

具体的には、音声認識処理部33bは、音声データ取得部33aから受信した音声データに対して、音声データに含まれるキーワードを抽出する処理を辞書データ毎に行い、抽出したキーワードとその信頼度とを辞書データ毎に出力する。   Specifically, the voice recognition processing unit 33b performs, for each dictionary data, a process for extracting a keyword included in the voice data from the voice data received from the voice data acquisition unit 33a, and extracts the extracted keyword and its reliability. Are output for each dictionary data.

例えば、第1音声認識用辞書データと第2音声認識用辞書データとがあるとし、車載装置10のユーザが「レストラン」という発話をしたときの音声データに対して音声認識処理を行うとする。この場合、第1音声認識用辞書データでは、例えば、「レストラン(信頼度90%)」という音声認識結果となり、第2音声認識用辞書データでは、例えば、「レストライン(信頼度60%)」という音声認識結果となる。   For example, it is assumed that there is first speech recognition dictionary data and second speech recognition dictionary data, and speech recognition processing is performed on speech data when the user of the in-vehicle device 10 utters “restaurant”. In this case, in the first speech recognition dictionary data, for example, a speech recognition result of “restaurant (reliability 90%)” is obtained, and in the second speech recognition dictionary data, for example, “rest line (reliability 60%)”. This results in a speech recognition result.

音声認識結果送信部33cは、音声認識処理部33bによる音声認識が終了すると、辞書データ毎の音声認識結果をテキストデータとして車載装置10へ送信する。   When the speech recognition by the speech recognition processing unit 33b ends, the speech recognition result transmission unit 33c transmits the speech recognition result for each dictionary data to the in-vehicle device 10 as text data.

このように、音声認識サーバ30では、車載装置10から送信された音声データからソース種別を決定するためのキーワードを抽出して車載装置10へ送信する。なお、キーワードを抽出するのではなく、音声データを単にテキストデータへ変換した結果を音声認識結果として車載装置10へ出力するようにしてもよい。この場合、車載装置10又は情報解析サーバ40によってキーワードの抽出を行うことになる。   As described above, the voice recognition server 30 extracts a keyword for determining the source type from the voice data transmitted from the in-vehicle device 10 and transmits the extracted keyword to the in-vehicle device 10. Instead of extracting a keyword, a result obtained by simply converting voice data into text data may be output to the in-vehicle device 10 as a voice recognition result. In this case, keywords are extracted by the in-vehicle device 10 or the information analysis server 40.

つづいて、情報解析サーバ40の構成について図4を参照して説明する。図4に示すように、情報解析サーバ40は、通信I/F41と、記憶部42と、制御部43とを備えている。また、記憶部42は、第1辞書データ42aおよび第2辞書データ42bなどのソース情報を記憶する。   Next, the configuration of the information analysis server 40 will be described with reference to FIG. As illustrated in FIG. 4, the information analysis server 40 includes a communication I / F 41, a storage unit 42, and a control unit 43. The storage unit 42 stores source information such as the first dictionary data 42a and the second dictionary data 42b.

通信I/F41は、インターネット22を介して、他の装置とデータの送受信を行うための通信デバイスで構成されている。たとえば、通信I/F41は、車載装置10からインターネット22を介して送信されるテキストデータを取得する。また、通信I/F41は、車載装置10へインターネット22を介して検索結果を送信する。   The communication I / F 41 includes a communication device for transmitting / receiving data to / from other apparatuses via the Internet 22. For example, the communication I / F 41 acquires text data transmitted from the in-vehicle device 10 via the Internet 22. Further, the communication I / F 41 transmits the search result to the in-vehicle device 10 via the Internet 22.

記憶部42は、不揮発性メモリやハードディスクドライブといった記憶デバイスで構成される記憶部である。第1辞書データ42aは、キーワードとソース種別とを関連付けるデータである。この第1辞書データ42aは、キーワード毎にキーワードをソース種別に関連づけるデータであるが、これに限定されるものではなく、例えば、ソース種別毎にソース種別をキーワードに関連づけるデータであってもよい。   The storage unit 42 is a storage unit configured by a storage device such as a nonvolatile memory or a hard disk drive. The first dictionary data 42a is data that associates a keyword with a source type. The first dictionary data 42a is data that associates a keyword with a source type for each keyword, but is not limited to this, and may be data that associates a source type with a keyword for each source type, for example.

図5の(A)には、第1辞書データ42aの一例が示されている。同図に示す例では、「△△△」というキーワードに対して、ソース種別Aとソース種別Bが関連づけられ、「○○○」というキーワードに対してソース種別Aとソース種別Cが関連づけられている。   FIG. 5A shows an example of the first dictionary data 42a. In the example shown in the drawing, source type A and source type B are associated with the keyword “ΔΔΔ”, and source type A and source type C are associated with the keyword “XXX”. Yes.

例えば、ソース種別Aは、ユーザが「見る」という動作を目的とする場合のソース種別であり、ソース種別Bは、ユーザが「聴く」という動作を目的とする場合のソース種別であり、ソース種別Cは、ユーザが「行く」という動作を目的とする場合のソース種別である。   For example, the source type A is a source type when the user intends an operation of “seeing”, and the source type B is a source type when the user aims at an operation of “listening”. C is a source type when the user intends to “go”.

なお、ソース種別はこれらに限られるものではない。例えば、ユーザが「食べる」という動作を目的とする場合のソース種別や、ユーザが「遊ぶ」という動作を目的とする場合のソース種別など、様々な種別を設けることができる。また、ここでは、ソース種別を、ユーザが目的とする動作に基づいて設定される種別とした例を挙げて説明するが、これに限られるものではない。   The source type is not limited to these. For example, various types can be provided, such as a source type when the user intends an “eating” operation and a source type when the user aims at an “playing” operation. In addition, here, an example in which the source type is a type set based on an operation intended by the user will be described, but the present invention is not limited to this.

第2辞書データ42bは、ソース種別とソースを関連付けるデータである。この第2辞書データ42bは、ソース種別毎にソース種別をソースに関連づけるデータであるが、これに限定されるものではなく、例えば、ソース毎にソースをソース種別に関連づけるデータであってもよい。また、ソース種別にソースを関連付けるために、第2辞書データ42bには、ソースを特定するためのソース特定情報(ソースのアドレスなど)とソース種別とを関連付けた情報を含んでいる。   The second dictionary data 42b is data that associates a source type with a source. The second dictionary data 42b is data that associates the source type with the source for each source type, but is not limited thereto, and may be data that associates the source with the source type for each source, for example. Further, in order to associate the source with the source type, the second dictionary data 42b includes information that associates the source identification information (source address or the like) for identifying the source and the source type.

図5の(B)には、第2辞書データ42bの一例が示されている。同図に示す例では、「ソース種別A」というソース種別に対して、動画サイトXおよび動画サイトWが関連づけられ、「ソース種別B」というソース種別に対して音楽サイトVおよびインターネットラジオサイトZが関連づけられている。   FIG. 5B shows an example of the second dictionary data 42b. In the example shown in the figure, the video site X and the video site W are associated with the source type “source type A”, and the music site V and the Internet radio site Z are associated with the source type “source type B”. Is associated.

ここでは、動画サイトX,W、音楽サイトV、インターネットラジオサイトZ、地域情報サイトE、Fは、ウェブサーバ501〜506よりそれぞれ提供されるウェブサイトとする。なお、地域情報サイトは、地域情報を提供するウェブサイトであり、例えば、飲食店、コンビニエンスストア、遊園地、ゴルフ場などの各種の施設情報や、地域別のランキング情報などを提供するウェブサイトである。 Here, the video sites X and W, the music site V, the Internet radio site Z, and the regional information sites E and F are websites provided by the web servers 50 1 to 50 6 , respectively. The regional information site is a website that provides regional information, for example, a website that provides various facility information such as restaurants, convenience stores, amusement parks, golf courses, and ranking information by region. is there.

図4に戻って、説明をつづける。制御部43は、情報解析サーバ40の全体制御を行う制御部である。制御部43は、テキスト取得部43aと、決定部43bと、検索部43cと、検索結果送信部43dとをさらに備えている。   Returning to FIG. 4, the description will be continued. The control unit 43 is a control unit that performs overall control of the information analysis server 40. The control unit 43 further includes a text acquisition unit 43a, a determination unit 43b, a search unit 43c, and a search result transmission unit 43d.

なお、図4には、制御部43の機能的な構成を示しているが、この制御部43は、物理的にはCPU(Central Processing Unit)とROM(Read Only Memory)とRAM(Random Access Memory)とを有する情報処理装置を備えている。   4 shows a functional configuration of the control unit 43. The control unit 43 physically includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). ).

そして、CPUがROMから各種プログラムを読出し、RAMを作業領域として使用して実行することにより、テキスト取得部43a、決定部43b、検索部43c、検索結果送信部43d等として機能する。   The CPU reads various programs from the ROM and executes them using the RAM as a work area, thereby functioning as a text acquisition unit 43a, a determination unit 43b, a search unit 43c, a search result transmission unit 43d, and the like.

テキスト取得部43aは、車載装置10からテキストデータを受信したならば、受信したテキストデータを決定部43bへ送信する。このテキスト取得部43aは、車載装置10から送信される音声認識結果を受信するサーバ側音声認識結果受信部として機能する。   If the text acquisition unit 43a receives text data from the in-vehicle device 10, the text acquisition unit 43a transmits the received text data to the determination unit 43b. The text acquisition unit 43a functions as a server-side speech recognition result receiving unit that receives a speech recognition result transmitted from the in-vehicle device 10.

決定部43bは、テキスト取得部43aから受信したテキストデータに基づいて、検索対象のソース種別を決定する。具体的には、決定部43bは、テキスト取得部43aから受信したテキストデータに含まれるキーワードに関連づけられたソース種別を、記憶部42に記憶された第1辞書データ42aに基づいて決定する。   The determination unit 43b determines the source type to be searched based on the text data received from the text acquisition unit 43a. Specifically, the determination unit 43 b determines the source type associated with the keyword included in the text data received from the text acquisition unit 43 a based on the first dictionary data 42 a stored in the storage unit 42.

例えば、第1辞書データ42aが図5の(A)に示すデータである場合に、テキスト取得部43aから受信したテキストデータに、「○○○」というテキストデータが含まれていたならば、決定部43bは、ソース種別Aおよびソース種別Cを検索対象のソース種別として決定する。   For example, if the first dictionary data 42a is the data shown in FIG. 5A, the text data received from the text acquisition unit 43a includes text data “XXX”. The unit 43b determines the source type A and the source type C as search source types.

なお、決定部43bは、例えば、第1音声認識用辞書データでは「レストラン」と認識され、第2音声認識用辞書データでは「レストライン」と認識された場合、キーワードとして信頼度が高い方を選択する。   For example, when the first voice recognition dictionary data is recognized as “restaurant” and the second voice recognition dictionary data is recognized as “restline”, the determination unit 43b selects the one with higher reliability as a keyword. select.

例えば、テキスト取得部43aから受信したテキストデータに、音声認識結果として「レストラン(信頼度90%)」と「レストライン(信頼度60%)」とが含まれているとき、信頼度の高い方である「レストラン」をキーワードとして選択する。   For example, when the text data received from the text acquisition unit 43a includes “restaurant (reliability 90%)” and “rest line (reliability 60%)” as speech recognition results, the one with higher reliability The “restaurant” is selected as a keyword.

検索部43cは、決定部43bによって決定されたソース種別に関連づけられたソースから、テキスト取得部43aによって取得したテキストデータに応じた情報を外部ソースであるウェブサーバ501〜506から検索する。この検索部43cは、ソース種別に関連付けられたソース特定情報を選択するソース選択部およびソース選択部により選択されたソース特定情報に基づき該当ソースから情報を検索取得する情報検索取得部として機能する。 The search unit 43c searches the web servers 50 1 to 50 6 that are external sources for information according to the text data acquired by the text acquisition unit 43a from the sources associated with the source type determined by the determination unit 43b. The search unit 43c functions as a source selection unit that selects source identification information associated with the source type and an information search acquisition unit that searches and acquires information from the corresponding source based on the source identification information selected by the source selection unit.

具体的には、検索部43cは、決定部43bによって決定されたソース種別に関連づけられたソースを、記憶部42に記憶された第2辞書データ42bに基づき選択する。そして、当該選択したソースから、テキスト取得部43aによって取得したテキストデータに応じた情報を検索する。   Specifically, the search unit 43 c selects a source associated with the source type determined by the determination unit 43 b based on the second dictionary data 42 b stored in the storage unit 42. And the information according to the text data acquired by the text acquisition part 43a is searched from the selected source.

例えば、第1辞書データ42aが図5の(A)に示すデータであり、第2辞書データ42bが図5の(B)に示すデータであるとし、また、テキスト取得部43aから受信したテキストデータに、「○○○」というテキストデータが含まれているとする。   For example, it is assumed that the first dictionary data 42a is the data shown in FIG. 5A, the second dictionary data 42b is the data shown in FIG. 5B, and the text data received from the text acquisition unit 43a. It is assumed that the text data “XXX” is included.

この場合、決定部43bによって決定されたソース種別がソース種別Aおよびソース種別Cであり、検索部43cは、動画サイトX,Wおよび地域情報サイトE,Fを検索対象のソースとして選択する。そして、動画サイトX,Wおよび地域情報サイトE,Fから「○○○」に関連する動画コンテンツや地域情報コンテンツを検索する。   In this case, the source types determined by the determination unit 43b are the source type A and the source type C, and the search unit 43c selects the moving image sites X and W and the regional information sites E and F as search target sources. Then, the moving image content and the local information content related to “XXX” are searched from the moving image sites X and W and the local information sites E and F.

したがって、検索部43cによる検索結果には、例えば、図6に示すように、「○○○」に関連する動画コンテンツとして、動画サイトWのコンテンツW2,W3が含まれ、「○○○」に関連する地域情報コンテンツとして、地域情報サイトE,FのウェブページE1,F1が含まれる。   Therefore, for example, as shown in FIG. 6, the search results by the search unit 43c include the content W2 and W3 of the video site W as the video content related to “XXX”. Related regional information contents include web pages E1 and F1 of regional information sites E and F.

また、例えば、検索部43cによる検索結果には、検索したソースに対応するソース種別情報が含まれる。図6に示す例では、検索結果として、ソース種別Aおよびソース種別Cが含まれていることを示している。   For example, the search result by the search unit 43c includes source type information corresponding to the searched source. In the example shown in FIG. 6, it is shown that the source type A and the source type C are included as the search result.

検索結果送信部43dは、検索部43cから検索結果を取得したならば、かかる検索結果を車載装置10へ送信する。この検索結果送信部43dは、検索部43cによる検索取得情報を含む情報解析結果を車載装置10へ送信する情報解析結果送信部として機能する。なお、検索結果送信部43dは、検索結果(検索取得情報)に加えて、決定部43bによって決定されたソース種別に関連づけられたソースの情報を送信することもできる。この場合、検索結果送信部43dは、検索部43cによって選択されたソース特定情報を含む情報解析結果を車載装置10へ送信する情報解析結果送信部として機能する。   If the search result transmission unit 43d acquires the search result from the search unit 43c, the search result transmission unit 43d transmits the search result to the in-vehicle device 10. This search result transmission part 43d functions as an information analysis result transmission part which transmits the information analysis result including the search acquisition information by the search part 43c to the vehicle-mounted apparatus 10. In addition to the search result (search acquisition information), the search result transmission unit 43d can also transmit source information associated with the source type determined by the determination unit 43b. In this case, the search result transmission unit 43d functions as an information analysis result transmission unit that transmits the information analysis result including the source specifying information selected by the search unit 43c to the in-vehicle device 10.

かかる検索結果は、検索結果送信部43dにより車載装置10へ送信され、図2に示す車載装置10の情報取得部15dによって取得される。車載装置10の情報提供処理部15eは、情報取得部15dによって取得された検索結果を車載装置10のユーザに提示する。   Such a search result is transmitted to the in-vehicle device 10 by the search result transmitting unit 43d and acquired by the information acquisition unit 15d of the in-vehicle device 10 shown in FIG. The information provision processing unit 15e of the in-vehicle device 10 presents the search result acquired by the information acquisition unit 15d to the user of the in-vehicle device 10.

ここで、検索結果に複数のソース種別に関するソースからの情報が含まれている場合、情報提供処理部15eは、表示操作部13の表示部に選択画面を表示する。例えば、キーワードが「□□□」である場合であり、第1辞書データ42aにおいて、図5の(A)に示すように「□□□」というキーワードにソース種別A〜Cが関連付けられている場合、情報提供処理部15eは、図7に示すような選択画面を表示する。   Here, when information from a plurality of sources related to a plurality of source types is included in the search result, the information provision processing unit 15 e displays a selection screen on the display unit of the display operation unit 13. For example, the keyword is “□□□”, and the source types A to C are associated with the keyword “□□□” as shown in FIG. 5A in the first dictionary data 42a. In this case, the information provision processing unit 15e displays a selection screen as shown in FIG.

なお、ソース種別の選択を要求するものであればよく、これに限られない。例えば、マイク12に入力された音声を情報提供処理部15eによって取得することができるようにし、情報提供処理部15eにおいて、音声入力によりソース種別の選択を可能としてもよい。   Note that it is not limited to this as long as it requests the selection of the source type. For example, the voice input to the microphone 12 may be acquired by the information provision processing unit 15e, and the information provision processing unit 15e may be able to select the source type by voice input.

また、例えば、情報提供処理部15eは、車載装置10の図示しない位置検出部又は車速検出部によって移動中であると判断した場合に、選択画面から音声による選択に切り替えるようにしてもよい。   In addition, for example, when the information provision processing unit 15e determines that the vehicle is moving by a position detection unit or a vehicle speed detection unit (not illustrated) of the in-vehicle device 10, the information provision processing unit 15e may switch from the selection screen to the selection by voice.

図7において、ボタン25aはソース種別Aを選択するためのボタンであり、ボタン25bはソース種別Bを選択するためのボタンであり、ボタン25cはソース種別Cを選択するためのボタンである。車載装置10のユーザは、表示操作部13の操作部からボタン25a〜25cを選択することにより、ソース種別を選択する。   In FIG. 7, a button 25a is a button for selecting the source type A, a button 25b is a button for selecting the source type B, and a button 25c is a button for selecting the source type C. The user of the in-vehicle device 10 selects the source type by selecting the buttons 25 a to 25 c from the operation unit of the display operation unit 13.

例えば、「□□□」についての動画を見たいときには、ユーザは、ボタン25aを押下することで、図8に示すように、情報提供処理部15eは、「□□□」に関する動画コンテンツを再生して表示操作部13の表示部へ表示する。   For example, when the user wants to watch a video about “□□□”, the user presses the button 25a, and as shown in FIG. 8, the information provision processing unit 15e reproduces the video content about “□□□”. And displayed on the display unit of the display operation unit 13.

この場合、ソース種別Aを選択するためのボタン25aには「見る」というユーザの動作が表示されており、ソース種別Bを選択するためのボタン25bには「聴く」というユーザの動作が表示されており、ソース種別Cを選択するためのボタン25cには「行く」というユーザの動作が表示されている。これにより、ユーザは、何がしたくて情報の検索を行ったのかという動作の目的に基づいてソースの選択が判断できるため、直感的で分かりやすい操作が可能となる。   In this case, the user action “view” is displayed on the button 25a for selecting the source type A, and the user action “listen” is displayed on the button 25b for selecting the source type B. On the button 25c for selecting the source type C, the user's action “go” is displayed. Accordingly, the user can determine the selection of the source based on the purpose of the operation that the user has searched for information to do, so that an intuitive and easy-to-understand operation is possible.

また、音声入力によりソース種別を選択する場合、ボタン25aに表示された「見る」又はボタン25bに表示された「聴く」、ボタン25cに表示された「行く」という言葉を発声すれば、音声認識処理が実行され、ソース種別を選択できる。   When the source type is selected by voice input, if the words “view” displayed on the button 25a, “listen” displayed on the button 25b, or “go” displayed on the button 25c are uttered, voice recognition is performed. Processing is executed and the source type can be selected.

また、情報提供処理部15eは、「□□□」に関する動画コンテンツが複数ある場合には、動画コンテンツ名のリストを表示操作部13の表示部へ表示して、ユーザに動画コンテンツを選択させる。そして、ユーザが動画コンテンツを選択したとき、情報提供処理部15eは、選択された動画コンテンツを再生して表示操作部13の表示部へ表示する。   In addition, when there are a plurality of moving image contents related to “□□□”, the information provision processing unit 15e displays a list of moving image content names on the display unit of the display operation unit 13 to allow the user to select moving image content. When the user selects the moving image content, the information provision processing unit 15e reproduces the selected moving image content and displays it on the display unit of the display operation unit 13.

また、情報提供処理部15eは、動画コンテンツ名をリスト表示して動画コンテンツを選択させるのではなく、「△△△」に関する複数の動画コンテンツを順次再生することもできる。例えば、情報提供処理部15eは、車載装置10の図示しない位置検出部又は車速検出部によって移動中であると判断した場合に、リスト表示を行わずに、「△△△」に関する複数の動画コンテンツを順次再生するようにしてもよい。   Further, the information provision processing unit 15e can sequentially reproduce a plurality of moving image contents related to “ΔΔΔ” instead of displaying the moving image content names in a list and selecting the moving image content. For example, when the information provision processing unit 15e determines that the position detection unit or the vehicle speed detection unit (not illustrated) of the in-vehicle device 10 is moving, the information provision processing unit 15e does not display a list and displays a plurality of moving image contents related to “ΔΔΔ”. May be reproduced sequentially.

なお、情報提供処理部15eは、動画コンテンツを再生する場合、情報解析サーバ40から受信した検索結果に含まれる動画コンテンツのアドレス情報に基づいて、ウェブサーバ50から動画コンテンツを取得して再生する。   In addition, when reproducing the moving image content, the information provision processing unit 15e acquires the moving image content from the web server 50 based on the address information of the moving image content included in the search result received from the information analysis server 40 and reproduces it.

例えば、動画コンテンツのアドレス情報がウェブサーバ503内のアドレスを示すアドレス情報であるとき、情報提供処理部15eは、ウェブサーバ503から動画コンテンツを取得して再生する。 For example, when the address information of the moving image content is address information indicating an address in the web server 50 3 , the information provision processing unit 15 e acquires the moving image content from the web server 50 3 and reproduces it.

次に、本実施例に係る車載装置10の具体的動作について図9を用いて説明する。図9は、車載装置10の制御部15が実行する処理手順の概要を示すフローチャートである。なお、この処理は、音声入力の開始操作を行う「音声入力開始ボタン」がユーザにより押下されたときに開始される処理である。また、これらの処理は制御部15を構成するマイクロコンピュータ(CPU)がプログラムに基づき処理を行なって実行(実現)されるが、図2に示した機能ブロックとの関係を分かりやすくする為、便宜的に各機能ブロックが実行すると言う表現を用いて説明する。   Next, a specific operation of the in-vehicle device 10 according to the present embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating an outline of a processing procedure executed by the control unit 15 of the in-vehicle device 10. This process is started when a “voice input start button” that performs a voice input start operation is pressed by the user. These processes are executed (implemented) by a microcomputer (CPU) that constitutes the control unit 15 based on a program. For convenience, the relationship with the functional blocks shown in FIG. This will be described using the expression that each functional block executes.

図9に示すように、車載装置10では、音声取得部15aが、マイク12から入力されたユーザの音声の録音を開始する(ステップS20)。音声取得部15aは、録音が終了すると、録音した音声を所定のフォーマットの音声データに変換して、音声認識サーバ30へ送信する(ステップS21)。   As shown in FIG. 9, in the in-vehicle device 10, the voice acquisition unit 15a starts recording the voice of the user input from the microphone 12 (step S20). When the recording is finished, the voice acquisition unit 15a converts the recorded voice into voice data of a predetermined format and transmits it to the voice recognition server 30 (step S21).

つづいて、テキスト取得部15bが、音声認識サーバ30から車載装置10へ送信される音声認識結果を受信する(ステップS22)。この音声認識結果は、ステップS21において送信された音声データに対して音声認識サーバ30が行った音声認識結果である。   Subsequently, the text acquisition unit 15b receives a speech recognition result transmitted from the speech recognition server 30 to the in-vehicle device 10 (step S22). This voice recognition result is a voice recognition result performed by the voice recognition server 30 on the voice data transmitted in step S21.

テキスト取得部15bによって受信された音声認識結果は、検索要求部15cによって情報解析サーバ40へ送信される(ステップS23)。その後、情報解析サーバ40から送信された検索結果が情報取得部15dによって受信される(ステップS24)。情報取得部15dが取得する検索結果は、ステップS23において送信された音声認識結果に対する検索結果である。   The speech recognition result received by the text acquisition unit 15b is transmitted to the information analysis server 40 by the search request unit 15c (step S23). Thereafter, the search result transmitted from the information analysis server 40 is received by the information acquisition unit 15d (step S24). The search result acquired by the information acquisition unit 15d is a search result for the speech recognition result transmitted in step S23.

情報取得部15dによって受信された検索結果は、情報取得部15dから情報提供処理部15eへ送信される。情報提供処理部15eは、情報取得部15dから受信した検索結果に、複数のソース種別の情報が含まれているか否かを判定する(ステップS25)。   The search result received by the information acquisition unit 15d is transmitted from the information acquisition unit 15d to the information provision processing unit 15e. The information provision processing unit 15e determines whether or not the search result received from the information acquisition unit 15d includes information of a plurality of source types (step S25).

この処理において、情報提供処理部15eは、検索結果に複数のソース種別の情報が含まれていると判定すると(ステップS25,Yes)、表示操作部13の表示部にソース種別を選択させるための選択画面を表示する(ステップS26)。そして、情報提供処理15部eは、ユーザからソース種別の選択があるまで待つ(ステップS27)。   In this process, when the information provision processing unit 15e determines that the search result includes information of a plurality of source types (step S25, Yes), the information providing processing unit 15e causes the display unit of the display operation unit 13 to select the source type. A selection screen is displayed (step S26). Then, the information providing process 15 part e waits until the user selects a source type (step S27).

ステップS25において、検索結果に複数のソース種別の情報が含まれていないと判定した場合(ステップS25,No)、又は、ステップS27において、ユーザからソース種別の選択があると判定した場合(ステップS27,Yes)、情報提供処理部15eは、処理をステップS28へ移行する。   If it is determined in step S25 that the search result does not include information on a plurality of source types (No in step S25), or if it is determined in step S27 that the user has selected a source type (step S27). , Yes), the information provision processing unit 15e proceeds to step S28.

ステップS28において、情報提供処理部15eは、検索結果に複数のコンテンツが含まれているか否かを判定する。この処理において、検索結果に複数のコンテンツが含まれていると判定すると(ステップS28,Yes)、情報提供処理部15eは、表示操作部13の表示部にコンテンツを選択させるためのコンテンツリストを表示する(ステップS29)。このコンテンツリストは、例えば、図1の(C)に示すようなリストである。   In step S28, the information provision processing unit 15e determines whether or not a plurality of contents are included in the search result. In this process, when it is determined that the search result includes a plurality of contents (step S28, Yes), the information provision processing unit 15e displays a content list for causing the display unit of the display operation unit 13 to select the content. (Step S29). This content list is, for example, a list as shown in FIG.

つづいて、情報提供処理部15eは、ユーザからコンテンツの選択があるまで待つ(ステップS30)。情報提供処理部15eは、ユーザからコンテンツの選択があったと判定した場合(ステップS30,Yes)、又は、ステップS28において検索結果に複数のコンテンツが含まれていないと判定した場合(ステップS28,No)、コンテンツをソースから取得して再生する情報提示処理を行う(ステップS31)。   Subsequently, the information provision processing unit 15e waits until the user selects a content (step S30). When it is determined that the user has selected content (Yes at Step S30), or when it is determined at Step S28 that the search result does not include a plurality of contents (No at Step S28). ), An information presentation process for acquiring and reproducing the content from the source is performed (step S31).

次に、本実施例に係る音声認識サーバ30の具体的動作について図10を用いて説明する。図10は、音声認識サーバ30の制御部33が実行する処理手順の概要を示すフローチャートである。この処理は、音声認識サーバ30の音声データ取得部33aが車載装置10から音声データを受信した場合に開始される処理である。   Next, a specific operation of the voice recognition server 30 according to the present embodiment will be described with reference to FIG. FIG. 10 is a flowchart illustrating an outline of a processing procedure executed by the control unit 33 of the voice recognition server 30. This process is a process started when the voice data acquisition unit 33a of the voice recognition server 30 receives voice data from the in-vehicle device 10.

図10に示すように、音声認識サーバ30では、音声認識処理部33bが、音声データ取得部33aによって取得された音声データの音声認識処理を実行する(ステップS40)。この音声認識処理によって、音声データがテキストデータに変換される。   As shown in FIG. 10, in the speech recognition server 30, the speech recognition processing unit 33b executes speech recognition processing on the speech data acquired by the speech data acquisition unit 33a (step S40). By this voice recognition process, the voice data is converted into text data.

つづいて、音声認識結果送信部33cは、音声認識処理部33bによって変換されたテキストデータを車載装置10へ送信する(ステップS41)。   Subsequently, the voice recognition result transmission unit 33c transmits the text data converted by the voice recognition processing unit 33b to the in-vehicle device 10 (step S41).

このように、音声認識サーバ30は、車載装置10から音声データが送信されてくる毎に、音声認識処理を行って、音声認識結果であるテキストデータを車載装置10へ送信する。   As described above, the voice recognition server 30 performs voice recognition processing each time voice data is transmitted from the in-vehicle device 10, and transmits text data as a voice recognition result to the in-vehicle device 10.

次に、本実施例に係る情報解析サーバ40の具体的動作について図11を用いて説明する。図11は、情報解析サーバ40の制御部43が実行する処理手順の概要を示すフローチャートである。この処理は、情報解析サーバ40のテキスト取得部43aが車載装置10から検索用のテキストデータを受信した場合に開始される処理である。   Next, a specific operation of the information analysis server 40 according to the present embodiment will be described with reference to FIG. FIG. 11 is a flowchart illustrating an outline of a processing procedure executed by the control unit 43 of the information analysis server 40. This process is started when the text acquisition unit 43a of the information analysis server 40 receives search text data from the in-vehicle device 10.

図11に示すように、情報解析サーバ40では、決定部43bが、テキスト取得部43aによって受信されたテキストデータの解析を行って(ステップS50)、ソース種別を決定する(ステップS51)。具体的には、決定部43bが決定するソース種別は、テキストデータに含まれるキーワードに対応するソース種別を第1辞書データ42aから抽出したソース種別である。   As shown in FIG. 11, in the information analysis server 40, the determination unit 43b analyzes the text data received by the text acquisition unit 43a (step S50), and determines the source type (step S51). Specifically, the source type determined by the determination unit 43b is a source type obtained by extracting the source type corresponding to the keyword included in the text data from the first dictionary data 42a.

つづいて、検索部43cは、決定したソース種別に関するソースから、テキスト取得部43aが取得したテキストデータに関係する情報を検索する(ステップS52)。そして、検索結果送信部43dは、検索部43cによる検索結果を車載装置10へ送信する(ステップS53)。   Subsequently, the search unit 43c searches for information related to the text data acquired by the text acquisition unit 43a from the sources related to the determined source type (step S52). And the search result transmission part 43d transmits the search result by the search part 43c to the vehicle-mounted apparatus 10 (step S53).

このように、情報解析サーバ40では、ソースと予め設定されたソース種別とを関連づける第1辞書データ42aを記憶しており、第1辞書データ42aに基づいて、車載装置10から送信されたテキストデータから検索対象のソース種別を決定する。   As described above, the information analysis server 40 stores the first dictionary data 42a that associates a source with a preset source type, and text data transmitted from the in-vehicle device 10 based on the first dictionary data 42a. To determine the source type of the search target.

そして、決定したソース種別に関連づけられたソースを、第2辞書データ42bに基づいて選択し、当該選択したソースから、車載装置10から送信されたテキストデータに応じた情報を検索する。   And the source linked | related with the determined source classification is selected based on the 2nd dictionary data 42b, and the information according to the text data transmitted from the vehicle-mounted apparatus 10 is searched from the selected source.

かかる検索結果は、検索結果送信部43dにより車載装置10へ送信され、図2に示す車載装置10の情報取得部15dによって取得される。そして、車載装置10の情報提供処理部15eは、情報取得部15dによって取得された検索結果を車載装置10のユーザに提示する。   Such a search result is transmitted to the in-vehicle device 10 by the search result transmitting unit 43d and acquired by the information acquisition unit 15d of the in-vehicle device 10 shown in FIG. Then, the information provision processing unit 15e of the in-vehicle device 10 presents the search result acquired by the information acquisition unit 15d to the user of the in-vehicle device 10.

したがって、車載装置10のユーザは、キーワードを発するだけで、膨大なコンテンツの中から所望のコンテンツを取得することができる。すなわち、ユーザによる操作要求を低減し、ユーザが直感的に操作することが可能となる。   Therefore, the user of the in-vehicle device 10 can acquire desired content from a vast amount of content simply by issuing a keyword. That is, the operation request by the user is reduced, and the user can operate intuitively.

しかも、ユーザから発せられたキーワードに対して複数のソース種別が関連づけられている場合には、ユーザにソース種別を選択させることで、コンテンツを収集するソースのソース種別を決定することができる。これによって、ユーザによる操作要求を低減し、ユーザが直感的に操作することが可能となる。   In addition, when a plurality of source types are associated with a keyword issued by the user, the source type of the source from which the content is collected can be determined by causing the user to select the source type. Thereby, the operation request by the user is reduced, and the user can operate intuitively.

なお、上述においては、決定部43bによって決定したソース種別が複数あった場合、検索部43cは、決定部43bによって決定されたソース種別に関するソースから検索するため、不要なソース種別に関するソースからも検索を行うことになる。   In the above description, when there are a plurality of source types determined by the determination unit 43b, the search unit 43c searches from the source related to the source type determined by the determination unit 43b. Will do.

そこで、決定部43bによって決定したソース種別が複数あった場合には、まず、決定部43bが車載装置10に対してソース種別の選択を促すための情報を送信するようにしてもよい。このようにすることにより情報解析サーバ40による検索処理の負担を軽減することができる。   Therefore, when there are a plurality of source types determined by the determining unit 43b, the determining unit 43b may first transmit information for prompting the in-vehicle device 10 to select the source type. By doing so, it is possible to reduce the load of search processing by the information analysis server 40.

この場合、車載装置10の情報提供処理部15eは、選択画面などによりソース種別の選択を要求する。この要求に対してユーザによる選択があった場合、情報提供処理部15eは、ユーザが選択したソース種別の情報を情報解析サーバ40へ送信する。そして、情報解析サーバ40の検索部43cは、ユーザが選択したソース種別に関するソースから検索を行い、その検索結果が検索結果送信部43dから車載装置10へ送信される。   In this case, the information provision processing unit 15e of the in-vehicle device 10 requests selection of the source type through a selection screen or the like. If the user selects the request, the information provision processing unit 15e transmits the information of the source type selected by the user to the information analysis server 40. And the search part 43c of the information analysis server 40 searches from the source regarding the source classification which the user selected, and the search result is transmitted to the vehicle-mounted apparatus 10 from the search result transmission part 43d.

このような方法によっても、情報提供処理部15eは、決定部43bにより決定されたソース種別が複数ある場合、ユーザに対してソース種別の選択を要求し、かかる要求に応じて選択されたソース種別に関するソースから取得された情報を提示することができる。   Also in such a method, when there are a plurality of source types determined by the determining unit 43b, the information provision processing unit 15e requests the user to select a source type, and the source type selected in response to the request Information obtained from sources about can be presented.

また、上述においては、情報解析サーバ40の検索結果送信部43dが送信する検索結果として、コンテンツ名やコンテンツのアドレス情報などが含まれるものであるが、コンテンツ自体を送信するようにしてもよい。特に、検索結果が少ない場合には、コンテンツ自体をそのまま車載装置10へ送信することで、車載装置10とソース間との送受信処理の負担を軽減することができる。   In the above description, the search result transmitted by the search result transmission unit 43d of the information analysis server 40 includes the content name, content address information, and the like. However, the content itself may be transmitted. In particular, when there are few search results, the content itself can be transmitted to the in-vehicle device 10 as it is, thereby reducing the burden of transmission / reception processing between the in-vehicle device 10 and the source.

また、上述においては、音声認識サーバ30および情報解析サーバ40を車載装置10外に配置したが、これらの機能のいずれか又は全部を車載装置10に設けるようにしてもよい。このようにすることで、車載装置10と外部装置との間の通信負担を軽減することができる。   In the above description, the voice recognition server 30 and the information analysis server 40 are arranged outside the in-vehicle device 10, but any or all of these functions may be provided in the in-vehicle device 10. By doing in this way, the communication burden between the vehicle-mounted apparatus 10 and an external device can be reduced.

また、上述においては、車載装置10が携帯端末装置20を介して音声認識サーバ30および情報解析サーバ40と通信するようにしたが、車載装置10に代えて携帯端末装置20に置き換えることも可能である。図12は、車載装置10を携帯端末装置20に置き換えた場合のブロック図であり、携帯端末装置20は、近距離通信部11が通信I/F23に置き換わった以外は、上述の車載装置10と同様にマイク24、表示操作部25、スピーカ26と、制御部27を備える。   In the above description, the in-vehicle device 10 communicates with the voice recognition server 30 and the information analysis server 40 via the mobile terminal device 20. However, the in-vehicle device 10 can be replaced with the mobile terminal device 20 instead of the in-vehicle device 10. is there. FIG. 12 is a block diagram in the case where the in-vehicle device 10 is replaced with the mobile terminal device 20. The mobile terminal device 20 is the same as the above-described in-vehicle device 10 except that the short-range communication unit 11 is replaced with the communication I / F 23. Similarly, a microphone 24, a display operation unit 25, a speaker 26, and a control unit 27 are provided.

また、制御部27は、音声取得部27a、テキスト取得部27b、検索要求部27c、情報取得部27d、情報提供処理部27eを備えており、さらに情報提供処理部27eは、動画再生アプリ27f、音再生アプリ27gおよびブラウザアプリ27hなどのアプリケーションを含んでいる。   The control unit 27 includes a voice acquisition unit 27a, a text acquisition unit 27b, a search request unit 27c, an information acquisition unit 27d, and an information provision processing unit 27e. The information provision processing unit 27e further includes a video reproduction application 27f, Applications such as a sound reproduction application 27g and a browser application 27h are included.

なお、通信I/F23は、インターネット22を介して制御部27の各種データの送受信を行う。図12は近距離通信部11が通信I/F23に置き換わった以外は、図2と同様であるため、ここでは詳細な説明は省略する。このようにすることで、車両を運転中の携帯端末装置20を持ったユーザに対し情報を提供することができる。   The communication I / F 23 transmits and receives various data of the control unit 27 via the Internet 22. FIG. 12 is the same as FIG. 2 except that the short-range communication unit 11 is replaced with the communication I / F 23, and thus detailed description thereof is omitted here. By doing in this way, information can be provided to a user who has portable terminal device 20 which is driving a vehicle.

また、第1辞書データ42aや第2辞書データ42bを複数設けるようにしてもよい。例えば、第1辞書データ42aを地域に対応させて設け、車載装置10から送信される現在位置情報や目的地情報などに基づいて、ソース種別を決定するための第1辞書データ42aや検索するソースを決定するための第2辞書データ42bを変更してもよい。このように、現在位置情報や目的地情報に応じた第1辞書データ42aや第2辞書データ42bを用いることで、より地域性に富んだコンテンツを提供することができる。   A plurality of first dictionary data 42a and second dictionary data 42b may be provided. For example, the first dictionary data 42a is provided corresponding to the area, and the first dictionary data 42a for determining the source type based on the current position information and the destination information transmitted from the in-vehicle device 10 and the source to be searched You may change the 2nd dictionary data 42b for determining. As described above, by using the first dictionary data 42a and the second dictionary data 42b corresponding to the current position information and the destination information, it is possible to provide contents with more regional characteristics.

また、上述においては、ソース種別と関連づけるソースとして、ウェブサーバやデータベースサーバなどの外部ソースを例に挙げて説明したが、車載装置10内のソースをソース種別と関連づける、あるいは外部ソースと車載装置10内のソースの両方をソース種別と関連づけるようにしてもよい。例えば、車載装置10のオーディオ機能やカーナビ機能をソース種別に関連づけてもよい。このようにすることで、さらに、オーディオ機能やカーナビ機能の操作性を向上させることができる。   In the above description, an external source such as a web server or a database server is described as an example of a source associated with the source type. However, the source in the in-vehicle device 10 is associated with the source type, or the external source and the in-vehicle device 10 are associated with each other. Both of the sources may be associated with the source type. For example, the audio function or the car navigation function of the in-vehicle device 10 may be associated with the source type. In this way, the operability of the audio function and the car navigation function can be further improved.

以上、本発明の実施の形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   As described above, some of the embodiments of the present invention have been described in detail with reference to the drawings. However, these are merely examples, and various embodiments can be made based on the knowledge of those skilled in the art including the aspects described in the section of the disclosure of the invention. The present invention can be implemented in other forms that have been modified or improved.

以上のように、本発明に係る情報提供システムおよび情報提供装置は、ユーザによる操作要求を低減したい場合に適しており、特に、車載装置を用いて情報の検索操作が行われる場合に有用である。   As described above, the information providing system and the information providing apparatus according to the present invention are suitable for a case where it is desired to reduce an operation request by a user, and are particularly useful when an information search operation is performed using an in-vehicle device. .

S 情報提供システム
1,10 車載装置
2,30 音声認識サーバ
3,40 情報解析サーバ
15 制御部
15a 音声取得部
15b テキスト取得部
15c 検索要求部
15d 情報取得部
15e 情報提供処理部
42 記憶部
42a 第1辞書データ
42b 第2辞書データ
43 制御部
43a テキスト取得部
43b 決定部
43c 検索部
43d 検索結果送信部
S information providing system 1,10 vehicle-mounted device 2,30 voice recognition server 3,40 information analysis server 15 control unit 15a voice acquisition unit 15b text acquisition unit 15c search request unit 15d information acquisition unit 15e information provision processing unit 42 storage unit 42a first 1 dictionary data 42b second dictionary data 43 control unit 43a text acquisition unit 43b determination unit 43c search unit 43d search result transmission unit

Claims (8)

ユーザの要求に応じた情報を提供する情報提供システムであって、
前記ユーザが目的とする前記ユーザの動作に対応して設定されるソース種別とキーワードとを関連づける第1辞書データと、情報を提供するソースと前記ソース種別とを関連づける第2辞書データとを記憶する記憶部と、
前記要求に応じたテキストデータを取得する取得部と、
前記取得部によって取得されたテキストデータに含まれるキーワードおよび前記第1辞書データに基づいて、1以上の前記ソース種別を決定する決定部と、
前記第2辞書データに基づいて、前記決定部によって決定されたソース種別に関連づけられたソースを選択し、当該選択したソースから情報を検索する検索部と、
前記検索部によって検索された情報を提示する情報提供部と
を備えたことを特徴とする情報提供システム。
An information providing system for providing information according to a user request,
The user stores a first dictionary data relating the source type and the keywords that are set corresponding to operation of the user of interest, and sources that provide information and a second dictionary data associating said source type A storage unit;
An acquisition unit for acquiring text data in response to the request;
A determination unit that determines one or more of the source types based on a keyword and the first dictionary data included in the text data acquired by the acquisition unit;
A search unit that selects a source associated with the source type determined by the determination unit based on the second dictionary data , and searches for information from the selected source;
An information providing system comprising: an information providing unit that presents information searched by the search unit.
前記情報提供部は、
前記決定部によって決定されたソース種別が複数ある場合、前記ソース種別の選択を要求する要求画面を提示し、当該要求画面において選択されたソース種別に関連するソースから取得された情報を提示することを特徴とする請求項1に記載の情報提供システム。
The information providing unit
When there are a plurality of source types determined by the determining unit, a request screen requesting selection of the source type is presented, and information acquired from a source related to the source type selected on the request screen is presented. The information providing system according to claim 1.
前記記憶部は、
前記第1辞書データおよび前記第2辞書データを地域毎に記憶しており、
前記決定部は、
前記ユーザの現在位置または目的地に応じた地域の前記第1辞書データに基づいて前記ソース種別を決定し、
前記検索部は、
前記ユーザの現在位置または目的地に応じた地域の前記第2辞書データに基づいて前記ソースを選択する
ことを特徴とする請求項1又は2に記載の情報提供システム。
The storage unit
The first dictionary data and the second dictionary data are stored for each region,
The determination unit
Determining the source type based on the first dictionary data of the area according to the current position or destination of the user;
The search unit
The information providing system according to claim 1 or 2, wherein the source is selected based on the second dictionary data of an area corresponding to a current position or a destination of the user .
前記ユーザの音声を取得する音声取得部と、
複数の音声認識用辞書データを記憶する記憶部と、
前記音声取得部によって取得された前記音声の情報に対して、前記音声の情報に含まれるキーワードを抽出する処理を前記音声認識用辞書データ毎に行い、抽出した前記音声認識用辞書データ毎のキーワードとその信頼度とを出力するキーワード抽出部と
をさらに備え、
前記取得部は、
前記キーワード抽出部から出力された複数の前記キーワードのうち前記信頼度が高い方のキーワードを取得することを特徴とする請求項1〜3のいずれか1項に記載の情報提供システム。
A voice acquisition unit for acquiring the voice of the user;
A storage unit for storing a plurality of dictionary data for speech recognition;
For each voice recognition dictionary data, a process for extracting a keyword included in the voice information is performed on the voice information acquired by the voice acquisition unit. And a keyword extraction unit that outputs the reliability thereof ,
The acquisition unit
The information providing system according to any one of claims 1 to 3, wherein a keyword having a higher reliability among the plurality of keywords output from the keyword extraction unit is acquired.
前記ソース種別は、
少なくとも音楽情報を提供するソース種別、動画情報を提供するソース種別、および地域情報を提供するソース種別を有することを特徴とする請求項1〜4のいずれか1項に記載の情報提供システム。
The source type is
5. The information providing system according to claim 1, comprising at least a source type that provides music information, a source type that provides moving image information, and a source type that provides regional information.
ユーザの要求に応じた情報を提供する情報提供装置において、
前記ユーザが目的とする前記ユーザの動作に対応して設定されるソース種別とキーワードとを関連づける第1辞書データと、情報を提供するソースと前記ソース種別とを関連づける第2辞書データとを記憶する記憶部と、
前記要求に応じたテキストデータを取得する取得部と、
前記取得部によって取得されたテキストデータに含まれるキーワードおよび前記第1辞書データに基づいて、1以上の前記ソース種別を決定する決定部と、
前記第2辞書データに基づいて、前記決定部によって決定されたソース種別に関連づけられたソースを選択し、当該選択したソースから情報を検索する検索部と、
前記検索部によって検索された情報を提示する情報提供部と
を備えたことを特徴とする情報提供装置。
In an information providing apparatus that provides information according to a user's request,
The user stores a first dictionary data relating the source type and the keywords that are set corresponding to operation of the user of interest, and sources that provide information and a second dictionary data associating said source type A storage unit;
An acquisition unit for acquiring text data in response to the request;
A determination unit that determines one or more of the source types based on a keyword included in the text data acquired by the acquisition unit and the first dictionary data ;
A search unit that selects a source associated with the source type determined by the determination unit based on the second dictionary data , and searches for information from the selected source;
An information providing apparatus comprising: an information providing unit that presents information searched by the search unit.
ユーザ端末装置と、音声認識サーバと、情報解析サーバとを含み、ユーザの要求に応じた情報を該ユーザ端末装置によってユーザに提供する情報提供システムであって、
前記ユーザ端末装置は、
ユーザの音声を入力し音声信号に変換する音声入力部と、
前記音声入力部からの音声信号を音声認識サーバに送信する音声信号送信部と、
前記音声認識サーバからの音声認識結果を受信する端末側音声認識結果受信部と、
前記端末側音声認識結果受信部で受信した音声認識結果を前記情報解析サーバに送信する端末側音声認識結果送信部と、
前記情報解析サーバからの情報解析結果に基づきソースを選択して該ソースから情報を取得する情報取得部とを備え、
前記音声認識サーバは、
前記ユーザ端末装置からの音声信号を受信する音声信号受信部と、
前記音声信号受信部で受信した音声信号の音声認識処理を行なう音声認識部と、
前記音声認識部による音声認識結果を前記ユーザ端末装置に送信する音声認識結果送信部とを備え、
前記情報解析サーバは、
前記ユーザ端末装置からの音声認識結果を受信するサーバ側音声認識結果受信部と、
前記ユーザが目的とする前記ユーザの動作に対応して設定されるソース種別とキーワードとを関連づける第1辞書データと、ソースを特定するソース特定情報と前記ソース種別とを関連づける第2辞書データとを記憶する記憶部と、
前記サーバ側音声認識結果受信部で受信した音声認識結果に含まれるキーワードおよび前記第1辞書データに基づいて、1以上の前記ソース種別を決定する決定部と、
前記第2辞書データに基づいて、前記決定部によって決定されたソース種別に関連づけられたソース特定情報を選択するソース選択部と、
前記ソース選択部により選択されたソースを特定するためのソース特定情報を含む情報解析結果を前記ユーザ端末装置へ送信する情報解析結果送信部とを備えることを特徴とする情報提供システム。
An information providing system that includes a user terminal device, a voice recognition server, and an information analysis server, and provides information according to a user request to the user by the user terminal device,
The user terminal device
A voice input unit that inputs a user's voice and converts it into a voice signal;
A voice signal transmitting unit that transmits a voice signal from the voice input unit to a voice recognition server;
A terminal side voice recognition result receiving unit for receiving a voice recognition result from the voice recognition server;
A terminal-side speech recognition result transmitting unit that transmits the speech recognition result received by the terminal-side speech recognition result receiving unit to the information analysis server;
An information acquisition unit that selects a source based on an information analysis result from the information analysis server and acquires information from the source;
The voice recognition server
An audio signal receiving unit for receiving an audio signal from the user terminal device;
A voice recognition unit that performs voice recognition processing of the voice signal received by the voice signal receiving unit;
A voice recognition result transmission unit that transmits a voice recognition result by the voice recognition unit to the user terminal device;
The information analysis server
A server side voice recognition result receiving unit for receiving a voice recognition result from the user terminal device;
A first dictionary data relating the source type and the keyword which the user is set corresponding to the operation of the user for the purpose, and a second dictionary data associating source information that specifies a source and said source type A storage unit for storing;
A determination unit that determines one or more of the source types based on a keyword and the first dictionary data included in the speech recognition result received by the server-side speech recognition result receiving unit;
A source selection unit that selects source identification information associated with the source type determined by the determination unit based on the second dictionary data ;
An information providing system comprising: an information analysis result transmitting unit configured to transmit an information analysis result including source specifying information for specifying a source selected by the source selecting unit to the user terminal device.
ユーザ端末装置と、音声認識サーバと、情報解析サーバとを含み、ユーザの要求に応じた情報を該ユーザ端末装置によってユーザに提供する情報提供システムであって、
前記ユーザ端末装置は、
ユーザの音声を入力し音声信号に変換する音声入力部と、
前記音声入力部からの音声信号を音声認識サーバに送信する音声信号送信部と、
前記音声認識サーバからの音声認識結果を受信する端末側音声認識結果受信部と、
前記端末側音声認識結果受信部で受信した音声認識結果を前記情報解析サーバに送信する端末側音声認識結果送信部と、
前記情報解析サーバからの情報解析結果を取得する情報取得部とを備え、
前記音声認識サーバは、
前記ユーザ端末装置からの音声信号を受信する音声信号受信部と、
前記音声信号受信部で受信した音声信号の音声認識処理を行なう音声認識部と、
前記音声認識部による音声認識結果を前記ユーザ端末装置に送信する音声認識結果送信部とを備え、
前記情報解析サーバは、
前記ユーザ端末装置からの音声認識結果を受信するサーバ側音声認識結果受信部と、
前記ユーザが目的とする前記ユーザの動作に対応して設定されるソース種別とキーワードとを関連づける第1辞書データと、ソースを特定するソース特定情報と前記ソース種別とを関連づける第2辞書データとを記憶する記憶部と、
前記サーバ側音声認識結果受信部で受信した音声認識結果に含まれるキーワードおよび前記第1辞書データに基づいて、1以上の前記ソース種別を決定する決定部と、
前記第2辞書データに基づいて、前記決定部によって決定されたソース種別に関連づけられたソース特定情報を選択するソース選択部と、
前記ソース選択部により選択されたソース特定情報に基づき該当ソースから情報を検索取得する情報検索取得部と、
前記情報検索取得部による検索取得情報を含む情報解析結果を前記ユーザ端末装置へ送信する情報解析結果送信部とを備えることを特徴とする情報提供システム。
An information providing system that includes a user terminal device, a voice recognition server, and an information analysis server, and provides information according to a user request to the user by the user terminal device,
The user terminal device
A voice input unit that inputs a user's voice and converts it into a voice signal;
A voice signal transmitting unit that transmits a voice signal from the voice input unit to a voice recognition server;
A terminal side voice recognition result receiving unit for receiving a voice recognition result from the voice recognition server;
A terminal-side speech recognition result transmitting unit that transmits the speech recognition result received by the terminal-side speech recognition result receiving unit to the information analysis server;
An information acquisition unit for acquiring an information analysis result from the information analysis server,
The voice recognition server
An audio signal receiving unit for receiving an audio signal from the user terminal device;
A voice recognition unit that performs voice recognition processing of the voice signal received by the voice signal receiving unit;
A voice recognition result transmission unit that transmits a voice recognition result by the voice recognition unit to the user terminal device;
The information analysis server
A server side voice recognition result receiving unit for receiving a voice recognition result from the user terminal device;
A first dictionary data relating the source type and the keyword which the user is set corresponding to the operation of the user for the purpose, and a second dictionary data associating source information that specifies a source and said source type A storage unit for storing;
A determination unit that determines one or more of the source types based on a keyword and the first dictionary data included in the speech recognition result received by the server-side speech recognition result receiving unit;
A source selection unit that selects source identification information associated with the source type determined by the determination unit based on the second dictionary data ;
An information search and acquisition unit for searching and acquiring information from a corresponding source based on the source identification information selected by the source selection unit;
An information providing system comprising: an information analysis result transmitting unit configured to transmit an information analysis result including search acquired information by the information search acquiring unit to the user terminal device.
JP2010272059A 2010-12-06 2010-12-06 Information providing system and information providing apparatus Expired - Fee Related JP5584603B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010272059A JP5584603B2 (en) 2010-12-06 2010-12-06 Information providing system and information providing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010272059A JP5584603B2 (en) 2010-12-06 2010-12-06 Information providing system and information providing apparatus

Publications (2)

Publication Number Publication Date
JP2012123492A JP2012123492A (en) 2012-06-28
JP5584603B2 true JP5584603B2 (en) 2014-09-03

Family

ID=46504895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010272059A Expired - Fee Related JP5584603B2 (en) 2010-12-06 2010-12-06 Information providing system and information providing apparatus

Country Status (1)

Country Link
JP (1) JP5584603B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101309794B1 (en) * 2012-06-27 2013-09-23 삼성전자주식회사 Display apparatus, method for controlling the display apparatus and interactive system
KR102003255B1 (en) * 2012-06-29 2019-07-24 삼성전자 주식회사 Method and apparatus for processing multiple inputs
KR20140004515A (en) * 2012-07-03 2014-01-13 삼성전자주식회사 Display apparatus, interactive server and method for providing response information
JP5986468B2 (en) * 2012-09-25 2016-09-06 富士通テン株式会社 Display control apparatus, display system, and display control method
KR20140087717A (en) * 2012-12-31 2014-07-09 삼성전자주식회사 Display apparatus and controlling method thereof
KR20140089861A (en) * 2013-01-07 2014-07-16 삼성전자주식회사 display apparatus and method for controlling the display apparatus
KR102019719B1 (en) * 2013-01-17 2019-09-09 삼성전자 주식회사 Image processing apparatus and control method thereof, image processing system
JP6099414B2 (en) * 2013-01-28 2017-03-22 富士通テン株式会社 Information providing apparatus and information providing method
JP6545174B2 (en) * 2013-12-26 2019-07-17 コピン コーポレーション User configurable speech commands
JP2016062560A (en) * 2014-09-22 2016-04-25 株式会社東芝 Electronic apparatus and control method thereof
US11758111B2 (en) 2017-10-27 2023-09-12 Baidu Usa Llc 3D lidar system using a dichroic mirror for autonomous driving vehicles
CN107833574B (en) * 2017-11-16 2021-08-24 百度在线网络技术(北京)有限公司 Method and apparatus for providing voice service
JP6970377B2 (en) * 2017-12-01 2021-11-24 三菱自動車工業株式会社 In-vehicle user interface device
US20210357177A1 (en) * 2018-11-30 2021-11-18 Lg Electronics Inc. Vehicle control device and vehicle control method
JP2020087262A (en) * 2018-11-30 2020-06-04 株式会社Nttぷらら Information presentation system, information presentation device, information presentation method and computer program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0219972A (en) * 1988-07-08 1990-01-23 Nippon Telegr & Teleph Corp <Ntt> Output system for retrieved result information on data base
JP3200764B2 (en) * 1997-04-02 2001-08-20 カシオ計算機株式会社 Information providing device and storage medium
JP2002063203A (en) * 2000-08-15 2002-02-28 Nippon Telegr & Teleph Corp <Ntt> Information retrieving device, its method and recording medium storing information retrieving program
JP2005284880A (en) * 2004-03-30 2005-10-13 Nec Corp Voice recognition service system
JP2006285855A (en) * 2005-04-04 2006-10-19 Ntt Docomo Inc Search server

Also Published As

Publication number Publication date
JP2012123492A (en) 2012-06-28

Similar Documents

Publication Publication Date Title
JP5584603B2 (en) Information providing system and information providing apparatus
US20220253278A1 (en) Information processing device, information processing method, information processing program, and terminal device
JP5548541B2 (en) Information providing system and in-vehicle device
JP6440513B2 (en) Information providing method and device control method using voice recognition function
US20180137097A1 (en) Electronic device and control method therefor
KR102013338B1 (en) Sharing Method of Service Page and Electronic Device operating the same
US20140168130A1 (en) User interface device and information processing method
JPWO2015146017A1 (en) Voice search device, voice search method, and display device
JP2013088477A (en) Speech recognition system
KR20130038723A (en) Method and system for searching using keyword
JP4543342B2 (en) Navigation device and information providing method
US20180052658A1 (en) Information processing device and information processing method
KR20020062040A (en) Commucation method using a bluetooth and a system used therefor, and a server and a terminal used therefor
JP5374943B2 (en) Content acquisition system
JP6363030B2 (en) Information processing system and information processing apparatus
JPWO2007037040A1 (en) Broadcast receiver
JP2019056913A (en) Information providing method using voice recognition function, and control method of instrument
US8639514B2 (en) Method and apparatus for accessing information identified from a broadcast audio signal
JP5591085B2 (en) Information providing system, information retrieval device, and in-vehicle device
JP5277982B2 (en) COMMUNICATION DEVICE, CONTROL METHOD AND CONTROL PROGRAM THEREOF, SERVER, CONTROL METHOD AND CONTROL PROGRAM THEREOF, AND RECORDING MEDIUM CONTAINING THE PROGRAM
WO2022019145A1 (en) Information processing device, information processing method, and information processing program
KR101568045B1 (en) System for providing background contents of playing music file communication apparatus used in the system and control method thereof
JP2008152417A (en) Information acquisition device and information acquisition program
JP6582915B2 (en) Information display terminal and information display program
KR100679394B1 (en) System for Searching Information Using Multi-Modal Platform And Method Thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140718

R150 Certificate of patent or registration of utility model

Ref document number: 5584603

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees