JP2016017752A - Information processing system and information processing method - Google Patents
Information processing system and information processing method Download PDFInfo
- Publication number
- JP2016017752A JP2016017752A JP2014138491A JP2014138491A JP2016017752A JP 2016017752 A JP2016017752 A JP 2016017752A JP 2014138491 A JP2014138491 A JP 2014138491A JP 2014138491 A JP2014138491 A JP 2014138491A JP 2016017752 A JP2016017752 A JP 2016017752A
- Authority
- JP
- Japan
- Prior art keywords
- information terminal
- processing system
- information processing
- point
- arithmetic processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Navigation (AREA)
Abstract
Description
本発明は、入力装置および出力装置を備えている情報端末と、当該情報端末と相互通信可能なサポートサーバとにより構成されている情報処理システム等に関する。 The present invention relates to an information processing system configured by an information terminal including an input device and an output device, and a support server capable of mutual communication with the information terminal.
音声認識機能および移動体に対するナビゲーション機能を備えている情報端末が提案されている(特許文献1参照)。 An information terminal having a voice recognition function and a navigation function for a moving body has been proposed (see Patent Document 1).
しかし、音声認識機能およびナビゲーション機能には比較的高い演算処理能力が必要とされるため、情報端末の演算処理負荷が過大となり、ユーザが所望の結果をこの情報端末から取得するまでに長時間を要する等、その利便性が低下する可能性がある。 However, since the voice recognition function and the navigation function require a relatively high calculation processing capability, the calculation processing load on the information terminal becomes excessive, and it takes a long time for the user to obtain a desired result from the information terminal. For example, the convenience may be reduced.
そこで、本発明は、発話の入力機能および当該入力発話に応じた演算処理結果の出力機能を有する情報端末の利便性の向上を図りうるシステム等を提供することを目的とする。 Accordingly, an object of the present invention is to provide a system and the like that can improve the convenience of an information terminal having an input function of an utterance and an output function of an arithmetic processing result corresponding to the input utterance.
本発明の情報処理システムは、入力装置および出力装置を備えている情報端末と、当該情報端末と相互通信可能なサポートサーバとにより構成されている情報処理システムであって、前記入力装置に対して音声入力された第1エンティティによる発話の内容を表わす第1テキストを認識するように構成されている第1演算処理要素と、前記第1演算処理要素により認識された前記第1テキストに基づいて地名および地点属性のうち少なくとも1つを認識するように構成されている第2演算処理要素と、前記第2演算処理要素により認識された地名および地点属性のうち少なくとも1つに基づいて経緯度を認識するように構成されている第3演算処理要素と、前記情報端末の現在地点または出発地点としての第1地点と、前記第3演算処理要素により認識された経緯度により表わされる第2地点とを結ぶルートを探索するように構成されている第4演算処理要素と、のうち前記サポートサーバが一部または全部の演算処理要素を構成要素として備え、前記情報端末が残りの演算処理要素を構成要素として備え、前記情報端末が、前記第4演算処理要素により探索された前記ルートをマップとともに前記出力装置に表示させるように構成されていることを特徴とする。 An information processing system of the present invention is an information processing system including an information terminal including an input device and an output device, and a support server capable of mutual communication with the information terminal. A first arithmetic processing element configured to recognize the first text representing the content of the utterance by the first entity inputted by voice, and a place name based on the first text recognized by the first arithmetic processing element And a second arithmetic processing element configured to recognize at least one of the point attributes and a longitude and latitude based on at least one of the place name and the point attribute recognized by the second arithmetic processing element A third arithmetic processing element configured to, a first point as a current or starting point of the information terminal, and the third arithmetic processing element Among the fourth arithmetic processing elements configured to search for a route connecting the second point represented by the recognized longitude and latitude, the support server includes a part or all of the arithmetic processing elements as constituent elements The information terminal includes the remaining arithmetic processing elements as constituent elements, and the information terminal is configured to display the route searched for by the fourth arithmetic processing element together with a map on the output device. It is characterized by.
本発明の情報処理システムによれば、第1〜第4演算処理のうち一部または全部が、サポートサーバにより情報端末との相互通信に基づいて実行される。(1)「第1演算処理」は、入力装置に対して音声入力された第1エンティティによる発話の内容を表わす第1テキストを認識するための演算処理である。(2)「第2演算処理」は、第1テキストに基づいて地名および地点属性のうち少なくとも1つを認識するための演算処理である。(3)「第3演算処理」は、地名および地点属性のうち少なくとも1つに基づいて経緯度を認識するための演算処理である。(4)「第4演算処理」は、情報端末の現在地点または出発地点としての第1地点と、前記第3演算処理要素により認識された経緯度により表わされる第2地点とを結ぶルートを探索するための演算処理である。 According to the information processing system of the present invention, some or all of the first to fourth arithmetic processes are executed by the support server based on mutual communication with the information terminal. (1) The “first calculation process” is a calculation process for recognizing the first text representing the content of the utterance by the first entity inputted by voice to the input device. (2) “Second calculation process” is a calculation process for recognizing at least one of a place name and a point attribute based on the first text. (3) The “third calculation process” is a calculation process for recognizing the longitude and latitude based on at least one of the place name and the point attribute. (4) "Fourth calculation process" searches for a route connecting the first point as the current point or departure point of the information terminal and the second point represented by the longitude and latitude recognized by the third calculation processing element. It is the arithmetic processing for doing.
このため、第1〜第4演算処理がすべて情報端末において実行される場合と比較して情報端末の演算処理負荷が軽減される。その結果、第1エンティティの発話が入力装置に入力された後、第1地点と当該発話から認識された第2地点とを結ぶルートが出力装置に表示されるまでの時間短縮が図られるので、情報端末の利便性が図られる。 For this reason, compared with the case where all the 1st-4th arithmetic processing is performed in an information terminal, the arithmetic processing load of an information terminal is reduced. As a result, after the utterance of the first entity is input to the input device, the time until the route connecting the first point and the second point recognized from the utterance is displayed on the output device can be reduced. Convenience of the information terminal is achieved.
本発明の情報処理システムにおいて、前記第1演算処理要素が、前記入力装置に対して音声入力されたまたは前記出力装置により出力された、第2エンティティによる発話の内容を表わす第2テキストを認識するように構成され、前記第2演算処理要素が、前記第1テキストから肯定文を抽出した場合、当該肯定文を含む前記第1エンティティの発話期間よりも時系列的に前の指定期間における前記第2テキストから地名および地点属性のうち少なくとも1つを抽出するように構成されていることが好ましい。 In the information processing system according to the present invention, the first arithmetic processing element recognizes a second text representing the content of the utterance by the second entity, which is input to the input device by voice or output by the output device. When the second arithmetic processing element extracts an affirmative sentence from the first text, the second arithmetic processing element in the designated period chronologically prior to the utterance period of the first entity including the affirmative sentence It is preferable that at least one of the place name and the point attribute is extracted from the two texts.
当該構成の情報処理システムによれば、第1エンティティおよび第2エンティティのそれぞれの発話の内容が並行して音声認識される。第1エンティティが「いいね」または「‥(して)みたい」などの肯定文が含まれるような発話をした場合、その直前における第2エンティティの発話内容に対してこの第1エンティティが興味を抱いた蓋然性が高い。このため、第2エンティティの発話内容を表わす第2テキストから、第1エンティティが興味を抱いた地名等が第2地点として認識された上でルートが探索される。第1エンティティとしては、第2エンティティの発話内容に肯定するような発話をするだけでルートの探索結果を出力装置に表示させることができるので、情報端末の利便性のさらなる向上が図られる。肯定文を含む第1エンティティの発話期間が指定期間よりも「時系列的に前である」とは、当該発話期間の開始時点が指定期間の開始時点より前であることを意味し、当該発話期間の終了時点は指定期間の開始時点より前、後および同一のいずれであってもよい。「第1エンティティ」および「第2エンティティ」は異なっていても同一であってもよい。 According to the information processing system configured as described above, the contents of the utterances of the first entity and the second entity are recognized in parallel. When the first entity makes an utterance that includes an affirmative sentence such as “Like” or “I want to”, the first entity is interested in the content of the utterance of the second entity immediately before that. The probability of being held is high. For this reason, the route is searched after the place name or the like in which the first entity is interested is recognized as the second point from the second text representing the utterance content of the second entity. As the first entity, the route search result can be displayed on the output device simply by making an utterance that affirms the utterance content of the second entity, so that the convenience of the information terminal can be further improved. The utterance period of the first entity including the affirmative sentence is “before the specified period” means that the start time of the utterance period is before the start time of the specified period. The end point of the period may be any before, after or the same as the start point of the specified period. The “first entity” and the “second entity” may be different or the same.
本発明の情報処理システムにおいて、前記第1演算処理要素が、他の情報端末の入力装置に対して音声入力された前記第2エンティティの発話の内容を表わす前記第2テキストを認識するように構成され、前記情報端末が、前記サポートサーバとの通信に基づいて前記他の情報端末の現在位置を認識した上で、前記出力装置において当該他の情報端末の現在位置と関連付けて前記第2テキストを前記マップに重畳表示させるように構成されていることが好ましい。 In the information processing system of the present invention, the first arithmetic processing element is configured to recognize the second text representing the content of the utterance of the second entity inputted by voice to an input device of another information terminal. The information terminal recognizes the current position of the other information terminal based on communication with the support server, and associates the second text with the current position of the other information terminal in the output device. It is preferable to be configured to superimpose on the map.
当該構成の情報処理システムによれば、他の情報端末のユーザ(第2テキスト)の発話内容を示すテキスト(第2テキスト)が、当該他の情報端末の現在位置に関連付けられて出力装置に表示される。この結果、第1エンティティはその情報端末を通じて、他の情報端末のユーザからの発信情報を取得しうる。第1エンティティは、前記のように肯定文を含む発話によって当該発信情報に含まれる地名等に応じた第2地点を端点とするルートを取得しうる。第1エンティティは、その発話内容を情報として他の情報端末のユーザに提供してもよい。このようなユーザ間の情報交換を通じて情報端末の利便性の向上が図られる。 According to the information processing system having the configuration, the text (second text) indicating the utterance content of the user (second text) of another information terminal is displayed on the output device in association with the current position of the other information terminal. Is done. As a result, the first entity can acquire outgoing information from users of other information terminals through the information terminal. The first entity can acquire a route having the second point as an end point according to the place name included in the transmission information by the utterance including the positive sentence as described above. The first entity may provide the content of the utterance as information to the user of another information terminal. The convenience of the information terminal can be improved through such information exchange between users.
本発明の情報処理システムにおいて、前記第3演算処理要素が、前記情報端末の前記出力装置に前記ルートが前記マップとともに表示されている状態で、前記第2演算処理要素により地名および地点属性のうち少なくとも1つが認識された場合、当該地名および当該地点属性のうち少なくとも1つに基づいて指定地点、指定道路または指定領域の経緯度を認識するように構成され、前記情報端末が、前記第3演算処理要素により経緯度が認識された前記指定地点、前記指定道路または前記指定領域およびその属性を表わすマークを前記マップとともに前記出力装置に表示させるように構成されていることが好ましい。 In the information processing system according to the present invention, the third calculation processing element may include a place name and a point attribute by the second calculation processing element in a state where the route is displayed together with the map on the output device of the information terminal. When at least one is recognized, it is configured to recognize a latitude / longitude of a designated point, a designated road, or a designated region based on at least one of the place name and the point attribute, and the information terminal is configured to perform the third calculation. It is preferable that the output device is configured to display the designated point, the designated road or the designated region, and the mark representing the attribute thereof, whose longitude and latitude are recognized by the processing element, together with the map.
当該構成の情報処理システムによれば、第1エンティティの発話から第2地点が認識された後、第1エンティティ(先の発話主体と異なっていてもよい。)の発話から認識された指定地点、指定道路または指定領域およびその属性を表わすマークが、当該第2地点までのルートが重畳表示されているマップに付加的に表示される。これにより、第1地点、第2地点またはこれらを結ぶルートに対する指定地点等の相対的な配置関係を第1エンティティに把握させうる。このため、指定地点等に対する立ち寄り、迂回またはルート再検索の要否判断など第1エンティティの行動計画の容易化、ひいては情報端末の利便性の向上が図られる。 According to the information processing system of the configuration, after the second point is recognized from the utterance of the first entity, the designated point recognized from the utterance of the first entity (which may be different from the previous utterance subject), A mark representing the designated road or designated area and its attribute is additionally displayed on the map in which the route to the second point is displayed in a superimposed manner. As a result, the first entity can grasp the relative arrangement relationship such as the designated point with respect to the first point, the second point, or the route connecting them. For this reason, it is possible to facilitate the action plan of the first entity, such as a visit to a designated point or the like, determination of the necessity of detouring or route re-searching, and further improvement of convenience of the information terminal.
本発明の情報処理システムにおいて、前記情報処理システムが、前記第3演算処理要素により経緯度が認識された前記指定地点、前記指定道路または前記指定領域が、前記第1地点、前記第2地点または前記ルートを包含する領域に含まれるまたは重なることを要件として、前記マークを前記マップとともに前記出力装置に表示させるように構成されていることが好ましい。 In the information processing system of the present invention, the information processing system may be configured such that the designated point, the designated road, or the designated region in which longitude and latitude are recognized by the third arithmetic processing element are the first point, the second point, It is preferable that the mark is displayed on the output device together with the map on the condition that the mark is included in or overlaps the region including the route.
当該構成の情報処理システムによれば、第1地点等の近傍にあるまたは重複する指定地点等の相対的な配置関係を選択的に第1エンティティに把握させうる。このため、指定地点等に対する立ち寄り、迂回またはルート再検索の要否判断など第1エンティティの行動計画の容易化、ひいては情報端末の利便性の向上が図られる。 According to the information processing system configured as described above, the first entity can be selectively made aware of the relative arrangement relationship of designated points or the like that are in the vicinity of or overlap with the first point. For this reason, it is possible to facilitate the action plan of the first entity, such as a visit to a designated point or the like, determination of the necessity of detouring or route re-searching, and further improvement of convenience of the information terminal.
本発明の情報処理システムにおいて、前記第3演算処理要素が、前記第2演算処理要素により認識された地名および地点属性のうち少なくとも1つに基づいて前記第1地点の経緯度を認識するように構成されていることが好ましい。 In the information processing system of the present invention, the third calculation processing element recognizes the longitude and latitude of the first point based on at least one of the place name and the point attribute recognized by the second calculation processing element. It is preferable to be configured.
当該構成の情報処理システムによれば、第2地点のみならず第1地点も第1エンティティの発話に応じた第1〜第4演算処理を経て認識される。この結果、第1エンティティはその意に応じた2つの地点を結ぶルートを出力装置に表示させうるので、情報端末の利便性の向上が図られる。 According to the information processing system having the configuration, not only the second point but also the first point are recognized through the first to fourth calculation processes corresponding to the utterance of the first entity. As a result, the first entity can cause the output device to display a route connecting two points according to the intention, thereby improving the convenience of the information terminal.
本発明の情報処理システムにおいて、前記情報端末が携帯情報端末により構成され、前記サポートサーバが車載機器により構成されていることが好ましい。 In the information processing system of the present invention, it is preferable that the information terminal is configured by a portable information terminal and the support server is configured by an in-vehicle device.
当該構成の情報処理システムによれば、携帯情報端末と車載装置との連携によって、この携帯情報端末およびシステム全体の利便性の向上が図られる。 According to the information processing system configured as described above, the convenience of the portable information terminal and the entire system can be improved by cooperation between the portable information terminal and the in-vehicle device.
本発明の情報処理システムにおいて、前記情報端末が、インストールされている複数のアプリのうち音声認識機能を有する音声認識アプリが選択的に起動されたことに応じて、前記出力装置による画像出力態様を少なくとも部分的に静的または動的に変化させる1次出力調節処理を実行するように構成されていることが好ましい。 In the information processing system of the present invention, when the information recognition terminal selectively activates a voice recognition application having a voice recognition function among a plurality of installed applications, the image output mode by the output device is changed. It is preferably configured to perform a primary power adjustment process that varies at least partially statically or dynamically.
本発明の情報処理システムにおいて、前記情報端末が、前記1次出力調節処理を実行することにより、前記音声認識アプリの機能に応じたインターフェースを構成する機能画像の色彩もしくは形状またはそれらの組み合わせを静的または動的に変化させるように構成されていることが好ましい。 In the information processing system of the present invention, the information terminal performs the primary output adjustment process to statically change the color or shape of the functional image constituting the interface corresponding to the function of the voice recognition application or a combination thereof. It is preferable to be configured to change automatically or dynamically.
本発明の情報処理システムにおいて、前記情報端末が、前記音声認識アプリの機能により、前記入力装置に対して入力された前記第1エンティティによる発話の内容を前記第1演算処理要素に前記第1テキストとして認識させるための準備が完了したことに応じて、前記出力装置による画像出力態様を少なくとも部分的に静的または動的に変化させる2次出力調節処理を実行するように構成されていることが好ましい。 In the information processing system of the present invention, the information terminal uses the function of the voice recognition application to input the content of the utterance by the first entity input to the input device into the first arithmetic processing element as the first text. In response to the completion of the preparation for recognition, it is configured to execute a secondary output adjustment process that changes the image output mode of the output device at least partially statically or dynamically. preferable.
本発明の情報処理システムにおいて、前記情報端末が、前記2次出力調節処理を実行することにより、前記出力装置による表示画像全体の色彩を、それまでに表示されていた画像が透けて視認されるよう静的または動的に変化させるように構成されていることが好ましい。 In the information processing system of the present invention, when the information terminal executes the secondary output adjustment process, the color of the entire display image displayed by the output device can be seen through the image displayed so far. It is preferably configured to change statically or dynamically.
本発明の情報処理システムにおいて、前記情報端末が、前記1次出力調節処理および前記2次出力調節処理のそれぞれの実行により新たに出現する色の色相が同一または類似する一方、明度に高低差が生じるように、前記1次出力調節処理および前記2次出力調節処理のそれぞれを実行するように構成されていることが好ましい。 In the information processing system according to the aspect of the invention, the information terminal may have the same or similar hues of newly appearing colors due to the execution of the primary output adjustment process and the secondary output adjustment process, but there may be a difference in brightness. It is preferable that the primary output adjustment process and the secondary output adjustment process are each executed so as to occur.
本発明の情報処理システムにおいて、前記情報端末が、前記入力装置に対して前記第1エンティティによる発話が音声入力されたことに応じて、前記出力装置による画像出力態様を少なくとも部分的に静的または動的に変化させる3次出力調節処理を実行するように構成されていることが好ましい。 In the information processing system according to the present invention, the information terminal may at least partially change the image output mode by the output device in response to the speech input by the first entity being input to the input device. It is preferable that the third-order output adjustment process that dynamically changes is executed.
本発明の情報処理システムにおいて、前記情報端末が、前記2次出力調節処理を実行することにより、前記出力装置による表示画像の一部の色彩を、それまでに表示されていた画像が透けて視認されるよう静的または動的に変化させるように構成されていることが好ましい。 In the information processing system of the present invention, when the information terminal executes the secondary output adjustment process, a part of the color of the display image displayed by the output device can be seen through the previously displayed image. It is preferably configured to change statically or dynamically.
本発明の情報処理システムにおいて、前記情報端末が、前記2次出力調節処理および前記3次出力調節処理のそれぞれの実行により新たに出現する色の色相が同一または類似する一方、明度に高低差が生じるように、前記2次出力調節処理および前記3次出力調節処理のそれぞれを実行するように構成されていることが好ましい。 In the information processing system of the present invention, the information terminal has the same or similar hues of newly appearing colors by executing the secondary output adjustment process and the tertiary output adjustment process, but there is a difference in brightness. It is preferable that the secondary output adjustment process and the tertiary output adjustment process are each executed so as to occur.
当該構成の情報処理システムによれば、出力装置における画像の少なくとも一部の表示形態を変化させることにより、第1エンティティに音声認識アプリの機能または動作状態を視認させることができるため、情報端末の利便性の向上が図られる。 According to the information processing system having the above configuration, the function or operation state of the voice recognition app can be visually recognized by the first entity by changing the display form of at least a part of the image on the output device. The convenience is improved.
(構成)
図1に示されている本発明の一実施形態としての情報処理システムは、ネットワークを介して相互通信可能な複数の情報端末1およびサポートサーバ2により構成されている。
(Constitution)
The information processing system as an embodiment of the present invention shown in FIG. 1 includes a plurality of information terminals 1 and a support server 2 that can communicate with each other via a network.
情報端末1は、タブレット型端末またはスマホなど、ユーザによる携帯が可能なようにサイズ、形状および重量が設計されているあらゆる情報端末により構成されている。情報端末1は、入力装置11と、出力装置12と、制御装置14と、を備えている。情報端末1は、GPS等の利用による自己位置測定機能を備えている。 The information terminal 1 is composed of any information terminal such as a tablet-type terminal or a smartphone that is designed in size, shape, and weight so that it can be carried by a user. The information terminal 1 includes an input device 11, an output device 12, and a control device 14. The information terminal 1 has a self-position measuring function using GPS or the like.
入力装置11は音声入力装置(マイク)により構成されている。入力装置11は、付加的におよびタッチパッドのような位置入力装置または撮像装置などの非接触方式でユーザの入力操作(発話内容またはジェスチャ)の態様を検知する検知装置により構成されていてもよい。 The input device 11 is composed of a voice input device (microphone). The input device 11 may be configured by a detection device that detects a mode of a user input operation (speech content or gesture) in addition and in a non-contact manner such as a position input device such as a touch pad or an imaging device. .
出力装置12は液晶パネルのような表示装置により構成されている。位置入力装置(タッチパッド)および表示装置(液晶パネル)が組み合わせられてタッチパネルが構成されていてもよい。出力装置12が付加的に音声出力装置(スピーカ)により構成されていてもよい。 The output device 12 is configured by a display device such as a liquid crystal panel. A touch panel may be configured by combining a position input device (touch pad) and a display device (liquid crystal panel). The output device 12 may additionally be constituted by an audio output device (speaker).
制御装置14は、コンピュータ(演算処理装置および記憶装置を備えている)により構成されている。制御装置14は、第2演算処理(後述)を実行するように構成されている第2演算処理要素22を備えている。 The control device 14 is configured by a computer (comprising an arithmetic processing device and a storage device). The control device 14 includes a second arithmetic processing element 22 configured to execute a second arithmetic processing (described later).
サポートサーバ2は、第1、第3および第4演算処理のそれぞれを実行するように構成されている第1演算処理要素21、第3演算処理要素23および第4演算処理要素24を備えている。本発明の構成要素が情報演算処理を実行するように構成されているとは、当該制御装置の構成要素である演算処理装置が記憶装置(メモリ)からアプリおよび必要な情報を読み取り、当該アプリにしたがって当該情報演算処理を実行するように設計またはプログラムされていることを意味する。 The support server 2 includes a first arithmetic processing element 21, a third arithmetic processing element 23, and a fourth arithmetic processing element 24 that are configured to execute each of the first, third, and fourth arithmetic processes. . The constituent elements of the present invention are configured to execute information arithmetic processing when the arithmetic processing device that is a constituent element of the control device reads an app and necessary information from a storage device (memory) and Therefore, it means that the information calculation processing is designed or programmed.
サポートサーバ2は相互通信可能な複数のサーバにより構成されていてもよい。たとえば、第1演算処理要素21、第3演算処理要素23および第4演算処理要素24のそれぞれに相当する、3つの別個のサーバによりサポートサーバ2が構成されていてもよい。サポートサーバ2の一部または全部が、車両に搭載されている機器(電子制御ユニットまたはコンピュータなど)により構成されてもよい。 The support server 2 may be composed of a plurality of servers that can communicate with each other. For example, the support server 2 may be configured by three separate servers corresponding to the first arithmetic processing element 21, the third arithmetic processing element 23, and the fourth arithmetic processing element 24, respectively. Part or all of the support server 2 may be configured by a device (such as an electronic control unit or a computer) mounted on the vehicle.
(機能(第1実施形態))
本発明の第1実施形態としての情報処理システムの機能について説明する。情報端末1において、そこにインストールされている音声認識機能を有するナビゲーションアプリ等の音声認識アプリが起動される。これにより、たとえば図3(a)に示されているように、出力装置12にはマップMが表示され、情報端末1の現在位置が第1地点P1としてマップMに重畳表示される。
(Function (first embodiment))
The function of the information processing system as the first embodiment of the present invention will be described. In the information terminal 1, a voice recognition application such as a navigation application having a voice recognition function installed therein is activated. As a result, for example, as shown in FIG. 3A, the map M is displayed on the output device 12, and the current position of the information terminal 1 is superimposed on the map M as the first point P1.
この上で、タッチパネル(入力装置11)に対して下フリック(図3(a)下矢印参照)等の所定のタッチジェスチャがあった場合、図3(b)に示されているように、ナビゲーションアプリのガジェットG(コマンドバーまたは機能アイコン)がタッチパネル(出力装置12)に表示される。 On this, when there is a predetermined touch gesture such as a downward flick (see the down arrow in FIG. 3A) on the touch panel (input device 11), navigation is performed as shown in FIG. 3B. The app gadget G (command bar or function icon) is displayed on the touch panel (output device 12).
情報端末1において制御装置14により、第1エンティティの発話(音声データ)が入力装置11に対して入力されたか否かが判定される(図2/STEP11)。「第1エンティティ」には、たとえば情報端末1のユーザが含まれる。当該判定結果が肯定的である場合(図2/STEP11‥YES)、当該入力発話が情報端末1からサポートサーバ2に対して送信される(図2/矢印X1)。 In the information terminal 1, the control device 14 determines whether or not the utterance (voice data) of the first entity has been input to the input device 11 (FIG. 2 / STEP 11). The “first entity” includes, for example, the user of the information terminal 1. If the determination result is affirmative (FIG. 2 / STEP 11... YES), the input utterance is transmitted from the information terminal 1 to the support server 2 (FIG. 2 / arrow X1).
サポートサーバ2において第1演算処理要素21により、第1演算処理が実行される(図2/STEP21)。具体的には、入力発話が公知の音声認識手法にしたがってその内容を表わすテキストに変換される。これにより、たとえば「××(飲食業フランチャイズチェーンの名称)の○○(地名)店に行きたい。」または「△△(著名な娯楽施設の名称)はどこにある?」などのテキストが認識される。第1演算処理要素21により認識されたテキスト(第1テキスト)がサポートサーバ2から情報端末1に対して送信される(図2/矢印X2)。 In the support server 2, the first arithmetic processing element 21 executes the first arithmetic processing (FIG. 2 / STEP 21). Specifically, the input utterance is converted into a text representing its contents according to a known voice recognition method. As a result, for example, text such as “I want to go to the XX (name of restaurant franchise chain) XX (location name) store” or “△△ (name of a famous entertainment facility)?” Is recognized. . The text (first text) recognized by the first arithmetic processing element 21 is transmitted from the support server 2 to the information terminal 1 (FIG. 2 / arrow X2).
情報端末1において第2演算処理要素22により、第2演算処理が実行される(図2/STEP22)。具体的には、当該テキストが複数の言語要素(または単語)に分解され、当該複数の言語要素のうち所定の辞書(制御装置14を構成する記憶装置に格納されている。)に掲載されている言語要素が地名または地点属性として認識される。これにより、たとえば「○○(地名)」が地名として認識され、または「△△(著名な娯楽施設の名称)」がそれから地点を特定しうるような地点属性として認識される。当該抽出地名等が情報端末1からサポートサーバ2に対して送信される(図2/矢印X3)。 In the information terminal 1, the second arithmetic processing element 22 executes the second arithmetic processing (FIG. 2 / STEP22). Specifically, the text is decomposed into a plurality of language elements (or words) and posted in a predetermined dictionary (stored in a storage device constituting the control device 14) among the plurality of language elements. Language elements are recognized as place names or point attributes. Thus, for example, “XX (place name)” is recognized as a place name, or “Δ △ (name of a famous entertainment facility)” is recognized as a point attribute from which a point can be specified. The extracted place name and the like are transmitted from the information terminal 1 to the support server 2 (FIG. 2 / arrow X3).
サポートサーバ2において第3演算処理要素23により、第3演算処理が実行される(図2/STEP23)。具体的には、地名および地点属性のうち少なくとも1つがデータベースへの照会によって経緯度に変換(ジオコード化)される。これにより、たとえば「○○」という地名から(緯度、経度)=(x1,y1)という経緯度が認識され、「△△」という著名な娯楽施設の名称(地点属性)から(緯度、経度)=(x2,y2)という経緯度が認識される。サポートサーバ2から情報端末1に対して当該経緯度が送信される(図2/矢印X4)。 The third arithmetic processing is executed by the third arithmetic processing element 23 in the support server 2 (FIG. 2 / STEP 23). Specifically, at least one of the place name and point attribute is converted (geocoded) into longitude and latitude by a query to the database. Thus, for example, the longitude and latitude of (latitude, longitude) = (x1, y1) is recognized from the place name “○○”, and from the name (point attribute) of the famous entertainment facility “△△” (latitude, longitude) A longitude / latitude of = (x2, y2) is recognized. The longitude and latitude are transmitted from the support server 2 to the information terminal 1 (FIG. 2 / arrow X4).
これに応じて、情報端末1において制御装置14によりルート探索要求処理が実行される(図2/STEP10)。具体的には、図3(c)に示されているように、マップMに当該経緯度に応じた第2地点P2の位置が出力装置12に表示される。「ルートを探索しますか?」等、ルート探索の要否を問い合わせるメッセージがガジェットG(におけるメッセージウィンドウ(出力インターフェース))に表示される。その上で、第1エンティティによりガジェットGの所定箇所(入力インターフェース)に対するタッチまたはタッチジェスチャがあると、その時点における情報端末1の現在地点が第1地点P1として認識される。 In response to this, a route search request process is executed by the control device 14 in the information terminal 1 (FIG. 2 / STEP 10). Specifically, as shown in FIG. 3C, the position of the second point P <b> 2 corresponding to the longitude and latitude is displayed on the output device 12 on the map M. A message for inquiring whether route search is necessary, such as “Do you want to search for a route?”, Is displayed in the gadget G (message window (output interface)). In addition, when the first entity touches or touches a predetermined location (input interface) of the gadget G, the current location of the information terminal 1 at that time is recognized as the first location P1.
なお、「出発地点はどこですか?」等、出発地点の設定を促すメッセージがガジェットGに表示され、第1エンティティの発話に応じて第1〜第3演算処理(図2/STEP21、STEP22およびSTEP23参照)が実行された結果としての経緯度により表わされる地点が第1地点P1として認識されてもよい。第1地点P1の経緯度(ジオコード)が情報端末1からサポートサーバ2に対して送信される(図2/矢印X5)。 A message prompting the user to set the departure point such as “Where is the departure point?” Is displayed on the gadget G, and the first to third calculation processes (FIG. 2 / STEP 21, STEP 22, and STEP 23) according to the utterance of the first entity. The point represented by the longitude and latitude as a result of the execution of (reference) may be recognized as the first point P1. The longitude and latitude (geocode) of the first point P1 is transmitted from the information terminal 1 to the support server 2 (FIG. 2 / arrow X5).
サポートサーバ2において第4演算処理要素24により、第4演算処理が実行される(図2/STEP24)。具体的には、情報端末1の現在地点または出発地点としての第1地点P1と、第3演算処理要素23により認識された経緯度により表わされる第2地点P2とを結ぶサポートルートが、サポートサーバ2を構成する記憶装置に保存されているサポートマップに基づいて探索される。サポートルートを構成する複数のリンク(交差点等のノードを結ぶ道路区分)のうち少なくとも一部を識別するためのリンク識別子がサポートサーバ2から情報端末1に対して送信される(図2/矢印X6)。 In the support server 2, the fourth arithmetic processing element 24 executes the fourth arithmetic processing (FIG. 2 / STEP 24). Specifically, the support route connecting the first point P1 as the current point or departure point of the information terminal 1 and the second point P2 represented by the longitude and latitude recognized by the third arithmetic processing element 23 is a support server. 2 is searched based on the support map stored in the storage device 2. A link identifier for identifying at least a part of a plurality of links constituting the support route (a road segment connecting nodes such as intersections) is transmitted from the support server 2 to the information terminal 1 (FIG. 2 / arrow X6). ).
これに応じて、情報端末1において制御装置14により、当該リンク識別子によって識別されるリンクを含むルートRが再現され、図3(d)に示されているように当該ルートRがマップMに重畳表示される。 In response to this, the control device 14 in the information terminal 1 reproduces the route R including the link identified by the link identifier, and the route R is superimposed on the map M as shown in FIG. Is displayed.
その後、第1エンティティの発話が入力装置11に対して入力される(図2/STEP11)。この発話に応じて第2演算処理要素22により地名および地点属性のうち少なくとも1つが認識された場合、第3演算処理要素23により当該地名および当該地点属性のうち少なくとも1つに基づいて指定地点、指定道路または指定領域の経緯度が認識される(図2/STEP21→STEP22→STEP23参照)。指定道路の経緯度とは、たとえば指定道路上にある複数の断続的な地点のそれぞれの経緯度を意味する。指定領域の経緯度とは、たとえば指定領域の輪郭線上にある複数の断続的な地点のそれぞれの経緯度を意味する。 Thereafter, the utterance of the first entity is input to the input device 11 (FIG. 2 / STEP 11). If at least one of the place name and the spot attribute is recognized by the second calculation processing element 22 in response to this utterance, the designated spot based on at least one of the place name and the spot attribute by the third calculation processing element 23, The latitude and longitude of the designated road or designated area is recognized (see FIG. 2 / STEP 21 → STEP 22 → STEP 23). The longitude and latitude of the designated road means, for example, the longitude and latitude of each of a plurality of intermittent points on the designated road. The longitude and latitude of the designated area means the longitude and latitude of each of a plurality of intermittent points on the outline of the designated area, for example.
これにより、たとえば「●●(地名)って近いのかな?」または「▲▲(地点属性)があるような区域は避けたい(または行ってみたい)」などの発話に応じて、●●(地名)に応じたまたは▲▲(地点属性)を有する地点、道路または領域の経緯度が認識される。 This allows you to respond to utterances such as “Is it close to ●● (place name)?” Or “I want to avoid (or want to go to) an area with ▲▲ (point attribute)”? The latitude / longitude of a point, road or area corresponding to (place name) or having ▲▲ (point attribute) is recognized.
そして、情報端末1において制御装置14により、当該経緯度が認識された指定地点、指定道路または指定領域およびその属性を表わすマークがマップMとともに出力装置12に表示される。これにより、たとえば図3(e)に示されているように、出力装置12において指定地点およびその属性を表わすマークMK1および指定領域およびその属性を表わすマークMK2がマップMに重畳表示される。 Then, the control device 14 in the information terminal 1 displays a designated point, a designated road or a designated region where the longitude and latitude are recognized, and a mark representing its attribute on the output device 12 together with the map M. As a result, for example, as shown in FIG. 3 (e), the mark MK1 representing the designated spot and its attribute and the mark MK2 representing the designated area and its attribute are superimposed on the map M on the output device 12.
(作用効果(第1実施形態))
本発明の第1実施形態としての情報処理システムによれば、第1〜第4演算処理のうち一部または全部が、サポートサーバ2により情報端末1との相互通信に基づいて実行される(図2参照)。このため、第1〜第4演算処理がすべて情報端末1において実行される場合と比較して情報端末1の演算処理負荷が軽減される。その結果、第1エンティティの発話が入力装置11に入力された後、第1地点P1と当該発話から認識された第2地点P2とを結ぶルートRが出力装置12に表示されるまでの時間短縮が図られるので、情報端末1の利便性が図られる(図3(d)参照)。
(Operational effect (first embodiment))
According to the information processing system as the first embodiment of the present invention, part or all of the first to fourth arithmetic processes are executed by the support server 2 based on mutual communication with the information terminal 1 (see FIG. 2). For this reason, compared with the case where all the 1st-4th arithmetic processing is performed in the information terminal 1, the arithmetic processing load of the information terminal 1 is reduced. As a result, the time until the route R connecting the first point P1 and the second point P2 recognized from the utterance is displayed on the output device 12 after the utterance of the first entity is input to the input device 11 is shortened. Therefore, the convenience of the information terminal 1 is achieved (see FIG. 3D).
第1エンティティの発話から第2地点P2が認識された後、第1エンティティの発話から認識された指定地点、指定道路または指定領域およびその属性を表わすマークMK1,MK2が、当該第2地点P2までのルートRが重畳表示されているマップMに付加的に表示される(図3(e)参照)。これにより、第1地点P1、第2地点P2またはこれらを結ぶルートRに対する指定地点等の相対的な配置関係を第1エンティティに把握させうる。このため、指定地点等に対する立ち寄り、迂回またはルート再検索の要否判断など第1エンティティの行動計画の容易化、ひいては情報端末1の利便性の向上が図られる。 After the second point P2 is recognized from the utterance of the first entity, the marks MK1 and MK2 representing the designated point, the designated road or the designated area and their attributes recognized from the utterance of the first entity are to the second point P2. Is additionally displayed on the map M on which the route R is superimposed (see FIG. 3E). This allows the first entity to grasp the relative arrangement relationship of the designated point or the like with respect to the first point P1, the second point P2, or the route R connecting these. Therefore, it is possible to facilitate the action plan of the first entity, such as a visit to a designated point, determination of the necessity of detouring or route re-search, and further improvement of the convenience of the information terminal 1.
なお、指定地点等が、第1地点P1、第2地点P2またはルートRを包含する領域に含まれるまたは重なることを要件として、マークMK1,MK2が出力装置12に表示されてもよい。これにより、指定地点等に対する立ち寄り、迂回またはルート再検索の要否判断など第1エンティティの行動計画の容易化、ひいては情報端末1の利便性の向上が図られる。 The marks MK1 and MK2 may be displayed on the output device 12 on the condition that the designated point or the like is included in or overlaps the region including the first point P1, the second point P2, or the route R. As a result, the action plan of the first entity, such as a visit to a designated point or the like, determination of the necessity of detouring or route re-search, and the convenience of the information terminal 1 can be improved.
(機能(第2実施形態))
本発明の第2実施形態としての情報処理システムの機能について説明する。
(Function (second embodiment))
The function of the information processing system as the second embodiment of the present invention will be described.
情報端末1において制御装置14により、第2エンティティの発話が入力装置11に対して入力されたか否か、または、出力装置12から出力されたか否かが判定される(図4/STEP111)。当該判定結果が肯定的である場合(図4/STEP111‥YES)、当該入力発話が情報端末1からサポートサーバ2に対して送信される(図4/矢印X11)。第2エンティティの発話(音声データ)には、制御装置14に対してタイムスタンプが付され、当該発話の内容がテキスト化された際に当該テキスト(第2テキスト)に応じた発話時刻が特定される。 In the information terminal 1, the control device 14 determines whether the utterance of the second entity is input to the input device 11 or whether it is output from the output device 12 (FIG. 4 / STEP 111). If the determination result is affirmative (FIG. 4 / STEP 111... YES), the input utterance is transmitted from the information terminal 1 to the support server 2 (FIG. 4 / arrow X11). The utterance (voice data) of the second entity is given a time stamp to the control device 14, and the utterance time corresponding to the text (second text) is specified when the content of the utterance is converted into text. The
たとえば、情報端末1のそばにいる2人のユーザのうち一方のユーザの発話が入力された場合、当該判定結果が肯定的になる。第2エンティティの発話が含まれるコンテンツが出力装置12により出力された場合、当該判定結果が肯定的になる。第2エンティティの発話が他の情報端末1の入力装置11に対して入力され、サポートサーバ2から一の情報端末1に対して当該発話がそのまままたは第1演算処理要素21によりテキスト化された上で送信され、当該一の情報端末1の出力装置12により音声出力またはテキスト表示(画像出力)された場合、当該判定結果が肯定的になる。 For example, when the utterance of one of the two users near the information terminal 1 is input, the determination result is positive. When the content including the utterance of the second entity is output by the output device 12, the determination result is affirmative. The utterance of the second entity is input to the input device 11 of another information terminal 1, and the utterance is directly converted into text from the support server 2 to the one information terminal 1 by the first arithmetic processing element 21. When the output device 12 of the one information terminal 1 outputs a voice or displays a text (image output), the determination result becomes affirmative.
サポートサーバ2において第1演算処理要素21により、第1演算処理が実行され、第2エンティティの発話の内容を表わす第2テキストが認識される(図4/STEP211)。たとえば、当該発話が適当な音声認識手法にしたがってその内容を表わす第2テキストに変換される。当該発話が出力装置12により出力されたコンテンツに含まれるものである場合、当該コンテンツに関連付けられてコンテンツデータベースに予め保存されている第2テキストが検索される。当該発話が他の情報端末1のユーザの発話である場合、第1演算処理要素21によってすでにテキスト化され(図2/STEP11→STEP21参照)、記憶装置または発話履歴データベースに蓄積されている第2テキストが読み出される。この読み出しに際して、一の情報端末1に対する情報発信源である当該他の情報端末1を識別するための端末識別子が用いられる。すなわち、発話履歴データベースには、テキストおよびその基礎となる発話の発信源である各情報端末の端末識別子とを関連付けて保存している、これにより、たとえば「○○(地名)の□□(商業施設名称)はサービスがよいらしいよ」または「×××(商業施設名称)の△(商品名)は一見の価値あり」などのテキストが認識される。 In the support server 2, the first arithmetic processing element 21 executes the first arithmetic processing and recognizes the second text representing the content of the utterance of the second entity (FIG. 4 / STEP 211). For example, the utterance is converted into a second text representing its contents according to an appropriate speech recognition technique. If the utterance is included in the content output by the output device 12, the second text that is associated with the content and stored in advance in the content database is searched. When the utterance is the utterance of the user of the other information terminal 1, the first arithmetic processing element 21 has already converted the text into text (see FIG. 2 / STEP 11 → STEP 21) and stored in the storage device or the utterance history database. The text is read out. At the time of this reading, a terminal identifier for identifying the other information terminal 1 that is an information transmission source for one information terminal 1 is used. That is, in the utterance history database, the text and the terminal identifier of each information terminal that is the source of the utterance that is the basis of the text are stored in association with each other. A text such as “The facility name) seems to have good service” or “△ (product name) of XXX (commercial facility name) is worth seeing” is recognized.
情報端末1において制御装置14により、第1エンティティの発話が入力装置11に対して入力されたか否かが判定される(図4/STEP112)。第1エンティティの発話(音声データ)には、制御装置14に対してタイムスタンプが付され、当該発話の内容がテキスト化された際に当該テキスト(第1テキスト)に応じた発話時刻が特定される。当該判定結果が肯定的である場合(図4/STEP112‥YES)、当該入力発話が情報端末1からサポートサーバ2に対して送信される(図4/矢印X12)。 In the information terminal 1, the control device 14 determines whether or not the utterance of the first entity is input to the input device 11 (FIG. 4 / STEP 112). The utterance (voice data) of the first entity is given a time stamp to the control device 14, and the utterance time corresponding to the text (first text) is specified when the content of the utterance is converted into text. The If the determination result is affirmative (FIG. 4 / STEP 112... YES), the input utterance is transmitted from the information terminal 1 to the support server 2 (FIG. 4 / arrow X12).
たとえば、情報端末1のそばにいる2人のユーザのうち他方のユーザの発話または出力装置12から音声出力された発話が入力装置11に対して音声入力された場合、当該判定結果が肯定的になる。発話主体の判別は、適当な話者認識手法にしたがって実行されうる。第2エンティティの発話が一の情報端末1の出力装置12により音声出力またはテキスト表示(画像出力)されたことに応じて、当該一の情報端末1のユーザが発話した場合、当該判定結果が肯定的になる。 For example, when the utterance of the other user out of two users near the information terminal 1 or the utterance output from the output device 12 is input to the input device 11, the determination result is positive. Become. The determination of the utterance subject can be performed according to an appropriate speaker recognition method. When the user of the one information terminal 1 speaks in response to the utterance of the second entity being voice output or text display (image output) by the output device 12 of the one information terminal 1, the determination result is positive. Become.
サポートサーバ2において第1演算処理要素21により、第1演算処理が実行され、第1エンティティの発話の内容を表わす第1テキストが適当な音声認識手法にしたがって認識される(図4/STEP212)。第1演算処理要素21により認識されたテキスト(第1テキスト)がサポートサーバ2から情報端末1に対して送信される(図2/矢印X2)。 In the support server 2, the first arithmetic processing element 21 executes the first arithmetic processing, and the first text representing the content of the utterance of the first entity is recognized according to an appropriate speech recognition technique (FIG. 4 / STEP 212). The text (first text) recognized by the first arithmetic processing element 21 is transmitted from the support server 2 to the information terminal 1 (FIG. 2 / arrow X2).
情報端末1において第2演算処理要素22により第2演算処理が実行され、第1テキストから肯定文が抽出されたか否かが判定される(図4/STEP221)。具体的には、第1テキストが複数の言語要素(または単語)に分解され、当該複数の言語要素のうち第1辞書(制御装置14を構成する記憶装置に格納されている。)に掲載されている言語要素が肯定文として抽出される。たとえば「いいね」「よさそう」「おもしろそう」または「‥(して)みたい」などの言語要素が肯定文として第1テキストから抽出される。 In the information terminal 1, the second arithmetic processing element 22 executes the second arithmetic processing, and it is determined whether or not an affirmative sentence is extracted from the first text (FIG. 4 / STEP 221). Specifically, the first text is decomposed into a plurality of language elements (or words), and is posted in a first dictionary (stored in a storage device constituting the control device 14) among the plurality of language elements. Language elements are extracted as positive sentences. For example, language elements such as “Like”, “Looks good”, “Looks interesting” or “Looks like” are extracted from the first text as positive sentences.
当該判定結果が肯定的であった場合(図4/STEP221‥YES)、第2演算処理要素22により第2演算処理が実行され、肯定文を含む第1エンティティの発話期間より時系列的に前の指定期間に含まれる第2テキストから地名および地点属性のうち一方または両方が抽出されたか否かが判定される(図4/STEP222)。発話期間および指定期間は、前記タイムスタンプにより特定されうる。具体的には、第2テキストが複数の言語要素(または単語)に分解され、当該複数の言語要素のうち第2辞書(制御装置14を構成する記憶装置に格納されている。)に掲載されている言語要素が地名または地点属性として抽出される。たとえば「○○(地名)」が地名として認識され、または「×××(商業施設名称)」がそれから地点を特定しうるような地点属性として第2テキストから抽出される。 If the determination result is affirmative (FIG. 4 / STEP 221... YES), the second arithmetic processing element 22 executes the second arithmetic processing, and chronologically precedes the utterance period of the first entity including the positive sentence. It is determined whether or not one or both of the place name and the point attribute are extracted from the second text included in the designated period (FIG. 4 / STEP 222). The utterance period and the designated period can be specified by the time stamp. Specifically, the second text is decomposed into a plurality of language elements (or words), and is posted in a second dictionary (stored in a storage device constituting the control device 14) among the plurality of language elements. Language elements are extracted as place names or point attributes. For example, “XX (place name)” is recognized as the place name, or “xxx (commercial facility name)” is extracted from the second text as a point attribute from which the point can be specified.
当該判定結果が肯定的であった場合(図4/STEP222‥YES)、情報端末1からサポートサーバ2に対して地名等が送信される(図4/矢印X3)。これ以後の演算処理内容(図4/STEP23→STEP10→STEP24→STEP12)は、第1実施形態と同様であるため説明を省略する。 If the determination result is affirmative (FIG. 4 / STEP 222... YES), a place name and the like are transmitted from the information terminal 1 to the support server 2 (FIG. 4 / arrow X3). Subsequent calculation processing contents (FIG. 4 / STEP 23 → STEP 10 → STEP 24 → STEP 12) are the same as those in the first embodiment, and thus description thereof is omitted.
(作用効果(第2実施形態))
本発明の第2実施形態としての情報処理システムによれば、第1エンティティおよび第2エンティティのそれぞれの発話の内容が並行して音声認識される(図4/STEP211および212参照)。第1エンティティが「いいね」または「‥(して)みたい」などの肯定文が含まれるような発話をした場合、その直前における第2エンティティの発話内容に対してこの第1エンティティが興味を抱いた蓋然性が高い。このため、第2エンティティの発話内容を表わす第2テキストから、第1エンティティが興味を抱いた地名等が第2地点P2として認識された上でルートRが探索される(図3(d)、図4/STEP24参照)。第1エンティティとしては、第2エンティティの発話内容に肯定するような発話をするだけでルートRの探索結果を出力装置12に表示させることができるので、情報端末1の利便性のさらなる向上が図られる。
(Operational effect (second embodiment))
According to the information processing system as the second embodiment of the present invention, the contents of the utterances of the first entity and the second entity are recognized in parallel (see FIG. 4 / STEPs 211 and 212). When the first entity makes an utterance that includes an affirmative sentence such as “Like” or “I want to”, the first entity is interested in the content of the utterance of the second entity immediately before that. The probability of being held is high. For this reason, the route R is searched from the second text representing the utterance content of the second entity after the place name and the like in which the first entity is interested are recognized as the second point P2 (FIG. 3 (d), (See FIG. 4 / STEP 24). As the first entity, the search result of the route R can be displayed on the output device 12 only by making an utterance that affirms the utterance content of the second entity, so that the convenience of the information terminal 1 can be further improved. It is done.
なお、第1演算処理要素21が、他の情報端末1の入力装置11に対して音声入力された第2エンティティの発話の内容を表わす第2テキストを認識した場合、情報端末1が、サポートサーバ2との通信に基づいて当該他の情報端末1の現在位置を認識した上で、出力装置12において当該他の情報端末1の現在位置と関連付けて第2テキストをマップMに重畳表示させてもよい。 In addition, when the 1st arithmetic processing element 21 recognizes the 2nd text showing the content of the utterance of the 2nd entity voice-inputted with respect to the input device 11 of the other information terminal 1, the information terminal 1 is a support server. 2, the second text is superimposed on the map M in association with the current position of the other information terminal 1 in the output device 12 after the current position of the other information terminal 1 is recognized. Good.
当該構成の情報処理システムによれば、第1エンティティはその情報端末1を通じて、他の情報端末1のユーザからの発信情報を取得しうる。第1エンティティは、前記のように肯定文を含む発話によって当該発信情報に含まれる地名等に応じた第2地点P2を端点とするルートRを取得しうる。第1エンティティは、その発話内容を情報として他の情報端末1のユーザに提供してもよい。このようなユーザ間の情報交換を通じて情報端末1の利便性の向上が図られる。 According to the information processing system having the configuration, the first entity can acquire the transmission information from the user of the other information terminal 1 through the information terminal 1. As described above, the first entity can acquire the route R having the second point P2 as an end point according to the place name included in the transmission information by the utterance including the affirmative sentence. The first entity may provide the utterance content as information to the user of another information terminal 1. The convenience of the information terminal 1 can be improved through such information exchange between users.
(本発明の他の実施形態)
前記実施形態では、サポートサーバ2により第1、第3および第4演算処理が実行され、情報端末1により第2演算処理が実行されたが、サポートサーバ2により第1〜第4演算処理のうち全部が実行されてもよい。情報端末1およびサポートサーバ2による第1〜第4演算処理の分担処理はその他の実施形態にしたがって実行されてもよい。
(Other embodiments of the present invention)
In the embodiment, the support server 2 executes the first, third, and fourth arithmetic processes and the information terminal 1 executes the second arithmetic process. However, the support server 2 includes the first to fourth arithmetic processes. All may be performed. The sharing process of the first to fourth calculation processes by the information terminal 1 and the support server 2 may be executed according to other embodiments.
表1には、第1実施形態(実施例2)に加えて当該分担処理の他の実施形態が示されている。「●」は第k演算処理(k=1,2,3,4)(「処理k」と略記)の実行主体が情報端末であることを意味し、「○」は当該実行主体がサポートサーバ2であることを意味している。情報端末1およびサポートサーバ2の間の通信X1〜X6(図2参照)に関して「●→○」は情報端末1からサポートサーバ2への送信を意味し、「○→●」はサポートサーバ2から情報端末1への送信を意味し、「−」は通信省略可であることを意味している。ただし、前記のようにサポートサーバ2が複数のサーバにより構成されている場合、「−」は当該複数のサーバの間の送受信が省略されることを意味しない。 Table 1 shows another embodiment of the sharing process in addition to the first embodiment (Example 2). “●” means that the execution subject of the k-th arithmetic processing (k = 1, 2, 3, 4) (abbreviated as “processing k”) is an information terminal, and “◯” indicates that the execution subject is a support server. 2 means. Regarding communication X1 to X6 (see FIG. 2) between the information terminal 1 and the support server 2, “● → ○” means transmission from the information terminal 1 to the support server 2, and “◯ → ●” means transmission from the support server 2. This means transmission to the information terminal 1, and “-” means that communication can be omitted. However, when the support server 2 is configured by a plurality of servers as described above, “−” does not mean that transmission / reception between the plurality of servers is omitted.
情報端末1において音声入力機能を有するアプリが起動された後、実際に音声認識が可能となるまでにタイムラグがあり、この間に第1エンティティの発話が開始されると、発話の冒頭部分が欠落して音声認識結果が誤ったものとなる。このため、当該アプリのコマンドバーの表示態様の変化またはピープ音等の音声により音声認識可能な状態になったことが第1エンティティに対して通知されていた。 There is a time lag after the application having the voice input function is started in the information terminal 1 until the voice can actually be recognized. If the first entity starts to speak during this time, the beginning of the utterance is lost. As a result, the speech recognition result is incorrect. For this reason, the first entity has been notified that the state of voice recognition is enabled by a change in the display mode of the command bar of the application or a sound such as a peep sound.
しかし、たとえば第1エンティティが車両を運転しているため、その視野の狭小化またはロードノイズの発生などにより、この通知を視覚的または聴覚的に認識しがたい状況もある。 However, for example, since the first entity is driving the vehicle, there are situations where it is difficult to visually or audibly recognize this notification due to narrowing of the field of view or generation of road noise.
そこで、音声認識が可能となったタイミングにおいて出力装置12における出力画面の少なくとも一部の色調がそれまでの色調から変化するように制御される。音声入力が終了したタイミングでその色調が元に戻されることが好ましい。 Therefore, at the timing when voice recognition is enabled, control is performed so that the color tone of at least a part of the output screen in the output device 12 changes from the previous color tone. It is preferable that the color tone is restored to the original at the timing when the voice input is completed.
具体的には、図5(a)に示されているマップMの通常(日中の設定)の色調は、白または薄肌色などの低彩度(たとえばベールトーン)または中彩度(たとえばライトトーン)の色調を基調としている。その一方、図5(a)に示されているガジェットGの色調は、黒またはグレーなどの無彩色または高彩度(たとえばストロングトーン)の色調を基調とし、これによりその視認性向上が図られている。ガジェットGは前記のようにタッチパネル(入力装置11)における下フリック等のタッチジェスチャにより、タッチパネル(出力装置12)により表示される(図3(a)→図3(b)参照)。 Specifically, the normal (daytime setting) color tone of the map M shown in FIG. 5A is low saturation (for example, veil tone) such as white or light skin color, or medium saturation (for example, light). Tone). On the other hand, the color tone of the gadget G shown in FIG. 5A is based on an achromatic color such as black or gray or a color tone of high saturation (for example, a strong tone), thereby improving the visibility. . The gadget G is displayed on the touch panel (output device 12) by the touch gesture such as the lower flick on the touch panel (input device 11) as described above (see FIG. 3A → FIG. 3B).
複数のガジェットの中から一のガジェットGが選択され、これに相当する音声認識機能を有するアプリが選択的に起動されたことに応じて、出力装置12による画像出力態様が少なくとも部分的に変更される(1次出力調節処理)。ボイスナビゲーション機能、ボイスメッセージ機能またはミュージックサーバのボイス選曲機能などを有するアプリが音声認識機能を有するアプリに該当する。たとえば、タッチパネル(出力装置12)の画面の一部の色もしくは形状またはこれらの組み合わせが静的または動的に変更される。これにより、図5(b)に太線で示されているガジェットGの輪郭部分が高明度の色(たとえば緑色)で表示される。 When one gadget G is selected from a plurality of gadgets and an app having a voice recognition function corresponding thereto is selectively activated, the image output mode by the output device 12 is changed at least partially. (Primary output adjustment processing). An application having a voice navigation function, a voice message function, or a music server voice selection function corresponds to an application having a voice recognition function. For example, the color or shape of a part of the screen of the touch panel (output device 12) or a combination thereof is changed statically or dynamically. Thereby, the outline part of the gadget G shown by the thick line in FIG.5 (b) is displayed by the color (for example, green) of high brightness.
アプリの起動後、情報端末1がその入力装置11に対する音声入力のための準備を終了したことに応じて、出力装置12による画像出力態様が少なくとも部分的に変更される(2次出力調節処理)。当該準備としては、情報端末1における制御装置14の単独の予備処理のほか、情報端末1とサポートサーバ2とが相互通信により音声認識が可能であることを確認するための処理が含まれる。たとえば、出力装置12の画面全体の色が変更される。これにより、図5(c)に薄灰色が付されているタッチパネル画面の全体が低明度の色(たとえば緑色)で表示される。ただし、画面全体の色調が変化されても、それまで表示されていた画像は透けて視認できるようにその色調が調節されている。 After the application is activated, the image output mode by the output device 12 is changed at least partially in response to the information terminal 1 completing preparations for voice input to the input device 11 (secondary output adjustment processing). . The preparation includes a process for confirming that the information terminal 1 and the support server 2 can perform voice recognition by mutual communication, in addition to a single preliminary process of the control device 14 in the information terminal 1. For example, the color of the entire screen of the output device 12 is changed. As a result, the entire touch panel screen indicated by light gray in FIG. 5C is displayed in a low brightness color (for example, green). However, even if the color tone of the entire screen is changed, the color tone is adjusted so that the image displayed so far can be seen through.
2次出力調節処理の実行中に第1エンティティの発話が入力装置11に対して入力されたこと、または、当該発話がテキスト化されたことに応じて、出力装置12による画像出力態様が少なくとも部分的に変更される(3次出力調節処理)。これにより、図5(d)に示されている画面中央部分Aが周囲よりも高明度の色(たとえば緑色)で表示される。中央部分Aは、その形状が動的に変化するように表示される。 When the utterance of the first entity is input to the input device 11 during execution of the secondary output adjustment process, or the utterance is converted into text, the image output mode by the output device 12 is at least partially. (Third-order output adjustment processing). As a result, the screen center portion A shown in FIG. 5D is displayed in a lighter color (for example, green) than the surroundings. The central portion A is displayed such that its shape changes dynamically.
タッチパネル(出力装置12)において、1次出力調節処理、2次出力調節処理および3次出力調節処理のそれぞれにより出現する色の色相を同一または近接させる(同系色とする)ことで、同一のアプリの機能に応じた出力態様変化であることが表現される。複数のアプリのそれぞれに対して異なる色相が個別に割り当てられることにより、各出力調節処理によって出現する色の色相の別に応じて、どのアプリの機能に応じた出力態様変化であるかが表現される。1次出力調節処理による変更後の色の明度が2次出力調節処理による変更後の色の明度よりも高く調節されることで、いずれのアプリのガジェットGが選択されたかが強調される。 In the touch panel (output device 12), the same application can be obtained by making the hues of colors appearing in the primary output adjustment process, the secondary output adjustment process, and the tertiary output adjustment process the same or close to each other (similar colors). It is expressed that the output mode changes according to the function. By assigning a different hue to each of a plurality of applications, it is expressed which output mode change corresponds to which application function depending on the hue of the color that appears by each output adjustment process. . By adjusting the lightness of the color after the change by the primary output adjustment process higher than the lightness of the color after the change by the secondary output adjustment process, it is emphasized which gadget G of the application is selected.
発話が一定時間以上にわたり入力装置11に対して入力されなかった場合、音声認識機能を有するアプリの動作が終了し、出力装置12の出力携帯も通常の出力態様に戻される(図5(a)参照)。 When the utterance is not input to the input device 11 for a certain time or more, the operation of the application having the voice recognition function is finished, and the output device of the output device 12 is also returned to the normal output mode (FIG. 5A). reference).
1‥情報端末、2‥サポートサーバ、11‥入力装置、12‥出力装置、14‥制御装置、21‥第1演算処理要素、22‥第2演算処理要素、23‥第3演算処理要素、24‥第4演算処理要素。 DESCRIPTION OF SYMBOLS 1 ... Information terminal, 2 ... Support server, 11 ... Input device, 12 ... Output device, 14 ... Control device, 21 ... First arithmetic processing element, 22 ... Second arithmetic processing element, 23 ... Third arithmetic processing element, 24 ... 4th arithmetic processing element.
Claims (18)
前記入力装置に対して音声入力された第1エンティティによる発話の内容を表わす第1テキストを認識するように構成されている第1演算処理要素と、
前記第1演算処理要素により認識された前記第1テキストに基づいて地名および地点属性のうち少なくとも1つを認識するように構成されている第2演算処理要素と、
前記第2演算処理要素により認識された地名および地点属性のうち少なくとも1つに基づいて経緯度を認識するように構成されている第3演算処理要素と、
前記情報端末の現在地点または出発地点としての第1地点と、前記第3演算処理要素により認識された経緯度により表わされる第2地点とを結ぶルートを探索するように構成されている第4演算処理要素と、のうち前記サポートサーバが一部または全部の演算処理要素を構成要素として備え、前記情報端末が残りの演算処理要素を構成要素として備え、
前記情報端末が、前記第4演算処理要素により探索された前記ルートをマップとともに前記出力装置に表示させるように構成されていることを特徴とする情報処理システム。 An information processing system including an information terminal including an input device and an output device, and a support server capable of mutual communication with the information terminal,
A first arithmetic processing element configured to recognize a first text representing the content of an utterance by a first entity that is voice input to the input device;
A second arithmetic processing element configured to recognize at least one of a place name and a point attribute based on the first text recognized by the first arithmetic processing element;
A third arithmetic processing element configured to recognize longitude and latitude based on at least one of the place name and the point attribute recognized by the second arithmetic processing element;
A fourth calculation configured to search for a route connecting the first point as the current point or the departure point of the information terminal and the second point represented by the longitude and latitude recognized by the third calculation processing element; Among the processing elements, the support server includes some or all of the arithmetic processing elements as constituent elements, and the information terminal includes the remaining arithmetic processing elements as constituent elements,
An information processing system, wherein the information terminal is configured to cause the output device to display the route searched by the fourth arithmetic processing element together with a map.
前記第1演算処理要素が、前記入力装置に対して音声入力されたまたは前記出力装置により出力された、第2エンティティによる発話の内容を表わす第2テキストを認識するように構成され、
前記第2演算処理要素が、前記第1テキストから肯定文を抽出した場合、当該肯定文を含む前記第1エンティティの発話期間よりも時系列的に前の指定期間における前記第2テキストから地名および地点属性のうち少なくとも1つを抽出するように構成されていることを特徴とする情報処理システム。 The information processing system according to claim 1,
The first arithmetic processing element is configured to recognize a second text representing a content of an utterance by a second entity, which is input by voice to the input device or output by the output device;
When the second arithmetic processing element extracts an affirmative sentence from the first text, the place name and the name from the second text in the specified period chronologically prior to the utterance period of the first entity including the affirmative sentence An information processing system configured to extract at least one of point attributes.
前記第1演算処理要素が、他の情報端末の入力装置に対して音声入力された前記第2エンティティの発話の内容を表わす前記第2テキストを認識するように構成され、
前記情報端末が、前記サポートサーバとの通信に基づいて前記他の情報端末の現在位置を認識した上で、前記出力装置において当該他の情報端末の現在位置と関連付けて前記第2テキストを前記マップに重畳表示させるように構成されていることを特徴とする情報処理システム。 The information processing system according to claim 2,
The first arithmetic processing element is configured to recognize the second text representing the content of the utterance of the second entity inputted by voice to an input device of another information terminal,
The information terminal recognizes the current position of the other information terminal based on communication with the support server, and associates the second text with the current position of the other information terminal in the output device. An information processing system configured to be displayed in a superimposed manner.
前記第3演算処理要素が、前記情報端末の前記出力装置に前記ルートが前記マップとともに表示されている状態で、前記第2演算処理要素により認識された地名および地点属性のうち少なくとも1つが認識された場合、当該地名および当該地点属性のうち少なくとも1つに基づいて指定地点、指定道路または指定領域の経緯度を認識するように構成され、
前記情報端末が、前記第3演算処理要素により経緯度が認識された前記指定地点、前記指定道路または前記指定領域およびその属性を表わすマークを前記マップとともに前記出力装置に表示させるように構成されていることを特徴とする情報処理システム。 In the information processing system according to any one of claims 1 to 3,
In the state where the third arithmetic processing element is displayed on the output device of the information terminal together with the map, at least one of the place name and the point attribute recognized by the second arithmetic processing element is recognized. In such a case, it is configured to recognize a latitude / longitude of a designated point, a designated road or a designated region based on at least one of the place name and the point attribute,
The information terminal is configured to cause the output device to display a mark representing the designated point, the designated road or the designated region and its attribute whose longitude and latitude are recognized by the third arithmetic processing element together with the map. An information processing system characterized by
前記情報端末が、前記第3演算処理要素により経緯度が認識された前記指定地点、前記指定道路または前記指定領域が、前記第1地点、前記第2地点または前記ルートを包含する領域に含まれるまたは重なることを要件として、前記マークを前記マップとともに前記出力装置に表示させるように構成されていることを特徴とする情報処理システム。 The information processing system according to claim 4,
In the information terminal, the designated point, the designated road, or the designated region whose longitude and latitude are recognized by the third arithmetic processing element is included in the region including the first point, the second point, or the route. Alternatively, the information processing system is configured to display the mark together with the map on the output device on condition that they overlap.
前記第3演算処理要素が、前記第2演算処理要素により認識された地名および地点属性のうち少なくとも1つに基づいて前記第1地点の経緯度を認識するように構成されていることを特徴とする情報処理システム。 In the information processing system according to any one of claims 1 to 5,
The third arithmetic processing element is configured to recognize the longitude and latitude of the first point based on at least one of a place name and a point attribute recognized by the second arithmetic processing element. Information processing system.
前記情報端末が携帯情報端末により構成され、前記サポートサーバが車載機器により構成されていることを特徴とする情報処理システム。 In the information processing system according to any one of claims 1 to 6,
The information processing system, wherein the information terminal is configured by a portable information terminal, and the support server is configured by an in-vehicle device.
前記情報端末が、インストールされている複数のアプリのうち音声認識機能を有する音声認識アプリが選択的に起動されたことに応じて、前記出力装置による画像出力態様を少なくとも部分的に静的または動的に変化させる1次出力調節処理を実行するように構成されていることを特徴とする情報処理システム。 In the information processing system according to any one of claims 1 to 7,
In response to the voice recognition application having a voice recognition function being selectively activated among the plurality of installed applications, the information terminal is configured to at least partially change the image output mode by the output device. An information processing system configured to execute a primary output adjustment process that changes in a stepwise manner.
前記情報端末が、前記1次出力調節処理を実行することにより、前記音声認識アプリの機能に応じたインターフェースを構成する機能画像の色彩もしくは形状またはそれらの組み合わせを静的または動的に変化させるように構成されていることを特徴とする情報処理システム。 The information processing system according to claim 8,
By executing the primary output adjustment process, the information terminal statically or dynamically changes the color or shape of the functional image constituting the interface corresponding to the function of the voice recognition application or a combination thereof. An information processing system configured as described above.
前記情報端末が、前記音声認識アプリの機能により、前記入力装置に対して入力された前記第1エンティティによる発話の内容を前記第1演算処理要素に前記第1テキストとして認識させるための準備が完了したことに応じて、前記出力装置による画像出力態様を少なくとも部分的に静的または動的に変化させる2次出力調節処理を実行するように構成されていることを特徴とする情報処理システム。 The information processing system according to claim 8 or 9,
Preparations for the information terminal to cause the first arithmetic processing element to recognize the content of the utterance by the first entity input to the input device as the first text by the function of the voice recognition application are completed. In response to this, an information processing system is configured to execute a secondary output adjustment process that changes the image output mode of the output device at least partially statically or dynamically.
前記情報端末が、前記2次出力調節処理を実行することにより、前記出力装置による表示画像全体の色彩を、それまでに表示されていた画像が透けて視認されるよう静的または動的に変化させるように構成されていることを特徴とする情報処理システム。 The information processing system according to claim 10.
By executing the secondary output adjustment process, the information terminal statically or dynamically changes the color of the entire display image displayed by the output device so that the image displayed so far can be seen through. An information processing system characterized by being configured to cause
前記情報端末が、前記1次出力調節処理および前記2次出力調節処理のそれぞれの実行により新たに出現する色の色相が同一または類似する一方、明度に高低差が生じるように、前記1次出力調節処理および前記2次出力調節処理のそれぞれを実行するように構成されていることを特徴とする情報処理システム。 The information processing system according to claim 10 or 11,
The primary output is set so that the hue of the newly appearing color is the same or similar while the information terminal performs the primary output adjustment process and the secondary output adjustment process, respectively, while the brightness varies. An information processing system configured to execute each of an adjustment process and the secondary output adjustment process.
前記情報端末が、前記入力装置に対して前記第1エンティティによる発話が音声入力されたことに応じて、前記出力装置による画像出力態様を少なくとも部分的に静的または動的に変化させる3次出力調節処理を実行するように構成されていることを特徴とする情報処理システム。 In the information processing system according to any one of claims 8 to 12,
Tertiary output in which the information terminal changes the image output mode by the output device at least partially statically or dynamically in response to a voice input by the first entity to the input device. An information processing system configured to execute adjustment processing.
前記情報端末が、前記2次出力調節処理を実行することにより、前記出力装置による表示画像の一部の色彩を、それまでに表示されていた画像が透けて視認されるよう静的または動的に変化させるように構成されていることを特徴とする情報処理システム。 The information processing system according to claim 13.
When the information terminal executes the secondary output adjustment process, static or dynamic so that a part of the color of the display image displayed by the output device can be seen through the previously displayed image. An information processing system that is configured to be changed.
前記情報端末が、前記2次出力調節処理および前記3次出力調節処理のそれぞれの実行により新たに出現する色の色相が同一または類似する一方、明度に高低差が生じるように、前記2次出力調節処理および前記3次出力調節処理のそれぞれを実行するように構成されていることを特徴とする情報処理システム。 The information processing system according to claim 13 or 14,
The secondary output is performed so that the hue of the newly appearing color is the same or similar while the information terminal performs the secondary output adjustment process and the tertiary output adjustment process, respectively, while a difference in brightness occurs. An information processing system configured to execute each of an adjustment process and the tertiary output adjustment process.
前記入力装置に対して音声入力された第1エンティティによる発話の内容を表わす第1テキストを認識する第1演算処理過程と、
前記第1演算処理過程において認識された前記第1テキストに基づいて地名および地点属性のうち少なくとも1つを認識する第2演算処理過程と、
前記第2演算処理過程において認識された地名および地点属性のうち少なくとも1つに基づいて経緯度を認識する第3演算処理過程と、
前記情報端末の現在地点または出発地点としての第1地点と、前記第3演算処理過程において認識された経緯度により表わされる第2地点とを結ぶルートを探索する第4演算処理過程と、
前記第4演算処理過程において探索された前記ルートをマップとともに前記出力装置に表示する過程と、を含み、
前記第1〜第4演算処理過程のうち一部または全部の演算処理過程が前記サポートサーバにより実行され、残りの演算処理過程が前記情報端末により実行されることを特徴とする方法。 An information processing method implemented by mutual communication between an information terminal having an input device and an output device, and a support server,
A first arithmetic processing step for recognizing a first text representing a content of an utterance by a first entity inputted by voice to the input device;
A second arithmetic processing step for recognizing at least one of a place name and a point attribute based on the first text recognized in the first arithmetic processing step;
A third calculation process for recognizing longitude and latitude based on at least one of the place name and the point attribute recognized in the second calculation process;
A fourth calculation processing step of searching for a route connecting the first point as the current point or departure point of the information terminal and the second point represented by the longitude and latitude recognized in the third calculation processing step;
Displaying the route searched in the fourth arithmetic processing step together with a map on the output device,
A method wherein a part or all of the first to fourth arithmetic processing steps are executed by the support server, and the remaining arithmetic processing steps are executed by the information terminal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014138491A JP6333092B2 (en) | 2014-07-04 | 2014-07-04 | Information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014138491A JP6333092B2 (en) | 2014-07-04 | 2014-07-04 | Information processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016017752A true JP2016017752A (en) | 2016-02-01 |
JP6333092B2 JP6333092B2 (en) | 2018-05-30 |
Family
ID=55233080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014138491A Active JP6333092B2 (en) | 2014-07-04 | 2014-07-04 | Information processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6333092B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220100959A1 (en) * | 2020-09-30 | 2022-03-31 | Honda Motor Co., Ltd. | Conversation support device, conversation support system, conversation support method, and storage medium |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0916191A (en) * | 1995-06-29 | 1997-01-17 | Asahi Chem Ind Co Ltd | Device and method for speech recognition for navigator |
JP2002048572A (en) * | 2000-08-01 | 2002-02-15 | Alpine Electronics Inc | Position detecting system and navigation system |
JP2004205364A (en) * | 2002-12-25 | 2004-07-22 | Denso Corp | Guiding system |
US20070124057A1 (en) * | 2005-11-30 | 2007-05-31 | Volkswagen Of America | Method for voice recognition |
WO2007077703A1 (en) * | 2006-01-06 | 2007-07-12 | Pioneer Corporation | Audio recognition device, display method, and display processing program |
JP2009115594A (en) * | 2007-11-06 | 2009-05-28 | Denso Corp | Destination estimation presenting apparatus |
WO2010070781A1 (en) * | 2008-12-16 | 2010-06-24 | 三菱電機株式会社 | Navigation device |
JP2013025605A (en) * | 2011-07-22 | 2013-02-04 | Sony Corp | Information processor, information processing method and program |
WO2013069172A1 (en) * | 2011-11-10 | 2013-05-16 | 三菱電機株式会社 | Navigation device and method |
-
2014
- 2014-07-04 JP JP2014138491A patent/JP6333092B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0916191A (en) * | 1995-06-29 | 1997-01-17 | Asahi Chem Ind Co Ltd | Device and method for speech recognition for navigator |
JP2002048572A (en) * | 2000-08-01 | 2002-02-15 | Alpine Electronics Inc | Position detecting system and navigation system |
JP2004205364A (en) * | 2002-12-25 | 2004-07-22 | Denso Corp | Guiding system |
US20070124057A1 (en) * | 2005-11-30 | 2007-05-31 | Volkswagen Of America | Method for voice recognition |
WO2007077703A1 (en) * | 2006-01-06 | 2007-07-12 | Pioneer Corporation | Audio recognition device, display method, and display processing program |
JP2009115594A (en) * | 2007-11-06 | 2009-05-28 | Denso Corp | Destination estimation presenting apparatus |
WO2010070781A1 (en) * | 2008-12-16 | 2010-06-24 | 三菱電機株式会社 | Navigation device |
JP2013025605A (en) * | 2011-07-22 | 2013-02-04 | Sony Corp | Information processor, information processing method and program |
WO2013069172A1 (en) * | 2011-11-10 | 2013-05-16 | 三菱電機株式会社 | Navigation device and method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220100959A1 (en) * | 2020-09-30 | 2022-03-31 | Honda Motor Co., Ltd. | Conversation support device, conversation support system, conversation support method, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6333092B2 (en) | 2018-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10235996B2 (en) | Voice and connection platform | |
JP6353199B2 (en) | Information processing apparatus, information processing method, and program | |
US10990618B2 (en) | Computer-implemented method for question answering system | |
JP2020095764A (en) | Information inputting method, information inputting device, and information inputting system | |
JP2017509065A (en) | Vehicle image capture system using different language translations | |
JP2013097758A (en) | Information processing system, server device, terminal device, program and information processing method | |
CN109976508B (en) | Information providing device | |
JP2012008707A (en) | Linkage management device, service linkage support system and service linkage support method | |
JP2016075985A (en) | Advertisement publication system, advertisement publication program, advertisement publication device, and advertisement publication method | |
JP2017182763A (en) | Method for providing translation using image, user terminal, server, system and computer program | |
JP6333092B2 (en) | Information processing system | |
JP2014002717A (en) | Information retrieval system, relay server, data format conversion program, and mobile terminal | |
JP2013036748A (en) | Car navigation device, car navigation system, car navigation method, and car navigation program | |
CN105657047B (en) | The supplying system of advertising information and the method for pushing of advertising information | |
JP6317689B2 (en) | Server, client and information sharing system | |
US20160255173A1 (en) | Client, server, and information sharing system | |
JP2013112135A (en) | In-vehicle device | |
CN105787763A (en) | Advertisement information search method and advertisement information search system | |
JP7058914B2 (en) | Search device, search system, program | |
JP5618371B2 (en) | SEARCH SYSTEM, TERMINAL, SEARCH DEVICE, AND SEARCH METHOD | |
CN102214168B (en) | Query and display system and query and display method for providing example sentence accordant with geographic information | |
US20160004755A1 (en) | Information providing device, information providing program, information providing server, and information providing method | |
JP6141894B2 (en) | Server, client and information sharing system | |
JP2014092816A (en) | Communication system, communication method, communication device, and communication program | |
US20220163345A1 (en) | Information processing apparatus, information processing method, and non-transitory storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180417 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180424 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6333092 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |