JP7244331B2 - Voice guidance device, voice guidance server, and voice guidance method - Google Patents

Voice guidance device, voice guidance server, and voice guidance method Download PDF

Info

Publication number
JP7244331B2
JP7244331B2 JP2019066363A JP2019066363A JP7244331B2 JP 7244331 B2 JP7244331 B2 JP 7244331B2 JP 2019066363 A JP2019066363 A JP 2019066363A JP 2019066363 A JP2019066363 A JP 2019066363A JP 7244331 B2 JP7244331 B2 JP 7244331B2
Authority
JP
Japan
Prior art keywords
user
information
scenario data
mobile object
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019066363A
Other languages
Japanese (ja)
Other versions
JP2020165797A (en
Inventor
匡 栗原
慶 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019066363A priority Critical patent/JP7244331B2/en
Publication of JP2020165797A publication Critical patent/JP2020165797A/en
Application granted granted Critical
Publication of JP7244331B2 publication Critical patent/JP7244331B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、自動車等の車両の中で提供される音声案内装置、音声案内サーバ、及び音声案内方法に関する。 The present invention relates to a voice guidance device, a voice guidance server, and a voice guidance method provided in a vehicle such as an automobile.

従来、移動する車両の中で使用する音声対話装置が開発されており、観光地のレンタカーでの施設紹介等に活用されている。このような音声対話装置によって、ユーザに余裕が無いときに対話をおこなうと、ユーザが対話の内容を理解しきれない等の問題があった。 Conventionally, a voice dialogue device for use in a moving vehicle has been developed, and has been utilized to introduce facilities in a rental car at a sightseeing spot. With such a voice dialogue apparatus, if a dialogue is conducted when the user has no time to spare, there is a problem that the user cannot fully understand the contents of the dialogue.

これに対し、特許文献1には、適切なタイミングで、停車状態のレベルに応じた案内をユーザに対して行う技術が開示されている。より詳細には、特許文献1は、車両の走行速度に基づいて車両の停車状態を判定すると共に、当該停車状態のレベルを、停車状態の継続性、発生間隔及び発生頻度のうち少なくとも1つに基づいて判定し、判定した停車状態のレベルに応じた内容の案内を行う技術を開示している。 On the other hand, Patent Literature 1 discloses a technique of providing a user with guidance according to the level of the stopped state at an appropriate timing. More specifically, in Patent Document 1, a vehicle stop state is determined based on the traveling speed of the vehicle, and the level of the stop state is determined by at least one of the continuity of the stop state, the occurrence interval, and the occurrence frequency. A technique is disclosed for performing guidance based on the determined level of the stopped state.

特開2002-107156号公報JP-A-2002-107156

しかしながら、特許文献1に開示されている技術では、車両が停止していることが必要であり、また、ユーザの車両に対する慣れは考慮されていない。この点、ユーザがレンタカーに乗車した直後、新たな車両を購入した直後、又はユーザの運転歴が浅い場合等は、まだ車両に不慣れなため余裕が無いことが多く、複雑な音声対話を行うことは適切ではないという問題があった。 However, the technology disclosed in Patent Literature 1 requires that the vehicle is stopped and does not take into consideration the user's familiarity with the vehicle. In this regard, when the user has just got into a rental car, or has just purchased a new vehicle, or when the user has only a short driving history, there is often no time to spare because the user is still unfamiliar with the vehicle. was not suitable.

本発明は、このような問題に鑑みてなされたものであり、本発明は、例えば、観光ポイントや観光施設等を例えばレンタカー等の慣れない車両でドライブするユーザ、例えば新たな車両を購入してから間もないユーザ、又は例えば運転歴の浅いユーザに対して、車両乗車してから間もないため、精神的な余裕が無いときに、複雑な音声対話が行われることを防止することが可能な音声案内装置、音声案内サーバ、及び音声案内方法を提供することを目的とする。 The present invention has been made in view of such problems. It is possible to prevent complicated voice dialogue from being performed for a user who has just started driving or a user who has a short driving experience, when he/she has not had enough mental leeway because he/she has just got on the vehicle. An object of the present invention is to provide a sound guidance device, a sound guidance server, and a sound guidance method.

(1) 本発明の音声案内装置は、移動体の種別として移動体IDを有する移動体の、現在の位置情報を測位する測位部と、地図情報と施設の位置情報を含む施設情報が記憶される地図記憶部と、前記施設に関する情報が含まれるシナリオデータが対話難易度情報と共に記憶されるシナリオデータ記憶部と、前記移動体と共に移動するユーザからの音声応答入力を受け付ける入力部と、前記シナリオデータを音声又は画像として出力する出力部と、制御部と、を備え、前記制御部は、前記ユーザを認識するユーザ認識部と、前記移動体IDを有する移動体の前記位置情報の推移から、前記ユーザによる前記移動体IDでの積算走行距離を計算する積算距離計算部と、前記移動体の位置情報に基づいて、前記シナリオデータを前記シナリオデータ記憶部から選択する選択部と、前記移動体の位置情報に基づいて、前記シナリオデータを音声又は画像として前記出力部を介して出力する出力制御部と、を備え、前記選択部は、さらに、前記ユーザによる前記移動体IDでの積算走行距離及び前記シナリオデータの対話難易度に応じて、前記シナリオデータ記憶部からシナリオデータを選択し、前記出力制御部は、さらに、前記選択部により選択されたシナリオデータを音声又は画像として前記出力部を介して出力する。 (1) The voice guidance device of the present invention stores a positioning unit for measuring the current position information of a mobile object having a mobile object ID as the mobile object type, and facility information including map information and facility position information. a scenario data storage unit for storing scenario data including information about the facility together with dialogue difficulty information; an input unit for receiving a voice response input from a user who moves with the mobile object; an output unit that outputs data as voice or image; a total distance calculation unit that calculates the total distance traveled by the user with the mobile object ID; a selection unit that selects the scenario data from the scenario data storage unit based on the position information of the mobile object; an output control unit that outputs the scenario data as audio or image via the output unit based on the position information of the user, and the selection unit further includes: and according to the dialogue difficulty level of the scenario data, the scenario data is selected from the scenario data storage unit, and the output control unit outputs the scenario data selected by the selection unit as voice or image to the output unit. output through

上記(1)によれば、観光ポイントや観光施設等を、例えばレンタカー等の慣れない車両でドライブするユーザ、例えば新たな車両を購入した直後のユーザ、又は例えば運転歴の浅いユーザに対して、まだ車両に乗車してから間もないため、精神的な余裕が無いときに、複雑な音声対話が行われることを防止することを可能にする。 According to the above (1), for a user who drives an unfamiliar vehicle such as a rental car, for example, a user who has just purchased a new vehicle, or a user who has a short driving history, To prevent a complicated voice dialogue from being performed when a person has no mental leeway because he/she has just got into a vehicle.

(2) (1)に記載の音声案内装置において、前記対話難易度情報は、前記シナリオデータに含まれるシナリオの内容及び/又はシナリオの長さによって決定されている。 (2) In the voice guidance device described in (1), the dialogue difficulty level information is determined by the content of the scenario and/or the length of the scenario included in the scenario data.

上記(2)によれば、ユーザの車両に対する慣れに起因する精神的な余裕に応じて、適切なシナリオを選択して出力することを可能にする。 According to (2) above, it is possible to select and output an appropriate scenario according to the user's mental leeway due to the user's familiarity with the vehicle.

(3) 本発明の音声案内サーバは、地図情報と施設の位置情報を含む施設情報が記憶される地図記憶部と、前記施設に関する情報が含まれるシナリオデータが対話難易度情報と共に記憶されるシナリオデータ記憶部と、制御部と、を備え、前記制御部は、ユーザを認識するユーザ認識部と、移動体IDを有する移動体の位置情報の推移から、前記ユーザによる前記移動体IDでの積算走行距離を計算する積算距離計算部と、前記移動体の位置情報に基づいて、前記シナリオデータを前記シナリオデータ記憶部から選択する選択部と、前記移動体の位置情報に基づいて、前記シナリオデータを音声又は画像として出力する出力制御部と、を備え、前記選択部は、さらに、前記ユーザによる前記移動体IDでの積算走行距離及び前記シナリオデータの対話難易度に応じて、前記シナリオデータ記憶部からシナリオデータを選択し、前記出力制御部は、さらに、前記選択部により選択されたシナリオデータを音声又は画像として出力するように出力指示する。 (3) The voice guidance server of the present invention includes a map storage unit that stores facility information including map information and location information of facilities, and a scenario that stores scenario data including information about the facilities together with dialogue difficulty level information. A data storage unit and a control unit are provided, and the control unit calculates a user recognition unit for recognizing a user, and from transition of position information of a mobile unit having a mobile unit ID, the user adds the mobile unit ID. a total distance calculation unit that calculates the traveled distance; a selection unit that selects the scenario data from the scenario data storage unit based on the position information of the moving object; and a selection unit that selects the scenario data based on the position information of the moving object. as a voice or image, wherein the selection unit further stores the scenario data in accordance with the cumulative travel distance with the mobile body ID by the user and the difficulty level of interaction of the scenario data The scenario data is selected from the section, and the output control section further instructs to output the scenario data selected by the selection section as sound or image.

上記(3)の音声案内サーバによれば、(1)の音声案内装置と同様の効果を奏する。 According to the voice guidance server of (3) above, the same effect as that of the voice guidance device of (1) is obtained.

(4)本発明の音声案内方法は、移動体の種別として移動体IDを有する移動体の、現在の位置情報を測位する測位部と、地図情報と施設の位置情報を含む施設情報が記憶される地図記憶部と、前記施設に関する情報が含まれるシナリオデータが対話難易度情報と共に記憶されるシナリオデータ記憶部と、前記移動体と共に移動するユーザからの音声応答入力を受け付ける入力部と、前記シナリオデータを音声又は画像として出力する出力部と、を有する1つ以上のコンピュータが、前記ユーザを認識するユーザ認識ステップと、前記移動体IDを有する移動体の前記位置情報の推移から、前記ユーザによる前記移動体IDでの積算走行距離を計算する積算距離計算ステップと、前記移動体の位置情報に基づいて、前記シナリオデータを前記シナリオデータ記憶部から選択する選択ステップと、前記移動体の位置情報に基づいて、前記シナリオデータを音声又は画像として前記出力部を介して出力する出力制御ステップとを実行し、前記選択ステップは、さらに、前記ユーザによる前記移動体IDでの積算走行距離及び前記シナリオデータの対話難易度に応じて、前記シナリオデータ記憶部からシナリオデータを選択し、前記出力制御ステップは、さらに、前記選択ステップにより選択されたシナリオデータを音声又は画像として前記出力部を介して出力するよう制御する。 (4) In the voice guidance method of the present invention, a positioning unit for measuring the current position information of a mobile object having a mobile object ID as the mobile object type, and facility information including map information and facility position information are stored. a scenario data storage unit for storing scenario data including information about the facility together with dialogue difficulty information; an input unit for receiving a voice response input from a user who moves with the mobile object; One or more computers having an output unit for outputting data as sound or image perform a user recognition step of recognizing the user; A cumulative distance calculation step of calculating a cumulative travel distance for the mobile body ID; a selection step of selecting the scenario data from the scenario data storage unit based on the location information of the mobile body; and the location information of the mobile body. and an output control step of outputting the scenario data as a sound or an image via the output unit based on the above, and the selecting step further includes: the total travel distance with the mobile body ID by the user and the scenario Scenario data is selected from the scenario data storage unit according to the dialogue difficulty of the data, and the output control step further outputs the scenario data selected by the selection step as voice or image via the output unit. control to

上記(4)の音声案内方法によれば、(1)の音声案内装置と同様の効果を奏する。 According to the voice guidance method of (4) above, the same effects as those of the voice guidance device of (1) are obtained.

本発明によれば、観光ポイントや観光施設等を、例えばレンタカー等の慣れない車両でドライブするユーザ、例えば新たな車両を購入してから間もないユーザ、又は例えば運転歴の浅いユーザに対して、まだ車両に乗車してから間もないため、精神的な余裕が無いときに、複雑な音声対話が行われることを防止することが可能な音声案内装置、音声案内サーバ、及び音声案内方法を提供することが可能となる。 According to the present invention, for a user who drives an unfamiliar vehicle such as a rental car, for example, for a user who has just purchased a new vehicle, or for a user who has a short driving experience, , a voice guidance device, a voice guidance server, and a voice guidance method capable of preventing complicated voice dialogue from being performed when there is no mental leeway because it has just been in the vehicle. can be provided.

本発明の実施形態である音声案内システム全体の基本的構成を示すブロック図である。1 is a block diagram showing the basic configuration of the entire audio guidance system that is an embodiment of the present invention; FIG. 本発明の実施形態における車載コンテンツ再生装置の機能構成を示す機能ブロック図である。1 is a functional block diagram showing a functional configuration of an in-vehicle content reproducing device according to an embodiment of the present invention; FIG. 本発明の実施形態におけるシナリオデータの階層構造の一例を示す構成図である。FIG. 3 is a configuration diagram showing an example of a hierarchical structure of scenario data according to the embodiment of the present invention; 本発明の実施形態における携帯端末の機能構成を示す機能ブロック図である。1 is a functional block diagram showing the functional configuration of a mobile terminal according to an embodiment of the present invention; FIG. 本発明の実施形態におけるコンテンツサーバの機能構成を示す機能ブロック図である。3 is a functional block diagram showing the functional configuration of a content server according to the embodiment of the present invention; FIG. 本発明の実施形態における音声案内処理時の基本的動作を示すフローチャートである。4 is a flow chart showing basic operations during voice guidance processing in the embodiment of the present invention. 本発明の実施形態の変形例におけるコンテンツサーバの機能構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure of the content server in the modification of embodiment of this invention.

<音声案内システム1の全体構成>
以下、本発明の音声案内システムの好ましい一実施形態について、図を参照しながら詳細に説明する。図1に、音声案内システム1の全体構成を示す。
なお、本実施形態においては、車載コンテンツ再生装置10及び携帯端末20は、単独でも施設情報案内を実行可能な構成を備える場合を例示する。したがって、サーバとの通信環境を備えていない場合であっても、観光ポイントや観光施設等をドライブするユーザに対して、当該車両が、推奨する施設を紹介するシナリオを出力することを可能とする。
<Overall Configuration of Voice Guidance System 1>
A preferred embodiment of the voice guidance system of the present invention will be described in detail below with reference to the drawings. FIG. 1 shows the overall configuration of a voice guidance system 1. As shown in FIG.
In this embodiment, the in-vehicle content reproduction device 10 and the mobile terminal 20 are configured to be capable of providing facility information guidance by themselves. Therefore, even if the vehicle does not have a communication environment with the server, it is possible for the vehicle to output a scenario that introduces recommended facilities to the user who is driving around sightseeing points or tourist facilities. .

図1に示すように、音声案内システム1は、車載コンテンツ再生装置10と、携帯端末20と、コンテンツサーバ30と、を含んで構成される。これら各装置及び各端末は、通信網40を介して相互に通信可能に接続される。なお、図中では、これら各装置及び各端末にて送受信される情報についても図示しているが、これらの情報はあくまで一例である。本実施形態にて、図示をしている以外の情報が送受信されるようにしてもよい。また、図1において、通信経路を破線で記載しているが、これは、本実施形態においては、必ずしも必須の構成ではないことを示す。 As shown in FIG. 1 , the voice guidance system 1 includes an in-vehicle content reproduction device 10 , a mobile terminal 20 and a content server 30 . These devices and terminals are connected via a communication network 40 so as to be able to communicate with each other. In addition, although the information transmitted and received by each device and each terminal is also illustrated in the figure, this information is only an example. In this embodiment, information other than those shown may be transmitted and received. Also, in FIG. 1, communication paths are indicated by dashed lines, but this indicates that this is not necessarily an essential configuration in this embodiment.

車載コンテンツ再生装置10は、車載コンテンツ再生装置10が搭載された車両50aのユーザを認識する機能を有する。さらに、車載コンテンツ再生装置10は、車載コンテンツ再生装置10の位置情報(すなわち、車両50aの位置情報)を測位する機能を有する。車載コンテンツ再生装置10が測位した位置情報は、コンテンツサーバ30に対して適宜送信してもよい。さらに、車載コンテンツ再生装置10は、当該位置情報を用いて、認識したユーザが車両50aによって移動した移動距離を計算する機能を有する。
また、車載コンテンツ再生装置10は、車両50aに乗車し、観光地をドライブしているとき、及び/又は目的地に移動しているユーザに対して、観光地や目的地を巡る各種情報を音声で案内する機能を有する。ここで、観光地や目的地を巡る各種情報としては、例えば、当該観光地及び/又は目的地でおすすめの食べ物や飲み物等の飲食に関する情報、おすすめの自然や歴史等の観光スポットに関する情報、当該観光地及び/又は目的地での方言や風習等に関する文化に関する情報、及びご当地キャラクタやおすすめの施設等に関する情報が例として挙げられる。例えば、観光ポイントが有名な寺院の場合、寺院の建立時期、建立した人物、保有している主な仏像や絵画、彫刻、建立された理由や時代等々及び寺院の詳細な場所に関する音声及び画像による説明が例として挙げられる。
とりわけ、車載コンテンツ再生装置10は、認識したユーザの移動距離に対応する対話難易度のシナリオデータを用いて、各種情報を音声で案内する機能を有する。
なお、車載コンテンツ再生装置10は、施設情報の表示及び現在位置から目的地までの経路案内等を行うようにしてもよい。
車載コンテンツ再生装置10は、移動体である車両50aに据え付けられたカーナビゲーション装置や、移動体である車両50aに簡易的に設置され可搬可能なPND(Portable Navigation Device)により実現してもよい。
The in-vehicle content reproduction device 10 has a function of recognizing the user of the vehicle 50a in which the in-vehicle content reproduction device 10 is mounted. Furthermore, the in-vehicle content reproduction device 10 has a function of positioning the position information of the in-vehicle content reproduction device 10 (that is, the position information of the vehicle 50a). The location information determined by the in-vehicle content reproduction device 10 may be transmitted to the content server 30 as appropriate. Furthermore, the in-vehicle content reproduction device 10 has a function of calculating the distance traveled by the recognized user in the vehicle 50a using the position information.
In addition, the in-vehicle content reproduction device 10 voices various kinds of information about tourist spots and destinations to the user who is in the vehicle 50a and is driving through the tourist spots and/or is moving to the destination. It has a function to guide with. Here, various types of information about tourist spots and destinations include, for example, information on recommended foods and drinks at the tourist spots and/or destinations, information on recommended sightseeing spots such as nature and history, Examples include cultural information such as dialects and customs in tourist spots and/or destinations, and information related to local characters, recommended facilities, and the like. For example, in the case of a temple with a famous sightseeing spot, audio and images related to the temple's construction time, the person who built it, the main Buddha statues, paintings, sculptures, reasons and times it was built, and the detailed location of the temple. Description is an example.
In particular, the in-vehicle content reproduction device 10 has a function of guiding various information by voice using scenario data of the dialogue difficulty level corresponding to the recognized moving distance of the user.
Note that the in-vehicle content reproduction device 10 may display facility information and provide route guidance from the current position to the destination.
The in-vehicle content reproduction device 10 may be realized by a car navigation device installed in the vehicle 50a, which is a mobile object, or by a portable PND (Portable Navigation Device) which is easily installed in the vehicle 50a, which is a mobile object. .

携帯端末20は、車両50bに乗車したユーザが利用する携帯端末である。携帯端末20は、上述した車載コンテンツ再生装置10と同様に、携帯端末20の位置情報(すなわち、車両50bの位置情報)を測位する機能を有する。携帯端末20が測位した位置情報は、車載コンテンツ再生装置10が測位した位置情報と同様に、コンテンツサーバ30に対して適宜送信してもよい。車載コンテンツ再生装置10と同様に、携帯端末20は、車両50bに乗車し、観光地をドライブしているとき、及び/又は目的地に移動しているユーザに対して、観光地や目的地を巡る各種情報を音声で案内する機能を有する。なお、車載コンテンツ再生装置10と同様に、携帯端末20は、施設情報の表示及び現在位置から目的地までの経路案内等を行うようにしてもよい。
携帯端末20は、スマートフォン、携帯電話機、タブレット端末、ノートパソコン、その他の携帯可能な電子機器により実現することができる。
The mobile terminal 20 is a mobile terminal used by a user who has boarded the vehicle 50b. The mobile terminal 20 has a function of positioning the position information of the mobile terminal 20 (that is, the position information of the vehicle 50b), similarly to the in-vehicle content reproduction device 10 described above. The location information determined by the mobile terminal 20 may be transmitted to the content server 30 as appropriate, similarly to the location information determined by the in-vehicle content reproduction device 10 . As with the in-vehicle content reproduction device 10, the portable terminal 20 can inform the user who is driving in the vehicle 50b of the tourist spot and/or is traveling to the tourist spot and the destination. It has a function to guide various information by voice. As with the in-vehicle content reproduction device 10, the portable terminal 20 may display facility information and provide route guidance from the current position to the destination.
The mobile terminal 20 can be implemented by a smart phone, a mobile phone, a tablet terminal, a notebook computer, or other portable electronic devices.

なお、図中では、車載コンテンツ再生装置10と車両50aの組と、携帯端末20と車両50bの組をそれぞれ一組ずつ図示しているが、これらの組数に特に制限はない。また、以下の説明において、車載コンテンツ再生装置10が搭載された車両50aや、携帯端末20を利用するユーザが乗車する車両50bを区別することなく呼ぶ場合には、末尾のアルファベットを省略して、単に「車両50」と呼ぶ。 In the figure, one set of the in-vehicle content reproduction device 10 and the vehicle 50a and one set of the mobile terminal 20 and the vehicle 50b are illustrated, but there is no particular limitation on the number of these sets. Further, in the following description, when the vehicle 50a in which the in-vehicle content reproduction device 10 is mounted and the vehicle 50b in which the user using the mobile terminal 20 rides are referred to without distinction, the alphabet at the end is omitted. Simply referred to as "vehicle 50".

コンテンツサーバ30は、例えば、観光地をドライブしている車両50(具体的には、車載コンテンツ再生装置10又は携帯端末20)に対して、車両50(具体的には、車載コンテンツ再生装置10又は携帯端末20)から受信する位置情報及び/又は要求に基づいて、例えば、当該観光地に関するコンテンツ情報(例えば、後述するシナリオデータ)を予めダウンロードするようにしてもよい。なお、車両50のユーザが地元の人(以下「地元民」ともいう)である場合、当該観光地に関する情報(例えば、後述するシナリオデータ)をダウンロードしないようにしてもよい。
ここで、ユーザが当該施設にとって地元の人(「地元民」)であるとは、例えば当該ユーザの何れかの生活拠点位置(例えばユーザの自宅、職場、又は学校等)が当該観光地の位置から予め設定された範囲内に位置することをいう。
For example, the content server 30 sends a message to the vehicle 50 (specifically, the in-vehicle content reproduction device 10 or the mobile terminal 20) that is driving in a tourist spot. Based on the location information and/or the request received from the portable terminal 20), for example, content information (for example, scenario data described later) regarding the tourist spot may be downloaded in advance. Note that if the user of the vehicle 50 is a local person (hereinafter also referred to as a “local person”), information (for example, scenario data described later) regarding the tourist spot may not be downloaded.
Here, the fact that the user is a person local to the facility (“locals”) means that, for example, any location of the user's living base (for example, the user's home, workplace, school, etc.) is the location of the tourist spot. It means to be located within a preset range from .

コンテンツサーバ30は、例えば、汎用のサーバ装置に本実施形態特有のソフトウェアを組み込むことにより実現することができる。ここで、サーバ装置は、1つのコンピュータ又は複数のコンピュータから構成される分散システムでもよい。 The content server 30 can be realized, for example, by installing software unique to this embodiment in a general-purpose server device. Here, the server device may be a distributed system composed of one computer or a plurality of computers.

通信網40は、インターネットや携帯電話網といったネットワークや、これらを組合せたネットワークにより実現される。 The communication network 40 is implemented by a network such as the Internet or a mobile phone network, or a network combining these.

車両50は、車載コンテンツ再生装置10や携帯端末20のユーザが乗車する移動体である。車両50は、例えば、四輪自動車や自動二輪車や自転車等により実現される。
以上、音声案内システム1の全体構成について説明した。
次にそれぞれの構成について説明する。
The vehicle 50 is a moving object in which the user of the in-vehicle content reproduction device 10 or the mobile terminal 20 rides. Vehicle 50 is implemented by, for example, a four-wheeled vehicle, a motorcycle, a bicycle, or the like.
The overall configuration of the voice guidance system 1 has been described above.
Next, each configuration will be described.

<車載コンテンツ再生装置10が備える機能ブロック>
車載コンテンツ再生装置10が備える機能ブロックについて図2のブロック図を参照して説明をする。
ここで、車載コンテンツ再生装置10は、車両50aから電源の供給を受けており、車両50aに乗車したユーザにより車両50aのイグニッションスイッチがオン(エンジンを起動)にされることによって自動起動するようにしてもよい。そして、車載コンテンツ再生装置10は、車両50aに乗車したユーザにより車両50aのイグニッションスイッチがオフ(エンジンを停止)にされるまで稼働するようにしてもよい。
<Functional Blocks of In-Vehicle Content Playback Device 10>
Functional blocks included in the in-vehicle content reproduction device 10 will be described with reference to the block diagram of FIG.
Here, the in-vehicle content reproduction device 10 is supplied with power from the vehicle 50a, and is automatically started when the ignition switch of the vehicle 50a is turned on (starting the engine) by the user in the vehicle 50a. may Then, the in-vehicle content reproduction device 10 may operate until the ignition switch of the vehicle 50a is turned off (the engine is stopped) by the user in the vehicle 50a.

図2に示すように、車載コンテンツ再生装置10は、制御部11と、記憶部12と、通信部13と、センサ部14と、表示部15と、入力部16と、オーディオ部17と、を含んで構成される。 As shown in FIG. 2, the in-vehicle content reproduction device 10 includes a control unit 11, a storage unit 12, a communication unit 13, a sensor unit 14, a display unit 15, an input unit 16, and an audio unit 17. composed of

制御部11は、マイクロプロセッサ等の演算処理装置から構成され、10を構成する各部の制御を行う。制御部11の詳細については、後述する。 The control unit 11 is composed of an arithmetic processing unit such as a microprocessor, and controls each unit that constitutes 10 . Details of the control unit 11 will be described later.

記憶部12は、半導体メモリ等で構成されており、ファームウェアやオペレーティングシステムと呼ばれる制御用のプログラムや、後述するシナリオデータを用いて、ユーザに対して音声案内をするためのプログラムや、施設情報を表示部15等を介して表示するためのプログラムや、当該施設に移動するための経路案内処理を行うためのプログラムや、コンテンツサーバ30に対する車両50aの位置情報の送信処理を行うためのプログラムといった各プログラム、さらにその他、地図情報等の種々の情報が記憶される。図2に示すように、例えば、記憶部12は、地図情報記憶部121、位置情報記憶部122、識別情報記憶部123、及びシナリオデータ記憶部124を含む。 The storage unit 12 is composed of a semiconductor memory or the like, and stores a program for providing voice guidance to the user and facility information using a control program called firmware or an operating system and scenario data, which will be described later. A program for displaying via the display unit 15 or the like, a program for performing route guidance processing for moving to the facility, and a program for performing processing for transmitting position information of the vehicle 50a to the content server 30. Programs and various other information such as map information are stored. As shown in FIG. 2, the storage unit 12 includes, for example, a map information storage unit 121, a position information storage unit 122, an identification information storage unit 123, and a scenario data storage unit .

地図情報記憶部121には、道路や施設等の地物に関する情報、道路情報、施設位置情報、駐車場情報等の情報が含まれる。また、地図情報記憶部121には他にも、道路及び道路地図等の背景を表示するための表示用地図データ、ノード(例えば道路の交差点、屈曲点、端点等)の位置情報及びその種別情報、各ノード間を結ぶ経路であるリンクの位置情報及びその種別情報、全てのリンクのコスト情報(例えば距離、所要時間等)に関するリンクコストデータ等を含む道路ネットワークデータ等が含まれる。なお、地図情報記憶部121に含まれる施設に関する情報は、後述するシナリオデータで案内される観光施設や観光スポット等だけではなく、地図情報に表示される一般的な施設を含むものとしてもよい。 The map information storage unit 121 includes information on features such as roads and facilities, road information, facility position information, parking lot information, and the like. In addition, the map information storage unit 121 also stores display map data for displaying the background of roads and road maps, position information of nodes (for example, intersections, bends, corner points, etc. of roads) and their type information. , location information and type information of links, which are routes connecting nodes, and road network data including link cost data relating to cost information (for example, distance, required time, etc.) of all links. The information about facilities included in the map information storage unit 121 may include general facilities displayed in the map information, in addition to tourist facilities and sightseeing spots guided by scenario data, which will be described later.

道路情報としては道路の種別や信号機等のいわゆる道路地図の情報が保存されている。
施設位置情報としては、各一般施設の位置情報が緯度経度の情報として保存されている。また、施設位置情報として、一般施設の識別情報(施設ID)、名称、施設種別(及び/又はジャンル)、電話番号、住所等が含まれていてもよい。
駐車場情報としては、駐車場の位置情報が緯度経度の情報として保存されている。駐車場が各一般施設の駐車場である場合には、一般施設と駐車場を紐付けて保存される。
As the road information, so-called road map information such as road types and traffic lights is stored.
As the facility location information, the location information of each general facility is stored as latitude and longitude information. Further, the facility location information may include identification information (facility ID), name, facility type (and/or genre), telephone number, address, etc. of general facilities.
As the parking lot information, location information of the parking lot is stored as latitude and longitude information. When the parking lot is the parking lot of each general facility, the general facility and the parking lot are stored in association with each other.

位置情報記憶部122には、後述のセンサ部14により測位された車載コンテンツ再生装置10の位置情報(すなわち、車両50aの位置情報)が含まれる。位置情報記憶部122には、測位された位置を示す情報のみならず、測位を行った時刻である測位時刻も含まれるようにするとよい。 The position information storage unit 122 includes position information of the in-vehicle content reproduction device 10 (that is, position information of the vehicle 50a) positioned by the sensor unit 14, which will be described later. The position information storage unit 122 preferably contains not only the information indicating the measured position but also the positioning time, which is the time when the positioning was performed.

また、識別情報記憶部123には、車載コンテンツ再生装置10を識別するための情報(「識別情報」ともいう)を含む。識別情報としては、例えば車載コンテンツ再生装置10に一意に割り当てられた製造番号等を利用することができる。また、他にも、通信部13が携帯電話網等のネットワークである通信網40に接続するために、通信部13に挿入されたSIM(Subscriber Identity Module)に付与された電話番号を識別情報として利用することができる。また、他にも、車両50aに固有に付与されたVIN(車両識別番号:以降では「移動体ID」と呼称することがある)やナンバープレートの番号を識別情報として利用することができる。
さらに、識別情報記憶部123は、後述のように、制御部11が例えば入力部16を介してユーザを認識した際、このユーザのユーザIDを識別情報として記憶する。これにより、ユーザIDと位置情報記憶部122に記憶される位置情報とを紐づけることが可能となる。
The identification information storage unit 123 also includes information for identifying the in-vehicle content reproduction device 10 (also referred to as “identification information”). As the identification information, for example, a serial number or the like uniquely assigned to the in-vehicle content reproduction device 10 can be used. In addition, in order for the communication unit 13 to connect to the communication network 40, which is a network such as a mobile phone network, a telephone number assigned to a SIM (Subscriber Identity Module) inserted in the communication unit 13 is used as identification information. can be used. In addition, the VIN (vehicle identification number: hereinafter sometimes referred to as "mobile body ID") uniquely assigned to the vehicle 50a and the number of the license plate can be used as the identification information.
Furthermore, as will be described later, when the control unit 11 recognizes a user via the input unit 16, the identification information storage unit 123 stores the user ID of the user as identification information. This makes it possible to associate the user ID with the location information stored in the location information storage unit 122 .

シナリオデータ記憶部124には、観光地や目的地を巡る各種情報を案内するためのシナリオデータを含む。シナリオデータ記憶部124は、予め所定の地理的範囲内における観光地や目的地を巡る各種情報を案内するためのシナリオデータを含むようにしてもよい。また、車両50aの位置情報やユーザからの要求に基づいて、コンテンツサーバ30から適宜ダウンロードするようにしてもよい。シナリオデータの詳細については、後述する。 The scenario data storage unit 124 contains scenario data for guiding various information about sightseeing spots and destinations. The scenario data storage unit 124 may contain scenario data in advance for guiding various information about sightseeing spots and destinations within a predetermined geographical range. Alternatively, the content may be downloaded from the content server 30 as appropriate based on the location information of the vehicle 50a or a request from the user. Details of the scenario data will be described later.

これらの記憶部12に格納される各情報については、記憶部12に予め記憶しておく構成としてもよいし、通信網40に接続されたコンテンツサーバ30や、他のサーバ装置(図示を省略する。)等から必要に応じて予めダウンロードされる構成としてもよい。さらに、ユーザの入力等に応じて適宜修正されてもよい。 Each piece of information stored in the storage unit 12 may be stored in advance in the storage unit 12, or may be stored in the content server 30 connected to the communication network 40 or another server device (not shown). ), etc., as necessary. Furthermore, it may be modified as appropriate according to user input or the like.

通信部13は、DSP(Digital Signal Processor)等を有し、3G(3rd Generation)、LTE(Long Term Evolution)やWi-Fi(登録商標)といった規格に準拠して、通信網40を介して他の装置(例えば、コンテンツサーバ30)との間の無線通信を実現する。通信部13は、前述したように、例えばシナリオデータをダウンロードするために利用される。また、記憶部12に格納されている位置情報及び識別情報を、コンテンツサーバ30に対して送信するために利用してもよい。なお、通信部13と他の装置との間で送受信されるデータに特に制限はなく、位置情報、識別情報、及びシナリオデータ以外の情報が送受信されるようにしてもよい。 The communication unit 13 has a DSP (Digital Signal Processor) or the like, and is compliant with standards such as 3G (3rd Generation), LTE (Long Term Evolution), and Wi-Fi (registered trademark). device (for example, content server 30). The communication unit 13 is used, for example, to download scenario data, as described above. Also, the location information and identification information stored in the storage unit 12 may be used to transmit to the content server 30 . Data transmitted and received between the communication unit 13 and other devices is not particularly limited, and information other than position information, identification information, and scenario data may be transmitted and received.

センサ部14は、例えばGPS(Global Positioning System)センサ、ジャイロセンサ、加速度センサ等により構成される。センサ部14は、位置情報を検出する位置検出手段としての機能を備え、GPSセンサによりGPS衛星信号を受信し、車載コンテンツ再生装置10の位置情報(緯度及び経度)を測位する。センサ部14による測位は、所定の時間間隔(例えば3秒間隔)で行うようにしてもよい。測位した位置情報は、位置情報記憶部122に格納される。なお、位置情報には、位置情報を測位した時刻情報を含めることが好ましい。そうすることで、車両50aが、いつ、どこに位置していたか、を算出することが可能となる。
なお、センサ部14は、ジャイロセンサ、加速度センサにより測定される角速度や、加速度に基づいて車載コンテンツ再生装置10の位置情報の測位精度をさらに高めることも可能である。
また、センサ部14は、GPS通信が困難又は不可能となった場合に、AGPS(Assisted Global Positioning System)通信を利用し、通信部13から取得される基地局情報によって車載コンテンツ再生装置10の位置情報を算出することも可能である。
The sensor unit 14 is configured by, for example, a GPS (Global Positioning System) sensor, a gyro sensor, an acceleration sensor, or the like. The sensor unit 14 has a function as position detection means for detecting position information, receives GPS satellite signals from the GPS sensor, and measures the position information (latitude and longitude) of the in-vehicle content reproduction device 10 . Positioning by the sensor unit 14 may be performed at predetermined time intervals (for example, every 3 seconds). Position information obtained by positioning is stored in the position information storage unit 122 . In addition, it is preferable that the position information includes time information when positioning the position information. By doing so, it becomes possible to calculate when and where the vehicle 50a was located.
The sensor unit 14 can further improve the positioning accuracy of the position information of the in-vehicle content reproduction device 10 based on the angular velocity and acceleration measured by the gyro sensor and acceleration sensor.
Further, when GPS communication becomes difficult or impossible, the sensor unit 14 uses AGPS (Assisted Global Positioning System) communication to determine the position of the in-vehicle content reproduction device 10 based on the base station information acquired from the communication unit 13 . It is also possible to calculate the information.

表示部15は、液晶ディスプレイ、又は有機エレクトロルミネッセンスパネル等の表示デバイスにより構成される。表示部15は、制御部11からの指示を受けて画像を表示する。表示部15が表示する情報としては、例えば、制御部11がシナリオデータに基づいて複数のキャラクタによる音声出力により観光地情報や目的地情報等を提供しているときに、音声に対応するキャラクタを表示するようにしてもよい。また、音声による情報提供を補足するための映像を表示するようにしてもよい。また、音声が例えば楽曲等の場合、楽曲名やアーティスト名等の情報を表示するようにしてもよい。この他、現在位置付近の地図やルート案内情報を表示してもよい。 The display unit 15 is configured by a display device such as a liquid crystal display or an organic electroluminescence panel. The display unit 15 receives an instruction from the control unit 11 and displays an image. As for the information displayed by the display unit 15, for example, when the control unit 11 provides sightseeing spot information, destination information, etc. by voice output of a plurality of characters based on the scenario data, characters corresponding to voice are displayed. You may make it display. Also, an image may be displayed to supplement the provision of information by voice. Also, if the audio is, for example, a piece of music, information such as the name of the piece or the name of the artist may be displayed. In addition, a map or route guidance information in the vicinity of the current position may be displayed.

入力部16は、テンキーと呼ばれる物理スイッチや表示部15の表示面に重ねて設けられたタッチパネル等の入力装置(図示を省略する。)等で構成される。入力部16からの操作入力、例えばユーザによるテンキーの押下、タッチパネルのタッチに基づいた信号を制御部11に出力することで、ユーザによる選択操作や、地図の拡大縮小等の操作を実現することができる。
さらに、入力部16は、後述のように制御部11がユーザを認識し、ユーザIDを取得するためのデバイスとして、例えばカードリーダー等を備えてもよい。
The input unit 16 includes a physical switch called a numeric keypad, an input device (not shown) such as a touch panel provided over the display surface of the display unit 15, and the like. By outputting a signal to the control unit 11 based on an operation input from the input unit 16, for example, a user pressing a numeric keypad or touching a touch panel, it is possible to realize a selection operation by the user or an operation such as enlargement or reduction of a map. can.
Furthermore, the input unit 16 may include, for example, a card reader or the like as a device for the control unit 11 to recognize a user and acquire a user ID, as will be described later.

オーディオ部17は、シナリオデータ記憶部124から読みだしたシナリオデータに基づいて、例えば複数のキャラクタの音声により案内している場合の音声を出力する。オーディオ部17は、アンプやスピーカ等で構成される。 The audio unit 17 outputs the voices of a plurality of characters for guidance based on the scenario data read from the scenario data storage unit 124, for example. The audio unit 17 is composed of an amplifier, a speaker, and the like.

なお、この他、図示しないが、車載コンテンツ再生装置10は、マイク等を備える。マイクは、運転者によって発せられた音声等を集音する。
そうすることで、マイクを介して音声入力された運転者による各種の選択、指示を音声認識技術により、制御部11に入力したりすることもできる。また、シナリオデータをキャラクタの音声により案内しているときに、キャラクタからのユーザに対する問い合わせに対して、マイクを介して応答することもできる。そうすることで、キャラクタとの会話を実現することができる。
In addition, although not shown, the in-vehicle content reproduction device 10 includes a microphone and the like. The microphone collects sounds and the like uttered by the driver.
By doing so, it is also possible to input various selections and instructions by the driver, which are voice-inputted via a microphone, to the control unit 11 by voice recognition technology. Also, when the scenario data is being guided by the voice of the character, it is also possible to respond to an inquiry from the character to the user through the microphone. By doing so, a conversation with the character can be realized.

次に、制御部11の詳細について説明をする。制御部11はCPU(Central Processing Unit)、RAM(Random access memory)、ROM(Read Only Memory)、及びI/O(Input / output)等を有するマイクロプロセッサにより構成される。CPUは、ROM又は記憶部12から読み出した各プログラムを実行し、その実行の際にはRAM、ROM、及び記憶部12から情報を読み出し、RAM及び記憶部12に対して情報の書き込みを行い、通信部13、センサ部14、表示部15、入力部16、及びオーディオ部17等と信号の授受を行う。そして、このようにして、ハードウェアとソフトウェア(プログラム)が協働することにより本実施形態における処理は実現される。 Next, details of the control unit 11 will be described. The control unit 11 is composed of a microprocessor having a CPU (Central Processing Unit), RAM (Random Access Memory), ROM (Read Only Memory), I/O (Input/Output), and the like. The CPU executes each program read from the ROM or the storage unit 12, reads information from the RAM, the ROM, and the storage unit 12 during the execution, writes information to the RAM and the storage unit 12, It exchanges signals with the communication unit 13, the sensor unit 14, the display unit 15, the input unit 16, the audio unit 17, and the like. In this way, the processing in this embodiment is realized by cooperation between hardware and software (programs).

制御部11は、機能ブロックとして、ユーザ認識部111と、積算距離計算部112と、選択部113と、出力制御部114と、を備える。なお、この他、ユーザに対して目的地までの経路を案内する経路案内部(図示せず)、コンテンツサーバ30に対して車両50の位置情報を送信する位置情報送信部(図示せず)及びコンテンツサーバ30から、コンテンツ(例えば、シナリオデータ)をダウンロードするためのダウンロード部(図示せず)を備えてもよい。例えば、経路案内部は、地図情報記憶部121に含まれる施設情報に係る施設を目的地とするルート情報を経路案内用のルート情報として利用することができる。なお、経路案内部、位置情報送信部(図示せず)及びダウンロード部の構成は公知であり、説明は省略する。 The control unit 11 includes a user recognition unit 111, an integrated distance calculation unit 112, a selection unit 113, and an output control unit 114 as functional blocks. In addition, a route guidance unit (not shown) that guides the user to the route to the destination, a position information transmission unit (not shown) that transmits the position information of the vehicle 50 to the content server 30, and A download unit (not shown) for downloading content (for example, scenario data) from the content server 30 may be provided. For example, the route guidance unit can use route information whose destination is a facility related to the facility information included in the map information storage unit 121 as route information for route guidance. The configurations of the route guidance section, the position information transmission section (not shown), and the download section are known and will not be described.

<シナリオデータ>
制御部11の機能を説明する前に、シナリオデータについて説明する。
シナリオデータは、主に、観光地や目的地を巡る各種情報を含み、オーディオ部17を介して例えば複数のキャラクタの音声(ナレーション)により出力されるように音声データを含むことができる。シナリオデータは、複数の上位階層シナリオと該上位階層シナリオに結び付いた複数の下位階層シナリオと、該下位階層シナリオの見出し語を含む中間階層シナリオ(以下「ショートラジオ」ともいう)とを含むように階層構造として構成される。
<Scenario data>
Before explaining the functions of the control unit 11, the scenario data will be explained.
Scenario data mainly includes various types of information about sightseeing spots and destinations, and can include audio data so as to be output as voices (narration) of, for example, a plurality of characters via the audio unit 17 . The scenario data includes a plurality of upper layer scenarios, a plurality of lower layer scenarios linked to the upper layer scenarios, and an intermediate layer scenario (hereinafter also referred to as "short radio") including the headwords of the lower layer scenarios. Configured as a hierarchical structure.

図3に、シナリオデータの階層構造の一例を示す。図3に示すように、例えば、最上位階層シナリオである「観光」に関するシナリオには、中間階層シナリオ(ショートラジオ)を介して、第2階層シナリオである「飲食」に関するシナリオ及び「スポット」に関するシナリオが構成される。同様に、第2階層シナリオである「飲食」に関するシナリオには、ショートラジオを介して、第3階層シナリオである「食べ物」に関するシナリオ及び「飲み物」に関するシナリオ等が構成される。以下、「食べ物」に関するシナリオには、ショートラジオを介して、「肉」に関するシナリオや「魚」に関するシナリオが構成され、次に「肉」に関するシナリオには、ショートラジオを介して、「ソーキそば」に関するシナリオや「ステーキ」に関するシナリオが構成される。このように、シナリオは、上位概念の説明から下位概念の説明へとなるように構成される。さらに、ショートラジオには、例えば、上位階層シナリオから、次に案内する下位階層シナリオをテンポよくスムーズに案内するために、下位階層シナリオの見出しを含むようにすると共に、下位階層シナリオよりもその長さが短くなるように構成される。ここで、シナリオの「長さ」とは、例えば、シナリオの文字数、シナリオの音声によるナレーションに要する時間等が一例として挙げられる。 FIG. 3 shows an example of the hierarchical structure of scenario data. As shown in FIG. 3, for example, a scenario related to "sightseeing", which is the top-level scenario, is connected to a scenario related to "eating and drinking" and a scenario related to "spots", which are second-level scenarios, via a middle-level scenario (short radio). A scenario is constructed. Similarly, a scenario relating to "eating and drinking", which is a second-tier scenario, is composed of a scenario relating to "food" and a scenario relating to "drink", which are third-tier scenarios, through short radio. Below, a scenario related to "food" consists of a scenario related to "meat" and a scenario related to "fish" via a short radio, and a scenario related to "meat" includes a scenario related to "soki soba" via a short radio. Scenarios related to "" and scenarios related to "steak" are configured. In this way, the scenarios are structured from descriptions of high-level concepts to descriptions of low-level concepts. Furthermore, the short radio includes the headlines of the lower-layer scenarios, and is longer than the lower-layer scenarios, in order to smoothly guide the next lower-layer scenario from the upper-layer scenario at a good tempo. is configured to be short. Here, the "length" of the scenario includes, for example, the number of characters in the scenario, the time required for the narration by voice of the scenario, and the like.

例えば、上位階層シナリオが「沖縄の食べ物の説明」、下位階層シナリオが「肉」の説明、又は「魚」の説明であった場合に、テンポよく「沖縄の食べ物の説明」から「肉」や「魚」の説明に続けるために、ショートラジオでは、例えば「〇〇肉や△△魚が有名なんだよ」と、下位階層シナリオにつなげるように構成し、下位階層シナリオaにおいて「〇〇肉」の説明、下位階層シナリオbにおいて「△△魚」の説明をするように構成することができる。
後述するように、ショートラジオの音声は、上位階層シナリオの音声及び/又は下位階層シナリオの音声と異なるように、音声(キャラクタ)を変更することが好ましい。
こうすることで、1つのシナリオが長くなることを防止すると共に、短いナレーションによって、ユーザに対してテンポよく情報を継続的に案内することが可能となり、より一層、情報をユーザが聞き取りやすく、かつユーザの興味を引くことができる。なお、音声による情報提供を補足するための映像を表示するようにしてもよい。
この他、現在位置付近の地図、ルート案内情報を表示してもよい。また、ご当地情報、音楽コンテンツ、ディスクジョッキーのアナウンス、事故多発地点や急カーブの注意を喚起する交通案内アナウンスを含むようにしてもよい。
For example, if the upper layer scenario is "Explanation of Okinawan food" and the lower layer scenario is "Meat" or "Fish", then "Explanation of Okinawan food" can be changed to "Meat" or "Fish". In order to continue the explanation of "fish", the short radio is configured to connect to the lower hierarchy scenario, for example, "○○ meat and △△ fish are famous", and in lower hierarchy scenario a, "○○ meat , and the lower layer scenario b can be configured to explain '△△ fish'.
As will be described later, it is preferable to change the voice (character) so that the voice of the short radio is different from the voice of the upper hierarchy scenario and/or the voice of the lower hierarchy scenario.
By doing this, it is possible to prevent one scenario from becoming long, and it is possible to continuously guide the user with information at a good tempo with a short narration, making it easier for the user to hear the information. It can attract the user's interest. It should be noted that an image may be displayed to supplement the provision of information by voice.
In addition, a map near the current position and route guide information may be displayed. Local information, music content, disc jockey announcements, and traffic guidance announcements calling attention to accident-prone spots and sharp curves may also be included.

さらに、複数の上位階層シナリオと該上位階層シナリオに結び付いた複数の下位階層シナリオと、該下位階層シナリオの見出し語を含む中間階層シナリオ(以下「ショートラジオ」ともいう)とから構成されるシナリオデータの各々は、音声対話の難易度ごとにカテゴライズされる。
ここで、音声対話の難易度は、例えばシナリオデータの内容及び/又はシナリオデータの長さによって決定することが可能である。例えば、図3において、シナリオデータ(a)~(h)のそれぞれにつき、シナリオデータの内容、例えばシナリオデータ(a)であれば、「観光」、「飲食」、「食べ物」、「肉」、「ソーキそば」の内容、及び/又は各シナリオデータの長さによって、音声対話の難易度を決定することが可能である。
以上、シナリオデータの特徴について説明した。
Scenario data composed of a plurality of upper layer scenarios, a plurality of lower layer scenarios linked to the upper layer scenarios, and an intermediate layer scenario (hereinafter also referred to as "short radio") including the headwords of the lower layer scenarios. are categorized according to the difficulty of voice dialogue.
Here, the difficulty level of voice interaction can be determined by, for example, the content of scenario data and/or the length of scenario data. For example, in FIG. 3, for each of scenario data (a) to (h), the contents of the scenario data, for example, for scenario data (a), "sightseeing", "eating and drinking", "food", "meat", It is possible to determine the difficulty level of the voice dialogue according to the content of "Soki soba" and/or the length of each scenario data.
The features of scenario data have been described above.

<ユーザ認識部111>
ユーザ認識部111は、例えば入力部16から入力されるユーザ情報に基づいてユーザを認識し、ユーザIDを取得する。
ユーザがレンタカーを借りる場合の一例を説明する。ユーザがレンタカー営業所で予約を受け付けると、例えば、レンタカー営業所は、ユーザの識別情報(ユーザID)等のレンタカーを利用するための情報を登録したICカードを作成して、利用者に渡すことができる。そうすることで、利用者は、ICカードを、入力部16としてのカードリーダ等の車載装置により接触又は非接触で読み取って開錠・施錠することにより、乗車・降車できるようにする。
ここで、ICカードとは、カードリーダとの間で情報交換する機能と情報を記憶する記憶媒体である。本実施形態で用いられるICカードは、ユニークな識別番号を有しており、識別番号により当該ICカード、ひいては車両50のユーザを特定することが可能である。
ユーザ認識部111は、入力部16によって読み取ったユーザIDを取得すると共に、記憶部12に出力する。記憶部12に出力されたユーザIDは、識別情報記憶部123に格納される。なお、ユーザの認識方法は、これに限られない。例えば、顔認識等の生体認識でユーザを認識してもよい。
<User Recognition Unit 111>
The user recognition unit 111 recognizes a user based on user information input from the input unit 16, for example, and acquires a user ID.
An example in which the user rents a rental car will be described. When a user accepts a reservation at a rental car office, for example, the rental car office creates an IC card in which information for using a rental car such as user identification information (user ID) is registered, and hands it to the user. can be done. By doing so, the user can get in and out of the vehicle by reading the IC card with an in-vehicle device such as a card reader as the input unit 16 in a contact or non-contact manner and unlocking/locking.
Here, an IC card is a storage medium that stores information and a function of exchanging information with a card reader. The IC card used in this embodiment has a unique identification number, and it is possible to identify the user of the IC card and the vehicle 50 by the identification number.
The user recognition unit 111 acquires the user ID read by the input unit 16 and outputs it to the storage unit 12 . The user ID output to storage unit 12 is stored in identification information storage unit 123 . Note that the user recognition method is not limited to this. For example, the user may be recognized by biometric recognition such as face recognition.

<積算距離計算部112>
積算距離計算部112は、センサ部14により測位された車両50の位置情報に基づいて、ユーザ認識部111によって認識されたユーザの、車両50での積算走行距離を計算する。
より具体的には、積算距離計算部112は、識別情報記憶部123に記憶されているユーザIDと、位置情報記憶部122に記憶されている車載コンテンツ再生装置10の位置情報(すなわち、車両50aの位置情報)の履歴とを紐づけることにより、このユーザIDを有するユーザの、車両50での積算走行距離を計算する。
これにより、ユーザIDを有するユーザが、例えば、レンタカーとして車両50をレンタルしてからの積算走行距離、又はユーザが車両50を走行した積算距離を計算することが可能となる。
<Total Distance Calculation Unit 112>
The integrated distance calculation unit 112 calculates the integrated distance traveled by the vehicle 50 of the user recognized by the user recognition unit 111 based on the position information of the vehicle 50 positioned by the sensor unit 14 .
More specifically, the total distance calculation unit 112 stores the user ID stored in the identification information storage unit 123 and the location information of the in-vehicle content reproduction device 10 stored in the location information storage unit 122 (that is, the vehicle 50a). location information), the total traveled distance in the vehicle 50 of the user having this user ID is calculated.
This enables the user having the user ID to calculate, for example, the cumulative distance traveled after renting the vehicle 50 as a rental car, or the cumulative distance traveled by the user in the vehicle 50 .

<選択部113>
選択部113は、初期設定として、センサ部14により測位された車両50の位置情報及び/又は入力部16を介して車両50とともに移動するユーザからの操作入力に基づいて、シナリオデータ記憶部124からシナリオデータを選択する。
より具体的には、ユーザが案内を希望するシナリオデータを選択部113に対して指定する場合、選択部113は、指定されたシナリオデータをシナリオデータ記憶部124から選択して抽出する。なお、ユーザからの選択操作はこれに限られない。例えば、選択部113は、ユーザに対して、自然言語による検索を行わせることで、検索結果一覧から選択させるようにしてもよい。また、選択部113は、表示部15にシナリオデータの一覧を表示し、ユーザに選択させるようにしてもよい。なお、自然言語による検索は、音声による問い合わせ(例えば「〇〇について教えて」)を用いるようにしてもよい。
<Selection unit 113>
As an initial setting, the selection unit 113 selects a position from the scenario data storage unit 124 based on the position information of the vehicle 50 measured by the sensor unit 14 and/or an operation input from the user who moves with the vehicle 50 via the input unit 16 . Select scenario data.
More specifically, when the user designates scenario data for which guidance is desired to selection unit 113 , selection unit 113 selects and extracts the designated scenario data from scenario data storage unit 124 . Note that the selection operation by the user is not limited to this. For example, the selection unit 113 may allow the user to select from a list of search results by performing a search using a natural language. Further, the selection unit 113 may display a list of scenario data on the display unit 15 to allow the user to select. The natural language search may be performed using voice inquiries (for example, "Tell me about XX").

また、選択部113は、初期設定として、センサ部14により測位された車両50の位置情報に基づいて、シナリオデータをシナリオデータ記憶部124から選択して抽出するようにしてもよい。
より具体的には、センサ部14により測位された現在の位置情報の近傍に、シナリオデータで案内される観光に係る情報が存在する場合(例えば、景色のいい観光スポット、近辺でとれる魚がおいしい場合、珍しい動物のいる動物園等)、当該シナリオデータを選択抽出するようにしてもよい。
このように、センサ部14により測位された現在の位置情報に基づいて、シナリオデータを選択抽出するために、各シナリオデータに対して、位置情報(例えば、所定の大きさのエリア情報)を予め紐づけるようにしてもよい。その際、当該シナリオデータと関連付けられる位置情報について、さらに優先度レベルを付加するようにしてもよい。そうすることで、現在位置情報に関連付けられているシナリオデータが複数存在する場合、車両50の現在位置情報に関連付けられている未案内のシナリオデータであって、優先度レベルの最も高いデータを選択するようにしてもよい。
As an initial setting, the selection unit 113 may select and extract scenario data from the scenario data storage unit 124 based on the position information of the vehicle 50 positioned by the sensor unit 14 .
More specifically, when there is information related to sightseeing guided by scenario data in the vicinity of the current location information measured by the sensor unit 14 (for example, sightseeing spots with beautiful scenery, delicious fish caught nearby). In some cases, such as a zoo with rare animals, the scenario data may be selectively extracted.
In this way, in order to select and extract scenario data based on the current position information measured by the sensor unit 14, position information (for example, area information of a predetermined size) is provided in advance for each scenario data. You may make it tie. At that time, a priority level may be added to the location information associated with the scenario data. By doing so, if there are multiple scenario data associated with the current position information, unguided scenario data associated with the current position information of the vehicle 50 and having the highest priority level is selected. You may make it

さらに、選択部113は、当該ユーザによる当該車両50での積算走行距離及び、シナリオデータの対話難易度に応じて、さらに、シナリオデータを選択することができる。
積算距離計算部112によって計算された当該ユーザによる当該車両50での積算走行距離に対応する対話難易度情報を有するシナリオデータを選択する。
より具体的には、選択部113は、ユーザが案内を希望するシナリオデータを選択部113に対して指定する場合、選択部113は、指定されたシナリオデータの中から、当該ユーザによる当該車両50での積算走行距離に対応する対話難易度情報を有するシナリオデータを、シナリオデータ記憶部124から選択して抽出する。例えば、ユーザが「観光」の案内を希望した場合、選択部113は、「観光」を案内する複数のシナリオデータの中から、当該ユーザによる当該車両50での積算走行距離に対応する対話難易度情報を有するシナリオデータを選択する。
なお、ユーザからの選択操作はこれに限られない。例えば、選択部113は、ユーザに対して、自然言語による検索を行わせることで、検索結果から、当該ユーザによる当該車両50での積算走行距離に対応する対話難易度情報を有するシナリオデータを選択してもよい。なお、自然言語による検索は、音声による問い合わせ(例えば「〇〇について教えて」)を用いるようにしてもよい。
Furthermore, the selection unit 113 can further select scenario data in accordance with the total distance traveled by the user in the vehicle 50 and the dialogue difficulty level of the scenario data.
Scenario data having dialogue difficulty level information corresponding to the total distance traveled by the user in the vehicle 50 calculated by the total distance calculation unit 112 is selected.
More specifically, when the user designates the scenario data for which guidance is desired to the selection unit 113, the selection unit 113 selects the vehicle 50 by the user from among the designated scenario data. Scenario data having dialogue difficulty level information corresponding to the total traveled distance is selected and extracted from the scenario data storage unit 124 . For example, when the user desires guidance on "sightseeing", the selection unit 113 selects from among a plurality of scenario data for guidance on "sightseeing" a dialog difficulty level Select scenario data with information.
Note that the selection operation by the user is not limited to this. For example, the selection unit 113 causes the user to perform a search using a natural language, and selects scenario data having dialogue difficulty level information corresponding to the cumulative traveling distance of the vehicle 50 by the user from the search results. You may The natural language search may be performed using voice inquiries (for example, "Tell me about XX").

また、選択部113は、センサ部14により測位された車両50の位置情報に基づいて、シナリオデータをシナリオデータ記憶部124から選択して抽出した後、抽出結果の中から、当該ユーザによる当該車両50での積算走行距離に対応する対話難易度を有するシナリオデータを選択するようにしてもよい。
より具体的には、センサ部14により測位された現在の位置情報の近傍に、シナリオデータで案内される観光に係る情報が存在する場合(例えば、景色のいい観光スポット、近辺でとれる魚がおいしい場合、珍しい動物のいる動物園等)、この情報を含む複数のシナリオデータの中から、積算走行距離に対応する対話難易度を有するシナリオデータを選択抽出するようにしてもよい。
このように、センサ部14により測位された現在の位置情報に基づいて、シナリオデータを選択抽出するために、各シナリオデータに対して、位置情報(例えば、所定の大きさのエリア情報)を予め紐づけるようにしてもよい。
これにより選択部113は、例えば、ユーザが車両50をレンタルしてからの積算走行距離に対応する対話難易度を有するシナリオデータを選択することができる。また、ユーザの運転歴が短い場合についても同様に、ユーザの積算走行距離に対応する対話難易度を有するシナリオデータを選択することができる。
Further, the selection unit 113 selects and extracts scenario data from the scenario data storage unit 124 based on the position information of the vehicle 50 positioned by the sensor unit 14, and then selects the location of the vehicle 50 by the user from the extraction results. Scenario data having a dialogue difficulty level corresponding to the total traveled distance at 50 may be selected.
More specifically, when there is information related to sightseeing guided by scenario data in the vicinity of the current location information measured by the sensor unit 14 (for example, sightseeing spots with beautiful scenery, delicious fish caught nearby). In some cases, a zoo with rare animals, etc.), scenario data having a dialogue difficulty level corresponding to the total traveled distance may be selected and extracted from a plurality of scenario data containing this information.
In this way, in order to select and extract scenario data based on the current position information measured by the sensor unit 14, position information (for example, area information of a predetermined size) is provided in advance for each scenario data. You may make it tie.
Accordingly, the selection unit 113 can select, for example, scenario data having a dialogue difficulty level corresponding to the total distance traveled after the user rents the vehicle 50 . Likewise, when the user has a short driving history, it is possible to select scenario data having a dialogue difficulty level corresponding to the total traveled distance of the user.

<出力制御部114>
出力制御部114は、選択部113により選択されたシナリオデータを出力するように制御する。
さらに、出力制御部114は、選択されたシナリオデータを音声出力する場合、複数人の音声を適用してオーディオ部17を介して音声出力するように制御してもよい。具体的には、出力制御部114は、上位階層シナリオの出力に引き続き下位階層シナリオを音声出力する場合に、上位階層シナリオ又は下位階層シナリオの音声とは異なる音声で上位階層シナリオと下位階層シナリオの間の中間階層シナリオ(ショートラジオ)を音声出力するようにオーディオ部17に対して指示してもよい。
以上、車載コンテンツ再生装置10の構成について説明した。
<Output control unit 114>
The output control unit 114 controls to output the scenario data selected by the selection unit 113 .
Furthermore, when the selected scenario data is to be output as voice, the output control unit 114 may perform control so that the voice is output via the audio unit 17 using the voices of a plurality of people. Specifically, when the lower layer scenario is output as voice following the output of the upper layer scenario, the output control unit 114 outputs the upper layer scenario and the lower layer scenario with a voice different from the voice of the upper layer scenario or the lower layer scenario. Alternatively, the audio unit 17 may be instructed to output the middle layer scenario (short radio) between the two.
The configuration of the in-vehicle content reproduction device 10 has been described above.

<携帯端末20が備える機能ブロック>
次に、携帯端末20が備える機能ブロックについて図5のブロック図を参照して説明をする。
ここで、上述した車載コンテンツ再生装置10は、車両50aから電源の供給を受けていたが、携帯端末20は自身が備えるバッテリ(図示を省略する)から電源の供給を受ける。ただし、バッテリを充電するために携帯端末20が車両50bのシガーソケット等から電源の供給を受けるようにしてもよい。
<Functional Blocks of Mobile Terminal 20>
Next, functional blocks included in the mobile terminal 20 will be described with reference to the block diagram of FIG.
Here, while the above-described in-vehicle content reproduction device 10 receives power supply from the vehicle 50a, the portable terminal 20 receives power supply from its own battery (not shown). However, the portable terminal 20 may be supplied with power from a cigarette lighter socket of the vehicle 50b or the like in order to charge the battery.

図4に示すように、携帯端末20は、制御部21と、記憶部22と、通信部23と、センサ部24と、表示部25と、入力部26と、オーディオ部27と、近距離通信部28とを含んで構成される。
ここで、制御部21と、記憶部22と、通信部23と、センサ部24と、表示部25と、入力部26は、上述した車載コンテンツ再生装置10が含む同名の機能ブロックと同等の機能を有している。つまり、上述した車載コンテンツ再生装置10の説明における「車載コンテンツ再生装置10」の文言を「携帯端末20」を置き換え、上述した車載コンテンツ再生装置10の説明における、「車両50a」の文言を「車両50b」と置き換えることにより、携帯端末20の各機能ブロックの説明となるので、重複する再度の説明は省略する。
As shown in FIG. 4, the mobile terminal 20 includes a control unit 21, a storage unit 22, a communication unit 23, a sensor unit 24, a display unit 25, an input unit 26, an audio unit 27, and a short-range communication unit. 28.
Here, the control unit 21, the storage unit 22, the communication unit 23, the sensor unit 24, the display unit 25, and the input unit 26 have functions equivalent to those of the same-named functional blocks included in the in-vehicle content reproduction device 10 described above. have. That is, in the description of the in-vehicle content reproduction device 10 described above, the wording of "the in-vehicle content reproduction device 10" is replaced with the term "portable terminal 20", and the term "vehicle 50a" in the description of the above-mentioned in-vehicle content reproduction device 10 is replaced with the term "vehicle. 50b", the description of each functional block of the mobile terminal 20 will be provided, and redundant description will be omitted.

一方で、携帯端末20は、近距離通信部28を含んでいる点等で、車載コンテンツ再生装置10と相違するので、この相違点について、以下説明をする。
近距離通信部28は、NFC(Near Field Communication)やBluetooth(登録商標)といった規格に準拠した非接触の近距離通信、又はUSB(Universal Serial Bus)ケーブル等を介した有線による近距離通信を行うための部分である。
一方で、車両50bは、近距離通信部28と通信を行うための近距離通信部を備える。例えば車両50bのECU(Electronic Control Unit)が近距離通信部を備える。
そして、携帯端末20がECUと近距離通信により通信することができる場合とは、すなわち、携帯端末20が車両50bの車内に存在する場合である。この場合、携帯端末20のセンサ部24が測位する位置情報は、車両50bの位置情報に相当することになる。
On the other hand, the portable terminal 20 differs from the in-vehicle content reproduction device 10 in that it includes a short-range communication unit 28, etc., and this difference will be described below.
The short-range communication unit 28 performs non-contact short-range communication conforming to standards such as NFC (Near Field Communication) and Bluetooth (registered trademark), or wired short-range communication via a USB (Universal Serial Bus) cable or the like. This is the part for
On the other hand, vehicle 50b includes a short-range communication unit for communicating with short-range communication unit 28 . For example, an ECU (Electronic Control Unit) of the vehicle 50b includes a short-range communication unit.
A case where the mobile terminal 20 can communicate with the ECU by short-range communication is a case where the mobile terminal 20 is present inside the vehicle 50b. In this case, the positional information measured by the sensor unit 24 of the mobile terminal 20 corresponds to the positional information of the vehicle 50b.

そこで、携帯端末20は、近距離通信部28を介してECUと近距離通信できる間は、制御部21の備える各機能部を起動させるようにしてもよい。
例えば、ユーザが携帯端末20を所持して車両50bに乗車し、イグニッションスイッチ等の車両50bの起動スイッチをオンにすると、車両50bと携帯端末20とが接続(ペアリング)され、携帯端末20で測位した位置情報及び識別情報が携帯端末20からコンテンツサーバ30に送信されるようにしてもよい。この場合、車両50bと携帯端末20とのペアリング直後に測位された位置情報により特定される位置を最初の車両位置、すなわち出発位置としてコンテンツサーバ30に送信することができる。
Therefore, the portable terminal 20 may activate each functional unit included in the control unit 21 while short-range communication with the ECU is possible via the short-range communication unit 28 .
For example, when the user carries the mobile terminal 20 and gets into the vehicle 50b and turns on a start switch of the vehicle 50b such as an ignition switch, the vehicle 50b and the mobile terminal 20 are connected (paired), and the mobile terminal 20 Position information and identification information obtained by positioning may be transmitted from the mobile terminal 20 to the content server 30 . In this case, the position specified by the position information measured immediately after the pairing between the vehicle 50b and the mobile terminal 20 can be transmitted to the content server 30 as the initial vehicle position, that is, the starting position.

さらに、イグニッションスイッチ等の車両50bの起動スイッチがオフにされると、車両50bと携帯端末20とのペアリングが解除される。この場合、例えば、解除された直前に測位された位置情報により特定される位置を最終の車両位置、すなわち駐車位置としてコンテンツサーバ30に送信することができる。 Furthermore, when a start switch of the vehicle 50b such as an ignition switch is turned off, the pairing between the vehicle 50b and the mobile terminal 20 is cancelled. In this case, for example, the position specified by the position information measured immediately before the cancellation can be transmitted to the content server 30 as the final vehicle position, that is, the parking position.

なお、車両50bが位置情報を測位する機能を有している場合には、センサ部24が測位する位置情報ではなく、車両50bが測位する位置情報を位置情報としてコンテンツサーバ30に送信するようにしてもよい。この場合、携帯端末20は、車両50bから、車両50bの測位する位置情報を取得するようにすることで、センサ部24を省略するようにしてもよい。
以上、携帯端末20の構成について説明した。
If the vehicle 50b has a function of measuring position information, the position information measured by the vehicle 50b is transmitted to the content server 30 as the position information instead of the position information measured by the sensor unit 24. may In this case, the mobile terminal 20 may omit the sensor unit 24 by acquiring position information obtained by positioning the vehicle 50b from the vehicle 50b.
The configuration of the mobile terminal 20 has been described above.

<コンテンツサーバ30が備える機能ブロック>
次に、コンテンツサーバ30が備える機能ブロックについて図5のブロック図を参照して説明をする。
<Functional Blocks Provided by Content Server 30>
Next, functional blocks included in the content server 30 will be described with reference to the block diagram of FIG.

図5に示すように、コンテンツサーバ30は、制御部31と、記憶部32と、通信部33と、を含んで構成される。 As shown in FIG. 5 , the content server 30 includes a control section 31 , a storage section 32 and a communication section 33 .

制御部31は、マイクロプロセッサ等の演算処理装置から構成され、コンテンツサーバ30を構成する各部の制御を行う。制御部31については、後述する。 The control unit 31 is composed of an arithmetic processing device such as a microprocessor, and controls each unit that constitutes the content server 30 . The control unit 31 will be described later.

記憶部32は、半導体メモリ等で構成されており、ファームウェアやオペレーティングシステムと呼ばれる制御用のプログラムや、情報分析処理を行うためのプログラムといった各プログラム、さらにその他、地図情報記憶部321、及びシナリオデータを含むコンテンツ情報記憶部324を含むようにしてもよい。 The storage unit 32 is composed of a semiconductor memory or the like, and stores programs such as a control program called firmware or an operating system, a program for performing information analysis processing, a map information storage unit 321, and scenario data. may include a content information storage unit 324 including

地図情報記憶部321には、上述した地図情報記憶部121、221と同じ情報が含まれる。地図情報は、予め記憶しておく構成としてもよいし、通信網40に接続されたサーバ装置(図示を省略する。)等から必要に応じて適宜ダウンロードされる構成としてもよい。さらに、ユーザの入力等に応じて適宜修正されてもよい。 The map information storage unit 321 contains the same information as the map information storage units 121 and 221 described above. The map information may be stored in advance, or downloaded from a server device (not shown) connected to the communication network 40 as needed. Furthermore, it may be modified as appropriate according to user input or the like.

コンテンツ情報記憶部324は、前述した観光地情報や目的地情報等を案内するための色々なシナリオデータを含む。また、コンテンツ情報記憶部324は、この他、例えば音楽コンテンツ、ディスクジョッキーのアナウンス、事故多発地点や急カーブの注意を喚起する交通案内アナウンス、写真や動画等の映像コンテンツを含むようにしてもよい。なお、これらの情報についても、シナリオデータとして構成するようにしてもよい。
コンテンツ情報は、前述したように、車両50の位置情報やユーザからの要求に基づいて、コンテンツサーバから、予め、車載コンテンツ再生装置10や携帯端末20にダウンロードされるようにしてもよい。
The content information storage unit 324 contains various scenario data for guiding the aforementioned sightseeing spot information, destination information, and the like. In addition, the content information storage unit 324 may also include, for example, music content, disc jockey announcements, traffic guidance announcements calling attention to accident-prone spots and sharp curves, and video content such as photos and videos. These pieces of information may also be configured as scenario data.
As described above, the content information may be downloaded in advance from the content server to the in-vehicle content reproduction device 10 or the mobile terminal 20 based on the location information of the vehicle 50 or a request from the user.

通信部33は、DSP(Digital Signal Processor)等を有し、3G(3rd Generation)LTE(Long Term Evolution)やWi-Fi(登録商標)といった規格に準拠して、通信網40を介して通信網40を介した他の装置との間の無線通信を実現する。通信部33は、例えば、車載コンテンツ再生装置10及び携帯端末20のそれぞれから送信される位置情報及び識別情報を受信するために利用してもよい。また、通信部33は、車載コンテンツ再生装置10及び携帯端末20に対してシナリオデータを含むコンテンツ情報を送信するために利用してもよい。
ただし、通信部33と他の装置との間で送受信されるデータに特に制限はなく、これらの情報以外の情報が送受信されるようにしてもよい。
The communication unit 33 has a DSP (Digital Signal Processor) and the like, and complies with standards such as 3G (3rd Generation) LTE (Long Term Evolution) and Wi-Fi (registered trademark), and communicates with the communication network via the communication network 40. 40 to enable wireless communication with other devices. The communication unit 33 may be used, for example, to receive position information and identification information transmitted from the in-vehicle content reproduction device 10 and the mobile terminal 20, respectively. Also, the communication unit 33 may be used to transmit content information including scenario data to the in-vehicle content reproduction device 10 and the mobile terminal 20 .
However, there is no particular limitation on the data transmitted/received between the communication unit 33 and other devices, and information other than these information may be transmitted/received.

制御部31はCPU(Central Processing Unit)、RAM(Random access memory)、ROM(Read Only Memory)、及びI/O(Input / output)等を有するマイクロプロセッサにより構成される。CPUは、ROM又は記憶部32から読み出した各プログラムを実行し、その実行の際にはRAM、ROM、及び記憶部32から情報を読み出し、RAM及び記憶部32に対して情報の書き込みを行い、通信部33、表示部34、及び入力部35と信号の授受を行う。そして、このようにして、ハードウェアとソフトウェア(プログラム)が協働することにより本実施形態における処理は実現される。 The control unit 31 is configured by a microprocessor having a CPU (Central Processing Unit), RAM (Random Access Memory), ROM (Read Only Memory), I/O (Input/Output), and the like. The CPU executes each program read from the ROM or the storage unit 32, reads information from the RAM, the ROM, and the storage unit 32 during execution, writes information to the RAM and the storage unit 32, It exchanges signals with the communication unit 33 , the display unit 34 and the input unit 35 . In this way, the processing in this embodiment is realized by cooperation between hardware and software (programs).

制御部31は、機能ブロックとして、位置情報受信部310、積算距離計算部312、コンテンツデータ提供部315を含むようにしてもよい。 The control unit 31 may include a position information receiving unit 310, an integrated distance calculating unit 312, and a content data providing unit 315 as functional blocks.

位置情報受信部310は、車両50から、ユーザの識別情報、車両50の識別情報、位置情報、及び時刻情報等を通信部33を介して受信するようにしてもよい。 The position information receiving unit 310 may receive user identification information, vehicle 50 identification information, position information, time information, and the like from the vehicle 50 via the communication unit 33 .

積算距離計算部312は、位置情報受信部310によって受信されたユーザの識別情報、車両50の識別情報、位置情報から、ユーザが車両50の利用を開始して以降の積算走行距離を計算するようにしてもよい。 The total distance calculation unit 312 calculates the total distance traveled since the user started using the vehicle 50 from the identification information of the user, the identification information of the vehicle 50 and the position information received by the position information reception unit 310 . can be

コンテンツデータ提供部315は、積算距離計算部312によって計算された積算走行距離に対応する対話難易度を有するシナリオデータを含むコンテンツデータを、予め車載コンテンツ再生装置10や携帯端末20に提供(ダウンロード)するようにしてもよい。
以上、コンテンツサーバ30の構成について説明した。
The content data providing unit 315 provides (downloads) content data including scenario data having a dialogue difficulty level corresponding to the total travel distance calculated by the total distance calculating unit 312 to the in-vehicle content reproducing device 10 and the mobile terminal 20 in advance. You may make it
The configuration of the content server 30 has been described above.

以上、本発明の音声案内システム1の各機能部の実施形態を、車両50に搭載される車載コンテンツ再生装置10、携帯端末20、及びコンテンツサーバ30の構成に基づいて説明した。 The embodiments of the respective functional units of the voice guidance system 1 of the present invention have been described above based on the configurations of the in-vehicle content reproduction device 10 mounted on the vehicle 50, the portable terminal 20, and the content server 30. FIG.

<本実施形態の動作>
次に、図6のフローチャートを参照して、本実施形態の動作について説明する。ここで、図6は、車載コンテンツ再生装置10の音声案内処理時の基本的動作を示すフローチャートである。
<Operation of this embodiment>
Next, the operation of this embodiment will be described with reference to the flowchart of FIG. Here, FIG. 6 is a flowchart showing the basic operation of the in-vehicle content reproduction device 10 during voice guidance processing.

まず、車載コンテンツ再生装置10は、車両50aのイグニッションスイッチがオン(エンジンを起動)にされることによって自動起動されているものとする。 First, it is assumed that the in-vehicle content reproduction device 10 is automatically started when the ignition switch of the vehicle 50a is turned on (the engine is started).

図6を参照すると、ステップS1において、車載コンテンツ再生装置10は、ユーザを認識する。 Referring to FIG. 6, in step S1, the in-vehicle content reproduction device 10 recognizes the user.

ステップS2において、車載コンテンツ再生装置10は、認識したユーザが、当該車載コンテンツ再生装置10が搭載される車両50の利用を開始してからの積算走行距離を計算する。 In step S2, the in-vehicle content reproduction device 10 calculates the cumulative travel distance since the recognized user started using the vehicle 50 in which the in-vehicle content reproduction device 10 is mounted.

ステップS3において、車載コンテンツ再生装置10は、案内の希望がユーザから指定されたか否かを判定する。指定されている場合(Yesの場合)、ステップS5に移る。指定されていない場合(Noの場合)、ステップS4に移る。なお、ステップS4以降のフローのどの時点においても、案内の希望がユーザから指定された場合には割り込み処理を許可し、その時点で処理していたステップを中断してステップS3を強制的に実行することも可能である。 In step S3, the in-vehicle content reproduction device 10 determines whether or not the user has designated a request for guidance. If specified (Yes), the process proceeds to step S5. If not specified (No), the process proceeds to step S4. At any point in the flow after step S4, if the user designates a request for guidance, interrupt processing is permitted, the step being processed at that point is interrupted, and step S3 is forcibly executed. It is also possible to

ステップS4において、車載コンテンツ再生装置10は、現在の車両50の位置を含むエリアに紐づけられた、シナリオデータで案内される観光に係る情報が存在するか否かを判定する。存在する場合(Yesの場合)、ステップS5に移る。存在しない場合(Noの場合)、ステップS2に移る。 In step S<b>4 , the in-vehicle content reproduction device 10 determines whether or not there is information related to sightseeing guided by the scenario data linked to the area including the current position of the vehicle 50 . If it exists (Yes), go to step S5. If it does not exist (No), go to step S2.

ステップS5において、車載コンテンツ再生装置10は、ユーザから指定された、又は現在位置情報を含むエリアに紐づけられた案内情報に係るシナリオデータの中から、積算走行距離に対応する適切な対話難易度を有するシナリオデータを選択して設定する。 In step S5, the in-vehicle content reproduction device 10 selects an appropriate dialogue difficulty level corresponding to the total travel distance from the scenario data related to the guidance information specified by the user or linked to the area containing the current position information. Select and set the scenario data with

ステップS6において、車載コンテンツ再生装置10は、設定されたシナリオデータを予め設定された音声により出力する。その後、処理はステップS2に移る。 In step S6, the in-vehicle content reproduction device 10 outputs the set scenario data with a preset sound. After that, the process moves to step S2.

以上、説明した動作により、車載コンテンツ再生装置10は、ユーザが車両50の利用を開始してから間もないため精神的に余裕が無い場合に、複雑な音声対話がおこなわれることを防止することが可能となる。
なお、車載コンテンツ再生装置10の動作について説明したが、携帯端末20の動作についても、車載コンテンツ再生装置10を携帯端末20に読み替え、車両50aを車両50bに読み替えることで説明できる。
By the operation described above, the in-vehicle content reproduction device 10 prevents complicated voice dialogues from being performed when the user has just started using the vehicle 50 and is mentally exhausted. becomes possible.
Although the operation of the in-vehicle content reproduction device 10 has been described, the operation of the portable terminal 20 can also be explained by replacing the in-vehicle content reproduction device 10 with the portable terminal 20 and the vehicle 50a with the vehicle 50b.

<ハードウェア及びソフトウェアについて>
上記の音声案内システムに含まれる各機器のそれぞれは、ハードウェア、ソフトウェア又はこれらの組み合わせにより実現することができる。また、上記の音声案内システムに含まれる各機器のそれぞれが協働することにより行なわれる施設情報配信方法も、ハードウェア、ソフトウェア又はこれらの組み合わせにより実現することができる。ここで、ソフトウェアによって実現されるとは、1つ以上のコンピュータが1つ以上のプログラムを読み込んで実行することにより実現されることを意味する。
<About hardware and software>
Each device included in the voice guidance system described above can be realized by hardware, software, or a combination thereof. Further, the facility information distribution method performed by cooperation of each device included in the voice guidance system can also be realized by hardware, software, or a combination thereof. Here, "implemented by software" means implemented by one or more computers reading and executing one or more programs.

プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 The program can be stored and delivered to the computer using various types of non-transitory computer readable media. Non-transitory computer-readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (e.g., flexible discs, magnetic tapes, hard disk drives), magneto-optical recording media (e.g., magneto-optical discs), CD-ROMs (Read Only Memory), CD- R, CD-R/W, semiconductor memory (eg, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)). The program may also be delivered to the computer on various types of transitory computer readable medium. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves. Transitory computer-readable media can deliver the program to the computer via wired channels, such as wires and optical fibers, or wireless channels.

上述した実施形態は、本発明の好適な実施形態ではあるが、上記実施形態のみに本発明の範囲を限定するものではなく、本発明の要旨を逸脱しない範囲において種々の変更を施した形態での実施が可能である。 The above-described embodiments are preferred embodiments of the present invention, but the scope of the present invention is not limited only to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention. can be implemented.

<変形例1>
上述した実施形態において、車載コンテンツ再生装置10及び携帯端末20は、単独でも施設情報案内を実行可能な構成を備える場合を例示した。
これに対して、車載コンテンツ再生装置10及び携帯端末20をクライアントサーバ又はWEBシステムにおけるクライアント又はWEB端末として構成してもよい。この場合、本発明の施設情報案内に関する一連の処理を全体として実行できる機能が各機器に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは、特に図2、図4及び図5の例に限定されない。
<Modification 1>
In the above-described embodiment, the in-vehicle content reproduction device 10 and the portable terminal 20 are configured to be able to independently provide facility information guidance.
On the other hand, the in-vehicle content reproduction device 10 and the portable terminal 20 may be configured as a client server, a client in a WEB system, or a WEB terminal. In this case, it is sufficient for each device to have a function capable of executing a series of processes related to the facility information guidance of the present invention as a whole. , but not limited to the examples of FIGS.

具体的には、例えば、クライアントサーバや、WEB等の公知技術を適用して、図2に示す車載コンテンツ再生装置10(又は携帯端末20)の備える機能部を、コンテンツサーバ30Aが備えるようにしてもよい。図7にコンテンツサーバ30Aの機能ブロック図の一例を示す。
具体的には、図7に示すように、車載コンテンツ再生装置10の備えるユーザ認識部111に換えて、コンテンツサーバ30Aがユーザ認識部311を備えるようにしてもよい。この場合、車載コンテンツ再生装置10は、入力部16を介して取得したユーザIDを、通信を介してコンテンツサーバ30Aに送信することで、コンテンツサーバ30Aがユーザを認識してもよい。
Specifically, for example, by applying a known technology such as a client server or WEB, the content server 30A is provided with the function units provided in the in-vehicle content reproduction device 10 (or the mobile terminal 20) shown in FIG. good too. FIG. 7 shows an example of a functional block diagram of the content server 30A.
Specifically, as shown in FIG. 7, the content server 30A may include a user recognition unit 311 instead of the user recognition unit 111 included in the in-vehicle content reproduction device 10. FIG. In this case, the content server 30A may recognize the user by transmitting the user ID acquired via the input unit 16 to the content server 30A via communication.

同様に、車載コンテンツ再生装置10の備える積算距離計算部312に換えて、コンテンツサーバ30Aが積算距離計算部312を備えるようにしてもよい。この場合、車載コンテンツ再生装置10は、センサ部14により測位された車両50の位置情報を、通信を介してコンテンツサーバ30Aに送信することで、コンテンツサーバ30Aが、ユーザ認識部111によって認識されたユーザの、車両50での積算走行距離を計算してもよい。 Similarly, the content server 30</b>A may be provided with the integrated distance calculation unit 312 instead of the integrated distance calculation unit 312 provided in the in-vehicle content reproduction device 10 . In this case, the in-vehicle content reproduction device 10 transmits the position information of the vehicle 50 positioned by the sensor unit 14 to the content server 30A via communication, so that the content server 30A is recognized by the user recognition unit 111. The user's total traveled distance in the vehicle 50 may be calculated.

同様に、車載コンテンツ再生装置10の備える選択部113に換えて、コンテンツサーバ30Aが選択部313を備えるようにしてもよい。この場合、コンテンツサーバ30Aがシナリオデータ記憶部324から、積算距離計算部312によって計算された積算走行距離に対応する対話難易度情報を有するシナリオデータを選択して抽出して、車載コンテンツ再生装置10は、抽出されたシナリオデータをコンテンツサーバ30Aから取得するようにしてもよい。 Similarly, instead of the selection unit 113 provided in the in-vehicle content reproduction device 10, the content server 30A may be provided with the selection unit 313. FIG. In this case, content server 30A selects and extracts scenario data having dialogue difficulty level information corresponding to the total travel distance calculated by total distance calculation unit 312 from scenario data storage unit 324, and extracts the content server 30A. may acquire the extracted scenario data from the content server 30A.

同様に、車載コンテンツ再生装置10の備える出力制御部114に換えて、コンテンツサーバ30Aが出力制御部314を備えるようにしてもよい。この場合、コンテンツサーバ30Aは、シナリオデータ記憶部324から選択されたシナリオデータを車載コンテンツ再生装置10に対して出力指示するように制御してもよい。
また、シナリオを音声出力する際に、コンテンツサーバ30Aは、ユーザに、シナリオ又はシナリオ中の各セリフをナレーションする音声割り当てのパラメータを予め設定させることで、シナリオ(又はシナリオ中のセリフ)に対する音声を割り当てて(キャラクタを割り当てて)、割り当てられた音声(キャラクタ)に基づいて音声合成するようにしてもよい。
Similarly, instead of the output control section 114 provided in the in-vehicle content reproduction device 10, the content server 30A may be provided with the output control section 314. FIG. In this case, the content server 30A may control so as to instruct the in-vehicle content reproduction device 10 to output the scenario data selected from the scenario data storage unit 324 .
In addition, when outputting the scenario as voice, the content server 30A allows the user to preset parameters for assigning voices for narrating the scenario or each line in the scenario, thereby outputting the voice for the scenario (or the lines in the scenario). It is also possible to assign (assign a character) and perform speech synthesis based on the assigned voice (character).

また、これら機能的構成を実現するための装置についても、上述した実施形態での説明は例示に過ぎない。例えば、コンテンツサーバ30、30Aをクラウド上の仮想サーバとして実現してもよい。また、コンテンツサーバ30、30Aの機能部を、クラウド上でファンクションとして提供するようにしてもよい。 Also, the description of the devices for realizing these functional configurations in the above-described embodiments is merely an example. For example, the content servers 30 and 30A may be implemented as virtual servers on the cloud. Also, the functional units of the content servers 30 and 30A may be provided as functions on the cloud.

<変形例2>
上述した実施形態において、車載コンテンツ再生装置10、携帯端末20、及びコンテンツサーバ30Aは、ユーザによる前記移動体IDでの積算走行距離を計算し、計算された積算走行距離に対応する対話難易度を有するシナリオデータを選択し、音声出力するとしたが、これには限定されない。
例えば、ユーザによる前記移動体IDでの積算走行距離の代わりに、ユーザによる前記移動体IDでの累積乗車時間を計算し、計算された累積乗車時間に対応する対話難易度を有するシナリオデータを選択し、音声出力する構成としてもよい。
<Modification 2>
In the above-described embodiment, the in-vehicle content reproduction device 10, the mobile terminal 20, and the content server 30A calculate the total distance traveled by the user with the mobile object ID, and set the dialogue difficulty level corresponding to the calculated total distance traveled. Although it is assumed that the scenario data possessed by the user is selected and output as voice, the present invention is not limited to this.
For example, instead of the cumulative traveled distance with the mobile object ID by the user, the cumulative travel time with the mobile object ID by the user is calculated, and scenario data having a dialogue difficulty level corresponding to the calculated cumulative travel time is selected. and may be configured to output audio.

1 音声案内システム
10 車載コンテンツ再生装置
20 携帯端末
30、30A コンテンツサーバ
11、21、31 制御部
111、211、311、ユーザ認識部
112、212、312、積算距離計算部
113、213、313 選択部
114、214、314 出力制御部
12、22、32 記憶部
13,23,33 通信部
14、24 センサ部
15、25 表示部
16、26 入力部
17、27 オーディオ部
28 近距離通信部
310 位置情報受信部
315 コンテンツデータ提供部
40 通信網
50a、50b 車両
1 voice guidance system 10 in-vehicle content playback device 20 mobile terminal 30, 30A content server 11, 21, 31 control unit 111, 211, 311, user recognition unit 112, 212, 312, integrated distance calculation unit 113, 213, 313 selection unit 114, 214, 314 output control unit 12, 22, 32 storage unit 13, 23, 33 communication unit 14, 24 sensor unit 15, 25 display unit 16, 26 input unit 17, 27 audio unit 28 near field communication unit 310 position information Receiver 315 Content data provider 40 Communication network 50a, 50b Vehicle

Claims (4)

移動体の種別として移動体IDを有する移動体の、現在の位置情報を測位する測位部と、
地図情報と施設の位置情報を含む施設情報が記憶される地図記憶部と、
前記施設に関する情報が含まれる予め作成されたシナリオデータが対話難易度情報と共に予め記憶されシナリオデータ記憶部と、
前記移動体と共に移動するユーザからの音声応答入力を受け付ける入力部と、
前記シナリオデータを音声又は画像として出力する出力部と、
制御部と、を備え、
前記制御部は、
前記移動体IDを有する移動体に乗車したユーザの識別情報を認識するユーザ認識部と、
前記移動体IDを有する移動体の前記位置情報と前記移動体に乗車した前記ユーザの識別情報とを紐づけ、当該位置情報の推移から、前記識別情報により識別される前記ユーザによる前記移動体IDでの積算走行距離を計算する積算距離計算部と、
前記移動体の位置情報に基づいて、前記シナリオデータを前記シナリオデータ記憶部から選択する選択部と、
前記移動体の位置情報に基づいて、前記シナリオデータを音声又は画像として前記出力部を介して出力する出力制御部と、を備え、
前記選択部は、さらに、
前記識別情報により識別されるユーザによる前記移動体IDでの積算走行距離である当該ユーザによる当該移動体での積算走行距離に対応する対話難易度を有する予め作成され記憶されたシナリオデータを前記シナリオデータ記憶部から選択することで、慣れない車両を運転するユーザ、又は運転歴の浅いユーザに対して対話難易度の高いシナリオデータを選択することを防止し、
前記出力制御部は、さらに、
前記選択部により選択されたシナリオデータを音声又は画像として前記出力部を介して出力する音声案内装置。
a positioning unit that measures the current location information of a mobile object having a mobile object ID as a mobile object type;
a map storage unit for storing facility information including map information and location information of facilities;
a scenario data storage unit in which pre-created scenario data including information about the facility is stored in advance together with dialogue difficulty level information;
an input unit that receives a voice response input from a user who moves with the mobile object;
an output unit that outputs the scenario data as sound or image;
a control unit;
The control unit
a user recognition unit that recognizes identification information of a user who has boarded a mobile object having the mobile object ID ;
The position information of the mobile object having the mobile object ID and the identification information of the user who boarded the mobile object are linked, and the mobile object ID by the user identified by the identification information is obtained from the transition of the position information. an integrated distance calculation unit that calculates the integrated distance traveled in
a selection unit that selects the scenario data from the scenario data storage unit based on the location information of the mobile object;
an output control unit that outputs the scenario data as sound or image through the output unit based on the position information of the moving body;
The selection unit further
scenario data created and stored in advance having a dialogue difficulty level corresponding to the total distance traveled by the user identified by the identification information on the mobile object ID, which is the total distance traveled by the user on the mobile object; By selecting from the data storage unit, it is possible to prevent a user who drives an unfamiliar vehicle or a user with a short driving experience from selecting scenario data with a high degree of interaction difficulty,
The output control unit further
A voice guidance device for outputting the scenario data selected by the selection section as voice or image via the output section.
前記対話難易度情報は、前記シナリオデータに含まれるシナリオの内容及び/又はシナリオの長さによって決定されている、請求項1に記載の音声案内装置。 2. The voice guidance device according to claim 1, wherein said dialogue difficulty level information is determined by the content of a scenario and/or the length of the scenario included in said scenario data. 地図情報と施設の位置情報を含む施設情報が記憶される地図記憶部と、
前記施設に関する情報が含まれる予め作成されたシナリオデータが対話難易度情報と共に予め記憶されシナリオデータ記憶部と、
制御部と、を備え、
前記制御部は、
移動体IDを有する移動体に乗車したユーザの識別情報を認識するユーザ認識部と、
前記移動体IDを有する移動体の前記位置情報と前記移動体に乗車した前記ユーザの識別情報とを紐づけ、当該位置情報の推移から、前記識別情報により識別される前記ユーザによる前記移動体IDでの積算走行距離を計算する積算距離計算部と、
前記移動体の位置情報に基づいて、前記シナリオデータを前記シナリオデータ記憶部から選択する選択部と、
前記移動体の位置情報に基づいて、前記シナリオデータを音声又は画像として出力する出力制御部と、を備え、
前記選択部は、さらに、
前記識別情報により識別されるユーザによる前記移動体IDでの積算走行距離である当該ユーザによる当該移動体での積算走行距離に対応する対話難易度を有する予め作成され記憶されたシナリオデータを前記シナリオデータ記憶部から選択することで、慣れない車両を運転するユーザ、又は運転歴の浅いユーザに対して対話難易度の高いシナリオデータを選択することを防止し、
前記出力制御部は、さらに、
前記選択部により選択されたシナリオデータを音声又は画像として出力するように出力指示する音声案内サーバ。
a map storage unit for storing facility information including map information and location information of facilities;
a scenario data storage unit in which pre-created scenario data including information about the facility is stored in advance together with dialogue difficulty level information;
a control unit;
The control unit
a user recognition unit that recognizes identification information of a user who has boarded a mobile object having a mobile object ID ;
The position information of the mobile object having the mobile object ID and the identification information of the user who boarded the mobile object are linked, and the mobile object ID by the user identified by the identification information is obtained from the transition of the position information. an integrated distance calculation unit that calculates the integrated distance traveled in
a selection unit that selects the scenario data from the scenario data storage unit based on the location information of the mobile object;
an output control unit that outputs the scenario data as sound or image based on the position information of the moving body;
The selection unit further
scenario data created and stored in advance having a dialogue difficulty level corresponding to the total distance traveled by the user identified by the identification information on the mobile object ID, which is the total distance traveled by the user on the mobile object; By selecting from the data storage unit, it is possible to prevent a user who drives an unfamiliar vehicle or a user with a short driving experience from selecting scenario data with a high degree of interaction difficulty,
The output control unit further
A voice guidance server for outputting an output instruction to output the scenario data selected by the selection unit as voice or image.
コンピュータにより実行される案内方法であって、
移動体の種別として移動体IDを有する移動体の、現在の位置情報を測位する測位ステップと、
地図情報と施設の位置情報を含む施設情報を記憶る地図記憶ステップと、
前記施設に関する情報が含まれる予め作成されたシナリオデータが対話難易度情報と共に予め記憶されるシナリオデータ記憶ステップと、
前記移動体と共に移動するユーザからの音声応答入力を受け付ける入力ステップと、
前記シナリオデータを音声又は画像として出力する出力ステップと、
前記移動体IDを有する移動体に乗車したユーザの識別情報を認識するユーザ認識ステップと、
前記移動体IDを有する移動体の前記位置情報と前記移動体に乗車した前記ユーザの識別情報とを紐づけ、当該位置情報の推移から、前記識別情報により識別される前記ユーザによる前記移動体IDでの積算走行距離を計算する積算距離計算ステップと、
前記移動体の位置情報に基づいて、前記シナリオデータ記憶ステップにおいて記憶された前記シナリオデータを選択する選択ステップと、
前記移動体の位置情報に基づいて、前記シナリオデータを音声又は画像として前記出力ステップにおいて出力する出力制御ステップとを実行し、
前記選択ステップは、さらに、
前記識別情報により識別されるユーザによる前記移動体IDでの積算走行距離である当該ユーザによる当該移動体での積算走行距離に対応する対話難易度を有する、前記シナリオデータ記憶ステップにおいて予め作成され記憶されたシナリオデータを選択することで、慣れない車両を運転するユーザ、又は運転歴の浅いユーザに対して対話難易度の高いシナリオデータを選択することを防止し、
前記出力制御ステップは、さらに、
前記選択ステップにおいて選択されたシナリオデータを音声又は画像として前記出力ステップにおいて出力するよう制御する音声案内方法。
A computer implemented guidance method comprising:
a positioning step of positioning the current location information of a mobile object having a mobile object ID as a mobile object type;
a map storage step of storing facility information including map information and facility location information;
a scenario data storage step in which previously created scenario data containing information about the facility is stored in advance together with dialogue difficulty level information;
an input step of receiving a voice response input from a user who moves with the mobile object;
an output step of outputting the scenario data as sound or image;
a user recognition step of recognizing identification information of a user who has boarded a mobile object having the mobile object ID ;
The position information of the mobile object having the mobile object ID and the identification information of the user who boarded the mobile object are linked, and the mobile object ID by the user identified by the identification information is obtained from the transition of the position information. a total distance calculation step of calculating the total distance traveled at
a selection step of selecting the scenario data stored in the scenario data storage step based on the position information of the mobile object;
an output control step of outputting the scenario data as audio or image in the output step based on the position information of the moving body;
The selecting step further comprises:
Created and stored in advance in the scenario data storing step, having a dialogue difficulty level corresponding to the total distance traveled by the user identified by the identification information on the mobile object ID, which is the total distance traveled by the user on the mobile object. By selecting the scenario data , it is possible to prevent a user who drives an unfamiliar vehicle or a user who has a short driving experience from selecting scenario data with a high degree of interaction difficulty,
The output control step further includes:
A voice guidance method for controlling the scenario data selected in the selection step to be output as voice or image in the output step .
JP2019066363A 2019-03-29 2019-03-29 Voice guidance device, voice guidance server, and voice guidance method Active JP7244331B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019066363A JP7244331B2 (en) 2019-03-29 2019-03-29 Voice guidance device, voice guidance server, and voice guidance method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019066363A JP7244331B2 (en) 2019-03-29 2019-03-29 Voice guidance device, voice guidance server, and voice guidance method

Publications (2)

Publication Number Publication Date
JP2020165797A JP2020165797A (en) 2020-10-08
JP7244331B2 true JP7244331B2 (en) 2023-03-22

Family

ID=72717220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019066363A Active JP7244331B2 (en) 2019-03-29 2019-03-29 Voice guidance device, voice guidance server, and voice guidance method

Country Status (1)

Country Link
JP (1) JP7244331B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022096045A (en) 2020-12-17 2022-06-29 トヨタ自動車株式会社 Vehicle display device
JPWO2024127692A1 (en) * 2022-12-12 2024-06-20

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203921A (en) 2010-03-25 2011-10-13 Denso It Laboratory Inc Driving evaluation apparatus, method and program
JP2017167046A (en) 2016-03-17 2017-09-21 ヤフー株式会社 Route guide device, route guide system, route guide method and route guide program
WO2018012156A1 (en) 2016-07-15 2018-01-18 本田技研工業株式会社 Content selection system, content playback device, content selection server, and content selection method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203921A (en) 2010-03-25 2011-10-13 Denso It Laboratory Inc Driving evaluation apparatus, method and program
JP2017167046A (en) 2016-03-17 2017-09-21 ヤフー株式会社 Route guide device, route guide system, route guide method and route guide program
WO2018012156A1 (en) 2016-07-15 2018-01-18 本田技研工業株式会社 Content selection system, content playback device, content selection server, and content selection method

Also Published As

Publication number Publication date
JP2020165797A (en) 2020-10-08

Similar Documents

Publication Publication Date Title
JP4533201B2 (en) Navigation device, navigation method, navigation program, server device, and navigation information distribution system
CN110431595B (en) Information analysis device and path information analysis method
JP2007066290A (en) Method and system for generating map data and information delivery apparatus
US20090234565A1 (en) Navigation Device and Method for Receiving and Playing Sound Samples
JP2013117378A (en) Navigation system
CN108632336A (en) Information provides car-mounted device, information providing system and the storage medium for being stored with information provision procedure
JP2015210775A (en) Information processing apparatus, information processing method, and information processing system
JP2020085462A (en) Data processor and data processing program
JP2009244204A (en) On-vehicle information terminal, and information providing system for vehicle
JP7244331B2 (en) Voice guidance device, voice guidance server, and voice guidance method
JP5948901B2 (en) Information processing apparatus and information processing program
JP6061585B2 (en) Information processing apparatus, information processing method, information processing program, recording medium storing information processing program and information providing apparatus, information providing method, information providing program, recording medium storing information providing program
US20100036603A1 (en) Navigation systems and navigation methods thereof
JP2020165796A (en) Guidance device, guidance server, and guidance method
US20180266835A1 (en) Navigation system, user terminal, and navigation method
JP5415335B2 (en) Wireless communication terminal, content distribution system, content distribution method and program
JP4843197B2 (en) Communication navigation device, method and program, server device, server control method and server program, communication navigation system and method
JP6499438B2 (en) Navigation device, navigation method, and program
JP6550508B1 (en) Facility information provision system, facility information provision method, and facility information provision program
JP2010042788A (en) On-vehicle display device and display method
JP7195987B2 (en) Facility information guidance device, facility information guidance server, and facility information guidance method
JP2020204574A (en) Voice guidance device, voice guidance server, and voice guidance method
JP2009047793A (en) Advertisement register server, advertisement transmission server, navigation device, and navigation system
JP2020153842A (en) Voice guidance device, voice guidance server, and voice guidance method
JP2018146451A (en) Facility information distribution server and facility information distribution method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230309

R150 Certificate of patent or registration of utility model

Ref document number: 7244331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150