JPH08193837A - Navigation system - Google Patents

Navigation system

Info

Publication number
JPH08193837A
JPH08193837A JP7006904A JP690495A JPH08193837A JP H08193837 A JPH08193837 A JP H08193837A JP 7006904 A JP7006904 A JP 7006904A JP 690495 A JP690495 A JP 690495A JP H08193837 A JPH08193837 A JP H08193837A
Authority
JP
Japan
Prior art keywords
text information
information
voice
control unit
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP7006904A
Other languages
Japanese (ja)
Inventor
Tetsuya Kagami
徹也 加賀美
Koji Asano
康治 浅野
Makoto Akaha
誠 赤羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP7006904A priority Critical patent/JPH08193837A/en
Publication of JPH08193837A publication Critical patent/JPH08193837A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE: To easily display/output data of a text in an expression method required by a user, by providing a converting means for converting an expression method of text data stored in a memory means. CONSTITUTION: A database device (memory means) stores maps and text data. A position-measuring device measures the current position. A text-converting device 55 (converting means) converts an expression method of text data stored in the memory means thereby to obtain converted text data. An image display device 51 displays either the text data or the converted text data in response to a predetermined input. An audio synthesizer 52 which outputs either the text data or the converted text data by sound in accordance with a predetermined input, an amplifier 53 and a speaker 54 are also provided. The converting device 55 can convert the text data into an expression method by synonyms, a predetermined dialect or a predetermined language.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えば車両に搭載され
て使用されるカーナビゲーションシステムなどのナビゲ
ーションシステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a navigation system such as a car navigation system mounted on a vehicle for use.

【0002】[0002]

【従来の技術】従来より不案内な地域などでの移動を支
援するために、例えば現在地や、目的地まで誘導する経
路(走行予定経路)などの情報を利用者に提供するナビ
ゲーションシステムが知られている。ナビゲーションシ
ステムは、例えばGPS(Global Positioning Syste
m)用の衛星(GPS衛星)からの電波を受信し、現在
地を測定する受信機(測定器)、地図などの情報を記憶
しているCD−ROM、そのCD−ROMから情報を読
み出す装置、現在地を地図上に重ねて表示する画像表示
装置、利用者からのシステムに対する指令を入力する入
力装置などより構成されており、例えば自動車などの車
両に搭載され、あるいは、携帯して用いられる。
2. Description of the Related Art Conventionally, there is known a navigation system which provides a user with information such as a present location and a route (scheduled route) for guiding a user to a destination in order to support movement in an unfamiliar area. ing. The navigation system is, for example, a GPS (Global Positioning System).
m) a receiver (measuring device) that receives radio waves from a satellite (GPS satellite) and measures the current location, a CD-ROM that stores information such as maps, a device that reads information from the CD-ROM, It is composed of an image display device for displaying the current position in an overlapping manner on a map, an input device for inputting a command from a user to the system, and is mounted on a vehicle such as an automobile or used by being carried.

【0003】ところで、このようなナビゲーションシス
テムにおいては、CD−ROMには、地図の他、例えば
IIS(Integrated Information System)のテキスト
情報が記憶されている場合がある。さらに、CD−RO
Mに、地図上における文字(テキスト情報)(例えば、
通りの名前や、地名(例えば、都道府県名や、山、川、
湖、建物などの名称など)その他)や、所定の経路を誘
導するためのテキスト情報(例えば、「次の交差点を、
(方向)に進んで下さい。」や、「(目的地)まで、あ
と(数字)キロメートルです。」、および(方向)、
(目的地)、(数字)に挿入すべき語彙など)が記憶さ
れ、音声合成装置が備えられている場合などもある。
In such a navigation system, a CD-ROM may store text information such as IIS (Integrated Information System) in addition to the map. In addition, CD-RO
M is a character (text information) on the map (for example,
Street name or place name (eg prefecture name, mountain, river,
Others such as names of lakes and buildings) and text information for guiding a predetermined route (for example, "Next intersection,
Go to (direction). "," (Destination), there are (number) kilometers left. ", And (direction),
In some cases, (destination), vocabulary to be inserted in (number), etc. are stored and a voice synthesizer is provided.

【0004】IISの情報として、例えば鉄道の路線名
や、駅名、あるいは観光地の見所などの観光地に関する
説明などが記憶されている場合には、入力装置の操作に
対応して、現在地付近に存在する鉄道の路線名や駅名、
あるいは観光地に関する説明が、CD−ROMから読み
出され、画像表示装置に表示される。
If information about a tourist spot such as a railway line name, a station name, or a tourist spot is stored as the IIS information, the input device is operated in the vicinity of the current location. Existing railway line name and station name,
Alternatively, the explanation about the tourist spot is read from the CD-ROM and displayed on the image display device.

【0005】また、例えばCD−ROMに、地図上にお
けるテキスト情報や、所定の経路を誘導する(所定の経
路に沿って所定の目的地まで誘導する)ためのテキスト
情報が記憶され、さらに音声合成装置が備えられている
場合には、例えば現在地を表す地名が音声で出力された
り、あるいは所定の経路を誘導する音声が出力される。
Further, for example, a CD-ROM stores text information on a map and text information for guiding a predetermined route (guidance to a predetermined destination along a predetermined route), and further voice synthesis. When the device is provided, for example, a place name representing the current location is output by voice, or a voice guiding a predetermined route is output.

【0006】なお、上述したようなテキスト情報は、C
D−ROMではなく、システム全体を制御するの制御部
に記憶されている場合もある。
The text information as described above is C
It may be stored in the control unit for controlling the entire system instead of the D-ROM.

【0007】[0007]

【発明が解決しようとする課題】以上のように、CD−
ROMにテキスト情報が記憶されている場合、従来にお
いては、そのテキスト情報は、そのままの表現形式で表
示され、あるいは音声で出力されるようになされてい
る。そして、このテキスト情報の表現形式は、通常、日
本語の共通語によるものなどの画一化した固定表現とな
っている。
DISCLOSURE OF THE INVENTION Problems to be Solved by the Invention
When the text information is stored in the ROM, the text information is conventionally displayed in the same expression form or output as voice. The expression format of the text information is usually a uniform fixed expression such as a common language in Japanese.

【0008】ところで、利用者は、CD−ROMに記憶
されているテキスト情報の表現そのものではなく、より
簡潔な表現や丁寧や表現を希望する場合がある。さら
に、共通語ではなく、方言での表示、出力を希望する場
合もある。また、日本語ではなく、英語やその他の言語
での表示、出力を希望する場合もある。
Incidentally, there are cases where the user desires a simpler expression, politeness, or expression rather than the expression itself of the text information stored in the CD-ROM. Further, in some cases, it is desired to display and output in a dialect instead of the common language. There are also cases where the user wants to display or output in English or another language instead of Japanese.

【0009】しかしながら、従来においては、表示、出
力されるテキスト情報の表現形式を変更するには、CD
−ROMに記憶されたテキスト情報そのものを変更する
必要があり、利用者が希望する表現形式でテキスト情報
を表示、出力するのが困難であった。
However, conventionally, in order to change the expression format of the displayed and output text information, it is necessary to use a CD.
-It was necessary to change the text information itself stored in the ROM, and it was difficult to display and output the text information in the expression format desired by the user.

【0010】本発明は、このような状況に鑑みてなされ
たものであり、利用者が希望する表現形式でテキスト情
報を、容易に表示、出力することができるようにするも
のである。
The present invention has been made in view of the above circumstances, and it is an object of the present invention to easily display and output text information in an expression format desired by a user.

【0011】[0011]

【課題を解決するための手段】本発明のナビゲーション
システムは、少なくとも地図およびテキスト情報を記憶
している記憶手段(例えば、図1に示すデータベース装
置13など)と、現在地を測定する測定手段(例えば、
図1に示す位置測定装置12など)と、記憶手段の記憶
情報および測定手段の測定結果を表示する表示手段(例
えば、図5に示す画像表示装置51など)とを備えるナ
ビゲーションシステムであって、記憶手段に記憶されて
いるテキスト情報の表現形式を変換し、変換テキスト情
報とする変換手段(例えば、図5に示すテキスト変換装
置55など)をさらに備え、表示手段は、所定の入力に
対応して、テキスト情報そのものまたは変換テキスト情
報のいずれかを表示することを特徴とする。
A navigation system of the present invention comprises a storage means (for example, the database device 13 shown in FIG. 1) storing at least a map and text information, and a measuring means (for example, a database). ,
A position measuring device 12 shown in FIG. 1) and display means (for example, the image display device 51 shown in FIG. 5) for displaying the stored information of the storage means and the measurement result of the measuring means. The text information stored in the storage means is converted into an expression format to be converted text information (for example, a text conversion device 55 shown in FIG. 5), and the display means corresponds to a predetermined input. The text information itself or the converted text information is displayed.

【0012】このナビゲーションシステムにおいては、
所定の入力に応じて、テキスト情報そのものまたは変換
テキスト情報のいずれかを音声で出力する出力手段(例
えば、図5に示す音声合成装置52、アンプ53、およ
びスピーカ54など)をさらに備えることができる。ま
た、変換手段には、テキスト情報の表現形式を類語によ
る表現に変換させることができる。さらに、変換手段に
は、テキスト情報の表現形式を所定の方言による表現に
変換させることができる。また、変換手段には、テキス
ト情報の表現形式を所定の言語による表現に変換させる
ことができる。
In this navigation system,
An output unit (for example, a voice synthesizer 52, an amplifier 53, and a speaker 54 shown in FIG. 5) that outputs either the text information itself or the converted text information by voice according to a predetermined input can be further provided. . Further, the conversion means can convert the expression form of the text information into an expression in a synonym. Further, the converting means can convert the expression form of the text information into an expression in a predetermined dialect. Further, the conversion means can convert the expression form of the text information into an expression in a predetermined language.

【0013】テキスト情報は、地図上における文字、所
定の経路を誘導するための情報、またはIIS(Integr
ated Information System)の情報とすることができ
る。
Text information is characters on a map, information for guiding a predetermined route, or IIS (Integr
ated Information System).

【0014】[0014]

【作用】上記構成のナビゲーションシステムにおいて
は、データベース装置13に記憶されているテキスト情
報の表現形式が変換され、変換テキスト情報とされる。
そして、画像表示装置51では、所定の入力に対応し
て、テキスト情報そのものまたは変換テキスト情報のい
ずれかが表示される。従って、テキスト情報を、利用者
が希望する表現形式で容易に表示することができる。
In the navigation system having the above structure, the expression format of the text information stored in the database device 13 is converted into converted text information.
Then, on the image display device 51, either the text information itself or the converted text information is displayed in response to a predetermined input. Therefore, the text information can be easily displayed in the expression format desired by the user.

【0015】[0015]

【実施例】図1は、本発明を適用したカーナビゲーショ
ンシステムの一実施例の構成を示している。このカーナ
ビゲーションシステムは、システム制御部11、位置測
定装置12、データベース装置13、入力装置14、お
よび出力装置15によって構成されており、自動車など
に装備され、例えばボタンなどの操作による他、対話的
に発せられる入力音声に対応して、装置の制御が行われ
るようになされている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows the configuration of an embodiment of a car navigation system to which the present invention is applied. This car navigation system is composed of a system control unit 11, a position measuring device 12, a database device 13, an input device 14, and an output device 15, and is installed in an automobile or the like. For example, by operating buttons or the like, interactively. The device is controlled in accordance with the input voice issued to the device.

【0016】システム制御部11は、システムを構成す
る各ブロックとの間で情報の送受を行い、システム全体
の動作を制御するようになされている。位置測定装置1
2は、GPS(Global Positioning System)用の衛星
(GPS衛星)からの電波を受信したり、地磁気センサ
や、走行距離センサ、ジャイロスコープなどの測定装置
を用いて現在地を測定するようになされている。データ
ベース装置13には、例えば複数のスケールの、電子化
された地図情報や、地図上における文字(テキスト情
報)(前述したような地名など)、経路を誘導するため
の情報(テキスト情報)、IISの情報(テキスト情
報)、交差点情報その他が記録されており、そこから
は、システム制御部11からの指令に基づいて必要な情
報が検索され、システム制御部11に送信されるように
なされている。
The system control section 11 sends and receives information to and from each block constituting the system, and controls the operation of the entire system. Position measuring device 1
2 receives electric waves from a GPS (Global Positioning System) satellite (GPS satellite), and measures the current location using a measuring device such as a geomagnetic sensor, a mileage sensor, or a gyroscope. . In the database device 13, for example, digitized map information of a plurality of scales, characters (text information) on the map (such as the above-mentioned place name), information for guiding a route (text information), IIS. Information (text information), intersection information, and the like are recorded, from which necessary information is retrieved based on a command from the system control unit 11 and transmitted to the system control unit 11. .

【0017】入力装置14には、例えばボタンやジョイ
スティックなどの操作手段と、音声を入力するためのマ
イクなどの音声入力手段が装備されている。操作手段
は、システム制御部11に対し、処理を指示するときに
操作され、この場合、入力装置14からは、その操作
(操作手段の操作)に対応した信号がシステム制御部1
1に送信されるようになされている。さらに、入力装置
14は、後述する図4に示すように音声認識装置44を
有しており、入力された音声(音声入力手段に入力され
た音声)は、そこで音声認識され、その音声認識結果
も、システム制御部11に送信されるようになされてい
る。
The input device 14 is equipped with operating means such as buttons and joystick, and voice input means such as a microphone for inputting voice. The operation unit is operated when instructing the system control unit 11 to perform a process. In this case, a signal corresponding to the operation (operation of the operation unit) is input from the input device 14 to the system control unit 1.
1 is transmitted. Further, the input device 14 has a voice recognition device 44 as shown in FIG. 4, which will be described later. The input voice (voice input to the voice input means) is voice-recognized there, and the voice recognition result is obtained. Is also transmitted to the system control unit 11.

【0018】出力装置15は、後述する図5に示すよう
に、画像その他を表示するための、例えば液晶モニタや
CRTなどでなる画像表示装置51、音声その他を出力
するためのスピーカ54、テキスト情報から音声(合成
音)を生成する音声合成装置52などを有しており、シ
ステム制御部11から送られてくる情報のうちの、例え
ば地図情報や、現在位置情報、地図上における文字、I
ISの情報などを表示したり、また音声情報を出力した
りするようになされている。さらに、出力装置15は、
システム制御部11から送信されてきたテキスト情報に
対応する音声を音声合成して出力するようにもなされて
いる。
As shown in FIG. 5, which will be described later, the output device 15 is an image display device 51 such as a liquid crystal monitor or a CRT for displaying images and the like, a speaker 54 for outputting voice and others, and text information. A voice synthesizer 52 for generating a voice (synthesized voice) from the system control unit 11 is provided, and for example, of the information sent from the system control unit 11, for example, map information, current position information, characters on the map, I
IS information is displayed and voice information is output. Further, the output device 15 is
The system control unit 11 also synthesizes and outputs a voice corresponding to the text information.

【0019】次に、図2は、位置測定装置12の詳細構
成例を示している。位置測定装置12は、位置測定制御
部21,GPSアンテナ22、ジャイロスコープ23、
および位置計算部24から構成され、現在地の測定やあ
る時点(地点)からの移動距離の測定などを行うように
なされている。
Next, FIG. 2 shows a detailed configuration example of the position measuring device 12. The position measurement device 12 includes a position measurement control unit 21, a GPS antenna 22, a gyroscope 23,
Also, the position calculation unit 24 is configured to measure the current position and the movement distance from a certain time point.

【0020】位置測定制御部21は、システム制御部1
1の制御の下、位置測定装置12を構成する各ブロック
を制御する他、システム制御部11からの指令に応じ
て、位置計算部24で後述するようにして計算される現
在地や移動距離を、システム制御部11に供給するよう
になされている。GPSアンテナ22は、GPS衛星か
ら送信された電波を受信し、位置測定制御部21を介し
て、位置計算部24に供給するようになされている。ジ
ャイロスコープ23は、例えば回転可能な、3軸で支持
されたコマを有し、そのコマの回転軸の方向を、位置測
定制御部21を介して位置計算部24に出力するように
なされている。位置計算部24は、位置測定制御部21
を介して、GPSアンテナ22から供給される信号か
ら、現在地(例えば、緯度および経度で表されるもの)
(現在地情報)を算出し、位置測定制御部21に出力す
るようになされている。
The position measurement controller 21 is the system controller 1
In addition to controlling each block constituting the position measuring device 12 under the control of 1, the current position and the moving distance calculated by the position calculating part 24 as described later in accordance with a command from the system control part 11, It is adapted to be supplied to the system control unit 11. The GPS antenna 22 receives the radio wave transmitted from the GPS satellite and supplies it to the position calculation unit 24 via the position measurement control unit 21. The gyroscope 23 has, for example, a rotatable top supported by three axes, and outputs the direction of the rotation axis of the top to the position calculation section 24 via the position measurement control section 21. . The position calculation unit 24 uses the position measurement control unit 21.
From the signal supplied from the GPS antenna 22 via the present location (for example, represented by latitude and longitude)
(Current location information) is calculated and output to the position measurement control unit 21.

【0021】なお、位置計算部24には、図示せぬ回転
量算出回路で自動車のタイヤの回転量(回転数)が算出
されて供給されるようになされている。例えば、天候な
どの影響で、GPS衛星からの電波が良好に受信するこ
とができない場合や、その他必要に応じて、位置計算部
24は、位置測定制御部21を介してジャイロスコープ
23から供給されるコマの回転軸の方向、および回転量
算出回路からのタイヤの回転量に基づいて、自動車の移
動距離を算出し、その移動距離と、ある時点における位
置とから、現時点の位置(現在地)を算出するようにな
されている。また、位置計算部24は、算出した移動距
離を、必要に応じて、位置測定制御部21に出力するよ
うになされている。
A rotation amount calculation circuit (not shown) calculates and supplies the rotation amount (rotation number) of the automobile tire to the position calculation unit 24. For example, the position calculation unit 24 is supplied from the gyroscope 23 via the position measurement control unit 21 when the radio waves from the GPS satellites cannot be properly received due to the influence of the weather, or when necessary. Based on the direction of the axis of rotation of the top and the rotation amount of the tire from the rotation amount calculation circuit, the travel distance of the car is calculated, and the current position (current location) is calculated from the travel distance and the position at a certain time. It is designed to calculate. Further, the position calculation unit 24 is configured to output the calculated movement distance to the position measurement control unit 21 as necessary.

【0022】次に、図3は、データベース装置13の詳
細構成例を示している。データベース装置13は、記録
媒体31、記憶部32、および読み書き装置33から構
成されている。記録媒体31は、例えばCD−ROMな
どでなり、複数のスケールの電子化された地図データ
(地図情報)を記憶している。さらに、記録媒体31
は、交差点の名称や、交差点の地図上の位置(例えば、
緯度および経度で表されたものなど)、交差点に接続す
る道路の名称や方向、その道路をたどることによって到
達する地点の名称などでなる交差点情報、地図上におけ
る文字、経路を誘導するための情報、IISの情報その
他も記憶している。なお、上述した情報のうちのテキス
ト情報である、例えば地図上における文字、経路を誘導
するための情報、IISの情報などは、記録媒体31に
記憶させておくのではなく、システム制御部11の内蔵
するメモリに記憶させておくようにすることも可能であ
る。
Next, FIG. 3 shows a detailed configuration example of the database device 13. The database device 13 includes a recording medium 31, a storage unit 32, and a reading / writing device 33. The recording medium 31 is, for example, a CD-ROM or the like, and stores computerized map data (map information) of a plurality of scales. Furthermore, the recording medium 31
Is the name of the intersection or the location of the intersection on the map (for example,
Information such as those represented by latitude and longitude), names and directions of roads connected to the intersections, intersection information consisting of names of points reached by following the roads, characters on the map, information for guiding routes , IIS information and others are also stored. Note that text information of the above-mentioned information, such as characters on a map, information for guiding a route, and IIS information, is not stored in the recording medium 31 but is stored in the system control unit 11. It is also possible to store it in the built-in memory.

【0023】ここで、IISの情報としては、前述した
ように、例えば鉄道の路線名や、駅名、あるいは観光地
の見所などの観光地に関する説明などが記憶されてい
る。システム制御部11は、例えば入力装置14からの
入力、あるいは必要に応じて、位置測定装置12から供
給された現在地付近に存在する鉄道の路線名や駅名、あ
るいは観光地に関する説明を、データベース装置13か
ら読み出し、後述する出力装置15(図5)に供給して
出力(画像として表示、あるいは音声で出力)させるよ
うになされている。
Here, as the information of IIS, as described above, for example, a railway line name, a station name, or a description about a tourist spot such as a tourist spot is stored. The system control unit 11 inputs, for example, from the input device 14, or if necessary, the database device 13 for the explanation of the railway line name or station name existing near the current location, which is supplied from the position measuring device 12, or the tourist spot. It is read out from the device and supplied to an output device 15 (FIG. 5) described later to be output (displayed as an image or output as sound).

【0024】なお、システム制御部11は、所定のソフ
トウェアにしたがって動作するようになされており、I
ISの情報の処理方法(活用方法)は、そのソフトウェ
アによって決まる。
The system control unit 11 is designed to operate according to predetermined software.
The processing method (utilization method) of IS information is determined by the software.

【0025】また、記録媒体31は、データベース装置
13に着脱可能になされており、これにより将来、地図
などに変更があっても、その変更後の地図情報が記憶さ
れた記録媒体を、記録媒体31に代えてデータベース装
置13に装着することによって、記録媒体31に記憶さ
れている情報の陳腐化により、装置が実質的に使用不可
になることを防止することができるようになされてい
る。
Further, the recording medium 31 can be attached to and detached from the database device 13, so that even if a map or the like is changed in the future, the recording medium in which the changed map information is stored is the recording medium. By mounting the database device 13 in place of 31, it is possible to prevent the device from being substantially unusable due to obsolescence of the information stored in the recording medium 31.

【0026】記憶部32は、例えばRAMなどでなり、
読み書き装置33によって、記録媒体31から読み出さ
れたデータを一時記憶するようになされている。記憶部
32に対するアクセスは、記録媒体31に対するアクセ
スに比較して、高速で行うことができるようになされて
おり、記録媒体31に記憶されているデータを、必要に
応じて、記憶部32に記憶させておき、そこからデータ
を読み出すようにすることで、処理の高速化を図ること
ができるようになされている。
The storage unit 32 is, for example, a RAM,
The read / write device 33 is configured to temporarily store the data read from the recording medium 31. The storage unit 32 can be accessed at a higher speed than the access to the recording medium 31, and the data stored in the recording medium 31 can be stored in the storage unit 32 as needed. Then, the data can be read out from there to speed up the process.

【0027】読み書き装置33は、システム制御部11
に制御され、記録媒体31からのデータの読み出し、お
よび記憶部32に対するデータの読み書きを行うように
なされている。
The read / write device 33 includes a system controller 11
Control is performed to read data from the recording medium 31 and read / write data from / to the storage unit 32.

【0028】なお、データベース装置13には、システ
ム制御部11を介して、位置測定装置4から現在地、移
動距離が適宜供給されるようになされており、記憶部3
2は、これらの情報も一時記憶するようになされてい
る。記憶部32に記憶された現在地、および移動距離
は、読み書き装置33により必要に応じて読み出され、
システム制御部11において、所定の処理が行われると
きに用いられるようになされている。
The database device 13 is configured so that the current position and the moving distance are appropriately supplied from the position measuring device 4 via the system controller 11.
2 also temporarily stores these pieces of information. The current location and the moving distance stored in the storage unit 32 are read by the reading / writing device 33 as needed,
The system control unit 11 is used when a predetermined process is performed.

【0029】次に、図4は、入力装置14の詳細構成例
を示している。入力装置14は、リモコン40および音
声認識装置44で構成されている。また、リモコン40
は、ジョイスティック41、ボタン群42、およびマイ
ク43から構成されている。
Next, FIG. 4 shows a detailed configuration example of the input device 14. The input device 14 includes a remote controller 40 and a voice recognition device 44. Also, the remote controller 40
Is composed of a joystick 41, a button group 42, and a microphone 43.

【0030】ジョイスティック41は、上下左右斜め方
向に傾けることができるようになされており、傾けられ
た方向に応じた操作信号がシステム制御部11に出力さ
れるようになされている。ボタン群42は、例えば音声
出力ボタン、経路設定ボタン、交差点ボタン、縮小ボタ
ン、拡大ボタン、メニューボタン、および電源ボタンな
どより構成されており、ボタンが操作されるとその操作
されたボタンに応じた操作信号がシステム制御部11に
出力されるようになされている。マイク43は、音声が
入力されるとその音声を電気信号としての音声信号に変
換し、音声認識装置44に出力するようになされてい
る。
The joystick 41 can be tilted vertically, horizontally and diagonally, and an operation signal corresponding to the tilted direction is output to the system control unit 11. The button group 42 includes, for example, a voice output button, a route setting button, an intersection button, a reduction button, an enlargement button, a menu button, a power button, and the like. When the button is operated, it corresponds to the operated button. The operation signal is output to the system control unit 11. When a voice is input, the microphone 43 converts the voice into a voice signal as an electric signal and outputs the voice signal to the voice recognition device 44.

【0031】音声認識装置44は、マイク43からの音
声信号に対し、音声認識処理を施し、その結果をシステ
ム制御部11に出力するようになされている。これによ
り、リモコン40のジョイスティック41、ボタン群4
2を操作することによって行われる処理は、マイク43
に所定の音声を入力することによっても行わせることが
できるようになされている。
The voice recognition device 44 is configured to perform voice recognition processing on the voice signal from the microphone 43 and output the result to the system control unit 11. As a result, the joystick 41 and the button group 4 of the remote controller 40
The process performed by operating 2 is the microphone 43
It can also be performed by inputting a predetermined voice into.

【0032】次に、図5は、出力装置15の詳細構成例
を示している。出力装置15は、画像表示装置51、音
声合成装置52、アンプ53、スピーカ54、およびテ
キスト変換装置55から構成されている。
Next, FIG. 5 shows a detailed configuration example of the output device 15. The output device 15 includes an image display device 51, a voice synthesizer 52, an amplifier 53, a speaker 54, and a text converter 55.

【0033】画像表示装置51は、上述したように、例
えば液晶モニタやCRTなどでなり、システム制御部1
1からテキスト変換装置55を介して供給される地図デ
ータ(地図情報)や、現在地データ(現在地情報)、地
図上における文字、IISの情報などを表示するように
なされている。音声合成装置52は、システム制御部1
1からテキスト変換装置55を介して供給されるテキス
ト情報(テキストデータ)に基づいて、必要に応じて音
声合成(テキスト音声合成)を行う(テキストデータに
対応する合成音を生成する)ようになされている。音声
合成装置52より出力された合成音は、アンプ53を介
して、スピーカ54に供給されて出力されるようになさ
れている。即ち、例えば運転中のユーザに対し、視覚で
はなく聴覚を通じて、情報を認識させることができるよ
うになされている。
The image display device 51 is, for example, a liquid crystal monitor or a CRT as described above, and the system control unit 1
The map data (map information) supplied from 1 through the text conversion device 55, the current location data (current location information), characters on the map, IIS information, and the like are displayed. The voice synthesizer 52 includes a system controller 1
1. Based on the text information (text data) supplied from 1 through the text conversion device 55, voice synthesis (text voice synthesis) is performed as necessary (synthesized voice corresponding to the text data is generated). ing. The synthetic sound output from the voice synthesizer 52 is supplied to the speaker 54 via the amplifier 53 and output. That is, for example, a user who is driving can be made to recognize information through hearing rather than sight.

【0034】ここで、システム制御部11では、入力装
置14(図4)のマイク43に入力され、音声認識装置
44で音声認識された音声に対する応答としてのテキス
ト情報を生成するようになされている(データベース装
置13(あるいはシステム制御部11の内蔵するメモ
リ)には、応答の音声を作成するための情報(テキスト
情報)も記憶されており、この情報に基づいて、応答と
してのテキスト情報が生成される)。上述したように、
音声合成装置52では、このテキスト情報に基づいて合
成音が生成されて出力されるから、即ち入力された音声
の応答である、いわば応答音声が出力されるから、ユー
ザは、この応答音声と対話するように発話することで、
カーナビゲーションシステムの操作を行うことができ
る。
Here, the system control section 11 is adapted to generate text information as a response to the voice input to the microphone 43 of the input device 14 (FIG. 4) and recognized by the voice recognition device 44. (The database device 13 (or the memory included in the system control unit 11) also stores information (text information) for creating a response voice, and text information as a response is generated based on this information. Be done). As mentioned above,
The voice synthesizer 52 generates and outputs a synthetic sound based on the text information, that is, outputs a response voice, which is a response to the input voice, so to speak, so that the user interacts with the response voice. By speaking to
You can operate the car navigation system.

【0035】アンプ53は、システム制御部11あるい
は音声合成装置52より供給される信号(オーディオ信
号)を増幅し、スピーカ54に供給するようになされて
いる。スピーカ54は、アンプ53から供給される増幅
されたオーディオ信号を、音(音声)として出力するよ
うになされている。
The amplifier 53 amplifies the signal (audio signal) supplied from the system controller 11 or the voice synthesizer 52 and supplies it to the speaker 54. The speaker 54 outputs the amplified audio signal supplied from the amplifier 53 as a sound (voice).

【0036】ここで、データベース装置13(あるいは
システム制御部11の内蔵するメモリ)には、オーディ
オ信号も記憶されており、システム制御部11は、必要
に応じて、そのオーディオ信号を読み出してアンプ53
に、直接供給するようになされている。
Here, an audio signal is also stored in the database device 13 (or a memory incorporated in the system control section 11), and the system control section 11 reads out the audio signal as necessary and the amplifier 53.
It is designed to be directly supplied.

【0037】テキスト変換装置55は、システム制御部
11から供給されるテキスト情報(文字、文章など)の
表現形式を、入力装置14の操作に対応して変換し、変
換テキスト情報として、画像表示装置51または音声合
成装置52に供給するようになされている。
The text conversion device 55 converts the expression format of the text information (characters, sentences, etc.) supplied from the system control unit 11 in accordance with the operation of the input device 14, and outputs the converted text information as an image display device. 51 or the voice synthesizer 52.

【0038】なお、テキスト変換装置55は、システム
制御部11からテキスト情報以外の、例えば画像情報で
ある地図情報などが供給された場合には、その情報に対
し、特に処理を施さず、そのまま画像表示装置51に出
力するようになされている。
When the system control unit 11 supplies, for example, map information, which is image information, other than the text information, the text conversion device 55 does not perform any particular processing on the information and directly converts the image. It is adapted to output to the display device 51.

【0039】また、テキスト変換装置55では、システ
ム制御部11からのテキスト情報の表現形式を類語、所
定の方言、または所定の言語による表現に変換すること
ができるようになされている。さらに、テキスト変換装
置55には、システム制御部11からのテキスト情報を
そのまま出力させるようにすることもできるようになさ
れている。テキスト情報の表現形式を変換するか否か、
あるいはテキスト情報の表現形式をどのようなものに変
換するかは、入力装置14を操作し、所定の入力をシス
テム制御部11に与えることによって選択することがで
きるようになされている。
Further, the text conversion device 55 is capable of converting the expression form of the text information from the system control unit 11 into an expression in a synonym, a predetermined dialect, or a predetermined language. Further, the text conversion device 55 can be made to output the text information from the system control unit 11 as it is. Whether to convert the expression format of text information,
Alternatively, what kind of expression format of the text information is converted can be selected by operating the input device 14 and giving a predetermined input to the system control unit 11.

【0040】従って、画像表示装置51またはスピーカ
54では、入力装置14からの所定の入力に対応して、
表現形式がそのままのテキスト情報またはその表現形式
を変更した変換テキスト情報のいずれかが表示、または
音声で出力されることになる。
Therefore, in the image display device 51 or the speaker 54, in response to a predetermined input from the input device 14,
Either the text information whose expression format is the same or the converted text information whose expression format is changed is displayed or output as voice.

【0041】次に、図6のフローチャートを参照して、
その動作について説明する。まず最初にステップS1に
おいて、入力装置14(図4)を構成するリモコン40
におけるボタン群42の電源ボタンが、電源をONする
ように操作されたか否かが、システム制御部11により
判定される。なお、図1のカーナビゲーションシステム
においては、電源がOFFのときに、電源ボタンが一度
操作されると、電源がONされるようになされており、
また、電源がONのときに、電源ボタンが一度操作され
ると、電源がOFFにされるようになされている。
Next, referring to the flowchart of FIG.
The operation will be described. First, in step S1, the remote controller 40 that constitutes the input device 14 (FIG. 4).
The system control unit 11 determines whether or not the power button of the button group 42 is operated to turn on the power. In the car navigation system of FIG. 1, the power is turned on when the power button is operated once while the power is off.
Moreover, when the power button is operated once while the power is on, the power is turned off.

【0042】ステップS1において、電源ボタンが、電
源をONするように操作されていないと判定された場
合、ステップS1に戻る。また、ステップS1におい
て、電源ボタンが電源をONするように操作されたと判
定された場合、システム制御部11によって電源がON
にされる。そして、ステップS2に進み、位置測定装置
12によって現在地の測定が開始され、システム制御部
11では、その測定結果を元に、現在地を含む適当(適
切)な縮尺(スケール)の地図が、データベース装置1
3(図3)の記録媒体31より読み出され、出力装置1
5に供給されて、ステップS3に進む。ステップS3で
は、出力装置15(図5)の画像表示装置51におい
て、システム制御部11から供給された現在地を含む地
図が適当な縮尺で表示される。
When it is determined in step S1 that the power button has not been operated to turn on the power, the process returns to step S1. When it is determined in step S1 that the power button has been operated to turn on the power, the system control unit 11 turns on the power.
To be. Then, the process proceeds to step S2, where the position measuring device 12 starts measuring the current position, and the system control unit 11 creates a map of an appropriate (appropriate) scale including the current position based on the measurement result in the database device. 1
3 (FIG. 3) read from the recording medium 31 and output device 1
No. 5, and the process proceeds to step S3. In step S3, the image display device 51 of the output device 15 (FIG. 5) displays the map including the current location supplied from the system control unit 11 at an appropriate scale.

【0043】ここで、以後、ジョイスティック41およ
びボタン群42の操作、並びにマイク43への音声入力
のいずれもなされていない間は、常に位置測定装置12
によって現在地が測定され、その現在地を含む地図に、
画像表示装置51の表示が更新されていくようになされ
ている。さらに、現在地には、自身を表すカーソル(例
えば、自動車の形をしたマークなど)が表示されるよう
になされている。また、システム制御部11において
は、現在地を含む地図における文字としての地名や、通
りの名前などもデータベース装置13から読み出され、
画像表示装置51に供給されて表示されるようになされ
ている。さらに、画像表示装置51には、現在地を含む
地図を、その現在地がほぼ画面中心に位置するように表
示させるようにすることができる。
Here, thereafter, while neither the joystick 41 nor the button group 42 is operated and the voice input to the microphone 43 is not performed, the position measuring device 12 is constantly operated.
The current location is measured by and the map including the current location is displayed.
The display of the image display device 51 is updated. Further, a cursor (for example, a mark in the shape of a car) indicating itself is displayed at the current position. Further, in the system control unit 11, a place name as a character in a map including the present location, a street name, etc. are also read from the database device 13,
The image is supplied to the image display device 51 and displayed. Further, the image display device 51 can display a map including the current location so that the current location is located substantially at the center of the screen.

【0044】現在地を含む地図の表示がなされた後、ス
テップS4に進み、入力装置14(図4)のボタン群4
2のうちのメニューボタンが操作されたか否かが、シス
テム制御部11によって判定される。ステップS4にお
いて、メニューボタンが操作されたと判定された場合、
ステップS5に進み、メニューモード処理が行われる。
即ち、ステップS5では、まず図7のステップS21に
おいて、メニューが、出力装置15(図5)の画像表示
装置51に表示される。
After the map including the current location is displayed, the process proceeds to step S4, and the button group 4 of the input device 14 (FIG. 4).
The system control unit 11 determines whether the menu button of 2 is operated. If it is determined in step S4 that the menu button has been operated,
In step S5, menu mode processing is performed.
That is, in step S5, first, in step S21 of FIG. 7, the menu is displayed on the image display device 51 of the output device 15 (FIG. 5).

【0045】ここで、メニューは、データベース装置1
3(図4)の記録媒体31に記憶されている。メニュー
ボタンが操作されると、システム制御部11は、データ
ベース装置13からメニューを読み出し、出力装置15
に供給して表示させるようになされている。
Here, the menu is the database device 1
3 (FIG. 4). When the menu button is operated, the system control unit 11 reads the menu from the database device 13, and outputs the menu to the output device 15.
It is designed to be supplied to and displayed.

【0046】メニューの表示後、ステップS22に進
み、そのメニューのうちのいずれかが選択されたか否か
が、システム制御部11によって判定される。ここで、
出力装置15にメニューが表示されると、そのメニュー
とともにカーソルも表示されるようになされている。こ
のカーソルは、入力装置14(図4)のジョイスティッ
ク41を操作することにより移動することができるよう
になされており、メニューの選択は、カーソルを所望す
るメニューの位置に移動することにより行うことができ
るようになされている。
After displaying the menu, the process proceeds to step S22, and the system control unit 11 determines whether or not any one of the menus is selected. here,
When the menu is displayed on the output device 15, the cursor is also displayed together with the menu. This cursor can be moved by operating the joystick 41 of the input device 14 (FIG. 4), and the menu can be selected by moving the cursor to a desired menu position. It is made possible.

【0047】ステップS22において、メニューが選択
されていないと判定された場合、ステップS22に戻
る。また、ステップS22において、メニューが選択さ
れたと判定された場合、ステップS23に進み、その選
択されたメニューに対応する処理が、システム制御部1
1によって行われ、処理(メニューモード処理)を終了
する。
When it is determined in step S22 that the menu has not been selected, the process returns to step S22. If it is determined in step S22 that the menu is selected, the process proceeds to step S23, and the process corresponding to the selected menu is performed by the system control unit 1.
1 and ends the processing (menu mode processing).

【0048】なお、メニューとしては、出力装置15に
おける表示色や、地図の表示方向(どの方向を上にして
地図を表示するか)、音量などの設定を行うもの、デー
タベース装置13に記憶されている地図情報などを出力
するもの、目的地までの経路(道順)を設定するもの、
その経路にしたがった誘導(経路の誘導)を行うもの、
IISの情報を出力するものなどがある。さらに、メニ
ューには、テキスト情報の表現形式を変換するか否か
や、テキスト情報の表現形式を選択するものなども含ま
れている。
The menu is used to set the display color on the output device 15, the display direction of the map (which direction is the top to display the map), the volume, etc., and is stored in the database device 13. Outputting information such as existing map information, setting a route (direction) to the destination,
Those that perform guidance according to the route (route guidance),
For example, some output IIS information. Further, the menu also includes items such as whether to convert the expression format of the text information and selecting the expression format of the text information.

【0049】これらのメニューは階層構造にしておくこ
とによって、より使い易いものとすることができる。
It is possible to make these menus easier to use by arranging these menus in a hierarchical structure.

【0050】メニューモード処理の終了後は、ステップ
S6(図6)に進む。
After the menu mode process is completed, the process proceeds to step S6 (FIG. 6).

【0051】また、ステップS4において、メニューボ
タンが操作されていないと判定された場合、ステップS
5をスキップして、ステップS6に進み、入力装置14
(図4)の拡大ボタンが操作されたか否かが、システム
制御部11によって判定される。ステップS5におい
て、拡大ボタンが操作されたと判定された場合、ステッ
プS7に進み、地図拡大処理が行われ、ステップS8に
進む。即ち、ステップS7では、システム制御部11に
よって、いま出力装置15に表示されている地図より、
縮尺の大きい地図(詳細な地図)であって、現在地を含
むものが、データベース装置13から読み出され、出力
装置15に供給される。そして、出力装置15では、そ
の地図が表示される。
If it is determined in step S4 that the menu button has not been operated, step S4.
5, skip to step S6, and enter the input device 14
The system control unit 11 determines whether or not the enlargement button (FIG. 4) has been operated. When it is determined in step S5 that the enlargement button has been operated, the process proceeds to step S7, the map enlargement process is performed, and the process proceeds to step S8. That is, in step S7, the system control unit 11 determines that the map currently displayed on the output device 15
A large-scale map (detailed map) including the current location is read from the database device 13 and supplied to the output device 15. Then, the output device 15 displays the map.

【0052】一方、ステップS6において、拡大ボタン
が操作されていないと判定された場合、ステップS7を
スキップして、ステップS8に進み、入力装置14(図
4)の縮小ボタンが操作されたか否かが、システム制御
部11によって判定される。ステップS8において、縮
小ボタンが操作されたと判定された場合、ステップS9
に進み、地図縮小処理が行われ、ステップS10に進
む。即ち、ステップS9では、システム制御部11によ
って、いま出力装置15に表示されている地図より、縮
尺の小さな地図(広域の地図)であって、現在地を含む
ものが、データベース装置13から読み出され、出力装
置15に供給される。そして、出力装置15では、その
地図が表示される。
On the other hand, if it is determined in step S6 that the enlargement button has not been operated, step S7 is skipped and step S8 follows, in which it is determined whether or not the reduction button of the input device 14 (FIG. 4) has been operated. Is determined by the system control unit 11. When it is determined in step S8 that the reduction button has been operated, step S9
Then, the map reduction process is performed, and the process proceeds to step S10. That is, in step S9, the system control unit 11 reads from the database device 13 a map (wide area map) having a smaller scale than the map currently displayed on the output device 15 and including the current location. , To the output device 15. Then, the output device 15 displays the map.

【0053】なお、拡大ボタンまたは縮小ボタンが操作
された場合、システム制御部11では、いま出力装置1
5に表示されている地図より、縮尺の大きなまたは小さ
な地図が、データベース装置13に記憶されていないと
きには、その旨を、出力装置15から出力させる(その
旨を示すメッセージを表示させる、あるいはその旨の音
声を出力させる)ようになされている。
When the enlargement button or the reduction button is operated, the system control unit 11 is now in the output device 1
When a map whose scale is larger or smaller than the map displayed in No. 5 is not stored in the database device 13, a message to that effect is output from the output device 15 (a message indicating that is displayed or Is output).

【0054】一方、ステップS8において、縮小ボタン
が操作されていないと判定された場合、ステップS9を
スキップして、ステップS10に進み、入力装置14
(図4)の電源ボタンが、電源をOFFするように操作
されたか否かが、システム制御部11によって判定され
る。ステップS10において、電源ボタンが、電源をO
FFするように操作されたと判定された場合、システム
制御部11によって、電源がOFFにされ、処理を終了
する。
On the other hand, if it is determined in step S8 that the reduction button has not been operated, step S9 is skipped and step S10 follows.
The system control unit 11 determines whether or not the power button (FIG. 4) has been operated to turn off the power. In step S10, the power button turns the power on.
When it is determined that the FF operation has been performed, the system control unit 11 turns off the power and ends the process.

【0055】また、ステップS10において、電源ボタ
ンが、電源をOFFするように操作されていないと判定
された場合、ステップS11に進み、入力装置14(図
4)のジョイスティック41が操作されたか否かが、シ
ステム制御部11によって判定される。ステップS11
において、ジョイスティック41が操作されたと判定さ
れた場合、ステップS12に進み、地図スクロール処理
が行われ、ステップS13に進む。
If it is determined in step S10 that the power button has not been operated to turn off the power, the process proceeds to step S11, and it is determined whether or not the joystick 41 of the input device 14 (FIG. 4) has been operated. Is determined by the system control unit 11. Step S11
If it is determined that the joystick 41 has been operated, the process proceeds to step S12, the map scroll process is performed, and the process proceeds to step S13.

【0056】即ち、ステップS12では、システム制御
部11によって、ジョイスティック41が操作された方
向と、例えば同一の方向(あるいは対向する方向)の地
図が、データベース装置13から読み出され、出力装置
51に供給される。そして、出力装置15において、そ
の地図が表示される(なお、その地図上における文字も
同様にして表示される)。これにより、出力装置15で
は、いま表示されている地図が、ジョイスティック41
が操作された方向と同一の方向(あるいは対向する方
向)にスクロールされる。
That is, in step S12, the system controller 11 reads a map in the same direction as the direction in which the joystick 41 is operated (or in the opposite direction) from the database device 13 and outputs it to the output device 51. Supplied. Then, the map is displayed on the output device 15 (note that the characters on the map are also displayed in the same manner). As a result, on the output device 15, the map currently displayed is displayed on the joystick 41.
Is scrolled in the same direction as (or opposite to) the direction in which was operated.

【0057】一方、ステップS11において、ジョイス
ティック41が操作されていないと判定された場合、ス
テップS12をスキップして、ステップS13に進み、
入力装置14(図4)の音声出力ボタンが操作されたか
否かが、システム制御部11によって判定される。ステ
ップS13において、音声出力ボタンが操作されたと判
定された場合、ステップS14に進み、音声出力処理が
行われ、ステップS2に戻る。
On the other hand, if it is determined in step S11 that the joystick 41 has not been operated, then step S12 is skipped and step S13 is reached.
The system control unit 11 determines whether the voice output button of the input device 14 (FIG. 4) has been operated. When it is determined in step S13 that the voice output button is operated, the process proceeds to step S14, the voice output process is performed, and the process returns to step S2.

【0058】即ち、ステップS14では、システム制御
部11によって、例えば現在地を表すテキスト情報が、
データベース装置13から読み出されて出力装置15
(図5)の音声合成装置52に供給される。音声合成装
置52では、システム制御部11からのテキストに対応
した合成音、即ち現在地の合成音が生成され、アンプ5
3を介してスピーカ54に供給される。これにより、ス
ピーカ54からは、現在地が、合成音で出力される。
That is, in step S14, the system control unit 11 sends, for example, text information representing the present location to
Output device 15 read from database device 13
It is supplied to the speech synthesizer 52 (FIG. 5). In the voice synthesizer 52, a synthesized sound corresponding to the text from the system control unit 11, that is, a synthesized sound of the current location is generated, and the amplifier 5
3 to the speaker 54. As a result, the present location is output from the speaker 54 as a synthetic sound.

【0059】なお、スピーカ54から出力される合成音
は、システムのモードによって変更されるようになされ
ている。即ち、システムのモードが、例えば所定の経路
の誘導を行うナビゲーションモードとされている場合に
は、画像表示装置51に、地図に重ねて、その経路が表
示されるが、この場合に、音声出力ボタンが操作された
ときには、音声合成装置52において、その経路を誘導
する合成音が、データベース装置13に記憶されている
経路を誘導するためのテキスト情報に基づいて生成され
るようになされている。
The synthetic sound output from the speaker 54 is changed according to the mode of the system. That is, when the mode of the system is, for example, a navigation mode for guiding a predetermined route, the route is displayed on the image display device 51 so as to be superimposed on the map. When the button is operated, the voice synthesizer 52 is configured to generate a synthetic voice for guiding the route based on the text information for guiding the route stored in the database device 13.

【0060】また、システムのモードが、例えばIIS
の情報(テキスト情報)を出力するモードとされている
場合には、画像表示装置51にIISの情報が表示され
るが、この場合に、音声出力ボタンが操作されたときに
は、音声合成装置52において、そのIISの情報に対
応する合成音が、データベース装置13に記憶されてい
るIISの情報(テキスト情報)に基づいて生成される
ようになされている。
The system mode is, for example, IIS.
When the mode for outputting the information (text information) is set, the IIS information is displayed on the image display device 51. In this case, when the voice output button is operated, the voice synthesizer 52 , The synthesized sound corresponding to the IIS information is generated based on the IIS information (text information) stored in the database device 13.

【0061】一方、ステップS13において、音声出力
ボタンが操作されていないと判定された場合、ステップ
S14をスキップして、ステップS2に戻る。
On the other hand, when it is determined in step S13 that the voice output button is not operated, step S14 is skipped and the process returns to step S2.

【0062】なお、図6および図7においては、入力装
置14(図4)の経路設定ボタン、交差点ボタンが操作
されたか否かを判定する処理、およびそれらが操作され
た場合に行われる処理については図示していないが、シ
ステム制御部11では、これらのボタンが操作されたか
否かの判定処理も行われ、その判定結果に応じて、以下
のような処理が行われるようになされている。
6 and 7, the process of determining whether or not the route setting button and the intersection button of the input device 14 (FIG. 4) are operated, and the process performed when these are operated. Although not shown, the system control unit 11 also performs a determination process as to whether or not these buttons have been operated, and the following processes are performed according to the determination result.

【0063】即ち、経路ボタンが操作された場合には、
システム制御部11によって、システムのモードが、経
路を設定するモードとされる。
That is, when the route button is operated,
The system control unit 11 sets the system mode to a mode for setting a route.

【0064】また、交差点ボタンが操作された場合に
は、システム制御部11は、位置測定装置12から供給
される現在地を元に、例えばいま向かっている交差点に
関する交差点情報、即ち、例えばその交差点の名称や緯
度および経度、その交差点に接続する道路の名称や、方
向、その道路をたどることによって到達する地点の名称
などが、データベース装置13から読み出される。そし
て、これらの情報は、システム制御部11から出力装置
15(図5)の画像表示装置51に供給されて表示され
る。
When the intersection button is operated, the system control unit 11 uses the current location supplied from the position measuring device 12 as the intersection information about the intersection that is currently heading, that is, the intersection information, for example. The name, the latitude and the longitude, the name of the road connected to the intersection, the direction, the name of the point reached by following the road, and the like are read from the database device 13. Then, these pieces of information are supplied from the system control unit 11 to the image display device 51 of the output device 15 (FIG. 5) and displayed.

【0065】さらに、図6および図7における処理(上
述の経路設定ボタン、交差点ボタンが操作されることに
よって行われる処理も含む)は、入力装置14(図4)
のジョイスティック41やボタン群42を操作する他、
その処理に対応するコマンドを、マイク43に音声入力
することによっても行わせることが可能である。即ち、
入力装置14(図4)のマイク43にコマンドの音声が
入力された場合には、音声認識装置44において、その
音声が音声認識され、その認識結果がシステム制御部1
1に供給される。システム制御部11では、音声認識装
置44からの音声認識結果に対応して、上述したような
処理が行われる。
Further, the processing in FIGS. 6 and 7 (including the processing performed by operating the above-mentioned route setting button and intersection button) is performed by the input device 14 (FIG. 4).
In addition to operating the joystick 41 and button group 42 of
It is also possible to input a command corresponding to the processing by voice input to the microphone 43. That is,
When the voice of the command is input to the microphone 43 of the input device 14 (FIG. 4), the voice is recognized by the voice recognition device 44, and the recognition result is the system control unit 1.
1 is supplied. The system control unit 11 performs the above-described processing according to the voice recognition result from the voice recognition device 44.

【0066】これにより、例えば「電源オン」、「メニ
ュー」、「拡大」、「縮小」、「電源オフ」、または
「音声出力」などの音声が、マイク43に入力された場
合には、システム制御部11によって、電源ON処理、
メニューモード処理、地図拡大処理、地図縮小処理、電
源OFF処理、または音声出力処理が、それぞれ行われ
る。また、マイク43に、例えば「右」、「左」、
「上」、「下」などの方向を表す音声が入力された場合
には、システム制御部11によって、その方向にジョイ
スティック41が操作された場合と同様の地図スクロー
ル処理が行われる。
As a result, when a voice such as "power on", "menu", "enlarge", "reduce", "power off", or "voice output" is input to the microphone 43, the system By the control unit 11, power ON processing,
Menu mode processing, map enlargement processing, map reduction processing, power supply OFF processing, or audio output processing is performed, respectively. In addition, for example, “right”, “left”,
When a voice indicating a direction such as “up” or “down” is input, the system control unit 11 performs the same map scroll processing as when the joystick 41 is operated in that direction.

【0067】次に、出力装置15(図5)を構成するテ
キスト変換装置55について詳述する。図8は、テキス
ト変換装置55の詳細構成例を示している。同図に示す
ように、テキスト変換装置55は、解析部61および変
換生成部62から構成される。
Next, the text conversion device 55 constituting the output device 15 (FIG. 5) will be described in detail. FIG. 8 shows a detailed configuration example of the text conversion device 55. As shown in the figure, the text conversion device 55 includes an analysis unit 61 and a conversion generation unit 62.

【0068】解析部61には、システム制御部11から
テキスト情報(入力文)が入力されるようになされてい
る。そして、解析部61は、解析辞書を参照し、システ
ム制御部11からのテキスト情報を、解析規則に記述さ
れている規則にしたがって解析するようになされてい
る。
Text information (input sentence) is input from the system control unit 11 to the analysis unit 61. Then, the analysis unit 61 refers to the analysis dictionary and analyzes the text information from the system control unit 11 according to the rule described in the analysis rule.

【0069】なお、解析部61では、例えば形態素解
析、構文解析、意味・文脈解析などが必要に応じて行わ
れる。また、解析辞書には、日本語の標準語の他、所定
の地方の方言、さらには日本語以外の言語(例えば、英
語やフランス語など)の形態素、その読み、品詞、アク
セント型などが記述されており、解析部61では、解析
辞書に記述されている形態素により構成されるテキスト
情報であれば、解析を行うことができるようになされて
いる。さらに、解析規則には、形態素解析、構文解析、
意味・文脈解析などを行うために必要な規則が記述され
ている。
In the analysis unit 61, for example, morphological analysis, syntactic analysis, semantic / context analysis, etc. are performed as necessary. In addition to the standard Japanese language, the analysis dictionary also describes certain local dialects, as well as morphemes of languages other than Japanese (such as English and French), their readings, parts of speech, and accent types. Therefore, the analysis unit 61 can perform analysis if the text information is composed of morphemes described in the analysis dictionary. Furthermore, the analysis rules include morphological analysis, syntactic analysis,
It describes the rules necessary for performing semantic / contextual analysis.

【0070】解析部61の解析結果は、変換生成部62
に供給されるようになされており、変換生成部62は、
類語辞書、方言辞書、または対訳辞書を参照し、類語変
換生成規則、方言変換生成規則、または対訳変換生成規
則に記述されている規則にしたがって、テキスト変換装
置55に入力されたテキスト情報の変換生成を行うよう
になされている。即ち、変換生成部62は、解析部61
からの解析結果から、テキスト変換装置55に入力され
たテキスト情報の表現形式を、類語表現、所定の方言、
または所定の言語による表現に変換するようになされて
いる。そして、その変換の結果得られたテキスト情報
(出力文)(以下、適宜、変換テキスト情報という)
は、画像表示装置51または音声合成装置52に出力さ
れるようになされている。
The analysis result of the analysis unit 61 is the conversion generation unit 62.
And the conversion generation unit 62
A synonym dictionary, a dialect dictionary, or a bilingual dictionary is referred to, and the conversion generation of the text information input to the text conversion device 55 is performed according to the rules described in the synonym conversion generation rule, the dialect conversion generation rule, or the bilingual conversion generation rule. Is designed to do. That is, the conversion generation unit 62 includes the analysis unit 61.
From the analysis result from the expression format of the text information input to the text conversion device 55, the synonym expression, a predetermined dialect,
Alternatively, it is converted into an expression in a predetermined language. Then, the text information (output sentence) obtained as a result of the conversion (hereinafter, appropriately referred to as converted text information)
Is output to the image display device 51 or the voice synthesizer 52.

【0071】なお、類語辞書には、解析辞書に記述され
ている単語(形態素)の類語(その類語の読み、品詞、
アクセント型などを含む)が記述されており、方言辞書
には、種々の地方の方言(その読み、アクセント型など
を含む)およびその方言と解析辞書に記述されている単
語との対応関係が記述されている。対訳辞書には、日本
語や英語、さらにはその他の言語における単語の対応関
係(対訳関係)(その読み、品詞、アクセント型などを
含む)が記述されている。ここで、方言辞書には、日本
語の方言だけでなく、その他の言語の方言を記述してお
くようにすることも可能である。
In the synonym dictionary, synonyms of words (morphemes) described in the analysis dictionary (reading of the synonyms, part of speech,
Accent types are included), and the dialect dictionary describes various local dialects (including their pronunciation and accent type) and the correspondence between those dialects and the words described in the analysis dictionary. Has been done. The bilingual dictionary describes correspondences (translations) of words in Japanese, English, and other languages (including their reading, part of speech, accent type, etc.). Here, it is possible to describe not only Japanese dialects but also dialects of other languages in the dialect dictionary.

【0072】また、類語変換生成規則には、例えば「同
一品詞の類語は置換できる」などの類語への変換を行う
際に従うべき規則が記述されている。さらに、方言変換
生成規則には、方言への変換を行う際に従うべき規則が
記述されている。また、対訳変換生成規則には、ある言
語を、他の言語に変換する際に必要な文法上の規則その
他が記述されている。
The synonym conversion generation rule describes a rule to be followed when converting to a synonym such as "synonyms of the same part of speech can be replaced". Furthermore, in the dialect conversion generation rule, a rule to be followed when converting to a dialect is described. In the parallel translation generation rule, grammatical rules and the like necessary for converting one language into another language are described.

【0073】さらに、変換生成は、例えばテンプレート
(文型)を用いる方法、機械翻訳で利用される構文ダイ
レクト方式、トランスファー方式、中間言語方式その他
によって行うことが可能であり、いずれも用いるかはシ
ステムにあわせて決めれば良い。但し、ここでは、変換
生成は、構文ダイレクト方式によって行われるものとす
る。
Further, the conversion and generation can be performed by, for example, a method using a template (sentence pattern), a syntax direct method used in machine translation, a transfer method, an intermediate language method, or the like. Whichever is used depends on the system. You just have to decide. However, here, the conversion generation is performed by the syntax direct method.

【0074】次に、その動作について説明する。まず利
用者は、入力装置14を操作することにより、テキスト
情報の表現形式を変換するか否かと、変換するのであれ
ば、どのような表現形式に変換するのかを選択する。こ
の選択は、上述したようにメニューモードにおいて行う
ことができるようになされている。
Next, the operation will be described. First, the user operates the input device 14 to select whether or not to convert the expression format of the text information and, if so, what expression format to convert. This selection can be made in the menu mode as described above.

【0075】テキスト情報の表現形式を変換しないこと
が選択された場合には、システム制御部11からテキス
ト変換装置55に対し、その旨が知らされ、この場合、
テキスト変換装置55は、システム制御部11から供給
されるテキスト情報を、そのまま画像表示装置51また
は音声合成装置52に出力する。従って、この場合に
は、システム制御部11から供給されたテキスト情報
が、そのままの表現形式で、画像表示装置51で表示さ
れ、あるいはスピーカ54から音声で出力される。
When it is selected not to convert the expression form of the text information, the system control unit 11 notifies the text conversion device 55 of that fact. In this case,
The text conversion device 55 outputs the text information supplied from the system control unit 11 as it is to the image display device 51 or the voice synthesis device 52. Therefore, in this case, the text information supplied from the system control unit 11 is displayed on the image display device 51 in the same expression format, or is output as a voice from the speaker 54.

【0076】一方、テキスト情報の表現形式を変換する
ことが選択され、さらにどのような表現形式に変換する
かが選択された場合には、やはりその旨が、システム制
御部11からテキスト変換装置55に知らされる。この
場合、テキスト変換装置55では、システム制御部11
からテキスト情報が供給されると、解析部61におい
て、そのテキスト情報が解析され、その解析結果が変換
生成部62に出力される。そして、変換生成部62にお
いて、その解析結果を用いて、システム制御部11から
供給されたテキスト情報の表現形式が、利用者によって
選択された表現形式に変換され、その結果得られる変換
テキスト情報が画像表示装置51または音声合成装置5
2に出力される。
On the other hand, when the conversion of the expression format of the text information is selected and the expression format to be converted is further selected, that effect is also notified from the system control unit 11 to the text conversion device 55. Be informed. In this case, in the text conversion device 55, the system control unit 11
When the text information is supplied from the analysis unit 61, the analysis unit 61 analyzes the text information and outputs the analysis result to the conversion generation unit 62. Then, in the conversion generation unit 62, the expression format of the text information supplied from the system control unit 11 is converted into the expression format selected by the user using the analysis result, and the converted text information obtained as a result is converted. Image display device 51 or voice synthesizer 5
2 is output.

【0077】即ち、利用者によって、類語、方言、他の
言語による表現が選択されている場合には、変換生成部
62において、類語変換生成規則および類語辞書、方言
変換生成規則および方言辞書、または対訳変換生成規則
および対訳辞書にそれぞれしたがって、システム制御部
11からのテキスト情報が変換テキスト情報に変換さ
れ、画像表示装置51または音声合成装置52に出力さ
れる。従って、この場合、システム制御部11から供給
されたテキスト情報が、利用者の希望する類語、方言、
または他の言語による表現形式で、画像表示装置51で
表示され、あるいはスピーカ54から音声で出力され
る。
That is, when the user selects a synonym, a dialect, or an expression in another language, the conversion generator 62 causes the synonym conversion generation rule and synonym dictionary, the dialect conversion generation rule and dialect dictionary, or According to the bilingual translation generation rule and the bilingual dictionary, respectively, the text information from the system control unit 11 is converted into the converted text information and output to the image display device 51 or the voice synthesizing device 52. Therefore, in this case, the text information supplied from the system control unit 11 is similar to the user's desired synonym, dialect,
Alternatively, the image is displayed on the image display device 51 in a representation format in another language, or is output as voice from the speaker 54.

【0078】次に、図9を参照して、その動作について
さらに説明する。なお、システム制御部11から入力さ
れるテキスト情報は、例えば日本語の標準語であるとす
る。
Next, the operation will be further described with reference to FIG. The text information input from the system control unit 11 is, for example, a standard Japanese word.

【0079】例えば、いま、システムのモードがナビゲ
ーションモードとされており、通過地点である神戸市に
近づきつつあって、その旨を利用者に知らせるために、
システム制御部11からテキスト変換装置55に、テキ
スト情報「次のポイントは神戸市です」が供給されたと
すると、解析部61では、そのテキスト情報の解析が行
われ、例えば図9(A)に示すような解析結果が出力さ
れる。
For example, the system is now set to the navigation mode, and is approaching the city of Kobe, which is a transit point, in order to inform the user of that fact.
If the text information “the next point is Kobe City” is supplied from the system control unit 11 to the text conversion device 55, the analysis unit 61 analyzes the text information, for example, as shown in FIG. 9 (A). An analysis result like this is output.

【0080】ここで、解析部61から出力される解析結
果には、テキスト情報を構成する単語(形態素)、その
読み、アクセント型、品詞、テキスト情報の文節や句の
同定結果、その文節や句の性質などの種々の文法情報が
含まれるが、図9においては、主なもののみを図示して
ある。
Here, the analysis result output from the analysis unit 61 includes the words (morphemes) forming the text information, the pronunciation, accent type, part of speech, the identification result of the phrase or phrase of the text information, and the phrase or phrase. Although various grammatical information such as the property of is included, only main ones are shown in FIG.

【0081】図9(A)に示すように、テキスト情報
「次のポイントは神戸市です」は、解析部61による解
析により、単語(形態素)「次」、「の」、「ポイン
ト」、「は」、「神戸市」、「です」に分割され、各単
語の品詞が同定される。また、「神戸市」の読みが「こ
ーべし」で、そのアクセント型が3型であることが同定
される。
As shown in FIG. 9A, the text information "next point is Kobe city" is analyzed by the analysis unit 61, and the words (morpheme) "next", "no", "point", " It is divided into "ha", "Kobe city", and "is", and the part of speech of each word is identified. Also, it is identified that the reading of "Kobe City" is "Kobeshi" and the accent type is Type 3.

【0082】以上のような解析結果は、変換生成部62
に供給され、変換生成部62では、その解析結果から、
テキスト情報の表現形式が、利用者が選択したものに変
換される。
The analysis result as described above is converted into the conversion generation unit 62.
Is supplied to the conversion generation unit 62,
The expression format of the text information is converted into the one selected by the user.

【0083】即ち、利用者によって、類語による表現に
変換することが選択されているとともに、類語辞書に
は、品詞が「繋辞」である「です」の類語として、品詞
が「繋辞」である、例えば「だ」や、「である」、「で
あります」などが記述され、類語変換生成規則には、
「同一品詞の類語は置換できる」などの規則が記述され
ている場合には、その規則にしたがい、「です」が、図
9(B)に示すように「だ」や「である」、「でありま
す」などに変換される。
That is, the user has selected to convert the expression into a synonym expression, and in the synonym dictionary, the part of speech is a synonym of "da" and the part of speech is a "junction". For example, "da", "is", "is", etc. are described.
When a rule such as "synonyms of the same part of speech can be replaced" is described, "da" is followed by "da", "is", "as shown in FIG. 9B according to the rule. It is converted to "etc."

【0084】ここで、「です」を、その類語である簡潔
な表現「だ」、あらたまった表現「である」、または丁
寧な表現「であります」などのうちのいずれに変換する
かは、メニューモードで選択することができるようにな
されている。
Here, whether to convert "is" to the synonymous expression "da", the new expression "is", or the polite expression "is" is a menu. It is designed to be selectable by mode.

【0085】例えば、簡潔な表現が選択されている場合
には、テキスト情報「次のポイントは神戸市です」が、
変換テキスト情報「次のポイントは神戸市だ」とされ
て、画像表示装置51または音声合成装置52に出力さ
れる。
For example, when the simple expression is selected, the text information "Next point is Kobe city",
The converted text information "Next point is Kobe city" is output to the image display device 51 or the voice synthesizer 52.

【0086】なお、図9(B)は、「です」が、「だ」
または「である」に変換される場合を示している。
In FIG. 9B, "da" is replaced with "da".
It also shows the case of being converted to "is".

【0087】次に、利用者によって、方言による表現に
変換することが選択されている場合には、次のような処
理が行われる。なお、どの地方の方言による表現とする
かは、メニューモードで選択することができるようにな
されており、ここでは、例えば京都地方の方言が選択さ
れているものとする。従って、方言辞書には、少なくと
も日本語の共通語(標準語)と京都地方の方言との対応
関係が記述されているものとする。また、方言変換生成
規則には、「方言辞書において対応関係が記述されてい
る語彙どうしは置換できる」という規則および京都地方
の方言のイントネーションに関する規則その他が記述さ
れているものとする。
Next, when the user has selected to convert the expression into a dialect, the following processing is performed. The dialect of which region is used can be selected in the menu mode. Here, for example, the dialect of the Kyoto region is selected. Therefore, it is assumed that the dialect dictionary describes at least the correspondence between Japanese common words (standard words) and the dialects of the Kyoto region. Further, it is assumed that the dialect conversion generation rule describes a rule that "vocabularies whose correspondences are described in a dialect dictionary can be replaced with each other", a rule regarding intonation of dialects in the Kyoto region, and the like.

【0088】具体的には、方言辞書には、少なくとも、
例えば品詞が「繋辞」である「です」および「どす」が
対応付けられて記述されているとともに、品詞が名詞で
ある「神戸市」を標準語および京都地方の方言で発話す
る場合の文法情報(「神戸市」の読み、アクセント型な
ど)が対応付けられて記述されているとする。
Specifically, in the dialect dictionary, at least
For example, the grammar when the part-of-speech is described as being associated with "da" and "dosu" and the part-of-speech is the noun "Kobe-shi" in standard language and dialects of the Kyoto region. It is assumed that information (reading of "Kobe city", accent type, etc.) is associated and described.

【0089】ここで、標準語および京都地方の方言のい
ずれによる場合でも、「神戸市」の読みは「こーべし」
(「ー」は長音を表す)で変わらないが、そのアクセン
ト型は異なる。即ち、「こーべし」を発話する場合の音
の強い拍または弱い拍を、それぞれ「高」または「低」
で表すとすると、標準語で「こーべし」という場合に、
その音の強弱を「高」およびは「低」で2段階表記する
と、「低高高低」となる。このように、最初が「低」
で、その後「高」になってから「低」となる場合におい
て、「高」から「低」となる位置の先頭からの拍数をN
とするとき、その単語のアクセント型をN型というとす
ると、標準語による「神戸市」のアクセント型は3型に
なる(図9(A))。
Here, the reading of "Kobe city" is "kobeshi" in both the standard language and the dialects of the Kyoto region.
("-" Means long sound), but the accent type is different. That is, a beat with a strong sound or a weak beat when uttering "kobeshi" is designated as "high" or "low", respectively.
When expressed by, when the standard word "kobeshi" is used,
If the strength of the sound is expressed in two levels of "high" and "low", it becomes "low high high low". Thus, the beginning is "low"
Then, in the case where it becomes “high” and then “low”, the number of beats from the beginning of the position from “high” to “low” is N
Then, if the accent type of the word is called N type, the accent type of "Kobe city" in the standard word is type 3 (Fig. 9 (A)).

【0090】一方、京都地方の方言で「こーべし」とい
う場合に、その音の強弱を、上述の場合と同様に2段階
表記すると、「高高高低」となる。このように、最初が
「高」で、その後「低」となる場合において、「高」か
ら「低」となる位置の先頭からの拍数をNとするとき、
その単語のアクセント型を高N型というとすると、京都
地方の方言による「神戸市」のアクセント型は高3型に
なる。
On the other hand, in the case of "kobeshi" in the dialect of the Kyoto region, if the strength of the sound is expressed in two levels as in the above case, it becomes "high high high low". In this way, when the number of beats from the beginning of the position from “high” to “low” is N when the first is “high” and then “low”,
If the accent type of the word is called the high N type, the accent type of "Kobe City" in the dialect of the Kyoto region becomes the high 3 type.

【0091】従って、方言辞書には、「神戸市」を標準
語または京都地方の方言で発話する場合の文法情報であ
るアクセント型が、それぞれ3型または高3型であるこ
とが記述されている。
Therefore, the dialect dictionary describes that the accent type, which is the grammatical information when "Kobe-shi" is spoken in the standard language or the dialect of the Kyoto region, is type 3 or high type 3, respectively. .

【0092】以上のような情報が方言辞書および方言変
換生成規則に記述されている場合においては、図9
(C)に示すように、テキスト情報「次のポイントは神
戸市です」のうちの「です」は、それと対応付けられて
いる「どす」に変換されるとともに、「神戸市」のアク
セント型が、それと対応付けられている高3型に変換さ
れ、変換テキスト情報「次のポイントは神戸市どす」が
生成される。さらに、この変換テキスト情報「次のポイ
ントは神戸市どす」に対し、方言変換生成規則に記述さ
れている京都地方の方言のイントネーションに関する規
則にしたがったイントネーションが付与され、画像表示
装置51または音声合成装置52に出力される。
In the case where the above information is described in the dialect dictionary and the dialect conversion generation rule, FIG.
As shown in (C), in the text information "The next point is Kobe City", "is" is converted into "Dosu" associated with it, and the accent type of "Kobe City" is changed. , The converted text information is converted into the high-three type, and the converted text information “Next point is Kobe city dosu” is generated. Further, into the converted text information “the next point is Kobe city dosu” is given an intonation according to the rule regarding the intonation of the dialect of the Kyoto region described in the dialect conversion generation rule, and the image display device 51 or the voice synthesis is added. It is output to the device 52.

【0093】なお、この場合、変換テキスト情報「次の
ポイントは神戸市どす」が音声合成装置52に出力され
たときには、音声合成装置52において、それに付与さ
れたイントネーションやアクセント型に対応した合成音
が生成されるが、画像表示装置51に出力されたときに
は、画像表示装置51では、例えばイントネーションや
アクセント型などの音声として出力する場合にのみ必要
な情報は無視されて表示がなされる。即ち、変換テキス
ト情報「次のポイントは神戸市どす」が画像表示装置5
1に出力されたときには、画像表示装置51では、「次
のポイントは神戸市どす」という表示がなされる。
In this case, when the converted text information "the next point is Kobe city dosu" is output to the speech synthesizer 52, the speech synthesizer 52 synthesizes the synthesized speech corresponding to the intonation and accent type given to it. Is generated, but when it is output to the image display device 51, the image display device 51 displays it while ignoring information necessary only when outputting as voice of intonation or accent type. That is, the converted text information “The next point is Kobe city” is displayed on the image display device 5.
When the output is 1, the image display device 51 displays "Next point is Kobe city."

【0094】次に、利用者によって、他の言語による表
現に変換することが選択されている場合には、次のよう
な処理が行われる。なお、どの言語による表現とするか
は、メニューモードで選択することができるようになさ
れており、ここでは、例えば英語が選択されているもの
とする。従って、対訳辞書には、少なくとも日本語の共
通語(標準語)と英語との対応関係が記述されているも
のとする。具体的には、例えば図10に示すような対応
関係が記述されているものとする。
Next, when the user has selected to convert the expression into another language, the following processing is performed. In addition, which language is used for expression can be selected in the menu mode, and here, for example, English is selected. Therefore, it is assumed that the bilingual dictionary describes at least the correspondence between Japanese common words (standard words) and English. Specifically, for example, it is assumed that the correspondence relationship shown in FIG. 10 is described.

【0095】また、対訳変換生成規則には、「対訳辞書
において対応関係が記述されている語彙どうしは置換で
きる」という規則および図11に示すような規則が記述
されているものとする。
In the parallel translation conversion generation rule, it is assumed that the rule "words whose correspondences are described in the bilingual dictionary can be replaced with each other" and the rule shown in FIG.

【0096】以上のような情報が対訳辞書および対訳変
換生成規則に記述されている場合においては、まず図1
0に示した対訳辞書に記述されている対応関係R1にし
たがって、名詞である「次」および格助詞である「の」
の組み合わせが、形容詞である「next」に変換され
る。さらに、対応関係R2乃至R4にしたがって、名詞
である「ポイント」が名詞である「point」に、名
詞である「神戸市」が名詞である「Kobe−cit
y」に、繋辞である「です」が繋辞である「is」に、
それぞれ変換される。その結果、日本語のテキスト情報
「次のポイントは神戸市です」は、英語のテキスト情報
「next point Kobe−city is」
とされる。
In the case where the above-mentioned information is described in the bilingual dictionary and the bilingual conversion generation rule, first, FIG.
According to the correspondence R1 described in the bilingual dictionary shown in 0, the noun "next" and the case particle "no"
Is converted to the adjective “next”. Further, according to the correspondences R2 to R4, the noun "point" is added to the noun "point", and the noun "Kobe-shi" is the noun "Kobe-cit".
"y", the conjunct "is" to the conjunct "is",
Each is converted. As a result, the Japanese text information "The next point is Kobe City" is the English text information "next point Kobe-city is".
It is said.

【0097】その後、図11に示した対訳変換生成規則
に記述されている規則にしたがった処理が行われる。な
お、図中(図10においても同様)、規則の先頭に(日
本語)または(英語)と記述してあるものは、それぞれ
日本語のテキスト情報または英語のテキスト情報に適用
されるものである。
After that, the processing according to the rule described in the parallel translation conversion generation rule shown in FIG. 11 is performed. Note that in the figure (also in FIG. 10), the description of (Japanese) or (English) at the beginning of the rule is applied to Japanese text information or English text information, respectively. .

【0098】即ち、図11に示した対訳変換生成規則に
記述されている規則r1にしたがって、テキスト情報
「次のポイントは神戸市です」のうちの、名詞、格助詞
「の」、名詞と並んでいる部分である「次のポイント」
が名詞句であると同定される(図9(A))。そして、
規則r2にしたがって、テキスト情報「next po
int Kobe−city is」のうちの、形容
詞、名詞と並んでいる部分である「next poin
t」も名詞句であると同定される(図9(D))。
That is, according to the rule r1 described in the bilingual transformation generation rule shown in FIG. 11, the text information "next point is Kobe city" is aligned with the noun, the case particle "no", and the noun. "Next point" which is the part
Is identified as a noun phrase (FIG. 9 (A)). And
According to the rule r2, the text information “next po
"Int Kobe-city is", which is the part that is lined with adjectives and nouns.
The “t” is also identified as a noun phrase (FIG. 9D).

【0099】従って、日本語のテキスト情報「次のポイ
ントは神戸市です」の品詞の並びは、名詞句、格助詞
「は」、名詞、繋辞となり、規則r3の左側の部分の条
件を満足する。さらに、英語のテキスト情報「next
point Kobe−city is」の品詞の並
びは、名詞句、名詞、繋辞となり、名詞と繋辞の順番を
入れ替えれば、規則r3の右側の部分の条件を満足す
る。そこで、名詞である「Kobe−city」と繋辞
である「is」との語順が交換され、テキスト情報「n
ext point Kobe−city is」は、
「next point is Kobe−city」
とされる。
Therefore, the sequence of parts of speech of the Japanese text information "The next point is Kobe city" is the noun phrase, the case particle "ha", the noun, the conjunction, and the condition on the left side of the rule r3 is satisfied. To do. In addition, English text information "next
The sequence of parts of speech of "point Kobe-city is" is a noun phrase, a noun, and a noun. If the order of the noun and the noun is exchanged, the condition on the right side of the rule r3 is satisfied. Then, the word order of the noun "Kobe-city" and the conjunction "is" is exchanged, and the text information "n"
ext point Kobe-city is "
"Next point is Kobe-city"
It is said.

【0100】なお、このような語順の入れ替えは、対訳
変換生成規則だけでなく、方言変換生成規則や類語変換
生成規則にも記述しておくことが可能である。
It is possible to describe such a change in the word order not only in the parallel translation generation rule but also in the dialect conversion generation rule or the synonym conversion generation rule.

【0101】そして、規則r3にしたがって、テキスト
情報「次のポイントは神戸市です」は、変換テキスト情
報「next point is Kobe−cit
y」に変換され、画像表示装置51または音声合成装置
52に出力される。
Then, according to the rule r3, the text information "Next point is Kobe City" is converted text information "next point is Kobe-cit."
y ”and is output to the image display device 51 or the voice synthesizer 52.

【0102】以上のように、テキスト情報の表現形式を
変換するようにしたので、テキスト情報自体を入れ替え
ることなく、利用者の所望する表現形式で、情報を提示
することができる。その結果、利用者は情報を容易に理
解することができるので、システムの使用感を向上させ
ることができる。また、言語別にテキスト情報を用意す
る必要がないので、システムの製造の容易化、低コスト
化を図ることができる。
Since the expression format of the text information is converted as described above, the information can be presented in the expression format desired by the user without replacing the text information itself. As a result, the user can easily understand the information, and the usability of the system can be improved. Moreover, since it is not necessary to prepare text information for each language, it is possible to facilitate the manufacturing of the system and reduce the cost.

【0103】以上、本発明を、自動車に搭載するナビゲ
ーションシステム(カーナビゲーションシステム)に適
用した場合について説明したが、本発明は、この他、例
えば携帯可能なナビゲーションシステムや、自動車以外
の車両、船舶、航空機などに搭載するナビゲーションシ
ステムに適用可能である。
The case where the present invention is applied to a navigation system (car navigation system) mounted on an automobile has been described above. However, the present invention is not limited to this. For example, a portable navigation system, a vehicle other than an automobile, and a ship. It can be applied to navigation systems mounted on aircraft, etc.

【0104】なお、本実施例においては、システム制御
部11から出力されるテキスト情報を日本語の共通語
(標準語)でなるものとしたが、これに限定されるもの
ではない。
In the present embodiment, the text information output from the system control unit 11 is made up of Japanese common words (standard words), but the present invention is not limited to this.

【0105】また、本実施例では、システム制御部11
からのテキスト情報の表現形式を変換する際に、類語、
方言、または他の言語による表現のいずれか1つを選択
するようにしたが、そのうちの複数を選択することも可
能である。即ち、例えば英語などにも方言があることか
ら、例えば他の言語として英語を選択し、さらに方言を
選択することにより、日本語の標準語を、所定の方言の
英語に変換することが可能となる。
Further, in this embodiment, the system control unit 11
When converting the expression format of the text information from
Although either one of the dialect and the expression in another language is selected, a plurality of them can be selected. That is, for example, since there are dialects in English and the like, it is possible to convert Japanese standard words into English in a predetermined dialect by selecting English as another language and further selecting the dialect. Become.

【0106】さらに、本実施例では、ナビゲーションモ
ードにおいて所定の経路の誘導を行うためのテキスト情
報の表現形式を変換する場合について説明したが、その
他のモードにおいてもテキスト情報の表現形式の変換は
可能である。即ち、例えば所定の地図が、地名や通り名
とともに表示されるモードにおいて、表現形式を英語に
変換することが選択されている場合には、例えば「六本
木通り」は、「ropponngi st.」ように変
換されて表示される。
Further, in the present embodiment, the case where the expression format of the text information for guiding the predetermined route is converted in the navigation mode has been described, but the expression format of the text information can be converted in other modes. Is. That is, for example, in a mode in which a predetermined map is displayed together with a place name and a street name, if the expression format is selected to be converted into English, for example, "Roppongi street" becomes "ropponngist." It is converted and displayed.

【0107】[0107]

【発明の効果】以上の如く、本発明のナビゲーションシ
ステムによれば、テキスト情報を、利用者が希望する表
現形式で容易に表示、出力することができる。
As described above, according to the navigation system of the present invention, the text information can be easily displayed and output in the expression format desired by the user.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を適用したカーナビゲーションシステム
の一実施例の構成を示すブロック図である。
FIG. 1 is a block diagram showing the configuration of an embodiment of a car navigation system to which the present invention is applied.

【図2】図1の位置測定装置12の詳細構成例を示すブ
ロック図である。
FIG. 2 is a block diagram showing a detailed configuration example of a position measuring device 12 of FIG.

【図3】図1のデータベース装置13の詳細構成例を示
すブロック図である。
3 is a block diagram showing a detailed configuration example of a database device 13 of FIG.

【図4】図1の入力装置14の詳細構成例を示すブロッ
ク図である。
4 is a block diagram showing a detailed configuration example of an input device 14 in FIG.

【図5】図1の出力装置15の詳細構成例を示すブロッ
ク図である。
5 is a block diagram showing a detailed configuration example of an output device 15 of FIG.

【図6】図1のカーナビゲーションシステムの動作を説
明するフローチャートである。
FIG. 6 is a flowchart illustrating the operation of the car navigation system of FIG.

【図7】図6のステップS5の処理のより詳細を説明す
るフローチャートである。
FIG. 7 is a flowchart illustrating the details of the process of step S5 of FIG.

【図8】図5のテキスト変換装置55の詳細構成例を示
すブロック図である。
8 is a block diagram showing a detailed configuration example of a text conversion device 55 in FIG.

【図9】図8のテキスト変換装置55の動作を説明する
ための図である。
9 is a diagram for explaining the operation of the text conversion device 55 of FIG.

【図10】対訳辞書に記述されている対応関係の例を示
す図である。
FIG. 10 is a diagram showing an example of correspondence relationships described in a bilingual dictionary.

【図11】対訳変換生成規則に記述されている規則の例
を示す図である。
FIG. 11 is a diagram showing an example of a rule described in the parallel translation generation rule.

【符号の説明】[Explanation of symbols]

11 システム制御部 12 位置測定装置 13 データベース装置 14 入力装置 15 出力装置 21 位置測定制御部 22 GPSアンテナ 23 ジャイロスコープ 24 位置計算部 31 記録媒体 32 記憶部 33 読み書き装置 40 リモコン 41 ジョイスティック 42 ボタン群 43 マイク 44 音声認識装置 51 画像表示装置 52 音声合成装置 53 アンプ 54 スピーカ 55 テキスト変換装置 11 system control unit 12 position measurement device 13 database device 14 input device 15 output device 21 position measurement control unit 22 GPS antenna 23 gyroscope 24 position calculation unit 31 recording medium 32 storage unit 33 read / write device 40 remote control 41 joystick 42 button group 43 microphone 44 voice recognition device 51 image display device 52 voice synthesis device 53 amplifier 54 speaker 55 text conversion device

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 少なくとも地図およびテキスト情報を記
憶している記憶手段と、 現在地を測定する測定手段と、 前記記憶手段の記憶情報および測定手段の測定結果を表
示する表示手段とを備えるナビゲーションシステムであ
って、 前記記憶手段に記憶されている前記テキスト情報の表現
形式を変換し、変換テキスト情報とする変換手段をさら
に備え、 前記表示手段は、所定の入力に対応して、前記テキスト
情報そのものまたは前記変換テキスト情報のいずれかを
表示することを特徴とするナビゲーションシステム。
1. A navigation system comprising: a storage unit that stores at least a map and text information; a measurement unit that measures the current location; and a display unit that displays the storage information of the storage unit and the measurement result of the measurement unit. There is further provided a conversion means for converting the expression format of the text information stored in the storage means to obtain converted text information, wherein the display means corresponds to a predetermined input, or the text information itself or A navigation system displaying any one of the converted text information.
【請求項2】 前記所定の入力に応じて、前記テキスト
情報そのものまたは前記変換テキスト情報のいずれかを
音声で出力する出力手段をさらに備えることを特徴とす
る請求項1に記載のナビゲーションシステム。
2. The navigation system according to claim 1, further comprising an output unit that outputs, as voice, either the text information itself or the converted text information according to the predetermined input.
【請求項3】 前記変換手段は、前記テキスト情報の表
現形式を類語による表現に変換することを特徴とする請
求項1または2に記載のナビゲーションシステム。
3. The navigation system according to claim 1, wherein the conversion unit converts the expression format of the text information into a synonymous expression.
【請求項4】 前記変換手段は、前記テキスト情報の表
現形式を所定の方言による表現に変換することを特徴と
する請求項1または2に記載のナビゲーションシステ
ム。
4. The navigation system according to claim 1, wherein the conversion unit converts an expression format of the text information into an expression in a predetermined dialect.
【請求項5】 前記変換手段は、前記テキスト情報の表
現形式を所定の言語による表現に変換することを特徴と
する請求項1または2に記載のナビゲーションシステ
ム。
5. The navigation system according to claim 1, wherein the conversion unit converts an expression format of the text information into an expression in a predetermined language.
【請求項6】 前記テキスト情報は、前記地図上におけ
る文字、所定の経路を誘導するための情報、またはII
S(Integrated Information System)の情報であるこ
とを特徴とする請求項1乃至5のいずれかに記載のナビ
ゲーションシステム。
6. The text information is characters on the map, information for guiding a predetermined route, or II.
6. The navigation system according to claim 1, wherein the navigation system is S (Integrated Information System) information.
JP7006904A 1995-01-20 1995-01-20 Navigation system Withdrawn JPH08193837A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7006904A JPH08193837A (en) 1995-01-20 1995-01-20 Navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7006904A JPH08193837A (en) 1995-01-20 1995-01-20 Navigation system

Publications (1)

Publication Number Publication Date
JPH08193837A true JPH08193837A (en) 1996-07-30

Family

ID=11651231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7006904A Withdrawn JPH08193837A (en) 1995-01-20 1995-01-20 Navigation system

Country Status (1)

Country Link
JP (1) JPH08193837A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10104000A (en) * 1996-09-30 1998-04-24 Mazda Motor Corp Navigation apparatus
US6243675B1 (en) 1999-09-16 2001-06-05 Denso Corporation System and method capable of automatically switching information output format
KR20010114131A (en) * 2000-06-21 2001-12-29 강호신 Method for Providing Multimedia Information using Dialect
DE10061696A1 (en) * 2000-12-12 2002-06-27 Bernhard Lehmeier Vehicle navigation system for provision of spoken instructions to a driver has a version selector that allows a dialect of a language to be chosen that most suits the driver, so that driver tiredness is reduced
JP2002274466A (en) * 2001-01-10 2002-09-25 Honda Motor Co Ltd Meter device for vehicle
JP2002315037A (en) * 2001-04-17 2002-10-25 J-Nextel Inc Method of providing and acquiring position display information through communication network, communication system for providing and acquiring position display map and program thereof
EP1273887A2 (en) * 2001-07-05 2003-01-08 Alpine Electronics, Inc. Navigation system
JP2007121673A (en) * 2005-10-28 2007-05-17 Nippon Seiki Co Ltd Vehicle information providing device
JP2007164524A (en) * 2005-12-14 2007-06-28 Sanyo Electric Co Ltd Personal digital assistance and program
US7495164B2 (en) 2000-04-25 2009-02-24 Yamaha Corporation Aid for composing words of song
JP2015049198A (en) * 2013-09-03 2015-03-16 株式会社 ミックウェア Terminal device, information processing method, and program
JP2017122930A (en) * 2017-03-13 2017-07-13 シャープ株式会社 Speech controller unit, method, speech system, and program
WO2021075065A1 (en) * 2019-10-15 2021-04-22 菊一 西 Voice input device
JP2021138165A (en) * 2020-03-02 2021-09-16 林意勝 Audio system of on-vehicle holder

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10104000A (en) * 1996-09-30 1998-04-24 Mazda Motor Corp Navigation apparatus
US6243675B1 (en) 1999-09-16 2001-06-05 Denso Corporation System and method capable of automatically switching information output format
US7495164B2 (en) 2000-04-25 2009-02-24 Yamaha Corporation Aid for composing words of song
KR20010114131A (en) * 2000-06-21 2001-12-29 강호신 Method for Providing Multimedia Information using Dialect
DE10061696A1 (en) * 2000-12-12 2002-06-27 Bernhard Lehmeier Vehicle navigation system for provision of spoken instructions to a driver has a version selector that allows a dialect of a language to be chosen that most suits the driver, so that driver tiredness is reduced
JP2002274466A (en) * 2001-01-10 2002-09-25 Honda Motor Co Ltd Meter device for vehicle
JP2002315037A (en) * 2001-04-17 2002-10-25 J-Nextel Inc Method of providing and acquiring position display information through communication network, communication system for providing and acquiring position display map and program thereof
EP1273887A2 (en) * 2001-07-05 2003-01-08 Alpine Electronics, Inc. Navigation system
EP1273887A3 (en) * 2001-07-05 2005-06-01 Alpine Electronics, Inc. Navigation system
JP2007121673A (en) * 2005-10-28 2007-05-17 Nippon Seiki Co Ltd Vehicle information providing device
JP2007164524A (en) * 2005-12-14 2007-06-28 Sanyo Electric Co Ltd Personal digital assistance and program
JP2015049198A (en) * 2013-09-03 2015-03-16 株式会社 ミックウェア Terminal device, information processing method, and program
JP2017122930A (en) * 2017-03-13 2017-07-13 シャープ株式会社 Speech controller unit, method, speech system, and program
WO2021075065A1 (en) * 2019-10-15 2021-04-22 菊一 西 Voice input device
JP2021138165A (en) * 2020-03-02 2021-09-16 林意勝 Audio system of on-vehicle holder

Similar Documents

Publication Publication Date Title
US6012028A (en) Text to speech conversion system and method that distinguishes geographical names based upon the present position
EP0768638B1 (en) Apparatus and methods for voice recognition, map display and navigation
EP2137723B1 (en) Apparatus for text-to-speech delivery and method therefor
JPH08193837A (en) Navigation system
JP2000221041A (en) System and method for providing route guide using navigation application program
WO1993007447A1 (en) Navigation apparatus for vehicles
JP4084550B2 (en) Navigation device
JP2004053978A (en) Device and method for producing speech and navigation device
JP2817340B2 (en) Voice guidance device
JP2001027540A (en) Navigation method to use function of voice recognition
JPH08202386A (en) Speech recognizing method, speech recognizing device and navigation device
JPH041898A (en) Voice guiding equipment
JPH07319383A (en) Map display device
JPH07325543A (en) Map display device
JPH08166797A (en) Voice interactive control system
JP3380993B2 (en) Navigation system
JP4684609B2 (en) Speech synthesizer, control method, control program, and recording medium
JP2012022327A (en) Speech output device for shortened character string
Van Coile et al. Speech synthesis for the new Pan-European traffic message control system RDS-TMC
JP4964574B2 (en) Information processing apparatus and method for registering speech reading vocabulary
KR200328847Y1 (en) Geographical information provider which gives user's previously input schedule together
JP3085483B2 (en) Guidance device
JPH0934490A (en) Method and device for voice synthetization, navigation system, and recording medium
JP2001272245A (en) Navigation device and method, and recording medium in which software for navigation is recorded
RU2425330C2 (en) Text to speech device and method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20020402