JP2001141497A - Navigation system - Google Patents
Navigation systemInfo
- Publication number
- JP2001141497A JP2001141497A JP32046999A JP32046999A JP2001141497A JP 2001141497 A JP2001141497 A JP 2001141497A JP 32046999 A JP32046999 A JP 32046999A JP 32046999 A JP32046999 A JP 32046999A JP 2001141497 A JP2001141497 A JP 2001141497A
- Authority
- JP
- Japan
- Prior art keywords
- display
- operator
- information
- navigation
- cpu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Traffic Control Systems (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Instructional Devices (AREA)
- Navigation (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】この発明はナビゲーションシステ
ムに関し、特にたとえば画像情報をディスプレイに表示
し、ナビゲーションのための文字情報をディスプレイお
よび/またはスピーカから出力する、ナビゲーションシ
ステムに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a navigation system, and more particularly to a navigation system that displays image information on a display and outputs character information for navigation from a display and / or a speaker.
【0002】[0002]
【従来の技術】従来のこの種のナビゲーションシステム
は、カーナビゲーションシステム(カーナビ)等に適用
される。カーナビでは、オペレータが予め目的地を設定
すると、走行中にGPS(global positioning system)
によって車の現在位置が検出され、車内に設置されたカ
ーナビのディスプレイに道路地図および車の画像が表示
される。また、目的地までの距離等をディスプレイに表
示するとともに、スピーカから途中の道案内を音声出力
する。このようにして、目的地までの案内をしていた。2. Description of the Related Art A conventional navigation system of this type is applied to a car navigation system (car navigation system) and the like. In a car navigation system, when an operator sets a destination in advance, a GPS (global positioning system) is used during traveling.
As a result, the current position of the car is detected, and a road map and an image of the car are displayed on a display of a car navigation system installed in the car. In addition, the distance to the destination and the like are displayed on the display, and the route guidance on the way is output from the speaker. In this way, guidance was provided to the destination.
【0003】[0003]
【発明が解決しようとする課題】しかし、この従来技術
では、一旦目的地等を設定した後は、車の現在位置に応
じて固定的に決められた情報がディスプレイおよび/ま
たはスピーカから出力されるだけであり、適宜に所望の
情報を得るためには、カーナビを操作して、設定する必
要があった。つまり、操作が面倒である上に、運転が疎
かになり安全性に欠けていた。However, in this prior art, once a destination or the like is set, information fixedly determined according to the current position of the vehicle is output from a display and / or a speaker. However, in order to obtain desired information as appropriate, it is necessary to operate the car navigation system and make settings. In other words, the operation is troublesome, the driving is neglected, and the safety is lacking.
【0004】それゆえに、この発明の主たる目的は、簡
単な操作でオペレータに適した情報を提示できる、ナビ
ゲーションシステムを提供することである。[0004] Therefore, a main object of the present invention is to provide a navigation system capable of presenting information suitable for an operator with a simple operation.
【0005】[0005]
【課題を解決するための手段】この発明は、画像情報を
ディスプレイに表示し、ナビゲーションのための文字情
報をディスプレイおよび/またはスピーカから出力する
ナビゲーションシステムであって、複数の画像情報を記
憶する第1メモリ、複数の文字情報を記憶する第2メモ
リ、ユーザが入力する言語情報に応じて1つの画像情報
を選択する第1選択手段、および言語情報に応じて1つ
の文字情報を選択する第2選択手段を備える、ナビゲー
ションシステムである。SUMMARY OF THE INVENTION The present invention is a navigation system for displaying image information on a display and outputting character information for navigation from a display and / or a speaker. One memory, a second memory for storing a plurality of pieces of character information, a first selecting means for selecting one piece of image information according to linguistic information input by a user, and a second means for selecting one piece of character information according to linguistic information A navigation system including a selection unit.
【0006】[0006]
【作用】このナビゲーションシステムでは、画像情報を
ディスプレイに表示し、ナビゲーションのための文字情
報をディスプレイおよび/またはスピーカから出力す
る。第1メモリには複数の画像情報が記憶され、オペレ
ータが入力した言語情報に応じて第1選択手段が1つの
画像情報を選択する。また、第2メモリには複数の文字
情報が記憶され、オペレータが入力した言語情報に応じ
て第2選択手段が1つの文字情報を選択する。このよう
に、オペレータが入力する言語情報に応じて、画像情報
および文字情報が選択される。In this navigation system, image information is displayed on a display, and character information for navigation is output from a display and / or a speaker. A plurality of image information is stored in the first memory, and the first selecting means selects one image information according to the language information input by the operator. Further, a plurality of character information is stored in the second memory, and the second selecting means selects one character information according to the language information input by the operator. Thus, image information and character information are selected according to the language information input by the operator.
【0007】たとえば、言語情報をマイクなどを含む音
声入力手段で入力するので、手動操作に比べて簡単であ
る。For example, since language information is input by voice input means including a microphone or the like, it is simpler than manual operation.
【0008】また、言語情報をキーボードなどの手入力
手段で入力するようにすれば、詳細な言語情報を入力す
ることができる。Further, if the linguistic information is input by a manual input means such as a keyboard, detailed linguistic information can be input.
【0009】さらに、画像情報は詳細度の異なる少なく
とも2つ以上の画像ファイルを含むので、オペレータの
言語情報に応じて詳細度の異なる画像情報を提示するこ
とができる。Further, since the image information includes at least two or more image files having different levels of detail, it is possible to present image information having different levels of detail in accordance with the language information of the operator.
【0010】さらにまた、第1表示手段が案内エージェ
ントをディスプレイに表示するので、案内エージェント
がナビゲーションをしているように演出することができ
る。Further, since the first display means displays the guidance agent on the display, it is possible to produce an effect as if the guidance agent is performing navigation.
【0011】また、第2表示手段がさらに被案内エージ
ェント、つまりオペレータに対応するエージェントを表
示するので、案内エージェントと被案内エージェントと
の位置関係に基づいて“あっち”、“こっち”、“そっ
ち”、“向こう”および“手前”などの指示語で情報を
受けたい場所等を音声入力することができる。Further, the second display means further displays the guided agent, that is, the agent corresponding to the operator, so that "over there", "over here", "over there" based on the positional relationship between the guided agent and the guided agent. , A place where information is desired to be received can be voice-inputted by designating words such as "behind" and "foreground".
【0012】[0012]
【発明の効果】この発明によれば、言語情報に応じて画
像情報およびナビゲーションのための文字情報を選択す
るので、簡単な操作でオペレータに適した情報を提示す
ることができる。According to the present invention, since image information and character information for navigation are selected according to language information, information suitable for an operator can be presented by a simple operation.
【0013】この発明の上述の目的,その他の目的,特
徴および利点は、図面を参照して行う以下の実施例の詳
細な説明から一層明らかとなろう。The above objects, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
【0014】[0014]
【実施例】図1を参照して、この実施例のナビゲーショ
ンシステム(以下、単に「システム」という。)10
は、本体12およびそれを支持する支柱14を含む。本
体12の表面(上面)には、ディスプレイ16,キーボ
ード18,音声入力口20および音声出力口22が設け
られる。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Referring to FIG. 1, a navigation system (hereinafter simply referred to as "system") 10 of this embodiment.
Includes a body 12 and a column 14 that supports it. A display 16, a keyboard 18, a voice input port 20, and a voice output port 22 are provided on a surface (upper surface) of the main body 12.
【0015】このシステム10は、たとえば観光地の駅
等に設置され、オペレータをナビゲートする。つまり、
図2に示すように、ディスプレイ16には地図が表示さ
れるとともに、ナビゲーションのための文字が表示され
る。オペレータは、ディスプレイ16に表示された文字
や音声出力口22から発せられる音声に応じてシステム
10に設けられたキーボード18を操作し、ナビゲーシ
ョンを受ける。なお、システム10からディスプレイ1
6や音声出力口22を通して質問された場合に、“は
い”または“いいえ”などの簡単な言葉で返答するとき
には、音声入力口20を介して音声で入力することがで
きる。また、ディスプレイ16には、“はい”および
“いいえ”が表示されるため、キーボード18に設けら
れたキー(図示せず)を操作して入力してもよく、また
ディスプレイ16の表示面をタッチして入力してもよ
い。[0015] The system 10 is installed, for example, at a station in a tourist spot and navigates an operator. That is,
As shown in FIG. 2, the display 16 displays a map and characters for navigation. The operator operates the keyboard 18 provided in the system 10 according to the characters displayed on the display 16 and the voice emitted from the voice output port 22 to receive navigation. In addition, the display 1
When a question is asked through the voice input port 6 or the voice output port 22, when replying with a simple word such as "yes" or "no", the voice can be input via the voice input port 20. Further, since “yes” and “no” are displayed on the display 16, the input may be performed by operating keys (not shown) provided on the keyboard 18, and the display surface of the display 16 may be touched. May be entered.
【0016】また、システム10の電気的な内部構成が
図3に示される。システム10は、コンピュータ30を
含み、コンピュータ30はCPU32を含む。CPU3
2は、バス34を介してコンピュータ30に含まれる音
声合成回路36、画像生成回路38、音声認識回路4
0、RAM42およびROM44に接続される。また、
システム10は、上述したディスプレイ16およびキー
ボード18を含むとともに、マイク46およびスピーカ
48を含む。つまり、ディスプレイ16は図示しないイ
ンターフェイス(I/F)を介して画像生成回路38に
接続される。また、キーボード18はI/F(図示せ
ず)を介してCPU32に接続される。さらに、マイク
46は、I/F(図示せず)を介した音声認識回路40
に接続される。さらにまた、スピーカ48は、I/F
(図示せず)を介して音声合成回路36に接続される。FIG. 3 shows an electrical internal configuration of the system 10. The system 10 includes a computer 30, and the computer 30 includes a CPU 32. CPU3
Reference numeral 2 denotes a speech synthesis circuit 36, an image generation circuit 38, and a speech recognition circuit 4 included in the computer 30 via the bus 34.
0, RAM 42 and ROM 44. Also,
The system 10 includes the display 16 and the keyboard 18 described above, as well as a microphone 46 and a speaker 48. That is, the display 16 is connected to the image generation circuit 38 via an interface (I / F) not shown. The keyboard 18 is connected to the CPU 32 via an I / F (not shown). Further, the microphone 46 is connected to a voice recognition circuit 40 via an I / F (not shown).
Connected to. Furthermore, the speaker 48 has an I / F
(Not shown) connected to the speech synthesis circuit 36.
【0017】音声合成回路36は、CPU32の指示に
従ってRAM42から読み出された音声合成データに基
づいて、ナビゲーションの声をスピーカ48から出力す
る。したがって、ナビゲーションの声が、音声出力口2
2を介して出力され、システム10の近傍に存在するオ
ペレータに聞こえる。The voice synthesis circuit 36 outputs a navigation voice from a speaker 48 based on the voice synthesis data read from the RAM 42 in accordance with an instruction from the CPU 32. Therefore, the voice of the navigation is sound output port 2
2 and is heard by an operator present in the vicinity of the system 10.
【0018】画像生成回路38は、CPU32の指示に
従ってRAM42から読み出されたナビゲーションのた
めの地図データをディスプレイ16に出力する。また、
画像生成回路38は、CPU32の指示に従ってRAM
42から読み出されたナビゲーションのための文字デー
タをディスプレイ16に出力する。したがって、ディス
プレイ16には、地図およびナビゲーションのための文
字が表示される。The image generating circuit 38 outputs map data for navigation read from the RAM 42 to the display 16 in accordance with an instruction from the CPU 32. Also,
The image generation circuit 38 is provided in the RAM
The character data for navigation read from 42 is output to the display 16. Therefore, the display 16 displays characters for a map and navigation.
【0019】音声認識回路40は、マイク46を介して
入力されるオペレータの音声を認識し、認識した言葉を
RAM42に保持された音声認識用のデータ(音声認識
用データ)を参照して特定し、特定した結果をCPU3
2に知らせる。つまり、音声認識回路40は、音声認識
用データを参照して、入力された言葉を例えばDPマッ
チング法により認識する。なお、HMM(Hidden Markov
model: 隠れマルコフモデル)による方法を用いて、入
力された言葉を認識するようにしてもよい。The voice recognition circuit 40 recognizes the voice of the operator input through the microphone 46, and specifies the recognized word by referring to the voice recognition data (voice recognition data) held in the RAM 42. CPU3
Inform 2 That is, the speech recognition circuit 40 refers to the speech recognition data to recognize the input word by, for example, the DP matching method. HMM (Hidden Markov)
model: a hidden Markov model) may be used to recognize the input words.
【0020】ROM44はメモリエリア44a〜44e
を含み、メモリエリア44aにはナビゲーションのため
のプログラムが記憶されている。また、メモリエリア4
4bには、たとえば3つの画像ファイルが記憶される。
ここで、3つの画像ファイルとしては、図4に示すよう
に、地図の詳細度に応じて階層化されており、またそれ
ぞれの画像ファイルは複数の地図データを含む。したが
って、オペレータの要求に応じて、詳細度の異なる地図
を提示することができる。なお、この実施例では、3つ
の画像ファイルを記憶するようにしているが、少なくと
も2つの画像ファイルを記憶すればよい。また、3つ以
上の複数の画像ファイルを記憶し、詳細度を細かく分け
ることもできる。The ROM 44 has memory areas 44a to 44e.
And a program for navigation is stored in the memory area 44a. Also, memory area 4
4b stores, for example, three image files.
Here, as shown in FIG. 4, the three image files are hierarchized according to the level of detail of the map, and each image file includes a plurality of map data. Therefore, maps with different levels of detail can be presented according to the operator's request. In this embodiment, three image files are stored, but at least two image files may be stored. Further, three or more image files can be stored, and the degree of detail can be finely divided.
【0021】さらに、メモリエリア44cには、ナビゲ
ーションのための複数の文字データを含む文字ファイル
が記憶されている。複数の文字データは、オペレータに
対して能動的に質問をするためのデータおよびオペレー
タが入力する言葉(言語情報)に対して返答するための
データである。さらにまた、メモリエリア44dには、
文字データに対応する複数の音声合成データを含む音声
合成ファイルが格納される。したがって、文字データを
ディスプレイ16に表示するとともに、その文字データ
を音声で出力することができる。なお、スピーカ48か
ら出力される音声は女性の声または男性の声のいずれで
もよく、また両方の声に対応する2つの音声合成ファイ
ルを記憶しておき、オペレータの性別に応じて使い分け
るようにしてもよい。また、メモリエリア44eには、
上述した音声認識用データが記憶される。音声認識用デ
ータは、オペレータが入力する言葉を認識するためのデ
ータであり、複数の老若男女が発した複数の言葉に対す
るデータが予め記憶されている。Further, a character file including a plurality of character data for navigation is stored in the memory area 44c. The plurality of character data are data for actively asking a question to the operator and data for responding to words (language information) input by the operator. Furthermore, in the memory area 44d,
A speech synthesis file including a plurality of speech synthesis data corresponding to character data is stored. Therefore, the character data can be displayed on the display 16 and the character data can be output by voice. Note that the voice output from the speaker 48 may be either a female voice or a male voice, and two voice synthesis files corresponding to both voices are stored and used depending on the gender of the operator. Is also good. In the memory area 44e,
The above-described voice recognition data is stored. The voice recognition data is data for recognizing words input by the operator, and data for a plurality of words issued by a plurality of young and old is stored in advance.
【0022】なお、この実施例では、コンピュータ30
の内部に設けられたROM44に種々のデータを記憶す
るようにしているが、CD−ROMやDVD−ROMな
どの外部記憶媒体に記憶するようにしてもよい。In this embodiment, the computer 30
Although various data are stored in the ROM 44 provided inside the HDD, the data may be stored in an external storage medium such as a CD-ROM or a DVD-ROM.
【0023】たとえば、システム10はオペレータがキ
ーボード18に設けられたリターンキー(図示せず)を
操作すると、ROM44のメモリエリア44aに記憶さ
れたナビゲーションのプログラムに従ってナビゲーショ
ンが開始される。すると、ディスプレイ16の文字を表
示する部分に初期画面が表示される。また、ROM44
のメモリエリア44cからナビゲーションのための文字
ファイルが読み出され、RAM42のワーキングエリア
42cに書き込まれる。さらに、ROM44のメモリエ
リア44dに記憶された音声合成ファイルが読み出さ
れ、RAM42のワーキングエリア42dに書き込まれ
る。さらにまた、ROM44のメモリエリア44eに記
憶された音声認識用データが読み出され、RAM42の
ワーキングエリア44eに書き込まれる。For example, in the system 10, when an operator operates a return key (not shown) provided on the keyboard 18, navigation is started according to a navigation program stored in a memory area 44a of the ROM 44. Then, an initial screen is displayed on a portion of the display 16 where characters are displayed. Also, the ROM 44
A character file for navigation is read from the memory area 44c of the RAM 42 and written into the working area 42c of the RAM 42. Further, the speech synthesis file stored in the memory area 44d of the ROM 44 is read and written in the working area 42d of the RAM 42. Furthermore, the voice recognition data stored in the memory area 44e of the ROM 44 is read and written into the working area 44e of the RAM 42.
【0024】初期画面では、ナビゲーションを受けたい
地域や目的地などを入力するための項目が順次表示され
る。また、女性または男性の声で“入力して下さい。”
などのメッセージをスピーカ48から出力するようにし
てもよい。On the initial screen, items for inputting a region, a destination, and the like for which navigation is desired are sequentially displayed. Also, "Please enter."
Such a message may be output from the speaker 48.
【0025】したがって、オペレータは、マイク46を
介して音声で地域や目的地などを入力する。入力が終了
すると、地域や目的地などはCPU32の指示に従って
RAM42のワーキングエリア42aに一旦格納され
る。CPU32は、ワーキングエリア42a内の地域や
目的地などを参照して、これに応じた地図データをRO
M44のメモリエリア44bから読み出し、RAM42
のワーキングエリア42bに書き込む。続いて、ワーキ
ングエリア42bに書き込まれた地図データが、CPU
32の指示に従って画像生成回路38に与えられ、ディ
スプレイ16に地図が表示される。たとえば、図5
(B)に示すような、初期画面で入力した地域の全体を
含む地図(指定地域)がディスプレイ16に表示され
る。Therefore, the operator inputs a region, a destination, and the like by voice through the microphone 46. When the input is completed, the area, the destination, and the like are temporarily stored in the working area 42a of the RAM 42 according to the instruction of the CPU 32. The CPU 32 refers to an area, a destination, and the like in the working area 42a, and outputs map data corresponding to the area to the RO.
Read from the memory area 44b of the M44 and the RAM 42
Is written in the working area 42b. Subsequently, the map data written in the working area 42b is
The instruction is given to the image generation circuit 38 in accordance with the instruction of 32, and the map is displayed on the display 16. For example, FIG.
A map (designated area) including the entire area input on the initial screen as shown in (B) is displayed on the display 16.
【0026】また、CPU32は、ナビゲーションのた
めの文字データをRAM42のワーキングエリア42c
から読み出し、画像生成回路38に与える。したがっ
て、ディスプレイ16にたとえば“範囲を指定して下さ
い。”などの文字が表示される。つまり、指定地域とナ
ビゲーションのための文字とが、ディスプレイ16に表
示される。The CPU 32 stores character data for navigation in the working area 42c of the RAM 42.
And supplies the image data to the image generation circuit 38. Therefore, characters such as "Please specify a range" are displayed on the display 16. That is, the designated area and characters for navigation are displayed on the display 16.
【0027】さらに、CPU32は、“範囲を指定して
下さい。”に対応する音声合成データをRAM42のワ
ーキングエリア42dから読み出し、音声合成回路36
に与える。したがって、“範囲を指定して下さい。”と
いう音声がスピーカ48から出力される。Further, the CPU 32 reads out the voice synthesis data corresponding to “Specify a range.” From the working area 42 d of the RAM 42, and
Give to. Therefore, the voice “Please specify the range.” Is output from the speaker 48.
【0028】これに応じて、オペレータがたとえばキー
ボード18に設けられたタッチパッド(図示せず)でマ
ウスポインタ(図示せず)を移動させ、範囲を指定す
る。具体的には、指定したい範囲の略中央にマウスポイ
ンタを移動させ、エンターキー(図示せず)を押すと、
図5(B)に示すような予め決定された枠が表示され
る。なお、ドラッグして範囲を変更することもできる。In response, the operator moves a mouse pointer (not shown) using, for example, a touch pad (not shown) provided on keyboard 18 to designate a range. Specifically, move the mouse pointer to approximately the center of the range you want to specify, and press the enter key (not shown).
A predetermined frame as shown in FIG. 5B is displayed. Note that the range can be changed by dragging.
【0029】範囲の指定が終了し、オペレータが“この
辺には何がありますか?”と音声入力(質問)すると、
これに応じて、CPU32が文字データおよびそれに対
応する音声合成データを選択して、“この辺には○○や
△△があります。”などと返答し、続いて“この辺には
来たことがありますか?”などと質問する。When the designation of the range is completed and the operator voice-inputs (question) "What is in this area?"
In response to this, the CPU 32 selects the character data and the corresponding voice synthesis data, and replies, for example, "This side has XX or に は.""?"
【0030】これに応じて、オペレータが“はい”と返
答すると、つまり指定した範囲に来たことがある場合に
は、CPU32が文字データおよびそれに対応する音声
合成データを選択して、たとえば“○○に行きますか
?”などと質問をする。ここで、オペレータが“はい”
と返答すると、CPU32は、画像生成回路38を制御
して、設けられた位置から○○までの距離が最短となる
地図上の道を点灯させるなどして示し、また文字データ
およびそれに対応する音声合成データを選択して、“こ
の道を通って下さい。”などと文字を表示するととも
に、音声で出力する。このようにして、オペレータはナ
ビゲートされる。In response to this, if the operator replies "Yes", that is, if the operator has come to the designated range, the CPU 32 selects the character data and the corresponding voice synthesis data and, for example, selects "O". Do you go to ○? " Here, the operator says "Yes"
The CPU 32 controls the image generation circuit 38 to light the road on the map where the distance from the provided position to ○ is the shortest, and also displays the character data and the corresponding voice Select the synthesized data, display characters such as "Please follow this road.", And output by voice. In this way, the operator is navigated.
【0031】一方、オペレータが“いいえ”と返答する
と、つまり指定した範囲に来たことがない場合には、C
PU32はROM44のメモリエリア44bから詳細度
が高い画像ファイルを読み出し、RAM42のワーキン
グエリア42bに書き込む。したがって、図5(C)で
示すように、指定地域が詳細表示される。また、CPU
32は、文字データおよびそれに対応する音声合成デー
タを選択し、たとえば“△△に行ってみますか?”など
と質問をする。ここで、オペレータが“いいえ”と返答
すると、CPU32は、文字データおよびそれに対応す
る音声データを選択して、“それでは、○○に行ってみ
ますか?”と質問する。ここで、オペレータが“はい”
と返答すると、上述のようなナビゲーションを実行す
る。一方、“いいえ”と返答すると、再びROM44の
メモリエリア44bに記憶された詳細度が普通(中)で
ある画像ファイルを読み出し、RAM42のワーキング
エリア42bに書き込む。したがって、図5(B)に示
すような指定範囲の地図が再表示される。また、CPU
32は文字データおよびそれに対応する音声合成データ
を選択し、“範囲を指定して下さい。”というメッセー
ジを出力する。On the other hand, if the operator replies "No", that is, if the operator has not come to the specified range, C
The PU 32 reads an image file with a high degree of detail from the memory area 44 b of the ROM 44 and writes the read image file into the working area 42 b of the RAM 42. Therefore, the designated area is displayed in detail as shown in FIG. Also, CPU
32 selects character data and corresponding speech synthesis data, and asks, for example, "Would you like to go to $?" If the operator replies "No", the CPU 32 selects the character data and the voice data corresponding to the character data, and asks "Would you like to go to XX?" Here, the operator says "Yes"
, The navigation as described above is executed. On the other hand, if "No" is replied, the image file having the normal (medium) detail level stored in the memory area 44b of the ROM 44 is read out again and written into the working area 42b of the RAM 42. Therefore, the map of the designated range as shown in FIG. 5B is displayed again. Also, CPU
Reference numeral 32 selects character data and voice synthesis data corresponding to the character data, and outputs a message "Specify a range."
【0032】また、オペレータが初期画面で入力した地
域の周辺についての情報を知りたい場合には、オペレー
タがたとえば“周辺を見たい。”などと入力すると、C
PU32はROM44のメモリエリア44bから詳細度
が低い画像ファイルを読み出し、RAM42のワーキン
グエリア42bに書き込む。したがって、図5(A)に
示すような指定地域およびその周辺を含む地図(周辺地
図)が表示される。また、CPU32は文字データおよ
び音声合成データを選択し、“どの辺りを見ますか?”
または“範囲を指定して下さい。”などのメッセージを
出力する。If the operator wants to know information about the area around the area entered by the operator on the initial screen, the operator inputs, for example, "I want to see the surroundings."
The PU 32 reads an image file with a low degree of detail from the memory area 44b of the ROM 44, and writes the read image file into the working area 42b of the RAM 42. Therefore, a map (surrounding map) including the designated area and its surroundings as shown in FIG. 5A is displayed. The CPU 32 selects character data and speech synthesis data, and asks "Where do you want to look?"
Or output a message such as "Specify the range."
【0033】このように、オペレータが入力する言語情
報に応じて、表示する地図およびナビゲーションのため
の文字を選択して提示することができる。As described above, a map to be displayed and characters for navigation can be selected and presented according to the language information input by the operator.
【0034】なお、この実施例では、オペレータが“は
い”、“いいえ”および質問等を音声入力するようにし
ているが、接触(手)入力するようにしてもよい。つま
り、キーボード18に設けらたキー(図示せず)で入力
したり、またタッチパネル(図示せず)などで入力すれ
ば、より詳細な情報を入力することができる。In this embodiment, the operator inputs "yes", "no", questions, and the like by voice, but may input by contact (hand). That is, more detailed information can be input by inputting with a key (not shown) provided on the keyboard 18 or inputting with a touch panel (not shown).
【0035】また、音声認識回路40で認識した言葉を
ディスプレイ16に表示して、オペレータの確認を取る
ようにすれば、入力ミスを防止することができる。Further, if the words recognized by the voice recognition circuit 40 are displayed on the display 16 so as to be checked by the operator, an input error can be prevented.
【0036】さらに、マウスポインタの代わりに案内エ
ージェントAをコンピュータグラフィックス(CG)の
手法でディスプレイ16に表示すれば、案内エージェン
トAがナビゲーションしているように演出することがで
きる。Further, if the guide agent A is displayed on the display 16 by computer graphics (CG) instead of the mouse pointer, it is possible to produce an effect as if the guide agent A is navigating.
【0037】図6に示す他の実施例のシステム10は、
ディスプレイ16に案内エージェントAおよび被案内エ
ージェントBを表示してナビゲーションを実行する以外
は上述の実施例と同様であるため、重複した箇所の説明
は省略する。The system 10 of another embodiment shown in FIG.
Except that the guidance agent A and the guided agent B are displayed on the display 16 and the navigation is executed, the description is the same as that of the above-described embodiment, and the description of the duplicated portions will be omitted.
【0038】つまり、ROM44には、さらにメモリエ
リア44fおよび44gが設けられ、メモリエリア44
fには、案内エージェントAをCGの手法でディスプレ
イ16に表示するためのキャラクタデータが記憶され
る。また、メモリエリア44gには、被案内エージェン
トB、つまりオペレータに対応するエージェントをCG
の手法でディスプレイ16に表示するためのキャラクタ
データが記憶される。That is, the ROM 44 is further provided with memory areas 44f and 44g.
In f, character data for displaying the guidance agent A on the display 16 by the CG method is stored. In the memory area 44g, the guided agent B, that is, the agent corresponding to the operator is CG
The character data to be displayed on the display 16 is stored by the above method.
【0039】この他の実施例のシステム10では、ナビ
ゲーションが開始して初期画面で地域および目的地など
の情報が入力されると、上述の実施例と同様に、図7
(B)に示すような指定地域の地図が表示される。な
お、図7では、エージェントを分かり易く説明するた
め、図5に示すような地図は省略してある。また、RO
M44のメモリエリア44fおよびメモリエリア44g
に記憶された案内エージェントAおよび被案内エージェ
ントBに対応するキャラクタデータがCPU32の指示
に従って読み出され、それぞれ対応するRAM42のワ
ーキングエリア44fおよびワーキングエリア44gに
書き込まれる。続いて、案内エージェントAおよび被案
内エージェントBに対応するキャラクタデータが、CP
U32の指示に従ってRAM42から読み出され、画像
生成回路38に与えられる。したがって、地図上に2つ
のエージェントが表示される。In the system 10 of the other embodiment, when navigation is started and information such as a region and a destination is input on the initial screen, as in the above-described embodiment, FIG.
A map of the designated area as shown in (B) is displayed. In FIG. 7, a map as shown in FIG. 5 is omitted for easy understanding of the agent. Also, RO
M44 memory area 44f and memory area 44g
The character data corresponding to the guidance agent A and the guided agent B stored in the RAM 32 are read out according to the instruction of the CPU 32, and written into the corresponding working areas 44f and 44g of the RAM 42, respectively. Subsequently, character data corresponding to the guidance agent A and the guided agent B is CP
The data is read from the RAM 42 according to the instruction of U32, and supplied to the image generation circuit 38. Therefore, two agents are displayed on the map.
【0040】オペレータは、ディスプレイ16上に表示
された案内エージェントAが情報を発声し、ナビゲーシ
ョンしていると感じる。また、自分の分身である被案内
エージェントBが地図上に表示されるため、オペレータ
はあたかもその地図上に存在しているかのように、案内
エージェントAからの質問に対して返答したり、逆に簡
単な質問をすることができる。The operator feels that the guidance agent A displayed on the display 16 is uttering information and performing navigation. Further, since the guided agent B, which is his / her alter ego, is displayed on the map, the operator responds to the question from the guidance agent A as if it exists on the map, and conversely, Ask simple questions.
【0041】上述のように、この他の実施例では、地図
上に案内エージェントAおよび被案内エージェントBを
表示するので、その位置関係に応じて簡単な指示語
(“そっち”、“こっち”、“あっち”、“向こう”お
よび“手前”など)を用いて範囲を指定したり、情報を
得ることができる。すなわち、図8(A)および(B)
に示すように、案内エージェントAが主体となる場合と
被案内エージェントBが主体となる場合とでは、指示語
が異なるため、実線および点線で示す各領域に応じて指
示語を使い分けるように、CPU32は案内エージェン
トAが発する言葉を選択する。また、オペレータも被案
内エージェントBとして、各領域に応じて指示語を使い
分けて質問や返答を入力する。なお、図8においても、
エージェント等を分かり易く説明するため、図5に示す
ような地図は省略してある。As described above, in the other embodiment, since the guide agent A and the guided agent B are displayed on the map, simple instruction words (“that”, “this”, "Over,""over," and "foreground" can be used to specify a range or obtain information. That is, FIGS. 8A and 8B
As shown in FIG. 7, since the instruction word is different between the case where the guidance agent A is the main agent and the case where the guided agent B is the main agent, the CPU 32 uses the instruction word in accordance with each area indicated by the solid line and the dotted line. Selects a word spoken by the guidance agent A. Further, the operator, as the guided agent B, inputs a question or a reply by using a designated word depending on each area. In addition, also in FIG.
A map as shown in FIG. 5 is omitted for easy understanding of agents and the like.
【0042】具体的には、オペレータが“そっちには何
がありますか?”と質問をすると、これに応じてCPU
32は案内エージェントAが発する言葉を選択し、つま
り文字データおよび音声合成データを選択し、“こっち
には○○があります。”と返答し、続いて“こっちに来
たことがありますか?”などと質問をする。Specifically, when the operator asks "What is there over there?", The CPU responds accordingly.
Numeral 32 selects a word uttered by the guidance agent A, that is, selects character data and voice synthesis data, and replies, "I have XX here.", And then, "Have you ever come here?" Ask questions.
【0043】ここで、オペレータが“そっちには行った
ことがあるよ。”と返答すると、これに応じてCPU3
2が文字データおよび音声合成データを選択し、案内エ
ージェントAが“○○に行きますか?”などの質問をす
る。ここで、オペレータが“はい”と返答すると、CP
U32は、図1実施例で説明したようなナビゲーション
を実行する。Here, when the operator replies, "I have been there."
2 selects character data and speech synthesis data, and the guidance agent A asks a question such as "Are you going to XX?" Here, when the operator replies “yes”, the CP
U32 executes the navigation as described in the embodiment of FIG.
【0044】一方、オペレータが“そっちには行ったこ
とがないよ。”と返答すると、これに応じてCPU32
がROM44のメモリエリア44bに記憶された詳細度
が高い画像ファイルを読み出し、RAM42のワーキン
グエリア42bに書き込む。したがって、図7(C)に
示すような案内エージェントAが存在する場所の詳細地
図が表示される。また、CPU32は、文字データおよ
び音声合成データを選択し、案内エージェントAが“○
○に行きますか?”などと質問する。ここで、オペレー
タが“いいえ”と返答すると、CPU32の指示に従っ
て再び図7(B)に示すような指定範囲の地図が表示さ
れ、たとえば“それでは、あっちですか?それとも、向
こうですか?”などと質問する。On the other hand, if the operator replies, "I have not been there," the CPU 32 responds accordingly.
Reads an image file with a high degree of detail stored in the memory area 44b of the ROM 44 and writes it in the working area 42b of the RAM 42. Therefore, a detailed map of the place where the guidance agent A exists as shown in FIG. 7C is displayed. Further, the CPU 32 selects the character data and the speech synthesis data, and the guidance agent A determines ““ ”.
Are you going to ○ Here, if the operator replies "No", a map of the designated range as shown in FIG. 7B is displayed again according to the instruction of the CPU 32. For example, "Where is that? Or is it over? And so on.
【0045】これに応じて、オペレータが“あっちで
す。”と入力すると、CPU32は文字データおよび音
声合成データを選択し、案内エージェントAが“向こう
には、△△や□□があります。”などと返答する。In response to this, when the operator inputs "that way.", The CPU 32 selects character data and speech synthesis data, and the guidance agent A sends "There are @ and □□ over there." Reply.
【0046】なお、図7(A)に示すような指定範囲の
周辺を見たい場合には、図1実施例と同様に、オペレー
タが“周辺が見たい。”などと入力すればよい。When the operator wants to see the periphery of the designated range as shown in FIG. 7A, the operator may input "I want to see the periphery" as in the embodiment of FIG.
【0047】これらの実施例によれば、オペレータに対
してシステムから能動的に質問をなげかけ、オペレータ
が入力する言語情報に応じて提示する画像データおよび
文字データを変更するので、簡単な操作でオペレータに
適した情報を提示することができる。According to these embodiments, the system actively asks a question to the operator and changes the image data and character data to be presented according to the language information input by the operator. Suitable information can be presented.
【0048】なお、この実施例では、システムを観光地
のナビゲーションシステムに適用した場合について示し
たが、いわゆるカーナビ、店内ナビゲーション、テーマ
パークのナビゲーションおよびネット上のチャットのた
めのナビゲーションなどにも適用することができる。In this embodiment, the case where the system is applied to a navigation system at a tourist spot has been described, but the present invention is also applied to so-called car navigation, in-store navigation, theme park navigation, navigation for online chat, and the like. be able to.
【図1】この発明の一実施例を示す図解図である。FIG. 1 is an illustrative view showing one embodiment of the present invention;
【図2】図1実施例に示すディスプレイを示す図解図で
ある。FIG. 2 is an illustrative view showing a display shown in FIG. 1 embodiment;
【図3】図1実施例に示すシステムの電気的な内部構成
を示す図解図である。FIG. 3 is an illustrative view showing an electric internal configuration of the system shown in FIG. 1 embodiment;
【図4】図1実施例に示すROMのメモリエリアに記憶
された地図データを示す図解図である。FIG. 4 is an illustrative view showing map data stored in a memory area of a ROM shown in the embodiment in FIG. 1;
【図5】図1実施例に示すディスプレイに示される地図
の表示例を示す図解図である。FIG. 5 is an illustrative view showing a display example of a map shown on the display shown in FIG. 1 embodiment;
【図6】この発明の他の実施例のシステムの電気的な内
部構成を示す図解図である。FIG. 6 is an illustrative view showing an electrical internal configuration of a system according to another embodiment of the present invention;
【図7】図6実施例に示すディスプレイに示される地図
およびエージェントの表示例を示す図解図である。7 is an illustrative view showing a display example of a map and an agent shown on the display shown in the embodiment in FIG. 6;
【図8】図6実施例に示すディスプレイの各領域に応じ
て使用する指示語を示す図解図である。FIG. 8 is an illustrative view showing a designation word used according to each area of the display shown in FIG. 6 embodiment;
10 …ナビゲーションシステム 16 …ディスプレイ 18 …キーボード 30 …コンピュータ 32 …CPU 36 …音声合成回路 38 …画像生成回路 40 …音声認識回路 42 …RAM 44 …ROM 46 …マイク 48 …スピーカ Reference Signs List 10 navigation system 16 display 18 keyboard 30 computer 32 CPU 36 voice synthesis circuit 38 image generation circuit 40 voice recognition circuit 42 RAM 44 ROM 46 microphone 48 speaker
フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) // G01S 5/14 (72)発明者 片桐 恭弘 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール知能映 像通信研究所内 Fターム(参考) 2C032 HC08 HC16 HC31 HD03 2F029 AA02 AB07 AB13 AC02 AC09 AC16 AC18 5D015 HH08 HH23 KK02 KK04 LL06 5H180 AA01 BB13 CC12 EE01 FF05 FF22 FF25 FF32 5J062 AA05 BB01 CC07 HH05 Continued on the front page (51) Int.Cl. 7 Identification FI FI Theme Court II (Reference) // G01S 5/14 (72) Inventor Yasuhiro Katagiri Kyoto Prefecture F-term (reference) in the Intelligent Imaging Communications Research Laboratory 2C032 HC08 HC16 HC31 HD03 2F029 AA02 AB07 AB13 AC02 AC09 AC16 AC18 5D015 HH08 HH23 KK02 KK04 LL06 5H180 AA01 BB13 CC12 EE01 FF05 FF22 FF25 H0505B06
Claims (6)
ーションのための文字情報を前記ディスプレイおよび/
またはスピーカから出力するナビゲーションシステムで
あって、 複数の前記画像情報を記憶する第1メモリ、 複数の前記文字情報を記憶する第2メモリ、 前記ユーザが入力する言語情報に応じて1つの前記画像
情報を選択する第1選択手段、および前記言語情報に応
じて1つの前記文字情報を選択する第2選択手段を備え
る、ナビゲーションシステム。An image information is displayed on a display, and character information for navigation is displayed on the display and / or the display.
Or a navigation system that outputs from a speaker, a first memory that stores a plurality of the image information, a second memory that stores a plurality of the character information, and one piece of the image information according to language information input by the user. And a second selection unit that selects one piece of the character information according to the language information.
らに備える、請求項1記載のナビゲーションシステム。2. The navigation system according to claim 1, further comprising voice input means for inputting said language information.
に備える、請求項1または2記載のナビゲーションシス
テム。3. The navigation system according to claim 1, further comprising manual input means for inputting said language information.
くとも2以上の画像ファイルを含む、請求項1ないし3
のいずれかに記載のナビゲーションシステム。4. The image information according to claim 1, wherein said plurality of image information includes at least two or more image files having different levels of detail.
The navigation system according to any one of the above.
前記ディスプレイに表示する第1表示手段をさらに備え
る、請求項1ないし4のいずれかに記載のナビゲーショ
ンシステム。5. The navigation system according to claim 1, further comprising a first display means for displaying a guidance agent emitting said character information on said display.
ントを前記ディスプレイに表示する第2表示手段をさら
に備える、請求項5記載のナビゲーションシステム。6. The navigation system according to claim 5, further comprising second display means for displaying a guided agent corresponding to said operator on said display.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP32046999A JP2001141497A (en) | 1999-11-11 | 1999-11-11 | Navigation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP32046999A JP2001141497A (en) | 1999-11-11 | 1999-11-11 | Navigation system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001141497A true JP2001141497A (en) | 2001-05-25 |
Family
ID=18121811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP32046999A Pending JP2001141497A (en) | 1999-11-11 | 1999-11-11 | Navigation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001141497A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005064275A1 (en) * | 2003-12-26 | 2005-07-14 | Matsushita Electric Industrial Co., Ltd. | Navigation device |
JP2010055375A (en) * | 2008-08-28 | 2010-03-11 | Toshiba Corp | Electronic apparatus operation instruction device and operating method thereof |
-
1999
- 1999-11-11 JP JP32046999A patent/JP2001141497A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005064275A1 (en) * | 2003-12-26 | 2005-07-14 | Matsushita Electric Industrial Co., Ltd. | Navigation device |
JP2010055375A (en) * | 2008-08-28 | 2010-03-11 | Toshiba Corp | Electronic apparatus operation instruction device and operating method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4270611B2 (en) | Input system | |
JP4292646B2 (en) | User interface device, navigation system, information processing device, and recording medium | |
EP3909028A1 (en) | Multimodal user interface for a vehicle | |
NL1031202C2 (en) | Navigation device and method for receiving and playing sound samples. | |
US20070156331A1 (en) | Navigation device | |
JPH09292255A (en) | Navigation method and navigation system | |
JP3842497B2 (en) | Audio processing device | |
JP2817340B2 (en) | Voice guidance device | |
JPH08193837A (en) | Navigation system | |
JP2001141497A (en) | Navigation system | |
JP3818352B2 (en) | Navigation device and storage medium | |
JP3337083B2 (en) | In-vehicle navigation device | |
JP2008032629A (en) | Navigation system | |
JP2006010509A (en) | Navigation system | |
JPH07168691A (en) | Selecting system for display graphic area | |
JP2003029778A (en) | Voice interactive interface processing method in navigation system | |
JP5037041B2 (en) | On-vehicle voice recognition device and voice command registration method | |
CN111559317B (en) | Agent device, method for controlling agent device, and storage medium | |
JPH1130525A (en) | Navigator | |
JP3358498B2 (en) | Voice recognition device and navigation system | |
JP3925368B2 (en) | Control system | |
JP4813144B2 (en) | Navigation device | |
JP2001083983A (en) | Speech recognition device, recording medium having data for speech recognition recorded therein and speech recognition navigation device | |
KR101804766B1 (en) | Voice recognition apparatus, vehicle having the same and control method for the vehicle | |
JP4652504B2 (en) | Voice recognition device and voice recognition navigation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20030722 |