JP2011080824A - Navigation device - Google Patents

Navigation device Download PDF

Info

Publication number
JP2011080824A
JP2011080824A JP2009232285A JP2009232285A JP2011080824A JP 2011080824 A JP2011080824 A JP 2011080824A JP 2009232285 A JP2009232285 A JP 2009232285A JP 2009232285 A JP2009232285 A JP 2009232285A JP 2011080824 A JP2011080824 A JP 2011080824A
Authority
JP
Japan
Prior art keywords
user
voice
touch operation
recognized
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009232285A
Other languages
Japanese (ja)
Inventor
Daisuke Hashimoto
大輔 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2009232285A priority Critical patent/JP2011080824A/en
Publication of JP2011080824A publication Critical patent/JP2011080824A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a navigation device properly performing the processing of various functions of navigation for each user. <P>SOLUTION: The navigation device includes a microphone 113 for inputting the voice of a user, a voice recognition part 114 for specifying the user from the voice input by the microphone 113 and for recognizing word sense of the voice, and a control circuit 11 which recognizes the touch operation by the user on a display monitor 16 and performs the processing concerning the navigation functions based on the user specified by the voice recognition part 114, the word sense recognized by the voice recognition part 114 and the recognized touch operation. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ナビゲーション装置に関する。   The present invention relates to a navigation device.

タッチパネルのタッチ操作と、音声認識の結果とに基づいて所定の処理を行うナビゲーション装置が従来技術として知られている(たとえば、特許文献1)。   A navigation device that performs predetermined processing based on a touch operation on a touch panel and a result of voice recognition is known as a conventional technique (for example, Patent Document 1).

特開2006−171305号公報JP 2006-171305 A

従来のナビゲーション装置では、同じタッチ操作が検出され、同じ語意が音声認識されたとき、ユーザにかかわらず画一的な処理が行われるので、操作性が悪い。   In the conventional navigation device, when the same touch operation is detected and the same word meaning is recognized by voice, uniform processing is performed regardless of the user, so that the operability is poor.

請求項1の発明のナビゲーション装置は、ユーザの音声を入力する音声入力手段と、音声入力手段によって入力された音声からユーザを特定するユーザ特定手段と、音声入力手段によって入力された音声の語意を認識する音声認識手段と、表示モニタ上におけるユーザのタッチ操作を認識するタッチ操作認識手段と、ユーザ特定手段によって特定されたユーザと、音声認識手段によって認識された語意と、タッチ操作認識手段によって認識されたタッチ操作とに基づいてナビゲーション機能に関する処理を実行する処理実行手段とを備えることを特徴とする。   The navigation device according to the first aspect of the present invention provides voice input means for inputting the user's voice, user specifying means for specifying the user from the voice input by the voice input means, and the meaning of the voice input by the voice input means. Recognizing voice recognition means, touch operation recognition means for recognizing a user's touch operation on the display monitor, user specified by the user specifying means, word meaning recognized by the voice recognition means, and recognition by the touch operation recognition means And a process execution means for executing a process related to the navigation function based on the touch operation performed.

本発明によれば、ユーザごとに適切にナビゲーションの各種機能の処理を実行することができる。   According to the present invention, it is possible to appropriately execute various navigation functions for each user.

本発明の実施形態のナビゲーション装置の構成を示すブロック図である。It is a block diagram which shows the structure of the navigation apparatus of embodiment of this invention. 本発明の実施形態におけるナビゲーション装置の機能実行処理を説明するためのフローチャートである。It is a flowchart for demonstrating the function execution process of the navigation apparatus in embodiment of this invention. 図2のステップS104の処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process of step S104 of FIG. 初期設定の登録内容を説明するための図である。It is a figure for demonstrating the registration content of an initial setting. ユーザが「目的地」と発話したときの処理を説明するための図である。It is a figure for demonstrating the process when a user utters "the destination". ユーザが「レストラン」と発話したときの処理を説明するための図である。It is a figure for demonstrating the process when a user utters "restaurant".

図1は、本発明の実施形態によるナビゲーション装置1を示す。このナビゲーション装置1は、マイク113へのユーザの発話とユーザのタッチパネル19の操作とに基づいて、所定の処理を実行する。ナビゲーション装置1は、制御回路11、ROM12、RAM13、現在地検出装置14、画像メモリ15、表示モニタ16、スピーカ17、入力装置18、タッチパネル19、タッチパネルコントロール部110、ディスクドライブ111、マイク113、音声認識部114および辞書115を有する。ディスクドライブ111には、地図データが記憶されたDVD−ROM112が装填されている。   FIG. 1 shows a navigation device 1 according to an embodiment of the present invention. The navigation device 1 executes predetermined processing based on the user's utterance to the microphone 113 and the user's operation on the touch panel 19. The navigation device 1 includes a control circuit 11, a ROM 12, a RAM 13, a current location detection device 14, an image memory 15, a display monitor 16, a speaker 17, an input device 18, a touch panel 19, a touch panel control unit 110, a disk drive 111, a microphone 113, and voice recognition. A section 114 and a dictionary 115. The disk drive 111 is loaded with a DVD-ROM 112 in which map data is stored.

制御回路11は、マイクロプロセッサ及びその周辺回路からなり、RAM13を作業エリアとしてROM12に格納された制御プログラムを実行して各種の制御を行う。また、制御回路11は、DVD−ROM112に記憶された地図データに基づいて所定の経路探索処理を行う。そして、その処理結果が推奨経路として表示モニタ16に表示される。また、制御回路11にはタイマ11aが内蔵されており、制御回路11は時間を計測することができる。   The control circuit 11 includes a microprocessor and its peripheral circuits, and performs various controls by executing a control program stored in the ROM 12 using the RAM 13 as a work area. Further, the control circuit 11 performs a predetermined route search process based on the map data stored in the DVD-ROM 112. Then, the processing result is displayed on the display monitor 16 as a recommended route. The control circuit 11 has a built-in timer 11a, and the control circuit 11 can measure time.

現在地検出装置14は車両の走行軌跡を検出する装置である。現在地検出装置14は、振動ジャイロ14a、車速センサ14b、GPS(Global Positioning System)センサ14cなどからなる。振動ジャイロ14aは車両の進行方向を検出し、車速センサ14bは車速を検出し、GPSセンサ14cはGPS衛星からのGPS信号を検出する。ナビゲーション装置1は、この現在地検出装置14により検出された車両の現在地に基づいて、地図の表示範囲や経路探索開始点などを決定するとともに、地図上にその現在地を表示する。   The current location detection device 14 is a device that detects a travel locus of the vehicle. The current location detection device 14 includes a vibration gyro 14a, a vehicle speed sensor 14b, a GPS (Global Positioning System) sensor 14c, and the like. The vibration gyro 14a detects the traveling direction of the vehicle, the vehicle speed sensor 14b detects the vehicle speed, and the GPS sensor 14c detects a GPS signal from a GPS satellite. The navigation device 1 determines a map display range, a route search start point, and the like based on the current location of the vehicle detected by the current location detection device 14, and displays the current location on the map.

画像メモリ15は、表示モニタ16に表示するための画像データを格納する。この画像データは道路地図描画用データや各種の図形データからなり、それらはDVD−ROM112に記憶された地図データに基づいて、制御回路11において適宜生成される。   The image memory 15 stores image data to be displayed on the display monitor 16. The image data includes road map drawing data and various graphic data, which are appropriately generated in the control circuit 11 based on the map data stored in the DVD-ROM 112.

DVD−ROM112には、施設データが記憶されている。施設データとは、ガソリンスタンド、レストランなどジャンル別に分類した施設(POI)に関するデータである。施設データは、施設の位置を示す位置データ、施設の住所データや電話データなどを含む。施設はいずれかのジャンルに分類されてテーブル化され、ジャンル別のアイコンにより地図上に重ねて表示される。施設アイコンを常時表示するアイコン表示モードが選択されている場合、予め定めたジャンルの施設アイコンが地図画面に表示される。
なお、以下に詳述するように、目的地設定モードにおいては、施設検索結果による画面上の施設アイコンを押圧することにより、当該施設が目的地に設定される。
The DVD-ROM 112 stores facility data. Facility data is data relating to facilities (POI) classified by genre such as gas stations and restaurants. The facility data includes location data indicating the location of the facility, facility address data, telephone data, and the like. The facilities are categorized into any genre and tabulated, and displayed on the map with icons for each genre. When the icon display mode in which the facility icons are always displayed is selected, the facility icons of a predetermined genre are displayed on the map screen.
As will be described in detail below, in the destination setting mode, the facility is set as the destination by pressing the facility icon on the screen according to the facility search result.

ディスクドライブ111は、DVD−ROM112から地図データを読み出す。地図データは、地図表示用データ、経路探索用データなどを含む。地図表示用データおよび経路探索用データには、地図データに格納されている道路のリンク情報およびノード情報が含まれている。地図表示用データは、広域から詳細まで複数の縮尺の地図データを有し、ユーザの要求にしたがって、表示地図の縮尺を変更することができる。なお、DVD−ROM112以外の他の記録メディア、たとえばCD−ROMやハードディスクなどより地図データを読み出してもよい。   The disk drive 111 reads map data from the DVD-ROM 112. The map data includes map display data, route search data, and the like. The map display data and the route search data include road link information and node information stored in the map data. The map display data has map data of a plurality of scales from wide areas to details, and the scale of the display map can be changed according to a user request. The map data may be read from a recording medium other than the DVD-ROM 112, such as a CD-ROM or a hard disk.

表示モニタ16は、地図データなどの各種情報に基づいて、自車位置付近の地図などの各種情報を表示する。スピーカ17は、各種入力操作をユーザに指示したり、経路誘導したりするための音声を出力する。入力装置18は、ユーザが各種コマンドの設定や検索条件の入力などするための操作キーを有し、操作パネル上のボタンスイッチやパネル周囲のハードスイッチなどによって実現される。ユーザは、表示モニタ16の表示画面の指示やスピーカ17からの音声指示にしたがって入力装置18を操作することにより、目的地を設定する。   The display monitor 16 displays various information such as a map near the vehicle position based on various information such as map data. The speaker 17 outputs sound for instructing the user to perform various input operations and for guiding the route. The input device 18 has operation keys for the user to set various commands and input search conditions, and is realized by a button switch on the operation panel, a hard switch around the panel, or the like. The user sets the destination by operating the input device 18 in accordance with an instruction on the display screen of the display monitor 16 or a voice instruction from the speaker 17.

タッチパネル19は、表示モニタ16の表面に積層される透明のタッチスイッチであり、表示モニタ16に表示される画像はタッチパネル19を透過して表示される。タッチパネル19は、タッチパネル19上の操作位置に応じた信号をタッチパネルコントロール部110に送出する。そして、タッチパネルコントロール部110はタッチパネル19がタッチされた位置を算出する。表示モニタ16の表示画面をタッチするとタッチパネル19がタッチされる。そして、タッチされた各種ボタンや表示メニューに定義された処理が実行される。   The touch panel 19 is a transparent touch switch laminated on the surface of the display monitor 16, and an image displayed on the display monitor 16 is displayed through the touch panel 19. The touch panel 19 sends a signal corresponding to the operation position on the touch panel 19 to the touch panel control unit 110. The touch panel control unit 110 calculates a position where the touch panel 19 is touched. When the display screen of the display monitor 16 is touched, the touch panel 19 is touched. Then, the processes defined in the various touched buttons and the display menu are executed.

目的地がユーザにより設定されると、ナビゲーション装置1は現在地検出装置14により検出された現在地を出発地として目的地までの経路演算を所定のアルゴリズムに基づいて行う。このようにして求められた経路(以下、推奨経路という)は、表示形態、たとえば表示色などを変えることによって、ほかの道路とは区別して画面表示される。これにより、ユーザは地図上の推奨経路を画面上で認識することができる。また、ナビゲーション装置1は、推奨経路にしたがって車両が走行できるように、ユーザに対して画面や音声などによる進行方向指示を行い、車両を経路誘導する。   When the destination is set by the user, the navigation device 1 performs a route calculation from the current location detected by the current location detection device 14 to the destination based on a predetermined algorithm. The route thus obtained (hereinafter referred to as a recommended route) is displayed on the screen in a manner different from other roads by changing the display form, for example, the display color. Thereby, the user can recognize the recommended route on the map on the screen. Further, the navigation device 1 instructs the user in the direction of travel using a screen or voice so that the vehicle can travel according to the recommended route, thereby guiding the route of the vehicle.

マイク113は、ユーザが発する音声を入力する。音声認識部114は、マイク113で入力された音声の音声パターンを辞書115に格納されている音声パターンと照合して音声が表す語意を認識する。その認識結果は制御回路11へ出力される。マイク113には、不図示の音声認識ボタンが設けられており、音声認識ボタンがオンされると、音声認識部114は入力された音声に対して音声認識を行う。   The microphone 113 inputs a voice uttered by the user. The voice recognition unit 114 recognizes the meaning of the voice represented by collating the voice pattern of the voice input from the microphone 113 with the voice pattern stored in the dictionary 115. The recognition result is output to the control circuit 11. The microphone 113 is provided with a voice recognition button (not shown). When the voice recognition button is turned on, the voice recognition unit 114 performs voice recognition on the input voice.

また、音声認識部114は、登録されたユーザの中から発話者を特定することができる。登録方法としては、たとえば、発話者を特定するために予め設定した語意(発話者特定語意)をマイク113に向かって複数のユーザに発話させ、音声認識部114は、各ユーザの発する音声の特徴点を抽出し、ユーザと音声パターンの特徴点とを対応付けたテーブルとして登録する。そして、ユーザがマイク113に向かって発話者特定語意を発話すると、音声認識部114は、マイク113に入力された音声の特徴点を抽出し、上記テーブルを参照して、発話者を特定する。   In addition, the voice recognition unit 114 can identify a speaker from among registered users. As a registration method, for example, a predetermined word meaning (speaker specific word meaning) for specifying a speaker is made to speak to a plurality of users toward the microphone 113, and the voice recognition unit 114 is characterized by the voices of each user. A point is extracted and registered as a table in which a user is associated with a feature point of the voice pattern. When the user utters the speaker specific meaning toward the microphone 113, the voice recognition unit 114 extracts the feature point of the voice input to the microphone 113, and specifies the speaker by referring to the table.

次に、図2のフローチャートを参照して、本発明の実施形態におけるナビゲーション装置の機能実行処理を説明する。図2の処理は、マイク113に設けられた不図示の音声認識ボタンがオンされるとスタートするプログラムにより、制御回路11において実行される。   Next, the function execution process of the navigation device in the embodiment of the present invention will be described with reference to the flowchart of FIG. The processing in FIG. 2 is executed in the control circuit 11 by a program that starts when a voice recognition button (not shown) provided in the microphone 113 is turned on.

ステップS101では、マイク113に音声が入力されたか否かを判定する。音声が入力された場合はステップS101が肯定判定され、ステップS102へ進む。音声が入力されていない場合はステップS101を繰り返す。ステップS102では、タイマ11aをスタートする。ステップS103では、タッチパネルコントロール部110が算出したタッチパネル19のタッチされた位置に基づいて、タッチパネルにタッチ操作があったか否かを判定する。タッチ操作があった場合はステップS103が肯定判定され、ステップS104へ進む。タッチ操作がない場合はステップS103が否定判定され、ステップS106へ進む。   In step S101, it is determined whether or not sound is input to the microphone 113. If a voice is input, an affirmative determination is made in step S101, and the process proceeds to step S102. If no voice is input, step S101 is repeated. In step S102, the timer 11a is started. In step S103, based on the touched position of the touch panel 19 calculated by the touch panel control unit 110, it is determined whether or not a touch operation has been performed on the touch panel. If there is a touch operation, an affirmative decision is made in step S103, and the process proceeds to step S104. If there is no touch operation, a negative determination is made in step S103, and the process proceeds to step S106.

ステップS104では、音声認識&タッチ操作モード処理を実行する。音声認識&タッチ操作モード処理の詳細は後述する。ステップS105では、マイク113に設けられた不図示の音声認識ボタンがオフされたか否かを判定する。音声認識ボタンがオフされた場合はステップS105が肯定判定され、ナビゲーション装置の機能実行処理を終了する。音声認識ボタンがオンの状態である場合はステップS105が否定判定され、ステップS101に戻る。   In step S104, voice recognition & touch operation mode processing is executed. Details of the voice recognition & touch operation mode processing will be described later. In step S105, it is determined whether or not a voice recognition button (not shown) provided on the microphone 113 is turned off. When the voice recognition button is turned off, an affirmative determination is made in step S105, and the function execution process of the navigation device is terminated. If the voice recognition button is on, a negative determination is made in step S105, and the process returns to step S101.

ステップS106では、タイマ11aがスタートしてから所定時間経過したか否かを判定する。所定時間経過した場合はステップS106が肯定判定され、ステップS107へ進む。まだ所定時間を経過していない場合はステップS106が否定判定され、ステップS103に戻る。ステップS107では、通常音声認識モード処理を実行する。通常音声認識モード処理は、マイク113から入力された音声を認識し、その認識結果に基づいて処理を実行するというモードである。通常音声認識モード処理は、通常の音声認識による処理と変わらないので、通常音声認識モード処理の説明は省略するが、たとえば、ユーザにかかわらず、入力した発話内容を認識した結果による処理を行うものである。そして、ステップS105へ進む。   In step S106, it is determined whether or not a predetermined time has elapsed since the timer 11a was started. If the predetermined time has elapsed, an affirmative determination is made in step S106, and the process proceeds to step S107. If the predetermined time has not yet elapsed, a negative determination is made in step S106, and the process returns to step S103. In step S107, normal speech recognition mode processing is executed. The normal voice recognition mode process is a mode in which the voice input from the microphone 113 is recognized and the process is executed based on the recognition result. Normal speech recognition mode processing is not different from normal speech recognition processing, so description of normal speech recognition mode processing will be omitted. For example, regardless of the user, processing based on the result of recognizing the input speech content is performed. It is. Then, the process proceeds to step S105.

次に、図3を参照して、図2のステップS104の音声認識&タッチ操作モード処理を説明する。   Next, with reference to FIG. 3, the voice recognition & touch operation mode process in step S104 of FIG. 2 will be described.

ステップS201では、マイク113から入力された音声を分析する。ステップS202では、音声認識部114に発話内容を認識させる。ステップS203では、音声認識部114に対してユーザを特定する処理を実行させる。   In step S201, the voice input from the microphone 113 is analyzed. In step S202, the speech recognition unit 114 is made to recognize the utterance content. In step S203, the voice recognition unit 114 is caused to execute a process for specifying a user.

ステップS204では、タッチパネルコントロール部110によって算出されたタッチパネル19のタッチ位置に基づいて、どのようなタッチ操作が行われたかを認識する。ステップS205では、ステップS202で認識された発話内容(語意)と、ステップS203で特定されたユーザと、ステップS204で認識されたタッチ操作とに基づいてナビゲーション装置1が実行する処理を決定する。ステップS206では、ステップS205で決定された処理をナビゲーション装置1に実行させる。   In step S204, based on the touch position of the touch panel 19 calculated by the touch panel control unit 110, it is recognized what touch operation has been performed. In step S205, processing to be executed by the navigation device 1 is determined based on the utterance content (meaning) recognized in step S202, the user specified in step S203, and the touch operation recognized in step S204. In step S206, the navigation apparatus 1 is caused to execute the process determined in step S205.

たとえば、図4に示すように、ユーザAが「目的地」と発話したときは、タッチした位置に目的地を設定し、ユーザBが「目的地」と発話したときは、タッチした位置を中心としてレジャー施設の周辺施設検索を行うように、初期設定で登録しておく。また、ユーザAが「レストラン」と発話したときは、タッチ操作で指定した範囲において中華料理店の施設検索を行い、ユーザBが「レストラン」と発話したときは、タッチ操作で指定した範囲において日本料理店の施設検索を行うように初期設定で登録しておく。   For example, as shown in FIG. 4, when user A speaks “destination”, the destination is set at the touched position, and when user B speaks “destination”, the touched position is centered. As a default, registration is performed so that the peripheral facility search of the leisure facility is performed. In addition, when user A speaks “restaurant”, the facility search of the Chinese restaurant is performed within the range specified by the touch operation, and when user B speaks “restaurant”, Japan is searched within the range specified by the touch operation. Register by default to search for restaurant facilities.

そして、ユーザAが「目的地」と発話して、表示モニタ16に表示された地図20をタッチすると、図5(a)に示すように、タッチした位置21に目的地が設定される。一方、ユーザBが「目的地」と発話して、表示モニタ16に表示された地図20をタッチすると、図5(b)に示すように、タッチした位置21を中心としてレジャー施設の周辺施設検索が行われ、検索された施設のアイコン22a〜22cが地図20上に表示される。ユーザがアイコン22a〜22cのいずれかをタッチすると、タッチされたアイコンの施設が目的地として設定される。   Then, when the user A speaks “Destination” and touches the map 20 displayed on the display monitor 16, the destination is set at the touched position 21 as shown in FIG. On the other hand, when the user B speaks “destination” and touches the map 20 displayed on the display monitor 16, as shown in FIG. And the searched facility icons 22 a to 22 c are displayed on the map 20. When the user touches any of the icons 22a to 22c, the facility of the touched icon is set as the destination.

また、ユーザAが「レストラン」と発話して、表示モニタ16に表示された地図20上にタッチ操作で矩形形状23を描くと、図6(a)に示すように、矩形形状23内の中華料理店が検索され、検索された施設のアイコン24a〜24cが地図20上に表示される。一方、ユーザBが「レストラン」と発話して、表示モニタ16に表示された地図20上にタッチ操作で矩形形状23を描くと、図6(b)に示すように、矩形形状23内の日本料理店が検索され、検索された施設のアイコン25a〜25cが地図20上に表示される。施設アイコンボタンを押圧すると目的地設定処理が実行される。   Further, when the user A speaks “restaurant” and draws the rectangular shape 23 on the map 20 displayed on the display monitor 16 by a touch operation, as shown in FIG. A restaurant is searched, and icons 24 a to 24 c of the searched facilities are displayed on the map 20. On the other hand, when the user B speaks “restaurant” and draws the rectangular shape 23 on the map 20 displayed on the display monitor 16 by touch operation, as shown in FIG. The restaurant is searched, and icons 25a to 25c of the searched facilities are displayed on the map 20. When the facility icon button is pressed, the destination setting process is executed.

以上の実施の形態によるナビゲーション装置1は次のような作用効果を奏する。
(1)ナビゲーション装置1は、マイク113により音声が入力されると、その音声から発話者であるユーザを特定すると共に、その音声の語意を認識する。また、表示モニタ16の表示画面上に設けられたタッチパネル19におけるユーザのタッチ操作を認識する。そして、特定されたユーザと、認識された語意と、認識されたタッチ操作とに基づいて、ナビゲーション装置1の機能に関する処理を実行するようにした。これにより、ナビゲーション装置1は、ユーザごとに適切な処理を実行することができる。
The navigation device 1 according to the above embodiment has the following operational effects.
(1) When the voice is input from the microphone 113, the navigation device 1 identifies the user who is the speaker from the voice and recognizes the meaning of the voice. Further, the user's touch operation on the touch panel 19 provided on the display screen of the display monitor 16 is recognized. And the process regarding the function of the navigation apparatus 1 was performed based on the identified user, the recognized word meaning, and the recognized touch operation. Thereby, the navigation apparatus 1 can perform an appropriate process for every user.

(2)ナビゲーション装置1は、ユーザAを特定し、目的地という語意を認識し、1点のタッチを認識した場合、そのタッチ位置21に目的地を設定する。一方、ユーザBを特定し、目的地という語意を認識し、1点のタッチを認識した場合、そのタッチ位置21を中心としてレジャー施設の周辺検索を行うようにした。これにより、地図上の地点を指定して目的地を設定することが多いユーザAに対しても、レジャー施設の周辺施設検索を行ってから目的地を設定することが多いユーザBに対しても、適切な処理を実行することができる。 (2) The navigation apparatus 1 identifies the user A, recognizes the word meaning of the destination, and sets the destination at the touch position 21 when the touch of one point is recognized. On the other hand, when the user B is identified, the word meaning of the destination is recognized, and a touch of one point is recognized, the vicinity of the leisure facility is searched with the touch position 21 as the center. As a result, even for user A who often designates a point on the map and sets a destination, and for user B who often sets a destination after searching for facilities around the leisure facility Appropriate processing can be executed.

(3)またナビゲーション装置1は、音声認識部114によって認識された語意に基づいて、タッチ操作によって指定される範囲23内の施設検索を行うことができる。この場合、音声認識部114によって認識された語意(たとえば「レストラン」)が同じであっても、ユーザAが特定されたときと、ユーザBが特定されたときとで検索する施設のジャンル(中華料理店、日本料理店)を変更するようにした。これにより、中華料理が好きなユーザAに対しても、日本料理の好きなユーザBに対しても、適切な処理を実行することができる。 (3) Moreover, the navigation apparatus 1 can perform the facility search within the range 23 designated by the touch operation based on the meaning of the word recognized by the voice recognition unit 114. In this case, even if the word meaning (for example, “restaurant”) recognized by the voice recognition unit 114 is the same, the genre of the facility (Chinese Chinese) to be searched when the user A is specified and when the user B is specified. The restaurant (Japanese restaurant) was changed. Thereby, appropriate processing can be executed for both user A who likes Chinese cuisine and user B who likes Japanese cuisine.

(4)音声認識部114は、ナビゲーション機能に関してユーザが発話する一つの音声に基づいて、ユーザを特定するとともに、発話した語意を認識するようにした。これにより、音声を認識する装置の他にユーザを特定する装置を別途設けなくてもよい。 (4) The voice recognition unit 114 identifies the user based on one voice uttered by the user regarding the navigation function, and recognizes the meaning of the spoken word. Thereby, it is not necessary to separately provide a device for identifying the user in addition to the device for recognizing the voice.

以上の実施の形態のナビゲーション装置1を次のように変形することができる。
(1)前述のようにナビゲーション装置1は、ユーザAを特定し、目的地という語意を認識し、1点のタッチを認識した場合、タッチ位置に目的地を設定する一方で、ユーザBを特定し、目的地という語意を認識し、1点のタッチを認識した場合、タッチ位置を中心としてレジャー施設の周辺検索を行うようにする。このとき音声認識部114で認識される語意は、目的地に関する語意であれば、「目的地」に限定されない。たとえば、「行き先」、「到着地」、「目的場所」などの語意を用いることができる。
The navigation apparatus 1 of the above embodiment can be modified as follows.
(1) As described above, the navigation device 1 identifies the user A, recognizes the word meaning of the destination, and identifies the user B while setting the destination at the touch position when the touch of one point is recognized. When the word “destination” is recognized and a touch of one point is recognized, the vicinity of the leisure facility is searched around the touch position. At this time, the word meaning recognized by the voice recognition unit 114 is not limited to the “destination” as long as the word meaning is related to the destination. For example, words such as “destination”, “arrival place”, and “destination place” can be used.

(2)前述のようにナビゲーション装置1は、音声認識部114によって認識された語意が同じ「レストラン」であっても、ユーザAが特定されたときは中華料理店を検索し、ユーザBが特定されたときは日本料理店を検索することで、検索する施設のジャンルを変更する。このように、認識される語意とユーザごとに変更する検索施設のジャンルとの組合せは、「レストラン」に対する中華料理店と日本料理店とに限定されない。たとえば、「コンビニ」という語意に対してユーザごとに違う種類のコンビニエンスストアを検索したり、「ガソリンスタンド」という語意に対してユーザごとに違う種類のガソリンスタンドを検索したりしてもよい。また、一つの語意に対してユーザごとに変更する検索施設のジャンル数は2つに限らず、3つ以上としてもよい。たとえば、「レストラン」という語意に対して、ユーザA、Bとは別のユーザCが特定されたときには、イタリア料理店を検索するようにしてよい。 (2) As described above, the navigation device 1 searches for a Chinese restaurant when the user A is specified even when the word recognition recognized by the voice recognition unit 114 is the same, and the user B specifies When it is done, the genre of the facility to be searched is changed by searching for Japanese restaurants. Thus, the combination of the recognized word meaning and the genre of the search facility to be changed for each user is not limited to the Chinese restaurant and the Japanese restaurant for “restaurant”. For example, a different type of convenience store may be searched for each user with respect to the word “convenience store”, or a different type of gas station may be searched for each user with respect to the word “gas station”. In addition, the number of genres of search facilities to be changed for each user for one word meaning is not limited to two, and may be three or more. For example, when a user C different from the users A and B is specified for the word “restaurant”, an Italian restaurant may be searched.

(3)認識されたタッチ操作によって指定される範囲内の施設検索を行う場合、音声認識部114によって認識された語意は、検索する施設のジャンルの上位概念のジャンルの語意であってもよい。たとえば、第1のユーザの場合、小学校を検索し、第2のユーザの場合、中学校を検索する場合、小学校および中学校の上位概念の語意である「学校」の語意が認識されたとき、上述の検索を行うようにしてもよい。 (3) When a facility search within the range specified by the recognized touch operation is performed, the meaning recognized by the voice recognition unit 114 may be a meaning of a genre of a higher concept of the genre of the facility to be searched. For example, in the case of the first user, the elementary school is searched, and in the case of the second user, when the junior high school is searched, when the meaning of “school” which is the meaning of the upper concept of the elementary school and the junior high school is recognized, A search may be performed.

(4)音声入力の後にタッチ操作の有無を判定し、この判定結果によって、音声認識結果とタッチ操作とに基づく処理(音声認識&タッチ操作モード処理)と、音声認識のみによる処理(通常音声認識モード処理)を使い分けするようにした。しかしながら、メニュー画面により、予めいずれか一方の処理のみを有効化するようにしてもよい。 (4) The presence / absence of a touch operation is determined after voice input, and based on the determination result, processing based on the voice recognition result and touch operation (voice recognition & touch operation mode processing), and processing based only on voice recognition (normal voice recognition) (Mode processing) was used properly. However, only one of the processes may be validated in advance on the menu screen.

(5)また本実施の形態では、音声入力の後にタッチ操作が行われるようにしたが、これとは逆に、タッチ操作を先に行い、その後に音声入力がされるようにしてもよい。すなわち、一の地点または所定の範囲の領域を指定するユーザのタッチ操作が認識されたら、その後にマイク113によって入力された音声の語意を音声認識部114により認識し、当該認識されたタッチ操作および語意に基づいて、前述したような処理を行ってもよい。 (5) In the present embodiment, the touch operation is performed after the voice input, but conversely, the touch operation may be performed first and then the voice input may be performed. That is, when a user's touch operation for designating a single point or a predetermined range is recognized, the speech recognition unit 114 recognizes the meaning of the voice input by the microphone 113 and the recognized touch operation and Based on the word meaning, the processing as described above may be performed.

(6)ユーザを特定するためのメニュー画面を設け、このメニュー画面からユーザを特定できるようにしてもよい。たとえば、ユーザ名の一覧を表示モニタに表示し、ユーザが、表示されたユーザ名の中から自分のユーザ名を選択することによって、ナビゲーション装置がユーザを特定できるようにしてもよい。 (6) A menu screen for specifying the user may be provided so that the user can be specified from the menu screen. For example, a list of user names may be displayed on the display monitor, and the user may select the user name from the displayed user names so that the navigation device can identify the user.

(7)本実施の形態では、ユーザがタッチ操作により地図上に一の地点または所定の範囲の領域を指定するようにしたが、これをいわゆるハードボタン操作により行うようにしてもよい。すなわち、ナビゲーション装置1は前述のように、入力装置18において各種のボタンスイッチやハードスイッチにより実現される操作キー(ハードボタン)を有する。ユーザは、タッチ操作の代わりに、この操作キーを用いたハードボタン操作を行うことで前述のような一地点または所定範囲の領域を地図上に指定することができるようにする。たとえば、十字キーの操作によりカーソルを地図上で移動させると共に、決定ボタンの押下操作によってカーソルの位置に対応する地点を選択することで、ユーザが所望の一地点または所定範囲の領域を地図上に指定できるようにする。なお、こうしたハードボタン操作を行うための操作キーを、ナビゲーション装置1に付属されたリモコンなどに設けてもよい。また、タッチ操作とハードボタン操作とを組み合わせて行うようにしてもよい。 (7) In the present embodiment, the user designates one point or a predetermined area on the map by a touch operation, but this may be performed by a so-called hard button operation. That is, the navigation device 1 has operation keys (hard buttons) realized by various button switches and hard switches in the input device 18 as described above. Instead of the touch operation, the user performs a hard button operation using this operation key so that the above-mentioned one point or a predetermined area can be designated on the map. For example, by moving the cursor on the map by operating the cross key and selecting a point corresponding to the position of the cursor by pressing the enter button, the user can select a desired point or a predetermined area on the map. Allow specification. In addition, you may provide the operation key for performing such hard button operation in the remote control etc. which were attached to the navigation apparatus 1. FIG. Further, a touch operation and a hard button operation may be performed in combination.

(8)ユーザが所持している携帯電話などの携帯端末装置を利用して、ナビゲーション装置がユーザを特定できるようにしてもよい。 (8) The navigation device may be able to identify the user by using a mobile terminal device such as a mobile phone possessed by the user.

実施形態と変形例の一つ、もしくは複数を組み合わせることも可能である。変形例同士をどのように組み合わせることも可能である。   It is also possible to combine one or a plurality of embodiments and modifications. It is possible to combine the modified examples in any way.

以上の説明はあくまで一例であり、発明は、上記の実施形態に何ら限定されるものではない。   The above description is merely an example, and the present invention is not limited to the above embodiment.

1 ナビゲーション装置
11 制御回路
11a タイマ
16 表示モニタ
19 タッチパネル
22a〜22c,24a〜24c,25a〜25c アイコン
DESCRIPTION OF SYMBOLS 1 Navigation apparatus 11 Control circuit 11a Timer 16 Display monitor 19 Touch panel 22a-22c, 24a-24c, 25a-25c Icon

Claims (4)

ユーザの音声を入力する音声入力手段と、
前記音声入力手段によって入力された音声からユーザを特定するユーザ特定手段と、
前記音声入力手段によって入力された音声の語意を認識する音声認識手段と、
前記表示モニタ上におけるユーザのタッチ操作を認識するタッチ操作認識手段と、
前記ユーザ特定手段によって特定されたユーザと、前記音声認識手段によって認識された語意と、前記タッチ操作認識手段によって認識されたタッチ操作とに基づいてナビゲーション機能に関する処理を実行する処理実行手段とを備えることを特徴とするナビゲーション装置。
Voice input means for inputting user's voice;
User specifying means for specifying a user from the voice input by the voice input means;
Voice recognition means for recognizing the meaning of the voice input by the voice input means;
Touch operation recognition means for recognizing a user's touch operation on the display monitor;
A process execution unit configured to execute a process related to a navigation function based on the user specified by the user specifying unit, the word meaning recognized by the voice recognition unit, and the touch operation recognized by the touch operation recognition unit; A navigation device characterized by that.
請求項1に記載のナビゲーション装置において、
前記ユーザ特定手段と前記音声認識手段は、ナビゲーション機能に関してユーザが発話する一つの音声に基づいて、ユーザを特定するとともに、発話した語意を認識することを特徴とするナビゲーション装置。
In the navigation device according to claim 1,
The navigation apparatus characterized in that the user specifying means and the voice recognition means identify a user and recognize a spoken word based on one voice spoken by the user regarding the navigation function.
請求項1または2に記載のナビゲーション装置において、
前記ユーザ特定手段は、第1のユーザと第2のユーザとを少なくとも特定し、
前記処理実行手段は、前記ユーザ特定手段が前記第1のユーザを特定し、前記音声認識手段が目的地に関する語意を認識し、前記タッチ操作認識手段が1点のタッチを認識した場合、前記タッチ操作認識手段によって認識されたタッチ位置に目的地を設定し、前記ユーザ特定手段が前記第2のユーザを特定し、前記音声認識手段が目的地に関する語意を認識し、前記タッチ操作認識手段が1点のタッチを認識した場合、前記タッチ操作認識手段によって認識されたタッチ位置を中心として所定ジャンルの施設の周辺検索を行うことを特徴とするナビゲーション装置。
The navigation device according to claim 1 or 2,
The user specifying means specifies at least a first user and a second user;
The processing execution means may be configured such that when the user specifying means specifies the first user, the speech recognition means recognizes a meaning related to a destination, and the touch operation recognition means recognizes a single touch, the touch A destination is set at the touch position recognized by the operation recognizing means, the user specifying means specifies the second user, the voice recognizing means recognizes the meaning of the destination, and the touch operation recognizing means is 1 A navigation device characterized in that, when a touch of a point is recognized, a peripheral search for a facility of a predetermined genre is performed around the touch position recognized by the touch operation recognition means.
請求項1乃至3のいずれか1項に記載のナビゲーション装置において、
前記ユーザ特定手段は、第1のユーザと第2のユーザとを少なくとも特定し、
前記処理実行手段は、前記音声認識手段によって認識された語意に基づいて、前記タッチ操作認識手段によって認識されたタッチ操作によって指定される範囲内の施設検索を行う場合、前記音声認識手段によって認識された語意が同じであっても、前記ユーザ特定手段によって前記第1のユーザが特定されたときと、前記ユーザ特定手段によって前記第2のユーザが特定されたときとで検索する施設のジャンルを変更することを特徴とするナビゲーション装置。
The navigation device according to any one of claims 1 to 3,
The user specifying means specifies at least a first user and a second user;
The processing execution unit is recognized by the voice recognition unit when performing facility search within a range specified by the touch operation recognized by the touch operation recognition unit based on the meaning of the word recognized by the voice recognition unit. The genre of the facility to be searched is changed when the first user is specified by the user specifying means and when the second user is specified by the user specifying means, even if the meanings are the same The navigation apparatus characterized by doing.
JP2009232285A 2009-10-06 2009-10-06 Navigation device Withdrawn JP2011080824A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009232285A JP2011080824A (en) 2009-10-06 2009-10-06 Navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009232285A JP2011080824A (en) 2009-10-06 2009-10-06 Navigation device

Publications (1)

Publication Number Publication Date
JP2011080824A true JP2011080824A (en) 2011-04-21

Family

ID=44075019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009232285A Withdrawn JP2011080824A (en) 2009-10-06 2009-10-06 Navigation device

Country Status (1)

Country Link
JP (1) JP2011080824A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015194106A1 (en) * 2014-06-19 2015-12-23 株式会社デンソー Destination determination device for vehicle and destination determination system for vehicle
WO2016103465A1 (en) * 2014-12-26 2016-06-30 三菱電機株式会社 Speech recognition system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015194106A1 (en) * 2014-06-19 2015-12-23 株式会社デンソー Destination determination device for vehicle and destination determination system for vehicle
JP2016004538A (en) * 2014-06-19 2016-01-12 株式会社デンソー Vehicle destination determination device and vehicle destination determination system
US10048079B2 (en) 2014-06-19 2018-08-14 Denso Corporation Destination determination device for vehicle and destination determination system for vehicle
WO2016103465A1 (en) * 2014-12-26 2016-06-30 三菱電機株式会社 Speech recognition system
JPWO2016103465A1 (en) * 2014-12-26 2017-04-27 三菱電機株式会社 Speech recognition system
CN107110660A (en) * 2014-12-26 2017-08-29 三菱电机株式会社 Speech recognition system

Similar Documents

Publication Publication Date Title
JP4736982B2 (en) Operation control device, program
JP5637131B2 (en) Voice recognition device
JPWO2003078930A1 (en) Vehicle navigation device
JP2007052397A (en) Operating apparatus
JP2010205130A (en) Control device
JP2007279637A (en) Navigation system
JP4785568B2 (en) Electronic device and operation help presentation method
JP4664775B2 (en) Navigation device
JP5455355B2 (en) Speech recognition apparatus and program
JP2011080824A (en) Navigation device
JP2002281145A (en) Telephone number input device
JP2008045968A (en) On-vehicle information terminal
US20150192425A1 (en) Facility search apparatus and facility search method
JP2007199979A (en) Map display device and navigation device
JP2008024070A (en) On-vehicle information terminal
JP2003005783A (en) Navigation system and its destination input method
JP6987447B2 (en) Speech recognition device
JPH11325945A (en) On-vehicle navigation system
JP5028045B2 (en) In-vehicle display device
JP2003005781A (en) Controller with voice recognition function and program
JP6115202B2 (en) Speech recognition system, method and program
JPH11325946A (en) On-vehicle navigation system
JP2008233009A (en) Car navigation device, and program for car navigation device
JP2006047192A (en) Navigation system and method for searching circumference institution
JP5436337B2 (en) Keyboard display device and keyboard display switching method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130108