JP2013011483A - Driving support device - Google Patents

Driving support device Download PDF

Info

Publication number
JP2013011483A
JP2013011483A JP2011143285A JP2011143285A JP2013011483A JP 2013011483 A JP2013011483 A JP 2013011483A JP 2011143285 A JP2011143285 A JP 2011143285A JP 2011143285 A JP2011143285 A JP 2011143285A JP 2013011483 A JP2013011483 A JP 2013011483A
Authority
JP
Japan
Prior art keywords
vehicle
user
outside
specified
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011143285A
Other languages
Japanese (ja)
Inventor
Taichiro Ichimaru
太一郎 一丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2011143285A priority Critical patent/JP2013011483A/en
Publication of JP2013011483A publication Critical patent/JP2013011483A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a driving support device capable of accurately determining an external object to which a user of a vehicle is paying attention when a plurality of external objects are detected.SOLUTION: When a plurality of external objects are detected by determining means, a control unit 2 of a driving support device 1 acquires type information which records external objects estimated to be objects of interest of a user classified by type, from a user information recording unit 3. The control unit 2 specifies, as an output object, an external object corresponding to a type recorded in the user information recording unit 3, among the types corresponding to the external objects detected. It then outputs information regarding the external object which is the output object from an output device 30.

Description

本発明は車両のユーザーが注目している車外対象物を特定して案内する運転支援装置に関する。   The present invention relates to a driving support apparatus that identifies and guides an object outside a vehicle that is being watched by a vehicle user.

従来、運転者が注目している建物などの車外対象物を視線検出及び音声認識により特定して案内する運転支援装置が知られている。この運転支援装置では、運転者の質問が発せられる直前の所定の時点で取得・記憶保持された車外風景画像と視線方向とを照合する。そしてこの照合により、運転者が質問直前に注目していた車外対象物が自動的に特定されることが開示されている(例えば特許文献1)。   2. Description of the Related Art Conventionally, there is known a driving assistance device that identifies and guides an object outside a vehicle such as a building that is being watched by a driver by eye gaze detection and voice recognition. In this driving support device, the scenery image outside the vehicle acquired and stored at a predetermined time immediately before the driver's question is issued is collated with the line-of-sight direction. And it is disclosed by this collation that the outside object which the driver paid attention to immediately before the question is automatically specified (for example, Patent Document 1).

また上記特許文献1では、複数の車両から報告された質問の対象となった車外対象物に関する情報を所定のセンタが統合し、質問回数による車外対象物のランク付けを行って、それを各車両にフィードバックしている。このフィードバックにより、もし照合時に複数の車外対象物が特定された場合には、その質問回数が多い順にランク付けされたランキングを参照することで、自動的に車外対象物を1つに絞る方法が開示されている。   Moreover, in the said patent document 1, the predetermined center integrates the information regarding the vehicle exterior object which became the object of the question reported from the several vehicle, ranks the vehicle exterior object by the frequency | count of a question, and it is used for each vehicle. Have feedback. By this feedback, if a plurality of non-vehicle objects are specified at the time of collation, a method of automatically narrowing down the non-vehicle objects to one by referring to the ranking ranked in descending order of the number of questions. It is disclosed.

特開2006−90790号公報JP 2006-90790 A

しかしながら、上記特許文献1のような質問回数のランキングを参照して自動的に車外対象物を絞る技術は、複数の車両から集めた情報に基づいて車両対象物を特定するため、運転者などのユーザーが関心を持っていない車外対象物が特定される場合も発生する。特に、照合時に車外対象物が数多く特定されるほど、各車両のユーザーの関心も分散する可能性が高くなるため、上記技術ではユーザー自身が本当に知りたい車外対象物でないものが特定される可能性が高くなるという問題がある。   However, the technique of automatically narrowing down the objects outside the vehicle with reference to the ranking of the number of questions as in the above-mentioned Patent Document 1 specifies the vehicle object based on information collected from a plurality of vehicles. It may also occur when an out-of-vehicle object that the user is not interested in is identified. In particular, the greater the number of non-vehicle objects that are identified at the time of matching, the greater the possibility that the user's interest in each vehicle will be dispersed. There is a problem that becomes high.

本発明は上記問題に鑑み、複数の車外対象物が特定された場合に、車両のユーザーが注目している車外対象物をより精度良く特定することが可能な運転支援装置を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a driving support device capable of more accurately specifying an object outside the vehicle that is being watched by a vehicle user when a plurality of objects outside the vehicle are specified. And

上記目的を解決するために請求項1の運転支援装置は、車両のユーザーが注目している車外対象物を特定する特定手段を有し、特定された車外対象物を出力するものにおいて、ユーザーの関心があるものと推定される車外対象物を種類別に分類して記録するユーザー情報記録手段と、特定手段によって特定された車外対象物が複数存在する場合、この特定された車外対象物に対応する種類のうち、ユーザー情報記録手段に記録された種類と一致する種類に対応する車外対象物を出力対象とする手段を備えることを特徴としている。   In order to solve the above-described object, the driving support device according to claim 1 includes a specifying unit that specifies an object outside the vehicle that the user of the vehicle is interested in, and outputs the specified object outside the vehicle. If there are multiple user information recording means that classify and record the out-of-vehicle object that is estimated to be of interest by type and the out-of-vehicle object specified by the specifying means, it corresponds to this specified out-of-vehicle object Of the types, there is provided a means for outputting an object outside the vehicle corresponding to a type that matches the type recorded in the user information recording means.

この構成によれば、ユーザーが注目している車外対象物が複数特定された場合でも、その特定された複数の車外対象物の種類の中から、ユーザーが関心を持っていると予想される種類に対応する車外対象物を出力対象とすることができる。従って、車両のユーザーが注目している(つまりユーザーが知りたい)車外対象物をより精度良く特定し、出力することができる。   According to this configuration, even when a plurality of out-of-vehicle objects that the user is interested in are identified, the type that the user is expected to be interested in from the types of the plurality of out-of-vehicle objects identified. The object outside the vehicle corresponding to can be output. Accordingly, it is possible to more accurately identify and output an object outside the vehicle that the vehicle user is interested in (that is, the user wants to know).

尚、たとえ最終的に絞り込んで特定された車外対象物が複数残ったとしても(1つに絞りきれなかったとしても)、それらの車外対象物はユーザーの注目している車外対象物であるので問題ない。   Even if there are a plurality of objects outside the vehicle that are finally narrowed down and specified (even if they cannot be narrowed down to one), these objects outside the vehicle are objects outside the vehicle that the user is paying attention to. no problem.

また請求項2の運転支援装置では、ユーザー情報記録手段は、ユーザーが利用した車外対象物が種類別に記録されてなるものであることを特徴としている。   According to a second aspect of the present invention, the user information recording means is characterized in that the object outside the vehicle used by the user is recorded by type.

この構成によれば、ユーザーが利用した車外対象物に対応する種類が記録されることで、ユーザーの関心があると推定される車外対象物の種類をより精度良く抽出することができる。   According to this configuration, the type corresponding to the non-vehicle object used by the user is recorded, so that the type of the non-vehicle object estimated to be of interest to the user can be extracted with higher accuracy.

また上記請求項2の運転支援装置においては、さらに請求項3記載のように、ユーザー情報記録手段に記録された種類は、ユーザーが車外対象物を利用した日時又は利用した位置に基づいて分類されていることを特徴としている。   Further, in the driving support device according to the second aspect, as described in the third aspect, the types recorded in the user information recording means are classified based on the date and time when the user used the object outside the vehicle or the position used. It is characterized by having.

この構成によれば、ユーザーが利用した車外対象物に対応する種類を、曜日や時間、地域などの条件毎により詳細に分類できるため、運転支援装置を使用する状況に応じて、ユーザーの関心があると推定される車外対象物の種類をより精度良く抽出することができる。   According to this configuration, since the types corresponding to the objects outside the vehicle used by the user can be classified in detail according to conditions such as day of the week, time, and region, the user's interests depend on the situation where the driving support device is used. The type of the object outside the vehicle estimated to be present can be extracted with higher accuracy.

また請求項4の運転支援装置では、ユーザー情報記録手段に記録された種類は、ユーザーより入力された分野に基づいて分類されていることを特徴としている。   According to a fourth aspect of the present invention, the types recorded in the user information recording means are classified based on the field input by the user.

この構成によれば、ユーザー入力された分野ごとに対応する車外対象物の種類が記録されていることにより、ユーザーの関心があると推定される車外対象物の種類をより精度良く抽出することができる。   According to this configuration, the type of the non-vehicle object that is estimated to be of interest to the user can be extracted with higher accuracy by recording the type of the non-vehicle object corresponding to each field input by the user. it can.

また請求項5の運転支援装置では、車両の走行履歴を記録する走行履歴記録手段、及び地図データ上の地物を新規に更新又は追加する地図情報更新手段に基づき、車両の現在位置を過去に走行した時点から現時点迄の間に、特定手段によって特定された車外対象物の内、地図データで新規に更新又は追加された地物が存在するか否かを検索する新規地物検索手段と、をさらに有し、特定された車外対象物が複数存在する場合、走行履歴記録手段によって記録された前記走行履歴に基づき、前記現在位置が過去に走行したことのある場所であり、かつ、新規地物検索手段の検索結果により、新規に追加又は更新された地物が、特定手段によって特定された車外対象物と一致するときは、その特定された車外対象物に対応する新規に更新又は追加された地物を出力対象とすることを特徴としている。   In the driving support device according to claim 5, the current position of the vehicle is recorded in the past based on the travel history recording means for recording the travel history of the vehicle and the map information updating means for newly updating or adding the feature on the map data. New feature search means for searching whether or not there is a feature that is newly updated or added to the map data among the objects outside the vehicle specified by the specification means between the time of travel and the present time; And the current position is a place where the vehicle has traveled in the past based on the travel history recorded by the travel history recording means, and a new location When the newly added or updated feature matches the object outside the vehicle specified by the specifying means according to the search result of the object search means, it is newly updated or added corresponding to the specified object outside the vehicle. It is characterized in that the the features and output target.

過去に自車が走行した道(特に普段よく走行する道)では、ユーザーは車両の現在位置の周辺にある様々な車外対象物を既に知っていると考えられる。しかし、地図の更新により、車外対象物の情報が新しく更新又は追加された場合、ユーザーはその追加された車外対象物の情報は知らない(つまりユーザーが問い合わせて知りたい情報)と考えられる。   It is considered that the user already knows various external objects around the current position of the vehicle on the road on which the vehicle has traveled in the past (especially the road on which the vehicle normally travels). However, when the information on the non-vehicle object is newly updated or added by updating the map, it is considered that the user does not know the information on the added non-vehicle object (that is, information that the user wants to know by inquiry).

そこで特定された車外対象物が複数存在する場合、車両のユーザーが注目している(つまりユーザーが知りたい)車外対象物をより絞り込んで特定することができる。   Therefore, when there are a plurality of objects outside the vehicle specified, it is possible to further narrow down and specify the objects outside the vehicle that the user of the vehicle is interested in (that is, the user wants to know).

また、請求項6の運転支援装置は、特定手段により特定され、出力対象とされた車外対象物に関する情報を、映像表示手段及び音声出力手段の少なくとも一方を用いて出力することを特徴としている。   According to a sixth aspect of the present invention, there is provided a driving support apparatus that outputs information on an object outside the vehicle that is specified by the specifying means and is an output target, using at least one of the video display means and the audio output means.

この構成によれば、特定した車外対象物の案内等の情報をユーザーに視覚又は聴覚、あるいはその両方を通して伝えることができる。   According to this configuration, information such as guidance on the specified object outside the vehicle can be transmitted to the user through vision and / or hearing.

本発明の実施形態における運転支援装置の構成を示す概略構成図である。It is a schematic block diagram which shows the structure of the driving assistance device in embodiment of this invention. 本発明の実施形態における車外対象物特定処理を示すフローチャートである。It is a flowchart which shows the external object identification process in embodiment of this invention. 本実施形態に係り、図2のステップS16の詳細な制御処理を示すフローチャートである。It is a flowchart which shows the detailed control processing of step S16 concerning FIG. 2 concerning this embodiment. 本実施形態に係り、図1のユーザー情報記録部に記録された、車外対象物の利用履歴情報に関するテーブルである。It is a table regarding the usage log information of the object outside a vehicle recorded on the user information recording part of FIG. 本実施形態に係り、図2のステップS14の別の制御処理を示すフローチャートである。It is a flowchart which shows another control process in connection with this embodiment of FIG.2 S14. 図1〜図5の本実施形態の作用効果を説明するための概略図である。It is the schematic for demonstrating the effect of this embodiment of FIGS. 本実施形態に係り、図2のステップS16の制御処理ついて、図3とは別の制御処理を示すフローチャートである。FIG. 4 is a flowchart showing a control process different from that in FIG. 3 for the control process in step S <b> 16 in FIG. 2 according to the present embodiment. 本実施形態に係り、図1のユーザー情報記録部に記録された、ユーザーの興味情報に関するテーブルである。It is a table regarding a user's interest information which concerns on this embodiment and was recorded on the user information recording part of FIG.

以下、本発明に係る車両に用いられる運転支援装置の実施形態を、図面に基づき説明する。   Hereinafter, an embodiment of a driving support device used for a vehicle according to the present invention will be described with reference to the drawings.

図1は運転支援装置1の概略構成図である。まず接続関係について説明し、個々の機能については後述する。運転支援装置1は、その運転支援装置1の外部に設けたトークスイッチ(トークSWと略す)10、マイク11、位置・方位検出装置12、視線カメラ13、及び地図データ入力装置14より、それぞれ通信線を介して対応する信号が入力される。また運転支援装置1は、その外部に設けた出力装置30に通信線を介して信号を出力する。この運転支援装置1の内部には、制御部2、ユーザー情報記録部3、音声認識処理部20、現在位置・方位検出処理部21、視線検出処理部22、地図データ記録部23、音声処理部24、及び画像処理部25を備えており、各部(3、20〜25)は通信線を介して制御部2にそれぞれ通信可能に接続されている。   FIG. 1 is a schematic configuration diagram of the driving support device 1. First, connection relationships will be described, and individual functions will be described later. The driving support device 1 communicates with a talk switch (abbreviated as “talk SW”) 10, a microphone 11, a position / orientation detection device 12, a line-of-sight camera 13, and a map data input device 14 provided outside the driving support device 1. The corresponding signal is input via the line. In addition, the driving support device 1 outputs a signal to the output device 30 provided outside via the communication line. The driving support device 1 includes a control unit 2, a user information recording unit 3, a voice recognition processing unit 20, a current position / orientation detection processing unit 21, a line-of-sight detection processing unit 22, a map data recording unit 23, and a voice processing unit. 24 and an image processing unit 25, and each unit (3, 20 to 25) is connected to the control unit 2 through a communication line so as to be able to communicate with each other.

トークSW10は、音声認識処理部20に音声認識処理を開始させるトリガを発生させるためのスイッチであり、ユーザー(ここで言うユーザーとは、予め音声認識処理部20に音声認識用の音声登録がされており、かつ視線方向を検出するための視線カメラ13が向けられている、車両の運転手又は乗員を言う)によってスイッチのオン又はオフが切り替えられる。また、スイッチをオンすることで、制御部2は車外対象物を特定するための処理を開始する。   The talk SW 10 is a switch for generating a trigger for causing the voice recognition processing unit 20 to start the voice recognition processing. The user (here, the user is a voice recognition for voice recognition registered in the voice recognition processing unit 20 in advance). The switch is turned on or off by a vehicle driver or an occupant who is directed to the line-of-sight camera 13 for detecting the line-of-sight direction. Further, by turning on the switch, the control unit 2 starts a process for specifying the object outside the vehicle.

マイク11は、ユーザー等(=ユーザーの他、音声登録されていない乗員を含む)の発話音声を録取するためのものであり、入力された音声は、語彙データとして音声認識処理部20に送信される。   The microphone 11 is for recording speech uttered by a user or the like (including passengers who are not voice-registered in addition to the user), and the input voice is transmitted to the voice recognition processing unit 20 as vocabulary data. Is done.

位置・方位検出装置12は、図示しないがGPS受信機、方位センサ、車速センサなどを備えている。この位置・方位検出装置12で検出された各検出データは、現在位置・方位検出処理部21に送信され、車両の現在位置(緯度・経度)及び走行方位が算出される。   Although not shown, the position / orientation detection device 12 includes a GPS receiver, an orientation sensor, a vehicle speed sensor, and the like. Each detection data detected by the position / orientation detection device 12 is transmitted to the current position / orientation detection processing unit 21, and the current position (latitude / longitude) and traveling direction of the vehicle are calculated.

視線カメラ13は、ユーザーの目の動きを撮像するものであり、ユーザーの目を含む顔を撮影した撮像データを視線検出処理部22に送信する。   The line-of-sight camera 13 images the movement of the user's eyes, and transmits to the line-of-sight detection processing unit 22 image data obtained by photographing a face including the user's eyes.

地図データ入力装置14は、DVD−ROMドライブ等のドライブ装置からなり、そのDVD−ROMメディアから地図データ(建物等の施設や山等の物体の地物に関する詳細情報を含む)を読み出し、地図データ記録部23に記録する。尚、本実施形態の地図データを入手する手段は、ドライブ装置を用いているが、特に限ることはない。常に最新の地図データを入手できる手段であれば何であっても良い。例えば地図データの更新や追加がある度に、図示しない無線通信機能を用いて図示しないサービスセンターからその地図データをダウンロードして、地図データ記録部23に記録してもよい。   The map data input device 14 comprises a drive device such as a DVD-ROM drive, and reads map data (including detailed information on the features of facilities such as buildings and objects such as mountains) from the DVD-ROM media, and the map data Records in the recording unit 23. The means for obtaining the map data of this embodiment uses a drive device, but is not particularly limited. Any means can be used as long as it can always obtain the latest map data. For example, whenever map data is updated or added, the map data may be downloaded from a service center (not shown) using a wireless communication function (not shown) and recorded in the map data recording unit 23.

出力装置30は、スピーカー部31及び表示部32からなり、特定された車外対象物に関する情報を表示及び/又は音声を用いて案内する。具体的には、表示部32は図示しない液晶ディスプレイ装置から構成され、画像処理部25の処理結果(例えば車外対象物が「建物等の施設」であれば、その名称、施設内容、駐車場、営業時間などの情報、山等の物体であればその名称、標高、歴史や観光などの情報)をディスプレイに表示出力する。また、スピーカー部31は運転支援装置1の音声処理部24の処理結果(表示と同様の情報)をスピーカーから音声出力する。   The output device 30 includes a speaker unit 31 and a display unit 32, and guides information on the specified object outside the vehicle using display and / or sound. Specifically, the display unit 32 includes a liquid crystal display device (not shown), and the processing result of the image processing unit 25 (for example, if the object outside the vehicle is “facility such as a building”, its name, facility content, parking lot, Information such as business hours and the name, altitude, history, sightseeing, etc. of objects such as mountains are displayed on the display. In addition, the speaker unit 31 outputs the processing result (information similar to the display) of the voice processing unit 24 of the driving support device 1 from the speaker.

運転支援装置1は、マイク11を介して受信したユーザー等の語彙データを解析して、音声内容の認識や、図示しないメモリ等に予め音声登録された人であるかの認識を行う音声認識処理部20を備えている。また、位置・方位検出装置12から送信された各検出データに基づき、自車の現在位置・方位を算出する現在位置・方位検出処理部21を備えている。さらに視線カメラ13から送信される撮像データを画像処理する(つまりユーザーの顔面画像から眼球の動きを基に視線方向を検出する)視線検出処理部22、地図データ入力装置14から送信される地図データにより、地物の更新・追加情報を含む地図データが記録される地図データ記録部23を備えている。また、運転支援装置1の各処理部及び各記録部と通信して車外対象物を特定するための処理を行う制御部2、ユーザーが利用した車外対象物、又はユーザーの興味のある車外対象物が、それぞれ種類分けして記録されたユーザー情報記録部3、特定された車外対象物を通知するための処理を行う音声処理部24(合成音声の作成など)、及び画像処理部25(描画データの作成、縮尺変更処理など)を備えている。   The driving support device 1 analyzes vocabulary data of a user or the like received via the microphone 11 and recognizes voice content or recognizes whether or not a person is registered in advance in a memory (not shown). The unit 20 is provided. Further, a current position / orientation detection processing unit 21 that calculates the current position / orientation of the host vehicle based on each detection data transmitted from the position / orientation detecting device 12 is provided. Further, image data transmitted from the line-of-sight camera 13 is subjected to image processing (that is, a line-of-sight direction is detected from the face image of the user based on the movement of the eyeball), and map data transmitted from the map data input device 14 Thus, a map data recording unit 23 in which map data including feature update / addition information is recorded is provided. In addition, the control unit 2 that performs processing for specifying the object outside the vehicle by communicating with each processing unit and each recording unit of the driving support device 1, the object outside the vehicle used by the user, or the object outside the vehicle that the user is interested in However, the user information recording unit 3 that is recorded separately for each type, the audio processing unit 24 that performs processing for notifying the specified object outside the vehicle (for example, creation of synthesized speech), and the image processing unit 25 (drawing data) Creation, scale change processing, etc.).

なお、音声認識処理部20、現在位置・方位検出処理部21、視線検出処理部22、制御部2、音声処理部24、画像処理部25は、CPU、ROM、RAM、EEPROM、DSP(デジタルシグナルプロセッサ)等を備えた周知のマイクロコンピュータ上で周期的に実行される処理として実現される。また、図示しないが、運転支援装置1は、インターフェース部を備え、運転支援装置1の外部に設けた装置と必要な情報のやりとりが行われるよう構成されている。運転支援装置1は、このインターフェース部を介して情報のやりとりを行っている。例えば図示しない時計機能を有する装置から送信される日付や時刻に関するデータを、インターフェース部を介して受信している。   The voice recognition processing unit 20, the current position / orientation detection processing unit 21, the line-of-sight detection processing unit 22, the control unit 2, the voice processing unit 24, and the image processing unit 25 are a CPU, a ROM, a RAM, an EEPROM, a DSP (digital signal). This is realized as a process periodically executed on a known microcomputer having a processor. Although not shown, the driving support device 1 includes an interface unit and is configured to exchange necessary information with a device provided outside the driving support device 1. The driving support device 1 exchanges information via this interface unit. For example, data relating to date and time transmitted from a device having a clock function (not shown) is received via the interface unit.

上記構成に基づき本実施形態に係る車外対象物を特定する特定手段の基本的な処理方法を簡単に説明する。   Based on the above configuration, a basic processing method of the specifying means for specifying an object outside the vehicle according to the present embodiment will be briefly described.

まず運転支援装置1(制御部2)は、トークSW10がオンされることにより、車外対象物特定処理を開始する。   First, the driving assistance device 1 (the control unit 2) starts the vehicle outside object specifying process when the talk SW 10 is turned on.

次に運転支援装置1は、位置・方位検出装置12より入力された各検出データに基づき現在位置・方位を算出し(現在位置・方位検出処理部21)、車両のユーザーが注目している視線方向を視線カメラ13の撮影結果から検出し(視線検出処理部22)、そしてマイク11を介して得られるユーザー等の発音による語彙データの入力により音声内容を認識する(音声認識処理部20)。   Next, the driving assistance device 1 calculates the current position / orientation based on each detection data input from the position / orientation detection device 12 (current position / orientation detection processing unit 21), and the line of sight that the vehicle user is paying attention to. The direction is detected from the photographing result of the line-of-sight camera 13 (line-of-sight detection processing unit 22), and the voice content is recognized by inputting vocabulary data obtained by the user or the like obtained through the microphone 11 (voice recognition processing unit 20).

そして運転支援装置1は、現在位置・方位の算出結果、視線方向の検出結果、語彙データの音声認識結果に基づき、地図データから出力対象となる車外対象物を特定する。   Then, the driving support device 1 specifies an object outside the vehicle to be output from the map data based on the current position / orientation calculation result, the gaze direction detection result, and the vocabulary data voice recognition result.

また運転支援装置1は、この特定された車外対象物の情報を地図データ記録部23に記録された)地図データから検索して抽出し、音声又は映像表示で案内するための案内処理部(音声処理部24又は画像処理部25)で処理し、この処理結果を出力する。   In addition, the driving support device 1 searches and extracts information on the specified object outside the vehicle from the map data (recorded in the map data recording unit 23), and guides it by voice or video display (voice). Processing is performed by the processing unit 24 or the image processing unit 25), and the processing result is output.

そしてこの処理結果を受信した出力装置30は、特定された車外対象物の情報を報知するため、音声(スピーカー部31)及び映像(表示部32)のうち少なくとも一方を通してその情報を出力する。   The output device 30 that has received the processing result outputs the information through at least one of the sound (speaker unit 31) and the video (display unit 32) in order to notify the information of the specified object outside the vehicle.

尚、上述のような、視線検出及び音声認識により、車両ユーザーが注目している車外対象物を特定して案内する運転支援装置の基本的な構成、動作原理、及び制御方法については周知の技術を用いているため(例えば特許文献1及び特開2003−329463号公報などを参照)、詳細な説明は省略する。   It is to be noted that the basic configuration, operation principle, and control method of the driving support device that identifies and guides the object outside the vehicle that the vehicle user is paying attention to by the gaze detection and voice recognition as described above are well-known techniques. (For example, refer to Patent Document 1 and Japanese Patent Application Laid-Open No. 2003-329463, etc.) and detailed description thereof is omitted.

次に、図2のフローチャートを用い、本実施形態に係る運転支援装置1による車外対象物特定処理の流れを説明する。   Next, the flow of the vehicle outside object specifying process by the driving support device 1 according to the present embodiment will be described using the flowchart of FIG.

まず、ユーザーによりトークSW10がオン状態に切り替えられたことを制御部2が検知すると、制御部2は本処理(車外対象物を特定するための処理)を開始する。   First, when the control unit 2 detects that the talk SW 10 has been switched to the on state by the user, the control unit 2 starts this processing (processing for specifying an object outside the vehicle).

ステップS10では、ユーザーが注目する視線方向が、現在走行している車両の方向に対して何度であるかを特定するため(つまり視線方向をより正確に求めるため)に、まず車両の現在位置と走行方位を取得開始する。   In step S10, in order to specify how many times the line-of-sight direction that the user pays attention is with respect to the direction of the currently traveling vehicle (that is, to obtain the line-of-sight direction more accurately), first, the current position of the vehicle And start to get the driving direction.

次にステップS11では、ユーザーがどの車外対象物を見ているかを推測するために、画像処理によりユーザーの視線方向を検出開始する。   Next, in step S11, detection of the user's line-of-sight direction is started by image processing in order to guess which object outside the vehicle the user is looking at.

ステップS12では、マイク11より音声入力及び音声認識処理を開始し、音声入力があった場合はその語彙データを音声認識処理部20で処理する。   In step S12, voice input and voice recognition processing is started from the microphone 11. If there is voice input, the vocabulary data is processed by the voice recognition processing unit 20.

ステップS13では、音声認識処理部20で語彙データを解析することにより、質問の内容を分析する(車外対象物に関連する語彙を抽出する)と共に、ユーザーの音声か否かを認識する。これは意図しない音声認識処理(例えばユーザーの視線方向は検出しながらも、音声登録をしていない乗員がユーザーの意図したものと違う車外対象物を勝手に質問して認識処理されてしまう等)を防ぐためであり、予め音声登録されたユーザーからの質問であったか否かを判定する。ユーザーからの質問である場合は、ステップS14に進み、ユーザーからの質問で無い場合は、マイク11よりユーザーの音声入力がなされるまでステップS13を繰り返し実行する。   In step S13, the speech recognition processing unit 20 analyzes the vocabulary data, thereby analyzing the contents of the question (extracting the vocabulary related to the object outside the vehicle) and recognizing whether the user's speech. This is an unintended voice recognition process (for example, an occupant who has not registered the voice while detecting the user's line of sight, asks for an object outside the vehicle different from the one intended by the user, and is recognized and processed) In order to prevent this, it is determined whether or not the question is from a user who has been voice-registered in advance. If it is a question from the user, the process proceeds to step S14. If it is not a question from the user, step S13 is repeatedly executed until the user's voice is input from the microphone 11.

ステップS14では、車両位置・方位、ユーザーの視線方向、及び発話内容(語彙)に基づき、地図データから出力対象となる車外対象物を特定する。例えば、複数のビル等の建物が並ぶ街中で、車両が北に向かって停車中に、ユーザーが右方向(つまり東側)の車外を見ながら、「あれは何?」と質問したとする。その場合、ユーザーの視線方向で車両の東側にある建物を地図データ上から検出し、その建物を出力対象となる車外対象物として特定する。またその建物の施設の情報(建物の名称や建物内の案内)も抽出する(以降、車外対象物の例は建物の施設を中心に説明する)。もし、ユーザーの視線方向から複数の車外対象物を特定した場合は、その複数の車外対象物についての情報をそれぞれ抽出する。   In step S14, an object outside the vehicle to be output is specified from the map data based on the vehicle position / orientation, the user's line-of-sight direction, and the utterance content (vocabulary). For example, suppose that a user asks "What is that?" While looking at the outside of the vehicle in the right direction (that is, the east side) while the vehicle is parked toward the north in a city where a plurality of buildings are lined up. In that case, a building on the east side of the vehicle in the direction of the user's line of sight is detected from the map data, and the building is specified as an out-of-vehicle object to be output. In addition, information on the facility of the building (name of the building and guidance in the building) is also extracted (hereinafter, examples of objects outside the vehicle will be described focusing on the facility of the building). If a plurality of objects outside the vehicle are specified from the user's line-of-sight direction, information about the plurality of objects outside the vehicle is extracted.

次のステップS15では、ステップS14で特定した車外対象物が一つに絞られているか否かを判定する。車外対象物が一つに絞られている場合は、その車外対象物以外に周囲に対象となるものが存在しないため、その車外対象物がユーザーの知りたい車外対象物であると推測できる。そのため1つに絞られた車外対象物をユーザーの知りたい車外対象物とみなして、ステップS17に進み、出力装置30を用いてユーザーに車外対象物を案内する。また、車外対象物が一つに絞られていない(つまり車外対象物が複数特定された)場合は、ユーザーの知りたい車外対象物と、ユーザーの関心の無い車外対象物が混在していることが考えられるため、ステップS16に進み、複数の車外対象物をさらに特定する処理を行う。このステップS16処理の詳細は図3を用いて後述する。そしてステップS16でユーザーの知りたい車外対象物をさらに特定したら、ステップS17に進み、出力装置30を用いてユーザーに車外対象物を報知する。   In the next step S15, it is determined whether or not the object outside the vehicle specified in step S14 is narrowed down to one. When the number of objects outside the vehicle is narrowed down to one, it is possible to guess that the object outside the vehicle is the object outside the vehicle that the user wants to know because there is no object in the surroundings other than the object outside the vehicle. Therefore, the object outside the vehicle narrowed down to one is regarded as the object outside the vehicle that the user wants to know, and the process proceeds to step S <b> 17 to guide the user to the object outside the vehicle using the output device 30. In addition, when the number of objects outside the vehicle is not limited to one (that is, a plurality of objects outside the vehicle are identified), there must be a mixture of objects outside the vehicle that the user wants to know and objects that the user is not interested in. Therefore, the process proceeds to step S16, and a process of further specifying a plurality of objects outside the vehicle is performed. Details of this step S16 will be described later with reference to FIG. When the object outside the vehicle that the user wants to know is further specified in step S16, the process proceeds to step S17, and the output device 30 is used to notify the user of the object outside the vehicle.

ステップS17では出力装置30の音声(スピーカー部31)または映像(表示部32)を通して車内に車外対象物に関する名称や案内等の情報を出力する。具体的には、特定された車外対象物が××百貨店というデパートであった場合、「あれは××百貨店です。××百貨店には食品売り場、紳士服、婦人服があります。××百貨店の営業時間は10:00〜19:00です。また、××百貨店の営業時間150台駐車可能な駐車場があります。」といった音声案内、又は文字や写真等を用いた映像表示案内をユーザーに行う。尚、このような案内等は音声出力と映像表示の両方の出力手段を用いて行ってもよい。   In step S <b> 17, information such as a name and guidance regarding an object outside the vehicle is output to the inside of the vehicle through the sound (speaker unit 31) or video (display unit 32) of the output device 30. Specifically, if the specified object outside the car is a department store called XX department store, "That is XX department store. XX department store has a food department, men's clothing, and women's clothing. Opening hours are from 10:00 to 19:00. There is also a parking lot that can park 150 cars at XX department stores. ”Voice guidance such as text or photos is given to the user. . Such guidance or the like may be performed using both audio output and video display output means.

そして、ステップS17の案内が終了すると、エンドに進み、本処理を終了する(トークSW10のオン設定をオフ設定にする)。   When the guidance in step S17 ends, the process proceeds to the end, and this process ends (the ON setting of the talk SW 10 is set to OFF).

次に図3を用いて図2のステップS16の複数の車外対象物をさらに特定する処理手段について説明する。   Next, processing means for further specifying a plurality of objects outside the vehicle in step S16 in FIG. 2 will be described with reference to FIG.

まずステップS161で現在の日時又は現在の車両位置のデータを取得し、RAM等のメモリに記憶する。   First, in step S161, data on the current date and time or the current vehicle position is acquired and stored in a memory such as a RAM.

ステップS162では、そのステップS161で取得したデータに基づき、次のステップの判定に使用するユーザーに関係する情報となる利用履歴情報をユーザー情報記録部3から抽出する。   In step S162, based on the data acquired in step S161, usage history information, which is information related to the user used for determination in the next step, is extracted from the user information recording unit 3.

ここで図4を用いて、この利用履歴情報の作成方法について詳細に説明する。図4にはユーザーが過去に利用した車外対象物の利用履歴に関する情報が、ユーザー情報記録部3のテーブル(3a1、3a2、3b1、3b2)に後述する条件毎に記録されている。この各テーブルには優先度(位)、利用頻度(%)、ユーザーが利用した車外対象物の種類(建物や山等の車外対象物に付けられた固有名称を一般名称に抽象化したもの)の項目が予め用意されている。   Here, a method of creating the usage history information will be described in detail with reference to FIG. In FIG. 4, information related to the usage history of the non-vehicle object used by the user in the past is recorded in the table (3a1, 3a2, 3b1, 3b2) of the user information recording unit 3 for each condition described later. In each table, priority (rank), frequency of use (%), type of non-vehicle object used by the user (specific names given to non-vehicle objects such as buildings and mountains are abstracted into common names) Items are prepared in advance.

このテーブルの設計思想は、ユーザーの日常よく利用する車外対象物が、そのユーザーが注目している(≒ユーザーの関心が高いと推定される、又はユーザーが知りたい)車外対象物であるとして作られている。   The design philosophy of this table is based on the assumption that an object outside the vehicle that is frequently used by the user is an object outside the vehicle that the user is paying attention to (approximately estimated that the user is interested or wants to know). It has been.

尚、ユーザー情報記録部3に記録されたテーブルは、地図データ上にある各車外対象物を固有名詞ではなく上位概念の種類で分類して(カテゴリ別に分けて)記録している。例えば車外対象物が○□ラーメンという店であれば、レストランの種類に分類し、富士山であれば山の種類に分類する。このように種類で記録している理由は、ユーザーの過去利用した車外対象物を抽象化した種類毎に分けることで、これまでユーザーが利用したことがない車外対象物であっても、それがユーザーにとって関心のある車外対象物か否かを、種類を見ることで予想することができる。また種類で括ることにより、固有名詞全てを記録して検索するよりも、記録容量の節約や検索時間を短縮できる利点もある。   The table recorded in the user information recording unit 3 records each object outside the vehicle on the map data by classifying it according to the type of the higher concept rather than the proper noun (dividing into categories). For example, if the object outside the vehicle is a store called □□ ramen, it is classified as a restaurant type, and if it is Mount Fuji, it is classified as a mountain type. The reason for recording by type in this way is to divide the objects outside the vehicle that the user has used in the past into different types, so that even if it is an object outside the vehicle that the user has never used, Whether or not it is an object outside the vehicle that is of interest to the user can be predicted by looking at the type. In addition, by categorizing by type, there are advantages in that the recording capacity can be saved and the search time can be shortened rather than recording and searching all proper nouns.

そしてこの図4のテーブルの利用履歴情報は大きく分けて2つのグループで記録されており、日にちに関するテーブルグループ(3a1、3a2)と、地域(場所)に関するテーブルグループ(3b1、3b2)に分けられている。   The usage history information of the table of FIG. 4 is roughly divided into two groups, and is divided into a table group (3a1, 3a2) related to the date and a table group (3b1, 3b2) related to the region (location). Yes.

尚、上述のステップS162の利用履歴情報について、日にちに関するか、地域(場所)に関するかのどちらのグループのテーブルを用いるかは、図2の処理を開始する前(少なくともステップS162の処理前)に図示しないタッチパネルなどの入力装置からユーザー等の操作によって予め選択(又は設定)されている。   It should be noted that whether the table of the group relating to the date or the region (location) is used for the use history information in step S162 described above is determined before starting the process of FIG. 2 (at least before the process of step S162). It is selected (or set) in advance by an operation of a user or the like from an input device such as a touch panel (not shown).

ここからは、上記の各テーブルグループ内部についての作成方法について説明する。   From now on, the creation method for each table group will be described.

まず、日にち(平日、休日)に関するテーブルグループ(3a1、3a2)が予め選択された場合の、テーブル内部の作成方法について以下、具体的に説明する。   First, a method for creating the inside of the table when the table group (3a1, 3a2) related to the date (weekday, holiday) is selected in advance will be specifically described below.

日常において車両を使用中のユーザーが車外対象物を利用したとき(利用とは、例えば車外対象物の駐車場に停車したとき、又はその場所に所定時間滞在したとき等を言う)に、車外対象物の種類のデータやその位置に関するデータ、車外対象物を利用したときの日時データが制御部2に入力される。   When a user who is using a vehicle in daily life uses an object outside the vehicle (use refers to, for example, when the user stops at the parking lot of the object outside the vehicle or stays at the place for a predetermined time) Data on the type of the object, data on its position, and date / time data when the object outside the vehicle is used are input to the control unit 2.

そして制御部2では、その入力された各データに基づき、テーブルグループ内で、どのテーブルの内部情報を書き換えるかを決める。   Then, the control unit 2 determines which table internal information is to be rewritten within the table group based on the input data.

そして制御部2は、入力されたデータを基に利用頻度(%)を算出する。また制御部2が利用頻度を算出する度に、テーブルは利用頻度が大きい順に優先度(1位、2位、3位、・・・)を設定する。   And the control part 2 calculates utilization frequency (%) based on the input data. Each time the control unit 2 calculates the usage frequency, the table sets priorities (first, second, third,...) In descending order of usage frequency.

尚、ここで使用する種類(例えば百貨店、レストラン、スポーツジム等の一般名称)は地図データに登録された車外対象物毎に予め記録されている。   The types used here (for example, general names such as department stores, restaurants, and gyms) are recorded in advance for each object outside the vehicle registered in the map data.

ここで上述の説明をもっとわかり易くするために、まず日にちに関するテーブルグループが予め選択された場合を具体例に、そのテーブル内部の作成方法についての以下に説明する。   Here, in order to make the above description easier to understand, a case where a table group relating to a date is selected in advance will be described below with reference to a specific example of a method for creating the table.

ユーザーが○×百貨店という名称の百貨店(種類)で買い物をするために、車両をその百貨店で停車した場合、車外対象物をユーザーが利用したと判断する。   When a user stops a vehicle at a department store (type) named XX department store, it is determined that the user has used an object outside the vehicle.

尚、利用したと判断する方法は上記に限らず、例えばカーナビゲーション装置(非図示)の目的地設定機能を用いて、車外対象物となる目的地の場所(例えば○△イートという名称のレストラン)や立ち寄り場所(例えば△△ジムという名称のスポーツジム)が設定されているときに、それらの場所に車両が進入した場合に、車外対象物をユーザーが利用したと判断してもよい(設定された目的地なので到着すれば停車することが予想できるため)。   Note that the method of determining use is not limited to the above. For example, the destination setting function of a car navigation device (not shown) is used to set a destination location (for example, a restaurant named △ Δ Eat) as an object outside the vehicle. When a stop-by place (for example, a gym named △△ gym) is set, and a vehicle enters these places, it may be determined that the user has used an object outside the vehicle (set) Because it is a destination, you can expect to stop if you arrive).

入力された上述の日時データが、日曜(休日)であった場合、テーブルは3a1(用履歴情報・休日)を選択する。   When the input date and time data is Sunday (holiday), the table selects 3a1 (history information for holidays / holiday).

そして制御部2は、入力された各データ(車外対象物の種類)を元に利用頻度(%)を算出する。具体的な例をあげると、テーブル3a1で今回利用した種類(百貨店)と同じで、かつ過去に入力された種類(百貨店)の累積数(例えば累積数29)に今回利用した分(つまり1)を加えた数(29+1=30)を、テーブル3a1の過去に入力された全ての種類の総数(例えば総数100)で割る除算を行うことで利用頻度(%)を算出する。今回の例の場合、テーブル3a1の百貨店の利用頻度は30/100×100(%表示)=30(%)となる。また制御部2は利用頻度が算出される度に、テーブル3a1は利用頻度が大きい順に優先度(1位、2位、3位、・・・)を設定する。ここでの百貨店の優先度は最も高い1位に設定されている。   And the control part 2 calculates utilization frequency (%) based on each input data (type of object outside a vehicle). As a specific example, the type (department store) used this time in the table 3a1 is the same as the type (department store) used this time, and the cumulative number (for example, 29) of the type (department store) input in the past is the amount used this time (that is, 1). The usage frequency (%) is calculated by dividing the number obtained by adding (29 + 1 = 30) by the total number (for example, 100 in total) of all types input in the past in the table 3a1. In the case of this example, the usage frequency of the department store in the table 3a1 is 30/100 × 100 (% display) = 30 (%). Each time the usage frequency is calculated, the control unit 2 sets priorities (first, second, third,...) In order of increasing usage frequency. The priority of the department store here is set to the highest.

尚、この優先度は利用頻度の順位を分かりやすく説明するために設けたものであり、必須のデータではない。従って優先度の代わりに利用頻度を直接後述する種類の判定(ステップS163)に用いてもよい。   Note that this priority is provided for easy understanding of the order of use frequency and is not essential data. Therefore, the usage frequency may be directly used for the type determination (step S163) described later instead of the priority.

このようにユーザーが上述の百貨店以外の車外対象物の種類を利用した場合であっても、同様の算出方法でその車外対象物の種類に対応する利用頻度、及び優先度が求められ、テーブル3a1に記録される。   As described above, even when the user uses a type of a non-vehicle object other than the above-described department store, the use frequency and priority corresponding to the type of the non-vehicle object are obtained by the same calculation method, and the table 3a1 To be recorded.

また、地域(場所)に関するテーブルグループ(3b1、3b2)が予め選択された場合の、テーブル内部の作成方法についても以下、具体的に説明する。   In addition, a method for creating the inside of the table when the table group (3b1, 3b2) relating to the region (location) is selected in advance will be specifically described below.

入力された上述の位置データが、自宅周辺であった場合、テーブルは3b1(利用履歴情報・自宅周辺)を選択する。また、ユーザーはその自宅周辺で○△コンビニという名称のコンビニエンスストア(種類)を利用したとする。   If the input position data is around the home, the table selects 3b1 (usage history information / home neighborhood). In addition, it is assumed that the user uses a convenience store (type) called △ convenience store around the home.

そして制御部2は、上述の日にちに関するテーブルの算出方法と同様に、入力されたデータを元に利用頻度(%)を算出する。このコンビニエンスストアの利用頻度は30%であり、優先度は最も高い1位に設定されている。また他の種類についても同様の算出方法で利用頻度、及び優先度が求められ、テーブル3b1に記録されている。   And the control part 2 calculates utilization frequency (%) based on the input data similarly to the calculation method of the table regarding the above-mentioned date. The usage frequency of this convenience store is 30%, and the highest priority is set. For other types, the use frequency and the priority are obtained by the same calculation method and recorded in the table 3b1.

以上の様に、ユーザーに関係する情報としての利用履歴情報は、車両利用中のユーザーが車外対象物を利用する毎に記録・更新される。   As described above, the usage history information as information relating to the user is recorded / updated every time the user using the vehicle uses the object outside the vehicle.

ここで図3のステップS162の利用履歴情報の抽出に戻る。車両は現在、休日(日曜)の市街地にいるとし、テーブルグループは日にちに関するテーブルが予め選択されているとする。この場合、休日であるため図4のテーブル3a1が利用履歴情報として抽出される。   Here, the process returns to the extraction of usage history information in step S162 in FIG. It is assumed that the vehicle is currently in a city area on a holiday (Sunday), and a table relating to the date is selected in advance as the table group. In this case, since it is a holiday, the table 3a1 in FIG. 4 is extracted as usage history information.

次にステップS163に進み、利用履歴情報(例ではテーブル3a1)の所定値以上の優先度(利用頻度を直接用いても良い)の種類が、特定された複数の車外対象物の種類と一致するか否かを判定する。   Next, the process proceeds to step S163, and the type of priority (usage frequency may be used directly) equal to or higher than a predetermined value in the usage history information (table 3a1 in the example) matches the types of the plurality of specified outside objects. It is determined whether or not.

具体的な例として、特定された複数の車外対象物が4つ(名称:種類→○△ジム:スポーツジム、○○百貨店:百貨店、××百貨店:百貨店、×○博物館:文化施設)あった場合を仮定する。テーブル3a1の優先度の所定値を3以上と予め決められているとすると、テーブル3a1の優先度が1位の百貨店、2位のレストラン、3位のスーパーマーケットが所定値以上の優先度の種類に該当する。この1〜3位の種類中で、その特定された複数の車外対象物(4つ)の種類と同じ種類が一致するか否かを検索する。この場合では百貨店の種類に該当する○○百貨店、××百貨店の2つが、テーブル3a1の優先度1位の百貨店の種類に該当するため、利用履歴情報(テーブル3a1)の3以上の優先度の種類が、特定された複数の車外対象物の種類と一致すると判定し、ステップS164に進む。   As a specific example, there were four specified non-vehicle objects (name: type → ○ △ gym: sports gym, XX department store: department store, XX department store: department store, XX museum: cultural facility). Assume a case. Assuming that the predetermined value of the priority of the table 3a1 is determined to be 3 or more in advance, the department store with the first priority in the table 3a1 is the first restaurant, the second restaurant, and the third supermarket is a priority type with a predetermined value or higher. Applicable. It is searched whether or not the same type as the types of the plurality of specified external objects (four) among the first to third types matches. In this case, since XX department store and XX department store corresponding to the type of department store correspond to the type of department store with the highest priority in the table 3a1, the usage history information (table 3a1) has three or more priorities. It is determined that the type matches the types of the plurality of specified external objects, and the process proceeds to step S164.

もし、抽出された利用履歴情報の所定値以上の優先度の種類が、特定された複数の車外対象物の種類と一致しない場合は、この利用履歴情報にはユーザーが知りたい(≒ユーザーの関心が高いと予想される)車外対象物が無いとして処理を終了する(図2のS17に進む)。   If the priority type of the extracted usage history information equal to or higher than the predetermined value does not match the types of the plurality of specified outside objects, the user wants to know the usage history information (≈ user's interest). The process is terminated assuming that there is no object outside the vehicle (proceeds to S17 in FIG. 2).

尚、この優先度の所定値の決め方は上述のように固定値を予め決めて設定してあってもよいが、条件に応じて優先度の所定値が変わる方法であってもよい。例えば利用頻度が所望値(ユーザーの関心があると予想される値、例えば10%と設定)を超えた値に最も近い利用頻度値を有する種類の優先度の値を所定値と定めてもよい。このように利用頻度の所望値に応じて優先度の所定値を変更することで、利用頻度の少ない種類を排除することができるため、ユーザーの関心がより高い種類だけを車外対象物を絞り込む判定に用いることができる。   The predetermined value of the priority may be determined by setting a fixed value in advance as described above, but may be a method in which the predetermined value of priority changes according to the conditions. For example, a priority value of a type having a usage frequency value closest to a value whose usage frequency exceeds a desired value (a value expected to be of interest to the user, such as 10%) may be set as the predetermined value. . In this way, by changing the predetermined priority value according to the desired value of the usage frequency, it is possible to eliminate the types with less usage frequency, so that only the types with higher user interest are selected to narrow down the objects outside the vehicle Can be used.

ステップS164では、「利用履歴情報の所定値以上の優先度の各種類が、特定された複数車外対象物の種類と一致する」条件を満たすこととなった車外対象物に対し、前処理で抽出された名称や案内等の情報を抽出し(読み込み)、処理を終了する(図2のS17に進む)。具体的には、上述のステップS163の例では、○○百貨店、××百貨店の2つに対する名称や案内等の情報だけを残し、他の○△ジム、×○博物館に関する各情報は破棄する。そしてステップS17で、ステップS163で抽出された2つの建物の名称や案内等の情報を各々順に出力する。   In step S164, pre-extraction is performed on an object outside the vehicle that satisfies the condition that “each type of priority equal to or higher than a predetermined value of the usage history information matches the type of the specified plurality of objects outside the vehicle”. The extracted information such as the name and guidance is extracted (read), and the process ends (proceeds to S17 in FIG. 2). Specifically, in the example of step S163 described above, only information such as the name and guidance for the two stores XX department store and XX department store is left, and the other information regarding the XX gym and XX museum are discarded. In step S17, information such as the names and guidance of the two buildings extracted in step S163 is sequentially output.

以上の構成により、車外対象物が複数特定された場合、この特定された車外対象物に対応する種類のうち、ユーザー情報記録部3に記録された種類と一致する種類に対応する車外対象物を出力対象とすることができる。従って車外対象物が複数特定された場合であっても、ユーザーが注目している(≒ユーザーの関心が高いと推定される、又はユーザーの知りたい)車外対象物をより精度良く特定し、出力することができる。   With the above configuration, when a plurality of objects outside the vehicle are specified, out-of-vehicle objects corresponding to the types corresponding to the types recorded in the user information recording unit 3 among the types corresponding to the specified objects outside the vehicle. Can be output. Therefore, even when multiple objects outside the vehicle are specified, the object outside the vehicle that the user is paying attention to (≈ estimated that the user's interest is high or the user wants to know) can be identified and output more accurately. can do.

尚、上述したステップS163の例のように、たとえ最終的に特定された車外対象物が複数あったとしても(1つに絞りきれなかったとしても)、それらの車外対象物はユーザーの注目している車外対象物であるので問題ない。   As in the example of step S163 described above, even if there are a plurality of finally identified objects outside the vehicle (even if they cannot be narrowed down to one), these objects outside the vehicle are not noticed by the user. There is no problem because it is an object outside the car.

(その他の実施形態)
まず、当該その他の実施形態で用いる運転支援装置は、本実施形態に示した運転支援装置1と同じ構成要素を有しており、同一の構成要素及び運転支援装置1の制御処理を示すフローチャートの同一の処理には、同一の符号を付し、その詳細な説明を省略する。
(Other embodiments)
First, the driving support device used in the other embodiments has the same components as the driving support device 1 shown in the present embodiment, and the same components and the flowchart showing the control processing of the driving support device 1 are shown. The same processing is denoted by the same reference numeral, and detailed description thereof is omitted.

ユーザーが過去に車両走行した道路であれば、過去にその道路から見える車外対象物は、興味があれば過去に確認していると予想されるため、既にその車外対象物の情報を知っていると考えられる。そこで図2のステップS14の代わりの制御処理として、図5に示すような過去に現在走行中の道路を走行したことがあるか否かの判定を加えた処理手段を用いてもよい。   If a user has driven a road in the past, the object outside the vehicle that can be seen from the road in the past is expected to have been confirmed in the past if you are interested, so you already know the information about the object outside the vehicle it is conceivable that. Therefore, as a control process in place of step S14 in FIG. 2, a processing unit that adds a determination as to whether or not the vehicle has traveled on a road that is currently traveling as shown in FIG. 5 may be used.

ステップS141では、図2のステップS14と同様、自車位置・視線方向・発話内容に基づき、地図データから車外対象物を特定する。そして車外対象物に関する名称や案内等の情報を抽出する。   In step S141, as in step S14 of FIG. 2, an object outside the vehicle is specified from the map data based on the vehicle position, line-of-sight direction, and utterance content. And information, such as a name and guidance regarding a non-vehicle object, is extracted.

ステップS142では、車両が現在走行中の道路が、過去に走行したことがある道路か否かを判定する。   In step S142, it is determined whether the road on which the vehicle is currently traveling is a road that has traveled in the past.

尚、この判定のために、日常においてユーザーが車両を走行する度に、その道路の車両位置や地図データの情報から道路の走行経路及びその走行したときの日時がユーザー情報記録部3に記録されている。そして車両の現在位置が、過去の走行経路上にあるか否かを検索することによって、過去に走行したことがある道路か否かを判定する。   For this determination, every time a user travels a vehicle, the road travel route and the date and time when the user travels are recorded in the user information recording unit 3 from the vehicle position and map data information of the road. ing. Then, by searching whether or not the current position of the vehicle is on a past travel route, it is determined whether or not the road has traveled in the past.

過去に走行したことがない道路だと判定された場合は、当処理を終了し、図2のステップS15に進む。また、過去に走行したことがある道路だと判定された場合は、ステップS143に進む。   If it is determined that the road has never traveled in the past, the process is terminated, and the process proceeds to step S15 in FIG. If it is determined that the road has traveled in the past, the process proceeds to step S143.

ステップS143では、ステップS141で特定された車外対象物の内、現在の道路を前回走行した日時から現時点の日時迄に、地図データで新規に更新又は追加された地物が存在するかを検索する。   In step S143, a search is performed as to whether there is a feature that has been newly updated or added to the map data from the date and time when the vehicle traveled on the current road to the current date and time among the objects outside the vehicle identified in step S141. .

ステップS144では、ステップS143の検索結果を基に、新規に更新又は追加された地物が、特定された車外対象物と一致するか否かを判定する。新規に更新又は追加された地物が無いと判定された場合は、当処理を終了し、図2のステップS15に進む。また、新規に更新又は追加された地物と車外対象物が一致すると判定された場合は、ステップS145に進む。   In step S144, based on the search result in step S143, it is determined whether or not the newly updated or added feature matches the specified external object. If it is determined that there is no newly updated or added feature, the process ends, and the process proceeds to step S15 in FIG. If it is determined that the newly updated or added feature matches the object outside the vehicle, the process proceeds to step S145.

ステップS145では、ステップS141で特定された車外対象物の内、地図データで新規に更新又は追加された地物と一致するものを、さらに絞り込んだ車外対象物として特定する。   In step S145, among the objects outside the vehicle specified in step S141, the objects that match the newly updated or added features in the map data are specified as the further objects outside the vehicle.

このステップS145の思想は、ユーザーが普段通るような道路に見かけないものがあったら気になって知りたいと考えるからである。逆に普段通るような道路であれば、ユーザーは殆どの建物等の施設や山等の物体は既に知っていると考えられるため、地図データで新規に更新又は追加された目新しいもの(地物)に関心があると推測される。そのため、地図データで新規に追加又は更新された地物が、特定された車外対象物と一致するときは、この特定された車外対象物に対応する新規に更新又は追加された地物を出力対象としている。そしてその出力対象として地物(=車外対象物)に関する名称や案内等の情報を抽出する(ステップS141で抽出した車外対象物のうち、絞り込んだ車外対象物に関する情報を読み込む)。   The idea of step S145 is that the user wants to know if there is something that the user does not see on the road that he usually passes. On the other hand, if it is a regular road, the user is probably already aware of most facilities such as buildings and objects such as mountains, so new ones that have been updated or added with map data (features) Presumed to be interested. Therefore, when a newly added or updated feature in the map data matches the specified off-vehicle object, the newly updated or added feature corresponding to the specified off-vehicle object is output. It is said. Then, information such as a name and guidance regarding the feature (= non-vehicle object) is extracted as the output target (read information on the narrowed non-vehicle object is read out of the non-vehicle object extracted in step S141).

上述のような処理を行うことにより、複数の車外対象物が特定された場合に、車両のユーザーが注目している車外対象物を、出力対象としてより絞り込んで特定することができる。   By performing the processing as described above, when a plurality of objects outside the vehicle are specified, the objects outside the vehicle that the vehicle user is paying attention to can be further narrowed down and specified as output targets.

ここで図1〜図5を利用して説明してきた本実施形態の作用効果の流れについて、図6の概要図を用いて分かりやすく説明する。   Here, the flow of the effects of the present embodiment described with reference to FIGS. 1 to 5 will be described in an easy-to-understand manner using the schematic diagram of FIG.

トークSW10がオンされた後、ステップS10、11にて、ユーザーの視線方向を検出する。そしてステップS13でユーザーからの質問(例えばあれは何?)であると認識されると、続くステップS141で視線方向及び音声認識結果に基づき、地図データを用いて車外対象物を特定する。ここでの特定された車外対象物は複数の4つ(名称:種類→○△ジム:スポーツジム、○○百貨店:百貨店、××百貨店:百貨店、×○博物館:文化施設)である。   After the talk SW 10 is turned on, the user's line-of-sight direction is detected in steps S10 and S11. Then, if it is recognized in step S13 that the question is from the user (for example, what is that?), In a subsequent step S141, an object outside the vehicle is specified using map data based on the line-of-sight direction and the voice recognition result. Here, there are a plurality of four objects specified outside the vehicle (name: type → XX gym: sports gym, XX department store: department store, XX department store: department store, XX museum: cultural facility).

ここで、現在走行中の道路が過去に走行したことのある道路である場合は、走行履歴情報から過去走行した時点より新規に更新・追加された地物があるかを検索する。ステップS145では、走行履歴情報の検索から、○△ジムと××百貨店が新規に更新・追加された地物であると検出されると、○○百貨店と×○博物館は特定された車外対象物から除外し、新しい施設情報を持つ○△ジムと××百貨店を、ユーザーが注目している車外対象物として特定する。   Here, when the road currently being traveled is a road that has traveled in the past, it is searched from the travel history information whether there is a feature that has been newly updated or added from the past travel time. In step S145, if it is detected from the search of the travel history information that XX gym and XX department store are newly updated / added features, XX department store and XX museum are identified as objects outside the vehicle. The △ gym and XX department store with new facility information are identified as objects outside the vehicle that the user is paying attention to.

そして、特定された車外対象物はまだ複数存在する(ここでは2つ存在する)ため、次に利用履歴情報を用いて車外対象物をさらに絞り込む。   Since there are still a plurality of identified objects outside the vehicle (two exist here), the usage history information is used to further narrow down the objects outside the vehicle.

ステップS164では最初にトークSW10を押下した時点の日時から、現在日曜(休日)であるとすると、利用履歴情報から例えば「休日は百貨店に行く頻度が比較的多い」という情報を取得すると、ユーザーは特定された車外対象物のうち、○△ジムを除外し、ユーザーが休日よく利用する百貨店の種類に分類される××百貨店を車外対象物として特定する。そしてステップS17で特定した対象物(××百貨店)の情報をユーザーに通知する。例えば「これは、××百貨店です。最上階のフロアーでは□□の期間中、全国ご当地グルメイベントが開催されています。」といった案内情報をユーザーに映像や音声を用いて出力(報知)する。このようにして、複数の車外対象物が特定された場合に、複数の車外対象物をさらに特定する2つの手段を併用することで、車両のユーザーが注目している車外対象物を出力対象としてより一層精度良く特定し、出力することができる。   In step S164, from the date and time when the talk SW 10 is first pressed, if it is the current Sunday (holiday), for example, when acquiring information such as “Holidays are relatively frequent for department stores” from the usage history information, the user Among the identified non-vehicle objects, XX gym is excluded, and the XX department store classified as the type of department store frequently used by the user is identified as the non-vehicle object. And the information of the target object (xx department store) specified by step S17 is notified to a user. For example, “This is a XX department store. On the top floor, local gourmet events are held during the period of □□.” Information is output (notified) to the user using video and audio. . In this way, when a plurality of objects outside the vehicle are specified, by using two means for further specifying the plurality of objects outside the vehicle, the object outside the vehicle that the vehicle user is paying attention to is output. It is possible to specify and output with higher accuracy.

ところで、図2のステップS16における複数の車外対象物を特定する処理は、図3、図4を用いて上述したように車両のユーザーが過去に利用してきた車外対象物の利用頻度に基づいて車外対象物を絞り込む方法を用いたが、本実施形態はこれに限ることはなく、例えば図7、図8に示すような他の方法であってもよい。   By the way, the process of specifying a plurality of objects outside the vehicle in step S16 in FIG. 2 is based on the use frequency of the objects outside the vehicle that the vehicle user has used in the past as described above with reference to FIGS. Although the method of narrowing down the objects is used, the present embodiment is not limited to this, and other methods such as those shown in FIGS. 7 and 8 may be used.

図7は図2のステップS16における複数の車外対象物の特定処理において、ユーザーに関係する情報(ここではユーザーが興味を持っている情報=興味情報)に基づいて車外対象物を絞り込むための処理手段を示すフローチャートである。ここでは図2のステップS15で車外対象物が複数特定された場合(車外対象物が1つではない場合)に本処理がスタートする。   FIG. 7 shows a process for narrowing down the objects outside the vehicle based on the information related to the user (in this case, the information that the user is interested in = interest information) in the process of identifying a plurality of objects outside the vehicle in step S16 in FIG. It is a flowchart which shows a means. Here, this process starts when a plurality of objects outside the vehicle are specified in step S15 in FIG. 2 (when there is not one object outside the vehicle).

ステップS165では、ステップS166の判定処理に必要な興味情報のデータをユーザー情報記録部3から取得する。   In step S165, the interest information data necessary for the determination process in step S166 is acquired from the user information recording unit 3.

ここで図8を用いて、この興味情報の作成方法について詳細に説明する。図8にはユーザーが興味を持っているものに関するテーブル3cが、ユーザー情報記録部3に記録されており、このテーブルには優先度(位)、ユーザーが興味のある分野、ユーザーが興味のある分野に該当する車外対象物の種類の項目が予め用意されている。   Here, the method of creating the interest information will be described in detail with reference to FIG. In FIG. 8, a table 3c relating to what the user is interested in is recorded in the user information recording unit 3, and in this table, the priority (rank), the field in which the user is interested, and the user are interested. Items of types of objects outside the vehicle corresponding to the field are prepared in advance.

このテーブルの設計思想は、ユーザーが普段より興味を持っている分野が、そのユーザーが注目している(≒ユーザーの関心が高いと予想される、又はユーザーの知りたい)車外対象物であるとして作られている。   The design philosophy of this table is that the field that the user is more interested in is an object outside the vehicle that the user is paying attention to (≒ Expected to be high user's interest or want to know) It is made.

このテーブル3cは、分野項目として事前に用意した複数の関心事(新しいもの、食べるもの、運動するもの、読むもの・・・等)を、ユーザーが興味のある順に図示しない入力装置から当処理を行う前に予め選択してもらい、それを優先度順に並べて記録されている。また、その分野に対応する種類も予め用意されており、それぞれテーブルに記録されている。例えば、ユーザーが「新しいもの」の分野に関心があった場合、それに対応する種類は「最新の地図データで情報が更新・追加された建物や施設など」が該当する。またその他、「食べるもの」の分野であれば、それに対応する種類は飲食に関係する店(居酒屋、レストラン、ファーストフード、コンビニエンスストア、など)が該当する。   This table 3c is used to process a plurality of interests (new things, things to eat, things to exercise, things to read, etc.) prepared in advance as field items from an input device (not shown) in the order in which the user is interested. They are selected in advance before performing, and are recorded in order of priority. In addition, types corresponding to the field are prepared in advance and recorded in a table. For example, when the user is interested in the field of “new”, the corresponding type corresponds to “a building or facility whose information is updated or added with the latest map data”. In addition, in the field of “food”, the type corresponding to the category is a store related to eating and drinking (Izakaya, restaurant, fast food, convenience store, etc.).

本実施形態では、所定値以上の優先度(例えば上位にある3以上の優先度)をユーザーの注目している車外対象物であるとしている。ステップS165では、興味情報のデータとして、テーブル3cの優先度1〜3の「新しいもの」「食べるもの」「運動できるもの」の該当する種類の欄に記録された各種類の情報を取得する。   In the present embodiment, a priority level equal to or higher than a predetermined value (for example, a higher priority level of 3 or higher) is assumed to be an out-of-vehicle object that the user is paying attention to. In step S165, as the interest information data, information of each type recorded in the corresponding type column of “new”, “eat”, “exercise” of the priority levels 1 to 3 in the table 3c is acquired.

ステップS166では、興味情報に記録された上述の優先度1〜3の各種類が、図2のステップS15で特定された複数の車外対象物の種類と一致するか否かを判定する。もし優先度1〜3の各種類が、その複数の車外対象物の種類と一致しない場合は、当処理を終了し、図2のステップS17に進む。また、その複数の車外対象物の種類と一致する場合は、ステップS167に進む。   In step S166, it is determined whether or not each type of the above-described priorities 1 to 3 recorded in the interest information matches the types of the plurality of non-vehicle objects specified in step S15 in FIG. If the types of the priorities 1 to 3 do not match the types of the plurality of non-vehicle objects, the process is terminated and the process proceeds to step S17 in FIG. Further, if the types of the plurality of objects outside the vehicle coincide with each other, the process proceeds to step S167.

ステップS167では、「興味情報の所定値以上の優先度の各種類が、特定された複数の車外対象物の種類と一致する」条件を満たすこととなった車外対象物に対し、前処理で抽出された名称や案内等の情報を抽出し、処理を終了する(S17に進む)。具体的には、特定された複数の車外対象物が4つ(名称:種類→○△ジム(新規):スポーツジム、○○百貨店:百貨店、××百貨店(新規):百貨店、×○博物館:文化施設)あった場合を仮定する。例えば、○△ジム、××百貨店の2つが最近新規に開店され、地図データに追加されたとした場合、その○△ジム、××百貨店に対する名称や案内等の情報だけを残し、他の○○百貨店、×○博物館に関する各情報は破棄する。そしてステップS17で、ステップS167で抽出された2つの建物の名称や案内等の情報を各々順に出力する。   In step S167, the pre-processing is performed on the out-of-vehicle object that satisfies the condition that each type of priority equal to or higher than the predetermined value of the interest information matches the types of the plurality of specified out-of-vehicle objects. The extracted information such as the name and guidance is extracted, and the process ends (proceeds to S17). Specifically, there are four identified non-vehicle objects (name: type → ○ △ gym (new): gym, XX department store: department store, XX department store (new): department store, XX museum: Assume that there is a cultural facility. For example, if two of XX Gym and XX department stores were recently opened and added to the map data, only the information such as the name and guidance for the XX gym and XX department stores is left, and the other XX Discard information about department stores and XX museums. In step S17, information such as the names and guidance of the two buildings extracted in step S167 is sequentially output.

このように車外対象物が複数特定された場合でも、ユーザーが興味を有する車外対象物の種類が、その複数特定された車外対象物の種類と一致する場合に、ユーザーが興味を示す種類に属する車外対象物を出力対象とできる。つまりユーザーが注目している車外対象物をより精度良く特定して出力することができる。また、この図7、図8に示すようなユーザーの入力結果に基づいて複数の車外対象物を特定する処理は、ユーザーにとって予め興味のある分野を設定させるといった煩わしさはあるが、図3、図4に示すような過去記録を集める特定処理に比べ、ユーザー情報記録部3に記録される容量は少なくて済むため、コスト的な利点がある。   Even when a plurality of objects outside the vehicle are specified in this way, if the type of the object outside the vehicle that the user is interested in matches the type of the object outside the vehicle that is specified, it belongs to the type that the user is interested in. An object outside the vehicle can be output. In other words, it is possible to specify and output the object outside the vehicle that the user is paying attention to with higher accuracy. In addition, the process of specifying a plurality of objects outside the vehicle based on the input results of the user as shown in FIGS. 7 and 8 is troublesome to set a field of interest to the user in advance. Compared with the specific process of collecting past records as shown in FIG. 4, the capacity recorded in the user information recording unit 3 can be reduced, which is advantageous in terms of cost.

さらに上述したように、本実施形態及びその他の実施形態によれば、車両のユーザーが注目している車外対象物をより精度良く特定することができるため、ユーザーが「あれは何?」といった簡単な質問をしても、従来に比べより適切にユーザーの知りたい車外対象物に関する情報を案内できるといった特別な効果を得ることができる。   Further, as described above, according to the present embodiment and other embodiments, it is possible to more accurately identify an object outside the vehicle that is being noticed by the user of the vehicle, so that the user can simply say “what is that?” Even if a question is asked, it is possible to obtain a special effect that information on an object outside the vehicle that the user wants to know can be guided more appropriately than in the past.

以上、本発明の運転支援装置における実施形態を説明してきたが、本発明は上述した実施形態に限定されるものでなく、本発明は特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り適用できる。   As mentioned above, although embodiment in the driving assistance device of this invention has been described, this invention is not limited to embodiment mentioned above, This invention deviates from the summary of the invention which concerns on each claim of a claim Applicable as long as not.

例えば本実施形態では、ユーザーの視線方向の検出方法は、ユーザーの目の動きから検出するものであるがこれに限ることは無く、例えば顔面の向きから視線方向を推測して視線方向として検出してもよく、また、ユーザーの指をカメラで撮影してその指し示す方向から視線方向を推測して視線方向として検出してもよい。   For example, in this embodiment, the detection method of the user's gaze direction is detected from the movement of the user's eyes, but is not limited to this. For example, the gaze direction is estimated from the face direction and detected as the gaze direction. Alternatively, the user's finger may be photographed with a camera and the line-of-sight direction may be estimated from the pointing direction and detected as the line-of-sight direction.

また、図2のステップS13では、ユーザーからの質問が無かった場合、ずっと質問待ちの処理を行っているが、これに限ることは無く、例えば一定時間経過したら強制的に図2の処理を終了させるようなフロー処理を追加して設けてもよい。   In step S13 of FIG. 2, when there is no question from the user, the process of waiting for the question is performed all the time. However, the process is not limited to this. For example, the process of FIG. Additional flow processing may be provided.

さらに、図4の利用履歴情報のテーブルはこれに限ることは無く、より正確にユーザーの知りたい車外対象物を特定するためにテーブルを細分化してもよい。例えば曜日に対して時間(朝、昼、夜)毎にさらに細分化して用意してもよい。   Furthermore, the usage history information table of FIG. 4 is not limited to this, and the table may be subdivided in order to more accurately specify the object outside the vehicle that the user wants to know. For example, it may be prepared by further subdividing for each time (morning, noon, night) with respect to the day of the week.

また、カーナビゲーション装置で目的地が設定されている場合は、往路、復路毎のテーブルを設けてもよい。   In addition, when a destination is set in the car navigation device, a table for each outbound route and inbound route may be provided.

さらに各テーブルグループ同士の組み合わせであってもよく、例えば休日の自宅周辺で車外対象物を特定する場合は、図4のテーブル3a1と3b1に共通する種類の利用頻度を掛け合わせて重み付けし、その掛け合わせた値が高い順に優先度を設定して判定に利用しても良い。   Furthermore, it may be a combination of each table group. For example, when specifying an object outside the vehicle around a holiday home, weighting is performed by multiplying the types of usage frequencies common to the tables 3a1 and 3b1 in FIG. Priorities may be set in descending order of the multiplied values and used for determination.

また、つまり各実施形態を組み合わせた構成であってもよい。例えば、図7、図8を用いた処理(図2のステップS16の他の実施例)と、図5の処理(図2のステップS14の他の実施例)とを組み合わせて用いても良い。また、図5の処理のうちステップS142〜ステップS145の処理は、図3、図4を用いた処理(又は図7、図8を用いた処理)の前後どちらで実行しても良い。   In other words, the configuration may be a combination of the embodiments. For example, the process using FIGS. 7 and 8 (another embodiment of step S16 in FIG. 2) and the process of FIG. 5 (another embodiment of step S14 in FIG. 2) may be used in combination. 5 may be executed either before or after the process using FIGS. 3 and 4 (or the process using FIGS. 7 and 8).

そして本発明の運転支援装置は、地図データ入力装置14や出力装置30等の各種装置や各種制御機能を共通して利用できるカーナビゲーション装置と組み合わせることにより、コスト低減を図ることができるため、カーナビゲーションシステムとしても好ましく実施できる。   The driving support device of the present invention can reduce costs by combining various devices such as the map data input device 14 and the output device 30 and a car navigation device that can commonly use various control functions. It can be preferably implemented as a navigation system.

また、車外対象物に関する名称や案内等の情報の抽出処理(前もって抽出した情報を読み込む処理も含む)は、ステップS14やステップS164、ステップS141、S145、ステップS167で行っているが、これに限ることは無く、例えばステップS17で一括して情報の抽出処理を行うようにしても良い。   Further, the extraction processing of information such as the name and guidance regarding the object outside the vehicle (including the processing of reading the previously extracted information) is performed in step S14, step S164, steps S141, S145, and step S167, but is not limited thereto. For example, the information extraction process may be performed collectively in step S17.

1 運転支援装置
2 制御部
3 ユーザー情報記録部
10 トークSW
11 マイク
12 位置・方位検出装置
13 視線カメラ
14 地図データ入力装置
20 音声認識処理部
21 現在位置・方位検出処理部
22 視線検出処理部
23 地図データ記録部
24 音声処理部
25 画像処理部
30 出力装置
31 スピーカー部
32 表示部
1 Driving support device 2 Control unit 3 User information recording unit 10 Talk SW
DESCRIPTION OF SYMBOLS 11 Microphone 12 Position / azimuth detection device 13 Line-of-sight camera 14 Map data input device 20 Voice recognition processing unit 21 Current position / azimuth detection processing unit 22 Gaze detection processing unit 23 Map data recording unit 24 Audio processing unit 25 Image processing unit 30 Output device 31 Speaker section 32 Display section

Claims (6)

車両のユーザーが注目している車外対象物を特定する特定手段を有し、特定された車外対象物を出力する運転支援装置において、
前記ユーザーの関心があるものと推定される車外対象物を種類別に分類して記録するユーザー情報記録手段と、
前記特定手段によって特定された車外対象物が複数存在する場合、当該特定された車外対象物に対応する種類のうち、前記ユーザー情報記録手段に記録された種類と一致する種類に対応する車外対象物を出力対象とする手段を備えること
を特徴とする運転支援装置。
In a driving support device that has a specifying means for specifying an object outside the vehicle that the vehicle user is paying attention to, and outputs the specified object outside the vehicle,
User information recording means for classifying and recording the object outside the vehicle estimated to be of interest to the user by type;
When there are a plurality of objects outside the vehicle specified by the specifying means, the objects outside the vehicle corresponding to the type corresponding to the type recorded in the user information recording means among the types corresponding to the specified outside vehicle object A driving support device comprising means for outputting the output.
前記ユーザー情報記録手段は、前記ユーザーが利用した車外対象物が種類別に記録されてなることを特徴とする請求項1に記載の運転支援装置。   The driving support apparatus according to claim 1, wherein the user information recording unit is configured to record an object outside the vehicle used by the user for each type. 前記ユーザー情報記録手段に記録された前記種類は、前記ユーザーが前記車外対象物を利用した日時又は利用した位置に基づいて分類されていることを特徴とする請求項2に記載の運転支援装置。   The driving assistance apparatus according to claim 2, wherein the type recorded in the user information recording unit is classified based on a date and time or a position where the user uses the object outside the vehicle. 前記ユーザー情報記録手段に記録された前記種類は、前記ユーザーにより入力された分野に基づいて分類されていることを特徴とする請求項1に記載の運転支援装置。   The driving support apparatus according to claim 1, wherein the types recorded in the user information recording unit are classified based on a field input by the user. 前記車両の走行履歴を記録する走行履歴記録手段と、
地図データ上の前記地物を新規に更新又は追加する地図情報更新手段と、
前記走行履歴記録手段及び前記地図情報更新手段に基づき、前記車両の現在位置を過去に走行した時点から現時点迄の間に、前記特定手段によって特定された車外対象物の内、前記地図データで前記新規に更新又は追加された地物が存在するか否かを検索する新規地物検索手段と、をさらに有し、
前記特定された車外対象物が複数存在する場合、
前記走行履歴記録手段によって記録された前記走行履歴に基づき、前記現在位置が過去に走行したことのある場所であり、かつ、
前記新規地物検索手段の検索結果により、前記新規に追加又は更新された地物が、前記特定手段によって特定された車外対象物と一致するときは、
当該特定された車外対象物に対応する前記新規に更新又は追加された地物を出力対象とすること
を特徴とする請求項1〜4の何れか1項に記載の運転支援装置。
Travel history recording means for recording the travel history of the vehicle;
Map information updating means for newly updating or adding the feature on the map data;
Based on the travel history recording means and the map information update means, the map data includes the object outside the vehicle specified by the specifying means between the time point when the vehicle has traveled in the past and the current time. A new feature search means for searching whether or not there is a newly updated or added feature,
When there are a plurality of the specified non-vehicle objects,
Based on the travel history recorded by the travel history recording means, the current position is a place that has traveled in the past, and
According to the search result of the new feature search means, when the newly added or updated feature matches the non-vehicle object specified by the specifying means,
The driving support device according to any one of claims 1 to 4, wherein the newly updated or added feature corresponding to the specified non-vehicle object is an output target.
前記特定手段により特定され、出力対象とされた車外対象物に関する情報を、映像表示手段及び音声出力手段の少なくとも一方を用いて出力することを特徴とする請求項1〜5の何れか1項に記載の運転支援装置。   6. The information on the object outside the vehicle that is specified by the specifying unit and is the output target is output using at least one of a video display unit and an audio output unit. The driving assistance apparatus as described.
JP2011143285A 2011-06-28 2011-06-28 Driving support device Withdrawn JP2013011483A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011143285A JP2013011483A (en) 2011-06-28 2011-06-28 Driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011143285A JP2013011483A (en) 2011-06-28 2011-06-28 Driving support device

Publications (1)

Publication Number Publication Date
JP2013011483A true JP2013011483A (en) 2013-01-17

Family

ID=47685479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011143285A Withdrawn JP2013011483A (en) 2011-06-28 2011-06-28 Driving support device

Country Status (1)

Country Link
JP (1) JP2013011483A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133670A (en) * 2014-10-15 2019-08-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information presentation method, information presentation system and information presentation program
JP2020126166A (en) * 2019-02-05 2020-08-20 本田技研工業株式会社 Agent system, information processing apparatus, information processing method, and program
JP7537259B2 (en) 2020-12-11 2024-08-21 株式会社デンソー Attention target sharing device, attention target sharing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133670A (en) * 2014-10-15 2019-08-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information presentation method, information presentation system and information presentation program
JP2020126166A (en) * 2019-02-05 2020-08-20 本田技研工業株式会社 Agent system, information processing apparatus, information processing method, and program
US11508368B2 (en) 2019-02-05 2022-11-22 Honda Motor Co., Ltd. Agent system, and, information processing method
JP7250547B2 (en) 2019-02-05 2023-04-03 本田技研工業株式会社 Agent system, information processing device, information processing method, and program
JP7537259B2 (en) 2020-12-11 2024-08-21 株式会社デンソー Attention target sharing device, attention target sharing method

Similar Documents

Publication Publication Date Title
US9851217B2 (en) Navigation device
JP6316524B2 (en) Facility information guidance device, server device, and facility information guidance method
JP2006195637A (en) Voice interaction system for vehicle
US8655585B2 (en) Navigation apparatus
JP2017509065A (en) Vehicle image capture system using different language translations
CN104380047A (en) Navigation system
JP6608199B2 (en) Information system and content start method
JP2012112853A (en) Information processor, in-vehicle navigation device and information processing method
US11415429B2 (en) Control apparatus and control system
CN111189463A (en) Information processing apparatus and information processing program
US20230103492A1 (en) Vehicle information processing apparatus, vehicle information processing system, and method of processing vehicle information
JP2013181908A (en) Relay location guide system
JP4952750B2 (en) Car navigation apparatus, car navigation method and program
JP2021077296A (en) Information providing apparatus
JP2013011483A (en) Driving support device
JP2004294429A (en) Method and device for exhibiting information
JP2008014902A (en) Drive plan presenting device, and drive plan presenting method
JP4793480B2 (en) Car navigation apparatus, car navigation method and program
JP3919527B2 (en) Navigation device, destination search / navigation method, and program
JP2005233972A (en) Navigation device
JP2009031065A (en) System and method for informational guidance for vehicle, and computer program
JP4793481B2 (en) Car navigation apparatus, car navigation method and program
CN111462513A (en) Server, server control method, server control program, communication terminal, terminal control method, and terminal control program
JP2010108297A (en) Facility retrieval method and facility retrieval device
JP2010160066A (en) Navigation apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902