JP2007193652A - Navigation apparatus - Google Patents

Navigation apparatus Download PDF

Info

Publication number
JP2007193652A
JP2007193652A JP2006012360A JP2006012360A JP2007193652A JP 2007193652 A JP2007193652 A JP 2007193652A JP 2006012360 A JP2006012360 A JP 2006012360A JP 2006012360 A JP2006012360 A JP 2006012360A JP 2007193652 A JP2007193652 A JP 2007193652A
Authority
JP
Japan
Prior art keywords
vehicle
information
target object
target
navigation device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006012360A
Other languages
Japanese (ja)
Inventor
Masaki Wakabayashi
正樹 若林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006012360A priority Critical patent/JP2007193652A/en
Publication of JP2007193652A publication Critical patent/JP2007193652A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To simply guide the advancing direction of own vehicle, even when road information cannot be detected stably, or when specifying a target vehicle is difficult. <P>SOLUTION: Surrounding information on the surrounding of own vehicle is received and one or more photographed images, in which a plurality of objects present on the outside of the own vehicle are included are input. One or more input photographed images are analyzed to discriminate each object included in one or more photographed images and its attribute. Which object from among a plurality of discriminated objects is to be a target object is decided, on the basis of the received surrounding information and the analytical results of one or more photographed images. A photographed image that has the photographed target object included is displayed, and the target object in the photographed image is displayed in an enhanced manner. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、車両に搭載することができるナビゲーション装置に関する。   The present invention relates to a navigation device that can be mounted on a vehicle.

GPS(Global Positioning System)衛星から受信した位置情報を用いて、現在位置や速度を計算できる、車両用のナビゲーション装置が普及してきている。ナビゲーション装置は、一般に、電子化された地図上に、現在の自車位置を表示する機能を持っている。さらに、ナビゲーション装置は、ユーザが入力した目的地までの複数の経路を探索して提示する探索機能や、提示された複数の経路からユーザ所望の経路が選択された場合には、その経路に基づいて進路方向を案内する誘導機能も持っている。   Vehicle navigation devices that can calculate the current position and speed using position information received from a GPS (Global Positioning System) satellite have become widespread. The navigation device generally has a function of displaying the current vehicle position on an electronic map. Further, the navigation device searches for and presents a plurality of routes to the destination input by the user, and when a user-desired route is selected from the presented routes, the navigation device is based on the route. It also has a guidance function to guide the direction of the route.

特に、最近のナビゲーション装置では、推奨の経路を走行中に、案内を行う地点に接近すると、3次元アニメーションを用いて交差点や高架などの道路構造の拡大図を表示するものや、地図上で周辺に存在する施設を表示し、その施設の場所を目印として誘導するものもある。   In particular, recent navigation devices display a magnified view of road structures such as intersections and overpasses using a 3D animation when approaching a guidance point while driving along a recommended route, There is also a system that displays the facilities existing in the site and guides the location of the facility as a landmark.

しかし、上記のような3次元アニメーションは、実際に運転者が見ている風景とは異なることが多く、進行すべき方向を認識しづらいことがある。また、電子地図上のデータが更新されない場合には、実際の周辺施設に関する情報が変化している可能性があり、実際には存在しない施設を目印として案内したりしてしまうこともある。さらに、案内地点の周辺に目印となる建造物が存在しない場合、目印を利用した誘導案内ができないということもある。   However, the three-dimensional animation as described above is often different from the scenery that the driver actually sees, and it may be difficult to recognize the direction to travel. In addition, when the data on the electronic map is not updated, there is a possibility that information about actual surrounding facilities may have changed, and there may be a case where a facility that does not actually exist is guided as a landmark. Furthermore, if there is no landmark building around the guidance point, guidance guidance using the landmark may not be possible.

特許文献1には、撮影された実写画像における道路情報を検知し、案内地点の情報と道路情報が一致する場合に、実写画像と案内画像を重ね合わせて表示する方法が記載されている。   Patent Document 1 describes a method of detecting road information in a photographed photographed image and displaying the photographed image and the guidance image in a superimposed manner when the information on the guide point matches the road information.

特許文献2には、他の車両から車車間通信によって受信した、位置や方向、特徴情報といった他車情報を用いて、自車の進行方向を他車情報に関連付けて案内をすることが記載されている。   Patent Document 2 describes that guidance is provided by associating the traveling direction of the host vehicle with other vehicle information using other vehicle information such as position, direction, and feature information received from another vehicle by inter-vehicle communication. ing.

特開2005−214857号公報JP 2005-214857 A 特開2005−207999号公報JP 2005-207999 A

しかしながら、上記特許文献1の技術では、自車の周囲に他の車両が走行している場合には、実写画像から常に安定して道路情報を検知することは難しい。   However, with the technique disclosed in Patent Document 1, it is difficult to always stably detect road information from a photographed image when another vehicle is traveling around the host vehicle.

また、上記特許文献2では、位置情報と走行方向の情報の他、他車の特徴情報として車種や車両カテゴリ、車色等を受信し、それらの情報に関連付けて目標となる車両を報知するが、類似した車両が周辺に複数存在する場合は、目標とする車両の特定が困難である。   Moreover, in the said patent document 2, although a vehicle type, a vehicle category, a vehicle color, etc. are received as characteristic information of other vehicles other than position information and information on a traveling direction, a target vehicle is notified in association with those information. When there are a plurality of similar vehicles in the vicinity, it is difficult to identify the target vehicle.

本発明は、これらの問題点を解決するために考案されたものであり、道路情報を安定して検知できない場合や、もしくは目標とする車両の特定が困難な場合においても、自車の進むべき方向をわかりやすく案内できるようにすることを目的とする。   The present invention has been devised to solve these problems, and the host vehicle should proceed even when road information cannot be detected stably or when it is difficult to identify a target vehicle. The purpose is to be able to guide directions easily.

本発明の他の目的は、後の説明から明らかになるであろう。   Other objects of the present invention will become clear from the following description.

本発明に従うナビゲーション装置は、自車の周辺に関する周辺情報を受信する通信手段と、自車の外に存在する複数のオブジェクトが写った一又は複数の撮影画像を入力する撮影画像入力手段と、前記入力された一又は複数の撮影画像を解析することにより、前記一又は複数の撮影画像に写っている各オブジェクトとそのオブジェクトの属性とを判別する画像処理手段と、前記受信した周辺情報と、前記一又は複数の撮影画像の解析の結果とに基づいて、前記判別された複数のオブジェクトのうちのどのオブジェクトを目標オブジェクトとするかを判断する目標オブジェクト判断手段と、前記目標オブジェクトとされたオブジェクトが写っている撮影画像を表示し、且つ、該撮影画像上で、前記目標オブジェクトを強調表示する表示手段とを備える。   The navigation device according to the present invention includes a communication unit that receives peripheral information about the periphery of the vehicle, a captured image input unit that inputs one or a plurality of captured images of a plurality of objects existing outside the vehicle, By analyzing one or more input captured images, image processing means for discriminating each object shown in the one or more captured images and attributes of the objects, the received peripheral information, Based on the result of analysis of one or a plurality of captured images, target object determination means for determining which of the plurality of determined objects is a target object; and the object that is the target object Display means for displaying a captured image, and highlighting the target object on the captured image; Obtain.

本発明のナビゲーション装置によれば、道路情報を安定して検知できない場合や、もしくは目標とする車両の特定が困難な場合においても、自車の進むべき方向をわかりやすく案内できる。   According to the navigation device of the present invention, even when road information cannot be detected stably or when it is difficult to specify a target vehicle, it is possible to easily guide the direction in which the host vehicle should travel.

以下、図面を参照して、本発明の一実施形態について説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る車両部及びナビゲーション装置の構成例を示す。   FIG. 1 shows a configuration example of a vehicle unit and a navigation device according to an embodiment of the present invention.

車両部1は、ナビゲーション部2を設置する車両を指す。通信部11及び撮影部12のうちの少なくとも一つを、車両部1或いはナビゲーション部2に搭載することができる。   The vehicle unit 1 refers to a vehicle on which the navigation unit 2 is installed. At least one of the communication unit 11 and the photographing unit 12 can be mounted on the vehicle unit 1 or the navigation unit 2.

通信部11は、車両部1と別の物体(例えば車両部或いは建物)に搭載されている別の通信部と通信を行うことができる装置である。通信部11は、一又は複数台搭載することができる。搭載する台数は、例えば、通信相手の数や通信プロトコルに基づいて決めることができる。   The communication unit 11 is a device that can communicate with another communication unit mounted on an object (for example, a vehicle unit or a building) different from the vehicle unit 1. One or a plurality of communication units 11 can be mounted. The number to be installed can be determined based on, for example, the number of communication partners or the communication protocol.

撮影部12は、車両部1の周辺を撮影する撮影装置(例えばデジタルビデオカメラ)である。撮影部12は、一又は複数台搭載することができる。搭載する台数は、例えば、撮影方向や撮影範囲に基づいて決めることができる。   The photographing unit 12 is a photographing device (for example, a digital video camera) that photographs the periphery of the vehicle unit 1. One or a plurality of imaging units 12 can be mounted. The number to be mounted can be determined based on, for example, the shooting direction and the shooting range.

ナビゲーション部2は、入力部20、誘導制御手段21、記憶部22、撮影制御手段23、画像処理手段24、目標車両確定手段25、音声制御手段26、音声出力部27、及び表示部28を備える。これらの構成要素のうち、音声制御手段26及び音声出力部27は無くても良い。各部や各手段は、ハードウェア(例えば回路)、コンピュータプログラム、或いはそれらの組み合わせ(例えば、コンピュータプログラムを読み込んで実行する一又は複数のCPU)によって実現することもできる。各コンピュータプログラムは、コンピュータマシンに備えられる記憶資源(例えばメモリ)から読み込むことができる。その記憶資源には、CD−ROMやDVD(Digital Versatile Disk)等の記録媒体を介してインストールすることもできるし、インターネットやLAN等の通信ネットワークを介してダウンロードすることもできる。   The navigation unit 2 includes an input unit 20, a guidance control unit 21, a storage unit 22, an imaging control unit 23, an image processing unit 24, a target vehicle determination unit 25, a voice control unit 26, a voice output unit 27, and a display unit 28. . Of these components, the audio control means 26 and the audio output unit 27 may be omitted. Each unit and each means can be realized by hardware (for example, a circuit), a computer program, or a combination thereof (for example, one or a plurality of CPUs that read and execute a computer program). Each computer program can be read from a storage resource (for example, memory) provided in the computer machine. The storage resource can be installed via a recording medium such as a CD-ROM or DVD (Digital Versatile Disk), or can be downloaded via a communication network such as the Internet or a LAN.

入力部20は、ナビゲーション部2のユーザが目的地を設定したり、経路を設定したりするための入力装置である。   The input unit 20 is an input device for the user of the navigation unit 2 to set a destination or set a route.

誘導制御手段21は、誘導の制御に関する処理を実行する。例えば、誘導制御手段21は、ユーザが選択した経路に関して、案内地点221及び目標方向222を算出し、案内情報を作成する。また、例えば、誘導制御手段21は、車両部1の走行中に、記憶部22の自車位置220のデータを読み出し、案内地点221に接近したかどうかを判断する。車両部1が案内地点222に接近したと判断した場合、誘導制御手段1は、撮影制御手段23に対して実写映像を画像処理手段24に転送するよう命令する。また、例えば、誘導制御手段1は、目標方向222を画像処理手段24に渡し、実写画像に合成するよう命令する。さらに、誘導制御手段1は、例えば、目標方向222を目標車両確定手段25に渡し、案内表示時に目印となるかどうか判断を依頼する。   The guidance control means 21 executes processing related to guidance control. For example, the guidance control means 21 calculates the guidance point 221 and the target direction 222 for the route selected by the user, and creates guidance information. Further, for example, the guidance control means 21 reads the data of the vehicle position 220 in the storage unit 22 while the vehicle unit 1 is traveling, and determines whether or not the vehicle has approached the guide point 221. When it is determined that the vehicle unit 1 has approached the guide point 222, the guidance control unit 1 instructs the shooting control unit 23 to transfer the actual captured image to the image processing unit 24. Further, for example, the guidance control unit 1 passes the target direction 222 to the image processing unit 24 and instructs to synthesize it with the photographed image. Further, for example, the guidance control unit 1 passes the target direction 222 to the target vehicle determination unit 25 and requests a determination as to whether or not it becomes a mark when the guidance is displayed.

記憶部22は、ハードディスク或いはDVD(Digital Versatile Disk)などの記憶装置である。記憶部22には、電子的な情報が記憶される。具体的には、記憶部22は、自車位置220、案内地点221及び目標方向222を記憶することができる。また、記憶部22は、音声データ223を案内地点221や目標方向222に関連させて記憶することもできる。自車情報のうち動的に変化する情報(動的情報)224として、記憶部22は、上記の自車位置220の他、現在の自車速度2241、加速度2242、進行方向2243を記憶することもできる。さらに、自車情報のうち静的な情報(静的情報)225として、記憶部22は、自車の色2251、形状2252、自動車登録番号2253を記憶することもできる。   The storage unit 22 is a storage device such as a hard disk or a DVD (Digital Versatile Disk). The storage unit 22 stores electronic information. Specifically, the storage unit 22 can store the host vehicle position 220, the guide point 221, and the target direction 222. The storage unit 22 can also store the audio data 223 in association with the guide point 221 and the target direction 222. As information (dynamic information) 224 that dynamically changes among the vehicle information, the storage unit 22 stores the current vehicle speed 2241, acceleration 2242, and traveling direction 2243 in addition to the vehicle position 220 described above. You can also. Further, as the static information (static information) 225 of the own vehicle information, the storage unit 22 can also store the own color 2251, shape 2252, and automobile registration number 2253.

自車位置220は、GPS(Global Positioning System)衛星から取得した現在位置の情報や、初期設定に基づいた位置に対して、3次元ジャイロ、車速の情報等で差分を反映させた位置情報を含んだものとすることができる。案内地点221は、入力部20によって目的地と自車位置220とを結ぶ経路において案内が必要な地点の集合とすることができる。目標方向222は、案内地点221と組み合わせて記憶させることができる(例えば、案内地点221が交差点の場合は、交差点に進入する道路に対して、脱出する道路の相対的な角度であるとすることができる)。音声データ223は、案内地点221に固有の地点名や、目標方向222に対応した角度に関する音声データや、案内情報を構成する音声データの部分全般を含めることができる。   The own vehicle position 220 includes information on a current position acquired from a GPS (Global Positioning System) satellite, and position information in which a difference is reflected by a three-dimensional gyro, vehicle speed information, or the like with respect to a position based on an initial setting. Can be. The guide point 221 can be a set of points that require guidance on the route connecting the destination and the vehicle position 220 by the input unit 20. The target direction 222 can be stored in combination with the guide point 221 (for example, when the guide point 221 is an intersection, the target direction 222 is a relative angle of the road to escape with respect to the road entering the intersection. Can do). The voice data 223 can include a spot name unique to the guide spot 221, voice data related to the angle corresponding to the target direction 222, and the entire voice data constituting the guide information.

撮影制御手段23は、誘導制御手段21の要求に基づいて、撮影部12における撮影の開始や終了などの制御を行い、さらに、撮影映像を画像処理手段24に転送することができる。   The imaging control unit 23 can control the start and end of imaging in the imaging unit 12 based on the request of the guidance control unit 21, and can further transfer the captured video to the image processing unit 24.

画像処理手段24は、撮影制御手段23から受け取った実写映像に基づいて、種々の処理、例えば、目標車両の抽出及び強調表示処理、案内情報の合成処理、実写案内表示転送処理を実行することができる。目標車両の抽出及び強調表示処理では、目標車両確定手段25から受け取る目標車両に関する情報を用いて、実写映像からその目標車両を特定することが行われる。案内情報の合成処理では、目標方向222に対応する画像を、前記実写映像に重ね合わせることが行われる。実写案内表示転送処理では、強調表示された車両を含む実写画像と、案内表示を重ね合わせた実写案内映像を表示部28に転送し、表示させることが行われる。   The image processing unit 24 can execute various processes such as target vehicle extraction and highlighting processing, guidance information composition processing, and live-action guidance display transfer processing based on the live-action video received from the imaging control unit 23. it can. In the target vehicle extraction and highlighting processing, the target vehicle is specified from the live-action image using information on the target vehicle received from the target vehicle determination unit 25. In the guidance information synthesizing process, an image corresponding to the target direction 222 is superimposed on the photographed video. In the live-action guide display transfer process, a real-image image including the highlighted vehicle and a real-life guide video obtained by superimposing the guide display are transferred to the display unit 28 and displayed.

目標車両確定手段25は、通信部11が受信した他車情報もしくは、画像処理手段24から転送される実写映像の少なくともどちらかと、記憶部22に格納している動的情報224、静的情報225、目標方向222の少なくともいずれかと、を比較し、実写映像から目標車両群を抽出する。ここで、目標車両確定手段25は、通信部11から受信した他車情報が無く、実写映像のみしか利用できない場合は、実写映像から他車情報を抽出し、記憶部22に格納している動的情報224、静的情報225、目標方向222の少なくともいずれかと、を比較し、実写映像から目標車両群を抽出することができる。そして、目標車両確定手段25は、目標車両群を抽出した後は、その中から自車(車両部1)により近い車両を特定し、案内を行う際の目標車両を確定することができる。その後、目標車両確定手段25は、画像処理手段24に対して、目標車両の強調表示、および目標方向222に対応する画像データの合成を依頼することができる。また、目標車両確定手段25は、音声制御手段26に案内音声を出力するよう依頼することができる。   The target vehicle determination unit 25 includes at least one of the other vehicle information received by the communication unit 11 or the live-action image transferred from the image processing unit 24, the dynamic information 224 stored in the storage unit 22, and the static information 225. Then, at least one of the target directions 222 is compared, and a target vehicle group is extracted from the live-action video. Here, when there is no other vehicle information received from the communication unit 11 and only the live-action image can be used, the target vehicle determination unit 25 extracts the other-vehicle information from the live-action image and stores it in the storage unit 22. The target vehicle group can be extracted from the actual image by comparing at least one of the target information 224, the static information 225, and the target direction 222. Then, after extracting the target vehicle group, the target vehicle determining means 25 can identify a vehicle closer to the host vehicle (vehicle unit 1) from the target vehicle group and determine the target vehicle for guidance. Thereafter, the target vehicle determination unit 25 can request the image processing unit 24 to perform the emphasis display of the target vehicle and the synthesis of the image data corresponding to the target direction 222. Moreover, the target vehicle determination means 25 can request the voice control means 26 to output a guidance voice.

音声制御手段26は、目標車両確定手段26から受け取った目標車両の情報、必要ならば音声データ223を合成し、音声出力部27で案内音声を出力する。   The voice control unit 26 synthesizes the target vehicle information received from the target vehicle determination unit 26 and, if necessary, the voice data 223, and outputs a guidance voice by the voice output unit 27.

音声出力部27は、案内音声等を出力するための設置されるスピーカ、もしくはイヤホン等のデバイスである。音声出力部27は、音声制御手段27からの案内音声を出力する。   The voice output unit 27 is a device such as a speaker or an earphone that is installed to output guidance voice or the like. The voice output unit 27 outputs a guidance voice from the voice control unit 27.

表示部28は、ユーザに対して、目的地の選択、探索経路の表示、実写映像の表示、実写案内の表示を行うための、例えば液晶ディスプレイのようなデバイスである。表示部28は、画像処理手段24から転送されて来た画像を表示することができる。   The display unit 28 is a device such as a liquid crystal display for selecting a destination, displaying a search route, displaying a photographed image, and displaying a photographed guide for a user. The display unit 28 can display the image transferred from the image processing unit 24.

図2は、本実施形態で実写案内表示を行うための処理の流れの一例を示す。   FIG. 2 shows an example of the flow of processing for performing live-action guidance display in the present embodiment.

ステップS1では、ユーザが、入力部20を用いて、目的地を入力する。   In step S <b> 1, the user inputs a destination using the input unit 20.

S2では、誘導制御手段21が、自車位置220(例えばGPS衛星からの信号を基に把握された現在位置)とユーザから入力された目的地とを結ぶ経路を探索し(例えば図示しない電子的な地図を用いて探索し)、探索された一又は複数の経路を、画像処理手段24に送信し、画像処理手段24により、表示部28に表示させる。   In S2, the guidance control means 21 searches for a route connecting the own vehicle position 220 (for example, the current position obtained based on a signal from a GPS satellite) and the destination input by the user (for example, an electronic not shown). A search is performed using a simple map), and the searched one or more routes are transmitted to the image processing unit 24 and displayed on the display unit 28 by the image processing unit 24.

S3では、誘導制御手段21が、ユーザから経路の選択を入力部20を介して受けた場合、選択された経路に関して、案内地点221と目標方向222のセットの集合を算出する。S4では、誘導制御手段21は、自車(車両部1)の現在位置をGPS衛星からの信号に基づいて検出する。   In S <b> 3, when the guidance control unit 21 receives a route selection from the user via the input unit 20, the set of the guidance point 221 and the target direction 222 is calculated for the selected route. In S4, the guidance control means 21 detects the current position of the host vehicle (vehicle unit 1) based on a signal from a GPS satellite.

S5では、誘導制御手段21が、検出された自車位置がS3で算出した案内地点221のどれかに接近したかどうかを判定する。接近していないと判定した場合は、S4に戻り、接近したと判定した場合は、誘導制御手段21は、その旨を目標車両確定手段27に通知する。   In S5, the guidance control means 21 determines whether or not the detected vehicle position has approached any of the guide points 221 calculated in S3. If it is determined that the vehicle is not approaching, the process returns to S4. If it is determined that the vehicle is approaching, the guidance control unit 21 notifies the target vehicle determination unit 27 to that effect.

S6では、目標車両確定手段27が、通信部11が周辺情報を受信しているかどうか検出する。周辺情報を受信している場合は、S7へ進み、受信していない場合は、S13へ進む。なお、周辺情報とは、例えば、自車周辺の他車、周辺道路、周辺施設等の少なくともいずれかに関する情報である。   In S6, the target vehicle determination means 27 detects whether or not the communication unit 11 has received surrounding information. If the peripheral information is received, the process proceeds to S7. If not received, the process proceeds to S13. The peripheral information is, for example, information related to at least one of other vehicles around the host vehicle, peripheral roads, peripheral facilities, and the like.

S7では、目標車両確定手段27が、受信した周辺情報の解析を開始する。なお、S5でYesの通信を開始してもよいし、もしくは、常時通信しておいて解析をこの時点で開始してもよい。   In S7, the target vehicle determination unit 27 starts analyzing the received surrounding information. Note that Yes communication may be started in S5, or analysis may be started at this time by always communicating.

S8では、目標車両確定手段27が、案内地点221に関して、受信した周辺情報のうち、送信元の他車の経路が自車の経路と同一であるか判定する。同一経路であった場合はS9に進み、同一経路でなかった場合は、他の車両について受信した周辺情報を解析するため、S7へ戻る。ただし、同一経路とは、同一方向に限定されず、目的地方向から自車と反対向きに走行してきた他車も、同一経路を走行していると見なしてもよい。   In S <b> 8, the target vehicle determination unit 27 determines whether the route of the other vehicle of the transmission source is the same as the route of the own vehicle in the received peripheral information with respect to the guidance point 221. If it is the same route, the process proceeds to S9. If it is not the same route, the process returns to S7 in order to analyze the peripheral information received for the other vehicle. However, the same route is not limited to the same direction, and other vehicles that have traveled in the direction opposite to the host vehicle from the destination direction may be regarded as traveling on the same route.

S9では、目標車両確定手段27が、経路が同一である目標車両の集合を確定する。この集合を以降、目標車両群という。   In S9, the target vehicle determining means 27 determines a set of target vehicles having the same route. This set is hereinafter referred to as a target vehicle group.

S10では、目標車両確定手段27が、目標車両群について、受信した経路以外の他車に関する情報(他車情報)を解析する。ここでいう他車情報とは、目標車両群の各々の位置情報、速度、加速度、進行方向、操舵角の少なくともいずれかであり、目標車両確定手段27が、これらと自車情報とを比較する。   In S <b> 10, the target vehicle determination unit 27 analyzes information related to other vehicles (other vehicle information) other than the received route for the target vehicle group. The other vehicle information here is at least one of position information, speed, acceleration, traveling direction, and steering angle of each target vehicle group, and the target vehicle determination means 27 compares these with the own vehicle information. .

具体的には、例えば、目標車両は自車から近い車両が適しているため、目標車両確定手段27は、自車と目標車両群中の各々の位置情報を比較し、自車から所定範囲内に属する車両(つまり近傍の車両)を抽出する。さらに、目標車両確定手段27は、自車の進行方向および操舵角を基に、目標車両群中の各々の車両が自車の経路上にあるかどうかを判定する。この他、速度、加速度の情報を用いて目標車両に適するかどうかを判定することもできる。   Specifically, for example, since the target vehicle is suitable for a vehicle close to the own vehicle, the target vehicle determining means 27 compares the position information of the own vehicle and each of the target vehicle group and is within a predetermined range from the own vehicle. Vehicles belonging to (that is, nearby vehicles) are extracted. Furthermore, the target vehicle determination means 27 determines whether each vehicle in the target vehicle group is on the route of the own vehicle based on the traveling direction and the steering angle of the own vehicle. In addition, it is possible to determine whether or not the vehicle is suitable for the target vehicle by using information on the speed and acceleration.

また、上記の他車情報のみでは目標車両の位置を特定できない場合には、目標車両確定手段27は、目標車両の撮影部が撮影した実写映像を受信し、自車情報を用いて、実写映像から自車を抽出し、自車と目標車両との位置関係を相対的に算出してもよい。この処理は、画像処理手段24と協働して行うことができる。ここでいう自車情報とは、自車に関する色、形状(例えばセダン、ワゴンなど)、自動車登録番号等である。   In addition, when the position of the target vehicle cannot be specified only by the other vehicle information described above, the target vehicle determination unit 27 receives a live-action image taken by the photographing unit of the target vehicle, and uses the own-vehicle information to obtain a real-action image. The vehicle may be extracted from the vehicle, and the positional relationship between the vehicle and the target vehicle may be calculated relatively. This process can be performed in cooperation with the image processing means 24. The own vehicle information here is a color, shape (for example, sedan, wagon, etc.), an automobile registration number, and the like related to the own vehicle.

このようにして、目標車両群のうちの一車両が自車と同一の経路上にあるか、もしくは自車の経路上に向かうことが予測できる場合は、目標車両確定手段27が、そのような他車を目標車両の一つの候補とし、S11へ進む。   In this way, when one vehicle in the target vehicle group is on the same route as the own vehicle or can be predicted to be on the route of the own vehicle, the target vehicle determination means 27 The other vehicle is set as one candidate for the target vehicle, and the process proceeds to S11.

一方、すべての目標車両群の車両がこれらの条件を満たせない場合は、撮影部から取得した実写映像のうち、道路上もしくは道路脇のオブジェクト(例えば、情報、建造物、施設の少なくともいずれか)を用いて、自車周辺における静的な目標物体を決定してもよい。道路上の情報とは、例えば、標識や標示、車線をさす。また、道路上の建造物とは、車線、中央分離帯、横断歩道等を指す。また、道路脇の建造物とは、信号機、高架橋、陸橋、電信柱、ポスト等をさす。これらの静的目標物体を実写映像から抽出した上で、自車と静的目標物体との距離を認識した上で、案内地点の目印とし、これ以降、静的目標物体を目標車両の代替として使用してもよい。   On the other hand, if the vehicles of all the target vehicle groups cannot satisfy these conditions, the object on the road or on the side of the road (for example, at least one of information, a building, and a facility) among the live-action images acquired from the imaging unit May be used to determine a static target object around the vehicle. The information on the road means, for example, a sign, a sign, or a lane. A building on the road refers to a lane, a median, a pedestrian crossing, and the like. In addition, roadside structures refer to traffic lights, viaducts, overpasses, telephone poles, posts, and the like. After extracting these static target objects from the live-action video, recognizing the distance between the vehicle and the static target object, it is used as a guide point marker, and thereafter, the static target object is used as a substitute for the target vehicle. May be used.

S11では、目標車両確定手段27が、他車の位置情報と自車位置220を比較する。目標車両群のうち、自車により近い目標車両がなくなれば、S12へ進み、現在解析中の目標車両群のうち、自車により近い他車がまだ存在する場合は、S10へ戻る。   In S <b> 11, the target vehicle determination unit 27 compares the position information of the other vehicle with the own vehicle position 220. If there is no target vehicle closer to the subject vehicle in the target vehicle group, the process proceeds to S12. If there is still another vehicle closer to the subject vehicle in the target vehicle group currently being analyzed, the process returns to S10.

S12では、目標車両確定手段27が、目標車両群から目標車両を確定する。確定後はS13へ進む。基本的には、この目標車両を目印として案内を行う。確定した目標車両に関する情報が画像処理手段24に通知される。   In S12, the target vehicle determination means 27 determines the target vehicle from the target vehicle group. After confirmation, the process proceeds to S13. Basically, guidance is provided using this target vehicle as a landmark. Information regarding the determined target vehicle is notified to the image processing means 24.

S13では、撮影部12で撮影された実写映像から、S12で確定した目標車両が抽出されたり、車両以外の周辺の情報が抽出されたりする。   In S <b> 13, the target vehicle determined in S <b> 12 is extracted from the live-action image captured by the imaging unit 12, or peripheral information other than the vehicle is extracted.

まず、目標車両の抽出について説明する。S6で受信した周辺情報が無かった場合には、目標車両確定手段27が、撮影された範囲の周辺車両について、車間距離、位置、車速、加速度、方向指示器の点滅状態、形状、自動車登録番号、操舵角、進行方向の少なくともいずれかの情報を実写映像から算出、もしくは抽出し、これらの情報を用いて、目標車両を確定する。例えば、自車と同一経路が案内地点において右折である場合、右側の方向指示器の点滅や操舵角と連動するタイヤの向きを検知し、上記算出、抽出した情報、例えば位置や形状等を用いて目標車両を特定する。   First, target vehicle extraction will be described. If there is no surrounding information received in S6, the target vehicle determination means 27 sets the vehicle distance, position, vehicle speed, acceleration, blinking state of the direction indicator, shape, vehicle registration number for the surrounding vehicles in the captured range. Then, information on at least one of the steering angle and the traveling direction is calculated or extracted from the live-action video, and the target vehicle is determined using these information. For example, when the same route as the host vehicle is a right turn at the guidance point, the direction of the tire linked to the blinking of the right direction indicator or the steering angle is detected, and the calculated and extracted information such as the position and shape is used. To identify the target vehicle.

一方、S6で受信した周辺情報がある場合には、目標車両確定手段27が、既に受信してある目標車両の位置、速度等の情報を用いて実写映像から目標車両を特定する。特定には、受信した目標車両の絶対速度から自車の速度を引き、実写映像として表示される目標車両の相対的な速度を算出してもよい。   On the other hand, when there is the peripheral information received in S6, the target vehicle determination means 27 specifies the target vehicle from the photographed video using the information such as the position and speed of the target vehicle already received. Specifically, the relative speed of the target vehicle displayed as a live-action image may be calculated by subtracting the speed of the host vehicle from the received absolute speed of the target vehicle.

S14では、画像処理手段24が、目標車両を実写映像から抽出できたかどうかを判断する。抽出できた場合は、S15に進み、抽出できなかった場合は、S20へ進む。   In S14, the image processing unit 24 determines whether the target vehicle has been extracted from the live-action video. If it can be extracted, the process proceeds to S15. If it cannot be extracted, the process proceeds to S20.

S15では、S6と同様に、受信した周辺情報がある場合は、S14で抽出した目標車両と一致するかどうかを判断する。一致した場合はS16に進む。   In S15, as in S6, if there is received peripheral information, it is determined whether or not it matches the target vehicle extracted in S14. If they match, the process proceeds to S16.

S16では、画像処理手段24が、実写映像における目標車両を強調表示する。S17では、画像処理手段24が、目標方向222に対応した画像や文字データを、S16で作成した強調表示済み実写映像に合成する。S18では、画像処理手段24が、S17で作成した実写案内を表示部28に表示し、ユーザを案内する。この時点で、目標車両に関する情報を用いて、例えば「右前10m先にいる、右折予定の白いセダンについていってください」というような音声案内を出力してもよい。   In S16, the image processing means 24 highlights the target vehicle in the live-action video. In S17, the image processing unit 24 combines the image and character data corresponding to the target direction 222 with the highlighted live-action video created in S16. In S18, the image processing unit 24 displays the shooting guide created in S17 on the display unit 28 to guide the user. At this time, using the information on the target vehicle, for example, a voice guidance such as “Please come on a white sedan scheduled to turn right 10m ahead” may be output.

S19では、誘導制御手段21が、直前の案内地点221が終了した後、これ以後案内地点が存在しない場合には、案内を終了する。案内地点がまだ残っている場合は、S4へ進む。   In S19, after the last guidance point 221 ends, the guidance control means 21 ends the guidance if there is no further guidance point. If the guide point still remains, the process proceeds to S4.

S20では、再度目標車両を設定し直すかどうか閾値の比較を行う。閾値は、最後にS4において自車位置を検出した位置から相対的に離れた距離、時間の少なくともいずれかを用いる。判断の結果、S4、S6、S8、S11及びS13のいずれかに遷移することができるが、どこに遷移するかは任意とすることができる。   In S20, threshold values are compared to determine whether to reset the target vehicle again. As the threshold value, at least one of a distance and a time relatively away from the position at which the vehicle position is finally detected in S4 is used. As a result of the determination, the transition can be made to any one of S4, S6, S8, S11, and S13, but the transition can be arbitrary.

図3は、S18での表示部28の表示例である。このようにして、実写映像中において、自車と同一経路を走行する予定の目標車両を強調表示し、その目標車両に案内表示を合成した案内を行うことによって、実際に見えている風景を基にした経路の誘導を行うことができる。図3のメッセージは、例えば、記憶部22に記憶されているテキストデータを用いて表示することができる。   FIG. 3 is a display example of the display unit 28 in S18. In this way, in the live-action video, the target vehicle scheduled to travel on the same route as the host vehicle is highlighted, and the guidance that combines the guidance display with the target vehicle is provided, so that the actual scenery can be seen. It is possible to guide the route. The message shown in FIG. 3 can be displayed using, for example, text data stored in the storage unit 22.

図4Aは、本実施形態に係るナビゲーション部2が行うことのできるナビゲーション態様の一例を示す。   FIG. 4A shows an example of a navigation mode that can be performed by the navigation unit 2 according to the present embodiment.

図示しない電子的な地図に、例えば、交差点をノードとし道路をノード間を結ぶベクトルデータ(リンク)で表現した道路ネットワークデータが含まれているとする。この場合、ナビゲーション部2は、検出した自車の現在位置を道路ネットワークデータにマッチさせて画面に表示することができる。また、ナビゲーション部2は、道路形状や家枠形状等を詳細に表現した市街地図上で自車位置を表示する場合には、上記電子的な地図に含まれている市街地図画像を道路ネットワークデータに重ね合わせて表示することができる。   Assume that an electronic map (not shown) includes road network data expressed by vector data (link) that connects an intersection as a node and a road between the nodes. In this case, the navigation unit 2 can match the detected current position of the vehicle with the road network data and display it on the screen. When the navigation unit 2 displays the position of the vehicle on a city map that expresses the road shape, house frame shape, etc. in detail, the navigation unit 2 displays the city map image included in the electronic map as road network data. Can be displayed superimposed on each other.

さて、図4Aに例示するように、その道路ネットワークデータに自車の現在位置(●印)が重ねられて表示されているとする。ここでは、ノード805A、805B間を結ぶリンク801に現在位置が重ねられている。   Now, as illustrated in FIG. 4A, it is assumed that the current position (● mark) of the own vehicle is superimposed on the road network data. Here, the current position is superimposed on a link 801 connecting the nodes 805A and 805B.

この図4Aにおいて、探索されユーザに選択された経路では、自車が、実線矢印で示すように、ノード805Aに対応する交差点から、点線矢印で示すように、斜め右に右折して進行するとする。以下、自車が現在属するリンク(図4Aでは801)を「進入リンク」と呼び、自車が次に入ろうとするリンク(図4Aでは803)を「脱出リンク」と呼ぶ。   In this FIG. 4A, in the route searched and selected by the user, the host vehicle proceeds from the intersection corresponding to the node 805A to the right as shown by the dotted arrow as shown by the solid arrow. . Hereinafter, the link to which the vehicle currently belongs (801 in FIG. 4A) is referred to as an “entry link”, and the link (803 in FIG. 4A) to which the vehicle is to enter next is referred to as an “exit link”.

目標車両確定手段25が、通信部11による車車間通信により、一点鎖線矢印で示すように、自分と同じように進行する他車が自車位置の所定範囲内且つ前方に存在することを特定できたとする。言い換えれば、現在は、自車位置の所定範囲内且つ前方であって、自車と同じ進入リンク801に存在し、やがては自車と同様の脱出リンク803に脱出する他車を特定できたとする。この場合、目標車両確定手段25は、その他車を目標車両として確定することができる。目標車両確定手段25は、その他車の他車情報を画像処理手段25に通知する。画像処理手段25は、撮影画像(実写画像)を解析し、解析結果と通知された他車情報とを基に、撮影画像に写っている複数のオブジェクト(例えば車両や建造物など)のうちのどれが、目標車両として確定された他車であるかを判別し、判別された他車を強調表示することができる。ここで、強調表示とは、例えば、他車の画像の輪郭を太線で表示する、或いは他車の画像の傍に他車を指し示すマーク(例えば矢印)を示すなど、目標車両が他のオブジェクトとは異なるということを分かり易く表示することである。また、撮影画像の解析では、例えば、各画素と隣の画素の属性(例えば輝度)の差を判定し、その差が一定値以上に大きい場合にはそこが、オブジェクト(例えば他車)と他のオブジェクト(例えば、別の他車、道路或いは建造物)との境界であると判定することができる。また、撮影画像の解析では、他車との車車間通信によって通信相手の他車の速度、加速度などから自車との相対速度を求めることもできる。   The target vehicle determination means 25 can specify by the inter-vehicle communication by the communication unit 11 that the other vehicle traveling in the same manner as the vehicle exists within the predetermined range of the vehicle position and ahead as indicated by a one-dot chain line arrow. Suppose. In other words, it is now possible to identify another vehicle that is within a predetermined range and ahead of the own vehicle position, exists on the same entry link 801 as the own vehicle, and eventually escapes to the same escape link 803 as the own vehicle. . In this case, the target vehicle determination means 25 can determine other vehicles as target vehicles. The target vehicle determination unit 25 notifies the image processing unit 25 of other vehicle information about other vehicles. The image processing means 25 analyzes the captured image (actual image), and based on the analysis result and the notified other vehicle information, among the plurality of objects (for example, a vehicle or a building) reflected in the captured image. It is possible to determine which is the other vehicle determined as the target vehicle, and to highlight the determined other vehicle. Here, the highlighting means, for example, that the outline of the image of the other vehicle is displayed with a thick line, or a mark (for example, an arrow) that points to the other vehicle is displayed beside the image of the other vehicle. Is to clearly show that they are different. In the analysis of the captured image, for example, a difference in attribute (for example, luminance) between each pixel and the adjacent pixel is determined. If the difference is larger than a certain value, the difference is determined between the object (for example, another vehicle) and the other. It can be determined that this is a boundary with another object (for example, another vehicle, a road, or a building). Further, in the analysis of the captured image, the relative speed with the own vehicle can be obtained from the speed, acceleration, etc. of the other vehicle of the communication partner by inter-vehicle communication with the other vehicle.

図4Bは、本実施形態に係るナビゲーション部2が行うことのできるナビゲーション態様の別の一例を示す。   FIG. 4B shows another example of the navigation mode that can be performed by the navigation unit 2 according to the present embodiment.

目標車両確定手段25は、例えば、図4Aに示すような他車が存在しない場合、或いは存在しても、別の他車によってその他車が隠れて撮影画像に写っていない場合などの所与の場合に、この図4Bのナビゲーション態様を採用することができる。   For example, the target vehicle determination means 25 is provided when there is no other vehicle as shown in FIG. 4A or when there is another vehicle hidden by another vehicle and is not shown in the photographed image. In this case, the navigation mode of FIG. 4B can be adopted.

目標車両確定手段25が、通信部11による車車間通信により、一点鎖線矢印で示すように、自車と同じ進入リンク801には存在せず、且つ、自車とは進行方向が全く逆であるが、現在は、自車の脱出リンク803を進入リンクとして存在し、やがては、自車の進入リンク801を脱出リンクとする他車を特定できたとする。この場合、目標車両確定手段25は、その他車を目標車両として確定することができる。   The target vehicle determination means 25 does not exist in the same approach link 801 as the host vehicle, and the traveling direction is completely opposite to that of the host vehicle, as indicated by a one-dot chain line arrow by inter-vehicle communication by the communication unit 11. However, at present, it is assumed that an exit link 803 of the own vehicle exists as an approach link, and that another vehicle having the exit link 801 of the own vehicle as an exit link can be identified. In this case, the target vehicle determination means 25 can determine other vehicles as target vehicles.

以上、上述した実施形態によれば、車車間通信によって得られた情報と撮影画像の解析結果との両方を用いて目標車両を探し、探し出された目標車両が写っている撮影画像を表示し、且つ、その撮影画像上に目標車両を指し示す。これにより、自車の近傍に目標となりそうな建造物が無く、或いは、自車の近傍に多くの車両があってもどれを目標としたら良いかわかりづらいような場合であっても、運転者に分かり易く目標車両を示すと共に案内することができる。   As described above, according to the embodiment described above, the target vehicle is searched using both the information obtained by the inter-vehicle communication and the analysis result of the captured image, and the captured image in which the found target vehicle is reflected is displayed. And the target vehicle is pointed on the photographed image. Even if there are no buildings that are likely to be the target in the vicinity of the own vehicle, or even if there are many vehicles in the vicinity of the own vehicle, it is difficult to know which one to target. The target vehicle can be shown and guided in an easy-to-understand manner.

以上、本発明の一実施形態を説明したが、これは本発明の説明のための例示であって、本発明の範囲をこの実施形態にのみ限定する趣旨ではない。本発明は、他の種々の形態でも実施することが可能である。   The embodiment of the present invention has been described above, but this is an example for explaining the present invention, and the scope of the present invention is not limited to this embodiment. The present invention can be implemented in various other forms.

例えば、自車の案内の際に表示される撮影画像は動画像が好ましいが、ナビゲーション部2の能力(例えば画像処理能力)が低い場合には、静止画であっても良い。静止画であっても、運転者に目標車両を分かり易く示すことは可能であると考えられる。この場合、所定タイミング(例えば自車が車線変更したとき)或いは連続的に撮影を行い、その撮影の都度に、その撮影画像上で目標車両を強調表示することができる。   For example, the captured image displayed at the time of guiding the host vehicle is preferably a moving image, but may be a still image when the capability of the navigation unit 2 (for example, image processing capability) is low. Even in the case of a still image, it is considered possible to easily show the target vehicle to the driver. In this case, shooting can be performed at a predetermined timing (for example, when the vehicle changes lanes) or continuously, and the target vehicle can be highlighted on the captured image at each shooting.

また、図4A及び図4Bでは、道路ネットワークデータに自車の現在位置を重ねて表示する場合を例に採ったが、電子的な地図の形態はそれに限らない。例えば、ポリゴンで描画される地図であっても同様の案内をすることができる。   4A and 4B exemplify the case where the current position of the vehicle is displayed over the road network data, but the electronic map form is not limited thereto. For example, the same guidance can be provided for a map drawn with polygons.

また、例えば、夜間の場合には、目標車両を特定する際には、車両から発する光を目標車両として運転者に案内することもできる。これは、例えば、目標車両に相応しい他車の色が黒であって、夜間では解析しづらいような場合に有効である。   In addition, for example, at night, when a target vehicle is specified, light emitted from the vehicle can be guided to the driver as the target vehicle. This is effective, for example, when the color of the other vehicle suitable for the target vehicle is black and is difficult to analyze at night.

また、例えば、複数の探索条件と各探索条件に優先順位が割り付けられている場合には、目標車両の探す際には、優先順位に従って、探索条件と周辺情報(例えば他車情報)とがマッチするか否かを判断し、マッチした場合には、以下、他の探索条件との比較を行うことなく、マッチした周辺情報に従うオブジェクト(例えば他車)を目標とすることができる。ここで、探索条件とは、目標とするオブジェクトを探索するための条件であって、具体的には、例えば、オブジェクト種類及びオブジェクト条件で構成することができる。オブジェクト種類とは、例えば、車或いは建造物などである。オブジェクト条件とは、例えば、オブジェクト種類が車であれば、自車の前方に位置する、自車と進行方向が同じである、自車と同じ脱出リンクに脱出する予定である、及び、相対速度が所定値以下である等のうちの少なくとも一つを採用することができる。また、オブジェクト種類が建造物であれば、例えば、所定秒以内に自車の近傍を通る、或いは自車の前方に位置する等を採用することができる。   In addition, for example, when a plurality of search conditions and priorities are assigned to each search condition, when searching for a target vehicle, the search conditions and surrounding information (for example, other vehicle information) match according to the priorities. If it is determined whether or not to match, the object (for example, another vehicle) according to the matched peripheral information can be targeted without comparing with other search conditions. Here, the search condition is a condition for searching for a target object. Specifically, for example, the search condition can be composed of an object type and an object condition. The object type is, for example, a car or a building. The object condition is, for example, if the object type is a car, is located in front of the host vehicle, has the same traveling direction as the host vehicle, is scheduled to escape to the same exit link as the host vehicle, and the relative speed Or the like can be employed. Further, if the object type is a building, for example, passing through the vicinity of the own vehicle within a predetermined second or being positioned in front of the own vehicle can be employed.

また、例えば、通信部11からは、他車から受ける他車情報と同様の情報要素を含んだ自車情報が送信されても良い。自車情報の送信経路としては、例えば、記憶部11、誘導制御手段21、目標車両確定手段25及び通信部11から他車とすることができる。   For example, the vehicle information including the same information elements as other vehicle information received from other vehicles may be transmitted from the communication unit 11. As a transmission path of the own vehicle information, for example, the storage unit 11, the guidance control unit 21, the target vehicle determination unit 25, and the communication unit 11 can be set as another vehicle.

また、例えば、目標車両確定手段25は、目標車両として相応しい他車が無い場合に、他種のオブジェクト(例えば自車の近傍の建造物)を目標オブジェクトとすることができる。   Further, for example, when there is no other vehicle suitable as the target vehicle, the target vehicle determination unit 25 can set another type of object (for example, a building near the own vehicle) as the target object.

また、例えば、通信部11は、他車が設置しているナビゲーション装置が保持している経路(他車においてユーザに選択された経路)を表す情報を含んだ他車情報を受信してもよい。その場合、目標車両確定手段25は、その経路を表す情報と自車の経路とに基づいて、目標車両とする他車を判断することができる。   In addition, for example, the communication unit 11 may receive other vehicle information including information indicating a route (a route selected by the user in the other vehicle) held by the navigation device installed in the other vehicle. . In that case, the target vehicle determination means 25 can determine the other vehicle as the target vehicle based on the information indicating the route and the route of the host vehicle.

また、例えば、通信部11は、車車間通信に代えて又は加えて、建造物の近傍に設置された所定の通信機との通信、或いは所定の情報収集センタとの通信も行っても良い。   In addition, for example, the communication unit 11 may perform communication with a predetermined communication device installed in the vicinity of a building or communication with a predetermined information collection center instead of or in addition to the inter-vehicle communication.

また、例えば、通信部11は、入力された一又は複数の撮影画像を他車との間で送受信することができる。画像処理手段24は、他車から受信した撮影画像と、自車に関する情報である自車情報とを用いて、自車を他車からの撮影画像から抽出することにより、該他車から見た自車の相対的な位置関係を算出することができる。目標車両確定手段25は、自車の撮影画像上において、相対的な位置関係から該他車を抽出することによって、自車が抽出された撮影画像の送信元車両を特定し、特定された送信元車両を目標オブジェクトとすることができる。   For example, the communication part 11 can transmit / receive the input one or several picked-up image between other vehicles. The image processing unit 24 uses the captured image received from the other vehicle and the own vehicle information that is information about the own vehicle to extract the own vehicle from the captured image from the other vehicle, and viewed from the other vehicle. The relative positional relationship of the own vehicle can be calculated. The target vehicle determination means 25 identifies the transmission source vehicle of the captured image from which the own vehicle is extracted by extracting the other vehicle from the relative positional relationship on the captured image of the own vehicle, and the identified transmission. The original vehicle can be a target object.

図1は、本発明の一実施形態に係る車両部及びナビゲーション装置の構成例を示す。FIG. 1 shows a configuration example of a vehicle unit and a navigation device according to an embodiment of the present invention. 図2は、本実施形態で実写案内表示を行うための処理の流れの一例を示す。FIG. 2 shows an example of the flow of processing for performing live-action guidance display in the present embodiment. 図3は、S18での表示部28の表示例である。FIG. 3 is a display example of the display unit 28 in S18. 図4Aは、本実施形態に係るナビゲーション部2が行うことのできるナビゲーション態様の一例を示す。図4Bは、本実施形態に係るナビゲーション部2が行うことのできるナビゲーション態様の別の一例を示す。FIG. 4A shows an example of a navigation mode that can be performed by the navigation unit 2 according to the present embodiment. FIG. 4B shows another example of the navigation mode that can be performed by the navigation unit 2 according to the present embodiment.

符号の説明Explanation of symbols

1…車両部 2…ナビゲーション装置 11…通信部 12…撮影部 20…入力部 21…誘導制御手段 22…記憶部 23…撮影制御手段 24…画像処理手段 25…目標車両確定手段 27…音声出力部 28…表示部 DESCRIPTION OF SYMBOLS 1 ... Vehicle part 2 ... Navigation apparatus 11 ... Communication part 12 ... Imaging | photography part 20 ... Input part 21 ... Guidance control means 22 ... Memory | storage part 23 ... Shooting control means 24 ... Image processing means 25 ... Target vehicle decision means 27 ... Audio | voice output part 28 ... Display section

Claims (12)

自車の周辺に関する周辺情報を受信する通信手段と、
自車の外に存在する複数のオブジェクトが写った一又は複数の撮影画像を入力する撮影画像入力手段と、
前記入力された一又は複数の撮影画像を解析することにより、前記一又は複数の撮影画像に写っている各オブジェクトとそのオブジェクトの属性とを判別する画像処理手段と、
前記受信した周辺情報と、前記一又は複数の撮影画像の解析の結果とに基づいて、前記判別された複数のオブジェクトのうちのどのオブジェクトを目標オブジェクトとするかを判断する目標オブジェクト判断手段と、
前記目標オブジェクトとされたオブジェクトが写っている撮影画像を表示し、且つ、該撮影画像上で、前記目標オブジェクトを強調表示する表示手段と
を備えたナビゲーション装置。
A communication means for receiving peripheral information about the periphery of the vehicle;
Photographed image input means for inputting one or a plurality of photographed images in which a plurality of objects existing outside the host vehicle are captured;
Image processing means for discriminating each object and attributes of the object shown in the one or more captured images by analyzing the input one or more captured images;
Target object determination means for determining which of the plurality of determined objects is a target object based on the received peripheral information and the result of analysis of the one or more captured images;
A navigation apparatus comprising: a display unit that displays a captured image in which the object that is the target object is displayed, and that highlights the target object on the captured image.
前記周辺情報は、他車に関する情報である他車情報であって、前記他車から車車間通信によって受信したものであり、
前記画像処理手段は、前記一又は複数の撮影画像から一又は複数の他車を判別し、
前記目標オブジェクトは、前記判別された一又は複数の他車の中から選択された他車である、
請求項1記載のナビゲーション装置。
The surrounding information is other vehicle information that is information related to other vehicles, and is received from the other vehicles by inter-vehicle communication,
The image processing means determines one or more other vehicles from the one or more captured images,
The target object is another vehicle selected from one or more of the determined other vehicles.
The navigation device according to claim 1.
前記目標オブジェクト判断手段は、前記目標オブジェクトとして他車を優先的に探し、目標オブジェクトとして適切な他車が判別されない場合に、他種のオブジェクトを目標オブジェクトとする、
請求項2記載のナビゲーション装置。
The target object determining means preferentially searches for another vehicle as the target object, and when an appropriate other vehicle is not determined as the target object, another type of object is used as the target object.
The navigation device according to claim 2.
前記他車情報には、他車の位置、進行方向、速度、加速度、色及び形状のうちの少なくとも一つの情報要素が含まれており、
前記目標オブジェクト判断手段は、探索されユーザから選択された経路と、受信した他車情報に含まれている所定種類の情報要素に基づいて、自車の前方であって自車と進行方向が同じ他車を判断し、該判断された他車を目標オブジェクトとする、
請求項2記載のナビゲーション装置。
The other vehicle information includes at least one information element of the position, traveling direction, speed, acceleration, color and shape of the other vehicle,
The target object determination means is in front of the host vehicle and has the same traveling direction as the host vehicle based on the route searched and selected by the user and a predetermined type of information element included in the received other vehicle information. The other vehicle is determined, and the determined other vehicle is set as the target object.
The navigation device according to claim 2.
前記他車情報には、他車の位置、進行方向、速度、加速度、色及び形状のうちの少なくとも一つの情報要素が含まれており、
前記目標オブジェクト判断手段は、探索されユーザから選択された経路と、受信した他車情報に含まれている所定種類の情報要素に基づいて、自車とは進行方向が異なるが、自車の前方であって、自車が進行することになる場所に位置する他車を判断し、該判断された他車を目標オブジェクトとする、
請求項2記載のナビゲーション装置。
The other vehicle information includes at least one information element of the position, traveling direction, speed, acceleration, color and shape of the other vehicle,
The target object judging means is different in traveling direction from the own vehicle based on the route searched and selected by the user and a predetermined type of information element included in the received other vehicle information. Then, the other vehicle located in the place where the own vehicle will travel is determined, and the determined other vehicle is set as the target object.
The navigation device according to claim 2.
前記他車情報には、他車の位置、進行方向、速度、加速度、色及び形状のうちの少なくとも一つの情報要素が含まれており、
前記目標オブジェクト判断手段は、探索されユーザから選択された経路と、受信した他車情報に含まれている所定種類の情報要素に基づいて、自車の前方であって自車と進行方向が同じ他車を判断し、該他車があれば、該他車を目標オブジェクトとし、該他車が無い或いは該他車が写っている撮影画像がない場合には、探索されユーザから選択された経路と、受信した他車情報に含まれている所定種類の情報要素に基づいて、自車とは進行方向が異なるが、自車の前方であって、自車が進行することになる場所に位置する他車を判断し、該判断された他車を目標オブジェクトとする、
請求項2記載のナビゲーション装置。
The other vehicle information includes at least one information element of the position, traveling direction, speed, acceleration, color and shape of the other vehicle,
The target object determination means is in front of the host vehicle and has the same traveling direction as the host vehicle based on the route searched and selected by the user and a predetermined type of information element included in the received other vehicle information. If another vehicle is determined, and there is the other vehicle, the other vehicle is set as the target object, and when there is no other vehicle or there is no photographed image showing the other vehicle, the route searched and selected by the user Based on a predetermined type of information element included in the received other vehicle information, the traveling direction is different from the own vehicle, but the vehicle is located in front of the own vehicle and where the own vehicle will travel. And determine the other vehicle to be the target object.
The navigation device according to claim 2.
前記他車情報には、他車の速度及び加速度のうちの少なくとも速度が含まれており、
前記目標オブジェクト判断手段は、自車の速度及び加速度のうちの少なくとも速度と、受信した他車情報に含まれている速度及び加速度のうちの少なくとも速度とに基づいて、自車と他車との相対速度を判断し、相対速度が所定値以下の他車を目標オブジェクトとする、
請求項2記載のナビゲーション装置。
The other vehicle information includes at least the speed of the speed and acceleration of the other vehicle,
The target object determining means determines whether the target vehicle and the other vehicle are based on at least the speed and the acceleration of the own vehicle and at least the speed and the acceleration included in the received other vehicle information. The relative speed is determined, and another vehicle whose relative speed is a predetermined value or less is set as a target object.
The navigation device according to claim 2.
前記他車情報には、他車の色、形状、自動車登録番号、速度、加速度、操舵角、車間距離、方向指示器の点滅、及び、他車が設置しているナビゲーション装置が保持している経路の少なくとも一つが含まれており、
前記前記目標オブジェクト判断手段は、自車に関する情報と前記他車情報とに基づいて、目標オブジェクトとする他車を判断する、
請求項2記載のナビゲーション装置。
In the other vehicle information, the color, shape, vehicle registration number, speed, acceleration, steering angle, inter-vehicle distance, blinking direction indicator, and navigation device installed in the other vehicle are held in the other vehicle. Contains at least one of the routes,
The target object determining means determines an other vehicle as a target object based on information on the own vehicle and the other vehicle information.
The navigation device according to claim 2.
前記通信手段は、入力された一又は複数の撮影画像を送受信し、
前記画像処理手段は、他車から受信した撮影画像と、自車に関する情報である自車情報とを用いて、自車を前記他車からの撮影画像から抽出することにより、該他車から見た自車の相対的な位置関係を算出し、
前記目標オブジェクト判断手段は、自車の撮影画像上において、相対的な位置関係から該他車を抽出することによって、前記自車が抽出された撮影画像の送信元車両を特定し、前記特定された送信元車両を前記目標オブジェクトとする、
請求項2記載のナビゲーション装置。
The communication means transmits and receives one or more input captured images,
The image processing means uses the captured image received from the other vehicle and the own vehicle information, which is information related to the own vehicle, to extract the own vehicle from the captured image from the other vehicle, thereby viewing the other vehicle. Calculate the relative position of the vehicle
The target object judging means identifies the transmission source vehicle of the photographed image from which the subject vehicle is extracted by extracting the other vehicle from a relative positional relationship on the photographed image of the subject vehicle. The transmission source vehicle as the target object,
The navigation device according to claim 2.
自車の外を撮影する撮影手段を更に備え、
前記撮影画像入力手段は、前記撮影手段によって撮影された画像を入力する、
請求項1乃至9のいずれか1項に記載のナビゲーション装置。
It further includes a photographing means for photographing the outside of the own vehicle,
The photographed image input means inputs an image photographed by the photographing means.
The navigation device according to any one of claims 1 to 9.
所定のタイミングで前記撮影手段に撮影を実行させる撮影制御手段を更に備えた、
請求項10記載のナビゲーション装置。
A photographing control means for causing the photographing means to perform photographing at a predetermined timing;
The navigation device according to claim 10.
音声制御手段と音声出力部を備え、前記通信部が受信した周辺情報を用いて自車情報と比較した結果、目標オブジェクトとして利用可能であると前記目標オブジェクト判断手段により判断された場合には、前記音声制御手段が、周辺情報に対応する音声データを合成して音声ガイドを生成し、音声出力部が該音声ガイドを出力する、
請求項1乃至11のいずれか1項に記載のナビゲーション装置。
When the target object determining means determines that the target object can be used as a result of comparison with the vehicle information using the surrounding information received by the communication unit, including voice control means and a voice output unit, The voice control means generates voice guides by synthesizing voice data corresponding to peripheral information, and a voice output unit outputs the voice guides;
The navigation device according to any one of claims 1 to 11.
JP2006012360A 2006-01-20 2006-01-20 Navigation apparatus Pending JP2007193652A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006012360A JP2007193652A (en) 2006-01-20 2006-01-20 Navigation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006012360A JP2007193652A (en) 2006-01-20 2006-01-20 Navigation apparatus

Publications (1)

Publication Number Publication Date
JP2007193652A true JP2007193652A (en) 2007-08-02

Family

ID=38449298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006012360A Pending JP2007193652A (en) 2006-01-20 2006-01-20 Navigation apparatus

Country Status (1)

Country Link
JP (1) JP2007193652A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010026620A (en) * 2008-07-16 2010-02-04 Hitachi Automotive Systems Ltd Vehicle driving support device
CN111681455A (en) * 2014-12-01 2020-09-18 星克跃尔株式会社 Control method for electronic device, and recording medium
US10796415B2 (en) 2017-12-28 2020-10-06 Panasonic Intellectual Property Management Co., Ltd. Image processing device, display device, navigation system, and image processing method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010026620A (en) * 2008-07-16 2010-02-04 Hitachi Automotive Systems Ltd Vehicle driving support device
CN111681455A (en) * 2014-12-01 2020-09-18 星克跃尔株式会社 Control method for electronic device, and recording medium
CN111681455B (en) * 2014-12-01 2023-02-03 现代自动车株式会社 Control method of electronic device, and recording medium
US10796415B2 (en) 2017-12-28 2020-10-06 Panasonic Intellectual Property Management Co., Ltd. Image processing device, display device, navigation system, and image processing method

Similar Documents

Publication Publication Date Title
JP4548607B2 (en) Sign presenting apparatus and sign presenting method
WO2012011156A1 (en) Navigation device
JP2005207999A (en) Navigation system, and intersection guide method
JP2008111815A (en) Route guide system and route guide method
JP2008128827A (en) Navigation device, navigation method, and program thereof
JP5078677B2 (en) Navigation system
JP2003123197A (en) Recognition device for road mark or the like
JP2006214965A (en) Navigation device and program for enlarged display of intersection
JP3811238B2 (en) Voice guidance device for vehicles using image information
JP2011089977A (en) Guidance system for street crossings
JP4339178B2 (en) Parking space empty space guidance device and parking space empty space guidance method
KR20200043252A (en) Overlooking image generation system of vehicle and method thereof
EP3627110A1 (en) Method for planning trajectory of vehicle
JP2008157636A (en) Vehicle self-localization method and vehicle self-localizing apparatus
JP2012117944A (en) Navigation device
JP5203747B2 (en) Navigation device
JP2007193652A (en) Navigation apparatus
JP2007256048A (en) Navigation system
JP4798549B2 (en) Car navigation system
JP2008002965A (en) Navigation device and method therefor
JP2007271344A (en) Route information preparation system and route information preparation method
JP2011174723A (en) Guidance apparatus and guidance method
KR100682976B1 (en) System and method for Generation of Image-Based Route Information
KR100813002B1 (en) Terminal and method for providing image-based route information
JP2012032366A (en) Car navigation system