JPWO2012086053A1 - Image adjustment apparatus, control method, program, and storage medium - Google Patents

Image adjustment apparatus, control method, program, and storage medium Download PDF

Info

Publication number
JPWO2012086053A1
JPWO2012086053A1 JP2012549544A JP2012549544A JPWO2012086053A1 JP WO2012086053 A1 JPWO2012086053 A1 JP WO2012086053A1 JP 2012549544 A JP2012549544 A JP 2012549544A JP 2012549544 A JP2012549544 A JP 2012549544A JP WO2012086053 A1 JPWO2012086053 A1 JP WO2012086053A1
Authority
JP
Japan
Prior art keywords
image
attention area
moving body
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012549544A
Other languages
Japanese (ja)
Other versions
JP5517176B2 (en
Inventor
廣瀬 智博
智博 廣瀬
幸史 中村
幸史 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Publication of JPWO2012086053A1 publication Critical patent/JPWO2012086053A1/en
Application granted granted Critical
Publication of JP5517176B2 publication Critical patent/JP5517176B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/31Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons

Abstract

画像調整装置は、取得手段と、表示制御手段と、測位手段と、抽出手段と、調整手段と、を備える。取得手段は、移動体に搭載された撮像手段から画像を取得する。取得手段は、移動体に搭載された撮像手段から画像を取得する。測位手段は、前記移動体の位置を測位する。抽出手段は、地図情報と、移動体の位置とに基づき、画像のうち、運転上注目すべき対象が表示された注目エリアを抽出する。調整手段は、注目エリアに基づき、画像の特性が所定範囲になるように調整する。The image adjustment apparatus includes an acquisition unit, a display control unit, a positioning unit, an extraction unit, and an adjustment unit. The acquisition unit acquires an image from the imaging unit mounted on the moving body. The acquisition unit acquires an image from the imaging unit mounted on the moving body. The positioning means measures the position of the moving body. Based on the map information and the position of the moving body, the extracting means extracts an attention area in which an object to be noted in driving is displayed from the image. The adjusting means adjusts the image characteristics so as to fall within a predetermined range based on the attention area.

Description

本発明は、移動体に搭載された撮像手段から得られる画像を調整する技術に関する。   The present invention relates to a technique for adjusting an image obtained from an imaging unit mounted on a moving body.

従来から、車両などの移動体にカメラを設置し、その画像を目的に応じて調整する技術が存在する。例えば、特許文献1には、車線位置を認識する運転支援装置において、カメラで撮影した車両前方の画像を、空の領域、路面の領域、バンパーの領域に分け、カメラの露出を補正するための側光エリアを、速度が遅いときには路面の領域に設定し、速度が速いときには画像全体に設定する技術が開示されている。また、特許文献2には、ナビゲーションを行う際に表示する案内表示の例として、カメラで撮影した実写映像を用いた案内表示を行う技術が開示されている。   2. Description of the Related Art Conventionally, there is a technique for installing a camera on a moving body such as a vehicle and adjusting the image according to the purpose. For example, in Patent Document 1, in a driving assistance device that recognizes a lane position, an image in front of a vehicle captured by a camera is divided into an empty area, a road surface area, and a bumper area, and the exposure of the camera is corrected. A technique is disclosed in which the side light area is set to a road surface area when the speed is low, and set to the entire image when the speed is high. Patent Document 2 discloses a technique for performing guidance display using a live-action image captured by a camera as an example of guidance display displayed when performing navigation.

特開2005−135203号公報JP-A-2005-135203 特開2008−020288号公報JP 2008-020288 A

カメラで撮影した画像を用いて案内表示を行う場合などでは、運転上注目すべきエリアを見やすくする必要があり、全体の領域を基準として露出等の調整を行うと、当該エリアが見えにくくなる可能性がある。   When displaying guidance using images taken with a camera, it is necessary to make it easy to see the area that should be noted in driving, and adjusting the exposure etc. based on the entire area may make it difficult to see the area There is sex.

本発明は、上記のような課題を解決するためになされたものであり、移動体に搭載された撮像手段から得られる画像を、運転上注目すべきエリアが見えやすいように調整することが可能な画像調整装置を提供することを主な目的とする。   The present invention has been made to solve the above-described problems, and it is possible to adjust an image obtained from an imaging unit mounted on a moving body so that an area to be noticed in driving can be easily seen. The main object is to provide a simple image adjustment apparatus.

請求項1に記載の発明は、画像調整装置であって、移動体に搭載された撮像手段から画像を取得する取得手段と、前記画像を表示手段に表示する表示制御手段と、前記移動体の位置を測位する測位手段と、地図情報と、前記移動体の位置とに基づき、前記画像のうち、運転上注目すべき対象が表示された注目エリアを抽出する抽出手段と、前記注目エリアに基づき、前記画像の特性が所定範囲になるように調整する調整手段と、を備えることを特徴とする。   The invention according to claim 1 is an image adjustment apparatus, wherein an acquisition unit that acquires an image from an imaging unit mounted on a moving body, a display control unit that displays the image on a display unit, Based on the positioning means for positioning the position, the map information, and the position of the moving body, the extracting means for extracting the attention area in which the target to be noticed in driving is displayed from the image, and the attention area. Adjusting means for adjusting the characteristics of the image to be within a predetermined range.

請求項10に記載の発明は、画像調整装置により実行される制御方法であって、移動体に搭載された撮像手段から画像を取得する取得工程と、前記画像を表示手段に表示する表示制御工程と、前記移動体の位置を測位する測位工程と、地図情報と、前記移動体の位置とに基づき、前記画像のうち、運転上注目すべき対象が表示された注目エリアを抽出する抽出工程と、前記注目エリアに基づき、前記画像の特性が所定範囲になるように調整する調整工程と、を備えることを特徴とする。   The invention according to claim 10 is a control method executed by the image adjustment apparatus, wherein an acquisition step of acquiring an image from an imaging unit mounted on a moving body, and a display control step of displaying the image on a display unit And a positioning step for positioning the position of the moving body, an extraction step for extracting an attention area in which an object to be noted in driving is displayed from the image based on the map information and the position of the moving body; And an adjusting step for adjusting the characteristics of the image so as to fall within a predetermined range based on the attention area.

請求項11に記載の発明は、画像調整装置により実行されるプログラムであって、移動体に搭載された撮像手段から画像を取得する取得手段、前記画像を表示手段に表示する表示制御手段、前記移動体の位置を測位する測位手段、地図情報と、前記移動体の位置とに基づき、前記画像のうち、運転上注目すべき対象が表示された注目エリアを抽出する抽出手段、前記注目エリアに基づき、前記画像の特性が所定範囲になるように調整する調整手段として前記画像調整装置を機能させることを特徴とする。   The invention according to claim 11 is a program executed by the image adjustment apparatus, the acquisition unit acquiring an image from the imaging unit mounted on the moving body, the display control unit displaying the image on the display unit, Positioning means for positioning the position of the moving object, map information, and extraction means for extracting an attention area in which an object to be noted in driving is displayed from the image, and the attention area On the basis of this, the image adjustment apparatus is caused to function as an adjustment unit that adjusts the image characteristics to be within a predetermined range.

本実施例に係るナビゲーション装置の概略構成の一例である。It is an example of schematic structure of the navigation apparatus concerning a present Example. 本実施例に係るナビゲーション装置の機能ブロックの一例である。It is an example of the functional block of the navigation apparatus which concerns on a present Example. (a)は、ルート案内時に撮影した撮像画像の一例を示す。(b)は、(a)の撮影画像中の交差点のみを拡大表示させた図である。(A) shows an example of the picked-up image image | photographed at the time of route guidance. (B) is the figure which expanded and displayed only the intersection in the picked-up image of (a). (a)は、交差点を地図データに基づき、ノードとリンクとで表した図である。(b)は、3次元仮想空間上にオブジェクトを配置後、3次元仮想空間を上から俯瞰した図を示す。(A) is the figure which represented the intersection by the node and the link based on map data. (B) shows the figure which looked down at three-dimensional virtual space from the top after arrange | positioning an object on three-dimensional virtual space. (a)は、3次元仮想空間上にカメラを配置した場合の俯瞰図を示す。(b)は、レンダリングされたカメラ視野画像を示す。(A) shows an overhead view when a camera is arranged in a three-dimensional virtual space. (B) shows the rendered camera view image. (a)は、撮影画像にカメラ視野画像を重畳させた図である。(b)は、(a)の状態から所定距離だけ車両が前進した場合での、撮影画像にカメラ視野画像を重畳させた図である。(A) is the figure which superimposed the camera visual field image on the picked-up image. (B) is the figure which superimposed the camera visual field image on the picked-up image in case the vehicle advances the predetermined distance from the state of (a). (a)は、目的地の表示領域を注目エリアに設定した場合のカメラ視野画像の一例を示す。(b)は、3次元仮想空間上に、道路に対応する各オブジェクト及び交差点に対応するオブジェクト並びにカメラを配置した場合に、当該3次元仮想空間を俯瞰した図である。(A) shows an example of the camera visual field image when the display area of the destination is set as the attention area. (B) is a diagram of an overhead view of the three-dimensional virtual space when each object corresponding to a road, an object corresponding to an intersection, and a camera are arranged on the three-dimensional virtual space. 本実施例の処理手順を示すフローチャートの一例である。It is an example of the flowchart which shows the process sequence of a present Example.

本発明の好適な実施形態によれば、画像調整装置は、移動体に搭載された撮像手段から画像を取得する取得手段と、前記画像を表示手段に表示する表示制御手段と、前記移動体の位置を測位する測位手段と、地図情報と、前記移動体の位置とに基づき、前記画像のうち、運転上注目すべき対象が表示された注目エリアを抽出する抽出手段と、前記注目エリアに基づき、前記画像の特性が所定範囲になるように調整する調整手段と、を備える。   According to a preferred embodiment of the present invention, an image adjustment device includes an acquisition unit that acquires an image from an imaging unit mounted on a moving body, a display control unit that displays the image on a display unit, Based on the positioning means for positioning the position, the map information, and the position of the moving body, the extracting means for extracting the attention area in which the target to be noticed in driving is displayed from the image, and the attention area. Adjusting means for adjusting the characteristic of the image to be within a predetermined range.

上記の画像調整装置は、取得手段と、表示制御手段と、測位手段と、抽出手段と、調整手段と、を備える。取得手段は、移動体に搭載された撮像手段から画像を取得する。表示制御手段は、前記画像を表示手段に表示する。測位手段は、前記移動体の位置を測位する。抽出手段は、地図情報と、移動体の位置とに基づき、画像のうち、運転上注目すべき対象が表示された注目エリアを抽出する。調整手段は、注目エリアに基づき、画像の特性が所定範囲になるように調整する。ここで、「画像の特性」とは、例えば、輝度、コントラスト、倍率などが該当する。また、「所定範囲」とは、注目エリアが明確化されるような画像の各特性の範囲である。   The image adjustment apparatus includes an acquisition unit, a display control unit, a positioning unit, an extraction unit, and an adjustment unit. The acquisition unit acquires an image from the imaging unit mounted on the moving body. The display control means displays the image on the display means. The positioning means measures the position of the moving body. Based on the map information and the position of the moving body, the extracting unit extracts an attention area in which an object to be noted in driving is displayed from the image. The adjusting means adjusts the image characteristics so as to fall within a predetermined range based on the attention area. Here, “image characteristics” include, for example, brightness, contrast, magnification, and the like. Further, the “predetermined range” is a range of each characteristic of the image in which the attention area is clarified.

この実施形態によれば、画像調整装置は、地図情報と、移動体の位置とに基づき注目エリアを抽出し、注目エリアに基づき画像を調整することが可能となる。従って、画像調整装置は、注目エリアが見やすくなった画像をユーザに提示することができ、利便性を向上させることができる。   According to this embodiment, the image adjustment apparatus can extract the attention area based on the map information and the position of the moving body, and can adjust the image based on the attention area. Therefore, the image adjustment apparatus can present an image in which the attention area is easy to see to the user, and can improve convenience.

上記の画像調整装置の一態様では、前記注目すべき対象は、交差点又は/及び施設である。これにより、画像調整装置は、運転上認識することが必要な交差点等を画像上でユーザに明確に視認させることができる。   In one aspect of the above image adjustment apparatus, the object to be noted is an intersection or / and a facility. Thereby, the image adjustment apparatus can make a user visually recognize the intersection etc. which need to be recognized in a driving | operation on an image.

上記の画像調整装置の他の一態様では、前記移動体を目的地まで案内する案内手段をさらに備え、前記注目すべき対象は、交差点、施設、案内地点、目的地又は立寄地、目的地又は立寄地までのルートに対応する道路のいずれかまたはこれらの組み合わせである。これにより、画像調整装置は、目的地又は立寄地までのルート中の運転上注目すべき対象を運転者に明確に視認させることができる。   In another aspect of the image adjustment apparatus, the image processing apparatus further includes guide means for guiding the moving body to a destination, and the notable object is an intersection, a facility, a guide point, a destination or a stopover, a destination or One of the roads corresponding to the route to the stop-off place, or a combination thereof. Thereby, the image adjustment apparatus can make a driver | operator clearly visually recognize the object which should pay attention on the driving | running | working in the route | route to a destination or a stopover.

上記の画像調整装置の他の一態様では、前記注目すべき対象の種類が複数存在する場合、当該種類ごとに優先度が設定され、前記抽出手段は、前記優先度の高い前記注目すべき対象が表示された注目エリアを抽出する。このようにすることで、画像調整装置は、運転上特に視認することが必要な部分を優先して、画像上でユーザに明確に視認させることができる。   In another aspect of the image adjustment device, when there are a plurality of types of the target to be noted, a priority is set for each of the types, and the extraction unit is configured to select the target of interest with a high priority. The attention area where is displayed is extracted. By doing in this way, the image adjustment apparatus can give a user a clear visual recognition on the image, giving priority to a part that needs to be particularly visually recognized in driving.

上記の画像調整装置の他の一態様では、前記優先度は、前記移動体の位置から前記注目すべき対象までの距離が短いほど、高く設定される。このようにすることで、画像調整装置は、運転上特に視認することが必要な直近の対象を優先して、画像上でユーザに明確に視認させることができる。   In another aspect of the above-described image adjustment apparatus, the priority is set higher as the distance from the position of the moving body to the target of interest is shorter. By doing in this way, the image adjustment apparatus can give the user a clear visual recognition on the image, giving priority to the nearest object that needs to be particularly visually recognized in the driving.

上記の画像調整装置の他の一態様では、前記注目エリアに基づき、前記画像の特性が所定範囲になるように前記カメラに制御信号を送信する。このようにすることで、画像調整装置は、注目エリアに基づき調整された画像をカメラから取得することができる。   In another aspect of the image adjustment apparatus, a control signal is transmitted to the camera based on the attention area so that the characteristics of the image are within a predetermined range. By doing in this way, the image adjustment apparatus can acquire the image adjusted based on the attention area from the camera.

上記の画像調整装置の他の一態様では、前記調整手段は、前記注目エリアに基づき、前記カメラの露出又はフォーカス若しくはズームを調整する。これにより、好適に、画像調整装置は、注目エリアが明確化されるようにカメラの生成画像を調整することができる。   In another aspect of the image adjustment apparatus, the adjustment unit adjusts exposure, focus, or zoom of the camera based on the area of interest. Thereby, the image adjustment device can preferably adjust the generated image of the camera so that the attention area is clarified.

上記の画像調整装置の他の一態様では、前記調整手段は、前記注目エリアに基づき、前記画像の特性が所定範囲になるように、前記画像の画像処理を行い、前記表示制御手段は、前記画像処理がなされた画像を表示手段に表示する。この態様によっても、好適に、画像調整装置は、注目エリアが明確化された画像を表示することができる。   In another aspect of the image adjustment apparatus, the adjustment unit performs image processing on the image based on the attention area so that the characteristics of the image are within a predetermined range, and the display control unit includes the display control unit, The image that has undergone image processing is displayed on the display means. Also according to this aspect, the image adjustment apparatus can preferably display an image in which the attention area is clarified.

上記の画像調整装置の他の一態様では、前記撮影手段は、前記移動体の前方方向を撮影し、前記表示制御手段は、前記撮影手段が撮影した画像に案内表示を重ねて前記表示手段に表示する。この態様によれば、画像調整装置は、撮影した画像を用いた案内表示を行う場合に、運転上認識することが必要な部分を画像上でユーザに明確に視認させることができ、利便性を向上させることができる。   In another aspect of the above image adjustment apparatus, the photographing unit photographs the front direction of the moving body, and the display control unit superimposes a guidance display on the image photographed by the photographing unit on the display unit. indicate. According to this aspect, the image adjustment device can make the user clearly see on the image the part that needs to be recognized in driving when performing the guidance display using the captured image, and is convenient. Can be improved.

本発明の他の実施形態によれば、画像調整装置により実行される制御方法であって、移動体に搭載された撮像手段から画像を取得する取得工程と、前記画像を表示手段に表示する表示制御工程と、前記移動体の位置を測位する測位工程と、地図情報と、前記移動体の位置とに基づき、前記画像のうち、運転上注目すべき対象が表示された注目エリアを抽出する抽出工程と、前記注目エリアに基づき、前記画像の特性が所定範囲になるように調整する調整工程と、を備える。画像調整装置は、この制御方法を実行することで、運転上認識することが必要な部分を画像上でユーザに明確に視認させることができる。   According to another embodiment of the present invention, there is provided a control method executed by an image adjustment apparatus, an acquisition step of acquiring an image from an imaging unit mounted on a moving body, and a display for displaying the image on a display unit Based on the control step, the positioning step for measuring the position of the moving body, the map information, and the position of the moving body, extraction for extracting an attention area in which an object to be noticed in driving is displayed among the images. And an adjustment step for adjusting the characteristics of the image within a predetermined range based on the attention area. By executing this control method, the image adjustment apparatus can clearly make the user visually recognize the part that needs to be recognized in the driving.

本発明のさらに別の実施形態によれば、画像調整装置により実行されるプログラムであって、移動体に搭載された撮像手段から画像を取得する取得手段、前記画像を表示手段に表示する表示制御手段、前記移動体の位置を測位する測位手段、地図情報と、前記移動体の位置とに基づき、前記画像のうち、運転上注目すべき対象が表示された注目エリアを抽出する抽出手段、前記注目エリアに基づき、前記画像の特性が所定範囲になるように調整する調整手段として前記画像調整装置を機能させる。画像調整装置は、このプログラムを搭載し実行することで、運転上認識することが必要な部分を画像上でユーザに明確に視認させることができる。なお、好適には、上記のプログラムは記憶媒体に記憶される。   According to still another embodiment of the present invention, there is provided a program executed by the image adjustment device, the acquisition unit acquiring an image from the imaging unit mounted on the moving body, and the display control for displaying the image on the display unit Means, positioning means for positioning the position of the moving body, extraction means for extracting an attention area in which an object to be noted in driving is displayed from the image based on map information and the position of the moving body, The image adjustment apparatus is caused to function as an adjustment unit that adjusts the characteristics of the image to be within a predetermined range based on the attention area. By installing and executing this program, the image adjustment apparatus can clearly make the user visually recognize the part that needs to be recognized in the driving. Preferably, the above program is stored in a storage medium.

以下、図面を参照して本発明の好適な実施例について説明する。以後では、「立寄地」とは、使用者が目的地の途中で立ち寄る地点として設定した地点を指す。また、目的地及び立寄地を特に区別しない場合、これらを「目的地等」と呼ぶ。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. Hereinafter, the “stop-by place” refers to a point set by the user as a stop point in the middle of the destination. In addition, when there is no particular distinction between the destination and the stop-off place, these are called “destination etc.”.

[概略構成]
図1は、本発明における画像調整装置の一例であるナビゲーション装置1の概略構成を示す。ナビゲーション装置1は、車両に搭載され、図2にて図示するカメラ5と接続し、目的地等に基づくルート案内やカメラ5の調整を行う。図1に示すように、ナビゲーション装置1は、自立測位装置10、GPS受信機18、システムコントローラ20、ディスクドライブ31、データ記憶ユニット36、通信用インタフェース37、通信装置38、表示ユニット40、音声出力ユニット50及び入力装置60を備える。
[Schematic configuration]
FIG. 1 shows a schematic configuration of a navigation device 1 which is an example of an image adjustment device according to the present invention. The navigation device 1 is mounted on a vehicle and is connected to the camera 5 illustrated in FIG. 2 to perform route guidance based on a destination or the like and to adjust the camera 5. As shown in FIG. 1, the navigation device 1 includes a self-supporting positioning device 10, a GPS receiver 18, a system controller 20, a disk drive 31, a data storage unit 36, a communication interface 37, a communication device 38, a display unit 40, an audio output. A unit 50 and an input device 60 are provided.

自立測位装置10は、加速度センサ11、角速度センサ12及び距離センサ13を備える。加速度センサ11は、例えば圧電素子からなり、車両の加速度を検出し、加速度データを出力する。角速度センサ12は、例えば振動ジャイロからなり、車両の方向変換時における車両の角速度を検出し、角速度データ及び相対方位データを出力する。距離センサ13は、車両の車輪の回転に伴って発生されているパルス信号からなる車速パルスを計測する。   The autonomous positioning device 10 includes an acceleration sensor 11, an angular velocity sensor 12, and a distance sensor 13. The acceleration sensor 11 is made of, for example, a piezoelectric element, detects vehicle acceleration, and outputs acceleration data. The angular velocity sensor 12 is composed of, for example, a vibrating gyroscope, detects the angular velocity of the vehicle when the direction of the vehicle is changed, and outputs angular velocity data and relative azimuth data. The distance sensor 13 measures a vehicle speed pulse composed of a pulse signal generated with the rotation of the vehicle wheel.

GPS受信機18は、複数のGPS衛星から、測位用データを含む下り回線データを搬送する電波19を受信する。測位用データは、緯度及び経度情報等から車両の絶対的な位置(以後、「現在地」とも呼ぶ。)を検出するために用いられる。   The GPS receiver 18 receives radio waves 19 carrying downlink data including positioning data from a plurality of GPS satellites. The positioning data is used to detect the absolute position of the vehicle (hereinafter also referred to as “current location”) from latitude and longitude information.

システムコントローラ20は、インタフェース21、CPU(Central Processing Unit)22、ROM(Read Only Memory)23及びRAM(Random Access Memory)24を含んでおり、ナビゲーション装置1全体の制御を行う。   The system controller 20 includes an interface 21, a CPU (Central Processing Unit) 22, a ROM (Read Only Memory) 23, and a RAM (Random Access Memory) 24, and controls the entire navigation apparatus 1.

インタフェース21は、加速度センサ11、角速度センサ12及び距離センサ13並びにGPS受信機18とのインタフェース動作を行う。そして、これらから、車速パルス、加速度データ、相対方位データ、角速度データ、GPS測位データ、絶対方位データ等をシステムコントローラ20に入力する。CPU22は、システムコントローラ20全体を制御する。ROM23は、システムコントローラ20を制御する制御プログラム等が格納された図示しない不揮発性メモリ等を有する。RAM24は、入力装置60を介して使用者により予め設定された経路データ等の各種データを読み出し可能に格納したり、CPU22に対してワーキングエリアを提供したりする。なお、これらのシステムコントローラ20の各要素が実行する具体的な処理については、後述する[制御方法]のセクションで詳しく説明する。   The interface 21 performs an interface operation with the acceleration sensor 11, the angular velocity sensor 12, the distance sensor 13, and the GPS receiver 18. From these, vehicle speed pulses, acceleration data, relative azimuth data, angular velocity data, GPS positioning data, absolute azimuth data, and the like are input to the system controller 20. The CPU 22 controls the entire system controller 20. The ROM 23 includes a nonvolatile memory (not shown) in which a control program for controlling the system controller 20 is stored. The RAM 24 stores various data such as route data preset by the user via the input device 60 so as to be readable, and provides a working area to the CPU 22. The specific processing executed by each element of the system controller 20 will be described in detail in the section [Control Method] described later.

システムコントローラ20、CD−ROMドライブ又はDVD−ROMドライブなどのディスクドライブ31、データ記憶ユニット36、通信用インタフェース37、表示ユニット40、音声出力ユニット50及び入力装置60は、バスライン30を介して相互に接続されている。   A system controller 20, a disk drive 31 such as a CD-ROM drive or a DVD-ROM drive, a data storage unit 36, a communication interface 37, a display unit 40, an audio output unit 50, and an input device 60 are mutually connected via a bus line 30. It is connected to the.

ディスクドライブ31は、システムコントローラ20の制御の下、CD又はDVDといったディスク33から、音楽データ、映像データなどのコンテンツデータを読み出し、出力する。なお、ディスクドライブ31は、CD−ROMドライブ又はDVD−ROMドライブのうち、いずれか一方としてもよいし、CD及びDVDコンパチブルのドライブとしてもよい。データ記憶ユニット36は、例えば、HDDなどにより構成され、地図データなどのナビゲーション処理に用いられる各種データを記憶するユニットである。通信装置38は、例えば、FMチューナやビーコンレシーバ、携帯電話や専用の通信カードなどにより構成され、VICS(Vehicle Information Communication System)センタなどから配信される情報(以下、「VICS情報」と呼ぶ。)を電波39より取得する。そしてインタフェース37は、通信装置38のインタフェース動作を行い、VICS情報をシステムコントローラ20等に入力する。   The disk drive 31 reads and outputs content data such as music data and video data from a disk 33 such as a CD or DVD under the control of the system controller 20. The disk drive 31 may be either a CD-ROM drive or a DVD-ROM drive, or may be a CD and DVD compatible drive. The data storage unit 36 is configured by, for example, an HDD and stores various data used for navigation processing such as map data. The communication device 38 includes, for example, an FM tuner, a beacon receiver, a mobile phone, a dedicated communication card, and the like, and is distributed from a VICS (Vehicle Information Communication System) center or the like (hereinafter referred to as “VICS information”). Is acquired from the radio wave 39. The interface 37 performs an interface operation of the communication device 38 and inputs the VICS information to the system controller 20 or the like.

表示ユニット40は、システムコントローラ20の制御の下、各種表示データをディスプレイなどの表示装置に表示する。具体的には、システムコントローラ20は、データ記憶ユニット36から地図データを読み出す。表示ユニット40は、本発明における「表示手段」の一例であり、システムコントローラ20によってデータ記憶ユニット36から読み出された地図データなどを表示画面上に表示する。表示ユニット40は、バスライン30を介してCPU22から送られる制御データに基づいて表示ユニット40全体の制御を行うグラフィックコントローラ41と、VRAM(Video RAM)等のメモリからなり即時表示可能な画像情報を一時的に記憶するバッファメモリ42と、グラフィックコントローラ41から出力される画像データに基づいて、液晶、CRT(Cathode Ray Tube)等のディスプレイ44を表示制御する表示制御部43と、ディスプレイ44とを備える。ディスプレイ44は、画像表示部として機能し、例えば対角5〜10インチ程度の液晶表示装置等からなり、車内のフロントパネル付近に装着される。   The display unit 40 displays various display data on a display device such as a display under the control of the system controller 20. Specifically, the system controller 20 reads map data from the data storage unit 36. The display unit 40 is an example of the “display unit” in the present invention, and displays the map data read from the data storage unit 36 by the system controller 20 on the display screen. The display unit 40 includes a graphic controller 41 that controls the entire display unit 40 based on control data sent from the CPU 22 via the bus line 30 and a memory such as a VRAM (Video RAM), and can display image information that can be displayed immediately. A buffer memory 42 that temporarily stores, a display control unit 43 that controls display of a display 44 such as a liquid crystal display or a CRT (Cathode Ray Tube) based on image data output from the graphic controller 41, and a display 44 are provided. . The display 44 functions as an image display unit, and includes, for example, a liquid crystal display device having a diagonal size of about 5 to 10 inches and is mounted near the front panel in the vehicle.

音声出力ユニット50は、システムコントローラ20の制御の下、CD−ROMドライブ31又はDVD−ROM32、若しくはRAM24等からバスライン30を介して送られる音声デジタルデータのD/A(Digital to Analog)変換を行うD/Aコンバータ51と、D/Aコンバータ51から出力される音声アナログ信号を増幅する増幅器(AMP)52と、増幅された音声アナログ信号を音声に変換して車内に出力するスピーカ53とを備えて構成されている。   The audio output unit 50 performs D / A (Digital to Analog) conversion of audio digital data sent from the CD-ROM drive 31, DVD-ROM 32, RAM 24, or the like via the bus line 30 under the control of the system controller 20. A D / A converter 51 to perform, an amplifier (AMP) 52 that amplifies the audio analog signal output from the D / A converter 51, and a speaker 53 that converts the amplified audio analog signal into sound and outputs the sound into the vehicle. It is prepared for.

入力装置60は、各種コマンドやデータを入力するための、キー、スイッチ、ボタン、リモコン、音声入力装置等から構成されている。入力装置60は、車内に搭載された当該車載用電子システムの本体のフロントパネルやディスプレイ44の周囲に配置される。また、ディスプレイ44がタッチパネル方式の場合、ディスプレイ44の表示画面上に設けられたタッチパネルも入力装置60として機能する。   The input device 60 includes keys, switches, buttons, a remote controller, a voice input device, and the like for inputting various commands and data. The input device 60 is disposed around the front panel and the display 44 of the main body of the in-vehicle electronic system mounted in the vehicle. When the display 44 is a touch panel system, the touch panel provided on the display screen of the display 44 also functions as the input device 60.

なお、図1におけるCPU22などは、本発明における取得手段、表示制御手段、測位手段、抽出手段、及び調整手段に相当する。   Note that the CPU 22 and the like in FIG. 1 correspond to an acquisition unit, display control unit, positioning unit, extraction unit, and adjustment unit in the present invention.

[制御方法]
図2は、本実施例に係る機能的なブロック構成図を示す。図2に示すように、ナビゲーション装置1は、カメラ5と接続する。そして、システムコントローラ20は、ルート探索部211、ルート案内部212、自車位置認識部213、3D画像生成部214、及び露出エリア決定部215を備える。
[Control method]
FIG. 2 is a functional block configuration diagram according to the present embodiment. As shown in FIG. 2, the navigation device 1 is connected to the camera 5. The system controller 20 includes a route search unit 211, a route guide unit 212, a vehicle position recognition unit 213, a 3D image generation unit 214, and an exposure area determination unit 215.

カメラ5は、標準設定で所定の画角を有し、撮像素子に入射する光に基づき撮影した画像(単に「撮影画像」とも呼ぶ。)を生成する。カメラ5は、車両の前方方向に向けられる。カメラ5は、システムコントローラ20から送信される制御信号「S1」に基づき、露光(露出)の調整を行う。カメラ5は、本発明における「撮像手段」の一例である。   The camera 5 has a predetermined angle of view by default, and generates an image (also simply referred to as “captured image”) captured based on light incident on the image sensor. The camera 5 is directed in the forward direction of the vehicle. The camera 5 adjusts exposure (exposure) based on the control signal “S1” transmitted from the system controller 20. The camera 5 is an example of the “imaging unit” in the present invention.

ルート探索部211は、使用者が設定した目的地等までのルートを探索する。具体的には、ルート探索部211は、使用者が設定した目的地、自車位置認識部213が検出した車両の現在地(「自車位置」とも呼ぶ。)及び地図データ360等に基づき走行中及び走行予定の経路(「走行ルート」とも呼ぶ。)を特定する。   The route search unit 211 searches for a route to a destination set by the user. Specifically, the route search unit 211 is traveling based on the destination set by the user, the current location of the vehicle detected by the vehicle position recognition unit 213 (also referred to as “own vehicle position”), map data 360, and the like. And a route scheduled to travel (also referred to as a “travel route”).

ルート案内部212は、使用者が設定した目的地等までの経路案内を行う。例えば、ルート案内部212は、連続的に、ルート探索部211が特定した走行ルートを指示する案内表示を撮影画像に重畳させて、表示ユニット40に表示させる。また、ルート案内部212は、走行ルートに基づく音声案内を音声出力ユニット50に出力させる。   The route guidance unit 212 performs route guidance to a destination set by the user. For example, the route guidance unit 212 continuously superimposes a guidance display indicating the travel route specified by the route search unit 211 on the captured image and causes the display unit 40 to display the guidance display. In addition, the route guidance unit 212 causes the voice output unit 50 to output voice guidance based on the travel route.

自車位置認識部213は、GPS受信機18や自立測位装置10の検出信号に基づき、自車位置を特定する。   The own vehicle position recognition unit 213 identifies the own vehicle position based on detection signals from the GPS receiver 18 and the self-supporting positioning device 10.

3D画像生成部214は、自車位置及び地図データ360に基づき、自車位置を基準として仮想的に生成した所定の大きさの3次元座標空間(「3次元仮想空間」とも呼ぶ。)中に道路や所定の地点及び施設を実際の配置に合わせて仮想的に配置し、当該3次元仮想空間からカメラ5の位置、向き、画角に基づきカメラ5の視野(Field of View)に即した画像(「カメラ視野画像Iv」とも呼ぶ。)を生成する。   The 3D image generation unit 214 is based on the vehicle position and the map data 360 and in a three-dimensional coordinate space (also referred to as “three-dimensional virtual space”) of a predetermined size virtually generated with reference to the vehicle position. A road, a predetermined point, and a facility are virtually arranged in accordance with the actual arrangement, and an image conforming to the field of view of the camera 5 (Field of View) based on the position, orientation, and angle of view of the camera 5 from the three-dimensional virtual space. (Also referred to as “camera view image Iv”).

また、3D画像生成部214は、カメラ視野画像Ivを生成する場合、運転するに当たり重要度が高い注目すべきエリア(「注目エリアTr」とも呼ぶ。)を、他のエリアとは異なる色で生成する。ここで、注目エリアTrは、例えば、交差点、右左折の案内を行う地点(「案内地点」とも呼ぶ。)、目的地及び立寄地、コンビニエンスストアやガソリンスタンドなどのルート案内を行う場合に目印となる施設(「目印施設」とも呼ぶ。)又はこれらの任意の組み合わせ(これらをまとめて「注目対象」とも総称する。)の表示領域に設定される。具体的なカメラ視野画像Ivの生成方法等については、[具体例]のセクションで説明する。   In addition, when generating the camera view image Iv, the 3D image generation unit 214 generates an area of interest (also referred to as “attention area Tr”) that has a high importance in driving with a color different from other areas. To do. Here, the attention area Tr is, for example, a mark when performing route guidance such as intersections, points for guidance of turning left and right (also referred to as “guidance points”), destinations and stops, convenience stores, gas stations, and the like. To be displayed (also referred to as “marking facility”) or an arbitrary combination thereof (collectively, collectively referred to as “target object”). A specific method for generating the camera view image Iv and the like will be described in the [Specific Example] section.

露出エリア決定部215は、3D画像生成部214が生成したカメラ視野画像Ivの各画素の画素値に基づき、注目エリアTrが存在するか否か特定し、注目エリアTrが存在する場合、注目エリアTrに基づき露出を調整すべき旨の制御信号S1をカメラ5に送信する。これにより、露出エリア決定部215は、撮影画像のうち、注目エリアTrに対応する画素値が上限値又は下限値にならないように、即ち色飽和にならないように、カメラ5のシャッタースピード、絞り、又は/及び感度を調整する。即ち、露出エリア決定部215は、注目エリアTrに対応する画素値がカメラ5のダイナミックレンジに含まれるように、カメラ5のダイナミックレンジ(幅)を維持しながらその中心値を変更する。   The exposure area determination unit 215 determines whether or not the attention area Tr exists based on the pixel value of each pixel of the camera visual field image Iv generated by the 3D image generation unit 214. When the attention area Tr exists, A control signal S1 indicating that the exposure should be adjusted based on Tr is transmitted to the camera 5. As a result, the exposure area determination unit 215 prevents the pixel value corresponding to the attention area Tr in the photographed image from reaching the upper limit value or the lower limit value, that is, does not cause color saturation. Or / and adjust sensitivity. That is, the exposure area determination unit 215 changes the center value while maintaining the dynamic range (width) of the camera 5 so that the pixel value corresponding to the attention area Tr is included in the dynamic range of the camera 5.

[具体例]
図3(a)は、ルート案内時に撮影した撮像画像の一例を示す。図3(b)は、図3(a)の撮影画像中の交差点「PI」のみを拡大表示させた図である。図3(a)に示す撮影画像は、車両がトンネルを抜ける直前に撮影されたものである。撮影画像は、トンネルの内壁部分に相当し、輝度が低い低輝度領域71と、トンネルの出口の逆U字型の形状と破線73とにより囲まれた部分に相当し、太陽光に起因して輝度が高い高輝度領域72と、を有する。また、高輝度領域72は、注目対象である交差点PIの表示領域を含む。また、車両は、図3(b)の矢印Y1に示すように、交差点PIで右折するものとする。
[Concrete example]
FIG. 3A shows an example of a captured image taken at the time of route guidance. FIG. 3B is an enlarged view of only the intersection “PI” in the photographed image of FIG. The photographed image shown in FIG. 3 (a) was photographed immediately before the vehicle exited the tunnel. The photographed image corresponds to the inner wall portion of the tunnel, corresponds to the portion surrounded by the low luminance region 71 having low luminance, the inverted U-shaped shape at the exit of the tunnel, and the broken line 73, and is caused by sunlight. And a high luminance region 72 having high luminance. In addition, the high luminance area 72 includes a display area of the intersection PI that is a target of attention. Further, the vehicle turns right at the intersection PI as shown by an arrow Y1 in FIG.

図3(a)に示すように、この例では、カメラ5が撮影画像全体を考慮して露出を定めた場合、撮影画像のうち低輝度領域71の占める面積が大きいことに起因して、カメラ5の露出が上がり、注目対象である交差点PIの表示領域を含む高輝度領域72が白に色飽和になる。従って、カメラ5が撮影画像全体を考慮して露出を定めた場合には、案内地点である交差点PIが視認しにくい状態で表示されるため、好ましくない。   As shown in FIG. 3A, in this example, when the camera 5 determines the exposure in consideration of the entire captured image, the camera occupies a large area occupied by the low-luminance region 71 in the captured image. 5 is increased, and the high-intensity area 72 including the display area of the intersection PI, which is the target of attention, is saturated with white. Therefore, when the camera 5 determines the exposure in consideration of the entire captured image, the intersection PI that is the guide point is displayed in a state that is difficult to visually recognize, which is not preferable.

以上を勘案し、ナビゲーション装置1は、以下で述べるように、注目対象である交差点PIの表示領域に基づき露出が定まるようにカメラ5を制御する。以下では、上述の例の場合に、3D画像生成部214が注目エリアTrを定める処理について具体的に説明する。   Considering the above, the navigation device 1 controls the camera 5 so that the exposure is determined based on the display area of the intersection PI that is the target of attention, as described below. Hereinafter, in the case of the above-described example, the process in which the 3D image generation unit 214 determines the attention area Tr will be specifically described.

まず、3D画像生成部214は、地図データ360及び自車位置に基づき、3次元仮想空間中に、車両の前方であって自車位置から所定距離以内に存在する道路に対応するオブジェクト(ポリゴン)を配置する。上述の所定距離は、例えば、カメラ5が撮影可能な距離、即ち撮影画像に表示される可能性がある現在地からの距離の上限値に予め定められる。   First, the 3D image generation unit 214 uses an object (polygon) corresponding to a road that is in front of the vehicle and within a predetermined distance from the vehicle position in the three-dimensional virtual space based on the map data 360 and the vehicle position. Place. The above-mentioned predetermined distance is determined in advance as, for example, the upper limit value of the distance that the camera 5 can shoot, that is, the distance from the current location that may be displayed in the captured image.

オブジェクトの配置方法について、図4を参照して具体的に説明する。図4(a)は、交差点PIを地図データ360に基づき、ノードとリンクとで表した図である。図4(a)に示すように、交差点PIは、道路が交差する地点を示すノード「Nd1」と、交差点PIで接続する4つの道路を示すリンク「Lk1」乃至「Lk4」と、を有する。なお、地図データ360は、各リンクLk1乃至Lk4の位置情報、道路形状及び道路幅などの情報を有する。   The object arrangement method will be specifically described with reference to FIG. FIG. 4A is a diagram showing the intersection PI in terms of nodes and links based on the map data 360. As shown in FIG. 4A, the intersection PI has a node “Nd1” indicating a point where the roads intersect and links “Lk1” to “Lk4” indicating four roads connected at the intersection PI. The map data 360 includes information such as position information, road shape, and road width of the links Lk1 to Lk4.

そして、3D画像生成部214は、地図データ360に含まれる各リンクLk1乃至Lk4の情報に基づき、リンクLk1乃至Lk4を3次元で表現した平面状のオブジェクト「PLk1」乃至「PLk4」を、3次元仮想空間上に配置する。また、3D画像生成部214は、ノードNd1を3次元で表現したオブジェクト「PNd1」を、交差するオブジェクトPLk1乃至PLk4が全て重複する部分に配置し、かつ、予め定めた色(「注目エリア色」とも呼ぶ。)に着色する。注目エリア色は、例えば赤である。   Then, the 3D image generation unit 214 three-dimensionally displays planar objects “PLk1” to “PLk4” that represent the links Lk1 to Lk4 in three dimensions based on the information of the links Lk1 to Lk4 included in the map data 360. Place in the virtual space. Further, the 3D image generation unit 214 arranges the object “PNd1” representing the node Nd1 in three dimensions in a portion where all the intersecting objects PLk1 to PLk4 overlap, and sets a predetermined color (“attention area color”). Also called). The attention area color is, for example, red.

図4(b)は、3次元仮想空間上にオブジェクトPLk1乃至PLk4、PNd1を配置後、3次元仮想空間を俯瞰した図を示す。図4(b)に示すように、3D画像生成部214は、走行ルートに該当しないリンクLk1、Lk4のオブジェクトPLk1、PLk4を除外する。そして、オブジェクトPNd1は、注目エリア色に着色され、他のオブジェクトPLk1乃至PLk4は注目エリア色以外の色に着色されている。   FIG. 4B shows a view overlooking the three-dimensional virtual space after arranging the objects PLk1 to PLk4 and PNd1 on the three-dimensional virtual space. As illustrated in FIG. 4B, the 3D image generation unit 214 excludes the objects PLk1 and PLk4 of the links Lk1 and Lk4 that do not correspond to the travel route. The object PNd1 is colored in the attention area color, and the other objects PLk1 to PLk4 are colored in a color other than the attention area color.

次に、3D画像生成部214は、3次元仮想空間上にカメラ5を仮想的に配置する。図5(a)は、3次元仮想空間上にカメラ5を配置した場合の俯瞰図を示す。図5(a)において、線分「Lc1」、「Lc2」は、カメラ5の視野の境界線を示す。この場合、3次元仮想空間上のカメラ5は、車両の自車位置及び向きに合わせて配置され、かつ、実際のカメラ5が有する画角に合わせて視野が設定される。   Next, the 3D image generation unit 214 virtually arranges the camera 5 in the three-dimensional virtual space. FIG. 5A shows an overhead view when the camera 5 is arranged in a three-dimensional virtual space. In FIG. 5A, line segments “Lc1” and “Lc2” indicate boundary lines of the field of view of the camera 5. In this case, the camera 5 in the three-dimensional virtual space is arranged according to the vehicle position and orientation of the vehicle, and the field of view is set according to the angle of view of the actual camera 5.

そして、3D画像生成部214は、3次元仮想空間上でのカメラ5の撮影画像に相当するカメラ視野画像Ivを3次元計算により生成(レンダリング)する。即ち、3D画像生成部214は、矢印「Y2」の方向から、カメラ5の視野に合わせて3次元仮想空間をレンダリングする。図5(b)は、レンダリングされたカメラ視野画像Ivを示す。図5(b)では、3次元仮想空間上でオブジェクトPNd1が注目エリア色に着色されていたことから、オブジェクトPNd1の表示領域が注目エリア色に着色されている。   Then, the 3D image generation unit 214 generates (renders) a camera view image Iv corresponding to a captured image of the camera 5 in the three-dimensional virtual space by three-dimensional calculation. That is, the 3D image generation unit 214 renders a three-dimensional virtual space in accordance with the visual field of the camera 5 from the direction of the arrow “Y2”. FIG. 5B shows the rendered camera view image Iv. In FIG. 5B, since the object PNd1 is colored in the attention area color in the three-dimensional virtual space, the display area of the object PNd1 is colored in the attention area color.

そして、露出エリア決定部215は、3D画像生成部214が生成したカメラ視野画像Ivに注目エリア色の領域があるか否か探索し、注目エリア色に着色されているオブジェクトPNd1の表示領域を注目エリアTrに定める。そして、露出エリア決定部215は、注目エリアTrに基づき露出を調整すべき旨の制御信号S1をカメラ5に送信する。   Then, the exposure area determination unit 215 searches the camera view image Iv generated by the 3D image generation unit 214 for an attention area color area, and pays attention to the display area of the object PNd1 colored in the attention area color. Determined in area Tr. Then, the exposure area determination unit 215 transmits to the camera 5 a control signal S1 indicating that the exposure should be adjusted based on the attention area Tr.

図6(a)は、撮影画像にカメラ視野画像Ivを重畳させた図である。図6(a)に示すように、交差点PIの表示領域が注目エリアTrに重ねられている。従って、この場合、カメラ5は、交差点PIの表示領域を基準として露出を調整する。これにより、ナビゲーション装置1は、交差点PIの表示領域を含む高輝度領域72が白に色飽和になるのを防ぎ、ナビゲーションに必要な領域を的確に表示することができる。   FIG. 6A is a diagram in which the camera view image Iv is superimposed on the captured image. As shown in FIG. 6A, the display area of the intersection PI is overlaid on the attention area Tr. Therefore, in this case, the camera 5 adjusts the exposure with reference to the display area of the intersection PI. Thereby, the navigation apparatus 1 can prevent the high-intensity area 72 including the display area of the intersection PI from being saturated in white, and can accurately display an area necessary for navigation.

また、ナビゲーション装置1は、所定又は不定の周期に基づきカメラ視野画像Ivを再生成し、注目エリアTrを更新する。これについて図6(b)を参照して説明する。   In addition, the navigation device 1 regenerates the camera view image Iv based on a predetermined or indefinite period, and updates the attention area Tr. This will be described with reference to FIG.

図6(b)は、図6(a)の状態から所定距離だけ車両が前進した場合に、再び3D画像生成部214が生成したカメラ視野画像Ivを、撮影画像に重畳させた図である。図6(b)に示すように、図6(a)の場合と比較して、車両が交差点PIに近づいた分、撮影画像での交差点PIの表示領域が大きくなる。一方、これに応じて、3D画像生成部214が生成したカメラ視野画像Ivでも、注目エリアTrの占める領域が大きくなる。   FIG. 6B is a diagram in which the camera field-of-view image Iv generated by the 3D image generation unit 214 is superimposed on the captured image again when the vehicle moves forward by a predetermined distance from the state of FIG. As shown in FIG. 6B, as compared with the case of FIG. 6A, the display area of the intersection PI in the captured image becomes larger as the vehicle approaches the intersection PI. On the other hand, the area occupied by the attention area Tr also increases in the camera view image Iv generated by the 3D image generation unit 214 accordingly.

このように、ナビゲーション装置1は、カメラ視野画像Ivを所定又は不定の周期に基づき再生成し、注目エリアTrを更新することで、車両の走行に応じて注目エリアTrの範囲を適切に変動させることができる。従って、ナビゲーション装置1は、交差点PIの表示領域を含む高輝度領域72が白に色飽和になるのを引き続き抑制し、注目対象を的確に表示することができる。   Thus, the navigation device 1 regenerates the camera view image Iv based on a predetermined or indefinite period, and updates the attention area Tr, thereby appropriately changing the range of the attention area Tr according to the traveling of the vehicle. be able to. Therefore, the navigation apparatus 1 can continue to suppress the high-intensity area 72 including the display area of the intersection PI from being saturated with white and display the target object accurately.

次に、目的地を注目対象とした場合に、当該目的地の表示領域を注目エリアTrに定める方法について説明する。この場合、3D画像生成部214は、道路に加え、目的地を3次元仮想空間にオブジェクトを配置する対象とし、かつ、目的地のオブジェクトを注目エリア色に着色させる。   Next, a method for determining the display area of the destination as the attention area Tr when the destination is the attention target will be described. In this case, in addition to the road, the 3D image generation unit 214 sets the destination as a target for placing the object in the three-dimensional virtual space, and colors the destination object in the attention area color.

図7(a)は、目的地の表示領域を注目エリアTrに設定した場合のカメラ視野画像Ivの一例を示す。この場合、3D画像生成部214は、地図データ360に基づき、3D次元仮想空間上に、道路に加え、目的地のオブジェクトを注目エリア色に着色して平面状又は立体状(ここでは平面状)に配置し、カメラ視野画像Ivを生成している。そして、露出エリア決定部215は、カメラ視野画像Ivから目的地の表示領域を注目エリアTrに設定し、注目エリアTrを基準として露出を調整すべき旨の制御信号S1をカメラ5に送信する。これにより、ナビゲーション装置1は、撮影画像中で目的地を明確に表示させることができる。   FIG. 7A shows an example of the camera view image Iv when the destination display area is set to the attention area Tr. In this case, based on the map data 360, the 3D image generation unit 214 adds a destination object color to the attention area color in the 3D virtual space, in a planar or three-dimensional shape (here, planar). The camera view field image Iv is generated. Then, the exposure area determination unit 215 sets the display area of the destination as the attention area Tr from the camera view image Iv, and transmits a control signal S1 indicating that the exposure should be adjusted with the attention area Tr as a reference. Thereby, the navigation apparatus 1 can display a destination clearly in a picked-up image.

また、3D画像生成部214は、交差点又は/及び目的地に加え、又はこれに代えて、立寄地、案内地点、及び目印施設が注目対象に定められていた場合であっても、これらのオブジェクトを3次元仮想空間に配置し、かつ、当該オブジェクトを注目エリア色に着色する。   Further, the 3D image generation unit 214 may add these objects in addition to or instead of the intersection or / and the destination even if the stopover, the guide point, and the landmark facility are set as the target of attention. Are arranged in the three-dimensional virtual space, and the object is colored to the attention area color.

次に、複数の注目対象の表示領域がカメラ視野画像Ivに存在した場合の処理方法について2つの例を挙げて説明する。   Next, two examples of the processing method when a plurality of target display areas exist in the camera view image Iv will be described.

第1の例では、露出エリア決定部215は、カメラ視野画像Ivに表示された全ての注目エリアTrを基準としてカメラ5に露出を調整させる。この場合、3D画像生成部214は、3次元仮想空間中にオブジェクトを配置する場合、注目対象に対応するオブジェクトを単一の注目エリア色により着色する。そして、露出エリア決定部215は、生成されたカメラ視野画像Ivから当該注目エリア色を有する画素の集合を注目エリアTrに定め、当該注目エリアTrに基づきカメラ5に露出を調整させる。   In the first example, the exposure area determination unit 215 causes the camera 5 to adjust the exposure based on all the attention areas Tr displayed in the camera view image Iv. In this case, when arranging the object in the three-dimensional virtual space, the 3D image generation unit 214 colors the object corresponding to the target of attention with a single target area color. Then, the exposure area determination unit 215 determines a set of pixels having the attention area color from the generated camera view image Iv as the attention area Tr, and causes the camera 5 to adjust the exposure based on the attention area Tr.

第2の例では、露出エリア決定部215は、各注目対象の優先度(優先順位)に基づき、最も優先度が高い注目対象の表示領域を注目エリアTrに定める。ここで、優先度は、注目対象の種類ごとに予め定められていてもよく、又は、走行状態に応じて動的に定められてもよい。ここで、前者の場合と後者の場合とでそれぞれ具体的に説明する。   In the second example, the exposure area determination unit 215 determines the attention area display area with the highest priority as the attention area Tr based on the priority (priority order) of each attention object. Here, the priority may be determined in advance for each type of target of interest, or may be determined dynamically according to the running state. Here, the former case and the latter case will be specifically described.

前者の場合では、3D画像生成部214は、予め定められた各種の注目対象の優先度に基づき、各注目対象のオブジェクトを、注目対象の種類ごとに異なる注目エリア色で着色する。そして、露出エリア決定部215は、カメラ視野画像Ivに複数種類の注目エリア色が存在する場合には、最も優先度が高い注目対象に対応する注目エリア色の領域を注目エリアTrに定める。例えば、目的地と交差点とが注目対象に設定され、目的地が交差点より優先度が高く設定された場合、3D画像生成部214は、注目エリア色を目的地と交差点とで2色に使い分ける。そして、露出エリア決定部215は、カメラ視野画像Ivから2色の注目エリア色を検出した場合には、目的地に対応する注目エリア色を有する領域を注目エリアTrに設定し、当該注目エリアTrを基準としてカメラ5に露出を調整させる。   In the former case, the 3D image generation unit 214 colors each attention target object with a different attention area color for each type of attention target based on predetermined priorities of various attention targets. Then, when there are a plurality of types of attention area colors in the camera view image Iv, the exposure area determination unit 215 determines the attention area color area corresponding to the attention object with the highest priority as the attention area Tr. For example, when the destination and the intersection are set as the target of attention, and the destination is set with a higher priority than the intersection, the 3D image generation unit 214 uses the target area color for the destination and the intersection. Then, when the two attention area colors are detected from the camera view image Iv, the exposure area determination unit 215 sets a region having the attention area color corresponding to the destination as the attention area Tr, and the attention area Tr The exposure is adjusted by the camera 5 with reference to.

後者の場合では、露出エリア決定部215は、例えば、自車位置と各注目対象までの距離が短いほど、優先順位を高く設定する。具体的には、3D画像生成部214は、自車位置から最も近い注目対象を、最も優先度が高いと判断し、当該注目対象のオブジェクトのみを注目エリア色で着色する。そして、露出エリア決定部215は、カメラ視野画像Ivのうち注目エリア色を有する画素を注目エリアTrに定める。これにより、ナビゲーション装置1は、運転上最も重要な注目対象の表示領域を注目エリアTrに定め、これを明確に表示させることができる。   In the latter case, for example, the exposure area determination unit 215 sets a higher priority as the distance from the vehicle position to each target of interest is shorter. Specifically, the 3D image generation unit 214 determines that the target of interest closest to the vehicle position has the highest priority, and colors only the target target object with the target area color. Then, the exposure area determination unit 215 determines a pixel having the attention area color in the camera view image Iv as the attention area Tr. Thereby, the navigation apparatus 1 can set the display area of the attention object most important in driving | operation to the attention area Tr, and can display this clearly.

次に、カメラ視野画像Iv中に注目エリアTrがない場合の処理について補足説明する。この場合、ナビゲーション装置1は、カメラ5の撮影範囲全体に基づき、カメラ5に露出を調整させる。   Next, a supplementary description will be given of processing in the case where there is no attention area Tr in the camera view image Iv. In this case, the navigation device 1 causes the camera 5 to adjust the exposure based on the entire shooting range of the camera 5.

図7(b)は、3次元仮想空間上に、道路に対応する各オブジェクト「PLk10」乃至「PLk15」及び交差点に対応するオブジェクト「PNd10」並びにカメラ5を配置した場合に、当該3次元仮想空間を俯瞰した図である。図7(b)に示すように、この場合、カメラ5の視野内に注目エリア色で着色されたオブジェクトが存在しない。従って、3D画像生成部214がカメラ視野画像Ivを生成した場合、露出エリア決定部215は、カメラ視野画像Ivから注目エリア色を有する画素を検知することができない。この場合には、露出エリア決定部215は、特定のエリアに限定せずに撮影画像全体に基づき露出を調整させるようにカメラ5を制御する。   FIG. 7B shows the three-dimensional virtual space when the objects “PLk10” to “PLk15” corresponding to the road, the object “PNd10” corresponding to the intersection, and the camera 5 are arranged on the three-dimensional virtual space. FIG. As shown in FIG. 7B, in this case, there is no object colored with the attention area color in the field of view of the camera 5. Therefore, when the 3D image generation unit 214 generates the camera view image Iv, the exposure area determination unit 215 cannot detect the pixel having the attention area color from the camera view image Iv. In this case, the exposure area determination unit 215 controls the camera 5 to adjust the exposure based on the entire captured image without being limited to a specific area.

[処理フロー]
次に、本実施例でシステムコントローラ20が実行する処理手順について図8を用いて説明する。図8は、本実施例でシステムコントローラ20が実行する処理手順を示すフローチャートの一例である。システムコントローラ20は、図8に示すフローチャートの処理を、所定の周期に従い繰り返し実行する。
[Processing flow]
Next, a processing procedure executed by the system controller 20 in this embodiment will be described with reference to FIG. FIG. 8 is an example of a flowchart showing a processing procedure executed by the system controller 20 in this embodiment. The system controller 20 repeatedly executes the processing of the flowchart shown in FIG. 8 according to a predetermined cycle.

まず、自車位置認識部213は、自車位置の測位を行う(ステップS101)。具体的には、自車位置認識部213は、GPS受信機18や自立測位装置10の検出信号に基づき、自車位置を特定する。   First, the host vehicle position recognition unit 213 performs positioning of the host vehicle position (step S101). Specifically, the vehicle position recognition unit 213 identifies the vehicle position based on detection signals from the GPS receiver 18 and the autonomous positioning device 10.

次に、3D画像生成部214は、3次元仮想空間上に、道路等のオブジェクトを配置すると共に、注目対象のオブジェクトを注目エリア色により色付けする(ステップS102)。具体的には、3D画像生成部214は、自車位置から所定距離以内に存在する走行予定の道、交差点、目的地、及び目印施設等に対応するオブジェクトを、地図データ360に基づき生成して3次元仮想空間上に配置し、注目対象のオブジェクトには注目エリア色を色付けする。   Next, the 3D image generation unit 214 arranges an object such as a road in the three-dimensional virtual space, and colors the object of interest with the attention area color (step S102). Specifically, the 3D image generation unit 214 generates objects corresponding to roads, intersections, destinations, landmark facilities, and the like that are within a predetermined distance from the vehicle position based on the map data 360. Arranged in the three-dimensional virtual space, the attention area color is colored to the object of attention.

次に、3D画像生成部214は、カメラ視野画像Ivを生成する(ステップS103)。具体的には、3D画像生成部214は、測位した自車位置及びカメラ5の向き、画角等の情報に基づき、3次元仮想空間からカメラ視野画像Ivを生成する。   Next, the 3D image generation unit 214 generates a camera view image Iv (step S103). Specifically, the 3D image generation unit 214 generates a camera view image Iv from the three-dimensional virtual space based on information such as the measured vehicle position, the orientation of the camera 5, and the angle of view.

そして、露出エリア決定部215は、カメラ視野画像Ivに注目エリアTrがあるか否か判定する(ステップS104)。具体的には、露出エリア決定部215は、カメラ視野画像Ivに注目エリア色を有する画素が存在するか否か判定する。   Then, the exposure area determination unit 215 determines whether or not there is an attention area Tr in the camera view image Iv (step S104). Specifically, the exposure area determination unit 215 determines whether or not a pixel having the attention area color exists in the camera visual field image Iv.

そして、露出エリア決定部215は、カメラ視野画像Ivに注目エリアTrがあると判断した場合(ステップS104;Yes)、注目エリアTrに基づきカメラ5の露出を調整する(ステップS105)。これにより、ナビゲーション装置1は、撮影画像を用いた案内表示を行う場合に、運転上重要な部分である注目対象の表示領域が色飽和により見えにくくなるのを防ぐことができる。   Then, when the exposure area determination unit 215 determines that there is an attention area Tr in the camera view image Iv (step S104; Yes), the exposure area determination unit 215 adjusts the exposure of the camera 5 based on the attention area Tr (step S105). Thereby, the navigation apparatus 1 can prevent the display area of the attention object, which is an important part in driving, from being difficult to see due to color saturation when performing guidance display using a captured image.

一方、露出エリア決定部215は、カメラ視野画像Ivに注目エリアTrがないと判断した場合(ステップS104;No)、全エリアに基づきカメラ5の露出を調整する(ステップS106)。   On the other hand, when the exposure area determination unit 215 determines that there is no attention area Tr in the camera view image Iv (step S104; No), the exposure area determination unit 215 adjusts the exposure of the camera 5 based on the entire area (step S106).

[変形例]
以下、本実施例の各変形例について説明する。なお、これらの各変形例は、任意に組み合わせて上述の実施例に適用することが可能である。
[Modification]
Hereafter, each modification of a present Example is demonstrated. Each of these modified examples can be applied to the above-described embodiments in any combination.

(変形例1)
システムコントローラ20は、3次元仮想空間上に道路等のオブジェクトを配置し、自車位置に基づきカメラ視野画像Ivをリアルタイムで生成することで、撮影画像における注目エリアTrの範囲を特定した。しかし、本発明が適用可能な構成は、これに限定されず、これに代えて、システムコントローラ20は、自車位置から注目対象までの距離に基づき注目エリアTrの範囲を一意に定めてもよい。
(Modification 1)
The system controller 20 places an object such as a road in the three-dimensional virtual space, and generates the camera view image Iv in real time based on the vehicle position, thereby specifying the range of the attention area Tr in the captured image. However, the configuration to which the present invention is applicable is not limited to this. Instead, the system controller 20 may uniquely determine the range of the attention area Tr based on the distance from the vehicle position to the attention target. .

例えば、システムコントローラ20は、自車位置から注目対象までの距離と、これに対応する撮影画像中での注目エリアTrの範囲とのマップを実験等に基づき作成し、ROM23等のメモリに予め記憶しておく。そして、システムコントローラ20は、車両の走行中では、走行ルート中に存在する注目対象と自車位置との距離を算出し、当該距離に基づき上述のマップを参照して注目エリアTrの範囲を定める。例えば、システムコントローラ20は、自車位置から注目対象である交差点までの距離が100mの場合には、図6(a)に示す注目エリアTrの範囲を用い、当該距離が50mの場合には、図6(b)に示す注目エリアTrの範囲を用いる。   For example, the system controller 20 creates a map of the distance from the vehicle position to the target of interest and the range of the target area Tr in the captured image corresponding to the distance based on the experiment, and stores it in a memory such as the ROM 23 in advance. Keep it. Then, the system controller 20 calculates the distance between the target object existing in the travel route and the vehicle position while the vehicle is traveling, and determines the range of the attention area Tr with reference to the above-described map based on the distance. . For example, the system controller 20 uses the range of the attention area Tr shown in FIG. 6A when the distance from the vehicle position to the intersection of interest is 100 m, and when the distance is 50 m, The range of the attention area Tr shown in FIG. 6B is used.

この場合であっても、好適に、ナビゲーション装置1は、注目エリアTrを定め、注目対象を明確に表示することができる。   Even in this case, the navigation apparatus 1 can preferably define the attention area Tr and clearly display the attention object.

(変形例2)
システムコントローラ20は、カメラ視野画像Ivに注目エリアTrが存在する場合には、当該注目エリアTrに基づき、カメラ5の露出を調整した。しかし、本発明が適用可能な方法は、これに限定されず、カメラ5は、他の特性に基づき撮影画像を調整してもよい。
(Modification 2)
When the attention area Tr exists in the camera view image Iv, the system controller 20 adjusts the exposure of the camera 5 based on the attention area Tr. However, the method to which the present invention is applicable is not limited to this, and the camera 5 may adjust the captured image based on other characteristics.

例えば、露出の調整に加えて、又はこれに代えて、システムコントローラ20は、注目エリアTrがカメラ視野画像Ivに存在した場合には、カメラ5のフォーカスを当該注目エリアTrに標準を合わせるように、カメラ5を制御してもよい。具体的には、この場合、システムコントローラ20は、所謂コントラストAF(Auto Focus)機能により、注目エリアTrの各画素間のコントラストが最大になるように、カメラ5にピント調整レンズの設定を調整させる。   For example, in addition to or instead of adjusting the exposure, when the attention area Tr exists in the camera view image Iv, the system controller 20 adjusts the focus of the camera 5 to the attention area Tr. The camera 5 may be controlled. Specifically, in this case, the system controller 20 causes the camera 5 to adjust the setting of the focus adjustment lens so that the contrast between each pixel of the attention area Tr is maximized by a so-called contrast AF (Auto Focus) function. .

また、他の例では、システムコントローラ20は、注目エリアTrが撮影画像中で所定の大きさを占めるように、カメラ5にズームを実行させてもよい。例えば、システムコントローラ20は、注目エリアTrが所定面積よりも小さい場合には、所定倍率だけ又は注目エリアTrの大きさに応じて、撮影画像中での注目エリアTrが大きくなるようにカメラ5にズームを実行させる。例えば、システムコントローラ20は、光学補正または機械補正等によってカメラ5の焦点距離を調整することでズームを実行する。   In another example, the system controller 20 may cause the camera 5 to perform zooming so that the attention area Tr occupies a predetermined size in the captured image. For example, when the attention area Tr is smaller than a predetermined area, the system controller 20 sets the attention area Tr in the captured image so that the attention area Tr in the captured image becomes larger according to a predetermined magnification or the size of the attention area Tr. Perform zooming. For example, the system controller 20 performs zooming by adjusting the focal length of the camera 5 by optical correction or mechanical correction.

(変形例3)
図4(b)の説明では、システムコントローラ20は、3次元仮想空間上にオブジェクトLk1乃至Lk4を配置した後、走行ルートに含まれない道路に対応するオブジェクトLk1、Lk4を除外した。これに代えて、システムコントローラ20は、3次元仮想空間上に道路のオブジェクトを配置する場合に、走行ルートに対応する道路のオブジェクトのみを配置し、走行ルートに含まれない道路に対応するオブジェクトLk1、Lk4の生成及び配置をしなくてもよい。
(Modification 3)
In the description of FIG. 4B, the system controller 20 arranges the objects Lk1 to Lk4 in the three-dimensional virtual space, and then excludes the objects Lk1 and Lk4 corresponding to roads not included in the travel route. Instead, when the system controller 20 arranges a road object in the three-dimensional virtual space, the system controller 20 arranges only the road object corresponding to the travel route, and the object Lk1 corresponding to the road not included in the travel route. , Lk4 may not be generated and arranged.

(変形例4)
ナビゲーション装置1は、撮影画像を、動画や静止画としてデータ記憶ユニット36に保存してもよい。この場合、ナビゲーション装置1は、ドライブレコーダーとしても機能する。
(Modification 4)
The navigation device 1 may store the captured image in the data storage unit 36 as a moving image or a still image. In this case, the navigation device 1 also functions as a drive recorder.

(変形例5)
上述の説明では、システムコントローラ20は、ルート案内中に注目エリアTrを特定してカメラ5の調整を行った。しかし、本発明が適用可能な方法は、これに限定されず、システムコントローラ20は、ルート案内中ではない場合であっても、注目エリアTrを特定してカメラ5の調整を行ってもよい。
(Modification 5)
In the above description, the system controller 20 adjusts the camera 5 by specifying the attention area Tr during route guidance. However, the method to which the present invention is applicable is not limited to this, and the system controller 20 may adjust the camera 5 by specifying the attention area Tr even when route guidance is not being performed.

この場合、ナビゲーション装置1は、交差点又は/及び目印施設を注目対象に定める。そして、3D画像生成部214は、例えば、3次元仮想空間上に自車位置から所定距離以内にある道路等のオブジェクトを生成して配置すると共に、交差点又は/及び目印施設に対応するオブジェクトには注目エリア色を着色し、カメラ視野画像Ivを生成する。そして、露出エリア決定部215は、カメラ視野画像Ivの各画素の画素値に基づき注目エリアTrを特定し、注目エリアTrを基準にカメラ5に露出の調整を実行させる。   In this case, the navigation apparatus 1 determines an intersection or / and a landmark facility as a target of attention. For example, the 3D image generation unit 214 generates and arranges an object such as a road within a predetermined distance from the vehicle position in the three-dimensional virtual space, and includes objects corresponding to intersections and / or landmark facilities. The attention area color is colored, and the camera view image Iv is generated. Then, the exposure area determination unit 215 specifies the attention area Tr based on the pixel value of each pixel of the camera view image Iv, and causes the camera 5 to perform exposure adjustment based on the attention area Tr.

このように、ナビゲーション装置1は、ルート案内を伴わない場合であっても、撮影画像を表示する際、運転上重要な注目対象を明確に表示し、利便性を向上させることができる。なお、本実施例は、ルート案内機能を備えるナビゲーション装置でなくても、カメラ5が撮像した画像を表示する表示装置において実行することができる。   As described above, even when the navigation apparatus 1 is not accompanied by route guidance, when displaying a captured image, it is possible to clearly display an attention target important for driving and improve convenience. Note that the present embodiment can be executed in a display device that displays an image captured by the camera 5, even if the navigation device is not a route guidance function.

(変形例6)
図2の説明では、システムコントローラ20は、制御信号S1をカメラ5に送信することで、注目エリアTrを基準として露出を調整させた。これに代えて、システムコントローラ20は、注目エリアTrを特定後、これに対応する撮影画像を注目エリアTrが明確になるように補正し、当該補正後の撮影画像を表示ユニット40に表示させてもよい。例えば、システムコントローラ20は、注目エリアTrの輝度が所定の範囲になるように撮影画像の画像処理を行う。他の例では、システムコントローラ20は、変形例2に基づき、注目エリアTrのコントラスト又は大きさが所定の範囲になるように、撮影画像の画像処理を行う。そして、システムコントローラ20は、画像処理後の撮影画像を案内表示に重畳させて、表示ユニット40に表示させる。
(Modification 6)
In the description of FIG. 2, the system controller 20 transmits the control signal S <b> 1 to the camera 5 to adjust the exposure based on the attention area Tr. Instead, after specifying the attention area Tr, the system controller 20 corrects the captured image corresponding to the attention area Tr so that the attention area Tr is clear, and causes the display unit 40 to display the corrected captured image. Also good. For example, the system controller 20 performs image processing on the captured image so that the luminance of the attention area Tr falls within a predetermined range. In another example, based on the second modification, the system controller 20 performs image processing on a captured image so that the contrast or size of the attention area Tr falls within a predetermined range. Then, the system controller 20 causes the display unit 40 to display the captured image after image processing on the guidance display.

この態様によっても、システムコントローラ20は、好適に、注目対象をユーザに明確に視認させることができる。   Also according to this aspect, the system controller 20 can appropriately make the user visually recognize the target of attention.

(変形例7)
注目対象は、交差点、目印施設、目的地又は立寄地に限らず、これに加え、又はこれに代えて、目的地又は立寄地までの走行ルートに対応する道路であってもよい。この場合であっても、ナビゲーション装置1は、撮影画像に基づきナビゲーションを行う場合に、車両が走行する道路を明確に表示することができ、運転者の利便性を向上させることができる。
(Modification 7)
The target of attention is not limited to an intersection, a landmark facility, a destination, or a stopover, but may be a road corresponding to a travel route to the destination or stopover in addition to or instead of this. Even in this case, the navigation device 1 can clearly display the road on which the vehicle travels when performing navigation based on the captured image, and can improve the convenience of the driver.

本発明は、車載用ナビゲーション装置、PND(Personal Navigation Device)、その他カメラから取得した画像を調整する装置に好適に適用することができる。   The present invention can be suitably applied to an in-vehicle navigation device, a PND (Personal Navigation Device), and other devices that adjust an image acquired from a camera.

1 ナビゲーション装置
10 自立測位装置
12 GPS受信機
20 システムコントローラ
22 CPU
36 データ記憶ユニット
38 通信装置
40 表示ユニット
44 ディスプレイ
DESCRIPTION OF SYMBOLS 1 Navigation apparatus 10 Self-supporting positioning apparatus 12 GPS receiver 20 System controller 22 CPU
36 Data storage unit 38 Communication device 40 Display unit 44 Display

請求項1に記載の発明は、画像調整装置であって、移動体に搭載された撮像手段から画像を取得する取得手段と、前記画像を表示手段に表示する表示制御手段と、前記移動体の位置を測位する測位手段と、地図情報と、前記移動体の位置とに基づき、前記画像のうち、運転上注目すべき対象が表示された注目エリアを抽出する抽出手段と、前記注目エリアに基づき、前記画像の輝度又は/及びコントラストの特性が所定範囲になるように調整する調整手段と、を備えることを特徴とする。
The invention according to claim 1 is an image adjustment apparatus, wherein an acquisition unit that acquires an image from an imaging unit mounted on a moving body, a display control unit that displays the image on a display unit, Based on the positioning means for positioning the position, the map information, and the position of the moving body, the extracting means for extracting the attention area in which the target to be noticed in driving is displayed from the image, and the attention area. And adjusting means for adjusting the luminance or / and contrast characteristics of the image to fall within a predetermined range.

請求項10に記載の発明は、画像調整装置により実行される制御方法であって、移動体に搭載された撮像手段から画像を取得する取得工程と、前記画像を表示手段に表示する表示制御工程と、前記移動体の位置を測位する測位工程と、地図情報と、前記移動体の位置とに基づき、前記画像のうち、運転上注目すべき対象が表示された注目エリアを抽出する抽出工程と、前記注目エリアに基づき、前記画像の輝度又は/及びコントラストの特性が所定範囲になるように調整する調整工程と、を備えることを特徴とする。
The invention according to claim 10 is a control method executed by the image adjustment apparatus, wherein an acquisition step of acquiring an image from an imaging unit mounted on a moving body, and a display control step of displaying the image on a display unit And a positioning step for positioning the position of the moving body, an extraction step for extracting an attention area in which an object to be noted in driving is displayed from the image based on the map information and the position of the moving body; And an adjustment step of adjusting the luminance or / and contrast characteristics of the image to be within a predetermined range based on the attention area.

請求項11に記載の発明は、画像調整装置により実行されるプログラムであって、移動体に搭載された撮像手段から画像を取得する取得手段、前記画像を表示手段に表示する表示制御手段、前記移動体の位置を測位する測位手段、地図情報と、前記移動体の位置とに基づき、前記画像のうち、運転上注目すべき対象が表示された注目エリアを抽出する抽出手段、前記注目エリアに基づき、前記画像の輝度又は/及びコントラストの特性が所定範囲になるように調整する調整手段として前記画像調整装置を機能させることを特徴とする。 The invention according to claim 11 is a program executed by the image adjustment apparatus, the acquisition unit acquiring an image from the imaging unit mounted on the moving body, the display control unit displaying the image on the display unit, Positioning means for positioning the position of the moving object, map information, and extraction means for extracting an attention area in which an object to be noted in driving is displayed from the image, and the attention area On the basis of this, the image adjustment device is made to function as an adjustment means for adjusting the luminance or / and contrast characteristics of the image to be within a predetermined range.

Claims (12)

移動体に搭載された撮像手段から画像を取得する取得手段と、
前記画像を表示手段に表示する表示制御手段と、
前記移動体の位置を測位する測位手段と、
地図情報と、前記移動体の位置とに基づき、前記画像のうち、運転上注目すべき対象が表示された注目エリアを抽出する抽出手段と、
前記注目エリアに基づき、前記画像の特性が所定範囲になるように調整する調整手段と、
を備えることを特徴とする画像調整装置。
Obtaining means for obtaining an image from an imaging means mounted on a moving body;
Display control means for displaying the image on a display means;
Positioning means for positioning the position of the moving body;
Based on the map information and the position of the moving body, an extracting means for extracting an attention area in which an object to be noted in driving is displayed from the image;
Adjusting means for adjusting the characteristics of the image to be within a predetermined range based on the attention area;
An image adjustment apparatus comprising:
前記注目すべき対象は、交差点又は/及び施設であることを特徴とする請求項1に記載の画像調整装置。   The image adjustment apparatus according to claim 1, wherein the notable object is an intersection or / and a facility. 前記移動体を目的地まで案内する案内手段をさらに備え、
前記注目すべき対象は、交差点、施設、案内地点、目的地又は立寄地、目的地又は立寄地までのルートに対応する道路のいずれかまたはこれらの組み合わせであることを特徴とする請求項1に記載の画像調整装置。
Further comprising guide means for guiding the mobile body to a destination;
The object to be noted is an intersection, a facility, a guide point, a destination or a stop-off place, any of roads corresponding to a route to the destination or a stop-off place, or a combination thereof. The image adjustment apparatus described.
前記注目すべき対象の種類が複数存在する場合、当該種類ごとに優先度が設定され、
前記抽出手段は、前記優先度の高い前記注目すべき対象が表示された注目エリアを抽出することを特徴とする請求項1乃至3のいずれか一項に記載の画像調整装置。
When there are a plurality of types of the target to be noted, a priority is set for each type,
4. The image adjustment apparatus according to claim 1, wherein the extraction unit extracts an attention area in which the attention target with a high priority is displayed. 5.
前記優先度は、前記移動体の位置から前記注目すべき対象までの距離が短いほど、高く設定されることを特徴とする請求項4に記載の画像調整装置。   The image adjustment apparatus according to claim 4, wherein the priority is set higher as the distance from the position of the moving body to the target of interest is shorter. 前記調整手段は、前記注目エリアに基づき、前記画像の特性が所定範囲になるように前記カメラに制御信号を送信することを特徴とする請求項1乃至5のいずれか一項に記載の画像調整装置。   6. The image adjustment according to claim 1, wherein the adjustment unit transmits a control signal to the camera based on the attention area so that a characteristic of the image falls within a predetermined range. apparatus. 前記調整手段は、前記注目エリアに基づき、前記カメラの露出又はフォーカス若しくはズームを調整することを特徴とする請求項6に記載の画像調整装置。   The image adjusting apparatus according to claim 6, wherein the adjusting unit adjusts exposure, focus, or zoom of the camera based on the attention area. 前記調整手段は、前記注目エリアに基づき、前記画像の特性が所定範囲になるように、前記画像の画像処理を行い、
前記表示制御手段は、前記画像処理がなされた画像を表示手段に表示することを特徴とする請求項1乃至5のいずれか一項に記載の画像調整装置。
The adjusting means performs image processing of the image based on the attention area so that the characteristic of the image falls within a predetermined range,
The image adjustment apparatus according to claim 1, wherein the display control unit displays the image subjected to the image processing on a display unit.
前記撮影手段は、前記移動体の前方方向を撮影し、
前記表示制御手段は、前記撮影手段が撮影した画像に案内表示を重ねて前記表示手段に表示することを特徴とする請求項1乃至8のいずれか一項に記載の端末保持装置。
The photographing means photographs the forward direction of the moving body,
The terminal holding device according to claim 1, wherein the display control unit displays a guidance display on the image captured by the image capturing unit so as to overlap the image.
画像調整装置により実行される制御方法であって、
移動体に搭載された撮像手段から画像を取得する取得工程と、
前記画像を表示手段に表示する表示制御工程と、
前記移動体の位置を測位する測位工程と、
地図情報と、前記移動体の位置とに基づき、前記画像のうち、運転上注目すべき対象が表示された注目エリアを抽出する抽出工程と、
前記注目エリアに基づき、前記画像の特性が所定範囲になるように調整する調整工程と、
を備えることを特徴とする制御方法。
A control method executed by the image adjustment apparatus,
An acquisition step of acquiring an image from the imaging means mounted on the moving body;
A display control step of displaying the image on a display means;
A positioning step of positioning the position of the moving body;
Based on the map information and the position of the moving body, an extraction step of extracting an attention area in which an object to be noted in driving is displayed among the images;
An adjustment step for adjusting the characteristics of the image to be within a predetermined range based on the attention area;
A control method comprising:
画像調整装置により実行されるプログラムであって、
移動体に搭載された撮像手段から画像を取得する取得手段、
前記画像を表示手段に表示する表示制御手段、
前記移動体の位置を測位する測位手段、
地図情報と、前記移動体の位置とに基づき、前記画像のうち、運転上注目すべき対象が表示された注目エリアを抽出する抽出手段、
前記注目エリアに基づき、前記画像の特性が所定範囲になるように調整する調整手段
として前記画像調整装置を機能させることを特徴とするプログラム。
A program executed by the image adjustment device,
Obtaining means for obtaining an image from an imaging means mounted on a moving body;
Display control means for displaying the image on a display means;
Positioning means for positioning the position of the moving body;
Extraction means for extracting an attention area in which an object to be noted in driving is displayed from the image based on map information and the position of the moving body;
A program that causes the image adjustment apparatus to function as an adjustment unit that adjusts the characteristics of the image to be within a predetermined range based on the area of interest.
請求項11に記載のプログラムを記憶したことを特徴とする記憶媒体。   A storage medium storing the program according to claim 11.
JP2012549544A 2010-12-24 2010-12-24 Image adjustment apparatus, control method, program, and storage medium Active JP5517176B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/073325 WO2012086053A1 (en) 2010-12-24 2010-12-24 Image adjustment device, control method, program, and storage medium

Publications (2)

Publication Number Publication Date
JPWO2012086053A1 true JPWO2012086053A1 (en) 2014-05-22
JP5517176B2 JP5517176B2 (en) 2014-06-11

Family

ID=46313353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012549544A Active JP5517176B2 (en) 2010-12-24 2010-12-24 Image adjustment apparatus, control method, program, and storage medium

Country Status (2)

Country Link
JP (1) JP5517176B2 (en)
WO (1) WO2012086053A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6699567B2 (en) * 2017-01-17 2020-05-27 トヨタ自動車株式会社 Imaging device
WO2024009381A1 (en) * 2022-07-05 2024-01-11 株式会社Subaru Simulation system for evaluation regarding control including headlight control of vehicle
WO2024009380A1 (en) * 2022-07-05 2024-01-11 株式会社Subaru Simulation system for evaluation regarding control including vehicle headlight control
WO2024009379A1 (en) * 2022-07-05 2024-01-11 株式会社Subaru Simulation system for evaluating control including vehicle headlight control

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09171348A (en) * 1995-12-19 1997-06-30 Honda Motor Co Ltd On-vehicle navigation device
JP2007094045A (en) * 2005-09-29 2007-04-12 Matsushita Electric Ind Co Ltd Navigation apparatus, navigation method and vehicle
JP2008145364A (en) * 2006-12-13 2008-06-26 Nissan Motor Co Ltd Route guiding device
JP2009163504A (en) * 2008-01-07 2009-07-23 Panasonic Corp Image deformation method and the like
JP2010185761A (en) * 2009-02-12 2010-08-26 Toyota Motor Corp Navigation system, road map display method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09171348A (en) * 1995-12-19 1997-06-30 Honda Motor Co Ltd On-vehicle navigation device
JP2007094045A (en) * 2005-09-29 2007-04-12 Matsushita Electric Ind Co Ltd Navigation apparatus, navigation method and vehicle
JP2008145364A (en) * 2006-12-13 2008-06-26 Nissan Motor Co Ltd Route guiding device
JP2009163504A (en) * 2008-01-07 2009-07-23 Panasonic Corp Image deformation method and the like
JP2010185761A (en) * 2009-02-12 2010-08-26 Toyota Motor Corp Navigation system, road map display method

Also Published As

Publication number Publication date
WO2012086053A1 (en) 2012-06-28
JP5517176B2 (en) 2014-06-11

Similar Documents

Publication Publication Date Title
JP4380550B2 (en) In-vehicle imaging device
JP4550927B2 (en) Navigation device
JP5798392B2 (en) Parking assistance device
JP2009250827A (en) Navigation device, method, and program
JP6106495B2 (en) Detection device, control method, program, and storage medium
JP5735658B2 (en) Display device and display method
JP2015172548A (en) Display control device, control method, program, and recording medium
JP2015128956A (en) Head-up display, control method, program and storage medium
JP5517176B2 (en) Image adjustment apparatus, control method, program, and storage medium
JP2005214857A (en) Navigation system, and guide image preparation method
JP2009162722A (en) Guidance device, guidance technique, and guidance program
JP2015105903A (en) Navigation device, head-up display, control method, program, and storage medium
JP2015141155A (en) virtual image display device, control method, program, and storage medium
JP2008293280A (en) Traffic light detection device, traffic light detection method, and program
JP5702476B2 (en) Display device, control method, program, storage medium
JP5067847B2 (en) Lane recognition device and navigation device
JP2011053024A (en) Elevated-road identifying device, method of identifying elevated road, and elevated-road identification program
WO2011121788A1 (en) Navigation device, information display device, navigation method, navigation program, and recording medium
JP4917191B1 (en) Image control apparatus and image control method
JP2009264835A (en) Navigation device, navigation method and navigation program
JP2009009225A (en) Information display device
JP2007318242A (en) Photographing apparatus, photographing method, and photographing program
JP5438172B2 (en) Information display device, information display method, information display program, and recording medium
JP2009248952A (en) Display device of photographic information, display method thereof, and display program thereof
JP2018158725A (en) Head-up display, control method, program and storage medium

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140325

R150 Certificate of patent or registration of utility model

Ref document number: 5517176

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150