JP7275294B2 - MAP DISPLAY CONTROL DEVICE AND MAP DISPLAY CONTROL METHOD - Google Patents
MAP DISPLAY CONTROL DEVICE AND MAP DISPLAY CONTROL METHOD Download PDFInfo
- Publication number
- JP7275294B2 JP7275294B2 JP2021550968A JP2021550968A JP7275294B2 JP 7275294 B2 JP7275294 B2 JP 7275294B2 JP 2021550968 A JP2021550968 A JP 2021550968A JP 2021550968 A JP2021550968 A JP 2021550968A JP 7275294 B2 JP7275294 B2 JP 7275294B2
- Authority
- JP
- Japan
- Prior art keywords
- specific feature
- map
- section
- display control
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Arrangement of adaptations of instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Description
本発明は、表示装置に地図を表示する地図表示制御装置に関するものである。 The present invention relates to a map display control device for displaying a map on a display device.
表示装置の画面に地図を表示する地図表示装置は、例えばナビゲーション装置や、地図表示アプリケーションを有するスマートフォンなどに広く適用されている。また近年では、地図表示装置の高性能化ならびに地図データの高精度化を背景として、3次元モデルの地図データを用いて、3次元的な地図表示が可能な地図表示装置も普及している。 Map display devices that display a map on the screen of the display device are widely applied to, for example, navigation devices and smartphones having map display applications. Further, in recent years, against the background of higher performance of map display devices and higher accuracy of map data, map display devices capable of displaying a three-dimensional map using map data of a three-dimensional model have become popular.
また、下記の特許文献1には、車両の位置を基準にして特定の地物(ランドマーク等)の方向を示すことが可能な車両用表示装置が開示されている。 In addition, Patent Document 1 below discloses a vehicle display device capable of indicating the direction of a specific feature (landmark, etc.) based on the position of the vehicle.
地図表示装置のユーザは、興味のある特定の地物(以下「特定地物」という)を指定することで、その特定地物の周辺の地図を表示装置の画面に表示させることができ、それによって、自己の現在位置と特定地物との位置関係を認識できる。しかし、ユーザが辺りを見渡して特定地物を探しても、周囲の地形や建物の位置などによっては、特定地物が見えるとは限らない。特定地物が見えない場所で、特定地物を探すのは無駄な労力である。特に、ユーザが車両の運転者である場合、無駄に特定地物を探すことは運転負荷を上げることになる。 A user of the map display device can specify a specific feature of interest (hereinafter referred to as "specific feature") to display a map around the specific feature on the screen of the display device. , it is possible to recognize the positional relationship between the current position of itself and the specific feature. However, even if the user looks around and looks for a specific feature, the specific feature may not always be visible depending on the surrounding terrain and the positions of buildings. Searching for a specific feature in a place where the specific feature cannot be seen is a waste of effort. In particular, when the user is a driver of a vehicle, searching for specific features unnecessarily increases the driving load.
本発明は以上のような課題を解決するためになされたものであり、特定地物を視認可能な場所をユーザに示すことが可能な地図表示制御装置を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a map display control device capable of showing a user a place where a specific feature can be visually recognized.
本発明に係る地図表示制御装置は、ユーザにより指定された特定地物を記憶する特定地物記憶部と、特定地物の情報を含む地図データを取得する地図データ取得部と、地図データに基づいて、地図データに含まれる道路を、特定地物を視認可能な区間である特定地物可視区間と、特定地物を視認不可能な区間である特定地物不可視区間とに分類する区間分類処理を行う区間分類部と、地図データおよび区間分類処理の結果に基づいて、道路の特定地物可視区間と特定地物不可視区間とを互いに異なる表示態様で示した地図を表示装置に表示する表示制御部と、を備え、区間分類部は、道路上の各地点におけるユーザの視野範囲を考慮して、区間分類処理を行う。
A map display control apparatus according to the present invention includes a specific feature storage unit that stores specific features designated by a user, a map data acquisition unit that acquires map data including information on the specific features, and a section classification processing for classifying roads included in map data into specific feature visible sections, which are sections in which specific features are visible, and specific feature invisible sections, which are sections in which specific features are not visible. and display control for displaying on a display device a map showing specific feature visible sections and specific feature invisible sections of the road in different display modes based on the map data and the results of the section classification processing. The section classification section performs section classification processing in consideration of the user's visual field range at each point on the road .
本発明に係る地図表示制御装置によれば、ユーザは特定地物を視認可能な場所を前もって知ることができる。よって、ユーザが特定地物の見えない場所で無駄に特定地物を探すことが防止される。 According to the map display control device of the present invention, the user can know in advance the places where the specific feature can be visually recognized. Therefore, the user is prevented from wastefully searching for the specific feature in a place where the specific feature cannot be seen.
本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。 Objects, features, aspects and advantages of the present invention will become more apparent from the following detailed description and accompanying drawings.
<実施の形態1>
図1は、実施の形態1に係る地図表示制御装置10の構成を示す図である。図1のように、地図表示制御装置10は、地図データ記憶装置21、表示装置22および操作入力装置23に接続されている。<Embodiment 1>
FIG. 1 is a diagram showing the configuration of a map
地図データ記憶装置21は、地図データを記憶した記憶媒体である。地図データ記憶装置21に記憶された地図データは、道路や建物などの地物の平面的な位置の情報だけでなく、土地の標高や地物の高さなどの情報も含む3次元地図データである。 The map
表示装置22は、地図表示制御装置10が地図を表示するための手段であり、例えば液晶表示装置などで構成される。操作入力装置23は、地図表示制御装置10に対するユーザの操作を受け付けるユーザインターフェイスである。ユーザは、操作入力装置23を用いて、例えば、表示装置22に表示させる地図の範囲(以下「地図の表示範囲」という)を設定したり、興味のある地物を特定地物として指定したりすることができる。本実施の形態では、ユーザが、地図の表示範囲の中心地点と、地図の縮尺とを指定することで、地図の表示範囲が設定されるものとする。 The
なお、地図データ記憶装置21、表示装置22および操作入力装置23は、地図表示制御装置10に内蔵されていてもよい。また、地図データ記憶装置21は、インターネット等の通信網を通して地図表示制御装置10へ地図データを配信するサーバーとして構成されていてもよい。操作入力装置23は、キーボードや押しボタン、操作レバー、タッチパッドのようなハードウェアであってもよいし、画面に表示されるソフトウェアキーであってもよい。例えば、表示装置22に、操作入力装置23としてのソフトウェアキーを表示させてもよく、その場合、操作入力装置23および表示装置22は1つのタッチパネルとして構成されてもよい。 Note that the map
地図表示制御装置10は、操作入力装置23に入力されるユーザの操作に従って、地図データ記憶装置21に記憶された地図データに基づく地図を表示装置22に表示する。図1のように、地図表示制御装置10は、特定地物記憶部11、地図データ取得部12、区間分類部13および表示制御部14を備えている。 The map
特定地物記憶部11は、ユーザが指定した特定地物を記憶する。地図データ取得部12は、ユーザが設定した地図の表示範囲およびその近傍の地図データを、地図データ記憶装置21から取得する。地図の表示範囲またはその近傍に特定地物が位置する場合、特定地物記憶部11が取得する地図データには特定地物の情報が含まれる。 The specific feature storage unit 11 stores specific features specified by the user. The map
区間分類部13は、地図データ取得部12が取得した地図データに基づいて、地図データに含まれる道路を、特定地物を視認可能な区間である特定地物可視区間と、特定地物を視認不可能な区間である特定地物不可視区間とに分類する。地図データ記憶装置21に記憶されている地図データは、土地の標高や地物の高さの情報を含む3次元地図データであるため、区間分類部13は、道路の標高、特定地物の場所の標高、特定地物の大きさおよび高さ、道路と特定地点との間に存在する土地や地物の高さなどに基づいて、道路上の各地点から特定地物が見えるかどうか、すなわち、道路上の各地点と特定地物との間が土地や地物によって遮られるかどうかを判断できる。以下、道路を特定地物可視区間と特定地物不可視区間とに分類する処理を「区間分類処理」という。 Based on the map data acquired by the map
なお、区間分類処理において、「特定地物が視認可能」とは、必ずしも特定地物の全体が見えることでなくてもよい。例えば、特定地物の一部分だけが見える状態や、特定地物の一定割合以上が見える状態も含めて「特定地物が視認可能」と定義してもよい。また、「特定地物が視認可能」の定義は、特定地物ごと、あるいは特定地物の種類ごとに変更されてもよい。例えば、特定地物が屋根の形状に特徴のあるパゴダであれば、そのパゴダの屋根の部分が見える場合に「特定地物が視認可能」と判断してもよい。 In the section classification process, "visible specific feature" does not necessarily mean that the entire specific feature is visible. For example, it may be defined that "a specific feature is visible" including a state in which only a portion of the specific feature is visible and a state in which a certain percentage or more of the specific feature is visible. Also, the definition of "a specific feature is visible" may be changed for each specific feature or for each type of specific feature. For example, if the specific feature is a pagoda with a distinctive roof shape, it may be determined that "the specific feature is visible" when the roof of the pagoda is visible.
表示制御部14は、地図データ取得部12が取得した地図データに対応する地図を表示装置22の画面に表示する。このとき表示制御部14は、区間分類部13による区間分類処理の結果に基づいて、道路の特定地物可視区間と特定地物不可視区間とをユーザが区別できるように、特定地物可視区間と特定地物不可視区間とを互いに異なる表示態様で表示する。 The
なお、地図上で特定地物可視区間と特定地物不可視区間とで表示態様を変える方法はどのような方法でもよい。例えば、特定地物可視区間と特定地物不可視区間とで、道路を表す線(道路線)の太さや色を変えてもよいし、特定地物可視区間および特定地物不可視区間のうちの片方をアニメーション表示(例えば点滅表示)してもよい。 Any method can be used to change the display mode between the specific feature visible section and the specific feature invisible section on the map. For example, the thickness and color of the road line (road line) may be changed between the specific feature visible section and the specific feature invisible section, or one of the specific feature visible section and the specific feature invisible section may be changed. may be animated (for example, blinking).
以下、表示制御部14が表示装置22に表示する地図の具体例を示しつつ、地図表示制御装置10の動作を説明する。ここでは、地図データ取得部12が、表示装置22に表示する地図の地図データとして、図2のような地図の地図データを取得したと仮定する。図2の地図には、道路RD1,RD2,RD3と、山M1,M2と、建物B1,B2,B3,B4と、山M2の中腹に立つパゴダPGとが含まれている。道路RD1と道路RD2とは交差点X1で接続し、道路RD1と道路RD3とは交差点X2で接続している。道路RD3は、交差点X2からパゴダPGまで延びている。 The operation of the map
また、地図表示制御装置10のユーザは、パゴダPGを特定地物として指定し、特定地物記憶部11にはパゴダPGの情報が記憶されているものと仮定する。 It is also assumed that the user of the map
道路RD1上に地点P0~P6を定義する。地点P0は道路RD1と地図の下端との交点であり、地点P6は道路RD1と地図の上端との交点である。すなわち、地図の表示領域には、道路RD1の地点P0と地点P6との間の区間(区間P0-P6)が含まれている。地点P0と地点P1との間の区間(区間P0-P1)は、山M2の斜面に遮られてパゴダPGを視認できない区間である。地点P1と地点P3との間の区間(区間P1-P3)は、パゴダPGを南側から視認できる区間である。区間P1-P3内の地点P2は、パゴダPGが道路RD1の真横に見える地点である。すなわち、地点P2からパゴダPGが見える方向と地点P2における道路RD1の接線方向とが成す角度は90°である。地点P3と地点P4との間の区間(区間P3-P4)は、建物B1,B2,B3に遮られてパゴダPGを視認できない区間である。地点P4と地点P5との間の区間(区間P4-P5)は、パゴダPGを東側から視認できる区間である。地点P5と地点P6との間の区間(区間P5-P6)は、建物B4に遮られてパゴダPGを視認できない区間である。 Points P0 to P6 are defined on the road RD1. The point P0 is the intersection of the road RD1 and the bottom edge of the map, and the point P6 is the intersection of the road RD1 and the top edge of the map. That is, the display area of the map includes the section (section P0-P6) between the point P0 and the point P6 on the road RD1. The section (section P0-P1) between the point P0 and the point P1 is a section where the pagoda PG cannot be visually recognized because it is blocked by the slope of the mountain M2. A section (section P1-P3) between the point P1 and the point P3 is a section where the pagoda PG can be visually recognized from the south side. A point P2 in the section P1-P3 is a point where the pagoda PG can be seen right beside the road RD1. That is, the angle between the direction in which the pagoda PG can be seen from the point P2 and the tangential direction of the road RD1 at the point P2 is 90°. A section (section P3-P4) between the point P3 and the point P4 is a section where the pagoda PG cannot be visually recognized because it is blocked by the buildings B1, B2, and B3. A section (section P4-P5) between the point P4 and the point P5 is a section where the pagoda PG can be visually recognized from the east side. A section (section P5-P6) between the point P5 and the point P6 is a section where the pagoda PG cannot be visually recognized because of the obstruction by the building B4.
道路RD2上に地点Q0~Q2を定義する。地点Q0は道路RD2と地図の下端との交点であり、地点Q2は道路RD2と地図の上端との交点である。すなわち、地図の表示領域には、道路RD2の地点Q0と地点Q2との間の区間(区間Q0-Q2)が含まれている。地点Q0と地点Q1との間の区間(区間Q0-Q1)は、パゴダPGを視認できる区間である。地点Q1と地点Q2との間の区間(区間Q1-Q2)は、山M2に遮られてパゴダPGを視認できない区間である。なお、道路RD3上ではどの場所からでもパゴダPGを視認できる。 Points Q0 to Q2 are defined on the road RD2. The point Q0 is the intersection of the road RD2 and the bottom edge of the map, and the point Q2 is the intersection of the road RD2 and the top edge of the map. That is, the display area of the map includes the section (section Q0-Q2) between the point Q0 and the point Q2 on the road RD2. A section (section Q0-Q1) between the point Q0 and the point Q1 is a section where the pagoda PG can be visually recognized. A section (section Q1-Q2) between the point Q1 and the point Q2 is a section where the pagoda PG cannot be visually recognized due to the obstruction by the mountain M2. In addition, the pagoda PG can be visually recognized from any place on the road RD3.
このような場合、区間分類部13は、道路RD1に対し、区間P1-P3および区間P4-P5を、特定地物(パゴダPG)を視認可能な特定地物可視区間に分類し、区間P0-P1、区間P3-P4および区間P5-P6を、特定地物を視認不可能な特定地物不可視区間に分類する。また、区間分類部13は、道路RD2に対し、区間Q0-Q1を特定地物可視区間に分類し、区間Q1-Q2を特定地物不可視区間に分類する。さらに、区間分類部13は、道路RD3に対し、その全区間を特定地物可視区間に分類する。 In such a case, the
表示制御部14は、地図を表示装置22に表示させる際、例えば図3のように、特定地物可視区間として分類された道路RD1の区間P1-P3および区間P4-P5、道路RD2の区間Q0-Q1、ならびに道路RD3の全区間の表示態様と、特定地物不可視区間として分類された道路RD1の区間P0-P1、区間P3-P4および区間P5-P6ならびに道路RD2の区間Q1-Q2の表示態様とを、互いに異なるものとする。ここでは、特定地物可視区間の道路線の太さを特定地物不可視区間の道路線よりも太くするとともに、特定地物可視区間の道路線の色を特定地物不可視区間の道路線の色とは異なるものにしている。図3のような地図が表示装置22に表示されることで、ユーザは、特定地物であるパゴダPGを視認可能な場所を前もって知ることができる。よって、ユーザが特定地物の見えない場所で無駄に特定地物を探すことが防止される。 When displaying the map on the
なお、図3では、説明の便宜のため、「P1」、「Q1」などの符号を図示しているが、これらの符号は表示装置22に表示された地図上に表示される必要はない。このことは、以下に示す地図の表示例についても同様である。 In FIG. 3, symbols such as “P1” and “Q1” are shown for convenience of explanation, but these symbols need not be displayed on the map displayed on the
次に、図4のフローチャートを参照しつつ、実施の形態1に係る地図表示制御装置10の動作を説明する。地図表示制御装置10が起動し、ユーザが操作入力装置23を用いて特定地物を指定すると、特定地物記憶部11がその特定地物を記憶する(ステップST101)。また、ユーザが操作入力装置23を用いて、表示する地図の中心地点および縮尺を指定すると、表示制御部14が地図の表示範囲を設定し(ステップST102)、地図データ取得部12が、設定された表示範囲およびその近傍の地図データを取得する(ステップST103)。 Next, the operation of the map
その後、区間分類部13が、地図データ取得部12が取得した地図データに基づいて、地図データに含まれる道路を特定地物可視区間と特定地物不可視区間とに分類する区間分類処理を行う(ステップST104)。そして、表示制御部14が、特定地物可視区間と特定地物不可視区間とを互いに異なる表示態様で示した地図(地図データ取得部12が取得した地図データに対応する地図)を、表示装置22に表示する(ステップST105)。 After that, based on the map data acquired by the map
その後は、ステップST102へ戻り、ユーザの操作を待つ。例えば、ユーザが地図をスクロールさせる操作を行ったり、地図の縮尺を変える操作を行ったりして、地図の表示範囲が変更されると、ステップST102~ST105が実行され、表示装置22に表示される地図が更新される。 After that, the process returns to step ST102 and waits for the user's operation. For example, when the user performs an operation to scroll the map or perform an operation to change the scale of the map to change the display range of the map, steps ST102 to ST105 are executed and displayed on the
なお、ユーザが特定地物を指定する方法はどのような方法でもよい。例えば、ユーザが特定地物の所在地(住所)を入力することで特定地物を指定してもよいし、予め表示制御部14が表示装置22に地図を表示し、ユーザがその地図上で特定地物を指定してもよい。 Any method may be used for the user to specify the specific feature. For example, the user may specify the specific feature by inputting the location (address) of the specific feature, or the
ユーザが地図の表示範囲の中心地点を指定する方法も、特定地物の指定と同様の方法でよい。また、後述する実施の形態2のように、地図表示制御装置10がユーザの現在位置を取得できる場合は、例えばユーザの現在位置(あるいはユーザの現在位置から一定距離だけ前方の位置)を地図の表示範囲の中心地点にするなど、表示制御部14が、ユーザの現在位置に基づいて地図の表示範囲が自動的に設定してもよい。 The method by which the user designates the center point of the display range of the map may be the same method as for designation of the specific feature. Further, as in
上の説明では、地図データ記憶装置21に記憶された地図データを3次元地図データとしたが、土地や地物の高さの情報を含まない2次元地図データでもよい。2次元地図データを用いる場合、区間分類部13は、地図データに含まれる土地や地物の属性情報(例えば、ビル、山など)から、それらの高さを推定して、区間分類処理を行うことができる。例えば、ビルの高さは数十m、山の高さは数百mと仮定してもよいし、ビルや山の高さは無限大とみなしてもよい。もちろん、2次元地図データにおける地物の属性情報として、地物の高さの情報が含まれていれば、その情報を利用してもよい。2次元地図データを用いる場合、区間分類処理の精度は落ちるが、地図データ記憶装置21に必要とされる記憶容量を少なくできるため、コストの削減に寄与できる。 In the above description, the map data stored in the map
また、2次元地図データと3次元地図データとを使い分けてもよい。例えば、地図表示制御装置10が車両に搭載される場合、記憶容量に限りがある車両内の地図データ記憶装置21には比較的データ量の少ない2次元地図データを記憶させ、データ量の多い3次元地図データは、地図表示制御装置10が必要に応じて車両の外部のサーバーから通信で取得してもよい。 Also, two-dimensional map data and three-dimensional map data may be used separately. For example, when the map
[変更例]
図3においては、特定地物可視区間の道路線そのものの表示態様を変化させたが、例えば図5のように、特定地物可視区間の道路線に沿って、特定地物可視区間であることを示す補助的な線を表示させることで、特定地物可視区間の表示態様を変化させてもよい。このとき、補助的な線を、道路線の特定地物側に沿わせるとよい。これにより、ユーザは、道路のどちら側に特定地物が見えるのかを把握することができる。この効果は、特に、ユーザが地図をスクロールさせるなどして特定地物が地図の表示範囲の外側に出たときに有効である。[Change example]
In FIG. 3, the display mode of the road line itself in the specific feature visible section is changed, but for example, as shown in FIG. By displaying an auxiliary line indicating , the display mode of the specific feature visible section may be changed. At this time, it is preferable to make the auxiliary line along the specific feature side of the road line. Thereby, the user can grasp which side of the road the specific feature can be seen. This effect is particularly effective when the user scrolls the map so that the specific feature is outside the display range of the map.
<実施の形態2>
実施の形態2では、地図表示制御装置10をナビゲーションシステムに適用した例を示す。図6は、実施の形態2に係るナビゲーションシステム30の構成を示す図である。本実施の形態では、ナビゲーションシステム30は車両に搭載されているものと仮定し、以下では、ナビゲーションシステム30が搭載された車両、すなわちナビゲーションシステム30のユーザが搭乗した車両を「自車両」という。ただし、ナビゲーションシステム30は、歩行者用のものであってもよい。<
図6のように、ナビゲーションシステム30は、地図表示制御装置10、地図データ記憶装置21、表示装置22、操作入力装置23、測位装置24および走行予定経路設定部25を備えている。地図データ記憶装置21、表示装置22および操作入力装置23は、図1に示したものと同様であるため、それらの説明は省略する。 As shown in FIG. 6 , the
測位装置24は、例えばGPS(Global Positioning System)衛星などのGNSS(Global Navigation Satellite System)衛星から受信した測位信号を用いて、自車両の現在位置、すなわちユーザの現在位置を算出する。測位装置24は、例えば自車両が搭載するカメラやセンサを用いた自律航法や、地図データ記憶装置21に記憶された地図データを用いたマップマッチング技術により、自車両の現在位置の算出精度を高める処理を行ってもよい。 The positioning device 24 uses positioning signals received from GNSS (Global Navigation Satellite System) satellites such as GPS (Global Positioning System) satellites to calculate the current position of the host vehicle, that is, the current position of the user. The positioning device 24 increases the accuracy of calculation of the current position of the vehicle by, for example, autonomous navigation using a camera or sensor mounted on the vehicle or map matching technology using the map data stored in the map
走行予定経路設定部25は、測位装置24が算出した自車両の現在位置からユーザが設定した目的地までの推奨経路を算出し、算出された推奨経路を自車両の走行予定経路、すなわちユーザの通過予定経路を設定する。なお、走行予定経路設定部25は、ユーザが目的地を設定していない場合、例えば自車両の走行履歴に基づいて自車両が通過する経路を推定し、推定した経路を走行予定経路として設定してもよい。 The planned traveling
地図表示制御装置10は、操作入力装置23に入力されるユーザの操作、あるいは測位装置24が測定した自車両の現在位置に従って、地図データ記憶装置21に記憶された地図データに基づく地図を表示装置22に表示する。 The map
図6のように、実施の形態2の地図表示制御装置10は、実施の形態1で示した特定地物記憶部11、地図データ取得部12、区間分類部13および表示制御部14に加え、測位装置24が算出した自車両の現在位置を取得する位置情報取得部15と、走行予定経路設定部25が設定した自車両の走行予定経路を取得する経路情報取得部16とを備えている。特定地物記憶部11、地図データ取得部12および区間分類部13の動作は、実施の形態1と同様であるので、それらの説明は省略する。 As shown in FIG. 6, the map
表示制御部14は、地図データ取得部12が取得した地図データに対応する地図を表示装置22の画面に表示する。このとき表示制御部14は、道路の特定地物可視区間と特定地物不可視区間とを互いに異なる表示態様で表示する。実施の形態2では、表示制御部14はさらに、自車両の走行予定経路と他の道路との区別がつくように、走行予定経路の表示態様(道路線の太さ、色など)を他の道路の表示態様とは異なるものにする。また、表示制御部14は、表示装置22に表示された地図上に、自車両の現在位置を示すアイコンを重畳表示する。 The
例えば、自車両の現在位置が道路RD1上にあり、自車両の走行予定経路が道路RD1である場合、表示制御部14は、例えば図7のように、地図上に自車両の現在位置を示す三角形のアイコンSVを表示するとともに、自車両の走行予定経路である道路RD1の道路線を他の道路よりも太くする。なお、自車両の走行予定経路が設定されていない状態では、図8のように、自車両の走行予定経路は表示されない(特定地物可視区間を除いて、道路RD1,RD2,RD3の道路線の太さが同じになる)。また、自車両の現在位置が特定地物可視区間にあるか特定地物不可視区間にあるかによって、自車両のアイコンSVの表示態様(色、大きさ、形状など)が変更されてもよい。 For example, when the current position of the vehicle is on the road RD1 and the planned travel route of the vehicle is the road RD1, the
また、実施の形態2では、表示制御部14は、地図の表示範囲を、自車両の現在位置に基づいて設定する。例えば、表示制御部14は、自車両の現在位置、あるいは自車両の現在位置から一定距離だけ前方の位置を地図の表示範囲の中心地点とすることで、自車両の現在位置が地図の表示範囲に含まれるようにしてもよい。さらに、表示制御部14は、自車両の現在位置の変化に合わせて、表示装置22に表示させる地図をスクロールさせることで、自車両の現在位置が常に地図の表示範囲内にあるようにしてもよい。 Further, in
実施の形態2に係る地図表示制御装置10によれば、表示装置22に表示される地図において、特定地物可視区間だけでなく、ユーザの現在位置としての自車両の現在位置と、ユーザの通過予定経路としての自車両の走行予定経路を表示することができる。地図上にユーザの現在位置が表示されることにより、ユーザは、現在位置が特定地物可視区間内かどうか、つまり現在位置から特定地物が見えるかどうかを把握することができる。また、地図上にユーザの通過予定経路が表示されることにより、ユーザは、これから通る経路から特定地物が見えるかどうかを把握することができる。よって、ユーザが特定地物の見えない場所で無駄に特定地物を探すことが防止される。 According to the map
次に、図9のフローチャートを参照しつつ、実施の形態2に係る地図表示制御装置10の動作を説明する。地図表示制御装置10が起動し、ユーザが操作入力装置23を用いて特定地物を指定すると、特定地物記憶部11がその特定地物を記憶する(ステップST201)。また、経路情報取得部16が、走行予定経路設定部25により設定された自車両の走行予定経路の情報を取得する(ステップST202)。 Next, the operation of the map
さらに、位置情報取得部15が、測位装置24により算出された自車両の現在位置の情報を取得する(ステップST203)。表示制御部14は、自車両の現在位置に基づいて、地図の表示範囲を設定する(ステップST204)。地図データ取得部12は、設定された表示範囲およびその近傍の地図データを取得する(ステップST205)。 Further, the position
その後、区間分類部13が、地図データ取得部12が取得した地図データに基づいて、地図データに含まれる道路を特定地物可視区間と特定地物不可視区間とに分類する区間分類処理を行う(ステップST206)。そして、表示制御部14が、特定地物可視区間と特定地物不可視区間とを互いに異なる表示態様で示した地図を表示装置22に表示する(ステップST207)。このとき、自車両の走行予定経路が設定されていれば、表示制御部14は、自車両の走行予定経路と他の道路との区別がつくように、走行予定経路の表示態様を他の道路の表示態様とは異なるものにする。 After that, based on the map data acquired by the map
さらに、表示制御部14は、表示装置22に表示された地図上に、自車両の現在位置示すアイコンを重畳表示する(ステップST208)。 Furthermore, the
その後は、ステップST203へ戻り、自車両の現在位置が更新されると、ステップST203~ST208が実行され、表示装置22に表示される地図が更新される。 After that, the process returns to step ST203, and when the current position of the host vehicle is updated, steps ST203 to ST208 are executed, and the map displayed on the
なお、ユーザが地図をスクロールさせた場合などには、実施の形態1のように、自車両の現在位置とは無関係に、地図の表示範囲が設定されるようにするとよい。 When the user scrolls the map, it is preferable to set the display range of the map independently of the current position of the vehicle as in the first embodiment.
本実施の形態では、ナビゲーションシステム30が、ユーザが搭乗する車両に搭載された例を示したが、ナビゲーションシステム30がユーザの所有するスマートフォン上で実現される場合には、当該車両は、例えばバスなど公共の交通機関でもよい。また、ユーザが搭乗する車両は自動車に限られず、例えば鉄道の電車でもよい。車両が鉄道の電車の場合、地図表示制御装置10は、その電車の走行予定経路である線路を特定地物可視区間と特定地物不可視区間とに分類し、特定地物可視区間と特定地物不可視区間とを互いに異なる表示態様で示した地図を表示装置22に表示する。 In the present embodiment, an example in which the
[変更例]
例えば図10のように、自車両の走行予定経路(道路RD1)上の特定地物可視区間の表示態様と、その他の道路(道路RD2,RD3)上の特定地物可視区間の表示態様とを、互いに異なるものにしてもよい。[Change example]
For example, as shown in FIG. 10, the display mode of the specific feature visible section on the planned travel route of the vehicle (road RD1) and the display mode of the specific feature visible section on the other roads (roads RD2 and RD3) are changed. , may be different from each other.
また区間分類部13は、地図データ取得部12が取得した地図データに含まれる道路のうち、自車両の通過予定経路に含まれる道路のみを、区間分類処理の対象としてもよい。その場合、表示制御部14は、図11のように、自車両の走行予定経路(道路RD1)における特定地物可視区間と特定地物不可視区間とを互いに異なる表示態様とするが、その他の道路(道路RD2,RD3)は一様な表示態様で表示する。 Further, the
また、図12のように、特定地物の位置と特定地物可視区間の両端とを結ぶ2直線と特定地物可視区間の道路線とで囲まれる略三角形あるいは略扇形の領域に半透明のパターン(以下「扇形パターン」という)を表示させてもよい。このような扇形パターンを表示することにより、特定地物可視区間と特定地物との位置関係が理解しやすくなる。また、図13および図14に示すように、自車両が位置する特定地物可視区間に対してのみ、扇形パターンが表示されるようにしてもよい。これにより、特定地物可視区間、特定地物および自車両の3つの位置関係を理解しやすくなる。 Also, as shown in FIG. 12, a semi-transparent area is formed in a substantially triangular or fan-shaped area surrounded by two straight lines connecting the position of the specific feature and both ends of the specific feature visible section and the road line of the specific feature visible section. A pattern (hereinafter referred to as a "sectoral pattern") may be displayed. By displaying such a fan-shaped pattern, it becomes easier to understand the positional relationship between the specific feature visible section and the specific feature. Also, as shown in FIGS. 13 and 14, the fan-shaped pattern may be displayed only for the specific feature visible section in which the vehicle is located. This makes it easier to understand the three positional relationships of the specific feature visible section, the specific feature, and the own vehicle.
また、表示制御部14は、ユーザの現在位置が特定地物可視区間内にあるとき、地図が表示された表示装置22の画面の一部に、特定地物が見える方向を示す付加的な画像(以下「付加画像」という)を表示してもよい。例えば、図15は、地図の画面の一部に、ユーザの位置を視点とする三次元地図の付加画像41を表示した例である。ユーザの現在位置が特定地物可視区間内にあれば、図15のように、付加画像41の三次元地図には特定地物(パゴダPG)の画像が含まれることになるため、付加画像41は特定地物が見える方向を表すことができる。図15の付加画像41においては、特定地物の位置を強調する楕円形の画像411を3次元地図に重畳させている。また、付加画像41には、ユーザの現在位置から特定地物までの距離や方向を示す文字を含ませてもよい。なお、ユーザが車両の運転者である場合、ユーザの位置すなわち車両の運転席の位置を視点とする三次元地図は「クルージングビュー」の地図とも呼ばれる。 In addition, when the user's current position is within the specific feature viewable section, the
また、ユーザが車両(自車両)に搭乗している場合、三次元地図の代わりに、自車両に搭載されたカメラで特定地物の方向を撮影した実写画像を、付加画像41として用いてもよい。自車両の現在位置が特定地物可視区間内にあれば、付加画像41としての実写画像には特定地物が写り込むため、付加画像41は特定地物が見える方向を表すことができる。また、実写画像に対しても、特定地物の位置を強調する画像(図15の付加画像41における楕円形の画像411に相当)を重畳させてもよい。 Further, when the user is riding in a vehicle (self-vehicle), instead of the three-dimensional map, a photographed image of the direction of a specific feature captured by a camera mounted on the self-vehicle may be used as the
図16は、地図の画面の一部に、ユーザが搭乗した車両(自車両)からの特定地物の方向を示す付加画像42を表示した例である。図16の付加画像42は、自車両の俯瞰画像421と、特定地物の方向を示すサーチライトの光を模した図形422とによって、自車両からの特定地物の方向を表している。 FIG. 16 shows an example in which an
特定地物が見える方向を示す付加画像は、ユーザから見える実際の風景に重ねて表示されるように、ヘッドアップディスプレイによって、ユーザが見通せる画面に表示されてもよい。例えば、ユーザが搭乗した車両(自車両)が特定地物不可視区間を走行しているときは、図17のように、自車両のウィンドシールド60を通して見える風景には特定地物(パゴダPG)は含まれない。しかし、自車両が特定地物可視区間に入ると、図18のように、ウィンドシールド60を通して特定地物であるパゴダPGが見えるようになる。このとき、表示制御部14は、自車両が搭載するヘッドアップディスプレイ(不図示)を制御して、図18のように、画面としてのウィンドシールド60にパゴダPGが見える方向を示す付加画像43を表示してもよい。付加画像43は、運転者から見てパゴダPGが見える位置に重なるように表示されるとよい。 The additional image indicating the direction from which the specific feature can be seen may be displayed on the screen that the user can see through the head-up display so as to be superimposed on the actual scenery seen by the user. For example, when the vehicle (self-vehicle) boarded by the user is traveling in a specific feature invisible section, as shown in FIG. Not included. However, when the own vehicle enters the specific feature visible section, the pagoda PG, which is the specific feature, can be seen through the
ヘッドアップディスプレイが、表示する画像の見かけ上の距離、つまりユーザから見た画像の距離感(奥行き感)を制御できる機能を有する場合、ユーザから特定地物までの距離に応じて、付加画像の距離感を変更してもよい。例えば、ユーザから特定地物までの距離が長いときは、付加画像がユーザから遠くに見えるようにし、ユーザから特定地物までの距離が短くなるにつれて、付加画像がユーザへ近づいて見えるようにしてもよい。 If the head-up display has a function that can control the apparent distance of the image to be displayed, that is, the sense of distance (sense of depth) of the image as viewed by the user, the additional image can be displayed according to the distance from the user to the specific feature. You can change the sense of distance. For example, when the distance from the user to the specific feature is long, the additional image is made to appear farther from the user, and as the distance from the user to the specific feature becomes shorter, the additional image is made to appear closer to the user. good too.
また、付加画像は、特定地物が見え始めることをユーザに予告する目的で、ユーザが特定地物可視区間に入る前に前に表示されてもよい。例えば、図17の状態から図18の状態になる前のタイミングで、表示制御部14がヘッドアップディスプレイを制御して、図19のように、特定地物(パゴダPG)が見え始めることを予告する付加画像44をウィンドシールド60に表示してもよい。付加画像44は、運転者から見てパゴダPGが見え始める位置に重なるように表示されるとよい。 Also, the additional image may be displayed before the user enters the specific feature visibility zone for the purpose of foretelling the user that the specific feature will begin to be visible. For example, at the timing before the state of FIG. 17 changes to the state of FIG. 18, the
なお、図15および図16に示した付加画像41,42も、特定地物が見え始めることをユーザに予告する目的で、実際にユーザが特定地物を視認可能になる前から表示されてもよい。 Note that the
ナビゲーションシステムの多くは、ユーザの仮想的な位置を示すアイコンを、地図上の通過予定経路に沿って移動させるルートシミュレーションの機能を有している。図15に示した付加画像41(ユーザの位置を視点とする三次元地図)は、ルートシミュレーションにも適用可能である。すなわち、ルートシミュレーションにおいて、ユーザの仮想的な位置を示すアイコンが特定地物可視区間内にあるときに、ルートシミュレーションの画面の一部に付加画像41を表示させてもよい。 Many navigation systems have a route simulation function that moves an icon indicating a user's virtual position along a planned passage route on a map. The additional image 41 (three-dimensional map with the user's position as the viewpoint) shown in FIG. 15 can also be applied to route simulation. That is, in the route simulation, the
実施の形態2のように地図表示制御装置10が車両(自車両)に搭載されている場合、区間分類部13による区間分類処理の結果(つまり特定地物可視区間および特定地物不可視区間の情報)を、自車両の経路案内や自動運転制御に反映させてもよい。例えば、地図データ記憶装置21に記憶された地図データが、道路の車線ごとの位置情報を含む高精度地図データである場合、区間分類部13が道路の車線ごとに区間分類処理を行い、地図表示制御装置10がその結果(例えば、車線ごとの特定地物可視区間の情報や、特定地物可視区間の距離を長くできる車線の情報など)を、自車両のナビゲーションシステム30あるいは自動運転システム(不図示)に提供してもよい。 When the map
例えば、区間分類処理の結果を取得したナビゲーションシステム30は、ユーザに対し、自車両が特定地物可視区間を走行する距離が長くなるような車線を案内することができる。また、区間分類処理の結果を取得した自車両の自動運転システムが、自車両が特定地物可視区間を走行する距離が長くなるように、自動的に車線変更を行ってもよい。また、ナビゲーションシステム30が、現在位置から目的地までの経路を探索する際に、特定地物可視区間が長くなる経路を探索できるようにしてもよい。これにより、ユーザが特定地物を見ることができる時間を長くすることができる。 For example, the
<実施の形態3>
地図表示制御装置10のユーザが歩行者であれば、当該ユーザは自由に周囲を見渡すことができるため、ユーザの視野範囲は制限されない。しかし、地図表示制御装置10のユーザが車両の運転者であれば、運転中は前方を向く必要があるため、当該ユーザの視野範囲は制限される。実施の形態3では、ユーザの視野範囲が考慮された区間分類処理を行う地図表示制御装置10を提案する。<Embodiment 3>
If the user of the map
図20に、ユーザが車両(自車両)の運転者である場合の、ユーザの視野範囲の例を示す。図20においては、自車両の正面前方を0°とし、正面前方に対して右側の角度を正、左側の角度を負としている。運転者であるユーザが右側を視認できる限界の角度をαR(>0°)、左側を視認できる限界の角度をαL(<0°)とすると、ユーザの視野範囲Θは、αL≦Θ≦αRとして表される。つまり、αLは正面より左側の視野範囲の広さを表すパラメータであり、αRは正面より右側の視野範囲の広さを表すパラメータである。実施の形態3では、αR=90°、αL=-90°と仮定する。つまりユーザの視野範囲Θは、-90°≦Θ≦90°の範囲である。FIG. 20 shows an example of the visual field range of the user when the user is the driver of the vehicle (self-vehicle). In FIG. 20, the front front of the vehicle is 0°, the right angle with respect to the front front is positive, and the left angle is negative. Let α R (>0°) be the limit angle at which the user, the driver, can visually recognize the right side , and α L (<0°) be the limit angle at which the user can visually recognize the left side. It is expressed as Θ≤αR . In other words, α L is a parameter representing the width of the visual field range on the left side of the front, and α R is a parameter representing the width of the viewing range on the right side of the front. In the third embodiment, α R =90° and α L =−90° are assumed. That is, the visual field range Θ of the user is −90°≦Θ≦90°.
実施の形態3の地図表示制御装置10の構成および動作は、基本的に実施の形態2と同様である。ただし、実施の形態3では、区間分類部13が、道路上の各地点におけるユーザの視野範囲を考慮して、区間分類処理を行う。ユーザの視野範囲は、道路の各地点を通過するときの自車両の向きに応じて設定される。 The configuration and operation of the map
以下、表示制御部14が表示装置22に表示する地図の具体例を示しつつ、実施の形態3に係る地図表示制御装置10の動作を説明する。ここでは、区間分類部13は、地図データ取得部12が取得した地図データに含まれる道路のうち、自車両の通過予定経路に含まれる道路のみを、区間分類処理の対象とするものとする。 Hereinafter, the operation of the map
図2に例示した地図において、地点P2は、特定地物であるパゴダPGが道路RD1の真横(-90°の方向)に見える地点である。よって、ユーザの視野範囲Θが-90°≦Θ≦90°の範囲である場合、実施の形態3の区間分類部13は、パゴダPGの方向がユーザの視野範囲外となる地点P2と地点P3との間の区間(区間P2-P3)を特定地物不可視区間として分類する。つまり、区間分類部13は、走行予定経路である道路RD1に対し、区間P1-P2および区間P4-P5を、特定地物(パゴダPG)を視認可能な特定地物可視区間に分類し、区間P0-P1、区間P2-P4および区間P5-P6を、特定地物を視認不可能な特定地物不可視区間に分類する。 In the map illustrated in FIG. 2, the point P2 is the point where the pagoda PG, which is a specific feature, can be seen right beside the road RD1 (in the direction of -90°). Therefore, when the user's visual field range Θ is in the range of −90°≦Θ≦90°, the
よって、表示制御部14が表示装置22に表示させる地図では、図21のように、特定地物可視区間として分類された区間P1-P2および区間P4-P5の表示態様と、特定地物不可視区間として分類された区間P0-P1、区間P2-P4および区間P5-P6の表示態様とが、互いに異なるものとなる。 Therefore, in the map displayed on the
実施の形態3では、αR=90°、αL=-90°と仮定したが、αRおよびαLの大きさ(絶対値)は任意の値でよく、αRの大きさとαLの大きさとはそれぞれ独立して設定されてもよい。つまり、視野範囲は左右対称でなくてよく、例えば、運転席側の視認範囲をやや広くとってもよい。具体的には、自車両が右側に運転席がある車両(いわゆる「右ハンドルの車両」)であれば、運転者の視野範囲Θを、-60°≦Θ≦75°とし、自車両が左側に運転席がある車両(いわゆる「左ハンドルの車両」)であれば、運転者の視野範囲Θを、-75°≦Θ≦60°としてもよい。また、αRおよびαLの大きさは、ユーザが好みに応じて変更できるようにしてもよい。In Embodiment 3, α R =90° and α L =−90° were assumed, but the magnitudes (absolute values) of α R and α L may be arbitrary values, and the magnitude of α R and α L The size may be set independently. That is, the visual range does not have to be bilaterally symmetrical, and for example, the visible range on the driver's seat side may be slightly widened. Specifically, if the vehicle has a driver's seat on the right side (a so-called "right-hand drive vehicle"), the driver's visual range Θ is set to -60° ≤ Θ ≤ 75°, and the vehicle is on the left side. In the case of a vehicle with a driver's seat on the side (a so-called "left-hand drive vehicle"), the driver's visual range Θ may be -75°≦Θ≦60°. Also, the sizes of α R and α L may be changed according to the user's preference.
また、0°の方向は、自車両の正面前方でなくてもよく、例えば、自車両前方の道路形状に応じて変化してもよい。例えば、自車両の前方の道路の接線方向を0°の方向としてもよい。また、走行速度にもよるが、一般的に運転者は数十m先の道路を見ているので、自車両から数十m先の道路上の地点の方向を0°の方向としてもよい。 Also, the direction of 0° does not have to be in front of the vehicle, and may change according to the shape of the road in front of the vehicle, for example. For example, the tangential direction of the road in front of the vehicle may be the direction of 0°. Also, although it depends on the traveling speed, since the driver generally sees the road several tens of meters ahead, the direction of a point on the road several tens of meters ahead of the own vehicle may be set as the direction of 0°.
また、図20においては、運転者の視野範囲を、運転者が直接見ることができる範囲として規定した。しかし、運転者は、後写鏡(後写鏡を電子的に実現した「電子ミラー」も含む)で間接的に車両の後方を見ることも可能であるため、運転者が後写鏡を通して視認できる車両後方の範囲も視野範囲に含ませてもよい。 In addition, in FIG. 20, the driver's visual field range is defined as the range that the driver can directly see. However, the driver can also indirectly see the rear of the vehicle through the rearview mirror (including electronically realized rearview mirrors). The range behind the vehicle that can be viewed may also be included in the visual field range.
運転者の視野範囲の広さは、運転者にかかる運転負荷によって変わるため、区間分類部13は、運転者にかかる運転負荷を考慮して、αRおよびαLの設定値を変更してもよい。つまり、道路上の各地点におけるユーザの視野範囲の広さは、それぞれの地点で異なる値に設定されてもよい。Since the width of the driver's field of vision varies depending on the driving load on the driver, the
また、ユーザの視野範囲の広さは、その地点を車両が通過するときの走行環境またはその地点の道路属性に応じて設定されてもよい。一般的に、制限速度が高い道路ほど、車両の走行速度は上がる傾向にあり、運転者の運転負荷が大きくなると考えられるので、区間分類部13は、制限速度が大きい道路ほど、ユーザの視野範囲を狭く設定してもよい。また、曲がりくねった道路や狭い道路などでは、運転者の運転負荷が大きくなると考えられるので、区間分類部13は、道路の曲率が大きい道路や、幅の狭い道路では、ユーザの視野範囲を狭く設定してもよい。 Also, the size of the user's visual field may be set according to the driving environment when the vehicle passes through the point or the road attribute of the point. In general, the higher the speed limit of a road, the higher the speed of a vehicle. can be set narrower. In addition, since it is considered that the driver's driving load increases on winding roads and narrow roads, the
その他、交差点や、分合流近傍なども、運転者の運転負荷が大きくなると考えられる。また、道路の種類(高速道路、自動車専用道路、一般道など)や、歩行者の多寡、交通量の多寡によっても、運転者の運転負荷は変化するため、それらの条件に応じてユーザの視野範囲を変化させてもよい。例えばVICS(Vehicle Information and Communication System)(「VICS」は登録商標)などから得られる交通情報から、時間帯ごと、曜日ごとあるいは季節ごとの歩行者または車両の混雑具合や車両の平均速度を予測して、各地点におけるユーザの視野範囲を変化させてもよい。また、悪天候で視界が悪いときも、運転者の運転負荷が大きくなると考えられる。よって、天候情報に基づいて、各地点におけるユーザの視野範囲を変化させてもよい。 In addition, it is conceivable that the driver's driving load will be increased at intersections, near junctions, and the like. In addition, the type of road (expressway, expressway, general road, etc.), the number of pedestrians, and the amount of traffic also affect the driving load on the driver. The range may vary. For example, traffic information obtained from VICS (Vehicle Information and Communication System) (“VICS” is a registered trademark) can be used to predict pedestrian or vehicle congestion and average vehicle speed by time of day, day of the week, or season. to change the user's field of view at each point. In addition, when visibility is poor due to bad weather, it is considered that the driving load on the driver increases. Therefore, based on the weather information, the user's visual field range may be changed at each point.
また、ユーザの視野範囲の広さは、その地点を車両が通過するときの自動運転レベルに応じて設定されてもよい。ここで、自動車の自動運転の自動化レベル(自動運転レベル)の定義について説明する。SAE(Society of Automotive Engineers)International のJ3016(2016年9月)、および、その日本語参考訳であるJASO TP18004(2018年2月)によると、自動運転システムの自動運転レベルは次のように定義されている。 Also, the size of the user's visual field may be set according to the automatic driving level when the vehicle passes the point. Here, the definition of the automation level (automatic driving level) of automatic driving of automobiles will be explained. According to SAE (Society of Automotive Engineers) International J3016 (September 2016) and its Japanese reference translation JASO TP18004 (February 2018), the autonomous driving level of an autonomous driving system is defined as follows. It is
レベル0(運転自動化なし):運転者が一部又は全ての動的運転タスクを実行
レベル1(運転支援):システムが縦方向又は横方向のいずれかの車両運動制御のサブタスクを限定領域において実行
レベル2(部分運転自動化):システムが縦方向及び横方向両方の車両運動制御のサブタスクを限定領域において実行
レベル3(条件付運転自動化):システムが全ての動的運転タスクを限定領域において実行するが、作動継続が困難な場合は、システムからの介入要求等に運転者が適切に応答
レベル4(高度運転自動化):システムが全ての動的運転タスク及び作動継続が困難な場合への応答を限定領域において実行
レベル5(完全運転自動化):システムが全ての動的運転タスク及び作動継続が困難な場合への応答を無制限に(すなわち限定領域内ではない)実行
なお、「動的運転タスク」とは、道路交通において車両を操作する際にリアルタイムで行う必要がある全ての操作上及び戦術上の機能(行程計画並びに経由地の選択などの戦略上の機能は除く)をいう。また、「限定領域」とは、システム又はその機能が作動するように設計されている特定の条件(地理的制約、道路面の制約、環境的制約、交通の制約、速度上の制約、時間的な制約などを含む)をいう。Level 0 (no driving automation): the driver performs some or all dynamic driving tasks Level 1 (driver assistance): the system performs either longitudinal or lateral vehicle motion control subtasks in a limited area Level 2 (partial driving automation): the system performs both longitudinal and lateral vehicle motion control subtasks in a limited domain Level 3 (conditional driving automation): the system performs all dynamic driving tasks in a limited domain However, if it is difficult to continue operation, the driver responds appropriately to intervention requests from the system Level 4 (advanced driving automation): The system performs all dynamic driving tasks and responds Execution in a restricted area Level 5 (complete driving automation): The system executes all dynamic driving tasks and responses to difficult cases of continued operation indefinitely (i.e. not within a restricted area) Note that the "dynamic driving task" means all operational and tactical functions (excluding strategic functions such as itinerary planning and choice of waypoints) that need to be performed in real time when operating a vehicle in road traffic. In addition, "limited area" means the specific conditions under which the system or its functions are designed to operate (geographic restrictions, road surface restrictions, environmental restrictions, traffic restrictions, speed restrictions, time restrictions, etc.) (including restrictions, etc.).
自動運転レベルが上記のように定義される場合、運転レベルが大きいほどドライバの運転負荷は軽減する。よって、自車両の自動運転計画において、自動運転レベルを大きくする区間ではユーザの視野範囲を広く設定し、自動運転レベルを小さくする区間ではユーザの視野範囲を狭く設定してもよい。特に、自動運転レベルを4以上にする区間では、運転者は運転操作から開放されるため、ユーザの視野範囲を全方位(-180°≦Θ≦180°)としてもよい。また、遠隔運転サービスによって自車両が遠隔操作される場合も、運転者は運転操作から開放されるため、ユーザの視野範囲を全方位としてもよい。 When the automatic driving level is defined as above, the driving load on the driver is reduced as the driving level increases. Therefore, in the automatic driving plan of the own vehicle, the user's visual field range may be set wide in the section where the automatic driving level is increased, and set narrow in the section where the automatic driving level is decreased. In particular, in sections where the automatic driving level is set to 4 or higher, the driver is released from driving operations, so the user's visual field range may be omnidirectional (−180°≦Θ≦180°). Also, when the own vehicle is remotely controlled by a remote driving service, the driver is released from the driving operation, so the user's visual field may be omnidirectional.
[変更例]
上の説明において、ユーザの視野範囲は1種類のみ設定されたが、広さの異なる複数種類の視野範囲が設定されてもよい。例えば図22は、視認レベル1の視野範囲Θ1をαL≦Θ1≦αRとして定義し、視認レベル2の視野範囲Θ2を全方位すなわち-180°≦Θ≦180°として定義した例である。ここで、視認レベルは、視認のしやすさの程度を表しており、視認レベル1の視野範囲は、視認レベル2の視野範囲よりも容易にユーザが視認できる範囲である。[Change example]
In the above description, only one type of user's visual field range is set, but multiple types of visual field ranges with different widths may be set. For example, FIG. 22 shows an example in which the visual field range Θ1 at visual recognition level 1 is defined as α L ≤ Θ1 ≤ α R , and the visual field range Θ2 at
この場合、区間分類部13は、複数種類の視野範囲を考慮した区間分類処理を行う。すなわち区間分類部13は、複数種類の視野範囲それぞれに対応する特定地物可視区間を求める。また、表示制御部14は、複数種類の視野範囲のそれぞれに対応する特定地物可視区間を、それぞれ異なる表示態様で地図上に表示する。 In this case, the
例えば、視認レベル1の視野範囲Θ1を-90°≦Θ1≦90°、視認レベル2の視野範囲Θ2を-180°≦Θ2≦180°として定義する。図2に例示した地図において、地点P2は、特定地物であるパゴダPGが道路RD1の真横(-90°の方向)に見える地点であるので、区間分類部13は、走行予定経路である道路RD1に対し、パゴダPGが視認レベル1の視野範囲に見える区間P1-P2および区間P4-P5をレベル1の特定地物可視区間に分類し、パゴダPGが視認レベル1の視野範囲外になるが視認レベル2の視野範囲内に見える区間P2-P3をレベル2の特定地物可視区間に分類し、パゴダPGが見えない区間P0-P1、区間P3-P4および区間P5-P6を特定地物不可視区間に分類する。 For example, the visual field range Θ1 at visual recognition level 1 is defined as −90°≦Θ1≦90°, and the visual field range Θ2 at
よって、表示制御部14が表示装置22に表示させる地図では、図23のように、レベル1の特定地物可視区間として分類された区間P1-P2および区間P4-P5の表示態様と、レベル2の特定地物可視区間として分類された区間P2-P3の表示態様と、特定地物不可視区間として分類された区間P0-P1、区間P3-P4および区間P5-P6の表示態様とが、それぞれ異なるものとなる。 Therefore, in the map displayed on the
あるいは、図24のように、レベル1の特定地物可視区間として分類された区間P1-P2および区間P4-P5と、レベル2の特定地物可視区間として分類された区間P2-P3とで、互いに異なる色の扇形パターンが付されるようにしてもよい。このとき、図13および図14で説明したように、自車両が位置する区間に対してのみ、扇形パターンが表示されるようにしてもよい。 Alternatively, as shown in FIG. 24, between the section P1-P2 and the section P4-P5 classified as the level 1 specific feature visible section and the section P2-P3 classified as the
複数種類の視野範囲の定義の方法は図22に示した方法に限られない。例えば、運転者が直接視認可能な範囲をレベル1の視野範囲として定義し、運転者が後写鏡(電子ミラーを含む)を通して間接的に視認可能な範囲をレベル2の視野範囲として定義してもよい。 The method of defining multiple types of visual field ranges is not limited to the method shown in FIG. For example, the range that the driver can directly see is defined as the level 1 field of view, and the range that the driver can indirectly see through the rearview mirror (including electronic mirrors) is defined as the
<実施の形態4>
以上の実施の形態では、単一の地物が特定地物として指定されるものと仮定したが、実施の形態4では、ユーザは、地図表示制御装置10に対し、共通の属性を持つ複数の地物を特定地物として指定することができるものとする。例えば、ユーザは、特定地物として、固有のパゴダだけでなく、パゴダに属する建築物すべて、あるいは神社仏閣に属する建築物すべてを指定することができる。地物の属性としては、例えば、コンビニエンスストア、特定のブランドショップなど、どのようなものでもよい。<Embodiment 4>
In the above embodiments, it is assumed that a single feature is specified as a specific feature. It shall be possible to designate a feature as a specific feature. For example, the user can specify not only a specific pagoda but also all buildings belonging to pagodas or all buildings belonging to shrines and temples as specific features. Any attribute such as a convenience store or a specific brand shop may be used as the property attribute.
実施の形態4の地図表示制御装置10の構成および動作は、基本的に実施の形態2と同様である。ただし、実施の形態4では、区間分類部13が、複数の地物のそれぞれに関して、道路を特定地物可視区間と特定地物不可視区間とに分類する区間分類処理を行う。そして、表示制御部14は、特定地物可視区間の表示態様を、その特定地物可視区間から視認可能な特定地物の個数に応じて変更する。 The configuration and operation of the map
以下、表示制御部14が表示装置22に表示する地図の具体例を示しつつ、実施の形態4に係る地図表示制御装置10の動作を説明する。ここでは、区間分類部13は、地図データ取得部12が取得した地図データに含まれる道路のうち、自車両の通過予定経路に含まれる道路のみを、区間分類処理の対象とするものとする。 Hereinafter, the operation of the map
ここでは、ユーザが、パゴダに属する建築物すべてを特定地物として指定しており、地図データ取得部12が、表示装置22に表示する地図の地図データとして、図25のような地図の地図データを取得したと仮定する。図25の地図は、図2とほぼ同じであるが、山M2の中腹に、パゴダPGの他に、もう1つのパゴダPG2が存在する。パゴダPG2は、道路RD1からは地点PP1と地点PP2との間の区間(区間PP1-PP2)から視認可能である。 Here, the user designates all buildings belonging to pagodas as specific features, and the map
この場合、区間分類部13は、自車両の走行予定経路である道路RD1に対し、区間P1-P3および区間P4-P5をパゴダPGの特定地物可視区間として分類し、区間P0-P1、区間P3-P4および区間P5-P6をパゴダPGの特定地物不可視区間として分類する。さらに、区間分類部13は、区間PP1-PP2をパゴダPG2の特定地物可視区間として分類し、区間P0-PP1、区間PP2-P6をパゴダPG2の特定地物不可視区間として分類する。言い換えれば、区間分類部13は、区間P0-PP1、区間P3-P4および区間P5-P6をパゴダPG,PG2のどちらも見えない特定地物不可視区間として分類し、区間PP1-P1をパゴダPG2のみが視認可能な特定地物可視区間として分類し、区間P1-PP2をパゴダPG,PG2の両方が見える特定地物可視区間として分類し、区間PP2-P3、P4-P5をパゴダPGのみが視認可能な特定地物可視区間として分類する。 In this case, the
表示制御部14は、地図を表示装置22に表示させる際、例えば図26のように、パゴダPGもパゴダPG2も見えない特定地物不可視区間(区間P0-PP1、区間P3-P4および区間P5-P6)と、パゴダPGまたはパゴダPG2どちらか1つだけ見える特定地物可視区間(区間PP1-P1、区間PP2-P3およびP4-P5)と、パゴダPGおよびパゴダPG2の両方が見える特定地物可視区間(区間P1-PP2)とを、それぞれ異なる表示態様にする。これにより、ユーザは、各区間から幾つの特定地物(パゴダ)が見えるのかを認識できるようになる。 When the
また、表示制御部14は、例えば図27のように、パゴダPGの特定地物可視区間(区間P1-P3および区間P4-P5)と、パゴダPG2の特定地物可視区間(区間PP1-PP2)とに、互いに異なる扇形パターンが付されるようにしてもよい。この場合、2つの扇形パターンが重なる区間が、2つの特定地物が見える区間である。よって、ユーザは、扇形パターンの重なる数によって、各区間から見える特定地物の個数を認識できる。 Further, the
また、図15および図16を用いて説明した付加画像41,42は、実施の形態4にも適用してもよい。例えば、地図の画面の一部に、ユーザの位置を視点とする三次元地図の付加画像41を表示する場合、パゴダPGおよびパゴダPG2の両方が見える特定地物可視区間では、図28のように、三次元地図上にパゴダPGおよびパゴダPG2の両方が表示される。また例えば、地図の画面の一部に、ユーザが搭乗した車両(自車両)からの特定地物の方向を示す付加画像42を表示する場合、図29のように、パゴダPGおよびパゴダPG2の両方が見える特定地物可視区間では、特定地物の方向を示すサーチライトの光を模した図形422が2つ表示される。また、図示は省略するが、図17、図18および図19を用いて説明した、ヘッドアップディスプレイで表示させる付加画像43,44も、実施の形態4に適用してもよい。 Further, the
<ハードウェア構成例>
図30および図31は、それぞれ地図表示制御装置10のハードウェア構成の例を示す図である。図1または図6に示した地図表示制御装置10の構成要素の各機能は、例えば図30に示す処理回路50により実現される。すなわち、地図表示制御装置10は、ユーザにより指定された特定地物を記憶し、特定地物の情報を含む地図データを取得し、地図データに基づいて、地図データに含まれる道路を、特定地物を視認可能な区間である特定地物可視区間と、特定地物を視認不可能な区間である特定地物不可視区間とに分類する区間分類処理を行い、地図データおよび区間分類処理の結果に基づいて、道路の特定地物可視区間と特定地物不可視区間とを互いに異なる表示態様で示した地図を表示装置に表示する、ための処理回路50を備える。処理回路50は、専用のハードウェアであってもよいし、メモリに格納されたプログラムを実行するプロセッサ(中央処理装置(CPU:Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)とも呼ばれる)を用いて構成されていてもよい。<Hardware configuration example>
30 and 31 are diagrams showing examples of the hardware configuration of the map
処理回路50が専用のハードウェアである場合、処理回路50は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものなどが該当する。地図表示制御装置10の構成要素の各々の機能が個別の処理回路で実現されてもよいし、それらの機能がまとめて一つの処理回路で実現されてもよい。 When the
図31は、処理回路50がプログラムを実行するプロセッサ51を用いて構成されている場合における地図表示制御装置10のハードウェア構成の例を示している。この場合、地図表示制御装置10の構成要素の機能は、ソフトウェア等(ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせ)により実現される。ソフトウェア等はプログラムとして記述され、メモリ52に格納される。プロセッサ51は、メモリ52に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、地図表示制御装置10は、プロセッサ51により実行されるときに、ユーザにより指定された特定地物を記憶する処理と、特定地物の情報を含む地図データを取得する処理と、地図データに基づいて、地図データに含まれる道路を、特定地物を視認可能な区間である特定地物可視区間と、特定地物を視認不可能な区間である特定地物不可視区間とに分類する区間分類処理を行う処理と、地図データおよび区間分類処理の結果に基づいて、道路の特定地物可視区間と特定地物不可視区間とを互いに異なる表示態様で示した地図を表示装置に表示する処理と、が結果的に実行されることになるプログラムを格納するためのメモリ52を備える。換言すれば、このプログラムは、地図表示制御装置10の構成要素の動作の手順や方法をコンピュータに実行させるものであるともいえる。 FIG. 31 shows an example of the hardware configuration of the map
ここで、メモリ52は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)およびそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。 Here, the
以上、地図表示制御装置10の構成要素の機能が、ハードウェアおよびソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、地図表示制御装置10の一部の構成要素を専用のハードウェアで実現し、別の一部の構成要素をソフトウェア等で実現する構成であってもよい。例えば、一部の構成要素については専用のハードウェアとしての処理回路50でその機能を実現し、他の一部の構成要素についてはプロセッサ51としての処理回路50がメモリ52に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。 The configuration in which the functions of the components of the map
以上のように、地図表示制御装置10は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。 As described above, the map
なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。 In addition, within the scope of the invention, each embodiment can be freely combined, and each embodiment can be appropriately modified or omitted.
本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。 While the present invention has been described in detail, the foregoing description is, in all its aspects, illustrative and not intended to limit the invention. It is understood that numerous variations not illustrated can be envisioned without departing from the scope of the invention.
10 地図表示制御装置、11 特定地物記憶部、12 地図データ取得部、13 区間分類部、14 表示制御部、15 位置情報取得部、16 経路情報取得部、21 地図データ記憶装置、22 表示装置、23 操作入力装置、24 測位装置、25 走行予定経路設定部、30 ナビゲーションシステム、41~44 付加画像、51 プロセッサ、52 メモリ、60 ウィンドシールド。 10 map display control device 11 specific
Claims (20)
前記特定地物の情報を含む地図データを取得する地図データ取得部と、
前記地図データに基づいて、前記地図データに含まれる道路を、前記特定地物を視認可能な区間である特定地物可視区間と、前記特定地物を視認不可能な区間である特定地物不可視区間とに分類する区間分類処理を行う区間分類部と、
前記地図データおよび前記区間分類処理の結果に基づいて、前記道路の前記特定地物可視区間と前記特定地物不可視区間とを互いに異なる表示態様で示した地図を表示装置に表示する表示制御部と、
を備え、
前記区間分類部は、前記道路上の各地点における前記ユーザの視野範囲を考慮して、前記区間分類処理を行う、
地図表示制御装置。 a specific feature storage unit that stores specific features specified by a user;
a map data acquisition unit for acquiring map data including information on the specific feature;
Based on the map data, the road included in the map data is divided into a specific feature visible section, which is a section in which the specific feature is visible, and a specific feature invisible section, which is a section in which the specific feature is not visible. a section classification unit that performs section classification processing for classifying into sections;
a display control unit for displaying, on a display device, a map showing the specific feature visible section and the specific feature invisible section of the road in different display modes, based on the map data and the result of the section classification processing; ,
with
The section classification unit performs the section classification process in consideration of the user's visual field range at each point on the road.
Map display controller.
前記表示制御部は、前記地図上に前記ユーザの位置を示すアイコンを表示する、
請求項1に記載の地図表示制御装置。 further comprising a location information acquisition unit that acquires location information of the user;
The display control unit displays an icon indicating the position of the user on the map.
The map display control device according to claim 1.
請求項1に記載の地図表示制御装置。 The visual field range of the user at each point on the road is set according to the orientation of the vehicle when the vehicle boarded by the user passes through the point.
The map display control device according to claim 1.
請求項3に記載の地図表示制御装置。 The width of the right side and the width of the left side from the front of the vehicle in the visual field range are set independently of each other.
The map display control device according to claim 3.
請求項1に記載の地図表示制御装置。 The width of the visual field range of the user at each point on the road can be set to a different value at each point.
The map display control device according to claim 1.
請求項3に記載の地図表示制御装置。 The size of the visual field range of the user at each point on the road is set according to the driving environment when the vehicle passes through the point or the road attribute of the point.
The map display control device according to claim 3.
請求項3に記載の地図表示制御装置。 The width of the visual field range of the user at each point on the road is set according to the automated driving level when the vehicle passes through that point.
The map display control device according to claim 3.
請求項1に記載の地図表示制御装置。 configured so that the user can designate a single feature or a plurality of features having a common attribute as the specific feature,
The map display control device according to claim 1.
請求項1に記載の地図表示制御装置。 When a plurality of specific features are stored in the specific feature storage unit, the display mode of the specific feature visible section is determined according to the number of specific features visible from the specific feature visible section. Be changed,
The map display control device according to claim 1.
前記特定地物の情報を含む地図データを取得する地図データ取得部と、
前記地図データに基づいて、前記地図データに含まれる道路を、前記特定地物を視認可能な区間である特定地物可視区間と、前記特定地物を視認不可能な区間である特定地物不可視区間とに分類する区間分類処理を行う区間分類部と、
前記地図データおよび前記区間分類処理の結果に基づいて、前記道路の前記特定地物可視区間と前記特定地物不可視区間とを互いに異なる表示態様で示した地図を表示装置に表示する表示制御部と、
前記ユーザの位置の情報を取得する位置情報取得部と、
を備え、
前記表示制御部は、前記地図上に前記ユーザの位置を示すアイコンを表示するとともに、前記特定地物が見える方向を示す付加画像を前記地図の表示画面の一部に表示し、
前記付加画像は、前記ユーザの位置を視点とする三次元地図の画像である、
地図表示制御装置。 a specific feature storage unit that stores specific features specified by a user;
a map data acquisition unit for acquiring map data including information on the specific feature;
Based on the map data, the road included in the map data is divided into a specific feature visible section, which is a section in which the specific feature is visible, and a specific feature invisible section, which is a section in which the specific feature is not visible. a section classification unit that performs section classification processing for classifying into sections;
a display control unit for displaying, on a display device, a map showing the specific feature visible section and the specific feature invisible section of the road in different display modes, based on the map data and the result of the section classification processing; ,
a location information acquisition unit that acquires location information of the user;
with
The display control unit displays an icon indicating the position of the user on the map, and displays an additional image indicating a direction in which the specific feature is visible on a part of the display screen of the map,
The additional image is an image of a three-dimensional map with the position of the user as a viewpoint,
Map display controller.
前記特定地物の情報を含む地図データを取得する地図データ取得部と、
前記地図データに基づいて、前記地図データに含まれる道路を、前記特定地物を視認可能な区間である特定地物可視区間と、前記特定地物を視認不可能な区間である特定地物不可視区間とに分類する区間分類処理を行う区間分類部と、
前記地図データおよび前記区間分類処理の結果に基づいて、前記道路の前記特定地物可視区間と前記特定地物不可視区間とを互いに異なる表示態様で示した地図を表示装置に表示する表示制御部と、
前記ユーザの位置の情報を取得する位置情報取得部と、
を備え、
前記表示制御部は、前記地図上に前記ユーザの位置を示すアイコンを表示するとともに、前記特定地物が見える方向を示す付加画像を前記地図の表示画面の一部に表示し、
前記付加画像は、前記特定地物の方向を撮影した実写画像である、
地図表示制御装置。 a specific feature storage unit that stores specific features specified by a user;
a map data acquisition unit for acquiring map data including information on the specific feature;
Based on the map data, the road included in the map data is divided into a specific feature visible section, which is a section in which the specific feature is visible, and a specific feature invisible section, which is a section in which the specific feature is not visible. a section classification unit that performs section classification processing for classifying into sections;
a display control unit for displaying, on a display device, a map showing the specific feature visible section and the specific feature invisible section of the road in different display modes, based on the map data and the result of the section classification processing; ,
a location information acquisition unit that acquires location information of the user;
with
The display control unit displays an icon indicating the position of the user on the map, and displays an additional image indicating a direction in which the specific feature is visible on a part of the display screen of the map,
The additional image is a photographed image taken in the direction of the specific feature,
Map display controller.
請求項2に記載の地図表示制御装置。 The display control unit uses a head-up display to display an additional image indicating the direction in which the specific feature is visible on a screen that the user can see through.
3. The map display control device according to claim 2.
前記区間分類部は、前記地図データに含まれる道路のうち前記通過予定経路に含まれる道路を、前記区間分類処理の対象とする、
請求項2に記載の地図表示制御装置。 further comprising a route information acquisition unit that acquires information on the user's scheduled passage route,
The section classification unit subjects roads included in the planned passage route among roads included in the map data to the section classification process.
3. The map display control device according to claim 2.
請求項13に記載の地図表示制御装置。 In a route simulation in which an icon indicating the virtual position of the user is moved along the planned passage route on the map, an image of the specific feature is included when the icon is within the specific feature visible section. , displaying a three-dimensional map image with the user's virtual position as a viewpoint on a part of the route simulation screen;
The map display control device according to claim 13 .
前記区間分類部は、前記区間分類処理を前記道路の車線ごとに行い、
前記走行予定経路の道路に車線が複数ある場合に、車線ごとの前記特定地物可視区間の情報、あるいは、前記特定地物可視区間の距離を長くできる車線の情報を、前記車両のナビゲーションシステムまたは自動運転システムに提供する
請求項13に記載の地図表示制御装置。 The planned passage route is a planned travel route of the vehicle boarded by the user,
The section classification unit performs the section classification process for each lane of the road,
When the road on the planned travel route has a plurality of lanes, the navigation system of the vehicle or Providing for autonomous driving systems
The map display control device according to claim 13 .
前記表示制御部は、複数種類の前記視野範囲のそれぞれに対応する前記特定地物可視区間を、それぞれ異なる表示態様で前記地図上に表示する
請求項1に記載の地図表示制御装置。 The section classification unit performs the section classification process by setting a plurality of types of the visual field ranges having different widths,
2. The map display control device according to claim 1, wherein the display control unit displays the specific feature visible sections corresponding to each of the plurality of types of visual field ranges on the map in different display modes.
請求項1に記載の地図表示制御装置。 The user's field of vision includes a range visible to the user through a rearview mirror or an electronic mirror of the vehicle in which the user boarded,
The map display control device according to claim 1.
前記地図表示制御装置の地図データ取得部が、前記特定地物の情報を含む地図データを取得し、
前記地図表示制御装置の区間分類部が、前記地図データに基づいて、前記地図データに含まれる道路を、前記特定地物を視認可能な区間である特定地物可視区間と、前記特定地物を視認不可能な区間である特定地物不可視区間とに分類する区間分類処理を行い、
前記地図表示制御装置の表示制御部が、前記地図データおよび前記区間分類処理の結果に基づいて、前記道路の前記特定地物可視区間と前記特定地物不可視区間とを互いに異なる表示態様で示した地図を表示装置に表示し、
前記区間分類部は、前記道路上の各地点における前記ユーザの視野範囲を考慮して、前記区間分類処理を行う、
地図表示制御方法。 The specific feature storage unit of the map display control device stores the specific feature designated by the user,
A map data acquisition unit of the map display control device acquires map data including information of the specific feature,
Based on the map data, the section classification unit of the map display control device divides the roads included in the map data into specific feature visible sections, which are sections in which the specific feature is visible, and the specific feature. Perform section classification processing to classify into specific feature invisible sections that are invisible sections,
The display control unit of the map display control device displays the specific feature visible section and the specific feature invisible section of the road in different display modes based on the map data and the result of the section classification processing. Display the map on the display device,
The section classification unit performs the section classification process in consideration of the user's visual field range at each point on the road.
Map display control method.
前記地図表示制御装置の地図データ取得部が、前記特定地物の情報を含む地図データを取得し、
前記地図表示制御装置の区間分類部が、前記地図データに基づいて、前記地図データに含まれる道路を、前記特定地物を視認可能な区間である特定地物可視区間と、前記特定地物を視認不可能な区間である特定地物不可視区間とに分類する区間分類処理を行い、
前記地図表示制御装置の表示制御部が、前記地図データおよび前記区間分類処理の結果に基づいて、前記道路の前記特定地物可視区間と前記特定地物不可視区間とを互いに異なる表示態様で示した地図を表示装置に表示し、
前記地図表示制御装置の位置情報取得部が、前記ユーザの位置の情報を取得し、
前記表示制御部は、前記地図上に前記ユーザの位置を示すアイコンを表示するとともに、前記特定地物が見える方向を示す付加画像を前記地図の表示画面の一部に表示し、
前記付加画像は、前記ユーザの位置を視点とする三次元地図の画像である、
地図表示制御方法。 The specific feature storage unit of the map display control device stores the specific feature specified by the user,
A map data acquisition unit of the map display control device acquires map data including information of the specific feature,
Based on the map data, the section classification unit of the map display control device divides the roads included in the map data into specific feature visible sections, which are sections in which the specific feature is visible, and the specific feature. Perform section classification processing to classify into specific feature invisible sections that are invisible sections,
The display control unit of the map display control device displays the specific feature visible section and the specific feature invisible section of the road in different display modes based on the map data and the result of the section classification processing. Display the map on the display device,
a location information acquisition unit of the map display control device acquires location information of the user;
The display control unit displays an icon indicating the position of the user on the map, and displays an additional image indicating a direction in which the specific feature is visible on a part of the display screen of the map,
The additional image is an image of a three-dimensional map with the position of the user as a viewpoint,
Map display control method.
前記地図表示制御装置の地図データ取得部が、前記特定地物の情報を含む地図データを取得し、
前記地図表示制御装置の区間分類部が、前記地図データに基づいて、前記地図データに含まれる道路を、前記特定地物を視認可能な区間である特定地物可視区間と、前記特定地物を視認不可能な区間である特定地物不可視区間とに分類する区間分類処理を行い、
前記地図表示制御装置の表示制御部が、前記地図データおよび前記区間分類処理の結果に基づいて、前記道路の前記特定地物可視区間と前記特定地物不可視区間とを互いに異なる表示態様で示した地図を表示装置に表示し、
前記地図表示制御装置の位置情報取得部が、前記ユーザの位置の情報を取得し、
前記表示制御部は、前記地図上に前記ユーザの位置を示すアイコンを表示するとともに、前記特定地物が見える方向を示す付加画像を前記地図の表示画面の一部に表示し、
前記付加画像は、前記特定地物の方向を撮影した実写画像である、
地図表示制御方法。 The specific feature storage unit of the map display control device stores the specific feature designated by the user,
A map data acquisition unit of the map display control device acquires map data including information of the specific feature,
Based on the map data, the section classification unit of the map display control device divides the roads included in the map data into specific feature visible sections, which are sections in which the specific feature is visible, and the specific feature. Perform section classification processing to classify into specific feature invisible sections that are invisible sections,
The display control unit of the map display control device displays the specific feature visible section and the specific feature invisible section of the road in different display modes based on the map data and the result of the section classification processing. Display the map on the display device,
a location information acquisition unit of the map display control device acquires location information of the user;
The display control unit displays an icon indicating the position of the user on the map, and displays an additional image indicating a direction in which the specific feature is visible on a part of the display screen of the map,
The additional image is a photographed image taken in the direction of the specific feature,
Map display control method.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/039593 WO2021070238A1 (en) | 2019-10-08 | 2019-10-08 | Map display control device and map display control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021070238A1 JPWO2021070238A1 (en) | 2021-04-15 |
JP7275294B2 true JP7275294B2 (en) | 2023-05-17 |
Family
ID=75437339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021550968A Active JP7275294B2 (en) | 2019-10-08 | 2019-10-08 | MAP DISPLAY CONTROL DEVICE AND MAP DISPLAY CONTROL METHOD |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7275294B2 (en) |
WO (1) | WO2021070238A1 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009068866A (en) | 2007-09-11 | 2009-04-02 | Clarion Co Ltd | Display device for sightseeing information, navigation device, and sightseeing information display system |
JP2009204392A (en) | 2008-02-27 | 2009-09-10 | Alpine Electronics Inc | Navigation apparatus |
JP2011107025A (en) | 2009-11-19 | 2011-06-02 | Clarion Co Ltd | Navigation system |
JP2011203149A (en) | 2010-03-26 | 2011-10-13 | Zenrin Co Ltd | Guide system |
JP2014037172A (en) | 2012-08-13 | 2014-02-27 | Alpine Electronics Inc | Display controller and display control method for head-up display |
JP2014041160A (en) | 2013-11-21 | 2014-03-06 | Clarion Co Ltd | Map display device |
JP2014089140A (en) | 2012-10-31 | 2014-05-15 | Aisin Aw Co Ltd | Intersection guide system, method and program |
JP2015102520A (en) | 2013-11-28 | 2015-06-04 | アイシン・エィ・ダブリュ株式会社 | On-vehicle apparatus control system, on-vehicle apparatus control method, and on-vehicle apparatus control program |
-
2019
- 2019-10-08 JP JP2021550968A patent/JP7275294B2/en active Active
- 2019-10-08 WO PCT/JP2019/039593 patent/WO2021070238A1/en active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009068866A (en) | 2007-09-11 | 2009-04-02 | Clarion Co Ltd | Display device for sightseeing information, navigation device, and sightseeing information display system |
JP2009204392A (en) | 2008-02-27 | 2009-09-10 | Alpine Electronics Inc | Navigation apparatus |
JP2011107025A (en) | 2009-11-19 | 2011-06-02 | Clarion Co Ltd | Navigation system |
JP2011203149A (en) | 2010-03-26 | 2011-10-13 | Zenrin Co Ltd | Guide system |
JP2014037172A (en) | 2012-08-13 | 2014-02-27 | Alpine Electronics Inc | Display controller and display control method for head-up display |
JP2014089140A (en) | 2012-10-31 | 2014-05-15 | Aisin Aw Co Ltd | Intersection guide system, method and program |
JP2014041160A (en) | 2013-11-21 | 2014-03-06 | Clarion Co Ltd | Map display device |
JP2015102520A (en) | 2013-11-28 | 2015-06-04 | アイシン・エィ・ダブリュ株式会社 | On-vehicle apparatus control system, on-vehicle apparatus control method, and on-vehicle apparatus control program |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021070238A1 (en) | 2021-04-15 |
WO2021070238A1 (en) | 2021-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11113544B2 (en) | Method and apparatus providing information for driving vehicle | |
JP4921462B2 (en) | Navigation device with camera information | |
US7920966B2 (en) | Navigation apparatuses, methods, and programs | |
EP3467802B1 (en) | Object detection method and object detection device | |
US11131550B2 (en) | Method for generating road map for vehicle navigation and navigation device | |
EP3260817B1 (en) | Method, apparatus and computer program product for a navigation user interface | |
JP4923647B2 (en) | Driving support image display device and program | |
JP2022535351A (en) | System and method for vehicle navigation | |
US9874456B2 (en) | Method, apparatus and computer program product for providing a destination preview | |
JP2021041913A (en) | Autonomous vehicle user interface with predicted trajectory | |
US20080167811A1 (en) | Navigation device and method for displaying navigation information | |
JP4705170B2 (en) | Navigation device and method for scrolling map data displayed on navigation device | |
EP1681538A1 (en) | Junction view with 3-dimensional landmarks for a navigation system for a vehicle | |
US6591190B2 (en) | Navigation system | |
CN110196056B (en) | Method and navigation device for generating a road map for automatic driving vehicle navigation and decision-making | |
JP2006217447A (en) | Vehicle display apparatus | |
JP2009500765A (en) | Method for determining traffic information and apparatus configured to perform the method | |
US10853667B2 (en) | Method and apparatus with linearity detection | |
JP2021037936A (en) | Autonomous vehicle user interface with predicted trajectories | |
CN112319501A (en) | Autonomous vehicle user interface with predicted trajectory | |
KR20140000488A (en) | Method for guiding turn point of crossroad and navigation system | |
JP7275294B2 (en) | MAP DISPLAY CONTROL DEVICE AND MAP DISPLAY CONTROL METHOD | |
JP7344182B2 (en) | information processing equipment | |
JP6542085B2 (en) | INFORMATION PROCESSING APPARATUS, METHOD, AND PROGRAM | |
JP2011022152A (en) | Navigation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210908 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230502 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7275294 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |