WO2015012010A1 - 運転支援システム、方法およびプログラム - Google Patents

運転支援システム、方法およびプログラム Download PDF

Info

Publication number
WO2015012010A1
WO2015012010A1 PCT/JP2014/065321 JP2014065321W WO2015012010A1 WO 2015012010 A1 WO2015012010 A1 WO 2015012010A1 JP 2014065321 W JP2014065321 W JP 2014065321W WO 2015012010 A1 WO2015012010 A1 WO 2015012010A1
Authority
WO
WIPO (PCT)
Prior art keywords
destination
frontage
display
display position
image
Prior art date
Application number
PCT/JP2014/065321
Other languages
English (en)
French (fr)
Inventor
佐藤 裕司
森 俊宏
功一 中尾
Original Assignee
アイシン・エィ・ダブリュ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイシン・エィ・ダブリュ株式会社 filed Critical アイシン・エィ・ダブリュ株式会社
Priority to US14/901,145 priority Critical patent/US9791287B2/en
Priority to EP14829813.6A priority patent/EP2988097B1/en
Priority to CN201480035375.XA priority patent/CN105324637B/zh
Publication of WO2015012010A1 publication Critical patent/WO2015012010A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/006Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes
    • G09B29/007Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes using computer methods

Definitions

  • the present invention relates to a driving support system, method, and program.
  • Patent Document 1 discloses a technique for synthesizing an image of an arrow indicating a target landscape position with an image taken by a camera.
  • the target landscape position in the image taken by the camera is specified based on the current location of the vehicle. Therefore, the target landscape position in the image depends on the current location of the vehicle.
  • a position error will occur. If an error occurs, an arrow indicating the target landscape position may be displayed at a position different from the target landscape position. Yes, in such a case, the user is misunderstood.
  • an arrow pointing to the destination landscape position is displayed behind the destination landscape position, a user who is driving the vehicle using the arrow pointing to the destination landscape position passes the destination. A case will occur.
  • the present invention has been made in view of the above problems, and a technique capable of suppressing the occurrence of a situation of passing through a destination in a configuration in which a destination icon indicating the destination is superimposed on a landscape. The purpose is to provide.
  • a driving support system is a navigation system that displays an image in which a destination icon indicating a destination is superimposed on a landscape ahead of a moving body on a display unit, and the road on which the moving body exists
  • the frontage length acquisition means for acquiring the length of the frontage along the destination, and the maximum error that is the maximum error between the estimated position of the moving body and the actual position that can occur in the direction of the road where the moving body exists.
  • a driving support method is a driving support method for displaying an image in which a destination icon indicating a destination is superimposed on a landscape in front of a moving object on a display unit. It is the maximum value of the error between the estimated length of the moving body and the actual position that can occur in the direction of the road where the moving body exists, and the frontage length obtaining step of obtaining the length of the frontage of the destination along the existing road.
  • the maximum error acquisition process for acquiring the maximum error, and when the error is 0, the display position of the destination icon is the position within the frontage, and when the error is the maximum error, the display position of the destination icon is within the frontage.
  • Display position specifying step for specifying the display position of the destination icon based on the estimated position of the moving body so that the position is in front of or the position of the destination, and display of the destination icon in the landscape ahead of the moving body Destination to position
  • the driving support program is a driving support program that causes a computer to realize a function of displaying an image in which a destination icon indicating a destination is superimposed on a landscape ahead of a moving object on a display unit.
  • a frontage length acquisition function that acquires the length of the frontage of the destination along the road where the moving body exists, the estimated position of the moving body that can occur in the direction of the road where the moving body exists, and the actual
  • a maximum error acquisition function for acquiring a maximum error that is a maximum value of an error from the position, and when the error is 0, the display position of the destination icon is the position in the frontage, and the error is the maximum
  • the destination icon is displayed based on the estimated position of the moving body so that the display position of the destination icon is a position in the frontage or a position in front of the destination.
  • a display position specifying function for specifying a display position, and an image display function for displaying an image in which the destination icon is superimposed on a display position of the destination icon in a landscape in front of the moving body on the display unit. It is configured to be realized.
  • the above-described driving support system, driving support method, or driving support program uses the destination icon display position when the error is 0 and the destination icon when the error is the maximum error.
  • the display position of the destination icon is specified on the basis of the estimated position of the mobile body so that the display position of is a position in the frontage or a position before the destination.
  • the destination icon when the error is 0, the destination icon is displayed at the position in the frontage, and even if the error is the maximum error, the display position of the destination icon is the position in the frontage at the destination or It will be in front of the destination. Therefore, the destination icon is not displayed at a position behind the destination, and it is possible to suppress the occurrence of a situation where the destination icon passes through the destination.
  • FIG. 1 is a block diagram showing a configuration of a navigation system 10 including a driving support system according to the present invention.
  • the navigation system 10 is provided in a vehicle as a moving body, and includes a control unit 20 including a CPU, a RAM, a ROM, and the like, and a recording medium 30.
  • the navigation system 10 can execute a program such as the navigation program 21 stored in the recording medium 30 or the ROM by the control unit 20.
  • the vehicle includes a GPS receiver 41, a vehicle speed sensor 42, a gyro sensor 43, a camera 44, and a user I / F unit 45.
  • the GPS receiver 41 receives a radio wave from a GPS satellite and outputs a signal indicating a signal for calculating an estimated position of the vehicle via an interface (not shown).
  • the vehicle speed sensor 42 outputs a signal corresponding to the rotational speed of the wheels provided in the vehicle.
  • the control unit 20 acquires this signal via an interface (not shown) and acquires the vehicle speed.
  • the gyro sensor 43 detects angular acceleration about turning in the horizontal plane of the vehicle, and outputs a signal corresponding to the direction of the vehicle.
  • the control unit 20 acquires output information of the vehicle speed sensor 42, the gyro sensor 43, and the like as self-contained navigation information.
  • the navigation program 21 performs a map matching process based on the self-contained navigation information, specifies an estimated position of the vehicle on the road (estimated position of the navigation system 10), and has a function of displaying the estimated position on the map. 20 can be executed. Further, the navigation program 21 searches for a planned route from the estimated position to the destination set by the user, and guides the vehicle along the planned route while displaying a map around the estimated position and the planned route on the display unit. Thus, the function of guiding the user to the destination can be executed by the control unit 20.
  • control unit 20 performs a plurality of comparison target roads where the estimated position of the vehicle can exist based on the self-contained navigation information which is output information of the vehicle speed sensor 42 and the gyro sensor 43 and the map information 30a by the processing of the navigation program 21.
  • the vehicle After setting and narrowing down the comparison target road based on the error circle of the GPS signal acquired by the GPS receiver 41, the vehicle travels on the road where the shape of the comparison target road and the self-contained navigation locus are the best match.
  • a map matching process that regards the road as a road is performed, and an estimated position is identified on the road identified by the map matching process.
  • map information 30a and error information 30b are recorded in advance.
  • the map information 30a is information used to specify the position of the vehicle and the facility to be guided, and specifies node data indicating the position of the node set on the road on which the vehicle travels, and the shape of the road between the nodes. It includes shape interpolation point data indicating the position of the shape interpolation point to be performed, link data indicating connection between nodes, facility data indicating facilities existing on the road and its surroundings, and the like.
  • the facility data is associated with information such as the type of facility, the location of the facility (in this embodiment, the center point of the site where the facility exists), the name, and the like.
  • site shape data which is information indicating the shape of the site of the facility, is associated with a part of the facility (for example, a facility determined in advance as a facility that is likely to be set as a destination). It has been.
  • the site shape data is polygon data for expressing the shape of the site where the destination exists and the shape of the building on the site by a plurality of polygons.
  • the site shape data is data indicating polygons formed by dividing the site and the surface of the building, and the shape of each polygon and the reference position (location of the facility defined in the map information 30a). It is data which shows a relative position. Therefore, the control unit 20 can reproduce the shape of the site where the destination exists and the shape of the building on the site by arranging polygons in a virtual three-dimensional space according to the data.
  • the map information 30a includes information in which the length of the frontage is associated with each of the plurality of facility types. Specifically, information in which 20 m, 30 m, 40 m, 60 m, and 10 m are associated with each of a convenience store, a gas station, a supermarket, a department store, and other facilities is included.
  • the error information 30b is the maximum value of the error between the estimated position acquired by the processing of the navigation program 21 and the actual position of the vehicle, and is the maximum value of the error that can occur in the direction of the road where the vehicle exists. This is information indicating the maximum error.
  • the estimated position may differ from the actual position, but an error occurs in the direction of the road where the vehicle exists due to the difference in position.
  • the maximum value of the error can be estimated in advance.
  • the accuracy of the estimated position varies depending on the reception status of the GPS signal by the GPS receiver 41 (the magnitude of the signal, the number of satellites from which the signal was acquired, the status of surrounding buildings), and the like. Further, when the map matching process is performed based on the estimated position estimated by the vehicle speed sensor 42 or the gyro sensor 43, the accuracy of the estimated position decreases as the elapsed time after passing through a specific road shape (curve or the like) is longer. Then it can be considered.
  • the estimated position becomes longer as the elapsed time after identifying the estimated position is longer It can be assumed that the accuracy of is reduced. Therefore, it is possible to estimate the maximum value of the error in advance based on such various error factors.
  • an error can occur in any of the front and rear directions of the road where the vehicle exists, but in general, it is often unknown in which direction the error occurs. In this case, it is preferable not to define the direction on the road where the vehicle exists as an error, but to define only the magnitude of the error. Therefore, in the present embodiment, the maximum value of the error that occurs in the front-rear direction of the road where the vehicle exists is specified by the above estimation, and the maximum error of the fixed value is defined only by the magnitude of the error without specifying the direction. ing. For example, when the maximum error is 1 m, it is assumed that the maximum deviation is 1 m in either of the front and rear directions of the road where the vehicle exists.
  • the camera 44 is attached to a ceiling portion inside the windshield of the vehicle, captures a landscape in front of the vehicle at regular time intervals, generates image information indicating the captured landscape, and outputs the image information.
  • the control unit 20 can acquire image information output from the camera 44 and perform image analysis or image processing for display on the display unit.
  • the user I / F unit 45 is an interface unit for providing various information to the driver, and includes a display unit, a speaker, an input unit, and the like (not shown).
  • the control unit 20 can output image information of an image showing a landscape photographed by the camera 44 to the display unit, and display the landscape on the display unit. Further, the control unit 20 generates image information in which an arbitrary image (guide map or the like) is superimposed on the image information of the landscape and outputs the image information to the display unit, thereby superimposing the arbitrary image on the landscape. Can be displayed.
  • the control unit 20 receives a destination input by the driver via the input unit of the user I / F unit 45 by a function of the navigation program 21 (not shown), and searches for a planned route from the current location of the vehicle to the destination. Further, the control unit 20 can perform route guidance for instructing a planned route to the driver of the vehicle by the function of the navigation program 21.
  • the navigation program 21 controls a function of superimposing a destination icon indicating a destination on an image indicating a landscape in front of the vehicle around the destination and displaying the superimposed icon on the display unit of the user I / F unit 45. It can be executed by the unit 20.
  • the navigation program 21 includes a frontage length obtaining unit 21a, a maximum error obtaining unit 21b, a display position specifying unit 21c, and an image display unit 21d.
  • the frontage length obtaining unit 21a is a module that causes the control unit 20 to realize a function of obtaining the length of the frontage of the destination along the road where the vehicle exists. That is, the control unit 20 acquires the length of the frontage of the facility set as the destination by the user.
  • site shape data is associated with some facilities. Therefore, when the site shape data is associated with the destination facility, the control unit 20 refers to the site shape data and acquires the length of the frontage of the destination. On the other hand, when the site shape data is not associated with the destination facility, the control unit 20 acquires the type of the destination facility based on the facility data included in the map information 30a. Further, the control unit 20 refers to information in which the length of the frontage is associated with each type of facility, and acquires the length of the frontage of the type of facility at the destination.
  • the maximum error acquisition unit 21b is a module that causes the control unit 20 to realize a function of acquiring a maximum error that is a maximum value of an error between the estimated position of the vehicle and the actual position that can occur in the direction of the road where the vehicle exists. . That is, the control unit 20 acquires the maximum error with reference to the error information 30b by the processing of the maximum error acquisition unit 21b.
  • the display position specifying unit 21c sets the destination icon display position within the frontage, and when the error is the maximum error, the display position of the destination icon is the position within the frontage or the destination.
  • This is a module that causes the control unit 20 to realize the function of specifying the display position of the destination icon based on the estimated position of the vehicle so that the position is closer to the ground.
  • the destination icon indicating the destination is superimposed on the image indicating the scenery in front of the vehicle around the destination, the destination of the destination icon is shifted from the intended position. It is configured not to pass through the ground.
  • the display position is specified so that the destination icon is displayed in the frontage of the destination based on the estimated position of the vehicle and the position of the destination indicated by the map information 30a. If there is no error in the actual position, the destination icon is displayed in the frontage of the destination. In this case, it is unlikely that a user who aims at the destination based on the display passes through the destination.
  • the display position of the destination icon does not become the intended position, and shifts in the front-rear direction of the road where the vehicle exists. Therefore, when the error is the maximum error, the display position of the destination icon is specified based on the estimated position of the vehicle so that the display position of the destination icon is a position in the frontage or a position in front of the destination. For example, when the error is the maximum error, it is possible to suppress the possibility that the destination icon is displayed at a position behind the destination.
  • the control unit 20 sets the display position of the destination icon to the position in the frontage, and when the error is the maximum error, the display position of the destination icon is the position in the frontage or the destination.
  • the display position of the destination icon is specified based on the estimated position of the vehicle so that the position is closer to the ground.
  • the display position is specified as a coordinate in real space.
  • the image display unit 21d is a module that causes the control unit 20 to realize a function of displaying on the display unit an image in which the destination icon is superimposed on the display position of the destination icon in the scenery in front of the vehicle. That is, since the display position of the destination icon is specified by coordinates in the real space, the control unit 20 determines which display position of the destination icon is in the image showing the scenery in front of the vehicle photographed by the camera 44. Analyze whether it corresponds to a pixel. Specifically, in the present embodiment, in the image included in the landscape photographed by the camera 44, the distance in real space between the road and the vehicle photographed with pixels at an arbitrary position is determined from the viewing angle of the camera 44. It is specified in advance, and a pixel and a distance are associated with each other in advance.
  • the control unit 20 specifies the distance between the display position acquired by the processing of the display position specifying unit 21c and the vehicle, and specifies the pixel corresponding to the distance on the boundary line between the road and the destination. Then, the control unit 20 generates a control signal for displaying a captured image by the camera 44 by superimposing a destination icon having a predetermined shape on the pixel, and displays the control signal for the display unit of the user I / F unit 45. Output. As a result, on the display unit of the user I / F unit 45, an image in which a destination icon is superimposed on an image captured by the camera 44 is displayed.
  • the destination icon when the error between the estimated position of the vehicle and the actual position is 0, the destination icon is displayed at the position in the frontage, and the display position of the destination icon is displayed even if the error is the maximum error. Is a position in the frontage of the destination or a position in front of the destination. Therefore, the destination icon is not displayed at a position behind the destination, and it is possible to suppress the occurrence of a situation where the destination icon passes through the destination.
  • the near side indicates the rear side in the traveling direction of the vehicle on the road where the vehicle exists
  • the far side indicates the forward side in the traveling direction of the vehicle on the road where the vehicle exists.
  • FIG. 2 is a flowchart showing a driving support process executed by the navigation program 21, and FIGS. 3 and 4 show examples of roads R on which vehicles are present on the left side, and images that can be displayed on the display unit on the roads R. An example is shown on the right.
  • the driving support process shown in FIG. 2 will be described with reference to the examples shown in FIGS. 3 and 4 as appropriate.
  • the driving support process is executed every predetermined period (for example, 100 ms) in a state where the control unit 20 receives the destination setting by the navigation program process and determines the planned route to the destination. Is done.
  • the destination can be set by designating a facility, and can also be set by arbitrary coordinates (latitude and longitude) in real space.
  • the control unit 20 acquires the distance from the current position to the destination by the process of the navigation program 21 (step S100). That is, the control unit 20 specifies the current location of the vehicle based on the output signals of the GPS receiving unit 41, the vehicle speed sensor 42, the gyro sensor 43, and the map information 30a. Further, when the destination is set by designating the facility, the control unit 20 refers to the facility data of the facility at the destination included in the map information 30a, and identifies the location of the facility as the destination. On the other hand, when the destination is set by coordinates in the real space, the control unit 20 specifies the position of the coordinates as the destination. And the control part 20 acquires the distance of the present location and destination of a vehicle. 3 and 4 show an example in which the destination facility G exists along the road R where the vehicle exists.
  • control unit 20 determines whether or not the distance to the destination is equal to or smaller than the predetermined distance by the processing of the navigation program 21 (step S105), and determines that the distance to the destination is equal to or smaller than the predetermined distance. If not, the control unit 20 ends the driving support process. In the present embodiment, since the driving support process is executed every predetermined period, steps S100 and S105 are repeated until it is determined that the distance to the destination is equal to or less than the predetermined distance.
  • step S105 when it is determined in step S105 that the distance to the destination is equal to or less than the predetermined distance, the control unit 20 acquires the maximum error by the processing of the maximum error acquisition unit 21b (step S110). That is, the control unit 20 refers to the error information 30b and acquires the maximum error.
  • control unit 20 determines whether or not the destination is designated by coordinates by the processing of the display position specifying unit 21c (step S115). In step S115, when it is not determined that the destination is designated by coordinates, that is, when the destination is set by designating the facility, the control unit 20 performs the processing of the display position specifying unit 21c to process the destination site. It is determined whether or not shape data exists (step S120). That is, the control unit 20 determines that the site shape data of the destination exists when the site information associated with the facility set as the destination is included in the map information 30a.
  • step S120 When it is determined in step S120 that the site shape data of the destination exists, the control unit 20 determines the end points on the near side and the back side of the frontage based on the site shape data by the processing of the display position specifying unit 21c. Obtain (step S125). That is, the relationship between the unit distance in the virtual three-dimensional space assumed in the present embodiment and the unit distance in the real space is determined in advance, and the control unit 20 performs a virtual operation based on the site shape data.
  • the shape of the site of the facility in a typical three-dimensional space and specifying the end point of the frontage the position of the end point of the frontage in the real space is specified.
  • control unit 20 sets the position of the facility as the destination at an arbitrary position in the virtual three-dimensional space. Furthermore, the control unit 20 arranges the polygon indicated by the site shape data on the virtual three-dimensional space with reference to the location of the facility, so that the shape of the destination site and the building on the site can be changed. Reproduce the shape in a virtual three-dimensional space.
  • the control unit 20 specifies a boundary line along the road where the vehicle exists from the boundary line of the site, and the boundary line ,
  • the end point located on the rear side in the traveling direction of the road is obtained as the end point on the near side
  • the end point located on the front side is obtained as the end point on the back side.
  • control part 20 specifies the position (coordinate) in the real space of the facility which is a destination based on the map information 30a, the unit distance in virtual three-dimensional space, and the unit in real space From the relationship with the distance, the positions of the end points on the near side and the end points on the far side are specified in real space.
  • the site of the destination G shown along the road R on the left side of FIGS. 3 and 4 has a rectangular shape, and the boundary line formed by the road R and one side of the rectangle contacting each other forms a frontage (thick straight line). is doing.
  • step S125 is executed, in the 3 position of the front end point P 13 is obtained in the real space, the position of the back side of the end point P 12 is obtained in the real space.
  • the position of the end point P 23 on the near side is acquired in the real space
  • the position of the end point P 22 on the back side is acquired in the real space.
  • control part 20 acquires the length of the frontage of the destination by the process of the frontage length acquisition part 21a (step S130). That is, the control unit 20 acquires the distance between the end points in the real space acquired in step S125 as the length of the frontage. For example, the distance L 11 between the end points P 13, P 12 is obtained in FIG. 3, the distance L 21 between the end points P 23, P 22 in FIG. 4 is obtained.
  • step S120 when it is not determined in step S120 that the site shape data of the destination exists, the control unit 20 acquires the type of the destination by the processing of the display position specifying unit 21c (step S135). That is, the control unit 20 refers to the facility data of the facility at the destination included in the map information 30a, and acquires the type of the facility as the destination.
  • the control unit 20 acquires the length of the frontage of the destination, the end point on the near side of the frontage, and the end point on the back side by the processing of the frontage length acquisition unit 21a and the display position specifying unit 21c (step S140). ). That is, the control unit 20 refers to the information that associates the length of the frontage with each of the plurality of facility types included in the map information 30a by the processing of the frontage length acquisition unit 21a, and is acquired in step S135.
  • the length of the frontage associated with the type of destination is specified and acquired as the length of the frontage. For example, when the type of the destination G illustrated in FIG. 3 is a convenience store, the control unit 20 acquires 20 m as the length L 11 of the frontage of the destination G.
  • control unit 20 acquires the location of the facility that is the destination based on the facility data of the map information 30a by the processing of the display position specifying unit 21c, and the perpendicular extending from the location of the facility to the boundary line of the road is the road.
  • the position that intersects the boundary line is considered the center of the frontage of the destination.
  • control part 20 specifies the position which moved to the back
  • the control unit 20 determines whether or not 1/2 of the frontage length is greater than or equal to the maximum error by the processing of the display position specifying unit 21c (step S145). If it is determined in step S145 that 1 ⁇ 2 of the frontage length is not greater than or equal to the maximum error, that is, if 1 ⁇ 2 of the frontage length is less than the maximum error, the control unit 20 displays the display position.
  • the position on the near side from the end point on the far side of the frontage by the maximum error is set as the display position of the destination icon (step S150). For example, in the example shown in FIG. 3, the maximum error is E max , and 1 ⁇ 2 of the frontage length L 11 is less than the maximum error E max . Therefore, in this example, the position P 11 on the near side by the maximum error E max from the end point P 12 on the far side of the frontage is set as the display position of the destination icon.
  • step S145 if it is determined in step S145 that 1 ⁇ 2 of the frontage length is not greater than or equal to the maximum error, the control unit 20 causes the display position specifying unit 21c to process the maximum error from the end point on the near side of the frontage.
  • the position on the side is set as the display position of the destination icon (step S155).
  • the maximum error is E max
  • 1/2 of the frontage length L 21 is less than the maximum error E max . Accordingly, in this example, the position P 21 on the far side by the maximum error E max from the end point P 21 on the near side of the frontage is set as the display position of the destination icon.
  • step S115 If it is determined in step S115 that the destination is specified by coordinates, the control unit 20 sets the position of the destination icon to the near side by the maximum error from the coordinates of the destination by the processing of the display position specifying unit 21c.
  • the display position is set (step S160). That is, when the destination is designated by coordinates, the destination is not necessarily a facility, so that the control unit 20 determines the maximum from the coordinates of the destination so as to suppress the possibility of passing through the destination.
  • the position on the near side by the error is set as the display position of the destination icon.
  • the control unit 20 specifies the display position in the landscape image by the processing of the image display unit 21d, and selects the destination icon. It is displayed (step S165). That is, in steps S150, S155, and S160, the display position of the destination icon is specified by coordinates in the real space. Further, in an image included in a landscape photographed by the camera 44, the distance between the road and the vehicle photographed at a pixel at an arbitrary position in the real space is specified in advance from the viewing angle of the camera 44, and the pixel and the distance are determined. Corresponding in advance.
  • the control unit 20 acquires the current location of the vehicle based on the output signals of the GPS reception unit 41, the vehicle speed sensor 42, and the gyro sensor 43, and acquires the distance between the current location of the vehicle and the display position of the destination icon. To do. Furthermore, the control unit 20 performs predetermined image processing (Hough transform or the like) based on an image showing the scenery in front of the vehicle captured by the camera 44, and specifies pixels on the boundary line between the destination and the road. In addition, the control unit 20 acquires a pixel that is a pixel on the boundary line and is associated with a distance between the current location of the vehicle and the display position of the destination icon, and the destination icon is displayed on the pixel. It is specified as a pixel to be used.
  • predetermined image processing Hough transform or the like
  • the control unit 20 generates a control signal for displaying a captured image by the camera 44 by superimposing a destination icon having a predetermined shape on the pixel, and displays the control signal for the display unit of the user I / F unit 45. Output.
  • a destination icon is superimposed on an image captured by the camera 44.
  • the destination icon is superimposed so that the size of the destination icon increases as the target pixel on which the destination icon is superimposed is closer to the lower side of the image (the image closer to the vehicle is closer to the vehicle).
  • the size of the ground icon is defined in advance for each pixel. Therefore, the control unit 20 enlarges or reduces the size of the destination icon according to the pixel position, and superimposes the destination icon on the image captured by the camera 44.
  • FIG. 3 shows an example of an image on which a destination icon is superimposed when 1 ⁇ 2 of the frontage length is less than the maximum error.
  • Images I 11 , I 12 , and I 14 shown in FIG. 3 are examples of images displayed on the display unit of the user I / F unit 45, and the image I 11 includes the estimated position of the vehicle and the actual position P 15 . This is an example when the error is zero. That is, when the error between the estimated position of the vehicle and the actual position is 0, the image position I p1 of the display position P 11 in the captured image when the display position P 11 of the destination icon is captured by the camera 44.
  • a destination icon I d is displayed (position as intended in relation to the destination image).
  • the destination icon is not displayed at the intended position in the captured image when captured by the camera 44 because of the relationship with the destination image.
  • the actual position of the vehicle is a position P 16 on the back side by the maximum error E max from the estimated position P 15 of the vehicle.
  • the position I p1 where the destination icon I d is displayed in the captured image of the camera 44 is the image I 12 as shown in the image I 12. It is the same position as 11 .
  • the image Ig destination G in the image I 12 is the screen than the image Ig destination G in the image I 11 end It moves to the side (near side).
  • the estimated position P 15 of the vehicle is equal to the relative positional relationship between the actual position P 16 of the vehicle and the end point P 12 .
  • the actual position P 16 of the vehicle is deviated forward by maximum error E max than the estimated position P 15 of the vehicle, as shown in the image I 12 of FIG. 3, the frontage of the destination on the back side The destination icon is displayed at the end point, and the destination icon is not displayed further behind the end point on the far side of the frontage of the destination. For this reason, the possibility that the user who aimed at the destination G using the destination icon in the image I 12 as a landmark can pass through the destination G can be suppressed.
  • the actual position of the vehicle is a position P 17 that is behind the estimated position P 15 of the vehicle by the maximum error E max .
  • the position I p1 where the destination icon I d is displayed in the captured image of the camera 44 is the image I 14 as shown in the image I 14. It is the same position as 11 .
  • the image Ig of the destination G in the image I 14 is closer to the center of the screen than the image Ig of the destination G in the image I 11 . It will be in the state moved to (back side).
  • FIG. 4 shows an example of an image on which a destination icon is superimposed when 1 ⁇ 2 of the frontage length is greater than or equal to the maximum error.
  • Images I 21 , I 24 , and I 23 shown in FIG. 4 are examples of images displayed on the display unit of the user I / F unit 45, and the image I 21 includes the estimated position of the vehicle and the actual position P 25 . This is an example when the error is zero. That is, when the error between the estimated position of the vehicle and the actual position is 0, the position I p2 of the image of the display position P 21 in the captured image when the display position P 21 of the destination icon is captured by the camera 44.
  • a destination icon I d is displayed (position as intended in relation to the destination image).
  • the destination icon is not displayed at the intended position in the captured image when captured by the camera 44 because of the relationship with the destination image.
  • the actual position of the vehicle is a position P 26 on the back side by the maximum error E max from the estimated position P 25 of the vehicle.
  • the position I p2 where the destination icon I d is displayed in the captured image of the camera 44 is the image I 24 as shown in the image I 24. The same position as 21 .
  • the image Ig of the destination G in the image I 24 is closer to the end of the screen than the image Ig of the destination G in the image I 21 . It moves to the side (near side).
  • the relative positional relationship between the actual position P 26 and the position P 24 of the vehicle is estimated by the vehicle. It becomes equal to the relative positional relationship between the position P 25 and the display position P 21 .
  • the position P 24 is located in the frontage. Therefore, even if the actual position P 26 of the vehicle is shifted forward by the maximum error E max from the estimated position P 25 of the vehicle, as shown in the image I 24 in FIG. An icon is displayed. For this reason, the possibility that a user who aims at the destination G with the destination icon in the image I 24 as a landmark can pass through the destination G can be suppressed.
  • the actual position of the vehicle is a position P 27 that is behind the estimated position P 25 of the vehicle by a maximum error E max .
  • the position I p2 where the destination icon I d is displayed in the captured image of the camera 44 is the image I 23 as shown in the image I 23.
  • the same position as 21 since the actual position P 27 of the vehicle is behind the estimated position P 25 , the image Ig of the destination G in the image I 23 is closer to the center of the screen than the image Ig of the destination G in the image I 21 . It will be in the state moved to (back side).
  • the position P 21 on the far side by the maximum error E max from the end point P 23 on the front side of the frontage is the display position of the destination icon, so that the estimated position P 25 of the vehicle is displayed.
  • the relative positional relationship with the position P 21 is equal to the relative relationship between the actual position P 27 of the vehicle and the end point P 23 . Therefore, if the actual position P 27 of the vehicle is shifted backward by the maximum error E max than the estimated position P 25 of the vehicle, as shown in the image I 23 of FIG. 4, the purpose in front of the end point destination A ground icon is displayed.
  • the possibility that the user who aimed at the destination G with the destination icon in the image I 23 as a landmark can pass through the destination G can be suppressed.
  • the destination icon when 1 ⁇ 2 of the frontage length is equal to or larger than the maximum error, the destination icon can be displayed in the frontage regardless of the value of the error.
  • the center of the range in which the destination icon can be displayed is the position of the center of the frontage or the position behind the center of the frontage. Therefore, it is possible to focus attention on the destination icon at an early stage in the image showing the scenery in front of the vehicle, and the user can easily reach the destination.
  • the navigation system 10 may be fixedly mounted on the vehicle, or may be a mode in which the portable navigation system 10 is brought into the vehicle and used.
  • the moving body may be a two-wheeled vehicle or a pedestrian.
  • a mobile body is a pedestrian, the structure etc. in which a pedestrian carries the navigation system 10 incorporating the GPS receiving part 41, the camera 44, etc. can be assumed.
  • the image displayed on the display unit of the user I / F unit 45 may be an image in which a destination icon is superimposed on a landscape image, and other images may be written together. For example, a map around a road where a moving object exists may be written together.
  • the display position of the destination icon may be a position moved to the destination side by a predetermined distance in a direction perpendicular to the road from the boundary line in addition to the configuration on the boundary line between the destination and the road. Or on the road.
  • the display position of the destination icon may be a position moved to the destination side by a predetermined distance in a direction perpendicular to the road from the boundary line in addition to the configuration on the boundary line between the destination and the road. Or on the road.
  • the display position of the destination icon may be a position moved to the destination side by a predetermined distance in a direction perpendicular to the road from the boundary line in addition to the configuration on the boundary line between the destination and the road. Or on the road.
  • it may be on the sidewalk or on the boundary line between the sidewalk and the destination.
  • the scenery may be a real scenery or a scenery. It may be a picture drawn.
  • the former can be realized as a configuration that generates an image by a camera that captures a landscape in front of the moving body, and the latter is a configuration that generates an image in which features such as buildings and roads existing in front of the moving body are drawn. It is feasible.
  • the destination icon only needs to be configured to indicate the destination by being superimposed on the landscape, and can be configured with a flag, an arrow image, or the like.
  • the frontage length acquisition means only needs to be able to acquire the frontage length of the destination along the road where the moving body exists. That is, it is only necessary to be able to acquire the length of the frontage of the destination along the road where the moving body exists as an index for preventing the destination icon from being displayed behind the destination. Therefore, the length of the frontage may be defined so as to suppress the possibility that the destination icon is displayed in the back of the destination, and the road where the moving object exists and the site of the destination are in contact with each other.
  • the length of the side to be used may be specified as the length of the frontage, or the length of the frontage may be specified by estimating the length of the frontage.
  • the maximum error acquisition means only needs to be able to acquire the maximum error that is the maximum value of the error between the estimated position of the moving object and the actual position that can occur in the direction of the road where the moving object exists. That is, in the technique for specifying the estimated position of the moving body for route guidance or the like, the estimated position may differ from the actual position, but an error occurs in the direction of the road where the moving body exists due to the difference in position.
  • the maximum value of the error can be estimated by a predetermined rule.
  • the accuracy of the estimated position varies depending on the reception status of the GPS signal (the magnitude of the signal, the number of satellites from which the signal was acquired, the status of surrounding buildings), and the like.
  • map matching processing is performed based on the estimated position estimated by the vehicle speed sensor or gyro sensor, it is considered that the accuracy of the estimated position decreases as the elapsed time after passing through a specific road shape (curve, etc.) It is possible.
  • a known feature such as paint on the road surface
  • the maximum error may be a fixed value determined in advance, or may be a value that changes according to the reception status of the GPS signal.
  • the error can occur in any of the front and rear directions of the road where the moving body exists, but in general, it is often unknown in which direction the error occurs. In this case, it is preferable not to define the direction on the road where the moving body exists as an error, but to define only the magnitude of the error. For example, when the maximum error is 1 m, it is assumed that the maximum deviation is 1 m in any of the front and rear directions of the road where the moving body exists.
  • the display position specifying means is such that when the error is 0, the display position of the destination icon is the position in the frontage, and when the error is the maximum error, the display position of the destination icon is the position in the frontage or the destination. It is only necessary that the display position of the destination icon can be specified based on the estimated position of the moving body so that the position is closer to the front. That is, when the display position is specified so that the destination icon is displayed in the frontage of the destination based on the estimated position, the destination icon is displayed if there is no error between the estimated position of the moving object and the actual position. Displayed in the frontage of the destination.
  • the display position of the destination icon does not become the intended position and shifts in the front-rear direction of the road where the moving body exists. Therefore, when the error is the maximum error, the display position of the destination icon is specified based on the estimated position of the moving body so that the display position of the destination icon is in the frontage or in front of the destination. This can suppress the possibility that the destination icon is displayed at a position behind the destination.
  • the location of the frontage of the destination may be specified from the location of the destination and the shape of the site of the destination, or the location of the frontage may be defined in advance as map information, and various configurations can be adopted.
  • the display position in the case where the position of the frontage is specified from the relative relationship between the estimated position of the moving body and the destination and the error is 0 may be specified. Assuming a shift in the display position when the error is the maximum error from the length and position of the frontage, if the error is the maximum error, the display position of the destination icon is greater than the position in the frontage or the destination The display position of the destination icon can be specified so as to be the front position.
  • the front side indicates the rear side in the traveling direction of the moving body on the road where the moving body exists
  • the back side indicates the front side in the traveling direction of the moving body on the road where the moving body exists.
  • the position in the frontage is the position inside the frontage of the destination
  • the position between the front end point and the rear end point along the road where the moving body exists is It becomes the position.
  • the position in front of the destination is a position further rearward than the end point on the rear side of the destination along the road where the moving body exists
  • the position behind the destination is the moving body. This is a position on the front side of the end point on the front side of the destination existing along the road where there is.
  • the image display means only needs to be able to display an image in which the destination icon is superimposed on the display position of the destination icon in the scenery ahead of the moving body on the display unit. That is, it is only necessary to superimpose the destination icon at the display position so that the user can be guided by the destination icon so that at least the moving body does not reach the back of the destination.
  • the display position specifying means is the end point on the far side of the frontage in the direction of the road where the moving body exists.
  • the position on the near side by the maximum error may be set as the display position of the destination icon. That is, in general, it is often unclear whether an error has occurred in the front-rear direction on a road where a moving body exists. Therefore, if the center of the frontage of the destination is the display position of the destination icon, there is a high possibility that the destination icon will be displayed in the frontage even if an error has occurred in any of the front and rear directions. .
  • the destination icon may not be displayed in the frontage of the destination even if the center of the frontage of the destination is the display position of the destination icon. Can occur. Therefore, when 1/2 of the length of the frontage is less than the maximum error, the position on the near side from the end point on the far side of the frontage in the direction of the road where the moving object is present is set as the display position of the destination icon.
  • the configuration is as follows. According to this configuration, even if the error is the maximum error on the far side, the destination icon is displayed at the end point on the far side of the frontage. The destination icon will be displayed at the front position.
  • the center of the range in which the destination icon can be displayed is the position of the center of the frontage or the position closer to the front than the center of the frontage. Therefore, it is possible to focus attention on the destination icon at an early stage in the image showing the scenery in front of the moving body, and the user can easily reach the destination.
  • 1/2 of the frontage length is greater than or equal to the maximum error, it is possible to change the destination icon display position to another position, and display the destination icon at the center of the destination frontage. It is possible to adopt a configuration for positioning.
  • the display position specifying means specifies the end point of the frontage based on the site shape data
  • the display position specifying means has a depth in the direction of the road where the moving object exists from the coordinates of the destination by 1/2 of the length of the frontage defined in advance for the destination. It is good also as a structure which specifies the position which moved to the near side and this side as an end point of a frontage.
  • the site shape data is data defined so that the shape of the destination site can be specified, and when the site shape data is recorded on a recording medium that can be referred to by the driving support system. Is considered to have site shape data. If site shape data exists, the shape of the destination site can be specified based on the site shape data, and the length of the frontage and the end point of the frontage can be determined based on the shape of the site. What is necessary is just to specify. Of course, the site shape data only needs to be defined so that at least the shape of the site of the destination can be specified, and the shape of the site can be specified by specifying the three-dimensional shape of the destination. Polygon data may be used.
  • the frontage shape cannot be accurately specified.
  • the position moved by 1 ⁇ 2 of the frontage length from the center of the frontage to the back side and the front side in the direction of the road where the moving body exists is defined.
  • the length of the frontage in this case is prescribed
  • the length of the frontage may be defined for each destination, or the length of the frontage may be estimated from the attribute of the destination. As the latter, it is possible to adopt a configuration in which the length of the frontage is defined in advance for each type of destination. That is, it is configured so that information indicating the type of destination is associated with each destination in advance, and when displaying a destination icon for an arbitrary destination, the length of the frontage is determined from the type of the destination. It is possible to adopt a configuration in which the end point of the frontage is specified.
  • the method for specifying the display position of the destination icon so that the display position of the destination icon is a position in the frontage or a position in front of the destination is as follows. It can also be applied as a program or method.
  • the system, program, and method as described above may be realized as a single device, or may be realized by using components shared with each unit provided in the vehicle when realized by a plurality of devices. It can be assumed and includes various aspects. For example, it is possible to provide a navigation system, method, and program including the above-described devices. Further, some changes may be made as appropriate, such as a part of software and a part of hardware.
  • the invention can be realized as a recording medium for a program for controlling the system.
  • the software recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium to be developed in the future.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Ecology (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)

Abstract

【課題】目的地を通過してしまう状況が発生することを抑制することが可能な技術の提供。 【解決手段】移動体の前方の風景に目的地を示す目的地アイコンを重畳した画像を表示部に表示する運転支援システムであって、前記移動体が存在する道路沿いの前記目的地の間口の長さを取得する間口長取得手段と、前記目的地アイコンの表示位置が前記間口内の位置となるように、前記移動体の推定位置に基づいて前記目的地アイコンの表示位置を特定する表示位置特定手段と、前記移動体の前方の風景における前記目的地アイコンの表示位置に前記目的地アイコンを重畳した画像を前記表示部に表示する画像表示手段と、を備える運転支援システムを構成する。

Description

運転支援システム、方法およびプログラム
 本発明は、運転支援システム、方法およびプログラムに関する。
 従来、車両の前方の風景を示す風景画像内に目的地の画像が含まれる場合に、所定のアイコンを風景画像内に重畳することによって利用者を目的地に着目させる技術が知られている。例えば、特許文献1においては、カメラで撮影された画像に、目的風景位置を指し示す矢印の画像を合成する技術が開示されている。
特開2011-154041号公報
 上述した従来技術においては、車両の現在地に基づいてカメラで撮影された画像内での目的風景位置を特定する。従って、画像内での目的風景位置は車両の現在地に依存する。ところが、車両の現在地を特定する技術において、位置の誤差が発生することは避けられないため、誤差が発生した場合には目的風景位置を指し示す矢印が目的風景位置と異なる位置に表示される場合があり、このような場合には利用者に誤解を与えてしまう。特に、目的風景位置を指し示す矢印が目的風景位置よりも奥側に表示されている場合、目的風景位置を指し示す矢印を利用して車両を運転している利用者が、目的地を通過している場合が発生してしまう。
  本発明は、前記課題にかんがみてなされたもので、風景に目的地を示す目的地アイコンを重畳する構成において、目的地を通過してしまう状況が発生することを抑制することが可能な技術を提供することを目的とする。
 上記の目的を達成するために、運転支援システムは、移動体の前方の風景に目的地を示す目的地アイコンを重畳した画像を表示部に表示するナビゲーションシステムであって、移動体が存在する道路沿いの目的地の間口の長さを取得する間口長取得手段と、移動体が存在する道路の方向に発生し得る移動体の推定位置と実際の位置との誤差の最大値である最大誤差を取得する最大誤差取得手段と、誤差が0である場合に目的地アイコンの表示位置が間口内の位置となり、かつ、誤差が最大誤差である場合に目的地アイコンの表示位置が間口内の位置または目的地よりも手前の位置となるように、移動体の推定位置に基づいて目的地アイコンの表示位置を特定する表示位置特定手段と、移動体の前方の風景における目的地アイコンの表示位置に目的地アイコンを重畳した画像を表示部に表示する画像表示手段と、を備える。
 また、上記の目的を達成するために、運転支援方法は、移動体の前方の風景に目的地を示す目的地アイコンを重畳した画像を表示部に表示する運転支援方法であって、移動体が存在する道路沿いの目的地の間口の長さを取得する間口長取得工程と、移動体が存在する道路の方向に発生し得る移動体の推定位置と実際の位置との誤差の最大値である最大誤差を取得する最大誤差取得工程と、誤差が0である場合に目的地アイコンの表示位置が間口内の位置となり、かつ、誤差が最大誤差である場合に目的地アイコンの表示位置が間口内の位置または目的地よりも手前の位置となるように、移動体の推定位置に基づいて目的地アイコンの表示位置を特定する表示位置特定工程と、移動体の前方の風景における目的地アイコンの表示位置に目的地アイコンを重畳した画像を表示部に表示する画像表示工程と、を含むように構成されている。
 さらに、上記の目的を達成するために、運転支援プログラムは、移動体の前方の風景に目的地を示す目的地アイコンを重畳した画像を表示部に表示する機能をコンピュータに実現させる運転支援プログラムであり、前記移動体が存在する道路沿いの前記目的地の間口の長さを取得する間口長取得機能と、前記移動体が存在する道路の方向に発生し得る前記移動体の推定位置と実際の位置との誤差の最大値である最大誤差を取得する最大誤差取得機能と、前記誤差が0である場合に前記目的地アイコンの表示位置が前記間口内の位置となり、かつ、前記誤差が前記最大誤差である場合に前記目的地アイコンの表示位置が前記間口内の位置または前記目的地よりも手前の位置となるように、前記移動体の推定位置に基づいて前記目的地アイコンの表示位置を特定する表示位置特定機能と、前記移動体の前方の風景における前記目的地アイコンの表示位置に前記目的地アイコンを重畳した画像を前記表示部に表示する画像表示機能と、をコンピュータに実現させるように構成されている。
 すなわち、移動体の推定位置に基づいて画像内での目的地の位置を特定し、当該位置に目的地アイコンを重畳する構成において、移動体が存在する道路の前方あるいは後方に誤差が生じていると、目的地アイコンが意図通りの位置からずれた位置に表示された状態になる。この場合、誤差の大きさによっては、目的地アイコンが目的地の間口外に表示されることになる。そこで、上述の運転支援システムまたは運転支援方法または運転支援プログラムは、誤差が0である場合に目的地アイコンの表示位置が間口内の位置となり、かつ、誤差が最大誤差である場合に目的地アイコンの表示位置が間口内の位置または目的地よりも手前の位置となるように、移動体の推定位置に基づいて目的地アイコンの表示位置を特定する。この構成によれば、誤差が0である場合には目的地アイコンが間口内の位置に表示され、誤差が最大誤差であったとしても目的地アイコンの表示位置が目的地の間口内の位置または目的地よりも手前の位置となる。従って、目的地アイコンが目的地よりも奥の位置に表示されることはなく、目的地を通過してしまう状況が発生することを抑制することができる。
運転支援システムを含むナビゲーションシステムを示すブロック図である。 運転支援処理を示すフローチャートである。 車両と目的地との位置関係および表示画像の例を示す図ある。 車両と目的地との位置関係および表示画像の例を示す図ある。
 ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)ナビゲーションシステムの構成:
(2)運転支援処理:
(3)他の実施形態:
 (1)ナビゲーションシステムの構成:
  図1は、本発明にかかる運転支援システムを含むナビゲーションシステム10の構成を示すブロック図である。ナビゲーションシステム10は、移動体としての車両に備えられており、CPU,RAM,ROM等を備える制御部20、記録媒体30を備えている。ナビゲーションシステム10は、記録媒体30やROMに記憶されたナビゲーションプログラム21等のプログラムを制御部20で実行することができる。
 また、本実施形態にかかる車両は、GPS受信部41と車速センサ42とジャイロセンサ43とカメラ44とユーザI/F部45とを備えている。GPS受信部41は、GPS衛星からの電波を受信し、図示しないインタフェースを介して車両の推定位置を算出するための信号を示す信号を出力する。車速センサ42は、車両が備える車輪の回転速度に対応した信号を出力する。制御部20は、図示しないインタフェースを介してこの信号を取得し、車速を取得する。ジャイロセンサ43は、車両の水平面内の旋回についての角加速度を検出し、車両の向きに対応した信号を出力する。制御部20は、車速センサ42、ジャイロセンサ43等の出力情報を自立航法情報として取得する。
 ナビゲーションプログラム21は、当該自立航法情報に基づいてマップマッチング処理を行って道路上における車両の推定位置(ナビゲーションシステム10の推定位置)を特定し、当該推定位置を地図上に表示させる機能を制御部20に実行させることができる。さらに、ナビゲーションプログラム21は、推定位置から利用者が設定した目的地までの予定経路を探索し、推定位置周辺の地図や予定経路を表示部に表示しつつ予定経路に沿って車両を誘導することによって利用者を目的地まで案内する機能を制御部20に実行させることができる。
 そして、制御部20は、ナビゲーションプログラム21の処理により、車速センサ42およびジャイロセンサ43の出力情報である自立航法情報と地図情報30aとに基づいて車両の推定位置が存在し得る比較対象道路を複数設定し、GPS受信部41にて取得されたGPS信号の誤差円に基づいて比較対象道路を絞り込んだ上で、当該比較対象道路の形状と自立航法軌跡とが最も一致する道路を車両が走行している道路とみなすマップマッチング処理を行い、当該マップマッチング処理によって特定された道路上で推定位置を特定する。
 記録媒体30には、予め地図情報30aおよび誤差情報30bが記録されている。地図情報30aは、車両の位置や案内対象の施設の特定に利用される情報であり、車両が走行する道路上に設定されたノードの位置等を示すノードデータ,ノード間の道路の形状を特定するための形状補間点の位置等を示す形状補間点データ,ノード同士の連結を示すリンクデータ,道路やその周辺に存在する施設を示す施設データ等を含んでいる。本実施形態において、施設データには、施設の種別や施設の位置(本実施形態においては、施設が存在する敷地の中央の点)、名称等の情報が対応づけられている。
 さらに、施設の中の一部(例えば、目的地として設定される可能性が高い施設として予め決められた施設)に対しては、施設の敷地の形状を示す情報である敷地形状データが対応づけられている。なお、本実施形態において敷地形状データは、目的地が存在する敷地の形状および当該敷地上の建築物の形状を複数の多角形によって表現するためのポリゴンデータである。すなわち、敷地形状データは、敷地および建築物の表面を分割して形成された多角形を示すデータであり、各多角形の形状および基準の位置(地図情報30aに規定された施設の位置)に対する相対的な位置を示すデータである。従って、制御部20は、当該データに従って仮想的な3次元空間上に多角形を配置することにより、目的地が存在する敷地の形状および当該敷地上の建築物の形状を再現することができる。
 また、地図情報30aには、複数の施設の種別のそれぞれに間口の長さを対応づけた情報が含まれている。具体的には、コンビニエンスストア、ガソリンスタンド、スーパーマーケット、デパートメントストア、これら以外の施設のそれぞれに、20m,30m,40m,60m,10mを対応づけた情報が含まれている。誤差情報30bは、ナビゲーションプログラム21の処理によって取得される推定位置と車両の実際の位置との誤差の最大値であって、当該車両が存在する道路の方向に発生し得る誤差の最大値である最大誤差を示す情報である。すなわち、上述のマップマッチング処理等によって車両の推定位置を特定する技術において推定位置と実際の位置とが異なり得るが、この位置の相違によって、車両が存在する道路の方向に誤差が発生する。そして、当該誤差の最大値は予め見積もることができる。
 例えば、GPS受信部41によるGPS信号の受信状況(信号の大きさや信号が取得できた衛星の数、周囲の建築物の状況)等によって推定位置の精度が変動する。また、車速センサ42やジャイロセンサ43によって推定した推定位置に基づいてマップマッチング処理を行った場合において、特定の道路形状(カーブ等)を通過した後の経過時間が長いほど推定位置の精度が低下すると見なすことが可能である。さらに、カメラによって既知の地物(路面上のペイント等)を撮影し、撮影した画像に基づいてから車両の推定位置を特定する構成において、推定位置を特定した後の経過時間が長いほど推定位置の精度が低下すると見なすことが可能である。そこで、このような各種の誤差の要因に基づいて、誤差の最大値を予め見積もることが可能である。
 なお、誤差は、車両が存在する道路の前後方向のいずれにも発生し得るが、一般的には、いずれの方向に誤差が生じているのか不明であることが多い。この場合、車両が存在する道路上での方向を誤差として規定せず、誤差の大きさのみを定義することが好ましい。そこで、本実施形態においては、上述の見積もりによって車両が存在する道路の前後方向に生じる誤差の最大値を特定し、方向を規定せずに誤差の大きさのみによって固定値の最大誤差を定義している。例えば、最大誤差1mである場合、車両が存在する道路の前後方向のいずれかに最大1mずれていることが想定されることになる。
 カメラ44は、車両のフロントガラスの内側の天井部分に取り付けられており、車両の前方の風景を一定時刻毎に撮影し、撮影された風景を示す画像情報を生成して出力する。制御部20は、カメラ44が出力する画像情報を取得し、画像解析や表示部で表示するための画像処理等を行うことができる。ユーザI/F部45は、運転者に各種の情報を提供するためのインタフェース部であり、図示しない表示部やスピーカ、入力部等を備えている。制御部20は、当該表示部にカメラ44で撮影された風景を示す画像の画像情報を出力し、表示部に当該風景を表示させることができる。また、制御部20は、当該風景の画像情報に対して任意の画像(案内図等)を重畳した画像情報を生成して表示部に出力することで、当該風景に任意の画像を重畳して表示させることができる。
 制御部20は、図示しないナビゲーションプログラム21の機能によりユーザI/F部45の入力部を介して運転者による目的地の入力を受け付け、車両の現在地から目的地までの予定経路を探索する。また、制御部20は、当該ナビゲーションプログラム21の機能により、車両の運転者に対して予定経路を指示する経路案内を行うことが可能である。本実施形態において当該ナビゲーションプログラム21は、目的地の周辺において車両の前方の風景を示す画像に目的地を示す目的地アイコンを重畳してユーザI/F部45の表示部に表示する機能を制御部20に実行させることができる。この機能を実現するため、ナビゲーションプログラム21は、間口長取得部21aと最大誤差取得部21bと表示位置特定部21cと画像表示部21dとを備えている。
 間口長取得部21aは、車両が存在する道路沿いの目的地の間口の長さを取得する機能を制御部20に実現させるモジュールである。すなわち、制御部20は、利用者によって目的地として設定された施設の間口の長さを取得する。本実施形態においては、一部の施設に対して敷地形状データが対応づけられている。そこで、目的地の施設に当該敷地形状データが対応づけられている場合、制御部20は、当該敷地形状データを参照して目的地の間口の長さを取得する。一方、目的地の施設に当該敷地形状データが対応づけられていない場合、制御部20は、地図情報30aに含まれる施設データに基づいて当該目的地の施設の種別を取得する。さらに、制御部20は、施設の種別のそれぞれに間口の長さを対応づけた情報を参照し、目的地の施設の種別の間口の長さを取得する。
 最大誤差取得部21bは、車両が存在する道路の方向に発生し得る車両の推定位置と実際の位置との誤差の最大値である最大誤差を取得する機能を制御部20に実現させるモジュールである。すなわち、制御部20は、最大誤差取得部21bの処理により、誤差情報30bを参照して最大誤差を取得する。
 表示位置特定部21cは、誤差が0である場合に目的地アイコンの表示位置が間口内の位置となり、かつ、誤差が最大誤差である場合に目的地アイコンの表示位置が間口内の位置または目的地よりも手前の位置となるように、車両の推定位置に基づいて目的地アイコンの表示位置を特定する機能を制御部20に実現させるモジュールである。本実施形態においては、目的地の周辺において車両の前方の風景を示す画像に目的地を示す目的地アイコンを重畳する際に、目的地アイコンの表示位置が意図した位置からずれることによって車両が目的地を通過することがないように構成されている。
 すなわち、車両の推定位置と地図情報30aが示す目的地の位置とに基づいて目的地アイコンが目的地の間口内に表示されるように表示位置が特定される構成においては、車両の推定位置と実際の位置とで誤差が生じていなければ目的地アイコンが目的地の間口内に表示される。この場合、当該表示に基づいて目的地を目指す利用者が目的地を通過する可能性は低い。
 しかし、車両の推定位置と実際の位置とで誤差が生じている場合、目的地アイコンの表示位置が意図通りの位置にならず、車両が存在する道路の前後方向にずれる。そこで、誤差が最大誤差である場合に目的地アイコンの表示位置が間口内の位置または目的地よりも手前の位置となるように、車両の推定位置に基づいて目的地アイコンの表示位置を特定すれば、誤差が最大誤差である場合に、目的地アイコンが目的地よりも奥の位置に表示される可能性を抑制することができる。
 そこで、制御部20は、誤差が0である場合に目的地アイコンの表示位置が間口内の位置となり、かつ、誤差が最大誤差である場合に目的地アイコンの表示位置が間口内の位置または目的地よりも手前の位置となるように、車両の推定位置に基づいて目的地アイコンの表示位置を特定する。なお、当該表示位置は、実空間上の座標として特定される。
 画像表示部21dは、車両の前方の風景における目的地アイコンの表示位置に目的地アイコンを重畳した画像を表示部に表示する機能を制御部20に実現させるモジュールである。すなわち、目的地アイコンの表示位置は実空間上の座標で特定されているため、制御部20は、カメラ44が撮影した車両の前方の風景を示す画像内で目的地アイコンの表示位置がいずれの画素に相当するのかを解析する。具体的には、本実施形態においては、カメラ44が撮影した風景に含まれる画像において、任意の位置の画素で撮影された道路と車両との実空間内での距離がカメラ44の視野角から予め特定され、画素と距離とが予め対応づけられている。
 そこで、制御部20は、表示位置特定部21cの処理によって取得された表示位置と車両との距離を特定し、道路と目的地との境界線上で当該距離に対応する画素を特定する。そして、制御部20は、当該画素に予め決められた形状の目的地アイコンを重畳してカメラ44による撮影画像を表示するための制御信号を生成し、ユーザI/F部45の表示部に対して出力する。この結果、ユーザI/F部45の表示部においては、カメラ44による撮影画像に目的地アイコンが重畳された画像が表示される。
 以上の構成において、車両の推定位置と実際の位置との誤差が0である場合には目的地アイコンが間口内の位置に表示され、誤差が最大誤差であったとしても目的地アイコンの表示位置が目的地の間口内の位置または目的地よりも手前の位置となる。従って、目的地アイコンが目的地よりも奥の位置に表示されることはなく、目的地を通過してしまう状況が発生することを抑制することができる。なお、本実施形態において、手前側は車両が存在する道路における車両の進行方向の後方側を示し、奥側は車両が存在する道路における車両の進行方向の前方側を示している。
 (2)運転支援処理:
  次に、ナビゲーションプログラム21による運転支援処理を説明する。図2はナビゲーションプログラム21が実行する運転支援処理を示すフローチャートであり、図3、図4は、車両が存在する道路Rの例を左側に示し、当該道路R上で表示部に表示され得る画像の例を右側に示している。ここでは、図3、図4に示す例を適宜参照して図2に示す運転支援処理を説明する。なお、本実施形態においては、ナビゲーションプログラムの処理により制御部20が目的地の設定を受け付け、当該目的地までの予定経路を決定した状態において所定期間(例えば、100ms)毎に運転支援処理が実行される。また、本実施形態において、目的地は、施設を指定することによって設定することが可能であり、また、実空間上の任意の座標(緯度および経度)によって設定することも可能である。
 運転支援処理が開始されると、制御部20は、ナビゲーションプログラム21の処理により、現在地から目的地までの距離を取得する(ステップS100)。すなわち、制御部20は、GPS受信部41,車速センサ42,ジャイロセンサ43の出力信号および地図情報30aに基づいて車両の現在地を特定する。さらに、目的地が施設を指定することによって設定されていた場合、制御部20は、地図情報30aに含まれる当該目的地の施設の施設データを参照し、施設の位置を目的地として特定する。一方、目的地が実空間上の座標によって設定されていた場合、制御部20は、当該座標の位置を目的地として特定する。そして、制御部20は、車両の現在地と目的地との距離を取得する。なお、図3、図4においては、車両が存在する道路R沿いに目的地の施設Gが存在する例を示している。
 次に、制御部20は、ナビゲーションプログラム21の処理により、目的地までの距離が所定距離以下であるか否かを判定し(ステップS105)、目的地までの距離が所定距離以下であると判定されない場合、制御部20は、運転支援処理を終了する。本実施形態においては、所定期間毎に運転支援処理を実行しているため、目的地までの距離が所定距離以下であると判定されるまでステップS100,S105を繰り返すことになる。
 一方、ステップS105において、目的地までの距離が所定距離以下であると判定された場合、制御部20は、最大誤差取得部21bの処理により、最大誤差を取得する(ステップS110)。すなわち、制御部20は、誤差情報30bを参照し、最大誤差を取得する。
 次に、制御部20は、表示位置特定部21cの処理により、目的地が座標で指定されたか否かを判定する(ステップS115)。ステップS115において、目的地が座標で指定されたと判定されない場合、すなわち、施設を指定することによって目的地が設定された場合、制御部20は、表示位置特定部21cの処理により、目的地の敷地形状データが存在するか否かを判定する(ステップS120)。すなわち、制御部20は、目的地として設定された施設に対して対応づけられた敷地形状データが地図情報30aに含まれている場合に目的地の敷地形状データが存在すると判定する。
 ステップS120において、目的地の敷地形状データが存在すると判定された場合、制御部20は、表示位置特定部21cの処理により、敷地形状データに基づいて間口の手前側の端点と奥側の端点を取得する(ステップS125)。すなわち、本実施形態において想定する仮想的な3次元空間上での単位距離と、実空間上での単位距離との関係は予め決められており、制御部20は、敷地形状データに基づいて仮想的な3次元空間上で施設の敷地の形状を特定して間口の端点を特定することにより、実空間上での間口の端点の位置を特定する。
 具体的には、制御部20は、仮想的な3次元空間上の任意の位置に目的地である施設の位置を設定する。さらに、制御部20は、当該施設の位置を基準にして敷地形状データが示す多角形を仮想的な3次元空間上に配置することで、目的地の敷地の形状および当該敷地上の建築物の形状を仮想的な3次元空間上に再現する。ここで、敷地の形状の周は、道路と施設との境界線であるため、制御部20は、敷地の境界線の中から車両が存在する道路に沿った境界線を特定し、当該境界線において道路の進行方向の後方側に位置する端点を手前側の端点、前方側に位置する端点を奥側の端点として取得する。
 そして、制御部20は、地図情報30aに基づいて目的地である施設の実空間上での位置(座標)を特定し、仮想的な3次元空間上での単位距離と実空間上での単位距離との関係から手前側の端点および奥側の端点の位置を実空間上で特定する。例えば、図3、図4の左側の道路R沿いに示す目的地Gの敷地は矩形の形状であり、道路Rと矩形の1辺とが接して形成する境界線が間口(太い直線)を形成している。これらの例においてステップS125が実行されると、図3においては手前側の端点P13の位置が実空間上で取得され、奥側の端点P12の位置が実空間上で取得される。図4においては手前側の端点P23の位置が実空間上で取得され、奥側の端点P22の位置が実空間上で取得される。
 次に、制御部20は、間口長取得部21aの処理により、目的地の間口の長さを取得する(ステップS130)。すなわち、制御部20は、ステップS125において取得された実空間上での端点間の距離を間口の長さとして取得する。例えば、図3においては端点P13,P12間の距離L11が取得され、図4においては端点P23,P22間の距離L21が取得される。
 一方、ステップS120において、目的地の敷地形状データが存在すると判定されない場合、制御部20は、表示位置特定部21cの処理により、目的地の種別を取得する(ステップS135)。すなわち、制御部20は、地図情報30aに含まれる当該目的地の施設の施設データを参照して目的地である施設の種別を取得する。
 次に、制御部20は、間口長取得部21aおよび表示位置特定部21cの処理の処理により、目的地の間口の長さおよび間口の手前側の端点および奥側の端点を取得する(ステップS140)。すなわち、制御部20は、間口長取得部21aの処理により、地図情報30aに含まれる、複数の施設の種別のそれぞれに間口の長さを対応づけた情報を参照し、ステップS135で取得された目的地の種別に対応づけられた間口の長さを特定し、目的地の間口の長さとして取得する。例えば、図3に示す目的地Gの種別がコンビニエンスストアである場合、制御部20は、20mを目的地Gの間口の長さL11として取得する。さらに、制御部20は、表示位置特定部21cの処理により、地図情報30aの施設データに基づいて目的地である施設の位置を取得し、施設の位置から道路の境界線に延ばした垂線が道路の境界線と交わる位置を目的地の間口の中央と見なす。そして、制御部20は、当該間口の中央から間口の長さの1/2だけ奥側および手前側に移動した位置を間口の端点として特定する。
 次に、制御部20は、表示位置特定部21cの処理により、間口の長さの1/2が最大誤差以上であるか否かを判定する(ステップS145)。そして、ステップS145において、間口の長さの1/2が最大誤差以上であると判定されない場合、すなわち、間口の長さの1/2が最大誤差未満である場合、制御部20は、表示位置特定部21cの処理により、間口の奥側の端点から最大誤差だけ手前側の位置を目的地アイコンの表示位置として設定する(ステップS150)。例えば、図3に示す例においては最大誤差がEmaxであり、間口の長さL11の1/2は最大誤差Emax未満である。従って、この例においては、間口の奥側の端点P12から最大誤差Emaxだけ手前側の位置P11が目的地アイコンの表示位置として設定される。
 一方、ステップS145において、間口の長さの1/2が最大誤差以上であると判定されない場合、制御部20は、表示位置特定部21cの処理により、間口の手前側の端点から最大誤差だけ奥側の位置を目的地アイコンの表示位置として設定する(ステップS155)。例えば、図4に示す例においては最大誤差がEmaxであり、間口の長さL21の1/2は最大誤差Emax未満である。従って、この例においては、間口の手前側の端点P21から最大誤差Emaxだけ奥側の位置P21が目的地アイコンの表示位置として設定される。
 なお、ステップS115において、目的地が座標で指定されたと判定された場合、制御部20は、表示位置特定部21cの処理により、目的地の座標から最大誤差だけ手前側の位置を目的地アイコンの表示位置として設定する(ステップS160)。すなわち、目的地が座標で指定された場合、目的地が施設であるとは限らないため、目的地を通過してしまう可能性を抑制するように、制御部20は、目的地の座標から最大誤差だけ手前側の位置を目的地アイコンの表示位置として設定する。
 ステップS150,S155,S160のいずれかにおいて目的地アイコンの表示位置が設定されると、制御部20は、画像表示部21dの処理により、表示位置を風景の画像内で特定し、目的地アイコンを表示する(ステップS165)。すなわち、ステップS150,S155,S160において目的地アイコンの表示位置は実空間上の座標で特定されている。また、カメラ44が撮影した風景に含まれる画像において、任意の位置の画素で撮影された道路と車両との実空間内での距離がカメラ44の視野角から予め特定され、画素と距離とが予め対応づけられている。
 そこで、制御部20は、GPS受信部41、車速センサ42、ジャイロセンサ43の出力信号に基づいて車両の現在地を取得し、当該車両の現在地と目的地アイコンの表示位置との間の距離を取得する。さらに、制御部20は、カメラ44が撮影した車両の前方の風景を示す画像に基づいて所定の画像処理(ハフ変換等)を実行し、目的地と道路との境界線上の画素を特定する。また、制御部20は、当該境界線上の画素であって、車両の現在地と目的地アイコンの表示位置との間の距離が対応づけられた画素を取得し、当該画素を目的地アイコンが表示されるべき画素として特定する。
 そして、制御部20は、当該画素に予め決められた形状の目的地アイコンを重畳してカメラ44による撮影画像を表示するための制御信号を生成し、ユーザI/F部45の表示部に対して出力する。この結果、ユーザI/F部45の表示部においては、カメラ44による撮影画像に目的地アイコンが重畳された画像が表示される。なお、本実施形態においては、目的地アイコンを重畳する対象の画素が画像の下側に近いほど(画素に示される像が車両に近いほど)目的地アイコンの大きさが大きくなるように、目的地アイコンの大きさが画素毎に予め規定されている。従って、制御部20は、画素の位置に応じて目的地アイコンの大きさを拡大あるいは縮小してカメラ44による撮影画像に目的地アイコンを重畳する。
 図3の右側においては、間口の長さの1/2が最大誤差未満である場合において目的地アイコンが重畳された画像の例を示している。図3に示す画像I11,I12,I14はユーザI/F部45の表示部に表示される画像の例であり、画像I11は、車両の推定位置と実際の位置P15との誤差が0である場合の例である。すなわち、車両の推定位置と実際の位置との誤差が0である場合、目的地アイコンの表示位置P11をカメラ44で撮影した場合における撮影画像内での表示位置P11の像の位置Ip1(目的地の像との関係で意図通りの位置)に目的地アイコンIdが表示される。
 一方、車両の推定位置と実際の位置との誤差が0ではない場合、カメラ44で撮影した場合における撮影画像内で目的地アイコンは目的地の像との関係で意図通りの位置には表示されない。例えば、車両の実際の位置が車両の推定位置P15よりも最大誤差Emaxだけ奥側の位置P16である場合を想定する。この場合、車両の推定位置P15は上述の例と同一であるため、画像I12に示すように、カメラ44の撮影画像内で目的地アイコンIdが表示される位置Ip1は、画像I11と同一の位置である。しかし、車両の実際の位置P16は推定位置P15よりも奥側であるため、画像I12内における目的地Gの像Igは画像I11内における目的地Gの像Igよりも画面の端側(手前側)に移動した状態となる。
 そして、図3に示す例の場合には、間口の奥側の端点P12から最大誤差Emaxだけ手前側の位置P11が目的地アイコンの表示位置であるため、車両の推定位置P15と表示位置P11との相対位置関係は車両の実際の位置P16と端点P12との相対位置関係と等しい。従って、車両の実際の位置P16が車両の推定位置P15よりも最大誤差Emaxだけ前方にずれていたとしても、図3の画像I12に示すように、目的地の間口の奥側の端点に目的地アイコンが表示され、目的地の間口の奥側の端点よりもさらに奥に目的地アイコンが表示されることはない。このため、画像I12における当該目的地アイコンを目印にして目的地Gを目指した利用者が当該目的地Gを通過する可能性を抑制することができる。
 さらに、車両の実際の位置が車両の推定位置P15よりも最大誤差Emaxだけ後方の位置P17である場合を想定する。この場合、車両の推定位置P15は上述の例と同一であるため、画像I14に示すように、カメラ44の撮影画像内で目的地アイコンIdが表示される位置Ip1は、画像I11と同一の位置である。しかし、車両の実際の位置P17は推定位置P15よりも後方であるため、画像I14内における目的地Gの像Igは画像I11内における目的地Gの像Igよりも画面の中央側(奥側)に移動した状態となる。
 そして、図3に示す例の場合において、位置P11よりも道路Rに沿って最大誤差Emaxだけ後方の位置P14を想定すると、車両の実際の位置P17と位置P14との相対位置関係が車両の推定位置P15と表示位置P11との相対位置関係に等しくなる。従って、車両の実際の位置P17が車両の推定位置P15よりも最大誤差Emaxだけ後方にずれている場合、図3の画像I14に示すように、目的地の手前側に目的地アイコンが表示される。このように、目的地アイコンが目的地の手前に表示されていたとしても、当該表示は目的地の周辺でなされるため、実際の風景を視認している利用者が目的地を通過してしまう可能性は少ない。
 図4の右側においては、間口の長さの1/2が最大誤差以上である場合において目的地アイコンが重畳された画像の例を示している。図4に示す画像I21,I24,I23はユーザI/F部45の表示部に表示される画像の例であり、画像I21は、車両の推定位置と実際の位置P25との誤差が0である場合の例である。すなわち、車両の推定位置と実際の位置との誤差が0である場合、目的地アイコンの表示位置P21をカメラ44で撮影した場合における撮影画像内での表示位置P21の像の位置Ip2(目的地の像との関係で意図通りの位置)に目的地アイコンIdが表示される。
 一方、車両の推定位置と実際の位置との誤差が0ではない場合、カメラ44で撮影した場合における撮影画像内で目的地アイコンは目的地の像との関係で意図通りの位置には表示されない。例えば、車両の実際の位置が車両の推定位置P25よりも最大誤差Emaxだけ奥側の位置P26である場合を想定する。この場合、車両の推定位置P25は上述の例と同一であるため、画像I24に示すように、カメラ44の撮影画像内で目的地アイコンIdが表示される位置Ip2は、画像I21と同一の位置である。しかし、車両の実際の位置P26は推定位置P25よりも奥側であるため、画像I24内における目的地Gの像Igは画像I21内における目的地Gの像Igよりも画面の端側(手前側)に移動した状態となる。
 そして、図4に示す例の場合において、位置P21より最大誤差Emaxだけ奥側の位置P24を想定すると、車両の実際の位置P26と位置P24との相対位置関係が車両の推定位置P25と表示位置P21との相対位置関係に等しくなる。また、位置P24は間口内に位置する。従って、車両の実際の位置P26が車両の推定位置P25よりも最大誤差Emaxだけ前方にずれていたとしても、図4の画像I24に示すように、目的地の間口内に目的地アイコンが表示される。このため、画像I24における当該目的地アイコンを目印にして目的地Gを目指した利用者が当該目的地Gを通過する可能性を抑制することができる。
 さらに、車両の実際の位置が車両の推定位置P25よりも最大誤差Emaxだけ後方の位置P27である場合を想定する。この場合、車両の推定位置P25は上述の例と同一であるため、画像I23に示すように、カメラ44の撮影画像内で目的地アイコンIdが表示される位置Ip2は、画像I21と同一の位置である。しかし、車両の実際の位置P27は推定位置P25よりも後方であるため、画像I23内における目的地Gの像Igは画像I21内における目的地Gの像Igよりも画面の中央側(奥側)に移動した状態となる。
 そして、図4に示す例の場合において、間口の手前側の端点P23から最大誤差Emaxだけ奥側の位置P21が目的地アイコンの表示位置であるため、車両の推定位置P25と表示位置P21との相対位置関係は車両の実際の位置P27と端点P23との相対関係に等しい。従って、車両の実際の位置P27が車両の推定位置P25よりも最大誤差Emaxだけ後方にずれている場合、図4の画像I23に示すように、目的地の手前側の端点に目的地アイコンが表示される。このため、画像I23における当該目的地アイコンを目印にして目的地Gを目指した利用者が当該目的地Gを通過する可能性を抑制することができる。以上のように、間口の長さの1/2が最大誤差以上である場合においては、誤差がどのような値であったとしても、間口内に目的地アイコンを表示させることができる。さらに、目的地アイコンが表示され得る範囲の中心は、間口の中心の位置あるいは間口の中心よりも後方の位置になる。従って、車両の前方の風景を示す画像内で早期に目的地アイコンに着目させることが可能になり、利用者が目的地に到達することが容易になる。
 (3)他の実施形態:
  以上の実施形態は本発明を実施するための一例であり、他にも種々の実施形態を採用可能である。例えば、ナビゲーションシステム10は、車両に固定的に搭載されていても良いし、持ち運び可能なナビゲーションシステム10が車両内に持ち込まれて利用される態様であっても良い。また、移動体は四輪車の他にも種々の形態が想定され、二輪車であってもよいし、歩行者であっても良い。移動体が歩行者である場合、GPS受信部41、カメラ44等が組み込まれたナビゲーションシステム10を歩行者が携帯する構成等を想定可能である。
 さらに、ユーザI/F部45の表示部に表示される画像は、風景の画像に目的地アイコンが重畳された画像であれば良く、他の画像が併記されても良い。例えば、移動体が存在する道路の周辺の地図が併記されても良い。
 さらに、目的地アイコンの表示位置は、目的地と道路との境界線上である構成の他、当該境界線から道路に垂直な方向に所定距離だけ目的地側に移動させた位置であっても良いし、道路上であっても良い。また、歩道が存在する場合、歩道上であってもよいし、歩道と目的地との境界線上であっても良い。
 さらに、ナビゲーションシステムにおいては、移動体の前方の風景に目的地を示す目的地アイコンを重畳した画像を表示部に表示することができればよく、風景は、実風景であってもよいし、風景を描写した絵であってもよい。前者は移動体の前方の風景を撮影するカメラによって画像を生成する構成として実現可能であり、後者は移動体の前方に存在する建築物や道路等の地物を描画した画像を生成する構成として実現可能である。目的地アイコンは、風景に重畳されることによって目的地を示すように構成されていれば良く、旗や矢印の画像等によって構成可能である。
 間口長取得手段は、移動体が存在する道路沿いの目的地の間口の長さを取得することができればよい。すなわち、目的地アイコンが目的地の奥に表示されないようにするための指標として移動体が存在する道路沿いの目的地の間口の長さを取得することができればよい。従って、間口の長さは、目的地アイコンが目的地の奥に表示される可能性を抑制することができるように定義されれば良く、移動体が存在する道路と目的地の敷地とが接触する辺の長さを間口の長さとして特定しても良いし、間口の長さを推定することによって当該間口の長さを特定しても良い。
 最大誤差取得手段は、移動体が存在する道路の方向に発生し得る移動体の推定位置と実際の位置との誤差の最大値である最大誤差を取得することができればよい。すなわち、経路案内等のために移動体の推定位置を特定する技術において推定位置と実際の位置とが異なり得るが、この位置の相違によって、移動体が存在する道路の方向に誤差が発生する。そして、当該誤差の最大値は予め決められた規則で見積もることができる。
 例えば、推定位置をGPS信号に基づいて特定する場合にGPS信号の受信状況(信号の大きさや信号が取得できた衛星の数、周囲の建築物の状況)等によって推定位置の精度が変動する。また、車速センサやジャイロセンサによって推定した推定位置に基づいてマップマッチング処理を行った場合において、特定の道路形状(カーブ等)を通過した後の経過時間が長いほど推定位置の精度が低下すると見なすことが可能である。さらに、カメラによって既知の地物(路面上のペイント等)を撮影し、撮影した画像に基づいて移動体の推定位置を特定する構成において、推定位置を特定した後の経過時間が長いほど推定位置の精度が低下すると見なすことが可能である。そこで、このような各種の誤差の要因に基づいて、誤差の最大値を予め見積もることが可能であり、最大誤差取得手段においては、当該見積もりの結果としての最大誤差を取得することができればよい。なお、最大誤差は予め決められた固定の値であっても良いし、GPS信号の受信状況等に応じて変化する値であっても良い。
 なお、誤差は、移動体が存在する道路の前後方向のいずれにも発生し得るが、一般的には、いずれの方向に誤差が生じているのか不明であることが多い。この場合、移動体が存在する道路上での方向を誤差として規定せず、誤差の大きさのみを定義することが好ましい。例えば、最大誤差1mである場合、移動体が存在する道路の前後方向のいずれかに最大1mずれていることが想定されることになる。
 表示位置特定手段は、誤差が0である場合に目的地アイコンの表示位置が間口内の位置となり、かつ、誤差が最大誤差である場合に目的地アイコンの表示位置が間口内の位置または目的地よりも手前の位置となるように、移動体の推定位置に基づいて目的地アイコンの表示位置を特定することができればよい。すなわち、推定位置に基づいて目的地アイコンが目的地の間口内に表示されるように表示位置を特定した場合、移動体の推定位置と実際の位置とで誤差が生じていなければ目的地アイコンが目的地の間口内に表示される。しかし、移動体の推定位置と実際の位置とで誤差が生じている場合、目的地アイコンの表示位置が意図通りの位置にならず、移動体が存在する道路の前後方向にずれる。そこで、誤差が最大誤差である場合に目的地アイコンの表示位置が間口内の位置または目的地よりも手前の位置となるように、移動体の推定位置に基づいて目的地アイコンの表示位置を特定すれば、目的地アイコンが目的地よりも奥の位置に表示される可能性を抑制することができる。
 なお、目的地の間口の位置は、目的地の位置と目的地の敷地の形状から特定されても良いし、間口の位置が予め地図情報として規定されてもよく種々の構成が採用可能であり、いずれにしても、移動体の推定位置と目的地との相対関係から間口の位置が特定されて誤差が0である場合の表示位置が特定されれば良い。そして、間口の長さおよび位置から誤差が最大誤差である場合における表示位置のずれを想定すれば、誤差が最大誤差である場合に目的地アイコンの表示位置が間口内の位置または目的地よりも手前の位置となるように目的地アイコンの表示位置を特定することができる。なお、手前側は、移動体が存在する道路における移動体の進行方向の後方側を示し、奥側は、移動体が存在する道路における移動体の進行方向の前方側を示している。また、間口内の位置は目的地の間口の内側の位置であるため、移動体が存在する道路に沿って存在する目的地の前方側の端点と後方側の端点との間の位置が間口内の位置となる。さらに、目的地よりも手前の位置は、移動体が存在する道路に沿って存在する目的地の後方側の端点よりもさらに後方側の位置であり、目的地よりも奥の位置は、移動体が存在する道路に沿って存在する目的地の前方側の端点よりもさらに前方側の位置である。
 画像表示手段は、移動体の前方の風景における目的地アイコンの表示位置に目的地アイコンを重畳した画像を表示部に表示することができればよい。すなわち、当該表示位置に目的地アイコンを重畳することによって、当該目的地アイコンによって、少なくとも移動体が目的地の奥まで達することがないように利用者を誘導することができればよい。
 さらに、表示位置を特定するための構成例として、間口の長さの1/2が最大誤差未満である場合、表示位置特定手段が、移動体が存在する道路の方向における間口の奥側の端点から最大誤差だけ手前側の位置を目的地アイコンの表示位置とするように構成してもよい。すなわち、一般的には、移動体が存在する道路において前後方向のいずれに誤差が生じているのか不明であることが多い。従って、目的地の間口の中央を目的地アイコンの表示位置とすれば、誤差が前後方向のいずれに発生していた場合であっても目的地アイコンが間口内に表示される可能性が高くなる。
 しかし、目的地の間口の長さの1/2が最大誤差未満である場合、目的地の間口の中央を目的地アイコンの表示位置としても目的地アイコンが目的地の間口内に表示されない場合が発生し得る。そこで、間口の長さの1/2が最大誤差未満である場合に、移動体が存在する道路の方向における間口の奥側の端点から最大誤差だけ手前側の位置を目的地アイコンの表示位置とする構成とする。この構成によれば、誤差が奥側に最大誤差だけ生じていたとしても間口の奥側の端点に目的地アイコンが表示され、誤差が手前側に最大誤差だけ生じていた場合には、間口よりも手前の位置に目的地アイコンが表示されることになる。
 さらに、表示位置を特定するための構成例として、間口の長さの1/2が最大誤差以上である場合、表示位置特定手段が、移動体が存在する道路の方向における間口の手前側の端点から最大誤差だけ奥側の位置を目的地アイコンの表示位置とするように構成しても良い。この構成によれば、誤差が手前側に最大誤差だけ生じていたとしても間口の手前側の端点に目的地アイコンが表示され、誤差が奥側に最大誤差だけ生じていた場合であっても間口内に目的地アイコンが表示されることになる。従って、誤差がどのような値であったとしても、間口内に目的地アイコンを表示させることができる。さらに、目的地アイコンが表示され得る範囲の中心は、間口の中心の位置あるいは間口の中心よりも手前側の位置になる。従って、移動体の前方の風景を示す画像内で早期に目的地アイコンに着目させることが可能になり、利用者が目的地に到達することが容易になる。むろん、間口の長さの1/2が最大誤差以上である場合には、目的地アイコンの表示位置を他の位置にすることも可能であり、目的地の間口の中央を目的地アイコンの表示位置とする構成等を採用可能である。
 さらに、間口の端点を特定するための構成例として、目的地の敷地の形状を示す敷地形状データが存在する場合に、表示位置特定手段が、敷地形状データに基づいて間口の端点を特定し、目的地の敷地形状データが存在しない場合に、表示位置特定手段が、目的地について予め規定された間口の長さの1/2だけ、目的地の座標から移動体が存在する道路の方向における奥側および手前側に移動した位置を間口の端点として特定する構成としても良い。
 ここで、敷地形状データは、目的地の敷地の形状を特定することができるように定義されたデータであり、運転支援システムによって参照可能な記録媒体に当該敷地形状データが記録されている場合には、敷地形状データが存在すると見なされる。そして、敷地形状データが存在する場合には、当該敷地形状データに基づいて目的地の敷地の形状を特定することが可能であり、当該敷地の形状に基づいて間口の長さおよび間口の端点を特定すればよい。むろん、敷地形状データは、少なくとも目的地の敷地の形状が特定できるように定義されていれば良く、目的地の3次元形状を特定することに伴って敷地の形状が特定できるように定義されたポリゴンデータであってもよい。
 一方、敷地形状データが存在しない場合、間口の形状を正確に特定することができない。この場合は、間口の長さを特定することにより、目的地の間口の中央から移動体が存在する道路の方向における奥側および手前側に間口の長さの1/2だけ移動した位置を間口の端点と見なすことが可能になる。従って、目的地の全てについて敷地形状データを定義しなくても、間口の端点を特定することが可能になる。
 なお、この場合における間口の長さは予め規定され、運転支援システムによって参照可能な記録媒体に当該長さを示す情報が記録されていれば良い。また、間口の長さは各目的地について定義されても良いし、目的地の属性から間口の長さが推定されても良い。後者としては、間口の長さが目的地の種別毎に予め規定されている構成を採用可能である。すなわち、各目的地に予め目的地の種類を示す情報が対応付けられているように構成し、任意の目的地についての目的地アイコンを表示する際に、当該目的地の種別から間口の長さを特定し、間口の端点を特定する構成を採用可能である。
 さらに、本発明のように、誤差が最大誤差である場合に目的地アイコンの表示位置が間口内の位置または目的地よりも手前の位置となるように目的地アイコンの表示位置を特定する手法は、プログラムや方法としても適用可能である。また、以上のようなシステム、プログラム、方法は、単独の装置として実現される場合や、複数の装置によって実現される場合、車両に備えられる各部と共有の部品を利用して実現される場合が想定可能であり、各種の態様を含むものである。例えば、以上のような装置を備えたナビゲーションシステムや方法、プログラムを提供することが可能である。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、システムを制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。
  10…ナビゲーションシステム、20…制御部、21…ナビゲーションプログラム、21a…間口長取得部、21b…最大誤差取得部、21c…表示位置特定部、21d…画像表示部、30…記録媒体、30a…地図情報、30b…誤差情報、41…GPS受信部、42…車速センサ、43…ジャイロセンサ、44…カメラ、45…ユーザI/F部

Claims (9)

  1.  移動体の前方の風景に目的地を示す目的地アイコンを重畳した画像を表示部に表示する運転支援システムであって、
     前記移動体が存在する道路沿いの前記目的地の間口の長さを取得する間口長取得手段と、
     前記目的地アイコンの表示位置が前記間口内の位置となるように、前記移動体の推定位置に基づいて前記目的地アイコンの表示位置を特定する表示位置特定手段と、
     前記移動体の前方の風景における前記目的地アイコンの表示位置に前記目的地アイコンを重畳した画像を前記表示部に表示する画像表示手段と、
    を備える運転支援システム。
  2.  前記表示位置特定手段は、
      前記移動体が存在する道路の方向において前記移動体の推定位置と実際の位置との誤差が生じていたとしても、前記目的地アイコンの表示位置が前記間口内の位置または前記目的地よりも手前の位置となるように、前記移動体の推定位置に基づいて前記目的地アイコンの表示位置を特定する、
    請求項1に記載の運転支援システム。
  3.  前記移動体が存在する道路の方向に発生し得る前記移動体の推定位置と実際の位置との誤差の最大値である最大誤差を取得する最大誤差取得手段をさらに備え、
     前記表示位置特定手段は、
      前記誤差が0である場合に前記目的地アイコンの表示位置が前記間口内の位置となり、かつ、前記誤差が前記最大誤差である場合に前記目的地アイコンの表示位置が前記間口内の位置または前記目的地よりも手前の位置となるように、前記移動体の推定位置に基づいて前記目的地アイコンの表示位置を特定する、
    請求項1または請求項2のいずれかに記載の運転支援システム。
  4.  前記表示位置特定手段は、
      前記間口の長さの1/2が前記最大誤差未満である場合、前記移動体が存在する道路の方向における前記間口の奥側の端点から前記最大誤差だけ手前側の位置を前記目的地アイコンの表示位置とする、
    請求項3に記載の運転支援システム。
  5.  前記表示位置特定手段は、
      前記間口の長さの1/2が前記最大誤差以上である場合、前記移動体が存在する道路の方向における前記間口の手前側の端点から前記最大誤差だけ奥側の位置を前記目的地アイコンの表示位置とする、
    請求項3または請求項4のいずれかに記載の運転支援システム。
  6.  前記表示位置特定手段は、
      前記目的地の敷地の形状を示す敷地形状データが存在する場合、前記敷地形状データに基づいて前記間口の端点を特定し、
      前記敷地形状データが存在しない場合、前記目的地について予め規定された前記間口の長さの1/2だけ、前記目的地の間口の中央から前記移動体が存在する道路の方向における奥側および手前側に移動した位置を前記間口の端点として特定する、
    請求項3または請求項4のいずれかに記載の運転支援システム。
  7.  前記間口の長さは、前記目的地の種別毎に予め規定されている、
    請求項1~請求項6のいずれかに記載の運転支援システム。
  8.  移動体の前方の風景に目的地を示す目的地アイコンを重畳した画像を表示部に表示する運転支援方法であって、
     前記移動体が存在する道路沿いの前記目的地の間口の長さを取得する間口長取得工程と、
     前記目的地アイコンの表示位置が前記間口内の位置となるように、前記移動体の推定位置に基づいて前記目的地アイコンの表示位置を特定する表示位置特定工程と、
     前記移動体の前方の風景における前記目的地アイコンの表示位置に前記目的地アイコンを重畳した画像を前記表示部に表示する画像表示工程と、
    を含む運転支援方法。
  9.  移動体の前方の風景に目的地を示す目的地アイコンを重畳した画像を表示部に表示する運転支援プログラムであって、
     前記移動体が存在する道路沿いの前記目的地の間口の長さを取得する間口長取得機能と、
     前記目的地アイコンの表示位置が前記間口内の位置となるように、前記移動体の推定位置に基づいて前記目的地アイコンの表示位置を特定する表示位置特定機能と、
     前記移動体の前方の風景における前記目的地アイコンの表示位置に前記目的地アイコンを重畳した画像を前記表示部に表示する画像表示機能と、
    をコンピュータに実現させる運転支援プログラム。
PCT/JP2014/065321 2013-07-23 2014-06-10 運転支援システム、方法およびプログラム WO2015012010A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/901,145 US9791287B2 (en) 2013-07-23 2014-06-10 Drive assist system, method, and program
EP14829813.6A EP2988097B1 (en) 2013-07-23 2014-06-10 Driving support system, method, and program
CN201480035375.XA CN105324637B (zh) 2013-07-23 2014-06-10 驾驶辅助系统、方法以及存储介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-152302 2013-07-23
JP2013152302A JP6236954B2 (ja) 2013-07-23 2013-07-23 運転支援システム、方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2015012010A1 true WO2015012010A1 (ja) 2015-01-29

Family

ID=52393063

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/065321 WO2015012010A1 (ja) 2013-07-23 2014-06-10 運転支援システム、方法およびプログラム

Country Status (5)

Country Link
US (1) US9791287B2 (ja)
EP (1) EP2988097B1 (ja)
JP (1) JP6236954B2 (ja)
CN (1) CN105324637B (ja)
WO (1) WO2015012010A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6661883B2 (ja) * 2015-02-09 2020-03-11 株式会社デンソー 車両用表示制御装置及び車両用表示制御方法
KR101750159B1 (ko) * 2015-07-01 2017-06-22 엘지전자 주식회사 차량 주행 보조 장치, 이의 동작 방법, 및 이를 포함하는 차량
US9802620B2 (en) * 2015-12-18 2017-10-31 GM Global Technology Operations LLC Position error estimate and implementation for autonomous driving
US20190043235A1 (en) * 2016-03-24 2019-02-07 Mitsubishi Electric Corporation Support image display apparatus, support image display method, and computer readable medium
US10289115B2 (en) * 2017-06-01 2019-05-14 Aptiv Technologies Limited Automated vehicle map localization based on observed geometries of roadways
AU2018299288B2 (en) * 2017-07-14 2021-07-22 Komatsu Ltd. Display control device, display control method, program, and display system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10132598A (ja) * 1996-10-31 1998-05-22 Sony Corp ナビゲート方法、ナビゲーション装置及び自動車
JP2003215228A (ja) * 2002-01-23 2003-07-30 Hitachi Ltd 位置表示機能付き移動端末装置及び位置表示方法
JP2005308543A (ja) * 2004-04-21 2005-11-04 Denso Corp 地図表示機能を有する電子機器及びプログラム
JP2007067487A (ja) * 2005-08-29 2007-03-15 Hitachi Ltd 情報処理システム、および位置情報提示方法
JP2008202987A (ja) * 2007-02-16 2008-09-04 Toyota Motor Corp 車載ナビゲーション装置
JP2011154041A (ja) 2006-03-30 2011-08-11 Denso Corp ナビゲーション装置
JP2013072778A (ja) * 2011-09-28 2013-04-22 Toyota Motor Corp 車両用画像表示装置

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4327780C2 (de) * 1992-08-19 1998-12-17 Aisin Aw Co Fahrzeug-Navigationssystem und Fahrzeug-Navigationsverfahren
KR100235239B1 (ko) 1995-09-29 1999-12-15 모리 하루오 가형정보의 출력장치, 가형정보의 출력방법, 지도표시장치, 지도표시방법, 네비게이션장치 및 네비게이션방법
JP4094246B2 (ja) * 2001-05-10 2008-06-04 アルパイン株式会社 車載用ナビゲーション装置
DE602004002048T2 (de) * 2003-07-30 2007-02-22 Pioneer Corp. Gerät, System und Verfahren zur Signaliseren von der Verkehrslage
JP3972366B2 (ja) * 2003-09-26 2007-09-05 マツダ株式会社 車両用情報提供装置
WO2006035755A1 (ja) * 2004-09-28 2006-04-06 National University Corporation Kumamoto University 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
JP4667951B2 (ja) * 2004-10-14 2011-04-13 アルパイン株式会社 ナビゲーション装置
JP4483798B2 (ja) * 2005-04-06 2010-06-16 株式会社デンソー 経路案内装置およびプログラム
US8423292B2 (en) * 2008-08-19 2013-04-16 Tomtom International B.V. Navigation device with camera-info
JP2007292713A (ja) * 2006-03-30 2007-11-08 Denso Corp ナビゲーション装置
WO2007145190A1 (ja) * 2006-06-12 2007-12-21 Panasonic Corporation ナビゲーション装置及びナビゲーション方法
US7590487B2 (en) * 2006-08-10 2009-09-15 Alpine Electronics, Inc. Method and apparatus of displaying three-dimensional arrival screen for navigation system
DE102006057427A1 (de) * 2006-12-06 2008-06-12 Robert Bosch Gmbh Zielführungsverfahren und Anordnung zur Durchführung eines solchen sowie ein entsprechendes Computerprogramm und ein entsprechendes prozessorlesbares Speichermedium
AU2007343413A1 (en) * 2007-01-10 2008-07-17 Tomtom International B.V. A navigation device and method providing a traffic message channel resource
JP5105902B2 (ja) * 2007-02-28 2012-12-26 アルパイン株式会社 ナビゲーション装置及びその経路案内方法
US7865302B2 (en) * 2007-03-29 2011-01-04 Alpine Electronics, Inc. Method and apparatus for displaying house number and building footprint in arrival screen for navigation system
US8204684B2 (en) * 2007-06-28 2012-06-19 Apple Inc. Adaptive mobile device navigation
WO2009084135A1 (ja) * 2007-12-28 2009-07-09 Mitsubishi Electric Corporation ナビゲーション装置
JP4553033B2 (ja) * 2008-05-15 2010-09-29 株式会社デンソー 現在位置算出装置及びプログラム
KR101502013B1 (ko) * 2008-12-24 2015-03-12 엘지전자 주식회사 이동 단말기 및 이동 단말기의 위치기반서비스 제공방법
JP5142047B2 (ja) * 2009-02-26 2013-02-13 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置及びナビゲーション用プログラム
JP2010230551A (ja) * 2009-03-27 2010-10-14 Sony Corp ナビゲーション装置及びナビゲーション方法
US9026353B2 (en) * 2010-02-26 2015-05-05 Alpine Electronics, Inc. Method and apparatus for displaying guidance for navigation system
JP5062497B2 (ja) * 2010-03-31 2012-10-31 アイシン・エィ・ダブリュ株式会社 風景画像認識を用いた自車位置検出システム
WO2012077204A1 (ja) * 2010-12-08 2012-06-14 トヨタ自動車 株式会社 運転支援装置
JP5625987B2 (ja) * 2011-02-16 2014-11-19 アイシン・エィ・ダブリュ株式会社 案内装置、案内方法、および、案内プログラム
US9157749B2 (en) * 2011-04-11 2015-10-13 Clarion Co., Ltd. Position calculation method and position calculation apparatus
JP5796378B2 (ja) * 2011-07-07 2015-10-21 アイシン・エィ・ダブリュ株式会社 移動案内システム、移動案内装置、移動案内方法及びコンピュータプログラム
CN103930936B (zh) * 2011-11-15 2016-03-09 丰田自动车株式会社 驾驶支援装置
JP5928320B2 (ja) * 2012-12-07 2016-06-01 株式会社日立製作所 電気自動車向けナビゲーションシステム
JP6154295B2 (ja) * 2013-11-14 2017-06-28 本田技研工業株式会社 ナビゲーションシステム、電子機器のナビゲーション方法及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10132598A (ja) * 1996-10-31 1998-05-22 Sony Corp ナビゲート方法、ナビゲーション装置及び自動車
JP2003215228A (ja) * 2002-01-23 2003-07-30 Hitachi Ltd 位置表示機能付き移動端末装置及び位置表示方法
JP2005308543A (ja) * 2004-04-21 2005-11-04 Denso Corp 地図表示機能を有する電子機器及びプログラム
JP2007067487A (ja) * 2005-08-29 2007-03-15 Hitachi Ltd 情報処理システム、および位置情報提示方法
JP2011154041A (ja) 2006-03-30 2011-08-11 Denso Corp ナビゲーション装置
JP2008202987A (ja) * 2007-02-16 2008-09-04 Toyota Motor Corp 車載ナビゲーション装置
JP2013072778A (ja) * 2011-09-28 2013-04-22 Toyota Motor Corp 車両用画像表示装置

Also Published As

Publication number Publication date
JP6236954B2 (ja) 2017-11-29
CN105324637A (zh) 2016-02-10
EP2988097B1 (en) 2020-05-20
JP2015021918A (ja) 2015-02-02
CN105324637B (zh) 2018-02-27
US9791287B2 (en) 2017-10-17
EP2988097A1 (en) 2016-02-24
US20160153802A1 (en) 2016-06-02
EP2988097A4 (en) 2016-04-27

Similar Documents

Publication Publication Date Title
JP6236954B2 (ja) 運転支援システム、方法およびプログラム
JP5921320B2 (ja) 表示システム、携帯装置、車載装置、及び、プログラム
JP4895313B2 (ja) ナビゲーション装置およびその方法
JP4921462B2 (ja) カメラ情報を有するナビゲーションデバイス
US8352177B2 (en) Navigation apparatus
JP4459717B2 (ja) 地図更新システム
JP4914726B2 (ja) 現在位置算出装置、現在位置算出方法
JP6540485B2 (ja) 経路変更装置及び経路変更システム
JP2009236844A (ja) ナビゲーション装置、ナビゲーション方法およびナビゲーションプログラム
JP2008151507A (ja) 合流案内装置および合流案内方法
JP2019109707A (ja) 表示制御装置、表示制御方法および車両
JP2014211431A (ja) ナビゲーション装置、及び、表示制御方法
JP6179166B2 (ja) 地点表示システム、方法およびプログラム
JP2008032596A (ja) 3次元マップマッチング処理装置、3次元マップマッチング処理方法、3次元マップマッチング処理プログラム、ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラム、および、自動車
JP2005326168A (ja) 運転支援システム、車両、および運転支援方法
JP5702476B2 (ja) 表示装置、制御方法、プログラム、記憶媒体
JP2015049039A (ja) ナビゲーション装置、及びナビゲーションプログラム
JP2008002965A (ja) ナビゲーション装置およびその方法
JP6432572B2 (ja) 表示装置、表示システム
JP2008157680A (ja) ナビゲーション装置
KR20080019690A (ko) 카메라 정보를 구비하는 내비게이션 기기
JP5438172B2 (ja) 情報表示装置、情報表示方法、情報表示プログラムおよび記録媒体
JP2013217808A (ja) 車載機器
JP2017173125A (ja) 車線案内システムおよび車線案内プログラム
JP6432312B2 (ja) ナビゲーションシステム、ナビゲーション方法、及びナビゲーションプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480035375.X

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14829813

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2014829813

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14901145

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE