WO2007037126A1 - ナビゲーション装置、ナビゲート方法および車両 - Google Patents

ナビゲーション装置、ナビゲート方法および車両 Download PDF

Info

Publication number
WO2007037126A1
WO2007037126A1 PCT/JP2006/318189 JP2006318189W WO2007037126A1 WO 2007037126 A1 WO2007037126 A1 WO 2007037126A1 JP 2006318189 W JP2006318189 W JP 2006318189W WO 2007037126 A1 WO2007037126 A1 WO 2007037126A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
image
branch point
vehicle
navigation device
Prior art date
Application number
PCT/JP2006/318189
Other languages
English (en)
French (fr)
Inventor
Takahiro Kudoh
Tsuyoshi Kindo
Takashi Akita
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to EP06797939A priority Critical patent/EP1944740A1/en
Priority to US12/065,943 priority patent/US20090132162A1/en
Publication of WO2007037126A1 publication Critical patent/WO2007037126A1/ja

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map

Definitions

  • the present invention relates to a navigation device, a navigation method, and a vehicle, and more specifically.
  • the present invention relates to a navigation device, a navigation method, and a vehicle that present an image picked up by an image pickup device such as a vehicle-mounted camera to a driver and assist in driving the vehicle.
  • a navigation device that is installed in a vehicle, presents a traveling direction to a driver through a display, and performs a route plan is widely known.
  • map information is stored in advance on an HDD or DVD (Digital Versatile Disk).
  • the map information includes road information and CG (Computer Graphics) data related to branch points such as intersections.
  • CG Computer Graphics
  • the CG data regarding this branch point is very high-definition and has data similar to the actual landscape.
  • Patent Document 1 JP 2000-155895 A
  • an object of the present invention is to provide a navigation device that provides a driver with an appropriate image of the vicinity of a branch point that is necessary for a course change or the like at a branch point such as an intersection.
  • the present invention employs the following configuration.
  • a first aspect is a navigation device that is installed in a vehicle and displays an image captured by an imaging unit that captures the front of the vehicle on a screen, and a route to a destination set by a user.
  • Distance calculating means for calculating the distance to the position;
  • the navigation device includes a control unit that changes a display magnification of an image to be displayed on the screen according to the calculated distance. Note that the image here includes both a moving image and a still image.
  • the imaging magnification itself of the imaging means can be adjusted simply by changing the display magnification by enlarging the image captured by the imaging means. This also includes changing the display magnification of the image displayed on the screen.
  • a second aspect is the display according to the first aspect, wherein the control unit enlarges at least a part of an area of the image captured by the imaging unit to a predetermined display size according to the calculated distance. Change the magnification.
  • control unit increases the size of the area to be enlarged as the calculated distance becomes shorter, and enlarges the area to a predetermined display size. This changes the display magnification.
  • control means sets the position of the area to be enlarged set for the image captured by the imaging means in a direction corresponding to the branching direction of the vehicle at the branching point.
  • the display magnification is changed by moving and enlarging the area to a predetermined display size.
  • control unit changes the amount of movement of the position of the area to be enlarged set for the image captured by the imaging unit, according to the calculated distance. Make it.
  • the navigation device has at least a rule regarding an imaging start and end timing for each branch point and a size of an area to be enlarged at the start of imaging for each branch point.
  • An imaging rule setting unit including a rule for the imaging unit, and a road width information acquiring unit for acquiring information about a road width of the road at the branch point. The size of the area to be enlarged at the start of imaging is determined based on the road width and imaging rule at!
  • control unit changes the display magnification of the image displayed on the screen by changing the imaging magnification of the imaging device according to the calculated distance.
  • the eighth aspect is that, in the seventh aspect, the control means is configured to reduce the calculated distance. Accordingly, the display magnification is changed by lowering the imaging magnification of the imaging means.
  • control means changes the imaging magnification by changing the imaging direction of the imaging means to the branch direction of the vehicle at the branch point.
  • control means changes the angle at which the imaging azimuth of the imaging means is changed according to the calculated distance.
  • the eleventh aspect includes, in the seventh aspect, at least a rule regarding the timing of starting and ending imaging at each branch point and a rule regarding the imaging magnification of the imaging means at the time of starting imaging at each branch point.
  • the image capturing rule setting means for setting the image capturing rule of the image capturing means and the road width information acquiring means for acquiring information on the road width of the road at the branch point are further provided, and the control means includes the road width and the image capturing rule for each branch point. Based on this, the imaging magnification at the start of imaging is set.
  • the twelfth aspect further includes recognition means for detecting a person by performing image recognition from an image picked up by the image pickup means in the seventh aspect, and the control means is arranged at the position of the detected person. Accordingly, the imaging direction of the imaging means is changed to change the imaging magnification.
  • the first aspect further includes virtual viewpoint conversion means for converting the viewpoint of the image whose display magnification has been changed into an image viewed from the virtual viewpoint.
  • the virtual viewpoint conversion means relatively increases the height of the virtual viewpoint as the distance from the branch point decreases.
  • the fifteenth aspect further includes image editing means for superimposing another image on the image whose display magnification is changed by the control means in the first aspect.
  • a captured image acquisition step that is installed in a vehicle and acquires an image captured by an imaging unit that captures the front of the vehicle, a route to a destination set by a user, and the route
  • An information acquisition step for acquiring the position information of the upper branch point and the current position of the vehicle, a distance calculation step for calculating the distance to the position of the branch point for the current position force of the vehicle, and a screen based on the calculated distance
  • control step at least a partial region of the image acquired in the captured image acquisition step is determined according to the calculated distance.
  • the display magnification is changed by enlarging to a fixed display size.
  • control step changes the display magnification of the image displayed on the screen by changing the imaging magnification of the imaging means according to the calculated distance.
  • a nineteenth aspect includes a vehicle body on which an imaging unit that captures a scene that is applied in front of a moving direction can be installed, and a navigation device that displays an image captured by the imaging unit on a screen.
  • the route search means for searching for the route to the destination set by the user, the branch point information acquisition means for acquiring the position information of the branch point on the searched route, and the current position of the mobile object are acquired.
  • the imaging means is installed in the passenger compartment of the vehicle.
  • the imaging means is installed outside the passenger compartment of the vehicle.
  • the image of the branch point can be displayed on the screen in a size (display magnification) that is easy for the user to see according to the distance between the branch point and the vehicle.
  • a size display magnification
  • an image in the branch direction can be presented to the user in advance to call attention.
  • the user can drive while paying attention to the road conditions after turning right or left.
  • the image of the branch point since the image of the branch point is zoomed and photographed, the image of the branch point can be provided in a clear state. This makes it easier for the user to understand the situation at the branch point.
  • an image in the vicinity of a branch point with high viewpoint power can be provided, so that information about the situation in the vicinity of the branch point can be provided more easily.
  • editing such as overlaying an arrow image on the screen after changing the display magnification can be performed, and the user can be navigated in a form that is easier to distribute.
  • the imaging means since the imaging means is installed inside the passenger compartment, it is possible to prevent the imaging means from becoming dirty or being stolen.
  • the imaging means is installed outside the vehicle compartment, it is possible to image a landscape outside the vehicle in a wider range that is not obstructed by obstacles, compared to when installed inside the vehicle compartment. It becomes. As a result, more information can be collected and provided to the user.
  • FIG. 1 is a block diagram of a navigation device according to an embodiment of the present invention.
  • Fig. 2 is a diagram schematically showing an image reflected on the camera at a point 300m before the intersection.
  • FIG. 3 schematically shows the image shown on the camera at a point 100m before the intersection. It is a figure.
  • FIG. 4 is a diagram schematically showing an image reflected on the camera at a point 50 m before the intersection.
  • FIG. 5 is a diagram showing an example of the data structure of the guidance timing master 50.
  • FIG. 6 is a diagram showing an example of the data structure of the initial display area table 60.
  • FIG. 7 is a diagram schematically showing an intersection.
  • FIG. 8 is a diagram showing an example of the data structure of the change rate master 80.
  • FIG. 9 is a graph showing an example of the amount of change in zoom magnification.
  • FIG. 10 is a diagram showing an intersection imageable area.
  • FIG. 11 is a flowchart showing details of a navigation process in the present embodiment.
  • FIG. 12 is a flowchart showing details of the imaging rule setting process shown in step S 103 of FIG. 11.
  • FIG. 13 is a diagram schematically showing how the display target area is shifted in the traveling direction.
  • FIG. 14 is a diagram schematically showing how the display target area is shifted in the vertical direction.
  • FIG. 15 is a diagram for explaining viewpoint conversion.
  • FIG. 16 is a schematic diagram showing the effect of viewpoint conversion at a 50 m point.
  • FIG. 17 is a flowchart showing a navigation process performed by a navigation device that is powerful in the second embodiment.
  • FIG. 18 is a diagram schematically showing an image of a branch point in the second embodiment.
  • FIG. 19 is a diagram schematically showing an image of a branch point in the second embodiment.
  • FIG. 20 is a diagram schematically showing an image of a branch point in the second embodiment. Explanation of symbols
  • FIG. 1 is a block diagram showing a configuration of a navigation device (hereinafter referred to as a navigation device) according to the first embodiment of the present invention.
  • the navigation device 10 includes an input unit 101, a route search unit 102, a position information detection unit 103, a distance calculation unit 104, a map DB 105, an imaging rule storage unit 106, and an imaging rule setting unit 107.
  • the input unit 101 is a means for inputting information related to the destination to the navigation device, and includes a remote control touch panel, a voice input microphone, and the like.
  • the route search unit 102 refers to the information about the destination input from the input unit 101, the vehicle position information detected by the position information detection unit 103, and the map DB 105, and the route to the destination. Explore.
  • the position information detection unit 103 acquires information on the vehicle position measured by a positioning sensor represented by a GPS (Global Positioning System) attached to the vehicle.
  • GPS Global Positioning System
  • the distance calculation unit 104 refers to the vehicle position information detected by the position information detection unit 103, and determines a branch point on the route searched by the route search unit 102 (such as a vehicle turning right or left). Calculate the distance between the first branch point on the route after the current location of the vehicle and the vehicle position.
  • the map DB 105 is means for storing map information necessary for route guidance and search. For example, it is realized by HDD and DVD.
  • the imaging rule storage unit 106 stores data relating to a rule (hereinafter referred to as an imaging rule) for imaging a branch point using the imaging unit 109. Details of data stored in the imaging rule storage unit 106 will be described later.
  • the imaging rule setting unit 107 extracts a branch point on the route searched by the route search unit 102. Then, for each branch point, refer to the information about the road width of the road at the branch point stored in the map DB 105 and the imaging rule storage unit 106, and set the imaging rule such as the start / end timing of imaging. . Further, the imaging rule setting unit 107 outputs the set imaging rule to the control unit 108.
  • the control unit 108 controls the imaging unit 109 based on the imaging rule. Further, the control unit 108 outputs the image captured by the imaging unit 109 to the display unit 110.
  • the imaging unit 109 images the front of the vehicle.
  • the imaging unit 109 is realized by, for example, a CCD (Charge Coupled Devices) camera or a CMOS (Complementary Metal Oxide Semiconductor) camera.
  • the camera may be installed either inside the vehicle or outside the vehicle, but it is desirable to install it at a high position from the road surface, such as in the vicinity of the rear view mirror if it is inside the vehicle, or on the roof of the vehicle body if outside the vehicle.
  • the imaging unit 109 does not force the position / orientation so that the intersection is at the center of the camera image. It is assumed that it has been installed.
  • the display unit 110 displays the image captured by the imaging unit 109.
  • Display unit 110 is realized by a liquid crystal display, a head-up display, a projection device that projects an image on a windshield, or the like.
  • the driver gets into the car and inputs the destination information to the navigation device, so that the navigation device searches for a route to the destination. If the route can be searched, branch points such as intersections to be turned right or left and exits of expressways are extracted on the route, and the above-described imaging rules are set for each branch point.
  • the branch point 300 m Frontal force An imaging rule shall be set to start navigation and end navigation when it reaches a branch point. Thereafter, the driver starts driving.
  • the imaging unit 109 (hereinafter referred to as a camera) starts capturing an image that is applied forward of the vehicle.
  • the display unit 110 displays a real image captured by the camera.
  • the image area near the branch intersection among the images captured by the camera is enlarged on the display unit 110 by digital zoom, and an image on which an arrow indicating the traveling direction at the intersection is superimposed is displayed.
  • the area to be digitally zoomed in is enlarged and the zoom magnification is lowered. That is, the display unit 110 always displays an image near the branch intersection in the same range.
  • FIG. 2 (A) is a diagram schematically showing an image captured by the camera at a point 300m before the branch intersection.
  • an image as shown in FIG. That is, only the region 21 near the center of the camera image shown in FIG. 2A (hereinafter referred to as a display target region) is digitally zoomed (here, 10 times) and displayed on the display unit 110.
  • FIG. 3 is a diagram showing an image (FIG. 3 (A)) captured by the camera and an image (FIG. 3 (B)) displayed on the display unit 110 when approaching a point 100m in front. As shown in Fig.
  • FIG. 4 is a diagram showing an image of the camera (FIG. 4 (A)) and the display unit 110 (FIG. 4 (B)) when approaching a point 50m in front. In this state, the camera image is very close to the branch intersection.
  • the display target area 21 is made larger than the display target area 21 at a distance of 100 m, and the zoom magnification is further reduced (in this case, doubled) to be displayed on the display unit 110.
  • the zoom magnification is further reduced (in this case, doubled) to be displayed on the display unit 110.
  • FIG. 4B an image near the branch intersection is displayed on the display unit 110 in the same range as when 300 m and 100 m before. And if it passes the branch intersection, the said guidance will be complete
  • the display target area that is, the area to be digitally zoomed
  • the zoom magnification are appropriately changed and displayed on the screen.
  • a guidance timing master 50 an initial display area table 60, and a change rate master 80 are used.
  • the guidance timing master 50 and the change rate master 80 are tables created in advance and stored in the imaging rule storage unit 106.
  • the initial display area table 60 is generated by the imaging rule setting unit 107 and stored in a memory (not shown). Then, the control unit 108 controls the imaging unit 109 with reference to the initial display area table 60 stored in the memory.
  • FIG. 5 is a diagram showing an example of the data structure of the guidance timing master 50.
  • the guide timing master 50 includes a start distance 51 and an end distance 52.
  • the start distance and end distance indicate the period during which the route guidance is given to the driver.
  • start guidance by displaying an image, and when it reaches the end distance, the guidance ends.
  • the start distance is 300 m and the end distance is Om. Note that the start distance and end distance are not limited to this. For example, it may be possible to end the guidance 50m before the branch intersection!
  • FIG. 6 is a diagram showing an example of the data structure of the initial display area table 60.
  • the initial display area table 60 is also a collective force of the branch point ID 61, the initial display area coordinates 62, and the initial magnification 63.
  • the branch point ID 61 is an ID for identifying each branch point.
  • the initial display area coordinates 62 are used to indicate a display target area to be displayed on the display section 110 at the start of navigation among images captured by the imaging section 109.
  • the initial magnification 63 is a digital zoom magnification at the start of navigation.
  • the initial display area will be described.
  • the initial display area is an image area of an actual scene to be displayed on the display unit 110 when the presentation of an image to the driver is started (in the above example, when approaching 300 m to the branch intersection) (that is, the navigation area).
  • the initial display area will be described with reference to FIG. Figure 7 is a schematic representation of a branching intersection. In Figure 7, if the branch intersection width is am, at least the left
  • the horizontal width of the initial display area is set so that the area including right ⁇ m is displayed. In other words, the mounting position and imaging magnification of the imaging unit 109 are set in advance so that a wide range of images sufficient to include the region can be captured. Information about the branch intersection width is stored in the map DB 105.
  • the initial display area is adaptively set for each branch intersection with reference to the map DB 105. Once the distance to the branching intersection and the horizontal width of the imaging range are determined, the size of the initial display area is uniquely determined.
  • the display target area including the initial display area is determined so that the center point of the camera image matches the center point of the display target area.
  • the present invention is not limited to this, and the display target area may be set so that, for example, an area 50 m before the branch intersection is displayed. That is, the display target area may be determined such that the center point of the display target area is below the center point of the camera image.
  • the map DB 105 does not store information about the branching intersection width, it may be determined using information on the number of lanes on the road and an estimated value of the lane width.
  • FIG. 8 is a diagram showing an example of the data structure of the change rate master 80.
  • the rate of change master 80 also has a collective power of an initial magnification 81 and a distance magnification 82 at each distance to the branch point.
  • the initial magnification 81 corresponds to the initial magnification 63 described above.
  • the distance magnification 82 indicates the digital zoom magnification to be applied to the display target area according to the distance to the branch point.
  • the rate of change here refers to the amount of change in the magnification of the digital zoom applied to the display target area according to the distance between the vehicle and the branch point.
  • An example of the change in the magnification is shown in FIG.
  • Figure 9 shows that when the digital zoom magnification at the position where the presentation of images is started for route guidance (distance 300m to the branch point) is 10.0, the magnification is 1 at the distance 30m to the branch point.
  • the magnification is constant regardless of the distance to the branch point, as shown in Fig. 10 (A)
  • the area around the branch intersection at the remote point (for example, the distance of 300 m to the branch point) is imaged. If the imaging magnification included in is set, the entire branch intersection cannot be imaged at a nearby point (for example, a distance of 30m to the branch point).
  • the imaging magnification is lowered as the branch point is approached (that is, the captured image is If the rate of change in imaging is defined so that the angle is increased), it is possible to capture the entire branching intersection at both remote and nearby points as shown in Fig. 10 (B), which is preferable for the driver. ⁇ Images can be provided.
  • the rate of change is arbitrarily determined in consideration of various conditions such as the performance of the camera and the mounting position on the vehicle as long as the above-mentioned numerical values (such as 1 times at a distance of 30 m) are used. I can do it.
  • the unit change amount may be arbitrarily determined such as increasing or decreasing the change amount as it approaches a branching point that is not a constant value as shown in FIG.
  • FIG. 11 is a flowchart showing details of the navigation processing in the present embodiment.
  • the route search unit 102 determines whether or not the driver has input the destination information via the input unit 101 (step S101). As a result, if the destination information has not been input (NO in step S101), the determination is repeated until the destination information is input. On the other hand, if the destination information is input (YES in step S101), the route search unit 102 acquires the vehicle position information detected by the position information detection unit 103, and based on this information, The route to reach is searched (step S102).
  • the imaging rule setting unit 107 acquires information about the branch point on the searched route from the map DB 105, and refers to the imaging rule storage unit 106 to set the imaging rule at each branch point.
  • the imaging rule setting process is performed (step S103).
  • FIG. 12 is a flowchart showing details of the imaging rule setting process shown in step S103.
  • the imaging rule setting unit 107 acquires from the route search unit 102 information on branch points existing on the route searched in step S102 of FIG. 11 (step S201).
  • the information includes at least data on the location information of the branch point and the road width of the road at the branch point.
  • the imaging rule setting unit 107 refers to the guidance timing master 50 from the imaging rule storage unit 106, and acquires the start distance 51 and the end distance 52 (step S202).
  • the start distance is 300 m and the end distance is 0 m for all branch points. That is, when 300m before the branch point, a navigation screen as described below (hereinafter referred to as a navigation screen) is displayed on the display unit 110, and when the branch point is reached, End the navigation screen display.
  • the imaging rule setting unit 107 sets an initial imaging area at each branch point (step S203). That is, the above-described initial display area table 60 is generated. The processing in step S203 will be described in more detail.
  • the imaging rule setting unit 107 adds a predetermined margin according to the road width at each branch point acquired in step S201, and determines the horizontal width of the initial display area. .
  • an initial display area coordinate 62 is determined by determining a predetermined vertical width according to the horizontal width.
  • an initial magnification 63 that is a magnification of the digital zoom when the navigation screen is displayed is set.
  • the size of the display target area is specified using the coordinates in pixel units for the camera image.
  • the imaging rule setting unit 107 sets a rate of change (step S204). Specifically, the imaging rule setting unit 107 reads the magnification 82 for each distance from the change rate master 80 according to the initial magnification 63, and stores it in the memory in association with the target branch point.
  • step S205 it is determined whether or not the above imaging rule is set for all branch points on the route. If the imaging rule is not set for all branch points (NO in step S205), the imaging rule setting unit 107 returns to step S201 and repeats the process. On the other hand, when the imaging rule is set for all the branch points (YES in step S205), the imaging rule setting unit 107 ends the imaging rule setting process.
  • the distance calculation unit 104 calculates the distance between the vehicle position and the branch point, and notifies the control unit 108 of the calculated result (step S104).
  • the control unit 108 determines whether the distance calculated by the distance calculation unit 104 is less than or equal to the start distance 51 set by the imaging rule setting unit 107 in the control unit 108. In other words, the force within 300m before the branch point is judged (Step S105), and if the result of the judgment is not less than the starting distance 51 (NO in Step S105), the process returns to Step S104 for processing. On the other hand, if the start distance is 51 or less (Y ES in step S105), the control unit 108 performs imaging based on the imaging rule set by the imaging rule setting unit 107. The unit 109 is controlled (step S106).
  • control unit 108 performs imaging with a camera and cuts out the display target area as described above. Then, the control unit 108 generates an image in which the display target area is digitally zoomed based on the distance magnification 82 according to the calculated distance.
  • step S 107 the control unit 108 generates an image in which an arrow image 22 (see FIG. 2B, etc.) indicating the traveling direction at the branch point is superimposed (overlaid) (step S 107).
  • the process of step S107 will be described more specifically.
  • the control unit 108 calculates the angle, inclination, and size of the arrow based on the distance to the branch point and the direction of the camera.
  • an arrow image 22 is generated based on the calculation result.
  • a navigation image is generated by superimposing the generated arrow image 22 on the image subjected to the digital zoom.
  • control unit 108 outputs the navigation image generated in step S107 to display unit 110 (step S108). That is, the display unit 110 displays an image as shown in FIG.
  • control unit 108 determines whether or not the distance between the branch point and the host vehicle has reached end distance 52 (step S109). As a result, when the end distance 52 has not yet been reached (NO in step S109), the process returns to step S104 and is repeated. On the other hand, when the end distance 52 is reached (YES in step S109), the control on the imaging unit 109 and the image output to the display unit 110 are ended, and the process proceeds to the next step S110.
  • step S110 control unit 108 determines whether or not the force has reached the destination (step S110). As a result, if it is still arriving at the destination (NO in step S110), the processing from step S104 onward is repeated for the remaining branch points until the destination is reached. On the other hand, when the destination is reached (YES in step S110), the navigation process is terminated.
  • the image power of the camera is also required for the driver when the route guidance is performed using the image of the branch point imaged by the camera installed in the vehicle.
  • a real landscape image is cut out according to the distance to the branch point, and enlarged and presented. This makes it possible to display an image of the vicinity of a branching point, which is necessary for the driver, in an easy-to-understand manner, enabling the driver to perform safe driving.
  • the center point of the display target area always matches the center point of the camera image.
  • the present invention is not limited to this, and the center point of the display target area is branched. Depending on the distance to the point, for example, it may be shifted toward the traveling direction (branch direction). FIG.
  • range 121 indicates the display target area at a point 300 m before the branch intersection. If the route at the junction is a right turn, when the vehicle approaches the vicinity of the junction, pay attention to the road conditions after the right turn (to avoid contact with pedestrians, etc.). Therefore, it is desirable to alert the driver by giving the driver an image of the right turn direction. Therefore, the display target area may be shifted from the initial range 121 to the range 122 that is the traveling direction of the vehicle as the vehicle approaches the branch intersection. Specifically, in the change rate master, the shift amount of the display target area (the number of pixels to be shifted may be defined according to the distance to the branch point.
  • the shift amount may be calculated, and in step S106, the control unit 108 depends on the traveling direction at the branch point and the shift amount. It is only necessary to shift the display target area to the right or left, cut out the area, and apply digital zoom.In addition to such horizontal movement, it is also possible to move up and down as shown in FIG. You can also define a movement to, or both a vertical / horizontal movement! /.
  • the display target area may be changed according to an object such as a pedestrian as well as the traveling direction alone.
  • the control unit 108 is provided with an image recognition function. Then, when the captured image is analyzed and a pedestrian is detected in the traveling direction, the display target area may be appropriately shifted so that the pedestrian is included in the display target area. As a result, pedestrians and the like can be visually aspired and the driver can perform safer driving.
  • viewpoint conversion may be performed on an image picked up when approaching a branch point.
  • the viewpoint conversion will be described with reference to FIG. 15 and FIG.
  • Viewpoint transformation is a technology that generates an image from a different viewpoint (virtual viewpoint) by performing coordinate transformation on the real image.
  • the imaging rule storage unit 106 stores the coordinates for coordinate conversion.
  • a coordinate conversion table storing predetermined rules is stored.
  • the control unit 108 may perform viewpoint conversion in accordance with the rules of the coordinate conversion table and display on the display unit 110. For example, to convert the coordinate conversion table into a viewpoint with height h2 and the depression angle of the camera optical axis (downward angle of the camera optical axis with respect to a plane parallel to the ground) ⁇ 2 as shown in Fig.
  • the control unit 108 uses the coordinate conversion table selected by the imaging rule setting unit 107 according to the own vehicle position calculated by the distance calculation unit 104 and the distance to the branch point, and coordinates the image captured by the imaging unit 109. Perform conversion processing and output to display unit 110.
  • the viewpoint is converted into a higher viewpoint image as it approaches the branch point.
  • the viewpoint conversion algorithm will be described.
  • the algorithm for converting an image captured from the camera viewpoint into an image viewed from the virtual viewpoint 2 the force camera parameter of the imaging unit 109 and the camera parameter force of the virtual viewpoint 2 at the camera viewpoint are uniquely determined geometrically.
  • the method is described below.
  • the first step the correspondence between the ground coordinate system obtained by the camera parameter at the virtual viewpoint and the virtual image sensor surface coordinate system at the virtual viewpoint is obtained. Thereby, it is calculated which position on the ground coordinate system each pixel of the virtual imaging element surface coordinate system corresponds to.
  • the second step the correspondence between the ground coordinate system at the virtual viewpoint 2 and the ground coordinate system obtained from the camera parameter camera of the imaging unit 109 is obtained.
  • each coordinate of the ground coordinate system at the virtual viewpoint 2 corresponds to in the camera parameters of the imaging unit 109.
  • the correspondence between the ground coordinate system in the camera parameters of the imaging unit 109 and the imaging element plane coordinate system in the camera parameters of the imaging unit 109 is obtained.
  • each coordinate force in the ground coordinate system in the camera parameters of the imaging unit 109 is calculated to correspond to the position on the imaging element plane coordinate system in the camera parameters of the imaging unit 109.
  • the imaging element plane coordinate system of the imaging unit 109 and the virtual imaging element plane coordinate system at the virtual viewpoint 2 are associated with each other and stored in the imaging rule storage unit 106 as a conversion table.
  • the above processing has a known camera parameter! /, Even possible.
  • FIG. 16 is a schematic diagram showing the effect of viewpoint conversion at a 50 m point.
  • Fig. 16 (A) shows the image taken at the camera viewpoint at this point
  • Fig. 16 (B) shows the image obtained by subjecting virtual viewpoint 2 to coordinate transformation.
  • 8 that is far from the intersection as shown in Fig. 16 (B) deviates from the display target area, but for the area ⁇ near the branching intersection, It is displayed larger. Therefore, the driver can more easily understand the situation near the branch intersection.
  • the navigation device includes a first driving unit (not shown) for causing the imaging unit 109 to drive a lens for optical zoom, and a second driving unit for changing the orientation of the imaging unit 109. Except for including drive means (not shown), the second embodiment is the same as the first embodiment described above, and therefore, the same reference numerals are assigned and detailed description is omitted.
  • the data used in this embodiment is basically the same as that in the first embodiment.
  • the magnification 82 for each distance 82 of the change rate master 80 described above with reference to FIG. This is different from the first embodiment.
  • the initial magnification 63 of the initial display area table 60 also indicates the optical zoom magnification. That is, the optical zoom magnification at the start of navigation is set according to the road width at each branch point.
  • FIG. 17 is a flowchart showing a navigation process performed by the navigation device that works well in the second embodiment.
  • the navigation process performed in the second embodiment is basically the same as the navigation process in the first embodiment described with reference to FIG. 10 except for step S306. Therefore, detailed description of common processing is omitted.
  • control unit 108 performs imaging control (step S306).
  • the control unit 108 captures an image with a camera and cuts out the image force display target area.
  • the control unit 108 changes the magnification of the camera along the distance magnification 82 of the change rate master 80, that is, performs optical zoom and moves forward. Take an image. In other words, by changing the imaging magnification of the camera in accordance with the distance, a landscape in the same range can be captured at any distance.
  • the control unit 108 superimposes the arrow image 22 on the captured image and outputs it in step S108.
  • FIG. 18 (A) is a diagram schematically showing a camera image at 300 m before the branch intersection.
  • FIG. 18B is a diagram schematically showing an image displayed on display unit 110 at this time. The initial magnification at this time is assumed to be 10 times.
  • the camera image itself Since the image near the difference point is zoomed up, the navigation screen (FIG. 18 (B)) is generated by superimposing the arrow image 22 on this image as it is.
  • FIG. 19 is a diagram schematically showing an image 100 meters before. At this point, the imaging magnification is 5 times. An arrow image 22 is superimposed on this image (FIG.
  • FIG. 19A to generate a navigation screen (FIG. 19B).
  • FIG. 20 is a schematic diagram showing an image 50 meters before. At this point, the camera imaging magnification is double. An arrow image 22 is superimposed on this camera image (FIG. 20 (A)) to generate a navigation screen (FIG. 20 (B)).
  • step S306 the control unit 108 may direct the direction of the camera (imaging azimuth) in the branch direction of the vehicle according to the distance from the branch point. This is for the same reason as in FIG. 12 in which the position of the display target area is shifted in accordance with the traveling direction of the vehicle in the first embodiment described above.
  • optical zoom and the digital zoom described in the first embodiment may be used in combination.
  • a predetermined display target area may be cut out from an image captured with an optical zoom of 5 ⁇ , and displayed with a 2 ⁇ digital zoom.
  • the above-described distance calculation unit 104, imaging rule setting unit 107, and control unit 108 in FIG. 1 may be included in the imaging unit 109.
  • information on navigation from the route search unit 102 and the distance calculation unit 104 is output to a camera unit (imaging unit 109) that is independent from the navigation device.
  • the image to be presented to the driver is generated by controlling the imaging magnification or editing the image if the above-described imaging rules are set. Thereafter, the generated image may be output to the navigation device so that the navigation device displays the image.
  • the control unit 108 may be included in an external unit (for example, a power camera control unit) that is independent of the navigation device and the camera.
  • the external unit may receive route information and position information from the navigation device, set the above-described imaging rules, and output a signal for controlling the camera to the camera.
  • the camera power also receives the image, performs the processing such as the digital zoom and the arrow superposition as described above, and then outputs the processed image to the navigation device!
  • each of the embodiments described above may be provided in the form of a program that is executed by a computer.
  • the navigation program stored in the imaging rule storage unit 106 may be read, and the control unit 108 may execute the processes shown in FIGS.
  • you may provide with the form of mobile bodies, such as a vehicle carrying the above-mentioned navigation apparatus.
  • the navigation device, method and vehicle according to the present invention can change the image to be guided and displayed according to the distance between the branch point and the vehicle, and the car navigation device, display, etc. installed in the vehicle This is useful for image display devices, in-vehicle information terminals, camera units, and control units for camera control.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Description

ナビゲーシヨン装置、ナビゲート方法および車両
技術分野
[0001] 本発明は、ナビゲーシヨン装置、ナビゲート方法および車両に関し、より特定的には
、車載カメラ等の撮像装置により撮像された画像をドライバに提示し、車両の走行を 支援するナビゲーシヨン装置、ナビゲート方法および車両に関する。
背景技術
[0002] 従来、車両に設置され、ディスプレイを通してドライバに進行方向を提示し、経路案 内を行うナビゲーシヨン装置が広く知られている。このようなナビゲーシヨン装置にお いては、あらかじめ HDDや DVD (Digital Versatile Disk)に地図情報を格納し ておく。当該地図情報には、道路情報や交差点などの分岐地点に関する CG (Com puter Graphics)データが含まれている。そして、車両が分岐地点に接近したのを 検出すると分岐地点に関する CGデータに対して、案内経路 (進行方向)を表す矢印 を重畳して描画することで、ドライバに対して自身の進むべき進路を通知している。こ の分岐地点に関する CGデータは非常に高精細であり、実際の風景と類似したデー タが備わっている。し力しながら、実際には存在する自車前方の車両や新たに建設さ れた施設が描かれないなど、様々な点でドライバが見る風景と異なることが多い。そ のためドライバにとっては、 CGデータで描かれた進路が実際の風景においてどこに 相当するのかを認知するための余計な負荷が生じていた。このような問題に対し、車 両の前方にカメラを設置して一定の撮像倍率にて前方の風景を撮像し、分岐交差点 まで所定の距離以内に接近したことを検出すると、その後交差点への接近に伴い、 距離に応じた大きさの案内矢印を画像に対して重畳表示する技術が開示されている (例えば特許文献 1)。これによれば、ドライバが見る風景と案内経路を示した画像が 一致するため、ドライバの認知的負荷を軽減する効果が生じる。
特許文献 1 :特開 2000— 155895号公報
発明の開示
発明が解決しょうとする課題 [0003] しカゝしながら、特許文献 1に記載されている技術では撮像倍率や撮像方位などが 固定されているため、交差点力も所定の距離だけ離れた地点 (遠隔地点と呼ぶ)と、 交差点近傍の地点 (近傍地点と呼ぶ)の、 Vヽずれにお 1ヽても適切な画像をドライバに 対して提示することは困難である。すなわち、遠隔地点において交差点での進行方 向を認知しやすくするためには、撮像倍率を高くし交差点付近の詳細な風景を提示 する必要がある力 このような高い倍率では近傍地点においては局所的な範囲しか 撮像できず、ドライバに分力り易い画像を提示できない。一方、近傍地点において交 差点付近の適切な画像を提供しょうとすると、撮像倍率を低くしなければならないが、 このような低い倍率では遠隔地点において、ドライバは交差点における進行方向を 確認することが困難となる。
[0004] また、ドライバにとって右左折など進路変更を行うときに必要となる情報は、交差点 までの距離に応じて異なることも考えられる。すなわち、遠隔地点においてはドライバ は進路変更を行うための手力 Sかり情報(「交差点の角にある銀行のところを左折」など )が必要となるので交差点の中心部付近を撮像した画像が提示されることが望まし ヽ 力 近傍地点では手力 Sかり情報もさることながら進路変更した後の周囲の状況 (左折 した道路上の歩行者など障害物の存在)を確認しなければならず、撮像方向を変化 させ交差点中心部だけでなく進路変更する方向を撮像した画像の提示が必要となる
[0005] それ故に、本発明の目的は、交差点等の分岐地点において、進路変更等に必要と なる当該分岐地点付近についての適切な画像をドライバに提供するナビゲーシヨン 装置を提供することである。
課題を解決するための手段
[0006] 上記目的を達成するために、本発明は以下のような構成を採用した。
[0007] 第 1の局面は、車両に設置され、当該車両の前方を撮像する撮像手段が撮像した 画像を画面に表示するナビゲーシヨン装置であって、ユーザにより設定された目的地 に至る経路を探索する経路探索手段と、探索された経路上の分岐地点の位置情報 を取得する分岐地点情報取得手段と、車両の現在位置を取得する位置情報検出手 段と、車両の現在位置力 分岐地点の位置までの距離を算出する距離算出手段と、 算出された距離に応じて、画面に表示する画像の表示倍率を変更する制御手段とを 備えるナビゲーシヨン装置である。なお、ここでいう画像には、動画および静止画の 双方が含まれる。また、ここでいう画面に表示される画像の表示倍率の変更には、撮 像手段が撮像した画像を拡大等することで表示倍率を変更するだけでなぐ撮像手 段の撮像倍率そのものを調整することで画面に表示される画像の表示倍率を変更す ることも含まれる。
[0008] 第 2の局面は、第 1の局面において、制御手段は、算出された距離に応じて、撮像 手段が撮像した画像の少なくとも一部の領域を所定の表示サイズまで拡大することで 表示倍率を変更する。
[0009] 第 3の局面は、第 2の局面において、制御手段は、算出された距離が短くなるのに 応じて拡大する領域の大きさを大きくして、当該領域を所定の表示サイズまで拡大す ることで表示倍率を変更する。
[0010] 第 4の局面は、第 2の局面において、制御手段は、撮像手段が撮像した画像に対し て設定する拡大する領域の位置を、更に分岐地点における車両の分岐方向に応じ た方向に移動して、当該領域を所定の表示サイズまで拡大することで表示倍率を変 更する。
[0011] 第 5の局面は、第 4の局面において、制御手段は、算出された距離に応じて、撮像 手段が撮像した画像に対して設定する拡大する領域の位置を移動する量を変化さ せる。
[0012] 第 6の局面は、第 2の局面において、ナビゲーシヨン装置は、少なくとも分岐地点毎 の撮像開始および終了のタイミングについての規則と分岐地点毎の撮像開始時にお ける拡大する領域の大きさについての規則とを含む撮像手段の撮像規則を設定する 撮像規則設定手段と、分岐地点にかかる道路の道幅についての情報を取得する道 幅情報取得手段とを更に備え、制御手段は、分岐地点毎における道幅と撮像規則と に基づ!/、て、撮像開始時における拡大する領域の大きさを決定する。
[0013] 第 7の局面は、第 1の局面において、制御手段は、算出された距離に応じて撮像手 段の撮像倍率を変化させることで、画面に表示する画像の表示倍率を変更する。
[0014] 第 8の局面は、第 7の局面において、制御手段は、算出された距離が短くなるのに 応じて撮像手段の撮像倍率を下げることで表示倍率を変更する。
[0015] 第 9の局面は、第 7の局面において、制御手段は、撮像手段の撮像方位を分岐地 点における車両の分岐方向に変更して撮像倍率を変更する。
[0016] 第 10の局面は、第 9の局面において、制御手段は、算出された距離に応じて、撮 像手段の撮像方位を変更する角度を変化させる。
[0017] 第 11の局面は、第 7の局面において、少なくとも分岐地点毎の撮像開始および終 了のタイミングについての規則と分岐地点毎の撮像開始時における撮像手段の撮像 倍率についての規則とを含む撮像手段の撮像規則を設定する撮像規則設定手段と 、分岐地点にかかる道路の道幅についての情報を取得する道幅情報取得手段とを 更に備え、制御手段は、分岐地点毎における道幅と撮像規則とに基づいて、撮像開 始時における撮像倍率を設定する。
[0018] 第 12の局面は、第 7の局面において、撮像手段によって撮像された画像から画像 認識を行うことで人を検出する認識手段を更に備え、制御手段は、検出された人の 位置に応じて撮像手段の撮像方位を変更して力ゝら撮像倍率を変更する。
[0019] 第 13の局面は、第 1の局面において、表示倍率が変更された画像を仮想視点から 見た画像に視点変換する仮想視点変換手段を更に備える。
[0020] 第 14の局面は、第 13の局面において、仮想視点変換手段は、分岐地点との距離 が短くなるのに応じて、仮想視点の高さを相対的に高くする。
[0021] 第 15の局面は、第 1の局面において、制御手段によって表示倍率が変更された画 像に更に別の画像を重畳する画像編集手段を更に備える。
[0022] 第 16の局面は、車両に設置され、当該車両の前方を撮像する撮像手段が撮像し た画像を取得する撮像画像取得ステップと、ユーザにより設定された目的地に至る 経路と当該経路上の分岐地点の位置情報と車両の現在位置とを取得する情報取得 ステップと、車両の現在位置力も分岐地点の位置までの距離を算出する距離算出ス テツプと、算出された距離に基づいて画面に表示する画像の表示倍率を変更する制 御ステップとを有するナビゲート方法である。
[0023] 第 17の局面は、第 16の局面において、制御ステップにおいては、算出された距離 に応じて、撮像画像取得ステップにお 、て取得した画像の少なくとも一部の領域を所 定の表示サイズまで拡大することで表示倍率を変更する。
[0024] 第 18の局面は、第 16の局面において、制御ステップは、算出された距離に応じて 撮像手段の撮像倍率を変化させることで、画面に表示する画像の表示倍率を変更す る。
[0025] 第 19の局面は、移動方向の前方に力かる風景を撮像する撮像手段が設置可能な 車体と、撮像手段が撮像した画像を画面に表示するナビゲーシヨン装置とを備え、ナ ピゲーシヨン装置は、ユーザにより設定された目的地に至る経路を探索する経路探 索手段と、探索された経路上の分岐地点の位置情報を取得する分岐地点情報取得 手段と、移動体の現在位置を取得する位置情報検出手段と、移動体の現在位置か ら分岐地点の位置までの距離を算出する距離算出手段と、算出された距離に応じて 、画面に表示する画像の表示倍率を変更する制御手段とを含む車両である。
[0026] 第 20の局面は、第 19の局面において、撮像手段は、車両の車室内に設置される。
[0027] 第 21の局面は、第 19の局面において、撮像手段は、車両の車室外に設置される。
局面の効果
[0028] 上記第 1の局面によれば、分岐地点と車両との距離に応じて、分岐地点の画像を ユーザにとって見やすい大きさ(表示倍率)で画面に表示することができる。これによ り、ユーザにとって必要となる、分岐地点近傍の画像を把握しやすい形で表示でき、 ユーザに安全な運転を行うことを可能とさせる。
[0029] 上記第 2の局面によれば、撮像された画像の一部を拡大して表示するため、分岐 地点の状況をより把握しやすい状態にした画像をユーザに提供することができる。
[0030] 上記第 3の局面によれば、分岐地点に近づいていく過程において、ほぼ同じ範囲 が映っている当該分岐地点についての画像を提供することができる。これにより、分 岐地点の画像を常に把握しやす!/、状態で提供できる。
[0031] 上記第 4乃至第 5の局面によれば、自車が交差点近傍に接近した際に、あらかじめ 分岐方向の画像をユーザに提示して注意を促すことができる。これにより、ユーザは 右折や左折後の道路状況などに注意を払って運転を行うことができる。
[0032] 上記第 6の局面によれば、分岐地点の道幅に応じた適切な大きさの画像を提供す ることができる。これにより、ユーザにとって分岐地点の状況をより把握しやすい画像 を提供できる。
[0033] 上記第 7の局面によれば、分岐地点の画像をズームして撮影するため、分岐地点 についての画像を鮮明な状態で提供することができる。これにより、分岐地点の状況 につ 、てユーザに把握させやすくできる。
[0034] 上記第 8乃至第 11の局面によれば、上記第 3乃至第 6の局面と同様の効果を得る ことができる。
[0035] 上記第 12の局面によれば、歩行者等の人物を画像認識し、当該人物が映されるよ うに撮像手段の撮像方位を変化させることができる。これにより、ユーザに歩行者の 存在を気付カゝせやすくすることができ、その結果、より安全な運転を行わせることが可 能となる。
[0036] 上記第 13乃至第 14の局面によれば、高い視点力もの分岐地点近傍の画像を提供 できるため、分岐地点近傍の状況について、より把握しやすい形で情報提供できる。
[0037] 上記第 15の局面によれば、表示倍率変更後の画面に矢印画像を重ねる等の編集 を行うことができ、より分力りやすい形でユーザにナビゲートすることができる。
[0038] また、本局面のナビゲート方法によれば、上述した第 1、第 2、第 7の局面と同様の 効果を得ることができる。
[0039] また、上記第 19の局面によれば、上述した第 1の局面と同様の効果を得ることがで きる。
[0040] 上記第 20の局面によれば、撮像手段を車室の内部に設置するため、撮像手段が 汚れることや、盗難に遭うことを防ぐことができる。
[0041] 上記第 21の局面によれば、撮像手段を車室外に設置するため、車室内に設置す るときに比べ、障害物に遮られない広い範囲で車外の風景を撮像することが可能とな る。その結果、より多くの情報を収集し、ユーザに提供することが可能となる。
図面の簡単な説明
[0042] [図 1]図 1は、本発明の実施形態におけるナビゲーシヨン装置のブロック図である。
[図 2]図 2は、交差点から 300m手前の地点におけるカメラに映る画像を模式的に示 す図である。
[図 3]図 3は、交差点から 100m手前の地点におけるカメラに映る画像を模式的に示 す図である。
[図 4]図 4は、交差点から 50m手前の地点におけるカメラに映る画像を模式的に示す 図である。
[図 5]図 5は、案内タイミングマスタ 50のデータ構造の一例を示した図である。
[図 6]図 6は、初期表示領域テーブル 60のデータ構造の一例を示した図である。
[図 7]図 7は、交差点を模式的に表現した図である。
[図 8]図 8は、変化率マスタ 80のデータ構造の一例を示した図である。
[図 9]図 9は、ズーム倍率の変化量の一例を示すグラフである。
[図 10]図 10は、交差点撮像可能領域を示す図である。
[図 11]図 11は、本実施形態におけるナビゲート処理の詳細を示すフローチャートで ある。
[図 12]図 12は、図 11のステップ S 103で示した撮像規則設定処理の詳細を示すフロ 一チャートである。
[図 13]図 13は、表示対象領域を進行方向へシフトする様子を模式的に示した図であ る。
[図 14]図 14は、表示対象領域を上下方向へシフトする様子を模式的に示した図であ る。
[図 15]図 15は、視点変換に突いて説明するための図である。
[図 16]図 16は、 50m地点における視点変換の効果を表す模式図である。
[図 17]図 17は、第 2の実施形態に力かるナビ装置で行われるナビゲート処理を示す フローチャートである。
[図 18]図 18は、第 2の実施形態における分岐地点の画像を模式的に示す図である。
[図 19]図 19は、第 2の実施形態における分岐地点の画像を模式的に示す図である。
[図 20]図 20は、第 2の実施形態における分岐地点の画像を模式的に示す図である。 符号の説明
101 入力部
102 経路探索部
103 位置情報検出部 104 距離算出部
105 地図 DB
106 撮像規則記憶部
107 撮像規則設定部
108 制御部
109 撮像部
110 表示部
発明を実施するための最良の形態
[0044] 以下、本発明の実施の形態について、図面を参照して説明する。尚、この実施例 により本発明が限定されるものではない。
[0045] (第 1の実施形態)
図 1は、本発明の第 1の実施形態に係るナビゲーシヨン装置(以下、ナビ装置と呼 ぶ)の構成を示したブロック図である。図 1において、ナビ装置 10は、入力部 101と、 経路探索部 102と、位置情報検出部 103と、距離算出部 104と、地図 DB105と、撮 像規則記憶部 106と、撮像規則設定部 107と、制御部 108と、撮像部 109と、表示部
110とで構成されている。
[0046] 入力部 101は、ナビ装置に対して目的地に関する情報を入力するための手段であ り、リモコンゃタツチパネル、音声入力用のマイクなどにより構成される。
[0047] 経路探索部 102は、上記入力部 101から入力された目的地に関する情報、位置情 報検出部 103によって検出された自車位置情報、および地図 DB105を参照して、 目的地にいたる経路を探索する。
[0048] 位置情報検出部 103は、車両に取り付けられた GPS (Global Positioning Syst em)などに代表される測位センサによって計測された自車位置に関する情報を取得 する。
[0049] 距離算出部 104は、位置情報検出部 103により検出された自車位置情報を参照し て、経路探索部 102により探索された経路上の分岐地点(自車が右折、左折するな どの進路変更を行う地点)に対して、自車の現在地以降の進路上、最初に進入する 分岐地点と自車位置との距離を算出する。 [0050] 地図 DB105は、経路案内や探索に必要な地図情報を格納する手段である。例え ば、 HDDや DVDにより実現される。
[0051] 撮像規則記憶部 106には、上記撮像部 109を用いて分岐地点を撮像する際の規 則 (以下、撮像規則と呼ぶ)に関するデータが記憶される。撮像規則記憶部 106に記 憶されるデータの詳細については後述する。
[0052] 撮像規則設定部 107は、経路探索部 102により探索された経路上の分岐地点を抽 出する。そして、分岐地点それぞれに対して、地図 DB105に記憶されている分岐地 点にかかる道路の道幅に関する情報、および撮像規則記憶部 106を参照し、撮像の 開始'終了タイミング等の撮像規則を設定する。また、撮像規則設定部 107は、当該 設定した撮像規則を制御部 108に出力する。
[0053] 制御部 108は、上記撮像規則に基づ!/、て撮像部 109を制御する。また、制御部 10 8は、撮像部 109により撮像された画像を表示部 110へ出力する。
[0054] 撮像部 109は、車両の前方を撮像する。撮像部 109は、例えば、 CCD (Charge Coupled Devices)カメラや CMOS (Complementary Metal Oxide Semico nductor)カメラなどで実現される。当該カメラは車内、車外いずれに設置されてもよ いが、車内であればルームミラー付近の位置、車外であれば車体の屋根部など、路 面から高い位置に設置されることが望ましい。なお、本実施形態においては、説明の 便宜上、撮像部 109は、 300m先に分岐地点である交差点があると仮定した場合に 、当該交差点がカメラ画像の中心に来るような位置 ·向きにあら力じめ設置されている ものとする。
[0055] 表示部 110は、撮像部 109により撮像された画像を表示する。表示部 110は、液晶 ディスプレイ、ヘッドアップディスプレイ、画像をフロントガラスに投影する投影装置等 で実現される。
[0056] 次に、本実施形態におけるナビ装置が行うナビゲーシヨンの概要について説明す る。まず、ドライバが車に乗り込み、目的地の情報をナビ装置に入力することで、ナビ 装置は、目的地までの経路を探索する。当該経路が探索できれば、経路上に存在す る、右折あるいは左折すべき交差点や高速道路の出口などの分岐地点を抽出し、分 岐地点毎に上述したような撮像規則を設定する。本実施形態では、分岐地点の 300 m手前力 ナビゲーシヨンを開始し、分岐地点に到達したらナビゲーシヨンを終了す るという撮像規則を設定するものとする。その後、ドライバは運転を開始する。そして、 分岐地点となる交差点(以下、分岐交差点と呼ぶ)力 300mの距離に自車が近づく と、撮像部 109 (以下、カメラと呼ぶ)で車両の前方に力かる画像の撮像を開始する。 これに併せて、表示部 110には、当該カメラで撮像される実写画像が表示される。こ のとき、表示部 110には、カメラで撮像した画像のうち、分岐交差点の近傍の画像領 域のみがデジタルズームで拡大され、さらに、交差点における進行方向を表す矢印 が重畳された画像が表示される。その後、分岐交差点に接近するに伴い、デジタル ズームの対象となる領域を大きくし、ズームの倍率を下げていく。すなわち、表示部 1 10には、常に同じくらいの範囲で分岐交差点近傍の画像が表示されるようにする。 図 2〜図 4は、当該ナビゲーシヨンの概要を模式的に示す図である。まず、図 2 (A) は、分岐交差点から 300m手前の地点におけるカメラに映る画像を模式的に示す図 である。この画像に対して、表示部 110には、図 2 (B)に示すような画像が表示される 。つまり、図 2 (A)に示すカメラ画像の真中近傍の領域 21 (以下、表示対象領域と呼 ぶ)のみをデジタルズーム(ここでは 10倍とする)して、表示部 110に表示する。図 3 は、 100m手前の地点まで近づいたときにおけるカメラが捕らえる画像(図 3 (A) )と表 示部 110に表示される画像(図 3 (B) )とを示す図である。図 3 (A)に示すように、カメ ラ画像では 300m手前地点の画像よりも分岐交差点に近づ 、た画像となる。この画 像に対し、表示対象領域 21を 300m手前のときょり大きくし、ズームの倍率を下げて ( ここでは 7倍とする)、表示部 110に表示する。その結果、図 3 (B)に示すように、ナビ ゲーシヨンの画面として、 300m手前の時と同じくらいの範囲で分岐交差点近傍の画 像が表示される。図 4は、 50m手前の地点まで近づいたときにおけるカメラ(図 4 (A) )と表示部 110 (図 4 (B) )の画像を示す図である。この状態になると、カメラの画像は かなり分岐交差点に近づいた画像となっている。この画像に対し、表示対象領域 21 を 100m手前のときの表示対象領域 21よりも大きくし、ズームの倍率を更に下げて (こ こでは 2倍)表示部 110に表示する。その結果、図 4 (B)に示すように、表示部 110に は 300mおよび 100m手前の時と同じくらいの範囲で分岐交差点近傍の画像が表示 される。そして、分岐交差点を通過すれば、当該案内を終了する。以上のように、自 車と分岐地点との距離に応じて、カメラ画像のうち表示対象領域 (つまり、デジタルズ ームすべき領域)とそのズームの倍率を適宜変化させて画面に表示することで、ドラ ィバに対し、常に交差点近傍の適切な画像を表示することが可能となる。
[0058] 次に、本実施形態のナビゲート処理を実行するために必要な各種テーブルにつ!/ヽ て説明する。本実施形態では、案内タイミングマスタ 50、初期表示領域テーブル 60 、および変化率マスタ 80が用いられる。案内タイミングマスタ 50および変化率マスタ 80は、あらかじめ作成され、撮像規則記憶部 106に格納されるテーブルである。一 方、初期表示領域テーブル 60は、上記撮像規則設定部 107により生成されて、図示 しないメモリに記憶される。そして、制御部 108が、当該メモリに記憶された初期表示 領域テーブル 60を参照して、撮像部 109を制御する。
[0059] 図 5は、案内タイミングマスタ 50のデータ構造の一例を示した図である。案内タイミ ングマスタ 50は、開始距離 51と終了距離 52とから成る。開始距離および終了距離 は、ドライバに対して進路の案内を行う期間を示すものである。分岐地点に対し、車 両が開始距離まで近づいたら、画像の提示による案内を開始し、終了距離まで来た ら、当該案内を終了する。本実施形態では、開始距離は 300m、終了距離は Omで あるとして、以下説明する。なお、開始距離や終了距離は、これに限らず、例えば、 分岐交差点 50m手前で案内を終了するようにしても良 ヽことは言うまでもな!/ヽ。
[0060] 図 6は、初期表示領域テーブル 60のデータ構造の一例を示した図である。初期表 示領域テーブル 60は、分岐地点 ID61と初期表示領域座標 62と初期倍率 63との集 合力もなる。分岐地点 ID61は、上記各分岐地点を識別するための IDである。初期 表示領域座標 62は、撮像部 109で撮像される画像のうち、ナビゲーシヨン開始時に おける表示部 110に表示すべき表示対象領域を示すためのものである。初期倍率 6 3は、ナビゲーシヨン開始時におけるデジタルズームの倍率である。ここで、初期表示 領域について説明する。初期表示領域とは、ドライバに対して画像の提示を開始す る際(上述した例では、分岐交差点まで 300mに接近した時点)に表示部 110に表示 すべき実風景の画像領域 (すなわち、ナビゲート開始時の表示対象領域)を示す。 初期表示領域について、図 7を用いて説明する。図 7は、分岐交差点を模式的に表 現した図である。図 7において、分岐交差点幅を a mとした場合、少なくとも、その左 右 δ mづっを含む領域が表示されるように初期表示領域の水平方向の幅が設定さ れる。換言すれば、当該領域を含むに十分な、広い範囲の画像が撮像できるように、 あらかじめ撮像部 109の取り付け位置や撮像倍率を設定しておく。分岐交差点幅に ついての情報は、上記地図 DB105に記憶されている。そのため、初期表示領域は、 地図 DB105を参照し、分岐交差点ごとに適応的に設定される。分岐交差点までの 距離、および撮像範囲の水平方向の幅が定まると、初期表示領域の大きさが一意に 決定されることになる。なお、初期表示領域を含む表示対象領域について、本実施 形態では、カメラ画像の中心点が表示対象領域の中心点と一致するように決定する 。但し、これに限らず、表示対象領域は、例えば分岐交差点手前 50mの領域が表示 されるように設定するようにしてもよい。すなわち、カメラ画像の中心点に対して、表示 対象領域の中心点が下方に来るように表示対象領域を決定してもよい。また、地図 D B105に分岐交差点幅についての情報が記憶されていない場合には、道路の車線 数に関する情報と車線幅の概算値などを用いて決定してもよい。
図 8は、変化率マスタ 80のデータ構造の一例を示した図である。変化率マスタ 80は 、初期倍率 81と分岐地点までの各距離における距離毎倍率 82との集合力もなる。初 期倍率 81は、上述の初期倍率 63に対応するものである。距離毎倍率 82は、分岐地 点までの距離に応じて表示対象領域について施すべきデジタルズームの倍率を示 す。ここで、当該変化率について説明する。ここでいう変化率とは、自車と分岐地点と の距離に応じた、表示対象領域に施すデジタルズームの倍率の変化量を示すもの である。当該倍率の変化の一例を図 9に示す。図 9は、進路の案内のために画像の 提示を開始する位置(分岐地点までの距離 300m)におけるデジタルズームの倍率 を 10. 0とした場合に、分岐地点までの距離 30mにおいて倍率が 1となるまで一定の 割合づっ倍率を低下させる規則を表している。このような規則を設けることによる効果 について、図 10を用いて説明する。分岐地点までの距離に関わらず倍率が一定値 であった場合、図 10 (A)に示すように遠隔地点(例えば、分岐地点までの距離 300 m)にお ヽて分岐交差点付近を撮像対象領域に含む撮像倍率を設定すると近傍地 点 (例えば、分岐地点までの距離 30m)では分岐交差点全体を撮像することができ ない。これに対し、分岐地点への接近に伴って撮像倍率を低くする(つまり、撮像画 角を大きくする)ように撮像変化率を定義すると、図 10 (B)に示すように遠隔地点、近 傍地点いずれにおいても分岐交差点全体を撮像することが可能となり、ドライバに対 して好まし ヽ画像を提供することができる。
[0062] なお、変化率にっ 、ては上述した数値 (距離 30mで 1倍など)の限りではなぐカメ ラの性能や車両への取り付け位置等、種々の条件を勘案して任意に定めることがで きる。また、単位変化量に関しても図 9に示すような一定値ではなぐ分岐地点へ接 近するほど変化量を大きくしたり、小さくしたりするなど任意に定めてもよい。
[0063] 以下、図 11〜図 12を用いて、ナビ装置 100で行われるナビゲート処理の詳細動作 を説明する。図 11は、本実施形態におけるナビゲート処理の詳細を示すフローチヤ ートである。図 11において、まず、経路探索部 102は、入力部 101を介してドライバ による目的地の情報が入力された力否かを判定する (ステップ S101)。その結果、目 的地の情報の入力がされていなければ (ステップ S101で NO)、目的地の情報が入 力されるまで当該判定を繰り返す。一方、目的地の情報が入力されれば (ステップ S1 01で YES)、経路探索部 102は、位置情報検出部 103により検出される自車位置情 報を取得し、これに基づいて目的地に至る経路の探索を行う(ステップ S102)。
[0064] 次に、撮像規則設定部 107は、探索された経路における分岐地点に関する情報を 地図 DB105から取得し、撮像規則記憶部 106を参照して、各分岐地点における撮 像規則を設定するための撮像規則設定処理を行う (ステップ S103)。図 12は、上記 ステップ S 103で示した撮像規則設定処理の詳細を示すフローチャートである。図 12 において、まず、撮像規則設定部 107は、図 11のステップ S102で探索した経路上 に存在する分岐地点の情報を経路探索部 102から取得する (ステップ S201)。当該 情報には、少なくとも、分岐地点の位置情報および分岐地点にかかる道路の道幅に つ 、てのデータが含まれる。
[0065] 次に、撮像規則設定部 107は、撮像規則記憶部 106から案内タイミングマスタ 50を 参照し、開始距離 51および終了距離 52を取得する (ステップ S202)。ここでは、全て の分岐地点について、開始距離は 300mであり、終了距離は 0mであるものとする。 すなわち、分岐地点の 300m手前に来たときに、以下に述べるようなナビゲーシヨン 画面(以下、ナビ画面と呼ぶ)を表示部 110に表示し、当該分岐地点に到達すると、 ナビ画面の表示を終了する。
[0066] 次に、撮像規則設定部 107は、各分岐地点における初期撮像領域を設定する (ス テツプ S203)。すなわち、上述した初期表示領域テーブル 60の生成を行う。このス テツプ S203の処理をより具体的に説明すると、撮像規則設定部 107は、ステップ S2 01で取得した各分岐地点の道幅に応じて所定のマージンを加え、初期表示領域の 水平幅を決定する。次に、当該水平幅に応じて所定の垂直方向の幅を決定して初 期表示領域座標 62を決定する。次に、上記水平幅および上記開始距離 51とに基づ V、て、ナビ画面を表示する際のデジタルズームの倍率となる初期倍率 63を設定する 。なお、表示対象領域の大きさは、カメラ画像について、ピクセル単位の座標を用い て指定するものとする。
[0067] 次に、撮像規則設定部 107は、変化率を設定する (ステップ S204)。具体的には、 撮像規則設定部 107は、上記初期倍率 63に応じて、上記変化率マスタ 80から距離 毎倍率 82を読み込み、対象となる分岐地点に関連付けてメモリに記憶する。
[0068] 次に、経路上の全ての分岐地点について、上記のような撮像規則が設定されたか 否かを判定する (ステップ S205)。全ての分岐地点について撮像規則を設定してい ない場合は (ステップ S205で NO)、撮像規則設定部 107は、上記ステップ S201に 戻って処理を繰り返す。一方、全ての分岐地点について撮像規則を設定した場合は (ステップ S205で YES)、撮像規則設定部 107は、当該撮像規則設定処理を終了 する。
[0069] 図 11に戻り、ステップ S103の処理の次に、距離算出部 104は、自車位置と分岐地 点までの距離を算出し、当該算出した結果を制御部 108へ通知する (ステップ S104
) o
[0070] 続いて、制御部 108は、距離算出部 104により算出された距離が、制御部 108に おいて、撮像規則設定部 107により設定された開始距離 51以下である力否力 (すな わち、分岐地点の手前 300m以内に入った力 を判定する (ステップ S 105)。当該判 定の結果、開始距離 51以下ではない場合は (ステップ S105で NO)、ステップ S104 に戻って処理を繰り返す。一方、開始距離 51以下である場合は (ステップ S105で Y ES)、制御部 108は、撮像規則設定部 107により設定された撮像規則に基づき撮像 部 109を制御する (ステップ S106)。具体的には、制御部 108は、カメラによる撮像を 行い、上述したような表示対象領域を切り出す。そして、制御部 108は、上記算出さ れた距離に応じた距離毎倍率 82に基づいて当該表示対象領域をデジタルズームし た画像を生成する。
[0071] 次に、制御部 108は、分岐地点における進行方向を示す矢印画像 22 (図 2 (B)等 参照)を重畳 (オーバレイ)した画像を生成する (ステップ S 107)。このステップ S 107 の処理をより具体的に説明すると、まず、制御部 108は、分岐地点までの距離とカメ ラの向きとに基づいて、矢印の角度、傾き、大きさを計算する。そして、当該計算結果 に基づいて矢印画像 22を生成する。最後に、生成した矢印画像 22を上記デジタル ズームを施した画像に重畳することで、ナビ画像を生成する。
[0072] 次に、制御部 108は、上記ステップ S 107で生成されたナビ画像を、表示部 110に 出力する(ステップ S108)。すなわち、表示部 110には、上記図 2 (B)に示したような 画像が表示されることになる。
[0073] 次に、制御部 108は、分岐地点と自車との距離が終了距離 52に達した力否かを判 定する (ステップ S 109)。その結果、まだ終了距離 52に達していないときは (ステップ S109で NO)、ステップ S104に戻って処理を繰り返す。一方、終了距離 52に達した ときは (ステップ S 109で YES)、撮像部 109に対する制御、および表示部 110への 画像出力を終了し、処理を次のステップ S110に進める。
[0074] ステップ S110においては、制御部 108は、目的地に到達した力否かを判定する( ステップ S110)。その結果、目的地にまだ到着して ヽな 、ときは (ステップ S110で N 0)、目的地に到達するまで、残りの分岐地点に対してステップ S104以降の処理を 繰り返す。一方、目的地に到達したら (ステップ S110で YES)、当該ナビゲーシヨン 処理を終了する。
[0075] このように、第 1の実施形態では、車両に設置されたカメラにより撮像された分岐地 点の画像を用いて経路の案内を行う際に、カメラの画像力もドライバにとって必要とな る実風景の画像を分岐地点までの距離に応じて切り出し、拡大して提示する。これに より、ドライバにとって必要となる、分岐地点近傍の画像を把握しやすい形で表示で き、ドライバに安全な運転を行うことを可能とさせる。 [0076] なお、上記実施形態では、表示対象領域にっ 、て、その中心点をカメラ画像の中 心点と常に一致させているが、これに限らず、表示対象領域の中心点を、分岐地点と の距離に応じて、例えば、進行方向(分岐方向)寄りにシフトさせるようにしてもよい。 図 13は、表示対象領域を進行方向へシフトする様子を模式的に示した図である。図 13にお 、て、範囲 121は分岐交差点の 300m手前の時点での表示対象領域を示し ている。当該分岐交差点での進路が右折である場合、自車が分岐交差点近傍に接 近した際には右折後の道路状況などに注意を払って (歩行者などと接触しないため に)運転を行わなければならないため、あら力じめ右折方向の画像をドライバに提示 して注意を促すことが望ましい。そこで、分岐交差点への接近に伴い、表示対象領域 を初期の範囲 121から自車の進行方向である範囲 122へシフトさせるようにしてもよ い。具体的には、上記変化率マスタで、表示対象領域のシフト量 (何ピクセルずらす 力 を分岐地点までの距離に応じて定義しておけばよい。あるいは、車両の現在地座 標と分岐地点 (ノード)の座標と車両の方向とに基づいて、シフト量を算出するように してもよい。そして、上記ステップ S106において、制御部 108は、当該分岐地点に おける進行方向および上記シフト量に応じて、右あるいは左に表示対象領域をシフト してから当該領域を切り出し、デジタルズームを施すようにすればよい。また、このよう な左右方向の移動だけでなぐ更には、図 14に示すように上下方向への移動、ある いは上下 ·左右方向の双方の移動を定義してもよ!/、。
[0077] 更に、進行方向だけではなぐ例えば、歩行者などの物体に応じて表示対象領域 を変化させるようにしてもよい。この場合は、例えば、制御部 108に画像認識機能を 持たせる。そして、撮像した画像を分析し、進行方向に歩行者が検出された場合に は、その歩行者が表示対象領域に含まれるように表示対象領域を適宜シフトさせるよ うにしてもよい。これにより、歩行者等を目視しゃすくなり、より安全な運転をドライバ に行わせることが可能となる。
[0078] また、分岐地点への接近に伴って撮像される画像に対して、視点変換を行ってもよ い。当該視点変換について、図 15および図 16を用いて説明する。視点変換とは、実 画像に対して座標変換を行うことで、実際とは異なった視点 (仮想視点)からの画像 を生成する技術である。この場合は、撮像規則記憶部 106に、座標変換のための所 定の規則を記憶した座標変換テーブルを格納しておく。そして、制御部 108は、当該 座標変換テーブルの規則に従って視点変換を行 、、表示部 110に表示するようにす ればよい。例えば、座標変換テーブルに、図 15 (B)に示すような、高さ h2、カメラ光 軸の俯角(地面と平行な面に対するカメラ光軸の下向きの角度) ω 2の視点に変換す るための規則 (仮想視点 1用規則)と、図 15 (C)に示す高さ h3、俯角 ω 3の視点に変 換するための規則 (仮想視点 2用規則)の 2種類の規則を定義しておく。そして、撮像 される画像に対して、例えば、分岐地点まで 50mから 70mの間は仮想視点 2用規則 を、 50m以内では仮想視点 3用規則を適用して座標変換が行われ、生成された画像 をドライバに提示する。具体的には、撮像規則設定部 107は、案内開始タイミング以 後、自車位置が分岐地点から 50mから 70mの地点にあるときは、画像に対して仮想 視点 1への視点変換を、分岐地点から 50m以内の地点では、画像に対して仮想視 点 2への視点変換を行うことを決定する。制御部 108は、距離算出部 104により算出 される自車位置と分岐地点までの距離に応じて撮像規則設定部 107で選択された 座標変換テーブルを用い、撮像部 109により撮像される画像に座標変換処理を施し て、表示部 110に出力する。ここで、図 15 (A)に示すように車両に搭載された撮像部 109の高さを hl、俯角を ω 1 (以上、カメラ視点と呼ぶ)とすると、 hl <h2<h3、 ω 1 < ω 2< ω 3の関係が成り立つものとする。すなわち分岐地点への接近に伴い、より 高 、視点の画像に視点変換される。
ここで、視点変換のアルゴリズムにつ 、て説明する。カメラ視点で撮像された画像を 仮想視点 2から見た画像に変換するアルゴリズムは、カメラ視点での撮像部 109の力 メラパラメータと仮想視点 2のカメラパラメータ力も幾何学的に一意に決定される。以 下、その手法について述べる。まず、第一ステップで、仮想視点におけるカメラパラメ 一タカゝら求められる地面座標系と、この仮想視点における仮想撮像素子面座標系と の対応関係を求める。これにより、仮想撮像素子面座標系の各画素が、地面座標系 上のどの位置に相当するのかが算出される。第二ステップで、仮想視点 2における地 面座標系と、撮像部 109のカメラパラメータカゝら求められる地面座標系との対応関係 を求める。これにより、仮想視点 2における地面座標系の各座標が、撮像部 109の力 メラパラメータにおける地面座標系上のどの位置に相当するのかが算出される。第三 ステップで、撮像部 109のカメラパラメータにおける地面座標系と、撮像部 109のカメ ラパラメータにおける撮像素子面座標系との対応関係を求める。これにより撮像部 10 9のカメラパラメータにおける地面座標系の各座標力 撮像部 109のカメラパラメータ における撮像素子面座標系上でのどの位置に相当するのかが算出される。このよう な処理を行うことで、撮像部 109の撮像素子面座標系と仮想視点 2における仮想撮 像素子面座標系とが対応付けられ、撮像規則記憶部 106中に変換テーブルとして 記憶される。以上の処理はカメラパラメータが既知である!/、ずれの仮想視点にお!/、て も可能である。
[0080] 図 16に、 50m地点における視点変換の効果を表す模式図を示す。図 16 (A)はこ の地点でのカメラ視点における撮像画像、図 16 (B)は仮想視点 2へ座標変換処理を 施した画像である。視点変換で分岐交差点付近を高 、視点力もの画像に変換すると 、図 16 (B)のように交差点から離れた領域である |8は表示対象領域からはずれるが 、分岐交差点付近の領域 αについて、より大きく表示される。そのため、ドライバは、 分岐交差点付近の状況をより把握しやすくすることが可能となる。
[0081] このように、視点を変換することにより、ドライバにとってより有用な情報を提供するこ とが可能となる。この点についてより詳しく説明する。分岐地点に接近すると、分岐方 向などを特定するためにより詳細な情報(「あのコンビ-の向こうを左折」、「あの信号 機の手前を左折」など)が必要になる。そのため、ドライバにとっては図 15の領域 |8の ように分岐地点力 離れた領域の情報はそれほど重要でなく領域 OCの詳細な情報を より必要とする。そこで、分岐地点への接近に伴い高い視点へと視点変換を行うこと で、領域 αを大きぐ詳細に表示することが可能となる。これにより図 16 (A)の領域 α では確認しづらい物体であっても、図 16 (B)の領域 αでは確認しやすくなり、また重 畳する案内矢印の分岐方向を示す部分の幅も広く描画することができるため、ドライ バにとっては自身の分岐方向の判断が容易になると 、う効果が生じる。
[0082] (第 2の実施形態)
次に、図 17から図 20を参照して、本発明の第 2の実施形態について説明する。上 述の第 1の実施形態では、カメラ画像から所定の領域を切り出してデジタルズームを 施して表示している。これに対して、第 2の実施形態では、デジタルズームを用いず に、光学ズームを用いる。なお、当該実施形態に係るナビ装置は、撮像部 109に光 学ズームのためにレンズを駆動させる第 1の駆動手段(図示せず)、および撮像部 10 9の向きを変えるための第 2の駆動手段(図示せず)が含まれる他は、上述した第 1の 実施形態と同様であるため、同一の参照符号を付して詳細な説明を省略する。
[0083] 次に、第 2の実施形態で使用されるデータについて説明する。本実施形態で使用 されるデータは、基本的には第 1の実施形態と同じである力 図 8を用いて上述した 変化率マスタ 80の距離毎倍率 82は、撮像部 109の光学ズームの倍率を示す点が第 1の実施形態と異なる。また、初期表示領域テーブル 60の初期倍率 63も、光学ズー ムの倍率を示す。すなわち、それぞれの分岐地点の道幅に応じて、ナビゲート開始 時における光学ズームの倍率が設定される。
[0084] 以下、図 17〜図 20を用いて、本発明の第 2の実施形態にかかるナビゲート処理を 説明する。図 17は、第 2の実施形態に力かるナビ装置で行われるナビゲート処理を 示すフローチャートである。第 2の実施形態で行われるナビゲート処理は、ステップ S 306を除いては、基本的に図 10を用いて説明した第 1の実施形態におけるナビゲー ト処理と同様である。そのため、共通する処理については、詳細な説明を省略する。
[0085] 図 17において、ステップ S105の処理の次に、制御部 108は、撮像制御を行う(ス テツプ S306)。第 1の実施形態における撮像制御 (ステップ S106)では、制御部 108 は、カメラで撮像し、その画像力 表示対象領域を切り出していた。これに対し、本実 施形態における撮像制御の処理では、制御部 108は、上記変化率マスタ 80の距離 毎倍率 82に沿ってカメラの倍率を変化させて、すなわち、光学ズームを行って前方 の画像を撮像する。つまり、距離に応じて、カメラの撮像倍率を変化させていくことで 、どのような距離であっても、ほぼ同じ範囲の風景が写るようにする。そして、ステップ S107では、制御部 108は、当該撮像された画像に矢印画像 22を重畳し、ステップ S 108で出力する。
[0086] 図 18〜図 20を用いて、上記ステップ S306の処理について補足説明する。まず、 図 18 (A)は、分岐交差点の手前 300mにおけるカメラ画像を模式的に示す図である 。また、図 18 (B)は、このときに表示部 110に表示される画像を模式的に示す図であ る。このときの初期倍率は 10倍であるとする。その結果、カメラ画像自体が、分岐交 差点近傍をズームアップした画像となって ヽるため、この画像にそのまま矢印画像 22 を重畳することで、ナビ画面(図 18 (B) )が生成されることになる。図 19は、 100m手 前の画像を模式的に示す図である。この時点では撮像倍率は 5倍になっている。この 画像(図 19 (A) )に矢印画像 22を重畳してナビ画面(図 19 (B) )を生成する。図 20 は、 50m手前の画像を示す模式図である。この時点ではカメラ撮像倍率は 2倍であ る。このカメラ画像(図 20 (A) )に矢印画像 22を重畳して、ナビ画面(図 20 (B) )を生 成する。
[0087] このように、撮像倍率を距離に応じて変化させることにより、分岐交差点近傍を拡大 したカメラ画像 (すなわち、ほぼ同じ範囲が写っている画像)が撮れるため、当該画像 に矢印画像 22を重ねるだけでナビ画面が生成できる。また、ズームアップされた画 像がそのまま出力されるため、デジタルズームを施して出力するときに比べ、鮮明な 画像を提供することができる。
[0088] なお、上記ステップ S306において、制御部 108は、分岐地点との距離に応じて、 カメラの向き (撮像方位)を車両の分岐方向に向けるようにしてもよい。これは、図 12 を用 、て上述した第 1の実施形態における、車両の進行方向にあわせて表示対象領 域の位置をシフトすることと同様の理由による。
[0089] 更に、上記光学ズームと第 1の実施形態で説明したデジタルズームとを組み合わせ て用いてもよい。例えば、光学ズーム 5倍で撮像した画像に対し、所定の表示対象領 域を切り出し、 2倍のデジタルズームを施して表示するようにしてもよい。これにより、 高倍率の光学ズーム機構を搭載するコストを抑えつつ、デジタルズームのみを用いる 場合に比べて鮮明な画像をドライバに提供することが可能となる。
[0090] また、上述した図 1の距離算出部 104、撮像規則設定部 107および制御部 108を 撮像部 109に含ませるようにしてもよい。例えば、経路探索部 102および距離算出部 104からのナビゲーシヨンに関する情報を、ナビ装置とは別途独立したカメラユニット (撮像部 109)に出力する。そして、カメラユニットにおいて、上述した撮像規則の設 定ゃ撮像倍率の制御や画像の編集等を行うことでドライバに提示すべき画像を生成 する。その後、当該生成した画像をナビ装置に出力し、ナビ装置が当該画像を表示 するようにすればよい。また、上述した図 1の距離算出部 104、撮像規則設定部 107 および制御部 108を、ナビ装置ともカメラとも独立している外部のユニット(例えば、力 メラコントロールユニット)に含ませるようにしてもよい。この場合は、当該外部ユニット は、ナビ装置から経路情報や位置情報を受け取り、上述した撮像規則を設定して、 カメラを制御する信号をカメラに出力するようにすればよい。併せて、カメラ力も画像 を受け取り、上述したようなデジタルズームや矢印を重畳する等の処理を行ってから 、処理後の画像をナビ装置に出力するようにすればよ!、。
[0091] また、上述した各実施形態は、コンピュータに実行させるプログラムの形態で提供さ れてもよい。この場合は、上記撮像規則記憶部 106に格納されたナビゲートプロダラ ムを読み込み、制御部 108が図 11、 12に示すような処理を実行すればよい。また、 上述のようなナビゲーシヨン装置を搭載した車両等の移動体の形態で提供されてもよ い。
産業上の利用可能性
[0092] 本発明にかかるナビゲーシヨン装置、方法および車両は、分岐地点と車両との距離 に応じて案内表示すべき画像を変化させることができ、車両内に設置されるカーナビ ゲーシヨン装置、ディスプレイなどの画像表示装置、車載情報端末、カメラユニットや カメラ制御用のコントロールュ-ット等に有用である。

Claims

請求の範囲
[1] 車両に設置され、当該車両の前方を撮像する撮像手段が撮像した画像を画面に 表示するナビゲーシヨン装置であって、
ユーザにより設定された目的地に至る経路を探索する経路探索手段と、 前記探索された経路上の分岐地点の位置情報を取得する分岐地点情報取得手段 と、
前記車両の現在位置を取得する位置情報検出手段と、
前記車両の現在位置から前記分岐地点の位置までの距離を算出する距離算出手 段と、
前記算出された距離に応じて、前記画面に表示する画像の表示倍率を変更する制 御手段とを備えるナビゲーシヨン装置。
[2] 前記制御手段は、前記算出された距離に応じて、前記撮像手段が撮像した画像の 少なくとも一部の領域を所定の表示サイズまで拡大することで前記表示倍率を変更 する、請求項 1に記載のナビゲーシヨン装置。
[3] 前記制御手段は、前記算出された距離が短くなるのに応じて前記拡大する領域の 大きさを大きくして、当該領域を前記所定の表示サイズまで拡大することで前記表示 倍率を変更する、請求項 2に記載のナビゲーシヨン装置。
[4] 前記制御手段は、前記撮像手段が撮像した画像に対して設定する前記拡大する 領域の位置を、更に前記分岐地点における車両の分岐方向に応じた方向に移動し て、当該領域を前記所定の表示サイズまで拡大することで前記表示倍率を変更する
、請求項 2に記載のナビゲーシヨン装置。
[5] 前記制御手段は、前記算出された距離に応じて、前記撮像手段が撮像した画像に 対して設定する前記拡大する領域の位置を移動する量を変化させる、請求項 4に記 載のナビゲーシヨン装置。
[6] 前記ナビゲーシヨン装置は、
少なくとも前記分岐地点毎の撮像開始および終了のタイミングについての規則と 前記分岐地点毎の撮像開始時における前記拡大する領域の大きさについての規則 とを含む前記撮像手段の撮像規則を設定する撮像規則設定手段と、 前記分岐地点にかかる道路の道幅についての情報を取得する道幅情報取得手 段とを更に備え、
前記制御手段は、前記分岐地点毎における道幅と前記撮像規則とに基づいて、前 記撮像開始時における前記拡大する領域の大きさを決定する、請求項 2に記載のナ ピゲーシヨン装置。
[7] 前記制御手段は、前記算出された距離に応じて前記撮像手段の撮像倍率を変化 させることで、前記画面に表示する画像の表示倍率を変更する、請求項 1に記載の ナビゲーシヨン装置。
[8] 前記制御手段は、前記算出された距離が短くなるのに応じて前記撮像手段の撮像 倍率を下げることで前記表示倍率を変更する、請求項 7に記載のナビゲーシヨン装 置。
[9] 前記制御手段は、更に前記撮像手段の撮像方位を前記分岐地点における車両の 分岐方向に変更して、前記撮像倍率を変更する、請求項 7に記載のナビゲーシヨン 装置。
[10] 前記制御手段は、前記算出された距離に応じて、前記撮像手段の撮像方位を変 更する角度を変化させる、請求項 9に記載のナビゲーシヨン装置。
[11] 前記ナビゲーシヨン装置は、
少なくとも前記分岐地点毎の撮像開始および終了のタイミングについての規則と 前記分岐地点毎の撮像開始時における前記撮像手段の撮像倍率についての規則 とを含む前記撮像手段の撮像規則を設定する撮像規則設定手段と、
前記分岐地点にかかる道路の道幅についての情報を取得する道幅情報取得手 段とを更に備え、
前記制御手段は、前記分岐地点毎における道幅と前記撮像規則とに基づいて、前 記撮像開始時における前記撮像倍率を設定する、請求項 7に記載のナビゲーシヨン 装置。
[12] 前記ナビゲーシヨン装置は、前記撮像手段によって撮像された画像から画像認識 を行うことで人を検出する認識手段を更に備え、
前記制御手段は、前記検出された人の位置に応じて前記撮像手段の撮像方位を 変更して力 前記撮像倍率を変更する、請求項 7に記載のナビゲーシヨン装置。
[13] 前記表示倍率が変更された画像を仮想視点から見た画像に視点変換する仮想視 点変換手段を更に備える、請求項 1に記載のナビゲーシヨン装置。
[14] 前記仮想視点変換手段は、前記分岐地点との距離が短くなるのに応じて、前記仮 想視点の高さを相対的に高くする、請求項 13に記載のナビゲーシヨン装置。
[15] 前記制御手段によって前記表示倍率が変更された画像に更に別の画像を重畳す る画像編集手段を更に備える、請求項 1に記載のナビゲーシヨン装置。
[16] 車両に設置され、当該車両の前方を撮像する撮像手段が撮像した画像を取得する 撮像画像取得ステップと、
ユーザにより設定された目的地に至る経路と当該経路上の分岐地点の位置情報と 前記車両の現在位置とを取得する情報取得ステップと、
前記車両の現在位置から前記分岐地点の位置までの距離を算出する距離算出ス テツプと、
前記算出された距離に基づいて画面に表示する前記画像の表示倍率を変更する 制御ステップとを有するナビゲート方法。
[17] 前記制御ステップにおいては、前記算出された距離に応じて、前記撮像画像取得 ステップにおいて取得した画像の少なくとも一部の領域を所定の表示サイズまで拡 大することで前記表示倍率を変更する、請求項 16に記載のナビゲート方法。
[18] 前記制御ステップは、前記算出された距離に応じて前記撮像手段の撮像倍率を変 化させることで、前記画面に表示する画像の表示倍率を変更する、請求項 16に記載 のナビゲート方法。
[19] 移動方向の前方にかかる風景を撮像する撮像手段が設置可能な車体と、
前記撮像手段が撮像した画像を画面に表示するナビゲーシヨン装置とを備え、 前記ナビゲーシヨン装置は、
ユーザにより設定された目的地に至る経路を探索する経路探索手段と、 前記探索された経路上の分岐地点の位置情報を取得する分岐地点情報取得手 段と、
前記移動体の現在位置を取得する位置情報検出手段と、 前記移動体の現在位置から前記分岐地点の位置までの距離を算出する距離算 出手段と、
前記算出された距離に応じて、前記画面に表示する画像の表示倍率を変更する 制御手段とを含む車両。
[20] 前記撮像手段は、前記車両の車室内に設置されることを特徴とする、請求項 19に 記載の車両。
[21] 前記撮像手段は、前記車両の車室外に設置されることを特徴とする、請求項 19に 記載の車両。
PCT/JP2006/318189 2005-09-29 2006-09-13 ナビゲーション装置、ナビゲート方法および車両 WO2007037126A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP06797939A EP1944740A1 (en) 2005-09-29 2006-09-13 Navigation device, navigation method, and vehicle
US12/065,943 US20090132162A1 (en) 2005-09-29 2006-09-13 Navigation device, navigation method, and vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-283647 2005-09-29
JP2005283647A JP2007094045A (ja) 2005-09-29 2005-09-29 ナビゲーション装置、ナビゲート方法および車両

Publications (1)

Publication Number Publication Date
WO2007037126A1 true WO2007037126A1 (ja) 2007-04-05

Family

ID=37899556

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/318189 WO2007037126A1 (ja) 2005-09-29 2006-09-13 ナビゲーション装置、ナビゲート方法および車両

Country Status (5)

Country Link
US (1) US20090132162A1 (ja)
EP (1) EP1944740A1 (ja)
JP (1) JP2007094045A (ja)
CN (1) CN101248473A (ja)
WO (1) WO2007037126A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009059832A1 (de) 2007-11-08 2009-05-14 Robert Bosch Gmbh Verfahren und vorrichtung zur ausgabe von optischen fahrempfehlungen in einem fahrzeug
JP2011529599A (ja) * 2008-07-30 2011-12-08 テレ アトラス ベスローテン フエンノートシャップ 分岐点ビュー画像を生成する方法及びコンピュータにより実現されたシステム
CN114184204A (zh) * 2021-11-24 2022-03-15 深圳一清创新科技有限公司 高精度地图中路口区域的估计方法、装置及智能车辆

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4760831B2 (ja) * 2005-08-02 2011-08-31 日産自動車株式会社 車両周囲監視装置及び車両周囲監視方法
US20090128630A1 (en) * 2006-07-06 2009-05-21 Nissan Motor Co., Ltd. Vehicle image display system and image display method
JP5076468B2 (ja) * 2006-12-01 2012-11-21 株式会社デンソー 通信型ナビゲーションシステム、車両ナビゲーション装置及びセンター装置
CN101583842B (zh) * 2006-12-05 2011-11-16 株式会社纳维泰 导航系统、便携终端装置及周边图像显示方法
JP4989428B2 (ja) * 2007-11-13 2012-08-01 パイオニア株式会社 ナビゲーションシステム及びナビゲーション方法
CN101910793B (zh) * 2007-12-28 2012-11-28 三菱电机株式会社 导航装置
CN101910794B (zh) * 2008-01-31 2013-03-06 三菱电机株式会社 导航装置
JP2011079338A (ja) * 2008-01-31 2011-04-21 Mitsubishi Electric Corp ナビゲーション装置
KR20100010298A (ko) * 2008-07-22 2010-02-01 삼성전자주식회사 경로 안내 방법 및 장치
DE112009002024B4 (de) * 2008-09-03 2016-07-28 Mitsubishi Electric Corp. Fahrzeug-Bilderfassungssystem
JP2011034429A (ja) * 2009-08-04 2011-02-17 Kddi Corp 表示方法および表示システム
JP2011047866A (ja) * 2009-08-28 2011-03-10 Kddi Corp 表示方法および表示システム
KR101768101B1 (ko) * 2009-10-30 2017-08-30 엘지전자 주식회사 정보 표시 장치 및 그 방법
JP5685499B2 (ja) * 2010-07-09 2015-03-18 株式会社東芝 表示装置、画像データ生成装置、画像データ生成プログラム及び表示方法
DE102010052000A1 (de) * 2010-11-19 2012-05-24 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Ausgabe von Navigationshinweisen
JP5517176B2 (ja) * 2010-12-24 2014-06-11 パイオニア株式会社 画像調整装置、制御方法、プログラム、及び記憶媒体
US20150029214A1 (en) * 2012-01-19 2015-01-29 Pioneer Corporation Display device, control method, program and storage medium
KR101360949B1 (ko) * 2012-03-27 2014-02-12 한국과학기술연구원 차량의 전방에 주행 정보를 조사하기 위한 방법 및 장치
CN102708754B (zh) * 2012-05-04 2015-09-02 深圳市凯立德科技股份有限公司 一种电子地图动态显示方法及终端
GB2504311A (en) * 2012-07-25 2014-01-29 Bae Systems Plc Head-up display using fluidic lens
JP2015105903A (ja) * 2013-12-02 2015-06-08 パイオニア株式会社 ナビゲーション装置、ヘッドアップディスプレイ、制御方法、プログラム、及び記憶媒体
US20170309257A1 (en) * 2014-10-29 2017-10-26 Panasonic Intellectual Property Management Co., Ltd. Display control device
US20160148421A1 (en) * 2014-11-24 2016-05-26 Caterpillar Inc. Integrated Bird's Eye View with Situational Awareness
US9721471B2 (en) * 2014-12-16 2017-08-01 Here Global B.V. Learning lanes from radar data
DE112015006662T5 (de) * 2015-06-30 2018-05-03 Mitsubishi Electric Corporation Anzeigesteuervorrichtung, anzeigesteuerverfahren und anzeigesteuerprogramm
JP7002246B2 (ja) * 2017-08-14 2022-01-20 日産自動車株式会社 車両用表示方法及び車両用表示装置
WO2019038904A1 (ja) * 2017-08-25 2019-02-28 日産自動車株式会社 周囲車両表示方法及び周囲車両表示装置
US20190066382A1 (en) * 2017-08-31 2019-02-28 Denso Ten Limited Driving support device, driving support method, information providing device and information providing method
CN108896067B (zh) * 2018-03-23 2022-09-30 江苏泽景汽车电子股份有限公司 一种用于车载ar导航的动态显示方法及装置
JP7102890B2 (ja) * 2018-04-16 2022-07-20 株式会社Ihi 経路シミュレーション装置
KR102504984B1 (ko) * 2018-07-20 2023-03-02 현대모비스 주식회사 차량용 위험 검출 및 대응 장치와 방법
CN110779541B (zh) * 2019-04-10 2021-11-23 北京嘀嘀无限科技发展有限公司 一种转向箭头的显示方法及系统
US11423672B2 (en) * 2019-08-02 2022-08-23 Dish Network L.L.C. System and method to detect driver intent and employ safe driving actions
JP7167891B2 (ja) * 2019-09-24 2022-11-09 トヨタ自動車株式会社 画像処理装置
CN111107332A (zh) * 2019-12-30 2020-05-05 华人运通(上海)云计算科技有限公司 一种hud投影图像显示方法和装置
CN113104030A (zh) * 2021-05-19 2021-07-13 广州小鹏汽车科技有限公司 一种基于自动驾驶的交互方法和装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07146645A (ja) * 1993-09-29 1995-06-06 Casio Comput Co Ltd 地図情報システム
JPH08307765A (ja) * 1995-05-11 1996-11-22 Canon Inc 撮像装置
JPH09304101A (ja) * 1996-05-14 1997-11-28 Matsushita Electric Ind Co Ltd ナビゲーション装置
JPH10281794A (ja) * 1997-04-03 1998-10-23 Toyota Motor Corp 車両用案内表示装置
JP2000155895A (ja) 1998-11-24 2000-06-06 Sony Corp ナビゲーション装置
JP2004233153A (ja) * 2003-01-29 2004-08-19 Xanavi Informatics Corp 車載用ナビゲーション装置および地図画像表示方法
JP2004233538A (ja) * 2003-01-29 2004-08-19 Xanavi Informatics Corp 車載用ナビゲーション装置および地図画像表示方法
JP2004257979A (ja) * 2003-02-27 2004-09-16 Sanyo Electric Co Ltd ナビゲーション装置
JP2005214857A (ja) * 2004-01-30 2005-08-11 Sony Corp ナビゲーション装置、案内画像作成方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100224326B1 (ko) * 1995-12-26 1999-10-15 모리 하루오 차량용 네비게이션장치

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07146645A (ja) * 1993-09-29 1995-06-06 Casio Comput Co Ltd 地図情報システム
JPH08307765A (ja) * 1995-05-11 1996-11-22 Canon Inc 撮像装置
JPH09304101A (ja) * 1996-05-14 1997-11-28 Matsushita Electric Ind Co Ltd ナビゲーション装置
JPH10281794A (ja) * 1997-04-03 1998-10-23 Toyota Motor Corp 車両用案内表示装置
JP2000155895A (ja) 1998-11-24 2000-06-06 Sony Corp ナビゲーション装置
JP2004233153A (ja) * 2003-01-29 2004-08-19 Xanavi Informatics Corp 車載用ナビゲーション装置および地図画像表示方法
JP2004233538A (ja) * 2003-01-29 2004-08-19 Xanavi Informatics Corp 車載用ナビゲーション装置および地図画像表示方法
JP2004257979A (ja) * 2003-02-27 2004-09-16 Sanyo Electric Co Ltd ナビゲーション装置
JP2005214857A (ja) * 2004-01-30 2005-08-11 Sony Corp ナビゲーション装置、案内画像作成方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009059832A1 (de) 2007-11-08 2009-05-14 Robert Bosch Gmbh Verfahren und vorrichtung zur ausgabe von optischen fahrempfehlungen in einem fahrzeug
JP2011529599A (ja) * 2008-07-30 2011-12-08 テレ アトラス ベスローテン フエンノートシャップ 分岐点ビュー画像を生成する方法及びコンピュータにより実現されたシステム
US8773458B2 (en) 2008-07-30 2014-07-08 Tomtom Global Content B.V. Method of and computer implemented system for generating a junction view image
CN114184204A (zh) * 2021-11-24 2022-03-15 深圳一清创新科技有限公司 高精度地图中路口区域的估计方法、装置及智能车辆

Also Published As

Publication number Publication date
JP2007094045A (ja) 2007-04-12
US20090132162A1 (en) 2009-05-21
EP1944740A1 (en) 2008-07-16
CN101248473A (zh) 2008-08-20

Similar Documents

Publication Publication Date Title
WO2007037126A1 (ja) ナビゲーション装置、ナビゲート方法および車両
JP6700623B2 (ja) 走行支援装置及びコンピュータプログラム
US11511627B2 (en) Display device and computer program
KR101983957B1 (ko) 표시 지원 장치 및 표시 지원 방법
JP5798392B2 (ja) 駐車支援装置
JP4561479B2 (ja) 駐車支援方法及び駐車支援装置
JP4904997B2 (ja) 駐車支援方法及び駐車支援装置
WO2016002163A1 (ja) 画像表示装置、画像表示方法
US10118566B2 (en) Image processing device, image processing method, and image display system
JP6926976B2 (ja) 駐車支援装置及びコンピュータプログラム
US11493357B2 (en) Superimposed image display device, superimposed image drawing method, and computer program
JP2008306402A (ja) 車載撮像表示装置
JP4797849B2 (ja) 運転支援画像表示システム及び車載装置
JP2018173399A (ja) 表示装置及びコンピュータプログラム
JP2008145364A (ja) 経路案内装置
JP5156307B2 (ja) 車載カメラシステム
JP4968369B2 (ja) 車載装置及び車両認識方法
JP2009220592A (ja) 車載用縦列駐車支援装置および車載用縦列駐車支援装置のプログラム
JP2007233430A (ja) 運転支援方法及び運転支援装置
JP4992747B2 (ja) 駐車支援装置及び駐車支援方法
JP5438172B2 (ja) 情報表示装置、情報表示方法、情報表示プログラムおよび記録媒体
JP2010238147A (ja) 運転支援システム、運転支援方法、及び運転支援プログラム
JP2005104401A (ja) 駐車支援装置および方法
JP2021081232A (ja) 重畳画像表示装置及びコンピュータプログラム
JP2023038558A (ja) 重畳画像表示装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680030688.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 12065943

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2006797939

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE