WO2009095966A1 - ナビゲーション装置 - Google Patents

ナビゲーション装置 Download PDF

Info

Publication number
WO2009095966A1
WO2009095966A1 PCT/JP2008/003361 JP2008003361W WO2009095966A1 WO 2009095966 A1 WO2009095966 A1 WO 2009095966A1 JP 2008003361 W JP2008003361 W JP 2008003361W WO 2009095966 A1 WO2009095966 A1 WO 2009095966A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
unit
processing unit
range
enlargement
Prior art date
Application number
PCT/JP2008/003361
Other languages
English (en)
French (fr)
Inventor
Yoshihisa Yamaguchi
Takashi Nakagawa
Toyoaki Kitano
Hideto Miyazaki
Tsutomu Matsubara
Original Assignee
Mitsubishi Electric Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corporation filed Critical Mitsubishi Electric Corporation
Publication of WO2009095966A1 publication Critical patent/WO2009095966A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/006Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes
    • G09B29/007Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes using computer methods
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Definitions

  • the present invention relates to a navigation apparatus that guides a user to a destination, and more particularly, to a technique for guiding using a photographed image obtained by photographing with a camera.
  • a route is guided by photographing a front in real time with a vehicle-mounted camera while traveling, and superimposing and displaying guidance information on a video obtained by the photographing using CG (Computer-Graphics).
  • CG Computer-Graphics
  • Patent Document 2 discloses a car navigation system that displays navigation information elements so that the navigation information elements can be easily understood.
  • This car navigation system captures a landscape in the direction of travel with an imaging camera attached to the nose of a car, and allows the selector to select a map image and a live-action video for the background display of navigation information elements.
  • navigation information elements are superimposed on each other by the image composition unit and displayed on the display.
  • This patent document 2 discloses a technique for displaying an arrow along a road to be guided with respect to route guidance at an intersection using a live-action image.
  • the portion useful for driving behavior is often only a part of the screen.
  • an image around the intersection is useful, but an image above the sky is unnecessary.
  • the techniques disclosed in Patent Document 1 and Patent Document 2 described above have a problem that there is a lot of unnecessary information because the captured video is simply presented.
  • Patent Document 3 discloses a vehicle periphery monitoring device that always keeps the driver's attention on the monitor screen of the in-vehicle camera in the vehicle traveling direction and reduces the degree of attention to other captured images. Is disclosed.
  • This vehicle periphery monitoring device displays an A area for sharpening a part of the captured image and an unsharpened portion for the remaining part of the captured image when displaying a captured image of the vehicle periphery by the in-vehicle camera of the vehicle on the monitor screen. It is displayed on the monitor screen divided into areas. With this configuration, the driver watching the monitor screen pays attention to the display image of the A area, and the degree of attention to the B area decreases.
  • Patent Document 3 has a problem that the size of the displayed video does not change, and therefore, an area with little useful information for the user occupies most of the screen.
  • the present invention has been made to solve the above-described problems, and an object of the present invention is to provide a navigation device that can display information useful to the user in many areas of the screen.
  • a navigation device includes a camera that captures a front, a video acquisition unit that acquires a forward video captured by the camera, and a part of the video acquired by the video acquisition unit.
  • An enlargement / reduction processing unit that cuts out and enlarges or reduces, and content including a figure, a character string, or an image for explaining a guide object existing on the image on the image enlarged or reduced by the enlargement / reduction processing unit.
  • a video composition processing unit that superimposes and synthesizes and a display unit that displays the video synthesized by the video composition processing unit are provided.
  • the navigation device of the present invention since a part of the video obtained by photographing with the camera is cut out and enlarged or reduced and displayed on the screen, information useful for the user is displayed on the screen. Can be displayed in many areas.
  • FIG. 1 is a block diagram showing a configuration of a navigation apparatus according to Embodiment 1 of the present invention.
  • the navigation device includes a GPS (Global Positioning System) receiver 1, a vehicle speed sensor 2, an orientation sensor 3, a position and orientation measurement unit 4, a map database 5, an input operation unit 6, a camera 7, a video acquisition unit 8, a navigation control unit 9, and a display.
  • Part 10 is provided.
  • the GPS receiver 1 measures its own vehicle position by receiving radio waves from a plurality of satellites.
  • the own vehicle position measured by the GPS receiver 1 is sent to the position / orientation measurement unit 4 as an own vehicle position signal.
  • the vehicle speed sensor 2 sequentially measures the speed of the own vehicle.
  • the vehicle speed sensor 2 is generally composed of a sensor that measures the rotational speed of a tire.
  • the speed of the host vehicle measured by the vehicle speed sensor 2 is sent to the position / orientation measurement unit 4 as a vehicle speed signal.
  • the direction sensor 3 sequentially measures the traveling direction of the own vehicle.
  • the traveling direction (hereinafter simply referred to as “direction”) of the host vehicle measured by the direction sensor 3 is sent to the position / direction measurement unit 4 as an direction signal.
  • the position / orientation measuring unit 4 measures the current position and direction of the own vehicle from the own vehicle position signal sent from the GPS receiver 1.
  • the position of the own vehicle from the GPS receiver 1 Since it is impossible to measure the current position and direction of the vehicle with only the signal or the accuracy is deteriorated even if it can be measured, autonomous navigation using the vehicle speed signal from the vehicle speed sensor 2 and the direction signal from the direction sensor 3 is used.
  • the own vehicle position is measured and a process for supplementing the measurement by the GPS receiver 1 is executed.
  • the position / orientation measurement unit 4 corrects the current position and direction of the vehicle including the error obtained by the measurement by performing map matching using road data acquired from the map data read from the map database 5. To do.
  • the corrected current position and direction of the own vehicle are sent to the navigation control unit 9 as own vehicle position and direction data.
  • the map database 5 includes road data such as road location, road type (highway, toll road, general road, narrow street, etc.), road regulations (speed limit or one-way street, etc.) or lane information near intersections, It holds map data including data on facilities around roads.
  • the position of the road is expressed by expressing the road with a plurality of nodes and links connecting the nodes with straight lines, and recording the latitude and longitude of the nodes. For example, when three or more links are connected to a certain node, it indicates that a plurality of roads intersect at the position of the node.
  • the map data held in the map database 5 is read by the navigation control unit 9 in addition to being read by the position / orientation measuring unit 4 as described above.
  • the input operation unit 6 includes at least one of a remote controller, a touch panel, a voice recognition device, and the like.
  • a driver or a passenger as a user inputs a destination by an operation or is provided by a navigation device. Used to select information.
  • Data generated by the operation of the input operation unit 6 is sent to the navigation control unit 9 as operation data.
  • the camera 7 is composed of at least one such as a camera that shoots the front of the host vehicle or a camera that can shoot a wide range of directions including the entire periphery at once, and shoots the vicinity of the host vehicle including the traveling direction of the host vehicle.
  • a video signal obtained by photographing with the camera 7 is sent to the video acquisition unit 8.
  • the video acquisition unit 8 converts the video signal sent from the camera 7 into a digital signal that can be processed by a computer.
  • the digital signal obtained by the conversion in the video acquisition unit 8 is sent to the navigation control unit 9 as video data.
  • the navigation control unit 9 calculates a guide route to the destination input from the input operation unit 6, generates guidance information according to the guide route and the current position and direction of the host vehicle, or a map around the host vehicle position. And a function for displaying a map around the own vehicle, such as generation of a guide map that combines the vehicle mark indicating the vehicle position, and a function for guiding the vehicle to the destination.
  • search for information such as the vehicle location, traffic information related to the destination or guidance route, sightseeing spots, restaurants or merchandise stores, etc., facilities that match the conditions entered from the input operation unit 6
  • Data processing such as search is executed.
  • the navigation control unit 9 also includes a map generated based on the map data read from the map database 5, a video indicated by the video data acquired from the video acquisition unit 8, or an internal video composition processing unit 14 (details will be described later). Display data for displaying the image synthesized in (1) alone or in combination with each other is generated. Details of the navigation control unit 9 will be described later. Display data generated by various processes in the navigation control unit 9 is sent to the display unit 10.
  • the display unit 10 includes, for example, an LCD (Liquid Crystal Display), and displays a map and / or a live-action image on the screen according to display data sent from the navigation control unit 9.
  • LCD Liquid Crystal Display
  • the navigation control unit 9 includes a destination setting unit 11, a route calculation unit 12, a guidance display generation unit 13, a video composition processing unit 14, a display determination unit 15, and an enlargement / reduction processing unit 16.
  • a part of the connection between the plurality of components is omitted, but the omitted part will be described whenever it appears below.
  • the destination setting unit 11 sets a destination according to the operation data sent from the input operation unit 6.
  • the destination set by the destination setting unit 11 is sent to the route calculation unit 12 as destination data.
  • the route calculation unit 12 uses the destination data sent from the destination setting unit 11, the vehicle position / direction data sent from the position / direction measurement unit 4, and the map data read from the map database 5. Calculate the guidance route to the destination.
  • the guidance route calculated by the route calculation unit 12 is sent to the display determination unit 15 as guidance route data.
  • the guidance display generation unit 13 generates a map guide map (hereinafter referred to as “map guide map”) used in a conventional car navigation device in response to an instruction from the display determination unit 15.
  • the map guide map generated by the guide display generating unit 13 includes various guide maps that do not use a live-action image such as a plane map, an enlarged intersection map, and a high-speed schematic diagram.
  • the map guide map is not limited to a planar map, and may be a guide map using a three-dimensional CG or a guide map overlooking the planar map.
  • the map guide map generated by the guide display generating unit 13 is sent to the display determining unit 15 as map guide map data.
  • the video composition processing unit 14 generates a guide map using the live-action video (hereinafter referred to as “live-action guide map”) in response to an instruction from the display determination unit 15. For example, the video composition processing unit 14 obtains information on peripheral objects (corresponding to the “guidance target object” of the present invention) such as a road network, landmarks, and intersections around the vehicle from the map data read from the map database 5.
  • peripheral objects corresponding to the “guidance target object” of the present invention
  • a content composite video is generated by superimposing figures, character strings, images or the like (hereinafter referred to as “content”) for explaining the shape or content of an object.
  • the content composite video generated by the video composite processing unit 14 is sent to the display determination unit 15 as actual shooting guide map data.
  • the display determination unit 15 instructs the guidance display generation unit 13 to generate a map guide map and instructs the video composition processing unit 14 to generate a live-action guide map.
  • the display determination unit 15 also includes the vehicle position / azimuth data sent from the position / direction measurement unit 4, the map data around the vehicle read from the map database 5, and the operation data sent from the input operation unit 6.
  • the content to be displayed on the screen of the display unit 10 is determined based on the above.
  • the contents to be displayed on the screen of the display unit 10 are determined based on the map guide map data sent from the guide display generation unit 13 and the actual shooting guide map data sent from the video composition processing unit 14.
  • the data corresponding to the display content determined by the display determining unit 15, that is, the map guide map data sent from the guide display generating unit 13 or the live-action guide map data sent from the video composition processing unit 14 is displayed.
  • the data is sent to the display unit 10 as data.
  • the display switches to the live-action guide map when the distance between the vehicle and the intersection to bend is below a certain value, as well as when the live-action display mode is set. It can also be configured as follows.
  • the guide map to be displayed on the screen of the display unit 10 is, for example, a map guide map (for example, a planar map) generated by the guide display generation unit 13 is arranged on the left side of the screen, and a live-action image generated by the video composition processing unit 14 is displayed.
  • a guide map (for example, an enlarged view of an intersection using a live-action video) is arranged on the right side of the screen, and a real-life guide map and a map guide map can be displayed simultaneously on one screen.
  • the enlargement / reduction processing unit 16 cuts out and enlarges or reduces a part of the video indicated by the video data sent from the video acquisition unit 8 via the video composition processing unit 14. Video data representing the video enlarged or reduced by the enlargement / reduction processing unit 16 is sent to the video composition processing unit 14.
  • the synthesized video is generated and displayed on the display unit 10. Since the process for generating a map around the vehicle as a map guide map is well known, the description thereof will be omitted, and the process for generating a content composite video as a live-action guide map will be described below with reference to the flowchart shown in FIG. To do.
  • This content composite video creation processing is mainly executed by the video composite processing unit 14.
  • the vehicle position direction and video are acquired (step ST11). That is, the video composition processing unit 14 acquires the vehicle position / orientation data from the position / orientation measurement unit 4 and acquires the video data generated at the video acquisition unit 8 at that time from the video acquisition unit 8.
  • step ST12 content generation is performed (step ST12). That is, the video composition processing unit 14 searches the map data read from the map database 5 for the peripheral objects of the own vehicle, and generates content information desired to be presented to the user from the search.
  • the content information includes, for example, the name character string of the intersection, the coordinates of the intersection, the coordinates of the route guidance arrow, and the like when instructing the user to turn left and right to guide to the destination.
  • you want to guide famous landmarks around your vehicle you can use the name string of the landmark, the coordinates of the landmark, the history or attractions about the landmark, the text or photo of the information about the landmark. Etc. are included.
  • the content information may be individual coordinates of the road network around the host vehicle, traffic regulation information such as one-way or no entry of each road, and map information itself such as information such as the number of lanes. .
  • traffic regulation information such as one-way or no entry of each road
  • map information itself such as information such as the number of lanes.
  • the coordinate values of the content information are given in a coordinate system (hereinafter referred to as “reference coordinate system”) uniquely determined on the ground, such as latitude and longitude.
  • reference coordinate system a coordinate system uniquely determined on the ground, such as latitude and longitude.
  • the total content a is acquired (step ST13).
  • the video composition processing unit 14 acquires the total number a of contents generated in step ST12.
  • the content i of the counter is initialized (step ST14). That is, “1” is set to the content i of the counter for counting the number of combined contents.
  • the counter is provided inside the video composition processing unit 14.
  • step ST15 it is checked whether or not the composition processing of all content information has been completed. Specifically, the video composition processing unit 14 obtains the number of synthesized content i, which is the content of the counter, in step ST13. It is checked whether or not it has become larger than the total content a. If it is determined in step ST15 that the composition processing of all content information has not been completed, that is, the number of synthesized content i is not greater than the total content a, the i-th content information is acquired ( Step ST16). That is, the video composition processing unit 14 acquires the i-th content information among the content information generated in step ST12.
  • step ST17 the position on the video of the content information by the perspective transformation is calculated (step ST17). That is, the video composition processing unit 14 acquires in advance the own vehicle position / direction (position of the own vehicle in the reference coordinate system) acquired in step ST11, the position / direction in the coordinate system based on the own vehicle of the camera 7, and Using the eigenvalues of the camera 7 such as the angle of view and the focal length, the position on the video in the reference coordinate system where the content information acquired in step ST16 is to be displayed is calculated. This calculation is the same as the coordinate transformation calculation called perspective transformation.
  • step ST18 video composition processing is performed (step ST18). That is, the video composition processing unit 14 synthesizes content such as a graphic, a character string, or an image indicated by the content information acquired in step ST16, on the video acquired in step ST11, at the position calculated in step ST17.
  • content such as a graphic, a character string, or an image indicated by the content information acquired in step ST16, on the video acquired in step ST11, at the position calculated in step ST17.
  • step ST19 the content i of the counter is incremented. That is, the video composition processing unit 14 increments (+1) the contents of the counter. Thereafter, the sequence returns to step ST15, and the above-described processing is repeated.
  • step ST15 If it is determined in step ST15 that all the content information has been combined, that is, the combined content number i is greater than the total content number a, expansion / contraction processing is then executed (step ST20). Details of the expansion / contraction processing performed in step ST20 will be described later. Thereafter, the content composite video creation process ends.
  • the video composition processing unit 14 is configured to synthesize content on the video using perspective transformation. However, by performing image recognition processing on the video, It can also be configured to recognize an object and synthesize content on the recognized object.
  • the content information is first superimposed on the video and then expanded / contracted.
  • the expanded / contracted process is performed first, and then the expanded / contracted process is performed on the video. It can also be configured to superimpose content information.
  • a range for collecting content is determined (step ST21).
  • the video composition processing unit 14 determines a range for collecting contents, for example, a circle having a radius of 50 m centered on the own vehicle or a rectangle 50 m forward and 10 m left and right from the own vehicle.
  • the content collection range can be configured so as to be predetermined by the producer of the navigation device, or can be configured so that the user can arbitrarily set the range.
  • the type of content to be collected is determined (step ST22).
  • the type of content to be collected changes depending on the situation of guidance.
  • the video composition processing unit 14 determines the type of content to be collected according to the guidance situation.
  • the type of content can be configured so as to be determined in advance by the producer of the navigation device, or can be configured so that the user can arbitrarily set it.
  • step ST23 content is collected (step ST23). That is, the video composition processing unit 14 collects the content existing in the range determined in step ST21 and the type of content determined in step ST22 from the map database 5 or another processing unit. Thereafter, the sequence returns to the content composite video creation process.
  • step ST20 of the above-described content composite video creation process Details of the expansion / contraction process performed in step ST20 of the above-described content composite video creation process (see FIG. 2) will be described with reference to the flowchart shown in FIG. 5 and the explanatory diagram shown in FIG.
  • step ST31 information on the image of the guidance object is calculated (step ST31). That is, the enlargement / reduction processing unit 16 has a guidance object (land) present on the video (hereinafter referred to as “original image”) indicated by the video data sent from the video acquisition unit 8 via the video synthesis processing unit 14.
  • original image the video
  • the width width [pixel], height height [pixel], and center point (center_x, center_y) [pixel] of the image of a mark or an intersection are determined.
  • the enlargement / reduction processing unit 16 performs image recognition on the original image as shown in FIG. 6A, and the guidance object existing in the original image as shown in FIG.
  • the range is calculated, the maximum width of the range is width, the maximum height is height, and the point where the horizontal position having the maximum width and the maximum height intersect is the center point (center_x, center_y).
  • the image recognition can be performed by a method such as extracting an edge of the original image and comparing it with map data around the vehicle obtained from the map database 5. Note that the image recognition is not limited to the method described above, and can be performed using other methods.
  • the range of the original image is set (step ST32). That is, the enlargement / reduction processing unit 16 determines the range of the original image that is the target of the enlargement / reduction process, as indicated by the bold line in FIG.
  • This range can be a range that satisfies the following conditions, for example. center_x-width / 2 ⁇ x coordinate ⁇ center_x + width / 2 center_y-height / 2 ⁇ y coordinate ⁇ center_y + height / 2
  • the navigation device manufacturer or the user can arbitrarily control the size of the range so that the surrounding 10 [pixel] is also set as the range. Further, it may be configured to perform processing such as expanding the range so that the content superimposed by the video composition processing unit 14 is included in the range.
  • the magnification is determined (step ST33). That is, the enlargement / reduction processing unit 16 determines the magnification for performing the enlargement / reduction processing.
  • This magnification can be configured to be arbitrarily determined by the manufacturer or user of the navigation device, such as double the vertical and double the horizontal.
  • the magnification can be determined so that the enlarged image has the size of the entire screen of the display unit 10. It should be noted that the magnification does not have to be the same size in the vertical and horizontal directions, and a part of the magnification may be changed such that the upper half is 1.1 times in length and the lower half is 1.2 times in length.
  • step ST34 enlargement / reduction processing is performed (step ST34). That is, the enlargement / reduction processing unit 16 is indicated by the video data sent from the video acquisition unit 8 via the video composition processing unit 14 using the range determined in step ST32 and the magnification determined in step ST33. Enlarge / reduce the video. Video data representing the image enlarged or reduced by the enlargement / reduction processing unit 16 is sent to the video composition processing unit 14. Thereafter, the expansion / contraction process ends, and the sequence returns to the content composite video creation process. Thereby, as shown in FIG.6 (d), the range determined by step ST32 is expanded and displayed on the screen of the display part 10. FIG.
  • step ST31 of the expansion / contraction process described above the image recognition is performed to determine the width, height, and center point of the guidance object on the image.
  • the width, height and center point on the image of the guidance object are calculated by performing coordinate transformation called perspective transformation. It can also be configured as follows. Moreover, it can also comprise so that the width
  • the range, the height, and the center point on the image of the guidance target object are used to determine the range of the original image to be enlarged or reduced.
  • the producer or user of the car navigation device may be a square with a side of 100 [pixel] centered on the center of the original image.
  • An arbitrarily defined range may be configured as the range of the original image to be subjected to the enlargement / reduction process.
  • the information that is less redundant in other words, the information useful for the user is displayed in many areas of the screen and presented to the user. can do. For example, if the landmark to be guided is shown small on the screen, only the area around the landmark is enlarged and displayed. Therefore, information other than the landmark is suppressed, and landmarks useful for the user are displayed in many areas on the screen. Can be displayed using.
  • FIG. 1 The configuration of the navigation device according to the second embodiment of the present invention is the same as that of the navigation device according to the first embodiment shown in FIG. 1 except for the function of the enlargement / reduction processing unit 16.
  • the enlargement / reduction processing unit 16 corrects and enlarges or reduces the range for cutting out a part of the video indicated by the video data sent from the video acquisition unit 8 via the video composition processing unit 14.
  • Embodiment 2 of the present invention configured as described above will be described.
  • the operation of this navigation device is the same as the operation of the navigation device according to Embodiment 1 except for the expansion / contraction processing (see FIG. 5). Details of the expansion / contraction process will be described below with reference to the flowcharts shown in FIGS. 7 and 8 and the explanatory diagram shown in FIG.
  • step ST31 information on the image of the guidance object is calculated (step ST31).
  • step ST32 the range of the original image is set (step ST32).
  • step ST41 the range of the original image is corrected (step ST41). That is, the enlargement / reduction processing unit 16 corrects the range of the original image set in step ST ⁇ b> 32 so that the guidance target object is within a preferable range. Details of the process of correcting the range of the original image executed in step ST41 will be described with reference to the flowchart shown in FIG.
  • the range of the guidance object is acquired (step ST51).
  • the enlargement / reduction processing unit 16 performs image recognition on the original image in the same process as step ST31 of the expansion / contraction process, calculates the range of the guidance object existing in the original image, and calculates the maximum of the range. Find the center point where the horizontal position with the maximum height and width greatly intersects with the maximum height.
  • the image recognition can also be performed by a method such as extracting an edge of the original image and comparing it with map data around the vehicle obtained from the map database 5. Note that the image recognition is not limited to the method described above, and can be performed using other methods.
  • the range for displaying the guidance object is determined (step ST52). That is, the enlargement / reduction processing unit 16 determines a range in which the guidance object is displayed. This range can be configured to be predetermined by the manufacturer or user of the navigation device. The range in which the guidance object is displayed can be designated by a point or line such as the left end or the upper end, or can be designated by a range such as a rectangle in the image.
  • the range of the original image is corrected (step ST53). That is, the enlargement / reduction processing unit 16 corrects the range of the original image so that the range of the guidance target acquired in step ST51 is within the range determined in step ST52.
  • This correction can be performed, for example, by the following method.
  • (1) The range of the original image as shown in FIG. 9A is moved as shown in FIG. 9B so that the center point of the guidance object falls within the designated position or range. In the example shown in FIG. 9B, the range of the original image is moved to the left.
  • the range of the original image as shown in FIG. 9 (a) is expanded as shown in FIG. 9 (c) so that the center point of the guidance object is within the designated position or range, or
  • the image is reduced as shown in FIG. (3) Combine (1) and (2) above.
  • step ST33 the magnification is then determined (step ST33).
  • step ST34 enlargement / reduction processing is performed (step ST34).
  • step ST41 the range determined as shown in FIG. 9A in step ST32 is corrected as shown in FIG. 9B, FIG. 9C, or FIG. 9D in step ST41. It is displayed on the screen of the display unit 10.
  • the range of the original image to be moved, enlarged, or reduced is changed so that the guidance target object exists in the desired range. Since it comprised, the image
  • FIG. FIG. 10 is a block diagram showing the configuration of the navigation apparatus according to Embodiment 3 of the present invention.
  • This navigation device is configured such that a guidance object distance calculation unit 17 is added to the navigation control unit 9 of the navigation device according to Embodiment 1, and the enlargement / reduction processing unit 16 is changed to an enlargement / reduction processing unit 16a. Yes.
  • the guidance object distance calculation unit 17 calculates the distance between the vehicle and the guidance object using the vehicle position / direction data sent from the position / direction measurement unit 4 and the map data acquired from the map database 5. .
  • the distance calculated by the guidance object distance calculation unit 17 may be either a linear distance from the own vehicle to the guidance object or a distance of the route from the own vehicle to the guidance object.
  • the distance calculated by the guidance object distance calculation unit 17 is sent to the enlargement / reduction processing unit 16a.
  • the enlargement / reduction processing unit 16a is sent from the guidance object distance calculation unit 17 to the extent to cut out a part of the video indicated by the video data sent from the video acquisition unit 8 via the video synthesis processing unit 14. Change or zoom in or out according to the distance you come.
  • Video data representing the video enlarged or reduced by the enlargement / reduction processing unit 16 a is sent to the video composition processing unit 14.
  • the operation of the navigation device according to Embodiment 3 of the present invention configured as described above will be described.
  • the operation of this navigation device is the same as the operation of the navigation device according to Embodiment 1 except for the expansion / contraction processing (see FIG. 5). Details of the expansion / contraction process will be described below with reference to the flowchart shown in FIG. 11 and the explanatory diagram shown in FIG.
  • the step which performs the same process as the expansion-contraction process of the navigation apparatus which concerns on Embodiment 1 shown in the flowchart of FIG. 5 attaches
  • step ST31 information on the image of the guidance object is calculated.
  • step ST61 the distance to the guidance object is calculated. That is, the guidance object distance calculation unit 17 uses the own vehicle position and direction data sent from the position and direction measurement unit 4 and the map data acquired from the map database 5 to calculate the distance between the own vehicle and the guidance object. Calculate and send to the enlargement / reduction processing unit 16a.
  • the range of the original image is set (step ST62). That is, the enlargement / reduction processing unit 16a determines the range of the original image on which the enlargement / reduction process is performed by the same process as step ST32 of the expansion / contraction process (see FIG. 5) according to the first embodiment.
  • the range of the original image is changed according to the distance d [m] from the vehicle to the guidance object sent from the calculation unit 17.
  • the enlargement / reduction processing unit 16a enlarges the range of the original image subjected to the enlargement / reduction processing sent from the video composition processing unit 14 at the following magnification.
  • d ⁇ 150 Magnification (200 ⁇ d) [%]
  • d> 150 Magnification 50 [%]
  • step ST34 enlargement / reduction processing is performed (step ST34). That is, the enlargement / reduction processing unit 16a is indicated by the video data sent from the video acquisition unit 8 via the video composition processing unit 14 using the range determined in step ST62 and the magnification determined in step ST33. Enlarge / reduce the video. Image data representing the image enlarged or reduced by the enlargement / reduction processing unit 16 a is sent to the video composition processing unit 14. Thereafter, the expansion / contraction process ends, and the sequence returns to the content composite video creation process.
  • the range of the original image to be enlarged or reduced is changed according to the distance to the guidance object.
  • the method for suppressing unnecessary information can be changed according to the distance from the position to the guidance object. For example, when the guidance object is an intersection, it is possible to display such that the horizontally long range is enlarged when approaching the intersection.
  • FIG. FIG. 13 is a block diagram showing a configuration of a navigation device according to Embodiment 4 of the present invention.
  • This navigation device is configured by adding a traveling state determination unit 18 to the navigation control unit 9 of the navigation device according to Embodiment 1 and changing the enlargement / reduction processing unit 16 to an enlargement / reduction processing unit 16b.
  • the traveling state determination unit 18 determines the traveling state of the own vehicle.
  • the driving situation includes (1) information related to guidance such as the direction of the left / right turn along the guidance route, and (2) the side on the road (left-hand traffic in Japan, right-hand traffic in the US, etc.) or number of lanes (3) things related to the situation that changes in real time such as the lane in which the vehicle is traveling.
  • the enlargement / reduction processing unit 16b travels from the travel state determination unit 18 within a range in which a part of the video indicated by the video data sent from the video acquisition unit 8 via the video synthesis processing unit 14 is cut out. Decide according to the situation, or change or enlarge or reduce according to the driving situation. Video data representing the video clipped or enlarged or reduced by the enlargement / reduction processing unit 16 b is sent to the video composition processing unit 14.
  • the operation of the navigation device according to Embodiment 4 of the present invention configured as described above will be described.
  • the operation of this navigation device is the same as the operation of the navigation device according to Embodiment 1 except for the expansion / contraction processing (see FIG. 5). Details of the expansion / contraction process will be described below with reference to the flowchart shown in FIG. 14 and the explanatory diagrams shown in FIGS. 15 and 16.
  • the traveling state is acquired (step ST71).
  • the enlargement / reduction processing unit 16 b acquires the travel status from the travel status determination unit 18.
  • the range of the original image is corrected (step ST72). That is, the enlargement / reduction processing unit 16b cuts out the range of the original image based on the traveling situation acquired in step ST71. In this case, the range of the cut out original image can be corrected so as to be further enlarged or reduced.
  • the correction can be performed using, for example, a table as shown in FIG. 15 that associates the traveling state with the original image correction method.
  • x [m] on the screen means x [m] in the left-right direction calculated using a method such as the perspective transformation in step ST17 of the flowchart shown in FIG.
  • step ST33 the magnification is determined (step ST33).
  • step ST34 enlargement / reduction processing is performed (step ST34). Thereafter, the expansion / contraction process ends, and the sequence returns to the content composite video creation process.
  • a range to be enlarged or reduced as shown in FIG. 16 can be set according to the road.
  • the range of the original image before correction is a range that cuts out the center of the original image. Since the road data stored in the map database 5 of the navigation device is often composed of the center line and width of the road, when the center of the original image is simply cut out, the road data shown in FIG. As shown, an image biased to the left and in which the rightmost road cannot be seen is presented to the user.
  • the traveling side is known, by shifting the range by a fixed width, an image somewhat close to the center of the road can be cut out as shown in FIG.
  • the traveling side by shifting the range by a fixed width, an image somewhat close to the center of the road can be cut out as shown in FIG.
  • the traveling lane an image closer to the center of the road can be cut out as shown in FIG.
  • the range of the original image to be cut out or enlarged / reduced is determined based on the driving situation (direction to bend, traveling side ( Left side in Japan, right side in the United States), etc., so that the range of video presented to the user can be determined according to the road. Moreover, since the range of the original image to be cut out, enlarged or reduced can be changed according to the lane in which the vehicle is traveling, the range of the video to be presented to the user can be determined according to the road.
  • a car navigation device applied to a vehicle has been described as an example of the navigation device of the present invention.
  • the navigation device according to the present invention is a car navigation device.
  • the present invention can be applied not only to a navigation device but also to a mobile phone equipped with a camera, a moving body such as an airplane, and the like.
  • the navigation device is configured to cut out a part of the video obtained by shooting with the camera and display it on the screen after being enlarged or reduced. Since it can be displayed in many areas of the screen, it is suitable for use in a navigation device of a car navigation system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Mathematical Physics (AREA)
  • Educational Technology (AREA)
  • Automation & Control Theory (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Ecology (AREA)
  • Navigation (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

 前方を撮影するカメラ7と、カメラで撮影された前方の映像を取得する映像取得部8と、映像取得部で取得された映像の一部を切り取って拡大または縮小する拡大縮小処理部16と、拡大縮小処理部で拡大または縮小された映像に、該映像上に存在する案内対象物を説明するための図形、文字列またはイメージを含むコンテンツを重畳させて合成する映像合成処理部14と、映像合成処理部で合成された映像を表示する表示部10を備えている。

Description

ナビゲーション装置
 この発明は、ユーザを目的地まで案内するナビゲーション装置に関し、特にカメラで撮影することにより得られた実写映像を用いて案内する技術に関する。
 従来、ナビゲーション装置において、走行中に車載カメラでリアルタイムに前方を撮影し、この撮影により得られた映像の上に、CG(Computer Graphics)によって案内情報を重畳して表示することにより経路誘導を行う技術が知られている(例えば、特許文献1参照)。
 また、同様の技術として、特許文献2は、ナビゲーション情報要素を感覚的に把握しやすいように表示するカーナビゲーションシステムを開示している。このカーナビゲーションシステムは、自動車のノーズなどに取付けた撮像カメラで進行方向の景色を撮像し、ナビゲーション情報要素の背景表示について地図画像と実写映像とをセレクタで選択できるようにして、この背景画像に対して画像合成部によりナビゲーション情報要素を重ね合せて表示器に表示する。この特許文献2には、実写映像を用いた交差点での経路誘導に関して、誘導する道路に沿って矢印を表示する技術が開示されている。
 ところで、運転者に提示する映像の中で、運転行動を行うために有用な部分は画面の一部だけであることが多い。例えば、交差点の経路誘導を行う場合は、交差点の周囲の映像は有用であるが、上空の映像は不要である。しかしながら、上述した特許文献1および特許文献2に開示された技術では、撮影した映像を単純に提示しているので、不要な情報が多いという問題があった。
 このような問題に対処するために、特許文献3は、車載カメラによるモニタ画面に対する運転者の注目を、常に車両進行方向に向けさせ、それ以外の撮像画像に対する注目度を低下させる車両周辺監視装置を開示している。この車両周辺監視装置は、車両の車載カメラによる車両周辺の撮像画像をモニタ画面に表示するとき、撮像画像の一部を鮮鋭化するAエリアと、撮像画像の残りの部分を非鮮鋭化するBエリアとに分けてモニタ画面に表示する。この構成により、モニタ画面を見る運転者は、Aエリアの表示画像に注視し、Bエリアへの注目度は低下する。
特許2915508号公報 特開平11-108684号公報 特開2003-274393号公報
 しかしながら、特許文献3に開示された技術では、表示される映像の大きさは変わらないので、ユーザにとって有用な情報が少ないエリアが画面の大半を占めるという問題がある。
 この発明は、上述した問題を解消するためになされたものであり、その課題は、画面の多くのエリアにユーザにとって有用な情報を表示できるナビゲーション装置を提供することにある。
 この発明に係るナビゲーション装置は、上記課題を解決するために、前方を撮影するカメラと、カメラで撮影された前方の映像を取得する映像取得部と、映像取得部で取得された映像の一部を切り取って拡大または縮小する拡大縮小処理部と、拡大縮小処理部で拡大または縮小された映像に、該映像上に存在する案内対象物を説明するための図形、文字列またはイメージを含むコンテンツを重畳させて合成する映像合成処理部と、映像合成処理部で合成された映像を表示する表示部を備えている。
 この発明に係るナビゲーション装置によれば、カメラで撮影することにより得られた映像の一部を切り取って拡大または縮小して画面に表示するように構成したので、ユーザにとって有用な情報を、画面の多くのエリアに表示できる。
この発明の実施の形態1に係るナビゲーション装置の構成を示すブロック図である。 この発明の実施の形態1に係るナビゲーション装置の動作を、コンテンツ合成映像作成処理を中心に示すフローチャートである。 この発明の実施の形態1に係るナビゲーション装置のコンテンツ合成映像作成処理の中で行われるコンテンツ生成処理の詳細を示すフローチャートである。 この発明の実施の形態1に係るナビゲーション装置で使用されるコンテンツの種類の例を示す図である。 この発明の実施の形態1に係るナビゲーション装置のコンテンツ合成映像作成処理の中で行われる伸縮処理の詳細を示すフローチャートである。 この発明の実施の形態1に係るナビゲーション装置の動作を説明するための図である。 この発明の実施の形態2に係るナビゲーション装置のコンテンツ合成映像作成処理の中で行われる伸縮処理の詳細を示すフローチャートである。 図7に示す伸縮処理のステップST41で行われる元画像の範囲を修正する処理を詳細に示すフローチャートである。 この発明の実施の形態2に係るナビゲーション装置の動作を説明するための図である。 この発明の実施の形態3に係るナビゲーション装置の構成を示すブロック図である。 この発明の実施の形態3に係るナビゲーション装置のコンテンツ合成映像作成処理の中で行われる伸縮処理の詳細を示すフローチャートである。 この発明の実施の形態3に係るナビゲーション装置の動作を説明するための図である。 この発明の実施の形態4に係るナビゲーション装置の構成を示すブロック図である。 この発明の実施の形態4に係るナビゲーション装置のコンテンツ合成映像作成処理の中で行われる伸縮処理の詳細を示すフローチャートである。 この発明の実施の形態4に係るナビゲーション装置における元画像の修正方法を示す図である。 この発明の実施の形態4に係るナビゲーション装置における元画像の修正方法の利点を説明するための図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための最良の形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、この発明の実施の形態1に係るナビゲーション装置の構成を示すブロック図である。なお、以下では、ナビゲーション装置の一例として、車両に搭載されるカーナビゲーション装置を例に挙げて説明する。ナビゲーション装置は、GPS(Global Positioning System)レシーバ1、車速センサ2、方位センサ3、位置方位計測部4、地図データベース5、入力操作部6、カメラ7、映像取得部8、ナビゲーション制御部9および表示部10を備えている。
 GPSレシーバ1は、複数の衛星からの電波を受信することにより自車位置を計測する。このGPSレシーバ1で計測された自車位置は、自車位置信号として位置方位計測部4に送られる。車速センサ2は、自車の速度を逐次計測する。この車速センサ2は、一般には、タイヤの回転数を計測するセンサから構成されている。車速センサ2で計測された自車の速度は、車速信号として位置方位計測部4に送られる。方位センサ3は、自車の進行方向を逐次計測する。この方位センサ3で計測された自車の進行方位(以下、単に「方位」という)は、方位信号として位置方位計測部4に送られる。
 位置方位計測部4は、GPSレシーバ1から送られてくる自車位置信号から自車の現在位置および方位を計測する。なお、トンネルの中または周囲の建物などによって自車の上空が遮られている場合は、電波を受信できる衛星の数がゼロまたは少なくなって受信状態が悪くなり、GPSレシーバ1からの自車位置信号だけでは自車の現在位置および方位が計測できなくなったり、計測できても精度が悪化するため、車速センサ2からの車速信号および方位センサ3からの方位信号を用いた自律航法を利用して自車位置を計測し、GPSレシーバ1による計測を補う処理を実行する。
 位置方位計測部4で計測された自車の現在位置および方位は、上述したように、GPSレシーバ1の受信状態の悪化による計測精度の悪化、タイヤの摩耗による直径の変化、温度変化に起因する車速の誤差またはセンサ自体の精度に起因する誤差などといった様々な誤差を含んでいる。そこで、位置方位計測部4は、計測により得られた誤差を含んだ自車の現在位置および方位を、地図データベース5から読み出した地図データから取得した道路データを用いてマップマッチングを行うことにより修正する。この修正された自車の現在位置および方位は、自車位置方位データとしてナビゲーション制御部9に送られる。
 地図データベース5は、道路の位置、道路の種別(高速道路、有料道路、一般道路または細街路など)、道路に関する規制(速度制限または一方通行など)または交差点近傍のレーン情報といった道路データの他、道路周辺の施設のデータなどを含む地図データを保持している。道路の位置は、道路を複数のノードとノード間を直線で結ぶリンクとで表現し、このノードの緯度および経度を記録することにより表現されている。例えば、あるノードに3つ以上のリンクが接続されている場合は、そのノードの位置で複数の道路が交わっていることを表している。この地図データベース5に保持されている地図データは、上述したように位置方位計測部4によって読み出される他、ナビゲーション制御部9によって読み出される。
 入力操作部6は、リモートコントローラ、タッチパネルまたは音声認識装置などの少なくとも1つから構成されており、ユーザである運転者または同乗者が、操作によって、目的地を入力したり、ナビゲーション装置が提供する情報を選択したりするために使用される。この入力操作部6の操作によって発生されたデータは、操作データとしてナビゲーション制御部9に送られる。
 カメラ7は、自車の前方を撮影するカメラまたは周囲全体を含む幅広い方向を一度に撮影できるカメラなどの少なくとも1つから構成されており、自車の進行方向を含む自車近傍を撮影する。このカメラ7で撮影することにより得られた映像信号は、映像取得部8に送られる。
 映像取得部8は、カメラ7から送られてくる映像信号を、計算機で処理可能なデジタル信号に変換する。この映像取得部8における変換により得られたデジタル信号は、映像データとしてナビゲーション制御部9に送られる。
 ナビゲーション制御部9は、入力操作部6から入力された目的地までの誘導経路の計算、誘導経路と自車の現在位置および方位とに応じた案内情報の生成、または、自車位置周辺の地図と自車位置を示す自車マークを合成した案内図の生成などといったナビゲーション装置が有する自車周辺の地図を表示する機能、および、自車を目的地に誘導するための機能などを提供するためのデータ処理を行う他、自車位置、目的地または誘導経路に関連する交通情報、観光地、飲食店または物販店などの情報の検索、入力操作部6から入力された条件にマッチした施設の検索といったデータ処理を実行する。
 また、ナビゲーション制御部9は、地図データベース5から読み出した地図データに基づき生成した地図、映像取得部8から取得した映像データによって示される映像または自己の内部の映像合成処理部14(詳細は後述する)で合成された画像を、単独で、または、これらを組み合わせて表示するための表示データを生成する。このナビゲーション制御部9の詳細は後述する。ナビゲーション制御部9における種々の処理によって生成された表示データは、表示部10に送られる。
 表示部10は、例えばLCD(Liquid Crystal Display)から構成されており、ナビゲーション制御部9から送られてくる表示データにしたがって、地図および/または実写映像などを画面に表示する。
 次に、ナビゲーション制御部9の詳細を説明する。ナビゲーション制御部9は、目的地設定部11、経路計算部12、案内表示生成部13、映像合成処理部14、表示決定部15および拡大縮小処理部16を備えている。なお、図1においては、図面の煩雑さを避けるために、上記複数の構成要素間の接続の一部を省略しているが、省略した部分については、以下において出現する都度説明する。
 目的地設定部11は、入力操作部6から送られてくる操作データにしたがって目的地を設定する。この目的地設定部11で設定された目的地は、目的地データとして経路計算部12に送られる。経路計算部12は、目的地設定部11から送られてくる目的地データ、位置方位計測部4から送られてくる自車位置方位データ、および、地図データベース5から読み出した地図データを用いて、目的地までの誘導経路を計算する。この経路計算部12で計算された誘導経路は、誘導経路データとして表示決定部15に送られる。
 案内表示生成部13は、表示決定部15からの指示に応じて、従来のカーナビゲーション装置で用いられている地図による案内図(以下、「地図案内図」という)を生成する。この案内表示生成部13で生成される地図案内図には、平面地図、交差点拡大図、高速略図などといった実写映像を用いない様々な案内図が含まれる。また、地図案内図は、平面地図に限定されず、3次元CGを用いた案内図または平面地図を俯瞰する案内図であってもよい。なお、地図案内図を作成する技術は周知であるので、ここでは詳細な説明は省略する。この案内表示生成部13で生成された地図案内図は、地図案内図データとして表示決定部15に送られる。
 映像合成処理部14は、表示決定部15からの指示に応じて、実写映像を用いた案内図(以下、「実写案内図」という)を生成する。例えば、映像合成処理部14は、地図データベース5から読み出した地図データから、自車周辺の道路ネットワーク、ランドマークまたは交差点などといった周辺物(この発明の「案内対象物」に対応する)の情報を取得し、映像取得部8から送られてくる映像データによって示される実写映像を拡大縮小処理部16(詳細は後述する)で伸縮した後の実写映像上に存在する周辺物の周辺に、この周辺物の形状または内容などを説明するための図形、文字列またはイメージなど(以下、「コンテンツ」という)を重ね合わせたコンテンツ合成映像を生成する。この映像合成処理部14によって生成されたコンテンツ合成映像は、実写案内図データとして表示決定部15に送られる。
 表示決定部15は、上述したように、案内表示生成部13に対して地図案内図の生成を指示するとともに、映像合成処理部14に対して実写案内図の生成を指示する。また、表示決定部15は、位置方位計測部4から送られてくる自車位置方位データ、地図データベース5から読み出した自車周辺の地図データ、および、入力操作部6から送られてくる操作データに基づき表示部10の画面に表示する内容を決定する。案内表示生成部13から送られてくる地図案内図データおよび映像合成処理部14から送られてくる実写案内図データに基づき表示部10の画面に表示する内容を決定する。この表示決定部15において決定された表示内容に対応するデータ、つまり、案内表示生成部13から送られてくる地図案内図データまたは映像合成処理部14から送られてくる実写案内図データは、表示データとして表示部10に送られる。
 これにより、表示部10には、例えば、車両が交差点に近づいた場合には交差点拡大図が表示され、入力操作部6のメニューボタンが押されている場合はメニューが表示され、入力操作部6によって実写表示モードに設定された場合は実写映像を用いた実写案内図が表示される。なお、実写映像を用いた実写案内図への切り替えは、実写表示モードの設定が行われる場合以外にも、自車と曲がるべき交差点の距離が一定値以下になった場合に実写案内図に切り替わるように構成することもできる。
 また、表示部10の画面に表示する案内図は、例えば案内表示生成部13で生成された地図案内図(例えば平面地図)を画面の左側に配置し、映像合成処理部14で生成された実写案内図(例えば実写映像を用いた交差点拡大図)を画面の右側に配置するというように、実写案内図と地図案内図とを1つの画面内に同時に表示するように構成できる。
 拡大縮小処理部16は、映像取得部8から映像合成処理部14を経由して送られてくる映像データによって示される映像の一部を切り取って拡大または縮小する。この拡大縮小処理部16で拡大または縮小された映像を表す映像データは、映像合成処理部14に送られる。
 次に、上記のように構成される、この発明の実施の形態1に係るナビゲーション装置の動作を説明する。このナビゲーション装置では、自車の移動に応じて、自車周辺の地図に自車位置を示す図形(自車マーク)を組み合わせた地図案内図としての自車周辺地図と、実写案内図としてのコンテンツ合成映像とを生成し、これらを表示部10に表示する。地図案内図としての自車周辺地図を生成する処理は周知であるので説明を省略し、以下では、実写案内図としてのコンテンツ合成映像を生成する処理を、図2に示すフローチャートを参照しながら説明する。このコンテンツ合成映像作成処理は、主として映像合成処理部14で実行される。
 コンテンツ合成映像作成処理では、まず、自車位置方位および映像が取得される(ステップST11)。すなわち、映像合成処理部14は、位置方位計測部4から自車位置方位データを取得するとともに、その時点で映像取得部8において生成された映像データを該映像取得部8から取得する。
 次いで、コンテンツ生成が行われる(ステップST12)。すなわち、映像合成処理部14は、地図データベース5から読み出した地図データから自車の周辺物を検索し、その中からユーザに提示したいコンテンツ情報を生成する。コンテンツ情報には、例えば、ユーザに右左折を指示して目的地へ誘導したい場合には、交差点の名称文字列、交差点の座標、経路誘導矢印の座標などが含まれる。また、自車周辺の有名なランドマークを案内したい場合には、そのランドマークの名称文字列、ランドマークの座標、ランドマークに関する歴史または見所、営業時間などといったランドマークに関する情報の文字列または写真などが含まれる。なお、コンテンツ情報は、上述した以外に、自車周辺の道路ネットワークの個々の座標と各道路の一方通行または進入禁止などといった交通規制情報、車線数などの情報といった地図情報そのものであってもよい。このステップST12で行われるコンテンツ生成処理については、後に、さらに詳細に説明する。
 なお、コンテンツ情報の座標値は、例えば、緯度および経度のように、地上で一意に決定される座標系(以下、「基準座標系」という)で与えられる。このステップST12の処理によって、ユーザに提示したいコンテンツと、その総数aが確定する。
 次いで、コンテンツ総数aが取得される(ステップST13)。すなわち、映像合成処理部14は、ステップST12で生成したコンテンツの総数aを取得する。次いで、カウンタの内容iが初期化される(ステップST14)。すなわち、合成済みコンテンツ数をカウントするためのカウンタの内容iに「1」が設定される。なお、カウンタは、映像合成処理部14の内部に設けられている。
 次いで、全てのコンテンツ情報の合成処理が終了したかどうかが調べられる(ステップST15)、具体的には、映像合成処理部14は、カウンタの内容である合成済みコンテンツ数iが、ステップST13で取得したコンテンツ総数aより大きくなったかどうかを調べる。このステップST15において、全てのコンテンツ情報の合成処理が終了していない、つまり合成済みコンテンツ数iがコンテンツ総数aより大きくなっていないことが判断されると、i番目のコンテンツ情報が取得される(ステップST16)。すなわち、映像合成処理部14は、ステップST12で生成したコンテンツ情報のうちのi番目のコンテンツ情報を取得する。
 次いで、透視変換によるコンテンツ情報の映像上の位置が計算される(ステップST17)。すなわち、映像合成処理部14は、ステップST11で取得した自車位置方位(基準座標系における自車の位置方位)、カメラ7の自車を基準にした座標系における位置方位、および、あらかじめ取得しておいた画角および焦点距離といったカメラ7の固有値を使用し、ステップST16で取得したコンテンツ情報を表示すべき基準座標系における映像上の位置を計算する。この計算は、透視変換と言われる座標変換計算と同じである。
 次いで、映像合成処理が行われる(ステップST18)。すなわち、映像合成処理部14は、ステップST11で取得した映像上の、ステップST17で計算された位置に、ステップST16で取得したコンテンツ情報によって示される図形、文字列またはイメージなどといったコンテンツを合成する。
 次いで、カウンタの内容iがインクリメントされる(ステップST19)。すなわち、映像合成処理部14は、カウンタの内容をインクリメント(+1)する。その後、シーケンスはステップST15に戻り、上述した処理が繰り返される。
 上記ステップST15において、全てのコンテンツ情報の合成処理が終了した、つまり合成済みコンテンツ数iがコンテンツ総数aより大きくなったことが判断されると、次いで、伸縮処理が実行される(ステップST20)。このステップST20で行われる伸縮処理の詳細は、後述する。その後、コンテンツ合成映像作成処理は終了する。
 なお、上述したコンテンツ合成映像作成処理では、映像合成処理部14は、透視変換を用いて映像上にコンテンツを合成するように構成したが、映像に対して画像認識処理を行うことにより映像内の対象を認識し、その認識した対象の上にコンテンツを合成するように構成することもできる。
 また、コンテンツ合成映像作成処理では、先にコンテンツ情報を映像上に重畳し、その後、伸縮処理するように構成したが、先に伸縮処理を実行し、その後、伸縮処理が実行された映像上にコンテンツ情報を重畳するように構成することもできる。
 次に、上述したコンテンツ合成映像作成処理(図2参照)のステップST12で行われるコンテンツ生成処理の詳細を、図3に示すフローチャートを参照しながら説明する。
 コンテンツ生成処理では、まず、コンテンツを収集する範囲が決定される(ステップST21)。すなわち、映像合成処理部14は、例えば自車を中心とする半径50mの円形、または、自車から前方50m、左右10mの矩形といった範囲を、コンテンツを収集する範囲と定める。なお、コンテンツを収集する範囲は、ナビゲーション装置の製作者が予め定めるように構成できるし、ユーザが任意に設定するように構成することもできる。
 次いで、収集するコンテンツの種類が決定される(ステップST22)。収集するコンテンツの種類は、例えば図4に示すように、案内する状況に応じて変化する。映像合成処理部14は、案内する状況に応じて収集するコンテンツの種類を決定する。なお、コンテンツの種類は、ナビゲーション装置の製作者が予め定めるように構成できるし、ユーザが任意に設定するように構成することもできる。
 次いで、コンテンツの収集が行われる(ステップST23)。すなわち、映像合成処理部14は、ステップST21で決定した範囲内に存在するコンテンツであって、ステップST22で決定した種類のコンテンツを、地図データベース5または他の処理部などから収集する。その後、シーケンスは、コンテンツ合成映像作成処理にリターンする。
 次に、上述したコンテンツ合成映像作成処理(図2参照)のステップST20で行われる伸縮処理の詳細を、図5に示すフローチャートおよび図6に示す説明図を参照しながら説明する。
 伸縮処理では、まず、案内対象物の画像上の情報が計算される(ステップST31)。すなわち、拡大縮小処理部16は、映像取得部8から映像合成処理部14を介して送られてくる映像データによって示される映像(以下、「元画像」という)上に存在する案内対象物(ランドマークまたは交差点など)の画像の幅width[pixel]、高さheight[pixel]および中心点(center_x,center_y)[pixel]を決定する。具体的には、拡大縮小処理部16は、図6(a)に示すような元画像に対して画像認識を行い、図6(b)に示すような元画像内に存在する案内対象物の範囲を計算し、その範囲の最大幅をwidth、最大高さをheight、最大幅を持つ水平位置と最大高さが交わる点を中心点(center_x,center_y)とする。ここで、画像認識は、元画像のエッジを抽出して地図データベース5から得られる自車の周囲の地図データと比較するなどの方法により行うことができる。なお、画像認識は、上述した方法に限らず、他の方法を用いて行うこともできる。
 次いで、元画像の範囲が設定される(ステップST32)。すなわち、拡大縮小処理部16は、図6(c)に太線で示すように、拡大縮小処理の対象とする元画像の範囲を決定する。この範囲は、例えば以下の条件を満たす範囲とすることができる。
 center_x-width/2<x座標<center_x+width/2
 center_y-height/2<y座標<center_y+height/2
 なお、上述した範囲に加えて、周囲の10[pixel]も範囲とするといったように、ナビゲーション装置の製作者またはユーザが任意に範囲の大きさを制御するように構成することもできる。また、映像合成処理部14で重畳したコンテンツが範囲内に含まれるように範囲を拡大するといった処理を行うように構成することもできる。
 次いで、倍率が決定される(ステップST33)。すなわち、拡大縮小処理部16は、拡大縮小処理を行う際の倍率を決定する。この倍率は、例えば縦2倍・横2倍といったように、ナビゲーション装置の製作者またはユーザが任意に定めるように構成できる。また、拡大後の画像が表示部10の画面全体の大きさになるように倍率を定めることもできる。なお、倍率は、縦横等倍でなくてもよいし、上半分は縦1.1倍、下半分は縦1.2倍といったように一部の倍率を変化させるように構成することもできる。
 次いで、拡大縮小処理が行われる(ステップST34)。すなわち、拡大縮小処理部16は、ステップST32で決定した範囲と、ステップST33で決定した倍率を用いて、映像取得部8から映像合成処理部14を経由して送られてくる映像データによって示される映像の拡大縮小処理を行う。この拡大縮小処理部16で拡大または縮小された画像を表す映像データは、映像合成処理部14に送られる。その後、伸縮処理は終了し、シーケンスは、コンテンツ合成映像作成処理にリターンする。これにより、図6(d)に示すように、ステップST32で決定された範囲が拡大されて表示部10の画面に表示される。
 なお、上述した伸縮処理のステップST31では、画像認識を行って案内対象物の画像上の幅、高さおよび中心点を決定するように構成したが、位置方位計測部4から送られてくる自車位置方位データと地図データベース5から取得した自車の周辺の地図データとを用いて、透視変換と呼ばれる座標変換を行うことにより案内対象物の画像上の幅、高さおよび中心点を計算するように構成することもできる。また、画像認識と透視変換とを組み合わせて使用して案内対象物の画像上の幅、高さおよび中心点を決定するように構成することもできる。
 さらに、上述した伸縮処理のステップST31およびステップST32の処理では、案内対象物の画像上の幅、高さおよび中心点を用いて拡大縮小処理の対象とする元画像の範囲を定めるように構成したが、案内対象物の画像上の幅、高さおよび中心点を用いず、例えば元画像の中心を中心とする一辺が100[pixel]の正方形といったように、カーナビゲーション装置の製作者またはユーザが任意に定めた範囲を拡大縮小処理の対象とする元画像の範囲とするように構成することもできる。
 以上説明したように、この発明の実施の形態1に係るナビゲーション装置によれば、余計な情報の少ない、換言すれば、ユーザにとって有用な情報を、画面の多くのエリアに表示してユーザに提示することができる。例えば、案内するランドマークが画面に小さく写っている場合、ランドマークの周囲のみが拡大して表示されるので、ランドマーク以外の情報を抑制し、ユーザにとって有用なランドマークを画面の多くのエリアを使用して表示できる。
実施の形態2.
 この発明の実施の形態2に係るナビゲーション装置の構成は、拡大縮小処理部16の機能を除き、図1に示した実施の形態1に係るナビゲーション装置の構成と同じである。拡大縮小処理部16は、映像取得部8から映像合成処理部14を経由して送られてくる映像データによって示される映像の一部を切り取る範囲を修正して拡大または縮小する。
 次に、上記のように構成される、この発明の実施の形態2に係るナビゲーション装置の動作を説明する。このナビゲーション装置の動作は、伸縮処理(図5参照)を除き、実施の形態1に係るナビゲーション装置の動作と同じである。以下では、伸縮処理の詳細を、図7および図8に示すフローチャートおよび図9に示す説明図を参照しながら説明する。なお、実施の形態1に係るナビゲーション装置の伸縮処理(図5参照)と同じ処理を行うステップには、実施の形態1で使用した符号と同じ符号を付して説明を簡略化する。
 伸縮処理では、まず、案内対象物の画像上の情報が計算される(ステップST31)。次いで、元画像の範囲が設定される(ステップST32)。このステップST32の処理により、例えば、図9(a)に太枠で示すように、拡大縮小処理を行う元画像の範囲が決定される。
 次いで、元画像の範囲が修正される(ステップST41)。すなわち、拡大縮小処理部16は、案内対象物が好適な範囲内に存在するように、ステップST32で設定した元画像の範囲を修正する。このステップST41で実行される元画像の範囲を修正する処理の詳細を、図8に示すフローチャートを参照しながら説明する。
 元画像の範囲を修正する処理では、まず、案内対象物の範囲が取得される(ステップST51)。すなわち、拡大縮小処理部16は、伸縮処理のステップST31と同様の処理にて、元画像に対して画像認識を行い、元画像内に存在する案内対象物の範囲を計算し、その範囲の最大幅、最大高さおよび最大幅を持つ水平位置と最大高さが交わる中心点を求める。ここで、画像認識は、元画像のエッジを抽出して地図データベース5から得られる自車の周囲の地図データと比較するなどの方法により行うこともできる。なお、画像認識は、上述した方法に限らず、他の方法を用いて行うこともできる。
 次いで、案内対象物を表示する範囲が決定される(ステップST52)。すなわち、拡大縮小処理部16は、案内対象物を表示する範囲を決定する。この範囲は、ナビゲーション装置の製作者またはユーザがあらかじめ定めておくように構成することができる。案内対象物を表示する範囲は、例えば、左端または上端といった点または線で指定するように構成できるし、画像内の矩形などといった範囲で指定するように構成することもできる。
 次いで、元画像の範囲が修正される(ステップST53)。すなわち、拡大縮小処理部16は、ステップST51で取得した案内対象物の範囲が、ステップST52で決定した範囲内になるように元画像の範囲を修正する。この修正は、例えば、以下の方法で行うことができる。
(1)案内対象物の中心点が指定された位置または範囲に納まるように、図9(a)に示すような元画像の範囲を、図9(b)に示すように移動させる。なお、図9(b)に示す例では、元画像の範囲を左側に移動させた例を示している。
(2)案内対象物の中心点が指定された位置または範囲に納まるように、図9(a)に示すような元画像の範囲を、図9(c)に示すように拡大し、または、図9(d)に示すように縮小する。
(3)上記(1)と(2)を組み合わせる。
 この元画像の範囲を修正する処理が終了すると、シーケンスは、伸縮処理にリターンする。伸縮処理では、次いで、倍率が決定される(ステップST33)。次いで、拡大縮小処理が行われる(ステップST34)。その後、伸縮処理は終了し、シーケンスは、コンテンツ合成映像作成処理にリターンする。これにより、ステップST32において、図9(a)に示すように決定された範囲が、ステップST41において、図9(b)、図9(c)または図9(d)に示すように修正されて表示部10の画面に表示される。
 以上説明したように、この発明の実施の形態2に係るナビゲーション装置によれば、案内対象物が所望の範囲内に存在するように、移動、拡大または縮小する元画像の範囲を変化させるように構成したので、案内対象物が常に一定の場所に存在する映像をユーザに提示することができ、案内が見やすくなる。
実施の形態3.
 図10は、この発明の実施の形態3に係るナビゲーション装置の構成を示すブロック図である。このナビゲーション装置は、実施の形態1に係るナビゲーション装置のナビゲーション制御部9に案内対象物距離計算部17が追加されるとともに、拡大縮小処理部16が拡大縮小処理部16aに変更されて構成されている。
 案内対象物距離計算部17は、位置方位計測部4から送られてくる自車位置方位データと、地図データベース5から取得した地図データを用いて、自車と案内対象物までの距離を計算する。この案内対象物距離計算部17で計算される距離は、自車から案内対象物までの直線距離、または、自車から案内対象物までの経路の距離のいずれであってもよい。この案内対象物距離計算部17で計算された距離は、拡大縮小処理部16aに送られる。
 拡大縮小処理部16aは、映像取得部8から映像合成処理部14を経由して送られてくる映像データによって示される映像の一部を切り取る範囲を、案内対象物距離計算部17から送られてくる距離に応じて変更して拡大または縮小する。この拡大縮小処理部16aで拡大または縮小された映像を表す映像データは、映像合成処理部14に送られる。
 次に、上記のように構成される、この発明の実施の形態3に係るナビゲーション装置の動作を説明する。このナビゲーション装置の動作は、伸縮処理(図5参照)を除き、実施の形態1に係るナビゲーション装置の動作と同じである。以下では、伸縮処理の詳細を、図11に示すフローチャートおよび図12に示す説明図を参照しながら説明する。なお、図5のフローチャートに示した実施の形態1に係るナビゲーション装置の伸縮処理と同じ処理を行うステップには、実施の形態1で使用した符号と同じ符号を付して説明を簡略化する。
 伸縮処理では、まず、案内対象物の画像上の情報が計算される(ステップST31)。次いで、案内対象物までの距離が計算される(ステップST61)。すなわち、案内対象物距離計算部17は、位置方位計測部4から送られてくる自車位置方位データと、地図データベース5から取得した地図データを用いて、自車と案内対象物までの距離を計算し、拡大縮小処理部16aに送る。
 次いで、元画像の範囲が設定される(ステップST62)。すなわち、拡大縮小処理部16aは、実施の形態1に係る伸縮処理(図5参照)のステップST32と同様の処理により、拡大縮小処理を行う元画像の範囲を決定し、その後、案内対象物距離計算部17から送られてくる、自車から案内対象物までの距離d[m]に応じて元画像の範囲を変更する。
 例えば、拡大縮小処理部16aは、映像合成処理部14から送られてくる拡大縮小処理を行う元画像の範囲を、以下の倍率で拡大する。
 d≦150の場合 倍率=(200-d)[%]
 d>150の場合 倍率=50[%]
 次いで、倍率が決定される(ステップST33)。次いで、拡大縮小処理が行われる(ステップST34)。すなわち、拡大縮小処理部16aは、ステップST62で決定した範囲と、ステップST33で決定した倍率を用いて、映像取得部8から映像合成処理部14を経由して送られてくる映像データによって示される映像の拡大縮小処理を行う。この拡大縮小処理部16aで拡大または縮小された画像を表す画像データは、映像合成処理部14に送られる。その後、伸縮処理は終了し、シーケンスは、コンテンツ合成映像作成処理にリターンする。
 これにより、図12(a)に示すような元画像に対し、自車から案内対象物までの距離が大きい場合は、図12(b)に示すように、拡大縮小処理の対象とする元画像の範囲が決定され、自車から案内対象物までの距離が小さい場合(案内対象物に近い場合)は、図12(c)に示すように、拡大縮小処理の対象とする元画像の範囲が決定されて元画像の一部(案内対象物が含まれる部分)が拡大されて表示部10の画面に表示される。
 以上説明したように、この発明の実施の形態3に係るナビゲーション装置によれば、案内対象物までの距離に応じて、拡大または縮小する元画像の範囲を変化させるように構成したので、自車位置から案内対象物までの距離に応じて、不要な情報を抑制する方法を変えることができる。例えば、案内対象物が交差点であるときに、交差点に近づいたときには横長な範囲を拡大するといった表示が可能になる。
実施の形態4.
 図13は、この発明の実施の形態4に係るナビゲーション装置の構成を示すブロック図である。このナビゲーション装置は、実施の形態1に係るナビゲーション装置のナビゲーション制御部9に走行状況判断部18が追加されるとともに、拡大縮小処理部16が拡大縮小処理部16bに変更されて構成されている。
 走行状況判断部18は、自車の走行状況を判断する。走行状況には、(1)誘導経路に沿って行われる右左折の方向などといった案内に関係するもの、(2)道路を走行する側(日本では左側通行、アメリカでは右側通行など)または車線数などといった道路の状況に関するもの、(3)自車が走行しているレーンなどといったリアルタイムに変化する状況に関するものが含まれる。
 拡大縮小処理部16bは、映像取得部8から映像合成処理部14を経由して送られてくる映像データによって示される映像の一部を切り取る範囲を、走行状況判断部18から送られてくる走行状況に応じて決定し、あるいは、走行状況に応じて変更して拡大または縮小する。この拡大縮小処理部16bで切り取られ、あるいは、拡大または縮小された映像を表す映像データは、映像合成処理部14に送られる。
 次に、上記のように構成される、この発明の実施の形態4に係るナビゲーション装置の動作を説明する。このナビゲーション装置の動作は、伸縮処理(図5参照)を除き、実施の形態1に係るナビゲーション装置の動作と同じである。以下では、伸縮処理の詳細を、図14に示すフローチャート、図15および図16に示す説明図を参照しながら説明する。なお、実施の形態1に係るナビゲーション装置の伸縮処理(図5参照)と同じ処理を行うステップには、実施の形態1で使用した符号と同じ符号を付して説明を簡略化する。
 伸縮処理では、まず、走行状況が取得される(ステップST71)。すなわち、拡大縮小処理部16bは、走行状況判断部18から走行状況を取得する。
 次いで、元画像の範囲が修正される(ステップST72)。すなわち、拡大縮小処理部16bは、ステップST71で取得した走行状況を元に元画像の範囲を切り出す。この場合、切り出した元画像の範囲を、さらに拡大または縮小するように修正することもできる。修正は、例えば、図15に示すような、走行状況と元画像の修正方法を対応付けた表を用いて行うことができる。図15において、画面上のx[m]分とは、図2に示すフローチャートのステップST17の透視変換といった方法を用いて計算された左右方向のx[m]のことを意味する。
 次いで、倍率が決定される(ステップST33)。次いで、拡大縮小処理が行われる(ステップST34)。その後、伸縮処理は終了し、シーケンスは、コンテンツ合成映像作成処理にリターンする。
 走行状況を元に元画像の範囲を修正することにより、図16に示すような、拡大または縮小する範囲を道路に応じて設定することができる。例えば、修正前の元画像の範囲が元画像の中心を切り出す範囲であった場合を考える。ナビゲーション装置の地図データベース5に格納されている道路データは、道路の中心線と幅で構成されていることが多いため、単純に元画像の中心を切り出した場合は、図16の(a)に示すように左に偏った、右端の道路が見えない画像をユーザに提示することになる。この場合、走行する側が判明していれば、固定幅だけ範囲をずらすことにより、図16の(b)に示すように多少は道路の中心に近い画像を切り出すことができる。さらに、車線数を考慮することにより、図16の(c)に示すように、より道路の中心に近い画像を切り出すことができる。さらに、走行レーンを考慮することにより、図16の(d)のように、さらに道路の中心に近い画像を切り出すことができる。
 以上説明したように、この発明の実施の形態4に係るナビゲーション装置によれば、切り出しまたは拡大縮小処理の対象とする元画像の範囲を、運転状況(曲がろうとしている方向、走行する側(日本では左側、アメリカでは右側)など)に合わせて変化させることができるので、ユーザに提示する映像の範囲を、道路に応じて決定できる。また、切り出し、拡大または縮小する元画像の範囲を、自車が走行しているレーンに応じて変化させることができるので、ユーザに提示する映像の範囲を、道路に応じて決定できる。
 なお、上述した実施の形態1~実施の形態4においては、この発明のナビゲーション装置の一例として車両に適用されるカーナビゲーション装置を例に挙げて説明したが、この発明に係るナビゲーション装置は、カーナビゲーション装置に限らず、カメラを備えた携帯電話器、飛行機などの移動体などにも適用することができる。
 以上のように、この発明に係るナビゲーション装置は、カメラで撮影することにより得られた映像の一部を切り取って拡大または縮小して画面に表示するように構成したので、ユーザにとって有用な情報を、画面の多くのエリアに表示できるので、カーナビゲーションシステムのナビゲーション装置などに用いるのに適している。

Claims (5)

  1.  前方を撮影するカメラと、
     前記カメラで撮影された前方の映像を取得する映像取得部と、
     前記映像取得部で取得された映像の一部を切り取って拡大または縮小する拡大縮小処理部と、
     前記拡大縮小処理部で拡大または縮小された映像に、該映像上に存在する案内対象物を説明するための図形、文字列またはイメージを含むコンテンツを重畳させて合成する映像合成処理部と、
     前記映像合成処理部で合成された映像を表示する表示部
    とを備えたナビゲーション装置。
  2.  拡大縮小処理部は、案内対象物が所定の範囲内に存在するように、映像取得部で取得された映像の一部を切り取る範囲を修正して拡大または縮小する
    ことを特徴とする請求項1記載のナビゲーション装置。
  3.  地図データを保持する地図データベースと、
     現在位置を計測する位置方位計測部と、
     前記位置方位計測部で計測された現在位置から案内対象物までの距離を前記地図データベースから読み出した地図データに基づき計算する案内対象物距離計算部とを備え、
     拡大縮小処理部は、前記案内対象物距離計算部で計算された距離に応じて、映像取得部で取得された映像の一部を切り取る範囲を変更して拡大または縮小する
    ことを特徴とする請求項1記載のナビゲーション装置。
  4.  前方を撮影するカメラと、
     前記カメラで撮影された前方の映像を取得する映像取得部と、
     自己の走行状況を判断する走行状況判断部と、
     前記映像取得部で取得された映像のうちの前記走行状況判断部で判断された走行状況に応じた範囲の映像を切り出し、該切り出した映像上に存在する案内対象物を説明するための図形、文字列またはイメージを含むコンテンツを重畳させて合成する映像合成処理部と、
     前記映像合成処理部で合成された映像を表示する表示部
    とを備えたナビゲーション装置。
  5.  前記走行状況判断部で判断される走行状況は、運転状況または走行しているレーンを含む
    ことを特徴とする請求項4記載のナビゲーション装置。
PCT/JP2008/003361 2008-01-31 2008-11-18 ナビゲーション装置 WO2009095966A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008021184A JP2011079338A (ja) 2008-01-31 2008-01-31 ナビゲーション装置
JP2008-021184 2008-01-31

Publications (1)

Publication Number Publication Date
WO2009095966A1 true WO2009095966A1 (ja) 2009-08-06

Family

ID=40912337

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/003361 WO2009095966A1 (ja) 2008-01-31 2008-11-18 ナビゲーション装置

Country Status (2)

Country Link
JP (1) JP2011079338A (ja)
WO (1) WO2009095966A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013069221A1 (ja) * 2011-11-08 2013-05-16 パナソニック株式会社 情報表示処理装置
JPWO2022176267A1 (ja) * 2021-02-18 2022-08-25

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1183510A (ja) * 1997-09-08 1999-03-26 Nissan Motor Co Ltd 画像再生装置
JP2000338864A (ja) * 1999-05-31 2000-12-08 Fujitsu Ten Ltd ナビゲーション装置
JP2007094045A (ja) * 2005-09-29 2007-04-12 Matsushita Electric Ind Co Ltd ナビゲーション装置、ナビゲート方法および車両

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1183510A (ja) * 1997-09-08 1999-03-26 Nissan Motor Co Ltd 画像再生装置
JP2000338864A (ja) * 1999-05-31 2000-12-08 Fujitsu Ten Ltd ナビゲーション装置
JP2007094045A (ja) * 2005-09-29 2007-04-12 Matsushita Electric Ind Co Ltd ナビゲーション装置、ナビゲート方法および車両

Also Published As

Publication number Publication date
JP2011079338A (ja) 2011-04-21

Similar Documents

Publication Publication Date Title
JP4959812B2 (ja) ナビゲーション装置
WO2009084135A1 (ja) ナビゲーション装置
JP4741023B2 (ja) ナビゲーション装置
JP4293917B2 (ja) ナビゲーション装置及び交差点案内方法
JP4731627B2 (ja) ナビゲーション装置
JP4921462B2 (ja) カメラ情報を有するナビゲーションデバイス
JP4068661B1 (ja) ナビゲーションシステム、携帯端末装置および経路案内方法
JP4767578B2 (ja) 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置
WO2009084126A1 (ja) ナビゲーション装置
WO2009084129A1 (ja) ナビゲーション装置
JP3266236B2 (ja) 車載用ナビゲーション装置
JP2009020089A (ja) ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム
JP5079683B2 (ja) 地図表示システムおよび地図表示システムにおける地図表示方法ならびに地図表示装置およびプログラム
JP4339178B2 (ja) 駐車場空きスペース案内装置及び駐車場空きスペース案内方法
JP2008128827A (ja) ナビゲーション装置およびナビゲーション方法ならびにそのプログラム
US9086293B2 (en) Navigation device and control method for displaying detour
JP2008145364A (ja) 経路案内装置
WO2006109527A1 (ja) ナビゲーション装置およびナビゲーション方法
WO2009095966A1 (ja) ナビゲーション装置
JP2009250714A (ja) 道路案内表示装置および道路案内表示方法
CN115917255A (zh) 基于视觉的位置和转弯标记预测
JP2005233712A (ja) 位置表示システム
JP2000205880A (ja) 交差点案内図描画方法
JP4628796B2 (ja) ナビゲーション装置
JPH08328467A (ja) ナビゲーション装置における地図表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08871906

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08871906

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP