WO2020059188A1 - ナビゲーションシステム、ナビゲーション表示方法、およびナビゲーション表示プログラム - Google Patents

ナビゲーションシステム、ナビゲーション表示方法、およびナビゲーション表示プログラム Download PDF

Info

Publication number
WO2020059188A1
WO2020059188A1 PCT/JP2019/011080 JP2019011080W WO2020059188A1 WO 2020059188 A1 WO2020059188 A1 WO 2020059188A1 JP 2019011080 W JP2019011080 W JP 2019011080W WO 2020059188 A1 WO2020059188 A1 WO 2020059188A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
data
image
vehicle
information source
Prior art date
Application number
PCT/JP2019/011080
Other languages
English (en)
French (fr)
Inventor
勝彦 影山
新 林
哉也 馬場
Original Assignee
クラリオン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クラリオン株式会社 filed Critical クラリオン株式会社
Priority to US17/277,889 priority Critical patent/US11988521B2/en
Priority to EP19862725.9A priority patent/EP3855122A4/en
Publication of WO2020059188A1 publication Critical patent/WO2020059188A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/80Arrangements for reacting to or preventing system or operator failure
    • G05D1/81Handing over between on-board automatic and on-board manual control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8086Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for vehicle path indication
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Definitions

  • the present invention relates to a navigation system that displays images and characters on a display screen using map information.
  • Patent Document 1 discloses a technology for generating information to be displayed on a display by combining map information and information from various types of in-vehicle sensors in a navigation system mounted on an automobile.
  • Patent Document 1 discloses an image display device that displays an image related to automatic driving control of the automatic driving system on a display surface of a vehicle-mounted display of the vehicle based on information acquired from the automatic driving system of the vehicle, A stability information obtaining unit that obtains stability information regarding the stability of the automatic driving control from the automatic driving system, and a next operation that obtains next behavior information regarding a next action of the vehicle by the automatic driving control from the automatic driving system.
  • An action information acquisition unit and a display control unit that controls display of the on-vehicle display, wherein the display control unit runs the vehicle and the vehicle when the vehicle is under the automatic driving control.
  • a traveling road overhead view image showing the traveling road overhead, and a length extending in a direction intersecting the traveling direction in the traveling direction of the vehicle in the traveling road overhead view image.
  • a stability display image that changes in accordance with the stability information in a frame-like shape, and a next action text image that is located in the traveling direction from the stability display image and that indicates the next action information, '' Has been described.
  • Patent Literature 1 generates an image (overhead image) of a bird's-eye view of a road, and presents an image displaying stability and information indicating the next action on the bird's-eye image.
  • Patent Literature 1 considers that data for generating a bird's-eye view image, data for calculating stability and the next action, or that an appropriate display is continued when a problem occurs in an information source of the data. Not.
  • An object of the present invention is to provide a technology that enables an appropriate display on a display of a navigation system.
  • a navigation system is a navigation system that displays an image on a display and presents it to an occupant of a vehicle, and includes a drawing processing unit that draws an image on the display, and a drawing processing unit that generates the image.
  • a temporary storage unit that holds data
  • a control unit that displays an image on the display using the drawing processing unit and the temporary storage unit, wherein the control unit is configured for each drawing element included in the image.
  • Acquiring data for generating the drawing element from one or more information sources, storing the data in the temporary storage unit, and setting a predetermined setting among normally usable data stored in the temporary storage unit. Is selected by the information source determined in accordance with the above formula, and the drawing processing unit draws an image obtained by combining drawing elements based on the selected data.
  • an appropriate display can be provided on the display of the navigation system.
  • FIG. 3 is a diagram illustrating a format example of drawing element information P. It is a figure showing an example of drawing element information P of a road element. It is a figure showing an example of drawing element information P of a building element. It is a figure showing an example of drawing element information P of a traffic regulation element.
  • FIG. 8 is a diagram illustrating an example of drawing element information P of a traveling direction guide element. It is a figure showing an example of a navigation image. It is a figure showing an example of self-vehicles surrounding map information.
  • 5 is a flowchart illustrating a processing example according to the first exemplary embodiment.
  • FIG. 13 is a diagram illustrating an example of a navigation image when a high-accuracy map distribution device, an in-vehicle camera, and standard-accuracy map information cannot be used according to the second embodiment.
  • FIG. 13 is a diagram illustrating an example of a navigation image when a high-accuracy map distribution device, an in-vehicle camera, and standard-accuracy map information cannot be used according to the second embodiment.
  • It is a figure concerning the 2nd embodiment which shows an example of a navigation picture in case information of a high-precision map distribution device cannot be used due to temporary delay.
  • FIG. 1 shows a configuration example of a navigation system 30 according to the first embodiment.
  • the vehicle C includes an in-vehicle system 40 that realizes various functions related to the vehicle C.
  • the in-vehicle system 40 has a navigation system 30.
  • the navigation system 30 is fixedly or detachably installed on the vehicle C, and presents route guidance and the like to the occupant of the vehicle C.
  • the vehicle C may be referred to as “own vehicle”.
  • the navigation system 30 includes a control unit 1, a drawing processing unit 2, a temporary storage unit 3, a communication unit 4, standard accuracy map information 5, a display unit 6, an operation unit 7, a vehicle position calculation unit 8, , An audio output unit 9 and a storage unit 10.
  • the control unit 1 executes a computer program to implement the functions of each unit of the navigation system 30.
  • the control unit 1 is, for example, a processor such as a CPU (Central Processing Unit).
  • the drawing processing unit 2 draws an image at high speed.
  • the drawing processing unit 2 is, for example, a drawing-only processor such as a GPU (Graphical Processing Unit).
  • the temporary storage unit 3 provides a recording area where data can be read and written at high speed.
  • the temporary storage unit 3 is a volatile memory such as a random access memory (RAM).
  • the communication unit 4 connects to a network and controls communication with external devices.
  • the standard-accuracy map information 5 is standard-accuracy map information, and is used when searching for a route from a departure place to a destination, and when generating a navigation image.
  • the display unit 6 displays the navigation image generated by the control unit 1 and the drawing processing unit 2.
  • the display unit 6 is, for example, a liquid crystal display.
  • the navigation image provides various information to the occupant of the vehicle C.
  • the operation unit 7 provides an operation mechanism of the navigation system 30.
  • the operation unit 7 is, for example, a button or a touch panel.
  • the operation unit 7 detects an operation (input) from an occupant of the vehicle C and notifies the control unit 1 of the operation.
  • the vehicle position calculation unit 8 calculates the current position of the vehicle C and / or the traveling direction, the traveling speed, the acceleration, and the like of the vehicle C. For example, the vehicle position calculation unit 8 calculates these using a global positioning satellite system (GPS). Alternatively, the vehicle position calculation unit 8 acquires position information from an external device via the communication unit 4 and calculates these.
  • GPS global positioning satellite system
  • the sound output unit 9 outputs various sounds such as a guidance sound, a warning sound, an alarm, and music to the occupant of the vehicle C.
  • the audio output unit 9 is, for example, a speaker.
  • the storage unit 10 stores computer programs and data executed by the control unit 1.
  • the storage unit 10 is, for example, a nonvolatile memory such as a flash memory or an HDD (Hard Disk Drive).
  • the in-vehicle system 40 includes a navigation system 30, an on-vehicle device network 11, an external communication network 12, an inter-vehicle communication network 13, a high-accuracy map distribution device 14, an automatic driving control device 15, a vehicle camera 16, a meter 17, a rear monitor 18, and a head-up display 19.
  • the in-vehicle device network 11 is a network for connecting each device included in the in-vehicle system 40.
  • the in-vehicle device network 11 may be any of wired communication and wireless communication.
  • the communication medium or the communication protocol may be single or plural.
  • the in-vehicle device network 11 may be a large network in which a plurality of networks are interconnected by a gateway device.
  • the communication unit 4 of the navigation system 30 is connected to the vehicle-mounted device network 11 and can communicate with each device included in the vehicle-mounted system 40.
  • the external communication network 12 is a wireless communication network for performing communication with a device or a server or the like outside the vehicle-mounted system 40.
  • the external communication network 12 is, for example, a mobile communication carrier network.
  • the in-vehicle system 40 accesses a wireless communication device (wireless base station) installed on a road and communicates with a server via a mobile communication carrier network.
  • the other vehicle communication network 13 is a wireless communication network for communicating with other vehicles.
  • the in-vehicle system 40 receives information held by another vehicle via the inter-vehicle communication network 13 using a predetermined communication protocol, or transmits information held by the in-vehicle system 40 of the own vehicle C to another vehicle. Or to the vehicle.
  • the high-accuracy map distribution device 14 is a device that distributes high-accuracy map information.
  • the high-precision map information includes, for example, high-precision road shape information, and is used for a driving operation that requires high-precision map information, such as automatic driving.
  • the high-accuracy map distribution device 14 provides high-accuracy map information to the devices of the in-vehicle system 40 via the in-vehicle device network 11.
  • the automatic driving control device 15 uses information obtained from various on-vehicle cameras 16 and sensors mounted on the vehicle C, information obtained from the navigation system 30, and / or information obtained from the high-accuracy map distribution device 14. Then, the vehicle control required for the automatic driving is planned and a control signal is generated.
  • the on-vehicle camera 16 is mounted on the vehicle C, captures a situation around the vehicle C, and generates a captured image.
  • the vehicle-mounted camera 16 may have a visible light and / or infrared imaging function.
  • the vehicle-mounted camera 16 may have a function of recognizing a situation around the vehicle C from a captured image. For example, the in-vehicle camera 16 recognizes the position, shape and type of a lane on the road, and / or the position and shape of another vehicle traveling around.
  • the meter 17 is mounted on the vehicle C and displays information such as the traveling speed of the vehicle C.
  • the meter 17 may be realized by image display or may be realized by a mechanical system.
  • the rear monitor 18 provides information to an occupant in the rear seat of the vehicle C.
  • the rear monitor 18 is composed of, for example, a liquid crystal display.
  • the head-up display 19 presents information on a front window of a driver or an occupant.
  • the head-up display 19 is composed of, for example, a liquid crystal display.
  • the road information distribution system 20 distributes road information to the navigation system 30 via the external communication network 12.
  • the road information includes, for example, road congestion status, road regulation information, and the like.
  • the near-vehicle external communication device 21 is provided in the vehicle C, and provides the information held by the vehicle C to other nearby vehicles via the inter-vehicle communication network 13.
  • the communication unit 4 of the navigation system 30 of the vehicle C transmits, via the inter-vehicle communication network 13, information held by the other vehicle transmitted from the nearby vehicle external communication device 21 included in the other vehicle around the vehicle C. To receive.
  • the navigation system 30 provides a navigation image to the occupant of the vehicle C.
  • the navigation image is generated as follows, for example.
  • the control unit 1 collects necessary information and stores it in the temporary storage unit 3. Then, the control unit 1 instructs the drawing processing unit 2 to draw the navigation image.
  • the drawing processing unit 2 draws and outputs a navigation image based on various drawing element information stored in the temporary storage unit 3. Each piece of information included in the drawing element information is composed of one or more information sources.
  • the drawing processing unit 2 uses the coordinate information indicating the shape of the road and / or the information indicating the lane type of the road included in the drawing element information of the road to determine the road constituting a part of the navigation image. draw.
  • the drawing processing unit 2 may include coordinate information indicating the position and shape of the building on the map, information indicating the height and outline of the building, and / or texture indicating the appearance of the building, which is included in the drawing element information of the building. Using information or the like, a building that forms part of the navigation image is drawn. In order to perform different drawing for each type of building (for example, commercial facility or public facility), the drawing element information of the building may include information indicating the attribute of the building.
  • the drawing processing unit 2 uses the information indicating the speed limit of each road link and / or the information indicating the traffic regulation such as one-way traffic included in the traffic regulation drawing element information to generate one of the navigation images.
  • the drawing processing unit 2 configures a part of the navigation image using information indicating at which point the self-driving vehicle controls the course change included in the course element drawing element information.
  • the information indicating at which point the driving vehicle changes the course is drawn.
  • the display unit 6 displays the navigation image output from the drawing processing unit 2. Thereby, the occupant can check the navigation image displayed on the display.
  • Another display device displays the navigation image transmitted via the communication unit 4 and the vehicle-mounted device network 11.
  • Other display devices are, for example, a meter 17, a rear monitor 18, and a head-up display 19. In this case, the other display devices may perform processing such as enlargement / reduction, partial cutout, and / or image filtering on the navigation image according to the size and shape of the display device, and display the navigation image. .
  • FIG. 2 shows an example of the format of the drawing element information P.
  • Various drawing element information P is stored in the temporary storage unit 3 according to this format.
  • the drawing element information P has a drawing element attribute 100 and a drawing element content 110.
  • the drawing element attribute 100 is attribute information defined for each type of the drawing element information P.
  • the drawing element attribute 100 has a drawing element type 101, an information source list 102, a processing priority 103, and an exception processing type 104.
  • the drawing element type 101 is information indicating the type of the drawing element information P corresponding to the drawing element attribute 100.
  • the drawing element type 101 is, for example, a road element, a building element, a traffic regulation element, a traveling direction guidance element, and the like.
  • the information source list 102 is information indicating a list of information sources required to compose the drawing element information P.
  • the drawing element information P indicating the road shape includes the standard accuracy map information 5, the high accuracy map distribution device 14, and the on-board camera 16 as the information source list 102.
  • the processing priority 103 is information indicating the priority of use of each information source by the drawing processing unit 2 when the information source list 102 includes a plurality of information sources that can acquire the same type of information. For example, when the information obtained from a certain information source is temporarily or permanently unavailable for the drawing element to be drawn, the drawing processing unit 2 excludes the information source from the use target and removes the same type of information. The information source with the highest priority among other available information sources that can be obtained is used.
  • the exception processing type 104 is information indicating a processing method when all the information sources in the information source list 102 are temporarily or permanently unavailable for the drawing element to be drawn.
  • the drawing element content 110 is a format of a basic unit of drawing.
  • the drawing element content 110 includes a drawing element type 111, an identifier 112, and an information source-specific data list 113.
  • the drawing element type 111 is information indicating the type of the drawing element.
  • the identifier 112 is information that can uniquely identify a drawing element.
  • the information source data list 113 has information source-specific data 114 corresponding to each information source shown in the information source list 102.
  • the information source-specific data 114 is data necessary for drawing, and includes an information source type 115 and drawing data 116.
  • the information source type 115 indicates an information source of the drawing data 116.
  • the drawing data 116 is data for drawing in a range corresponding to the identifier 112, collected from the information source of the information source type 115.
  • the information source-specific data 114 is drawing unit information in a range corresponding to the identifier 112, collected from the information source specified by the information source type 115.
  • the drawing processing unit 2 connects a plurality of drawing elements corresponding to the line segments of the road according to the drawing element content 110 and draws one road.
  • FIG. 3 shows an example of the drawing element information P of the road element.
  • the drawing element attribute 200 related to the drawing element information P of the road element has the following information, for example.
  • the drawing element type 201 has information indicating that the type of the drawing element attribute 200 is “road element”.
  • the information source list 202 includes information indicating that the standard-accuracy map information 5, the high-accuracy map distribution device 14, and the in-vehicle camera 16 are information sources.
  • the processing priority 203 includes information indicating that the first is the onboard camera 16, the second is the high-accuracy map distribution device 14, and the third is the standard-accuracy map information 5.
  • the exception processing type 204 has information indicating “error notification generation”.
  • the drawing element content 210 related to the drawing element information P of the road element has, for example, the following information.
  • the drawing element type 201 has information indicating that the type of the drawing element content 210 is “road element”.
  • the identifier 212 has a road ID that can uniquely identify the road. This road ID may be in accordance with the standard accuracy map information 5 or the management method in the high accuracy map distribution device 14.
  • the data 213 for each information source has information indicating the vehicle-mounted camera 16 as the information source type 115, and the shape and lane of the road in the range corresponding to the road ID recognized by the vehicle-mounted camera 16 as the drawing data 116. It has information indicating the type.
  • the data 214 for each information source includes information indicating the high-accuracy map distribution device 14 as the information source type 115, and the lanes in the range corresponding to the road ID received from the high-accuracy map distribution device 14 as the drawing data 116. It has high-precision information indicating the shape of the road and the type of lane.
  • the information-source-specific data 215 includes information indicating the standard-accuracy map information 5 as the information-source type 115, and the rough data of the road in the range corresponding to the road ID received from the standard-accuracy map information 5 as the drawing data 116. It has information that indicates a unique shape.
  • FIG. 4 shows an example of the drawing element information P of the building element.
  • the drawing element attribute 300 related to the drawing element information P of the building element has, for example, the following information.
  • the drawing element type 301 has information indicating that the type of the drawing element attribute 300 is “building element”.
  • the information source list 302 includes the standard accuracy map information 5 and information indicating that the high accuracy map distribution device 14 is an information source.
  • the processing priority 303 includes information indicating that the first is the high-accuracy map distribution device 14 and the second is the standard-accuracy map information 5.
  • the exception processing type 304 has information indicating “display skip”.
  • the drawing element content 310 related to the drawing element information P of the building element has, for example, the following information.
  • the drawing element type 301 has information indicating that the type of the drawing element content 210 is “building element”.
  • the identifier 312 has a building ID that can uniquely identify the building. This building ID may be in accordance with the standard precision map information 5 or the management method in the high precision map distribution device 14.
  • the data 313 for each information source has information indicating the high-accuracy map distribution device 14 as the information source type 115, and the shape of the building corresponding to the building ID received from the high-accuracy map distribution device 14 as the drawing data 116. And information on the type of building.
  • the data 314 for each information source has information indicating the standard accuracy map information 5 as the information source type 115, and the shape and the building corresponding to the building ID received from the standard accuracy map information 5 as the drawing data 116. Information of the type.
  • FIG. 5 shows an example of the drawing element information of the traffic regulation element.
  • the drawing element attribute 400 relating to the drawing element information P of the traffic regulation element has, for example, the following information.
  • the drawing element type 401 has information indicating that the type of the drawing element attribute 400 is “traffic control element”.
  • the information source list 402 has information indicating that the standard-accuracy map information 5, the high-accuracy map distribution device 14, and the in-vehicle camera 16 are information sources.
  • the processing priority 403 includes information indicating that the first is the in-vehicle camera 16, the second is the high-accuracy map distribution device 14, and the third is the standard map information 5.
  • the exception processing type 404 has information indicating “error notification generation”.
  • the drawing element content 410 related to the drawing element information P of the traffic regulation element has, for example, the following information.
  • the drawing element type 401 has information indicating that the type of the drawing element content 410 is “traffic control element”.
  • the identifier 412 has a regulation section ID that can uniquely identify the traffic regulation information.
  • This restricted section ID may be in accordance with the standard precision map information 5 or the management method in the high precision map distribution device 14.
  • the data 413 for each information source includes information indicating the in-vehicle camera 16 as the information source type 115, and the traffic regulation information in the range corresponding to the restricted section ID recognized by the in-vehicle camera 16 from the sign as the drawing data 116. Having.
  • the information-source-specific data 414 includes information indicating the high-accuracy map distribution device 14 as the information source type 115, and a range corresponding to the restricted section ID received from the high-accuracy map distribution device 14 as the drawing data 116. Has traffic regulation information.
  • the data 415 for each information source includes information indicating the standard accuracy map information 5 as the information source type 115, and the traffic regulation of the range corresponding to the regulation section ID received from the standard accuracy map information 5 as the drawing data 116. Have information.
  • FIG. 6 shows an example of the drawing element information of the traveling direction guide element.
  • the drawing element attribute 500 relating to the drawing element information P of the traveling direction guide element has, for example, the following information.
  • the drawing element type 501 has information indicating that the type of the drawing element attribute 500 is “traveling direction guidance element”.
  • the information source list 502 includes information indicating that the automatic driving control device 15 and the standard accuracy map information 5 are information sources.
  • the processing priority 503 includes information indicating that the first is the automatic driving control device 15 and the second is the standard accuracy map information 5.
  • the exception processing type 504 has information indicating “display skip”.
  • the drawing element content 510 relating to the drawing element information P of the traveling direction guide element has, for example, the following information.
  • the drawing element type 501 has information indicating that the type of the drawing element content 510 is “traveling direction guidance element”.
  • the identifier 512 has a traveling direction guidance ID that can uniquely identify the traveling direction guidance. This traveling direction guidance ID may be in accordance with a management method in the automatic driving control device 15.
  • Information-source-specific data 513 includes information indicating the automatic driving control device 15 as the information source type 115 and information indicating the traveling direction guidance corresponding to the traveling direction guidance ID as the drawing data 116.
  • the information indicating the traveling direction guidance is, for example, information indicating a right or left turn during automatic driving, coordinate information indicating a lane change point, or relative position information.
  • the data 514 for each information source has information indicating the standard accuracy map information 5 as the information source type 115 and information for guiding the traveling direction according to the route information corresponding to the traveling direction guidance ID as the drawing data 116.
  • the route information may be calculated in advance using the standard accuracy map information 5.
  • FIG. 7 is an example of the navigation image 700. Next, the drawing elements constituting the navigation image 700 shown in FIG. 7 will be described.
  • the own vehicle image 701 is an image indicating the position of the own vehicle (vehicle C) on the image.
  • the center line image 702 is an image showing the center line of the road on which the vehicle is traveling.
  • the left line image 703 is an image showing the left line of the road on which the vehicle is traveling.
  • the right line image 704 is an image showing the right line of the road on which the vehicle is traveling.
  • the left lane separation line image 705 is an image showing the left lane separation line of the road on which the vehicle is traveling.
  • the right lane separation line image 706 is an image showing the right lane separation line of the road on which the vehicle is traveling.
  • a left-side vehicle image 707 is an image showing a vehicle traveling on the left side of the own vehicle.
  • the on-coming vehicle image 708 is an image showing a vehicle traveling on the oncoming lane.
  • Each of the building image 710, the building image 711, and the building image 712 is an image of a building near the own vehicle.
  • the traffic regulation information 720 is an image indicating information related to regulation of a road on which the vehicle is traveling.
  • FIG. 8 shows an example of map information referred to for generating the navigation image 700 shown in FIG.
  • the map information 800 is map information near the own vehicle (vehicle C).
  • the map information 800 is configured based on the standard accuracy map information 5 and the high accuracy map information acquired from the high accuracy map distribution device 14.
  • the vehicle position 801 is coordinates indicating the position of the vehicle (vehicle C) calculated by the vehicle position calculation unit 8.
  • the drawing range 802 is information indicating a certain range of the field of view in front of the vehicle position 801.
  • a drawing element included in the drawing range 802 is a drawing target of the navigation image.
  • the road link 803 is a line segment of the road on which the vehicle (vehicle C) is traveling, which is included in the drawing range 802.
  • the unit of this line segment is defined according to the format of the standard accuracy map information 5.
  • the road link 804 is a line segment of a road included in the drawing range 802.
  • the unit of this line segment is defined according to the format of the standard accuracy map information 5.
  • the building 805, the building 806, and the building 807 are information of the building included in the drawing range 802.
  • the building 808 is information of a building that is not included in the drawing range 802.
  • the destination 809 is information indicating a destination in the route information generated in advance based on the standard accuracy map information 5.
  • FIG. 9 is a flowchart illustrating an example of processing for generating a navigation image 700 according to the first embodiment.
  • the control unit 1 executes the processing flow shown in FIG. 9 according to the program recorded in the storage unit 10.
  • Step 901 The control unit 1 acquires the current position of the vehicle C and the direction of the vehicle C calculated by the vehicle position calculation unit 8.
  • Step 902 The control unit 1 determines the drawing range 802 based on the current position of the vehicle C and the direction of the vehicle C.
  • Step 903 The control unit 1 refers to the already generated drawing element and determines whether there is a drawing element that is insufficient for drawing the drawing range 802. The flow moves to step 904 when there is a missing drawing element, and moves to step 905 when there is no missing drawing element.
  • Step 904 If there is a drawing element that is necessary for drawing the drawing range 802 but has not been generated, the control unit 1 refers to the information source list 102 for each type and writes the drawing element in the information source list 102. Information is collected from each information source and stored in the temporary storage unit 3 as drawing data 116. For example, the control unit 1 sets the ID of the road link 803 and the ID of the road link 804 in the map information 800 shown in FIG. Further, the control unit 1 generates a drawing element 310 for each of the building 805, the building 806, and the building 807 included in the drawing range 802. Further, the control unit 1 generates the drawing element 410 based on the regulation information corresponding to the road link 803 on which the vehicle C is traveling. Further, the control unit 1 generates the drawing element 510 based on the latest information acquired from the automatic driving control device 15.
  • Step 905 When a drawing element outside the drawing range 802 exists as a drawing element that has already been generated, the control unit 1 deletes the drawing element outside the drawing range 802 from the temporary storage unit 3. That is, the control unit 1 deletes unnecessary drawing elements from the temporary storage unit 3.
  • Step 906 The control unit 1 instructs the drawing processing unit 2 to: That is, for each of the drawing elements to be drawn, the drawing processing unit 2 refers to the processing priority 103 of the drawing element attribute 100 to which the drawing element belongs, and uses the drawing data 116 corresponding to the information source with a higher priority. And draw.
  • the control unit 1 generates the navigation image 700 by repeating the processing flow shown in FIG. 9 at a predetermined cycle.
  • the control unit 1 can express the navigation image 700 like an animation by repeating the processing flow illustrated in FIG. 9 sufficiently fast for human vision.
  • FIG. 10 shows an example of the navigation image 1000 when the high-accuracy map distribution device 14 cannot be used.
  • the control unit 1 cannot use the lane-specific road shape information included in the high-accuracy map information.
  • the navigation image 1000 shown in FIG. 10 does not display a distant lane as shown in the lane non-display section 1101 compared to the navigation image 700 shown in FIG.
  • the other parts of the navigation image 1000 may be drawn in the same manner as the navigation image 700 shown in FIG.
  • the navigation image 1000 shown in FIG. 10 is generated by modifying a part of the processing flow shown in FIG. 9 as follows. That is, in step 906, when the high-precision map distribution device 14 cannot be used, the control unit 1 refers to the drawing data 116 corresponding to the on-vehicle camera 16 to change the lane in the drawing element 210 near the vehicle C. Continuing drawing including. On the other hand, since the control unit 1 cannot refer to both the high-precision map distribution device 14 and the on-vehicle camera 16 for the drawing element 210 that is relatively far from the vehicle C and that is outside the recognition range of the on-vehicle camera 16, Drawing is performed with reference to information 5. Since the standard accuracy map information 5 does not include lane level information, the control unit 1 does not draw a lane in the lane non-display section 1101.
  • control unit 1 acquires the drawing data 116 from each information source based on the processing priority 103, and determines a method of using the acquired drawing data 116 for each drawing element 110. Thereby, even when some information sources cannot be used, the navigation system 30 can continue to provide the navigation image without a major failure.
  • control unit 1 manages the information source state based on the information source state management table.
  • Other configurations may be the same as in the first embodiment.
  • FIG. 11 shows an example of the information source state management table 600.
  • the information source state management table 600 is a table for managing information source states.
  • the information source state management table 600 includes, as data items, a condition number 601, a position information state 602, a standard accuracy map information state 603, a high accuracy map distribution apparatus state 604, an onboard camera state 605, and an automatic driving apparatus state. 606 and a drawing policy 607.
  • the condition number 601 is a number for distinguishing each condition.
  • the position information state 602 is information indicating whether or not the control unit 1 can acquire the vehicle position information from the vehicle position calculation unit 8.
  • the standard accuracy map information state 603 is information indicating whether or not the control unit 1 can acquire information necessary for drawing from the standard accuracy map information 5.
  • the high-precision map distribution device status 604 is information indicating whether or not the control unit 1 can acquire information necessary for drawing from the high-precision map distribution device 14.
  • the in-vehicle camera state 605 is information indicating whether or not the control unit 1 can acquire information necessary for drawing from the in-vehicle camera 16.
  • the automatic driving device state 606 is information indicating whether or not the control unit 1 can acquire information necessary for drawing from the automatic driving control device 15.
  • the drawing policy 607 is information indicating the drawing policy of the navigation image when the combination of the conditions in each state matches the current state.
  • the drawing policy “A” indicates a drawing policy for determining the priority for each drawing element.
  • the drawing policy “B” uses the route information calculated from the standard accuracy map information 5 instead of the information obtained from the automatic driving control device 15 even when the information can be obtained from the automatic driving control device 15, The drawing policy for drawing the direction guidance is shown.
  • the drawing policy “C” indicates a drawing policy for performing drawing using only information from the vehicle-mounted camera 16.
  • the drawing policy “D” indicates a drawing policy for drawing an error notification screen without performing normal drawing because drawing is difficult to continue.
  • the drawing policy E indicates a drawing policy in which it is determined that information is insufficient due to a temporary communication failure, waits for a predetermined time without drawing the target drawing element, and waits for acquisition of the missing information.
  • FIG. 12 shows an example of a navigation image 1200 when the high-precision map distribution device 14 and the on-board camera 16 cannot be simultaneously used as information sources in the navigation system 30 according to the second embodiment.
  • FIG. 13 is a flowchart illustrating an example of processing for generating a navigation image (for example, FIG. 12) according to the second embodiment.
  • the control unit 1 according to the second embodiment executes the processing flow shown in FIG. 13 instead of the processing flow shown in FIG.
  • the control unit 1 executes the processing from step 901 to step 905 shown in FIG. Then, the control unit 1 executes the next step 1301 instead of the step 906 shown in FIG.
  • step 1301 the control unit 1 searches the information source state management table 600 for a pattern that matches the condition. For example, when the high-accuracy map distribution device 14 and the in-vehicle camera 16 cannot be used at the same time, the condition number 601 “7” is matched in the information source state management table 600 shown in FIG. Therefore, in this case, the control unit 1 selects the drawing policy 607 “B”.
  • the drawing policy "B” is a drawing policy in which the information acquired from the automatic driving control device 15 does not draw the traveling direction guide.
  • the control unit 1 performs the same processing as that in step 906 for the other drawing elements. In addition, since a detailed shape cannot be obtained for drawing a road, the control unit 1 draws a road with an accuracy that can be obtained from the standard accuracy map information 5.
  • map information necessary for high-precision drawing is insufficient, even if a detailed traveling direction such as lane movement acquired from the automatic driving control device 15 is drawn as shown in FIG. Cannot provide useful information.
  • map information necessary for high-precision drawing is insufficient as illustrated in FIG. 12
  • the traveling direction guide is not drawn as illustrated in a drawing 1201. . Therefore, according to the present embodiment, it is possible to avoid a non-uniform display in which useful information cannot be provided, and to provide a display with a sense of unity.
  • FIG. 14 shows an example of a navigation image 1300 in a case where the high-precision map distribution device 14, the in-vehicle camera 16 and the standard-precision map information 5 cannot be used at the same time as an information source when the present embodiment is applied.
  • the control unit 1 selects the drawing policy 607 "D” corresponding to the condition number 601 "13" in the processing of step 1301. I do.
  • the drawing policy “D” is a drawing policy for drawing the error display 1301 without performing the drawing process of each element.
  • FIG. 15 shows an example of a navigation image 1400 when the information of the high-accuracy map distribution device 14 cannot be used as an information source due to a temporary delay in a case where the present embodiment is applied.
  • the information of the high-accuracy map distribution device 14 can be referred to, but for the drawing element contents 310, the information of the high-accuracy map distribution device 14 is temporarily stored. If it cannot be obtained, the control unit 1 selects the drawing policy 607 “E” corresponding to the condition number 601 “17” in the processing of step 1301.
  • the control unit 1 does not draw a building on the route display 1401 and the route display 1402 for a certain period of time in comparison with the navigation image 1000 in accordance with the drawing policy “E”.
  • the control unit 1 performs the processing flow shown in FIG. Thereby, the control unit 1 can select the condition number 601 “1” in the processing of step 1301 and display the navigation image 1000 shown in FIG.
  • control unit 1 draws a standard-precision building using the standard-accuracy map information 5 on the route display 1401 and the route display 1402 according to the processing priority 303 without following the policy of the drawing policy E, Once the standard-accuracy building is drawn, the information of the high-accuracy map distribution device 14 becomes available, and the high-accuracy building is overwritten. If the drawing accuracy of the building shape is switched in a short time, a viewer of the navigation image may look as if the building shape has changed.
  • the drawing policy “E” is applied, and the drawing policy “E” is applied. It is possible to avoid a situation in which the shape of the target is switched in a short time and a viewer of the navigation image is confused.
  • the first embodiment is the same as the first embodiment.
  • the fact that the embodiment or the second embodiment can be realized will be described.
  • FIG. 16 shows a configuration example of a navigation system 30 according to the third embodiment.
  • the navigation system 30 incorporates a function corresponding to the high-accuracy map distribution device 14 and realizes a communication function with the outside of the vehicle using the communication control device 23.
  • the communication control device 23 realizes a communication function with the outside of the vehicle using the communication control device 23.
  • the high-accuracy map information 22 is high-accuracy map information equivalent to that provided by the high-accuracy map distribution device 14 in FIG.
  • processing equivalent to that in the first embodiment can be realized.
  • the control unit 1 refers to the high-accuracy map information 22 and provides a function equivalent to that of the high-accuracy map distribution device 14 to devices connected to the on-vehicle device network 11. Thereby, the difference in configuration between FIG. 1 and FIG. 16 can be absorbed.
  • the communication control device 23 is connected to the in-vehicle device network 11 and mediates communication with the external communication network 12 and the inter-vehicle communication network 13.
  • the communication unit 4 can communicate with the communication control device 23 via the in-vehicle device network 11 and acquire communication information equivalent to the communication information in the first embodiment or the second embodiment.
  • the processing described in the first embodiment or the second embodiment can be realized without changing the procedure, and the same processing as in the first embodiment or the second embodiment is performed.
  • the effect can be obtained.
  • the navigation system 30 incorporates the high-accuracy map distribution device 14
  • hardware costs can be reduced while obtaining the same effect.
  • the communication control device 23 the communication function can be shared by the devices connected to the in-vehicle device network 11 while obtaining the same effect.
  • a navigation system 30 that displays an image on a display and presents it to a vehicle occupant includes a drawing processing unit 2 that draws an image on the display, a temporary storage unit 3 that holds data for generating an image, and a drawing processing unit 2. And a control unit 1 that displays an image on a display using the temporary storage unit 3.
  • the control unit 1 acquires, for each drawing element included in the image, data for generating the drawing element from one or more information sources, stores the data in the temporary storage unit 3, and stores the data in the temporary storage unit 3.
  • data from an information source determined according to a predetermined setting is selected, and the drawing processing unit 3 draws an image obtained by combining drawing elements based on the selected data.
  • the navigation system 30 displays on the display an image obtained by combining the drawing elements based on the data from the information source selected in accordance with the predetermined setting, so that an appropriate image can be displayed according to the situation.
  • the setting may be the processing priority 103 for ranking information sources. Then, the control unit 1 may acquire, from the temporary storage unit 3, data from an information source determined according to the processing priority 103.
  • control unit 1 Since the control unit 1 selects data for generating a drawing element according to the processing priority 103, the control unit 1 can display an image using available and high-priority data.
  • the above setting may be the information source state management table 600 indicating the state of each of the plurality of information sources and the method of selecting the information source corresponding to the combination of the states. Then, the control unit 1 acquires the state of each of the plurality of information sources, selects the information source corresponding to the combination of the states according to the information source state management table 600, and acquires the data by the selected information source from the temporary storage unit. May do it.
  • control unit 1 selects data for generating a drawing element according to the state of the information source, it is possible to display an image using usable and suitable data.
  • control unit 1 When a normal data cannot be temporarily obtained from the information source of the data used to generate the drawing element, the control unit 1 generates the drawing element until a predetermined time elapses. Normal data obtained from the information source of the data used for the data processing may be used, and after the predetermined time has elapsed, data from the information source determined according to the above setting may be used.
  • control unit 1 when data from the information source being used is not obtained for a short time, the control unit 1 continues to display an image using a drawing element generated with normal data acquired from the information source being used. Therefore, it is possible to prevent the mode of the image on the display from frequently changing in a short time.
  • the setting may be set so that the high-accuracy map is selected with higher priority than the standard-accuracy map.
  • control unit 1 preferentially selects a high-accuracy map when a high-accuracy map that is higher than the standard-accuracy map used for route calculation is available. Images can be displayed.
  • the drawing element there is a traveling direction guide element that guides and displays the traveling direction including the lane in which the vehicle C travels with an arrow.
  • the route calculated from the standard accuracy map does not include the lane information
  • the high accuracy map may include the lane information.
  • information sources position information indicating the position of the vehicle C, an in-vehicle camera 16 mounted on the vehicle C for capturing an image ahead including a lane, and automatic driving control for controlling automatic driving of the vehicle C including lane change.
  • the above setting can use the position information, the standard accuracy map, and the automatic driving control device 15, and when the high accuracy map and the in-vehicle camera 16 are unavailable, the route calculated from the standard accuracy map as the traveling direction guide element. May be set to use an image indicated by an arrow.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Transportation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Mathematical Physics (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

ナビゲーションシステムのディスプレイに適切な表示を行うことである。 ディスプレイに画像を表示して車両の乗員に提示するナビゲーションシステムが、画像に含まれる描画要素毎に、該描画要素を生成するためのデータを1つ以上の情報源から取得して一時記憶部に格納し、当該一時記憶部に格納されている正常に利用可能なデータのうち、所定の設定に従って定まる情報源によるデータを選択し、当該選択したデータによる描画要素を組み合わせた画像を描画処理部に描画させる。

Description

ナビゲーションシステム、ナビゲーション表示方法、およびナビゲーション表示プログラム
 本発明は、地図情報を用いてディスプレイ画面に画像や文字を表示するナビゲーションシステムに関する。
 特許文献1には、自動車に搭載されるナビゲーションシステムにおいて、地図情報と、各種の車載センサ等の情報とを組み合わせてディスプレイ上に表示する情報を生成する技術が開示されている。特許文献1には、「車両の自動運転システムから取得した情報に基づいて、前記自動運転システムの自動運転制御に関する画像を前記車両の車載表示器の表示面に表示する画像表示装置であって、前記自動運転システムから前記自動運転制御の安定度に関する安定度情報を取得する安定度情報取得部と、前記自動運転システムから前記自動運転制御による前記車両の次の行動に関する次期行動情報を取得する次期行動情報取得部と、前記車載表示器の表示を制御する表示制御部と、を備え、前記表示制御部は、前記車両が前記自動運転制御中である場合に、前記車両及び前記車両の走行する走行道路を俯瞰して示す走行道路俯瞰画像と、前記走行道路俯瞰画像における前記車両の進行方向に位置し、前記進行方向に交差する方向に延在する長尺状の枠内で前記安定度情報に応じて変化する安定度表示画像と、前記安定度表示画像から前記進行方向に位置し、前記次期行動情報を示す次期行動テキスト画像と、を表示させる」と記載されている。
特開2017-97709号公報
 特許文献1に記載された技術は、道路を俯瞰した画像(俯瞰画像)を生成し、その俯瞰画像上に安定度を表示する画像と次期行動を示す情報とを提示するものである。しかし、特許文献1では、俯瞰画像を生成するためのデータや安定度や次期行動を算出するためのデータあるいはそれらデータの情報源に問題が生じたときに適切な表示を継続することについて考慮されていない。
 本発明の目的は、ナビゲーションシステムのディスプレイに適切な表示を行うことを可能にする技術を提供することである。
 本発明のひとつの態様に係るナビゲーションシステムは、ディスプレイに画像を表示して車両の乗員に提示するナビゲーションシステムであって、前記ディスプレイに画像を描画する描画処理部と、前記画像を生成するためのデータを保持する一時記憶部と、前記描画処理部および前記一時記憶部を用いて前記ディスプレイに画像を表示する制御部と、を有し、前記制御部は、前記画像に含まれる描画要素毎に、該描画要素を生成するためのデータを1つ以上の情報源から取得して前記一時記憶部に格納し、前記一時記憶部に格納されている正常に利用可能なデータのうち、所定の設定に従って定まる情報源によるデータを選択し、前記選択したデータによる描画要素を組み合わせた画像を前記描画処理部に描画させる。
 本発明によれば、ナビゲーションシステムのディスプレイに適切な表示を行うことができる。
第1の実施形態に係るナビゲーションシステムの構成例を示す図である。 描画要素情報Pのフォーマット例を示す図である。 道路要素の描画要素情報Pの一例を示す図である。 建物要素の描画要素情報Pの一例を示す図である。 交通規制要素の描画要素情報Pの一例を示す図である。 進行方向案内要素の描画要素情報Pの一例を示す図である。 ナビゲーション画像の一例を示す図である。 自車周辺地図情報の一例を示す図である。 第1の実施形態に係る処理例を示すフローチャートである。 高精度地図配信装置を利用できない場合におけるナビゲーション画像の一例を示す図である。 第2の実施形態に係る情報源状態管理表の一例を示す図である。 第2の実施形態に係る、高精度地図配信装置及び車載カメラを利用できない場合のナビゲーション画像の一例を示す図である。 第2の実施形態に係る処理例を示すフローチャートである。 第2の実施形態に係る、高精度地図配信装置、車載カメラ及び標準精度地図情報を利用できない場合のナビゲーション画像の一例を示す図である。 第2の実施形態に係る、一時的な遅延により、高精度地図配信装置の情報を利用できない場合のナビゲーション画像の一例を示す図である。 第3の実施形態に係るナビゲーションシステムの構成例を示す図である。
 以下、図面を用いて実施の形態を説明する。
(第1の実施形態)
 図1は、第1の実施形態に係るナビゲーションシステム30の構成例を示す。
 車両Cは、当該車両Cに関する様々な機能を実現する車載システム40を備える。車載システム40は、ナビゲーションシステム30を有する。ナビゲーションシステム30は、車両Cに固定的又は着脱可能に設置され、車両Cの乗員に対して、経路案内等を提示する。以下、車両Cを「自車」と表現する場合がある。
<ナビゲーションシステム>
 ナビゲーションシステム30は、制御部1と、描画処理部2と、一時記憶部3と、通信部4と、標準精度地図情報5と、表示部6と、操作部7と、車両位置算出部8と、音声出力部9と、記憶部10と、を有する。
 制御部1は、コンピュータプログラムを実行し、ナビゲーションシステム30が有する各部の機能を実現する。制御部1は、例えば、CPU(Central Processing Unit)などのプロセッサである。
 描画処理部2は、画像を高速に描画する。描画処理部2は、例えば、GPU(Graphical Processing Unit)などの描画専用プロセッサである。
 一時記憶部3は、データを高速に読み書きが可能な記録領域を提供する。一時記憶部3は、例えば、RAM(Random Access Memory)などの揮発性メモリである。
 通信部4は、ネットワークに接続し、外部の機器との通信を制御する。
 標準精度地図情報5は、標準精度の地図情報であり、出発地から目的地までの経路を探索する場合、及び、ナビゲーション画像を生成する場合などに用いられる。
 表示部6は、制御部1及び描画処理部2によって生成されたナビゲーション画像を表示する。表示部6は、例えば、液晶ディスプレイである。当該ナビゲーション画像は、車両Cの乗員に対して様々な情報を提供する。
 操作部7は、ナビゲーションシステム30の操作機構を提供する。操作部7は、例えば、ボタン又はタッチパネルである。操作部7は、車両Cの乗員からの操作(入力)を検出し、制御部1へ通知する。
 車両位置算出部8は、車両Cの現在位置、及び/又は、車両Cの進行方向、走行速度及び加速度などを算出する。例えば、車両位置算出部8は、全球測位衛星システム(GPS)を利用して、これらを算出する。或いは、車両位置算出部8は、通信部4を介して外部の機器から位置情報を取得し、これらを算出する。
 音声出力部9は、車両Cの乗員に対して、案内音声、警告音声、アラーム及び音楽等の様々な音を出力する。音声出力部9は、例えば、スピーカである。
 記憶部10は、制御部1によって実行されるコンピュータプログラム及びデータを記憶する。記憶部10は、例えば、フラッシュメモリ又はHDD(Hard Disk Drive)などの不揮発性メモリである。
<車載システム>
 車載システム40は、ナビゲーションシステム30と、車載器ネットワーク11と、車外通信ネットワーク12と、他車間通信ネットワーク13と、高精度地図配信装置14と、自動運転制御装置15と、車載カメラ16と、メータ17と、リアモニタ18と、ヘッドアップディスプレイ19と、を有する。
 車載機器ネットワーク11は、車載システム40が備える各機器を接続するためのネットワークである。車載機器ネットワーク11は、有線通信及び無線通信の何れであってもよい。通信媒体又は通信プロトコルは、単一であってもよいし、複数であってもよい。車載機器ネットワーク11は、複数のネットワークがゲートウェイ機器によって相互に接続された大きなネットワークであってもよい。ナビゲーションシステム30の通信部4は、当該車載機器ネットワーク11に接続しており、車載システム40が備える各機器と通信できる。
 車外通信ネットワーク12は、車載システム40の外部の機器又はサーバ等と通信を行うための無線通信ネットワークである。車外通信ネットワーク12は、例えば、モバイル通信キャリアネットワークである。例えば、車載システム40は、道路上に設置された、無線通信装置(無線基地局)にアクセスし、モバイル通信キャリアネットワークを介して、サーバと通信を行う。
 他車間通信ネットワーク13は、他の車両と通信を行うための無線通信ネットワークである。例えば、車載システム40は、他車間通信ネットワーク13を介して、所定の通信プロトコルを用いて、他の車両が保持する情報を受信したり、自車両Cの車載システム40が保持する情報を他の車両に送信したりする。
 高精度地図配信装置14は、高精度地図情報を配信する装置である。高精度地図情報は、例えば高精度な道路形状の情報などを含み、自動運転など、高精度な地図情報を要求する運転操作などに用いられる。高精度地図配信装置14は、車載機器ネットワーク11を介して、車載システム40の機器へ高精度地図情報を提供する。
 自動運転制御装置15は、車両Cに搭載された各種車載カメラ16及びセンサ等から取得した情報、ナビゲーションシステム30から取得した情報、及び/又は、高精度地図配信装置14から取得した情報などを用いて、自動運転に必要な車両制御を計画し、制御信号を生成する。
 車載カメラ16は、車両Cに搭載され、当該車両Cの周囲の状況を撮影し、撮影画像を生成する。車載カメラ16は、可視光線及び/又は赤外線の撮像機能を有してよい。車載カメラ16は、撮影画像から、車両Cの周辺の状況を認識する機能を有してもよい。例えば、車載カメラ16は、道路上の車線の位置、形状及び種別、及び/又は、周辺を走行する他の車両の位置及び形状などを認識する。
 メータ17は、車両Cに搭載され、車両Cの走行速度等の情報を表示する。メータ17は、画像表示によって実現されてもよいし、機械式によって実現されてもよい。リアモニタ18は、車両Cの後部座席の乗員に対して情報を提供する。リアモニタ18は、例えば液晶ディスプレイで構成される。ヘッドアップディスプレイ19は、運転手又は乗員の前方窓に情報を提示する。ヘッドアップディスプレイ19は、例えば液晶ディスプレイで構成される。
 道路情報配信システム20は、車外通信ネットワーク12を介して、道路情報をナビゲーションシステム30に配信する。道路情報は、例えば、道路の混雑状況、道路の規制情報などを含む。
 近傍車両車外通信装置21は、車両Cに備えられ、他車間通信ネットワーク13を介して、その車両Cが保持している情報を周辺の他の車両に提供する。また、車両Cのナビゲーションシステム30の通信部4は、周辺の他の車両が備える近傍車両車外通信装置21から送信される当該他の車両が保持している情報を、他車間通信ネットワーク13を介して受信する。
 ナビゲーションシステム30は、車両Cの乗員に対して、ナビゲーション画像を提供する。ナビゲーション画像は、例えば次のように生成される。制御部1が、必要な情報を収集して一時記憶部3に格納する。そして、制御部1が、描画処理部2に対して、ナビゲーション画像の描画を指示する。描画処理部2が、一時記憶部3に格納された各種の描画要素情報に基づいてナビゲーション画像を描画し、出力する。描画要素情報に含まれる各情報は、1又は複数の情報源から構成される。
 例えば、描画処理部2は、道路の描画要素情報に含まれる、道路形状を示す座標情報、及び/又は、道路の車線種別を示す情報などを用いて、ナビゲーション画像の一部を構成する道路を描画する。
 例えば、描画処理部2は、建物の描画要素情報に含まれる、地図上の建物の位置及び形状を示す座標情報、建物の高さ及び外形を示す情報、及び/又は、建物の外観を示すテクスチャ情報などを用いて、ナビゲーション画像の一部を構成する建物を描画する。なお、建物の種類(例えば商業施設又は公共施設など)毎に異なる描画を行うために、建物の描画要素情報には、建物の属性を示す情報が含まれてもよい。
 例えば、描画処理部2は、交通規制の描画要素情報に含まれる、各道路リンクの制限速度を示す情報、及び/又は、一方通行などの通行規制を示す情報などを用いて、ナビゲーション画像の一部を構成する交通規制の情報を描画する。
 例えば、描画処理部2は、進路制御の描画要素情報に含まれる、自動運転車両がどの地点で進路変更の制御を行うかを示す情報などを用いて、ナビゲーション画像の一部を構成する、自動運転車両がどの地点で進路変更を行うかを示す情報を描画する。
 表示部6は、描画処理部2から出力されたナビゲーション画像を表示する。これにより、乗員は、ディスプレイに表示されたナビゲーション画像を確認できる。また、他の表示装置は、通信部4及び車載機器ネットワーク11を介して送信されたナビゲーション画像を表示する。他の表示装置は、例えば、メータ17、リアモニタ18、及びヘッドアップディスプレイ19である。この場合、他の表示装置は、それぞれ、当該表示装置のサイズ及び形状に応じて、ナビゲーション画像に対して、拡大縮小、部分的な切り出し及び/又は画像フィルタなどの加工を施して表示してよい。
 図2は、描画要素情報Pのフォーマットの例を示す。各種の描画要素情報Pは、このフォーマットに従って、一時記憶部3に格納される。
 描画要素情報Pは、描画要素属性100と、描画要素内容110とを有する。
 描画要素属性100は、描画要素情報Pの種別ごとに定義される属性情報である。描画要素属性100は、描画要素種別101と、情報源リスト102と、処理優先度103と、例外処理種別104とを有する。
 描画要素種別101は、描画要素属性100が対応する描画要素情報Pの種別を示す情報である。描画要素種別101は、例えば、道路要素、建物要素、交通規制要素、及び、進行方向案内要素などである。
 情報源リスト102は、描画要素情報Pを構成するために必要な情報源のリストを示す情報である。例えば、道路形状を示す描画要素情報Pは、情報源リスト102として、標準精度地図情報5と、高精度地図配信装置14と、車載カメラ16とを含む。
 処理優先度103は、情報源リスト102に同種の情報を取得できる複数の情報源が存在する場合において、描画処理部2による各情報源の利用の優先度を示す情報である。例えば、或る情報源から取得した情報が、描画対象の描画要素に対して、一時的又は恒常的に利用できない場合、描画処理部2は、当該情報源を利用対象から外し、同種の情報を得られる他の利用可能な情報源の中で最も優先度の高い情報源を利用対象とする。
 本実施の形態に係る図面上では、図3に示すように、(1)、(2)、(3)の数字を用いて優先度の高さを示す。なお、本実施の形態では、数字が小さいほうを高い優先度とする。
 例外処理種別104は、描画対象の描画要素について、情報源リスト102の全ての情報源が一時的又は恒常的に利用できない場合における処理方法を示す情報である。
 描画要素内容110は、描画の基本単位のフォーマットである。描画要素内容110は、描画要素種別111と、識別子112と、情報源別データリスト113とを有する。
 描画要素種別111は、描画要素の種別を示す情報である。識別子112は、描画要素を一意に識別できる情報である。情報源データリスト113は、情報源リスト102に示された各情報源に対応する情報源別データ114を有する。
 情報源別データ114は、描画に必要なデータであり、情報源種別115と、描画用データ116とを含む。情報源種別115は、描画用データ116の情報源を示す。描画用データ116は、情報源種別115の情報源から収集された、識別子112に対応する範囲における描画用のデータである。つまり、情報源別データ114は、情報源種別115で指定された情報源から収集された、識別子112に対応する範囲における描画用の単位情報である。例えば、描画要素種別101が道路要素の場合、描画処理部2は、描画要素内容110に従って道路の線分に対応する複数の描画要素を連結し、一本の道路を描画する。
 図3は、道路要素の描画要素情報Pの一例を示す。
 道路要素の描画要素情報Pに係る描画要素属性200は、例えば次の情報を有する。
 描画要素種別201として、描画要素属性200の種別が「道路要素」であることを示す情報を有する。情報源リスト202として、標準精度地図情報5、高精度地図配信装置14、及び、車載カメラ16が情報源であることを示す情報を有する。処理優先度203として、1番目が車載カメラ16、2番目が高精度地図配信装置14、3番目が標準精度地図情報5であることを示す情報を有する。例外処理種別204として、「エラー通知生成」を示す情報を有する。
 道路要素の描画要素情報Pに係る描画要素内容210は、例えば次の情報を有する。
 描画要素種別201として、描画要素内容210の種別が「道路要素」であることを示す情報を有する。識別子212として、道路を一意に識別できる道路IDを有する。この道路IDは、標準精度地図情報5又は高精度地図配信装置14における管理方式に従うものであってよい。
 情報源別データ213において、情報源種別115として、車載カメラ16を示す情報を有し、描画用データ116として、車載カメラ16で認識された、道路IDに対応する範囲の道路の形状及び車線の種別を示す情報を有する。
 情報源別データ214において、情報源種別115として、高精度地図配信装置14を示す情報を有し、描画用データ116として、高精度地図配信装置14から受信した、道路IDに対応する範囲の車線毎の高精度な道路の形状及び車線の種別を示す情報を有する。
 情報源別データ215において、情報源種別115として、標準精度地図情報5を示す情報を有し、描画用データ116として、標準精度地図情報5から受信した、道路IDに対応する範囲の道路の大まかな形状を示す情報を有する。
 図4は、建物要素の描画要素情報Pの一例を示す。
 建物要素の描画要素情報Pに係る描画要素属性300は、例えば次の情報を有する。
 描画要素種別301として、描画要素属性300の種別が「建物要素」であることを示す情報を有する。情報源リスト302として、標準精度地図情報5、及び、高精度地図配信装置14が情報源であることを示す情報を有する。処理優先度303として、1番目が高精度地図配信装置14、2番目が標準精度地図情報5であることを示す情報を有する。例外処理種別304として、「表示スキップ」を示す情報を有する。
 建物要素の描画要素情報Pに係る描画要素内容310は、例えば次の情報を有する。
 描画要素種別301として、描画要素内容210の種別が「建物要素」であることを示す情報を有する。識別子312として、建物を一意に識別できる建物IDを有する。この建物IDは、標準精度地図情報5又は高精度地図配信装置14における管理方式に従うものであってよい。
 情報源別データ313において、情報源種別115として、高精度地図配信装置14を示す情報を有し、描画用データ116として、高精度地図配信装置14から受信した、建物IDに対応する建物の形状及び建物の種別の情報を有する。
 情報源別データ314において、情報源種別115として、標準精度地図情報5を示す情報を有し、描画用データ116として、標準精度地図情報5から受信した、建物IDに対応する建物の形状及び建物の種別の情報を有する。
 図5は、交通規制要素の描画要素情報の一例を示す。
 交通規制要素の描画要素情報Pに係る描画要素属性400は、例えば次の情報を有する。
 描画要素種別401として、描画要素属性400の種別が「交通規制要素」であることを示す情報を有する。情報源リスト402として、標準精度地図情報5、高精度地図配信装置14、及び、車載カメラ16が情報源であることを示す情報を有する。処理優先度403として、1番目が車載カメラ16、2番目が高精度地図配信装置14、3番目が標準度地図情報5であることを示す情報を有する。例外処理種別404として、「エラー通知生成」を示す情報を有する。
 交通規制要素の描画要素情報Pに係る描画要素内容410は、例えば次の情報を有する。
 描画要素種別401として、描画要素内容410の種別が「交通規制要素」であることを示す情報を有する。
 識別子412として、交通規制情報を一意に識別できる規制区間IDを有する。この規制区間IDは、標準精度地図情報5又は高精度地図配信装置14における管理方式に従うものであってよい。
 情報源別データ413において、情報源種別115として、車載カメラ16を示す情報を有し、描画用データ116として、車載カメラ16によって標識から認識された、規制区間IDに対応する範囲の交通規制情報を有する。
 情報源別データ414において、情報源種別115として、高精度地図配信装置14を示す情報を有し、描画用データ116として、高精度地図配信装置14から受信した、規制区間IDに対応する範囲の交通規制情報を有する。
 情報源別データ415において、情報源種別115として、標準精度地図情報5を示す情報を有し、描画用データ116として、標準精度地図情報5から受信した、規制区間IDに対応する範囲の交通規制情報を有する。
 図6は、進行方向案内要素の描画要素情報の一例を示す。
 進行方向案内要素の描画要素情報Pに係る描画要素属性500は、例えば次の情報を有する。
 描画要素種別501として、描画要素属性500の種別が「進行方向案内要素」であることを示す情報を有する。情報源リスト502として、自動運転制御装置15及び標準精度地図情報5が情報源であることを示す情報を有する。処理優先度503として、1番目が自動運転制御装置15、2番目が標準精度地図情報5であることを示す情報を有する。例外処理種別504として、「表示スキップ」を示す情報を有する。
 進行方向案内要素の描画要素情報Pに係る描画要素内容510は、例えば次の情報を有する。
 描画要素種別501として、描画要素内容510の種別が「進行方向案内要素」であることを示す情報を有する。識別子512として、進行方向案内を一意に識別できる進行方向案内IDを有する。この進行方向案内IDは、自動運転制御装置15における管理方式に従うものであってよい。
 情報源別データ513において、情報源種別115として、自動運転制御装置15を示す情報を有し、描画用データ116として、進行方向案内IDに対応した進行方向案内を示す情報を有する。進行方向案内を示す情報は、例えば、自動運転中の右左折を示す情報、又は、車線変更のポイントを示す座標情報、若しくは相対位置情報などである。
 情報源別データ514において、情報源種別115として、標準精度地図情報5を示す情報を有し、描画用データ116として、進行方向案内IDに対応する経路情報に従って進行方向を案内する情報を有する。経路情報は、標準精度地図情報5を用いて事前に算出されてよい。
 次に、描画要素情報Pを利用して、ナビゲーション画像を生成する方法について説明する。
 図7は、ナビゲーション画像700の一例である。次に、図7に示すナビゲーション画像700を構成する描画要素について説明する。
 自車画像701は、画像上の自車(車両C)の位置を示す画像である。中央線画像702は、自車が走行中の道路の中央線を示す画像である。左側線画像703は、自車が走行中の道路の左側線を示す画像である。右側線画像704は、自車が走行中の道路の右側線を示す画像である。
 左レーン分離線画像705は、自車が走行中の道路の左レーン分離線を示す画像である。右レーン分離線画像706は、自車が走行中の道路の右レーン分離線を示す画像である。
 左近傍車両画像707は、自車の左側を走行している車両を示す画像である。対向近傍車両画像708は、対向車線を走行している車両を示す画像である。建物画像710、建物画像711、及び建物画像712は、それぞれ、自車の近傍の建物の画像である。交通規制情報720は、自車が走行中の道路の規制に関する情報を示す画像である。
 図8は、図7に示すナビゲーション画像700を生成するために参照される地図情報の例を示す。
 地図情報800は、自車(車両C)の近傍の地図情報である。地図情報800は、標準精度地図情報5と、高精度地図配信装置14から取得した高精度地図情報とに基づいて構成される。
 自車位置801は、車両位置算出部8が算出した自車(車両C)の位置を示す座標である。描画範囲802は、自車位置801の前方の視界の一定範囲を示す情報である。この描画範囲802に含まれる描画要素が、ナビゲーション画像の描画対象となる。
 道路リンク803は、描画範囲802に含まれる、自車(車両C)が走行中の道路の線分である。この線分の単位は、標準精度地図情報5のフォーマットに従って定義される。道路リンク804は、描画範囲802に含まれる、道路の線分である。この線分の単位は、標準精度地図情報5のフォーマットに従って定義される。
 建物805、建物806、及び建物807は、描画範囲802に含まれる建物の情報である。建物808は、描画範囲802に含まれない建物の情報である。
 目的地809は、標準精度地図情報5に基づいて予め生成された経路情報における目的地を示す情報である。
 図9は、第1の実施形態に係る、ナビゲーション画像700を生成する処理の例を示すフローチャートである。制御部1は、記憶部10に記録されたプログラムに従い、図9に示す処理フローを実行する。
 ステップ901:制御部1は、車両位置算出部8が算出した車両Cの現在位置と車両Cの向きとを取得する。
 ステップ902:制御部1は、車両Cの現在位置と車両Cの向きに基づき、描画範囲802を決定する。
 ステップ903:制御部1は、既に生成済みの描画要素を参照し、描画範囲802を描画するために不足している描画要素の有無を判定する。フローは、不足している描画要素が有る場合、ステップ904へ移行し、不足している描画要素が無い場合、ステップ905へ移行する。
 ステップ904:描画範囲802を描画するために必要であるが未生成である描画要素が有る場合、制御部1は、各種別の情報源リスト102を参照して、情報源リスト102に記載されている各情報源から情報を収集し、描画用データ116として、一時記憶部3に格納する。例えば、制御部1は、図8に示す地図情報800における道路リンク803のIDと道路リンク804のIDとを、それぞれ、識別子212に設定し、2つの描画要素210を生成する。また、制御部1は、描画範囲802に含まれる建物805、建物806、及び建物807について、それぞれ、描画要素310を生成する。また、制御部1は、車両Cが走行中の道路リンク803に対応する規制情報に基づいて、描画要素410を生成する。また、制御部1は、自動運転制御装置15から取得した最新の情報に基づいて、描画要素510を生成する。
 ステップ905:制御部1は、描画範囲802の外側の描画要素が、既に生成済みの描画要素として存在する場合、その描画範囲802の外側の描画要素を、一時記憶部3から削除する。つまり、制御部1は、不要な描画要素を一時記憶部3から削除する。
 ステップ906:制御部1は、描画処理部2に対して、次のことを指示する。つまり、描画処理部2は、描画対象の描画要素のそれぞれについて、その描画要素が属する描画要素属性100の処理優先度103を参照し、優先度の高い情報源に対応する描画用データ116を利用して描画する。
 制御部1は、図9に示す処理フローを所定の周期で繰り返すことにより、ナビゲーション画像700を生成する。例えば、制御部1は、人間の視覚に対して十分に高速に図9に示す処理フローを繰り返すことにより、ナビゲーション画像700をアニメーションのように表現できる。
 図10は、高精度地図配信装置14を利用できない場合におけるナビゲーション画像1000の例を示す。
 高精度地図配信装置14を利用できない場合、制御部1は、高精度地図情報に含まれる車線別の道路形状情報を利用できない。この場合、図10に示すナビゲーション画像1000には、図7に示すナビゲーション画像700と比較して、車線未表示区間1101に示すような遠方の車線が表示されない。なお、この場合、ナビゲーション画像1000のその他の部分については、図7に示すナビゲーション画像700と同等に描画されてよい。
 図10に示すナビゲーション画像1000は、図9に示す処理フローの一部を次のように変形することにより、生成される。すなわち、ステップ906において、制御部1は、高精度地図配信装置14を利用できなかった場合、車両Cの近傍の描画要素210では、車載カメラ16に対応する描画用データ116を参照して車線を含む描画を継続する。一方、制御部1は、車両Cから比較的遠方である、車載カメラ16の認識範囲外の描画要素210については、高精度地図配信装置14と車載カメラ16の両方を参照できないため、標準精度地図情報5を参照して描画する。標準精度地図情報5は車線レベルの情報を含まないため、制御部1は、車線未表示区間1101において車線を描画しない。
 このように、制御部1は、処理優先度103に基づいて各情報源から描画用データ116を取得し、その取得した描画用データ116の利用方法を、描画要素110ごとに判定する。これにより、ナビゲーションシステム30は、一部の情報源が利用できない場合でも、大きな破綻無く、ナビゲーション画像を提供し続けることができる。
(第2の実施形態)
 第2の実施形態では、制御部1が、情報源状態管理表に基づいて情報源状態を管理する例について説明する。なお、他の構成については、第1の実施形態と同様であってよい。
 図11は、情報源状態管理表600の例を示す。情報源状態管理表600は、情報源状態を管理するための表である。情報源状態管理表600は、データ項目として、条件番号601と、位置情報状態602と、標準精度地図情報状態603と、高精度地図配信装置状態604と、車載カメラ状態605と、自動運転装置状態606と、描画方針607とを有する。
 条件番号601は、各条件を区別するための番号である。位置情報状態602は、制御部1が、車両位置算出部8から自車位置情報を取得できるか否かを示す情報である。
 標準精度地図情報状態603は、制御部1が、標準精度地図情報5から描画に必要な情報を取得可能か否かを示す情報である。高精度地図配信装置状態604は、制御部1が、高精度地図配信装置14から描画に必要な情報を取得可能か否かを示す情報である。
 車載カメラ状態605は、制御部1が、車載カメラ16から描画に必要な情報を取得可能か否かを示す情報である。自動運転装置状態606は、制御部1が、自動運転制御装置15から描画に必要な情報を取得可能か否かを示す情報である。
 描画方針607は、各状態の条件の組み合わせが現状に合致した場合におけるナビゲーション画像の描画方針を示す情報である。例えば、描画方針「A」は、第1の実施形態と同様に、描画要素ごとに優先度を判断する描画方針を示す。描画方針「B」は、自動運転制御装置15から情報を取得できる状態であっても、自動運転制御装置15から取得した情報ではなく、標準精度地図情報5から算出した経路情報を用いて、進行方向案内を描画する描画方針を示す。描画方針「C」は、車載カメラ16からの情報のみを用いて描画する描画方針を示す。描画方針「D」は、描画の継続が困難であるために、通常の描画を行わず、エラーの通知画面を描画する描画方針を示す。描画方針Eは、一時的な通信障害による情報不足と判断し、一定時間、対象の描画要素の描画を行わずに待機し、不足している情報の取得を待機する描画方針を示す。
 図12は、第2の実施形態に係るナビゲーションシステム30において、情報源として高精度地図配信装置14および車載カメラ16を同時に利用できない場合のナビゲーション画像1200の例を示す。
 図13は、第2の実施形態に係るナビゲーション画像(例えば図12)を生成する処理例を示すフローチャートである。第2の実施形態に係る制御部1は、図9に示す処理フローではなく、図13に示す処理フローを実行する。
 第2の実施形態に係る制御部1は、図9に示すステップ901からステップ905の処理を実行する。そして、制御部1は、図9に示すステップ906の処理に代えて、次のステップ1301の処理を実行する。
 ステップ1301において、制御部1は、情報源状態管理表600を参照して、条件に合致するパターンを探す。例えば、高精度地図配信装置14および車載カメラ16を同時に利用できない場合は、図11に示す情報源状態管理表600において、条件番号601「7」に合致する。よって、この場合、制御部1は、描画方針607「B」を選択する。描画方針「B」は、自動運転制御装置15から取得した情報では進行方向案内の描画を行わないという描画方針である。
 制御部1は、他の描画要素についてステップ906と同様の処理を行う。また、道路の描画に関して詳細な形状を取得できないため、制御部1は、標準精度地図情報5から取得できる精度で、道路を描画する。
 高精度な描画に必要な地図情報が不足していると、図10のように自動運転制御装置15から取得したレーン移動などの詳細な進行方向を描画しても、情報の精度が地図の描画と揃わないため、有用な情報を提供できない。これに対して、上述の処理によれば、図12に例示するように、高精度な描画に必要な地図情報が不足している場合は、描画1201に示すように、進行方向案内が描画されない。よって、本実施の形態によれば、有用な情報を提供できない不統一な表示を回避し、統一感のある表示を提供できる。
 図14は、本実施の形態を適用した場合において、情報源として高精度地図配信装置14、車載カメラ16および標準精度地図情報5を同時に利用できない場合のナビゲーション画像1300の例を示す。
 高精度地図配信装置14、車載カメラ16および標準精度地図情報5を同時に利用できない場合、制御部1は、ステップ1301の処理において、条件番号601「13」に対応する描画方針607「D」を選択する。描画方針「D」は、各要素の描画処理を行わず、エラー表示1301を描画する描画方針である。これにより、有用な情報の提供が困難な場合において、不要な描画を行わずに、エラー状態を乗員に通知できる。
 図15は、本実施の形態を適用した場合において、一時的な遅延により、情報源として高精度地図配信装置14の情報を利用できない場合のナビゲーション画像1400の例を示す。
 例えば、描画要素内容310以外の描画要素内容210、410、510に関しては高精度地図配信装置14の情報を参照できたが、描画要素内容310に関しては高精度地図配信装置14の情報を一時的に取得できなかった場合、制御部1は、ステップ1301の処理において、条件番号601「17」に対応する描画方針607「E」を選択する。
 図15のナビゲーション画像1400に示すように、制御部1は、描画方針「E」に従い、ナビゲーション画像1000と比較して、経路表示1401と経路表示1402に対して、一定時間、建物を描画しない。制御部1は、一定時間の経過後、高精度地図配信装置14の情報が利用可能になった場合、図13に示す処理フローを行う。これにより、制御部1は、ステップ1301の処理において条件番号601「1」を選択し、図7に示すナビゲーション画像1000を表示できる。
 仮に、制御部1が、描画方針Eの方針に従わず、処理優先度303に従い、経路表示1401と経路表示1402に対して、標準精度地図情報5を用いて標準精度の建物を描画した場合、一度標準精度の建物を描画した後に、高精度地図配信装置14の情報が利用可能になり、高精度の建物を上書き描画することになる。建物の形状の描画精度が短時間に切り替わると、ナビゲーション画像を見る者にとって、建物の形状が変わってしまったように見える可能性がある。
 これに対して、本実施の形態に示すように、高精度地図配信装置14からの情報の取得が少し遅れるような状況が想定される場合は、描画方針「E」を適用することにより、描画対象の形状が短時間に切り替わりナビゲーション画像を見る者が混乱を招く状況を回避できる。
 このように、情報源状態管理表600を利用して描画処理を行うことにより、処理優先度103のみを用いて描画を行う場合と比較して、特定の条件において、不自然な描画がなされることを回避し、自然な描画を実現できる。また、描画の継続が困難か否かについても、高い精度で判断し、ナビゲーション画像を生成できる。
(第3の実施形態)
 第3の実施形態では、ナビゲーションシステム30が高精度地図配信装置14に相当する機能を内蔵する場合と、通信制御装置23を用いて車外との通信機能を実現する場合とにおいても、第1の実施形態又は第2の実施形態を実現できることを説明する。
 図16は、第3の実施形態に係るナビゲーションシステム30の構成例を示す。図16において、ナビゲーションシステム30は、高精度地図配信装置14に相当する機能を内蔵し、通信制御装置23を用いて車外との通信機能を実現する。以下、図1に示す構成との相違点についてのみ説明する。
 高精度地図情報22は、図1において高精度地図配信装置14が提供するものと同等の高精度な地図情報である。描画要素属性100及び描画要素内容110における参照先の指定を、高精度地図配信装置14から高精度地図情報22に変更することにより、第1の実施形態と同等の処理を実現である。
 また、制御部1は、高精度地図情報22を参照し、高精度地図配信装置14と同等の機能を、車載機ネットワーク11に接続されている機器に対して提供する。これにより、図1と図16との間の構成の相違を吸収できる。
 通信制御装置23は、車載機ネットワーク11に接続され、車外通信ネットワーク12、及び、他車間通信ネットワーク13との通信を仲介する。通信部4は、車載機ネットワーク11を介して通信制御装置23と通信し、第1の実施形態又は第2の実施形態における通信情報と同等の通信情報を取得できる。
 図16に例示する構成によれば、手順を変更することなく、第1の実施形態又は第2の実施形態で説明した処理を実現でき、第1の実施形態又は第2の実施形態と同様の効果を得ることができる。また、ナビゲーションシステム30が高精度地図配信装置14を内蔵することにより、同様の効果を得つつ、ハードウェアのコストを低減することができる。また、通信制御装置23を用いることにより、同様の効果を得つつ、車載機ネットワーク11に接続された機器で通信機能を共有することができる。
<まとめ>
 上記の各実施形態の一部又は全部は以下のようにまとめることもできる。ただし、本発明がこれらに限定されるものではない。
 ディスプレイに画像を表示して車両の乗員に提示するナビゲーションシステム30は、ディスプレイに画像を描画する描画処理部2と、画像を生成するためのデータを保持する一時記憶部3と、描画処理部2および一時記憶部3を用いてディスプレイに画像を表示する制御部1と、を有する。制御部1は、画像に含まれる描画要素毎に、該描画要素を生成するためのデータを1つ以上の情報源から取得して一時記憶部3に格納し、一時記憶部3に格納されている正常に利用可能なデータのうち、所定の設定に従って定まる情報源によるデータを選択し、選択したデータによる描画要素を組み合わせた画像を描画処理部3に描画させる。
 これにより、ナビゲーションシステム30は、所定の設定に従って選択した情報源からのデータによる描画要素を組み合わせた画像をディスプレイに表示するので、状況に応じて適切な画像を表示することができる。
 上記設定は、情報源を順位付ける処理優先度103であってよい。そして、制御部1は、処理優先度103に従って定まる情報源によるデータを一時記憶部3から取得してよい。
 これにより、制御部1は、描画要素を生成するためのデータを処理優先度103に従って選択するので、利用可能でかつ優先度の高いデータを用いた画像を表示することができる。
 上記設定は、複数の情報源それぞれの状態と該状態の組み合わせに対応する情報源の選択方法を示す情報源状態管理表600であってよい。そして、制御部1は、複数の情報源それぞれの状態を取得し、状態の組み合わせに対応する情報源を情報源状態管理表600に従って選択し、当該選択した情報源によるデータを一時記憶部から取得してよい。
 これにより、制御部1は、描画要素を生成するためのデータを情報源の状態に従って選択するので、利用可能でかつ好適なデータを用いた画像を表示することができる。
 制御部1は、描画要素を生成するのに用いてきたデータの情報源から一時的に正常なデータが得られない状態となったとき、所定時間が経過するまでは、それまで描画要素を生成するのに用いてきたデータの情報源から取得済みの正常なデータを用い、当該所定時間が経過すると、上記設定に従って定まる情報源によるデータを用いてよい。
 これにより、制御部1は、利用中の情報源からのデータが短時間だけ得られなくなったときに、利用中の情報源から取得済みの正常なデータで生成した描画要素による画像の表示を継続するので、ディスプレイの画像の態様が短時間に頻繁に切り替わるのを防止することができる。
 情報源としては、目的地までの経路算出に用いる標準精度地図と、標準精度地図よりもより高精度な地図情報を備えた高精度地図と、がある。そして、上記設定は、高精度地図を標準精度地図よりも優先的に選択するように設定されてよい。
 これにより、制御部1は、経路算出に用いる標準精度地図よりも高精度な高精度地図が利用可能なときには高精度地図を優先的に選択するので、高精度地図が利用可能なときには精度の高い画像を表示することができる。
 描画要素としては、車両Cが進行する車線を含む進行方向を矢印で案内表示する進行方向案内要素がある。また、標準精度地図から算出される経路は車線の情報を含まず、高精度地図は車線の情報を含んでよい。そして、情報源として、車両Cの位置を示す位置情報と、車両Cに搭載され車線を含む前方の画像を撮像する車載カメラ16と、車両Cの車線変更を含む自動運転を制御する自動運転制御装置15とがある。上記設定は、位置情報と標準精度地図と自動運転制御装置15とを利用可能であり、高精度地図と車載カメラ16が利用不可であるとき、進行方向案内要素として標準精度地図から算出される経路を矢印で示す画像を用いるように設定されてよい。
 これにより、自動運転制御装置15により車両Cが進行する車線の情報が得られる場合でも、車線の画像を撮像可能な車載カメラ16と車線を表示するための高精度地図とが利用可能でないときには、進行方向案内要素として車線の情報を含まない標準精度地図による経路を表示するので、車線が表示されていないのに車線変更が矢印で示されるという不自然な表示を防止することができる。
 上述した実施の形態は、本発明の説明のための例示であり、本発明の範囲を実施の形態にのみ限定する趣旨ではない。当業者は、本発明の要旨を逸脱することなしに、他の様々な態様で本発明を実施することができる。
1…制御部、2…描画処理部、3…一時記憶部、4…通信部、5…標準精度地図情報、30…ナビゲーションシステム、40…車載システム

Claims (12)

  1.  ディスプレイに画像を表示して車両の乗員に提示するナビゲーションシステムであって、
     前記ディスプレイに画像を描画する描画処理部と、
     前記画像を生成するためのデータを保持する一時記憶部と、
     前記描画処理部および前記一時記憶部を用いて前記ディスプレイに画像を表示する制御部と、
    を有し、
     前記制御部は、
     前記画像に含まれる描画要素毎に、該描画要素を生成するためのデータを1つ以上の情報源から取得して前記一時記憶部に格納し、
     前記一時記憶部に格納されている正常に利用可能なデータのうち、所定の設定に従って定まる情報源によるデータを選択し、
     前記選択したデータによる描画要素を組み合わせた画像を前記描画処理部に描画させる、
    ナビゲーションシステム。
  2.  前記設定は、情報源を順位付ける優先度であり、
     前記制御部は、前記優先度に従って定まる前記情報源によるデータを前記一時記憶部から取得する、
    請求項1に記載のナビゲーションシステム。
  3.  複数の情報源があり、
     前記設定は、前記複数の情報源それぞれの状態と該状態の組み合わせに対応する情報源の選択方法を示し、
     前記制御部は、前記複数の情報源それぞれの状態を取得し、前記状態の組み合わせに対応する情報源を前記設定に従って選択し、前記選択した情報源によるデータを前記一時記憶部から取得する、
    請求項1に記載のナビゲーションシステム。
  4.  前記制御部は、前記描画要素を生成するのに用いてきたデータの情報源から一時的に正常なデータが得られない状態となったとき所定時間が経過するまでは、それまで描画要素を生成するのに用いてきたデータの情報源から取得済みの正常なデータを用い、前記所定時間が経過すると、前記設定に従って定まる情報源によるデータを用いる、
    請求項1に記載されたナビゲーションシステム。
  5.  前記情報源として、目的地までの経路算出に用いる標準精度地図と、前記標準精度地図よりもより高精度な地図情報を備えた高精度地図と、があり、前記設定が、前記高精度地図を前記標準精度地図よりも優先的に選択するように設定される、
    請求項1に記載のナビゲーションシステム。
  6.  前記描画要素として、前記車両が進行する車線を含む進行方向を矢印で案内表示する進行方向案内要素があり、
     前記標準精度地図から算出される経路は車線の情報を含まず、
     前記高精度地図は車線の情報を含み、
     前記情報源として、更に、前記車両の位置を示す位置情報と、前記車両に搭載され車線を含む前方の画像を撮像する車載カメラと、前記車両の車線変更を含む自動運転を制御する自動運転制御装置とがあり、
     前記設定は、前記位置情報と前記標準精度地図と前記自動運転制御装置が利用可能であり、前記高精度地図と前記車載カメラが利用不可であるとき、前記進行方向案内要素として前記標準精度地図から算出される経路を矢印で示す画像を用いるように設定される、
    請求項5に記載のナビゲーションシステム。
  7.  ディスプレイに画像を表示して車両の乗員に提示するナビゲーション表示方法であって、
     制御部が、
     前記画像に含まれる描画要素毎に、該描画要素を生成するためのデータを1つ以上の情報源から取得して一時記憶部に格納し、
     前記一時記憶部に格納されている正常に利用可能なデータのうち、所定の設定に従って定まる情報源によるデータを選択し、
     前記選択したデータによる描画要素を組み合わせた画像を前記ディスプレイに描画する、
    ナビゲーション表示方法。
  8.  前記設定は、情報源を順位付ける優先度であり、
     前記制御部は、前記優先度に従って定まる前記情報源によるデータを前記一時記憶部から取得する、
    請求項1に記載のナビゲーション表示方法。
  9.  複数の情報源があり、
     前記設定は、前記複数の情報源それぞれの状態と該状態の組み合わせに対応する情報源の選択方法を示し、
     前記制御部は、前記複数の情報源それぞれの状態を取得し、前記状態の組み合わせに対応する情報源を前記設定に従って選択し、前記選択した情報源によるデータを前記一時記憶部から取得する、
    請求項1に記載のナビゲーション表示方法。
  10.  ディスプレイに画像を表示して車両の乗員に提示するナビゲーション表示プログラムであって、
     前記画像に含まれる描画要素毎に、該描画要素を生成するためのデータを1つ以上の情報源から取得して一時記憶部に格納し、
     前記一時記憶部に格納されている正常に利用可能なデータのうち、所定の設定に従って定まる情報源によるデータを選択し、
     前記選択したデータによる描画要素を組み合わせた画像を前記ディスプレイに描画する、
     ことをコンピュータに実行させる、
    ナビゲーション表示プログラム。
  11.  前記設定は、情報源を順位付ける優先度であり、
     前記優先度に従って定まる前記情報源によるデータを前記一時記憶部から取得する、ことをコンピュータに実行させる、
    請求項1に記載のナビゲーション表示プログラム。
  12.  複数の情報源があり、
     前記設定は、前記複数の情報源それぞれの状態と該状態の組み合わせに対応する情報源の選択方法を示し、
     前記複数の情報源それぞれの状態を取得し、前記状態の組み合わせに対応する情報源を前記設定に従って選択し、前記選択した情報源によるデータを前記一時記憶部から取得する、ことをコンピュータに実行させる、
    請求項1に記載のナビゲーション表示プログラム。
PCT/JP2019/011080 2018-09-21 2019-03-18 ナビゲーションシステム、ナビゲーション表示方法、およびナビゲーション表示プログラム WO2020059188A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/277,889 US11988521B2 (en) 2018-09-21 2019-03-18 Navigation system, navigation display method, and navigation display program
EP19862725.9A EP3855122A4 (en) 2018-09-21 2019-03-18 NAVIGATION SYSTEM, NAVIGATION DISPLAY METHOD, AND NAVIGATION DISPLAY PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018177539A JP7232604B2 (ja) 2018-09-21 2018-09-21 ナビゲーションシステム、ナビゲーション表示方法、およびナビゲーション表示プログラム
JP2018-177539 2018-09-21

Publications (1)

Publication Number Publication Date
WO2020059188A1 true WO2020059188A1 (ja) 2020-03-26

Family

ID=69886850

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/011080 WO2020059188A1 (ja) 2018-09-21 2019-03-18 ナビゲーションシステム、ナビゲーション表示方法、およびナビゲーション表示プログラム

Country Status (4)

Country Link
US (1) US11988521B2 (ja)
EP (1) EP3855122A4 (ja)
JP (1) JP7232604B2 (ja)
WO (1) WO2020059188A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7245084B2 (ja) * 2019-03-15 2023-03-23 日立Astemo株式会社 自動運転システム
JP2022107907A (ja) * 2021-01-12 2022-07-25 本田技研工業株式会社 推奨レーンを判定する車両システム
CN114968870B (zh) * 2022-04-25 2023-06-13 江苏集萃清联智控科技有限公司 一种导航信息处理器及其方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000211452A (ja) * 1999-01-20 2000-08-02 Toyota Motor Corp 走路形状表示装置および地図デ―タベ―ス記録媒体
JP2009139240A (ja) * 2007-12-06 2009-06-25 Victor Co Of Japan Ltd 車両用周囲監視装置、車両用周囲監視装置の表示制御方法及び車両用周囲監視装置に実行させる表示制御プログラム
JP2017097709A (ja) 2015-11-26 2017-06-01 トヨタ自動車株式会社 画像表示装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06231391A (ja) * 1993-01-28 1994-08-19 Kenwood Corp 車載用ナビゲーション装置
JP4807691B2 (ja) * 2001-09-26 2011-11-02 パイオニア株式会社 画像作成装置及び方法、電子機器並びにコンピュータプログラム
WO2006109625A1 (ja) * 2005-04-08 2006-10-19 Matsushita Electric Industrial Co., Ltd. 地図情報更新装置および地図情報更新方法
US8315796B2 (en) * 2007-12-28 2012-11-20 Mitsubishi Electric Corporation Navigation device
KR101750876B1 (ko) 2015-05-28 2017-06-26 엘지전자 주식회사 차량용 디스플레이 장치 및 차량
US9835859B2 (en) * 2015-08-25 2017-12-05 Panasonic Intellectual Property Management Co., Ltd. Image display device
US11267484B2 (en) * 2016-03-16 2022-03-08 Honda Motor Co., Ltd. Vehicle control system, vehicle control method, and vehicle control program
JP2019095213A (ja) * 2017-11-17 2019-06-20 アイシン・エィ・ダブリュ株式会社 重畳画像表示装置及びコンピュータプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000211452A (ja) * 1999-01-20 2000-08-02 Toyota Motor Corp 走路形状表示装置および地図デ―タベ―ス記録媒体
JP2009139240A (ja) * 2007-12-06 2009-06-25 Victor Co Of Japan Ltd 車両用周囲監視装置、車両用周囲監視装置の表示制御方法及び車両用周囲監視装置に実行させる表示制御プログラム
JP2017097709A (ja) 2015-11-26 2017-06-01 トヨタ自動車株式会社 画像表示装置

Also Published As

Publication number Publication date
JP7232604B2 (ja) 2023-03-03
US20210348937A1 (en) 2021-11-11
EP3855122A1 (en) 2021-07-28
US11988521B2 (en) 2024-05-21
EP3855122A4 (en) 2023-01-11
JP2020046406A (ja) 2020-03-26

Similar Documents

Publication Publication Date Title
JP6986699B2 (ja) 表示制御システム、表示システム、移動体、表示制御方法及びプログラム
KR20200070071A (ko) 위치 업데이트 방법, 위치 및 내비게이션 노선의 표시 방법, 차량과 시스템
WO2020059188A1 (ja) ナビゲーションシステム、ナビゲーション表示方法、およびナビゲーション表示プログラム
JP2010271155A (ja) 現在位置特定装置とその現在位置特定方法
JP2014133444A (ja) クルーズコントロール装置及びその方法、並びに車両特定装置
WO2019117047A1 (ja) 車載装置、情報提示方法
JP2010072713A (ja) 大型車輌後方映像提供システム
JP7348725B2 (ja) 配信システム、配信方法および車載装置
JP7010172B2 (ja) 広告制御装置、広告システム、広告制御方法及び広告制御プログラム
JP2020140602A (ja) 地図データ更新システム、走行プローブ情報収集装置、走行プローブ情報提供装置および走行プローブ情報収集方法
JP7348724B2 (ja) 車載装置および表示方法
JP2014234139A (ja) 車載表示装置およびプログラム
JP4800252B2 (ja) 車載装置及び交通情報提示方法
KR20130066210A (ko) 카메라를 이용한 교통 표지 정보 획득 장치 및 방법
KR20160064653A (ko) 실사 이미지를 이용한 주행 경로 안내 장치 및 방법
WO2013111302A1 (ja) 表示装置、制御方法、プログラム、記憶媒体
JPWO2020079794A1 (ja) 駐車場内運転支援装置及び駐車場内運転支援方法
US10876853B2 (en) Information presentation device, information presentation method, and storage medium
JP7463120B2 (ja) 情報処理装置、配信システムおよび情報処理方法
JP2015148468A (ja) ナビゲーションシステム、ルームミラーモニター、ナビゲーション方法、およびプログラム
JP2019012152A (ja) 表示制御システム、表示システム、表示制御方法、プログラム、及び移動体
JP6239331B2 (ja) 情報配信システム、情報端末装置
JP6475413B2 (ja) ナビゲーションシステム
JP2010107410A (ja) ナビゲーション装置
JP6432312B2 (ja) ナビゲーションシステム、ナビゲーション方法、及びナビゲーションプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19862725

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019862725

Country of ref document: EP

Effective date: 20210421