WO2008041284A1 - Dispositif de guidage sur itinéraire, procédé de guidage sur itinéraire, programme de guidage sur itinéraire et support d'enregistrement - Google Patents

Dispositif de guidage sur itinéraire, procédé de guidage sur itinéraire, programme de guidage sur itinéraire et support d'enregistrement Download PDF

Info

Publication number
WO2008041284A1
WO2008041284A1 PCT/JP2006/319506 JP2006319506W WO2008041284A1 WO 2008041284 A1 WO2008041284 A1 WO 2008041284A1 JP 2006319506 W JP2006319506 W JP 2006319506W WO 2008041284 A1 WO2008041284 A1 WO 2008041284A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
guidance
guidance information
route guidance
route
Prior art date
Application number
PCT/JP2006/319506
Other languages
English (en)
French (fr)
Inventor
Hiroaki Shibasaki
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Priority to JP2008537342A priority Critical patent/JPWO2008041284A1/ja
Priority to PCT/JP2006/319506 priority patent/WO2008041284A1/ja
Publication of WO2008041284A1 publication Critical patent/WO2008041284A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Definitions

  • Route guidance device route guidance method, route guidance program, and recording medium
  • the present invention relates to a route guidance device, a route guidance method, a route guidance program, and a recording medium that create guidance information with the position of an object in a user's field of view as a mark.
  • the use of the present invention is not limited to the above-described route guidance device, route guidance method, route guidance program, and recording medium.
  • a current position detecting means for detecting the current position of the host vehicle and a road selection method for selecting a road on which the host vehicle is traveling from the current position of the host vehicle.
  • Other vehicle position display means for displaying the vehicle position information in an overlapping manner is also provided, and the position information of the following vehicle is displayed in an overlapping manner on the road shape generated from the map information (for example, see Patent Document 1 below).
  • Patent Document 1 Japanese Patent Laid-Open No. 11 250396
  • the route guidance device is provided with an image acquisition means for acquiring an image obtained by imaging the moving direction of the moving object, and the moving direction Based on the detection means for detecting the position of the object to be detected by the radar, the image acquired by the image acquisition means, and the detection result detected by the detection means, the position of the object is used as a mark.
  • a creation unit that creates guidance information of a route for guiding a moving body, and an output unit that outputs guidance information including the position of the object created by the creation unit are provided.
  • an image acquisition step of acquiring an image obtained by imaging the moving direction of the moving body, and the position of the object existing in the moving direction are detected by a radar.
  • Guidance information on a route for guiding the moving body with the position of the object as a landmark based on the detection step detected by the image acquisition step, the image acquired by the image acquisition step, and the detection result detected by the detection step.
  • a route guidance program according to the invention of claim 6 causes a computer to execute the route guidance method according to claim 5.
  • a recording medium according to the invention of claim 7 is characterized in that the route guidance program according to claim 6 is recorded in a computer-readable state.
  • FIG. 1 is a block diagram showing a functional configuration of a route guidance device according to the present embodiment.
  • FIG. 2 is a flowchart showing a route guidance processing procedure of the route guidance device.
  • FIG. 3 is a block diagram showing the hardware configuration of a navigation device that is effective in this embodiment.
  • FIG. 4 is a flowchart showing the contents of processing of the navigation device.
  • Fig. 5-1 is an explanatory diagram showing the relationship between the radar detection range at the guidance point and the blind area by shooting.
  • FIG. 5-2 is an explanatory diagram showing the relationship between the detection range by the radar at the guidance point after a predetermined time has elapsed and the blind area by photographing.
  • FIG. 1 is a block diagram showing a functional configuration of the route guidance device according to the present embodiment.
  • a route guidance device 100 includes an image acquisition unit 101, a position acquisition unit 102, a distance A determination unit 103, a detection unit 104, an analysis unit 105, a determination unit 106, an image determination unit 107, an identification unit 108, a creation unit 109, and an output unit 110 are provided.
  • the image acquisition unit 101 acquires an image obtained by capturing the moving direction of the moving body. Specifically, for example, an image obtained by capturing a scene in the traveling direction is acquired from a camera or the like that is provided in the driver's seat of a moving body and is set to the viewing angle of the driver. Further, the image obtained by imaging the moving direction of the moving body may be, for example, video information related to the driver's visual field.
  • the video information related to the driver's field of view is image information that captures almost the same scenery as the scenery that the driver actually sees.
  • the position acquisition unit 102 acquires current position information of the moving object.
  • the current position information of the moving body is obtained, for example, in accordance with the output value from the acceleration sensor or the vehicle speed sensor that detects the behavior of the moving body in addition to the GPS signal received by the GPS satellite force. Please do it.
  • the distance determination unit 103 determines whether or not the current position information acquired by the position acquisition unit 102 is within a predetermined distance to the guide point where the guide information is created.
  • the guidance information is guidance information for guiding the mobile body to the route to the destination point.
  • Guidance points are points where guidance information is output in normal route guidance, such as intersections that make a left or right turn.
  • the predetermined distance may be constant or variable depending on the speed of the moving body.
  • the detection unit 104 detects the position of an object existing in the movement direction by a radar.
  • the object existing in the moving direction is, for example, another moving body or a person.
  • the detection unit 104 detects the position of the object using, for example, a laser using electromagnetic waves or a sonar using ultrasonic waves.
  • Radar Sona when the wave propagation is partially blocked by an obstacle due to wave diffraction, the wave propagates to the shadowed part of the obstacle. As a result, even when a plurality of objects overlap each other, the position of each object can be detected.
  • the detection unit 104 should be able to determine the type (vehicle, person, etc.) and size of the object.
  • the analysis unit 105 also analyzes the moving state of the position force of the object detected by the detection unit 104. For example, the analysis unit 105 detects the object from the continuous detection of the object position by the detection unit 104. Analyze the state of predicting the right or left turn Specifically, the state in which the right / left turn is predicted is, for example, a state in which the speed of the object is slow or a state in which the object has moved to the right / left turn lane.
  • the determination unit 106 determines an object that serves as a guide for guidance information.
  • An object serving as a guide information is an object whose position is used as a guide when creating guide information. Specifically, for example, an object in a state where a right or left turn is predicted around the guidance point.
  • the image determination unit 107 determines whether or not the image that is the mark determined by the determination unit 106 is captured in the image acquired by the image acquisition unit 101. For example, it is determined by an image analysis or the like whether or not the object that is a landmark is captured in the image acquired by the image acquisition unit 101. Specifically, for example, the analysis result obtained from the analysis unit 105 for the object to be the mark determined by the determination unit 106 (result of a state that predicts the left and right of the object) force specifies the position on the image, and the image It is determined whether or not the force corresponding to the type and size acquired from the detection unit 104 for the object serving as the mark determined by the determination unit 106 at the upper position is captured.
  • the image determination unit 107 may determine a blind area.
  • the blind area is, for example, a range in which the field of view is blocked by an object in the user's field of view. Specifically, for example, among the images acquired continuously while traveling, the range is set to be a blind area where there is almost no change in scenery due to a vehicle traveling in the same direction.
  • the identification unit 108 identifies the appearance feature of the object based on the image acquired by the image acquisition unit 101.
  • the appearance features of an object are, for example, features that can identify each object such as color, size, and type.
  • the creation unit 109 Based on the image acquired by the image acquisition unit 101 and the detection result detected by the detection unit 104, the creation unit 109 generates route guidance information for guiding the moving body using the position of the object as a landmark. create. Specifically, the creation unit 109 specifically includes, for example, an appearance feature of the object identified by the identification unit 108, a position of the object acquired by the position acquisition unit 102, and a path for guiding the moving object Create guidance information. In addition, the creation unit 109 may detect when the image determination unit 107 determines that an object to be a mark is captured. If the distance determining unit 103 determines that the distance is within the predetermined distance, the guide information may be generated.
  • the creation of the guidance information by the creation unit 109 is created as follows.
  • the creation unit 109 has a vocabulary table (not shown) for creating guidance information.
  • the creation unit 109 has character data such as “red”, “white”, and “blue” as vocabularies indicating colors, It has character data such as “Right”, “Left”, “Opposite”, “Direction”, and “Turn” as the vocabulary indicating the movement state of.
  • the output unit 110 outputs guidance information including the position of the object created by the creation unit 109.
  • the guidance information may be guidance information including the position of the object serving as the mark determined by the determination unit 106, or may be guidance information including the position of the object and the appearance characteristics.
  • the output unit 110 includes an audio output device such as a speaker, and outputs the guidance information created by the creation unit 109 as needed.
  • the output unit 110 may include a display screen for displaying map data.
  • the map data is recorded in a recording unit (not shown).
  • the map data includes road network data composed of nodes and links, and image data drawn using features related to facilities, roads, and other terrain (mountains, rivers, land).
  • the map data may include text information, information such as facility names and addresses, and road and facility images.
  • guidance information created by the creation unit 109 may be displayed on the display screen as needed.
  • FIG. 2 is a flowchart showing the route guidance processing procedure of the route guidance device.
  • an image obtained by capturing the moving direction of the moving object is acquired by the image acquisition unit 101 (step S201). Images obtained by capturing the moving direction in step S201 are continuously acquired.
  • step S202 the position of the object existing in the moving direction is detected by the detection unit 104 by the radar (step S202), and the position force of the object detected in step S202 by the analysis unit 105 is also analyzed for the moving state of the object ( Step S 203).
  • step S202 the position of the object is continuously detected.
  • the determination unit 106 determines an object to be the guide information (step S204). Then, the image determination unit 107 waits until it is determined that the object determined in step S204 is captured in the image acquired in step S201 (step S205: No loop). If the object has been imaged (step S205: Yes), the appearance feature of the object that is determined to be imaged in step S205 by the identification unit 108 is identified (step S206).
  • the creation unit 109 creates guidance information based on the movement state of the object analyzed in step S203 and the appearance feature identified in step S206 (step S207). Then, the guidance information including the moving state and the appearance feature of the object created in step S207 is output (step S208), and the series of processing ends.
  • the force for determining the object to be the guide information in step S204 For example, the object to be the mark may be singular or plural. In a plurality of cases, the position of each object is continuously detected.
  • the force for waiting until the object is imaged in the loop of step S205 No is not limited to this. Specifically, for example, even when an object is not imaged, the process may proceed to step S207 to create guidance information.
  • the guidance information here is notice guidance information such as “a car that is soon to be seen”.
  • the force for creating the guidance information in step S207 is not limited to this.
  • an object to be a mark may be determined and the guidance information may be created immediately.
  • Step S205 If it is determined that the object is imaged in Yes, the process may immediately go to Step S208 and output the guidance information.
  • the creation unit 109 By using the position of the object as a landmark, guidance information of a route for guiding the moving body can be created and output by the output unit 110.
  • the position of an object in a range that is not captured in an image by an obstacle or the like can be detected by the radar.
  • the user detects the position of an object that does not fall within the user's field of view, so that those objects are in the user's field of view.
  • the guidance information can be output as soon as it enters. Therefore, it is possible to output guidance information using the position of an object even if there are many obstacles and the route.
  • the creation unit 109 determines that the image that is the mark determined by the determination unit 106 is captured in the image acquired by the image acquisition unit 101. If so, create guidance information. Then, guidance information including the position of the object to be a mark created by the output unit 110 can be output.
  • the appearance feature of the object can be identified by the identification unit 108 based on the image acquired by the image acquisition unit 101. Then, the creation unit 109 creates guidance information of a route for guiding the moving object using the position of the object and the appearance characteristics of the object as marks, and the output unit 110 outputs the position and position of the object created by the creation unit 109. Guidance information including appearance features can be output.
  • each object can be distinguished.
  • the user can avoid multiple objects around the guidance point. In this case, it is possible to easily find an object as a guide information.
  • the current position information of the moving body acquired by the position acquisition unit 102 is predetermined up to the guidance point where the guidance information is created by the distance determination unit 103. If it is determined that the distance is within the distance, the creation unit 109 can create guidance information.
  • the radar cannot be activated until the distance is within a predetermined distance from the guidance point. This allows the user to keep other functions of the radar until the user is within a predetermined distance from the guidance point.
  • Examples of the present invention will be described below.
  • a navigation device mounted on a moving body such as a vehicle (including a four-wheeled vehicle and a two-wheeled vehicle) will be described.
  • FIG. 3 is a block diagram showing the hardware configuration of the navigation apparatus that is useful in this embodiment.
  • the navigation device 300 includes a CPU 301, a ROM 302, a RAM 303, a magnetic disk drive 304, a magnetic disk 305, an optical disk drive 310, an optical disk 307, an audio IZF (interface) 308, and a microphone 309.
  • Each component 301 to 317 is connected by a bus 320.
  • the CPU 301 governs overall control of the navigation device 300.
  • the ROM 302 records programs such as a boot program and a data update program.
  • RAM 303 is used as a work area for CPU 301. That is, the CPU 301 controls the entire navigation device 300 by executing various programs recorded in the ROM 302 while using the RAM 303 as a work area.
  • the behavior analysis program causes the output force of a radar or the like included in various sensors 316 described later to analyze the moving state of the object.
  • the object is, for example, an oncoming vehicle, the same lane vehicle, a person It can be a guide for guidance information, such as falling objects.
  • the power or force that detects a vehicle that has slowed down, whether or not a vehicle that has moved to the left or right turn lane is detected, or force or force that detects a passerby crossing the road Analyze moving conditions that predict vehicle turn-around or passers-by crossing.
  • the behavior analysis program causes the appearance characteristics of an object present in video information captured by a camera 317 described later to be analyzed. Appearance features are, for example, the color and shape of the car body, the car name and car model, or the clothes of passers-by.
  • the guidance information creation program creates guidance information related to route guidance.
  • the guidance information is voice information that prompts the user using the moving state of the object at the guidance point.
  • the guidance information is, for example, an oncoming vehicle whose movement state is analyzed from the output of a radar or the like, the same lane vehicle traveling in front of the same lane, or a passerby traveling across the road. Is voice information for guiding the user.
  • the guidance information creation program creates notice guidance information regarding route guidance.
  • the advance guidance information is, for example, voice information that prompts the user by using the moving state of the object at the planned point before the object used for the guidance guidance enters the visual field of the user.
  • voice information that prompts the user by using the moving state of the object at the planned point before the object used for the guidance guidance enters the visual field of the user.
  • the magnetic disk drive 304 controls reading and writing of data to the magnetic disk 305 according to the control of the CPU 301.
  • the magnetic disk 305 records data written under the control of the magnetic disk drive 304.
  • the magnetic disk 305 for example, HD (node disk) or FD (flexible disk) can be used.
  • the optical disk drive 306 controls data reading / writing to the optical disk 307 according to the control of the CPU 301.
  • the optical disc 307 is a detachable recording medium from which data is read according to the control of the optical disc drive 306.
  • the optical disk 307 can use a writable recording medium.
  • the removable recording medium may be a power MO of the optical disk 307, a memory card, or the like.
  • Examples of information recorded on the magnetic disk 305 and the optical disk 307 include map data and function data.
  • Map data can be used for features such as buildings, rivers, and the ground surface. It includes background data that represents the shape of the road and road shape data that represents the shape of the road, and is composed of multiple data files divided by district.
  • the road shape data further includes traffic condition data.
  • the traffic condition data includes, for example, the presence / absence of traffic lights and pedestrian crossings, the presence / absence of highway doorways and junctions, the length (distance) of each link, road width, direction of travel, road type (high speed). Road, toll road, general road, etc.).
  • the function data is three-dimensional data representing the shape of the facility on the map, character data representing the description of the facility, and other various data other than the map data.
  • Map data and function data are recorded in blocks divided by district or function. Specifically, for example, the map data is recorded in such a state that each map can be divided into blocks such that each map represents a predetermined area on the map displayed on the display screen. Also, for example, the function data is recorded in a state where each function can be divided into a plurality of blocks so as to realize one function.
  • the function data is data for realizing functions such as program data that realizes route search, calculation of required time, route guidance, and the like.
  • Each of the map data and function data is composed of multiple data files divided by district or function.
  • the audio IZF 308 is connected to a microphone 309 for audio input and a speaker 310 for audio output.
  • the voice received by the microphone 309 is AZD converted in the voice IZF308.
  • the microphone 309 may be installed near the sun visor of the vehicle, and the number may be one or more.
  • a sound obtained by DZA-converting a predetermined sound signal in the sound IZF 308 is output. Note that sound input from the microphone 309 can be recorded on the magnetic disk 305 or the optical disk 307 as sound data.
  • the voice IZF 308 outputs guidance information and prediction guidance information created by the guidance information creation program.
  • the audio IZF 308 outputs guidance information from a speaker when an object used for guidance information detected by a radar or the like provided in various sensors 316 described later is photographed by a camera 317 described later.
  • the audio IZF308 is, for example, an advance notice detected by a radar or the like included in various sensors 316 described later.
  • An object used for the guidance information may be captured by a camera 317 described later, and may be output from a speaker.
  • Examples of the input device 311 include a remote controller having a plurality of keys for inputting characters, numerical values, and various instructions, a keyboard, and a touch panel.
  • the input device 311 may be realized by any one form of the remote control, the keyboard, and the touch panel.
  • the input device 311 may be realized by a plurality of forms.
  • the video IZF 312 is connected to the display 313. Specifically, the video IZF312 is output from, for example, a graphic controller that controls the entire display 313, a buffer memory such as VRAM (Video RAM) that temporarily records image information that can be displayed immediately, and a graphic controller. It is configured by a control IC that controls the display 313 based on image data.
  • a graphic controller that controls the entire display 313, a buffer memory such as VRAM (Video RAM) that temporarily records image information that can be displayed immediately, and a graphic controller. It is configured by a control IC that controls the display 313 based on image data.
  • VRAM Video RAM
  • the display 313 displays icons, cursors, menus, windows, or various data such as characters and images.
  • the map data force described above is drawn in two or three dimensions.
  • the map data displayed on the display 313 can be displayed with a mark representing the current position of the vehicle on which the navigation device 300 is mounted.
  • the current position of the vehicle is calculated by the CPU 301.
  • the display 313 for example, a CRT, a TFT liquid crystal display, a plasma display, or the like can be used.
  • the display 313 is installed near the dashboard of the vehicle, for example.
  • a plurality of displays 313 may be installed on the vehicle, for example, near the dashboard of the vehicle or around the rear seat of the vehicle.
  • Communication IZF 314 is connected to a network via radio and functions as an interface between navigation device 300 and CPU 301.
  • the communication I / F 314 is further connected to a communication network such as the Internet via radio and functions as an interface between the communication network and the CPU 301.
  • Communication networks include LANs, WANs, public line networks, mobile phone networks, and the like.
  • the communication IZF314 is composed of, for example, FM tuner, VICS (Vehicle Information and Communication System) Z beacon Resino, wireless navigation device, and other navigation devices, and traffic congestion that VICS center power is also distributed. Road traffic information such as traffic regulations. VICS is a registered trademark.
  • the communication IZF 314 may acquire the current position information from other navigation devices or communication terminal devices.
  • the GPS unit 315 receives radio waves from GPS satellites and outputs information indicating the current position of the vehicle.
  • the output information of the GPS unit 315 is used when the CPU 301 calculates the current position of the vehicle together with output values of various sensors 316 described later.
  • the information indicating the current position is information that identifies one point on the map data, such as latitude'longitude and altitude.
  • Various sensors 316 output information for determining the position and behavior of the vehicle, such as a vehicle speed sensor, an acceleration sensor, and an angular velocity sensor.
  • the output values of the various sensors 316 are used by the CPU 301 to calculate the current position of the vehicle and the amount of change in speed and direction.
  • the various sensors 316 continuously detect the movement state of objects around the host vehicle. Specifically, for example, the position information of an object such as the front, side, and rear of the vehicle is detected by a radar using electromagnetic waves or a sonar using ultrasonic waves. In radar sonar, when the propagation of a wave is partially blocked by an obstacle due to the diffraction of the wave, the wave propagates to the shadowed part of the obstacle. As a result, even when a plurality of vehicles overlap each other, the movement state of each vehicle can be detected.
  • the camera 317 captures an image inside or outside the vehicle.
  • the image can be either a still image or a moving image.
  • the camera 317 captures the behavior of passengers inside the vehicle, and the captured image is output to a recording medium such as the magnetic disk 305 or the optical disk 307 via the image IZF312. To do.
  • the situation outside the vehicle is photographed by the camera 317, and the photographed image is output to a recording medium such as the magnetic disk 305 and the optical disk 307 via the video IZF 312.
  • the camera 317 has an infrared camera function, and relatively compares the surface temperature distribution of an object present in the vehicle based on video information captured using the infrared camera function. be able to.
  • the video output to the recording medium is overwritten and saved.
  • the camera 317 captures an image related to the visual field of the user. Regarding the user's field of view The video image is in the same range as the user's field of view.
  • the camera 317 is installed in accordance with the viewing angle of the user. For example, it is installed at the end of the pillow part of the user's seat. Furthermore, the camera 317 may determine the user's field of view with another camera that senses the user's line of sight, and change the position and angle of the camera 317 accordingly!
  • the creation unit 109 and the output unit 110 use the program data recorded in the ROM 300, the RAM 303, the magnetic disk 305, the optical disk 307, etc. in the navigation device 300 shown in FIG. This function is realized by executing and controlling each part in the navigation device 300.
  • the navigation device 300 has the function of the route guidance device shown in FIG. 1 by executing the route guidance program recorded in the ROM 302 as a recording medium in the navigation device 300. Can be executed by the route guidance processing procedure shown in FIG.
  • FIG. 4 is a flowchart showing the contents of processing of the navigation device.
  • step S401: No loop wait until the destination is set by the user operating the input device 311. If the destination is set (step S401: Yes), A guidance route is determined (step S402).
  • guidance points for performing guidance by voice or images on the guidance route may be set at the same time.
  • step S403 wait until the vehicle starts to travel (step S403: No loop), and when the vehicle starts to travel (step S403: Yes), the camera 317 shows the driving direction of the vehicle as seen in the driving direction.
  • Shooting is started (step S404).
  • the detection of the object by the radar provided in the various sensors 316 is started (step S405).
  • the object detection range by the radar is, for example, centered on a guide point such as an intersection where the host vehicle turns right and left, and a predetermined margin value a is added to the distance M from the guide point.
  • Calculated distance R The range of the circle with M + ⁇ as the radius.
  • the object detection range by the radar may be limited to a route in contact with the guide point.
  • the maximum speed Pm may be constant, or forces such as speed limit (legal speed), road width, road curvature, etc. may be calculated.
  • the speed of the host vehicle may be calculated by taking into account that the vehicle decelerates from the current speed ⁇ ⁇ ⁇ ⁇ as it approaches the guidance point.
  • the distance R T _f, which is obtained by multiplying the integral _f f (P, M) of the deceleration model function f (P, M) by the current speed ⁇ and distance by time T
  • the range may be a circle centered on the guide point with f (P, M) as the radius.
  • the deceleration model function f (P, M) may be a predetermined function or variable depending on the user and the travel route.
  • the predetermined distance may be a predetermined distance, or may be variable depending on the speed of the vehicle! /.
  • step S408 it is determined from the moving state of the object analyzed in step S407 whether or not there is an object used for guidance information (step S408).
  • the judgment of whether or not the object is used for guidance information is, for example, whether or not a vehicle that has slowed down is detected, whether or not a vehicle that has moved to the right / left turn lane is detected, It is a judgment such as whether or not a person has been detected, such as a moving state that predicts the turn of another vehicle or the crossing of a passerby.
  • the detection of the object used for guidance information may be singular or plural.
  • step S408 If it is determined in step S408 that there is an object used for guidance information (step S408: Yes), the object that is determined to be the object used for guidance information in step S408 in the captured image (Step S409: No loop). If an object is reflected in step S409 (step S409: Yes), the color of the reflected object is identified (step S410).
  • guidance information using the object whose color is identified in step S410 is output (step S411).
  • the guidance information using the object is, for example, “Turn left when the car is bent”! /, Based on the moving state of the object! /, Guidance information, and ⁇ , Ma Red V, turn left when the car turns, etc. ”is guidance information based on the moving state of the object and the color of the object.
  • step S408 if there is no object used for guidance information in step S408 (step S408:
  • normal guidance information is output (step S412).
  • the normal guidance information is, for example, guidance information using an intersection name or road name such as “turn left at the intersection 300m ahead” or “turn left before the combination 300m ahead”. ", Etc., is guidance information using the Tatsu Landmark.
  • step S413 it is determined whether or not the force has arrived at the destination point.
  • step S413: Yes a series of processing is terminated.
  • step S406 is returned and the subsequent processing is repeated.
  • the force for determining whether or not the guide point is within a predetermined distance in step S406 is not limited to this. For example, it may be determined whether or not a predetermined time before the predicted time of arrival at the guidance point.
  • the force that waits until the object appears in the loop of step S409: No is not limited to this.
  • the process proceeds to step S410 and step S411, and guidance information may be output as a predicted guidance.
  • Predictive guidance is, for example, guidance information using an object such as “Turn right when you see a red car that will soon be turned!” .
  • the color of the object is identified in step S410. It is not limited to this. For example, the size of the object, the vehicle type, etc. may be identified, or the configuration may be such that step S410 is omitted and the color of the object is not identified, the process proceeds to step S411 and the guidance information is output.
  • the output that is supposed to output the guidance information using the objects in step S411 is output every time these objects appear in the captured video. May be. Specifically, for example, “At the next left turn intersection, the car is now turning left”, “The car is turning left again”, “This time the car is turning right,” and so on. You may output guidance information continuously.
  • Fig. 5-1 is an explanatory diagram showing the relationship between the detection range by the radar at the guidance point and the blind area by shooting.
  • Fig. 5-2 is an explanatory diagram showing the relationship between the detection range by the radar at the guidance point after the lapse of a predetermined time and the blind area by photographing.
  • the detection range 510 by the radar is a range in which the radar sonar included in the various sensors 316 can detect an object.
  • the detection range 510 by the radar may be fixed, or may be variable depending on the speed of other vehicles located around the own vehicle and the distance to the guide point.
  • Blind area 511 is an area that does not appear in the photographed image such as the back of an obstacle in the image photographed by camera 317 set at the viewing angle of the user boarding own vehicle 500. is there. Specifically, for example, an area in which the field of view is blocked by a vehicle 501 traveling in front of the same lane in the field of view of a user boarding the host vehicle 500.
  • whether or not the area is the blind area 511 may be determined, for example, as a blind area 511 in a range in which the image does not change with the lapse of time associated with the traveling of the host vehicle.
  • the range in which the image does not change over time as the vehicle travels is Specifically, for example, it is determined that the same image is shown even if time passes because the vehicle is traveling in the same direction in front.
  • the function of this embodiment can also be realized by using the current position information of the terminal device held by the passerby.
  • an oncoming vehicle A502 and an oncoming vehicle B503 are contained in a blind area 511 formed by a vehicle 501 traveling in front of the same lane. However, since it is within the detection range 510 by the radar, it is invisible to the user, but it is analyzed by the radar that the oncoming vehicle A502 is about to turn right, and the oncoming vehicle A502 is a vehicle used for guidance information It is judged.
  • FIG. 5-2 since a predetermined time has elapsed from FIG. 5-1, and each vehicle has moved, the oncoming vehicle A502 has left the blind area 511. That is, the oncoming vehicle A502 appears in the image taken by the camera 317. Therefore, it is determined that the oncoming vehicle 502 has entered the user's field of view, and guidance information is output at this point. Specifically, for example, a voice guidance such as “Turn left at the intersection where the car is about to turn” is output.
  • the creation unit 109 performs object detection based on the image acquired by the image acquisition unit 101 and the detection result detected by the detection unit 104.
  • the guidance information of the route for guiding the moving object can be created using the position of the position as a mark and output by the output unit 110.
  • the position of an object that is not captured in an image by an obstacle or the like can be detected by the radar.
  • the user detects the position of an object that does not fall within the user's field of view, so that those objects are in the user's field of view.
  • the guidance information can be output as soon as it enters. Therefore, it is possible to output guidance information using the position of an object even if there are many obstacles and the route.
  • the creation unit 109 includes the image acquisition unit 101.
  • guidance information is created. Then, guidance information including the position of the object to be a mark created by the output unit 110 can be output.
  • the appearance feature of the object can be identified by the identification unit 108 based on the image acquired by the image acquisition unit 101. Then, the creation unit 109 creates guidance information of a route for guiding the moving body using the position of the object and the appearance characteristics of the object as marks, and the output unit 110 outputs the position and position of the object created by the creation unit 109. Guidance information including appearance features can be output.
  • each object can be distinguished.
  • the user can easily find an object as a guide information when there are a plurality of objects around the guidance point.
  • the current position information of the moving object acquired by the position acquisition unit 102 is a predetermined distance to the guidance point where the guidance information is created by the distance determination unit 103. If it is determined that the time is within the range, the creation unit 109 can create guidance information.
  • the radar can not be started until the distance is within a predetermined distance from the guide point. This allows the user to keep other functions of the radar until the user is within a predetermined distance from the guidance point.
  • the navigation device 300 moves by radar even for an object existing in the blind area. Analyzing the state, it is possible to determine the object that is the guide information. And when the object that becomes the mark also has a blind area force, the guidance information can be output immediately. As a result, the user can output guidance information with the position of the object as a landmark as soon as the object enters the range of his field of view.
  • the route guidance method described in the present embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation.
  • This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by reading the recording medium force by the computer.
  • the program may be a transmission medium that can be distributed through a network such as the Internet.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

明 細 書
経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体 技術分野
[0001] この発明は、利用者の視野に入った物体の位置を目印とした誘導情報を作成する 経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体に関する。た だし、この発明の利用は、上述した経路誘導装置、経路誘導方法、経路誘導プログ ラム、および記録媒体には限られない。
背景技術
[0002] 従来、経路誘導における右左折などの誘導案内の対象となる案内ポイントにおい て、地図データに基づいて手前の目印から位置関係を表現することにより、案内ボイ ントを確実に利用者に把握させる経路誘導装置がある。この経路誘導装置にぉ 、て は、利用者は、右左折をおこなう交差点を確実に把握することができる。
[0003] また、このような経路誘導装置の中には、自車両の現在位置を検出する現在位置 検出手段と、自車両の現在位置から自車両が走行中の道路を選択する走行道路選 択手段と、他車両の距離及び方向を検出する他車両検出手段と、他車両の位置を 演算する他車両位置演算手段と、走行道路を平面図な!/、し鳥瞰図に展開し自車両 と他車両の位置情報を重ねて表示する他車両位置表示手段を備え、追従車両の位 置情報を地図情報から生成した道路形状に重ねて表示するものもある (たとえば、下 記特許文献 1参照。)。
[0004] 特許文献 1 :特開平 11 250396号公報
発明の開示
発明が解決しょうとする課題
[0005] し力しながら、上述した従来技術によれば、対象となる案内ポイントの周辺に目印が ある場合は、案内ポイントを確実に利用者に把握させることができる力 たとえば、地 図データに目印となる建造物がない場合は、案内ポイントを確実に利用者に把握さ せることができな 、と!/、う問題が一例として挙げられる。
[0006] また、たとえば、他車両の位置を目印とする場合、他車両の位置を演算し、平面図 な 、し鳥瞰図に展開し自車両と他車両の位置情報を重ねて表示することで、表示画 面上においては他車両の位置を把握することができる力 実際に利用者の視野に他 車両が入っているか否かはわ力もない。このため、利用者の視野に入っていない他 車両の位置を目印とした誘導情報を出力することで、利用者に混乱を招くという問題 がー例として挙げられる。
課題を解決するための手段
[0007] 上述した課題を解決し、目的を達成するため、請求項 1の発明にかかる経路誘導 装置は、移動体の移動方向を撮像した画像を取得する画像取得手段と、前記移動 方向に存在する物体の位置をレーダによって検出する検出手段と、前記画像取得手 段によって取得された画像と、前記検出手段によって検出された検出結果とに基づ V、て、前記物体の位置を目印として前記移動体を誘導する経路の誘導情報を作成 する作成手段と、前記作成手段によって作成された前記物体の位置を含む誘導情 報を出力する出力手段と、を備えることを特徴とする。
[0008] また、請求項 5の発明に力かる経路誘導方法は、移動体の移動方向を撮像した画 像を取得する画像取得工程と、前記移動方向に存在する物体の位置をレーダによつ て検出する検出工程と、前記画像取得工程によって取得された画像と、前記検出ェ 程によって検出された検出結果とに基づいて、前記物体の位置を目印として前記移 動体を誘導する経路の誘導情報を作成する作成工程と、前記作成工程によって作 成された前記物体の位置を含む誘導情報を出力する工程と、を含むことを特徴とす る。
[0009] また、請求項 6の発明に力かる経路誘導プログラムは、請求項 5に記載の経路誘導 方法をコンピュータに実行させることを特徴とする。
[0010] また、請求項 7の発明に力かる記録媒体は、請求項 6に記載の経路誘導プログラム をコンピュータに読み取り可能な状態で記録したことを特徴とする。
図面の簡単な説明
[0011] [図 1]図 1は、本実施の形態にかかる経路誘導装置の機能的構成を示すブロック図で ある。
[図 2]図 2は、経路誘導装置の経路誘導処理手順を示すフローチャートである。 O
[図 3]図 3は、本実施例に力かるナビゲーシヨン装置のハードウェア構成を示すブロッ ク1図—
〇である。
[図 4]図 4は、ナビゲーシヨン装置の処理の内容を示すフローチャートである。
[図 5-1]図 5—1は、案内ポイントにおけるレーダによる検出範囲と、撮影によるブライ ンドエリアとの関係について示した説明図である。
[図 5-2]図 5— 2は、所定時間経過後の案内ポイントにおけるレーダによる検出範囲と 、撮影によるブラインドエリアとの関係について示した説明図である。
符号の説明
経路誘導装置
101 画像取得部
102 位置取得部
103 距離判断部
104 検出部
105 解析部
106 決定部
107 画像判断部
108 識別部
109 作成部
110 出力部
発明を実施するための最良の形態
[0013] 以下に添付図面を参照して、この発明にかかる経路誘導装置、経路誘導方法、経 路誘導プログラム、および記録媒体の好適な実施の形態を詳細に説明する。
[0014] (実施の形態)
(経路誘導装置 100の機能的構成)
はじめに、この発明の実施の形態に力かる経路誘導装置 100の機能的構成につい て説明する。図 1は、本実施の形態にかかる経路誘導装置の機能的構成を示すプロ ック図である。
[0015] 図 1において、経路誘導装置 100は、画像取得部 101と、位置取得部 102と、距離 判断部 103と、検出部 104と、解析部 105と、決定部 106と、画像判断部 107と、識 別部 108と、作成部 109と、出力部 110と、を備えている。
[0016] 画像取得部 101は、移動体の移動方向を撮像した画像を取得する。具体的には、 たとえば、移動体の運転席に備えられ、運転者の視野角に設定されたカメラなどから 進行方向の景色を撮影した画像を取得する。また、移動体の移動方向を撮像した画 像は、たとえば、運転者の視野に関する映像情報でもよい。運転者の視野に関する 映像情報は、運転者が実際に見ている風景とほぼ同じ風景を捉えた画像の情報で ある。
[0017] 位置取得部 102は、移動体の現在位置情報を取得する。移動体の現在位置情報 は、たとえば、 GPS衛星力 受信した GPS信号に加えて、移動体の挙動を検出する 加速度センサや車速センサからの出力値に応じて、移動体の現在位置情報を取得 するようにしてちょい。
[0018] 距離判断部 103は、位置取得部 102によって取得された現在位置情報が、誘導情 報の作成される誘導地点まで所定距離以内になったか否かを判断する。誘導情報 は、移動体を目的地点までの経路へ誘導するための案内情報である。誘導地点 (案 内ポイント)は、右左折をおこなう交差点などの通常の経路誘導において誘導情報が 出力される地点などである。また、所定距離は、一定でもよいし、移動体の速度によ つて可変でもよい。
[0019] 検出部 104は、移動方向に存在する物体の位置をレーダによって検出する。移動 方向に存在する物体は、具体的には、たとえば、他の移動体や人などである。検出 部 104は、具体的には、たとえば、電磁波を用いたレーザや超音波を用いたソナー などによって物体の位置を検出する。レーダゃソナ一は、波動の回折により、波動の 伝播が障害物で一部遮られたとき、障害物の影の部分にも波動が伝播してゆく。これ によって、複数の物体が前後に重なっている場合も、それぞれの物体の位置を検出 することができる。また、検出部 104は、物体の種類 (車両、人など)や大きさを判別 でさるようにしてちょい。
[0020] 解析部 105は、検出部 104によって検出された物体の位置力も移動状態を解析す る。解析部 105は、たとえば、検出部 104による物体の位置の連続的な検出から、物 体の右左折を予測させる状態を解析する。右左折を予測させる状態とは、具体的に は、たとえば、物体の速度が遅くなつた状態、物体が右左折車線に移動した状態な どである。
[0021] 決定部 106は、解析部 105によって解析された解析結果に基づいて、誘導情報の 目印となる物体を決定する。誘導情報の目印となる物体は、誘導情報を作成する際 に、その位置が目印として用いられる物体である。具体的には、たとえば、誘導地点 周辺において右左折を予測させる状態の物体である。
[0022] 画像判断部 107は、画像取得部 101によって取得された画像に決定部 106によつ て決定した目印となる物体が撮像されているか否かを判断する。たとえば、画像解析 などによって、画像取得部 101によって取得された画像に目印となる物体が撮像され ている力否かを判断する。具体的には、たとえば、決定部 106によって決定された目 印となる物体に対する解析部 105から取得した解析結果 (物体の左右を予測させる 状態の結果)力 画像上の位置を特定し、その画像上の位置に決定部 106によって 決定された目印となる物体に対する検出部 104から取得した種類や大きさに該当す る物体が撮像されている力否かを判断する。また、画像判断部 107は、ブラインドエリ ァを判断するようにしてもよい。ブラインドエリアは、たとえば、利用者の視野のうちの 物体によって視野が遮られる範囲である。具体的には、たとえば、走行中に連続して 取得する画像のうち、同一方向の前方を走行する車両などによってほとんど景色に 変化のな 、範囲をブラインドエリアとする。
[0023] 識別部 108は、画像取得部 101によって取得された画像に基づいて、物体の外観 的特徴を識別する。物体の外観的特徴は、たとえば、色、大きさ、種類などのそれぞ れの物体を識別できる特徴である。
[0024] 作成部 109は、画像取得部 101によって取得された画像と、検出部 104によって検 出された検出結果とに基づいて、物体の位置を目印として移動体を誘導する経路の 誘導情報を作成する。作成部 109は、具体的には、たとえば、識別部 108によって識 別された物体の外観的特徴と、位置取得部 102によって取得された物体の位置と、 を目印として移動体を誘導する経路の誘導情報を作成する。また、作成部 109は、 画像判断部 107によって目印となる物体が撮像されていると判断された場合、もしく は、距離判断部 103によって所定距離以内になったと判断された場合に、誘導情報 を作成してもよい。
[0025] 作成部 109による誘導情報の作成は、たとえば、つぎのようにして作成される。作成 部 109は、誘導情報を作成するための図示しない語彙テーブルを備えており、たとえ ば、色を示す語彙として「赤」、「白」、「青」などの文字データを持ち、また、物体の移 動状態を示す語彙として「右」、「左」、「反対」、「方向」、「曲がる」などの文字データ を持っている。
[0026] さらに、物体の種類を示す語彙として「トラック」、「バス」、「オートバイ」、「人」などの 文字データを持ち、また、視認方向を示す語彙として「右前方 30度方向」、「右斜め 前方」などの文字データを持ち、予測を示す語彙として「もうすぐ」、「まもなく」などの 文字データを持っている。そして、画像取得部 101によって取得された画像と、検出 部 104によって検出された検出結果とに基づ 、て、誘導案内に最適な文字データを 抽出して音声データに変換し、誘導情報として出力部 110に送る。
[0027] 出力部 110は、作成部 109によって作成された物体の位置を含む誘導情報を出力 する。誘導情報は、決定部 106によって決定された目印となる物体の位置を含む誘 導情報でもよいし、物体の位置および外観的特徴を含む誘導情報でもよい。出力部 110は、スピーカなどの音声出力装置が備えられており、作成部 109によって作成さ れた誘導情報を随時出力する。
[0028] また、出力部 110は、地図データを表示する表示画面を備えていてもよい。ここで、 地図データは、図示しない記録部に記録されている。地図データは、ノードおよびリ ンクからなる道路ネットワークデータと、施設や道路その他地形(山、川、土地)に関 するフィーチャを用いて描画される画像データとを含んでいる。地図データは、文字 情報、施設の名称や住所などの情報、道路や施設の画像などを含んでいてもよい。 また、表示画面には、作成部 109によって作成された誘導情報を随時表示してもよ い。
[0029] (経路誘導装置の経路誘導処理手順)
つぎに、経路誘導装置 100の経路誘導処理手順について説明する。図 2は、経路 誘導装置の経路誘導処理手順を示すフローチャートである。図 2のフローチャートに おいて、まず、画像取得部 101によって移動体の移動方向を撮像した画像を取得す る (ステップ S201)。ステップ S201において移動方向を撮像した画像は、継続して 取得する。
[0030] つぎに、検出部 104によって移動方向に存在する物体の位置をレーダによって検 出して (ステップ S202)、解析部 105によってステップ S202において検出した物体 の位置力も物体の移動状態を解析する(ステップ S 203)。ステップ S 202において物 体の位置は、継続して検出する。
[0031] ステップ S203において解析した解析結果に基づいて、決定部 106によって誘導情 報の目印となる物体を決定する (ステップ S 204)。そして、画像判断部 107によって、 ステップ S201にお 、て取得した画像に、ステップ S 204にお 、て決定した物体が撮 像されてると判断されるまで待って (ステップ S 205: Noのループ)、物体が撮像され ている場合 (ステップ S205 : Yes)、識別部 108によってステップ S205において撮像 されて ヽると判断された物体の外観的特徴を識別する (ステップ S 206)。
[0032] つぎに、作成部 109によって、ステップ S203によって解析された物体の移動状態と 、ステップ S206において識別した外観的特徴とに基づいて、誘導情報を作成する( ステップ S207)。そして、ステップ S207において作成された物体の移動状態および 外観的特徴を含む誘導情報を出力し (ステップ S208)、一連の処理を終了する。
[0033] なお、図 2のフローチャートにおいては、ステップ S204において誘導情報の目印と なる物体を決定するとしている力 たとえば、 目印となる物体は単数でもよいし、複数 でもよい。そして、複数の場合は、それぞれの物体の位置を継続して検出する。
[0034] また、図 2のフローチャートにおいては、ステップ S205 :Noのループにおいて物体 が撮像されるまで待つとしている力 これに限るものではない。具体的には、たとえば 、物体が撮像されていない場合でも、ステップ S207に進み、誘導情報を作成しても よい。また、ここで誘導情報は、「もうすぐ見える車が…。」などの予告誘導情報であ る。
[0035] また、図 2のフローチャートにおいては、ステップ S207において誘導情報を作成す るとしている力 これに限るものではない。具体的には、たとえば、ステップ S204にお いて目印となる物体を決定して、すぐに誘導情報を作成してもよい。この場合、ステツ プ S205 : Yesにおいて物体が撮像されていると判断された場合、ただちにステップ S 208に進み誘導情報を出力する構成でもよい。
[0036] 上述したように、実施の形態の経路誘導装置 100によれば、画像取得部 101によつ て取得された画像と、検出部 104によって検出された検出結果に基づいて、作成部 109によって物体の位置を目印として移動体を誘導する経路の誘導情報を作成し、 出力部 110によって出力することができる。
[0037] したがって、物体の位置を目印とした誘導情報を作成する場合、障害物などによつ て画像に撮像されない範囲の物体に関しても、レーダによって位置を検出することが できる。これによつて、利用者は、物体の位置を目印とした誘導案内をおこなう場合、 利用者の視野に入らない物体に関しても位置を検出しておくことで、それらの物体が 利用者の視野に入ったらすぐに誘導情報を出力させることができる。したがって、障 害物の多 、経路にぉ 、ても物体の位置を用いた誘導情報を出力させることができる
[0038] また、実施の形態の経路誘導装置 100によれば、作成部 109は、画像取得部 101 によって取得された画像に決定部 106によって決定した目印となる物体が撮像され ていると判断された場合、誘導情報を作成する。そして、出力部 110によって作成さ れた目印となる物体の位置を含む誘導情報を出力することができる。
[0039] したがって、物体の位置を目印とした誘導情報を作成する場合、利用者の視野に 入っている物体の位置のみを用いた誘導情報を出力することができる。これによつて 、利用者は、視野に入っていない物体の位置を用いた誘導情報の出力によって混乱 されることを防ぐことができる。
[0040] また、実施の形態の経路誘導装置 100によれば、画像取得部 101によって取得さ れた画像に基づいて、識別部 108によって物体の外観的特徴を識別することができ る。そして、作成部 109によって物体の位置と、物体の外観的特徴と、を目印として移 動体を誘導する経路の誘導情報を作成し、出力部 110は、作成部 109によって作成 された物体の位置および外観的特徴を含む誘導情報を出力することができる。
[0041] したがって、目印となる物体が複数決定された場合、それぞれの物体を区別するこ とができる。これによつて、利用者は、複数の物体が案内ポイント周辺に存在する場 合も、誘導情報の目印となる物体を簡単に見つけることができる。
[0042] また、実施の形態の経路誘導装置 100によれば、位置取得部 102によって取得さ れた移動体の現在位置情報が、距離判断部 103によって誘導情報の作成される誘 導地点まで所定距離以内になったと判断された場合に、作成部 109によって誘導情 報を作成することができる。
[0043] したがって、案内ポイントから所定距離以内になるまでは、レーダを起動しないこと ができる。これによつて、利用者は、案内ポイントから所定距離以内になるまでは、レ ーダの有する他の機能をさせておくことができる。
実施例
[0044] 以下に、本発明の実施例について説明する。本実施例では、たとえば、車両(四輪 車、二輪車を含む)などの移動体に搭載されるナビゲーシヨン装置によって、本発明 の経路誘導装置を実施した場合の一例について説明する。
[0045] (ナビゲーシヨン装置のハードウェア構成)
つぎに、本実施例に力かるナビゲーシヨン装置 300のハードウェア構成について説 明する。図 3は、本実施例に力かるナビゲーシヨン装置のハードウェア構成を示すブ ロック図である。図 3において、ナビゲーシヨン装置 300は、 CPU301と、 ROM302と 、 RAM303と、磁気ディスクドライブ 304と、磁気ディスク 305と、光ディスクドライブ 3 06と、光ディスク 307と、音声 IZF (インターフェース) 308と、マイク 309と、スピーカ 310と、入力デバイス 311と、映像 IZF312と、ディスプレイ 313と、通信 IZF314と、 GPSユニット 315と、各種センサ 316と、カメラ 317と、を備えている。各構成部 301 〜317は、バス 320によってそれぞれ接続されている。
[0046] まず、 CPU301は、ナビゲーシヨン装置 300の全体の制御を司る。 ROM302は、 ブートプログラム、データ更新プログラムなどのプログラムを記録している。また、 RA M303は、 CPU301のワークエリアとして使用される。すなわち、 CPU301は、 RAM 303をワークエリアとして使用しながら、 ROM302に記録された各種プログラムを実 行することによって、ナビゲーシヨン装置 300の全体の制御を司る。
[0047] 挙動解析プログラムは、後述する各種センサ 316が備えるレーダなどの出力力も物 体の移動状態を解析させる。ここで物体は、たとえば、対向車両、同一車線車両、人 間、落下物など、誘導情報の目印となりうるものである。具体的には、たとえば、速度 を落とした車両を検出した力否力、右左折車線へ移動した車両を検出したか否か、 道路を横断中の通行人を検出した力否力などの他の車両の右左折や通行人の横断 を予測させる移動状態などを解析させる。また、挙動解析プログラムは、後述するカメ ラ 317によって撮像される映像情報に存在する物体の外観的特徴を解析させる。外 観的特徴は、たとえば、車体の色や形状、もしくは車名や車種など、または通行人の 服装などである。
[0048] 誘導情報作成プログラムは、経路誘導に関する誘導情報を作成させる。誘導情報 は、案内ポイントにおける物体の移動状態を用いて利用者を促す音声情報である。 誘導情報は、具体的には、たとえば、レーダなどの出力から移動状態が解析された 対向車両、同一車線前方を走行中の同一車線車両、または道路を横断中の通行人 などを用いた自車両を誘導案内する音声情報である。
[0049] また、誘導情報作成プログラムは、経路誘導に関する予告誘導情報を作成させる。
予告誘導情報は、たとえば、利用者の視野に誘導案内に用いる物体が入る前に、案 内ポイントにおけるこの物体の移動状態を用いて利用者を促す音声情報である。具 体的には、たとえば、所定時間経過後に利用者の視野に入ると予測される物体のレ ーダによる解析結果を用いて自車両を誘導案内する案内情報である。
[0050] 磁気ディスクドライブ 304は、 CPU301の制御にしたがって磁気ディスク 305に対 するデータの読み取り Z書き込みを制御する。磁気ディスク 305は、磁気ディスクドラ イブ 304の制御で書き込まれたデータを記録する。磁気ディスク 305としては、たとえ ば、 HD (ノヽードディスク)や FD (フレキシブルディスク)を用いることができる。
[0051] また、光ディスクドライブ 306は、 CPU301の制御にしたがって光ディスク 307に対 するデータの読み取り Z書き込みを制御する。光ディスク 307は、光ディスクドライブ 306の制御にしたがってデータが読み出される着脱自在な記録媒体である。光ディ スク 307は、書き込み可能な記録媒体を利用することもできる。着脱可能な記録媒体 として、光ディスク 307のほ力 MO、メモリカードなどであってもよい。
[0052] 磁気ディスク 305および光ディスク 307に記録される情報の一例としては、地図デ ータゃ機能データが挙げられる。地図データは、建物、河川、地表面などの地物(フ ィーチヤ)をあらわす背景データと、道路の形状をあらわす道路形状データとを含ん でおり、地区ごとに分けられた複数のデータファイルによって構成されている。
[0053] 道路形状データは、さらに交通条件データを有する。交通条件データには、たとえ ば、各ノードについて、信号や横断歩道などの有無、高速道路の出入り口やジャンク シヨンの有無、各リンクについての長さ(距離)、道幅、進行方向、道路種別(高速道 路、有料道路、一般道路など)などの情報が含まれている。
[0054] 機能データは、地図上の施設の形状をあらわす 3次元データ、当該施設の説明を あらわす文字データ、その他地図データ以外の各種のデータである。地図データや 機能データは、地区ごとあるいは機能ごとにブロック分けされた状態で記録されてい る。具体的には、たとえば、地図データは、各々が、表示画面に表示された地図にお いて所定の地区をあらわすように、地区ごとにブロック分けすることができる状態で記 録されている。また、たとえば、機能データは、各々が、 1つの機能を実現するように、 機能ごとに複数にブロック分けすることができる状態で記録されている。
[0055] また、機能データは、上述した 3次元データや文字データに加えて、経路探索、所 要時間の算出、経路誘導などを実現するプログラムデータなどの機能を実現するた めのデータである。地図データおよび機能データは、それぞれ、地区ごとあるいは機 能ごとに分けられた複数のデータファイルによって構成されている。
[0056] 音声 IZF308は、音声入力用のマイク 309および音声出力用のスピーカ 310に接 続される。マイク 309に受音された音声は、音声 IZF308内で AZD変換される。マ イク 309は、たとえば、車両のサンバイザー付近に設置され、その数は単数でも複数 でもよい。スピーカ 310からは、所定の音声信号を音声 IZF308内で DZA変換した 音声が出力される。なお、マイク 309から入力された音声は、音声データとして磁気 ディスク 305あるいは光ディスク 307に記録可能である。
[0057] 音声 IZF308は、誘導情報作成プログラムによって作成される誘導情報および予 告誘導情報を出力する。音声 IZF308は、たとえば、後述する各種センサ 316が備 えるレーダなどによって検出された誘導情報に用いられる物体が後述するカメラ 317 によって撮影された場合に、誘導情報をスピーカから出力する。また、音声 IZF308 は、たとえば、後述する各種センサ 316が備えるレーダなどによって検出された予告 誘導情報に用いられる物体が後述するカメラ 317によって撮影されて 、な 、場合に も、スピーカから出力してもよい。
[0058] 入力デバイス 311は、文字、数値、各種指示などの入力のための複数のキーを備 えたリモコン、キーボード、タツチパネルなどが挙げられる。入力デバイス 311は、リモ コン、キーボード、タツチパネルのうちいずれ力 1つの形態によって実現されてもよい 力 複数の形態によって実現することも可能である。
[0059] 映像 IZF312は、ディスプレイ 313に接続される。映像 IZF312は、具体的には、 たとえば、ディスプレイ 313全体を制御するグラフィックコントローラと、即時表示可能 な画像情報を一時的に記録する VRAM (Video RAM)などのバッファメモリと、グ ラフィックコントローラから出力される画像データに基づ 、てディスプレイ 313を制御 する制御 ICなどによって構成される。
[0060] ディスプレイ 313には、アイコン、カーソル、メニュー、ウィンドウ、あるいは文字や画 像などの各種データが表示される。ディスプレイ 313には、上述した地図データ力 2 次元または 3次元に描画される。ディスプレイ 313に表示された地図データには、ナ ピゲーシヨン装置 300を搭載した車両の現在位置をあらわすマークなどを重ねて表 示することができる。車両の現在位置は、 CPU301によって算出される。
[0061] ディスプレイ 313としては、たとえば、 CRT, TFT液晶ディスプレイ、プラズマデイス プレイなどを用いることができる。ディスプレイ 313は、たとえば、車両のダッシュボー ド付近に設置される。ディスプレイ 313は、車両のダッシュボード付近のほ力、車両の 後部座席周辺などに設置するなどして、車両にぉ 、て複数設置されて 、てもよ 、。
[0062] 通信 IZF314は、無線を介してネットワークに接続され、ナビゲーシヨン装置 300と CPU301とのインターフェースとして機能する。通信 I/F314は、さらに、無線を介し てインターネットなどの通信網に接続され、この通信網と CPU301とのインターフエ一 スとしても機能する。
[0063] 通信網には、 LAN, WAN,公衆回線網や携帯電話網などがある。具体的には、 通信 IZF314は、たとえば、 FMチューナー、 VICS (Vehicle Information and Communication System) Zビーコンレシーノ 、無線ナビゲーシヨン装置、および その他のナビゲーシヨン装置によって構成され、 VICSセンター力も配信される渋滞 や交通規制などの道路交通情報を取得する。なお、 VICSは登録商標である。また、 通信 IZF314は、他のナビゲーシヨン装置や通信端末装置から、それぞれの現在位 置情報を取得してもよい。
[0064] GPSユニット 315は、 GPS衛星からの電波を受信し、車両の現在位置を示す情報 を出力する。 GPSユニット 315の出力情報は、後述する各種センサ 316の出力値とと もに、 CPU301による車両の現在位置の算出に際して利用される。現在位置を示す 情報は、たとえば緯度'経度、高度などの、地図データ上の 1点を特定する情報であ る。
[0065] 各種センサ 316は、車速センサ、加速度センサ、角速度センサなどの、車両の位置 や挙動を判断するための情報を出力する。各種センサ 316の出力値は、 CPU301 による車両の現在位置の算出や、速度や方位の変化量の算出に用いられる。
[0066] また、各種センサ 316は、自車両周辺の物体の移動状態を継続的に検出する。具 体的には、たとえば、電磁波などによるレーダや超音波などによるソナ一によつて車 両の前方、側方、後方などの、物体の位置情報を検出する。レーダゃソナ一は、波 動の回折により、波動の伝播が障害物で一部遮られたとき、障害物の影の部分にも 波動が伝播してゆく。これによつて、複数の車両が前後に重なっている場合も、それ ぞれの車両の移動状態を検出することができる。
[0067] カメラ 317は、車両内部あるいは外部の映像を撮影する。映像は静止画あるいは動 画のどちらでもよぐたとえば、カメラ 317によって車両内部の搭乗者の挙動を撮影し 、撮影した映像を映像 IZF312を介して磁気ディスク 305や光ディスク 307などの記 録媒体に出力する。また、カメラ 317によって車両外部の状況を撮影し、撮影した映 像を映像 IZF312を介して磁気ディスク 305や光ディスク 307などの記録媒体に出 力する。
[0068] また、カメラ 317は、赤外線カメラ機能を有しており、赤外線カメラ機能を用いて撮 影された映像情報に基づいて車両内部に存在する物体の表面温度の分布を相対的 に比較することができる。また、記録媒体に出力された映像は、上書き記録や保存が おこなわれる。
[0069] また、カメラ 317は、利用者の視野に関する映像を撮影する。利用者の視野に関す る映像は、利用者の視野とほぼ同じ範囲の映像である。カメラ 317は、利用者の視野 角に合わせて設置する。たとえば、利用者の座席シートの枕部分の端などに設置す る。さらに、カメラ 317は、利用者の視線を感知する他のカメラなどによって利用者の 視野を確定し、これに応じてカメラ 317の位置や角度を変更するようにしてもよ!、。
[0070] 図 1に示した経路誘導装置 100が備える画像取得部 101、位置取得部 102、距離 判断部 103、検出部 104、解析部 105、決定部 106、画像判断部 107、識別部 108 、作成部 109、出力部 110は、図 3に示したナビゲーシヨン装置 300における ROM3 02、 RAM303、磁気ディスク 305、光ディスク 307などに記録されたプログラムゃデ ータを用いて、 CPU301が所定のプログラムを実行し、ナビゲーシヨン装置 300にお ける各部を制御することによってその機能を実現する。
[0071] すなわち、実施例のナビゲーシヨン装置 300は、ナビゲーシヨン装置 300における 記録媒体としての ROM302に記録されている経路誘導プログラムを実行することに より、図 1に示した経路誘導装置が備える機能を、図 2に示した経路誘導処理手順で 実行することができる。
[0072] (ナビゲーシヨン装置の処理の内容)
つぎに、ナビゲーシヨン装置 300の処理の内容について説明する。図 4は、ナビゲ ーシヨン装置の処理の内容を示すフローチャートである。図 4のフローチャートにおい て、まず、利用者による入力デバイス 311の操作によって目的地点が設定されるまで 待って (ステップ S401 : Noのループ)、 目的地点が設定された場合 (ステップ S401: Yes)、誘導経路を決定する (ステップ S402)。
[0073] また、ステップ S402において誘導経路が決定された際、同時に誘導経路上におい て音声もしくは画像によって案内をおこなう案内ポイントが設定されてもよい。
[0074] つぎに、走行を開始するまで待って (ステップ S403: Noのループ)、走行を開始し た場合 (ステップ S403 :Yes)、カメラ 317によって運転席力も見た車両の進行方向 の景色の撮影を開始する (ステップ S404)。また、各種センサ 316に備えられたレー ダによる物体の検出を開始する (ステップ S405)。
[0075] レーダによる物体検出範囲は、具体的には、たとえば、自車両が右左折する交差 点などの案内ポイントを中心とし、案内ポイントからの距離 Mに所定の余裕値 aをカロ 算した距離 R= M + αを半径とした円の範囲である。また、レーダによる物体検出範 囲は、案内ポイントに接する経路に限ってもよい。
[0076] 余裕値 αは、たとえば、自車両の現在速度 Ρを取得し、距離 Μの案内ポイントまで 到達する予測時間 Τ= ΜΖΡを算出する。さらに、走行中の経路において一般の車 両等で想定される最大速度 Pmで走行した際に案内ポイントまで予測時間 Τに到着 する場合の案内ポイントまでの距離 Mm = Pm (MZP)を算出する。この Mmから M を引いた距離を余裕値ひとする。したがって、余裕値ひ = Pm (M/P)— Mとなる。こ こで、最大速度 Pmは、一定でもよいし、その経路における制限速度 (法定速度)、道 路幅、道路の曲率など力も算出してもよい。
[0077] また、レーダによる物体検出範囲は、たとえば、自車両の現在速度 Pを取得し、現 在速度 Pによって時間 Tの間に走行する距離 M = PTに余裕値 ocを加算した距離 R = ΡΤ+ αを半径とした案内ポイントを中心とする円の範囲としてもよい。またこのとき 、自車両の速度は、案内ポイントに近づくにつれて現在速度 Ρから減速していくことを 加味して計算してもよい。
[0078] したがって、自車両の現在速度 Ρの代わりに現在速度 Ρと距離による減速モデル関 数 f (P, M)の積分 _f f (P, M)に時間 Tを乗算した距離 R=T _f f (P, M)を半径とし た案内ポイントを中心とする円の範囲としてもよい。減速モデル関数 f (P, M)は、所 定の関数でもよ 、し、利用者や走行経路によって可変でもよ 、。
[0079] そして、案内ポイントまで所定距離以内になるまで待って (ステップ S406 :Noのル ープ)、案内ポイントまで所定距離以内になった場合 (ステップ S406 :Yes)、物体の 移動状態を解析する (ステップ S407)。ここで、所定距離は、あらかじめ定められた一 定の距離でもよ 、し、自車両の速度によって可変でもよ!/、。
[0080] つぎに、ステップ S407において解析された物体の移動状態から、誘導情報に用い る物体はあるか否かを判断する (ステップ S408)。ここで、誘導情報に用いる物体か 否かの判断は、たとえば、速度を落とした車両を検出したか否力、右左折車線へ移 動した車両を検出したか否か、道路を横断中の通行人を検出したか否力などの他の 車両の右左折や通行人の横断を予測させる移動状態などの判断である。また、誘導 情報に用いる物体の検出は単数でもよいし、複数でもよい。 [0081] ステップ S408にお 、て誘導情報に用いる物体があると判断された場合 (ステップ S 408 : Yes)、撮影されている映像にステップ S408において誘導情報に用いる物体 であると判断された物体が映るまで待つ(ステップ S409 : Noのループ)。そして、ステ ップ S409において物体が映った場合 (ステップ S409 :Yes)、映った物体の色を識 別する (ステップ S410)。
[0082] そして、ステップ S410において色を識別した物体を用いた誘導情報を出力する (ス テツプ S411)。物体を用いた誘導情報は、具体的には、たとえば、「いま車が曲がつ たところを左折です」などと!/、つた物体の移動状態に基づ!/、た誘導情報や、 Γ 、ま赤 V、車が曲がったところを左折です」などと 、つた物体の移動状態と、物体の色に基づ いた誘導情報である。
[0083] 一方、ステップ S408において誘導情報に用いる物体がない場合 (ステップ S408 :
No)、通常の誘導情報を出力する (ステップ S412)。ここで通常の誘導情報は、具体 的には、たとえば、「300m先の交差点を左折です」などといった交差点名や道路名 などを用いた誘導情報や、「300m先のコンビ-の手前を左折です」などと 、つたラン ドマークを用いた誘導情報である。
[0084] つぎに、 目的地点に到着した力否かを判断して (ステップ S413)、 目的地点に到着 した場合 (ステップ S413 : Yes)、一連の処理を終了する。
[0085] 一方、ステップ S413において目的地点に到着しない場合 (ステップ S413 : No)、 ステップ S406〖こ戻り、以降の処理を繰り返す。
[0086] なお、図 4のフローチャートにおいては、ステップ S406において案内ポイントまで所 定距離以内か否かを判断している力 これに限るものではない。たとえば、案内ボイ ントに到着する予測時間の所定時間前力否かを判断してもよい。
[0087] また、図 4のフローチャートにおいては、ステップ S409 :Noのループにおいて物体 が映るまで待つとしている力 これに限るものではない。たとえば、物体が映らなくても 、ステップ S410、ステップ S411に進み、予測誘導として誘導情報を出力してもよい。 予測誘導は、具体的には、たとえば、「もうすぐ見える赤い車が曲がるところを右折で す」などと!/、つた、まだ利用者の視野に入って 、な 、物体を用いた誘導情報である。
[0088] また、図 4のフローチャートにおいては、ステップ S410において物体の色を識別す るとしている力 これに限るものではない。たとえば、物体の大きさや、車種などを識 別してもよいし、また、ステップ S410を省略して、物体の色を識別しなくても、ステツ プ S411に進み、誘導情報を出力する構成でもよい。
[0089] また、ステップ S411において物体を用いた誘導情報を出力するとしている力 たと えば、ステップ S408において誘導情報に用いる物体が複数ある場合、これらの物体 が撮影されている映像に映るたびに出力してもよい。具体的には、たとえば、「つぎに 左折する交差点は、いま車が左折しています」、「また車が左折しています」、「今度 は車が右折して 、ます」と 、うように連続して誘導情報を出力してもよ 、。
[0090] (レーダによる検出範囲と、撮影によるブラインドエリアとの関係)
つぎに、図 5— 1、および図 5— 2を用いて、レーダによる検出範囲と、撮影によるブ ラインドエリアとの関係について説明する。図 5—1は、案内ポイントにおけるレーダに よる検出範囲と、撮影によるブラインドエリアとの関係について示した説明図である。 図 5— 2は、所定時間経過後の案内ポイントにおけるレーダによる検出範囲と、撮影 によるブラインドエリアとの関係について示した説明図である。
[0091] 図 5— 1および図 5— 2においては、自車両 500と、同一車線の前方を走行する車 両 501と、対向車両 A502と、対向車両 B503と、レーダによる検出範囲 510と、撮影 によるブラインドエリア 511と、が図示されている。レーダによる検出範囲 510は、各 種センサ 316の備えるレーダゃソナ一が物体を検出可能な範囲である。レーダによ る検出範囲 510は、一定でもよいし、自車両ゃ自車両の周辺に位置する他の車両の 速度や案内ポイントまでの距離によって可変であってもよい。
[0092] ブラインドエリア 511は、自車両 500に搭乗している利用者の視野角に設定された カメラ 317によって撮影される画像において、障害物の裏などの撮影された画像に映 らないエリアである。具体的には、たとえば、自車両 500に搭乗している利用者の視 野の中で、同一車線の前方を走行する車両 501によって視野が遮られて 、るエリア である。
[0093] また、ブラインドエリア 511か否かの判断は、たとえば、カメラ 317による画像のうち 自車両の走行に伴う時間経過によって画像が変化しない範囲をブラインドエリア 511 と判断してもよい。車両の走行に伴う時間経過によって画像が変化しない範囲は、具 体的には、たとえば、前方を車両が同方向に走行しているために時間が経過しても 同じ画像が映っていると判断される。
[0094] したがって、たとえば、上述のブラインドエリア 511か否かの判断をおこなうことで、 各種センサ 316の備えるレーダなどの代わりに、通信 IZFより取得される他車両に搭 載されたナビゲーシヨン装置や通行人の保持する端末装置の現在位置情報を用い て本実施例の機能を実現することもできる。
[0095] 図 5—1においては、同一車線の前方を走行する車両 501によってできたブライン ドエリア 511内に、対向車両 A502および対向車両 B503が入っている。し力し、レー ダによる検出範囲 510内であるので、利用者には見えないが、レーダによって対向 車両 A502が右折しょうとしていることは解析され、対向車両 A502は誘導情報に用 いる車両であると判断される。
[0096] 図 5— 2においては、図 5—1から所定時間経過し、各車両が移動したために、対向 車両 A502は、ブラインドエリア 511から出ている。つまり、カメラ 317による画像に対 向車両 A502が映る。したがって、利用者の視野に対向車両 502が入ったと判断さ れ、この時点で誘導情報が出力される。具体的には、たとえば、「いま車が曲がろうと している交差点を左折です」といった音声案内が出力される。
[0097] 上述したように、実施例のナビゲーシヨン装置 300によれば、画像取得部 101によ つて取得された画像と、検出部 104によって検出された検出結果に基づいて、作成 部 109によって物体の位置を目印として移動体を誘導する経路の誘導情報を作成し 、出力部 110によって出力することができる。
[0098] したがって、物体の位置を目印とした誘導情報を作成する場合、障害物などによつ て画像に撮像されない範囲の物体に関しても、レーダによって位置を検出することが できる。これによつて、利用者は、物体の位置を目印とした誘導案内をおこなう場合、 利用者の視野に入らない物体に関しても位置を検出しておくことで、それらの物体が 利用者の視野に入ったらすぐに誘導情報を出力させることができる。したがって、障 害物の多 、経路にぉ 、ても物体の位置を用いた誘導情報を出力させることができる
[0099] また、実施例のナビゲーシヨン装置 300によれば、作成部 109は、画像取得部 101 によって取得された画像に決定部 106によって決定した目印となる物体が撮像され ていると判断された場合、誘導情報を作成する。そして、出力部 110によって作成さ れた目印となる物体の位置を含む誘導情報を出力することができる。
[0100] したがって、物体の位置を目印とした誘導情報を作成する場合、利用者の視野に 入っている物体の位置のみを用いた誘導情報を出力することができる。これによつて 、利用者は、視野に入っていない物体の位置を用いた誘導情報の出力によって混乱 されることを防ぐことができる。
[0101] また、実施例のナビゲーシヨン装置 300によれば、画像取得部 101によって取得さ れた画像に基づいて、識別部 108によって物体の外観的特徴を識別することができ る。そして、作成部 109によって物体の位置と、物体の外観的特徴と、を目印として移 動体を誘導する経路の誘導情報を作成し、出力部 110は、作成部 109によって作成 された物体の位置および外観的特徴を含む誘導情報を出力することができる。
[0102] したがって、目印となる物体が複数決定された場合、それぞれの物体を区別するこ とができる。これによつて、利用者は、複数の物体が案内ポイント周辺に存在する場 合も、誘導情報の目印となる物体を簡単に見つけることができる。
[0103] また、実施例のナビゲーシヨン装置 300によれば、位置取得部 102によって取得さ れた移動体の現在位置情報が、距離判断部 103によって誘導情報の作成される誘 導地点まで所定距離以内になったと判断された場合に、作成部 109によって誘導情 報を作成することができる。
[0104] したがって、案内ポイントから所定距離以内になるまでは、レーダを起動しないこと ができる。これによつて、利用者は、案内ポイントから所定距離以内になるまでは、レ ーダの有する他の機能をさせておくことができる。
[0105] 以上説明したように、本発明の経路誘導装置、経路誘導方法、経路誘導プログラム 、および記録媒体によれば、ナビゲーシヨン装置 300は、ブラインドエリアに存在する 物体に対してもレーダによって移動状態を解析し、誘導情報の目印となる物体を判 断することができる。そして、目印となる物体がブラインドエリア力も出た場合に、すぐ に誘導情報を出力することができる。これによつて、利用者は、自身の視野の範囲に 物体が入ったら、すぐに物体の位置を目印とした誘導情報を出力させることができる なお、本実施の形態で説明した経路誘導方法は、あらかじめ用意されたプログラム をパーソナル 'コンピュータやワークステーションなどのコンピュータで実行することに より実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、 CD-ROM, MO、 DVDなどのコンピュータで読み取り可能な記録媒体に記録され 、コンピュータによって記録媒体力も読み出されることによって実行される。またこの プログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒 体であってもよい。

Claims

請求の範囲
[1] 移動体の移動方向を撮像した画像を取得する画像取得手段と、
前記移動方向に存在する物体の位置をレーダによって検出する検出手段と、 前記画像取得手段によって取得された画像と、前記検出手段によって検出された 検出結果とに基づいて、前記物体の位置を目印として前記移動体を誘導する経路の 誘導情報を作成する作成手段と、
前記作成手段によって作成された前記物体の位置を含む誘導情報を出力する出 力手段と、
を備えることを特徴とする経路誘導装置。
[2] 前記検出手段によって検出された物体の位置力 当該物体の移動状態を解析す る解析手段と、
前記解析手段によって解析された解析結果に基づいて、前記誘導情報の目印とな る物体を決定する決定手段と、
前記画像取得手段によって取得された画像に前記決定手段によって決定した目印 となる物体が撮像されている力否かを判断する画像判断手段と、
を備え、
前記作成手段は、前記画像判断手段によって前記目印となる物体が撮像されてい ると判断された場合、前記誘導情報を作成し、
前記出力手段は、前記作成手段によって作成された前記目印となる物体の位置を 含む誘導情報を出力することを特徴とする請求項 1に記載の経路誘導装置。
[3] 前記画像取得手段によって取得された画像に基づ 、て、前記物体の外観的特徴 を識別する識別手段を備え、
前記作成手段は、前記物体の位置と、前記識別手段によって識別された当該物体 の外観的特徴と、を目印として前記移動体を誘導する経路の誘導情報を作成し、 前記出力手段は、前記作成手段によって作成された前記物体の位置および外観 的特徴を含む誘導情報を出力することを特徴とする請求項 1に記載の経路誘導装置
[4] 前記移動体の現在位置情報を取得する位置取得手段と、 前記位置取得手段によって取得された現在位置情報が、前記誘導情報の作成さ れる誘導地点まで所定距離以内になったか否かを判断する距離判断手段と、 を備え、
前記作成手段は、前記距離判断手段によって所定距離以内になったと判断された 場合に、前記誘導情報を作成することを特徴とする請求項 1〜3のいずれか一つに 記載の経路誘導装置。
[5] 移動体の移動方向を撮像した画像を取得する画像取得工程と、
前記移動方向に存在する物体の位置をレーダによって検出する検出工程と、 前記画像取得工程によって取得された画像と、前記検出工程によって検出された 検出結果とに基づいて、前記物体の位置を目印として前記移動体を誘導する経路の 誘導情報を作成する作成工程と、
前記作成工程によって作成された前記物体の位置を含む誘導情報を出力するェ 程と、
を含むことを特徴とする経路誘導方法。
[6] 請求項 5に記載の経路誘導方法をコンピュータに実行させることを特徴とする経路 誘導プログラム。
[7] 請求項 6に記載の経路誘導プログラムを記録したことを特徴とするコンピュータに読 み取り可能な記録媒体。
PCT/JP2006/319506 2006-09-29 2006-09-29 Dispositif de guidage sur itinéraire, procédé de guidage sur itinéraire, programme de guidage sur itinéraire et support d'enregistrement WO2008041284A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008537342A JPWO2008041284A1 (ja) 2006-09-29 2006-09-29 誘導装置、誘導方法、誘導プログラム、および記録媒体
PCT/JP2006/319506 WO2008041284A1 (fr) 2006-09-29 2006-09-29 Dispositif de guidage sur itinéraire, procédé de guidage sur itinéraire, programme de guidage sur itinéraire et support d'enregistrement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2006/319506 WO2008041284A1 (fr) 2006-09-29 2006-09-29 Dispositif de guidage sur itinéraire, procédé de guidage sur itinéraire, programme de guidage sur itinéraire et support d'enregistrement

Publications (1)

Publication Number Publication Date
WO2008041284A1 true WO2008041284A1 (fr) 2008-04-10

Family

ID=39268151

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/319506 WO2008041284A1 (fr) 2006-09-29 2006-09-29 Dispositif de guidage sur itinéraire, procédé de guidage sur itinéraire, programme de guidage sur itinéraire et support d'enregistrement

Country Status (2)

Country Link
JP (1) JPWO2008041284A1 (ja)
WO (1) WO2008041284A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002340603A (ja) * 2001-03-16 2002-11-27 Fujitsu Ten Ltd ナビゲーション装置、及び道路データ記憶媒体
JP2005196376A (ja) * 2004-01-06 2005-07-21 Alpine Electronics Inc 周辺車両表示装置、ナビゲーション装置及び車両表示方法
JP2005207999A (ja) * 2004-01-26 2005-08-04 Alpine Electronics Inc ナビゲーション装置及び交差点案内方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002340603A (ja) * 2001-03-16 2002-11-27 Fujitsu Ten Ltd ナビゲーション装置、及び道路データ記憶媒体
JP2005196376A (ja) * 2004-01-06 2005-07-21 Alpine Electronics Inc 周辺車両表示装置、ナビゲーション装置及び車両表示方法
JP2005207999A (ja) * 2004-01-26 2005-08-04 Alpine Electronics Inc ナビゲーション装置及び交差点案内方法

Also Published As

Publication number Publication date
JPWO2008041284A1 (ja) 2010-01-28

Similar Documents

Publication Publication Date Title
US10315664B2 (en) Automatic driving assistance system, automatic driving assistance method, and computer program
US10399571B2 (en) Autonomous driving assistance system, autonomous driving assistance method, and computer program
US10071745B2 (en) Automated drive assisting system, automated drive assisting method, and computer program
JP4613881B2 (ja) 駐車案内装置
EP2253936B1 (en) Current position determining device and current position determining nethod
JP4435846B2 (ja) 位置登録装置、位置登録方法、位置登録プログラムおよび記録媒体
US20180237018A1 (en) Autonomous driving assistance system, autonomous driving assistance method, and computer program
US20170203770A1 (en) Automatic drive assist system, automatic drive assist method, and computer program
US20160347327A1 (en) Autonomous vehicle driving assist system, method, and program
US20100292895A1 (en) Driving support device
US11118934B2 (en) Method and system of route guidance for a towing vehicle
WO2007105499A1 (ja) 位置登録装置、経路探索装置、位置登録方法、位置登録プログラムおよび記録媒体
JP2007240338A (ja) ナビゲーションシステム
WO2007122926A1 (ja) ナビゲーション装置、位置登録方法、位置登録プログラムおよび記録媒体
JP6361403B2 (ja) 自動運転支援システム、自動運転支援方法及びコンピュータプログラム
JP2010026618A (ja) 車載用ナビゲーション装置及び交差点進入案内方法
JP4744632B2 (ja) 車線逸脱防止装置、車線逸脱防止方法、車線逸脱防止プログラム及び記憶媒体
JP2023066699A (ja) 重畳画像表示装置
JP2008241276A (ja) 車載用ナビゲーション装置
JP2023012793A (ja) 重畳画像表示装置
JP4619442B2 (ja) 画像表示装置、表示制御方法、表示制御プログラムおよび記録媒体
WO2007135856A1 (ja) 撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体
WO2007088915A1 (ja) 経路誘導装置、経路誘導方法、経路誘導プログラムおよび記録媒体
JP2007163437A (ja) ナビゲーション装置及び経路案内方法
WO2007123104A1 (ja) 経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 06810886

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008537342

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06810886

Country of ref document: EP

Kind code of ref document: A1