WO2007123104A1 - 経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体 - Google Patents

経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体 Download PDF

Info

Publication number
WO2007123104A1
WO2007123104A1 PCT/JP2007/058315 JP2007058315W WO2007123104A1 WO 2007123104 A1 WO2007123104 A1 WO 2007123104A1 JP 2007058315 W JP2007058315 W JP 2007058315W WO 2007123104 A1 WO2007123104 A1 WO 2007123104A1
Authority
WO
WIPO (PCT)
Prior art keywords
guidance
information
route guidance
route
moving body
Prior art date
Application number
PCT/JP2007/058315
Other languages
English (en)
French (fr)
Inventor
Hiroaki Shibasaki
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Publication of WO2007123104A1 publication Critical patent/WO2007123104A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map

Definitions

  • Route guidance device route guidance method, route guidance program, and recording medium
  • the present invention relates to a route guidance device, a route guidance method, a route guidance program, and a recording medium that guide a moving object using behavior information relating to another moving object.
  • the use of the present invention is not limited to the above-described route guidance device, route guidance method, route guidance program, and recording medium.
  • Patent Document 1 Japanese Unexamined Patent Publication No. 2003-279367
  • the route guidance device includes acquisition means for acquiring video information relating to a non-passing point in the route to the destination point of the mobile object. Analyzing the behavior information regarding the other moving body from the video information acquired by the acquiring means; and using the behavior information regarding the other moving body analyzed by the analyzing means. A creation means for creating guide guidance information about a non-passing point and an output for outputting the guidance information created by the creation means. And a force means.
  • the route guidance method according to the invention of claim 5 includes an acquisition step of acquiring video information obtained by photographing a periphery of a non-passing point in a route to a destination point of a moving object, and the acquisition step.
  • Acquired video information power Analyzing process for analyzing behavior information of other moving objects, and using the behavior information of other moving objects analyzed by the analyzing process, guidance guidance information on the non-passing points of the moving objects is obtained. It includes a creation step for creating and an output step for outputting the guidance information created by the creation step.
  • a route guidance program according to the invention of claim 6 causes a computer to execute the route guidance method according to claim 5.
  • a recording medium according to the invention of claim 7 is characterized in that the route guidance program according to claim 6 is recorded in a computer-readable state.
  • FIG. 1 is a block diagram showing a functional configuration of a route guidance apparatus according to an embodiment.
  • FIG. 2 is a flowchart showing a route guidance processing procedure of the route guidance device.
  • FIG. 3 is a block diagram showing a hardware configuration of a navigation device that is effective in the embodiment.
  • FIG. 4 is a flowchart showing the contents of processing of the navigation device.
  • FIG. 5 is an explanatory diagram illustrating the road conditions of the guide points.
  • FIG. 6 is an explanatory diagram illustrating the road condition of the guide point after a predetermined time has elapsed. Explanation of symbols
  • FIG. 1 is a block diagram showing a functional configuration of a route guidance device 100 according to the embodiment.
  • the route guidance device 100 includes an acquisition unit 101, an analysis unit 102, a selection unit 103, a creation unit 104, a determination unit 105, and an output unit 106.
  • the acquisition unit 101 acquires video information relating to an unpassed point in the route to the destination point of the mobile object. Specifically, the acquisition unit 101 acquires video information captured by a camera or the like mounted on the moving body.
  • a non-passing point is, for example, a point where guidance information is output in normal route guidance such as an intersection that makes a right or left turn.
  • the acquisition unit 101 acquires video information related to the field of view of the user of the moving object.
  • Video information about the field of view of mobile users is video information that captures almost the same landscape as the user actually sees. Specifically, for example, video information with camera power set to a viewing angle that matches the user's field of view.
  • the analysis unit 102 also analyzes behavior information regarding other moving objects with respect to the video information power acquired by the acquisition unit 101.
  • the behavior information is, for example, information that predicts a right or left turn of a moving object.
  • the information that predicts the right or left turn includes information that the speed of the other moving body has slowed down, information that the direction indicator of the other moving body is lit, and other mobile objects that turn right or left. If you move to the lane, you will receive information.
  • the analysis unit 102 also analyzes the appearance characteristics of other moving objects by using the video information power acquired by the acquisition unit 101.
  • An appearance feature is a feature that can distinguish each moving object such as color, size, and type. Further, the analysis unit 102 calculates the arrival time when the video information power or other moving body acquired by the acquisition unit 101 arrives at a non-passing point, or the required time to the non-passing point.
  • the selection unit 103 selects one moving body having a unique appearance characteristic from other moving bodies.
  • One moving object with a unique appearance feature is, for example, a moving object with a unique color or a moving object with a unique size among other moving objects whose behavior information has been analyzed.
  • the selection unit 103 may select a plurality of moving objects.
  • the creation unit 104 uses the behavior information about the other moving body analyzed by the analysis unit 102 to create guidance information about the non-passing point of the moving body.
  • the guidance information is guidance information for reliably guiding the moving object to the route to the destination point. Further, the creation unit 104 may create guidance information using the appearance characteristics and behavior information of other moving objects analyzed by the analysis unit 102.
  • the creating unit 104 creates guidance guidance information using appearance characteristics and behavior information regarding the one moving body.
  • the guidance information is, for example, voice information such as “a red car seen 30 degrees to the right is turning left at the intersection where it is about to turn right”.
  • the creation unit 104 may create advance guidance information.
  • the notice guidance information uses the behavior of one moving body predicted by the judging unit 105 in the video information related to the user's field of view. This is the guidance information created.
  • the notice guidance information is, for example, “A red car that can be seen soon is about to turn and turn in the opposite direction! /!”!
  • the determination unit 105 determines whether or not there is one moving object in the video information regarding the field of view of the user of the moving object acquired by the acquiring unit 101. That is, if it is determined that there is one moving object in the video information regarding the field of view of the user of the moving object, it is determined that the user is looking at the one moving object.
  • the output unit 106 includes a speaker and the like, and outputs the guidance information created by the creation unit 104.
  • the output unit 106 may output the guidance information when the determining unit 105 determines that there is one moving body in the video information, or when the moving body arrives at a predetermined distance from the non-passing point.
  • guidance information may be output.
  • the output unit 106 can be obtained by the obtaining unit 101 which may be equipped with a display screen. The recorded video information may be output.
  • the guidance information (including predicted guidance information) by the creation unit 104 is created as follows, for example.
  • the creation unit 104 includes a vocabulary table (not shown) for creating guidance information.
  • the creation unit 104 has character data such as “red”, “white”, and “blue” as color vocabularies. It has character data such as “Right”, “Left”, “Opposite”, “Direction”, “Turn” as a vocabulary indicating the behavior of a moving object.
  • it has character data such as “truck”, “bus” and “motorcycle” as vocabulary indicating the type of mobile object, and “right 30 ° forward” and “right diagonally forward” as vocabulary indicating the viewing direction.
  • FIG. 2 is a flowchart showing a route guidance processing procedure of the route guidance device 100.
  • step S201: No loop If the route to the destination point is searched (step S201: Yes), the acquisition unit
  • step S202 the video information about the non-passing points in the route to the destination point is acquired by 101.
  • step S202 the video information obtained in step S202 is also analyzed by the analysis unit 102 for behavior information regarding other moving objects (step S203). Further, the appearance characteristic of the other moving body is analyzed by the analysis unit 102 (step S204), and the selection unit 103 selects one moving body having a unique appearance characteristic for the medium force of the other moving body ( Step S 205).
  • the guide information is created by the creation unit 104 using the appearance characteristics and behavior information related to the one moving body selected in step S205 (step S206). Then, the determination unit 105 waits until it is determined that there is one moving object in the video information related to the user's visual field (step S207: No loop), and one move to the video information related to the user's visual field. If it is determined that a body exists (step S207: Yes), output The guidance information is output by the unit 106 (step S208), and the series of processing ends.
  • the force for acquiring the video information regarding the non-passing point in step S202 is not limited to this.
  • the video information regarding the non-passing points may be the same as the video information regarding the user's field of view. In this case, step S207 is omitted.
  • step S203 behavior information relating to another moving body is analyzed in step S203, but the present invention is not limited to this. For example, if the behavior information for creating the guidance information is not analyzed, the series of processing may be terminated as it is. In addition, even when there is no other moving object in the video information regarding the non-passing point acquired in step S202, the series of processing may be terminated as it is.
  • the force for selecting one moving body in step S205 is not limited to this.
  • the process may proceed to step S206 without selecting one moving body.
  • the guidance information may be created using the appearance characteristics and the behavior information of a plurality of moving bodies without selecting one moving body.
  • the guidance information is output in step S208, but the present invention is not limited to this.
  • the advance guidance information may be output before determining whether or not one moving body is present in the video information related to the user's visual field.
  • the guidance information about the non-passing point of the moving object is obtained using the behavior information about the other moving object analyzed using the video information power regarding the non-passing point. Information can be created. As a result, the user can guide the route by voice guidance using the behavior information of other moving objects when he or she approaches an intersection that is difficult to find on the map.
  • the guidance information is generated using the external features and behavior information of other moving bodies analyzed from the video information regarding the non-passing points. Can do. As a result, the user can grasp the moving object used for the guidance information.
  • the guidance information is generated using the appearance feature and behavior information regarding the moving body having a unique appearance feature selected by the selection unit 103. can do. As a result, the user can surely grasp the moving object used for the guidance information.
  • the guidance information can be output when it is determined that one moving body exists in the video information related to the visual field of the user. As a result, the user can be sure to guide the route using one moving object that is in the field of view.
  • Examples of the present invention will be described below.
  • a navigation device mounted on a moving body such as a vehicle (including a four-wheeled vehicle and a two-wheeled vehicle) will be described.
  • FIG. 3 is a block diagram showing a hardware configuration of a navigation apparatus that is effective in the embodiment.
  • the navigation device 300 includes a CPU 301, a ROM 302, a RAM 303, a magnetic disk drive 304, a magnetic disk 305, an optical disk drive 306, an optical disk 307, and an audio IZF (interface).
  • Each component 301 to 317 is connected by a bus 320.
  • the CPU 301 governs overall control of the navigation device 300.
  • the ROM 302 records programs such as a boot program, a data update program, a video analysis program, and a guide information creation program.
  • the RAM 303 is used as a work area for the CPU 301. That is, the CPU 301 controls the entire navigation device 300 by executing various programs recorded in the ROM 302 while using the RAM 303 as a work area.
  • the video analysis program analyzes behavior information of other vehicles from the video information. Concrete For example, it is possible to detect the vehicle that has slowed down, whether it has detected a vehicle that has made a force direction indication, or whether it has detected a vehicle that has moved to the right-left turn lane Analyze behavior information that predicts
  • the video analysis program also analyzes the external features of the vehicle that exist in the video information. Appearance characteristics are, for example, the color and shape of the car body, or the car name and car model.
  • the video analysis program analyzes the relative positional force with the host vehicle and the speed of other vehicles. Specifically, the speed of the other vehicle is analyzed by calculating the speed of the host vehicle and the change in the size of the other vehicle after a certain period of time in the video information.
  • the guidance information creation program creates guidance guidance information related to route guidance.
  • the guidance information is voice information that prompts the user by using behavior information of other vehicles at the guidance point.
  • the guidance information is, for example, a vehicle traveling in an oncoming lane (below referred to as an oncoming vehicle) in which behavior information is analyzed for video information power about a guidance point, or another vehicle traveling in front of the same lane ( The following is audio information for guiding and guiding the host vehicle using the same lane vehicle).
  • the guidance information creation program creates notice guidance information on route guidance.
  • the advance guidance information is audio information that prompts the user by using behavior information of other vehicles predicted at the guidance point before the guidance point enters the user's field of view. Specifically, for example, guidance information that guides and guides the host vehicle using the oncoming vehicle or the same lane vehicle that has been analyzed for behavior information that is predicted to enter the field of view after a predetermined time has elapsed. .
  • the magnetic disk drive 304 controls reading and writing of data to the magnetic disk 305 according to the control of the CPU 301.
  • the magnetic disk 305 records data written under the control of the magnetic disk drive 304.
  • the magnetic disk 305 for example, HD (node disk) or FD (flexible disk) can be used.
  • the optical disk drive 306 controls reading and writing of data to the optical disk 307 according to the control of the CPU 301.
  • the optical disc 307 is a detachable recording medium from which data is read according to the control of the optical disc drive 306.
  • the optical disk 307 can use a writable recording medium. Removable recording medium For example, a power MO of the optical disk 307, a memory card, or the like may be used.
  • Map data includes background data that represents features such as buildings, rivers, and the surface of the earth, and road shape data that represents the shape of the road, and is composed of multiple data files divided by region. Has been.
  • the road shape data further includes traffic condition data.
  • the traffic condition data includes, for example, the presence / absence of traffic lights and pedestrian crossings, the presence / absence of highway doorways and junctions, the length (distance) of each link, road width, direction of travel, road type (high speed). Road, toll road, general road, etc.).
  • the function data is three-dimensional data representing the shape of the facility on the map, character data representing the description of the facility, and other various data other than the map data.
  • Map data and function data are recorded in blocks divided by district or function. Specifically, for example, the map data is recorded in such a state that each map can be divided into blocks such that each map represents a predetermined area on the map displayed on the display screen. Also, for example, the function data is recorded in a state where each function can be divided into a plurality of blocks so as to realize one function.
  • the function data is for realizing functions such as program data that realizes route search, calculation of required time, route guidance, selection of guidance points, and the like. It is data of.
  • Each of the map data and function data is composed of a plurality of data files divided by district or function.
  • the audio IZF 308 is connected to a microphone 309 for audio input and a speaker 310 for audio output.
  • the voice received by the microphone 309 is AZD converted in the voice IZF308.
  • the microphone 309 may be installed near the sun visor of the vehicle, and the number may be one or more.
  • a sound obtained by DZA-converting a predetermined sound signal in the sound IZF 308 is output. Note that sound input from the microphone 309 can be recorded on the magnetic disk 305 or the optical disk 307 as sound data.
  • the voice IZF 308 is used for guiding guidance information and guidance information created by a guidance information creation program. And notice guidance information is output.
  • the voice IZF 308 outputs, for example, guidance guidance information from a speaker when another camera used for guidance guidance information is captured by a camera B318 described later.
  • the audio IZF 308 may output, for example, the advance guidance information from the speaker even when another vehicle used for the advance guidance information is not captured by the camera B318 described later.
  • Examples of the input device 311 include a remote controller having a plurality of keys for inputting characters, numerical values, and various instructions, a keyboard, and a touch panel.
  • the input device 311 may be realized by any one form of the remote control, the keyboard, and the touch panel.
  • the input device 311 may be realized by a plurality of forms.
  • the video IZF 312 is connected to the display 313. Specifically, the video IZF312 is output from, for example, a graphic controller that controls the entire display 313, a buffer memory such as VRAM (Video RAM) that temporarily records image information that can be displayed immediately, and a graphic controller. It is configured by a control IC that controls the display 313 based on image data.
  • a graphic controller that controls the entire display 313, a buffer memory such as VRAM (Video RAM) that temporarily records image information that can be displayed immediately, and a graphic controller. It is configured by a control IC that controls the display 313 based on image data.
  • VRAM Video RAM
  • the display 313 displays icons, cursors, menus, windows, or various data such as characters and images.
  • the map data force described above may be drawn in 2D or 3D.
  • the map data displayed on the display 313 can be displayed with a mark or the like representing the current position of the vehicle on which the navigation device 300 is mounted. The current position of the vehicle is calculated by the CPU 301.
  • the display 313 for example, a CRT, a TFT liquid crystal display, a plasma display, or the like can be used.
  • the display 313 is installed near the dashboard of the vehicle, for example.
  • a plurality of displays 313 may be installed on the vehicle, for example, near the dashboard of the vehicle or around the rear seat of the vehicle.
  • Communication IZF 314 is connected to a network via radio and functions as an interface between navigation device 300 and CPU 301.
  • the communication I / F 314 is further connected to a communication network such as the Internet via radio and functions as an interface between the communication network and the CPU 301.
  • Communication networks include LANs, WANs, public line networks, mobile phone networks, and the like.
  • Communication IZF314 is composed of, for example, FM tuner, VICS (Vehicle Information and Communication System) Z beacon Resino, wireless navigation device, and other navigation devices. Get traffic information. VICS is a registered trademark.
  • the GPS unit 315 receives radio waves from GPS satellites and outputs information indicating the current position of the vehicle.
  • the output information of the GPS unit 315 is used when the CPU 301 calculates the current position of the vehicle together with output values of various sensors 316 described later.
  • the information indicating the current position is information that identifies one point on the map data, such as latitude'longitude and altitude.
  • Various sensors 316 output information for determining the position and behavior of the vehicle, such as a vehicle speed sensor, an acceleration sensor, and an angular velocity sensor.
  • the output values of the various sensors 316 are used by the CPU 301 to calculate the current position of the vehicle and the amount of change in speed and direction.
  • Camera A317 captures images outside the vehicle in a range wider than the user's field of view. Camera A 317 may always shoot, or may start to shoot video relating to the guide point when it arrives at a predetermined distance from the guide point. Video may be output to a recording medium such as magnetic disk 305 or optical disk 307 via video I / F 312, which is a still image or a moving image. Also, the video output to the recording medium is overwritten and saved.
  • a plurality of cameras A317 may be installed, for example, on the opposite lane side at a high position such as the upper part of the windshield of the vehicle.
  • the camera B318 captures an image related to the visual field of the user.
  • the image related to the user's field of view is an image in almost the same range as the user's field of view.
  • Camera B318 is installed according to the user's field of view. For example, it is installed at the end of the pillow portion of the user seat. Also, camera B318 may determine the user's field of view with another camera that senses the user's line of sight, and change the position and angle of camera B318 accordingly!
  • the acquisition unit 101, the analysis unit 102, the selection unit 103, the creation unit 104, the determination unit 105, and the output unit 106 included in the route guidance device 100 illustrated in FIG. 1 are included in the navigation device 300 illustrated in FIG.
  • CPU301 executes a predetermined program using programs and data recorded in ROM302, RAM303, magnetic disk 305, optical disk 307, etc. The function is realized by controlling each part in the device 300.
  • the navigation device 300 has the function of the route guidance device shown in FIG. 1 by executing the route guidance program recorded in the ROM 302 as a recording medium in the navigation device 300. Can be executed by the route guidance processing procedure shown in FIG.
  • FIG. 4 is a flowchart showing the contents of processing of the navigation device.
  • step S401 No loop. If the route to the destination point is searched (step S401: Yes), the guidance point From there, it waits until it reaches a predetermined distance (step S402: No loop).
  • step S402 when the vehicle arrives at a point a predetermined distance from the guidance point (step S402: Yes), video information relating to the guidance point is acquired from the camera A317 (step S403).
  • the video information power also analyzes the behavior information of the oncoming vehicle (step S404), and determines whether there is a vehicle that can be a guidance target (step S405).
  • a vehicle that can be a guidance target is a vehicle whose behavior information has been analyzed by a video analysis program.
  • step S405 when there is a vehicle that can be a guidance target (step S405: Yes), the appearance characteristics of each vehicle that can be a guidance target are analyzed (step S406). On the other hand, when there is no vehicle that can be a guidance target in step S405 (step S405: No), the process returns to step S403, and the subsequent processing is repeated.
  • a guidance target vehicle is selected (step S407), and the guidance guidance created by the guidance information creation program is performed (step S408).
  • the vehicle to be guided is a vehicle having a unique appearance characteristic among vehicles that can be guided.
  • step S409: No loop wait until the camera B318 recognizes the guidance target vehicle (step S409: No loop), and if the camera B318 recognizes the guidance target vehicle (step S409: Yes), The relative position is acquired (step S410).
  • step S410 if the relative position with respect to the acquired vehicle becomes a predetermined distance, Guide guidance created by the internal information creation program is performed (step S411). Then, it is determined whether or not the vehicle has arrived at the destination point (step S412). When the vehicle arrives at the destination point (step S412: Yes), the series of processes is terminated. On the other hand, when it does not arrive at the destination point in step S412 (step S412: No), the process returns to step S402, and the subsequent processing is repeated.
  • the video information related to the in-house point is acquired from the camera A317 in step S403, but the present invention is not limited to this.
  • the video information regarding the guidance point may be acquired from the camera B318.
  • it may be omitted in the notice in step S408 and whether or not the camera B318 recognizes the guidance target vehicle in step S409.
  • step S405 when there is no vehicle that can be a guidance target in step S405, the force is configured to return to step S403.
  • a series of processing may be terminated. In this case, the guidance may be changed to normal guidance using map data.
  • the force is configured such that the guidance guidance is not performed in step S408 and the guidance guidance is performed in step S411. For example, by displaying a key that displays whether or not it is necessary to switch to guidance guidance using normal map data, and determining which key has been operated, the selected guidance guidance is displayed. Even if you do it.
  • FIG. 5 is an explanatory diagram illustrating the road conditions of the guide points.
  • an in-house point 500 an own vehicle 501, an oncoming vehicle A502, an oncoming vehicle B503, an oncoming vehicle C504, and a vehicle 505 in front of the own vehicle are illustrated.
  • the guide point 500 is an intersection where the own vehicle 501 should make a left turn in the route to the destination point.
  • the driver of the host vehicle 501 causes the oncoming vehicle to stop by the vehicle 505 in front of the host vehicle. Both the A502, the oncoming vehicle B503, and the oncoming vehicle C504 cannot be seen!
  • the force is taken by the camera A317 mounted on the own vehicle 501.
  • Oncoming vehicle A502 is a vehicle whose body color is white when it makes a right turn and moves to the right side of the lane.
  • the oncoming vehicle B503 is a vehicle with a red car body that gives a direction to turn left.
  • the oncoming vehicle C504 is a vehicle whose body color is white at a reduced speed. Therefore, the oncoming vehicle A502, the oncoming vehicle B503, and the oncoming vehicle C504 are vehicles that can be guided because behavior information that predicts a right or left turn is analyzed.
  • the oncoming vehicle B503 having a unique body color is selected as the guidance target vehicle.
  • the own vehicle 501 is provided with the guidance guidance in step S408 of FIG.
  • the sound of the guidance guidance guidance is, for example, “Turn in the direction opposite to the one where the red car that can be seen soon bends.
  • FIG. 6 is an explanatory diagram illustrating the road condition of the guide point after a predetermined time has elapsed.
  • oncoming vehicle A502 has already made a right turn and oncoming vehicle B503 has made a left turn.
  • the host vehicle 501 performs guidance guidance in step S411 of FIG.
  • the guidance guidance voice is, for example, “Red seen 30 degrees to the right! Turn the intersection where the car bends to the other side! /,” T, etc.
  • the video information is analyzed with the oncoming vehicle as the guidance target, but the video information is analyzed with the same lane vehicle as the guidance target without being limited thereto. It may be.
  • the behavior information of the vehicle 505 traveling in front of the host vehicle 501 may be analyzed also with the video information power to generate guidance guidance information and output the voice.
  • the guidance information on the non-passing point of the moving body using the behavior information on the other moving body analyzed from the video information on the non-passing point. Can be created. Therefore, the map on the display screen Even without displaying data, the route can be guided by voice guidance. As a result, the user can guide the route by voice guidance using the behavior information of other moving objects when he or she approaches an intersection that is difficult to recognize on the map.
  • the guidance information can be created by using the external features and behavior information of other moving bodies that have been subjected to the video information force analysis regarding the non-passing points. As a result, the user can grasp the moving object used for the guidance information.
  • the guidance information is generated using the appearance feature and behavior information regarding the moving body having a unique appearance feature selected by the selection unit 103. be able to. As a result, the user can surely grasp the moving object used for the guidance information.
  • the guidance information can be output when it is determined that one moving body exists in the video information related to the user's visual field. As a result, the user can be sure to guide the route using one moving object that is in the field of view.
  • the behavior of another moving body from the video information related to the guidance point in the navigation device 300 is described.
  • Information can be analyzed and guidance information can be created.
  • the user can guide the route by voice guidance using the behavior information of other moving bodies even at an intersection where the mark is difficult to recognize on the map.
  • the route guidance method described in the present embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation.
  • This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed when the recording medium force is also read by the computer.
  • the program may be a transmission medium that can be distributed through a network such as the Internet.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)

Abstract

 取得部(101)によって目的地点までの経路の中の未通過地点に関する映像情報を取得する。そして、解析部(102)によって、取得された映像情報から他の移動体に関する挙動情報を解析する。さらに、解析部(102)によって他の移動体に関する外観的特徴を解析し、選択部(103)によって他の移動体の中から外観的特徴が特異な一の移動体を選択する。つぎに、選択された一の移動体に関する外観的特徴および挙動情報を用いて、作成部(104)によって誘導案内情報を作成する。そして、判断部(105)によって利用者の視野に関する映像情報に一の移動体が存在すると判断された場合、出力部(106)によって誘導案内情報を出力する。

Description

明 細 書
経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体 技術分野
[0001] この発明は、他の移動体に関する挙動情報を用いて移動体を誘導する経路誘導 装置、経路誘導方法、経路誘導プログラム、および記録媒体に関する。ただし、この 発明の利用は、上述した経路誘導装置、経路誘導方法、経路誘導プログラム、およ び記録媒体には限られな 、。
背景技術
[0002] 従来、経路誘導における右左折などの誘導案内の対象となる案内ポイントにおい て、地図データに基づいて手前の目印から位置関係を表現することにより、案内ボイ ントを確実に利用者に把握させる経路誘導装置がある。この経路誘導装置にぉ 、て は、利用者は、右左折をおこなう交差点を確実に把握することができる(たとえば、下 記特許文献 1参照。)。
[0003] 特許文献 1:特開 2003— 279367号公報
発明の開示
発明が解決しょうとする課題
[0004] し力しながら、上述の特許文献 1に記載された技術では、対象となる案内ポイントの 周辺に目印がある場合は、案内ポイントを確実に利用者に把握させることができるが 、たとえば、地図データに目印となる建造物がない場合は、案内ポイントを確実に利 用者に把握させることができないという問題が一例として挙げられる。
課題を解決するための手段
[0005] 上述した課題を解決し、目的を達成するため、請求項 1の発明にかかる経路誘導 装置は移動体の目的地点までの経路の中の未通過地点に関する映像情報を取得 する取得手段と、前記取得手段によって取得された映像情報から他の移動体に関す る挙動情報を解析する解析手段と、前記解析手段によって解析された他の移動体に 関する挙動情報を用いて前記移動体の前記未通過地点に関する誘導案内情報を 作成する作成手段と、前記作成手段によって作成された誘導案内情報を出力する出 力手段と、を備えることを特徴とする。
[0006] また、請求項 5の発明に力かる経路誘導方法は、移動体の目的地点までの経路の 中で未通過地点周辺を撮影した映像情報を取得する取得工程と、前記取得工程に よって取得された映像情報力 他の移動体の挙動情報を解析する解析工程と、前記 解析工程によって解析された他の移動体の挙動情報を用いて前記移動体の前記未 通過地点に関する誘導案内情報を作成する作成工程と、前記作成工程によって作 成された誘導案内情報を出力する出力工程と、を含むことを特徴とする。
[0007] また、請求項 6の発明に力かる経路誘導プログラムは、請求項 5に記載の経路誘導 方法をコンピュータに実行させることを特徴とする。
[0008] また、請求項 7の発明に力かる記録媒体は、請求項 6に記載の経路誘導プログラム をコンピュータに読み取り可能な状態で記録したことを特徴とする。
図面の簡単な説明
[0009] [図 1]図 1は、実施の形態に力かる経路誘導装置の機能的構成を示すブロック図であ る。
[図 2]図 2は、経路誘導装置の経路誘導処理手順を示すフローチャートである。
[図 3]図 3は、実施例に力かるナビゲーシヨン装置のハードウェア構成を示すブロック 図である。
[図 4]図 4は、ナビゲーシヨン装置の処理の内容を示すフローチャートである。
[図 5]図 5は、案内ポイントの道路状況を図示した説明図である。
[図 6]図 6は、所定時間経過後の案内ポイントの道路状況を図示した説明図である。 符号の説明
[0010] 100 経路誘導装置
101 取得部
102 解析部
103 選択部
104 作成部
105 判断部
106 出力部 発明を実施するための最良の形態
[0011] 以下に添付図面を参照して、この発明にかかる経路誘導装置、経路誘導方法、経 路誘導プログラム、および記録媒体の好適な実施の形態を詳細に説明する。
[0012] (実施の形態)
(経路誘導装置 100の機能的構成)
はじめに、この発明の実施の形態に力かる経路誘導装置 100の機能的構成につい て説明する。図 1は、実施の形態に力かる経路誘導装置 100の機能的構成を示すブ ロック図である。
[0013] 図 1において、経路誘導装置 100は、取得部 101と、解析部 102と、選択部 103と、 作成部 104と、判断部 105と、出力部 106と、を備えている。取得部 101は、移動体 の目的地点までの経路の中の未通過地点に関する映像情報を取得する。取得部 10 1は、具体的には、移動体に搭載されたカメラなどによって撮影された映像情報を取 得する。未通過地点は、たとえば、右左折をおこなう交差点などの通常の経路誘導 において誘導案内情報が出力される地点などである。
[0014] また、取得部 101は、移動体の利用者の視野に関する映像情報を取得する。移動 体の利用者の視野に関する映像情報は、利用者が実際に見ている風景とほぼ同じ 風景を捉えた映像の情報である。具体的には、たとえば、利用者の視野に合わせた 視野角に設定したカメラ力もの映像情報である。
[0015] 解析部 102は、取得部 101によって取得された映像情報力も他の移動体に関する 挙動情報を解析する。挙動情報は、たとえば、移動体の右左折を予測させる情報な どである。右左折を予測させる情報とは、具体的には、他の移動体の速度が遅くなつ たという情報、他の移動体の方向指示器が点灯しているという情報、他の移動体が右 左折車線に移動したと 、う情報などである。
[0016] また、解析部 102は、取得部 101によって取得された映像情報力も他の移動体の 外観的特徴を解析する。外観的特徴とは、たとえば、色、大きさ、種類などのそれぞ れの移動体を判別できる特徴である。さらに、解析部 102は、取得部 101によって取 得された映像情報力 他の移動体が未通過地点に到着する到着時刻、もしくは未通 過地点までの所要時間を算出する。 [0017] 選択部 103は、他の移動体の中から外観的特徴が特異な一の移動体を選択する。 外観的特徴が特異な一の移動体は、たとえば、挙動情報が解析された他の移動体 の中で色が特異な移動体や、大きさが特異な移動体である。また、選択部 103は、 複数の移動体を選択するようにしてもよい。
[0018] 作成部 104は、解析部 102によって解析された他の移動体に関する挙動情報を用 いて移動体の未通過地点に関する誘導案内情報を作成する。誘導案内情報は、移 動体を目的地点までの経路へ確実に誘導するための案内情報である。また、作成部 104は、解析部 102によって解析された他の移動体の外観的特徴および挙動情報 を用いて誘導案内情報を作成してもよ ヽ。
[0019] さらに、作成部 104は、選択部 103によって一の移動体が選択された場合は、一の 移動体に関する外観的特徴および挙動情報を用いて誘導案内情報を作成する。誘 導案内情報は、具体的には、たとえば、「右前方 30度方向に見える赤い車が右に曲 力ろうとしている交差点を左折です。」という音声情報などである。
[0020] また、作成部 104は、予告誘導案内情報を作成してもよい。予告誘導案内情報とは 、判断部 105によって利用者の視野に関する映像情報の中に一の移動体が存在し て 、な 、場合に、直後に存在すると予測される一の移動体の挙動を用いて作成され る案内情報である。予告誘導案内情報は、具体的には、たとえば、「もうすぐ見える赤 い車が曲がろうとして 、る方向と反対に曲がってくださ!/、。」と!、う音声情報などである
[0021] 判断部 105は、取得部 101によって取得された移動体の利用者の視野に関する映 像情報に一の移動体が存在するか否力判断する。つまり、移動体の利用者の視野に 関する映像情報に一の移動体が存在すると判断された場合、利用者が一の移動体 を見ていると判断する。
[0022] 出力部 106は、スピーカなどが備えられており、作成部 104によって作成された誘 導案内情報を出力する。出力部 106は、判断部 105によって映像情報に一の移動 体が存在すると判断された場合に、誘導案内情報を出力してもよいし、移動体が未 通過地点から所定の距離に到着した場合に、誘導案内情報を出力してもよい。さら に、出力部 106は、表示画面などが備えられていてもよぐ取得部 101によって取得 された映像情報などを出力してもよい。
[0023] なお、作成部 104による誘導案内情報 (予測誘導案内情報を含む)は、たとえば、 つぎのようにして作成される。作成部 104は、誘導案内情報を作成するための図示し ない語彙テーブルを備えており、たとえば、色を示す語彙として「赤」、「白」、「青」な どの文字データを持ち、また、移動体の挙動を示す語彙として「右」、「左」、「反対」、 「方向」、「曲がる」などの文字データを持っている。さらに、移動体の種類を示す語彙 として「トラック」、「バス」、「オートバイ」などの文字データを持ち、また、視認方向を示 す語彙として「右前方 30度方向」、「右斜め前方」などの文字データを持ち、予測を 示す語彙として「もうすぐ」、「まもなく」などの文字データを持っている。そして、解析 部 102による解析結果、または解析部 102および選択部 103による結果、および移 動体の目的地点までの経路を示す情報から誘導案内に最適な文字データを抽出し て音声データに変換し、誘導案内情報として出力部 106に送る。
[0024] (経路誘導装置 100の経路誘導処理手順)
つぎに、経路誘導装置 100の経路誘導処理手順について説明する。図 2は、経路 誘導装置 100の経路誘導処理手順を示すフローチャートである。図 2のフローチヤ一 トにおいて、まず、目的地点までの経路が探索されるまで待って (ステップ S201 : No のループ)、目的地点までの経路が探索された場合 (ステップ S201 : Yes)、取得部 1 01によって目的地点までの経路の中の未通過地点に関する映像情報を取得する( ステップ S202)。
[0025] そして、解析部 102によって、ステップ S202において取得された映像情報力も他 の移動体に関する挙動情報を解析する (ステップ S203)。さらに、解析部 102によつ て他の移動体に関する外観的特徴を解析し (ステップ S204)、選択部 103によって 他の移動体の中力も外観的特徴が特異な一の移動体を選択する (ステップ S 205)。
[0026] つぎに、ステップ S205において選択された一の移動体に関する外観的特徴およ び挙動情報を用いて、作成部 104によって誘導案内情報を作成する (ステップ S206 )。そして、判断部 105によって利用者の視野に関する映像情報に一の移動体が存 在すると判断されるまで待って (ステップ S207 : Noのループ)、利用者の視野に関す る映像情報に一の移動体が存在すると判断された場合 (ステップ S207 : Yes)、出力 部 106によって誘導案内情報を出力して (ステップ S208)、一連の処理を終了する。
[0027] なお、図 2のフローチャートにおいては、ステップ S202において未通過地点に関す る映像情報を取得するとしている力 これに限るものではない。たとえば、未通過地 点に関する映像情報は、利用者の視野に関する映像情報と同一でもよい。この場合 、ステップ S207は省略するものとする。
[0028] また、図 2のフローチャートにおいては、ステップ S203において他の移動体に関す る挙動情報を解析するとしているが、これに限るものではない。たとえば、誘導案内 情報を作成する挙動情報が解析されな 、場合は、そのまま一連の処理を終了しても よい。また、ステップ S 202において取得された未通過地点に関する映像情報に他の 移動体が存在しな ヽ場合も、そのまま一連の処理を終了してもよ ヽ。
[0029] そして、図 2のフローチャートにおいては、ステップ S205において一の移動体を選 択するとしている力 これに限るものではない。たとえば、ステップ S203において解 析された挙動情報が 1つの場合は、一の移動体を選択せずにステップ S206に進む 構成としてもよい。また、一の移動体を選択せずに、複数の移動体の各外観的特徴 および各挙動情報を用いて、誘導案内情報を作成してもよい。
[0030] さらに、図 2のフローチャートにおいては、ステップ S208において誘導案内情報を 出力するとしているが、これに限るものではない。たとえば、ステップ S207において 利用者の視野に関する映像情報に一の移動体が存在する力否かを判断する前に、 予告誘導案内情報を出力してもよい。
[0031] 上述したように、実施の形態の経路誘導装置 100によれば、未通過地点に関する 映像情報力 解析された他の移動体に関する挙動情報を用いて、移動体の未通過 地点に関する誘導案内情報を作成することができる。これによつて、利用者は、地図 上で目印のわかりにくい交差点などに差し掛カつた場合に、他の移動体の挙動情報 を用いた音声案内によって経路誘導させることができる。
[0032] また、実施の形態の経路誘導装置 100によれば、未通過地点に関する映像情報か ら解析された他の移動体の外観的特徴および挙動情報を用いて誘導案内情報を作 成することができる。これによつて、利用者は、誘導案内情報に用いられる移動体を 把握することができる。 [0033] また、実施の形態の経路誘導装置 100によれば、選択部 103によって選択された 外観的特徴が特異な一の移動体に関する外観的特徴および挙動情報を用いて誘 導案内情報を作成することができる。これによつて、利用者は、誘導案内情報に用い られる移動体を確実に把握することができる。
[0034] また、実施の形態の経路誘導装置 100によれば、利用者の視野に関する映像情報 に一の移動体が存在すると判断された場合に、誘導案内情報を出力することができ る。これによつて、利用者は、確実に視野に入っている一の移動体を用いた経路誘 導をさせることができる。
実施例
[0035] 以下に、本発明の実施例について説明する。本実施例では、たとえば、車両(四輪 車、二輪車を含む)などの移動体に搭載されるナビゲーシヨン装置によって、本発明 の経路誘導装置を実施した場合の一例について説明する。
[0036] (ナビゲーシヨン装置のハードウェア構成)
つぎに、実施例に力かるナビゲーシヨン装置 300のハードウェア構成について説明 する。図 3は、実施例に力かるナビゲーシヨン装置のハードウェア構成を示すブロック 図である。図 3にお!/ヽて、ナビゲーシヨン装置 300は、 CPU301と、 ROM302と、 RA M303と、磁気ディスクドライブ 304と、磁気ディスク 305と、光ディスクドライブ 306と 、光ディスク 307と、音声 IZF (インターフェース) 308と、マイク 309と、スピーカ 310 と、入力デバイス 311と、映像 IZF312と、ディスプレイ 313と、通信 IZF314と、 GP Sユニット 315と、各種センサ 316と、カメラ A317と、カメラ B318と、を備えている。各 構成部 301〜317は、バス 320によってそれぞれ接続されている。
[0037] まず、 CPU301は、ナビゲーシヨン装置 300の全体の制御を司る。 ROM302は、 ブートプログラム、データ更新プログラム、映像解析プログラム、案内情報作成プログ ラムなどのプログラムを記録している。また、 RAM303は、 CPU301のワークエリアと して使用される。すなわち、 CPU301は、 RAM303をワークエリアとして使用しなが ら、 ROM302に記録された各種プログラムを実行することによって、ナビゲーシヨン 装置 300の全体の制御を司る。
[0038] 映像解析プログラムは、映像情報から他の車両の挙動情報を解析させる。具体的 には、たとえば、速度を落とした車両を検知した力否力 方向指示をおこなった車両 を検知したか否か、右左折車線へ移動した車両を検知したか否かなどの他の車両の 右左折を予測させる挙動情報などを解析させる。また、映像解析プログラムは、映像 情報に存在する車両の外観的特徴を解析させる。外観的特徴は、たとえば、車体の 色や形状、もしくは車名や車種などである。さらに、映像解析プログラムは、自車両と の相対位置力 他の車両の速度を解析させる。具体的には、自車両の速度と映像情 報における他の車両の一定時間経過後の大きさの変化を算出することで、他の車両 の速度を解析させる。
[0039] 案内情報作成プログラムは、経路誘導に関する誘導案内情報を作成させる。誘導 案内情報は、案内ポイントにおいて他の車両の挙動情報を用いて利用者を促す音 声情報である。誘導案内情報は、具体的には、たとえば、案内ポイントに関する映像 情報力も挙動情報が解析された対向車線を走行中の車両 (以下対向車両と称する) 、または同一車線前方を走行中の他車両 (以下、同一車線車両と称する)を用いた 自車両を誘導案内する音声情報である。
[0040] また、案内情報作成プログラムは、経路誘導に関する予告誘導案内情報を作成さ せる。予告誘導案内情報は、利用者の視野に案内ポイントが入る前に、案内ポイント において予測される他の車両の挙動情報を用いて利用者を促す音声情報である。 具体的には、たとえば、案内ポイントに関する映像情報力 所定時間経過後に視野 に入ると予測される挙動情報が解析された対向車両、または同一車線車両を用いて 自車両を誘導案内する案内情報である。
[0041] 磁気ディスクドライブ 304は、 CPU301の制御にしたがって磁気ディスク 305に対 するデータの読み取り Z書き込みを制御する。磁気ディスク 305は、磁気ディスクドラ イブ 304の制御で書き込まれたデータを記録する。磁気ディスク 305としては、たとえ ば、 HD (ノヽードディスク)や FD (フレキシブルディスク)を用いることができる。
[0042] また、光ディスクドライブ 306は、 CPU301の制御にしたがって光ディスク 307に対 するデータの読み取り Z書き込みを制御する。光ディスク 307は、光ディスクドライブ 306の制御にしたがってデータが読み出される着脱自在な記録媒体である。光ディ スク 307は、書き込み可能な記録媒体を利用することもできる。着脱可能な記録媒体 として、光ディスク 307のほ力 MO、メモリカードなどであってもよい。
[0043] 磁気ディスク 305および光ディスク 307に記録される情報の一例としては、地図デ ータゃ機能データが挙げられる。地図データは、建物、河川、地表面などの地物(フ ィーチヤ)をあらわす背景データと、道路の形状をあらわす道路形状データとを含ん でおり、地区ごとに分けられた複数のデータファイルによって構成されている。
[0044] 道路形状データは、さらに交通条件データを有する。交通条件データには、たとえ ば、各ノードについて、信号や横断歩道などの有無、高速道路の出入り口やジャンク シヨンの有無、各リンクについての長さ(距離)、道幅、進行方向、道路種別(高速道 路、有料道路、一般道路など)などの情報が含まれている。
[0045] 機能データは、地図上の施設の形状をあらわす 3次元データ、当該施設の説明を あらわす文字データ、その他地図データ以外の各種のデータである。地図データや 機能データは、地区ごとあるいは機能ごとにブロック分けされた状態で記録されてい る。具体的には、たとえば、地図データは、各々が、表示画面に表示された地図にお いて所定の地区をあらわすように、地区ごとにブロック分けすることができる状態で記 録されている。また、たとえば、機能データは、各々が、 1つの機能を実現するように、 機能ごとに複数にブロック分けすることができる状態で記録されている。
[0046] また、機能データは、上述した 3次元データや文字データに加えて、経路探索、所 要時間の算出、経路誘導、案内ポイントの選定などを実現するプログラムデータなど の機能を実現するためのデータである。地図データおよび機能データは、それぞれ 、地区ごとあるいは機能ごとに分けられた複数のデータファイルによって構成されて いる。
[0047] 音声 IZF308は、音声入力用のマイク 309および音声出力用のスピーカ 310に接 続される。マイク 309に受音された音声は、音声 IZF308内で AZD変換される。マ イク 309は、たとえば、車両のサンバイザー付近に設置され、その数は単数でも複数 でもよい。スピーカ 310からは、所定の音声信号を音声 IZF308内で DZA変換した 音声が出力される。なお、マイク 309から入力された音声は、音声データとして磁気 ディスク 305あるいは光ディスク 307に記録可能である。
[0048] 音声 IZF308は、案内情報作成プログラムによって作成される誘導案内情報およ び予告誘導案内情報を出力する。音声 IZF308は、たとえば、誘導案内情報を、後 述するカメラ B318によって誘導案内情報に用いられる他の車両が撮影された場合 に、スピーカから出力する。また、音声 IZF308は、たとえば、予告誘導案内情報を、 後述するカメラ B318によって予告誘導案内情報に用いられる他の車両が撮影され ていない場合にも、スピーカから出力してもよい。
[0049] 入力デバイス 311は、文字、数値、各種指示などの入力のための複数のキーを備 えたリモコン、キーボード、タツチパネルなどが挙げられる。入力デバイス 311は、リモ コン、キーボード、タツチパネルのうちいずれ力 1つの形態によって実現されてもよい 力 複数の形態によって実現することも可能である。
[0050] 映像 IZF312は、ディスプレイ 313に接続される。映像 IZF312は、具体的には、 たとえば、ディスプレイ 313全体を制御するグラフィックコントローラと、即時表示可能 な画像情報を一時的に記録する VRAM (Video RAM)などのバッファメモリと、グ ラフィックコントローラから出力される画像データに基づ 、てディスプレイ 313を制御 する制御 ICなどによって構成される。
[0051] ディスプレイ 313には、アイコン、カーソル、メニュー、ウィンドウ、あるいは文字や画 像などの各種データが表示される。ディスプレイ 313には、上述した地図データ力 2 次元または 3次元に描画されてもょ 、。ディスプレイ 313に表示された地図データに は、ナビゲーシヨン装置 300を搭載した車両の現在位置をあらわすマークなどを重ね て表示することができる。車両の現在位置は、 CPU301によって算出される。
[0052] ディスプレイ 313としては、たとえば、 CRT, TFT液晶ディスプレイ、プラズマデイス プレイなどを用いることができる。ディスプレイ 313は、たとえば、車両のダッシュボー ド付近に設置される。ディスプレイ 313は、車両のダッシュボード付近のほ力、車両の 後部座席周辺などに設置するなどして、車両にぉ 、て複数設置されて 、てもよ 、。
[0053] 通信 IZF314は、無線を介してネットワークに接続され、ナビゲーシヨン装置 300と CPU301とのインターフェースとして機能する。通信 I/F314は、さらに、無線を介し てインターネットなどの通信網に接続され、この通信網と CPU301とのインターフエ一 スとしても機能する。
[0054] 通信網には、 LAN, WAN,公衆回線網や携帯電話網などがある。具体的には、 通信 IZF314は、たとえば、 FMチューナー、 VICS (Vehicle Information and Communication System) Zビーコンレシーノ 、無線ナビゲーシヨン装置、および その他のナビゲーシヨン装置によって構成され、 VICSセンター力も配信される渋滞 や交通規制などの道路交通情報を取得する。なお、 VICSは登録商標である。
[0055] GPSユニット 315は、 GPS衛星からの電波を受信し、車両の現在位置を示す情報 を出力する。 GPSユニット 315の出力情報は、後述する各種センサ 316の出力値とと もに、 CPU301による車両の現在位置の算出に際して利用される。現在位置を示す 情報は、たとえば緯度'経度、高度などの、地図データ上の 1点を特定する情報であ る。
[0056] 各種センサ 316は、車速センサ、加速度センサ、角速度センサなどの、車両の位置 や挙動を判断するための情報を出力する。各種センサ 316の出力値は、 CPU301 による車両の現在位置の算出や、速度や方位の変化量の算出に用いられる。
[0057] カメラ A317は、車両外部の映像を利用者の視野より広い範囲で撮影する。カメラ A 317は、常に撮影していてもよいし、案内ポイントから所定距離の地点に到着した場 合に案内ポイントに関する映像の撮影を開始してもよい。映像は静止画あるいは動 画のどちらでもよぐ撮影した映像を映像 I/F312を介して磁気ディスク 305ゃ光デ イスク 307などの記録媒体に出力してもよい。また、記録媒体に出力された映像は、 上書き記録や保存がおこなわれる。カメラ A317は、複数台設置されていてもよぐま た車両のフロントガラス上部などの高 、位置で、たとえば対向車線側に設置される。
[0058] カメラ B318は、利用者の視野に関する映像を撮影する。利用者の視野に関する映 像は、利用者の視野とほぼ同じ範囲の映像である。カメラ B318は、利用者の視野に 合わせて設置する。たとえば、利用者の座席シートの枕部分の端などに設置する。ま た、カメラ B318は、利用者の視線を感知する他のカメラなどによって利用者の視野 を確定し、これに応じてカメラ B318の位置や角度を変更するようにしてもよ!、。
[0059] 図 1に示した経路誘導装置 100が備える取得部 101、解析部 102、選択部 103、 作成部 104、判断部 105、出力部 106は、図 3に示したナビゲーシヨン装置 300にお ける ROM302、 RAM303、磁気ディスク 305、光ディスク 307などに記録されたプロ グラムやデータを用いて、 CPU301が所定のプログラムを実行し、ナビゲーシヨン装 置 300における各部を制御することによってその機能を実現する。
[0060] すなわち、実施例のナビゲーシヨン装置 300は、ナビゲーシヨン装置 300における 記録媒体としての ROM302に記録されている経路誘導プログラムを実行することに より、図 1に示した経路誘導装置が備える機能を、図 2に示した経路誘導処理手順で 実行することができる。
[0061] (ナビゲーシヨン装置 300の処理の内容)
つぎに、ナビゲーシヨン装置 300の処理の内容について説明する。図 4は、ナビゲ ーシヨン装置の処理の内容を示すフローチャートである。図 4のフローチャートにおい て、まず、 目的地点までの経路が探索されるまで待って (ステップ S401 : Noのルー プ)、 目的地点までの経路が探索された場合 (ステップ S401: Yes)、案内ポイントか ら所定距離の地点に到着するまで待つ(ステップ S402: Noのループ)。
[0062] ステップ S402にお 、て案内ポイントから所定距離の地点に到着した場合 (ステップ S402 : Yes)、カメラ A317から案内ポイントに関する映像情報を取得する (ステップ S 403)。そして、映像情報力も対向車両の挙動情報を解析し (ステップ S404)、誘導 対象となりうる車両があるか否かを判断する(ステップ S405)。ステップ S405におい ては、誘導対象となりうる車両は、映像解析プログラムによって挙動情報が解析され た車両である。
[0063] ステップ S405において、誘導対象となりうる車両がある場合 (ステップ S405 : Yes) 、誘導対象となりうる車両それぞれの外観的特徴を解析する (ステップ S406)。一方 、ステップ S405において誘導対象となりうる車両がない場合 (ステップ S405 :No)、 ステップ S403に戻り、以降の処理を繰り返す。
[0064] そして、外観的特徴に基づ!/、て誘導対象車両を選択し (ステップ S407)、案内情 報作成プログラムによって作成された予告誘導案内をおこなう(ステップ S408)。ステ ップ S407において、誘導対象車両は、誘導対象となりうる車両の中の外観的特徴が 特異な一の車両である。つぎに、カメラ B318が誘導対象車両を認識するまで待って (ステップ S409 :Noのループ)、カメラ B318が誘導対象車両を認識した場合 (ステツ プ S409: Yes)、誘導対象車両と自車との相対位置を取得する(ステップ S410)。
[0065] ステップ S410にお 、て取得した自車との相対位置が所定距離になった場合、案 内情報作成プログラムによって作成された誘導案内をおこなう(ステップ S411)。そし て、自車が目的地点に到着した力否かを判断して (ステップ S412)、 目的地点に到 着した場合 (ステップ S412 : Yes)、一連の処理を終了する。一方、ステップ S412に おいて目的地点に到着しない場合 (ステップ S412 :No)、ステップ S402に戻り、以 降の処理を繰り返す。
[0066] なお、図 4のフローチャートにおいては、ステップ S403においてカメラ A317から案 内ポイントに関する映像情報を取得するとしているが、これに限るものではない。たと えば、カメラ B318から案内ポイントに関する映像情報を取得してもよい。この場合、 利用者の視野に誘導対象車両がすでにあるとして、ステップ S408における予告案 内およびステップ S409におけるカメラ B318が誘導対象車両を認識した力否かの判 断は省略してもよい。
[0067] また、図 4のフローチャートにおいては、ステップ S405において誘導対象となりうる 車両がない場合に、ステップ S403に戻る構成としている力 これに限るものではない 。たとえば、誘導対象となりうる車両がない場合は、一連の処理を終了するようにして もよい。また、この場合、通常の地図データを用いた誘導案内に変更するようにしても よい。
[0068] また、図 4のフローチャートにおいては、ステップ S408において予告誘導案内をお こない、ステップ S411において誘導案内をおこなう構成としている力 これに限るも のではない。たとえば、通常の地図データを用いた誘導案内と切り替える力否かの意 思表示をさせるキーを表示して、いずれのキーが操作された力否かを判断することに よって、選択された誘導案内をおこなうようにしてもょ ヽ。
[0069] (案内ポイントの道路状況)
つぎに、図 4のステップ S407において誘導対象車両を選択する条件について説明 する。図 5は、案内ポイントの道路状況を図示した説明図である。図 5においては、案 内ポイント 500と、 自車両 501と、対向車両 A502と、対向車両 B503と、対向車両 C 504と、自車両前方の車両 505とが図示されている。案内ポイント 500は、 目的地点 までの経路の中における自車両 501が左折をおこなうべき交差点である。また、図 5 においては、自車両前方の車両 505によって、自車両 501の運転者からは、対向車 両 A502と、対向車両 B503と、対向車両 C504とは目視できな!、力 自車両 501に 搭載されたカメラ A317にお 、ては撮影して 、る。
[0070] 対向車両 A502は、右折をしょうと車線の右側に移動した車体の色が白色の車両 である。対向車両 B503は、左折の方向指示をおこなっている車体の色が赤色の車 両である。対向車両 C504は、速度を落とした車体の色が白色の車両である。したが つて、対向車両 A502と、対向車両 B503と、対向車両 C504とは右左折を予測させ る挙動情報が解析されるため、誘導対象となりうる車両である。
[0071] さらに、それぞれの対向車両の外観的特徴を考えると、対向車両 A502および対向 車両 C504の車体の色は白色で、対向車両 B503の車体の色は赤色である。したが つて、誘導対象車両には、車体の色が特異な対向車両 B503が選択される。また、図 5においては、自車両 501は、図 4のステップ S408における予告誘導案内がおこな われる。この場合、予告誘導案内の音声は、たとえば、「もうすぐ見える赤い車が曲が る方と反対に曲がってくださ 、」 t 、つた音声などである。
[0072] (所定時間経過後の案内ポイントの道路状況)
図 6は、所定時間経過後の案内ポイントの道路状況を図示した説明図である。図 6 においては、対向車両 A502は、すでに右折をおこなっており、対向車両 B503は、 左折中である。そして、図 6においては、自車両 501は、図 4のステップ S411におけ る誘導案内がおこなわれる。この場合、誘導案内の音声は、たとえば、「右前方 30度 方向に見える赤!、車が曲がった交差点を反対側に曲がってくださ!/、」 t 、つた音声な どである。
[0073] また、実施例のナビゲーシヨン装置 300によれば、対向車両を誘導対象として映像 情報の解析をおこなっているがこれに限ることなぐ同一車線車両を誘導対象として 映像情報の解析をおこなうようにしてもよい。たとえば、図 5を用いて説明すれば、自 車両 501の前方を走行している車両 505の挙動情報を映像情報力も解析して、誘導 案内情報を作成し、音声出力するようにしてもよい。
[0074] 上述したように、実施例のナビゲーシヨン装置 300によれば、未通過地点に関する 映像情報から解析された他の移動体に関する挙動情報を用いて移動体の未通過地 点に関する誘導案内情報を作成することができる。したがって、表示画面上に地図 データを表示しなくても、音声案内によって経路誘導することができる。これによつて 、利用者は、地図上で目印のわかりにくい交差点などに差し掛カつた場合に、他の 移動体の挙動情報を用いた音声案内によって経路誘導させることができる。
[0075] また、実施例のナビゲーシヨン装置 300によれば、未通過地点に関する映像情報 力 解析された他の移動体の外観的特徴および挙動情報を用いて誘導案内情報を 作成することができる。これによつて、利用者は、誘導案内情報に用いられる移動体 を把握することができる。
[0076] また、実施例のナビゲーシヨン装置 300によれば、選択部 103によって選択された 外観的特徴が特異な一の移動体に関する外観的特徴および挙動情報を用いて誘 導案内情報を作成することができる。これによつて、利用者は、誘導案内情報に用い られる移動体を確実に把握することができる。
[0077] また、実施例のナビゲーシヨン装置 300によれば、利用者の視野に関する映像情 報に一の移動体が存在すると判断された場合に、誘導案内情報を出力することがで きる。これによつて、利用者は、確実に視野に入っている一の移動体を用いた経路誘 導をさせることができる。
[0078] 以上説明したように、本発明の経路誘導装置、経路誘導方法、経路誘導プログラム 、および記録媒体によれば、ナビゲーシヨン装置 300において案内ポイントに関する 映像情報の中から他の移動体の挙動情報を解析して、誘導案内情報を作成すること ができる。これによつて、利用者は、地図上で目印のわかりにくい交差点などにおい ても他の移動体の挙動情報を用いた音声案内によって経路誘導させることができる。
[0079] なお、本実施の形態で説明した経路誘導方法は、あらかじめ用意されたプログラム をパーソナル 'コンピュータやワークステーションなどのコンピュータで実行することに より実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、 CD-ROM, MO、 DVDなどのコンピュータで読み取り可能な記録媒体に記録され 、コンピュータによって記録媒体力も読み出されることによって実行される。またこの プログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒 体であってもよい。

Claims

請求の範囲
[1] 移動体の目的地点までの経路の中の未通過地点に関する映像情報を取得する取 得手段と、
前記取得手段によって取得された映像情報力 他の移動体に関する挙動情報を 解析する解析手段と、
前記解析手段によって解析された他の移動体に関する挙動情報を用いて前記移 動体の前記未通過地点に関する誘導案内情報を作成する作成手段と、
前記作成手段によって作成された誘導案内情報を出力する出力手段と、 を備えることを特徴とする経路誘導装置。
[2] 前記解析手段は、さらに前記映像情報から前記他の移動体に関する外観的特徴 を解析し、
前記作成手段は、前記解析手段によって解析された前記他の移動体に関する外 観的特徴および前記挙動情報を用いて前記誘導案内情報を作成することを特徴と する請求項 1に記載の経路誘導装置。
[3] 前記他の移動体の中から前記外観的特徴が特異な一の移動体を選択する選択手 段を備え、
前記作成手段は、前記選択手段によって選択された一の移動体に関する外観的 特徴および前記挙動情報を用いて前記誘導案内情報を作成することを特徴とする請 求項 2に記載の経路誘導装置。
[4] 前記取得手段によって取得された映像情報に一の移動体が存在する力否力判断 する判断手段を備え、
前記取得手段は、前記移動体の利用者の視野に関する映像情報を取得し、 前記出力手段は、前記判断手段によって前記映像情報に前記一の移動体が存在 すると判断された場合に、前記誘導案内情報を出力することを特徴とする請求項 3に 記載の経路誘導装置。
[5] 移動体の目的地点までの経路の中で未通過地点周辺を撮影した映像情報を取得 する取得工程と、
前記取得工程によって取得された映像情報から他の移動体の挙動情報を解析す る解析工程と、
前記解析工程によって解析された他の移動体の挙動情報を用いて前記移動体の 前記未通過地点に関する誘導案内情報を作成する作成工程と、
前記作成工程によって作成された誘導案内情報を出力する出力工程と、 を含むことを特徴とする経路誘導方法。
[6] 請求項 5に記載の経路誘導方法をコンピュータに実行させることを特徴とする経路 誘導プログラム。
[7] 請求項 6に記載の経路誘導プログラムを記録したことを特徴とするコンピュータに読 み取り可能な記録媒体。
PCT/JP2007/058315 2006-04-19 2007-04-17 経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体 WO2007123104A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-115558 2006-04-19
JP2006115558 2006-04-19

Publications (1)

Publication Number Publication Date
WO2007123104A1 true WO2007123104A1 (ja) 2007-11-01

Family

ID=38625004

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/058315 WO2007123104A1 (ja) 2006-04-19 2007-04-17 経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体

Country Status (1)

Country Link
WO (1) WO2007123104A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103471581A (zh) * 2012-06-06 2013-12-25 三星电子株式会社 用于实时提供显示关注区域的3d地图的设备和方法
JP2020030134A (ja) * 2018-08-23 2020-02-27 Zホールディングス株式会社 情報処理装置、情報処理方法、及び情報処理プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005069800A (ja) * 2003-08-22 2005-03-17 Denso Corp 車両用表示装置
JP2005207999A (ja) * 2004-01-26 2005-08-04 Alpine Electronics Inc ナビゲーション装置及び交差点案内方法
JP2005343351A (ja) * 2004-06-04 2005-12-15 Olympus Corp 運転支援装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005069800A (ja) * 2003-08-22 2005-03-17 Denso Corp 車両用表示装置
JP2005207999A (ja) * 2004-01-26 2005-08-04 Alpine Electronics Inc ナビゲーション装置及び交差点案内方法
JP2005343351A (ja) * 2004-06-04 2005-12-15 Olympus Corp 運転支援装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103471581A (zh) * 2012-06-06 2013-12-25 三星电子株式会社 用于实时提供显示关注区域的3d地图的设备和方法
JP2020030134A (ja) * 2018-08-23 2020-02-27 Zホールディングス株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP7093268B2 (ja) 2018-08-23 2022-06-29 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム

Similar Documents

Publication Publication Date Title
JP4886044B2 (ja) ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラム、および記録媒体
US11118934B2 (en) Method and system of route guidance for a towing vehicle
WO2007122927A1 (ja) 位置登録装置、位置登録方法、位置登録プログラムおよび記録媒体
WO2007102406A1 (ja) 経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体
JPWO2008099483A1 (ja) 表示制御装置、表示制御方法、表示制御プログラムおよび記録媒体
WO2008041283A1 (fr) Dispositif de guidage sur iitinéraire, procédé d'enregistrement d'information, procédé de guidage sur itinéraire, programme d'enregistrement d'information, programme de guidage sur itinéraire et support d'enregistrement
JP4619442B2 (ja) 画像表示装置、表示制御方法、表示制御プログラムおよび記録媒体
WO2007148698A1 (ja) 通信端末装置、通信方法、通信プログラム、および記録媒体
WO2008053533A1 (fr) Dispositif, procédé, programme d'affichage de carte et support d'enregistrement
WO2007088915A1 (ja) 経路誘導装置、経路誘導方法、経路誘導プログラムおよび記録媒体
JP2007263755A (ja) 通信装置、通信中継装置、通信方法、通信プログラムおよび記録媒体
WO2007123104A1 (ja) 経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体
JP2009288179A (ja) 情報案内装置、情報案内方法、情報案内プログラムおよび記録媒体
WO2008056401A1 (fr) Dispositif d'affichage de carte, procédé d'affichage de carte, programme d'affichage de carte et support d'enregistrement
JP2008107223A (ja) 経路誘導装置、経路誘導方法、経路誘導プログラムおよび記録媒体
JP2005321268A (ja) ナビゲーション装置
WO2008041338A1 (fr) Dispositif d'affichage d'image, procédé d'affichage d'image, programme d'affichage d'image et support d'enregistrement
WO2007145257A1 (ja) 表示装置、表示方法、表示プログラムおよびコンピュータに読み取り可能な記録媒体
JP2008249655A (ja) ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラム、および記録媒体
JP4348397B2 (ja) 情報表示装置、情報表示方法、情報表示プログラムおよび記録媒体
JP2008160447A (ja) 放送番組受信装置、放送番組受信計画装置、放送番組受信方法、放送番組受信計画方法、プログラム、および記録媒体
JP2008157760A (ja) 地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体
JP4707092B2 (ja) デモ走行表示方法及びナビゲーション装置
JP4359333B2 (ja) 経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体
JP4603621B2 (ja) 経路誘導装置、経路誘導方法、経路誘導プログラムおよび記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07741751

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07741751

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP