WO2002023128A1 - Systeme de guide de trajets - Google Patents

Systeme de guide de trajets Download PDF

Info

Publication number
WO2002023128A1
WO2002023128A1 PCT/JP2001/007845 JP0107845W WO0223128A1 WO 2002023128 A1 WO2002023128 A1 WO 2002023128A1 JP 0107845 W JP0107845 W JP 0107845W WO 0223128 A1 WO0223128 A1 WO 0223128A1
Authority
WO
WIPO (PCT)
Prior art keywords
route
guidance
visible
user
polygon
Prior art date
Application number
PCT/JP2001/007845
Other languages
English (en)
French (fr)
Inventor
Takanori Shimada
Yoshiyuki Furukawa
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to EP01963565A priority Critical patent/EP1318379A1/en
Priority to JP2002527728A priority patent/JPWO2002023128A1/ja
Priority to US10/333,677 priority patent/US20090201176A1/en
Publication of WO2002023128A1 publication Critical patent/WO2002023128A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations

Definitions

  • the present invention provides landmark information and route information for the next direction when a traveler moves through a building or the like, to a user who does not become unnatural in a square and is not good at reading a map.
  • the present invention also relates to a device and a system for supporting the movement of a mobile person by providing the image by using an image or the like. Also, the present invention relates to a visible region calculating device and a program required for extracting a landmark for supporting movement of a moving person.
  • the invention disclosed in Japanese Patent Application Laid-Open No. 8-190688 provides pedestrians on the premises with appropriate guidance information for pedestrians who have difficulty obtaining guidance information for their location or destination.
  • the user uses an information reader to read the information of the radio wave reaction device embedded in the premises. The information is fixed, but the information is output according to the user information set in the user information setting section Changes. Also, a pedestrian guidance device can be provided at low cost.
  • Japanese Patent Application Laid-Open No. 11-276516 provides information such as a route mark to a destination to a visually impaired person through a portable terminal by voice input / output in a station premises, The tag detects the position of the visually impaired and guides the visually impaired more safely and accurately.
  • the conventional technology cannot solve the following problems.
  • the existing technology indicates the direction of movement at an intersection based on route data, such as "turn right at intersection". However, it is simpler to provide route guidance based on landmarks when crossing diagonally in a plaza such as an atrium, a stairwell, or a concourse on the premises.However, existing technologies follow the route data on a map. For example, it is a guide like going around the edge of a square.
  • a system that guides a route in consideration of what is in the field of view includes, for example, "turn right at the next intersection” in a car navigation system as shown in Japanese Patent Application Laid-Open No. 9-167297 "Intersection guidance device".
  • Information about intersections When guiding, the guided intersection may not be visible from the current location. In this case, it is calculated whether or not the view from the current location to the guided intersection is obstructed, and guidance is issued when the vehicle advances to a point where the view is no longer obstructed.
  • the algorithm for calculating the visible region when there are multiple polygons is described in “Computational Geometry and Geographic Information Processing” (Second Edition). Given a set of ⁇ line segments and a viewpoint that do not intersect with each other, let ⁇ denote the total number of sides of all polygons by a plane scanning method that makes a half-line from the viewpoint turn around. There is a method of calculating with the trouble of (nl ogn). The processing outline is shown below. In this process, the visible castle is calculated while obtaining the set of line segments S 0 , S 2 ,.
  • the end points constituting each line segment are arranged in the order of declination.
  • the declination is the angle formed by the half line 1 from the viewpoint indicating the reference direction and the half line drawn from the viewpoint to the end point of the line segment.
  • L be the result of arranging the end points of the line segments in order of declination, and let N be the number of elements in L.
  • the end points of each line segment are ordered in a counterclockwise direction with the viewpoint at the center, and the start point and the end point, respectively. It is assumed that the elements of L can be extracted in the order in which they are arranged from the natural number 0.
  • a set S 0 of the first line segment intersecting with the half line 1 from the viewpoint indicating the reference direction is obtained.
  • the intersection with the line segment closest to the viewpoint is stored as the starting point Ps of the visible polygon.
  • the element is the end point of the line segment, so a line segment is drawn from the start point Ps of the visible polygon to the point Pc of the element. Further, a point P x at which a half line from the viewpoint passing through the element Pc intersects with a line segment that is the second element from the top of Si is obtained, and a line segment is drawn from Pc to P x , and P x is set to Ps.
  • the element is the starting point of the line segment, so the point P x at which the half-line from the viewpoint passing through the key point Pc intersects with the line element that is the first element of Si is determined. from pull the line up to P x, a. Pc draw a line segment from P x to Pc and Ps.
  • the element is the end point of the line segment, so a line segment is drawn from Ps to the point Pc of the element. Let Pc be Ps.
  • the present invention solves this problem, and forms a visible area faster than before even when there is an obstacle that blocks the view in the square, and when the user moves on the route based on the formed visible area, It provides visible landmarks, a. Visible area calculation means for calculating the area that can be seen by the mover in the square even if there is an obstacle '' b. From the starting point to the destination Route search means for searching for a route
  • Guidance sentence generation means for generating route guidance sentence
  • Guide map generation means for generating a map used for route guidance
  • Signpost extracting means for extracting a signpost to be guided from the above visible area
  • g .Position determining means for converting position information obtained from the position detecting means into coordinates on a map
  • An object of the present invention is to provide a route guidance system provided with the above a to k.
  • the present invention provides position determination means for detecting a current position of a user, visible area calculation means for calculating a range visible to the user from the detected current position, and route search means for searching for a route from a departure place to a destination.
  • a traveling direction calculating means for calculating a traveling direction from the visible area and the route, a signpost extracting means for extracting a guide to be guided from the visible area, and a route guidance sentence generating means for generating a route guidance sentence of the obtained route.
  • Image data search means for searching binary image data or illustration image data designated to guide a point passing through the route, and a passing point
  • a guide sentence synthesizing means for synthesizing a guide sentence for guiding a user. It is composed of route guidance means 1 that provides route guidance each time it is detected, route guidance means 2 that provides route guidance by key operation by the user, and position estimation means that estimates the position of the user if the tag cannot be read. It is characterized by being performed.
  • an area that can be seen by the user is calculated from the position information of the user, Enables route guidance that guides signposts regardless of how the route data is formed on the database, and estimates the position even if the position detection means misses the tag, or operates the user key This allows the route plan to be performed without interruption.
  • the present invention provides a visible area calculating means for calculating a range visible to the user, a target extracting means for extracting a target to be guided from the visible area, and a route searching means for searching for a route from the departure point to the destination.
  • Route information generating means comprising: a guide map generating means for generating a guide map; a guide text generating means for generating a guide text; and a mobile phone which obtains current position information and carries appropriate guide information.
  • a route guidance device composed of route guidance means to be sent to the terminal, position determination means for performing coordinate conversion of information from the user's position detection device, and a terminal provided with a user interface for displaying images or route guidance text.
  • a position detection device that acquires the user's current location information, a map database that stores route-related data and landmark information, and stores basic data for generating guidance texts.
  • Uchibun database and consists of a route information database that stores a draft in the data output from the path information generating means.
  • route information that is easy for the user to understand can be provided.
  • the visible range of the outermost part of the visible region is calculated, and then the visible region is calculated in the order in which the lines constituting the obstacle are rearranged by declination.
  • An area calculator is provided.
  • the visible region can be calculated more efficiently than in the conventional planar operation method, whereby the route guidance processing can be performed more efficiently.
  • FIG. 1 is a configuration diagram of the route guidance system of the present invention.
  • FIG. 2 is a system configuration diagram of the route guidance means 1.
  • FIG. 3 is a configuration diagram of the portable terminal device.
  • FIG. 4 is an entire premises view used in the second embodiment.
  • FIG. 5 is a flowchart of the route guidance means 1.
  • FIG. 6 is a view of a visible polygon used in the first embodiment.
  • FIG. 7 is a diagram in which a visible polygon and a route are overlapped near the destination used in the first embodiment.
  • FIG. 8 is a system configuration diagram of the route guidance means 2.
  • FIG. 9 is a flowchart of the route guidance means 2.
  • FIG. 10 is a diagram in which a visible polygon is calculated from E in the floor plan used in the second embodiment.
  • FIG. 11 is a diagram of the binary image at the point U in FIG.
  • FIG. 12 is a diagram of the binary image at the point Q in FIG.
  • FIG. 13 is a diagram of the binary image at the point R in FIG.
  • FIG. 14 is a diagram of the binary image at the point S in FIG.
  • FIG. 15 is a diagram of the binary image at the point T in FIG.
  • FIG. 16 is a system configuration diagram of the route guidance means 3.
  • Figure 17 is a flow chart of Route Planning Means 3.
  • FIG. 18 is a flowchart of the top map generating means 1.
  • FIG. 19 is a diagram illustrating an example of the display screen size of the mobile terminal used in the third embodiment.
  • FIG. 20 is a diagram of the entire premises used in the third embodiment.
  • FIG. 21 is a flowchart of the top map generating means 2.
  • FIG. 22 is a diagram in which the entire premises used in the third embodiment is cut to the display screen size of the mobile terminal.
  • FIG. 23 is a diagram of an illustration image at the point U in FIG.
  • FIG. 24 is a diagram of the illustration of the illustration at the point Q in FIG.
  • FIG. 25 is a diagram of an illustration image at the point R in FIG.
  • FIG. 26 is a diagram of an illustration image at the point S in FIG.
  • FIG. 27 is a diagram of an illustration of an illustration at a point T in FIG.
  • FIG. 28 is a flowchart of the route guidance means 1.
  • FIG. 29 is a diagram illustrating an example of a route used in the sixth embodiment and a frame diagram divided along the route.
  • FIG. 30 is a flowchart of the route guidance unit 2.
  • FIG. 31 is an example of a table in which tags, coordinate data, and tag IDs are stored in association with each other.
  • FIG. 32 is an example of a table in which destinations and coordinate data are stored in association with each other.
  • FIG. 33 is a diagram showing an example of a guidance sentence.
  • FIG. 34 is a diagram showing an example of a route guidance sentence.
  • FIG. 35 is an example of guide landmark data.
  • FIG. 36 is an example of guide landmark data.
  • FIG. 37 is an example of a table in which the passing order of the nodes, the binary image data, and the last image data are stored in association with each other.
  • FIG. 38 is an example of a table in which the passage order of the nodes and the guidance text data are stored in association with each other.
  • FIG. 39 is an example of a frame-path element sequence correspondence table.
  • FIG. 40 is an example of a tag-node-facility correspondence table.
  • FIG. 41 is an example of the frame-to-path element sequence correspondence table.
  • FIG. 42 is a diagram showing an example of a guidance sentence.
  • Figure 43 shows the terminal ID, the terminal status, the ID of the displayed frame map, the ID of the guide text, the ID of the tag picked up immediately before, the element column of the route, the column of the ID of the frame diagram, and the proposal. It is an example figure of the table which stores the column of ID of the inner sentence.
  • Figure 44 is an example of a table that stores the terminal ID, terminal status, tag column, guidance text ID, and route element guidance text ID column.
  • FIG. 45 is a diagram showing an example of the guidance sentence data.
  • FIG. 46 is a functional block diagram of the route guidance device according to the seventh embodiment.
  • FIG. 47 is an example of a table in which a departure place and an end place are stored in association with each other.
  • FIG. 48 is an example of a table in which positions and their coordinates are stored in association with each other.
  • Fig. 49 is an example of a table that stores landmarks in association with their coordinates.
  • FIG. 50 is a functional block diagram of the route guidance device according to the eighth embodiment.
  • FIG. 51 is an example of a table in which passing points and image data are stored in association with each other.
  • FIG. 52 is an example of a table in which passing points and guidance text data are stored in association with each other.
  • FIG. 53 is a functional block diagram of the route guidance device according to the ninth and tenth embodiments.
  • FIG. 54 is a flowchart for explaining processing of the route guidance device in the ninth embodiment.
  • FIG. 55 is a flowchart illustrating a process of generating a guidance sentence by the draft sentence generation unit according to Embodiment 13.
  • FIG. 56 is a flowchart for explaining the processing of the route guidance device according to Embodiment 14.
  • FIG. 57 is a diagram illustrating a part of a functional block diagram of the route guidance device according to Embodiment 15.
  • FIG. 58 is a flowchart for explaining the process of the guidance sentence generating means in the fifteenth embodiment.
  • FIG. 59 is a flowchart illustrating operations of the position determining means, the user request obtaining means, and the route guiding means according to Embodiment 17.
  • FIG. 60 is a functional block diagram of the route guidance device in the seventeenth embodiment.
  • FIG. 61 is a flowchart illustrating the operation of the visible region calculating apparatus according to Embodiment 18.
  • FIG. 62 is a functional block diagram of the visible castle area calculator in the nineteenth embodiment.
  • FIG. 63 is a flowchart illustrating the operation of the visible region calculator in the nineteenth embodiment.
  • FIG. 64 is a flowchart illustrating an operation when the visible region calculator in Embodiment 19 calculates a temporary visible region.
  • FIG. 65 is an example diagram showing a relationship between the temporary visible region and a half line drawn from the viewpoint.
  • FIG. 66 is an example diagram showing a relationship between a visible region and a ray drawn from the viewpoint.
  • FIG. 67 is a flowchart for explaining the operation of the visible region calculator in the nineteenth embodiment.
  • FIG. 68 is an example diagram showing a relationship between a visible polygonal line and a temporary visible polygon.
  • FIG. 69 is an example diagram showing the relationship between the visible polygonal line and the temporary visible polygon.
  • FIG. 70 is a functional block diagram of the path information generator according to Embodiment 20.
  • FIG. 71 is a flowchart for explaining the processing of the route information generator in the twenty-second embodiment.
  • FIG. 72 is a functional block diagram of the route guidance system according to Embodiment 21.
  • FIG. 73 is a flowchart illustrating the operation of the route guidance system according to Embodiment 21.
  • FIG. 74 is a flowchart for describing processing of the route guider in the twenty-second embodiment.
  • FIG. 75 is a functional block diagram of the route guidance system according to Embodiment 23.
  • FIG. 76 is an example diagram illustrating a state in which a departure place, a destination, and a route are associated with each other and stored in the route information database.
  • FIG. 77 is an example of a table in which the route, the map, and the guidance text are stored in association with each other.
  • FIG. 78 is a functional block diagram of the route guidance system according to the twenty-fourth embodiment.
  • FIG. 79 is a view for explaining the deflection angle of the end point of the line segment.
  • FIG. 80 is a block diagram showing a configuration example of the route guidance system according to Embodiment 25.
  • FIG. 81 is a block diagram of the route information generating means according to Embodiment 25.
  • FIG. 82 is a block diagram of the route guidance means according to Embodiment 25.
  • FIG. 83 is a flowchart illustrating processing of the route information generating unit according to Embodiment 25.
  • FIG. 84 is a flowchart for explaining the processing of the route guidance means in the embodiment 26. It is a chart.
  • Figure 85 is an example of a map showing the user's current location and the route to go.
  • Figure 86 shows an example of a map showing the user's visible area at the departure place.
  • FIG. 87 is an example of a map showing a visible area when the user moves and reaches a corner.
  • FIG. 88 is an example of a map showing the visible area after the user has moved.
  • FIG. 89 shows an example of a floor plan used in the twenty-fifth embodiment.
  • FIG. 90 is a view of the visible region obtained at point a used in the twenty-fifth embodiment. '
  • FIG. 91 is a diagram of the visible region obtained at the point b used in the embodiment 25.
  • FIG. 92 is a view of the visible region obtained at the point c used in the twenty-fifth embodiment.
  • FIG. 93 is a guidance map used in Embodiment 25 and Embodiment 26 and generated in Embodiment 25.
  • FIG. 93 is a guidance map used in Embodiment 25 and Embodiment 26 and generated in Embodiment 25.
  • FIG. 94 is a guidance map used in Embodiment 25 and Embodiment 26 and generated in Embodiment 25.
  • FIG. 94 is a guidance map used in Embodiment 25 and Embodiment 26 and generated in Embodiment 25.
  • FIG. 95 is a guide map displayed on the terminal used in the twenty-sixth embodiment.
  • FIG. 96 is a guide map displayed on the terminal used in the twenty-sixth embodiment.
  • FIG. 97 is a guide map displayed on the terminal used in the twenty-sixth embodiment.
  • FIG. 98 is a view showing an example of viewpoints and line segments for explaining an example of the conventional plane scanning method.
  • FIG. 1 is a block diagram showing a configuration example of a premises route guidance system according to the present invention.
  • the premises route guidance system includes a position detection device 20 for notifying a user's position, and position detection information and user information from the position detection device 20.
  • a portable terminal device 30 that transmits images to the device 10 and displays images of routes or landmarks, a map database (hereinafter referred to as DB40) that stores map data, and a station based on the direction of the track.
  • DB40 map database
  • Guidance text DB60 that stores the guidance text of the route indicated to provide route guidance
  • illustration image DB80 that stores the last image of the guidance point
  • binary data that stores the binary image of the guidance point
  • the position detection device 20 transmits the position coordinates of the user.
  • the mobile terminal shown in FIG. 3 is equipped with user information 33, position detection (tag) reading means 31, route data reading means 32, image data display means 34, and image data decompression means 35. And display or read out the image or text data processed by the route guidance device on the portable terminal.
  • the on-premise route guidance device 10 receives a location determination means 11 for determining where the user is located on the premise from the location information and the characteristics of the user such as a visually impaired person / a hearing impaired person and a healthy person to search for a route.
  • Output means such as outputting a binary image or an illust image for a monochrome terminal or a power image for a power terminal, based on the type of terminal used.
  • User to decide The route determination means 12, the voice utterance means 13 for uttering the output route guidance sentence, the route guidance means 1 (14), the route guidance means 2 (16), the route guidance means 3 (17), and the route It is composed of route guidance means 1 (18) for guiding and route guidance means 2 (19).
  • FIG. 2A is a block diagram of the route guidance unit 1 of the route guidance device ⁇ , and includes a visible polygon calculation unit 142 as an example of a visible region calculation unit that calculates a range visible from the current position.
  • Route search means 141 for searching for a route to the destination, traveling direction calculating means 143 for calculating which direction the route is traveling from the current location, and a signpost for extracting a sign indicating the traveling direction It comprises extraction means 144 and route guidance sentence generation means 145 for generating a route guidance sentence.
  • FIG. 2 (b) is a block diagram of the route guidance means 1 (18) in the route guidance device.
  • the location detection device (20) detects tag information, and receives the location information to route to the user.
  • a mobile terminal device (30) for providing information; a position determining means 11 for determining the current position from a tag; a route searching means (170) for performing a route search; route data 24 for storing route search results;
  • Image data synthesizing means 181 for synthesizing the image data of the top view used in the drawing, guidance sentence synthesizing means 183 for synthesizing the proposed sentence corresponding to each top view, and guidance provided to the user every time a tag is detected.
  • Synthesized with stored frame image DB95 It comprises a guide image DB90 for storing guide images, a guide sentence DB60 for storing guide sentences and a guide sentence generation rule for generating guide sentences, a tag-coma diagram correspondence table 45, and a tag-to-guide notice correspondence table 44.
  • FIG. 2 (c) is a block diagram of the route guidance means 2 (19) in the route guidance device.
  • the position detection device (20) detects tag information and receives position information.
  • a mobile terminal device (30) that provides route information to the user, a position determination unit 11 that determines the position of the tag, a route search unit (170) that performs a route search, and a guidance message corresponding to the tag.
  • FIG. 7 is a block diagram of the route guidance means 1 (18) in the route guidance device.
  • the portable terminal device (30) detects tag information, and the position determination means 11 determines the current location from the tag.
  • An image data search unit 181 that searches for data of a top view corresponding to the current location, and a guide sentence synthesis unit 183 that synthesizes a guide sentence corresponding to each top view.
  • FIG. 8 is a block diagram of the route guidance means 2 (19) in the route guidance apparatus.
  • the portable terminal device (30) detects tag information and the position determination means 11 determines the position of the tag.
  • the route guidance means 1 will be described based on an example.
  • the building passes from A to B as shown by the solid arrow in the premises shown in Fig. 4.
  • route data is drawn inside the premises as shown by the broken lines.
  • the user loses his way at point A, and calls the system using the mobile terminal 30.
  • the user inputs the destination B through the user interface of the mobile terminal 30: Ace.
  • the portable terminal Pa reads the ID in the Ta from the position detection Ta, and transmits the tag ID, the PM type terminal, and the data that the destination is B to the route guidance device 10 to the route guidance device.
  • the position determination means 11 outputs the user's position A (15, 23) in the premises (step 51), and the route search means 141 sets the current location A as a variable Entranc e (step 52). ), Search the route from the current location A and the destination B, and output the route the user is going to take (step 53).
  • the visible polygon calculation means 142 uses the information of the current point A to calculate the area of the premises visible from A shown by the shaded area in FIG. 6 (step 54).
  • the traveling direction calculating means 143 superimposes the visible polygon and the route, calculates an intersection between them, and finds an intersection D of the destination (step 55).
  • the vector AD indicated by the dashed arrow in FIG. 6 is the direction in which the user travels.
  • the vector with the smallest angle in the visible polygon and the vector connecting the tag and the target (the double-headed arrow in Fig. 6) is extracted as the signpost.
  • Ld in Fig. 6 is used as a guide mark, and the angle “0” formed by the two-line arrow vector and the traveling direction up to just before is separated by 45 ° steps, and the corresponding sentence “front left” is registered (step 57).
  • the entity of the variable Ex it is made the entity of the new entry (Step 58), and the process returns to Step 54.
  • the visible polygon is as shown by the shaded area in Fig. 7. Since the destination has a mark B, the destination B is set to Ex it (step 59). ). Register the destination B and the direction of the destination "forward" as guidance landmarks (step 60).
  • the route guidance sentence generation means 145 when all the registered landmarks are reached and the destination is a destination, the template is "Y of X is the destination.” Otherwise, the template of "Walk to Y of X.” Then, the direction is set to X, the guide mark is set to Y, and the guide mark data shown in Fig. 35 and Fig. 36 are inserted to generate the guide text shown in Fig. 33 (step 61).
  • Figure 34 shows the route guidance sentence depending on the route network in this example.
  • the area that can be seen by the user is calculated from the user's location information, and It is possible to provide route guidance that guides signposts regardless of whether they are formed like this.
  • FIG. 8 is a block diagram showing an example of the configuration of the route guidance means 2 according to the present invention.
  • the map DB 40 stores route data for searching for a route on a premises, and a route search for searching a route on a premises.
  • Image data retrieval means 171 for searching for an image of a guidance point by using a guidance text DB60 for storing guidance text
  • guidance text generation means 173 for generating a guidance text from the guidance text DB based on the route search result.
  • a visible polygon calculating means 174 as an example of a visible area calculating means for calculating a range visible from the current position; and a traveling direction calculating means 175 for calculating which direction the traveling direction of the route is from the current location. , Marking the direction of travel
  • the processing will be described along an embodiment of a composed c route guidance means 2 from signpost extracting detecting means 176 Metropolitan in Furochiya one preparative route guidance means 2 shown in FIG. 9 is extracted to.
  • the route guidance means 2 when the route search means 170 is activated (step 90), the departure place E, the destination F and the parameters of the output map are inputted (step 91). The route search is executed, and nodes E, U, Q, R, S, T, and F are output as the route search results (step 92).
  • the visible polygons are obtained in the order of the routes, and the guide points u, q, r, s, t are obtained. Ask for. Figure 10 shows the figure in which the visible polygon was calculated from E and the guidance point u was obtained. (Step 93—Step 98).
  • the route guidance point of the node train EUQRSTF is 7, so the route guidance point is smaller than n (step 99).
  • Node passing order and binary values shown in Fig. 37 With reference to the image data comparison table, the binary image specified by the parameter is searched from the binary image DB and arranged in the order of the route search result (step 101).
  • the route guidance point is larger than n, the order of the nodes shown in Figure 37 and the illustration image data comparison table are used to blast the parameter-designated illustration image. Search from the image DB and arrange them in the order of the route search results (step 102).
  • a guidance sentence is added to the image by referring to the passage order of the nodes and the guidance sentence data comparison table shown in FIG.
  • step 103 The images and proposals shown in FIGS. 11 to 15 are sequentially output to the mobile terminal 30 (step 104), and in the case of the last image, the image data decompression means (35) shown in FIG. After decompressing the image data of FIG. 23 to FIG. 27 (step 105), the process ends (step 106).
  • the invention described in the second embodiment is to provide route guidance by using image data in which a guide point is added to a binary image or an illust image in the direction in which the user travels in route guidance within a premises.
  • maps can provide easy-to-understand route guidance even for users whose route is difficult to understand.
  • FIG. 16 is a block diagram showing an example of the configuration of the route guidance means 2 according to the present invention.
  • the map DB 40 stores route data for searching for a route on the premises, and a route for searching for a route on the premises.
  • Search means 161 top map generation means 1 for generating top map by matching connection points of routes in each top map, guidance text DB60 for storing proposed text, guidance based on route search results
  • a guidance sentence generating means 163 for generating a guidance sentence from the sentence DB.
  • route planning means 2 An example of the route planning means 2 will be described with reference to the flowchart of the route guide means 2 shown in FIG. 17 and the flowchart of the frame map generating means 162 shown in FIG.
  • the route guidance means 3 when the route search means 3 is activated (3000), the parameters of the departure point E, the destination F and the output image are inputted (step (P. 171).
  • the route search is executed, and node trains E, U, Q, R, S, T, and F are output as the route search results (step 172).
  • the top map generating means 162 is activated according to the parameters of the input output image (step 173).
  • the top map generating means 162 first calculates a circumscribed rectangle of the route (step 174).
  • the circumscribed rectangle is expanded to an integral multiple of the aspect ratio of the mobile terminal screen (step 175). Cut out the circumscribed rectangle into frames, and discard frames that do not include a route (step 183). Frames are output in the order of 1-4 routes. (See Fig. 20.)
  • the map of the entire premises shown in Fig. 20 does not overlap along the route according to the screen size of the display screen of the mobile terminal shown in Fig. 19, and the boundary of each map
  • the paths of Fig. 1 to Fig. 4 are frame diagrams of 1-4.
  • the guidance text is added to the image by referring to the passing order of the nodes and the guidance text data comparison table shown in Fig. 38 (step 175).
  • the image and the guidance message are output to the mobile terminal 30 in the order of the route search, and the processing ends (steps 176 and 177).
  • the display direction of the frame diagram in the route plan is matched with the direction of the track, and the connection point of the route between each map is displayed so as to match.
  • FIG. 16 is a block diagram showing an example of the configuration of the route guidance means 2 according to the present invention.
  • the map DB 40 stores route data for searching for premises routes, and the route for searching for premises routes.
  • It comprises a guidance sentence DB60 for storing guidance sentences, and guidance sentence generating means 163 for generating a guidance sentence from the guidance sentence DB based on the route search result.
  • An embodiment of the route guidance means 3 is shown in FIG. The processing will be described along the flowchart of the top map generating means 2 shown in FIG.
  • the route guidance means 3 when the route search means 3 is activated (step 170), the parameters of the departure point E, the destination F and the output image are inputted (step 171).
  • the route search is executed, and the node sequences E, U, Q, R, S, T, and F are output as the route search results (step 172).
  • the frame map generating means 164 is activated according to the parameters of the input output image (step 174).
  • the nodes E, U, Q, R, S, T, and F on the route that have a distance L (for example, 10 m) or more from each other are selected (step 211).
  • the nodes E, U, Q, R, S, T, and F are placed at the center of the top map immediately, as shown by the dashed line along the route in the entire campus diagram shown in Fig. 22. Cut out the frame as shown in Step 5 (Step 2 12).
  • the coma diagram is arranged in the order of each node E, U, Q, R, S, T, F (step 213).
  • the guidance text is added to the image by referring to the passing order of the nodes and the guidance text data comparison table shown in Fig. 38 (step 175).
  • the image and the guidance message are output to the portable terminal 30 in the order of the route search, and the process ends (step 177).
  • the display direction of the frame diagram in the route plan is made to coincide with the direction of the track, and the route guidance such as a mark or a route node is provided in each frame map.
  • route guidance can be provided by an easy-to-view frame map.
  • route guidance means 1 When the user activates the route guidance means 1 (18) (1800), the departure place automatically detected by the position detecting device 20 is converted into coordinates on the map data by the position determination means 11. Then, the destination input by the user is determined. It is converted to coordinates on map data by means 11. The converted coordinates of the departure point and the destination are input to the route search means 170 to perform a route search, and nodes and facilities on the route are output in order of the route (1810). The columns of the nodes and facilities output in the example of Fig. 2 (b) are shown below. m: landmark, t: tag, n: node.
  • the image data synthesizing means 181 examines the element-frame map correspondence table shown in Table 16 in the map DB 40 as to which frame each node and facility belongs to, and searches the corresponding frame map row from the frame map image 95.
  • the coordinate sequence of the route search result is drawn as a route on the corresponding top diagram, stored in the top diagram image DB90, and a top-path element sequence correspondence table is generated as shown in Fig. 39 (1815) ).
  • tags on the route are inserted into the node and facility columns (1820).
  • 1: 2 and t3 compete, and t2 is selected.
  • the competing nodes t2 and t3 are stored in the map DB 40 as a competing list, such as (t2, t3). To be able to deal with the case where t3 is received instead of t2 during route guidance.
  • the node / facility row corresponding to the frame is divided by tag (1825).
  • the route data 24 stores the guidance text and the ID of the guidance image in the format shown in Fig. 43 (1830).
  • Fig. 43 the ID of each terminal is displayed in the terminal code, the terminal status indicated by the terminal code in the current state, the ID of the currently displayed frame diagram in the display frame, and the current display in the display text.
  • the column of frames stores the column of ID of the diagram to be displayed
  • the column of guidance text stores the column of ID of guidance text corresponding to each frame.
  • the current status is updated when the status changes, and displayed.
  • the frame and display text are updated when the frame and guidance text displayed on the terminal change, and the immediately preceding tag is updated each time a tag is detected.
  • route guidance is started (1835).
  • the frame of 1.1 in Fig. 29 (b), corresponding to 1 in Fig. 41 is transmitted and displayed (1840).
  • the position information sent from the position detecting device 20 is checked by the position judging means 11 (1845). If the tag can be detected, it is checked whether the detected tag is the same as the immediately preceding tag in FIG. 4 (1850). If they are the same, ignore the detected tag and return to (1845). If they are different, send the frame shown in Figure 1.2 in Figure 29 (b), which corresponds to 2 and 3 in Figure 41, display 2 first, and store the detected tag tl as a new tag (1855).
  • step (1855) if the new tag tl is the last tag t 2 or conflicting 1: 3 in the row of the route column in FIG. 4 3 (1860), and if it is not the last tag, it corresponds to 3 by button operation.
  • the second frame in Fig. 29 (b) is displayed (1875). If it is the last tag, the route guidance ends (1865). If the tag cannot be detected in (1845), the position determination means estimates the user's position and generates a guidance message such as "Now, between lines 7 and 2" and sends it to the terminal. Return to (1847) and (1845). A guidance message is displayed on the terminal. In step (1855), if t3 is received instead of tag t2, the correspondence between t2 and t3 is found by referring to the conflict list and frame 3 is displayed.
  • the node nl detects the error of position detection by tag radio waves from the starting point S.
  • a relative direction indication such as “turn right” that cannot be shown unless the starting point is certain, so avoid it as much as possible and proceed from the position information of node nl and nl to the next step.
  • the guide text of the mark indicating the direction is generated as shown in the first row of FIG.
  • FIG. 42 shows an example of a guidance sentence according to the fifth embodiment.
  • the top view may be a map that describes an illustration image, a binary image, and a block shape corresponding to each top frame in FIG.
  • the invention described in the fifth embodiment synchronizes the route guidance frame diagram with the tag detection when performing route guidance, and always detects the tag even if there is an error in the radio wave reach range of the tag. It guarantees that it will receive information about the heading in the vicinity of the tag before, and even if the position information of the first heading change point contains errors, By guiding the landmarks visible from the turning point of the vehicle, information can be provided without complicating the route information.
  • route guidance means 2 will be described with reference to a flowchart of the route guidance means 2 shown in FIG. 30 and a block diagram of the route guidance means 2 shown in FIG.
  • a case where the vehicle passes through a road as shown in FIG. 29 will be described.
  • the route guidance means 2 when the user activates the route guidance means 2 (16) from the portable terminal 30 (1900), the departure place automatically detected by the position detection means 20 and the destination inputted by the user with the portable terminal 30 Is input to the route search means 170 to perform a route search, and a sequence of nodes and facilities on the route is output in the order of the route (1905).
  • the columns of nodes and facilities output in the example of Fig. 29 (a) are shown below.
  • m landmark
  • t tag
  • n node.
  • a sequence of tags on the route is generated in the route order (1915).
  • the guidance sentence synthesizing means 193 generates a guidance sentence shown in FIG. 45 corresponding to a node and a row of facilities from the guidance sentence DB 60 and the generation rules in the guidance sentence DB.
  • the node and facility columns are stored in the route data 24 in the format shown in Fig. 44 in the order of the route (1915).
  • route guidance starts (1920). First of all, An outline guide is sent to the voice utterance means 13, and voice guidance is provided from the terminal (1925).
  • the position detecting device 20 detects the tag (1945)
  • the guide sentence from the tag tl detected in the guide text data shown in FIG. 45 to the position before the next tag t2 is sent to the terminal (1950).
  • Check whether tl is the last tag on the route by referring to the route column in Fig. 44 (1955). If it is not the last tag, it waits for a command from the mobile terminal, and if it is the last tag, it ends route guidance (1960).
  • the user performs a button operation on the mobile terminal (1930)
  • the user refers to the column of display text and guidance text in Fig. 44, and sends the previous or next guidance text to the terminal according to the button operation. Update the display text (1935).
  • FIG. 45 shows an example in which the tag t l is detected after the mark m2.
  • Embodiment 6 provides a visually impaired person with a method of providing route information and a method of providing a current position separately.When a tag is detected, the current position is provided, and the information of the traveling direction is provided. It is possible to provide the information provided by the user's button operation without complicating the information on the traveling direction of the route.
  • FIG. 46 illustrates a functional block diagram of the route guidance device according to the seventh embodiment of the present invention.
  • the route guidance device 4600 includes position determination means 4601, visible area calculation means 4602, route search means 4603, and traveling direction calculation means 4604. And mark extraction means 4605 and guidance sentence generation means 4606.
  • the position determination unit 4601 detects the current position of the user. For example, a tag that emits a radio wave including its own number is embedded on the wall or floor of the premises, and the mobile terminal owned by the user receives the radio wave from the tag.
  • the position determining means 4601 receives the tag number transmitted by the mobile terminal, and detects the current position of the user from the tag number.
  • the mobile terminal owned by the user emits radio waves
  • the receiving device installed on the wall or floor receives the radio waves
  • the current position is detected based on which receiving device receives the radio waves of the mobile terminal. You may do so.
  • the visible region calculation means 4602 calculates a visible region that is a range that the user can see from the detected current position. That is, a range visible to the user is calculated from the current position of the user detected by the position determination unit 4601. By approximating obstacles obstructing the user's field of view with polygons and storing their positions, it is possible to calculate the range that the user can see using a conventional visible area calculation method using planar scanning. Also, other methods may be used.
  • the route search means 4603 searches for a route from the departure place to the destination.
  • 4 7 exemplifies an example of a table used for the search of the route, which t or directly reachable from the earth point to any point is represented Ri by the table of FIG. 7, for example, FIG. 4 7
  • the first row of the table above means that point A can be reached directly from point C.
  • the first departure point given must be in the row of departure columns. Searching, obtaining the value of the column at the end of the row, searching for the row starting from the obtained value, and obtaining the value of the column at the end of the row, repeat Until the value is obtained as the value of the destination column.
  • the traveling direction calculating means calculates the traveling direction from the visible area and the route.
  • the traveling direction which is the direction in which the user should travel, is calculated from the range calculated by the visible area calculating means 4602 and the route searched by the route searching means 4603. .
  • the calculation method is as follows: if the current position of the user detected by the position determining means 460 1 is the departure point of the route searched by the route searching means 460 3, the next Calculates the direction of the position to go to in the visible area. For example, if the route search means 4603 finds that the departure point is A and the position to proceed to next is C, the direction from A to C is any direction in the visible area. Calculate if there is.
  • the coordinate position of each point is stored in the route planning device 4600 as shown in FIG. 48, and the direction may be calculated from these coordinate positions.
  • the route searched by the route search means 4603 is represented by a sequence of line segments having the position on the route as an end point, and the sequence of these line segments and the visible region calculation means 4602 are expressed by the sequence. An intersection with the calculated visible region may be obtained, and the direction from the current position to the intersection may be set as the traveling direction.
  • the mark extracting means 4605 extracts a mark to be guided from the visible area. That is, a landmark to be guided is extracted from the landmarks in the visible region calculated by the visible region calculating means 4602. In this extraction processing, a mark close to the traveling direction calculated by the traveling direction calculating means 4604 is extracted. By associating the mark with its coordinate position as shown in FIG. 49, it is possible to extract the mark existing in the visible region calculated by the visible region calculating means 4602. Then, a landmark close to the traveling direction calculated by the traveling direction calculating means 4604 can be extracted. If If there is no landmark close to the traveling direction calculated by the traveling direction calculation means 4640, a landmark in the direction opposite to the traveling direction is calculated, or the direction of 90 degrees left or 90 degrees right is calculated.
  • the landmarks may be extracted.
  • the guidance sentence generation means 4606 generates a route guidance sentence of the obtained route.
  • the route searched by the route searching means 4603 is used to determine the traveling direction calculated by the traveling direction calculating means 4640 or the mark extracted by the mark extracting means 4605. It generates a guidance message that guides the route when proceeding in the same direction.
  • To generate this guide text prepare a guide text template that includes the variable "Please look at A to B" and put the name of the landmark in "A". , "In BJ, a guide portion may be generated by inserting a direction in which the mark can be seen. For example, by means of the mark extracting means 4605, L d may be set near the traveling direction.
  • a complete guide text may be prepared from the beginning, and a search may be performed using the landmark and the direction in which it can be seen to obtain the guide text on the first row of the table. Also, if it is determined that the destination is in the visible area and that it is ahead of the user, the second line in FIG. 33 is acquired.
  • the visible region calculating means 4602 is a position determining means.
  • FIG. 5 is a flowchart illustrating the operation of the route guidance device 460 in such a case.
  • the position information that is, the current position of the user is detected by the position determining means (51), and the current position is set to Entranee. That is, (5 2).
  • a route from the current position to the destination is searched by the route search means 4603 (53), and a visible polygon in the direction of the destination is calculated from the entrance (54).
  • the visible polygon which is a range visible from the point assigned to the variable “Entrance” is calculated using the visible region calculating means 4602.
  • the direction from the point assigned to the entrance to the point assigned to the exit is obtained by the traveling direction calculating means 4604, and the landmark that minimizes the difference in the direction is extracted by the mark extracting means 4.
  • the extracted direction and landmark are registered according to 605 (57).
  • the point assigned to Exit is assigned to Entrance, and the process returns to step 54.
  • step 55 If there is no intersection in step 55, if the destination is in the visible polygon that is the visible area, the destination is substituted into Exit (59). Then, the destination and the direction of the destination are registered (60), and all the registered landmarks and directions are output in the guide text (61).
  • the position determining means obtains the current position of the terminal at regular time intervals, and the draft sentence generating means sends the terminal when it determines that it has approached a landmark in the route searched by the route searching means.
  • a route guidance sentence for the next landmark may be generated. That is, the terminal sends a generated guide text for the route related to the next landmark.
  • the user is By generating a guidance message to be sent to the terminal, the user can be notified of the direction when approaching the next landmark, etc., and smooth route guidance becomes possible.
  • FIG. 50 illustrates a functional block diagram of the route guidance device according to the eighth embodiment of the present invention.
  • the route guidance device is the same as the route guidance device 4600 of the seventh embodiment, except that image data search means 5001 is added.
  • the image data search means 5001 searches for viewpoint image data designated to guide a passing point on the route.
  • the route searched by the route search means 4 '603 is determined based on the travel direction calculated by the travel direction calculation means 460 or the mark extracted by the mark extraction means 460.
  • the image data in this case is viewpoint image data.
  • the viewpoint image data is image data when the landscape is viewed from a specific viewpoint, and is image data representing the landscape three-dimensionally. For example, there are an image expressed by perspective and an image of bird's eye view of the wind.
  • the image data search means 5001 is based on the position of the user and the direction calculated by the travel method calculation means 4604, and the position of the user and the mark extraction means 4605. Search the image data according to the extracted landmarks.
  • FIG. 51 is a table in which “passing points” are associated with “image data”, and “passing points” are composed of three elements.
  • the first element is the departure place, and the second element is the second element.
  • the third element represents a point to reach via, or the first element is a position, the second element is a direction, the third element is a landmark, and these three elements
  • it means searching for image data stored in the column of “image data”.
  • FIG. 52 exemplifies a table in which data used by guide text generation means 4606 for generating a guide text in the present embodiment is stored.
  • the same column as the “passing point” column in the table of FIG. 51 is used in order to generate a guidance message in synchronization with the image data retrieved by the image data retrieval means 5001.
  • the present invention is not limited to the point that a guidance sentence is generated in synchronization with the image data searched by the image data search means 5001, and the image data is captured. For example, a guidance sentence with detailed contents or more detailed contents than image data may be generated.
  • the route guidance apparatus it is possible to provide a guidance sentence to the guided user together with the three-dimensionally expressed viewpoint image data. It is possible to provide users with a guide service.
  • FIG. 53 illustrates a functional block diagram of the route guidance device according to the ninth embodiment of the present invention.
  • the route guidance device 5300 includes route search means 5301 and a frame map. It comprises a generating means 5302, a map database 5303, and a planned sentence generating means 5304.
  • the route searching means 5301 searches for a route from the departure point to the destination as described in the seventh and eighth embodiments.
  • the frame map generation means 5302 cuts out the map around the passing point from the map database 5303 as a frame map in order to guide the passing point, and when cutting out, Cut out each comma so that part of the route overlaps.
  • the “passing point” is a point to be passed when moving along the route searched for by the route searching means 5301.
  • the map database 5303 holds a map around a point to be passed when traveling along a route. For example, if coordinates of a point are given, a map around the coordinates is searched. It is something.
  • the guidance text generation means 5304 generates a guidance text for guiding a passing point.
  • the guidance text may be generated in synchronization with the frame generated by the frame map generating means 5302 as in the eighth embodiment, or a content that captures the content of the frame, or A guidance message with more detailed contents may be generated.
  • FIG. 54 is a flowchart for explaining the processing of the route guidance device 5300, focusing on the processing of the frame map generating means.
  • the route is searched by the route searching means 5301 to obtain a route (S5401).
  • the starting point is substituted for the variable L (S5402).
  • Substituting the starting point means substituting the coordinates of the starting point.
  • a frame When a frame is acquired, it is displayed to the user or stored in association with the coordinate position assigned to L. When it is detected that the user has reached the position of the coordinate, the frame is detected. Is displayed. When a map of the surroundings is obtained, L is moved along the route (S5405). In other words, the coordinate position assigned to L is updated to the coordinate after moving along the route. At this time, by setting the coordinate position assigned to L to the position on the route displayed on the map of the frame, "part of the route in each frame overlaps when cutting out" It will be. After moving L, the process returns to step S5403.
  • the frame map generating means 5302 in the eighth embodiment cuts out a frame, instead of making the route in each frame overlap, a route in each frame is used. So that is displayed in the center of the screen.
  • the route searching means 5301 searches for a route passing through points E, U, Q, R, S, T, and F as shown in FIG. From these points, those that are more than a predetermined distance L (for example, 10 m) are selected, and each point E, U, ⁇ ! , R, S, T, and F are cut out from 1 to 5 so that they are in the center of the frame map, and the frame diagrams are arranged in the order of E, U, Q, R, S, T, and F. I do. In this way, by cutting out the route so that it is displayed in the center of the screen, the points to be passed on the route are displayed in the center of the frame diagram, and the frames that are easier to see are displayed. It is possible to provide route guidance using maps.
  • L for example, 10 m
  • the guidance sentence generating means may generate a guidance sentence based on the moving direction of the user in order to guide a passing point.
  • the moving direction of the user is the direction in which the user moves when the user proceeds along the route whose route has been searched by the route searching means.
  • the guidance text By generating the guidance text in this way, if the route is turning at a certain point, the guidance text indicating which direction the user turns in the moving direction up to the point is obtained. Generated. For example, by the route search means Assuming that the route from S to G shown in (a) of Fig.
  • the guidance sentence generating means is used to guide the passing point.
  • the guide text may be generated based on the direction of the track to the user on the platform of the station.
  • the track is usually straight and has a prominent structure.
  • the guidance sentence generating means does not perform the right / left turn guidance at the first turning point, and the turning point
  • a draft of a landmark indicating the direction of change of direction may be generated. For example, suppose that the route searching means finds the route shown in (a) of FIG. 29 with S as the starting point and G as the destination, and the starting point S and the first turning point nl Are close. '' If the starting point is a position detected using radio waves such as S and S, Since the position is detected with an error, the user may actually be on the opposite side of S 1 in FIG.
  • the draft sentence generator considers the user to be at S and generates a guidance message “Please turn right at n 1”. If you do, the user will move in nl in the opposite direction to m 1. Therefore, when the departure point and the first turning point are close to each other, guidance for turning right or left is not performed, and a self-signed guidance message indicating the turning direction is generated from the turning point.
  • FIG. 55 is a flowchart illustrating a process of generating a guidance sentence by the guidance sentence generation unit according to the present embodiment.
  • step S5501 it is determined whether the vehicle has been guided to the destination. That is, it is determined whether or not a guide message to the destination has been generated, and if the guide message to the destination has been generated, the process ends; otherwise, the process proceeds to step S5502. Move to determine if the point to be guided is a turning point. If it is not a turning point, the process proceeds to step S5503, a guidance message is generated, and the process returns to step S5501. If it is a turning point, go to step S5504, and since this turning point is the first turning point, check whether this turning point and the starting point are close, that is, the error.
  • step S5505 it is determined whether it is within the range or not, and if it is within the error range, the process proceeds to step S5505 to generate a guide text of a landmark indicating a direction change direction.
  • a guidance sentence “Please turn in the direction in which ml can be seen” is generated at n 1. If the first turning point and the starting point do not fall within the error range in step S5504, a guidance message for moving to step S5506 and guiding the turning direction is provided. Generate. Below, step S5507 and step In S5508, the generation of the guidance text as usual is repeated until the guidance text to the destination is generated.
  • the route guidance device includes a tag detection unit, and the guidance text generation unit generates a guidance text for guiding position information near the tag detected by the tag detection device. It may be. Examples of the location information near the tag include information such as where the tag is or what is around the tag.
  • FIG. 56 is a flowchart for explaining the processing of the route guidance device in the present embodiment.
  • step S5601 it is determined whether the tag has been detected by the tag detecting means. If no tag is detected, the flow shifts to step S5602, and it is determined whether or not the guidance has been completed.
  • the case where the guidance is ended includes a case where the user presses a button for terminating the guidance or the like. If the guidance has been completed, the process is terminated; otherwise, the process returns to step S5601.
  • step S5601 If a tag is detected in step S5601, the process moves to step S5603 to obtain the position of the tag.
  • the tag ID and the coordinate position may be obtained from the stored contents in association with each other.
  • step S5604 a guidance sentence for guiding position information near the obtained position is generated, and the process returns to step S5601.
  • a tag is detected in this way, by generating a guidance message that proposes location information around the tag, the guided user can know whether or not he or she is moving in the correct direction. Can be. In art museums, If you move in front of the work, you will be able to inform the user of guidance text about the work.
  • the guidance texts for each of the landmark information along the route may be arranged in the order of the routes, and the guidance texts may be read out sequentially in synchronization with the detection of the tag by the tag detection means.
  • the information on the landmarks is arranged in the order of the landmarks that appear when traveling on the route, and each information is read out in order each time a tag is detected. It may be.
  • the guide sentence generating means has a guide sentence request accepting function, and the guide sentence generating means receives a guide sentence request based on the guide sentence request accepting function.
  • the guide text for each piece of landmark information may be arranged in the order of routes, and each guide text may be read out in order.
  • FIG. 57 shows a part of a functional block diagram of the route guidance device according to the present embodiment.
  • the guidance sentence generating means 5304 has a guidance sentence request accepting function 5701.
  • the guide message request accepting function 5701 accepts a guide message request that is a request for reading the guide message.
  • the guidance sentence request acceptance function 5701 is composed of input means such as buttons, voice recognition, and touch panels.
  • the guidance generation unit arranges the guidance text for each of the landmark information, which is information about the landmarks for guiding the user along the route, in the order of the route. Read each guidance message in order.
  • the guide sentence generating means stores the drafts for each landmark information in the order of routes and accumulates them, and when a guide sentence request is accepted, reads out each guide sentence in order.
  • FIG. 58 illustrates the processing of the guidance sentence generation means 5304 in the present embodiment. This is the flowchart to be explained.
  • step S5801 it is determined whether or not the guide text request has been accepted by the guide text request reception function 5701, and if it has been accepted, step S5802 Go to and read out the guide text of the landmark information. For example, for a landmark that can be seen from the current position, the user can read aloud a guide text that tells the direction in which the landmark should be seen and where to proceed in that direction. When the reading is completed, the process returns to step S5801.
  • step S5803 determines whether or not the guidance has been completed. End, otherwise return to step S5801. Whether or not the guidance has been completed is determined, for example, by detecting operation of a button or the like by the user or detecting that the user has reached the destination by the position determining means.
  • the route guidance device accepts the guidance sentence request by the guidance sentence request receiving function 5701, and reads out the guidance sentence, thereby providing the guidance sentence when the user wants the guidance sentence. It becomes possible.
  • the guide sentence generating means 5304 has a user feature information receiving function, and the guide sentence generating means 5304 is provided in accordance with the user feature information which is information on the user's feature received based on the user feature information receiving function. 304 may provide route information.
  • the user characteristic information receiving function is a function for receiving user characteristic information, which is information relating to the characteristics of the user. For example, how old the user is, whether the user is foreign or not, and who is Japanese It accepts features that should be noted in route guidance, such as what language is the native language, how well the user is visually impaired, how deaf they are, how well they are walking impaired, how well they are healthy, etc.
  • the guidance sentence generating means generates the route information according to the user characteristic information received by the user characteristic information receiving function.
  • the guide text should be read aloud slowly.When displaying a map, the characters included in the map should be enlarged. If you are a child, try to avoid using Kanji as much as possible. If the user is a foreigner, it will read out the guidance text in its native language and display the map. In particular, if the user is deaf, the route information will not be read aloud but the route information will be provided by displaying characters.If the user is visually impaired, the route information will not be displayed. Perform reading aloud. If there is an obstacle such as a staircase on the route, a guide message that informs the user of the obstacle in advance may be generated and read out.
  • an obstacle such as a staircase on the route
  • the braille procks are located, in which direction you should go in relation to the direction in which the specific sound can be heard, and how they feel and sound when you strike the road surface with a cane It is also possible to generate and read out guidance texts about landmarks that are particularly meaningful for visually impaired persons, such as large targets, prominent light sources, and where to find guidance displays in Braille.
  • landmarks that are particularly meaningful for visually impaired persons, such as large targets, prominent light sources, and where to find guidance displays in Braille.
  • the route planning apparatus further includes a tag detecting unit and a route guiding unit.
  • the tag detecting means detects the tag placed in the premises, and the tag detecting means detects the tag, thereby acquiring the position of the tag and detecting the position of the current position.
  • the route guiding means is the same as the tag detecting means detecting the tag.
  • the position is detected by the tag detection, and the frame diagram or the viewpoint image and the route guidance message are displayed or the guidance message is read aloud in synchronization with the position detection.
  • the user moves along the route, an appropriate frame or viewpoint image, and the display and guidance of the route guidance text are read aloud, providing a route guidance service that is easy for the user to understand.
  • the position determining means 4601 in the seventh or eighth embodiment detects a current position of a user by using a tag, and further includes a user request obtaining means and a route guiding means.
  • FIG. 60 shows a functional block diagram of the route guidance apparatus according to the present embodiment, in which user request acquisition means 6001 and route guidance means 6002 are added to FIG. It has become.
  • the user request obtaining means 6001 obtains a user request. That is, it obtains a request to receive the provision of route information, and is constituted by input means such as a button, voice recognition, and a touch panel.
  • the route guidance means 600 in response to a user's request obtained by the user request obtaining means 6001, sends a tag diagram or a viewpoint image corresponding to the tag in the order of the route and a route guidance sentence to the terminal. Display or read out the guidance text. In other words, it remembers which tag was detected as the user moved, identifies the current position, and if requested by the user, maps or viewpoint images corresponding to the identified current position, and route guidance The text is displayed on the terminal or the guidance text is read out and the user is guided to move on the route.
  • FIG. 59 is a flow chart for explaining the operation of the position determining means 4601, the user request obtaining means 6001, and the route guiding means 6002 in the present embodiment.
  • step S5901 it is determined whether or not the user request has been obtained by the user request obtaining means 6001. If it is obtained, the process moves to step S5902, and the position detected by the tag is obtained.
  • the position detected by the tag is obtained by receiving the radio wave from the tag, detecting the identifier of the tag, and detecting the position from the information that associates the identifier of the tag with the position. is there.
  • step S5903 a frame diagram or viewpoint image corresponding to the position is obtained and displayed (if there is no image data search means, step S5903 is not performed). .
  • step S5904 a guidance message corresponding to the position is read out, and the process returns to step S5901.
  • step S5901 If it is determined in step S5901 that the user request has not been acquired, the process proceeds to step S595, and whether the tag has been detected by the position determination unit 4601 is determined. Judgment is made, and if a tag is detected, the flow shifts to step S5906 to store the tag. That is, the identifier of the tag is stored so that the position can be detected in step S5902. Then, the process returns to step S5901.
  • step S5905 if no tag is detected, it is determined whether or not the guidance has been completed. If so, the entire process is completed. If not, step S5901. Return to The end of the guidance can be determined by detecting whether the tag detected by the position determination means 4601 is the destination, or by the user operating the button to end the guidance. Perform by detecting.
  • the present embodiment relates to a visible region calculator.
  • the visible region calculator If there is a viewpoint and one or more polygons in one polygon, the visible region calculator first calculates the visible region from the viewpoint for the outermost polygon. Next, for the polygons other than the outermost polygon, the part of each polygon that can be seen from the viewpoint is determined as a continuous line sequence, and the determined line sequence is determined in the order of argument. In the order in which the lines are arranged, the line segments are viewed from the viewpoint, taking into account the positional relationship between the line segments and the visible area generated when the processing of the previous line segment is completed. The range that can be seen from the viewpoint is calculated by the process of finding the line segment and connecting the found portion and the visible region to obtain a new visible region.
  • FIG. 61 is a flowchart for explaining the operation of the visible region calculator in the present embodiment.
  • a visible region is determined for the outermost polygon.
  • the visible area calculator in the present embodiment calculates the visible area when there is a viewpoint and one or more polygons in one polygon.
  • the “one polygon” that includes the “angle” and “is” is the outermost polygon.
  • a visible region that is a range that can be seen from the viewpoint is calculated. If the outermost polygon is a convex figure, the outermost polygon is the visible area as it is, but if the outermost polygon is a concave figure, the visible area is smaller than the outermost polygon. Sometimes.
  • a visible polygonal line is obtained for each facility only.
  • Each facility means a polygon within the outermost polygon
  • visible polygonal line is a continuous line segment of a part that can be seen from the viewpoint of the polygon.
  • step 2130 the line segment of the visible polygonal line obtained in step 2120 has a small deviation angle to either end of the visible polygonal line.
  • Sort visible polylines in order. “Declination” is an angle that defines a certain direction and uses that direction as a reference.
  • step 2140 0 is substituted for the variable I in order to extract the sorted visible polygonal lines in order.
  • Steps 2145, 2150, and 2160 describe the above-described “positional relationship between the line segment and the visible area generated when the previous line segment processing is completed. This is a step corresponding to “a process of obtaining a new visible region by obtaining the line segment seen from the viewpoint and connecting the obtained portion and the visible region.
  • step 2145 for the I-th visible polygonal line, it is determined whether both ends are inside or outside the visible area. If both ends are inside, step 2160 is executed. If both ends are outside, step 2170 is executed. If one end is inside, step 2150 is executed.
  • Step 2150 is a process when one of the end points of the visible polygonal line is inside the visible area, and the half point from the viewpoint passing through the intersection of the visible polygonal line and the visible area and the other end of the visible polygonal line. Obtains the intersection of the straight line and the visible region, generates a new visible region so that the coordinates of the two intersections, the visible line within the visible region, and the visible region are counterclockwise, and pointers to the visible line.
  • line segment 6901 is the I-th visible polygonal line
  • point B is inside the visible region
  • the end of line segment 6901 that is not point B is the visible region. Outside.
  • the polygonal line 6902 is the side of the polygon that forms the visible area.
  • the intersection C between the visible polygonal line segment 6901 and the visible region is obtained.
  • the intersection of the visible line with the half line from the viewpoint passing through point B which is the other end of line segment 6901, which is a visible polygonal line, is obtained.
  • a new visible area is generated so that the coordinates 'between the two intersections C and B' and the visible polygonal line BC in the visible area become counterclockwise. That is, CB Creates a new visible area bounded by the polygonal line B1.
  • the pointer of CBB which is the boundary of the new visible area, is stored.
  • the "pointer" indicates the object by its position, and the pointer of CBB 'indicates the position of the polygonal line CBB. For example, if the data of the side CBBB 'is stored in the memory of the computer, the memory address where the data of the side is stored is stored. When this process ends, the process shifts to step 210.
  • Step 2160 is a process in a case where both ends of the visible polygonal line are inside the visible region, and an intersection where two half lines passing from the viewpoint to both ends of the visible region intersects the visible region,
  • the two line segments connecting the two ends of the visible region corresponding to each intersection and the visible polygonal line are defined as three new line segments, and the coordinates forming the new line segment and the visible region are counterclockwise. In this way, a new visible area is generated and a pointer to the visible line is recorded.
  • Figure 68 shows a case where both ends of the visible polygonal line are inside the visible area.
  • the sides 6801 with the end points A and B are the visible polygonal lines, and the boundary of the visible area is a line.
  • Step 2 170 means that both ends of the I-th visible line are outside the visible In some cases, after the processing of step 2150, the processing is performed after the processing of step 2160, where the value of I is increased by 1 and I is equal to the number of visible polygonal lines. If not, all visible polygonal lines have been processed, so the process proceeds to step 218. Otherwise, the process proceeds to step 215, where the next visible polygonal line is processed.
  • step 2180 the processing of all visible polygonal lines has been completed and the visible area has been determined.Therefore, the determined visible area is compared with the polygon data and all visible polygonal lines that have become a part of the visible area. Outputs a pointer. That is, in order to output the visible area as polygon data, pointers of all visible polygonal lines constituting the visible area are output.
  • the visible region can be calculated by arbitrarily determining the direction serving as a reference for determining the declination angle, the viewpoint and the polygon exist in the outermost polygon.
  • the range visible from the viewpoint can be calculated faster than using a conventionally known method.
  • the visible area calculator in the present embodiment calculates the range visible from the viewpoint when there is a viewpoint and one or more polygons in one polygon (hereinafter referred to as “outermost polygon”). Is what you do.
  • FIG. 62 shows a functional block diagram of the visible region calculator according to the present embodiment.
  • the visible region calculator 6200 includes an outermost visible region calculator 6201 and a visible polygonal line calculator 6. 202, a visible polygonal line reordering unit 6203, and a temporary visible polygon updating unit 6204.
  • the outermost polygonal visible region calculation unit 6201 obtains a visible polygon that is a range that can be viewed from the viewpoint of the outermost polygon, and calculates the first temporary visible polygon. If the outermost polygon is a convex figure, the outermost polygon and the provisional visible polygon match, but a flowchart explaining the process of calculating the provisional visible polygon in a general shape is shown in FIG. 64. ing. First, in step S6401, Draw a half line from the viewpoint to each vertex of the outermost polygon. From step S6402, these drawn half-lines are taken out one by one, and in step S6402, it is determined whether or not half-lines remain. If not, the process ends, and the polygon at that time becomes a temporary visible polygon.
  • step S6403 it is determined whether or not the half lines intersect at an intersection other than the vertex of the outermost polygon, and if not, the process returns to step S6402, and If the straight lines intersect at an intersection other than the vertex of the outermost polygon, the term of the outermost polygon is set to P, and the other intersections are set to Q, and the process proceeds to step S6405.
  • step S6405 it is determined whether P is closer to the viewpoint than Q. If P is not closer to the viewpoint than Q, the situation is as shown in Fig. 65. At least the periphery of Q can be seen from the viewpoint, so step S can be performed without doing anything. Return to 6 402. If P is closer to the viewpoint than Q, the situation is as shown in Fig. 66, and the process moves to step S6406, where P is the outermost polygon and Q is Remove the part and add a line segment PQ. In other words, in FIG. 66, the region surrounded by the line segment PQ, the line segment 6601, and the line segment 6602 cannot be seen from the viewpoint.
  • step S6402 the flow returns to step S6402 to perform the next half-line processing.
  • the visible polygonal line calculator 6202 obtains a visible polygonal line, which is a part that can be seen from the viewpoint, ignoring the existence of other polygons for each polygon inside the outermost polygon. In other words, for each polygon in each outermost polygon, it is assumed that only that polygon exists, and the sides of the polygon that are visible from the viewpoint are selected. This process is different from the viewpoint Draw a ray on a point on each side of the shape, and if the ray intersects another side of the polygon before it intersects that side, that side is not visible from the viewpoint.
  • the visible polygonal line calculating section 6202 may calculate individual line segments constituting the visible polygonal line instead of a polygonal line in which the visible polygonal line is connected at an end point.
  • the individual line segments that make up the visible polygonal line are simply referred to as “visible polygonal line”.
  • the visible polygonal line reordering unit 6203 computes the deviation of the angle of deviation from the reference line, which is a half-line drawn from the viewpoint, from the end points of the visible polygonal line obtained by the visible polygonal line calculation unit 6202. Arrange in the order of the declination of the visibility limit point which is the smaller one. For example, as shown in Fig. 79, when there is a viewpoint and a visible polygonal line AB, when the reference line which is a half line drawn from the viewpoint is a half line 7901, the deflection angle of the end point A is The angle between the reference line and the half line drawn from the viewpoint A is 0, and the declination of the end point B is ⁇ .
  • the visible polygonal line reordering unit 6203 arranges the visible polygonal lines in the order of the declination of the visible limit point. In the following description, it is assumed that the visible polygonal lines are arranged in ascending order of the declination of the visible limit point.
  • the tentative visible polygon updating unit 6204 performs the following first processing and second processing on the visible polygonal lines in the order in which the visible polygonal lines are arranged by the visible polygonal line reordering unit 6203.
  • the first process is a process in the case where both ends of the visible polygonal line are A and B (A is a visible limit point) and A and B are inside the temporary visible polygon.
  • the visible polygonal line 68801 which has A and B as end points, is the provisional visible polygon 68080 which is the side where the viewpoint exists. It is when it is inside.
  • a visible line which is a half line passing through A from the viewpoint
  • an intersection with the provisional visible polygon 6802 is determined, and this is set as A '.
  • draw a visible line that is a half line passing through B from the viewpoint find the intersection with the temporary visible polygon 680, and call it B '.
  • To find a new temporary visible polygon remove the sides of the temporary visible polygon from A 'to B', 6803 and 6804, and remove sides A'A and AB , Add a side BB '.
  • the second process is a process in a case where both ends of the visible polygonal line are A and B (A is a visible limit point) and A is outside the temporary visible polygon and B is inside. Find the intersection C between the visible polygonal line and the temporary visible polygon, draw a visible line that is a semi-straight line passing through B from the viewpoint, find the intersection B with the temporary visible polygon, and use the temporary visible polygon C This is the process of removing the side part up to B 'and creating a new temporary visible polygon by connecting C and B and B and B-1 in order. That is, when the second processing is performed, as shown in FIG.
  • the end point B of the visible polygonal line 6901 is inside the temporary visible polygon, and the other end point is outside the temporary visible polygon. It is when there is. In this case, the intersection C between the visible polygonal line 6901 and the temporary visible polygon is obtained.
  • the user passes through B from the viewpoint or draws his line of sight, and finds the intersection point with the temporary visible polygon. Then, 6901 and 6902, which are parts of the temporary visible polygon from C, are removed, and sides CB and BB 'are added.
  • both ends of the visible polygonal line exist outside the temporary visible polygon.
  • the visible polygonal line is rearranged by the declination of the visible limit point, and then the temporary visible polygon is The part that is made from the viewpoint Since there is no segment, there is no need to process such visible polygonal lines.
  • FIG. 63 and FIG. 67 are flow charts for explaining the operation of the visible region calculator 6200.
  • the computer is required to implement the visible region calculator 6200 on a computer. It can also be considered a flow chart that describes the steps to be performed.
  • the functional block diagram of the visible region calculator illustrated in FIG. 62 is regarded as a diagram showing a module configuration of a program executed by the computer. be able to.
  • Step S6301 is the outermost visible region calculation step, and the outermost visible region calculation unit 6201 obtains the calculation of the first temporary visible region.
  • Step S6302 is a visible polygonal line calculation step, in which the visible polygonal line is calculated by the visible polygonal line calculation unit 6202.
  • Step S6303 is a visible polygonal line reordering step, in which the visible polygonal lines are arranged by the visible polygonal line reordering unit 6203 according to the declination of the visible limit point.
  • Steps S6304 to S6306 are steps for taking out the visible polygonal lines one by one and performing the processing.In step S6304, it is determined whether or not the visible polygonal lines have disappeared. If not, the process ends, and the temporary visible area at that time is a visible polygon. If there is a visible polygonal line, the process proceeds to step S6305, and a visible polygonal line is extracted.
  • Step S6306 is a temporary visible polygon updating step in which the temporary visible polygon updating unit 6204 updates the temporary visible polygon.
  • step S6701 it is determined whether both ends of the visible polygonal line are inside the tentative visible polygon. . If so, proceed to step S6702, otherwise proceed to step S6704.
  • Step S6702 is executed when both ends of the visible polygonal line are It is the case where it is inside the square, and it is the case of Figure 68. In this case, a half line is drawn from the viewpoint to the end points A and B of the visible polygonal line, and the intersection A 'of the half line passing through A and the temporary visible polygon is obtained. '.
  • step S6703 the part of the temporary visible polygon A'force, B ', that is, 6803, 6804 is removed, and A' from A, B from B, B Create a new temporary visible polygon by connecting in the order of B '.
  • Step S6704 is executed when both ends of the visible polygonal line are not inside the temporary visible polygon, and whether or not an end point of the visible polygonal line that is not the visible limit point is inside the temporary visible polygon. Is determined, and if so, the flow shifts to step S6705; otherwise, the flow chart processing in FIG. 67 ends.
  • step 6705 which is the case illustrated in FIG. 69
  • C which is the intersection of the temporary visible polygon and the visible polygonal line
  • step S6706 a half line passing through B is drawn from the viewpoint, and B1, which is the intersection with the temporary visible polygon, is determined.
  • step S6707 the side of the temporary visible polygon from C to B 'is removed, and C to B and B force to 8' are connected in order to create a new visible polygon.
  • the visible region calculator or the visible region calculation program it is possible to set the reference line in an arbitrary direction and start the calculation of the visible region, and to set the visible region to a conventional value. It can be obtained more efficiently than using a known method.
  • FIG. 70 is a functional block diagram of the route information generator according to Embodiment 20 of the present invention.
  • the route information generator 70000 includes a visible region calculating unit 7001, a route searching unit 7002, a landmark extracting unit 70.03, a planned map generating unit 70.04, It has guidance sentence generation means 7005.
  • the visible region calculation means 7001 calculates a range visible to the user.
  • a means for calculating using a conventionally known algorithm, or the visible area calculator in the embodiment 18 or 19 is used. You may do this.
  • the route search means 7002 searches for a route from the current location of the user or the departure point input by the user to the destination input by the user.
  • the tag identifier is obtained by using GPS (Global Positioning System) or by receiving radio waves emitted by a tag embedded in a wall or floor. Get location from.
  • the current location may be determined by detecting the acceleration and integrating the detected acceleration.
  • a map is displayed on the touch panel so that the user can indicate a departure place and a destination, a keyboard and other input devices are used to accept the departure place and the destination, and the departure place and the destination are recognized by voice recognition. The destination may be accepted.
  • To search for a route prepare a table associating the departure point with the end point as shown in Fig. 47.
  • To obtain a route from a given departure point to any destination first, Search for the row where the given departure point appears in the column of the departure place, obtain the value of the column of the end point of that row, search for the row whose departure point is based on the obtained value, and The process of obtaining the column values is repeated until the destination is obtained as the value of the destination column.
  • a two-column sequence consisting of a certain point (start point) and another point (end point) is obtained.
  • the landmark extracting means 7003 extracts a landmark to be guided from the current location or a visible area from the point to be guided. That is, the visible area which is a range that can be seen from the current position or the point where the user should be guided to follow the route searched by the route searching means 7002 is sent to the visible area calculating means 7001.
  • the landmarks that should be calculated and guided from within the visible area, that is, A mark indicating the direction to go next is extracted. This extraction is performed by using a table associating points on the route with their coordinate positions as shown in Fig. 48 and a table associating landmarks with their coordinate positions as shown in Fig. 49.
  • the guidance map generating means 7004 When a person reaches a point on the route, it calculates the direction from that point to the next point to go to, and finds a landmark that looks close to that direction.
  • the guidance map generating means 7004 generates a route guidance map in which the route, the extracted landmarks, and the point to be guided are displayed. That is, the route searched by the route searching means 7002, the mark extracted by the mark extracting means 7003, the point to be guided, that is, the point to which the user should go next. Generates a map on which is displayed. To do this, the coordinates of the landmarks, the coordinates of the points to be guided, and the table shown in Fig. 48, which associate the points and their coordinates, and the table shown in Fig. 49, which associates the markers with their coordinates, are used. From the coordinates of the point to go to next, a map containing those coordinates may be searched from the map database.
  • Guidance sentence generation means 7005 generates a guidance text for the route. For example, a table as shown in Fig. 38 is prepared in which the guidance text data is associated with the points 2 or 3 that continuously constitute the route searched by the route search means 7002, and the table is prepared. An example is to generate a guidance sentence by referring to.
  • FIG. 71 is a flowchart explaining the process of the route information generator 700 in the present embodiment.
  • step S7101 a route from the current location of the user or the departure point input by the user to the destination input by the user is searched using the route search means 7002.
  • a loop is formed after step 7102, and steps S7103 to S7107 are repeated until it is determined in step S7102 that no route remains.
  • step S7103 the route is taken out. That is, the starting point Take out the pair with the end point.
  • step S7104 the visible region from the start point is calculated by the visible region calculation means 7001.
  • step S7105 a mark is extracted from the visible region calculated in step S7104 by mark extraction means 7003.
  • step S7106 a map is generated by the guide map generating means 7004.
  • step S7107 a guidance sentence is generated by the guidance sentence generation means.
  • the map and guidance text generated in this way are temporarily stored in the route guidance information generator or by an external storage means, and provided to the user as needed, or It detects that it is moving up and, for example, when it is detected that it passes the point to be guided, it generates a map and guidance text for the next point to be guided and provides it to the user. It may be.
  • FIG. 72 illustrates a functional block diagram of the route guidance system according to Embodiment 21 of the present invention.
  • the route guidance system includes a route guidance device 7201, a route information database 7205, a terminal 7204, a position detection device 7206, and a map database 720. 7 and a guidance sentence database 7208.
  • the route guidance device 7201 has a route information generator 70000 and position determining means 7202.
  • the route information generator 700 is the same as that described in the embodiment 20.
  • the position determining means 7202 detects the current position of the terminal 7204, that is, the current position of the terminal.
  • a method of detection a method of receiving the current position input by the user operating the terminal, a method of using a tag as the position detection device 720, and transmitting a radio wave emitted therefrom to the terminal 720 4 may receive the tag identifier, and the terminal 7204 may transmit the tag identifier to the position determining means 7202.
  • terminal 7204 emits radio waves
  • the position detecting device 7206 may receive the information, and the position determining means 7202 may acquire which position detecting device has received the information to detect the position of the terminal 7204.
  • the route information database 7205 stores information on the obtained route.
  • the “information on the obtained route” is the information on the route obtained by the route information generator 700, and is transmitted to the guide map generating means 700 4 of the route information generator 700.
  • the generated route guidance map and the guidance text of the route generated by the guidance text generation means 700 are stored. At that time, the location searched by the route searching means 7002, the map, and the guidance text are stored in association with each other.
  • the position detecting means 720 is a means for acquiring current location information.
  • the ⁇ current location information '' is the location where the terminal 7204 is currently located.
  • the tag is used as the location detection means 7206, or the location detection means 7206 is a GPS satellite. You may be there.
  • the map database 720 stores the map data. That is, from the current position of the terminal detected by the position determination means 7202, what kind of situation exists around the terminal and what direction it is in This is a database for obtaining information on the status of congestion and the degree of danger.
  • the guidance sentence database 720 stores data for generating a guidance sentence.
  • the data for generating a guidance sentence is a template for generating a draft sentence, for example, a sentence including variables X, Y, and ⁇ ⁇ ⁇ , “Y of X is Z”. If specific values are determined for, ⁇ , and ⁇ , the data will generate specific guidance text.
  • FIG. 73 is a flowchart illustrating the operation of the route guidance system according to the present embodiment.
  • the route information generator 7 00 0 gets the starting and destination. For example, the departure point and the destination input from the terminal 7204 are acquired. Alternatively, the information may be obtained from an input device connected to the route guidance device 7201.
  • the route information generator 7000 searches for a route, and in step S7303, generates route information and stores it in the route information database.
  • Steps S 7304 to S 7307 form a loop that is executed until the guidance is completed, and it is determined in step S 7304 whether the guidance has been completed. .
  • step S7305 the position of the terminal 7204 is detected and acquired by the position determining means 7202.
  • step S7306 the route information of the position obtained in step S7305 is obtained by searching the route information database 725. At this time, at the same time, the map database 720 and the guidance database are searched, and what is present around the position acquired from the map database 720 is obtained.
  • a template for generating a guide text may be obtained, and the search result of the map database 720 may be embedded in the variable portion of the template.
  • the search result of the map database 720 may be embedded in the variable portion of the template. For example, from the map database 7207, "forward” is obtained, Y is “stairs”, and Z is “danger”. You may get a template saying "Y is Z” and generate a draft sentence "The stairs ahead are dangerous.”
  • the route information acquired in step S7306 is transmitted to terminal 7204.
  • the search results of the map database 720 The guide text obtained by embedding it in the variable part may be transmitted.
  • FIG. 74 is a flowchart for explaining the processing of the route guider according to the present invention.
  • a route guidance device is a device that guides a user by displaying a mark on a map on a terminal.
  • the route guidance device of the present invention obtains the current location of the terminal at regular time intervals, and When it is determined that the user has approached a landmark existing in the data, the map displayed on the terminal is switched to a map showing the next landmark in the route data.
  • step S7401 the process waits until a certain time has elapsed. After a lapse of a fixed time, the process proceeds to step S7402 to acquire the terminal position.
  • the terminal receives the radio wave of the tag, and acquires the position of the terminal based on the identifier of the tag that received the radio wave, or the terminal receives the radio wave from the GPS satellite, and acquires the position from the result. .
  • step S7403 it is determined whether or not the landmark has been approached, and if it is determined that the landmark has been reached, the process proceeds to step S7404, and if not, the process proceeds to step S704. Return to 4 0 1.
  • step S7404 to switch to the map on which the next mark is displayed, the map on which the next mark is displayed is transmitted to the terminal.
  • the terminal and the route guidance device are located at a distance from each other, but the terminal may be provided with a route guidance device.
  • the terminal When it is detected that the user has approached the landmark in this way, the user switches to the map on which the next landmark is displayed, so that the user having the terminal can determine which direction to go at the next point. A notice can be given and a route that is easy for the user to understand can be guided.
  • the acquisition of the current location involves an error, it is possible to prevent a map on which the next landmark is displayed from being displayed after the user has passed the landmark, and prevent the user from being confused.
  • FIG. 75 is a functional block diagram illustrating an embodiment of the route guidance system of the present invention. It is a lock diagram.
  • the route guidance system includes a route planning device 7500, a route information database 7205, a terminal 7204, a position detecting device 7206, and a map database 72. 0 7 and a guidance sentence database 7208.
  • the route guidance device 7500 includes a route guidance device 7501 and position determining means 7202.
  • the route guidance device 7501 is a device for guiding a user by displaying a mark on a map on a terminal. In this embodiment, the route guidance device of the embodiment 22 is used.
  • the position judging means 720 detects the current position of the terminal 720. The detected result is sent to Route Guidance No. 501 so that Route Guidance 750 1 can periodically acquire the current location.
  • the route information database 7205 stores information on the obtained route.
  • the route guidance device has a route information generator that searches for a route from a departure point and a destination and generates information about the route. 5 accumulates information on the route obtained by this route information generator.
  • “Information about the route” is composed of a passing point, image data for guiding the passing point, and guidance text.
  • FIGS. 76 and 77 show an example of the contents of the route information database 7205.
  • the table of FIG. 76 stores the route formed by the point passing through the start point and the end point in association with each other. are doing. For example, the first row of this table means that the points to pass when the departure point is A and the destination point is D are u, w, and y.
  • Figure 77 is a table that stores the map data to be displayed on the terminal and the guidance text in association with the points to be passed. For example, if the guidance point is g, the map and This means that mapl 0 2 4 is displayed on the terminal, and s 7 0 5 5 is used as the guide text.
  • the route guidance unit 7501 is connected to the terminal from the position determination unit 7202. Is acquired at regular time intervals, and when the terminal approaches the landmark in the route, that is, the guidance point, the table in Fig. 76 is read and the next guidance point is acquired. Then, the map and guidance text are acquired from Fig. 77 and transmitted to the terminal.
  • the terminal 7204 displays the route guidance information.
  • the route guidance information is information such as a map and a guidance sent from the route guidance device 7501 that guides the user to move on the route.
  • the map database 720 stores the map data. In other words, from the current position of the terminal detected by the position determination means 7202, what force and direction are around the terminal, what kind of situation (such as the situation of the floor, The degree of congestion, the degree of danger, etc.).
  • the guidance sentence database 720 stores data for generating a guidance sentence.
  • the data for generating a guidance sentence is a template for generating a guidance sentence, for example, a sentence including variables X, Y, and Z such that YY of X is Z. '' When specific values are determined for X, Y, and ⁇ , specific guidance text is generated.
  • the route guider 750 1 After obtaining the current location of the terminal, the route guider 750 1 determines whether the terminal has approached the landmark, searches the map database 720 7 to determine the situation around the terminal. A guidance sentence is generated using the data for generating the guidance sentence obtained from the draft sentence database 720 and transmitted to the terminal 720.
  • a route guidance system determines that the user has approached the landmark, the user switches to the map on which the next landmark is displayed.
  • the user can be notified of the route to go to, and a route that is easy for the user to understand can be guided. Also, there is an error in obtaining the current location, so a map showing the next landmark is displayed after the user passes the landmark. Can be prevented from being displayed, and the user can be prevented from being confused. Further, by searching the map database 7207 and acquiring the surrounding situation and generating an appropriate proposal, it is possible to provide a user-friendly guidance service.
  • ⁇ 78 shows a functional block diagram of the route guidance system according to the embodiment 24 of the present invention.
  • the difference from the route guidance system of Embodiment 23 is that a route information generator 700 is clearly indicated in the route guidance device 780 0, and the route information generator 700 0 The point is that a path information generator of mode 20 is used.
  • the visible information of the user moving on the route is calculated and the route information is generated, and the guidance is provided based on the route information. Service can be provided.
  • FIG. 80 is a block diagram showing a configuration example of a route guidance system according to Embodiment 25 of the present invention, and includes a position detecting device 820 for acquiring the current position information of the user, and a signal from the position detecting device.
  • a mobile terminal 830 that transmits information to the route guidance device and displays route guidance information from the route guidance device, a map database 840 that stores map data, and route guidance based on route search results.
  • Guidance sentence database 860 that stores data for composing sentences, a route information database 850 that stores route guidance information generated by the route information generation means, and a route generated by generating route information It is composed of a route guidance device 810 that guides a route based on information.
  • the route guidance device 810 includes: a position determination unit 811 that converts information of the position detection device into coordinates; a route information generation unit 814 that generates route information; Route guidance means 8 18 for guiding a route based on the obtained route information.
  • FIG. 81 is a block diagram of the route information generating means.
  • the visible area calculating means 971 calculates a range visible from the current location, and the route searching means 970 searches for a route to the destination.
  • a signpost extracting means 981 for extracting a landmark to be guided from the visible area, a guide map generating means 984 for generating a map for route guidance based on the route search result, and a route guidance sentence.
  • a guidance sentence synthesizing means 983 is a block diagram of the route information generating means.
  • Fig. 82 is a block diagram of the route guidance means.
  • the route guidance means 818 receives the user's current location from the position determination means 811, determines the guidance message to be displayed and the map, and displays the current location. If it is necessary to convert the inside route guidance data, the route information to be displayed is obtained from the route information data 850 and sent to the portable terminal 830.
  • the processing in the route information generating means 8 14 will be described according to the processing shown in FIG. Suppose that the outermost polygon and facilities A, B, and C are arranged as shown in Fig. 89, and the route network meanders in front of facility A greatly.
  • the position information detected by the position detection device 820 from the mobile terminal 830 in Fig. 80 is passed to the position determination means 811 of the route guidance device 8110, the mobile terminal is not guiding the route. If it is sent from the server, it activates the route information generating means 8 14 to send the position information. If sent from a mobile terminal during route guidance, the location information is sent to the route guidance means 8 18.
  • the route information generating means 8 14 is activated and the position information of the departure point and the destination is passed from the position judging means 8 11, and the map-related data from the map database 840 and the guide text database
  • the data for generating the guidance portion is read from 860 (1800).
  • the position information of the departure point a and the destination point d is passed to the route search means 970, the route is searched, and the node trains a, b, c, d on the route are received (1810).
  • the departure point a is used as the guide point (1815).
  • the visible area from the guide point a is determined by the visible area calculation means 971, as shown in Fig. 90, and the facilities A, B, and C that enter the visible area by the mark extraction means 981, are converted to visible polygonal lines.
  • the pointer to obtain the No Kb that enters the visible area that has not yet arrived on the route (1820). It is determined whether there is a destination d in the visible area (1825). Since there is no appropriate facility, for example, in this case, the facility C that is in contact with the visible area and is farthest from a on the route is selected and stored as a landmark, and the node b on the closest route from the landmark C is selected. The next guidance point will be (1830).
  • the visible area from the guide point b is calculated by the visible area calculating means 971, as shown in Fig. 91, and the facilities A, B, and C that enter the visible area by the mark extracting means 981 are converted into visible polygonal lines.
  • the facility B that is in contact with the visible area and is farthest from b on the route is selected and stored as a landmark, and the node c on the closest route from the landmark B to the next (1830).
  • the visible area from the guide point c is obtained by the visible area calculation means 971, as shown in Fig. 92, and the facilities A, B, and C which enter the visible area by the mark extraction means 981, are pointers to the visible polygonal lines.
  • a node d that enters the visible area that has not yet arrived on the route (1.820). It is determined whether or not the destination d is in the visible area (1825). Since there is d, after memorizing D as a landmark, the facility names X of the extracted landmarks C and B, for example, “kiosks” and “coffee shops”, and representative points of the facilities are obtained from the map database 840. From the coordinate data of the nodes a, b, c, and d, the traveling direction Z at the node, that is, at the corners b and c, is determined as a left turn and a right turn, respectively.
  • the positional relationship Y between the corresponding landmarks C and B is determined as the front and right from the coordinate data of the representative point and the coordinate data of the node, and is output (1835).
  • Plan The map for guidance corresponding to the facility is generated as shown in FIGS. 93 and 94 by the inner map generating means 184, and is arranged in the order of the route, that is, in this order (1840).
  • the guide sentence template in the draft sentence database 860 is selected according to the type of variable in the draft sentence synthesizing means 1 83, in this case, the facility name, the traveling direction, and the node position. Enter the landmark and direction data obtained in (1 8 3 5) in "Z.” and turn left in front of the kiosk.
  • a guidance message "Right turn right at the coffee shop.” Is generated and arranged in the order of the route, that is, in this order (1845).
  • the generated route guidance text and the map for route guidance are output to the route information database 850.
  • the processing in the route guidance means 8 18 will be described according to the processing shown in FIG.
  • guidance text corresponding to FIG. 93 is displayed, and mark C is currently displayed on mark C.
  • Mobile phone in FIG. If the position information detected by the position detection device 820 from the terminal 8330 is passed to the position determination means 811 of the route guidance device 810, and if the position information is sent from the portable terminal during route guidance, the route Send location information to guidance means 8 1 8.
  • the position determination means 811 acquires the position coordinates indicated by the asterisk in Fig. 95 as the position of the mobile terminal 8330 ( 1 9 10).
  • the distance between the acquired position coordinates and the coordinates of the node indicating the landmark in the route information data 850 is equal to or smaller than a threshold (for example, 10 meters). Since there is no such information (1922), the current location is superimposed on the currently displayed map 93 with an asterisk and displayed on the portable terminal 8330 as shown in Fig. 95 (1922). The current position information is obtained from the position determination means 811 as the position of the portable terminal 8330, and the position coordinates indicated by the asterisk in FIG. 96 are obtained (1910). With reference to the map database 840, the acquired position coordinates of the node indicating the landmark in the route information data 850 are referred to.
  • a threshold for example, 10 meters
  • the current location is superimposed with a star on the map map 93 currently being displayed and displayed as shown in Figure 96 (1992). 2).
  • the current position information is obtained from the position determining means 811 as the position of the portable terminal 8330, and the position coordinates indicated by the asterisk in FIG. 97 are obtained (1991).
  • the map database 840 there is a landmark c whose acquired position coordinates are less than the threshold from the coordinates of the node indicating the landmark in the route information database 850.
  • the landmark B Since it is different from the displayed landmark C (1920) and landmark B is not a destination (1925), the landmark B is marked with the currently displayed landmark, and is added to the route information database 850.
  • the guide map map 94 displaying a certain landmark B is extracted, the current location is superimposed, and the map and the corresponding guide text are sent to the mobile terminal 8330 (1930).
  • the destination D when approaching the destination, the destination D is set as the landmark '(1920), so the landmark is determined to be the destination (1925), and a message indicating that the destination has been reached is given. Send it (1940) and end (1950).
  • the route to the guide point can be re-edited.
  • appropriate route information is obtained even if there is a position detection error due to the range of radio waves from the tag or the tag reading means missing the tag.
  • the present invention provides a fast visible area even when there are obstacles in the square That provides easy-to-see route information for sighted people regardless of the status of the route network by providing visible marks when the user moves along the route based on the formed visible area It is. Note that the present invention is applicable not only in the premises but also outdoors, as long as the outermost polygon is formed by dividing the area.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

明細書 経路案内システム 技術分野
この発明は、 移動者がビル等の建築物を移動する際に次に進むべき方 向の目印情報と経路情報を、 広場においても不自然にならず、 地図を読 むのが苦手なユーザにも画像を使用する等の方法によって提供する事に よ り移動者の移動を支援する装置及ぴシステムに関する。 また、 移動者 の移動を支援するための目印を抽出するために必要となる可視領域の算 出装置及びプログラムにも関する。 背景技術
従来、 構内 Zビル内の経路案内を行う システムには以下の公知文献が ある。
特開平 8- 190688 号に開示された発明は構内における歩行者に自己の 所在位置や目的地への案内情報を得にく い歩行者に対して適切な誘導案 内情報を提供する ものである。 利用者は情報読み取り機を使って、 構内 に埋め込まれた電波反応装置の情報を読み取る もので、 内容は固定され ているものの利用者情報設定部に設定された利用者の情報によって出力 される情報が変化する ものである。 また、 廉価に歩行者案内装置を提供 でき る。
また、 特開平 1 1 - 2765 16号に開示された発明は駅構内において、 音声 入出力によつて携帯端末を通じて視覚障害者に目的地までの経路ゃラン ドマークなどの情報を提供し、また障害者の位置をタグによって検知し、 視覚障害者をよ り安全で的確に誘導案内するものである。 しかし、 従来の技術では以下の問題が解決できない。
( 1 ) 既存技術では、 経路データに基づいて 「〜の交差点を右に曲がれ」 などのよ う に交差点での移動する方向を示す。 しかし構内においてア ト リ ゥム · 吹き抜け · コ ンコースなどの広場で、 斜めに横切るよ う な場合 には目印に基づいて経路案内する方が簡略だが、 既存技術では地図上の 経路データに沿って例えば広場の端を廻るよ うな案内となる。
( 2 )低解像度かつ小画面の携帯端末を用いる経路案内ではカラー画像を そのまま端末に送る と見づらい。 加えてカラー画像はデータ量が多いた め転送時間が長く 掛かる。 また、 二値画像でも圧縮効率の低い画像では 経路が長く なった場合には、多く の経路案内のポイ ン トを表示できない。
( 3) コマ割地図で経路を案内する場合には、 経路をどこに表示するのが 分かりやすいかは個人差があり 、 常に経路を中央に表示する と コマ間で 経路に連続性が無く なり分かり にく いと感じるユーザもいれば、 常に中 央に表示するほ う が良いと感じるユーザもいるのでユーザに応じて表示 を変化させねばならない。
( 4) 経路誘導を行う場合、 位置検出手段からのユーザの現在位置情報が 誤差を含んでいるため、 位置検出手段からの位置情報に基づいて現在地 を案内している場合には、 現在地が実際にユーザのいる位置からずれて しま う。 また、 位置検出手段からの位置情報に基づいて経路の進行方向 を案内している場合、 実際にユーザの進行する方向と異なってしま う。
( 5 )タグを用いて位置検出をしている場合には読み取り機がタグを検出 できない場合があり 、 適切な経路誘導ができない。
という 問題があった。
また、 視野に入るものを考慮して経路を案内するシステムには、 特開 平 9- 167297 「交差点案内装置」 に示すよ う に、 カーナビゲーシヨ ンシス テムにおいて 「次の交差点を右折です」 といった交差点に関する情報を 案内する際に、 案内された交差点が現在地からは見えない場合がある。 この場合、 現在地から案内される交差点までの視界が遮られるかどうか を算出して、 視界が遮らなく なる地点まで車両が進行した時点で案内を 発する。
しかし、 特開平 9- 167297では、 現在地から交差点までの直線が交差点 近辺にあ S "目印となる施設を構成するポリ ゴンと交わるかどうかのみを 判定するもので、 視界の中に何が見えているかを判断できる処理ではな いため、 視界の中にある 目印を抽出して目印を利用 して経路を案内する こ とができない。
また、多角形が複数ある場合の可視領域算出アルゴリ ズム と しては「計 算幾何学と地理情報処理」 (第 2版) 4. 6. 2可視性問題に示すよ う に、 端 点以外では互いに交わらない η本の線分の集合と視点が与えられた場合 視点からの半直線をぐる り と一回り させる平面走査法によってすベての 多角形の辺の総数を η とする と 0 (n l ogn)の手間で算出する方法がある。 以下に処理概要を示す。 この処理においては、 線分の集合 S0、 S2、 …を求めながら可視領城を算出する。
(前処理)それぞれの線分を構成する端点を偏角の順番に並べる。 ここ に偏角 とは、 基準となる方向を示す視点からの半直線 1 と視点から線分 の端点へ引いた半直線のなす角である。 線分の端点を偏角の順に並べた 結果を L と し、 L の要素の数を N とする。 各線分について視点を中心と した反時計回り の順に端点に順序をつけて、それぞれ始点と終点とする。 また、 Lの要素は自然数 0から並べた順に取り 出せる とする。
( 1 )基準となる方向を示す視点からの半直線 1 と交わる最初の線分の 集合 S0 を求める。 1 と交わる線分の う ち、 視点に最も近い線分との交点 を可視多角形の始点 Ps と して記憶する。
(2) i=0 とする。 . (3) Lの i番目 の要素を取り 出す。 i番目の要素を端点とする線分が S に含まれていれば Si から線分を抜き、 Si に含まれていなければ Si に 線分を加える。 結果を Si+1 とする。
とい う手法がある。 このこ とから推測する と、 具体的には以下のよ う に 処理が進むと考えられる。 すなわち、 Si + 1 の線分を視点から近い順すな わち、 視点から i番目の要素の端点に引いた半直線との交点が視点から 近い順にソ一 トする。
i) Lの要素数が 2以上の場合は以下を行う。
• Si について先頭の要素が抜かれた場合は該要素が線分の終点な ので、 可視多角形の始点 Psから該要素の点 Pc まで線分を引く。 また、 該要素 Pc を通る視点からの半直線が Si の先頭から 2番目の要素である 線分と交わる点 Px を求め、 Pcから Pxまで線分を引き、 Px を Ps とする。
• Si について先頭の要素が加わる場合は該要素が線分の始点なの で、 該要秦 Pc を通る視点からの半直線が Si の先頭の要素である線分と 交わる点 Px を求め、 Ps から Pxまで線分を引き、 Pxから Pc まで線分を 引く . Pc を Ps とする。
ii) L の要素数が 2 未満の場合は最も外側にある線分なので以下を 行う。
• Si について先頭の要素が抜かれた場合は該要素が線分の終点な ので、 Psから該要素の点 Pcまで線分を引 く。 Pc を Ps とする。
• Si について先頭の要素が加わる場合は該要素が線分の始点なの で、 Psから Pc まで線分を引く . Pc を Ps とする。
(4) i = i + l。 i=Nの場合には停止。 そ うでなければ iii)へ。
上記の処理の具体例を上げる と、 図 9 8のよ う に☆によ り示される視 点、 基準となる方向を示す半直線 1、 線分が与えられたとする と (端点 を Z 。 と z とする線分を Z と表すこ とにする)、 i = 0 の場合 : S0= ib, a, g}に a が含まれるので抜いて、 ソー ト し {b, g}とする。 aはリ ス トの先頭ではないので描画はしない。
i =l の場合 : {b, g}に b が含まれるので抜いて、 ソー ト し S2= {g} とする。 Psである bxから bxblgx と線分を引き gxを Ps と して記憶する。 i = 2 の場合 : S2= {g}に gが含まれるので抜いて、 ソー ト し S3= {}とす る。 Psである gxから gxgl と線分を引き gl を Ps と して記憶する。
i = 3 の場合 : S3= {}に h が含まれないので加えて、 ソー ト し S4= {h} とする。 Ps である gl から glh0 と線分を引き h0 を Ps と して記憶する。 i=4の場合: S4= {h}に cが含まれないので加えて、ソー ト し S5= {c,h} とする。 Psである h0から h0hxc0 と線分を引き c0を Ps と して記憶する。 i = 5 の場合 : S5= {c, h}に c が含まれるので抜いて、 ソー ト し S6= {h} とする。 Psである c0から coClhx と線分を引き hxを Ps と して記憶する。 のよ う に処理が進むこ とになる。
しかし、 この視点からの半直線をぐる り と一回り させる平面走査法に よる手法では、 (3)の処理では確かに nlognですむが、 (1)の処理におい ては、 最適な半直線 1 を決めて So を求める必要があ り 、 半直線 1 を決 める計算量が多く 、(1)の処理を考える と必ずしも少ない手間ですむわけ ではないとい う問題があった。
本発明はこの問題を解決し、 広場内に視界を遮る障害物がある場合で も、 従来よ り も高速に可視領域を形成し、 形成した可視領域に基づいて ユーザが経路を移動する際に目に見える 目印を提供するものであ り 、 a.障害物がある場合でも、 広場において移動者が見通す事ができ る領 域を算出する可視領域算出手段 ' b.出発地から目的地までの経路を探索する経路探索手段
c.経路案内文を生成する案内文生成手段
d.経路案内に使用する地図を生成する案内地図生成手段 e .上記可視領域の中から案内すべき道標を抽出する道標抽出手段 f .経路情報生成手段
g .位置検出手段から得られた位置情報を地図上の座標に変換する位置 判定手段
h .経路誘導手段
i .移動者の居る場所を特定する位置検出手段
j .移動者が経路案内情報を受け取る携帯端末
k .経路データを格納する経路地図データベース
以上の aから kを備えた経路案内システムを提供するこ と を目的とする。
発明の開示
本発明は、 ユーザの現在位置を検出する位置判定手段と、 検出された 現在位置からユーザが見える範囲を算出する可視領域算出手段と、 出発 地から 目的地までの経路を探索する経路探索手段と、 可視領域と経路か ら進行方向を算出する進行方向算出手段と、 可視領域から案内すべき道 標を抽出する道標抽出手段と、 求めた経路の経路案内文を生成する経路 案内文生成手段とから構成される こ と を特徴と し、 また、 前記経路を通 過する地点を案内するために指定された二値画像データまたはイ ラス ト 画像データ を検索する画像データ検索手段と、 通過する地点を案内する ための案内文を合成するための案内文合成手段とから構成される こ と を 特徴と し、 また移動者のいる場所を特定する位置検出装置と、 タグによ つて位置検出される毎に経路案内する経路誘導手段 1 と、 ユーザのキ一 操作によって経路案内を行う経路誘導手段 2 と、 タグが読めなかった場 合にユーザの位置を推定する位置推定手段とから構成されるこ と を特徴 とする。
これによ り 、 ユーザの位置情報からユーザの見通せる領域を計算し、 データベース上で経路データがどのよ う に形成されているかに関わり無 く道標を案内する経路案内を可能にし、 位置検出手段がタグを取り損な つた場合でも位置を推定するかまたはユーザのキー操作によって経路案 内を途切れなく行う こ とを可能にする。
また、 本発明はユーザが見える範囲を算出する可視領域算出手段と、 可視領域の中から案内すべき 目標を抽出する 目標抽出手段と、 出発地か ら 目的地までの経路を探索する経路探索手段と、 案内用の地図を生成す る案内地図生成手段と、 案内文を生成する案内文生成手段とから構成さ れる経路情報生成手段と、 現在位置情報を取得して適切な案内情報を携 帯端末に送る経路誘導手段と、 ユーザの位置検出装置からの情報を座標 変換する位置判定手段とから構成される経路案内装置と、 画像または経 路案内文を表示するユーザイ ンタ フェースを備えた端末と、 ユーザの現 在地情報を取得する位置検出装置と、 経路に関するデータおよび目印情 報を格納する地図データベース と 、 案内文を生成するための基礎データ を格納する案内文データベース と 、 経路情報生成手段から出力 された案 内データを格納する経路情報データベースとから構成する。
これによ り 、 ユーザにとってわかりやすい経路情報を提供するこ とが できる。
また、 本発明においては、 まず、 可視領域の一番外側についての見え る範囲を算出し、 その後、 障害物を構成する線分を偏角で並び換えた順 に可視領域を算出して行く 可視領域算出器を提供する。
これによ り 、 従来の平面操作法よ り も効率よ く可視領域を算出するこ とができ、 これによ り、 経路案内の処理が効率良く行えるよ う になる。 図面の簡単な説明
図 1 は、 本発明の経路案内システムの構成図である。 図 2は、 経路案内手段 1 のシステム構成図である。
図 3 は、 携帯端末装置の構成図である。
図 4は、 実施例 2で使用する構内全図である。
図 5 は、 経路案内手段 1 のフ ローチャー トである。
図 6 は、 実施例 1で使用する可視多角形の図である。
図 7 は、 実施例 1 で使用する 目的地付近で可視多角形と経路を重ねた 図である。
図 8 は、 経路案内手段 2 のシステム構成図である。
図 9 は、 経路案内手段 2 のフ ローチャー トである。
図 1 0 は、 実施例 2 で使用する構内図で Eから可視多角形を算出した 図である。
図 1 1 は、 図 4における地点 U での二値画像の図である。
図 1 2 は、 図 4における地点 Qでの二値画像の図である。
図 1 3 は、 図 4における地点 R での二値画像の図である。
図 1 4は、 図 4における地点 S での二値画像の図である。
図 1 5は、 図 4における地点 T での二値画像の図である。
図 1 6 は、 経路案内手段 3 のシステム構成図である。
図 1 7は、 経路案內手段 3 のフローチャー トである。
図 1 8は、 コマ地図生成手段 1 のフローチャー トである。
図 1 9 は、 実施例 3 で使用する携帯端末の表示画面サイズの例を示す 図である。 · 図 2 0は、 実施例 3で使用する構内全図である。
図 2 1 は、 コマ地図生成手段 2 のフローチャー トである。
図 2 2 は、 実施例 3 で使用する構内全図を携帯端末の表示画面サイズ に切り取った図である。
図 2 3 は、 図 4における地点 U でのイ ラス ト画像の図である。 図 2 4 は、 図 4 における地点 Q でのイラス ト画像の図である。
図 2 5 は、 図 4 における地点 Rでのイ ラス ト画像の図である。
図 2 6 は、 図 4 における地点 Sでのイ ラス ト画像の図である。
図 2 7 は、 図 4における地点 Tでのイラス ト画像の図である。
図 2 8 は、 経路誘導手段 1 のフローチャー トである。
図 2 9 は、 実施の形態 6 で使用する経路及び経路に沿って分割された コマ図の例を示す図である。
図 3 0は、 経路誘導手段 2 のフローチャー トである。
図 3 1 は、 タグと座標データ と タグ I Dを関連付けて蓄積している表 の一例図である。
図 3 2 は、 目的地と座標データを関連付けて蓄積している表の一例図 である。
図 3 3 は、 案内文の例を示す図である。
図 3 4は、 経路案内文の例を示す図である。
図 3 5 は、 案内目印データの一例図である。
図 3 6 は、 案内目印データの一例図である。
図 3 7は、 ノ ー ドの通過順と二値画像データ とイ ラス ト画像データ と を関連付けて蓄積している表の一例図である。
図 3 8 は、 ノー ドの通過順と案内文データ と を関連付けて蓄積してい る表の一例図である。
図 3 9 は、 コマ—経路要素列対応表の一例図である。
図 4 0 は、 タグ一ノー ド · 施設対応表の一例図である。
図 4 1 は、 コマ一経路要素列対応表の一例図である。
図 4 2は、 案内文の例を示す図である。
図 4 3 は、 端末の ID、 端末の状態、 表示されているコマ図の ID、 案内 文の ID、 直前に拾ったタグの ID、 経路の要素列、 コマ図の IDの列、 案 内文の IDの列を格納する表の一例図である。
図 4 4 は、 端末の ID、 端末の状態、 タグの列、 案内文の ID、 経路の要 素列案内文の IDの列を格納する表の一例図である。
図 4 5は、 案内文データの例を示す図である。
図 4 6 は、 実施の形態 7 における経路案内装置の機能ブロ ック図であ る。
図 4 7は、 出発地と終着地と を関連付けて蓄積している表の一例図で ある。
図 4 8 は、 位置とその座標と を関連付けて蓄積している表の一例図で ある。
図 4 9 は、 目印とその座標と を関連付けて蓄積している表の一例図で め Ώ。
図 5 0は、 実施の形態 8 における経路案内装置の機能ブロ ック図であ る。
図 5 1 は、 通過する地点と画像データ と を関連付けて蓄積している表 の一例図である。
図 5 2は、 通過する地点と案内文データ と を関連付けて蓄積している 表の一例図である。
図 5 3 は、 実施の形態 9 と 1 0 における経路案内装置の機能ブロ ック 図である。
図 5 4は、 実施の形態 9 における経路案内装置の処理を説明するフロ 一チヤ一トである。
図 5 5 は、 実施の形態 1 3 における案內文生成手段による案内文の生 成の処理を説明するフローチヤ一 トである。
図 5 6 は、 実施の形態 1 4 における経路案内装置の処理を説明するフ ローチヤ一 トである。 図 5 7 は、 実施の形態 1 5 における経路案内装置の機能ブロ ック図の 一部を示す図である。
図 5 8 は、 実施の形態 1 5における案内文生成手段の処理を説明する フローチヤ一 トである。
図 5 9 は、 実施の形態 1 7における位置判定手段、 ユーザ要求取得手 段、 経路誘導手段の動作を説明するフローチャー トである。
図 6 0 は、 実施の形態 1 7における経路案内装置の機能ブロ ック図で ある。
図 6 1 は、 実施の形態 1 8 における可視領域算出装置の動作を説明す るフローチャー トである。
図 6 2 は、 実施の形態 1 9 における可視領城算出器の機能プロ ック図 である。
図 6 3 は、 実施の形態 1 9 における可視領域算出器の動作を説明する フローチヤ一トである。
図 6 4 は、 実施の形態 1 9 における可視領域算出器が仮可視領域を算 出する際の動作を説明するフローチャー トである。
図 6 5 は、 仮可視領域と視点から引いた半直線の関係を示す一例図で ある。
図 6 6 は、 可視領域と視点から引いた半直線の関係を示す一例図であ る。
図 6 7 は、 実施の形態 1 9 における可視領域算出器の動作を説明する フローチヤ一トである。
図 6 8 は、 可視折れ線と仮可視多角形の関係を示す一例図である。 図 6 9 は、 可視折れ線と仮可視多角形の関係を示す一例図である。 図 7 0 は、 実施の形態 2 0 における経路情報生成器の機能ブロ ック図 である。 図 7 1 は、 実施の形態 2 0 における経路情報生成器の処理を説明する フローチヤ一トである。
図 7 2 は、 実施の形態 2 1 における経路案内システムの機能ブロ ック 図である。
図 7 3 は、 実施の形態 2 1 における経路案内システムの動作を説明す るフローチヤ一トである。
図 7 4 は、 実施の形態 2 2における経路誘導器の処理を説明するフロ 一チヤ一 トである。
. 図 7 5 は、 実施の形態 2 3における経路案内システムの機能ブロ ック 図である。
図 7 6 は、 出発地と 目的地と経路とが関連付けて経路情報データべ一 スに蓄積された状態を説明する一例図である。
図 7 7 は、 経路と地図と案内文と を関連付けて蓄積している表の一例 図である。
図 7 8 は、 実施の形態 2 4における経路案内システムの機能ブロ ック 図である。
図 7 9 は、 線分の端点の偏角を説明する図である。
図 8 0 は、 実施の形態 2 5 における経路案内システムの構成例を示す プロ ック図である。
図 8 1 は、 実施の形態 2 5 における経路情報生成手段のブロ ック構成 図である。
図 8 2 は、 実施の形態 2 5 における経路誘導手段のブロ ック構成図で ある。
図 8 3 は、 実施の形態 2 5 における経路情報生成手段の処理を説明す るフローチャー トである。
図 8 4 は、 実施の形態 2 6 における経路誘導手段の処理を説明するフ ローチャー トである。
図 8 5 は、 ユーザの現在地と進むべき経路を示した地図の一例図であ る。
図 8 6 は、 出発地におけるユーザの可視領域を示した地図の一例図で める。
図 8 7 は、 ユーザが移動して曲がり角に達した時の可視領域を示した 地図の一例図である。
図 8 8 は、 ユーザが移動した後の可視領域を示した地図の一例図であ る。
図 8 9 は、 実施の形態 2 5で使用する構内図の例である。
図 9 0 は、 実施の形態 2 5で使用する地点 a で求めた可視領域の図で ある。 '
図 9 1 は、 実施の形態 2 5 で使用する地点 bで求めた可視領域の図で ある。
図 9 2 は、 実施の形態 2 5で使用する地点 c で求めた可視領域の図で ある。
図 9 3 は、 実施の形態 2 5 と実施の形態 2 6 で使用され、 実施の形態 2 5で生成される案内用の地図である。
図 9 4 は、 実施の形態 2 5 と実施の形態 2 6 で使用され、 実施の形態 2 5で生成される案内用の地図である。
図 9 5 は、 実施の形態 2 6 で使用する端末に表示される誘導用の地図 である。
図 9 6 は、 実施の形態 2 6で使用する端末に表示される誘導用の地図 である。
図 9 7 は、 実施の形態 2 6 で使用する端末に表示される誘導用の地図 である。 図 9 8 は、 従来の平面走査法の例を説明するための視点と線分の一例 図である。 発明を実施するための最良の形態
図 1 は本発明による構内経路案内システムの構成例を示すブロ ック図 であ り 、 ユーザの位置を知らせる位置検出装置 20 と、 位置検出装置 20 からの位置検出情報とユーザ情報を構内経路案内装置 1 0へ伝達し、経路 または目印の撮影された画像を表示する携帯端末装置 30 と、地図のデー タを蓄積した地図データベース (以下 DB40 という。) と、 駅においては 線路の方向に基づいて経路案内を行う よ う に示した経路の案内文を蓄積 した案内文 DB60 と、案内地点に関するィ ラス ト撮像を蓄積したィ ラ ス ト 画像 DB80 と、 案内地点に関する二値画像を蓄積した二値画像 DB70 と、 経路探索結果を格納しておく経路データ 24 と、タグと各コマ図の対応表 45 と、 コマ図画像 95 と、 案内画像 DB90 と、 タグと各案内文の対応表 44 と、 位置検出 (タグ) 情報と撮影された画像情報を処理して経路を案内 する構内経路案内装置 10から構成されている。
これらの う ち位置検出装置 20はユーザの位置座標を発信する。図 3 に 示す携帯端末にはユーザ情報 33 と、 位置検出 (タグ) 読取手段 3 1 と、 経路データ読み上げ手段 32 と、 画像データ表示手段 34 と、 イ ラス ト画 像データ解凍手段 35が搭載され、経路案内装置によって処理された画像 またはテキス トデータを携帯端末上に表示または読み上げる。
構内経路案内装置 10は、位置情報から'ユーザが構内のどこにあるのか を判定する位置判定手段 1 1 と、視覚障害者/聴覚障害者ノ健常者等ユ ー ザの特徴を受け取って経路採索のパラメ タを判定し、 また使用されてい る端末の種類からモノ ク ロ端末の場合は二値画像やイ ラス ト画像を、 力 ラー端末の場合は力ラー画像を出力するなどの出力手段を決定するユ ー ザ判定手段 12と、出力される経路案内文を発話する音声発話手段 13と、 経路案内手段 1(14)と、 経路案内手段 2(16)と、 経路案内手段 3(17)と、 経路を誘導する経路誘導手段 1(18)と、経路誘導手段 2(19)とから構成さ れている。
図 2 (a )は経路案内装置內の経路案内手段 1 に関するブロ ック構成図 であ り 、 現在地から見える範囲を算出する可視領域算出手段の一例と し ての可視多角形算出手段 142 と、 目的地までの経路を探索する経路探索 手段 141 と、 経路の進行方向が現在地から どち らの方向かを算出する進 行方向算出手段 143 と、 進行方向を示す目印と なるものを抽出する道標 抽出出手段 144 と、 経路案内文を生成する経路案内文生成手段 145 とか ら構成される。
図 2(b)は経路案内装置内の経路誘導手段 1(18)に関するプロ ック構成 図であ り 、 タグ情報を検出する位置検出装置(20)と、 位置情報を受信し てユーザに経路情報を提供する携帯端末装置(30)と、 タグから現在地を 判定する位置判定手段 11 と、 経路探索を行う経路探索手段(170)と、 経 路探索結果を格納する経路データ 24 と、経路案内に使用するコマ図の画 像データを合成する画像データ合成手段 181 と、 各コマ図に对応する案 内文を合成する案内文合成手段 183 と、 タグを検出するたびにユーザに 提供する案内画像を検索する案内画像検索手段 184 と、 タグを検出する たびにユーザに提供する案内文を検索する案内文検索手段 191 と、 地図 DB40 と、 案内画像を合成する本と なるコマ図の画像を格納したコマ図画 像 DB95 と、 合成した案内画像を格納する案内画像 DB90 と 、 案内文及び 案内文を生成する案内文生成ルールを格納する案内文 DB60 と、タグーコ マ図対応表 45 と、 タグ一案内文対応表 44 とから構成する。
図 2(c)は経路案内装置内の経路誘導手段 2(19)に関するプロ ック構成 図であ り 、 タ グ情報を検出する位置検出装置(20)と、 位置情報を受信し てユーザに経路情報を提供する携帯端末装置(30)と、 タ グの位置を判定 する位置判定手段 1 1 と、 経路探索を行う経路探索手段(1 70)と、 タグに 対応する案内文を検索する案内文検索手段 191 と、 タグ付近の経路案内 文を合成する案内文合成手段 193 と、 案内文及び案内文を生成する案内 文生成ルールを格納する案内文 DB60 と、経路探索結果を格納する経路デ —タ 24 と、 タグ一案内文対応表 44 とから構成する。
図 7 は経路案内装置内の経路誘導手段 1 ( 18)に関するブロ ック構成図 であり 、 タグ情報を検出する携帯端末装置(30)と、 タグから現在地を判 定する位置判定手段 1 1 と、現在地に対応するコマ図のデータを検索する 画像データ検索手段 181 と、 各コマ図に対応する案内文を合成する案内 文合成手段 183 とから構成する。
図 8 は経路案内装置内の経路誘導手段 2 (19 )に関するブロ ック構成図 であ り 、 タグ情報を検出する携帯端末装置(30)と、 タグの位置を判定す る位置判定手段 1 1 と、タグに対応する案内文を検索する案内文検索手段 191 と、 タグ付近の経路案内文を合成する案内文合成手段 193 とから構 成する。
(実.施の形態 1 )
経路案内手段 1 について例に基づいて説明する。 ここでは図 4に示す 構内を Aから Bへ実線矢印の様に通る場合を考える。地図 DB40上では構 内に破線の様に経路データが引かれている。 ユーザは地点 Aで道が分か らなく なり 、 携帯端末 30を用いてシステムをコールする。 まずユーザは 携帯端末 30 のユーザイ ンタ: エースを通して目的地 B を入力する。携帯 端末 Pa は位置検出 Taから Ta内の ID を読み込み、 経路案内装置にタグ ID と、 PMタイプの端末である事と、 目的地が Bである というデータを 経路案内装置 10に伝送する。
図 5 に示す経路案内手段 1 のフローチヤ一トに沿って処理を説明する c 経路案内手段 1 では、 位置判定手段 1 1 が構内におけるユーザの位置 A ( 15 , 23)を出力する (ステ ップ 51 )、 経路探索手段 141 は現在地 Aを変数 Entranc e と して(ステップ 52)、現在地 A と 目的地 Bから経路探索を行い ユーザが進む経路を出力する(ステ ップ 53)。 可視多角形算出手段 142 は 現在地点 Aの情報を用いて図 6 に網掛けの領域で示す Aから見える構内 の領域を算出する (ステ ップ 54)。 進行方向算出手段 143 では可視多角形 と経路を重ねて、それらの交点を算出し目的地の交点 D を求め(ステップ 55 )、 交点がある場合は D を変数 Ex i t に束縛する (ステ ップ 56)。 図 6 の 破線矢印で示すベク トル ADをユーザの進行する方向とする。道標算出手 段 144では可視多角形内でユーザの進行方向べク トルと タグと 目標物を 結ぶベタ トル (図 6 の二線矢印) で最も角度の小さいべク トルを道標と して抽出し図 6 の Ld を案内目印と してまた、直前までの進行方向と二線 矢印ベク トルの成す角 0 を 45 度ステ ップで区切り該当する文 「前方左 側」 を登録する (ステップ 57)。 変数 Ex i t の実体を新しい Ent ranc eの実 体と し(ステップ 58)、 ステップ 54 に戻る。 ユーザが図 7の D まで来た 場合、 可視多角形は図 7の網掛けに示すよ う になり 、 目的地の所には目 印 Bがあるので目的地 B を Ex i t とする (ステップ 59)。 目的地 B と 目的 地の方向" 前方" を案内目印と して登録する (ステ ップ 60)。 経路案内文 生成手段 145 では、登録したすべての案内目印に着いて目的地の場合は" X の Yが目的地です。" それ以外は" Xの Yへ向かって歩いて下さい。" のテンプレー トに Xには方向を Yには案内目印を、 それぞれ図 3 5 、 図 3 6 に示す案内目印データをはめて図 3 3 に示す案内文を生成する (ス テツプ 61 )。 この例の場合経路ネッ トワーク に依存した経路案内文を図 3 4に示す。
上記実施の形態 1 は、 構内における広場において、 ユーザの位置情報 からユーザの見通せる領域を計算し、 データベース上で経路データがど のよ う に形成されているかに関わり無く道標を案内する経路案内を可能 にするこ とができる。
(実施の形態 2 )
図 8 は本発明における経路案内手段 2 の構成例を示すブロ ック図であ り 、 構内の経路を探索するための経路データを蓄積しておく 地図 DB40 と、 構内の経路を探索する経路探索手段 170 と、 案内地点のイ ラス ト画 像を蓄積しておく 案内地点イ ラス ト画像 DB70 と、案内地点の二値画像を 蓄積しておく案内地点二値画像 DB80 と、経路探索結果に基づいて案内地 点の画像を検索する画像データ検索手段 171 と、 案内文を蓄積しておく 案内文 DB60 と、 経路探索結果に基づいて案内文 DBから案内文を生成す る案内文生成手段 173 と、 現在地から見える範囲を算出する可視領域算 出手段の一例と しての可視多角形算出手段 174 と、 経路の進行方向が現 在地から どちらの方向.かを算出する進行方向算出手段 175 と、 進行方向 を示す目印となるものを抽出する道標抽出出手段 176 とから構成される c 経路案内手段 2 の実施例を図 9 に示す経路案内手段 2 のフローチヤ一 トに沿って処理を説明する。 ここでは図 4 に示す構内を Eから Fへ破線 矢印の様に通る場合を考える。 経路案内手段 2 では、 経路探索手段 170 を起動する (ステップ 90)と、 出発地 E と 目的地 F及び出力図のパラメ タ を入力する (ステップ 91 )。 経路探索を実行して経路探索結果と してノー ド.列 E, U, Q, R, S, T, Fを出力する (ステップ 92)。 実施例 1 における経路案 内手段 1 のフローチャー トの処理 (ステップ 53 ) 〜 (ステップ 60 ) と同 様にして経路順に可視多角形を求め、案内ポイ ン ト u, q, r, s , t を求める。 図 1 0 に Eからの可視多角形を算出し案内ポイ ン ト uを求めた図を示 す。 (ステップ 93—ステップ 98)。 今経路案内ポイ ン トの閾値 n を 10 と する と、 ノー ド列 EUQRSTFの経路案内ポイ ン トは 7なので経路案内ボイ ン トは nよ り小さい(ステップ 99)。 図 3 7 に示すノ一 ドの通過順と二値 画像データ対照表を参照してパラメ タ指定された二値画像を二値画像 DBから検索し経路探索結果順に並べる (ステ ップ 101 )。 経路案内ポイ ン トが n よ り大きい場合は図 3 7 に示すノー ドの通過順とイ ラス ト画像デ —タ対照表を参照してパラメ タ指定されたィ ラ ス ト画像をイ ラス ト画像 DBから検索し経路探索結果順に並べる (ステ ップ 102)。 図 3 8 に示すノ — ドの通過順と案内文データ対照表を参照して案内文を画像に付加する (ステップ 103)。 図 1 1 〜図 1 5 に示す画像及び案內文を順に携帯端末 30へ出力 して(ステップ 104)、 ィ ラス ト画像の場合は図 4に示すイ ラス ト画像データ解凍手段(35)でィ ラス ト画像データ図 2 3〜図 2 7 を解凍 して(ステ ップ 105)、 終了する (ステップ 106)。
実施の形態 2 に記載の発明は、 構内の経路案内において案内地点を二 値画像またはイ ラス ト画像にユーザの進行する方向へ矢印を加えた画像 データを用いて経路案内を行う こ とによ り 、 地図では経路が解り辛いュ 一ザにもよ り解りやすい経路案内を行う こ とができる。
(実施の形態 3 )
図 1 6 は本発明における経路案内手段 2 の構成例を示すブロ ック図で あ り 、 構内の経路を探索するための経路データを蓄積しておく地図 DB40 と、 構内の経路を探索する経路探索手段 161 と、 各コマ地図における経 路の接続点を一致させてコマ地図を生成するコマ地図生成手段 1 と、 案 内文を蓄積しておく 案内文 DB60 と、 経路探索結果に基づいて案内文 DB から案内文を生成する案内文生成手段 163 とから構成される。
経路案內手段 2 の実施例を図 1 7 に示す経路案内手段 2 のフ 口一チヤ 一ト及び図 1 8 に示すコマ地図生成手段 162 のフ ロ ーチヤ一 トに沿って 処理を説明する。 こ こでは図 4 に示す構内を. Eから Fへ破線矢印の様に 通る場合を考える。 経路案内手段 3 では、 経路探索手段 3 を起動する (3000)と、出発地 E と 目的地 F及ぴ出力画像のパラメ タを入力する (ステ ッ プ 1 71 )。 経路探索 を 実行 し て 経路探 索結果 と し て ノ ー ド列 E, U, Q, R, S , T, F を出力する (ステ ップ 172)。入力された出力画像のパラメ タに従って、 コマ地図生成手段 162 を起動する (ステ ップ 173)。 コマ地 図生成手段 162 ではまず経路の外接矩形を算出する (ステップ 1 74)。 外 接矩形を携帯端末画面の縦横比の整数倍に拡張する (ステップ 175)。 外 接矩形をコマに切り 出し、経路の含まれていないコマは捨てる (ステ ップ 183)。 コマを 1〜 4 の経路順に並べて出力する。 (図 2 0参照) その際、 図 1 9 に示す携帯端末の表示画面サイズの画面に合わせて図 2 0 に示す 構内全図を経路に沿ってコマ地図が重ならず、 各コマ地図の境目の経路 がー致するよ う に即ち一点鎖線で示すよ う に 1 〜 4のコマ図となってい る。 図 3 8 に示すノ ー ドの通過順と案内文データ対照表を参照して案内 文を画像に付加する (ステ ップ 175)。 画像及び案内文を経路探索順に携 帯端末 30へ出力して終了する (ステ ップ 176、 177)。
実施の形態 3 に記載の発明は、 構内特に駅の経路案内において経路案 内のコマ図の表示方向を線路の方向と一致させ、 かつ各コマ地図間の経 路の接続点を一致させて表示するこ と によ り歩行者が方向を失わない経 路案内を提供する こ とができ る。
(実施の形態 4 )
図 1 6 は本発明における経路案内手段 2 の構成例を示すプロ ック図で あ り、 構内の経路を探索するための経路データを蓄積しておく地図 DB40 と、 構内の経路を探索する経路探索手段 161 と、 各コマ地図における経 路の接続点を一致させてコマ地図を生成するコマ地図生成手段 162 と、 各コマ地図における経路を各コマの中央に表示する コマ地図生成手段 164 と、 案内文を蓄積しておく案内文 DB60 と、 経路探索結果に基づいて 案内文 DBから案内文を生成する案内文生成手段 163 とから構成される。 経路案内手段 3 の実施例を図 1 7に示す経路案内手段 3 のフローチヤ 一ト及ぴ図 2 1 に示すコマ地図生成手段 2 のフ ローチヤ一トに沿って処 理'を説明する。 ここでは図 4に示す構内を Eから Fへ破線矢印の様に通 る場合を考える。 経路案内手段 3 では、 経路探索手段 3 を起動する (ステ ップ 170)と、出発地 E と 目的地 F及ぴ出力画像のパラメ タを入力する (ス テ ツ プ 171 )。 経路探索 を実行 して経路探索結果 と し て ノ 一 ド列 E, U, Q, R, S , T, Fを出力する (ステップ 172)。入力された出力画像のパラメ タに従って、 コマ地図生成手段 164 を起動する (ステップ 174)。 経路上 の各ノ一 ド E, U, Q, R, S, T, Fで互いに距離 L (例えば 10m) 以上のものを選 別する (ステップ 21 1 )。 図 2 2 に示す構内全図を経路に沿って一点鎖線 で示すよ う に各ノー ド E, U, Q, R, S , T, F をコマ地図の中央に来るよ う に即 ち 1 〜 5 の コ マ図 に切 り 出す (ス テ ッ プ 2 12 )。 コ マ 図 を各 ノ 一 ド E, U, Q, R, S , T, Fの順に並べる (ステップ 2 13)。図 3 8 に示すノー ドの通過 順と案内文データ対照表を参照して案内文を画像に付加する (ステ ップ 175)。 画像及び案内文を経路探索順に携帯端末 30 へ出力して終了する (ステップ 177)。
実施の形態 4 に記載の発明は、 構内特に駅の経路案内において経路案 内のコマ図の表示方向を線路の方向と一致させ、 かつ各コマ地図におい て目印や経路ノ一 ド等の経路案内ポイ ン トをコマ図の中央に表示するこ とによ り 見易いコマ地図によって経路案内を行う こ とができる。
(実施の形態 5 )
経路誘導手段 1 の実施例を図 2 8 に示す経路誘導手段 1 のフ ローチヤ ー ト及び図 7 に示す経路誘導手段 1 のブロ ッ ク図に基づいて説明する。 こ こでは図 2 9示すよ う に経路を通る場合について説明する。 経路誘導 手段 1 では、 ユーザが経路誘導手段 1 ( 18)を起動する(1800)と、 位置検 出装置 20 によって自動検出された出発地を位置判定手段 1 1 によって地 図データ上の座標に変換し、 さ らにユーザが入力する 目的地を位置判定 手段 11 によって地図データ上の座標に変換する。出発地と 目的地の変換 された座標を経路検索手段 170 に入力 して経路探索を行い、 経路上のノ 一 ド及び施設の列を経路順に出力する (1810)。 図 2 (b )の例で出力され るノー ド ' 施設の列を以下に示す。 m:目印、 t:タグ、 n:ノー ドである。
[mO, nl, ml, m2, n2, n3, m3, n4, n5, m5] …… (経路探索結果出力例)
画像データ合成手段 181 でノー ド及ぴ施設がそれぞれどのコマ図に属 するか地図 DB40 にある表 16 に示す要素一コマ図対応表を調べ対応する コマ図の列をコマ図画像 95 から検索して対応するコマ図上に経路探索 結果の座標列を経路と して描画し、 コマ図画像 DB90 に格納し、 コマ一経 路要素列対応表を図 3 9 に示すよ う に生成する(1815)。
地図 DB40 にある図 4 0のタグ一ノー ド ·施設対応表を参照し経路上の タグをノー ド及び施設の列に入れ込む(1820)。
入れ込んだ結果以下のよ う になる。
[mO, nl, ml, tl, m2, n2, n3, t2, ra3, n4, n5, m5] (a:タグ情報を入れた場 合の要素列の例)
上記では 1:2 と t3が競合し、 t2 を選択した例である。 競合したノー ド t2 と t3 は(t2, t3)という よ う に競合リ ス ト と して地図 DB40にあら力 じ め記憶しておく。 経路誘導中に t2 の代わり に t3 を受信した場合に対処 できるよ う にする。 タグがあるコマはコマに対応するノー ド · 施設の列 をタグで分割する (1825)。
各コマ図に目印と ノー ドの情報及ぴ対応する案内文を生成し夫々案内 画像 DB90 と案内文 DB60に格納する。経路データ 24には案内文及び案内 画像の ID を図 4 3 の形式で格納する (1830)。 図 4 3では、 端末のコー ド に各端末の ID、 現在の状態に端末コー ドの示す端末の状態、 表示コマ攔 には現在表示されているコマ図の ID、 表示文には現在表示されている案 内文の ID、 直前タグは直前に拾ったタグの ID、 経路には経路の要素列、 コマの列には表示するコマ図の ID の列、案内文の列には各コマに対応し た案内文の ID の列を格納し、 現在の状態は状態が変化する と更新し、 表 示コマ及び表示文は端末に表示されているコマ及び案内文が変化する と 更新し、 直前タグはタグを検出するたびに更新する。
次に経路誘導を開始する (1835)。 出発地では図 4 1 の①に相当する図 29 (b)の 1. 1 のコマを送信し表示する (1840)。 位置検出装置 20から送ら れてく る位置情報を位置判定手段 1 1 で調べ(1845 )、タグを検知できてい れば検知したタグが図 4 3 の直前タグと同じかどうかを調べ(1850)、 同 じであれば検知したタグを無視し(1845)に戻る。 違っていれば図 4 1 の ②と③に相当する図 29 (b)の図 1. 2のコマを送信し②を最初に表示して、 検知 したタ グ t l を新しいタグと して記憶する (1855)。 新しいタ グ t l が 図 4 3 の経路欄の列にある最後のタグ t 2 または競合している 1: 3 かどう かを調べ ( 1860 )、 最後のタグでなければボタン操作で③に相当する図 29 (b)の 2 のコマを表示する (1875)。最後のタグであれば経路誘導を終了 する (1865 )。 (1845)でタグが検知できていなければ位置判定手段がユー ザの位置を推定して" 今、 7 番線と 2 番線の間にいます" のよ う な案内 文を生成して端末に送信し(1847)、 (1845)に戻る。 端末では案内文を表 示する。 なおステップ ( 1855 ) ではタ グ t 2 の代わり に t 3 を受信した場 合には、 競合リ ス トを参照して t 2 と t 3 の対応関係を見つけてコマ 3 を 表示する。 また、 最初の方向転換点であるノー ド n l及びノー ドで次に進 行する方向を示す案内文を生成する際に、ノー ド n l が出発地点 S からタ グの電波による位置検出の誤差の範囲に入る場合には、 「右折」のよ う に 出発地点が確かでなければ示せない相対的な方向指示は不適切と なるの で極力避け、 ノー ド n l の位置情報と n l から次の進行方向を示す目印の 案内文を図 4 2の先頭の行よ う に生成する。 図 4 2は実施例 5の案内文 の例である。 コマ図は、 図 29のそれぞれのコマに対応させてィ ラス ト画像 ·二値画 像 · 街区形状を記載した地図を用いても良い。
実施の形態 5 に記載の発明は経路誘導を行う際に、 経路の案内コマ図 とタグ検知を同期させ、 かつタグにおける電波の届く 範囲における誤差 がある場合でも、 ユーザには必ずタグを検知する以前にタグ付近での進 行方向に関する情報を受け取る こ と を保証し、 また、 最初の進行方向転 換地点の位置情報が誤差を含んでいる場合でも、 最初の進行方向転換地 点と、 最初の進行方向転換地点から見える 目印を案内するこ と によ り 、 経路情報の錯綜しない情報提供を行う ことができる。
(実施の形態 6 )
経路誘導手段 2 の実施例を図 30 に示す経路誘導手段 2 のフローチヤ 一ト及び図 8 に示す経路誘導手段 2のプロ ック図に基づいて説明する。 ここでは図 29 に示すよ う に絰路を通る場合について説明する。経路誘導 手段 2では、 ユーザが携帯端末 30 から経路誘導手段 2 ( 16)を起動する ( 1900)と、 位置検出手段 20 によって自動検出された出発地と、 ユーザが 携帯端末 30で入力する 目的地を経路探索手段 170に入力 して経路探索を 行い、経路上のノー ド及び施設の列を経路順に出力する (1905)。図 29 (a) の例で出力されるノー ド · 施設の列を以下に示す。 m :目印、 t :タグ、 n : ノー ドである。
[m0, n l , ml , m2, n2, n3, m3 , n4, n5, m5] ' (経路探索結果出力例)
ノー ド ' 施設の列と図 4 0 のタグ一ノー ド · 施設対応表を参照して、 経路順に経路上にあるタグの列を生成する (1915)。 案内文 D B 60 と案内 文 D B の中にある生成ルールから案内文合成手段 193がノ一ド及び施設 の列に対応する図 4 5 に示す案内文を生成し、 案内文と経路探索結果で ある ノ ー ド及び施設の列を経路の順に図 4 4 に示す形式で経路データ 24 に格納する (1915)。 同時に経路誘導を開始する (1920)。 まず、 経路の 概要の案内を音声発話手段 13 に送り 端末から音声によ る案内を行 う ( 1925)。位置検出装置 20がタグを検知する (1945)と図 4 5 に示す案内文 データの中から検知したタグ t l から次のタグ t2の前までの案内文を端 末に送る (1950)。 t l が経路上の最後のタ グかどうか図 4 4 の経路の欄を 参照して調べる (1955)。 最後のタグでなければ携帯端末からのコマン ド 待ちを行い、 最後のタグであれば経路誘導を終了する (1960)。 携帯端末 上でュ一ザがボタン操作を行う (1930)と、 図 4 4の表示文と案内文の列 の欄を参照しボタン操作に応じて表示文の前や次の案内文を端末に送り . 表示文檷を更新する (1935 )。 更新した表示文が最後の案内文かどうかを 案内文の列を参照して調べ、 最後でなければ携帯端末のコマン ド待ちを 行い、 最後であれば経路誘導を終了し(1960)、 処理を終了する (1965)。 案内文の例 :
図 4 5 はタグ t l を目印 m2の後に検'知した場合の例である。
実施の形態 6 に記載の発明は視覚障害者には経路情報の提供方法と現 在位置の情報提供方式を分けて提供し、 タグを検知した場合には現在位 置を、 進行方向の情報はユーザのボタン操作によ り提供し経路の進行方 向に関する情報の錯綜がない情報提供を行う こ とができる。
(実施の形態 7 )
図 4 6 は、 本発明の実施の形態 7 における経路案内装置の機能プロ ッ ク図を例示する。 図 4 6 において、 経路案内装置 4 6 0 0 は、 位置判定 手段 4 6 0 1 と、 可視領域算出手段 4 6 0 2 と、 経路探索手段 4 6 0 3 と、 進行方向算出手段 4 6 0 4 と、 目印抽出手段 4 6 0 5 と、 案内文生 成手段 4 6 0 6 とから構成される。
位置判定手段 4 6 0 1 は、 ユーザの現在位置を検出する。 例えば、 構 内の壁面、 床面に自身の番号を含む電波を発するタグが埋め込まれ、 ュ 一ザが所持する携帯端末がタグからの電波を受信する よ う にしておき、 携帯端末が送信するタグの番号を位置判定手段 4 6 0 1 が受信してタグ の番号からユーザの現在位置を検出する。 あるいは、 ユーザが所持する 携帯端末が電波を発し、 壁面や床面に設置された受信装置がその電波を 受信し、 どの受信装置が携帯端末の電波を受信したかによつて現在位置 を検出するよ う にしてもよい。
可視領域算出手段 4 6 0 2 は、 検出された現在位置からユーザが見え る範囲である可視領域を算出する。 すなわち、 位置判定手段 4 6 0 1 に よって検出されたユーザの現在位置よ り 、 ユーザが見える範囲を算出す る。 ユーザの視界を遮る障害物をポリ ゴンによって近似し、 それらの位 置を記憶しておけば、 従来の平面走査方による可視領域算出方法によ り ユーザが見える範囲を算出するこ とができる。 また、 他の方法を用いる よ うにしてもよレヽ。
経路探索手段 4 6 0 3 は、 出発地から 目的地までの経路を探索する。 図 4 7 はこの経路の探索に用いられる表の一例を例示しており 、 どの地 点から どの地点へ直接到達できるかが図 4 7の表によ り 表現されている t 例えば、 図 4 7の表の第一行は、 Aという地点から C という地点までが 直接到達できるこ と を意味している。このよ う な表を用いるこ と によ り 、 与えられた任意の出発地から任意の目的地への経路を得るには、 与えら れた最初の出発地が出発地の列に現れる行を検索し、 その行の終着地の 列の値を取得し、 取得された値を出発地とする行を検索し、 その行の終 着地の列の値を取得する という こ とを繰り返し、 目的地が終着地の列の 値と して得られるまで行う。 例えば、 Aを出発地と し、 Gを目的地とす る場合には、 Aを出発地の列の値と して持つ行を検索し、 図 4 7 の第一 行が得られ、 終着地と して Cが得られる。 次に Cを出発地の列の値と し て現れる行を検索し、 第 3行、 第 4行、 第 5行が得られ、 終着地と して D、 E、 Fが得られ、 こ の 3つのそれぞれが出発地の列に現れる行を検 索し、 終着地の列を得る と、 Dが出発地の列に現れる行と して第 6行が 得られ、 その終着地が G となっているので処理が終わ り 、 最終的に、 A →C→D→Gという経路が得られる。
進行方向算出手段は、 可視領域と経路から進行方向を算出する。 すな わち、 可視領域算出手段 4 6 0 2で算出されるユーザが見える範囲と経 路探索手段 4 6 0 3 によって探索された経路からユーザが進行すべき方 向である進行方向を算出する。 算出の方法と しては、 位置判定手段 4 6 0 1 で検出されたユーザの現在位置が、 経路探索手段 4 6 0 3 で探索さ れた経路の出発地であるならば、 出発地から次に進むべき位置の方向が 可視領域内のどの方向にあるかを算出する。例えば、出発地が Aであ り 、 次に進むべき位置が Cである と経路探索手段 4 6 0 3 によ り探索された 場合には、 Aから Cの方向が可視領域内のどの方向にあるかを算出する。 この算出のためには、 各地点の座標位置が図 4 8 に示すよ う に経路案內 装置 4 6 0 0 に格納され、 これらの座標位置から方向を算出するよ う に すればよい。 あるいは、 経路探索手段 4 6 0 3で探索された経路を経路 上の位置を端点とする線分の列で表現しておき、 それらの線分の列と可 視領域算出手段 4 6 0 2 で算出された可視領域との交点を求め、 現在位 置からその交点へ向かう方向を進行方向とするよ う にしてもよい。
目印抽出手段 4 6 0 5 は、 可視領域から案内すべき 目印を抽出する。 すなわち、 可視領域算出手段 4 6 0 2 によって算出された可視領域の中 にある 目印の中から案内すべき 目印を抽出する。 この抽出の処理は、 進 行方向算出手段 4 6 0 4 によって算出された進行方向に近い目印を抽出 する。 目印とその座標位置と を図 4 9 に示すよ う に関連付けておく こ と によ り 、 可視領域算出手段 4 6 0 2によ り算出された可視領域内に存在 する 目印を抽出するこ とができ、 さ らに、 進行方向算出手段 4 6 0 4 に よって算出された進行方向に近い目印を抽出するこ とができる。 も し、 進行方向算出手段 4 6 0 4 によって算出された進行方向に近い目印に存 在しない場合には、 進行方向とは逆方向の目印を算出したり、 左 9 0度 あるいは右 9 0度の方向の目印を抽出したりするよ う にしてもよい。 案内文生成手段 4 6 0 6 は、 求めた経路の経路案内文を生成する。 す なわち、 経路探索手段 4 6 0 3で探索された経路を進行方向算出手段 4 6 0 4 によ り算出された進行方向あるいは目印抽出手段 4 6 0 5 によ り 抽出された目印をたよ り にして進む場合の経路を案内する案内文を生成 する。 この案内文を生成するには、 「 Aを Bに見ながら進んでく ださい」 という変数を含む案内文のテンプレー トを用意しておき、 「A」には目印 の名前を入れるよ う に し、 「 B J には、 その目印が見える方向を入れるよ う にして案内分を生成する よ う に してもよい。 例えば、 目印抽出手段 4 6 0 5 によ り 、 進行方向の近く に L d という 目印が目印抽出手段によ り 抽出され、その目印が進行方向から左側であるこ とが計算されたならば、 Γ Α」 には L d を代入し、 「 B」 には 「左前方」 を代入して 「 L d を左前 方に見ながら進んでく ださい」 という案内文を先生する。 あるいは、 図
3 3 に示すよ う に最初から完全な案内文を用意しておき、 目印とその見 える方向によって検索を行い、 表の第一行目の案内文を取得するよ う に してもよい。 また、 目的地が可視領域内にあ り 、 それがユーザの前方に あるこ とが判明すれば、 図 3 3の行の第二行目 を取得する。
本実施の形態において、 可視領域算出手段 4 6 0 2 は、 位置判定手段
4 6 0 1 で検出されたユーザの現在地から見える範囲のみならず、 経路 探索手段 4 6 0 3 で探索された経路上の地点から見える範囲を算出する よ う に してもよい。 図 5は、 このよ う な場合の経路案内装置 4 6 0 0の 動作を説明するフローチャー トである。 · まず、 位置情報、 すなわち、 ユーザの現在位置を位置判定手段によ り 検出し ( 5 1 )、 現在位置を E n t r a n e e とする。 すなわち、 現在位 置の座標を E n t r a n c e という変数に代入する ( 5 2 )。 次に、 経路 探索手段 4 6 0 3 によ り現在地から 目的地までの経路を探索する( 5 3 ), E n t r a n c e から 目的地の方向の可視多角形を算出する ( 5 4 )。 す なわち、 可視領域算出手段 4 6 0 2 を用いて E n t r a n c e という変 数に代入されている地点よ り見える範囲である可視多角形を算出する。 次に、 経路探索結果と可視多角形の交点があるかどう かを判断する ( 5 5 )。 すなわち、 経路探索手段 4 6 0 3 によ り探索された経路と可視領域 算出手段 4 6 0 2 との交点があるかど うかを調ぺ、 も し交点があれば、 経路探索結果と可視多角形の交点を E X i t とする ( 5 6 )。 すなわち、 その交点を E x i t という変数に代入する。 E n t r a n c e に代入さ れている地点から E x i t に代入されている地点への方向を進行方向算 出手段 4 6 0 4 によ り 求め、 方向の違いが最小となる 目印を目印抽出手 段 4 6 0 5 によ り抽出し、 求められた方向と 目印を登録する ( 5 7 )。 次 に E x i t に代入されている地点を E n t r a n c eへ代入し、 ステツ プ 5 4へ戻る。
も し、 ステップ 5 5 において、 交点がなければ、 目的地が可視領域で ある可視多角形にある場合には目的地を E x i t に代入する ( 5 9 )。 そ して、 目的地と 目的地の方向を登録し ( 6 0 )、 登録したすべての目印、 方向を案内文に入れて出力する ( 6 1 )。
このよ う な実施の形態によ り、 経路探索手段によ り 、 遠回りする経路 が探索されても、目的地へ早く到達でき る経路を案内する こ とができる。 また、 位置判定手段は端末の現在地を一定の時間間隔毎に取得し、 案 内文生成手段は、 経路探索手段によって探索された経路の中に存在する 目印に近づいたこ とを判断する と端末へ次の目印に関する経路め案内文 を生成するよ う にしてもよい。 すなわち、 端末へ次の目印に関する経路 の案内文を生成したものを送信する。 このよ う にユーザに次の目印に関 する案内文を端末へ生成するこ と によ り 、 ユーザに対して次の目印に近 づいた時の方向などを予告するこ とができ、 スムーズな経路案内が可能 となる。
(実施の形態 8 )
図 5 0 は、 本発明の実施の形態 8 における経路案内装置の機能プロ ッ ク図を例示する。 図 5 0 において、 経路案内装置は、 実施の形態 7 の経 路案内装置 4 6 0 0 に画像データ検索手段 5 0 0 1 が追加されたものに なっている。
画像データ検索手段 5 0 0 1 は、 経路上の通過する地点を案内するた めに指定された視点画像データを検索する。 すなわち、 経路探索手段 4 ' 6 0 3 で探索された経路を進行方向算出手段 4 6 0 4 によ り算出された 進行方向あるいは目印抽出手段 4 6 0 5 によ り抽出された目印をたよ り にして進む場合の経路を案内するための画像データを検索する。 この場 合の画像データは、 視点画像データである。 視点画像データ とは、 風景 を特定の視点よ り見た場合の画像のデータであ り 、 風景を 3次元的に表 現した画像データである。 例えば、 遠近法によ り表現された画像や、 風 景を鳥瞰する画像が挙げられる。
画像データ検索手段 5 0 0 1 は、 例えば、 ユーザの位置と進行方法算 出手段 4 6 0 4 で算出された方向とから、 また、 ユーザの位置と 目印抽 出手段 4 6 0 5 によ り抽出された目印に応じて画像データを検索するこ と を行う。 図 5 1 は、 「通過する地点」 と 「画像データ」 と を関連付けた 表であり 、 「通過する地点」 は、 3 つの要素からな り 、 例えば、 第 1要素 が出発地、 第 2要素が途中の経由地、 第 3要素が経由 して着く べき地点 を表し、 あるいは、 最初の要素が位置であ り 、 第 2 の要素が方向、 第 3 の要素が目印を表し、 この 3 つの要素に対して、 「画像データ」 の列に格 納された画像データを検索すること を表している。 図 5 2 は、 本実施の形態において案内文生成手段 4 6 0 6が案内文を 生成するために用いるためのデータが格納された表を例示している。 図 5 2 においては、 画像データ検索手段 5 0 0 1 で検索される画像データ と同期を取って案内文を生成するために図 5 1 の表の 「通過する地点」 の列と同 じ列が図 5 2に存在しているが、 画像データ検索手段 5 0 0 1 で検索される画像データ と同期を取って案内文が生成される点に限定さ れるこ と はなく 、 画像データを捕足する内容、 あるいは、 画像データよ り詳しい内容の案内文を生成するよ う にしてもよい。
本実施の形態による経路案内装置によれば、 案内されるユーザに、 3 次元的に表現された視点画像データ と と もに案内文を提供するこ とが可 能とな り 、 よ り理解しゃすい案内サービスをユーザに提供するこ とがで さる。
(実施の形態 9 )
図 5 3 は、 本発明の実施の形態 9 にかかわる経路案内装置の機能プロ ック図を例示してお り 、 経路案内装置 5 3 0 0 は、 経路探索手段 5 3 0 1 と、 コマ地図生成手段 5 3 0 2 と、 地図データベース 5 3 0 3 と、 案 内文生成手段 5 3 0 4 とを備えている。
経路探索手段 5 3 0 1 は、 実施の形態 7および実施の形態 8で説明 し たよ う に、 出発地から 目的地までの経路を探索する。
コマ地図生成手段 5 3 0 2 は、 通過する地点を案内するために地図デ ータベース 5 3 0 3 から通過する地点の周囲の地図をコマ地図と して切 り 出し、 切り 出す際に各コマにおける経路の一部が重複するよ う に各コ マを切 り 出す。 「通過する地点」 とは、 経路探索手段 5 3 0 1 で探索され た経路を移動する際に、 通過すべき地点である。 地図データベース 5 3 0 3 は、 経路を移動する際の通過すべき地点の周囲の地図を保持してお り 、 例えば、 地点の座標を与える と、 その座標の周囲の地図が検索され る ものである。 「切り 出す際に各コマにおける経路の一部が重複する」と は、 ある地図がコマと して切り 出され、 次に切 り 出される地図のコマを 比べた場合に、 両方のコマに表示される経路に共通部分がある とい う こ とである。
案内文生成手段 5 3 0 4 は、 通過する地点を案内するための案内文を 生成する。 実施の形態 8 におけるよ う にコマ地図生成手段 5 3 0 2で生 成される コマと同期を取って案内文が生成されてもよい し、 コマの内容 を捕足する内容、 あるいは、 コマよ り詳しい内容の案内文を生成するよ う にしてもよい。
図 5 4 は、 経路案内装置 5 3 0 0 の処理について、 コマ地図生成手段 の処理を中心に説明するフ ローチャー トである。 まず、 経路探索手段 5 3 0 1 によ り経路を探索して経路を取得する ( S 5 4 0 1 )。 次に、 変数 Lに出発地を代入する ( S 5 4 0 2 )。 出発地を代入する とは、 出発地の 座標を代入するこ とである。 その後、 Lが目的地かどうかを判定する ( S 5 4 0 3 )。すなわち、 Lの座標が目的地の座標であるかど うかを判定し、 目的地であれば処理を終了 し、 そ う でなければ、 Lの周辺の地図を得る ( S 5 4 0 4 )。 すなわち、 Lに代入された座標の周辺の地図をコマと し て地図データベース 5 3 0 3 よ り 取得する。 コマが取得されれば、 それ をユーザに表示したり 、 Lに代入された座標位置と関連付けて蓄積した り しておき、 ユーザがその座標の位置に到達したこ とが検出されたと き にコマを表示するよ う にする。 周辺の地図が得られたら、 Lを経路に沿 つて移動させる ( S 5 4 0 5 )。 すなわち、 Lに代入されている座標位置 を、 経路に沿って移動した後の座標に更新する。 この際、 Lに代入され ている座標位置を、 コマの地図上に表示されている経路上の位置にする こ とによ り 、 「切り 出す際に各コマにおける経路の一部が重複する」よ う になる。 Lを移動させた後は、 ステップ S 5 4 0 3 へ戻る。 このよ う にコマを切り 出す際に各コマにおける経路が重複するよ う に するこ とによ り 、 次のコマがユーザに表示される際に、 コマ上に表示さ れるユーザの現在位置が画面上で大き く 変化するこ とがなく な り 、 ユー ザにとって見やすい表示が可能となる。
(実施の形態 1 0 )
本発明の実施の形態 9 においては、 実施の形態 8 においてコマ地図生 成手段 5 3 0 2がコマを切り 出す際に、 各コマにおける経路が重複する よ う にするかわり に、 各コマにおける経路が画面の中央部に表示される よ う に切り 出すよ う にする。
例えば、 経路探索手段 5 3 0 1 によ り 、 経路と して図 2 2 に示すよ う に E、 U、 Q、 R、 S、 T、 F とい う地点を通過する ものが探索された 場合、 この地点の中からあらかじめ定められた距離 L (例えば 1 0 m ) 以上離れたものを選別し、図 2 2 の一点鎖線で示すよ う に各地点 E、U、 ς!、 R、 S、 T、 F をコマ地図の中央に来るよ う に 1 〜 5 のコマ図に切 り 出し、 コマ図を E、 U、 Q、 R、 S、 T、 Fの順に並べるこ と を行う。 このよ う に、 経路が画面の中央部に表示されるよ う に切 り 出すこ と に よ り 、 経路の上の通過すべき地点がコマ図の中央に表示され、 よ り 見や すいコマ地図によ り経路案内を行う こ とが可能となる。
(実施の形態 1 1 )
実施の形態 7から実施の形態 1 0 において、 案内文生成手段は、 通過 する地点を案内するためにユーザの移動方向を基準に案内文を生成する よ う にするよ う にしてもよい。 ユーザの移動方向とは、 経路探索手段に よ り経路が探索された経路をユーザが進む場合のユーザが移動する方向 である。 このよ う に案内文を生成する こ とによ り 、 経路がある地点で曲 がっている場合には、 ユーザがその地点に来るまでの移動方向に対して どちらに曲がるかの案内文が生成される。 例えば、 経路探索手段によ'り 図 2 9 の ( a ) に示す Sから Gまでの経路が探索されたとする と、 n l の地点において経路が曲がっているが、 n 1 で曲がる案内文を生成する 際には、 m 0 の地点から n 1 に移動するユーザにとっては右に曲がるの で、 「 n 1 において右に曲がってく ださい」とい う案内文を生成する こ と になる。
このよ う にユーザの移動方向を基準とする案内文を生成するこ と によ り 、 例えば 「 n 1 において m 1 が存在する方向に曲がってく ださい」 と い う案内文よ り理解しやすい案内文によってユーザを案内するこ とが可 能となる。
(実施の形態 1 2 )
実施の形態 7から実施の形態 1 1 において、 経路案内装置が駅構内の プラ ッ トホーム内の地点を通過する経路を案内する場合には、 案内文生 成手段は、 通過する地点を案内するために駅のプラ ッ トホームにおいて ユーザに対する線路の方向を基準に案内文を生成する よ う にしても よい, 線路は通常は一直線に伸びており 、 また、 目立つ構造物であるので、 線 路の方向を基準に して、 「線路に向かって右に曲がって く ださい」 や、 Γ線路に沿ってそのまま直進してく ださい」とい う案内文を生成する と、 ユーザにとってわかりやすい案内が可能となる。
(実施の形態 1 3 )
実施の形態 7から実施の形態 1 2において、 案内文生成手段は、 出発 地が最初に方向転換する地点に近い場合には、 最初の方向転換地点では 右左折の案内は行わず、 方向転換地点から方向転換方向を示す目印の案 内文を生成するよ う にしてもよい。 例えば、 経路探索手段によって S を 出発地と し、 Gを目的地とする経路と して図 2 9の ( a ) に示す経路が 探索されたと して、 出発地 S と最初の方向転換地点 n l が近いとする。 '出発地 S力 S、 タグなどの電波を用いて検出された位置である とする と、 その位置は誤差をもって検出されるので、 ユーザは実際には図 2 9 の ( a ) において、 Sではなく 、 n 1 からみて S と は反対側にいる可能性 がある。 も し、 n 1 からみて S とは反対側にユーザが実際にいる と、 案 内文生成手段がユーザは S にいる ものとみなして 「 n 1 において右折し てく ださい」 という案内文を生成してしま う と、 ユーザは n l において m 1 とは反対の方向へ移動してしま う こ とになつて しま う。 そこで、 出 発地と最初の方向転換地点が近い場合には、右左折の案内を行わないで、 方向転換地点から方向転換方向を示す自印の案内文を生成するよ う にす る。
図 5 5 は、 本実施の形態における案内文生成手段による案内文の生成 の処理を説明するフローチャー トである。 まず、 ステップ S 5 5 0 1 に おいて、 目的地まで案内したかどう かを判断する。 すなわち、 目的地ま での案内文が生成されたかどう かを判断し、 も し目的地までの案内文が 生成されたのであれば処理を終了し、 そ うでなければステップ S 5 5 0 2 移動し、 案内すべき地点が方向転換地点かどうかを判断する。 も し 方向転換地点でなければ、 ステップ S 5 5 0 3へ移行し、 案内文を生成 してステップ S 5 5 0 1 へ戻る。 も し、 方向転換地点であれば、 ステツ プ S 5 5 0 4 移行し、 この方向転換地点は最初の方向転換地点である ので、 この方向転換地点と 出発地点とが近いかどう 力 すなわち、 誤差 範囲に入るかどう かを判断し、 も し、 誤差範囲に入るのであれば、 ステ ップ S 5 5 0 5 に移行して方向転換方向を示す目印の案内文を生成する < 例えば、 図 2 9の ( a ) の場合において、 n 1 において 「m l が見える 向きに曲がってく ださい」 という案内文を生成する こ と になる。 も し、 ステップ S 5 5 0 4 において最初の方向転換地点と出発地点とが誤差範 囲に入らないのであれば、 ステップ S 5 5 0 6 移行して方向転換の方 向を案内する案内文を生成する。 以下、 ステップ S 5 5 0 7 とステップ S 5 5 0 8 においては、 目的地までの案内文を生成するまで、 通常通り に案内文を生成する こ とを繰り返す。
このよ う に最初の方向転換地点が出発地に近い場合には、 方向転換方 向を示す目印の案内文を生成するこ と によ り 、 ユーザが全く異なる方向 へ移動するこ とを防止するこ とができる。
(実施の形態 1 4 )
実施の形態 7から実施の形態 1 3 において、 経路案内装置がタグ検出 手段を備え、 案内文生成手段は、 タグ検出手段が検出したタグの付近の 位置情報を案内する案内文を生成する よ う にしてもよい。 タグの付近の 位置情報と しては、 タ グがどこにあるか、 あるいは、 タグの周囲に何が あるかなどの情報が例と して挙げられる。
図 5 6 は、 本実施の形態における経路案内装置の処理を説明するフロ 一チヤ一 トである。 ステップ S 5 6 0 1 においてタグがタグ検出手段に よって検出されたかどうかを判断する。 も し、 タグが検出されない場合 は、ステップ S 5 6 0 2へ移行し、案内が終了したかどう かを判断する。 案内が終了する場合と しては、 ユーザが案内の終了のボタンなどを押し た場合が挙げられる。 も し案内が終了したのであれば処理を終了し、 そ うでなければステップ S 5 6 0 1へ戻る。
ステップ S 5 6 0 1 においてタグが検出された場合には、 ステップ S 5 6 0 3に移行し、 タグの位置を得る。 タグの位置を得るには、 図 3 1 に示すよ う に、 タ グの I D と座標位置を関連付けて記憶した内容から得 るよ う にすればよい。 ステ ップ S 5 6 0 4 においては、 得られた位置の 付近の位置情報を案内する案内文を生成し、ステップ S 5 6 0 1 へ戻る。 このよ う にタグが検出される とその付近の位置情報を案內する案内文 を生成するこ とによ り 、 案内されるユーザは自分が正しい方向へ移動し ているかどう かを知る こ とができる。 また、 美術館などにおいて、 美術 品の前に移動する とその美術品に関する案内文をユーザに知らせる こ と ができるよ う になる。
また、 本実施の形態において、 タグ検出手段がタグを検知するのと同 期して、 経路沿いの目印情報ごとの案内文を経路順に並べてそれぞれの 案内文を順に読み上げる よ う にしてもよい。 すなわち、 ユーザが経路を 移動する よ う に案内するために、 目印に関する情報を、 経路上を進行す る場合に現れる 目印の順に並べておき、 それぞれの情報をタグが検知さ れる都度、 順に読み上げるよ う にしてもよい。
(実施の形態 1 5 )
実施の形態 7 から実施の形態 1 4 において、 案内文生成手段は案内文 要求受け付け機能を有し、 案内文生成手段は、 案内文要求受け付け機能 に基づいて案内文要求を受け付ける と、 経路沿いの目印情報ごとの案内 文を経路順に並べてそれぞれの案内文を順に読み上げる よ う にしてもよ い。
図 5 7 は、 本実施の形態における経路案内装置の機能プロ ック図の一 部を示しており 、 案内文生成手段 5 3 0 4が案内文要求受け付け機能 5 7 0 1 を有しており 、 案内文要求受け付け機能 5 7 0 1 は、 案内文の読 み上げの要求である案内文要求を受け付ける。 案内文要求受け付け機能 5 7 0 1 は、 ボタン、 音声認識、 タ ツチパネルなどの入力手段によ り構 成される。 案内文要求受け付け機能 5 7 0 1 が案内文要求を受け付ける と案内文生成手段は、 経路に沿ってユーザを案内するための目印に関す る情報である 目印情報ごと の案内文を経路順に並べて、 それぞれの案内 文を順に読み上げる。 すなわち、 案内文生成手段は、 目印情報ごと の案 内文を経路順に並べて蓄積しておき、 案内文要求が受け付けられる とそ れぞれの案内文を順に読み上げることを行う。
図 5 8は、 本実施の形態における案内文生成手段 5 3 0 4の処理を説 明するフローチャー トである。 ステップ S 5 8 0 1 において、 案内文要 求が案内文要求受け付け'機能 5 7 0 1 によ り受け付けられたかどう かを 判断し、 も し受け付けられた場合には、 ステップ S 5 8 0 2へ移行し、 目印情報の案内文を読み上げる。 例えば、 現在位置から見える 目印につ いて、 それが どの方向に見え、 その方向に向かってどちらに進めばよい かなどの案内文を読み上げるこ と を行う。 読み上げが終わる とステップ S 5 8 0 1 へ戻る。
また、 ステップ S 5 8 0 1 において案内文要求が受け付けられていな い場合には、 ステップ S 5 8 0 3へ移行し、 案内が終了したかどう かを 判断し、 も し終了ならば処理を終了し、 そ うでなければステップ S 5 8 0 1へ戻る。 案内が終了したかどう かは、 例えば、 ユーザによるボタン などの操作の検出や、 目的地に到達したこ と を位置判定手段によつて検 出するこ と によ り判断する。
このよ う に経路案内装置が案内文要求受け付け機能 5 7 0 1 によって 案内文要求を受け付けて案内文を読み上げるこ とによ り 、 ユーザが案内 文を欲したと きに案内文を提供するこ とが.可能となる。
また、 案内文生成手段 5 3 0 4がユーザ特徴情報受付機能を有し、 ュ 一ザ特徴情報受付機能に基づいて受け付けたユーザの特徴に関する情報 であるユーザ特徴情報に応じて案内文生成手段 5 3 0 4が経路の情報を 提供するよ う にしてもよい。 ュ一ザ特徴情報受付機能とは、 ユーザの特 徴に関する情報であるユーザ特徴情報を受け付ける機能であり 、例えば、 ユーザの年齢は何歳か、 ユーザが外国人かどうカ も し日本人でなけれ ば何語を母国語とするか、 ユーザが視覚障害者かどう力 聴覚障害者か どう力 歩行障害者かどう 力 健常者であるかどう力 、 などの経路案内 にあたって留意すべき特徴を受け付ける。 案内文生成手段は、 このユー ザ特徴情報受付機能で受け付けられたユーザ特徴情報に応じて、 経路の . 情報を提供する。 例えば、 ユーザが幼年者、 あるいは、 老人であれば、 案内文の読み上げをゆつ く り と行う よ う にした り 、 地図を表示する場合 には、 地図に含まれる文字を大き く した り 、 幼年者であれば、 漢字をで きるだけ使わないよ う にするよ う にする。 ユーザが外国人であれば、 そ の母国語による案内文の読み上げ、 地図の表示を行う。 特に、 ユーザが 聴覚障害者であれば、 経路の情報を読み上げるこ とはせずに、 文字の表 示によって経路の情報を提供し、 視覚障害者であれば、 経路の情報を表 示せずに読み上げる こ とを行う。 また、 階段などの障害物が経路上にあ れば、 それを前もって知らせる案内文を生成して読み上げるよ う にして もよい。 さらに点字プロ ックがどこにあるか、 特定の音が聞こえる方向 に対してどの方向に進むべきカ 路面を杖で突く 時の感触や音がどのよ う なものか、 あるいは、 どのよ う に変化して行く カヽ また、 大きな目標 物、 目立つ光源、 点字による案内表示がどこにあるかなどの視覚障害者 にと つて特に意味のある目印についての案内文を生成して読み上げる よ う にしてもよい。 また、 ユーザが健常者と同じ通路を移動するのに困難 を感じる とい うユーザ特徴情報や、 あるいは、 健常者よ り歩く のが遅い というユーザ特徴情報が受け付けられた場合には、 階段のかわり に、 ス 口一プゃエレベータがどの方向に、 どの程度離れたと ころにあるかなど の情報を提供した り 、 人の流れがゆるやかな経路の存在などを提供した りするよ う にしてもよい。
(実施の形態 1 6 )
本発明の実施の形態 1 6 においては、 実施の形態 7 または 8の経路案 内装置が、 さ らに、 タグ検出手段と経路誘導手段を備える。 タグ検出手 段は、 構内に置かれたタグを検出し、 このタグ検出手段によ り 、 タグを 検出する こ と によ り 、 タグの位置が取得され、 現在どこにいるかの位置 が検出される。 経路誘導手段は、 タグ検出手段がタグを検知するのと同 期して、 タグの位置と対応する コマ図または視点画像、 および、 経路案 内文を表示または案内文を読み上げるこ と を行う。
このよ う にタグ検出によ り位置の検出が行われ、 それと同期してコマ 図または視点画像、 および経路案内文の表示、 または、 案内文の読み上 げが行われるこ とによ り 、 ユーザが経路を移動するに従って、 適切なコ マ図または視点画像、 および、 経路案内文の表示や案内文が読み上げら れるので、 ユーザにとってわかりやすい経路案内のサービスを提供する こ とができ る。
(実施の形態 1 7 )
本発明の実施の形態においては、 実施の形態 7 または 8 における位置 判定手段 4 6 0 1 がタグによってユーザの現在位置を検出するものであ つて、 ユーザ要求取得手段と経路誘導手段とを更に備える。 図 6 0 は本 実施の形態における経路案内装置の機能ブロ ック図を示しており 、 ユー ザ要求取得手段 6 0 0 1 と経路誘導手段 6 0 0 2 とが図 4 6 に加えられ たものになっている。
ユーザ要求取得手段 6 0 0 1 は、ュ一ザの要求を取得する。すなわち、 経路情報の提供を受けたいという要求を取得し、 例えば、 ボタン、 音声 認識、 タ ツチパネルなどの入力手段によ り構成される。
経路誘導手段 6 0 0 2は、 ユーザ要求取得手段 6 0 0 1 が取得するュ 一ザの要求に応じて、経路の順にタ グと対応するコマ図または視点画像、 および、 経路案内文を端末に表示、 または、 案内文を読み上げる こ と を 行う。 すなわち、 ユーザの移動に伴って、 どのタグが検出 したかを記憶 し、 現在位置を識別して、 ユーザの要求があれば識別された現在位置に 対応するマ図または視点画像、 および、 経路案内文を端末に表示、 また は、 案内文を読み上げ、 ユーザが経路上を移動するよ う に誘導するこ と を行う。 図 5 9 は、 本実施の形態における位置判定手段 4 6 0 1 、 ユーザ要求 取得手段 6 0 0 1 、 経路誘導手段 6 0 0 2 の動作を説明するフ ローチヤ ー トである。 まずステップ S 5 9 0 1 において、 ユーザ要求取得手段 6 0 0 1 においてユーザ要求が取得されたかどう かを判断する。 も し、 取 得された場合には、 ステップ S 5 9 0 2 に移行し、 タグで検出された位 置を得る。 タグで検出された位置とは、 タグからの電波を受信するこ と によ り 、 そのタグの識別子を検出し、 タグの識別子と位置と を対応付け る情報よ り位置を検出する こ とである。ステップ S 5 9 0 3 においては、 位置に対応するコマ図または視点画像を得て表示するこ と を行う(も し、 画像データ検索手段がなければステ ップ S 5 9 0 3 は実行しない)。ステ ップ S 5 9 0 4においては、 位置に対応する案内文を読み上げるこ と を 行い、 ステップ S 5 9 0 1へ戻る。
ステップ S 5 9 0 1 において、 ュ一ザ要求が取得されていないと判断 された場合には、 ステップ S 5 9 0 5へ移行し、 位置判定手段 4 6 0 1 によ り タグが検出されたかどう かを判断し、 も しタグが検出されたなら ば、 ステップ S 5 9 0 6へ移行し、 タグを記憶する。 すなわち、 タグの 識別子を記憶して、 ステ ップ S 5 9 0 2において位置が検出できる よ う にする。 そしてステップ S 5 9 0 1 へ戻る。
ステ ップ S 5 9 0 5 において、 タグが検出されなければ案内が終了し たかど う かを判断し、 も しそ う ならば処理全体を終了し、 そ うでなけれ ぱステップ S 5 9 0 1 へ戻る。 案内が終了したかど うかは、 位置判定手 段 4 6 0 1 で検出されたタグが目的地のものであるかどう かで検出 した り 、 ユーザが案内の終了のボタン操作を行ったこ となどを検出した り し て行う。
(実施の形態 1 8 )
本実施の形態は、 可視領域算出器に関する。 本実施の形態において、 可視領域算出器は、 一つの多角形の中に視点と 1 または複数の多角形と がある場合に、 最初に最も外側にある多角形について視点からの可視領 域を求める。 次に、 最も外側にある多角形以外の多角形について、 それ ぞれの多角形のみについて視点から見える部分を連続した線分の列と し て求め、 求めた線分の列を偏角の順に並べ、 並べられた順に、 線分の列 を線分の列と一つ前の線分の列の処理が終了した時点で生成される可視 領域との位置関係を考慮して、 視点から見える該線分の部分を求め、 求 めた部分と可視領域を接続するこ とによ り新しい可視領域を求める処理 によ り視点から見える範囲を算出する。
図 6 1 は、 本実施の形態における可視領域算出器の動作を説明するフ ローチャー トである。
ステップ 2 1 1 0 において、最外郭多角形について可視領域を求める。 本実施の形態における可視領域算出器は、 一つの多角形の中に視点と 1 または複数の多角形とがある場合に可視領域を算出する ものであるが、 その 「視点と 1 または複数の多角形」 と を中に含む 「一つの多角形」 が 最外郭多角形である。 本ステ ップにおいては、 最外郭多角形について、 視点よ り 見える範囲である可視領域を算出する。 最外郭多角形が凸図形 であれば、 最外郭多角形がそのまま可視領域となるが、 最外郭多角形が 凹んだ図形である場合には、 最外郭多角形よ り狭い範囲が可視領域とな る ときがある。
ステップ 2 1 2 0 において、 各施設において該施設のみの可視折れ線 を求める。 「各施設」とは、最外郭多角形の中にある多角形を意味し、 「可 視折れ線」 とは、 多角形の視点よ り 見える部分の連続した線分のこ とで ある。
ステ ップ 2 1 3 0 においては、 ステ ップ 2 1 2 0で求められた可視折 れ線とい う線分の列を、 可視折れ線のどちらかの端点への偏角が小さい 順に可視折れ線をソー トする。 「偏角」 とは、 ある一定の方向を定めてお き、 その方向を基準とする角度である。
ステップ 2 1 4 0 において、 ソー ト された可視折れ線を順に取り 出す ために、 変数 I に 0 を代入する。
ステップ 2 1 4 5、 2 1 5 0、 2 1 6 0は、 上記の 「線分の列と一つ 前の線分の列の処理が終了 した時点で生成される可視領域との位置関係 を考慮して、 視点から見える該線分の部分を求め、 求めた部分と可視領 域を接続する こ と によ り新しい可視領域を求める処理」 に相当するステ ップである。
まず、 ステップ 2 1 4 5 は、 I 番目の可視折れ線について、 両端が可 視領域の内部にあるのか外部にあるのかを判定する。 も し、 両端が内部 にあればステ ップ 2 1 6 0、 両端が外部にあれば 2 1 7 0、 片方が内部 にあれば 2 1 5 0 の処理をそれぞれ実行する。
ステップ 2 1 5 0 は、 可視折れ線の端点の片方が可視領域の内部にあ る場合の処理であり 、 可視折れ線と可視領域の交点と、 可視折れ線のも う片方の端を通る視点からの半直線と可視領域との交点を求め、 2つの 交点と可視領域内にある可視折れ線と可視領域を構成する座標が反時計 周 り となる よ う に新しい可視領域を生成し、 可視折れ線へのポインタを 記憶する。 すなわち、 図 6 9 において、 線分 6 9 0 1 が I 番目の可視折 れ線であり 、 点 Bが可視領域内部にあ り 、 線分 6 9 0 1 の点 Bでない端 点が可視領域の外部にある。 折れ線 6 9 0 2 は可視領域を構成する多角 形の辺である。 この場合において可視折れ線である線分 6 9 0 1 と可視 領域の交点 Cを求める。 また、 可視折れ線である線分 6 9 0 1 のも う片 方の端である点 Bを通る視点からの半直線と可視領域と の交点 を求 める。 2つの交点 C と B ' と可視領域内にある可視折れ線 B C との座標 'が反時計周 り になるよ う に新しい可視領域を生成する。 すなわち、 C B B 一 とい う折れ線を境界とする新しい可視領域を生成する。 新しい可視 領域の境界である C B B ,のポイ ンタを記憶する。 「ポイ ンタ」 とは、 も のをその位置によって指し示すものであ り 、 C B B 'のポインタ とは、 C B B 一 という折れ線の位置を指し示すものである。 例えば、 C B B B ' とい う辺のデータが計算機のメ モ リ 中に蓄積されている場合には、 辺のデータが蓄積されているメ モリ ア ド レスを記憶する。 この処理が終 わると、 ステップ 2 1 7 0 移行する。
ステップ 2 1 6 0 は、 可視折れ線の端点の両方が可視領域の内部にな る場合の処理であ り 、 視点から可視領域の両端を通る二本の半直線が可 視領域と交わる交点と、 それぞれの交点に対応する可視領域の両端と を 繋ぐ 2本分の線分と可視折れ線を新しい 3本の線分と し、 新しい線分と 可視領域と を構成する座標が反時計周 り となる よ う に新しい可視領域を 生成し可視折れ線へのポイ ンタを記億する。 図 6 8が可視折れ線の端点 の両方が可視領域の内部になる場合を例示してお り 、 端点を Aと B とす る辺 6 8 0 1 を可視折れ線と し、可視領域の境界を線分 6 8 0 2 とする。 この場合には、 視点よ り Aを通る半直線を引き、 それが線分 6 8 0 2 と 交わる点を求め A ' とする。 また、 視点よ り B を通る半直線を引き、 そ れが線分 6 8 0 2 と交わる点を求め B ' とする。 これによ り可視領域の 両端と を繋ぐ 2本分の線分と して AA ' と B B とが得られ、 これらの 線分と可視折れ線 6 8 0 1 とを構成する座標が反時計周 り になるよ う に A ' A B B 一 と繋いで新しい可視領域を生成する。 新しい可視領域の境 界である A ' A B B ' のポインタを記憶する。 すなわち、 A ' Α Α Β Β Β ' とレ、 う辺のデータがメモ リ 中に蓄積されている場合には、 蓄積さ れているメモリ ア ド レスを記憶する。 この処理が終わる と、 ステップ 2 1 7 0 移行する。
ステップ 2 1 7 0 は、 I 番目の可視折れ線の両端が可視領域の外部に ある場合、 ステップ 2 1 5 0の処理が終わった後、 ステップ 2 1 6 0 の 処理が終わった後で実行される処理であり 、 I の値を 1 だけ増やし、 I が可視折れ線の数と等しく なれば全ての可視折れ線の処理が終わったの でステップ 2 1 8 0へ以降し、 そ うでなければステップ 2 1 4 5へ移行 し、 次の可視折れ線の処理を行う。
ステップ 2 1 8 0 においては、 全ての可視折れ線の処理が終わ り 、 可 視領域が求められたので、 求められた可視領域をポリ ゴンデータ と可視 領域の一部となったすべての可視折れ線のポイ ンタを出力するこ と を行 う。 すなわち、 可視領域をポリ ゴンデータ と して出力するために、 可視 領域を構成する全ての可視折れ線のポインタを出力する。
このよ う な実施の形態においては、 偏角を決めるための基準と なる方 向を任意に定めて可視領域を計算する こ とができるので、 最外郭多角形 の中に視点と多角形が存在する場合に、 視点から見える範囲を従来知ら れた方法を用いるよ り も高速に算出するこ とができる。
(実施の形態 1 9 )
本実施の形態における可視領域算出器は、 一つの多角形 (以下 「最外 郭多角形」とい う)の中に視点と 1 または複数の多角形とがある場合に、 視点から見える範囲を算出するものである。 図 6 2 は、 本実施の形態に おける可視領域算出器の機能ブロ ック図を示し、 可視領域算出器 6 2 0 0は、 最外郭可視領域算出部 6 2 0 1 、 可視折れ線算出部 6 2 0 2、 可 視折れ線並換部 6 2 0 3、 仮可視多角形更新部 6 2 0 4を備える。
最外郭多角形可視領域算出部 6 2 0 1 は、 最外郭多角形の視点よ り見 える範囲である可視多角形を求め、 最初の仮可視多角形を算出する。 最 外郭多角形が凸図形であれば、 最外郭多角形と仮可視多角形は一致する が、 一般の形状における仮可視多角形の算出の処理を説明するフローチ ヤー トが図 6 4 に例示されている。まず、ステップ S 6 4 0 1 において、 最外郭多角形の各頂点へ視点よ り 半直線を引 く。 ステップ S 6 4 0 2か らは、 これらの引かれた半直線を一つずつ取り 出して行う処理であ り 、 ステップ S 6 4 0 2 において、半直線が残っているかどうかを判断する。 も し残っていなければ、 処理を終了し、 その時点での多角形が仮可視多 角形と なる。 も し残っていればステップ S 6 4 0 3へ移行し、 半直線を —つ取り 出す。 ステップ S 6 4 0 4 においては、 半直線が最外郭多角形 の頂点以外の交点で交わるかどうかを判断し、 も し、 そ うでなければス テツプ S 6 4 0 2へ戻り、 も し半直線が最外郭多角形の頂点以外の交点 で交わるのであれば、 最外郭多角形の項点を P と し、 それ以外の交点を Qと してステップ S 6 4 0 5へ移行する。
ステップ S 6 4 0 5 において、 Pの方が Qよ り も視点に近いかどう か を判断する。 Pの方が Qよ り も視点に近く なければ、 図 6 5 のよ う な状 態であ り 、 少なく と も Qの周辺は視点から見る こ とができるので、 なに もせずにステップ S 6 4 0 2へ戻る。 も し、 Pの方が Qよ り も視点に近 いのであれば、 図 6 6 のよ う な状況にあるので、 ステップ S 6 4 0 6へ 移行し、最外郭多角形の Pから Qの部分を取り去り線分 P Qを追加する。 すなわち、 図 6 6 において、 線分 P Q と線分 6 6 0 1 と線分 6 6 0 2で 囲まれる領域は視点よ り見るこ とができないので、 最外郭多角形の Pか ら Qの部分、 つま り 、 最外郭多角形の辺 6 6 0 0から線分 6 6 0 1 と線 分 6 6 0 2 を取り去り 、 線分 P Qを追加して仮可視多角形を作る。 そ し て次の半直線の処理を行うためにステップ S 6 4 0 2へ戻る。
可視折れ線算出部 6 2 0 2は、 最外郭多角形の内部のそれぞれの多角 形に対して他の多角形の存在を無視して視点よ り見える部分である可視 折れ線を求める。 すなわち、 それぞれの最外郭多角形の中にある多角形 について、 その多角形のみが存在する と仮定して多角形の辺の う ち、 視 点よ り 見える ものを選択するこ と を行う。 この処理は、 視点よ り 、 多角 形の各辺上の点へ半直線を引き、 その半直線がその辺と交わる前にその 多角形の別の辺と交差するならば、 その辺は視点よ り 見るこ とができな いものであ り 、 可視折れ線とはならず、 反対に、 その半直線がその辺と 交わる前にどの辺と も交差しなければ、 その辺は視点よ り 見るこ とがで きるものであ り可視折れ線となる。なお、可視折れ線算出部 6 2 0 2 は、 可視折れ線という線分が端点で繋がつた折れ線のかわり に、 折れ線であ る可視折れ線を構成する個々の線分を算出するよ う にしてもよい。 以下 では、 説明を単純化するために、 可視折れ線を構成する個々の線分のこ とを単に 「可視折れ線」 と呼ぶこ とにする。
可視折れ線並換部 6 2 0 3 は、 可視折れ線算出部 6 2 0 2で求められ た可視折れ線をその可視折れ線の端点の う ち視点から引いた半直線であ る規準線との偏角の小さい方である可視限界点の偏角の順に並べる。 例 えば、 図 7 9 に例示するよ う に視点と可視折れ線 A Bがある場合、 視点 から引いた半直線である規準線が半直線 7 9 0 1 である場合、 端点 Aの 偏角 と は、 視点から A 引いた半直線と規準線とのなす角である 0 であ り 、 端点 Bの偏角とは、 同様に、 τ であ り 、 0 の方が τ よ り小さいので、 端点 Αが可視折れ線 A Βの可視限界点となる。 可視折れ線並換部 6 2 0 3 は、 可視折れ線を可視限界点の偏角の順に並べる。 以下の説明では、 可視折れ線が可視限界点の偏角の小さい順に並べられたとする。
仮可視多角形更新部 6 2 0 4 は、 可視折れ線並換部 6 2 0 3で可視折 れ線が並べられた順に可視折れ線について次の第一の処理と第二の処理 を行う。 まず、 第一の処理は、 可視折れ線の両端を Aと B と した時 (A を可視限界点とする)、 Aと B とが仮可視多角形の内側にある場合の処理 であ り 、 視点から仮可視多角形に Aと B と をそれぞれ通る半直線である 可視線を引き、 可視線と仮可視多角形の交点である A ' と B ' とを求め、 仮可視多角形の A 'から B ' までの辺の部分を取り 去り A 'から A A から B、 Bから B 'の順に槃いで新しく仮可視多角形を作る。すなわち、 この第一の処理が行われる場合は図 6 8 に示すよ う に Aと Bを端点とす る可視折れ線 6 8 0 1 が視点の存在する側である仮可視多角形 6 8 0 2 の内部にある場合である。 この場合には、 視点よ り Aを通る半直線であ る可視線を引き、 仮可視多角形 6 8 0 2 との交点を求め、 それを A ' と する。同様に Bについても視点よ り Bを通る半直線である可視線を引き、 仮可視多角形 6 8 0 2 との交点を求め、 それを B ' とする。 新しい仮可 視多角形を求める際には、 仮可視多角形の A 'から B ' までの辺の部分 である 6 8 0 3 と 6 8 0 4 と を取り 去り 、 辺 A ' A、 辺 A B、 辺 B B ' を追加するこ とを行う。
第二の処理は、 可視折れ線の両端を Aと B と した時 (Aを可視限界点 とする)、 Aが仮可視多角形の外にあって Bが内側にある場合の処理であ り 、 可視折れ線と仮可視多角形の交点 Cを求め、 視点から Bを通る半直 線である可視線を引き、 仮可視多角形との交点である B一を求め、 仮可 視多角形の Cから B 'までの辺の部分を取り去り 、 C と B、 B と B 一 と を順に繋いで新しく仮可視多角形を作る処理である。 すなわち、 第二の 処理が行われる場合は図 6 9 に示すよ う に可視折れ線 6 9 0 1 の端点 B が仮可視多角形の内部にあり 、 も う一方の端点が仮可視多角形の外部に ある場合である。 この場合には、 可視折れ線 6 9 0 1 と仮可視多角形と 交点 Cを求める。 また、 視点から B を通るか視線を引き仮可視多角形と の交点である を求める。 そして、 仮可視多角形の Cから の部分 である 6 9 0 1 と 6 9 0 2 を取り去り 、 辺 C B と辺 B B ' を追加するこ と を行う。
なお、 可視折れ線の両端が仮可視多角形の外部に存在する場合が考え られるが、 この場合には、 可視折れ線は可視限界点の偏角によ り 並び換 えられてから仮可視多角形が作られ、 可視折れ線には視点よ り 見える部 分が存在しないので、 そのよ う な可視折れ線について処理を行う必要は ない。
図 6 3 と図 6 7 は、 可視領域算出器 6 2 0 0の動作を説明する フ 口一 チャー トであり、 また、 可視領域算出器 6 2 0 0 を計算機で実現するた めに計算機に実行させるステップを説明するフ ローチヤ一 ト とみなすこ と もできる。 可視領域算出器 6 2 0 0 を計算機で実現する場合には、 図 6 2 に例示した可視領域算出器の機能プロ ック図は、 計算機で実行され るプロ グラムのモジュール構成を示す図とみなすこ とができる。
ステ ップ S 6 3 0 1 は、 最外郭可視領域算出ステップであ り 、 最初の 仮可視領域を算出するこ と を、最外郭可視領域算出部 6 2 0 1 で求める。 ステ ップ S 6 3 0 2 は、 可視折れ線算出ステ ップであり 、 可視折れ線を 可視折れ線算出部 6 2 0 2 によって算出する。 ステップ S 6 3 0 3 は、 可視折れ線並換ステ ップであ り 、 可視折れ線並換部 6 2 0 3 によ り 可視 折れ線を可視限界点の偏角によって並べるこ とを行う。
ステップ S 6 3 0 4からステップ S 6 3 0 6 は、 可視折れ線を一つず つ取り 出して処理を行うステップであり 、ステップ S 6 3 0 4 において、 可視折れ線が無く なったかどう かを判断し、 無く なつていれば処理を終 了 し、そのと きの仮可視領域が可視多角形である。可視折れ線があれば、 ステップ S 6 3 0 5 移行し、 可視折れ線を取り 出す。 ステップ S 6 3 0 6 は仮可視多角形更新ステ ップであり 、 仮可視多角形更新部 6 2 0 4 によ り、 仮可視多角形を更新する。
仮可視多角形の更新の処理は図 6 7 にフローチヤ一 トによって示され ており 、 まずステップ S 6 7 0 1 において、 可視折れ線の両端が仮可視 多角形の内部にあるかどう かを判断する。 も し、 そ う ならばステップ S 6 7 0 2 に移行し、 そ うでなければステップ S 6 7 0 4に移行する。 ステップ S 6 7 0 2が実行されるのは、 可視折れ線の両端が仮可視多 角形の内部にある場合であ り 、' 図 6 8 の場合である。 この場合には、 可 視折れ線の端点 Aと Bに対して視点よ り 半直線をそれぞれ引いて、 Aを 通る半直線と仮可視多角形の交点 A ' を求め、 Bに対して同様に B ' を 求める。 ステップ S 6 7 0 3 においては、 仮可視多角形の A '力、ら B ' の部分、 すなわち、 6 8 0 3 、 6 8 0 4 を取り去り 、 A 'から A、 Aか ら B、 Bから B 'の順に繋いで新しく仮可視多角形を作る。
ステップ S 6 7 0 4が実行されるのは、 可視折れ線の両端が仮可視多 角形の内部にない場合であ り 、 可視折れ線の可視限界点でない端点が仮 可視多角形の内部にあるかどうかを判定し、 も しそ う ならステップ S 6 7 0 5へ移行し、 そ うでなければ、 図 6 7のフ ローチャー トの処理を終 了する。
ステップ 6 7 0 5へ移行した場合は、図 6 9 に例示される場合であ り 、 仮可視多角形と可視折れ線の交点である Cを求める。 ステ ップ S 6 7 0 6 においては、 視点よ り Bを通る半直線を引いて仮可視多角形との交点 である B 一 を求める。 ステップ S 6 7 0 7 においては、 仮可視多角形の Cから B ' までの辺の部分を取り去り 、 Cから B、 B力 ら 8 ' とを順に 繋いで新しく可視多角形を作る。
このよ う な実施の形態による可視領域算出器あるいは可視領域算出プ ログラムによれば、 規準線を任意の方向に定めて可視領域の計算を開始 するこ とが可能であ り 、 可視領域を従来知られた方法で求めるよ り も効 率良く求めるこ とができる。
(実施の形態 2 0 )
図 7 0 は、 本発明の実施の形態 2 0の経路情報生成器の機能プロ ック 図を示す。 本実施の形態において経路情報生成器 7 0 0 0 は、 可視領域 算出手段 7 0 0 1 、 経路探索手段 7 0 0 2、 目印抽出手段 7 0 0 3 、 案 内地図生成手段 7 0 0 4、 案内文生成手段 7 0 0 5 を有する。 可視領域算出手段 7 0 0 1 は、 ユーザよ り見える範囲を算出する。 こ の可視領域算出手段 7 0 0 1 と しては、 従来から知られているアルゴリ ズムを用いて算出する手段や、 実施の形態 1 8 あるいは実施の形態 1 9 における可視領域算出器を使用するこ とにしてもよい。
経路探索手段 7 0 0 2 は、 ユーザの現在いる地点またはユーザが入力 する出発地からユーザが入力する 目的地までの経路を探索する。 ユーザ の現在いる地点を得るためには、 G P S (全地球測位システム) を用い たり 、 壁面や床面に埋め込まれたタグが発する電波を受信した りするこ とによってタグの識別子を得て、 識別子から位置を取得する。 また、 加 速度を検出してそれを積分するこ とによ り 、 現在いる地点を求めるよ う にしてもよい。 また、 タ ツチパネルに地図を表示して、 ユーザに出発地 や目的地を指示させたり 、 キーボー ドなどの入力機器を用いて出発地や 目的地を受け付ける よ う にしたり 、 音声認識によって出発地や目的地を 受け付ける よ う にしてもよい。 経路を探索するためには、 図 4 7のよ う に出発地と終着地を関連付けた表を用意しておき、 与えられた出発地か ら任意の目的地への経路を得るには、 まず与えられた出発地が出発地の 列に現れる行を検索し、 その行の終着地の列の値を取得し、 取得された 値を出発地とする行を検索し、 その行の終着地の列の値を取得する とい う こ と を繰り返し、 目的地が終着地の列の値と して得られるまで行う。 このよ う な処理を行う こ と によ り 、 ある地点 (始点) と別の地点 (終点) とからなる 2つ組の列が得られることになる。
目印抽出手段 7 0 0 3 は、 現在地または案内する地点からの可視領域 の中から案内すべき 目印を抽出する。 すなわち、 現在地または、 経路探 索手段 7 0 0 2 によ り探索された経路の上をユーザが進むよ う に案内す べき地点から見える範囲である可視領域を可視領域算出手段 7 0 0 1 に よ り算出し、 その可視領域の中から案内すべき 目印、 つま り、 ユーザが 次に進むべき方向を示す目印を抽出する。 この抽出のためには、 図 4 8 に示すよ う に経路の上の地点とその座標位置を関連付けた表と、 図 4 9 に示す目印とその座標位置と を関連づけた表を用いて、 ユーザが経路の 上のある地点に到達した場合に、 その地点から次に進むべき地点への方 向を計算し、 その方向に近い方向に見える 目印を求めるこ とを行う。 案内地図生成手段 7 0 0 4は、 経路と抽出された目印と案内する地点 とが表示された経路案内用の地図を生成する。 すなわち、 経路探索手段 7 0 0 2 によ り探索された経路と、 目印抽出手段 7 0 0 3 によ り抽出さ れた目印と、 案内する地点、 つま り 、 ユーザが次に行く べき地点とが表 示された地図を生成する。 このためには、 図 4 8 に示した地点とその座 標を関連付けた表と、 図 4 9 に示した目印とその座標を関連付けた表を 用いて、 目印の座標、 案内する地点の座標、 次に行く べき地点の座標か らそれらの座標を含む地図を地図データベースよ り検索するよ う にすれ ばよい。
案内文生成手段 7 0 0 5 は、 経路の案内文を生成する。 例えば、 経路 探索手段 7 0 0 2 によ り探索された経路を連続して構成する 2または 3 の地点と案内文データを関連付けた図 3 8 のよ う な表を用意しておき、 その表を参照して案内文を生成することが一例と して挙げられる。
図 7 1 は、 本実施の形態における経路情報生成器 7 0 0 0の処理を説 明するフ口一チャー トである。 ステップ S 7 1 0 1 において、 ユーザの 現在いる地点またはユーザが入力する出発地からユーザが入力する 目的 地までの経路を、 経路探索手段 7 0 0 2 を用いて探索する。 ステ ップ 7 1 0 2以降はループとなっており 、 ステップ S 7 1 0 2 において経路が 残っていないと判断されるまで、 ステップ S 7 1 0 3 からステップ S 7 1 0 7 を繰り返す。
ステ ップ S 7 1 0 3 においては、 経路を取り 出す。 すなわち、 始点と 終点との 2つ組を取り 出す。 ステップ S 7 1 0 4 においては、 始点から の可視領域を可視領域算出手段 7 0 0 1 によ り算出する。 ステ ップ S 7 1 0 5 においては、 目印抽出手段 7 0 0 3 によ り ステップ S 7 1 0 4で 算出された可視領域よ り 目印を抽出する。 ステ ップ S 7 1 0 6 において は、 案内地図生成手段 7 0 0 4 によ り 地図を生成する。 ステップ S 7 1 0 7 においては、 案内文生成手段によ り案内文を生成する。 ' このよ う に生成された地図と案内文は、 一旦経路案内情報生成器の中 や外部の蓄積手段によ り蓄積され、必要に応じてユーザに提供された り 、 あるいは、 ユーザが経路の上を移動する こ と を検出し、 例えば、 案内す る地点を通過するこ とが検出された場合に次の案内する地点に関する地 図と案内文を生成してユーザに提供された りするよ う にしてもよい。
(実施の形態 2 1 )
図 7 2は、 本発明の実施の形態 2 1 にかかわる経路案内システムの機 能ブロ ック図を例示する。本実施の形態において、経路案内システムは、 経路案内装置 7 2 0 1 と、 経路情報データベース 7 2 0 5 と、 端末 7 2 0 4 と、 位置検出装置 7 2 0 6 と、 地図データベース 7 2 0 7 と、 案内 文データベース 7 2 0 8 とを有する。
経路案内装置 7 2 0 1 は、 経路情報生成器 7 0 0 0 と位置判定手段 7 2 0 2 とを有する。 経路情報生成器 7 0 0 0 は、 実施の形態 2 0で説明 したものである。
位置判定手段 7 2 0 2は、 端末 7 2 0 4 の現在位置、 つま り 、 現在の 端末の位置を検出する。 検出の方法と しては、 端末をユーザが操作して 入力 した現在位置を受信する方法や、 位置検出装置 7 2 0 6 と してタグ を用い、 そこから発せられた電波を端末 7 2 0 4が受信するこ と によつ てタグの識別子を取得し、 それを端末 7 2 0 4が位置判定手段 7 2 0 2 送信する よ う にしてもよい。 また、 逆に、 端末 7 2 0 4が電波を発し それを位置検出装置 7 2 0 6が受信し、 どの位置検出装置が受信したか を位置判定手段 7 2 0 2が取得して端末 7 2 0 4の位置を検出するよ う にしても よい。
経路情報データベース 7 2 0 5 は、 得られた経路に関する情報を蓄積 する。 「得られた経路に関する情報」 と は、 経路情報生成器 7 0 0 0 によ り得られた経路に関する情報であり 、 経路情報生成器 7 0 0 0の案内地 図生成手段 7 0 0 4 によ り 生成された経路案内用の地図と案内文生成手 段 7 0 0 5 によ り 生成された経路の案内文を蓄積する。 その際、 経路探 索手段 7 0 0 2 によ り探索された地点と地図、 案内文を関連付けて蓄積 する。
位置検出手段 7 2 0 6 は、 現在地情報を取得するための手段である。 Γ現在地情報」 とは端末 7 2 0 4が現在いる位置であり 、 上述したよ う にタグを位置検出手段 7 2 0 6 と して用いたり 、 位置検出手段 7 2 0 6 が G P Sの衛星であったり してもよレ、。
地図データベース 7 2 0 7は、 地図データを蓄積する。 すなわち、 位 置判定手段 7 2 0 2 によ り検出された端末の現在の位置から、 その周囲 に何があるカ またどの方向にあるのカ どのよ うな状況 (床面などの 状況、 人の混雑の状況、 危険の度合いなど) を取得するためのデータべ ースである。
案内文データベース 7 2 0 8 は、 案内文を生成するためのデータを蓄 積しておく 。 案内文を生成するためのデータ とは、 案內文を生成するた めのテンプレー トであり 、例えば、 「Xの Yが Zです」という変数 X、Y、 Ζ を含んだ文であり 、 X、 Υ、 Ζ と して具体的な値が決まれば、 具体的 な案内文が生成されるデータである。
図 7 3 は、 本実施の形態における経路案内システムの動作を説明する フローチャー トである。 ステップ S 7 3 0 1 において、 経路情報生成器 7 0 0 0が出発地と 目的地を取得する。 例えば、 端末 7 2 0 4 よ り入力 された出発地と 目的地と を取得する。 あるいは、 経路案内装置 7 2 0 1 に接続された入力装置よ り取得する よ う にしてもよい。 ステ ップ S 7 3 0 2 において経路情報生成器 7 0 0 0が経路を探索し、 ステップ S 7 3 0 3 において経路情報を生成して経路情報データベースへ蓄積する。 ステ ップ S 7 3 0 4からステップ S 7 3 0 7 は案内が終了するまで実 行されるループを形成しており 、 ステップ S 7 3 0 4 において案内が終 了 したかどう かを判断する。 例えば、 端末 7 2 0 4が目的地にいる こ と が位置判定手段 7 2 0 2によって検出されたかどう力 、 あるいは、 ユー ザが端末 7 2 0 4 のボタンを押すこ と によ り、 これ以上の案内を望まな いこ と を知らせたかどうかを判断する。 も し、 案内が終了 したこ とが検 出されれば処理を終了し、 そ う でなければステ ップ S 7 3 0 5 へ移行す る。 ステップ S 7 3 0 5では、 端末 7 2 0 4の位置を位置判定手段 7 2 0 2 によ り検出し取得する。 ステップ S 7 3 0 6 では、 ステップ S 7 3 0 5で取得した位置の経路情報を、 経路情報データベース 7 2 0 5 を検 索して取得する。 この とき、 同時に地図データベース 7 2 0 7 と案内文 データベース と を検索し、 地図データベース 7 2 0 7 よ り 取得した位置 の周囲に何があるかなどを得て、 案内文データベース 7 2 0 8 よ り案内 文を生成するためのテンプレー トを得て、 地図データベース 7 2 0 7 の 検索結果をテンプレー トの変数部分に埋め込むよ う にしてもよい。 例え ば、地図データベース 7 2 0 7 よ り 、 と して「前方」、 Yと して「階段」、 Z と して 「危険」 を得て、 案内文データベース 7 2 0 8 よ り 「Xの Yが Zです」 というテンプレー トを得て 「前方の階段が危険です」 とい う案 内文を生成するよ う にしてもよい。 ステップ S 7 3 0 7 においては、 ス テツプ S 7 3 0 6 で取得された経路情報を端末 7 2 0 4へ送信する。 ま た、 こ のと き、 地図データベース 7 2 0 7 の検索結果をテンプレー トの 変数部分に埋め込んで得られる案内文を送信するよ う にしてもよい。 (実施の形態 2 2 )
図 7 4 は、 本発明における経路誘導器の処理を説明するフ ローチヤ一 トである。 経路誘導器とは、 端末に地図上の目印を表示させてユーザを 誘導するための装置であり 、 本発明の経路誘導器は、 端末の現在地を一 定の時間間隔毎に取得して、 経路データ中に存在する 目印に近づいたこ と を判断する と、 端末に表示される地図を経路データ中の次の目印が表 示された地図に切り かえる。 まず、 ステップ S 7 4 0 1 において一定時 間が経過するまで待つ。 一定時間が経過したらステ ップ S 7 4 0 2へ移 行し、 端末の位置を取得する。 例えば、 端末がタグの電波を受信し、 電 波を受信したタグの識別子に基づき端末の位置を取得した り 、 G P S衛 星からの電波を端末が受信し、 その結果から位置を取得したりする。 ス テツプ S 7 4 0 3 において、 目印に近づいたかどうかを判断し、 も し地 づいたと判断された場合にはステ ップ S 7 4 0 4へ移行し、 そ う でなけ ればステップ S 7 4 0 1 へ戻る。 ステップ S 7 4 0 4 においては次の目 印が表示された地図に切り かえるために、 次の目印が表示された地図を 端末に送信する。 以上の説明では、 端末と経路誘導器とが離れた位置に ある こ と を前提と したが、端末が経路誘導器を備える よ う にしてもよい。 このよ う に目印に近づいたこ とが検出される と、 次の目印が表示され た地図に切 り かえるこ とによ り 、 端末を持ったユーザに次の地点でどの 方向に行く べきかの予告ができ、 ユーザにとってわかりやすい経路の誘 導が行える。 また、 現在地の取得には誤差が伴う ので、 ユーザが目印を 過ぎてから次の目印が表示された地図が表示されるこ と を防止でき、 ュ 一ザが混乱するこ とを防止できる。
(実施の形態 2 3 )
図 7 5は、 本発明の経路案内システムの実施の形態を説明する機能ブ ロ ック図である。 本実施の形態において、 経路案内システムは、 経路案 内装置 7 5 0 0 と、経路情報データベース 7 2 0 5 と 、端末 7 2 0 4 と、 位置検出装置 7 2 0 6 と、 地図データベース 7 2 0 7 と、 案内文データ ベース 7 2 0 8 とを備える。 経路案内装置 7 5 0 0は、 経路誘導器 7 5 0 1 と位置判定手段 7 2 0 2 と を備える。
経路誘導器 7 5 0 1 は、 端末に地図上の目印を表示させてユーザを誘 導するための装置であり 、 本実施の形態においては、 実施の形態 2 2の 経路誘導器を用いるこ とにする。
位置判定手段 7 2 0 2 は、 端末 7 2 0 4の現在位置を検出する。 検出 した結果は、 経路誘導器 Ί 5 0 1 へ送られ、 経路誘導器 7 5 0 1 が定期 的に現在地を取得できるよ う にする。
経路情報データベース 7 2 0 5 は、 得られた経路に関する情報を蓄積 する。 図 7 5 には図示されていないが、 経路案内装置は、 出発地と 目的 地とから経路を探索し経路に関する情報を生成する経路情報生成器を有 してお り 、 経路情報データベース 7 2 0 5 は、 この経路情報生成器で生 成されて得られた経路に関する情報を蓄積する。 「経路に関する情報」と は、 通過する地点、 通過する地点を案内するための画像データや案内文 などから構成される。 図 7 6 と図 7 7 は経路情報データベース 7 2 0 5 の内容の一例を示しており 、 図 7 6 の表は、 始点と終点と に対して通過 する地点によって形成される経路を関連付けて格納している。 例えば、 この表の第一行 Ίま、 出発地が Aであり 目的地が Dである場合に通過すベ き地点が、 u 、 w、 yであるこ と を意味している。 図 7 7 は、 通過すベ き地点に対して端末に表示すべき地図データ と案内文と を関連付けて格 納している表であ り 、 例えば、 案内する地点が gであれば、 地図と して m a p l 0 2 4 を端末に表示し、 案内文と して s 7 0 5 5 を使用するこ と を意味する。 経路誘導器 7 5 0 1 は、 位置判定手段 7 2 0 2から端末 の位置を一定時間間隔毎に取得し、 端末が経路の中に存在する目印、 す なわち案内する地点に近づく と、 図 7 6 の表を読み出して、 次に案内す る地点を取得して、図 7 7 よ り地図と案内文を取得して端末に送信する。 端末 7 2 0 4は、 経路案内情報を表示する。 経路案内情報とは、 経路 誘導器 7 5 0 1 から送信される地図や案内文などのユーザが経路の上を 移動するよ うに案内する情報である。
地図データベース 7 2 0 7 は、 地図データを蓄積する。 すなわち、 位 置判定手段 7 2 0 2 によ り 検出された端末の現在の位置から、 その周囲 に何がある力 またどの方向にあるのか、 どのよ う な状況 (床面などの 状況、 人の混雑の状況、 危険の度合いなど) を取得するためのデータべ ースである。
案内文データベース 7 2 0 8 は、 案内文を生成するためのデータを蓄 積しておく。 案内文を生成するためのデータ と は、 案内文を生成するた めのテンプレー トであり 、例えば、 Γ Xの Yが Zです」とい う変数 X、 Y、 Z を含んだ文であ り 、 X、 Y、 Ζ と して具体的な値が決まれば、 具体的 な案内文が生成されるデータである。
経路誘導器 7 5 0 1 は、 端末の現在地を取得した後、 端末が目印に近 づいたかどう かを判断する と と もに、 地図データベース 7 2 0 7 を検索 して端末の周囲の状況を取得し、 案內文データベース 7 2 0 8 よ り得ら れた案内文を生成するためのデータを用いて案内文を生成して端末 7 2 0 4へ送信する。
このよ う な経路案内システムによ り 、 ユーザが目印に近づいたと判断 される と次の目印が表示された地図に切り かえるこ と によ り 、 端末を持 つたユーザに次の地点でどの方向に行く べきかの予告ができ、 ユーザに と ってわかりやすい経路の誘導が行える。 また、 現在地の取得には誤差 が伴う ので、 ユーザが目印を過ぎてから次の目印が表示された地図が表 示されるこ と を防止でき、 ユーザが混乱するこ と を防止できる。 また、 地図データベース 7 2 0 7 を検索して周囲の状況を取得して適切な案內 文を生成する こ と によ り 、 ユーザにわかりやすい案内サービスを提供す るこ とができる。
(実施の形態 2 4 )
囱 7 8 は、 本発明の実施の形態 2 4の経路案内システムの機能プロ ッ ク図を示す。 実施の形態 2 3 の経路案内システム と の違いは、 経路案内 装置 7 8 0 0 に経路情報生成器 7 0 0 0が明示されており 、 この経路情 報生成器 7 0 0 0 は、 実施の形態 2 0の経路情報生成器を用いる点であ る。
実施の形態 2 0 の経路情報生成器を用いるこ と によ り 、 経路上を移動 するユーザの可視領域を算出して経路情報が生成され、 それに基づいて 案内がされるので、 ユーザにわかりやすい案内サービスを提供するこ と ができる。
' (実施の形態 2 5 )
図 8 0は本発明による実施の形態 2 5 における経路案内システムの構 成例を示すプロ ック図であ り 、 ユーザの現在地情報を取得する位置検出 装置 8 2 0 と、 位置検出装置からの情報を経路案内装置へ伝達し、 経路 案内装置からの経路案内情報を表示する携帯端末 8 3 0 と、 地図のデー タを蓄積した地図データベース 8 4 0 と、 経路探索結果に基づいて経路 の案内文を構成するためのデータ蓄積した案内文データベース 8 6 0 と . 経潞情報生成手段で生成された経路案内情報を格納する経路情報データ ベース 8 5 0 と、 経路情報を生成し生成された経路情報に基づいて経路 を誘導する経路案内装置 8 1 0から構成されている。
経路案内装置 8 1 0 は、 位置検出装置の情報を座標に変換する位置判 定手段 8 1 1 と、 経路情報を生成する経路情報生成手段 8 1 4 と、 生成 された経路情報に基づいて経路を誘導する経路誘導手段 8 1 8 とから構 成されている。
図 8 1 は経路情報生成手段のブロ ック構成図であ り 、 現在地から見え る範囲を算出する可視領域算出手段 9 7 1 と、 目的地までの経路を探索 する経路探索手段 9 7 0 と、 可視領域の中から案内すべき 目印を抽出す る道標抽出手段 9 8 1 と、 経路探索結果に基づいて経路案内のための地 図を生成する案内地図生成手段 9 8 4 と、 経路案内文を生成する案内文 合成手段 9 8 3 とから構成される。
図 8 2は経路誘導手段のブロ ック構成図であ り 、 経路誘導手段 8 1 8 は位置判定手段 8 1 1 からユーザの現在地を受け取り 、 表示すべき案内 文と地図を判断して現在表示中の経路案内データを変換する必要がある 場合は経路情報データ 8 5 0から表示するべき経路情報を取得して携帯 端末 8 3 0 に送る。
経路情報生成手段 8 1 4での処理について図 8 3 に示す処理に従って 説明する。 図 8 9 のよ う に最外郭多角形と施設 A、 B、 Cが配置されて おり、 経路ネッ ト ワークが施設 Aの前で大き く 蛇行している場合を考え る。 図 8 0 の携帯端末 8 3 0から位置検出装置 8 2 0で検出した位置情 報が経路案内装置 8 1 0の位置判定手段 8 1 1 に渡された際に、 経路誘 導中でない携帯端末から送られた場合は経路情報生成手段 8 1 4を起動 して位置情報を送る。 経路誘導中の携帯端末から送られた場合は経路誘 導手段 8 1 8 に位置情報を送る。 経路情報生成手段 8 1 4が起動されて 位置判定手段 8 1 1 から出発地点と 目的地の位置情報が渡される、また、 地図データベース 8 4 0から地図に関連するデータを、 また案内文デー タベース 8 6 0から案内分を生成するためのデータを読み込む ( 1 8 0 0 )。 出発地点 a と 目的地点 dの位置情報を経路探索手段 9 7 0 に渡し、 経路探索を行い経路上のノー ド列 a 、 b 、 c 、 d を受け取る ( 1 8 1 0 )。 出発地点 a を案内ポイ ン ト とする ( 1 8 1 5 )。 案内ポイ ン ト a からの可 視領域を可視領域算出手段 9 7 1 で図 9 0 のよ う に求め、 目印抽出手段 9 8 1 で可視領域に入る施設 A、 B、 Cを可視折れ線へのポイ ンタをた どって求め、 経路上でまだ到達していない可視領域に'入るノー K b を取 得する ( 1 8 2 0 )。 可視領域の中に目的地 dがあるかどうかを判断する ( 1 8 2 5 )。 無いので適切な施設、 例えばこのケースでは可視領域に接 する施設でかつ経路上で最も a から遠い施設 Cを選択し目印と して記憶 し、 目印 Cから最寄の経路上のノー ド b を次の案内ポイ ン ト とする ( 1 8 3 0 )。案内ポイ ン ト bからの可視領域を可視領域算出手段 9 7 1 で図 9 1 のよ う に求め、 目印抽出手段 9 8 1 で可視領域に入る施設 A、 B、 Cを可視折れ線へのボイ ンタをたどって求め、 経路上でまだ到達してい ない可視領域に入るノー ド c を取得する ( 1 8 2 0 )。 可視領域の中に 目的地 dがあるかどうかを判断する ( 1 8 2 5 )。 無いので適切な施設、 例えばこのケースでは可視領域に接する施設でかつ経路上で最も b から 遠い施設 B を選択し目印と して記憶し、 目印 Bから最寄の経路上のノー ド c を次の案内ポイ ン ト とする ( 1 8 3 0 )。 案内ポイ ン ト c からの可視 領域を可視領域算出手段 9 7 1 で図 9 2のよ う に求め、 目印抽出手段 9 8 1 で可視領域に入る施設 A、 B、 Cを可視折れ線へのポインタをたど つて求め、 経路上でまだ到達していない可視領域に入るノー ド d を取得 する ( 1 8 2 0 )。 可視領域の中に目的地 dがあるかどう かを判断する ( 1 8 2 5 )。 dがあるので Dを目印と して記憶した後、抽出した目印 C、 Bの施設名称 X、 例えば" キオスク " と " 喫茶店"、 と施設の代表点を地 図データベース 8 4 0から求め、 ノー ド a 、 b 、 c 、 d の座標データか らノー ドすなわち曲がり角 b、 c での進行方向 Zをそれぞれ左折、 右折 と求める。 また、 対応する 目印 C、 B との位置関係 Yを代表点の座標デ ータ と ノー ドの座標データから前、 右と求めて出力する ( 1 8 3 5 )。 案 内地図生成手段 1 8 4で施設に対応する案内用の地図を図 9 3 と図 9 4 のよ う に生成し、 経路の順にすなわちこの順番に並べる ( 1 8 4 0 )。 案 内文合成手段 1 8 3 で変数の種類、 ここでは施設名称 · 進行方向 · ノー ド位置に応じて案內文データベース 8 6 0 にある案内文テンプレー トを 選択し、 例えば" Xの Yを Zです。" に ( 1 8 3 5 ) で求められた目印と 方向のデータを入れて、 キオスクの前を左折です。"喫茶店の右を右折で す。" と案内文を生成し経路順すなわちこの順番に並べる ( 1 8 4 5 )。 生成した経路案内文と経路案内用の地図を経路情報データベース 8 5 0 に出力する。
(実施の形態 2 6 )
経路誘導手段 8 1 8での処理について図 8 4 に示す処理に従って説明 する。 実施の形態 2 5で生成した経路上を誘導する場合を考える . 誘導 開始時では図 9 3 と相当する案内文とが表示され、 目印 Cに現在表示中 のマークをつける . 図 8 0 の携帯端末 8 3 0 から位置検出装置 8 2 0で 検出した位置情報が経路案内装置 8 1 0 の位置判定手段 8 1 1 に渡され た際に、 経路誘導中の携帯端末から送られた場合は経路誘導手段 8 1 8 に位置情報を送る。 経路誘導手段 8 1 8 が起動される ( 1 9 0 0 ) と、 位置判定手段 8 1 1 から携帯端末 8 3 0 の位置と して図 9 5 の星印に示 す位置座標を取得する( 1 9 1 0 )。地図データベース 8 4 0 を参照して、 取得した位置座標が経路情報データ 8 5 0の中にある 目印を示すノ一ド の座標からの距離が閾値 (例えば 1 0 メー トル) 以下となる 目印は無い ので ( 1 9 2 0 )、 現在表示中の地図図 9 3 に現在地を星印で重畳して携 帯端末 8 3 0 に図 9 5のよ う に表示する ( 1 9 2 2 )。 現在地情報を位置 判定手段 8 1 1 から携帯端末 8 3 0の位置と して図 9 6 の星印に示す位 置座標を取得する ( 1 9 1 0 )。 地図データベース 8 4 0 を参照して、 取 得した位置座標が経路情報データ 8 5 0 の中にある 目印を示すノー ドの 座標からの距離が閾値以下と なる 目印は無いので ( 1 9 2 0 )、 現在表示 中の地図図 9 3 に現在地を星印で重畳して図 9 6 のよ う に表示する ( 1 9 2 2 )。現在地情報を位置判定手段 8 1 1 から携帯端末 8 3 0 の位置と して図 9 7 の星印に示す位置座標を取得する ( 1 9 1 0 )。 地図データべ ース 8 4 0 を参照して、 取得した位置座標が経路情報データベース 8 5 0 の中にある 目印を示すノー ドの座標からの距離が閾値以下と なる 目印 c があ り 、 現在表示中の目印 C と は異な り ( 1 9 2 0 )、 目印 Bは目的地 で無いので ( 1 9 2 5 )、 目印 Bに現在表示中のマーク をつけて経路情報 データベース 8 5 0 中にある 目印 B を表示した案内用の地図図 9 4 を取 り 出 して現在地を重畳し地図と対応する案内文と と もに携帯端末 8 3 0 に送る ( 1 9 3 0 )。 以下同様に行い目的地に近づく と、 目的地 Dを目印 'とするので ( 1 9 2 0 )、 目印は目的地と判断し ( 1 9 2 5 )、 目的地に 到着した旨のメ ッセージを送って ( 1 9 4 0 ) 終了する ( 1 9 5 0 )。 産業上の利用可能性
以上のよ う に本発明は広場において経路図がどのよ う に引かれている かに関係なく 、 また広場内に目的地点が多数有る場合にも案内する地点 への経路を再編集するこ と無く 、 広場においてユーザに道標または目的 地を案内する事によ り広場においても適切な経路案内をする事を可能に する事、 また低解像度の携帯端末においても従来のコマ図では分かり難 かった構内における経路案内において方向を一定とするコマ図、 ィ ラス ト画像や二値画像によって可能にする という効果を有する。 また、 タグ 検知を ト リ ガと して経路誘導を行う際にはタグからの電波の届く範囲や タグ読取手段がタグを読み落と した場合などに伴う位置検出誤差がある 場合でも適切な経路情報を提供するこ とを可能にする。
本発明は広場内に視界を遮る障害物がある場合でも、 高速に可視領域 を形成し、 形成した可視領域に基づいてユーザが経路を移動する際に目 に見える 目印を提供するこ と によ り経路ネッ ト ワークの状態にかかわら ず晴眼者にわかりやすい経路情報を提供するものである。 なお、 本発明 は、 構内に限らず屋外においても、 領域を区切って最外郭の多角形を構 成すれば適用可能である。

Claims

• 請求の範囲
1 . ユーザの現在位置を検出する位置判定手段と、 検出された現在位置 からユーザが見える範囲を算出する可視領域算出手段と、 出発地から 目 的地までの経路を探索する経路探索手段と、 可視領域と経路から進行方 向を算出する進行方向算出手段と、 可視領域から案内すべき道標を抽出 する道標抽出手段と、 求めた経路の経路案内文を生成する経路案内文生 成手段とから構成される経路案内装置。
2 . ユーザの現在位置を検出する位置判定手段と、 検出された現在位置 からユーザが見える範囲を算出する可視領域算出手段と、 出発地から 目 的地までの経路を探索する経路探索手段と、 可視領域と経路から進行方 向を算出する進行方向算出手段と、 可視領域から案内すべき 目印を抽出 する 目印抽出手段と、 前記経路を通過する地点を案内するために指定さ れたニ値画像データまたはイ ラス ト画像データを検索する画像データ検 索手段と、 通過する地点を案内するための案内文を合成するための案内 文合成手段とから構成される経路案内装置。
3 . 出発地から 目的地までの経路を探索する経路探索手段と、 通過する 地点を案内するために地図データから通過する地点を携帯端末の表示画 面に表示可能な大き さに切り 出し、 切 り 出す際に各コマにおける経路の 接続点が一致するよ う に切 り 出す第 1 のコマ地図生成手段と、 通過する 地点を案内するための案内文を合成する案内文合成手段とから構成され る経路案内装置。
4 . 出発地から 目的地までの経路を探索する経路探索手段と、 通過する 地点を案内するために地図データから通過する地点を携帯端末の表示画 面に表示可能な大き さに切 り 出し、 切り 出す際に各コマにおける経路が 画面の中央部に表示されるよ う に切り 出す第 2 のコマ地図生成手段と、 通過する地点を案内するための案内文を合成する案内文合成手段とから 構成される経路案内装置。
5 . 請求の範囲第 3項、 請求の範囲第 4項に記載の案内文合成手段が、 通過する地点を案内するためにユーザの移動方向を基準に案内文を合成 するこ と を特徴とする経路案内装置。
6 . 請求の範囲第 3項、 請求の範囲第 4項に記載の案内文合成手段が、 通過する地点を案内するために駅のプラ ッ トホームにおいて線路方向を 基準に案内文を.合成するこ と を特徴とする経路案内装置。
7 . 請求の範囲第 3項、 請求の範囲第 4項に記載の案内文合成手段が、 出発地が最初に方向転換する地点が近い場合には出発地点における位置 判定手段の誤差を考慮して、 最初の方向転換地点では右左折の案内は行 わず方向転換地点から方向転換方向を示す目印を案内し二番目の方向転 換地点から右左折の案内を行う こ とを特徴とする経路案内装置。
8 . 請求の範囲第 3項、 請求の範囲第 4項に記載の案内文合成手段が、 視覚障害者に対してタグを検知した場合にはタグのある付近の位置情報 を案内 し、 経路に関する案内は経路沿いの目印情報に関する句点でそれ ぞれ区切られた案内文を経路順に並べてそれぞれの案内文をユーザが順 にボタン操作を行って順に案内文を読み上げるこ と によ り経路の情報を 提供するこ とを特徴とする経路案内装置。
9 . 構内に置かれたタグを検知するのと同期して、 タグと対応するコマ 図または二値画像またはイ ラス ト画像および経路案内文を端末に表示ま たは案内文を読み上げる経路誘導手段を備えた請求の範囲第 1項に記載 の経路案内装置。
1 0 . ユーザ入力に従って、 経路の順にタグと対応する コマ図または二 値画像またはィ ラス ト画像および経路案内文を端末に表示または案内文 を読み上げる経路誘導手段を備えた請求の範囲第 1項に記載の経路案内 装置。
1 1 . ユーザの現在位置を検出する位置判定手段と、 検出された現在位 置からユーザが見える範囲である可視領域を算出する可視領域算出手段 と、 出発地から 目的地までの経路を探索する経路探索手段と、 可視領域 と経路から進行方向を算出する進行方向算出手段と、 可視領域から案内 すべき 目印を抽出する 目印抽出手段と、 求めた経路の経路案内文を生成 する案内文生成手段とから構成される経路案内装置。
1 2 . 進行方向算出手段は、 前記経路探索手段によって探索された経路 と前記可視領域算出手段によって算出された可視領域の境界線との交点 が存在する場合には、 その交点の方向を進行方向と して算出し、 目印抽 出手段は、前記可視領域算出手段によ り算出された可視領域内に存在し、 前記進行方向算出によ り算出された方向に近い方向に前記ユーザから見 える 目印を抽出するこ と を特徴とする請求の範囲第 1 1 項に記載の経路 案内装置。
1 3 . ユーザの現在位置を検出する位置判定手段と、 検出された現在位 置からユーザが見える範囲を算出する可視領域算出手段と、 出発地から 目的地までの経路を探索する経路探索手段と、 可視領域と経路から進行 方向を算出する進行方向算出手段と、 可視領域から案内すべき 目印を抽 出する 目印抽出手段と、 前記経路上の通過する地点を案内するために指 定された視点画像データを検索する画像データ検索手段と、 通過する地 点を案内するための案内文を生成するための案内文生成手段とから構成 される経路案内装置。 ·
1 4 . 出発地から 目的地までの経路を探索する経路探索手段と、 通過す る地点を案内するために地図データベースから通過する地点の周囲の地 図をコマと して切り 出し、 切り 出す際に各コマにおける経路の一部が重 複するよ う に各コマを切 り 出す第 1 のコマ地図生成手段と、 通過する地 点を案内するための案内文を生成する案内文生成手段とから構成される 経路案内装置。
1 5 . 出発地から 目的地までの経路を探索する経路探索手段と、 通過す る地点を案内するために地図データベースから通過する地点の周囲の地 図をコマと して切 り 出し、 切り 出す際に各コマにおける経路が画面の中 央部に表示される よ う に切り 出す第 2のコマ地図生成手段と、 通過する 地点を案内するための案内文を生成する案内文生成手段とから構成され る経路案内装置。
1 6 . 案内文生成手段は、 通過する地点を案内するためにユーザの移動 方向を基準に案内文を生成するこ と を特徴とする請求の範囲第 1 1項か ら請求の範囲第 1 5項のいずれかに記載の経路案内装置。
1 7 . 経路案内装置が駅構内のプラ ッ トホーム内の地点を通過する経路 を案内する場合には、 前記案内文生成手段は、 通過する地点を案内する ために駅のブラ ッ トホームにおいてユーザに対する線路の方向を基準に 案內文を生成するこ とを特徴とする請求の範囲第 1 1項から請求の範囲 第 1 6項のいずれかに記載の経路案内装置。
1 8 . 案内文生成手段は、 出発地 最初に方向転換する地点に近い場合 には、 最初の方向転換地点では右左折の案内は行わず、 方向転換地点か ら方向転換方向を示す目印の案內文を生成する こ と を特徴とする請求の 範囲第 1 1項から請求の範囲 1 7項のいずれかに記載の経路案内装置。
1 9 . タグを検出するタグ検出手段を備え、 案内文生成手段は、 タグ検 出手段が検出したタグの付近の位置情報を案内する案内文を生成するこ と を特徴とする請求の範囲第 1 1項から請求の範囲第 1 8項のいずれか に記載の経路案内装置。
2 0 . 案内文生成手段は、 案内文の読み上げの要求である案内文要求を 受け付ける案内文要求受け付け機能を有してお り 、 案内文生成手段は、 案内文要求受け付け機能に基づいて案内文要求を受け付けると、 経路沿 いの目印情報ごとの案内文を経路順に並べてそれぞれの案内文を順に読 み上げるこ と を特徴とする請求の範囲第 1 1項から請求の範囲 1 9項の レ、ずれ 'かに記載の経路案内装置。
2 1 . タグ検出手段がタグを検知するのと同期して、 経路沿いの目印情 報ごとの案内文を経路順に並べてそれぞれの案内文を順に読み上げるこ とを特徴とする請求の範囲 1 9項のいずれかに記載の経路案内装置。
2 2 . 案内文生成手段は、 ユーザの特徴に関する情報であるユーザ特徴 情報を受け付けるユーザ特徴情報受付機能を有し、 ユーザ特徴情報受付 機能に基づいて受け付けたユーザ特徴情報に応じて案内文生成手段が経 路の情報を提供するこ とを特徴とする請求の範囲第 1 1 項から請求の範 囲 1 9項のいずれかに記載の経路案内装置。
2 3 . 案内文生成手段は、 ユーザ特徴情報受付機能に基づいて受け付け たユーザ特徴情報が、 ユーザが視覚障害者であるこ と を示すものである 場合には前記案内文生成手段は、 経路沿いの目印情報ごとの案内文を経 路順に並べてそれぞれの案内文を順に読み上げるこ と を特徴とする請求 の範囲第 1 1 項から請求の範囲 1 9項のいずれかに記載の経路案内装置,
2 4 . 構内に置かれたタグを検出するタグ検出手段と、 タグ検出手段が タグを検知するのと同期して、 タグの位置と対応するコマ図または視点 画像おょぴ案内文を表示または案内文を読み上げる経路誘導手段と、 を 備えた請求の範囲第 1 1項または請求の範囲第 1 3項に記載の経路案内 装置。
2 5 . 位置判定手段はタグによってユーザの現在位置を検出する もので あって、 ユーザの要求を取得するユーザ要求取得手段と、 前記ユーザ要 求取得手段が取得するユーザの要求に応じて、 経路の順にタグと対応す るコマ図または視点画像および案内文を端末に表示または案内文を読み 上げる経路誘導手段と、 を備えた請求の範囲第 1 1項または請求の範囲 第 1 3項に記載の経路案内装置。
2 6 .—つの多角形の中に視点と 1 または複数の多角形とがある場合に、 最初に最も外側にある多角形について視点からの可視領域を求め、 次に 最も外側にある多角形以外の多角形について、 それぞれの多角形のみに ついて視点から見える部分を連続した線分の列と して求め、 求めた線分 の列を偏角の順に並べ、 並べられた順に、 線分の列を線分の列と一つ前 の線分の列の処理が終了した時点で生成された可視領域との位置関係を 考慮して、 視点から見える該線分の列の部分を求め、 求めた部分と可視 領域を接続するこ とによ り新しい可視領域を求める処理によ り視点から 見える範囲を算出する可視領域算出器。
2 7 . —つの多角形 (以下 「最外郭多角形」 という) の中に視点と 1 ま たは複数の多角形とがある場合に、 視点から見える範囲を算出する可視 領域算出器であって、 以下の構成を有するこ と を特徴とする可視領域算 出器。 a ) 最外郭多角形の内部の視点よ り見える範囲である可視多角形 を求め、 最初の仮可視多角形を算出する最外郭可視領域算出部、 b ) 最 外郭多角形の内部のそれぞれの多角形に対して該多角形の前記視点よ り 見える部分である可視折れ線を求める可視折れ線算出部、 c ) 可視折れ 線を該可視折れ線の端点の う ち視点から引いた半直線である規準線との 偏角の小さい方である可視限界点の偏角の順に並べる可視折れ線並換部. d ) 並べられた順に可視折れ線について以下の 1 と 2 との処理を行う仮 可視多角形更新部。 1 ) 可視折れ線の両端を Aと B とする とき (Aを可 視限界点とする)、 Aと B とが仮可視多角形の内側にある場合には、 視点 から仮可視多角形に Aと B と をそれぞれ通る半直線である可視線を引き , 可視線と仮可視多角形の交点である A ' と B をそれぞれ求め、 仮可視 多角形の A ' から B ' までの辺の部分を取り去り 、 A 'から A、 Aから B、 Bから B 'の順に繋いで新しく仮可視多角形を作る処理、 2 ) Aが 仮可視多角形の外にあって Bが内側にある場合には、 該可視折れ線と仮 可視多角形の交点 C を求め、視点から B を通る半直線である可視線を引 き、 仮可視多角形との交点である B ' を求め、 仮可視多角形の Cから B ' までの辺の部分を取り去り 、 C と B、 B と と を順に繋いで新しく 仮可視多角形を作る処理。
2 8 . —つの多角形 (以下 「最外郭多角形」 という) の中に視点と 1 ま たは複数の多角形とがある場合に、 視点から見える範囲を算出するため の可視領域算出プログラムであって、 以下のステップを計算機に実行さ せる可視領域算出プログラム。 a ) 最外郭多角形の内部の見える範囲で ある可視多角形を求め、 最初の仮可視多角形を算出する最外郭可視領域 算出ステップ、 b ) 最外郭多角形の内部のそれぞれの多角形に対して該 多角形の前記視点よ り 見える部分である可視折れ線を求める可視折れ線 算出ステ ップ、 c ) 可視折れ線を該可視折れ線の端点の う ち視点から引 いた半直線である規準線との偏角の小さい方である可視限界点の順に並 ベる可視折れ線並換ステップ、 d ) 並べられた順に可視折れ線について 以下の 1 と 2 との処理を行う仮可視多角形更新ステ ップ。 1 ) 可視折れ 線の両端を Aと B とする と き (Aを可視限界点とする)、 Aと B とが仮可 視多角形の内側にある場合には、 視点から仮可視多角形に Aと B と をそ れぞれ通る半直線である可視線を引き、 可視線と仮可視多角形の交点で ある と B ' をそれぞれ求め、 仮可視多角形の から B ' までの辺 の部分を取り去り 、 A 'から A、 Aから B、 Bから の順に繋いで新 しく仮可視多角形を作る処理、 2 ) Aが仮可視多角形の外にあって Bが 内側にある場合には、 該可視折れ線と仮可視多角形の交点 C を求め、 視 点から B を通る半直線である可視線を引き、 仮可視多角形との交点であ る B ' を求め、 仮可視多角形の Cから B 'までの辺の部分を取り去り 、 C と B、 B と B ' とを順に繋いで新しく仮可視多角形を作る処理。
2 9 . ユーザよ り 見える範囲を算出する可視領域算出手段と、 ユーザの 現在いる地点またはユーザが入力する出発地からユーザが入力する 目的 地までの経路を探索する経路探索手段と、 現在地または案内する地点か らの可視領域の中から案内すべき 目印を抽出する 目印抽出手段と、 前記 経路と抽出された目印と現在地と案内する地点とが表示された経路案内 用の地図を生成する案内地図生成手段と、 経路の案内文を生成する案内 文生成手段と、 を有する経路情報生成器。
3 0 . 可視領域算出手段と して、 請求の範囲第 2 6項または請求の範囲 第 2 7項に記載の可視領域算出器を用いるこ と を特徴とする請求の範囲 第 2 9項に記載の経路情報生成器。
3 1 . 請求の範囲第 2 9項または請求の範囲第 3 0項に記載の経路情報 生成器と、 端末の現在位置を検出する位置判定手段と、 を有する経路案 内装置と、 得られた経路に関する情報を蓄積する経路情報データベース と、 経路案内情報を表示する端末と、 現在地情報を取得する位置検出装 置と、 地図データを蓄積する地図データベース と、 案内文を生成するた めのデータを蓄積しておく 案内文データベース と、 を備える経路案内シ ステム。
3 2 . 端末に地図上の目印を表示させてユーザを誘導するための経路誘 導器であって、 端末の現在地を一定の時間間隔毎に取得して、 経路デー タ中に存在する 目印に近づいたこ と を判断する と、 端末に表示される地 図を経路データ中の次の目印が表示された地図に切り かえる経路誘導器 3 3 . 位置判定手段は、 端末の現在地を一定の時間間隔毎に取得し、 案 內文生成手段は、 経路探索手段によって探索された経路の中に存在する 目印に近づいたこ と を判断する と端末へ次の目印に関する経路の案内文 を生成するこ と を特徴とする請求の範囲第 1 1項に記載の経路案内装置 c
3 4 . 請求の範囲第 3 2項に記載の経路誘導器と、 端末の現在位置を検 出する位置判定手段と、 を有する経路案内装置と、 得られた経路に関す る情報を蓄積する経路情報データベース と、 経路案内情報を表示する端 末と、 現在地情報を取得する位置検出装置と、 地図データを蓄積する地 図データベース と、 案内文を生成するためのデータを蓄積する案内文デ ータベース と、 を備える経路案内システム。
3 5 . 請求の範囲第 2 9項または請求の範囲第 3 0項に記載の経路情報 生成器と、 請求の範囲第 3 2項に記載の経路誘導器と、 端末の現在位置 を検出する位置判定手段と、 を有する経路案内装置と、 得られた経路に 関する情報を蓄積する経路情報データベース と 、 経路案内情報を表示す る端末と、 現在地情報を取得する位置検出装置と、 地図データを蓄積す る地図データベース と、 案内文を生成するためのデータを蓄積する案内 文データベース と、 を備える経路案内システム。
PCT/JP2001/007845 2000-09-11 2001-09-10 Systeme de guide de trajets WO2002023128A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP01963565A EP1318379A1 (en) 2000-09-11 2001-09-10 Path guide system
JP2002527728A JPWO2002023128A1 (ja) 2000-09-11 2001-09-10 経路案内システム
US10/333,677 US20090201176A1 (en) 2000-09-11 2001-09-10 Route guidance system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000-274613 2000-09-11
JP2000274613 2000-09-11

Publications (1)

Publication Number Publication Date
WO2002023128A1 true WO2002023128A1 (fr) 2002-03-21

Family

ID=18760348

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/007845 WO2002023128A1 (fr) 2000-09-11 2001-09-10 Systeme de guide de trajets

Country Status (4)

Country Link
US (1) US20090201176A1 (ja)
EP (1) EP1318379A1 (ja)
JP (1) JPWO2002023128A1 (ja)
WO (1) WO2002023128A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1556964B1 (en) * 2002-10-02 2007-05-02 Artimi Ltd Communication methods and apparatus
JP2007200130A (ja) * 2006-01-27 2007-08-09 National Agriculture & Food Research Organization 景観解析方法とこの方法を実行するコンピュータプログラムおよびこのプログラムを格納した媒体
WO2007102309A1 (ja) * 2006-03-07 2007-09-13 Pioneer Corporation 情報端末装置、情報端末装置の制御方法、情報端末装置の制御プログラム、情報端末装置の制御プログラムを記録した記録媒体および通信ネットワーク
JP2010048808A (ja) * 2008-07-25 2010-03-04 Navteq North America Llc ガイダンス付き公開エリア地図
JP2012194058A (ja) * 2011-03-16 2012-10-11 Kokusai Kogyo Co Ltd 目的地案内システム、及び目的地案内装置
JP2012208087A (ja) * 2011-03-30 2012-10-25 Aisin Aw Co Ltd 移動案内システム、移動案内装置、移動案内方法及びコンピュータプログラム
JP2013024685A (ja) * 2011-07-20 2013-02-04 Aisin Aw Co Ltd 移動案内システム、移動案内装置、移動案内方法及びコンピュータプログラム
US8825387B2 (en) 2008-07-25 2014-09-02 Navteq B.V. Positioning open area maps
JP2015108615A (ja) * 2013-10-21 2015-06-11 株式会社日立製作所 経路案内システム及び経路案内方法
JP2019128258A (ja) * 2018-01-24 2019-08-01 Vrワイバオ・ジャパン株式会社 ナビゲーション方法、プログラム、および情報処理装置
WO2020149257A1 (ja) * 2019-01-16 2020-07-23 日本電信電話株式会社 案内文生成装置、案内システム、案内文生成方法及びプログラム

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7818116B1 (en) * 2002-12-30 2010-10-19 Mapquest, Inc. Presenting a travel route in a ground-based vehicle
JP3932045B2 (ja) * 2003-11-14 2007-06-20 松下電器産業株式会社 ナビゲーション装置
GB2413021B (en) * 2004-04-05 2006-03-29 Sec Dep Acting Through Ordnanc Navigation system and method
US7634354B2 (en) * 2005-08-31 2009-12-15 Microsoft Corporation Location signposting and orientation
US7649534B2 (en) 2006-02-01 2010-01-19 Microsoft Corporation Design of arbitrary linear and non-linear maps
US9111157B2 (en) * 2006-08-16 2015-08-18 Insight Holding Group, Inc. System and method for tracking shopping behavior
US20100235078A1 (en) * 2009-03-12 2010-09-16 Microsoft Corporation Driving directions with maps and videos
US8954374B2 (en) 2010-02-23 2015-02-10 International Business Machines Corporation Community-driven map creation and access
JP5569365B2 (ja) * 2010-11-30 2014-08-13 アイシン・エィ・ダブリュ株式会社 案内装置、案内方法、及び案内プログラム
JP2014115231A (ja) * 2012-12-11 2014-06-26 Alpine Electronics Inc 車載ナビゲーション装置
US9361889B2 (en) * 2013-01-29 2016-06-07 Qualcomm Incorporated Landmark based positioning with verbal input
GB2517937A (en) 2013-09-05 2015-03-11 Ibm Automatically generating route directions based on signpost data
DE102013221714A1 (de) * 2013-10-25 2015-04-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Navigieren eines Fußgängers
US9528837B2 (en) * 2014-06-04 2016-12-27 Qualcomm Incorporated Mobile device position uncertainty based on a measure of potential hindrance of an estimated trajectory
WO2017033737A1 (ja) * 2015-08-26 2017-03-02 アイシン・エィ・ダブリュ株式会社 領域案内システムおよび領域案内プログラム
CN112486202A (zh) * 2016-11-28 2021-03-12 深圳市大疆创新科技有限公司 一种航线编辑方法、装置及控制设备
US10664531B2 (en) * 2017-01-13 2020-05-26 Samsung Electronics Co., Ltd. Peer-based user evaluation from multiple data sources
EP4134626A1 (en) * 2017-06-02 2023-02-15 Apple Inc. Venues map application and system
US9993384B1 (en) * 2017-06-12 2018-06-12 Toyota Motor Engineering & Manufacturing North America, Inc. Vision-assist systems and methods for assisting visually impaired users with navigating an environment using simultaneous audio outputs
KR102392904B1 (ko) * 2020-09-25 2022-05-02 주식회사 딥브레인에이아이 텍스트 기반의 음성 합성 방법 및 장치
KR20230068116A (ko) * 2021-11-10 2023-05-17 현대자동차주식회사 전자 장치 및 그 제어 방법.

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0973555A (ja) * 1995-06-26 1997-03-18 Oki Electric Ind Co Ltd 3次元図形描画装置
JPH09126804A (ja) * 1995-11-06 1997-05-16 Toyota Motor Corp ルート案内システム
JPH09170929A (ja) * 1995-12-21 1997-06-30 Sony Corp ガイド装置
EP0810571A1 (en) * 1996-05-28 1997-12-03 Nec Corporation Navigation system using portable phone and navigation method using the same
JPH1183510A (ja) * 1997-09-08 1999-03-26 Nissan Motor Co Ltd 画像再生装置
JPH11306481A (ja) * 1998-04-24 1999-11-05 Harada Ind Co Ltd 歩行者誘導案内システム
JP2000028390A (ja) * 1998-07-15 2000-01-28 Matsushita Electric Ind Co Ltd 経路案内装置及びシステム
JP2000205889A (ja) * 1999-01-11 2000-07-28 Ohkura Electric Co Ltd Phs端末位置の音声案内システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0973555A (ja) * 1995-06-26 1997-03-18 Oki Electric Ind Co Ltd 3次元図形描画装置
JPH09126804A (ja) * 1995-11-06 1997-05-16 Toyota Motor Corp ルート案内システム
JPH09170929A (ja) * 1995-12-21 1997-06-30 Sony Corp ガイド装置
EP0810571A1 (en) * 1996-05-28 1997-12-03 Nec Corporation Navigation system using portable phone and navigation method using the same
JPH1183510A (ja) * 1997-09-08 1999-03-26 Nissan Motor Co Ltd 画像再生装置
JPH11306481A (ja) * 1998-04-24 1999-11-05 Harada Ind Co Ltd 歩行者誘導案内システム
JP2000028390A (ja) * 1998-07-15 2000-01-28 Matsushita Electric Ind Co Ltd 経路案内装置及びシステム
JP2000205889A (ja) * 1999-01-11 2000-07-28 Ohkura Electric Co Ltd Phs端末位置の音声案内システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KIM D.S. ET AL.: "Efficient algorithms for computing a complete visibility region in three-dimensional space", ALGORITHMICA, vol. 20, no. 2, 1998, pages 201 - 225, XP001055068 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1556964B1 (en) * 2002-10-02 2007-05-02 Artimi Ltd Communication methods and apparatus
JP2007200130A (ja) * 2006-01-27 2007-08-09 National Agriculture & Food Research Organization 景観解析方法とこの方法を実行するコンピュータプログラムおよびこのプログラムを格納した媒体
US8315801B2 (en) 2006-03-07 2012-11-20 Pioneer Corporation Information terminal device, method for controlling information terminal device, recording medium on which program for controlling information terminal device is recorded, and communication network
WO2007102309A1 (ja) * 2006-03-07 2007-09-13 Pioneer Corporation 情報端末装置、情報端末装置の制御方法、情報端末装置の制御プログラム、情報端末装置の制御プログラムを記録した記録媒体および通信ネットワーク
JP2009063580A (ja) * 2006-03-07 2009-03-26 Pioneer Electronic Corp 情報端末装置、及びその情報表示方法等
JP4659078B2 (ja) * 2006-03-07 2011-03-30 パイオニア株式会社 情報端末装置、情報表示方法、及び情報端末プログラム
JP2010048808A (ja) * 2008-07-25 2010-03-04 Navteq North America Llc ガイダンス付き公開エリア地図
US8825387B2 (en) 2008-07-25 2014-09-02 Navteq B.V. Positioning open area maps
JP2012194058A (ja) * 2011-03-16 2012-10-11 Kokusai Kogyo Co Ltd 目的地案内システム、及び目的地案内装置
JP2012208087A (ja) * 2011-03-30 2012-10-25 Aisin Aw Co Ltd 移動案内システム、移動案内装置、移動案内方法及びコンピュータプログラム
JP2013024685A (ja) * 2011-07-20 2013-02-04 Aisin Aw Co Ltd 移動案内システム、移動案内装置、移動案内方法及びコンピュータプログラム
JP2015108615A (ja) * 2013-10-21 2015-06-11 株式会社日立製作所 経路案内システム及び経路案内方法
JP2019128258A (ja) * 2018-01-24 2019-08-01 Vrワイバオ・ジャパン株式会社 ナビゲーション方法、プログラム、および情報処理装置
JP7132586B2 (ja) 2018-01-24 2022-09-07 Vrワイバオ・ジャパン株式会社 ナビゲーション方法、プログラム、および情報処理装置
WO2020149257A1 (ja) * 2019-01-16 2020-07-23 日本電信電話株式会社 案内文生成装置、案内システム、案内文生成方法及びプログラム

Also Published As

Publication number Publication date
EP1318379A1 (en) 2003-06-11
JPWO2002023128A1 (ja) 2004-01-22
US20090201176A1 (en) 2009-08-13

Similar Documents

Publication Publication Date Title
WO2002023128A1 (fr) Systeme de guide de trajets
EP0703435B1 (en) Moving object navigation apparatus
US8924149B2 (en) Outdoor to indoor navigation system
JP4138574B2 (ja) カーナビゲーション装置
US6728636B2 (en) Destination guidance system and method for generating individually tailored routes within a complex structure
JP3751795B2 (ja) 歩行者用道案内文自動作成装置および方法並びに記録媒体
US7916948B2 (en) Character recognition device, mobile communication system, mobile terminal device, fixed station device, character recognition method and character recognition program
JP3447900B2 (ja) ナビゲーション装置
US20090063047A1 (en) Navigational information display system, navigational information display method, and computer-readable recording medium
CN110487262A (zh) 基于增强现实设备的室内定位方法及系统
JP2001324345A (ja) ナビゲーション装置及びナビゲーション装置の経路案内方法
KR20010023244A (ko) 정보 처리 장치 및 정보 처리 장치를 사용한 보행자용내비게이션 시스템
CN102192753A (zh) 操作导航系统以提供路线指引的方法
JP6489600B2 (ja) 電子装置および誘導案内方法、誘導案内プログラム
JP2008032744A (ja) 歩行者用経路案内ナビゲーション装置、歩行者用経路案内ナビゲーションシステム及び歩行者用経路案内ナビゲーションプログラム
JP2005037181A (ja) ナビゲーション装置、サーバ装置、ナビゲーションシステム、及びナビゲーション方法
WO2004011881A1 (ja) 移動体の位置推定装置、位置推定方法および位置推定プログラム
JPH1074042A (ja) デフォルメ地図作成装置とそれを使う地図情報提供システム
JP3534228B2 (ja) 目的地案内装置
JP2005091211A (ja) 情報処理装置、そのシステム、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
JP5460252B2 (ja) ナビゲーション装置およびナビゲーション方法
KR102442239B1 (ko) 디지털 사이니지를 이용한 실내 길안내 장치
JP3929011B2 (ja) ナビゲーション装置
JP2001283236A (ja) デフォルメ地図作成装置およびデフォルメ地図作成方法
JP2002116041A (ja) ナビゲーション装置及び音声案内文章作成方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FR GB

ENP Entry into the national phase

Ref country code: JP

Ref document number: 2002 527728

Kind code of ref document: A

Format of ref document f/p: F

ENP Entry into the national phase

Ref country code: RU

Ref document number: 2002 2002127599

Kind code of ref document: A

Format of ref document f/p: F

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2001963565

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2001963565

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10333677

Country of ref document: US