WO2023233526A1 - 誘導システム、誘導方法および誘導プログラム - Google Patents

誘導システム、誘導方法および誘導プログラム Download PDF

Info

Publication number
WO2023233526A1
WO2023233526A1 PCT/JP2022/022140 JP2022022140W WO2023233526A1 WO 2023233526 A1 WO2023233526 A1 WO 2023233526A1 JP 2022022140 W JP2022022140 W JP 2022022140W WO 2023233526 A1 WO2023233526 A1 WO 2023233526A1
Authority
WO
WIPO (PCT)
Prior art keywords
guidance
user
navigation
point
section
Prior art date
Application number
PCT/JP2022/022140
Other languages
English (en)
French (fr)
Inventor
享 山中
真吾 澤田
Original Assignee
Loovic株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Loovic株式会社 filed Critical Loovic株式会社
Priority to PCT/JP2022/022140 priority Critical patent/WO2023233526A1/ja
Publication of WO2023233526A1 publication Critical patent/WO2023233526A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network

Definitions

  • the present invention relates to a guidance system, a guidance method, and a guidance program, and in particular, the present invention relates to a guidance system, a guidance method, and a guidance program, which enable people who have difficulty in spatial recognition (visual-spatial cognitive impairment, etc.) to concentrate on the scenery, while paying attention to their surroundings, using the auditory or tactile senses. It is a system that promotes independent movement, allowing people to move without hesitation and arrive at their destination.
  • spatial recognition visual-spatial cognitive impairment, etc.
  • Non-Patent Document 1 There are many navigation systems and map apps that guide pedestrians to their destinations. In particular, there is a navigation system for visually impaired people as shown in Non-Patent Document 1. In the navigation system shown in Non-Patent Document 1, automatic driving is realized by image analysis using AI (artificial intelligence) instead of human eyes.
  • AI artificial intelligence
  • visually impaired people have problems with visual information such as being unable to see, they tend to have high spatial cognitive abilities. Therefore, getting lost is not considered important for visually impaired people, and they are more likely to be required to take measures to prevent accidents caused by their lack of vision.
  • Non-Patent Document 2 discloses a navigation device that is attached to shoes.
  • this navigation device is for visually impaired people, and is not a direct solution for people who have difficulty with spatial cognition (visual-spatial cognition disorders, etc.). This is because people who have difficulty with spatial cognition (visual-spatial cognition disorders, etc.) are required to solve problems that can easily lead to them getting lost, but there is no need to expect a navigation function that focuses nerves on the feet. different.
  • Patent Document 1 discloses a smart necklace.
  • the smart necklace includes a main body defining at least one cavity, the main body having a neck portion and first and second side portions, and depth information corresponding to the surrounding environment of the smart necklace.
  • a pair of stereoscopic cameras configured to detect image data including: a positioning sensor configured to detect position data corresponding to a position of the smart necklace; and a persistent memory located within the at least one cavity.
  • a persistent memory configured to store map data and object data; and a pair of stereo cameras, a positioning sensor and a persistent memory located within the at least one cavity and coupled to the persistent memory and configured to store image data.
  • a processor configured to determine output data based on the location data, the map data, and the object data.
  • the smart necklace disclosed in Patent Document 1 does not include a functional unit that has a function of calculating the angle at which the guidance point is deviated from the front that the user is facing.
  • the present invention has been made in view of the above problem, and allows people who have difficulty with spatial cognition (visual-spatial cognitive impairment, etc.) to be able to use their auditory or
  • the purpose of the present invention is to provide a system, a guidance method, and a guidance program that autonomously guide the user to the destination without getting lost while concentrating on the scenery and being considerate of the surroundings using the sense of touch.
  • a guidance system which includes first to third navigation units worn on a user and which can tell the user's guidance direction by auditory or tactile sense, a receiving unit that receives information about the points and information about the content to be played; a storage unit that stores information about the guidance points and information about the content to be played; a control unit that calculates the angle at which the guidance point is shifted and selects the content to be played based on the calculation result;
  • the present invention is characterized by comprising an output section that outputs character expression using the third navigation section.
  • the guidance system includes a mobile terminal and a guidance device section that is attached from the back of the user's neck to the shoulder and communicates with the mobile terminal remotely or by wearing the mobile terminal, and the guidance device section is configured to connect a first navigation device to a user's shoulder.
  • a main body part that is attached to the back of the user's neck; an arm part that extends from the main body part to the left and right shoulders of the user;
  • the navigation device may include a second navigation section and a third navigation section connected to the main body section by an arm section and in contact with the user's right shoulder.
  • the first navigation section, the second navigation section, and the third navigation section may indicate the direction in which the user should proceed using sound based on the control of the main body section.
  • the first navigation section, the second navigation section, and the third navigation section may indicate the direction in which the user should proceed using clavicle bone conduction sound based on the control of the main body section.
  • the first navigation section, the second navigation section, and the third navigation section may indicate the direction in which the user should proceed using tactile vibrations based on control of the main body section.
  • Guidance expressions may include moving forward, turning, and stopping.
  • Guidance in the direction in which the user should proceed may be performed by character expression by a predetermined character.
  • the predetermined characters may include real characters or fictional characters.
  • the first navigation unit, the second navigation unit, or the third navigation unit is configured to determine the direction of the line segment guided by the first route transmitted from the mobile terminal and the point of the user's position information acquired by GPS. Based on the input of the distance to the nearest point of the line segment formed by the second route, the user may be guided so as to know the guiding direction using a sensor attached to the guiding device section.
  • the first navigation section, the second navigation section, or the third navigation section is configured to determine the nearest point of a line segment formed by the first route and a point of the user's position information acquired by GPS transmitted from the mobile terminal. is larger than an arbitrary radius, the distance between the nearest point of the line segment formed by the point of the user's location information obtained by GPS transmitted from the mobile terminal and the first route, and the distance of the first route as seen from the point. Based on the input of the angle of the nearest point of one route, the user may be guided so that the user knows the guiding direction using a sensor attached to the guiding device section.
  • the first navigation unit, the second navigation unit, or the third navigation unit is configured to determine the direction of the line segment guided by the first route transmitted from the mobile terminal and the point of the user's position information acquired by GPS.
  • the user may be guided so that the user knows the guiding direction based on the input of .
  • the first navigation section, the second navigation section, or the third navigation section calculates the distance between a point and the final destination of the user's position information acquired by GPS transmitted from the mobile terminal, and the final destination as seen from the point. Based on the input of the angle of the destination, a sensor attached to the guidance device section may guide the user so that the direction of guidance can be determined.
  • a guidance method includes first to third navigation units worn on a user that can determine the user's guidance direction by auditory or tactile sense. a receiving step of receiving information about the points and information of the content to be played; a storing step of storing information about the guidance points and information of the content to be played; a control step of calculating the angle at which the guidance point is deviated from the other hand, and selecting content to be played based on the calculation result;
  • the present invention is characterized by comprising an output step of outputting character expression using the third navigation section.
  • a guidance program includes first to third navigation units worn on a user that can determine the user's guidance direction by auditory or tactile sense.
  • a reception function that receives information about the guidance point to be played and information about the content to be played;
  • a storage function that stores information about the guidance point and information about the content to be played;
  • a control function that calculates the angle at which the guidance point is offset from the front where the user is facing, and selects the content to be played based on the calculation result, and a guidance expression that indicates the direction the user should go based on the calculated angle.
  • the present invention is characterized by realizing an output function of outputting character expression using the first to third navigation sections.
  • a guidance system includes first to third navigation parts worn by a user that can tell the user's guidance direction by auditory or tactile sense, and includes information about the guidance point to which the user should be guided and information that is reproduced.
  • a receiving unit that receives content information; a storage unit that stores information regarding guidance points and information about content to be played; a control unit that calculates the angle at which the user is moving and selects content to be played based on the calculation result, and a first to third navigation unit that uses a first to third navigation unit to display a guiding expression indicating the direction in which the user should proceed based on the calculated angle.
  • an output unit that outputs character expressions, so that people who have difficulty with spatial cognition (visual-spatial cognition disorders, etc.) can be guided to their destinations without getting lost, using auditory or tactile sense instead of visually. can do.
  • FIG. 1 It is a figure showing an embodiment in which a portable terminal and a guidance device part in a guidance system concerning the present invention are separated. It is a figure showing an embodiment in which a portable terminal in a guidance system concerning the present invention is fixed to a guidance device section. It is a figure showing the state where the guidance device part in the guidance system concerning the present invention is attached above a user's neck and clavicle. It is a block diagram showing each functional part of the main part of a guide device section in an embodiment in which a portable terminal and a guide device section are separated in a guide system according to the present invention. It is a block diagram showing each functional part of a portable terminal in an embodiment in which a portable terminal in a guidance system concerning the present invention is fixed to a guide device part. FIG.
  • FIG. 3 is a diagram illustrating the reason why a user cannot reach a destination if the user's point information based on GPS is used as a starting point in the guidance system according to the present invention.
  • FIG. 3 is a diagram illustrating the reason why a user cannot reach a destination if the user's point information based on GPS is used as a starting point in the guidance system according to the present invention.
  • FIG. 3 is a diagram illustrating the reason why a user cannot reach a destination if the user's point information based on GPS is used as a starting point in the guidance system according to the present invention.
  • FIG. 3 is a diagram showing straight-ahead guidance on a route being guided in the guidance system according to the present invention.
  • FIG. 3 is a diagram showing straight-ahead guidance on a route being guided in the guidance system according to the present invention.
  • FIG. 3 is a diagram showing guidance around a turning point in a route being guided in the guidance system according to the present invention. It is a diagram showing only the final destination in the guidance system according to the present invention.
  • 3 is a flowchart showing a guidance method according to the present invention.
  • 3 is a flowchart showing a guidance method according to the present invention.
  • FIG. 1 is a diagram showing the flow of transmitting information from the mobile terminal 10 to the guidance device section 20 in the guidance system 1.
  • the guidance system 1 is a system that includes a mobile terminal 10 and a guidance device section 20, and guides a user (wearer) through the guidance device section 20 to reach a destination without hesitation. Further, the guidance system 1 is a system in which the guidance device section 20 conveys information regarding guidance points to the user by auditory or tactile sensation. Furthermore, in the guidance system 1, the guidance device unit 20 may calculate, in accordance with the input from the mobile terminal 10, the angular deviation of the guidance point with respect to the front that the user is facing. .
  • the mobile terminal 10 is constituted by a general-purpose information processing terminal such as a smartphone, a tablet terminal, or a PC (personal computer), and accesses the guidance system 1 through a web browser or a dedicated application (not shown). By calculating how much the guidance point is angularly shifted from the front that the user is facing in this way, the user can go to the destination without getting lost.
  • the guidance device section 20 has a first navigation section, a main body section 21 that contacts the cervical vertebrae of the user's neck, an arm section 22 that extends from the main body section 21 to the left and right clavicle of the user, and a main body section 22 that is connected to the main body by the arm section 22.
  • a second navigation part 23 is connected to the main body part 21 by an arm part 22 and comes into contact with the user's left clavicle
  • a third navigation part 24 is connected to the main body part 21 by an arm part 22 and comes into contact with the user's right clavicle.
  • the first navigation section, the second navigation section 23, the third navigation section 24, and the main body section 21 are speakers and bone conduction speakers.
  • the main unit 21 receives information regarding the guidance point from the mobile terminal 10, it calculates how much the guidance point is angularly shifted from the front that the user is facing, and calculates the sound and clavicle bone based on the calculation result. It outputs conducted sound and tactile vibration from its first navigation unit. Further, the main body section 21 transmits the calculation results to the second navigation section 23 and the third navigation section 24 via the arm section 22, and the second navigation section 23 and the third navigation section 24 , clavicle bone conduction sound, and tactile vibration are output.
  • the sound may be a human voice, the frequency may be approximately 200 Hz to 400 Hz or more, and the sound may be reproduced as a WAV or MP3 file, for example.
  • the number of navigation parts may be four in total, two on the rear left and right, two on the front right and left, or one in the middle of the back, two on the front left and right, and two on the left and right between the back and front, for a total of five.
  • FIG. 2 shows a case where the mobile terminal 10 is fixed to the guidance device section 20 in the guidance system 1.
  • the mobile terminal 10 is fixed to the main body 21 of the guidance device section 20, and plays the role played by the guidance device section 20 in FIG. This will be explained in detail in the explanation of FIG.
  • the guiding device section 20 is appropriately equipped with a fixture (not shown) for fixing the mobile terminal 10.
  • FIG. 3 is a diagram showing a state in which the guidance device section 20 of the guidance system 1 is attached above the user's neck and clavicle.
  • the guidance device section 20 is a wide-area vibration type actuator that can present tactile vibration, clavicle bone conduction sound, and sound by itself. As shown in FIG. 3, at least three of the wide-area vibration actuators are arranged so as to surround the user's head or neck, or to contact the user's torso or neck.
  • the contact between the guidance device section 20 and the user's neck and clavicle is, as is obvious, indirect contact through the skin or clothing.
  • the main body section 21 includes a receiving section 30, a storage section 40, a control section 50, and an output section 60.
  • the receiving unit 30 receives information regarding the guidance points and information on the content to be reproduced from the mobile terminal 10 by wire or wirelessly.
  • the information regarding the guidance point includes, for example, the direction to the guidance point, the distance, the angle of the turn, the number of guidance points to the goal, the number of guidance points being guided, and the like.
  • the receiving unit 30 receives these as input values.
  • the guidance point set on the mobile terminal 10 may be the next corner, the final destination, or the like, depending on the situation.
  • Guidance points may be set at each corner, a gentle or large curve, or only at the final destination.
  • Content is not visual information but audio information, and may be audio or bone conduction sound. As will be described later, the direction is given using a voice similar to that of a mother's voice or a robot's voice.
  • the storage unit 40 stores information regarding guidance points and information on content to be played.
  • the information regarding the guidance point includes, for example, the direction to the guidance point, the distance, the angle of the turn, the number of guidance points to the goal, the number of guidance points being guided, and the like.
  • Content is not visual information but audio information, and may be audio or bone conduction sound. As will be described later, the direction is given using a voice similar to that of a mother's voice or a robot's voice.
  • the control unit 50 includes an I/O 51, a ROM 52, a RAM 53, and a CPU 54. Based on the information received by the receiving unit 30, the control unit 50 calculates the angle at which the guidance point is deviated from the front that the user is facing.
  • the value of the direction to be guided transmitted from the mobile terminal 10 is set to be from 0° to 359° clockwise, with 0° being north. Since the direction in which the user is facing can be determined by the guidance device section 20 alone using a 9-axis sensor attached to the main body section 21 of the guidance device section 20, the direction in which the user is facing can be determined by combining the input value from the mobile terminal 10. Calculate how much angular deviation the guidance point deviates from. Information such as the distance to the point to be guided and the point number are also used as input values to determine the output.
  • the output unit 60 reproduces the file stored in the storage unit 40 based on the result of the calculation by the control unit 50.
  • the first navigation section, the second navigation section 23, and the third It is played back on the navigation section 24 of.
  • These reproductions are performed continuously at a frequency that provides an interactive experience. For example, 10ms, 100ms, 1s, etc. are realistic.
  • the file derived by the calculation in the control unit 50 is played back at the position of the navigation unit derived by the calculation.
  • Sound, clavicular bone conduction sound, and tactile vibration can be played simultaneously or separately from one file.
  • the main elements of the human voice consist of approximately 200Hz to 400Hz or higher, and when this is played back in the navigation section as a WAV or MP3 file, the stimulus is presented as a sound that travels through the air and reaches the ear. Ru. Therefore, if you create a WAV file or an MP3 file of a person's voice or sound effect using a sound with a frequency of approximately 200Hz to 400Hz or higher, and play it on a device, it can be used as selective ear stimulation. I can do it.
  • Guidance expressions may include moving forward, turning, and stopping. Further, the direction in which the user should proceed may be guided by a character representation using a predetermined character.
  • the predetermined character may include a real character or a fictional character.
  • the character here refers to an expression mode characterized by a predetermined sense of unity with respect to the sounds and vibrations included in the guidance expression. When representing an arbitrary woman, the voice is female and the tactile vibrations are presented at gentle 1s intervals; when representing an arbitrary man, the voice is male and the tactile vibrations are presented at powerful 2s intervals.
  • a problem arises in guidance when presenting a sense of direction with the guidance device section 20 of the guidance system 1, if it is a sound, it may be a verbal sound (for example, a word) or a non-verbal sound (for example, an animal's cry or a robot's signal sound). ) or sound effects, but especially for users who have the above-mentioned problems, the important point is whether or not the voice or sound is familiar. For example, don't follow people you don't know. Therefore, in order to successfully match the purpose of use with the guidance device section 20 in the guidance system 1, it is important to consciously create character that appears in the sound.
  • the user's mother's voice whose voice has been collected in advance from the right side, may be used to replay the voice saying, "Come here.”
  • clavicle bone conduction sounds for example, we created clavicle bone conduction sounds to simulate a robot
  • tactile vibrations for example, we created sounds to simulate a mother tapping his right shoulder.
  • control unit 50 determines the files and data to be played, and the device is designed so that the user can identify the individual characters and recognize the emotions of the characters based on the files played by computer processing. Generated by stored files or data, computer processing, or computer processing in conjunction with cloud services.
  • clavicle bone conduction sound uses "voice” and "musical scale” to play back files and data that lead to character identification and emotional recognition.
  • Tactile vibrations also include ⁇ the feeling of my mother gently tapping me on the shoulder,'' ⁇ the feeling of my mother tapping my shoulder urgently,'' ⁇ the feeling of a robot clumsily tapping my shoulder,'' and ⁇ the robot clumsily massaging my shoulder.'' It plays back files and data that lead to character identification and emotional recognition, such as "I feel like I'm doing something for you.”
  • the playback that leads to character identification and emotional recognition as described above may be stored as a file, created by the user himself, or may be a sound waveform generated by general computer processing. It may be played back, or it may be an artificial voice generated by general machine learning.
  • the playback by the character is output as described above, allowing the user to "identify the individual character” and “recognize the emotion of the character.”
  • characters are presented with visual information, but the guidance device unit 20 promotes character identification and emotion recognition through sound, clavicle bone conduction sound, and tactile vibration without presenting visual information. This greatly reduces psychological anxiety for the people who are subject to the ⁇ mobility support'' problem that Guidance System 1 aims to solve, brings out their motivation to move, and is a major psychological element in aiming for independence. .
  • automatic voice guidance on a telephone can promote ⁇ individual character identification'' and ⁇ character emotional recognition.'' is significantly different from the above in terms of the presentation method and presentation device that make the direction, distance, timing, and presence of landmarks recognized.
  • the mobile terminal 10 includes a receiving section 130, a storage section 140, a control section 150, and an output section 160.
  • the storage unit 140 stores information regarding guidance points.
  • the information regarding the guidance point includes, for example, the direction to the guidance point, the distance, the angle of the turn, the number of guidance points to the goal, the number of guidance points being guided, and the like.
  • the control unit 150 includes an I/O 151, a ROM 152, a RAM 153, and a CPU 154. Based on the information received by the receiving unit 130, the control unit 150 calculates the angle at which the guidance point is deviated from the front that the user is facing. The value of the direction you want to guide is set, for example, from 0° to 359° clockwise, with 0° being north. Using a 9-axis sensor or the like attached to the mobile terminal 10, it is calculated how much the guidance point is angularly shifted from the front that the user is facing. Information such as the distance to the point to be guided and the point number are also used as input values to determine the output.
  • the output unit 160 reproduces the file stored in the storage unit 140 based on the result of the calculation by the control unit 150.
  • the first navigation section 23 and the third navigation section 24 play back files stored in the cloud by mutually communicating with the cloud and based on the results calculated by the control section 150 .
  • These reproductions are performed continuously at a frequency that provides an interactive experience. For example, 10ms, 100ms, 1s, etc. are realistic.
  • the file derived by the calculation in the control unit 150 is played back at the position of the navigation unit derived by the calculation.
  • Sound, clavicular bone conduction sound, and tactile vibration can be played simultaneously or separately from one file.
  • the main elements of the human voice consist of approximately 200Hz to 400Hz or higher, and when this is played back in the navigation section as a WAV or MP3 file, the stimulus is presented as a sound that travels through the air and reaches the ear. Ru. Therefore, if you create a WAV file or an MP3 file of a person's voice or sound effect using a sound with a frequency of approximately 200Hz to 400Hz or higher, and play it on a device, it can be used as selective ear stimulation. I can do it.
  • the guidance system 1 presents information on which direction to move and how much to rotate the body by auditory or tactile sensation. For example, “Go to the right,” “Turn to the left,” or tap someone on the right shoulder.
  • the information presentation changes interactively to help the user reach their destination.
  • information related to distance and positional relationships may also be presented. For example, “It's 200 meters until the next turn” or "The final destination is 1 km on the right.”
  • FIG. 6 shows an example of a reason why a user cannot reach a destination using GPS location information as a base point.
  • R1 represents the road that the user is currently traveling on
  • R2 represents the road that the user is about to travel on.
  • P1 represents the current position and direction of the user
  • P2 represents the position shifted due to GPS error.
  • P is the guidance point.
  • the user's position is behind the guidance point B (south S), but the GPS position has shifted due to an error and is in front F (north N), so the user is prompted to proceed to the back B (south S).
  • “I should be heading forward F (north N) but I was guided in the opposite direction.
  • FIG. 7 shows another example of the reason why the user cannot reach the destination using GPS location information as the base point.
  • R1 represents the road that the user is currently traveling on
  • R2 represents the road that has shifted due to a GPS error
  • R3 represents the road that the user is about to travel on.
  • P1 represents the current position and direction of the user
  • P2 represents the position shifted due to GPS error.
  • P is the guidance point.
  • the user's position is left L (west W) of the guidance point, but the GPS position has shifted due to an error and is now right R (east E). "I should have gone to the right R (east E), but I was guided to the front F (north N) where there was a wall.
  • FIG. 8 shows yet another example of the reason why the user cannot reach the destination using GPS location information as the base point.
  • R2 represents the road that the user is currently traveling on
  • R1 represents the road that has shifted due to a GPS error
  • R3 represents the road that the user is about to travel on.
  • P2 represents the current position and direction of the user
  • P1 represents the position shifted due to GPS error.
  • P is the guidance point.
  • the user's position is below the guidance point B (South S), but the GPS position has shifted due to an error and is now to the left L (west W), so the user is prompted to proceed to the right R (east E). "Even though I should have turned left L (west W), I was guided to right R (east E), which deviated from the route.
  • FIG. 9 shows a specific example of the algorithm of the navigation method by the guidance system 1, "guidance to go straight on the route being guided (1)".
  • R1 represents the road the user is currently traveling on
  • P1 represents the current actual position and direction of the user
  • P2 represents the position shifted due to GPS error.
  • P is the guidance point.
  • is set as 0° to 359° clockwise with 0° as north.
  • the direction in which the guidance device section 20 is facing can be determined by the guidance device section 20 alone using a 9-axis sensor attached to the guidance device section 20. Regardless of the GPS error, the angle of ⁇ that is directly in front can be determined and used for guidance. For example, if ⁇ is 30 degrees and the orientation of the device (orientation of the user's body) is 135 degrees (southeast), it can be seen that if the body is rotated 105 degrees to the left, the direction of ⁇ becomes the front.
  • the file to be output and the position of the main body 21 are determined based on the rotation angle of the body to be guided and the distance ⁇ . After knowing the direction in which the user is facing, information is presented that allows the user to choose what action to take. For example, it is possible to provide guidance with either "The direction of travel is to the right" or "The next guidance point is 100 meters ahead on the right.”
  • FIG. 10 shows a specific example of the algorithm of the guidance method by the guidance system 1, "guidance to go straight on the route being guided (2)".
  • R1 represents the road on which the user is currently traveling
  • R2 represents the road on which the user will travel next
  • R3 represents the road on which the user intends to travel next.
  • P1 represents the current position and direction of the user
  • P2 represents the position shifted due to GPS error.
  • P is the guidance point.
  • the “distance [ ⁇ ] between the point P2 of the user's position information acquired by GPS and the nearest point of the line segment formed by the route L1 being guided" transmitted from the mobile terminal 10 is larger than the arbitrary radius r.
  • is set as 0° to 359° clockwise with 0° as north.
  • the direction in which the guidance device section 20 is facing can be determined by the guidance device section 20 alone using a 9-axis sensor attached to the guidance device section 20. Regardless of the GPS error, the guide is always directed so that the direction of ⁇ is the front. For example, if ⁇ is 120° and the direction of the guidance device section 20 (orientation of the user's body) is 315° (northwest), if the body is rotated 165° to the right R, the direction of ⁇ will be the front. I understand.
  • the file to be output and the position of the main body 21 are determined based on the rotation angle of the body to be guided and the distance ⁇ .
  • FIG. 11 shows a specific example of the algorithm for the navigation system of guidance system 1, "guidance at a corner.” "Guidance at a turning corner” occurs when ⁇ in "straight guidance (1) on the route being guided" becomes less than or equal to an arbitrary value.
  • R1 represents the road on which the user is currently traveling
  • R2 represents the road on which the user will travel next
  • R3 represents the road on which the user intends to travel next.
  • P1 represents the current actual position and orientation of the user
  • P2 represents the position determined by GPS.
  • k is the turning angle.
  • the direction in which the guidance device section 20 is facing can be determined by the guidance device section 20 alone using a 9-axis sensor attached to the guidance device section 20. Regardless of GPS errors, it is possible to present a positional relationship in which the direction of ⁇ is the front for the user. For example, if ⁇ is 330° and the orientation of the guidance device section 20 (orientation of the user's body) is 45° (northeast), if the body is rotated 75° to the left L, the direction of ⁇ will be the front. I understand. (When the body is approximately facing forward, the turning mode ends.) The file to be output and the position of the main body 21 are determined based on the rotation angle of the body to be guided and ⁇ .
  • FIG. 12 shows a specific example of the algorithm of the navigation system using the guidance system 1, ⁇ presenting only the final destination.
  • P1 represents the current position and direction of the user
  • P2 represents the position shifted due to GPS error.
  • P is the guidance point.
  • the user reaches the final destination while freely moving based on the location information of the final destination that is constantly informed. For example, R1, R2, R3, R4, etc.
  • the direction in which the guidance device section 20 is facing can be determined by the guidance device section 20 alone using a 9-axis sensor attached to the guidance device section 20. To guide you so that you can know the direction regardless of GPS errors. For example, if a is 330 degrees and the orientation of the guidance device section 20 (orientation of the user's body) is 45 degrees (northeast), if you rotate your body 75 degrees to the left L, the direction of a will be the front. I understand.
  • the file to be output and the position of the main body 21 are determined based on the rotation angle of the body to be guided and the distance b.
  • the guidance method is executed by the CPU 54 of the control unit 50 based on the guidance program.
  • the guidance program causes the control unit 50 to perform a reception function, a control function, an output function, and a storage function. Each of these functions is executed in the order shown. Note that each function is the same as the description of the guidance system 1 described above, so the details will be omitted.
  • the process of the control unit 50 includes a reception step (S11), a control step (S12), and an output step (S13). Further, as shown in the flowchart of FIG. 14, it includes a storage step (S21), a control step (S22), and an output step (S23). Of course, various steps necessary for the operation of the control unit 50 itself are naturally included.
  • the reception function is such that the main unit 21 receives information regarding the guidance point input from the mobile terminal 10, such as the direction to the guidance point, the distance, the angle of the turn, the number of guidance points to the goal, and the number of guidance points being guided. etc. (S10: reception step).
  • the main body 21 calculates the angle at which the guidance point is deviated from the front facing the user based on the information received in the reception step (S12: control step).
  • the output function is for the main body section 21 to output a guidance expression indicating the direction in which the user should proceed based on the calculation result in the control step to the first navigation section, the second navigation section 23, and the third navigation section 24 ( S13: Output step).
  • the mobile terminal 10 stores information regarding the guidance point, such as the direction to the guidance point, the distance, the angle of the turn, the number of guidance points to the goal, the number of guidance points being guided, etc. (S21: memory step).
  • the mobile terminal 10 calculates the angle at which the guidance point is deviated from the front that the user is facing, based on the information regarding the guidance point stored in the storage step. (S22: control step).
  • the output function is for the mobile terminal 10 to output a guidance expression indicating the direction in which the user should proceed based on the calculation result in the control step to the first navigation section, the second navigation section 23, and the third navigation section 24 ( S23: Output step).
  • the computer program of the present invention described above may be recorded on a processor-readable recording medium, and examples of the recording medium include "non-transitory tangible media” such as tapes, disks, cards, semiconductor memories, and programmable media.
  • non-transitory tangible media such as tapes, disks, cards, semiconductor memories, and programmable media.
  • a logic circuit or the like can be used.
  • the above computer program can be implemented using, for example, a script language such as ActionScript or JavaScript (registered trademark), an object-oriented programming language such as Objective-C or Java (registered trademark), a markup language such as HTML5, or the like.
  • a script language such as ActionScript or JavaScript (registered trademark)
  • an object-oriented programming language such as Objective-C or Java (registered trademark)
  • a markup language such as HTML5, or the like.
  • the first navigation section, second navigation section 23, and third navigation section 24 of the main body section 21 output "sound”, “vibration”, " Added a “table” that lists output expression modes that summarizes "bone conduction sounds.”
  • the table below is just an example of how the output will be expressed.
  • the mobile terminal 10 is separated from the guidance device section 20 and the guidance device section 20 processes calculations, etc., and the mobile terminal 10 is fixed to the guidance device section 20 and the mobile terminal 10 performs calculations etc.
  • the cloud service has been described as an embodiment in which the mobile terminal 10 is separated from the guidance device section 20 and the guidance device section 20 processes calculations and the like.
  • Guidance system 10 Mobile terminal 20 Guidance device section 21 Main body section 22 Arm section 23 Second navigation section 24 Third navigation section 30 Receiving section 40 Storage section 50 Control section 60 Output section

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)

Abstract

聴覚又は触覚によりユーザの誘導方向が分かる、ユーザに装着した第1乃至第3のナビゲーション部を備える誘導システムは、ユーザを誘導すべき誘導ポイントに関する情報及び再生されるコンテンツの情報を受信する受信部と、誘導ポイントに関する情報及び再生されるコンテンツの情報を記憶する記憶部と、誘導ポイントに関する情報に基づいて、ユーザが向いている正面に対して誘導ポイントがずれている角度を演算し、演算結果に基づいて再生するコンテンツを選択する制御部と、演算された角度に基づいて、ユーザが進むべき方向を示す誘導表現を、第1乃至第3のナビゲーション部を用いて、キャラクター表現により出力する出力部と、を有する。

Description

誘導システム、誘導方法および誘導プログラム
 本発明は、誘導システム、誘導方法および誘導プログラムに関するものであって、特に聴覚又は触覚により、空間認知能力に苦手を感じる人(視空間認知障害など)が景色に集中し、周りに配慮しながら迷わず移動し、目的地に到着できる自立的移動を促進するシステムである。
 歩行者を目的地に誘導するナビゲーションシステム、地図アプリは多数存在する。特に非特許文献1に示すような視覚障害者向けのナビゲーションシステムが存在する。非特許文献1に示すナビゲーションシステムでは、視覚の代わりにAI(人工知能)を用いた画像解析で、人の目の代わりに自動運転を実現している。
 只、視覚障害は、目が見えていないなどの視覚的情報の課題はあるが、空間認知能力は高い傾向にある。そのため、視覚障害者は、迷うことは重要視されておらず、目が見えてないことに起因する事故への危険対策が求められやすい。
 一方、空間認知能力に苦手を感じる人(視空間認知障害など)は、地図の認知や空間への知覚、そしてその配置関係の脳内処理などに苦手さがある。さらには地図が指す向きと身体の方向の感覚合わせも同様に苦手であるため、景色が記憶に残りづらく、道に迷いやすい。また、同時作業に苦手さを感じる人も見られ、そういった人は周りに配慮しながらのスマートフォンなどの操作と同時の移動や、聴覚のみでの左右の同時判断も苦手という傾向がある。従来このような人が、初めての目的地ないしは初めてでなくても、記憶に残っていない目的地にたどり着くためには、人による直接的な移動の支援しか解決策がなかった。しかし、人による直接的な支援では、わかりやすい一方、より当事者の自立する心理を阻害してしまう傾向にある。さらには、人間同士の心理的相性や、労力に加え、費用的懸念もあり、解決できない問題も存在している。人の支援無く当事者自身の判断で移動ができるようにするためには当事者の自立を促進する手段が必要である。その解決のため、自らの意思にて景色に集中し、周りに配慮しながら目的地に到着できるようにする、自立的移動を促進する、システムが必要である。このシステムを使うことにより、空間認知能力に苦手を感じる人(視空間認知障害など)は、初めての目的地ないしは初めてではなくても、記憶に残っていない目的地に、迷いなく不安を軽減しながらたどり着くことができるようになる。なお、このような視空間認知障害の症状は発達障害の方などに比較的多く見られるが、高次脳機能障害、軽度認知障害を抱える人などの軽度の症状の方にも同様の症状が見られ、外出に強い意欲を持つ人にこの解決策が有効である。
 また、非特許文献2には、靴に装着するナビゲーション装置が開示されている。しかし、このナビゲーション装置は視覚障害者用のものであり、空間認知能力に苦手を感じる人(視空間認知障害など)への直接な解決策になってはいない。なぜなら、空間認知能力に苦手を感じる人(視空間認知障害など)には、迷いやすい問題の解決が求められるが、足に神経を集中させるようなナビゲーション機能を期待するニーズは見当たらず、目的が異なる。
 また、特許文献1には、スマート・ネックレスが開示されている。このスマート・ネックレスは、少なくとも一つのキャビティを画成する本体であって、首用部分、及び、第1及び第2の側部部分を有する本体と、スマート・ネックレスの周囲環境に対応する深度情報を含む画像データを検出すべく構成された一対の立体カメラと、スマート・ネックレスの位置に対応する位置データを検出すべく構成された位置決めセンサと、少なくとも一つのキャビティ内に位置された持続的メモリであって、地図データ及び物体データを記憶すべく構成された持続的メモリと、上記少なくとも一つのキャビティ内に位置され、一対の立体カメラ、位置決めセンサ及び持続的メモリに対して連結され、画像データ、位置データ、地図データ及び物体データに基づいて出力データを決定すべく構成されたプロセッサと、を含む。
 しかし、特許文献1に開示されたスマート・ネックレスでは、ユーザが向いている正面に対して誘導ポイントがずれている角度を演算する機能を持つ機能部は備えていない。
特許第6599877号公報
https://www.gizmodo.jp/2022/01/biped.html https://www.ashirase.com/
 そこで、本発明は上記問題に鑑みて成されたものであり、空間認知能力に苦手を感じる人(視空間認知障害など)が過度にスマートフォンの地図に視覚の意識を集中すること無く、聴覚又は触覚により、より一層景色に意識を集中し、周りに配慮しながら、目的地に迷わず行けるよう自立的に誘導するシステム、誘導方法および誘導プログラムを提供することを目的とする。
 上記課題を解決するために、本発明の一態様に係る聴覚又は触覚によりユーザの誘導方向が分かる、ユーザに装着した第1乃至第3のナビゲーション部を備える誘導システムは、ユーザを誘導すべき誘導ポイントに関する情報及び再生されるコンテンツの情報を受信する受信部と、誘導ポイントに関する情報及び再生されるコンテンツの情報を記憶する記憶部と、誘導ポイントに関する情報に基づいて、ユーザが向いている正面に対して誘導ポイントがずれている角度を演算し、演算結果に基づいて再生するコンテンツを選択する制御部と、演算された角度に基づいて、ユーザが進むべき方向を示す誘導表現を、第1乃至第3のナビゲーション部を用いて、キャラクター表現により出力する出力部と、を有することを特徴とする。
 誘導システムは、携帯端末と、ユーザの首の後部から肩にかけて取り付けられ、携帯端末と遠隔で又は携帯端末を装着して通信する誘導装置部と、を備え、誘導装置部は、第1のナビゲーション部を有し、ユーザの首の後部に装着される本体部と、本体部からユーザの左右の肩まで伸長するアーム部と、アーム部によって本体部と接続され、ユーザの左側の肩に接する第2のナビゲーション部と、アーム部によって本体部と接続され、ユーザの右側の肩に接する第3のナビゲーション部と、を有してもよい。
 第1のナビゲーション部、第2のナビゲーション部、及び第3のナビゲーション部は、本体部の制御に基づいて、音によりユーザが進むべき方向を示してもよい。
 第1のナビゲーション部、第2のナビゲーション部、及び第3のナビゲーション部は、本体部の制御に基づいて、鎖骨骨伝導音によりユーザが進むべき方向を示してもよい。
 第1のナビゲーション部、第2のナビゲーション部、及び第3のナビゲーション部は、本体部の制御に基づいて、触覚振動によりユーザが進むべき方向を示してもよい。
 誘導表現は、進むこと、曲がること、及び止まることを含んでもよい。
 ユーザが進むべき方向の誘導が所定のキャラクターによるキャラクター表現により行ってもよい。
 所定のキャラクターは、実在するキャラクター、又は架空のキャラクターを含んでもよい。
 第1のナビゲーション部、第2のナビゲーション部、又は第3のナビゲーション部は、携帯端末から送信される第1の経路が誘導する線分の方角と、GPSで取得したユーザの位置情報の地点と第2の経路とが成す線分の最近傍点との距離と、の入力に基づき、誘導装置部に取り付けられたセンサにより、誘導方向が分かるように前記ユーザを誘導してもよい。
 第1のナビゲーション部、第2のナビゲーション部、又は第3のナビゲーション部は、携帯端末から送信されるGPSで取得したユーザの位置情報の地点と第1の経路とが成す線分の最近傍点との距離が任意の半径より大きい場合に、携帯端末から送信されるGPSで取得したユーザの位置情報の地点と第1の経路とが成す線分の最近傍点との距離と、地点から見た第1の経路の最近傍点の角度の入力に基づき、誘導装置部に取り付けられたセンサにより、誘導方向が分かるようにユーザを誘導してもよい。
 第1のナビゲーション部、第2のナビゲーション部、又は第3のナビゲーション部は、携帯端末から送信される第1の経路が誘導する線分の方角と、GPSで取得したユーザの位置情報の地点と、の入力に基づき、誘導方向が分かるようにユーザを誘導してもよい。
 第1のナビゲーション部、第2のナビゲーション部、又は第3のナビゲーション部は、携帯端末から送信されるGPSで取得したユーザの位置情報の地点と最終目的地との距離と、地点から見た最終目的地の角度と、の入力に基づき、誘導装置部に取り付けられたセンサにより、誘導方向が分かるようにユーザを誘導してもよい。
 上記課題を解決するために、本発明の一態様に係る聴覚又は触覚によりユーザの誘導方向が分かる、ユーザに装着した第1乃至第3のナビゲーション部を備える誘導方法は、ユーザを誘導すべき誘導ポイントに関する情報及び再生されるコンテンツの情報を受信する受信ステップと、誘導ポイントに関する情報及び再生されるコンテンツの情報を記憶する記憶ステップと、誘導ポイントに関する情報に基づいて、ユーザが向いている正面に対して誘導ポイントがずれている角度を演算し、演算結果に基づいて再生するコンテンツを選択する制御ステップと、演算された角度に基づいて、ユーザが進むべき方向を示す誘導表現を、第1乃至第3のナビゲーション部を用いて、キャラクター表現により出力する出力ステップと、を有することを特徴とする。
 上記課題を解決するために、本発明の一態様に係る聴覚又は触覚によりユーザの誘導方向が分かる、ユーザに装着した第1乃至第3のナビゲーション部を備える誘導プログラムは、コンピュータに、ユーザを誘導すべき誘導ポイントに関する情報及び再生されるコンテンツの情報を受信する受信機能と、誘導ポイントに関する情報及び再生されるコンテンツの情報を記憶する記憶機能と、誘導ポイントに関する情報に基づいて、ユーザが向いている正面に対して誘導ポイントがずれている角度を演算し、演算結果に基づいて再生するコンテンツを選択する制御機能と、演算された角度に基づいて、ユーザが進むべき方向を示す誘導表現を、第1乃至第3のナビゲーション部を用いて、キャラクター表現により出力する出力機能と、を実現させることを特徴とする。
 本発明の一態様に係る誘導システムは、聴覚又は触覚によりユーザの誘導方向が分かる、ユーザに装着した第1乃至第3のナビゲーション部を備え、ユーザを誘導すべき誘導ポイントに関する情報及び再生されるコンテンツの情報を受信する受信部と、誘導ポイントに関する情報及び再生されるコンテンツの情報を記憶する記憶部と、誘導ポイントに関する情報に基づいて、ユーザが向いている正面に対して誘導ポイントがずれている角度を演算し、演算結果に基づいて再生するコンテンツを選択する制御部と、演算された角度に基づいて、ユーザが進むべき方向を示す誘導表現を、第1乃至第3のナビゲーション部を用いて、キャラクター表現により出力する出力部と、を有することにより、空間認知能力に苦手を感じる人(視空間認知障害など)が視覚によらずに聴覚又は触覚により目的地に迷わず行けるように誘導することができる。
本発明に係る誘導システムにおける携帯端末と誘導装置部とが分離している実施形態を示す図である。 本発明に係る誘導システムにおける携帯端末が誘導装置部に固定されている実施形態を示す図である。 本発明に係る誘導システムにおける誘導装置部をユーザの頸部及び鎖骨の上方に取り付けた状態を示す図である。 本発明に係る誘導システムにおける携帯端末と誘導装置部とが分離している実施形態における、誘導装置部の本体部の各機能部を示すブロック図である。 本発明に係る誘導システムにおける携帯端末が誘導装置部に固定されている実施形態における、携帯端末の各機能部を示すブロック図である。 本発明に係る誘導システムにおける、GPSによるユーザの地点情報を起点とすると目的地にたどり着けない原因を示す図である。 本発明に係る誘導システムにおける、GPSによるユーザの地点情報を起点とすると目的地にたどり着けない原因を示す図である。 本発明に係る誘導システムにおける、GPSによるユーザの地点情報を起点とすると目的地にたどり着けない原因を示す図である。 本発明に係る誘導システムにおける、案内中のルートにおける直進の誘導を示す図である。 本発明に係る誘導システムにおける、案内中のルートにおける直進の誘導を示す図である。 本発明に係る誘導システムにおける、案内中のルートにおける曲がり角の誘導を示す図である。 本発明に係る誘導システムにおける、最終目的地のみを提示する図である。 本発明に係る誘導方法を示すフローチャートである。 本発明に係る誘導方法を示すフローチャートである。
[誘導システム]
 以下、本発明の一実施態様に係る誘導システムについて、図面を参照しながら詳細に説明する。
 図1は、誘導システム1において、携帯端末10から誘導装置部20に情報を送信する流れを示す図である。誘導システム1とは、携帯端末10と誘導装置部20を備え、誘導装置部20を通じてユーザが目的地に到達するのに迷わずにユーザ(着用者)を誘導するシステムをいう。また、誘導システム1は、誘導装置部20が、聴覚又は触覚により誘導ポイントに関する情報を、ユーザに伝えるシステムである。さらに、誘導システム1は、誘導装置部20が、携帯端末10からの入力に応じて、ユーザが向いている正面に対して、誘導ポイントがどれだけの角度ずれているのかを演算してもよい。携帯端末10は、例えば、スマートフォン、タブレット端末、PC(personal Computer)等の汎用の情報処理端末により構成され、図示しないWebブラウザもしくは専用のアプリケーションによって誘導システム1にアクセスする。このようにユーザが向いている正面に対して、誘導ポイントがどれだけの角度ずれているのかを演算することにより、ユーザは目的地に迷わず行くことができるようになる。
 誘導装置部20は、第1のナビゲーション部を有し、ユーザの頸部の頸椎に接する本体部21と、本体部21からユーザの左右の鎖骨まで伸長するアーム部22と、アーム部22によって本体部21と接続され、ユーザの左側の鎖骨に接する第2のナビゲーション部23と、アーム部22によって本体部21と接続され、ユーザの右側の鎖骨に接する第3のナビゲーション部24と、を有する。第1のナビゲーション部、第2のナビゲーション部23及び第3のナビゲーション部24並びに本体部21は、スピーカ、骨伝導スピーカ。振動発生用の振動子、モータ等がアクチェータとして備えられる。本体部21は、携帯端末10から誘導ポイントに関する情報を受信すると、ユーザが向いている正面に対して、誘導ポイントがどれだけの角度ずれているのかを演算し、演算結果に基づく音、鎖骨骨伝導音、触覚振動を自らの第1のナビゲーション部から出力する。また、本体部21は、アーム部22を介して、演算結果を第2のナビゲーション部23及び第3のナビゲーション部24に送信し、第2のナビゲーション部23及び第3のナビゲーション部24は、音、鎖骨骨伝導音、触覚振動を出力する。音は、人の声であってもよく、周波数はおよそ200Hz~400Hz以上であってもよく、例えば、これをwavやmp3などのファイルとして再生してもよい。図4の説明で詳述する。なお、ナビゲーション部は後ろ左右に二つ、前左右二つの合計4つでもよく、後ろ真ん中に一つ、前左右二つ、後ろと前の間の左右二つの合計5つでもよい。
 図2は、誘導システム1において、携帯端末10が誘導装置部20に固定される場合を示している。携帯端末10は、図2に示すように、誘導装置部20の本体部21に固定されて、図1において誘導装置部20が担っていた役割を担う。図5の説明で詳述する。誘導装置部20には、携帯端末10を固定するための固定具(図示せず)が適宜備えられる。
 図3は、誘導システム1における誘導装置部20をユーザの頸部及び鎖骨の上方に取り付けた状態を示す図である。誘導装置部20は、これ一つで触覚振動、鎖骨骨伝導音、音を提示できる広域振動型アクチェータである。この広域振動型アクチェータは、図3に示すように、ユーザの頭部を囲むように、又は頸部を囲むように、少なくとも3つ以上、胴体又は首回りに接触するように配置される。誘導装置部20とユーザの頸部及び鎖骨側への接触は、自明ながら皮膚、衣類の上からの間接的な接触である。
 次に、図4を用いて、誘導システム1における携帯端末10と誘導装置部20とが分離している実施形態における、誘導装置部20の本体部21の各機能部について説明する。本体部21は、受信部30と、記憶部40と、制御部50と、出力部60と、を有している。
 受信部30は、携帯端末10から、誘導ポイントに関する情報及び再生されるコンテンツの情報を、有線又は無線により受信する。誘導ポイントに関する情報とは例えば、誘導ポイントへの方角、距離、曲がり角の角度、ゴールまでの誘導ポイントの数、案内中の誘導ポイントの数などである。受信部30はこれらを入力値として受信する。携帯端末10で設定される誘導ポイントは、次の曲がり角や、最終目的地など、場合に応じて設定される。誘導ポイントは、曲がり角ごとや、緩やかで大きなカーブでもよいし、最終目的地だけに設定してもよい。コンテンツとは視覚情報ではなく音声情報であり、音声であっても骨伝導音であってもよい。後述するように母親やロボットの声のような音声で進む方向を指示するものである。
 記憶部40は、誘導ポイントに関する情報及び再生されるコンテンツの情報を記憶している。誘導ポイントに関する情報とは例えば、誘導ポイントへの方角、距離、曲がり角の角度、ゴールまでの誘導ポイントの数、案内中の誘導ポイントの数などである。コンテンツとは視覚情報ではなく音声情報であり、音声であっても骨伝導音であってもよい。後述するように母親やロボットの声のような音声で進む方向を指示するものである。
 制御部50は、I/O51、ROM52、RAM53、CPU54を有する。制御部50は、受信部30により受信された情報に基づいて、ユーザが向いている正面に対して誘導ポイントがずれている角度を演算する。携帯端末10から送信される誘導したい方角の値は、0°を北として時計回りに0°から359°などとしておく。誘導装置部20の本体部21に取り付けた9軸センサなどにより、ユーザの向いている方角も誘導装置部20単体で分かるので、携帯端末10からの入力値と合わせて、ユーザの向いている正面に対して、誘導ポイントがどれだけの角度ずれているのかを演算する。誘導したいポイントまでの距離やポイントナンバーなどの情報も、出力を決定するための入力値として使用する。
 出力部60は、制御部50で演算した結果に基づき、記憶部40に記憶されているファイルを再生する。あるいは、携帯端末10やクラウドと相互通信し、制御部50で演算した結果をもとに携帯端末10やクラウドに格納されたファイルを、第1のナビゲーション部、第2のナビゲーション部23及び第3のナビゲーション部24で再生する。これらの再生を、体感としてインタラクティブ性を伴う程度の頻度で連続的に行う。例えば、10ms、100ms、1sなどが現実的である。
 制御部50での演算にて導き出されたファイルが、演算にて導き出されたナビゲーション部の位置で再生される。一つのファイルから、音、鎖骨骨伝導音、触覚振動を、同時又は別々に再生することができる。例えば、人の声の主要な要素は、およそ200Hz~400Hz以上で構成されており、これをwavやmp3などのファイルとしてナビゲーション部で再生すると、空気を伝って耳に届く音として刺激が提示される。なので、およそ200Hz~400Hz以上の周波数の音を使って、人が呼びかける声や効果音のwavファイルやmp3ファイルを作成し、それをデバイスで再生すると、選択的に耳からの刺激として利用することができる。
 音を再生するナビゲーション部の位置と音量を調整することで、音が鳴っていると感じる方向を明示的に出力することができる。例えば、第3のナビゲーション部24と第1のナビゲーション部とを同程度の音量で音を再生すると、明らかに左方向よりも右方向から音が鳴っているように感じる。その性質を利用して再生するコンテンツを工夫して、誘導や合図に生かす。右だけでなく、前後左右や斜めも同様である。さらに、それぞれのナビゲーション部で同じ音を出力するときに、それぞれのナビゲーション部で再生されるタイミングを数msから数十msずらすと、頭の周りで独特なサラウンド感を伴った響きが得られるため、例えば、ゴールやスタートなどの特徴的なシーンでこの性質を利用する。
 誘導表現は、進むこと、曲がること、及び止まることを含んでもよい。また、ユーザが進むべき方向の誘導が所定のキャラクターによるキャラクター表現により行ってもよい。所定のキャラクターは、実在するキャラクター、又は架空のキャラクターを含んでもよい。ここで言うキャラクターとは、誘導表現に含まれる音声、振動に対して所定の統一感により特徴づけした表現態様を言う。任意の女性を表す場合、声は女性で触覚振動は優しげな1s間隔の提示、任意の男性を表す場合、声は男性で触覚振動は力強い2s間隔の提示、などの特徴を付与する。
 ところで、誘導において問題が生じる時は、誘導システム1における誘導装置部20で方向感を提示する場合、音ならば言語音(例えば言葉)または非言語音(例えば動物の鳴き声や、ロボットのシグナル音)または効果音を再生するが、特に上述のような課題を持ったユーザにとっては、その声や音声に親しみがあるかどうかなどが大きなポイントとなる。例えば、知らない人にはついていかないなど。そのため、誘導システム1における誘導装置部20と使用目的がうまく成立するために、音に現れるキャラクター性を意識的に作り込むことが重要となる。例えば、右側から予め声を採取したユーザの母親の声で「こっちだよ」声を再生するなど。また、音に限らず、鎖骨骨伝導音(例えばロボットを想定するように鎖骨骨伝導音を作り込んだもの)、触覚振動(例えば母親が右の肩をたたいたと想定するように作り込んだ触覚振動を作り込んだもの)も同様に、意識的に作り込むことが重要となる。
 制御部50で演算方法を説明したように、再生するファイルやデータを決定するのだが、コンピュータ処理によって再生されるファイルによって、ユーザはキャラクターの個体識別およびキャラクターの感情認知ができるように、デバイスに格納されたファイルやデータまたはコンピュータ処理またはクラウドサービスと連携したコンピュータ処理などにより発生させる。
 再生されるキャラクターの個体識別につながる具体的な作り込みは、例えば音なら「母親の優しい声」、「母親の急かすような声」、「なじみのヘルパーさんの声」、「オフィシャルロボの声」、「好きな犬の犬種の鳴き声」、「音階しか鳴らせないけど昔懐かしのロボットが話しているような音」、「メタバースなどのデジタル世界に存在するもう一人の自分の声」または効果音を再生する。
 例えば鎖骨骨伝導音も音と同様に「声」や「音階」によってキャラクターの個体識別や感情認知につながるファイルやデータを再生する。触覚振動も、「母親が優しく肩を叩いてくれた感じ」、「母親が急かすように肩を叩いた感じ」、「ロボットが不器用に肩を叩いた感じ」、「ロボットが不器用に肩をマッサージしてくれる感じ」など、キャラクターの個体識別や感情認知につながるファイルやデータを再生する。
 上述のようなキャラクターの個体識別や感情認知につながる再生は、ファイルとして格納しておいたものや、ユーザが自ら作成したものでも良いし、一般的な手法のコンピュータ処理によって生成される音の波形を再生しても良いし、一般的な機械学習などによって生成される人工音声でも良い。
 キャラクターによる再生は上述のように出力され、ユーザは「キャラクターの個体識別」と「キャラクターの感情認知」につなげる。通常、キャラクターの提示は視覚情報を伴ない行われるが、誘導装置部20は、視覚情報の提示を伴わず、音・鎖骨骨伝導音・触覚振動によるキャラクターの個体識別および感情認知を促す。これは、誘導システム1が解決しようとする課題「移動支援」の対象となる人たちにとってはとても心理的不安を軽減し、移動するモチベーションを引き出す、自立を目指すための心理的な大きな要素となる。
 例えば、電話の自動音声案内は、「キャラクターの個体識別」と「キャラクターの感情認知」を促すことができるが、これは、誘導支援という目的で、方向感を提示する演算および装置の形態、さらには方向や距離やタイミングや目印の存在を認識させる提示方法および提示装置という点で当該とは大きく異なる。
 次に、図5を用いて、携帯端末10が誘導装置部20に固定された場合の携帯端末10の各機能部について説明する。携帯端末10は、受信部130と、記憶部140と、制御部150と、出力部160と、を有している。
 記憶部140は、誘導ポイントに関する情報を記憶している。誘導ポイントに関する情報とは例えば、誘導ポイントへの方角、距離、曲がり角の角度、ゴールまでの誘導ポイントの数、案内中の誘導ポイントの数などである。
 制御部150は、I/O151、ROM152、RAM153、CPU154を有する。制御部150は、受信部130により受信された情報に基づいて、ユーザが向いている正面に対して誘導ポイントがずれている角度を演算する。誘導したい方角の値は、0°を北として時計回りに0°から359°などとしておく。携帯端末10に取り付けた9軸センサなどにより、ユーザの向いている正面に対して、誘導ポイントがどれだけの角度ずれているのかを演算する。誘導したいポイントまでの距離やポイントナンバーなどの情報も、出力を決定するための入力値として使用する。
 出力部160は、制御部150で演算した結果に基づき、記憶部140に記憶されているファイルを再生する。あるいは、クラウドと相互通信し、制御部150で演算した結果をもとにクラウドに格納されたファイルを、第1のナビゲーション部、第2のナビゲーション部23及び第3のナビゲーション部24で再生する。これらの再生を、体感としてインタラクティブ性を伴う程度の頻度で連続的に行う。例えば、10ms、100ms、1sなどが現実的である。
 制御部150での演算にて導き出されたファイルが、演算にて導き出されたナビゲーション部の位置で再生される。一つのファイルから、音、鎖骨骨伝導音、触覚振動を、同時又は別々に再生することができる。例えば、人の声の主要な要素は、およそ200Hz~400Hz以上で構成されており、これをwavやmp3などのファイルとしてナビゲーション部で再生すると、空気を伝って耳に届く音として刺激が提示される。なので、およそ200Hz~400Hz以上の周波数の音を使って、人が呼びかける声や効果音のwavファイルやmp3ファイルを作成し、それをデバイスで再生すると、選択的に耳からの刺激として利用することができる。
 音を再生するナビゲーション部の位置と音量を調整することで、音が鳴っていると感じる方向を明示的に出力することができる。例えば、第3のナビゲーション部24と第1のナビゲーション部とを同程度の音量で音を再生すると、明らかに左方向よりも右方向から音が鳴っているように感じる。その性質を利用して再生するコンテンツを工夫して、誘導や合図に生かす。右だけでなく、前後左右や斜めも同様である。さらに、それぞれのナビゲーション部で同じ音を出力するときに、それぞれのナビゲーション部で再生されるタイミングを数msから数十msずらすと、頭の周りで独特なサラウンド感を伴った響きが得られるため、例えば、ゴールやスタートなどの特徴的なシーンでこの性質を利用する。
 次に、誘導システム1が必要とするナビ方式の背景について説明する。目でマップを確認しながら移動する場合、人は目でマップを見て、その情報と、自分が今いる場所や周りの状況を照らし合わせて、世界と自分の位置の関係を把握する。これに対し、目で見たマップ情報と、自分の位置関係を把握することが苦手な人は、外部と自分の位置関係に確信が持てない。手元のマップを見ると前を見ずに歩いたりする。また、GPSの誤差は20mと言われているが、近くの建物などの影響で100mくらいずれる時もある。自分が知っている場所でなかったり、空間認知に障害がある人には、GPSにより示されたマップ上の自分の位置が、どの程度正しいかを知ることは容易ではない。
 また、視覚情報を用いず聴覚と触覚で誘導をする場合、自分がすでに知っている場所などでない限りは、外部と自分の位置関係が分からない、そのため、今その時ユーザがいる場所と向いている方向に対して、誘導システム1はどちらに移動したり、どれだけ体を回転させるかの情報を聴覚または触覚で提示する。例えば、「右に進め」とか、「左に回れ」とか、右の肩を叩くとか。提示された情報をもとにユーザが体を移動や回転させたら、目的地にたどりつけるようにインタラクティブに情報の提示を変化させる。また、上記のような動作に関わる情報提示だけでなく、距離や位置関係に関わることを示しても良い。例えば、「次の曲がり角まで200mです」とか「最終目的地は右側1km先です」などである。
 問題が生じる時は、GPSで取得するユーザの位置情報の地点から任意の地点へ誘導するように、上述のように動作の情報を提示する場合、例えば以下の3つの例のような問題が生じる。
 図6に、GPSによるユーザの地点情報を基点とすると目的地にたどり着けない原因の一例を示す。R1はユーザが今進んでいる道路を、R2はユーザがこれから進もうとする道路を表している。P1はユーザが今実際にいる位置及び向きを、P2はGPSの誤差によりずれた位置を表している。Pは誘導地点である。この場合、ユーザの位置は誘導ポイントの後ろB(南S)であるが、GPS位置が誤差でずれて前F(北N)になっているため、「後ろB(南S)に進んでください」と、前F(北N)に進むべきなのに反対方向に誘導される。
 図7に、GPSによるユーザの地点情報を基点とすると目的地にたどり着けない原因の他の一例を示す。R1はユーザが今進んでいる道路を、R2はGPSの誤差によりずれた道路を、R3はユーザがこれから進もうとする道路を表している。P1はユーザが今実際にいる位置及び向きを、P2はGPSの誤差によりずれた位置を表している。Pは誘導地点である。この場合、ユーザの位置は誘導ポイントの左L(西W)であるが、GPS位置が誤差でずれて右R(東E)になっているため、「前F(北N)に進んでください」と、右R(東E)に進むべきなのに、壁のある正面F(北N)に誘導される。
 図8に、GPSによるユーザの地点情報を基点とすると目的地にたどり着けない原因のさらに他の一例を示す。R2はユーザが今進んでいる道路を、R1はGPSの誤差によりずれた道路を、R3はユーザがこれから進もうとする道路を表している。P2はユーザが今実際にいる位置及び向きを、P1はGPSの誤差によりずれた位置を表している。Pは誘導地点である。この場合、ユーザの位置は誘導ポイントの下B(南S)であるが、GPS位置が誤差でずれて左L(西W)になっているため、「右R(東E)に進んでください」と、左L(西W)に曲がるべきなのに、ルートから外れる右R(東E)に誘導される。
 そこで、GPSで取得するユーザの位置情報の地点から任意の地点へ誘導するナビ方式だけではなく、「案内中のルートが成す線分の方角」や、「GPSで取得するユーザの位置情報の地点と、次の案内ルートが成す線分の最近傍点との距離」、「曲がり角の角度」などを用いて誘導する。
 図9に、誘導システム1によるナビ方式のアルゴリズム具体例「案内中のルートにおける直進の誘導(1)」を示す。R1はユーザが今進んでいる道路を、P1はユーザが今実際にいる位置及び向きを、P2はGPSの誤差によりずれた位置を表している。Pは誘導地点である。携帯端末10から送信される「案内中のルートL1が誘導する線分の方角[θ]」と「GPSで取得したユーザの位置情報の地点P2と、次の案内ルートL2が成す線分の最近傍点との距離[α]」を入力する。θは、0°を北として時計回りに0°から359°などとしておく。
 誘導装置部20にとりつけた9軸センサなどにより、誘導装置部20が向いている方角が誘導装置部20単体で分かる。GPSの誤差に関わらず、正面となるようなθが分かり、それを利用して誘導を行う。例えばθが30°、デバイスの向き(ユーザの体の向き)が135°(南東)を向いていた場合、左に105°体を回転させるとθの方角が正面となることが分かる。誘導すべき体の回転角度と、距離αをもとに出力するファイルと本体部21の位置を決定する。正面となる誘導方向がわかった上で、ユーザがどのような行動をとるか選択の余地がある情報提示を行う。例えば、「進行方向は右です」と「次の案内ポイントは右側100m先にあります」とのどちらでも案内できるようになっている。
 出力部60の説明で述べた通りに出力する。
 図10に、誘導システム1による誘導方式のアルゴリズム具体例「案内中のルートにおける直進の誘導(2)」を示す。R1はユーザが今進んでいる道路を、R2はユーザが次に進む道路を、R3はユーザがその次に進もうとする道路を表している。P1はユーザが今実際にいる位置及び向きを、P2はGPSの誤差によりずれた位置を表している。Pは誘導地点である。携帯端末10から送信される「GPSで取得したユーザの位置情報の地点P2と、案内中のルートL1が成す線分の最近傍点との距離[β]」が、任意の半径rより大きくなった場合は、「GPSで取得したユーザの位置情報の地点P2と、案内中のルートL1が成す線分の最近傍点との距離[β]」と、「P2から見たL1の最近傍点の角度[γ]」を入力する。γは、0°を北として時計回りに0°から359°などとしておく。
 誘導装置部20にとりつけた9軸センサなどにより、誘導装置部20が向いている方角が誘導装置部20単体で分かる。GPSの誤差に関わらず、常にγの方角が正面となるように案内する。例えばγが120°、誘導装置部20の向き(ユーザの体の向き)が315°(北西)を向いていた場合、右Rに165°体を回転させるとγの方角が正面となることが分かる。誘導すべき体の回転角度と、距離βをもとに出力するファイルと本体部21の位置を決定する。
 出力部60の説明で述べた通りに出力する。
 図11に、誘導システム1ナビ方式のアルゴリズム具体例「曲がり角における誘導」を示す。「曲がり角における誘導」は、「案内中のルートにおける直進の誘導(1)」におけるαが任意の値以下になった時に発生する。R1はユーザが今進んでいる道路を、R2はユーザが次に進む道路を、R3はユーザがその次に進もうとする道路を表している。P1はユーザが今実際にいる位置及び向きを、P2はGPSによる位置を表している。kは曲がり角である。携帯端末10から送信される「案内中のルートL1が誘導する線分の方角[θ]」と、「GPSで取得したユーザの位置情報の地点P2と、案内中のルートL1が成す線分の最近傍点との距離[β]」を入力する。
 誘導装置部20にとりつけた9軸センサなどにより、誘導装置部20が向いている方角が誘導装置部20単体で分かる。GPSの誤差に関わらず、ユーザにとってθの方角が正面となるような位置関係を提示することができる。例えばθが330°、誘導装置部20の向き(ユーザの体の向き)が45°(北東)を向いていた場合、左Lに75°体を回転させるとθの方角が正面となることが分かる。(体がおおよそ正面を向いたら、曲がり角モードが終了する。)誘導すべき体の回転角度と、βをもとに出力するファイルと本体部21の位置を決定する。「曲がり角における誘導」は、体がおおよそ正面を向いた時、または、βが任意の値以上になった場合に終了する。βが任意の値以上になった場合は、案内中のルートにおける直進の誘導(2)に切り替わるか、携帯端末においてリルートを行う。
 出力部60の説明で述べた通りに出力する。
 図12に、誘導システム1によるナビ方式のアルゴリズム具体例「最終目的地のみを提示」を示す。P1はユーザが今実際にいる位置及び向きを、P2はGPSの誤差によりずれた位置を表している。Pは誘導地点である。携帯端末10から送信される「GPSで取得したユーザの位置情報の地点P2と、最終目的地との距離[b]」と、「P2から見た最終目的地の角度[a]」を入力する。aは、0°を北として時計回りに0°から359°などとしておく。ユーザは常に知らされる最終目的地の位置情報をもとに、自由に移動しながら最終目的地までたどりつく。例えば、R1,R2,R3,R4などである。
 誘導装置部20にとりつけた9軸センサなどにより、誘導装置部20が向いている方角が誘導装置部20単体で分かる。GPSの誤差に関わらず、誘導方向が分かるように案内する。例えばaが330°、誘導装置部20の向き(ユーザの体の向き)が45°(北東)を向いていた場合、左Lに75°体を回転させるとaの方角が正面となることが分かる。誘導すべき体の回転角度と、距離bをもとに出力するファイルと本体部21の位置を決定する。
 出力部60の説明で述べた通りに出力する。
[誘導方法および誘導プログラム]
 次に、図13及び図14を用いて、本実施形態における誘導方法と誘導プログラムをともに説明する。誘導方法は、誘導プログラムに基づいて、制御部50のCPU54により実行される。誘導プログラムは、制御部50に対して、受信機能、制御機能、出力機能、さらに、記憶機能の各機能を実行させる。これらの各機能は図示の順に実行される。なお、各機能は前述の誘導システム1の説明と重複するため、詳細は省略する。
 図13のフローチャートより、制御部50の処理は、受信ステップ(S11)、制御ステップ(S12)、出力ステップ(S13)を備える。また、図14のフローチャートより記憶ステップ(S21)、制御ステップ(S22)、出力ステップ(S23)を備える。むろん、制御部50自体の稼働に必要な各種ステップは当然に含まれる。
 受信機能は、本体部21が、携帯端末10から入力された誘導ポイントに関する情報、例えば、誘導ポイントへの方角、距離、曲がり角の角度、ゴールまでの誘導ポイントの数、案内中の誘導ポイントの数などを受信する(S10:受付ステップ)。
 制御機能は、本体部21が、受信ステップにおいて受信された情報に基づいて、ユーザが向いている正面に対して誘導ポイントがずれている角度を演算する(S12:制御ステップ)。
 出力機能は、本体部21が、制御ステップにおける演算結果に基づいてユーザが進むべき方向を示す誘導表現を第1のナビゲーション部、第2のナビゲーション部23及び第3のナビゲーション部24に出力する(S13:出力ステップ)。
 記憶機能は、携帯端末10が、誘導ポイントに関する情報、例えば、誘導ポイントへの方角、距離、曲がり角の角度、ゴールまでの誘導ポイントの数、案内中の誘導ポイントの数などを記憶する(S21:記憶ステップ)。
 制御機能は、携帯端末10が、記憶ステップにおいて記憶されている誘導ポイントに関する情報に基づいて、ユーザが向いている正面に対して誘導ポイントがずれている角度を演算する。(S22:制御ステップ)。
 出力機能は、携帯端末10が、制御ステップにおける演算結果に基づいてユーザが進むべき方向を示す誘導表現を第1のナビゲーション部、第2のナビゲーション部23及び第3のナビゲーション部24に出力する(S23:出力ステップ)。
 上述した本発明のコンピュータプログラムは、プロセッサが読み取り可能な記録媒体に記録されていてよく、記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。
 なお、上記コンピュータプログラムは、例えば、ActionScript、JavaScript(登録商標)などのスクリプト言語、Objective-C、Java(登録商標)などのオブジェクト指向プログラミング言語、HTML5などのマークアップ言語などを用いて実装できる。
 このような実施形態によれば、空間認知能力に苦手を感じる人(視空間認知障害など)が視覚によらずに聴覚又は触覚により目的地に迷わず行けるように誘導することができる。
 最後に、ユーザが前進、右折、左折、後退のとき、本体部21の第1ナビゲーション部,第2のナビゲーション部23,第3のナビゲーション部24から出力される「音」、「振動」、「骨伝導音」をまとめて示す出力の表現態様一覧の「表」を加える。以下の表は出力の表現態様のあくまで一例である。
Figure JPOXMLDOC01-appb-T000001
[他の実施形態]
 本実施形態では、携帯端末10を誘導装置部20と分離して誘導装置部20が演算等の処理をする実施形態と、携帯端末10を誘導装置部20に固定して携帯端末10が演算等の処理をする実施形態と、を説明したが、クラウドサービスを、携帯端末10を誘導装置部20と分離して誘導装置部20が演算等の処理をする実施形態であってもよい。
1 誘導システム
10 携帯端末
20 誘導装置部
21 本体部
22 アーム部
23 第2のナビゲーション部
24 第3のナビゲーション部
30 受信部
40 記憶部
50 制御部
60 出力部

Claims (14)

  1.  聴覚又は触覚によりユーザの誘導方向が分かる、ユーザに装着した第1乃至第3のナビゲーション部を備える誘導システムであって、
     前記ユーザを誘導すべき誘導ポイントに関する情報及び再生されるコンテンツの情報を受信する受信部と、
     前記誘導ポイント及び前記誘導ポイントに関する情報及び前記再生されるコンテンツの情報を記憶する記憶部と、
     前記誘導ポイントに関する情報に基づいて、前記ユーザが向いている正面に対して前記誘導ポイントがずれている角度を演算し、演算結果に基づいて再生するコンテンツを選択する制御部と、
     前記演算された角度に基づいて、前記ユーザが進むべき方向を示す誘導表現を、前記第1乃至第3のナビゲーション部を用いて、キャラクター表現により出力する出力部と、
    を有する
    ことを特徴とする、誘導システム。
  2.  携帯端末と、
     前記ユーザの首の後部から肩にかけて取り付けられ、前記携帯端末と遠隔で又は前記携帯端末を装着して通信する誘導装置部と、
    を備え、
     前記誘導装置部は、
     第1のナビゲーション部を有し、前記ユーザの首の後部に装着される本体部と、
     前記本体部から前記ユーザの左右の肩まで伸長するアーム部と、
     前記アーム部によって前記本体部と接続され、前記ユーザの左側の肩に接する第2のナビゲーション部と、
    前記アーム部によって前記本体部と接続され、前記ユーザの右側の肩に接する第3のナビゲーション部と、
    を有することを特徴とする、請求項1に記載の誘導システム。
  3.  前記第1のナビゲーション部、前記第2のナビゲーション部、及び前記第3のナビゲーション部は、前記本体部の制御に基づいて、音により前記ユーザが進むべき前記方向を示すことを特徴とする、請求項2に記載の誘導システム。
  4.  前記第1のナビゲーション部、前記第2のナビゲーション部、及び前記第3のナビゲーション部は、前記本体部の制御に基づいて、鎖骨骨伝導音により前記ユーザが進むべき前記方向を示すことを特徴とする、請求項2に記載の誘導システム。
  5.  前記第1のナビゲーション部、前記第2のナビゲーション部、及び前記第3のナビゲーション部は、前記本体部の制御に基づいて、触覚振動により前記ユーザが進むべき前記方向を示すことを特徴とする、請求項2に記載の誘導システム。
  6.  前記誘導表現は、進むこと、曲がること、及び止まることを含むことを特徴とする、請求項1に記載の誘導システム。
  7.  前記ユーザが進むべき前記方向の誘導が所定のキャラクターによるキャラクター表現により行われることを特徴とする請求項1に記載の誘導システム。
  8.  前記所定のキャラクターは、実在するキャラクター、又は架空のキャラクターを含む、請求項7に記載の誘導システム。
  9.  前記第1のナビゲーション部、前記第2のナビゲーション部、及び前記第3のナビゲーション部は、前記携帯端末から送信される第1の経路が誘導する線分の方角と、GPSで取得した前記ユーザの位置情報の地点と第2の経路とが成す線分の最近傍点との距離と、の入力に基づき、前記誘導装置部に取り付けられたセンサにより、誘導方向が分かるように前記ユーザを誘導することを特徴とする、請求項2に記載の誘導システム。
  10.  前記第1のナビゲーション部、前記第2のナビゲーション部、及び前記第3のナビゲーション部は、前記携帯端末から送信されるGPSで取得した前記ユーザの位置情報の地点と第1の経路とが成す線分の最近傍点との距離が任意の半径より大きい場合に、前記携帯端末から送信される前記GPSで取得した前記ユーザの位置情報の地点と前記第1の経路とが成す線分の最近傍点との距離と、前記地点から見た前記第1の経路の最近傍点の角度の入力に基づき、前記誘導装置部に取り付けられたセンサにより、誘導方向が分かるように前記ユーザを誘導する、ことを特徴とする、
    請求項2に記載の誘導システム。
  11.  前記第1のナビゲーション部、前記第2のナビゲーション部、及び前記第3のナビゲーション部は、前記携帯端末から送信される第1の経路が誘導する線分の方角と、GPSで取得した前記ユーザの位置情報の地点と、の入力に基づき、誘導方向が分かるように前記ユーザを誘導することを特徴とする、請求項2に記載の誘導システム。
  12.  前記第1のナビゲーション部、前記第2のナビゲーション部、及び前記第3のナビゲーション部は、前記携帯端末から送信されるGPSで取得した前記ユーザの位置情報の地点と最終目的地との距離と、前記地点から見た前記最終目的地の角度と、の入力に基づき、前記誘導装置部に取り付けられたセンサにより、誘導方向が分かるように前記ユーザを誘導する、ことを特徴とする、請求項2に記載の誘導システム。
  13.  聴覚又は触覚によりユーザの誘導方向が分かる、ユーザに装着した第1乃至第3のナビゲーション部を備える誘導方法であって、
     前記ユーザを誘導すべき誘導ポイントに関する情報及び再生されるコンテンツの情報を受信する受信ステップと、
     前記誘導ポイントに関する情報及び再生されるコンテンツの情報を記憶する記憶ステップと、
     前記誘導ポイントに関する情報に基づいて、前記ユーザが向いている正面に対して前記誘導ポイントがずれている角度を演算し、演算結果に基づいて再生するコンテンツを選択する制御ステップと、
     前記演算された角度に基づいて、前記ユーザが進むべき方向を示す誘導表現を、前記第1乃至第3のナビゲーション部を用いて、キャラクター表現により出力する出力ステップと、
    を有する方法。
  14.  聴覚又は触覚によりユーザの誘導方向が分かる、ユーザに装着した第1乃至第3のナビゲーション部を備える誘導プログラムであって、
     コンピュータに、
     前記ユーザを誘導すべき誘導ポイントに関する情報及び再生されるコンテンツの情報を受信する受信機能と、
     前記誘導ポイント及び前記誘導ポイントに関する情報及び再生されるコンテンツの情報を記憶する記憶機能と、
     前記誘導ポイントに関する情報に基づいて、前記ユーザが向いている正面に対して前記誘導ポイントがずれている角度を演算し、演算結果に基づいて再生するコンテンツを選択する制御機能と、
     前記演算された角度に基づいて、前記ユーザが進むべき方向を示す誘導表現を、前記第1乃至第3のナビゲーション部を用いて、キャラクター表現により出力する出力機能と、
    を実現させる、誘導プログラム。
PCT/JP2022/022140 2022-05-31 2022-05-31 誘導システム、誘導方法および誘導プログラム WO2023233526A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/022140 WO2023233526A1 (ja) 2022-05-31 2022-05-31 誘導システム、誘導方法および誘導プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/022140 WO2023233526A1 (ja) 2022-05-31 2022-05-31 誘導システム、誘導方法および誘導プログラム

Publications (1)

Publication Number Publication Date
WO2023233526A1 true WO2023233526A1 (ja) 2023-12-07

Family

ID=89025990

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/022140 WO2023233526A1 (ja) 2022-05-31 2022-05-31 誘導システム、誘導方法および誘導プログラム

Country Status (1)

Country Link
WO (1) WO2023233526A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004193932A (ja) * 2002-12-11 2004-07-08 Matsushita Electric Ind Co Ltd ロボットと、それを首周辺部に固定する機構を備えたネックコミュニケーション装置
WO2016199248A1 (ja) * 2015-06-10 2016-12-15 日立マクセル株式会社 情報提示システム及び情報提示方法
US20170372565A1 (en) * 2015-01-13 2017-12-28 Ck Materials Lab Co., Ltd. Haptic information provision device
WO2018186178A1 (ja) * 2017-04-04 2018-10-11 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
WO2021101372A1 (en) * 2019-11-18 2021-05-27 Elitac B.V. Navigation system and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004193932A (ja) * 2002-12-11 2004-07-08 Matsushita Electric Ind Co Ltd ロボットと、それを首周辺部に固定する機構を備えたネックコミュニケーション装置
US20170372565A1 (en) * 2015-01-13 2017-12-28 Ck Materials Lab Co., Ltd. Haptic information provision device
WO2016199248A1 (ja) * 2015-06-10 2016-12-15 日立マクセル株式会社 情報提示システム及び情報提示方法
WO2018186178A1 (ja) * 2017-04-04 2018-10-11 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
WO2021101372A1 (en) * 2019-11-18 2021-05-27 Elitac B.V. Navigation system and method

Similar Documents

Publication Publication Date Title
Seki et al. A training system of orientation and mobility for blind people using acoustic virtual reality
Heuten et al. Tactile wayfinder: a non-visual support system for wayfinding
US20170318407A1 (en) Systems and Methods for Generating Spatial Sound Information Relevant to Real-World Environments
US10663316B2 (en) Navigation device and method
EP3584539A1 (en) Acoustic navigation method
US11725958B2 (en) Route guidance and proximity awareness system
Bălan et al. Navigational 3D audio-based game-training towards rich auditory spatial representation of the environment
Strumillo et al. Different approaches to aiding blind persons in mobility and navigation in the “Naviton” and “Sound of Vision” projects
Zhou et al. A smart\" virtual eye\" mobile system for the visually impaired
Ross Implementing assistive technology on wearable computers
WO2023233526A1 (ja) 誘導システム、誘導方法および誘導プログラム
US10986458B2 (en) Information processing apparatus and information processing method
JP6500139B1 (ja) 視覚支援装置
JP4263921B2 (ja) 身体誘導装置
Anthierens et al. Sensory navigation guide for visually impaired sea kayakers
KR20160000897A (ko) Ble 기반의 손목형 안내기기를 이용한 시각장애인용 보행안내시스템
WO2020188626A1 (ja) 視覚支援装置
Hagethorn et al. Creating design guidelines for a navigational aid for mild demented pedestrians
Kalaivani et al. An Artificial Eye for Blind People
JP3239665U (ja) 視覚障害のあるユーザーを支援するためのシステム
WO2021101460A1 (en) Navigational assistance system with auditory augmented reality for visually impaired persons
Strumillo Electronic systems aiding spatial orientation and mobility of the visually impaired
Aizawa et al. Study on portable haptic guide device with omnidirectional driving gear
WO2015140586A1 (en) Method for operating an electric blind guiding device based on real-time image processing and the device for implementing the method
US20230209290A1 (en) Systems and methods for enhancing attitude awareness in ambiguous environments

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22944814

Country of ref document: EP

Kind code of ref document: A1