WO2005103622A1 - 音情報出力装置及び音情報出力方法 - Google Patents

音情報出力装置及び音情報出力方法 Download PDF

Info

Publication number
WO2005103622A1
WO2005103622A1 PCT/JP2005/007423 JP2005007423W WO2005103622A1 WO 2005103622 A1 WO2005103622 A1 WO 2005103622A1 JP 2005007423 W JP2005007423 W JP 2005007423W WO 2005103622 A1 WO2005103622 A1 WO 2005103622A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
sound
user
distance
unit
Prior art date
Application number
PCT/JP2005/007423
Other languages
English (en)
French (fr)
Inventor
Keiko Morii
Tomohiro Konuma
Yumi Wakita
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US11/568,219 priority Critical patent/US20090154712A1/en
Publication of WO2005103622A1 publication Critical patent/WO2005103622A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map

Definitions

  • the present invention relates to a sound information output device and a sound information output method for outputting information about an object to be guided as sound.
  • a guide voice controlled in accordance with target information is output from a plurality of speakers arranged separately in a vehicle cabin in response to a left turn or a right turn at a target intersection. This allows the user to hear the direction guidance sound of the destination with respect to the own vehicle position. Further, according to the related art, the sense of distance is recognized by the user by gradually increasing the volume of the guide voice as the vehicle approaches the target intersection (for example, Japanese Patent Application Laid-Open No. H11-30525). reference).
  • the distance is presented only by the volume for the user. Since the volume is not information that allows the user to grasp the absolute amount, the conventional technology has not always provided the user with an easy-to-understand distance.
  • the sound information output device of the present invention provides azimuth information to a guidance target based on route information to the position of the guidance target to be guided to the user and the movement direction calculated by the user's position information force. And a vertical position determining unit for determining the vertical position of the sound source based on the distance information determined by the direction and distance information determining unit, and a horizontal position in front of the user. And a three-dimensional sound output unit that outputs a sound signal so that the sound source is virtually located at the position where the vertical position is determined by the vertical position determination unit. With this configuration, the user can accurately grasp the distance to the guidance target from the sound information.
  • the horizontal position of the sound source is limited to the front of the user. Instead, it is determined by the horizontal position determining unit that determines the horizontal position of the sound source based on the azimuth information determined by the azimuth and distance information determining unit. With this configuration, the user can accurately grasp the azimuth and the distance to the guidance target from the sound information.
  • the horizontal position of the sound source is not limited to the front of the user, the direction is divided into two or more sections in advance, and the direction information determined by the direction and distance information determination unit is determined. Is replaced by a representative value of the section to which the azimuth information belongs, and is determined by a horizontal position determining unit that determines the horizontal position of the sound source based on the representative value.
  • the vertical position determining unit uses the distance information for determining the vertical angle
  • the distance zero force is distributed to a certain distance up to the vertical angle above the horizontal force, For distances beyond a certain distance, the vertical angle is set to be horizontal or near horizontal.
  • the distance information can be converted into a vertical angle, and the user can easily grasp the distance information.
  • the sound information output device of the present invention is characterized in that the fixed distance includes information on the moving speed of the user, information on the type of road on which the user is traveling, the shape of the road on which the user has traveled, and the user. It has a configuration to determine using at least one of the numerical values set in the above.
  • the sound information output device of the present invention determines an object to be guided based on the sound data input unit for inputting sound data, and the sound data input to the sound data input unit, And a guidance target object information extracting unit for extracting the route information of the object.
  • the sound information output device of the present invention includes a sound data input unit for inputting sound data, a transmitting unit for transmitting the sound data input to the sound data input unit to another device, and a sound data transmitting unit. And a receiving unit that receives the route information to the guidance target extracted by the other device based on the voice data transmitted by the device.
  • the sound information output device of the present invention has a configuration that includes a noise reduction unit that reduces the influence of a predetermined noise among the noises input together with the audio data input to the audio data input unit. are doing. With this configuration, even if the sound data includes noise, the guidance target object information can be acquired based on the input sound data with high accuracy.
  • the sound information output device of the present invention has a configuration in which the noise reduction unit performs a spatial subtraction using a predetermined acoustic model or a band control using an acoustic frequency band.
  • the noise reduction unit performs a spatial subtraction using a predetermined acoustic model or a band control using an acoustic frequency band.
  • the sound information output method provides a method for outputting a guidance target object based on route information to a position of a guidance target object to be guided to a user and a moving direction calculated from the position information of the user.
  • a step of determining azimuth and distance information to determine the azimuth and distance information in the step a step of determining a vertical position of the sound source based on the distance information determined in the step of determining azimuth and distance information, and a step of determining the horizontal position.
  • the user can intuitively grasp the distance to the guidance target based on the sound information.
  • the horizontal position of the sound source is not limited to the front of the user, and is further determined based on the azimuth information determined in the azimuth and distance information determining step. You. Thus, the user can intuitively grasp the azimuth and the distance to the guidance target from the sound information.
  • FIG. 1 is a functional block diagram showing a configuration of a navigation system according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram showing current position information recorded by a guide destination information receiving / accumulating unit of the navigation device according to the first embodiment of the present invention.
  • FIG. 3A is a diagram showing a conversion table owned by an azimuth and distance calculation unit of the navigation device according to Embodiment 1 of the present invention.
  • FIG. 3B is a diagram showing a conversion table owned by an azimuth and distance calculation unit of the navigation device according to Embodiment 1 of the present invention.
  • FIG. 4 is a flowchart showing an operation of the navigation device according to the first embodiment of the present invention.
  • FIG. 5 is a diagram showing a relationship between a traveling speed, a road type, and a fixed distance r possessed by an azimuth and distance calculation unit of the navigation device according to the first embodiment of the present invention.
  • FIG. 6 is a functional block diagram showing a configuration of a navigation system according to Embodiment 2 of the present invention.
  • FIG. 7 is a flowchart showing an operation of the navigation device according to Embodiment 2 of the present invention.
  • FIG. 1 is a block diagram showing a configuration of the navigation system according to the first embodiment of the present invention.
  • This navigation system includes a navigation device 110, a server 104, a microphone 102, and a headphone 101, which are sound information output devices that work on the present invention, and the server 104 provides guidance requested by the navigation device 110.
  • a route to the object is obtained, and route information indicating the route is notified to the navigation device 110.
  • the headphones 101 are headphones worn by the user 11 on the body, and can output two stereophonic sounds to the user 11.
  • the headphones 101 can virtually localize the sound source at an arbitrary position in the three-dimensional stereoscopic space by using these two systems of stereo sound!
  • the user drives a motorcycle, and headphones 101 are mounted under equipment for protecting the head such as a helmet.
  • the microphone 102 can be worn by the user 11 on the body, and can capture voice data emitted by the user 11.
  • the microphone 102 further has a noise canceling function, and it is possible to reduce ambient noise by performing level detection and filter processing as disclosed in Japanese Patent Application No. 2002-379544.
  • the microphone 102 corresponds to a voice data input unit according to the present invention.
  • navigation device 110 includes an audio processing unit 103 that processes audio data from microphone 102, a transmission unit 111 that transmits audio data from audio processing unit 103, and a route information from server 104.
  • Receiving unit 112 for receiving the route information
  • a guide destination information receiving and storing unit 106 for storing the received route information
  • a position information detecting unit 105 for detecting the current position of the navigation device 110, and storing in the guide destination information receiving and storing unit 106.
  • An azimuth and distance calculator 107 for calculating azimuth data and distance data based on the obtained route information and the current position information detected by the position information detector 105, and an azimuth data calculated by the azimuth and distance calculator 107.
  • a stereophonic sound generation unit 108 that generates stereophonic sound based on the distance data and outputs the stereophonic sound to the headphones 101.
  • the above azimuth and distance calculation unit 107 according to the present invention It corresponds to a position and distance information determination unit, a horizontal position determination unit, and a vertical position determination unit.
  • the stereophonic sound generation unit corresponds to the stereophonic sound output unit according to the present invention.
  • FIG. 4 is a flow chart showing the operation of the navigation device as the sound information output device according to the present invention.
  • Step S401 when the user 11 utters a voice “Take the destination to zoo A” t to the microphone 102, the voice data input from the microphone 102 is input to the voice processing unit 103.
  • the voice processing unit 103 converts the input voice data into a digital signal and extracts parameters used for voice recognition such as mel filter bank cepstrum coefficient (MFCC) and LPC cepstrum coefficient (LPC) t. .
  • MFCC mel filter bank cepstrum coefficient
  • LPC LPC cepstrum coefficient
  • the voice processing unit 103 transmits the obtained parameters to the server 104 via the transmission unit 111 (Step S403).
  • the server 104 performs voice recognition processing on the received parameters, develops information indicating that the destination is “A zoo”, and obtains position information of “A zoo” based on the map database of the server 104.
  • the position information detection unit 105 detects the current position information by GPS, for example, every minute, transmits the position information to the server 104 via the transmission unit 111, and also transmits the position information to the guidance destination information reception storage unit 106. Information is being output.
  • the server 104 can search for the optimal route from the position of the navigation device 110 used by the user 11 to the destination “A zoo”.
  • the route information created by the search result includes a plurality of branching intersections, information on the direction of each intersection, and the date and time when the route information was created. This is capacity information.
  • the server 104 transmits the obtained route information to the navigation device 110 via the communication line, and the guide destination information receiving / storing unit 106 stores the route information received via the receiving unit 112 (step S404). ).
  • the information storage medium (not shown) of the guide destination information receiving and storing unit 106 is, for example, a flash memory, an SRAM, an HDD, or the like. Due to the limited capacity of the body, when new route information is received, the route information stored in the past is, for example, 200 megabytes. delete.
  • the guide destination information reception / storage section 106 stores the user input from the position information detection section 105.
  • the location information of the navigation device 110 corresponding to the position of the user 11 is updated.
  • the location information of the navigation device 110 is stored in the guide destination information receiving and storing unit 106, for example, by 60, so that the movement history information of the user 11 can be stored. Is also held (step S404).
  • the guide destination information receiving / accumulating unit 106 sends the information on the next intersection to be guided out of the held travel history information and route information of the user 11 to the azimuth and distance calculation unit 107.
  • the information to be transmitted is, for example, a sequence shown in the history table of FIG.
  • the azimuth and distance calculation unit 107 receives the information of the intersection to be guided and the movement history information of the user 11, and then the azimuth and distance calculation unit 107 refers to the movement history of the user 11 and The user 11 determines the direction in which he or she heads. Simultaneously with the determination of “the direction of the current user 11! /, The direction”, the azimuth and distance calculation unit 107 sets the latest information of the movement history as the current position of the user 11, and determines the From the distance and the current position, “direction to the next intersection to be guided” is determined. Then, the azimuth and distance calculation unit 107
  • step S405 From ⁇ the direction to which user 11 is currently heading '' and ⁇ the direction from the current position of user 11 to the next intersection to be guided '', based on the direction in which user 11 is currently heading, Next, the relative direction to the intersection to be guided is calculated (step S405).
  • the azimuth and distance calculation unit 107 obtains the distance between the current position of the user 11 and the intersection to be guided next, and converts the relative direction into a horizontal angle. Then, the obtained sound source information including the elevation angle and the horizontal angle is passed to the stereophonic sound generation unit 108 (step S406).
  • This elevation angle is defined as 0 degrees when the user is in a horizontal position with the user standing upright, and the angle above it is defined as the elevation angle.
  • the horizontal angle is defined as the reference 0 degree when the user faces the front. In moving scenes, such as when driving a motorcycle, although the head may slightly tilt, the movement is almost as if looking ahead, so there is no significant fluctuation. Therefore, the user always wears the headphones 101 and sits in the seat And outputs the output assuming that the headphone 101 is located at a certain position.
  • the stereophonic sound generation unit 108 is based on the technology disclosed in, for example, Japanese Patent Application Laid-Open No. 9-182199, the Acoustical Society of Japan 2003 Fall Meeting 2-3-5-3, that is, a virtual sound source. After determining the position of the virtual sound source, the simulated spatial transfer characteristics to the left and right ears of the virtual sound source are convolved separately for the left and right channels, thereby creating output sound information in which the virtual sound image is localized outside the headphones. Then, the three-dimensional sound generator 108 converts the output sound information into an analog sound signal, and outputs the analog sound signal to the headphones 101 (step S407).
  • the center position of the head and the virtual sound source position are determined. It is known that when the distance is too short, the reproducibility of the assumed characteristic, which is the transfer characteristic when the position of the sound source is assumed, is better. According to the present embodiment, according to the information disclosed in The Acoustical Society of Japan 2003 Fall Meeting Papers 2-3-5, the distance to the virtual sound source is also set to 6 m for the head center position force.
  • is an angle and the unit is radian.
  • dist represents the distance from the current position to the guidance target, and r is a constant representing a fixed distance. If dist / r is greater than ⁇ ⁇ 2, then ⁇ ⁇ 2, and 0 takes only positive values.
  • the horizontal when the user is standing upright and facing the front is defined as 0 °, and the upper vertical is defined as ⁇ 2.
  • a fixed value of 5 km is used as the constant r in (Equation 1).
  • the user can obtain information on the distance to the next intersection from the elevation angle to the virtual sound source. In other words, if the distance is less than 0.2 km, the user can hear almost from the vertical direction, and understand that it is necessary to prepare for turning.If the distance is more than 5 km, the user can hear almost from the horizontal. Until the intersection of You can intuitively understand that the distance is far away!
  • Equation 2 has an advantage that it is easier to recognize the distance to a planned object located at a long distance of 5 km or more than (Equation 1).
  • the classification shown in FIG. 3A (six stages) or a coarser classification is performed. It is desirable to divide them. Alternatively, when moving on foot, it is necessary to set the value of the constant r in (Equation 1) and (Equation 2) to several tens to 100 m. When using a conversion table, it is desirable to specify the range in three steps as shown in Figure 3B. As described above, according to the present invention, the user can know the change in the distance from the current position to the guidance target as the change in the elevation angle of the planned voice to the virtual sound source. It is possible to intuitively grasp the distance to the vehicle.
  • the direction and distance calculation unit 107 generates the sound source information by converting the relative direction between the current position of the user 11 and the next guidance intersection to a horizontal angle. 1S This is not required. That is, the horizontal position is always fixed in front of or near the user 11, and the distance between the current position of the user 11 and the next intersection to be guided is converted into an elevation angle. Can be intuitively grasped.
  • the sound signal from the stereophonic sound generation unit 108 is output from the headphone 101 worn on the body of the user 11, but the sound is output to the user 11. If it can be used on bicycles or motorcycles, it may be provided on a head protection device such as a helmet.
  • multiple speakers are arranged so that a virtual sound source can be created at an arbitrary position in the three-dimensional space in the car, and the driver uses the head center position and orientation when facing directly to provide guidance. It is also possible to use the elevation angle to the object and the horizontal angle as output sound information.
  • microphone 102 is not limited to this, as long as it can take in the sound that user 11 wears on his / her body and the voice emitted by user 11. .
  • it when used on a bicycle or motorcycle, it may be provided with a device for protecting the head, such as a helmet, and may be mounted under the ear of the user 11 to use the vibration force of the bone.
  • the form which can take in the voice which person 11 utters may be sufficient.
  • headphones 101 and microphone 102 are not integrated, but any configuration is possible as long as sound information can be output to user 11 and voice uttered by user 11 can be captured.
  • a configuration in which the headphone 101 such as an earphone microphone or a headset and the microphone 102 are integrated may be employed.
  • the server 104 is installed in a location different from the navigation device 110 in terms of the accommodation size, and is connected to the power device 104 via a communication line. It is installed in the Yong device 110 and is connected via an electric circuit. May be used.
  • the part for extracting the route information to the guidance target corresponds to the guidance target information extraction unit according to the present invention.
  • a fixed value of 5 km is used as the constant r in (Equation 1) because it is set according to the moving speed of the user.
  • the distance r is 10km or 15km depending on the type of expressway or general road.
  • the route information notified from the server 104 needs to include road type information.
  • the distance r is set longer than when the traveling speed is not taken into account. It becomes possible to grasp the change in distance.
  • the shape of the road such as the undulations and curves of the road, to the determination of the distance!:.
  • the user may be allowed to set a fixed value of the distance by himself. However, at this time, it should be possible to set the range from several km to several tens km as described above.
  • the destination is set in navigation device 110 by voice information emitted by the user.
  • the destination data may be transmitted by communication using, so that the destination can be set in the navigation device 110!
  • the force used in the example of using the movement history of the user 11 is not limited to this.
  • a similar effect can be obtained by using the azimuth information obtained by adding the information obtained by the gyro sensor or the acceleration sensor to the position information obtained by the PS.
  • the method described in Japanese Patent Application Laid-Open No. 9 182199 is used in the three-dimensional sound generation unit 108.
  • a three-dimensional sound generation method capable of localizing a sound image at a specified position is used. If there is, it is not limited to this.
  • the present invention is not limited to this. The same effect can be obtained when driving the vehicle.
  • the case where the user proceeds to reach the destination! / Is shown, but in a facility such as an amusement park, a zoo, or a shopping mall, a child or the like is accompanied.
  • the owner may have a lost child tag that transmits location information, and the location information transmitted from the lost child tag of the accompanying person may be used as destination information to guide the positional relationship between the location of the accompanying person and the location of the user. The same applies.
  • the traveling speed of the user is relatively slow, such as walking or an electric cart, so when calculating the bearing by the bearing and distance calculator 107, the location of the accompanying person and the user The same applies even if the orientation is divided into two steps: the right and left directions are divided into two equal parts, and the right side has a diagonal direction of 45 degrees to the right and the left side has a diagonal direction of 45 degrees. The effect is obtained.
  • the player when the method is performed for walking on foot, unlike moving while riding a motorcycle, the player may move while listening to music by a music player.
  • the sound information output device disclosed in the present embodiment can output sound in stereo, it can of course also function as a portable music player.
  • the volume of the music being played back is reduced to half of the normal power value, and a guide sound is superimposed and output.
  • an alert sound or alert sound to draw attention is presented instead of the stereophonic sound, and then the guide sound is presented by the stereophonic sound.
  • FIG. 6 is a block diagram showing a configuration of the navigation system according to the second embodiment of the present invention.
  • a microphone 601 and a navigation device 610 are different from those of the first embodiment.
  • Microphone 601 in the present embodiment has only a function of capturing sound, and does not have a noise canceling function unlike microphone 102 of the first embodiment.
  • navigation apparatus 610 further includes input noise reduction section 602, acoustic model 603, and volume calculation section 604 as shown in the first embodiment.
  • the input noise reduction unit 602 subtracts a component that matches the previously determined acoustic model 603 by spectral subtraction to obtain a stationary noise such as a running sound of an automobile or the like. Is to suppress.
  • the sound volume calculation unit 604 calculates a sound volume according to the elevation angle ⁇ calculated by the surrounding and distance calculation unit 107.
  • Equation 3 is for calculating the volume, and ⁇ ( ⁇ ) is a function of the elevation angle ⁇ . Note that f (
  • is 1.5 when the elevation angle is ⁇ ⁇ 2, and 1 when ⁇ ⁇ 2 is not.
  • FIG. 7 is a flowchart showing the operation of the navigation device as the sound information output device according to the present invention.
  • the voice processing unit 103 converts voice data input from the microphone 601 by the user 11 into a digital signal, and extracts a parameter (LPC) used for voice recognition (steps S401 and S402). o
  • the voice processing unit 103 executes the noise reduction processing on the parameter (LPC).
  • LPC is transmitted to the server 104 as in the first embodiment (step S403).
  • the guide information receiving and storing unit 106 stores the route information from the server 104 and the current position information from the position information detecting unit 105 in the same manner as in the first embodiment (step S404).
  • the calculation unit 107 calculates azimuth data (elevation angle and horizontal angle) and distance data based on the data (steps S405 and S406).
  • the volume calculation unit 604 calculates volume information based on the elevation angle calculated by the azimuth and distance calculation unit 107 and notifies the volume information to the stereophonic sound generation unit 108, and the azimuth and distance calculation unit 107 also calculates The three-dimensional sound generator 108 is notified of the azimuth data and the distance data thus obtained (step S702).
  • the stereophonic sound generation unit 108 creates output sound information in which the virtual sound image is localized outside the headphones, as in the first embodiment. At this time, the stereophonic sound generator 108 Controls the volume of the output sound information based on the volume information from the volume calculator 604. Then, the audio signal is converted into an analog audio signal and output to the headphones 101 (step S703).
  • stereo subtraction using an acoustic model is performed as means for reducing stationary noise.
  • the present invention is not limited to this, and band limitation is performed on an input audio signal. It is also possible to reduce stationary noise by a filter.
  • noise mitigation means such as that described above is more useful because the user can more easily hear sound information.
  • this noise mitigation means it is possible to mitigate the effects of noise similar to the previously determined acoustic model, such as wind noise and road noise during traveling, among the noise superimposed on the output sound.
  • the present embodiment it is also effective to change the power sound quality whose volume is changed according to the elevation angle according to the elevation angle.
  • the normal guidance voice is set as a lower female voice, and only when the elevation angle to the virtual sound source corresponds to 90 degrees, the voice pitch is raised to make the female voice higher. This has the auxiliary effect of increasing the user's information awareness.
  • the user knows the change in the distance from the current position to the guide target as the change in the elevation angle of the guide voice to the virtual sound source, as the difference in the sound volume that can be overcome by force. Therefore, it is possible to more intuitively grasp the distance to the guidance target.
  • the present invention is useful for a sound information output method and a sound information output device for notifying a user of an azimuth and a distance to an object to be guided by sound information. Suitable for navigation devices and traffic information presentation devices used in mini-bikes.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Headphones And Earphones (AREA)
  • Stereophonic System (AREA)

Abstract

方位及び距離算出部(107)は、案内先情報受信蓄積部(106)から得た次に案内する交差点の情報と、使用者(11)の移動履歴情報とに基づいて交差点への相対的な方向と距離を算出する。そして、相対的な方向を水平角に変換し、その距離を仰角に変換して、立体音響生成部(108)に渡す。立体音生成部(108)が、ヘッドホンの外側に音像を定位した出力音情報を作成しヘッドホン(101)に出力することで、使用者は音情報により案内対象物までの距離を的確に把握できる。

Description

明 細 書
音情報出力装置及び音情報出力方法
技術分野
[0001] 本発明は、案内する対象物に関する情報を音で出力する音情報出力装置及び音 情報出力方法に関する。
背景技術
[0002] 従来、音情報出力装置および音情報出力方法としては、目的地の方向からガイド 音声が聞こえ、距離に応じて音量を制御するものがあった。
[0003] 従来技術によれば、目標交差点の左折又は右折に対応して、車室内に隔離して配 置された複数のスピーカーから、目標の情報に応じて制御されたガイド音声を出力 することにより、自車位置に対して目的地の方向力 ガイド音声が聞こえるようにして いる。また従来技術によれば、ガイド音声の音量を目標交差点への接近に伴って徐 々に大きくしていくことによって、距離感を使用者に認知させていた (例えば、特開平 11— 30525号公報参照)。
[0004] し力しながら、従来の構成では、使用者にとって距離は音量でのみ提示されて ヽた 。この音量は使用者が絶対的な量を把握できる情報ではないため、従来技術は使用 者に対して必ずしも距離を把握しやすい形で与えるものではな力つた。
発明の開示
[0005] 本発明の音情報出力装置は、使用者に案内する案内対象物の位置への経路情報 と使用者の位置情報力 算出される移動方向とに基づいて、案内対象物までの方位 情報及び距離情報を決定する方位及び距離情報決定部と、この方位及び距離情報 決定部で決定した距離情報に基づいて音源の垂直位置を決定する垂直位置決定 部と、水平位置が使用者の正面であって、垂直位置が垂直位置決定部によって決定 された位置に、音源が仮想的に位置するように音信号を出力する立体音響出力部と を含む構成を有している。この構成により、使用者は音情報により、案内対象物まで の距離を的確に把握することができる。
[0006] また、本発明の音情報出力装置は、音源の水平位置が使用者の正面に限定され ず、方位及び距離情報決定部で決定した方位情報に基づ!、て音源の水平位置を決 定する水平位置決定部によって決定される。この構成により、使用者は音情報により 、案内対象物までの方位ならびに距離を的確に把握することができる。
[0007] また、本発明の音情報出力装置は、音源の水平位置が使用者の正面に限定され ず、方位をあらかじめ 2つ以上の区間に分け、方位及び距離情報決定部で決定した 方位情報を、方位情報が所属する区間の代表値に換え、その代表値に基づいて音 源の水平位置を決定する水平位置決定部によって決定される。
[0008] また、本発明の音情報出力装置は、垂直位置決定部が、距離情報を垂直角度決 定に用いる場合に、距離ゼロ力 一定の距離までを水平力 上方の垂直角度に分布 させ、一定の距離以遠については垂直角度を水平若しくは水平の近傍とする構成を 有している。
[0009] この構成により、距離情報を垂直角度に変換することができ、使用者は容易に距離 情報を把握することができる。
[0010] また、本発明の音情報出力装置は、一定の距離は、使用者の移動速度、使用者が 走行して ヽる道路種の情報、使用者が走行してきた道路の形状及び使用者で設定 した数値の少なくとも 1つの情報を用 、て決定する構成を有して 、る。
[0011] この構成により、音情報出力装置の使用状況に応じて、距離情報を垂直角度に変 換することが可能となり、使用者は容易に距離情報を把握することができる。
[0012] また、本発明の音情報出力装置は、音声データを入力する音声データ入力部と、 音声データ入力部に入力された音声データに基づいて案内対象物を決定し、この 案内対象物への経路情報を抽出する案内対象物情報抽出部とを含む構成を有して いる。この構成により、手を使用できない様な環境においても案内対象物を決定し案 内対象物情報を抽出することができる。
[0013] また、本発明の音情報出力装置は、音声データを入力する音声データ入力部と、 音声データ入力部に入力された音声データを他の装置に送信する送信部と、音声 データ送信部が送信した音声データに基づいて他の装置が抽出した案内対象物へ の経路情報を受信する受信部とを含む構成を有している。この構成により、手を使用 できない様な環境においても他の装置で抽出した案内対象物情報を受信することが できる。
[0014] また、本発明の音情報出力装置は、音声データ入力部に入力される音声データと 共に入力される騒音のうち、あらかじめ定めた騒音の影響を低減する騒音低減部を 含む構成を有している。この構成により、騒音が含まれる音声データであっても精度 よく入力された音声データに基づいて案内対象物情報を取得することができる。
[0015] さらに、本発明の音情報出力装置は、騒音低減部が、あらかじめ定めた音響モデ ルによるスぺ外ル減算若しくは音響周波数帯による帯域制御を行う構成を有してい る。この構成により、風きり音や走行中のロードノイズといったあら力じめ定めた音響 モデル若しくは音響周波数帯による騒音を低減することができる。
[0016] 本発明にかかる音情報出力方法は、使用者に案内する案内対象物の位置への経 路情報と、使用者の位置情報から算出される移動方向とに基づいて、案内対象物ま での方位情報及び距離情報を決定する方位及び距離情報決定ステップと、方位及 び距離情報決定ステップで決定した距離情報に基づいて音源の垂直位置を決定す る垂直位置決定ステップと、水平位置が使用者の正面であって、垂直位置が垂直位 置決定ステップによって決定された位置に、音源が仮想的に位置するように音信号 を出力する立体音響出力ステップとを含んでいる。これにより、使用者は音情報によ り、案内対象物までの距離を直感的に把握することができる。
[0017] また、本発明にかかる音情報出力方法は、音源の水平位置が使用者の正面に限 定されず、前記方位及び距離情報決定ステップで決定した方位情報にさらに基づ ヽ て決定される。これにより、使用者は音情報により、案内対象物までの方位ならびに 距離を直感的に把握することができる。
図面の簡単な説明
[0018] [図 1]図 1は、本発明の実施の形態 1におけるナビゲーシヨンシステムの構成を示す 機能ブロック図である。
[図 2]図 2は、本発明の実施の形態 1におけるナビゲーシヨン装置の案内先情報受信 蓄積部が記録する現在位置情報を示す図である。
[図 3A]図 3Aは、本発明の実施の形態 1におけるナビゲーシヨン装置の方位及び距 離算出部が所有する変換テーブルを示す図である。 [図 3B]図 3Bは、本発明の実施の形態 1におけるナビゲーシヨン装置の方位及び距 離算出部が所有する変換テーブルを示す図である。
[図 4]図 4は、本発明の実施の形態 1におけるナビゲーシヨン装置の動作を示すフロ 一図である。
[図 5]図 5は、本発明の実施の形態 1におけるナビゲーシヨン装置の方位及び距離算 出部が所有する移動速度と道路種類と固定距離 rとの関係を示す図である。
[図 6]図 6は、本発明の実施の形態 2におけるナビゲーシヨンシステムの構成を示す 機能ブロック図である。
[図 7]図 7は、本発明の実施の形態 2におけるナビゲーシヨン装置の動作を示すフロ 一図である。
符号の説明
11 使用者
101 ヘッドホン
102, 601 マイクロフォン
103 音声処理部
104 サーノ
105 位置情報検出部
106 案内先情報受信蓄積部
107 方位及び距離算出部
108 立体音響生成部
110, 610 ナビゲーシヨン装置
111 送信部
112 受信部
602 入力騒音低減部
603 音響モデル
604 音量算出部
発明を実施するための最良の形態
以下、本発明の実施の形態について、図面を参照しながら説明する。 [0021] (実施の形態 1)
図 1は、本発明の実施の形態 1におけるナビゲーシヨンシステムの構成を示すプロ ック図である。このナビゲーシヨンシステムは、本発明に力かる音情報出力装置である ナビゲーシヨン装置 110と、サーバ 104と、マイクロフォン 102と、ヘッドホン 101とから 構成され、サーバ 104はナビゲーシヨン装置 110から要求された案内対象物までの 経路を求め、その経路を示した経路情報をナビゲーシヨン装置 110へ通知するもの である。
[0022] また、ヘッドホン 101は使用者 11が身体に装着しているヘッドホンであり、使用者 1 1に対して 2系統のステレオ音を出力することができる。ヘッドホン 101はこの 2系統の ステレオ音により 3次元立体空間の任意の位置に仮想的に音源を定位することが可 能になって!/、る。本実施の形態では使用者がオートバイを運転して 、ることを想定し ており、ヘッドホン 101は、ヘルメット等の頭部を保護する装備の下に装着されている
[0023] また、マイクロフォン 102は使用者 11が身体に装着して、使用者 11の発する音声 データを取り込むことができる。このマイクロフォン 102はさらにノイズキャンセル機能 を有し、特願 2002— 379544号公報に開示されているようなレベル検出とフィルタ処 理とにより周囲の雑音を低減することが可能になっている。このマイクロフォン 102は 本発明にかかる音声データ入力部に相当する。
[0024] 次に、ナビゲーシヨン装置 110の構成と動作について説明する。
[0025] 図 1において、ナビゲーシヨン装置 110は、マイクロフォン 102からの音声データを 処理する音声処理部 103と、音声処理部 103からの音声データを送信する送信部 1 11と、サーバ 104から経路情報を受信する受信部 112と、受信した経路情報を蓄積 する案内先情報受信蓄積部 106と、ナビゲーシヨン装置 110の現在位置を検出する 位置情報検出部 105と、案内先情報受信蓄積部 106に蓄積した経路情報と位置情 報検出部 105で検出した現在位置情報とに基づいて方位データ及び距離データを 算出する方位及び距離算出部 107と、方位及び距離算出部 107が算出した方位デ ータと距離データに基づいて立体音響を生成しヘッドホン 101に出力する立体音響 生成部 108とを備えている。上記の方位及び距離算出部 107が本発明にかかる方 位及び距離情報決定部と水平位置決定部と垂直位置決定部とに相当する。また、立 体音響生成部は本発明にかかる立体音響出力部に相当する。
[0026] 以上のように構成されたナビゲーシヨン装置 110の動作を、図面を用いて以下に説 明する。
[0027] 図 4は本発明にかかる音情報出力装置であるナビゲーシヨン装置の動作を示すフ ロー図である。
[0028] 図 4において、まず、使用者 11が、マイクロフォン 102に対して「行き先を A動物園 にする」 t 、う音声を発すると、マイクロフォン 102から入力された音声データが音声 処理部 103に入力される (ステップ S401)。音声処理部 103は、入力された音声デ ータをデジタル信号に変換し、メルフィルタバンクケプストラム係数(MFCC)や LPC ケプストラム係数 (LPC) t ヽつた音声認識に用いられるパラメータを抽出する処理を 行う。本実施の形態においては LPCを抽出している(ステップ S402)。
[0029] 次に、音声処理部 103は、送信部 111を介して、得られたパラメータをサーバ 104 に送信する (ステップ S403)。サーバ 104は受信したパラメータに音声認識処理を実 施し、目的地を「A動物園」とするという情報を展開し、サーバ 104が有する地図デー タベースを基に「A動物園」の位置情報を求める。
[0030] 一方、位置情報検出部 105は例えば 1分毎に現在いる位置情報を GPSにより検出 し、送信部 111を介してサーバ 104に送信するとともに、案内先情報受信蓄積部 10 6にも位置情報を出力している。これにより、サーバ 104は、使用者 11が使用してい るナビゲーシヨン装置 110の位置から目的地である「A動物園」への最適経路を探索 することができる。
[0031] この探索結果により作成される経路情報は、複数の分岐する交差点と各交差点を どの方向に進むかの情報、及び経路情報を作成した日時を含んだものであり、概ね 100メガバイト以内の容量の情報である。サーバ 104は、得られた経路情報を、通信 回線を介してナビゲーシヨン装置 110へ送信し、案内先情報受信蓄積部 106は受信 部 112を介して受信した、この経路情報を蓄積する (ステップ S404)。
[0032] 本実施の形態においては、案内先情報受信蓄積部 106の情報蓄積媒体 (図示せ ず)には例えばフラッシュメモリ、 SRAM, HDDなどであるが、これらの情報蓄積媒 体の容量には限りがあることから、新しく経路情報を受信したときに、過去に蓄積され た経路情報を例えば 200メガバイトと 、たように予め定めた空き容量ができるまで、古 いものから順に削除する。
[0033] また、案内先情報受信蓄積部 106は位置情報検出部 105から入力された、使用者
11が 、る位置に相当するナビゲーシヨン装置 110の位置情報を新し 、ものから、例 えば 60個、案内先情報受信蓄積部 106に常時保持することにより、使用者 11の移 動履歴情報をも保持して 、る (ステップ S404)。
[0034] そして、案内先情報受信蓄積部 106は、保持している使用者 11の移動履歴情報と 経路情報のうち、次に案内する交差点の情報を、方位及び距離算出部 107に対して
、例えば 1分毎に送信する。この送信する情報は、例えば図 2の履歴表に示す系列 である。
[0035] 次に、方位及び距離算出部 107は案内する交差点の情報と使用者 11の移動履歴 情報とを受け取つたのち、方位及び距離算出部 107は使用者 11の移動履歴を参照 して現在使用者 11が向力つて 、る方角を決定する。「現在使用者 11が向力つて!/、る 方角」の決定と同時に、方位及び距離算出部 107は移動履歴の最新情報を使用者 11の現在位置として設定し、次に案内する交差点との距離、及び現在位置とから「 次に案内する交差点までの方角」を決定する。そして、方位及び距離算出部 107は
、「使用者 11が現在向力つている方角」と、使用者 11が現在いる位置から「次に案内 する交差点までの方角」とから、使用者 11が現在向かっている方角を基準にして、次 に案内する交差点への相対的な方向を算出する (ステップ S405)。
[0036] 次に、方位及び距離算出部 107は得られ、使用者 11の現在位置と次に案内する 交差点との距離を仰角に変換するとともに、上記の相対的な方向を水平角に変換し 、その得られた仰角と水平角とからなる音源情報を、立体音響生成部 108に渡す (ス テツプ S406)。この仰角は、使用者が直立した姿勢での水平を基準 0度とし、そこか ら上方の角度を仰角と定義する。また、水平角は、使用者が正面を向いたときを基準 0度と定義する。オートバイ運転中などの移動する場面においては、多少の頭部の傾 きは起こりえるものの、概ね前方を見ながらの動作となるので、大幅な変動が起こるこ とはない。よって常に、使用者がヘッドホン 101を装着し、座席に座った姿勢で正面 を見て 、る位置にヘッドホン 101があると仮定して出力する。
[0037] 次に、立体音響生成部 108は、例えば、特開平 9— 182199号公報や、日本音響 学会 2003年秋期講演論文集 2— 5— 3などに開示されている技術、すなわち仮想音 源の位置を決めた後に、仮想音源カゝら左右それぞれの耳までの模擬的空間伝達特 性を左右チャンネル別個に畳み込むことによって、ヘッドホンの外側に仮想音像を定 位した出力音情報を作成する。そして、立体音響生成部 108はこの出力音情報をァ ナログ音声信号に変換した後、ヘッドホン 101に対して出力する (ステップ S407)。な お、立体音響生成の際の音源設定においては、例えば、 日本音響学会 2003年秋 期講演論文集 2— 5 - 3に開示されて ヽるように、頭部の中心位置と仮想音源位置と の距離が近づき過ぎな 、方が、音源の位置が想定して 、る位置であった場合の伝達 特性である想定特性の再現性が良 、ことが知られて 、る。本実施の形態にぉ 、ては 、 日本音響学会 2003年秋期講演論文集 2— 5— 3に開示されている情報に従い、頭 部の中心位置力も仮想音源までの距離を 6mに設定する。
[0038] なお、本実施の形態における、方位及び距離算出部 107が距離を仰角に変換する 式は、下記の(式 1)のように表すことができる。
[0039] [数 1]
Θ (式 1
2 r 、 ,
[0040] ただし、 Θは角度で単位はラジアンである。 distは現在位置から案内対象物までの 距離を表し、 rは固定の距離を表す定数である。 dist/r が π Ζ2より大きい場合に は、 π Ζ2とし、 0は正の値のみをとる。また、使用者が直立して正面を向いた状況 における水平を基準 0度とし、垂直上方を π Ζ2とする。
[0041] また、本実施の形態においては、(式 1)における定数 rとしては、 5kmという固定値 を用いる。このように固定値を用いることにより、使用者は仮想音源への仰角から、次 の交差点までの距離情報を得ることができる。すなわち、使用者は 0. 2km以下であ れば、ほぼ垂直方向から聞こえることになり、曲がる準備が必要であると理解できるし 、 5km以上離れているならば、ほぼ水平から聞こえることとなり、次の交差点まではま だ距離が離れて!/ヽると!/ヽうことが直感的に理解できる。
[0042] さらにまた、本実施の形態では、距離を仰角に変換する式として、(式 1)を用いた 力 下記の(式 2)のように、対数式を用いても同様の効果が得られる。
[0043] [数 2]
Θ = - - \η{α ~ + \) (式 2)
2 r
[0044] ただし、 θは角度で単位はラジアンであり、 aは距離に乗ずる定数であり、ここでは 2 とする。 distは現在位置力も案内対象物までの距離であり、 rは固定の距離をあらわ す定数である。 {ln (a' distZr+ l) }が π Ζ2より大きい場合には、 π Ζ2とし、 0は 正の値のみをとる。これにより、(式 2)は(式 1)に比べ、 5km以上の遠距離にある案 内対象物との距離を、認識しやすくなるという利点がある。
[0045] また、この距離を仰角に変換する処理は、(式 1)や (式 2) t 、つた数式に寄らず、 図 3Aに示したような換算テーブルを用いて換算しても同様の効果が得られる。
[0046] なお、人間の音源位置の知覚は、左右については、やや敏感であり、上下につい ては、それほど敏感ではないということが、「新版聴覚と音声」三浦種敏監修 (社)電 子情報通信学会(1980年)に開示されている。
[0047] したがって、(式 1)と(式 2)のどちらを選ぶかは大きな問題ではなぐ(式 1)や (式 2) における定数 rを使用者の移動速度に合わせて設定することが重要である。たとえば 、オートバイで移動している場合は、数 km力も数十 km程度の値を使うことが適して おり、数十 mの値を使用した場合ではごく近 、距離で仰角が 0度に飽和してしま 、、 仰角により案内対象物までの距離を直感的に認識することができなくなる。
[0048] また、図 3Aに示したような換算テーブルを設定する際にも、上記と同様に、移動速 度にあわせて、図 3Aに示した区分 (6段階)程度もしくはそれよりも粗い区分に分ける ことが望ましい。あるいは、徒歩で移動している場合は、(式 1)や (式 2)における定数 rの数値を数十 mから 100m程度に設定することが必要である。また、換算テーブル を活用する場合には、その範囲指定を図 3Bのように 3段階程度にすることが望ま ヽ [0049] 以上のように、本発明によれば、現在位置から案内対象物までの距離の変化を案 内音声の仮想音源への仰角の変化として使用者が知ることができるので、案内対象 物までの距離を直感的に把握することが可能になる。
[0050] なお、本実施の形態では、方位及び距離算出部 107が使用者 11の現在位置と次 に案内する交差点との相対的な方向を水平角に変換して音源情報を生成していた 1S これは必須ではない。すなわち、水平位置は常に使用者 11の正面あるいはその 近傍に固定し、使用者 11の現在位置と次に案内する交差点との距離を仰角に変換 するで、使用者 11が案内対象物までの距離を直感的に把握できるようにすることも 可能である。
[0051] また、本実施の形態では、立体音響生成部 108からの音信号を、使用者 11が身体 に装着しているヘッドホン 101で出力するとしたが、使用者 11に対して音を出力する ことができる形態であれば、自転車やオートバイで使用する場合にはへルメット等の 頭部を保護する器具に備えられていても良い。また、自動車内において 3次元空間 の任意の位置に仮想音源を創出できるように複数のスピーカーを配し、運転者が正 面正対時の頭部中心位置及び向きを基準にすることで、案内対象物への仰角と水 平角とを出力音情報として用いることも可能である。
[0052] また、本実施の形態では、マイクロフォン 102は使用者 11が身体に装着しているも のとした力 使用者 11の発する音声を取り込むことができる形態であればこれに限る ものではない。すなわち、自転車やオートバイで使用する場合には、ヘルメット等の 頭部を保護する器具に備えられて ヽても良 ヽし、使用者 11の耳の下に装着されて 、 て骨の振動力 使用者 11の発する音声を取り込むことができる形態であってもよい。
[0053] あるいは、本実施の形態では、ヘッドホン 101とマイクロフォン 102とは一体でなか つたが、使用者 11へ音情報を出力でき、かつ使用者 11が発する音声を取り込むこと ができる形態であれば、イヤホンマイクやヘッドセットといったヘッドホン 101とマイクロ フォン 102とが一体となった構成でも良い。
[0054] また、本実施の形態では、サーバ 104は収容サイズの関係力もナビゲーシヨン装置 110とは別の場所に設置され、通信回線を介してつながっている例を示した力 サー バ 104もナビゲーシヨン装置 110の中に装備されて 、て、電気回路を介してつながつ ている構成でも良い。この場合の案内対象物への経路情報を抽出する部分が本発 明にかかる案内対象物情報抽出部に相当する。
[0055] また、本実施の形態では、(式 1)における定数 rとしては、使用者の移動速度に合 わせて設定したことから 5kmという固定値を用いたが、現在走行中の道路の種類、例 えば、高速道路なのか一般道路なのかといった種類に応じて距離 rを 10km、 15km というように使い分けることも可能である。この際には、サーバ 104から通知される経 路情報には、道路の種類情報を含める必要がある。さらに、現在走行中の移動速度 を道路種類に加味して、図 5に示すように距離!:を決定することも可能である。これに より、高速道路のように走行速度の定常性が高い場合は、走行速度を加味しない場 合よりも距離 rを長く設定するので、一般道に比べ、より遠距離にある案内対象物との 距離変化を把握することが可能になる。また、道路の起伏やカーブなどの道路の形 状を距離!:の決定に加味することも可能である。また、距離の固定値を使用者が自分 で設定できるようにしても良い。ただしその際に、上記のように数 kmから数十 km程度 の範囲で設定できるようにすべきである。
[0056] また、本実施の形態では、使用者が発した音声情報によってナビゲーシヨン装置 1 10に目的地を設定したが、これに限らず携帯電話などの端末力 のテキスト情報を、 赤外線ポートなどを用いた通信によって目的地データを送信するで、ナビゲーシヨン 装置 110に目的地を設定できるようにしてもよ!ヽ。
[0057] また、本実施の形態では、方位及び距離算出部 107で方位を算出する際に、使用 者 11の移動履歴を用いる例を示した力 本発明はこれに限定されるものではなぐ G PSで得られる位置の情報にジャイロセンサや加速度センサ等で得られる情報を加味 して得られる方位情報を用いることで同様の効果を得られる。
[0058] また、本実施の形態では、立体音生成部 108では、特開平 9 182199号公報に 示されている方法を用いることとしたが、指定した位置に音像定位ができる立体音響 生成方法であればこれに限定されるものではない。
[0059] また、本実施の形態では、使用者がバイクを運転して 、る場合の例を挙げたが、こ れに限定されるものではなぐ徒歩や自転車を運転している場合、あるいは自動車を 運転して ヽる場合でも同様の効果が得られる。 [0060] また、本実施の形態では、使用者が目的地に到達するために進んで!/、る場合を示 したが、遊園地や動物園やショッピングモールといった施設の中において、子供など の同伴者に位置情報を発信する迷子札を持たせ、同伴者の迷子札から発信される 位置情報を目的地情報として、同伴者の居場所と使用者の居場所との位置関係を 案内するといつた例でも同様に適用できる。この場合には使用者の移動手段が徒歩 や電動カート等、移動速度が比較的ゆっくりであると考えられるので、方位及び距離 算出部 107で方位を算出する際に、同伴者の居場所と使用者の居場所との位置関 係を左右 2等分して右側ならば右斜め前方 45度の方位とし、左側ならば左斜め前方 45度とする等、方位を段階的に区切って取り扱っても同様の効果が得られる。
[0061] また、徒歩での移動に対して実施する場合には、オートバイ運転中とは異なり、音 楽プレーヤーによって音楽を聞きながら移動することも考えられる。本実施の形態で 開示している音情報出力装置は、ステレオで音を出力することが可能であるから、携 帯型音楽再生機の機能を兼ねることももちろん可能である。この場合には、音情報を 出力する際には再生中の音楽の音量をパワー値で通常の半分まで下げ、案内音を 重畳して出力する。案内音は、まず、注意を引くための報知音もしくは報知音声を立 体音響ではなく提示し、その後で案内音を立体音響で提示する。
[0062] (実施の形態 2)
図 6は、本発明の実施の形態 2におけるナビゲーシヨンシステムの構成を示すプロ ック図である。このナビゲーシヨンシステムは、マイクロフォン 601とナビゲーシヨン装 置 610が実施の形態 1のものと異なる。
[0063] 本実施の形態におけるマイクロフォン 601は、単に音を取り込む機能を有するのみ で、実施の形態 1のマイクロフォン 102のように、ノイズキャンセル機能を有していない
[0064] また、本実施の形態におけるナビゲーシヨン装置 610は、実施の形態 1に示したも のにさらに、入力騒音低減部 602と音響モデル 603と音量算出部 604とを有している
[0065] この入力騒音低減部 602は、あら力じめ定めた音響モデル 603と合致した成分をス ぺクトラルサブトラクシヨンで減算することにより自動車等の走行音のような定常雑音 を抑制するものである。
[0066] また、音量算出部 604は包囲及び距離算出部 107により算出した仰角 Θに応じた 音量を算出するものである。
[0067] (式 3)はこの音量算出のためのものであり、 ί( θ )は仰角 Θの関数である。なお、 f (
Θ )は仰角 Θ力 π Ζ2のとき 1. 5であり、 π Ζ2でないときは 1とする。
[0068] [数 3]
Vol(0) = f(O) x Volorg (式 3)
[0069] 以上のように構成された、ナビゲーシヨン装置 610の動作を、図面を用いて以下に 説明する。
[0070] 図 7は本発明にかかる音情報出力装置であるナビゲーシヨン装置の動作を示すフ ロー図である。
[0071] 図 7においてまず、音声処理部 103が使用者 11によりマイクロフォン 601から入力 された音声データをデジタル信号に変換し、音声認識に用いられるパラメータ (LPC )を抽出する(ステップ S401、 S402) o
[0072] 次に、入力騒音低減部 602が音響モデル 603を用いてパラメータ (LPC)の雑音低 減処理を行った後 (ステップ S701)、音声処理部 103が雑音低減処理されたパラメ ータ (LPC)を実施の形態 1と同様にサーバ 104へ送信する (ステップ S403)。
[0073] その後、案内先情報受信蓄積部 106が実施の形態 1と同様に、サーバ 104からの 経路情報と位置情報検出部 105からの現在位置情報とを蓄積し (ステップ S404)、 方位及び距離算出部 107がそれらに基づいて方位データ (仰角と水平角)及び距離 データを算出する(ステップ S405、 S406)。
[0074] 次に、音量算出部 604が方位及び距離算出部 107の算出した仰角を基に音量情 報を算出し、立体音響生成部 108に通知すると共に、方位及び距離算出部 107も算 出した方位データと距離データとを立体音響生成部 108に通知する (ステップ S702
) o
[0075] 立体音響生成部 108はこれらを受けて、実施の形態 1と同様に、ヘッドホンの外側 に仮想音像を定位した出力音情報を作成する。またこのとき、立体音響生成部 108 はこの出力音情報の音量を音量算出部 604からの音量情報に基づいて制御する。 そして、ヘッドホン 101へアナログ音声信号に変換して出力する (ステップ S703)。
[0076] なお、本実施の形態では、定常雑音の低減手段として音響モデルを用いたスぺタト ラルサブトラクシヨンを行う例を示したが、これに限らず、入力音声信号に帯域制限を 行うフィルタにより定常雑音を低減することも可能である。
[0077] また、本実施の形態では、音情報出力装置の出力音に対して特別な騒音緩和手 段を持たな 、場合を示したが、あらかじめ定めた音響モデルと合致した成分を減算 することなどによる騒音緩和手段を備えている例であれば、使用者にとって音情報が より聴取しやすくなるためさらに有用である。この騒音緩和手段により、出力音に重畳 する騒音のうち、風きり音や走行中のロードノイズといったあら力じめ定めた音響モデ ルと類似した騒音の影響を緩和することができる。
[0078] さらにまた、本実施の形態においては、仰角に応じて音量を変化させた力 音質を 仰角に応じて変化することも有効である。すなわち、通常の案内音声を低めの女性 の声としておき、仮想音源への仰角が 90度に該当する場合のみ、音声のピッチを上 げて高めの女性の声とする。これは、使用者が情報認知度を上げるのに補助的な効 果をもたらす。
[0079] 以上のように、本発明によれば、使用者は現在位置から案内対象物までの距離の 変化を案内音声の仮想音源への仰角の変化としてば力りでなぐ音量の差として知る ことができるので、案内対象物までの距離をより一層直感的に把握することが可能に なる。
産業上の利用可能性
[0080] 本発明は使用者に案内対象物までの方位ならびに距離を音情報により通知する音 情報出力方法および音情報出力装置に有用であり、目線を前方力 放すと危険な、 自転車やオートバイやミニバイク等にお 、て使用するナビゲーシヨン装置等や交通 情報提示装置等に適する。

Claims

請求の範囲
[1] 使用者に案内する案内対象物の位置への経路情報と前記使用者の位置情報から 算出される移動方向とに基づいて、前記案内対象物までの方位情報及び距離情報 を決定する方位及び距離情報決定部と、
前記方位及び距離情報決定部で決定した距離情報に基づいて音源の垂直位置を 決定する垂直位置決定部と、
水平位置が使用者の正面であって、垂直位置が前記垂直位置決定部によって決定 された位置に、前記音源が仮想的に位置するように音信号を出力する立体音響出力 部と
を含む音情報出力装置。
[2] 前記音源の水平位置が使用者の正面に限定されず、前記方位及び距離情報決定 部で決定した方位情報に基づいて音源の水平位置を決定する水平位置決定部によ つて決定される請求項 1に記載の音情報出力装置。
[3] 前記音源の水平位置が使用者の正面に限定されず、方位をあらかじめ 2つ以上の区 間に分け、前記方位及び距離情報決定部で決定した方位情報を、前記方位情報が 所属する区間の代表値に換え、前記代表値に基づいて音源の水平位置を決定する 水平位置決定部によって決定される請求項 1に記載の音情報出力装置。
[4] 前記垂直位置決定部は、前記距離情報を垂直角度の決定に用いる場合に、距離ゼ ロカ 一定の距離までを上方力 水平の垂直角度に分布させ、前記一定の距離以 遠については垂直角度を水平若しくは水平の近傍とする請求項 2に記載の音情報 出力装置。
[5] 前記一定の距離は、使用者の移動速度、使用者が走行して!/、る道路種類の情報、 使用者が走行してきた道路の形状及び使用者で設定した数値の少なくとも 1つの情 報を用いて決定する請求項 4に記載の音情報出力装置。
[6] 音声データを入力する音声データ入力部と、
前記音声データ入力部に入力された音声データに基づいて前記案内対象物を決定 し、当該案内対象物への経路情報を抽出する案内対象物情報抽出部と
を含む請求項 1ないし 5のいずれかに記載の音情報出力装置。
[7] 音声データを入力する音声データ入力部と、
前記音声データ入力部に入力された音声データを他の装置に送信する送信部と、 前記送信部が送信した音声データに基づいて前記他の装置が抽出した案内対象物 への経路情報を受信する受信部と
を含む請求項 1ないし 5のいずれかに記載の音情報出力装置。
[8] 前記音声データ入力部に入力される音声データと共に入力される騒音のうち、あらか じめ定めた騒音の影響を低減する入力騒音低減部を含む請求項 6に記載の音情報 出力装置。
[9] 前記音声データ入力部に入力される音声データと共に入力される騒音のうち、あらか じめ定めた騒音の影響を低減する入力騒音低減部を含む請求項 7に記載の音情報 出力装置。
[10] 前記入力騒音低減部は、あら力じめ定めた音響モデルによるスペクトル減算若しくは 音響周波数帯による帯域制御を行う請求項 8記載の音情報出力装置。
[11] 前記入力騒音低減部は、あら力じめ定めた音響モデルによるスペクトル減算若しくは 音響周波数帯による帯域制御を行う請求項 9記載の音情報出力装置。
[12] 使用者に案内する案内対象物の位置への経路情報と、前記使用者の位置情報から 算出される移動方向とに基づいて、前記案内対象物までの方位情報及び距離情報 を決定する方位及び距離情報決定ステップと、
前記方位及び距離情報決定ステップで決定した距離情報に基づいて音源の垂直位 置を決定する垂直位置決定ステップと、
水平位置が使用者の正面であって、垂直位置が前記垂直位置決定ステップによつ て決定された位置に、前記音源が仮想的に位置するように音信号を出力する立体音 響出力ステップと
を含む音情報出力方法。
[13] 前記音源の水平位置が使用者の正面に限定されず、前記方位及び距離情報決定 ステップで決定した方位情報に基づいて決定される請求項 12に記載の音情報出力 方法。
PCT/JP2005/007423 2004-04-21 2005-04-19 音情報出力装置及び音情報出力方法 WO2005103622A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/568,219 US20090154712A1 (en) 2004-04-21 2005-04-19 Apparatus and method of outputting sound information

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004125235 2004-04-21
JP2004-125235 2004-04-21
JP2005-113239 2005-04-11
JP2005113239A JP2005333621A (ja) 2004-04-21 2005-04-11 音情報出力装置及び音情報出力方法

Publications (1)

Publication Number Publication Date
WO2005103622A1 true WO2005103622A1 (ja) 2005-11-03

Family

ID=35197080

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/007423 WO2005103622A1 (ja) 2004-04-21 2005-04-19 音情報出力装置及び音情報出力方法

Country Status (3)

Country Link
US (1) US20090154712A1 (ja)
JP (1) JP2005333621A (ja)
WO (1) WO2005103622A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2182511A1 (en) * 2008-09-03 2010-05-05 Honda Motor Co., Ltd Variable text-to-speech for automotive application
CN101298988B (zh) * 2007-05-01 2012-01-11 索尼株式会社 信息处理系统、便携信息终端、信息提供设备及控制方法
CN103561367A (zh) * 2012-04-24 2014-02-05 宝利通公司 通过麦克风阵列对不期望噪音进行自动麦克风静音
CN112005560A (zh) * 2018-04-10 2020-11-27 高迪奥实验室公司 使用元数据处理音频信号的方法和设备

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5181200B2 (ja) * 2006-07-25 2013-04-10 幹 安間 視覚障害者向けナビシステム及びその作動方法
JP4837512B2 (ja) * 2006-09-29 2011-12-14 独立行政法人科学技術振興機構 音源選択装置
EP1926345A3 (en) * 2006-11-22 2011-09-14 Panasonic Corporation Stereophonic sound control apparatus and stereophonic sound control method
JP2008151766A (ja) * 2006-11-22 2008-07-03 Matsushita Electric Ind Co Ltd 立体音響制御装置及び立体音響制御方法
US20080130908A1 (en) * 2006-12-05 2008-06-05 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Selective audio/sound aspects
DE102008050688B4 (de) 2008-10-07 2024-09-12 Sennheiser Electronic Se & Co. Kg Kommunikationssystem
JP4703788B2 (ja) * 2009-07-02 2011-06-15 パナソニック株式会社 車両位置検出装置及び車両位置検出方法
JP5954520B2 (ja) * 2011-06-27 2016-07-20 三菱自動車工業株式会社 車両接近通報装置
JP2017138277A (ja) * 2016-02-05 2017-08-10 ヤマハ株式会社 音声ナビゲーションシステム
JP6988321B2 (ja) * 2017-09-27 2022-01-05 株式会社Jvcケンウッド 信号処理装置、信号処理方法、及びプログラム
US20190170533A1 (en) * 2017-12-01 2019-06-06 EmbodyVR, Inc. Navigation by spatial placement of sound
JP7398488B2 (ja) * 2022-02-25 2023-12-14 本田技研工業株式会社 情報処理装置、情報処理方法、プログラム、及びシステム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0783674A (ja) * 1993-09-17 1995-03-28 Aqueous Res:Kk 案内装置
JPH10258689A (ja) * 1997-03-18 1998-09-29 Sanyo Electric Co Ltd 車両用音声認識装置
JPH10275296A (ja) * 1997-02-03 1998-10-13 Nof Corp ナビゲーション方法およびシステム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9726338D0 (en) * 1997-12-13 1998-02-11 Central Research Lab Ltd A method of processing an audio signal
US6526113B1 (en) * 1999-08-11 2003-02-25 Broadcom Corporation GM cell based control loops
US6738479B1 (en) * 2000-11-13 2004-05-18 Creative Technology Ltd. Method of audio signal processing for a loudspeaker located close to an ear
JP2003337035A (ja) * 2002-05-20 2003-11-28 Nissan Motor Co Ltd 車載経路誘導装置および経路誘導方法
JP4138561B2 (ja) * 2003-04-09 2008-08-27 パイオニア株式会社 ナビゲーション装置、ナビゲーション方法、および、経路データ生成プログラム
US7366607B2 (en) * 2003-11-28 2008-04-29 Fujitsu Ten Limited Navigation apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0783674A (ja) * 1993-09-17 1995-03-28 Aqueous Res:Kk 案内装置
JPH10275296A (ja) * 1997-02-03 1998-10-13 Nof Corp ナビゲーション方法およびシステム
JPH10258689A (ja) * 1997-03-18 1998-09-29 Sanyo Electric Co Ltd 車両用音声認識装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101298988B (zh) * 2007-05-01 2012-01-11 索尼株式会社 信息处理系统、便携信息终端、信息提供设备及控制方法
EP2182511A1 (en) * 2008-09-03 2010-05-05 Honda Motor Co., Ltd Variable text-to-speech for automotive application
CN103561367A (zh) * 2012-04-24 2014-02-05 宝利通公司 通过麦克风阵列对不期望噪音进行自动麦克风静音
CN103561367B (zh) * 2012-04-24 2016-08-24 宝利通公司 通过麦克风阵列对不期望噪音进行自动麦克风静音的系统和方法
CN112005560A (zh) * 2018-04-10 2020-11-27 高迪奥实验室公司 使用元数据处理音频信号的方法和设备
CN112005560B (zh) * 2018-04-10 2021-12-31 高迪奥实验室公司 使用元数据处理音频信号的方法和设备

Also Published As

Publication number Publication date
JP2005333621A (ja) 2005-12-02
US20090154712A1 (en) 2009-06-18

Similar Documents

Publication Publication Date Title
WO2005103622A1 (ja) 音情報出力装置及び音情報出力方法
JP5821307B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11017758B2 (en) Information processing apparatus, information processing method, and program
JP2016186786A (ja) 画像及びオーディオデータに基づいた危険の検出及び警告用のウェアラブルスマート装置
US10636405B1 (en) Automatic active noise reduction (ANR) control
KR20150003528A (ko) 머리 움직임을 이용한 사용자 인터페이스 방법 및 장치
CN105015412A (zh) 车辆提醒声产生装置及方法、终端装置、服务器装置
JP2013198065A (ja) 音声提示装置
JP2007035043A (ja) 受信装置、送信装置、位置認知システム及び位置認知方法
WO2006075606A1 (ja) 音案内装置、音案内方法および音案内プログラム
JP2015057686A (ja) 注意喚起装置
JP7040513B2 (ja) 情報処理装置、情報処理方法及び記録媒体
US10667073B1 (en) Audio navigation to a point of interest
JP4817804B2 (ja) 方向呈示装置
JP5954520B2 (ja) 車両接近通報装置
CN1946985A (zh) 音频信息输出装置及音频信息输出方法
KR101487474B1 (ko) 자동차의 가상 음향 발생 장치 및 이를 이용한 자동차의 가상 음향 발생 방법
JP5807451B2 (ja) 音声処理装置、音声処理方法、プログラムおよび誘導案内システム
US20220021998A1 (en) Method for generating sound and devices for performing same
US20210335335A1 (en) System and method for creating and outputting music
JP7484290B2 (ja) 移動体位置推定装置および移動体位置推定方法
FR3038101A1 (fr) Procede de guidage d'un individu et systeme de navigation
KR20200054083A (ko) 사운드 생성 방법 및 이를 수행하는 장치들
KR20160136916A (ko) 차량 제어 장치 및 그 방법
US20230036986A1 (en) Processing of audio signals from multiple microphones

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 200580011726.4

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 11568219

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

122 Ep: pct application non-entry in european phase