WO1999060338A1 - Dispositif de traitement de donnees et systeme de navigation pour pietons utilisant ce dispositif - Google Patents

Dispositif de traitement de donnees et systeme de navigation pour pietons utilisant ce dispositif Download PDF

Info

Publication number
WO1999060338A1
WO1999060338A1 PCT/JP1998/002151 JP9802151W WO9960338A1 WO 1999060338 A1 WO1999060338 A1 WO 1999060338A1 JP 9802151 W JP9802151 W JP 9802151W WO 9960338 A1 WO9960338 A1 WO 9960338A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
unit
pedestrian
route
conversion
Prior art date
Application number
PCT/JP1998/002151
Other languages
English (en)
French (fr)
Inventor
Hiroshi Shojima
Tomo Yashiki
Original Assignee
Hitachi, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi, Ltd. filed Critical Hitachi, Ltd.
Priority to US09/463,782 priority Critical patent/US6259990B1/en
Priority to CN98814044.6A priority patent/CN1292867A/zh
Priority to PCT/JP1998/002151 priority patent/WO1999060338A1/ja
Priority to EP98919615A priority patent/EP1081462A4/en
Priority to KR10-2000-7001875A priority patent/KR100373666B1/ko
Publication of WO1999060338A1 publication Critical patent/WO1999060338A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S367/00Communications, electrical: acoustic wave systems and devices
    • Y10S367/91Portable sonar devices

Definitions

  • the present invention relates to the field of information support technology for a moving pedestrian, and more particularly to a pedestrian navigation system for navigating a pedestrian by transmitting a position and information related to the position.
  • the attributes of the source information are the same as the attributes sent from the source (if the attributes of the source information are images, the attributes of the destination information are also images)
  • the source is text
  • the destination is text, and if it is a figure, it is played back as a figure, and if it is a voice, it is played back as a voice). It is difficult to exchange information sufficiently in the state Met. In such a system, the communication of information to users with disabilities, such as the visually impaired and the hearing impaired, cannot be said to be sufficient.
  • the media information of the transmission source is translated (converted) into an appropriate media according to the state of action of the system user. It is possible to provide appropriate information to the usage status of the person. For visually impaired persons, for example, if the attribute of the information from the source is not only audio but also other attributes, it is more appropriate to translate (convert) the media information received at the destination. Information can be provided. If these media translation functions are implemented in real time at the source or destination, they can be realized by a function that dispatches various real-time media recognition functions and various real-time media synthesis functions according to the usage status.
  • FIG. 1 is a system configuration diagram of the present invention.
  • FIG. 2 is a system configuration diagram of a fixed route calculation device with a communication function.
  • FIG. 3 is a system configuration diagram of a portable route guidance device with a communication function and a position / orientation detection function.
  • Fig. 4 shows a facility management system with a communication function.
  • Fig. 5 is an example of conventional route guidance.
  • FIG. 6 is an example of route guidance according to the present invention.
  • Figure 7 is an example of a facility map.
  • Fig. 8 is an example of installation of facility markers.
  • Fig. 9 is a side view of an example of installation of facilities.
  • FIG. 10 is a plan view of an example of installation of facility facilities.
  • FIG. 11 is an external view of a fixed route calculation device with a communication function.
  • Fig. 12 shows an example where media cannot be transmitted.
  • Figure 13 is an example of conversion by media translation.
  • Fig. 14 is a basic operation diagram of media translation.
  • FIG. 15 is a configuration diagram of an information processing apparatus according to the present invention.
  • Figure 16 shows a road map and a facility map.
  • FIG. 17 is an example of a route.
  • Fig. 18 is a flow chart of the Dijkstra method.
  • -Fig. 19 shows an example of changing the portable route guidance device for both cars and pedestrians.
  • FIG. 20 is a flow diagram of the path sentence analysis.
  • FIG. 21 is a flowchart of extracting word candidates.
  • FIG. 22 is a keyword matching flow chart.
  • FIG. 23 is a diagram showing a flow chart of generating a graphical word string.
  • Fig. 24 is a diagram showing route guidance sentences, keywords, analysis results of route sentences, and examples of figures.
  • FIG. 25 is a flowchart of the graphic processing.
  • FIG. 26 is a diagram showing a graphic drawing example.
  • FIG. 27 is a diagram showing a graphic drawing example.
  • FIG. 28 is a diagram showing a graphic drawing example.
  • FIG. 29 is a diagram showing a graphic drawing example.
  • FIG. 30 is a diagram showing a figure drawing example.
  • Fig. 31 shows a media conversion table for sensor output.
  • FIG. 32 is a diagram showing a configuration example of an optical sensor.
  • FIG. 33 is a diagram showing a configuration example of an acceleration sensor.
  • FIG. 34 is a diagram showing a configuration example of a volume sensor.
  • FIG. 35 is a diagram showing a flow of a user action recognition processing section.
  • FIG. 36 is a diagram showing a flow of a media translation control processing section. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 shows an example of the system configuration of the present invention.
  • This system has a fixed route calculation information providing device 1 with communication function (hereafter, information providing device 1) and a communication function ⁇
  • a portable route guidance device 2 with position and orientation detection function hereafter, a route guidance device
  • a fixed facility marker device 3 (hereinafter, a marker device)-consists of ( a general outline of operation is that a user (pedestrian) carries the route guidance device 2 and, for example, reports the current position and destination via the route guidance device 2.
  • the information providing device 1 calculates an appropriate route using a necessary database (a map or the like) and returns the route information to the route guiding device 2.
  • the destination information is provided according to the guidance provided by the route guidance device 2 Move to.
  • detailed route guidance can be provided by receiving information from the masturbation device 3 installed near the facility, such as a building entrance lillo and an elevator, with the route guidance device 2.
  • FIG. 2 shows an example of a system configuration diagram of the information providing apparatus 1 according to the present invention.
  • the information providing device 1 includes a pedestrian database (for example, a pedestrian digital road map 15, a facility map 16 including the structure and store information inside the building, a traffic route such as public transport and schedule information 17). , Construction that hinders walking and moving
  • Route calculation unit that finds an appropriate route according to traffic regulation information 18, accidents and traffic obstacle information 19, etc.) and requests from users (current location and destination, etc.).
  • Information selection section that selects necessary information in response to a request for facility guidance information
  • User information is separated into route-related requests and information-related requests, and information obtained by the route calculation unit 11 and the information selection unit 12 is integrated to generate the necessary guidance information. It has a generation unit 13 and a communication unit 14 that communicates with the route guidance device 2 carried by the user.
  • FIG. 3 shows an example of a system configuration of the route guidance device 2 according to the present invention.
  • the route guidance device 2 is driven by a battery, and the information provision device 1 and the marker device
  • Communication unit for communicating with 3, communication data storage unit for recording and storing communication information
  • the information navigation unit 203 that generates guidance information for pedestrians using the facility marker orientation and the like obtained from the beam receiver 210 connected to the light source installed on the side of the route guidance device 2 Walking behavior by walking sensor 206 using sensor 205 or acceleration sensor Information from the user based on the output of the user action recognition unit 207 and the user action recognition unit 207 that recognizes (handhold of the route guidance device 2 ⁇ identification in the bag, pedestrian walking, running, stop, etc.)
  • a media translation unit 204 that converts the access media into a form that can be received by the information navigation unit 203, or converts guide information obtained from the information navigation unit 203 into a media that can be received by the user. It includes the input / output devices connected to it (display 2 13, speaker 2 14, vibrator 2 15, microphone 2 16, tablet 217, keyboard 2 18).
  • FIG. 11 is a diagram showing an appearance of the route guidance device 2.
  • the route guide device 2 includes a flat display 21 3 on which a touch panel is superimposed, a GPS antenna 209, a beam receiver 210, a communication antenna 201, a speaker 214, and a microphone 211.
  • the GPS antenna 209 and the communication antenna 201 interfere with each other depending on the frequency of the radio wave used, and the operation may be unstable.Therefore, install them at a distance from each other as shown in the figure, or It is better to standardize and separate signals internally.
  • FIG. 4 is a diagram showing a system configuration example of the marker device 3 according to the present invention.
  • the marker device 3 is connected to one or more sets of angle information superimposing units 34, 35, 36 and each angle information superimposing unit 34 connected to an information generating unit 37 for storing and outputting facility information.
  • a communication unit 38 may be provided for connection with an external information control device.
  • each beam transmitter uses light, for example, the radiation range is limited by a lens system.
  • the angle for example, a value obtained by expanding the map clockwise by 360 degrees with the north of the map direction being 0 degrees may be used.
  • Marker device 3 is used for building relo It is installed at the point where route guidance is provided, such as steps, elevators, and reception. As shown in FIG. 8, the marker device 3 is installed, for example, as a beam transmitter in three directions above the reception.
  • Fig. 9 shows a side view
  • Fig. 10 shows a top view.
  • a lens system is used, and in the case of radio waves, a predetermined beam is obtained in the form of an antenna.
  • a position and orientation transmitter such as a marker device 3 installed at each point in the facility is required.
  • Fig. 16 shows an example of a database based on a road map (a) and a facility map (b).
  • the facility map (b) contains the position of each marker in the facility, beam radiation direction, link information (adjacent Machiru ID), and the like.
  • the goal is set to a transit point m on the road in order to separate the route into the facility route.
  • the point ID of the adjacent road is acquired from the link information on the facility map.
  • Route calculation First, the route on the road (start point, C1, C3, C4, m) is obtained, and then the route within the facility (m, mh, mf1, me, mf3, mf3r2) Ask for.
  • Figure 18 shows the Dijkstra method, which is a typical algorithm for calculating the route.
  • This algorithm uses the start point as the initial value, finds the minimum evaluation value to the adjacent point (node) up to the goal point, for example, the distance, and finally calculates the minimum evaluation value from the start point to the goal point. Get the route.
  • the calculation time can be reduced by searching only the facility map of the floor at the goal point. .
  • FIG. 17 shows an example of the route calculation result in this example.
  • the route information includes the name of the waypoint, the position of the waypoint, the approach angle to the waypoint, and the departure angle from the waypoint.
  • pedestrians turn left and right and look back, and the direction of the two angles changes drastically, so that the correct direction of travel can be obtained with these information.
  • the user having the route guidance device 2 will be guided from the start point to the goal point. Outdoors, the current position and heading are obtained by GPS, and the route information is compared with the route information to guide the user to the destination. However, since GPS cannot be used inside the facility ( ⁇ museum), continued guidance is continued by beam reception. Is done. By beam reception, the bearing can be obtained from the angle information, and the current position can be obtained by beam intensity measurement.
  • Guidance methods using GPS and beams can be applied, for example, to a system for guiding a car from an urban area to an underground parking lot. It is also applicable to a system that moves containers from a container yard to a predetermined position in a ship in port logistics.
  • the information conversion function will be described with reference to FIGS. 12 to 15.
  • Recent information services are multi-media, and often express certain information using multiple media such as text, graphics, images, and audio.
  • visual information cannot be fully utilized during work (eg, walking) because visual information leads to accidents.
  • voice information can be annoying to others. The same can be said for visual information for the visually impaired and audio information for the hearing impaired.
  • the information attribute that the pedestrian can send and receive is changed.
  • the conversion is a media translation function.
  • the basic operation is, as shown in FIG. 14, a text conversion of a predetermined medium A by a recognition technique, and this is reproduced into a final medium by a synthesis technique.
  • the apparatus configuration is as shown in FIG. That is, a media conversion table is added to the configuration shown in FIG. 14 to specify which media is to be converted into the input media.
  • the basic configuration consists of a multimedia information receiving unit 151, which inputs information such as multimedia, and a media translation module 152, which converts the information received by the multimedia information receiving unit 151 (or an information converting unit). ) And a multimedia information output unit 153 that outputs the information converted by the media conversion module 152.
  • the media conversion module includes a usage state detector 154 that detects the usage state of the user of the device, detection results of the usage state detector 154, and detection of the usage state detector 154 in advance.
  • the use condition judging unit 155 for judging the use condition of the user based on the media conversion table 1557 in which the setting is made, and the multimedia information receiving unit 15 according to the judgment result by the use condition judging unit 155 And an information converter 156 for converting the information received in step 1.
  • the use state detecting unit may be, specifically, an optical sensor, an acceleration sensor, a sound volume measuring sensor for measuring a sound volume picked up by a sound collecting microphone, a temperature sensor, or the like.
  • the method for setting the media conversion table 157 is to grasp the action state by sensors (205, 206), which are one of the use state detectors 154 shown in FIG. Or by explicit setting of pedestrians (users) (menu, etc.).
  • the measurement result of the optical sensor unit is low (dark place), it is determined that the camera is in a bag or the like, and the information is audibly output from earphones etc. ), And if it is stopped by vibration analysis of an acceleration sensor or the like, it is determined that the user is holding the route guidance device 2 and automatic change according to the information presentation situation such as using the image information as it is is performed. Will be possible. Also, if the ambient environmental sound level from a microphone is measured and voice information stating that "C-3 is not accessible due to construction work" in a noisy environment, the information is written by voice recognition.
  • FIG. 19 shows an example of carrying a pedestrian route guide and a car route guide together.
  • FIG. 2 shows a partially modified view of the belt-type route guidance device.
  • the user action recognition unit determines whether the user is walking or driving, and sends the result to the communication unit.
  • a method of generating a route map from a route guidance sentence will be described with reference to FIGS. 20 to 30.
  • the route guidance sentence is converted into a word string for graphic representation by the four steps in FIG.
  • words are extracted from the guidance text. At that time, for example, by focusing on a character string with the same character type, words can be easily extracted.
  • each word candidate is compared with a key (key in Fig. 24) to find the same one, and the attributes of the key (location, direction, route, distance, etc.) ) Is added to word candidates.
  • the above-mentioned figured word string is made into a figure by a procedure as shown in FIG.
  • the first starting point is set in the waypoint buffer (processing 25-2).
  • This waypoint is set near the center of the map screen (processing 25-3).
  • This state In this state, the map drawing initial screen shown in Fig. 26 is set in the display memory.
  • processing 25-4 to processing 25-15 are repeated until the waypoint becomes the end point.
  • station A is extracted from the above-mentioned graphic word string as a starting point (processing 25-4), and is written in the above-mentioned display memory as a predetermined symbol or figure as shown in FIG. 27 (processing 2 5— 5).
  • the direction (north), route (Odori), and distance (300 m) are extracted, and if the route line can be displayed on the screen at the initially set scale (processing 25-9), a predetermined value is set from the starting point.
  • FIG. 28 is obtained on the display memory. Take out the next stop
  • a route diagram can be generated from the route guidance sentence.
  • Route guidance sentences can be obtained from Kana-Kanji conversion by keyboard, voice recognition, handwritten character recognition, and offline image recognition.
  • the obtained route guidance sentence can be converted into a voice by voice synthesis, a graphic by the above processing, and the like.
  • the state determination processing by the behavior sensor can provide a classification table as shown in FIG. 31 by using, for example, light amount information from an optical sensor, movement information from an acceleration sensor, and volume information from a microphone.
  • the information medium to be exchanged at the time of each state determination is defined as an information medium, and the memory area accessible by the user action recognition processing unit 206 is defined. Store in the area.
  • FIG. 32 to FIG. 3 schematically show a configuration example of each sensor portion.
  • Fig. 32 shows an example of the configuration of the optical sensor unit.
  • the output voltage is converted from analog to digital (AD conversion in the figure) using an optical transistor, etc., and stored in a buffer. Read from 06 as needed.
  • the output of the optical sensor generally increases when the user is looking at the display, and it is determined that the state is “bright”.
  • the output of the optical sensor is low in a state of being put in a bag or the like, and it is determined that the state is “dark”.
  • FIG. 33 shows an example of the configuration of a three-axis acceleration sensor unit.
  • the output of each sensor is stored in a buffer after AD conversion, and the contents of the buffer selected by the selector are used as necessary. 206 reads.
  • Fig. 34 shows an example of the configuration of a microphone sensor.
  • the microphone output which is generally AC, is converted to DC by a rectifier circuit, and the value is A / D converted and stored in a buffer.
  • the user behavior recognition processing unit 206 reads out the contents of the buffer selected by the selector as necessary similarly to the above sensors.
  • FIG. 35 shows a processing flow of the user action recognition processing unit 206.
  • the output of each sensor is taken out (processing 206-6-1 to processing 206-3), the classification table is accessed and a corresponding state is selected (processing 206-6-4), and the corresponding information media is converted.
  • the mode is extracted and created in the media translation control processing section 204.
  • FIG. 36 shows a processing flow of the media translation control processing section 204.
  • the information to be transmitted / received is extracted (process 2044-1), and it is determined whether or not the conversion mode corresponding to the extracted information is other than no conversion (process 2044-2). If conversion is necessary, the conversion is performed.
  • Perform recognition processing on the destination media processing 2 0 4 One 3). For example, when converting voice information into character information, the voice information is converted into a character string using voice recognition processing. In addition, character recognition, image recognition, etc. are used as needed.
  • synthesis processing is performed for output (processing 204-4-4). In the above example, the process of expanding the character string into the font line corresponds to this. In addition, speech synthesis, graphic drawing, etc. are used as needed.
  • the effect of the present invention can teach a detailed route guidance service to a facility when a pedestrian wants to reach a destination.
  • Another advantage is that when information is exchanged during walking, working, or during a meeting, the information exchange method can be changed according to the situation, so that necessary information can be obtained at a sufficiently high density.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

明 細 書
情報処理装置及び情報処理装置を使用
した歩行者用ナビゲーションシステム 技術分野
本発明は、 移動中の歩行者への情報支援技術分野に係り、 特に位置及 び位置に関連した情報の伝達によリ歩行者をナビゲ一 卜する歩行者用ナ ピゲーシヨンシステムに関する。 背景技術
従来における歩行者に対する情報伝達システムとして、 携帯電話ゃ携 帯コンピュータ、 又はこれらを接続してなる携帯情報通信システム、 さ らにはカーナビゲ一ションシステムを取り外し可能として歩行者あるい はバイク等での経路案内システムがある。 情報はマルチメディァ化され ており、 このようなシステムを用いることによって、 「いつでも」 「ど こでも」 必要なマルチメディァ情報を得ることが可能な世界が実現され つつある。
ただし、 基本的には移動先で 「停止」 した状態で、 所定の操作を行い、 情報授受を行うことが前提であり、 移動中あるいは作業中の情報授受に ついては行うことができない。 すなわち、 発信元の情報の属性 (画像, テキス ト, 図形, 音声等) は、 発信元から送られてくる属性そのままの 形 (発信元の情報の属性が画像なら受信先の情報の属性も画像、 同じく 発信元がテキス トなら受信先はテキス 卜、 同様に図形なら図形、 音声な ら音声等) で再生されるため、 このようなシステム使用者が移動しなが ら、 あるいは作業しながらの状態では十分に情報授受を行うことは困難 であった。 このようなシステムでは、 視覚障害者や聴覚障害者等障害を もった利用者に対する情報伝達も十分とはいえない状況である。
また、 発信元から送信される情報による経路案内は、 車のナビゲーシ ョンシステムに使用している情報を利用しているため、 歩行者がこのよ うなシステムを使用するときには、 歩行者が必要とする緻密な案内、 例 えば建物内の案内には対応することができなかった。 発明の開示
そこで、 本発明では送信元のメディア情報を、 システム利用者の行動 状態により適当なメディアに翻訳 (変換) することで、 例えば歩行移動 中には各種メディァの情報を音声化することにより、 より利用者の利用 状態に適当な情報を提供することができるというものである。 また、 例 えば視覚障害者には、 送信元からの情報の属性が音声の場合だけでなく、 他の属性の場合でも、 受信先で受信したメディア情報を翻訳 (変換) す ることでより適当な情報を提供することができる。 これらのメディア翻 訳機能は、 送信元あるいは受信先でリアルタイムに実施すれば、 各種実 時間メディァ認識機能と各種実時間メディァ合成機能を利用状態に応じ てディスパッチする機能により可能である。
また、 緻密な経路案内を実現するために、 町角や建物内に電子コー ド 化された方位情報と少なく ともその場所の属性情報 (施設名, - 入り口, 受け付け, エレベータ等) を発信する情報発信機を設置し、 これを利用 者の持つ情報通信端末で受信し、 同端末で電界強度等から距離を計算し, 同端末に蓄積された経路情報とマッチングすることで屋外だけでなく建 物内の経路案内も可能にする。 図面の簡単な説明
第 1 図は、 本発明のシステム構成図である。
第 2図は、 通信機能付き固定型経路計算装置のシステム構成図である。 第 3図は、 通信機能 · 位置方位検出機能付き携帯型経路案内装置のシ ステム構成図である。
第 4図は、 通信機能付き施設マ一力装置である。
第 5図は、 従来の経路案内例である。
第 6図は、 本発明による経路案内例である。
第 7図は、 施設地図例である。
第 8図は、 施設マーカの取り付け例である。
第 9図は、 施設マ一力の取り付け例の側面図である。
第 1 0図は、 施設マ一力の取り付け例の平面図である。
第 1 1 図は、 通信機能付き固定型経路計算装置の外観図である。
第 1 2図は、 メディアの伝達不可例である。
第 1 3図は、 メディア翻訳による変換例である。
第 1 4図は、 メディア翻訳基本動作図である。
第 1 5図は、 本発明による情報処理装置の構成図である。
第 1 6図は、 道路地図及び施設地図である。
第 1 7図は、 経路例図である。
第 1 8図は、 ダイクス トラ法フロー図である。 - 第 1 9図は、 車 · 歩行者兼用携帯型経路案内装置変更例である。
第 2 0図は、 経路文解析フロー図である。
第 2 1 図は、 単語候補切り出しフロー図である。
第 2 2図は、 キーワー ドマッチングフロー図である。
第 2 3図は、 図形化単語列生成フロ一図である。 第 2 4図は、 経路案内文, キ一ワー ド, 経路文解析結果、 図形化例を 示す図である。
第 2 5図は、 図形化処理フロ一図である。
第 2 6図は、 図形描画例を示す図である。
第 2 7図は、 図形描画例を示す図である。
第 2 8図は、 図形描画例を示す図である。
第 2 9図は、 図形描画例を示す図である。
第 3 0図は、 図形描画例を示す図である。
第 3 1 図は、 センサ出力対応メディア変換テーブルである。
第 3 2図は、 光センサ構成例を示す図である。
第 3 3図は、 加速度センサ構成例を示す図である。
第 3 4図は、 音量センサ構成例を示す図である。
第 3 5図は、 ュ一ザ行動認識処理部フローを示す図である。
第 3 6図は、 メディァ翻訳制御処理部フローを示す図である。 発明を実施するための最良の形態
第 1 図に本発明のシステム構成例を示す。 本システムは、 通信機能付 き固定型経路計算情報提供装置 1 (以下、 情報提供装置 1 ) と通信機能 ♦ 位置方位検出機能付き携帯型経路案内装置 2 (以下、 経路案内装置) 及び通信機能付き固定施設マーカ装置 3 (以下、 マーカ装置) - からなる ( 動作の概要としては、 利用者 (歩行者) は、 経路案内装置 2 を携帯し、 例えば現在位置と目的地を経路案内装置 2 を通じて情報提供装置 1 に送 信すると、 情報提供装置 1 は必要なデータべ一ス (地図等) を用いて適 切な経路を算出し、 その経路情報を経路案内装置 2に返送する。 歩行者 は、 送られてきた経路情報を経路案内装置 2による案内に従って目的地 へ移動する。 その際、 ビルの入リロやエレベータ等、 施設付近に設置さ れたマ一力装置 3からの情報を経路案内装置 2で受信することで詳細な 経路案内を行うことができる。
第 2図に、 本発明による情報提供装置 1のシステム構成図の一例を示 す。 情報提供装置 1 は、 歩行者用のデータベース (例えば、 歩行者用デ ジタル道路地図 1 5, 建物内の構造や店舗情報を含む施設地図 1 6 , 公 共交通等の交通路線及びダイヤ情報 1 7, 歩行移動に支障を来たす工事
• 交通規制情報 1 8, 事故 · 交通障害情報 1 9等) と利用者からのリク ェス ト (現在位置と目的地等) に応じて適切な経路を求める経路計算部
1 1, 施設案内情報の要求に応じて必要な情報を選択する情報選択部
1 2 , 利用者のリクエス 卜を経路関係リクエストと情報関係リクエス ト に分離し、 経路計算部 1 1や情報選択部 1 2により得られた情報を統合 して必要な案内情報を生成する案内情報生成部 1 3、 及び利用者が携帯 する経路案内装置 2 と通信する通信部 1 4 を備えている。
第 3図に本発明における経路案内装置 2のシステム構成の一例を示す。 経路案内装置 2は、 バッテリで駆動され、 情報提供装置 1, マーカ装置
3 と交信する通信部 2 0 1, 通信情報を記録保存する通信データ記憶部
2 0 2 , 情報提供装置 1への通信情報の生成や情報提供装置 1から得た 経路情報等を現在位置 · 進行方位計測部 2 1 1 (方位は方位センサ部
2 0 8, 現在位置は G P S受信部 2 0 9に接続されている) から得る現 在位置情報や発信源方位 · 距離計測部 2 1 2 (上記装置 3から施設 I D とビーム発射方位情報を受信するビーム受信機 2 1 0に接続されている) から得た施設マーカ方位等を用いて歩行者向けの案内情報を生成する情 報ナビゲーション部 2 0 3 , 経路案内装置 2の側面に設置した光センサ 2 0 5や加速度センサ等を用いた歩行センサ 2 0 6によつて歩行行動 (経路案内装置 2の手持ち · バッグ内識別、 歩行者の歩き · 走り · 停止 等) を認識するユーザ行動認識部 2 0 7, ユーザ行動認識部 2 0 7の出 力に基づき利用者からの情報アクセスメディァを情報ナビゲ一ション部 2 0 3が受取り可能な形に変換し、 あるいは情報ナビゲ一シヨン部 203 から得た案内情報を利用者が受取り可能なメディァに変換するメディァ 翻訳部 2 0 4、 これに接続される入出力装置群 (ディスプレイ 2 1 3, スピーカ 2 1 4, ノ イブレータ 2 1 5, マイク 2 1 6, タブレッ ト 2 17, キーボー ド 2 1 8 ) を含む。
第 1 1 図は、 経路案内装置 2の外観を示す図である。 経路案内装置 2 は、 タツチパネルを重畳した平面ディスプレイ 2 1 3 と G P Sアンテナ 2 0 9 , ビ一ム受信機 2 1 0, 通信アンテナ 2 0 1 , スピーカ 2 1 4, マイク 2 1 6 を含む。 G P Sアンテナ 2 0 9 と通信アンテナ 2 0 1 は、 使用する電波の周波数によっては互いに干渉し、 動作が不安定になるこ とがあるので、 図のように距離を離して設置するか、 アンテナを共通化 し、 内部で信号分離するのが良い。
第 4図は、 本発明によるマーカ装置 3のシステム構成例を示す図であ る。 マーカ装置 3は、 施設情報を格納し、 出力する情報発生部 3 7に接 続された 1組以上の角度情報重畳部 3 4, 3 5, 3 6及び各角度情報重 畳部 3 4 と接続されたビーム発信機 3 1, 3 2, 3 3からなる。 情報発 生部 3 7の施設情報等の変更を容易にするため、 外部の情報制御装置と の接続用に通信部 3 8 を有してもよい。 ここで、 各ビ一ム発信機は例え ば光を用いるとレンズ系で放射範囲を制限する。 角度は例えば地図方位 の北を 0度として時計周りに 3 6 0度展開したものを用いるとよい。 ビ ームに角度情報を載せることにより、 経路案内装置 2で次にどの方向へ 案内すべきかを容易に判定できる。 マーカ装置 3は、 ビルの入リロ, 階 段, エレベータ, 受け付け等経路案内のポイントとなるところに設置さ れる。 マーカ装置 3は、 第 8図に示すように、 例えば受け付けの上部に 3方向へのビーム発信機として設置される。 横から見た図を第 9図に、 上から見た図を第 1 0図に示す。 光の場合レンズ系、 電波の場合アンテ ナ形状等で所定のビームを得るようにする。
第 5図から第 7図及び第 1 6図, 第 1 7図, 第 1 8図を用いて、 第 5 図、 6のスター 卜地点からゴール地点 (〇〇美術館 3階第 2展示室) へ の経路計算手順を説明する。 これまで経路案内は主に車を対象にしてる ため、 このような地点設定の場合、 経路の対象は車道であり、 実際のシ ステムでは、 第 5図のようにゴール地点に近い車道までを経路案内して いる。 また、 歩行者が使用するナビゲ一シヨンシステムを対象とする場 合は、 第 6図に示すように目的地の建物の中まで案内する必要があり、 そのためには第 7図のような施設地図を持つことが必要である。 また、 施設内は G P Sに代表される屋外用の位置検出装置が使えないため、 施 設内の各地点に設置されたマーカ装置 3のような位置方位発信機が必要 となる。 第 1 6図に道路地図 ( a ) と施設地図 ( b ) のデータべ一ス化 したレコー ド例を示す。 道路地図 ( a ) は従来の交差点 (C l , C 2 , C 3, C 4、 、 、 ) の位置に加えて歩行可不可情報, ビル等施設入リ ロ マ一力へのリンク等が記載されており、 施設地図 ( b ) には、 施設内の 各マーカの位置, ビーム放射方位, リンク情報 (隣接するマ一力 I D ) 等を含んでいる。
第 1 6図の道路地図, 施設地図を用いて経路計算を行うには、 まず、 道路経路と施設経路に分離するため、 ここではゴールを道路上の経由地 mを設定する。 設定方法としては、 ゴール地点が施設内である場合、 施 設地図のリ ンク情報から隣接する道路の地点 I Dを取得する。 経路計算 としては、 まず道路上の経路(スター ト地点、 C l, C 3 , C 4 , m )を 求め、 次に施設内経路(m, m h , m f 1 , m e , m f 3 , m f 3 r 2 ) を求める。
第 1 8図に経路計算方法として代表的アルゴリズムであるダイクス ト ラ法を示す。 本アルゴリズムは、 スター ト地点を初期値として、 ゴール 地点にいたるまで、 隣接地点 (ノー ド) への最小評価値、 例えば距離を 求め、 最終的にスター 卜地点からゴール地点までの最小評価値の経路を 得るものである。 ただし、 本発明のように複数階を有する施設内の経路 を求める場合、 すべての階の経路を計算する必要はないため、 ゴール地 点の階の施設地図のみ検索することで計算時間を短縮できる。
第 1 7図に本例での経路計算結果例を示す。 経路情報としては、 経由 地点名称, 経由地点位置, 経由地点への進入角度及びそこからの出発角 度等が記載されている。 二つの角度情報は、 一般に歩行者は左右を向い たり振り返つたり して、 その方位が極端に変化するので、 これらの情報 によって正しい進行方位を得られる。
第 1 7図の経路情報に基づき、 経路案内装置 2 を持つ利用者をスター 卜地点からゴール地点に案内することになる。 屋外では G P Sにより現 在位置と進行方位を得ながら経路情報と比較して利用者を目的地に導く が、 施設内 (〇〇美術館) 内では G P Sは使用できないため、 引き続く 案内はビーム受信によって継続される。 ビーム受信によリ方位は角度情 報から得られ、 現在位置はビーム強度測定によって得ることができる。
G P Sとビームを用いた案内方法は、 例えば自動車を市街地から地下駐 車場へ案内するシステムにも適用可能である。 また、 港湾物流において コンテナをコンテナヤー ドから船舶内の所定位置に移動するシステムに も適用可能である。 第 1 2図から第 1 5図を用いて情報変換機能について説明する。 最近 の情報サービスはマルチメディァ化しており、 一定の情報を文字♦ 図形 • 画像 · 音声等複数のメディァを用いて表現していることが多い。 しか し、 第 1 2図に示すように作業中 (例 : 歩行中) は視覚的な情報は事故 等につながるため十分に活用することができない。 また、 混雑している 場所 (例 : 会議中) には、 音声情報は周りへの迷惑になることもある。 これらと同様のことが、 視覚障害者に対する視覚情報、 聴覚障害者にお ける音声情報にもいえる。
そこで、 第 1 3図に示すように、 その時の歩行者 (利用者) の状態に 基づいたり、 その時の歩行者 (利用者) の状態を判断することにより、 歩行者が授受可能な情報属性に変換するのがメディァ翻訳機能である。 基本動作は、 第 1 4図に示すように、 所定のメディア Aを認識技術に よってテキス ト変換し、 これを最終的なメディァに合成技術によって再 生するものである。 本発明では、 どのメディアをどのメディアに変換す るかを歩行者 (利用者) の状況によって設定するため、 第 1 5図に示す ような装置構成となる。 すなわち、 第 1 4図で示した構成に、 メディア 変換テーブルを付加し、 これによつて入力されたメディァをどのメディ ァに変換するかを規定する。 基本構成は、 マルチメディア等の情報の入 力を行うマルチメディア情報受信部 1 5 1, マルチメディア情報受信部 1 5 1 により受信した情報の変換を行うメディァ翻訳モジュール 1 5 2 (又は情報変換部) , メディア変換モジュール 1 5 2により変換した情 報を出力するマルチメディァ情報出力部 1 5 3 とから構成される。 メデ ィァ変換モジュールは、 この装置の使用者の使用状態を検出する使用状 態検出部 1 5 4 と、 使用状態検出部 1 5 4の検出結果と予め使用状態検 出部 1 5 4の検出値がどの値をとれば、 使用者がどのような状態である かを設定したメディァ変換テーブル 1 5 7 とにより使用者の使用状態を 判断する使用状態判断部 1 5 5 と、 使用状態判断部 1 5 5による判断結 果に応じてマルチメディア情報受信部 1 5 1 で受信した情報を変換する 情報変換部 1 5 6 とから構成されている。 尚、 使用状態検出部は、 具体 的には光センサや加速度センサ, 集音マイク等で拾った音量を測定する 音量測定センサ, 温度センサ等が考えられる。 メディア変換テ一ブル 1 5 7の設定方法としては、 第 3図で示した使用状態検出部 1 5 4の 1 つであるセンサ ( 2 0 5, 2 0 6 ) によって行動状態を把握することで 行うか、 歩行者 (利用者) の明示的な設定 (メニュー等) によって行う ことが考えられる。 例えば、 光センサ部の測定結果が低レベル (暗い場 所) のときはバッグ等に入れられている状態と判定し、 情報をイヤホン 等から音声化して出力し、 光センサが高レベル (明るい場所) を示し、 且つ加速度センサ等の振動解析により停止状態ならばユーザが経路案内 装置 2 を手持ちしていると判断して画像情報はそのまま使用する等の情 報提示の状況に応じた自動変更が可能になる。 また、 マイクからの周囲 環境音レベルを測定し、 騒音がひどい環境で 「C 3地点は工事で通行不 能です」 という音声情報を得ようとする場合は、 情報を音声認識によつ て文字列化し、 ディスプレイ上で視覚的に見せたり、 さらに情報を解析 し、 地点 = C 3, 状況 =通行不能に分解して経路地図に通行不能表示を 行う等のメディア翻訳を行うことも可能である。 このように、 - 所定の情 報を表現する 1以上のメディアを状況に応じて他の 1以上のメディアに 翻訳する機能を持つことにより、 利用者の要求する情報をよリロスの少 ない状態で提供することができるため、 利用者の情報獲得効率を高める 効果がある。
第 1 9図に、 歩行者用経路案内と車用経路案内を一体に行う場合の携 帯型経路案内装置の部分変更図を示す。 ユーザ行動認識部において、 歩 行中か車運転中かを判断し、 その結果を通信部に送る。 いずれの状態か により、 通信部から歩行者用データべ一スか車用データべ一スかを選択 して情報を取得することにより、 両方の状態に合わせた経路情報を得る ことが出来る。
第 2 0図から第 3 0図を用いて、 経路案内文から経路図を生成する方 法を説明する。
経路案内文の事例として、 第 2 4図に示す 「A駅から Bビル」 を考え る。 「A駅から、 、 、 Bビル」 の文が、 テキス ト情報として格納されて いるものとする。 最終的に第 3 0図に示す経路図を求めるために以下の 手順を行う。
まず、 経路案内文を第 2 0図の 4つのステップにより、 図形化するた めの単語列に変換する。
第 1 に第 2 1 図に示すように、 案内文から単語を抽出する。 その時例 えば同じ字種が続く文字列に着目すると、 容易に単語が抽出できる。 第 2に第 2 2図に示すように、 各単語候補とキー (第 2 4図 キ一) の比較を行い、 同一のものを見つけ、 そのキーの属性 (場所, 方位, 路 線、 距離等) を単語候補に付与する。
第 3に第 2 3図に示すように、 単語の並びや論理性を考慮して、 2地 点間を起点 · 方位 · 路線 · 距離の順に目的地までならべ直す- (第 2 4図 図形化) 。
次に第 2 5図に示すような手順で上記図形化単語列を図形化する。 第 1 に地図図面の向きと大まかな縮尺を設定する (処理 2 5— 1 ) 。 次に最初の起点を経由地点バッファに設定する (処理 2 5— 2 ) 。 この 経由地点を地図画面上の中央付近に設定する (処理 2 5— 3 ) 。 この状 態で、 表示メモリには第 2 6図の地図描画初期画面が設定されている。 以下、 経由地点が終点になるまで処理 2 5— 4から処理 2 5— 1 3まで を繰り返す。
次に、 最初に A駅が起点として上記図形化単語列から取り出され (処 理 2 5— 4 ) 、 所定の記号あるいは図形で第 2 7図のように上記表示メ モリに書込まれる (処理 2 5— 5 ) 。 次に、 方位 (北) , 路線 (大通) , 距離 ( 3 0 0 m ) を取り出し、 当初設定した縮尺で画面上に経路線を表 示可能ならば (処理 2 5— 9 ) 、 起点から所定方位へ距離分のベク トル
(処理 2 5— 1 0 ) や路線名の描画 (処理 2 5 — 1 1 ) を行う。 その結 果上記表示メモリ上に第 2 8図が得られる。 次の経由地点を取り出し
(交差点) (処理 2 5— 1 2 ) 、 処理 2 5— 4に戻って同様に図形化す る。 途中処理 2 5— 9において、 描画範囲が設定を超える場合は、 処理 2 5— 1 5で適切な大きさに縮尺を変更する。 例えば、 最初の起点から べク トルの先までの長さを取得距離とし、 設定距離の比の 2倍程度にす ればよい。 この結果、 第 2 9図, 第 3 0図が得られる。 最後の Bビルの 図形は処理 2 5— 1 4で描画される。
このように、 経路案内文から経路図を生成できることがわかる。 経路 案内文は、 キーボー ドによるかな漢字変換や音声認識, 手書き文字認識, オフライン画像認識から得ることが出来る。 一方、 得られた経路案内文 は、 音声合成による音声化、 上記処理による図形化等が可能である。 行動センサによる状態判定処理は、 例えば光センサからの光量情報, 加速度センサからの動き情報, マイクからの音量情報を用いることで第 3 1 図に示すような分類テーブルを設けることができる。 各状態判定時 に授受される情報メディアをどの情報メディアに変換すべきかを同図の ように定義し、 ュ一ザ行動認識処理部 2 0 6がアクセス可能なメモリ領 域に格納しておく。
一方、 第 3 2図から第 3 図に各センサ部分の構成例を簡略的に示す。 第 3 2図は光センサ部の構成例であり、 光トランジスタ等を用い出力 電圧をアナログ · デジタル変換 (図中 A D変換) し、 これをバッファに 保存しておいて、 ユーザ行動認識処理部 2 0 6から必要に応じて読み出 す。 光センサをディスプレイ面に平行に装着した場合、 ュ一ザがディス プレイを見ている状態ならば一般に光センサの出力が高くなり、 「明」 状態と判断する。 また、 バッグ等に入れられた状態では光センサの出力 が低くなり、 「暗」 状態と判断する。
第 3 3図は、 3軸の加速度センサ部の構成例であり、 各センサの出力 は A D変換後バッファに格納され、 必要に応じてセレクタで選択された バッファの内容を上記ユーザ行動認識処理部 2 0 6が読み出す。
第 3 4図は、 マイクセンサの構成例であり、 一般に交流となるマイク 出力を整流回路で直流化し、 その値を A D変換してバッファに格納する。 上記各センサと同様に必要に応じてセレクタで選択されたバッファの内 容を上記ユーザ行動認識処理部 2 0 6が読み出す。
第 3 5図にユーザ行動認識処理部 2 0 6の処理フロ一を示す。 各セン ザの出力を取り出し (処理 2 0 6— 1 から処理 2 0 6— 3 ) 、 前記分類 テーブルにアクセスして該当する状態を選び出し (処理 2 0 6— 4 ) 、 対応する情報メディァの変換モー ドを取り出し、 メディァ翻訳制御処理 部 2 0 4に創出する。
第 3 6図にメディァ翻訳制御処理部 2 0 4の処理フローを示す。 まず、 授受すべき情報を取り出し (処理 2 0 4— 1 ) 、 取り出した情報に対応 した上記変換モードが無変換以外かどうか判定し (処理 2 0 4— 2 ) 、 変換が必要ならば、 変換先のメディアへの認識処理を行う (処理 2 0 4 一 3 ) 。 例えば音声情報を文字情報に変換する場合は、 音声認識処理を 用いて文字列に変換する。 その他、 文字認識, 画像認識等が必要に応じ て用いられる。 その後、 出力用に合成処理を行う (処理 2 0 4— 4 ) 。 上記例では文字列をァゥ トラインフォン卜に展開する処理がこれに該当 する。 その他音声合成, 図形描画等が必要に応じて使用される。 産業上の利用可能性
以上のように、 本発明にかかる歩行者ナビゲーシヨンシステムは、 本 発明による効果は、 歩行者が目的地にしたい場合の施設内までの詳細な 経路誘導サービスを教授できる。 また、 他の効果として、 歩行中, 作業 中、 会議中等での情報授受において、 その状況に応じて情報の授受方式 を変更できるため、 必要な情報を十分高い密度で得ることができる。

Claims

請 求 の 範 囲
1 . 受信した情報を変換して出力する情報処理装置であって、
情報を受信する受信部と、 前記情報処理装置の使用者の使用状態を検 出する検出部と、 該検出部の検出結果と使用者の使用状態の対応関係を 予め設定した変換テーブルと、 前記検出部の検出結果と前記変換テ一ブ ルとによリ使用者の使用状態を判断する判断部と、 該判断部による判断 結果に応じて前記受信部で受信した情報を変換する情報変換部と、 該情 報変換部によリ変換された情報を出力する出力部とから構成される情報 処理装置。
2 . 前記検出部は、 光センサ, 加速度センサ, 集音マイクの少なく とも いずれか 1つである請求項 1 の情報処理装置。
3 . 前記検出部は少なく とも光センサで構成され、 前記変換テーブルに は前記光センサの測定結果が低レベルのときは、 前記状態判定部は、 前 記情報変換部に受信情報を音声化して出力するように設定している請求 項 2の情報処理装置。
4 . 前記検出部は少なく とも光センサと加速度センサで構成され、 前記 変換テーブルには、 前記光センサの測定結果が高レベルで、 且つ前記加 速度センサの振動解析により停止状態の時は、 前記状態判定部が前記情 報変換部に受信情報が画像情報の時は変換せずに前記出力部に出力する よう設定している請求項 2の情報処理装置。 -
5 . 前記検出部は少なく とも集音マイクで構成され、 前記変換テーブル には、 前記集音マイクの測定結果がある閾値を超えた場合には、 前記状 態判定部が前記情報変換部に受信情報を文字情報に変換して出力するよ う設定している請求項 2の情報処理装置。
6 . 歩行者が使用する歩行者用携帯案内装置に情報を送信して該歩行者 用携帯案内装置に情報を出力することによリ歩行者をナビゲー 卜する歩 行者用ナビゲ―シヨンシステムであって、
歩行者対応の地図データベースと、 経路の計算を行う経路計算機能と、 前記歩行者用携帯案内装置との通信機能を有する経路計算情報提供装置 と、
施設の各部に設置され、 施設情報と情報の発信方位情報を出力する複 数のマーカ装置と、
前記経路計算装置と前記マーカ装置との通信機能と、 位置 · 方位計測 機能を有する歩行者用携帯案内装置とからなる歩行者ナビゲーションシ ステム。
7 . 前記歩行者用携帯案内装置は、 前記経路計算情報提供装置又は前記 マーカ装置から送信された情報を、 該歩行者用携帯端末装置の使用者の 使用状態により情報を変換する情報変換機能を備えている請求項 6の歩 行者ナビゲ一ションシステム。
8 . 前記情報変換機能は、 該歩行者用携帯案内装置の使用者の使用状態 を検出する検出部と、 該検出部の検出結果と使用者の使用状態の対応関 係を予め設定した変換テーブルと、 前記検出部の検出結果と前記変換テ ―ブルとにより使用者の使用状態を判断する判断部と、 該判断部による 判断結果に応じて前記受信部で受信した情報を変換する情報変換部とに より構成された請求項 7の歩行者ナビゲーションシステム。 -
PCT/JP1998/002151 1998-05-15 1998-05-15 Dispositif de traitement de donnees et systeme de navigation pour pietons utilisant ce dispositif WO1999060338A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US09/463,782 US6259990B1 (en) 1998-05-15 1998-05-15 Information processing apparatus and pedestrian navigation system using the same
CN98814044.6A CN1292867A (zh) 1998-05-15 1998-05-15 信息处理装置和使用该装置的行人导向系统
PCT/JP1998/002151 WO1999060338A1 (fr) 1998-05-15 1998-05-15 Dispositif de traitement de donnees et systeme de navigation pour pietons utilisant ce dispositif
EP98919615A EP1081462A4 (en) 1998-05-15 1998-05-15 DATA PROCESSING DEVICE AND PEDESTRIAN NAVIGATION SYSTEM THAT THE DEVICE USES
KR10-2000-7001875A KR100373666B1 (ko) 1998-05-15 1998-05-15 정보 처리 장치 및 정보 처리 장치를 사용한 보행자용내비게이션 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP1998/002151 WO1999060338A1 (fr) 1998-05-15 1998-05-15 Dispositif de traitement de donnees et systeme de navigation pour pietons utilisant ce dispositif

Publications (1)

Publication Number Publication Date
WO1999060338A1 true WO1999060338A1 (fr) 1999-11-25

Family

ID=14208205

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1998/002151 WO1999060338A1 (fr) 1998-05-15 1998-05-15 Dispositif de traitement de donnees et systeme de navigation pour pietons utilisant ce dispositif

Country Status (5)

Country Link
US (1) US6259990B1 (ja)
EP (1) EP1081462A4 (ja)
KR (1) KR100373666B1 (ja)
CN (1) CN1292867A (ja)
WO (1) WO1999060338A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001206649A (ja) * 2000-01-24 2001-07-31 Shimizu Corp 携帯発信機信号を利用したエレベータ運行管理システム
JP2001317947A (ja) * 2000-03-01 2001-11-16 Matsushita Electric Ind Co Ltd ナビゲーション装置
WO2002006771A1 (de) * 2000-07-13 2002-01-24 Mueller Juergen W Verfahren zur verknüpfung geographischer und kommerzieller daten sowie deren bereitstellung
KR100719217B1 (ko) * 2000-10-31 2007-05-16 엘지전자 주식회사 이동통신망에서의 목표물 위치확인 서비스 제공방법
JP2007139790A (ja) * 2005-11-18 2007-06-07 Navteq North America Llc 詳細なローカル・データを有する地理データベース
JP2008224507A (ja) * 2007-03-14 2008-09-25 Denso Corp カーナビゲーション装置
JP2010091554A (ja) * 2008-07-25 2010-04-22 Navteq North America Llc 公開エリア地図の位置付け
JP6211217B1 (ja) * 2016-08-10 2017-10-11 三菱電機ビルテクノサービス株式会社 ビル用ビーコンシステム

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6826472B1 (en) * 1999-12-10 2004-11-30 Tele Atlas North America, Inc. Method and apparatus to generate driving guides
GB0003150D0 (en) * 2000-02-12 2000-04-05 Univ Newcastle Navigation and routing system
US7035650B1 (en) * 2000-06-14 2006-04-25 International Business Machines Corporation System and method for providing directions
WO2002011396A2 (en) * 2000-08-01 2002-02-07 Hrl Laboratories, Llc Apparatus and method for context-sensitive dynamic information service
US6581000B2 (en) * 2001-01-04 2003-06-17 Carnegie Mellon University Position location system and method
US20040155815A1 (en) * 2001-05-14 2004-08-12 Motorola, Inc. Wireless navigational system, device and method
FR2825226B1 (fr) * 2001-05-25 2008-02-01 Fabien Beckers Procede et systeme pour fournir des informations en relation avec la position occupee par un utilisateur dans un site
JP2003050846A (ja) * 2001-08-07 2003-02-21 Hitachi Ltd 情報伝達システム及びそれに用いる旅行サーバ及び携帯端末及び情報伝達方法
US8493370B2 (en) * 2001-08-29 2013-07-23 Palm, Inc. Dynamic brightness range for portable computer displays based on ambient conditions
KR100635460B1 (ko) * 2001-10-27 2006-10-17 멀티화인테크(주) 휴대용 안내 정보 제공 장치
EP1456808B1 (de) * 2001-12-21 2005-06-22 Siemens Aktiengesellschaft Vorrichtung zum erfassen und darstellen von bewegungen
US6933840B2 (en) 2002-01-29 2005-08-23 Hewlett-Packard Development Company, L.P. System and method for configuring a printing device for a physical environment
US7480512B2 (en) * 2004-01-16 2009-01-20 Bones In Motion, Inc. Wireless device, program products and methods of using a wireless device to deliver services
JP2004227468A (ja) * 2003-01-27 2004-08-12 Canon Inc 情報提供装置、情報提供方法
US7688222B2 (en) 2003-09-18 2010-03-30 Spot Devices, Inc. Methods, systems and devices related to road mounted indicators for providing visual indications to approaching traffic
US7319387B2 (en) * 2004-03-17 2008-01-15 3M Innovaative Properties Company GPS interface for locating device
US7024782B1 (en) * 2004-10-28 2006-04-11 Texas Instruments Incorporated Electronic device compass operable irrespective of localized magnetic field
US7386682B2 (en) * 2005-02-11 2008-06-10 International Business Machines Corporation Reducing number of rejected snoop requests by extending time to respond to snoop request
US7496445B2 (en) * 2005-04-27 2009-02-24 Proxemics, Llc Wayfinding
US7761226B1 (en) 2005-07-27 2010-07-20 The United States Of America As Represented By The Secretary Of The Navy Interactive pedestrian routing system
JP5002140B2 (ja) * 2005-08-24 2012-08-15 クラリオン株式会社 ナビゲーション装置およびナビゲーション処理方法
JP2007066106A (ja) * 2005-08-31 2007-03-15 Fujitsu Ltd 経路案内装置
US7706973B2 (en) * 2006-01-03 2010-04-27 Navitrail Llc Computer-aided route selection
US20070156335A1 (en) 2006-01-03 2007-07-05 Mcbride Sandra Lynn Computer-Aided Route Selection
US8000892B2 (en) * 2007-06-12 2011-08-16 Campus Destinations, Inc. Pedestrian mapping system
US20090112473A1 (en) * 2007-10-31 2009-04-30 Hung Sung Lu Method for providing location and promotional information associated with a building complex
TW200934207A (en) * 2008-01-21 2009-08-01 Inventec Appliances Corp Method of automatically playing text information in voice by an electronic device under strong light
US20130293396A1 (en) 2008-03-15 2013-11-07 James R. Selevan Sequenced guiding systems for vehicles and pedestrians
US8384562B2 (en) * 2008-03-25 2013-02-26 University Of Idaho Advanced accessible pedestrian control system for the physically disabled
US8374780B2 (en) * 2008-07-25 2013-02-12 Navteq B.V. Open area maps with restriction content
US8417446B2 (en) 2008-07-25 2013-04-09 Navteq B.V. Link-node maps based on open area maps
US8099237B2 (en) 2008-07-25 2012-01-17 Navteq North America, Llc Open area maps
US8339417B2 (en) * 2008-07-25 2012-12-25 Navteq B.V. Open area maps based on vector graphics format images
US20100023251A1 (en) * 2008-07-25 2010-01-28 Gale William N Cost based open area maps
US8229176B2 (en) 2008-07-25 2012-07-24 Navteq B.V. End user image open area maps
WO2010035274A2 (en) * 2008-09-23 2010-04-01 Girish Patil A self - service kiosk providing path information to users
WO2011092639A1 (en) * 2010-01-29 2011-08-04 Nokia Corporation Systems, methods, and apparatuses for providing context-based navigation services
JP5110405B2 (ja) * 2010-04-07 2012-12-26 村田機械株式会社 走行台車システム
US8818714B2 (en) * 2010-12-10 2014-08-26 Sony Corporation Portable navigation device and method with active elements
US8621394B2 (en) 2011-08-26 2013-12-31 Nokia Corporation Method, apparatus and computer program product for displaying items on multiple floors in multi-level maps
US9253606B2 (en) 2013-03-04 2016-02-02 Here Global B.V. Structure access characteristics determined from mobile unit data
US11313546B2 (en) 2014-11-15 2022-04-26 James R. Selevan Sequential and coordinated flashing of electronic roadside flares with active energy conservation
US9593959B2 (en) * 2015-03-31 2017-03-14 International Business Machines Corporation Linear projection-based navigation
CN105167967B (zh) * 2015-09-14 2018-04-03 深圳市冠旭电子股份有限公司 一种导盲方法及系统
US9989376B2 (en) 2016-05-12 2018-06-05 Tata Consultancy Services Limited Systems and methods for generating signature ambient sounds and maps thereof
US10677599B2 (en) * 2017-05-22 2020-06-09 At&T Intellectual Property I, L.P. Systems and methods for providing improved navigation through interactive suggestion of improved solutions along a path of waypoints
JP7100998B2 (ja) * 2018-03-08 2022-07-14 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP7216893B2 (ja) * 2019-03-06 2023-02-02 トヨタ自動車株式会社 移動体及び移動システム
WO2021024029A1 (en) * 2019-08-08 2021-02-11 Kukreja Ani Dave Method and system for intelligent and adaptive indoor navigation for users with single or multiple disabilities

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08171558A (ja) * 1994-12-19 1996-07-02 Saburo Tanatsugi 音声情報からの文字情報同時変換とその同時変換された文字情報の外部表示方法
JPH09126804A (ja) * 1995-11-06 1997-05-16 Toyota Motor Corp ルート案内システム
JPH09282589A (ja) * 1996-04-15 1997-10-31 Nippon Telegr & Teleph Corp <Ntt> 位置方向判定実行装置およびシステム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5470233A (en) * 1994-03-17 1995-11-28 Arkenstone, Inc. System and method for tracking a pedestrian
US5508699A (en) * 1994-10-25 1996-04-16 Silverman; Hildy S. Identifier/locator device for visually impaired
JPH09287974A (ja) * 1996-04-23 1997-11-04 Nissan Motor Co Ltd 車載用情報提供装置
US5842145A (en) * 1996-07-08 1998-11-24 Zimmer; John S. Apparatus for providing individualized maps to pedestrians
US5806017A (en) * 1996-08-19 1998-09-08 Board Of Regents The University Of Texas System Electronic autorouting navigation system for visually impaired persons

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08171558A (ja) * 1994-12-19 1996-07-02 Saburo Tanatsugi 音声情報からの文字情報同時変換とその同時変換された文字情報の外部表示方法
JPH09126804A (ja) * 1995-11-06 1997-05-16 Toyota Motor Corp ルート案内システム
JPH09282589A (ja) * 1996-04-15 1997-10-31 Nippon Telegr & Teleph Corp <Ntt> 位置方向判定実行装置およびシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1081462A4 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001206649A (ja) * 2000-01-24 2001-07-31 Shimizu Corp 携帯発信機信号を利用したエレベータ運行管理システム
JP2001317947A (ja) * 2000-03-01 2001-11-16 Matsushita Electric Ind Co Ltd ナビゲーション装置
WO2002006771A1 (de) * 2000-07-13 2002-01-24 Mueller Juergen W Verfahren zur verknüpfung geographischer und kommerzieller daten sowie deren bereitstellung
KR100719217B1 (ko) * 2000-10-31 2007-05-16 엘지전자 주식회사 이동통신망에서의 목표물 위치확인 서비스 제공방법
JP2007139790A (ja) * 2005-11-18 2007-06-07 Navteq North America Llc 詳細なローカル・データを有する地理データベース
JP2008224507A (ja) * 2007-03-14 2008-09-25 Denso Corp カーナビゲーション装置
JP2010091554A (ja) * 2008-07-25 2010-04-22 Navteq North America Llc 公開エリア地図の位置付け
JP6211217B1 (ja) * 2016-08-10 2017-10-11 三菱電機ビルテクノサービス株式会社 ビル用ビーコンシステム
WO2018029831A1 (ja) * 2016-08-10 2018-02-15 三菱電機ビルテクノサービス株式会社 ビル用ビーコンシステム

Also Published As

Publication number Publication date
US6259990B1 (en) 2001-07-10
CN1292867A (zh) 2001-04-25
KR20010023244A (ko) 2001-03-26
EP1081462A1 (en) 2001-03-07
EP1081462A4 (en) 2003-08-27
KR100373666B1 (ko) 2003-02-26

Similar Documents

Publication Publication Date Title
WO1999060338A1 (fr) Dispositif de traitement de donnees et systeme de navigation pour pietons utilisant ce dispositif
US7277846B2 (en) Navigation system
US8924149B2 (en) Outdoor to indoor navigation system
CN102274109B (zh) 用于视觉障碍人士的手持导航设施和导航方法
JP2674521B2 (ja) 移動体誘導装置
US5832406A (en) Vehicle navigation apparatus and method for route finding at road crossings
US7916948B2 (en) Character recognition device, mobile communication system, mobile terminal device, fixed station device, character recognition method and character recognition program
US8694323B2 (en) In-vehicle apparatus
US9864577B2 (en) Voice recognition device and display method
KR100892079B1 (ko) 내비게이션 시스템
JPWO2016174955A1 (ja) 情報処理装置、及び、情報処理方法
JP4037866B2 (ja) 移動体の位置推定装置、位置推定方法および位置推定プログラム
US6374183B1 (en) Vehicle guidance method for navigation system
US9596204B2 (en) Determination of a navigational text candidate
WO2003102816A1 (fr) Systeme fournisseur de donnees
JPH10282987A (ja) 音声認識システムおよび方法
US20050144011A1 (en) Vehicle mounted unit, voiced conversation document production server, and navigation system utilizing the same
JP3929011B2 (ja) ナビゲーション装置
JP2004012155A (ja) 歩行者用ナビゲーションシステム及び携帯情報端末
JPH11325946A (ja) 車載用ナビゲーション装置
KR100832940B1 (ko) 음향 경로 정보를 제공하는 내비게이션 시스템
KR20030037190A (ko) 이동통신 단말을 이용한 항법 시스템 및 그 제어 방법
JP2024048581A (ja) 案内システム、情報提供装置、案内方法、情報提供方法、およびプログラム
JPH11125533A (ja) ナビゲーション装置及びナビゲート方法
JP2000311177A (ja) 住宅街案内装置および住宅街案内システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 98814044.6

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 09463782

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1998919615

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020007001875

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 1998919615

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020007001875

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1020007001875

Country of ref document: KR

WWW Wipo information: withdrawn in national office

Ref document number: 1998919615

Country of ref document: EP