WO2022190941A1 - 自己位置推定装置 - Google Patents

自己位置推定装置 Download PDF

Info

Publication number
WO2022190941A1
WO2022190941A1 PCT/JP2022/008410 JP2022008410W WO2022190941A1 WO 2022190941 A1 WO2022190941 A1 WO 2022190941A1 JP 2022008410 W JP2022008410 W JP 2022008410W WO 2022190941 A1 WO2022190941 A1 WO 2022190941A1
Authority
WO
WIPO (PCT)
Prior art keywords
self
question
target
unit
position estimation
Prior art date
Application number
PCT/JP2022/008410
Other languages
English (en)
French (fr)
Inventor
真平 吉山
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Publication of WO2022190941A1 publication Critical patent/WO2022190941A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Definitions

  • the present invention relates to a self-position estimation device that estimates the position of a vehicle or the like.
  • the absolute position of the vehicle is usually measured with high accuracy based on signals from GNSS (Global Navigation Satellite System) such as GPS (Global Positioning System).
  • GNSS Global Navigation Satellite System
  • GPS Global Positioning System
  • the vehicle speed signal based on the output of the vehicle speed sensor and the acceleration based on the output of the acceleration sensor
  • the position of the vehicle may be estimated based on the magnitude and direction of the angular velocity based on the output of the gyro sensor (such method is also called dead reckoning).
  • a standard trajectory pattern obtained based on the trajectory of the feature points of the object is stored in advance in a memory, and the trajectory of the feature points of the object and the standard trajectory pattern are compared when the vehicle is traveling in the first running state measurement mode. By doing so, it is determined whether or not the vehicle is in a straight-ahead state, and when it is determined that the vehicle is in a straight-ahead state, an error value is calculated based on the output of the gyro sensor at that time, and based on the error value Correcting a gyro sensor is described.
  • Patent Document 2 discloses that, when a GPS signal cannot be obtained, a weight associated with a checkpoint immediately before the vehicle passed last, Identify the running position of the vehicle on a straight line drawn from the point where the last GPS signal was acquired to the next checkpoint using the vehicle speed and the elapsed time from the time when the last GPS signal was acquired. It is stated that
  • Patent Document 2 requires the setting of checkpoints, and cannot estimate the position by itself, such as the own vehicle.
  • One example of the problem to be solved by the present invention is that it is possible to estimate the self-position without adding equipment.
  • the invention according to claim 1 acquires a group of self-position candidates obtained by estimating by a predetermined method when the reception state of a radio signal for position detection is below a standard. an identifying unit that identifies a visible target for each of the self-position candidates; a question output unit that outputs a question about the target; and an estimating unit for estimating the self-position.
  • the invention according to claim 9 is a self-position estimation method executed by a self-position estimation device for estimating the self-position based on a radio signal for position detection, wherein the reception state of the radio signal for position detection is is equal to or less than a reference, an acquisition step of acquiring a group of self-position candidates obtained by estimating by a predetermined method; an identifying step of identifying a visible target for each of the self-position candidates; The method includes a question output step of outputting a question, and an estimation step of estimating the self-location candidate group based on the answer to the question.
  • the invention according to claim 10 is characterized in that the self-position estimation method according to claim 9 is executed by a computer as a self-position estimation program.
  • the invention according to claim 11 is characterized in that the self-position estimation program according to claim 10 is stored in a computer-readable storage medium.
  • FIG. 1 is a schematic configuration diagram of a self-position estimation device according to a first embodiment of the present invention
  • FIG. 2 is a flow chart of the operation of the self-localization device shown in FIG. 1; It is a figure which shows that the vehicle which mounts a self-position estimation apparatus is driving
  • FIG. 4 is an explanatory diagram showing an example of candidate sites
  • 5 is a table showing an example of candidate sites and priorities shown in FIG. 4
  • FIG. 5 is an explanatory diagram in which landmarks are added to FIG. 4
  • It is the table
  • surface which added the question sentence to FIG. 9 is a flow chart of the operation of the self-position estimation device according to the second embodiment of the present invention.
  • a self-position estimation device acquires a group of self-position candidates estimated by a predetermined method when the reception state of a radio signal for position detection is below a reference level.
  • the specifying unit specifies a visible target for each self-position candidate.
  • the question output unit outputs a question about the target, and the estimation unit estimates the self-position from the self-position candidate group based on the answer to the question.
  • the self-position can be specified from the self-position candidate group, and the self-position can be estimated without adding a device such as a camera.
  • the question since the question is asked about the target object, it is easier for the user to confirm than if the question is directly asked about the self-position candidate.
  • the identifying unit may acquire map information and identify the target and the positional relationship between the target and the self-location candidate based on the map information. By doing so, it becomes possible to ask a question after specifying the positional relationship between the self-position candidate and the target.
  • the self-location candidates included in the group of self-location candidates acquired by the acquisition unit may be given priority, and the question output unit may sequentially output questions according to the priority. By doing so, it is possible to ask questions in order from the candidate of the self-position having the highest priority, and the question is asked from the candidate location where the possibility of the self-position is high. Therefore, the self-position can be estimated efficiently.
  • the question output unit may ask the user whether the target can be seen in a specific direction. By doing so, the user can give a clear answer such as "yes” or "no", so the estimation processing by the estimation unit can be simplified.
  • the question output unit may ask the user what is visible in a particular direction. By doing so, there is no need to generate a question for each self-location candidate, and the content of the question can be reduced to one.
  • the estimation unit may estimate the self-position based on the target included in the user's answer. By doing so, the self-position can be narrowed down from the self-position candidate group based on the user's answer.
  • the target is located in front of or to the side of the direction of travel of the user. By doing so, it becomes possible for the driver or the like of the vehicle to confirm the target within a range that does not interfere with driving.
  • the target be a facility having an area or height greater than or equal to a predetermined amount. By doing so, it becomes possible to set a facility that can be easily confirmed by a vehicle driver or the like as a target.
  • the self-position candidate group obtained by estimating by a predetermined method is Then, in the identification step, a visible target is identified for each self-position candidate. Then, a question about the target is output in the question output step, and the self-position is estimated from the self-position candidate group based on the answer to the question in the estimation step.
  • the self-position can be specified from the self-position candidate group, and the self-position can be estimated without adding a device such as a camera.
  • the question is asked about the target object, it is easier for the user to confirm than if the question is directly asked about the self-position candidate.
  • the self-position estimation method described above may be executed by a computer as a self-position estimation program.
  • the self-position can be specified from the self-position candidate group, and the self-position can be estimated without adding a device such as a camera.
  • the question is asked about the target object, it is easier for the user to confirm than if the question is directly asked about the self-position candidate.
  • the self-position estimation program described above may be stored in a computer-readable storage medium. By doing so, the program can be distributed as a single unit in addition to being incorporated into the device, and version upgrades and the like can be easily performed.
  • FIG. 1 is a schematic configuration diagram of a self-position estimation device according to this embodiment.
  • the self-position estimation device 1 may be, for example, a car navigation device or a part thereof, or may be an application of a device that can be taken outside the vehicle, such as a smartphone or a tablet terminal, or a part thereof.
  • the self-position estimation device 1 includes a data acquisition unit 2, a position information control unit 3, a map DB 4, a GPS reception determination unit 5, a vehicle position prediction unit 6, a POIDB 7, A text generation unit 8 , an audio content generation unit 9 , an audio output unit 10 , an audio input unit 11 , and an audio analysis unit 12 are provided.
  • the data acquisition unit 2 acquires data such as position information from a GPS receiver (not shown).
  • the data acquisition unit 2 also acquires various data such as detection data from a gyro sensor, a vehicle speed sensor, an acceleration sensor, and the like.
  • the position information control unit 3 Based on the position information obtained by the data obtaining unit 2 and the map information obtained from the map DB 4, the position information control unit 3 creates a map that corrects the current position on the road that the user is currently traveling on based on the position information. Perform matching processing.
  • the map DB 4 is a database (DB) that stores map information used for the above-described map matching process and route search. As is well known, the map DB 4 contains link information, node information, and the like. Note that the map DB 4 may not be provided in the self-position estimation device 1, and map information may be acquired from an external server or the like through communication.
  • DB database
  • the GPS reception determination unit 5 determines whether the data acquired from the GPS receiver is sufficiently received. This determination can be made, for example, by referring to DOP (Dilution Of Precision) included in the acquired data.
  • DOP Deution Of Precision
  • GPS is used as the radio signal for position detection, but other GNSS signals may be used. Judge.
  • the vehicle position prediction unit 6 obtains candidate locations for the vehicle position (self-position) and selects the most accurate one among them. Estimate possible candidate sites.
  • POIDB 7 is a database (DB) that stores POI (Point Of Interest) information.
  • POIs indicate shops and facilities included in the map information.
  • the POIDB 7 may not be provided in the self-position estimation device 1, and POI information may be obtained from an external server or the like through communication.
  • the text generation unit 8 Under the control of the vehicle position prediction unit 6, the text generation unit 8 generates text data that will be output from the voice output unit 10.
  • the text generation unit 8 generates, for example, a question sentence to be described later.
  • the audio content generation unit 9 converts the text generated by the text generation unit 8 into audio information (audio content).
  • the audio output unit 10 outputs audio information generated by the audio content generation unit 9 as audio.
  • the audio output unit 10 is composed of, for example, a speaker or the like.
  • the voice input unit 11 receives the voice uttered by the user or the like.
  • the voice input unit 11 is composed of, for example, a microphone.
  • the voice analysis unit 12 analyzes the voice input from the voice input unit 11. Specifically, it recognizes the voice input from the voice input unit 11 and outputs the recognized data to the own vehicle position prediction unit 6 .
  • a self-position estimation program can be obtained by constructing the flowchart of FIG. 2 as a program executed by a computer having a CPU or the like.
  • the GPS reception determination unit 5 determines whether sufficient GPS data has been acquired (step S101). That is, the GPS reception determination unit 5 determines whether the reception state of the radio signal for position detection is below the standard. In step S101, if sufficient information has been acquired (step S101; Yes), the flowchart ends. On the other hand, if it is not sufficiently acquired (step S101; No), the reception state of the radio signal is below the standard, so the vehicle position prediction unit 6 acquires the candidate locations and priority of the vehicle position (step S102).
  • Candidate locations are obtained based on the results of matching locations estimated by dead reckoning using sensors other than GPS, such as gyro sensors, vehicle speed sensors, and acceleration sensors, with map information.
  • a plurality of candidate locations are acquired depending on the matching result. For example, if there are multiple roads in the vicinity of a point estimated by a sensor other than GPS, candidates may be set on those roads. That is, the vehicle position prediction unit 6 selects a plurality of candidate locations obtained by estimating (by a predetermined method) by dead reckoning or the like when the reception state of GPS (radio signal for position detection) is below a reference level. It functions as an acquisition unit that acquires (group of self-location candidates).
  • Priority is information that is added when there are multiple candidate sites, and is determined by indicators that indicate the certainty of the candidate site, such as certainty.
  • a candidate site on the road nearer to a point estimated by a sensor other than GPS is given a higher priority. That is, priority is given to the self-location candidates included in the self-location candidate group acquired by the acquisition unit.
  • the vehicle position prediction unit 6 determines whether there are multiple candidate locations (step S103). If there is one candidate location (step S103; No), the vehicle position prediction unit 6 corrects the vehicle position to the candidate location (step S110). On the other hand, if there are a plurality of candidate sites (step S103; Yes), the vehicle position prediction unit 6 searches for landmarks (objectives) near the candidate sites (step S104). As a landmark, in this embodiment, the POIDB 7 is referenced to search for a facility or the like in the vicinity of the candidate site as a landmark. At this time, the map DB 4 is referenced to specify the direction (front, right, etc.) from which the landmark can be seen from the candidate site.
  • the vehicle position prediction unit 6 functions as a specification unit that specifies a visible target for each self position candidate.
  • the vehicle position prediction unit 6 (specification unit) acquires map information and identifies the target and the positional relationship between the target and the self-position candidate based on the map information.
  • the landmark is positioned in front of or to the side of the vehicle or the like in its own traveling direction. In other words, it is preferable that the display be visible to the driver as long as it does not interfere with driving.
  • the landmark is preferably a facility having a predetermined area or height or more. If the facility has a certain amount of area and height, it will stand out from the surroundings, making it easier for drivers to check.
  • the vehicle position prediction unit 6 causes the text generation unit 8 to create a question sentence (step S105).
  • This question sentence asks in which direction the landmark searched in step S104 can be seen. For example, if the landmark is a Ferris wheel, the question is "Is there a Ferris wheel on the right side?" That is, the user is asked whether the target can be seen in a specific direction.
  • steps S106 to S109 form a loop that terminates the flowchart when all question sentences have been processed.
  • the vehicle position prediction unit 6 asks the user the question created in S105 (step S107).
  • the vehicle position prediction unit 6 causes the voice content generation unit 9 to convert the question text generated by the text generation unit 8 into voice information according to the priority order, and outputs the voice information from the voice output unit 10.
  • the voice output unit 10 sequentially outputs questions according to the order of priority.
  • the vehicle position prediction unit 6 determines whether the user agrees with the question asked in step S107 (step S108). This is determined based on data input from the voice input unit 11 and recognized by the voice analysis unit 12 . For example, an answer such as “yes” or “yes” is regarded as consent.
  • step S108 if the user agrees (step S108; Yes), the vehicle position prediction unit 6 exits the loop and corrects the vehicle position to the agreed candidate location (step S110). That is, the vehicle position prediction unit 6 functions as an estimation unit that estimates the self-position from the self-position candidate group based on the answers to the questions.
  • step S108 if they do not agree (step S108; No), return to steps S109 and S106 and ask about the next priority candidate site.
  • step S102 functions as an acquisition step
  • step S104 functions as an identification step
  • step S107 functions as a question output step.
  • FIG. 3 is a diagram showing that a vehicle V equipped with the self-position estimation device 1 is traveling on a road.
  • point P1 is the final point at which sufficient GPS data can be received
  • point P2 is the point at which sufficient GPS data cannot be received.
  • steps after step S102 in FIG. 2 are not executed.
  • step S102 and subsequent steps are executed.
  • FIG. 6 shows the result of searching for landmarks for points A to E.
  • a hospital L1 As shown in FIG. 6, a hospital L1, a school L2, and a hot spring inn L3 are searched as landmarks.
  • FIG. 7 shows the correspondence between these landmarks (POI) and candidate sites. As shown in FIG. 7, it is assumed that no suitable landmark was found for point A.
  • FIG. 8 shows the relative positional relationship between points A to E and landmarks. This positional relationship indicates in which direction the corresponding landmark can be seen when traveling at the point.
  • the order is point B, point D, point C, and point E.
  • the answer "yes” is not obtained even if the question is asked up to the point E, the vehicle position may be corrected to the point A where the landmark is not found.
  • the self-position estimation device 1 acquires a plurality of candidate locations obtained by a gyro sensor or the like when the vehicle location prediction unit 6 cannot acquire sufficient GPS data, and Identify landmarks for each Then, the voice output unit 10 outputs a question about landmarks, and the vehicle position prediction unit 6 estimates the vehicle position from a plurality of candidate locations based on the answer to the question.
  • the vehicle position can be specified from a plurality of candidate locations, and the vehicle position can be estimated without adding equipment such as a camera.
  • the question is about the landmark, it is easier for the user to confirm than when the question is directly asked about the candidate site.
  • the vehicle position prediction unit 6 acquires map information and identifies landmarks and the positional relationship between the landmarks and candidate sites based on the map information. By doing so, it becomes possible to ask a question after specifying the positional relationship between the candidate site and the landmark.
  • the plurality of candidate locations acquired by the vehicle position prediction unit 6 are given priority, and the questions are sequentially output from the voice output unit 10 according to the priority. By doing so, it is possible to ask questions in descending order of priority, and to ask questions starting from the candidate location with the highest possibility of the vehicle position, so that the vehicle position can be estimated efficiently.
  • the voice output unit asks questions in the form of "Is there a (landmark) in (positional relationship)?" By doing so, the user can give a clear answer such as “yes” or “no”, so the estimation processing by the vehicle position prediction unit 6 can be simplified.
  • the question is asked to the user in the form of "Is there a (landmark) in (positional relationship)?" What do you have in the That is, ask the user what they can see in a particular direction.
  • the operation (self-position estimation method) of the self-position estimation device 1 according to this embodiment will be described with reference to FIG. In the flowchart of FIG. 10, steps S101 to S103 are the same as in FIG.
  • step S204 the vehicle position prediction unit 6 asks the user a question (step S204). That is, the vehicle position prediction unit 6 causes the voice output unit 10 to output the question sentence.
  • the question sentence in step S204 is in the form of "What is there in (positional relationship)?" as described above. For example, it becomes a question sentence such as "What is there in front of you?"
  • the vehicle position prediction unit 6 determines whether there is a candidate site near the landmark indicated by the answer to the question asked in step S204 (step S205). For example, when the positional relationship between landmarks and candidate sites is the relationship shown in FIGS. Since point B, which is a candidate site where the hospital can be seen, is searched for, point B can be estimated as the position of the vehicle.
  • the vehicle position prediction unit 6 corrects the vehicle position to the candidate site (step S206). For example, in the case of the above-described hospital answer, the position of the vehicle is corrected to point B. That is, the vehicle position prediction unit 6 (estimation unit) estimates the vehicle position based on the target included in the user's answer.
  • the vehicle position prediction unit 6 corrects the candidate location with the highest priority to the vehicle position. In this case, since there is no candidate site near the landmark (facility) answered by the user, the vehicle position cannot be specified based on the answered landmark. Therefore, the vehicle position is corrected based on the priority.
  • the positional relationship may be changed and the question may be asked again. For example, if there is no candidate site near the landmark as a result of asking what is ahead, the next question may be asked what is on the right.
  • the audio output unit 10 asks the user what they can see in a specific direction. By doing so, it is not necessary to generate a question for each of a plurality of candidate sites, and the content of the question can be reduced to one.
  • the own vehicle position prediction unit 6 estimates the own position based on the landmarks included in the user's answer. By doing so, the vehicle position can be narrowed down from a plurality of candidate locations based on the user's answers.

Abstract

機器の追加等が不要で自己位置の推定を可能とする。 自己位置推定装置(1)は、自車位置予測部(6)が、GPSデータが十分に取得できていない場合にジャイロセンサ等により得られた複数の候補地を取得し、候補地ごとにランドマークを特定する。そして、音声出力部(10)がランドマークに関する質問を出力して、自車位置予測部(6)が質問に対する回答に基づいて複数の候補地から自車位置を推定する。

Description

自己位置推定装置
 本発明は、自車両等の位置を推定する自己位置推定装置に関する。
 例えばカーナビゲーション装置においては、通常GPS(Global Positioning System)等のGNSS(Global Navigation Satellite System)からの信号に基づいて高い精度で車両の絶対的位置を測定する。このとき、車両がトンネル内、高層ビル街、山間部などを走行するときや何らかの異常によりGNSS信号が受信できなくなったときは、車速センサの出力に基づく車速信号と、加速度センサの出力に基づく加速度の大きさと方向と、ジャイロセンサの出力に基づく角速度の大きさと方向と、に基づいて車両の位置を推測することがある(このような方法は推測航法とも呼ばれる)。
 ジャイロセンサはその構造上温度の影響を受けやすいため、一定の頻度で蓄積誤差の補正を行う必要があり、特許文献1には、処理装置は、車両が直進状態のときにカメラが撮影した対象物の特徴点の軌跡に基づいて取得した標準軌跡パターンをあらかじめメモリに記憶し、第1の走行状態測定モードのときに、車両の走行時の対象物の特徴点の軌跡と標準軌跡パターンを比較することにより車両が直進状態であるか否かを判断し、車両が直進状態と判断されたときに、その時点でのジャイロセンサの出力に基づいて誤差値を算出し、当該誤差値に基づいてジャイロセンサを補正することが記載されている。
 また、GPS信号を受信できない場合でも車両の走行位置を推定する方法として、特許文献2には、GPS信号を取得できない場合、車両が最後に通過した直前チェックポイントに対応付けられている重みと、車速と、最後にGPS信号を取得した時点からの経過時間とを用いて、最後にGPS信号を取得した地点から次のチェックポイントまでの間に引いた直線上にある前記車両の走行位置を特定することが記載されている。
特開2020-134460号公報 特開2018-60436号公報
 特許文献1に記載の発明の場合は、ジャイロセンサの検出精度を向上させるものであるが、この発明の実施のためにはカメラを追加しなければならないため、カーナビゲーション等の車載機器に適用するためにはコストアップとなってしまう。
 また、特許文献2に記載の発明は、チェックポイントを設定しなければならず、自車両等の自己のみで位置を推定することができない。
 本発明が解決しようとする課題としては、機器の追加等が不要で自己位置の推定を可能とすることが一例として挙げられる。
 上記課題を解決するために、請求項1に記載の発明は、位置検出のための無線信号の受信状態が基準以下の場合に、所定の方法により推測して得られた自己位置候補群を取得する取得部と、前記自己位置候補ごとに視認可能な目標物を特定する特定部と、前記目標物に関する質問を出力する質問出力部と、前記質問に対する回答に基づいて、前記自己位置候補群から自己位置を推定する推定部と、を備えることを特徴としている。
 請求項9に記載の発明は、位置検出のための無線信号に基づいて自己位置を推定する自己位置推定装置で実行される自己位置推定方法であって、位置検出のための無線信号の受信状態が基準以下の場合に、所定の方法により推測して得られた自己位置候補群を取得する取得工程と、前記自己位置候補ごとに視認可能な目標物を特定する特定工程と、前記目標物に関する質問を出力する質問出力工程と、前記質問に対する回答に基づいて、前記自己位置候補群から自己位置を推定する推定工程と、を含むことを特徴としている。
 請求項10に記載の発明は、請求項9に記載の自己位置推定方法を自己位置推定プログラムとしてコンピュータにより実行させることを特徴としている。
 請求項11に記載の発明は、請求項10に記載の自己位置推定プログラムをコンピュータにより読み取り可能な記憶媒体へ格納したことを特徴としている。
本発明の第1の実施例にかかる自己位置推定装置の概略構成図である。 図1に示された自己位置推定装置の動作のフローチャートである。 自己位置推定装置を搭載する車両が道路上を走行していることを示す図である。 候補地の例を示した説明図である。 図4に示された候補地と優先順位の例を示した表である。 図4にランドマークを追加した説明図である。 図5にランドマーク(POI)を追加した表である。 図7に位置関係を追加した表である。 図8に質問文を追加した表である。 本発明の第2の実施例にかかる自己位置推定装置の動作のフローチャートである。
 以下、本発明の一実施形態にかかる自己位置推定装置を説明する。本発明の一実施形態にかかる自己位置推定装置は、取得部が位置検出のための無線信号の受信状態が基準以下の場合に所定の方法により推測して得られた自己位置候補群を取得し、特定部が自己位置候補ごとに視認可能な目標物を特定する。そして、質問出力部が目標物に関する質問を出力して、推定部が質問に対する回答に基づいて自己位置候補群から自己位置を推定する。このようにすることにより、例えばユーザへ質問することにより、自己位置候補群から自己位置を特定することができ、カメラ等の機器の追加不要で自己位置の推定が可能となる。また、目標物について質問するため、自己位置候補について直接質問するよりもユーザが確認し易くなる。
 また、特定部は、地図情報を取得し、地図情報に基づいて目標物及び当該目標物と自己位置候補との位置関係を特定してもよい。このようにすることにより、自己位置候補と目標物との位置関係を特定した上で質問することが可能となる。
 また、取得部が取得した自己位置候補群に含まれる自己位置候補には優先順位が付されており、質問出力部は、優先順位に従って質問を順次出力してもよい。このようにすることにより、優先順位の高い自己位置候補から順に質問することができ、自己位置の可能性の高い候補地から質問するため、効率良く自己位置を推定することができる。
 また、質問出力部は、ユーザから目標物が特定の方向に見えるか質問してもよい。このようにすることにより、ユーザは “はい”または“いいえ”といった明確な回答をするため、推定部による推定処理を簡略化することができる。
 また、質問出力部は、ユーザに特定の方向に何が見えるか質問してもよい。このようにすることにより、自己位置候補毎の質問を生成する必要が無く、質問内容を1つにすることができる。
 また、推定部は、ユーザの回答に含まれる目標物に基づいて自己位置を推定してもよい。このようにすることにより、ユーザの回答に基づいて自己位置候補群から自己位置を絞ることができる。
 また、目標物は、自己の進行方向の前方又は側方に位置しているものであることが好ましい。このようにすることにより、車両のドライバー等が運転に支障をきたさない範囲で目標物を確認することが可能となる。
 また、目標物は、所定以上の面積又は高さを有する施設であることが好ましい。このようにすることにより、車両のドライバー等から確認し易い施設を目標物とすることが可能となる。
 また、本発明の一実施形態にかかる自己位置推定方法は、取得工程で位置検出のための無線信号の受信状態が基準以下の場合に所定の方法により推測して得られた自己位置候補群を取得し、特定工程で自己位置候補ごとに視認可能な目標物を特定する。そして、質問出力工程で目標物に関する質問を出力して、推定工程で質問に対する回答に基づいて自己位置候補群から自己位置を推定する。このようにすることにより、例えばユーザへ質問することにより、自己位置候補群から自己位置を特定することができ、カメラ等の機器の追加不要で自己位置の推定が可能となる。また、目標物について質問するため、自己位置候補について直接質問するよりもユーザが確認し易くなる。
 また、上述した自己位置推定方法を、自己位置推定プログラムとしてコンピュータにより実行させてもよい。このようにすることにより、例えばユーザへ質問することにより、自己位置候補群から自己位置を特定することができ、カメラ等の機器の追加不要で自己位置の推定が可能となる。また、目標物について質問するため、自己位置候補について直接質問するよりもユーザが確認し易くなる。
 また、上述した自己位置推定プログラムをコンピュータ読み取り可能な記憶媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。
 本発明の第1の実施例にかかる自己位置推定装置を図1~図9を参照して説明する。図1は、本実施例にかかる自己位置推定装置の概略構成図である。
 自己位置推定装置1は、例えばカーナビゲーション装置あるいはその一部であってもよいし、スマートフォンやタブレット端末等の車外に持ち出し可能な機器のアプリやその一部であってもよい。
 自己位置推定装置1は、図1に示したように、データ取得部2と、位置情報制御部3と、地図DB4と、GPS受信判定部5と、自車位置予測部6と、POIDB7と、テキスト生成部8と、音声コンテンツ生成部9と、音声出力部10と、音声入力部11と、音声解析部12と、を備えている。
 データ取得部2は、GPS受信機(不図示)から位置情報等のデータを取得する。また、データ取得部2は、ジャイロセンサや車速センサ、加速度センサ等から検出データ等の各種データを取得する。
 位置情報制御部3は、データ取得部2が取得した位置情報等と、地図DB4から取得した地図情報に基づいて、位置情報から現在走行していると考えられる道路上に現在位置を補正するマップマッチング処理を行う。
 地図DB4は、上述したマップマッチング処理や経路探索等に利用する地図情報が格納されているデータベース(DB)である。地図DB4には、周知のようにリンク情報やノード情報等が含まれている。なお、地図DB4は自己位置推定装置1が備えなくてもよく、通信により外部サーバ等から地図情報を取得するようにしてもよい。
 GPS受信判定部5は、GPS受信機から取得したデータについて十分に受信できているか判定する。この判定は、例えば取得したデータに含まれるDOP(Dilution Of Precision)を参照することにより行うことができる。なお、本実施例では、位置検出のための無線信号としてGPSで説明するが、他のGNSSの信号であってもよく、その場合はDOPに相当する情報を参照して十分に受信できているか判定すればよい。
 自車位置予測部6は、GPS受信判定部5がGPSから取得したデータが十分に取得できないと判定した場合に、自車位置(自己位置)の候補地を取得し、その中で最も正確と思われる候補地を推定する。
 POIDB7は、POI(Point Of Interest)の情報が格納されているデータベース(DB)である。本実施例においてPOIは、地図情報に含まれる店舗や施設を示している。なお、POIDB7は自己位置推定装置1が備えなくてもよく、通信により外部サーバ等からPOI情報を取得するようにしてもよい。
 テキスト生成部8は、自車位置予測部6の制御により、音声出力部10から出力する内容となるテキストデータを生成する。テキスト生成部8は、例えば、後述する質問文を生成する。
 音声コンテンツ生成部9は、テキスト生成部8が生成したテキストを音声情報(音声コンテンツ)に変換する。
 音声出力部10は、音声コンテンツ生成部9が生成した音声情報を音声として出力する。音声出力部10は、例えばスピーカ等で構成されている。
 音声入力部11は、ユーザ等が発した音声が入力される。音声入力部11は、例えばマイク等で構成されている。
 音声解析部12は、音声入力部11から入力された音声を解析する。具体的には、音声入力部11から入力された音声を音声認識して認識されたデータを自車位置予測部6に出力する。
 次に、上述した構成の自己位置推定装置1の動作(自己位置推定方法)を図2を参照して説明する。なお、図2のフローチャートをCPU等を備えたコンピュータで実行されるプログラムとして構成することで自己位置推定プログラムとすることができる。
 まず、GPS受信判定部5において、GPSデータを十分に取得できているか判定する(ステップS101)。即ち、GPS受信判定部5は、位置検出のための無線信号の受信状態が基準以下か判定している。ステップS101において、十分に取得できている場合は(ステップS101;Yes)、フローチャートを終了する。一方、十分に取得できていない場合は(ステップS101;No)、無線信号の受信状態が基準以下であるため、自車位置予測部6は、自車位置の候補地及び優先順位を取得する(ステップS102)。
 候補地は、ジャイロセンサや車速センサ、加速度センサ等のGPS以外のセンサにより推測航法等で推測した地点と、地図情報と、をマッチングした結果に基づいて取得される。候補地は、マッチング結果によっては、複数取得される。例えば、GPS以外のセンサにより推測した地点の近傍に道路が複数ある場合は、それらの道路上に候補が設定されることがある。即ち、自車位置予測部6は、GPS(位置検出のための無線信号)の受信状態が基準以下の場合に、推測航法等により(所定の方法により)推測して得られた複数の候補地(自己位置候補群)を取得する取得部として機能する。
 優先順位は候補地が複数ある場合に付加される情報であり、候補地の確信度等の確からしさを示す指標により定められるものである。具体例としては、GPS以外のセンサにより推測した地点に近い道路上の候補地ほど優先順位を高くするといったことが挙げられる。即ち、取得部が取得した自己位置候補群に含まれる自己位置候補には優先順位が付されている。
 次に、自車位置予測部6は、候補地が複数あるか判定する(ステップS103)。候補地が1つの場合は(ステップS103;No)、自車位置予測部6は、自車位置を候補地へ修正する(ステップS110)。一方、候補地が複数ある場合は(ステップS103;Yes)、自車位置予測部6は、候補地付近のランドマーク(目標物)を探索する(ステップS104)。ランドマークとしては、本実施例では、POIDB7を参照して、ランドマークとして候補地近傍にある施設等を探索する。このとき、地図DB4を参照して候補地からランドマークが見える方向(前方、右側等)も特定する。即ち、自車位置予測部6は、自己位置候補ごとに視認可能な目標物を特定する特定部として機能する。また、自車位置予測部6(特定部)は、地図情報を取得し、地図情報に基づいて目標物及び当該目標物と自己位置候補との位置関係を特定している。
 ランドマークは、車両等の自己の進行方向の前方又は側方に位置しているものであることが好ましい。つまり、ドライバーが運転に支障をきたさない範囲で視認可能なものであることが好ましい。また、ランドマークは、所定以上の面積又は高さを有する施設が好ましい。ある程度の面積や高さがある施設であれば、周囲から目立つためドライバー等が確認し易くなる。
 次に、自車位置予測部6は、テキスト生成部8に質問文を作成させる(ステップS105)。この質問文は、ステップS104で探索したランドマークがどの方向に見えるかを問うものとなる。例えばランドマークが観覧車の場合「右側に観覧車がありますか?」といったものとなる。即ち、ユーザから目標物が特定の方向に見えるか質問している。
 次に、ステップS106~S109は、全ての質問文を処理したらフローチャートを終了するループとなっている。このループ内においては、まず、自車位置予測部6は、ユーザに対してS105で作成した質問文により質問する(ステップS107)。ステップS107では、自車位置予測部6は、優先順位に従って、テキスト生成部8で生成した質問文を音声コンテンツ生成部9により音声情報に変換させて、音声出力部10から出力させる。即ち、音声出力部10は、目標物に関する質問を出力する質問出力部として機能する。また、音声出力部10は、優先順位に従って質問を順次出力している。
 次に、自車位置予測部6は、ステップS107で行った質問に対してユーザが同意しているか判定する(ステップS108)。これは、音声入力部11から入力され、音声解析部12で認識されたデータに基づいて判定する。例えば「はい」「Yes」といった回答であれば同意と見做す。
 ステップS108の判定の結果、同意した場合は(ステップS108;Yes)、ループから抜けて、自車位置予測部6は、同意した候補地へ自車位置を修正する(ステップS110)。即ち、自車位置予測部6は、質問に対する回答に基づいて、自己位置候補群から自己位置を推定する推定部として機能する。
 一方、同意しない場合は(ステップS108;No)、ステップS109、S106と戻り、次の優先順位の候補地について質問をする。
 以上の説明から明らかなように、ステップS102が取得工程、ステップS104が特定工程、ステップS107が質問出力工程として機能する。
 次に、上述した動作の具体例を図3~図9を参照して説明する。まず、図3は、自己位置推定装置1を搭載する車両Vが道路上を走行していることを示す図である。図3において、地点P1は、十分なGPSデータを受信できた最終地点であり、地点P2は、十分なGPSデータを受信できなくなった地点である。この場合、地点P1では、GPSデータを十分に受信できているため図2のステップS102以降は実行されない。地点P2まで走行した時点では、GPSデータを十分に受信できていないため、ステップS102以降が実行される。
 次に、自車位置の候補地を取得した結果、図4に示すように地点A~地点Eまでの複数の候補地が得られたとする。このときの優先順位は、図5に示すように、地点B、地点A、地点D、地点C、地点Eの順であるとする。
 次に、地点A~Eについてランドマークを探索した結果を図6に示す。図6に示したように、ランドマークとして病院L1、学校L2、温泉宿L3が探索された。これらのランドマーク(POI)と候補地との対応を図7に示す。図7に示したように、地点Aは適当なランドマークが見つからなかったとする。
 次に、地点A~Eとランドマークの相対的な位置関係を算出する。地点A~Eとランドマークの相対的な位置関係を図8に示す。この位置関係は、当該地点を走行している場合に対応するランドマークがどの方向に見えるかを示すものである。
 次に、地点(候補地)毎に質問文を生成する。質問文は「(位置関係)に(ランドマーク)がありますか?」としている。ここで、地点Aはランドマークが見つからないため質問文は生成されない。
 そして、優先順位にしたがってユーザに質問を行う。図9の場合は、地点B、地点D、地点C、地点Eの順となる。例えば、地点Bについての質問「左側に温泉宿がありますか?」を行い、ユーザが「はい」と回答した場合は、自車位置を地点Bに修正する。なお、地点Eまで質問しても「はい」との回答が得られなかった場合には、ランドマークが見つからない地点Aに自車位置を修正してもよい。
 また、図2のフローチャート実行中にGPSの受信が回復してGPSデータが十分に取得できるようになった場合は、ステップの途中であってもフローチャートを終了してGPSデータに基づく自己位置に修正してもよい。
 本実施例によれば、自己位置推定装置1は、自車位置予測部6が、GPSデータが十分に取得できていない場合にジャイロセンサ等により得られた複数の候補地を取得し、候補地ごとにランドマークを特定する。そして、音声出力部10がランドマークに関する質問を出力して、自車位置予測部6が質問に対する回答に基づいて複数の候補地から自車位置を推定する。このようにすることにより、例えばユーザへ質問することにより、複数の候補地から自車位置を特定することができ、カメラ等の機器の追加不要で自車位置の推定が可能となる。また、ランドマークについて質問するため、候補地について直接質問するよりもユーザが確認し易くなる。
 また、自車位置予測部6は、地図情報を取得し、地図情報に基づいてランドマーク及び当該ランドマークと候補地との位置関係を特定している。このようにすることにより、候補地とランドマークとの位置関係を特定した上で質問することが可能となる。
 また、自車位置予測部6が取得した複数の候補地には優先順位が付されており、音声出力部10からは、優先順位に従って質問が順次出力されている。このようにすることにより、優先順位の高い候補地から順に質問することができ、自車位置の可能性の高い候補地から質問するため、効率良く自車位置を推定することができる。
 また、音声出力部からは、「(位置関係)に(ランドマーク)がありますか?」といった形式で質問している。このようにすることにより、ユーザは “はい”または“いいえ”といった明確な回答をするため、自車位置予測部6による推定処理を簡略化することができる。
 次に、本発明の第2の実施例にかかる自己位置推定装置を図10を参照して説明する。なお、前述した第1の実施例と同一部分には、同一符号を付して説明を省略する。
 第1の実施例では、ユーザに対して「(位置関係)に(ランドマーク)がありますか?」といった形式で質問していたが、本実施例は、ユーザに対して「(所定の方向)に何がありますか?」といった形式で質問する。即ち、ユーザに特定の方向に何が見えるか質問する。本実施例にかかる自己位置推定装置1の動作(自己位置推定方法)を図10を参照して説明する。図10のフローチャートにおいて、ステップS101~S103は図2と同様である。
 ステップS103がYesの場合には、自車位置予測部6は、ユーザに対して質問をする(ステップS204)。つまり、自車位置予測部6は、音声出力部10に質問文を出力させる。ステップS204における質問文は、上述したように「(位置関係)に何がありますか?」といった形式となる。例えば「前方に何がありますか?」といった質問文となる。
 次に、自車位置予測部6は、ステップS204で行った質問に対する回答結果が示すランドマーク付近に候補地があるか判定する(ステップS205)。例えばランドマークと候補地との位置関係が図6及び図8の関係だった場合に、「前方に何がありますか?」との質問に対して「病院」との回答があったとすると、前方に病院が見える候補地である地点Bが探索されているので、地点Bを自車位置と推測することができる。
 質問に対する回答結果が示すランドマーク付近に候補地がある場合は(ステップS205;Yes)、自車位置予測部6は、自車位置を候補地へ修正する(ステップS206)。例えば上記した病院と回答した例の場合は地点Bに自車位置を修正する。即ち、自車位置予測部6(推定部)は、ユーザの回答に含まれる目標物に基づいて自己位置を推定している。
 一方、質問に対する回答結果が示すランドマーク付近に候補地がない場合は(ステップS205;No)、自車位置予測部6は、優先順位の最も高い候補地を自車位置に修正する。この場合、ユーザが回答したランドマーク(施設)付近に候補地が無いため、回答されたランドマークに基づく自車位置が特定できない。そこで、優先順位に基づいて自車位置を修正している。
 なお、質問に対する回答結果が示すランドマーク付近に候補地がない場合は、位置関係を変更して再度質問してもよい。例えば前方に何があるか質問した結果ランドマーク付近に候補地がない場合は、次に右側に何があるか質問してもよい。
 本実施例によれば、音声出力部10は、ユーザに特定の方向に何が見えるか質問している。このようにすることにより、複数の候補地毎に質問を生成する必要が無く、質問内容を1つにすることができる。
 また、自車位置予測部6は、ユーザの回答に含まれるランドマークに基づいて自己位置を推定している。このようにすることにより、ユーザの回答に基づいて複数の候補地から自車位置を絞ることができる。
 なお、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の自己位置推定装置を具備する限り、勿論、本発明の範疇に含まれるものである。
  1   自己位置推定装置
  2   データ取得部(取得部)
  5   GPS受信判定部
  6   自車位置予測部(特定部、推定部)
  10  音声出力部(質問出力部)

Claims (11)

  1.  位置検出のための無線信号の受信状態が基準以下の場合に、所定の方法により推測して得られた自己位置候補群を取得する取得部と、
     前記自己位置候補ごとに視認可能な目標物を特定する特定部と、
     前記目標物に関する質問を出力する質問出力部と、
     前記質問に対する回答に基づいて、前記自己位置候補群から自己位置を推定する推定部と、
    を備えることを特徴とする自己位置推定装置。
  2.  前記特定部は、地図情報を取得し、前記地図情報に基づいて前記目標物及び当該目標物と前記自己位置候補との位置関係を特定することを特徴とする請求項1に記載の自己位置推定装置。
  3.  前記取得部が取得した前記自己位置候補群に含まれる前記自己位置候補には優先順位が付されており、
     前記質問出力部は、前記優先順位に従って前記質問を順次出力する、
    ことを特徴とする請求項1または2に記載の自己位置推定装置。
  4.  前記質問出力部は、ユーザから前記目標物が特定の方向に見えるか質問することを特徴とする請求項3に記載の自己位置推定装置。
  5.  前記質問出力部は、ユーザに特定の方向に何が見えるか質問することを特徴とする請求項1または2に記載の自己位置推定装置。
  6.  前記推定部は、前記ユーザの回答に含まれる前記目標物に基づいて自己位置を推定することを特徴とする請求項5に記載の自己位置推定装置。
  7.  前記目標物は、自己の進行方向の前方又は側方に位置しているものであることを特徴とする請求項1から6のうちいずれか一項に記載の自己位置推定装置。
  8.  前記目標物は、所定以上の面積又は高さを有する施設であることを特徴とする請求項1から7のうちいずれか一項に記載の自己位置推定装置。
  9.  位置検出のための無線信号に基づいて自己位置を推定する自己位置推定装置で実行される自己位置推定方法であって、
     位置検出のための無線信号の受信状態が基準以下の場合に、所定の方法により推測して得られた自己位置候補群を取得する取得工程と、
     前記自己位置候補ごとに視認可能な目標物を特定する特定工程と、
     前記目標物に関する質問を出力する質問出力工程と、
     前記質問に対する回答に基づいて、前記自己位置候補群から自己位置を推定する推定工程と、
    を含むことを特徴とする自己位置推定方法。
  10.  請求項9に記載の自己位置推定方法をコンピュータにより実行させることを特徴とする自己位置推定プログラム。
  11.  請求項10に記載の自己位置推定プログラムを格納したことを特徴とするコンピュータにより読み取り可能な記憶媒体。
PCT/JP2022/008410 2021-03-12 2022-02-28 自己位置推定装置 WO2022190941A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021040455 2021-03-12
JP2021-040455 2021-03-12

Publications (1)

Publication Number Publication Date
WO2022190941A1 true WO2022190941A1 (ja) 2022-09-15

Family

ID=83226597

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/008410 WO2022190941A1 (ja) 2021-03-12 2022-02-28 自己位置推定装置

Country Status (1)

Country Link
WO (1) WO2022190941A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09319991A (ja) * 1996-05-28 1997-12-12 Nec Corp 音声による携帯電話のナビゲーションシステム
WO2004011881A1 (ja) * 2002-07-25 2004-02-05 Fujitsu Limited 移動体の位置推定装置、位置推定方法および位置推定プログラム
JP2013195377A (ja) * 2012-03-22 2013-09-30 Zenrin Datacom Co Ltd ナビゲーション装置、ナビゲーション方法、およびプログラム
JP2015010831A (ja) * 2013-06-26 2015-01-19 富士通株式会社 端末装置、経路案内方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09319991A (ja) * 1996-05-28 1997-12-12 Nec Corp 音声による携帯電話のナビゲーションシステム
WO2004011881A1 (ja) * 2002-07-25 2004-02-05 Fujitsu Limited 移動体の位置推定装置、位置推定方法および位置推定プログラム
JP2013195377A (ja) * 2012-03-22 2013-09-30 Zenrin Datacom Co Ltd ナビゲーション装置、ナビゲーション方法、およびプログラム
JP2015010831A (ja) * 2013-06-26 2015-01-19 富士通株式会社 端末装置、経路案内方法及びプログラム

Similar Documents

Publication Publication Date Title
JP4661439B2 (ja) 車両用ナビゲーション装置及び道路地図配信システム
KR100713459B1 (ko) 네비게이션 시스템 및 네비게이션 시스템에서 이동체의경로 이탈 판단 방법
US20080021638A1 (en) Navigation system
KR100526571B1 (ko) 오프-보드 네비게이션 시스템 및 그의 오차 보정 방법
JP4835413B2 (ja) 車両用ナビゲーション装置
GB2402482A (en) Vehicle navigation apparatus
JP2007057468A (ja) ナビゲーション装置、および旅行時間補正方法
JP2007218848A (ja) 移動体用位置情報取得装置
JP6605138B2 (ja) 情報処理装置および走行制御システム
US8024117B2 (en) Map display apparatus for vehicle
JP4848931B2 (ja) 角速度センサの信号補正装置
US7428461B2 (en) Walker navigation device, walker navigation method, and program
JP2007033209A (ja) ナビゲーション装置
WO2022190941A1 (ja) 自己位置推定装置
KR20050050361A (ko) 사용자 선호 구간을 고려한 경로 안내를 위한 네비게이션시스템 및 방법
JP2002310690A (ja) ナビゲーションシステムにおける位置精度向上方法
JP4093135B2 (ja) カーナビゲーション装置
JP2005257305A (ja) 車両用情報提示装置
JP2006337213A (ja) マッチング用ネットワークデータおよびマッチング用ネットワークデータの作成方法、ならびに、マッチング用ネットワークデータを有するナビゲーションシステム、経路探索サーバおよびナビゲーション端末装置
JP2016148607A (ja) 位置照合装置、位置照合方法及びプログラム
US6694257B1 (en) Method for displaying guide for vehicle-mounted navigator
JP2019095279A (ja) 車両位置特定システムおよび車両位置特定プログラム
JP2004138538A (ja) ナビゲーション装置及びナビゲーションシステム
JPH06222125A (ja) 車載用ナビゲーション装置
JPH08327386A (ja) ナビゲーション装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22766900

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22766900

Country of ref document: EP

Kind code of ref document: A1