JP2012154669A - On-vehicle device and bias learning method thereof - Google Patents

On-vehicle device and bias learning method thereof Download PDF

Info

Publication number
JP2012154669A
JP2012154669A JP2011011845A JP2011011845A JP2012154669A JP 2012154669 A JP2012154669 A JP 2012154669A JP 2011011845 A JP2011011845 A JP 2011011845A JP 2011011845 A JP2011011845 A JP 2011011845A JP 2012154669 A JP2012154669 A JP 2012154669A
Authority
JP
Japan
Prior art keywords
vehicle
stop
rotation
camera
bias learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011011845A
Other languages
Japanese (ja)
Inventor
Hiroyuki Ueda
浩之 宇江田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2011011845A priority Critical patent/JP2012154669A/en
Publication of JP2012154669A publication Critical patent/JP2012154669A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology to correctly execute a bias learning processing for solving the problem of the conventional on-vehicle devices which execute a bias learning processing at a timing when a vehicle has stopped running for getting rid of an error from a rotation angle detected by a gyro sensor, and in which if wheels are not rotating it is determined in many cases that the vehicle is at rest, the problem being that in such a conventional technology a wrong bias learning processing could be executed under a situation where a vehicle is moving while rotation of its wheels has stopped, such as a situation where a vehicle is at rest on a rotating turntable.SOLUTION: An on-vehicle device of the present invention detects stopping of running of a vehicle, and when it detects the stopping of the running of the vehicle, it estimates whether the vehicle is moving or not, and if it estimates that the vehicle is not moving, it executes a bias learning of a rotation detecting device.

Description

本発明は、車載装置の技術に関するものである。   The present invention relates to a technology of an in-vehicle device.

従来、ナビゲーション装置等の車載装置では、ジャイロセンサにより車両の回転角度を検出して、現在地の推定や車両の向きの推定を行う技術が用いられている。特許文献1には、このようなナビゲーション装置についての技術が記載されている。   2. Description of the Related Art Conventionally, in-vehicle devices such as navigation devices use a technique for detecting the rotation angle of a vehicle by a gyro sensor and estimating the current location and the vehicle direction. Patent Document 1 describes a technique regarding such a navigation device.

特開2009−2826号公報JP 2009-2826 A

上記のようなナビゲーション装置では、ジャイロセンサで検出する回転角度から誤差を除去するために、車両が走行を停止したタイミングでバイアス学習処理を実施する必要がある。ここで、車両が走行しているか停止しているかの判定は、車輪が回転しているか否かにより判定することが多い。かかる技術では、車輪の回転が停止した状況であっても、車両が移動している状況、例えば回転するターンテーブル上で車両が静止している状況や、車輪の回転の検知漏れが起きた状況等において、誤ったバイアス学習処理を行ってしまう場合がある。   In the navigation device as described above, in order to remove an error from the rotation angle detected by the gyro sensor, it is necessary to perform the bias learning process at the timing when the vehicle stops traveling. Here, it is often determined whether the vehicle is running or stopped depending on whether the wheels are rotating. In such a technique, even if the rotation of the wheel is stopped, the situation where the vehicle is moving, for example, the situation where the vehicle is stationary on the rotating turntable, or the situation where the detection of detection of the rotation of the wheel occurs. In such a case, an erroneous bias learning process may be performed.

本発明の目的は、簡易な方法でより正確にバイアス学習処理を行う技術を提供することにある。   An object of the present invention is to provide a technique for performing bias learning processing more accurately by a simple method.

上記課題を解決すべく、本発明に係る車載装置は、回転検出装置を備える車載装置であって、車両の走行の停止を検知する停止検知手段と、前記停止検知手段により車両の走行の停止を検知すると、車両が移動しているか否かを推定する車両移動推定手段と、前記車両移動推定手段により車両が移動していないと推定した場合に、前記回転検出装置のバイアス学習を行うバイアス学習手段と、を備えることを特徴とする。   In order to solve the above problems, an in-vehicle device according to the present invention is an in-vehicle device provided with a rotation detection device, and includes a stop detection unit that detects a stop of travel of the vehicle, and a stop of the travel of the vehicle by the stop detection unit. When detected, vehicle movement estimation means for estimating whether or not the vehicle is moving, and bias learning means for performing bias learning of the rotation detection device when the vehicle movement estimation means estimates that the vehicle is not moving And.

また、本発明のバイアス学習方法は、車載装置が、回転検出装置を備え、車両の走行の停止を検知する停止検知ステップと、前記停止検知ステップにおいて車両の走行の停止を検知すると、車両が移動しているか否かを推定する車両移動推定ステップと、前記車両移動推定ステップにより車両が移動していないと推定した場合に、前記回転検出装置のバイアス学習を行うバイアス学習ステップと、を実施する、ことを特徴とする。   According to the bias learning method of the present invention, the in-vehicle device includes a rotation detection device, and when the stop detection step for detecting the stop of the travel of the vehicle and the stop of the travel of the vehicle in the stop detection step are detected, the vehicle moves. Performing a vehicle movement estimation step for estimating whether or not the vehicle is moving, and a bias learning step for performing bias learning of the rotation detection device when the vehicle movement estimation step estimates that the vehicle is not moving. It is characterized by that.

図1は、ナビゲーション装置の概略構成図である。FIG. 1 is a schematic configuration diagram of a navigation device. 図2は、リンクテーブルの構成を示す図である。FIG. 2 is a diagram illustrating the configuration of the link table. 図3は、カメラの搭載位置を示す図である。FIG. 3 is a diagram showing the mounting position of the camera. 図4は、撮影画像を地上面に投影する様子を示す図である。FIG. 4 is a diagram illustrating a state in which a captured image is projected onto the ground surface. 図5は、演算処理部の機能構成図である。FIG. 5 is a functional configuration diagram of the arithmetic processing unit. 図6は、バイアス学習処理のフロー図である。FIG. 6 is a flowchart of the bias learning process. 図7は、第二の実施形態におけるナビゲーション装置の概略構成図である。FIG. 7 is a schematic configuration diagram of a navigation device according to the second embodiment. 図8は、第二の実施形態におけるバイアス学習処理のフロー図である。FIG. 8 is a flowchart of the bias learning process in the second embodiment. 図9は、第三の実施形態におけるバイアス学習処理のフロー図である。FIG. 9 is a flowchart of the bias learning process in the third embodiment. 図10は、第四の実施形態におけるバイアス学習処理のフロー図である。FIG. 10 is a flowchart of bias learning processing in the fourth embodiment. 図11は、第五の実施形態におけるバイアス学習処理のフロー図である。FIG. 11 is a flowchart of bias learning processing in the fifth embodiment. 図12は、第五の実施形態におけるSFMの仕組みを示す図である。FIG. 12 is a diagram showing the mechanism of SFM in the fifth embodiment.

以下に、本発明の第一の実施形態を適用した車載装置であるナビゲーション装置100について、図面を参照して説明する。   Hereinafter, a navigation device 100 that is an in-vehicle device to which a first embodiment of the present invention is applied will be described with reference to the drawings.

図1に、ナビゲーション装置100の構成図を示す。   FIG. 1 shows a configuration diagram of the navigation device 100.

ナビゲーション装置100は、演算処理部1と、ディスプレイ2と、記憶装置3と、音声入出力装置4(音声入力装置としてマイクロフォン41、音声出力装置としてスピーカ42を備える)と、入力装置5と、ROM装置6と、車速センサ7と、ジャイロセンサ8と、GPS(Global Positioning System)受信装置9と、FM多重放送受信装置10と、ビーコン受信装置11と、カメラ12と、を備えている。   The navigation device 100 includes an arithmetic processing unit 1, a display 2, a storage device 3, a voice input / output device 4 (including a microphone 41 as a voice input device and a speaker 42 as a voice output device), an input device 5, and a ROM. The apparatus 6 includes a vehicle speed sensor 7, a gyro sensor 8, a GPS (Global Positioning System) receiver 9, an FM multiplex broadcast receiver 10, a beacon receiver 11, and a camera 12.

演算処理部1は、様々な処理を行う中心的ユニットである。例えば各種センサ7,8やGPS受信装置9、FM多重放送受信装置10等から出力される情報を基にして現在地を検出する。また、得られた現在地情報に基づいて、表示に必要な地図データを記憶装置3あるいはROM装置6から読み出す。   The arithmetic processing unit 1 is a central unit that performs various processes. For example, the present location is detected based on information output from various sensors 7 and 8, the GPS receiver 9, the FM multiplex broadcast receiver 10, and the like. Further, map data necessary for display is read from the storage device 3 or the ROM device 6 based on the obtained current location information.

また、演算処理部1は、読み出した地図データをグラフィックス展開し、そこに現在地を示すマークを重ねてディスプレイ2へ表示する。また、記憶装置3あるいはROM装置6に記憶されている地図データ等を用いて、ユーザから指示された出発地(現在地)と目的地(または、経由地や立ち寄り地)とを結ぶ最適な経路(推奨経路)を探索する。また、スピーカ42やディスプレイ2を用いてユーザを誘導する。   The arithmetic processing unit 1 develops the read map data in graphics, and displays a mark indicating the current location on the display 2 in a superimposed manner. In addition, an optimal route (or a route or stopover) that connects the departure location (current location) instructed by the user with the map data stored in the storage device 3 or the ROM device 6 or the like is used. Search for the recommended route. Further, the user is guided using the speaker 42 and the display 2.

また、演算処理部1は、ジャイロセンサ8のバイアス学習処理を行う。例えば、ジャイロセンサ8のバイアス補正の学習用のベクトル情報等を生成し、生成したベクトル情報を、バイアスを補正する情報として用いて、バイアス学習処理を行う。   The arithmetic processing unit 1 performs a bias learning process for the gyro sensor 8. For example, bias learning processing is performed by generating vector information for learning bias correction of the gyro sensor 8 and using the generated vector information as information for correcting the bias.

ナビゲーション装置100の演算処理部1は、各デバイス間をバス25で接続した構成である。演算処理部1は、数値演算及び各デバイスを制御するといった様々な処理を実行するCPU(Central Processing Unit)21と、記憶装置3から読み出した地図データ、演算データなどを格納するRAM(Random Access Memory)22と、プログラムやデータを格納するROM(Read Only Memory)23と、各種ハードウェアを演算処理部1と接続するためのI/F(インターフェイス)24と、を有する。   The arithmetic processing unit 1 of the navigation device 100 has a configuration in which each device is connected by a bus 25. The arithmetic processing unit 1 includes a CPU (Central Processing Unit) 21 that executes various processes such as numerical calculation and control of each device, and a RAM (Random Access Memory) that stores map data, arithmetic data, and the like read from the storage device 3. ) 22, a ROM (Read Only Memory) 23 for storing programs and data, and an I / F (interface) 24 for connecting various types of hardware to the arithmetic processing unit 1.

ディスプレイ2は、演算処理部1等で生成されたグラフィックス情報を表示するユニットである。ディスプレイ2は、液晶ディスプレイ、有機ELディスプレイなどで構成される。   The display 2 is a unit that displays graphics information generated by the arithmetic processing unit 1 or the like. The display 2 is configured by a liquid crystal display, an organic EL display, or the like.

記憶装置3は、HDD(Hard Disk Drive)や不揮発性メモリカードといった、少なくとも読み書きが可能な記憶媒体で構成される。   The storage device 3 is composed of at least a readable / writable storage medium such as an HDD (Hard Disk Drive) or a nonvolatile memory card.

この記憶媒体には、通常の経路探索装置に必要な地図データ(地図上の道路を構成するリンクのリンクデータを含む)であるリンクテーブル200が記憶されている。   This storage medium stores a link table 200 that is map data (including link data of links constituting roads on a map) necessary for a normal route search device.

図2は、リンクテーブル200の構成を示す図である。リンクテーブル200は、地図上の区画された領域であるメッシュの識別コード(メッシュID)201ごとに、そのメッシュ領域に含まれる道路を構成する各リンクのリンクデータ202を含んでいる。   FIG. 2 is a diagram showing the configuration of the link table 200. The link table 200 includes, for each mesh identification code (mesh ID) 201, which is a partitioned area on the map, link data 202 of each link constituting a road included in the mesh area.

リンクデータ202は、リンクの識別子であるリンクID211ごとに、リンクを構成する2つのノード(開始ノード、終了ノード)の座標情報222、リンクを含む道路の種別を示す道路種別223、リンクの長さを示すリンク長224、予め記憶されたリンク旅行時間225、当該リンクの開始ノードに接続するリンクである開始接続リンクと、当該リンクの終了ノードに接続するリンクである終了接続リンクと、を特定する開始接続リンク、終了接続リンク226、リンクを含む道路の制限速度を示す制限速度227、などを含んでいる。   For each link ID 211 that is a link identifier, the link data 202 includes coordinate information 222 of two nodes (start node and end node) constituting the link, a road type 223 indicating the type of road including the link, and a link length. Link length 224 indicating the link travel time 225 stored in advance, a start connection link that is a link connected to the start node of the link, and an end connection link that is a link connected to the end node of the link A start connection link, an end connection link 226, a speed limit 227 indicating a speed limit of a road including the link, and the like are included.

なお、ここでは、リンクを構成する2つのノードについて開始ノードと終了ノードとを区別することで、同じ道路の上り方向と下り方向とを、それぞれ別のリンクとして管理するようにしている。   Here, by distinguishing the start node and the end node for the two nodes constituting the link, the upward direction and the downward direction of the same road are managed as different links.

図1に戻って説明する。音声入出力装置4は、音声入力装置としてマイクロフォン41と、音声出力装置としてスピーカ42と、を備える。マイクロフォン41は、使用者やその他の搭乗者が発した声などのナビゲーション装置100の外部の音声を取得する。   Returning to FIG. The voice input / output device 4 includes a microphone 41 as a voice input device and a speaker 42 as a voice output device. The microphone 41 acquires sound outside the navigation device 100 such as a voice uttered by a user or another passenger.

スピーカ42は、演算処理部1で生成された使用者へのメッセージを音声信号として出力する。マイクロフォン41とスピーカ42は、車両の所定の部位に、別個に配されている。ただし、一体の筐体に収納されていても良い。ナビゲーション装置100は、マイクロフォン41及びスピーカ42を、それぞれ複数備えることができる。   The speaker 42 outputs a message to the user generated by the arithmetic processing unit 1 as an audio signal. The microphone 41 and the speaker 42 are separately arranged at a predetermined part of the vehicle. However, it may be housed in an integral housing. The navigation device 100 can include a plurality of microphones 41 and speakers 42.

入力装置5は、使用者からの指示を使用者による操作を介して受け付ける装置である。入力装置5は、タッチパネル51と、ダイヤルスイッチ52と、その他のハードスイッチ(図示しない)であるスクロールキー、縮尺変更キーなどで構成される。   The input device 5 is a device that receives an instruction from the user through an operation by the user. The input device 5 includes a touch panel 51, a dial switch 52, and other hardware switches (not shown) such as scroll keys and scale change keys.

タッチパネル51は、ディスプレイ2の表示面側に搭載され、表示画面を透視可能である。タッチパネル51は、ディスプレイ2に表示された画像のXY座標と対応したタッチ位置を特定し、タッチ位置を座標に変換して出力する。タッチパネル51は、感圧式または静電式の入力検出素子などにより構成される。   The touch panel 51 is mounted on the display surface side of the display 2 and can see through the display screen. The touch panel 51 specifies a touch position corresponding to the XY coordinates of the image displayed on the display 2, converts the touch position into coordinates, and outputs the coordinate. The touch panel 51 includes a pressure-sensitive or electrostatic input detection element.

ダイヤルスイッチ52は、時計回り及び反時計回りに回転可能に構成され、所定の角度の回転ごとにパルス信号を発生し、演算処理部1に出力する。演算処理部1では、パルス信号の数から、回転角度を求める。   The dial switch 52 is configured to be rotatable clockwise and counterclockwise, generates a pulse signal for every rotation of a predetermined angle, and outputs the pulse signal to the arithmetic processing unit 1. The arithmetic processing unit 1 obtains the rotation angle from the number of pulse signals.

ROM装置6は、CD-ROMやDVD-ROM等のROM(Read Only Memory)や、IC(Integrated Circuit)カードといった、少なくとも読み取りが可能な記憶媒体で構成されている。この記憶媒体には、例えば、動画データや、音声データなどが記憶されている。   The ROM device 6 includes at least a readable storage medium such as a ROM (Read Only Memory) such as a CD-ROM or a DVD-ROM, or an IC (Integrated Circuit) card. In this storage medium, for example, moving image data, audio data, and the like are stored.

車速センサ7,ジャイロセンサ8およびGPS受信装置9は、ナビゲーション装置100で現在地(自車位置)を検出するために使用されるものである。   The vehicle speed sensor 7, the gyro sensor 8, and the GPS receiver 9 are used by the navigation device 100 to detect the current location (own vehicle position).

車速センサ7は、車速を算出するのに用いる値を出力するセンサである。   The vehicle speed sensor 7 is a sensor that outputs a value used to calculate the vehicle speed.

ジャイロセンサ8は、光ファイバジャイロや振動ジャイロ等で構成され、移動体の回転による角速度を検出するものである。   The gyro sensor 8 is composed of an optical fiber gyro, a vibration gyro, or the like, and detects an angular velocity due to the rotation of the moving body.

GPS受信装置9は、GPS衛星からの信号を受信し移動体とGPS衛星間の距離と距離の変化率とを3個以上の衛星に対して測定することで移動体の現在地、進行速度および進行方位を測定するものである。   The GPS receiver 9 receives a signal from a GPS satellite and measures the distance between the mobile body and the GPS satellite and the rate of change of the distance with respect to three or more satellites to thereby determine the current location, travel speed, and travel of the mobile body It measures the direction.

FM多重放送受信装置10は、FM多重放送局から送られてくるFM多重放送信号を受信する。FM多重放送には、VICS(Vehicle Information Communication System:登録商標)情報の概略現況交通情報、規制情報、SA/PA(サービスエリア/パーキングエリア)情報、駐車場情報、天気情報などやFM多重一般情報としてラジオ局が提供する文字情報などがある。   The FM multiplex broadcast receiver 10 receives an FM multiplex broadcast signal transmitted from an FM multiplex broadcast station. FM multiplex broadcasting includes VICS (Vehicle Information Communication System: Registered Trademark) information, current traffic information, regulatory information, SA / PA (service area / parking area) information, parking information, weather information, and FM multiplex general information. As text information provided by radio stations.

ビーコン受信装置11は、VICS情報などの概略現況交通情報、規制情報、SA/PA(サービスエリア/パーキングエリア)情報、駐車場情報、天気情報や緊急警報などを受信する。例えば、光により通信する光ビーコン、電波により通信する電波ビーコン等の受信装置である。   The beacon receiving device 11 receives rough current traffic information such as VICS information, regulation information, SA / PA (service area / parking area) information, parking lot information, weather information, emergency alerts, and the like. For example, it is a receiving device such as an optical beacon that communicates by light and a radio beacon that communicates by radio waves.

カメラ12は、図3に示すように、車両300の前方にやや下を向いて、路面を撮影できるように取り付けられる。カメラ12は、車両の前方の地上面をCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を用いて撮影する。また、カメラ12は、撮影した映像を、演算処理部1に受け渡す。   As shown in FIG. 3, the camera 12 is attached so as to be able to take a picture of the road surface facing slightly downward in front of the vehicle 300. The camera 12 photographs the ground surface in front of the vehicle using an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. In addition, the camera 12 delivers the captured video to the arithmetic processing unit 1.

図4は、図3のカメラ12にて撮影した映像を用いた地上投影画像の生成方法を説明するための図である。主制御部101は、カメラ12の視点Pの位置(車両内の所定位置を原点とする三次元空間における座標位置)と撮影方向(視線方向)Kを求める。そして、主制御部101は、撮影画像510を、カメラ12の視点Pの位置から撮影方向Kに向けて、地上面520に投影し、地上投影画像530を生成する。なお、撮影方向Kは、撮影画像510の中心と垂直に交わる。また、カメラ12の視点Pから撮影画像510までの距離は、予め定められている。こうして生成される地上投影画像530は、車両の上空から車両周辺を鳥瞰したような画像となる。   FIG. 4 is a diagram for explaining a method of generating a ground projection image using a video photographed by the camera 12 of FIG. The main control unit 101 obtains the position of the viewpoint P of the camera 12 (coordinate position in a three-dimensional space with a predetermined position in the vehicle as the origin) and the shooting direction (gaze direction) K. Then, the main control unit 101 projects the captured image 510 on the ground surface 520 from the position of the viewpoint P of the camera 12 in the imaging direction K, and generates a ground projection image 530. Note that the shooting direction K intersects the center of the shot image 510 perpendicularly. Further, the distance from the viewpoint P of the camera 12 to the captured image 510 is determined in advance. The ground projection image 530 generated in this way is an image that looks like a bird's-eye view of the vehicle periphery from above the vehicle.

図5は、演算処理部1の機能ブロック図である。図示するように、演算処理部1は、主制御部101と、入力受付部102と、出力処理部103と、停止判定部104と、バイアス学習処理部105と、計時部106と、を有する。   FIG. 5 is a functional block diagram of the arithmetic processing unit 1. As illustrated, the arithmetic processing unit 1 includes a main control unit 101, an input receiving unit 102, an output processing unit 103, a stop determination unit 104, a bias learning processing unit 105, and a timer unit 106.

主制御部101は、様々な処理を行う中心的な機能部であり、処理内容に応じて、他の処理部を制御する。また、各種センサ、GPS受信装置9等の情報を取得し、マップマッチング処理等を行って現在地を特定する。また、随時、走行した日付および時刻と、位置と、を対応付けて、リンクごとに走行履歴を記憶装置3に記憶する。さらに、各処理部からの要求に応じて、現在時刻を出力する。また、ユーザから指示された出発地(現在地)と目的地とを結ぶ最適な経路(推奨経路)を探索し、推奨経路から逸脱しないよう、スピーカ42やディスプレイ2を用いてユーザを誘導する。   The main control unit 101 is a central functional unit that performs various processes, and controls other processing units according to the processing content. In addition, information on various sensors, the GPS receiver 9 and the like is acquired, and a map matching process is performed to identify the current location. In addition, the travel history is stored in the storage device 3 for each link by associating the travel date and time with the position as needed. Further, the current time is output in response to a request from each processing unit. Further, an optimum route (recommended route) connecting the starting point (current location) and the destination instructed by the user is searched, and the user is guided using the speaker 42 and the display 2 so as not to deviate from the recommended route.

入力受付部102は、入力装置5またはマイクロフォン41を介して入力された使用者からの指示を受け付け、その要求内容に対応する処理を実行するように演算処理部1の各部を制御する。例えば、使用者が推奨経路の探索を要求したときは、目的地を設定するため、地図をディスプレイ2に表示する処理を出力処理部103に要求する。   The input receiving unit 102 receives an instruction from the user input via the input device 5 or the microphone 41, and controls each unit of the arithmetic processing unit 1 so as to execute processing corresponding to the requested content. For example, when the user requests a search for a recommended route, the output processing unit 103 is requested to display a map on the display 2 in order to set a destination.

出力処理部103は、表示させる画面情報を受け取り、ディスプレイ2に描画するための信号に変換してディスプレイ2に対して描画する指示を行う。   The output processing unit 103 receives screen information to be displayed, converts it into a signal for drawing on the display 2, and instructs the display 2 to draw.

停止判定部104は、車速センサ7からの車速パルス情報または主制御部101を介して得たハンドブレーキの状態を示す情報等を受け付けて、車両が走行を停止しているか否かを判定する。具体的には、例えば、停止判定部104は、一定期間(例えば3秒間)、車速パルス情報の発生を検知しない場合に、車両が停止していると判定する。または、停止判定部104は、ハンドブレーキがかけられたことを検知すると、車両が停止していると判定する。あるいは、停止判定部104は、カメラ12により撮影した複数の連続画像に含まれる物体の特徴点の位置が変化しない場合に、車両が停止していると判定する。   The stop determination unit 104 receives vehicle speed pulse information from the vehicle speed sensor 7 or information indicating the state of the handbrake obtained via the main control unit 101, and determines whether or not the vehicle has stopped traveling. Specifically, for example, the stop determination unit 104 determines that the vehicle is stopped when the generation of vehicle speed pulse information is not detected for a certain period (for example, 3 seconds). Alternatively, the stop determination unit 104 determines that the vehicle is stopped when detecting that the hand brake is applied. Alternatively, the stop determination unit 104 determines that the vehicle is stopped when the position of the feature point of the object included in the plurality of continuous images captured by the camera 12 does not change.

バイアス学習処理部105は、車両が停止している場合に、ジャイロセンサ8のバイアスを学習(設定)する処理を行う。   The bias learning processing unit 105 performs processing for learning (setting) the bias of the gyro sensor 8 when the vehicle is stopped.

計時部106は、計時開始を指示された時刻から、計時の停止を指示される時刻までの時間の経過を計測する。なお、計時部106は、時間の経過を計測しつつ、要求に応じて経過した時間を特定する情報を応答する。   The time measuring unit 106 measures the passage of time from the time when the time measurement is instructed to the time when the time measurement is instructed. The time measuring unit 106 responds with information specifying the elapsed time in response to the request while measuring the passage of time.

上記した演算処理部1の各機能部、すなわち主制御部101、入力受付部102、出力処理部103、停止判定部104、バイアス学習処理部105、計時部106は、CPU21が所定のプログラムを読み込み実行することにより構築される。そのため、RAM22には、各機能部の処理を実現するためのプログラムが記憶されている。   The functional units of the arithmetic processing unit 1 described above, that is, the main control unit 101, the input reception unit 102, the output processing unit 103, the stop determination unit 104, the bias learning processing unit 105, and the time measuring unit 106, the CPU 21 reads a predetermined program. Constructed by executing. Therefore, the RAM 22 stores a program for realizing the processing of each functional unit.

なお、上記した各構成要素は、ナビゲーション装置100の構成を、理解を容易にするために、主な処理内容に応じて分類したものである。そのため、構成要素の分類の仕方やその名称によって、本願発明が制限されることはない。ナビゲーション装置100の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。   In addition, each above-mentioned component is classified according to the main processing content, in order to make an understanding easy the structure of the navigation apparatus 100. FIG. Therefore, the present invention is not limited by the way of classifying the components and their names. The configuration of the navigation device 100 can be classified into more components depending on the processing content. Moreover, it can also classify | categorize so that one component may perform more processes.

また、各機能部は、ハードウェア(ASIC、GPUなど)により構築されてもよい。また、各機能部の処理が一つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。   Each functional unit may be constructed by hardware (ASIC, GPU, etc.). Further, the processing of each functional unit may be executed by one hardware or may be executed by a plurality of hardware.

[動作の説明]
次に、ナビゲーション装置100の動作について説明する。
[Description of operation]
Next, the operation of the navigation device 100 will be described.

図6は、車両が停止した場合にジャイロセンサのバイアス学習を実施するバイアス学習処理のフロー図である。このフローは、ナビゲーション装置100が稼働している状態において、所定の間隔(例えば3秒間隔)で定期的に開始される。   FIG. 6 is a flowchart of bias learning processing for performing bias learning of the gyro sensor when the vehicle stops. This flow is periodically started at a predetermined interval (for example, every 3 seconds) while the navigation device 100 is operating.

まず、主制御部101は、車速センサ7を介して車速パルス情報を検知する(ステップS001)。   First, the main control unit 101 detects vehicle speed pulse information via the vehicle speed sensor 7 (step S001).

当該車速パルス情報は、車速センサ7が車輪(ホイール)の回転を検知した場合に発生させるパルス情報である。そのため、車輪が回転していない状態、すなわち車両が走行していない状況や、車速センサ7が車輪の回転を検知できなかった場合には、主制御部101は、車速パルス情報を検知することができない。   The vehicle speed pulse information is pulse information that is generated when the vehicle speed sensor 7 detects the rotation of a wheel. Therefore, when the wheel is not rotating, that is, when the vehicle is not traveling, or when the vehicle speed sensor 7 cannot detect the rotation of the wheel, the main control unit 101 can detect the vehicle speed pulse information. Can not.

次に、主制御部101は、車両が走行(自律的な移動)を行っているか否かを判定する。ここでは、たとえば、所定の時間(例えば2秒間)車速パルスを検知していない状態であるか否かを判定する。具体的には、主制御部101は、ステップS001において所定の時間内に一度もパルスを検出していない場合に、車速パルスを検知していない状態(走行していない状態)であると判定する。   Next, the main control unit 101 determines whether or not the vehicle is traveling (autonomous movement). Here, for example, it is determined whether or not the vehicle speed pulse is not detected for a predetermined time (for example, 2 seconds). Specifically, the main control unit 101 determines that the vehicle speed pulse is not detected (the vehicle is not running) when no pulse is detected within a predetermined time in step S001. .

所定時間内に車速パルスを検知した場合(ステップS002にて「No」)、計時部106は、計時処理が作動している場合には計時を停止した上で、計時をリセットし、バイアス学習処理を終了させる(ステップS003)。すなわち、ナビゲーション装置100は車両が走行していると判定するため、バイアス学習を実施しないでバイアス学習処理を終了する。   When a vehicle speed pulse is detected within a predetermined time (“No” in step S002), the timekeeping unit 106 stops the timekeeping when the timekeeping process is operating, resets the timekeeping, and performs a bias learning process. Is terminated (step S003). That is, since the navigation apparatus 100 determines that the vehicle is traveling, the bias learning process is terminated without performing the bias learning.

所定時間内に車速パルスを検知しない場合(ステップS002にて「Yes」)、停止判定部104は、主制御部101を介して、カメラ12に対して、所定間隔で(例えば1/10秒(100ミリ秒)間隔で)撮影するように指示し、撮影した画像の特徴点の移動を検出する(ステップS004)。具体的には、停止判定部104は、撮影した画像に含まれるエッジ部分等を一つまたは複数の特徴点として検出して、撮影した複数の画像間で移動した特徴点を検出する。   When the vehicle speed pulse is not detected within the predetermined time (“Yes” in step S002), the stop determination unit 104 is connected to the camera 12 via the main control unit 101 at predetermined intervals (for example, 1/10 second ( Instruct to shoot (at 100 millisecond intervals) and detect the movement of the feature points of the captured image (step S004). Specifically, the stop determination unit 104 detects an edge portion or the like included in a captured image as one or a plurality of feature points, and detects a feature point that has moved between the captured images.

そして、停止判定部104は、車両の移動(非自律的な移動、例えば回転する車両設置台(ターンテーブル)による搬送など)が推定されるか否かを判定する(ステップS005)。具体的には、停止判定部104は、当該特徴点のうち所定の割合(例えば8割)の数を占める特徴点の位置が画像上で移動した場合に、車両が移動したものと推定し、そうでない場合には車両は移動していないと推定する。   Then, the stop determination unit 104 determines whether or not the movement of the vehicle (non-autonomous movement, for example, conveyance by a rotating vehicle installation table (turn table)) is estimated (step S005). Specifically, the stop determination unit 104 estimates that the vehicle has moved when the positions of the feature points occupying a predetermined ratio (for example, 80%) of the feature points move on the image, Otherwise, it is estimated that the vehicle is not moving.

車両の(非自律的な)移動が推定される場合(ステップS005にて「Yes」)、計時部106は、上述したステップS003の処理を行い、バイアス学習処理を終了させる。   When the (non-autonomous) movement of the vehicle is estimated (“Yes” in step S005), the timer unit 106 performs the process of step S003 described above and ends the bias learning process.

車両の(非自律的な)移動が推定されない場合(ステップS005にて「No」)、計時部106は、計時処理が作動中であるか否かを判定する(ステップS006)。計時処理が作動中の場合には(ステップS006にて「Yes」)、計時部106は、後述するステップS008を実行する。計時処理が作動中でない場合には、(ステップS006にて「No」)、計時部106は、計時を開始し(ステップS007)、後述するステップS008を実行する。   When the (non-autonomous) movement of the vehicle is not estimated (“No” in step S005), the timer unit 106 determines whether or not the timing process is in operation (step S006). When the timing process is in operation (“Yes” in step S006), the timing unit 106 executes step S008 described later. If the timing process is not in operation (“No” in step S006), the timing unit 106 starts timing (step S007) and executes step S008 described later.

そして、計時部106は、計時開始からの経過時間を取得し、閾値(例えば、15秒)以上経過しているか否かを判定する(ステップS008)。   Then, the timer 106 acquires the elapsed time from the start of timing and determines whether or not a threshold (for example, 15 seconds) has elapsed (step S008).

計時開始からの経過時間が閾値以上である場合(ステップS008にて「Yes」)、バイアス学習処理部105は、バイアス学習を実施し(ステップS009)、実施完了後に、バイアス学習処理を終了させる。なお、バイアス学習実施中は、バイアス学習処理部105は、バイアス学習処理のさらなる開始を防ぐことで、二重起動を防止する。   If the elapsed time from the start of timing is equal to or greater than the threshold (“Yes” in step S008), the bias learning processing unit 105 performs bias learning (step S009), and ends the bias learning process after the completion of the execution. During bias learning, the bias learning processing unit 105 prevents double activation by preventing further start of the bias learning processing.

計時開始からの経過時間が閾値以上でない場合(ステップS008にて「No」)、バイアス学習処理部105は、バイアス学習を実施しないでバイアス学習処理を終了させる。以上が、バイアス学習処理の処理内容である。   If the elapsed time from the start of timing is not equal to or greater than the threshold (“No” in step S008), the bias learning processing unit 105 ends the bias learning processing without performing bias learning. The above is the processing content of the bias learning processing.

上記のバイアス学習処理を行う事によって、ナビゲーション装置100は、一定時間以上走行を停止しており、かつ、車両の移動もない場合に限ってバイアス学習処理を行うことができる。   By performing the bias learning process, the navigation device 100 can perform the bias learning process only when the vehicle has stopped traveling for a certain period of time and the vehicle has not moved.

以上、本発明の一実施形態について説明した。   The embodiment of the present invention has been described above.

本発明の一実施形態によると、ナビゲーション装置100は、車両が走行していない状態を適切に判定してバイアス学習を行うことができる。より具体的には、ナビゲーション装置100は、車両が車輪を回転させて走行していない状態においても、移動している場合には、バイアス学習を行わないことができる。つまり、車両がターンテーブル等による回転力を受ける場合や、船などに車両が搭載され、船が揺れる場合等に、回転力や船の揺れを誤ってバイアス学習してしまうことを避けることができる。   According to one embodiment of the present invention, the navigation apparatus 100 can perform bias learning by appropriately determining a state in which the vehicle is not traveling. More specifically, the navigation device 100 can not perform bias learning when the vehicle is moving even in a state where the vehicle is not traveling with the wheels rotated. In other words, when the vehicle receives rotational force from a turntable, etc., or when the vehicle is mounted on a ship or the like and the ship shakes, it is possible to avoid erroneously learning the bias of the rotational force or ship shake. .

本発明は、上記第一の実施形態に制限されない。上記第一の実施形態は、本発明の技術的思想の範囲内で様々な変形が可能である。例えば、上記第一の実施形態のバイアス学習処理においては、カメラ12を用いて車両の停止を判定していたが、これに限られず、超音波センサを用いて車両の停止を判定するようにしてもよい。具体的には、第二の実施形態として、図7に示すように、ナビゲーション装置100の構成に超音波センサ13を備えるようにして、図8のようにバイアス学習処理を変形することが可能である。   The present invention is not limited to the first embodiment. The first embodiment described above can be variously modified within the scope of the technical idea of the present invention. For example, in the bias learning process of the first embodiment, the stop of the vehicle is determined using the camera 12, but the present invention is not limited to this, and the stop of the vehicle is determined using an ultrasonic sensor. Also good. Specifically, as a second embodiment, as shown in FIG. 7, it is possible to modify the bias learning process as shown in FIG. is there.

図7は、第二の実施形態におけるナビゲーション装置100の構成を示す図である。基本的には、第一の実施形態におけるナビゲーション装置100の構成と同様の構成を備えるが、第二の実施形態では、演算処理部1は、超音波を用いて、所定の方向にある最寄りの物体までの距離を、反射波を検知することで計測する超音波センサ13を備える点で相違する。   FIG. 7 is a diagram illustrating a configuration of the navigation device 100 according to the second embodiment. Basically, the navigation apparatus 100 has the same configuration as that of the navigation device 100 in the first embodiment, but in the second embodiment, the arithmetic processing unit 1 uses ultrasonic waves to locate the nearest in a predetermined direction. The difference is that an ultrasonic sensor 13 that measures the distance to the object by detecting the reflected wave is provided.

図8は、第二の実施形態におけるバイアス学習処理の処理フローを示す図である。第二の実施形態におけるバイアス学習処理では、第一の実施形態におけるステップS004、ステップS005に相当する処理に代えて、それぞれ後述するステップS104、ステップS105の処理が実施される。   FIG. 8 is a diagram showing a processing flow of bias learning processing in the second embodiment. In the bias learning process in the second embodiment, instead of the processes corresponding to steps S004 and S005 in the first embodiment, processes in steps S104 and S105 described later are performed.

ステップS104では、停止判定部101は、主制御部101を介して、超音波センサ13に対して、所定間隔で(例えば1/10秒(100ミリ秒)間隔で)物体との距離を測定するように指示し、測定した物体との距離を検出する(ステップS104)。具体的には、停止判定部101は、最寄りの物体までの距離を特定して、特定した距離の変化を検出する。   In step S104, the stop determination unit 101 measures the distance from the object at a predetermined interval (for example, at an interval of 1/10 second (100 milliseconds)) with respect to the ultrasonic sensor 13 via the main control unit 101. And the distance to the measured object is detected (step S104). Specifically, the stop determination unit 101 identifies the distance to the nearest object and detects a change in the identified distance.

そして、停止判定部104は、当該距離に変化があった場合(例えば、距離が短くなった場合)に、車両が移動したものと推定し、そうでない場合には車両は移動していないと推定する。そして、停止判定部104は、車両の移動が推定されるか否かを判定する(ステップS105)。   Then, the stop determination unit 104 estimates that the vehicle has moved when the distance has changed (for example, when the distance becomes shorter), and otherwise estimates that the vehicle has not moved. To do. And the stop determination part 104 determines whether the movement of a vehicle is estimated (step S105).

以上が、第二の実施形態におけるバイアス学習処理の内容である。このようにすることで、第二の実施形態においては、ナビゲーション装置100は、夜間などの暗い、あるいは雨天などの視界不良の状況でも、車両の停止を検出することが可能となる。   The above is the content of the bias learning process in the second embodiment. In this way, in the second embodiment, the navigation device 100 can detect the stop of the vehicle even in dark conditions such as at night or in poor visibility conditions such as rainy weather.

また、上記第一の実施形態のバイアス学習処理においては、カメラ12は車両の周囲を撮影して、周囲の物体の変化から車両の停止を判定していたが、これに限られず、カメラにより撮影された画像に写し込まれた自車の車輪の回転具合に基づいて車両の停止を判定するようにしてもよい。具体的には、第三の実施形態として、図9のようにバイアス学習処理を変形することが可能である。   In the bias learning process of the first embodiment, the camera 12 captures the surroundings of the vehicle and determines the stop of the vehicle based on changes in surrounding objects. However, the present invention is not limited to this. The stop of the vehicle may be determined based on the rotation state of the wheel of the own vehicle that is captured in the captured image. Specifically, as the third embodiment, the bias learning process can be modified as shown in FIG.

図9は、第三の実施形態におけるバイアス学習処理の処理フローを示す図である。第三の実施形態におけるバイアス学習処理では、第一の実施形態におけるステップS001、ステップS002に相当する処理に代えて、それぞれ後述するステップS201、ステップS202の処理が実施される。   FIG. 9 is a diagram showing a processing flow of bias learning processing in the third embodiment. In the bias learning process in the third embodiment, instead of the processes corresponding to steps S001 and S002 in the first embodiment, processes in steps S201 and S202 described later are performed.

ステップS201では、主制御部101は、カメラ12により撮影した画像を用いて車輪のホイールの回転を検知する(ステップS201)。当該ホイールの回転は、停止判定部104が、主制御部101を介して、カメラ12に対して、所定間隔で(例えば1/10秒(100ミリ秒)間隔で)ホイールを撮影するように指示し、撮影した画像の特徴点の移動を検出することで検知する。すなわち、停止判定部104は、撮影した複数の画像を比較してホイールの特徴点の移動を検出すると、車両は停止していないと判定する。   In step S201, the main control unit 101 detects the rotation of the wheel using the image captured by the camera 12 (step S201). For the rotation of the wheel, the stop determination unit 104 instructs the camera 12 to photograph the wheel at a predetermined interval (for example, at an interval of 1/10 second (100 milliseconds)) via the main control unit 101. The detection is performed by detecting the movement of the feature point of the captured image. That is, the stop determination unit 104 determines that the vehicle has not stopped when the movement of the feature point of the wheel is detected by comparing a plurality of captured images.

次に、主制御部101は、所定の時間(例えば2秒間)ホイールの特徴点の移動を検知していない状態であるか否かを判定する(ステップS202)。具体的には、主制御部101は、ステップS201において所定の時間内に一度もホイールの特徴点の移動を検知していない場合に、ホイールの回転を検出していないと判定する。   Next, the main control unit 101 determines whether or not the movement of the feature point of the wheel is not detected for a predetermined time (for example, 2 seconds) (step S202). Specifically, the main control unit 101 determines that the rotation of the wheel is not detected when the movement of the feature point of the wheel has not been detected within a predetermined time in step S201.

以上が、第三の実施形態におけるバイアス学習処理の内容である。このようにすることで、第三の実施形態においては、ナビゲーション装置100は、車輪の低速な回転を検出することが可能となる。すなわち、車速センサ7によって車速パルスを検知するよりも微小な車輪の回転を検出することが可能となるため、微速での車両の走行を検出することが容易となる。   The above is the content of the bias learning process in the third embodiment. By doing in this way, in 3rd embodiment, the navigation apparatus 100 becomes possible [detecting the low speed rotation of a wheel]. That is, since it is possible to detect a minute rotation of the wheel rather than detecting the vehicle speed pulse by the vehicle speed sensor 7, it is easy to detect the traveling of the vehicle at a very low speed.

また、上記第一の実施形態のバイアス学習処理においては、カメラ12は車両の周囲を撮影して、周囲の物体の変化から車両の停止を判定していたが、これに限られず、カメラにより撮影された画像に写し込まれた画像の変化から、カメラ12自体の位置の変化を推定し、当該カメラの位置の変化を車両の移動として検知し、車両の停止を判定するようにしてもよい。具体的には、第四の実施形態として、図10のようにバイアス学習処理を変形することが可能である。   In the bias learning process of the first embodiment, the camera 12 captures the surroundings of the vehicle and determines the stop of the vehicle based on changes in surrounding objects. However, the present invention is not limited to this. The change in the position of the camera 12 itself may be estimated from the change in the image captured in the captured image, the change in the position of the camera may be detected as the movement of the vehicle, and the stop of the vehicle may be determined. Specifically, as the fourth embodiment, the bias learning process can be modified as shown in FIG.

図10は、第四の実施形態におけるバイアス学習処理の処理フローを示す図である。第四の実施形態におけるバイアス学習処理では、第一の実施形態におけるステップS004、ステップS005に相当する処理に代えて、それぞれ後述するステップS304、ステップS305の処理が実施される。   FIG. 10 is a diagram illustrating a processing flow of bias learning processing according to the fourth embodiment. In the bias learning process in the fourth embodiment, instead of the processes corresponding to steps S004 and S005 in the first embodiment, processes in steps S304 and S305 described later are performed.

ステップS304では、停止判定部104は、主制御部101を介して、カメラ12に対して、所定間隔で(例えば1/10秒(100ミリ秒)間隔で)撮影するように指示し、撮影した画像の特徴点の位置の変化に基づいて、SFM(Structure From Motion)等の方法を用いて、画像情報からカメラ12の位置と姿勢を推定し、当該カメラ12の位置と方向の変化を推定する(ステップS304)。なお、SFMについては、図12を用いて後述する。   In step S304, the stop determination unit 104 instructs the camera 12 to shoot at a predetermined interval (for example, at an interval of 1/10 second (100 milliseconds)) via the main control unit 101, and shoots. Based on the change in the position of the feature point of the image, the position and orientation of the camera 12 are estimated from the image information using a method such as SFM (Structure From Motion), and the change in the position and direction of the camera 12 is estimated. (Step S304). The SFM will be described later with reference to FIG.

そして、停止判定部104は、推定される当該カメラ12の位置または方向、あるいはその両方が変化した場合に、車両が移動したものと推定し、そうでない場合には車両は移動していないと推定する。そして、停止判定部104は、車両の移動が推定されるか否かを判定する(ステップS305)。   Then, the stop determination unit 104 estimates that the vehicle has moved when the estimated position and / or direction of the camera 12 changes, and otherwise estimates that the vehicle has not moved. To do. And the stop determination part 104 determines whether the movement of a vehicle is estimated (step S305).

以上が、第四の実施形態におけるバイアス学習処理の内容である。このようにすることで、第四の実施形態においては、ナビゲーション装置100は、カメラの被写体が動く場合(例えば歩行者等が移動した場合等)にも、車両が移動したか否かを正確に検出することが可能となる。   The above is the content of the bias learning process in the fourth embodiment. In this manner, in the fourth embodiment, the navigation device 100 accurately determines whether or not the vehicle has moved even when the subject of the camera moves (for example, when a pedestrian or the like moves). It becomes possible to detect.

または、上記第一の実施形態のバイアス学習処理においては、カメラ12は車両の周囲を撮影して、周囲の物体の変化から車両の停止を判定していたが、これに限られず、カメラにより撮影された画像の変化から、カメラ12自体の位置と方向の変化を推定し、当該カメラの位置を原点(基準)とする座標系における所定の被写体の座標を推定し、当該所定の被写体の位置の変化があれば、車両が移動したものと推定することで、車両の停止を判定するようにしてもよい。具体的には、第五の実施形態として、図11のようにバイアス学習処理を変形することが可能である。   Alternatively, in the bias learning process of the first embodiment, the camera 12 captures the surroundings of the vehicle and determines the stop of the vehicle based on changes in surrounding objects. However, the present invention is not limited to this. The change in the position and direction of the camera 12 itself is estimated from the change in the image, the coordinates of the predetermined subject in the coordinate system with the camera position as the origin (reference) are estimated, and the position of the predetermined subject is determined. If there is a change, it may be determined that the vehicle has stopped by estimating that the vehicle has moved. Specifically, as the fifth embodiment, the bias learning process can be modified as shown in FIG.

図11は、第五の実施形態におけるバイアス学習処理の処理フローを示す図である。第五の実施形態におけるバイアス学習処理では、第一の実施形態におけるステップS004、ステップS005に相当する処理に代えて、それぞれ後述するステップS404、ステップS405の処理が実施される。   FIG. 11 is a diagram illustrating a processing flow of bias learning processing in the fifth embodiment. In the bias learning process in the fifth embodiment, instead of the processes corresponding to steps S004 and S005 in the first embodiment, processes in steps S404 and S405 described later are performed.

ステップS404では、停止判定部104は、主制御部101を介して、カメラ12に対して、所定間隔で(例えば1/10秒(100ミリ秒)間隔で)撮影するように指示し、撮影した画像の特徴点の位置の変化に基づいて、SFM(Structure From Motion)等の方法を用いて、画像情報からカメラ12の位置と姿勢を推定し、当該カメラ12の位置と方向の変化を推定する。そして、停止判定部104は、画像情報に含まれる所定の被写体(例えば輝度が最も高い被写体)について、推定したカメラ12の位置を原点(基準)とする座標系における座標値を推定し、当該被写体の座標値の変化を検出する(ステップS404)。なお、SFMについては、図12を用いて後述する。   In step S404, the stop determination unit 104 instructs the camera 12 to shoot at a predetermined interval (for example, at an interval of 1/10 second (100 milliseconds)) via the main control unit 101, and shoots. Based on the change in the position of the feature point of the image, the position and orientation of the camera 12 are estimated from the image information using a method such as SFM (Structure From Motion), and the change in the position and direction of the camera 12 is estimated. . Then, the stop determination unit 104 estimates a coordinate value in a coordinate system using the estimated position of the camera 12 as an origin (reference) for a predetermined subject (for example, a subject having the highest luminance) included in the image information, and the subject Is detected (step S404). The SFM will be described later with reference to FIG.

そして、停止判定部104は、推定される当該被写体の座標値が変化した場合に、車両が移動したものと推定し、そうでない場合には車両は移動していないと推定する。そして、停止判定部104は、車両の移動が推定されるか否かを判定する(ステップS405)。   Then, the stop determination unit 104 estimates that the vehicle has moved when the estimated coordinate value of the subject has changed, and otherwise estimates that the vehicle has not moved. Then, stop determination unit 104 determines whether or not the movement of the vehicle is estimated (step S405).

以上が、第五の実施形態におけるバイアス学習処理の内容である。このようにすることで、第五の実施形態においては、ナビゲーション装置100は、被写体の座標を正確に算出することが可能となるため、車両が移動したか否かをより正確に検出することが可能となる。   The above is the content of the bias learning process in the fifth embodiment. In this way, in the fifth embodiment, the navigation device 100 can accurately calculate the coordinates of the subject, and thus can more accurately detect whether or not the vehicle has moved. It becomes possible.

次に、第四の実施形態と第五の実施形態におけるバイアス学習処理にて用いるSFMの処理の概要について、図12を用いて説明する。図12(a)は、SFMの原理を説明するためのカメラと被写体との関係を示すモデル図である。図12(b)は、図12(a)における撮影画像の例を示す図である。   Next, the outline of the SFM process used in the bias learning process in the fourth embodiment and the fifth embodiment will be described with reference to FIG. FIG. 12A is a model diagram showing the relationship between a camera and a subject for explaining the principle of SFM. FIG. 12B is a diagram illustrating an example of the captured image in FIG.

図12(a)においては、カメラ400と、被写体P1(410)と、被写体P2(420)と、が示されている。カメラ400の位置は、時間の経過に伴って、位置F1から位置F2、位置F2から位置F3へと変化する。また、カメラ400が位置F1から位置F2へ移動する際の運動成分のうち、回転を示す回転行列をR1とし、カメラの位置の移動を示す並進ベクトルをT1とする。また、カメラ400が位置F2から位置F3へ移動する際の運動成分のうち、回転を示す回転行列をR2とし、カメラの位置の移動を示す並進ベクトルをT2とする。なお、回転行列とは、カメラ400の撮影方向の変化を三次元座標上の変換行列によって特定する情報であり、並進ベクトルとは、カメラ400の位置の移動の有無を三次元座標上で特定する情報である。例えば、回転行列R1が[0,0,0]である場合には、カメラ400は回転運動を行っていないことを示し、並進ベクトルT1が[0,0,0]である場合には、カメラ400は移動していないことを示す。また、被写体P1(410)と、被写体P2(420)については、その位置が変化しないものとする。   In FIG. 12A, a camera 400, a subject P1 (410), and a subject P2 (420) are shown. The position of the camera 400 changes from position F1 to position F2 and from position F2 to position F3 with the passage of time. Of the motion components when the camera 400 moves from the position F1 to the position F2, the rotation matrix indicating rotation is R1, and the translation vector indicating the movement of the camera position is T1. Of the motion components when the camera 400 moves from the position F2 to the position F3, a rotation matrix indicating rotation is R2, and a translation vector indicating movement of the camera position is T2. Note that the rotation matrix is information for specifying a change in the shooting direction of the camera 400 by a conversion matrix on the three-dimensional coordinates, and the translation vector is for specifying whether the position of the camera 400 is moved on the three-dimensional coordinates. Information. For example, when the rotation matrix R1 is [0, 0, 0], it indicates that the camera 400 is not rotating, and when the translation vector T1 is [0, 0, 0], the camera 400 indicates that it has not moved. Further, the positions of the subject P1 (410) and the subject P2 (420) are not changed.

図12(b)には、位置F1において、カメラ400が撮影する画像SCR1(451)に記録された被写体P1の映像(452)と、位置F2においてカメラ400が撮影する画像SCR2(461)に記録された被写体P1の映像(462)と、が示されている。ここで、画像SCR1(451)においては、被写体P1の画像(452)がその中央付近に記録されており、画像SCR2(461)においては、被写体P1の画像(462)が画像SCR1(451)に比べて左寄りに記録されている。   In FIG. 12B, the image (452) of the subject P1 recorded in the image SCR1 (451) photographed by the camera 400 at the position F1 and the image SCR2 (461) photographed by the camera 400 at the position F2. A video image (462) of the subject P1 is displayed. Here, in the image SCR1 (451), the image (452) of the subject P1 is recorded near the center thereof, and in the image SCR2 (461), the image (462) of the subject P1 is recorded on the image SCR1 (451). Compared to the left.

ここで、SFMの処理の概要を説明する。まず、停止判定部104は、撮影した画像(SCR1)に含まれる角や点など、エッジや輝度値に特徴がある特徴点を特定し、時系列の画像データ上で当該特徴点の追跡を行う。次に、停止判定部104は、時系列の画像データ間でステレオ計測(weakly calibrated stereo)の原理を用いてカメラ400のF1とF2の間の運動情報を推定する。ここで、運動情報として、回転行列と、並進ベクトルとを用いる。つまり、停止判定部104は、位置F1と位置F2間の運動情報として、回転行列R1と、並進ベクトルT1とを特定する。なお、回転行列は、[Rx,Ry,Rz]の三次元の行列として求められ、並進ベクトルは、[Tx,Ty,Tz]の三次元のベクトルとして求められる。   Here, an overview of the SFM process will be described. First, the stop determination unit 104 identifies feature points having features in edges and luminance values, such as corners and points included in the captured image (SCR1), and tracks the feature points on time-series image data. . Next, the stop determination unit 104 estimates motion information between F1 and F2 of the camera 400 using the principle of weakly calibrated stereo between time-series image data. Here, a rotation matrix and a translation vector are used as motion information. That is, the stop determination unit 104 specifies the rotation matrix R1 and the translation vector T1 as motion information between the position F1 and the position F2. The rotation matrix is obtained as a three-dimensional matrix [Rx, Ry, Rz], and the translation vector is obtained as a three-dimensional vector [Tx, Ty, Tz].

このようにして、停止判定部104は、回転行列R2と並進ベクトルT2とを、位置F2から位置F3への移動時にも算出し、以降のカメラ400の移動についても運動情報を順次求める。そして、停止判定部104は、当該運動情報を参照し、回転行列と並進ベクトルとが、いずれもゼロとなる場合、カメラ400は移動していないと判定する。   In this way, the stop determination unit 104 calculates the rotation matrix R2 and the translation vector T2 when moving from the position F2 to the position F3, and sequentially obtains motion information for the subsequent movement of the camera 400. Then, the stop determination unit 104 refers to the motion information, and determines that the camera 400 is not moving when both the rotation matrix and the translation vector are zero.

また、第五の実施形態においては、停止判定部104は、カメラ位置を原点(基準)とするxyz三次元座標上で、被写体P1(410)の座標[Px,Py,Pz]を求め、カメラの位置がF2に移動した場合の被写体P1(410)の座標[Px´,Py´,Pz´]と比較する。そして、停止判定部104は、PxとPx´、PyとPy´、PzとPz´のそれぞれがすべて一致する場合に、カメラ400は移動していないと判定する。これが、SFMを利用した処理の内容である。   In the fifth embodiment, the stop determination unit 104 obtains the coordinates [Px, Py, Pz] of the subject P1 (410) on the xyz three-dimensional coordinates with the camera position as the origin (reference), and the camera Is compared with the coordinates [Px ′, Py ′, Pz ′] of the subject P1 (410) when the position is moved to F2. The stop determination unit 104 determines that the camera 400 is not moving when all of Px and Px ′, Py and Py ′, and Pz and Pz ′ match. This is the content of processing using SFM.

また、上記の第一の実施形態から第五の実施形態において、停止判定部104は、車速パルス等の検知により、所定の時間、車輪の回転がないことを検知した場合に、カメラ等によって車両の移動を確認しているが、これに限られない。すなわち、車両の状況によって、当該所定の時間を異なる値としてもよい。   In the first to fifth embodiments, when the stop determination unit 104 detects that there is no wheel rotation for a predetermined time by detecting a vehicle speed pulse or the like, the stop determination unit 104 uses a camera or the like to However, this is not a limitation. That is, the predetermined time may be a different value depending on the vehicle condition.

具体的には、ナビゲーション装置100の記憶装置3またはROM23に、車両の状況に応じた所定の時間を予め格納しておき、停止判定部104は、車両の状況に応じて当該所定の時間を特定するようにしてもよい。例えば、現在地が道路上に属する場合には、当該所定の時間を短い時間(例えば5秒)としてもよいし、現在地が駐車場内に属する場合には、当該所定の時間を長い時間(例えば30秒)としてもよい。このようにすることで、信号待ち等の短めの停車時間において、バイアス学習処理を行うことができる。つまり、細やかにバイアス学習処理を行うことで、ジャイロセンサの検出値を用いて特定する現在地を、正確に特定することができるようになる。また、駐車場内等、正確な現在地の特定の必要性が低い場所においては、バイアス学習処理の頻度を減らして、ナビゲーション装置の消費電力を抑えることが可能となる。   Specifically, a predetermined time corresponding to the vehicle situation is stored in advance in the storage device 3 or the ROM 23 of the navigation device 100, and the stop determination unit 104 specifies the predetermined time according to the vehicle situation. You may make it do. For example, when the current location belongs to a road, the predetermined time may be set to a short time (for example, 5 seconds). When the current location belongs to a parking lot, the predetermined time is set to a long time (for example, 30 seconds). ). In this way, the bias learning process can be performed during a short stoppage time such as waiting for a signal. That is, by performing the bias learning process in detail, the current location specified using the detection value of the gyro sensor can be specified accurately. Also, in places where there is a low necessity for specifying the current location, such as in a parking lot, it is possible to reduce the frequency of the bias learning process and suppress the power consumption of the navigation device.

さらに、上記第一の実施形態から第五の実施形態のそれぞれの発明技術の全てあるいはいくつかを組み合わせてもよい。例えば、複数の検出手段で車両の移動がないことを検出した場合に、バイアス学習処理部105は、バイアス学習を行うようにしてもよい。   Furthermore, you may combine all or some of each invention technique of said 1st embodiment to 5th embodiment. For example, the bias learning processing unit 105 may perform bias learning when it is detected by a plurality of detection means that there is no movement of the vehicle.

以上、本発明について、第一の実施形態から第五の実施形態について説明した。   The present invention has been described with reference to the first to fifth embodiments.

なお、上記の実施形態では、本発明を車載ナビゲーション装置に適用した例について説明したが、本発明は車載ナビゲーション装置に限らず、車載装置全般に適用することができる。   In the above embodiment, an example in which the present invention is applied to an in-vehicle navigation device has been described. However, the present invention is not limited to an in-vehicle navigation device and can be applied to all in-vehicle devices.

1・・・演算処理部、2・・・ディスプレイ、3・・・記憶装置、4・・・音声出入力装置、5・・・入力装置、6・・・ROM装置、7・・・車速センサ、8・・・ジャイロセンサ、9・・・GPS受信装置、10・・・FM多重放送受信装置、11・・・ビーコン受信装置、12・・・カメラ、13・・・超音波センサ、21・・・CPU、22・・・RAM、23・・・ROM、24・・・I/F、25・・・バス、41・・・マイクロフォン、42・・・スピーカ、51・・・タッチパネル、52・・・ダイヤルスイッチ、100・・・ナビゲーション装置、101・・・主制御部、102・・・入力受付部、103・・・出力処理部、104・・・停止判定部、105・・・バイアス学習処理部、106・・・計時部、200・・・リンクテーブル DESCRIPTION OF SYMBOLS 1 ... Arithmetic processing part, 2 ... Display, 3 ... Memory | storage device, 4 ... Voice output device, 5 ... Input device, 6 ... ROM device, 7 ... Vehicle speed sensor 8 ... Gyro sensor, 9 ... GPS receiver, 10 ... FM multiplex broadcast receiver, 11 ... Beacon receiver, 12 ... Camera, 13 ... Ultrasonic sensor, 21. ..CPU, 22 ... RAM, 23 ... ROM, 24 ... I / F, 25 ... bus, 41 ... microphone, 42 ... speaker, 51 ... touch panel, 52 ..Dial switch, 100 ... navigation device, 101 ... main control unit, 102 ... input receiving unit, 103 ... output processing unit, 104 ... stop determination unit, 105 ... bias learning Processing unit 106 ... Time measuring unit 200 ... Link table

Claims (8)

回転検出装置を備える車載装置であって、
車両の走行の停止を検知する停止検知手段と、
前記停止検知手段により車両の走行の停止を検知すると、車両が移動しているか否かを推定する車両移動推定手段と、
前記車両移動推定手段により車両が移動していないと推定した場合に、前記回転検出装置のバイアス学習を行うバイアス学習手段と、
を備えることを特徴とする車載装置。
An in-vehicle device provided with a rotation detection device,
Stop detection means for detecting stoppage of the vehicle,
Vehicle movement estimation means for estimating whether or not the vehicle is moving when the stop detection means detects a stop of travel of the vehicle;
Bias learning means for performing bias learning of the rotation detecting device when the vehicle movement estimating means estimates that the vehicle is not moving;
A vehicle-mounted device comprising:
請求項1に記載の車載装置であって、
前記車両移動推定手段は、車両の周囲を撮影するカメラ装置によって撮影した画像が、所定の時間変化しないことにより、車両の停止を推定する、
ことを特徴とする車載装置。
The in-vehicle device according to claim 1,
The vehicle movement estimation means estimates the stop of the vehicle by the image captured by the camera device that captures the surroundings of the vehicle not changing for a predetermined time.
In-vehicle device characterized by the above.
請求項1または2に記載の車載装置であって、
前記車両移動推定手段は、車両の周囲を撮影するカメラ装置によって撮影した画像の変化により前記カメラ装置の位置の変化を特定し、当該カメラ装置の位置が所定の時間変化しないことにより、車両の停止を推定する、
ことを特徴とする車載装置。
The in-vehicle device according to claim 1 or 2,
The vehicle movement estimation means identifies a change in the position of the camera device based on a change in an image captured by a camera device that captures the surroundings of the vehicle, and stops the vehicle when the position of the camera device does not change for a predetermined time. Estimate
In-vehicle device characterized by the above.
請求項3に記載の車載装置であって、
前記車両移動推定手段は、車両の周囲を撮影するカメラ装置によって撮影した画像の変化により前記カメラ装置の回転方向を特定する情報による回転の有無を特定するとともに、前記カメラ装置の移動方向を特定する情報による移動の有無を特定し、所定の時間当該カメラ装置が回転せず、移動していないことにより、車両の停止を推定する、
ことを特徴とする車載装置。
The in-vehicle device according to claim 3,
The vehicle movement estimation means identifies the presence or absence of rotation based on information for identifying the rotation direction of the camera device based on a change in an image captured by a camera device that captures the surroundings of the vehicle, and identifies the movement direction of the camera device The presence or absence of movement based on information is specified, and the camera device is not rotated for a predetermined time and is not moved, thereby estimating the stop of the vehicle.
In-vehicle device characterized by the above.
請求項1〜4のいずれか一項に記載の車載装置であって、
前記車両移動推定手段は、車両の周囲を撮影するカメラ装置によって撮影した画像の変化により前記カメラ装置の位置と回転の変化を特定し、当該カメラ装置の位置を基準とする座標系において、前記画像に含まれる所定の特徴点の座標値が所定の時間変化しないことにより、車両の停止を推定する、
ことを特徴とする車載装置。
The in-vehicle device according to any one of claims 1 to 4,
The vehicle movement estimation means identifies a change in position and rotation of the camera device based on a change in an image captured by a camera device that captures the surroundings of the vehicle, and in the coordinate system based on the position of the camera device, the image The coordinate value of a predetermined feature point included in the vehicle does not change for a predetermined time, thereby estimating the stop of the vehicle.
In-vehicle device characterized by the above.
請求項1〜5のいずれか一項に記載の車載装置であって、
前記車両移動推定手段は、車両の周囲に発した超音波の反射波により障害物までの距離を推定し、当該距離が所定の時間変化しないことにより、車両の停止を推定する、
ことを特徴とする車載装置。
It is an in-vehicle device according to any one of claims 1 to 5,
The vehicle movement estimation means estimates the distance to the obstacle by the reflected wave of ultrasonic waves emitted around the vehicle, and estimates the stop of the vehicle by the distance not changing for a predetermined time.
In-vehicle device characterized by the above.
請求項1〜6のいずれか一項に記載の車載装置であって、さらに、
前記車両の車輪を撮影する車輪撮影手段を備え、
前記停止検知手段は、前記車輪撮影手段により撮影した画像において、前記車輪の回転が所定の時間停止している場合に、前記車両の停止を検知する、
ことを特徴とする車載装置。
The on-vehicle device according to any one of claims 1 to 6, further comprising:
A wheel photographing means for photographing the wheel of the vehicle;
The stop detection unit detects the stop of the vehicle when rotation of the wheel is stopped for a predetermined time in the image captured by the wheel photographing unit.
In-vehicle device characterized by the above.
車載装置のバイアス学習方法であって、
前記車載装置は、
回転検出装置を備え、
車両の走行の停止を検知する停止検知ステップと、
前記停止検知ステップにおいて車両の走行の停止を検知すると、車両が移動しているか否かを推定する車両移動推定ステップと、
前記車両移動推定ステップにより車両が移動していないと推定した場合に、前記回転検出装置のバイアス学習を行うバイアス学習ステップと、
を実施する、ことを特徴とするバイアス学習方法。
A bias learning method for an in-vehicle device,
The in-vehicle device is
Equipped with a rotation detector,
A stop detection step for detecting a stop of the running of the vehicle;
A vehicle movement estimation step for estimating whether or not the vehicle is moving when detecting the stop of the running of the vehicle in the stop detection step;
A bias learning step of performing bias learning of the rotation detection device when the vehicle movement estimation step estimates that the vehicle is not moving;
A bias learning method characterized by comprising:
JP2011011845A 2011-01-24 2011-01-24 On-vehicle device and bias learning method thereof Pending JP2012154669A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011011845A JP2012154669A (en) 2011-01-24 2011-01-24 On-vehicle device and bias learning method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011011845A JP2012154669A (en) 2011-01-24 2011-01-24 On-vehicle device and bias learning method thereof

Publications (1)

Publication Number Publication Date
JP2012154669A true JP2012154669A (en) 2012-08-16

Family

ID=46836562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011011845A Pending JP2012154669A (en) 2011-01-24 2011-01-24 On-vehicle device and bias learning method thereof

Country Status (1)

Country Link
JP (1) JP2012154669A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016184089A (en) * 2015-03-26 2016-10-20 Necプラットフォームズ株式会社 Information recognition device, navigation system, navigation method, and program
US10794709B2 (en) 2017-10-23 2020-10-06 Hyundai Motor Company Apparatus of compensating for a sensing value of a gyroscope sensor, a system having the same, and a method thereof
CN113246669A (en) * 2021-06-09 2021-08-13 宝能(广州)汽车研究院有限公司 Tire pressure monitoring learning method and device, electronic equipment and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016184089A (en) * 2015-03-26 2016-10-20 Necプラットフォームズ株式会社 Information recognition device, navigation system, navigation method, and program
US10794709B2 (en) 2017-10-23 2020-10-06 Hyundai Motor Company Apparatus of compensating for a sensing value of a gyroscope sensor, a system having the same, and a method thereof
CN113246669A (en) * 2021-06-09 2021-08-13 宝能(广州)汽车研究院有限公司 Tire pressure monitoring learning method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
JP6468062B2 (en) Object recognition system
JP5461065B2 (en) Current position specifying device and current position specifying method
JP6380284B2 (en) Position detection device and position detection system
JP6241422B2 (en) Driving support device, driving support method, and recording medium for storing driving support program
US9361858B2 (en) Position information providing device, position information providing method, position information providing system, and program
WO2011058822A1 (en) Vehicle surrounding display device, vehicle surrounding display method
JP4914726B2 (en) Current position calculation device, current position calculation method
KR101704405B1 (en) System and method for lane recognition
JP2013234902A (en) Running lane recognition device and running lane recognition method
JP6922169B2 (en) Information processing equipment and methods, vehicles, and information processing systems
WO2007040100A1 (en) Position estimation device, position estimation method, position estimation program, and computer-readable recording medium
JP2010003086A (en) Drive recorder
JP2016224717A (en) Driving support apparatus and driving support method
JP2002188931A (en) On-vehicle processor
JP2012154669A (en) On-vehicle device and bias learning method thereof
JP2010020485A (en) Drive recorder
JP2012220259A (en) In-vehicle apparatus and vehicle azimuth correction method thereof
CN107878325A (en) Determine that parking system re-scales the method, apparatus and automatic calibration system on opportunity
US11475713B2 (en) Apparatus and method for estimating own vehicle behavior
JP4824522B2 (en) In-vehicle device
JP2007304841A (en) Traffic supervision unit
JP2013077122A (en) Accident analysis device, accident analysis method, and program
JP2013061763A (en) Determining device
JP2010003085A (en) Drive recorder
JP2014154125A (en) Travel support system, travel support method and computer program