JP2020190412A - Vehicle state estimating system, vehicle state estimating method, and vehicle state estimating program - Google Patents

Vehicle state estimating system, vehicle state estimating method, and vehicle state estimating program Download PDF

Info

Publication number
JP2020190412A
JP2020190412A JP2019094108A JP2019094108A JP2020190412A JP 2020190412 A JP2020190412 A JP 2020190412A JP 2019094108 A JP2019094108 A JP 2019094108A JP 2019094108 A JP2019094108 A JP 2019094108A JP 2020190412 A JP2020190412 A JP 2020190412A
Authority
JP
Japan
Prior art keywords
vehicle
feature
information
recognition
stopped
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019094108A
Other languages
Japanese (ja)
Inventor
豊治 日与川
Toyoji Hiyokawa
豊治 日与川
優 田中
Masaru Tanaka
優 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin AW Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2019094108A priority Critical patent/JP2020190412A/en
Publication of JP2020190412A publication Critical patent/JP2020190412A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a vehicle state estimating system, a vehicle state estimating method and a vehicle state estimating program which, when a vehicle is automatically driven in a parking lot, properly estimate the initial bearing and/or the initial position of the vehicle at the starting origin point of automatic driving.SOLUTION: In a vehicle state estimating system 100, an image recognition unit 25 of a vehicle control device 20 recognizes a belt-like ground feature out of the ground features included in surrounding information detected while being parked when it is determined by an operating state determination unit 27 that the vehicle is parked, and an estimation unit 23 estimates the bearing of the vehicle being parked, on the basis of the recognized bearing that is the extension bearing of the belt-like ground feature based on the recognition result and the individual bearing information of the belt-like ground features included in ground feature information.SELECTED DRAWING: Figure 2

Description

本発明は、設定された目的地に向かって自動走行する車両の発進前の方位を推定する車両状態推定システム、車両状態推定方法、及び車両状態推定プログラムに関する。 The present invention relates to a vehicle state estimation system that estimates the direction of a vehicle that automatically travels toward a set destination before starting, a vehicle state estimation method, and a vehicle state estimation program.

近年、駐車場内において車両の入出庫を自動で行う自動バレー駐車を実現するための技術が検討されている。入出庫時には、車両は、自動走行を行うことによって目的地へ向かうように構成されている。 In recent years, a technique for realizing automatic valley parking in which vehicles are automatically loaded and unloaded in a parking lot has been studied. At the time of entry and exit, the vehicle is configured to go to the destination by automatically traveling.

特開2015−41348号公報JP-A-2015-41348

上記のような自動バレー駐車を実現するためには、車両が入出庫時における自動走行の発進起点において、当該車両の初期位置や初期方位を正確に把握することが重要となる。 In order to realize the above-mentioned automatic valley parking, it is important to accurately grasp the initial position and initial direction of the vehicle at the starting point of automatic driving when the vehicle enters and exits the garage.

上記実状に鑑みて、駐車場内で車両の自動走行を行う場合において、自動走行の発進起点における車両の初期方位及び初期位置の少なくとも一方を適切に推定することが可能な技術の実現が求められている。 In view of the above situation, when the vehicle is automatically driven in the parking lot, it is required to realize a technique capable of appropriately estimating at least one of the initial direction and the initial position of the vehicle at the starting point of the automatic driving. There is.

上記に鑑みた車両状態推定システムの特徴構成は、
駐車場内において、設定された目的地に向かって自動走行する車両の発進前の方位を推定する車両状態推定システムであって、
前記車両の動作状態を判定する動作状態判定部と、
前記駐車場に設けられた地物の位置情報を含む地物情報を取得する地物情報取得部と、
前記車両に搭載された周辺検知センサにより検知された前記車両の周辺情報を取得する周辺情報取得部と、
前記周辺情報中に含まれる前記地物の認識処理を行う認識部と、
前記車両の前記駐車場内における方位を推定する推定部と、を備え、
前記地物情報には、前記駐車場に設けられた帯状地物のそれぞれについての延在方位を示す個別方位情報が含まれ、
前記動作状態判定部は、前記車両が前記駐車場内で停車中であるか否かを判定し、
前記認識部は、前記動作状態判定部により前記車両が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物のうち、前記帯状地物を認識し、
前記推定部は、認識結果に基づく前記帯状地物の前記延在方位である認識方位と、前記地物情報に含まれる前記帯状地物の前記個別方位情報とに基づいて、停車中の前記車両の方位を推定する点にある。
The characteristic configuration of the vehicle condition estimation system in view of the above is
It is a vehicle condition estimation system that estimates the direction of a vehicle that automatically travels toward a set destination before starting in a parking lot.
An operation state determination unit that determines the operation state of the vehicle,
A feature information acquisition unit that acquires feature information including the location information of features provided in the parking lot,
Peripheral information acquisition unit that acquires peripheral information of the vehicle detected by the peripheral detection sensor mounted on the vehicle, and
A recognition unit that performs recognition processing of the feature included in the surrounding information,
An estimation unit for estimating the orientation of the vehicle in the parking lot is provided.
The feature information includes individual orientation information indicating the extending orientation of each of the strip-shaped features provided in the parking lot.
The operating state determination unit determines whether or not the vehicle is stopped in the parking lot, and determines whether or not the vehicle is stopped.
When the operating state determination unit determines that the vehicle is stopped, the recognition unit recognizes the strip-shaped feature among the features included in the peripheral information detected while the vehicle is stopped. And
The estimation unit is the stopped vehicle based on the recognition direction which is the extension direction of the strip-shaped feature based on the recognition result and the individual direction information of the strip-shaped feature included in the feature information. It is at the point of estimating the direction of.

また、上記に鑑みた、車両状態推定システムの技術的特徴は、車両状態推定方法や車両状態推定プログラムにも適用可能であり、そのため、本発明は、そのような方法やプログラムも権利の対象とすることができる。 Further, in view of the above, the technical features of the vehicle state estimation system can also be applied to a vehicle state estimation method and a vehicle state estimation program, and therefore, the present invention also covers such methods and programs. can do.

その場合における、車両状態推定方法の特徴構成は、
駐車場内において、設定された目的地に向かって自動走行する車両の発進前の方位を推定する車両状態推定方法であって、
前記車両の動作状態を判定する動作状態判定ステップと、
前記駐車場に設けられた地物の位置情報を含む地物情報を取得する地物情報取得ステップと、
前記車両に搭載された周辺検知センサにより検知された前記車両の周辺情報を取得する周辺情報取得ステップと、
前記周辺情報中に含まれる前記地物の認識処理を行う認識ステップと、
前記車両の前記駐車場内における方位を推定する推定ステップと、を備え、
前記地物情報には、前記駐車場に設けられた帯状地物のそれぞれについての延在方位を示す個別方位情報が含まれ、
前記動作状態判定ステップでは、前記車両が前記駐車場内で停車中であるか否かを判定し、
前記認識ステップでは、前記動作状態判定ステップにより前記車両が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物のうち、前記帯状地物を認識し、
前記推定ステップでは、認識結果に基づく前記帯状地物の前記延在方位である認識方位と、前記地物情報に含まれる前記帯状地物の前記個別方位情報とに基づいて、停車中の前記車両の方位を推定する点にある。
In that case, the characteristic configuration of the vehicle state estimation method is
It is a vehicle condition estimation method that estimates the direction of a vehicle that automatically travels toward a set destination before starting in a parking lot.
The operation state determination step for determining the operation state of the vehicle and
A feature information acquisition step for acquiring feature information including the position information of the feature provided in the parking lot, and
A peripheral information acquisition step for acquiring peripheral information of the vehicle detected by a peripheral detection sensor mounted on the vehicle, and
A recognition step for performing recognition processing of the feature included in the surrounding information, and
It comprises an estimation step of estimating the orientation of the vehicle in the parking lot.
The feature information includes individual orientation information indicating the extending orientation of each of the strip-shaped features provided in the parking lot.
In the operation state determination step, it is determined whether or not the vehicle is stopped in the parking lot.
In the recognition step, when it is determined by the operation state determination step that the vehicle is stopped, the strip-shaped feature is recognized among the features included in the peripheral information detected while the vehicle is stopped. And
In the estimation step, the stopped vehicle is based on the recognition direction which is the extension direction of the strip-shaped feature based on the recognition result and the individual direction information of the strip-shaped feature included in the feature information. It is at the point of estimating the direction of.

また、その場合における、車両状態推定プログラムの特徴構成は、
駐車場内において、設定された目的地に向かって自動走行する車両の発進前の方位を推定する車両状態推定プログラムであって、
前記車両の動作状態を判定する動作状態判定機能と、
前記駐車場に設けられた地物の位置情報を含む地物情報を取得する地物情報取得機能と、
前記車両に搭載された周辺検知センサにより検知された前記車両の周辺情報を取得する周辺情報取得機能と、
前記周辺情報中に含まれる前記地物の認識処理を行う認識機能と、
前記車両の前記駐車場内における方位を推定する推定機能と、をコンピュータに実現させ、
前記地物情報には、前記駐車場に設けられた帯状地物のそれぞれについての延在方位を示す個別方位情報が含まれ、
前記動作状態判定機能では、前記車両が前記駐車場内で停車中であるか否かを判定し、
前記認識機能では、前記動作状態判定機能により前記車両が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物のうち、前記帯状地物を認識し、
前記推定機能では、認識結果に基づく前記帯状地物の前記延在方位である認識方位と、前記地物情報に含まれる前記帯状地物の前記個別方位情報とに基づいて、停車中の前記車両の方位を推定する点にある。
In that case, the feature configuration of the vehicle condition estimation program is
It is a vehicle condition estimation program that estimates the direction of a vehicle that automatically travels toward a set destination before starting in the parking lot.
The operation state determination function for determining the operation state of the vehicle and
A feature information acquisition function that acquires feature information including the location information of features provided in the parking lot, and
Peripheral information acquisition function that acquires peripheral information of the vehicle detected by the peripheral detection sensor mounted on the vehicle, and
A recognition function that performs recognition processing of the feature included in the surrounding information,
A computer is realized with an estimation function for estimating the orientation of the vehicle in the parking lot.
The feature information includes individual orientation information indicating the extending orientation of each of the strip-shaped features provided in the parking lot.
The operating state determination function determines whether or not the vehicle is stopped in the parking lot, and determines whether or not the vehicle is stopped.
In the recognition function, when the vehicle is determined to be stopped by the operation state determination function, the strip-shaped feature is recognized among the features included in the peripheral information detected while the vehicle is stopped. And
In the estimation function, the vehicle is stopped based on the recognition direction which is the extension direction of the strip-shaped feature based on the recognition result and the individual direction information of the strip-shaped feature included in the feature information. It is at the point of estimating the direction of.

これらの構成によれば、車両が停車中である場合に、帯状地物の認識結果に基づく当該帯状地物の認識方位と、地物情報に含まれる個別方位情報とに基づいて、車両の方位を適切に推定することができる。従って、本構成によれば、駐車場内で自動走行を行う場合における車両の発進前の方位、換言すれば、自動走行の発進起点における車両の初期方位を適切に推定することができる。 According to these configurations, when the vehicle is stopped, the orientation of the vehicle is based on the recognition orientation of the belt-shaped feature based on the recognition result of the belt-shaped feature and the individual orientation information included in the feature information. Can be estimated appropriately. Therefore, according to this configuration, it is possible to appropriately estimate the direction before the vehicle starts when the vehicle is automatically driven in the parking lot, in other words, the initial direction of the vehicle at the starting point of the automatic driving.

また、車両状態推定システムの他の特徴構成は、
駐車場内において、設定された目的地に向かって自動走行する車両の発進前の位置を推定する車両状態推定システムであって、
前記車両の動作状態を判定する動作状態判定部と、
前記駐車場に設けられた地物の位置情報を含む地物情報を取得する地物情報取得部と、
前記車両に搭載された周辺検知センサにより検知された前記車両の周辺情報を取得する周辺情報取得部と、
前記周辺情報中に含まれる前記地物の認識処理を行う認識部と、
前記車両の前記駐車場内における位置を推定する推定部と、を備え、
前記動作状態判定部は、前記車両が前記駐車場内で停車中であるか否かを判定し、
前記認識部は、前記動作状態判定部により前記車両が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物のうち、前記駐車場内に設置された複数の駐車スペースのそれぞれに対応して設けられた識別標示を認識し、
前記推定部は、認識結果に基づく前記識別標示の位置である認識位置と、前記地物情報に含まれる前記識別標示の前記位置情報とに基づいて、停車中の前記車両の位置を推定する点にある。
In addition, other feature configurations of the vehicle condition estimation system are
It is a vehicle condition estimation system that estimates the position of a vehicle that automatically travels toward a set destination before starting in a parking lot.
An operation state determination unit that determines the operation state of the vehicle,
A feature information acquisition unit that acquires feature information including the location information of features provided in the parking lot,
Peripheral information acquisition unit that acquires peripheral information of the vehicle detected by the peripheral detection sensor mounted on the vehicle, and
A recognition unit that performs recognition processing of the feature included in the surrounding information,
An estimation unit for estimating the position of the vehicle in the parking lot is provided.
The operating state determination unit determines whether or not the vehicle is stopped in the parking lot, and determines whether or not the vehicle is stopped.
The recognition unit is installed in the parking lot among the features included in the peripheral information detected while the vehicle is stopped when the operation state determination unit determines that the vehicle is stopped. Recognize the identification signs provided for each of the multiple parking spaces
The estimation unit estimates the position of the stopped vehicle based on the recognition position which is the position of the identification mark based on the recognition result and the position information of the identification mark included in the feature information. It is in.

その場合における、車両状態推定方法の特徴構成は、
駐車場内において、設定された目的地に向かって自動走行する車両の発進前の位置を推定する車両状態推定方法であって、
前記車両の動作状態を判定する動作状態判定ステップと、
前記駐車場に設けられた地物の位置情報を含む地物情報を取得する地物情報取得ステップと、
前記車両に搭載された周辺検知センサにより検知された前記車両の周辺情報を取得する周辺情報取得ステップと、
前記周辺情報中に含まれる前記地物の認識処理を行う認識ステップと、
前記車両の前記駐車場内における位置を推定する推定ステップと、を備え、
前記動作状態判定ステップでは、前記車両が前記駐車場内で停車中であるか否かを判定し、
前記認識ステップでは、前記動作状態判定ステップにおいて前記車両が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物のうち、前記駐車場内に設置された複数の駐車スペースのそれぞれに対応して設けられた識別標示を認識し、
前記推定ステップでは、認識結果に基づく前記識別標示の位置である認識位置と、前記地物情報に含まれる前記識別標示の前記位置情報とに基づいて、停車中の前記車両の位置を推定する点にある。
In that case, the characteristic configuration of the vehicle state estimation method is
It is a vehicle condition estimation method that estimates the position of a vehicle that automatically travels toward a set destination before starting in a parking lot.
The operation state determination step for determining the operation state of the vehicle and
A feature information acquisition step for acquiring feature information including the position information of the feature provided in the parking lot, and
A peripheral information acquisition step for acquiring peripheral information of the vehicle detected by a peripheral detection sensor mounted on the vehicle, and
A recognition step for performing recognition processing of the feature included in the surrounding information, and
It comprises an estimation step of estimating the position of the vehicle in the parking lot.
In the operation state determination step, it is determined whether or not the vehicle is stopped in the parking lot.
In the recognition step, when it is determined that the vehicle is stopped in the operation state determination step, it is installed in the parking lot among the features included in the peripheral information detected while the vehicle is stopped. Recognize the identification signs provided for each of the multiple parking spaces
In the estimation step, a point of estimating the position of the stopped vehicle based on the recognition position which is the position of the identification mark based on the recognition result and the position information of the identification mark included in the feature information. It is in.

また、その場合における、車両状態推定プログラムの特徴構成は、
駐車場内において、設定された目的地に向かって自動走行する車両の発進前の位置を推定する車両状態推定プログラムであって、
前記車両の動作状態を判定する動作状態機能と、
前記駐車場に設けられた地物の位置情報を含む地物情報を取得する地物情報取得機能と、
前記車両に搭載された周辺検知センサにより検知された前記車両の周辺情報を取得する周辺情報取得機能と、
前記周辺情報中に含まれる前記地物の認識処理を行う認識機能と、
前記車両の前記駐車場内における位置を推定する推定機能と、をコンピュータに実現させ、
前記動作状態判定機能では、前記車両が前記駐車場内で停車中であるか否かを判定し、
前記認識機能では、前記動作状態判定機能において前記車両が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物のうち、前記駐車場内に設置された複数の駐車スペースのそれぞれに対応して設けられた識別標示を認識し、
前記推定機能では、認識結果に基づく前記識別標示の位置である認識位置と、前記地物情報に含まれる前記識別標示の前記位置情報とに基づいて、停車中の前記車両の位置を推定する点にある。
In that case, the feature configuration of the vehicle condition estimation program is
It is a vehicle condition estimation program that estimates the position of a vehicle that automatically travels toward a set destination before starting in a parking lot.
The operation state function for determining the operation state of the vehicle and
A feature information acquisition function that acquires feature information including the location information of features provided in the parking lot, and
Peripheral information acquisition function that acquires peripheral information of the vehicle detected by the peripheral detection sensor mounted on the vehicle, and
A recognition function that performs recognition processing of the feature included in the surrounding information,
A computer is realized with an estimation function for estimating the position of the vehicle in the parking lot.
The operating state determination function determines whether or not the vehicle is stopped in the parking lot, and determines whether or not the vehicle is stopped.
In the recognition function, when the vehicle is determined to be stopped by the operation state determination function, it is installed in the parking lot among the features included in the peripheral information detected while the vehicle is stopped. Recognize the identification signs provided for each of the multiple parking spaces
The estimation function estimates the position of the stopped vehicle based on the recognition position which is the position of the identification mark based on the recognition result and the position information of the identification mark included in the feature information. It is in.

これらの構成によれば、車両が停車中である場合に、駐車場内に設置された複数の駐車スペースのそれぞれに対応して設けられた識別標示の認識結果に基づく当該識別標示の認識位置と、地物情報に含まれる識別標示の位置情報とに基づいて、車両の位置を適切に推定することができる。従って、これらの構成によれば、駐車場内で自動走行を行う場合における車両の発進前の位置、換言すれば、自動走行の発進起点となる車両の初期位置を適切に推定することができる。 According to these configurations, when the vehicle is stopped, the recognition position of the identification mark based on the recognition result of the identification mark provided corresponding to each of the plurality of parking spaces installed in the parking lot, and the recognition position of the identification mark. The position of the vehicle can be appropriately estimated based on the position information of the identification mark included in the feature information. Therefore, according to these configurations, it is possible to appropriately estimate the position before the vehicle starts when the vehicle is automatically driven in the parking lot, in other words, the initial position of the vehicle which is the starting point of the automatic driving.

本開示に係る技術のさらなる特徴と利点は、図面を参照して記述する以下の例示的かつ非限定的な実施形態の説明によってより明確になるであろう。 Further features and advantages of the techniques according to the present disclosure will be further clarified by the following illustration of exemplary and non-limiting embodiments described with reference to the drawings.

車両状態推定システムが適用される駐車場の一例を示す図Diagram showing an example of a parking lot to which a vehicle condition estimation system is applied 車両状態推定システムのシステム構成を示すブロック図Block diagram showing the system configuration of the vehicle state estimation system 車両が自動走行の発進起点である初期位置に停車している状態を示す平面図A plan view showing a state in which the vehicle is stopped at the initial position which is the starting point of automatic driving. 停車中の車両の位置を推定する処理の説明図Explanatory diagram of the process of estimating the position of a stopped vehicle 停車中の車両の方位を推定する処理の説明図Explanatory diagram of the process of estimating the direction of a stopped vehicle 車両の位置及び方位を推定する際の制御の手順を示すフローチャートFlow chart showing the control procedure when estimating the position and orientation of the vehicle 他の駐車車両が存在している状態を示す平面図Top view showing the presence of other parked vehicles 第2実施形態において、停車中の車両の方位を推定する処理の説明図An explanatory diagram of a process of estimating the direction of a stopped vehicle in the second embodiment.

〔第1実施形態〕
第1実施形態に係る車両状態推定システム(車両状態推定方法、車両状態推定プログラム)について、図面を参照して説明する。図1に示すように、この車両状態推定システム100は、駐車場1内において車両2の入庫及び出庫を自動で行う自動バレー駐車システムに適用される。
[First Embodiment]
The vehicle state estimation system (vehicle state estimation method, vehicle state estimation program) according to the first embodiment will be described with reference to the drawings. As shown in FIG. 1, the vehicle state estimation system 100 is applied to an automatic valley parking system that automatically enters and exits the vehicle 2 in the parking lot 1.

〔自動バレー駐車システムの概要〕
まず、自動バレー駐車システムの概要について簡単に説明する。
[Overview of automatic valley parking system]
First, the outline of the automatic valley parking system will be briefly explained.

図1には、自動バレー駐車システムが適用される駐車場1の一例が示されている。駐車場1には、駐車枠線L(帯状地物に相当)によって区画されて車両2の駐車場所となる駐車スペースP3と、駐車スペースP3へ入庫される入庫対象の車両2から乗員9が降車する降車スペースP1と、駐車スペースP3から出庫された出庫対象の車両2に乗員9が乗車する乗車スペースP2と、が設けられている。 FIG. 1 shows an example of a parking lot 1 to which an automatic valley parking system is applied. In the parking lot 1, the parking space P3, which is partitioned by the parking frame line L (corresponding to a strip-shaped feature) and serves as a parking place for the vehicle 2, and the occupant 9 disembarks from the vehicle 2 to be stored in the parking space P3. There is provided a disembarkation space P1 and a boarding space P2 in which the occupant 9 rides on the vehicle 2 to be dismissed from the parking space P3.

図示の例では、降車スペースP1と乗車スペースP2とは、それぞれ1つずつ配置されているが、これらは複数ずつ配置されていてもよい。また、駐車スペースP3は、駐車場1内において複数配置されており、複数の駐車スペースP3が並んで配置されている。より具体的には、駐車場1には、駐車スペースP3が複数配列して構成される駐車エリアPAが、相互に間隔を空けて複数設けられている。複数の駐車エリアPA同士の間には、車両2が走行可能な領域(道路)が形成されている。 In the illustrated example, one getting-off space P1 and one getting-on space P2 are arranged, but a plurality of these may be arranged. Further, a plurality of parking spaces P3 are arranged in the parking lot 1, and a plurality of parking spaces P3 are arranged side by side. More specifically, in the parking lot 1, a plurality of parking areas PAs in which a plurality of parking spaces P3 are arranged are provided at intervals from each other. An area (road) on which the vehicle 2 can travel is formed between the plurality of parking areas PAs.

図示は省略するが、入庫の際には、降車スペースP1において車両2から乗員9が降車した後、車両2は、入庫指示に応じて、降車スペースP1から空きの駐車スペースP3へ自動走行して当該駐車スペースP3において自動的に停車(駐車)する。そして図1に示すように、出庫の際には、車両2は、出庫指示に応じて、駐車スペースP3から乗車スペースP2へ自動走行して当該乗車スペースP2において自動的に停車する。入庫指示および出庫指示は、例えば、乗員9による端末装置3の操作によって実現される。端末装置3は、乗員9が携帯している携帯端末であっても良いし、駐車場1に設置された固定端末であっても良い。 Although not shown, the vehicle 2 automatically travels from the disembarkation space P1 to the empty parking space P3 in response to the warehousing instruction after the occupant 9 disembarks from the vehicle 2 in the disembarkation space P1 at the time of warehousing. The vehicle automatically stops (parks) in the parking space P3. Then, as shown in FIG. 1, at the time of leaving the garage, the vehicle 2 automatically travels from the parking space P3 to the boarding space P2 and automatically stops at the boarding space P2 in response to the warehousing instruction. The warehousing instruction and the warehousing instruction are realized, for example, by the operation of the terminal device 3 by the occupant 9. The terminal device 3 may be a mobile terminal carried by the occupant 9, or may be a fixed terminal installed in the parking lot 1.

〔車両状態推定システムの構成〕
このような自動バレー駐車システムにおいて、車両状態推定システム100は、駐車場1内において、設定された目的地Pに向かって自動走行する車両2の発進前の位置や方位を推定する。本実施形態において「目的地P」とは、駐車場1を管理する管制装置10によって指定される場所である。入庫の際には、空きの駐車スペースP3(空きの駐車スペースP3が複数存在する場合には、それらのうち何れか)が目的地Pとして指定される。出庫の際には、乗車スペースP2が目的地Pとして指定される。例えば乗車スペースP2が使用中であって降車スペースP1が空いている場合には、当該降車スペースP1が出庫時の目的地Pとして指定されてもよい。なお、空きの駐車スペースP3が複数存在する場合には、これらのうち何れかを、乗員9が端末装置3の操作により指定するようにしてもよい。また、図1では、降車スペースP1及び乗車スペースP2が、それぞれ1つずつ設けられている例を示しているが、降車スペースP1及び乗車スペースP2のそれぞれが複数設けられていている場合には、複数の降車スペースP1及び複数の乗車スペースP2の何れかが、出庫時における目的地Pとして指定されるようにしてもよい。或いは、同じ1つのスペースが、降車スペースP1と乗車スペースP2とで兼用されるようになっていても良い。
[Vehicle condition estimation system configuration]
In such an automatic valley parking system, the vehicle state estimation system 100 estimates the position and orientation of the vehicle 2 that automatically travels toward the set destination P in the parking lot 1 before starting. In the present embodiment, the "destination P" is a place designated by the control device 10 that manages the parking lot 1. At the time of warehousing, an empty parking space P3 (if there are a plurality of empty parking spaces P3, any one of them) is designated as the destination P. At the time of delivery, the boarding space P2 is designated as the destination P. For example, when the boarding space P2 is in use and the disembarking space P1 is vacant, the disembarking space P1 may be designated as the destination P at the time of delivery. When there are a plurality of empty parking spaces P3, the occupant 9 may specify one of them by operating the terminal device 3. Further, FIG. 1 shows an example in which one disembarkation space P1 and one boarding space P2 are provided, but when a plurality of disembarkation space P1 and one boarding space P2 are provided, each of them Either of the plurality of disembarkation spaces P1 and the plurality of boarding spaces P2 may be designated as the destination P at the time of delivery. Alternatively, the same one space may be shared by the getting-off space P1 and the boarding space P2.

尚、車両状態推定方法は、車両状態推定システム100を構成するハードウェアやソフトウェアを利用して、自動走行による発進前の車両2の位置や方位の推定を実行する方法である。また、車両状態推定プログラムは、例えば車両状態推定システム100に含まれるコンピュータにおいて実行され、車両状態推定機能を実現させるプログラムである。 The vehicle state estimation method is a method of estimating the position and orientation of the vehicle 2 before starting by automatic driving by using the hardware and software constituting the vehicle state estimation system 100. The vehicle state estimation program is, for example, a program executed by a computer included in the vehicle state estimation system 100 to realize a vehicle state estimation function.

図1〜図3に示すように、車両状態推定システム100(車両状態推定方法/車両状態推定プログラム)は、車両2の走行を制御する走行制御部21(走行制御ステップ/走行制御機能)と、車両2の動作状態を判定する動作状態判定部27と、目的地Pまでの車両2の走行経路Rを設定する経路設定部13(経路設定ステップ/経路設定機能)と、駐車場1内に設けられた地物Oの絶対位置情報(位置情報)を含む地物情報を取得する地物情報取得部24(地物情報取得ステップ/地物情報取得機能)と、車両2に搭載されたカメラC(撮影装置)により撮影(検知)された車両2の周辺画像を取得する周辺画像取得部26(周辺画像取得ステップ/周辺画像取得機能)と、周辺画像中に含まれる地物Oの画像認識処理を行う画像認識部25(画像認識ステップ/画像認識機能)と、車両2の駐車場1内における位置を推定する推定部23(推定ステップ/推定機能)と、を備えている。ここで、カメラCは、周辺検知センサSAの一例である。同様に、周辺画像は周辺情報の一例であり、画像認識処理(画像認識ステップ/画像認識機能)は認識処理(認識ステップ/認識機能)の一例である。 As shown in FIGS. 1 to 3, the vehicle state estimation system 100 (vehicle state estimation method / vehicle state estimation program) includes a travel control unit 21 (travel control step / travel control function) that controls the travel of the vehicle 2. An operation state determination unit 27 for determining the operation state of the vehicle 2, a route setting unit 13 (route setting step / route setting function) for setting the traveling route R of the vehicle 2 to the destination P, and a parking lot 1 are provided. The feature information acquisition unit 24 (feature information acquisition step / feature information acquisition function) for acquiring feature information including the absolute position information (position information) of the feature O, and the camera C mounted on the vehicle 2. Peripheral image acquisition unit 26 (peripheral image acquisition step / peripheral image acquisition function) that acquires the peripheral image of the vehicle 2 photographed (detected) by (photographing device), and image recognition processing of the feature O included in the peripheral image. It is provided with an image recognition unit 25 (image recognition step / image recognition function) for performing the above, and an estimation unit 23 (estimation step / estimation function) for estimating the position of the vehicle 2 in the parking lot 1. Here, the camera C is an example of the peripheral detection sensor SA. Similarly, the peripheral image is an example of peripheral information, and the image recognition process (image recognition step / image recognition function) is an example of recognition processing (recognition step / recognition function).

ここで、「地物Oの絶対位置情報」とは、駐車場1内における地物Oの絶対位置を示す情報をいう。「地物Oの絶対位置」とは、駐車場1内の地面に固定された固定座標上の位置である。この固定座標は、駐車場1内だけ或いは特定の地域だけに設定された座標でも良いし、緯度及び経度で表される地理座標であっても良い。本実施形態では、駐車場1内における任意の基準位置を原点として設定された座標系を絶対座標系(図4参照)として、地物Oの絶対位置を特定している。 Here, the "absolute position information of the feature O" means information indicating the absolute position of the feature O in the parking lot 1. The "absolute position of the feature O" is a position on the fixed coordinates fixed to the ground in the parking lot 1. The fixed coordinates may be coordinates set only in the parking lot 1 or only in a specific area, or may be geographic coordinates represented by latitude and longitude. In the present embodiment, the absolute position of the feature O is specified by using the coordinate system set with an arbitrary reference position in the parking lot 1 as the origin as the absolute coordinate system (see FIG. 4).

また、地物情報には、地物Oの絶対位置情報の他にも、地物Oの種類等の情報も含まれている。地物Oの種類には、立体地物や平面地物などが含まれる。立体地物としては、道路標識や縁石ブロックなどが含まれる。平面地物としては、道路標示、その他、地面に標示された標示物など、地面に設けられたペイント地物が含まれる。図3に示すように、地物Oには、駐車場1内に設置された複数の駐車スペースP3のそれぞれに対応して各駐車スペースP3の外側の地表面に設けられたマーカM(識別対象地物に相当)と、駐車場1内の地表面に設けられて駐車スペースP3の両側を区画する一対の駐車枠線L(帯状地物に相当)と、が含まれている。そのため本例では、地物情報には、駐車場1内における、マーカM及び駐車枠線Lのそれぞれの絶対位置を示す絶対位置情報(位置情報)が含まれている。なお、マーカMは、複数の駐車スペースP3のそれぞれに対応して設けられていれば良く、例えば、駐車スペースP3の内側に設けられていても良い。或いは、マーカMは、駐車スペースP3の外側及び内側の双方に亘って設けられていても良い。また本例では、地物情報には、駐車場1内の地表面に設けられた駐車枠線Lのそれぞれについての延在方位を示す個別方位情報(方位情報)が含まれている。ここで、駐車枠線Lの延在方位、すなわち、「地物Oの延在方位」は、駐車場1内の地面に固定された固定座標上の方位である。以下では、地物Oの延在方位を、「地物Oの絶対方位」と称することがある。なお、上記の他にも、地物情報には、地物Oの形状を示す形状情報、地物Oの色彩を示す色彩情報、の少なくとも1つが含まれていても良い。また、駐車枠線Lは、駐車場1内の地表面に設けられた帯状標示であり、帯状地物の一例である。 In addition to the absolute position information of the feature O, the feature information also includes information such as the type of the feature O. Types of feature O include three-dimensional features and flat features. Three-dimensional features include road signs and curb blocks. Flat features include road markings and other painted features provided on the ground, such as markings on the ground. As shown in FIG. 3, the feature O has a marker M (identification target) provided on the outer ground surface of each parking space P3 corresponding to each of the plurality of parking spaces P3 installed in the parking lot 1. A pair of parking frame lines L (corresponding to a strip-shaped feature) provided on the ground surface in the parking lot 1 and partitioning both sides of the parking space P3 are included. Therefore, in this example, the feature information includes absolute position information (position information) indicating the absolute positions of the marker M and the parking frame line L in the parking lot 1. The marker M may be provided corresponding to each of the plurality of parking spaces P3, and may be provided inside the parking space P3, for example. Alternatively, the marker M may be provided both outside and inside the parking space P3. Further, in this example, the feature information includes individual directional information (direction information) indicating the extending direction of each of the parking frame lines L provided on the ground surface in the parking lot 1. Here, the extending direction of the parking frame line L, that is, the "extending direction of the feature O" is the direction on the fixed coordinates fixed to the ground in the parking lot 1. In the following, the extending direction of the feature O may be referred to as "absolute direction of the feature O". In addition to the above, the feature information may include at least one of shape information indicating the shape of the feature O and color information indicating the color of the feature O. Further, the parking frame line L is a band-shaped sign provided on the ground surface in the parking lot 1, and is an example of a band-shaped feature.

本実施形態では、車両状態推定システム100は、駐車場1の全体を制御する管制装置10と、車両2を制御する車両制御装置20と、を備えている。管制装置10及び車両制御装置20のそれぞれは、プロセッサ(システムLSI、DSP(Digital Signal Processor)等)や、ECU(Electronic Control Unit)として構成された演算処理ユニットを含んで構成されている。 In the present embodiment, the vehicle state estimation system 100 includes a control device 10 that controls the entire parking lot 1 and a vehicle control device 20 that controls the vehicle 2. Each of the control device 10 and the vehicle control device 20 includes a processor (system LSI, DSP (Digital Signal Processor), etc.) and an arithmetic processing unit configured as an ECU (Electronic Control Unit).

管制装置10は、駐車場1に設置されると共に、車両制御装置20と通信自在に構成されている。管制装置10は、駐車場1における駐車スペースP3の空き状況等を管理する駐車場管理部11と、駐車場1の地図情報や駐車場1内に設けられた地物Oの種類及びその絶対位置情報(絶対位置データ)等の地物情報を記憶するデータ記憶部12と、を備えている。本例では、上述の経路設定部13は、管制装置10に備えられている。但し、このような構成に限定されることなく、データ記憶部12及び経路設定部13の少なくとも一方が、車両制御装置20に備えられていてもよい。 The control device 10 is installed in the parking lot 1 and is configured to be communicative with the vehicle control device 20. The control device 10 includes a parking lot management unit 11 that manages the availability of the parking space P3 in the parking lot 1, the map information of the parking lot 1, the type of the feature O provided in the parking lot 1, and its absolute position. It includes a data storage unit 12 for storing feature information such as information (absolute position data). In this example, the above-mentioned route setting unit 13 is provided in the control device 10. However, without being limited to such a configuration, at least one of the data storage unit 12 and the route setting unit 13 may be provided in the vehicle control device 20.

駐車場管理部11は、駐車スペースP3を撮影する撮影装置(不図示)や駐車スペースP3における車両2の有無を検出するセンサ(不図示)などによって、駐車スペースP3の空き状況を管理する。また、駐車場管理部11は、入庫指示の対象となっている車両2および出庫指示の対象となっている車両2を特定する情報、例えば各車両2の識別情報や位置情報等を管理する。 The parking lot management unit 11 manages the availability of the parking space P3 by a photographing device (not shown) for photographing the parking space P3 and a sensor (not shown) for detecting the presence or absence of the vehicle 2 in the parking space P3. In addition, the parking lot management unit 11 manages information that identifies the vehicle 2 that is the target of the warehousing instruction and the vehicle 2 that is the target of the warehousing instruction, for example, identification information and position information of each vehicle 2.

データ記憶部12は、地物Oの絶対位置および地物Oの種類等の情報を含む地物情報を記憶している。本実施形態では、データ記憶部12は、複数の駐車枠線Lのそれぞれについての延在方位を示す個別方位情報(方位情報)を、地物情報として記憶している。データ記憶部12は、例えば、揮発性の主記憶装置や不揮発性の補助記憶装置等を含んで構成されている。 The data storage unit 12 stores feature information including information such as the absolute position of the feature O and the type of the feature O. In the present embodiment, the data storage unit 12 stores individual direction information (direction information) indicating the extending direction for each of the plurality of parking borders L as feature information. The data storage unit 12 includes, for example, a volatile main storage device, a non-volatile auxiliary storage device, and the like.

経路設定部13は、目的地Pまでの車両2の走行経路Rを設定する。経路設定部13は、入庫指示があった場合には、入庫指示の対象となっている車両2が停まっている降車スペースP1から入庫先として指定された駐車スペースP3までの走行経路Rを設定する。経路設定部13は、出庫指示があった場合には、出庫指示の対象となっている車両2(駐車車両)が駐車している駐車スペースP3から乗車スペースP2までの走行経路Rを設定する。 The route setting unit 13 sets the travel route R of the vehicle 2 to the destination P. When the warehousing instruction is given, the route setting unit 13 sets the traveling route R from the disembarkation space P1 where the vehicle 2 subject to the warehousing instruction is parked to the parking space P3 designated as the warehousing destination. To do. When the exit instruction is given, the route setting unit 13 sets the travel route R from the parking space P3 to the boarding space P2 in which the vehicle 2 (parked vehicle) subject to the exit instruction is parked.

車両制御装置20は、車両2に設置されると共に、管制装置10と通信自在に構成されている。車両制御装置20は、自車の位置に関する自車位置情報を取得する自車位置情報取得部22を備えている。本例では、上述の走行制御部21、動作状態判定部27、地物情報取得部24、周辺画像取得部26、画像認識部25、及び推定部23、は、車両制御装置20に備えられている。 The vehicle control device 20 is installed in the vehicle 2 and is configured to be communicative with the control device 10. The vehicle control device 20 includes a vehicle position information acquisition unit 22 that acquires vehicle position information regarding the position of the vehicle. In this example, the above-mentioned traveling control unit 21, operation state determination unit 27, feature information acquisition unit 24, peripheral image acquisition unit 26, image recognition unit 25, and estimation unit 23 are provided in the vehicle control device 20. There is.

走行制御部21は、各種センサ(不図示)による検出結果に基づいて車両2の走行、操舵、変速、及び停止などを制御する。走行制御部21は、経路設定部13から取得した目的地Pまでの走行経路Rの情報と、自車位置情報取得部22により取得した自車位置情報と、カメラCにより撮影された周辺画像情報とに基づいて、目的地Pに到着するまでの間、車両2の動作を制御する。 The travel control unit 21 controls traveling, steering, shifting, stopping, and the like of the vehicle 2 based on the detection results of various sensors (not shown). The travel control unit 21 includes information on the travel route R to the destination P acquired from the route setting unit 13, the vehicle position information acquired by the vehicle position information acquisition unit 22, and peripheral image information captured by the camera C. Based on the above, the operation of the vehicle 2 is controlled until the destination P is reached.

自車位置情報取得部22は、車両2に搭載されたGPS受信機G、方位センサS1(例えば車両2の旋回角度を検出するジャイロセンサ)、及び回転センサS2(例えば車輪の回転速度を検出する車輪速センサ)等を用いて、自車位置情報を取得する。 The own vehicle position information acquisition unit 22 detects the GPS receiver G mounted on the vehicle 2, the orientation sensor S1 (for example, a gyro sensor that detects the turning angle of the vehicle 2), and the rotation sensor S2 (for example, the rotation speed of the wheels). Use a wheel speed sensor) or the like to acquire vehicle position information.

動作状態判定部27は、走行、操舵、変速、及び停止などの車両2の動作状態を判定する。ここでは、動作状態判定部27は、車両2が駐車場1内で停車中であるか否かを判定する。これにより、少なくとも、車両2が自動走行による発進前の状態であるか否かを判定することができる。動作状態判定部27は、GPS受信機G、方位センサS1、及び回転センサS2等の各種センサ類を用いて、車両2の動作状態を判定する。但し、このような構成に限定されることなく、動作状態判定部27は、上記の各種センサ類を用いて自車位置情報を取得する自車位置情報取得部22と連携して、当該自車位置情報取得部22から得た情報に基づいて車両2の動作状態を判定してもよいし、走行制御部21と連携して、当該走行制御部21による車両2の制御状態に基づいて車両2の動作状態を判定するようにしてもよい。 The operation state determination unit 27 determines the operation state of the vehicle 2 such as running, steering, shifting, and stopping. Here, the operation state determination unit 27 determines whether or not the vehicle 2 is stopped in the parking lot 1. Thereby, at least, it can be determined whether or not the vehicle 2 is in the state before the start by the automatic traveling. The operation state determination unit 27 determines the operation state of the vehicle 2 by using various sensors such as the GPS receiver G, the direction sensor S1, and the rotation sensor S2. However, without being limited to such a configuration, the operating state determination unit 27 cooperates with the vehicle position information acquisition unit 22 that acquires the vehicle position information using the above-mentioned various sensors, and the vehicle itself. The operating state of the vehicle 2 may be determined based on the information obtained from the position information acquisition unit 22, or the vehicle 2 may be determined based on the control state of the vehicle 2 by the travel control unit 21 in cooperation with the travel control unit 21. The operating state of the above may be determined.

地物情報取得部24は、管制装置10のデータ記憶部12から地物情報を取得する。上述のように、地物情報には、地物Oの絶対位置情報、種類情報、及び方位情報等が含まれている。 The feature information acquisition unit 24 acquires feature information from the data storage unit 12 of the control device 10. As described above, the feature information includes absolute position information, type information, orientation information, and the like of the feature O.

周辺画像取得部26は、車両2に搭載されたカメラCにより撮影された車両2の周辺画像を取得する。図3に示すように、本実施形態では、車両2の進行方向を基準として、当該車両2の前方、及び左右両側が、カメラCによって撮影される。図3において仮想線(二点鎖線)で示されるエリアは、カメラCの撮影エリアCA(検知エリア)である。本実施形態では、カメラCは、車両2の前方を撮影するフロントカメラと、車両2の側方を撮影するサイドカメラと、を含んでいる。車両2には、前方を撮影するフロントカメラや後方を撮影するバックカメラ等も搭載されている場合があり、これらをカメラCとして利用してもよい。 The peripheral image acquisition unit 26 acquires a peripheral image of the vehicle 2 taken by the camera C mounted on the vehicle 2. As shown in FIG. 3, in the present embodiment, the front side and the left and right sides of the vehicle 2 are photographed by the camera C with reference to the traveling direction of the vehicle 2. The area indicated by the virtual line (dashed-dotted line) in FIG. 3 is the shooting area CA (detection area) of the camera C. In the present embodiment, the camera C includes a front camera for photographing the front of the vehicle 2 and a side camera for photographing the side of the vehicle 2. The vehicle 2 may also be equipped with a front camera for photographing the front, a back camera for photographing the rear, and the like, and these may be used as the camera C.

図3に示すように、本実施形態では、車両2が駐車スペースP3の1つである対象スペースPTに停車中の状態で、カメラCによる撮影エリアCAが、対象スペースPTに対応するマーカM(図示の例では第2マーカM2)と、対象スペースPTに隣接する一対の駐車スペースP3のそれぞれに対応するマーカM(図示の例では、第1マーカM1及び第3マーカM3)と、を含み得る範囲に設定されている。また本例では、車両2が対象スペースPTに停車中の状態で、カメラCによる撮影エリアCAが、対象スペースPTの両側を区画する一対の駐車枠線L(図示の例では、第1駐車枠線L1及び第2駐車枠線L2)を含み得る範囲に設定されている。なおここでは、説明の便宜上、他の駐車スペースP3と区別するため、複数の駐車スペースP3のうち自動走行による発進前の車両2が停車している駐車スペースP3を、対象スペースPTと称しているだけであり、当該対象スペースPTと他の駐車スペースP3とに構造上特別な相違はない。 As shown in FIG. 3, in the present embodiment, when the vehicle 2 is stopped at the target space PT, which is one of the parking spaces P3, the photographing area CA by the camera C is the marker M (corresponding to the target space PT). In the illustrated example, the second marker M2) and the markers M corresponding to each of the pair of parking spaces P3 adjacent to the target space PT (in the illustrated example, the first marker M1 and the third marker M3) may be included. It is set in the range. Further, in this example, while the vehicle 2 is stopped at the target space PT, the shooting area CA by the camera C is a pair of parking frame lines L that divide both sides of the target space PT (in the illustrated example, the first parking frame). The range is set so as to include the line L1 and the second parking frame line L2). Here, for convenience of explanation, in order to distinguish from other parking spaces P3, the parking space P3 in which the vehicle 2 before starting by automatic running is stopped is referred to as a target space PT among the plurality of parking spaces P3. However, there is no structural difference between the target space PT and the other parking space P3.

画像認識部25は、周辺画像取得部26が取得した周辺画像から、当該周辺画像中に含まれる地物Oの画像認識処理を行う。具体的には、画像認識部25は、認識した地物Oの周辺画像中における位置、種類、及び方位のうち少なくとも1つについての認識を行う。本実施形態では、画像認識部25は、撮影エリアCAに含まれ得る複数のマーカMを対象として画像認識処理を行い、当該複数のマーカMのそれぞれについて、少なくとも絶対位置(位置)の認識を行う。また、画像認識部25は、撮影エリアCAに含まれ得る一対の駐車枠線Lを対象として画像認識処理を行い、当該一対の駐車枠線Lのそれぞれについて、少なくとも絶対方位(延在方位)の認識を行う。 The image recognition unit 25 performs image recognition processing of the feature O included in the peripheral image from the peripheral image acquired by the peripheral image acquisition unit 26. Specifically, the image recognition unit 25 recognizes at least one of the position, type, and orientation of the recognized feature O in the peripheral image. In the present embodiment, the image recognition unit 25 performs image recognition processing on a plurality of markers M that can be included in the shooting area CA, and recognizes at least an absolute position (position) of each of the plurality of marker Ms. .. Further, the image recognition unit 25 performs image recognition processing on a pair of parking borders L that can be included in the shooting area CA, and each of the pair of parking borders L has at least an absolute orientation (extended orientation). Recognize.

推定部23は、車両2の駐車場1内における位置、より具体的には、駐車場1内の何れかの箇所において停車中の車両2の位置を推定する。「車両2の位置」は、例えば平面視における車両2の中心位置等、規定の位置を基準として特定される。図4において(Xf,Yf)で示される位置が、車両2の位置である。また、推定部23は、車両2の駐車場1内における方位、より具体的には、駐車場1内の何れかの箇所において停車中の車両2の方位を推定する。「車両2の方位」は、例えば車両2の前後方向や幅方向等、規定の方向を基準として特定される。図5において「Df」で示される方位が、車両2の方位であり、本例では、車両2の前後方向を車両2の方位Dfとしている。 The estimation unit 23 estimates the position of the vehicle 2 in the parking lot 1, more specifically, the position of the vehicle 2 stopped at any position in the parking lot 1. The "position of the vehicle 2" is specified with reference to a predetermined position such as the center position of the vehicle 2 in a plan view. The position indicated by (Xf, Yf) in FIG. 4 is the position of the vehicle 2. Further, the estimation unit 23 estimates the direction of the vehicle 2 in the parking lot 1, more specifically, the direction of the vehicle 2 stopped at any place in the parking lot 1. The "direction of the vehicle 2" is specified with reference to a specified direction such as the front-rear direction and the width direction of the vehicle 2. The direction indicated by "Df" in FIG. 5 is the direction of the vehicle 2, and in this example, the front-rear direction of the vehicle 2 is the direction Df of the vehicle 2.

〔車両位置の推定〕
以下、車両状態推定システム100による車両位置の推定について詳細に説明する。図4は、停車中の車両2の位置(Xf,Yf)を推定する処理の説明図である。
[Estimation of vehicle position]
Hereinafter, the estimation of the vehicle position by the vehicle state estimation system 100 will be described in detail. FIG. 4 is an explanatory diagram of a process of estimating the position (Xf, Yf) of the stopped vehicle 2.

車両状態推定システム100において、画像認識部25は、動作状態判定部27により車両2が停車中であると判定された場合に、停車中に撮影された周辺画像中に含まれる地物Oのうち、マーカM(識別対象地物)を認識する。そして、推定部23は、画像認識結果に基づくマーカMの位置である認識位置(X´,Y´)と、地物情報に含まれるマーカMの絶対位置情報とに基づいて、停車中の車両2の位置(Xf,Yf)を推定する。図4において、仮想線(二点鎖線)で示されるマーカMの位置が、画像認識結果に基づくマーカMの認識位置(X´,Y´)であり、実線で示されるマーカMの位置が、絶対位置情報に基づくマーカMの絶対位置(X,Y)である。本実施形態では、推定部23は、マーカMについての認識位置(X´,Y´)を当該マーカMについての絶対位置(X,Y)に適合させることで誤差を算出し、この誤差に基づいて車両2の位置(Xf,Yf)を補正する。そして、補正された車両2の位置(Xf,Yf)を、停車中の車両2の位置(Xf,Yf)と推定する。 In the vehicle state estimation system 100, the image recognition unit 25 is among the features O included in the peripheral image taken while the vehicle is stopped when the operation state determination unit 27 determines that the vehicle 2 is stopped. , Marker M (identification target feature) is recognized. Then, the estimation unit 23 is a stopped vehicle based on the recognition position (X', Y') which is the position of the marker M based on the image recognition result and the absolute position information of the marker M included in the feature information. Estimate the position of 2 (Xf, Yf). In FIG. 4, the position of the marker M indicated by the virtual line (dashed line) is the recognition position (X', Y') of the marker M based on the image recognition result, and the position of the marker M indicated by the solid line is It is the absolute position (X, Y) of the marker M based on the absolute position information. In the present embodiment, the estimation unit 23 calculates an error by matching the recognition position (X', Y') about the marker M with the absolute position (X, Y) about the marker M, and based on this error. The position (Xf, Yf) of the vehicle 2 is corrected. Then, the corrected position of the vehicle 2 (Xf, Yf) is estimated to be the position of the stopped vehicle 2 (Xf, Yf).

図3には、車両2が対象スペースPTにおいて停車中の状態が示されており、画像認識部25は、撮影エリアCAに含まれる第1マーカM1、第2マーカM2、及び第3マーカM3を認識する。そして図4に示すように、推定部23は、画像認識結果に基づいて、第1マーカM1、第2マーカM2、及び第3マーカM3のそれぞれについて、第1認識位置(X1´,Y1´)、第2認識位置(X2´,Y2´)、及び第3認識位置(X3´,Y3´)を取得(演算)する。また、推定部23は、絶対位置情報に基づいて、第1マーカM1、第2マーカM2、及び第3マーカM3のそれぞれについて、第1絶対位置(X1,Y1)、第2絶対位置(X2,Y2)、及び第3絶対位置(X3,Y3)を取得する。 FIG. 3 shows a state in which the vehicle 2 is stopped in the target space PT, and the image recognition unit 25 sets the first marker M1, the second marker M2, and the third marker M3 included in the photographing area CA. recognize. Then, as shown in FIG. 4, the estimation unit 23 sets the first recognition position (X1', Y1') for each of the first marker M1, the second marker M2, and the third marker M3 based on the image recognition result. , The second recognition position (X2', Y2'), and the third recognition position (X3', Y3') are acquired (calculated). Further, the estimation unit 23 sets the first absolute position (X1, Y1) and the second absolute position (X2) for each of the first marker M1, the second marker M2, and the third marker M3 based on the absolute position information. Y2) and the third absolute position (X3, Y3) are acquired.

本実施形態では、画像認識部25が、周辺画像中に含まれる複数のマーカM1〜M3を認識した場合であって、複数のマーカM1〜M3のそれぞれの認識位置(X1´,Y1´)〜(X3´,Y3´)に基づく複数のマーカM1〜M3の相対位置関係と、地物情報に含まれるマーカMの絶対位置情報に基づく複数のマーカM1〜M3の相対位置関係とに相違がある場合には、推定部23は、複数のマーカM1〜M3のそれぞれについての認識位置(X1´,Y1´)〜(X3´,Y3´)と絶対位置情報に示される絶対位置(X1,Y1)〜(X3,Y3)とのずれが複数のマーカM1〜M3において同量となるように、複数のマーカM1〜M3のそれぞれの認識位置(X1´,Y1´)〜(X3´,Y3´)を絶対位置情報に示される絶対位置(X1,Y1)〜(X3,Y3)に適合させ、当該適合後の複数のマーカM1〜M3の認識位置(X1´,Y1´)〜(X3´,Y3´)を基準とした車両2の位置(Xf,Yf)を、車両2の位置(Xf,Yf)と推定する。 In the present embodiment, the image recognition unit 25 recognizes a plurality of markers M1 to M3 included in the peripheral image, and the recognition positions (X1', Y1') of each of the plurality of markers M1 to M3 are ~. There is a difference between the relative positional relationship of the plurality of markers M1 to M3 based on (X3', Y3') and the relative positional relationship of the plurality of markers M1 to M3 based on the absolute position information of the markers M included in the feature information. In this case, the estimation unit 23 has the recognition positions (X1', Y1') to (X3', Y3') for each of the plurality of markers M1 to M3 and the absolute positions (X1, Y1) shown in the absolute position information. Recognizing positions (X1', Y1') to (X3', Y3') of the plurality of markers M1 to M3 so that the deviation from to (X3, Y3) is the same for the plurality of markers M1 to M3. Is adapted to the absolute positions (X1, Y1) to (X3, Y3) shown in the absolute position information, and the recognition positions (X1', Y1') to (X3', Y3) of the plurality of markers M1 to M3 after the adaptation are adapted. The position (Xf, Yf) of the vehicle 2 with reference to') is estimated to be the position (Xf, Yf) of the vehicle 2.

推定部23は、例えば、一対のマーカM(例えば第1マーカM1及び第2マーカM2)に基づいて、画像認識結果による認識位置(X´,Y´)に基づく相対位置関係と、絶対位置情報による絶対位置(X,Y)に基づく相対位置関係とに相違があるか否かを判定する。一例として、認識位置(X´,Y´)に基づく第1マーカM1と第2マーカM2との相対位置関係に関し、これらの二点間距離が“2.2メートル”であり、絶対位置(X,Y)に基づく第1マーカM1と第2マーカM2との相対位置関係に関し、これらの二点間距離が“2メートル”である場合を考える。この場合、推定部23は、「画像認識結果による認識位置(X´,Y´)に基づく相対位置関係と、絶対位置情報による絶対位置(X,Y)に基づく相対位置関係とに相違がある」と判定する。そして、推定部23は、これら2つの相対位置関係のずれ(二点間距離の差)を演算する。上記の場合、このずれは、“0.2メートル”となる。そして、推定部23は、上記の相対位置関係のずれに基づき、第1マーカM1及び第2マーカM2のそれぞれについて、認識位置(X´,Y´)と絶対位置(X,Y)とのずれが同量となるように、すなわち、“0.1メートルずつ”となるように、それぞれの位置を適合して、車両2の位置の補正を行う。換言すれば、適合後のマーカMの認識位置(X´,Y´)を基準とした車両2の位置(Xf,Yf)を、車両2の位置(Xf,Yf)と推定する。なお、上記では、第1マーカM1と第2マーカM2との相対位置関係に基づいて車両2の位置(Xf,Yf)を推定する例について説明したが、第1マーカM1〜第3マーカM3のうち何れか2つの相対位置関係に基づいて車両2の位置(Xf,Yf)を推定すればよい。或いは、第1マーカM1〜第3マーカM3の全ての相対位置関係に基づいて車両2の位置(Xf,Yf)を推定するようにしてもよい。 The estimation unit 23 is based on, for example, a pair of markers M (for example, the first marker M1 and the second marker M2), and the relative positional relationship based on the recognition position (X', Y') based on the image recognition result and the absolute position information. It is determined whether or not there is a difference from the relative positional relationship based on the absolute position (X, Y). As an example, regarding the relative positional relationship between the first marker M1 and the second marker M2 based on the recognition position (X', Y'), the distance between these two points is "2.2 meters" and the absolute position (X). , Y), consider the case where the distance between these two points is "2 meters" with respect to the relative positional relationship between the first marker M1 and the second marker M2. In this case, the estimation unit 23 has a difference between the "relative positional relationship based on the recognition position (X', Y') based on the image recognition result and the relative positional relationship based on the absolute position (X, Y) based on the absolute position information. Is determined. Then, the estimation unit 23 calculates the deviation (difference in the distance between the two points) of these two relative positional relationships. In the above case, this deviation is "0.2 meters". Then, the estimation unit 23 deviates from the recognition position (X', Y') and the absolute position (X, Y) for each of the first marker M1 and the second marker M2 based on the deviation of the relative positional relationship. The positions of the vehicle 2 are corrected by adjusting the respective positions so that the amounts are the same, that is, "0.1 meters each". In other words, the position (Xf, Yf) of the vehicle 2 with respect to the recognition position (X', Y') of the marker M after conforming is estimated to be the position (Xf, Yf) of the vehicle 2. In the above description, an example of estimating the position (Xf, Yf) of the vehicle 2 based on the relative positional relationship between the first marker M1 and the second marker M2 has been described, but the first marker M1 to the third marker M3 The position (Xf, Yf) of the vehicle 2 may be estimated based on the relative positional relationship of any two of them. Alternatively, the position (Xf, Yf) of the vehicle 2 may be estimated based on all the relative positional relationships of the first markers M1 to the third marker M3.

ここで、認識位置(X´,Y´)に基づく相対位置関係と、絶対位置(X,Y)に基づく相対位置関係との相違があまりにも大きい場合には、画像認識処理が適切に行われていない可能性がある。このような状況下で車両2の位置(Xf,Yf)の推定を行うと、実際に車両2が停車している位置と推定された車両2の位置とが大きく異なる可能性がある。そこで、本実施形態では、推定部23は、画像認識結果による認識位置(X´,Y´)に基づく相対位置関係と、絶対位置情報による絶対位置(X,Y)に基づく相対位置関係との相違(ずれ)が規定以上(規定値以上)である場合には、認識位置(X´,Y´)と絶対位置(X,Y)との適合は不可能であると判定し、車両2の位置(Xf,Yf)の推定を行わないように構成されている。これにより、誤った推定が行われることを抑制することができる。なお、上記の「規定値」は、例えば駐車スペースP3の幅に基づいて設定されているとよい。例えば「規定値」は、“2.5メートル〜3.5メートル”に設定されるとよい。 Here, if the difference between the relative positional relationship based on the recognition position (X', Y') and the relative positional relationship based on the absolute position (X, Y) is too large, the image recognition process is appropriately performed. It may not be. When the position (Xf, Yf) of the vehicle 2 is estimated under such a situation, the position where the vehicle 2 is actually stopped may be significantly different from the estimated position of the vehicle 2. Therefore, in the present embodiment, the estimation unit 23 has a relative positional relationship based on the recognition position (X', Y') based on the image recognition result and a relative positional relationship based on the absolute position (X, Y) based on the absolute position information. If the difference (deviation) is greater than or equal to the specified value (greater than or equal to the specified value), it is determined that the recognition position (X', Y') and the absolute position (X, Y) cannot be matched, and the vehicle 2 It is configured so that the position (Xf, Yf) is not estimated. As a result, it is possible to prevent incorrect estimation from being performed. The above "specified value" may be set based on, for example, the width of the parking space P3. For example, the "specified value" may be set to "2.5 meters to 3.5 meters".

〔車両方位の推定〕
次に、車両状態推定システム100による車両方位の推定について詳細に説明する。図5は、停車中の車両2の方位Dfを推定する処理の説明図である。
[Estimation of vehicle orientation]
Next, the estimation of the vehicle orientation by the vehicle state estimation system 100 will be described in detail. FIG. 5 is an explanatory diagram of a process of estimating the direction Df of the stopped vehicle 2.

車両状態推定システム100において、画像認識部25は、動作状態判定部27により車両2が停車中であると判定された場合に、停車中に撮影された周辺画像中に含まれる地物Oのうち、駐車枠線L(帯状地物)を認識する。そして、推定部23は、画像認識結果に基づく駐車枠線Lの延在方位である認識方位D´と、地物情報に含まれる駐車枠線Lの個別方位情報とに基づいて、停車中の車両2の方位Dfを推定する。図5において、仮想線(二点鎖線)で示される駐車枠線Lの延在方位が、画像認識結果に基づく駐車枠線Lの認識方位D´であり、実線で示される駐車枠線Lの延在方位が、個別方位情報に基づく駐車枠線Lの絶対方位Dである。本実施形態では、推定部23は、駐車枠線Lについての認識方位D´を当該駐車枠線Lについての絶対方位Dに適合させることで誤差を算出し、この誤差に基づいて車両2の方位Dfを補正する。そして、補正された車両2の方位Dfを、停車中の車両2の方位Dfと推定する。 In the vehicle state estimation system 100, the image recognition unit 25 is among the features O included in the peripheral image taken while the vehicle is stopped when the operation state determination unit 27 determines that the vehicle 2 is stopped. , Recognize parking border L (belt-shaped feature). Then, the estimation unit 23 is stopped based on the recognition direction D'which is the extension direction of the parking frame line L based on the image recognition result and the individual direction information of the parking frame line L included in the feature information. The directional Df of the vehicle 2 is estimated. In FIG. 5, the extending direction of the parking frame line L indicated by the virtual line (dashed-dotted line) is the recognition direction D'of the parking frame line L based on the image recognition result, and the parking frame line L shown by the solid line. The extending direction is the absolute direction D of the parking frame line L based on the individual direction information. In the present embodiment, the estimation unit 23 calculates an error by adapting the recognition direction D'for the parking frame line L to the absolute direction D for the parking frame line L, and the direction of the vehicle 2 is based on this error. Correct Df. Then, the corrected directional Df of the vehicle 2 is estimated to be the directional Df of the stopped vehicle 2.

図3には、車両2が対象スペースPTにおいて停車中の状態が示されており、画像認識部25は、撮影エリアCAに含まれる第1駐車枠線L1及び第2駐車枠線L2を認識する。そして図5に示すように、推定部23は、画像認識結果に基づいて、第1駐車枠線L1及び第2駐車枠線L2のそれぞれについて、第1認識方位D1´及び第2認識方位D2´を取得(演算)する。また、推定部23は、個別方位情報に基づいて、第1駐車枠線L1及び第2駐車枠線L2のそれぞれについて、第1絶対方位D1及び第2絶対方位D2を取得する。 FIG. 3 shows a state in which the vehicle 2 is stopped in the target space PT, and the image recognition unit 25 recognizes the first parking frame line L1 and the second parking frame line L2 included in the shooting area CA. .. Then, as shown in FIG. 5, the estimation unit 23 sets the first recognition direction D1'and the second recognition direction D2' for each of the first parking frame line L1 and the second parking frame line L2 based on the image recognition result. Is acquired (calculated). Further, the estimation unit 23 acquires the first absolute direction D1 and the second absolute direction D2 for each of the first parking frame line L1 and the second parking frame line L2 based on the individual direction information.

本実施形態では、推定部23は、画像認識処理により認識した一対の駐車枠線L1、L2のうち何れか一方を対象として、停車中の車両2の方位Dfを推定する。例えば、第1駐車枠線L1を対象とする場合には、第1駐車枠線L1についての第1認識方位D1´を当該第1駐車枠線L1についての第1絶対方位D1に適合させ、当該適合後の第1駐車枠線Lの第1認識方位D1´を基準とした車両2の方位Dfを、車両2の方位Dfと推定する。第2駐車枠線L2と対象とする場合も同様に、車両2の方位Dfを推定することができる。また、上記のような構成に限定されることなく、例えば、推定部23は、一対の駐車枠線L1、L2の双方を対象として、それぞれの認識方位D1´、D2´について絶対方位D1、D2との誤差を算出し、その誤差の平均値に基づいて、すなわち、それぞれの認識方位D1´、D2´と絶対方位D1、D2との誤差が同量となるように、第1認識方位D1´及び第2認識方位D2´のそれぞれを絶対方位D1、D2に適合させて補正するようにしてもよい。 In the present embodiment, the estimation unit 23 estimates the direction Df of the stopped vehicle 2 for any one of the pair of parking borders L1 and L2 recognized by the image recognition process. For example, when the first parking frame line L1 is targeted, the first recognition direction D1'for the first parking frame line L1 is adapted to the first absolute direction D1 for the first parking frame line L1. The direction Df of the vehicle 2 based on the first recognition direction D1'of the first parking frame line L after conforming is estimated as the direction Df of the vehicle 2. Similarly, the direction Df of the vehicle 2 can be estimated when the second parking frame line L2 is targeted. Further, without being limited to the above configuration, for example, the estimation unit 23 targets both the pair of parking frame lines L1 and L2, and has absolute directions D1 and D2 for the respective recognition directions D1'and D2'. The first recognition direction D1'is based on the average value of the errors, that is, so that the errors between the respective recognition directions D1'and D2'and the absolute directions D1 and D2 are the same amount. And the second recognition direction D2'may be corrected by adapting to the absolute directions D1 and D2, respectively.

〔制御手順〕
次に、図6に基づいて、自動走行する車両2の発進前の位置(Xf,Yf)及び方位Dfを推定する際の制御の手順について説明する。
[Control procedure]
Next, a control procedure for estimating the position (Xf, Yf) and the direction Df of the automatically traveling vehicle 2 before starting will be described with reference to FIG.

まず、車両状態推定システム100は、車両2が停車中であるか否かを判定する(#1)。車両状態推定システム100は、車両2が停車中でないと判定した場合には(#1:No)、車両2は走行中であると判断し、処理を終了する。車両状態推定システム100は、車両2が停車中であると判定した場合には(#1:Yes)、車両2の周辺の画像を取得する(#2)。そして、車両状態推定システム100は、周辺画像中に含まれる地物Oを認識すると共に(#3)、認識した地物Oについて、画像認識結果に基づく認識位置(X´,Y´)を取得する(#4)。また、車両状態推定システム100は、地物情報を取得することにより(#5)、当該地物情報に含まれる地物Oの絶対位置情報から、認識位置(X´,Y´)を取得した地物Oについてその絶対位置(X,Y)を取得する(#6)。 First, the vehicle state estimation system 100 determines whether or not the vehicle 2 is stopped (# 1). When the vehicle state estimation system 100 determines that the vehicle 2 is not stopped (# 1: No), it determines that the vehicle 2 is running and ends the process. When the vehicle state estimation system 100 determines that the vehicle 2 is stopped (# 1: Yes), the vehicle state estimation system 100 acquires an image of the surroundings of the vehicle 2 (# 2). Then, the vehicle state estimation system 100 recognizes the feature O included in the peripheral image (# 3), and acquires the recognition position (X', Y') based on the image recognition result for the recognized feature O. (# 4). Further, the vehicle state estimation system 100 has acquired the recognition position (X', Y') from the absolute position information of the feature O included in the feature information by acquiring the feature information (# 5). The absolute position (X, Y) of the feature O is acquired (# 6).

そして、車両状態推定システム100は、上記ステップ4及び6により得た地物Oの認識位置(X´,Y´)と絶対位置(X,Y)とに基づいて、これらを適合することが可能であるか否かを判定する(#7)。ここでは、上述のように、認識位置(X´,Y´)に基づく相対位置関係と、絶対位置(X,Y)に基づく相対位置関係との相違が、規定値未満である場合に、適合可能であると判定する。車両状態推定システム100は、適合不可能と判定した場合には(#7:No)、エラーを報知し(#8)、処理を終了する。車両状態推定システム100は、適合可能と判定した場合には(#7:Yes)、上記ステップ3により認識した地物Oについて、画像認識結果に基づく認識方位D´を取得する(#9)。また、車両状態推定システム100は、地物情報に含まれる地物Oの個別方位情報から、認識方位D´を取得した地物Oについてその絶対方位Dを取得する(#10)。その後、車両状態推定システム100は、認識方位D´を絶対方位Dに適合させ(#11)、認識方位D´を補正する(#12)。そして、車両状態推定システム100は、認識位置(X´,Y´)を絶対位置(X,Y)に適合させ(#13)、認識位置(X´,Y´)を補正する(#14)。 Then, the vehicle state estimation system 100 can match these based on the recognition position (X', Y') and the absolute position (X, Y) of the feature O obtained in steps 4 and 6 above. It is determined whether or not it is (# 7). Here, as described above, it is suitable when the difference between the relative positional relationship based on the recognition position (X', Y') and the relative positional relationship based on the absolute position (X, Y) is less than the specified value. Judge that it is possible. When the vehicle state estimation system 100 determines that the vehicle cannot be adapted (# 7: No), it notifies an error (# 8) and ends the process. When the vehicle state estimation system 100 determines that it is compatible (# 7: Yes), it acquires the recognition direction D'based on the image recognition result for the feature O recognized in step 3 above (# 9). Further, the vehicle state estimation system 100 acquires the absolute direction D of the feature O for which the recognition direction D'has been acquired from the individual direction information of the feature O included in the feature information (# 10). After that, the vehicle state estimation system 100 adjusts the recognition direction D'to the absolute direction D (# 11) and corrects the recognition direction D'(# 12). Then, the vehicle state estimation system 100 adapts the recognition position (X', Y') to the absolute position (X, Y) (# 13) and corrects the recognition position (X', Y') (# 14). ..

車両状態推定システム100は、以上の手順に従って処理を行うことにより、停車中の車両2の位置(Xf,Yf)及び方位Dfを推定する。但し、上記のような処理手順に限定されることなく、車両状態推定システム100は、停車中の車両2の位置(Xf,Yf)を推定する処理と停車中の車両2の方位Dfを推定する処理とを、それぞれ別々に行っても良いし、何れか一方の処理のみを行うようにしても良い。 The vehicle state estimation system 100 estimates the position (Xf, Yf) and direction Df of the stopped vehicle 2 by performing the process according to the above procedure. However, the vehicle state estimation system 100 is not limited to the above processing procedure, and the vehicle state estimation system 100 estimates the position (Xf, Yf) of the stopped vehicle 2 and the direction Df of the stopped vehicle 2. The processing may be performed separately, or only one of the processing may be performed.

〔画像認識処理の対象〕
図3を参照して上述したように、車両状態推定システム100では、車両2が対象スペースPTに停車中の状態で、カメラCによる撮影エリアCAが、対象スペースPTに対応する第2マーカM2と、対象スペースPTに隣接する一対の駐車スペースP3のそれぞれに対応する第1マーカM1及び第3マーカM3と、を含み得る範囲に設定されている。また本例では、カメラCの撮影エリアCAが、対象スペースPTの両側を区画する第1駐車枠線L1と第2駐車枠線L2とを含み得る範囲に設定されている。そして、画像認識部25は、上記撮影エリアCAに含まれ得る複数のマーカM及び一対の駐車枠線Lを対象として、画像認識処理を行うように構成されている。
[Target of image recognition processing]
As described above with reference to FIG. 3, in the vehicle state estimation system 100, when the vehicle 2 is stopped at the target space PT, the shooting area CA by the camera C is the second marker M2 corresponding to the target space PT. The range is set so as to include the first marker M1 and the third marker M3 corresponding to each of the pair of parking spaces P3 adjacent to the target space PT. Further, in this example, the shooting area CA of the camera C is set to a range that can include the first parking frame line L1 and the second parking frame line L2 that partition both sides of the target space PT. Then, the image recognition unit 25 is configured to perform image recognition processing on a plurality of markers M and a pair of parking borders L that can be included in the shooting area CA.

例えば図7には、対象スペースPTに隣接する駐車スペースP3に、他の駐車車両8が存在している状態が示されている。図7に示す例では、他の駐車車両8によって第1マーカM1が隠れており、当該第1マーカM1についての画像認識処理が困難な状態となっている(第1マーカM1:NG)。また、第2駐車枠線L2を形成するペイント等が、経年劣化などを原因として消えかけており、当該第2駐車枠線L2についての画像認識処理が困難な状態となっている(第2駐車枠線L2:NG)。 For example, FIG. 7 shows a state in which another parked vehicle 8 exists in the parking space P3 adjacent to the target space PT. In the example shown in FIG. 7, the first marker M1 is hidden by another parked vehicle 8, and the image recognition process for the first marker M1 is difficult (first marker M1: NG). Further, the paint or the like forming the second parking frame line L2 is disappearing due to aged deterioration or the like, and the image recognition processing for the second parking frame line L2 is in a difficult state (second parking). Border L2: NG).

しかしながら、車両状態推定システム100における画像認識部25は、上記のように、撮影エリアCAに含まれ得る複数のマーカM及び一対の駐車枠線Lを画像認識処理の対象としているため、複数のマーカM及び一対の駐車枠線Lのうち、画像認識処理が可能なものを認識し、車両2の位置及び方位の推定に用いることができる。図7に示す例では、第2マーカM2、第3マーカM3、及び第1駐車枠線L1についての画像認識処理が可能な状態であり(第2マーカM2、第3マーカM3、第1駐車枠線L1:OK)、画像認識部25は、これらを認識する。そして、推定部23は、第2マーカM2及び第3マーカM3に基づいて車両2の位置を推定することができ、また、第1駐車枠線L1に基づいて車両2の方位を推定することができる。 However, as described above, the image recognition unit 25 in the vehicle state estimation system 100 targets a plurality of markers M and a pair of parking borders L that can be included in the shooting area CA, and thus a plurality of markers. Of M and the pair of parking borders L, those capable of image recognition processing can be recognized and used for estimating the position and orientation of the vehicle 2. In the example shown in FIG. 7, the image recognition processing for the second marker M2, the third marker M3, and the first parking frame line L1 is possible (second marker M2, third marker M3, first parking frame). Line L1: OK), the image recognition unit 25 recognizes these. Then, the estimation unit 23 can estimate the position of the vehicle 2 based on the second marker M2 and the third marker M3, and can estimate the direction of the vehicle 2 based on the first parking frame line L1. it can.

〔第2実施形態〕
次に、第2実施形態に係る車両状態推定システム(車両状態推定方法、車両状態推定プログラム)について説明する。本実施形態では、上記第1実施形態に比べて、車両2の方位Dfの推定態様が異なる。以下、本実施形態について、第1実施形態と異なる点を主に説明する。特に説明しない点については、上記第1実施形態と同様であり、上記第1実施形態の場合と同様の参照符号を用いる。
[Second Embodiment]
Next, the vehicle state estimation system (vehicle state estimation method, vehicle state estimation program) according to the second embodiment will be described. In the present embodiment, the estimation mode of the directional Df of the vehicle 2 is different from that in the first embodiment. Hereinafter, the differences between the present embodiment and the first embodiment will be mainly described. The points not particularly described are the same as those of the first embodiment, and the same reference numerals as those of the first embodiment are used.

本実施形態では、図5で示すような駐車枠線L(帯状地物)に基づく車両2の方位Dfの推定を行わず、図8に示すように、マーカM(識別対象地物)に基づいて車両2の方位Dfを推定する。 In the present embodiment, the direction Df of the vehicle 2 is not estimated based on the parking frame line L (strip-shaped feature) as shown in FIG. 5, but is based on the marker M (identification target feature) as shown in FIG. The directional Df of the vehicle 2 is estimated.

本実施形態では、画像認識部25は、動作状態判定部27により車両2が停車中であると判定された場合に、停車中に撮影された周辺画像中に含まれる、複数のマーカM(図示の例では、第1マーカM1及び第2マーカM2)を認識する。そして、推定部23は、画像認識結果に基づく複数のマーカM1、M2を結ぶ線の延在方位である認識地物間方位D´´と、地物情報に含まれる複数のマーカM1、M2の絶対位置情報(位置情報)とに基づいて、停車中の車両2の方位Dfを推定する。 In the present embodiment, the image recognition unit 25 includes a plurality of markers M (not shown) included in the peripheral image taken while the vehicle is stopped when the operation state determination unit 27 determines that the vehicle 2 is stopped. In the example of, the first marker M1 and the second marker M2) are recognized. Then, the estimation unit 23 includes the recognition inter-feature direction D ″, which is the extending direction of the line connecting the plurality of markers M1 and M2 based on the image recognition result, and the plurality of markers M1 and M2 included in the feature information. The directional Df of the stopped vehicle 2 is estimated based on the absolute position information (position information).

図8において、仮想線(二点鎖線)で示されるマーカMの位置が、画像認識結果に基づくマーカMの認識位置(X´,Y´)であり、実線で示されるマーカMの位置が、絶対位置情報に基づくマーカMの絶対位置(X,Y)である。第1マーカM1の第1絶対位置(X1,Y1)及び第2マーカM2の第2絶対位置(X2,Y2)は、地物情報に含まれる絶対値情報によって既知である。そのため、第1絶対位置(X1,Y1)と第2絶対位置(X2,Y2)とを結ぶ線の延在方位を絶対方位Dとして算出することができる。また、画像認識結果に基づく第1マーカM1の第1認識位置(X1´,Y1´)と第2マーカM2の第2認識位置(X2´,Y2´)とを結ぶ線の延在方位についても認識地物間方位D´´として算出することができる。そして、推定部23は、認識地物間方位D´´を絶対方位Dに適合させ、当該適合後の認識地物間方位D´´を基準とした車両2の方位Dfを、車両2の方位Dfと推定する。 In FIG. 8, the position of the marker M indicated by the virtual line (two-point chain line) is the recognition position (X', Y') of the marker M based on the image recognition result, and the position of the marker M indicated by the solid line is It is the absolute position (X, Y) of the marker M based on the absolute position information. The first absolute position (X1, Y1) of the first marker M1 and the second absolute position (X2, Y2) of the second marker M2 are known from the absolute value information included in the feature information. Therefore, the extending direction of the line connecting the first absolute position (X1, Y1) and the second absolute position (X2, Y2) can be calculated as the absolute direction D. Further, the extending direction of the line connecting the first recognition position (X1', Y1') of the first marker M1 and the second recognition position (X2', Y2') of the second marker M2 based on the image recognition result is also obtained. It can be calculated as the recognized feature-to-feature orientation D ″. Then, the estimation unit 23 adapts the recognized feature-to-feature orientation D ″ to the absolute orientation D, and sets the orientation Df of the vehicle 2 based on the recognized feature-to-object orientation D ″ after the adaptation to the orientation of the vehicle 2. Estimated as Df.

この構成によれば、地物情報に、駐車場1内の地表面に設けられた駐車枠線Lについての延在方位を示す個別方位情報(方位情報)が含まれていない場合であっても、車両2の方位Dfを推定することができる。或いは、地物情報にこのような個別方位情報(方位情報)が含まれているが、経年劣化等により駐車枠線L(帯状地物)を画像認識できない場合であっても、車両2の方位Dfを推定することができる。 According to this configuration, even when the feature information does not include individual directional information (direction information) indicating the extending direction of the parking frame line L provided on the ground surface in the parking lot 1. , The direction Df of the vehicle 2 can be estimated. Alternatively, even if the feature information includes such individual direction information (direction information), but the parking frame line L (belt-shaped feature) cannot be image-recognized due to aged deterioration or the like, the direction of the vehicle 2 Df can be estimated.

〔その他の実施形態〕
次に、車両状態推定システム、車両状態推定方法、及び車両状態推定プログラムのその他の実施形態について説明する。
[Other Embodiments]
Next, a vehicle state estimation system, a vehicle state estimation method, and other embodiments of the vehicle state estimation program will be described.

(1)上記の実施形態では、車両2が駐車スペースP3に停車中である状況で、車両状態推定システム100が、当該車両2の位置を推定する場合を例に挙げて説明した。しかし、このような例に限定されることなく、車両2が駐車スペースP3以外の駐車場1内の何れの箇所に停車中であっても、撮影された周辺画像中に含まれた識別対象地物Mを画像認識することができれば、車両状態推定システム100は、当該車両2の位置を推定することができる。例えば、車両2が降車スペースP1に停車中であっても、撮影された周辺画像中に含まれた識別対象地物Mを画像認識することができれば、車両状態推定システム100は、当該車両2の位置を推定することができる。 (1) In the above embodiment, a case where the vehicle state estimation system 100 estimates the position of the vehicle 2 in a situation where the vehicle 2 is parked in the parking space P3 has been described as an example. However, the present invention is not limited to such an example, and the identification target area included in the photographed peripheral image regardless of where the vehicle 2 is parked in the parking lot 1 other than the parking space P3. If the object M can be image-recognized, the vehicle state estimation system 100 can estimate the position of the vehicle 2. For example, even if the vehicle 2 is stopped in the disembarkation space P1, if the identification target feature M included in the photographed peripheral image can be recognized as an image, the vehicle state estimation system 100 can use the vehicle 2 The position can be estimated.

(2)上記の実施形態では、推定部23が、停車中の車両2の位置(Xf,Yf)と、当該車両2の方位Dfとの双方を推定する例について説明した。しかし、このような例に限定されることなく、推定部23は、停車中の車両2の位置(Xf,Yf)を推定せず、車両2の方位Dfを推定する構成であってもよい。また反対に、推定部23は、停車中の車両2の方位Dfを推定せず、車両2の位置(Xf,Yf)を推定する構成であってもよい。 (2) In the above embodiment, an example in which the estimation unit 23 estimates both the position (Xf, Yf) of the stopped vehicle 2 and the direction Df of the vehicle 2 has been described. However, without being limited to such an example, the estimation unit 23 may be configured to estimate the direction Df of the vehicle 2 without estimating the position (Xf, Yf) of the stopped vehicle 2. On the contrary, the estimation unit 23 may be configured to estimate the position (Xf, Yf) of the vehicle 2 without estimating the direction Df of the stopped vehicle 2.

(3)上記の実施形態では、推定部23が、複数のマーカMのそれぞれについての認識位置(X´,Y´)と絶対位置情報に示される絶対位置(X,Y)とのずれが複数のマーカMにおいて同量となるように、複数のマーカMのそれぞれの認識位置(X´,Y´)を絶対位置情報に示される絶対位置(X,Y)に適合させて、車両2の位置(Xf,Yf)を推定する例について説明した。しかし、このような例に限定されることなく、推定部23は、1つのマーカMを対象として、当該マーカMについて、認識位置(X´,Y´)を絶対位置(X,Y)に適合させることで、車両2の位置(Xf,Yf)を推定するようにしてもよい。 (3) In the above embodiment, the estimation unit 23 has a plurality of deviations between the recognition positions (X', Y') for each of the plurality of markers M and the absolute positions (X, Y) shown in the absolute position information. The recognition position (X', Y') of each of the plurality of markers M is adapted to the absolute position (X, Y) shown in the absolute position information so that the same amount is obtained in the marker M of An example of estimating (Xf, Yf) has been described. However, the estimation unit 23 is not limited to such an example, and the estimation unit 23 adapts the recognition position (X', Y') to the absolute position (X, Y) for one marker M. By doing so, the position (Xf, Yf) of the vehicle 2 may be estimated.

(4)上記の実施形態では、フロントカメラとサイドカメラとを含むカメラCによって車両2の前方及び左右両側を撮影することで、当該カメラCの撮影エリアCAに、複数のマーカM及び一対の駐車枠線Lが含まれるようにしている例について説明した。しかし、このような例に限定されることなく、カメラCは広角撮影機能(例えば180°以上の範囲を撮影可能な機能)を有する1つの撮影装置によって構成され、これにより、複数のマーカM及び一対の駐車枠線Lが当該カメラCの撮影エリアCAに含まれるようにしてもよい。 (4) In the above embodiment, by photographing the front and left and right sides of the vehicle 2 with the camera C including the front camera and the side camera, a plurality of markers M and a pair of parking lots are parked in the photographing area CA of the camera C. An example in which the border L is included has been described. However, without being limited to such an example, the camera C is composed of one photographing device having a wide-angle photographing function (for example, a function capable of photographing a range of 180 ° or more), whereby a plurality of markers M and a plurality of markers M and A pair of parking borders L may be included in the shooting area CA of the camera C.

(5)上記の実施形態では、周辺検知センサとして、可視光を利用したカメラC(撮影装置)を用いる例について説明した。しかし、このような例に限定されることなく、周辺検知センサとしては、赤外線や紫外線等の不可視光、各種波長の電磁波、音波などを利用したセンサであってよい。例えば周辺検知センサとして、車両2の周辺の所定範囲に探査波を送信するミリ波レーダ、ソナー、LIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)等の各種のセンサを用いることができる。周辺検知センサとしてカメラC以外のセンサを用いる場合にも、周辺検知センサは、当該センサの検知対象についての車両2の周辺情報を検知する。この場合、周辺情報中に含まれる前記地物は、当該周辺検知センサにより検知可能な地物とされる。そして、車両状態推定システム100(車両状態推定方法/車両状態推定プログラム)は、周辺検知センサにより検知された車両2の周辺情報を取得する周辺情報取得部(周辺情報取得ステップ/周辺情報取得機能)と、周辺情報中に含まれる地物Oの認識処理を行う認識部(認識ステップ/認識機能)と、を備える。 (5) In the above embodiment, an example in which a camera C (photographing device) using visible light is used as a peripheral detection sensor has been described. However, the peripheral detection sensor is not limited to such an example, and may be a sensor using invisible light such as infrared rays or ultraviolet rays, electromagnetic waves of various wavelengths, sound waves, or the like. For example, as a peripheral detection sensor, various sensors such as a millimeter wave radar, sonar, and LIDAR (Light Detection and Ranging / Laser Imaging Detection and Ranging) that transmit exploration waves to a predetermined range around the vehicle 2 can be used. Even when a sensor other than the camera C is used as the peripheral detection sensor, the peripheral detection sensor detects the peripheral information of the vehicle 2 regarding the detection target of the sensor. In this case, the feature included in the surrounding information is a feature that can be detected by the peripheral detection sensor. Then, the vehicle state estimation system 100 (vehicle state estimation method / vehicle state estimation program) is a peripheral information acquisition unit (peripheral information acquisition step / peripheral information acquisition function) that acquires peripheral information of the vehicle 2 detected by the peripheral detection sensor. It also includes a recognition unit (recognition step / recognition function) that performs recognition processing of the feature O included in the surrounding information.

(6)上記の実施形態では、地物OのうちマーカM(識別対象地物)の位置に基づいて車両2の位置(Xf,Yf)を推定する例について説明した。しかし、このような例に限定されることなく、地物Oのうち駐車枠線L(帯状地物)の位置に基づいて車両2の位置(Xf,Yf)を推定するようにしてもよい。この場合、駐車枠線Lが、識別対象地物としても機能する。 (6) In the above embodiment, an example of estimating the position (Xf, Yf) of the vehicle 2 based on the position of the marker M (identification target feature) in the feature O has been described. However, without being limited to such an example, the position (Xf, Yf) of the vehicle 2 may be estimated based on the position of the parking frame line L (belt-shaped feature) in the feature O. In this case, the parking frame line L also functions as an identification target feature.

(7)上記の実施形態では、地物Oのうち駐車枠線L(帯状地物)が、その絶対方位Dを個別方位情報として有している例について説明した。しかし、このような例に限定されることなく、地物OのうちマーカM(識別対象地物)が、その絶対方位Dを個別方位情報として有していてもよい。この場合、1つのマーカMに基づいて、車両2の方位Dfを推定することができる。 (7) In the above embodiment, an example in which the parking frame line L (belt-shaped feature) of the feature O has its absolute direction D as individual direction information has been described. However, the present invention is not limited to such an example, and the marker M (identification target feature) of the feature O may have its absolute orientation D as individual orientation information. In this case, the direction Df of the vehicle 2 can be estimated based on one marker M.

(8)上記の実施形態では、帯状地物として、駐車枠線Lを例に挙げて説明した。しかし、このような例に限定されることなく、例えば、一時停止線や、車両2の走行領域を区画する車線などを帯状地物として、車両2の方位Dfを推定してもよい。また、上記では、帯状地物の一例として帯状標示を挙げ、当該帯状標示として一時停止線や駐車枠線Lなどのペイント地物を例示した。しかし、このような例に限定されることなく、帯状地物には、地表面に設けられた平面地物の他に、立体的な立体地物も含まれる。そして、立体的な帯状地物には、例えば柱状や筒状等の三次元形状が帯状でない形状であっても、周辺検知センサにより検知される形状が帯状(直線状)であるもの、或いは、周辺検知センサにより検知される形状の一部が帯状(直線状)であるものも含まれる。すなわち、一部に直線状部分を有するものであれば、他の部分が非直線状であっても、帯状地物となり得る。例えば、案内標識、ガードレール、フェンスなどの立体地物も帯状地物となり得る。 (8) In the above embodiment, the parking frame line L has been described as an example of the strip-shaped feature. However, the direction Df of the vehicle 2 may be estimated by using, for example, a temporary stop line or a lane that divides the traveling area of the vehicle 2 as a band-shaped feature without being limited to such an example. Further, in the above, a band-shaped sign is given as an example of the band-shaped feature, and a paint feature such as a temporary stop line or a parking frame line L is exemplified as the band-shaped sign. However, the strip-shaped feature is not limited to such an example, and includes a three-dimensional three-dimensional feature in addition to the flat feature provided on the ground surface. The three-dimensional strip-shaped feature has a strip-shaped (straight line) shape detected by the peripheral detection sensor even if the three-dimensional shape such as a columnar shape or a tubular shape is not a strip-shaped shape. A part of the shape detected by the peripheral detection sensor is strip-shaped (straight). That is, as long as it has a linear portion in a part, it can be a strip-shaped feature even if the other portion is non-linear. For example, three-dimensional features such as guide signs, guardrails, and fences can also be strip-shaped features.

(9)なお、上述した各実施形態で開示された構成は、矛盾が生じない限り、他の実施形態で開示された構成と組み合わせて適用することも可能である。その他の構成に関しても、本明細書において開示された実施形態は全ての点で単なる例示に過ぎない。従って、本開示の趣旨を逸脱しない範囲内で、適宜、種々の改変を行うことが可能である。 (9) The configurations disclosed in each of the above-described embodiments can be applied in combination with the configurations disclosed in other embodiments as long as there is no contradiction. With respect to other configurations, the embodiments disclosed herein are merely exemplary in all respects. Therefore, various modifications can be made as appropriate without departing from the gist of the present disclosure.

〔上記実施形態の概要〕
以下、上記において説明した車両状態推定システム、車両状態推定方法、及び車両状態推定プログラムについて説明する。
[Outline of the above embodiment]
Hereinafter, the vehicle condition estimation system, the vehicle condition estimation method, and the vehicle condition estimation program described above will be described.

駐車場(1)内において、設定された目的地(P)に向かって自動走行する車両(2)の発進前の方位を推定する車両状態推定システム(100)であって、
前記車両(2)の動作状態を判定する動作状態判定部(27)と、
前記駐車場(1)内に設けられた地物(O)の位置情報を含む地物情報を取得する地物情報取得部(24)と、
前記車両(2)に搭載された周辺検知センサ(C)により検知された前記車両(2)の周辺情報を取得する周辺情報取得部(26)と、
前記周辺情報中に含まれる前記地物(O)の認識処理を行う認識部(25)と、
前記車両(2)の前記駐車場(1)内における方位を推定する推定部(23)と、を備え、
前記地物情報には、前記駐車場(1)内に設けられた帯状地物(L)のそれぞれについての延在方位を示す個別方位情報が含まれ、
前記動作状態判定部(27)は、前記車両(2)が前記駐車場(1)内で停車中であるか否かを判定し、
前記認識部(25)は、前記動作状態判定部(27)により前記車両(2)が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物(O)のうち、前記帯状地物(L)を認識し、
前記推定部(23)は、認識結果に基づく前記帯状地物(L)の前記延在方位である認識方位(D´)と、前記地物情報に含まれる前記帯状地物(L)の前記個別方位情報とに基づいて、停車中の前記車両(2)の方位(Df)を推定する。
A vehicle state estimation system (100) that estimates the direction of a vehicle (2) that automatically travels toward a set destination (P) in the parking lot (1) before starting.
An operation state determination unit (27) that determines the operation state of the vehicle (2),
The feature information acquisition unit (24) for acquiring feature information including the position information of the feature (O) provided in the parking lot (1), and
Peripheral information acquisition unit (26) that acquires peripheral information of the vehicle (2) detected by the peripheral detection sensor (C) mounted on the vehicle (2), and
A recognition unit (25) that performs recognition processing of the feature (O) included in the surrounding information, and
An estimation unit (23) for estimating the orientation of the vehicle (2) in the parking lot (1) is provided.
The feature information includes individual orientation information indicating the extending orientation of each of the strip-shaped features (L) provided in the parking lot (1).
The operating state determination unit (27) determines whether or not the vehicle (2) is stopped in the parking lot (1).
When the operating state determination unit (27) determines that the vehicle (2) is stopped, the recognition unit (25) includes the feature included in the peripheral information detected while the vehicle is stopped. Of (O), the strip-shaped feature (L) is recognized and
The estimation unit (23) has a recognition direction (D') which is the extension direction of the strip-shaped feature (L) based on the recognition result, and the strip-shaped feature (L) included in the feature information. The direction (Df) of the stopped vehicle (2) is estimated based on the individual direction information.

本構成によれば、車両が停車中である場合に、帯状地物(L)の認識結果に基づく当該帯状地物(L)の認識方位(D´)と、地物情報に含まれる個別方位情報とに基づいて、車両(2)の方位(Df)を適切に推定することができる。従って、本構成によれば、駐車場(1)内で自動走行を行う場合における車両(2)の発進前の方位(Df)、換言すれば、自動走行の発進起点における車両(2)の初期方位(Df)を適切に推定することができる。 According to this configuration, when the vehicle is stopped, the recognition direction (D') of the band-shaped feature (L) based on the recognition result of the band-shaped feature (L) and the individual direction included in the feature information. The orientation (Df) of the vehicle (2) can be appropriately estimated based on the information. Therefore, according to this configuration, the direction (Df) before the start of the vehicle (2) in the case of automatic driving in the parking lot (1), in other words, the initial stage of the vehicle (2) at the starting point of the automatic driving. The orientation (Df) can be estimated appropriately.

ここで、
前記認識部(25)は、前記動作状態判定部(27)により前記車両(2)が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物(O)のうち、前記駐車場(1)内に設置された複数の駐車スペース(P3)のそれぞれに対応して設けられた識別対象地物(M)を認識し、
前記推定部(23)は、認識結果に基づく前記識別対象地物(M)の位置である認識位置(X´,Y´)と、前記地物情報に含まれる前記識別対象地物(M)の前記位置情報とに基づいて、停車中の前記車両(2)の位置(Xf,Yf)を推定すると好適である。
here,
When the operating state determination unit (27) determines that the vehicle (2) is stopped, the recognition unit (25) includes the feature included in the peripheral information detected while the vehicle is stopped. Among (O), the identification target feature (M) provided corresponding to each of the plurality of parking spaces (P3) installed in the parking lot (1) is recognized.
The estimation unit (23) has a recognition position (X', Y') which is a position of the identification target feature (M) based on the recognition result, and the identification target feature (M) included in the feature information. It is preferable to estimate the position (Xf, Yf) of the stopped vehicle (2) based on the position information of the above.

本構成によれば、車両(2)が停車中である場合に、駐車場(1)内に設置された複数の駐車スペース(P3)のそれぞれに対応して設けられた識別対象地物(M)の認識結果に基づく当該識別対象地物(M)の認識位置(X´,Y´)と、地物情報に含まれる識別対象地物(M)の位置情報とに基づいて、車両(2)の位置を適切に推定することができる。従って、本構成によれば、駐車場(1)内で自動走行を行う場合における車両(2)の発進前の位置、換言すれば、自動走行の発進起点となる車両(2)の初期位置(Xf,Yf)を適切に推定することができる。 According to this configuration, when the vehicle (2) is stopped, the identification target feature (M) provided corresponding to each of the plurality of parking spaces (P3) installed in the parking lot (1). ) Based on the recognition position (X', Y') of the identification target feature (M) and the position information of the identification target feature (M) included in the feature information, the vehicle (2). ) Position can be estimated appropriately. Therefore, according to this configuration, the position before the start of the vehicle (2) in the case of automatic driving in the parking lot (1), in other words, the initial position of the vehicle (2) which is the starting point of the automatic driving (2). Xf, Yf) can be estimated appropriately.

また、
前記認識部(25)は、前記動作状態判定部(27)により前記車両(2)が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる、複数の前記識別対象地物(M)を認識し、
前記推定部(23)は、認識結果に基づく複数の前記識別対象地物(M)を結ぶ線の延在方位である認識地物間方位(D´´)と、前記地物情報に含まれる複数の前記識別対象地物(M)の前記位置情報とに基づいて、停車中の前記車両(2)の方位(Df)を推定すると好適である。
Also,
When the operation state determination unit (27) determines that the vehicle (2) is stopped, the recognition unit (25) includes a plurality of the recognition units (25) included in the peripheral information detected while the vehicle is stopped. Recognize the identification target feature (M) and
The estimation unit (23) is included in the recognition feature-to-feature orientation (D ″), which is the extending direction of the line connecting the plurality of identification target features (M) based on the recognition result, and the feature information. It is preferable to estimate the direction (Df) of the stopped vehicle (2) based on the position information of the plurality of identification target features (M).

本構成によれば、車両が停車中である場合に、複数の識別対象地物(M)の認識結果に基づく当該複数の識別対象地物(M)を結ぶ線の延在方位である認識地物間方位(D´´)と、地物情報に含まれる複数の識別対象地物(M)の位置情報とに基づいて、車両(2)の方位(Df)を適切に推定することができる。従って、本構成によれば、駐車場(1)内で自動走行を行う場合における車両(2)の発進前の位置(Xf,Yf)に加えて、車両(2)の発進前の方位(Df)、換言すれば、自動走行の発進起点における車両(2)の初期方位(Df)を適切に推定することができる。 According to this configuration, when the vehicle is stopped, the recognition location is the extending direction of the line connecting the plurality of identification target features (M) based on the recognition results of the plurality of identification target features (M). The direction (Df) of the vehicle (2) can be appropriately estimated based on the inter-object direction (D ″) and the position information of a plurality of identification target features (M) included in the feature information. .. Therefore, according to this configuration, in addition to the position (Xf, Yf) before the start of the vehicle (2) in the case of automatic driving in the parking lot (1), the direction (Df) before the start of the vehicle (2). ), In other words, the initial direction (Df) of the vehicle (2) at the starting point of automatic driving can be appropriately estimated.

また、
前記認識部(25)が、前記周辺情報中に含まれる複数の前記識別対象地物(M)を認識した場合であって、複数の前記識別対象地物(M)のそれぞれの前記認識位置(X´,Y´)に基づく複数の前記識別対象地物(M)の相対位置関係と、前記地物情報に含まれる前記識別対象地物(M)の前記位置情報に基づく複数の前記識別対象地物(M)の相対位置関係とに相違がある場合には、
前記推定部(23)は、複数の前記識別対象地物(M)のそれぞれについての前記認識位置(X´,Y´)と前記位置情報に示される位置(X,Y)とのずれが複数の前記識別対象地物(M)において同量となるように、複数の前記識別対象地物(M)のそれぞれの前記認識位置(X´,Y´)を前記位置情報に示される位置(X,Y)に適合させ、当該適合後の複数の前記識別対象地物(M)の前記認識位置(X´,Y´)を基準とした前記車両(2)の位置を、前記車両の位置(Xf,Yf)と推定すると好適である。
Also,
When the recognition unit (25) recognizes a plurality of the identification target features (M) included in the peripheral information, the recognition positions of the plurality of identification target features (M) (M) The relative positional relationship of the plurality of identification target features (M) based on X', Y') and the plurality of identification targets based on the position information of the identification target feature (M) included in the feature information. If there is a difference from the relative positional relationship of the feature (M),
The estimation unit (23) has a plurality of deviations between the recognition positions (X', Y') and the positions (X, Y) indicated in the position information for each of the plurality of identification target features (M). The recognition positions (X', Y') of each of the plurality of identification target features (M) are indicated in the position information so that the same amount is obtained in the identification target feature (M). , Y), and the position of the vehicle (2) with respect to the recognition position (X', Y') of the plurality of identification target features (M) after the conformation is set to the position of the vehicle (, Y). It is preferable to estimate it as Xf, Yf).

認識部(25)による認識結果に基づく地物(O)の認識位置(X´,Y´)(周辺検知センサに対する地物の相対位置)には誤差が含まれることが多い。そのため、1つの識別対象地物(M)についての認識位置(X´,Y´)に基づいて車両(2)の位置(Xf,Yf)を推定すると、当該車両(2)の推定位置(Xf,Yf)に比較的大きい誤差が含まれる可能性がある。しかしながら、本構成によれば、複数の識別対象地物(M)のそれぞれについての認識位置(X´,Y´)と位置情報に示される位置(X,Y)とのずれが複数の識別対象地物(M)において同量となるように、複数の識別対象地物(M)のそれぞれの認識位置(X´,Y´)を位置情報に示される位置(X,Y)に適合させ、それに基づいて車両(2)の位置(Xf,Yf)を推定する。そのため、複数の識別対象地物(M)のそれぞれについての認識位置(X´,Y´)の誤差を平均化することができる。これにより、1つ1つの識別対象地物(M)についての認識位置(X´,Y´)の誤差の影響を低減し、より精度の高い車両位置(Xf,Yf)を推定することができる。 An error is often included in the recognition position (X', Y') (relative position of the feature with respect to the peripheral detection sensor) of the feature (O) based on the recognition result by the recognition unit (25). Therefore, when the position (Xf, Yf) of the vehicle (2) is estimated based on the recognition position (X', Y') for one identification target feature (M), the estimated position (Xf) of the vehicle (2) is estimated. , Yf) may contain a relatively large error. However, according to this configuration, the deviation between the recognition position (X', Y') for each of the plurality of identification target features (M) and the position (X, Y) indicated in the position information is a plurality of identification targets. The recognition positions (X', Y') of each of the plurality of identification target features (M) are adapted to the positions (X, Y) indicated in the position information so that the same amount is obtained in the feature (M). Based on this, the positions (Xf, Yf) of the vehicle (2) are estimated. Therefore, it is possible to average the errors of the recognition positions (X', Y') for each of the plurality of identification target features (M). As a result, it is possible to reduce the influence of the error of the recognition position (X', Y') for each identification target feature (M) and estimate the vehicle position (Xf, Yf) with higher accuracy. ..

また、
複数の前記駐車スペース(P3)が並んで配置され、
前記車両(2)が前記駐車スペース(P3)の1つである対象スペース(PT)に停車中の状態で、前記周辺検知センサ(C)による検知エリア(CA)が、前記対象スペース(PT)に対応する前記識別対象地物(M)と、前記対象スペース(PT)に隣接する一対の前記駐車スペース(P3)のそれぞれに対応する前記識別対象地物(M)と、を含み得る範囲に設定され、
前記認識部(25)は、前記検知エリア(CA)に含まれ得る複数の前記識別対象地物(M)を対象として前記認識処理を行うと好適である。
Also,
A plurality of the parking spaces (P3) are arranged side by side,
While the vehicle (2) is parked in the target space (PT), which is one of the parking spaces (P3), the detection area (CA) by the peripheral detection sensor (C) is the target space (PT). In a range that can include the identification target feature (M) corresponding to the above and the identification target feature (M) corresponding to each of the pair of parking spaces (P3) adjacent to the target space (PT). Set,
It is preferable that the recognition unit (25) performs the recognition process on a plurality of the identification target features (M) that can be included in the detection area (CA).

本構成によれば、複数の識別対象地物(M)を含み得る比較的広い範囲を検知エリア(CA)に含むことができ、当該複数の識別対象地物(M)を認識処理の対象とすることができる。従って、例えば、複数の識別対象地物(M)の一部が、物陰に隠れていたり経年劣化等により見えにくくなっているなどの状況下においても、認識部(25)による識別対象地物(M)の認識結果を得やすい構成を実現することができる。 According to this configuration, a relatively wide range that can include a plurality of identification target features (M) can be included in the detection area (CA), and the plurality of identification target features (M) can be included in the recognition process. can do. Therefore, for example, even under a situation where a part of the plurality of identification target features (M) is hidden in the shadow or difficult to see due to aged deterioration or the like, the identification target feature (25) by the recognition unit (25) It is possible to realize a configuration in which the recognition result of M) can be easily obtained.

また、
前記地物(O)には、前記駐車場(1)内に設けられて前記駐車スペース(P3)の両側を区画する一対の帯状地物(L)が含まれ、
前記車両(2)が前記駐車スペース(P3)に停車中の状態で、前記周辺検知センサ(C)による検知エリア(CA)が、前記駐車スペース(P3)の両側を区画する一対の前記帯状地物(L)を含み得る範囲に設定され、
前記認識部(25)は、前記検知エリア(CA)に含まれ得る一対の前記帯状地物(L)を対象として前記認識処理を行うと好適である。
Also,
The feature (O) includes a pair of strip-shaped features (L) provided in the parking lot (1) and partitioning both sides of the parking space (P3).
While the vehicle (2) is parked in the parking space (P3), the detection area (CA) by the peripheral detection sensor (C) divides both sides of the parking space (P3) into a pair of strips. Set in a range that can include the object (L),
It is preferable that the recognition unit (25) performs the recognition process on the pair of strip-shaped features (L) that can be included in the detection area (CA).

本構成によれば、一対の帯状地物(L)を含み得る比較的広い範囲を検知エリア(CA)に含むことができ、当該一対の帯状地物(L)を認識処理の対象とすることができる。従って、例えば、一対の帯状地物(L)のいずれかが、物陰に隠れていたり経年劣化等により見えにくくなっているなどの状況下においても、認識部(25)による帯状地物(L)の認識結果を得やすい構成を実現することができる。 According to this configuration, a relatively wide range that can include a pair of strip-shaped features (L) can be included in the detection area (CA), and the pair of strip-shaped features (L) are targeted for recognition processing. Can be done. Therefore, for example, even under a situation where one of the pair of strip-shaped features (L) is hidden in the shadow or difficult to see due to aged deterioration or the like, the strip-shaped feature (L) by the recognition unit (25) It is possible to realize a configuration that makes it easy to obtain the recognition result of.

また、他の特徴構成を有する車両状態推定システム(100)として、
駐車場(1)内において、設定された目的地(P)に向かって自動走行する車両(2)の発進前の位置を推定する車両状態推定システム(100)であって、
前記車両(2)の動作状態を判定する動作状態判定部(27)と、
前記駐車場(1)に設けられた地物(O)の位置情報を含む地物情報を取得する地物情報取得部(24)と、
前記車両(2)に搭載された周辺検知センサ(C)により検知された前記車両(2)の周辺情報を取得する周辺情報取得部(26)と、
前記周辺情報中に含まれる前記地物(O)の認識処理を行う認識部(25)と、
前記車両(2)の前記駐車場(1)内における位置を推定する推定部(23)と、を備え、
前記動作状態判定部(27)は、前記車両(2)が前記駐車場(1)内で停車中であるか否かを判定し、
前記認識部(25)は、前記動作状態判定部(27)により前記車両(2)が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物(O)のうち、前記駐車場(1)内に設置された複数の駐車スペース(P3)のそれぞれに対応して設けられた識別標示(M)を識別対象地物として認識し、
前記推定部(23)は、認識結果に基づく前記識別標示(M)の位置である認識位置(X´,Y´)と、前記地物情報に含まれる前記識別標示(M)の前記位置情報とに基づいて、停車中の前記車両(2)の位置(Xf,Yf)を推定する。
Further, as a vehicle state estimation system (100) having another characteristic configuration,
A vehicle state estimation system (100) that estimates the position of a vehicle (2) that automatically travels toward a set destination (P) in the parking lot (1) before starting.
An operation state determination unit (27) that determines the operation state of the vehicle (2),
The feature information acquisition unit (24) for acquiring feature information including the position information of the feature (O) provided in the parking lot (1), and
Peripheral information acquisition unit (26) that acquires peripheral information of the vehicle (2) detected by the peripheral detection sensor (C) mounted on the vehicle (2), and
A recognition unit (25) that performs recognition processing of the feature (O) included in the surrounding information, and
It is provided with an estimation unit (23) for estimating the position of the vehicle (2) in the parking lot (1).
The operating state determination unit (27) determines whether or not the vehicle (2) is stopped in the parking lot (1).
When the operating state determination unit (27) determines that the vehicle (2) is stopped, the recognition unit (25) includes the feature included in the peripheral information detected while the vehicle is stopped. Among (O), the identification mark (M) provided corresponding to each of the plurality of parking spaces (P3) installed in the parking lot (1) is recognized as an identification target feature.
The estimation unit (23) has a recognition position (X', Y') which is a position of the identification mark (M) based on the recognition result, and the position information of the identification mark (M) included in the feature information. Based on the above, the positions (Xf, Yf) of the stopped vehicle (2) are estimated.

本構成によれば、車両が停車中である場合に、駐車場(1)内に設置された複数の駐車スペース(P3)のそれぞれに対応して設けられた識別標示(M)の認識結果に基づく当該識別標示(M)の認識位置(X´,Y´)と、地物情報に含まれる識別標示(M)の位置情報とに基づいて、車両(2)の位置を適切に推定することができる。従って、本構成によれば、駐車場(1)内で自動走行を行う場合における車両(2)の発進前の位置、換言すれば、自動走行の発進起点となる車両(2)の初期位置(Xf,Yf)を適切に推定することができる。 According to this configuration, when the vehicle is stopped, the recognition result of the identification mark (M) provided corresponding to each of the plurality of parking spaces (P3) installed in the parking lot (1) Appropriately estimate the position of the vehicle (2) based on the recognition position (X', Y') of the identification mark (M) based on the position information of the identification mark (M) included in the feature information. Can be done. Therefore, according to this configuration, the position before the start of the vehicle (2) in the case of automatic driving in the parking lot (1), in other words, the initial position of the vehicle (2) which is the starting point of the automatic driving (2). Xf, Yf) can be estimated appropriately.

上述した車両状態推定システムの種々の技術的特徴は、車両状態推定方法や車両状態推定プログラムにも適用可能である。例えば、車両状態推定方法は、上述した車両状態推定システムの特徴を備えた方法とすることができる。また、車両状態推定プログラムは、上述した車両状態推定システムの特徴に対応する機能をコンピュータに実現させることが可能である。当然ながらこれらの車両状態推定方法及び車両状態推定プログラムも、上述した車両状態推定システムの作用効果を奏することができる。さらに、車両状態推定システムの好適な態様として例示した種々の付加的特徴を、これら車両状態推定方法や車両状態推定プログラムに組み込むことも可能であり、当該方法及び当該プログラムはそれぞれの付加的特徴に対応する作用効果も奏することができる。 The various technical features of the vehicle state estimation system described above can also be applied to a vehicle state estimation method and a vehicle state estimation program. For example, the vehicle state estimation method can be a method having the features of the vehicle state estimation system described above. Further, the vehicle state estimation program can realize a function corresponding to the features of the vehicle state estimation system described above in the computer. As a matter of course, these vehicle state estimation methods and vehicle state estimation programs can also exert the effects of the vehicle state estimation system described above. Further, various additional features exemplified as a preferred embodiment of the vehicle state estimation system can be incorporated into these vehicle state estimation methods and vehicle state estimation programs, and the method and the program are included in the respective additional features. Corresponding action and effect can also be achieved.

このような車両状態推定方法は、
駐車場(1)内において、設定された目的地(P)に向かって自動走行する車両(2)の発進前の方位を推定する車両状態推定方法であって、
前記車両(2)の動作状態を判定する動作状態判定ステップと、
前記駐車場(1)内に設けられた地物(O)の位置情報を含む地物情報を取得する地物情報取得ステップと、
前記車両(2)に搭載された周辺検知センサ(C)により検知された前記車両(2)の周辺情報を取得する周辺情報取得ステップと、
前記周辺情報中に含まれる前記地物(O)の認識処理を行う認識ステップと、
前記車両(2)の前記駐車場(1)内における方位を推定する推定ステップと、を備え、
前記地物情報には、前記駐車場(1)内に設けられた帯状地物(L)のそれぞれについての延在方位を示す個別方位情報が含まれ、
前記動作状態判定ステップでは、前記車両(2)が前記駐車場(1)内で停車中であるか否かを判定し、
前記認識ステップでは、前記動作状態判定ステップにより前記車両(2)が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物(O)のうち、前記帯状地物(L)を認識し、
前記推定ステップでは、認識結果に基づく前記帯状地物(L)の前記延在方位である認識方位(D´)と、前記地物情報に含まれる前記帯状地物(L)の前記個別方位情報とに基づいて、停車中の前記車両(2)の方位(Df)を推定する。
Such a vehicle condition estimation method is
It is a vehicle state estimation method that estimates the direction of the vehicle (2) that automatically travels toward the set destination (P) in the parking lot (1) before starting.
The operation state determination step for determining the operation state of the vehicle (2) and
A feature information acquisition step for acquiring feature information including the position information of the feature (O) provided in the parking lot (1), and
A peripheral information acquisition step for acquiring peripheral information of the vehicle (2) detected by the peripheral detection sensor (C) mounted on the vehicle (2), and
A recognition step for performing recognition processing of the feature (O) included in the surrounding information, and
A step of estimating the orientation of the vehicle (2) in the parking lot (1) is provided.
The feature information includes individual orientation information indicating the extending orientation of each of the strip-shaped features (L) provided in the parking lot (1).
In the operation state determination step, it is determined whether or not the vehicle (2) is stopped in the parking lot (1).
In the recognition step, among the features (O) included in the peripheral information detected while the vehicle is stopped when the vehicle (2) is determined to be stopped by the operation state determination step. Recognizing the strip-shaped feature (L),
In the estimation step, the recognition orientation (D'), which is the extending orientation of the strip-shaped feature (L) based on the recognition result, and the individual orientation information of the strip-shaped feature (L) included in the feature information. Based on the above, the direction (Df) of the stopped vehicle (2) is estimated.

また、他の特徴構成を有する車両状態推定方法として、
駐車場(1)内において、設定された目的地(P)に向かって自動走行する車両(2)の発進前の位置を推定する車両状態推定方法であって、
前記車両(2)の動作状態を判定する動作状態判定ステップと、
前記駐車場(1)に設けられた地物(O)の位置情報を含む地物情報を取得する地物情報取得ステップと、
前記車両(2)に搭載された周辺検知センサ(C)により検知された前記車両(2)の周辺情報を取得する周辺情報取得ステップと、
前記周辺情報中に含まれる前記地物(O)の認識処理を行う認識ステップと、
前記車両(2)の前記駐車場(1)内における位置を推定する推定ステップと、を備え、
前記動作状態判定ステップでは、前記車両(2)が前記駐車場(1)内で停車中であるか否かを判定し、
前記認識ステップでは、前記動作状態判定ステップにおいて前記車両(2)が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物(O)のうち、前記駐車場(1)内に設置された複数の駐車スペース(P3)のそれぞれに対応して設けられた識別標示(M)を認識し、
前記推定ステップでは、認識結果に基づく前記識別標示(M)の位置である認識位置(X´,Y´)と、前記地物情報に含まれる前記識別標示(M)の前記位置情報とに基づいて、停車中の前記車両(2)の位置(Xf,Yf)を推定する。
In addition, as a vehicle state estimation method having other characteristic configurations,
It is a vehicle state estimation method that estimates the position of a vehicle (2) that automatically travels toward a set destination (P) in the parking lot (1) before starting.
The operation state determination step for determining the operation state of the vehicle (2) and
A feature information acquisition step for acquiring feature information including the position information of the feature (O) provided in the parking lot (1), and a feature information acquisition step.
A peripheral information acquisition step for acquiring peripheral information of the vehicle (2) detected by the peripheral detection sensor (C) mounted on the vehicle (2), and
A recognition step for performing recognition processing of the feature (O) included in the surrounding information, and
An estimation step for estimating the position of the vehicle (2) in the parking lot (1) is provided.
In the operation state determination step, it is determined whether or not the vehicle (2) is stopped in the parking lot (1).
In the recognition step, among the features (O) included in the peripheral information detected while the vehicle is stopped when the vehicle (2) is determined to be stopped in the operation state determination step. Recognize the identification mark (M) provided corresponding to each of the plurality of parking spaces (P3) installed in the parking lot (1).
In the estimation step, the recognition position (X', Y'), which is the position of the identification mark (M) based on the recognition result, and the position information of the identification mark (M) included in the feature information are used. The position (Xf, Yf) of the stopped vehicle (2) is estimated.

また、車両状態推定プログラムは、
駐車場(1)内において、設定された目的地(P)に向かって自動走行する車両(2)の発進前の方位を推定する車両状態推定プログラムであって、
前記車両(2)の動作状態を判定する動作状態判定機能と、
前記駐車場(1)内に設けられた地物(O)の位置情報を含む地物情報を取得する地物情報取得機能と、
前記車両(2)に搭載された周辺検知センサ(C)により検知された前記車両(2)の周辺情報を取得する周辺情報取得機能と、
前記周辺情報中に含まれる前記地物(O)の認識処理を行う認識機能と、
前記車両(2)の前記駐車場(1)内における方位を推定する推定機能と、をコンピュータに実現させ、
前記地物情報には、前記駐車場(1)内に設けられた帯状地物(L)のそれぞれについての延在方位を示す個別方位情報が含まれ、
前記動作状態判定機能では、前記車両(2)が前記駐車場(1)内で停車中であるか否かを判定し、
前記認識機能では、前記動作状態判定機能により前記車両(2)が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物(O)のうち、前記帯状地物(L)を認識し、
前記推定機能では、認識結果に基づく前記帯状地物(L)の前記延在方位である認識方位(D´)と、前記地物情報に含まれる前記帯状地物(L)の前記個別方位情報とに基づいて、停車中の前記車両(2)の方位(Df)を推定する。
In addition, the vehicle condition estimation program
It is a vehicle state estimation program that estimates the direction of the vehicle (2) that automatically travels toward the set destination (P) in the parking lot (1) before starting.
An operation state determination function for determining the operation state of the vehicle (2) and
A feature information acquisition function for acquiring feature information including the position information of the feature (O) provided in the parking lot (1), and
Peripheral information acquisition function that acquires peripheral information of the vehicle (2) detected by the peripheral detection sensor (C) mounted on the vehicle (2), and
A recognition function that performs recognition processing for the feature (O) included in the surrounding information, and
A computer is realized with an estimation function for estimating the orientation of the vehicle (2) in the parking lot (1).
The feature information includes individual orientation information indicating the extending orientation of each of the strip-shaped features (L) provided in the parking lot (1).
In the operating state determination function, it is determined whether or not the vehicle (2) is stopped in the parking lot (1).
In the recognition function, when the vehicle (2) is determined to be stopped by the operation state determination function, among the features (O) included in the peripheral information detected while the vehicle is stopped, Recognizing the strip-shaped feature (L),
In the estimation function, the recognition orientation (D'), which is the extending orientation of the strip-shaped feature (L) based on the recognition result, and the individual orientation information of the strip-shaped feature (L) included in the feature information. Based on the above, the direction (Df) of the stopped vehicle (2) is estimated.

また、他の特徴構成を有する車両状態推定プログラムとして、
駐車場(1)内において、設定された目的地(P)に向かって自動走行する車両(2)の発進前の位置を推定する車両状態推定プログラムであって、
前記車両(2)の動作状態を判定する動作状態機能と、
前記駐車場(1)に設けられた地物(O)の位置情報を含む地物情報を取得する地物情報取得機能と、
前記車両(2)に搭載された周辺検知センサ(C)により検知された前記車両(2)の周辺情報を取得する周辺情報取得機能と、
前記周辺情報中に含まれる前記地物(O)の認識処理を行う認識機能と、
前記車両(2)の前記駐車場(1)内における位置を推定する推定機能と、をコンピュータに実現させ、
前記動作状態判定機能では、前記車両(2)が前記駐車場(1)内で停車中であるか否かを判定し、
前記認識機能では、前記動作状態判定機能において前記車両(2)が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物(O)のうち、前記駐車場(1)内に設置された複数の駐車スペース(P3)のそれぞれに対応して設けられた識別標示(M)を認識し、
前記推定機能では、認識結果に基づく前記識別標示(M)の位置である認識位置(X´,Y´)と、前記地物情報に含まれる前記識別標示(M)の前記位置情報とに基づいて、停車中の前記車両(2)の位置(Xf,Yf)を推定する。
In addition, as a vehicle state estimation program having other characteristic configurations,
It is a vehicle state estimation program that estimates the position of the vehicle (2) that automatically travels toward the set destination (P) in the parking lot (1) before starting.
An operating state function for determining the operating state of the vehicle (2) and
A feature information acquisition function for acquiring feature information including the position information of the feature (O) provided in the parking lot (1), and
Peripheral information acquisition function that acquires peripheral information of the vehicle (2) detected by the peripheral detection sensor (C) mounted on the vehicle (2), and
A recognition function that performs recognition processing for the feature (O) included in the surrounding information, and
A computer is realized with an estimation function for estimating the position of the vehicle (2) in the parking lot (1).
In the operation state determination function, it is determined whether or not the vehicle (2) is stopped in the parking lot (1).
In the recognition function, among the features (O) included in the peripheral information detected while the vehicle is stopped when the vehicle (2) is determined to be stopped by the operation state determination function. Recognize the identification mark (M) provided corresponding to each of the plurality of parking spaces (P3) installed in the parking lot (1).
The estimation function is based on the recognition position (X', Y'), which is the position of the identification mark (M) based on the recognition result, and the position information of the identification mark (M) included in the feature information. The position (Xf, Yf) of the stopped vehicle (2) is estimated.

本開示に係る技術は、設定された目的地に向かって自動走行する車両の発進前の方位を推定する車両状態推定システム、車両状態推定方法、及び車両状態推定プログラムに利用することができる。 The technology according to the present disclosure can be used in a vehicle state estimation system that estimates the direction of a vehicle that automatically travels toward a set destination before starting, a vehicle state estimation method, and a vehicle state estimation program.

100 :車両状態推定システム
1 :駐車場
2 :車両
23 :推定部
24 :地物情報取得部
25 :画像認識部(認識部)
26 :周辺画像取得部(周辺情報取得部)
27 :動作状態判定部
C :カメラ(周辺検知センサ)
CA :撮影エリア(検知エリア)
O :地物
L :駐車枠線(帯状地物)
M :マーカ(識別対象地物)
P :目的地
P3 :駐車スペース
PT :対象スペース
Xf,Yf:車両の位置
X,Y :絶対位置
X´,Y´:認識位置
Df :車両の方位
D :絶対方位
D´ :認識方位
D´´ :認識地物間方位
100: Vehicle condition estimation system 1: Parking lot 2: Vehicle 23: Estimate unit 24: Feature information acquisition unit 25: Image recognition unit (recognition unit)
26: Peripheral image acquisition unit (peripheral information acquisition unit)
27: Operating state determination unit C: Camera (peripheral detection sensor)
CA: Shooting area (detection area)
O: Feature L: Parking frame (belt-shaped feature)
M: Marker (feature to be identified)
P: Destination P3: Parking space PT: Target space Xf, Yf: Vehicle position X, Y: Absolute position X', Y': Recognition position Df: Vehicle direction D: Absolute direction D': Recognition direction D' : Recognized feature-to-feature orientation

Claims (11)

駐車場内において、設定された目的地に向かって自動走行する車両の発進前の方位を推定する車両状態推定システムであって、
前記車両の動作状態を判定する動作状態判定部と、
前記駐車場に設けられた地物の位置情報を含む地物情報を取得する地物情報取得部と、
前記車両に搭載された周辺検知センサにより検知された前記車両の周辺情報を取得する周辺情報取得部と、
前記周辺情報中に含まれる前記地物の認識処理を行う認識部と、
前記車両の前記駐車場内における方位を推定する推定部と、を備え、
前記地物情報には、前記駐車場に設けられた帯状地物のそれぞれについての延在方位を示す個別方位情報が含まれ、
前記動作状態判定部は、前記車両が前記駐車場内で停車中であるか否かを判定し、
前記認識部は、前記動作状態判定部により前記車両が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物のうち、前記帯状地物を認識し、
前記推定部は、認識結果に基づく前記帯状地物の前記延在方位である認識方位と、前記地物情報に含まれる前記帯状地物の前記個別方位情報とに基づいて、停車中の前記車両の方位を推定する、車両状態推定システム。
It is a vehicle condition estimation system that estimates the direction of a vehicle that automatically travels toward a set destination before starting in a parking lot.
An operation state determination unit that determines the operation state of the vehicle,
A feature information acquisition unit that acquires feature information including the location information of features provided in the parking lot,
Peripheral information acquisition unit that acquires peripheral information of the vehicle detected by the peripheral detection sensor mounted on the vehicle, and
A recognition unit that performs recognition processing of the feature included in the surrounding information,
An estimation unit for estimating the orientation of the vehicle in the parking lot is provided.
The feature information includes individual orientation information indicating the extending orientation of each of the strip-shaped features provided in the parking lot.
The operating state determination unit determines whether or not the vehicle is stopped in the parking lot, and determines whether or not the vehicle is stopped.
When the operating state determination unit determines that the vehicle is stopped, the recognition unit recognizes the strip-shaped feature among the features included in the peripheral information detected while the vehicle is stopped. And
The estimation unit is the vehicle that is stopped based on the recognition orientation that is the extension orientation of the strip-shaped feature based on the recognition result and the individual orientation information of the strip-shaped feature included in the feature information. Vehicle condition estimation system that estimates the direction of the vehicle.
前記認識部は、前記動作状態判定部により前記車両が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物のうち、前記駐車場内に設置された複数の駐車スペースのそれぞれに対応して設けられた識別対象地物を認識し、
前記推定部は、認識結果に基づく前記識別対象地物の位置である認識位置と、前記地物情報に含まれる前記識別対象地物の前記位置情報とに基づいて、停車中の前記車両の位置を推定する、請求項1に記載の車両状態推定システム。
The recognition unit is installed in the parking lot among the features included in the peripheral information detected while the vehicle is stopped when the operation state determination unit determines that the vehicle is stopped. Recognize the identification target features provided for each of the multiple parking spaces
The estimation unit determines the position of the stopped vehicle based on the recognition position which is the position of the identification target feature based on the recognition result and the position information of the identification target feature included in the feature information. The vehicle condition estimation system according to claim 1.
駐車場内において、設定された目的地に向かって自動走行する車両の発進前の位置を推定する車両状態推定システムであって、
前記車両の動作状態を判定する動作状態判定部と、
前記駐車場に設けられた地物の位置情報を含む地物情報を取得する地物情報取得部と、
前記車両に搭載された周辺検知センサにより検知された前記車両の周辺情報を取得する周辺情報取得部と、
前記周辺情報中に含まれる前記地物の認識処理を行う認識部と、
前記車両の前記駐車場内における位置を推定する推定部と、を備え、
前記動作状態判定部は、前記車両が前記駐車場内で停車中であるか否かを判定し、
前記認識部は、前記動作状態判定部により前記車両が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物のうち、前記駐車場内に設置された複数の駐車スペースのそれぞれに対応して設けられた識別標示を識別対象地物として認識し、
前記推定部は、認識結果に基づく前記識別標示の位置である認識位置と、前記地物情報に含まれる前記識別標示の前記位置情報とに基づいて、停車中の前記車両の位置を推定する、車両状態推定システム。
It is a vehicle condition estimation system that estimates the position of a vehicle that automatically travels toward a set destination before starting in a parking lot.
An operation state determination unit that determines the operation state of the vehicle,
A feature information acquisition unit that acquires feature information including the location information of features provided in the parking lot,
Peripheral information acquisition unit that acquires peripheral information of the vehicle detected by the peripheral detection sensor mounted on the vehicle, and
A recognition unit that performs recognition processing of the feature included in the surrounding information,
An estimation unit for estimating the position of the vehicle in the parking lot is provided.
The operating state determination unit determines whether or not the vehicle is stopped in the parking lot, and determines whether or not the vehicle is stopped.
The recognition unit is installed in the parking lot among the features included in the peripheral information detected while the vehicle is stopped when the operation state determination unit determines that the vehicle is stopped. Recognize the identification signs provided corresponding to each of the multiple parking spaces as the identification target features,
The estimation unit estimates the position of the stopped vehicle based on the recognition position which is the position of the identification mark based on the recognition result and the position information of the identification mark included in the feature information. Vehicle condition estimation system.
前記認識部は、前記動作状態判定部により前記車両が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる、複数の前記識別対象地物を認識し、
前記推定部は、認識結果に基づく複数の前記識別対象地物を結ぶ線の延在方位である認識地物間方位と、前記地物情報に含まれる複数の前記識別対象地物の前記位置情報とに基づいて、停車中の前記車両の方位を推定する、請求項2又は3に記載の車両状態推定システム。
When the operating state determination unit determines that the vehicle is stopped, the recognition unit recognizes a plurality of the identification target features included in the peripheral information detected while the vehicle is stopped.
The estimation unit includes the recognition inter-feature direction, which is the extending direction of the line connecting the plurality of identification target features based on the recognition result, and the position information of the plurality of identification target features included in the feature information. The vehicle state estimation system according to claim 2 or 3, wherein the direction of the stopped vehicle is estimated based on the above.
前記認識部が、前記周辺情報中に含まれる複数の前記識別対象地物を認識した場合であって、複数の前記識別対象地物のそれぞれの前記認識位置に基づく複数の前記識別対象地物の相対位置関係と、前記地物情報に含まれる前記識別対象地物の前記位置情報に基づく複数の前記識別対象地物の相対位置関係とに相違がある場合には、
前記推定部は、複数の前記識別対象地物のそれぞれについての前記認識位置と前記位置情報に示される位置とのずれが複数の前記識別対象地物において同量となるように、複数の前記識別対象地物のそれぞれの前記認識位置を前記位置情報に示される位置に適合させ、当該適合後の複数の前記識別対象地物の前記認識位置を基準とした前記車両の位置を、前記車両の位置と推定する、請求項2から4のいずれか一項に記載の車両状態推定システム。
When the recognition unit recognizes a plurality of the identification target features included in the peripheral information, and the identification target features are a plurality of identification target features based on the recognition positions of the plurality of identification target features. When there is a difference between the relative positional relationship and the relative positional relationship of the plurality of identification target features based on the position information of the identification target feature included in the feature information,
The estimation unit performs a plurality of the identifications so that the deviation between the recognition position and the position indicated in the position information for each of the plurality of identification target features is the same in the plurality of identification target features. The recognition position of each of the target features is adapted to the position indicated in the position information, and the position of the vehicle based on the recognition position of the plurality of identification target features after the adaptation is set to the position of the vehicle. The vehicle condition estimation system according to any one of claims 2 to 4.
複数の前記駐車スペースが並んで配置され、
前記車両が前記駐車スペースの1つである対象スペースに停車中の状態で、前記周辺検知センサによる検知エリアが、前記対象スペースに対応する前記識別対象地物と、前記対象スペースに隣接する一対の前記駐車スペースのそれぞれに対応する前記識別対象地物と、を含み得る範囲に設定され、
前記認識部は、前記検知エリアに含まれ得る複数の前記識別対象地物を対象として前記認識処理を行う、請求項2から5のいずれか一項に記載の車両状態推定システム。
Multiple parking spaces are arranged side by side,
While the vehicle is parked in the target space, which is one of the parking spaces, the detection area by the peripheral detection sensor is the identification target feature corresponding to the target space and a pair of pairs adjacent to the target space. It is set in a range that can include the identification target feature corresponding to each of the parking spaces.
The vehicle state estimation system according to any one of claims 2 to 5, wherein the recognition unit performs the recognition process on a plurality of the identification target features that can be included in the detection area.
前記地物には、前記駐車場内に設けられて前記駐車スペースの両側を区画する一対の帯状地物が含まれ、
前記車両が前記駐車スペースに停車中の状態で、前記周辺検知センサによる検知エリアが、前記駐車スペースの両側を区画する一対の前記帯状地物を含み得る範囲に設定され、
前記認識部は、前記検知エリアに含まれ得る一対の前記帯状地物を対象として前記認識処理を行う、請求項2から6のいずれか一項に記載の車両状態推定システム。
The feature includes a pair of strip-shaped features provided in the parking lot and partitioning both sides of the parking space.
While the vehicle is parked in the parking space, the detection area by the peripheral detection sensor is set to a range that can include the pair of strip-shaped features that partition both sides of the parking space.
The vehicle state estimation system according to any one of claims 2 to 6, wherein the recognition unit performs the recognition process on a pair of the strip-shaped features that can be included in the detection area.
駐車場内において、設定された目的地に向かって自動走行する車両の発進前の方位を推定する車両状態推定方法であって、
前記車両の動作状態を判定する動作状態判定ステップと、
前記駐車場に設けられた地物の位置情報を含む地物情報を取得する地物情報取得ステップと、
前記車両に搭載された周辺検知センサにより検知された前記車両の周辺情報を取得する周辺情報取得ステップと、
前記周辺情報中に含まれる前記地物の認識処理を行う認識ステップと、
前記車両の前記駐車場内における方位を推定する推定ステップと、を備え、
前記地物情報には、前記駐車場に設けられた帯状地物のそれぞれについての延在方位を示す個別方位情報が含まれ、
前記動作状態判定ステップでは、前記車両が前記駐車場内で停車中であるか否かを判定し、
前記認識ステップでは、前記動作状態判定ステップにより前記車両が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物のうち、前記帯状地物を認識し、
前記推定ステップでは、認識結果に基づく前記帯状地物の前記延在方位である認識方位と、前記地物情報に含まれる前記帯状地物の前記個別方位情報とに基づいて、停車中の前記車両の方位を推定する、車両状態推定方法。
It is a vehicle condition estimation method that estimates the direction of a vehicle that automatically travels toward a set destination before starting in a parking lot.
The operation state determination step for determining the operation state of the vehicle and
A feature information acquisition step for acquiring feature information including the position information of the feature provided in the parking lot, and
A peripheral information acquisition step for acquiring peripheral information of the vehicle detected by a peripheral detection sensor mounted on the vehicle, and
A recognition step for performing recognition processing of the feature included in the surrounding information, and
It comprises an estimation step of estimating the orientation of the vehicle in the parking lot.
The feature information includes individual orientation information indicating the extending orientation of each of the strip-shaped features provided in the parking lot.
In the operation state determination step, it is determined whether or not the vehicle is stopped in the parking lot.
In the recognition step, when it is determined by the operation state determination step that the vehicle is stopped, the strip-shaped feature is recognized among the features included in the peripheral information detected while the vehicle is stopped. And
In the estimation step, the stopped vehicle is based on the recognition direction which is the extension direction of the strip-shaped feature based on the recognition result and the individual direction information of the strip-shaped feature included in the feature information. Vehicle condition estimation method that estimates the direction of the vehicle.
駐車場内において、設定された目的地に向かって自動走行する車両の発進前の位置を推定する車両状態推定方法であって、
前記車両の動作状態を判定する動作状態判定ステップと、
前記駐車場に設けられた地物の位置情報を含む地物情報を取得する地物情報取得ステップと、
前記車両に搭載された周辺検知センサにより検知された前記車両の周辺情報を取得する周辺情報取得ステップと、
前記周辺情報中に含まれる前記地物の認識処理を行う認識ステップと、
前記車両の前記駐車場内における位置を推定する推定ステップと、を備え、
前記動作状態判定ステップでは、前記車両が前記駐車場内で停車中であるか否かを判定し、
前記認識ステップでは、前記動作状態判定ステップにおいて前記車両が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物のうち、前記駐車場内に設置された複数の駐車スペースのそれぞれに対応して設けられた識別標示を認識し、
前記推定ステップでは、認識結果に基づく前記識別標示の位置である認識位置と、前記地物情報に含まれる前記識別標示の前記位置情報とに基づいて、停車中の前記車両の位置を推定する、車両状態推定方法。
It is a vehicle condition estimation method that estimates the position of a vehicle that automatically travels toward a set destination before starting in a parking lot.
The operation state determination step for determining the operation state of the vehicle and
A feature information acquisition step for acquiring feature information including the position information of the feature provided in the parking lot, and
A peripheral information acquisition step for acquiring peripheral information of the vehicle detected by a peripheral detection sensor mounted on the vehicle, and
A recognition step for performing recognition processing of the feature included in the surrounding information, and
It comprises an estimation step of estimating the position of the vehicle in the parking lot.
In the operation state determination step, it is determined whether or not the vehicle is stopped in the parking lot.
In the recognition step, when it is determined that the vehicle is stopped in the operation state determination step, it is installed in the parking lot among the features included in the peripheral information detected while the vehicle is stopped. Recognize the identification signs provided for each of the multiple parking spaces
In the estimation step, the position of the stopped vehicle is estimated based on the recognition position which is the position of the identification mark based on the recognition result and the position information of the identification mark included in the feature information. Vehicle condition estimation method.
駐車場内において、設定された目的地に向かって自動走行する車両の発進前の方位を推定する車両状態推定プログラムであって、
前記車両の動作状態を判定する動作状態判定機能と、
前記駐車場に設けられた地物の位置情報を含む地物情報を取得する地物情報取得機能と、
前記車両に搭載された周辺検知センサにより検知された前記車両の周辺情報を取得する周辺情報取得機能と、
前記周辺情報中に含まれる前記地物の認識処理を行う認識機能と、
前記車両の前記駐車場内における方位を推定する推定機能と、をコンピュータに実現させ、
前記地物情報には、前記駐車場に設けられた帯状地物のそれぞれについての延在方位を示す個別方位情報が含まれ、
前記動作状態判定機能では、前記車両が前記駐車場内で停車中であるか否かを判定し、
前記認識機能では、前記動作状態判定機能により前記車両が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物のうち、前記帯状地物を認識し、
前記推定機能では、認識結果に基づく前記帯状地物の前記延在方位である認識方位と、前記地物情報に含まれる前記帯状地物の前記個別方位情報とに基づいて、停車中の前記車両の方位を推定する、車両状態推定プログラム。
It is a vehicle condition estimation program that estimates the direction of a vehicle that automatically travels toward a set destination before starting in the parking lot.
The operation state determination function for determining the operation state of the vehicle and
A feature information acquisition function that acquires feature information including the location information of features provided in the parking lot, and
Peripheral information acquisition function that acquires peripheral information of the vehicle detected by the peripheral detection sensor mounted on the vehicle, and
A recognition function that performs recognition processing of the feature included in the surrounding information,
A computer is realized with an estimation function for estimating the orientation of the vehicle in the parking lot.
The feature information includes individual orientation information indicating the extending orientation of each of the strip-shaped features provided in the parking lot.
The operating state determination function determines whether or not the vehicle is stopped in the parking lot, and determines whether or not the vehicle is stopped.
In the recognition function, when the vehicle is determined to be stopped by the operation state determination function, the strip-shaped feature is recognized among the features included in the peripheral information detected while the vehicle is stopped. And
In the estimation function, the stopped vehicle is based on the recognition direction which is the extension direction of the strip-shaped feature based on the recognition result and the individual direction information of the strip-shaped feature included in the feature information. Vehicle condition estimation program that estimates the direction of the vehicle.
駐車場内において、設定された目的地に向かって自動走行する車両の発進前の位置を推定する車両状態推定プログラムであって、
前記車両の動作状態を判定する動作状態機能と、
前記駐車場に設けられた地物の位置情報を含む地物情報を取得する地物情報取得機能と、
前記車両に搭載された周辺検知センサにより検知された前記車両の周辺情報を取得する周辺情報取得機能と、
前記周辺情報中に含まれる前記地物の認識処理を行う認識機能と、
前記車両の前記駐車場内における位置を推定する推定機能と、をコンピュータに実現させ、
前記動作状態判定機能では、前記車両が前記駐車場内で停車中であるか否かを判定し、
前記認識機能では、前記動作状態判定機能において前記車両が停車中であると判定された場合に、停車中に検知された前記周辺情報中に含まれる前記地物のうち、前記駐車場内に設置された複数の駐車スペースのそれぞれに対応して設けられた識別標示を認識し、
前記推定機能では、認識結果に基づく前記識別標示の位置である認識位置と、前記地物情報に含まれる前記識別標示の前記位置情報とに基づいて、停車中の前記車両の位置を推定する、車両状態推定プログラム。
It is a vehicle condition estimation program that estimates the position of a vehicle that automatically travels toward a set destination before starting in a parking lot.
The operation state function for determining the operation state of the vehicle and
A feature information acquisition function that acquires feature information including the location information of features provided in the parking lot, and
Peripheral information acquisition function that acquires peripheral information of the vehicle detected by the peripheral detection sensor mounted on the vehicle, and
A recognition function that performs recognition processing of the feature included in the surrounding information,
A computer is realized with an estimation function for estimating the position of the vehicle in the parking lot.
The operating state determination function determines whether or not the vehicle is stopped in the parking lot, and determines whether or not the vehicle is stopped.
In the recognition function, when the vehicle is determined to be stopped by the operation state determination function, it is installed in the parking lot among the features included in the peripheral information detected while the vehicle is stopped. Recognize the identification signs provided for each of the multiple parking spaces
In the estimation function, the position of the stopped vehicle is estimated based on the recognition position which is the position of the identification mark based on the recognition result and the position information of the identification mark included in the feature information. Vehicle condition estimation program.
JP2019094108A 2019-05-17 2019-05-17 Vehicle state estimating system, vehicle state estimating method, and vehicle state estimating program Pending JP2020190412A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019094108A JP2020190412A (en) 2019-05-17 2019-05-17 Vehicle state estimating system, vehicle state estimating method, and vehicle state estimating program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019094108A JP2020190412A (en) 2019-05-17 2019-05-17 Vehicle state estimating system, vehicle state estimating method, and vehicle state estimating program

Publications (1)

Publication Number Publication Date
JP2020190412A true JP2020190412A (en) 2020-11-26

Family

ID=73454441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019094108A Pending JP2020190412A (en) 2019-05-17 2019-05-17 Vehicle state estimating system, vehicle state estimating method, and vehicle state estimating program

Country Status (1)

Country Link
JP (1) JP2020190412A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114822079A (en) * 2021-01-27 2022-07-29 丰田自动车株式会社 Parking assist apparatus
JP7481379B2 (en) 2022-02-17 2024-05-10 Necプラットフォームズ株式会社 Information processing device, information processing method, and program
JP7540457B2 (en) 2022-03-30 2024-08-27 トヨタ自動車株式会社 MOBILE BODY CONTROL METHOD, MOBILE BODY CONTROL SYSTEM, AND MOBILE BODY CONTROL PROGRAM

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114822079A (en) * 2021-01-27 2022-07-29 丰田自动车株式会社 Parking assist apparatus
CN114822079B (en) * 2021-01-27 2024-02-02 丰田自动车株式会社 Parking assist device
JP7481379B2 (en) 2022-02-17 2024-05-10 Necプラットフォームズ株式会社 Information processing device, information processing method, and program
JP7540457B2 (en) 2022-03-30 2024-08-27 トヨタ自動車株式会社 MOBILE BODY CONTROL METHOD, MOBILE BODY CONTROL SYSTEM, AND MOBILE BODY CONTROL PROGRAM

Similar Documents

Publication Publication Date Title
US10377376B2 (en) Vehicle with environmental context analysis
CN111856491B (en) Method and apparatus for determining geographic position and orientation of a vehicle
CN109752741B (en) Vehicle positioning apparatus
US11313976B2 (en) Host vehicle position estimation device
CA2990775C (en) Vehicle position determination apparatus and vehicle position determination method
CN108463690B (en) Evaluating U-turn feasibility
WO2018225198A1 (en) Map data correcting method and device
RU2687103C1 (en) Device for evaluation of position of vehicle and method for estimating position of vehicle
CN112074885A (en) Lane sign positioning
EP3889722B1 (en) Generation method and generation system for dynamic target line during automatic driving of vehicle, and vehicle
JP2020190412A (en) Vehicle state estimating system, vehicle state estimating method, and vehicle state estimating program
CN106558247A (en) driving history parking obstacle alarm
US11042759B2 (en) Roadside object recognition apparatus
US10836385B2 (en) Lane keeping assistance system
GB2556427A (en) Vehicle with environmental context analysis
JP7020353B2 (en) Object detector
CN111936820A (en) System and method for adjusting vehicle external position information
US20220306150A1 (en) Control device, control method, and storage medium
JP2020190414A (en) Vehicle progress status estimating system, vehicle progress status estimating method, and vehicle progress status estimating program
JP7458514B2 (en) Determining the starting position of the vehicle for localization
CN114572243A (en) Target object detection device and vehicle equipped with the same
JP2014067136A (en) Lane line detector and lane line detection method
JP2020190415A (en) Vehicle state estimating system, vehicle state estimating method, and vehicle state estimating program
JP2020190413A (en) Vehicle progress status estimating system, vehicle progress status estimating method, and vehicle progress status estimating program
JP2020190417A (en) Vehicle position estimation system, vehicle position estimation method, and vehicle position estimation program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210423