JP2021148730A - Position estimation method, position estimation device, and program - Google Patents
Position estimation method, position estimation device, and program Download PDFInfo
- Publication number
- JP2021148730A JP2021148730A JP2020051545A JP2020051545A JP2021148730A JP 2021148730 A JP2021148730 A JP 2021148730A JP 2020051545 A JP2020051545 A JP 2020051545A JP 2020051545 A JP2020051545 A JP 2020051545A JP 2021148730 A JP2021148730 A JP 2021148730A
- Authority
- JP
- Japan
- Prior art keywords
- size
- position estimation
- coordinates
- coordinate
- pedestrian
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本開示は、位置推定方法、位置推定装置、及び、プログラムに関する。 The present disclosure relates to position estimation methods, position estimation devices, and programs.
近年、運転中の事故防止のために、衝突被害低減ブレーキを搭載する車両が増えており、今後もさらに増えることが予測される。このような衝突被害低減ブレーキを実現するために、車載カメラ等が撮像した画像データを用いて、車両周囲の物体を検知する物体検知装置が知られている。車両は、物体検知装置が物体を検知した結果に基づいて走行が制御されるので、物体検知装置の検知精度は高いことが望まれる。 In recent years, the number of vehicles equipped with collision damage reduction brakes has increased in order to prevent accidents while driving, and it is expected that the number will increase in the future. In order to realize such a collision damage reduction brake, an object detection device that detects an object around a vehicle by using image data captured by an in-vehicle camera or the like is known. Since the traveling of the vehicle is controlled based on the result of the object detection device detecting the object, it is desired that the detection accuracy of the object detection device is high.
特許文献1には、3次元形状が既知の対象物を撮像した複数の画像データ(2次元画像データ)から3次元物体の位置を推定する3次元物体認識装置が開示されている。3次元物体認識装置は、3次元形状をワイヤーフレームデータとして保持しており、当該ワイヤーフレームデータに対して撮影した実画像を貼り付けることで、仮想的な実画像を生成する。
しかしながら、特許文献1の技術では、単眼カメラで撮像した画像データに基づいて対象物の位置を推定するときに、対象物の位置を正確に推定できない場合がある。
However, in the technique of
そこで、本開示は、単眼カメラで撮像した画像データを用いた場合であっても、対象物の位置を正確に推定することができる位置推定方法、位置推定装置、及び、プログラムに関する。 Therefore, the present disclosure relates to a position estimation method, a position estimation device, and a program capable of accurately estimating the position of an object even when using image data captured by a monocular camera.
本開示の一態様に係る位置推定方法は、単眼カメラから対象物を含む画像データを取得し、前記画像データにおける前記対象物の第1座標を、実世界における第2座標に変換し、前記第2座標に基づいて、前記対象物の大きさを算出し、前記大きさが前記対象物に応じた所定範囲に含まれるか否かを判定し、前記大きさが前記所定範囲に含まれない場合、前記所定範囲内の代表値に基づいて、前記第1座標を実世界における第3座標に変換しなおす。 In the position estimation method according to one aspect of the present disclosure, image data including an object is acquired from a monocular camera, the first coordinates of the object in the image data are converted into second coordinates in the real world, and the first coordinate is converted. When the size of the object is calculated based on the two coordinates, it is determined whether or not the size is included in the predetermined range according to the object, and the size is not included in the predetermined range. , The first coordinate is converted back to the third coordinate in the real world based on the representative value within the predetermined range.
本開示の一態様に係る位置推定装置は、単眼カメラから対象物を含む画像データを取得する取得部と、前記画像データにおける前記対象物の第1座標を、実世界における第2座標に変換する第1変換部と、前記第2座標に基づいて、前記対象物の大きさを算出する算出部と、前記大きさが前記対象物に応じた所定範囲に含まれるか否かを判定する判定部と、前記大きさが前記所定範囲に含まれない場合、前記所定範囲内の代表値に基づいて、前記第1座標を第3座標に変換しなおす第2変換部とを備える。 The position estimation device according to one aspect of the present disclosure is an acquisition unit that acquires image data including an object from a monocular camera, and converts the first coordinates of the object in the image data into second coordinates in the real world. A first conversion unit, a calculation unit that calculates the size of the object based on the second coordinates, and a determination unit that determines whether or not the size is included in a predetermined range corresponding to the object. And a second conversion unit that reconverts the first coordinate to the third coordinate based on the representative value within the predetermined range when the size is not included in the predetermined range.
本開示の一態様に係るプログラムは、上記の位置推定方法をコンピュータに実行させるためのプログラムである。 The program according to one aspect of the present disclosure is a program for causing a computer to execute the above-mentioned position estimation method.
本開示の一態様に係る位置推定方法等によれば、単眼カメラで撮像した画像データを用いた場合であっても、対象物の位置を正確に推定することができる。 According to the position estimation method or the like according to one aspect of the present disclosure, the position of the object can be accurately estimated even when the image data captured by the monocular camera is used.
(本開示に至った経緯)
近年、車載カメラ等が撮像した画像データを用いて、車両周囲の対象物を検知する物体検知装置について、様々な検討が行われている。例えば、単眼カメラで撮像した画像データ(後述する図3参照)に基づいて、対象物の位置を推定する検討が行われている。単眼カメラを用いて対象物の位置を推定することにより、車両が複数のカメラを備えていなくても、対象物の位置を推定することができる。つまり、より低コストで対象物の位置を推定することができる。
(Background to this disclosure)
In recent years, various studies have been conducted on an object detection device that detects an object around a vehicle by using image data captured by an in-vehicle camera or the like. For example, studies are being conducted to estimate the position of an object based on image data captured by a monocular camera (see FIG. 3 described later). By estimating the position of the object using a monocular camera, the position of the object can be estimated even if the vehicle does not have a plurality of cameras. That is, the position of the object can be estimated at a lower cost.
単眼カメラで撮像した画像データに基づいて、対象物の位置を推定することについて、図1A及び図1Bを参照しながら説明する。図1Aは、比較例に係る位置推定装置における対象物の位置の推定を説明するための第1図である。図1Aは、単眼カメラ20を備える車両10の前方に道路L(地面)と接触している歩行者Uがいる場合を示している。また、車両10は、道路Lに接している。図1Aでは、車両10が接している平面と同じ平面に歩行者Uが接している場合を示しているとも言える。歩行者Uは、対象物の一例である。
The estimation of the position of the object based on the image data captured by the monocular camera will be described with reference to FIGS. 1A and 1B. FIG. 1A is a diagram for explaining the estimation of the position of an object in the position estimation device according to the comparative example. FIG. 1A shows a case where a pedestrian U in contact with a road L (ground) is in front of a
図1Aに示すように、車両10の単眼カメラ20は、前方にいる歩行者Uを撮像する。車両10が備える位置推定装置(図示しない)は、単眼カメラ20が撮像した画像データに基づいて、当該歩行者Uの位置を推定する。ここで、位置推定装置は、撮像した画像データに写る歩行者Uが、車両10が接している平面と同じ平面にいることを前提として当該歩行者Uの位置を推定する。具体的には、位置推定装置は、歩行者Uと、車両10とが同じ平面にいることを前提として、歩行者Uの画像データ上の座標を、実世界の座標に変換する。このような前提は、単眼カメラ20を用いて位置を推定する場合に用いられる。なお、画像データ上の座標は、カメラ座標系の座標であり、実世界の座標は直交座標系の座標である。
As shown in FIG. 1A, the
図1Aの場合、歩行者Uが道路Lに接触しているという状態と、位置推定装置における座標変換の前提とが一致しているので、位置推定装置は、歩行者Uの位置を正確に推定することができる。位置推定装置は、位置P1に歩行者Uがいると推定することができる。この場合、道路Lに接触している歩行者Uが単眼カメラ20の画像平面上に撮像される。なお、画像平面とは、単眼カメラ20の撮像面である。
In the case of FIG. 1A, since the state in which the pedestrian U is in contact with the road L and the premise of the coordinate conversion in the position estimation device match, the position estimation device accurately estimates the position of the pedestrian U. can do. The position estimation device can estimate that the pedestrian U is at the position P1. In this case, the pedestrian U in contact with the road L is imaged on the image plane of the
次に、歩行者Uと、車両10とが同じ平面にいない場合について説明する。図1Bは、比較例に係る位置推定装置における対象物の位置の推定を説明するための第2図である。図1Bは、単眼カメラ20を備える車両10の前方に道路L(地面)と接触していない歩行者Uがいる場合を示している。図1Bでは、歩行者Uがジャンプしている場合を示している。
Next, a case where the pedestrian U and the
図1Bの場合、歩行者Uが道路Lに接触していないという状態と、位置推定装置における座標変換の前提とが一致していないので、位置推定装置は、歩行者Uの位置を正確に推定することができない。つまり、位置推定装置は、歩行者Uの位置の推定を誤ってしまう。位置推定装置は、歩行者Uと、車両10とが同じ平面にいない場合であっても、歩行者Uと、車両10とが同じ平面にいることを前提として歩行者Uの位置を推定するためである。位置推定装置は、現実には位置P1にいる歩行者Uの位置を、位置P1より遠い位置P2であると推定する(図1Bに示す歩行者M参照)。また、この場合、位置推定装置は、歩行者Uの大きさを本来の大きさよりも大きく推定する(図1Bに示す歩行者M参照)。
In the case of FIG. 1B, since the state in which the pedestrian U is not in contact with the road L and the premise of the coordinate conversion in the position estimation device do not match, the position estimation device accurately estimates the position of the pedestrian U. Can not do it. That is, the position estimation device erroneously estimates the position of the pedestrian U. The position estimation device estimates the position of the pedestrian U on the assumption that the pedestrian U and the
また、歩行者Uが道路Lに接触していても、車両10のタイヤがマンホールなどの物体に乗り上げている場合、道路Lに接触している歩行者Uと物体に乗り上げている車両10とが同じ平面にない状態となる。そのため、位置推定装置は、車両10のタイヤがマンホールなどの物体に乗り上げている場合においても、上記の歩行者Uが道路Lに接触していない場合と同様、歩行者Uの位置を正確に推定することができない。
Further, even if the pedestrian U is in contact with the road L, if the tire of the
上記のように、単眼カメラ20の画像データを用いて歩行者Uの位置を推定する位置推定装置では、歩行者Uと自車との相対的な位置関係が変化した場合、自車に対する歩行者Uの位置の推定を誤ってしまうことがある。位置推定装置は、例えば、対象物がジャンプなどのイレギュラーな動作をしている場合、又は、車両10のタイヤが物体に乗り上げているなどのイレギュラーな挙動をしている場合に、当該対象物の位置を正確に推定できない場合がある。上記で記載した特許文献1においても、同様に歩行者Uの位置の推定を誤ってしまうことがある。そこで、本願発明者は、単眼カメラで撮像した画像データを用いた場合であっても、対象物の位置を正確に推定することができる位置推定方法等について、鋭意検討を行い、以下に説明する位置推定方法等を創案した。
As described above, in the position estimation device that estimates the position of the pedestrian U using the image data of the
本開示の一態様に係る位置推定方法は、単眼カメラから対象物を含む画像データを取得し、前記画像データにおける前記対象物の第1座標を、実世界における第2座標に変換し、前記第2座標に基づいて、前記対象物の大きさを算出し、前記大きさが前記対象物に応じた所定範囲に含まれるか否かを判定し、前記大きさが前記所定範囲に含まれない場合、前記所定範囲内の代表値に基づいて、前記第1座標を実世界における第3座標に変換しなおす。 In the position estimation method according to one aspect of the present disclosure, image data including an object is acquired from a monocular camera, the first coordinates of the object in the image data are converted into second coordinates in the real world, and the first coordinate is converted. When the size of the object is calculated based on the two coordinates, it is determined whether or not the size is included in the predetermined range according to the object, and the size is not included in the predetermined range. , The first coordinate is converted back to the third coordinate in the real world based on the representative value within the predetermined range.
単眼カメラが撮像した画像データに基づいて座標変換を行う場合、対象物がジャンプなどの動作をしている、又は、車両が物体に乗り上げているときに撮像された画像データに基づいて第1座標を第2座標に変換しても、正確な第2座標を得ることができない。第2座標は、本来より遠い座標となる。つまり、対象物の正確な位置を推定することができない。また、このように対象物の位置が正確ではない場合、当該対象物の大きさも正確に推定することができない。 When performing coordinate conversion based on the image data captured by the monocular camera, the first coordinates are based on the image data captured when the object is performing an action such as jumping or the vehicle is riding on an object. Is converted to the second coordinate, but an accurate second coordinate cannot be obtained. The second coordinate is farther than it should be. That is, the exact position of the object cannot be estimated. Further, when the position of the object is not accurate in this way, the size of the object cannot be estimated accurately.
そこで、本開示の一態様に係る位置推定方法は、大きさが所定範囲に含まれない場合、代表値に基づいて再度座標変換を行う。第3座標は、対象物に応じた代表値に基づいて座標変換された座標であるので、第2座標に比べて対象物の実世界での座標に近い座標となり得る。よって、単眼カメラで撮像した画像データを用いた場合であっても、対象物の位置を正確に推定することができる。 Therefore, in the position estimation method according to one aspect of the present disclosure, when the size is not included in the predetermined range, the coordinate conversion is performed again based on the representative value. Since the third coordinate is a coordinate that has been coordinate-transformed based on a representative value corresponding to the object, it can be a coordinate closer to the real-world coordinate of the object than the second coordinate. Therefore, even when the image data captured by the monocular camera is used, the position of the object can be accurately estimated.
また、例えば、前記代表値は、前記対象物に応じてあらかじめ設定された標準値であってもよい。 Further, for example, the representative value may be a standard value preset according to the object.
これにより、対象物に応じた標準値に基づいて、第1座標が第3座標に変換されるので、対象物によらず一定の標準値を用いて座標変換する場合に比べて、対象物の位置を正確に推定することができる。 As a result, the first coordinate is converted to the third coordinate based on the standard value corresponding to the object, so that the coordinate is converted using a constant standard value regardless of the object, as compared with the case where the coordinate is converted using a constant standard value regardless of the object. The position can be estimated accurately.
また、例えば、前記標準値は、前記対象物のクラスごとに設定されており、前記大きさが前記所定範囲内に含まれない場合、前記対象物が属するクラスに応じた前記標準値を前記代表値として取得し、取得した前記代表値に基づいて、前記第1座標を前記第3座標に変換しなおしてもよい。 Further, for example, the standard value is set for each class of the object, and when the size is not included in the predetermined range, the standard value corresponding to the class to which the object belongs is represented. It may be acquired as a value, and the first coordinate may be converted back to the third coordinate based on the acquired representative value.
これにより、ラベルごとの標準値を用いて第1座標を第3座標に変換することができるので、さらに正確に対象物の位置を推定することができる。 As a result, the first coordinate can be converted to the third coordinate using the standard value for each label, so that the position of the object can be estimated more accurately.
また、例えば、前記代表値は、過去に取得された画像データに基づく、前記対象物の大きさの時系列データに基づいて決定されてもよい。 Further, for example, the representative value may be determined based on the time series data of the size of the object based on the image data acquired in the past.
これにより、当該対象物における時系列データを用いるので、代表値をより適切に設定することができる。よって、さらに正確に対象物の位置を推定することができる。 As a result, since the time series data of the object is used, the representative value can be set more appropriately. Therefore, the position of the object can be estimated more accurately.
また、例えば、前記大きさが前記所定範囲に含まれる場合、現フレームにおける当該大きさと、過去のフレームにおける前記対象物の大きさとに基づいて、前記対象物の大きさを更新してもよい。 Further, for example, when the size is included in the predetermined range, the size of the object may be updated based on the size in the current frame and the size of the object in the past frame.
これにより、より精度よい対象物の大きさを取得することができる。例えば、当該大きさを用いて、座標変換がしなおされることにより、より一層正確に対象物の位置を推定することができる。 This makes it possible to obtain a more accurate size of the object. For example, the position of the object can be estimated more accurately by performing the coordinate transformation again using the size.
また、本開示の一態様に係る位置推定装置は、単眼カメラから対象物を含む画像データを取得する取得部と、前記画像データにおける前記対象物の第1座標を、実世界における第2座標に変換する第1変換部と、前記第2座標に基づいて、前記対象物の大きさを算出する算出部と、前記大きさが前記対象物に応じた所定範囲に含まれるか否かを判定する判定部と、前記大きさが前記所定範囲に含まれない場合、前記所定範囲内の代表値に基づいて、前記第1座標を第3座標に変換しなおす第2変換部とを備える。また、本開示の一態様に係るプログラムは、上記の位置推定方法をコンピュータに実行させるためのプログラムである。 Further, the position estimation device according to one aspect of the present disclosure uses an acquisition unit that acquires image data including an object from a monocular camera, and the first coordinates of the object in the image data as second coordinates in the real world. A first conversion unit to be converted, a calculation unit that calculates the size of the object based on the second coordinates, and a determination as to whether or not the size is included in a predetermined range corresponding to the object. A determination unit and a second conversion unit that reconverts the first coordinate to the third coordinate based on a representative value within the predetermined range when the size is not included in the predetermined range are provided. Further, the program according to one aspect of the present disclosure is a program for causing a computer to execute the above-mentioned position estimation method.
これにより、上記の位置推定方法と同様の効果を奏する。 As a result, the same effect as that of the above-mentioned position estimation method is obtained.
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータで読み取り可能なCD−ROM等の非一時的記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。プログラムは、記録媒体に予め記憶されていてもよいし、インターネット等を含む広域通信網を介して記録媒体に供給されてもよい。 It should be noted that these general or specific aspects may be realized by a system, a method, an integrated circuit, a computer program, or a non-temporary recording medium such as a computer-readable CD-ROM, and the system, the method, the integrated. It may be realized by any combination of circuits, computer programs or recording media. The program may be stored in the recording medium in advance, or may be supplied to the recording medium via a wide area communication network including the Internet or the like.
以下、実施の形態について、図面を参照しながら具体的に説明する。 Hereinafter, embodiments will be specifically described with reference to the drawings.
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。例えば、数値は、厳格な意味のみを表す表現ではなく、実質的に同等な範囲、例えば数%程度の差異をも含むことを意味する表現である。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、同じ構成部材については同じ符号を付している。 It should be noted that all of the embodiments described below show comprehensive or specific examples. Numerical values, shapes, components, arrangement positions and connection forms of components, steps, step order, and the like shown in the following embodiments are examples, and are not intended to limit the present disclosure. For example, a numerical value is not an expression that expresses only a strict meaning, but an expression that includes a substantially equivalent range, for example, a difference of about several percent. Further, among the components in the following embodiments, the components not described in the independent claims will be described as arbitrary components. Further, each figure is a schematic view and is not necessarily exactly illustrated. Further, in each figure, the same components are designated by the same reference numerals.
(実施の形態1)
以下、本実施の形態に係る位置推定装置を備える車両ついて、図2〜図8を参照しながら説明する。
(Embodiment 1)
Hereinafter, a vehicle provided with the position estimation device according to the present embodiment will be described with reference to FIGS. 2 to 8.
[1−1.車両の構成]
まず、本実施の形態に係る車両の構成について、図2を参照しながら説明する。図2は、本実施の形態に係る位置推定装置30を備える車両10の機能構成を示すブロック図である。
[1-1. Vehicle configuration]
First, the configuration of the vehicle according to the present embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing a functional configuration of a
図2に示すように、車両10は、単眼カメラ20と、位置推定装置30とを備える。
As shown in FIG. 2, the
単眼カメラ20は、車両10に搭載され、車両10の周囲を撮像する。単眼カメラ20は、例えば、車両10の前方の車幅の中心位置近くに取り付けられた小型な車載カメラ(車載単眼カメラ)である。単眼カメラ20は、例えば、車内のフロントガラス付近の天井に取り付けられていてもよい。この場合、単眼カメラ20の撮像範囲は、車両10の前方において、ボンネットの一部を含む範囲となる。また、単眼カメラ20は、例えば、ボンネットの先端部に取り付けられていてもよい。また、単眼カメラ20は、車両10の後方又は側方を撮像できるように取り付けられていてもよい。
The
単眼カメラ20としては、特に限定されず、公知の単眼カメラを用いることができる。単眼カメラ20は、例えば、可視光領域の波長の光を撮像する一般的な可視光カメラであるが、赤外光の情報を取得できるカメラであってもよい。また、単眼カメラ20は、例えば、広角で撮像するものであってもよい。単眼カメラ20は、例えば、魚眼レンズを有する魚眼カメラであってもよい。また、単眼カメラ20は、モノクロ画像を撮像するモノクロカメラであってもよいし、カラー画像を撮像するカラーカメラであってもよい。
The
単眼カメラ20は、撮像した画像データを位置推定装置30に出力する。単眼カメラ20は、撮像装置の一例である。また、画像データは、2次元画像データである。
The
位置推定装置30は、単眼カメラ20から取得した画像データに基づいて、対象物の位置を推定する。位置推定装置30は、画像データに基づいて、実世界における対象物の3次元位置を推定する3次元位置推定装置である。位置推定装置30は、検知部40と、制御部50と、記憶部60とを有する。
The
検知部40は、単眼カメラ20から取得した画像データに基づいて、検知対象の対象物を検知する。以下において検知部40の検知対象の対象物は人(例えば、歩行者U)である例について説明するが、対象物は人に限定されない。検知部40は、単眼カメラ20から歩行者Uを含む画像データを取得する取得部として機能する。
The
検知部40は、画像データを入力とし、当該画像データに写る人を検知した検知枠を出力するように学習された学習済みモデルを用いて人を検知する。学習済みモデルは、例えば、教師ありデータによる機械学習により生成される。学習済みモデルは、人が写った画像データを訓練データとし、当該画像データに写る人の検知枠(検知枠の座標)を正解データとして機械学習を用いて生成される。また、学習済モデルは、例えば、ニューラルネットワークを用いて、深層学習(ディープラーニング)により生成される。つまり、検知部40は、ディープラーニング人検知部であるとも言える。検知部40は、検知した検知枠のリストである検知枠リストを制御部50に出力する。検知枠リストは、検知結果の一例である。
The
検知枠リストには、検知部40が検知した検知枠の数、それぞれの検知枠の画像データ上での座標情報、及び、それぞれの検知枠の信頼度が含まれる。信頼度は、例えば、0〜1までの値をとり得る。なお、検知部40は、歩いている又はジャンプしている歩行者Uを検知可能なように学習されている。検知部40は、道路Lに接触している歩行者U及び道路Lに接触してない歩行者Uのそれぞれを検知可能なように学習されている。また、検知枠リストには、それぞれの検知枠のクラスが含まれていてもよい。クラスは、検知部40が検知可能な対象物の分類を示す。クラスは、位置推定装置30が搭載される物体に応じて適宜決定される。位置推定装置30が車両10に搭載される場合、クラスは、「人」、「車」などであり、歩行者Uのクラスは、例えば「人」である。なお、物体は、車両10などの移動体であるが、固定して使用される機器又は据え置きで使用される機器であってもよい。
The detection frame list includes the number of detection frames detected by the
なお、検知枠リストに含まれる検知枠の数がゼロであることもあり得る。この場合、検知枠リストには、検知枠の数がゼロであることを示す情報が含まれる。 The number of detection frames included in the detection frame list may be zero. In this case, the detection frame list contains information indicating that the number of detection frames is zero.
ここで、検知枠について図3を参照しながら説明する。図3は、本実施の形態に係る検知部40による対象物の検知結果を示す図である。
Here, the detection frame will be described with reference to FIG. FIG. 3 is a diagram showing a detection result of an object by the
図3に示すように、検知部40は、単眼カメラ20から取得した画像データDに基づいて、歩行者Uの検知枠Fの座標情報を含む検知枠リストを制御部50に出力する。検知部40は、歩行者Uが道路Lに接触している場合、道路Lに接触している歩行者Uを囲む検知枠Fの座標情報を含む検知枠リストを制御部50に出力する。また、検知部40は、歩行者Uが道路Lに接触していない場合、道路Lに接触していない歩行者U(例えば、ジャンプしている歩行者U)を囲む検知枠Fの座標情報を含む検知枠リストを制御部50に出力する。座標情報は、例えば、検知枠Fの対角をなす点の座標Pb1(u1、v1)、及び、Pb2(u2、v2)を含む。
As shown in FIG. 3, the
図2を再び参照して、制御部50は、検知枠リストに基づいて対象物の位置を推定する。本実施の形態に係る制御部50は、歩行者Uが道路Lに接触しているか否かを判定し、判定結果に基づいて当該歩行者Uの位置を推定する。制御部50は、第1変換部51と、算出部52と、判定部53と、第2変換部54とを有する。
With reference to FIG. 2 again, the
第1変換部51は、検知部40から検知枠リストを取得すると、検知枠リストに含まれる検知枠それぞれの座標を変換する。具体的には、第1変換部51は、検知枠それぞれの座標を、画像データ上の座標から実世界(実空間)における座標に変換する。第1変換部51は、カメラ座標系における歩行者Uの座標を、直交座標系における歩行者Uの座標に変換するとも言える。画像データ上の座標は第1座標の一例であり、第1変換部51が座標変換して得られる実世界上の座標は第2座標の一例である。
When the
第1変換部51が座標変換を行う方法は特に限定されないが、例えば、以下の方法により行われる。図4は、本実施の形態に係る第1変換部51の座標変換を説明するための図である。図4に示す座標Pa(X、Y、Z)は、歩行者Uの実世界での座標であり、直交座標系における3次元点(3次元座標)を示す。また、x軸、y軸及びz軸は、互いに直交しており、3次元直交座標系を構成する。z軸は単眼カメラ20の光軸(optical axis)と平行な方向の軸であり、x軸及びy軸のそれぞれは、z軸と直交する軸である。xy平面と光軸との交点が、直交座標系における原点である。
The method by which the
また、Xc軸、Yc軸及びZc軸は、互いに直交しており、カメラ座標系を構成する。Zc軸は単眼カメラ20の光軸と平行な方向の軸であり、Xc軸及びYc軸のそれぞれは、Zc軸と直交する軸である。XcYc平面と光軸との交点が、カメラ座標系における原点Fcである。
Further, the Xc axis, the Yc axis, and the Zc axis are orthogonal to each other and form a camera coordinate system. The Zc axis is an axis in a direction parallel to the optical axis of the
座標Pa及び単眼カメラ20の原点Fcを結んだ直線と画像平面とが交わる点の座標を座標Pb(uc、vc)とする。座標Pb(uc、vc)は、カメラ座標系での座標である。
The coordinates of the point where the straight line connecting the coordinate Pa and the origin Fc of the
このとき、座標Pb(uc、vc)は、以下の式1及び式2により算出することができる。
At this time, the coordinates Pb (uc, vc) can be calculated by the following
uc=(X×fx)/Z+cx (式1)
vc=(Y×fy)/Z+cy (式2)
uc = (X × fx) / Z + cx (Equation 1)
vc = (Y × fy) / Z + cy (Equation 2)
ここで、fx及びfyはピクセル単位で表される焦点距離であり、fxはx軸方向の焦点距離であり、fyはy軸方向の焦点距離である。また、cx及びcyは画像中心(principal point)である。画像中心は、単眼カメラ20の光軸と画像平面とが交わる点である。
Here, fx and fy are focal lengths expressed in pixel units, fx is a focal length in the x-axis direction, and fy is a focal length in the y-axis direction. Further, cx and cy are image centers (principal points). The center of the image is the point where the optical axis of the
図3に示す画像データ上での矩形枠の左上の角の座標Pb1(u1、v1)、及び、右下の角の座標Pb2(u2、v2)を用いると、矩形枠の画像データ上での面積Simgを以下の式3で算出することができる。 Using the coordinates Pb1 (u1, v1) of the upper left corner of the rectangular frame and the coordinates Pb2 (u2, v2) of the lower right corner on the image data shown in FIG. 3, the image data of the rectangular frame can be used. The area size can be calculated by the following formula 3.
Simg=|u1−u2|×|v1−v2| (式3) Simg = | u1-u2 | × | v1-v2 | (Equation 3)
画像データ上の座標Pb1に対応する実世界上での座標を座標Pa1(X1、Y1、Z1)とし、画像データ上の座標Pb2に対応する実世界上での座標を座標Pa2(X2、Y2、Z2)とし、かつ、奥行きZ1=Z2=Zと仮定すると、検知枠の実世界上での面積Sworldは、以下の式4で算出される。 The coordinates in the real world corresponding to the coordinates Pb1 on the image data are the coordinates Pa1 (X1, Y1, Z1), and the coordinates in the real world corresponding to the coordinates Pb2 on the image data are the coordinates Pa2 (X2, Y2, Assuming that Z2) and the depth Z1 = Z2 = Z, the area quad of the detection frame in the real world is calculated by the following equation 4.
Sworld=|X1−X2|×|Y1−Y2|
=|Z(u1−cx)/fx−Z(c2−cx)/fx|×
|Z(v1−cy)/fy−Z(v2−cy)/fy|
=(Z2×Simg)/(fx×fy) (式4)
World = | X1-X2 | × | Y1-Y2 |
= | Z (u1-cx) / fx-Z (c2-cx) / fx | ×
| Z (v1-cy) / fy-Z (v2-cy) / fy |
= (Z 2 x Sigma) / (fx x fy) (Equation 4)
面積Sworldは、対象物が人(例えば、大人の人)である場合、幅が50cm程度、高さ(身長)が170cm程度として算出することが可能である。よって、式4における残りの未知数である奥行きZの値を算出することができる。奥行きZは、単眼カメラ20の画像平面から対象物までの光軸と平行な方向の距離を示す。そして、奥行きZの値と、座標Pb1及びPb2とに基づいて、座標Pa1及びPa2が算出可能である。
The area Round can be calculated assuming that the width is about 50 cm and the height (height) is about 170 cm when the object is a person (for example, an adult person). Therefore, the value of the depth Z, which is the remaining unknown in Equation 4, can be calculated. The depth Z indicates the distance from the image plane of the
なお、上記では、検知枠の面積を用いて奥行きZの値を算出する例について説明したが、検知枠の高さ及び幅の一方を用いて奥行きZの値を算出することも可能である。例えば、車両10であれば正面から対象物を見るか横から見るかにより、対象物の幅は異なるが、高さはおおよそ同じである。そこで、以下では、高さを用いて奥行きZの値を算出する場合について説明する。検知枠の実世界上での高さHworldは、検知枠の画像データ上での高さを高さHimgとすると、以下の式5で算出される。
Although the example of calculating the depth Z value using the area of the detection frame has been described above, it is also possible to calculate the depth Z value using either the height or the width of the detection frame. For example, in the case of the
Hworld=|Y1−Y2|=|Z(v1−cy)/fy−Z(v2−cy)/fy|=(Z×Himg)/fy (式5) Hworld = | Y1-Y2 | = | Z (v1-cy) / fy-Z (v2-cy) / fy | = (Z × Himg) / fy (Equation 5)
ここで、検知枠の画像データ上での高さHimgは、以下の式6で算出される。 Here, the height Himg of the detection frame on the image data is calculated by the following formula 6.
Himg=|v1−v2| (式6) Himg = | v1-v2 | (Equation 6)
式5及び式6に示すように、検知枠の実世界上での高さHworldがわかると、奥行きZの値を算出可能である。 As shown in Equations 5 and 6, if the height Hworld of the detection frame in the real world is known, the value of the depth Z can be calculated.
図2を再び参照して、算出部52は、第1変換部51が座標変換した座標、つまり実世界における座標に基づいて、歩行者Uの大きさを算出する。算出部52は、例えば、歩行者Uの高さを算出する。なお、歩行者Uの大きさは、歩行者Uの幅であってもよいし、面積であってもよい。
With reference to FIG. 2 again, the
判定部53は、歩行者Uの実世界での大きさが当該歩行者Uに応じた所定範囲に含まれるか否かを判定する。本実施の形態では、判定部53は、過去に単眼カメラ20から取得された画像データに基づく、歩行者Uの実世界での大きさの時系列データに基づいて所定範囲を決定する。つまり、所定範囲は、歩行者Uごと(対象物ごと)に決定される。判定部53は、歩行者Uの正確な位置を取得したか否かを、歩行者Uの大きさに基づいて判定するとも言える。時系列データは、現フレームより前の複数のフレームで取得された画像データに基づいて算出された、歩行者Uの複数のフレームそれぞれでの大きさを含む。当該時系列データ(例えば、後述する図7を参照)は、記憶部60に記憶されている。図5は、本実施の形態に係る所定範囲を説明するための図である。図5の縦軸は大きさで示しており、横軸は時刻を示している。
The
図5に示すように、判定部53は、過去の数フレームでの歩行者Uの大きさに基づいて、所定範囲を決定する。判定部53は、例えば、歩行者Uの大きさの平均値及び標準偏差に基づいて、所定範囲を決定する。判定部53は、例えば、過去の数フレームでの歩行者Uの大きさの平均値をSavg、標準偏差をσとすると、以下の式7及び式8に基づいて所定範囲を決定する。
As shown in FIG. 5, the
上限値=Savg+k×σ (式7)
下限値=Savg−k×σ (式8)
Upper limit = Savg + k × σ (Equation 7)
Lower limit = Savg-k x σ (Equation 8)
この場合、判定部53は、式8で算出される下限値以上、かつ、式7で算出される上限値以下の範囲を所定範囲に決定する。なお、kは、予め設定される定数である。
In this case, the
図2を再び参照して、判定部53は、現フレームの歩行者Uの大きさが所定範囲内である場合、現フレームにおいて歩行者Uが道路Lと接触していると判定する。判定部53は、歩行者Uが道路Lに接触しているという状態と、位置推定装置30における座標変換の前提とが一致していると判定するとも言える。また、判定部53は、現フレームの歩行者Uの大きさが所定範囲外である場合、現フレームにおいて歩行者Uが道路Lと接触していないと判定する。現フレームの歩行者Uの大きさが所定範囲外である場合、歩行者Uが道路Lに接触していないという状態と、位置推定装置30における座標変換の前提とが一致していないので、当該現フレームにおける第1変換部51による座標変換後の座標、つまり実世界での座標は、正確な値ではない場合がある。判定部53は、判定結果を第2変換部54に出力する。
With reference to FIG. 2 again, when the size of the pedestrian U in the current frame is within the predetermined range, the
第2変換部54は、判定部53により現フレームの歩行者Uの大きさが所定範囲内に含まれないと判定された場合、つまり歩行者Uが道路Lに接触していないという状態と、位置推定装置30における座標変換の前提とが一致していない場合、当該所定範囲内の値に基づいて、画像データにおける歩行者Uの座標を、実世界における歩行者Uの座標に変換しなおす。第2変換部54は、検知部40からの検知枠の座標を、代表値に基づいて実世界における検知枠の座標に変換しなおす。第2変換部54は、歩行者Uの実世界における大きさが代表値の値であるとして、実世界における検知枠の座標に変換しなおす。なお、本実施の形態では、代表値は、例えば、式7で算出される上限値、及び、式8で算出される下限値の間の値であり、例えば、過去の数フレームの実空間における大きさの平均値、中央値、最頻値などである。つまり、代表値は、過去に取得された画像データに基づく、対象物の実世界での大きさの時系列データに基づいて決定される。また、第2変換部54が座標変換して得られる実世界上の座標は、第3座標の一例である。
The
また、第2変換部54は、実世界における検知枠の座標を、車両10を鳥瞰したときの座標に変換してもよい。第2変換部54は、単眼カメラ20の視点から鳥瞰基準の視点に、視点変換するとも言える。第2変換部54は、鳥瞰したときの座標として、鳥瞰したときの2次元座標を算出してもよい。
Further, the
記憶部60は、位置推定装置30の各処理部で行われる処理のための各種情報を記憶する記憶装置である。記憶部60は、例えば、過去のフレームにおける歩行者Uの大きさ情報、各式1〜式8に示す情報及び各種係数などを記憶する。記憶部60は、例えば、半導体メモリなどにより実現される。
The
ここで、記憶部60に記憶される過去のフレームにおける歩行者Uの大きさの推定結果について、図6を参照しながら説明する。図6は、本実施の形態に係る過去のフレームにおける対象物の大きさの推定結果を示す図である。
Here, the estimation result of the size of the pedestrian U in the past frame stored in the
図6に示すように、推定結果は、時刻と歩行者Uの大きさとが対応付けられたテーブルである。時刻の間隔は特に限定されない。また、歩行者Uの大きさは、計測誤差などを含んだ値であり、フレームごとにバラつきが発生する。図6では、テーブルは、現在(例えば、8時10秒)の直近4フレーム(例えば、8時6秒〜8時9秒)における歩行者Uの大きさを含む。 As shown in FIG. 6, the estimation result is a table in which the time and the size of the pedestrian U are associated with each other. The time interval is not particularly limited. Further, the size of the pedestrian U is a value including a measurement error and the like, and variations occur for each frame. In FIG. 6, the table includes the size of the pedestrian U at the present (eg, 8:10) in the last 4 frames (eg, 8: 06-8: 9).
制御部50は、算出部52が算出した歩行者Uの実世界での大きさを図6に示すテーブルとして記憶部60に記憶する。制御部50は、例えば、歩行者Uにおける大きさが時間的に変化していない場合、当該大きさを歩行者Uが道路Lに接触しているときの大きさであるとして、記憶部60に記憶する。制御部50は、例えば、数フレームの間において、歩行者Uの大きさが類似した値をとるときに、その大きさを当該歩行者Uの大きさとして記憶部60に記憶する。類似した値とは、例えば、単眼カメラ20の性能(例えば、分解能)、制御部50による処理などにより、発生し得る誤差に基づいて設定された範囲内の値であることであってもよいし、予め設定された範囲内の値であることであってもよい。
The
上記のような位置推定装置30から出力される位置情報について、図7を参照しながら説明する。図7は、本実施の形態に係る位置推定装置30が出力する位置情報の一例を示す図である。位置情報は、位置推定装置30が推定した歩行者Uの車両10に対する位置推定結果を含む。具体的には、位置情報は、第1変換部51又は第2変換部54の座標変換の結果を含む。なお、図6では、位置情報が鳥瞰図で示されている例について説明するが、位置情報は鳥瞰図で示されることに限定されない。また、図7では、単眼カメラ20は、車両10のボンネットの先端部に配置されているとする。
The position information output from the
図7に示すように、位置情報は、単眼カメラ20に対する歩行者Uの位置を含む。単眼カメラ20が車両10に搭載されている場合、位置情報は、当該車両10に対する歩行者Uの位置を含む。図7では、位置推定装置30により、車両10の前方7m及び左側8mの位置に歩行者Uがいると推定された例を示している。
As shown in FIG. 7, the position information includes the position of the pedestrian U with respect to the
なお、位置情報は、歩行者Uの位置の時系列データに基づいて算出される当該歩行者Uの速度をさらに含んでいてもよい。 The position information may further include the speed of the pedestrian U calculated based on the time series data of the position of the pedestrian U.
[1−2.位置推定装置の動作]
続いて、本実施の形態に係る位置推定装置30の動作について、図8を参照しながら説明する。図8は、本実施の形態に係る位置推定装置30の動作を示すフローチャートである。
[1-2. Operation of position estimator]
Subsequently, the operation of the
図8に示すように、位置推定装置30の検知部40は、単眼カメラ20で撮像された画像データを取得する(S101)。検知部40は、例えば、単眼カメラ20から対象物を含む画像データを取得する。検知部40は、画像データを取得すると、当該画像データに対象物(本実施の形態では、歩行者U)が含まれるかを検知する処理を実行する。具体的には、検知部40は、学習済みモデルに画像データを入力し、当該学習済みモデルの出力である検知枠の座標情報及び信頼度を取得する。そして、検知部40は、検知枠の座標情報及び信頼度を含む検知枠リストを制御部50に出力する。
As shown in FIG. 8, the
次に、制御部50は、検知部40から検知枠リストを取得すると、検知部40が対象物を検知したか否かを判定する(S102)。制御部50は、検知枠リストに含まれる検知枠の数が1以上である場合、ステップS102でYesと判定し、検知枠の数が0である場合、ステップS102でNoと判定する。
Next, when the
次に、第1変換部51は、検知枠リストに含まれる検知枠の数が1以上である場合(S102でYes)、検知枠それぞれの画像データ上の座標を実世界での座標に座標変換する(S103)。第1変換部51は、検知対象の対象物が道路Lに接触しているとして、座標変換を行う。第1変換部51は、座標変換した検知枠の座標(対象物の座標)を算出部52に出力する。第1変換部51は、検知枠リストに含まれる検知枠の信頼度が所定以上である検知枠のみについて座標変換を行ってもよいし、全ての検知枠について座標変換を行ってもよい。
Next, when the number of detection frames included in the detection frame list is 1 or more (Yes in S102), the
次に、算出部52は、第1変換部51が座標変換した検知枠の座標に基づいて、当該対象物の大きさを算出する(S104)。算出部52は、例えば、検知枠の対角の位置の座標に基づいて、当該対象物の実世界での大きさを算出する。算出部52は、対象物の実世界での大きさを判定部53に出力する。算出部52は、図3の例では、座標v1及びv2の差分に対応する実世界での大きさを、対象物の大きさ(高さ)であるとして算出してもよい。
Next, the
次に、判定部53は、算出された大きさが所定範囲内であるか否かを判定する(S105)。判定部53は、当該大きさが対象物に応じた所定範囲内であるか否かを判定する。判定部53は、過去のフレームの対象物の大きさの時系列データに基づいて、所定範囲を決定し、決定した所定範囲に基づいて、ステップS105の判定を行う。判定部53は、例えば、式7及び式8に示す式に基づいて、所定範囲を決定する。判定部53は、図5の例では、現フレームでの大きさが所定範囲内に含まれるので、大きさが所定範囲内であると判定する。判定部53は、判定結果を第2変換部54に出力する。
Next, the
第2変換部54は、大きさが所定範囲内であることを示す判定結果を判定部53から取得する(S105でYes)と、対象物の大きさを更新する(S106)。第2変換部54は、例えば、過去の数フレームの対象物の大きさと、算出部52が算出した現フレームの対象物の大きさ、つまり第1変換部51が座標変換した座標に基づいて算出された対象物の大きさとに基づいて、対象物の大きさを更新する。第2変換部54は、例えば、過去の数フレームの対象物の大きさに現フレームの対象物の大きさを加えることで、対象物の大きさを更新してもよい。第2変換部54は、現フレームの大きさを用いて、次のフレームで判定部53が所定範囲を決定するための推定結果を更新する。なお、判定部53が決定する所定範囲は、動的に変化してもよい。また、第2変換部54は、例えば、過去の数フレームの対象物の大きさ、及び、現フレームの対象物の大きさから対象物の大きさの平均値などを算出することで、対象物の大きさを更新してもよい。
When the
次に、第2変換部54は、ステップS105でYesの場合、第1変換部51が座標変換した対象物の実世界での座標を当該対象物の位置として含む位置情報を出力する(S107)。つまり、第2変換部54は、第2座標を対象物の位置として出力する。第2出力部54は、位置情報を出力する出力部としても機能する。
Next, in the case of Yes in step S105, the
第2変換部54は、大きさが所定範囲外であることを示す判定結果を判定部53から取得する(S105でNo)と、過去のフレームの対象物の大きさに基づいて座標変換する(S108)。第2変換部54は、現フレームの対象物の大きさを用いずに、過去のフレームの対象物の大きさ(例えば、図6に示す推定結果)を用いて、検知部40からの検知枠リストの検知枠それぞれの座標を座標変換しなおす。第2変換部54は、対象物の実世界での大きさが過去のフレームの対象物の大きさに基づく代表値(例えば、平均値、最頻値など)となる位置を、当該対象物の実世界での大きさとして座標変換する。第2変換部54は、例えば、式5に示す高さHworldに代表値を代入して座標変換する。このように、第2変換部54は、大きさが所定範囲に含まれない場合、所定範囲内の代表値に基づいて、検知部40からの検知枠の座標を実世界における座標に変換しなおす。
When the
これにより、位置推定装置30は、例えば、対象物が道路Lと接触していない場合であっても、対象物の実世界での大きさの推定値を正確に取得することができるので、対象物が遠くにいるように推定されてしまうことを抑制することができる。
As a result, the
次に、第2変換部54は、当該第2変換部54が座標変換した対象物の実世界での座標を当該対象物の位置として含む位置情報を出力する(S107)。言い換えると、第2変換部54は、ステップS105でNoの場合、第1変換部51が変換した座標を含まない位置情報を出力する。第2変換部54は、第3座標を対象物の位置として出力する。
Next, the
また、制御部50は、検知枠リストに含まれる検知枠の数が0である場合(S102でNo)、対象物の位置を推定する処理を終了する。
Further, when the number of detection frames included in the detection frame list is 0 (No in S102), the
なお、位置推定装置30が図8に示す処理を実行するタイミングは、特に限定されないが、例えば、車両10の走行中、繰り返し実行される。
The timing at which the
以上のように、本実施の形態に係る位置推定装置30は、過去の数フレームにおける対象物の大きさに基づいて、現フレームの対象物の大きさに異常がないか否か、つまり急激に大きさが変化していないか否かを判定する。そして、位置推定装置30は、現フレームの対象物の大きさが正常である場合、第1変換部51の座標変換の結果に基づいて位置情報を生成する。また、位置推定装置30は、現フレームの対象物の大きさが異常である場合、歩行者Uがジャンプ等のイレギュラーな動作をしている、又は、車両10が物体に乗り上げている等のイレギュラーな挙動をしており、第1変換部51の座標変換の結果が正しくない可能性があるので、再度、検知部40の検知枠リストに基づいて座標変換を行う。このとき、第2変換部54は、過去の数フレームの歩行者Uの大きさに基づく値(例えば、大きさの平均値)を、現フレームでの歩行者Uの大きさとして座標変換を行う。
As described above, the
これにより、位置推定装置30は、歩行者Uがジャンプ等のイレギュラーな動作をしている、又は、車両10が物体に乗り上げている等のイレギュラーな挙動をしている場合であっても、過去の数フレームの歩行者Uの大きさに基づく値を用いて再度座標変換を行うので、対象物の位置を正確に推定することができる。つまり、位置推定装置30は、歩行者Uがジャンプ等のイレギュラーな動作をしている、又は、車両10が物体に乗り上げている等のイレギュラーな挙動をしている場合であっても、歩行者Uの位置の推定を誤ってしまうことを抑制することができる。
As a result, the
(実施の形態2)
[2−1.位置推定装置の構成]
まずは、本実施の形態に係る位置推定装置の構成について、図9を参照しながら説明する。図9は、本実施の形態に係る記憶部が記憶する対象物それぞれの大きさの標準値を含むテーブルである。本実施の形態に係る位置推定装置は、主に記憶部に記憶されている情報、及び、判定部の判定処理が実施の形態1に係る位置推定装置30と異なる。つまり、本実施の形態に係る位置推定装置の機能構成は、実施の形態1に係る位置推定装置30と同じであってもよい。よって、以降において、本実施の形態に係る位置推定装置の機能構成は、実施の形態1に係る位置推定装置30の機能構成と同じであるものとし、実施の形態1に係る位置推定装置30と同一の符号を付し、説明を省略する。また、以下では、大きさは、高さを示すものとして説明するが、これに限定されない。大きさは、幅であってもよいし、面積であってもよい。
(Embodiment 2)
[2-1. Position estimation device configuration]
First, the configuration of the position estimation device according to the present embodiment will be described with reference to FIG. FIG. 9 is a table including standard values of the sizes of the objects stored in the storage unit according to the present embodiment. The position estimation device according to the present embodiment is different from the
図9に示すように、本実施の形態に係る記憶部60は、クラス、所定範囲及び標準値(例えば、高さ)が対応付けられたテーブルを記憶している。クラスの数は特に限定されない。
As shown in FIG. 9, the
所定範囲は、判定部53が判定に用いるための大きさ(高さ)の範囲である。つまり、所定範囲は、対象物が道路Lと接触しているか否かを判定可能な範囲であり、クラスごとに設定される。
The predetermined range is a range of size (height) for the
標準値は、当該クラスにおける標準的な大きさ(高さ)を示す。標準値は、所定範囲内の数値であり、予めクラスごとに設定される。標準値は、例えば、所定範囲の平均値、中央値又は最頻値であるが、これに限定されない。標準値は、所定範囲内の代表値の一例である。代表値は、対象物に応じてあらかじめ設定された標準値であるとも言える。 The standard value indicates the standard size (height) in the class. The standard value is a numerical value within a predetermined range and is set in advance for each class. The standard value is, for example, an average value, a median value, or a mode value in a predetermined range, but is not limited thereto. The standard value is an example of a representative value within a predetermined range. It can be said that the representative value is a standard value set in advance according to the object.
判定部53は、上記のテーブルに含まれるクラス及び所定範囲を用いて、対象物の大きさが当該対象物に応じた所定範囲に含まれるか否かを判定する。対象物が歩行者Uである場合、判定部53は、画像データに基づく歩行者Uの大きさが当該歩行者Uに応じた所定範囲である1.4〜2.0mに含まれるか否かを判定する。
The
第2変換部54は、対象物の大きさが当該対象物に応じた所定範囲外である場合、上記のテーブルに含まれるクラス及び標準値に基づいて、当該対象物の座標の座標変換をしなおす。第2変換部54は、対象物の大きさが当該対象物に応じた所定範囲外である場合、クラスに応じた固定値に基づいて、当該対象物の座標の座標変換をしなおすとも言える。
When the size of the object is out of the predetermined range according to the object, the
[2−2.位置推定装置の動作]
続いて、本実施の形態に係る位置推定装置30の動作について、図10を参照しながら説明する。図10は、本実施の形態に係る位置推定装置30の動作を示すフローチャートである。なお、実施の形態1に係る位置推定装置30と同一又は類似の動作については、実施の形態1に係る位置推定装置30の動作と同一の符号を付し、説明を省略する。本実施の形態に係る位置推定装置30の動作は、図8に示すステップS108に替えてステップS208を実行する点が異なるので、その点を中心に説明する。
[2-2. Operation of position estimator]
Subsequently, the operation of the
図10に示すように、判定部53は、大きさが所定範囲内であるか否かを判定する(S105)。判定部53は、記憶部60に記憶されたテーブル(例えば、図9参照)に基づいて、所定範囲を決定し、決定した所定範囲に基づいて、ステップS105の判定を行う。判定部53は、例えば、検知部40が検知した検知枠のクラスを検知枠リストから取得し、取得したクラスに対応する所定範囲を、図9に示すテーブルに基づいて取得する。検知枠リストに複数の検知枠が含まれる場合、検知枠のそれぞれにおいて所定範囲を取得する。テーブルから所定範囲を取得することは、所定範囲を決定することの一例である。
As shown in FIG. 10, the
判定部53は、図9に基づいて決定した所定範囲を用いて、ステップS105の判定を行う。判定部53は、検知枠リストに複数の検知枠が含まれる場合、検知枠のそれぞれにおいて当該検知枠に応じた所定範囲を用いてステップS105の判定を行う。
The
第2変換部54は、大きさが所定範囲外であることを示す判定結果を判定部53から取得する(S105でNo)と、対象物に応じた代表値に基づいて、座標変換しなおす(S208)。具体的には、第2変換部54は、対象物に応じた大きさの代表値(例えば、図9に示す標準値)を用いて、検知部40からの検知枠リストの検知枠それぞれの座標を実世界の座標に座標変換しなおす。第2変換部54は、対象物の実世界での大きさが代表値となる位置を、当該対象物の実世界での位置として座標変換する。第2変換部54は、例えば、式5に示す高さHworldに代表値を代入することで座標変換する。
When the
このように、第2変換部54は、算出部52が算出した大きさが所定範囲内に含まれない場合、対象物が属するクラスに応じた大きさの標準値を代表値として取得し、取得した代表値に基づいて、検知部40の検知枠の座標を実世界の座標に座標変換しなおす。
In this way, when the size calculated by the
これにより、位置推定装置30は、例えば、対象物が道路Lと接触していない場合であっても、代表値に基づいて対象物の実世界での大きさの推定値を取得することができるので、対象物が遠くにいるように推定されてしまうことを抑制することができる。
As a result, the
以上のように、本実施の形態に係る位置推定装置30は、対象物のクラスごとに設定された大きさの範囲(所定範囲)に基づいて、現フレームの対象物の大きさに異常がないか否か、つまり急激に大きさが変化していないか否かを判定する。そして、位置推定装置30は、現フレームの対象物の大きさが正常である場合、第1変換部51の座標変換の結果に基づいて位置情報を生成し、現フレームの対象物の大きさが異常である場合、歩行者Uがジャンプ等のイレギュラーな動作をしている、又は、車両10が物体に乗り上げている等のイレギュラーな挙動をしており、第1変換部51の座標変換の結果が正しくない可能性があるので、再度、検知部40の検知枠リストに基づいて座標変換を行う。このとき、第2変換部54は、対象物のクラスごとの標準的な大きさを示す標準値(代表値の一例)を、現フレームでの歩行者Uの大きさとして座標変換を行う。
As described above, the
これにより、位置推定装置30は、歩行者Uがジャンプ等のイレギュラーな動作をしている、又は、車両10が物体に乗り上げている等のイレギュラーな挙動をしている場合であっても、対象物のクラスごとの標準的な大きさを用いて再度座標変換を行うので、対象物の位置を正確に推定することができる。つまり、位置推定装置30は、歩行者Uがジャンプ等のイレギュラーな動作をしている、又は、車両10が物体に乗り上げている等のイレギュラーな挙動をしている場合であっても、歩行者Uの位置の推定を誤ってしまうことを抑制することができる。
As a result, the
(その他の実施の形態)
以上、一つまたは複数の態様に係る位置推定方法等について、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示に含まれてもよい。
(Other embodiments)
Although the position estimation method and the like according to one or more aspects have been described above based on the embodiment, the present disclosure is not limited to this embodiment. As long as the purpose of the present disclosure is not deviated, various modifications that can be conceived by those skilled in the art are applied to the present embodiment, and a form constructed by combining components in different embodiments may also be included in the present disclosure. ..
例えば、上記実施の形態等では、検知部は、学習済みモデルを用いて物体検知を行う例について説明したが、画像データにおける物体検知の手法は、既知のいかなる技術が用いられてもよい。検知部は、例えば、パターンマッチングにより対象物を検知してもよい。 For example, in the above-described embodiment and the like, the detection unit has described an example in which the object detection is performed using the trained model, but any known technique may be used as the object detection method in the image data. The detection unit may detect an object by pattern matching, for example.
また、上記実施の形態等に係る位置推定装置は、複数の装置により実現されてもよい。位置推定装置が複数の装置によって実現される場合、当該位置推定装置が有する各構成要素は、複数の装置にどのように振り分けられてもよい。また、位置推定装置が備える各構成要素の少なくとも1つは、サーバ装置により実現されてもよい。例えば、第1変換部、算出部、判定部及び第2変換部などの処理部の少なくとも1つは、サーバ装置により実現されてもよい。また、位置推定装置がサーバ装置を含む複数の装置で実現される場合、当該位置推定装置が備える装置間の通信方法は、特に限定されず、無線通信であってもよいし、有線通信であってもよい。また、装置間では、無線通信および有線通信が組み合わされてもよい。 Further, the position estimation device according to the above embodiment and the like may be realized by a plurality of devices. When the position estimation device is realized by a plurality of devices, each component of the position estimation device may be distributed to the plurality of devices in any way. Further, at least one of the components included in the position estimation device may be realized by the server device. For example, at least one of the processing units such as the first conversion unit, the calculation unit, the determination unit, and the second conversion unit may be realized by the server device. When the position estimation device is realized by a plurality of devices including the server device, the communication method between the devices included in the position estimation device is not particularly limited, and may be wireless communication or wired communication. You may. Further, wireless communication and wired communication may be combined between the devices.
また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が他のステップと同時(並列)に実行されてもよいし、上記ステップの一部は実行されなくてもよい。 Further, the order in which each step in the flowchart is executed is for exemplifying the present disclosure in detail, and may be an order other than the above. Further, a part of the above steps may be executed simultaneously with other steps (parallel), or a part of the above steps may not be executed.
また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。 Further, the division of the functional block in the block diagram is an example, and a plurality of functional blocks can be realized as one functional block, one functional block can be divided into a plurality of functional blocks, and some functions can be transferred to other functional blocks. You may. Further, the functions of a plurality of functional blocks having similar functions may be processed by a single hardware or software in parallel or in a time division manner.
また、上記実施の形態における位置推定装置が備える構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。 Further, a part or all of the components included in the position estimation device in the above embodiment may be composed of one system LSI (Large Scale Integration: large-scale integrated circuit).
システムLSIは、複数の処理部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)などを含んで構成されるコンピュータシステムである。ROMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。 The system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of processing units on one chip, and specifically, a microprocessor, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. It is a computer system composed of. A computer program is stored in the ROM. The system LSI achieves its function by operating the microprocessor according to the computer program.
また、本開示の一態様は、図8又は図10などに示す位置推定方法に含まれる特徴的な各ステップをコンピュータに実行させるコンピュータプログラムであってもよい。例えば、プログラムは、コンピュータに実行させるためのプログラムであってもよい。また、本開示の一態様は、そのようなプログラムが記録された、コンピュータ読み取り可能な非一時的な記録媒体であってもよい。例えば、そのようなプログラムを記録媒体に記録して頒布又は流通させてもよい。例えば、頒布されたプログラムを、他のプロセッサを有する装置にインストールして、そのプログラムをそのプロセッサに実行させることで、その装置に、上記各処理を行わせることが可能となる。 Further, one aspect of the present disclosure may be a computer program that causes a computer to execute each characteristic step included in the position estimation method shown in FIG. 8 or FIG. For example, the program may be a program to be executed by a computer. Also, one aspect of the present disclosure may be a computer-readable, non-temporary recording medium on which such a program is recorded. For example, such a program may be recorded on a recording medium and distributed or distributed. For example, by installing the distributed program on a device having another processor and causing the processor to execute the program, it is possible to cause the device to perform each of the above processes.
本開示は、単眼カメラで撮像した画像データを用いて対象物の位置を推定する位置推定装置に有用である。 The present disclosure is useful for a position estimation device that estimates the position of an object using image data captured by a monocular camera.
10 車両
20 単眼カメラ
30 位置推定装置
40 検知部
50 制御部
51 第1変換部
52 算出部
53 判定部
54 第2変換部
60 記憶部
D 画像データ
F 検知枠
Himg、Hworld 高さ
L 道路
M、U 歩行者(対象物)
P1、P2 位置
Pa、Pb、Pb1、Pb2 座標
Simg、Sworld 面積
10
P1, P2 Position Pa, Pb, Pb1, Pb2 Coordinates Simg, Lead Area
Claims (7)
前記画像データにおける前記対象物の第1座標を、実世界における第2座標に変換し、
前記第2座標に基づいて、前記対象物の大きさを算出し、
前記大きさが前記対象物に応じた所定範囲に含まれるか否かを判定し、
前記大きさが前記所定範囲に含まれない場合、前記所定範囲内の代表値に基づいて、前記第1座標を実世界における第3座標に変換しなおす
位置推定方法。 Obtain image data including an object from a monocular camera and
The first coordinate of the object in the image data is converted into the second coordinate in the real world.
The size of the object is calculated based on the second coordinates.
It is determined whether or not the size is included in a predetermined range according to the object, and the size is determined.
A position estimation method in which when the size is not included in the predetermined range, the first coordinate is converted back into a third coordinate in the real world based on a representative value within the predetermined range.
請求項1に記載の位置推定方法。 The position estimation method according to claim 1, wherein the representative value is a standard value preset according to the object.
前記大きさが前記所定範囲内に含まれない場合、
前記対象物が属するクラスに応じた前記標準値を前記代表値として取得し、取得した前記代表値に基づいて、前記第1座標を前記第3座標に変換しなおす
請求項2に記載の位置推定方法。 The standard value is set for each class of the object, and is set.
If the size is not within the predetermined range
The position estimation according to claim 2, wherein the standard value corresponding to the class to which the object belongs is acquired as the representative value, and the first coordinate is converted back to the third coordinate based on the acquired representative value. Method.
請求項1に記載の位置推定方法。 The position estimation method according to claim 1, wherein the representative value is determined based on time-series data of the size of the object based on image data acquired in the past.
請求項1〜4のいずれか1項に記載の位置推定方法。 When the size is included in the predetermined range, any one of claims 1 to 4 for updating the size of the object based on the size in the current frame and the size of the object in the past frame. The position estimation method according to item 1.
前記画像データにおける前記対象物の第1座標を、実世界における第2座標に変換する第1変換部と、
前記第2座標に基づいて、前記対象物の大きさを算出する算出部と、
前記大きさが前記対象物に応じた所定範囲に含まれるか否かを判定する判定部と、
前記大きさが前記所定範囲に含まれない場合、前記所定範囲内の代表値に基づいて、前記第1座標を第3座標に変換しなおす第2変換部とを備える
位置推定装置。 An acquisition unit that acquires image data including an object from a monocular camera,
A first conversion unit that converts the first coordinate of the object in the image data to the second coordinate in the real world,
A calculation unit that calculates the size of the object based on the second coordinates,
A determination unit for determining whether or not the size is included in a predetermined range according to the object,
A position estimation device including a second conversion unit that reconverts the first coordinate to a third coordinate based on a representative value within the predetermined range when the size is not included in the predetermined range.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020051545A JP2021148730A (en) | 2020-03-23 | 2020-03-23 | Position estimation method, position estimation device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020051545A JP2021148730A (en) | 2020-03-23 | 2020-03-23 | Position estimation method, position estimation device, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021148730A true JP2021148730A (en) | 2021-09-27 |
Family
ID=77851235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020051545A Pending JP2021148730A (en) | 2020-03-23 | 2020-03-23 | Position estimation method, position estimation device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021148730A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114637868A (en) * | 2022-02-23 | 2022-06-17 | 广州市玄武无线科技股份有限公司 | Product data processing method and system applied to fast-moving industry |
WO2024061079A1 (en) * | 2022-09-22 | 2024-03-28 | 虹软科技股份有限公司 | Monocular vision positioning method and apparatus, and storage medium and electronic device |
-
2020
- 2020-03-23 JP JP2020051545A patent/JP2021148730A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114637868A (en) * | 2022-02-23 | 2022-06-17 | 广州市玄武无线科技股份有限公司 | Product data processing method and system applied to fast-moving industry |
WO2024061079A1 (en) * | 2022-09-22 | 2024-03-28 | 虹软科技股份有限公司 | Monocular vision positioning method and apparatus, and storage medium and electronic device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7038345B2 (en) | Camera parameter set calculation method, camera parameter set calculation program and camera parameter set calculation device | |
JP5251800B2 (en) | Object tracking device and program | |
JP7002007B2 (en) | Camera parameter set calculation device, camera parameter set calculation method and program | |
CN110826499A (en) | Object space parameter detection method and device, electronic equipment and storage medium | |
JP6614247B2 (en) | Image processing apparatus, object recognition apparatus, device control system, image processing method and program | |
JP5133783B2 (en) | In-vehicle device | |
JP6328327B2 (en) | Image processing apparatus and image processing method | |
US11233983B2 (en) | Camera-parameter-set calculation apparatus, camera-parameter-set calculation method, and recording medium | |
JP6021689B2 (en) | Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program | |
KR20150074544A (en) | Method of tracking vehicle | |
KR101427032B1 (en) | Apparatus and method for recognizing pedestrian in vehicle, and apparatus and method for warning and preventing collision with pedestrian in vehicle using thereof | |
JP2018092596A (en) | Information processing device, imaging device, apparatus control system, mobile body, information processing method, and program | |
JP2021148730A (en) | Position estimation method, position estimation device, and program | |
JP2020122754A (en) | Three-dimensional position estimation device and program | |
JP5107154B2 (en) | Motion estimation device | |
JP6631691B2 (en) | Image processing device, device control system, imaging device, image processing method, and program | |
JP6577595B2 (en) | Vehicle external recognition device | |
JP2021051347A (en) | Distance image generation apparatus and distance image generation method | |
KR20170138842A (en) | System and Method for Tracking Vehicle on the basis on Template Matching | |
JP2021092996A (en) | Measurement system, vehicle, measurement method, measurement device and measurement program | |
JP2017167970A (en) | Image processing apparatus, object recognition apparatus, device control system, image processing method, and program | |
WO2022107548A1 (en) | Three-dimensional skeleton detection method and three-dimensional skeleton detection device | |
CN115131752A (en) | Learning method, learning device, and program recording medium | |
JP7286387B2 (en) | Position estimation system, position estimation device, position estimation method, and program | |
JP5330341B2 (en) | Ranging device using in-vehicle camera |