JP7342499B2 - tagging device - Google Patents
tagging device Download PDFInfo
- Publication number
- JP7342499B2 JP7342499B2 JP2019141133A JP2019141133A JP7342499B2 JP 7342499 B2 JP7342499 B2 JP 7342499B2 JP 2019141133 A JP2019141133 A JP 2019141133A JP 2019141133 A JP2019141133 A JP 2019141133A JP 7342499 B2 JP7342499 B2 JP 7342499B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- range
- photographing
- image
- tagging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、タグ付与装置に関する。 The present invention relates to a tagging device.
車両に搭載されたカメラにより取得された、車両の周辺状況を示す画像を用いて走行制御装置が車両の走行を制御する技術が知られている。走行制御装置は、カメラが撮像する画像に基づいて認識された物体や地物など物体等の情報を、車両の動力、制動、操舵といった走行動作の制御のために用いる。 2. Description of the Related Art There is a known technology in which a travel control device controls the travel of a vehicle using an image showing the surrounding situation of the vehicle, which is acquired by a camera mounted on the vehicle. The driving control device uses information about objects such as objects and terrestrial features recognized based on images captured by a camera to control driving operations such as power, braking, and steering of the vehicle.
人工知能を搭載した走行制御装置による走行制御の精度を向上させるため、人工知能に識別させるべき属性がタグとして付与された教師データを用いて人工知能に学習させることが求められる。例えば、車両に搭載されたカメラにより生成された画像に対し、画像に撮影された地物の情報をタグとして付与することにより、教師データが作成される。 In order to improve the accuracy of driving control by a driving control device equipped with artificial intelligence, it is necessary to have the artificial intelligence learn using training data that has been tagged with attributes that the artificial intelligence should identify. For example, teacher data is created by tagging an image generated by a camera mounted on a vehicle with information about a feature photographed in the image.
特許文献1には、撮影された画像と、画像に応じて検索された地物特定情報とを重畳して表示する画像表示装置が記載されている。
特許文献1に記載の技術によると、画像表示装置は、撮影位置と撮影方位と姿勢とに基づいて撮影空間を特定し、特定された撮影空間内に代表点座標が位置する地物を、地物特定情報記憶部から検索する。したがって、大量に登録された地物の中から撮影空間に存在する地物を迅速に特定することは容易ではない。
According to the technology described in
本発明は、撮影装置により撮影された画像に対し、画像に含まれる地物の情報を迅速に特定するタグ付与装置を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a tagging device that quickly identifies information on a feature included in an image photographed by a photographing device.
本発明にかかるタグ付与装置は、撮影装置により撮影されたときの撮影装置の位置を示す撮影位置および撮影装置の向いている方位を示す撮影方位を含む撮影条件が関連づけられた画像に対応する、少なくとも撮影位置を含む対象エリアを特定する対象エリア特定部と、所定領域に存在する地物について、少なくとも地物の名称および当該地物に対応する地図上の位置を示す地物範囲を含む地物情報を記憶するサーバから、対象エリアに前記地物範囲の少なくとも一部が含まれる地物情報を取得する地物情報取得部と、取得した地物情報に含まれる地物範囲と、画像における撮影位置および撮影方位に基づいて定められる、画像に撮影された領域が地図上に占める範囲を示す撮影範囲と重複するか否かを判定する重複判定部と、撮影範囲と重複すると判定された地物範囲に対応する地物名称をタグとして画像に付与するタグ付与部とを備える。 The tagging device according to the present invention corresponds to an image associated with a photographing condition including a photographing position indicating the position of the photographing device when the photograph was taken by the photographing device and a photographing direction indicating the direction in which the photographing device is facing. A target area specifying unit that identifies a target area including at least a photographing position; and a feature range that indicates at least the name of the feature and the position on the map corresponding to the feature for features existing in the predetermined area; a feature information acquisition unit that acquires feature information that includes at least a part of the feature range in the target area from a server that stores information; a feature information acquisition unit that obtains feature information that includes at least a part of the feature range in the target area; An overlap determination unit that determines whether or not an area photographed in an image overlaps with a photographing range indicating an area occupied on a map, which is determined based on the position and photographing direction, and a feature determined to overlap with the photographing range. and a tagging unit that tags the image with a feature name corresponding to the range.
本発明にかかるタグ付与装置によれば、撮影装置により撮影された画像について、画像に含まれる地物の情報を迅速に特定することができる。 According to the tagging device according to the present invention, it is possible to quickly identify information on a feature included in an image photographed by a photographing device.
以下、図面を参照してタグ付与装置について詳細に説明する。ただし、本発明は図面または以下に記載される実施形態に限定されないことを理解されたい。 Hereinafter, the tagging device will be described in detail with reference to the drawings. However, it is to be understood that the invention is not limited to the embodiments described in the drawings or below.
タグ付与装置は、撮像装置により撮影された画像に対し、画像に含まれる地物の情報をタグとして付与する。このとき、タグ付与装置は、少なくとも画像に関連づけられた撮影位置を含む対象エリアを特定する。そして、タグ付与装置は、サーバから対象エリアに対応する地物情報を取得する。そして、タグ付与装置は、地物情報に含まれる地物範囲と、画像に関連づけられた撮影位置および撮影方位とに基づいて定められる撮影範囲とが重複するか否かを判定し、重複すると判定された地物の名称をタグとして画像に付与する。これにより、このタグ付与装置は、撮像装置により撮影された画像について、画像に含まれる地物の情報を迅速に特定することができる。 The tagging device tags an image captured by the imaging device with information about a feature included in the image. At this time, the tagging device specifies a target area that includes at least a shooting position associated with the image. The tagging device then acquires feature information corresponding to the target area from the server. The tagging device then determines whether or not the feature range included in the feature information overlaps with the shooting range determined based on the shooting position and shooting direction associated with the image, and determines that they overlap. The name of the feature is added to the image as a tag. Thereby, this tagging device can quickly identify information on a feature included in an image captured by the imaging device.
以下では、タグ付与装置を車両に搭載した実施形態について説明する。タグ付与装置は、車両に搭載されたカメラにより撮影された画像にタグを付与する。 Below, an embodiment in which a tagging device is mounted on a vehicle will be described. The tagging device tags images taken by a camera mounted on a vehicle.
図1は、タグ付与装置の動作概要図であり、図2はタグ付与装置が実装される車両の概略構成図である。 FIG. 1 is a schematic diagram of the operation of the tagging device, and FIG. 2 is a schematic configuration diagram of a vehicle in which the tagging device is installed.
車両Vは、撮影装置の一例であるカメラ1と、タグ付与装置2と、GNSS受信機3と、データ通信モジュール4を有する。カメラ1は、所定時間(ごとに車両の周囲の領域を撮影する。タグ付与装置2は、カメラ1により撮影された画像にタグを付与する。GNSS受信機3は、人工衛星から送信される信号に基づいて位置情報を出力する。タグ付与装置2は、GNSS受信機3が出力する位置情報に基づいて、車両Vの進行方向が示す車両方位を推定する。また、タグ付与装置2は、車両Vの車体に対するカメラ1の撮影方向、カメラ1の画角といった情報を予め記憶している。データ通信モジュール4は、外部ネットワーク6に含まれる無線基地局7に接続するための通信インタフェース回路を有する。カメラ1、タグ付与装置2、GNSS受信機3、データ通信モジュール4は、車内ネットワーク5を介して通信可能に接続される。車両Vは、車両Vの走行を制御し、車内ネットワークに接続されるECU(Electronic Control Unit、不図示)をさらに有していてもよい。この場合、タグ付与装置2は、車両Vに搭載された各種センサの出力を用いた位置情報補正処理によりECUが作成する車両Vの詳細位置情報を、ECUから取得して利用することができる。
The vehicle V includes a
タグ付与装置2は、カメラ1が位置O(NO,EO)にあるときに撮影された画像Iの入力を受け付ける。タグ付与装置2は、位置Oを所定の緯度幅と経度幅とで区分したメッシュに対応づけ、メッシュX1と位置Oを含むメッシュX2とを対象エリアとして特定する。対象エリアの特定の詳細については後述する。
The
タグ付与装置2は、対象エリアの情報をサーバ8に送信し、サーバ8から対象エリアに対応する地物情報を取得する。サーバ8は、所定領域に存在する地物についての地物情報を記憶するデータベースを有し、外部ネットワーク6に接続される。タグ付与装置2は、車内ネットワーク5、データ通信モジュール4、無線基地局7、外部ネットワーク6を介して、サーバ8と通信可能である。地物情報とは、地図上に表現可能な物の概念である地物を示す情報である。地物には、道路、建物、街路樹といった地図上で所定の範囲を占める物体が含まれる。サーバ8は、各メッシュに関連づけて地物情報を記憶している。タグ付与装置2は、対象エリアであるメッシュX1に関連づけられた、ビルPに関する地物情報とビルQに関する地物情報とを取得する。また、タグ付与装置2は、対象エリアであるメッシュX2に関連づけられた、ビルRに関する地物情報とビルSに関する地物情報とを取得する。地物情報には、地物の名称および地物が地図上に占める範囲を示す地物範囲が含まれる。
The
タグ付与装置2は、取得した地物情報に含まれる地物範囲と、画像に撮影された領域が地図上に占める範囲を示す撮影範囲とが重複するか否かを判定する。撮影範囲は、撮影位置および撮影方位に基づいて定められる。撮影位置は、画像が撮影された時に対応するGNSS受信機3からの位置情報である。撮影方位は、車体に対する撮影方向および画像が撮影されたときの車両方位に基づいて算出される、画像が撮影されたときにカメラ1が向く方位である。図1の例では、扇形の破線で示す撮影範囲はビルPの地物範囲と重複しており、他の地物範囲とは重複していない。
The
タグ付与装置2は、撮影範囲と重複すると判定された地物範囲に対応する地物の地物名称「ビルP」を、画像Iに属性として付与する。
The
図3は、タグ付与装置2のハードウェア模式図である。
FIG. 3 is a schematic hardware diagram of the
タグ付与装置2は、少なくとも車両Vに設置されたカメラ1により撮影された画像の撮影位置を含む対象エリアを特定する。また、タグ付与装置2は、サーバ8から対象エリアに対応する地物情報を取得する。そして、タグ付与装置2は、地物情報に含まれる地物範囲と、画像に関連づけられた撮影位置および撮影方位とに基づいて定められる撮影範囲とが重複するか否かを判定し、重複すると判定された地物の名称をタグとして画像に付与する。そのために、タグ付与装置2は、入出力インタフェース21と、メモリ22と、プロセッサ23と、ストレージ24とを備える。
The
入出力インタフェース21は、通信部の一例であり、タグ付与装置2と外部とのデータの入出力を行うためのインタフェース回路を有する。入出力インタフェース21は、受信したデータをプロセッサ23に供給する。また、入出力インタフェース21は、プロセッサ23から供給されたデータを外部に出力する。入出力インタフェース21は、例えばCAN(Controller Area Network)に準拠した通信を行うための回路である。
The input/
メモリ22は、記憶部の一例であり、揮発性の半導体メモリおよび不揮発性の半導体メモリを有する。メモリ22は、プロセッサ23による処理に用いられる各種データ、例えばカメラ1から受け付けた画像、サーバ8から受信した地物情報、タグ付与処理に用いる各種閾値等を記憶する。
The
プロセッサ23は、制御部の一例であり、1以上のプロセッサおよびその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニット、またはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。プロセッサ23は、カメラ1から画像を受信するたびに、受信した画像に対してタグ付与処理を実行する。なお、プロセッサ23は、カメラ1から所定数の画像を受信するたびに、その時に受信した画像に対してタグ付与処理を実行してもよい。また、プロセッサ23は、車両Vの位置情報の変位量が閾値を超えたこと、画像から新たな物体が検出されたことといった条件に従って、タグ付与処理の対象となる画像を選択してもよい。
The
ストレージ24は、記憶部の一例であり、不揮発性のSSD(Solid State Drive)またはHDD(Hard Disk Drive)を有する。ストレージ24は、プロセッサ23によりタグが付与された画像を記憶する。ストレージ24に記憶された画像は、入出力インタフェース21を介して外部に出力可能である。
The
図3は、タグ付与装置2が有するプロセッサ23の機能ブロック図である。
FIG. 3 is a functional block diagram of the
タグ付与装置2のプロセッサ23は、機能ブロックとして、対象エリア特定部231と、地物情報取得部232と、重複判定部233と、タグ付与部234とを有する。プロセッサ23が有するこれらの各部は、プロセッサ23上で実行されるプログラムによって実装される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、独立した集積回路、マイクロプロセッサ、またはファームウェアとしてタグ付与装置2に実装されてもよい。
The
対象エリア特定部231は、カメラ1から入力された画像ごとに、少なくとも画像に関連づけられた撮影条件に含まれる撮影位置を含む対象エリアを特定する。カメラ1は、例えばExif(Exchangeable image file format)規格により定められる所定の領域に撮影条件が埋め込まれた画像を出力する。撮影条件に含まれる撮影位置は、画像が撮影されたときにGNSS受信機3が出力する位置情報であってよい。GNSS受信機3が出力する位置情報は、WGS84測地系における座標(緯度、経度、標高)であってよい。
The target
図5は、対象エリアの特定を説明する模式図である。 FIG. 5 is a schematic diagram illustrating specifying a target area.
模式図500は、撮影位置O(NO,EO)とメッシュとの関係を示している。なお、撮影位置O(NO,EO)とは、位置Oの北緯がNOであり、東経がEOであることを示している。 A schematic diagram 500 shows the relationship between the imaging position O (N O , E O ) and the mesh. Note that the photographing position O (N O , E O ) indicates that the northern latitude of the position O is N O and the east longitude is E O.
撮影位置0は、メッシュX2に含まれる。この場合、メッシュX2は対象エリアとして特定される。 Photographing position 0 is included in mesh X2. In this case, mesh X2 is specified as the target area.
メッシュX2において、撮影位置と、メッシュX2の北側を区分する境界B12との距離はdnbである。同様に、撮影位置とメッシュX2の東側、南側、西側を区分する境界BXY、B23、BWXとの距離は、それぞれdeb、dsb、dwbである。 In the mesh X2, the distance between the photographing position and the boundary B12 that divides the north side of the mesh X2 is d nb . Similarly, the distances between the photographing position and the boundaries B XY , B 23 , and B WX that divide the east, south, and west sides of the mesh X2 are d eb , d sb , and d wb , respectively.
対象エリア特定部231は、撮影位置Oと境界との距離dnb、deb、dsbおよびdwbを、メモリ22に記憶された距離閾値と比較する。模式図500の例において、距離dnbは距離閾値未満であり、距離deb、dsbおよびdwbは距離閾値未満でない。この場合、対象エリア特定部231は、撮影位置Oからの距離が距離dnbである境界B12により、撮影位置Oを含むメッシュX2と区分されるメッシュX1を、対象エリアとしてさらに特定する。
The target
地物情報取得部232は、対象エリア特定部231により特定された対象エリアを示す情報をサーバ8に送信する。対象エリアを示す情報は、対象エリアとして特定されたメッシュの緯度方向における位置と経度方向における位置との組み合わせ(例えば「X1」)といった、対象エリアを一意に特定する情報である。
The feature
サーバ8は、メッシュに関連づけて地物情報を記憶している。サーバ8は、地物情報取得部232から受信した対象エリアを示す情報に応じて、対象エリアとして特定されたメッシュに関連づけられた地物情報を地物情報取得部232に送信する。地物情報取得部232は、サーバ8から対応エリアに関連づけられた地物情報を取得する。
The
重複判定部233は、画像に撮影された領域が地図上に占める範囲を示す撮影範囲を定める。そして、重複判定部233は、地物情報取得部232が取得した地物情報に含まれる地物範囲と撮影範囲とが重複するか否かを判定する。
The
地物範囲は、地物に対応する地図上の位置を示す情報であり、例えばWGS84測地系における座標(緯度、経度、標高)を用いて特定される。地物範囲は、地物が占める範囲に外接する多角形の各頂点の座標により特定される。このとき、各頂点の座標における標高は、当該地物の位置する位置における地表の標高である。また、各頂点の座標における標高は、当該地物の最高地点の標高であってもよい。また、地物範囲は、地図上の一点に対応する座標により特定されてもよい。また、地物範囲は、地図上の線に対応する複数の地点の座標により特定されてもよい。 The feature range is information indicating the position on the map corresponding to the feature, and is specified using, for example, coordinates (latitude, longitude, elevation) in the WGS84 geodetic system. The feature range is specified by the coordinates of each vertex of a polygon circumscribing the range occupied by the feature. At this time, the altitude at the coordinates of each vertex is the altitude of the ground surface at the position where the feature is located. Further, the elevation in the coordinates of each vertex may be the elevation of the highest point of the feature. Further, the terrestrial feature range may be specified by coordinates corresponding to one point on the map. Further, the feature range may be specified by the coordinates of a plurality of points corresponding to lines on the map.
重複判定部233は、撮影位置および撮影方位を含む撮影条件に基づいて撮影範囲を定める。撮影位置が、カメラ1が画像を撮影したときにGNSS受信機3により出力される位置情報であって、カメラ1の位置とGNSS受信機3が出力する位置とがずれている場合、重複判定部233は、撮影位置の位置情報がカメラ1の位置を示すよう、撮影位置を修正してよい。具体的には、重複判定部233は、メモリ22に記憶されているカメラ1の取り付け位置の情報とGNSS受信機3の取り付け位置の情報と撮影方位とに基づいて、撮影位置を修正する。なお、このとき、撮影位置はWGS84測地系における座標を用いて特定されているとする。
The
重複判定部233は、撮影位置および地物範囲に用いられる座標を、既知の換算式を用いてWGS84測地系からUTM座標系に変換する。重複判定部233は、撮影位置を中心とし、撮影方位に向けて画角を中心角とする所定の半径(例えば60m)の扇形を、撮影範囲として定める。
The
図6は、重複判定処理を説明する図である。 FIG. 6 is a diagram illustrating the duplication determination process.
図6において、画像Iに対応する撮影範囲IAは、中心を撮影位置Oとする扇形で示される。画像Iの撮影方位は、撮影位置Oから進行方向位置Wに向かう直線で示される。撮影範囲IAにおいて、扇形の半径は撮影位置Oから進行方向位置Wまでの距離dであり、扇形の中心角は2θである。また、図6において、地物P-Sに対応する地物範囲FAP-FASが示される。 In FIG. 6, the photographing range IA corresponding to the image I is shown in a fan shape with the photographing position O at the center. The photographing direction of the image I is indicated by a straight line from the photographing position O toward the position W in the traveling direction. In the photographing range IA, the radius of the sector is the distance d from the photographing position O to the position W in the traveling direction, and the central angle of the sector is 2θ. Further, in FIG. 6, a feature range FA P -FA S corresponding to the feature PS is shown.
重複判定部233は、撮影範囲に地物範囲の少なくとも一部が含まれるか否かを判定し、図6の例では、地物範囲FAPと、地物範囲FAPの少なくとも一部を含む撮影範囲IAとが重複すると判定される。
The
撮影位置Oと地物範囲FAPにおける頂点EP1とを結ぶ直線が進行方向となす角をαとする。このとき、重複判定部233は、画像Iの左右方向における中心線からtanα×dの距離にある線状のいずれかの位置に頂点EP1が表わされると推定することができる。
Let α be the angle that a straight line connecting the photographing position O and the vertex E P1 in the feature range FAP makes with the direction of travel. At this time, the
タグ付与部234は、撮影範囲と重複すると判定された地物範囲に対応する地物名称を、タグとして画像Iに付与する。タグ付与部234は、Exif規格により定められる所定の領域に地物名称を埋め込むことによって画像Iにタグを付与する。タグを付与された画像Iは、ストレージ24に記憶される。また、タグ付与部234は、画像の識別子と地物名称とを関連づけて記憶するデータベースに対し、画像Iの識別子と対応する地物名称とを関連づけて記憶させることによって画像Iにタグを付与してもよい。
The
図7は、タグ付与処理のフローチャートである。プロセッサ23は、カメラ1により撮影された画像を受け付ける度にタグ付与処理を実行する。
FIG. 7 is a flowchart of tagging processing. The
対象エリア特定部231は、まず、少なくとも画像の撮影位置を含む対象エリアを特定する(ステップS1)。
The target
次に、地物情報取得部232は、特定された対象エリアを示す情報をサーバ8に送信し、サーバ8から対象エリアに関連づけられた地物情報を取得する(ステップS2)。
Next, the feature
次に、重複判定部233は、取得した地物情報に含まれる地物範囲と、画像の撮影位置および撮影方位に基づいて定められる撮影範囲とが重複するか否かを判定する(ステップS3)。地物範囲と撮影範囲とが重複しないと判定された場合(ステップS3:N)、プロセッサ23はタグ付与処理を終了する。
Next, the
地物範囲と撮影範囲とが重複すると判定された場合(ステップS3:Y)、タグ付与部234は当該地物範囲に対応する地物名称をタグとして画像に付与し(ステップS4)、タグ付与処理を終了する。
If it is determined that the feature range and the shooting range overlap (Step S3: Y), the
変形例によれば、重複判定部233は、撮影範囲IVと重複すると判定された複数の地物範囲が互いに重複するかを判定してもよい。この場合、タグ付与部234は、互いに重複すると判定された複数の地物範囲のうち、撮影位置Oからの位置が大きい地物範囲に対応する地物名称と、当該地物が他の地物により遮蔽されていることを示す遮蔽情報とをタグとして画像に付与する。
According to a modification, the
図8は、異なる重複判定処理を説明する図である。 FIG. 8 is a diagram illustrating different duplication determination processing.
図8の例では、撮影範囲IVは、地物Uに対応する地物範囲FAUおよび地物Vに対応する地物範囲FAVと重複する。地物範囲FAUは頂点EU1およびEU2を含む。地物範囲FAVは頂点EV1およびEV2を含む。 In the example of FIG. 8, the imaging range IV overlaps with the feature range FAU corresponding to the feature U and the feature range FAV corresponding to the feature V. The feature range FA U includes vertices E U1 and E U2 . The feature range FA V includes vertices E V1 and E V2 .
重複判定部233は、撮影位置Oから見た地物範囲FAUおよび地物範囲FAVの位置関係を特定する。具体的には、重複判定部233は、まず、撮影位置Oと地物範囲FAVの頂点EV1およびEV2とを結ぶ線分が、地物範囲FAUと重なるか否かを判定する。また、重複判定部233は、撮影位置Oと地物範囲FAUの頂点EU1およびEU2とを結ぶ線分が、地物範囲FAVと重なるか否かを判定する。
The
図8の例においては、重複判定部233は、撮影位置Oと地物範囲FAVの頂点EV1およびEV2とを結ぶ線分は地物範囲FAUと重なると判定し、撮影位置Oと地物範囲FAUの頂点EU1およびEU2とを結ぶ線分は、地物範囲と重ならないと判定する。
In the example of FIG. 8, the
重複判定部233は、地物範囲FAUに重なると判定された地物範囲FAVに対応する地物名称と、当該地物範囲が他の地物により遮蔽されていることを示す遮蔽情報とを、タグとして画像に付与する。
The
図8の例において、頂点EU1およびEU2に対応する水平位置は、点E′U1およびE′U2である。また、撮影範囲IVに対する画像において、頂点EV1およびEV2に対応する水平位置は、点E′V1およびE′V2である。重複判定部233は、画像における点E′U1とE′U2との間の領域を地物Uに対応する領域として特定する。また、重複判定部233は、画像における点E′V1とE′V2との間の領域を地物Vに対応する領域として特定する。
In the example of FIG. 8, the horizontal positions corresponding to vertices E U1 and E U2 are points E' U1 and E' U2 . Further, in the image for the photographing range IV, the horizontal positions corresponding to the vertices E V1 and E V2 are points E' V1 and E' V2 . The
タグ付与部234は、重複判定部233により特定された地物範囲に対応する領域を特定する領域情報を、タグとして画像に付与する。タグ付与部234は、地物Uの背後にあるため隠蔽された(画像には表われていない可能性のある)地物Vに対応する領域情報(点E′V1-E′V2)を画像にタグとして付与するにあたり、遮蔽されていることを示す遮蔽情報をあわせてタグとして付与してもよい。
The
上記変形例において、重複判定部233は、地物の高さを示す地物高さをさらに含む地物情報に基づいて、地物範囲と撮影範囲とが重複するか否かを判定してもよい。この場合、タグ付与部234は、地物高さを用いて遮蔽情報をタグとして付与する。
In the above modification, the
図9(a)は地物高さを用いた重複判定処理を説明する図であり、図9(b)は地物高さを用いた画像へのタグ付与を説明する図である。 FIG. 9(a) is a diagram illustrating duplication determination processing using the height of a feature, and FIG. 9(b) is a diagram illustrating tagging to an image using the height of a feature.
図9(a)は、撮影位置Oにおいて画像Iを撮影したときの撮影範囲と地物範囲との関係を示している。地物U、Vの地物範囲FAU、FAUは、それぞれ地物高さHU、HVを用いて定められる。地物Uよりも撮影位置Oから遠い地物Vの地物高さHVは、地物Uの地物高さHUよりも大きい。 FIG. 9A shows the relationship between the photographing range and the feature range when the image I is photographed at the photographing position O. The feature ranges FA U and FA U of the features U and V are determined using the feature heights HU and HV , respectively. The feature height H V of the feature V which is farther from the photographing position O than the feature U is larger than the feature height H U of the feature U.
重複判定部233は、地物の高さを示す地物高さをさらに含む地物情報に基づいて、地物範囲FAU、FAUと撮影範囲IAとが重複するか否かを判定する。図9(a)に示す例では、地物範囲FAU、FAUと撮影範囲IAとが重複すると判定される。
The
タグ付与部234は、図9(b)に示すように画像Iにタグを付与する。すなわち、タグ付与部234は、画像Iのうち地物範囲FAUに対応する領域TAUと地物Uの名称とをタグとして画像Iに付与する。また、タグ付与部234は、画像Iのうち地物範囲FAVに対応する領域TAVと地物Vの名称とをタグとして画像Iに付与する。このとき、タグ付与部234は、領域TAVを、地物範囲における地物高さを超える領域TAV1と超えない領域TAV2とに分けて、異なるタグとして画像Iに付与してよい。
The
すなわち、地物範囲における地物高さを超える領域TAV1では、地物Vは画像Iに表われているため、タグ付与部234は、領域TAV1が地物Vに対応する領域であることを示すタグを付与する。一方、地物範囲における地物高さを超えない領域TAV2では、地物Vは地物Uに遮蔽されて画像Iに表われていないため、タグ付与部234は、領域TAV2が地物Vに対応する領域であり、かつ遮蔽されていることを示すタグを付与する。このとき、タグ付与部234は、領域TAVに対する領域TAV2の割合に応じた遮蔽度を、タグとして画像Iに付与してもよい。
That is, since the feature V appears in the image I in the area TA V1 exceeding the feature height in the feature range, the
他の変形例によれば、プロセッサ23は、画像から物体の名称を抽出する物体名称抽出部(不図示)をさらに備え、タグ付与部234は、物体の名称と地物種別との組み合わせに応じて定められるシーン特性を、タグとして画像に付与してもよい。物体名称抽出部は、表わされる物体の種別に応じて画像を複数のクラスに分類するよう重み付けが設定されたニューラルネットワークを用いて構成される。物体名称抽出部は、画像の入力を受け付けると、画像に表わされる物体の種別に対応するクラスを、物体の名称として出力する。メモリ22は、シーン特性と、物体の名称と地物名称との組み合わせとを関連づけて記憶している。シーン特性とは、例えば、地物名称「黄色センターライン」と物体名称「救急車」とに関連づけられた「追い越し禁止道路での救急車による追い越し」といった特性である。タグ付与部234は、重複判定部233により撮影範囲と重複すると判定された地物範囲に対応する地物名称と、物体名称抽出部により出力された物体の名称との組み合わせに関連づけられたシーン特性をメモリ22から読み出し、画像にタグとして付与する。
According to another modification, the
上述した実施形態または変形例によるタグ付与装置は、カメラ1以外の車両Vの周囲に存在する物体を検知するためのセンサにより取得されたセンサ信号に対して適用されてもよい。そのような、所定の検知範囲内に存在する物体を検出するためのセンサとして、例えば、車両Vに搭載されたLIDAR(Light Detection and Ranging)センサ、または、RADAR(Radio Detection and Ranging)センサが用いられてもよい。この場合、重複判定部233は、LIDARセンサまたはRADARセンサにより取得される距離画像を用いて、地物範囲が撮影範囲と重複するか否かの判定を行う。距離画像は、各画素が当該画素に表わされた物体までの距離に応じた値を持つ距離画像である。タグ付与部234は、距離画像の各画素に表された距離に応じた値を、UTM座標系の座標に変換する。タグ付与部234は、UTM座標系で表わされた地物範囲と対比することにより、画像において地物範囲に対応する領域を特定する。
The tagging device according to the embodiment or modification example described above may be applied to a sensor signal acquired by a sensor for detecting an object existing around the vehicle V other than the
さらに他の変形例によれば、上述の実施形態または変形例によるタグ付与装置は、車載機器以外の機器として実装されてもよい。例えば、上述の実施形態または変形例によるタグ付与装置は、記録媒体または通信ネットワークを介して車両に搭載されたカメラにより撮影された画像の入力を受け付ける据置型コンピュータとして実装されてもよい。 According to yet another modification, the tagging device according to the above-described embodiment or modification may be implemented as a device other than in-vehicle equipment. For example, the tagging device according to the above-described embodiment or modification may be implemented as a stationary computer that receives input of an image taken by a camera mounted on a vehicle via a recording medium or a communication network.
当業者は、本発明の精神および範囲から外れることなく、種々の変更、置換および修正をこれに加えることが可能であることを理解されたい。 It should be understood that those skilled in the art can make various changes, substitutions, and modifications thereto without departing from the spirit and scope of the invention.
1 カメラ
2 タグ付与装置
231 対象エリア特定部
232 地物情報取得部
233 重複判定部
234 タグ付与部
1
Claims (1)
所定領域に存在する地物について、少なくとも地物の名称および当該地物に対応する地図上の位置を示す地物範囲を含む地物情報を記憶するサーバから、前記対象エリアに前記地物範囲の少なくとも一部が含まれる前記地物情報を取得する地物情報取得部と、
取得した前記地物情報に含まれる前記地物範囲と、前記画像における前記撮影位置および前記撮影方位に基づいて定められる、前記画像に撮影された領域が前記地図上に占める範囲を示す撮影範囲とが重複するか否かを判定する重複判定部と、
前記撮影範囲と重複すると判定された前記地物範囲に対応する地物名称をタグとして前記画像に付与するタグ付与部とを備える、
タグ付与装置。 An object that includes at least the photographing position and corresponds to an image associated with a photographing condition including a photographing position indicating the position of the photographing device when photographed by the photographing device and a photographing direction indicating the direction in which the photographing device is facing. a target area identification unit that identifies an area;
Regarding features existing in a predetermined area, a server that stores feature information including at least the name of the feature and the feature range indicating the position on the map corresponding to the feature, sends the feature to the target area. a feature information acquisition unit that obtains the feature information that includes at least a part of the range;
the feature range included in the acquired feature information; and a shooting range indicating the range occupied by the area photographed in the image on the map, which is determined based on the photographing position and the photographing direction in the image; a duplication determination unit that determines whether or not there are duplicates;
a tagging unit that tags the image with a feature name corresponding to the feature range determined to overlap with the photographing range;
Tagging device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019141133A JP7342499B2 (en) | 2019-07-31 | 2019-07-31 | tagging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019141133A JP7342499B2 (en) | 2019-07-31 | 2019-07-31 | tagging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021026287A JP2021026287A (en) | 2021-02-22 |
JP7342499B2 true JP7342499B2 (en) | 2023-09-12 |
Family
ID=74664714
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019141133A Active JP7342499B2 (en) | 2019-07-31 | 2019-07-31 | tagging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7342499B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010118019A (en) | 2008-11-14 | 2010-05-27 | Sharp Corp | Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium |
JP2012170100A (en) | 2012-03-29 | 2012-09-06 | Canvas Mapple Co Ltd | Image display unit, image display method and computer program |
-
2019
- 2019-07-31 JP JP2019141133A patent/JP7342499B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010118019A (en) | 2008-11-14 | 2010-05-27 | Sharp Corp | Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium |
JP2012170100A (en) | 2012-03-29 | 2012-09-06 | Canvas Mapple Co Ltd | Image display unit, image display method and computer program |
Also Published As
Publication number | Publication date |
---|---|
JP2021026287A (en) | 2021-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7082545B2 (en) | Information processing methods, information processing equipment and programs | |
US20190236381A1 (en) | Method and system for detecting obstacles by autonomous vehicles in real-time | |
JP2020516853A (en) | Video-based positioning and mapping method and system | |
JP5663352B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6804991B2 (en) | Information processing equipment, information processing methods, and information processing programs | |
KR102103834B1 (en) | Object change detection system for high definition electronic map upgrade and method thereof | |
CN111263960B (en) | Apparatus and method for updating high definition map | |
JP6759175B2 (en) | Information processing equipment and information processing system | |
JPWO2020090428A1 (en) | Feature detection device, feature detection method and feature detection program | |
US20140205184A1 (en) | Method for representing surroundings | |
US20210156704A1 (en) | Updating map data | |
JP7343054B2 (en) | Location estimation method, location estimation device, and location estimation program | |
JP2015194397A (en) | Vehicle location detection device, vehicle location detection method, vehicle location detection computer program and vehicle location detection system | |
CN114969221A (en) | Method for updating map and related equipment | |
JP6989284B2 (en) | Vehicle position estimation device and program | |
JPWO2016031229A1 (en) | Road map creation system, data processing device and in-vehicle device | |
JP7342499B2 (en) | tagging device | |
KR102174729B1 (en) | Method and system for recognizing lane using landmark | |
CN110827340B (en) | Map updating method, device and storage medium | |
EP3859281B1 (en) | Apparatus and method for collecting data for map generation | |
CN115900682A (en) | Method for improving road topology through sequence estimation and anchor point detection | |
JP7346979B2 (en) | tagging device | |
JP6965325B2 (en) | Auto-discovery system and auto-detection program | |
KR102234311B1 (en) | Method and system for extracting image feature | |
JP7327355B2 (en) | Map update device and map update method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230814 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7342499 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |