JP7030732B2 - Same structure detection device, same structure detection method and same structure detection program - Google Patents
Same structure detection device, same structure detection method and same structure detection program Download PDFInfo
- Publication number
- JP7030732B2 JP7030732B2 JP2019034038A JP2019034038A JP7030732B2 JP 7030732 B2 JP7030732 B2 JP 7030732B2 JP 2019034038 A JP2019034038 A JP 2019034038A JP 2019034038 A JP2019034038 A JP 2019034038A JP 7030732 B2 JP7030732 B2 JP 7030732B2
- Authority
- JP
- Japan
- Prior art keywords
- frame
- same structure
- same
- captured
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 167
- 238000000034 method Methods 0.000 claims description 33
- 239000000284 extract Substances 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims description 9
- 238000000926 separation method Methods 0.000 claims 1
- 230000005856 abnormality Effects 0.000 description 23
- 238000012545 processing Methods 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 5
- 238000012790 confirmation Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000007689 inspection Methods 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Image Analysis (AREA)
Description
本発明は、複数の撮影画像に写った構造物の同一性を判定する技術に関する。 The present invention relates to a technique for determining the identity of a structure captured in a plurality of captured images.
公共インフラは産業や生活の基盤である。道路沿いに設置された公共インフラの一例として、信号機、電灯、および電柱などの構造物が挙げられる。公共インフラの点検・保守は重要である。例えば、信号機の灯器が汚れていたり、樹木が灯器を隠していたりすると、信号機が見えにくくなり、大きな事故につながる可能性がある。 Public infrastructure is the foundation of industry and livelihoods. Examples of public infrastructure installed along roads include structures such as traffic lights, lamps, and utility poles. Inspection and maintenance of public infrastructure is important. For example, if the traffic light of the traffic light is dirty or a tree hides the traffic light, the traffic light becomes difficult to see, which may lead to a serious accident.
従来、徒歩または自転車により、道路沿いの構造物の異常を目視で確認し、点検・保守を行ってきた。しかしながら、道路沿いの構造物は長距離にわたって点在しており、量も非常に多く、効率的な点検方法が望まれていた。 Conventionally, abnormalities in structures along the road have been visually confirmed and inspected and maintained by walking or by bicycle. However, the structures along the road are scattered over a long distance, and the amount is very large, so that an efficient inspection method has been desired.
道路に沿って車を走らせ、車載カメラで道路沿いの構造物を撮影し、撮影した動画を見て構造物の異常を発見する方法が考えられる。信号機、電灯、および電柱などの長尺の構造物を1台のカメラで撮影した場合、カメラと構造物との距離が近いときは構造物の全体が写らないことがある。チルト角を変えた複数のカメラで構造物を撮影すると構造物の全体を撮影することができる。さらに、チルト角だけでなくパン角をカメラごとに変えることで、点検により適した画像を得ることができる。 A possible method is to drive a car along the road, take a picture of the structure along the road with an in-vehicle camera, and watch the video taken to detect an abnormality in the structure. When a long structure such as a traffic light, a light, and a utility pole is photographed with one camera, the entire structure may not be captured when the distance between the camera and the structure is short. If you take a picture of a structure with multiple cameras with different tilt angles, you can take a picture of the entire structure. Furthermore, by changing not only the tilt angle but also the pan angle for each camera, a more suitable image can be obtained for inspection.
しかしながら、カメラごとにパン角を変えると、構造物が撮影される時刻がずれてしまうという問題があった。複数の撮影動画を見比べて同一構造物を判定することも困難である。 However, if the pan angle is changed for each camera, there is a problem that the time when the structure is photographed shifts. It is also difficult to determine the same structure by comparing a plurality of captured moving images.
本発明は、上記に鑑みてなされたものであり、複数の撮影画像間で同一の構造物を検出することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to detect the same structure among a plurality of captured images.
本発明に係る同一構造物検出装置は、複数のカメラで一定距離ごとに撮影した複数の撮影画像群から同一構造物の写っている撮影画像を抽出する同一構造物検出装置であって、前記一定距離と前記複数のカメラそれぞれの撮影方向を考慮した構造物の撮影タイミングのズレもしくは前記複数のカメラそれぞれの撮影位置から前記構造物への距離に基づいて前記複数の撮影画像群において同一構造物の写る基準画像を推定し、前記基準画像から所定の範囲内の撮影画像に写る構造物を同一構造物と判定する同一構造物判定部を備えることを特徴とする。 The same structure detection device according to the present invention is the same structure detection device that extracts a photographed image showing the same structure from a plurality of photographed image groups photographed by a plurality of cameras at regular intervals. The same structure in the plurality of captured image groups based on the difference in the imaging timing of the structure considering the distance and the imaging direction of each of the plurality of cameras or the distance from the imaging position of each of the plurality of cameras to the structure. It is characterized by comprising the same structure determination unit that estimates a reference image to be captured and determines that the structure captured in the captured image within a predetermined range from the reference image is the same structure.
本発明によれば、複数の撮影画像間で同一の構造物を検出することができる。 According to the present invention, the same structure can be detected among a plurality of captured images.
本発明の実施の形態の一つを以下で説明する。 One of the embodiments of the present invention will be described below.
[構造物検出装置の構成]
本実施形態の構造物検出装置1は、道路沿いの構造物を車両に設置した複数のカメラで撮影した複数の撮影動画から、検出対象の構造物が写っているフレームを抽出し、複数の撮影動画において同一の構造物が写っているフレームを関連付けて統合的に表示する装置である。本実施形態では、検出対象の構造物として信号機を例に説明する。検出対象の構造物は、道路沿いに設置されたものであれば、電灯、電柱、もしくは街路樹であってもよいし、看板、標識、自動販売機、あるいはポストなどの高さの低いものであってもよい。検出対象は、カメラを下方向に向けて撮影した路面標示等であってもよい。
[Structure of structure detection device]
The
図1に示す構造物検出装置1は、静止画取得部11、記憶部12、構造物検出部13、カメラ毎の同一構造物判定部14、カメラ間の同一構造物判定部15、出力部16、および異常検出部17を備える。構造物検出装置1が備える各部は、演算処理装置、記憶装置等を備えたコンピュータにより構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムは構造物検出装置1が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。
The
静止画取得部11は、構造物を検出するために用いる静止画を取得する。本実施形態では、市販カメラおよび市販GPSロガーを車両に搭載して走行しながら道路沿いの構造物を撮影するとともに、車両の位置情報を取得する。撮影された撮影動画は記録媒体101に格納され、車両の位置情報は記録媒体102に格納される。静止画取得部11は、撮影動画が格納されたメモリカードなどの記録媒体101から撮影動画を読み込み、位置情報を記録したファイルが格納された記録媒体102から位置情報を取得し、一定距離ごとに静止画を取得する。静止画取得部11は、一定距離ごとに取得した静止画に記録媒体102から取得した位置情報を関連付けて記憶部12に格納する。本実施形態では、複数台のカメラを用いて構造物を撮影するので、複数の撮影動画のそれぞれから静止画を取得し、撮影動画ごとに静止画群を記憶部12に格納する。静止画取得部11は、ネットワークを介して、撮影動画および位置情報を取得してもよい。静止画取得部11は、動画に限らず、所定の間隔で撮影された静止画を読み込んでもよい。
The still
図2,3に示すように、本実施形態では、車両の進行方向に対してパン角およびチルト角を変えた複数台のカメラを車両に搭載して同時に撮影する。例えば、図2,3のカメラ1は、パン角が90度、チルト角が0度となるように設置し、車両の横方向を撮影する。カメラ2~4は、順に、パン角が小さく、チルト角が大きくなるように設置する。4台のカメラ1~4で、例えば信号機などの長尺の構造物の全体が撮影できるようにパン角およびチルト角を調節する。具体的には、カメラ1で構造物の下部を撮影し、カメラ4で構造物の頭頂部を撮影する。カメラ2,3で構造物の中間部を撮影する。複数台のカメラのパン角またはチルト角のいずれかを変えてもよい。
As shown in FIGS. 2 and 3, in the present embodiment, a plurality of cameras having different pan angles and tilt angles with respect to the traveling direction of the vehicle are mounted on the vehicle and simultaneously photographed. For example, the
構造物の下部を撮影するカメラ1は、車両の進行方向に対して真横向きとなるように設置するとよい。これにより、構造物の下部に取り付けられた銘板または看板などをより鮮明に撮影できる。構造物の頭頂部を撮影するカメラ4は、パン角を小さくして斜め前方を撮影するように設置するとよい。車両の横から見上げて構造物の頭頂部を撮影すると、街路樹などにより頭頂部が撮影できないことがある。パン角を小さくし、頭頂部を少し離れた位置から撮影するとよい。
The
斜め前方を撮影するカメラだけでなく、斜め後方を撮影するカメラを設置してもよい。前後方向を撮影するカメラを設置することで、前方のカメラが逆光であっても、後方のカメラが順光となる。前方(進行方向)を撮影するカメラや後方を撮影するカメラを設置してもよい。 Not only a camera that shoots diagonally forward, but also a camera that shoots diagonally backward may be installed. By installing a camera that shoots in the front-back direction, even if the front camera is backlit, the rear camera will be in front light. A camera that shoots the front (direction of travel) or a camera that shoots the rear may be installed.
静止画取得部11は、GPSロガーで取得した位置情報に基づき、一定距離ごとに撮影動画から静止画(以下、「フレーム」と称することもある)を取得する。フレームを取得する際、図4に示すように、1つの構造物が3~5のフレームに写っているように切り出し距離を調整する。図4の例では、10cmごとに撮影動画からフレームを切り出している。図4のフレームの下に付与した番号はフレーム番号である。静止画取得部11は、フレームを切り出した順にフレーム番号を付与する。切り出し距離は、撮影動画のカメラのパン角つまりカメラから構造物までの距離によって変えてもよい。具体的には、車両の進行方向に対するパン角が小さいカメラで撮影した撮影動画では、車両の横向きに設置された(パン角が大きい)カメラで撮影した撮影動画よりも、長い時間構造物が写っているので、切り出し距離を長くする。例えば、横向きのカメラ1の撮影動画の切り出し距離を10cmとすると、カメラ2の切り出し距離を20cm、カメラ3の切り出し距離を30cm、カメラ4の切り出し距離を50cmとする。切り出し距離は、車両と構造物との間の距離によって適切な値が異なる。したがって、撮影状況に応じて、構造物が適切な枚数内に写るように設定する。路肩が広い道路では、車両と構造物との距離が長くなるので切り出し距離を長くする。
The still
記憶部12は、静止画取得部11の取得したフレームを撮影動画ごとに格納する。例えば、静止画取得部11が4つの撮影動画からフレームを取得した場合、記憶部12には、撮影動画のそれぞれから切り出された4つの静止画群が格納される。記憶部12は、記録媒体101から読み込んだ撮影動画を格納してもよい。
The
構造物検出部13は、記憶部12に格納された静止画群のそれぞれに含まれるフレームから検出対象の構造物の写ったフレームを検出しフレーム内における構造物の位置を記憶部12に格納する。構造物検出部13は、例えば、検出対象の構造物の画像を学習させた人工知能を用いて構造物の写ったフレームを検出する。図5の例では、構造物検出部13は信号機TLの下部を検出した。構造物検出部13は、信号機TLを検出した検出枠Dのフレーム内での位置情報を記憶部12に格納する。例えば、検出枠Dのフレーム上での座標、横幅、高さ、検出結果の確信度を記憶部12に格納する。
The
カメラ毎の同一構造物判定部14(以下、単に「同一構造物判定部14」と称する)は、連続する複数のフレームで検出された構造物のフレーム内での位置の変化に基づき、フレーム間での同一構造物を判定する。具体的には、同一構造物判定部14は、フレーム内でフレーム内の風景の移動方向と同じ方向に移動する構造物は同一構造物であると判定する。連続する複数のフレームは、静止画取得部11が一定距離ごとに撮影動画から切り出した一連のフレームである。車両の進行方向に対して左側を撮影した場合、図6に示すように、構造物はフレーム内で右から左に移動する。同一構造物判定部14は、連続する複数のフレームにおいて、検出位置(検出枠)が右から左に移動する構造物を同一の構造物と判定する。車両の進行方向に対して右側を撮影した場合は、構造物はフレーム内で左から右に移動する。車両の前方または後方に設置したカメラで撮影したフレームでは、構造物はフレーム内で上から下または下から上に移動する。つまり、同一構造物判定部14は、フレーム内の風景の移動方向と同じ方向に移動する構造物を同一構造物として判定する。
The same
同一構造物判定部14は、同一構造物が写ったと判定した複数のフレームを抽出後、複数のフレームのなかから構造物が最もよく写っているフレームを代表フレームとして選定する。前方および後方を撮影するカメラを設置した場合、代表フレームとして順光のフレームを自動的に選定してもよい。
The same
同一構造物判定部14は、静止画群つまり撮影動画ごとに、上記の同一構造物の判定処理を行う。
The same
同一構造物判定部14の判定処理により、撮影動画から一定距離ごとに切り出した静止画群から、同一構造物が写ったフレームを抽出することができる。
By the determination process of the same
カメラ間の同一構造物判定部15(以下、単に「同一構造物判定部15」と称する)は、各カメラの撮影方向および静止画群の切り出し間隔(距離)に基づき、同一の構造物が写った代表フレームを静止画群間で関連付ける。
The same
同一構造物判定部15の判定処理により、図7に示すように、別々のカメラの撮影動画から切り出した静止画群から同一構造物が写ったフレームを抽出することができる。
By the determination process of the same
同一構造物判定部15は、複数の静止画群から検出して同一の構造物として判定した構造物の位置情報を記憶部12に登録してもよい。例えば、構造物に対してIDを付与し、そのIDにその構造物が写っているフレームを関連付けるとともに、その構造物の位置情報を関連付ける。構造物の位置情報は、GPSロガーから得られた車両の位置情報を利用できる。例えば、車両の進行方向に対して横向きに設置したカメラで撮影した代表フレームの位置情報をその構造物の位置情報として利用する。このとき、車両の進行方向およびカメラの設置向きに基づいてカメラの撮影方向を特定し、位置情報を撮影方向に移動した位置を構造物の位置情報としてもよい。LIDAR(Light Detection and Ranging)により車両から構造物までの距離を測定しておき、構造物の位置をより正確に求めてもよい。また、前方および後方を撮影するカメラを設置した場合、同一構造物判定部15は、構造物の同一位置を撮影する前方ならびに後方のカメラから得られた同一構造物を撮影したフレームのうちいずれか一方のフレームを選定してもよく、特に、前記撮影したフレームのうち順光のフレームを選定してもよい。例えば、フレームの検出枠内の明るさに基づいて順光または逆光と判定してもよいし、GPSロガーから得られた情報を元に車の向きを求めてカメラの設置角度に基づいてカメラの撮影方向を割り出し、時刻に応じた太陽の向きと照合して逆光かどうかを判定してもよい。
The same
異常検出部17は、構造物が写っているフレームから構造物の異常(例えばヒビ、欠け、錆等)を検出する。異常検出部17は、代表フレームだけでなく、構造物が写っているフレームの全てから構造物の異常を検出してもよい。異常検出部17は、例えば、検出したい構造物の異常を学習させた人工知能を用いて構造物の写っているフレームから構造物の異常を検出する。前記人工知能としては、例えば、画像ディープラーニング技術を用いて、事前に構造物のヒビあるいは欠けあるいは錆の画像を学習させることによって入力画像中におけるヒビあるいは欠けあるいは錆の画像部分を検出可能とした学習済み人工知能を異常検出部17として用いることによって、構造物に発生したヒビあるいは欠けあるいは錆の異常を検出してもよい。
The
出力部16は、同一の構造物を異なるカメラで写した複数の静止画を並べて出力する。構造物検出部13および同一構造物判定部14,15の処理により、複数の撮影動画から切り出したフレームに写る構造物の同一性が判定され、その構造物の位置も特定されている。出力部16は、例えば、構造物を検出した位置を地図上にプロットし、地図上で構造物の選択を受け付けて、選択された構造物の写る静止画を表示する。
The
図8に、出力画面例を示す。同図に示す出力画面100は、上段に地図領域110、情報領域120、動画領域130を備え、下段に構造物を写した静止画141~144を表示している。
FIG. 8 shows an example of an output screen. The
地図領域110では、撮影動画から検出された構造物を地図上にプロットする。構造物の不具合の有無および程度に応じてプロットの色および形状を変更してもよい。例えば、不具合の無い構造物は青色でプロットする。不具合の程度に応じて黄色、赤色でプロットする。構造物を示すマークが地図上で選択されると、下段に選択された構造物が写っている静止画141~144が表示される。表示される静止画141~144は、同一構造物判定部14の選定した代表フレームである。
In the
図8の地図領域110では、道路上に構造物のマークを表示しているが、道路の右側または左側に寄せて構造物のマークを表示してもよい。例えば、車両の進行方向に対して左側を撮影した場合は、進行方向の左側に構造物のマークを表示する。あるいは、車両の進行方向を道路上に矢印等で図示してもよい。
In the
情報領域120では、選択された構造物の情報等を表示する。例えば、構造物を写した撮影日時および位置情報等を表示する。また、図8の例では、後述の異常検出部17によって検出されたヒビおよび欠けを表示するか否かを選択可能にしている。チェックされた異常が静止画内に存在する場合、図8の静止画142に示すように、異常の検出された位置等を示してもよい。代表フレーム以外の表示されていない静止画(同じ構造物の写っているもの)において異常が検知されている場合は、その旨を情報領域120または静止画141~144上に表示してよい。
In the
時期をずらして撮影した構造物の静止画が存在する場合、撮影日時を選択可能にして、選択された撮影日時の構造物の静止画を表示してもよい。例えば、選択された構造物について、2014年に撮影された静止画と2018年に撮影された静止画が存在する場合、情報領域120の撮影日時を2014年または2018年のいずれかに選択可能とする。出力画面100の下段には、選択された時期に撮影された静止画を表示する。また、新たに異常を検知した構造物だけを地図領域110に表示したり、区別できるように異なるマークを表示したりしてもよい。
If there is a still image of the structure taken at different times, the shooting date and time may be selectable and the still image of the structure taken at the selected shooting date and time may be displayed. For example, if there are still images taken in 2014 and still images taken in 2018 for the selected structure, the shooting date and time of the
動画領域130では、カメラのいずれかで撮影した撮影動画を再生する。表示する撮影動画は選択可能である。図8の例では、4つの撮影動画から再生する撮影動画を選択できる。例えば、静止画141~144のいずれかを選択すると、対応する撮影動画が動画領域130に表示される。撮影動画を再生する際、撮影動画のタイムスタンプに合わせて地図領域110に車両の位置を図示してもよい。撮影動画に検出された構造物が写っている間は、撮影動画をスロー再生してもよい。
In the moving
出力画面100の下段には、複数のカメラで撮影された構造物の静止画141~144が表示される。静止画141~144のいずれかを選択すると、同一構造物判定部14で同一の構造物が写っていると判定された複数の静止画を並べて表示してもよい。例えば、静止画142を選択すると、静止画142を含む前後数枚の同一構造物が写っている静止画(同じカメラで撮影したもの)が表示される。
In the lower part of the
さらに、構造物の保守の際に高所作業車が利用可能か否かを判断するために、構造物の周囲の画像を表示してもよい。例えば、構造物の下部を撮影した静止画に構造物の周囲の静止画をつなげてパノラマ画像を生成して表示する。 In addition, an image of the surroundings of the structure may be displayed to determine if an aerial work platform is available during maintenance of the structure. For example, a panoramic image is generated and displayed by connecting a still image of the lower part of the structure to a still image around the structure.
[構造物検出装置の動作]
次に、構造物検出装置1の動作について説明する。図9は、構造物検出装置1のメインルーチンのフローチャートである。
[Operation of structure detection device]
Next, the operation of the
構造物検出装置1が処理を開始すると、ステップS1において、静止画取得部11は、記録媒体101から撮影動画を読み取るとともに、記録媒体102から位置情報が記録されたファイルを読み取る。静止画取得部11は、撮影動画から一定距離ごとにフレームを取得し、フレームに位置情報を関連付けて記憶部12に格納する。静止画取得部11は、複数の記録媒体101のそれぞれから撮影動画を取得し、取得した撮影動画のそれぞれについてステップS1の処理を行う。
When the
ステップS2において、構造物検出部13は、静止画取得部11が取得したフレームから検出対象の構造物が写っているフレームを検出し、フレーム内における構造物の位置を記憶部12に格納する。
In step S2, the
ステップS3において、同一構造物判定部14は、同一の撮影動画から取得した静止画群ごとに、フレーム内での構造物の検出位置の変化に基づいて、構造物の同一性を判定するとともに、同一の構造物が写っているフレームの中から代表フレームを選定する。同一構造物判定部14は、撮影動画のそれぞれから取得した静止画群のそれぞれについてステップS3の処理を行う。ステップS3の単一カメラ内での構造物の同一性判定の詳細については後述する。
In step S3, the same
ステップS4において、同一構造物判定部15は、撮影動画の撮影方向および切り出し間隔に基づき、同一の構造物が写った代表フレームを静止画群間で関連付ける。ステップS4の複数カメラ間での構造物の同一性判定の詳細については後述する。
In step S4, the same
ステップS5において、出力部16は、同一の構造物を異なるカメラで写した複数の代表フレームを並べて表示する。
In step S5, the
[単一カメラ内での構造物の同一性判定]
続いて、単一カメラ内での構造物の同一性判定処理について説明する。図10は、単一カメラ内での構造物の同一判定処理の流れを示すフローチャートである。
[Identity determination of structures in a single camera]
Subsequently, the identity determination process of the structure in a single camera will be described. FIG. 10 is a flowchart showing the flow of the same determination process of the structure in a single camera.
ステップS31にて、同一構造物判定部14は、構造物検出部13が誤検出した検出枠を削除する。例えば、図11に示すように、フレームnにおいて構造物検出部13は構造物を検出したが、前後の数フレームn-1,n+1では構造物が検出されていない場合、フレームnの検出枠D0は誤検出であると判定し、検出枠D0を削除する。
In step S31, the same
ステップS32にて、同一構造物判定部14は、1つのフレーム内において検出領域が重複する検出枠をマージする。例えば、図12に示すように、フレーム内には1つの構造物のみ写っているが、構造物検出部13がその構造物について領域が重複する複数の検出枠D1,D2を出力した場合、同一構造物判定部14は、検出枠D1,D2をマージする。検出枠D1,D2のどちらかを削除してもよい。
In step S32, the same
また、図13に示すように、フレーム内で複数の構造物が重なって写っており、複数の検出枠D3,D4が重複する場合も考えられる。検出枠の重複度合いに応じて重複する検出枠を処理するか否か判定してもよい。例えば、検出枠の重複度合いが所定の閾値以上の場合は、検出枠の重複処理を行う。検出対象の構造物が重複してフレーム内に写らないものであれば、検出対象に応じて検出枠をマージするか削除するかを判定してもよい。 Further, as shown in FIG. 13, it is conceivable that a plurality of structures are overlapped in the frame and the plurality of detection frames D3 and D4 are overlapped. It may be determined whether or not to process the overlapping detection frames according to the degree of overlap of the detection frames. For example, when the degree of overlap of the detection frames is equal to or higher than a predetermined threshold value, the overlap processing of the detection frames is performed. If the structures to be detected are duplicated and do not appear in the frame, it may be determined whether to merge or delete the detection frames according to the detection target.
同一構造物判定部14は、静止画群の各フレームについて、フレーム番号順にステップS33の処理を行い、同一構造物の写っているフレームの集合(以下、「同一構造物の集合」と称する)を求める。ステップS33では、同一構造物判定部14は、連続する複数のフレームで検出された構造物のフレーム内での位置の変化に基づき、フレーム間での同一構造物を判定する。ステップS33の処理の詳細は後述する。
The same
ステップS34にて、同一構造物判定部14は、同一構造物の集合の要素の数(フレーム数)が一定以下の集合は誤検出として削除する。静止画取得部11は、同一構造物が所定の数以上のフレームに写っているようにフレームを切り出すので、同一構造物判定部14は、同一構造物が写っていると判定されたフレーム数が一定以下(例えば、同一構造物が5フレーム程度に写っているように切り出した場合は1~2フレーム)の集合は、構造物を誤検出したものと推定する。例えば、車両の前方左側を撮影するカメラで撮影した撮影動画では、車両が左折時に左折する方向に対して右側にある構造物は、撮影動画内で左側から右側に移動する。同一構造物判定部14は、撮影動画内で右側から左側に移動する構造物を同一構造物として判定するので、撮影動画内で左側から右側に移動する構造物は、撮影動画から切り出したフレームのそれぞれで新たに検出された構造物として扱われる。そのため、その構造物のフレームの集合の要素の数は1もしくは2程度となり、誤検出として削除できる。
In step S34, the same
ステップS35にて、同一構造物判定部14は、同一構造物の集合の中から代表フレームを選定する。同一構造物の集合に含まれるフレームの中で構造物が最もよく写っているフレームを代表フレームとする。最もよく写っているフレームとは、例えば、同一構造物の集合に含まれるフレームをフレーム番号順に並べたときの真ん中のフレームを代表フレームとしてもよい。もしくは、最も中央に構造物が写っている1つのフレームをその構造物の代表フレームとして選定してもよい。もしくは、前方および後方を撮影するカメラを設置した場合、代表フレームとして順光のフレームを自動的に選定してもよく、例えば、フレームの検出枠内の明るさに基づいて順光または逆光と判定してもよい。もしくは、ピンボケ、ブレなどの撮影不良を判定して、そのようなフレーム以外の中から代表フレームを選定してもよい。
In step S35, the same
以上の処理により、撮影動画から切り出した静止画群ごとに、同一の構造物が写っているフレームの集合およびその構造物の代表フレームが求められる。 By the above processing, a set of frames in which the same structure is shown and a representative frame of the structure are obtained for each still image group cut out from the captured moving image.
続いて、図10のステップS33の同一構造物の判定処理について説明する。図14は、単一カメラで撮影した撮影動画における同一構造物の判定処理の流れを示すフローチャートである。 Subsequently, the determination process of the same structure in step S33 of FIG. 10 will be described. FIG. 14 is a flowchart showing the flow of determination processing of the same structure in a moving image taken by a single camera.
ステップS331にて、同一構造物判定部14は、処理対象の現フレームから検出対象の構造物が検出されているか否か判定する。
In step S331, the same
現フレームから構造物が検出された場合、ステップS333にて、同一構造物判定部14は、同一候補構造物が存在するか否か判定する。同一候補構造物とは、前フレームn-1までに検出された構造物(検出枠)であって同一の構造物と推定される構造物である。同一候補構造物の集合は、同一の構造物と推定される構造物の集合である。同一候補構造物の集合は、複数個存在することもある。同一候補構造物の集合には、現フレームn以降で検出される構造物が追加される可能性がある。
When a structure is detected from the current frame, in step S333, the same
同一候補構造物が存在しない場合、ステップS334にて、新しい同一候補構造物の集合を作成し、現フレームnから検出された構造物をその同一候補構造物の集合に登録する。現フレームnから複数の構造物が検出された場合、検出された構造物の数だけ新しい同一候補構造物の集合が作られる。 If the same candidate structure does not exist, a new set of the same candidate structure is created in step S334, and the structure detected from the current frame n is registered in the set of the same candidate structure. When a plurality of structures are detected from the current frame n, a new set of the same candidate structures is created by the number of the detected structures.
同一候補構造物が存在する場合、ステップS335にて、同一構造物判定部14は、現フレームnにおいて、同一候補構造物のなかで最も右側の構造物の座標より右側で検出された構造物を新しい同一候補構造物の集合に登録する。フレームに写る同一の構造物の位置は右側から左側に移動するので、前フレームn-1までに検出された構造物よりも右側で検出された構造物は新たな別の構造物であると推定する。
When the same candidate structure exists, in step S335, the same
同一構造物判定部14は、構造物を検出した検出枠のフレーム内での位置を比較して右側または左側を判定する。例えば、検出枠の縦の中心線のフレーム内でのx座標を基準とする。
The same
図15の例では、前フレームn-1において検出枠D5の構造物が検出された。前フレームn-1の処理において、検出枠D5は、いずれかの同一候補構造物の集合に登録される。検出枠D5は、同一候補構造物のなかで最も右側であるとする。現フレームnでは、検出枠D6の構造物と検出枠D7の構造物が検出された。検出枠D6のフレーム内での位置は、検出枠D5のフレーム内での位置より左側であり、検出枠D7のフレーム内での位置は、検出枠D5のフレーム内での位置より右側である。検出枠D7は、同一候補構造物のなかで最も右側の検出枠D5よりも右側に出現したので、検出枠D7を新しい同一候補構造物の集合に登録する。 In the example of FIG. 15, the structure of the detection frame D5 was detected in the front frame n-1. In the process of the previous frame n-1, the detection frame D5 is registered in the set of any of the same candidate structures. It is assumed that the detection frame D5 is on the rightmost side of the same candidate structure. In the current frame n, the structure of the detection frame D6 and the structure of the detection frame D7 were detected. The position of the detection frame D6 in the frame is on the left side of the position of the detection frame D5 in the frame, and the position of the detection frame D7 in the frame is on the right side of the position of the detection frame D5 in the frame. Since the detection frame D7 appears on the right side of the rightmost detection frame D5 in the same candidate structure, the detection frame D7 is registered in a new set of the same candidate structures.
図16の例では、現フレームnにおいて、検出枠D7の構造物と検出枠D8の構造物が検出された。検出枠D7,D8のフレーム内での位置は、両方とも検出枠D5のフレーム内での位置より右側である。検出枠D7,D8は、同一候補構造物のなかで最も右側の検出枠D5よりも右側で検出されたので、検出枠D7,D8のそれぞれを新しい同一候補構造物の集合のそれぞれに登録する。つまり、同一候補構造物の集合が新たに2つ作成される。 In the example of FIG. 16, in the current frame n, the structure of the detection frame D7 and the structure of the detection frame D8 were detected. The positions of the detection frames D7 and D8 in the frame are both to the right of the positions in the frame of the detection frame D5. Since the detection frames D7 and D8 are detected on the right side of the rightmost detection frame D5 in the same candidate structure, each of the detection frames D7 and D8 is registered in each of the new sets of the same candidate structures. That is, two new sets of the same candidate structure are created.
撮影動画から切り出す一定距離が短い場合、車両が一時停止しているときなど、GPSロガーの誤差により、同じ位置に構造物の写るフレームが切り出されることがある。例えば、図17のフレームn-1とフレームnは、構造物のフレーム内での位置は同じである。このとき、構造物検出部13が違う位置で構造物を検出することがある。図17の例では、フレームn-1では左寄りの検出枠D9で構造物を検出し、フレームnでは右寄りの検出枠D10で構造物を検出している。検出枠D9,D10は同一の構造物を検出しているが、現フレームnの検出枠D10は検出枠D9より右側に存在するので、同一構造物判定部14は、検出枠D10を新しい同一候補構造物として登録してしまう。そこで、同一構造物判定部14は、ズレ許容範囲をピクセル単位で設定し、検出枠D10が検出枠D9よりも右側であってもズレ許容範囲内であれば、検出枠D10を検出枠D9の同一候補構造物とする。
If the fixed distance to be cut out from the captured video is short, the frame in which the structure is shown may be cut out at the same position due to the error of the GPS logger, such as when the vehicle is temporarily stopped. For example, frame n-1 and frame n in FIG. 17 have the same position in the frame of the structure. At this time, the
ステップS335において、現フレームnで検出された構造物のうち同一候補構造物の集合に登録された構造物は、以降のステップS336,S337の処理対象としない。具体的には、図15の例では、現フレームnで検出された検出枠D7は、新しい同一候補構造物の集合に登録されたので、ステップS336,S337の処理対象としない。現フレームnで検出された検出枠D6は、まだ同一候補構造物の集合に登録されていないので、ステップS336,S337の処理対象である。 Among the structures detected in the current frame n in step S335, the structures registered in the set of the same candidate structures are not subject to the subsequent processing in steps S336 and S337. Specifically, in the example of FIG. 15, since the detection frame D7 detected in the current frame n is registered in the new set of the same candidate structures, it is not subject to the processing in steps S336 and S337. Since the detection frame D6 detected in the current frame n has not yet been registered in the set of the same candidate structures, it is the processing target of steps S336 and S337.
ステップS335において、現フレームnで検出された構造物の全てが新しい同一候補構造物の集合に登録された場合(図16の例)、前フレームn-1以前に作成された同一候補構造物の集合の確定確認をする。確定確認とは、現フレームn以降で同一候補構造物と同一の構造物が出現しないと推定し、同一候補構造物の集合に含まれる構造物を同一構造物として確定することである。確定確認の際、検出漏れ許容枚数を設定しておき、許容枚数を超えて同一候補構造物の集合に変化が無い場合に、その同一候補構造物の集合を同一構造物として確定してもよい。同一の構造物は連続したフレームに出現するはずである。あるフレームで構造物が検出されず、前後の許容枚数内のフレームにおいて右から左に移動する構造物が検出されているのであれば、構造物が検出されなかったフレームは検出漏れであると推定する。 In step S335, when all the structures detected in the current frame n are registered in the new set of the same candidate structures (example of FIG. 16), the same candidate structures created before the previous frame n-1 Confirm the confirmation of the set. Confirmation is to presume that the same structure as the same candidate structure does not appear after the current frame n, and to confirm the structure included in the set of the same candidate structure as the same structure. At the time of confirmation of confirmation, the allowable number of detection omissions may be set, and if the set of the same candidate structures does not change beyond the allowable number, the set of the same candidate structures may be confirmed as the same structure. .. The same structure should appear in consecutive frames. If no structure is detected in a certain frame and a structure moving from right to left is detected in the frames within the allowable number of frames before and after, it is estimated that the frame in which the structure is not detected is a detection omission. do.
ステップS336にて、同一構造物判定部14は、現フレームnにおいて最も左側で検出された構造物よりも左側の同一候補構造物の集合を同一構造物として確定する。
In step S336, the same
図18の例では、前フレームn-1では、検出枠D12,D13の構造物が検出されている。つまり、前フレームn-1の時点では、検出枠D12を含む同一候補構造物の集合と検出枠D13を含む同一候補構造物の集合の2つが存在する。現フレームnでは、検出枠D14の構造物が検出された。検出枠D14は、検出枠D12よりも右側で、検出枠D13よりも左側である。検出枠D12の構造物が次のフレームnで検出枠D14の位置に移動することは無く、検出枠D12の構造物が移動したと推定できる構造物は現フレームnで検出されていない。したがって、検出枠D12と同一の構造物は現フレームn以降出現しないと推定できるので、検出枠D12を含む同一候補構造物の集合を同一構造物として確定する。 In the example of FIG. 18, in the front frame n-1, the structures of the detection frames D12 and D13 are detected. That is, at the time of the previous frame n-1, there are two sets of the same candidate structure including the detection frame D12 and a set of the same candidate structures including the detection frame D13. In the current frame n, the structure of the detection frame D14 was detected. The detection frame D14 is on the right side of the detection frame D12 and on the left side of the detection frame D13. The structure of the detection frame D12 does not move to the position of the detection frame D14 in the next frame n, and the structure that can be estimated that the structure of the detection frame D12 has moved is not detected in the current frame n. Therefore, since it can be estimated that the same structure as the detection frame D12 does not appear after the current frame n, the set of the same candidate structures including the detection frame D12 is determined as the same structure.
図18の前フレームn-1の検出枠D13は、現フレームnの検出枠D14よりも左側であるので、検出枠D13の構造物は、検出枠D14の構造物と同一の可能性がある。検出枠D14は、次のステップS337で処理される。 Since the detection frame D13 of the front frame n-1 of FIG. 18 is on the left side of the detection frame D14 of the current frame n, the structure of the detection frame D13 may be the same as the structure of the detection frame D14. The detection frame D14 is processed in the next step S337.
なお、ステップS336においても、同一構造物判定部14は、構造物の位置の判定にズレ許容範囲を適用してもよい。
In addition, also in step S336, the same
ステップS337にて、同一構造物判定部14は、現フレームnで検出された残りの構造物の同一候補構造物への割り振りを行う。残りの構造物とは、現フレームnで検出された構造物のうち、同一候補構造物の集合に登録されてないものである。ステップS337の処理の詳細は後述する。
In step S337, the same
ステップS337までの処理により、現フレームnで検出された全ての構造物が同一候補構造物の集合のいずれかに登録される。また、連続するフレームについて上記ステップS331~S337の処理することにより、結果として、構造物の検出位置が連続するフレームに写った風景の移動方向と同じ方向(本実施形態では左方向)に移動する場合に、フレームに写っている構造物は同一構造物と判定される。 By the processing up to step S337, all the structures detected in the current frame n are registered in one of the sets of the same candidate structures. Further, by processing the continuous frames in steps S331 to S337, as a result, the detection position of the structure moves in the same direction as the movement direction of the landscape reflected in the continuous frames (left direction in the present embodiment). In this case, the structures shown in the frame are determined to be the same structure.
一方、ステップS331の処理において現フレームnから構造物が検出されなかった場合、ステップS332にて、同一構造物判定部14は、前フレームn-1以前に作成された同一候補構造物の確定確認をする。
On the other hand, when the structure is not detected from the current frame n in the process of step S331, in step S332, the same
なお、ステップS331の処理において現フレームnから検出された構造物の大きさ(検出枠の大きさ)が、同一候補構造物の大きさと極端に異なる場合は、現フレームnで検出された構造物を対象外として除去してもよい。例えば、対象外の遠い位置の構造物を検出した検出枠は、検出対象とする道路沿いの構造物の検出枠よりも極端に小さくなる。 If the size of the structure (the size of the detection frame) detected from the current frame n in the process of step S331 is extremely different from the size of the same candidate structure, the structure detected in the current frame n May be excluded from the target. For example, the detection frame for detecting a structure at a distant position that is not the target is extremely smaller than the detection frame for the structure along the road to be detected.
続いて、図14のステップS337の残りの構造物の割り振り処理について説明する。図19は、残りの構造物の割り振り処理の流れを示すフローチャートである。 Subsequently, the allocation process of the remaining structures in step S337 of FIG. 14 will be described. FIG. 19 is a flowchart showing the flow of allocation processing of the remaining structures.
ステップS3371にて、同一構造物判定部14は、現フレームnで検出された残りの構造物の数は、同一候補構造物の集合の数より多いか否か判定する。
In step S3371, the same
残りの構造物の数が同一候補構造物の集合よりも多い場合、ステップS3372にて、同一候補構造物の集合の数より多い数だけ新しい同一候補構造物の集合を作成し、残りの構造物の右側から順番に新しい同一候補構造物の集合のそれぞれに登録する。 When the number of remaining structures is larger than the set of the same candidate structures, in step S3372, a new set of the same candidate structures is created by a number larger than the number of the sets of the same candidate structures, and the right side of the remaining structures is created. Register in each of the new sets of the same candidate structures in order from.
例えば、図20に示すように、同一候補構造物の集合は、前フレームn-1で検出された検出枠D15を含む集合だけであり、現フレームnでは、2つの検出枠D16,D17の構造物が検出された場合を考える。検出枠D16,D17の位置は、いずれも検出枠D15よりも左側であるから、検出枠D15の構造物は、検出枠D16,D17のいずれの構造物と同一か確定できない。そこで、同一構造物判定部14は、現フレームnにおいて最も右側の検出枠D17を新しい同一候補構造物の集合に登録する。
For example, as shown in FIG. 20, the set of the same candidate structures is only the set including the detection frame D15 detected in the previous frame n-1, and in the current frame n, the structures of the two detection frames D16 and D17. Consider the case where an object is detected. Since the positions of the detection frames D16 and D17 are both on the left side of the detection frame D15, it cannot be determined whether the structure of the detection frame D15 is the same as any of the structures of the detection frames D16 and D17. Therefore, the same
ステップS3373にて、同一構造物判定部14は、現フレームnで検出された残りの構造物の数は、同一候補構造物の集合の数より少ないか否か判定する。
In step S3373, the same
残りの構造物の数が同一候補構造物の集合の数よりも少ない場合、ステップS3374にて、残りの構造物の数より多い数だけ、左側の同一候補構造物の集合から順番に、同一候補構造物の集合を同一構造物として確定する。 When the number of remaining structures is smaller than the number of sets of the same candidate structures, in step S3374, the set of the same candidate structures is set in order from the set of the same candidate structures on the left side by the number larger than the number of the remaining structures. Is determined as the same structure.
例えば、図21に示すように、前フレームn-1で検出された検出枠D18,D19をそれぞれ含む2つの同一候補構造物の集合が存在し、現フレームnでは、検出枠D20の構造物が1つだけ検出された場合を考える。検出枠D18,D19の位置は、いずれも検出枠D20よりも右側であるから、検出枠D20の構造物は、検出枠D18,D19のいずれの構造物と同一か確定できない。そこで、同一構造物判定部14は、前フレームn-1において最も左側の検出枠D18の構造物は現フレームn以降出現しないと推定し、検出枠D18を含む同一候補構造物の集合を同一構造物として確定する。
For example, as shown in FIG. 21, there are two sets of the same candidate structures including the detection frames D18 and D19 detected in the previous frame n-1, and in the current frame n, the structure of the detection frame D20 is present. Consider the case where only one is detected. Since the positions of the detection frames D18 and D19 are both on the right side of the detection frame D20, it cannot be determined whether the structure of the detection frame D20 is the same as any of the structures of the detection frames D18 and D19. Therefore, the same
以上のステップS3371~S3374の処理により、同一候補構造物の集合の数と残りの構造物の数は同数となっている。 By the above steps S3371 to S3374, the number of sets of the same candidate structure and the number of remaining structures are the same.
ステップS3375にて、同一構造物判定部14は、残りの構造物を順番に同一候補構造物の集合に割り当てる。
In step S3375, the same
以上の処理により、現フレームnで検出された構造物は、全て同一候補構造物に割り当てられる。 By the above processing, all the structures detected in the current frame n are assigned to the same candidate structure.
なお、図19の処理の開始前に、残りの構造物に、構造物の特徴が一致する同一候補構造物があれば、その残りの構造物を同一候補構造物の集合に登録してもよい。例えば、ディープラーニングを用いると、構造物の特徴により、構造物の写る位置が異なっていても同一と判定できる場合もある。例えば、同一の構造物であれば異常検出部17は同じ異常を検出すると考えられるので、異常検出部17が検出した構造物の異常に関する情報を記憶部12に格納しておき、構造物の異常に関する情報を用いて構造物の同一候補構造物を判定してもよい。また、同一の構造物である場合、構造物検出部13の検出した検出枠の確信度が近くなる傾向があるので、検出枠の確信度を用いて構造物の同一候補構造物を判定してもよい。この前処理で、残りの構造物が全て同一候補構造物に割り当てられた場合は、同一候補構造物の集合の確定確認を行い、図19の処理は行わない。
If the remaining structures have the same candidate structure having the same structure characteristics before the start of the process of FIG. 19, the remaining structures may be registered in the set of the same candidate structures. .. For example, when deep learning is used, it may be determined that the structure is the same even if the position where the structure is reflected is different depending on the characteristics of the structure. For example, if the structure is the same, the
[複数カメラ間での構造物の同一性判定]
続いて、複数カメラ間での構造物の同一性判定処理について説明する。
[Identity judgment of structure among multiple cameras]
Subsequently, the identity determination process of the structure among a plurality of cameras will be described.
複数カメラ間の構造物の同一性は、撮影時刻と撮影方向に基づいて決めることができる。 The identity of the structure between multiple cameras can be determined based on the shooting time and shooting direction.
カメラ1のフレーム切り出し間隔(距離)をs1とし、カメラ2のフレーム切り出し間隔をs2とする。カメラ1の撮影動画から切り出したフレームには通し番号(0,1,2,・・・)が付与され、カメラ2の撮影動画から切り出したフレームにも通し番号(0,1,2,・・・)が付与される。カメラ1,2のフレーム0番の切り出し時刻が同じだとすると、カメラ1のフレームiと同じ時刻のカメラ2のフレームj0はj0=i*(s1/s2)で求められる。
The frame cutting interval (distance) of the
また、カメラ1は車両の真横を撮影し、カメラ2は車両の斜め前方を撮影しているとする。カメラ1のフレームiに構造物が写っていたとすると、カメラ2では、上記のフレームj0よりもf2フレーム前に構造物が写っている。カメラ1,2間の構造物の撮影タイミングのズレ(f2)は、パン角およびカメラの撮影位置から構造物への距離によって定まる。カメラ1のフレームiに写っていた構造物は、カメラ2のフレームj=i*(s1/s2)+f2に写っていた構造物と同一である。
Further, it is assumed that the
このように、複数のカメラ間で同一の構造物が写っているフレームは一意に定められる。しかしながら、カメラを搭載した車両と構造物との間の距離が一定でなかったり、GPS誤差やカメラの時間設定誤差により正確に切り出せなかったり、構造物検出部13の誤検出、検出漏れがあったりするので、複数のカメラ間で対応するフレームは計算で求めた基準位置(フレームj)からずれることがある。
In this way, a frame in which the same structure is captured among a plurality of cameras is uniquely defined. However, the distance between the vehicle equipped with the camera and the structure may not be constant, it may not be possible to cut out accurately due to GPS error or camera time setting error, or there may be erroneous detection or detection omission of the
そこで、本実施形態の同一構造物判定部15は、誤差、誤検出、および検出漏れを考慮しつつ、複数カメラ間での構造物の同一性を判定する。
Therefore, the same
図22は、複数カメラで撮影した撮影動画間における同一構造物の判定処理の流れを示すフローチャートである。 FIG. 22 is a flowchart showing the flow of the determination process of the same structure between the moving images taken by a plurality of cameras.
同一構造物判定部15は、各カメラの撮影動画から切り出した静止画群ごとに、その静止画群に含まれる全ての代表フレームについて、ステップS41~S43の処理を繰り返す。
The same
ステップS41にて、同一構造物判定部15は、処理対象の代表フレームに対応する他の静止画群内の代表フレームを抽出する。
In step S41, the same
例えば、カメラ1の撮影動画から切り出したフレームiが処理対象の代表フレームであるとする。カメラ1~4の撮影動画からのフレームの切り出し距離とカメラ1~4の向きを考慮した構造物の撮影タイミングのズレに基づき、カメラ1のフレームiに対応するカメラ2~4のフレームj,k,l(基準位置)は一意に求まる。
For example, it is assumed that the frame i cut out from the moving image taken by the
図23に、各静止画群の代表フレームが最も理想的な場合を示す。図23の例では、計算で求められたフレームiに対応するフレームj,k,lが代表フレームである。この場合、同一構造物判定部15は、フレームiに対応する候補として、静止画群のそれぞれからフレームj,k,lを抽出する。
FIG. 23 shows the most ideal case where the representative frame of each still image group is the most ideal. In the example of FIG. 23, the frames j, k, and l corresponding to the frame i obtained by calculation are representative frames. In this case, the same
しかしながら、計算で求められたフレームj,k,lが代表フレームでないことがある。図24の例では、フレームkおよびフレームlは代表フレームではない。そこで、同一構造物判定部15は、基準位置からの前後のズレの許容範囲m1~m4をカメラ1~4ごとに設定し、処理対象のフレームiに対応する候補として、許容範囲内の代表フレームを抽出する。図24の例では、カメラ3については基準位置から許容範囲m3内に代表フレームk-3が存在し、カメラ4については基準位置から許容範囲m4内に代表フレームl+2が存在する。同一構造物判定部15は、フレームiに対応する候補として、静止画群のそれぞれからフレームj,k-3,l+2を抽出する。
However, the calculated frames j, k, and l may not be representative frames. In the example of FIG. 24, the frame k and the frame l are not representative frames. Therefore, the same
また、許容範囲内に複数の代表フレームが存在することもある。同一構造物判定部15は、処理対象のフレームに対応する候補として、許容範囲内の全ての代表フレームを抽出する。図25の例では、カメラ3については許容範囲m3内に、フレームkとフレームk-3の2つの代表フレームが存在し、カメラ4については許容範囲m4内に、フレームlとフレームl+2の2つの代表フレームが存在する。同一構造物判定部15は、フレームiに対応する候補として、静止画群のそれぞれからフレームj,k,k-3,l,l+2を抽出する。
In addition, there may be a plurality of representative frames within the permissible range. The same
許容範囲内に代表フレームが存在しない場合は、基準位置のフレームを抽出しておく。後述の信頼度の計算では、許容範囲内に代表フレームが存在しないカメラについては信頼度を0とする。 If the representative frame does not exist within the permissible range, the frame at the reference position is extracted. In the reliability calculation described later, the reliability is set to 0 for a camera whose representative frame does not exist within the allowable range.
ステップS42にて、同一構造物判定部15は、抽出した代表フレームについて全ての組み合わせを作成する。
In step S42, the same
図23の例では、フレームiに対応する候補としてフレームj,k,lが抽出されたので、同一構造物の候補としてフレームi,j,k,lの組み合わせを作成する。以下では、同一構造物判定部15の作成したフレームi,j,k,lの組み合わせを(i,j,k,l)のように表す。
In the example of FIG. 23, since the frames j, k, l are extracted as candidates corresponding to the frame i, a combination of the frames i, j, k, l is created as a candidate of the same structure. In the following, the combination of frames i, j, k, l created by the same
図24の例では、(i,j,k-3,l+2)の組み合わせが得られる。 In the example of FIG. 24, the combination of (i, j, k-3, l + 2) is obtained.
図25の例では、カメラ3についてフレームk,k-3、カメラ4についてフレームl,l+2を抽出したので、(i,j,k-3,l),(i,j,k-3,l+2),(i,j,k,l),(i,j,k,l+2)の組み合わせが得られる。
In the example of FIG. 25, since the frames k, k-3 for the
ステップS43にて、同一構造物判定部15は、全ての組み合わせについて信頼度を計算する。同一構造物判定部15は、カメラ1~4ごとに基準となる信頼度d1~d4を決めておき、基準位置から離れた距離(フレーム数)に応じて信頼度を下げる。具体的には、次式(1)を用いてそれぞれの組み合わせの信頼度を計算する。
In step S43, the same
信頼度=d1+d2*x^(v2a)+d3*x^(v3a)+d4*x^(v4a)
xは信頼度を下げるための1より小さい係数であり、例えばx=0.99とする。カメラごとにxを設定してもよい。v2a,v3a,v4aは、基準位置から離れたフレーム数である。基準となる信頼度d1~d4については、例えば、d1=0.35,d2=0.4,d3=0.45,d4=0.5とする。検出対象の構造物が信号機であれば、上のカメラは信号機の特徴を捉えやすいので、上のカメラの信頼度を高くする。なお、後述のLIDARによる測距で構造物の位置が推定できる場合または予め位置情報がわかっている構造物の場合、その情報に基づいて信頼度d1~d4を補正してもよい。
Reliability = d1 + d2 * x ^ (v2a) + d3 * x ^ (v3a) + d4 * x ^ (v4a)
x is a coefficient smaller than 1 for lowering the reliability, and for example, x = 0.99. You may set x for each camera. v2a, v3a, v4a are the number of frames away from the reference position. Regarding the reference reliability d1 to d4, for example, d1 = 0.35, d2 = 0.4, d3 = 0.45, d4 = 0.5. If the structure to be detected is a traffic light, the upper camera can easily capture the characteristics of the traffic light, so that the reliability of the upper camera is increased. If the position of the structure can be estimated by distance measurement by LIDAR, which will be described later, or if the position information is known in advance, the reliability d1 to d4 may be corrected based on the information.
許容範囲内に代表フレームが存在しないカメラについては信頼度を0として計算する。例えば、カメラ2では許容範囲内に代表フレームが存在しなかった場合、d2=0として計算する。カメラ1,3,4の信頼度を合計した値が後述の閾値c以上であれば、カメラ2の検知漏れを防ぐことができる。
For cameras that do not have a representative frame within the permissible range, the reliability is calculated as 0. For example, in the
静止画群の全ての代表フレームについて上記のステップS41~S43の処理を行い、さらに、静止画群のそれぞれについて行う。つまり、カメラ1の代表フレームを基準するだけでなく、カメラ2~4のそれぞれの代表フレームを基準として組み合わせを作成するとともに、その組み合わせの信頼度を計算する。
The above steps S41 to S43 are performed for all the representative frames of the still image group, and further, each of the still image groups is performed. That is, not only the representative frame of the
ステップS44にて、同一構造物判定部15は、全ての組み合わせの中から信頼度の高い順に複数のカメラ間の同一構造物を確定する。
In step S44, the same
例えば、(i,j,k-3,l),(i,j,k-3,l+2),(i,j,k,l),(i,j,k,l+2)の組み合わせについては、(i,j,k,l)の組み合わせが最も信頼度が高い。したがって、フレームi,フレームj,フレームk,フレームlに写っている構造物を同一構造物として確定する。同一構造物判定部15は、構造物にIDを付与し、そのIDにフレームi,フレームj,フレームk,フレームlを関連付ける。出力部16において構造物のIDが指定されると、そのIDに関連付けられたフレームi,フレームj,フレームk,フレームlが表示される。
For example, for the combination of (i, j, k-3, l), (i, j, k-3, l + 2), (i, j, k, l), (i, j, k, l + 2). The combination of (i, j, k, l) has the highest reliability. Therefore, the structures shown in the frame i, the frame j, the frame k, and the frame l are determined as the same structure. The same
同一構造物として確定した組み合わせに含まれるフレームは、他の組み合わせから除外する。除外されたフレームを含む組み合わせについては、除外されたフレームの信頼度を0として、組み合わせの信頼度を再計算する。例えば(i,j,k-3,l+2)の組み合わせの新たな信頼度は0+0+d3*x^3+d4*x^2となる。 Frames included in a combination confirmed as the same structure are excluded from other combinations. For combinations including excluded frames, the reliability of the excluded frames is set to 0, and the reliability of the combination is recalculated. For example, the new reliability of the combination of (i, j, k-3, l + 2) is 0 + 0 + d3 * x ^ 3 + d4 * x ^ 2.
同一構造物判定部15は、閾値c以上の信頼度を持つ組み合わせがなくなるまで、同一構造物の確定を行う。例えば、閾値c=1とする。
The same
なお、同一構造物として確定した組み合わせに含まれるフレームを除外する代わりに、確定したフレームの信頼度を下げてもよい。例えば、確定したフレームの信頼度を1/10とする場合、(i,j,k-3,l+2)の組み合わせの新たな信頼度はd1*1/10+d2*1/10+d3*x^3+d4*x^2となる。 Instead of excluding the frames included in the combination determined as the same structure, the reliability of the determined frames may be lowered. For example, when the reliability of the determined frame is 1/10, the new reliability of the combination of (i, j, k-3, l + 2) is d1 * 1/10 + d2 * 1/10 + d3 * x ^ 3 + d4 * x. It becomes ^ 2.
なお、カメラ間で構造物が写るタイミングのズレ(基準位置を求める際に補正したフレーム数f2)を自動で算出してもよい。例えば、カメラ1,2のフレーム数f2を算出する場合、フレーム数f2を少しずつ変えながら、カメラ1の代表フレームに対応するカメラ2の基準位置を求め、基準位置にカメラ2の代表フレームが最も多くなるようなフレーム数f2を求める。
It should be noted that the deviation in the timing at which the structure is captured between the cameras (the number of frames f2 corrected when the reference position is obtained) may be automatically calculated. For example, when calculating the number of frames f2 of the
[LIDARの利用]
LIDARや簡易なレーザー測距計などを利用すると対象物までの距離を正確に測定できる。
[Use of LIDAR]
By using LIDAR or a simple laser rangefinder, the distance to the object can be measured accurately.
図26に、LIDARの測定例を示す。図26のグラフは、横軸は走行距離を表し、縦軸は構造物までの距離を表す。車両にLIDARを載せて撮影方向の物体までの距離を測定すると、図26に示すように、道路沿いの円柱形の構造物までの距離を正確に測定できる。 FIG. 26 shows a measurement example of LIDAR. In the graph of FIG. 26, the horizontal axis represents the mileage and the vertical axis represents the distance to the structure. When the LIDAR is placed on the vehicle and the distance to the object in the shooting direction is measured, the distance to the cylindrical structure along the road can be accurately measured as shown in FIG. 26.
車両に載せたGPSロガーを用いると、GPSロガーで得られた位置情報は車両の位置情報であり、構造物の位置から少し離れている。LIDARで車両から構造物までの距離を測定することで、構造物のより正確な位置情報を得ることができる。 When the GPS logger mounted on the vehicle is used, the position information obtained by the GPS logger is the position information of the vehicle, which is a little away from the position of the structure. By measuring the distance from the vehicle to the structure with LIDAR, more accurate position information of the structure can be obtained.
また、複数カメラ間での構造物の同一性判定処理で用いる構造物の撮影タイミングのズレの算出および補正にLIDARを利用できる。複数カメラ間での構造物の同一性判定処理では、カメラ間の構造物の撮影タイミングのズレを予め設定して対応するフレーム(基準位置)を決定している。図27を参照して具体的に説明する。位置TL0に構造物が存在していると想定すると、パン角がθのカメラは、位置P2で位置TL0の構造物を撮影し、パン角が90度のカメラは、位置P1で位置TL0の構造物を撮影することになると想定される。位置P1と位置P2の間の距離L0に基づいてカメラ間で構造物が撮影されるフレーム数のズレを決定する。 In addition, LIDAR can be used to calculate and correct a deviation in the shooting timing of the structure used in the structure identity determination process between a plurality of cameras. In the structure identity determination process between a plurality of cameras, the difference in the shooting timing of the structure between the cameras is set in advance to determine the corresponding frame (reference position). A specific description will be given with reference to FIG. 27. Assuming that a structure exists at position TL0, a camera with a pan angle of θ photographs a structure at position TL0 at position P2, and a camera with a pan angle of 90 degrees captures a structure at position TL0 at position P1. It is assumed that you will be shooting things. Based on the distance L0 between the positions P1 and P2, the deviation of the number of frames in which the structure is photographed is determined between the cameras.
ところが、実際には構造物は位置TLに存在している場合、パン角がθのカメラは、位置P3で位置TLの構造物を撮影することになる。本来ならば、位置P1と位置P3の間の距離L1に基づいてカメラ間で構造物が撮影されるフレーム数のズレを決定しなければならない。 However, when the structure actually exists at the position TL, the camera having the pan angle θ will take a picture of the structure at the position TL at the position P3. Originally, it is necessary to determine the deviation of the number of frames in which the structure is photographed between the cameras based on the distance L1 between the positions P1 and the position P3.
LIDARを用いて位置P1の車両から位置TLの構造物までの位置を正確に測定すると、パン角がθのカメラで構造物を撮影できる位置P3および位置P1と位置P3との間の距離L1が計算でき、距離L1に基づいてカメラ間で構造物が撮影されるフレーム数のズレを正確に決定することができる。構造物の位置を測定できるたびに、撮影位置から構造物までの距離を算出して、基準位置となるフレームを推定してもよい。 When the position from the vehicle at position P1 to the structure at position TL is accurately measured using LIDAR, the position P3 at which the structure can be photographed by a camera having a pan angle of θ and the distance L1 between the position P1 and the position P3 are obtained. It can be calculated, and the deviation of the number of frames in which the structure is photographed between the cameras can be accurately determined based on the distance L1. Each time the position of the structure can be measured, the distance from the photographing position to the structure may be calculated to estimate the frame as the reference position.
[GPSと撮影動画との間の誤差の修正]
カメラが管理する時間とGPSロガーが管理する時間がズレている場合、撮影動画から切り出したフレームの位置情報に誤差が生じる。本実施形態では、処理開始前に、GPSと撮影動画との間の誤差を修正する。
[Correction of error between GPS and recorded video]
If the time managed by the camera and the time managed by the GPS logger are different, an error will occur in the position information of the frame cut out from the captured video. In the present embodiment, the error between the GPS and the captured moving image is corrected before the start of processing.
図28の構造物TLは、位置がわかっているものとする。車両の進行方向に対して90度の角度で設置したカメラで構造物TLを撮影するとともに、GPSロガーで位置情報を取得する。 It is assumed that the position of the structure TL in FIG. 28 is known. The structure TL is photographed with a camera installed at an angle of 90 degrees with respect to the traveling direction of the vehicle, and position information is acquired with a GPS logger.
カメラの撮影動画からフレームを切り出し、構造物TLが中央に写っているフレームを選択する。図28の例では、位置P2で撮影したフレームを選択する。フレームを切り出す時間単位は、撮影動画の時間単位(例えば30fpsであれば1秒あたり30枚)もしくはGPSロガーの計測単位(例えば0.2秒)とする。 A frame is cut out from the video shot by the camera, and the frame in which the structure TL is shown in the center is selected. In the example of FIG. 28, the frame taken at the position P2 is selected. The time unit for cutting out the frame is the time unit of the captured moving image (for example, 30 images per second for 30 fps) or the measurement unit of the GPS logger (for example, 0.2 seconds).
GPSロガーで計測した位置情報のうち、位置のわかっている構造物TLに最も近い位置情報を選択する。図28の例では、位置P2が最も構造物TLに近い。 From the position information measured by the GPS logger, the position information closest to the structure TL whose position is known is selected. In the example of FIG. 28, the position P2 is closest to the structure TL.
選択したフレームの時刻と選択した位置情報の時刻に基づいてGPSと撮影動画の時刻をあわせる。例えば、フレームの時刻が12:00:00:400であり、位置情報の時刻が12:00:00:000であった場合、この時刻の差0.4秒を考慮して処理を行う。 Set the GPS and the time of the captured video based on the time of the selected frame and the time of the selected position information. For example, if the time of the frame is 12:00:00:400 and the time of the position information is 12:00:00: 000, the processing is performed in consideration of the time difference of 0.4 seconds.
以上説明したように、本実施形態によれば、静止画取得部11が、複数の撮影動画のそれぞれから一定距離ごとに静止画(フレーム)を取得し、構造物検出部13が、検出対象の構造物の写ったフレームを検出し、カメラ毎の同一構造物判定部14が、撮影動画ごとに、フレーム間の同一構造物を判定し、カメラ間の同一構造物判定部15が、撮影動画間で同一構造物を判定し、出力部16が、同一の構造物の写った複数の撮影動画から取得したフレームを並べて表示することにより、構造物を効率よく点検可能になる。
As described above, according to the present embodiment, the still
複数のカメラを用いてチルト角やパン角を変えて撮影すると、高い構造物や逆光に対応できる。撮影動画から短い間隔でフレームを切り出すと目的の構造物の切り出し漏れを抑制できる。しかしながら、ある構造物の写っているフレームを見たい場合、膨大な数のフレームから探さなくてはならない。また、パン角を変えると複数の撮影動画間で構造物の写るタイミングが変わるので、複数のカメラで同じ時刻に同一構造物が写らないこともあり、それぞれから同一構造物を探さなくてはならない。本実施形態の構造物検出装置1を用いることで、同一構造物の写っている画像がまとめられ、見たい構造物を地図上で指定するだけで、様々なアングルで撮影した構造物の画像を一覧できる。また、構造物検出装置1は、構造物が最もよく写っているフレームを代表フレームとして並べて表示する。その結果、構造物を効率よく点検可能になる。
Shooting with multiple cameras at different tilt and pan angles can handle tall structures and backlight. By cutting out frames at short intervals from the recorded video, it is possible to prevent omission of cutting out of the target structure. However, if you want to see the frame in which a structure is shown, you have to search from a huge number of frames. Also, if you change the pan angle, the timing at which the structure is captured will change between multiple shot videos, so the same structure may not be captured at the same time with multiple cameras, and you must search for the same structure from each. .. By using the
本実施形態によれば、構造物検出部13が、検出対象の構造物の写ったフレームを検出し、カメラ毎の同一構造物判定部14が、連続するフレームn-1,n間における構造物の検出枠の位置の変化に基づいて、フレームn-1とフレームnに写っている構造物が同一構造物であるか否かを判定することにより、連続するフレーム間で同一の構造物を判定できる。具体的には、フレーム内の風景の移動方向と同じ方向に移動する検出枠の構造物は同一構造物であると判定する。
According to the present embodiment, the
本実施形態によれば、カメラ間の同一構造物判定部15が、フレームの切り出し距離とカメラ1~4の向きを考慮した構造物の撮影タイミングのズレに基づき、カメラ1の代表フレームiに対応するカメラ2~4のフレームj,k,l(基準位置)を推定し、カメラ2~4について、基準位置から許容範囲内の代表フレームを抽出することにより、パン角の異なる複数の撮影画像間で同一の構造物を判定できる。
According to the present embodiment, the same
1…構造物検出装置
11…静止画取得部
12…記憶部
13…構造物検出部
14…カメラ毎の同一構造物判定部
15…カメラ間の同一構造物判定部
16…出力部
17…異常検出部
101,102…記録媒体
1 ...
Claims (6)
前記一定距離と前記複数のカメラそれぞれの撮影方向を考慮した構造物の撮影タイミングのズレもしくは前記複数のカメラそれぞれの撮影位置から前記構造物への距離に基づいて前記複数の撮影画像群において同一構造物の写る基準画像を推定し、前記基準画像から所定の範囲内の撮影画像に写る構造物を同一構造物と判定する同一構造物判定部を備える
ことを特徴とする同一構造物検出装置。 It is the same structure detection device that extracts the captured images of the same structure from a plurality of captured images taken at regular intervals by multiple cameras.
The same structure in the plurality of captured image groups based on the difference in the imaging timing of the structure in consideration of the fixed distance and the imaging direction of each of the plurality of cameras or the distance from the imaging position of each of the plurality of cameras to the structure. An identical structure detection device comprising an same structure determination unit that estimates a reference image in which an object is captured and determines that the structure captured in a captured image within a predetermined range from the reference image is the same structure.
前記同一構造物判定部は、前記複数の撮影画像群のそれぞれを基準として、前記複数の撮影画像群ごとに他の撮影画像群の前記基準画像を推定する
ことを特徴とする同一構造物検出装置。 The same structure detection device according to claim 1, wherein the same structure detection device is used.
The same structure determination unit is characterized in that it estimates the reference image of another photographed image group for each of the plurality of photographed image groups with reference to each of the plurality of photographed image groups. ..
前記同一構造物判定部は、前記所定の範囲内の前記撮影画像に複数の構造物が写っている場合、前記複数の撮影画像群のそれぞれから前記構造物の写っている前記撮影画像を選択した組み合わせを作成し、前記組み合わせのそれぞれについて、前記基準画像と前記構造物の写っている前記撮影画像との離間度に基づいて信頼度を計算し、前記信頼度の高さに応じて同一構造物の写っている前記撮影画像の組み合わせとする
ことを特徴とする同一構造物検出装置。 The same structure detection device according to claim 1 or 2.
When a plurality of structures are captured in the captured image within the predetermined range, the same structure determination unit selects the captured image in which the structure is captured from each of the plurality of captured image groups. A combination is created, and for each of the combinations, the reliability is calculated based on the degree of separation between the reference image and the captured image in which the structure is shown, and the same structure is calculated according to the high degree of reliability. The same structure detection device, characterized in that it is a combination of the photographed images in which the image is captured.
前記同一構造物判定部は、前記基準画像として推定した前記撮影画像に前記構造物の写っている前記撮影画像が最も多くなるように前記撮影タイミングのズレを変化させながら前記撮影タイミングのズレを決定する、もしくは前記構造物の位置を推定できた場合に前記構造物の位置に基づいて前記撮影位置から前記構造物への距離を算出する
ことを特徴とする同一構造物検出装置。 The same structure detection device according to any one of claims 1 to 3.
The same structure determination unit determines the deviation of the photographing timing while changing the deviation of the photographing timing so that the photographed image in which the structure is reflected in the photographed image estimated as the reference image is the largest. Or, when the position of the structure can be estimated, the same structure detection device is characterized in that the distance from the photographing position to the structure is calculated based on the position of the structure.
コンピュータによる、
前記一定距離と前記複数のカメラそれぞれの撮影方向を考慮した前記構造物の撮影タイミングのズレもしくは前記複数のカメラそれぞれの撮影位置から前記構造物への距離に基づいて前記複数の撮影画像群において同一構造物の写る基準画像を推定するステップと、
前記基準画像から所定の範囲内の撮影画像に写る前記構造物を前記同一構造物と判定するステップと、を有する
ことを特徴とする同一構造物検出方法。 It is the same structure detection method that detects the target structure from a group of captured images taken at regular intervals by multiple cameras.
By computer
The same in the plurality of captured image groups based on the difference in the imaging timing of the structure in consideration of the fixed distance and the imaging direction of each of the plurality of cameras, or the distance from the imaging position of each of the plurality of cameras to the structure. Steps to estimate the reference image of the structure and
A method for detecting the same structure, which comprises a step of determining the structure appearing in a captured image within a predetermined range from the reference image as the same structure.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019034038A JP7030732B2 (en) | 2019-02-27 | 2019-02-27 | Same structure detection device, same structure detection method and same structure detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019034038A JP7030732B2 (en) | 2019-02-27 | 2019-02-27 | Same structure detection device, same structure detection method and same structure detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020140335A JP2020140335A (en) | 2020-09-03 |
JP7030732B2 true JP7030732B2 (en) | 2022-03-07 |
Family
ID=72280368
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019034038A Active JP7030732B2 (en) | 2019-02-27 | 2019-02-27 | Same structure detection device, same structure detection method and same structure detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7030732B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011201423A (en) | 2010-03-25 | 2011-10-13 | National Traffic Safety & Environment Laboratory | Entraining image processing system |
JP2016196233A (en) | 2015-04-03 | 2016-11-24 | クラリオン株式会社 | Road sign recognizing device for vehicle |
JP2018512593A (en) | 2015-04-10 | 2018-05-17 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | Object position measurement with in-vehicle camera using vehicle movement data |
-
2019
- 2019-02-27 JP JP2019034038A patent/JP7030732B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011201423A (en) | 2010-03-25 | 2011-10-13 | National Traffic Safety & Environment Laboratory | Entraining image processing system |
JP2016196233A (en) | 2015-04-03 | 2016-11-24 | クラリオン株式会社 | Road sign recognizing device for vehicle |
JP2018512593A (en) | 2015-04-10 | 2018-05-17 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | Object position measurement with in-vehicle camera using vehicle movement data |
US20180181142A1 (en) | 2015-04-10 | 2018-06-28 | Robert Bosch Gmbh | Object position measurement with automotive camera using vehicle motion data |
Also Published As
Publication number | Publication date |
---|---|
JP2020140335A (en) | 2020-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8284996B2 (en) | Multiple object speed tracking system | |
CN103425967B (en) | A kind of based on stream of people's monitoring method of pedestrian detection and tracking | |
CN109635737B (en) | Auxiliary vehicle navigation positioning method based on road marking line visual identification | |
US20180060986A1 (en) | Information processing device, road structure management system, and road structure management method | |
JP2018018461A (en) | Information processing apparatus, display device, information processing method, and program | |
CN104754302A (en) | Target detecting tracking method based on gun and bullet linkage system | |
JP7103975B2 (en) | Structure detection device, structure detection method and structure detection program | |
JP7035272B2 (en) | Shooting system | |
CN113903008A (en) | Ramp exit vehicle violation identification method based on deep learning and trajectory tracking | |
CN110809779A (en) | Image synthesizing method, image synthesizing apparatus, and recording medium | |
CN114972177A (en) | Road disease identification management method and device and intelligent terminal | |
CN111768373A (en) | Hierarchical pavement marking damage detection method based on deep learning | |
JP7030732B2 (en) | Same structure detection device, same structure detection method and same structure detection program | |
JP2004086417A (en) | Method and device for detecting pedestrian on zebra crossing | |
JP7065051B2 (en) | Same structure detection device, same structure detection method and same structure detection program | |
CN106340031A (en) | Method and device for detecting moving object | |
JP2009052907A (en) | Foreign matter detecting system | |
JP6998710B2 (en) | Inspection work support device, distance marker information management method, and program | |
JP7067852B1 (en) | Calculation method of road surface damage position | |
KR102624378B1 (en) | Crack detection system for road | |
JP5315104B2 (en) | Traffic flow measuring device | |
CN115249345A (en) | Traffic jam detection method based on oblique photography three-dimensional live-action map | |
CN111899512B (en) | Vehicle track extraction method and system combined with skyline observation and storage medium | |
JP6971731B2 (en) | Inspection work support device, gap measurement method, and program | |
JP2003271898A (en) | System and device for automatically observing/recording license number plates |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7030732 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |