JP7356383B2 - Image judgment device, image judgment method, and program - Google Patents
Image judgment device, image judgment method, and program Download PDFInfo
- Publication number
- JP7356383B2 JP7356383B2 JP2020049444A JP2020049444A JP7356383B2 JP 7356383 B2 JP7356383 B2 JP 7356383B2 JP 2020049444 A JP2020049444 A JP 2020049444A JP 2020049444 A JP2020049444 A JP 2020049444A JP 7356383 B2 JP7356383 B2 JP 7356383B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- detected position
- determination device
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、移動する視点から撮影した画像を処理して、実時間で判定を行う装置に関する。 The present invention relates to an apparatus that processes images taken from a moving viewpoint and makes decisions in real time.
従来、車にカメラを設置して動画あるいは連続的な静止画といった画像を撮影し、撮影した画像データをニューラルネットワークを用いたAIで分析して、各種の不具合事象の判定を行うという技術があった。 Conventionally, there has been a technology in which a camera is installed in a car to take images such as videos or continuous still images, and the captured image data is analyzed using AI using neural networks to determine various malfunctions. Ta.
例えば、特許文献1では、道路舗装のひび割れをAIによって検出し、損傷度合いを算出して、算出結果を地図上に描画する装置が開示されている。 For example, Patent Document 1 discloses a device that uses AI to detect cracks in road pavement, calculates the degree of damage, and draws the calculation results on a map.
走行する車にカメラを設置し、装置によって実時間で判定処理を行わせることで、車が走行しているその場で対象物を発見し、車を運転する者にその場で通知を行って、対応を促したいという要求がある。 By installing a camera on a moving car and having the device perform judgment processing in real time, objects can be detected while the car is moving, and the person driving the car can be notified on the spot. , there are demands to encourage response.
具体的には、例えば、電柱に鳥の巣(営巣)が作られていないかを車を巡回走行してパトロールを行い、もし営巣が発見されれば、漏電など重篤な災害が今すぐ発生する危険があるから、パトロールを行う者は車を停止して、その場で営巣を除去する作業を実施したいという要求がある。 Specifically, for example, we use cars to patrol telephone poles to check for bird nests.If a nest is discovered, a serious disaster such as an electrical leak can occur immediately. Because of the danger of nesting, there is a demand for patrollers to stop their vehicles and remove nests on the spot.
また、例えば、道路の舗装にポットホール(穴)が発生していないかを車を巡回走行してパトロールを行い、もし穴が発見されれば、通行者の転倒など重篤な災害が今すぐ発生する危険があるから、パトロールを行う者は車を停止して、その場で穴を埋める作業を実施したいという要求がある。 For example, we use cars to patrol road pavements to check for potholes, and if a pothole is found, a serious accident such as a fall of a passerby can occur immediately. Because of the danger of this occurring, there is a demand for patrollers to stop their vehicles and fill in the holes on the spot.
また、パトロールの際には、その場で即時に対処作業を行う場合もある一方で、重篤な災害が今すぐ発生する危険が比較的高くないとパトロールを行う者が判断した場合には、パトロール中に発見した結果を持ち帰り、事後に発見した結果をとりまとめて、工事などの対処を専門の部署に対して依頼するという業務も行われており、これに用いるためにパトロール中に発見した結果を持ち帰り事後に結果をとりまとめて確認したいという要求がある。さらに前記結果の確認は、可能な限り、パトロール終了後の短い時間内にて行えることが望ましい。 In addition, while patrols may involve immediate response work on the spot, if the patroller determines that the risk of a serious disaster occurring immediately is not relatively high, There is also a task of bringing back the results discovered during patrols, compiling the results discovered after the fact, and requesting a specialized department to deal with construction etc., and for use in this purpose. There is a demand to collect and confirm the results after the test is taken home. Further, it is desirable that the results be confirmed within as short a time as possible after the end of the patrol.
従来、撮影した画像データをAIによって分析する技術においては、実時間で分析して通知が行えないという問題があった。 Conventionally, technology for analyzing photographed image data using AI has had a problem in that analysis and notification cannot be performed in real time.
実時間で分析が行えない要因の一つは、撮影した画像データを記録媒体として持ち帰り、GPSによる位置情報を記録した媒体と合わせて、分析用装置に入力し、分析を行うという装置構成にあった。このため、車を走行して撮影する業務段階と、走行の事後に当該装置によって分析を行う業務段階とが分かれており、実時間での分析が行えなかった。 One of the reasons why analysis cannot be performed in real time is due to the equipment configuration, in which the captured image data is taken home as a recording medium, and is input into the analysis equipment along with the media containing the GPS location information for analysis. Ta. For this reason, there is a separation between the business stage of driving the car and photographing it, and the business stage of performing analysis using the device after driving, making it impossible to perform analysis in real time.
また、実時間で分析が行えない要因の別の一つは、分析装置が内部で用いるニューラルネットワークが、計算量を要する処理であり、多数の入力画像に対して処理速度が追い付かず、このため実時間での分析が行えなかった。 Another reason why analysis cannot be performed in real time is that the neural network used internally by the analyzer requires a large amount of calculation, and the processing speed cannot keep up with the large number of input images. Analysis could not be performed in real time.
また、従来、撮影した画像データをAIによって分析する技術においては、データを持ち帰って分析を開始してから分析が完了するまでに多くの計算量を要するため、時間を要し、このためパトロール終了後の短い時間内に結果を確認することができないという問題があった。 In addition, conventional technology that uses AI to analyze captured image data requires a large amount of calculations from the time the data is brought back and analysis is started until the analysis is completed, which takes time, resulting in the end of the patrol. There was a problem that the results could not be confirmed within a short period of time.
本発明は以上の課題を鑑みたものであり、本発明の目的は、移動する視点から撮影した画像を入力とし、実時間で対象物の判定を行って利用者に通知を行うとともに、判定した結果の一覧を速やかに表示する技術を提供することにある。 The present invention has been developed in consideration of the above-mentioned problems, and an object of the present invention is to use an image taken from a moving viewpoint as input, judge the object in real time, notify the user, and The purpose of the present invention is to provide a technology for quickly displaying a list of results.
本発明の一態様の画像判定装置は、移動する視点から撮影した時系列順の画像を入力し、前記画像から対象物を検出する検出部と、前記時系列順の画像と前記対象物の画像上での検出位置を一時的に保持する画像記憶部と、前記時系列順の画像から同一の前記対象物を1回のみ選択する対象選択部と、選択された前記対象物について通知または検出結果の記憶の少なくともいずれかを実行する処理部を有し、前記時系列順の画像は、進行方向に対して横あるいは斜め前を撮影した画像であり、前記対象選択部は、前記時系列順の画像における前記対象物の画像上での検出位置の移動方向に基づいて前記対象物の同一性を判定し、前記検出位置が特定方向へ移動する前記対象物について、前記画像記憶部の記憶内容のうちで前記対象物の検出位置が最も画像の中央に位置する前記画像から前記対象物を選択することを特徴とする。 An image determination device according to one aspect of the present invention includes a detection unit that inputs images in chronological order taken from a moving viewpoint and detects a target object from the images, and an image of the images in the chronological order and the image of the target object. an image storage unit that temporarily stores the detected position, an object selection unit that selects the same object only once from the images in the chronological order, and a notification or detection result regarding the selected object. The image in the chronological order is an image taken horizontally or diagonally in front of the traveling direction, and the target selection unit is configured to store the images in the chronological order. The identity of the object is determined based on the moving direction of the detected position of the object in the image, and the storage contents of the image storage unit are determined for the object whose detected position moves in a specific direction. The object is selected from among the images in which the detected position of the object is located closest to the center of the image.
本発明の一態様の画像判定方法は、コンピュータが実行する画像判定方法であって、移動する視点から撮影した時系列順の画像を入力し、前記画像から対象物を検出するステップと、画像記憶部に前記時系列順の画像と前記対象物の画像上での検出位置を一時的に保持するステップと、前記時系列順の画像から同一の前記対象物を1回のみ選択するステップと、選択された前記対象物について通知または検出結果の記憶の少なくともいずれかを実行するステップを有し、前記時系列順の画像は、進行方向に対して横あるいは斜め前を撮影した画像であり、前記選択するステップでは、前記時系列順の画像における前記対象物の画像上での検出位置の移動方向に基づいて前記対象物の同一性を判定し、前記検出位置が特定方向へ移動する前記対象物について、前記画像記憶部の記憶内容のうちで前記対象物の検出位置が最も画像の中央に位置する前記画像から前記対象物を選択することを特徴とする。 An image determination method according to one aspect of the present invention is an image determination method executed by a computer, and includes the steps of inputting images taken in chronological order from a moving viewpoint, detecting a target object from the images, and storing images. a step of temporarily holding the images in the chronological order and the detected position of the object on the image; a step of selecting the same object only once from the images in the chronological order; the selected target object, and the chronologically ordered images are images taken horizontally or diagonally in front of the traveling direction; In the step of determining the identity of the object based on the moving direction of the detected position on the image of the object in the chronological order images, for the object whose detected position moves in a specific direction. , the object is selected from the image in which the detected position of the object is located closest to the center of the image among the contents stored in the image storage section.
本発明の一態様のプログラムは、コンピュータに、移動する視点から撮影した時系列順の画像を入力し、前記画像から対象物を検出する処理と、画像記憶部に前記時系列順の画像と前記対象物の画像上での検出位置を一時的に保持する処理と、前記時系列順の画像から同一の前記対象物を1回のみ選択する処理と、選択された前記対象物について通知または検出結果の記憶の少なくともいずれかを実行する処理を実行させ、前記時系列順の画像は、進行方向に対して横あるいは斜め前を撮影した画像であり、前記選択する処理では、前記時系列順の画像における前記対象物の画像上での検出位置の移動方向に基づいて前記対象物の同一性を判定し、前記検出位置が特定方向へ移動する前記対象物について、前記画像記憶部の記憶内容のうちで前記対象物の検出位置が最も画像の中央に位置する前記画像から前記対象物を選択することを特徴とする。 A program according to one aspect of the present invention includes a process of inputting chronologically ordered images taken from a moving viewpoint into a computer, detecting a target object from the images, and storing the chronologically ordered images and the A process of temporarily retaining the detected position of the object on the image, a process of selecting the same object only once from the images in the chronological order, and a notification or detection result about the selected object. The images in chronological order are images taken horizontally or diagonally in front of the traveling direction, and in the selecting process, the images in chronological order are The identity of the object is determined based on the moving direction of the detected position of the object on the image of the object, and for the object whose detected position moves in a specific direction, among the contents stored in the image storage unit, The object is selected from the image in which the detected position of the object is located closest to the center of the image.
本発明によれば、移動する視点から撮影した画像を入力とし、実時間で対象物の判定を行って利用者に通知を行うとともに、判定した結果の一覧を速やかに表示する装置を提供することができる。 According to the present invention, it is possible to provide a device that receives an image taken from a moving viewpoint as input, determines an object in real time, notifies the user, and promptly displays a list of the determined results. I can do it.
本発明の実施の形態の一つを以下に示す。 One embodiment of the present invention is shown below.
<実時間画像判定装置の構成>
図1は、本実施の形態における実時間画像判定装置の構成を示す。
<Configuration of real-time image judgment device>
FIG. 1 shows the configuration of a real-time image determination device in this embodiment.
実時間画像判定装置100は、画像削減部112、第1検出部113、対象選択部114、画像抽出部115、第2検出部116、枠描画部117、通知部118、結果記憶部119、および、結果表示部120を備える。
The real-time
カメラ111は、走行する車に取り付け、前方を撮影するように設置する。実時間画像判定装置100は、カメラ111で撮影した画像を入力とする。
The
また、GPS装置101を用意し、記録したGPSのログを、実時間画像判定装置100への入力とする。GPSのログは、時刻ごとの緯度および経度が記載された情報である。このようなログを記録するGPS装置は市販されており、あるいは、GPS内蔵ドライブレコーダーを用いてもよい。あるいは、GPS測位機能を実時間画像判定装置100内に具備してもよい。
Further, a
画像削減部112は、入力された画像を縮小して情報量を削減する。
The
第1検出部113は、ニューラルネットワーク131に、予め学習させた結果得られる第1パラメータ132を与えて構成され、画像削減部112により情報量が削減された画像から対象物を検出する。
The
ニューラルネットワーク131には、物体検出ニューラルネットワークを用いる。物体検出ニューラルネットワークとは、深層学習(ディープラーニング)の技術を用いて、与えられた入力画像の中から、予め学習させた物体の1つ以上の存在を検出して、その存在を取り囲む矩形の位置座標を得ることができる手法である。このような手法として、R-CNN、Faster R-CNN、Single Shot MultiBox Detectorなどが公表されており、実装もオープンソース等で利用可能である。
The
本実施の形態では、実時間画像判定装置100の製造段階において、ニューラルネットワーク131の学習機能に対して検出対象に関する様々な画像を入力して学習を行わせ、学習の結果として得られる学習結果データを第1パラメータ132として実時間画像判定装置100に組み込み、利用する。
In this embodiment, at the manufacturing stage of the real-time
図2は、第1検出部113が用いる第1パラメータ132の学習に用いる画像の例である。
FIG. 2 is an example of an image used for learning the
画像200は、学習のために準備した画像の例であるが、学習時には、画像200のように、カメラ111が撮影するのと同様の見え方の画像を準備し、これに基づき学習を行う。画像200には、左側の白線201、右側の白線202、車両が走行する車線203が図示されている。車線203の左側に電柱210が立っており、複数本の電線が張られている。画像200の中では特に電柱210を見つけるように学習をさせたいから、当該電柱210を取り囲む矩形211をアノテーション(タグ付け)し、当該アノテーションされた画像200を学習に用いる。これと同様に、様々な電柱の画像にアノテーションを行い学習させることで、第1検出部113は、画像から電柱部分を検出するニューラルネットワークとして機能するようになるので、これを実時間画像判定装置100に組み込み、利用する。
対象選択部114は、対象物の画像上での検出位置または画像上での大きさに基づき、後段の第2検出部116の処理対象とすべき画像および対象物を選択する。
The
画像抽出部115は、画像削減部112が情報量を削減していない元の画像から、対象選択部114の選択した対象物の部分画像を得る。
The
第2検出部116は、ニューラルネットワーク141に、予め学習させた結果得られる第2パラメータ142を与えて構成され、対象物のみを取り出した部分画像を入力して、対象物を分類する。
The
ニューラルネットワーク141には、画像判定ニューラルネットワークを用いる。画像判定ニューラルネットワークとは、深層学習(ディープラーニング)の技術を用いて、与えられた入力画像が、予め学習させた複数の画像クラスのうちいずれのクラスに最も近いかを判定できる手法である。このような手法として、resnet、vgg16などが公表されており、実装もオープンソース等で利用可能である。
The
本実施の形態では、実時間画像判定装置100の製造段階において、ニューラルネットワーク141の学習機能に対して検出対象に関する様々な画像を入力して学習を行わせ、学習の結果として得られる学習結果データを第2パラメータ142として実時間画像判定装置100に組み込み、利用する。
In this embodiment, at the manufacturing stage of the real-time
図3は、第2検出部が用いる第2パラメータの学習に用いる画像の例である。 FIG. 3 is an example of an image used for learning the second parameter used by the second detection unit.
学習は、検出成功を示すA群と、検出失敗を示すB群の、2つのクラスに分けて行う。画像300はA群の例であり、電柱301を取り囲む矩形範囲を画像の全体として、かつ、当該電柱には営巣302(鳥の巣)ができている特徴をもつ。一方、画像310はB群の例であり、電柱311を取り囲む矩形範囲を画像の全体として、かつ、当該電柱には営巣(鳥の巣)が存在しない。
Learning is performed by dividing into two classes: group A, which indicates successful detection, and group B, which indicates failed detection.
これと同様に、様々な電柱の画像をA群もしくはB群に分類し学習させることで、第2検出部116は、カメラ撮影画像のうち電柱部分のみを取り出した部分画像を入力されると営巣がある(A群)かない(B群)かを判定するニューラルネットワークとして機能するようになるので、これを実時間画像判定装置100に組み込み、利用する。
Similarly, by classifying images of various utility poles into group A or group B for learning, the
枠描画部117は、第2検出部の分類した対象物を枠で囲った画像を生成する。例えば、枠描画部117は、営巣が存在する電柱を枠で囲った画像を生成する。
The
通知部118は、車の運転者に対して実時間で判定結果を通知する機能を有し、音および振動および画面表示によって通知を行う。 The notification unit 118 has a function of notifying the driver of the vehicle of the determination result in real time, and performs notification by sound, vibration, and screen display.
結果記憶部119は、枠描画結果の画像と処理した時点の時刻とを記憶媒体に記憶する。結果記憶部119は、枠描画結果に対象物の位置情報を付与して記憶してもよい。
The
結果表示部120は、判定結果を地図上に表示する機能を有し、利用者が車の走行を終了した事後に一連の判定結果を後から確認できる。 The result display unit 120 has a function of displaying the determination results on a map, so that the user can check the series of determination results later after the user has finished driving the car.
<実時間画像判定装置の動作>
実時間画像判定装置100は、カメラ111で撮影された画像のデータを入力として、以下に述べる動作を行う。
<Operation of real-time image judgment device>
The real-time
図4は、実時間画像判定装置100の動作を示すフローチャートである。図5は、対象選択部114の動作を示すフローチャートである。以下では、対象物を電柱として、営巣が存在する電柱を判定する例について説明する。なお、対象物を電柱に限るものではなく、営巣が存在するか否かを判定することに限るものでもない。
FIG. 4 is a flowchart showing the operation of the real-time
カメラ111はその時点での画像を撮影しており、実時間画像判定装置100は、当該画像を入力とする(ステップS1)。なお、カメラ111と実時間画像判定装置100とは隣接して設置してもよいし、あるいは、無線ネットワークを通じて遠隔地に設置してもよい。
The
図6は、カメラ111で撮影された画像の例である。画像600は、センターラインのある2車線(片側1車線)の道路を走行している状態で撮影されており、電柱610が映っている。電柱610には営巣612が存在する。
FIG. 6 is an example of an image taken by the
画像削減部112は、入力された画像のリサイズを行い、画像を縮小して情報量を削減する(ステップS2)。
The
第1検出部113は、当該削減された画像を入力として電柱の検出処理を行い、検出された場合には電柱の位置を示す矩形の座標を得る(ステップS3)。なお、物体検出ニューラルネットワークは予め学習させた物体の1つ以上の存在を検出できるから、複数の電柱を検出した場合には、矩形の座標の並びを得る。
The
図7は、第1の検出処理の結果を示す図である。前記画像削減処理の結果得られた画像700に対し、電柱610を検出して、矩形711を得る。
FIG. 7 is a diagram showing the results of the first detection process. A
対象選択部114は、図5のフローチャートの手順により、前記得られた矩形の座標から対象物の同一性を判定し、後段の処理対象とすべき物体のみを選択する。
The
すなわち、対象選択部114は、前記得られた矩形の座標の並びに対し、X座標が画像全体の一定範囲に全部もしくは一部が存在するような矩形のみを選別する(ステップS41)。もし、並びが空集合となった場合には、選択対象なしとしてサブルーチンを終了する(ステップS42)。
That is, the
前記一定範囲とは、画角(カメラによる撮影の構図)に応じて予め定めた定数値でもよく、また特に、車の走行に合わせて最初に対象物が現れる点Pと、車の走行に合わせて最後に対象物が撮影範囲外になる点Qとで構成される区間に相当する固定範囲であってもよい。画像700の例では、点Pから点Qの区間に対応するX座標で示される第1範囲を一定範囲としている。
The above-mentioned certain range may be a constant value predetermined according to the angle of view (the composition of the photograph taken by the camera), and in particular, the point P where the object first appears as the car moves, and It may also be a fixed range corresponding to a section consisting of a point Q where the object is finally outside the photographing range. In the example of the
次に、対象選択部114は、前記得られた矩形の座標の並びのうち一番右にある矩形の座標に対し、X座標が画像全体の第2の一定範囲に全部もしくは一部が存在する場合、「処理済み」フラグを0にクリアして、選択対象なしとしてサブルーチンを終了する(ステップS43)。
Next, the
前記第2の一定範囲とは、前記一定範囲内の一部の範囲であって、特に、車の走行に合わせて最初に対象物が現れる点Pもしくはそれに近い側において設定される一定の範囲のことであってもよく、例えば、前記点Pと前記点Qとを1対2の比率で区分する点Rに対して、点Pから点Rまでで構成される区間に相当する固定範囲であってもよい。画像700の例では、点Pから点Rの区間に対応するX座標で示される第2範囲を第2の一定範囲としている。
The second certain range is a part of the certain range, and in particular, a certain range set at or near the point P where the object first appears as the car travels. For example, for a point R that divides the point P and the point Q at a ratio of 1:2, it may be a fixed range that corresponds to the section from point P to point R. It's okay. In the example of the
次に、対象選択部114は、前記得られた矩形の座標の並びのうち一番右にある矩形の座標に対し、「処理済み」フラグが1であった場合には、選択対象なしとしてサブルーチンを終了する(ステップS44)。
Next, if the "processed" flag is 1 for the coordinates of the rightmost rectangle among the array of coordinates of the obtained rectangles, the
次に、対象選択部114は、「処理済み」フラグを1にして、かつ、前記得られた矩形の座標の並びのうち一番右にある矩形の座標を選択対象として、サブルーチンを終了する(ステップS45)。
Next, the
なお、対象選択部114が用いる「処理済み」フラグは、実時間画像判定装置100の起動時に、0にクリアしておくものとする。
Note that the “processed” flag used by the
ここで、対象選択処理における上記一連の手順の意味について述べる。対象選択処理は、走行する車から撮影した画像を実時間で連続的に繰り返し処理する際、対象を発見した旨の通知はカメラの撮影がもっとも鮮明にできている箇所すなわち有効撮影範囲の中央付近に対象物が来た際に行われ、かつ、通知は同一対象物の発見に関して一回のみ行うこととしたいため、左記要求をステップS41からステップS45によって実現できる。 Here, the meaning of the above series of steps in the target selection process will be described. In the target selection process, when images taken from a moving car are continuously and repeatedly processed in real time, the notification that a target has been found is sent to the location where the camera can capture the clearest image, i.e. near the center of the effective shooting range. Since it is desired that the notification is performed when an object arrives at , and the notification is to be made only once for the discovery of the same object, the request described on the left can be realized by steps S41 to S45.
ステップS41からステップS42では、検出対象とする電柱は道路の左側に映っているもののみとし、かつ、遠近法に基づく撮影画像で最初は遠方の消失点付近に映っていたものが、徐々に近づいて大きな画像となっていくような対象物に対して、処理対象とすることを意図している。 In steps S41 and S42, the only utility poles to be detected are those appearing on the left side of the road, and those that are initially seen near the vanishing point in the distance in the photographed image based on perspective gradually approach. It is intended to be used for processing objects that become large images.
そして、ステップS43では、対象物が画像の中央付近に来た時点で、初めて、後続の処理を行わせることを意図している。中央付近とは、ここでは画像を左と中央と右の大きく3分割し、対象物が右区間を越えて中央区間に差し掛かった際に一度だけ処理すれば、撮影した画像を実時間で連続的に繰り返し処理する際に発生する一回の一連の処理あたりの計算時間がある程度所要し、それに起因して対象物が中央区間に差し掛かった直後に撮影されたカメラ画像を処理することが叶わず、対象物が中央区間に差し掛かってある程度時間が経過した後に撮影されたカメラ画像を処理することとなったとしても、対象物は中央区間の範囲内のいずれかに存在した状態で撮影されたカメラ画像を処理することができるから、前記述べた画像の中央付近に来た時点で初めて後続の処理を行わせるという意図を実現することができる。 In step S43, the subsequent processing is intended to be performed only when the object comes near the center of the image. Near the center means that the image is roughly divided into three parts: left, center, and right, and the captured images can be processed continuously in real time by processing only once when the object crosses the right section and enters the center section. A certain amount of calculation time is required for each series of processing that occurs when processing repeatedly, and due to this, it is not possible to process the camera image taken immediately after the object approaches the center section. Even if a camera image taken after a certain amount of time has elapsed since the object entered the center section is to be processed, the camera image taken while the object was located somewhere within the center section must be processed. Therefore, it is possible to realize the above-mentioned intention of performing subsequent processing only when the image reaches the vicinity of the center of the image.
そして、ステップS44では、一つの対象物に対して一回のみ後続の処理を行わせることを意図している。車が走行すると道路の左側にある対象物は画像においてより左へと流れていくから、図7の第1範囲にある間は一度だけ処理すればよく、「処理済み」フラグによって二度目の処理を行わないことにより達成する。一方、新たな対象物が映り込んでいれば、それは画角における消失点に近い位置、すなわち、図7の第2範囲に出現するから、「処理済み」フラグを0にクリアすることで、当該対象物が次に前記中央区間の範囲内に入った際に後続の処理の対象とすることができる。なお、対象物の画像上での大きさに基づいて後続の処理を行わせてもよい。具体的には、「処理済み」フラグが0にクリアされた後、対象物の画像上での大きさが所定の大きさ以上になったときに、その対象物を選択するとともに、「処理済み」フラグを1にする。 In step S44, the subsequent processing is intended to be performed only once for one object. As the car moves, objects on the left side of the road move further to the left in the image, so while they are in the first range in Figure 7, they only need to be processed once, and the "processed" flag allows them to be processed a second time. This is achieved by not doing the following. On the other hand, if a new object appears in the image, it will appear at a position close to the vanishing point in the angle of view, that is, in the second range in Fig. 7, so by clearing the "processed" flag to 0, the corresponding The next time the object falls within the range of the central section, it can be targeted for subsequent processing. Note that subsequent processing may be performed based on the size of the target object on the image. Specifically, after the "processed" flag is cleared to 0, when the size of the object on the image becomes larger than a predetermined size, the object is selected and the "processed" flag is cleared to 0. ” flag to 1.
このように、対象選択処理によって、通知を最も適切な一回のみ行うことができるという効果が得られ、またさらに、処理対象の画像のサイズが大きいため処理時間を要する第2検出部116におけるニューラルネットワークの処理回数を少なく抑えることができるので、全体の処理時間を削減する効果も得ることができる。
In this way, the target selection process has the effect that notification can be performed only once in the most appropriate manner, and furthermore, the neural network in the
第1検出部113におけるニューラルネットワークの処理には、前もって、画像削減部112によって画像のサイズを小さくしているため、第2検出部116での処理に比べて1回あたりの処理時間は大幅に短くて済む。このように、ステップS1からステップS4までの処理は多数繰り返すため短い処理時間で済むような構成とし、それ以降の処理は比較的少ない回数のみ実行するため比較的長い処理時間がかかるような構成とすることで、装置全体としての処理回数の総数を多くすることが可能となり、実時間での画像判定という本装置の趣旨を充足することができる。
In the neural network processing in the
一方、本実施の形態においては、電柱は見分けがつきやすい対象であり、画像削減部112によって画像のサイズを小さくリサイズしていたとしても十分高い精度で判別することが可能であるため、検出精度の観点からも本実施の形態は本装置の趣旨を十分達成することができる。
On the other hand, in the present embodiment, utility poles are objects that are easy to distinguish, and even if the image size is reduced to a smaller size by the
なお、本実施の形態では、画像削減部112を具備するものとしたが、本発明の範囲はこれに限るものではなく、画像削減部112を持たず、第1検出部113は前記入力画像をそのまま処理する構成としてもよい。
Although the present embodiment includes the
画像抽出部115は、ステップS1で入力した画像に対して、対象選択処理で選択した矩形の座標に対応する位置の画素を切り出し、部分画像を得る(ステップS5)。
The
図8は、画像抽出処理の結果を示す図である。ステップS2によってリサイズして画像サイズを小さくした画像700における矩形711の範囲に対して、リサイズ前の元の画像600から同等の矩形範囲を切り出した部分画像が、画像800である。
FIG. 8 is a diagram showing the results of the image extraction process.
第2検出部116は、前記得られた部分画像を入力として営巣の検出処理を行い、営巣の有無を判定する(ステップS6)。
The
例えば、画像800であれば、営巣が存在するから、第2検出部116は予め学習した内容に従って当該画像がA群のクラス、すなわち営巣が存在すると判定する。
For example, in the case of
実時間画像判定装置100は、営巣が存在すると判定した場合には、以下の処理を行う。
When the real-time
枠描画部117は、判定した営巣の範囲を枠で囲った画像を生成する(ステップS7)。
The
図9は、枠描画処理の結果を示す図である。 FIG. 9 is a diagram showing the results of the frame drawing process.
画像900の生成には、リサイズ前の画像600を用いる。例えば、リサイズ前の元の画像600に対して、ステップS2によってリサイズして画像サイズを小さくした画像700における矩形711の範囲と同等の矩形を、色付きの太い枠線で描画して、画像900を得る。記号911は、前記描画した枠を示す。
The
通知部118は、車の運転者に対して音および振動および画面表示によって判定した結果の通知を行うとともに(ステップS8)、結果記憶部119は、前記枠描画結果の画像と処理した時点の時刻とを記憶媒体に記憶する(ステップS9)。
The notification unit 118 notifies the driver of the vehicle of the determined result using sound, vibration, and screen display (step S8), and the
図10は、通知の例を示す図である。画面1000上に、対象物の部分画像1010と、対象物を発見した旨を示すメッセージ1020を表示する。通知画面は、枠描画結果の画像900にメッセージを重ねた画面でもよい。
FIG. 10 is a diagram showing an example of notification. A
通知部118が、車の運転者に対して音および振動によって通知を行うことで、運転者はパトロール業務における車の運転中であっても、対象物が発見されたことを安全に知ることができるという利点が得られる。また、車の運転者に対して画面表示によって通知を行うことで、運転者はパトロール業務において車を停止させた後、当該画面表示によって、どの電柱にどのように営巣が存在していたかを画面上で確認することができるため、その後の除去作業を容易に行うことができるという利点が得られる。 The notification unit 118 notifies the driver of the vehicle using sound and vibration, so that the driver can safely know that an object has been discovered even while driving the vehicle on patrol duty. You have the advantage of being able to. In addition, by notifying the driver of the vehicle through a screen display, the driver can use the screen display to inform the driver of which utility poles and how the nests were located after stopping the vehicle for patrol duties. Since it can be confirmed above, there is an advantage that subsequent removal work can be performed easily.
実時間画像判定装置100は、ステップS1に戻り、上記述べた処理を繰り返す。
The real-time
さらに、結果表示部120は、GPS装置101が記録したGPSのログを、SDメモリカードあるいはUSB接続あるいはネットワーク通信あるいはその他の手段を用いて読み取り、当該ログに記されている時刻ごとの緯度および経度が記載された情報を用いて、結果記憶部119が記憶している対象物を判定した時点の時刻と突合して画像と位置との対応関係を求め、対象物が存在する緯度および経度を取得し、判定結果を地図上に表示する。なお、実時間画像判定装置100の結果表示部120が行う上記の処理手順には、ニューラルネットワークを用いた計算量の多い複雑な処理を伴わないから、迅速に結果を表示することができる。
Furthermore, the result display unit 120 reads the GPS log recorded by the
図11は、結果表示画面の例を示す図である。結果表示画面1100は、地図表示領域1110、判定画像表示領域1120、および、全景画像表示領域1130を備える。地図表示領域1110には、地図上に、車の走行経路に沿って対象物を判定した複数の箇所がピン1111A~1111Cで表示される。対象物の判定結果に応じてピン1111A~1111Cの表示態様を変えてもよい。また、マウスやタブレットやタッチパネル等の操作によって利用者がいずれかのピン1111A~1111Cを指示すると、当該ピン1111A~1111Cに対応する結果表示部120が記憶する枠描画結果の画像を判定画像表示領域1120と全景画像表示領域1130に表示する。判定画像表示領域1120には、対象物を切り出した部分画像が表示される。全景画像表示領域1130には、カメラ撮影画像が表示される。
FIG. 11 is a diagram showing an example of a result display screen. The
本実施の形態では、実時間画像判定装置100が通知部118を具備する。本発明の範囲はこれに限るものではなく、通知部118の一部または全部の機能を別装置としてもよい。また、その際、実時間画像判定装置100の処理結果を、ネットワークを通じて通知装置に入力してもよい。例えば、撮影の現場では音声による通知のみを行い、ネットワークを通じて遠隔地にある点検センターに情報を送信し、点検センターに設置した前記通知装置に画像を表示してもよい。
In this embodiment, the real-time
本実施の形態では、実時間画像判定装置100が結果表示部120を具備する。本発明の範囲はこれに限るものではなく、結果表示部120を別装置としてもよい。また、その際、実時間画像判定装置100の結果記憶部119が記憶するデータを、ネットワークまたは記録媒体を通じて表示装置に入力してもよい。
In this embodiment, the real-time
本実施の形態では、実時間画像判定装置100は、GPS装置101が計測した緯度および経度の情報と、カメラで撮影した画像との対応関係を求める処理は、撮影時ではなく撮影後に結果表示部120によって結果を表示する段階で行った。本発明の範囲はこれに限るものではなく、GPS測位機能を実時間画像判定装置100内に具備して、撮影時に行ってもよい。また、その際、結果記憶部119は、少なくとも画像と緯度および経度の情報とを記憶してもよい。また、通知部118は、枠描画結果の画像だけでなく、当該地点の地図も画面に表示してよい。
In the present embodiment, the real-time
上記一連の説明では、GPS装置101および実時間画像判定装置100は緯度および経度の情報を扱うこととしたが、地理上の位置を示す別の形式の情報であってもよい。
In the above series of explanations, the
本実施の形態では、実時間画像判定装置100は、ステップS1からステップS9までの処理を間断なく繰り返すこととしたが、処理の休止を適宜含めてもよい。例えば、GPS測位機能を実時間画像判定装置100内に具備して、一定の距離(例えば50cm等)を走行するまでは前記処理の休止を行うこととしてもよい。
In this embodiment, the real-time
本実施の形態では、ニューラルネットワーク141は、画像判定ニューラルネットワークを用いた。本発明の範囲はこれに限るものではなく、必要な機能を実現するほかのニューラルネットワークを用いてもよく、例えば、物体検出ニューラルネットワークを用いてもよい。
In this embodiment, the
その場合、第2パラメータ142を得るための学習には、営巣が存在しない(B群に相当する)画像を用いず、営巣が存在する画像のみを用いてよい。さらに、電柱を取り囲む矩形範囲のみを抽出した画像ではなく、カメラで撮影した画角の画像を用いて、当該画像における営巣の位置のみをアノテーションし、同様のアノテーション済み画像を多数準備して、学習させることにより、第2パラメータ142を得てもよい。さらに、画像抽出部115が部分画像を得るステップS5は、省略してもよい。さらに、枠描画部117が枠を描画するステップS7は、ニューラルネットワーク141が物体を検出した矩形範囲に対して枠を描画してよい。また、ニューラルネットワーク131とニューラルネットワーク141がいずれも物体検出ニューラルネットワークであれば、ニューラルネットワークを実現するコンピュータプログラムは同一のサブルーチンを利用し、第1パラメータ132を与えて第1検出部113を構成し、第2パラメータ142を与えて第2検出部116を構成してもよい。
In that case, for learning to obtain the
本実施の形態では、ニューラルネットワーク131は、物体検出ニューラルネットワークを用いた。本発明の範囲はこれに限るものではなく、必要な機能を実現するほかのニューラルネットワークを用いてもよい。
In this embodiment, the
本実施の形態では、カメラ111は、走行する車の前方を撮影するように設置し、実時間画像判定装置100はそのような画角の画像を入力として動作するものとした。また、画像の中で、道路の左側に存在する電柱のみを判定対象とするものとした。本発明の範囲はこれに限るものではなく、例えば、カメラを真横、あるいは、斜め前、あるいは、斜め前かつ少し上向きに設置し、ズーム倍率を標準より若干、望遠に設定して撮影し、そのような画角で撮影された画像を入力として動作するようにしてもよい。その場合、例えば、カメラを右に90度回転して縦長の画像を撮影するように設置し、カメラの向きを例えば左に30度、かつ、例えば上に30度傾け、ズーム倍率を例えば1.5倍ないし2.5倍にしてもよい。画角が変更された場合、ステップS42およびステップS43で用いる範囲は画角に合わせて変更してよく、その際、車の走行に合わせて最初に対象物が現れる点Pと、車の走行に合わせて最後に対象物が撮影範囲外になる点Qとに基づいて前記範囲を設定してもよい。また、特に遠近法における消失点が存在しないような画角での撮影を行った場合には、点Pは消失点ではなく画像の端になることが起こりうるから、前記設定の結果としては、点Pが画面の右端になってもよく、また同様に、点Qが画面の左端になってもよい。この際、点Pが画面の右端であり、かつ、点Qが画面の左端であれば、ステップS41において全ての候補が常に選択されることとなり冗長であるから、ステップS41およびステップS42は省略してもよい。また、カメラを右に90度回転して縦長の画像を撮影するように設置した場合、実時間画像判定装置100はそのような画角の画像を入力として、ステップS1において、入力画像を90度回転してから、以降の処理を行ってもよい。また、道路の右側にある対象物を処理対象としてもよく、あるいは、カメラを車両の後方を撮影するように設置してもよく、さらに、その際には上記一連の処理における「左」および「右」を左右逆に読み替えて本発明を実施してもよい。また、実時間画像判定装置100の具備する機能部の一部または全部を多重に具備し、あるいは時間多重によって複数の処理を行わせることで、左右の対象物を一度に処理する実時間画像判定装置の実施としてもよい。
In the present embodiment, the
本実施の形態では、実時間画像判定装置100の対象選択部114が実行する対象選択処理は、上記述べたステップS41からステップS45によって実現することとした。本発明の範囲はこれに限るものではなく、同等の目的を達成する他の処理手順を用いて実時間画像判定装置を構成してもよい。
In this embodiment, the target selection process executed by the
例えば、対象選択部114は、複数の画像および座標位置情報を記憶できる一時記憶領域を具備し、ステップS41によって選択した矩形の座標の並びのうち一番右にある矩形の座標に対し、当該座標並びに対応する画像を前記一時記憶領域に記憶するとともに、対象選択処理の複数回の実行によって当該座標が右から左に変化することを前記一時記憶領域の記憶内容から判定し、一時記憶領域の記憶内容のうちで最も中央に座標が位置する画像を、対象選択処理における選択対象として、サブルーチンを終了する構成としてもよい。このような構成を採用した場合、一時記憶領域に一連の画像を記憶して後から当該画像を対象として選択するため、最も座標位置が適切な画像を選択できるという利点がある。一方、記憶して後から選択するという仕組みに起因して、その後の処理が一瞬遅れ、ひいてはユーザへの通知のタイミングが一瞬遅れるという問題があるが、車で走行している場合には高々1秒程度の通知の遅れであると考えられるから、本装置の目的に照らし合わせて十分許容できると考えることができる。
For example, the
本実施の形態では、実時間画像判定装置100はまずステップS1によって、その時点でカメラが撮影している画像を入力として、以降の処理を行い、ステップS9まで一連の処理を行った後、再度ステップS1に戻って、再度その時点でカメラが撮影している画像を入力として処理を行うこととした。本実施の形態はこれに限るものではなく、前記まずステップS1を行ってから前記再度ステップS1を行うまでの間に撮影されていた画像を、前記再度ステップS1を行った際に、その時点でカメラが撮影している画像の代わりに入力としてもよい。
In this embodiment, the real-time
例えば、実時間画像判定装置100は画像を保持する一定サイズのリングバッファを備え、カメラ111が撮影しているその時点の画像を、撮影した時刻の情報とともに前記リングバッファに継続的に蓄積する。実時間画像判定装置100は、まずステップS1を行う際、前記リングバッファが保持する最新の画像を取得して、入力とし、以降の処理を行う。また、このときの前記画像を取得したリングバッファの位置を記憶しておく。さらに、実時間画像判定装置100は、ステップS9までの一連の処理を行った後、再度ステップS1に戻って処理を行う際、前記記憶している前回処理した際のリングバッファの位置と、その時点での最新のリングバッファの位置を比較する。両者の位置が一定値以内であるとき、すなわち、前回の画像入力処理から一定程度以下の時間しか経過していない際には、ステップS1としてリングバッファが保持する最新の画像を取得して、入力とし、以降の処理を行う。一方、両者の位置が一定値以上であるとき、すなわち、前回の画像入力処理から一定程度以上の時間が経過している際には、ステップS1としてリングバッファが保持する情報のうち前記前回の画像入力処理の際の位置から前記一定値だけ未来に進んだ位置のリングバッファ内に保持する画像を取得して、入力とし、以降の処理を行う。
For example, the real-time
上記一連の手順を行うことによって、ステップS1からS9までの一連の処理に偶発的に長い処理時間を要した場合に、前回の入力と今回の入力との間に一定以上の時間間隔が開くことを防ぐことができるから、走行する車両等から撮影した映像において、目的とする対象物が通り過ぎてしまい検出漏れが発生するという問題を防ぐことができる利点が得られる。 By performing the above series of steps, if the series of processes from Steps S1 to S9 accidentally takes a long processing time, there will be a time interval of more than a certain amount between the previous input and the current input. Therefore, there is an advantage that it is possible to prevent the problem of a target object passing by and missing detection in an image taken from a moving vehicle or the like.
<第2の実時間画像判定装置>
上記述べた装置の構成を一部変更あるいは簡略化することにより、他の対象物を判定する第2の実時間画像判定装置を構成することもできる。本発明の実施の形態の別の一つを以下に示す。
<Second real-time image determination device>
By partially changing or simplifying the configuration of the device described above, it is also possible to configure a second real-time image determining device that determines other objects. Another embodiment of the present invention will be shown below.
図12は、第2の実時間画像判定装置の構成を示す。 FIG. 12 shows the configuration of the second real-time image determination device.
第2の実時間画像判定装置1200は、実時間画像判定装置100に対して、画像抽出部115を持たず、第2検出部116を持たない。画像抽出部115ならびに第2検出部116を持たない構成については、第2検出部116は常に検出成功するものとして、上述の説明を読み替えて第2の実時間画像判定装置1200を構成すればよい。
The second real-time
さらに、本実施の形態において、第2の実時間画像判定装置1200は、第1検出部113を構成する第1パラメータ132の学習に際して、道路上の穴(ポットホール)をアノテーションした学習データ群を用い、これによって第1検出部113は、画像からポットホールを検出するニューラルネットワークとして機能するようになるので、これを第2の実時間画像判定装置1200に組み込み、利用する。
Furthermore, in the present embodiment, the second real-time
以下、図4に沿って第2の実時間画像判定装置1200の動作を簡単に説明する。第2の実時間画像判定装置1200は、カメラ111を進行方向に向けて道路を撮影した画像を入力し(ステップS1)、画像削減部112は、入力した画像を縮小して情報量を削減し(ステップS2)、第1検出部113は画像からポットホールを検出する(ステップS3)。
The operation of the second real-time
対象選択部114は、適切な位置で検出されたポットホールを以降の処理対象として選択する(ステップS4)。具体的には、図5のステップS42およびステップS43において、X座標ではなく、Y座標の範囲を用いて、前記一定範囲ならびに前記第2の一定範囲を指定するものとする。カメラ111を進行方向に向けて道路を撮影した画像では、ポットホールは遠方から手前に移動する。つまり、画像上でポットホールは上から下に移動する。画像上で下方にあるポットホールは走行位置に近く、大きく映る。Y座標を用いて一定範囲を指定し、一定範囲の上方の範囲を第2の一定範囲に指定する。第1検出部113が第2の一定範囲においてポットホールを検出した後、検出したポットホールが第2の一定範囲を出て下方に移動した時点で、そのポットホールを後段の処理対象として選択する。
The
第2の実時間画像判定装置1200は、画像抽出部115ならびに第2検出部116を持たないので、ステップS4で選択対象ありと判定されると、ステップS5,S6の処理を実行せずに常に検出成功するものとして、枠描画処理(ステップS7)、結果通知処理(ステップS8)、および、結果記憶処理(ステップS9)を実行する。
Since the second real-time
以上述べた第2の実時間画像判定装置1200について、動作の意図を以下に述べる。道路のパトロールを行う際、ポットホールは自転車の転倒など重篤な事故の原因になりうるから、見逃さずその場で発見してパトロール者が適切な対処を行えるようにするとともに、対処しきれなかったポットホールも含めて後日報告をまとめたいという要請がある。第2の実時間画像判定装置1200は、そのようなパトロール車両に設置してパトロール者に適切な情報を提示できる。道路を走行していると、ポットホールがあった場合、最初は遠方に見えており、走行につれて徐々に手前に見えてくるから、画像の座標で表現すればY座標が上方から下方に移動すると表現できる。市民にとって危険なほど大きく破損したポットホールは、見た目も大きく破損しており、画像削減部112によって画像サイズを小さくしたリサイズ後の画像であってもニューラルネットワークを用いて十分な精度で発見することができる。また、ポットホールには種別を分類したいという特段の要請はなく、また特に、特別な種類のポットホールの場合だけ通知を受けたいといった特段の要請がないから、第2検出部116によってポットホールがいずれのクラスに属するかをさらに詳細に判定する必要はなく、このため第2の実時間画像判定装置1200は第2検出部116ならびにその入力を生成する機能部である画像抽出部115は割愛できる。
The intention of the operation of the second real-time
上記では、実時間画像判定装置100として電柱の営巣を判定する装置の実施を、さらに、第2の実時間画像判定装置1200として道路舗装のポットホールを判定する装置の実施を、それぞれ示した。本発明の範囲はこれに限るものではなく、移動する視点から撮影した画像を実時間で連続的に判定して通知を行う様々な用途に用いることができる。
In the above, the real-time
例えば、実時間画像判定装置100は、対象物として、電力線、通信線、交通信号機、および交通標識のうち少なくともいずれかを設置する電柱もしくは電柱に類する道路周辺構造物を検出し、構造物の表面のひび割れやコンクリートの剥がれや鉄筋の露出や金属のサビや浮遊物の付着(ロープや凧など)を判定できる。また、第2の実時間画像判定装置1200は、道路の舗装のヒビ、落下物、岩石(落石等)、土砂(土砂崩れ等)、動物(死骸等を含む)を判定できる。また、カメラは乗用車に搭載するだけでなく、自転車、バイク、固定軌道を走行する車両(鉄道等)、歩行者、その他の移動する物体に搭載して撮影してもよい。さらに、これらに限ることなく、ニューラルネットワークの学習を適切に行うことで、本発明の装置はさまざまな用途へと転用が可能である。
For example, the real-time
本発明の装置はコンピュータとプログラムによっても実現でき、プログラムを記録媒体に記録することも、ネットワークを通して提供することも可能である。具体的には、上記説明した実時間画像判定装置100,1200には、例えば、CPU(Central Processing Unit、プロセッサ)と、メモリと、ストレージ(HDD:Hard Disk Drive、SSD:Solid State Drive)と、通信装置と、入力装置と、出力装置とを備える汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上にロードされた実時間画像判定装置100用のプログラムを実行することにより、実時間画像判定装置100,1200の各機能が実現される。また、実時間画像判定装置100,1200用のプログラムは、HDD、SSD、USBメモリ、CD-ROM、DVD-ROM、MOなどのコンピュータ読取り可能な記録媒体に記憶することも、ネットワークを介して配信することもできる。
The apparatus of the present invention can also be realized by a computer and a program, and the program can be recorded on a recording medium or provided through a network. Specifically, the real-time
また、本発明は上記実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。 Further, the present invention is not limited to the above-described embodiments, and many modifications can be made within the scope of the invention.
100,1200…実時間画像判定装置
101…GPS装置
111…カメラ
112…画像削減部
113…第1検出部
114…対象選択部
115…画像抽出部
116…第2検出部
117…枠描画部
118…通知部
119…結果記憶部
120…結果表示部
131…ニューラルネットワーク
132…第1パラメータ
141…ニューラルネットワーク
142…第2パラメータ
100, 1200...Real-time
Claims (6)
前記時系列順の画像と前記対象物の画像上での検出位置を一時的に保持する画像記憶部と、
前記時系列順の画像から同一の前記対象物を1回のみ選択する対象選択部と、
選択された前記対象物について通知または検出結果の記憶の少なくともいずれかを実行する処理部を有し、
前記時系列順の画像は、進行方向に対して横あるいは斜め前を撮影した画像であり、
前記対象選択部は、前記時系列順の画像における前記対象物の画像上での検出位置の移動方向に基づいて前記対象物の同一性を判定し、前記検出位置が特定方向へ移動する前記対象物について、前記画像記憶部の記憶内容のうちで前記対象物の検出位置が最も画像の中央に位置する前記画像から前記対象物を選択すること
を特徴とする画像判定装置。 a detection unit that inputs images taken in chronological order from a moving viewpoint and detects a target object from the images;
an image storage unit that temporarily stores the chronologically ordered images and the detected position of the object on the image;
an object selection unit that selects the same object only once from the images in the chronological order;
a processing unit configured to perform at least either notification or storage of detection results regarding the selected target object;
The images in chronological order are images taken horizontally or diagonally in front of the traveling direction,
The object selection unit determines the identity of the object based on the moving direction of the detected position of the object on the image in the chronological order, and selects the object whose detected position moves in a specific direction. An image determination device for selecting an object from among the images in which the detected position of the object is located closest to the center of the image among the contents stored in the image storage unit.
前記対象選択部は、前記対象物の画像上での検出位置あるいは画像上での大きさが適切な画像から前記対象物を選択すること
を特徴とする画像判定装置。 The image determination device according to claim 1,
The image determination device is characterized in that the target selection unit selects the target object from images in which the detected position on the image or the size of the target object on the image is appropriate.
前記検出部は、前回処理した画像と次の処理のために入力する最新の画像との間隔が長い場合には、前回処理した画像と最新の画像との間に入力した画像を前記画像記憶部から取得すること
を特徴とする画像判定装置。 The image determination device according to claim 1 or 2,
When the interval between the previously processed image and the latest image input for the next processing is long, the detection unit stores the image input between the previously processed image and the latest image in the image storage unit. An image determination device characterized in that an image is acquired from.
前記対象物は、舗装のポットホール、舗装のひび割れ、落下物、岩石、土砂、および道路上の動物のうち少なくともいずれかを含む道路上の不具合であること
を特徴とする画像判定装置。 The image determination device according to any one of claims 1 to 3,
The image determination device is characterized in that the object is a defect on the road including at least one of potholes in the pavement, cracks in the pavement, fallen objects, rocks, earth and sand, and animals on the road.
移動する視点から撮影した時系列順の画像を入力し、前記画像から対象物を検出するステップと、
画像記憶部に前記時系列順の画像と前記対象物の画像上での検出位置を一時的に保持するステップと、
前記時系列順の画像から同一の前記対象物を1回のみ選択するステップと、
選択された前記対象物について通知または検出結果の記憶の少なくともいずれかを実行するステップを有し、
前記時系列順の画像は、進行方向に対して横あるいは斜め前を撮影した画像であり、
前記選択するステップでは、前記時系列順の画像における前記対象物の画像上での検出位置の移動方向に基づいて前記対象物の同一性を判定し、前記検出位置が特定方向へ移動する前記対象物について、前記画像記憶部の記憶内容のうちで前記対象物の検出位置が最も画像の中央に位置する前記画像から前記対象物を選択すること
を特徴とする画像判定方法。 An image determination method executed by a computer, the method comprising:
inputting images taken in chronological order from a moving viewpoint and detecting an object from the images;
temporarily retaining the chronologically ordered images and the detected position of the object on the image in an image storage unit;
selecting the same object only once from the chronologically ordered images;
carrying out at least one of notification and storage of detection results regarding the selected object;
The images in chronological order are images taken horizontally or diagonally in front of the traveling direction,
In the selecting step, the identity of the object is determined based on the moving direction of the detected position of the object on the image in the chronological order, and the object whose detected position moves in a specific direction An image determination method comprising: selecting an object from an image in which a detected position of the object is located closest to the center of the image among the contents stored in the image storage unit.
移動する視点から撮影した時系列順の画像を入力し、前記画像から対象物を検出する処理と、
画像記憶部に前記時系列順の画像と前記対象物の画像上での検出位置を一時的に保持する処理と、
前記時系列順の画像から同一の前記対象物を1回のみ選択する処理と、
選択された前記対象物について通知または検出結果の記憶の少なくともいずれかを実行する処理を実行させ、
前記時系列順の画像は、進行方向に対して横あるいは斜め前を撮影した画像であり、
前記選択する処理では、前記時系列順の画像における前記対象物の画像上での検出位置の移動方向に基づいて前記対象物の同一性を判定し、前記検出位置が特定方向へ移動する前記対象物について、前記画像記憶部の記憶内容のうちで前記対象物の検出位置が最も画像の中央に位置する前記画像から前記対象物を選択すること
を特徴とするプログラム。 to the computer,
A process of inputting images taken in chronological order from a moving viewpoint and detecting a target object from the images;
a process of temporarily retaining the chronologically ordered images and the detected position of the object on the image in an image storage unit;
a process of selecting the same object only once from the images in the chronological order;
causing a process to execute at least one of notification and storage of detection results regarding the selected target object;
The images in chronological order are images taken horizontally or diagonally in front of the traveling direction,
In the selection process, the identity of the object is determined based on the moving direction of the detected position of the object on the image in the chronological order, and the object whose detected position moves in a specific direction is determined. A program for selecting an object from among the images in which the detected position of the object is located closest to the center of the image among the contents stored in the image storage unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020049444A JP7356383B2 (en) | 2020-03-19 | 2020-03-19 | Image judgment device, image judgment method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020049444A JP7356383B2 (en) | 2020-03-19 | 2020-03-19 | Image judgment device, image judgment method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021149592A JP2021149592A (en) | 2021-09-27 |
JP7356383B2 true JP7356383B2 (en) | 2023-10-04 |
Family
ID=77848938
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020049444A Active JP7356383B2 (en) | 2020-03-19 | 2020-03-19 | Image judgment device, image judgment method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7356383B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7369316B1 (en) * | 2023-02-27 | 2023-10-25 | 株式会社安部日鋼工業 | Identification system and method using concrete as an authentication code |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011108052A1 (en) | 2010-03-03 | 2011-09-09 | パナソニック株式会社 | Road condition management system and road condition management method |
JP2013008070A (en) | 2009-10-20 | 2013-01-10 | Panasonic Corp | Sign recognition device and sign recognition method |
WO2015136874A1 (en) | 2014-03-13 | 2015-09-17 | パナソニックIpマネジメント株式会社 | Display control device, display device, display control program, display control method, and recording medium |
-
2020
- 2020-03-19 JP JP2020049444A patent/JP7356383B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013008070A (en) | 2009-10-20 | 2013-01-10 | Panasonic Corp | Sign recognition device and sign recognition method |
WO2011108052A1 (en) | 2010-03-03 | 2011-09-09 | パナソニック株式会社 | Road condition management system and road condition management method |
WO2015136874A1 (en) | 2014-03-13 | 2015-09-17 | パナソニックIpマネジメント株式会社 | Display control device, display device, display control program, display control method, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP2021149592A (en) | 2021-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7218535B2 (en) | Traffic violation vehicle identification system and server | |
JP7070683B2 (en) | Deterioration diagnosis device, deterioration diagnosis system, deterioration diagnosis method, program | |
CN106611512B (en) | Method, device and system for processing starting of front vehicle | |
DE112010005395B4 (en) | Road vehicle cooperative Driving Safety Unterstützungsvorrrichtung | |
CN109345829B (en) | Unmanned vehicle monitoring method, device, equipment and storage medium | |
JP6006215B2 (en) | Visualization of images in existing still images | |
KR102001002B1 (en) | Method and system for recognzing license plate based on deep learning | |
CN104952123A (en) | Vehicle-mounted equipment installed on vehicle as well as related equipment and method | |
CN110580808B (en) | Information processing method and device, electronic equipment and intelligent traffic system | |
CN110032947B (en) | Method and device for monitoring occurrence of event | |
JP3817631B2 (en) | Road warning detection device | |
JP6653361B2 (en) | Road marking image processing apparatus, road marking image processing method, and road marking image processing program | |
EP3934232A1 (en) | Imaging system | |
JP5962898B2 (en) | Driving evaluation system, driving evaluation method, and driving evaluation program | |
CN111985388B (en) | Pedestrian attention detection driving assistance system, device and method | |
Kilicarslan et al. | Visualizing driving video in temporal profile | |
JP7356383B2 (en) | Image judgment device, image judgment method, and program | |
JP7340484B2 (en) | Image judgment device, image judgment method, and program | |
JP6387838B2 (en) | Traffic violation management system and traffic violation management method | |
JP7293174B2 (en) | Road Surrounding Object Monitoring Device, Road Surrounding Object Monitoring Program | |
CN111383248A (en) | Method and device for judging red light running of pedestrian and electronic equipment | |
CN106251622A (en) | Vehicle road monitor evidence collecting method and system thereof | |
CN114913470B (en) | Event detection method and device | |
JP6235956B2 (en) | Image composition method, program, and apparatus | |
JP4697761B2 (en) | Queue detection method and queue detection apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220304 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230501 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230911 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230919 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230922 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7356383 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |