JP7356383B2 - Image judgment device, image judgment method, and program - Google Patents

Image judgment device, image judgment method, and program Download PDF

Info

Publication number
JP7356383B2
JP7356383B2 JP2020049444A JP2020049444A JP7356383B2 JP 7356383 B2 JP7356383 B2 JP 7356383B2 JP 2020049444 A JP2020049444 A JP 2020049444A JP 2020049444 A JP2020049444 A JP 2020049444A JP 7356383 B2 JP7356383 B2 JP 7356383B2
Authority
JP
Japan
Prior art keywords
image
images
detected position
determination device
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020049444A
Other languages
Japanese (ja)
Other versions
JP2021149592A (en
Inventor
隆幸 中村
俊彦 原田
雅稔 井藤
輝 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Comware Corp
Original Assignee
NTT Comware Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Comware Corp filed Critical NTT Comware Corp
Priority to JP2020049444A priority Critical patent/JP7356383B2/en
Publication of JP2021149592A publication Critical patent/JP2021149592A/en
Application granted granted Critical
Publication of JP7356383B2 publication Critical patent/JP7356383B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、移動する視点から撮影した画像を処理して、実時間で判定を行う装置に関する。 The present invention relates to an apparatus that processes images taken from a moving viewpoint and makes decisions in real time.

従来、車にカメラを設置して動画あるいは連続的な静止画といった画像を撮影し、撮影した画像データをニューラルネットワークを用いたAIで分析して、各種の不具合事象の判定を行うという技術があった。 Conventionally, there has been a technology in which a camera is installed in a car to take images such as videos or continuous still images, and the captured image data is analyzed using AI using neural networks to determine various malfunctions. Ta.

例えば、特許文献1では、道路舗装のひび割れをAIによって検出し、損傷度合いを算出して、算出結果を地図上に描画する装置が開示されている。 For example, Patent Document 1 discloses a device that uses AI to detect cracks in road pavement, calculates the degree of damage, and draws the calculation results on a map.

特許第6516384号公報Patent No. 6516384

走行する車にカメラを設置し、装置によって実時間で判定処理を行わせることで、車が走行しているその場で対象物を発見し、車を運転する者にその場で通知を行って、対応を促したいという要求がある。 By installing a camera on a moving car and having the device perform judgment processing in real time, objects can be detected while the car is moving, and the person driving the car can be notified on the spot. , there are demands to encourage response.

具体的には、例えば、電柱に鳥の巣(営巣)が作られていないかを車を巡回走行してパトロールを行い、もし営巣が発見されれば、漏電など重篤な災害が今すぐ発生する危険があるから、パトロールを行う者は車を停止して、その場で営巣を除去する作業を実施したいという要求がある。 Specifically, for example, we use cars to patrol telephone poles to check for bird nests.If a nest is discovered, a serious disaster such as an electrical leak can occur immediately. Because of the danger of nesting, there is a demand for patrollers to stop their vehicles and remove nests on the spot.

また、例えば、道路の舗装にポットホール(穴)が発生していないかを車を巡回走行してパトロールを行い、もし穴が発見されれば、通行者の転倒など重篤な災害が今すぐ発生する危険があるから、パトロールを行う者は車を停止して、その場で穴を埋める作業を実施したいという要求がある。 For example, we use cars to patrol road pavements to check for potholes, and if a pothole is found, a serious accident such as a fall of a passerby can occur immediately. Because of the danger of this occurring, there is a demand for patrollers to stop their vehicles and fill in the holes on the spot.

また、パトロールの際には、その場で即時に対処作業を行う場合もある一方で、重篤な災害が今すぐ発生する危険が比較的高くないとパトロールを行う者が判断した場合には、パトロール中に発見した結果を持ち帰り、事後に発見した結果をとりまとめて、工事などの対処を専門の部署に対して依頼するという業務も行われており、これに用いるためにパトロール中に発見した結果を持ち帰り事後に結果をとりまとめて確認したいという要求がある。さらに前記結果の確認は、可能な限り、パトロール終了後の短い時間内にて行えることが望ましい。 In addition, while patrols may involve immediate response work on the spot, if the patroller determines that the risk of a serious disaster occurring immediately is not relatively high, There is also a task of bringing back the results discovered during patrols, compiling the results discovered after the fact, and requesting a specialized department to deal with construction etc., and for use in this purpose. There is a demand to collect and confirm the results after the test is taken home. Further, it is desirable that the results be confirmed within as short a time as possible after the end of the patrol.

従来、撮影した画像データをAIによって分析する技術においては、実時間で分析して通知が行えないという問題があった。 Conventionally, technology for analyzing photographed image data using AI has had a problem in that analysis and notification cannot be performed in real time.

実時間で分析が行えない要因の一つは、撮影した画像データを記録媒体として持ち帰り、GPSによる位置情報を記録した媒体と合わせて、分析用装置に入力し、分析を行うという装置構成にあった。このため、車を走行して撮影する業務段階と、走行の事後に当該装置によって分析を行う業務段階とが分かれており、実時間での分析が行えなかった。 One of the reasons why analysis cannot be performed in real time is due to the equipment configuration, in which the captured image data is taken home as a recording medium, and is input into the analysis equipment along with the media containing the GPS location information for analysis. Ta. For this reason, there is a separation between the business stage of driving the car and photographing it, and the business stage of performing analysis using the device after driving, making it impossible to perform analysis in real time.

また、実時間で分析が行えない要因の別の一つは、分析装置が内部で用いるニューラルネットワークが、計算量を要する処理であり、多数の入力画像に対して処理速度が追い付かず、このため実時間での分析が行えなかった。 Another reason why analysis cannot be performed in real time is that the neural network used internally by the analyzer requires a large amount of calculation, and the processing speed cannot keep up with the large number of input images. Analysis could not be performed in real time.

また、従来、撮影した画像データをAIによって分析する技術においては、データを持ち帰って分析を開始してから分析が完了するまでに多くの計算量を要するため、時間を要し、このためパトロール終了後の短い時間内に結果を確認することができないという問題があった。 In addition, conventional technology that uses AI to analyze captured image data requires a large amount of calculations from the time the data is brought back and analysis is started until the analysis is completed, which takes time, resulting in the end of the patrol. There was a problem that the results could not be confirmed within a short period of time.

本発明は以上の課題を鑑みたものであり、本発明の目的は、移動する視点から撮影した画像を入力とし、実時間で対象物の判定を行って利用者に通知を行うとともに、判定した結果の一覧を速やかに表示する技術を提供することにある。 The present invention has been developed in consideration of the above-mentioned problems, and an object of the present invention is to use an image taken from a moving viewpoint as input, judge the object in real time, notify the user, and The purpose of the present invention is to provide a technology for quickly displaying a list of results.

本発明の一態様の画像判定装置は、移動する視点から撮影した時系列順の画像を入力し、前記画像から対象物を検出する検出部と、前記時系列順の画像と前記対象物の画像上での検出位置を一時的に保持する画像記憶部と、前記時系列順の画像から同一の前記対象物を1回のみ選択する対象選択部と、選択された前記対象物について通知または検出結果の記憶の少なくともいずれかを実行する処理部を有し、前記時系列順の画像は、進行方向に対して横あるいは斜め前を撮影した画像であり、前記対象選択部は、前記時系列順の画像における前記対象物の画像上での検出位置の移動方向に基づいて前記対象物の同一性を判定し、前記検出位置が特定方向へ移動する前記対象物について、前記画像記憶部の記憶内容のうちで前記対象物の検出位置が最も画像の中央に位置する前記画像から前記対象物を選択することを特徴とする。 An image determination device according to one aspect of the present invention includes a detection unit that inputs images in chronological order taken from a moving viewpoint and detects a target object from the images, and an image of the images in the chronological order and the image of the target object. an image storage unit that temporarily stores the detected position, an object selection unit that selects the same object only once from the images in the chronological order, and a notification or detection result regarding the selected object. The image in the chronological order is an image taken horizontally or diagonally in front of the traveling direction, and the target selection unit is configured to store the images in the chronological order. The identity of the object is determined based on the moving direction of the detected position of the object in the image, and the storage contents of the image storage unit are determined for the object whose detected position moves in a specific direction. The object is selected from among the images in which the detected position of the object is located closest to the center of the image.

本発明の一態様の画像判定方法は、コンピュータが実行する画像判定方法であって、移動する視点から撮影した時系列順の画像を入力し、前記画像から対象物を検出するステップと、画像記憶部に前記時系列順の画像と前記対象物の画像上での検出位置を一時的に保持するステップと、前記時系列順の画像から同一の前記対象物を1回のみ選択するステップと、選択された前記対象物について通知または検出結果の記憶の少なくともいずれかを実行するステップを有し、前記時系列順の画像は、進行方向に対して横あるいは斜め前を撮影した画像であり、前記選択するステップでは、前記時系列順の画像における前記対象物の画像上での検出位置の移動方向に基づいて前記対象物の同一性を判定し、前記検出位置が特定方向へ移動する前記対象物について、前記画像記憶部の記憶内容のうちで前記対象物の検出位置が最も画像の中央に位置する前記画像から前記対象物を選択することを特徴とする。 An image determination method according to one aspect of the present invention is an image determination method executed by a computer, and includes the steps of inputting images taken in chronological order from a moving viewpoint, detecting a target object from the images, and storing images. a step of temporarily holding the images in the chronological order and the detected position of the object on the image; a step of selecting the same object only once from the images in the chronological order; the selected target object, and the chronologically ordered images are images taken horizontally or diagonally in front of the traveling direction; In the step of determining the identity of the object based on the moving direction of the detected position on the image of the object in the chronological order images, for the object whose detected position moves in a specific direction. , the object is selected from the image in which the detected position of the object is located closest to the center of the image among the contents stored in the image storage section.

本発明の一態様のプログラムは、コンピュータに、移動する視点から撮影した時系列順の画像を入力し、前記画像から対象物を検出する処理と、画像記憶部に前記時系列順の画像と前記対象物の画像上での検出位置を一時的に保持する処理と、前記時系列順の画像から同一の前記対象物を1回のみ選択する処理と、選択された前記対象物について通知または検出結果の記憶の少なくともいずれかを実行する処理を実行させ、前記時系列順の画像は、進行方向に対して横あるいは斜め前を撮影した画像であり、前記選択する処理では、前記時系列順の画像における前記対象物の画像上での検出位置の移動方向に基づいて前記対象物の同一性を判定し、前記検出位置が特定方向へ移動する前記対象物について、前記画像記憶部の記憶内容のうちで前記対象物の検出位置が最も画像の中央に位置する前記画像から前記対象物を選択することを特徴とする。 A program according to one aspect of the present invention includes a process of inputting chronologically ordered images taken from a moving viewpoint into a computer, detecting a target object from the images, and storing the chronologically ordered images and the A process of temporarily retaining the detected position of the object on the image, a process of selecting the same object only once from the images in the chronological order, and a notification or detection result about the selected object. The images in chronological order are images taken horizontally or diagonally in front of the traveling direction, and in the selecting process, the images in chronological order are The identity of the object is determined based on the moving direction of the detected position of the object on the image of the object, and for the object whose detected position moves in a specific direction, among the contents stored in the image storage unit, The object is selected from the image in which the detected position of the object is located closest to the center of the image.

本発明によれば、移動する視点から撮影した画像を入力とし、実時間で対象物の判定を行って利用者に通知を行うとともに、判定した結果の一覧を速やかに表示する装置を提供することができる。 According to the present invention, it is possible to provide a device that receives an image taken from a moving viewpoint as input, determines an object in real time, notifies the user, and promptly displays a list of the determined results. I can do it.

実時間画像判定装置の構成を示す構成図である。FIG. 1 is a configuration diagram showing the configuration of a real-time image determination device. 第1検出部が用いる第1パラメータの学習に用いる画像の例である。This is an example of an image used for learning the first parameter used by the first detection unit. 第2検出部が用いる第2パラメータの学習に用いる画像の例である。This is an example of an image used for learning the second parameter used by the second detection unit. 実時間画像判定装置の動作を示すフローチャートである。3 is a flowchart showing the operation of the real-time image determination device. 対象選択部の動作を示すフローチャートである。It is a flowchart which shows operation of an object selection part. カメラ撮影画像の例である。This is an example of an image taken by a camera. 第1の検出処理の結果を示す図である。It is a figure showing the result of the 1st detection processing. 画像抽出処理の結果を示す図である。It is a figure which shows the result of image extraction processing. 枠描画処理の結果を示す図である。It is a figure which shows the result of a frame drawing process. 通知の例を示す図である。It is a figure which shows the example of a notification. 結果表示画面の例を示す図である。It is a figure which shows the example of a result display screen. 第2の実時間画像判定装置の構成を示す構成図である。FIG. 2 is a configuration diagram showing the configuration of a second real-time image determination device.

本発明の実施の形態の一つを以下に示す。 One embodiment of the present invention is shown below.

<実時間画像判定装置の構成>
図1は、本実施の形態における実時間画像判定装置の構成を示す。
<Configuration of real-time image judgment device>
FIG. 1 shows the configuration of a real-time image determination device in this embodiment.

実時間画像判定装置100は、画像削減部112、第1検出部113、対象選択部114、画像抽出部115、第2検出部116、枠描画部117、通知部118、結果記憶部119、および、結果表示部120を備える。 The real-time image determination device 100 includes an image reduction section 112, a first detection section 113, a target selection section 114, an image extraction section 115, a second detection section 116, a frame drawing section 117, a notification section 118, a result storage section 119, and , a result display section 120.

カメラ111は、走行する車に取り付け、前方を撮影するように設置する。実時間画像判定装置100は、カメラ111で撮影した画像を入力とする。 The camera 111 is attached to a running car and is installed to take pictures of the front. The real-time image determination device 100 receives an image captured by the camera 111 as input.

また、GPS装置101を用意し、記録したGPSのログを、実時間画像判定装置100への入力とする。GPSのログは、時刻ごとの緯度および経度が記載された情報である。このようなログを記録するGPS装置は市販されており、あるいは、GPS内蔵ドライブレコーダーを用いてもよい。あるいは、GPS測位機能を実時間画像判定装置100内に具備してもよい。 Further, a GPS device 101 is prepared, and recorded GPS logs are input to the real-time image determination device 100. The GPS log is information that describes latitude and longitude at each time. GPS devices that record such logs are commercially available, or a drive recorder with a built-in GPS may be used. Alternatively, the real-time image determination device 100 may include a GPS positioning function.

画像削減部112は、入力された画像を縮小して情報量を削減する。 The image reduction unit 112 reduces the amount of information by reducing the input image.

第1検出部113は、ニューラルネットワーク131に、予め学習させた結果得られる第1パラメータ132を与えて構成され、画像削減部112により情報量が削減された画像から対象物を検出する。 The first detection unit 113 is configured by providing a first parameter 132 obtained as a result of pre-learning to a neural network 131, and detects a target object from an image whose information amount has been reduced by the image reduction unit 112.

ニューラルネットワーク131には、物体検出ニューラルネットワークを用いる。物体検出ニューラルネットワークとは、深層学習(ディープラーニング)の技術を用いて、与えられた入力画像の中から、予め学習させた物体の1つ以上の存在を検出して、その存在を取り囲む矩形の位置座標を得ることができる手法である。このような手法として、R-CNN、Faster R-CNN、Single Shot MultiBox Detectorなどが公表されており、実装もオープンソース等で利用可能である。 The neural network 131 uses an object detection neural network. An object detection neural network uses deep learning technology to detect the presence of one or more pre-trained objects in a given input image, and to detect the presence of a rectangle surrounding that presence. This is a method that allows you to obtain location coordinates. R-CNN, Faster R-CNN, Single Shot MultiBox Detector, etc. have been published as such methods, and implementations are also available as open sources.

本実施の形態では、実時間画像判定装置100の製造段階において、ニューラルネットワーク131の学習機能に対して検出対象に関する様々な画像を入力して学習を行わせ、学習の結果として得られる学習結果データを第1パラメータ132として実時間画像判定装置100に組み込み、利用する。 In this embodiment, at the manufacturing stage of the real-time image determination device 100, various images related to the detection target are input to the learning function of the neural network 131 to perform learning, and the learning result data obtained as a result of the learning is is incorporated into the real-time image determination device 100 as the first parameter 132 and used.

図2は、第1検出部113が用いる第1パラメータ132の学習に用いる画像の例である。 FIG. 2 is an example of an image used for learning the first parameter 132 used by the first detection unit 113.

画像200は、学習のために準備した画像の例であるが、学習時には、画像200のように、カメラ111が撮影するのと同様の見え方の画像を準備し、これに基づき学習を行う。画像200には、左側の白線201、右側の白線202、車両が走行する車線203が図示されている。車線203の左側に電柱210が立っており、複数本の電線が張られている。画像200の中では特に電柱210を見つけるように学習をさせたいから、当該電柱210を取り囲む矩形211をアノテーション(タグ付け)し、当該アノテーションされた画像200を学習に用いる。これと同様に、様々な電柱の画像にアノテーションを行い学習させることで、第1検出部113は、画像から電柱部分を検出するニューラルネットワークとして機能するようになるので、これを実時間画像判定装置100に組み込み、利用する。 Image 200 is an example of an image prepared for learning, but during learning, an image that looks similar to that captured by camera 111 is prepared, like image 200, and learning is performed based on this. The image 200 shows a white line 201 on the left, a white line 202 on the right, and a lane 203 in which a vehicle travels. A utility pole 210 stands on the left side of lane 203, and multiple electric wires are strung up on it. Since we want the program to learn to find the telephone pole 210 in particular in the image 200, a rectangle 211 surrounding the telephone pole 210 is annotated (tagged) and the annotated image 200 is used for learning. Similarly, by annotating and learning images of various utility poles, the first detection unit 113 functions as a neural network that detects utility pole parts from images. 100 and use it.

対象選択部114は、対象物の画像上での検出位置または画像上での大きさに基づき、後段の第2検出部116の処理対象とすべき画像および対象物を選択する。 The target selection unit 114 selects the image and target object to be processed by the second detection unit 116 at the subsequent stage, based on the detected position on the image or the size of the target object on the image.

画像抽出部115は、画像削減部112が情報量を削減していない元の画像から、対象選択部114の選択した対象物の部分画像を得る。 The image extraction unit 115 obtains a partial image of the object selected by the object selection unit 114 from the original image whose information amount has not been reduced by the image reduction unit 112.

第2検出部116は、ニューラルネットワーク141に、予め学習させた結果得られる第2パラメータ142を与えて構成され、対象物のみを取り出した部分画像を入力して、対象物を分類する。 The second detection unit 116 is configured by giving a second parameter 142 obtained as a result of pre-learning to a neural network 141, inputs a partial image in which only the target object is extracted, and classifies the target object.

ニューラルネットワーク141には、画像判定ニューラルネットワークを用いる。画像判定ニューラルネットワークとは、深層学習(ディープラーニング)の技術を用いて、与えられた入力画像が、予め学習させた複数の画像クラスのうちいずれのクラスに最も近いかを判定できる手法である。このような手法として、resnet、vgg16などが公表されており、実装もオープンソース等で利用可能である。 The neural network 141 uses an image judgment neural network. An image determination neural network is a method that uses deep learning technology to determine which class a given input image is closest to among a plurality of pre-trained image classes. As such methods, resnet, vgg16, etc. have been published, and implementations are also available as open sources.

本実施の形態では、実時間画像判定装置100の製造段階において、ニューラルネットワーク141の学習機能に対して検出対象に関する様々な画像を入力して学習を行わせ、学習の結果として得られる学習結果データを第2パラメータ142として実時間画像判定装置100に組み込み、利用する。 In this embodiment, at the manufacturing stage of the real-time image determination device 100, various images related to the detection target are input to the learning function of the neural network 141 to perform learning, and the learning result data obtained as a result of the learning is is incorporated into the real-time image determination apparatus 100 as the second parameter 142 and used.

図3は、第2検出部が用いる第2パラメータの学習に用いる画像の例である。 FIG. 3 is an example of an image used for learning the second parameter used by the second detection unit.

学習は、検出成功を示すA群と、検出失敗を示すB群の、2つのクラスに分けて行う。画像300はA群の例であり、電柱301を取り囲む矩形範囲を画像の全体として、かつ、当該電柱には営巣302(鳥の巣)ができている特徴をもつ。一方、画像310はB群の例であり、電柱311を取り囲む矩形範囲を画像の全体として、かつ、当該電柱には営巣(鳥の巣)が存在しない。 Learning is performed by dividing into two classes: group A, which indicates successful detection, and group B, which indicates failed detection. Image 300 is an example of Group A, and has the feature that the entire image is a rectangular area surrounding a utility pole 301, and that a nest 302 (bird's nest) has been formed on the utility pole. On the other hand, image 310 is an example of group B, and the entire image is a rectangular area surrounding utility pole 311, and there is no nest (bird's nest) on the utility pole.

これと同様に、様々な電柱の画像をA群もしくはB群に分類し学習させることで、第2検出部116は、カメラ撮影画像のうち電柱部分のみを取り出した部分画像を入力されると営巣がある(A群)かない(B群)かを判定するニューラルネットワークとして機能するようになるので、これを実時間画像判定装置100に組み込み、利用する。 Similarly, by classifying images of various utility poles into group A or group B for learning, the second detection unit 116 is able to nest when inputted with a partial image of only the utility pole portion of the camera-captured image. Since it functions as a neural network that determines whether something is present (group A) or not (group B), this is incorporated into the real-time image determination device 100 and utilized.

枠描画部117は、第2検出部の分類した対象物を枠で囲った画像を生成する。例えば、枠描画部117は、営巣が存在する電柱を枠で囲った画像を生成する。 The frame drawing unit 117 generates an image in which the object classified by the second detection unit is surrounded by a frame. For example, the frame drawing unit 117 generates an image in which a telephone pole containing a nest is surrounded by a frame.

通知部118は、車の運転者に対して実時間で判定結果を通知する機能を有し、音および振動および画面表示によって通知を行う。 The notification unit 118 has a function of notifying the driver of the vehicle of the determination result in real time, and performs notification by sound, vibration, and screen display.

結果記憶部119は、枠描画結果の画像と処理した時点の時刻とを記憶媒体に記憶する。結果記憶部119は、枠描画結果に対象物の位置情報を付与して記憶してもよい。 The result storage unit 119 stores the image of the frame drawing result and the time at which it was processed in a storage medium. The result storage unit 119 may add position information of the object to the frame drawing result and store the result.

結果表示部120は、判定結果を地図上に表示する機能を有し、利用者が車の走行を終了した事後に一連の判定結果を後から確認できる。 The result display unit 120 has a function of displaying the determination results on a map, so that the user can check the series of determination results later after the user has finished driving the car.

<実時間画像判定装置の動作>
実時間画像判定装置100は、カメラ111で撮影された画像のデータを入力として、以下に述べる動作を行う。
<Operation of real-time image judgment device>
The real-time image determination device 100 receives data of an image photographed by the camera 111 as input, and performs the operations described below.

図4は、実時間画像判定装置100の動作を示すフローチャートである。図5は、対象選択部114の動作を示すフローチャートである。以下では、対象物を電柱として、営巣が存在する電柱を判定する例について説明する。なお、対象物を電柱に限るものではなく、営巣が存在するか否かを判定することに限るものでもない。 FIG. 4 is a flowchart showing the operation of the real-time image determination device 100. FIG. 5 is a flowchart showing the operation of the target selection unit 114. In the following, an example will be described in which the target object is a utility pole and a utility pole in which a nest exists is determined. Note that the object is not limited to utility poles, nor is it limited to determining whether or not a nest exists.

カメラ111はその時点での画像を撮影しており、実時間画像判定装置100は、当該画像を入力とする(ステップS1)。なお、カメラ111と実時間画像判定装置100とは隣接して設置してもよいし、あるいは、無線ネットワークを通じて遠隔地に設置してもよい。 The camera 111 captures an image at that time, and the real-time image determination device 100 receives this image as input (step S1). Note that the camera 111 and the real-time image determination device 100 may be installed adjacent to each other, or may be installed at a remote location via a wireless network.

図6は、カメラ111で撮影された画像の例である。画像600は、センターラインのある2車線(片側1車線)の道路を走行している状態で撮影されており、電柱610が映っている。電柱610には営巣612が存在する。 FIG. 6 is an example of an image taken by the camera 111. The image 600 was taken while the vehicle was driving on a two-lane road (one lane on each side) with a center line, and a utility pole 610 is visible. A nest 612 exists on the utility pole 610.

画像削減部112は、入力された画像のリサイズを行い、画像を縮小して情報量を削減する(ステップS2)。 The image reduction unit 112 resizes the input image to reduce the amount of information by reducing the size of the image (step S2).

第1検出部113は、当該削減された画像を入力として電柱の検出処理を行い、検出された場合には電柱の位置を示す矩形の座標を得る(ステップS3)。なお、物体検出ニューラルネットワークは予め学習させた物体の1つ以上の存在を検出できるから、複数の電柱を検出した場合には、矩形の座標の並びを得る。 The first detection unit 113 performs utility pole detection processing using the reduced image as input, and if detected, obtains the coordinates of a rectangle indicating the position of the utility pole (step S3). Note that the object detection neural network can detect the presence of one or more objects that have been trained in advance, so if a plurality of telephone poles are detected, a rectangular coordinate arrangement is obtained.

図7は、第1の検出処理の結果を示す図である。前記画像削減処理の結果得られた画像700に対し、電柱610を検出して、矩形711を得る。 FIG. 7 is a diagram showing the results of the first detection process. A telephone pole 610 is detected in the image 700 obtained as a result of the image reduction process, and a rectangle 711 is obtained.

対象選択部114は、図5のフローチャートの手順により、前記得られた矩形の座標から対象物の同一性を判定し、後段の処理対象とすべき物体のみを選択する。 The object selection unit 114 determines the identity of the object from the coordinates of the obtained rectangle according to the procedure of the flowchart in FIG. 5, and selects only the object to be processed in the subsequent stage.

すなわち、対象選択部114は、前記得られた矩形の座標の並びに対し、X座標が画像全体の一定範囲に全部もしくは一部が存在するような矩形のみを選別する(ステップS41)。もし、並びが空集合となった場合には、選択対象なしとしてサブルーチンを終了する(ステップS42)。 That is, the target selection unit 114 selects only rectangles whose X coordinates are wholly or partially within a certain range of the entire image from the obtained rectangular coordinate arrangement (step S41). If the list is an empty set, there is no selection target and the subroutine ends (step S42).

前記一定範囲とは、画角(カメラによる撮影の構図)に応じて予め定めた定数値でもよく、また特に、車の走行に合わせて最初に対象物が現れる点Pと、車の走行に合わせて最後に対象物が撮影範囲外になる点Qとで構成される区間に相当する固定範囲であってもよい。画像700の例では、点Pから点Qの区間に対応するX座標で示される第1範囲を一定範囲としている。 The above-mentioned certain range may be a constant value predetermined according to the angle of view (the composition of the photograph taken by the camera), and in particular, the point P where the object first appears as the car moves, and It may also be a fixed range corresponding to a section consisting of a point Q where the object is finally outside the photographing range. In the example of the image 700, the first range indicated by the X coordinate corresponding to the section from point P to point Q is set as a fixed range.

次に、対象選択部114は、前記得られた矩形の座標の並びのうち一番右にある矩形の座標に対し、X座標が画像全体の第2の一定範囲に全部もしくは一部が存在する場合、「処理済み」フラグを0にクリアして、選択対象なしとしてサブルーチンを終了する(ステップS43)。 Next, the target selection unit 114 determines that, for the coordinates of the rightmost rectangle among the obtained rectangular coordinates, the X coordinates are wholly or partially within a second fixed range of the entire image. If so, the "processed" flag is cleared to 0, and the subroutine is ended as there is no selection target (step S43).

前記第2の一定範囲とは、前記一定範囲内の一部の範囲であって、特に、車の走行に合わせて最初に対象物が現れる点Pもしくはそれに近い側において設定される一定の範囲のことであってもよく、例えば、前記点Pと前記点Qとを1対2の比率で区分する点Rに対して、点Pから点Rまでで構成される区間に相当する固定範囲であってもよい。画像700の例では、点Pから点Rの区間に対応するX座標で示される第2範囲を第2の一定範囲としている。 The second certain range is a part of the certain range, and in particular, a certain range set at or near the point P where the object first appears as the car travels. For example, for a point R that divides the point P and the point Q at a ratio of 1:2, it may be a fixed range that corresponds to the section from point P to point R. It's okay. In the example of the image 700, the second range indicated by the X coordinate corresponding to the section from point P to point R is set as the second fixed range.

次に、対象選択部114は、前記得られた矩形の座標の並びのうち一番右にある矩形の座標に対し、「処理済み」フラグが1であった場合には、選択対象なしとしてサブルーチンを終了する(ステップS44)。 Next, if the "processed" flag is 1 for the coordinates of the rightmost rectangle among the array of coordinates of the obtained rectangles, the target selection unit 114 determines that there is no selection target and executes a subroutine. The process ends (step S44).

次に、対象選択部114は、「処理済み」フラグを1にして、かつ、前記得られた矩形の座標の並びのうち一番右にある矩形の座標を選択対象として、サブルーチンを終了する(ステップS45)。 Next, the target selection unit 114 sets the "processed" flag to 1, sets the coordinates of the rightmost rectangle among the obtained rectangular coordinates as the selection target, and ends the subroutine ( Step S45).

なお、対象選択部114が用いる「処理済み」フラグは、実時間画像判定装置100の起動時に、0にクリアしておくものとする。 Note that the “processed” flag used by the target selection unit 114 is cleared to 0 when the real-time image determination device 100 is started.

ここで、対象選択処理における上記一連の手順の意味について述べる。対象選択処理は、走行する車から撮影した画像を実時間で連続的に繰り返し処理する際、対象を発見した旨の通知はカメラの撮影がもっとも鮮明にできている箇所すなわち有効撮影範囲の中央付近に対象物が来た際に行われ、かつ、通知は同一対象物の発見に関して一回のみ行うこととしたいため、左記要求をステップS41からステップS45によって実現できる。 Here, the meaning of the above series of steps in the target selection process will be described. In the target selection process, when images taken from a moving car are continuously and repeatedly processed in real time, the notification that a target has been found is sent to the location where the camera can capture the clearest image, i.e. near the center of the effective shooting range. Since it is desired that the notification is performed when an object arrives at , and the notification is to be made only once for the discovery of the same object, the request described on the left can be realized by steps S41 to S45.

ステップS41からステップS42では、検出対象とする電柱は道路の左側に映っているもののみとし、かつ、遠近法に基づく撮影画像で最初は遠方の消失点付近に映っていたものが、徐々に近づいて大きな画像となっていくような対象物に対して、処理対象とすることを意図している。 In steps S41 and S42, the only utility poles to be detected are those appearing on the left side of the road, and those that are initially seen near the vanishing point in the distance in the photographed image based on perspective gradually approach. It is intended to be used for processing objects that become large images.

そして、ステップS43では、対象物が画像の中央付近に来た時点で、初めて、後続の処理を行わせることを意図している。中央付近とは、ここでは画像を左と中央と右の大きく3分割し、対象物が右区間を越えて中央区間に差し掛かった際に一度だけ処理すれば、撮影した画像を実時間で連続的に繰り返し処理する際に発生する一回の一連の処理あたりの計算時間がある程度所要し、それに起因して対象物が中央区間に差し掛かった直後に撮影されたカメラ画像を処理することが叶わず、対象物が中央区間に差し掛かってある程度時間が経過した後に撮影されたカメラ画像を処理することとなったとしても、対象物は中央区間の範囲内のいずれかに存在した状態で撮影されたカメラ画像を処理することができるから、前記述べた画像の中央付近に来た時点で初めて後続の処理を行わせるという意図を実現することができる。 In step S43, the subsequent processing is intended to be performed only when the object comes near the center of the image. Near the center means that the image is roughly divided into three parts: left, center, and right, and the captured images can be processed continuously in real time by processing only once when the object crosses the right section and enters the center section. A certain amount of calculation time is required for each series of processing that occurs when processing repeatedly, and due to this, it is not possible to process the camera image taken immediately after the object approaches the center section. Even if a camera image taken after a certain amount of time has elapsed since the object entered the center section is to be processed, the camera image taken while the object was located somewhere within the center section must be processed. Therefore, it is possible to realize the above-mentioned intention of performing subsequent processing only when the image reaches the vicinity of the center of the image.

そして、ステップS44では、一つの対象物に対して一回のみ後続の処理を行わせることを意図している。車が走行すると道路の左側にある対象物は画像においてより左へと流れていくから、図7の第1範囲にある間は一度だけ処理すればよく、「処理済み」フラグによって二度目の処理を行わないことにより達成する。一方、新たな対象物が映り込んでいれば、それは画角における消失点に近い位置、すなわち、図7の第2範囲に出現するから、「処理済み」フラグを0にクリアすることで、当該対象物が次に前記中央区間の範囲内に入った際に後続の処理の対象とすることができる。なお、対象物の画像上での大きさに基づいて後続の処理を行わせてもよい。具体的には、「処理済み」フラグが0にクリアされた後、対象物の画像上での大きさが所定の大きさ以上になったときに、その対象物を選択するとともに、「処理済み」フラグを1にする。 In step S44, the subsequent processing is intended to be performed only once for one object. As the car moves, objects on the left side of the road move further to the left in the image, so while they are in the first range in Figure 7, they only need to be processed once, and the "processed" flag allows them to be processed a second time. This is achieved by not doing the following. On the other hand, if a new object appears in the image, it will appear at a position close to the vanishing point in the angle of view, that is, in the second range in Fig. 7, so by clearing the "processed" flag to 0, the corresponding The next time the object falls within the range of the central section, it can be targeted for subsequent processing. Note that subsequent processing may be performed based on the size of the target object on the image. Specifically, after the "processed" flag is cleared to 0, when the size of the object on the image becomes larger than a predetermined size, the object is selected and the "processed" flag is cleared to 0. ” flag to 1.

このように、対象選択処理によって、通知を最も適切な一回のみ行うことができるという効果が得られ、またさらに、処理対象の画像のサイズが大きいため処理時間を要する第2検出部116におけるニューラルネットワークの処理回数を少なく抑えることができるので、全体の処理時間を削減する効果も得ることができる。 In this way, the target selection process has the effect that notification can be performed only once in the most appropriate manner, and furthermore, the neural network in the second detection unit 116, which requires processing time due to the large size of the image to be processed, can be obtained. Since the number of times of network processing can be kept low, the effect of reducing the overall processing time can also be obtained.

第1検出部113におけるニューラルネットワークの処理には、前もって、画像削減部112によって画像のサイズを小さくしているため、第2検出部116での処理に比べて1回あたりの処理時間は大幅に短くて済む。このように、ステップS1からステップS4までの処理は多数繰り返すため短い処理時間で済むような構成とし、それ以降の処理は比較的少ない回数のみ実行するため比較的長い処理時間がかかるような構成とすることで、装置全体としての処理回数の総数を多くすることが可能となり、実時間での画像判定という本装置の趣旨を充足することができる。 In the neural network processing in the first detection unit 113, the image size is reduced by the image reduction unit 112 in advance, so the processing time per time is significantly reduced compared to the processing in the second detection unit 116. It's short enough. In this way, the process from step S1 to step S4 is repeated many times, so it takes a short processing time, and the process after that is executed only a relatively small number of times, so it takes a relatively long time. By doing so, it becomes possible to increase the total number of times of processing for the entire apparatus, and the purpose of this apparatus, which is image determination in real time, can be fulfilled.

一方、本実施の形態においては、電柱は見分けがつきやすい対象であり、画像削減部112によって画像のサイズを小さくリサイズしていたとしても十分高い精度で判別することが可能であるため、検出精度の観点からも本実施の形態は本装置の趣旨を十分達成することができる。 On the other hand, in the present embodiment, utility poles are objects that are easy to distinguish, and even if the image size is reduced to a smaller size by the image reduction unit 112, it is possible to identify the poles with sufficiently high accuracy. Also from this point of view, this embodiment can sufficiently achieve the purpose of the present device.

なお、本実施の形態では、画像削減部112を具備するものとしたが、本発明の範囲はこれに限るものではなく、画像削減部112を持たず、第1検出部113は前記入力画像をそのまま処理する構成としてもよい。 Although the present embodiment includes the image reduction section 112, the scope of the present invention is not limited to this, and the first detection section 113 does not include the image reduction section 112, and the first detection section 113 It may be configured to process it as is.

画像抽出部115は、ステップS1で入力した画像に対して、対象選択処理で選択した矩形の座標に対応する位置の画素を切り出し、部分画像を得る(ステップS5)。 The image extraction unit 115 extracts pixels at positions corresponding to the coordinates of the rectangle selected in the target selection process from the image input in step S1 to obtain a partial image (step S5).

図8は、画像抽出処理の結果を示す図である。ステップS2によってリサイズして画像サイズを小さくした画像700における矩形711の範囲に対して、リサイズ前の元の画像600から同等の矩形範囲を切り出した部分画像が、画像800である。 FIG. 8 is a diagram showing the results of the image extraction process. Image 800 is a partial image obtained by cutting out an equivalent rectangular range from the original image 600 before resizing to the range of rectangle 711 in image 700 that has been resized to reduce the image size in step S2.

第2検出部116は、前記得られた部分画像を入力として営巣の検出処理を行い、営巣の有無を判定する(ステップS6)。 The second detection unit 116 performs a nest detection process using the obtained partial image as input, and determines the presence or absence of a nest (step S6).

例えば、画像800であれば、営巣が存在するから、第2検出部116は予め学習した内容に従って当該画像がA群のクラス、すなわち営巣が存在すると判定する。 For example, in the case of image 800, since a nest exists, the second detection unit 116 determines that the image is of the group A class, that is, a nest exists, according to the content learned in advance.

実時間画像判定装置100は、営巣が存在すると判定した場合には、以下の処理を行う。 When the real-time image determination device 100 determines that nesting exists, the real-time image determination device 100 performs the following processing.

枠描画部117は、判定した営巣の範囲を枠で囲った画像を生成する(ステップS7)。 The frame drawing unit 117 generates an image in which the determined nesting range is surrounded by a frame (step S7).

図9は、枠描画処理の結果を示す図である。 FIG. 9 is a diagram showing the results of the frame drawing process.

画像900の生成には、リサイズ前の画像600を用いる。例えば、リサイズ前の元の画像600に対して、ステップS2によってリサイズして画像サイズを小さくした画像700における矩形711の範囲と同等の矩形を、色付きの太い枠線で描画して、画像900を得る。記号911は、前記描画した枠を示す。 The image 600 before resizing is used to generate the image 900. For example, for the original image 600 before resizing, a rectangle equivalent to the range of the rectangle 711 in the image 700 resized and reduced in size in step S2 is drawn with a thick colored frame line, and the image 900 is created. obtain. A symbol 911 indicates the drawn frame.

通知部118は、車の運転者に対して音および振動および画面表示によって判定した結果の通知を行うとともに(ステップS8)、結果記憶部119は、前記枠描画結果の画像と処理した時点の時刻とを記憶媒体に記憶する(ステップS9)。 The notification unit 118 notifies the driver of the vehicle of the determined result using sound, vibration, and screen display (step S8), and the result storage unit 119 stores the image of the frame drawing result and the time at the time of processing. is stored in the storage medium (step S9).

図10は、通知の例を示す図である。画面1000上に、対象物の部分画像1010と、対象物を発見した旨を示すメッセージ1020を表示する。通知画面は、枠描画結果の画像900にメッセージを重ねた画面でもよい。 FIG. 10 is a diagram showing an example of notification. A partial image 1010 of the object and a message 1020 indicating that the object has been found are displayed on the screen 1000. The notification screen may be a screen in which a message is superimposed on the image 900 of the frame drawing result.

通知部118が、車の運転者に対して音および振動によって通知を行うことで、運転者はパトロール業務における車の運転中であっても、対象物が発見されたことを安全に知ることができるという利点が得られる。また、車の運転者に対して画面表示によって通知を行うことで、運転者はパトロール業務において車を停止させた後、当該画面表示によって、どの電柱にどのように営巣が存在していたかを画面上で確認することができるため、その後の除去作業を容易に行うことができるという利点が得られる。 The notification unit 118 notifies the driver of the vehicle using sound and vibration, so that the driver can safely know that an object has been discovered even while driving the vehicle on patrol duty. You have the advantage of being able to. In addition, by notifying the driver of the vehicle through a screen display, the driver can use the screen display to inform the driver of which utility poles and how the nests were located after stopping the vehicle for patrol duties. Since it can be confirmed above, there is an advantage that subsequent removal work can be performed easily.

実時間画像判定装置100は、ステップS1に戻り、上記述べた処理を繰り返す。 The real-time image determination device 100 returns to step S1 and repeats the process described above.

さらに、結果表示部120は、GPS装置101が記録したGPSのログを、SDメモリカードあるいはUSB接続あるいはネットワーク通信あるいはその他の手段を用いて読み取り、当該ログに記されている時刻ごとの緯度および経度が記載された情報を用いて、結果記憶部119が記憶している対象物を判定した時点の時刻と突合して画像と位置との対応関係を求め、対象物が存在する緯度および経度を取得し、判定結果を地図上に表示する。なお、実時間画像判定装置100の結果表示部120が行う上記の処理手順には、ニューラルネットワークを用いた計算量の多い複雑な処理を伴わないから、迅速に結果を表示することができる。 Furthermore, the result display unit 120 reads the GPS log recorded by the GPS device 101 using an SD memory card, USB connection, network communication, or other means, and displays the latitude and longitude for each time recorded in the log. Using the information described, the correspondence between the image and the position is determined by comparing the time stored in the result storage unit 119 at the time when the object was determined, and the latitude and longitude where the object is located are obtained. , display the judgment results on the map. Note that the above processing procedure performed by the result display unit 120 of the real-time image determination device 100 does not involve complicated processing using a neural network that requires a large amount of calculation, so the results can be displayed quickly.

図11は、結果表示画面の例を示す図である。結果表示画面1100は、地図表示領域1110、判定画像表示領域1120、および、全景画像表示領域1130を備える。地図表示領域1110には、地図上に、車の走行経路に沿って対象物を判定した複数の箇所がピン1111A~1111Cで表示される。対象物の判定結果に応じてピン1111A~1111Cの表示態様を変えてもよい。また、マウスやタブレットやタッチパネル等の操作によって利用者がいずれかのピン1111A~1111Cを指示すると、当該ピン1111A~1111Cに対応する結果表示部120が記憶する枠描画結果の画像を判定画像表示領域1120と全景画像表示領域1130に表示する。判定画像表示領域1120には、対象物を切り出した部分画像が表示される。全景画像表示領域1130には、カメラ撮影画像が表示される。 FIG. 11 is a diagram showing an example of a result display screen. The result display screen 1100 includes a map display area 1110, a determination image display area 1120, and a panoramic image display area 1130. In the map display area 1110, a plurality of locations where objects have been determined along the travel route of the car are displayed as pins 1111A to 1111C on the map. The display mode of the pins 1111A to 1111C may be changed depending on the determination result of the target object. Furthermore, when the user indicates any of the pins 1111A to 1111C by operating a mouse, tablet, touch panel, etc., the image of the frame drawing result stored in the result display unit 120 corresponding to the pin 1111A to 1111C is displayed in the judgment image display area. 1120 and a panoramic image display area 1130. In the determination image display area 1120, a partial image obtained by cutting out the object is displayed. A camera-captured image is displayed in the panoramic image display area 1130.

本実施の形態では、実時間画像判定装置100が通知部118を具備する。本発明の範囲はこれに限るものではなく、通知部118の一部または全部の機能を別装置としてもよい。また、その際、実時間画像判定装置100の処理結果を、ネットワークを通じて通知装置に入力してもよい。例えば、撮影の現場では音声による通知のみを行い、ネットワークを通じて遠隔地にある点検センターに情報を送信し、点検センターに設置した前記通知装置に画像を表示してもよい。 In this embodiment, the real-time image determination device 100 includes a notification unit 118. The scope of the present invention is not limited to this, and part or all of the functions of the notification unit 118 may be provided as a separate device. Further, at this time, the processing results of the real-time image determination device 100 may be input to the notification device via the network. For example, only an audio notification may be provided at the shooting site, the information may be transmitted to a remote inspection center via a network, and the image may be displayed on the notification device installed at the inspection center.

本実施の形態では、実時間画像判定装置100が結果表示部120を具備する。本発明の範囲はこれに限るものではなく、結果表示部120を別装置としてもよい。また、その際、実時間画像判定装置100の結果記憶部119が記憶するデータを、ネットワークまたは記録媒体を通じて表示装置に入力してもよい。 In this embodiment, the real-time image determination device 100 includes a result display section 120. The scope of the present invention is not limited to this, and the result display section 120 may be a separate device. Further, at this time, the data stored in the result storage unit 119 of the real-time image determination device 100 may be input to the display device via a network or a recording medium.

本実施の形態では、実時間画像判定装置100は、GPS装置101が計測した緯度および経度の情報と、カメラで撮影した画像との対応関係を求める処理は、撮影時ではなく撮影後に結果表示部120によって結果を表示する段階で行った。本発明の範囲はこれに限るものではなく、GPS測位機能を実時間画像判定装置100内に具備して、撮影時に行ってもよい。また、その際、結果記憶部119は、少なくとも画像と緯度および経度の情報とを記憶してもよい。また、通知部118は、枠描画結果の画像だけでなく、当該地点の地図も画面に表示してよい。 In the present embodiment, the real-time image determination device 100 performs the process of determining the correspondence between the latitude and longitude information measured by the GPS device 101 and the image captured by the camera not at the time of capturing but after the image is captured on the result display screen. 120 to display the results. The scope of the present invention is not limited to this, and a GPS positioning function may be provided in the real-time image determination device 100 and performed at the time of photographing. Further, at this time, the result storage unit 119 may store at least the image and the latitude and longitude information. Further, the notification unit 118 may display not only the image of the frame drawing result but also a map of the point on the screen.

上記一連の説明では、GPS装置101および実時間画像判定装置100は緯度および経度の情報を扱うこととしたが、地理上の位置を示す別の形式の情報であってもよい。 In the above series of explanations, the GPS device 101 and the real-time image determination device 100 handle latitude and longitude information, but other formats of information indicating geographic locations may be used.

本実施の形態では、実時間画像判定装置100は、ステップS1からステップS9までの処理を間断なく繰り返すこととしたが、処理の休止を適宜含めてもよい。例えば、GPS測位機能を実時間画像判定装置100内に具備して、一定の距離(例えば50cm等)を走行するまでは前記処理の休止を行うこととしてもよい。 In this embodiment, the real-time image determination device 100 repeats the processing from step S1 to step S9 without interruption, but may include a pause in the processing as appropriate. For example, a GPS positioning function may be provided in the real-time image determination device 100, and the processing may be suspended until the vehicle has traveled a certain distance (for example, 50 cm).

本実施の形態では、ニューラルネットワーク141は、画像判定ニューラルネットワークを用いた。本発明の範囲はこれに限るものではなく、必要な機能を実現するほかのニューラルネットワークを用いてもよく、例えば、物体検出ニューラルネットワークを用いてもよい。 In this embodiment, the neural network 141 uses an image judgment neural network. The scope of the present invention is not limited to this, and other neural networks that implement the necessary functions may be used, for example, an object detection neural network may be used.

その場合、第2パラメータ142を得るための学習には、営巣が存在しない(B群に相当する)画像を用いず、営巣が存在する画像のみを用いてよい。さらに、電柱を取り囲む矩形範囲のみを抽出した画像ではなく、カメラで撮影した画角の画像を用いて、当該画像における営巣の位置のみをアノテーションし、同様のアノテーション済み画像を多数準備して、学習させることにより、第2パラメータ142を得てもよい。さらに、画像抽出部115が部分画像を得るステップS5は、省略してもよい。さらに、枠描画部117が枠を描画するステップS7は、ニューラルネットワーク141が物体を検出した矩形範囲に対して枠を描画してよい。また、ニューラルネットワーク131とニューラルネットワーク141がいずれも物体検出ニューラルネットワークであれば、ニューラルネットワークを実現するコンピュータプログラムは同一のサブルーチンを利用し、第1パラメータ132を与えて第1検出部113を構成し、第2パラメータ142を与えて第2検出部116を構成してもよい。 In that case, for learning to obtain the second parameter 142, only images in which nests are present may be used, without using images in which nests do not exist (corresponding to group B). Furthermore, instead of an image that only extracts the rectangular area surrounding the utility pole, we annotate only the nesting position in the image by using an image of the angle of view taken with a camera, and prepare a large number of similar annotated images for learning. The second parameter 142 may be obtained by doing so. Furthermore, step S5 in which the image extraction unit 115 obtains a partial image may be omitted. Further, in step S7 in which the frame drawing unit 117 draws the frame, the frame may be drawn in the rectangular range in which the neural network 141 has detected the object. Further, if both the neural network 131 and the neural network 141 are object detection neural networks, the computer program that implements the neural networks uses the same subroutine and provides the first parameter 132 to configure the first detection unit 113. , the second parameter 142 may be given to configure the second detection unit 116.

本実施の形態では、ニューラルネットワーク131は、物体検出ニューラルネットワークを用いた。本発明の範囲はこれに限るものではなく、必要な機能を実現するほかのニューラルネットワークを用いてもよい。 In this embodiment, the neural network 131 uses an object detection neural network. The scope of the present invention is not limited to this, and other neural networks that implement the necessary functions may be used.

本実施の形態では、カメラ111は、走行する車の前方を撮影するように設置し、実時間画像判定装置100はそのような画角の画像を入力として動作するものとした。また、画像の中で、道路の左側に存在する電柱のみを判定対象とするものとした。本発明の範囲はこれに限るものではなく、例えば、カメラを真横、あるいは、斜め前、あるいは、斜め前かつ少し上向きに設置し、ズーム倍率を標準より若干、望遠に設定して撮影し、そのような画角で撮影された画像を入力として動作するようにしてもよい。その場合、例えば、カメラを右に90度回転して縦長の画像を撮影するように設置し、カメラの向きを例えば左に30度、かつ、例えば上に30度傾け、ズーム倍率を例えば1.5倍ないし2.5倍にしてもよい。画角が変更された場合、ステップS42およびステップS43で用いる範囲は画角に合わせて変更してよく、その際、車の走行に合わせて最初に対象物が現れる点Pと、車の走行に合わせて最後に対象物が撮影範囲外になる点Qとに基づいて前記範囲を設定してもよい。また、特に遠近法における消失点が存在しないような画角での撮影を行った場合には、点Pは消失点ではなく画像の端になることが起こりうるから、前記設定の結果としては、点Pが画面の右端になってもよく、また同様に、点Qが画面の左端になってもよい。この際、点Pが画面の右端であり、かつ、点Qが画面の左端であれば、ステップS41において全ての候補が常に選択されることとなり冗長であるから、ステップS41およびステップS42は省略してもよい。また、カメラを右に90度回転して縦長の画像を撮影するように設置した場合、実時間画像判定装置100はそのような画角の画像を入力として、ステップS1において、入力画像を90度回転してから、以降の処理を行ってもよい。また、道路の右側にある対象物を処理対象としてもよく、あるいは、カメラを車両の後方を撮影するように設置してもよく、さらに、その際には上記一連の処理における「左」および「右」を左右逆に読み替えて本発明を実施してもよい。また、実時間画像判定装置100の具備する機能部の一部または全部を多重に具備し、あるいは時間多重によって複数の処理を行わせることで、左右の対象物を一度に処理する実時間画像判定装置の実施としてもよい。 In the present embodiment, the camera 111 is installed so as to photograph the front of a traveling car, and the real-time image determination device 100 is operated by inputting an image having such an angle of view. In addition, only utility poles on the left side of the road in the image were targeted for determination. The scope of the present invention is not limited to this, but for example, the camera may be placed directly to the side, diagonally in front of you, or diagonally in front and slightly upward, and the zoom magnification may be set slightly higher than the standard to telephoto. The operation may be performed using an image taken at such an angle of view as input. In that case, for example, the camera is rotated 90 degrees to the right and installed to take a portrait image, the camera is tilted 30 degrees to the left and 30 degrees upward, and the zoom magnification is set to 1. It may be increased by 5 times to 2.5 times. When the angle of view is changed, the range used in step S42 and step S43 may be changed according to the angle of view. The range may also be set based on the point Q at which the object finally falls outside the photographing range. In addition, especially when shooting at an angle of view where there is no vanishing point in perspective, point P may become the edge of the image rather than the vanishing point, so as a result of the above settings, Point P may be the right edge of the screen, and similarly, point Q may be the left edge of the screen. At this time, if point P is the right edge of the screen and point Q is the left edge of the screen, all candidates will always be selected in step S41, which is redundant, so steps S41 and S42 are omitted. It's okay. Furthermore, if the camera is installed so as to rotate the camera 90 degrees to the right and capture a vertically elongated image, the real-time image determination device 100 inputs an image with such a view angle, and in step S1 rotates the input image by 90 degrees. The subsequent processing may be performed after rotation. Furthermore, objects on the right side of the road may be processed, or the camera may be installed to photograph the rear of the vehicle. The present invention may be implemented by reading "right" in reverse. In addition, real-time image judgment can process left and right objects at once by providing some or all of the functional units included in the real-time image judgment device 100 in a multiplex manner, or by performing multiple processes through time multiplexing. It may also be implemented as a device.

本実施の形態では、実時間画像判定装置100の対象選択部114が実行する対象選択処理は、上記述べたステップS41からステップS45によって実現することとした。本発明の範囲はこれに限るものではなく、同等の目的を達成する他の処理手順を用いて実時間画像判定装置を構成してもよい。 In this embodiment, the target selection process executed by the target selection unit 114 of the real-time image determination device 100 is realized by steps S41 to S45 described above. The scope of the present invention is not limited to this, and the real-time image determination device may be configured using other processing procedures that achieve the same purpose.

例えば、対象選択部114は、複数の画像および座標位置情報を記憶できる一時記憶領域を具備し、ステップS41によって選択した矩形の座標の並びのうち一番右にある矩形の座標に対し、当該座標並びに対応する画像を前記一時記憶領域に記憶するとともに、対象選択処理の複数回の実行によって当該座標が右から左に変化することを前記一時記憶領域の記憶内容から判定し、一時記憶領域の記憶内容のうちで最も中央に座標が位置する画像を、対象選択処理における選択対象として、サブルーチンを終了する構成としてもよい。このような構成を採用した場合、一時記憶領域に一連の画像を記憶して後から当該画像を対象として選択するため、最も座標位置が適切な画像を選択できるという利点がある。一方、記憶して後から選択するという仕組みに起因して、その後の処理が一瞬遅れ、ひいてはユーザへの通知のタイミングが一瞬遅れるという問題があるが、車で走行している場合には高々1秒程度の通知の遅れであると考えられるから、本装置の目的に照らし合わせて十分許容できると考えることができる。 For example, the target selection unit 114 includes a temporary storage area that can store a plurality of images and coordinate position information, and selects the coordinates of the rightmost rectangle among the coordinates of the rectangle selected in step S41. and the corresponding image in the temporary storage area, and determine from the storage contents of the temporary storage area that the coordinates change from right to left by executing the target selection process multiple times, and store the image in the temporary storage area. The subroutine may be configured to terminate the subroutine by selecting the image whose coordinates are most centrally located among the contents as the selection target in the target selection process. When such a configuration is adopted, since a series of images are stored in the temporary storage area and the images are selected later as targets, there is an advantage that the image with the most appropriate coordinate position can be selected. On the other hand, due to the mechanism of memorizing and selecting later, there is a problem that subsequent processing is delayed for a moment, and the timing of notification to the user is also delayed for a moment. Since the notification delay is considered to be on the order of seconds, it can be considered to be sufficiently acceptable in light of the purpose of this device.

本実施の形態では、実時間画像判定装置100はまずステップS1によって、その時点でカメラが撮影している画像を入力として、以降の処理を行い、ステップS9まで一連の処理を行った後、再度ステップS1に戻って、再度その時点でカメラが撮影している画像を入力として処理を行うこととした。本実施の形態はこれに限るものではなく、前記まずステップS1を行ってから前記再度ステップS1を行うまでの間に撮影されていた画像を、前記再度ステップS1を行った際に、その時点でカメラが撮影している画像の代わりに入力としてもよい。 In this embodiment, the real-time image determination device 100 first performs the following processing in step S1 by inputting the image that the camera is shooting at that time, performs a series of processing up to step S9, and then repeats the processing. Returning to step S1, the process is again performed using the image taken by the camera at that time as input. The present embodiment is not limited to this, and when performing step S1 again, the image that was taken between the time when step S1 is first performed and the time when step S1 is performed again is It may be input instead of the image taken by the camera.

例えば、実時間画像判定装置100は画像を保持する一定サイズのリングバッファを備え、カメラ111が撮影しているその時点の画像を、撮影した時刻の情報とともに前記リングバッファに継続的に蓄積する。実時間画像判定装置100は、まずステップS1を行う際、前記リングバッファが保持する最新の画像を取得して、入力とし、以降の処理を行う。また、このときの前記画像を取得したリングバッファの位置を記憶しておく。さらに、実時間画像判定装置100は、ステップS9までの一連の処理を行った後、再度ステップS1に戻って処理を行う際、前記記憶している前回処理した際のリングバッファの位置と、その時点での最新のリングバッファの位置を比較する。両者の位置が一定値以内であるとき、すなわち、前回の画像入力処理から一定程度以下の時間しか経過していない際には、ステップS1としてリングバッファが保持する最新の画像を取得して、入力とし、以降の処理を行う。一方、両者の位置が一定値以上であるとき、すなわち、前回の画像入力処理から一定程度以上の時間が経過している際には、ステップS1としてリングバッファが保持する情報のうち前記前回の画像入力処理の際の位置から前記一定値だけ未来に進んだ位置のリングバッファ内に保持する画像を取得して、入力とし、以降の処理を行う。 For example, the real-time image determination device 100 includes a ring buffer of a fixed size for holding images, and continuously stores the image taken by the camera 111 at the time in the ring buffer together with information about the time at which the image was taken. When the real-time image determination device 100 first performs step S1, it acquires the latest image held by the ring buffer, uses it as input, and performs subsequent processing. Also, the position of the ring buffer from which the image was acquired at this time is stored. Furthermore, when the real-time image determination apparatus 100 performs a series of processes up to step S9 and then returns to step S1 to perform the process, the real-time image determination apparatus 100 uses the stored position of the ring buffer at the time of the previous process and its position. Compare the latest ring buffer positions at the moment. When the positions of both are within a certain value, that is, when less than a certain amount of time has passed since the previous image input process, the latest image held in the ring buffer is acquired in step S1 and input. and perform the following processing. On the other hand, when the positions of both are above a certain value, that is, when more than a certain amount of time has passed since the previous image input process, in step S1, the previous image is selected from among the information held by the ring buffer. An image held in a ring buffer at a position that is forward by the predetermined value from the position at the time of input processing is acquired, used as input, and subsequent processing is performed.

上記一連の手順を行うことによって、ステップS1からS9までの一連の処理に偶発的に長い処理時間を要した場合に、前回の入力と今回の入力との間に一定以上の時間間隔が開くことを防ぐことができるから、走行する車両等から撮影した映像において、目的とする対象物が通り過ぎてしまい検出漏れが発生するという問題を防ぐことができる利点が得られる。 By performing the above series of steps, if the series of processes from Steps S1 to S9 accidentally takes a long processing time, there will be a time interval of more than a certain amount between the previous input and the current input. Therefore, there is an advantage that it is possible to prevent the problem of a target object passing by and missing detection in an image taken from a moving vehicle or the like.

<第2の実時間画像判定装置>
上記述べた装置の構成を一部変更あるいは簡略化することにより、他の対象物を判定する第2の実時間画像判定装置を構成することもできる。本発明の実施の形態の別の一つを以下に示す。
<Second real-time image determination device>
By partially changing or simplifying the configuration of the device described above, it is also possible to configure a second real-time image determining device that determines other objects. Another embodiment of the present invention will be shown below.

図12は、第2の実時間画像判定装置の構成を示す。 FIG. 12 shows the configuration of the second real-time image determination device.

第2の実時間画像判定装置1200は、実時間画像判定装置100に対して、画像抽出部115を持たず、第2検出部116を持たない。画像抽出部115ならびに第2検出部116を持たない構成については、第2検出部116は常に検出成功するものとして、上述の説明を読み替えて第2の実時間画像判定装置1200を構成すればよい。 The second real-time image determination device 1200 differs from the real-time image determination device 100 in that it does not have the image extraction unit 115 and does not have the second detection unit 116. For a configuration that does not include the image extraction unit 115 and the second detection unit 116, the second real-time image determination device 1200 may be configured by replacing the above description with the assumption that the second detection unit 116 always succeeds in detection. .

さらに、本実施の形態において、第2の実時間画像判定装置1200は、第1検出部113を構成する第1パラメータ132の学習に際して、道路上の穴(ポットホール)をアノテーションした学習データ群を用い、これによって第1検出部113は、画像からポットホールを検出するニューラルネットワークとして機能するようになるので、これを第2の実時間画像判定装置1200に組み込み、利用する。 Furthermore, in the present embodiment, the second real-time image determination device 1200 uses a learning data group annotated with potholes on the road when learning the first parameters 132 constituting the first detection unit 113. This allows the first detection unit 113 to function as a neural network for detecting potholes from images, so this is incorporated into the second real-time image determination device 1200 and utilized.

以下、図4に沿って第2の実時間画像判定装置1200の動作を簡単に説明する。第2の実時間画像判定装置1200は、カメラ111を進行方向に向けて道路を撮影した画像を入力し(ステップS1)、画像削減部112は、入力した画像を縮小して情報量を削減し(ステップS2)、第1検出部113は画像からポットホールを検出する(ステップS3)。 The operation of the second real-time image determination device 1200 will be briefly described below with reference to FIG. The second real-time image determination device 1200 inputs an image taken of a road with the camera 111 facing the direction of travel (step S1), and the image reduction unit 112 reduces the amount of information by reducing the input image. (Step S2), the first detection unit 113 detects potholes from the image (Step S3).

対象選択部114は、適切な位置で検出されたポットホールを以降の処理対象として選択する(ステップS4)。具体的には、図5のステップS42およびステップS43において、X座標ではなく、Y座標の範囲を用いて、前記一定範囲ならびに前記第2の一定範囲を指定するものとする。カメラ111を進行方向に向けて道路を撮影した画像では、ポットホールは遠方から手前に移動する。つまり、画像上でポットホールは上から下に移動する。画像上で下方にあるポットホールは走行位置に近く、大きく映る。Y座標を用いて一定範囲を指定し、一定範囲の上方の範囲を第2の一定範囲に指定する。第1検出部113が第2の一定範囲においてポットホールを検出した後、検出したポットホールが第2の一定範囲を出て下方に移動した時点で、そのポットホールを後段の処理対象として選択する。 The target selection unit 114 selects a pothole detected at an appropriate position as a target for subsequent processing (step S4). Specifically, in steps S42 and S43 of FIG. 5, the fixed range and the second fixed range are specified using a Y coordinate range instead of an X coordinate. In an image taken of the road with the camera 111 facing the direction of travel, the pothole moves from far away to nearer side. In other words, the pothole moves from top to bottom on the image. The potholes at the bottom of the image are close to the driving position and appear larger. A fixed range is specified using the Y coordinate, and a range above the fixed range is specified as a second fixed range. After the first detection unit 113 detects a pothole in the second fixed range, when the detected pothole leaves the second fixed range and moves downward, the pothole is selected as a target for subsequent processing. .

第2の実時間画像判定装置1200は、画像抽出部115ならびに第2検出部116を持たないので、ステップS4で選択対象ありと判定されると、ステップS5,S6の処理を実行せずに常に検出成功するものとして、枠描画処理(ステップS7)、結果通知処理(ステップS8)、および、結果記憶処理(ステップS9)を実行する。 Since the second real-time image determination device 1200 does not have the image extraction unit 115 and the second detection unit 116, when it is determined that there is a selection target in step S4, the second real-time image determination device 1200 always Assuming that the detection is successful, frame drawing processing (step S7), result notification processing (step S8), and result storage processing (step S9) are executed.

以上述べた第2の実時間画像判定装置1200について、動作の意図を以下に述べる。道路のパトロールを行う際、ポットホールは自転車の転倒など重篤な事故の原因になりうるから、見逃さずその場で発見してパトロール者が適切な対処を行えるようにするとともに、対処しきれなかったポットホールも含めて後日報告をまとめたいという要請がある。第2の実時間画像判定装置1200は、そのようなパトロール車両に設置してパトロール者に適切な情報を提示できる。道路を走行していると、ポットホールがあった場合、最初は遠方に見えており、走行につれて徐々に手前に見えてくるから、画像の座標で表現すればY座標が上方から下方に移動すると表現できる。市民にとって危険なほど大きく破損したポットホールは、見た目も大きく破損しており、画像削減部112によって画像サイズを小さくしたリサイズ後の画像であってもニューラルネットワークを用いて十分な精度で発見することができる。また、ポットホールには種別を分類したいという特段の要請はなく、また特に、特別な種類のポットホールの場合だけ通知を受けたいといった特段の要請がないから、第2検出部116によってポットホールがいずれのクラスに属するかをさらに詳細に判定する必要はなく、このため第2の実時間画像判定装置1200は第2検出部116ならびにその入力を生成する機能部である画像抽出部115は割愛できる。 The intention of the operation of the second real-time image determination device 1200 described above will be described below. When patrolling roads, potholes can cause serious accidents such as bicycles falling over, so potholes are discovered on the spot so that patrollers can take appropriate measures, and potholes can be detected on the spot so that patrollers can take appropriate measures. There is a request to compile a report including potholes at a later date. The second real-time image determination device 1200 can be installed in such a patrol vehicle to present appropriate information to the patroller. When you are driving on a road, if there is a pothole, it will initially appear in the distance, and as you drive, it will gradually appear closer to you, so if you express it in terms of image coordinates, the Y coordinate will move from the top to the bottom. I can express it. Potholes that are so large and damaged as to be dangerous to citizens are also greatly damaged in appearance, and can be detected with sufficient accuracy using a neural network even in a resized image that has been reduced in size by the image reduction unit 112. I can do it. Further, since there is no special request to classify potholes by type, and there is no special request to receive notification only in the case of a special type of pothole, the second detection unit 116 detects potholes. There is no need to determine which class it belongs to in more detail, and therefore the second real-time image determination device 1200 can omit the second detection unit 116 and the image extraction unit 115, which is a functional unit that generates its input. .

上記では、実時間画像判定装置100として電柱の営巣を判定する装置の実施を、さらに、第2の実時間画像判定装置1200として道路舗装のポットホールを判定する装置の実施を、それぞれ示した。本発明の範囲はこれに限るものではなく、移動する視点から撮影した画像を実時間で連続的に判定して通知を行う様々な用途に用いることができる。 In the above, the real-time image determining device 100 is an implementation of a device that determines nesting of utility poles, and the second real-time image determining device 1200 is an implementation of a device that determines potholes on road pavement. The scope of the present invention is not limited thereto, and can be used in various applications in which images taken from moving viewpoints are continuously determined in real time and notifications are made.

例えば、実時間画像判定装置100は、対象物として、電力線、通信線、交通信号機、および交通標識のうち少なくともいずれかを設置する電柱もしくは電柱に類する道路周辺構造物を検出し、構造物の表面のひび割れやコンクリートの剥がれや鉄筋の露出や金属のサビや浮遊物の付着(ロープや凧など)を判定できる。また、第2の実時間画像判定装置1200は、道路の舗装のヒビ、落下物、岩石(落石等)、土砂(土砂崩れ等)、動物(死骸等を含む)を判定できる。また、カメラは乗用車に搭載するだけでなく、自転車、バイク、固定軌道を走行する車両(鉄道等)、歩行者、その他の移動する物体に搭載して撮影してもよい。さらに、これらに限ることなく、ニューラルネットワークの学習を適切に行うことで、本発明の装置はさまざまな用途へと転用が可能である。 For example, the real-time image determination device 100 detects, as a target object, a power line, a communication line, a traffic signal, a utility pole on which at least one of a traffic sign is installed, or a structure around a road similar to a utility pole, and detects the surface of the structure. It can detect cracks in concrete, peeling of concrete, exposed reinforcing bars, rust on metal, and adhesion of floating objects (ropes, kites, etc.). Further, the second real-time image determination device 1200 can determine cracks in road pavement, fallen objects, rocks (falling rocks, etc.), earth and sand (landslides, etc.), and animals (including carcasses, etc.). Further, the camera may not only be mounted on a passenger car, but may also be mounted on a bicycle, a motorcycle, a vehicle running on a fixed track (such as a train), a pedestrian, or other moving objects to take pictures. Furthermore, without being limited to these, the device of the present invention can be used for various purposes by appropriately training the neural network.

本発明の装置はコンピュータとプログラムによっても実現でき、プログラムを記録媒体に記録することも、ネットワークを通して提供することも可能である。具体的には、上記説明した実時間画像判定装置100,1200には、例えば、CPU(Central Processing Unit、プロセッサ)と、メモリと、ストレージ(HDD:Hard Disk Drive、SSD:Solid State Drive)と、通信装置と、入力装置と、出力装置とを備える汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上にロードされた実時間画像判定装置100用のプログラムを実行することにより、実時間画像判定装置100,1200の各機能が実現される。また、実時間画像判定装置100,1200用のプログラムは、HDD、SSD、USBメモリ、CD-ROM、DVD-ROM、MOなどのコンピュータ読取り可能な記録媒体に記憶することも、ネットワークを介して配信することもできる。 The apparatus of the present invention can also be realized by a computer and a program, and the program can be recorded on a recording medium or provided through a network. Specifically, the real-time image determination apparatuses 100 and 1200 described above include, for example, a CPU (Central Processing Unit, processor), a memory, a storage (HDD: Hard Disk Drive, SSD: Solid State Drive), A general-purpose computer system can be used that includes a communication device, an input device, and an output device. In this computer system, each function of the real-time image determining apparatuses 100 and 1200 is realized by the CPU executing a program for the real-time image determining apparatus 100 loaded onto the memory. Furthermore, the program for the real-time image judgment apparatus 100, 1200 can be stored in a computer-readable recording medium such as an HDD, SSD, USB memory, CD-ROM, DVD-ROM, or MO, or can be distributed via a network. You can also.

また、本発明は上記実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。 Further, the present invention is not limited to the above-described embodiments, and many modifications can be made within the scope of the invention.

100,1200…実時間画像判定装置
101…GPS装置
111…カメラ
112…画像削減部
113…第1検出部
114…対象選択部
115…画像抽出部
116…第2検出部
117…枠描画部
118…通知部
119…結果記憶部
120…結果表示部
131…ニューラルネットワーク
132…第1パラメータ
141…ニューラルネットワーク
142…第2パラメータ
100, 1200...Real-time image determination device 101...GPS device 111...Camera 112...Image reduction section 113...First detection section 114...Target selection section 115...Image extraction section 116...Second detection section 117...Frame drawing section 118... Notification section 119...Result storage section 120...Result display section 131...Neural network 132...First parameter 141...Neural network 142...Second parameter

Claims (6)

移動する視点から撮影した時系列順の画像を入力し、前記画像から対象物を検出する検出部と、
前記時系列順の画像と前記対象物の画像上での検出位置を一時的に保持する画像記憶部と、
前記時系列順の画像から同一の前記対象物を1回のみ選択する対象選択部と、
選択された前記対象物について通知または検出結果の記憶の少なくともいずれかを実行する処理部を有し、
前記時系列順の画像は、進行方向に対して横あるいは斜め前を撮影した画像であり、
前記対象選択部は、前記時系列順の画像における前記対象物の画像上での検出位置の移動方向に基づいて前記対象物の同一性を判定し、前記検出位置が特定方向へ移動する前記対象物について、前記画像記憶部の記憶内容のうちで前記対象物の検出位置が最も画像の中央に位置する前記画像から前記対象物を選択すること
を特徴とする画像判定装置。
a detection unit that inputs images taken in chronological order from a moving viewpoint and detects a target object from the images;
an image storage unit that temporarily stores the chronologically ordered images and the detected position of the object on the image;
an object selection unit that selects the same object only once from the images in the chronological order;
a processing unit configured to perform at least either notification or storage of detection results regarding the selected target object;
The images in chronological order are images taken horizontally or diagonally in front of the traveling direction,
The object selection unit determines the identity of the object based on the moving direction of the detected position of the object on the image in the chronological order, and selects the object whose detected position moves in a specific direction. An image determination device for selecting an object from among the images in which the detected position of the object is located closest to the center of the image among the contents stored in the image storage unit.
請求項1に記載の画像判定装置であって、
前記対象選択部は、前記対象物の画像上での検出位置あるいは画像上での大きさが適切な画像から前記対象物を選択すること
を特徴とする画像判定装置。
The image determination device according to claim 1,
The image determination device is characterized in that the target selection unit selects the target object from images in which the detected position on the image or the size of the target object on the image is appropriate.
請求項1または2に記載の画像判定装置であって、
前記検出部は、前回処理した画像と次の処理のために入力する最新の画像との間隔が長い場合には、前回処理した画像と最新の画像との間に入力した画像を前記画像記憶部から取得すること
を特徴とする画像判定装置。
The image determination device according to claim 1 or 2,
When the interval between the previously processed image and the latest image input for the next processing is long, the detection unit stores the image input between the previously processed image and the latest image in the image storage unit. An image determination device characterized in that an image is acquired from.
請求項1ないし3のいずれかに記載の画像判定装置であって、
前記対象物は、舗装のポットホール、舗装のひび割れ、落下物、岩石、土砂、および道路上の動物のうち少なくともいずれかを含む道路上の不具合であること
を特徴とする画像判定装置。
The image determination device according to any one of claims 1 to 3,
The image determination device is characterized in that the object is a defect on the road including at least one of potholes in the pavement, cracks in the pavement, fallen objects, rocks, earth and sand, and animals on the road.
コンピュータが実行する画像判定方法であって、
移動する視点から撮影した時系列順の画像を入力し、前記画像から対象物を検出するステップと、
画像記憶部に前記時系列順の画像と前記対象物の画像上での検出位置を一時的に保持するステップと、
前記時系列順の画像から同一の前記対象物を1回のみ選択するステップと、
選択された前記対象物について通知または検出結果の記憶の少なくともいずれかを実行するステップを有し、
前記時系列順の画像は、進行方向に対して横あるいは斜め前を撮影した画像であり、
前記選択するステップでは、前記時系列順の画像における前記対象物の画像上での検出位置の移動方向に基づいて前記対象物の同一性を判定し、前記検出位置が特定方向へ移動する前記対象物について、前記画像記憶部の記憶内容のうちで前記対象物の検出位置が最も画像の中央に位置する前記画像から前記対象物を選択すること
を特徴とする画像判定方法。
An image determination method executed by a computer, the method comprising:
inputting images taken in chronological order from a moving viewpoint and detecting an object from the images;
temporarily retaining the chronologically ordered images and the detected position of the object on the image in an image storage unit;
selecting the same object only once from the chronologically ordered images;
carrying out at least one of notification and storage of detection results regarding the selected object;
The images in chronological order are images taken horizontally or diagonally in front of the traveling direction,
In the selecting step, the identity of the object is determined based on the moving direction of the detected position of the object on the image in the chronological order, and the object whose detected position moves in a specific direction An image determination method comprising: selecting an object from an image in which a detected position of the object is located closest to the center of the image among the contents stored in the image storage unit.
コンピュータに、
移動する視点から撮影した時系列順の画像を入力し、前記画像から対象物を検出する処理と、
画像記憶部に前記時系列順の画像と前記対象物の画像上での検出位置を一時的に保持する処理と、
前記時系列順の画像から同一の前記対象物を1回のみ選択する処理と、
選択された前記対象物について通知または検出結果の記憶の少なくともいずれかを実行する処理を実行させ、
前記時系列順の画像は、進行方向に対して横あるいは斜め前を撮影した画像であり、
前記選択する処理では、前記時系列順の画像における前記対象物の画像上での検出位置の移動方向に基づいて前記対象物の同一性を判定し、前記検出位置が特定方向へ移動する前記対象物について、前記画像記憶部の記憶内容のうちで前記対象物の検出位置が最も画像の中央に位置する前記画像から前記対象物を選択すること
を特徴とするプログラム。
to the computer,
A process of inputting images taken in chronological order from a moving viewpoint and detecting a target object from the images;
a process of temporarily retaining the chronologically ordered images and the detected position of the object on the image in an image storage unit;
a process of selecting the same object only once from the images in the chronological order;
causing a process to execute at least one of notification and storage of detection results regarding the selected target object;
The images in chronological order are images taken horizontally or diagonally in front of the traveling direction,
In the selection process, the identity of the object is determined based on the moving direction of the detected position of the object on the image in the chronological order, and the object whose detected position moves in a specific direction is determined. A program for selecting an object from among the images in which the detected position of the object is located closest to the center of the image among the contents stored in the image storage unit.
JP2020049444A 2020-03-19 2020-03-19 Image judgment device, image judgment method, and program Active JP7356383B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020049444A JP7356383B2 (en) 2020-03-19 2020-03-19 Image judgment device, image judgment method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020049444A JP7356383B2 (en) 2020-03-19 2020-03-19 Image judgment device, image judgment method, and program

Publications (2)

Publication Number Publication Date
JP2021149592A JP2021149592A (en) 2021-09-27
JP7356383B2 true JP7356383B2 (en) 2023-10-04

Family

ID=77848938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020049444A Active JP7356383B2 (en) 2020-03-19 2020-03-19 Image judgment device, image judgment method, and program

Country Status (1)

Country Link
JP (1) JP7356383B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7369316B1 (en) * 2023-02-27 2023-10-25 株式会社安部日鋼工業 Identification system and method using concrete as an authentication code

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011108052A1 (en) 2010-03-03 2011-09-09 パナソニック株式会社 Road condition management system and road condition management method
JP2013008070A (en) 2009-10-20 2013-01-10 Panasonic Corp Sign recognition device and sign recognition method
WO2015136874A1 (en) 2014-03-13 2015-09-17 パナソニックIpマネジメント株式会社 Display control device, display device, display control program, display control method, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013008070A (en) 2009-10-20 2013-01-10 Panasonic Corp Sign recognition device and sign recognition method
WO2011108052A1 (en) 2010-03-03 2011-09-09 パナソニック株式会社 Road condition management system and road condition management method
WO2015136874A1 (en) 2014-03-13 2015-09-17 パナソニックIpマネジメント株式会社 Display control device, display device, display control program, display control method, and recording medium

Also Published As

Publication number Publication date
JP2021149592A (en) 2021-09-27

Similar Documents

Publication Publication Date Title
JP7218535B2 (en) Traffic violation vehicle identification system and server
JP7070683B2 (en) Deterioration diagnosis device, deterioration diagnosis system, deterioration diagnosis method, program
CN106611512B (en) Method, device and system for processing starting of front vehicle
DE112010005395B4 (en) Road vehicle cooperative Driving Safety Unterstützungsvorrrichtung
CN109345829B (en) Unmanned vehicle monitoring method, device, equipment and storage medium
JP6006215B2 (en) Visualization of images in existing still images
KR102001002B1 (en) Method and system for recognzing license plate based on deep learning
CN104952123A (en) Vehicle-mounted equipment installed on vehicle as well as related equipment and method
CN110580808B (en) Information processing method and device, electronic equipment and intelligent traffic system
CN110032947B (en) Method and device for monitoring occurrence of event
JP3817631B2 (en) Road warning detection device
JP6653361B2 (en) Road marking image processing apparatus, road marking image processing method, and road marking image processing program
EP3934232A1 (en) Imaging system
JP5962898B2 (en) Driving evaluation system, driving evaluation method, and driving evaluation program
CN111985388B (en) Pedestrian attention detection driving assistance system, device and method
Kilicarslan et al. Visualizing driving video in temporal profile
JP7356383B2 (en) Image judgment device, image judgment method, and program
JP7340484B2 (en) Image judgment device, image judgment method, and program
JP6387838B2 (en) Traffic violation management system and traffic violation management method
JP7293174B2 (en) Road Surrounding Object Monitoring Device, Road Surrounding Object Monitoring Program
CN111383248A (en) Method and device for judging red light running of pedestrian and electronic equipment
CN106251622A (en) Vehicle road monitor evidence collecting method and system thereof
CN114913470B (en) Event detection method and device
JP6235956B2 (en) Image composition method, program, and apparatus
JP4697761B2 (en) Queue detection method and queue detection apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230922

R150 Certificate of patent or registration of utility model

Ref document number: 7356383

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150