JP6955295B1 - Identification device, identification program, and identification method - Google Patents

Identification device, identification program, and identification method Download PDF

Info

Publication number
JP6955295B1
JP6955295B1 JP2021022428A JP2021022428A JP6955295B1 JP 6955295 B1 JP6955295 B1 JP 6955295B1 JP 2021022428 A JP2021022428 A JP 2021022428A JP 2021022428 A JP2021022428 A JP 2021022428A JP 6955295 B1 JP6955295 B1 JP 6955295B1
Authority
JP
Japan
Prior art keywords
damage
road surface
unit
identification
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021022428A
Other languages
Japanese (ja)
Other versions
JP2022124663A (en
Inventor
紘弥 前田
紘弥 前田
Original Assignee
株式会社アーバンエックステクノロジーズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社アーバンエックステクノロジーズ filed Critical 株式会社アーバンエックステクノロジーズ
Priority to JP2021022428A priority Critical patent/JP6955295B1/en
Priority to JP2021155233A priority patent/JP2022124993A/en
Application granted granted Critical
Publication of JP6955295B1 publication Critical patent/JP6955295B1/en
Priority to PCT/JP2021/043492 priority patent/WO2022176303A1/en
Publication of JP2022124663A publication Critical patent/JP2022124663A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles

Abstract

【課題】路面の損傷の有無の検出を精度よく行うことができる識別装置、識別方法および識別プログラムを提供する。【解決手段】端末装置10及び情報処理サーバ20を備える識別装置において、端末装置は、車両に搭載され、路面の画像を撮影する撮影部と、撮影部が撮影した画像に対して、学習済みモデルを用いた識別を行うことで、路面の損傷の有無を識別する識別部と、画像のうち、識別部が損傷を検出した検出画像を、情報処理サーバに送信する送信部と、を備える。情報処理サーバ20は、送信部から送信された複数の検出画像に撮影された路面の損傷が、同一箇所であるかどうかを判定する位置判定部と、損傷判定部により同一箇所と判定された路面の損傷に関する情報を、時系列に沿って統合して、路面の損傷の有無を評価する評価部と、を備える。【選択図】図1PROBLEM TO BE SOLVED: To provide an identification device, an identification method and an identification program capable of accurately detecting the presence or absence of damage to a road surface. In an identification device including a terminal device 10 and an information processing server 20, the terminal device is mounted on a vehicle and is a trained model for a photographing unit that captures an image of a road surface and an image captured by the photographing unit. It is provided with an identification unit for identifying the presence or absence of damage to the road surface by performing identification using the above, and a transmission unit for transmitting the detected image in which the identification unit has detected the damage to the information processing server. The information processing server 20 has a position determination unit that determines whether or not the damage to the road surface captured by the plurality of detected images transmitted from the transmission unit is the same location, and a road surface that is determined to be the same location by the damage determination unit. It is provided with an evaluation unit that integrates information on the damage of the road surface in chronological order and evaluates the presence or absence of damage to the road surface. [Selection diagram] Fig. 1

Description

本開示は、識別装置、識別プログラム、および識別方法に関する。 The present disclosure relates to identification devices, identification programs, and identification methods.

近年、カメラで道路の状態を撮影し、路面の損傷の有無を検出するシステムが知られている。 In recent years, a system that captures the state of a road with a camera and detects the presence or absence of damage to the road surface has been known.

例えば特許文献1には、点検車両を路面上で走行させながら路面をカメラで撮像し、撮像画像から、点検装置の影、路面上のペイントされた表示案内、および路面の汚れ等の検出対象である損傷箇所ではない部分を除去するシステムが開示されている。 For example, in Patent Document 1, the road surface is imaged by a camera while the inspection vehicle is running on the road surface, and the shadow of the inspection device, the painted display guide on the road surface, the dirt on the road surface, and the like are detected from the captured image. A system has been disclosed that removes a non-damaged area.

特開2005−43324号公報Japanese Unexamined Patent Publication No. 2005-43324

路面の状態は、撮影される時間帯により、異なった様子として撮影されることがある。例えば早朝や夕方のように、日射による影ができる向きが異なると、異なる画像として撮影される。また、路面の状態は経時的に変化していくものである。このため、一時的な状態を撮影した撮影画像を用いて損傷の有無を判断すると、損傷の検出精度がばらつくことがあった。 The condition of the road surface may be photographed differently depending on the time zone in which the image is taken. For example, in the early morning or evening, if the direction in which shadows are formed by sunlight is different, different images will be taken. In addition, the condition of the road surface changes with time. For this reason, when determining the presence or absence of damage using a photographed image of a temporary state, the damage detection accuracy may vary.

本開示では、路面の損傷の有無の検出を精度よく行うことができる識別装置、識別方法、および識別プログラムを提供することを目的とする。 An object of the present disclosure is to provide an identification device, an identification method, and an identification program capable of accurately detecting the presence or absence of damage to a road surface.

本開示の識別装置は、端末装置、および情報処理サーバを備える識別装置であって、端末装置は、車両に搭載され、路面の画像を撮影する撮影部と、撮影部が撮影した画像に対して、学習済みモデルを用いた識別を行うことで、路面の損傷の有無を識別する識別部と、画像のうち、識別部が損傷を検出した検出画像を、情報処理サーバに送信する送信部と、を備え、情報処理サーバは、送信部から送信された複数の検出画像に撮影された路面の損傷が、同一箇所であるかどうかを判定する位置判定部と、損傷判定部により同一箇所と判定された路面の損傷に関する情報を、時系列に沿って統合して、路面の損傷の有無を評価する評価部と、を備える。 The identification device of the present disclosure is an identification device including a terminal device and an information processing server. , An identification unit that identifies the presence or absence of damage to the road surface by performing identification using a trained model, and a transmission unit that transmits the detected image in which the identification unit detects damage to the information processing server. The information processing server is determined by the position determination unit that determines whether or not the damage to the road surface captured by the plurality of detected images transmitted from the transmission unit is the same location, and the damage determination unit that the damage determination unit determines that the damage is the same location. It is provided with an evaluation unit that integrates information on road surface damage in chronological order and evaluates the presence or absence of road surface damage.

本開示の識別装置、識別プログラム、および識別方法によれば、撮影を行う端末装置からのデータの通信量を大きく抑えながら、路面の損傷の有無の検出を精度よく行うことができる。 According to the identification device, the identification program, and the identification method of the present disclosure, it is possible to accurately detect the presence or absence of damage to the road surface while greatly suppressing the amount of data communication from the terminal device for photographing.

本実施形態に係る識別装置の構成例を表すブロック図である。It is a block diagram which shows the structural example of the identification apparatus which concerns on this embodiment. 図1に示される携帯端末の機能構成の例を示すブロック図である。It is a block diagram which shows the example of the functional structure of the mobile terminal shown in FIG. 端末装置を車両に搭載した状態を説明する図である。It is a figure explaining the state which mounted the terminal device in a vehicle. 情報処理サーバに表示される第1画面の例を示す図である。It is a figure which shows the example of the 1st screen displayed on the information processing server. 図1に示されるサーバの機能構成の例を示すブロック図である。It is a block diagram which shows the example of the functional structure of the server shown in FIG. 情報処理サーバに表示される第2画面の例を示す図である。It is a figure which shows the example of the 2nd screen displayed on the information processing server. 識別装置により識別される損傷の種類の第1例を示す図である。It is a figure which shows the 1st example of the type of damage which is identified by the identification apparatus. 識別装置により識別される損傷の種類の第2例を示す図である。It is a figure which shows the 2nd example of the type of damage which is identified by the identification apparatus. 識別装置により実行される処理のフローを説明する図である。It is a figure explaining the flow of the process executed by the identification apparatus. 評価データの一例を示す図である。It is a figure which shows an example of evaluation data.

以下、図面を参照しながら、実施の形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本開示の必須構成要件であるとは限らない。 Hereinafter, embodiments will be described with reference to the drawings. The present embodiment described below does not unreasonably limit the content of the present disclosure described in the claims. Moreover, not all of the configurations described in the present embodiment are essential constituent requirements of the present disclosure.

(実施形態)
<概要>
本開示の識別装置1の実施形態の概要について説明する。
本実施形態に係る識別装置1は、車両が走行する道路における路面の損傷を識別して、損傷の有無を検出する装置である。
(Embodiment)
<Overview>
The outline of the embodiment of the identification device 1 of the present disclosure will be described.
The identification device 1 according to the present embodiment is a device that identifies damage to the road surface on the road on which the vehicle travels and detects the presence or absence of damage.

<1.システム構成>
まず、図1を用いて本実施形態に係る識別装置1の構成について説明する。図1は、本実施形態に係る識別装置1の構成例を表すブロック図である。図1に示される識別装置1は、端末装置10と、情報処理サーバ20と、を備えている。
端末装置10と情報処理サーバ20とは、ネットワーク30を介して相互に通信可能に接続されている。ネットワーク30は、有線又は無線ネットワークにより構成される。
<1. System configuration>
First, the configuration of the identification device 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration example of the identification device 1 according to the present embodiment. The identification device 1 shown in FIG. 1 includes a terminal device 10 and an information processing server 20.
The terminal device 10 and the information processing server 20 are connected to each other so as to be able to communicate with each other via the network 30. The network 30 is composed of a wired or wireless network.

端末装置10及び情報処理サーバ20は、無線基地局31、又は無線LAN規格32を用いて、ネットワーク30と接続する。なお、端末装置10及び情報処理サーバ20は、有線通信により、ネットワーク30と接続されてもよい。
ここで、識別装置1を構成する各装置(例えば、端末装置10と情報処理サーバ20)の集合体を、1つの「情報処理装置」として把握することができる。すなわち、複数の装置の集合体として識別装置1を実現し、識別装置1を実現するための複数の機能の配分を、各装置のハードウェアの処理能力に基づき適宜決定することとしてもよい。
The terminal device 10 and the information processing server 20 are connected to the network 30 by using the wireless base station 31 or the wireless LAN standard 32. The terminal device 10 and the information processing server 20 may be connected to the network 30 by wire communication.
Here, an aggregate of each device (for example, the terminal device 10 and the information processing server 20) constituting the identification device 1 can be grasped as one "information processing device". That is, the identification device 1 may be realized as an aggregate of a plurality of devices, and the distribution of a plurality of functions for realizing the identification device 1 may be appropriately determined based on the processing capacity of the hardware of each device.

<2.端末装置10の構成>
端末装置10は、車両に搭載される端末である。端末装置10は、例えば、スマートフォン、タブレット端末、又はラップトップパソコン等の汎用の携帯端末である。端末装置10として、複数のスマートフォン、タブレット端末、及びラップトップパソコン等を使用してもよい。このような携帯端末は、運転中の車両の走行経路の確認を目的として車両に搭載される端末であってもよい。
また、端末装置10は、事故発生時の状況記録を目的として車両に搭載される汎用のドライブレコーダに、後述する端末装置10としての各機能を搭載した機器を用いてもよい。
すなわち、本発明において路面の状態を撮影する端末装置10は、路面の撮影のためにのみ用いられる専用の装置に限られず、他の目的で搭載される端末装置10が有する撮影機能を利用して、付帯的に路面を撮影する兼用の装置であってもよい。
<2. Configuration of terminal device 10>
The terminal device 10 is a terminal mounted on a vehicle. The terminal device 10 is a general-purpose mobile terminal such as a smartphone, a tablet terminal, or a laptop personal computer. As the terminal device 10, a plurality of smartphones, tablet terminals, laptop personal computers, and the like may be used. Such a mobile terminal may be a terminal mounted on the vehicle for the purpose of confirming the traveling route of the vehicle while driving.
Further, the terminal device 10 may use a general-purpose drive recorder mounted on the vehicle for the purpose of recording a situation at the time of an accident, and a device equipped with each function as the terminal device 10 described later.
That is, in the present invention, the terminal device 10 for photographing the state of the road surface is not limited to a dedicated device used only for photographing the road surface, and utilizes the photographing function of the terminal device 10 mounted for other purposes. , It may be a device that also serves as an incidental image of the road surface.

端末装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信IF14と、入出力IF15とを含んで構成される。
プロセッサ11は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。
The terminal device 10 includes a processor 11, a memory 12, a storage 13, a communication IF 14, and an input / output IF 15.
The processor 11 is hardware for executing an instruction set described in a program, and is composed of an arithmetic unit, registers, peripheral circuits, and the like.

メモリ12は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。 The memory 12 is for temporarily storing a program, data processed by the program or the like, and is a volatile memory such as a DRAM (Dynamic Random Access Memory).

ストレージ13は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)、SSD(Solid State Drive)である。 The storage 13 is a storage device for storing data, and is, for example, a flash memory, an HDD (Hard Disc Drive), or an SSD (Solid State Drive).

通信IF14は、識別装置1が外部の装置と通信するため、信号を入出力するためのインタフェースである。 The communication IF 14 is an interface for inputting / outputting signals because the identification device 1 communicates with an external device.

入出力IF15は、ユーザからの入力操作を受け付けるための入力装置(例えば、マウス等のポインティングデバイス、キーボード)、及び、ユーザに対し情報を提示するための出力装置(ディスプレイ、スピーカ等)とのインタフェースとして機能する。 The input / output IF15 is an interface with an input device (for example, a pointing device such as a mouse, a keyboard) for receiving an input operation from a user, and an output device (display, a speaker, etc.) for presenting information to the user. Functions as.

情報処理サーバ20は、プロセッサ21と、メモリ22と、ストレージ23と、通信IF24と、入出力IF25とを含んで構成される。プロセッサ21と、メモリ22と、ストレージ23と、通信IF24と、入出力IF25とは、それぞれ、プロセッサ11と、メモリ12と、ストレージ13と、通信IF14と、入出力IF15と同様であるため、説明を省略する。 The information processing server 20 includes a processor 21, a memory 22, a storage 23, a communication IF 24, and an input / output IF 25. The processor 21, the memory 22, the storage 23, the communication IF 24, and the input / output IF 25 are the same as the processor 11, the memory 12, the storage 13, the communication IF 14, and the input / output IF 15, respectively. Is omitted.

情報処理サーバ20は、コンピュータ、及びメインフレーム等により実現される。なお、情報処理サーバ20は、1台のコンピュータにより実現されてもよいし、複数台のコンピュータが組み合わされて実現されてもよい。 The information processing server 20 is realized by a computer, a mainframe, or the like. The information processing server 20 may be realized by one computer or may be realized by combining a plurality of computers.

<1.端末装置10の構成>
図2は、端末装置10の機能的な構成を示すブロック図である。図2に示すように、端末装置10は、複数のアンテナ(アンテナ111、アンテナ112)と、各アンテナに対応する無線通信部(第1無線通信部121、第2無線通信部122)と、操作受付部130と、音声処理部140(マイク141及びスピーカ142を含む)と、撮影部150と、記憶部160と、制御部170と、GPSアンテナ180と、を備えている。なお、端末装置10は、操作受付部130として、キーボードを備えていてもよい。
<1. Configuration of terminal device 10>
FIG. 2 is a block diagram showing a functional configuration of the terminal device 10. As shown in FIG. 2, the terminal device 10 operates with a plurality of antennas (antenna 111, antenna 112) and wireless communication units (first wireless communication unit 121, second wireless communication unit 122) corresponding to each antenna. It includes a reception unit 130, a voice processing unit 140 (including a microphone 141 and a speaker 142), a photographing unit 150, a storage unit 160, a control unit 170, and a GPS antenna 180. The terminal device 10 may include a keyboard as the operation reception unit 130.

端末装置10は、図2では特に図示していない機能及び構成(例えば、電力を保持するためのバッテリー、バッテリーから各回路への電力の供給を制御する電力供給回路など)も有している。図2に示すように、端末装置10に含まれる各ブロックは、バス等により電気的に接続される。 The terminal device 10 also has functions and configurations (for example, a battery for holding electric power, a power supply circuit for controlling the supply of electric power from the battery to each circuit, and the like) which are not particularly shown in FIG. As shown in FIG. 2, each block included in the terminal device 10 is electrically connected by a bus or the like.

アンテナ111は、端末装置10が発する信号を電波として放射する。また、アンテナ111は、空間から電波を受信して受信信号を第1無線通信部121へ与える。 The antenna 111 radiates a signal emitted by the terminal device 10 as a radio wave. Further, the antenna 111 receives radio waves from the space and gives a received signal to the first wireless communication unit 121.

アンテナ112は、端末装置10が発する信号を電波として放射する。また、アンテナ112は、空間から電波を受信して受信信号を第2無線通信部122へ与える。 The antenna 112 radiates a signal emitted by the terminal device 10 as a radio wave. Further, the antenna 112 receives radio waves from the space and gives a received signal to the second radio communication unit 122.

第1無線通信部121は、端末装置10が他の無線機器と通信するため、アンテナ111を介して信号を送受信するための変復調処理などを行う。第2無線通信部122は、端末装置10が他の無線機器と通信するため、アンテナ112を介して信号を送受信するための変復調処理などを行う。第1無線通信部121と第2無線通信部122とは、チューナー、RSSI(Received Signal Strength Indicator)算出回路、CRC(Cyclic Redundancy Check)算出回路、高周波回路などを含む通信モジュールである。第1無線通信部121と第2無線通信部122とは、端末装置10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部170へ与える。 Since the terminal device 10 communicates with other wireless devices, the first wireless communication unit 121 performs modulation / demodulation processing for transmitting / receiving signals via the antenna 111. Since the terminal device 10 communicates with other wireless devices, the second wireless communication unit 122 performs modulation / demodulation processing for transmitting / receiving signals via the antenna 112. The first wireless communication unit 121 and the second wireless communication unit 122 are communication modules including a tuner, an RSSI (Received Signal Strength Indicator) calculation circuit, a CRC (Cyclic Redundancy Check) calculation circuit, a high frequency circuit, and the like. The first wireless communication unit 121 and the second wireless communication unit 122 perform modulation / demodulation and frequency conversion of the wireless signal transmitted / received by the terminal device 10 and give the received signal to the control unit 170.

操作受付部130は、ユーザの入力操作を受け付けるための機構を有する。具体的には、操作受付部130は、ディスプレイ131を含む。なお、操作受付部130は静電容量方式のタッチパネルを用いることによって、タッチパネルに対するユーザの接触位置を検出する、タッチスクリーンとして構成されている。 The operation receiving unit 130 has a mechanism for receiving a user's input operation. Specifically, the operation reception unit 130 includes the display 131. The operation reception unit 130 is configured as a touch screen that detects the contact position of the user with respect to the touch panel by using a capacitance type touch panel.

ディスプレイ132は、制御部170の制御に応じて、画像、動画、テキストなどのデータを表示する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイによって実現される。 The display 132 displays data such as an image, a moving image, and a text under the control of the control unit 170. The display 132 is realized by, for example, an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display.

音声処理部140は、音声信号の変復調を行う。音声処理部140は、マイク141から与えられる信号を変調して、変調後の信号を制御部170へ与える。また、音声処理部140は、音声信号をスピーカ142へ与える。音声処理部140は、例えば音声処理用のプロセッサによって実現される。
マイク141は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部140へ与える。スピーカ142は、音声処理部140から与えられる音声信号を音声に変換して当該音声を端末装置10の外部へ出力する。
The voice processing unit 140 performs modulation / demodulation of the voice signal. The voice processing unit 140 modulates the signal given from the microphone 141 and gives the modulated signal to the control unit 170. Further, the voice processing unit 140 gives a voice signal to the speaker 142. The voice processing unit 140 is realized by, for example, a processor for voice processing.
The microphone 141 receives the voice input and gives the voice signal corresponding to the voice input to the voice processing unit 140. The speaker 142 converts the voice signal given from the voice processing unit 140 into voice and outputs the voice to the outside of the terminal device 10.

撮影部150は、車両に搭載され、路面の画像を撮影する装置である。具体的には、撮影部150は、受光素子により光を受光して、撮影画像161として出力するカメラである。
撮影部150は、例えば、撮影部150から撮影対象までの距離を検出できる深度カメラである。撮影部150は、静止画のみならず、動画を撮影することができる。撮影部150により動画を撮影する場合には、動画を構成する1フレーム毎の画像が撮影画像161として扱われる。図3は端末装置10を車両に搭載した状態を説明する図である。
The photographing unit 150 is a device mounted on a vehicle and taking an image of a road surface. Specifically, the photographing unit 150 is a camera that receives light by a light receiving element and outputs it as a photographed image 161.
The photographing unit 150 is, for example, a depth camera capable of detecting the distance from the photographing unit 150 to the photographing target. The shooting unit 150 can shoot not only still images but also moving images. When the photographing unit 150 shoots a moving image, the image for each frame constituting the moving image is treated as the captured image 161. FIG. 3 is a diagram illustrating a state in which the terminal device 10 is mounted on the vehicle.

図3Aは、車両に搭載した端末装置10の外観を示す図である。図3Bは、車両に搭載した端末装置10に表示される撮影画像161の例を示す図である。
図3Aに示すように、端末装置10は、撮影部150が車両の前方を向く姿勢で車両に搭載される。撮影部150は、車両の前方の路面の状態を所定の時間ごとに断続的に撮影する。
FIG. 3A is a diagram showing the appearance of the terminal device 10 mounted on the vehicle. FIG. 3B is a diagram showing an example of a captured image 161 displayed on the terminal device 10 mounted on the vehicle.
As shown in FIG. 3A, the terminal device 10 is mounted on the vehicle in a posture in which the photographing unit 150 faces the front of the vehicle. The photographing unit 150 intermittently photographs the state of the road surface in front of the vehicle at predetermined time intervals.

図3Bに示すように、撮影画像161には、路面の損傷を囲むバウンディングボックスBを出力する。このように、損傷を囲むバウンディングボックスBを出力することで、路面の損傷の有無のみならず、損傷の位置が識別され、損傷の状態についてより詳細な情報が得られる。また、バウンディングボックスBによって損傷の位置が強調され、識別結果の確認が容易となる。 As shown in FIG. 3B, a bounding box B surrounding the damage to the road surface is output to the captured image 161. By outputting the bounding box B surrounding the damage in this way, not only the presence or absence of damage on the road surface but also the position of the damage can be identified, and more detailed information on the state of damage can be obtained. In addition, the bounding box B emphasizes the position of the damage, making it easy to confirm the identification result.

GPS(Global Positioning System)アンテナ180は、車両の位置を検出し、車両が走行した経路に関する情報を取得する。GPSアンテナ180は、取得した車両の位置、および走行経路に関する情報を制御部170の送受信部172に送信する。送受信部172は、受信した車両の位置、および走行経路に関する情報を、情報処理サーバ20に送信する。 The GPS (Global Positioning System) antenna 180 detects the position of the vehicle and acquires information on the route traveled by the vehicle. The GPS antenna 180 transmits the acquired information on the vehicle position and the traveling route to the transmission / reception unit 172 of the control unit 170. The transmission / reception unit 172 transmits the received information on the vehicle position and the traveling route to the information processing server 20.

図4は、本実施形態に係る情報処理サーバ20に表示される第1画面DP1の例を示す図である。第1画面DP1は、識別部173が損傷を検出した検出画像を受信した場合に表示されてよい。ここで、識別装置1は、GPSアンテナ180から取得した車両の走行経路に関する情報を、画像が撮影された位置に関する情報として、情報処理サーバ20に送信する。 FIG. 4 is a diagram showing an example of the first screen DP1 displayed on the information processing server 20 according to the present embodiment. The first screen DP1 may be displayed when the identification unit 173 receives the detection image in which the damage is detected. Here, the identification device 1 transmits the information regarding the traveling route of the vehicle acquired from the GPS antenna 180 to the information processing server 20 as the information regarding the position where the image is taken.

本例では、地図DP11上に符号Rで示す走行経路が示されるとともに、符号Dで示すマーカーによって、路面の損傷が検出された検出画像2021(図5参照)が撮影された位置が示されている。これにより、どこでどのような損傷が生じているのかが明らかとなり、損傷が生じている場所に応じて適切な管理者へ通知することができる。
第1画面DP1は、画像が撮影された位置を示す地図DP11、画像が撮影された路面の情報DP12 、画像を一意に特定するためのデータID DP13及び画像が撮影された日時を示すタイムスタンプDP14等を含む。
In this example, the traveling route indicated by the reference numeral R is shown on the map DP11, and the position where the detection image 2021 (see FIG. 5) in which the damage to the road surface is detected is captured by the marker indicated by the reference numeral D is shown. There is. As a result, it becomes clear where and what kind of damage is occurring, and it is possible to notify an appropriate manager according to the location of the damage.
The first screen DP1 is a map DP11 showing the position where the image was taken, an information DP12 of the road surface where the image was taken, a data ID DP13 for uniquely identifying the image, and a time stamp DP14 showing the date and time when the image was taken. Etc. are included.

図示の例では、画像が撮影された路面の情報DP12は、交通量(Traffic Volume 、車線数( Number of Lane)、幅員( Road Width)、法定の最高速度( Max Speed)およびタイプ( Road Type)を含むが、これら以外の情報が含まれてもよいし、これらのうちいずれかが含まれなくてもよい。
このように、データID DP13、およびタイムスタンプDP14が表示されていることにより、撮影画像161のデータを一意に特定した上で、いつどのような損傷が生じているのかを明らかにすることができ、修復を行うタイミング等の判断材料を提供することができる。
In the illustrated example, the information DP12 of the road surface on which the image was taken is the traffic volume (Traffic Volume, number of lanes), width (Road Width), legal maximum speed (Max Speed) and type (Road Type). However, information other than these may be included, or any one of them may not be included.
By displaying the data ID DP13 and the time stamp DP14 in this way, it is possible to uniquely identify the data of the captured image 161 and clarify when and what kind of damage has occurred. , It is possible to provide a judgment material such as the timing of repair.

図2に示す記憶部160は、例えばフラッシュメモリ等により構成され、端末装置10が使用するデータ及びプログラムを記憶する。ある局面において、記憶部160は、撮影画像161、第1学習済みモデル162、および第2学習済みモデル163を記憶している。撮影画像161は、撮影部150により撮影された画像である。 The storage unit 160 shown in FIG. 2 is composed of, for example, a flash memory or the like, and stores data and programs used by the terminal device 10. In a certain aspect, the storage unit 160 stores the captured image 161, the first trained model 162, and the second trained model 163. The captured image 161 is an image captured by the photographing unit 150.

制御部170は、記憶部160に記憶されるプログラムを読み込んで、プログラムに含まれる命令を実行することにより、端末装置10の動作を制御する。制御部170は、例えば予め端末装置10にインストールされているアプリケーションである。制御部170は、プログラムに従って動作することにより、入力操作受付部171と、送受信部172と、識別部173と、表示処理部174としての機能を発揮する。 The control unit 170 controls the operation of the terminal device 10 by reading the program stored in the storage unit 160 and executing the instructions included in the program. The control unit 170 is, for example, an application installed in the terminal device 10 in advance. By operating according to the program, the control unit 170 exhibits functions as an input operation reception unit 171, a transmission / reception unit 172, an identification unit 173, and a display processing unit 174.

入力操作受付部171は、入力装置に対するユーザの入力操作を受け付ける処理を行う。 The input operation reception unit 171 performs a process of accepting a user's input operation to the input device.

送受信部172は、端末装置10が、情報処理サーバ20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。送受信部172は、撮影部150が撮影した撮影画像161のうち、識別部173が損傷を検出した画像である検出画像2021を、情報処理サーバ20に送信する処理を実行する。 The transmission / reception unit 172 performs a process for the terminal device 10 to transmit / receive data to / from an external device such as an information processing server 20 according to a communication protocol. The transmission / reception unit 172 executes a process of transmitting the detection image 2021, which is an image in which the identification unit 173 has detected damage, out of the captured images 161 captured by the photographing unit 150 to the information processing server 20.

識別部173は、端末装置10の撮影部150が路面を撮影した撮影画像161に対して、路面の損傷の有無の識別を行う。
本実施形態では、撮影部150は、所定の時間間隔で画像を撮影し、識別部173は、所定の時間間隔以内に、路面の損傷を識別する。ここで、所定の時間間隔は、例えば1.2秒である。1.2秒間隔で画像を撮影する場合、車両を40km/h(約11.1m/s)で走行させれば、約13m毎に路面が撮影されることとなり、路面を途切れることなく撮影することができる。
このように、識別部173によって、撮影部150の撮影間隔以内に路面の損傷が認識されるため、所定の時間間隔を車両の速度に応じて適切に選択することで、路面を途切れることなく撮影して損傷を識別することができる。
The identification unit 173 identifies the presence or absence of damage to the road surface with respect to the photographed image 161 captured by the photographing unit 150 of the terminal device 10.
In the present embodiment, the photographing unit 150 captures images at predetermined time intervals, and the identification unit 173 identifies damage to the road surface within a predetermined time interval. Here, the predetermined time interval is, for example, 1.2 seconds. When taking images at 1.2 second intervals, if the vehicle is driven at 40 km / h (about 11.1 m / s), the road surface will be taken every 13 m, and the road surface will be taken without interruption. be able to.
In this way, the identification unit 173 recognizes the damage to the road surface within the photographing interval of the photographing unit 150. Therefore, by appropriately selecting a predetermined time interval according to the speed of the vehicle, the road surface is photographed without interruption. And the damage can be identified.

識別部173は、第1学習済みモデル162を用いて、路面の損傷の有無を識別する。
第1学習済みモデル162は、例えば、予め記憶部160に記憶されている。第1学習済みモデル162は、撮影部150が撮影する撮影画像161に基づき、随時、生成および更新されることとしてもよい。
第1学習済みモデル162は、画像中に路面の損傷箇所があるかどうかの識別を行うモデルである。
The identification unit 173 uses the first trained model 162 to identify the presence or absence of damage to the road surface.
The first trained model 162 is stored in the storage unit 160 in advance, for example. The first trained model 162 may be generated and updated at any time based on the captured image 161 captured by the photographing unit 150.
The first trained model 162 is a model for identifying whether or not there is a damaged portion of the road surface in the image.

第1学習済みモデル162は、学習用データに基づき、モデル学習プログラムに従って機械学習モデルに機械学習を行わせることにより得られる。例えば、本実施形態において、第1学習済みモデル162は、入力される画像情報に対し、損傷の箇所および損傷の種類を出力するように学習されている。
このとき、学習用データは、例えば、過去に路面の状態が撮影された路面の画像情報を入力データとし、入力された画像情報に対して損傷箇所に関する情報と、損傷の種類に関する情報と、を正解出力データとする。
The first trained model 162 is obtained by causing a machine learning model to perform machine learning according to a model learning program based on training data. For example, in the present embodiment, the first trained model 162 is trained to output the damage location and the damage type with respect to the input image information.
At this time, for the learning data, for example, the image information of the road surface in which the state of the road surface was photographed in the past is used as the input data, and the information regarding the damaged portion and the information regarding the type of damage are provided with respect to the input image information. Correct output data.

具体的には、第1学習済みモデル162は、様々な種類の損傷を有する路面の画像の特徴量(基準特徴量)と、評価対象である撮影画像161の特徴量と、を比較して類似度を評価することで、いずれかの種類の損傷があるかどうかを判定する。類似度の評価に際しては、評価対象である撮影画像161の特徴量が、基準特徴量に対して、予め設定された閾値の範囲内である場合に、当該損傷があると判断される。なお、様々な種類の損傷について、基準特徴量がそれぞれ設定されている。損傷の種類については後述する。 Specifically, the first trained model 162 is similar by comparing the feature amount (reference feature amount) of the image of the road surface having various types of damage with the feature amount of the captured image 161 to be evaluated. The degree is assessed to determine if there is any type of damage. In the evaluation of the degree of similarity, if the feature amount of the captured image 161 to be evaluated is within the range of the preset threshold value with respect to the reference feature amount, it is determined that the damage is present. Reference features are set for various types of damage. The type of damage will be described later.

本実施形態に係る第1学習済みモデル162は、例えば、複数の関数が合成されたパラメータ付き合成関数である。パラメータ付き合成関数は、複数の調整可能な関数、及びパラメータの組合せにより定義される。本実施形態に係る第1学習済みモデル162は、上記の要請を満たす如何なるパラメータ付き合成関数であってもよいが、多層のニューラルネットワークモデル(以下「多層化ネットワーク」という。)であるとする。多層化ネットワークを用いる第1学習済みモデル162は、入力層と、出力層と、入力層と出力層との間に設けられる少なくとも1層の中間層あるいは隠れ層とを有する。第1学習済みモデル162は、人工知能ソフトウェアの一部であるプログラムモジュールとしての使用が想定される。 The first trained model 162 according to the present embodiment is, for example, a composite function with parameters in which a plurality of functions are composited. A parameterized composition function is defined by a plurality of adjustable functions and a combination of parameters. The first trained model 162 according to the present embodiment may be a composite function with any parameter that satisfies the above requirements, but is assumed to be a multi-layer neural network model (hereinafter referred to as “multi-layer network”). The first trained model 162 using the multi-layer network has an input layer, an output layer, and at least one intermediate layer or a hidden layer provided between the input layer and the output layer. The first trained model 162 is expected to be used as a program module that is a part of artificial intelligence software.

本実施形態に係る多層化ネットワークとしては、例えば、深層学習(Deep Learning)の対象となる多層ニューラルネットワークである深層ニューラルネットワーク(Deep Neural Network:DNN)が用いられ得る。DNNとしては、例えば、画像を対象とする畳み込みニューラルネットワーク(Convolution Neural Network:CNN)を用いてもよい。 As the multi-layer network according to the present embodiment, for example, a deep neural network (DNN), which is a multi-layer neural network targeted for deep learning, can be used. As the DNN, for example, a convolutional neural network (CNN) for an image may be used.

また識別部173は、第2学習済みモデル163を用いて、検出画像2021において検出された損傷が、道路領域内に位置するかどうかを判定する。 Further, the identification unit 173 determines whether or not the damage detected in the detection image 2021 is located in the road region by using the second trained model 163.

第2学習済みモデル163は、例えば、予め記憶部160に記憶されている。第2学習済みモデル163は、撮影部150が撮影する撮影画像161に基づき、随時、生成および更新されることとしてもよい。
第2学習済みモデル163は、画像中に検出された損傷箇所が、道路領域内にあるかどうかの識別を行うモデルである。
The second trained model 163 is stored in the storage unit 160 in advance, for example. The second trained model 163 may be generated and updated at any time based on the captured image 161 captured by the photographing unit 150.
The second trained model 163 is a model for identifying whether or not the damaged portion detected in the image is in the road area.

第2学習済みモデル163は、学習用データに基づき、モデル学習プログラムに従って機械学習モデルに機械学習を行わせることにより得られる。例えば、本実施形態において、第2学習済みモデル163は、入力される画像情報に対し、損傷の箇所が道路領域内にあるかどうかを出力するように学習されている。
このとき、学習用データは、例えば、過去に損傷のある路面の状態が撮影された路面の画像情報を入力データとし、入力された画像情報に対して損傷箇所が道路領域内に位置するかどうかに関する情報を正解出力データとする。
The second trained model 163 is obtained by causing the machine learning model to perform machine learning according to the model learning program based on the training data. For example, in the present embodiment, the second trained model 163 is trained to output whether or not the damaged portion is in the road area with respect to the input image information.
At this time, for the learning data, for example, the image information of the road surface in which the state of the damaged road surface was photographed in the past is used as the input data, and whether or not the damaged part is located in the road area with respect to the input image information. The information about is used as the correct answer output data.

具体的には、第2学習済みモデル163は、道路領域内に損傷がある路面の画像の特徴量(基準特徴量)と、評価対象である検出画像2021の特徴量と、を比較して類似度を評価することで、いずれかの種類の損傷があるかどうかを判定する。類似度の評価に際しては、評価対象である検出画像2021の特徴量が、基準特徴量に対して、予め設定された閾値の範囲内である場合に、当該損傷が道路領域内にあると判断される。 Specifically, the second trained model 163 compares and resembles the feature amount (reference feature amount) of the image of the road surface with damage in the road area and the feature amount of the detected image 2021 to be evaluated. The degree is assessed to determine if there is any type of damage. In the evaluation of the similarity, if the feature amount of the detection image 2021 to be evaluated is within the range of the preset threshold value with respect to the reference feature amount, it is determined that the damage is in the road area. NS.

本実施形態に係る第2学習済みモデル163は、例えば、複数の関数が合成されたパラメータ付き合成関数である。パラメータ付き合成関数は、複数の調整可能な関数、及びパラメータの組合せにより定義される。本実施形態に係る第2学習済みモデル163は、上記の要請を満たす如何なるパラメータ付き合成関数であってもよいが、多層化ネットワークであるとする。多層化ネットワークを用いる第2学習済みモデル163は、入力層と、出力層と、入力層と出力層との間に設けられる少なくとも1層の中間層あるいは隠れ層とを有する。第2学習済みモデル163は、人工知能ソフトウェアの一部であるプログラムモジュールとしての使用が想定される。 The second trained model 163 according to the present embodiment is, for example, a composite function with parameters in which a plurality of functions are composited. A parameterized composition function is defined by a plurality of adjustable functions and a combination of parameters. The second trained model 163 according to the present embodiment may be a composite function with any parameter that satisfies the above requirements, but is assumed to be a multi-layer network. The second trained model 163 using the multi-layer network has an input layer, an output layer, and at least one intermediate layer or a hidden layer provided between the input layer and the output layer. The second trained model 163 is expected to be used as a program module that is a part of artificial intelligence software.

識別部173は、撮影した位置および走行経路に関する情報を撮影した撮影画像161に関連付ける。識別部173は、撮影画像161を撮影した時刻、車両の位置、および車両の進行方向に関する情報を撮影画像161に関連付ける。 The identification unit 173 associates information about the photographed position and the traveling route with the photographed image 161. The identification unit 173 associates the captured image 161 with information regarding the time when the captured image 161 was captured, the position of the vehicle, and the traveling direction of the vehicle.

表示処理部174は、ユーザに対し情報を提示する処理を行う。表示処理部174は、表示画像をディスプレイ132に表示させる処理、音声をスピーカ142に出力させる処理等を行う。 The display processing unit 174 performs a process of presenting information to the user. The display processing unit 174 performs a process of displaying the display image on the display 132, a process of outputting the sound to the speaker 142, and the like.

<2.情報処理サーバ20の機能的な構成>
図5は、情報処理サーバ20の機能的な構成を示す図である。図3に示すように、情報処理サーバ20は、通信部201と、記憶部202と、制御部203としての機能を発揮する。
<2. Functional configuration of information processing server 20>
FIG. 5 is a diagram showing a functional configuration of the information processing server 20. As shown in FIG. 3, the information processing server 20 exerts functions as a communication unit 201, a storage unit 202, and a control unit 203.

通信部201は、情報処理サーバ20が外部の装置と通信するための処理を行う。 The communication unit 201 performs processing for the information processing server 20 to communicate with an external device.

記憶部202は、情報処理サーバ20が使用するデータ及びプログラムを記憶する。記憶部202は、検出画像2021と、第3学習済みモデル2022と、第4学習済みモデル2023と、評価データ2024と、を記憶する。 The storage unit 202 stores data and programs used by the information processing server 20. The storage unit 202 stores the detected image 2021, the third trained model 2022, the fourth trained model 2023, and the evaluation data 2024.

検出画像2021は、端末装置10から送信された画像情報である。すなわち、検出画像2021は、端末装置10の識別部173が、路面の損傷を検出した撮影画像161である。
第3学習済みモデル2022および評価データ2024については後述する。
The detection image 2021 is image information transmitted from the terminal device 10. That is, the detection image 2021 is a captured image 161 in which the identification unit 173 of the terminal device 10 has detected damage to the road surface.
The third trained model 2022 and the evaluation data 2024 will be described later.

制御部203は、情報処理サーバ20のプロセッサ21がプログラムに従って処理を行うことにより、送受信部2031、再識別部2032、位置判定部2033、および評価部2034としての機能を発揮する。 The control unit 203 functions as a transmission / reception unit 2031, a re-identification unit 2032, a position determination unit 2033, and an evaluation unit 2034 when the processor 21 of the information processing server 20 performs processing according to a program.

送受信部2031は、情報処理サーバ20が外部の装置に対し通信プロトコルに従って信号を送信する処理、および情報処理サーバ20が外部の装置から通信プロトコルに従って信号を受信する処理を制御する。 The transmission / reception unit 2031 controls a process in which the information processing server 20 transmits a signal to an external device according to the communication protocol, and a process in which the information processing server 20 receives a signal from the external device according to the communication protocol.

送受信部2031は、車両が走行する外部環境に関する情報を取得する。外部環境に関する情報には、天気に関する情報、時刻に関する状況、明るさに関する情報が含まれる。 The transmission / reception unit 2031 acquires information on the external environment in which the vehicle travels. Information about the external environment includes information about the weather, time of day, and brightness.

再識別部2032は、端末装置10から送信された複数の検出画像2021に対して、第3学習済みモデル2022を用いた識別を行うことで、路面の損傷の有無の識別を再度行う。 The re-identification unit 2032 reidentifies the presence or absence of damage to the road surface by identifying the plurality of detected images 2021 transmitted from the terminal device 10 using the third trained model 2022.

第3学習済みモデル2022は、例えば、予め記憶部202に記憶されている。第3学習済みモデル2022は、撮影部150が撮影する撮影画像161に基づき、随時、生成および更新されることとしてもよい。
第3学習済みモデル2022は、画像中に路面の損傷箇所があるかどうかの識別を行うモデルであり、識別における判断基準以外は、第1学習済みモデル162と同様の構成を備えている。
The third trained model 2022 is stored in the storage unit 202 in advance, for example. The third trained model 2022 may be generated and updated at any time based on the captured image 161 captured by the photographing unit 150.
The third trained model 2022 is a model for discriminating whether or not there is a damaged portion of the road surface in the image, and has the same configuration as the first trained model 162 except for the determination criteria in the discrimination.

情報処理サーバ20の再識別部2032が用いる第3学習済みモデル2022による識別の基準は、端末装置10の識別部173が用いる第1学習済みモデル162による識別の基準とは異なっている。例えば、第1学習済みモデル162による識別の方が、第3学習済みモデル2022により識別よりも緩い判断基準となっている。 The criteria for identification by the third trained model 2022 used by the re-identification unit 2032 of the information processing server 20 are different from the criteria for identification by the first trained model 162 used by the identification unit 173 of the terminal device 10. For example, the discrimination by the first trained model 162 is a looser judgment criterion than the discrimination by the third trained model 2022.

具体的には、第3学習済みモデル2022において設定されている基準特徴量に対する閾値は、第1学習済みモデル162において設定されている基準特徴量に対する閾値よりも許容される数値幅が狭くなっている。すなわち、第3学習済みモデル2022では、第1学習済みモデル162よりも特徴量の類似度が高い場合において、当該撮影画像161に損傷があると判断される。 Specifically, the threshold value for the reference feature amount set in the third trained model 2022 has a narrower allowable numerical range than the threshold value for the reference feature amount set in the first trained model 162. There is. That is, in the third trained model 2022, when the similarity of the feature amounts is higher than that of the first trained model 162, it is determined that the captured image 161 is damaged.

また、再識別部2032は、路面の損傷が、道路領域内に位置するかどうかの判定を再度行う。再識別部2032は、第4学習済みモデル2023を用いて、検出画像2021において検出された損傷が、道路領域内に位置するかどうかを判定する。 In addition, the re-identification unit 2032 redetermines whether or not the damage to the road surface is located in the road area. The re-identification unit 2032 uses the fourth trained model 2023 to determine whether the damage detected in the detection image 2021 is located within the road area.

第4学習済みモデル2023は、例えば、予め記憶部202に記憶されている。第4学習済みモデル2023は、撮影部150が撮影する撮影画像161に基づき、随時、生成および更新されることとしてもよい。
第4学習済みモデル2023は、画像中に検出された損傷箇所が道路領域内にあるかどうかの識別を行うモデルであり、識別における判断基準以外は、第2学習済みモデル163と同様の構成を備えている。
The fourth trained model 2023 is stored in the storage unit 202 in advance, for example. The fourth trained model 2023 may be generated and updated at any time based on the captured image 161 captured by the photographing unit 150.
The fourth trained model 2023 is a model for discriminating whether or not the damaged part detected in the image is in the road area, and has the same configuration as the second trained model 163 except for the judgment criteria in the discrimination. I have.

情報処理サーバ20の再識別部2032が用いる第4学習済みモデル2023による識別の基準は、端末装置10の識別部173が用いる第2学習済みモデル163による識別の基準とは異なっている。例えば、第2学習済みモデル163による識別の方が、第4学習済みモデル2023により識別よりも緩い判断基準となっている。 The criteria for identification by the fourth trained model 2023 used by the re-identification unit 2032 of the information processing server 20 are different from the criteria for identification by the second trained model 163 used by the identification unit 173 of the terminal device 10. For example, the discrimination by the second trained model 163 is a looser judgment criterion than the discrimination by the fourth trained model 2023.

具体的には、第4学習済みモデル2023において設定されている基準特徴量に対する閾値は、第2学習済みモデル163において設定されている基準特徴量に対する閾値よりも許容される数値幅が狭くなっている。すなわち、第4学習済みモデル2023では、第2学習済みモデル163よりも特徴量の類似度が高い場合において、検出された路面の損傷が、道路領域内にあると判定する。 Specifically, the threshold value for the reference feature amount set in the fourth trained model 2023 has a narrower allowable numerical range than the threshold value for the reference feature amount set in the second trained model 163. There is. That is, in the fourth trained model 2023, when the similarity of the feature amount is higher than that of the second trained model 163, it is determined that the detected road surface damage is in the road region.

位置判定部2033は、端末装置10の送受信部172から送信された複数の検出画像2021に撮影された路面の損傷が、同一箇所であるかどうかを判定する。具体的には、位置判定部2033は、検出画像2021、および検出画像2021が撮影された位置情報を用いて、複数の検出画像2021に撮影された前記路面の損傷が、同一箇所かどうかを判定する。
また、位置判定部2033は、車両の走行経路に関する情報を用いて、複数の検出画像2021に撮影された路面の損傷が、同一箇所かどうかを判定してもよい。
The position determination unit 2033 determines whether or not the damage to the road surface captured by the plurality of detection images 2021 transmitted from the transmission / reception unit 172 of the terminal device 10 is the same location. Specifically, the position determination unit 2033 uses the detection image 2021 and the position information in which the detection image 2021 is captured to determine whether or not the damage to the road surface captured in the plurality of detection images 2021 is the same location. do.
Further, the position determination unit 2033 may determine whether or not the damage to the road surface captured by the plurality of detection images 2021 is the same location by using the information regarding the traveling route of the vehicle.

評価部2034は、位置判定部2033により同一箇所と判定された路面の損傷に関する情報を、時系列に沿って統合して、路面の損傷の有無を評価する。具体的には、評価部2034は、時系列に沿って路面の損傷に関する情報を統合することで、路面の損傷の存在確率を算出する。
ここで、路面の損傷に関する情報とは、検出画像2021が撮影された位置における損傷の有無に関する情報、および検出画像2021のうちの少なくとも一方を含む。
The evaluation unit 2034 integrates information on road surface damage determined to be the same location by the position determination unit 2033 in chronological order to evaluate the presence or absence of road surface damage. Specifically, the evaluation unit 2034 calculates the existence probability of road surface damage by integrating information on road surface damage in chronological order.
Here, the information regarding the damage to the road surface includes at least one of the information regarding the presence or absence of damage at the position where the detection image 2021 was taken and the detection image 2021.

評価部2034は、外部環境に関する情報を用いて、存在確率への重み付けを行ってもよい。例えば、視界の悪い雨天時の検出結果よりも、視界が良い晴天時の検出結果に対して高い重みづけを行ってもよい。また、外が暗い夕方よりも、外が明るい昼間の検出結果に高い重みづけを行ってもよい。
評価部2034は、座標の損傷が撮影された座標位置毎に、任意の期間における路面の損傷の有無に関する情報を統合する。
The evaluation unit 2034 may weight the existence probability by using the information about the external environment. For example, the detection result in fine weather with good visibility may be weighted higher than the detection result in rainy weather with poor visibility. In addition, the detection result in the daytime when the outside is bright may be given higher weight than in the evening when the outside is dark.
The evaluation unit 2034 integrates information regarding the presence or absence of road surface damage in an arbitrary period for each coordinate position in which the coordinate damage is photographed.

図6は、本実施形態に係る情報処理サーバ20に表示される第2画面DP2の例を示す図である。
第2画面DP2は、情報処理サーバ20の再識別部2032が損傷を検出した検出画像2021および識別結果を受信した場合に表示されてよく、第1画面DP1と並べて表示されてもよい。情報処理サーバ20は、第2画面DP2を表示して、識別結果が正しいか管理者に確認させ、誤っている場合には管理者から識別結果の訂正を受け付けてよい。
FIG. 6 is a diagram showing an example of the second screen DP2 displayed on the information processing server 20 according to the present embodiment.
The second screen DP2 may be displayed when the re-identification unit 2032 of the information processing server 20 receives the detection image 2021 in which damage is detected and the identification result, and may be displayed side by side with the first screen DP1. The information processing server 20 may display the second screen DP2 and ask the administrator to confirm whether the identification result is correct, and if it is incorrect, accept the correction of the identification result from the administrator.

第2画面DP2には、撮影部150により撮影された検出画像2021、チェック済みフェーズDP22、タイムスタンプDP23、対応状況DP24、損傷種類DP25が含まれている。第2画面DP2には、識別部173により識別された損傷を囲むバウンディングボックスBが表示されている。 The second screen DP2 includes a detection image 2021 captured by the photographing unit 150, a checked phase DP22, a time stamp DP23, a correspondence status DP24, and a damage type DP25. On the second screen DP2, a bounding box B surrounding the damage identified by the identification unit 173 is displayed.

チェック済みフェーズDP22には、損傷のチェック作業の進捗状況が表示されている。図示の例において、符号DP221に示す携帯端末のアイコンは、端末装置10での損傷の識別が完了していることを示す。符号DP222に示すディスプレイのアイコンは、情報処理サーバ20での損傷の識別が完了していることを示す。符号DP223に示す眼のアイコンは、その後に行われるクラウドソーシングによるチェック処理が完了していることを示す。 In the checked phase DP22, the progress of the damage checking work is displayed. In the illustrated example, the icon of the mobile terminal indicated by the reference numeral DP221 indicates that the identification of the damage in the terminal device 10 has been completed. The display icon indicated by the reference numeral DP222 indicates that the damage identification on the information processing server 20 has been completed. The eye icon indicated by the reference numeral DP223 indicates that the subsequent check process by crowdsourcing has been completed.

第2画面DP2におけるタイムスタンプDP23には、検出画像2021を撮影した際に付与された日時に関する情報が示されている。すなわち、検出画像2021を撮影した日時および時刻を示す情報である。
第2画面DP2における対応状況DP24は、当該損傷に対して行われる対応に関する情報が記載されている。対応に関する情報としては、例えば、経過観察、管理者への報告予定、管理者への報告済み、修繕予定、等が挙げられる。
The time stamp DP23 on the second screen DP2 shows information regarding the date and time given when the detection image 2021 was taken. That is, it is information indicating the date and time when the detected image 2021 was taken.
The response status DP24 on the second screen DP2 describes information on the response to be taken for the damage. Information on the response includes, for example, follow-up, a report schedule to the manager, a report to the manager, a repair schedule, and the like.

第2画面DP2における損傷種類DP25には、損傷の種類が記載されている。ここで、損傷の種類について、図7よび図8を用いて説明する。
図7は、識別装置1により識別される損傷の種類の第1例を示す図である。図8は、識別装置1により識別される損傷の種類の第2例を示す図である。
The type of damage is described in the damage type DP25 on the second screen DP2. Here, the types of damage will be described with reference to FIGS. 7 and 8.
FIG. 7 is a diagram showing a first example of the type of damage identified by the identification device 1. FIG. 8 is a diagram showing a second example of the type of damage identified by the identification device 1.

図7Aに示すD00で識別される損傷の種類は、縦方向(進行方向)に沿って延びる線状のひび割れであり、車輪走行部に発生する損傷を指す。
図7Bに示すD01で識別される損傷の種類は、縦方向に沿って延びる線状のひび割れであり、施工ジョイント部に発生する損傷を指す。施工ジョイント部とは、アスファルト舗装のつなぎ目を意味する。
The type of damage identified by D00 shown in FIG. 7A is a linear crack extending in the vertical direction (traveling direction) and refers to damage occurring in the wheel traveling portion.
The type of damage identified by D01 shown in FIG. 7B is a linear crack extending in the vertical direction and refers to damage occurring in the construction joint portion. The construction joint portion means a joint of asphalt pavement.

図7Cに示すD10で識別される損傷の種類は、横方向(道路の幅方向)に沿って延びる線状のひび割れであり、車輪走行部に発生する損傷を指す。
図7Dに示すD11で識別される損傷の種類は、横方向に沿って延びる線状のひび割れであり、施工ジョイント部に発生する損傷を指す。
The type of damage identified in D10 shown in FIG. 7C is a linear crack extending along the lateral direction (width direction of the road) and refers to damage occurring in the wheel running portion.
The type of damage identified in D11 shown in FIG. 7D is a linear crack extending along the lateral direction and refers to damage occurring in the construction joint portion.

図8Aに示すD20で識別される損傷の種類は、亀甲状のひび割れを指す。
図8Bに示すD40で識別される損傷の種類は、段差、ポットホール、および剥離を指す。
図8Cで示すD43で識別される損傷の種類は、横断歩道のかすれを指す。
図8Dで示すD44で識別される損傷の種類は、白線のかすれを指す。
The type of damage identified by D20 shown in FIG. 8A refers to a hexagonal crack.
The types of damage identified by D40 shown in FIG. 8B refer to steps, potholes, and peels.
The type of damage identified by D43, shown in FIG. 8C, refers to pedestrian crossing fading.
The type of damage identified by D44 shown in FIG. 8D refers to the faint white line.

なお、上記の損傷の種類はあくまで例示であり、その他の損傷の種類を含んでもよい。このように、路面の損傷の有無のみならず、損傷の種類が識別され、損傷の状態について詳細な情報を得ることができる。 The above types of damage are merely examples, and other types of damage may be included. In this way, not only the presence or absence of damage to the road surface, but also the type of damage can be identified, and detailed information about the state of damage can be obtained.

<3.識別装置1の制御処理>
次に、識別装置1の制御処理について説明する。図9は、識別装置1により実行される処理のフローを説明する図である。
図9に示すように、まず、撮影部150が所定の時間間隔で画像を撮影する(ステップS110)。撮影部150は、撮影した撮影画像161を記憶部160に記憶させる。
ステップS110の後に、識別部173は、撮影画像161に撮影された路面における損傷の有無を識別する(ステップS111)。具体的には、識別部173は、第1学習済みモデル162に撮影画像161を入力することで、損傷の有無に関する出力を得る。
<3. Control process of identification device 1>
Next, the control process of the identification device 1 will be described. FIG. 9 is a diagram illustrating a flow of processing executed by the identification device 1.
As shown in FIG. 9, first, the photographing unit 150 captures images at predetermined time intervals (step S110). The photographing unit 150 stores the photographed image 161 in the storage unit 160.
After step S110, the identification unit 173 identifies the presence or absence of damage on the road surface captured in the captured image 161 (step S111). Specifically, the identification unit 173 obtains an output regarding the presence or absence of damage by inputting the captured image 161 into the first trained model 162.

ステップS111において、損傷が確認されない場合(ステップS112のNo)には、識別装置1による当該撮影画像161に対する識別処理を終了し、次のフレームに対応する撮影画像161の識別を行う。 If no damage is confirmed in step S111 (No in step S112), the identification process for the captured image 161 by the identification device 1 is terminated, and the captured image 161 corresponding to the next frame is identified.

ステップS111において、損傷が確認された場合(ステップS112のYes)には、識別部173が、損傷が道路領域内かどうかを判定する(ステップS113)。具体的には、識別部173は、撮影画像161を第2学習済みモデル163に入力することで、損傷が道路領域内かどうかの出力を得る。 If damage is confirmed in step S111 (Yes in step S112), the identification unit 173 determines whether the damage is within the road area (step S113). Specifically, the identification unit 173 inputs the captured image 161 to the second trained model 163 to obtain an output of whether or not the damage is within the road area.

ステップS113において、損傷が道路領域内ではないと出力された場合(ステップS114のNo)、具体的には損傷が歩道や周囲の建物等に位置する場合には、識別装置1による当該撮影画像161に対する識別処理を終了し、次のフレームに対応する撮影画像161の識別を行う。 In step S113, when it is output that the damage is not within the road area (No in step S114), specifically, when the damage is located on a sidewalk, a surrounding building, or the like, the captured image 161 by the identification device 1 The identification process for the image 161 is completed, and the captured image 161 corresponding to the next frame is identified.

ステップS113において、損傷が道路領域内であると出力された場合(ステップS114のYes)には、識別部173は、撮影位置に関する情報を関連付ける(ステップS115)。
ステップS115の後に、端末装置10の送受信部172が、検出画像2021を情報処理サーバ20に送信する(ステップS116)。これにより、情報処理サーバ20の送受信部2031が、検出画像2021を受信し、記憶部202に記憶させる。
When it is output in step S113 that the damage is within the road area (Yes in step S114), the identification unit 173 associates information about the shooting position (step S115).
After step S115, the transmission / reception unit 172 of the terminal device 10 transmits the detection image 2021 to the information processing server 20 (step S116). As a result, the transmission / reception unit 2031 of the information processing server 20 receives the detected image 2021 and stores it in the storage unit 202.

ステップS116の後に、情報処理サーバ20の再識別部2032が、検出画像2021に対して損傷の有無を再度識別する(ステップS117)。具体的には、再識別部2032は、第3学習済みモデル2022に撮影画像161を入力することで、損傷の有無に関する出力を得る。 After step S116, the re-identification unit 2032 of the information processing server 20 re-identifies the presence or absence of damage to the detected image 2021 (step S117). Specifically, the re-identification unit 2032 obtains an output regarding the presence or absence of damage by inputting the captured image 161 into the third trained model 2022.

ステップS117において、損傷が確認されない場合(ステップS118のNo)には、識別装置1による当該撮影画像161に対する識別処理を終了し、次のフレームに対応する撮影画像161の識別を行う。 If no damage is confirmed in step S117 (No in step S118), the identification process for the captured image 161 by the identification device 1 is terminated, and the captured image 161 corresponding to the next frame is identified.

ステップS117において、損傷が確認された場合(ステップS118のYes)には、再識別部2032が、損傷が道路領域内かどうかを判定する(ステップS119)。
具体的には、再識別部2032は、撮影画像161を第4学習済みモデル2023に入力することで、損傷が道路領域内かどうかの出力を得る。
If damage is confirmed in step S117 (Yes in step S118), the re-identification unit 2032 determines whether the damage is within the road area (step S119).
Specifically, the re-identification unit 2032 inputs the captured image 161 into the fourth trained model 2023 to obtain an output of whether or not the damage is within the road area.

ステップS119において、損傷が道路領域内ではないと出力された場合(ステップS120のNo)、具体的には損傷が歩道や周囲の建物等に位置する場合には、識別装置1による当該撮影画像161に対する識別処理を終了し、次のフレームに対応する撮影画像161の識別を行う。 In step S119, when it is output that the damage is not within the road area (No in step S120), specifically, when the damage is located on a sidewalk, a surrounding building, or the like, the captured image 161 by the identification device 1 The identification process for the image 161 is completed, and the captured image 161 corresponding to the next frame is identified.

ステップS119において、損傷が道路領域内であると出力された場合(ステップS120のYes)には、クラウドソーシングによる目視チェックを実行する(ステップS121)。具体的には、不特定多数のチェッカーに対して検出画像2021を送信し、チェックを受ける。この結果において、損傷であるという回答数が一定の数を超えた場合に、損傷があるものとして扱う。 When it is output in step S119 that the damage is within the road area (Yes in step S120), a visual check by crowdsourcing is executed (step S121). Specifically, the detection image 2021 is transmitted to an unspecified number of checkers and checked. In this result, if the number of answers that it is damaged exceeds a certain number, it is treated as damaged.

ステップS121の後に、位置判定部2033は、検出画像2021の位置を判定する。すなわち、損傷が確認された検出画像2021について、同一箇所であるかどうかの判定を行う。具体的には、情報処理サーバ20の記憶部202には、撮影した日時の異なる多数の検出画像2021が記憶されている。位置判定部2033は、これらの多数の検出画像2021に対して、緯度、経度等の座標を用いて、同一箇所として識別する。 After step S121, the position determination unit 2033 determines the position of the detection image 2021. That is, it is determined whether or not the detected image 2021 in which damage is confirmed is the same location. Specifically, the storage unit 202 of the information processing server 20 stores a large number of detected images 2021 having different shooting dates and times. The position determination unit 2033 identifies these large numbers of detected images 2021 as the same location by using coordinates such as latitude and longitude.

ステップS122の後に、評価部2034は、損傷の確率分布を算出する(ステップS123)。具体的には、路面の損傷が撮影された座標位置毎に、任意の期間における路面の損傷の有無に関する情報を統合する。この時の評価結果を図10で説明する。図10は、評価データ2024の一例を示す図である。 After step S122, the evaluation unit 2034 calculates the damage probability distribution (step S123). Specifically, information on the presence or absence of road surface damage during an arbitrary period is integrated for each coordinate position where the road surface damage is photographed. The evaluation result at this time will be described with reference to FIG. FIG. 10 is a diagram showing an example of evaluation data 2024.

図10に示すように、評価部2034は、車両の走行経路における出発点(start)から目的地(Goal)までの座標位置毎に、時系列に沿って、路面の損傷に関する情報を統合する。具体的には、評価部2034は、時間を変数とする確率を算出する。図10に示す評価データ2024の例では、クラウドソーシングによる目視チェックにおいて損傷があると判断された検出画像2021の評価指標を1とし、クラウドソーシングによる目視チェックまでのいずれかの工程で損傷がないと判断された検出画像2021の評価指標を0として集計している。そして、存在確率は、全標本数に対して1と検出された確率を算出する。 As shown in FIG. 10, the evaluation unit 2034 integrates information on road surface damage in chronological order for each coordinate position from the start point (start) to the destination (Goal) in the traveling path of the vehicle. Specifically, the evaluation unit 2034 calculates the probability that time is a variable. In the example of the evaluation data 2024 shown in FIG. 10, the evaluation index of the detection image 2021 determined to be damaged in the visual check by crowdsourcing is set to 1, and there is no damage in any of the steps up to the visual check by crowdsourcing. The evaluation index of the determined detection image 2021 is counted as 0. Then, the existence probability is calculated as 1 for the total number of samples.

評価部2034は、最終的な判断として、存在確率の閾値を設定する。例えば閾値を80%と設定した場合には、存在確率が80%以上の座標に対して、損傷があると判断する。この際、評価部2034は、撮影された地点における外部環境(天候、時刻、明るさ)により、重みづけを行ってもよい。例えば、悪天候時には傷の誤認が想定される。このため、12月1日の座標(x1、y1)が悪天候であった場合には、評価指標に×0.9とする。同様に、夕方や暗い環境で撮影された検出画像2021の評価指標に予め設定された重み係数を乗じてもよい。このような重み係数の値は、外部環境の条件の影響度に応じて任意に設定することができる。 The evaluation unit 2034 sets a threshold value of the existence probability as a final judgment. For example, when the threshold value is set to 80%, it is determined that there is damage to the coordinates having an existence probability of 80% or more. At this time, the evaluation unit 2034 may perform weighting according to the external environment (weather, time, brightness) at the shooting point. For example, in bad weather, misidentification of scratches is assumed. Therefore, if the coordinates (x1, y1) on December 1 are bad weather, the evaluation index is set to x0.9. Similarly, the evaluation index of the detection image 2021 taken in the evening or in a dark environment may be multiplied by a preset weighting coefficient. The value of such a weighting coefficient can be arbitrarily set according to the degree of influence of the conditions of the external environment.

以上説明したように、本実施形態に係る識別装置1によれば、端末装置10の撮影部150が撮影した撮影画像161に対して、端末装置10の識別部173が損傷の有無を識別する。そして、撮影画像161のうち、端末装置10において損傷が検出された検出画像2021のみを情報処理サーバ20に送信する。
このため、撮影された膨大な量の撮影画像161のうち、全ての撮影画像161を端末装置10から情報処理サーバ20に送信する必要がなく、一部の撮影画像161に相当する、損傷が検出された検出画像2021のみを、端末装置10から情報処理サーバ20に送信すれば足りる。これにより、撮影を行う端末装置10からのデータの通信量を大きく抑えることができる。
As described above, according to the identification device 1 according to the present embodiment, the identification unit 173 of the terminal device 10 identifies the presence or absence of damage to the photographed image 161 captured by the photographing unit 150 of the terminal device 10. Then, of the captured images 161 and only the detected image 2021 in which damage is detected in the terminal device 10 is transmitted to the information processing server 20.
Therefore, it is not necessary to transmit all the captured images 161 out of the enormous amount of captured images 161 taken from the terminal device 10 to the information processing server 20, and damage corresponding to some of the captured images 161 is detected. It suffices to transmit only the detected detection image 2021 from the terminal device 10 to the information processing server 20. As a result, the amount of data communication from the terminal device 10 for photographing can be greatly suppressed.

また、情報処理サーバ20の位置判定部2033が、撮影された損傷の位置が同一箇所であるかどうかを判定し、評価部2034が、路面の損傷に関する情報を、時系列に沿って統合して、路面の損傷の有無を評価する。
このため、一枚の撮影画像161による判定ではなく、多数の撮影画像161から総合的に損傷の有無を判断することができ、路面の損傷の有無の検出を精度よく行うことができる。
Further, the position determination unit 2033 of the information processing server 20 determines whether or not the photographed damage positions are the same, and the evaluation unit 2034 integrates the information on the road surface damage in chronological order. , Evaluate the presence or absence of road surface damage.
Therefore, it is possible to comprehensively determine the presence or absence of damage from a large number of captured images 161 instead of the determination by one captured image 161 and to accurately detect the presence or absence of damage to the road surface.

また、評価部2034が、時系列に沿って、路面の損傷が撮影された座標位置毎に、任意の期間における路面の損傷に関する情報を統合することで、路面の損傷の存在確率を算出する。これにより、損傷の識別における誤判定を吸収しながら、統計的に損傷の有無を判断することができる。 Further, the evaluation unit 2034 calculates the existence probability of the road surface damage by integrating the information on the road surface damage in an arbitrary period for each coordinate position where the road surface damage is photographed in chronological order. As a result, it is possible to statistically determine the presence or absence of damage while absorbing the erroneous determination in the identification of damage.

また、評価部2034が、外部環境に関する情報を用いて、存在確率への重み付けを行うので、撮影時の条件の違いを考慮して、精度の高い識別を行うことができる。 Further, since the evaluation unit 2034 weights the existence probability by using the information about the external environment, it is possible to perform highly accurate identification in consideration of the difference in the conditions at the time of shooting.

また、位置判定部2033が、検出画像2021、および検出画像2021が撮影された位置情報を用いて、複数の検出画像2021に撮影された路面の損傷が、同一箇所かどうかを判定する。これにより、大量の撮影画像161を用いて同一箇所の損傷がどのように推移するのかを確認することができる。 Further, the position determination unit 2033 determines whether or not the detection image 2021 and the damage on the road surface photographed by the plurality of detection images 2021 are the same location by using the position information in which the detection image 2021 is captured. This makes it possible to confirm how the damage at the same location changes by using a large number of captured images 161.

また、位置判定部2033が、車両の走行経路に関する情報を用いて、複数の検出画像2021に撮影された路面の損傷が、同一箇所かどうかを判定する。これにより、車両の進行方向を考慮して、撮影された時点に対する損傷の位置を正確に把握することができる。 In addition, the position determination unit 2033 determines whether or not the damage to the road surface captured in the plurality of detection images 2021 is the same location by using the information regarding the traveling route of the vehicle. As a result, it is possible to accurately grasp the position of the damage with respect to the time when the image was taken in consideration of the traveling direction of the vehicle.

また、識別部173が、検出画像2021において検出された損傷が、道路領域内に位置するかどうかを判定する。このため、歩道や周囲の設備の損傷をノイズとして除外することができる。 In addition, the identification unit 173 determines whether or not the damage detected in the detection image 2021 is located in the road area. Therefore, damage to the sidewalk and surrounding equipment can be excluded as noise.

また、情報処理サーバ20が、検出画像2021に対して、学習済みモデルを用いた識別を行うことで、路面の損傷の有無の識別、および路面の損傷が、道路領域内に位置するかどうかの判定を再度行う再識別部2032をさらに備えている。このため、損傷の識別をより高精度に行うことができる。 Further, the information processing server 20 identifies the detected image 2021 using the trained model to identify whether or not the road surface is damaged, and whether or not the road surface damage is located in the road area. Further, a re-identification unit 2032 for performing the determination again is provided. Therefore, damage can be identified with higher accuracy.

また、再識別部2032は、識別部173と異なる識別基準に従って、路面の損傷の有無を再度識別する。このため、例えば再識別部2032による識別基準を識別部173による識別基準よりも高くすることで、端末装置10での一次的な識別では損傷がありそうな撮影画像161を拾い上げ、情報処理サーバ20での二次的な識別ではノイズを除外するというように、多様な識別を行うことができる。 Further, the re-identification unit 2032 re-identifies the presence or absence of damage to the road surface according to an identification standard different from that of the identification unit 173. Therefore, for example, by setting the identification standard by the re-identification unit 2032 higher than the identification standard by the identification unit 173, the captured image 161 that is likely to be damaged in the primary identification by the terminal device 10 is picked up, and the information processing server 20 In the secondary discrimination in, various discriminations can be made, such as excluding noise.

(変形例)
上述の実施形態においては、評価部2034が時系列に沿って統合する路面の損傷に関する情報が、検出画像2021が撮影された位置における損傷の有無に関する情報である例を示したが、この限りではない。例えば、評価部2034は、検出画像2021を路面の損傷に関する情報として、時系列に沿って統合してもよい。この場合には、時系列に沿って成長する損傷の様子が描写された画像の集合(動画)を得ることができる。
(Modification example)
In the above-described embodiment, an example is shown in which the information on the road surface damage integrated by the evaluation unit 2034 in chronological order is the information on the presence or absence of damage at the position where the detection image 2021 is taken. No. For example, the evaluation unit 2034 may integrate the detected image 2021 as information on road surface damage in chronological order. In this case, it is possible to obtain a set (moving image) of images depicting the state of damage growing in chronological order.

また、上述の実施形態では、1台の車両に搭載される端末装置10により撮影された撮影画像161を評価する例を示したが、このような態様に限られない。例えば、多数の車両により撮影された撮影画像161の評価をおこなってもよい。
具体的には、事前に登録された多数のユーザが撮影した撮影画像161に対して、それぞれの端末装置10において損傷の有無の識別を行う。そして、複数の撮影画像161のうち、損傷が検出された検出画像2021が、それぞれの端末装置10から情報処理サーバ20に送信され、情報処理サーバ20において、前述したそれぞれの評価処理が行われてもよい。このような構成を採用すれば、端末装置10として、汎用の携帯端末やドライブレコーダのような兼用の装置を採用することにより、様々な走行経路における膨大な数の撮影地点において撮影された、大量の検出画像2021を容易に取得することができる。これにより、算出された路面の損傷の存在確率の精度を確保することができる。
Further, in the above-described embodiment, an example of evaluating the captured image 161 captured by the terminal device 10 mounted on one vehicle has been shown, but the present invention is not limited to such an embodiment. For example, the photographed image 161 photographed by a large number of vehicles may be evaluated.
Specifically, the terminal device 10 identifies the presence or absence of damage to the captured images 161 captured by a large number of pre-registered users. Then, among the plurality of captured images 161 the detected image 2021 in which damage is detected is transmitted from each terminal device 10 to the information processing server 20, and the information processing server 20 performs each of the above-mentioned evaluation processes. May be good. If such a configuration is adopted, by adopting a dual-purpose device such as a general-purpose mobile terminal or a drive recorder as the terminal device 10, a large number of images are taken at a huge number of shooting points on various traveling routes. The detected image 2021 of the above can be easily acquired. As a result, the accuracy of the calculated probability of existence of road surface damage can be ensured.

以上、本開示のいくつかの実施形態を説明したが、これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものとする。 Although some embodiments of the present disclosure have been described above, these embodiments can be implemented in various other embodiments, and various omissions, replacements, and modifications are made without departing from the gist of the invention. It can be performed. These embodiments and modifications thereof shall be included in the scope of the invention described in the claims and the equivalent scope thereof, as well as in the scope and gist of the invention.

<付記>
実施形態で説明した事項を、以下に付記する。
<Additional notes>
The matters described in the embodiment are added below.

(付記1)
端末装置10、および情報処理サーバ20を備える識別装置1であって、
端末装置10は、
車両に搭載され、路面の画像を撮影する撮影部150と、
撮影部150が撮影した画像に対して、学習済みモデルを用いた識別を行うことで、路面の損傷の有無を識別する識別部173と、
画像のうち、識別部173が損傷を検出した検出画像2021を、情報処理サーバ20に送信する送信部172と、を備え、
情報処理サーバ20は、
送信部172から送信された複数の検出画像2021に撮影された路面の損傷が、同一箇所であるかどうかを判定する位置判定部2033と、
位置判定部2033により同一箇所と判定された路面の損傷に関する情報を、時系列に沿って統合して、路面の損傷の有無を評価する評価部2034と、を備える識別装置1。
(Appendix 1)
An identification device 1 including a terminal device 10 and an information processing server 20.
The terminal device 10
The shooting unit 150, which is mounted on the vehicle and takes an image of the road surface,
The identification unit 173, which identifies the presence or absence of damage to the road surface by identifying the image captured by the photographing unit 150 using the trained model,
Among the images, a transmission unit 172 that transmits the detection image 2021 in which the identification unit 173 has detected damage to the information processing server 20 is provided.
The information processing server 20
The position determination unit 2033 that determines whether or not the damage to the road surface captured by the plurality of detection images 2021 transmitted from the transmission unit 172 is the same location,
An identification device 1 comprising an evaluation unit 2034 that integrates information on road surface damage determined to be the same location by the position determination unit 2033 in chronological order and evaluates the presence or absence of road surface damage.

(付記2)
評価部2034は、時系列に沿って、路面の損傷に関する情報を統合することで、路面の損傷の存在確率を算出する、(付記1)に記載の識別装置1。
(Appendix 2)
The identification device 1 according to (Appendix 1), wherein the evaluation unit 2034 calculates the existence probability of road surface damage by integrating information on road surface damage in chronological order.

(付記3)
情報処理サーバ20は、
車両が走行する外部環境に関する情報を取得し、
評価部2034は、
外部環境に関する情報を用いて、存在確率への重み付けを行う、(付記2)に記載の識別装置1。
(Appendix 3)
The information processing server 20
Get information about the external environment in which the vehicle travels
Evaluation unit 2034
The identification device 1 according to (Appendix 2), which weights the existence probability using information on the external environment.

(付記4)
識別部173は、
撮影した位置に関する情報を検出画像2021に関連付け、
路面の損傷に関する情報は、検出画像2021が撮影された位置における損傷の有無に関する情報、および検出画像2021のうちの少なくとも一方を含む、(付記1)から(付記3)のいずれかに記載の識別装置1。
(Appendix 4)
The identification unit 173
Associate the information about the captured position with the detection image 2021 and
The identification according to any one of (Appendix 1) to (Appendix 3), wherein the information on the road surface damage includes information on the presence or absence of damage at the position where the detected image 2021 was taken and at least one of the detected images 2021. Device 1.

(付記5)
識別部173は、
撮影した位置に関する情報を検出画像2021に関連付け、
位置判定部2033は、
検出画像2021、および検出画像2021が撮影された位置情報を用いて、複数の検出画像2021に撮影された路面の損傷が、同一箇所かどうかを判定する、(付記1)から(付記4)のいずれかに記載の識別装置1。
(Appendix 5)
The identification unit 173
Associate the information about the captured position with the detection image 2021 and
The position determination unit 2033
Using the position information in which the detected images 2021 and the detected images 2021 are captured, it is determined whether or not the damage to the road surface captured in the plurality of detected images 2021 is the same location, from (Appendix 1) to (Appendix 4). The identification device 1 according to any one.

(付記6)
情報処理サーバ20は、
車両の走行経路に関する情報を取得し、
位置判定部2033は、
車両の走行経路に関する情報を用いて、複数の検出画像2021に撮影された路面の損傷が、同一箇所かどうかを判定する、(付記1)から(付記5)のいずれかに記載の識別装置1。
(Appendix 6)
The information processing server 20
Get information about the vehicle's travel route,
The position determination unit 2033
The identification device 1 according to any one of (Appendix 1) to (Appendix 5), which determines whether or not the damage to the road surface captured in the plurality of detected images 2021 is the same location by using the information on the traveling route of the vehicle. ..

(付記7)
識別部173は、
検出画像2021において検出された損傷が、道路領域内に位置するかどうかを判定する、(付記1)から(付記6)のいずれかに記載の識別装置1。
(Appendix 7)
The identification unit 173
The identification device 1 according to any one of (Appendix 1) to (Appendix 6), which determines whether or not the damage detected in the detection image 2021 is located in the road area.

(付記8)
情報処理サーバ20は、
送信部172から送信された複数の検出画像2021に対して、学習済みモデルを用いた識別を行うことで、路面の損傷の有無の識別、および路面の損傷が、道路領域内に位置するかどうかの判定を再度行う再識別部2032をさらに備えている、(付記1)から(付記7)のいずれかに記載の識別装置1。
(Appendix 8)
The information processing server 20
By identifying the plurality of detected images 2021 transmitted from the transmission unit 172 using the trained model, it is possible to identify whether or not the road surface is damaged and whether or not the road surface damage is located in the road area. The identification device 1 according to any one of (Appendix 1) to (Appendix 7), further comprising a re-identification unit 2032 for re-determining.

(付記9)
再識別部2032は、識別部173と異なる識別基準に従って、路面の損傷の有無を再度識別する、(付記8)に記載の識別装置1。
(Appendix 9)
The identification device 1 according to (Appendix 8), wherein the re-identification unit 2032 reidentifies the presence or absence of damage to the road surface according to an identification standard different from that of the identification unit 173.

(付記10)
情報処理サーバ20は、
車両の走行経路に関する情報を取得し、
評価部2034は、路面の損傷が撮影された座標位置毎に、任意の期間における路面の損傷の有無に関する情報を統合する、(付記1)から(付記9)のいずれかに記載の識別装置1。
(Appendix 10)
The information processing server 20
Get information about the vehicle's travel route,
The identification device 1 according to any one of (Appendix 1) to (Appendix 9), wherein the evaluation unit 2034 integrates information regarding the presence or absence of road surface damage at an arbitrary period for each coordinate position where the road surface damage is photographed. ..

(付記11)
プロセッサを備えた識別システムに実行させる識別プログラムであって、
プロセッサに、
車両に搭載された撮影部150が、路面の画像を撮影するステップ(ステップS110)と、
撮影部150が撮影した画像に対して、学習済みモデルを用いた識別を行うことで、路面の損傷の有無を識別するステップ(ステップS111)と、
画像のうち、識別部173が損傷を検出した検出画像2021を、情報処理サーバ20に送信するステップ(ステップS116)と、
送信部172から送信された複数の検出画像2021に撮影された路面の損傷が、同一箇所であるかどうかを判定するステップ(ステップS122)と、
同一箇所と判定された路面の損傷に関する情報を、時系列に沿って統合して、路面の損傷の有無を評価するステップ(ステップS123)と、を実行させるプログラム。
(Appendix 11)
An identification program that is executed by an identification system equipped with a processor.
To the processor
A step (step S110) in which the photographing unit 150 mounted on the vehicle captures an image of the road surface,
A step (step S111) of identifying the presence or absence of damage to the road surface by identifying the image captured by the photographing unit 150 using the trained model.
A step (step S116) of transmitting the detection image 2021 in which the identification unit 173 has detected damage to the information processing server 20 among the images.
A step (step S122) of determining whether or not the road surface damages captured by the plurality of detection images 2021 transmitted from the transmission unit 172 are the same location, and
A program for executing a step (step S123) of integrating information on road surface damage determined to be the same location in chronological order and evaluating the presence or absence of road surface damage.

(付記12)
プロセッサを備えた識別装置1が実行する方法であって、
プロセッサが、
車両に搭載された撮影部150が、路面の画像を撮影するステップ(ステップS110)と、
撮影部150が撮影した画像に対して、学習済みモデルを用いた識別を行うことで、路面の損傷の有無を識別するステップ(ステップS111)と、
画像のうち、識別部173が損傷を検出した検出画像2021を、情報処理サーバ20に送信するステップ(ステップS116)と、
送信部172から送信された複数の検出画像2021に撮影された路面の損傷が、同一箇所であるかどうかを判定するステップ(ステップS122)と、
位置判定部2033により同一箇所と判定された路面の損傷に関する情報を、時系列に沿って統合して、路面の損傷の有無を評価するステップ(ステップS123)と、を実行する方法。
(Appendix 12)
It is a method executed by the identification device 1 provided with a processor.
The processor,
A step (step S110) in which the photographing unit 150 mounted on the vehicle captures an image of the road surface,
A step (step S111) of identifying the presence or absence of damage to the road surface by identifying the image captured by the photographing unit 150 using the trained model.
A step (step S116) of transmitting the detection image 2021 in which the identification unit 173 has detected damage to the information processing server 20 among the images.
A step (step S122) of determining whether or not the road surface damages captured by the plurality of detection images 2021 transmitted from the transmission unit 172 are the same location, and
A method of executing a step (step S123) of integrating information on road surface damage determined to be the same location by the position determination unit 2033 in chronological order and evaluating the presence or absence of road surface damage.

1…識別装置
10…端末装置
150…撮影部
170…制御部
171…入力操作受付部
172…送受信部
173…識別部
174…表示処理部
20…情報処理端末
203…制御部
2031…送受信部
2032…再識別部
2033…位置判定部
2034…評価部

1 ... Identification device 10 ... Terminal device 150 ... Imaging unit 170 ... Control unit 171 ... Input operation reception unit 172 ... Transmission / reception unit 173 ... Identification unit 174 ... Display processing unit 20 ... Information processing terminal 203 ... Control unit 2031 ... Transmission / reception unit 2032 ... Re-identification unit 2033 ... Position determination unit 2034 ... Evaluation unit

Claims (15)

端末装置、および情報処理サーバを備える識別装置であって、
前記端末装置は、
車両に搭載され、路面の画像を撮影する撮影部と、
前記撮影部が撮影した画像に対して、学習済みモデルを用いた識別を行うことで、前記路面の損傷の有無を識別する識別部と、
前記撮影部が撮影した全ての画像を前記端末装置から前記情報処理サーバに送信することなく、前記画像のうち、前記識別部が損傷を検出した検出画像を、前記情報処理サーバに送信する送信部と、を備え、
前記情報処理サーバは、
前記送信部から送信された複数の前記検出画像に撮影された前記路面の損傷が、同一箇所であるかどうかを判定する位置判定部と、
前記位置判定部により同一箇所と判定された前記路面の損傷に関する情報を、時系列に沿って統合して、前記路面の損傷の有無を評価する評価部と、を備える識別装置。
An identification device including a terminal device and an information processing server.
The terminal device is
A shooting unit that is mounted on the vehicle and captures images of the road surface,
An identification unit that identifies the presence or absence of damage to the road surface by performing identification using a trained model on the image captured by the photographing unit.
A transmission unit that transmits the detected image in which the identification unit detects damage among the images to the information processing server without transmitting all the images captured by the photographing unit from the terminal device to the information processing server. And with
The information processing server
A position determination unit that determines whether or not the damage to the road surface captured by the plurality of detection images transmitted from the transmission unit is the same location, and
An identification device including an evaluation unit that integrates information on damage to the road surface determined to be the same location by the position determination unit in chronological order and evaluates the presence or absence of damage to the road surface.
端末装置、および情報処理サーバを備える識別装置であって、An identification device including a terminal device and an information processing server.
前記端末装置は、The terminal device is
車両に搭載され、路面の画像を撮影する撮影部と、A shooting unit that is mounted on the vehicle and captures images of the road surface,
前記撮影部が撮影した画像に対して、学習済みモデルを用いた識別を行うことで、前記路面の損傷の有無を識別する識別部と、An identification unit that identifies the presence or absence of damage to the road surface by performing identification using a trained model on the image captured by the photographing unit.
前記画像のうち、前記識別部が損傷を検出した検出画像を、前記情報処理サーバに送信する送信部と、を備え、Among the images, a transmission unit that transmits a detection image in which the identification unit has detected damage to the information processing server is provided.
前記情報処理サーバは、The information processing server
前記送信部から送信された複数の前記検出画像に撮影された前記路面の損傷が、同一箇所であるかどうかを判定する位置判定部と、A position determination unit that determines whether or not the damage to the road surface captured by the plurality of detection images transmitted from the transmission unit is the same location, and
前記位置判定部により同一箇所と判定された前記路面の損傷の有無に関する情報を、任意の期間において時系列に沿って統合して、前記損傷が存在するかどうかを確率として示す存在確率を算出する評価部と、を備える識別装置。Information on the presence or absence of damage to the road surface determined to be the same location by the position determination unit is integrated in chronological order for an arbitrary period to calculate the existence probability indicating whether or not the damage exists as a probability. An identification device including an evaluation unit.
前記評価部は、時系列に沿って、前記路面の損傷に関する情報を統合する ことで、前記路面の損傷の存在確率を算出する、請求項1又は2に記載の識別装置。 The identification device according to claim 1 or 2 , wherein the evaluation unit calculates the existence probability of the road surface damage by integrating information on the road surface damage in chronological order. 前記情報処理サーバは、
車両が走行する外部環境に関する情報を取得し、
前記評価部は、
前記外部環境に関する情報を用いて、前記存在確率への重み付けを行う、請求項2又は3に記載の識別装置。
The information processing server
Get information about the external environment in which the vehicle travels
The evaluation unit
The identification device according to claim 2 or 3 , wherein the existence probability is weighted by using the information about the external environment.
前記識別部は、
撮影した位置に関する情報を前記検出画像に関連付け、
前記路面の損傷に関する情報は、前記検出画像が撮影された位置における損傷の有無に関する情報、および前記検出画像のうちの少なくとも一方を含む、請求項1から4のいずれか1項に記載の識別装置。
The identification unit
The information about the captured position is associated with the detected image,
The identification device according to any one of claims 1 to 4, wherein the information regarding the damage to the road surface includes information regarding the presence or absence of damage at the position where the detected image was taken and at least one of the detected images. ..
前記識別部は、
撮影した位置に関する情報を前記検出画像に関連付け、
前記位置判定部は、
前記検出画像、および前記検出画像が撮影された位置情報を用いて、複数の前記検出画像に撮影された前記路面の損傷が、同一箇所かどうかを判定する、請求項1からのいずれか1項に記載の識別装置。
The identification unit
The information about the captured position is associated with the detected image,
The position determination unit
Any one of claims 1 to 5 , which determines whether or not the damage to the road surface captured in the plurality of detected images is the same location by using the detected image and the position information in which the detected image was captured. The identification device described in the section.
前記情報処理サーバは、
前記車両の走行経路に関する情報を取得し、
前記位置判定部は、
前記車両の走行経路に関する情報を用いて、複数の前記検出画像に撮影された前記路面の損傷が、同一箇所かどうかを判定する、請求項1からのいずれか1項に記載の識別装置。
The information processing server
Obtain information about the traveling route of the vehicle and
The position determination unit
The identification device according to any one of claims 1 to 6 , wherein it is determined whether or not the damage to the road surface captured in the plurality of detection images is the same location by using the information on the traveling route of the vehicle.
前記識別部は、
前記検出画像において検出された損傷が、道路領域内に位置するかどうかを判定する、請求項1からのいずれか1項に記載の識別装置。
The identification unit
The identification device according to any one of claims 1 to 7 , which determines whether or not the damage detected in the detection image is located in the road area.
前記情報処理サーバは、
前記送信部から送信された複数の前記検出画像に対して、学習済みモデルを用いた識別を行うことで、前記路面の損傷の有無の識別、および前記路面の損傷が、道路領域内に位置するかどうかの判定を再度行う再識別部 をさらに備えている、請求項1からのいずれか1項に記載の識別装置。
The information processing server
By identifying the plurality of detected images transmitted from the transmission unit using the trained model, the presence or absence of damage to the road surface and the damage to the road surface are located in the road region. The identification device according to any one of claims 1 to 8 , further comprising a re-identification unit for re-determining whether or not the image is present.
前記再識別部は、前記識別部と異なる識別基準に従って、前記路面の損傷の有無を再度識別する、請求項に記載の識別装置。 The identification device according to claim 9 , wherein the re-identification unit reidentifies the presence or absence of damage to the road surface according to an identification standard different from that of the identification unit. 前記情報処理サーバは、
前記車両の走行経路に関する情報を取得し、
前記評価部は、前記路面の損傷が撮影された座標位置毎に、任意の期間における路面の損傷の有無に関する情報を統合する、請求項1から10のいずれか1項に記載の識別装置。
The information processing server
Obtain information about the traveling route of the vehicle and
The identification device according to any one of claims 1 to 10 , wherein the evaluation unit integrates information regarding the presence or absence of road surface damage in an arbitrary period for each coordinate position where the road surface damage is photographed.
プロセッサを備えた識別システムに実行させる識別プログラムであって、
プロセッサに、
車両に搭載された撮影部が、路面の画像を撮影するステップと、
前記撮影部が撮影した画像に対して、学習済みモデルを用いた識別を行うことで、前記路面の損傷の有無を識別するステップと、
前記撮影部が撮影した全ての画像を送信することなく、前記画像のうち、前記識別するステップにおいて損傷を検出した検出画像を、情報処理サーバに送信するステップと、
前記送信するステップにおいて送信された複数の前記検出画像に撮影された前記路面の損傷が、同一箇所であるかどうかを判定するステップと、
前記判定するステップにおいて同一箇所と判定された前記路面の損傷に関する情報を、時系列に沿って統合して、前記路面の損傷の有無を評価するステップと、を実行させるプログラム。
An identification program that is executed by an identification system equipped with a processor.
To the processor
The step that the shooting unit mounted on the vehicle takes an image of the road surface,
A step of identifying the presence or absence of damage to the road surface by identifying the image captured by the photographing unit using a trained model.
A step of transmitting the detected image in which damage is detected in the identification step among the images to the information processing server without transmitting all the images captured by the photographing unit.
A step of determining whether or not the damage to the road surface captured in the plurality of detected images transmitted in the transmission step is the same location, and
A program for executing a step of integrating information on damage to the road surface determined to be the same location in the determination step in chronological order and evaluating the presence or absence of damage to the road surface.
プロセッサを備えた識別装置が実行する方法であって、
プロセッサが、
車両に搭載された撮影部が、路面の画像を撮影するステップと、
前記撮影部が撮影した画像に対して、学習済みモデルを用いた識別を行うことで、前記路面の損傷の有無を識別するステップと、
前記撮影部が撮影した全ての画像を送信することなく、前記画像のうち、前記識別するステップにおいてが損傷を検出した検出画像を、情報処理サーバに送信するステップと、
前記送信するステップにおいて送信された複数の前記検出画像に撮影された前記路面の損傷が、同一箇所であるかどうかを判定するステップと、
前記判定するステップにおいて同一箇所と判定された前記路面の損傷に関する情報を、時系列に沿って統合して、前記路面の損傷の有無を評価するステップと、を実行する方法。
It is a method performed by an identification device equipped with a processor.
The processor,
The step that the shooting unit mounted on the vehicle takes an image of the road surface,
A step of identifying the presence or absence of damage to the road surface by identifying the image captured by the photographing unit using a trained model.
A step of transmitting the detected image in which damage is detected in the identification step among the images to the information processing server without transmitting all the images captured by the photographing unit.
A step of determining whether or not the damage to the road surface captured in the plurality of detected images transmitted in the transmission step is the same location, and
A method of executing a step of integrating information on damage to the road surface determined to be the same location in the determination step in chronological order and evaluating the presence or absence of damage to the road surface.
プロセッサを備えた識別システムに実行させる識別プログラムであって、An identification program that is executed by an identification system equipped with a processor.
プロセッサに、To the processor
車両に搭載された撮影部が、路面の画像を撮影するステップと、The step that the shooting unit mounted on the vehicle takes an image of the road surface,
前記撮影部が撮影した画像に対して、学習済みモデルを用いた識別を行うことで、前記路面の損傷の有無を識別するステップと、A step of identifying the presence or absence of damage to the road surface by identifying the image captured by the photographing unit using a trained model.
前記画像のうち、前記識別するステップにおいて損傷を検出した検出画像を、情報処理サーバに送信するステップと、Among the images, a step of transmitting a detection image in which damage is detected in the identification step to an information processing server, and a step of transmitting the damage to the information processing server.
前記送信するステップにおいて送信された複数の前記検出画像に撮影された前記路面の損傷が、同一箇所であるかどうかを判定するステップと、A step of determining whether or not the damage to the road surface captured in the plurality of detected images transmitted in the transmission step is the same location, and
前記判定するステップにおいて同一箇所と判定された前記路面の損傷の有無に関する情報を、任意の期間において時系列に沿って統合して、前記損傷が存在するかどうかを確率として示す存在確率を算出するステップと、を実行させるプログラム。Information on the presence or absence of damage to the road surface determined to be the same location in the determination step is integrated in chronological order for an arbitrary period to calculate the existence probability indicating whether or not the damage exists as a probability. A program that executes steps and.
プロセッサを備えた識別装置が実行する方法であって、It is a method performed by an identification device equipped with a processor.
プロセッサが、The processor,
車両に搭載された撮影部が、路面の画像を撮影するステップと、The step that the shooting unit mounted on the vehicle takes an image of the road surface,
前記撮影部が撮影した画像に対して、学習済みモデルを用いた識別を行うことで、前記路面の損傷の有無を識別するステップと、A step of identifying the presence or absence of damage to the road surface by identifying the image captured by the photographing unit using a trained model.
前記画像のうち、前記識別するステップにおいて損傷を検出した検出画像を、情報処理サーバに送信するステップと、Among the images, a step of transmitting a detection image in which damage is detected in the identification step to an information processing server, and a step of transmitting the damage to the information processing server.
前記送信するステップにおいて送信された複数の前記検出画像に撮影された前記路面の損傷が、同一箇所であるかどうかを判定するステップと、A step of determining whether or not the damage to the road surface captured in the plurality of detected images transmitted in the transmission step is the same location, and
前記判定するステップにおいて同一箇所と判定された前記路面の損傷の有無に関する情報を、任意の期間において時系列に沿って統合して、前記損傷が存在するかどうかを確率として示す存在確率を算出するステップと、を実行する方法。Information on the presence or absence of damage to the road surface determined to be the same location in the determination step is integrated in chronological order for an arbitrary period to calculate the existence probability indicating whether or not the damage exists as a probability. Steps and how to perform.
JP2021022428A 2021-02-16 2021-02-16 Identification device, identification program, and identification method Active JP6955295B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021022428A JP6955295B1 (en) 2021-02-16 2021-02-16 Identification device, identification program, and identification method
JP2021155233A JP2022124993A (en) 2021-02-16 2021-09-24 Identification device, identification program and identification method
PCT/JP2021/043492 WO2022176303A1 (en) 2021-02-16 2021-11-26 Identification apparatus, identification program, and identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021022428A JP6955295B1 (en) 2021-02-16 2021-02-16 Identification device, identification program, and identification method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021155233A Division JP2022124993A (en) 2021-02-16 2021-09-24 Identification device, identification program and identification method

Publications (2)

Publication Number Publication Date
JP6955295B1 true JP6955295B1 (en) 2021-10-27
JP2022124663A JP2022124663A (en) 2022-08-26

Family

ID=78119269

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021022428A Active JP6955295B1 (en) 2021-02-16 2021-02-16 Identification device, identification program, and identification method
JP2021155233A Pending JP2022124993A (en) 2021-02-16 2021-09-24 Identification device, identification program and identification method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021155233A Pending JP2022124993A (en) 2021-02-16 2021-09-24 Identification device, identification program and identification method

Country Status (2)

Country Link
JP (2) JP6955295B1 (en)
WO (1) WO2022176303A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018025919A (en) * 2016-08-09 2018-02-15 株式会社東芝 Information processor, information processing method, and mobile body
JP2018516799A (en) * 2015-05-06 2018-06-28 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト Method and apparatus for recognizing and evaluating road surface reflections
JP2019045922A (en) * 2017-08-30 2019-03-22 株式会社ネクスコ・エンジニアリング北海道 Deformed spot detection device, deformed spot detection program and deformed spot detection method
JP6795064B1 (en) * 2019-08-27 2020-12-02 トヨタ自動車株式会社 Display processing device, display processing method, program
WO2020255628A1 (en) * 2019-06-20 2020-12-24 矢崎総業株式会社 Image processing device, and image processing program
JP2021071919A (en) * 2019-10-31 2021-05-06 三菱電機株式会社 Road monitoring device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018516799A (en) * 2015-05-06 2018-06-28 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト Method and apparatus for recognizing and evaluating road surface reflections
JP2018025919A (en) * 2016-08-09 2018-02-15 株式会社東芝 Information processor, information processing method, and mobile body
JP2019045922A (en) * 2017-08-30 2019-03-22 株式会社ネクスコ・エンジニアリング北海道 Deformed spot detection device, deformed spot detection program and deformed spot detection method
WO2020255628A1 (en) * 2019-06-20 2020-12-24 矢崎総業株式会社 Image processing device, and image processing program
JP2021002162A (en) * 2019-06-20 2021-01-07 矢崎総業株式会社 Image processing apparatus and program for image processing
JP6795064B1 (en) * 2019-08-27 2020-12-02 トヨタ自動車株式会社 Display processing device, display processing method, program
JP2021071919A (en) * 2019-10-31 2021-05-06 三菱電機株式会社 Road monitoring device

Also Published As

Publication number Publication date
JP2022124663A (en) 2022-08-26
JP2022124993A (en) 2022-08-26
WO2022176303A1 (en) 2022-08-25

Similar Documents

Publication Publication Date Title
CN110174093B (en) Positioning method, device, equipment and computer readable storage medium
US20200042800A1 (en) Image acquiring system, terminal, image acquiring method, and image acquiring program
CN109935077A (en) System for constructing vehicle and cloud real-time traffic map for automatic driving vehicle
US9070305B1 (en) Traffic light detecting system and method
CN105512646A (en) Data processing method, data processing device and terminal
CN105868696A (en) Method and device for detecting multiple lane lines
US10679077B2 (en) Road marking recognition device
CN109840454B (en) Target positioning method, device, storage medium and equipment
CN110164164B (en) Method for enhancing accuracy of mobile phone navigation software for identifying complex road by utilizing camera shooting function
JP6758160B2 (en) Vehicle position detection device, vehicle position detection method and computer program for vehicle position detection
JP2020196442A (en) Accident determination device
CN104678421A (en) Positioning control method
KR20180110891A (en) Device and method for recognizing objects included in input image
CN105975967A (en) Target positioning method and system
CN114945802A (en) System, apparatus and method for identifying and updating design applicability of autonomous vehicles
KR20160122368A (en) Method and Apparatus for image information of car navigation to Improve the accuracy of the location using space information
US20200242377A1 (en) Automatically associating road sign information with road segments using image data
CN106600652A (en) Panorama camera positioning method based on artificial neural network
US20220207997A1 (en) Traffic Flow Estimation Apparatus, Traffic Flow Estimation Method, Traffic Flow Estimation Program, And Storage Medium Storing Traffic Flow Estimation Program
JP6955295B1 (en) Identification device, identification program, and identification method
JP6916975B2 (en) Sign positioning system and program
JP7025080B1 (en) Identification device, identification program, and identification method
JP4774807B2 (en) Image correction device, feature recognition device, and feature recognition method
US20230081098A1 (en) Deterioration diagnosis device, deterioration diagnosis method, and recording medium
JP2019114086A (en) Information processor, information collector, map information update timing determination system, map information update timing determination method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210216

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210216

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210924

R150 Certificate of patent or registration of utility model

Ref document number: 6955295

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150