JP2022154584A - Information processing device and information processing method - Google Patents

Information processing device and information processing method Download PDF

Info

Publication number
JP2022154584A
JP2022154584A JP2021057689A JP2021057689A JP2022154584A JP 2022154584 A JP2022154584 A JP 2022154584A JP 2021057689 A JP2021057689 A JP 2021057689A JP 2021057689 A JP2021057689 A JP 2021057689A JP 2022154584 A JP2022154584 A JP 2022154584A
Authority
JP
Japan
Prior art keywords
image
unit
house
change
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021057689A
Other languages
Japanese (ja)
Inventor
寛之 鬼丸
Hiroyuki Onimaru
康夫 大石
Yasuo Oishi
明 飯星
Akira Iiboshi
篤樹 柿沼
Atsuki Kakinuma
武雄 徳永
Takeo Tokunaga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2021057689A priority Critical patent/JP2022154584A/en
Publication of JP2022154584A publication Critical patent/JP2022154584A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide a method for obtaining information about a plurality of sorts of buildings and the like using a captured image.SOLUTION: An information processing device comprises: an acquisition unit that acquires an image captured by a camera mounted on a vehicle; a specifying unit that specifies an object to be processed based on the captured image; and an extracting unit that extracts a change point to be a target for detecting a change in the object to be processed from the captured image, wherein the extraction unit is configured to be able to execute a plurality of pieces of extraction processing, and extracts the change point of the object to be processed by performing the extraction processing corresponding to the object to be processed specified by the specifying unit.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置、及び、情報処理方法に関する。 The present invention relates to an information processing device and an information processing method.

従来、建物等の構造物に関する情報を得るため、広範囲を撮影した撮影画像を利用する方法が知られている。例えば、特許文献1は、航空写真画像、衛星画像などの撮影画像と、地図データとを利用して、建造物が空き家であるか否かを判定する手法を開示する。 2. Description of the Related Art Conventionally, in order to obtain information about structures such as buildings, there has been known a method of using a photographed image obtained by photographing a wide range. For example, Patent Literature 1 discloses a method of determining whether or not a building is an empty house by using a photographed image such as an aerial photograph image or a satellite image and map data.

国際公開2019/225597International publication 2019/225597

建造物が空き家であるか否かの判定に限らず、撮影画像を利用して被写体に関する情報を得る手法は様々な目的に利用できる可能性がある。しかしながら、有用な情報を得るためには撮影画像を解析する処理を被写体に特化させなければならない。このため、特許文献1に記載されたように、特定の目的に適した装置を利用しなければならなかった。
本発明はかかる背景に鑑みてなされたものであり、撮影画像を利用して複数の種類の建造物等についての情報を得る方法を提供することを目的とする。
The method of obtaining information about a subject using a photographed image may be used for various purposes, not limited to determining whether or not a building is an empty house. However, in order to obtain useful information, the process of analyzing the captured image must be specialized for the subject. For this reason, a device suitable for a specific purpose had to be utilized, as described in US Pat.
SUMMARY OF THE INVENTION It is an object of the present invention to provide a method of obtaining information about a plurality of types of buildings using photographed images.

上記目的を達成するための一態様は、車両に搭載されたカメラの撮影画像を取得する取得部と、前記撮影画像に基づき処理対象物を特定する特定部と、前記撮影画像から、前記処理対象物の変化を検出する対象となる変化点を抽出する抽出部と、を備え、前記抽出部は、複数の抽出処理を実行可能に構成され、前記特定部により特定された前記処理対象物に対応する前記抽出処理を行うことによって、前記処理対象物の変化点を抽出する、情報処理装置である。 One aspect for achieving the above object is an acquisition unit that acquires an image captured by a camera mounted on a vehicle, an identification unit that identifies an object to be processed based on the captured image, and an object to be processed from the captured image. an extraction unit for extracting change points from which change in an object is to be detected, wherein the extraction unit is configured to be capable of executing a plurality of extraction processes, and corresponds to the processing object specified by the specifying unit. The information processing apparatus extracts a change point of the object to be processed by performing the extraction process.

上記情報処理システムにおいて、前記抽出部は、前記処理対象物における前記変化点、及び、前記変化点について検出する変化の態様が異なる複数の前記抽出処理を実行可能であり、複数の前記抽出処理のうち前記特定部により特定された前記処理対象物に対応する前記抽出処理を特定して実行することにより、前記処理対象物における前記変化点の変化の態様を検出する構成としてもよい。 In the above information processing system, the extraction unit is capable of executing a plurality of the extraction processes in which the change point in the object to be processed and the mode of change detected for the change point are different, and the extraction process includes: A configuration may be adopted in which a mode of change of the change point in the processing target is detected by specifying and executing the extraction process corresponding to the processing target specified by the specifying unit.

上記情報処理システムにおいて、前記抽出部は、前記抽出処理において、第1の前記撮影画像から抽出した前記変化点と、前記第1の前記撮影画像とは異なる時期に撮影された第2の前記撮影画像から抽出した前記変化点と、を比較することにより、前記変化点における変化を検出する構成としてもよい。 In the above information processing system, in the extraction process, the extraction unit extracts the change point extracted from the first captured image and the second captured image captured at a different time from the first captured image. A configuration may be employed in which a change at the change point is detected by comparing the change point extracted from the image.

上記情報処理システムにおいて、前記抽出部は、前記特定部によって前記処理対象物として住宅が特定された場合、前記撮影画像に含まれる前記住宅の側面の画像から変化点を抽出することによって、前記住宅が居住中であるか空き家かを判定する構成としてもよい。 In the above information processing system, when the identifying unit identifies a house as the object to be processed, the extracting unit extracts a change point from an image of a side surface of the house included in the photographed image, thereby extracting the house. may be configured to determine whether the house is inhabited or vacant.

上記情報処理システムにおいて、前記抽出部は、夜間に撮影された前記撮影画像に含まれる前記住宅の側面の画像から抽出した前記変化点と、昼間に撮影された前記撮影画像に含まれる前記住宅の側面の画像から抽出した前記変化点と、を比較することによって、前記住宅が居住中であるか空き家かを判定する構成としてもよい。 In the above information processing system, the extracting unit extracts the change point extracted from the side image of the house included in the photographed image taken at night and the house contained in the photographed image taken during the daytime. It may be determined whether the house is inhabited or vacant by comparing with the change point extracted from the side image.

上記情報処理システムにおいて、前記抽出部は、前記撮影画像から抽出した前記変化点をもとに、前記住宅の側面の画像から、前記住宅の内部または付近にいる人の有無、前記住宅の照明の点灯状態、前記住宅で干されている洗濯物の状態、前記住宅の窓の開閉状態、前記住宅の一部または全体における温度変化、及び、前記住宅に配達された郵便物の状態の少なくともいずれかを検出することによって、前記住宅が居住中であるか空き家かを判定する構成としてもよい。 In the above information processing system, the extracting unit extracts from the image of the side of the house the presence or absence of people inside or near the house, the lighting of the house based on the change point extracted from the photographed image. At least one of a lighting state, a state of the laundry being hung in the residence, an open/closed state of the windows of the residence, a temperature change in a part or the entirety of the residence, and a state of mail delivered to the residence. It may be determined whether the house is inhabited or vacant by detecting .

上記情報処理システムにおいて、前記抽出部は、前記特定部によって前記処理対象物として信号機が特定された場合、前記撮影画像に含まれる前記信号機の画像から変化点を抽出することによって、前記信号機の動作状態が正常であるか否か、及び、前記信号機に異物が付着しているか否かの少なくともいずれかを判定する構成としてもよい。 In the above information processing system, when the specifying unit specifies a traffic light as the object to be processed, the extracting unit extracts a change point from the image of the traffic light included in the captured image to determine the operation of the traffic light. It may be configured to determine at least one of whether or not the state is normal and whether or not a foreign object is attached to the traffic signal.

上記情報処理システムにおいて、前記抽出部は、前記特定部によって前記処理対象物として道路が特定された場合、前記撮影画像に含まれる前記道路の画像から変化点を抽出することによって、前記道路の路面状態の異常を検出する構成としてもよい。 In the above information processing system, when a road is specified as the object to be processed by the specifying unit, the extracting unit extracts a change point from the image of the road included in the captured image, thereby extracting a road surface of the road. A configuration for detecting an abnormality in the state may be employed.

上記情報処理システムにおいて、前記取得部は、前記カメラが撮影した動画像と、前記動画像の撮影中における前記車両の位置情報とを取得し、前記動画像から静止画像を切り出すことによって前記撮影画像を取得し、前記車両の位置情報をもとに前記静止画像に対応する位置情報を生成して、生成した位置情報を前記撮影画像に対応付ける処理を行い、前記抽出部は、前記撮影画像から前記変化点を抽出した処理の結果とともに、前記撮影画像に対応付けられた位置情報を出力する構成としてもよい。 In the above information processing system, the acquisition unit acquires a moving image captured by the camera and position information of the vehicle during capturing of the moving image, and cuts out a still image from the moving image to obtain the captured image. is obtained, position information corresponding to the still image is generated based on the position information of the vehicle, and processing is performed to associate the generated position information with the captured image, and the extraction unit extracts from the captured image the The position information associated with the captured image may be output together with the result of the process of extracting the change point.

上記目的を達成するための別の一態様は、車両に搭載されたカメラの撮影画像を取得し、前記撮影画像に基づき処理対象物を特定し、前記撮影画像から、前記処理対象物の変化を検出する対象となる変化点を抽出する処理であって実行可能に設定された複数の抽出処理のうち、特定された前記処理対象物に対応する前記抽出処理を行うことによって、前記処理対象物の変化点を抽出する、情報処理方法である。 Another aspect for achieving the above object is to obtain an image captured by a camera mounted on a vehicle, identify a processing target based on the captured image, and detect changes in the processing target from the captured image. By performing the extraction process corresponding to the identified processing object among a plurality of extraction processes set to be executable, the extraction process extracting a change point to be detected is performed. This is an information processing method for extracting change points.

本発明によれば、撮影画像において特定した処理対象物に対応する抽出処理を行うことによって、車両が搭載するカメラの撮影画像をもとに、複数の種類の処理対象物に関する情報を得ることができる。 According to the present invention, by performing extraction processing corresponding to the processing target specified in the captured image, it is possible to obtain information on a plurality of types of processing target based on the captured image of the camera mounted on the vehicle. can.

情報処理システムの概要を示す説明図である。1 is an explanatory diagram showing an overview of an information processing system; FIG. 情報処理システムの構成図である。1 is a configuration diagram of an information processing system; FIG. 情報処理装置の動作を示すフローチャートである。4 is a flowchart showing the operation of the information processing device; 情報処理装置の動作を示すフローチャートである。4 is a flowchart showing the operation of the information processing device; 情報処理装置の動作を示すフローチャートである。4 is a flowchart showing the operation of the information processing device; 情報処理装置の動作を示すフローチャートである。4 is a flowchart showing the operation of the information processing device; 情報処理装置の動作を示すフローチャートである。4 is a flowchart showing the operation of the information processing device; 情報処理装置の動作を示すフローチャートである。4 is a flowchart showing the operation of the information processing device; 情報処理装置の動作を示すフローチャートである。4 is a flowchart showing the operation of the information processing device;

[1.情報処理システムの概要]
図1は、本実施形態の情報処理システム1の概要を示す説明図である。
情報処理システム1は、車両Vに搭載されたカメラ205の撮影画像をもとに、車両Vが走行する道路、及び、道路の周辺に位置する建造物等の状態に関して情報を得るシステムである。情報処理システム1は、情報処理サーバ100と、車両Vに搭載された車載装置200とを含む。情報処理サーバ100は、情報処理装置の一例に対応する。
[1. Information processing system overview]
FIG. 1 is an explanatory diagram showing an outline of an information processing system 1 of this embodiment.
The information processing system 1 is a system that obtains information on the state of the road on which the vehicle V travels and the structures and the like located around the road, based on the images captured by the camera 205 mounted on the vehicle V. The information processing system 1 includes an information processing server 100 and an in-vehicle device 200 mounted on a vehicle V. FIG. The information processing server 100 corresponds to an example of an information processing device.

車載装置200は、カメラ205を備える。カメラ205は、車両Vの走行中に道路を含む画角を撮影するデジタルカメラであり、動画像を撮影するビデオカメラであってもよいし、スチルカメラであってもよい。また、車載装置200は、赤外線カメラ206を搭載してもよい。赤外線カメラ206は、赤外線サーモグラフィーカメラであり、赤外線カメラ206の撮影画像は撮影された被写体表面の温度を示す。 The in-vehicle device 200 has a camera 205 . The camera 205 is a digital camera that captures an angle of view including the road while the vehicle V is running, and may be a video camera that captures moving images or a still camera. Also, the in-vehicle device 200 may be equipped with an infrared camera 206 . The infrared camera 206 is an infrared thermography camera, and an image captured by the infrared camera 206 indicates the surface temperature of the subject.

カメラ205、及び、赤外線カメラ206の画角、すなわち撮影範囲には、例えば、道路530、道路530の横に建っている住宅501、道路530に設置された信号機510、歩道520、歩道520に駐輪された自転車540等が含まれる。これらの建造物、物体、人などがカメラ205及び赤外線カメラ206の被写体となり得る。 The angle of view of the camera 205 and the infrared camera 206, that is, the imaging range, includes, for example, a road 530, a house 501 built beside the road 530, a traffic light 510 installed on the road 530, a sidewalk 520, and a vehicle parked on the sidewalk 520. Included are wheeled bicycles 540 and the like. These buildings, objects, people, etc. can be subjects of the camera 205 and the infrared camera 206 .

車載装置200は、セルラー通信等の無線通信機能を備え、カメラ205及び/または赤外線カメラ206の撮影画像を含む撮影データDを、情報処理サーバ100に送信する。情報処理システム1及び情報処理サーバ100は、例えば、通信ネットワークNWを通じて相互にデータ通信可能に接続される。 The in-vehicle device 200 has a wireless communication function such as cellular communication, and transmits photographed data D including images photographed by the camera 205 and/or the infrared camera 206 to the information processing server 100 . The information processing system 1 and the information processing server 100 are connected, for example, through a communication network NW so as to be able to communicate data with each other.

情報処理システム1に含まれる車両V及び車載装置200の数に制限はない。図1には1台の車両Vを示しているが、これは一例であり、情報処理サーバ100は、複数の車載装置200から撮影画像を取得する構成とすることが可能である。また、以下では車両Vが四輪自動車である例を説明するが、車両Vの種類は特に制限されず、大型自動車、商用車、二輪車、三輪車等であってもよい。 The number of vehicles V and in-vehicle devices 200 included in the information processing system 1 is not limited. Although one vehicle V is shown in FIG. 1 , this is an example, and the information processing server 100 can be configured to acquire captured images from a plurality of in-vehicle devices 200 . Further, although an example in which the vehicle V is a four-wheeled vehicle will be described below, the type of the vehicle V is not particularly limited, and may be a large vehicle, a commercial vehicle, a two-wheeled vehicle, a three-wheeled vehicle, or the like.

通信ネットワークNWは、データ通信ネットワークであればよく、公衆回線網を含む広域通信ネットワーク、LAN(Local Area Network)等が挙げられる。 The communication network NW may be any data communication network, such as a wide area communication network including a public line network, a LAN (Local Area Network), and the like.

情報処理サーバ100は、車載装置200が送信する撮影データDを受信し、撮影データDに含まれる撮影画像を解析することによって、住宅501、信号機510、歩道520、道路530等に関する情報を取得する。本実施形態で、情報処理サーバ100は、撮影画像を解析することにより得られた情報をもとに、住宅501が空き家であるか否か、信号機510の動作状態や外観の異常の有無、歩道520に放置された自転車540の有無、道路530の異常の有無等を判定する。 The information processing server 100 receives the photographed data D transmitted by the in-vehicle device 200 and analyzes the photographed images included in the photographed data D to obtain information regarding the house 501, the traffic light 510, the sidewalk 520, the road 530, and the like. . In the present embodiment, the information processing server 100 determines whether or not the house 501 is vacant, whether the traffic light 510 is operating or has an external appearance abnormality, and whether the sidewalk Whether or not there is a bicycle 540 left on the road 520, whether or not there is an abnormality on the road 530, and the like are determined.

本実施形態の情報処理サーバ100は、通信ネットワークNWを介して配信サーバ300とデータ通信可能に接続される。情報処理サーバ100は、撮影画像に基づき判定した結果を、配信サーバ300に送信する。 The information processing server 100 of the present embodiment is connected to the distribution server 300 via the communication network NW so as to be capable of data communication. The information processing server 100 transmits the determination result based on the captured image to the distribution server 300 .

配信サーバ300は、ユーザ端末250と通信を実行することにより、ユーザ端末250に情報を配信する。ユーザ端末250は、モバイルデバイス、或いはハンドヘルドコンピュータと呼ばれる携帯型のコンピュータであり、例えばスマートフォンである。 The distribution server 300 distributes information to the user terminal 250 by communicating with the user terminal 250 . The user terminal 250 is a mobile device or a portable computer called a handheld computer, such as a smart phone.

配信サーバ300は、ユーザ端末250にインストールされたアプリケーションプログラム(以下、アプリという)の機能を利用して、ユーザ端末250との間で通信ネットワークNWを通じて情報を提供する。ユーザ端末250にインストールされるアプリは、例えば、市町村またはより狭い地域を対象とし、地域のコミュニティにおける情報交換や行政機関との情報交換に利用される地域アプリが挙げられる。地域アプリは、地域の住民が個人的に使用するユーザ端末250や、行政機関が使用する不図示のコンピュータにインストールされる。配信サーバ300は、情報処理サーバ100から送信される情報を取得し、地域アプリがインストールされたユーザ端末250やコンピュータに、情報を配信する。 The distribution server 300 uses functions of an application program (hereinafter referred to as an application) installed in the user terminal 250 to provide information to the user terminal 250 through the communication network NW. Applications installed in the user terminal 250 are, for example, local applications intended for municipalities or narrower areas and used for information exchange in local communities and information exchange with administrative agencies. The local application is installed in the user terminal 250 personally used by local residents and in a computer (not shown) used by an administrative agency. The distribution server 300 acquires information transmitted from the information processing server 100, and distributes the information to the user terminal 250 or computer in which the local application is installed.

情報処理サーバ100は、1つのサーバコンピュータで構成されてもよいし、複数のコンピュータで構成されてもよく、クラウド型のサーバであってもよい。配信サーバ300も同様である。また、情報処理サーバ100は、車載装置200から撮影画像を取得可能であればよく、サーバに限定されない。デスクトップ型のコンピュータ、ノート型コンピュータ等のコンピュータであってもよい。 The information processing server 100 may be composed of one server computer, may be composed of a plurality of computers, or may be a cloud-type server. The distribution server 300 is also the same. Also, the information processing server 100 is not limited to a server as long as it can acquire a captured image from the in-vehicle device 200 . It may be a computer such as a desktop computer or a notebook computer.

[2.情報処理システムの構成]
図2は、情報処理システム1の構成図であり、情報処理システム1を構成する情報処理サーバ100及び車載装置200の構成を示す。
[2. Configuration of information processing system]
FIG. 2 is a configuration diagram of the information processing system 1, and shows configurations of the information processing server 100 and the in-vehicle device 200 that configure the information processing system 1. As shown in FIG.

まず、車載装置200の構成を説明する。
車載装置200は、プロセッサ201、記憶部202、通信部203、タッチパネル204、カメラ205、及び、GNSS207を有する。
First, the configuration of the in-vehicle device 200 will be described.
The in-vehicle device 200 has a processor 201 , a storage unit 202 , a communication unit 203 , a touch panel 204 , a camera 205 and a GNSS 207 .

プロセッサ201は、CPU(Central Processing Unit)やマイクロコントローラ等の情報処理デバイスである。記憶部202は、フラッシュメモリ等の半導体メモリデバイスを用いて構成される不揮発性の記憶装置が挙げられる。記憶部202は、揮発性の記憶領域を有し、プロセッサ201のワークエリアを形成する構成であってもよい。記憶部202は、プロセッサ201によって実行されるプログラムや、プロセッサ201が処理するデータを記憶する。
プロセッサ201は、記憶部202に記憶されたプログラムを実行し、車載装置200を制御する。
The processor 201 is an information processing device such as a CPU (Central Processing Unit) or a microcontroller. The storage unit 202 may be a non-volatile storage device configured using a semiconductor memory device such as a flash memory. The storage unit 202 may have a volatile storage area and may be configured to form a work area for the processor 201 . The storage unit 202 stores programs executed by the processor 201 and data processed by the processor 201 .
The processor 201 executes programs stored in the storage unit 202 and controls the in-vehicle device 200 .

通信部203は、アンテナ、RF回路等を備え、モバイル通信回線を通じてセルラー通信を実行する通信装置である。通信部203は、通信ネットワークNWに接続し、プロセッサ201の制御に従って、情報処理サーバ100との間でデータ通信を実行する。 The communication unit 203 is a communication device that includes an antenna, an RF circuit, etc., and executes cellular communication through a mobile communication line. The communication unit 203 connects to the communication network NW and performs data communication with the information processing server 100 under the control of the processor 201 .

タッチパネル204は、プロセッサ201の制御に従って各種の画像を表示する。タッチパネル204は、タッチパネル204に対するタッチ操作を検出し、検出した操作を示す操作データをプロセッサ201に出力する。タッチパネル204は、例えば、車両Vが搭載するカーナビゲーションシステムのタッチパネルであってもよい。 A touch panel 204 displays various images under the control of the processor 201 . The touch panel 204 detects a touch operation on the touch panel 204 and outputs operation data indicating the detected operation to the processor 201 . The touch panel 204 may be a touch panel of a car navigation system mounted on the vehicle V, for example.

カメラ205は、例えば車両Vのフロントガラス又はその近傍に設置され、車両Vの進行方向における前方を撮影する。また、カメラ205は、車両Vの後方を撮影するカメラであってもよい。また、カメラ205は、車両Vの前方を撮影するカメラと、車両Vの後方を撮影するカメラとを含んでもよい。カメラ205は、プロセッサ201の制御に従って撮影を行い、撮影画像をプロセッサ201に出力する。 The camera 205 is installed, for example, on the windshield of the vehicle V or in the vicinity thereof, and photographs the front of the vehicle V in the traveling direction. Also, the camera 205 may be a camera that captures the rear of the vehicle V. FIG. The camera 205 may also include a camera that captures the front of the vehicle V and a camera that captures the rear of the vehicle. The camera 205 performs photographing under the control of the processor 201 and outputs the photographed image to the processor 201 .

赤外線カメラ206は、プロセッサ201の制御に従って撮影を実行し、サーモグラフィー画像をプロセッサ201に出力する。上述のように、車載装置200は、赤外線カメラ206を備えない構成であってもよい。 The infrared camera 206 performs photographing under the control of the processor 201 and outputs a thermographic image to the processor 201 . As described above, the in-vehicle device 200 may be configured without the infrared camera 206 .

GNSS(Global Navigation Satellite System)207は、プロセッサ201の制御に従って車載装置200の位置を検出する。 A GNSS (Global Navigation Satellite System) 207 detects the position of the in-vehicle device 200 under the control of the processor 201 .

プロセッサ201は、カメラ205及び赤外線カメラ206によって撮影を実行する。プロセッサ201は、カメラ205の撮影画像及び赤外線カメラ206の撮影画像に、撮影時の位置情報と、撮影日時を示す情報とを付加して、撮影データDを生成する。 Processor 201 performs photography with camera 205 and infrared camera 206 . The processor 201 adds position information at the time of photography and information indicating the date and time of photography to the image captured by the camera 205 and the image captured by the infrared camera 206 to generate the image data D. FIG.

図2に示すように、撮影データDは、撮影画像D1、サーモ画像D2、位置情報D3、及び、撮影日時D4を含む。撮影画像D1はカメラ205によって撮影された静止画像または動画像(映像)のデータである。サーモ画像D2は赤外線カメラ206によって撮影されたサーモグラフィー画像のデータである。車載装置200が赤外線カメラ206を備えない構成では、撮影データDはサーモ画像D2を含まない。位置情報D3は、車載装置200が撮影画像D1を撮影したときの車両Vの位置情報であり、GNSS207により測位された位置情報である。撮影画像D1が動画像のデータである場合、位置情報D3は、動画像の撮影開始時及び/または撮影終了時の位置情報、或いは、動画像の撮影中に所定周期で測位された複数の位置情報を含む。撮影日時D4は、カメラ205の撮影日時である。撮影画像D1が動画像のデータである場合、撮影日時D4は、動画像の撮影開始時及び/または撮影終了時の日時、或いは、動画像の撮影中に所定周期で特定された複数の時刻情報を含む。 As shown in FIG. 2, the photographed data D includes a photographed image D1, a thermographic image D2, position information D3, and photographing date and time D4. The captured image D1 is data of a still image or moving image (video) captured by the camera 205 . A thermographic image D2 is thermography image data captured by the infrared camera 206 . In a configuration in which the in-vehicle device 200 does not include the infrared camera 206, the captured data D does not include the thermo image D2. The position information D3 is position information of the vehicle V when the in-vehicle device 200 captures the captured image D1, and is position information measured by the GNSS 207 . When the captured image D1 is moving image data, the position information D3 is position information at the start and/or the end of shooting the moving image, or a plurality of positions measured at predetermined intervals during the shooting of the moving image. Contains information. The shooting date and time D4 is the shooting date and time of the camera 205 . When the photographed image D1 is data of a moving image, the photographing date and time D4 is the date and time when the photographing of the moving image is started and/or when the photographing is finished, or a plurality of pieces of time information specified at a predetermined cycle during the photographing of the moving image. including.

プロセッサ201は、通信部203によって撮影データDを情報処理サーバ100に送信する。プロセッサ201は、例えば、車載装置200が起動している間または車両Vの走行中に、カメラ205及び赤外線カメラ206による撮影を実行する。詳細には、カメラ205及び赤外線カメラ206によって、常時、動画像を撮影してもよいし、予め設定された周期で静止画像を撮影してもよい。この場合、プロセッサ201は、カメラ205及び赤外線カメラ206の撮影画像のデータと、GNSS207が測位した位置情報と、撮影日時とを記憶部202に一時的に記憶する。プロセッサ201は、予め設定された周期で、或いは、車載装置200が動作を停止するときに、撮影データDを生成して通信部203により送信する。 The processor 201 transmits the photographed data D to the information processing server 100 through the communication unit 203 . The processor 201 performs photography with the camera 205 and the infrared camera 206 while the in-vehicle device 200 is activated or while the vehicle V is running, for example. Specifically, the camera 205 and the infrared camera 206 may shoot moving images all the time, or may shoot still images at preset intervals. In this case, the processor 201 temporarily stores data of images captured by the camera 205 and the infrared camera 206 , position information measured by the GNSS 207 , and the date and time of capturing in the storage unit 202 . The processor 201 generates the imaging data D and transmits it through the communication unit 203 at a preset cycle or when the in-vehicle device 200 stops operating.

情報処理サーバ100は、プロセッサ10、記憶部20、及び、通信部30を備える。プロセッサ10は、CPUやマイクロコントローラ等の情報処理デバイスである。記憶部20は、プロセッサ10によって実行されるプログラムや、プロセッサ10が処理するデータを記憶する。記憶部20は、フラッシュメモリ等の半導体メモリデバイス、磁気的記憶デバイス、光学的記憶デバイス等を用いて構成される不揮発性の記憶装置が挙げられる。また、記憶部20は、半導体メモリデバイスで構成される揮発性の記憶領域を備え、この揮発性の記憶領域によってプロセッサ10のワークエリアを形成してもよい。また、プロセッサ10が揮発性メモリを統合した統合型のデバイスで構成される場合、記憶部20は不揮発性の記憶装置で構成される。 The information processing server 100 includes a processor 10 , a storage section 20 and a communication section 30 . The processor 10 is an information processing device such as a CPU or microcontroller. The storage unit 20 stores programs executed by the processor 10 and data processed by the processor 10 . The storage unit 20 may be a nonvolatile storage device configured using a semiconductor memory device such as a flash memory, a magnetic storage device, an optical storage device, or the like. Moreover, the storage unit 20 may include a volatile storage area configured by a semiconductor memory device, and the work area of the processor 10 may be formed by this volatile storage area. Further, when the processor 10 is configured as an integrated device in which a volatile memory is integrated, the storage unit 20 is configured as a non-volatile storage device.

記憶部20は、制御用プログラム21、動画像データ22、撮影画像データ23、サーモ画像データ24、設定データ25、及び、処理結果データ26を記憶する。制御用プログラム21は、プロセッサ10が情報処理サーバ100を制御するために実行するプログラムである。 The storage unit 20 stores a control program 21 , moving image data 22 , photographed image data 23 , thermographic image data 24 , setting data 25 and processing result data 26 . The control program 21 is a program executed by the processor 10 to control the information processing server 100 .

プロセッサ10は、制御用プログラム21を実行することによって、情報処理サーバ100の機能を実現する。プロセッサ10が構成する機能部として、取得部11、特定部12、抽出部13、及び、出力部14を示す。これらの各機能部は、プロセッサ10が制御用プログラム21を実行することによってソフトウェアとハードウェアの協働により実現される。 The processor 10 implements the functions of the information processing server 100 by executing the control program 21 . As functional units configured by the processor 10, an acquisition unit 11, an identification unit 12, an extraction unit 13, and an output unit 14 are shown. Each of these functional units is realized by cooperation of software and hardware when the processor 10 executes the control program 21 .

取得部11は、車載装置200から撮影データDを取得する。取得部11は、撮影データDに含まれる撮影画像D1が静止画像のデータである場合、撮影画像D1、位置情報D3及び撮影日時D4を対応付けて、撮影画像データ23として記憶部20に記憶させる。撮影画像D1が動画像のデータである場合、取得部11は、撮影画像D1、位置情報D3及び撮影日時D4を対応付けて、動画像データ22として記憶部20に記憶させる。すなわち、動画像データ22、及び、撮影画像データ23は、それぞれ、カメラ205の撮影画像のデータと、位置情報と、撮影日時とを対応付けて含む。また、取得部11は、サーモ画像D2を、位置情報D3及び撮影日時D4と対応付けてサーモ画像データ24として記憶部20に記憶させる。 The acquisition unit 11 acquires the photographed data D from the in-vehicle device 200 . When the photographed image D1 included in the photographed data D is data of a still image, the acquisition unit 11 associates the photographed image D1, the position information D3, and the photographing date and time D4, and stores the photographed image data 23 in the storage unit 20. . When the captured image D1 is moving image data, the acquisition unit 11 associates the captured image D1, the position information D3, and the shooting date and time D4, and stores them in the storage unit 20 as moving image data 22 . That is, the moving image data 22 and the photographed image data 23 each include the data of the photographed image of the camera 205, the position information, and the photographing date and time in association with each other. The acquisition unit 11 also causes the storage unit 20 to store the thermo image D2 as thermo image data 24 in association with the position information D3 and the photographing date and time D4.

また、取得部11は、動画像データ22から静止画像のデータを切り出して、撮影画像データ23として記憶させる機能を有する。
記憶部20は、複数の車載装置200から取得された撮影画像データ23を記憶することができる。すなわち、複数の車両Vによって撮影された撮影画像を記憶部20に記憶させることが可能である。取得部11は、複数の車載装置200から撮影データDを取得し、撮影画像データ23を記憶部20に記憶させることができる。
The acquisition unit 11 also has a function of extracting data of a still image from the moving image data 22 and storing it as captured image data 23 .
The storage unit 20 can store captured image data 23 acquired from a plurality of in-vehicle devices 200 . That is, it is possible to store captured images captured by a plurality of vehicles V in the storage unit 20 . The acquisition unit 11 can acquire the photographed data D from the plurality of in-vehicle devices 200 and store the photographed image data 23 in the storage unit 20 .

ここで、取得部11は、撮影データDを取得した場合に、撮影データDを送信した車載装置200を識別する識別情報を取得してもよい。この識別情報は、予め車載装置200に付与され、撮影データDに含まれていてもよいし、取得部11が付与してもよい。この場合、取得部11は、動画像データ22、撮影画像データ23或いはサーモ画像データ24に車載装置200の識別情報を対応付けて記憶部20に記憶させる。これにより、撮影画像データ23またはサーモ画像データ24を処理する場合に、これらを撮影した車載装置200を特定できる。 Here, when acquiring the photographed data D, the acquiring unit 11 may acquire identification information for identifying the in-vehicle device 200 that has transmitted the photographed data D. FIG. This identification information may be given to the in-vehicle device 200 in advance and included in the photographed data D, or may be given by the acquisition unit 11 . In this case, the acquiring unit 11 associates the moving image data 22, the photographed image data 23, or the thermographic image data 24 with the identification information of the in-vehicle device 200, and causes the storage unit 20 to store them. Thereby, when the photographed image data 23 or the thermographic image data 24 are processed, the in-vehicle device 200 that photographed them can be specified.

特定部12は、撮影画像データ23を解析して、撮影画像データ23に被写体として写っている処理対象物を検出する。本実施形態では、特定部12は、住宅501、信号機510、歩道520、及び、道路530を処理対象物として撮影画像データ23から検出する。特定部12は、検出した処理対象物が住宅501、信号機510、歩道520、及び、道路530のいずれであるかを特定する。 The specifying unit 12 analyzes the photographed image data 23 and detects a processing object appearing as a subject in the photographed image data 23 . In this embodiment, the identification unit 12 detects the house 501, the traffic light 510, the sidewalk 520, and the road 530 from the photographed image data 23 as objects to be processed. The identifying unit 12 identifies which of the house 501, the traffic light 510, the sidewalk 520, and the road 530 is the detected object to be processed.

抽出部13は、特定部12によって特定された処理対象物の画像から、処理対象物の変化点を抽出する。変化点は、処理対象物における変化を検出する対象となる点、部分、または領域であり、処理対象物の全体であってもよい。換言すれば、変化点は、処理対象物の変化を検出する処理で着目される着目点である。ここで、処理対象物の変化とは、例えば、経時的な変化である。経時的な変化とは、単なる経時劣化に限定されず、自然事象に起因する変化、人為的な変化、その他の突発的な変化等を含む。例えば、住宅501の住人の行動に起因する変化、信号機510への異物の付着、信号機510の故障、歩道520に物体が放置されること、道路530の路面に損傷が発生すること、道路530の路面が冠水すること等が処理対象物の変化の一例である。抽出部13は、処理対象物の変化点における変化の態様を検出する。例えば、抽出部13は、処理対象物が住宅501である場合に、住宅501の窓502を変化点として、窓502の変化を検出する。抽出部13は、窓502の変化を検出することによって、住宅501の照明が点灯したか否かを判定する。住宅501の照明が点灯したことから、住宅501が空き家でないと判定することができる。 The extraction unit 13 extracts change points of the processing object from the image of the processing object specified by the specifying unit 12 . A change point is a point, a portion, or an area for which a change in a processing object is to be detected, and may be the entire processing object. In other words, the change point is a focus point focused on in the process of detecting change in the processing object. Here, the change in the object to be processed is, for example, change over time. Changes over time are not limited to mere deterioration over time, but include changes caused by natural events, artificial changes, other sudden changes, and the like. For example, changes caused by the behavior of residents of the house 501, adhesion of foreign matter to the traffic light 510, failure of the traffic light 510, objects left on the sidewalk 520, damage to the road surface of the road 530, and damage to the road 530. Flooding of the road surface is an example of a change in the object to be processed. The extraction unit 13 detects a change mode at a change point of the object to be processed. For example, when the object to be processed is a house 501, the extraction unit 13 detects a change in the window 502 of the house 501 as a change point. The extraction unit 13 determines whether or not the illumination of the house 501 has been turned on by detecting a change in the window 502 . Since the lighting of the house 501 has turned on, it can be determined that the house 501 is not vacant.

処理対象物の変化点、及び、変化点について検出する変化の態様は、処理対象物ごとに異なる。換言すれば、抽出部13は、処理対象物の種類に応じて設定された処理対象物の変化点について、処理対象物の種類に対応する変化の態様を検出する。
例えば、処理対象物が住宅501である場合、変化点は住宅501の側面を含む外観、住宅501の郵便受け、及び、住宅501の窓502である。抽出部13が検出する変化の態様は、住宅501の周辺の人Pの有無、郵便物の有無、窓502に現れる照明の点灯状態、窓502に現れる洗濯物の有無、及び、窓502の開閉状態である。
The change point of the object to be processed and the mode of change detected for the change point differ for each object to be processed. In other words, the extracting unit 13 detects the mode of change corresponding to the type of the processing object for the change point of the processing object set according to the type of the processing object.
For example, if the object to be processed is a house 501, the points of change are the exterior including the sides of the house 501, the mailbox of the house 501, and the window 502 of the house 501. The mode of change detected by the extraction unit 13 is the presence or absence of a person P around the house 501, the presence or absence of mail, the lighting state of the lighting appearing in the window 502, the presence or absence of laundry appearing in the window 502, and the opening/closing of the window 502. state.

抽出部13は、処理対象物ごとの変化点を抽出し、変化の態様を検出するため、第1処理部131、第2処理部132、第3処理部133、及び、第4処理部134を使用する。第1処理部131、第2処理部132、第3処理部133及び第4処理部134は、それぞれ異なる処理対象物に対応する処理部である。これら各処理部には、処理対象物に対応する変化点及び検出する変化の態様が規定されている。これらの処理部は、プロセッサ10が制御用プログラム21の機能により実行する検出ロジックを表している。抽出部13は、第1処理部131、第2処理部132、第3処理部133及び第4処理部134に相当する抽出処理を選択して実行可能である。 The extraction unit 13 extracts a change point for each object to be processed and detects the mode of change. use. The first processing unit 131, the second processing unit 132, the third processing unit 133, and the fourth processing unit 134 are processing units corresponding to different processing objects. In each of these processing units, the change point corresponding to the processing object and the mode of change to be detected are defined. These processing units represent detection logic executed by the processor 10 through the functions of the control program 21 . The extraction unit 13 can select and execute extraction processing corresponding to the first processing unit 131 , the second processing unit 132 , the third processing unit 133 and the fourth processing unit 134 .

抽出部13は、第1処理部131、第2処理部132、第3処理部133及び第4処理部134のうち、取得部11が特定した処理対象物に対応する処理部を選択して処理を実行する。これは、変化点及び検出する変化の態様が設定された検出ロジックを、取得部11が特定した処理対象物に合わせて切り替えて実行することに相当する。 The extraction unit 13 selects a processing unit corresponding to the processing object identified by the acquisition unit 11 from among the first processing unit 131, the second processing unit 132, the third processing unit 133, and the fourth processing unit 134, and performs processing. to run. This corresponds to switching and executing the detection logic in which the change point and the mode of change to be detected are set according to the processing object specified by the acquisition unit 11 .

抽出部13の処理部は、変化点の変化の態様を検出する処理において、設定データ25を利用する。設定データ25は、例えば、変化点の通常の状態を示す画像データや、判定用の閾値である。
抽出部13は、処理部によって処理を行った結果を、処理結果データ26として記憶部20に記憶させる。
The processing unit of the extraction unit 13 uses the setting data 25 in the process of detecting the mode of change of the change point. The setting data 25 is, for example, image data indicating the normal state of the change point, or a threshold value for determination.
The extraction unit 13 causes the storage unit 20 to store the result of the processing performed by the processing unit as the processing result data 26 .

出力部14は、抽出部13による処理の結果を出力する。出力部14は、例えば、処理結果データ26を通信部30によって配信サーバ300に送信する。 The output unit 14 outputs the result of processing by the extraction unit 13 . The output unit 14 transmits the processing result data 26 to the distribution server 300 via the communication unit 30, for example.

[3.情報処理システムの動作]
図3は、情報処理サーバ100の動作を示すフローチャートである。図3の動作は取得部11により実行される。
取得部11は、撮影データDを車載装置200から取得する(ステップS11)。取得部11は、撮影画像D1が動画像のデータであるか否かを判定する(ステップS12)。
[3. Operation of information processing system]
FIG. 3 is a flowchart showing the operation of the information processing server 100. As shown in FIG. The operation of FIG. 3 is executed by the acquisition unit 11. FIG.
The acquisition unit 11 acquires the photographed data D from the in-vehicle device 200 (step S11). The acquisition unit 11 determines whether or not the captured image D1 is moving image data (step S12).

取得部11は、撮影画像D1が動画像のデータでない、すなわち静止画像のデータであると判定した場合(ステップS12;NO)、撮影画像D1と、位置情報D3と、撮影日時D4とを対応付けて撮影画像データ23として記憶する(ステップS13)。 When the acquisition unit 11 determines that the captured image D1 is not moving image data, that is, is still image data (step S12; NO), the acquisition unit 11 associates the captured image D1 with the position information D3 and the shooting date and time D4. are stored as photographed image data 23 (step S13).

取得部11は、撮影画像D1が動画像のデータであると判定した場合(ステップS12;YES)、撮影画像D1から静止画像のデータを切り出す(ステップS14)。ステップS1で、取得部11は、例えば、動画像データを構成するフレームの一部または全部を抽出し、静止画像のデータとする。 When the acquisition unit 11 determines that the captured image D1 is moving image data (step S12; YES), the acquisition unit 11 cuts out still image data from the captured image D1 (step S14). In step S1, the acquisition unit 11 extracts, for example, part or all of the frames that constitute the moving image data, and uses them as still image data.

取得部11は、撮影画像D1に付加された位置情報D3及び撮影日時D4をもとに、ステップS14で切り出した静止画像に対応する位置情報と撮影日時とを生成する(ステップS15)。取得部11は、ステップS14で切り出した静止画像のデータと、位置情報と、撮影日時とを対応付けて、撮影画像データ23として記憶部20に記憶させる(ステップS16)。 Based on the position information D3 and the shooting date and time D4 added to the shot image D1, the obtaining unit 11 generates the position information and the shooting date and time corresponding to the still image cut out in step S14 (step S15). The acquisition unit 11 associates the data of the still image cut out in step S14, the position information, and the shooting date and time, and stores them in the storage unit 20 as the captured image data 23 (step S16).

また、取得部11は、サーモ画像D2についても図3の動作を実行する。これにより、サーモ画像D2がサーモ画像データ24として記憶部20に記憶される。 The obtaining unit 11 also performs the operation of FIG. 3 for the thermo image D2. As a result, the thermo image D2 is stored in the storage unit 20 as the thermo image data 24. FIG.

図3の動作によって、車載装置200が送信する撮影データDが動画像のデータを含む場合であっても、特定部12及び抽出部13が静止画像データを利用して処理を行うことが可能となる。ここで、図3の動作を、車載装置200が実行する構成としてもよい。すなわち、プロセッサ201が、カメラ205及び赤外線カメラ206によって撮影された動画像から静止画像のデータを生成し、静止画像のデータを含む撮影データDを生成して情報処理サーバ100に送信してもよい。この場合、車載装置200が送信する撮影データDは、静止画像である撮影画像D1及びサーモ画像D2を含むデータとなる。 By the operation of FIG. 3, even when the photographed data D transmitted by the in-vehicle device 200 includes moving image data, the identifying unit 12 and the extracting unit 13 can perform processing using still image data. Become. Here, the operation of FIG. 3 may be configured to be executed by the in-vehicle device 200 . That is, the processor 201 may generate still image data from moving images captured by the camera 205 and the infrared camera 206, generate captured data D including the still image data, and transmit the captured data D to the information processing server 100. . In this case, the photographed data D transmitted by the in-vehicle device 200 is data including the photographed image D1 and the thermographic image D2, which are still images.

図4、図5、図6、図7、図8及び図9は、情報処理サーバ100の動作を示すフローチャートである。図4のステップS21-S23は特定部12により実行され、ステップS24、S25は抽出部13により実行され、ステップS26、S27は出力部14により実行される。 4, 5, 6, 7, 8 and 9 are flowcharts showing the operation of the information processing server 100. FIG. Steps S21 to S23 in FIG. 4 are executed by the identification unit 12, steps S24 and S25 are executed by the extraction unit 13, and steps S26 and S27 are executed by the output unit 14. FIG.

図4に示すように、情報処理サーバ100は、記憶部20が記憶する撮影画像データ23を取得する(ステップS21)。情報処理サーバ100は、取得した撮影画像データ23から被写体の画像を抽出する(ステップS22)。ステップS22では、抽出部13により処理される処理対象物であるか否かを問わず、撮影画像データ23において建造物、物体或いは人として認識され得る被写体が抽出される。 As shown in FIG. 4, the information processing server 100 acquires the photographed image data 23 stored in the storage unit 20 (step S21). The information processing server 100 extracts an image of the subject from the captured image data 23 (step S22). In step S<b>22 , subjects that can be recognized as buildings, objects, or people in the photographed image data 23 are extracted regardless of whether they are objects to be processed by the extraction unit 13 .

情報処理サーバ100は、ステップS22で抽出した被写体の中から、処理対象物を特定する(ステップS23)。情報処理サーバ100は、第1処理部131、第2処理部132、第3処理部133、及び第4処理部134のうち、ステップS23で特定された処理対象物に対応する処理部を選択する(ステップS24)。ステップS24の処理は、ステップS23で特定された処理対象物に対応する抽出処理のロジックを選択することに相当する。 The information processing server 100 identifies the object to be processed from among the subjects extracted in step S22 (step S23). The information processing server 100 selects the processing unit corresponding to the processing object identified in step S23 from among the first processing unit 131, the second processing unit 132, the third processing unit 133, and the fourth processing unit 134. (Step S24). The processing of step S24 corresponds to selecting the logic of the extraction processing corresponding to the processing object specified in step S23.

情報処理サーバ100は、ステップS23で選択した処理部によって抽出処理を実行する(ステップS25)。情報処理サーバ100は、抽出処理の結果が、出力すべき結果であるか否かを判定する(ステップS26)。情報処理サーバ100は、出力すべき結果であると判定した場合(ステップS26;YES)、処理結果データ26を配信サーバ300に出力し(ステップS27)、配信サーバ300からユーザ端末250等に配信させる。情報処理サーバ100は、処理結果データ26が、出力すべき結果でないと判定した場合(ステップS26;NO)、ステップS27を行わずに本処理を終了する。 The information processing server 100 executes the extraction process by the processing unit selected in step S23 (step S25). The information processing server 100 determines whether or not the result of the extraction process should be output (step S26). When the information processing server 100 determines that the result should be output (step S26; YES), the information processing server 100 outputs the processing result data 26 to the distribution server 300 (step S27), and distributes it from the distribution server 300 to the user terminal 250 and the like. . When the information processing server 100 determines that the processing result data 26 is not the result to be output (step S26; NO), the processing ends without performing step S27.

図5-図9は、図4のステップS23を詳細に示すフローチャートである。図5は、ステップS24で第1処理部131が選択された場合の動作を示す。すなわち、図5の動作は第1処理部131が実行する。 5-9 are flow charts showing in detail step S23 of FIG. FIG. 5 shows the operation when the first processing unit 131 is selected in step S24. That is, the operation of FIG. 5 is executed by the first processing unit 131 .

第1処理部131は、特定部12によって特定された処理対象物が信号機510である場合に選択される。
第1処理部131は、信号機510の画像における変化点を、信号機510の点灯部に設定する(ステップS31)。信号機510の点灯部とは、信号機510が内蔵するLED(Light Emitting Diode)や電球の光によって赤、青、黄に発光する部分である。
The first processing unit 131 is selected when the object to be processed specified by the specifying unit 12 is the traffic light 510 .
The first processing unit 131 sets the change point in the image of the traffic light 510 to the lighting portion of the traffic light 510 (step S31). The lighting portion of the traffic light 510 is a portion that emits light in red, blue, and yellow by light from an LED (Light Emitting Diode) built in the traffic light 510 or light from a light bulb.

第1処理部131は撮影画像データ23から変化点の画像を抽出する(ステップS32)。第1処理部131は、変化点の画像を解析することにより、点灯部の点灯状態(動作状態)を判定する(ステップS33)。具体的には、第1処理部131は、ステップS33において、点灯部が正常に点灯しているか否かを判定する。第1処理部131は、例えば、正常に点灯しているときの信号機510の画像が設定データ25として記憶部20に予め記憶されている場合、この画像と、ステップS32で抽出した画像とを比較することによって、ステップS33の判定を行う。ステップS33で、第1処理部131は、判定結果を処理結果データ26に含めて記憶部20に記憶させる。 The first processing unit 131 extracts the image of the change point from the photographed image data 23 (step S32). The first processing unit 131 determines the lighting state (operating state) of the lighting unit by analyzing the image of the change point (step S33). Specifically, in step S33, the first processing unit 131 determines whether or not the lighting unit is normally lit. For example, when the image of the traffic light 510 when it is normally lit is stored in advance in the storage unit 20 as the setting data 25, the first processing unit 131 compares this image with the image extracted in step S32. By doing so, the determination in step S33 is performed. In step S<b>33 , the first processing unit 131 causes the storage unit 20 to store the determination result in the processing result data 26 .

信号機510は通常、複数の点灯部を有する。第1処理部131は、ステップS31で複数の点灯部を変化点として設定し、複数の点灯部についてステップS33で判定を行ってもよい。また、第1処理部131は、ステップS31で複数の点灯部のいずれか1つを変化点とし、この変化点についてステップS33で判定を行ってもよい。この場合、第1処理部131は、点灯部の数だけステップS31-S33の動作を繰り返して実行してもよい。 Traffic light 510 usually has a plurality of lighting units. The first processing unit 131 may set a plurality of lighting portions as changing points in step S31, and determine the plurality of lighting portions in step S33. Alternatively, the first processing unit 131 may set any one of the plurality of lighting units as the point of change in step S31, and determine the point of change in step S33. In this case, the first processing unit 131 may repeat the operations of steps S31 to S33 by the number of lighting units.

第1処理部131は、信号機510の画像における変化点を、信号機510の下端部に設定する(ステップS34)。ここで、信号機510の下端部とは、信号機510を指示するポールを含まない部分において最も下に位置する部分であり、例えば信号機510の点灯部の下部である。 The first processing unit 131 sets the change point in the image of the traffic light 510 to the lower end of the traffic light 510 (step S34). Here, the lower end portion of the traffic signal 510 is the lowest portion of the portion that does not include the pole pointing to the traffic signal 510, and is, for example, the lower portion of the lighting portion of the traffic signal 510. FIG.

第1処理部131は撮影画像データ23から変化点の画像を抽出する(ステップS35)。第1処理部131は、変化点の画像を解析することにより、信号機510における異物の付着の有無を判定する(ステップS36)。第1処理部131は、例えば、異物がないときの信号機510の画像が設定データ25として記憶部20に予め記憶されている場合、この画像と、ステップS35で抽出した画像とを比較することによって、ステップS36の判定を行う。例えば、第1処理部131は、ステップS33において信号機510に氷柱が付着しているか否かを判定する。ステップS36で、第1処理部131は、判定結果を処理結果データ26に含めて記憶部20に記憶させる。 The first processing unit 131 extracts the image of the change point from the photographed image data 23 (step S35). The first processing unit 131 determines whether or not a foreign object is attached to the traffic signal 510 by analyzing the image of the change point (step S36). For example, when an image of the traffic light 510 when there is no foreign object is stored in the storage unit 20 in advance as the setting data 25, the first processing unit 131 compares this image with the image extracted in step S35. , the determination of step S36 is performed. For example, the first processing unit 131 determines whether or not an icicle adheres to the traffic light 510 in step S33. In step S<b>36 , the first processing unit 131 stores the determination result in the processing result data 26 in the storage unit 20 .

図5に示したように、抽出部13は、1つの処理対象物について、複数の変化点を設定することができ、変化点ごとに撮影画像を解析して判定を行うことができる。 As shown in FIG. 5, the extracting unit 13 can set a plurality of change points for one processing object, and can analyze the captured image for each change point and perform determination.

図6及び図7は、ステップS24で第2処理部132が選択された場合の動作を示す。すなわち、図6及び図7の動作は第2処理部132が実行する。 6 and 7 show the operation when the second processing unit 132 is selected in step S24. That is, the operations of FIGS. 6 and 7 are executed by the second processing unit 132 .

第2処理部132は、特定部12によって特定された処理対象物が住宅501である場合に選択される。
第2処理部132は、複数の撮影画像データ23を取得する(ステップS41)。第2処理部132は、ステップS21で取得された撮影画像データ23が1つの撮影画像である場合、この撮影画像とは異なる日時に撮影された撮影画像データ23を取得する。また、ステップS21で取得された撮影画像データ23が複数の撮影画像を含む場合は、これら複数の撮影画像をステップS41で取得すればよい。
The second processing unit 132 is selected when the object to be processed specified by the specifying unit 12 is the house 501 .
The second processing unit 132 acquires a plurality of captured image data 23 (step S41). If the captured image data 23 acquired in step S21 is one captured image, the second processing unit 132 acquires the captured image data 23 captured at a date and time different from that of this captured image. Moreover, when the photographed image data 23 obtained in step S21 includes a plurality of photographed images, these photographed images may be obtained in step S41.

以下では、ステップS41で取得される撮影画像のいずれか1つを第1画像とし、他の撮影画像のうち1つを第2画像とする。第1画像と第2画像とは異なる日時に撮影された画像であることが好ましい。より好ましくは、撮影日時すなわち撮影時期が数時間以上、異なっていることが好ましく、さらに好ましくは、第1画像は夜間に撮影された画像であり、第2画像は昼間に撮影された画像である。また、第1画像と第2画像とは同じ住宅501を撮影した画像である。第2処理部132は、例えば、撮影画像データ23が含む位置情報に基づいて、同じ住宅501を撮影した複数の撮影画像を取得する。第1画像と第2画像とは、異なる車両Vが搭載するカメラ205によって撮影された画像であってもよい。第1画像は第1の撮影画像の一例に対応し、第2画像は第2の撮影画像の一例に対応する。 In the following description, one of the captured images acquired in step S41 will be referred to as the first image, and one of the other captured images will be referred to as the second image. It is preferable that the first image and the second image are images taken on different dates and times. More preferably, the date and time of photography, that is, the timing of photography, are different by several hours or more. More preferably, the first image is an image taken at night and the second image is an image taken during daytime. . Also, the first image and the second image are images of the same house 501 photographed. The second processing unit 132 acquires a plurality of photographed images of the same house 501 based on the position information included in the photographed image data 23, for example. The first image and the second image may be images captured by cameras 205 mounted on different vehicles V. FIG. The first image corresponds to an example of a first captured image, and the second image corresponds to an example of a second captured image.

第2処理部132は、住宅501の画像における変化点を、住宅501の側面を含む外観に設定する(ステップS42)。撮影画像データ23は車両Vに搭載されたカメラ205が撮影した画像であるから、住宅501の側面を含む外観を撮影した画像であり、航空画像や衛星画像等のように上方から撮影した画像とは異なる。 The second processing unit 132 sets the change point in the image of the house 501 to the appearance including the side surface of the house 501 (step S42). Since the photographed image data 23 is an image photographed by the camera 205 mounted on the vehicle V, it is an image photographed of the exterior including the sides of the house 501, and is not an image photographed from above such as an aerial image or a satellite image. is different.

第2処理部132は、複数の撮影画像から変化点の画像を抽出する(ステップS43)。第2処理部132は、ステップS43で第1画像から抽出した変化点と第2画像から抽出した変化点とを比較することによって、住宅501の付近にいる人Pの有無を判定する(ステップS44)。 The second processing unit 132 extracts images of change points from a plurality of captured images (step S43). The second processing unit 132 determines whether or not there is a person P near the house 501 by comparing the change points extracted from the first image and the change points extracted from the second image in step S43 (step S44). ).

第2処理部132は、住宅501の画像における変化点を、住宅501の郵便受けに設定する(ステップS45)。第2処理部132は、複数の撮影画像から変化点の画像を抽出する(ステップS46)。第2処理部132は、ステップS46で第1画像から抽出した変化点と第2画像から抽出した変化点とを比較することによって、住宅501の郵便受けに郵便物が溜まっているか否かを判定する(ステップS47)。例えば、郵便受けの郵便物が時間の経過とともに増加している場合、住宅501に配達された郵便物が溜まっていると判定できる。また、郵便受けの郵便物が時間の経過とともに減少または消失している場合、住宅501に配達された郵便物が住宅501の住人によって回収された、すなわち郵便物が溜まっていないと判定できる。 The second processing unit 132 sets the change point in the image of the house 501 to the mailbox of the house 501 (step S45). The second processing unit 132 extracts images of change points from the plurality of captured images (step S46). The second processing unit 132 compares the points of change extracted from the first image and the points of change extracted from the second image in step S46, thereby determining whether or not mail is accumulated in the mailbox of the residence 501. (Step S47). For example, if the number of mail items in the mailbox increases over time, it can be determined that the mail items delivered to the residence 501 are accumulated. Also, if the number of mail items in the mailbox decreases or disappears over time, it can be determined that the mail items delivered to the house 501 have been collected by the residents of the house 501, that is, the mail items have not accumulated.

第2処理部132は、住宅501の画像における変化点を、窓502に設定する(ステップS48)。第2処理部132は、複数の撮影画像から変化点の画像を抽出する(ステップS49)。第2処理部132は、ステップS49で第1画像から抽出した変化点と第2画像から抽出した変化点とを比較することによって、住宅501の照明の点灯状態を判定する(ステップS50)。第1画像と第2画像のいずれかが、夜間に撮影された画像である場合、より確実に判定を行える。 The second processing unit 132 sets the change point in the image of the house 501 to the window 502 (step S48). The second processing unit 132 extracts images of change points from the plurality of captured images (step S49). The second processing unit 132 determines the lighting state of the lighting of the house 501 by comparing the change points extracted from the first image and the change points extracted from the second image in step S49 (step S50). If either the first image or the second image is an image taken at night, the determination can be made more reliably.

また、第2処理部132は、ステップS49で第1画像から抽出した変化点と第2画像から抽出した変化点とを比較することによって、住宅501で干されている洗濯物の有無を判定する(ステップS51)。第1画像と第2画像のいずれかが、昼間に撮影された画像である場合、より確実に判定を行える。 Further, the second processing unit 132 determines the presence or absence of laundry hanging in the house 501 by comparing the change points extracted from the first image and the change points extracted from the second image in step S49. (Step S51). If either the first image or the second image is an image taken in the daytime, the determination can be made more reliably.

また、第2処理部132は、ステップS49で第1画像から抽出した変化点と第2画像から抽出した変化点とを比較することによって、窓502の開閉状態を判定する(ステップS52)。窓502の開閉状態とは、例えば窓502が開閉されたか否かを指す。 Further, the second processing unit 132 determines the open/closed state of the window 502 by comparing the change point extracted from the first image in step S49 and the change point extracted from the second image (step S52). The open/closed state of the window 502 indicates, for example, whether the window 502 is opened or closed.

第2処理部132は、ステップS44、S47、S50、S51、S52の判定結果に基づいて、住宅501が空き家であるか否かを判定し、判定結果を処理結果データ26として記憶部20に記憶させる(ステップS53)。
上記処理において、第2処理部132は、変化点を窓502に設定した場合に、窓502に現れる住宅501の内部に人Pがいるか否かを判定してもよい。この場合、住宅501の室内に人Pがいるか否かの判定結果を、ステップS53の判定に利用してもよい。
The second processing unit 132 determines whether or not the house 501 is vacant based on the determination results of steps S44, S47, S50, S51, and S52, and stores the determination result in the storage unit 20 as the processing result data 26. (step S53).
In the above process, the second processing unit 132 may determine whether or not there is a person P inside the house 501 appearing through the window 502 when the change point is set to the window 502 . In this case, the determination result of whether or not the person P is present in the room of the house 501 may be used for determination in step S53.

図6に示したように、抽出部13は、1つの処理対象物について設定した1つの変化点に基づき、複数の判定を行うことができる。また、複数の判定の結果をもとにして、住宅501が空き家であるか、居住中であるかを判定することができる。 As shown in FIG. 6, the extraction unit 13 can perform a plurality of determinations based on one change point set for one processing object. Also, it can be determined whether the house 501 is vacant or inhabited based on the results of a plurality of determinations.

図7は、第2処理部132が、サーモ画像データ24から変化点を抽出する場合の動作を示す。
第2処理部132は、ステップS61と同様の処理によって、複数のサーモ画像データ24を取得する(ステップS61)。以下では、ステップS61で取得される撮影画像のいずれか1つを第1サーモ画像とし、他の撮影画像のうち1つを第2サーモ画像とする。第1サーモ画像と第2サーモ画像とは異なる日時に撮影された画像であることが好ましい。より好ましくは、撮影日時すなわち撮影時期が数時間以上、異なっていることが好ましく、さらに好ましくは、第1サーモ画像は夜間に撮影された画像であり、第2サーモ画像は昼間に撮影された画像である。また、第1サーモ画像と第2サーモ画像とは同じ住宅501を撮影した画像である。第2処理部132は、例えば、撮影画像データ23が含む位置情報に基づいて、同じ住宅501を撮影した複数の撮影画像を取得する。第1サーモ画像と第2サーモ画像とは、異なる車両Vが搭載するカメラ205によって撮影された画像であってもよい。第1サーモ画像は第1の撮影画像の一例に対応し、第2サーモ画像は第2の撮影画像の一例に対応する。
FIG. 7 shows the operation when the second processing unit 132 extracts the change points from the thermo-image data 24 .
The second processing unit 132 acquires a plurality of thermo-image data 24 by the same process as in step S61 (step S61). In the following, one of the captured images acquired in step S61 will be referred to as a first thermo image, and one of the other captured images will be referred to as a second thermo image. It is preferable that the first thermo image and the second thermo image are images taken on different dates and times. More preferably, the date and time of photography, that is, the timing of photography, are different by several hours or more. More preferably, the first thermo-image is an image taken at night, and the second thermo-image is an image taken during the day. is. Also, the first thermo image and the second thermo image are images of the same house 501 photographed. The second processing unit 132 acquires a plurality of photographed images of the same house 501 based on the position information included in the photographed image data 23, for example. The first thermo image and the second thermo image may be images captured by cameras 205 mounted on different vehicles V. FIG. The first thermo image corresponds to an example of the first captured image, and the second thermo image corresponds to an example of the second captured image.

第2処理部132は、住宅501の画像における変化点を、窓502に設定する(ステップS62)。第2処理部132は、複数の撮影画像から変化点の画像を抽出する(ステップS63)。第2処理部132は、ステップS63で第1サーモ画像から抽出した変化点と第2サーモ画像から抽出した変化点とを比較することによって、窓502の温度変化を判定する(ステップS64)。第2処理部132は、ステップS64の判定結果に基づいて、住宅501が空き家であるか否かを判定し、判定結果を処理結果データ26として記憶部20に記憶させる(ステップS65)。例えば、窓502の温度変化が、住宅501の地域の温度変化と相違する場合、住宅501が空き家で無いと判定することの根拠になる。詳細には、ステップS64で、第2処理部132によって、昼間より夜間の方が窓502の温度が高いと判定された場合、住宅501が空き家でないと判定できる。 The second processing unit 132 sets the change point in the image of the house 501 to the window 502 (step S62). The second processing unit 132 extracts images of change points from a plurality of captured images (step S63). The second processing unit 132 determines the temperature change of the window 502 by comparing the change points extracted from the first thermo image in step S63 and the change points extracted from the second thermo image (step S64). The second processing unit 132 determines whether or not the house 501 is vacant based on the determination result of step S64, and stores the determination result as the processing result data 26 in the storage unit 20 (step S65). For example, if the temperature change in the window 502 differs from the temperature change in the area of the house 501, it is the basis for determining that the house 501 is not an empty house. Specifically, when the second processing unit 132 determines in step S64 that the temperature of the window 502 is higher at night than during the day, it can be determined that the house 501 is not vacant.

ステップS65で、第2処理部132は、図6のステップS44、S47、S50、S51、S52の判定結果と、ステップS65の判定結果とを合わせて、住宅501が空き家であるか否かを判定してもよい。例えば、ステップS61において、第2処理部132が、サーモ画像データ24に含まれる位置情報に基づいて、ステップS41で取得した撮影画像データ23と同じ住宅501を撮影したサーモ画像データ24を取得すればよい。この場合、撮影画像データ23とサーモ画像データ24とを組み合わせることにより、住宅501が空き家であるか否かを、より正確に判定できる。
また、第2処理部132は、図7の処理で、変化点を住宅501の側面を含む外観全体として、温度変化を判定してもよい。この場合も、住宅501の温度変化に基づき、住宅501が空き家であるか否かを判定できる。
In step S65, the second processing unit 132 determines whether or not the house 501 is an empty house by combining the determination results of steps S44, S47, S50, S51, and S52 in FIG. 6 and the determination result of step S65. You may For example, in step S61, if the second processing unit 132 obtains thermographic image data 24 of the same house 501 as the photographed image data 23 obtained in step S41 based on the position information included in the thermographic image data 24, good. In this case, by combining the photographed image data 23 and the thermographic image data 24, it can be determined more accurately whether or not the house 501 is vacant.
Further, the second processing unit 132 may determine the temperature change with the change point as the entire appearance including the side surface of the house 501 in the process of FIG. 7 . Also in this case, it is possible to determine whether or not the house 501 is vacant based on the temperature change of the house 501 .

図8は、ステップS24で第3処理部133が選択された場合の動作を示す。すなわち、図8の動作は第3処理部133が実行する。
第3処理部133は、特定部12によって特定された処理対象物が、道路530である場合に選択される。
FIG. 8 shows the operation when the third processing unit 133 is selected in step S24. That is, the operation of FIG. 8 is executed by the third processing unit 133 .
The third processing unit 133 is selected when the processing object specified by the specifying unit 12 is the road 530 .

第3処理部133は、道路の撮影画像における変化点を、道路530の路面に設定する(ステップS71)。第3処理部133は撮影画像データ23から変化点の画像を抽出する(ステップS72)。第3処理部133は、変化点の画像を解析することにより、路面の陥没の有無を判定する(ステップS73)。例えば、第3処理部133は、陥没がある状態の路面の画像が設定データ25として記憶部20に予め記憶されている場合、この画像と、ステップS72で抽出した画像とを比較することによって、ステップS73の判定を行う。ステップS73で、第3処理部133は、判定結果を処理結果データ26に含めて記憶部20に記憶させる。 The third processing unit 133 sets the change point in the captured image of the road to the road surface of the road 530 (step S71). The third processing unit 133 extracts the image of the change point from the photographed image data 23 (step S72). The third processing unit 133 determines whether or not there is a depression in the road surface by analyzing the image of the change point (step S73). For example, when an image of a road surface with depressions is stored in advance in the storage unit 20 as the setting data 25, the third processing unit 133 compares this image with the image extracted in step S72 to A determination is made in step S73. In step S<b>73 , the third processing unit 133 stores the determination result in the processing result data 26 in the storage unit 20 .

第3処理部133は、変化点の画像を解析することにより、道路530における冠水の有無を判定する(ステップS74)。例えば、第3処理部133は、冠水している状態の路面の画像が設定データ25として記憶部20に予め記憶されている場合、この画像と、ステップS72で抽出した画像とを比較することによって、ステップS74の判定を行う。ステップS74で、第3処理部133は、判定結果を処理結果データ26に含めて記憶部20に記憶させる。
このように、第3処理部133は、撮影画像データ23を利用して道路530の路面状態を判定できる。
The third processing unit 133 determines whether or not the road 530 is flooded by analyzing the image of the change point (step S74). For example, when an image of a flooded road surface is stored in advance in the storage unit 20 as the setting data 25, the third processing unit 133 compares this image with the image extracted in step S72. , the determination of step S74 is performed. In step S<b>74 , the third processing unit 133 causes the storage unit 20 to store the determination result in the processing result data 26 .
In this manner, the third processing unit 133 can determine the road surface condition of the road 530 using the captured image data 23 .

図9は、ステップS24で第4処理部134が選択された場合の動作を示す。すなわち、図9の動作は第4処理部134が実行する。
第4処理部134は、特定部12によって特定された処理対象物が歩道520である場合に選択される。
FIG. 9 shows the operation when the fourth processing unit 134 is selected in step S24. That is, the operation of FIG. 9 is executed by the fourth processing unit 134 .
The fourth processing unit 134 is selected when the object to be processed specified by the specifying unit 12 is the sidewalk 520 .

第4処理部134は、複数の撮影画像データ23を取得する(ステップS81)。第4処理部134は、ステップS21で取得された撮影画像データ23が1つの撮影画像である場合、この撮影画像とは異なる日時に撮影された撮影画像データ23を取得する。また、ステップS21で取得された撮影画像データ23が複数の撮影画像を含む場合は、これら複数の撮影画像をステップS81で取得すればよい。 The fourth processing unit 134 acquires a plurality of captured image data 23 (step S81). When the captured image data 23 acquired in step S21 is one captured image, the fourth processing unit 134 acquires the captured image data 23 captured at a different date and time from this captured image. Moreover, when the photographed image data 23 acquired in step S21 includes a plurality of photographed images, these photographed images may be acquired in step S81.

ここで、ステップS81で取得される撮影画像のいずれか1つを第1画像とし、他の撮影画像のうち1つを第2画像とする。第1画像と第2画像とは異なる日時に撮影された画像であることが好ましい。より好ましくは、第1画像と第2画像とは異なる日に撮影された画像である。さらに好ましくは、第1画像は夜間に撮影された画像であり、第2画像は昼間に撮影された画像である。また、第1画像と第2画像とは歩道520における同じ場所を撮影した画像である。第4処理部134は、例えば、撮影画像データ23が含む位置情報に基づいて、同じ場所の歩道520を撮影した複数の撮影画像を取得する。第1画像と第2画像とは、異なる車両Vが搭載するカメラ205によって撮影された画像であってもよい。 Here, one of the captured images acquired in step S81 is defined as the first image, and one of the other captured images is defined as the second image. It is preferable that the first image and the second image are images taken on different dates and times. More preferably, the first image and the second image are images taken on different days. More preferably, the first image is an image taken at night and the second image is an image taken during the day. Also, the first image and the second image are images taken at the same place on the sidewalk 520 . The fourth processing unit 134 acquires a plurality of photographed images of the sidewalk 520 at the same location based on the position information included in the photographed image data 23, for example. The first image and the second image may be images captured by cameras 205 mounted on different vehicles V. FIG.

第4処理部134は、歩道520の画像における変化点を、歩道520そのものに設定する(ステップS82)。第4処理部134は撮影画像データ23から変化点の画像を抽出する(ステップS83)。 The fourth processing unit 134 sets the change point in the image of the sidewalk 520 to the sidewalk 520 itself (step S82). The fourth processing unit 134 extracts the image of the change point from the photographed image data 23 (step S83).

第4処理部134は、変化点の画像を解析することにより、歩道520における自転車540の有無を判定する(ステップS84)。第4処理部134は、第1画像と第2画像の両方で自転車540が写っている場合、自転車540ありと判定する(ステップS84;YES)。この場合、第4処理部134は、変化点を自転車540に設定し(ステップS85)、第1画像および第2画像のそれぞれから変化点の画像を抽出する(ステップS86)。 The fourth processing unit 134 determines the presence or absence of the bicycle 540 on the sidewalk 520 by analyzing the image of the change point (step S84). When the bicycle 540 is shown in both the first image and the second image, the fourth processing unit 134 determines that the bicycle 540 is present (step S84; YES). In this case, the fourth processing unit 134 sets the point of change to the bicycle 540 (step S85), and extracts the image of the point of change from each of the first image and the second image (step S86).

第4処理部134は、ステップS86で第1画像から抽出した変化点と第2画像から抽出した変化点とを比較することによって、自転車540が放置されているか否か、すなわち、自転車540が放置自転車か否かを判定する(ステップS87)。ステップS87で、第4処理部134は、判定結果を処理結果データ26に含めて記憶部20に記憶させる。 The fourth processing unit 134 compares the change points extracted from the first image and the change points extracted from the second image in step S86 to determine whether or not the bicycle 540 is left unattended. It is determined whether or not it is a bicycle (step S87). In step S<b>87 , the fourth processing unit 134 stores the determination result in the processing result data 26 in the storage unit 20 .

また、ステップS84で、第4処理部134は、第1画像と第2画像のいずれか一方で自転車540が写っていない場合、自転車540がないと判定する(ステップS84;NO)。この場合、第4処理部134は、放置自転車がないと判定して(ステップS88)、判定結果を処理結果データ26に含めて記憶部20に記憶させる。 Further, in step S84, if the bicycle 540 is not shown in either the first image or the second image, the fourth processing unit 134 determines that the bicycle 540 is not present (step S84; NO). In this case, the fourth processing unit 134 determines that there is no parked bicycle (step S88), and stores the determination result in the processing result data 26 in the storage unit 20. FIG.

[4.他の実施形態]
上記実施形態は本発明を適用した一具体例を示すものであり、発明が適用される形態を限定するものではない。
[4. Other embodiments]
The above embodiment shows a specific example to which the present invention is applied, and does not limit the form to which the invention is applied.

例えば、上記実施形態では、住宅501が居住中か空き家であるかを判定するため、ステップS44、S47、S50、S51、S52の判定結果を利用する例を説明したが、これら全ての判定結果が必須ではない。抽出部13は、ステップS44、S47、S50、S51、S52の判定結果の少なくともいずれかを利用して、ステップS53で判定を行えばよい。 For example, in the above-described embodiment, the determination results of steps S44, S47, S50, S51, and S52 are used to determine whether the house 501 is occupied or vacant. Not required. The extraction unit 13 may make a determination in step S53 using at least one of the determination results of steps S44, S47, S50, S51, and S52.

例えば、上記実施形態では、車載装置200から情報処理サーバ100に対してセルラー通信等により撮影データDを送信する例を説明したが、車載装置200は、セルラー通信機能を持たなくてもよい。例えば、車載装置200が、車載装置200に接続可能な可搬型の情報記憶媒体に撮影データDを記憶させ、この情報記憶媒体から撮影データDを情報処理サーバ100が読み取る構成であってもよい。 For example, in the above-described embodiment, an example in which the photographed data D is transmitted from the in-vehicle device 200 to the information processing server 100 through cellular communication or the like has been described, but the in-vehicle device 200 does not have to have a cellular communication function. For example, the in-vehicle device 200 may store the photographic data D in a portable information storage medium connectable to the in-vehicle device 200, and the information processing server 100 may read the photographic data D from the information storage medium.

図2は、本願発明の理解を容易にするために、情報処理サーバ100及び車載装置200の機能構成を、主な処理内容により区分して示した概略図であり、情報処理サーバ100及び車載装置200の構成を限定するものではない。例えば、プロセッサ10が備える構成要素の処理を、1つのハードウェアユニットにより実行してもよいし、複数のハードウェアユニットにより実行してもよい。また、図3-図9に示した各処理は、1つのプログラムにより実行されてもよいし、複数のプログラムにより実行されてもよい。 FIG. 2 is a schematic diagram showing the functional configurations of the information processing server 100 and the in-vehicle device 200, divided according to main processing contents, to facilitate understanding of the present invention. 200 configuration is not limiting. For example, the processing of the components included in the processor 10 may be executed by one hardware unit or may be executed by a plurality of hardware units. Also, each process shown in FIGS. 3 to 9 may be executed by one program or may be executed by a plurality of programs.

制御用プログラム21は、可搬型の情報記録媒体に制御用プログラム21を記録させた状態で実現することも可能である。情報記録媒体は、ハードディスク等の磁気的記録媒体、CD等の光学的記録媒体、USB(Universal Serial Bus)メモリやSSD(Solid State Drive)等の半導体記憶デバイスが挙げられるが、その他の記録媒体を用いることも可能である。プロセッサ10は、情報記録媒体から制御用プログラム21を読み出して実行してもよい。 The control program 21 can also be realized by recording the control program 21 on a portable information recording medium. Examples of information recording media include magnetic recording media such as hard disks, optical recording media such as CDs, and semiconductor storage devices such as USB (Universal Serial Bus) memories and SSD (Solid State Drives). It is also possible to use The processor 10 may read and execute the control program 21 from the information recording medium.

[5.上記実施形態によりサポートされる構成]
上記実施形態は、以下の構成をサポートする。
[5. Configuration supported by the above embodiment]
The above embodiment supports the following configurations.

(構成1)車両に搭載されたカメラの撮影画像を取得する取得部と、前記撮影画像に基づき処理対象物を特定する特定部と、前記撮影画像から、前記処理対象物の変化を検出する対象となる変化点を抽出する抽出部と、を備え、前記抽出部は、複数の抽出処理を実行可能に構成され、前記特定部により特定された前記処理対象物に対応する前記抽出処理を行うことによって、前記処理対象物の変化点を抽出する、情報処理装置。
構成1の情報処理装置によれば、撮影画像において特定した処理対象物に対応する抽出処理を行うことによって、車両が搭載するカメラの撮影画像をもとに、複数の種類の処理対象物に関する情報を得ることができる。
(Configuration 1) an acquisition unit that acquires an image captured by a camera mounted on a vehicle, an identification unit that identifies a processing target based on the captured image, and a target that detects changes in the processing target from the captured image and an extraction unit configured to be capable of executing a plurality of extraction processes, and performing the extraction process corresponding to the object to be processed specified by the specifying unit An information processing device that extracts a change point of the object to be processed by.
According to the information processing apparatus of configuration 1, by performing extraction processing corresponding to the processing target specified in the captured image, information on a plurality of types of processing targets is obtained based on the captured image of the camera mounted on the vehicle. can be obtained.

(構成2)前記抽出部は、前記処理対象物における前記変化点、及び、前記変化点について検出する変化の態様が異なる複数の前記抽出処理を実行可能であり、複数の前記抽出処理のうち前記特定部により特定された前記処理対象物に対応する前記抽出処理を特定して実行することにより、前記処理対象物における前記変化点の変化の態様を検出する、構成1記載の情報処理装置。
構成2の情報処理装置によれば、処理対象物に対応する抽出処理によって、処理対象物に特有の変化点において変化の態様を検出できる。これにより、車両が搭載するカメラの撮影画像を利用して、処理対象物の種類等に特有の情報を得ることができる。
(Arrangement 2) The extraction unit is capable of executing a plurality of extraction processes in which the change point in the object to be processed and the mode of change detected for the change point are different, and among the plurality of extraction processes, the The information processing apparatus according to configuration 1, wherein a mode of change of the change point in the processing target is detected by specifying and executing the extraction process corresponding to the processing target specified by the specifying unit.
According to the information processing apparatus of the configuration 2, it is possible to detect the mode of change at the change point peculiar to the object to be processed by the extraction process corresponding to the object to be processed. Accordingly, it is possible to obtain information specific to the type of the object to be processed by using the captured image of the camera mounted on the vehicle.

(構成3)前記抽出部は、前記抽出処理において、第1の前記撮影画像から抽出した前記変化点と、前記第1の前記撮影画像とは異なる時期に撮影された第2の前記撮影画像から抽出した前記変化点と、を比較することにより、前記変化点における変化を検出する、構成1または構成2記載の情報処理装置。
構成3の情報処理装置によれば、複数の画像を比較することによって、処理対象物に関して詳細な情報を得ることができる。
(Configuration 3) In the extraction process, the extraction unit extracts the change point extracted from the first captured image and the second captured image captured at a different time from the first captured image. The information processing apparatus according to configuration 1 or 2, wherein a change at the change point is detected by comparing the extracted change point.
According to the information processing apparatus of configuration 3, detailed information regarding the object to be processed can be obtained by comparing a plurality of images.

(構成4)前記抽出部は、前記特定部によって前記処理対象物として住宅が特定された場合、前記撮影画像に含まれる前記住宅の側面の画像から変化点を抽出することによって、前記住宅が居住中であるか空き家かを判定する、構成1から構成3のいずれか1項に記載の情報処理装置。
構成4の情報処理装置によれば、住宅の側面の画像を利用することによって、例えば上方から撮影された画像を利用する場合に比べ、より正確に、住宅が居住中であるか空き家かを判定できる。
(Configuration 4) When the identifying unit identifies a house as the object to be processed, the extracting unit extracts a change point from an image of the side surface of the house included in the photographed image to determine whether the house is habitable. The information processing apparatus according to any one of configurations 1 to 3, which determines whether the house is inside or vacant.
According to the information processing apparatus of configuration 4, by using the image of the side of the house, it is possible to more accurately determine whether the house is inhabited or vacant, compared to the case of using an image taken from above, for example. can.

(構成5)前記抽出部は、夜間に撮影された前記撮影画像に含まれる前記住宅の側面の画像から抽出した前記変化点と、昼間に撮影された前記撮影画像に含まれる前記住宅の側面の画像から抽出した前記変化点と、を比較することによって、前記住宅が居住中であるか空き家かを判定する、構成4記載の情報処理装置。
構成5の情報処理装置によれば、夜間に撮影された撮影画像と昼間に撮影された撮影画像とを比較するので、より正確に、住宅が居住中であるか空き家かを判定できる。
(Arrangement 5) The extracting unit extracts the change point extracted from the image of the side of the house included in the captured image taken at night and the side of the house included in the captured image taken during the daytime. The information processing apparatus according to configuration 4, wherein it is determined whether the house is inhabited or vacant by comparing with the change point extracted from the image.
According to the information processing apparatus of configuration 5, since the photographed image photographed at night and the photographed image photographed during the daytime are compared, it can be determined more accurately whether the house is occupied or vacant.

(構成6)前記抽出部は、前記撮影画像から抽出した前記変化点をもとに、前記住宅の側面の画像から、前記住宅の内部または付近にいる人の有無、前記住宅の照明の点灯状態、前記住宅で干されている洗濯物の状態、前記住宅の窓の開閉状態、前記住宅の一部または全体における温度変化、及び、前記住宅に配達された郵便物の状態の少なくともいずれかを検出することによって、前記住宅が居住中であるか空き家かを判定する、構成4または構成5記載の情報処理装置。
構成6の情報処理装置によれば、住宅の居住状態の指標となる事象について判定を行うことにより、より正確に、住宅が居住中であるか空き家かを判定できる。
(Configuration 6) The extracting unit extracts the presence or absence of a person inside or near the house from the image of the side of the house based on the change point extracted from the photographed image, and the lighting state of the lighting of the house. , the state of the laundry hanging to dry in the residence, the open/closed state of the windows of the residence, the temperature change in a part or the whole of the residence, and the state of the mail delivered to the residence. The information processing apparatus according to configuration 4 or 5, wherein it is determined whether the house is inhabited or vacant by doing so.
According to the information processing apparatus of configuration 6, it is possible to more accurately determine whether a house is inhabited or vacant by making a determination on an event that serves as an indicator of the living condition of the house.

(構成7)前記抽出部は、前記特定部によって前記処理対象物として信号機が特定された場合、前記撮影画像に含まれる前記信号機の画像から変化点を抽出することによって、前記信号機の動作状態が正常であるか否か、及び、前記信号機に異物が付着しているか否かの少なくともいずれかを判定する、構成1から構成3のいずれか1項に記載の情報処理装置。
構成7の情報処理装置によれば、車両が搭載するカメラの撮影画像をもとに、信号機の状態に関する情報を得ることができる。
(Arrangement 7) When the specifying unit specifies a traffic light as the object to be processed, the extracting unit extracts a change point from the image of the traffic light included in the captured image, thereby determining the operation state of the traffic light. 3. The information processing apparatus according to any one of configurations 1 to 3, wherein it is determined at least one of whether the signal is normal and whether a foreign object is attached to the traffic signal.
According to the information processing device of configuration 7, it is possible to obtain information about the state of the traffic light based on the image captured by the camera mounted on the vehicle.

(構成8)前記抽出部は、前記特定部によって前記処理対象物として道路が特定された場合、前記撮影画像に含まれる前記道路の画像から変化点を抽出することによって、前記道路の路面状態の異常を検出する、構成1から構成3のいずれか1項に記載の情報処理装置。
構成8の情報処理装置によれば、車両が搭載するカメラの撮影画像をもとに、道路の路面の状態に関する情報を得ることができる。
(Arrangement 8) When the specifying unit specifies a road as the object to be processed, the extracting unit extracts a change point from the image of the road included in the photographed image to obtain the road surface condition of the road. The information processing device according to any one of Configurations 1 to 3, which detects an abnormality.
According to the information processing device of configuration 8, information regarding the state of the road surface can be obtained based on the image captured by the camera mounted on the vehicle.

(構成9)前記取得部は、前記カメラが撮影した動画像と、前記動画像の撮影中における前記車両の位置情報とを取得し、前記動画像から静止画像を切り出すことによって前記撮影画像を取得し、前記車両の位置情報をもとに前記静止画像に対応する位置情報を生成して、生成した位置情報を前記撮影画像に対応付ける処理を行い、前記抽出部は、前記撮影画像から前記変化点を抽出した処理の結果とともに、前記撮影画像に対応付けられた位置情報を出力する、構成1から構成8のいずれか1項に記載の情報処理装置。
構成9の情報処理装置によれば、車両が搭載するカメラが撮影した動画像を利用して、複数の種類の処理対象物に関する情報を得ることができる。
(Arrangement 9) The acquisition unit acquires the moving image captured by the camera and the position information of the vehicle during the capturing of the moving image, and acquires the captured image by extracting a still image from the moving image. and generating position information corresponding to the still image based on the position information of the vehicle, and performing processing for associating the generated position information with the captured image. 9. The information processing apparatus according to any one of configurations 1 to 8, wherein position information associated with the photographed image is output together with a result of the process of extracting .
According to the information processing apparatus of configuration 9, it is possible to obtain information on a plurality of types of processing objects by using moving images captured by a camera mounted on a vehicle.

(構成10)車両に搭載されたカメラの撮影画像を取得し、前記撮影画像に基づき処理対象物を特定し、前記撮影画像から、前記処理対象物の変化を検出する対象となる変化点を抽出する処理であって実行可能に設定された複数の抽出処理のうち、特定された前記処理対象物に対応する前記抽出処理を行うことによって、前記処理対象物の変化点を抽出する、情報処理方法。
構成10の情報処理方法によれば、撮影画像において特定した処理対象物に対応する抽出処理を行うことによって、車両が搭載するカメラの撮影画像をもとに、複数の種類の処理対象物に関する情報を得ることができる。
(Arrangement 10) Acquiring an image captured by a camera mounted on a vehicle, identifying a processing target based on the captured image, and extracting a change point from which a change in the processing target is detected from the captured image. an information processing method for extracting a change point of the processing object by performing the extraction processing corresponding to the specified processing object among a plurality of extraction processes set to be executable. .
According to the information processing method of configuration 10, by performing extraction processing corresponding to the processing target specified in the captured image, information on a plurality of types of processing targets is obtained based on the captured image of the camera mounted on the vehicle. can be obtained.

1…情報処理システム、10…プロセッサ、11…取得部、12…特定部、13…抽出部、14…出力部、20…記憶部、21…制御用プログラム、22…動画像データ、23…撮影画像データ、24…サーモ画像データ、25…設定データ、26…処理結果データ、30…通信部、100…情報処理サーバ(情報処理装置)、131…第1処理部、132…第2処理部、133…第3処理部、134…第4処理部、200…車載装置、201…プロセッサ、202…記憶部、203…通信部、204…タッチパネル、205…カメラ、206…赤外線カメラ、207…GNSS、250…ユーザ端末、300…配信サーバ、D…撮影データ、D1…撮影画像、D2…サーモ画像、D3…位置情報、D4…撮影日時、NW…通信ネットワーク、V…車両。 DESCRIPTION OF SYMBOLS 1... Information processing system 10... Processor 11... Acquisition part 12... Identification part 13... Extraction part 14... Output part 20... Storage part 21... Control program 22... Moving image data 23... Shooting Image data 24 Thermographic image data 25 Setting data 26 Processing result data 30 Communication unit 100 Information processing server (information processing device) 131 First processing unit 132 Second processing unit DESCRIPTION OF SYMBOLS 133... 3rd process part, 134... 4th process part, 200... Vehicle-mounted apparatus, 201... Processor, 202... Storage part, 203... Communication part, 204... Touch panel, 205... Camera, 206... Infrared camera, 207... GNSS, 250 User terminal 300 Distribution server D Photographed data D1 Photographed image D2 Thermal image D3 Location information D4 Photographed date and time NW Communication network V Vehicle.

Claims (10)

車両に搭載されたカメラの撮影画像を取得する取得部と、
前記撮影画像に基づき処理対象物を特定する特定部と、
前記撮影画像から、前記処理対象物の変化を検出する対象となる変化点を抽出する抽出部と、を備え、
前記抽出部は、複数の抽出処理を実行可能に構成され、前記特定部により特定された前記処理対象物に対応する前記抽出処理を行うことによって、前記処理対象物の変化点を抽出する、情報処理装置。
an acquisition unit that acquires an image captured by a camera mounted on a vehicle;
a specifying unit that specifies a processing target based on the captured image;
an extracting unit that extracts a change point from the captured image to detect a change in the object to be processed;
The extraction unit is configured to be capable of executing a plurality of extraction processes, and extracts a change point of the processing object by performing the extraction process corresponding to the processing object specified by the specifying unit. processing equipment.
前記抽出部は、前記処理対象物における前記変化点、及び、前記変化点について検出する変化の態様が異なる複数の前記抽出処理を実行可能であり、
複数の前記抽出処理のうち前記特定部により特定された前記処理対象物に対応する前記抽出処理を特定して実行することにより、前記処理対象物における前記変化点の変化の態様を検出する、請求項1記載の情報処理装置。
The extracting unit is capable of executing a plurality of the extraction processes that differ in the change point in the object to be processed and the mode of change detected for the change point,
identifying and executing the extraction processing corresponding to the processing object identified by the identifying unit from among the plurality of extraction processing, thereby detecting a change mode of the change point in the processing object; Item 1. The information processing apparatus according to item 1.
前記抽出部は、前記抽出処理において、第1の前記撮影画像から抽出した前記変化点と、前記第1の前記撮影画像とは異なる時期に撮影された第2の前記撮影画像から抽出した前記変化点と、を比較することにより、前記変化点における変化を検出する、請求項1または2記載の情報処理装置。 In the extraction process, the extraction unit extracts the change point extracted from the first captured image and the change extracted from the second captured image captured at a different time from the first captured image. 3. The information processing apparatus according to claim 1, wherein a change at said change point is detected by comparing a point and a point. 前記抽出部は、前記特定部によって前記処理対象物として住宅が特定された場合、前記撮影画像に含まれる前記住宅の側面の画像から変化点を抽出することによって、前記住宅が居住中であるか空き家かを判定する、請求項1から3のいずれか1項に記載の情報処理装置。 When the identifying unit identifies a house as the object to be processed, the extracting unit extracts a point of change from an image of a side surface of the house included in the photographed image to determine whether the house is inhabited. 4. The information processing apparatus according to any one of claims 1 to 3, which determines whether the house is vacant. 前記抽出部は、夜間に撮影された前記撮影画像に含まれる前記住宅の側面の画像から抽出した前記変化点と、昼間に撮影された前記撮影画像に含まれる前記住宅の側面の画像から抽出した前記変化点と、を比較することによって、前記住宅が居住中であるか空き家かを判定する、請求項4記載の情報処理装置。 The extraction unit extracts from the change point extracted from the image of the side of the house included in the captured image taken at night and the image of the side of the house included in the captured image taken during the daytime. 5. The information processing apparatus according to claim 4, which determines whether said house is inhabited or vacant by comparing with said change point. 前記抽出部は、前記撮影画像から抽出した前記変化点をもとに、前記住宅の側面の画像から、前記住宅の内部または付近にいる人の有無、前記住宅の照明の点灯状態、前記住宅で干されている洗濯物の状態、前記住宅の窓の開閉状態、前記住宅の一部または全体における温度変化、及び、前記住宅に配達された郵便物の状態の少なくともいずれかを検出することによって、前記住宅が居住中であるか空き家かを判定する、請求項4または5記載の情報処理装置。 Based on the change points extracted from the photographed image, the extracting unit extracts from the image of the side of the house the presence or absence of people inside or near the house, the lighting state of the lighting of the house, By detecting at least one of the state of the laundry being hung, the open/closed state of the windows of the residence, the temperature change in part or the entirety of the residence, and the state of the mail delivered to the residence, 6. The information processing apparatus according to claim 4, which determines whether said house is inhabited or vacant. 前記抽出部は、前記特定部によって前記処理対象物として信号機が特定された場合、前記撮影画像に含まれる前記信号機の画像から変化点を抽出することによって、前記信号機の動作状態が正常であるか否か、及び、前記信号機に異物が付着しているか否かの少なくともいずれかを判定する、請求項1から3のいずれか1項に記載の情報処理装置。 When the identification unit identifies a traffic light as the object to be processed, the extraction unit extracts a change point from the image of the traffic light included in the captured image to determine whether the operation state of the traffic light is normal. 4. The information processing apparatus according to any one of claims 1 to 3, which determines at least one of whether or not a foreign object is attached to said traffic signal. 前記抽出部は、前記特定部によって前記処理対象物として道路が特定された場合、前記撮影画像に含まれる前記道路の画像から変化点を抽出することによって、前記道路の路面状態の異常を検出する、請求項1から3のいずれか1項に記載の情報処理装置。 When a road is specified as the object to be processed by the specifying unit, the extraction unit detects an abnormality in the road surface condition of the road by extracting a change point from the image of the road included in the captured image. 4. The information processing apparatus according to any one of claims 1 to 3. 前記取得部は、前記カメラが撮影した動画像と、前記動画像の撮影中における前記車両の位置情報とを取得し、前記動画像から静止画像を切り出すことによって前記撮影画像を取得し、前記車両の位置情報をもとに前記静止画像に対応する位置情報を生成して、生成した位置情報を前記撮影画像に対応付ける処理を行い、
前記抽出部は、前記撮影画像から前記変化点を抽出した処理の結果とともに、前記撮影画像に対応付けられた位置情報を出力する、請求項1から8のいずれか1項に記載の情報処理装置。
The acquisition unit acquires a moving image captured by the camera and position information of the vehicle during capturing of the moving image, obtains the captured image by extracting a still image from the moving image, and obtains the captured image by extracting a still image from the moving image. performing a process of generating position information corresponding to the still image based on the position information of and associating the generated position information with the captured image;
9. The information processing apparatus according to any one of claims 1 to 8, wherein the extraction unit outputs position information associated with the captured image together with a result of processing for extracting the change point from the captured image. .
車両に搭載されたカメラの撮影画像を取得し、
前記撮影画像に基づき処理対象物を特定し、
前記撮影画像から、前記処理対象物の変化を検出する対象となる変化点を抽出する処理であって実行可能に設定された複数の抽出処理のうち、特定された前記処理対象物に対応する前記抽出処理を行うことによって、前記処理対象物の変化点を抽出する、情報処理方法。
Acquire images captured by the camera mounted on the vehicle,
Identifying an object to be processed based on the captured image,
A process for extracting a change point from the photographed image as a target for detecting a change in the object to be processed, which corresponds to the specified object to be processed, among a plurality of extraction processes set to be executable. An information processing method for extracting a change point of the object to be processed by performing an extraction process.
JP2021057689A 2021-03-30 2021-03-30 Information processing device and information processing method Pending JP2022154584A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021057689A JP2022154584A (en) 2021-03-30 2021-03-30 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021057689A JP2022154584A (en) 2021-03-30 2021-03-30 Information processing device and information processing method

Publications (1)

Publication Number Publication Date
JP2022154584A true JP2022154584A (en) 2022-10-13

Family

ID=83557425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021057689A Pending JP2022154584A (en) 2021-03-30 2021-03-30 Information processing device and information processing method

Country Status (1)

Country Link
JP (1) JP2022154584A (en)

Similar Documents

Publication Publication Date Title
US9405981B2 (en) Optimizing the detection of objects in images
JP5976237B2 (en) Video search system and video search method
CN102457665B (en) The control method of picture pick-up device, camera system and picture pick-up device
JP6203208B2 (en) Road structure management system and road structure management method
US9299231B2 (en) Image processing sensor systems
US11100332B2 (en) Investigation assist system and investigation assist method
US20190335074A1 (en) Eliminating effects of environmental conditions of images captured by an omnidirectional camera
US10726274B1 (en) Investigation assist system and investigation assist method
JP2010509668A (en) Method and apparatus for identifying an object acquired by a digital image
CN104134352A (en) Video vehicle characteristic detection system and detection method based on combination of long exposure and short exposure
CN102170563A (en) Intelligent person capture system and person monitoring management method
JP2008118643A (en) Apparatus and method of managing image file
CN104243798A (en) Image processing device, server, and storage medium
BR102018072654A2 (en) RESCUE SYSTEM AND RESCUE METHOD, AND SERVER USED FOR THE RESCUE SYSTEM AND THE RESCUE METHOD
US20100296703A1 (en) Method and device for detecting and classifying moving targets
JP2022003335A (en) Deterioration diagnostic device, deterioration diagnostic system, deterioration diagnostic method, and program
JP2022154584A (en) Information processing device and information processing method
WO2016022020A1 (en) System and method for detecting and reporting location of unilluminated streetlights
JP2021007055A (en) Discriminator learning device, discriminator learning method, and computer program
CN116886874A (en) Ecological garden security monitoring and early warning data acquisition method and system
KR101937582B1 (en) Safety System for Walkway Monitor
TW201743606A (en) Storage system of original frame of monitor data and storage method thereof
CN115331181A (en) Vehicle image fusion method and device, computer equipment and storage medium
CN102096689B (en) Image method for searching and system
TWI387940B (en) Traffic information analysis system and method using geographic information module and aerial map

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240702