JP2024076389A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2024076389A
JP2024076389A JP2021059608A JP2021059608A JP2024076389A JP 2024076389 A JP2024076389 A JP 2024076389A JP 2021059608 A JP2021059608 A JP 2021059608A JP 2021059608 A JP2021059608 A JP 2021059608A JP 2024076389 A JP2024076389 A JP 2024076389A
Authority
JP
Japan
Prior art keywords
image
time
date
information processing
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021059608A
Other languages
Japanese (ja)
Inventor
逸平 難波田
令司 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Pioneer Smart Sensing Innovations Corp
Original Assignee
Pioneer Corp
Pioneer Smart Sensing Innovations Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp, Pioneer Smart Sensing Innovations Corp filed Critical Pioneer Corp
Priority to JP2021059608A priority Critical patent/JP2024076389A/en
Priority to PCT/JP2022/009399 priority patent/WO2022209583A1/en
Publication of JP2024076389A publication Critical patent/JP2024076389A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】容易に精度良く画像の変化検出を行う技術を提供することが一例として挙げられる。【解決手段】情報処理装置10は、取得部120、差分画像生成部140および抽出部160を備える。取得部120は、第1の日時に撮影された第1画像と、第2の日時に撮影された第2画像と、第3の日時に撮影された第3画像と、第4の日時に撮影された第4画像とを取得する。差分画像生成部140は、第1画像と第3画像との差分を示す第1差分画像、および、第2画像と第4画像との差分を示す第2差分画像を生成する。抽出部160は、第1差分画像と第2差分画像との共通成分を第1共通成分として抽出する。第3の日時および第4の日時はいずれも、第1の日時よりも後、かつ第2の日時よりも後である。【選択図】図1[Problem] One example is to provide a technology for easily and accurately detecting changes in an image. [Solution] An information processing device 10 includes an acquisition unit 120, a difference image generation unit 140, and an extraction unit 160. The acquisition unit 120 acquires a first image taken on a first date and time, a second image taken on a second date and time, a third image taken on a third date and time, and a fourth image taken on a fourth date and time. The difference image generation unit 140 generates a first difference image showing the difference between the first image and the third image, and a second difference image showing the difference between the second image and the fourth image. The extraction unit 160 extracts a common component between the first difference image and the second difference image as a first common component. The third date and the fourth date and time are both later than the first date and time and later than the second date and time. [Selected Figure] FIG.

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

高精度地図のメンテナンス等のために、道路や建物を撮影した画像の変化を検出する必要がある。ここで、画像には影等が映り込むことがあり、検出したい変化部分と、影等の変化を切り分ける必要がある。たとえば、路面の撮影画像には路面上の走行車両や路側にある構造物の影などが写っている。そのような画像を使用して路面上のペイントなどの変化を検出しようとする場合、影のエッジをペイントのエッジと認識してしまう恐れがある。そして、影は時刻や季節、天候により変化するため、それが変化部分として検出されてしまう恐れがある。 For the maintenance of high-precision maps, it is necessary to detect changes in images of roads and buildings. However, shadows and other objects may appear in the images, and it is necessary to distinguish between the changes that are of interest and the changes in the shadows. For example, an image of a road surface may contain the shadows of vehicles traveling on the road surface and structures on the roadside. When trying to detect changes in paint on the road surface using such images, there is a risk that the edges of the shadows will be recognized as the edges of the paint. Furthermore, because shadows change depending on the time of day, season, and weather, there is a risk that they will be detected as changes.

特許文献1には、輝度画像のヒストグラムの谷部の輝度よりも低い輝度を有する領域を影領域と判定し、谷部の輝度よりも高い輝度を有する領域を非影領域と判定することが記載されている。特許文献1の技術では、さらに輝度画像に対して影除去処理を行った上で変化抽出を行う。 Patent Document 1 describes a method of determining regions with a lower luminance than the luminance of the valleys in the histogram of the luminance image as shadow regions, and regions with a higher luminance than the luminance of the valleys as non-shadow regions. The technology in Patent Document 1 further performs a shadow removal process on the luminance image before extracting changes.

特許文献2には、比較する複数の画像同士において対応する画素同士の輝度値の比を閾値処理することにより、画像を構成する部分的な領域が影領域否かを判定することが記載されている、そして、部分的な領域が影領域と判定されたとき、それを画像から除去することが記載されている。 Patent document 2 describes a method for determining whether a partial area that constitutes an image is a shadow area by performing threshold processing on the ratio of brightness values between corresponding pixels in multiple images to be compared, and describes a method for removing the partial area from the image when it is determined that the partial area is a shadow area.

特開2004-252733号公報JP 2004-252733 A 特開2000-251053号公報JP 2000-251053 A

しかしながら、特許文献1および2の技術では、天候等の撮影条件や他の被写体の特性などにより、必ずしも影を正確に判定できないという問題があると考えられる。また、特許文献1および2の技術では、変化検出に先立って影を除去した中間画像を生成しており、中間画像の精度が変化検出の精度に大きく影響すると考えられる。 However, the techniques of Patent Documents 1 and 2 have the problem that shadows cannot always be accurately determined due to shooting conditions such as weather and the characteristics of other subjects. In addition, the techniques of Patent Documents 1 and 2 generate intermediate images from which shadows have been removed prior to change detection, and it is believed that the accuracy of the intermediate images significantly affects the accuracy of change detection.

本発明が解決しようとする課題としては、容易に精度良く画像の変化検出を行う技術を提供することが一例として挙げられる。 One example of the problem that the present invention aims to solve is to provide a technology that can easily and accurately detect changes in images.

請求項1に記載の発明は、
第1の日時に撮影された第1画像と、第2の日時に撮影された第2画像と、第3の日時に撮影された第3画像と、第4の日時に撮影された第4画像とを取得する取得部と、
前記第1画像と前記第3画像との差分を示す第1差分画像、および、前記第2画像と前記第4画像との差分を示す第2差分画像を生成する差分画像生成部と、
前記第1差分画像と前記第2差分画像との共通成分を第1共通成分として抽出する抽出部とを備え、
前記第3の日時および前記第4の日時はいずれも、前記第1の日時よりも後、かつ前記第2の日時よりも後である
情報処理装置である。
The invention described in claim 1 is
an acquisition unit that acquires a first image captured on a first date and time, a second image captured on a second date and time, a third image captured on a third date and time, and a fourth image captured on a fourth date and time;
a difference image generating unit that generates a first difference image indicating a difference between the first image and the third image, and a second difference image indicating a difference between the second image and the fourth image;
an extracting unit that extracts a common component between the first difference image and the second difference image as a first common component,
The third date and time and the fourth date and time are both later than the first date and time and later than the second date and time for the information processing device.

請求項15に記載の発明は、
第1の日時に撮影された第1画像と、第2の日時に撮影された第2画像と、第3の日時に撮影された第3画像と、第4の日時に撮影された第4画像とを取得する取得ステップと、
前記第1画像と前記第3画像との差分を示す第1差分画像、および、前記第2画像と前記第4画像との差分を示す第2差分画像を生成する差分画像生成ステップと、
前記第1差分画像と前記第2差分画像との共通成分を第1共通成分として抽出する抽出ステップとを備え、
前記第3の日時および前記第4の日時はいずれも、前記第1の日時よりも後、かつ前記第2の日時よりも後である
情報処理方法である。
The invention described in claim 15 is
an acquisition step of acquiring a first image taken at a first date and time, a second image taken at a second date and time, a third image taken at a third date and time, and a fourth image taken at a fourth date and time;
a difference image generating step of generating a first difference image indicating a difference between the first image and the third image, and a second difference image indicating a difference between the second image and the fourth image;
an extraction step of extracting a common component between the first difference image and the second difference image as a first common component,
In the information processing method, the third date and time and the fourth date and time are both later than the first date and time and later than the second date and time.

請求項16に記載の発明は、
請求項15に記載の情報処理方法の各ステップをコンピュータに実行させるプログラムである。
The invention described in claim 16 is
A program for causing a computer to execute each step of the information processing method according to claim 15.

第1の実施形態に係る情報処理装置の機能構成を例示するブロック図である。1 is a block diagram illustrating a functional configuration of an information processing apparatus according to a first embodiment. 第1の実施形態に係る情報処理装置が行う処理を説明するための図である。FIG. 2 is a diagram for explaining a process performed by the information processing device according to the first embodiment. 第1の実施形態に係る情報処理方法の流れを例示するフローチャートである。4 is a flowchart illustrating the flow of an information processing method according to the first embodiment. 第1の実施形態に係る情報処理装置が行う処理を詳しく例示するフローチャートである。4 is a flowchart illustrating in detail a process performed by the information processing apparatus according to the first embodiment. 第1の実施形態に係る情報処理装置が行う処理の変形例を示すフローチャートである。10 is a flowchart showing a modified example of processing performed by the information processing device according to the first embodiment. 情報処理装置を実現するための計算機を例示する図である。FIG. 1 is a diagram illustrating a computer for implementing an information processing device. 第2の実施形態に係る情報処理装置が行う処理を説明するための図である。FIG. 11 is a diagram for explaining a process performed by an information processing device according to a second embodiment. 第2の実施形態に係る情報処理装置が行う処理を説明するための図である。FIG. 11 is a diagram for explaining a process performed by an information processing device according to a second embodiment. 第3の実施形態に係る情報処理装置の機能構成を例示するブロック図である。FIG. 13 is a block diagram illustrating a functional configuration of an information processing device according to a third embodiment. 第3の実施形態に係る情報処理装置が行う情報処理方法の流れを例示するフローチャートである。13 is a flowchart illustrating the flow of an information processing method performed by an information processing apparatus according to a third embodiment. 第4の実施形態に係る情報処理装置が行う処理を説明するための図である。FIG. 13 is a diagram for explaining a process performed by an information processing device according to a fourth embodiment.

以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。 The following describes an embodiment of the present invention with reference to the drawings. Note that in all drawings, similar components are given similar reference numerals and descriptions will be omitted where appropriate.

以下に示す説明において、特に説明する場合を除き、情報処理装置10の各構成要素は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。情報処理装置10の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされたプログラム、そのプログラムを格納するハードディスクなどの記憶メディア、ネットワーク接続用インタフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置には様々な変形例がある。 In the following explanation, unless otherwise specified, each component of the information processing device 10 is shown as a functional block rather than a hardware-based configuration. Each component of the information processing device 10 is realized by any combination of hardware and software, centered on the CPU of any computer, memory, a program loaded into the memory, a storage medium such as a hard disk that stores the program, and an interface for network connection. There are various variations in the method and device for realizing this.

(第1の実施形態)
図1は、第1の実施形態に係る情報処理装置10の機能構成を例示するブロック図である。本実施形態に係る情報処理装置10は、取得部120、差分画像生成部140および抽出部160を備える。取得部120は、第1の日時に撮影された第1画像と、第2の日時に撮影された第2画像と、第3の日時に撮影された第3画像と、第4の日時に撮影された第4画像とを取得する。差分画像生成部140は、第1画像と第3画像との差分を示す第1差分画像、および、第2画像と第4画像との差分を示す第2差分画像を生成する。抽出部160は、第1差分画像と第2差分画像との共通成分を第1共通成分として抽出する。第3の日時および第4の日時はいずれも、第1の日時よりも後、かつ第2の日時よりも後である。以下に詳しく説明する。
First Embodiment
FIG. 1 is a block diagram illustrating a functional configuration of an information processing device 10 according to a first embodiment. The information processing device 10 according to this embodiment includes an acquisition unit 120, a difference image generation unit 140, and an extraction unit 160. The acquisition unit 120 acquires a first image taken at a first date and time, a second image taken at a second date and time, a third image taken at a third date and time, and a fourth image taken at a fourth date and time. The difference image generation unit 140 generates a first difference image showing the difference between the first image and the third image, and a second difference image showing the difference between the second image and the fourth image. The extraction unit 160 extracts a common component between the first difference image and the second difference image as a first common component. The third date and the fourth date and time are both later than the first date and time and later than the second date and time. This will be described in detail below.

図2は、本実施形態に係る情報処理装置10が行う処理を説明するための図である。たとえば画像A1が第1画像に相当し、画像A2が第2画像に相当し、画像B1が第3画像に相当し、画像B2が第4画像に相当する。本図の例において、画像A1~A3、画像B1~B3はそれぞれ道路31を含むオルソ画像であり、道路31には白線30が描かれている。また画像A1~A3、画像B1~B3には、影32が写り込んでいる。情報処理装置10によれば、この白線30の変化を検出することができる。 Figure 2 is a diagram for explaining the processing performed by the information processing device 10 according to this embodiment. For example, image A1 corresponds to the first image, image A2 corresponds to the second image, image B1 corresponds to the third image, and image B2 corresponds to the fourth image. In the example shown in this figure, images A1 to A3 and images B1 to B3 are each orthoimages including a road 31, on which a white line 30 is drawn. Furthermore, a shadow 32 appears in images A1 to A3 and images B1 to B3. The information processing device 10 can detect changes in this white line 30.

本図の例において画像A1~A3、画像B1~B3は互いに異なる画像である。たとえば画像A1~A3は互いに同じ日の異なる時刻に撮影された画像であり、画像B1~B3は互いに同じ日の異なる時刻に撮影された画像である。画像B1~B3が撮影された日は画像A1~A3が撮影された日よりも後である。 In the example shown in this figure, images A1 to A3 and images B1 to B3 are different images. For example, images A1 to A3 are images taken at different times on the same day, and images B1 to B3 are images taken at different times on the same day. Images B1 to B3 were taken on a day after images A1 to A3 were taken.

差分画像C1は画像A1と画像B1との差分を示している。差分画像C2は画像A2と画像B2との差分を示している。差分画像C3は画像A3と画像B3との差分を示している。そして、共通成分画像D1は、差分画像C1と差分画像C2と差分画像C3との共通成分を示す画像である。この共通成分画像D1は、白線30の変化部分のみが抽出されたものとなる。たとえば差分画像C1は第1差分画像に相当し、差分画像C2は第2差分画像に相当する。そして共通成分画像D1は、抽出部160で抽出される第1共通成分を示す画像に相当する。 Difference image C1 shows the difference between image A1 and image B1. Difference image C2 shows the difference between image A2 and image B2. Difference image C3 shows the difference between image A3 and image B3. And common component image D1 is an image showing the common component between difference image C1, difference image C2 and difference image C3. This common component image D1 is an image in which only the changed portion of the white line 30 is extracted. For example, difference image C1 corresponds to the first difference image, and difference image C2 corresponds to the second difference image. And common component image D1 corresponds to an image showing the first common component extracted by extraction unit 160.

つまり、本実施形態に係る情報処理装置10によれば、第1画像および第2画像が撮影された時期と、第3画像および第4画像が撮影された時期との間で生じた変化を第1共通成分として抽出できる。また、第1共通成分には、第1画像および第2画像の間で生じた変化および第3画像および第4画像の間で生じた変化は抽出されない。したがって、影などの短期的な変化と、白線や建造物等における長期的な変化を切り分けて検出することができる。 In other words, according to the information processing device 10 of this embodiment, the changes that occurred between the time when the first image and the second image were taken and the time when the third image and the fourth image were taken can be extracted as the first common component. Furthermore, the changes that occurred between the first image and the second image and the changes that occurred between the third image and the fourth image are not extracted as the first common component. Therefore, it is possible to detect short-term changes such as shadows separately from long-term changes in white lines, buildings, etc.

本実施形態に係る方法では、影に特有の特性などを利用していないため、影の判定に関する不確実な要素の影響を受けにくいとともに、短期的な変化を及ぼす影以外の要素にも対応が可能である。短期的な変化を及ぼす事象が落ち葉であるか影であるか雪であるかといった属性も意識することなく、その影響を除去できる。さらに、本実施形態に係る方法では、たとえば影を除去したような中間画像を生成していない。したがって、処理が簡潔かつ低負荷であり、変化部分の検出精度を低下させる要素が入り込みにくい。ひいては、高精度に変化部分を検出することが可能である。 The method according to this embodiment does not use characteristics specific to shadows, so it is not easily affected by uncertain factors related to shadow determination, and can also handle factors other than shadows that cause short-term changes. It is possible to remove the effects of short-term changes without being aware of attributes such as whether the phenomenon causing the change is fallen leaves, shadows, or snow. Furthermore, the method according to this embodiment does not generate intermediate images such as those with shadows removed. Therefore, the processing is simple and low-load, and factors that reduce the accuracy of detecting changed parts are unlikely to be introduced. As a result, it is possible to detect changed parts with high accuracy.

図3は、本実施形態に係る情報処理方法の流れを例示するフローチャートである。本実施形態に係る情報処理方法は、取得ステップS10、差分画像生成ステップS20、および抽出ステップS30を含む。取得ステップS10では、第1の日時に撮影された第1画像と、第2の日時に撮影された第2画像と、第3の日時に撮影された第3画像と、第4の日時に撮影された第4画像とが取得される。差分画像生成ステップS20では、第1画像と第3画像との差分を示す第1差分画像、および、第2画像と第4画像との差分を示す第2差分画像が生成される。抽出ステップS30では、第1差分画像と第2差分画像との共通成分が第1共通成分として抽出される。第3の日時および第4の日時はいずれも、第1の日時よりも後、かつ第2の日時よりも後である。本実施形態に係る情報処理方法は、本実施形態に係る情報処理装置10により実行され得る。 FIG. 3 is a flowchart illustrating the flow of the information processing method according to this embodiment. The information processing method according to this embodiment includes an acquisition step S10, a difference image generation step S20, and an extraction step S30. In the acquisition step S10, a first image taken at a first date and time, a second image taken at a second date and time, a third image taken at a third date and time, and a fourth image taken at a fourth date and time are acquired. In the difference image generation step S20, a first difference image showing the difference between the first image and the third image, and a second difference image showing the difference between the second image and the fourth image are generated. In the extraction step S30, a common component between the first difference image and the second difference image is extracted as a first common component. The third date and the fourth date and time are both later than the first date and time and later than the second date and time. The information processing method according to this embodiment can be executed by the information processing device 10 according to this embodiment.

図4は、本実施形態に係る情報処理装置10が行う処理を詳しく例示するフローチャートである。図1および図4を参照して本実施形態に係る情報処理装置10が行う処理について以下に詳しく説明する。取得部120が取得した画像を用いて変化部分を検出する一連の処理を、以下では「検出処理」と呼ぶ。 Figure 4 is a flowchart illustrating in detail the processing performed by the information processing device 10 according to this embodiment. The processing performed by the information processing device 10 according to this embodiment will be described in detail below with reference to Figures 1 and 4. The series of processes for detecting changed portions using the image acquired by the acquisition unit 120 will be referred to as "detection processing" below.

取得部120はたとえば取得部120からアクセス可能な記憶部200から、画像を取得する。図1では記憶部200が情報処理装置10の外部に設けられている例を示しているが、記憶部200は情報処理装置10の内部に設けられていても良い。記憶部200には複数の画像が、撮影日時や撮影位置と関連付けられた状態で予め保持されている。取得部120は、位置および時期を指定して記憶部200から画像を取得することができる。画像の撮影位置は、緯度および経度で特定できる他、個別の交差点やランドマークを示す識別子を用いて特定されてもよい。 The acquisition unit 120 acquires images, for example, from a storage unit 200 accessible from the acquisition unit 120. Although FIG. 1 shows an example in which the storage unit 200 is provided outside the information processing device 10, the storage unit 200 may be provided inside the information processing device 10. A plurality of images are stored in advance in the storage unit 200 in association with the shooting date and time and the shooting location. The acquisition unit 120 can acquire images from the storage unit 200 by specifying the location and time. The shooting location of an image can be specified by latitude and longitude, or it may be specified using an identifier indicating an individual intersection or landmark.

取得部120が取得する画像は特に限定されないが、道路、構造物等を移した画像であり得る。また、取得部120が取得する画像は特に限定されないが、たとえば道路上を移動する移動体(車両、二輪車等)に設けられた撮像装置で撮影された画像である。取得部120が取得する画像は、オルソ画像、道路や構造物等を真上から写した上面画像(top view image)、側面画像、航空写真等であってもよい。また、立体的な変化の検出を行う場合には、取得部120はLiDARで取得した点群データに基づく画像を取得しても良い。中でも取得部120が検出処理のために取得する画像はオルソ画像であることが好ましい。すなわち、第1画像、第2画像、第3画像、および第4画像はいずれもオルソ画像であることが好ましい。そうすれば、変化部分を高精度に検出しやすい。記憶部200に保持された画像がオルソ画像でない場合、取得部120は記憶部200から読みだした画像をオルソ化することにより検出処理に用いる画像を得ても良い。なお、取得部120が検出処理のために取得する画像は互いに同じ種類の画像であることが好ましい。 The image acquired by the acquisition unit 120 is not particularly limited, but may be an image of a road, a structure, etc. Also, the image acquired by the acquisition unit 120 is not particularly limited, but may be, for example, an image captured by an imaging device provided on a moving body (vehicle, motorcycle, etc.) moving on a road. The image acquired by the acquisition unit 120 may be an orthoimage, a top view image of a road or a structure taken from directly above, a side image, an aerial photograph, etc. Also, when detecting a three-dimensional change, the acquisition unit 120 may acquire an image based on point cloud data acquired by LiDAR. Among them, the image acquired by the acquisition unit 120 for the detection process is preferably an orthoimage. That is, it is preferable that the first image, the second image, the third image, and the fourth image are all orthoimages. In this way, it is easy to detect the changed part with high accuracy. If the image held in the storage unit 200 is not an orthoimage, the acquisition unit 120 may obtain an image to be used in the detection process by orthorectifying the image read out from the storage unit 200. It is preferable that the images acquired by the acquisition unit 120 for the detection process are images of the same type.

情報処理装置10は取得部120が取得した画像を用いて変化部分の検出処理を行う。取得部120が検出処理のために取得する画像には、少なくとも第1画像、第2画像、第3画像、および第4画像が含まれる。ただし、取得部120が検出処理のために取得する画像には、さらに一以上の画像が含まれても良い。取得部120が検出処理のために取得する画像は、同じ対象を含む画像であることが好ましい。また、取得部120が検出処理のために取得する画像は、互いに撮影領域が重なっていることが好ましい。なお、対象は予め定めておく必要はない。 The information processing device 10 performs a process of detecting changed parts using images acquired by the acquisition unit 120. The images acquired by the acquisition unit 120 for the detection process include at least a first image, a second image, a third image, and a fourth image. However, the images acquired by the acquisition unit 120 for the detection process may further include one or more images. It is preferable that the images acquired by the acquisition unit 120 for the detection process are images that include the same object. It is also preferable that the images acquired by the acquisition unit 120 for the detection process have mutually overlapping shooting areas. It is not necessary to determine the object in advance.

情報処理装置10はたとえば対象の長期的変化を検出することができる。図2の例において、対象は白線である。対象としては特に限定されないが、建物、標識、信号機、案内板等の構造物や、道路に描かれた白線等の区画線、横断歩道、道路標示、路面等が挙げられる。道路に描かれたペイントは、経時劣化や道路工事等により剥がれたり、新たに描き直されたりするため、これらの変化を検出することが必要となる。また、路面のヒビ、破損、凹み等も検出できることが好ましい。 The information processing device 10 can detect long-term changes in an object, for example. In the example of FIG. 2, the object is a white line. Objects are not particularly limited, but include structures such as buildings, signs, traffic lights, and guide boards, as well as white lines and other dividing lines painted on roads, pedestrian crossings, road markings, and road surfaces. Paint on roads peels off or is repainted due to deterioration over time or road construction, and it is necessary to detect these changes. It is also preferable to be able to detect cracks, damage, dents, and the like in the road surface.

一方、取得部120が検出処理のために取得する画像には、短期変化物がさらに含まれていても良い。短期変化物は一時的に変化するものであり、情報処理装置10は短期変化物による変化を除いた検出結果を出力できる。短期変化物は特に限定されないが、たとえば、影、雪、水たまり、土砂、車両、落下物、落ち葉、およびゴミのうち少なくともいずれかであり得る。 On the other hand, the image acquired by the acquisition unit 120 for the detection process may further include short-term changes. Short-term changes are temporary changes, and the information processing device 10 can output detection results excluding changes due to short-term changes. The short-term changes are not particularly limited, but may be, for example, at least one of shadows, snow, puddles, soil, vehicles, fallen objects, fallen leaves, and garbage.

上述したとおり、第1画像は第1の日時に撮影された画像であり、第2画像は第2の日時に撮影された画像であり、第3画像は第3の日時に撮影された画像であり、第4画像は第4の日時に撮影された画像である。第3の日時および第4の日時はいずれも、第1の日時よりも後、かつ第2の日時よりも後である。ここで、第1の日時と第2の日時との間隔は、第1の日時と第3の日時の間隔よりも狭いことが好ましい。第1の日時と第2の日時との間隔は、第2の日時と第4の日時の間隔よりも狭いことが好ましい。第3の日時と第4の日時の間隔は、第1の日時と第3の日時の間隔よりも狭いことが好ましい。また、第3の日時と第4の日時との間隔は、第2の日時と第4の日時の間隔よりも狭いことが好ましい。本実施形態において、第1の日時と第2の日時は互いに異なり、かつ、第3の日時と第4の日時は互いに異なる。第1の日時および第2の日時は第1の時期に含まれ、第3の日時と第4の日時は第2の時期に含まれる。第2の時期は第1の時期よりも後である。情報処理装置10によれば、第1の時期と第2の時期の間の対象の変化を検出できる。第1の時期および第2の時期の長さはそれぞれ特に限定されないが、たとえば1日である。 As described above, the first image is an image taken at the first date and time, the second image is an image taken at the second date and time, the third image is an image taken at the third date and time, and the fourth image is an image taken at the fourth date and time. The third date and time and the fourth date and time are both later than the first date and time and later than the second date and time. Here, it is preferable that the interval between the first date and time and the second date and time is narrower than the interval between the first date and time and the third date and time. It is preferable that the interval between the first date and time and the second date and time is narrower than the interval between the second date and time and the fourth date and time. It is also preferable that the interval between the third date and time and the fourth date and time is narrower than the interval between the second date and time and the fourth date and time. In this embodiment, the first date and time and the second date and time are different from each other, and the third date and time and the fourth date and time are different from each other. The first date and time and the second date and time are included in the first period, and the third date and time and the fourth date and time are included in the second period. The second period is later than the first period. According to the information processing device 10, it is possible to detect a change in the object between the first period and the second period. The length of each of the first period and the second period is not particularly limited, but is, for example, one day.

まずS101において、情報処理装置10は、検出対象の位置および時期の指定を受け付ける。検出対象の位置および時期は、たとえばユーザが情報処理装置10に対して入力することができる。検出対象の位置の指定はたとえば緯度および経度でされても良いし、上述したように交差点やランドマークの識別子でされても良い。また、検出対象の位置は予め定められた基準地点からの距離や相対位置で指定されても良い。ランドマークとしては、信号機、標識、バス停、横断歩道等が挙げられる。検出対象の時期の指定は、第1の時期と第2の時期を指定することにより行われる。各時期は、その時期の始点と終点を指定すること、またはその時期の始点と長さを指定することで行える。 First, in S101, the information processing device 10 accepts the designation of the position and time of the detection target. The position and time of the detection target can be input to the information processing device 10, for example, by the user. The position of the detection target may be designated, for example, by latitude and longitude, or by an identifier of an intersection or landmark as described above. The position of the detection target may also be designated by a distance or relative position from a predetermined reference point. Examples of landmarks include traffic lights, signs, bus stops, and crosswalks. The time of the detection target is designated by designating a first time period and a second time period. Each time period can be designated by designating the start point and end point of that time period, or the start point and length of that time period.

情報処理装置10が検出対象の位置および時期の指定を受け付けると、取得部120はS102において記憶部200から検出対象の位置および時期に該当する画像を選択し、検出処理のために取得する。具体的には取得部120は、検出対象の位置として指定された位置を含む画像を取得する。または、取得部120は検出対象の位置として指定された位置から撮影された画像を取得する。検出対象の位置が交差点やランドマークの識別子で指定される場合、取得部120は、その識別子で表された交差点やランドマークが含まれる画像を取得する。本実施形態において取得部120は第1の時期に撮影された画像を二以上取得し、第2の時期に撮影された画像を二以上取得する。取得部120は、たとえば第1の時期に第1の日時および第2の日時が含まれるように、第1画像および第2画像を取得する。また取得部120は、第2の時期に第3の日時および第4の日時が含まれるように、第3画像および第4画像を取得する。 When the information processing device 10 accepts the designation of the position and time of the detection target, the acquisition unit 120 selects an image corresponding to the position and time of the detection target from the storage unit 200 in S102 and acquires it for detection processing. Specifically, the acquisition unit 120 acquires an image including the position designated as the position of the detection target. Alternatively, the acquisition unit 120 acquires an image taken from the position designated as the position of the detection target. When the position of the detection target is designated by an identifier of an intersection or landmark, the acquisition unit 120 acquires an image including the intersection or landmark represented by the identifier. In this embodiment, the acquisition unit 120 acquires two or more images taken in a first period, and acquires two or more images taken in a second period. For example, the acquisition unit 120 acquires the first image and the second image so that the first period includes the first date and time and the second date and time. The acquisition unit 120 also acquires the third image and the fourth image so that the second period includes the third date and time and the fourth date and time.

取得部120が画像を取得すると、差分画像生成部140はS201においてエッジ検出を行う。具体的には差分画像生成部140は、取得部120が取得した各画像に対し、エッジ検出処理を行う。エッジ検出処理はたとえば画像の輝度勾配に基づいて行える。ただし色の変化を検出しようとする場合には、画像の色相にさらに基づいてエッジ検出処理を行っても良い。なお、差分画像生成部140は、取得部120が取得した画像に対し、必要に応じて補正処理等を行っても良い。エッジ検出処理により、エッジ画像が得られる。 When the acquisition unit 120 acquires an image, the difference image generation unit 140 performs edge detection in S201. Specifically, the difference image generation unit 140 performs edge detection processing on each image acquired by the acquisition unit 120. The edge detection processing can be performed, for example, based on the luminance gradient of the image. However, when attempting to detect a color change, the edge detection processing may also be performed based on the hue of the image. Note that the difference image generation unit 140 may perform correction processing, etc., as necessary, on the image acquired by the acquisition unit 120. An edge image is obtained by the edge detection processing.

次いで差分画像生成部140はS202において、差分画像を複数生成する。差分画像は、第1の時期に撮影されたいずれかの画像と、第2の時期に撮影されたいずれかの画像との差分を示す画像である。具体的には、差分画像生成部140は、S201で得られたエッジ画像の位置を対応付ける。そして、位置が対応付けられた二つのエッジ画像で、対応する位置の画素の値を比較する。すなわち、実空間で同じ位置に対応する画素の値を比較する。そして、画素の値が一致する画素を共通部分と判定し、画素の値が一致しない画素を差分と判定する。こうして、差分と判定された画素をそれ以外の画素と識別可能に示された画像が差分画像である。 Next, in S202, the difference image generating unit 140 generates multiple difference images. A difference image is an image that shows the difference between any image captured at a first time and any image captured at a second time. Specifically, the difference image generating unit 140 matches the positions of the edge images obtained in S201. Then, it compares the pixel values at corresponding positions in the two edge images whose positions are matched. That is, it compares the pixel values that correspond to the same position in real space. Then, it determines that pixels whose pixel values match are common parts, and determines that pixels whose pixel values do not match are differences. In this way, an image in which the pixels determined to be differences are displayed so that they can be distinguished from the other pixels is the difference image.

差分画像を生成するために用いる二画像の組み合わせは特に限定されないが、影などの短期変化物の状態が互いに異なる画像の組み合わせであることが好ましい。たとえば、差分画像生成部140は各画像に関連付けられた撮影日時に基づき太陽の向きを導出し、太陽の向きが所定の角度以上離れている二画像を用いて差分画像を生成することが好ましい。 The combination of two images used to generate a difference image is not particularly limited, but it is preferable to use a combination of images in which the states of short-term changes such as shadows are different from each other. For example, it is preferable for the difference image generating unit 140 to derive the direction of the sun based on the shooting date and time associated with each image, and generate a difference image using two images in which the directions of the sun are apart by a predetermined angle or more.

エッジ画像の位置を対応付ける方法としては、たとえばGPS情報等により画像に撮影された位置と方位が関連付けられている場合、その位置と方位を用いる方法が挙げられる。また、画像に関連付けられた情報に加えて、両画像内の基準物を利用してマッチングさせることも可能である。さらに、両画像内に適当な基準物が存在しない場合には、連続して撮影された画像を含めて広範囲で基準物を探索し。発見した基準物からの相対的な位置関係を求めて対象の画像の位置を推定し、位置合わせの精度を上げることが考えられる。差分画像にはさらに、その差分画像の元となる画像の位置情報に基づいた位置情報を関連付けることができる。 One method for matching the positions of edge images is to use the position and orientation when the position and orientation at which the image was taken are associated with each other using GPS information or the like. It is also possible to match the images using reference objects in both images in addition to the information associated with the images. Furthermore, if there is no suitable reference object in both images, it is possible to search for the reference object over a wide range, including images taken in succession, and estimate the position of the target image by determining the relative positional relationship from the reference object found, thereby improving the accuracy of alignment. The difference image can also be associated with location information based on the location information of the image that is the basis of the difference image.

次いで、抽出部160はS301において、複数の差分画像の共通成分を抽出する。抽出部160はこの共通成分を示す画像を生成することができる。具体的には、抽出部160はS202でエッジ画像の位置を対応付けたのと同様にして複数の差分画像の位置を対応付ける。そして、位置が対応付けられた複数の差分画像で、対応する位置の画素の値を比較する。そして、画素の値がすべて一致する画素を共通部分と判定する。または、全ての差分画像のうち、画素の値が一致する割合が所定の閾値以上である画素を共通部分と判定する。こうして、共通部分と判定された画素をそれ以外の画素と識別可能に示された画像が第1共通成分を示す画像である。 Next, in S301, the extraction unit 160 extracts a common component from the multiple difference images. The extraction unit 160 can generate an image that shows this common component. Specifically, the extraction unit 160 matches the positions of the multiple difference images in the same way as it matched the positions of the edge images in S202. Then, it compares pixel values at corresponding positions in the multiple difference images whose positions are matched. It then determines that pixels whose pixel values all match are a common part. Alternatively, it determines that pixels whose pixel values match at a rate equal to or greater than a predetermined threshold value are a common part among all the difference images. An image in which the pixels determined to be a common part are thus displayed so as to be distinguishable from the other pixels is an image that shows the first common component.

図1の例において、情報処理装置10は、第1共通成分を示す画像を出力する出力部180をさらに備える。出力部180はS401において、抽出部160が生成した第1共通成分を示す画像を表示装置に表示させるためのデータを出力する。なお、抽出の結果、差分画像の共通成分がない場合には、出力部180は、変化部分が無いことを示す情報を出力しても良い。なお、出力部180は、第1共通成分を示す画像中の共通成分を示す画素の数の割合が、所定の割合以下である場合に、変化部分が無いことを示す情報を出力しても良い。 In the example of FIG. 1, the information processing device 10 further includes an output unit 180 that outputs an image showing the first common component. In S401, the output unit 180 outputs data for displaying the image showing the first common component generated by the extraction unit 160 on a display device. Note that, if there is no common component in the difference image as a result of the extraction, the output unit 180 may output information indicating that there is no changed portion. Note that, the output unit 180 may output information indicating that there is no changed portion if the ratio of the number of pixels showing the common component in the image showing the first common component is equal to or less than a predetermined ratio.

なお、抽出部160がS301を行った後、同じ検出対象の位置および時期について、異なる画像を用いて再度検出処理が行われても良い。そして、複数の検出処理の結果の一致度が所定の基準以上である場合に、出力部180がその結果を出力してもよい。そうすることにより、より確かな結果を出力できる。 After the extraction unit 160 performs S301, the detection process may be performed again using a different image for the same position and time of the detection target. Then, if the degree of agreement between the results of the multiple detection processes is equal to or greater than a predetermined standard, the output unit 180 may output the result. By doing so, it is possible to output a more reliable result.

図5は、本実施形態に係る情報処理装置10が行う処理の変形例を示すフローチャートである。本変形例によれば、検出処理に用いる画像を増やすことにより、変化部分の検出精度を高めることができる。本変形例では、所定の数の差分画像を生成する。本変形例は、以下に説明する点を除いて図4の例と同じである。 Figure 5 is a flowchart showing a modified example of the process performed by the information processing device 10 according to this embodiment. According to this modified example, the accuracy of detecting changed parts can be improved by increasing the number of images used in the detection process. In this modified example, a predetermined number of difference images are generated. This modified example is the same as the example in Figure 4, except for the points described below.

本例のS101は図4のS101と同じである。情報処理装置10が検出対象の位置および時期の指定を受け付けると、取得部120はS103において記憶部200から検出対象の位置および時期に該当する画像を選択し、検出処理のために取得する。本例において取得部120は第1の時期に撮影された画像と、第2の時期に撮影された画像を一つずつ取得する。取得部120が取得する二画像の組み合わせは特に限定されないが、影の状態が互いに異なる画像の組み合わせであることが好ましい。たとえば、取得部120は各画像に関連付けられた撮影日時に基づき太陽の向きを導出し、太陽の向きが所定の角度以上離れている二画像を取得することが好ましい。 S101 in this example is the same as S101 in FIG. 4. When the information processing device 10 accepts the designation of the position and time of the detection target, the acquisition unit 120 selects an image corresponding to the position and time of the detection target from the storage unit 200 in S103 and acquires it for detection processing. In this example, the acquisition unit 120 acquires one image taken in a first time period and one image taken in a second time period. The combination of two images acquired by the acquisition unit 120 is not particularly limited, but it is preferable that the combination be images with different shadow conditions. For example, it is preferable that the acquisition unit 120 derives the direction of the sun based on the shooting date and time associated with each image, and acquires two images in which the directions of the sun are apart by more than a predetermined angle.

取得部120が画像を取得すると、差分画像生成部140はS201においてエッジ検出を行う。本例のS201は図4のS201と同じである。 When the acquisition unit 120 acquires an image, the difference image generation unit 140 performs edge detection in S201. S201 in this example is the same as S201 in FIG. 4.

次いで差分画像生成部140はS203において、差分画像を生成する。差分画像は、第1の時期に撮影された画像と、第2の時期に撮影された画像との差分を示す画像である。差分画像を生成する方法は、図4のS202について説明した方法と同じである。 Then, in S203, the difference image generating unit 140 generates a difference image. The difference image is an image that shows the difference between the image captured at the first time point and the image captured at the second time point. The method for generating the difference image is the same as the method described for S202 in FIG. 4.

次いで、差分画像生成部140はS204において、それまでに生成した差分画像の数が、所定の数に達したか否かを判定する。差分画像の数が、所定の数に達していない場合(S204のN)、S103の処理に戻り、取得部120は再度画像を取得する。差分画像の数が、所定の数に達した場合(S204のY)、差分画像生成部140は、生成した差分画像を全て抽出部160へ出力する。 Next, in S204, the difference image generation unit 140 determines whether the number of difference images generated up to that point has reached a predetermined number. If the number of difference images has not reached the predetermined number (N in S204), the process returns to S103, and the acquisition unit 120 acquires images again. If the number of difference images has reached the predetermined number (Y in S204), the difference image generation unit 140 outputs all of the generated difference images to the extraction unit 160.

次いで、抽出部160はS301において、差分画像生成部140から取得した複数の差分画像の共通成分を抽出する。共通部分を抽出する方法は図4のS301と同じである。また、出力部180はS401において、抽出部160が生成した第1共通成分を示す画像を表示装置に表示させるためのデータを出力する。 Next, in S301, the extraction unit 160 extracts common components of the multiple difference images obtained from the difference image generation unit 140. The method for extracting the common parts is the same as in S301 of FIG. 4. In addition, in S401, the output unit 180 outputs data for displaying an image showing the first common component generated by the extraction unit 160 on a display device.

なお、抽出部160が三以上の差分画像を用いて共通成分を抽出する場合、同一の画像が二以上の差分画像の生成に用いられても良い。ただし、第2の実施形態で説明するように、短期変化物が含まれない画像でない限り、全ての差分画像の生成に同一の画像を用いることはできない。 When the extraction unit 160 extracts common components using three or more difference images, the same image may be used to generate two or more difference images. However, as described in the second embodiment, the same image cannot be used to generate all the difference images unless the image does not contain short-term changes.

情報処理装置10のハードウエア構成について以下に説明する。情報処理装置10の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置10の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。 The hardware configuration of the information processing device 10 is described below. Each functional component of the information processing device 10 may be realized by hardware that realizes each functional component (e.g., a hardwired electronic circuit, etc.), or may be realized by a combination of hardware and software (e.g., a combination of an electronic circuit and a program that controls it, etc.). Below, further explanation is given of the case where each functional component of the information processing device 10 is realized by a combination of hardware and software.

図6は、情報処理装置10を実現するための計算機1000を例示する図である。計算機1000は任意の計算機である。例えば計算機1000は、SoC(System On Chip)、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、情報処理装置10を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。 FIG. 6 is a diagram illustrating a computer 1000 for realizing the information processing device 10. The computer 1000 is any computer. For example, the computer 1000 is a SoC (System On Chip), a Personal Computer (PC), a server machine, a tablet terminal, or a smartphone. The computer 1000 may be a dedicated computer designed to realize the information processing device 10, or may be a general-purpose computer.

計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は FPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。 The computer 1000 has a bus 1020, a processor 1040, a memory 1060, a storage device 1080, an input/output interface 1100, and a network interface 1120. The bus 1020 is a data transmission path for the processor 1040, the memory 1060, the storage device 1080, the input/output interface 1100, and the network interface 1120 to transmit and receive data to and from each other. However, the method of connecting the processor 1040 and the like to each other is not limited to bus connection. The processor 1040 is various processors such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or an FPGA (Field-Programmable Gate Array). The memory 1060 is a main storage device realized using a RAM (Random Access Memory) or the like. The storage device 1080 is an auxiliary storage device realized using a hard disk, an SSD (Solid State Drive), a memory card, or a ROM (Read Only Memory), or the like.

入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース1100には、キーボードなどの入力装置や、ディスプレイ装置などの出力装置が接続される。 The input/output interface 1100 is an interface for connecting the computer 1000 to an input/output device. For example, an input device such as a keyboard and an output device such as a display device are connected to the input/output interface 1100.

ネットワークインタフェース1120は、計算機1000をネットワークに接続するためのインタフェースである。この通信網は、例えば LAN(Local Area Network)や WAN(Wide Area Network)である。ネットワークインタフェース1120がネットワークに接続する方法は、無線接続であってもよいし、有線接続であってもよい。 The network interface 1120 is an interface for connecting the computer 1000 to a network. This communication network is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network). The method for connecting the network interface 1120 to the network may be a wireless connection or a wired connection.

ストレージデバイス1080は、情報処理装置10の各機能構成部を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。 The storage device 1080 stores program modules that realize each functional component of the information processing device 10. The processor 1040 reads each of these program modules into the memory 1060 and executes them to realize the function corresponding to each program module.

以上、本実施形態によれば、差分画像生成部140は、第1画像と第3画像との差分を示す第1差分画像、および、第2画像と第4画像との差分を示す第2差分画像を生成する。抽出部160は、第1差分画像と第2差分画像との共通成分を第1共通成分として抽出する。したがって、容易に精度良く画像の変化検出を行うことができる。 As described above, according to this embodiment, the difference image generating unit 140 generates a first difference image showing the difference between the first image and the third image, and a second difference image showing the difference between the second image and the fourth image. The extracting unit 160 extracts the common component between the first difference image and the second difference image as the first common component. Therefore, it is possible to easily and accurately detect changes in the image.

(第2の実施形態)
図7および図8は、第2の実施形態に係る情報処理装置10が行う処理を説明するための図である。本実施形態に係る情報処理装置10は、以下に説明する点を除いて第1の実施形態に係る情報処理装置10と同じである。
Second Embodiment
7 and 8 are diagrams for explaining the processing performed by the information processing device 10 according to the second embodiment. The information processing device 10 according to this embodiment is the same as the information processing device 10 according to the first embodiment, except for the points described below.

本実施形態において、第1画像、第2画像、第3画像、および第4画像はいずれも道路を含む画像である。そして第1画像と第2画像とは、道路上に短期変化物が写っていない同一の画像である、または、第3画像と第4画像とは、道路上に短期変化物が写っていない同一の画像である。 In this embodiment, the first image, the second image, the third image, and the fourth image are all images that include a road. The first image and the second image are the same image that does not show any short-term changes on the road, or the third image and the fourth image are the same image that does not show any short-term changes on the road.

影等の短期変化物が含まれない画像を用いる場合、検出処理に用いる画像の数を減らすことができる。図7の例において、画像A4が第1画像および第2画像に相当し、画像B4が第3画像に相当し、画像B5が第4画像に相当する。すなわち、第1画像と第2画像とは同一の画像である。第1の日時と第2の日時は同じである。画像A4には道路31と白線30が含まれているが、影32は含まれていない。画像B4と画像B5には、道路31、白線30に加え、影32が含まれている。差分画像C4は画像A4と画像B4との差分を示している。差分画像C5は画像A4と画像B5との差分を示している。そして、共通成分画像D2は、差分画像C4と差分画像C5との共通成分を示す画像である。このような第1画像、第2画像、第3画像、および第4画像を用いても、第1の実施形態と同様に変化部分の検出を行える。 When images that do not include short-term changes such as shadows are used, the number of images used in the detection process can be reduced. In the example of FIG. 7, image A4 corresponds to the first and second images, image B4 corresponds to the third image, and image B5 corresponds to the fourth image. That is, the first and second images are the same image. The first date and time are the same as the second date and time. Image A4 includes the road 31 and the white line 30, but does not include the shadow 32. Images B4 and B5 include the road 31, the white line 30, and the shadow 32. Difference image C4 shows the difference between image A4 and image B4. Difference image C5 shows the difference between image A4 and image B5. And common component image D2 is an image showing the common component between difference image C4 and difference image C5. Even if such first image, second image, third image, and fourth image are used, the change part can be detected in the same manner as in the first embodiment.

また図8の例において、画像A6が第1画像に相当し、画像A7が第2画像に相当し、画像B6が第3画像および第4画像に相当する。すなわち、第3画像と第4画像とは同一の画像である。第3の日時と第4の日時は同じである。画像B6には道路31と白線30が含まれているが、影32は含まれていない。画像A6と画像A7には、道路31、白線30に加え、影32が含まれている。差分画像C6は画像A6と画像B6との差分を示している。差分画像C7は画像A7と画像B6との差分を示している。そして、共通成分画像D3は、差分画像C6と差分画像C7との共通成分を示す画像である。このような第1画像、第2画像、第3画像、および第4画像を用いても、第1の実施形態と同様に変化部分の検出を行える。 In the example of FIG. 8, image A6 corresponds to the first image, image A7 corresponds to the second image, and image B6 corresponds to the third and fourth images. That is, the third and fourth images are the same image. The third date and time are the same as the fourth date and time. Image B6 includes the road 31 and the white line 30, but does not include the shadow 32. Images A6 and A7 include the road 31, the white line 30, and the shadow 32. Difference image C6 shows the difference between image A6 and image B6. Difference image C7 shows the difference between image A7 and image B6. And common component image D3 is an image showing the common component between difference image C6 and difference image C7. Even if such first, second, third, and fourth images are used, the change portion can be detected in the same manner as in the first embodiment.

本実施形態において、記憶部200に保持された各画像には、短期変化物の有無を示す情報が関連付けられている。そして、取得部120は短期変化物が無い画像を選択して取得することができる。取得部120は短期変化物が無い画像を取得した場合、差分画像生成部140はその画像を複数の差分画像の生成に用いることができる。また、差分画像生成部140はその画像を全ての差分画像の生成に用いても良い。 In this embodiment, each image stored in the memory unit 200 is associated with information indicating the presence or absence of short-term changes. The acquisition unit 120 can select and acquire an image that does not have a short-term change. When the acquisition unit 120 acquires an image that does not have a short-term change, the difference image generation unit 140 can use that image to generate multiple difference images. Furthermore, the difference image generation unit 140 may use that image to generate all difference images.

短期変化物が無い画像の例としては、太陽が出ていない時刻や曇天で撮影された画像が挙げられる。記憶部200に保持させる画像には、各画像を予め確認して短期変化物の有無を示す情報を付すことができる。また、各画像には撮影された日時に基づいて短期変化物の有無を示す情報が付されてもよい。 Examples of images without short-term changes include images taken when the sun is not out or on a cloudy day. Images stored in the memory unit 200 can be checked in advance and have information added to them indicating the presence or absence of short-term changes. Each image may also be added with information indicating the presence or absence of short-term changes based on the date and time it was taken.

以上、本実施形態によれば、第1の実施形態と同様の作用および効果が得られる。くわえて、第1画像と第2画像とは、道路上に短期変化物が写っていない同一の画像である、または、第3画像と第4画像とは、道路上に短期変化物が写っていない同一の画像である。したがって、より少ない画像を用いて変化部分の検出を行える。 As described above, according to this embodiment, the same actions and effects as those of the first embodiment can be obtained. In addition, the first image and the second image are the same image that does not show any short-term changes on the road, or the third image and the fourth image are the same image that does not show any short-term changes on the road. Therefore, it is possible to detect the changed portion using fewer images.

(第3の実施形態)
図9は、第3の実施形態に係る情報処理装置10の機能構成を例示するブロック図である。本実施形態に係る情報処理装置10は、以下に説明する点を除いて第1および第2の実施形態の少なくともいずれかに係る情報処理装置10と同じである。
Third Embodiment
9 is a block diagram illustrating a functional configuration of an information processing device 10 according to a third embodiment. The information processing device 10 according to this embodiment is the same as the information processing device 10 according to at least one of the first and second embodiments, except for the points described below.

本実施形態に係る情報処理装置10は、検出処理を開始させるか否かを判定する判定部110をさらに備える。そして、判定部110が検出処理を開始させると判定した場合に、検出処理が開始される。検出処理は、上述したとおり、取得部120が取得した画像を用いて変化部分を検出する一連の処理であり、具体的には取得部120が第1画像、第2画像、第3画像、および第4画像を取得し、差分画像生成部140が第1差分画像と第2差分画像とを生成し、抽出部160が第1共通成分を抽出する処理である。検出処理は、取得ステップS10、差分画像生成ステップS20、および抽出ステップS30を含む。以下に詳しく説明する。 The information processing device 10 according to this embodiment further includes a determination unit 110 that determines whether or not to start the detection process. When the determination unit 110 determines to start the detection process, the detection process is started. As described above, the detection process is a series of processes for detecting a change portion using the images acquired by the acquisition unit 120. Specifically, the acquisition unit 120 acquires a first image, a second image, a third image, and a fourth image, the difference image generation unit 140 generates a first difference image and a second difference image, and the extraction unit 160 extracts the first common component. The detection process includes an acquisition step S10, a difference image generation step S20, and an extraction step S30. This will be described in detail below.

判定部110は、検出処理を行うタイミングを決定する。特に、判定部110は対象に変化が生じている可能性が比較的高いタイミングで検出処理が行われるよう、検出処理を開始させるか否かの判定を行う。以下に、判定部110が行う判定方法の第1例から第4例について説明する。なお、判定部110が行う判定方法は以下に限定されない。また、情報処理装置10は複数の判定方法を組み合わせて実行しても良い。 The determination unit 110 determines the timing for performing the detection process. In particular, the determination unit 110 determines whether or not to start the detection process so that the detection process is performed at a timing when there is a relatively high possibility that a change has occurred in the target. Below, first to fourth examples of the determination method performed by the determination unit 110 are described. Note that the determination method performed by the determination unit 110 is not limited to the following. Also, the information processing device 10 may execute a combination of multiple determination methods.

<第1例>
第1例において、判定部110は、予め定められた期間が経過する毎に、検出処理を開始させると判定する。判定部110は、直近で検出処理が行われた日時を記憶している。そして、判定部110は、所定の時間ごと(たとえば一日ごと)に、直近で検出処理が行われてからの経過時間を算出する。そして、判定部110は、算出した経過時間が予め定められた期間より長い場合、検出処理を開始させると判定する。一方、算出した経過時間が予め定められた期間より短い場合、検出処理を開始させないと判定する。判定部110は判定を位置ごとに行うことができる。検出処理を開始させると判定された場合、その位置を検出対象の位置として指定する。また、直近の検出処理のタイミングを含む所定の期間を第1の時期とし、算出した経過時間が予め定められた期間より長くなったタイミングを終点とする所定の期間を第2の時期とすることが好ましい。本例によれば、定期的に検出処理を行うことができる。
<First Example>
In the first example, the determination unit 110 determines that the detection process is to be started each time a predetermined period has elapsed. The determination unit 110 stores the date and time when the detection process was most recently performed. Then, the determination unit 110 calculates the elapsed time since the detection process was most recently performed every predetermined time (for example, every day). Then, if the calculated elapsed time is longer than the predetermined period, the determination unit 110 determines that the detection process is to be started. On the other hand, if the calculated elapsed time is shorter than the predetermined period, the determination unit 110 determines that the detection process is not to be started. The determination unit 110 can make a determination for each position. If it is determined that the detection process is to be started, the position is designated as the position of the detection target. In addition, it is preferable that a predetermined period including the timing of the most recent detection process is set as the first period, and a predetermined period ending at the timing when the calculated elapsed time becomes longer than the predetermined period is set as the second period. According to this example, the detection process can be performed periodically.

<第2例>
第2例において、第1画像、第2画像、第3画像、および第4画像はいずれも道路を含む画像である。判定部110は、道路に関する情報を取得する。そして判定部110は道路に関する情報に基づいて、予め定められた事象が発生したと判定した場合に、検出処理を開始させると判定する。
<Second Example>
In the second example, the first image, the second image, the third image, and the fourth image are all images including a road. The determination unit 110 acquires information about the road. Then, when the determination unit 110 determines that a predetermined event has occurred based on the information about the road, the determination unit 110 determines to start the detection process.

道路に関する情報はたとえば、道路の管理会社が提供する道路工事情報である。取得部120は、道路に関する情報をたとえば道路情報を提供するサービスのサーバ50から取得することができる。予め定められた事象は、対象に変化を生じさせる可能性が高い事象であり、たとえば道路工事である。道路工事では道路の白線等に変化が生じる可能性が高いことから、道路工事の前後で変化が生じていないかどうか確かめるよう、検出処理が行われるのが好ましい。 The information relating to the road is, for example, road construction information provided by a road management company. The acquisition unit 120 can acquire the information relating to the road, for example, from a server 50 of a service that provides road information. The predetermined event is an event that is highly likely to cause a change in the target, for example, road construction. Since road construction is highly likely to cause changes in the white lines on the road, it is preferable to perform a detection process to check whether any changes have occurred before and after the road construction.

道路に関する情報には、事象が生じる日時または期間と、事象が生じる位置が含まれる。情報処理装置10は、検出対象の位置および時期を道路に関する情報に基づいて定めることができる。たとえば取得部120は、事象の発生前に撮影された第1画像および第2画像と、事象の発生後に撮影された第3画像および第4画像とを取得する。すなわち、事象の発生前に第1の時期を指定し、事象の発生後に第2の時期を指定する。また、検出対象の位置として、事象が発生した位置を指定する。 The information about the road includes the date and time or period when the event occurs, and the location where the event occurs. The information processing device 10 can determine the location and time of the detection target based on the information about the road. For example, the acquisition unit 120 acquires a first image and a second image taken before the event occurs, and a third image and a fourth image taken after the event occurs. That is, the first time is specified before the event occurs, and the second time is specified after the event occurs. In addition, the location where the event occurs is specified as the location of the detection target.

本例において判定部110は、所定の時間ごと(たとえば一日ごと)に、道路に関する情報を取得する。そして、直近の検出処理の後に予め定められた事象が発生したか否かを確認する。判定部110は、予め定められた事象が発生した場合、検出処理を開始させると判定する。一方、予め定められた事象が発生していない場合、検出処理を開始させないと判定する。本例によれば、対象に変化を生じさせる可能性が高い事象が発生したことを検知して検出処理を行うことができる。 In this example, the determination unit 110 acquires information about roads at predetermined time intervals (for example, once a day). Then, it checks whether a predetermined event has occurred after the most recent detection process. If a predetermined event has occurred, the determination unit 110 determines that the detection process should be started. On the other hand, if a predetermined event has not occurred, it determines that the detection process should not be started. According to this example, it is possible to detect the occurrence of an event that is likely to cause a change in the target and perform the detection process.

<第3例>
第3例において、第1画像、第2画像、第3画像、および第4画像はいずれも道路を含む画像である。判定部110は、道路の交通量に関する情報を取得し、交通量に関する情報に基づいて、検出処理を開始させるタイミングを決定する。
<Third Example>
In the third example, the first image, the second image, the third image, and the fourth image are all images including a road. The determination unit 110 obtains information about the traffic volume of the road, and determines the timing to start the detection process based on the information about the traffic volume.

本例において判定部110は、交通量に関する情報をたとえば交通情報を提供するサービスのサーバ50から取得する。交通量に関する情報はたとえば、道路上の各位置における時刻ごとの交通量を示す情報である。判定部110は交通量に関する情報を用いて、道路上の各位置における交通量の積算値を算出する。なお、積算値は直近の検出処理の後の積算値でよい。そして判定部110は、算出した積算値が予め定められた値を超えたか否かを判定する。判定部110は、積算値が予め定められた値を超えた場合、検出処理を開始させると判定する。一方、積算値が予め定められた値を超えなかった場合、検出処理を開始させないと判定する。判定部110は判定を位置ごとに行える。そして、検出処理を開始させると判定された場合、その位置を検出対象の位置として指定する。また、直近の検出処理のタイミングを含む所定の期間を第1の時期とし、積算値が予め定められた値を超えたタイミングを終点とする所定の期間を第2の時期とすることが好ましい。 In this example, the determination unit 110 obtains information about traffic volume from, for example, a server 50 of a service that provides traffic information. The information about traffic volume is, for example, information indicating traffic volume at each position on the road at each time. The determination unit 110 uses the information about traffic volume to calculate an integrated value of traffic volume at each position on the road. The integrated value may be an integrated value after the most recent detection process. The determination unit 110 then determines whether the calculated integrated value has exceeded a predetermined value. If the integrated value has exceeded the predetermined value, the determination unit 110 determines that the detection process should be started. On the other hand, if the integrated value has not exceeded the predetermined value, the determination unit 110 determines that the detection process should not be started. The determination unit 110 can make a determination for each position. Then, if it is determined that the detection process should be started, the position is designated as the position to be detected. In addition, it is preferable that a predetermined period including the timing of the most recent detection process is set as the first period, and a predetermined period ending at the timing when the integrated value has exceeded the predetermined value is set as the second period.

交通量が多いほど、道路上のペイントの剥がれが生じる可能性が高い。したがって、交通量に基づいて検出処理のタイミングを決定することで、的確に変化を検出できる。 The greater the traffic volume, the greater the likelihood that paint on the road will peel off. Therefore, by determining the timing of the detection process based on traffic volume, changes can be detected accurately.

<第4例>
第4例において、第1画像、第2画像、第3画像、および第4画像はいずれも道路を含む画像である。判定部110は、道路の交通流に関する情報を取得し、交通流に関する情報に基づいて、検出処理を開始させるタイミングを決定する。
<Fourth Example>
In the fourth example, the first image, the second image, the third image, and the fourth image are all images including a road. The determination unit 110 obtains information about a traffic flow on the road, and determines the timing to start the detection process based on the information about the traffic flow.

本例において判定部110は、交通流に関する情報をたとえば交通情報を提供するサービスのサーバ50から取得する。交通流に関する情報はたとえば、道路上の各分岐点(三叉路、交差点、五叉路等)における時刻ごとの交通の流れの状態を示す情報である。交通流に関する情報は、所定の時間内で分岐点を通過した車両の、進行方向(直進、右折等)ごとの数または割合を示す情報であり得る。たとえば右折車両があった交差点で、ある時期から直線車両のみとなったような場合、交通規制が変更された、すなわち、路面上のマークが変わったという可能性がある。また交通流に関する情報は、道路上の車列の流れの状態を示す情報であり得る。たとえば、ある時点の前後で車列の数が変わった場合、車線の数が変更された、すなわち、路面上のマークが変わったという可能性がある。 In this example, the determination unit 110 obtains information about traffic flow from, for example, a server 50 of a service that provides traffic information. The information about traffic flow is, for example, information indicating the state of traffic flow at each branch point (three-way intersection, intersection, five-way intersection, etc.) on the road at each time. The information about traffic flow can be information indicating the number or percentage of vehicles that pass a branch point within a specified time for each traveling direction (straight ahead, right turn, etc.). For example, if an intersection where right-turning vehicles once existed becomes a place where only straight-line vehicles can pass at a certain time, it is possible that the traffic regulations have changed, that is, the markings on the road surface have changed. The information about traffic flow can also be information indicating the state of the flow of vehicles on the road. For example, if the number of vehicles in a vehicle line changes before and after a certain point in time, it is possible that the number of lanes has changed, that is, the markings on the road surface have changed.

判定部110は交通流に関する情報を所定の間隔でモニタし、交通流の変化を検出する。具体的には判定部110は、直近の検出処理が行われたときの交通流に関する情報と最新の交通流に関する情報とを比較する。そして、判定部110は、直近の検出処理が行われたときの交通流に関する情報と最新の交通流に関する情報との差が予め定められた基準値より大きい場合に、検出処理を開始させると判定する。一方、差が予め定められた基準値より大きくない場合に、検出処理を開始させないと判定する。または判定部110は、直近の検出処理が行われたときの交通流に関する情報と最新の交通流に関する情報との類似度を算出し、算出された類似度が予め定められた基準値より小さい場合に、検出処理を開始させると判定する。一方、類似度が予め定められた基準値より小さくない場合に、検出処理を開始させないと判定する。 The determination unit 110 monitors information about traffic flow at a predetermined interval and detects changes in traffic flow. Specifically, the determination unit 110 compares information about traffic flow when the most recent detection process was performed with information about the latest traffic flow. The determination unit 110 then determines to start the detection process when the difference between the information about traffic flow when the most recent detection process was performed and the information about the latest traffic flow is greater than a predetermined reference value. On the other hand, if the difference is not greater than the predetermined reference value, the determination unit 110 determines not to start the detection process. Alternatively, the determination unit 110 calculates the similarity between the information about traffic flow when the most recent detection process was performed and the information about the latest traffic flow, and determines to start the detection process when the calculated similarity is smaller than a predetermined reference value. On the other hand, if the similarity is not smaller than the predetermined reference value, the determination unit 110 determines not to start the detection process.

判定部110はより具体的に、交通流に関する情報に基づく各分岐点での直進車両の割合を比較しても良い。この場合判定部110は、直近の検出処理が行われたときの直進車両の割合と最新の直進車両の割合との差が予め定められた基準値より大きい場合に、検出処理を開始させると判定する。一方、この差が予め定められた基準値より大きくない場合に、検出処理を開始させないと判定する。また、判定部110は、交通流に関する情報を用いて道路上の各位置での車線の数を検出して比較しても良い。この場合判定部110は、直近の検出処理が行われたときの車線の数と最新の車線の数とが異なる場合に、検出処理を開始させると判定する。一方、これらの数が同じである場合に、検出処理を開始させないと判定する。 More specifically, the determination unit 110 may compare the proportion of straight-moving vehicles at each branch point based on information about traffic flow. In this case, the determination unit 110 determines to start the detection process if the difference between the proportion of straight-moving vehicles when the most recent detection process was performed and the latest proportion of straight-moving vehicles is greater than a predetermined reference value. On the other hand, if this difference is not greater than the predetermined reference value, the determination unit 110 determines not to start the detection process. The determination unit 110 may also detect and compare the number of lanes at each position on the road using information about traffic flow. In this case, the determination unit 110 determines to start the detection process if the number of lanes when the most recent detection process was performed is different from the latest number of lanes. On the other hand, if these numbers are the same, the determination unit 110 determines not to start the detection process.

判定部110は判定を位置または分岐点ごとに行える。そして、検出処理を開始させると判定された場合、その位置または分岐点を検出対象の位置として指定する。また、直近の検出処理のタイミングを含む所定の期間を第1の時期とし、その判定に用いられた最新の交通流に関する情報が得られたタイミングを終点とする所定の期間を、第2の時期とすることが好ましい。 The determination unit 110 can perform the determination for each position or branch point. Then, when it is determined that the detection process should be started, the position or branch point is designated as the position to be detected. In addition, it is preferable to set a predetermined period including the timing of the most recent detection process as the first time period, and set a predetermined period ending at the timing when the latest traffic flow information used in the determination was obtained as the second time period.

本実施形態に係る情報処理装置10を実現する計算機のハードウエア構成は、第1の実施形態と同様に、例えば図6によって表される。ただし、本実施形態の情報処理装置10を実現する計算機1000のストレージデバイス1080には、本実施形態の判定部110の機能を実現するプログラムモジュールがさらに記憶される。 The hardware configuration of the computer that realizes the information processing device 10 according to this embodiment is shown, for example, in FIG. 6, similar to the first embodiment. However, the storage device 1080 of the computer 1000 that realizes the information processing device 10 according to this embodiment further stores a program module that realizes the functions of the determination unit 110 according to this embodiment.

図10は、本実施形態に係る情報処理装置10が行う情報処理方法の流れを例示するフローチャートである。本実施形態に係る情報処理方法は、検出処理を開始させるか否かを判定する判定ステップS40をさらに含む。そして、判定ステップS40で検出処理を開始させると判定された場合(S40のY)に、検出処理が開始される。一方、判定ステップS40で検出処理を開始させると判定されなかった場合(S40のN)、検出処理は開始されない。 Figure 10 is a flowchart illustrating the flow of an information processing method performed by the information processing device 10 according to this embodiment. The information processing method according to this embodiment further includes a judgment step S40 in which it is judged whether or not to start the detection process. Then, if it is judged in judgment step S40 that the detection process is to be started (Y in S40), the detection process is started. On the other hand, if it is not judged in judgment step S40 that the detection process is to be started (N in S40), the detection process is not started.

以上、本実施形態によれば、第1の実施形態と同様の作用および効果が得られる。くわえて、本実施形態によれば、判定部110が検出処理を開始させると判定した場合に、検出処理が開始される。したがって、適切なタイミングで検出処理を行える。 As described above, according to this embodiment, the same actions and effects as those of the first embodiment can be obtained. In addition, according to this embodiment, when the determination unit 110 determines that the detection process should be started, the detection process is started. Therefore, the detection process can be performed at an appropriate timing.

(第4の実施形態)
図11は、第4の実施形態に係る情報処理装置10が行う処理を説明するための図である。本実施形態に係る情報処理装置10は、以下に説明する点を除いて第3の実施形態に係る情報処理装置10と同じである。
Fourth Embodiment
11 is a diagram for explaining the process performed by the information processing device 10 according to the fourth embodiment. The information processing device 10 according to this embodiment is the same as the information processing device 10 according to the third embodiment except for the points described below.

本実施形態に係る情報処理装置10において判定部110は、撮影日時が互いに異なる三つ以上の画像を取得し、三つ以上の画像のうち時間的に連続する各二画像の共通成分を第2共通成分としてそれぞれ抽出する。判定部110は、抽出した複数の第2共通成分を時系列に比較することにより、判定部110が取得した画像中の対象の変化の有無を検出する。そして判定部110は、判定部110が取得した画像中の対象に変化が検出された場合に、検出処理を開始させると判定する。以下に詳しく説明する。 In the information processing device 10 according to this embodiment, the determination unit 110 acquires three or more images with different shooting dates and times, and extracts a common component between two temporally consecutive images among the three or more images as a second common component. The determination unit 110 detects whether or not there is a change in the object in the image acquired by the determination unit 110 by comparing the extracted second common components in chronological order. Then, when the determination unit 110 detects a change in the object in the image acquired by the determination unit 110, it determines that a detection process should be started. This is explained in detail below.

本実施形態によれば、判定部110は、複数の画像に基づいて対象に変化が生じたか否かを判定する。そして、変化が生じた場合に情報処理装置10は検出処理を行い、具体的な変化部分を抽出できる。 According to this embodiment, the determination unit 110 determines whether a change has occurred in the target based on multiple images. Then, if a change has occurred, the information processing device 10 performs a detection process and can extract the specific changed part.

図11の例において判定部110は、撮影日時が互いに異なる画像E1~E6を取得する。画像E1~E6のそれぞれには、道路31、白線30および影32が含まれる。本例において対象は白線30である。画像E1~E6はこの順に撮影された画像である。画像E1~E6はたとえば互いに異なる日に撮影された画像であり得るが、画像の撮影間隔は特に限定されない。判定部110は、画像E1~E6のうち時間的に連続する各二画像の共通成分を第2共通成分としてそれぞれ抽出する。画像F1~F5はそれぞれ第2共通成分を示す画像である。すなわち、判定部110は、画像E1と画像E2の共通成分を示す画像F1、画像E2と画像E3の共通成分を示す画像F2、画像E3と画像E4の共通成分を示す画像F3、画像E4と画像E5の共通成分を示す画像F4、および画像E5と画像E6の共通成分を示す画像F5を生成する。 In the example of FIG. 11, the determination unit 110 acquires images E1 to E6 that are taken at different dates and times. Each of the images E1 to E6 includes a road 31, a white line 30, and a shadow 32. In this example, the target is the white line 30. Images E1 to E6 are taken in this order. Images E1 to E6 may be taken on different days, for example, but the interval between images is not particularly limited. The determination unit 110 extracts the common component of each of two temporally consecutive images from images E1 to E6 as the second common component. Images F1 to F5 are images that show the second common component. That is, the determination unit 110 generates image F1 showing the common component between images E1 and E2, image F2 showing the common component between images E2 and E3, image F3 showing the common component between images E3 and E4, image F4 showing the common component between images E4 and E5, and image F5 showing the common component between images E5 and E6.

次いで、判定部110は、画像F1~F5を時系列に比較することにより、画像E1~E6中の対象の変化の有無を検出する。本例では、画像F1と画像F2との間に違いは無く、画像F2と画像F3との間および画像F3と画像F4との間に違いがある。また、画像F4と画像F5との間に違いは無い。この場合、画像F3の基となった画像E3の撮影タイミングと画像E4の撮影タイミングとの間に変化が生じたと判定できる。この判定部110の判定においても、影等の短期変化物の影響を受けない。 Then, the determination unit 110 detects whether or not there is a change in the object in images E1 to E6 by comparing images F1 to F5 in chronological order. In this example, there is no difference between images F1 and F2, but there is a difference between images F2 and F3 and between images F3 and F4. There is also no difference between images F4 and F5. In this case, it can be determined that a change occurred between the capture timing of image E3, which is the basis of image F3, and the capture timing of image E4. The determination by the determination unit 110 is also not affected by short-term changes such as shadows.

なお、判定部110は最少で三つの画像を用いれば判定が可能である。たとえば画像E1~E3の三画像を用いて同様の処理を行った場合、画像F1と画像F2とに違いが無いことにより、画像E1の撮影タイミングと画像E3の撮影タイミングとの間に変化が生じていないと判定できる。また、画像E2~E4の三画像を用いて同様の処理を行った場合、画像F2と画像F3とに違いがあることにより、画像E2の撮影タイミングと画像E4の撮影タイミングとの間に変化が生じたと判定できる。 The determination unit 110 can make a determination using a minimum of three images. For example, when a similar process is performed using three images, images E1 to E3, it can be determined that no change has occurred between the shooting timing of image E1 and the shooting timing of image E3, since there is no difference between images F1 and F2. Furthermore, when a similar process is performed using three images, images E2 to E4, it can be determined that a change has occurred between the shooting timing of image E2 and the shooting timing of image E4, since there is a difference between images F2 and F3.

画像E1~E4の四画像を用いて同様の処理を行った場合、画像F1と画像F2とに違いがなく、画像F2と画像F3とに違いがあることにより、画像E3の撮影タイミングと画像E4の撮影タイミングとの間に変化が生じたと判定できる。このように、四画像以上を用いた場合に変化タイミングをより細かく把握できる。したがって、判定部110は、三つの画像のみから変化のタイミングを判定するよりも、撮影日時が互いに異なる四つ以上の画像を取得して、変化の有無の検出や変化タイミングの判定を行うことが好ましい。 When the same process is performed using the four images E1 to E4, it can be determined that a change occurred between the capture timing of image E3 and the capture timing of image E4, since there is no difference between image F1 and image F2, but there is a difference between image F2 and image F3. In this way, when four or more images are used, the timing of the change can be grasped in more detail. Therefore, it is preferable for the determination unit 110 to obtain four or more images with different capture dates and times, and detect the presence or absence of a change and determine the timing of the change, rather than determining the timing of the change from only three images.

また、このように判定部110は、判定部110が取得した画像中の対象に変化が検出された場合に、その変化タイミングをさらに特定することができる。したがって取得部120は、変化タイミングの前に撮影された第1画像および第2画像と、変化タイミングの後に撮影された第3画像および第4画像とを取得することが好ましい。すなわち、第1の時期を変化タイミングの前に指定し、第2の時期を変化タイミングの後に指定することが好ましい。また、情報処理装置10は、判定部110が取得して判定に用いた画像の撮影位置を検出対象の位置として指定することが好ましい。 Furthermore, in this manner, when a change is detected in an object in an image acquired by the determination unit 110, the determination unit 110 can further identify the timing of the change. Therefore, it is preferable that the acquisition unit 120 acquires a first image and a second image taken before the timing of the change, and a third image and a fourth image taken after the timing of the change. In other words, it is preferable to specify the first time period before the timing of the change, and the second time period after the timing of the change. Furthermore, it is preferable that the information processing device 10 designates the shooting position of the image acquired by the determination unit 110 and used for the determination as the position of the detection object.

判定部110はたとえば三つ以上の画像を、取得部120を介して記憶部200から取得することができる。判定部110が取得する画像は、第1の実施形態で説明した取得部120が取得する画像と同様である。判定部110は、取得部120が検出処理のために取得する画像と同様の画像を取得して、変化の有無の判定に用いることが好ましい。すなわち、判定部110が取得する画像はいずれもオルソ画像であることが好ましい。また、判定部110が取得する画像は互いに同じ種類の画像であることが好ましい。判定部110が取得する画像は互いに撮影領域が重なっていることが好ましい。判定部110は、対象の長期的変化の有無を検出することができる。なお、対象は予め定めておく必要はない。判定部110が取得する画像には短期変化物がさらに含まれていても良い。判定部110が取得する三つ以上の画像は互いに異なる画像であり、互いに異なる日時に撮影された画像である。 The determination unit 110 can obtain, for example, three or more images from the storage unit 200 via the acquisition unit 120. The images obtained by the determination unit 110 are similar to the images obtained by the acquisition unit 120 described in the first embodiment. It is preferable that the determination unit 110 obtains images similar to the images obtained by the acquisition unit 120 for the detection process and uses them to determine the presence or absence of change. That is, it is preferable that all images obtained by the determination unit 110 are orthoimages. It is also preferable that the images obtained by the determination unit 110 are images of the same type. It is preferable that the images obtained by the determination unit 110 have overlapping shooting areas. The determination unit 110 can detect the presence or absence of long-term changes in the target. Note that the target does not need to be determined in advance. The images obtained by the determination unit 110 may further include short-term changes. The three or more images obtained by the determination unit 110 are different from each other and are images taken at different dates and times.

判定部110は画像を取得すると、取得した各画像に対してエッジ検出処理を行い、エッジ画像を得る。エッジ検出処理についてはS201の説明において上述した通りである。なお、判定部110は、取得した画像に対し、必要に応じて補正処理等を行っても良い。 When the determination unit 110 acquires images, it performs edge detection processing on each acquired image to obtain an edge image. The edge detection processing is as described above in the explanation of S201. Note that the determination unit 110 may perform correction processing, etc. on the acquired images as necessary.

次いで判定部110は、時間的に連続する二画像から得られた、二つのエッジ画像の位置を、S202の説明において上述したのと同様にして、対応付ける。そして、判定部110は位置が対応付けられた二つのエッジ画像で、対応する位置の画素の値を比較し、画素の値が一致する画素を共通部分と判定する。こうして、共通部分と判定された画素をそれ以外の画素と識別可能に示された画像が第2共通成分を示す画像である。 Then, the determination unit 110 matches the positions of the two edge images obtained from the two temporally consecutive images in the same manner as described above in the explanation of S202. The determination unit 110 then compares the pixel values of the pixels at corresponding positions in the two edge images whose positions have been matched, and determines that pixels whose pixel values match are in a common portion. In this way, an image in which the pixels determined to be in a common portion are displayed so that they can be distinguished from the other pixels is an image that shows the second common component.

判定部110は、取得した画像から第2共通成分を示す画像を複数生成すると、それらを時系列に比較し、変化の有無を検出する。具体的には判定部110は、時間的に連続する二つの第2共通成分を示す画像間の差分を抽出する処理を行い、差分が抽出された場合に、それら二つの画像間に変化があると判定する。一方、差分が抽出されなかった場合に、それら二つの画像間に変化がないと判定する。第2共通成分を示す画像間の差分を抽出する処理は、差分画像生成部140がエッジ画像から差分画像を生成するのと同じ様に行える。なお、判定部110は差分画像中の差分を示す画素の数の割合が、所定の割合以下である場合に、差分が抽出されなかったと判定しても良い。 When the determination unit 110 generates multiple images showing the second common component from the acquired images, it compares them in chronological order to detect the presence or absence of a change. Specifically, the determination unit 110 performs a process to extract the difference between two images showing the second common component that are consecutive in time, and if a difference is extracted, it determines that there is a change between the two images. On the other hand, if no difference is extracted, it determines that there is no change between the two images. The process of extracting the difference between images showing the second common component can be performed in the same way that the difference image generation unit 140 generates a difference image from an edge image. Note that the determination unit 110 may determine that no difference has been extracted if the proportion of the number of pixels showing a difference in the difference image is equal to or less than a predetermined proportion.

第2共通成分を示すいずれか二つの画像間に変化があると判定された場合、判定部110は少なくとも、判定部110が取得した三つ以上の画像の撮影期間の中に変化タイミングがあると判定できる。判定部110は、判定部110が取得した三つ以上の画像の撮影期間の中に変化タイミングがあると判定すると、検出処理を開始させると判定する。そして、情報処理装置10で検出処理が行われる。 When it is determined that there is a change between any two images that show the second common component, the determination unit 110 can determine that there is a timing of the change at least within the shooting period of the three or more images acquired by the determination unit 110. When the determination unit 110 determines that there is a timing of the change within the shooting period of the three or more images acquired by the determination unit 110, it determines to start the detection process. Then, the detection process is performed by the information processing device 10.

判定部110が四つ以上の画像を取得した場合、すなわち、第2共通成分を示す画像が3つ以上生成された場合、判定部110はさらに変化タイミングを詳しく特定してもよい。複数の第2共通成分を示す画像を比較して、前後のいずれとも異なる画像がある場合、変化タイミングはその画像の基となった二画像の間であると特定できる。また、複数の第2共通成分を示す画像を比較して、時間的に最初または最後画像が他の画像と異なる場合、変化タイミングはその最初または最後の画像の基となった二画像の間であると特定できる。 When the determination unit 110 acquires four or more images, i.e., when three or more images showing the second common component are generated, the determination unit 110 may further specify the timing of the change in detail. When images showing multiple second common components are compared and there is an image that is different from both the previous and next images, it is possible to specify that the timing of the change is between the two images that are the basis of that image. Also, when images showing multiple second common components are compared and the first or last image is different from the other images in terms of time, it is possible to specify that the timing of the change is between the two images that are the basis of that first or last image.

以上、本実施形態によれば、第1の実施形態と同様の作用および効果が得られる。くわえて、本実施形態によれば、判定部110が取得した画像中の対象の変化の有無を検出する。そして判定部110は、判定部110が取得した画像中の対象に変化が検出された場合に、検出処理を開始させると判定する。したがって、適切なタイミングで検出処理を行える。 As described above, according to this embodiment, the same actions and effects as those of the first embodiment can be obtained. In addition, according to this embodiment, the determination unit 110 detects whether or not there is a change in the object in the image acquired. Then, when the determination unit 110 detects a change in the object in the image acquired by the determination unit 110, the determination unit 110 determines that the detection process should be started. Therefore, the detection process can be performed at an appropriate timing.

以上、図面を参照して実施形態及び実施例について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。 The above describes the embodiments and examples with reference to the drawings, but these are merely examples of the present invention, and various configurations other than those described above can also be adopted.

10 情報処理装置
30 白線
31 道路
32 影
50 サーバ
110 判定部
120 取得部
140 差分画像生成部
160 抽出部
180 出力部
200 記憶部
1000 計算機
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージデバイス
1100 入出力インタフェース
1120 ネットワークインタフェース
REFERENCE SIGNS LIST 10 Information processing device 30 White line 31 Road 32 Shadow 50 Server 110 Determination unit 120 Acquisition unit 140 Difference image generation unit 160 Extraction unit 180 Output unit 200 Storage unit 1000 Computer 1020 Bus 1040 Processor 1060 Memory 1080 Storage device 1100 Input/output interface 1120 Network interface

Claims (16)

第1の日時に撮影された第1画像と、第2の日時に撮影された第2画像と、第3の日時に撮影された第3画像と、第4の日時に撮影された第4画像とを取得する取得部と、
前記第1画像と前記第3画像との差分を示す第1差分画像、および、前記第2画像と前記第4画像との差分を示す第2差分画像を生成する差分画像生成部と、
前記第1差分画像と前記第2差分画像との共通成分を第1共通成分として抽出する抽出部とを備え、
前記第3の日時および前記第4の日時はいずれも、前記第1の日時よりも後、かつ前記第2の日時よりも後である
情報処理装置。
an acquisition unit that acquires a first image captured on a first date and time, a second image captured on a second date and time, a third image captured on a third date and time, and a fourth image captured on a fourth date and time;
a difference image generating unit that generates a first difference image indicating a difference between the first image and the third image, and a second difference image indicating a difference between the second image and the fourth image;
an extracting unit that extracts a common component between the first difference image and the second difference image as a first common component,
The information processing device, wherein the third date and time and the fourth date and time are both later than the first date and time and later than the second date and time.
請求項1に記載の情報処理装置において、
前記第1の日時と前記第2の日時との間隔は、前記第1の日時と前記第3の日時の間隔よりも狭い
情報処理装置。
2. The information processing device according to claim 1,
An information processing device, wherein an interval between the first date and time and the second date and time is narrower than an interval between the first date and time and the third date and time.
請求項1または2に記載の情報処理装置において、
前記第3の日時と前記第4の日時の間隔は、前記第1の日時と前記第3の日時の間隔よりも狭い
情報処理装置。
3. The information processing device according to claim 1,
An information processing device in which an interval between the third date and time and the fourth date and time is narrower than an interval between the first date and time and the third date and time.
請求項1~3のいずれか一項に記載の情報処理装置において、
前記第1画像、前記第2画像、前記第3画像、および前記第4画像はいずれもオルソ画像である
情報処理装置。
In the information processing device according to any one of claims 1 to 3,
An information processing device, wherein the first image, the second image, the third image, and the fourth image are all orthoimages.
請求項1~4のいずれか一項に記載の情報処理装置において、
前記第1画像、前記第2画像、前記第3画像、および前記第4画像はいずれも道路を含む画像であり、
前記第1画像と前記第2画像とは、道路上に短期変化物が写っていない同一の画像である、または、前記第3画像と前記第4画像とは道路上に短期変化物が写っていない同一の画像である
情報処理装置。
In the information processing device according to any one of claims 1 to 4,
the first image, the second image, the third image, and the fourth image are all images including a road;
An information processing device, wherein the first image and the second image are the same image that does not show short-term changing objects on the road, or the third image and the fourth image are the same image that does not show short-term changing objects on the road.
請求項5に記載の情報処理装置において、
前記短期変化物は、影、雪、水たまり、土砂、車両、落下物、落ち葉、およびゴミのうち少なくともいずれかである
情報処理装置。
6. The information processing device according to claim 5,
The short-term changing object is at least one of a shadow, snow, a puddle, soil, a vehicle, a fallen object, fallen leaves, and garbage.
請求項1~4のいずれか一項に記載の情報処理装置において、
前記第1の日時と前記第2の日時は互いに異なり、かつ、前記第3の日時と前記第4の日時は互いに異なる
情報処理装置。
In the information processing device according to any one of claims 1 to 4,
The information processing device, wherein the first date and time and the second date and time are different from each other, and the third date and time and the fourth date and time are different from each other.
請求項1~7のいずれか一項に記載の情報処理装置において、
前記第1共通成分を示す画像を出力する出力部をさらに備える
情報処理装置。
In the information processing device according to any one of claims 1 to 7,
The information processing device further includes an output unit that outputs an image indicating the first common component.
請求項1~8のいずれか一項に記載の情報処理装置において、
前記取得部が前記第1画像、前記第2画像、前記第3画像、および前記第4画像を取得し、前記差分画像生成部が前記第1差分画像と前記第2差分画像とを生成し、前記抽出部が前記第1共通成分を抽出する検出処理を、開始させるか否かを判定する判定部をさらに備え、
前記判定部が前記検出処理を開始させると判定した場合に、前記検出処理が開始する
情報処理装置。
In the information processing device according to any one of claims 1 to 8,
a determination unit that determines whether or not to start a detection process in which the acquisition unit acquires the first image, the second image, the third image, and the fourth image, the difference image generation unit generates the first difference image and the second difference image, and the extraction unit extracts the first common component,
The information processing device starts the detection process when the determination unit determines to start the detection process.
請求項9に記載の情報処理装置において、
前記判定部は、予め定められた期間が経過する毎に、前記検出処理を開始させると判定する
情報処理装置。
10. The information processing device according to claim 9,
The information processing device, wherein the determination unit determines to start the detection process every time a predetermined period elapses.
請求項9または10に記載の情報処理装置において、
前記第1画像、前記第2画像、前記第3画像、および前記第4画像はいずれも道路を含む画像であり、
前記判定部は、
道路に関する情報を取得し、
前記道路に関する情報に基づいて、予め定められた事象が発生したと判定した場合に、前記検出処理を開始させると判定し、
前記取得部は、前記事象の発生前に撮影された前記第1画像および前記第2画像と、前記事象の発生後に撮影された前記第3画像および前記第4画像とを取得する
情報処理装置。
11. The information processing device according to claim 9,
the first image, the second image, the third image, and the fourth image are all images including a road;
The determination unit is
Get information about roads,
determining, when it is determined that a predetermined event has occurred based on the information about the road, to start the detection process;
The acquisition unit is an information processing device that acquires the first image and the second image taken before the occurrence of the event, and the third image and the fourth image taken after the occurrence of the event.
請求項9~11のいずれか一項に記載の情報処理装置において、
前記第1画像、前記第2画像、前記第3画像、および前記第4画像はいずれも道路を含む画像であり、
前記判定部は、
道路の交通流に関する情報を取得し、
前記交通流に関する情報に基づいて、前記検出処理を開始させるタイミングを決定する
情報処理装置。
In the information processing device according to any one of claims 9 to 11,
the first image, the second image, the third image, and the fourth image are all images including a road;
The determination unit is
Obtaining information about road traffic flow,
An information processing device that determines the timing to start the detection process based on information about the traffic flow.
請求項9~12のいずれか一項に記載の情報処理装置において、
前記判定部は、
撮影日時が互いに異なる三つ以上の画像を取得し、
前記三つ以上の画像のうち時間的に連続する各二画像の共通成分を第2共通成分としてそれぞれ抽出し、
抽出した複数の前記第2共通成分を時系列に比較することにより、前記判定部が取得した画像中の対象の変化の有無を検出し、
前記判定部が取得した画像中の前記対象に変化が検出された場合に、前記検出処理を開始させると判定する
情報処理装置。
In the information processing device according to any one of claims 9 to 12,
The determination unit is
Obtain three or more images with different shooting dates and times;
extracting a common component of each of two temporally consecutive images from among the three or more images as a second common component;
The determination unit detects whether or not there is a change in the object in the acquired image by comparing the extracted second common components in a time series manner;
The information processing device determines to start the detection process when a change is detected in the object in the image acquired by the determination unit.
請求項13に記載の情報処理装置において、
前記判定部は、前記判定部が取得した画像中の前記対象に変化が検出された場合に、その変化タイミングをさらに特定し、
前記取得部は、前記変化タイミングの前に撮影された前記第1画像および前記第2画像と、前記変化タイミングの後に撮影された前記第3画像および前記第4画像とを取得する
情報処理装置。
14. The information processing device according to claim 13,
When a change is detected in the object in the image acquired by the determination unit, the determination unit further identifies a timing of the change;
The acquisition unit is an information processing device that acquires the first image and the second image captured before the timing of the change, and the third image and the fourth image captured after the timing of the change.
第1の日時に撮影された第1画像と、第2の日時に撮影された第2画像と、第3の日時に撮影された第3画像と、第4の日時に撮影された第4画像とを取得する取得ステップと、
前記第1画像と前記第3画像との差分を示す第1差分画像、および、前記第2画像と前記第4画像との差分を示す第2差分画像を生成する差分画像生成ステップと、
前記第1差分画像と前記第2差分画像との共通成分を第1共通成分として抽出する抽出ステップとを備え、
前記第3の日時および前記第4の日時はいずれも、前記第1の日時よりも後、かつ前記第2の日時よりも後である
情報処理方法。
an acquisition step of acquiring a first image taken at a first date and time, a second image taken at a second date and time, a third image taken at a third date and time, and a fourth image taken at a fourth date and time;
a difference image generating step of generating a first difference image indicating a difference between the first image and the third image, and a second difference image indicating a difference between the second image and the fourth image;
an extraction step of extracting a common component between the first difference image and the second difference image as a first common component,
The information processing method, wherein the third date and time and the fourth date and time are both later than the first date and time and later than the second date and time.
請求項15に記載の情報処理方法の各ステップをコンピュータに実行させるプログラム。 A program for causing a computer to execute each step of the information processing method described in claim 15.
JP2021059608A 2021-03-31 2021-03-31 Information processing device, information processing method, and program Pending JP2024076389A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021059608A JP2024076389A (en) 2021-03-31 2021-03-31 Information processing device, information processing method, and program
PCT/JP2022/009399 WO2022209583A1 (en) 2021-03-31 2022-03-04 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021059608A JP2024076389A (en) 2021-03-31 2021-03-31 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2024076389A true JP2024076389A (en) 2024-06-06

Family

ID=83458552

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021059608A Pending JP2024076389A (en) 2021-03-31 2021-03-31 Information processing device, information processing method, and program

Country Status (2)

Country Link
JP (1) JP2024076389A (en)
WO (1) WO2022209583A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004151980A (en) * 2002-10-30 2004-05-27 Minolta Co Ltd Moving object detection method
JP2010121970A (en) * 2008-11-17 2010-06-03 Chugoku Electric Power Co Inc:The Moving body recognition system and moving body recognition method
JP6918672B2 (en) * 2017-10-11 2021-08-11 株式会社日立システムズ Deterioration diagnosis system
JP7023690B2 (en) * 2017-12-06 2022-02-22 株式会社東芝 Road maintenance system, road maintenance method and computer program

Also Published As

Publication number Publication date
WO2022209583A1 (en) 2022-10-06

Similar Documents

Publication Publication Date Title
US11967109B2 (en) Vehicle localization using cameras
EP3581890A2 (en) Method and device for positioning
US8116530B2 (en) Map change detection device, map change detection method, and program
JP6336117B2 (en) Building height calculation method, apparatus and storage medium
JP5747549B2 (en) Signal detector and program
CN109598794B (en) Construction method of three-dimensional GIS dynamic model
EP2372607A2 (en) Scene matching reference data generation system and position measurement system
EP2372611A2 (en) Scene matching reference data generation system and position measurement system
US9569668B2 (en) Method and device for image-assisted runway localization
CN110969592B (en) Image fusion method, automatic driving control method, device and equipment
US10872246B2 (en) Vehicle lane detection system
WO2021017211A1 (en) Vehicle positioning method and device employing visual sensing, and vehicle-mounted terminal
JP2021516377A (en) Boarding / alighting position identification for ride sharing and delivery through augmented reality
CN109916415B (en) Road type determination method, device, equipment and storage medium
CN107679470A (en) A kind of traffic mark board detection and recognition methods based on HDR technologies
JP2009298344A (en) Apparatus and program for determining lights of vehicle
Janda et al. Road boundary detection for run-off road prevention based on the fusion of video and radar
CN114639085A (en) Traffic signal lamp identification method and device, computer equipment and storage medium
JP2021179839A (en) Classification system of features, classification method and program thereof
CN114898321A (en) Method, device, equipment, medium and system for detecting road travelable area
RU2612571C1 (en) Method and system for recognizing urban facilities
JP2007265292A (en) Road sign database construction device
JP2024076389A (en) Information processing device, information processing method, and program
CN110660113A (en) Method and device for establishing characteristic map, acquisition equipment and storage medium
CN107808160B (en) Three-dimensional building extraction method and device