JP2020086581A - 予測装置、予測方法、およびプログラム - Google Patents

予測装置、予測方法、およびプログラム Download PDF

Info

Publication number
JP2020086581A
JP2020086581A JP2018215602A JP2018215602A JP2020086581A JP 2020086581 A JP2020086581 A JP 2020086581A JP 2018215602 A JP2018215602 A JP 2018215602A JP 2018215602 A JP2018215602 A JP 2018215602A JP 2020086581 A JP2020086581 A JP 2020086581A
Authority
JP
Japan
Prior art keywords
section
image
prediction
information
prediction device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018215602A
Other languages
English (en)
Inventor
敦行 鈴木
Atsuyuki Suzuki
敦行 鈴木
政宣 武田
Masanori Takeda
政宣 武田
康彰 青木
Yasuaki Aoki
康彰 青木
弘和 渡辺
Hirokazu Watanabe
弘和 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2018215602A priority Critical patent/JP2020086581A/ja
Priority to US16/680,542 priority patent/US20200160500A1/en
Priority to CN201911118203.XA priority patent/CN111199306A/zh
Publication of JP2020086581A publication Critical patent/JP2020086581A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06393Score-carding, benchmarking or key performance indicator [KPI] analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/265Personal security, identity or safety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

【課題】将来の治安の状態を適切に推定することができる予測装置、予測方法、およびプログラムを提供すること。【解決手段】町の区画の風景を撮像した画像(151)と、前記区画の価値を表す公表情報(152)とを取得する取得部(110)と、前記取得部により取得された画像と公表情報とに基づいて、前記区画の将来の治安状態を表す治安指標を導出する導出部(120)と、を備える予測装置(100)。【選択図】図2

Description

本発明は、予測装置、予測方法、およびプログラムに関する。
従来、警備領域における異常を検知するように構成され、異常を検知した場合にコントローラに異常検知信号を送信する検知手段と、警備領域を含む対象地域における治安情報を受付け、警報の発報を行うか否かを判断するための判断条件を治安情報に応じて変更するコントローラとを備える警備システムの発明が開示されている(特許文献1参照)この発明において、治安情報は、専ら犯罪情報に基づいて生成される。例えば、対象地域内で所定期間内に発生した侵入強盗事件及び侵入窃盗事件の件数が、治安情報の元情報となることが記載されている。
特開2014−178884号公報
しかしながら、従来の技術では、将来の治安の状態を適切に推定することができない場合があった。
本発明は、このような事情を考慮してなされたものであり、将来の治安の状態を適切に推定することができる予測装置、予測方法、およびプログラムを提供することを目的の一つとする。
この発明に係る予測装置、予測方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る予測装置は、町の区画の風景を撮像した画像と、前記区画の価値を表す公表情報とを取得する取得部と、前記取得部により取得された画像と公表情報とに基づいて、前記区画の将来の治安状態を表す治安指標を導出する導出部と、を備えるものである。
(2):上記(1)の態様において、前記導出部は、前記公表情報の変化率が基準値以上である区画について前記治安指標を導出するものである。
(3):上記(1)または(2)の態様において、前記導出部は、前記画像に含まれる特定物体の状態を評価することにより、前記治安指標を導出するものである。
(4):上記(1)から(3)のうちいずれかの態様において、前記公表情報は、路線価、賃料、犯罪発生に関する情報のうち少なくとも一部を含むものである。
(5):上記(1)から(4)のうちいずれかの態様において、前記区画は、一つの道路における特定の区画であるものである。
(6):上記(1)から(5)のうちいずれかの態様において、前記導出部は、前記公表情報を、前記治安指標を導出するためのモデルに対する入力データとして使用するものである。
(7):上記(6)の態様において、機械学習によって前記モデルを生成する学習部を更に備えるものである。
(8):上記(1)から(7)のうちいずれかの態様において、前記公表情報を、前記治安指標を導出するモデルを学習する際の教師データとして使用するものである。
(9):本発明の他の態様に係る予測方法は、コンピュータが、町の区画の風景を撮像した画像と、前記区画の価値を表す公表情報とを取得し、前記取得した画像と公表情報とに基づいて、前記区画の将来の治安状態を表す治安指標を導出するものである。
(10):本発明の他の態様に係るプログラムは、コンピュータに、町の区画の風景を撮像した画像と、前記区画の価値を表す公表情報とを取得させ、前記取得させた画像と公表情報とに基づいて、前記区画の将来の治安状態を表す治安指標を導出させるものである。
上記(1)〜(10)の態様によれば、将来の治安の状態を適切に推定することができる。
上記(2)の態様によれば、処理効率を向上させることができる。
上記(3)の態様によれば、漠然と画像処理を行うのではなく特定物体に絞り込んで画像処理を行うため、より精度良く将来の治安の状態を推定することができる。
上記(4)の態様によれば、より多角的な視点から将来の治安の状態を推定することができる。
上記(5)の態様によれば、従来の地図におけるメッシュ単位で推定を行うものに比して、より粒度の高い推定処理を行うことができる。
各実施形態に共通の構成の一例を示す図である。 第1実施形態に係る予測装置100の構成の一例を示す図である。 画像データ151の内容の一例を示す図である。 公表情報152の内容の一例を示す図である。 画像解析部122による処理について説明するための図である。 物体状態認識モデル153の内容の一例を示す図である。 認識モデルの内容の一例を示す図である。 物体状態評価テーブル154の内容の一例を示す図である。 ルールベースで定められる予測モデル155の概念を示す図である。 第1実施形態の予測装置100により実行される処理の流れの一例を示すフローチャートである。 第2実施形態に係る予測装置100Aの構成の一例を示す図である。 ペナルティ学習部130Aの処理の内容を模式的に示す図である。 第3実施形態に係る予測装置100Bの構成の一例を示す図である。 予測モデル学習部130Bの処理の内容を模式的に示す図である。 第4実施形態に係る予測装置100Cの構成の一例を示す図である。 予測モデル155Cの内容の一例を示す図である。
以下、図面を参照し、本発明の予測装置、予測方法、およびプログラムの実施形態について説明する。
<共通構成>
図1は、各実施形態に共通の構成の一例を示す図である。予測装置100は、車両Mに搭載された車載カメラ10によって撮像された町の画像を、無線通信装置12およびネットワークNWを介して取得する。或いは、予測装置100は、町に設置された固定カメラ20によって撮像された町の画像を、ネットワークNWを介して取得する。ネットワークNWは、例えば、セルラー網、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)などを含む。なお、図示する構成は、ネットワークNWに接続するためのネットワークカードなどのインターフェースを備えているものとする(車両Mについては無線通信装置12がある)。車載カメラ10の画像を取得する場合、車載カメラ10は、予測対象の箇所に到達したときに撮像を行う(あるいは連続的に撮像している中で到達時点の画像を保存する)ように、予測装置100あるいはその他の装置によって制御される。これによって、車載カメラ10または固定カメラ20によって所望の町の所望の場所を所望の方向から撮像した一以上の画像が予測装置100に提供される。以下、このような画像を画像データと称する。
また、予測装置100は、公表情報情報源30から公表情報を取得する。公表情報とは、例えば、路線価、基準面積あたりの賃料、犯罪発生率など、町の価値を表すと考えられる、公表された任意の情報である。以下の各実施形態では、公表情報は路線価であるものとする。公表情報情報源30は、例えば、これらの情報をウェブサイトなどで公開している情報提供装置である。予測装置100は、例えば、クローラなどの技術を用いてウェブサイトから自動的に公表情報を電子情報として取得する。これに代えて、公表情報を見た操作者が予測装置100の入力装置(不図示)に手動で公表情報を入力してもよい。
予測装置100は、車載カメラ10または固定カメラ20によって撮像された画像と、公表情報とに基づいて、町の治安の状態を表す治安指数を導出する。以下、治安指数の導出手法のバリエーションについて、各実施形態で説明する。
<第1実施形態>
図2は、第1実施形態に係る予測装置100の構成の一例を示す図である。予測装置100は、例えば、取得部110と、導出部120と、記憶部150とを備える。取得部110および導出部120の各部は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。プログラムメモリとして機能する記憶装置は、記憶部150と同じものであってもよいし、異なるものであってもよい。
取得部110は、画像データおよび公表情報をそれぞれ取得し、画像データ151および公表情報152として記憶部150に記憶させる。記憶部150は、例えば、HDDやフラッシュメモリ、RAMなどにより実現される。記憶部150において、画像データ151は、例えば、区画ごとに時系列で整理されている。区画とは、ある道路の特定の区間であり、より詳細には1ブロックに対応する道路である。図3は、画像データ151の内容の一例を示す図である。図示するように画像データ151は、区画の識別情報に対して、画像の取得日および画像が対応付けられた情報である。
公表情報152は、例えば、上記の区画よりも細かい粒度で、周期的に到来する公表時期(例えば公表年度)ごとの時系列情報として整理されている。図4は、公表情報152の内容の一例を示す図である。図示するように、公表情報152は、区画に対して、詳細位置、公表年度、および路線価が対応付けられた情報である。詳細位置とは、例えば、建物の間口を単位として区分される位置である。
導出部120は、例えば、対象区画選択部121と、画像解析部122と、予測部123とを備える。
対象区画選択部121は、区画の中から、予測対象とする対象区画を選択する。例えば、対象区画選択部121は、区画の中から、第1タイミングと第2タイミングの間での公表情報152の変化率が基準値である区画を、対象区画として選択する。前述したように、公表情報152の粒度が区画よりも細かい場合、対象区画選択部121は、区画内の公表情報152の平均値を求めるなどして一つのスカラー値を求め、判定対象とする。また、第1タイミングは、公表情報152が定期的に公表される中で、直近の一つ前の公表タイミング(図4の例では2017年度)であり、第2タイミングは、直近の公表タイミング(図4の例では2018年度)である。
画像解析部122は、対象区画選択部121により選択された対象区画に対応する画像を解析することにより、画像に含まれる特定物体の状態を評価し、評価ポイントを出力する。図5は、画像解析部122による処理について説明するための図である。画像解析部122は、解析対象とする画像IMの中に様々なサイズのウインドウW(図ではW1〜W6が示されている)を設定して画像IMの少なくとも一部をスキャンし、ウインドウWの中に特定の物体が含まれていることを検知した場合、その状態を認識する。特定の物体とは、例えば、人、駐車車両、街路樹、建物、街路樹ではない植物(雑草)、建物の壁面等への落書きなどである。図中、ウインドウW1にはフロントガラスの損壊した車両が、ウインドウW2には歩道に横たわっている人が、ウインドウW3には剪定されていない街路樹が、ウインドウW4には建物における壊れた窓が、ウインドウW5には雑草が、ウインドウW6には落書きが、それぞれ含まれている。画像解析部122は、このような各特定の物体の状態を認識する。
画像解析部122は、物体の状態を認識する処理を、物体状態認識モデル153を用いて行う。図6は、物体状態認識モデル153の内容の一例を示す図である。図示するように、物体状態認識モデル153は、特定物体の種類に対して、ウインドウサイズ、ウインドウ設定領域、認識モデルなどが対応付けられた情報である。ウインドウサイズとは、特定物体の種類に応じて設定されるウインドウWのサイズである。ウインドウサイズは、遠近法を考慮して、画像IMにおける下端に近いほど大きく、上端に近いほど小さくなるように補正されてもよい。ウインドウ設定領域は、特定物体の種類に応じた画像IM中でウインドウを設定してスキャンする領域である。例えば、建物であれば画像の中央付近に写り込む可能性は低いため、画像の幅方向に関する両端付近にウインドウ設定領域が設定される。
図7は、認識モデルの内容の一例を示す図である。認識モデルは、例えば、CNN(Convolution Neural Network)などを用いたディープラーニングによって学習された学習済みモデルである。図示する認識モデルは、人に関する認識モデル(1)であり、ウインドウW内の画像(ウインドウ画像)が入力されると、出力層において、人であるか否か、人である場合における着服の有無、立っているか、座っているか、寝ているか、といった情報を出力する。
更に、画像解析部122は、認識した特定物体の状態を物体状態評価テーブル154を用いて評価し、評価ポイントを出力する。図8は、物体状態評価テーブル154の内容の一例を示す図である。図示するように、物体状態評価テーブル154は、特定物体の状態のそれぞれに対してペナルティが対応付けられた情報である。物体状態評価テーブル154は、予め何らかの手法により(例えば人が決定することで)生成され、記憶部150に格納されている。画像解析部122は、該当する状態に対応するペナルティを合計し、画像IMに対する合計ペナルティ(評価ポイントの一例)を計算する。
予測部123は、画像解析部122により算出された合計ペナルティと、対象区画の公表情報152とに基づいて、対象区画の将来の治安状態を示す治安指標を導出する。例えば、現在が2018年であるとして、予測部123は、予測モデル155として予め規定されている式(1)に基づいて、将来(例えば2019年)の治安指標を導出する。式中、[合計ペナルティ(2018年)]は、2018年に取得された画像に基づく合計ペナルティである。以下、これを「2018年の合計ペナルティ」のように表現する場合がある。
[治安指標(2019年)]=F{[合計ペナルティ(2018年)],[公表情報(2018年度)],[公表情報(2017年度)],…,[公表情報(n年前)]} …(1)
上記の式(1)では、画像に関しては一つの取得日に係る画像のみを入力データとするように表現したが、画像に関しても公表情報152と同様に、時系列の画像が入力データとされてもよい。この場合、予測部123は、例えば、2018年に取得された画像に基づく合計ペナルティ、2017年に取得された画像に基づく合計ペナルティ、および2016年に取得された画像に基づく合計ペナルティのように複数年に亘る画像に基づく合計ペナルティに基づいて、治安指標を導出してもよい。
式(1)におけるFで表される予測モデル155は、例えば、ルールベースで決定された関数である。これに代えて、予測モデル155は、機械学習によって学習された学習済みモデルを表す関数であってもよい。図9は、ルールベースで定められる予測モデル155の概念を示す図である。ここでは、治安指標は値が小さいほど「治安が悪い」ことを表すものとする。図中、hは、各年度の公表情報の関数であり、公表情報が「治安が良い」ことを示す(路線価が高い、賃料が高い、または犯罪発生率が低い)程、大きい正の値を出力する関数である。また、gは、合計ペナルティの関数であり、合計ペナルティに対して正の相関を示す値を出力する関数である。ALは、hの値の推移を近似した近似線である。予測モデル155は、例えば、近似線ALと予測対象の年度との交点の値から、関数gの値を差し引いた値を出力する。このとき、関数gの入力値は、予測対象が1年後であれば合計ペナルティ、2年後であれば合計ペナルティ×2、というように累積加算された値であってもよい。なお、この原理において「元々路線価が低い対象区画であれば合計ペナルティが大きくなる筈である」という推論が反映されていないため、関数gは、「近似線ALの予測対象における交点の値が小さい程、小さくなるように補正された合計ペナルティ」に対して正の相関を示す値を出力するものであってもよい。
図10は、第1実施形態の予測装置100により実行される処理の流れの一例を示すフローチャートである。なお、画像データ151や公表情報152などのデータの取得に関しては、本フローチャートの処理とは独立して実行されているものとする。
まず、対象区画選択部121が、公表情報152の経時変化の大きい区画を対象区画として選択する(ステップS100)。
次に、予測装置100は、ステップS102〜S106の処理を、ステップS100で選択された全ての対象区画について行う。まず、画像解析部122が、着目する対象区画の画像を読みだし、特定物体の情報を認識し(ステップS104)、認識した特定物体の状態に基づいて合計ペナルティを計算する(ステップS106)。そして、予測部123が、合計ペナルティと、その対象区画についての公表情報152とに基づいて、治安指標を導出する(ステップS106)。
以上説明した第1実施形態の予測装置100によれば、将来の治安の状態を適切に推定することができる。
<第2実施形態>
以下、第2実施形態について説明する。第1実施形態において、特定物体の状態ごとのペナルティを規定した物体状態評価テーブル154は、何らかの手法により、予め設定されているものとしたが、第2実施形態では、物体状態評価テーブル154を機械学習によって生成する。
図11は、第2実施形態に係る予測装置100Aの構成の一例を示す図である。予測装置100Aは、第1実施形態の予測装置100と比較すると、ペナルティ学習部130Aを更に備える。また、物体状態評価テーブル154Aは、ペナルティ学習部130Aにより生成されたものである。
ペナルティ学習部130Aは、例えば、複数の画像の中から一つの画像(取得日が、現在よりも十分に古いことが望ましい)を順番に選択し、選択した画像について、特定物体の状態のそれぞれに該当する場合に1、該当しない場合にゼロを割り当てた特徴ベクトルを生成する。特徴ベクトルは、式(2)で表される。式中、fkはk番目の「特定物体の状態」であり、ゼロか1の二値を示す値である。nは想定されている「特定物体の状態」の数(種類)である。
(特徴ベクトル)=(f1,f2,…,fn) …(2)
そして、ペナルティ学習部130Aは、複数の対象区間(或いは画像)に関して、特徴ベクトルの各要素にペナルティとなる係数α1〜αnのそれぞれを乗算した値と、教師データとの相関が最大となるように、係数α1〜αnを学習する。教師データは、例えば、選択した画像に係る対象区画の将来の治安の状態を示すものであり、公表情報152が教師データとして使用されてもよいし、その他の情報が教師データとして使用されてもよい。係る処理を数式で表すと、式(3)のようになる。式中、argmaxは最大値を示すパラメータを求める関数であり、Correlは相関係数である。教師データは、例えば、画像の取得日から所望の年数先の年度の情報である。例えば、画像の取得日が2015年である場合、2017年や2018年の教師データが式(3)のパラメータとして入力される。図12は、ペナルティ学習部130Aの処理の内容を模式的に示す図である。ペナルティ学習部130Aは、例えば、バックプロパゲーション(逆誤差伝播法)によって係数α1〜αnを求める。
α1〜αn=argmaxα1~αn[Correl{Σk=1 n(fk×αk)},(教師データ)] …(3)
物体状態評価テーブル154Aが生成された後の処理については第1実施形態と同様であり、説明を省略する。
以上説明した第2実施形態の予測装置100Aによれば、将来の治安の状態を適切に推定することができる。また、物体状態評価テーブル154Aを機械学習によって生成することで、ルールベースで物体状態評価テーブル154Aを決定する場合に比して、高精度に推定を行うことができる。
<第3実施形態>
以下、第3実施形態について説明する。第1実施形態および第2実施形態では、公表情報152が治安指標を導出する際の入力データとして使用されるものとしたが、第3実施形態では、公表情報152は専ら機械学習の教師データとして使用される。
図13は、第3実施形態に係る予測装置100Bの構成の一例を示す図である。予測装置100Bは、第1実施形態の予測装置100と比較すると、予測モデル学習部130Bを更に備える。また、予測モデル155Bは、予測モデル学習部130Bにより生成されたものである。
第3実施形態に係る予測部123Bは、画像解析部122により算出された合計ペナルティに基づいて、対象区画の将来の治安状態を示す治安指標を導出する。例えば、現在が2018年であるとして、予測部123は、予測モデル155として予め規定されている式(4)に基づいて、将来(例えば2019年)の治安指標を導出する。
[治安指標(2019年)]=Q{[合計ペナルティ(2018年)],[合計ペナルティ(2017年に取得された画像に基づく)],[合計ペナルティ(2016年に取得された画像に基づく)]} …(4)
式(4)におけるQで表される予測モデル155Bは、公表情報152を教師データとして予測モデル学習部130Bが行う機械学習によって学習された学習済みモデルを表す関数である。図14は、予測モデル学習部130Bの処理の内容を模式的に示す図である。図示するように、予測モデル学習部130Bは、例えば、X年、X−1年、X−2年の合計ペナルティを入力データとし、X+1年、X+2年、…の公表情報152を教師データとして機械学習を行い、学習済みモデルを生成する。
第3実施形態においても、第2実施形態と同様、機械学習によって物体状態評価テーブル154Aを生成してもよい。その他の処理に関しては、第1実施形態と同様であるため説明を省略する。
以上説明した第3実施形態の予測装置100Bによれば、将来の治安の状態を適切に推定することができる。また、予測モデル155Bを機械学習によって生成することで、ルールベースで予測モデル155Bを決定する場合に比して、高精度に推定を行うことができる。
<第4実施形態>
以下、第4実施形態について説明する。第1〜第3実施形態では、画像解析部122が合計ペナルティを計算するものとしたが、第4実施形態では、これを省略し、画像を直接予測モデルに入力する。
図15は、第4実施形態に係る予測装置100Cの構成の一例を示す図である。予測装置100Cは、第1実施形態の予測装置100と比較すると、画像解析部122が省略され、予測モデル学習部130Cを更に備える。また、予測モデル155Cは、予測モデル学習部130Cにより生成されたものである。
第4実施形態に係る予測部123Cは、対象区間の画像データ151と公表情報152とを予測モデル155Cに対して入力し、治安指数を導出する。図16は、予測モデル155Cの内容の一例を示す図である。図示するように、予測モデル155Cは、画像データ151をCNNに入力することで特徴マップを求め、特徴マップと公表情報152をDNN(Deep Neural Network)などのネットワークに入力することで、治安指数を導出するモデルである。
予測モデル学習部130Cは、例えば、教師データからバックプロパゲーションを行うことで、図16に示すCNNおよびDNNのパラメータを決定する。公表情報152が教師データとして使用されてもよいし、その他の情報が教師データとして使用されてもよい。
なお、第4実施形態において、公表情報152を予測モデル155Cの入力データとするのではなく、専ら機械学習によって予測モデル155Cを生成する際の教師データとしてのみ使用してもよい。
以上説明した第4実施形態の予測装置100Cによれば、将来の治安の状態を適切に推定することができる。画像解析処理を省略しているため、より高速な処理を実現することができる可能性がある。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
100、100A、100B、100C 予測装置
110 取得部
120 導出部
121 対象区画選択部
122 画像解析部
123、123B、123C 予測部
130A ペナルティ学習部
130B、130C 予測モデル学習部
150 記憶部
151 画像データ
152 公表情報
153 物体状態認識モデル
154、154A 物体状態評価テーブル
155、155B、155C 予測モデル

Claims (10)

  1. 町の区画の風景を撮像した画像と、前記区画の価値を表す公表情報とを取得する取得部と、
    前記取得部により取得された画像と公表情報とに基づいて、前記区画の将来の治安状態を表す治安指標を導出する導出部と、
    を備える予測装置。
  2. 前記導出部は、前記公表情報の変化率が基準値以上である区画について前記治安指標を導出する、
    請求項1記載の予測装置。
  3. 前記導出部は、前記画像に含まれる特定物体の状態を評価することにより、前記治安指標を導出する、
    請求項1または2に記載の予測装置。
  4. 前記公表情報は、路線価、賃料、犯罪発生に関する情報のうち少なくとも一部を含む、
    請求項1から3のうちいずれか1項記載の予測装置。
  5. 前記区画は、一つの道路における特定の区画である、
    請求項1から4のうちいずれか1項記載の予測装置。
  6. 前記導出部は、前記公表情報を、前記治安指標を導出するためのモデルに対する入力データとして使用する、
    請求項1から5のうちいずれか1項記載の予測装置。
  7. 機械学習によって前記モデルを生成する学習部を更に備える、
    請求項6記載の予測装置。
  8. 前記公表情報を、前記治安指標を導出するモデルを学習する際の教師データとして使用する、請求項1から7のうちいずれか1項記載の予測装置。
  9. コンピュータが、
    町の区画の風景を撮像した画像と、前記区画の価値を表す公表情報とを取得し、
    前記取得した画像と公表情報とに基づいて、前記区画の将来の治安状態を表す治安指標を導出する、
    予測方法。
  10. コンピュータに、
    町の区画の風景を撮像した画像と、前記区画の価値を表す公表情報とを取得させ、
    前記取得させた画像と公表情報とに基づいて、前記区画の将来の治安状態を表す治安指標を導出させる、
    プログラム。
JP2018215602A 2018-11-16 2018-11-16 予測装置、予測方法、およびプログラム Pending JP2020086581A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018215602A JP2020086581A (ja) 2018-11-16 2018-11-16 予測装置、予測方法、およびプログラム
US16/680,542 US20200160500A1 (en) 2018-11-16 2019-11-12 Prediction device, prediction method, and storage medium
CN201911118203.XA CN111199306A (zh) 2018-11-16 2019-11-14 预测装置、预测方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018215602A JP2020086581A (ja) 2018-11-16 2018-11-16 予測装置、予測方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2020086581A true JP2020086581A (ja) 2020-06-04

Family

ID=70727839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018215602A Pending JP2020086581A (ja) 2018-11-16 2018-11-16 予測装置、予測方法、およびプログラム

Country Status (3)

Country Link
US (1) US20200160500A1 (ja)
JP (1) JP2020086581A (ja)
CN (1) CN111199306A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022034984A1 (ko) * 2020-08-14 2022-02-17 고려대학교 산학협력단 치안 및 공공 데이터 기반 범죄 신고 수 예측 장치 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072622A (ja) * 2005-09-05 2007-03-22 Sharp Corp 防犯状況通知装置、防犯状況提供装置、防犯状況通知方法、および防犯状況通知方法をコンピュータに実行させるためのコンピュータプログラム
US20180053110A1 (en) * 2016-08-22 2018-02-22 The Catholic University Of Korea Industry-Academic Cooperation Foundation Method of predicting crime occurrence in prediction target region using big data

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107180220B (zh) * 2016-03-11 2023-10-31 松下电器(美国)知识产权公司 危险预测方法
CN106096623A (zh) * 2016-05-25 2016-11-09 中山大学 一种犯罪识别与预测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072622A (ja) * 2005-09-05 2007-03-22 Sharp Corp 防犯状況通知装置、防犯状況提供装置、防犯状況通知方法、および防犯状況通知方法をコンピュータに実行させるためのコンピュータプログラム
US20180053110A1 (en) * 2016-08-22 2018-02-22 The Catholic University Of Korea Industry-Academic Cooperation Foundation Method of predicting crime occurrence in prediction target region using big data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
河井 保博: "スマートな社会を支えるICT最前線", 日経コミュニケーション, vol. 第617号, JPN6021043786, 1 June 2015 (2015-06-01), JP, pages 62 - 63, ISSN: 0004634684 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022034984A1 (ko) * 2020-08-14 2022-02-17 고려대학교 산학협력단 치안 및 공공 데이터 기반 범죄 신고 수 예측 장치 및 방법

Also Published As

Publication number Publication date
US20200160500A1 (en) 2020-05-21
CN111199306A (zh) 2020-05-26

Similar Documents

Publication Publication Date Title
CN108256506B (zh) 一种视频中物体检测方法及装置、计算机存储介质
US10496901B2 (en) Image recognition method
US20210064999A1 (en) Multi-scale multi-granularity spatial-temporal traffic volume prediction
US20170262750A1 (en) Risk prediction method
JP2017059207A (ja) 画像認識方法
JP2019087200A (ja) 作業車両の動作を推定するための方法、システム、学習済みの分類モデルの製造方法、学習データ、及び学習データの製造方法
CN106815563B (zh) 一种基于人体表观结构的人群数量预测方法
JP2019096255A (ja) 下水道管渠内水位予測装置、下水道管渠内水位予測方法及び下水道管渠内水位予測プログラム
CN112180931A (zh) 扫地机的清扫路径规划方法、装置及可读存储介质
CN115185285B (zh) 吸尘机器人的自动避障方法、装置、设备及存储介质
CN110375736B (zh) 智能设备的路径规划方法、系统、设备及可读存储介质
EP2821935A2 (en) Vehicle detection method and device
CN114005105B (zh) 驾驶行为检测方法、装置以及电子设备
CN111783716A (zh) 基于姿态信息的行人检测方法、系统、装置
CN115600022A (zh) 时空数据处理模型的训练、处理方法、装置以及介质
JP2020086581A (ja) 予測装置、予測方法、およびプログラム
WO2022004773A1 (ja) モデル生成装置、回帰装置、モデル生成方法、及びモデル生成プログラム
CN114648633A (zh) 确定车辆环境的语义分割的方法
JP2021111228A (ja) 学習装置、学習方法、及びプログラム
JP3878590B2 (ja) 時系列画像処理方法及び装置
CN111435457A (zh) 对传感器获取的采集进行分类的方法
KR101548455B1 (ko) 객체 영역 추출 방법 및 그 장치
CN116068885A (zh) 切换递归卡尔曼网络的改进
JP2012058780A (ja) 環境マップ作成装置及び方法、行動予測装置及び方法
CN112990009A (zh) 基于端到端的车道线检测方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220510