JP2019125251A - 情報処理装置、データ構造、情報処理方法、およびプログラム - Google Patents

情報処理装置、データ構造、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2019125251A
JP2019125251A JP2018006575A JP2018006575A JP2019125251A JP 2019125251 A JP2019125251 A JP 2019125251A JP 2018006575 A JP2018006575 A JP 2018006575A JP 2018006575 A JP2018006575 A JP 2018006575A JP 2019125251 A JP2019125251 A JP 2019125251A
Authority
JP
Japan
Prior art keywords
image data
observed
time
value
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018006575A
Other languages
English (en)
Other versions
JP6843780B2 (ja
Inventor
勇磨 三木
Yuma Miki
勇磨 三木
幸浩 田頭
Yukihiro Tagashira
幸浩 田頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2018006575A priority Critical patent/JP6843780B2/ja
Priority to US16/240,580 priority patent/US11238576B2/en
Publication of JP2019125251A publication Critical patent/JP2019125251A/ja
Application granted granted Critical
Publication of JP6843780B2 publication Critical patent/JP6843780B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems
    • G06N5/047Pattern matching networks; Rete networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】より好適に将来の観測値を求めることができる情報処理装置、データ構造、情報処理方法、およびプログラムを提供することである。【解決手段】情報処理装置は、ある時刻tに観測された観測値を画素値とした第1の画像データを取得する取得部と、前記第1の画像データを用いた機械学習によって得られた学習モデルに基づいて、前記取得部により取得された前記第1の画像データから、前記時刻tよりも将来の時刻t+nに観測されることが予測される観測値を画素値とした第2の画像データを生成する学習処理部と、を備え、前記機械学習が、ある対象の時刻に観測された観測値を画素値とした前記第1の画像データと、前記対象の時刻に観測されることが予測される観測値を画素値とした前記第2の画像データとの比較に基づく機械学習である。【選択図】図4

Description

本発明は、情報処理装置、データ構造、情報処理方法、およびプログラムに関する。
対象エリアにおける携帯端末の過去の測位情報を参照して、対象エリアの過去の複数の時間帯のそれぞれにおける混雑度を時間帯別混雑度として算出し、複数の時間帯別混雑度をクラスタリングすることによって、対象エリアにおける将来の混雑度を予測するために用いる混雑度のパターンを生成する技術が知られている(例えば、特許文献1参照)。
特開2015−18336号公報
しかしながら、従来の技術では、地点ごと、或いはエリアごとに将来の混雑度を求めており、処理負荷が大きくなったり、データの管理が煩雑となったりするといった課題があった。また、このような課題は、専ら、地図上における位置座標のような任意の空間座標に対して、混雑度のような何らかの観測値を対応付ける適用分野全般に共通するところであった。
本発明は、上記の課題に鑑みてなされたものであり、より好適に将来の観測値を求めることができる情報処理装置、データ構造、情報処理方法、およびプログラムを提供することを目的としている。
本発明の一態様は、ある時刻tに観測された観測値を画素値とした第1の画像データを取得する取得部と、前記第1の画像データを用いた機械学習によって得られた学習モデルに基づいて、前記取得部により取得された前記第1の画像データから、前記時刻tよりも将来の時刻t+nに観測されることが予測される観測値を画素値とした第2の画像データを生成する学習処理部と、を備え、前記機械学習が、ある対象の時刻に観測された観測値を画素値とした前記第1の画像データと、前記対象の時刻に観測されることが予測される観測値を画素値とした前記第2の画像データとの比較に基づく機械学習である、情報処理装置である。
本発明の一態様によれば、より好適に将来の観測値を求めることができる。
第1実施形態における情報処理装置200を含む情報処理システム1の一例を示す図である。 第1実施形態における情報提供装置100の構成の一例を示す図である。 実画像データの一例を示す図である。 第1実施形態における情報処理装置200の構成の一例を示す図である。 情報処理装置側制御部210による運用時の一連の処理の流れを示すフローチャートである。 予測画像データの生成処理の詳細な流れの一例を示すフローチャートである。 プレドネット300の一例を示す図である。 プレドネット300の一例を示す図である。 周期ごとの実画像データと予測画像データとを並べて表示させた図である。 情報提供装置100から端末装置10に提供されるコンテンツの一例を示す図である。 情報提供装置100から端末装置10に提供されるコンテンツの他の例を示す図である。 情報処理装置200による学習時の一連の処理の流れを示すフローチャートである。 プレドネット300の学習の流れを模式的に示す図である。 実施形態の情報提供装置100および情報処理装置200のハードウェア構成の一例を示す図である。
以下、本発明を適用した情報処理装置、データ構造、情報処理方法、およびプログラムを、図面を参照して説明する。
[概要]
情報処理装置は、一以上のプロセッサにより実現される。情報処理装置は、ある時刻tに観測された観測値を画素値とした画像データ(以下、実画像データと称する)を取得する。観測値は、例えば、ある地点における人の混雑の程度を示す値、すなわち混雑度である。観測値が混雑度である場合、実画像データは、混雑度の大きさに応じて、色相や彩度、明度(輝度)といった色のパラメータを画素値としたヒートマップで表されてよい。実画像データは、「第1の画像データ」または「第1の多次元配列データ」の一例である。
情報処理装置は、実画像データを取得すると、別の時刻t#(例えば、時刻tよりも所定周期前の時刻)の実画像データを用いて機械学習を行った学習モデルに基づいて、取得した時刻tの実画像データから、時刻tよりも将来の時刻t+nに観測されることが予測される観測値を画素値とした画像データ(以下、予測画像データと称する)を生成する。予測画像データは、「第2の画像データ」または「第2の多次元配列データ」の一例である。
例えば、学習モデルは、過去のある時刻t#における実画像データと、その過去のある時刻t#よりも後の時刻t#+nにおける予測画像データとの加算結果に基づく機械学習によって得られる。nは、観測値を求める周期を表し、例えば1である。生成される予測画像データは、実画像データと同様のデータ態様である。「同様の」とは、例えば、実画像データが、グレースケールの明度によって混雑度の大きさが表現されたヒートマップである場合、予測画像データもグレースケールの明度によって混雑度の大きさが表現されたヒートマップであることを意味する。このような処理によって、例えば、人の密集しやすい建物の有無や、土地の形状、道路網や鉄道網の形状といったような特徴量を考慮せずに、画像ベースで最終的に得たい将来の観測値を予測することができる。この結果、より低負荷且つより簡易に、といったように好適に将来の観測値を求めることができる。
(第1実施形態)
[全体構成]
図1は、第1実施形態における情報処理装置200を含む情報処理システム1の一例を示す図である。第1実施形態における情報処理システム1は、例えば、一以上の端末装置10と、情報提供装置100と、情報処理装置200とを備える。これらの装置は、ネットワークNWを介して接続される。
図1に示す各装置は、ネットワークNWを介して種々の情報を送受信する。ネットワークNWは、例えば、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、プロバイダ端末、無線通信網、無線基地局、専用回線などを含む。なお、図1に示す各装置の全ての組み合わせが相互に通信可能である必要はなく、ネットワークNWは、一部にローカルなネットワークを含んでもよい。
端末装置10は、例えば、スマートフォンなどの携帯電話、タブレット端末、各種パーソナルコンピュータなどの、入力装置、表示装置、通信装置、記憶装置、および演算装置を備える端末装置である。通信装置は、NIC(Network Interface Card)などのネットワークカード、無線通信モジュールなどを含む。端末装置10では、ウェブブラウザやアプリケーションプログラムなどのUA(User Agent)が起動し、ユーザの入力に応じたリクエストを情報提供装置100に送信する。また、UAが起動された端末装置10は、情報提供装置100から取得した情報に基づいて、表示装置に各種画像を表示させる。
情報提供装置100は、例えば、ウェブブラウザからのリクエストに応じてウェブページを端末装置10に提供するウェブサーバである。ウェブページには、テキスト、静止画像、動画像、または音声などのコンテンツが含まれる。例えば、ウェブページが地図画像を提供するものである場合、コンテンツには、地図画像や、その地図上での人の混雑度を色で表現したヒートマップが含まれる。また、情報提供装置100は、アプリケーションプログラムからのリクエストに応じて上記のコンテンツを端末装置10に提供するアプリサーバであってもよい。
情報処理装置200は、例えば、情報提供装置100から、ある地域における、ある時刻tの混雑度を画素値とした実画像データを取得し、その地域の将来の時刻t+nの混雑度を画素値とした予測画像データを生成する。そして、情報処理装置200は、実画像データの取得元である情報提供装置100に対して、生成した予測画像データを送信する。これを受けて、情報提供装置100は、将来の時刻t+nの予測画像データをコンテンツとして端末装置10に提供する。
[情報提供装置の構成]
図2は、第1実施形態における情報提供装置100の構成の一例を示す図である。図示のように、情報提供装置100は、例えば、情報提供装置側通信部102と、情報提供装置側制御部110と、情報提供装置側記憶部130とを備える。
情報提供装置側通信部102は、例えば、NIC等の通信インターフェースを含む。情報提供装置側通信部102は、ネットワークNWを介して、端末装置10と通信し、端末装置10からウェブブラウザのリクエストやアプリケーションのリクエストを取得すると共に、端末装置10の位置情報を取得する。
情報提供装置側制御部110は、例えば、ヒートマップ生成部112と、通信制御部114とを備える。これらの構成要素は、例えば、CPU(Central Processing Unit)などのプロセッサが情報提供装置側記憶部130に格納されたプログラムを実行することにより実現される。また、情報提供装置側制御部110の構成要素の一部または全部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはGPU(Graphics Processing Unit)などのハードウェア(回路部;circuitry)により実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
情報提供装置側記憶部130は、例えば、HDD(Hard Disc Drive)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、RAM(Random Access Memory)などの記憶装置により実現される。情報提供装置側記憶部130には、ファームウェアやアプリケーションプログラムなどのプロセッサにより実行される各種プログラムの他に、地図情報132や位置情報134などが記憶される。地図情報132は、例えば、端末装置10にコンテンツとして提供される地図画像や、その地図上での建物等の位置座標を含む。位置情報134は、各端末装置10の位置座標や、その位置座標の取得時刻を含む。
ヒートマップ生成部112は、所定周期n(例えば20分)ごとに、ヒートマップで表された実画像データをシーケンシャルに生成する。例えば、ヒートマップ生成部112は、端末装置10の位置座標の取得時刻を参照し、複数の位置座標の中から、対象の周期に該当する一以上の位置座標を抽出する。ヒートマップ生成部112は、抽出した位置座標を地図情報132が示す地図上にマッピングし、そのマッピングした位置座標の数を人の混雑度として導出する。そして、ヒートマップ生成部112は、混雑度を画素値に置き換えたヒートマップと、地図情報132が示す地図画像とを重ね合わせたものを、実画像データとして生成する。この実画像データは、例えば、地図の各座標に対して混雑度が対応付けられた3次元のテンソル(三階テンソル)データとして表される。
図3は、実画像データの一例を示す図である。図示の例のように、実画像データでは、地図画像の上に、所定の透過率を有するヒートマップが重畳される。ヒートマップの画素値の大きさ、すなわち混雑度の大きさは、例えば、ピンクからブルーまでの色相の中で、所定数の階調のグラデーションによって表現されてよい。このような実画像データがコンテンツとして端末装置10に提供されることによって、端末装置10を利用するユーザは、色の濃さや色相などによってどの地点が混雑しているのかということを感覚的に把握することができる。
通信制御部114は、情報提供装置側通信部102を制御して、ヒートマップ生成部112によって生成された実画像データをコンテンツとして端末装置10に送信する。また、通信制御部114は、情報提供装置側通信部102を制御して、ヒートマップ生成部112によって生成された実画像データを情報処理装置200に送信する。
[情報処理装置の構成]
図4は、第1実施形態における情報処理装置200の構成の一例を示す図である。図示のように、情報処理装置200は、例えば、情報処理装置側通信部202と、情報処理装置側制御部210と、情報処理装置側記憶部230とを備える。
情報処理装置側通信部202は、例えば、NIC等の通信インターフェースを含む。情報処理装置側通信部202は、ネットワークNWを介して、情報提供装置100と通信し、情報提供装置100から実画像データを取得する。情報処理装置側通信部202は、「取得部」の一例である。
情報処理装置側制御部210は、例えば、学習処理部212と、通信制御部214とを備える。これらの構成要素は、例えば、CPUなどのプロセッサが情報処理装置側記憶部230に格納されたプログラムを実行することにより実現される。また、情報処理装置側制御部210の構成要素の一部または全部は、LSI、ASIC、FPGA、またはGPUなどのハードウェア(回路部;circuitry)により実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
情報処理装置側記憶部230は、例えば、HDD、フラッシュメモリ、EEPROM、ROM、RAMなどの記憶装置により実現される。情報処理装置側記憶部230には、ファームウェアやアプリケーションプログラムなどのプロセッサにより実行される各種プログラムの他に、深層学習モデル情報232などが記憶される。
深層学習モデル情報232は、学習処理部212により参照される学習モデル(学習器)を規定する情報である。学習モデルは、例えば、プレドネット(PredNet)300である。プレドネット300とは、神経科学における予測符号化の原理から発想を得たディーププレディクティブコーディングネットワーク(Deep Predictive Coding Network(s))のことであり、少なくともディープコンボリューショナルリカレントニューラルネットワーク(Deep Convolutional Recurrent Neural Network)を含む複数のニューラルネットワークにより実現される。
深層学習モデル情報232には、例えば、プレドネット300(ディープコンボリューショナルリカレントニューラルネットワーク)に含まれる各ニューラルネットワークを構成する入力層、一以上の隠れ層(中間層)、出力層の其々に含まれるニューロン(ユニット)が互いにどのように結合されるのかという結合情報や、結合されたニューロン間で入出力されるデータに付与される結合係数などの各種情報が含まれる。結合情報とは、例えば、各層に含まれるニューロン数や、各ニューロンの結合先のニューロンを指定する情報、各ニューロンを実現する活性化関数、隠れ層のニューロン間に設けられたゲートなどの情報を含む。ニューロンを実現する活性化関数は、例えば、正規化線形関数(ReLU関数)であってもよいし、シグモイド関数や、ステップ関数、その他の関数などであってもよい。ゲートは、例えば、活性化関数によって返される値(例えば1または0)に応じて、ニューロン間で伝達されるデータを選択的に通過させたり、重み付けたりする。結合係数は、活性化関数のパラメータであり、例えば、ニューラルネットワークの隠れ層において、ある層のニューロンから、より深い層のニューロンにデータが出力される際に、出力データに対して付与される重みを含む。また、結合係数は、各層の固有のバイアス成分などを含んでもよい。
学習処理部212は、深層学習モデル情報232を参照してプレドネット300を生成(構築)し、情報処理装置側通信部202によって取得された実画像データを入力として各種計算を行うことで、予測画像データを生成する。
通信制御部214は、情報処理装置側通信部202を制御して、学習処理部212によって生成された予測画像データを情報提供装置100に送信する。
[運用時の処理フロー]
以下、フローチャートに即して、情報処理装置側制御部210の運用時の一連の処理の流れを説明する。「運用時」とは、学習処理部212によってある程度学習された学習モデルを利用する状態である。図5は、情報処理装置側制御部210による運用時の一連の処理の流れを示すフローチャートである。本フローチャートの処理は繰り返し行われてよい。
まず、学習処理部212は、情報処理装置側通信部202によって情報提供装置100から実画像データが取得されるまで待機し(S100)、情報処理装置側通信部202によって実画像データが取得されると、実画像データをプレドネット300に入力し(S102)、情報提供装置100において実画像データが生成されたときの時刻tよりも一周期n先の将来の時刻t+nの混雑度を画素値とした予測画像データを生成する(S104)。
次に、通信制御部214は、情報処理装置側通信部202を制御して、学習処理部212によって生成された時刻t+nの予測画像データを情報提供装置100に送信する(S106)。これによって本フローチャートの処理が終了する。
情報提供装置100は、情報処理装置200から予測画像データが送信されると、これを受信し、コンテンツとして端末装置10に送信する。この結果、端末装置10を利用するユーザは、将来の時刻t+nにおいて、どこの地点が混雑するのかを把握することができる。
図6は、予測画像データの生成処理の詳細な流れの一例を示すフローチャートである。本フローチャートの処理は、上述したS104の処理に相当する。
まず、学習処理部212は、深層学習モデル情報232を参照してプレドネット300を生成する(S200)。
図7および図8は、プレドネット300の一例を示す図である。例えば、プレドネット300は、2層以上から構成され、各層が観測値または観測値を構成する特徴量を局所的に予測し、その予測結果と入力との差分を後段の層に出力する。各層は、抽象化処理部310と、予測生成部320と、差分導出部330と、回帰処理部340とを備える。以下、抽象化処理部310の処理結果(出力)を「A 」と表し、予測生成部320の処理結果(出力)を「A(hat) 」と表し、差分導出部330の処理結果(出力)を「E 」と表し、回帰処理部340の処理結果(出力)を「R 」と表して説明する。“(hat)”は、アルファベットAのハット記号を表している。
抽象化処理部310は、数式(1)に基づく処理を行い、処理結果A を出力する。抽象化処理部310は、例えば、コンボリューショナルニューラルネットワーク(Convolutional Neural Network:CNN)によって実現されてよい。
例えば、処理対象とする層lが0である場合、すなわち、最も前段の層の抽象化処理部310を対象としている場合、この抽象化処理部310は、入力された実画像データxをそのまま処理結果A として出力する。
また、層lが0を超える場合、すなわち、後段の層の抽象化処理部310を対象としている場合、この抽象化処理部310は、一段前層の差分導出部330の処理結果El−1 と所定のフィルタとの畳み込み処理を行う。例えば、処理対象とする層lが第2層である場合、抽象化処理部310は、差分導出部330の処理結果El−1 である画像と所定のフィルタとを畳み込み(内積を求め)、所定のフィルタと重なる複数の画素を含む画像領域を、一つの単位領域に圧縮する。この単位領域には、畳み込みにより得られた値が特徴量として対応付けられる。抽象化処理部310は、画像上で所定のフィルタをシフト移動させながら畳み込み処理を繰り返し、複数の単位領域により形成された画像(以下、コンボリューショナルレイヤ)を生成する(CONV(El−1 ))。この際、抽象化処理部310は、畳み込み時にパディングを行って、コンボリューショナルレイヤが処理結果El−1 の画像と同じサイズとなるようにする。抽象化処理部310は、各コンボリューショナルレイヤをReLU関数(正規化線形関数)によって繋ぎ合わせる(RELU(CONV(El−1 )))。抽象化処理部310は、繋ぎ合わせた複数のコンボリューショナルレイヤの其々のサイズを、マックスプーリング(MAXPOOLING)と呼ばれる手法を用いて圧縮することで(MAXPOOL(RELU(CONV(El−1 ))))、処理結果El−1 である画像を抽象化する。そして、抽象化処理部310は、抽象化した画像を処理結果A として出力する。
予測生成部320は、数式(2)に基づく処理を行い、処理結果A(hat) を出力する。予測生成部320は、例えば、コンボリューショナルニューラルネットワークによって実現されてよい。
例えば、予測生成部320は、処理対象とする層lが第1層である場合、同じ層の回帰処理部340の処理結果R である画像と所定のフィルタとを畳み込み、所定のフィルタと重なる複数の画素を含む画像領域を、一つの単位領域に圧縮する。上述したように、単位領域には、畳み込みにより得られた値が特徴量として対応付けられる。予測生成部320は、画像上で所定のフィルタをシフト移動させながら畳み込み処理を繰り返し、複数の単位領域により形成されたコンボリューショナルレイヤを生成する(CONV(R ))。この際、予測生成部320は、畳み込み時にパディングを行って、コンボリューショナルレイヤが処理結果R の画像と同じサイズとなるようにする。予測生成部320は、各コンボリューショナルレイヤをReLU関数によって繋ぎ合わせ(RELU(CONV(El−1 )))、この結果を処理結果A(hat) として出力する。最も前段の層の予測生成部320による処理結果A(hat) は、予測画像データを表している。
差分導出部330は、数式(3)に基づく処理を行い、処理結果E を出力する。
例えば、差分導出部330は、処理結果A から処理結果A(hat) を減算した差分(A ‐A(hat) )と、処理結果A(hat) から処理結果A を減算した差分(A(hat) ‐A )とを其々求め、それらの差分を用いたReLU関数の出力値を、処理結果E として出力する。
回帰処理部340は、数式(4)に基づく処理を行い、処理結果R を出力する。予測生成部320は、例えば、コンボリューショナルニューラルネットワークと、ネットワークの中間層がLSTM(Long short-term memory)であるリカレントネットワーク(Reccurent Neural Network:RNN)との組み合わせ(以下、CONVLSTMと称する)によって実現されてよい。CONVLSTMは、例えば、LSTMの各ゲートの計算式において、重みと状態変数との内積を畳み込みに変更したものである。
例えば、回帰処理部340は、LSTMのメモリーセルと呼ばれる記憶領域(LSTMブロック)に一時記憶させておいた差分導出部330の前回の処理結果E t−1と、自身の前回の処理結果R t−1と、後段の層の回帰処理部340の処理結果Rl+1 とに基づいてCONVLSTMを計算し、その計算結果を処理結果R として出力する。回帰処理部340は、後段の回帰処理部340の処理結果Rl+1 である画像のサイズと、入力される実画像データxのサイズとが異なる場合、後段から処理結果Rl+1 として入力される画像のサイズをアップサンプリングすることで、実画像データxのサイズに合わせてよい。これによって、対象とする各層において画像のサイズが統一される。また、回帰処理部340は、今回求めた処理結果R と、同じ層の差分導出部330により今回求められた処理結果E とをLSTMのメモリーセルに記憶させる。
学習処理部212は、プレドネット300を生成すると、予測画像データを生成する処理が初回処理であるか否かを判定し(S202)、予測画像データを生成する処理が初回処理であると判定した場合、各層の回帰処理部340の出力値R と差分導出部330の出力値E とを初期値(例えば0)として予測画像データA(hat) を生成する(S204)。
例えば、プレドネット300が第l層と第l層より後段の第l+1層との計2層であり、nが1である場合、第l+1層の回帰処理部340は、第l+1層の差分導出部330による前回の周期t−1の出力値El+1 t−1を初期値とすると共に、LSTMのメモリーセルに自身の前回の周期t−1の出力値Rl+1 t−1を記憶させていないことから、この出力値Rl+1 t−1を初期値として、現在の周期tの出力値Rl+1 を導出する。この際、第l+1層の回帰処理部340は、導出した現在の周期tの出力値Rl+1 をLSTMのメモリーセルに記憶させる。
第l層の回帰処理部340は、第l層の差分導出部330による前回の周期t−1の出力値E t−1を初期値とすると共に、LSTMのメモリーセルに自身の前回の周期t−1の出力値R t−1を記憶させていないことから、この出力値R t−1を初期値とし、これらの初期値E t−1およびR t−1と、第l+1層の回帰処理部340により導出された現在の周期tの出力値Rl+1 とに基づいて、現在の周期tの出力値R を導出する。この際、第l層の回帰処理部340は、導出した現在の周期tの出力値R をLSTMのメモリーセルに記憶させる。
第l層の予測生成部320は、第l層の回帰処理部340により導出されたR に基づいて、現在の周期tの出力値A(hat) を導出する。これによって、現在の周期tの予測画像データA(hat) が生成される。
次に、学習処理部212は、初期値であるR t−1とE t−1とに基づき生成した予測画像データA(hat) と、現在の周期tに取得された実画像データxとの差分を導出する(S206)。例えば、学習処理部212は、情報処理装置側通信部202によって周期tの実画像データxが取得されると、これを第l層の抽象化処理部310に入力する。第l層の抽象化処理部310は、初回処理の場合、情報処理装置側通信部202によって取得された実画像データxをそのまま第l層の差分導出部330に出力する。これを受けた第l層の差分導出部330は、第l層の予測生成部320により生成された予測画像データA(hat) と、第l層の抽象化処理部310により出力された実画像データxとに基づいて、現在の一周期t分の差分E を導出する。
次に、学習処理部212は、導出した画像データの差分E から、画像の特徴量を導出する(S208)。例えば、第l+1層の抽象化処理部310は、第l層の差分導出部330により導出された差分E に基づいて、現在の周期tの画像データの画像を抽象化することで得られる特徴量Al+1 を導出する。
次に、学習処理部212は、現在の周期tの出力値Rl+1 に基づいて、将来の画像の特徴量(以下、予測特徴量と称する)を導出する(S210)。例えば、第l+1層の予測生成部320は、第l+1層の回帰処理部340により導出された現在の周期tの出力値Rl+1 に基づいて、将来の周期t+1の画像データから得られることが予測される予測特徴量A(hat)l+1 を導出する。予測特徴量A(hat)l+1 は、あくまでも現在の周期tに求まる、将来の周期t+1の画像データの特徴量を表している。
次に、学習処理部212は、現在の周期tの画像データから得た特徴量Al+1 と、将来の周期t+1の画像データから得られることが予測される予測特徴量A(hat)l+1 との差分を導出する(S212)。例えば、第l+1層の差分導出部330は、現在の周期tの特徴量Al+1 から、現在の周期tの予測特徴量A(hat)l+1 を減算した差分(Al+1 ‐A(hat)l+1 )と、現在の周期tの予測特徴量A(hat)l+1 から、現在の周期tの特徴量Al+1 を減算した差分(A(hat)l+1 ‐Al+1 )とを其々求め、これらの差分をReLU関数の変数として現在の周期tの特徴量の差分El+1 を導出する。これによって、初回処理時の一周期分の処理が終了する。
一方、学習処理部212は、S202の処理において、予測画像データを生成する処理が初回処理でないと判定した場合、各層の回帰処理部340および差分導出部330の前回の周期の出力値を基に予測画像データを生成する(S214)。
例えば、現在の周期が、初回の周期tから一周期分進んだt+1である場合、第l+1層の回帰処理部340は、第l+1層の差分導出部330による前回の周期tの出力値El+1 (S212の処理結果)と、LSTMのメモリーセルに記憶させた前回の周期tの出力値Rl+1 とに基づいて、現在の周期t+1の出力値Rl+1 t+1を導出する。この際、第l+1層の回帰処理部340は、導出した現在の周期t+1の出力値Rl+1 t+1をLSTMのメモリーセルに記憶させる。
第l層の回帰処理部340は、第l層の差分導出部330による前回の周期tの出力値E と、LSTMのメモリーセルに記憶させておいた前回の周期tの出力値R と、第l+1層の回帰処理部340により導出された現在の周期t+1の出力値Rl+1 t+1とに基づいて、現在の周期t+1の出力値R t+1を導出する。この際、第l層の回帰処理部340は、導出した現在の周期t+1の出力値R t+1をLSTMのメモリーセルに記憶させる。
第l層の予測生成部320は、第l層の回帰処理部340により導出されたR t+1に基づいて、現在の周期t+1の出力値A(hat) t+1を導出する。これによって、現在の周期t+1の予測画像データA(hat) t+1が生成される。
次に、学習処理部212は、S206の処理として、現在の周期t+1に取得された実画像データxt+1を、畳み込み処理およびマックスプーリングによって抽象化し、前回の周期tの導出結果であるR とE とに基づき生成した予測画像データA(hat) t+1と、抽象化した実画像データxt+1との差分を導出する。
次に、学習処理部212は、S208の処理として、導出した画像データの差分E t+1に基づいて、現在の周期t+1の画像データを抽象化することで得られる特徴量Al+1 t+1を導出する。
次に、学習処理部212は、S210の処理として、現在の周期t+1の回帰処理結果Rl+1 t+1に基づいて、将来の周期t+2の画像データから得られることが予測される予測特徴量A(hat)l+1 t+1を導出する。
次に、学習処理部212は、S212の処理として、現在の周期t+1の画像データから得た特徴量Al+1 t+1と、将来の周期t+2の画像データから得られることが予測される予測特徴量A(hat)l+1 t+1との差分El+1 t+1を導出する。これによって、2回目以降の処理時の一周期分の処理が終了する。
図9は、周期ごとの実画像データと予測画像データとを並べて表示させた図である。図中t1は、初回の周期を表しており、予測画像データが一度も生成されていないことを表している。例えば、学習処理部212は、周期t1の時点で実画像データxt1が取得されると、これをプレドネット300に入力し、周期t2の時点で得られることが予測される予測画像データA(hat) t1を生成する。更に、学習処理部212は、周期t2の時点で実画像データxt2が取得されると、これをプレドネット300に入力し、周期t3の時点で得られることが予測される予測画像データA(hat)t2を生成する。このように、周期が繰り返され、実画像データが取得される度に、一周期先の予測画像データを生成する。これによって、情報提供装置100には、情報処理装置200から逐次予測画像データが送信される。
図10は、情報提供装置100から端末装置10に提供されるコンテンツの一例を示す図である。情報提供装置100が、予測画像データを生成するために、t1からt9の各周期の実画像データをシーケンシャルに情報処理装置200に送信し続けた場合、情報処理装置200は、周期t9の次の周期t10の予測画像データA(hat)t9を生成し、これを情報提供装置100に返す。情報提供装置100は、情報処理装置200から予測画像データA(hat)t9を受信すると、これまで情報処理装置200に送信し続けた実画像データxt1〜xt9と、周期t10の実画像データxt10を予測した予測画像データA(hat)t9とを含むコンテンツを端末装置10に提供する。これによって、端末装置10の画面には、現在までの混雑度と共に、将来の混雑度がヒートマップとして表示される。
また、上述した例では、情報処理装置200が、実画像データが生成されたときの時刻(周期)tよりも一周期n先の将来の時刻(周期)t+nの混雑度を画素値とした予測画像データを生成するものとして説明したがこれに限られない。例えば、情報処理装置200は、一周期n先の将来の時刻(周期)t+nの予測画像データと、更に、その将来の時刻(周期)t+nの一または複数の周期n先の将来の時刻t+knの予測画像データとを予測してもよい。nは、上述したように周期を表し、kは、予測する将来の周期の数を表す任意の自然数である。
例えば、現在の周期がt+1である場合、最も前段の第l層の抽象化処理部310は、情報処理装置側通信部202によって実画像データxt+1が取得される前に、或いは取得された場合であっても、第l層の予測生成部320により前回の周期tにおいて生成された予測画像データA(hat)を、実画像データxt+1と見做して、畳み込み処理およびマックスプーリングを行って抽象化する。これを受けて第l層の差分導出部330は、第l層の予測生成部320により生成された予測画像データA(hat)t+1と、第l層の抽象化処理部310により抽象化された予測画像データA(hat)とに基づいて、現在の周期t+1の差分E t+1を導出する。第l層の後段の第l+1層の構成要素は、二つの予測画像データの差分E t+1に基づき現在の周期t+1の特徴量Al+1 t+1を求め、この特徴量Al+1 t+1と予測特徴量A(hat)l+1 t+1との差分El+1 t+1を導出する。第l層の予測生成部320は、差分El+1 t+1を基に、周期t+2の実画像データxt+2を予測した予測画像データA(hat)t+2を生成する。このように、現在の周期t+1に得られる実画像データxt+1の代わりに、過去の時点で現在の周期t+1の実画像データxt+1として予測した予測画像データA(hat)を用いて、更に将来の周期t+2の実画像データxt+2を予測するため、より将来の混雑度を表すヒートマップをコンテンツとしてユーザに提供することができる。また、k周期以上先(例えばk≧2)の将来の実画像データxt+kを予測してもよく、この場合、更に将来の混雑度を表すヒートマップをコンテンツとしてユーザに提供することができる。
図11は、情報提供装置100から端末装置10に提供されるコンテンツの他の例を示す図である。例えば、現在の周期がt5である場合に、情報処理装置200が、5周期先の将来の実画像データを予測した場合、t6からt10の其々の周期の予測画像データA(hat) t6〜A(hat)t10を情報提供装置100に送信する。これを受けて情報提供装置100は、図11に例示するように、現在の周期t5までの実画像データxt1〜xt5と、将来の5周期分の予測画像データA(hat)t6〜A(hat)t10とを含むコンテンツを端末装置10に提供する。これによって、一周期分先の将来の混雑度をヒートマップとして表示する場合に比べて、よりユーザの利便性を向上させることができる。
[学習時の処理フロー]
以下、情報処理装置200の学習時の一連の処理の流れをフローチャートに即して説明する。「学習時」とは、運用時に利用される学習モデル、すなわちプレドネット300を学習させる状態である。図12は、情報処理装置200による学習時の一連の処理の流れを示すフローチャートである。本フローチャートの処理は、例えば、所定の周期で繰り返し行われてよい。
まず、学習処理部212は、現在の周期tに情報処理装置側通信部202によって実画像データxが取得されると、実画像データxをプレドネット300に入力し(S300)、情報提供装置100において実画像データxが生成されたときの時刻tよりも一周期n先の将来の時刻t+nの混雑度を画素値とした予測画像データA(hat)を生成する(S302)。
次に、学習処理部212は、周期tの時点で取得された実画像データxと、周期tの時点で生成した予測画像データA(hat)との和y(=x+A(hat))を導出する(S304)。
次に、学習処理部212は、現在の周期がt+nになり、情報処理装置側通信部202によって実画像データxt+nが取得されると、周期t+n時点において取得された実画像データxt+nと、周期t時点の実画像データxおよび予測画像データA(hat)の和yとの差分ΔEを導出する(S306)。
次に、学習処理部212は、誤差逆伝搬法や確率的勾配降下法を利用して、導出した差分ΔEが最小となるようにプレドネット300を学習する(S308)。例えば、学習処理部212は、差分ΔEが最小となるように各層の回帰処理部340を実現するCONVLSTMのパラメータを決定する。CONVLSTMのパラメータは、例えば、入力重み、リカレント重み、ピープホール重み、バイアス重みなどを含む。また、学習処理部212は、抽象化処理部310や予測生成部320、差分導出部330の一部または全部のパラメータを決定してもよい。学習処理部212は、このように決定したパラメータに、深層学習モデル情報232においてプレドネット300のパラメータを更新する。これによって本フローチャートの処理が終了する。
図13は、プレドネット300の学習の流れを模式的に示す図である。図示のように、プレドネット300に実画像データxを入力すると、周期tよりも将来の周期t+nの実画像データxt+nを予測した予測画像データA(hat)が生成される。学習処理部212は、プレドネット300の第l層の予測生成部320から出力された予測画像データA(hat)と、この予測画像データA(hat)の生成時に利用した実画像データxとの和yを求め、これをプレドネット300の出力とする。そして、学習処理部212は、次の処理周期t+nが到来した場合、周期tの出力yと、周期t+nに情報提供装置100から取得される実画像データxt+n、すなわち周期t+nの入力xt+nとの差分ΔEに基づいてプレドネット300を学習する。このように、プレドネット300の後段の層の出力値と前段の層の出力値との差を序々に減らしていくなかで、周期ごとに生成される予測画像データに対して、同じ周期で得られる実画像データ(言い換えれば予測画像データを生成するために同周期においてプレドネット300に入力される実画像データ)を加算し、その加算結果である同周期の実画像データと予測画像データとの和yと、次の周期にプレドネット300に入力される実画像データとの差分ΔEが最小となるように教師ありモデルとしてプレドネット300を学習することで、運用時に、より精度良く予測画像データを生成することができる。
以上説明した第1実施形態によれば、ある時刻tに観測された観測値を画素値とした実画像データxを取得する情報処理装置側通信部202と、実画像データxを用いたディープラーニングによって予め学習されたプレドネット300に基づいて、時刻tの実画像データxから、時刻tよりも将来の時刻t+nに観測されることが予測される観測値を画素値とした予測画像データA(hat) を生成する学習処理部212と、を備え、学習処理部212が、ある対象の時刻τに得られた実画像データxτと、対象の時刻τに観測されることが予測される観測値を画素値とした予測画像データA(hat) τとの比較に基づいて、プレドネット300を学習することによって、好適に将来の観測値を求めることができる。
<第2実施形態>
以下、第2実施形態について説明する。上述した第1実施形態では、プレドネット300に入力される実画像データxが、地図の各座標に対して混雑度が対応付けられた3次元のテンソルデータであるものとして説明した。これに対して、第2実施形態では、プレドネット300に入力される実画像データxが、4次元以上のテンソルデータである点で上述した第1実施形態と相違する。以下、第1実施形態との相違点を中心に説明し、第1実施形態と共通する点については説明を省略する。なお、第2実施形態の説明において、第1実施形態と同じ部分については同一符号を付して説明する。
第2実施形態における実画像データxは、例えば、地図の各座標に対して混雑度が対応付けられていると共に、混雑度の導出時に利用された位置情報の取得時刻が対応付けられた4次元のテンソルデータであってよい。すなわち、実画像データxは、各座標軸の配列と、混雑度の配列と、取得時刻の配列とを組み合わせた多次元配列データであってよい。位置情報の取得時刻は、「観測値の観測時刻」の一例である。
第2実施形態の学習処理部212は、実画像データxが4次元のテンソルデータである場合、この実画像データxを基に予めプレドネット300を学習させておく。これによって、運用時に、時刻別、或いは時間帯別に、将来の混雑度を画素値とした予測画像データを生成することができる。また、実画像データxが位置情報の取得時刻を含む4次元のテンソルデータであることから、曜日や日柄、季節ごとに将来の混雑度を画素値とした予測画像データを生成することができる。これによって、例えば、特定の曜日(例えば金曜日など)、特定の季節、特定の休日(例えば大晦日や元旦など)の予測画像データを生成することができる。
また、実画像データxに画素値として含まれる観測値は、人の混雑度に限られず、自動車や飛行機といった他の移動体の混雑度であってもよいし、大気中の温度や湿度、雨量、花粉などの微粒子物質の濃度など、時間経過に応じて変化する何らかの値であってもよい。
以上説明した第2実施形態によれば、4次元以上の多次元配列データである実画像データに基づいてプレドネット300を学習させるため、運用時に4次元以上の多次元配列データである予測画像データを生成することができる。これにより、例えば、実画像データに時刻の情報が含まれていれば、予測画像データにも時刻の情報が含まれることになるため、予測画像データを含むコンテンツを端末装置10に提供することで、端末装置10を利用するユーザは、どの時間帯が混雑しやすいのかということを把握することができる。この結果、端末装置10を利用するユーザの利便性を更に向上させることができる。
<ハードウェア構成>
上述した実施形態の情報提供装置100および情報処理装置200は、例えば、図14に示すようなハードウェア構成により実現される。図14は、実施形態の情報提供装置100および情報処理装置200のハードウェア構成の一例を示す図である。
情報提供装置100は、NIC100−1、CPU100−2、RAM100−3、ROM100−4、フラッシュメモリやHDDなどの二次記憶装置100−5、およびドライブ装置100−6が、内部バスあるいは専用通信線によって相互に接続された構成となっている。ドライブ装置100−6には、光ディスクなどの可搬型記憶媒体が装着される。二次記憶装置100−5、またはドライブ装置100−6に装着された可搬型記憶媒体に格納されたプログラムがDMAコントローラ(不図示)などによってRAM100−3に展開され、CPU100−2によって実行されることで、情報提供装置側制御部110が実現される。情報提供装置側制御部110が参照するプログラムは、ネットワークNWを介して他の装置からダウンロードされてもよい。
情報処理装置200は、NIC200−1、CPU200−2、RAM200−3、ROM200−4、フラッシュメモリやHDDなどの二次記憶装置200−5、およびドライブ装置200−6が、内部バスあるいは専用通信線によって相互に接続された構成となっている。ドライブ装置200−6には、光ディスクなどの可搬型記憶媒体が装着される。二次記憶装置200−5、またはドライブ装置200−6に装着された可搬型記憶媒体に格納されたプログラムがDMAコントローラ(不図示)などによってRAM200−3に展開され、CPU200−2によって実行されることで、情報処理装置側制御部210が実現される。情報処理装置側制御部210が参照するプログラムは、ネットワークNWを介して他の装置からダウンロードされてもよい。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何ら限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1…情報処理システム、10…端末装置、100…情報提供装置、102…情報提供装置側通信部、110…情報提供装置側制御部、112…ヒートマップ生成部、114…通信制御部、130…情報提供装置側記憶部、132…地図情報、134…位置情報、200…情報処理装置、202…情報処理装置側通信部、210…情報処理装置側制御部、212…学習処理部、214…通信制御部、230…情報処理装置側記憶部、232…深層学習モデル情報

Claims (13)

  1. ある時刻tに観測された観測値を画素値とした第1の画像データを取得する取得部と、
    前記第1の画像データを用いた機械学習によって得られた学習モデルに基づいて、前記取得部により取得された前記第1の画像データから、前記時刻tよりも将来の時刻t+nに観測されることが予測される観測値を画素値とした第2の画像データを生成する学習処理部と、
    を備え、
    前記機械学習は、ある対象の時刻に観測された観測値を画素値とした前記第1の画像データと、前記対象の時刻に観測されることが予測される観測値を画素値とした前記第2の画像データとの比較に基づく機械学習である、
    情報処理装置。
  2. 前記機械学習は、深層学習を含む、
    請求項1に記載の情報処理装置。
  3. 前記学習モデルは、プレドネットである、
    請求項2に記載の情報処理装置。
  4. 前記取得部は、更に、前記時刻t+nに観測された観測値を画素値とした第1の画像データを取得し、
    前記学習処理部は、前記時刻t+nに観測された観測値を画素値とした第1の画像データが前記取得部により取得された場合、前記学習モデルに基づいて、前記第1の画像データから、前記時刻t+nよりも将来の時刻t+knに観測されることが予測される観測値を画素値とした新たな第2の画像データを生成する、
    請求項1から3のうちいずれか1項に記載の情報処理装置。
  5. 前記学習処理部は、前記学習モデルに基づいて、前記時刻t+nに観測されることが予測される観測値を画素値とした第2の画像データから、前記時刻t+nよりも将来の時刻t+knに観測されることが予測される観測値を画素値とした新たな第2の画像データを生成する、
    請求項1から4のうちいずれか1項に記載の情報処理装置。
  6. 前記第1の画像データには、更に、前記観測値の観測時刻が要素として付加されている、
    請求項1から5のうちいずれか1項に記載の情報処理装置。
  7. 前記観測値は、人の混雑の程度を示す混雑度である、
    請求項1から6のうちいずれか1項に記載の情報処理装置。
  8. 前記学習処理部は、
    前記対象の時刻に観測されることが予測される観測値を画素値とした前記第2の画像データと、前記対象の時刻よりも前の時刻の前記第1の画像データとの和を導出し、
    前記導出した和と、前記対象の時刻に観測された観測値を画素値とした前記第1の画像データとの差分に基づく機械学習によって前記学習モデルのパラメータを決定する、
    請求項1から7のうちいずれか1項に記載の情報処理装置。
  9. ある時刻tに観測された観測値を一つの配列として含む第1の多次元配列データを取得する取得部と、
    前記第1の多次元配列データを用いた機械学習によって得られた学習モデルに基づいて、前記取得部により取得された前記第1の多次元配列データから、前記時刻tよりも将来の時刻t+nに観測されることが予測される観測値を一つの配列として含む第2の多次元配列データを生成する学習処理部と、
    を備え、
    前記機械学習は、ある対象の時刻に観測された観測値を一つの配列として含む前記第1の多次元配列データと、前記対象の時刻に観測されることが予測される観測値を一つの配列として含む前記第2の多次元配列データとの比較に基づく機械学習である、
    情報処理装置。
  10. ある時刻tに観測された観測値を一つの配列として含む第1の多次元配列データと、前記時刻tよりも将来の時刻t+nに観測されることが予測される観測値を一つの配列として含む第2の多次元配列データとの和に基づいて決定されたパラメータを含む、
    データ構造。
  11. 前記和と、前記時刻t+nに観測された観測値を一つの配列として含む第1の多次元配列データとの差分に基づいて決定された前記パラメータを含む、
    請求項10に記載のデータ構造。
  12. コンピュータが、
    ある時刻tに観測された観測値を画素値とした第1の画像データを取得し、
    前記第1の画像データを用いた機械学習によって得られた学習モデルに基づいて、前記取得した前記第1の画像データから、前記時刻tよりも将来の時刻t+nに観測されることが予測される観測値を画素値とした第2の画像データを生成し、
    前記機械学習は、ある対象の時刻に観測された観測値を画素値とした前記第1の画像データと、前記対象の時刻に観測されることが予測される観測値を画素値とした前記第2の画像データとの比較に基づく機械学習である、
    情報処理方法。
  13. コンピュータに、
    ある時刻tに観測された観測値を画素値とした第1の画像データを取得する処理と、
    前記第1の画像データを用いた機械学習によって得られた学習モデルに基づいて、前記取得した前記第1の画像データから、前記時刻tよりも将来の時刻t+nに観測されることが予測される観測値を画素値とした第2の画像データを生成する処理と、
    を実行させるためのプログラムであって、
    前記機械学習は、ある対象の時刻に観測された観測値を画素値とした前記第1の画像データと、前記対象の時刻に観測されることが予測される観測値を画素値とした前記第2の画像データとの比較に基づく機械学習である、
    プログラム。
JP2018006575A 2018-01-18 2018-01-18 情報処理装置、学習済みモデル、情報処理方法、およびプログラム Active JP6843780B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018006575A JP6843780B2 (ja) 2018-01-18 2018-01-18 情報処理装置、学習済みモデル、情報処理方法、およびプログラム
US16/240,580 US11238576B2 (en) 2018-01-18 2019-01-04 Information processing device, data structure, information processing method, and non-transitory computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018006575A JP6843780B2 (ja) 2018-01-18 2018-01-18 情報処理装置、学習済みモデル、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2019125251A true JP2019125251A (ja) 2019-07-25
JP6843780B2 JP6843780B2 (ja) 2021-03-17

Family

ID=67214117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018006575A Active JP6843780B2 (ja) 2018-01-18 2018-01-18 情報処理装置、学習済みモデル、情報処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US11238576B2 (ja)
JP (1) JP6843780B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110415521A (zh) * 2019-07-31 2019-11-05 京东城市(北京)数字科技有限公司 交通数据的预测方法、装置和计算机可读存储介质
JP7195659B1 (ja) 2021-08-04 2022-12-26 株式会社日豊 動画生成装置、動画生成方法、プログラム、動画生成システム
WO2023162482A1 (ja) * 2022-02-25 2023-08-31 株式会社天地人 降水予測システム、降水予測方法、プログラム、基地局選択システム及び基地局選択方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11100793B2 (en) * 2019-01-15 2021-08-24 Waycare Technologies Ltd. System and method for detection and quantification of irregular traffic congestion
US11138003B2 (en) * 2019-04-02 2021-10-05 Taplytics Inc. Methods and systems for automatic determination of a device-specific configuration for a software application operating on a user device
US10740403B1 (en) * 2019-08-23 2020-08-11 Capital One Services Llc Systems and methods for identifying ordered sequence data
CN110728053B (zh) * 2019-10-11 2022-04-29 民航成都信息技术有限公司 航空器的保障业务节点的时间预测方法、装置及电子设备
CN111950812B (zh) * 2020-08-31 2022-05-24 福建农林大学 一种自动识别与预测雨量的方法及其装置
US20220327361A1 (en) * 2020-09-11 2022-10-13 Boe Technology Group Co., Ltd. Method for Training Joint Model, Object Information Processing Method, Apparatus, and System

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08106448A (ja) * 1994-10-04 1996-04-23 Nippon Telegr & Teleph Corp <Ntt> 気象予測装置
JPH09145851A (ja) * 1995-11-28 1997-06-06 Nippon Telegr & Teleph Corp <Ntt> 気象予測装置
JPH09257951A (ja) * 1996-03-22 1997-10-03 Nippon Telegr & Teleph Corp <Ntt> 気象予測装置
JPH10239452A (ja) * 1997-02-27 1998-09-11 Nippon Telegr & Teleph Corp <Ntt> 降雨降雪予測装置
JPH11328407A (ja) * 1998-05-11 1999-11-30 Nippon Telegr & Teleph Corp <Ntt> 時系列画像予測方法、装置、および時系列画像予測プログラムを記録した記録媒体
JP2000057475A (ja) * 1998-08-05 2000-02-25 Nippon Telegr & Teleph Corp <Ntt> 交通状況予測方法及び装置、ならびにその制御を記録した記録媒体
WO2011158363A1 (ja) * 2010-06-17 2011-12-22 株式会社四国総合研究所 日射強度予測システムと太陽光発電出力予測システム
JP2012022530A (ja) * 2010-07-14 2012-02-02 Nippon Telegr & Teleph Corp <Ntt> 行動予測装置、方法及びプログラム
JP2012042410A (ja) * 2010-08-23 2012-03-01 Toshiba Corp 気象レーダ観測情報提供システムおよび気象レーダ観測情報提供方法
JP2013099143A (ja) * 2011-11-01 2013-05-20 Nippon Telegr & Teleph Corp <Ntt> 予測モデル構築装置、方法、及びプログラム、並びに発電量予測装置、及び方法
JP2014059729A (ja) * 2012-09-18 2014-04-03 Toshiba Corp 物体検出・識別装置及びその方法とその物体検出・識別に用いられる辞書データ生成方法
WO2017033443A1 (ja) * 2015-08-27 2017-03-02 日本電気株式会社 渋滞予測システム、渋滞予測方法、及び、記録媒体
JP2017203773A (ja) * 2016-05-10 2017-11-16 株式会社メテオテック・ラボ 海上気象予報提供方法
WO2018235777A1 (ja) * 2017-06-20 2018-12-27 国立大学法人静岡大学 画像データ加工装置、植物栽培システム及び画像データ加工方法
JP2020091702A (ja) * 2018-12-06 2020-06-11 オリンパス株式会社 撮像装置および撮像方法

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6230306B2 (ja) 2013-07-09 2017-11-15 株式会社ゼンリンデータコム 混雑度パターンの特定及び混雑度の予測のための情報処理装置、情報処理方法及びプログラム
US9420331B2 (en) * 2014-07-07 2016-08-16 Google Inc. Method and system for categorizing detected motion events
CN104299261B (zh) * 2014-09-10 2017-01-25 深圳大学 人体三维成像方法及系统
CN108701323B (zh) * 2016-03-21 2023-11-10 宝洁公司 用于提供定制的产品推荐的系统和方法
US11989821B2 (en) * 2016-03-25 2024-05-21 Outward, Inc. Arbitrary view generation
US11232627B2 (en) * 2016-03-25 2022-01-25 Outward, Inc. Arbitrary view generation
US11989820B2 (en) * 2016-03-25 2024-05-21 Outward, Inc. Arbitrary view generation
US11068781B2 (en) * 2016-10-07 2021-07-20 Nvidia Corporation Temporal ensembling for semi-supervised learning
US10110868B2 (en) * 2016-12-22 2018-10-23 Aestatix LLC Image processing to determine center of balance in a digital image
US9836654B1 (en) * 2017-02-28 2017-12-05 Kinosis Ltd. Surgical tracking and procedural map analysis tool
US10891545B2 (en) * 2017-03-10 2021-01-12 International Business Machines Corporation Multi-dimensional time series event prediction via convolutional neural network(s)
US10525341B2 (en) * 2017-04-24 2020-01-07 Intel Corporation Mechanisms for reducing latency and ghosting displays
WO2018208791A1 (en) * 2017-05-08 2018-11-15 Aquifi, Inc. Systems and methods for inspection and defect detection using 3-d scanning
KR102308437B1 (ko) * 2017-07-07 2021-10-06 주식회사 고영테크놀러지 대상체의 외부의 검사를 최적화하기 위한 장치 및 그 방법
US11176651B2 (en) * 2017-10-18 2021-11-16 Anthony C. Liberatori, Jr. Computer-controlled 3D analysis of collectible objects
JP2019082937A (ja) * 2017-10-31 2019-05-30 パナソニックIpマネジメント株式会社 候補地評価システムおよび候補地評価方法
US11062479B2 (en) * 2017-12-06 2021-07-13 Axalta Coating Systems Ip Co., Llc Systems and methods for matching color and appearance of target coatings
US10417502B2 (en) * 2017-12-15 2019-09-17 Accenture Global Solutions Limited Capturing series of events in monitoring systems
US10580137B2 (en) * 2018-01-30 2020-03-03 International Business Machines Corporation Systems and methods for detecting an indication of malignancy in a sequence of anatomical images
WO2019204520A1 (en) * 2018-04-17 2019-10-24 VideaHealth, Inc. Dental image feature detection
EP3561726A1 (en) * 2018-04-23 2019-10-30 Aptiv Technologies Limited A device and a method for processing data sequences using a convolutional neural network
US10740694B2 (en) * 2018-08-10 2020-08-11 Vis Machina Inc. System and method for capture and adaptive data generation for training for machine vision
US10383694B1 (en) * 2018-09-12 2019-08-20 Johnson & Johnson Innovation—Jjdc, Inc. Machine-learning-based visual-haptic feedback system for robotic surgical platforms
US20200175361A1 (en) * 2018-11-30 2020-06-04 Alibaba Group Holding Limited Partitioning of deep learning inference with dynamic offloading
US10796482B2 (en) * 2018-12-05 2020-10-06 Snap Inc. 3D hand shape and pose estimation
JP7271216B2 (ja) * 2019-02-19 2023-05-11 株式会社東芝 情報処理装置、情報処理方法、およびプログラム
US11410058B2 (en) * 2019-03-29 2022-08-09 QuantumiD Technologies Inc. Artificial intelligence system for estimating excess non-sapient payload capacity on mixed-payload aeronautic excursions
US11138751B2 (en) * 2019-07-06 2021-10-05 Toyota Research Institute, Inc. Systems and methods for semi-supervised training using reprojected distance loss
US10758309B1 (en) * 2019-07-15 2020-09-01 Digital Surgery Limited Methods and systems for using computer-vision to enhance surgical tool control during surgeries
KR20190109324A (ko) * 2019-07-26 2019-09-25 엘지전자 주식회사 로봇 충전대의 위치를 추천하기 위한 방법, 장치 및 시스템
US11941813B2 (en) * 2019-08-23 2024-03-26 Nantcell, Inc. Systems and methods for performing segmentation based on tensor inputs
US20210097691A1 (en) * 2019-09-30 2021-04-01 Nvidia Corporation Image generation using one or more neural networks
JP7239511B2 (ja) * 2020-02-26 2023-03-14 株式会社日立製作所 画像予測システム

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08106448A (ja) * 1994-10-04 1996-04-23 Nippon Telegr & Teleph Corp <Ntt> 気象予測装置
JPH09145851A (ja) * 1995-11-28 1997-06-06 Nippon Telegr & Teleph Corp <Ntt> 気象予測装置
JPH09257951A (ja) * 1996-03-22 1997-10-03 Nippon Telegr & Teleph Corp <Ntt> 気象予測装置
JPH10239452A (ja) * 1997-02-27 1998-09-11 Nippon Telegr & Teleph Corp <Ntt> 降雨降雪予測装置
JPH11328407A (ja) * 1998-05-11 1999-11-30 Nippon Telegr & Teleph Corp <Ntt> 時系列画像予測方法、装置、および時系列画像予測プログラムを記録した記録媒体
JP2000057475A (ja) * 1998-08-05 2000-02-25 Nippon Telegr & Teleph Corp <Ntt> 交通状況予測方法及び装置、ならびにその制御を記録した記録媒体
WO2011158363A1 (ja) * 2010-06-17 2011-12-22 株式会社四国総合研究所 日射強度予測システムと太陽光発電出力予測システム
JP2012022530A (ja) * 2010-07-14 2012-02-02 Nippon Telegr & Teleph Corp <Ntt> 行動予測装置、方法及びプログラム
JP2012042410A (ja) * 2010-08-23 2012-03-01 Toshiba Corp 気象レーダ観測情報提供システムおよび気象レーダ観測情報提供方法
JP2013099143A (ja) * 2011-11-01 2013-05-20 Nippon Telegr & Teleph Corp <Ntt> 予測モデル構築装置、方法、及びプログラム、並びに発電量予測装置、及び方法
JP2014059729A (ja) * 2012-09-18 2014-04-03 Toshiba Corp 物体検出・識別装置及びその方法とその物体検出・識別に用いられる辞書データ生成方法
WO2017033443A1 (ja) * 2015-08-27 2017-03-02 日本電気株式会社 渋滞予測システム、渋滞予測方法、及び、記録媒体
JP2017203773A (ja) * 2016-05-10 2017-11-16 株式会社メテオテック・ラボ 海上気象予報提供方法
WO2018235777A1 (ja) * 2017-06-20 2018-12-27 国立大学法人静岡大学 画像データ加工装置、植物栽培システム及び画像データ加工方法
JP2020091702A (ja) * 2018-12-06 2020-06-11 オリンパス株式会社 撮像装置および撮像方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
WILLIAM LOTTER ET AL.: "DEEP PREDICTIVE CODING NETWORKS FOR VIDEO PREDICTION AND UNSUPERVISED LEARNING", [ONLINE], JPN7019003147, 1 March 2017 (2017-03-01), pages 1 - 18, ISSN: 0004123896 *
三木: "PredNetを用いた混雑レーダーの未来予測", [ONLINE], JPN7020003538, 6 March 2018 (2018-03-06), ISSN: 0004431422 *
原田 達也: "物体操作に向けたセマンティクス理解", 日本ロボット学会誌, JPN6019037487, January 2017 (2017-01-01), pages 17 - 21, ISSN: 0004123899 *
茂木学,外7名: "2020 MICE−展示会×ICTによる新たなおもてなし", NTT技術ジャーナル, vol. 第28巻 第10号, JPN6019037482, October 2016 (2016-10-01), pages 35 - 39, ISSN: 0004123897 *
藤山千紘,外4名: "大脳皮質における予測符号化を模倣した動画像予測モデルと脳活動の相関に関する考察", THE 31ST ANNUAL CONFERENCE OF THE JAPANESE SOCIETY FOR ARTIFICIAL INTELLIGENCE, JPN6019037480, 2017, pages 1 - 3, ISSN: 0004123895 *
関谷翠,外3名: "低ランク近似を用いた深層学習の行列積の高速化", 情報処理学会研究報告, JPN6019037485, 9 March 2017 (2017-03-09), pages 1 - 7, ISSN: 0004123898 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110415521A (zh) * 2019-07-31 2019-11-05 京东城市(北京)数字科技有限公司 交通数据的预测方法、装置和计算机可读存储介质
JP7195659B1 (ja) 2021-08-04 2022-12-26 株式会社日豊 動画生成装置、動画生成方法、プログラム、動画生成システム
JP2023023112A (ja) * 2021-08-04 2023-02-16 株式会社日豊 動画生成装置、動画生成方法、プログラム、動画生成システム
WO2023162482A1 (ja) * 2022-02-25 2023-08-31 株式会社天地人 降水予測システム、降水予測方法、プログラム、基地局選択システム及び基地局選択方法

Also Published As

Publication number Publication date
US20190220969A1 (en) 2019-07-18
US11238576B2 (en) 2022-02-01
JP6843780B2 (ja) 2021-03-17

Similar Documents

Publication Publication Date Title
JP6843780B2 (ja) 情報処理装置、学習済みモデル、情報処理方法、およびプログラム
Poniszewska-Maranda et al. Studying usability of AI in the IoT systems/paradigm through embedding NN techniques into mobile smart service system
US10429801B2 (en) Adaptive control methods for buildings
US20220139070A1 (en) Learning apparatus, estimation apparatus, data generation apparatus, learning method, and computer-readable storage medium storing a learning program
JP7264376B2 (ja) 汎用学習済モデルの生成方法
CN113408797B (zh) 流转量预测多时序模型生成方法、信息发送方法和装置
CN108074278A (zh) 视频呈现方法、装置和设备
KR102297195B1 (ko) 개체군 분산 모사 모델 기반 개체군 분산 예측 장치 및 이를 이용한 개체군 분산 예측 방법
Andersson et al. Heterogeneous wireless sensor networks for flood prediction decision support systems
Alkema et al. The United Nations probabilistic population projections: An introduction to demographic forecasting with uncertainty
Li et al. Capsules TCN network for urban computing and intelligence in urban traffic prediction
Kitthamkesorn et al. Elastic demand with weibit stochastic user equilibrium flows and application in a motorised and non-motorised network
Shi et al. Inferring Plasmodium vivax transmission networks from tempo-spatial surveillance data
US10642232B2 (en) Adaptive control systems for buildings with redundant circuitry
US20190033799A1 (en) Adaptive control systems for buildings with redundant circuitry
WO2022048172A1 (zh) 深度学习模型的可解释性参数获取方法、装置、计算机设备及存储介质
WO2020098982A1 (en) Method and devices for fitting a garment onto a body
US10241477B2 (en) Adaptive control methods for buildings with redundant circuitry
Resch et al. Real-time Geo-awareness–Sensor Data Integration for Environmental Monitoring in the City
CN115953330A (zh) 虚拟场景图像的纹理优化方法、装置、设备和存储介质
Gu et al. Coupling systems thinking and geodesign processes in land-use modelling, design, and planning
WO2021014541A1 (ja) 学習装置、推論装置、学習方法、推論方法、及び学習プログラム
KR20230050893A (ko) 3차원 가상모델 제공을 위한 홀 필링 방법 및 그를 위한 컴퓨팅 장치
Rozhnov Investigation of new features of the virtual semantic environment prototype in the development and application of infrastructure of highly automated and intelligent transport systems
CN112465117A (zh) 合约生成模型构建方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210224

R150 Certificate of patent or registration of utility model

Ref document number: 6843780

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350