JP2018128265A - サーバ装置、判別プログラム及び判別システム - Google Patents

サーバ装置、判別プログラム及び判別システム Download PDF

Info

Publication number
JP2018128265A
JP2018128265A JP2017019293A JP2017019293A JP2018128265A JP 2018128265 A JP2018128265 A JP 2018128265A JP 2017019293 A JP2017019293 A JP 2017019293A JP 2017019293 A JP2017019293 A JP 2017019293A JP 2018128265 A JP2018128265 A JP 2018128265A
Authority
JP
Japan
Prior art keywords
image
road surface
polarization
unit
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017019293A
Other languages
English (en)
Other versions
JP7013651B2 (ja
Inventor
裕介 金箱
Yusuke Kanebako
裕介 金箱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017019293A priority Critical patent/JP7013651B2/ja
Publication of JP2018128265A publication Critical patent/JP2018128265A/ja
Application granted granted Critical
Publication of JP7013651B2 publication Critical patent/JP7013651B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】 路面状態の判別精度を向上させる。【解決手段】 サーバ装置であって、路面を撮影することで得られる輝度画像と偏光画像とを取得する取得手段と、前記輝度画像と前記偏光画像とを連結した画像を低次元に圧縮することで、該画像の画像構造を示す情報を抽出する抽出手段と、前記輝度画像の画素値の統計値と、前記偏光画像の画素値の統計値と、前記画像構造を示す情報とを用いて、前記路面の状態を判別する判別手段とを有することを特徴とする。【選択図】図13

Description

本発明は、サーバ装置、判別プログラム及び判別システムに関する。
車両が走行する道路を管理する管理業務において、路面状態を把握することは重要である。特に、冬季においては、凍結や積雪等の路面状態を把握し、凍結防止剤の散布位置を決定したり、散布量を調整するなどの対応が求められる。
一方で、従来より、偏光カメラを用いて路面を撮影し、偏光画像を用いて路面状態を判別する判別システムが知られている。当該判別システムによれば、輝度画像のみを用いて判別した場合と比較して、特定の路面状態について、判別精度を向上させることができる。
しかしながら、上記判別システムを用いた場合であっても、乾燥、湿潤、凍結、積雪等のように様々に変化する路面状態を精度よく判別することは容易ではなく、更なる判別精度の向上が求められている。
本発明は、上記課題に鑑みてなされたものであり、路面状態の判別精度を向上させることを目的とする。
本発明の各実施形態に係るサーバ装置は、以下のような構成を有する。即ち、
路面を撮影することで得られる輝度画像と偏光画像とを取得する取得手段と、
前記輝度画像と前記偏光画像とを連結した画像を低次元に圧縮することで、該画像の画像構造を示す情報を抽出する抽出手段と、
前記輝度画像の画素値の統計値と、前記偏光画像の画素値の統計値と、前記画像構造を示す情報とを用いて、前記路面の状態を判別する判別手段とを有することを特徴とする。
本発明の各実施形態によれば、路面状態の判別精度を向上させることができる。
判別システムのシステム構成の一例を示す図である。 計測装置の一構成例を示す図である。 偏光カメラのハードウェア構成の一例を示す図である。 計測情報の一例を示す図である。 サーバ装置のハードウェア構成の一例を示す図である。 学習画像情報の一例を示す図である。 計測情報リストの一例を示す図である。 第1生成部の機能構成の一例を示す図である。 圧縮器生成部の処理を説明するための図である。 他の圧縮器生成部の処理を説明するための図である。 第2生成部の機能構成の一例を示す図である。 判別器生成部の処理を説明するための図である。 路面状態判別部の機能構成の一例を示す図である。 画像構造情報抽出部における画像構造情報の抽出処理を説明するための図である。 判別部における判別処理を説明するための図である。 路面状態判別処理の流れを示すフローチャートである。 路面状態情報の一例を示す図である。 判別結果に対する評価結果の一例を示す図である。 路面状態判別部の機能構成の他の一例を示す図である。
以下、各実施形態の詳細について添付の図面を参照しながら説明する。なお、各実施形態に係る明細書及び図面の記載に際して、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。
[第1の実施形態]
<1.判別システムのシステム構成>
はじめに、第1の実施形態に係る判別システムのシステム構成について説明する。図1は、判別システムのシステム構成の一例を示す図である。
図1に示すように、判別システム100は、計測装置110と、サーバ装置120と、端末130とを有する。計測装置110とサーバ装置120とはネットワーク140を介して接続される。また、サーバ装置120と端末130とはネットワーク140を介して接続される。
計測装置110は、車両111に搭載され、車両111の走行中に、計測情報を取得する。計測情報とは、路面の状態を判別するのに用いられる情報である。計測装置110は、取得した計測情報をネットワーク140を介してサーバ装置120に送信する。
サーバ装置120には、第1生成プログラム、第2生成プログラム、路面状態判別プログラムがインストールされており、当該プログラムが実行されることで、サーバ装置120は、第1生成部121、第2生成部122、路面状態判別部123として機能する。
第1生成部121は、路面状態が既知の輝度画像及び偏光画像を含む学習画像情報を学習画像情報格納部124より読み出し、輝度画像と偏光画像とを連結することで得られる画像を用いた機械学習により「圧縮器」を生成する。本実施形態において、圧縮器とは、画像を圧縮することで「画像構造情報」を抽出するニューラルネットワークである(したがって、"圧縮器を生成する"、とは、機械学習によりニューラルネットワークのパラメータを決定し、設定することに他ならない)。また、画像構造情報とは、画像の見た目の情報を保持したまま低次元に圧縮することで得られる情報である。第1生成部121は、生成した圧縮器を、「画像構造情報抽出部」として第2生成部122及び路面状態判別部123に組み込む。
第2生成部122は、学習画像情報を学習画像情報格納部124より読み出し、輝度画像、偏光画像、露光時間を用いた機械学習により「判別器」を生成する。本実施形態において、判別器とは、計測情報に基づいて路面状態を判別するためのニューラルネットワークである(したがって、"判別器を生成する"、とは、機械学習によりニューラルネットワークのパラメータを決定し、設定することに他ならない)。第2生成部122は、生成した判別器を、「判別部」として路面状態判別部123に組み込む。
路面状態判別部123は、第1生成部121により画像構造抽出部として組み込まれた圧縮器と、第2生成部122により判別部として組み込まれた判別器とを含む。路面状態判別部123は、計測装置110より送信され、計測情報格納部125に格納された計測情報を読み出し、当該計測情報に基づき各位置での路面状態を判別し、判別結果を路面状態情報として端末130に送信する。
端末130は、サーバ装置120より送信された路面状態情報を取得し、各位置での路面状態に基づいて、例えば、凍結防止剤の散布量を算出する。また、端末130は、取得した路面状態情報に基づいて、地図情報に対してマーキングを施し、当該道路を走行する車両の運転者に、各位置での路面状態がわかる地図情報を提供する。
<2.計測装置の構成>
次に、計測装置110の構成について説明する。図2は、計測装置の一構成例を示す図である。図2に示すように、計測装置110は、GPS(Global Positioning System)201、通信装置202、制御装置203、照明装置204、偏光カメラ205を有する。
GPS201は、車両111の現在位置を示す位置情報を逐次制御装置203に通知する。制御装置203は、照明装置204のオンオフ制御、偏光カメラ205の撮影制御を行うとともに、偏光カメラ205にて撮影されたP成分画像及びS成分画像に基づき、偏光画像及び輝度画像を生成する。また、制御装置203は、P成分画像及びS成分画像が撮影された際の露光時間を偏光カメラ205から取得し、生成した偏光画像及び輝度画像、並びに、通知された位置情報とともに、通信装置202に通知する。
通信装置202は、制御装置203より通知された、偏光画像、輝度画像、位置情報、露光時間を、計測情報として、サーバ装置120に送信する。
なお、上記説明では、制御装置203において偏光画像及び輝度画像を生成するものとしたが、偏光画像及び輝度画像は、サーバ装置120において生成するように構成してもよい。この場合、制御装置203では、P成分画像及びS成分画像を、露光時間、位置情報とともに通信装置202に通知し、通信装置202では、P成分画像、S成分画像、位置情報、露光時間を、計測情報として、サーバ装置120に送信する。
<3.偏光カメラのハードウェア構成>
次に、偏光カメラ205のハードウェア構成について説明する。本実施形態において、偏光カメラ205は、領域分割偏光フィルタを有しているものとする。
図3は、偏光カメラのハードウェア構成の一例を示す図である。このうち、図3(a)は、偏光カメラ205の光学フィルタ304と撮像素子305との位置関係を正面から見た様子を示している。また、図3(b)は、光学フィルタ304と撮像素子305との位置関係を側面から見た様子を示している。
図3(a)、(b)に示すように、光学フィルタ304は、フィルタ基板301、充填層302、偏光フィルタ層303を含む。フィルタ基板301は、撮像レンズを介して光学フィルタ304に入射する入射光を透過する透明な基板である。フィルタ基板301の撮像素子305側の面には、偏光フィルタ層303が形成されており、偏光フィルタ層303を覆うように、充填層302が形成されている。
光学フィルタ304に入射した光のうち、偏光フィルタ層303を透過した光は、撮像素子305の画素領域に入射する。偏光フィルタ層303には、撮像素子305の画素サイズに対応した偏光子が領域分割して形成されている。
偏光フィルタ層303には、偏光子として、S偏光成分透過領域とP偏光成分透過領域とが含まれる。なお、図3(a)の例は、S偏光成分透過領域とP偏光成分透過領域とを左右方向に交互に配置した場合を示しているが、S偏光成分透過領域とP偏光成分透過領域とは、短冊状に配置してもよい。
<4.計測情報の説明>
次に、計測装置110により送信される計測情報について説明する。図4は、計測情報の一例を示す図である。図4に示すように、計測装置110の偏光カメラ205は、時刻t、t、t、t、・・・の各時刻において、S成分画像401_1、・・・、401_4・・・、P成分画像402_1、・・・、404_2・・・を生成する。
計測装置110の制御装置203は、例えば、偏光カメラ205より送信されるS成分画像401_1、P成分画像402_1に基づいて、偏光画像403_1を生成する。具体的には、制御装置203は、下式に基づいて偏光画像を生成する。
Figure 2018128265
また、計測装置110の制御装置203は、例えば、偏光カメラ205より送信されるS成分画像401_1、P成分画像402_1に基づいて、輝度画像404_1を生成する。具体的には、制御装置203は、下式に基づいて輝度画像を生成する。
Figure 2018128265
制御装置203は、生成した偏光画像403_1と、輝度画像404_1と、位置情報405_1と、露光時間406_1とを対応付けて計測情報として通信装置202に通知する。同様に、時刻t、t、t、・・・においても、それぞれ、偏光画像403_2〜403_4、輝度画像404_2〜404_4、位置情報405_2〜405_4、露光時間406_2〜406_4を対応付けて計測情報として通信装置202に通知する。
これにより、通信装置202では、各時刻における偏光画像と輝度画像と位置情報と露光時間とが対応付けられた計測情報を、サーバ装置120に送信することができる。
<5.サーバ装置のハードウェア構成>
次に、サーバ装置120のハードウェア構成について説明する。図5は、サーバ装置のハードウェア構成の一例を示す図である。図5に示すように、サーバ装置120は、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503を有する。CPU501、ROM502、RAM503は、いわゆるコンピュータを形成する。
また、サーバ装置120は、補助記憶装置504、表示装置505、操作装置506、I/F(Interface)装置507、ドライブ装置508を有する。なお、サーバ装置120の各部は、バス509を介して相互に接続されている。
CPU501は、補助記憶装置504にインストールされている各種プログラム(例えば、第1生成プログラム、第2生成プログラム、路面状態判別プログラム等)を実行するデバイスである。
ROM502は、不揮発性メモリである。ROM502は、補助記憶装置504にインストールされている各種プログラムをCPU501が実行するために必要な各種プログラム、データ等を格納する、主記憶デバイスとして機能する。具体的には、ROM502はBIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を格納する。
RAM503は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の揮発性メモリである。RAM503は、補助記憶装置504にインストールされている各種プログラムがCPU501によって実行される際に展開される作業領域を提供する、主記憶デバイスとして機能する。
補助記憶装置504は、各種プログラムや、各種プログラムが実行されることで生成される情報、ならびに各種プログラムが実行される際に用いられる情報を格納する補助記憶デバイスである。学習画像情報格納部124、計測情報格納部125は、補助記憶装置504において実現される。
表示装置505は、サーバ装置120の内部情報を表示する表示デバイスである。操作装置506は、サーバ装置120の管理者がサーバ装置120に対して各種指示を入力する際に用いる入力デバイスである。
I/F装置507は、ネットワーク140に接続し、計測装置110、端末130と通信を行うための通信デバイスである。
ドライブ装置508は記録媒体510をセットするためのデバイスである。ここでいう記録媒体510には、CD−ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体510には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。
なお、補助記憶装置504に格納される各種プログラムは、例えば、配布された記録媒体510がドライブ装置508にセットされ、該記録媒体510に記録された各種プログラムがドライブ装置508により読み出されることでインストールされるものとする。
<6.学習画像情報の説明>
次に、学習画像情報格納部124に格納される学習画像情報について説明する。図6は、学習画像情報の一例を示す図である。
図6に示すように、学習画像情報600には情報の項目として、"路面状態"、"ファイル名1"、"ファイル名2"、"ファイル名3"が含まれる。
"路面状態"には、判別すべき路面状態の種類が格納される。図6の例は、路面状態として、「乾燥」、「湿潤」、「凍結」、「積雪」の4種類が判別されることを示している。
"ファイル名1"には、目視により路面状態が判断された路面を撮影することで得られた各輝度画像のファイルが格納される。図6の例は、目視により「乾燥」と判断された路面を撮影することで得られた輝度画像が500枚、目視により「湿潤」と判断された路面を撮影することで得られた輝度画像が500枚格納されていることを示している。また、図6の例は、目視により「凍結」と判断された路面を撮影することで得られた輝度画像が500枚、目視により「積雪」と判断された路面を撮影することで得られた輝度画像が500枚格納されていることを示している。
"ファイル名2"には、目視により路面状態が判断された路面を撮影することで得られた各偏光画像のファイルが格納される。図6の例は、目視により「乾燥」と判断された路面を撮影することで得られた偏光画像が500枚、目視により「湿潤」と判断された路面を撮影することで得られた偏光画像が500枚格納されていることを示している。また、図6の例は、目視により「凍結」と判断された路面を撮影することで得られた偏光画像が500枚、目視により「積雪」と判断された路面を撮影することで得られた偏光画像が500枚格納されていることを示している。
"ファイル名3"には、対応する輝度画像、偏光画像を生成した際の露光時間に関する情報が格納される。
<7.計測情報リストの説明>
次に、計測情報格納部125に格納される計測情報リストについて説明する。図7は、計測情報リストの一例を示す図である。
図7に示すように、計測情報リスト700には情報の項目として、"ファイル名"、"備考"が含まれる。
"ファイル名"には、計測装置110より送信された計測情報のファイルが格納される。"備考"には、対応する計測情報に含まれる位置情報により特定される道路を表す情報が格納される。
図7の例は、ファイル名=「計測情報1」の計測情報は、「国道XX号線のYキロポスト〜Yキロポスト」までの区間の道路の路面を計測することで得た計測情報であることを示している。また、ファイル名=「計測情報2」の計測情報は、「国道XX号線のYキロポスト〜Yキロポスト」までの区間の道路の路面を計測することで得た計測情報であることを示している。
<8.サーバ装置の各部の説明>
次に、サーバ装置120の各部(第1生成部121、第2生成部122、路面状態判別部123)の詳細について説明する。
<8.1 第1生成部121の説明>
はじめに、第1生成部121の詳細について説明する。図8は、第1生成部の機能構成の一例を示す図である。図8に示すように、第1生成部121は、学習画像情報入力部801、画像連結部802、圧縮器生成部803、比較部804を有する。
学習画像情報入力部801は、学習画像情報格納部124より、輝度画像及び偏光画像を順次読み出し、画像連結部802に通知する。
画像連結部802は、輝度画像と偏光画像とを重ね合わせるように連結させ、1枚の画像を生成する。
圧縮器生成部803は生成手段の一例であり、第2生成部122及び路面状態判別部123に画像構造情報抽出部として組み込むための圧縮器を生成する。
圧縮器生成部803は、Autoencoder(オートエンコーダ)により構成されており、画像連結部802において生成された画像を順次入力データとして入力し、出力データが入力データと等しくなるようにパラメータを決定する。これにより、圧縮器生成部803は、学習画像情報600を用いた機械学習により決定されたパラメータを有するニューラルネットワークである、圧縮器を生成することができる。
比較部804は、画像連結部802において生成された入力データと、該入力データが順次入力されることで圧縮器生成部803より順次出力される出力データとを比較し、両者が等しくなるように、パラメータを変更していく。比較部804は、変更したパラメータを圧縮器生成部803に入力する。
図9は、圧縮器生成部の具体例を示す図である。図9に示すように、Autoencoderは、入力層と出力層とが同じ数のユニット(入力データの画素数に等しい数のユニット)により構成され、中間層は、入力層よりも少ない数のユニットにより構成される。
圧縮器生成部803において、入力層に入力される入力データ(x)から中間層にて出力される中間データ(h)への伝播(エンコード)は、下式により表すことができる。
Figure 2018128265
また、圧縮器生成部803において、中間層にて出力される中間データ(h)から出力層にて出力される出力データ(y)への伝播(デコード)は、下式により表すことができる。
Figure 2018128265
Autoencoderは、入力データ(x)と出力データ(y)とが同じになるように、パラメータW、W'、b、b'を変更する。具体的には、比較部804は下式に基づいて、パラメータW、W'、b、b'を変更する。
Figure 2018128265
なお、W、W'は、次層への結合係数、b及びb'はニューロンが持つ値である。また、関数f及びf'にはシグモイド関数、双曲線正接関数等が用いられるものとする。
このように、学習画像情報600を用いた機械学習により、パラメータW、W'、b、b'が決定されたAutoencoderによれば、入力データを低次元に圧縮することで得られる画像構造情報を、中間層において抽出することができる。
圧縮器生成部803では、パラメータが決定されたAutoencoderの入力層と中間層とを含む圧縮器を、画像構造情報抽出部として、第2生成部122及び路面状態判別部123に組み込む。
図10は、圧縮器生成部の他の具体例を示す図である。図10(a)は、Autoencoderの一例である、Convolutional Autoencoder(畳み込みオートエンコーダ)を示したものである。Convolutional Autoencoderは、畳み込み層(画像の局所的な特徴を担う層)とプーリング層(局所ごとに特徴をまとめあげる層)とを有するオートエンコーダである。Convolutional Autoencoderは、ConvolutionとDeconvolutionとを繰り返すことで出力データを算出し、比較部804は、入力データと出力データとが等しくなるようにパラメータを順次変更していく。これにより、圧縮器生成部803は、学習画像情報600を用いた機械学習によりに決定されたパラメータを有する圧縮器を生成することができる。
図10(b)は、学習画像情報600を用いた機械学習により決定されたパラメータが設定されたConvolutional Autoencoderの各畳み込み層における処理結果の一例を示している。
入力データ1001を畳み込み層1において処理することで処理結果1002が出力される。また、出力された処理結果1002を畳み込み層2、3においてそれぞれ処理することで処理結果1003、1004が出力される。
ここで、入力データ1001は画像中央の輝度が高く、その周辺が暗い画像であるが、畳み込み層3から出力される処理結果1004は、低次元に圧縮された画像となる。
一方、畳み込み層3から出力される処理結果1004を逆畳み込み層2、1においてそれぞれ処理することで、処理結果1005、1006が出力され、出力データ1007が得られる。逆畳み込み層2、1により復元された出力データ1007は、入力データ1001とは輝度画素値が若干異なるものの、入力データ1001とほぼ等しい画像となる。このように機械学習によりパラメータが決定された圧縮器では、入力データ1001とほぼ等しい画像を出力データ1007として出力することができる。
圧縮器生成部803では、パラメータが決定されたConvolutional Autoencoderの各畳み込み層1〜3を含む圧縮器を、画像構造情報抽出部として、第2生成部122及び路面状態判別部123に組み込む。
以上のとおり、圧縮器生成部803は、学習画像情報600を用いた機械学習により、AutoencoderまたはConvolutional Autoencoderのパラメータを決定することで、圧縮器を生成する。このため、従来のように学習画像情報に基づいて人手で圧縮器を生成する場合と比較して、圧縮器生成の手間を省くことができる。
なお、ここでは、圧縮器生成部803が、AutoencoderまたはConvolutional Autoencoderを用いて圧縮器を生成する方法について説明したが、圧縮器の生成方法はこれに限定されない。
<8.2 第2生成部122の説明>
次に、第2生成部122について説明する。図11は、第2生成部の機能構成の一例を示す図である。図11に示すように、第2生成部122は、学習画像情報入力部1101、画像連結部1102、画像構造情報抽出部1103、平均偏光画素値算出部1104、輝度画像補正部1105、平均輝度画素値算出部1106を有する。また、第2生成部122は、データ連結部1107、判別器生成部1108、比較部1109を有する。
学習画像情報入力部1101は、学習画像情報格納部124より、輝度画像、偏光画像、露光時間を順次読み出す。また、学習画像情報入力部1101は、読み出した輝度画像、偏光画像を画像連結部1102に通知する。また、読み出した偏光画像を平均偏光画素値算出部1104に通知する。更に、読み出した輝度画像、露光時間を輝度画像補正部1105に通知する。
画像連結部1102は、輝度画像と偏光画像とを重ね合わせるように連結させ、1枚の画像を生成し、入力データとして画像構造情報抽出部1103に入力する。
画像構造情報抽出部1103は、第1生成部121の圧縮器生成部803により生成された圧縮器の一部が組み込まれたものである。画像構造情報抽出部1103は、画像連結部1102により入力された入力データに基づいて中間層より画像構造情報を抽出し、データ連結部1107に入力する。
平均偏光画素値算出部1104は、偏光画像の平均画素値を算出し、平均偏光画素値として、データ連結部1107に入力する。
輝度画像補正部1105は、輝度画像を露光時間で除算することで、輝度画像を補正する。また、輝度画像補正部1105は、補正輝度画像を平均輝度画素値算出部1106に入力する。
平均輝度画素値算出部1106は、補正輝度画像の平均画素値を算出し、平均輝度画素値として、データ連結部1107に入力する。
データ連結部1107は、画像構造情報と、平均偏光画素値と、平均輝度画素値とを連結させて連結データを生成する。例えば、画像構造情報がD次元、平均偏光画素値がD'次元、平均輝度画素値がD"次元であってとすると、データ連結部1107は、D+D'+D"次元となるように、連結データを生成する。
判別器生成部1108は、ニューラルネットワーク構成を有しており、データ連結部1107において生成された連結データを順次入力し、判別結果が、学習画像情報600の"路面状態"と等しくなるようにパラメータを決定する。これにより、判別器生成部1108では、学習画像情報600に応じて決定されたパラメータを有するニューラルネットワークである、判別器を生成することができる。判別器生成部1108において生成した判別器は、判別部として、路面状態判別部123に組み込まれる。
比較部1109は、判別器生成部1108における判別結果と、学習画像情報600の"路面状態"とを比較し、両者が等しくなるように、パラメータを順次変更していく。比較部1109は、変更したパラメータを判別器生成部1108に入力する。
図12は、判別器生成部の具体例を示す図である。図12に示すように、判別器生成部1108のニューラルネットワーク構成は、入力層と中間層と出力層とを含み、入力層には、学習画像情報600に基づいて生成された連結データ(x)が入力される。また、出力層からは路面状態についての判別結果(y)である、「乾燥」、「湿潤」、「凍結」、「積雪」のいずれかが出力される。
比較部1109では、判別器生成部1108により出力された判別結果が、学習画像情報600の"路面状態"と等しくなるように、パラメータV、cを変更する。具体的には、比較部1109は、下式に基づいて、パラメータV、cを変更する。
Figure 2018128265
なお、Vは、次層への結合係数、cはニューロンが持つ値である。また、関数fにはシグモイド関数等が用いられる。
このように、判別器生成部1108では、学習画像情報600を用いた機械学習により、パラメータV、cを決定することで、路面状態を判別するのに適した判別器を生成し、路面状態判別部123に判別部として組み込む。このため、従来のように学習画像情報に基づいて人手で判別器を生成する場合と比較して、判別器生成の手間を省くことができる。
<8.3 路面状態判別部123の説明>
次に、路面状態判別部123について説明する。図13は、路面状態判別部の機能構成の一例を示す図である。図13に示すように、路面状態判別部123は、計測情報取得部1301、画像連結部1302、画像構造情報抽出部1303、平均偏光画素値算出部1304、輝度画像補正部1305、平均輝度画素値算出部1306を有する。また、路面状態判別部123は、データ連結部1307、判別部1308、出力部1309を有する。
計測情報取得部1301は取得手段の一例であり、計測情報格納部125より、計測情報(輝度画像、偏光画像、露光時間、位置情報)を順次読み出す。また、計測情報取得部1301は、読み出した輝度画像、偏光画像を画像連結部1302に通知し、読み出した偏光画像を平均偏光画素値算出部1304に通知する。また、読み出した輝度画像、露光時間を輝度画像補正部1305に通知する。更に、計測情報取得部1301は、読み出した位置情報を出力部1309に通知する。
画像連結部1302は、輝度画像と偏光画像とを重ね合わせるように連結させ、1枚の画像を生成し、入力データとして画像構造情報抽出部1303に入力する。輝度画像と偏光画像とを重ね合わせるように連結されるとは、例えば、輝度画像の画素値(輝度画素値)と、偏光画像の画素値(偏光画素値)を重ね合わせて1枚の画像を生成することである。なお、重ね合わせ方法は単純に各画素に輝度画素値、偏光画素値を持つように連結してもよいし、画素値を足し合せてもよいし、それぞれの画素値に重み付けを行ってもよい。
画像構造情報抽出部1303には、第1生成部121の圧縮器生成部803において生成され、路面状態判別部123に組み込まれた圧縮器である。路面状態判別部123において、画像構造情報抽出部1303は抽出手段として機能し、画像連結部1302により入力された入力データに基づいて中間層より画像構造情報を抽出し、データ連結部1307に入力する。
図14は、画像構造情報抽出部の一例を示す図である。このうち、図14(a)は、Autoencoderのニューラルネットワーク構成により形成された画像構造情報抽出部を示している。一方、図14(b)は、Convolutional Autoencoderのニューラルネットワーク構成により形成された画像構造情報抽出部を示している。いずれの画像構造情報抽出部1303も、入力データを入力層に入力することで、中間層より画像構造情報を抽出することができる。
図13の説明に戻る。平均偏光画素値算出部1304は、偏光画像の平均画素値を算出し、平均偏光画素値として、データ連結部1307に入力する。
輝度画像補正部1305は、輝度画像を露光時間で除算することで、輝度画像を補正する。また、輝度画像補正部1305は、補正輝度画像を平均輝度画素値算出部1306に入力する。
平均輝度画素値算出部1306は、補正輝度画像の平均画素値を算出し、平均輝度画素値として、データ連結部1307に入力する。
データ連結部1307は、画像構造情報と、平均偏光画素値と、平均輝度画素値とを連結させる。例えば、画像構造情報がD次元、平均偏光画素値がD'次元、平均輝度画素値がD"次元であったとすると、データ連結部1307は、D+D'+D"次元となるように、連結データを生成する。
判別部1308には、第2生成部122の判別器生成部1108において生成され、路面状態判別部123に組み込まれた判別器である。路面状態判別部123において、判別部1308は判別手段として機能し、データ連結部1307において生成された連結データを入力することで、判別結果を出力部1309に出力する。
出力部1309は出力手段の一例であり、判別部1308より出力された判別結果と、計測情報取得部1301より出力された位置情報とを対応付けて、路面状態情報として出力する。
図15は、判別部の一例を示す図である。図15に示すように、判別部1308のニューラルネットワーク構成は、入力層と中間層と出力層とを含み、入力層には、計測情報に基づいて生成された連結データが入力される。出力層からは路面状態についての判別結果である、「乾燥」、「湿潤」、「凍結」、「積雪」のいずれかが出力される。
このように、本実施形態では、路面状態の判別において、判別部1308に連結データを入力する。このため、偏光画像及び輝度画像の各画素値を入力する場合と比較して、判別部1308における処理を高速化することができる。
また、連結データには、平均偏光画素値と平均輝度画素値とが含まれる。これらの特徴量は、各路面状態(「乾燥」、「湿潤」、「凍結」、「積雪」)を撮影することで得られる偏光画像及び輝度画像において、各路面状態の全体的な傾向を端的に表す特徴量である。
更に、連結データには、画像構造情報が含まれる。当該特徴量は、偏光画像及び輝度画像において、各路面状態に含まれる局所的な特徴を抽出したものである。
つまり、本実施形態では、判別部1308が路面状態の判別に有効な特徴量を用いて判別を行うため、判別精度を向上させることができる。
<9.路面状態判別処理の流れ>
次に、サーバ装置120による路面状態判別処理の流れについて説明する。図16は、路面状態判別処理の流れを示すフローチャートである。サーバ装置120の管理者により路面状態判別処理の開始指示が入力されると、図16に示す路面状態判別処理が開始される。
ステップS1601において、計測情報取得部1301は、計測情報格納部125より、計測情報を取得する。
ステップS1602において、計測情報取得部1301は取得した計測情報より、輝度画像、偏光画像、露光時間、位置情報を抽出する。
ステップS1603において、画像連結部1302は、抽出された輝度画像及び偏光画像を連結し、入力データを生成する。
ステップS1604において、画像構造情報抽出部1303は、生成された入力データに基づいて、中間層より画像構造情報を抽出する。
ステップS1605において、平均偏光画素値算出部1304は、ステップS1602において抽出された偏光画像の平均偏光画素値を算出する。
ステップS1606において、輝度画像補正部1305は、ステップS1602において抽出された輝度画像及び露光時間に基づいて、補正輝度画像を生成する。
ステップS1607において、平均輝度画素値算出部1306は、補正輝度画像の平均輝度画素値を算出する。
ステップS1608において、データ連結部1307は、画像構造情報と、平均偏光画素値と、平均輝度画素値とを連結し、連結データを生成する。
ステップS1609において、判別部1308は、生成された連結データに基づいて、判別対象について路面状態を判別する。
ステップS1610において、出力部1309は、判別結果と位置情報とを対応付けて、路面状態情報として出力する。
ステップS1611において、路面状態判別処理を終了するか否かを判定する。ステップS1611において、終了しないと判定した場合には、ステップS1601に戻り、計測情報より次の輝度画像、偏光画像、露光時間、位置情報を抽出する。一方、ステップS1611において、終了すると判定した場合には、路面状態判別処理を終了する。
図17は、路面状態情報の一例を示す図である。図17に示すように、路面状態情報1700には、情報の項目として、"位置情報"、"判別結果"が含まれる。
"位置情報"には、計測情報に含まれる各位置情報が格納される。"判別結果"には、各位置情報により特定される位置における計測情報に基づいて、路面状態判別部123により判別された路面状態の判別結果が格納される。
<10.判別結果の評価>
次に、サーバ装置120による路面状態判別処理の判別結果についての評価を、他の判別方法による判別結果と比較しながら説明する。図18は、判別結果に対する評価結果の一例を示す図である。
判別結果に対する評価結果1800において、横軸は、路面状態を示す"乾燥"、"湿潤"、"凍結"、"積雪"及び"平均"を表している。また、縦軸は、"判別方法"を示している。図18の例は、判別方法として以下の3通りを比較した場合を示している。
・輝度画像の平均輝度画素値と偏光画像の平均偏光画素値とに基づいて路面状態を判別する第1の判別方法(比較例)
・画像構造情報に基づいて路面状態を判別する第2の判別方法(比較例)
・輝度画像の平均輝度画素値と偏光画像の平均偏光画素値と画像構造情報とに基づいて路面状態を判別する第3の判別方法(本実施形態による判別方法)
評価結果1800において、第1の判別方法の場合、路面状態=「乾燥」と判別すべき計測情報のうち、51.2%の計測情報について、路面状態=「乾燥」と判別できたことを示している(すなわち、正答率が51.2%であったことを示している)。同様に、第1の判別方法の場合、路面状態=「湿潤」、「凍結」、「積雪」については、それぞれ、正答率が、89.0%、70.0%、99.6%であったことを示している。更に、平均の正答率が77.5%であったことを示している。
一方、第2の判別方法の場合、路面状態=「乾燥」、「湿潤」、「凍結」、「積雪」について、それぞれ、正答率が、84.2%、62.2%、77.2%、71.4%であったことを示している。また、平均の正答率が73.7%であったことを示している。
また、第3の判別方法の場合、路面状態=「乾燥」、「湿潤」、「凍結」、「積雪」について、それぞれ、正答率が、90.2%、97.0%、86.6%、99.0%であったことを示している。また、平均の正答率が93.2%であったことを示している。
このように、「湿潤」と「積雪」について正答率の高い第1の判別方法と、「乾燥」と「凍結」について正答率の高い第2の判別方法と組み合わせることで、第3の判別方法によれば、「乾燥」、「湿潤」、「凍結」、「積雪」について高い正答率を実現できる。
つまり、輝度画像の平均輝度画素値と偏光画像の平均偏光画素値と画像構造情報とに基づいて路面状態を判別することで、いずれの路面状態についても、第1及び第2の判別方法よりも高い正答率で判別することが可能となる。
<11.まとめ>
以上の説明から明らかなように、本実施形態におけるサーバ装置は、
・輝度画像と偏光画像とを取得するとともに、輝度画像と偏光画像とを連結した画像を低次元に圧縮することで、当該画像の画像構造情報を抽出する構成とした。
・取得した輝度画像の平均輝度画素値及び偏光画像の平均偏光画素値と、抽出した画像構造情報とを用いて、路面状態を判別する構成とした。
これにより、従来の判別方法と比較して、路面状態の判別精度を向上させることが可能となった。
[第2の実施形態]
上記第1の実施形態では、連結データとして、画像構造情報、平均偏光画素値、平均輝度画素値を含むものとして説明した。しかしながら、連結データに含まれるデータはこれに限定されない。
例えば、計測装置110に路面温度を測定するセンサを配し、路面温度を測定することで、路面温度情報を連結データに加えてもよい。
図19は、路面状態判別部の機能構成の他の一例を示す図である。図13との相違点は、計測情報取得部1901、データ連結部1902、判別部1903である。
計測情報取得部1901は、計測情報格納部125より、計測情報として、輝度画像、偏光画像、露光時間、位置情報、路面温度情報を順次読み出す。また、計測情報取得部1901は、読み出した輝度画像、偏光画像を画像連結部1302に、読み出した偏光画像を平均偏光画素値算出部1304に、読み出した輝度画像、露光時間を輝度画像補正部1305にそれぞれ通知する。更に、計測情報取得部1901は、読み出した路面温度情報をデータ連結部1902に、読み出した位置情報を出力部1309にそれぞれ通知する。
データ連結部1902は、画像構造情報と、平均偏光画素値と、平均輝度画素値と、路面温度情報とを連結させる。例えば、画像構造情報がD次元、平均偏光画素値がD'次元、平均輝度画素値がD"次元、路面温度情報がD'''次元であったとすると、データ連結部1902は、D+D'+D"+D'''次元となるように、連結データを生成する。
判別部1903には、第2生成部122の判別器生成部1108により生成された判別器が組み込まれる。なお、本実施形態の場合、路面温度情報を含む学習画像情報を用いて生成された連結データを、判別器生成部1108に入力することで判別器が生成されているものとする。
判別部1903は、データ連結部1902において生成された連結データに基づいて、路面状態を判別する。
このように、連結データとして、画像構造情報、平均偏光画素値、平均輝度画素値に加え、路面温度情報を含めることで、本実施形態によれば、路面状態の判別精度をより向上させることが可能となる。
[その他の実施形態]
上記第1及び第2の実施形態では、計測装置110に搭載する偏光カメラ205が、領域分割偏光フィルタを有する偏光カメラであるとして説明した。しかしながら、計測装置110に搭載する偏光カメラ205は、領域分割偏光フィルタを有する偏光カメラに限定されず、例えば、撮像素子の前面に偏光子を配し、偏光子を回転させながら、偏光角が異なる複数枚の画像を取得する偏光カメラであってもよい。
また、上記第1及び第2の実施形態では、サーバ装置120において路面状態を判別し、判別状態情報を端末130に送信する構成としたが、判別システムのシステム構成はこれに限定されない。
例えば、路面状態判別部123を端末130に配する構成としてもよい。この場合、端末130では、サーバ装置120の第1生成部121で生成された圧縮器と、第2生成部122で生成された判別器とを、サーバ装置120よりダウンロードし、路面状態判別部123に画像構造情報抽出部及び判別部として組み込む。
これにより、端末130では、計測装置110より送信された計測情報に基づいて、路面状態を判別することが可能となる。
同様に、路面状態判別部123を計測装置110の制御装置203に配する構成としてもよい。この場合も、制御装置203では、サーバ装置120の第1生成部121で生成された圧縮器と、第2生成部122で生成された判別器とを、サーバ装置120よりダウンロードし、路面状態判別部123に画像構造情報抽出部及び判別部として組み込む。
これにより、計測装置110では、計測情報を取得しながら、リアルタイムに路面状態を判別し、凍結防止剤の散布量を調整したうえで、散布することが可能となる。
また、この場合、路面状態の判別結果は、凍結防止剤の散布量の調整等に利用するだけにとどまらず、例えば、車両の走行制御に反映させるようにしてもよい。
また、上記第1及び第2の実施形態では、平均偏光画素値算出部1304において、偏光画像の平均偏光画素値を算出したが、各路面状態の全体的な傾向を端的に表す特徴量であれば、平均偏光画素値に限定されない。偏光画像の各画素の画素値の統計値であれば、他の特徴量であってもよい。同様に、上記第1及び第2の実施形態では、平均輝度画素値算出部1306において、輝度画像の平均輝度画素値を算出したが、各路面状態の全体的な傾向を端的に表す特徴量であれば、平均輝度画素値に限定されない。輝度画像の各画素の画素値の統計値であれば、他の特徴量であってもよい。
また、上記第2の実施形態では、連結データに路面温度情報を追加する場合について説明したが、連結データに追加する情報は、路面温度情報に限定されない。例えば、走行速度の情報や、走行中の各位置での天気情報等を追加してもよい。
なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせなど、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。
100 :判別システム
110 :計測装置
111 :車両
120 :サーバ装置
121 :第1生成部
122 :第2生成部
123 :路面状態判別部
130 :端末
201 :GPS装置
202 :通信装置
203 :制御装置
204 :照明装置
205 :偏光カメラ
600 :学習画像情報
700 :計測情報リスト
801 :学習画像情報入力部
802 :画像連結部
803 :圧縮器生成部
804 :比較部
1101 :学習画像情報入力部
1102 :画像連結部
1103 :画像構造情報抽出部
1104 :平均偏光画素値算出部
1105 :輝度画像補正部
1106 :平均輝度画素値算出部
1107 :データ連結部
1108 :判別器生成部
1109 :比較部
1301 :計測情報取得部
1302 :画像連結部
1303 :画像構造情報抽出部
1304 :平均偏光画素値算出部
1305 :輝度画像補正部
1306 :平均輝度画素値算出部
1307 :データ連結部
1308 :判別部
1309 :出力部
1700 :路面状態情報
1901 :計測情報取得部
1902 :データ連結部
1903 :判別部
特開平8−327530号公報 特開2013−148504号公報

Claims (10)

  1. 路面を撮影することで得られる輝度画像と偏光画像とを取得する取得手段と、
    前記輝度画像と前記偏光画像とを連結した画像を低次元に圧縮することで、該画像の画像構造を示す情報を抽出する抽出手段と、
    前記輝度画像の画素値の統計値と、前記偏光画像の画素値の統計値と、前記画像構造を示す情報とを用いて、前記路面の状態を判別する判別手段と
    を有することを特徴とするサーバ装置。
  2. 前記抽出手段は、オートエンコーダを用いて前記画像を低次元に圧縮することを特徴とする請求項1に記載のサーバ装置。
  3. 前記抽出手段は、畳み込みオートエンコーダを用いて前記画像を低次元に圧縮することを特徴とする請求項1に記載のサーバ装置。
  4. 前記路面を撮影した位置を示す位置情報と、前記判別手段が判別した判別結果とを対応付けて出力する出力手段を更に有することを特徴とする請求項1に記載のサーバ装置。
  5. 前記判別手段は、前記輝度画像の平均画素値と、前記偏光画像の平均画素値と、前記画像構造を示す情報とを用いて、前記路面の状態を判別することを特徴とする請求項1乃至3のいずれか1項に記載のサーバ装置。
  6. 路面を撮影することで得られる輝度画像と偏光画像とを取得する取得工程と、
    前記輝度画像と前記偏光画像とを連結した画像を低次元に圧縮することで、該画像の画像構造を示す情報を抽出する抽出工程と、
    前記輝度画像の画素値の統計値と、前記偏光画像の画素値の統計値と、前記画像構造を示す情報とを用いて、前記路面の状態を判別する判別工程と
    をコンピュータに実行させるための判別プログラム。
  7. 路面を撮影する偏光カメラと、
    前記偏光カメラによる撮影に基づき、輝度画像と偏光画像とを生成する制御装置と、を有する判別システムであって、
    前記制御装置は、
    前記輝度画像と前記偏光画像とを連結した画像を低次元に圧縮することで、該画像の画像構造を示す情報を抽出する抽出手段と、
    前記輝度画像の画素値の統計値と、前記偏光画像の画素値の統計値と、前記画像構造を示す情報とを用いて、前記路面の状態を判別する判別手段と
    を有することを特徴とする判別システム。
  8. 前記判別システムは、前記制御装置と接続されるサーバ装置を更に有し、
    前記サーバ装置は、
    輝度画像と偏光画像とを連結した画像を、入力データとしてオートエンコーダに入力した場合の出力データが、該入力データと等しくなるように該オートエンコーダのパラメータを決定することで、前記抽出手段を生成する生成手段を有することを特徴とする請求項7に記載の判別システム。
  9. 前記判別システムは、前記制御装置と接続されるサーバ装置を更に有し、
    前記サーバ装置は、
    輝度画像と偏光画像とを連結した画像を、入力データとして畳み込みオートエンコーダに入力した場合の出力データが、該入力データと等しくなるように該畳み込みオートエンコーダのパラメータを決定することで、前記抽出手段を生成する生成手段を有することを特徴とする請求項7に記載の判別システム。
  10. 前記判別手段は、前記輝度画像の平均画素値と、前記偏光画像の平均画素値と、前記画像構造を示す情報とを用いて、前記路面の状態を判別することを特徴とする請求項8または9に記載の判別システム。
JP2017019293A 2017-02-06 2017-02-06 サーバ装置、判別プログラム及び判別システム Active JP7013651B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017019293A JP7013651B2 (ja) 2017-02-06 2017-02-06 サーバ装置、判別プログラム及び判別システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017019293A JP7013651B2 (ja) 2017-02-06 2017-02-06 サーバ装置、判別プログラム及び判別システム

Publications (2)

Publication Number Publication Date
JP2018128265A true JP2018128265A (ja) 2018-08-16
JP7013651B2 JP7013651B2 (ja) 2022-02-01

Family

ID=63172432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017019293A Active JP7013651B2 (ja) 2017-02-06 2017-02-06 サーバ装置、判別プログラム及び判別システム

Country Status (1)

Country Link
JP (1) JP7013651B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020054152A1 (ja) * 2018-09-12 2020-03-19 ソニー株式会社 画像処理装置と画像処理方法およびプログラム
JP2020092329A (ja) * 2018-12-05 2020-06-11 日本電信電話株式会社 画像処理装置、学習装置、画像処理方法、学習方法、及びプログラム
JP2020153166A (ja) * 2019-03-20 2020-09-24 株式会社前田製作所 凍結防止剤の散布制御方法および定置式凍結防止剤散布装置
JP2021519962A (ja) * 2019-03-29 2021-08-12 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 生体検出方法及び装置、機器並びに記憶媒体
CN113390794A (zh) * 2020-03-13 2021-09-14 弗劳恩霍夫应用研究促进协会 用于检测表面上的水的设备和用于检测表面上的水的方法
CN114787648A (zh) * 2019-11-30 2022-07-22 波士顿偏振测定公司 用于使用偏振提示进行透明对象分段的系统和方法
WO2022249516A1 (ja) * 2021-05-26 2022-12-01 株式会社ブリヂストン 路面状態判定装置、路面状態判定システム、車両、路面状態判定方法、及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11211659A (ja) * 1998-01-23 1999-08-06 Nagoya Denki Kogyo Kk 路面状態判別方法およびその装置
US20080129541A1 (en) * 2006-12-01 2008-06-05 Magna Electronics Black ice detection and warning system
US20130050570A1 (en) * 2011-08-30 2013-02-28 Tomoko Ishigaki Imaging apparatus, and image analyzer and moving apparatus using the imaging apparatus
JP2013148504A (ja) * 2012-01-20 2013-08-01 Ricoh Co Ltd 画像処理システム及びそれを備えた車両
JP2015144421A (ja) * 2013-12-24 2015-08-06 株式会社リコー 画像処理装置、画像処理システム、画像処理方法、画像処理プログラム、及び移動体制御装置
JP2017016414A (ja) * 2015-07-01 2017-01-19 株式会社リコー 学習方法、プログラム及び学習装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11211659A (ja) * 1998-01-23 1999-08-06 Nagoya Denki Kogyo Kk 路面状態判別方法およびその装置
US20080129541A1 (en) * 2006-12-01 2008-06-05 Magna Electronics Black ice detection and warning system
US20130050570A1 (en) * 2011-08-30 2013-02-28 Tomoko Ishigaki Imaging apparatus, and image analyzer and moving apparatus using the imaging apparatus
JP2013066166A (ja) * 2011-08-30 2013-04-11 Ricoh Co Ltd 撮像装置、並びに、これを用いる画像解析装置及び移動装置
JP2013148504A (ja) * 2012-01-20 2013-08-01 Ricoh Co Ltd 画像処理システム及びそれを備えた車両
JP2015144421A (ja) * 2013-12-24 2015-08-06 株式会社リコー 画像処理装置、画像処理システム、画像処理方法、画像処理プログラム、及び移動体制御装置
JP2017016414A (ja) * 2015-07-01 2017-01-19 株式会社リコー 学習方法、プログラム及び学習装置

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3852375A4 (en) * 2018-09-12 2021-10-27 Sony Group Corporation IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM
CN112655219B (zh) * 2018-09-12 2024-05-10 索尼公司 图像处理装置、图像处理方法和记录介质
US11930160B2 (en) 2018-09-12 2024-03-12 Sony Corporation Image processing apparatus, image processing method, and program
JP7276346B2 (ja) 2018-09-12 2023-05-18 ソニーグループ株式会社 画像処理装置と画像処理方法およびプログラム
CN112655219A (zh) * 2018-09-12 2021-04-13 索尼公司 图像处理装置、图像处理方法和程序
US20210243437A1 (en) * 2018-09-12 2021-08-05 Sony Corporation Image processing apparatus, image processing method, and program
WO2020054152A1 (ja) * 2018-09-12 2020-03-19 ソニー株式会社 画像処理装置と画像処理方法およびプログラム
JPWO2020054152A1 (ja) * 2018-09-12 2021-08-30 ソニーグループ株式会社 画像処理装置と画像処理方法およびプログラム
US11477460B2 (en) 2018-12-05 2022-10-18 Nippon Telegraph And Telephone Corporation Image processing apparatus, learning appratus, image processing method, learning method and program
JP2020092329A (ja) * 2018-12-05 2020-06-11 日本電信電話株式会社 画像処理装置、学習装置、画像処理方法、学習方法、及びプログラム
WO2020116451A1 (ja) * 2018-12-05 2020-06-11 日本電信電話株式会社 画像処理装置、学習装置、画像処理方法、学習方法、及びプログラム
JP7277699B2 (ja) 2018-12-05 2023-05-19 日本電信電話株式会社 画像処理装置、学習装置、画像処理方法、学習方法、及びプログラム
JP7249589B2 (ja) 2019-03-20 2023-03-31 株式会社前田製作所 凍結防止剤の散布制御方法および定置式凍結防止剤散布装置
JP2020153166A (ja) * 2019-03-20 2020-09-24 株式会社前田製作所 凍結防止剤の散布制御方法および定置式凍結防止剤散布装置
JP7013077B2 (ja) 2019-03-29 2022-01-31 ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド 生体検出方法及び装置、機器並びに記憶媒体
JP2021519962A (ja) * 2019-03-29 2021-08-12 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 生体検出方法及び装置、機器並びに記憶媒体
CN114787648A (zh) * 2019-11-30 2022-07-22 波士顿偏振测定公司 用于使用偏振提示进行透明对象分段的系统和方法
JP2022550216A (ja) * 2019-11-30 2022-11-30 ボストン ポーラリメトリックス,インコーポレイティド 偏光キューを用いた透明な物体のセグメンテーションのためのシステム及び方法
JP7329143B2 (ja) 2019-11-30 2023-08-17 ボストン ポーラリメトリックス,インコーポレイティド 偏光キューを用いた透明な物体のセグメンテーションのためのシステム及び方法
CN114787648B (zh) * 2019-11-30 2023-11-10 波士顿偏振测定公司 用于使用偏振提示进行透明对象分段的系统和方法
US11842495B2 (en) 2019-11-30 2023-12-12 Intrinsic Innovation Llc Systems and methods for transparent object segmentation using polarization cues
JP2021148790A (ja) * 2020-03-13 2021-09-27 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. 表面における水を検出するための装置、および表面における水を検出するための方法
KR102534538B1 (ko) 2020-03-13 2023-05-26 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 표면에서 물을 검출하는 장치 및 표면에서 물을 검출하는 방법
US11680895B2 (en) 2020-03-13 2023-06-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Device for detecting water on a surface and a method for detecting water on a surface
JP7433265B2 (ja) 2020-03-13 2024-02-19 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. 表面における水を検出するための装置、および表面における水を検出するための方法
CN113390794A (zh) * 2020-03-13 2021-09-14 弗劳恩霍夫应用研究促进协会 用于检测表面上的水的设备和用于检测表面上的水的方法
KR20210117179A (ko) * 2020-03-13 2021-09-28 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 표면에서 물을 검출하는 장치 및 표면에서 물을 검출하는 방법
WO2022249516A1 (ja) * 2021-05-26 2022-12-01 株式会社ブリヂストン 路面状態判定装置、路面状態判定システム、車両、路面状態判定方法、及びプログラム

Also Published As

Publication number Publication date
JP7013651B2 (ja) 2022-02-01

Similar Documents

Publication Publication Date Title
JP7013651B2 (ja) サーバ装置、判別プログラム及び判別システム
CN107087107B (zh) 基于双摄像头的图像处理装置及方法
JP6675770B2 (ja) 地図更新方法および車載端末
JP6897563B2 (ja) 画像処理装置と画像処理方法およびプログラム
US10852444B2 (en) Accounting for atmospheric and terrestrial obstacles in geographic positioning
JP7077961B2 (ja) 画像解析装置、画像解析方法及びプログラム
JP5663352B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US20210044787A1 (en) Three-dimensional reconstruction method, three-dimensional reconstruction device, and computer
KR20120079144A (ko) 교정 장치, 거리 측정 시스템, 교정 방법, 및 교정 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체
Panek et al. Meshloc: Mesh-based visual localization
JP6278791B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム
WO2021017211A1 (zh) 一种基于视觉的车辆定位方法、装置及车载终端
CN114973028B (zh) 一种航拍视频图像实时变化检测方法及系统
CN113870379A (zh) 地图生成方法、装置、电子设备及计算机可读存储介质
Asmare et al. Image enhancement by fusion in contourlet transform
CN113408454A (zh) 一种交通目标检测方法、装置、电子设备及检测系统
CN115761668A (zh) 摄像头的污渍识别方法、装置、车辆及存储介质
Dhiman et al. Road surface distress detection in disparity space
Dhiman et al. A multi-frame stereo vision-based road profiling technique for distress analysis
US20210335010A1 (en) Calibration method and calibration apparatus
CN110378995A (zh) 一种利用投射特征进行三维空间建模的方法
CN110636248A (zh) 目标跟踪方法与装置
CN109726684B (zh) 一种地标元素获取方法和地标元素获取系统
CN114782507B (zh) 一种基于无监督学习的非对称双目立体匹配方法及系统
JP2008224323A (ja) ステレオ写真計測装置、ステレオ写真計測方法及びステレオ写真計測用プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220103