JP6934118B2 - 画像処理システム、画像処理方法および画像処理プログラム - Google Patents

画像処理システム、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP6934118B2
JP6934118B2 JP2020560695A JP2020560695A JP6934118B2 JP 6934118 B2 JP6934118 B2 JP 6934118B2 JP 2020560695 A JP2020560695 A JP 2020560695A JP 2020560695 A JP2020560695 A JP 2020560695A JP 6934118 B2 JP6934118 B2 JP 6934118B2
Authority
JP
Japan
Prior art keywords
image
estimation
region
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020560695A
Other languages
English (en)
Other versions
JPWO2020129176A1 (ja
Inventor
海斗 笹尾
海斗 笹尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Publication of JPWO2020129176A1 publication Critical patent/JPWO2020129176A1/ja
Application granted granted Critical
Publication of JP6934118B2 publication Critical patent/JP6934118B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理システム、画像処理方法および画像処理プログラムに関する。
従来、監視カメラの撮影映像を画像処理して、検出対象を自動的に検出する技術が知られている。この種の画像処理は、人間による監視負担の軽減に有効である。
例えば、特許文献1には、白杖を所持する視覚障がい者を自動的に検出する技術として、「1フレーム分の映像データを取得し、映像データ内のエッジ位置に基づいて、白杖の色範囲の画素値を検出して連結し、連結画素の集合について白杖の形状の特徴を有する集合か否かを判断する」旨の画像処理が開示される。
また、非特許文献1には、画像に対して、第1ラベル(犬や猫など)および第2ラベル(人工物や自然物など)のラベル付けを学習させた畳込みニューラルネットワークCNN(畳込層+プーリング層+全結合層)を用いて、画像内の主要被写体について複数のラベル(犬であって自然物であるなど)に分類する技術が開示される。この非特許文献1の技術では、画像内を大きく占める主要被写体について高い分類精度が得られる。
特開2003−168110号公報
「複数の分類を出力するディープラーニング」、[online]、[2018年11月1日検索]、インターネット<URL:https://qiita.com/cvusk/items/1439c1c6dde160c48d13>
特許文献1の技術では、入力画像から白杖の領域を画像処理のみで検出する。しかし、入力画像内に占める白杖の領域が小さい場合、検出精度が低くなりやすいという問題があった。
また、非特許文献1の畳込みニューラルネットワークCNNでは、小さな被写体が主要被写体と並存する場合、小さな被写体の分類が困難になるという問題があった。
例えば、視覚障がい者を自動的に検出するために、「白杖を持つ人間」と「白杖を持たない人」とを識別する畳込みニューラルネットワークCNNを考える。この場合、白杖の有無を識別する必要がある。
しかしながら、識別すべき人間に対して、識別すべき白杖は非常に細く、かつ特徴に乏しい。そのため、人間の特徴に活性化しやすい多数のニューロンに対して、目立たない白杖に反応する少数のニューロンは紛れやすく、「白杖を持つ人間」と「白杖を持たない人」との分類は困難になる。
そこで、本発明は、(白杖のような)小さな検出対象の検出に適した技術を提供することを目的とする。
上記課題を解決するために、代表的な本発明の画像処理システムの一つは、映像として取得された入力画像を取り込む映像取得部と、予め定められた検出対象の領域について学習されたFCN(Fully Convolutional Network)の学習モデルを有し、入力画像を学習モデルで処理することにより、検出対象の領域推定画像を生成する推定部と、領域推定画像に基づいて検出対象の領域を検出する画像処理部とを備える。
本発明によれば、小さな検出対象を適切に検出することができる。
上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。
画像処理システム100の構成を示す図である。 学習モデル132の構成を説明する図である。 中間層1層分の構成を説明する図である。 中間層1層分の構成を説明する図である。 実施例1の学習データを説明する図である。 白杖検出の動作を説明する流れ図である。 映像取得部の動作を説明する図である。 推定部の動作を説明する図である。 画像処理部の動作を説明する図である。 表示制御部の動作を説明する図である。 実施例2の学習データを説明する図である。 実施例3の学習データを説明する図である。 実施例3の画素論理演算を説明する図である。 実施例3の画素論理演算を説明する図である。
本発明に関わる実施形態を、図面を参照して説明する。
<実施例1の構成>
実施例1は、例えば白杖(を所持する視覚障がい者)を検出する画像処理システム100である。
図1は、この画像処理システム100の構成を示す図である。
同図において、画像処理システム100は、ハードウェアとしてCPU(Central Processing Unit)やメモリなどを備えた情報処理システム(情報処理装置)として構成される。このハードウェアが画像処理プログラムを実行することにより、後述する各種機能が実現する。このハードウェアの一部または全部については、DSP(Digital Signal Processor)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などで代替してもよい。また、ハードウェアの一部または全部をネットワーク上に集中または分散して配置してもよい。
画像処理システム100は、撮像装置110、映像取得部120、推定部130、画像処理部140、表示モニタ151、記録装置152、発報装置153、および学習部154を備える。
撮像装置110は、1つ以上のカメラから構成される。この種の撮像装置110は、監視カメラとして監視箇所に配置されたり、ウェアラブルカメラとして人体に装着されたり、車載カメラとして車などの移動体に配置されたり、建設機械やロボットなどの機械に配置されたり、その他の多様な用途に採用される。
映像取得部120は、映像入力部121、および解析領域指定部122を備える。映像入力部121は、撮像装置110や外部入力から動画または静止画の画像を有線または無線で取得する。解析領域指定部122は、取得した画像について白杖(検出対象)を監視する画像範囲を手動設定で決定したり、または自動で決定し、取得画像の画像範囲を内部メモリ(不図示)に取り込む。この監視する画像範囲の画像(以下「入力画像」という)は、監視すべき画像範囲や処理負荷の軽減を考慮して、取得した画像の全体または部分に設定される。
推定部130は、領域推定部131、およびFCN(Fully Convolutional Network)の学習モデル132を備える。領域推定部131は、入力画像を学習モデル132で処理することにより、画像内において白杖(検出対象)の領域を推定し、領域推定画像を生成する。ここでの領域推定画像は、学習モデルが学習した検出対象について、検出対象らしさを画素単位ないし領域単位に複数の階調値や色で表した画像である。
画像処理部140は、二値化部141、膨張処理部142、形状判定部143、制御部144、表示制御部145、記録制御部146、通信部147、および調整部148を備える。
続いて、学習モデル132について説明する。
図2は、この学習モデル132の構成を説明する図である。
同図において、学習モデル132は、入力画像が入力される入力層IN、複数の中間層L1〜L4、および領域推定画像を出力する出力層OUTを備える。
複数の中間層L1〜L4は、少なくとも画像(特徴マップ)に対する畳込み層を1層分に含み、全層が連結されることにより、FCN(Fully Convolutional Network)の構成をとる。
ここでの中間層L1〜L4の層数は、白杖の領域推定においては4層程度が好ましい。なお、中間層の層数は、検出対象のサイズ、特徴の量、複雑さ、困難さ、または計算負荷などに応じて変化する。
出力層では、中間層L1〜L4で段階的に処理された複数チャンネルの画像(特徴マップ)に対して、そのままや加重加算や論理演算(最大値演算や最小値演算も含む)が行われることにより、白杖(検出対象)の領域推定画像が生成される。
図3は、学習モデル132の中間層1層分の構成を説明する図である。
同図において、入力1チャンネルの画像は、入力層INまたは一つ前の中間層から入力される。
この画像の処理対象画素を中心に、局所域にn行×m列のフィルタ係数が乗じられた後、局所和を求めることにより(積和演算による畳込み層の処理)、畳込み値が生成される。
このとき、畳込み処理の前にパディング(画像の上下左右を固定値などで数画素分だけ拡大する処理)を行うことで、積和演算における画像の上下左右の画素欠落を回避してもよい。
この畳込み値には、バイアスが加減算される。バイアスを加減算した畳込み値は、非線形の活性化関数によって処理される。活性化関数は、所定のバイアスに対応する値を境にして、非活性域から活性域に非線形変化するニューロン特性を模擬する非線形関数である。
このような非線形の画像処理を、水平および垂直に走査しながら行うことにより、一画素一画素をニューロン化した特徴マップが生成される。水平垂直の走査間隔(ストライド)は、1画素〜数画素に設定される。
なお、白杖の検出には、人間が保持した白杖が横幅方向(画像の水平方向)に細くて特徴を消失しやすいため、水平方向の走査間隔を密(例えば1画素単位)にすることが好ましい。
このように生成される特徴マップは、次の中間層または出力層OUTに出力される。
なお、図3に示すように、フィルタ係数とバイアスの組み合わせをk種類(kは自然数)設けた場合、1チャンネルの画像から、kチャンネルの特徴マップが生成される。
次に、図4を参照して、複数チャンネル(同図では3チャンネルを例示)が入力される中間層1層分の処理を説明する。
これら複数チャンネルは、入力層INに入力されるカラー画像の色成分のチャンネル(RGBやYCbCrなど)または、一つ前の中間層から入力される特徴マップのkチャンネルである。
複数チャンネルの画像それぞれには、畳込み層と活性化関数の処理が図4に示すようにたすき掛けに施され、p群(pは自然数)の特徴マップが生成される。これらの特徴マップのp群毎に加重加算や画素論理演算(最大値演算や最小値演算も含む)やバイアス加算などが施され、pチャンネルの特徴マップが出力される。
図5は、学習部154による学習モデル132の学習処理を説明する図である。
同図において、学習部154は、事前に収集された学習データEを有する。この学習データEは、「人間が白杖を持つ学習画像」と「その学習画像の白杖を第1画素値(例えば白)とし、それ以外を第2画素値(例えば黒)とした教師画像」とを1セットとしたデータセットの群である。
学習前の学習モデル132では、各中間層のフィルタ係数群Wおよびバイアス群Bなどは適当な初期値に設定される。この状態で、学習部154は、学習データEの学習画像を学習モデル132に逐次入力し、暫定の領域推定画像を逐次に得る。学習部154は、学習データEの教師画像と暫定の領域推定画像との画素誤差を求める。
学習部154は、求めた画素誤差が縮小する方向に、逆誤差伝搬法などを用いて、各中間層のフィルタ係数群Wおよびバイアス群Bなどの値を更新する。
この更新動作を、学習データEの所定セットの単位に繰り替えすたびに、各中間層のフィルタ係数群Wおよびバイアス群Bなどの値は徐々に適正化される。
学習部154は、学習データEの全部を、フィルタ係数群Wおよびバイアス群Bなどの更新処理(学習)に使用せず、学習データEの一部を学習の効果確認に使用する。
学習部154は、この学習の効果確認が十分(例えば、画素誤差の大きさの総計が許容値以下)と判断とすると、学習モデル132の繰り返し学習を完了する。
以上の学習処理により、「人間が白杖を持つ入力画像」に対して、「その入力画像の白杖を第1画素値(例えば白)に比較的近い値とし、それ以外を第2画素値(例えば黒)に比較的近い値とした領域推定画像(多階調画像)」を出力する学習モデル132が得られる。
<実施例1の動作>
図6は、画像処理システム100による白杖検出の動作を説明する流れ図である。
以下、同図に示すステップ番号に沿って、白杖検出を説明する。
ステップS101: 映像入力部121は、撮像装置110で動画撮影される映像フレームを例えばリアルタイムに取り込む。また、撮像装置110の代わりに、映像記録装置から再生される映像フレームや、ネットワークを経由した映像フレームを取り込んでもよい。
これらの映像は、学習モデル132での行列演算に合わせて、1次元〜複数次元からなる画素配列のデータに整形される。
また、映像に含まれるノイズやフリッカなどの影響を低減するため、前処理として平滑化フィルタや輪郭強調フィルタ、濃度変換などの空間処理を施してもよい。
また、用途に応じてRGBカラーやYUV、モノクロなどのデータ形式を選択してもよい。さらには、演算負荷を低減するために、画像データに縮小処理を施してもよい。
ステップS102: 解析領域指定部122は、図7に示すように、映像フレーム301の全部または部分領域を切り出し、白杖を検出する画像範囲の入力画像302を切り出す。切り出す領域は、矩形や円や楕円などでマスクされた領域でもよく、領域に余白が生じた場合は所定の画素値で埋めてもよい。
ステップS103: 領域推定部131は、図8に示すように、入力画像302を学習モデル132の入力層INに入力する。学習モデル132は、入力画像302を内部の中間層で順次に処理し、出力層OUTに白杖の領域推定画像402を出力する。
ステップS104: 図9は、領域推定画像402に対する画像処理を示す図である。
同図において、二値化部141は、領域推定画像402に対して二値化処理を行い、二値化画像501を生成する。この二値化画像501は、白杖の領域と推定される第1画素値に近い領域を白とし、それ以外を黒の背景色とした画像である。
この二値化処理の閾値は、予め実験によって定めてもよいし、大津の二値化などにより自動的に定めてもよい。
ステップS105: 膨張処理部142は、二値化画像501に対して白画素の周囲1画素〜数画素を白で塗りつぶす膨張化処理を行い、領域検出画像502として出力する。
白杖の推定領域の内部には、黒画素が欠陥として混入する場合がある。膨張化処理では、白画素の領域に混入した黒画素が、膨張化された白画素によって塗りつぶされ、黒画素の欠陥は除去される。
ここでの膨張処理の回数や膨張幅(フィルタの大きさ)は、黒画素の発生頻度などによって適宜に設定される。なお、膨張処理の前または後に白画素に対する縮小処理を行ってもよい。
ステップS106: 形状判定部143は、この領域検出画像502から白画素領域を抽出し、その白画素領域について、次の形状判定を行う。
・白画素領域の面積(画素数)は、白杖の面積の許容範囲に適合するか。
・白画素領域(を囲む最小矩形)の高さや幅やその縦横比は、白杖(を囲む最小矩形)の高さや幅や縦横比の許容範囲に適合するか。
・白画素領域の最大幅と最小幅とその扁平率は、白杖の最大幅と最小幅とその扁平率の許容範囲に適合するか。
・白画素領域に内包される最大直線の長さは、白杖の画面上の直線の長さの許容範囲に適合するか。
ステップS107: 制御部144は、ステップS106の形状判定に全て、または、一部合致した場合、白杖を検出したと判定して、ステップS108に動作を移行する。それ以外の場合(形状範囲に非合致)、形状判定部143はステップS109に動作を移行する。
このように、画像処理部140は、領域推定画像402に基づいて検出対象である白杖の有無を判定する。つまり、画像処理部140は、領域推定画像402において検出対象として推定された画素値の領域の面積、形状、長さの一部または全部に基づいて検出対象の有無を判定する。
ステップS108: 通信部147は、白杖(を持った視覚障がい者の方)の検出を、発報装置153に送信する。送信を受けた発報装置153は音声や光などで報知する。この報知に係員が気付くことにより、視覚障がい者の方に対する道案内や安全配慮などのサポートが適切に行われる。
また、通信部147は、ネットワーク上の監視センタなどに白杖(を持った視覚障がい者の方)の検出を通知することにより、複数箇所の監視業務を一元化してもよい。
ステップS109: 表示制御部145は、表示画面に領域推定画像402(または領域検出画像502)の一部または全部を表示するとともに白杖が検出されたことを示す強調表示を行う。例えば、領域推定画像402(または領域検出画像502)から白杖と推定(判定)される領域を含む所定の形状範囲(矩形や楕円など)を切り出したり、かかる所定の形状範囲の枠を表示させたり、領域推定画像402(または領域検出画像502)の枠の色や線種などを変更して表示させたりして、表示画像とする。
ステップS110: 表示制御部145は、映像入力部121から映像フレーム301を逐次に取り込む。
表示制御部145は、映像フレーム301を内部のFIFO(First In First Out)やフレームメモリを介して遅延させることにより、映像フレームと表示画像のタイムラグを調整する。表示制御部145は、時間を合わせた映像フレームの表示画面の対応位置に表示画像を子画面として逐次に合成する。図10に、このように合成された表示画面を示す。
ステップS111: 表示制御部145は、逐次に合成された表示画面を表示モニタ151に動画表示する。
ステップS112: 画像処理システム100の調整または管理の担当者は、ステップS111で動画表示される表示画面(図10参照)を参考にしながら、調整部148を操作することで、次の項目の調整が可能となる。
・撮像装置110の調整項目(撮影範囲、撮影ズーム量、撮影フレームレート、電子シャッタ時間、絞り値、撮像感度、ガンマ調整、暗所や時刻による赤外線撮影への切替、彩度調整、ホワイトバランス、ノイズ除去、輪郭強調など)
・解析領域指定部122の調整項目(映像フレームの切り出し範囲やマスク範囲など)
・画像処理部140の調整項目(二値化の閾値設定、二値化の閾値のシステリシス幅、膨張化の幅、形状判定の項目や許容範囲など)
調整部148によるこれらの調整は、表示画面(図10参照)に迅速に反映される。そのため、担当者は、調整の具合を表示画面で即座に確認しながら、白杖検出が適切に行えるように調整を追い込むことができる。
ステップS113: 記録制御部146は、S101で取得した映像フレームと、ステップS110で合成された画像(図10参照)とを関連付けて記録装置152に動画記録する。
記録制御部146は、この動画記録を常時記録(一定時間経つと上書き)してもよいし、白杖を検出した期間のみ記録してもよい。また、記録制御部146は、動画記録の圧縮率や記録間隔を制御してもよい。
このように記録される映像は後々の確認のためだけではなく、学習データの手動または自動の作成作業に利用される。
以上の動作(ステップS101〜113)の後、画像処理システム100はステップS101に動作を戻すことで、白杖の検出動作を繰り返す。なお、画像処理システム100の運用時にはステップS112は行われなくてもよい。
<実施例1の効果>
(1)実施例1では、学習モデル132がFCN(Fully Convolutional Network)で構成される。このFCNの学習モデル132は、図2〜図3に示したように、全ての中間層が、画像の画素単位などの空間的な特徴を次段に受け渡すことのできる畳込み層により構成される。そのため、白杖のような小さくて細い検出対象であっても最終段まで画素単位などの空間的な特徴を保つことが可能になる。したがって、画像内の小さな検出対象であっても、適切に検出することができる。
(2)ちなみに、非特許文献1の畳込みニューラルネットワークCNNでは、全結合層において全ニューロンが画像の空間的な特徴を無視して網羅的に結合される。そのため、大きな被写体(人間)の特徴に活性化してしまう多数のニューロンに対して、小さな検出対象(ここでは白杖)に活性化した少数のニューロンは、全結合層に入ると紛れやすくなる。そのため、非特許文献1の畳込みニューラルネットワークCNNでは、大きな被写体(人間)に並存する小さな被写体(白杖)の検出は難しくなる。
それに対して、実施例1では、全ての中間層が、画像の画素単位などの空間的な特徴を次段に受け渡す畳込み層により構成される。そのため、大きな被写体(人間)と小さな検出対象(白杖)とが並存しても、両者を画像空間上で相対的に並存させながら処理することが可能になる。そのため、大きな被写体が並存しても、小さな検出対象が紛れることなく適切に処理できる。その結果、入力画像サイズに対する検出対象の大きさに依存せずに検出・識別が可能になる。
(3)実施例1では、学習モデル132で生成される多階調の領域推定画像に対して、二値化処理を実施する。学習モデル132では、検出対象と推定されない微小レベルの背景ノイズが発生する。二値化処理は、この微小レベルの背景ノイズを適切に削減することができる。そのため、白杖のような小さな検出対象をより適切に検出できるようになる。
(4)実施例1では、学習モデル132で生成される領域推定画像に対して、膨張化処理を実施する。領域推定画像では、検出対象の推定領域の内側に欠陥ノイズが発生する場合がある。白杖のような小さな検出対象の場合、欠陥ノイズにより推定領域が分断されるなど形状が崩れやすい。そのため、後の形状判定が難しくなる。
膨張化処理は、検出対象を示す第1画素値(白)側を膨張化させることにより、欠陥ノイズを除去し、推定領域の形状崩れを修正する。
そのため、白杖のような小さな検出対象をより適切に検出できるようになる。
(5)実施例1では、学習モデル132で生成される領域推定画像に対して、形状判定を実施する。学習モデル132では、学習データEになかった未学習の別形状の物体を検出対象と誤って推定する場合もありうる。しかしながら、実施例1では、領域推定画像の形状判定により検出対象の形状とは別形状の物体を排除することができる。したがって、高い精度で検出対象を検出できるようになる。また、学習が若干不十分であっても検出対象を精度良く検出できるようになる。
(6)実施例1では、「学習画像」および「学習画像における検出対象を第1画素値、それ以外を第2画素値とした教師画像」のセット群を学習データとして、学習モデル132の学習処理を行う。このように二値に領域分けされた教師画像を使用することにより、検出対象とそれ以外とを効率的かつ明確に学習することが可能になる。
(7)ちなみに、非特許文献1の畳込みニューラルネットワークCNNでは、全結合層内において検出対象の画像空間的な特徴が失われるため、全結合層の内部の推考過程を表示しても人間が解釈することができない。
しかしながら、実施例1では、全ての中間層が検出対象の画像空間上の特徴を維持できるため、領域推定画像に基づく表示画像を表示モニタ151に表示することにより、学習モデル132の推考過程の様子を人間が視認により解釈することができる。その結果、検出・識別結果の理由付けを容易にする解析結果の可視化が可能になる。
(8)実施例1では、担当者が表示モニタ151を見ながら調整部148を介して撮像装置110の調整パラメータを変更設定する。この変更設定は、表示モニタ151に表示される表示画像に迅速に反映されるため、担当者は表示モニタ151を確認しながら、撮像装置110の調整パラメータを適切な状態に調整することが容易になる。
(9)実施例1では、担当者が表示モニタ151を見ながら調整部148を介して映像取得部120の調整パラメータを変更設定する。この変更設定は、表示モニタ151に表示される表示画像に迅速に反映されるため、担当者は表示モニタ151を確認しながら、映像取得部120の調整パラメータを適切な状態に調整することが容易になる。
(10)実施例1では、担当者が表示モニタ151を見ながら調整部148を介して画像処理部140の調整パラメータを変更設定する。この変更設定は、表示モニタ151に表示される表示画像に迅速に反映されるため、担当者は表示モニタ151を確認しながら、画像処理部140の調整パラメータを適切な状態に調整することが容易になる。
(11)実施例1では、図10に示すように、撮像装置110から取得した映像の表示画面の対応位置に、領域推定画像に基づく表示画像の部分または全部を子画面として表示モニタ151に合成表示する。
したがって、撮像装置110の映像と共に、検出対象(白杖)の検出状況を分かりやすく確認することが可能になる。
実施例2は、白杖用の学習モデル132aを備える点を特徴とする。
なお、その他の構成および動作は、実施例1で示した図1〜4,6〜10と同様であるため、ここでの重複説明を省略する。
<白杖用の学習モデル132aの説明>
図11は、白杖用の学習モデル132aの学習処理に使用する2種類の学習データEa,Ebを示す図である。
学習データEaは、「人間が持つ白杖の学習画像」と「その学習画像の白杖を第1画素値(白)とし、それ以外を第2画素値(黒)とした教師画像」のセット群からなる学習データである。
この学習データEaを用いて学習処理を行うことにより、学習モデル132a内の中間層L1〜L4で生成される特徴マップの画素(ニューロン)は、人間が持つ白杖の領域とそれ以外とを分別するようになる。したがって、人間が持つ白杖の領域を推定する学習モデルが得られる。
一方、学習データEbは、「人間が持たない偽物の学習画像」と「全体を第2画素値(黒)とした教師画像」のセット群からなる学習データである。ここでの偽物は、図11に示す道路の白線や白ポールのように、白杖に似た画像的特徴を有するものを指す。
この学習データEbを用いて学習処理を行うことにより、学習モデル132a内の中間層L1〜L4で生成される特徴マップの画素(ニューロン)は、人間が持たない偽物の領域に対して活性化しない傾向を示すようになる。したがって、人間が持たない偽物の領域を誤って推定しない学習モデルが得られる。
学習部154は、このような2種類の学習データEa,Ebを統合した統合学習データを作成し、この統合学習データを使用して学習モデル132aの学習処理を行う。
学習データEa,Ebの統合学習データを用いて学習処理を行うことにより、学習モデル132a内の中間層L1〜L4で生成される特徴マップの画素(ニューロン)は、「人間が持つ白杖」と「人間が持たない偽物」と「それ以外」とを、人間(顔、手、胴体、足、または肌色など)の有無や位置や間隔などの関係性によって分別するようになる。
その結果、学習モデル132aは、「人間が持つ白杖」については領域を推定し、「人間が持たない偽物」や「それ以外」については白杖と推定をしないようになる。
<実施例2の効果>
実施例2は、上述した実施例1の効果に加えて、次の効果を奏する。
(1)実施例2では、「人間が持つ白杖(検出対象)の画像」および「人間が持たない偽物の画像」を含む学習画像それぞれに、「学習画像において人間が持つ白杖(検出対象)を第1の画素値、それ以外を第2の画素値とした教師画像」を対応させたセット群を統合学習データとする。
この統合学習データを使用して学習モデル132aを学習処理することにより、学習モデル132aは、「人間が持つもの」という白杖(検出対象)の特徴に活性化しやすくなる一方で、「人間が持たない偽物」には活性化しないようになる。
したがって、「人間が持たない偽物」による誤った推定を抑制し、「人間が持つもの」である白杖(検出対象)をより正確に領域推定することが可能になる。
(2)記録装置152には、新たな偽物の出現により誤った推定が発生した場合、その偽物の映像フレームが保存される。そこで、この新たな偽物の映像フレームを手動ないし自動で収集して偽物用の学習データEbを拡充することが可能になる。その結果、新たな偽物の出現に対処して、学習モデル132aの学習を更新することが可能になり、白杖のような小さな検出対象をより正確に領域推定できるようになる。
実施例3は、白杖用の学習モデル132aと、偽物用の学習モデル132bとを備える点を特徴とする。
白杖用の学習モデル132aについては、実施例2(図11参照)と同じため、ここでの重複説明を省略する。
また、その他の構成は、実施例1で示した図1〜4,6〜10と同様であるため、ここでの重複説明を省略する。
<偽物用の学習モデル132bの説明>
図12は、偽物用の学習モデル132bの学習処理に使用する2種類の学習データEc,Edを示す図である。
学習データEcは、「人間が持つ白杖の学習画像」と「全体を第2画素値(黒)とした教師画像」のセット群からなる学習データである。
この学習データEcを用いて学習処理を行うことにより、学習モデル132b内の中間層L1〜L4で生成される特徴マップの画素(ニューロン)は、人間が持つ白杖の領域に対して活性化しない傾向を示すようになる。したがって、人間が持つ白杖の領域をわざと推定しない学習モデルが得られる。
一方、学習データEdは、「人間が持たない偽物の学習画像」と「その学習画像の偽物を第1画素値(白)とし、それ以外を第2画素値(黒)とした教師画像」のセット群からなる学習データである。
この学習データEdを用いて学習処理を行うことにより、学習モデル132b内の中間層L1〜L4で生成される特徴マップの画素(ニューロン)は、人間が持たない偽物の領域に対して活性化する傾向を示すようになる。したがって、人間が持たない偽物の領域をわざと推定する学習モデルが得られる。
学習部154は、このような2種類の学習データEc,Edを統合した統合学習データを作成し、この統合学習データを使用して学習モデル132bの学習処理を行う。
学習データEc,Edの統合学習データを用いて学習処理を行うことにより、学習モデル132b内の中間層L1〜L4で生成される特徴マップの画素(ニューロン)は、「人間が持つ白杖」と「人間が持たない偽物」と「それ以外」とを、人間(顔、手、胴体、足、または肌色など)の有無や位置や間隔などの関係性によって分別するようになる。その結果、偽物用の学習モデル132bは、「人間が持たない偽物」については領域を推定し、「人間が持つ白杖」については推定をしないようになる。
<領域推定画像の間の演算処理について>
図13は、実施例3による白杖の領域検出の様子を説明する図である。
同図において、白杖を持った人間を撮影した入力画像302が入力される。
白杖用の学習モデル132aは、この入力画像302を処理して、白杖の領域推定画像402aを生成する。この白杖の領域推定画像402aには、偽物によるグレーのノイズが含まれる。
偽物用の学習モデル132bは、この入力画像302を処理して、偽物の領域推定画像402bを生成する。
二値化部141は、2つの領域推定画像402a,402bに対して、対応する画素ごとや領域ごとの演算処理を行って、偽物を除いた白杖の領域推定画像402cを生成する。
例えば、二値化部141は、白杖の領域推定画像402aから、偽物の領域推定画像402bを減算して差分画像を求める。二値化部141は、差分画像について、正の画素値を第1画素値(白)とし、負の画素値を第2画素値(黒)とする二値化処理を実施することにより、偽物を除いた白杖の領域推定画像402c(二値化画像)を生成することができる。
図14は、実施例3における誤検出防止の様子を説明する図である。
同図において、偽物として白ポールを撮影した入力画像312が入力される。
白杖用の学習モデル132aは、この入力画像312を処理して、白杖の領域推定画像412aを生成する。この白杖の領域推定画像412aには、偽物の白ポールに相当するグレーのノイズが含まれる。
偽物用の学習モデル132bは、この入力画像312を処理して、偽物の領域推定画像412bを生成する。この偽物の領域推定画像412bには、偽物の白ポールに相当する明確な領域が現れる。
二値化部141は、上述のように2つの領域推定画像412a,412bに対して、対応する画素ごとに論理演算を行うことにより、偽物の誤検出を除去した領域推定画像412c(二値化画像)を生成する。
<実施例3の効果>
(1)実施例3は、「人間が持たない偽物の入力画像」から前記偽物を領域推定する偽物用の学習モデル132bを備える。
この偽物用の学習モデル132bにより、偽物の領域推定画像402bが生成される。この偽物の領域推定画像402bは、白杖の領域推定画像402aに誤って含まれる偽物のノイズと強い相関を示す。
そこで、白杖の領域推定画像402aに含まれる偽物のノイズを、偽物の領域推定画像402bとの相関部分を除くなどの演算処理を用いて低減できる。したがって、白杖のような小さな検出対象をより正確に領域推定することが可能になる。
(2)実施例3は、「人間が持つ白杖(検出対象)の画像」および「人間が持たない偽物の画像」を含む学習画像それぞれに、「学習画像において人間が持たない偽物を第1の画素値、それ以外を第2の画素値とした教師画像」を対応させたセット群を統合学習データとする。
この統合学習データを使用して学習モデル132bを学習処理することにより、学習モデル132bは、「人間が持つもの」という白杖(検出対象)の特徴に活性化しないようになる一方で、「人間が持たない偽物」には活性化しやすくなる。
そのため、「人間が持つもの」である白杖(検出対象)を偽物とはせずに、「人間が持たない偽物」をより正確に領域推定することが可能になる。
したがって、白杖の領域推定画像402aに含まれる白杖(検出対象)の領域を、偽物の領域推定画像402bとの演算処理で、誤って除いてしまうなどの不具合が少なくなる。
その結果、白杖のような小さな検出対象をより正確に領域推定することが可能になる。
<実施形態の補足事項>
上述した実施形態では、白杖を検出対象とするケースについて説明した。しかしながら、検出可能な対象は白杖に限定されない。例えば、電柱・電線・標識・人・動物・建造物・乗り物・道具・部品・レントゲンその他の多様な物体を検出対象にできる。
特に、実施形態では、人間が持つ白杖のような物品などを正確に検出できる。このような「人間が持つ検出対象」としては、野球のバット、剣道やフェンシングの剣などのスポーツ用具や、オーケストラの指揮棒タクトや、折り畳んだ傘などがある。
また例えば、実施形態では、画像の空間的特徴を維持したまま領域推定を行うため、比較的に小さな検出対象の検出に適している。このように画像内において小さくなりがちな検出対象としては、靴・帽子・食べ物・携帯電話・スマートフォン・部品・傷などがある。
また、実施形態では、1種類の検出対象を検出するケースについて説明した。しかしながら、本発明はこれに限定されない。複数種類の検出対象を同時に検知することも可能である。
なお、実施形態では、学習データにおいて検出対象である白杖を第1の画素値、その他の領域を第2の画素値としたが、その他の領域を複数の画素値に分けたものとしてもよい。例えば、人の領域を第2の画素値とし、背景を第3の画素値とするなど検出対象の数や種類によって種々変更することが好ましい。また、教師画像の画素値は輝度のみに限定されない。
さらに、実施形態では、図2〜4において中間層を具体的に図示しているが、本発明はこれに限定されない。中間層の深さ(層数)や、畳込み層のフィルタのサイズや種類に特段の制限はない。また、出力層に関しては、検出対象の種類と同数の領域推定画像(または同数の多値に分別可能な領域推定画像)を、検出対象に見合う解像度で出力するものとする。
また、実施形態では、形状判定を画像解析により行っているが、本発明はこれに限定されない。検出対象の推定領域の種々の形状を収集し、それら形状を学習データとして機械学習させた学習モデルを用いて、形状判定を行ってもよい。
さらに、実施形態では、複数の領域推定画像に対して差分画像の二値化処理などを行っているが、本発明はこれに限定されない。複数の領域推定画像の少なくとも一方に含まれる偽物の領域をノイズとして除去する演算処理であればよい。
また、実施形態では、画像処理部140の二値化部141および膨張処理部142が領域推定画像402に画像処理を施した後に形状判定部143の形状判定に基づいて検出対象の有無を制御部144が判定した。しかし、本発明はこれに限定されず、二値化部141および膨張処理部142の処理は無くても良いし、いずれか一方の処理のみでもよい。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。
さらに、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
100…画像処理システム、110…撮像装置、120…映像取得部、121…映像入力部、122…解析領域指定部、130…推定部、131…領域推定部、132…学習モデル、132a…白杖用の学習モデル、132b…偽物用の学習モデル、140…画像処理部、141…二値化部、142…膨張処理部、143…形状判定部、144…制御部、145…表示制御部、146…記録制御部、147…通信部、148…調整部、151…表示モニタ、152…記録装置、153…発報装置、154…学習部

Claims (12)

  1. 入力画像を取り込む映像取得部と、
    「学習画像」および「前記学習画像における白杖を所定の画素値とした教師画像」のセット群を学習データとして前記白杖の領域について学習されたFCN(Fully Convolutional Network)の学習モデルを有し、前記学習モデルで処理することにより、前記入力画像の白杖の領域を前記所定の画素値に近づけた領域推定画像を生成する推定部と、
    前記領域推定画像における「前記所定の画素値に近い領域」、または、「前記領域推定画像に二値化処理を行い、前記所定の画素値に近い領域に二値化処理を施した後の領域」の面積、形状、長さの一部または全部に基づいて白杖の有無を判定する画像処理部と、
    を備えた画像処理システム。
  2. 入力画像を取り込む映像取得部と、
    予め定められた検出対象の領域について学習されたFCN(Fully Convolutional Network)の学習モデルを有し、前記入力画像を前記学習モデルで処理することにより、前記検出対象の領域推定画像を生成する推定部と、
    前記領域推定画像に基づく形状判定によって、前記検出対象の有無を判定する画像処理部と、
    を備えた画像処理システム。
  3. 請求項2記載の画像処理システムにおいて、
    前記推定部は、
    前記入力画像における人間が持つ前記検出対象を領域推定しつつ、人間が持たない偽物による推定誤りを抑制する
    ことを特徴とする画像処理システム。
  4. 請求項2記載の画像処理システムにおいて、
    前記推定部は、
    「人間が持つ前記検出対象が写った画像」および「人間が持たない偽物が写った画像」を含む学習画像それぞれに、「前記学習画像において人間が持つ前記検出対象を第1の画素値、それ以外を第2の画素値とした教師画像」を対応させたセット群を学習データとして学習された前記学習モデルを有する
    ことを特徴とする画像処理システム。
  5. 請求項2記載の画像処理システムにおいて、
    前記推定部は、
    前記学習モデルとして、
    「人間が持つ前記検出対象が写った入力画像」から前記検出対象を領域推定する前記検出対象用の学習モデルと、
    「人間が持たない偽物が写った入力画像」から前記偽物を領域推定する偽物用の学習モデルとを有し、
    前記入力画像を、前記検出対象用の学習モデルで処理することにより、前記検出対象の領域推定画像を生成し、
    前記入力画像を、前記偽物用の学習モデルで処理することにより、前記偽物の領域推定画像を生成し、
    前記検出対象の領域推定画像と、前記偽物の領域推定画像とについて演算処理を行って、前記偽物の推定誤りを抑制した前記検出対象の領域推定を行う
    ことを特徴とする画像処理システム。
  6. 請求項2に記載の画像処理システムにおいて、
    前記推定部は、
    前記検出対象が白杖であり、
    前記画像処理部は、
    前記領域推定画像を二値化処理によって補正した領域の面積が白杖の面積の許容範囲に適合するか、前記領域の高さや幅やその縦横比が白杖の高さや幅や縦横比の許容範囲に適合するか、前記領域の最大幅と最小幅とその扁平率が白杖の最大幅と最小幅とその扁平率の許容範囲に適合するか、前記領域に内包される最大直線の長さは白杖の画面上の直線の長さの許容範囲に適合するか、の少なくともいずれか一つに合致した場合に、白杖を検出したと判定する
    ことを特徴とする画像処理システム。
  7. 請求項1又は2に記載の画像処理システムにおいて、
    前記映像取得部は、撮像装置で撮影された入力画像を取り込み、
    前記撮像装置の調整項目と、前記映像取得部内の調整項目と、前記画像処理部の調整項目との少なくとも一つを調整する調整部と、を備え、
    前記画像処理部は、
    前記調整部による調整が反映され、前記学習モデルによる処理で生成された前記領域推定画像を、前記撮像装置が撮影した映像とともに表示画面に表示する表示制御部
    を備えた画像処理システム。
  8. 請求項7に記載の画像処理システムにおいて、
    前記表示制御部は、
    前記撮像装置で撮影された前記入力画像における前記領域推定画像の対応位置に、前記調整が反映された前記推定領域画像を合成して表示する
    ことを特徴とする画像処理システム。
  9. 入力画像を取り込む映像取得ステップと、
    「学習画像」および「前記学習画像における白杖を所定の画素値とした教師画像」のセット群を学習データとして前記白杖の領域について学習されたFCN(Fully Convolutional Network)の学習モデルを有し、前記学習モデルで処理することにより、前記入力画像の白杖の領域を前記所定の画素値に近づけた領域推定画像を生成する推定ステップと、
    前記領域推定画像における「前記所定の画素値に近い領域」、または、「前記領域推定画像に二値化処理を行い、前記所定の画素値に近い領域に二値化処理を施した後の領域」の面積、形状、長さの一部または全部に基づいて白杖の有無を判定する画像処理ステップと、
    を備えた画像処理方法。
  10. 入力画像を取り込む映像取得ステップと、
    予め定められた検出対象の領域について学習されたFCN(Fully Convolutional Network)の学習モデルを有し、前記入力画像を前記学習モデルで処理することにより、前記検出対象の領域推定画像を生成する推定ステップと、
    前記領域推定画像に基づく形状判定によって、前記検出対象の有無を判定する画像処理ステップと、
    を備えた画像処理方法。
  11. 請求項1に記載の前記映像取得部、前記推定部、および前記画像処理部として、情報処理装置を機能させる
    ことを特徴とする画像処理プログラム。
  12. 請求項2ないし請求項8のいずれか1項に記載の前記映像取得部、前記推定部、および前記画像処理部として、情報処理装置を機能させる
    ことを特徴とする画像処理プログラム。
JP2020560695A 2018-12-19 2018-12-19 画像処理システム、画像処理方法および画像処理プログラム Active JP6934118B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/046756 WO2020129176A1 (ja) 2018-12-19 2018-12-19 画像処理システム、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2020129176A1 JPWO2020129176A1 (ja) 2021-09-02
JP6934118B2 true JP6934118B2 (ja) 2021-09-15

Family

ID=71101149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020560695A Active JP6934118B2 (ja) 2018-12-19 2018-12-19 画像処理システム、画像処理方法および画像処理プログラム

Country Status (4)

Country Link
US (1) US11275947B2 (ja)
EP (1) EP3901900B1 (ja)
JP (1) JP6934118B2 (ja)
WO (1) WO2020129176A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7430620B2 (ja) * 2020-11-04 2024-02-13 株式会社エクシオテック 白杖利用入構者駅員報知システム
JP7321577B2 (ja) * 2021-11-10 2023-08-07 株式会社アクセル 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06233761A (ja) 1993-02-09 1994-08-23 Hitachi Medical Corp 医用画像診断装置
JP2003168110A (ja) 2001-12-03 2003-06-13 Nec Corp 視覚障害者支援方法、視覚障害者認識システムおよび方法、プログラム
US20170017841A1 (en) * 2015-07-17 2017-01-19 Nokia Technologies Oy Method and apparatus for facilitating improved biometric recognition using iris segmentation
US9990728B2 (en) * 2016-09-09 2018-06-05 Adobe Systems Incorporated Planar region guided 3D geometry estimation from a single image
WO2018067605A1 (en) * 2016-10-03 2018-04-12 Poynt Co. System and method for disabled user assistance
JP7198577B2 (ja) * 2017-11-17 2023-01-04 シスメックス株式会社 画像解析方法、装置、プログラムおよび学習済み深層学習アルゴリズムの製造方法

Also Published As

Publication number Publication date
US11275947B2 (en) 2022-03-15
EP3901900A1 (en) 2021-10-27
US20220044020A1 (en) 2022-02-10
WO2020129176A1 (ja) 2020-06-25
JPWO2020129176A1 (ja) 2021-09-02
EP3901900B1 (en) 2024-05-01
EP3901900A4 (en) 2022-08-24

Similar Documents

Publication Publication Date Title
CN104052905B (zh) 用于处理图像的方法和设备
AU2011265429B2 (en) Method and system for robust scene modelling in an image sequence
US20120141000A1 (en) Method and system for image analysis
WO2017163955A1 (ja) 監視システム、画像処理装置、画像処理方法およびプログラム記録媒体
JP5832910B2 (ja) 画像監視装置
JP6654789B2 (ja) 変化点で複数候補を考慮して物体を追跡する装置、プログラム及び方法
US20170337431A1 (en) Image processing apparatus and method and monitoring system
JP2004021495A (ja) 監視システムおよび監視方法
JP6934118B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
KR100822476B1 (ko) 원격 응급상황 모니터링 시스템 및 방법
JP2007505590A (ja) センサレベル画像歪み軽減方法および装置
US20220122360A1 (en) Identification of suspicious individuals during night in public areas using a video brightening network system
CN111242023A (zh) 一种适用于复杂光线客流统计方法及统计装置
KR101124560B1 (ko) 동영상 내의 자동 객체화 방법 및 객체 서비스 저작 장치
JP3571628B2 (ja) 画像処理装置
JP5710230B2 (ja) 監視システムおよび監視方法
WO2019150649A1 (ja) 画像処理装置および画像処理方法
JP6939065B2 (ja) 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法
JP6784254B2 (ja) 滞留物体検出システム、滞留物体検出方法およびプログラム
KR100994418B1 (ko) 건물의 침입 감지를 위한 촬영 이미지 처리 시스템 및 방법
JP4750758B2 (ja) 注目領域抽出方法、注目領域抽出装置、コンピュータプログラム、及び、記録媒体
US20100202688A1 (en) Device for segmenting an object in an image, video surveillance system, method and computer program
JP6124739B2 (ja) 画像センサ
JP4831344B2 (ja) 目の位置の検出方法
JP7479535B1 (ja) 人物検知システムおよび人物検知方法

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20210312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210312

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210820

R150 Certificate of patent or registration of utility model

Ref document number: 6934118

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150