JP2018092602A - 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム - Google Patents

情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム Download PDF

Info

Publication number
JP2018092602A
JP2018092602A JP2017176720A JP2017176720A JP2018092602A JP 2018092602 A JP2018092602 A JP 2018092602A JP 2017176720 A JP2017176720 A JP 2017176720A JP 2017176720 A JP2017176720 A JP 2017176720A JP 2018092602 A JP2018092602 A JP 2018092602A
Authority
JP
Japan
Prior art keywords
region
local
bar
area
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017176720A
Other languages
English (en)
Other versions
JP7119317B2 (ja
Inventor
高橋 禎郎
Sadao Takahashi
禎郎 高橋
大輔 岡田
Daisuke Okada
大輔 岡田
輔宏 木村
Sukehiro Kimura
輔宏 木村
旅人 鈴木
Tabito Suzuki
旅人 鈴木
陽一郎 大林
Yoichiro Obayashi
陽一郎 大林
久保園 浩喜
Hiroki Kubozono
浩喜 久保園
吉田 淳
Atsushi Yoshida
淳 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to PCT/JP2017/042693 priority Critical patent/WO2018097331A1/en
Priority to CN201780073247.8A priority patent/CN109997149A/zh
Priority to EP17818643.3A priority patent/EP3545465B1/en
Priority to US16/347,611 priority patent/US11527075B2/en
Publication of JP2018092602A publication Critical patent/JP2018092602A/ja
Application granted granted Critical
Publication of JP7119317B2 publication Critical patent/JP7119317B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】距離情報又は輝度情報に基づいて、物体を正確に検出する。【解決手段】物体領域検出部が、距離情報または輝度情報に基づいて物体領域を検出する。局所領域検出部は、検出された物体領域を分割した分割領域のうち、所定の条件を満たす分割領域を、局所領域として検出する。物体特定部は、局所領域が連続して検出される物体領域を、特定対象の物体として特定する。これにより、物体を正確に検出することができる。【選択図】図13

Description

本発明は、情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラムに関する。
今日において、歩行者又は自動車等との衝突の際に、いかに歩行者を守れるか及び乗員を保護できるかという、自動車の安全性における観点から自動車のボディー構造等の開発が行われている。近年においては、情報処理技術、画像処理技術の発達により、人及び自動車等を高速に検出する技術が知られている。これらの技術を用いることで、衝突する前に自動的にブレーキをかけて衝突を未然に防止する衝突防止システムが設けられた自動車も知られている。この衝突防止システムの場合、ミリ波レーダ装置、レーザレーダ装置又はステレオカメラ装置等を用いて人又は他車等までの距離を測距し、この測距した結果に基づいて、ブレーキ制御を行う。これにより、人又は他車等との距離に応じて、自動的にブレーキをかけることができる。
特許文献1(特開2013−228987号公報)には、踏切遮断機推定装置が開示されている。この踏切遮断機推定装置は、時間の経過に伴って横幅が増加する外部物体及び地面から特定の高さにおいて所定の長さを有する外部物体のうち、少なくとも一方の外部物体を踏切遮断機として推定する。これにより、踏切遮断機の存在を簡易に推定可能となっている。
しかし、衝突防止システムにおいて、例えば高速道路又は有料道路等に設けられているETCバー(ETC:Electronic Toll Collection)及び踏切の遮断機等の物体を通常の立体物として検出すると、以下の不都合を生ずる。すなわち、衝突防止システムは、車両がETCバー又は踏切の遮断機に近づくと警報音を発生し、運転者に不快感を与えることが懸念される。このため、ETCバー又は踏切の遮断機等の物体は、車両にとって障害物ではあるが、正確に検出したうえで、衝突防止システムの検出対象物から除外することが好ましい。
本発明は、上述の課題に鑑みてなされたものであり、物体を正確に検出できる情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、距離情報または輝度情報に基づいて物体領域を検出する物体領域検出部と、検出した物体領域を分割した分割領域が所定の条件を満たす場合に、当該分割領域を局所領域として検出する局所領域検出部と、局所領域が連続して検出される物体領域を特定対象の物体として特定する物体特定部とを有する。
本発明によれば、物体を正確に検出できるという効果を奏する。
図1は、実施の形態の機器制御システムである車両に設けられたステレオカメラの位置を示す図である。 図2は、車両が有するステレオカメラ及びその周辺の構成を示す図である。 図3は、ステレオカメラを備えた撮像装置の構成例を示す図である。 図4は、実施の形態の機器制御システムのソフトウェア構成を示す図である。 図5は、画像処理装置のCPUが、立体物認識プログラムを実行することで実現される各機能の機能ブロック図である。 図6は、画像処理装置のCPUが、立体物認識プログラムを実行することで実現される各機能の詳細な機能ブロック図である。 図7は、マッピング画像の一例を示す図である。 図8は、物体検出結果の一例を示す図である。 図9は、除去対象判定部が、マッピング画像から棒状物体の検出候補となる物体を検出する動作を説明するためのフローチャートである。 図10は、棒状物体の検出処理に用いられる基本特徴量を説明するための図である。 図11は、背景視差の検出動作の流れを示すフローチャートである。 図12は、棒状物体の検出候補となっている領域を示す模式図である。 図13は、第1の局所バー領域検出処理の流れを示すフローチャートである。 図14は、第1の局所バー領域検出処理における棒状物体の検出結果を示す図である。 図15は、第2の局所バー領域検出処理の流れを示すフローチャートである。 図16は、第2の局所バー領域検出処理における棒状物体の検出結果を示す図である。 図17は、垂れ幕領域検出処理の流れを示すフローチャートである。 図18は、垂れ幕領域検出処理における棒状物体の検出結果を示す図である。 図19は、バー領域統合処理の流れを示すフローチャートである。 図20は、バー領域統合処理における棒状物体の検出結果を示す図である。 図21は、物体の傾きに応じた、棒状物体の検出対象とするか否かの判別動作を説明するための図である。 図22は、物体の検出出力から、棒状物体として検出された物体を全棄却する処理を説明するための図である。 図23は、物体の検出出力から、棒状物体として検出された物体の一部を除去する処理を説明するための図である。
以下、図面を参照して、実施の形態の機器制御システムの説明をする。
(システム構成)
実施の形態の機器制御システムは、図1に示すように車両1のフロントガラス等に設けられ、進行方向前側の所定の撮像範囲を撮像するステレオカメラ2を有している。ステレオカメラ2は、図3を用いて後述するように2つの画像センサ22を備え、左目視界と右目視界の2つの画像を撮像する撮像部である。
図2は、移動体の一例である車両1が有するステレオカメラ2及びその周辺の構成例を示す図である。ステレオカメラ2は、例えば撮像した2つの画像を車両ECU(Engine Control Unit)3に対して出力する。車両ECU3は車両1に設置され、例えば車両1のエンジン制御、制動制御、及び走行レーンキープアシスト、操舵アシスト等の車両1に対する制御を行う。車両ECU3は、制御部の一例である。なお、以下、移動体の一例である車両について説明するが、本実施の形態の機器制御システムは、船舶、航空機、ロボット等にも適用可能である。
(撮像装置の構成)
図3は、ステレオカメラ2を備えた撮像装置4の構成例を示す図である。撮像装置4は、例えばステレオカメラ2及び画像処理装置30を有する。ステレオカメラ2は、左目用となるカメラ部2aと、右目用となるカメラ部2bが平行(水平)に組みつけられ、撮像対象領域の動画(又は静止画)を撮影する。
カメラ部2a、2bは、それぞれレンズ21、画像センサ22、及びセンサコントローラ23を備えている。画像センサ22は、例えばCCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサである。センサコントローラ23は、例えば画像センサ22の露光制御、画像読み出し制御、外部回路との通信、及び画像データの送信制御等を行う。
画像処理装置30は、例えば図2に示した車両ECU3内に設けられる。画像処理装置30は、例えばデータバスライン300、シリアルバスライン302、CPU(Central Processing Unit)304、FPGA(Field-Programmable Gate Array)306、ROM(Read Only Memory)308、RAM(Random Access Memory)310、シリアルIF(Interface)312、及びデータIF(Interface)314を有する。
上述したステレオカメラ2は、データバスライン300及びシリアルバスライン302を介して画像処理装置30と接続されている。CPU304は、画像処理装置30全体の動作を制御し、画像処理及び画像認識処理を実行する。カメラ部2a、2bそれぞれの画像センサ22が撮像した撮像画像の輝度画像データは、データバスライン300を介して画像処理装置30のRAM310に書き込まれる。CPU304又はFPGA306からのセンサ露光値の変更制御データ、画像読み出しパラメータの変更制御データ、及び各種設定データ等は、シリアルバスライン302を介して送受信される。
FPGA306は、RAM310に保存された画像データに対してリアルタイム性が要求される処理である、例えばガンマ補正、ゆがみ補正(左右画像の平行化)、ブロックマッチングによる視差演算を行って視差画像を生成し、RAM310に再度書き込む。CPU304は、ステレオカメラ2の各センサコントローラ23の制御、及び画像処理装置30の全体的な制御を行う。CPU304は、データIF314を介して、例えば自車両のCAN(Controller Area Network)情報をパラメータ(車速、加速度、舵角、ヨーレート等)として取得する。
検出対象(認識対象)の検出データ(認識データ)は、シリアルIF312を介して、車両ECU3に供給され、車両ECU3の制御機能として設けられた例えば自動ブレーキシステム又は走行アシストシステム等で用いられる。自動ブレーキシステムは、車両1のブレーキ制御を行う。また、走行アシストシステムは、車両1の走行レーンキープアシスト及び操舵アシスト等を行う。
(画像処理装置に設けられているソフトウェア)
図4に、画像処理装置30に設けられているソフトウェアを示す。この図4に示すように、画像処理装置30には、定数パラメータ、バー領域検出パラメータ、及び、立体物認識プログラムが設けられている。各ソフトウェアの記憶場所は、ROM308又はRAM310等の記憶部に記憶されている。定数パラメータは、バー領域検出除外対象判定で用いられるパラメータである。バー領域検出パラメータは、バー領域の検出に用いられるパラメータである。立体物認識プログラムは、状況認識、予測、及び物体認識等を実行するためのプログラムである。
CPU304は、立体物認識プログラムに従って、RAM310に記憶されている輝度画像データ及び視差画像データを用いて、状況認識等の各種処理を実行し、例えば先行車両等の検出対象の検出(認識)を行う。また、画像データの棄却処理もCPU304が実施する。また、CPU304は、立体物認識プログラムに従って、後述する棒状物体の検出処理を行う。なお、本実施形態では、棒状物体を検出対象として説明するが、これは一例である。以下に説明する本実施形態の物体検出手法は、棒状物体以外の他の物体に対しても応用可能であり、後述するように良好に物体を検出することができる。
(立体物認識プログラムの機能)
図5に、CPU304が立体物認識プログラムを実行することで実現される各機能の機能ブロックを示す。この図5に示すように、CPU304は、立体物認識プログラムを実行することで、除去対象判定部61、バー領域検出部62、及びバー領域除去部63の各機能を実現する。
図6は、除去対象判定部61、バー領域検出部62、及びバー領域除去部63が有する詳細な機能を示している。この図6に示すように、除去対象判定部61は、近距離物体検出部71、重なり処理部72、及び、除去処理部73を有している。バー領域検出部62は、第1の局所バー領域検出部81、第2の局所バー領域検出部82、垂れ幕領域検出部83、及び、バー領域結合部84を有している。バー領域除去部63は、傾き判定部91、除去判定部92及び除去処理部93を有している。バー領域除去部63は、棒状物体検出部の一例である。近距離物体検出部71は、物体検出部の一例である。第1の局所バー領域検出部81は、第1の局所領域検出部の一例である。第2の局所バー領域検出部82は、第2の局所領域検出部の一例である。除去処理部93は、除去部の一例である。
なお、この例では、除去対象判定部61〜バー領域除去部63をソフトウェアで実現することとしたが、除去対象判定部61〜バー領域除去部63のうち、一部又は全部を、IC(Integrated Circuit)等のハードウェアで実現してもよい。
また、立体物認識プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)などのコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、CD−R、DVD(Digital Versatile Disk)、ブルーレイディスク(登録商標)、半導体メモリ等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、立体物認識プログラムは、インターネット等のネットワーク経由でインストールするかたちで提供してもよい。また、立体物認識プログラムは、機器内のROM等に予め組み込んで提供してもよい。
(実施の形態の動作)
実施の形態の機器制御システムは、ステレオカメラ2で撮像される各撮像画像から、縦方向位置、横方向位置、及び、奥行方向位置を対応付けた視差画像を形成する。また、実施の形態の機器制御システムは、視差画像に基づいて、横方向位置及び奥行方向位置を対応づけたマッピング画像(鳥瞰画像、俯瞰画像)を形成する。図7は、マッピング画像の一例である。実施の形態の機器制御システムは、マッピング画像上から、棒状物体の検出候補となる物体領域を検出し、検出候補とした物体領域が棒状物体に対応するか否かを判定する。そして、棒状物体と判定された検出候補の全部又は一部をマッピング画像上から除去し、棒状物体を除去したマッピング画像に基づいて、障害物等の物体を検出して制動制御及び運転アシスト等を行う。これにより、ETCバー又は踏切の遮断機等の棒状物体に影響されることなく、好ましい運転アシスト制御を行うことができる。
なお、マッピング画像の形成時には、視差画像から路面形状を特定し、当該路面より実空間上で上方にある情報のみを用いることが好ましい。これにより物体検出の際のノイズを除去することができる。当該路面は、種々の周知の方法により特定することができ、参考文献である例えば特開2008−65634号公報等にも記載されている道路モデルのような直線式により特定することができる。以下、本実施形態において路面からの高さを物体検出の際の判断に用いる箇所があるが、このような周知の方法により視差画像から特定される路面の情報を利用するものとする。
以下では、制御対象の候補として検出される物体領域から、棒状物体を棄却するために棒状物体を検出する例を記載する。ただし、棒状物体を棄却の対象とせず、積極的に検出対象とする場合にも本手法を用いることができることは言うまでもない。
(除外対象判定処理)
ここで、横方向に連続する細長い物体を含む領域が、棒状物体の検出候補の領域となる。除去対象判定部61は、棒状物体の検出候補とする領域に対して、棒状物体の検出候補であることを示すフラグ(情報)を設定し、棒状物体の検出候補としない領域に対しては、棒状物体の検出候補ではないことを示すフラグ(情報)を設定する。
しかしながら、図8に示すように車両1の前方を走行する軽トラック自動車の荷台部分は、横方向に連続する物体であるため、棒状物体を含む検出候補の領域として検出されるおそれがある。軽トラック自動車の荷台部分を棒状物体として誤検出すると、本来、車両1から軽トラック自動車の荷台部分までの間の距離に応じて行う制動制御等が、車両1から軽トラック自動車の運転席までの間の距離に応じて行われる不都合を生ずる。
このため、除外対象判定部61は、物体の直後に別の物体を検出した場合は、手前(車
両1寄り)の物体を、棒状物体の検出候補とはしないフラグを設定する。すなわち、例えば軽トラック自動車の場合、図8に示すように荷台の領域とは別に、荷台の領域の直後に運転席の領域が検出される。この場合、荷台の領域は、棒状物体の検出候補とはしないフラグを設定する。これにより、軽トラック自動車の荷台部分を、棒状物体の検出処理から除外でき、車両1から軽トラック自動車の荷台部分までの間の距離に応じて正確に制動制御等を行うことを可能とすることができる。
なお、物体の直後に別の物体が検出されている場合は,手前(車両1寄り)の物体の領域を、棒状物体の検出候補の領域としないことで、例えば下がっている駐車場のバーの奥行側に車両が停止している場合、駐車場のバーを棒状物体として検出することが困難となる。しかし、このような状況は、車両1を進行させると、駐車場のバー及び奥行側の車両に衝突する状況である。このため、物体の直後に別の物体が検出されている場合に、手前(車両1寄り)の物体の領域を、棒状物体の検出候補の領域としなくても問題はない。上述の思想のもと、除外対象判処理のフローは、以下のようになる。
まず、上述のマッピング画像が形成されると、図5に示す除外対象判定部61は、図9のフローチャートに示すように、マッピング画像から棒状物体の検出候補となる物体領域を検出する。
ステップS1:近距離物体検出部71が、近距離物体を抽出。
ステップS2:重なり処理部72が、近距離物体ペアを選択。
ステップS3:除去処理部73が、後方重なり近距離物体棄却。
ステップS4:マッピング画像上に判定すべき近距離物体ペアが残っているか否かを判別し、判定すべき近距離物体ペアが残っている場合は、ステップS2からの処理を繰り返し実行し、判定すべき近距離物体ペアが残っていない場合は、処理をステップS5に進める。
ステップS5:近距離物体検出部71が、近距離物体を選択。
ステップS6:重なり処理部72が、近距離物体の直後(奥行側)における、他の物体の有無を判別。
ステップS7:除去処理部73が、近距離物体の直後(奥行側)に他の物体が存在する場合、近距離物体を棒状物体の検出候補から除外。
ステップS8:判定すべき近距離物体が残っている場合は、ステップS5からの処理を繰り返し実行し、判定すべき近距離物体が残っていない場合は、除外対象判定処理を終了。なお、「近距離物体」とは、ある閾値よりも車両1に近い距離において検出された物体をいい、「他の物体」とは、近距離物体以外に検出された物体をいうものとする。
また、マッピング画像から物体領域を検出する方法は種々の公知の方法が用いられる。例えば、連結する画素群を公知のラベリング処理により抽出し、抽出された画素群が所定の大きさを超える場合に、物体であるとして検出すればよい。なお、検出された物体領域としては、検出される物体を囲む枠が特定されることとなる。ここでいう枠とは、物体の位置と大きさを示す情報であり、例えば、当該枠(矩形)の角の座標と当該枠の高さと幅の情報である。
また、上述の処理では物体を示す枠が視差情報の一例であるマッピング画像を用いて得られるものとしているが、輝度情報を用いて枠が特定されるものとしてもよい。このとき、公知の種々の方法を用いることができる。
具体的には、除外対象判定部61(近距離物体検出部71)は、車両1から比較的近い距離(例えば、20m)以内の物体であり、かつ、ある高さ(例えば、2m)未満の物体を近距離物体として検出する。これらのパラメータを用いることで、マッピング画像上の全物体から、近距離かつ高さが高過ぎない物体が含まれる領域(棒状物体の検出候補となる領域)を抽出する(ステップS1)。
また、除外対象判定部61(重なり処理部72)は、例えば50(%)を、近距離物体同士の重なり率の判定閾値として用いて、棒状物体の検出候補の領域とするか否かの除外対象判定処理を行う。また、除外対象判定部61(重なり処理部72)は、例えば1mを、他の近距離物体と同じ距離とみなす距離差の最大値として用いて除外対象判定処理を行う。そして、除外対象判定部61(除去処理部73)は、当該除外対象判定処理により除外対象と判定された物体を棄却する。すなわち、最も車両1に近い近距離物体を検出するため、近距離物体同士の「重なり率」を基準としつつ、ある近距離物体よりも一定距離以上離れている近距離物体を、棒状物体の検出候補から除外する(ステップS2〜S4)。
この条件は、同一物体が二重に検出されたものでなく、異なる物体が重なって検出されているものを想定している。除外対象判定部61(重なり処理部72)は、撮像画像上で重なり合っており、同一距離にあるとは言えないぐらい奥に位置している物体を、一番手前に位置する近距離物体ではないと判定する。除外対象判定部61(除去処理部73)は、このような条件を満たす場合、その物体を近距離物体から除外する。これに対して、このような条件を満たさない場合、除外対象判定部61(重なり処理部72)は、以下の条件に基づく除外対象判定処理に移行する。
また、除外対象判定部61(重なり処理部72)は、近距離物体と他の物体とが重なり合っており、奥に存在する他の物体までの距離が例えば2m未満であれば、近距離物体の領域を、棒状物体の検出候補の領域から除外する領域として判定する。また、除外対象判定部61(重なり処理部72)は、「70(%)」を、近距離物体と他の物体との重なり率の判定閾値として用いて除外対象判定処理を行う。そして、除外対象判定部61(除去処理部73)は、当該除外対象判定処理により除外対象と判定された物体を棄却する。これにより、軽トラック自動車の荷台部分等を、棒状物体の検出処理から除外可能となる。
この条件は、例えば軽トラック自動車の荷台と運転席との関係を想定している。除外対象判定部61は、他の物体が軽トラック自動車のキャビンと荷台との距離程度以内の奥に存在し、マッピング画像上で重なりがある物体は、棒状物体ではないと判定する。この場合、除外対象判定部61は,その物体の領域に対して、棒状物体の検出処理を行わないことを示す情報(フラグ)を設定する。
上述の除外対象判定部61による一連の処理は必須ではないが、処理速度の向上と、軽トラックの存在や誤検出防止を考慮すると、ある方が好ましい。
なお、除外対象判定部61(重なり処理部72)は、2つの物体の重なり率を算出する場合、まず、「重なり領域=min(物体Aの右端,物体Bの右端)−max(物体Aの左端,物体Bの左端)」の演算を行う。そして、除外対象判定部61は、「(重なり領域×100)/物体Aの幅」の演算を行うことで、物体Aの重なり率を算出し、「(重なり領域×100)/物体Bの幅重なり領域」の演算を行うことで、物体Bの重なり率を算出する。
なお、除外対象とされなかった物体には、除外対象判定部61により棒状物体の検出候補としてフラグが付されることとなる。
(棒状物体の検出処理)
次に、図5に示すバー領域検出部62は、除外対象判定部61により、棒状物体の検出候補としてフラグが付された領域に、棒状物体が含まれるか否かの判定を行う。例えば、ETC(Electronic Toll Collection)システムのバー、踏切の遮断機等は、バー単独で検出されるとは限らず、バーを上下動させる昇降機と共に、一つの物体として検出されることがある。この場合、バー領域検出部62は、棒状物体であるバーの部分のみを検出する。
棒状物体の検出処理においては、視差情報(距離情報)を利用しつつ、図10に示す局所の路面からの最大高さ(トップ)と、局所の路面からの最小高さ(ボトム)を基本特徴量として用いる。バー領域検出部62は、背景視差の有無を用いて、棒状物体であるか否かを判定する処理も行う。なお、「局所」とは、棒状物体の検出候補となっている枠(物体の位置と大きさを示す矩形を示す情報であり、例えば当該矩形の角の座標と当該矩形の高さと幅の情報)を画像の横方向(幅方向)に分割した部分領域である。分割数は、実験的に決定される。「背景視差」は、棒状物体の検出候補となっている領域の背景に位置する物体の視差である。
このように、視差情報を用いることにより、棒状物体に模様が付されていて輝度情報では検出が困難になる場合であっても、棒状物体を確実に検出することができる。また、「局所」の情報を用いることにより、水平方向の視差情報が得られにくい場合であっても、確実に棒状物体を検出することができる(視差算出におけるマッチング処理は水平方向に行われることが多いことから、一般に水平方向のエッジは視差情報が得られにくくなる)。また、「局所」の情報を用いることにより、昇降中の棒状物体も検出しやすくなる。
バー領域検出部62は、背景視差も考慮しつつ、
1.検出候補となっている物体のトップとボトムの差が小さい(物体自体の高さが低い。すなわち、物体の太さが細い)
2.検出候補となっている物体の路面からの高さが高い(例えば、物体のボトムの路面からの高さが高い)
3.検出候補となっている領域の物体の各局所のトップの高さが連続している(隣との差分が小さい)
といった条件を用いて、その検出候補の領域に含まれる物体を棒状物体として検出する。
(棒状物体の検出処理の詳細)
次に、バー領域検出部62における棒状物体の検出処理を詳細に説明する。バー領域検出部62は、第1の局所バー領域検出部81における第1の局所バー領域検出処理、第2の局所バー領域検出部82における第2の局所バー領域検出処理、垂れ幕領域検出部83における垂れ幕領域検出処理、及び、バー領域統合部84におけるバー領域統合処理により、棒状物体を検出している。単なる棒状物体だけでなく、棒状物体に垂れ幕が付された物体も検出対象とすることができる。
(第1の局所バー領域検出処理)
バー領域検出部62は、棒状物体の検出を行う場合、まず、第1の局所バー領域検出部81で第1の局所バー領域検出処理を行う。第1の局所バー領域検出処理では、物体の局所に対して背景視差が存在し、局所の高さ(太さ)が、太さ特徴量(棒状物体として検出する限界の太さを想定して実験的に決定された値)未満であり、局所の路面からの高さが、高さ特徴量(路面から棒状物体までの最低限の高さを想定して実験的に決定された値)以上である場合に、棒状物体の局所として検出する。
ここで、図11及び図12を参照し、バー領域検出部62が、棒状物体の検出候補となっている領域の背景視差を検出する処理について説明する。図11は、出力する物体領域を選択する処理の一例を示すフローチャートである。また、図12は、棒状物体の検出候補となっている領域を示す模式図である。まず、バー領域検出部62は、図12(a)で示す領域のような棒状物体の検出候補となっている領域における、当該領域内の物体に対応する視差範囲の視差頻度の合計値を示す図12(b)で示すようなヒストグラム(以下、「物体視差ヒストグラム」と称する。)を作成する(ステップS71)。当該領域内の物体は、種々の方法によって特定できる。例えば、公知の物体認識処理によって特定しても良いし、当該領域内において最も多い視差範囲の塊を物体としても良い。
続いて、バー領域検出部62は、当該領域における、棒状物体の距離(視差)よりも所定距離以上遠方を示す視差点の視差頻度の合計値を示す、図12(c)で示すようなヒストグラム(以下、「背景視差ヒストグラム」と称する。)を作成する(ステップS72)。続いて、バー領域検出部62は、当該領域において、物体視差ヒストグラムの値が、物体視差頻度閾値以下であり、背景視差ヒストグラムの値が、背景視差頻度閾値以上である部分が存在するか否かを判定する(ステップS73)。
当該部分が存在すると判別した場合(ステップS73:Yes)、バー領域検出部62は、当該範囲において背景が存在すると判定し(ステップS74)、図11のフローチャートの処理を終了する。これに対して、当該部分が存在しないと判別した場合(ステップS:No)、バー領域検出部62は、当該範囲において背景が存在しないと判定し(ステップS75)、図11のフローチャートの処理を終了する。すなわち、バー領域検出部62は、棒状物体の検出候補となっている領域内において、当該棒状物体の距離よりも遠い箇所がどの程度含まれているかを基準として、背景の有無を検出している。
そして、第1の局所バー領域検出部81は、背景が検出されて棒状物体の検出候補とされた領域内の物体の局所のトップとなる高さと、その隣接した局所の高さとの差が、連続閾値(実験的に決定された値)未満の場合、第1の局所バー領域検出部81は、この隣接する局所同士は連続していると判定する。棒状物体の検出処理に、背景の有無を用いることで、棒状物体及び昇降機が結合して検出された際等に、棒状物体及び昇降機を分離して検出し易くすることができる。背景視差の検出には、例えば第1の背景視差頻度閾値と、第1の背景視差頻度閾値の1/2の値の第2の背景視差頻度閾値との、2つの閾値を用いるのが、より好ましい。これにより、背景が存在するとして局所バーが一度検出された場合には、横方向に隣り合う局所領域としての次の局所バーの検出に用いる閾値を低くして(第1の背景視差頻度閾値の1/2の値の第2の背景視差頻度閾値に変更して)、背景を検出し易くすることができる。
このような第1の局所バー領域検出処理の流れを、図13のフローチャートに示す。第1の局所バー領域検出部81は、以下のステップS11〜ステップS20の各処理を実行する。
ステップS11:路面からトップまでの高さ、路面からボトムまでの高さ、背景視差頻度、及び、判定に用いる各特徴量(所定値)を取得。なお、「背景視差頻度」は、棒状物体の検出候補となっている物体の背景に位置する物体の視差の頻度値である。
ステップS12:背景視差頻度の閾値を初期値に設定。
ステップS13〜ステップS17間において、ステップS14〜ステップS16及びステップS18〜ステップS20の各処理を繰り返し実行する。すなわち、ステップS14で、検出候補に含まれる物体の局所の高さが、棒状物体として検出する最大限の高さ(太さ)未満であると判別される間は、ステップS14〜ステップS16の各処理が繰り返し実行され、棒状物体として検出する局所が順次更新される。換言すると、棒状物体として検出される局所が徐々に延長され(局所が徐々に増えていき)、最後に棒状物体全体の検出に至る。また、棒状物体全体が検出されると、ステップS14からステップS18に処理が進み、背景視差頻度の閾値を初期値に戻す処理等が行われた後、次の第1の局所領域から棒状物体を検出する処理に移行する。
ステップS14:物体の路面からの最低高さが、所定の高さ特徴量よりも高く、かつ、背景視差頻度が背景視差頻度閾値より大きく、かつ、物体の高さ(太さ)が、所定の太さ特徴量未満であるか否かを判別。
ステップS15:ステップS14でYesと判別した場合に、第1の局所バー領域検出処理を行う局所を、次の局所に移行(更新)。
ステップS16:背景差頻度閾値を初期値の1/2に変更。
ステップS18:2回続けて、物体の局所ではない領域に対して、第1の局所バー領域検出処理が続けて行われたか否かを判別。Noの場合は、ステップS14に処理を戻す。
ステップS19:ステップS18でYesと判別した場合に、次の検出候補となる領域に対して、第1の局所バー領域検出処理を施すべく、背景視差頻度閾値を初期値に戻す。
ステップS20:現在、第1の局所バー領域検出処理を行っていた検出候補に対する処理を終了し、次の検出候補に対する第1の局所バー領域検出処理を行うために、各値を初期化する。
図14は、このような第1の局所バー領域検出処理により得られる、棒状物体の検出出力を示している。この図14は、駐車場の昇降機100により、バー101が約30度程度上げられた状態を示している。バー101の略々中央には、垂れ幕102が設けられている。なお、この図14においては、下方向の矢印及び上方向の矢印の間の距離が、「バー101の幅」、及び、「垂れ幕102の幅を含めたバー101の幅」を示している。垂れ幕102が設けられている箇所の幅は、バー101のみの幅よりも広い幅となっている。
このような状態のバー101を第1の局所バー領域検出処理で検出すると、垂れ幕102が設けられている箇所は、棒状物体として検出する最大限の高さ(太さ)以上となるため、バー101として検出されない。また、背景視差の存在しない箇所も、バー101として検出されない。このため、バー101は、実際には連続して形成されているが、この第1の局所バー領域検出処理においては、図14に示すようにバー検出出力R1、バー検出出力R2、及び、バー検出出力R3のように、断続的に検出される。
このように、第1の局所バー領域検出処理では、所定の特徴量(太さ特徴量や高さ特徴量)に加え、背景視差の情報を用いて検出した背景の情報を利用して棒状物体の局所を検出するため、棒状物体を正確に検出することができる。
(第2の局所バー領域検出処理)
次に、バー領域検出部62は、第2の局所バー領域検出部82で第2の局所バー領域検出処理を行う。上述の第1の局所バー領域検出処理の場合、背景視差を考慮して棒状物体の検出を行ったが、以下に説明する第2の局所バー領域検出処理の場合、背景視差の有無にかかわらず、物体の局所の高さが、所定の太さ特徴量(棒状物体の最大高さ(太さ)を想定した実験的に決定された値)未満であり,局所の路面からの高さが、所定の高さ特徴量以上の物体を検出する。
このとき、第2の局所バー検出処理における所定の特徴量(太さ特徴量や高さ特徴量)は、第1の局所バー検出処理における特徴量よりも厳しいものを用いる。すなわち、所定の太さ特徴量としてはより小さく、所定の高さ特徴量としてはより高いものを用いる。なお、太さ特徴量と高さ特徴量のいずれか一方のみを厳しくしても良い。
物体の局所のトップとなる路面からの高さと、隣接する局所の高さとの差が、連続閾値未満の場合、第2の局所バー領域検出部82は、各局所は連続していると判定する。これにより、垂れ幕が付加されていないETCバー又は駐車場のバー等の細いバー部分を検出することが可能となる。垂れ幕が付加されていないバーを検出する場合、上述の第1の局所バー領域検出処理を行わずに、このような第2の局所バー領域検出処理を行えばよい。
図15のフローチャートに、第2の局所バー領域検出処理の流れを示す。第2の局所バー領域検出部82は、以下のステップS21〜ステップS28の各処理を実行する。
ステップS21:路面からトップまでの高さ、路面からボトムまでの高さ、及び、判定に用いる各特徴量(所定値)を取得。ステップS21を実行すると、第2の局所バー領域検出部82は、ステップS22及びステップS25の間における、ステップS23、ステップS24、ステップS26〜ステップS28の処理を繰り返し実行する。
ステップS23:検出候補となっている領域に含まれる物体の局所の路面からの最低高さが、所定の高さ特徴量を超え、かつ、局所の高さ(太さ)が、所定の太さ特徴量未満、かつ、検出候補となっている新たな領域に対して第2の局所バー領域検出処理が開始されていない、又は、前の局所のトップと現在の局所のトップとの差が、連続閾値未満であるか否かを判別。Yesの場合は、ステップS24に処理が移行し、Noの場合は、ステップS26に処理が移行する。
ステップS24:第2の局所バー領域検出処理を行う検出候補の領域を更新、又は、局所トップを次の局所のトップに更新。
ステップS26:検出候補の領域に含まれる物体の幅が、幅特徴量以下か否かを判別。Yesの場合は、ステップS27に処理を移行し、Noの場合は、ステップS28に処理を移行する。
ステップS27:次の検出候補の領域に第2の局所バー領域検出処理を移行すべく、現在の検出候補の領域を破棄又は初期化。
ステップS28:第2の局所バー領域検出処理を終了、又は、次の検出候補の領域に第2の局所バー領域検出処理を移行すべく、各値を初期化。
図16は、このような第2の局所バー領域検出処理により得られる、棒状物体の検出出力を示している。この図16は、図14と同様の状態の昇降機100、バー101及び垂れ幕102の状態を示している。このような状態のバー101を第2の局所バー領域検出処理で検出すると、垂れ幕102が設けられている箇所は、棒状物体の最大限の高さ(太さ)以上となるため、バー101として検出されない。
また、第2の局所バー領域検出処理の場合、背景視差の有無に関わらず、棒状物体の検出を行う。このため、第2の局所バー領域検出処理の場合、上述の第1の局所バー領域検出処理とは異なり、背景視差が存在する箇所でも、バー101が検出される。このため、第2の局所バー領域検出処理においては、連続するバー101は、垂れ幕102が設けられている箇所を除き、バー検出出力R11及びバー検出出力R12として断続的に検出される。
このように、第2の局所バー領域検出処理では、背景情報を用いることなく、かつ検出に用いる特徴量(太さ特徴量や高さ特徴量)として第1の局所バー検出処理における特徴量よりも厳しいものを用いるので、簡易な処理で、正確に棒状物体を検出できる。
(垂れ幕領域検出処理)
次に、バー領域検出部62は、垂れ幕領域検出部83で垂れ幕領域検出処理を行う。垂れ幕領域検出処理では、踏切のバー又は駐車場のバー等に設けられている垂れ幕を含めて棒状物体の検出を行う。垂れ幕領域検出部83は、バーが下がった状態においては、棒状物体の高さ(太さ)が、第1の太さ特徴量(路面からの垂れ幕の最大限の高さ(太さ)を想定して実験的に決定した値)未満であり、路面から棒状物体のボトムまでの高さが、所定の高さ特徴量(垂れ幕の路面からの最小限の高さを想定して実験的に決定された値)以上の物体を棒状物体として検出する。
また、垂れ幕領域検出部83は、路面からのバーの高さが、バーが上昇中であるか否かを判別し、バーが上昇中であると判別した場合、垂れ幕領域検出部83は、所定の高さ特徴量以上、かつ、第2の太さ特徴量未満の物体を棒状物体として検出する。
なお、バーが上昇中であるか否かの判別の方法は、公知の手法が適用可能である。以下では、物体のボトムに相当する局所の路面からの高さが、所定の昇降閾値よりも大きいか否かで判別するものとする。
また、垂れ幕領域検出部83は、物体の局所の路面からトップまでの高さと、隣接する局所のトップの高さとの差が、連続閾値未満の場合は、物体が連続して形成されていると判定する。
このような垂れ幕領域検出処理で用いられる連続閾値は、上述の第1及び第2の局所バー領域検出処理で用いられる連続閾値よりも小さな値となっている。このため、上述の第1及び第2の局所バー領域検出処理よりも、垂れ幕領域検出処理の方が、物体の各局所を、棒状物体の局所として連続的に検出し易くなっている。
このような垂れ幕領域検出処理の流れを、図17のフローチャートに示す。垂れ幕領域検出部83は、ステップS31において、物体の局所の路面からトップまでの高さ、物体の局所の路面からボトムまでの高さ、及び、判定に用いる各特徴量(所定値)を取得し、ステップS32からステップS39の間のステップS33〜ステップS43の処理を繰り返し実行する。
ステップS33:検出候補となっている領域に含まれる物体のボトムに相当する局所の路面からの高さが、所定の高さ特徴量より大きいか否かを判別する。
ステップS34:物体のボトムに相当する局所の路面からの高さが、所定の昇降閾値よりも低いと判別された際に(ステップS33:No)、第1の太さ閾値(垂れ幕付きのバーが下がっている状態における太さ閾値)を設定。
ステップS40:物体のボトムに相当する局所の路面からの高さが、所定の昇降閾値よりも高いと判別された際に(ステップS33:Yes)、第2の太さ閾値(垂れ幕付きのバーが上昇している状態における太さ閾値)を設定。
ステップS35:物体のボトムに相当する局所の路面からの高さが、所定の高さ閾値より大きいか否かを判別。
ステップS36:物体のボトムに相当する局所の路面からの高さが、所定の高さ閾値より大きい場合(ステップS35:Yes)、前のトップと現在のトップの差が連続閾値未満であるか否かを判別。
ステップS37;物体の局所の高さ(太さ)が、ステップS34又はステップS40で設定した太さ閾値以下であるか否かを判別。
ステップS38:次の検出候補の領域に垂れ幕領域検出処理を移行(更新)し、又は、垂れ幕領域検出処理を行う局所を前の局所のトップから、次の局所のトップに移行(更新)する。
ステップS41:ステップS35〜ステップS37においてNoと判別した場合、垂れ幕の幅が狭すぎる(幅特徴量以下)であるか否かを判別。
ステップS42:垂れ幕の幅が十分な幅である場合(ステップS41でNoと判別した場合)、現在行っている垂れ幕領域検出処理を終了し、次の検出候補の領域に垂れ幕領域検出処理を移行する。
ステップS43:垂れ幕の幅が狭すぎる場合(ステップS41でYesと判別した場合)、現在行っている垂れ幕領域検出処理を終了し、次の検出候補の領域に垂れ幕領域検出処理を移行すべく、各値を初期化する。
図18は、このような垂れ幕領域検出処理により得られる、棒状物体の検出出力を示している。この図18は、図14と同様の状態の昇降機100、バー101及び垂れ幕102の状態を示している。上述のように、垂れ幕領域検出処理で用いられる連続閾値は、第1及び第2の局所バー領域検出処理で用いられる閾値よりも小さな値となっており、垂れ幕領域検出処理の方が、棒状物体を連続的に検出し易くなっている。このため、上述の第1及び第2の局所バー領域検出処理においては、垂れ幕102の部分は棒状物体として検出されなかったが、この垂れ幕領域検出処理では、垂れ幕102の部分も含めて棒状物体として検出され、実際のバー100に相当する、先端部から後端部にかけて連続する棒状物体を示すバー検出出力R21が得られる。
このように、垂れ幕領域検出処理では、垂れ幕の高さを考慮しつつ、バーが下がっているか上昇中かに基づいて、垂れ幕の高さ閾値を可変にしている。バーが昇降すると局所の垂れ幕の高さ(太さ)の変動が大きいからである。これにより、垂れ幕付きの棒状物体であっても正確に検出できる。
(バー検出出力の統合処理)
次に、第1の局所バー領域検出部81でバー検出出力R1、R2、R3が検出され、第2の局所バー領域検出部82でバー検出出力R11、R12が検出され、垂れ幕領域検出部83でバー検出出力R21が検出されると、バー領域統合部84は、各検出出力R1、R2、R3、R11、R12、R21を統合処理する。統合処理の基本的な思想は、垂れ幕領域の中に第1、第2のバー領域が含まれているか否かを判断基準として、最終的な特定対象の棒状物体として統合するものである。図19のフローチャートに、バー領域統合部84のバー領域統合処理の流れを示す。
ステップS51:第1の局所バー領域検出部81で検出されたバー検出出力R1、R2、R3、及び、第2の局所バー領域検出部82で検出されたバー検出出力R11、R12を取得。
ステップS52:バー検出出力R1、R2、R3、R11、R12を合成(例えば、加算)して合成バー検出出力R31,R32(合成バー領域)を形成し、合成バーの水平方向の長さである合成バー水平長を算出。
ステップS53:合成バーの水平長が、予め設定した第1の水平長特徴量(合成バーの水平方向の検出最低幅)以下か否かを判別。
ステップS54:合成バーの水平長が、予め設定した第1の水平長特徴量(合成バーの水平方向の検出最低幅)以下の場合(ステップS53:Yes)、当該物体に対して合成バーフラグを設定。
ステップS55:垂れ幕領域検出部83で検出されたバー検出出力R21を取得。
ステップS56:垂れ幕バーの実際の長さと水平長を算出。
ステップS57:垂れ幕バーの水平長が、予め設定した第2の水平長特徴量(垂れ幕領域の水平方向の検出最低幅)以上で、かつ、垂れ幕付きバーの実際の長さが、長さ特徴量(垂れ幕領域の検出最低長)以上であるか否かを判別。
ステップS58:垂れ幕付きバーの水平長が、予め設定した第2の水平長特徴量(垂れ幕領域の水平方向の検出最低幅)以上であり、かつ、垂れ幕付きバーの実際の長さが、長さ特徴量以上の場合(ステップS57:Yes)、当該物体に対して垂れ幕フラグを設定。
ステップS59:垂れ幕付きバーの領域に合成バーの領域が含まれるか否かを判別。
ステップS60:垂れ幕付きバーの領域に合成バーの領域が含まれることを示す含有フラグを設定。
ステップS61:含有フラグが設定されており、かつ、垂れ幕フラグが設定されているか否かを判別。
ステップS62:ステップS61でYesの場合、垂れ幕付きバーの領域を最終的なバー領域として特定(本実施形態では削除対象として設定)。
ステップS63:ステップS59でNoの場合、又は、ステップS61でNoの場合、ステップS54で設定される合成バーフラグが設定されているか否かを判別。合成バーフラグが設定されていない場合は(ステップS63:No)、そのまま処理を終了。
ステップS64:合成バーフラグが設定されている場合は(ステップS63:Yes)、合成バーの領域を最終的なバー領域として特定(本実施形態では削除対象として設定)。
このように、垂れ幕領域の中に第1、第2のバー領域が含まれているか否かを基準として最終的な特定対象としてのバー領域に統合するので、それぞれの検出処理のみを行う場合に比べて、より正確な棒状物体の検出を行うことができる。また、あわせて垂れ幕領域の長さや第1、第2のバー領域の長さも判断基準として用いることで、不正確な検出を防いで正確な棒状物体の検出を行うことができる。
図20は、このようなバー領域統合部84によるバー領域統合処理を模式的に示す図である。この図20に示すように、バー領域統合部84は、第1の局所バー領域検出部81で検出されたバー検出出力R1、R2、R3と、第2の局所バー領域検出部82で検出されたバー検出出力R11、R12とを加算処理することで、合成バー検出出力R31,R32を形成する。そして、バー領域統合部84は、合成バー検出出力R31,R32の全体が、垂れ幕領域検出処理で検出されたバー検出出力R21に含まれる場合に、垂れ幕領域検出処理で検出されたバー検出出力R21を有効と判定して、最終的なバー検出出力R41として出力する。
ただし、垂れ幕領域検出処理で検出されたバー検出出力R21に合成バー検出出力R31、R32が含まれ(ステップS59:Yes)、ステップS60で含有フラグがセットされた場合、かつ、ステップS58で垂れ幕フラグがセットされた場合(ステップS61:Yes)、バー領域統合部84は、垂れ幕領域検出処理で検出されたバー検出出力R21の領域全体をバー領域R41として特定(削除対象設定)する(ステップS62)。
これに対して、垂れ幕領域検出処理で検出されたバー検出出力R21に合成バー検出出力R31、R32が含まれていないか(ステップS59:No)または、垂れ幕フラグが設定されていない場合(ステップS61:No)、合成バーフラグが設定されているならば(ステップS63:Yes)、バー領域統合部84は、合成バー検出出力R31、R32をバー領域R41として特定(削除設定)する(ステップS64)。
以上のように、バー検出出力の統合処理においては、垂れ幕領域検出処理の検出結果R21が妥当であればこれを優先し、垂れ幕領域検出処理の検出結果が妥当でなく合成バー検出結果R31,R32が妥当であればこれを用いることとしている。なお、本実施形態においては、第1,第2の局所バー検出処理および垂れ幕領域検出処理による検出出力を統合処理するものとしているが、いずれかの検出処理を選択して実装することもできる。
(バー領域の除去処理)
次に、図5に示すバー領域除去部63は、最終的なバー検出出力R41に対応するバー領域のうち、除去すると判定された(削除設定された)バー領域を、上述のマッピング画像上から除去する。なお、既にバー領域除去除外対象と判定された物体は、マッピング画像上から除去しない。
まず、バー領域除去部63は、傾き判定部91により、最終的なバー検出出力R41に対応するバー領域の棒状物体の傾き判定を行うことで、棒状物体をマッピング画像上から除去するか否かを判別する。すなわち、昇降機100等のバーは、図21(b)に示すように、外に向かって上がる方向に動作する。これに対して車両のピラー等は、図21(a)に示すように車両本体の屋根側からタイヤ側にかけて、外に向かって下がるかたちで形成されている。傾き判定部91は、このような棒状物体の傾き方向の違いに基づいて、バー領域除去判定処理を行う。
例えば、除去判定部92は、棒状物体が15度以上外側に向かって下がっていた場合、その棒状物体は、駐車場又は踏切の遮断機の等のバーではないとして、マッピング画像上から除去しないと判定する。
さらに具体的には、バー領域が検出矩形(検出された物体領域)の左側にあり、左下がりになっているということは、例えば車両の左側のピラー等の物体を意味しており、バーではない。この場合、除去判定部92は、バー領域除去を行わないと判定する。
同様に、バー領域が検出矩形(検出された物体領域)の右側にあり,右下がりになっているということは、例えば車両の右側のピラー等の物体を意味しており、バーではない。この場合、除去判定部92は、バー領域除去を行わない。
次に、バー領域除去部63の除去処理部93は、以下の条件に基づいて、マッピング画像上からバー領域全体を除去し、又は、バー領域の一部をマッピング画像上から除去する。
画像処理装置30は、このようにバー領域が除去されたマッピング画像に基づいて、例えば先行車両、路面、歩行者、ガードレール等の物体検出を行い、この物体検出結果(図3に示す認識データ)を車両ECU3に供給する。車両ECU3は、先行車両等の認識データに基づいて、自動ブレーキ制御、走行レーンキープアシスト及び操舵アシスト等の走行アシストを行う。
これにより、衝突防止システムは、車両1がETCバー又は踏切の遮断機等に近づいた際に、物体に接近したことを示す警報音を発生し、運転者に不快感を与える不都合を防止できる等、衝突防止システムの好ましい動作に貢献できる。
上述の実施の形態は、例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な各実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。例えば、距離の値(距離値)と視差値は等価に扱うことができる。このため、上述の実施の形態の説明では、距離画像の一例として視差画像を用いて説明しているが、これに限られない。例えば、ステレオカメラを用いて生成した視差画像に対して、ミリ波レーダやレーザレーダ等の検出装置を用いて生成した距離情報を統合して、距離画像を生成してもよい。また、ステレオカメラと、ミリ波レーダやレーザレーダ等の検出装置を併用し、上述したステレオカメラによる物体の検出結果と組み合わせることにより、検出の精度をさらに高める構成としてもよい。
このような実施の形態及び実施の形態の変形例は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 車両
2 ステレオカメラ(撮像部)
2a カメラ部
2b カメラ部
3 車両ECU
4 撮像装置
30 画像処理装置
51 立体物認識プログラム
52 定数パラメータ
53 バー領域検出パラメータ
61 除去対象判定部
62 バー領域検出部
63 バー領域除去部
71 近距離物体検出部
72 重なり処理部
73 除去処理部
81 第1の局所バー領域検出部
82 第2の局所バー領域検出部
83 垂れ幕領域検出部
84 バー領域統合部
91 傾き判定部
92 除去判定部
93 除去処理部
特開2013−228987号公報

Claims (12)

  1. 距離情報または輝度情報に基づいて物体領域を検出する物体領域検出部と、
    検出した前記物体領域を分割した分割領域が所定の条件を満たす場合に、当該分割領域を局所領域として検出する局所領域検出部と、
    前記局所領域が連続して検出される前記物体領域を特定対象の物体として特定する物体特定部と
    を有する情報処理装置。
  2. 前記局所領域検出部は、前記分割領域内における物体について、当該物体自体の太さおよび当該物体の路面からの高さの少なくとも一方が所定の条件を満たす場合に、当該分割領域を局所領域として検出すること
    を特徴とする請求項1に記載の情報処理装置。
  3. 前記局所領域検出部は、第1の局所領域検出部を含み、
    前記第1の局所領域検出部は、前記分割領域内において、前記物体領域内の物体よりも遠い領域が存在する場合に、前記分割領域を前記局所領域として検出すること
    を特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記局所領域検出部は、第2の局所領域検出部をさらに含み、
    前記第1の局所領域検出部は、前記分割領域内における物体について、当該物体自体の太さが第1の太さ特徴量より小さい条件および当該物体の路面からの高さが第1の高さ特徴量より大きい条件の少なくとも一方を満たす場合に、当該分割領域を第1の局所領域として検出し、
    前記第2の局所領域検出部は、前記分割領域内における物体について、当該物体自体の太さが前記第1の太さ特徴量より小さい第2の太さ特徴量より小さい条件および当該物体の路面からの高さが前記第1の高さ特徴量より大きい第2の高さ特徴量より大きい条件の少なくとも一方を満たす場合に、当該分割領域を第2の局所領域として検出し、
    前記物体特定部は、前記第1の局所領域および前記第2の局所領域に基づいて、前記特定対象の物体を特定すること
    を特徴とする請求項3記載の情報処理装置。
  5. 前記局所領域検出部は、前記局所領域の路面からの高さに応じて、前記局所領域を検出する際の条件を変化させること
    を特徴とする請求項1から請求項4のうち、いずれか一項に記載の情報処理装置。
  6. 前記物体領域検出部により検出された前後の位置関係となる各物体が、一塊の物体を部分的に分割して検出したことを示す距離内に位置する場合、前後の位置関係となる前記各物体のうち、少なくとも前側に位置する物体は、前記物体の特定対象から除外する除外部を有すること
    を特徴とする請求項1から請求項5のうち、いずれか一項に記載の情報処理装置。
  7. 前記物体領域検出部で検出された各物体領域から、前記物体特定部で特定された
    物体に対応する物体領域を除去する除去部を、さらに有すること
    を特徴とする請求項1から請求項6のうち、いずれか一項に記載の情報処理装置。
  8. 撮像情報に基づいて、距離情報又は輝度情報を生成する撮像部と、
    請求項1から請求項7のうち、いずれか一項に記載の情報処理装置と
    を有する撮像装置。
  9. 請求項8に記載の撮像装置と、
    前記特定対象の物体の特定結果に基づいて、所定の機器を制御する制御部と
    を有する機器制御システム。
  10. 請求項9に記載の機器制御システムの前記制御部により制御されること
    を特徴とする移動体。
  11. 物体領域検出部が、距離情報または輝度情報に基づいて物体領域を検出する物体領域検出ステップと、
    局所領域検出部が、検出した前記物体領域を分割した分割領域が所定の条件を満たす場合に、当該分割領域を局所領域として検出する局所領域検出ステップと、
    物体特定部が、前記局所領域が連続して検出される前記物体領域を特定対象の物体として特定する物体特定ステップと
    を有する情報処理方法。
  12. コンピュータを、
    距離情報または輝度情報に基づいて物体領域を検出する物体領域検出部と、
    検出した前記物体領域を分割した分割領域が所定の条件を満たす場合に、当該分割領域を局所領域として検出する局所領域検出部と、
    前記局所領域が連続して検出される前記物体領域を特定対象の物体として特定する物体特定部として機能させること
    を特徴とする情報処理プログラム。
JP2017176720A 2016-11-28 2017-09-14 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム Active JP7119317B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2017/042693 WO2018097331A1 (en) 2016-11-28 2017-11-28 Information processing apparatus, imaging apparatus, apparatus control system, movable object, information processing method, and information processing program
CN201780073247.8A CN109997149A (zh) 2016-11-28 2017-11-28 信息处理设备、成像设备、设备控制系统、移动体、信息处理方法和信息处理程序
EP17818643.3A EP3545465B1 (en) 2016-11-28 2017-11-28 Information processing apparatus, imaging apparatus, apparatus control system, movable object, information processing method, and information processing program
US16/347,611 US11527075B2 (en) 2016-11-28 2017-11-28 Information processing apparatus, imaging apparatus, apparatus control system, movable object, information processing method, and computer-readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016230256 2016-11-28
JP2016230256 2016-11-28

Publications (2)

Publication Number Publication Date
JP2018092602A true JP2018092602A (ja) 2018-06-14
JP7119317B2 JP7119317B2 (ja) 2022-08-17

Family

ID=62563720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017176720A Active JP7119317B2 (ja) 2016-11-28 2017-09-14 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム

Country Status (4)

Country Link
US (1) US11527075B2 (ja)
EP (1) EP3545465B1 (ja)
JP (1) JP7119317B2 (ja)
CN (1) CN109997149A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020199993A (ja) * 2019-06-13 2020-12-17 株式会社デンソー 物体認識装置、運転支援システム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7463701B2 (ja) 2019-11-19 2024-04-09 株式会社リコー 画像診断装置、故障診断装置及びプログラム
KR102316960B1 (ko) * 2019-11-28 2021-10-22 광운대학교 산학협력단 무인 항공기 영상 내 실시간 객체 검출 방법 및 장치
US11840238B2 (en) * 2021-02-05 2023-12-12 Nvidia Corporation Multi-view geometry-based hazard detection for autonomous systems and applications

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120480A (ja) * 1997-10-21 1999-04-30 Omron Corp 車両特徴抽出装置および車両特徴抽出方法
JP2004007246A (ja) * 2002-05-31 2004-01-08 Toshiba Corp 画像処理システム、画像処理方法、画像処理プログラム
JP2006101384A (ja) * 2004-09-30 2006-04-13 Nissan Motor Co Ltd 人物検出装置及び方法
JP2011113330A (ja) * 2009-11-27 2011-06-09 Fuji Heavy Ind Ltd 物体検出装置および運転支援システム
JP2013148971A (ja) * 2012-01-17 2013-08-01 Oki Electric Ind Co Ltd 車種判別装置
JP2015156074A (ja) * 2014-02-20 2015-08-27 富士重工業株式会社 車外環境認識装置
JP2016018538A (ja) * 2014-07-11 2016-02-01 キヤノン株式会社 画像認識装置、方法及びプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4018310B2 (ja) 1999-04-21 2007-12-05 株式会社リコー 画像二値化装置、画像撮像装置、画像二値化方法、画像撮像方法およびその方法の各工程としてコンピュータを機能させるためのプログラムを記録したコンピュータ読取可能な記録媒体
US7266220B2 (en) * 2002-05-09 2007-09-04 Matsushita Electric Industrial Co., Ltd. Monitoring device, monitoring method and program for monitoring
US6959866B2 (en) 2002-05-30 2005-11-01 Ricoh Company, Ltd. 2-Dimensional code pattern, 2-dimensional code pattern supporting medium, 2-dimensional code pattern generating method, and 2-dimensional code reading apparatus and method
JP2007102545A (ja) 2005-10-05 2007-04-19 Ricoh Co Ltd 電子文書作成装置、電子文書作成方法及び電子文書作成プログラム
JP4832227B2 (ja) 2006-09-07 2011-12-07 富士重工業株式会社 物体検出装置および物体検出方法
JP5664152B2 (ja) 2009-12-25 2015-02-04 株式会社リコー 撮像装置、車載用撮像システム及び物体識別装置
TWI417207B (zh) * 2010-12-28 2013-12-01 Automotive Res & Testing Ct Image - based obstacle detection reversing warning system and method
JP5563025B2 (ja) 2012-03-28 2014-07-30 本田技研工業株式会社 踏切遮断機推定装置及び車両
EP2645136B1 (en) 2012-03-29 2017-01-18 Canon Kabushiki Kaisha Optical member having textured structure and method of producing same
JP5862532B2 (ja) * 2012-09-26 2016-02-16 アイシン精機株式会社 車両運転支援装置
JP6471528B2 (ja) 2014-02-24 2019-02-20 株式会社リコー 物体認識装置、物体認識方法
JP6519262B2 (ja) 2014-04-10 2019-05-29 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
JP2016001170A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理プログラム、及び、処理方法
CN105335955B (zh) * 2014-07-17 2018-04-10 株式会社理光 对象检测方法和对象检测装置
US20160019429A1 (en) 2014-07-17 2016-01-21 Tomoko Ishigaki Image processing apparatus, solid object detection method, solid object detection program, and moving object control system
US9478139B2 (en) * 2014-12-25 2016-10-25 Automotive Research & Testing Center Driving safety system and barrier screening method thereof
WO2017115732A1 (ja) 2015-12-28 2017-07-06 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム
EP3432265A4 (en) 2016-03-14 2019-03-20 Ricoh Company, Ltd. IMAGE PROCESSING DEVICE, DEVICE CONTROL SYSTEM, IMAGE CAPTURE DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM
JP6589726B2 (ja) * 2016-04-06 2019-10-16 トヨタ自動車株式会社 車両用撮影装置
SG11201802247XA (en) * 2016-12-09 2018-07-30 Hitachi Int Electric Inc Marine intrusion detection system and method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120480A (ja) * 1997-10-21 1999-04-30 Omron Corp 車両特徴抽出装置および車両特徴抽出方法
JP2004007246A (ja) * 2002-05-31 2004-01-08 Toshiba Corp 画像処理システム、画像処理方法、画像処理プログラム
JP2006101384A (ja) * 2004-09-30 2006-04-13 Nissan Motor Co Ltd 人物検出装置及び方法
JP2011113330A (ja) * 2009-11-27 2011-06-09 Fuji Heavy Ind Ltd 物体検出装置および運転支援システム
JP2013148971A (ja) * 2012-01-17 2013-08-01 Oki Electric Ind Co Ltd 車種判別装置
JP2015156074A (ja) * 2014-02-20 2015-08-27 富士重工業株式会社 車外環境認識装置
JP2016018538A (ja) * 2014-07-11 2016-02-01 キヤノン株式会社 画像認識装置、方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020199993A (ja) * 2019-06-13 2020-12-17 株式会社デンソー 物体認識装置、運転支援システム
JP7268490B2 (ja) 2019-06-13 2023-05-08 株式会社デンソー 物体認識装置、運転支援システム

Also Published As

Publication number Publication date
CN109997149A (zh) 2019-07-09
EP3545465B1 (en) 2024-04-10
EP3545465A1 (en) 2019-10-02
JP7119317B2 (ja) 2022-08-17
US20190347496A1 (en) 2019-11-14
US11527075B2 (en) 2022-12-13

Similar Documents

Publication Publication Date Title
US11318928B2 (en) Vehicular automated parking system
JP6606610B2 (ja) 走路境界推定装置及びそれを用いた走行支援システム
JP4987573B2 (ja) 車外監視装置
JP7025912B2 (ja) 車載環境認識装置
JP6416293B2 (ja) 自動車に接近する対象車両を自動車のカメラシステムにより追跡する方法、カメラシステムおよび自動車
JP4650079B2 (ja) 物体検出装置、および方法
JP6254084B2 (ja) 画像処理装置
JP7119317B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
US20170124725A1 (en) Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium
JP7206583B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP2005196276A (ja) 車両用運転支援装置
JP6705497B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、プログラム、及び移動体
JP5482672B2 (ja) 移動物体検出装置
JP2007280132A (ja) 走行誘導障害物検出装置および車両用制御装置
JP6815963B2 (ja) 車両用外界認識装置
JP2007264717A (ja) 車線逸脱判定装置、車線逸脱防止装置および車線追従支援装置
JP5411671B2 (ja) 物体検出装置および運転支援システム
JP4969359B2 (ja) 移動物認識装置
JP4788399B2 (ja) 歩行者検出方法、装置、およびプログラム
WO2018097331A1 (en) Information processing apparatus, imaging apparatus, apparatus control system, movable object, information processing method, and information processing program
JP6969245B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
JP6943092B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
JP6644511B2 (ja) 後側方車両警告装置、方法およびプログラム
JP6495742B2 (ja) 対象物検出装置、対象物検出方法、及び、対象物検出プログラム
CN113204234A (zh) 车辆控制方法与车用控制系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200707

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220111

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220517

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220517

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220526

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220718

R151 Written notification of patent or utility model registration

Ref document number: 7119317

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151