JPWO2017134936A1 - 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム - Google Patents

物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム Download PDF

Info

Publication number
JPWO2017134936A1
JPWO2017134936A1 JP2017565422A JP2017565422A JPWO2017134936A1 JP WO2017134936 A1 JPWO2017134936 A1 JP WO2017134936A1 JP 2017565422 A JP2017565422 A JP 2017565422A JP 2017565422 A JP2017565422 A JP 2017565422A JP WO2017134936 A1 JPWO2017134936 A1 JP WO2017134936A1
Authority
JP
Japan
Prior art keywords
map
object detection
image
distance
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017565422A
Other languages
English (en)
Other versions
JP6687039B2 (ja
Inventor
高橋 禎郎
禎郎 高橋
高橋 祐二
祐二 高橋
信一 住吉
信一 住吉
佑 山田
佑 山田
聖也 天野
聖也 天野
横田 聡一郎
聡一郎 横田
洋義 関口
洋義 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JPWO2017134936A1 publication Critical patent/JPWO2017134936A1/ja
Application granted granted Critical
Publication of JP6687039B2 publication Critical patent/JP6687039B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本発明による物体検出装置は、座標毎に距離情報を有する距離画像に基づいて、解像度の異なる2種類のマップを生成するマップ生成手段と、マップ生成手段により生成された2種類のマップに基づいて物体を検出する物体検出手段と、を備える。

Description

本発明は、物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラムに関する。
自動車の安全性において、従来は歩行者や自動車と衝突したときに、いかに歩行者を守れるか、乗員を保護できるかの観点から自動車のボディー構造などの開発が行われてきた。しかしながら近年、情報処理技術、画像処理技術の発達により、高速に人や自動車を検出する技術が開発されてきている。これらの技術を応用して、衝突する前に自動的にブレーキをかけ、衝突を未然に防ぐという自動車も既に発売されている。自動的にブレーキをかけるには人や他車までの距離を正確に測定する必要があり、そのためには、ミリ波レーダ、レーザレーダによる測距、ステレオカメラによる測距などが実用化されている。
ステレオカメラで人や他車などの物体の3次元的な位置や大きさを正確に検出するためには、物体を塊として検出し、さらに路面の位置を検出し、その路面に接している物体を検出するという方法が既に知られている。
上記のようなステレオカメラに関し、例えば特許文献1には、ステレオカメラの撮像画像から視差画像を生成する視差画像生成部と、前記撮像画像内における路面を検出する路面形状検出部と、検出された路面と視差画像とに基づいて、横軸を横方向の距離、縦軸を移動方向の距離とした視差値の頻度分布及び高さ分布を表すマップ情報を生成するリアルUマップ生成部と、前記頻度分布に基づいてオブジェクト候補領域を検出するオブジェクト候補領域検出部と、前記オブジェクト候補領域に基づいて路面上の立体物を抽出するオブジェクト領域抽出部と、を有する技術が開示されている。
しかし、例えば特許文献1に記載されたような従来の技術においては、物体を塊として検出する処理において撮像画像上の遠方の物体については撮像画像から得られる情報が少ないため、検出が不安定になるという問題がある。
本発明は、上述した実情に鑑みてなされたものであって、遠方の物体を安定的に検出することを目的とする。
上述した課題を解決するため、本発明の物体検出装置は、座標毎に距離情報を有する距離画像に基づいて、解像度の異なる2種類のマップを生成するマップ生成手段と、マップ生成手段により生成された2種類のマップに基づいて物体を検出する物体検出手段と、を備えることを特徴とする。
本発明によれば、遠方の物体を安定的に検出することが可能になる。
本発明の実施形態における機器制御システムの概略構成図である。 本発明の実施形態における撮像装置の概略構成図である。 本発明の実施形態における物体検出装置の機能ブロック図である。 本発明の実施形態における物体検出装置の機能ブロック図である。 本発明の実施形態におけるVマップ生成処理について説明する模式図である。 本発明の実施形態におけるVマップ生成処理について説明する模式図である。 本発明の実施形態におけるUマップ生成処理について説明する模式図である。 本発明の実施形態におけるUマップ生成処理について説明する模式図である。 本発明の実施形態におけるUマップ生成処理について説明する模式図である。 本発明の実施形態におけるリアルUマップ生成処理について説明する模式図である。 本発明の実施形態におけるリアルUマップ生成処理について説明する模式図である。 本発明の実施形態における物体検出処理手順を示すフローチャートである。 本発明の実施形態におけるリアルUマップで検出した領域に対応する視差画像領域を検出する処理について説明する模式図である。 本発明の実施形態におけるリアルUマップで検出した領域に対応する視差画像領域を検出する処理について説明する模式図である。 図8A−Bの検出結果に基づいたオブジェクト領域抽出処理を説明する模式図である。 本発明の実施形態におけるスモールUマップを用いて遠方車両を検出する処理について説明する模式図である。 本発明の実施形態におけるスモールUマップを用いて遠方車両を検出する処理について説明する模式図である。 本発明の実施形態におけるラージUマップ、スモールUマップによるクラスタリング結果を示す模式図である。 本発明の実施形態におけるラージUマップ、スモールUマップによるクラスタリング結果を示す模式図である。 本発明の実施形態における物体検出処理の詳細手順を示すフローチャートである。 図12におけるマージ処理手順を示すフローチャートである。 図13におけるマージ処理の具体例を示す模式図である。 図13におけるマージ処理の具体例を示す模式図である。 図13におけるマージ処理の具体例を示す模式図である。 従来技術を説明するための模式図である。 従来技術を説明するための模式図である。 従来技術を説明するための模式図である。 従来技術を説明するための模式図である。
本発明の実施形態における物体検出装置に関し以下図面を用いて説明するが、本発明の趣旨を越えない限り、何ら本実施形態に限定されるものではない。なお、各図中、同一又は相当する部分には同一の符号を付しており、その重複説明は適宜に簡略化乃至省略する。また、以下に記載する実施形態は本発明の最良の形態であって、本発明にかかる特許請求の範囲を限定するものではない。
本実施形態においては、物体検出装置が、移動体としての車両に取り付けられたステレオカメラ等の撮像装置により撮像された、該車両の前方を走行する他の車両等の物体を検出する例を用いて説明する。他方、移動体としては車両に限定されず、船舶、航空機等にも適用可能である。
そして、例えば物体検出装置による検出結果を用いて車両の運行等を制御する。なお、ここでの制御には車両等それ自体を制御する概念に加え、車両等が備える所定の機器、例えばブレーキシステム、操舵システム、エンジン制御システム等の各ユニットを制御する概念も含まれる。
また、物体検出装置は例えば情報処理装置等として単独で構成されるものであっても、物体検出装置が有する処理機能がステレオカメラ等の撮像装置が有する処理基板等に組み込まれて構成されるものであってもよい。
<本実施形態における機器制御システムについて>
本実施形態における機器制御システムについて図1を参照して説明する。ここでは、機器として車両を制御するシステムを例にその概略を説明する。車両1は矢印A方向がフロントノーズであるとする。車両1は、撮像ユニット2、物体検出ユニット3、制御ユニット4を備えている。撮像ユニット2は例えば車内のルームミラー付近に設置され、フロントガラス5越しに車両1の前方を走行する他の車両等を撮像する。
撮像ユニット2により撮像された画像に基づいて物体検出ユニット3が物体を検出し、その検出結果を利用して制御ユニット4により車両の走行スピード、他の車両との走行間隔、走行レーン、ブレーキのタイミング等を制御する。なお、撮像ユニット、物体検出ユニット、制御ユニットなる用語は、ここでの記載内容と他の記載内容とを区別するために便宜的につけたものであり、ユニットとしたことについて他意はない。すなわち、撮像ユニット、物体検出ユニット、制御ユニットは、それぞれ、撮像装置又は撮像手段、物体検出装置又は物体検出手段、制御装置又は制御手段と読み替えてもよい。
<本実施形態における撮像装置について>
本実施形態における撮像装置について図2を参照して説明する。本実施形態における撮像装置はステレオカメラ10と、画像処理基板20で構成されている。
ステレオカメラ10は、2台のカメラが平行に組み付けられて構成される。ステレオカメラ10は、左レンズ11L、右レンズ11Rに対応して、画像センサ12L及び画像センサコントローラ13L、画像センサ12R及び画像センサコントローラ13Rを備えている。なお、本実施形態においては、2台のカメラによりステレオカメラ10が構成されているが、本発明としては、3台以上のカメラで構成されることを妨げない。
画像センサコントローラ13L、13Rは、画像センサ12L、12Rの露光制御、A/D変換、画像読み出し制御、外部回路との通信、画像データの送信の役割を担う。ステレオカメラ10は、画像処理基板20とデータバス27、シリアルバス28で接続されている。ステレオカメラ10から、輝度画像データと視差画像データが出力される。
ステレオカメラ10から出力された輝度画像データはデータバス27を介して画像センサ12L、12Rから画像処理基板20に転送される。また、シリアルバス28は、画像処理基板20からのセンサ露光制御値変更、画像読み出しパラメータ変更、各種設定データの送受信を行う。
画像処理基板20は、CPU21、FPGA22、RAM23、ROM24、シリアルI/F25、データI/F26、データバス27、シリアルバス28を備えている。
CPU21は画像処理基板20の全体の動作制御、画像処理、及び画像認識処理を実行する。FPGA22はRAM23に保存された画像データに対してリアルタイム性が要求される処理を実行する。FPGA22は、例えばガンマ補正、歪み補正すなわち左右画像の平行化、ブロックマッチングによる視差演算を行って視差画像を生成し、RAM23に書き戻す。
CPU21はステレオカメラ10の画像センサコントローラ13L、13Rの制御及び画像処理基板20の全体的な制御を担う。また、CPU21は、路面形状検出、ガードレール検出、オブジェクト検出を実行するプログラムをROM24からロードして、RAM23に蓄えられた輝度画像及び視差画像を入力として各種処理を実行する。さらに、CPU21は、検出データをシリアルI/F25又はデータI/F26から外部へ出力する。
CPU21は、処理の実行に際し、データI/F26を利用して、車速、加速度、舵角、ヨーレートなど車両の情報を入力して路面形状検出などの各種処理のパラメータとして使用する。外部に出力されるデータは自動緊急ブレーキや自動速度制御等の車両の制御を実行するための入力データとして使用される。なお、CPU21やFPGA22で実現される機能の一部は、画像処理基板20の外部に持たせてもよい。
<本実施形態における物体検出装置の機能ブロックについて>
本実施形態における物体検出装置の機能ブロックについて図3A−Bを参照して説明する。本実施形態における画像処理装置40は、図3Aに示すように、視差画像生成部31および物体検出装置30を備えて構成されている。物体検出装置30は、図3Aに示すように、マップ生成部32、物体検出部33を備えて構成されている。
視差画像生成部31は、2つの撮像手段である2台のカメラからなるステレオカメラ10により撮像された撮像画像から視差画像を生成する視差画像生成手段である。視差画像生成部31は図2に示したFPGA22によりその機能が実現される。
より具体的には、視差画像生成部31は、ステレオカメラ10から取得した輝度画像データから視差画像を得るために、ステレオカメラ10で撮像した撮像画像間の対応画像部分の視差値を演算する。
ここでの視差値とは、ステレオカメラ10で撮像した一方の画像を基準画像、他方を比較画像とし、撮像領域内の同一地点に対応した基準画像上の画像部分に対する比較画像上の画像部分の位置ズレ量を、当該画像部分の視差値として算出したものである。そして、三角測量の原理を利用することで、この視差値から当該画像部分に対応した撮像領域内の当該同一地点までの距離を算出することができる。視差値は距離値(距離情報)と等価として扱えるため、本実施形態においては、視差画像を距離画像の一例として説明する。
ステレオカメラ10からは撮影画像として輝度画像データが出力されるが、このときステレオカメラ10がカラーの場合は、RGB信号から輝度信号(Y)を得るカラー輝度変換を行う。例えば以下の式〔1〕により輝度信号を得る。
Y=0.3R+0.59G+0.11B・・・〔1〕
なお、ステレオカメラ10から取得した輝度画像データに対して、物体検出装置30は、平行化画像生成処理を行う。この平行化画像生成処理は、ステレオカメラ10を構成する2つのカメラにおける光学系の歪みや左右のカメラの相対的な位置関係から、各カメラから出力されるステレオ画像を、2つのカメラが平行に取り付けられたときに得られる理想的な平行化ステレオ画像となるように変換する処理である。
このように平行化画像生成処理を行った後、視差画像生成部31は、視差画像データを生成する視差画像生成処理を行う。視差画像生成処理では、まず、2つのカメラのうちの一方のカメラから取得した輝度画像データを基準画像データとし、他方のカメラから取得した輝度画像データを比較画像データとし、これらを用いて両者の視差を演算して、視差画像データを生成して出力する。この視差画像データは、基準画像データ上の各画像部分について算出される視差値dに応じた画素値をそれぞれの画像部分の画素値として表した視差画像を示すものである。
具体的には、視差画像生成部31は、基準画像データのある行について、一つの注目画素を中心とした複数画素、例えば16画素×1画素からなるブロックを定義する。一方、視差画像生成部31は、比較画像データにおける同じ行において、定義した基準画像データのブロックと同じサイズのブロックを1画素ずつ横ライン方向へずらし、基準画像データにおいて定義したブロックの画素値の特徴を示す特徴量と比較画像データにおける各ブロックの画素値の特徴を示す特徴量との相関を示す相関値を、それぞれ算出する。
そして、視差画像生成部31は、算出した相関値に基づき、比較画像データにおける各ブロックの中で最も基準画像データのブロックと相関があった比較画像データのブロックを選定するマッチング処理を行う。その後、視差画像生成部31は、基準画像データのブロックの注目画素と、マッチング処理で選定された比較画像データのブロックの対応画素との位置ズレ量を視差値dとして算出する。このような視差値dを算出する処理を基準画像データの全域又は特定の一領域について行うことで、視差画像データを得ることができる。
マッチング処理に用いるブロックの特徴量としては、例えば、ブロック内の各画素の値である輝度値を用いることができ、相関値としては、例えば、基準画像データのブロック内の各画素の値である輝度値と、これらの画素にそれぞれ対応する比較画像データのブロック内の各画素の値である輝度値との差分の絶対値の総和を用いることができる。この場合、当該総和が最も小さくなるブロックが最も相関があると言える。
視差画像生成部31でのマッチング処理をハードウェア処理によって実現する場合には、例えばSSD(Sum of Squared Difference)、ZSSD(Zero-mean Sum of Squared Difference)、SAD(Sum of Absolute Difference)、ZSAD(Zero-mean Sum of Absolute Difference)などの方法を用いることができる。
なお、マッチング処理では画素単位での視差値しか算出できないため、1画素未満のサブピクセルレベルの視差値が必要な場合には推定値を用いる必要がある。その推定方法としては、例えば、等角直線方式、二次曲線方式等を利用することができる。ただし、このサブピクセルレベルの推定視差値には誤差が発生するため、この推定誤差を減少させるEEC(推定誤差補正)などを用いてもよい。
マップ生成部32は、視差画像生成部31によって生成された視差画像に基づいて、解像度の異なる2種類のマップを生成するマップ生成手段である。マップ生成部32は、図2に示したCPU21によりその機能が実現される。
より詳細には、マップ生成部32は、第1のマップを生成するとともに、該第1のマップに対して横方向の画素を間引いた第2のマップを生成する。より具体的には、マップ生成部32は、図3Bに示すように、Vマップ生成部321、スモールUマップ生成部322、ラージUマップ生成部323で構成される。上記の「第1のマップ」はラージUマップに対応し、「第2のマップ」はスモールUマップに対応する。また、物体検出部33はマージ部331を有する。
本実施形態において、ラージUマップは比較的高解像度のUマップであり、スモールUマップはラージUマップに対して横方向又は幅方向の画像を1画素分、間引いた低解像度のUマップである。なお、ここでは間引き対象となる横方向の画素を1画素分としているが一例にすぎない。
Vマップ生成部321によるVマップ生成処理について図4A−Bを参照して説明する。Vマップ生成部321は、視差画像生成部31により生成された視差画像に基づいてVマップを生成する。Vマップの生成は、視差画像における路面位置を推定し、路面上に存在する物体を認識するために行われる。路面位置を特定することで路面からの高さ情報を得ることができ、路面上に存在する物体の大きさを特定することができる。
視差画像データに含まれる各視差画像データは、x方向位置とy方向位置と視差値dとの組(x、y、d)で示される。Vマップ生成部321は、この組(x、y、d)のうち、X軸にd、Y軸にy、Z軸に頻度を設定して、2次元のヒストグラムを生成する。この2次元のヒストグラムがVマップに相当する。つまり、Vマップ生成部321は、視差画像の各画素において、(d、y)を持つときにその度数を一つカウントアップする。
図4Aは、路面103上を車両101が矢印C方向に走行しており、路面103の左側に電柱102が存在する様子を撮像した撮像画像である。これをVマップ生成部321により生成したVマップが図4Bである。図4Bに示すように、視差画像からVマップに変換するとき、路面から一定の高さにある視差値をVマップ上に対応付けてクラスタリングすることによって、路面上の物体を認識することができる。クラスタリングにより、Vマップ上において車両101v、電柱102v、路面103vを認識することができる。
また、視差値をVマップ上に対応付ける領域(以下「投票領域」という。)を設定する必要がある。本実施形態における図4Bに斜線で示すB領域は、路面103より下の部分を示している。路面103より下の部分において視差が検出されることはないため、B領域には視差値の対応付けはされない。その他、カメラを搭載した車両の走行状態によって、路面推定範囲が変化すること等を考慮して投票領域を決定することが好ましい。
また、Vマップ生成部321は、路面103の形状を検出する路面形状検出処理を行う。これは、Vマップにおいて路面と推定される位置を直線近似する処理である。直線近似の方法としては、例えば最小二乗法やハフ変換を用いればよい。例えば、路面が平坦な場合は一本の直線で近似可能であるが、途中で勾配が変わる場合には、マップの区間を分割して精度よく直線近似する必要がある。
なお、Vマップにおいて路面形状検出処理を行う場合、上記のように投票領域の制限を行っても、視差の大きい領域と視差の小さい領域の2領域に分けて路面形状検出を行ってもよい。
Vマップ生成部321は、路面103の高さを算出してテーブル化する路面高さテーブル算出処理を行う。Vマップから路面を表す直線式が得られ、視差dが決まればそのときのy座標が決定される。このy座標が路面の高さとなり、これを必要な視差の範囲でテーブル化する。
スモールUマップ生成部322によるスモールUマップ生成処理、ラージUマップ生成部323によるラージUマップ生成処理を説明する前提として、Uマップ生成処理の概略について図6A−Bを参照して説明する。なお、以下では便宜的にスモールUマップ生成部322、ラージUマップ生成部323を含む概念の処理部をUマップ生成部として説明する。なお、本実施形態において、スモールUマップ生成部322、ラージUマップ生成部323とブロックを分けているが、本実施形態を理解しやすくするためであり、Uマップ生成部がスモールUマップ及びラージUマップを生成する構成でもよい。
Uマップ生成部は、例えばガードレールや路面に沿った立ち壁等の存在を推定するためにUマップを生成する。Uマップ生成部は、視差画像データに含まれる各視差画素データにおけるx方向位置とy方向位置と視差値dとの組(x、y、d)を、X軸にx、Y軸にd、Z軸に頻度を設定して、X−Yの2次元ヒストグラム情報を生成する。この2次元ヒストグラム情報がUマップである。
本実施形態においては、Uマップ生成部は、上述の路面高さテーブルによってテーブル化された各路面部分の高さに基づいて、路面からの高さが所定の高さの範囲(たとえば20cmから3m)にある視差画像の点(x、y、d)について頻度Uマップを生成する。
図5Aは、片側1車線の道路上のうち、左車線を車両101aが矢印D方向に走行し、右車線を車両101bが矢印E方向に走行している状態を撮像した撮像画像である。また、道路両脇には、ガードレール105a、105bが設置されている。
図5Bは、図5Aに示す撮像画像から変換された頻度Uマップを示す図である。ガードレール105a、105bは左右両端から中央上部に延びる直線上になる。ここでは、Uマップ変換後のガードレール105a、105bを105au、105buと表記している。
他方、車両101a、車両101bはガードレール105au、105buの間で、水平線分と、車の側面が見えて視差が検出されている場合は斜め線が水平線分に連結した形状となる。ここでは、Uマップ変換後の車両101a、車両101bを101au、101buと表記している。
図5Cは、高さUマップを示した図である。Uマップ生成部は、頻度Uマップの生成と同時に高さUマップを生成する。Uマップ生成部は、視差画像データに含まれる各視差画素データにおけるx方向位置とy方向位置と視差値dとの組(x、y、d)を、X軸にx、Y軸にd、Z軸に路面からの高さを設定して、X−Yの2次元ヒストグラム情報を生成する。この2次元ヒストグラム情報が高さUマップである。このときの高さの値は路面からの高さが最高のものである。
図5Cにハッチングの濃さで分けて示すように、車両101au、101buのハッチングはガードレール105au、105buのそれより濃くなっており、車両101au、101buの高さはガードレール105au、105buの高さよりも大きくなる。これにより物体の高さ情報を物体検出に使用することができる。
Uマップ生成部は、Uマップの生成後、リアルUマップを生成する。リアルUマップ生成処理について図6A−Bを参照して説明する。リアルUマップは、上述したUマップの横軸を画像の画素単位から実際の距離単位に変換し、縦軸の視差値を距離に応じた間引き率が適用された間引き視差に変換したものである。なお、図6Aは図5Bと同じ図である。ここでは横軸を実距離に変換した例を示しているが、実距離相当の単位に変換できればよい。
縦軸の間引き視差は、遠距離(ここでは50m以上)については間引きなし、中距離(20m以上、50m未満)については1/2に間引き、近距離(10m以上、20m未満)については1/3に間引き、最近距離(10m未満)については、1/8に間引いたものである。
つまり、遠方ほど、間引く量を少なくしている。その理由は、遠方では物体が小さく写るため、視差情報が少ない、距離の分解能も小さいため間引きを少なくし、近距離の場合は物体が大きく写るため、視差情報が多く距離の分解能も大きいため間引きを多くする。
図6BはUマップ生成部により生成されたリアルUマップの例である。本図は、路面や路面上を走行する車両等を上から俯瞰したような状態となっている。ガードレール105au、105buは垂直の線状で表され、変換後のガードレール105au、105buを105aru、105bruとしている。また、車両101au、101buの形も実際の形状に近いものに変換されている。変換後の車両101au、101buを101aru、101bruと表記している。
なお、図5C同様、リアルUマップについても頻度マップだけでなく、高さリアルUマップを生成することができる。
本実施形態においては、上述したUマップの生成処理に倣って、スモールUマップ生成部322によるスモールUマップ生成処理、ラージUマップ生成部323によるラージUマップ生成処理が行われる。
なお、ラージUマップ生成部323により生成するラージUマップは比較的高解像度のマップとして説明したが、あくまでスモールUマップとの対比の上で表現したものであり、上述したUマップ生成部により生成される通常のUマップであってよい。なお、意図的に基準値以上の解像度を持つUマップをラージUマップとして生成してもよい。本実施形態の特徴部分の一つであるスモールUマップ生成部322によるスモールUマップ生成処理については後述することとする。
物体検出部33は、マップ生成部により生成された2種類のマップに基づいて物体を検出する物体検出手段である。すなわち、物体検出部33は、スモールUマップ生成部322により生成されたスモールUマップ、ラージUマップ生成部323により生成されたラージUマップに基づいて物体を検出する。
物体検出部33による物体検出処理について図7を参照して説明する。ここでは、上述したリアルUマップを用いた物体検出について説明する。まず、物体検出部33は、リアルUマップの平滑化を行う(ステップS1)。これは、頻度の平均化を行って物体が存在すると推定される領域(以下「孤立領域」という。)を検出しやすくするためである。なお、ここでは、孤立領域について本処理を経て物体と判定される対象を「オブジェクト」とする。
次に、物体検出部33は、二値化の閾値を設定する(ステップS2)。物体検出部33は、最初は小さい値(0)を用いて、リアルUマップの二値化を行う(ステップS3)。その後、物体検出部33は値のある座標のラベリングを行って孤立領域を検出する(ステップS4)。
物体検出部33は、検出された複数の孤立領域についてそれぞれ大きさの判定を行う(ステップS5)。これは、検出対象が歩行者から大型自動車である場合に、検出された孤立領域の幅がそのサイズの範囲であるかどうかを判定するものである。
物体検出部33は、検出された孤立領域の大きさが大きければ(ステップS5、YES)、二値化閾値を1だけインクリメントして(ステップS2)、リアルUマップにおける当該物体のみ二値化を行う(ステップS3)。そして、物体検出部33は、ラベリングを行い(ステップS4)、より小さな孤立領域を検出して、その大きさを判定する(ステップS5)。物体検出部33は、上記の二値化閾値設定処理(ステップS2)からラベリング処理(ステップS4)迄を繰り返し行い、所望の大きさの孤立領域を検出する。
ここで、二値化処理とラベリング処理についてさらに詳細に説明する。物体検出部33は、リアルUマップで頻度が周囲より高い孤立領域(以下「島」という。)を検出する。島の検出には、リアルUマップをまず二値化する。最初は閾値0で二値化を行う。これは、オブジェクトの高さや、その形状、路面視差との分割などがあるため、島は孤立しているものもあれば他の島と連結しているものもあることの対策である。即ち、小さい閾値からリアル頻度Uマップを二値化することで最初は孤立した適切な大きさの島を検出し、その後、閾値を増加させていくことで連結している島を分割し、孤立した適切な大きさの島として検出することを可能にしたものである。
物体検出部33は、二値化後の島を検出する方法としてラベリングを用いる。ラベリングは、黒である注目画素の位置を示す座標の周囲にラベル付けされた座標があれば、その画素のラベルと同一ラベルを割り当てる。仮に、複数のラベルが存在すれば、最も小さい値のラベルを割り当て、その他のラベルが付いた座標のラベルをそのラベルで置き換える。その島の幅は実のオブジェクトに近い幅Wとみなすことができる。この幅Wが所定の範囲内にあるものをオブジェクト候補領域とみなす。つまり、二値化後の黒である座標、つまり頻度値が二値化閾値より高い座標をその連結性に基づいてラベリングし、同一ラベルが付いた領域を島とする。
物体検出部33は、大きさ判定において、検出された孤立領域の大きさが大きくない場合は(ステップS5、NO)、検出された孤立領域をオブジェクト候補として登録する(ステップS6)。
次に、視差画像の対応領域を検出する処理及びオブジェクト領域抽出処理について図8A〜9を参照して説明する。上述の通り、リアルUマップを用いることにより島を検出することができる。この場合、島を囲む矩形の幅は検出した物体の幅、高さは検出した物体の奥行きに相当する。また、物体の高さはリアルUマップの高さマップの最大値である。
図8Aは、オブジェクト候補領域として登録された島が内接する矩形領域を設定したリアル頻度Uマップを示す図であり、図8Bは、図8Aにおける矩形領域に対応する走査範囲を設定した視差画像を示す図であり、図9は、図8Bにおける走査範囲を探索してオブジェクト領域を設定した視差画像を示す図である。
物体検出部33は、オブジェクトの正確な位置と高さを求めるために、リアルUマップで検出した島に対応する視差画像の対応領域を検出する。リアルUマップで検出した島の位置、幅と最小視差から視差画像で検出すべき範囲(xmin、xmax)を決定することができる。
また、視差画像においてオブジェクトの高さと位置を決定することができる。この高さと位置はymin="最大視差dmaxのときの路面からの最大高さに相当するy座標"からymax="最大視差dmaxから得られる路面の高さを示すy"まで、として表すことができる。
物体検出部33は、オブジェクトの正確な位置を検出するため、設定した画像領域を走査し、島として検出した矩形の奥行き(最小視差dmin、最大視差dmax)の範囲の値を視差に持つ画素を候補画素として抽出する。そして、物体検出部33は、抽出した候補画素群の中で検出幅に対して横方向に所定の割合以上あるラインを候補ラインとする。候補ラインが存在する領域は、図8Aに示すように、車両101aru、101bruを囲む矩形201a、201bとなる。
次に、物体検出部33は、縦方向走査して、ある注目しているラインの周囲に候補ラインが所定の密度以上ある場合にはその注目ラインをオブジェクトラインとして判定する。
次に、物体検出部33は、視差画像の探索領域でオブジェクトラインを探索して、オブジェクトラインの最下端、最上端を決定し、オブジェクトライン群の外接矩形201ao、201boを視差画像におけるオブジェクト領域101ao、101boとして決定する。
本実施形態における物体検出装置30により検出したオブジェクト情報を保存したオブジェクトデータリストについて表1及び表2を参照して説明する。
Figure 2017134936
表1は、オブジェクトタイプごとのサイズを規定したテーブルデータである。なお、表1における数値は一例にすぎない。ここでは、表1中の単位はmmとする。ここでは、幅が1100未満、高さが2500未満、奥行きが1000超であればオブジェクトタイプは二輪車としている。また、幅が1100未満、高さが2500未満、奥行きが1000以下であればオブジェクトタイプは歩行者としている。また、幅が1700未満、高さが1700未満、奥行きが10000未満であればオブジェクトタイプは小型車としている。
さらに、幅が1700未満、高さが2500未満、奥行きが10000未満であればオブジェクトタイプは普通車としている。さらに、幅が3500未満、高さが3500未満、奥行きが15000未満であればオブジェクトタイプはトラックとしている。なお、これらのサイズに当てはまらないものはその他としている。
Figure 2017134936
表2は、保存されるオブジェクトデータの現在の情報として、位置、大きさ、距離、相対速度、視差情報を示したものであり、図1で説明した機器制御の処理に用いられる。ここでは、位置を画像中における左上座標(x、y)とし、大きさを画像中のオブジェクトの大きさ(w、h)とし、距離を被写体までの距離とし、相対速度をフレームあたりの相対速度として、横X(m/frame)、奥行きZ(m/frame)とし、最大視差をオブジェクトの最大視差とし、最少視差をオブジェクトの最少視差としている。
オブジェクトタイプ分類処理について説明する。物体検出部33により決定されるオブジェクト領域101ao、101boの高さ(yomax−yomin)から、下記の式〔2〕により、そのオブジェクト領域に対応する画像領域に映し出されている識別対象物(以下、「オブジェクト」という。)の実際の高さHoを計算することができる。
Ho=zo×(yomax−yomin)/f・・・式〔2〕
ただし、「zo」は、当該オブジェクト領域内の最小視差値dから計算される当該オブジェクト領域に対応するオブジェクトと自車両との距離であり、「f」はカメラの焦点距離を(yomax−yomin)の単位と同じ単位に変換した値である。
同様に、物体検出部33により決定されるオブジェクト領域の幅(xomax−xomin)から、下記の式〔3〕により、そのオブジェクト領域に対応する画像領域に映し出されているオブジェクトの実際の幅Woを計算することができる。
Wo=zo×(xomax−xomin)/f・・・式〔3〕
また、当該オブジェクト領域に対応する画像領域に映し出されているオブジェクトの奥行きDoは、当該オブジェクト領域に対応した孤立領域内の最大視差値dmaxと最小視差値dminから、下記の式〔4〕より計算することができる。なお、式〔4〕において、BFをステレオカメラの基線長と焦点距離を掛け合わせたもの、offsetを無限遠における視差とする。
Do=BF×{(1/(dmin−offset)−1/(dmax−offset)}・・・式〔4〕
物体検出部33は、このようにして計算できるオブジェクト領域に対応するオブジェクトの高さ、幅、奥行きの情報から、表1のようにして各オブジェクトタイプの分類を行う。
さらに、物体検出部33は、視差の情報から物体までの距離、視差画像の画像中心と視差画像上のオブジェクトの領域の中心までの画像上の距離もわかっているため、オブジェクトの3次元位置を決定することができる。
図3Bに戻り、本実施形態における物体検出部33が有するマージ部331について説明する。マージ部331は、第1のマップに対応するラージUマップと第2のマップに対応するスモールUマップとをマージするマージ手段である。
マージ部331は、ステレオカメラ10からの距離が第1の範囲内であればラージUマップを選択する。また、マージ部331は、ステレオカメラ10からの距離が第1の範囲外の第2の範囲内であればスモールUマップを選択する。ここで「第1の範囲」とは、例えば5m〜10m等、ステレオカメラ10から物体までの距離が近い所定の領域をいう。また、「第2の範囲」とは、例えば100m以上等、ステレオカメラ10から物体までの距離が遠い所定の領域をいう。つまり、本実施形態では、第2の範囲は、第1の範囲よりもステレオカメラ10から遠方にある所定の領域となる。
<本実施形態におけるスモールUマップを用いて遠方車両を検出する処理について>
本実施形態におけるスモールUマップを用いて遠方車両を検出する処理について図10A−Bを参照して説明する。スモールUマップ生成部322は、ラージUマップに対して横方向の画素を1画素間引いたUマップである。つまり、スモールUマップは、ラージUマップの横方向の解像度を低下させたものである。
これにより、従来、図16A−Bに示したように、100mの遠方に存在する車両401(a)が、ラージUマップを用いた場合、二つの塊401uとして分離して検出されてしまうところ(b)、一つの塊401suとして検出することができる。なお、図15A−Bに示すように、5m付近の近方に存在する車両301(a)であれば、ラージUマップを用いた場合でも、一つの塊301uとして検出することができる(b)。
なお、以下ではスモールUマップとしてラージUマップの横方向の解像度のみを低下させたものを用いて説明するが、横方向のみにかかわらず、奥行き方向の解像度を低下させて用いてもよい。これによってメモリ量の削減を実現することができる。
スモールUマップ生成部322により生成されたスモールUマップにおける塊401suをラベリングした結果を示したものが図10Bである。
<本実施形態におけるラージUマップ、スモールUマップによるクラスタリング結果について>
本実施形態におけるラージUマップ、スモールUマップによるクラスタリング結果について図11A−Bを参照して説明する。
図11Aに示すように、ラージUマップによる遠方車両をクラスタリングした場合、0番と1番の2つの塊として検出され、スモールUマップによる遠方車両をクラスタリングした場合は0番の1つの塊として検出されていることがわかる。このように、ラージUマップによる検出では、解像度が高い分、情報の少ない遠方の1つの物体が2つに分かれやすい。一方、スモールUマップによる検出では、解像度を低くしたため、情報の少ない遠方の物体でも分かれることなく安定して検出することができる。
<本実施形態における物体検出処理の詳細手順について>
本実施形態における物体検出処理手順のうち塊抽出処理手順について図12を参照して説明する。まず、スモールUマップ生成部322はスモールUマップを生成し、ラージUマップ生成部323はラージUマップを生成する(ステップS11)。本実施形態においてはラージUマップ生成と同時又は生成後に幅方向のデータを1画素おきに間引くことによってスモールUマップを生成する。
次に、物体検出部33は、スモールUマップのラベリングを行い(ステップS12)、例えば車両サイズ等の物体の候補領域を塊として抽出する(ステップS13)。本実施形態においては、スモールUマップは遠方車両の抽出を対象とするため、車両サイズの候補領域を塊として抽出する。本実施形態においては、乗用車サイズは幅6画素、大型車両サイズは幅9画素を目安としている。
次に、物体検出部33は、ラージUマップでラベリングを行う(ステップS14)。
マージ部331は、スモールUマップ、ラージUマップのそれぞれのラベリング結果をマージする(ステップS15)。マージ処理については後述する。
<図12におけるマージ処理手順について>
図12におけるマージ処理手順について図13を参照して説明する。マージ部331は、スモールUマップ、ラージUマップにおいて抽出された車両サイズの塊に対し、塊ごとに対応付けを行う(ステップS21)。本実施形態においては、距離に基づいて横方向に対応付けを行う。
マージ部331は、ステレオカメラ10から候補領域となる塊までが近距離であるか否かを判定する(ステップS22)。
マージ部331は、ステレオカメラ10から候補領域となる塊までが近距離であると判定した場合(ステップS22、YES)、近距離と判定された塊についてはラージUマップにおけるものを選択する(ステップS23)。
他方、マージ部331は、ステレオカメラ10から候補領域となる塊までが近距離でないと判定した場合(ステップS22、NO)、つまり遠距離であると判定された塊についてはスモールUマップにおけるものを選択する(ステップS24)。
<マージ処理の具体例について>
上述したマージ処理について具体例を示す図14A−Cを参照して説明する。図14Aは路面500におけるステレオカメラ10から遠距離に車両501、車両502が、路面500におけるステレオカメラ10から近距離に車両503、人504、人505が存在している様子を捉えた撮像画像である。
図14Bは図14Aに示した撮像画像から生成されたスモールUマップである。また、図14Cは図14Aに示した撮像画像から生成されたラージUマップである。マージ部331は、ステレオカメラ10からの距離を基準として遠方か近方かを分けて処理する。本実施形態では、ステレオカメラ10から5mまでを近方としている。
図14Bに示すスモールUマップの近方には、S3、S4の塊が存在し、図14Cに示すラージUマップの同距離には、[4]、[5]、[6]の塊が存在している。マージ部331は、ラージUマップにおいて横方向のサイズを考慮し、S4の塊と[5]及び[6]の各塊とを対応付ける。例えば、〈1〉S4の中心と、[5]の中心及び[6]の中心の平均との差が閾値内でかつ、〈2〉S4の大きさと、[5]の大きさと[6]の大きさの和と、の差が閾値内である場合、対応付けがなされるようにすればよい。
同様に、遠方の塊についても、同距離であるS1の塊と、[1]及び[2]の塊とが対応付けられ、S2の塊と[3]の塊とが対応付けられる。
マージ部331は、近距離に存在する塊については、ラージUマップにおけるものを選択し、遠距離に存在する塊については、スモールUマップにおけるものを選択する。ここでは、近距離に存在する塊については、ラージUマップにおける[4]、[5]、[6]の塊を選択し、遠距離に存在する塊については、スモールUマップにおけるS1、S2を選択する。
すなわち、ラージUマップでは、スモールUマップに対して解像度が高い分、互いに近い位置にある複数の物体を識別して検出可能であるが、単一物体が分離して検出されやすい。一方、スモールUマップでは、単一物体が分離しにくく1つの塊として検出しやすいが、複数物体が結合して検出されやすい。
そこで、撮像画像上で物体が大きく存在しており画素情報量の比較的多い近距離においてはラージUマップを用いた検出を、撮像画像上で物体が小さく存在しており画素情報量の比較的少ないため物体が分離されやすい遠距離においてはスモールUマップを用いた検出を行う。これにより、遠距離における立体物の横方向の連続性が確保され、対象物の横方向の距離、例えば車両の幅等を安定して検出することが可能になる。
以上、本実施形態によれば、比較的高分解能のUマップを使用すると遠方の視差がまばらになり、つまり画素密度が小さくなり、対象物が複数の塊として認識され、一つの物体として認識できない場合であっても低分解能のスモールUマップを併用することにより、遠方の対象物の視差値がまばら又は低密度になることを抑制でき、検出したい対象物を一定以上の大きさの塊として検出することができる。その結果、ステレオカメラで視差画像を用いて人や先行車などの物体を検出する上で、遠方の対象物を従来より安定して検出することが可能になる。
なお、上述する各実施の形態は、本発明の好適な実施の形態であり、本発明の要旨を逸脱しない範囲内において種々変更実施が可能である。例えば、上述した本実施形態の画像処理装置における各処理を、ハードウェア、又は、ソフトウェア、あるいは、両者の複合構成を用いて実行することも可能である。
なお、ソフトウェアを用いて処理を実行する場合には、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれているコンピュータ内のメモリにインストールして実行させることが可能である。あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
また、上述した本実施形態においては、遠距離に存在する塊についてはスモールUマップを用いることにより視差値がばらけるのを回避し、遠方の塊を安定的に検出しやすくする手法について記載したが、本発明はこれに限定されない。例えば、物体検出処理の段階において画素を間引いて検出する手法でもよい。
また、視差画像上で塊を検出する際においても、遠方の物体については安定的な検出が得られない場合があり、この場合に異なる解像度である2つの視差画像を生成することで、遠方の物体を安定的に検出する手法でもよい。
また、上述した本実施形態においては、ステレオカメラを前提として記載しているが、これに限られない。例えば、レーザーレーダ等の距離情報と視差画像を組み合わせて距離画像を生成し、生成された距離画像に対して本実施形態の物体検出装置を適用することができる。
1 車両
2 撮像ユニット
3 物体検出ユニット
4 制御ユニット
5 フロントガラス
10 ステレオカメラ
11L 左レンズ
11R 右レンズ
12L、12R 画像センサ
13L、13R 画像センサコントローラ
20 画像処理基板
21 CPU
22 FPGA
23 RAM
24 ROM
25 シリアルI/F
26 データI/F
27 データバス
28 シリアルバス
30 物体検出装置
31 視差画像生成部
32 マップ生成部
33 物体検出部
40 画像処理装置
321 Vマップ生成部
322 スモールUマップ生成部
323 ラージUマップ生成部
331 マージ部
特開2015−207281号公報
本国際出願は、2016年2月5日に出願した日本国特許出願第2016-021179号に基づく優先権を主張するものであり、当該出願の全内容を本国際出願に援用する。

Claims (8)

  1. 座標毎に距離情報を有する距離画像に基づいて、解像度の異なる2種類のマップを生成するマップ生成手段と、
    前記マップ生成手段により生成された前記2種類のマップに基づいて物体を検出する物体検出手段と、
    を備えることを特徴とする物体検出装置。
  2. 前記マップ生成手段は、第1のマップを生成するとともに、該第1のマップに対して横方向の画素を間引いた第2のマップを生成することを特徴とする請求項1記載の物体検出装置。
  3. 前記物体検出手段は、前記第1のマップと前記第2のマップとをマージするマージ手段を有し、
    前記マージ手段は、前記距離情報が示す距離が第1の範囲内であれば前記第1のマップを選択し、前記距離情報が示す距離が前記第1の範囲外の第2の範囲内であれば前記第2のマップを選択してマージすることを特徴とする請求項2記載の物体検出装置。
  4. 前記第2の範囲は、前記第1の範囲よりも遠方の距離範囲であることを特徴とする請求項3記載の物体検出装置。
  5. 座標毎に距離情報を有する距離画像に基づいて、解像度の異なる2種類のマップを生成するマップ生成手段と、
    前記マップ生成手段により生成された前記2種類のマップに基づいて物体を検出する物体検出手段と、
    前記物体検出手段による検出結果に基づいて所定の機器を制御する制御手段と、を備えることを特徴とする機器制御システム。
  6. 2つの撮像手段と、
    前記2つの撮像手段により撮像された撮像画像から生成された距離画像に基づいて、解像度の異なる2種類のマップを生成するマップ生成手段と、 前記マップ生成手段により生成された前記2種類のマップに基づいて物体を検出する物体検出手段と、を備えることを特徴とする撮像装置。
  7. コンピュータが、座標毎に距離情報を有する距離画像に基づいて、解像度の異なる2種類のマップを生成するステップと、
    コンピュータが、生成した前記2種類のマップに基づいて物体を検出するステップと、を備えることを特徴とする物体検出方法。
  8. 座標毎に距離情報を有する距離画像に基づいて、解像度の異なる2種類のマップを生成する処理と、
    生成された前記2種類のマップに基づいて物体を検出する処理と、をコンピュータに実行させることを特徴とするプログラム。
JP2017565422A 2016-02-05 2016-12-14 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム Active JP6687039B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016021179 2016-02-05
JP2016021179 2016-02-05
PCT/JP2016/087253 WO2017134936A1 (ja) 2016-02-05 2016-12-14 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2017134936A1 true JPWO2017134936A1 (ja) 2018-11-22
JP6687039B2 JP6687039B2 (ja) 2020-04-22

Family

ID=59500630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017565422A Active JP6687039B2 (ja) 2016-02-05 2016-12-14 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム

Country Status (4)

Country Link
US (1) US10853963B2 (ja)
EP (1) EP3413267B1 (ja)
JP (1) JP6687039B2 (ja)
WO (1) WO2017134936A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018037778A1 (ja) * 2016-08-26 2018-03-01 オリンパス株式会社 計測処理装置
SG11202010040YA (en) * 2018-04-10 2020-11-27 Mgi Tech Co Ltd Fluorescence image registration method, gene sequencing instrument and system, and storage medium
JP7238422B2 (ja) 2019-01-22 2023-03-14 株式会社リコー 測距方法、測距装置、車載装置、移動体、測距システム
US11791050B2 (en) * 2019-02-05 2023-10-17 Electronic Caregiver, Inc. 3D environment risks identification utilizing reinforced learning
JP7255259B2 (ja) 2019-03-19 2023-04-11 株式会社リコー 検出装置、測距装置、時間測定方法、プログラム、移動体
JP2020190438A (ja) 2019-05-20 2020-11-26 株式会社リコー 計測装置および計測システム
JP7229129B2 (ja) * 2019-09-05 2023-02-27 京セラ株式会社 物体検出装置、物体検出システム、移動体及び物体検出方法
CN113298820B (zh) * 2020-12-01 2022-08-26 湖南长天自控工程有限公司 一种料堆盘库的方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0771936A (ja) * 1993-06-29 1995-03-17 Canon Inc 画像処理装置及びその方法
JP2006038578A (ja) * 2004-07-26 2006-02-09 Toyota Motor Corp 物体検出装置
JP2006236104A (ja) * 2005-02-25 2006-09-07 Toyota Central Res & Dev Lab Inc 対象物判定装置
JP2013196193A (ja) * 2012-03-16 2013-09-30 Ricoh Co Ltd 画像処理装置、画像処理システム及び画像処理方法
JP2013250907A (ja) * 2012-06-04 2013-12-12 Ricoh Co Ltd 視差算出装置、視差算出方法及び視差算出用プログラム

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006134035A (ja) 2004-11-05 2006-05-25 Fuji Heavy Ind Ltd 移動物体検出装置および移動物体検出方法
JP4719543B2 (ja) 2005-09-26 2011-07-06 株式会社リコー ワークフローシステム、サーバ装置、ワークフローシステムの処理方法及びワークフロープログラム
JP2007102545A (ja) 2005-10-05 2007-04-19 Ricoh Co Ltd 電子文書作成装置、電子文書作成方法及び電子文書作成プログラム
JP4647515B2 (ja) 2006-02-20 2011-03-09 株式会社リコー 座標検出装置、筆記具および座標入力システム
JP5316805B2 (ja) 2009-03-16 2013-10-16 株式会社リコー 車載カメラ装置の画像調整装置及び車載カメラ装置
JP5376313B2 (ja) 2009-09-03 2013-12-25 株式会社リコー 画像処理装置及び画像撮像装置
JP5664152B2 (ja) 2009-12-25 2015-02-04 株式会社リコー 撮像装置、車載用撮像システム及び物体識別装置
KR20120023431A (ko) * 2010-09-03 2012-03-13 삼성전자주식회사 깊이 조정이 가능한 2차원/3차원 영상 변환 방법 및 그 장치
JP6102088B2 (ja) 2011-09-01 2017-03-29 株式会社リコー 画像投影装置、画像処理装置、画像投影方法、画像投影方法のプログラム及びそのプログラムを記録した記録媒体
JP2014131257A (ja) 2012-11-27 2014-07-10 Ricoh Co Ltd 画像補正システム、画像補正方法及びプログラム
RU2012154657A (ru) * 2012-12-17 2014-06-27 ЭлЭсАй Корпорейшн Способы и устройство для объединения изображений с глубиной, генерированных с использованием разных способов формирования изображений с глубиной
JP6150277B2 (ja) * 2013-01-07 2017-06-21 国立研究開発法人情報通信研究機構 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
JP6274557B2 (ja) 2013-02-18 2018-02-07 株式会社リコー 移動面情報検出装置、及びこれを用いた移動体機器制御システム並びに移動面情報検出用プログラム
US9519972B2 (en) * 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
JP6245885B2 (ja) * 2013-08-02 2017-12-13 キヤノン株式会社 撮像装置およびその制御方法
JP6398347B2 (ja) 2013-08-15 2018-10-03 株式会社リコー 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム
JP6417886B2 (ja) 2013-12-12 2018-11-07 株式会社リコー 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム
JP6519262B2 (ja) 2014-04-10 2019-05-29 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
JP2016001464A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム、及び、処理方法
JP2016001170A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理プログラム、及び、処理方法
JP6417729B2 (ja) 2014-06-09 2018-11-07 株式会社リコー 画像処理装置、画像処理方法、プログラム、視差データの生産方法、機器制御システム
JP6550881B2 (ja) 2014-07-14 2019-07-31 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
US20160019429A1 (en) 2014-07-17 2016-01-21 Tomoko Ishigaki Image processing apparatus, solid object detection method, solid object detection program, and moving object control system
US9726604B2 (en) 2014-11-12 2017-08-08 Ricoh Company, Ltd. Adhering detection apparatus, adhering substance detection method, storage medium, and device control system for controlling vehicle-mounted devices
PL411602A1 (pl) * 2015-03-17 2016-09-26 Politechnika Poznańska System do estymacji ruchu na obrazie wideo i sposób estymacji ruchu na obrazie wideo

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0771936A (ja) * 1993-06-29 1995-03-17 Canon Inc 画像処理装置及びその方法
JP2006038578A (ja) * 2004-07-26 2006-02-09 Toyota Motor Corp 物体検出装置
JP2006236104A (ja) * 2005-02-25 2006-09-07 Toyota Central Res & Dev Lab Inc 対象物判定装置
JP2013196193A (ja) * 2012-03-16 2013-09-30 Ricoh Co Ltd 画像処理装置、画像処理システム及び画像処理方法
JP2013250907A (ja) * 2012-06-04 2013-12-12 Ricoh Co Ltd 視差算出装置、視差算出方法及び視差算出用プログラム

Also Published As

Publication number Publication date
US10853963B2 (en) 2020-12-01
US20180357783A1 (en) 2018-12-13
JP6687039B2 (ja) 2020-04-22
EP3413267B1 (en) 2023-06-28
EP3413267A1 (en) 2018-12-12
EP3413267A4 (en) 2019-02-13
WO2017134936A1 (ja) 2017-08-10

Similar Documents

Publication Publication Date Title
US10984509B2 (en) Image processing apparatus, imaging device, moving body device control system, image information processing method, and program product
JP6687039B2 (ja) 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム
US10860867B2 (en) Image processing apparatus, imaging apparatus, mobile device control system, and recording medium
US10679388B2 (en) Image processing apparatus, device control system, imaging apparatus, and recording medium
US11004215B2 (en) Image processing apparatus, imaging device, moving body device control system, image information processing method, and program product
US11064177B2 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and recording medium
WO2017090326A1 (ja) 画像処理装置、撮像装置、機器制御システム、分布データ生成方法、及びプログラム
US10565438B2 (en) Vehicle periphery monitor device
US10776633B2 (en) Image processing apparatus, imaging apparatus, mobile device control system, and recording medium
US20200074212A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
US10628960B2 (en) Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and recording medium
JP2018088233A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及びプログラム
US11054245B2 (en) Image processing apparatus, device control system, imaging apparatus, image processing method, and recording medium
JP2018088234A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及びプログラム
JP2018088237A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
JP6943092B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20180731

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200316

R151 Written notification of patent or utility model registration

Ref document number: 6687039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151