JP2017052498A - 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム - Google Patents
画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP2017052498A JP2017052498A JP2015180030A JP2015180030A JP2017052498A JP 2017052498 A JP2017052498 A JP 2017052498A JP 2015180030 A JP2015180030 A JP 2015180030A JP 2015180030 A JP2015180030 A JP 2015180030A JP 2017052498 A JP2017052498 A JP 2017052498A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- recognition
- vehicle
- partial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】画像処理装置であって、対象画像を入力する入力手段と、前記対象画像が第1物体を示す画像であるか否かを認識する第1認識手段と、前記第1認識手段により、前記対象画像が前記第1物体を示す画像であると認識された場合、該対象画像に、該第1物体とは異なる第2物体を示す部分画像の少なくとも一部が重複しているか否かを認識する第2認識手段と、前記第2認識手段により前記対象画像に前記部分画像の少なくとも一部が重複していると認識され、かつ、前記画像処理装置を搭載した車両、前記部分画像、または前記対象画像の少なくともいずれかに関する所定の条件を満たす場合、前記部分画像に対して棄却と判定する判定手段と、を備える。
【選択図】図10
Description
まず、図1〜3を用いて、ブロックマッチング処理による測距方法の概略について説明する。
図1は、撮像部から物体までの距離を導き出す原理を説明する図である。図1を参照しながら、ステレオマッチング処理により、ステレオカメラから物体に対する視差を導出し、この視差を示す視差値によって、ステレオカメラから物体までの距離を測定する原理について説明する。
次に、図2および3を用いて、ブロックマッチング処理による測距方法について説明する。
以下、図4〜15を用いて、第1の実施の形態の具体的な説明をする。ここでは、ブロックマッチング処理を行う物体認識装置1が自動車に搭載される場合を例に説明する。
図4は、物体認識装置の動作の概要を説明する図である。図4を参照しながら、まず、本実施の形態に係る物体認識装置1において、車両の認識画像上で部分認識された部分認識画像を棄却するか否かの動作の概要について説明する。
図5は、第1の実施の形態に係る機器制御システムを車両に搭載した例を示す図である。図5を参照しながら、本実施の形態に機器制御システム60を搭載した車両70について説明する。図5のうち、図5(a)は、機器制御システム60を搭載した車両70の側面図であり、図5(b)は、車両70の正面図である。
図6は、第1の実施の形態に係る物体認識装置の外観の一例を示す図である。図6に示すように、物体認識装置1は、上述のように、本体部2と、本体部2に固定された撮像部10aと、撮像部10bとを備えている。撮像部10a、10bは、本体部2に対して平行等位に配置された一対の円筒形状のカメラで構成されている。また、説明の便宜上、図6に示す撮像部10aを「右」のカメラと称し、撮像部10bを「左」のカメラと称するものとする。
図7は、第1の実施の形態に係る物体認識装置のハードウェア構成の一例を示す図である。図7を参照しながら、物体認識装置1のハードウェア構成について説明する。
図8は、第1の実施の形態に係る物体認識装置の機能ブロック構成の一例を示す図である。図9は、第1の実施の形態に係る物体認識装置の視差値演算処理部の機能ブロック構成の一例を示す図である。図10は、第1の実施の形態に係る物体認識装置の棄却部の機能ブロック構成の一例を示す図である。図8〜10を参照しながら、物体認識装置1の要部の機能ブロックの構成および動作について説明する。
図11は、第1の実施の形態に係る視差値導出部のブロックマッチング処理の動作の一例を示すフローチャートである。図11を参照しながら、物体認識装置1の視差値導出部3のブロックマッチング処理の動作の流れについて説明する。
視差値導出部3の画像取得部100は、左のカメラ(撮像部10b)により前方の被写体を撮像して、それぞれアナログの画像信号を生成し、その画像信号に基づく画像である輝度画像を得る。これによって、後段の画像処理の対象となる画像信号が得られることになる。そして、ステップS2−1へ移行する。
視差値導出部3の画像取得部100は、右のカメラ(撮像部10a)により前方の被写体を撮像して、それぞれアナログの画像信号を生成し、その画像信号に基づく画像である輝度画像を得る。これによって、後段の画像処理の対象となる画像信号が得られることになる。そして、ステップS2−2へ移行する。
視差値導出部3の変換部200は、撮像部10bにより撮像されて得られたアナログの画像信号に対して、ノイズを除去し、デジタル形式の画像データに変換する。このように、デジタル形式の画像データに変換することによって、その画像データに基づく画像に対して画素ごとの画像処理が可能となる。そして、ステップS3−1へ移行する。
視差値導出部3の変換部200は、撮像部10aにより撮像されて得られたアナログの画像信号に対して、ノイズを除去し、デジタル形式の画像データに変換する。このように、デジタル形式の画像データに変換することによって、その画像データに基づく画像に対して画素ごとの画像処理が可能となる。そして、ステップS3−2へ移行する。
変換部200は、ステップS2−1において変換したデジタル形式の画像データに基づく画像をブロックマッチング処理における比較画像Ibとして出力する。これによって、ブロックマッチング処理において視差値を求めるための比較対象となる画像を得る。そして、ステップS4へ移行する。
変換部200は、ステップS2−2において変換したデジタル形式の画像データに基づく画像をブロックマッチング処理における基準画像Iaとして出力する。これによって、ブロックマッチング処理において視差値を求めるための基準となる画像を得る。そして、ステップS4へ移行する。
視差値導出部3の視差値演算処理部300のコスト算出部301は、基準画像Iaにおける基準画素p(x,y)の輝度値、および、基準画素p(x,y)に基づく比較画像Ibにおけるエピポーラ線EL上で、基準画素p(x,y)の位置に相当する画素からシフト量dでシフトすることにより特定される、対応画素の候補画素q(x+d,y)の各輝度値に基づいて、各候補画素q(x+d,y)のコスト値C(p,d)を算出することにより取得する。具体的には、コスト算出部301は、ブロックマッチング処理により、基準画像Iaの基準画素pを中心とする所定領域である基準領域pbと、比較画像Ibの候補画素qを中心とする候補領域qb(大きさは基準領域pbと同一)との非類似度をコスト値Cとして算出する。そして、ステップS5へ進む。
視差値導出部3の視差値演算処理部300の決定部302は、コスト算出部301により算出されたコスト値Cの最小値に対応するシフト量dを、コスト値Cの算出の対象となった基準画像Iaの画素についての視差値dpとして決定する。そして、視差値導出部3の視差値演算処理部300の生成部303は、決定部302により決定された視差値dpに基づいて、基準画像Iaの各画素の輝度値を、その画素に対応する視差値dpで表した画像である視差画像を生成する。生成部303は、生成した視差画像を、認識処理部5に出力する。
図12は、第1の実施の形態に係る認識処理部のクラスタリング部のクラスタリング処理の動作を説明する図である。図13は、第1の実施の形態に係る認識処理部のクラスタリング部のクラスタリング処理の動作を説明する図である。図14は、クラスタリング処理により抽出された認識画像の例を示す図である。図12〜14を参照しながら、認識処理部5のクラスタリング部400におけるクラスタリング処理の動作について説明する。
図15は、第1の実施の形態に係る認識処理部の棄却部の棄却判定処理の動作の一例を示すフローチャートである。図15を参照しながら、認識処理部5の棄却部500の棄却判定処理の動作の一例の流れについて説明する。
入力部501は、視差値導出部3から出力された基準画像Ia、およびクラスタリング部400から出力された認識画像情報を入力する。そして、入力部501は、基準画像Iaから認識画像情報が示す認識画像を特定する(読み込む)。そして、ステップS12へ移行する。
画像認識部502は、入力部501により特定された基準画像Ia上での認識画像の物体が車両であるか否かを認識し、さらに、その車両の認識画像上で部分認識が発生しているか否かを認識する。なお、基準画像Iaから認識画像情報が示す認識画像を特定するのは、画像認識部502により行われてもよい。具体的には、まず、画像認識部502の車両認識部502aが、認識画像で認識された物体が車両であるか否かを車両認識する。車両認識の結果、認識画像で認識された物体が車両でない場合、棄却判定処理を終了する。そして、画像認識部502の部分認識部502bは、車両認識部502aにより対象の認識画像が車両であると認識された場合、認識画像上で部分認識が発生しているか否か、すなわち、認識画像上に部分認識画像が重複しているか否かを認識する。認識画像上に部分認識画像が重複していない場合、棄却判定処理を終了する。一方、部分画像が重複している場合、部分認識部502bは、車両の認識画像上で部分認識が発生しているか否かの結果と、認識画像情報(車両の認識画像、およびそれに重複している部分認識画像を示す情報)とを認識結果として棄却判定部503に送り、ステップS13へ移行する。
棄却判定部503は、画像認識部502から出力された認識結果に基づいて、認識結果に含まれる認識画像情報が示す部分認識画像を棄却するか否かを判定する。具体的には、棄却判定部503は、認識画像上に部分認識画像が重複している場合、自車速度の情報(車速情報)を取得し、自車速度が所定速度以上である場合、車両70が高速道路を走行中であると判断(すなわち、人が歩行中の状態ではないと予測)し、その部分認識画像を棄却するものと判定する。一方、棄却判定部503は、自車速度が所定速度未満である場合、車両70が高速道路を走行中でないと判断(すなわち、人が歩行中の状態である可能性があると予測)し、その部分認識画像を棄却しないものと判定する。棄却判定部503は、棄却の判定結果を出力部504に出力する。そして、ステップS14へ移行する。
出力部504は、棄却判定部503から出力された棄却の判定結果、すなわち、その部分認識画像を棄却するか否かを示す棄却フラグを認識画像情報に含めて、トラッキング判定部550に送る。なお、出力部504は、部分認識画像を棄却することを示す認識画像情報をトラッキング判定部550に出力するものとしているが、これに限定されるものでない。例えば、棄却判定部503の棄却判定処理の結果、棄却しない認識画像(部分認識画像を含む)の認識画像情報のみをトラッキング判定部550に送り、棄却する認識画像の認識画像情報を送信しないものとしてもよい。この場合、車両制御装置6では、棄却する認識画像の認識画像情報は受信しないので、この認識画像(部分認識画像を含む)が各種車両制御に利用されないようにすることができる。
第2の実施の形態に係る物体認識装置について、第1の実施の形態に係る物体認識装置1と相違する点を中心に説明する。本実施の形態では、認識画像上で部分認識が発生している場合に、部分認識画像をテンプレートとして、認識画像内で部分認識画像と類似する画像が見つかった場合、その部分認識画像を棄却する動作について説明する。なお、本実施の形態に係る物体認識装置のハードウェア構成および機能ブロック構成、および、視差値演算処理部300の機能ブロック構成は、第1の実施の形態で説明した構成と同様である。また、本実施の形態に係る視差値導出部3のブロックマッチング処理、および、クラスタリング部400におけるクラスタリング処理も、第1の実施の形態で説明した動作と同様である。
図16は、第2の実施の形態に係る物体認識装置の棄却部の機能ブロック構成の一例を示す図である。図16を参照しながら、本実施の形態の認識処理部5の棄却部500aの機能ブロックの構成および動作について説明する。
図17は、第2の実施の形態に係る認識処理部の棄却部の棄却判定処理の動作の一例を示すフローチャートである。図18は、第2の実施の形態の棄却部の第1照合部のテンプレートマッチングの動作を説明する図である。図17および18を参照しながら、認識処理部5の棄却部500aの棄却判定処理の動作の一例の流れについて説明する。
図15に示すステップS11、S12と同様である。そして、ステップS23へ移行する。
第1照合部505は、画像認識部502から出力された認識結果に基づいて、認識結果に含まれる認識画像情報が示す部分認識画像をテンプレートとして、部分認識画像と類似する画像が、その部分認識画像が重複する認識画像に含まれるか否かを照合するテンプレートマッチングを行う。具体的には、第1照合部505は、部分認識画像であるテンプレートを、認識画像内でスライドさせながらテンプレートマッチングを行う。例えば、図18に示すように、第1照合部505は、車両の認識画像702内で、認識画像702に重複する部分認識画像802に類似する画像が含まれるか否かを照合する。この場合、図18に示すように、第1照合部505は、認識画像702内で右方向にテンプレート(部分認識画像802)をスライドさせながら照合してもよく、または、上下左右の任意の方向、または、任意の間隔(1画素以上)でスライドさせながら照合してもよい。
図15に示すステップS14と同様である。
第3の実施の形態に係る物体認識装置について、第1の実施の形態に係る物体認識装置1と相違する点を中心に説明する。本実施の形態では、対象フレーム(基準画像)の中心位置に対応する1つ前のフレーム(以下、単に「前フレーム」という)の位置を中心とした所定の領域(探索範囲)に、対象フレームの車両の認識画像が存在する場合、その認識画像に重複する部分認識画像を棄却する動作について説明する。なお、本実施の形態に係る物体認識装置のハードウェア構成および機能ブロック構成、および、視差値演算処理部300の機能ブロック構成は、第1の実施の形態で説明した構成と同様である。また、本実施の形態に係る視差値導出部3のブロックマッチング処理、および、クラスタリング部400におけるクラスタリング処理も、第1の実施の形態で説明した動作と同様である。
図19は、第3の実施の形態に係る物体認識装置の棄却部の機能ブロック構成の一例を示す図である。図20は、第3の実施の形態の棄却部の第2照合部の車両を探索する動作を説明する図である。図19および20を参照しながら、本実施の形態の認識処理部5の棄却部500bの機能ブロックの構成および動作について説明する。
図21は、第3の実施の形態に係る認識処理部の棄却部の棄却判定処理の動作の一例を示すフローチャートである。図21を参照しながら、認識処理部5の棄却部500bの棄却判定処理の動作の一例の流れについて説明する。
図15に示すステップS11、S12と同様である。そして、ステップS33へ移行する。
第2照合部506は、前フレーム記憶部507に記憶されている前フレームを読み出し、前フレーム上の特定した探索範囲内に、対象フレーム上で認識された車両の認識画像と類似する画像が含まれるか否かを照合するテンプレートマッチングを行う。ここで、第2照合部506は、対象フレーム上で認識された車両の認識画像の中心位置に対応する前フレーム上の位置を中心とする所定の範囲を探索範囲として特定する。そして、第2照合部506は、テンプレートマッチングによる照合の結果と、認識画像情報(車両の認識画像、およびそれに重複している部分認識画像を示す情報)とを照合結果として棄却判定部503bに送る。また、第2照合部506は、対象フレームを前フレーム記憶部507に記憶させる。この前フレーム記憶部507に記憶された対象フレームは、次のフレームに対する照合処理で前フレームとして使用される。
図15に示すステップS14と同様である。
2 本体部
3 視差値導出部
4 通信線
5 認識処理部
6 車両制御装置
7 ステアリングホイール
8 ブレーキペダル
10a、10b 撮像部
11a、11b 撮像レンズ
12a、12b 絞り
13a、13b 画像センサ
20a、20b 信号変換部
21a、21b CDS
22a、22b AGC
23a、23b ADC
24a、24b フレームメモリ
30 画像処理部
31 FPGA
32 CPU
33 ROM
34 RAM
35 I/F
39 バスライン
51 FPGA
52 CPU
53 ROM
54 RAM
55 I/F
58 CANI/F
59 バスライン
60 機器制御システム
70 車両
100 画像取得部
200 変換部
300 視差値演算処理部
301 コスト算出部
302 決定部
303 生成部
400 クラスタリング部
500、500a、500b 棄却部
501 入力部
502 画像認識部
502a 車両認識部
502b 部分認識部
503、503a、503b 棄却判定部
504 出力部
505 第1照合部
506 第2照合部
507 前フレーム記憶部
550 トラッキング判定部
600 路面
600a 路面部
601 電柱
601a 電柱部
602 車
602a 車部
611 左ガードレール
611a 左ガードレール部
612 右ガードレール
612a 右ガードレール部
613、614 車
613a、614a 車部
700〜702 認識画像
800〜802 部分認識画像
B 基線長
C コスト値
d シフト量
dp 視差値
E 物体
EL エピポーラ線
f 焦点距離
I0 前フレーム
I1 対象フレーム
Ia 基準画像
Ib 比較画像
p 基準画素
pb 基準領域
q 候補画素
qb 候補領域
S、Sa、Sb 点
SA 探索範囲
UM Uマップ
VM Vマップ
Z 距離
Claims (13)
- 画像処理装置であって、
対象画像を入力する入力手段と、
前記対象画像が第1物体を示す画像であるか否かを認識する第1認識手段と、
前記第1認識手段により、前記対象画像が前記第1物体を示す画像であると認識された場合、該対象画像に、該第1物体とは異なる第2物体を示す部分画像の少なくとも一部が重複しているか否かを認識する第2認識手段と、
前記第2認識手段により前記対象画像に前記部分画像の少なくとも一部が重複していると認識され、かつ、前記画像処理装置を搭載した車両、前記部分画像、または前記対象画像の少なくともいずれかに関する所定の条件を満たす場合、前記部分画像に対して棄却と判定する判定手段と、
を備えた画像処理装置。 - 前記判定手段により前記部分画像に対して棄却と判定された場合、前記部分画像を棄却する旨を示す情報を出力する出力手段を、さらに備えた請求項1に記載の画像処理装置。
- 前記第1物体は、車両である請求項1に記載の画像処理装置。
- 前記判定手段は、前記所定の条件として、前記画像処理装置を搭載した車両の状態に基づいて、前記部分画像に対して棄却とするか否かを判定する請求項1に記載の画像処理装置。
- 前記判定手段は、前記所定の条件として、前記画像処理装置を搭載した車両の速度が所定速度以上である場合、前記部分画像に対して棄却と判定する請求項4に記載の画像処理装置。
- 前記判定手段は、前記所定の条件として、前記画像処理装置を搭載した車両が所定の場所に存在することを検出した場合、前記部分画像に対して棄却と判定する請求項4に記載の画像処理装置。
- 前記対象画像内に、前記部分画像に類似する画像が含まれるか否かを照合する第1照合手段を、さらに備え、
前記判定手段は、前記所定の条件として、前記第1照合手段による照合の結果、前記対象画像内に前記部分画像に類似する画像が含まれる場合、該部分画像に対して棄却と判定する請求項1に記載の画像処理装置。 - 前記入力手段は、第1撮像手段が被写体を撮像した第1撮像画像から得られた前記対象画像を入力し、
前記第1撮像画像を前画像として記憶する記憶手段と、
前記記憶手段に記憶された前記前画像の次に前記第1撮像手段により撮像された第1撮像画像に含まれる前記対象画像を含む所定範囲に対応する前記前画像の範囲を探索範囲として、前記探索範囲内に前記対象画像に類似する画像が含まれるか否かを照合する第2照合手段と、
をさらに備え、
前記判定手段は、前記所定の条件として、前記第2照合手段による照合の結果、前記探索範囲内に前記対象画像に類似する画像が含まれる場合、前記部分画像に対して棄却と判定する請求項1に記載の画像処理装置。 - 前記入力手段は、第1撮像手段が被写体を撮像した第1撮像画像から得られた前記対象画像を入力する請求項1〜7のいずれか一項に記載の画像処理装置。
- 前記第1撮像手段と、
前記第1撮像手段の位置とは異なる位置に配置され、前記被写体を撮像することにより第2撮像画像を得る第2撮像手段と、
前記第1撮像画像および前記第2撮像画像から前記被写体に対して求めた視差値に基づいて、視差画像を生成する生成手段と、
前記視差画像を用いて、前記第1撮像画像に写り込んでいる物体を認識して前記物体を含む前記対象画像および前記部分画像を抽出する抽出手段と、
請求項7または8に記載の画像処理装置と、
を備えた物体認識装置。 - 請求項10に記載の物体認識装置と、
前記判定手段による前記部分画像に対する棄却の判定結果に基づいて、制御対象を制御する制御装置と、
を備えた機器制御システム。 - 対象画像を入力する入力ステップと、
前記対象画像が第1物体を示す画像であるか否かを認識する第1認識ステップと、
前記対象画像が前記第1物体を示す画像であると認識した場合、該対象画像に、該第1物体とは異なる第2物体を示す部分画像の少なくとも一部が重複しているか否かを認識する第2認識ステップと、
前記対象画像に前記部分画像の少なくとも一部が重複していると認識し、かつ、所定の条件を満たす場合、前記部分画像に対して棄却と判定する判定ステップと、
を有する画像処理方法。 - コンピュータを、
対象画像を入力する入力手段と、
前記対象画像が第1物体を示す画像であるか否かを認識する第1認識手段と、
前記第1認識手段により、前記対象画像が前記第1物体を示す画像であると認識された場合、該対象画像に、該第1物体とは異なる第2物体を示す部分画像の少なくとも一部が重複しているか否かを認識する第2認識手段と、
前記第2認識手段により前記対象画像に前記部分画像の少なくとも一部が重複していると認識され、かつ、所定の条件を満たす場合、前記部分画像に対して棄却と判定する判定手段と、
して機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015180030A JP6572696B2 (ja) | 2015-09-11 | 2015-09-11 | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015180030A JP6572696B2 (ja) | 2015-09-11 | 2015-09-11 | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017052498A true JP2017052498A (ja) | 2017-03-16 |
JP6572696B2 JP6572696B2 (ja) | 2019-09-11 |
Family
ID=58320185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015180030A Active JP6572696B2 (ja) | 2015-09-11 | 2015-09-11 | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6572696B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018101247A1 (ja) * | 2016-11-29 | 2018-06-07 | マクセル株式会社 | 画像認識撮像装置 |
CN110570452A (zh) * | 2018-06-06 | 2019-12-13 | 丰田自动车株式会社 | 物标识别装置 |
US10672141B2 (en) | 2015-09-15 | 2020-06-02 | Ricoh Company, Ltd. | Device, method, system and computer-readable medium for determining collision target object rejection |
US10832431B2 (en) | 2015-11-30 | 2020-11-10 | Ricoh Company, Ltd. | Image processing apparatus, object recognition apparatus, equipment control system, image processing method, and computer-readable recording medium |
WO2020246401A1 (ja) * | 2019-06-05 | 2020-12-10 | ソニーセミコンダクタソリューションズ株式会社 | 画像認識装置および画像認識方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005311691A (ja) * | 2004-04-21 | 2005-11-04 | Toyota Central Res & Dev Lab Inc | 物体検出装置及び方法 |
JP2008045974A (ja) * | 2006-08-14 | 2008-02-28 | Fuji Heavy Ind Ltd | 物体検出装置 |
JP2008234029A (ja) * | 2007-03-16 | 2008-10-02 | Sumitomo Electric Ind Ltd | 対象物検出システム及び対象物検出装置 |
JP2013186848A (ja) * | 2012-03-12 | 2013-09-19 | Honda Motor Co Ltd | 車両周辺監視装置 |
JP2014146267A (ja) * | 2013-01-30 | 2014-08-14 | Toyota Motor Corp | 歩行者検出装置、運転支援装置 |
-
2015
- 2015-09-11 JP JP2015180030A patent/JP6572696B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005311691A (ja) * | 2004-04-21 | 2005-11-04 | Toyota Central Res & Dev Lab Inc | 物体検出装置及び方法 |
JP2008045974A (ja) * | 2006-08-14 | 2008-02-28 | Fuji Heavy Ind Ltd | 物体検出装置 |
JP2008234029A (ja) * | 2007-03-16 | 2008-10-02 | Sumitomo Electric Ind Ltd | 対象物検出システム及び対象物検出装置 |
JP2013186848A (ja) * | 2012-03-12 | 2013-09-19 | Honda Motor Co Ltd | 車両周辺監視装置 |
JP2014146267A (ja) * | 2013-01-30 | 2014-08-14 | Toyota Motor Corp | 歩行者検出装置、運転支援装置 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10672141B2 (en) | 2015-09-15 | 2020-06-02 | Ricoh Company, Ltd. | Device, method, system and computer-readable medium for determining collision target object rejection |
US10832431B2 (en) | 2015-11-30 | 2020-11-10 | Ricoh Company, Ltd. | Image processing apparatus, object recognition apparatus, equipment control system, image processing method, and computer-readable recording medium |
WO2018101247A1 (ja) * | 2016-11-29 | 2018-06-07 | マクセル株式会社 | 画像認識撮像装置 |
CN110570452A (zh) * | 2018-06-06 | 2019-12-13 | 丰田自动车株式会社 | 物标识别装置 |
CN110570452B (zh) * | 2018-06-06 | 2023-03-28 | 丰田自动车株式会社 | 物标识别装置 |
WO2020246401A1 (ja) * | 2019-06-05 | 2020-12-10 | ソニーセミコンダクタソリューションズ株式会社 | 画像認識装置および画像認識方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6572696B2 (ja) | 2019-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6614247B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP6795027B2 (ja) | 情報処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム | |
JP6398347B2 (ja) | 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム | |
EP2889641B1 (en) | Image processing apparatus, image processing method, program and image processing system | |
JP6597795B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP6597792B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP6572696B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
US20200074212A1 (en) | Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium | |
JP6516012B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP2007508624A (ja) | 低照度の深度に適応可能なコンピュータ視覚を用いた移動物体検出 | |
JP2017151535A (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP6547841B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP2006318062A (ja) | 画像処理装置、画像処理方法、および画像処理用プログラム | |
JP6701905B2 (ja) | 検出装置、視差値導出装置、物体認識装置、機器制御システム、およびプログラム | |
JP6519138B2 (ja) | 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム | |
JP2017167970A (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP2018092605A (ja) | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム | |
JP2014067320A (ja) | ステレオカメラ装置 | |
EP3540643A1 (en) | Image processing apparatus and image processing method | |
WO2018097269A1 (en) | Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium | |
JP6515547B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値生産方法、及びプログラム | |
JP6701738B2 (ja) | 視差値導出装置、視差値導出方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180808 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190510 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190514 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190626 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190716 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190729 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6572696 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |