JP6589926B2 - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP6589926B2
JP6589926B2 JP2017076871A JP2017076871A JP6589926B2 JP 6589926 B2 JP6589926 B2 JP 6589926B2 JP 2017076871 A JP2017076871 A JP 2017076871A JP 2017076871 A JP2017076871 A JP 2017076871A JP 6589926 B2 JP6589926 B2 JP 6589926B2
Authority
JP
Japan
Prior art keywords
image
coordinate points
coordinates
object detection
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017076871A
Other languages
English (en)
Other versions
JP2018180772A (ja
Inventor
峰樹 曽我
峰樹 曽我
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017076871A priority Critical patent/JP6589926B2/ja
Priority to CN201810299652.8A priority patent/CN108692719B/zh
Priority to US15/945,973 priority patent/US10909395B2/en
Priority to DE102018108027.1A priority patent/DE102018108027A1/de
Publication of JP2018180772A publication Critical patent/JP2018180772A/ja
Application granted granted Critical
Publication of JP6589926B2 publication Critical patent/JP6589926B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Description

本発明は、物体検出装置に関し、特に、検出された物体の位置を特定する物体検出装置の技術分野に関する。
この種の装置として、例えば、ステレオカメラで撮像された一対の画像を解析することにより物体までの距離を含む位置の情報に基づいて物体を検出する装置が提案されている。該装置は、(i)一対の画像から距離画像を形成して、周囲に存在する物体の実空間上の距離の情報を含む位置の情報を検出し、(ii)実空間を上下方向に延在する複数の区分空間ごとにヒストグラムを作成し、(iii)物体の距離の情報を、該物体の位置の情報が属する区分空間に対応するヒストグラムに投票し、(iv)投票結果に基づいて各区分空間の代表距離を算出し、該算出された代表距離をグルーピングして物体を検出する(特許文献1参照)。
尚、(i)飛行体に搭載されたカメラで車両の走行域を撮像し取得された画像から、該画像上におけるウェイポイントの仮想座標を決定するとともに、(ii)該飛行体に搭載されたレーザ照射装置から地上にレーザ光を照射し、上記画像におけるレーザ光の照射点座標と仮想座標とが合ったときの現実のレーザ光の照射点を現実のウェイポイントの位置座標とする装置が提案されている(特許文献2参照)。
特開2009−176091号公報 特開2017−016395号公報
特許文献1に記載の技術のように、ステレオカメラを用いて物体を検出する技術では、例えば視差計算に係る計算量が比較的多くなる。加えて、例えば視差計算を正しく行うために、前段階としてステレオカメラのキャリブレーションが必要である。つまり、特許文献1に記載の技術では、物体の検出に係る処理負荷が比較的高くなる。
本発明は、上記問題点に鑑みてなされたものであり、処理負荷を低減しつつ、物体を検出することができる物体検出装置を提供することを課題とする。
本発明の物体検出装置は、上記課題を解決するために、自車両の周辺を撮像して周辺画像を取得する撮像手段と、前記周辺画像から対象物を検出して、前記検出された対象物の前記周辺画像上の位置を示す第1画像座標を出力する対象物検出手段と、前記自車両の位置を検出する位置検出手段と、道路上の複数の地点各々の3次元座標を夫々示す複数の座標点を含む地図情報を記憶する地図記憶手段と、前記第1画像座標と前記自車両の位置とに基づいて、前記対象物を、前記複数の座標点のうち1個以上の座標点と対応付けるとともに、前記自車両の位置及び前記対応付けられた1個以上の座標点に基づいて、前記対象物の実空間上の位置及び前記自車両から前記対象物までの距離の少なくとも一方を算出する算出手段と、を備える。
当該物体位置検出装置によれば、地図情報が援用されることにより、例えばステレオカメラにより撮像された左右一対の画像を用いた視差計算等の画像のみを用いた距離の算出処理が不要となり、対象物の位置及び自車両から対象物までの距離の算出に係る処理負荷を低減することができる。当該物体位置検出装置では、ステレオカメラを用いずとも、対象物の位置及び自車両から対象物までの距離を算出することができるので、例えばステレオカメラのキャリブレーションも不要である。
尚、周辺画像から対象物を検出する方法には、ニューラルネットワーク等の機械学習を用いたパターン認識技術を適用可能である。「周辺画像における対象物の位置(即ち、第1画像座標)」は、例えば周辺画像中で対象物が占める領域を代表する画像座標等とすればよい。
本発明の物体検出装置の一態様では、当該物体検出装置は、前記撮像手段の光軸方向を推定する光軸推定手段を備え、前記算出手段は、前記推定された光軸方向に基づいて、前記対象物を前記複数の座標点のうち1個以上の座標点と対応付ける。このように構成すれば、例えば撮像手段の光軸方向が、車線が延びる方向からずれている場合であっても、適切に対応物を座標点に対応付けることができる。
本発明の物体検出装置の他の態様では、前記算出手段は、前記対応付けられた1個以上の座標点を前記周辺画像の画像座標に変換し、前記第1画像座標に最も近い画像座標に変換された座標点により示される3次元座標から、前記対象物の実空間上の位置及び前記自車両から前記対象物までの距離の少なくとも一方を算出する。或いは、本発明の物体検出装置の他の態様では、前記算出手段は、前記第1画像座標と前記自車両の位置とに基づいて、前記対象物を、前記複数の座標点のうち2個以上の座標点と対応付け、前記対応付けられた2個以上の座標点のうち少なくとも2つの座標点各々により示される3次元座標を利用した平均により、前記対象物の実空間上の位置及び前記自車両から前記対象物までの距離の少なくとも一方を算出する。
これらの態様によれば、比較的容易にして、対象物の実空間上の位置及び自車両から対象物までの距離の少なくとも一方を算出することができる。尚、座標点(即ち、実空間上の位置)と周辺画像上の画像座標とは、撮像手段の外部パラメータ(位置と姿勢)と内部パラメータ(光学パラメータ)が既知であれば対応付けが可能である(即ち、座標点の画像座標への変換が可能である)。
本発明の作用及び他の利得は次に説明する実施するための形態から明らかにされる。
実施形態に係る物体検出装置の構成を示すブロック図である。 実施形態に係る物体検出処理を示すフローチャートである。 実施形態に係る物体検出処理の概念を示す図である。
本発明の物体検出装置に係る実施形態について、図1乃至図3を参照して説明する。
(装置構成)
実施形態に係る物体検出装置の構成について、図1を参照して説明する。図1は、実施形態に係る物体検出装置の構成を示すブロック図である。
図1において、物体検出装置100は、本発明に係る「自車両」の一例としての、車両1に搭載されている。物体検出装置100は、撮像手段11、自己位置検出手段12、自己姿勢検出手段13、地図手段14、対象物検出手段15及び算出手段16を備えて構成されている。
撮像手段11は、例えばCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)等の撮像素子を有する。撮像手段11は、車両1の周辺(典型的には、車両1の前方)を撮像して周辺画像を逐次取得する。
自己位置検出手段12は、例えばGPS(Global Positioning System)信号を受信して、当該物体検出装置100の位置(即ち、当該物体検出装置100を搭載する車両1の位置)を検出する。自己位置検出手段12は、例えばジャイロセンサ等の内界センサの出力に基づいて、例えばGPS信号から検出された位置の精度を向上させてよい。或いは、自己位置検出手段12は、例えば撮像手段11により取得された周辺画像を俯瞰画像に変換して、地図情報として保持された路面テクスチャと最も相関が大きくなる位置を求めることにより、例えばGPS信号から検出された位置の精度を向上させてよい。
自己姿勢検出手段13は、例えばジャイロセンサの出力に基づいて、当該物体検出装置100の姿勢(特に、撮像手段11の光軸方向)を推定する。
地図手段14は、例えば地図データベースであり、道路地図情報を保持する。道路地図情報には、道路形状及び道路勾配を示す情報が含まれている。具体的には、道路地図情報には、例えば緯度、経度及び標高等の3次元座標を夫々示す複数のデータ点と、複数のデータ点の相互間を接続する道路を示す接続情報とが含まれている。複数のデータ点は、例えば交差点等の結節点(所謂ノード)に対応するデータ点に限らず、道路(又は車線毎)に沿って一定間隔で配列されたデータ点も含んでよい。本実施形態では、上記複数のデータ点を、「ウェイポイント」と称する。
対象物検出手段15は、撮像手段11で取得された周辺画像からパターン認識により対象物(例えば他車両、歩行者、障害物等)を検出して、その画像座標(即ち、周辺画像上の対象物の位置を示す画像座標)を出力する。
算出手段16は、対象物の位置及び車両1から対象物までの距離の少なくとも一方を算出するために、その内部に論理的に実現される処理ブロックとして又は物理的に実現される処理回路として、ウェイポイント投影部161及び位置・距離推定部162を備える。
(物体検出処理)
上述の如く構成された物体検出装置100が実施する物体検出処理について、図2のフローチャートを参照して説明する。尚、以下の説明では、対象物の一例として、車両1の前方を走行する他車両を挙げる。
図2において、対象物検出手段15及び算出手段16は、撮像手段11から周辺画像を取得する(ステップS101)。算出手段16は、自己位置検出手段12から当該物体検出装置100の位置(即ち、自己位置)を取得する(ステップS102)。算出手段16は、自己姿勢検出手段13から撮像手段11の光軸方向を含む当該物体検出装置100の姿勢(即ち、自己姿勢)を取得する(ステップS103)。尚、ステップS101〜S103の処理は、並行して又は相前後して行われてよい。
次に、対象物検出手段15は、周辺画像から対象物を検出し、算出手段16は対象物検出手段15から対象物の位置を示す画像座標を取得する(ステップS104)。ここで、周辺画像として、車両1の前方を走行する他車両が写った画像が取得された場合に、該他車両を対象物として検出する方法について、図3を参照して具体的に説明する。
対象物検出手段15は、先ず、図3(a)に示すように、周辺画像上に探索領域21を設定する。探索領域21は、対象物に応じて設定される。例えば、対象物が車両の場合、空等の道路外に車両が存在することはないので、撮像手段11に係る画角や設置角度等に基づいて、例えば空に該当する領域をなるべく含まないような探索領域が設定される。このように探索領域を限定することによって、誤検出を抑制することができる。
次に、対象物検出手段15は、探索領域21内において、パターン認識により対象物を検出する。パターン認識には、例えばディープニューラルネットワーク等の機械学習に基づく手法等、既存の技術を適用可能である。対象物が検出されると、対象物検出手段15は、検出された対象物(ここでは、他車両)を示す検出枠22を設定する(図3(b)参照)。対象物検出手段15は、更に、検出枠22の下辺中央の画像座標(図3(c)の黒丸22a参照)を、周辺画像における対象物の画像座標として出力する。なぜなら、ウェイポイントにより示される3次元座標は、道路上の地点に対応しているからである。このため、検出枠22で囲まれた領域のうち、道路に最も近いと考えられる位置に対応する画像座標を対象物の位置とすれば、対象物の位置等の算出に係る誤差を抑制することができる。
図2のステップS104の処理の後、ウェイポイント投影部161は、周辺画像上にウェイポイントを投影する(ステップS105)。具体的には、ウェイポイント投影部161は、当該物体検出装置100の位置に基づいて、地図手段14から道路地図情報に含まれる一又は複数のウェイポイントを取得(抽出)する。ここで、取得されるウェイポイントは、例えば当該物体検出装置100の位置に基づいて周辺画像に写っていると推定される地点に対応するウェイポイントである。ウェイポイント投影部161は、撮像手段11の外部パラメータ(位置及び光軸方向)と、内部パラメータ(レンズ焦点距離、画素間隔等)に基づいて、上記取得された一又は複数のウェイポイントを、周辺画像上に投影する(即ち、ウェイポイントを周辺画像上の画像座標に変換する)。図3(c)に、ウェイポイントが投影された周辺画像の一例を示す。図3(c)の白丸がウェイポイントを表している。
図2のステップS105の処理の後、位置・距離推定部162は、周辺画像における対象物の位置を示す画像座標、及び、該周辺画像上に投影されたウェイポイントに基づいて、対象物の位置及び車両1から対象物までの距離の少なくとも一方を算出(推定)する(ステップS106)。ここで、対象物の位置等の算出方法について、図3(c)を参照して具体的に説明する。
第1の方法
第1の方法では、位置・距離推定部162は、周辺画像における対象物の位置を示す画像座標22aに最も近い画像座標に対応するウェイポイントを特定する。図3(c)では、ウェイポイントW1が、該ウェイポイントとして特定されたものとする。位置・距離推定部162は、ウェイポイントW1により示される3次元座標を、現実の対象物の位置とする。また、位置・距離推定部162は、ウェイポイントW1により示される3次元座標と、当該物体検出装置100の位置との差分を、車両1から対象物までの距離として算出する。
第2の方法
他方、第2の方法では、位置・距離推定部162は、周辺画像における対象物の近傍の複数のウェイポイントを特定し該対象物と対応付ける。図3(c)では、ウェイポイントW1及びW2が、対象部の位置を示す画像座標と最も画素距離が近い複数のウェイポイントとして特定されたものとする。位置・距離推定部162は、ウェイポイントW1及びW2各々により示される3次元座標の平均により、対象物の実空間上の位置を算出する。ここで平均は、例えば対象物の画像座標とウェイポイントW1及びW2との画素間距離の逆数を正規化して定義した重みを用いる荷重平均である。尚、「平均」には、加重平均の他に、単純平均、相乗平均等の既存の各種平均(法)を適用可能である。位置・距離推定部162は、該算出された現実の対象物の位置と、当該物体検出装置100の位置との差分を、車両1から対象物までの距離として算出する。
上述の第1の方法及び第2の方法のいずれを採用するかは、例えば目標とする精度や、ウェイポイントの配置間隔等に応じて適宜決定されてよい。具体的には、ウェイポイントが比較的密に配置されている場合(例えば数メートル間隔でウェイポイントが配置されている場合)には、第1の方法が採用されることが望ましい。他方、ウェイポイントが比較的疎に配置されている場合(例えば十数メートル以上の間隔でウェイポイントが配置されている場合)には、第2の方法が採用されることが望ましい。尚、第1の方法では平均が行われないので、第2の方法に比べて処理負荷を低減することができる。
尚、対象物が、例えば歩行者等、車線上に存在しないことが多いものである場合、位置・距離推定部162は、例えば次のように対象物の位置を算出する。例えば図3(c)において、検出枠23に対応する歩行者が対象物であるとする。位置・距離推定部162は、検出枠23の下辺中央の画像座標23aの縦方向の座標と、ウェイポイントが対応付けられた画像座標の縦方向の座標とを比較する。
上述の第1の方法の場合、位置・距離推定部162は、画像座標23aの縦方向の座標に最も近い縦方向の座標に変換されたウェイポイントと対象物(歩行者)を対応付ける。位置・距離推定部162は、対応付けられたウェイポイントの位置から車両1から該ウェイポイントまでの距離を求め、これを対象物(歩行者)までの距離の概算距離とする。位置・距離推定部162は、更に、特定されたウェイポイントの画像座標の横方向の座標及び画像座標23aの横方向の座標の差分と、撮像手段11の内部パラメータとから対象物(歩行者)の位置及び車両1から対象物までの距離の少なくとも一方を算出する。
或いは、上述の第2の方法の場合、位置・距離推定部162は、画像座標23aの縦方向の座標近傍のウェイポイントW1及びW3を特定し対象物(歩行者)と対応付ける。位置・距離推定部162は、ウェイポイントW1及びW3各々により示される3次元座標の平均により、対象物(歩行者)の位置及び車両1から対象物までの距離の少なくとも一方を算出する。
尚、対象物としての歩行者の検出に、顔検出処理が用いられる場合(この場合、典型的には、検出枠は頭部近傍に設定される)、検出枠の下辺は接地点とは異なることが多い。この場合、例えば検出枠の位置から、接地点に相当する画像座標を推定した上で、対象物としての歩行者の位置等が算出されることが望ましい。
本実施形態では、車両1の前方を走行する他車両を対象物として挙げたが、車両1の後方又は側方を走行する他車両等が対象物とされてもよい。
(技術的効果)
自車両の周辺に存在する、例えば他車両や歩行者等の対象物の位置を検出する方法として、例えばレーダやLIDAR(Light Detection and Ranging)等の距離を測定可能なセンサを用いる方法が提案されている。しかしながら、この方法では、目的とする対象物を識別して検出することが困難であり、加えてコストも比較的高くなる。
或いは、ステレオカメラを用いる方法が提案されている。しかしながら、この方法では、視差計算に係る計算量が比較的多くなってしまう。加えて、ステレオカメラのキャリブレーションが必要である。従って、この方法では、処理負荷が比較的高くなる。
或いは、単眼カメラを用いる方法の1つとして、路面が平坦であることを仮定した方法が提案されている。例えばカメラ搭載位置、カメラ光軸方向、画角、焦点距離等のカメラに係るパラメータに基づいて、撮像された画像の下端位置から対象物までの距離が推定されることがある。しかしながら、この場合、路面に勾配があると推定誤差が比較的大きくなってしまう。また、単眼カメラを用いる別の方法として、撮像された画像における対象物のサイズと、該対象物の実際のサイズとから距離が推定されることがある。この場合、実際のサイズのばらつき(例えば、乗用車が対象物である場合、その横幅は、約1.4メートル〜約2メートルと比較的大きく変化する)に起因して、推定距離の誤差が比較的大きくなってしまう。
さて、当該物体検出装置100では、撮像手段11により撮像された周辺画像から対象物が検出される。撮像された周辺画像は、距離を測定可能なセンサに比べて空間解像度が高く、比較的遠方の被写体であってもその詳細な形状を得ることができる。従って、当該物体検出装置100によれば、距離を測定可能なセンサに比べて、容易に目的とする対象物を識別して検出することができる。
加えて、当該物体検出装置100では、対象物の位置等を算出するために、ステレオカメラを用いる場合の視差計算は不要である。従って、当該物体検出装置100によれば、ステレオカメラを用いる方法に比べて、処理負荷を低減することができる。他方で、当該物体検出装置100では、対象物の位置等を算出するために、道路地図情報に含まれるウェイポイントを利用している。従って、上述の単眼カメラを用いる方法とは異なり、路面勾配の影響を受けずに(更には、対象物の実際のサイズが未知であっても)、対象物の位置等を算出することができる。
以上の結果、当該物体検出装置100によれば、処理負荷を低減しつつ、対象物を比較的高い精度で検出することができるとともに、対象物の位置等を比較的高い精度で算出することができる。
実施形態に係る「自己位置検出手段12」、「自己姿勢検出手段13」及び「地図手段14」は、夫々、本発明に係る「位置検出手段」、「光軸推定手段」及び「地図記憶手段」の一例である。実施形態に係る「ウェイポイント投影部161」及び「位置・距離推定部162」は、本発明に係る「算出手段」の一例である。
本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う物体検出装置もまた本発明の技術的範囲に含まれるものである。
1…車両、11…撮像手段、12…自己位置検出手段、13…自己姿勢検出手段、14…地図手段、15…対象物検出手段、16…算出手段、100…物体検出装置、161…ウェイポイント投影部、162…位置・距離推定部

Claims (4)

  1. 自車両の周辺を撮像して周辺画像を取得する撮像手段と、
    前記周辺画像から対象物を検出して、前記検出された対象物の前記周辺画像上の位置を示す第1画像座標を出力する対象物検出手段と、
    前記自車両の位置を検出する位置検出手段と、
    道路上の複数の地点各々の3次元座標を夫々示す複数の座標点を含む地図情報を記憶する地図記憶手段と、
    前記第1画像座標と前記自車両の位置とに基づいて、前記対象物を、前記複数の座標点のうち1個以上の座標点と対応付けるとともに、前記自車両の位置及び前記対応付けられた1個以上の座標点に基づいて、前記対象物の実空間上の位置及び前記自車両から前記対象物までの距離の少なくとも一方を算出する算出手段と、
    を備えることを特徴とする物体検出装置。
  2. 前記撮像手段の光軸方向を推定する光軸推定手段を備え、
    前記算出手段は、前記推定された光軸方向に基づいて、前記対象物を前記複数の座標点のうち1個以上の座標点と対応付ける
    ことを特徴とする請求項1に記載の物体検出装置。
  3. 前記算出手段は、前記対応付けられた1個以上の座標点を前記周辺画像の画像座標に変換し、前記第1画像座標に最も近い画像座標に変換された座標点により示される3次元座標から、前記対象物の実空間上の位置及び前記自車両から前記対象物までの距離の少なくとも一方を算出することを特徴とする請求項1又は2に記載の物体検出装置。
  4. 前記算出手段は、
    前記第1画像座標と前記自車両の位置とに基づいて、前記対象物を、前記複数の座標のうち2個以上の座標点と対応付け、
    前記対応付けられた2個以上の座標点のうち少なくとも2つの座標点各々により示される3次元座標を利用した平均により、前記対象物の実空間上の位置及び前記自車両から前記対象物までの距離の少なくとも一方を算出する
    ことを特徴とする請求項1又は2に記載の物体検出装置。
JP2017076871A 2017-04-07 2017-04-07 物体検出装置 Active JP6589926B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017076871A JP6589926B2 (ja) 2017-04-07 2017-04-07 物体検出装置
CN201810299652.8A CN108692719B (zh) 2017-04-07 2018-04-04 物体检测装置
US15/945,973 US10909395B2 (en) 2017-04-07 2018-04-05 Object detection apparatus
DE102018108027.1A DE102018108027A1 (de) 2017-04-07 2018-04-05 Objekterfassungsvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017076871A JP6589926B2 (ja) 2017-04-07 2017-04-07 物体検出装置

Publications (2)

Publication Number Publication Date
JP2018180772A JP2018180772A (ja) 2018-11-15
JP6589926B2 true JP6589926B2 (ja) 2019-10-16

Family

ID=63588189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017076871A Active JP6589926B2 (ja) 2017-04-07 2017-04-07 物体検出装置

Country Status (4)

Country Link
US (1) US10909395B2 (ja)
JP (1) JP6589926B2 (ja)
CN (1) CN108692719B (ja)
DE (1) DE102018108027A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019202627A1 (ja) * 2018-04-16 2019-10-24 三菱電機株式会社 障害物検出装置、障害物検出装置を利用した自動ブレーキ装置、障害物検出方法、および障害物検出方法を利用した自動ブレーキ方法
JP2020013332A (ja) * 2018-07-18 2020-01-23 トヨタ自動車株式会社 画像認識装置
US10650548B1 (en) * 2019-01-30 2020-05-12 StradVision, Inc. Method and device for localization of autonomous vehicle for route planning by using attention-driven landmark detection
US11386671B2 (en) * 2019-06-25 2022-07-12 Zoox, Inc. Refining depth from an image
JP7267874B2 (ja) * 2019-08-27 2023-05-02 本田技研工業株式会社 交通流推定装置、交通流推定方法、およびプログラム
JP7321035B2 (ja) * 2019-08-30 2023-08-04 日産自動車株式会社 物体位置検出方法及び物体位置検出装置
CN111368794B (zh) * 2020-03-19 2023-09-19 北京百度网讯科技有限公司 障碍物检测方法、装置、设备和介质
CN112325780B (zh) * 2020-10-29 2022-01-25 青岛聚好联科技有限公司 一种基于社区监控的距离测算方法及装置
CN112356815B (zh) * 2020-12-01 2023-04-25 吉林大学 一种基于单目相机的行人主动避撞系统及方法
JP2023136923A (ja) * 2022-03-17 2023-09-29 Kyb株式会社 演算装置、演算方法及びプログラム
KR102498028B1 (ko) * 2022-08-30 2023-02-10 주식회사 에프에스네트웍스 감시 카메라 시스템 및 그 시스템 사용 방법

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100520166B1 (ko) * 2003-03-14 2005-10-10 삼성전자주식회사 네비게이션시스템에서 이동체의 위치검출장치 및 그 방법
JP2006208223A (ja) * 2005-01-28 2006-08-10 Aisin Aw Co Ltd 車両位置認識装置及び車両位置認識方法
US8164628B2 (en) * 2006-01-04 2012-04-24 Mobileye Technologies Ltd. Estimating distance to an object using a sequence of images recorded by a monocular camera
JP4724043B2 (ja) * 2006-05-17 2011-07-13 トヨタ自動車株式会社 対象物認識装置
JP4956453B2 (ja) 2008-01-25 2012-06-20 富士重工業株式会社 物体検出装置
WO2010097916A1 (ja) * 2009-02-25 2010-09-02 トヨタ自動車株式会社 車載情報処理装置及び情報処理方法
KR101043450B1 (ko) * 2009-07-31 2011-06-21 삼성전기주식회사 카메라를 이용한 위치와 거리 측정장치 및 위치와 거리 측정방법
JP5834933B2 (ja) * 2012-01-17 2015-12-24 日産自動車株式会社 車両位置算出装置
JP5590064B2 (ja) * 2012-04-04 2014-09-17 株式会社デンソー 車両用無線通信装置
KR102021050B1 (ko) * 2012-06-06 2019-09-11 삼성전자주식회사 내비게이션 정보를 제공하는 방법, 기계로 읽을 수 있는 저장 매체, 이동 단말 및 서버
CN102788591B (zh) * 2012-08-07 2015-05-13 郭磊 基于视觉信息的机器人沿引导线巡线导航方法
CN103903246A (zh) * 2012-12-26 2014-07-02 株式会社理光 物体检测方法和装置
US10215583B2 (en) * 2013-03-15 2019-02-26 Honda Motor Co., Ltd. Multi-level navigation monitoring and control
US9233688B2 (en) * 2014-01-30 2016-01-12 Mobileye Vision Technologies Ltd. Systems and methods for lane end recognition
JP2015215299A (ja) * 2014-05-13 2015-12-03 株式会社デンソー 対象物位置推定装置
US10274958B2 (en) * 2015-01-22 2019-04-30 Bae Systems Information And Electronic Systems Integration Inc. Method for vision-aided navigation for unmanned vehicles
JP6457278B2 (ja) * 2015-01-23 2019-01-23 トヨタ自動車株式会社 物体検出装置及び物体検出方法
JP6464783B2 (ja) * 2015-02-04 2019-02-06 株式会社デンソー 物体検出装置
JP6570344B2 (ja) 2015-07-01 2019-09-04 株式会社Ihiエアロスペース 経路生成方法とシステム
JP6587000B2 (ja) * 2016-01-28 2019-10-09 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2018092354A (ja) * 2016-12-02 2018-06-14 富士通株式会社 物体検出装置および物体検出方法

Also Published As

Publication number Publication date
CN108692719B (zh) 2022-04-01
US20180293450A1 (en) 2018-10-11
DE102018108027A1 (de) 2018-10-11
JP2018180772A (ja) 2018-11-15
US10909395B2 (en) 2021-02-02
CN108692719A (zh) 2018-10-23

Similar Documents

Publication Publication Date Title
JP6589926B2 (ja) 物体検出装置
AU2018282302B2 (en) Integrated sensor calibration in natural scenes
CN111436216B (zh) 用于彩色点云生成的方法和系统
CN107272021B (zh) 使用雷达和视觉定义的图像检测区域的对象检测
CN107703528B (zh) 自动驾驶中结合低精度gps的视觉定位方法及系统
CN108020827B (zh) 移动成像平台校准
JP2020064046A (ja) 車両位置決定方法及び車両位置決定装置
JP2020525809A (ja) 両眼画像に基づき高解像度地図を更新するためのシステムおよび方法
JP2020021326A (ja) 情報処理方法、情報処理装置およびプログラム
JP2007183432A (ja) 自動走行用マップ作成装置、及び自動走行装置。
US20200341150A1 (en) Systems and methods for constructing a high-definition map based on landmarks
EP3324359B1 (en) Image processing device and image processing method
US20180276844A1 (en) Position or orientation estimation apparatus, position or orientation estimation method, and driving assist device
JP6552448B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
EP2913999A1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
KR20100066952A (ko) 스테레오 비전을 이용하여 장애물을 추적하는 장치 및 방법
JP2018073275A (ja) 画像認識装置
KR102195040B1 (ko) 이동식 도면화 시스템 및 모노카메라를 이용한 도로 표지 정보 수집 방법
KR20160125803A (ko) 영역 추출 장치, 물체 탐지 장치 및 영역 추출 방법
JP2023068009A (ja) 地図情報作成方法
WO2022133986A1 (en) Accuracy estimation method and system
WO2021124657A1 (ja) カメラシステム
US11620832B2 (en) Image based locationing
WO2022270183A1 (ja) 演算装置、速度算出方法
AU2018102199A4 (en) Methods and systems for color point cloud generation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180921

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190814

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190902

R151 Written notification of patent or utility model registration

Ref document number: 6589926

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151