JP2018096709A - 距離測定装置および距離測定方法 - Google Patents

距離測定装置および距離測定方法 Download PDF

Info

Publication number
JP2018096709A
JP2018096709A JP2016238576A JP2016238576A JP2018096709A JP 2018096709 A JP2018096709 A JP 2018096709A JP 2016238576 A JP2016238576 A JP 2016238576A JP 2016238576 A JP2016238576 A JP 2016238576A JP 2018096709 A JP2018096709 A JP 2018096709A
Authority
JP
Japan
Prior art keywords
edge line
line segments
image data
distance
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016238576A
Other languages
English (en)
Other versions
JP6844235B2 (ja
Inventor
康貴 岡田
Yasutaka Okada
康貴 岡田
村下 君孝
Kimitaka Murashita
君孝 村下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016238576A priority Critical patent/JP6844235B2/ja
Priority to US15/830,153 priority patent/US10521915B2/en
Publication of JP2018096709A publication Critical patent/JP2018096709A/ja
Application granted granted Critical
Publication of JP6844235B2 publication Critical patent/JP6844235B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Abstract

【課題】移動体から対象物までの距離を正確に測定する。【解決手段】距離測定装置100は、抽出部120bと、探索部120cと、測定部120dとを有する。抽出部120bは、移動体に搭載された単一のカメラ50により撮影された画像データから複数のエッジ線分を検出し、検出した複数のエッジ線分のうち、所定の対象物の特徴を有する複数のエッジ線分を特定する。探索部120cは、抽出部120bにより特定された複数のエッジ線分のうち、最も下方に位置するエッジ線分の座標を探索する。測定部120dは、探索部120cに探索されたエッジ線分の座標とカメラ50のパラメータとを基にして、移動体から所定の対象物までの距離を測定する。【選択図】図1

Description

本発明は、距離測定装置等に関する。
車両に搭載されたカメラの画像データを基にして、車両周辺に位置する対象物を検知すると共に、対象物と車両との距離を算出することで、車両が対象物と衝突しないように車両の移動を制御する技術が求められている。また、カメラのコストや搭載位置の制約等から、単眼カメラを用いることが好ましい。
例えば、単眼カメラで撮影された画像データから対象物を検知する従来技術として、機械学習、オプティカルフローがある。また、対象物と車両との距離を算出する従来技術として、移動ステレオ法、接地位置判定法がある。
例えば、機械学習には、Deep LearningやHoG(Histograms of Oriented Gradients)特徴量を用いるものがある。機械学習では、予め検知する対象物の画像データを収集しておき、対象物の特徴量を算出して識別器として保持する。そして、機械学習では、画像データと識別器とを比較して、識別器内の特徴量に合致するものがあるか否かのマッチングを行うことで、画像データに含まれる対象物を検知する。
オプティカルフローは、画像データ内から特徴点を検出し、特徴点の座標変動を基にして、対象物を特定するものである。
移動ステレオ法は、車両の移動量と、車両移動前後の画像データとを基にして、車両から対象物までの距離を測距するものである。移動ステレオ法では、車両の移動量を正確に特定でき、かつ、対象物が動いていない場合に、高精度に距離を測距することができる。
接地位置判定法は、前段階で機械学習またはオプティカルフローを用いて、画像データから対象物を検知し、検出した対象物の画像上の座標と、ディストーションテーブルとを基にして、幾何学的に、車両と対象物との距離を算出するものである。
特開2010−211578号公報 国際公開第2008/065729号
しかしながら、上述した従来技術では、移動体から対象物までの距離を正確に測定することができないという問題がある。
移動ステレオ法は、車両の移動量を正確に特定でき、かつ、対象物が動いていないことを前提に距離を特定するものである。このため、移動ステレオ法では、車両の移動量を正確に特定できない場合や、対象物が歩行者である場合には、距離を正確に特定することができない。
接地位置判定法は、対象物を歩行者とした場合に、靴底と路面との接地位置を正しく特定できていれば、高精度に距離を測定できる。しかし、接地位置の特定が数画素ずれると、対象物までの距離によっては、数十センチの測距誤差が生じる。
図14は、測距誤差の一例を示す図である。図14では一例として、画像データ上の接地位置が1画素ずれた場合における測距誤差を示す。図14の縦軸は測距誤差を示すものであり、横軸は、移動体と対象物とのX方向の距離を示すものである。移動体と対象物とのy軸方向の距離は、異なる線分によって示す。例えば、移動体と対象物とについて、x軸方向の距離が「0mm」であり、Y方向の距離が「5000mm」とすると、測距誤差は、「350mm」となる。
1つの側面では、本発明は、移動体から対象物までの距離を正確に測定することができる距離測定装置および距離測定方法を提供することを目的とする。
第1の案では、距離測定装置は、抽出部と、探索部と、測定部とを有する。抽出部は、移動体に搭載された単一のカメラにより撮影された画像データから複数のエッジ線分を検出し、検出した複数のエッジ線分のうち、所定の対象物の特徴を有する複数のエッジ線分を特定する。探索部は、抽出部により特定された複数のエッジ線分のうち、最も下方に位置するエッジ線分の座標を探索する。測定部は、探索部に探索されたエッジ線分の座標とカメラのパラメータとを基にして、移動体から所定の対象物までの距離を測定する。
移動体から対象物までの距離を正確に測定することができる。
図1は、本実施例1に係る距離測定装置の構成を示す機能ブロック図である。 図2は、バッファのデータ構造の一例を示す図である。 図3は、カメラパラメータのデータ構造の一例を示す図である。 図4は、図3に示したカメラパラメータを説明するための図である。 図5は、角度決定テーブルのデータ構造の一例を示す図である。 図6は、角度決定テーブルの距離Dyと画角θyとを説明するための図である。 図7は、本実施例1に係る抽出部の処理を説明するための図である。 図8は、本実施例1に係る探索部の処理を説明するための図(1)である。 図9は、本実施例1に係る探索部の処理を説明するための図(2)である。 図10は、本実施例1に係る距離測定装置の処理手順を示すフローチャートである。 図11は、本実施例2に係る距離測定装置の構成を示す機能ブロック図である。 図12は、本実施例2に係る距離測定装置の処理手順を示すフローチャートである。 図13は、距離測定装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。 図14は、測距誤差の一例を示す図である。
以下に、本願の開示する距離測定装置および距離測定方法の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例1に係る距離測定装置の構成を示す機能ブロック図である。図1に示すように、この距離測定装置100は、カメラ50およびカーナビゲーション60に接続される。
カメラ50は、車両の後方側に搭載され、所定のフレームレートで、車両の後方の画像を撮影するカメラである。カメラ50は、撮影した画像のデータを、距離測定装置100に出力する。以下の説明では、カメラ50が撮影した画像のデータを、画像データと表記する。
カーナビゲーション60は、車両の現在位置の情報や、カメラ50に撮影された画像データに含まれる対象物の情報を表示装置に表示する装置である。例えば、カーナビゲーション60は、距離測定装置100から出力される対象物までの距離を、表示装置に表示する。本実施例1では一例として、対象物を歩行者として説明を行うが、これに限定されるものではない。
距離測定装置100は、記憶部110と、制御部120とを有する。記憶部110は、バッファ110aと、カメラパラメータ110bと、角度決定テーブル110cとを有する。記憶部110は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
バッファ110aは、カメラ50に撮影された画像データを格納するバッファである。図2は、バッファのデータ構造の一例を示す図である。図2に示すように、このバッファは、フレーム番号と、画像データとを対応付ける。フレーム番号は、画像データを一意に識別する情報である。画像データは、カメラ50に撮影された画像のデータである。
カメラパラメータ110bは、車両に搭載されたカメラ50に関する各種の情報を有する。図3は、カメラパラメータのデータ構造の一例を示す図である。図3に示すように、このカメラパラメータ110bは、カメラの横位置dx、縦位置dy、高さdz、俯角θ、パン角ψ、回転角ρを有する。
図4は、図3に示したカメラパラメータを説明するための図である。図4に示す例では、車両5の後方にカメラ50が搭載されている。例えば、車両5の後輪6の中心6aを基準点とし、x軸、y軸、z軸は、中心6aを通るものとする。図4に示す各符号は、図3に示した各符号に対応する。なお、回転角ρの図示は省略する。
角度決定テーブル110cは、画像データ上における画像中心から対象物までの距離と、カメラ50の画角との関係を定義した情報である。図5は、角度決定テーブルのデータ構造の一例を示す図である。図5に示すように、この角度決定テーブル110cは、画像中心からの距離Dyと、画角θyとを対応付ける。以下において、距離Dyおよび画角θyについて説明する。
図6は、角度決定テーブルの距離Dyと画角θyとを説明するための図である。例えば、画像データ20の画像中心を位置20aとし、画像データ20上に存在する対象物10の最下端を位置10aとする。画像データ20上における位置20aから位置10aまでの距離がDyとなる。また、角度決定テーブル110cにおいて、距離Dyに対応する画角をθyとすると、図6に示す光軸50aと線分50bとのなす角がθyとなる。線分50bは、実空間において、カメラ50と最下端10aとを通る線分である。
図1の説明に戻る。制御部120は、受付部120aと、抽出部120bと、探索部120cと、測定部120dと、出力部120eとを有する。制御部120は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現できる。また、制御部120は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。また、制御部120は、車載ECU(Engine Control Unit)であっても良い。
受付部120aは、カメラ50から画像データを受け付ける処理部である。受付部120aは、カメラ50から画像データを受け付ける度に、フレーム番号と対応付けて、画像データを、バッファ110aに格納する。
抽出部120bは、バッファ110aから画像データを取得し、取得した画像データから複数のエッジ線分を検出する。抽出部120bは、検出した複数のエッジ線分のうち、所定の対象物の特徴を有する複数のエッジ線分を特定する。本実施例1では一例として、所定の対象物を「歩行者」とする。抽出部120bは、特定した対象物の特徴を有するエッジ線分の情報を、探索部120cに出力する。抽出部120bは、バッファ110aに格納された各画像データに対して、上記処理を繰り返し実行する。
抽出部120bが、画像データから複数のエッジ線分を検出する処理の一例について説明する。抽出部120bは、画像データに対して、Sobelフィルタやラプラシアンフィルタを用いることで、エッジ画像を生成する。抽出部120bは、エッジ画像に含まれる各エッジ線分を、そのまま検出しても良いし、下位の処理を行っても良い。例えば、抽出部120bは、エッジ画像に含まれる複数のエッジ線分を比較し、エッジ線分の角度が類似し、かつ、エッジ線分の距離が閾値未満となるエッジ線分の組を統合する処理を繰り返し実行しても良い。また、抽出部120bは、長さが閾値未満となるエッジ線分を、ノイズとして取り除いても良い。
抽出部120bが、検出した複数のエッジ線分から、対象物の特徴を有するエッジ線分を特定する処理の一例について説明する。抽出部120bは、カメラパラメータ110bの高さdzに応じて予め設定される水平線と複数のエッジ線分とを比較し、水平線と交差するエッジ線分を、対象物の特徴を有するエッジ線分の候補として選択する。以下の説明では、対象物の特徴を有するエッジ線分の候補を、「候補エッジ」と表記する。
抽出部120bは、複数の候補エッジから2つの候補エッジのペアを選択する。抽出部120bは、候補エッジのペア間の上側の距離よりも下側の距離の方が小さい場合、または、候補エッジのペアが平行である場合に、候補エッジのペアを、対象物の特徴と有するエッジ線分として特定する。
図7は、本実施例1に係る抽出部の処理を説明するための図である。図7の候補エッジのペア1a,1bについて説明する。候補エッジ1aと候補エッジ1bとを比較すると、上側の距離1cよりも下側の距離1dの方が小さい。このため、抽出部120bは、候補エッジ1aと候補エッジ1bとを、対象物の特徴を有するエッジ線分として特定する。
図7の候補エッジペア2a,2bについて説明する。候補エッジ2aと候補エッジ2bとを比較すると、上側の距離2cよりも下側の距離2dの方が大きい。このため、抽出部120bは、候補エッジ2aと候補エッジ2bとを、対象物の特徴を有するエッジ線分から除外する。抽出部120bは、候補エッジのペアについて上記処理を繰り返し実行することで、対象物の特徴を有するエッジ線分を特定する。
図1の説明に戻る。探索部120cは、抽出部120bから対象物の特徴を有するエッジ線分に基づいて、最も下方に位置するエッジ線分の座標を探索する処理部である。例えば、探索部120cは、複数のエッジ線分の内、基も下方に位置するエッジ線分を選択し、選択したエッジ線分の最下端の座標を探索する。探索部120cは、探索したエッジ線分の最下端の座標の情報を、測定部120dに出力する。
図8は、本実施例1に係る探索部の処理を説明するための図(1)である。図8に示す例では、画像データ25に、対象物の特徴を有するエッジ線分3a〜3dが含まれる。探索部120cは、エッジ線分3a〜3dの内、最も下方に位置するエッジ線分3cを選択する。探索部120cは、選択したエッジ線分3cの最下端3eの座標を探索する。
なお、探索部120cは、図8の処理に加えて、更に下記の処理を実行しても良い。図9は、本実施例1に係る探索部の処理を説明するための図(2)である。図9に示す例では、画像データ25に、対象物の特徴を有するエッジ線分3a〜3dが含まれる。探索部120cは、エッジ線分3a〜3dの内、最も下方に位置するエッジ線分3cを選択する。
続いて、探索部120cは、抽出部120bから、画像データ25に含まれる水平方向のエッジ線分の情報を取得する。探索部120cは、エッジ線分3cを下方向に延長した場合に、延長線と交わる水平方向のエッジが存在する場合に、延長線と水平方向のエッジとの交点の座標を探索する。図9に示す例では、探索部120cは、エッジ線分3cの延長線と、水平方向のエッジ4との交点4aの座標を探索する。探索部120cは、最も下方に位置するエッジ線分(対象物の特徴を有するエッジ線分)の延長線と交わる水平方向のエッジ線分が存在する場合には、交点の座標を、最下端の座標として、測定部120dに出力する。
図1の説明に戻る。測定部120dは、探索部120cに探索されたエッジ線分の最下端の座標と、カメラパラメータ110bと、角度決定テーブル110cとを基にして、車両から対象物までの距離を測定する処理部である。測定部120dは、測定した距離の情報を、出力部120eに出力する。以下において、測定部120dの処理の一例について説明する。
測定部120dは、最下端のy座標と、角度決定テーブル110cとを比較して、画角θyを特定する。測定部120dは、式(1)に基づいて、車両から対象物までの距離Dを算出する。測定部120dは、算出した距離Dの情報を、出力部120eに出力する。
距離D=カメラ50の高さdz/tanθy・・・(1)
なお、式(1)では説明の便宜上、カメラ50の俯角θを0とした場合の距離Dを示すものである。例えば、俯角θが0でない場合には、画像データ上の座標とカメラ50の撮影方向に対応する単位ベクトルとを対応付けた変換テーブルを用いる。測定部120dは、最下端の座標と変換テーブルとを比較して、単位ベクトルを求め、カメラ50の高さdzと、単位ベクトルとを基にして、距離Dを算出する。測定部120dが、単位ベクトルを用いて、距離Dを算出する処理は、例えば、特開2010−258897号公報に記載された技術を用いることができる。
出力部120eは、測定部120dから、距離Dの情報を取得した場合に、取得した距離Dの情報を、カーナビゲーション60に出力する処理部である。
次に、距離測定装置100の処理手順の一例について説明する。図10は、本実施例1に係る距離測定装置の処理手順を示すフローチャートである。図10に示すように、距離測定装置100の受付部120aは、カメラ50から画像データを取得する(ステップS101)。距離測定装置100の抽出部120bは、画像データからエッジ線分を検出する(ステップS102)。
抽出部120bは、対象物(歩行者)の特徴を有する複数のエッジ線分を特定する(ステップS103)。距離測定装置100の探索部120cは、最下端の座標を特定する(ステップS104)。距離測定装置100の測定部120dは、最下端の座標と角度決定テーブル110cとを基にして、画角を特定する(ステップS105)。
測定部120dは、画角とカメラパラメータ110bとを基にして、車両から対象物までの距離を算出する(ステップS106)。距離測定装置100の出力部120eは、距離の情報を、カーナビゲーション60に出力する(ステップS107)。
距離測定装置100は、処理を継続する場合には(ステップS108,Yes)、ステップS101に移行する。距離測定装置100は、処理を継続しない場合には(ステップS108,No)、処理を終了する。
次に、本実施例1に係る距離測定装置100の効果について説明する。距離測定装置100は、画像データに含まれる対象物の特徴を有するエッジ線分を抽出し、エッジ線分の最下端の座標を探索し、最下端の座標を基にして、車両から対象物までの距離を算出する。このように、距離測定装置100は、エッジ線分の最下端の座標を探索して、距離を算出するため、移動体から対象物までの距離を正確に測定することができる。
距離測定装置100は、候補エッジのペア間の上側の距離よりも下側の距離の方が小さい場合、または、候補エッジのペアが平行である場合に、候補エッジのペアを、対象物の特徴と有するエッジ線分として特定する。このため、対象物のエッジ線分を精度良く特定することができる。
次に、本実施例2に係る距離測定装置の構成について説明する。図11は、本実施例2に係る距離測定装置の構成を示す機能ブロック図である。図11に示すように、この距離測定装置200は、カメラ50およびカーナビゲーション60に接続される。カメラ50およびカーナビゲーション60に関する説明は、図1で説明したカメラ50およびカーナビゲーション60に関する説明と同様である。
距離測定装置200は、記憶部110と、制御部210とを有する。記憶部110は、バッファ110aと、カメラパラメータ110bと、角度決定テーブル110cとを有する。記憶部120は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子や、HDDなどの記憶装置に対応する。バッファ110a、カメラパラメータ110b、角度決定テーブル110cに関する説明は、図1のバッファ110a、カメラパラメータ110b、角度決定テーブル110cに関する説明と同様である。
制御部210は、受付部120aと、抽出部210aと、探索部120cと、測定部120dと、出力部120eとを有する。制御部210は、CPUやMPUなどによって実現できる。また、制御部210は、ASICやFPGAなどのハードワイヤードロジックによっても実現できる。また、制御部210は、車載ECUであっても良い。受付部120a、探索部120c、測定部120d、出力部120eに関する説明は、図1に示した受付部120a、探索部120c、測定部120d、出力部120eに関する説明に関する説明と同様である。
抽出部210aは、バッファ110aから現在の画像データと、一つ前の画像データとを取得する。以下の説明では、一つ前の画像データを過去の画像データと表記する。抽出部210aは、現在の画像データと過去の画像データとの差分画像データを算出し、差分画像データを基にして、対象物が存在する探索領域を特定する。例えば、抽出部210aは、差分画像データの画素値が閾値以上となる画素を特定し、特定した画素のうち隣接する画素を連結する処理を繰り返し実行する。抽出部210aは、連結した画素の領域が所定領域よりも大きい場合に、連結した画素の領域を、探索領域として特定する。
抽出部210aは、現在の画像データにおける探索領域から、対象物の特徴を有する複数のエッジ線分を特定し、特定したエッジ線分の情報を、探索部120cに出力する。抽出部210aが、対象物の特徴を有する複数のエッジ線分を特定する処理は、図1に示した抽出部120bの処理と同様である。
ここでは一例として、抽出部210aが、差分画像データを基にして、探索領域を特定する処理を説明したが、その他の処理を実行することにより、探索領域を特定しても良い。例えば、抽出部210aは、画像データの特徴点のフロー量に基づいて、探索領域を特定しても良いし、機械学習により学習した対象物の特徴を用いて、探索領域を特定しても良い。
抽出部210aが、画像データの特徴点のフロー量に基づいて、探索領域を特定する処理の一例について説明する。抽出部210aは、過去の画像データおよび現在の画像データから特徴点を抽出し、特徴点の特徴量を基にして、過去の画像データ上の各特徴点と、現在の画像データの各特徴点とを対応付ける。抽出部210aは、対応付けた特徴点の移動量を、フロー量とする。抽出部210aは、特徴点の組毎にフロー量を算出し、フロー量の大きさに基づきグループ分けを行う。抽出部210aは、同一のグループのフロー量に対応する各特徴点を囲む領域を、探索領域として特定する。なお、抽出部210aは、Harrisのコーナー検出等の技術を利用して、特徴点の抽出を行う。
抽出部210aが、機械学習により学習した対象物の特徴を用いて、探索領域を特定する処理の一例について説明する。抽出部210aは、機械学習の機能を有しており、予め検知する対象物の画像データを収集しておき、対象物の特徴量を算出して識別器として保持する。抽出部210aは、識別器と、画像データとを比較して、識別器内の特徴量に合致するものがあるか否かのマッチングを行うことで、画像データに含まれる対象物の範囲を特定する。抽出部210aは、画像データに含まれる対象物の範囲を、探索領域とする。
次に、本実施例2に係る距離測定装置200の処理手順の一例について説明する。図12は、本実施例2に係る距離測定装置の処理手順を示すフローチャートである。図12に示すように、距離測定装置200の受付部120aは、カメラ50から画像データを取得する(ステップS201)。距離測定装置200の抽出部210aは、探索領域を特定する(ステップS202)。抽出部210aは、画像データの探索領域からエッジ線分を検出する(ステップS203)。
抽出部210aは、対象物(歩行者)の特徴を有する複数のエッジ線分を特定する(ステップS204)。距離測定装置200の探索部120cは、最下端の座標を特定する(ステップS205)。距離測定装置200の測定部120dは、最下端の座標と角度決定テーブル110cとを基にして、画角を特定する(ステップS206)。
測定部120dは、画角とカメラパラメータ110bとを基にして、車両から対象物までの距離を算出する(ステップS207)。距離測定装置200の出力部120eは、距離の情報を、カーナビゲーション60に出力する(ステップS208)。
距離測定装置200は、処理を継続する場合には(ステップS209,Yes)、ステップS201に移行する。距離測定装置200は、処理を継続しない場合には(ステップS209,No)、処理を終了する。
次に、本実施例2に係る距離測定装置200の効果について説明する。距離測定装置200は、差分画像データ、フロー量または機械学習を利用して、探索領域を特定し、特定した探索領域から、対象物の特徴を有するエッジ線分を抽出する。これにより、抽出範囲が狭まるため、距離測定装置200に係る負担を軽減できる。また、移動する対象物の存在からエッジ線分を抽出しないので、ノイズの影響を低減することもできる。
次に、上記実施例に示した距離測定装置100,200と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図13は、距離測定装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図16に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付ける入力装置302と、ディスプレイ303とを有する。また、コンピュータ300は、記憶媒体からプログラム等を読み取る読み取り装置304と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置305と、カメラ306とを有する。また、コンピュータ300は、各種情報を一時記憶するRAM307と、ハードディスク装置308とを有する。そして、各装置301〜308は、バス309に接続される。
ハードディスク装置308は、抽出プログラム308a、探索プログラム308b、測定プログラム308cを有する。CPU301は、抽出プログラム308a、探索プログラム308b、測定プログラム308cを読み出してRAM307に展開する。
抽出プログラム308aは、抽出プロセス307aとして機能する。探索プログラム308bは、探索プロセス307bとして機能する。測定プログラム308cは、測定プロセス307cとして機能する。
抽出プロセス307aの処理は、抽出部120b,210aの処理に対応する。探索プロセス307bの処理は、探索部120cの処理に対応する。測定プロセス307cは、測定部120dの処理に対応する。
なお、各プログラム308a〜308cについては、必ずしも最初からハードディスク装置308に記憶させておかなくても良い。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300が各プログラム308a〜308cを読み出して実行するようにしても良い。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)移動体に搭載された単一のカメラにより撮影された画像データから複数のエッジ線分を検出し、検出した複数のエッジ線分のうち、所定の対象物の特徴を有する複数のエッジ線分を特定する抽出部と、
前記抽出部により特定された複数のエッジ線分のうち、最も下方に位置するエッジ線分の座標を探索する探索部と、
前記探索部に探索されたエッジ線分の座標と前記カメラのパラメータとを基にして、前記移動体から前記所定の対象物までの距離を測定する測定部と
を有することを特徴とする距離測定装置。
(付記2)前記抽出部は、前記画像データに含まれる複数のエッジ線分と、前記カメラの搭載位置に応じて予め設定される水平線とを比較して、前記水平線と交差するエッジ線分を、前記所定の対象物の特徴を有するエッジ線分として特定することを特徴とする付記1に記載の距離測定装置。
(付記3)前記抽出部は、複数のエッジ線分から2つのエッジ線分を選択し、選択した2つのエッジ線分間の上側の距離よりも下側の距離の方が小さい場合、または、選択した2つのエッジ線分が平行である場合に、選択した2つのエッジ線分を、所定の対象物の特徴を有するエッジ線分として特定することを特徴とする付記1または2に記載の距離測定装置。
(付記4)前記抽出部は、前記カメラにより撮影された過去の画像データと現在の画像データとの差分画像を基にして、前記所定の対象物が存在する探索領域を特定し、画像データ上の探索領域から、複数のエッジ線分を検出することを特徴とする付記1、2または3に記載の距離測定装置。
(付記5)前記抽出部は、前記カメラにより撮影された過去の画像データ上の特徴点の位置と前記特徴点に対応する現在の画像データ上の位置を基にしてフロー量を算出する処理を、特徴点毎に実行し、フロー量の類似する特徴点の位置を含む領域を特定し、特定した領域から複数のエッジ線分を検出することを特徴とする付記1、2または3に記載の距離測定装置。
(付記6)前記抽出部は、前記所定の対象物の特徴を学習し、学習した特徴と前記カメラにより撮影された画像データとを基にして、前記所定の対象物が存在する領域を特定し、特定した領域から複数のエッジ線分を検出することを特徴とする付記1、2または3に記載の距離測定装置。
(付記7)コンピュータが実行する距離測定方法であって、
移動体に搭載された単一のカメラにより撮影された画像データから複数のエッジ線分を検出し、検出した複数のエッジ線分のうち、所定の対象物の特徴を有する複数のエッジ線分を特定し、
特定した複数のエッジ線分のうち、最も下方に位置するエッジ線分の座標を探索し、
探索したエッジ線分の座標と前記カメラのパラメータとを基にして、前記移動体から前記所定の対象物までの距離を測定する
処理を実行することを特徴とする距離測定方法。
(付記8)前記特定する処理は、前記画像データに含まれる複数のエッジ線分と、前記カメラの搭載位置に応じて予め設定される水平線とを比較して、前記水平線と交差するエッジ線分を、前記所定の対象物の特徴を有するエッジ線分として特定することを特徴とする付記7に記載の距離測定方法。
(付記9)前記抽出する処理は、複数のエッジ線分から2つのエッジ線分を選択し、選択した2つのエッジ線分間の上側の距離よりも下側の距離の方が小さい場合、または、選択した2つのエッジ線分が平行である場合に、選択した2つのエッジ線分を、所定の対象物の特徴を有するエッジ線分として特定することを特徴とする付記7または8に記載の距離測定方法。
(付記10)前記抽出する処理は、前記カメラにより撮影された過去の画像データと現在の画像データとの差分画像を基にして、前記所定の対象物が存在する探索領域を特定し、画像データ上の探索領域から、複数のエッジ線分を検出することを特徴とする付記7、8または9に記載の距離測定方法。
(付記11)前記抽出する処理は、前記カメラにより撮影された過去の画像データ上の特徴点の位置と前記特徴点に対応する現在の画像データ上の位置を基にしてフロー量を算出する処理を、特徴点毎に実行し、フロー量の類似する特徴点の位置を含む領域を特定し、特定した領域から複数のエッジ線分を検出することを特徴とする付記7、8または9に記載の距離測定方法。
(付記12)前記抽出する処理は、前記所定の対象物の特徴を学習し、学習した特徴と前記カメラにより撮影された画像データとを基にして、前記所定の対象物が存在する領域を特定し、特定した領域から複数のエッジ線分を検出することを特徴とする付記7、8または9に記載の距離測定方法。
50 カメラ
60 カーナビゲーション
100,200 距離測定装置
110 記憶部
110a バッファ
110b カメラパラメータ
110c 角度決定テーブル
120,210 制御部
120a 受付部
120b,210a 抽出部
120c 探索部
120d 測定部
120e 出力部

Claims (7)

  1. 移動体に搭載された単一のカメラにより撮影された画像データから複数のエッジ線分を検出し、検出した複数のエッジ線分のうち、所定の対象物の特徴を有する複数のエッジ線分を特定する抽出部と、
    前記抽出部により特定された複数のエッジ線分のうち、最も下方に位置するエッジ線分の座標を探索する探索部と、
    前記探索部に探索されたエッジ線分の座標と前記カメラのパラメータとを基にして、前記移動体から前記所定の対象物までの距離を測定する測定部と
    を有することを特徴とする距離測定装置。
  2. 前記抽出部は、前記画像データに含まれる複数のエッジ線分と、前記カメラの搭載位置に応じて予め設定される水平線とを比較して、前記水平線と交差するエッジ線分を、前記所定の対象物の特徴を有するエッジ線分として特定することを特徴とする請求項1に記載の距離測定装置。
  3. 前記抽出部は、複数のエッジ線分から2つのエッジ線分を選択し、選択した2つのエッジ線分間の上側の距離よりも下側の距離の方が小さい場合、または、選択した2つのエッジ線分が平行である場合に、選択した2つのエッジ線分を、所定の対象物の特徴を有するエッジ線分として特定することを特徴とする請求項1または2に記載の距離測定装置。
  4. 前記抽出部は、前記カメラにより撮影された過去の画像データと現在の画像データとの差分画像を基にして、前記所定の対象物が存在する探索領域を特定し、画像データ上の探索領域から、複数のエッジ線分を検出することを特徴とする請求項1、2または3に記載の距離測定装置。
  5. 前記抽出部は、前記カメラにより撮影された過去の画像データ上の特徴点の位置と前記特徴点に対応する現在の画像データ上の位置を基にしてフロー量を算出する処理を、特徴点毎に実行し、フロー量の類似する特徴点の位置を含む領域を特定し、特定した領域から複数のエッジ線分を検出することを特徴とする請求項1、2または3に記載の距離測定装置。
  6. 前記抽出部は、前記所定の対象物の特徴を学習し、学習した特徴と前記カメラにより撮影された画像データとを基にして、前記所定の対象物が存在する領域を特定し、特定した領域から複数のエッジ線分を検出することを特徴とする請求項1、2または3に記載の距離測定装置。
  7. コンピュータが実行する距離測定方法であって、
    移動体に搭載された単一のカメラにより撮影された画像データから複数のエッジ線分を検出し、検出した複数のエッジ線分のうち、所定の対象物の特徴を有する複数のエッジ線分を特定し、
    特定した複数のエッジ線分のうち、最も下方に位置するエッジ線分の座標を探索し、
    探索したエッジ線分の座標と前記カメラのパラメータとを基にして、前記移動体から前記所定の対象物までの距離を測定する
    処理を実行することを特徴とする距離測定方法。
JP2016238576A 2016-12-08 2016-12-08 距離測定装置および距離測定方法 Active JP6844235B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016238576A JP6844235B2 (ja) 2016-12-08 2016-12-08 距離測定装置および距離測定方法
US15/830,153 US10521915B2 (en) 2016-12-08 2017-12-04 Distance measurement device and distance measurement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016238576A JP6844235B2 (ja) 2016-12-08 2016-12-08 距離測定装置および距離測定方法

Publications (2)

Publication Number Publication Date
JP2018096709A true JP2018096709A (ja) 2018-06-21
JP6844235B2 JP6844235B2 (ja) 2021-03-17

Family

ID=62489334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016238576A Active JP6844235B2 (ja) 2016-12-08 2016-12-08 距離測定装置および距離測定方法

Country Status (2)

Country Link
US (1) US10521915B2 (ja)
JP (1) JP6844235B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022162922A1 (ja) * 2021-01-29 2022-08-04 株式会社ニコンビジョン 距離測定装置及び距離測定方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017071143A1 (en) 2015-10-30 2017-05-04 SZ DJI Technology Co., Ltd. Systems and methods for uav path planning and control
CN107209854A (zh) * 2015-09-15 2017-09-26 深圳市大疆创新科技有限公司 用于支持顺畅的目标跟随的系统和方法
KR102480416B1 (ko) * 2016-12-23 2022-12-23 삼성전자주식회사 차선 정보를 추정하는 방법 및 전자 장치
US10788830B2 (en) * 2017-07-28 2020-09-29 Qualcomm Incorporated Systems and methods for determining a vehicle position
CN112132163B (zh) * 2020-09-21 2024-04-02 杭州睿琪软件有限公司 识别对象边缘的方法、系统及计算机可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012225806A (ja) * 2011-04-20 2012-11-15 Toyota Central R&D Labs Inc 道路勾配推定装置及びプログラム
JP2014178245A (ja) * 2013-03-15 2014-09-25 Nissan Motor Co Ltd 距離測定装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5233417A (en) * 1990-06-01 1993-08-03 Nissan Motor Co., Ltd. Image movement detecting apparatus
JP4092308B2 (ja) * 2004-06-02 2008-05-28 トヨタ自動車株式会社 境界線検出装置
EP1876411A4 (en) * 2005-04-25 2011-06-29 Geo Technical Lab Co Ltd METHOD FOR ANALYZING THE PICTURE POSITION
JP4659631B2 (ja) * 2005-04-26 2011-03-30 富士重工業株式会社 車線認識装置
WO2008065717A1 (fr) * 2006-11-29 2008-06-05 Fujitsu Limited Système et procédé de détection de piéton
JP4915739B2 (ja) * 2007-05-31 2012-04-11 アイシン・エィ・ダブリュ株式会社 運転支援装置
JP5177217B2 (ja) * 2008-02-26 2013-04-03 富士通株式会社 画像処理装置、画像処理方法、画像処理プログラム及び車載端末
JP5141603B2 (ja) 2009-03-11 2013-02-13 日産自動車株式会社 移動物体検出装置及び移動物体検出方法
KR101194603B1 (ko) * 2009-03-12 2012-10-25 한국전자통신연구원 무인 운송 장치 및 그 방법
JP5251800B2 (ja) 2009-09-16 2013-07-31 株式会社豊田中央研究所 対象物追跡装置及びプログラム
JP5276637B2 (ja) * 2010-09-08 2013-08-28 富士重工業株式会社 車線推定装置
US10002433B2 (en) * 2012-12-26 2018-06-19 Nippon Soken, Inc. Boundary line recognition apparatus and branch road determination apparatus
DE102013102683A1 (de) * 2013-03-15 2014-09-18 Jenoptik Robot Gmbh Verfahren zur Erfassung von Verkehrsverstößen in einem Ampelbereich durch Heckanmessung mit einem Radargerät
JP2018092354A (ja) * 2016-12-02 2018-06-14 富士通株式会社 物体検出装置および物体検出方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012225806A (ja) * 2011-04-20 2012-11-15 Toyota Central R&D Labs Inc 道路勾配推定装置及びプログラム
JP2014178245A (ja) * 2013-03-15 2014-09-25 Nissan Motor Co Ltd 距離測定装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022162922A1 (ja) * 2021-01-29 2022-08-04 株式会社ニコンビジョン 距離測定装置及び距離測定方法

Also Published As

Publication number Publication date
US10521915B2 (en) 2019-12-31
US20180165815A1 (en) 2018-06-14
JP6844235B2 (ja) 2021-03-17

Similar Documents

Publication Publication Date Title
JP6844235B2 (ja) 距離測定装置および距離測定方法
CN108151750B (zh) 定位方法及装置
US20170103258A1 (en) Object detection method and object detection apparatus
JP5385105B2 (ja) 画像検索方法およびシステム
US9275472B2 (en) Real-time player detection from a single calibrated camera
US10803597B2 (en) Image processing device, method for controlling the same, program, and storage medium
KR101609303B1 (ko) 카메라 캘리브레이션 방법 및 그 장치
US20110164832A1 (en) Image-based localization feature point registration apparatus, method and computer-readable medium
KR101822185B1 (ko) 3d 포인트 클라우드 poi 검출 방법 및 장치
US20080292192A1 (en) Human detection device and method and program of the same
Kessler et al. Vision-based attitude estimation for indoor navigation using vanishing points and lines
JP2016081525A (ja) 車両用画像認識システム、及び対応法
CN111487641A (zh) 一种利用激光雷达检测物体的方法、装置、电子设备及存储介质
KR101380628B1 (ko) 복수의 카메라를 사용한 객체 추적 방법 및 장치
JP6021689B2 (ja) 車両諸元計測処理装置、車両諸元計測方法及びプログラム
KR101761586B1 (ko) 홍채와 공막의 경계선 검출 방법
WO2014002692A1 (ja) ステレオカメラ
EP3584763A1 (en) Vehicle-mounted environment recognition device
US20180158203A1 (en) Object detection device and object detection method
JP6772059B2 (ja) 電子制御装置、電子制御システムおよび電子制御方法
EP3955207A1 (en) Object detection device
JP2014016981A5 (ja)
KR101482850B1 (ko) 손 모양 인식 방법 및 그 장치
JP5983033B2 (ja) 位置関係判定プログラム、位置関係判定方法および位置関係判定装置
JP4151631B2 (ja) 物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210208

R150 Certificate of patent or registration of utility model

Ref document number: 6844235

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150