JP5987660B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP5987660B2
JP5987660B2 JP2012262772A JP2012262772A JP5987660B2 JP 5987660 B2 JP5987660 B2 JP 5987660B2 JP 2012262772 A JP2012262772 A JP 2012262772A JP 2012262772 A JP2012262772 A JP 2012262772A JP 5987660 B2 JP5987660 B2 JP 5987660B2
Authority
JP
Japan
Prior art keywords
unit
feature point
accuracy
image
list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012262772A
Other languages
English (en)
Other versions
JP2014109819A (ja
Inventor
純 金武
純 金武
中山 收文
收文 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012262772A priority Critical patent/JP5987660B2/ja
Priority to EP13186379.7A priority patent/EP2738740B1/en
Priority to US14/043,439 priority patent/US20140152780A1/en
Publication of JP2014109819A publication Critical patent/JP2014109819A/ja
Application granted granted Critical
Publication of JP5987660B2 publication Critical patent/JP5987660B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

本発明は、撮像された画像を処理する画像処理装置、画像処理方法及びプログラムに関する。
近年、自車両の前後左右に広角カメラを4台取り付け、周囲に存在する静止物体までの三次元距離を計測し、周囲の駐車車両の形状・位置関係を示し、駐車時の車両操作支援を行う車載画像処理システムがある。
この車載画像処理システムにおいて、移動体から物体までの距離を測定することが重要になってくる。距離を測定する技術として、例えば、距離誤差が閾値以下の特徴点のみを抽出することで測定精度を向上させる技術がある(例えば特許文献1参照)。
特開2007−322357号公報
しかしながら、従来技術では、特徴点までの距離誤差が閾値以下の物体について、物体形状を生成することができない。例えば、画像内に複数の物体があり、移動体から手前の物体を物体A、物体Aの奥にある物体を物体Bとする。このとき、移動体を旋回して物体Aと物体Bの間に入れる場合、移動体は物体Bには近づかずに旋回してしまうため、物体Bの特徴点までの距離誤差が閾値以下とならずに、物体Bの物体形状が生成されないという問題点がある。
そこで、開示の技術では、物体毎に適切な物体形状を生成することを目的とする。
開示の一態様における画像処理装置は、移動体に設置されたカメラから画像を取得する画像取得部と、前記画像から各特徴点を抽出する特徴点抽出部と、異なる時刻で撮像された画像から抽出された各特徴点に対して照合処理を行う照合部と、照合された特徴点の位置と、前記移動体の移動量とに基づいて三次元位置を算出する位置算出部と、前記三次元位置の誤差を示す精度を算出する精度算出部と、前記画像から物体を検出し、物体毎に生成した特徴点の精度分布に基づいて、物体毎に閾値を設定する分布判定部と、前記閾値よりも精度が高い特徴点を物体毎に選別する選別部と、選別された特徴点を用いて物体形状を生成する生成部と、を備える。
開示の技術によれば、物体毎に適切な物体形状を生成することができる。
比較例における計測状況を説明する図。 比較例における物体形状を生成する処理の一例を説明する図。 旋回駐車する場合の各特徴点の例を示す図。 物体Bの欠落を説明する図。 選別閾値を緩和した場合の問題点を説明する図。 実施例1における画像処理システムの構成の一例を示すブロック図。 実施例1における画像処理装置の機能の一例を示すブロック図。 エッジリストの要素が持つ各情報の一例を示す図。 実施例1における特徴点抽出処理の一例を示すフローチャート。 登録済みリストの要素が持つ各情報の一例を示す図。 実施例1における照合処理の一例を示すフローチャート。 カメラから物体までの距離に応じて三次元位置の誤差を説明する図。 2時刻における物体とカメラとの位置関係を示す図。 実施例1における三次元位置算出処理及び精度算出処理の一例を示すフローチャート。 実施例1における特徴点の登録処理の一例を示すフローチャート。 直進時における移動体が直進する場合のカメラから特徴点までの距離と精度の推移を示す図。 旋回時における移動体が直進する場合のカメラから特徴点までの距離と精度の推移を示す図。 実施例1における精度予測処理の一例を示すフローチャート。 実施例1における特徴点の精度分布判定処理の一例を示すフローチャート。 実施例1における初期ラベル値の付与処理の一例を示すフローチャート。 接続先リストの要素が持つ情報の一例を示す図。 実施例1におけるラベル番号の整理処理の一例を示すフローチャート。 最終接続先リストの要素が持つ情報の一例を示す図。 実施例1における物体番号決定処理の一例を示すフローチャート。 物体リストの要素が持つ情報の一例を示す図。 実施例1における選別閾値の設定処理の一例を示すフローチャート。 実施例1におけるヒストグラムリストの要素が持つ情報の一例を示す図。 選別閾値リストの要素が持つ情報の一例を示す図。 実施例1における特徴点の選別処理の一例を示すフローチャート。 実施例2における画像処理装置の機能の一例を示すブロック図。 実施例2における物体情報の要素が持つ情報の一例を示す図。 実施例2における物体毎の距離算出処理の一例を示すフローチャート。 実施例2における特徴点の選別処理の一例を示すフローチャート。 実施例3における画像処理装置の機能の一例を示すブロック図。
まず、物体形状を生成する比較例について説明する。比較例では、移動体を移動させながら撮像した画像を用いて、次の手順によって周囲物の表面形状を生成する。なお、以下では、移動体として車両を例にして説明する。
図1は、比較例における計測状況を説明する図である。図1に示す例では、車両5は、物体Aと物体Bとの間にある駐車スペースに駐車するとする。このとき、車両5に設置されたカメラ20で走行中に周囲を撮像し、撮像された画像を用いて生成された物体形状を運転手等に提示する。
図2は、比較例における物体形状を生成する処理の一例を説明する図である。
(1)一台のカメラ20による移動ステレオ方式によって、周囲物体上の特徴点の3次元位置を計測
(2)各特徴点について、これまでの移動で得られた3次元位置の中で最も計測精度が高い情報を保持
(3)保持している3次元位置データ群から、計測精度が一定以上の精度の高い特徴点だけを選別
(4)精度の高い3次元位置情報のみを用いて周囲物の表面形状を生成
ここで、移動ステレオ方式とは、画像に写った静止物体を時系列で追跡し、2時刻(現時刻と過去時刻)での物体の撮像位置とカメラ(車両)の相対位置(移動量)を定めることで、三角測量の原理から三次元位置を算出する方法である。原理的に移動ステレオ方式では、カメラ20から物体までの距離が近いほど三次元位置の精度はよく、カメラ20から物体までの距離が遠いほど三次元位置の精度は低下する。
上記の比較例において、車両の移動経路によっては、対象物(物体)との距離が十分に近づかず、物体上の特徴点に対する3次元位置の精度が閾値以下となり、形状生成の対象から外れ、物体が欠落する場合がある。
例えば、図3は、旋回駐車する場合の各特徴点の例を示す図である。図3に示す例では、駐車スペースの両隣に駐車車両がある。以降では、手前側の駐車車両を物体A、奥側の駐車車両を物体Bとする。
ここで、一般的なバック駐車として、(i)駐車スペースに接近→(ii)駐車スペース付近で後退駐車するために旋回→(iii)駐車スペースに向かって後退駐車を行うシーンを考える。
物体Aの特徴点については、上記(i)の駐車スペースに接近時にカメラ20と物体Aまでの距離が近くなるため三次元位置の精度は高い。一方、物体Bの特徴点については、上記(ii)の駐車スペース付近で後退駐車するための旋回時に、カメラ20と物体Bまでの距離が遠くなる。そのため、(ii)の場合の物体Bの三次元位置の精度が低くなる。
その結果、(3)により、精度の高い特徴点が選別されるため、物体Aの形状は生成されるが、精度の低い物体Bの特徴点は選別されないため、物体Bの形状が欠落する。
図4は、物体Bの欠落を説明する図である。図4に示す例では、物体Bの特徴点について、移動体が物体Bに十分に近づく前に離れてしまったため、物体B上の三次元位置の精度が高くならない。よって、精度が閾値以下の特徴点を含む物体Bでは、物体形状が生成されず、物体形状が欠落してしまう。
また、物体形状の欠落を防ぐために、形状生成のための特徴点の選別閾値を緩和する方法が考えられる。しかし、特徴点の選別閾値を緩和すると、図5に示すような問題点が発生する。
図5は、選別閾値を緩和した場合の問題点を説明する図である。図5に示すように、精度が低い初期段階で、その三次元位置の特徴点が形状生成の対象となるため、初期段階の形状精度が低い。また、精度が高い特徴点だけでなく、精度が低い特徴点も形状生成の対象となるため、精度の高い物体の形状が崩れてしまう。
以上のように、比較例による処理では、物体形状を適切に生成することができていない。そこで、以下に説明する各実施例では、添付された図面を参照しつつ、上記問題を解決する実施例について説明する。
[実施例1]
まず、実施例1における移動体に搭載される画像処理システム1の構成について説明する。画像処理システム1は、例えば車載カメラシステムに適用できる。
<構成>
図6は、実施例1における画像処理システム1の構成の一例を示すブロック図である。画像処理システム1は、画像処理装置10と、カメラ20と、表示部30とを備える。画像処理システム1は、複数のカメラを有してもよい。
画像処理装置10は、移動体に設置されたカメラ20から画像を取得し、取得した画像から物体までの距離を測定し、移動体の駐車支援を行ったりする。
また、画像処理装置10は、制御部101と、主記憶部103と、補助記憶部105と、通信部107と、ドライブ装置109と、カメラI/F111とを有する。これらの各部は、データ通信可能なように相互にデータバスを介して接続されている。
制御部101は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPU(Central Processing Unit)である。また、制御部101は、主記憶部103や補助記憶部105に記憶されたプログラムを実行する演算装置であり、入力装置や記憶装置からデータを受け取り、演算、加工した上で、出力装置や記憶装置に出力する。プログラムは、例えば測距処理を含む画像処理プログラムである。
主記憶部103は、例えば、ROM(Read Only Memory)やRAM(Random Access Memory)などである。主記憶部103は、制御部101が実行する基本ソフトウェアであるOSやアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。
補助記憶部105は、例えばHDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。補助記憶部105は、例えばカメラ20から取得した画像を記憶する。
通信部107は、有線又は無線で周辺機器とデータ通信を行う。通信部107は、例えばネットワークを介して、画像を取得し、補助記憶部105に記憶する。
ドライブ装置109は、記録媒体40、例えばフレキシブルディスクやCD(Compact Disc)から、後述する処理を実行させる画像処理プログラムを読み出し、記憶装置にインストールしてもよい。
また、記録媒体40に、撮像制御プログラムを格納し、この記録媒体40に格納されたプログラムは、ドライブ装置109を介して画像処理装置10にインストールされる。インストールされた撮像制御プログラムは、画像処理装置10により実行可能となる。
カメラI/F111は、カメラ20から画像を取得するインタフェースである。カメラI/F111は、取得した画像を補助記憶部105に保存したり、又は制御部101に出力したりする。
カメラ20は、例えば車両に設置されたフロントカメラ、レフトカメラ、ライトカメラ、バックカメラのいずれかであり、周囲を撮像し、カメラI/F111を介して画像処理装置10に画像を入力する。
表示部30は、画像処理装置10により生成された出力画像を表示したりする。例えば表示部30は、俯瞰画像などを表示する。
<機能>
図7は、実施例1における画像処理装置10の機能の一例を示すブロック図である。画像処理装置10は、画像取得部201と、特徴点抽出部203と、第1記録部205と、照合部207と、挙動測定部209と、位置算出部211と、第2記録部213と、精度算出部215と、精度予測部217と、分布判定部219と、選別部221と、生成部223とを有する。
画像取得部201、第1記録部205、及び第2記録部213以外の各部は、例えば制御部101により画像処理プログラムが実行されることで、主記憶部103上にロードされて実行可能となる機能である。
画像取得部201は、例えばカメラI/F111により実現されうる。第1記録部205及び第2記録部213は、例えば補助記憶部105や主記憶部103などにより実現されうる。
画像取得部201は、移動体に設置されたカメラ20から画像を取得する。画像取得部201は、例えば、対応するカメラ20が撮像した画像を取得する。カメラ20は、例えば移動体が走行しているときに撮像を行う。
特徴点抽出部203は、各撮像時の画像から、各特徴点を抽出する。例えば、特徴点抽出部203は、入力された画像からエッジ点(特徴点)群を抽出し、第1記録部205に記録するとともに、照合部207に出力する。
第1記録部205は、特徴点抽出部203により抽出された特徴点を、時系列毎の画像に対応付けて記録する。
照合部207は、少なくとも2時点の画像から抽出された各特徴点に対して照合処理を行う。照合部207は、例えば、特徴点抽出部203から得られたエッジ点群と、第1記録部205に記録されている時系列で過去のエッジ点群との照合を行う。照合部207は、照合された(照合に成功した)2時点のエッジ点群を位置算出部211に出力する。
挙動測定部209は、カメラ20から取得した画像を用いて車速や舵角を求めてよいし、各センサを移動体に設けて、これらのセンサにより、車速や舵角を測定してもよい。挙動測定部209は、求めた移動体(又はカメラ20)の移動量を位置算出部211に出力する。また、挙動測定部209は、移動体の挙動(移動量や移動方向など)を第2記録部213に記録する。
位置算出部211は、照合部207により照合された特徴点の位置と、挙動測定部209により求められた移動体の移動量とに基づいて、特徴点の三次元位置を算出する。位置算出部211は、求めた特徴点の三次元位置を第2記録部213に記録するとともに、精度算出部215に出力する。
第2記録部213は、時系列の画像毎に、照合された特徴点の三次元位置を対応付けて記録する。また、第2記録部213は、精度算出部215により算出された特徴点に対し、特徴点毎に最も精度が高い三次元位置の情報を記録する。また、第2記録部213は、挙動測定部209から入力される移動体の動きを記録する。
精度算出部215は、特徴点の三次元位置の誤差を算出し、第2記録部213に記録する。精度算出部215は、算出した特徴点の三次元位置の誤差と、第2記録部213に記録されている、その特徴点の三次元位置の誤差とを比較して、精度の最も高い三次元位置の情報を第2記録部213に記録する。
精度予測部217は、移動体の動きに基づいて特徴点の三次元位置の精度を予測する。例えば、精度予測部217は、特徴点の三次元位置と車両挙動から特徴点の将来の三次元位置の精度を予測する。精度予測部217は、予測した三次元位置の精度を選別部221に出力する。
分布判定部219は、画像から物体を検出し、物体毎に生成した特徴点の精度分布に基づいて、物体毎に閾値を設定する。例えば、分布判定部219は、エッジ点(特徴点)群に基づいて物体検出を行い、各物体に含まれる特徴点の精度分布を算出する。分布判定部219は、この精度分布の分布形状に基づいて物体毎の閾値を設定する。分布判定部219は、設定した物体毎の閾値を選別部221に出力する。
選別部221は、設定された閾値よりも精度が高い特徴点を物体毎に選別する。例えば、選別部221は、精度予測部217の予測結果と、分布判定部219から得られた閾値とを基に、物体形状生成に使用する特徴点の選別を行う。選別部221は、物体毎に選別した特徴点を生成部223に出力する。
生成部223は、選別部221で選別された特徴点を用いて、物体形状を生成し、出力する。ここで、第1記録部205と第2記録部213とは、便宜上別々の構成で説明したが、1つの記録部にし、この記録部の記録領域を分けた構成であってもよい。
<各部の処理>
次に、実施例1における各部の処理内容について詳しく説明する。
《画像取得処理》
画像取得部201は、移動体に取り付けたカメラ20からの画像を取得する。画像取得部201は、必要に応じてカラー画像をモノクロ濃淡画像に変換して特徴点抽出部203に出力する。
《特徴点抽出処理》
特徴点抽出部203は、入力された画像からエッジ点群を抽出する。特徴点(エッジ)とは、取得画像において明るさが急激に変化している箇所である。特徴点の抽出方法としては、例えばSobelフィルタなど一般的なフィルタ処理がある。特徴点抽出部203は、フィルタ適用後の値(エッジ強度)が閾値以上であれば特徴点として抽出し、抽出結果を照合部207と第1記録部205に出力する。閾値は、実験等により求められた適切な値が予め設定されていればよい。
特徴点抽出部203は、特徴点を抽出することで、エッジリストを生成する。特徴点算出部203は、各画素のエッジ強度を算出し、エッジ強度が閾値以上になった箇所がある場合は、エッジリスト(list_edge)に追加する。ここで、エッジリスト(list_edge)は、図8に示す各情報を持つ要素e[i]の集合である。また、エッジリスト(list_edge)は、特徴点抽出処理の前に初期化(要素数=0)される。
図8は、エッジリストの要素が持つ各情報の一例を示す図である。図8に示すように、要素e[i]は、特徴点位置(現在)(nx,ny)と、特徴点位置(過去)(rx,ry)と、特徴点位置を中心としたパターン情報(以下、周囲のパターン情報とも称す)(pow[RY][RX])と、照合処理の成否フラグ(flag)と、三次元位置(px,py,pz)と、三次元位置の誤差(err)と、精度の低下を示す低下(deg)と、物体検出の際に用いるラベル(lbl)と、物体内番号(num)と、物体形状に用いるか否かを示す出力(out)とを有する。
図9は、実施例1における特徴点抽出処理の一例を示すフローチャートである。図9に示すステップS101で、特徴点抽出部203は、入力された画像に対し、エッジ処理を行う。
ステップS102で、特徴点抽出部203は、抽出したエッジ点(特徴点)のエッジ強度が閾値以上であるか否かを判定する。エッジ強度が閾値以上であれば(ステップS102−YES)ステップS103に進み、エッジ強度が閾値未満であれば(ステップS102−NO)ステップS104に進む。
ステップS103で、特徴点抽出部203は、エッジリストに対し、次の情報を持つ要素e[i]を作成し、エッジリストに追加する。
・現在の特徴点位置(nx,ny)
・周囲のパターン情報
・成否フラグを「0」とする。
なお、成否フラグは、「0」は失敗、「1」は成功を表す。特徴点抽出部203は、特徴点の要素数を表すNeを1つインクリメントして更新する(Ne=Ne+1)。
ステップS104で、特徴点抽出部203は、画像内の全画素について、エッジ処理を行ったか否かを判定する。エッジ処理が終了していれば(ステップS104−YES)抽出処理が終了し、エッジ処理が終了していなければ(ステップS104−NO)ステップS101に戻る。以上の処理を行うで、特徴点抽出部203は、画像内の特徴点(エッジ点)を抽出することができる。
《照合処理》
照合部207は、特徴点抽出部203で得られたエッジ点群と、第1記録部205に記録されている過去のエッジ点群とについて照合を行う。照合方法としては、特徴点を中心として一定の大きさの領域を設定し、特徴点同士の領域内の輝度値の差の絶対値和(SAD)や、輝度差の自乗和(SSD)など、一般的な画像間の照合処理が適用できる。
また、照合部207は、照合条件に特徴点間の距離が閾値以内であることを加えてもよい。特徴点の三次元位置が得られている場合は、移動体の移動量から、特徴点の画像位置を予測することができるので、照合部207は、この予測された位置と抽出された特徴点との距離によって照合成否を判断してもよい。
照合部207は、照合処理を行う際、第2記録部213に記録されている登録済みリスト(list_reg)と、特徴点抽出部203から得られたエッジリスト(list_edge)を用いて照合処理を行う。
ここで、登録済みリスト(list_reg)は、図10に示す各情報を持つ要素r[i]の集合である。また、登録済みリスト(list_reg)は、時系列で使用するため初期化されない。照合に成功した場合は、登録済みリストの要素r[i]の値を、エッジリストの要素e[j]に登録する。登録済みリスト(list_reg)の生成については後述する。
図10は、登録済みリストの要素が持つ各情報の一例を示す図である。図10に示すように、要素r[i]は、照合が成功している特徴点の画像位置(rx,ry)と、エッジ強度(pow)と、画像位置が示す特徴点の三次元位置(px,py,pz)と、三次元位置の誤差(err)とを有する。
図11は、実施例1における照合処理の一例を示すフローチャートである。図11に示すステップS201で、照合部207は、登録済みリスト(list_reg)に未処理の要素があるか否かを判定する。未処理の要素があれば(ステップS201−YES)ステップS202に進み、未処理の要素がなければ(ステップS201−NO)照合処理が終了する。
ステップS202で、照合部207は、未処理の要素r[i]を登録済みリストから取り出す。
ステップS203で、照合部207は、エッジリスト(list_edge)に未処理の要素があるか否かを判定する。未処理の要素があれば(ステップS203−YES)ステプS204に進み、未処理の要素がなければ(ステップS203−NO)ステップS209に進む。
ステップS204で、照合部207は、未処理の要素e[j]をエッジリストから取り出す。
ステップS205で、照合部207は、r[i]とe[j]との特徴点間の照合処理を行う。照合処理は、上述したように、特徴点を含む所定領域内の画素値を比較することで行われる。
ステップS206で、照合部207は、照合が成功したか否かを判定する。例えば、照合部207は、所定領域間の輝度値のSADや、SSDが閾値以下であれば成功と判定する。照合が成功すれば(ステップS206−YES)ステップS207に進み、照合が成功しなければ(ステップS206−NO)ステップS203に戻る。
ステップS207で、照合部207は、要素e[j]に要素r[i]の以下の値を登録する。
・画像位置(rx,ry)
・三次元位置(px,py,pz)
・三次元位置の誤差(err)
ステップS208で、照合部207は、要素e[j]のフラグを「1」に設定する。ステップS209で、照合部207は、登録済みリストから要素r[i]を削除する。また、照合部207は、登録済みリストの要素数Nrを1つデクリメントして更新する(Nr=Nr+1)。以上の処理を行うことで、照合部207は、照合処理を行い、照合された特徴点の情報をエッジリストに登録することができる。
《三次元位置算出処理》
位置算出部211は、照合部207で照合に成功した2時刻のエッジ点位置と移動体の挙動から三次元位置を算出する。車両挙動は、例えばカメラ20の移動量でもあり、車速や舵角などセンサ類から取得する。以下に、三次元位置の算出方法について述べる。
過去時刻(t−m)の画像特徴点の位置を式(1)とし、現時刻(t)での画像特徴点の位置を式(2)とする。
Figure 0005987660
Figure 0005987660
カメラ20についての移動体上に設けた基準座標系Xw(t)から、カメラ座標系xc(t)への変換パラメータをRy、Tyとする。
Ry:回転行列
Ty:並進移動ベクトル
xc(t)=Ry・(Xw(t)−Ty)
時刻(t−m)での移動体の基準座標系Xw(t−m)から、時刻tでの基準座標系Xw(t)への変換パラメータをRt、Ttとする。
Rt:回転行列
Tt:並進移動ベクトル
Xwt=Rtm・(Xw(t−m)−Ttm
このとき、回転行列Rtmは、式(3)で表され(aは回転角)、並進移動ベクトルTtmは、式(4)で表される。
Figure 0005987660
Figure 0005987660
ここで、式(3)(4)は、変換されて式(5)(6)で表すことができる。
Figure 0005987660
Figure 0005987660
さらに、時刻tでの画像特徴点の位置n(t)は、Rvを用いて、式(7)のように変換することができる。
Figure 0005987660
このとき、時刻tでのカメラ座標系での特徴点の距離l(t)は、式(8)で与えられる。
Figure 0005987660
したがって、カメラ座標系での三次元位置P(t)は、式(9)で表すことができる。
Figure 0005987660
以上の処理を行うことで、位置算出部211は、特徴点におけるカメラ座標系での三次元位置を算出することができる。
《測距精度算出処理》
精度算出部215は、位置算出部211により算出された特徴点の三次元位置についての精度を算出する。
図12は、カメラ20から物体までの距離に応じて三次元位置の誤差を説明する図である。図12に示すように、画像の1画素には一定の大きさがあり、物体点は図12に示す範囲ar内であれば画像上での投影位置は変化しない。そのため、物体点の三次元位置には誤差が発生する。
また、カメラ20から物体までの距離に応じて誤差の大きさが変化し、カメラ20から物体までの距離が遠い場合には誤差が大きくなり、カメラ20から物体までの距離が近い場合には誤差が小さくなる。
図12(A)は、物体までの距離が遠い場合を示す図であり、図12(B)は、物体までの距離が近い場合を示す図である。図12(A)に示す物体点が存在する範囲ar11は、図12(B)に示す物体点が存在する範囲ar12よりも大きい。よって、三次元位置の誤差は、物体までの距離が遠い方が、物体までの距離が近い方よりも大きくなる。以降では、この性質を性質1とも称する。
精度算出部215は、上記の性質1を利用して、特徴点の三次元位置についての誤差を算出し、時系列で保持している誤差と比較し、誤差の小さい方を残すことで、精度が最も高い三次元位置情報を取得する。三次元位置の誤差は、三次元位置の精度に対応する。三次元位置の誤差が小さくなると、三次元位置の精度が高くなる。
これにより、例えば、移動体が物体から一度離れて再度近づく時に、離れる前よりも三次元位置の精度が高くなる場合には、三次元位置情報を更新することが可能となる。
図13は、2時刻における物体とカメラとの位置関係を示す図である。また、図13は、三次元位置の誤差算出式を導出するためのモデルを示す。図13に示す位置関係から式(10)が導出できる。
Figure 0005987660
式(10)について、各式の二乗和をとることで、l2は、式(11)で表すことができる。
Figure 0005987660

ここで、l2に対するa1変化での微係数を算出すると、式(11)は、式(12)に変換される。
Figure 0005987660
ここで、a1は、最大でdaだけ変化するので、三次元位置の誤差を示すl2errは、式(13)で表すことができる。ただし、daは、0.5画素に相当する角度である。
Figure 0005987660
図14は、実施例1における三次元位置算出処理及び精度算出処理の一例を示すフローチャートである。図14に示すステップS301で、位置算出部211は、エッジリスト(list_edge)に未処理の要素があるか否かを判定する。未処理の要素があれば(ステップS301−YES)ステップS302に進み、未処理の要素がなければ(ステップS301−NO)処理が終了する。
ステップS302で、位置算出部211は、未処理の要素e[i]をエッジリストから取り出す。
ステップS303で、位置算出部211は、照合処理に成功しているか否かを判定する。位置算出部211は、要素e[i]のflagが「1」であれば照合成功と判定する。照合が成功していれば(ステップS303−YES)ステップS304に進み、照合が失敗していれば(ステップS303−NO)ステップS301に戻る。
つまり、位置算出部211は、エッジリスト(list_edge)の各要素e[i]について、照合処理に成功したかどうかのフラグ(flag)を参照することで、三次元位置を算出するか判断する。
ステップS304で、位置算出部211は、上述したようにして、三次元位置(Px,Py,Pz)を算出する。
ステップS305で、精度算出部215は、上述したようにして、三次元位置の誤差(l2err)を算出する。
ステップS306で、精度算出部215は、要素e[i]の三次元位置の誤差(err)との比較を行う。精度算出部215は、現時刻の三次元位置の誤差(l2err)が時系列(過去)のe[i]の三次元位置の誤差(err)よりも小さいか否かを判定する。l2errがerrよりも小さければ(ステップS306−YES)ステップS307に進み、l2errがerr以上であれば(ステップS306−NO)ステップS301に戻る。
ステップS307で、精度算出部215は、要素e[i]の更新処理を行う。ここでは、精度算出部215は、e[i]の三次元位置(px,py,pz)を現時刻の三次元位置(Px,Py,Pz)に置き換え、三次元位置の誤差(err)を現時刻の三次元位置の誤差(l2err)に置き換える。以上の処理が、エッジリスト(list_edge)の各要素について行われる。
《特徴点の登録処理》
三次元位置及び三次元位置の誤差が算出された後は、次時刻で使用する特徴点の情報が登録される。
図15は、実施例1における特徴点の登録処理の一例を示すフローチャートである。図15に示す処理は、精度算出部215が行うこととして説明するが、別構成の登録部を設けて、登録部に処理させてもよい。
図15に示すステップS401で、精度算出部215は、エッジリスト(list_edge)に未処理の要素があるか否かを判定する。未処理の要素があれば(ステップS401−YES)ステップS402に進み、未処理の要素がなければ(ステップS401−NO)処理が終了する。
ステップS402で、精度算出部215は、未処理の要素e[i]をエッジリストから取り出す。
ステップS403で、精度算出部215は、照合処理に成功しているか否かを判定する。精度算出部215は、要素e[i]のflagが「1」であれば照合成功と判定する。照合が成功していれば(ステップS403−YES)ステップS404に進み、照合が失敗していれば(ステップS403−NO)ステップS405に進む。
ステップS404で、精度算出部215は、照合に成功した特徴点として登録済みリスト(list_reg)にe[i]の画像位置、特徴点パターン、三次元位置、三次元位置の誤差を引き継いだ要素r[j]を作成し、登録済みリストに追加する。
ステップS405で、精度算出部215は、新規特徴点として、登録済みリスト(list_reg)にe[i]の画像位置、特徴点パターンを引き継いだ要素r[j]を作成し、登録済みリストに追加する。以上の処理を行うことで、精度算出部215は、登録済みリストを生成、更新することができる。
《精度予測処理》
精度予測部217は、移動体の動き(挙動)から特徴点の将来の三次元位置の精度を予測する。移動体は、直進や旋回といった規則的な動きをするため、過去から現在までの移動体の動きから将来の動きを予測することが可能である。
精度予測部217は、各特徴点について、位置算出部211で取得した三次元位置と時系列で記録している移動体の挙動から将来の三次元位置を予測する。精度算出部215で述べたように、三次元位置の精度は、カメラ20から特徴点までの距離によって変化するため、将来の精度を予測することができる。
図16は、直進時における移動体5が直進する場合のカメラ20から特徴点までの距離と精度の推移を示す図である。時刻1と時刻2とで比較すると、時刻2の方が、カメラ20と特徴点までの距離が近くなる。
ここで、カメラ20と特徴点までの距離が近い方が、三次元位置の精度がよいため、時刻2の方が三次元位置の精度がよいことが分かる。つまり、時刻1において、過去の挙動から今後直進することが分かると、精度予測部217は、特徴点の三次元位置の精度が将来的に向上すると予測することができる。
図17は、旋回時における移動体5が直進する場合のカメラ20から特徴点までの距離と精度の推移を示す図である。時刻1と時刻2とで比較すると、時刻2の方がカメラと特徴点までの距離が遠くなり、時刻2の方が三次元位置の精度が低下することが分かる。
つまり、時刻1において、過去の挙動から今後旋回することが分かると、精度予測部217は、特徴点の三次元位置の精度が将来的に低下すると予測することができる。
移動体5の移動量の予測方法としては、一般的なフィルタリングを適用することができる。例えば、精度予測部217は、過去nフレームまでの移動量から線形近似を行い、移動量を予測してもよいし、短時間での移動量変化は微小であるとして、現時刻の移動量をそのまま使用する方法でもよい。
次に、精度予測部217は、予測した移動量から、将来の移動体5の位置が分かるため、精度算出部215で利用した式(13)を用いて誤差を予測する。
図18は、実施例1における精度予測処理の一例を示すフローチャートである。図18に示すステップS501で、精度予測部217は、移動体の挙動から移動体の進行方向の予測処理を行う。予測処理の方法は、上記のいずれかを用いてもよいし、上記以外でも移動体の挙動を予測する公知の方法を用いてもよい。
ステップS502で、精度予測部217は、エッジリスト(list_edge)に未処理の要素があるか否かを判定する。未処理の要素があれば(ステップS502−YES)ステップS503に進み、未処理の要素がなければ(ステップS502−NO)処理が終了する。
ステップS503で、精度予測部217は、未処理の要素e[i]をエッジリストから取り出す。
ステップS504で、精度予測部217は、照合処理に成功しているか否かを判定する。精度予測部217は、要素e[i]のflagが「1」であれば照合成功と判定する。照合が成功していれば(ステップS504−YES)ステップS505に進み、照合が失敗していれば(ステップS504−NO)ステップS502に戻る。
ステップS505で、精度予測部217は、要素e[i]の誤差の予測処理を行い、予測誤差err2を算出する。
ステップS506で、精度予測部217は、予測誤差err2とe[i]の誤差(err)とを比較する。精度予測部217は、err2がerrよりも大きいか否かを判定する。err2がerrよりも大きければ(ステップS506−YES)ステップS507に進み、err2がerr以下であれば(ステップS506−NO)ステップS502に戻る。
ステップS507で、精度予測部217は、要素e[i]の低下(deg)を「1」に更新する。これは、err2がerrより大きい場合、つまり精度が低下すると予測される場合は、現在の特徴点を使用対象とするためである。以上の処理を行うことで、精度予測部217は、精度の予測を行い、将来的に精度が悪くなると予測される特徴点については、現時点の特徴点を形状生成の使用対象とすることができる。
《精度分布判定処理》
分布判定部219は、三次元位置が算出できている特徴点群から物体を検出し、物体毎の特徴点の精度分布を算出する。これにより、精度の高い特徴点が占める割合が閾値以上である場合は、物体領域から精度の高い特徴点のみを選別することができる。
精度の低い特徴点が占める場合は、精度の低い特徴点も使用対象に含めることができる。物体検出方法としては、特徴点同士の三次元距離が近ければ、同一物体と判断する一般的なラベリング処理を適用することができる。特徴点同士の距離については、三次元位置で計算してもよいし、高さ方向を考慮しない俯瞰座標における二次元位置で計算してもよい。
図19は、実施例1における特徴点の精度分布判定処理の一例を示すフローチャートである。図19に示すステップS601〜S603の処理が物体検出処理に対応する。
図19に示すステップS601で、分布判定部219は、特徴点に対し、初期ラベル値を付与する。
ステップS602で、分布判定部219は、付与されたラベル番号に対し、整理処理を行う。
ステップS603で、分布判定部219は、整理されたラベル番号を用いて、物体番号の決定処理を行う。
ステップS604で、分布判定部219は、物体番号により識別された物体毎の選別閾値の決定処理を行う。以下では、ステップS601〜S604の各処理について具体的に説明する。
(初期ラベル値の付与処理)
図20は、実施例1における初期ラベル値の付与処理の一例を示すフローチャートである。図20に示すステップS701で、分布判定部219は、エッジリスト(list_edge)のコピー(list_edge2)を作成する。
ステップS702で、分布判定部219は、エッジリスト(list_edge)に未処理の要素があるか否かを判定する。未処理の要素があれば(ステップS702−YES)ステップS703に進み、未処理の要素がなければ(ステップS702−NO)処理が終了する。
ステップS703で、分布判定部219は、未処理の要素e[i]をエッジリストから取り出す。
ステップS704で、分布判定部219は、照合処理に成功しているか否かを判定する。分布判定部219は、要素e[i]のflagが「1」であれば照合成功と判定する。照合が成功していれば(ステップS704−YES)ステップS705に進み、照合が失敗していれば(ステップS704−NO)ステップS702に戻る。
ステップS705で、分布判定部219は、要素e[i]のラベル番号(lbl)をlbl1に代入する(lbl1=lbl)。
ステップS706で、分布判定部219は、エッジリスト(list_edge2)に未処理の要素があるか否かを判定する。未処理の要素があれば(ステップS706−YES)ステップS707に進み、未処理の要素がなければ(ステップS706−NO)ステップS702に戻る。
ステップS707で、分布判定部219は、未処理の要素e[j]をエッジリストから取り出す。
ステップS708で、分布判定部219は、照合処理に成功しているか否かを判定する。分布判定部219は、要素e[j]のflagが「1」であれば照合成功と判定する。照合が成功していれば(ステップS708−YES)ステップS709に進み、照合が失敗していれば(ステップS708−NO)ステップS706に戻る。
ステップS709で、分布判定部219は、要素e[j]のラベル番号(lbl)をlbl2に代入する(lbl2=lbl)。
ステップS710で、分布判定部219は、e[i]とe[j]との距離を比較して近いか否かを判定する。距離の比較については、例えば三次元位置の差分が、閾値以下であれば近いと判定し、閾値より大きければ遠いと判定する。閾値は、予め適切な値が設定さされている。
分布判定部219は、距離が近ければ同じ物体であると判断し(ステップS710−YES)ステップS711に進み、距離が近くなければ別の物体であると判断し(ステップS710−NO)ステップS706に戻る。
ステップS711で、分布判定部219は、e[j]のラベル番号が初期値でないかを判定する。ラベル番号の初期値は、例えば0である。よって、分布判定部219は、lbl2>0であるか否かを判定する。lbl2>0であれば(ステップS711−YES)ステップS713に進み、lbl2≦0であれば(ステップS711−NO)ステップS712に進む。
ステップS712で、分布判定部219は、e[j]のラベル(lbl)にlbl1を代入する(lbl=lbl1)。
ステップS713で、分布判定部219は、両者(lbl1及びlbl2)のラベル番号が異なるか否かを判定する。両者のラベル番号が異なれば(ステップS713−YES)ステップS714に進み、両者のラベル番号が同じであれば(ステップS713−NO)ステップS706に戻る。
ステップS714で、分布判定部219は、ラベルlbl2が初期値でなく、両者の番号が異なる場合は、両者のラベルの大小関係を比較する。分布判定部219は、lbl1がlbl2よりも小さいか否かを判定する。lbl1<lbl2であれば(ステップS714−YES)ステップS715に進み、lbl1≧lbl2であれば(ステップS714−NO)ステップS716に進む。
ステップS715で、分布判定部219は、lbl1の方が小さい場合、接続先リスト(list_jump)のjump[lbl2]にlbl1を代入する。
ステップS716で、分布判定部219は、lbl1の方が大きい場合、接続先リスト(list_jump)のjump[lbl1]にlbl2を代入する。ステップS715、S716の後はステップS706に戻る。
ここで、接続先リスト(list_jump)は、図21に示す情報を持つ要素jump[i]の集合である。図21は、接続先リストの要素が持つ情報の一例を示す図である。図21に示すように、接続先リストが持つ要素jump[i]は、接続先として変数(num)を有する。
以上の処理が終了した段階では、同じ物体でも異なるラベル値が付与されているので、ラベル番号の整理が行われる。
(ラベル番号の整理処理)
図22は、実施例1におけるラベル番号の整理処理の一例を示すフローチャートである。図22に示すステップS801で、分布判定部219は、接続先リスト(list_jump)に未処理の要素があるか否かを判定する。未処理の要素があれば(ステップS801−YES)ステップS802に進み、未処理の要素がなければ(ステップS801−NO)処理が終了する。
ステップS802で、分布判定部219は、未処理の要素jump[i]を取り出し、探索用の番号(j)を設定する(j=1)。以降では、探索用の番号は、探索番号とも称す。
ステップS803で、分布判定部219は、探索番号(j)と接続先の番号(jump[j])とが同じであるか否かを判定する。jump[j]=jであれば(ステップS803−YES)ステップS805に進み、jump[j]=jでなければ(ステップS803−NO)ステップS804に進む。
ステップS804で、分布判定部219は、探索番号と接続先の番号とが異なる場合は、探索用の番号(j)に接続先の番号(jump[j])を代入する。この処理が、番号が等しくなるまで繰り返される。
ステップS805で、分布判定部219は、探索番号と接続先の番号とが等しくなった時の探索番号を、最終接続先リスト(list_jump2)に代入する(jump2[i]=j)。この処理が、接続先リスト(list_jump)の各要素について行われる。
ここで、最終接続先リスト(list_jump2)は、図23に示す情報を持つ要素jump2[i]の集合である。図23は、最終接続先リストの要素が持つ情報の一例を示す図である。図23に示すように、最終接続先リストが持つ要素jump2[i]は、最終接続先として変数(num)を有する。
(物体番号決定処理)
次に、分布判定部219は、ラベル番号を整理した後に物体番号を付与して物体検出を行う。
図24は、実施例1における物体番号決定処理の一例を示すフローチャートである。図24に示すステップS901で、分布判定部219は、エッジリスト(list_edge)に未処理の要素があるか否かを判定する。未処理の要素があれば(ステップS901−YES)ステップS902に進み、未処理の要素がなければ(ステップS901−NO)処理が終了する。
ステップS902で、分布判定部219は、未処理の要素e[i]をエッジリストから取り出す。
ステップS903で、分布判定部219は、照合処理に成功しているか否かを判定する。分布判定部219は、要素e[i]のflagが「1」であれば照合成功と判定する。照合が成功していれば(ステップS903−YES)ステップS904に進み、照合が失敗していれば(ステップS903−NO)ステップS901に戻る。
ステップS904で、分布判定部219は、要素e[i]について、ラベル番号(lbl)から最終接続先番号(jump2[lbl])を抽出する。
ステップS905で、分布判定部219は、抽出した番号を物体番号(obj_num)として物体リスト(list_object)に登録する。また、分布判定部219は、物体リストに、三次元位置(px,py,pz)を設定し、三次元位置の誤差(err)を設定する。また、分布判定部219は、物体リストの要素数を更新する(No=No+1)。
ステップS906で、分布判定部219は、e[i]のラベル(lbl)と、物体内番号(num)を更新する(lbl=obj_num,num=No)。以上の処理が、エッジリスト(list_edge)の各要素について行われる。
ここで、物体リスト(list_object)は、図25に示す情報を持つ要素o[i][j]の集合である。図25は、物体リストの要素が持つ情報の一例を示す図である。図25に示すように、物体リストが持つ要素o[i][l]は、三次元位置と、三次元位置の誤差とを有する。なお、iの要素数は物体数、jの要素数は物体毎の特徴点数である。
(選別閾値設定処理)
図26は、実施例1における選別閾値の設定処理の一例を示すフローチャートである。図26に示すステップS1001で、分布判定部219は、物体リスト(list_object)に未処理の要素があるか否かを判定する。未処理の要素があれば(ステップS1001−YES)ステップS1002に進み、未処理の要素がなければ(ステップS1001−NO)処理が終了する。
ステップS1002で、分布判定部219は、未処理の要素o[i]を物体リストから取り出す。
ステップS1003で、分布判定部219は、ヒストグラムリスト(list_hist)及び誤差の積算値(sum)を初期化する(list_hist=0,sum=0)。
ステップS1004で、分布判定部219は、物体番号o[i]に未処理の要素があるか否かを判定する。未処理の要素があれば(ステップS1004−YES)ステップS1005に進み、未処理の要素がなければ(ステップS1004−NO)ステップS1007に進む。
ステップS1005で、分布判定部219は、未処理の要素o[i][j]を物体リストから取り出す。
ステップS1006で、分布判定部219は、要素o[i][j]の誤差(err)からヒストグラムリスト(list_hist)のh[err]を更新する(h[err]=h[err]+1)。ステップS1006の処理後、ステップS1004に戻る。
ステップS1007で、分布判定部219は、一つの物体の処理が終了したら、ヒストグラムリストに未処理の要素があるか否かを判定する。未処理の要素があれば(ステップS1007−YES)ステップS1008に進み、未処理の要素がなければ(ステップS1007−NO)ステップS1011に進む。
ステップS1008で、分布判定部219は、未処理の要素h[k]をヒストグラムリストから取り出す。
ステップS1009で、分布判定部219は、ヒストグラムリスト(list_hist)から誤差の積算値(sum)を算出する(sum=sum+h[k])。
ステップS1010で、分布判定部219は、積算値が閾値以上であるか否かを判定する(sum≧th)。sum≧thであれば(ステップS1010−YES)ステップS1011に進み、sum<thであれば(ステップS1010−NO)ステップS1007に戻る。閾値thは、適切な値が予め設定されていてもよく、要素数の80%の値などが適宜設定されてもよい。
ステップS1011で、分布判定部219は、選別閾値リスト(list_thresh)を新規に作成し、t[i]に誤差閾値(k)を代入する。以上の処理が、物体リスト(list_object)の各物体について行われる。
ここで、ヒストグラムリスト(list_hist)は、図27に示す情報を持つ要素h[i]の集合である。図27は、実施例1におけるヒストグラムリストの要素が持つ情報の一例を示す図である。図27に示すように、ヒストグラムリストの要素は、カウントを有する。
選別閾値リスト(list_thresh)は、図28に示す情報を持つ要素t[i]の集合である。図28は、選別閾値リストの要素が持つ情報の一例を示す図である。図28に示すように、選別閾値リストの要素は、誤差閾値を有する。
以上の処理を行うことで、分布判定部219は、物体毎に特徴点の精度分布を生成し、
精度分布を基に、物体毎の選別閾値(t[i])を設定することができる。
《特徴点選別処理》
選別部221は、精度予測部217、分布判定部219からの処理結果を用いて、形状生成に用いる特徴点を選別する。
図29は、実施例1における特徴点の選別処理の一例を示すフローチャートである。図29に示すステップS1101で、選別部221は、エッジリスト(list_edge)に未処理の要素があるか否かを判定する。未処理の要素があれば(ステップS1101−YES)ステップS1102に進み、未処理の要素がなければ(ステップS1101−NO)処理が終了する。
ステップS1102で、選別部221は、未処理の要素e[i]をエッジリストから取り出す。
ステップS1103で、選別部221は、照合処理に成功しているか否かを判定する。選別部221は、要素e[i]のflagが「1」であれば照合成功と判定する。照合が成功していれば(ステップS1103−YES)ステップS1104に進み、照合が失敗していれば(ステップS1103−NO)ステップS1101に戻る。
ステップS1104で、選別部221は、e[i]の物体内番号(num)を抽出し、選別閾値リスト(list_thresh)からt[num]を取りだす。
ステップS1105で、選別部221は、e[i]の誤差(err)が共通閾値以下であるか否かを判定する。共通閾値は、使用される特徴点の精度を高くするための適切な値が予め設定されていればよい。誤差が共通閾値以下であれば(ステップS1105−YES)ステップS1108に進み、誤差が共通閾値より大きければ(ステップS1105−NO)ステップS1106に進む。
ステップS1106で、選別部221は、e[i]の低下(deg)が1であるか否かを判定する。degが1であれば(ステップS1106−YES)ステップS1107に進み、degが1でなければ(ステップS1106−NO)ステップS1101に戻る。degが1であるとは、将来の特徴点の精度が悪くなると予測されていることを表す。よって、現在の特徴点について形状生成の使用判定が行われる。
ステップS1107で、選別部221は、e[i]の誤差(err)が物体毎の閾値t[num]より小さいか否かを判定する。err<t[num]であれば(ステップS1107−YES)ステップS1108に進み、err≧t[num]であれば(ステップS1107−NO)ステップS1101に戻る。
ステップS1108で、選別部221は、形状生成の使用対象とするために、e[i]の出力(out)を「1」にする。以上の処理が、エッジリスト(list_edge)の各要素について行われる。
以上の処理を行うことで、選別部221は、精度が高い特徴点だけでなく、物体毎の判定基準を満たす特徴点も形状生成の使用対象に含めることができ、形状が欠落することを防ぐことができる。また、精度が低い特徴点が選別されることを防ぐために、物体毎の閾値に対して下限を設けてもよい。
また、画像処理装置10は、精度の予測処理を用いずに、精度分布から設定された物体毎の選別閾値だけを用いて、物体毎の選別閾値よりも精度が高い特徴点を物体毎に選別してもよい。
《物体形状生成処理》
生成部223は、選別部221で選別された特徴点、つまり、エッジリストのe[i]の出力(out)が「1」である特徴点を用いて物体形状を生成する。
以上、実施例1によれば、物体毎に適切な物体形状を生成することができる。また、実施例1によれば、三次元位置の精度を予測することで、特徴点の使用タイミングを適切に決定することができる。また、実施例1によれば、物体毎に閾値を設定するので、物体形状の欠落を防止することができる。
[実施例2]
次に、実施例2における画像処理システムについて説明する。実施例2における画像処理システムでは、物体形状の生成に使用する特徴点として、移動体からの距離に応じて制限を加える。
<構成>
実施例2における画像処理システムの構成は、実施例1における構成(図6参照)と同様であるため、その説明を省略する。
<機能>
図30は、実施例2における画像処理装置11の機能の一例を示すブロック図である。実施例2における画像処理装置11の機能において、実施例1における機能と同様のものは同じ符号を付す。以下では、実施例1と異なる機能を主に説明する。
距離算出部301は、移動体から物体までの一番近い特徴点を求める。距離算出部301は、その一番近い特徴点から所定範囲内にある特徴点を識別する。つまり、距離算出部301は、物体の各特徴点のうち、移動体からの距離が近い特徴点を識別する。距離算出部301は、識別した特徴点を物体毎に選別部303に出力する。
選別部303は、移動体からの距離が一番近い特徴点から所定範囲内にある特徴点に対して、上述した選別処理を行う。これにより、移動体から距離が遠い特徴点、つまり、精度が悪い特徴点に対して、選別処理をしなくて済む。
なお、実施例2では、物体リストは、図31に示す情報が保持される。図31は、実施例2における物体情報の要素が持つ情報の一例を示す図である。図31に示すように、実施例2では、物体リストに近接(near)という情報が新たに追加されている。このnearは、「1」であれば、移動体から距離が近い特徴点であることを表し、「0」であれば、移動体から距離が遠い特徴点であることを表す。
<各部の処理>
次に、実施例2における距離算出部301及び選別部303の処理内容について詳しく説明する。
《距離算出処理》
図32は、実施例2における物体毎の距離算出処理の一例を示すフローチャートである。図32に示すステップS1201で、距離算出部301は、物体リスト(list_object)に未処理の要素があるか否かを判定する。未処理の要素があれば(ステップS1201−YES)ステップS1202に進み、未処理の要素がなければ(ステップS1201−NO)処理が終了する。
ステップS1202で、距離算出部301は、未処理の要素o[i]を物体リストから取り出す。
ステップS1203で、距離算出部301は、最小距離(mid_dist)を初期化する(mid_dist=0)。
ステップS1204で、距離算出部301は、物体番号o[i]に未処理の要素があるか否かを判定する。未処理の要素があれば(ステップS1204−YES)ステップS1205に進み、未処理の要素がなければ(ステップS1204−NO)ステップS1209に進む。
ステップS1205で、距離算出部301は、未処理の要素o[i][j]を物体リストから取り出す。
ステップS1206で、距離算出部301は、移動体から物体までの距離(dist)を算出する。
ステップS1207で、距離算出部301は、距離(dist)が最小距離(min_dist)より小さいか否かを判定する。dist<min_distであれば(ステップS1207−YES)ステップS1208に進み、dist≧min_distであれば(ステップS1207−NO)ステップS1204に戻る。
ステップS1208で、距離算出部301は、最小距離を更新し(min_dist=dist)、最近接特徴点を更新する(min_num=i)。
ステップS1209で、距離算出部301は、要素o[i]の処理/未処理をリセットする。
ステップS1210で、距離算出部301は、物体番号o[i]に未処理の要素があるか否かを判定する。未処理の要素があれば(ステップS1210−YES)ステップS1211に進み、未処理の要素がなければ(ステップS1210−NO)ステップS1201に進む。
ステップS1211で、距離算出部301は、未処理の要素o[i][j]を物体リストから取り出す。
ステップS1212で、距離算出部301は、o[i][j]が示す特徴点から最接近特徴点までの距離(dist2)を算出する。
ステップS1213で、距離算出部301は、距離(dist2)が閾値以下であるか否かを判定する。この閾値は、所定範囲を決める閾値であり、適切な値が予め設定されていればよい。dist2が閾値以下であれば(ステップS1213−YES)ステップS1214に進み、dist2が閾値より大きければ(ステップS1213−NO)ステップS1210に戻る。
ステップS1214で、距離算出部301は、要素o[i][j]のnearを「1」に設定する。以上の処理が、物体リストの各要素について行われる。
以上の処理を行うことで、距離算出部301は、物体形状に使用したい特徴点、つまり移動体から近い特徴点に対し、nearを「1」に設定することができる。
《特徴点選別処理》
選別部303は、精度予測部217、分布判定部219、距離算出部301からの処理結果を用いて、形状生成に用いる特徴点を選別する。
図33は、実施例2における特徴点の選別処理の一例を示すフローチャートである。図33に示すステップS1301で、選別部303は、エッジリスト(list_edge)に未処理の要素があるか否かを判定する。未処理の要素があれば(ステップS1301−YES)ステップS1302に進み、未処理の要素がなければ(ステップS1301−NO)処理が終了する。
ステップS1302で、選別部303は、未処理の要素e[i]をエッジリストから取り出す。
ステップS1303で、選別部303は、照合処理に成功しているか否かを判定する。選別部303は、要素e[i]のflagが「1」であれば照合成功と判定する。照合が成功していれば(ステップS1303−YES)ステップS1304に進み、照合が失敗していれば(ステップS1303−NO)ステップS1301に戻る。
ステップS1304で、選別部303は、e[i]の物体内番号(num)を抽出し、選別閾値リスト(list_thresh)からt[num]を取りだす。
ステップS1305で、選別部303は、e[i]の誤差(err)が共通閾値以下であるか否かを判定する。誤差が共通閾値以下であれば(ステップS1305−YES)ステップS1310に進み、誤差が共通閾値より大きければ(ステップS1305−NO)ステップS1306に進む。
ステップS1306で、選別部303は、e[i]からラベル(lbl)と、物体内番頭(num)を抽出する。
ステップS1307で、選別部303は、o[lbl][num]の近接(near)が「1」であるか否かを判定する。nearが1であれば(ステップS1307−YES)ステップS1308に進み、nearが1でなければ(ステップS1307−NO)ステップS1301に戻る。
ステップS1308で、選別部303は、e[i]の低下(deg)が1であるか否かを判定する。degが1であれば(ステップS1306−YES)ステップS1309に進み、degが1でなければ(ステップS1306−NO)ステップS1301に戻る。
ステップS1309で、選別部303は、e[i]の誤差(err)が物体毎の閾値t[num]より小さいか否かを判定する。err<t[num]であれば(ステップS1309−YES)ステップS1310に進み、err≧t[num]であれば(ステップS1309−NO)ステップS1301に戻る。
ステップS1310で、選別部303は、形状生成の使用対象とするために、e[i]の出力(out)を「1」にする。以上の処理が、エッジリスト(list_edge)の各要素について行われる。
以上の処理を行うことで、選別部303は、精度が共通閾値より高い特徴点と、精度が共通閾値より高くはないが選別閾値より高く、移動体に近い特徴点とを、形状生成の使用対象にすることができる。
なお、ステップS1306、S1307の処理をステップS1305の前に行ってもよい。これにより、移動体に近い特徴点だけを選別処理対象とすることができる。
以上、実施例2によれば、物体毎に適切な物体形状を生成することができる。また、実施例2によれば、移動体に近い特徴点を形状生成の使用対象にすることができる。
[実施例3]
次に、実施例3における画像処理システムについて説明する。実施例3における画像処理システムでは、物体の特徴点と移動体との距離に応じて、選別処理を行うか否かを判定する。なお、実施例3における処理は、実施例1及び実施例2の両方に適用可能であるが、以下では、実施例1に適用する場合について説明する。
<構成>
実施例3における画像処理システムの構成は、実施例1における構成(図6参照)と同様であるため、その説明を省略する。
<機能>
図34は、実施例3における画像処理装置12の機能の一例を示すブロック図である。実施例2における画像処理装置12の機能において、実施例1における機能と同様のものは同じ符号を付す。以下では、実施例1と異なる機能を主に説明する。
距離判定部401は、位置算出部211により求められた特徴点の位置から移動体までの位置を算出する。距離判定部401は、この距離が閾値以下であれば、移動体から近い特徴点であるため、精度算出部以降の処理である選別処理を実行させる。
また、距離判定部401は、この距離が閾値より大きければ、移動体から遠い特徴点であるため、以降の処理を実行させない。この閾値は、特徴点の精度を保つことができる距離であり、適切な値が予め設定されていればよい。
例えば、距離判定部401は、算出した距離が閾値より大きい特徴点を、エッジリストの要素から削除してもよいし、エッジリストに不使用フラグを新たに設けて、この不使用フラグをアクティブにしてもよい。
以上、実施例3によれば、物体毎に適切な物体形状を生成することができる。また、実施例3によれば、特徴点と移動体との距離が閾値よりも近い特徴点を形状生成の使用対象にすることができる。
上述した各実施例における画像処理では、物体の形状を欠落することなく生成し、精度の高い物体について、形状を崩さないことを実現することができる。
上述した各実施例は、例えば、周囲に存在する静止物体までの三次元距離を計測し、その結果を提示する車載画像処理システムに適用することができる。具体的には、自車両の前後左右に広角カメラを4台取り付け、カメラ4台の映像を1枚の映像に合成した映像と、三次元測距によって得られる周囲物(駐車車両)の表面形状を重畳表示して、周囲の距離感をサポートする駐車支援システムが考えられる。
駐車時は、周囲物と接触しないように自車両の周囲を確認する必要がある。そこで、各実施例における画像処理システムは、360度の全周囲の状況が把握できるように4枚の映像を合成して自車両の真上から見た画像(俯瞰映像)に変換する。
上記各実施例における画像処理システムでは、移動ステレオ法によって物体の特徴点までの三次元位置を算出し、その結果から物体表面形状を生成して合成画像に重畳する。この結果、映像を確認することで周囲物との距離感および接触可能性が容易に把握でき、駐車作業が苦手なドライバーでも安心かつ簡単に駐車することができる。上記各実施例における画像処理システムでは、4台のカメラを用いて合成画像を作成しているが、三次元距離の算出は個々のカメラ毎に独立して行われる。
[変形例]
なお、前述した実施例で説明した形状生成処理を含む画像処理を実現するためのプログラムを記録媒体に記録することで、実施例で説明した処理をコンピュータに実施させることができる。
例えば、このプログラムを記録媒体に記録し、このプログラムが記録された記録媒体を車載コンピュータなどに読み取らせて、前述した処理を実現させることも可能である。
なお、記録媒体は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。また、記録媒体は、搬送波などの一過性のものを含まない。
以上、画像処理装置、画像処理方法及びプログラムについて詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施例の構成要素を全部又は複数を組み合わせることも可能である。
なお、以上の各実施例に関し、さらに以下の付記を開示する。
(付記1)
移動体に設置されたカメラから画像を取得する画像取得部と、
前記画像から各特徴点を抽出する特徴点抽出部と、
異なる時刻で撮像された画像から抽出された各特徴点に対して照合処理を行う照合部と、
照合された特徴点の位置と、前記移動体の移動量とに基づいて三次元位置を算出する位置算出部と、
前記三次元位置の誤差を示す精度を算出する精度算出部と、
前記画像から物体を検出し、物体毎に生成した特徴点の精度分布に基づいて、物体毎に閾値を設定する分布判定部と、
前記閾値よりも精度が高い特徴点を物体毎に選別する選別部と、
選別された特徴点を用いて物体形状を生成する生成部と、
を備える画像処理装置。
(付記2)
前記移動体の動きに基づいて前記三次元位置の精度を予測する精度予測部をさらに備え、
前記選別部は、
前記精度予測部の予測結果に基づいて、選別対象の特徴点を判定する付記1記載の画像処理装置。
(付記3)
前記選別部は、
共通の閾値を用いて特徴点を選別し、選別されなかった特徴点であり、前記精度予測部により精度が現在よりも悪くなると予測された特徴点に対し、前記物体毎に設定された閾値を用いて選別する付記2記載の画像処理装置。
(付記4)
前記物体毎の特徴点に対し、前記移動体から距離が一番近い特徴点を求める距離算出部をさらに備え、
前記選別部は、
前記距離が一番近い特徴点から所定範囲内にある特徴点に対して選別処理を行う付記1乃至3いずれか一項に記載の画像処理装置。
(付記5)
前記三次元位置に基づいて、前記移動体から物体の特徴点までの距離が閾値以上であるか否かを判定する距離判定部をさらに備え、
前記距離判定部により閾値以下であると判定された特徴点に対し、前記精度算出部以降の後段の処理を行う付記1乃至4いずれか一項に記載の画像処理装置。
(付記6)
移動体に設置されたカメラから画像を取得し、
前記画像から特徴点を抽出し、
異なる時刻で撮像された画像から抽出された各特徴点に対して照合処理を行い、
照合された特徴点の位置と、前記移動体の移動量とに基づいて三次元位置を算出し、
前記三次元位置の誤差を示す精度を算出し、
前記画像から物体を検出し、物体毎に生成した特徴点精度分布に基づいて、物体毎に閾値を設定し、
前記閾値よりも精度が高い特徴点を物体毎に選別し、
選別された特徴点を用いて物体形状を生成する
処理をコンピュータが実行する画像処理方法。
(付記7)
移動体に設置されたカメラから画像を取得し、
前記画像から特徴点を抽出し、
異なる時刻で撮像された画像から抽出された各特徴点に対して照合処理を行い、
照合された特徴点の位置と、前記移動体の移動量とに基づいて三次元位置を算出し、
前記三次元位置の誤差を示す精度を算出し、
前記画像から物体を検出し、物体毎に生成した特徴点精度分布に基づいて、物体毎に閾値を設定し、
前記閾値よりも精度が高い特徴点を物体毎に選別し、
選別された特徴点を用いて物体形状を生成する
処理をコンピュータに実行させるプログラム。
1 画像処理システム
10、11、12 画像処理装置
20 カメラ
30 表示部
40 記録媒体
101 制御部
103 主記憶部
105 補助記憶部
201 画像取得部
203 特徴点抽出部
207 照合部
211 位置算出部
215 精度算出部
219 分布判定部
221 選別部
223 生成部

Claims (7)

  1. 移動体に設置されたカメラから画像を取得する画像取得部と、
    前記画像から各特徴点を抽出する特徴点抽出部と、
    異なる時刻で撮像された画像から抽出された各特徴点に対して照合処理を行う照合部と、
    照合された特徴点の位置と、前記移動体の移動量とに基づいて三次元位置を算出する位置算出部と、
    前記三次元位置の誤差を示す精度を算出する精度算出部と、
    前記画像から物体を検出し、物体毎に生成した特徴点の精度分布に基づいて、物体毎に閾値を設定する分布判定部と、
    前記閾値よりも精度が高い特徴点を物体毎に選別する選別部と、
    選別された特徴点を用いて物体形状を生成する生成部と、
    を備える画像処理装置。
  2. 前記移動体の動きに基づいて前記三次元位置の精度を予測する精度予測部をさらに備え、
    前記選別部は、
    前記精度予測部の予測結果に基づいて、選別対象の特徴点を判定する請求項1記載の画像処理装置。
  3. 前記選別部は、
    共通の閾値を用いて特徴点を選別し、選別されなかった特徴点であり、前記精度予測部により精度が現在より悪くなると予測された特徴点に対し、前記物体毎に設定された閾値を用いて選別する請求項2記載の画像処理装置。
  4. 前記物体毎の特徴点に対し、前記移動体から距離が一番近い特徴点を求める距離算出部をさらに備え、
    前記選別部は、
    前記距離が一番近い特徴点から所定範囲内にある特徴点に対して選別処理を行う請求項1乃至3いずれか一項に記載の画像処理装置。
  5. 前記三次元位置に基づいて、前記移動体から物体までの距離が閾値以上であるか否かを判定する距離判定部をさらに備え、
    前記距離判定部により閾値以下であると判定された特徴点に対し、前記精度算出部以降の後段の処理を行う請求項1乃至4いずれか一項に記載の画像処理装置。
  6. 移動体に設置されたカメラから画像を取得し、
    前記画像から特徴点を抽出し、
    異なる時刻で撮像された画像から抽出された各特徴点に対して照合処理を行い、
    照合された特徴点の位置と、前記移動体の移動量とに基づいて三次元位置を算出し、
    前記三次元位置の誤差を示す精度を算出し、
    前記画像から物体を検出し、物体毎に生成した特徴点精度分布に基づいて、物体毎に閾値を設定し、
    前記閾値よりも精度が高い特徴点を物体毎に選別し、
    選別された特徴点を用いて物体形状を生成する
    処理をコンピュータが実行する画像処理方法。
  7. 移動体に設置されたカメラから画像を取得し、
    前記画像から特徴点を抽出し、
    異なる時刻で撮像された画像から抽出された各特徴点に対して照合処理を行い、
    照合された特徴点の位置と、前記移動体の移動量とに基づいて三次元位置を算出し、
    前記三次元位置の誤差を示す精度を算出し、
    前記画像から物体を検出し、物体毎に生成した特徴点精度分布に基づいて、物体毎に閾値を設定し、
    前記閾値よりも精度が高い特徴点を物体毎に選別し、
    選別された特徴点を用いて物体形状を生成する
    処理をコンピュータに実行させるプログラム。
JP2012262772A 2012-11-30 2012-11-30 画像処理装置、画像処理方法及びプログラム Expired - Fee Related JP5987660B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012262772A JP5987660B2 (ja) 2012-11-30 2012-11-30 画像処理装置、画像処理方法及びプログラム
EP13186379.7A EP2738740B1 (en) 2012-11-30 2013-09-27 Image processing device and image processing method
US14/043,439 US20140152780A1 (en) 2012-11-30 2013-10-01 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012262772A JP5987660B2 (ja) 2012-11-30 2012-11-30 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2014109819A JP2014109819A (ja) 2014-06-12
JP5987660B2 true JP5987660B2 (ja) 2016-09-07

Family

ID=49328334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012262772A Expired - Fee Related JP5987660B2 (ja) 2012-11-30 2012-11-30 画像処理装置、画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US20140152780A1 (ja)
EP (1) EP2738740B1 (ja)
JP (1) JP5987660B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6328759B2 (ja) * 2013-07-15 2018-05-23 寰發股▲ふん▼有限公司HFI Innovation Inc. ビデオ符号化のサンプル適応オフセット処理の方法
CN106170676B (zh) * 2015-07-14 2018-10-09 深圳市大疆创新科技有限公司 用于确定移动平台的移动的方法、设备以及系统
WO2019021354A1 (ja) 2017-07-24 2019-01-31 富士通株式会社 車両駐車支援装置、車両駐車支援プログラム
JP6858681B2 (ja) * 2017-09-21 2021-04-14 株式会社日立製作所 距離推定装置及び方法
JP6932058B2 (ja) * 2017-10-11 2021-09-08 日立Astemo株式会社 移動体の位置推定装置及び位置推定方法
EP3731177A4 (en) * 2017-12-20 2020-12-09 Fujitsu Limited OBJECT INFORMATION GENERATION SYSTEM AND OBJECT INFORMATION GENERATION PROGRAM
JP7160014B2 (ja) * 2019-10-11 2022-10-25 トヨタ自動車株式会社 駐車支援装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4052650B2 (ja) * 2004-01-23 2008-02-27 株式会社東芝 障害物検出装置、方法及びプログラム
EP1779295A4 (en) * 2004-07-26 2012-07-04 Automotive Systems Lab SYSTEM FOR PROTECTING USERS OF THE ROAD IN A DANGER SITUATION
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
JP4657765B2 (ja) * 2005-03-09 2011-03-23 三菱自動車工業株式会社 ノーズビューシステム
WO2006121088A1 (ja) * 2005-05-10 2006-11-16 Olympus Corporation 画像処理装置、画像処理方法および画像処理プログラム
JP4517972B2 (ja) * 2005-08-02 2010-08-04 日産自動車株式会社 障害物判断装置及び方法
JP5362189B2 (ja) * 2006-05-10 2013-12-11 株式会社トプコン 画像処理装置及びその処理方法
JP4899647B2 (ja) 2006-06-05 2012-03-21 富士通株式会社 距離測定プログラム、距離測定装置、距離測定方法
DE102006027121A1 (de) * 2006-06-12 2007-12-13 Robert Bosch Gmbh Bildaufnahmesystem und Verfahren für die Entfernungsbestimmung mit einem Bildaufnahmesystem
JP2008203992A (ja) * 2007-02-16 2008-09-04 Omron Corp 検出装置および方法、並びに、プログラム
JP4569837B2 (ja) * 2007-03-30 2010-10-27 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集方法
US8300887B2 (en) * 2007-05-10 2012-10-30 Honda Motor Co., Ltd. Object detection apparatus, object detection method and object detection program
JP4470067B2 (ja) * 2007-08-07 2010-06-02 本田技研工業株式会社 対象物種別判定装置、車両
EP2240796A4 (en) * 2008-01-22 2012-07-11 Magna Int Inc USE OF A SINGLE CAMERA FOR SEVERAL TRAVEL SUPPORT SERVICES, PARKING AIDS, CLUTCH ASSIST AND TAILGATE PROTECTION
WO2009098154A1 (en) * 2008-02-04 2009-08-13 Tele Atlas North America Inc. Method for map matching with sensor detected objects
KR101188588B1 (ko) * 2008-03-27 2012-10-08 주식회사 만도 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법
US8611585B2 (en) * 2008-04-24 2013-12-17 GM Global Technology Operations LLC Clear path detection using patch approach
US8751154B2 (en) * 2008-04-24 2014-06-10 GM Global Technology Operations LLC Enhanced clear path detection in the presence of traffic infrastructure indicator
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
JP4788798B2 (ja) * 2009-04-23 2011-10-05 トヨタ自動車株式会社 物体検出装置
US8174375B2 (en) * 2009-06-30 2012-05-08 The Hong Kong Polytechnic University Detection system for assisting a driver when driving a vehicle using a plurality of image capturing devices
FR2947656B1 (fr) * 2009-07-06 2016-05-27 Valeo Vision Procede de detection d'un obstacle pour vehicule automobile
WO2011078264A1 (ja) * 2009-12-25 2011-06-30 本田技研工業株式会社 画像処理装置、画像処理方法、コンピュータプログラム及び移動体
DE102010047162A1 (de) * 2010-09-30 2012-04-05 Valeo Schalter Und Sensoren Gmbh Verfahren und Vorrichtung zum Erkennen von freien Parkplätzen
US8953044B2 (en) * 2011-10-05 2015-02-10 Xerox Corporation Multi-resolution video analysis and key feature preserving video reduction strategy for (real-time) vehicle tracking and speed enforcement systems
US9235766B2 (en) * 2011-10-20 2016-01-12 International Business Machines Corporation Optimizing the detection of objects in images

Also Published As

Publication number Publication date
EP2738740A1 (en) 2014-06-04
EP2738740B1 (en) 2017-03-01
JP2014109819A (ja) 2014-06-12
US20140152780A1 (en) 2014-06-05

Similar Documents

Publication Publication Date Title
JP5987660B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR102647351B1 (ko) 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치
JP6514624B2 (ja) 障害物検知装置
JP6107081B2 (ja) 画像処理装置、画像処理方法及びプログラム
Asvadi et al. 3D object tracking using RGB and LIDAR data
KR101784183B1 (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101708659B1 (ko) 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법
JP6557973B2 (ja) 地図生成装置、地図生成方法およびプログラム
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP3843119B2 (ja) 移動体動き算出方法および装置、並びにナビゲーションシステム
JP5782708B2 (ja) 走行支援装置
CN107735797B (zh) 用于确定第一坐标系与第二坐标系之间的运动的方法
CN110832568B (zh) 车辆用外界识别装置
US20110205338A1 (en) Apparatus for estimating position of mobile robot and method thereof
JP7036400B2 (ja) 自車位置推定装置、自車位置推定方法、及び自車位置推定プログラム
WO2012086821A1 (ja) 測位装置、測位方法
JP6922410B2 (ja) 姿勢判定プログラム、姿勢判定装置及び姿勢判定方法
CN103003843A (zh) 用于跟踪具有动态变化部分的目标的数据集创建
JP6905390B2 (ja) 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム
JP6620607B2 (ja) 画像解析プログラム、画像解析装置、及び画像解析方法
JP5772321B2 (ja) 車両検出装置、車両検出方法及びプログラム
JP2007241326A (ja) 移動体動き算出装置
JP6554943B2 (ja) 画像処理装置、画像処理方法及び評価方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160725

R150 Certificate of patent or registration of utility model

Ref document number: 5987660

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees