JPWO2017145541A1 - 移動体 - Google Patents

移動体 Download PDF

Info

Publication number
JPWO2017145541A1
JPWO2017145541A1 JP2018501027A JP2018501027A JPWO2017145541A1 JP WO2017145541 A1 JPWO2017145541 A1 JP WO2017145541A1 JP 2018501027 A JP2018501027 A JP 2018501027A JP 2018501027 A JP2018501027 A JP 2018501027A JP WO2017145541 A1 JPWO2017145541 A1 JP WO2017145541A1
Authority
JP
Japan
Prior art keywords
feature points
calculated
moving body
image
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018501027A
Other languages
English (en)
Other versions
JP6708730B2 (ja
Inventor
アレックス益男 金子
アレックス益男 金子
山本 健次郎
健次郎 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2017145541A1 publication Critical patent/JPWO2017145541A1/ja
Application granted granted Critical
Publication of JP6708730B2 publication Critical patent/JP6708730B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/36Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Power Engineering (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

カメラ画像に静止もしくは移動する立体物が映っている場合でも、低処理負荷、かつ高精度な移動量算出が可能な移動体を提供することを目的とする。移動体は、路面の画像を撮像する撮像装置と、撮像装置が撮像した画像に基づいて、移動体の移動量を算出する画像処理部と、を備え、該画像処理部は、第1のタイミングで撮像された第1の画像から第1の特徴点を複数抽出し、第1のタイミングより後の第2のタイミングで撮像された第2の画像から第2の特徴点を複数抽出し、複数の第1の特徴点の各々を複数の第2の特徴点の各々にトラッキングし、複数の第2の特徴点の各々の移動量と速度を算出し、複数の第2の特徴点のうち、その速度が所定範囲内の特徴点に基づいて、移動体の移動量を算出する。

Description

本発明は、ロボットや自動車などの移動体に関する。
ロボットや自動車などの移動体において、安全性や利便性向上のため、周囲環境の情報を検出し、状況に応じた走行制御を行う自律走行技術及び運転支援技術が開発されている。
移動体の移動量を算出する例として、移動体のカメラで撮影したカメラ画像に基づいて所定の微小時間間隔Δtにおける移動量を表す変位ベクトルΔSを算出する技術がある(特許文献1参照)。該文献では、ベクトルΔSを算出するために、車道にある特徴点をなるべく多く抽出し、各特徴点の移動量の平均値を移動体の移動量としている。
特開2003−178309号公報
しかし、特許文献1のように、多数の特徴点の移動量の平均値をとっても、精度を高められるとは限らない。例えば、カメラ画像の半分以上に立体物が映っていれば、立体物の高さや移動量の影響で、特徴点のトラッキングの失敗もしくは、移動体の移動量を誤る場合がある。
そこで、本発明の目的は、カメラ画像に静止もしくは移動する立体物が映っている場合でも、低処理負荷、かつ高精度な移動量算出が可能な移動体を提供することにある。
上記課題を解決するために、代表的な本発明の移動体は、路面の画像を撮像する撮像装置と、撮像装置が撮像した画像に基づいて、移動体の移動量を算出する画像処理部と、を備え、該画像処理部は、第1のタイミングで撮像された第1の画像から第1の特徴点を複数抽出し、第1のタイミングより後の第2のタイミングで撮像された第2の画像から第2の特徴点を複数抽出し、複数の第1の特徴点の各々を複数の第2の特徴点の各々にトラッキングし、複数の第2の特徴点の各々の移動量と速度を算出し、複数の第2の特徴点のうち、その速度が所定範囲内の特徴点に基づいて、移動体の移動量を算出する。
本発明によれば、カメラ画像に静止もしくは移動する立体物が映っている場合でも、低処理負荷、かつ高精度な移動量算出が可能な移動体を提供することができる。
移動体の構成図。 画像処理部のフローチャート。 速度フィルタリングの詳細図。 道路での移動量算出の説明図。 立体物の高さ及び距離算出の説明図。
以下、図面を用いて実施例を説明する。図1は、移動体の構成図である。
移動体1は、周囲環境の画像を撮像する撮像装置2、撮像装置2が撮像した画像を処理して移動体1の移動量を算出し、算出結果に応じた表示あるいは制御用の信号を出力する処理装置3により構成されている。
処理装置3は、計算機システム等により構成され、撮像装置2が撮像した画像を処理する画像処理部4、該処理された画像に基づき種々の制御を行う制御部(CPU)5、移動量算出等のために制御部で使用する各種データを格納するメモリ6、制御部5の演算結果等を出力する表示部7、及び、これら構成要素を相互に接続するバス8を備えている。
撮像装置2は、例えば、移動体1の前方に向けられて設置された単眼カメラやステレオカメラである。撮像装置2が単眼カメラの場合、路面が平らであれば、画像上のピクセル位置と実際の位置関係(x,y)が一定になるため、特徴点を幾何学的に計算できる。撮像装置2がステレオカメラの場合、特徴点までの距離をより正確に計測できる。以下では説明を簡単にするため、1台の標準カメラを採用した事例について説明するが、走行中に特徴点が抽出可能な視野角を有するものであれば、標準カメラでも広角カメラでもステレオカメラでもよい。どのカメラも最終的に1枚の画像を生成するものであり、複数台のカメラを組み合わせて撮像装置2を構成してもよい。
撮像装置2は、制御部5から指令が入力された時、もしくは一定の時間間隔で画像を取得し、取得した画像と取得時間を、メモリ6を介して画像処理部4に出力する。取得した画像の原画と取得時間はメモリ6に格納された上で、画像処理部4において中間的な加工画像が作成される。これらの中間画像も適宜必要に応じてメモリ6に格納され、制御部5などの判断や処理に利用される。尚、制御部5での処理に用いられた結果データなども適宜メモリ6に格納される。
各ブロック間のデータの伝送を行うバス8は、IEBUS(Inter Equipment Bus)やLIN(Local Interconnect Network)やCAN(Controller Area Network)などで構成できる。
画像処理部4は、移動体1の走行中に撮像装置2が撮像画像に基づいて、移動量を算出する。まず、撮像装置2から伝送された画像上の特徴点を抽出する。更に、次に伝送された画像上の特徴点も抽出する。そして、先に(前回)抽出された特徴点と次に(今回)抽出された特徴点をトラッキング(特徴点同士を対応付ける処理:図4参照)し、移動体の移動量を算出し、その結果を制御部5に出力する。
制御部5は、画像処理部4で算出した移動量に基づいて、移動体1の位置を算出し、将来の移動方向や速度を決定し、移動体1を制御する。そして、必要な検知結果を表示部7に表示することで、移動体1の運転員に情報提供を行う。
図2は、画像処理部4のフローチャートを示す図である。
画像処理部4は、撮像装置2が撮像した画像をメモリ6から取得する(ステップ20)。
次に、ステップ20で取得した画像上に、特徴点を抽出するための関心領域を設定する(ステップ21)。例えば単眼カメラの場合、幾何学的に画像のピクセル位置から道路路面のメートル位置に精度良く変換可能な走行路面を関心領域に設定する。
次に、ステップ21で設定した関心領域の中から特徴点を抽出する(ステップ22)。特徴点は、画像上のエッジやコーナーなどであり、Canny、Sobel、FAST、Hessian、Gaussianなどの技術を用いる。
次に、第1のタイミングで撮像された画像(前フレーム)、即ち、第2のタイミングで撮像された画像(現フレーム)よりも前に撮像された画像から抽出した特徴点を、今回撮像された画像上でトラッキングする(ステップ23)。トラッキングにはLucas−Kanade法やShi−Tomasi法などの技術を用いる。
次に、ステップ23のトラッキングが成功したか否かをチェックする(ステップ24)。該トラッキングに成功すればステップ25に進み、失敗すれば処理を終了する。尚、トラッキングには異なるフレームで撮像した2枚の画像が必要であるため、移動体1を起動して最初に撮像した一枚目についてはステップ23でトラッキングできず、ステップ24の後、処理を終了する。
トラッキングに成功した場合、トラッキングできた各特徴点の移動量と速度を算出する(ステップ25)。例えば、トラッキングできた特徴点の点数をnとし、移動体1の移動量算出回数をmとする。各特徴点1、…、nの移動量は、前フレームで抽出した特徴点の相対位置d(m-1)nと今回抽出した特徴点の相対位置dmnの差分(Δdmn=dmn−d(m−1)n)で算出する。前フレームと今回の撮像時刻の取得時間の差分Δtを用いて、各特徴点の相対速度vmn=Δdmn /Δtを算出する。
次に、ステップ25で算出した各特徴点の相対速度vmnと時系列に保存した移動体1の速度Vと比較し、時系列に保存した移動体1の速度と前記相対速度vmnの差分が定められた値より大きい特徴点をフィルタリング(除去)する(ステップ26)。
次に、ステップ26でフィルタリングされなかった特徴点を用い、移動体1の移動量ΔDを算出する(ステップ27)。フィルタリングされなかった特徴点の点数をoとし、前フレームで抽出した特徴点の相対位置d(m-1)oと今回抽出した特徴点の相対位置dmoの差分(Δdmo=dmo-d(m−1)o)を算出し、複数のΔdmoを用いて移動体1の移動量ΔDを算出する。算出する方法には、例えばRigid Body Transformation、Sliding Window、最小二乗法、中央値フィルタなどを利用することができる。
次に、ステップ26でフィルタリングされた特徴点があるか否かをチェックする(ステップ28)。フィルタリングされた特徴点がある場合、ステップ29に進み、フィルタリングされた特徴点がない場合、処理を終了する。
フィルタリングされた特徴点がある場合、ステップ26でフィルタリングされた各特徴点とステップ27で算出した移動体1の移動量ΔDを用い、立体物の高さ立体物までの距離、立体物の速度を算出する(ステップ29)。
図3は、ステップ26の速度フィルタリングの詳細を示す図である。
図3(A)は、ステップ27で算出した移動体1の移動量ΔDの時間推移を示す。各フレームで抽出した特徴点の点数によって、移動量算出の処理時間が異なるため、フレーム間の撮像時刻の差分Δtが不規則に変動し、差分Δtの間に算出した移動量ΔDも不規則に変化する。そのため、今回算出した移動量と前フレームで算出した移動量に相関関係はない。
一方、図3(B)は、ステップ25で算出した移動体1の速度Vを示す。図3(B)に記載しているデータ数と差分Δtは図3(A)と同じであるが、不規則に変化する移動量ΔDをΔtで割ることで、規則的に変化する速度Vに変換できる。物理的に、速度は短時間(ミリ秒単位)で大きく変わらないので、Vm−1が既知であればVはVm−1を中心とする閾値Vthreshold以内にある。従って、ステップ26では、ステップ25で算出した各特徴点の相対速度vmnと、時系列に保存した過去の移動体の速度Vm−1、Vm−2…とを比較することで特徴点のフィルタリングができる。
例えば、|Vm−1−vmn|> Vthresholdの条件を設定すれば前フレームで算出した移動体1の速度と相対速度vmnとの差分が大きい特徴点がフィルタリングされる。また、前フレームで算出した移動体1の速度Vm−1だけではなく、過去に算出した速度の時系列情報をもとに現在速度により近い速度V=f(Vm−1、Vm−2、Vm−3…)を算出し、|V−vmn|> Vthresholdという条件を設定することで、ステップ26のフィルタリングをより正確に行うことができる。移動体1の現在速度を算出するための関数fは、過去に算出した移動体の速度の時系列情報(Vm−1、Vm−2、Vm−3…)の平均や現在速度を補間するための多項式で構成できる。
尚、Vthresholdは一定値ではなく、関数Vthreshold=F(Vm−1、Vm−2、Vm−3…)で算出してもよい。即ち、過去に算出した移動体1の速度の時系列情報をもとにVthresholdを変動させてもよい。例えば、過去の速度の時系列情報をもとに算出したVの標準偏差σを算出し、Vthreshold=σ*k(0≦k≦3)と設定することで統計学的にフィルタリングできる。このパラメータkは周囲の環境や移動体1の状態に合わせて、適宜変更できる。
また、移動量算出装置の起動後、過去の移動体1の過去の速度情報はないため、抽出した特徴点のほとんどを用いて、現在速度を算出する。即ち、速度Vの初期値を0とし、Vthresholdを大きく設定する。
また、ステップ26の速度フィルタリングは、撮像装置2だけではなく、移動体1に搭載された他の速度センサで構成してもよい。例えば、現在位置GPS_posと時間GPS_tを算出できるGPSが搭載されていれば、移動体1の速度GPS_V=(GPS_pos−GPS_posm−1)/GPS_tを算出し、速度Vを、V=f(GPS_Vm−1、GPS_Vm−2、GPS_Vm−3…)で算出してもよい。車輪エンコーダやレーダやレーザなどの速度センサにより算出した移動体1の速度Sensor_VをもとにV=f(Sensor_Vm−1、Sensor_Vm−2、Sensor_Vm−3…)を算出してもよい。
図4は、道路での移動量算出を示す図である。
フレーム41は撮像装置2が撮像した画像である。(u,v)は画像上のピクセル単位の座標であり、(x,y)は撮像装置2の道路のメートル単位の座標である。また、道路42は移動体1が走行する路面である。
特徴点43aは、フレームAにおいてステップ20〜22で抽出した特徴点である。フレームBにおいて特徴点43aをトラッキングした(ステップ23)後、フレームAにおける特徴点43a(フレームBの白丸)はフレームBにおける特徴点43bに移動する。そして、フレームCにおいて特徴点43bをトラッキングした(ステップ23)後、特徴点43b(フレームCの白丸)はフレームCにおける特徴点43cに移動する。
移動量44bは特徴点43aと特徴点43bの位置をもとにステップ25で算出した相対的な移動量ΔdBn(但し、nは特徴点の番号)であり、移動量44cは特徴点43bと特徴点43cの位置をもとにステップ25で算出した移動量ΔdCnである。フレームBにおいて、フレーム間の時間をΔtとすると、各特徴点43bの相対速度vBn=ΔdBn /Δtが算出される。特徴点の相対的な移動量ΔdBnは全て同じ路面上にある特徴点43aの相対移動量として算出されるため、複数の特徴点43a間で大きな差はない(旋回成分があるので僅かには異なる)。従って、ステップ26の速度フィルタリングの条件|V−vBn|> Vthresholdで特徴点43bをフィルタリングし、フィルタリングされなかったvBnを用いて、ステップ27で移動量ΔD=ΔDと速度V=ΔD /tを算出する。また、移動量ΔdCnの道路座標上の分布から方向変化Δθを算出することも可能である。
立体物45はフレームBの画像に映っている動的立体物である。特徴点46bはステップ20〜22で抽出したフレームBにおける立体物45の特徴点である。特徴点46cはフレームCにステップ23で特徴点46bをトラッキングした点である。
移動量47はステップ25で算出した特徴点46bから46cへの移動量である。フレームCには、ステップ20〜24で算出した特徴点43bから43cへの移動量44cと、立体物45の特徴点46bから46cへの移動量47がある。ステップ25でフレーム間の時間Δt時間を用い、それぞれの特徴点の相対速度vCnを算出する。速度フィルタリングの条件|V−vBn|> Vthresholdの速度Vに、フレームBで算出した移動体1の速度Vを用いる場合は、VをVに代入し、ステップ26を実行する。立体物45の特徴点46bから46cへの移動量47は路面の特徴点43bから43cへの移動量44cと異なるため、特徴点46cはステップ26の条件|V−vCn|>Vthresholdを満たし、フィルタリングされる。従って、残った路面上の特徴点43bから43cへの移動量44cをもとに、ステップ27で精度よく移動体1の移動量ΔDを算出できる。
尚、立体物の影響で全ての特徴点がフィルタリングされた場合、移動体1の移動量はステップ26の速度フィルタリングに用いたVとフレーム間の撮像時刻の差分Δtを用いて、ΔD=V/Δtで近似値を算出する。
図5は、ステップ29の詳細を示す図である。
まず、路面51から高さHにある撮像装置2が位置P1からP2へ移動する時、立体物が路面上に無い場合について説明する。位置P1でステップ20〜22を実行し、路面51の上にある特徴点53aを抽出する。路面51が平らであれば、画像上のピクセル位置(u,v)と実際の位置関係(x,y)が一定になるため、画像上の特徴点53aのピクセル位置(U,V)featureから実際の特徴点53aの位置(X,Y)featureへ変換でき、位置P1から特徴点53aまでの距離d1 を算出できる。次に、位置P2でステップ20〜27を実行し、位置P2から特徴点53aまでの距離d2を算出し、距離d1とd2をもとに移動量Δdを算出する(Δd = d1−d2)。
次に、図5(B)の路面51から高さhの位置に立体物55がある場合について説明する。位置P1において立体物55の特徴点53bが画像上のピクセル位置(U,V)featureに映っているとき、特徴点53bについては、ピクセル(U,V)featureから誤った座標53a’(X,Y)featureに変換されるため、位置P1から特徴点53bまでの距離d3も誤った値d1で算出される。同様に、撮像装置2が位置P2へ移動した時も位置P2から特徴点53bまでの距離は誤った値d2’と算出され、ステップ20〜27では移動体1の移動量をΔd’= d1−d2’= Δdb+Δdと誤って算出される。図5(B)において、Δdbは立体物55の特徴点53bをトラッキングしたことによって生じる移動量Δdの誤差である。距離distは位置P2から立体物55までの距離であり、距離l1は立体物55から地点53a’までの距離、距離l2は距離d2’と距離distの差分である。ここで、式(1)と式(2)から式(3)および式(4)が得られる。‘式(3)および式(4)によると、立体物55がある場合誤って算出した移動量Δd’はカメラの設置高さHと立体物55の高さhで表せる。
h/H=l2/d2’=l1/d1 (1)
Δdb=l1-l2=h*(d1−d2’)/H (2)
Δd’=Δdb+Δd=d1−d2’
=h*(d1−d2’)/H + Δd
=h*Δd’/H + Δd
よって、Δd’=Δd*H/(H−h) (3)
h=H*(Δd’− Δd)/Δd’(4)
以上より、カメラの設置高さHと立体物55がある場合に誤って算出した移動量Δd’= Δdb+Δdと、立体物55がない場合に正しく算出した移動量Δdを式(3)に代入することで、立体物の高さhを算出できる。カメラの設置高さHは固定で既知である。立体物55がある場合の誤った移動量Δd’= Δdb+Δdはステップ20〜25で算出でき、立体物がない場合の正しい移動量Δdはステップ26でフィルタリングされなかった特徴点を用いてステップ27で算出できる。立体物の影響で全ての特徴点がフィルタリングされた場合、移動体1の移動量はステップ26で算出したVとフレーム間の撮像時刻の差分Δtを用いて、Δd=V/Δtで算出する。ステップ29では、移動量Δdと移動量Δd’を式(4)に代入し、立体物55の高さhを算出する。式(4)に特徴点の相対移動量Δd’=Δdmnを代入すれば、それぞれの特徴点の高さを算出できる。しかし、全ての特徴点の高さを算出するには時間がかかるため、ステップ26でフィルタリングされた特徴点の高さのみ算出すればよい。
次に、式(5)により幾何学的に位置P2から立体物55までの距離を算出する。位置P2から特徴点53bまでの算出した距離d2’と、立体物55の算出した高さhを式(5)に代入することで、各特徴点までの距離distを算出できる。
dist = d2’−l2 = d2’−d2’*h/H = d2’*(H−h)/H (5)
移動体1にGPSや速度センサを搭載することでGPSや速度センサで取得した情報と撮像装置2で取得した情報を組み合わせて立体物55の高さhや距離distを算出できる。例えば、GPSからより正確な移動量Δdを算出した場合は、移動量Δdを式(3)に代入することで、より正確な高さhを算出できる。更に、高さhを式(5)に代入することで立体物55までの距離distもより正確に算出できる。速度センサを搭載する場合、速度センサで取得した移動体1の速度Vを用いて移動量Δd=V*Δtを算出し、式(4)より高さhを算出し、式(5)より距離distを算出する。
図5(C)は、立体物55がフレーム間で移動量Δdobjectの移動を伴う動的立体物である場合を示している。ここで、Δdは移動体の移動量、d1は移動体が地点P1にいたときの立体物までの距離換算値、d5は移動体が地点P2にいたときの立体物までの距離換算値、Hはカメラの設置高さ、hは立体物の高さである。図の関係より、式(6)が得られる。

object=Δd+d4-d3=Δd+(d1-d5)*(H−h)/H (6)
前述のように、Δd、d1、d5は既知であり、式(6)より、立体物の特徴点が2つ以上取得取得できると、立体物の移動量と高さが同時に算出できる。
1 移動体
2 撮像装置
3 処理装置
4 画像処理部
5 制御部
6 メモリ
7 表示部
8 バス

Claims (3)

  1. 路面の画像を撮像する撮像装置と、
    前記撮像装置が撮像した画像に基づいて、移動体の移動量を算出する画像処理部と、を備え、
    前記画像処理部は、
    第1のタイミングで撮像された第1の画像から第1の特徴点を複数抽出し、
    前記第1のタイミングより後の第2のタイミングで撮像された第2の画像から第2の特徴点を複数抽出し、
    前記複数の第1の特徴点の各々を前記複数の第2の特徴点の各々にトラッキングし、
    前記複数の第2の特徴点の各々の移動量と速度を算出し、
    前記複数の第2の特徴点のうち、その速度が所定の範囲内の特徴点に基づいて、前記移動体の移動量を算出する、移動体。
  2. 前記複数の第2の特徴点のうち、その速度が前記所定の範囲より大きい特徴点に基づいて、前記撮像装置により撮像された路面上の立体物の高さ、及び/または、前記移動体から該立体物までの距離、及び/または、該立体物の速度を算出する、請求項1記載の移動体。
  3. 前記移動量と、前記撮像装置で画像を取得した時刻に基づいて、前記移動体の速度を算出する、請求項1又は2に記載の移動体。
JP2018501027A 2016-02-23 2017-01-12 移動体 Active JP6708730B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016031570 2016-02-23
JP2016031570 2016-02-23
PCT/JP2017/000694 WO2017145541A1 (ja) 2016-02-23 2017-01-12 移動体

Publications (2)

Publication Number Publication Date
JPWO2017145541A1 true JPWO2017145541A1 (ja) 2018-11-08
JP6708730B2 JP6708730B2 (ja) 2020-06-10

Family

ID=59686123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018501027A Active JP6708730B2 (ja) 2016-02-23 2017-01-12 移動体

Country Status (4)

Country Link
US (1) US10740908B2 (ja)
EP (1) EP3422293B1 (ja)
JP (1) JP6708730B2 (ja)
WO (1) WO2017145541A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6932058B2 (ja) * 2017-10-11 2021-09-08 日立Astemo株式会社 移動体の位置推定装置及び位置推定方法
US10482610B2 (en) * 2017-11-01 2019-11-19 Adobe Inc. Detection of partially motion-blurred video frames
JP7148126B2 (ja) * 2018-11-02 2022-10-05 コーデンシ株式会社 移動体検知システム及び移動体検知システム用プログラム
CN109537455A (zh) * 2019-01-10 2019-03-29 上海市机械施工集团有限公司 3d打印建筑的装置及方法
CN111104920B (zh) * 2019-12-27 2023-12-01 深圳市商汤科技有限公司 视频处理方法及装置、电子设备和存储介质
JP2022036537A (ja) * 2020-08-24 2022-03-08 富士通株式会社 移動体速度導出方法及び移動体速度導出プログラム
JP2022142515A (ja) * 2021-03-16 2022-09-30 本田技研工業株式会社 移動体の移動量を推定する情報処理装置、情報処理方法、及びプログラム
DE102021207834A1 (de) * 2021-07-22 2023-01-26 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren für Kraftfahrzeuge zur Höhenerkennung von erhabenen Objekten

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222665A (ja) * 1997-01-31 1998-08-21 Fujitsu Ten Ltd 画像認識装置
JP2012173874A (ja) * 2011-02-18 2012-09-10 Fujitsu Ltd 距離算出プログラム、距離算出方法及び距離算出装置
JP2013003110A (ja) * 2011-06-21 2013-01-07 Denso Corp 車両状態検出装置
JP2013031310A (ja) * 2011-07-29 2013-02-07 Sanyo Electric Co Ltd 制御装置、バッテリシステム、電動車両、移動体、電力貯蔵装置および電源装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003178309A (ja) 2001-10-03 2003-06-27 Toyota Central Res & Dev Lab Inc 移動量推定装置
JP4800163B2 (ja) * 2006-09-29 2011-10-26 株式会社トプコン 位置測定装置及びその方法
US8605947B2 (en) 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
US9357208B2 (en) * 2011-04-25 2016-05-31 Magna Electronics Inc. Method and system for dynamically calibrating vehicular cameras
JP6340957B2 (ja) * 2014-07-02 2018-06-13 株式会社デンソー 物体検出装置および物体検出プログラム
JP6281460B2 (ja) * 2014-09-24 2018-02-21 株式会社デンソー 物体検出装置
JP6281459B2 (ja) * 2014-09-24 2018-02-21 株式会社デンソー 物体検出装置
US10282914B1 (en) * 2015-07-17 2019-05-07 Bao Tran Systems and methods for computer assisted operation
US9996981B1 (en) * 2016-03-07 2018-06-12 Bao Tran Augmented reality system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222665A (ja) * 1997-01-31 1998-08-21 Fujitsu Ten Ltd 画像認識装置
JP2012173874A (ja) * 2011-02-18 2012-09-10 Fujitsu Ltd 距離算出プログラム、距離算出方法及び距離算出装置
JP2013003110A (ja) * 2011-06-21 2013-01-07 Denso Corp 車両状態検出装置
JP2013031310A (ja) * 2011-07-29 2013-02-07 Sanyo Electric Co Ltd 制御装置、バッテリシステム、電動車両、移動体、電力貯蔵装置および電源装置

Also Published As

Publication number Publication date
EP3422293A1 (en) 2019-01-02
WO2017145541A1 (ja) 2017-08-31
JP6708730B2 (ja) 2020-06-10
EP3422293B1 (en) 2024-04-10
US20190066312A1 (en) 2019-02-28
EP3422293A4 (en) 2019-10-16
US10740908B2 (en) 2020-08-11

Similar Documents

Publication Publication Date Title
JP6708730B2 (ja) 移動体
US20200208970A1 (en) Method and device for movable object distance detection, and aerial vehicle
EP3382336B1 (en) Stereo camera device
US20170337434A1 (en) Warning Method of Obstacles and Device of Obstacles
JP4002919B2 (ja) 移動体高さ判別装置
US20180137376A1 (en) State estimating method and apparatus
CN107121132B (zh) 求取车辆环境图像的方法和设备及识别环境中对象的方法
JP6776202B2 (ja) 車載カメラのキャリブレーション装置及び方法
EP2924655B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
JP6032034B2 (ja) 物体検知装置
US11030761B2 (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product
JP2018091652A (ja) 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム
US10554951B2 (en) Method and apparatus for the autocalibration of a vehicle camera system
JP6349737B2 (ja) 移動体追尾装置及び、移動体追尾方法
JP6496585B2 (ja) 物体認識装置
CN114419098A (zh) 基于视觉变换的运动目标轨迹预测方法及装置
JP6035095B2 (ja) 車両の衝突判定装置
JP6564127B2 (ja) 自動車用視覚システム及び視覚システムを制御する方法
CN113643355B (zh) 一种目标车辆位置和朝向的检测方法、系统及存储介质
JP2020076714A (ja) 位置姿勢推定装置
JP4231883B2 (ja) 画像処理装置及びその方法
JP7134780B2 (ja) ステレオカメラ装置
JP6704307B2 (ja) 移動量算出装置および移動量算出方法
KR101890482B1 (ko) 레이더 스펙트럼을 이용한 정지 및 이동 물체 판별 장치 및 그 방법
JP2019096031A (ja) 推定プログラム、推定装置、及び推定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200521

R150 Certificate of patent or registration of utility model

Ref document number: 6708730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150