JP6901386B2 - 勾配推定装置、勾配推定方法、プログラムおよび制御システム - Google Patents

勾配推定装置、勾配推定方法、プログラムおよび制御システム Download PDF

Info

Publication number
JP6901386B2
JP6901386B2 JP2017235717A JP2017235717A JP6901386B2 JP 6901386 B2 JP6901386 B2 JP 6901386B2 JP 2017235717 A JP2017235717 A JP 2017235717A JP 2017235717 A JP2017235717 A JP 2017235717A JP 6901386 B2 JP6901386 B2 JP 6901386B2
Authority
JP
Japan
Prior art keywords
image
gradient
pixel
degree
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017235717A
Other languages
English (en)
Other versions
JP2019102007A (ja
Inventor
豪 田崎
豪 田崎
拓弥 宮本
拓弥 宮本
貴行 杉浦
貴行 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Electronic Devices and Storage Corp
Original Assignee
Toshiba Corp
Toshiba Electronic Devices and Storage Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Electronic Devices and Storage Corp filed Critical Toshiba Corp
Priority to JP2017235717A priority Critical patent/JP6901386B2/ja
Priority to US16/125,312 priority patent/US11087145B2/en
Priority to EP18193180.9A priority patent/EP3496040A1/en
Priority to CN201811048936.6A priority patent/CN109900245B/zh
Priority to KR1020180107761A priority patent/KR102117313B1/ko
Publication of JP2019102007A publication Critical patent/JP2019102007A/ja
Application granted granted Critical
Publication of JP6901386B2 publication Critical patent/JP6901386B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/076Slope angle of the road
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/15Road slope, i.e. the inclination of a road segment in the longitudinal direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本発明の実施形態は、勾配推定装置、勾配推定方法およびプログラムに関する。
複数の画像を使用した路面などの平面の勾配を推定する技術が知られている。例えば、設定した路面候補領域における2枚の画像の輝度差がなくなるように、一方の画像を画像変換した変換パラメータから勾配を推定する技術が提案されている。
杉本 茂樹他、"ステレオ画像を用いた高速な平面パラメータ推定法"、情報処理学会論文誌、Vol.48、No.SIG1、pp.24-34、2007年2月
しかしながら、従来技術では、勾配の推定精度が低下する場合があった。例えば、2枚の画像を取得した撮影装置(カメラ)の位置および姿勢に誤差がある状況では、路面の勾配方向に伸びる白線の影響が強くなり、勾配の推定精度が大きく減少する場合があった。
実施形態の勾配推定装置は、取得部と、抽出部と、算出部と、を備える。取得部は、平面を撮影した第1画像と第2画像とを取得する。抽出部は、第1画像から平面の勾配方向と異なる方向のオブジェクトの境界を示す第1画素を抽出し、第2画像から第1画素に対応する第2画素を抽出する。算出部は、第1画素と第2画素との一致度が大きくなるように第1画像および第2画像の少なくとも一方を変換することにより、平面の勾配の大きさを算出する。
実施形態の移動体の例を示す図。 第1の実施形態の移動体の機能構成の例を示す図。 取得される画像の一例を示す図。 平面の勾配方向の決定方法を説明するための図。 平面の勾配方向の決定方法を説明するための図。 平面の勾配方向の決定方法を説明するための図。 抽出される画素の一例を示す図。 画像変換の一例を示す図。 画像変換の一例を示す図。 第1の実施形態における勾配推定処理のフローチャート。 第2の実施形態の移動体の機能構成の例を示す図。 設定される候補領域の一例を示す図。 設定される候補領域の一例を示す図。 設定される候補領域の一例を示す図。 設定される候補領域の一例を示す図。 設定される候補領域の一例を示す図。 複数の候補領域を設定した例を示す図。 第2の実施形態における勾配推定処理のフローチャート。 第1または第2の実施形態にかかる勾配推定装置のハードウェア構成図。
以下に添付図面を参照して、この発明にかかる勾配推定装置の好適な実施形態を詳細に説明する。以下では、移動体が勾配推定装置を備える例を説明するが、適用可能な例はこれに限られない。
(第1の実施形態)
第1の実施形態にかかる勾配推定装置は、平面を撮影した2つの画像から、平面の勾配方向と異なる方向に並ぶ画素を抽出し、抽出した画素がより一致するように画像を変換することにより、平面の勾配(勾配の大きさ)を推定する。これにより、例えば勾配方向に伸びる白線の影響を低減させ、勾配の推定精度をより向上させることが可能となる。
図1は、本実施形態の移動体10の一例を示す図である。
移動体10は、勾配推定装置20と、出力部10Aと、センサ10Bと、入力装置10Cと、動力制御部10Gと、動力部10Hと、を備える。
勾配推定装置20は、画像内に撮影された平面の勾配を推定する。平面は、例えば移動体10の移動方向に存在する路面、地面、水面、床面、壁面、および、天井面などを含む。勾配推定装置20は、例えば、専用または汎用コンピュータである。本実施形態では、勾配推定装置20が、移動体10に搭載されている場合を一例として説明する。
移動体10は、移動可能な物体である。移動体10は、例えば、車両(自動二輪車、自動四輪車、自転車)、台車、ロボット、船舶、飛翔体(飛行機、無人航空機(UAV:Unmanned Aerial Vehicle)など)である。移動体10は、例えば、人による運転操作を介して走行する移動体や、人による運転操作を介さずに自動的に走行(自律走行)可能な移動体である。自動走行可能な移動体は、例えば、自動運転車両である。本実施形態の移動体10は、自律走行可能な車両である場合を一例として説明する。
なお、勾配推定装置20は、移動体10に搭載された形態に限定されない。勾配推定装置20は、静止物に搭載されていてもよい。静止物は、移動不可能な物や、地面に対して静止した状態の物である。静止物は、例えば、ガードレール、ポール、駐車車両、道路標識、などである。また、勾配推定装置20は、クラウド上で処理を実行するクラウドサーバに搭載されていてもよい。
出力部10Aは、各種情報を出力する。例えば出力部10Aは、各種処理による出力情報を出力する。
出力部10Aは、例えば、出力情報を送信する通信機能、出力情報を表示する表示機能、出力情報を示す音を出力する音出力機能、などを備える。例えば、出力部10Aは、通信部10Dと、ディスプレイ10Eと、スピーカ10Fと、を含む。
通信部10Dは、外部装置と通信する。通信部10Dは、VICS(登録商標)通信回路やダイナミックマップ通信回路である。通信部10Dは、出力情報を外部装置へ送信する。また、通信部10Dは、道路情報などを外部装置から受信する。道路情報は、信号、標識、周囲の建物、各車線の道幅、レーン中心線などである。道路情報は、記憶部20Bに記憶されていてもよい。
ディスプレイ10Eは、出力情報を表示する。ディスプレイ10Eは、例えば、公知のLCD(Liquid Crystal Display)や投影装置やライトなどである。スピーカ10Fは、出力情報を示す音を出力する。
センサ10Bは、移動体10の走行環境を取得するセンサである。走行環境は、例えば、移動体10の観測情報や、移動体10の周辺情報である。センサ10Bは、例えば、外界センサや内界センサである。
内界センサは、観測情報を観測するセンサである。観測情報は、例えば、移動体10の加速度、移動体10の速度、移動体10の角速度を含む。
内界センサは、例えば、慣性計測装置(IMU:Inertial Measurement Unit)、加速度センサ、速度センサ、ロータリエンコーダ、などである。IMUは、移動体10の三軸加速度および三軸角速度を含む観測情報を観測する。
外界センサは、移動体10の周辺情報を観測する。外界センサは、移動体10に搭載されていてもよいし、該移動体10の外部(例えば、他の移動体や外部装置など)に搭載されていてもよい。
周辺情報は、移動体10の周辺の状況を示す情報である。移動体10の周辺とは、該移動体10から予め定めた範囲内の領域である。この範囲は、外界センサの観測可能な範囲である。この範囲は、予め設定すればよい。
周辺情報は、例えば、移動体10の周辺の撮影画像および距離情報などである。なお、周辺情報は、移動体10の位置情報を含んでいてもよい。撮影画像は、撮影によって得られる撮影画像データである(以下、単に、撮影画像と称する場合がある)。距離情報は、移動体10から対象までの距離を示す情報である。対象は、外界における、外界センサによって観測可能な箇所である。位置情報は、相対位置であってもよいし、絶対位置であってもよい。
外界センサは、例えば、撮影によって撮影画像を得る撮影装置、距離センサ(ミリ波レーダ、レーザセンサ、距離画像センサ)、位置センサ(GNSS(Global Navigation Satellite System)、GPS(Global Positioning System)、無線通信装置)などである。
撮影画像は、画素ごとに画素値を規定したデジタル画像データや、画素毎にセンサ10Bからの距離を規定したデプスマップなどである。レーザセンサは、例えば、水平面に対して平行に設置された二次元LIDAR(Laser Imaging Detection and Ranging)センサや、三次元LIDARセンサである。
入力装置10Cは、ユーザからの各種指示や情報入力を受け付ける。入力装置10Cは、例えば、マウスやトラックボール等のポインティングデバイス、または、キーボード等の入力デバイスである。また、入力装置10Cは、ディスプレイ10Eと一体的に設けられたタッチパネルにおける入力機能であってもよい。
動力制御部10Gは、動力部10Hを制御する。動力部10Hは、移動体10に搭載された、駆動するデバイスである。動力部10Hは、例えば、エンジン、モータ、車輪、などである。
動力部10Hは、動力制御部10Gの制御によって駆動する。例えば、動力制御部10Gは、勾配推定装置20で生成された出力情報や、センサ10Bから得られた情報などに基づいて、周辺の状況を判断し、アクセル量、ブレーキ量、操舵角などの制御を行う。例えば、動力制御部10Gは、移動体10が所望の速度で移動するように、勾配推定装置20により推定された勾配の大きさに応じてアクセル量およびブレーキ量を調整する。
次に、移動体10の電気的構成について詳細に説明する。図2は、移動体10の構成の一例を示すブロック図である。
移動体10は、勾配推定装置20と、出力部10Aと、センサ10Bと、入力装置10Cと、動力制御部10Gと、動力部10Hと、を備える。出力部10Aは、上述したように、通信部10Dと、ディスプレイ10Eと、スピーカ10Fと、を含む。
勾配推定装置20、出力部10A、センサ10B、入力装置10C、および動力制御部10Gは、バス10Iを介して接続されている。動力部10Hは、動力制御部10Gに接続されている。
勾配推定装置20は、記憶部20Bと、処理部200と、を有する。すなわち、出力部10A、センサ10B、入力装置10C、動力制御部10G、処理部200、および記憶部20Bは、バス10Iを介して接続されている。
なお、記憶部20B、出力部10A(通信部10D、ディスプレイ10E、スピーカ10F)、センサ10B、入力装置10C、および動力制御部10G、の少なくとも1つは、有線または無線で処理部200に接続すればよい。また、記憶部20B、出力部10A(通信部10D、ディスプレイ10E、スピーカ10F)、センサ10B、入力装置10C、および動力制御部10Gの少なくとも1つと、処理部200と、をネットワークを介して接続してもよい。
記憶部20Bは、各種データを記憶する。記憶部20Bは、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。なお、記憶部20Bは、勾配推定装置20の外部に設けてもよい。また、記憶部20Bは、移動体10の外部に設けてもよい。例えば、記憶部20Bを、クラウド上に設置されたサーバ装置に配置してもよい。
また、記憶部20Bは、記憶媒体であってもよい。具体的には、記憶媒体は、プログラムや各種情報を、LAN(Local Area Network)やインターネットなどを介してダウンロードして記憶または一時記憶したものであってもよい。また、記憶部20Bを、複数の記憶媒体から構成してもよい。
処理部200は、取得部201と、決定部202と、抽出部203と、算出部204と、を有する。
処理部200における各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶部20Bへ記憶されている。処理部200は、プログラムを記憶部20Bから読出、実行することで、各プログラムに対応する機能部を実現するプロセッサである。
各プログラムを読み出した状態の処理部200は、図2の処理部200内に示された各機能部を有することになる。図2においては単一の処理部200によって、取得部201、決定部202、抽出部203、および、算出部204が実現されるものとして説明する。
なお、各機能の各々を実現するための独立した複数のプロセッサを組み合わせて処理部200を構成してもよい。この場合、各プロセッサがプログラムを実行することにより各機能を実現する。また、各処理機能がプログラムとして構成され、1つの処理回路が各プログラムを実行する場合であってもよいし、特定の機能が専用の独立したプログラム実行回路に実装される場合であってもよい。
なお、本実施形態および後述する実施形態において用いる「プロセッサ」との文言は、例えば、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、および、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))の回路を意味する。
プロセッサは、記憶部20Bに保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶部20Bにプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。
取得部201は、平面を撮影した画像(第1画像、第2画像)を取得する。例えば取得部201は、勾配を計測する領域の平面が撮影され、かつ、画像を撮影した撮影装置(カメラ)の位置と姿勢が付与されている少なくとも2枚以上の画像を取得する。取得部201は、カメラが撮影した画像を当該カメラから直接取得してもよいし、記憶媒体等に保存された画像を取得してもよい。なお、例えば画像を解析することにより撮影装置の位置および姿勢を算出(推定)できる場合には、取得部201は、撮影装置の位置および姿勢が付与されていない画像を取得してもよい。
図3は、取得される画像の一例を示す図である。図3は、自動車(移動体10の一例)のフロントガラスに前向きにカメラを設置し、勾配を推定する領域421を撮影した画像の例を示す。画像411は、例えば時刻(t−1)の位置で自動車401から撮影した画像を表す。画像412は、例えば時刻tの位置で自動車402から撮影した画像を表す。自動車402は、例えば、大きさ423を有する勾配に移動した自動車401に相当する。画像412は、勾配を推定する領域421に対応する領域422を含む。
なお図3の例では、異なる時刻に撮影された2枚の画像を用いているが、処理対象となる2枚の画像はこれに限られるものではない。同じ平面を撮影した2枚の画像であれば、どのような画像であってもよい。例えば、ステレオカメラなどにより同時刻に撮影された2枚の画像を用いてもよい。
図2に戻り、決定部202は、取得した画像上での平面の勾配方向を決定する。図4は、平面の勾配方向の決定方法を説明するための図である。例えば決定部202は、図4に示すように、実世界の三次元空間上での画像取得位置から勾配を推定する領域421に向かう直線の方向501を画像上に投影した方向502を、画像上での平面の勾配方向として決定する。
平面の勾配方向の決定方法はこれに限られるものではなく、どのような方法を用いてもよい。例えば決定部202は、図5に示すように、画像の隅(例えば画像の下端部)から消失点601へ向かう方向602を平面の勾配方向と決定してもよい。決定部202は、図6に示すように、画像上での移動体10の進行方向を平面の勾配方向と決定してもよい。カメラの設置する向きが予めわかっている場合は、平面の勾配方向を予め固定して設定しておくこともできる。例えば、撮影方向が平面と平行で移動体10の移動方向となるようにカメラが設置されている場合は、決定部202は、画像の下から上へ向かう方向を勾配方向であると予め設定することができる。
抽出部203は、決定した勾配方向と異なる方向の画素(画素列)を画像から抽出する。例えば抽出部203は、2枚の画像のうち一方(第1画像)から、この画像内に撮影されたオブジェクトの境界のうち、平面の勾配方向と異なる方向の境界を示す画素(第1画素)を抽出する。また抽出部203は、2枚の画像のうち他方(第2画像)から、第1画素に対応する画素(第2画素)を抽出する。例えば抽出部203は、第2画像から、この画像内に撮影されたオブジェクトの境界のうち、平面の勾配方向と異なる方向の境界を示す画素(第2画素)を抽出してもよい。
抽出部203は、第1画素の座標と同じ座標にある、第2画像の座標上の画素を第3画素として抽出し、第3画素周辺を探索することで、第1画素と一致する第2画素を対応する画素として抽出してもよい。具体的には、第1画素周囲の画素を使用してブロックマッチングなどの手法で探索できる。そのほか、抽出部203は、第2画像上で、輝度変化が大きい点を特徴点として抽出し、第1画素周辺の特徴量と最も類似する特徴点の中心画素を、第1画素と対応する第2画素として抽出してもよい。
勾配方向と異なる方向は、例えば、勾配の推定精度に影響する画素を排除できる範囲の方向として予め定めておけばよい。例えば、勾配方向に垂直な方向から予め定められた範囲内の方向を、勾配方向と異なる方向とすることができる。これにより、例えば路面上に路面の進行方向に引かれた白線などの、勾配方向(または勾配方向に近い方向)に延びる境界を排除することができる。また、排除ではなく、影響を少なくするため、垂直に近いほど後述する一致度に対する影響が強くなるように重みを付けることもできる。例えば、重みの最大値と最小値を設定しておき、勾配方向と垂直な場合に最大値、勾配方向と平行な場合に最小値を与え、角度に応じて線形に重みを付けるということもできる。
勾配方向と異なる方向のオブジェクトの境界は、例えば、路面上に生じた割れ目、進行方向を示す線以外の線(停止線など)、および、進行方向に引かれた破線(破線のセンターラインなど)などのオブジェクトの境界のうち、進行方向と異なる方向の境界である。
オブジェクトの境界は、例えば、エッジ検出処理により検出することができる。すなわち抽出部203は、勾配方向と異なる方向のエッジ上の画素を、勾配方向と異なる方向の画素として抽出する。エッジ検出処理により、勾配方向に強い輝度変化がある画素が抽出できる。
図7は、抽出される画素の一例を示す図である。図7は、勾配方向が画像の上下方向である場合に抽出された、輝度変化が強い画素(エッジ)801〜804の例を示す。画素801および802は、破線のセンターラインに相当するオブジェクトの境界として検出される画素の例である。画素803および804は、路面上に生じた割れ目に相当するオブジェクトの境界として検出される画素の例である。このように、抽出する画素(画素列)は複数であってもよいし、1つであってもよい。
勾配方向が画像の上下方向である場合は、上下方向に対して垂直である左右方向のエッジ上の画素が、より強い輝度変化がある画素となる。上下方向が勾配方向である場合、抽出部203は、例えば水平方向のエッジを検出するソーベルフィルタなどのエッジ検出フィルタを用いて、閾値より大きくなる水平方向エッジを検出し、エッジ上の画素を勾配方向と異なる方向の画素として抽出する。
なお勾配方向と異なる方向の画素の抽出方法はこれに限られるものではない。例えば車線検出機能(レーン検出機能)が備えられている場合であれば、抽出部203は、画像から検出されるエッジのうち、車線検出機能で検出された車線に対応する白線以外のエッジを、勾配方向と異なる方向の画素として抽出してもよい。また、入力された画像から勾配方向と異なる方向の画素を抽出して出力するように事前に学習された学習モデルを用いて、取得された画像から、勾配方向と異なる方向の画素を求めるように構成してもよい。学習モデルは、ニューラルネットワークモデルなどの、どのような形式のモデルであってもよい。
図2に戻り、算出部204は、抽出された画素を用いて、平面の勾配の大きさ(勾配の角度)を算出する。例えば算出部204は、2枚の画像のうち一方(第1画像)から抽出された画素(第1画素)と、他方(第2画像)から抽出された画素(第2画素)と、の一致度が、変換前より大きくなるように2枚の画像の少なくとも一方を変換する。算出部204は、一致度がより大きくなるときの平面の勾配の大きさを、勾配の大きさの推定値として出力する。
以下に、勾配の大きさの推定方法(算出方法)の具体例について説明する。以下では、2枚の画像のうち一方の画像を変換し、他方の画像との一致度を判定する場合を例に説明する。
算出部204は、ある勾配角度pと、画像間の相対位置変化を示す並進ベクトルTと、姿勢変化を示す回転行列Rと、から算出できるホモグラフィ行列H(p)を用いて、2枚の画像のうち一方を変換する。算出部204は、変換した画像と、他方の画像との一致度がより大きくなるような勾配角度pを、勾配角度(勾配の大きさ)として推定する。
ホモグラフィ行列H(p)は、例えば、非特許文献1の射影変換行列P((1)式)と同様に表すことができる。非特許文献1の平面の法線ベクトルn、回転行列R、および、平行移動ベクトルtが、本実施形態の勾配角度p、回転行列R、および、並進ベクトルTに対応する。回転行列Rおよび並進ベクトルTは、例えば、画像に付与された撮影装置の位置および姿勢から求めることができる。平面までの距離は、例えば、撮影装置の設置高さに応じた固定値とすることができる。
図8および図9は、画像変換の一例を示す図である。図8は、図3の画像411および画像412のうち、画像411を変換して画像912を生成する場合の例を示す。また図8は、並進ベクトルT、および、回転行列Rに誤差がなく、推定する勾配角度pが真値と等しい場合の例を示す。位置および姿勢(並進ベクトルT、回転行列R)と、推定した平面の勾配角度に誤差がない場合は、推定する平面領域の画像(例えば、画像412内の領域422と、変換後の画像912内の領域922)は一致する。
図9は、並進ベクトルT、および、回転行列Rに誤差があり、推定する勾配角度pが真値と等しくない場合の例を示す。画像1012−1の実線部は、勾配角度pの真値と異なるp1から算出されるホモグラフィ行列H(p1)で変換した画像を示す。破線部は、対応付け結果を見やすくするために表示している画像412である。なお図9には、比較対象とする画像412も重ねて表示されている。矢印1021−1は、画像1012−1内の勾配方向と異なる方向の画素と、画像412内の勾配方向と異なる方向の画素と、の対応づけ結果を示す。画像1012−2は、勾配角度pの真値に近いp2から算出されるホモグラフィ行列H(p2)で変換した画像を示す。矢印1021−2は、画像1012−2内の勾配方向と異なる方向の画素と、画像412内の勾配方向と異なる方向の画素と、の対応づけ結果を示す。
このように、算出部204は、一致度を算出するために、勾配方向と異なる方向の画素を画像間で対応づける。例えば、算出部204は、画素周囲の特徴量が類似する領域を画像上で対応づける。画素周囲とは、例えば、画素を含む所定範囲の領域である。
特徴量は、画像の輝度そのものでもよいし、画素周囲の輝度の配置から計算される正規化相互相関(ZNCC:Zero−mean Normalized Cross−Correlation)、および、AKAZE(Accelerated KAZE)などの特徴量でもよい。
図9に示すように、通常は、並進ベクトルTと回転行列Rに誤差が生じるため、勾配角度pをp1、p2のように変化させても、画素が完全に一致することはない。算出部204は、例えば勾配角度pを変化させ、対応づけた画素の画像上での距離の合計が最も短くなる勾配角度pによって変換した画像を、最も一致度が大きい画像とする。算出部204は、最も一致度が大きい画像に変換する勾配角度pを、勾配の大きさの推定値として出力する。このように、算出部204は、勾配角度(勾配の大きさ)を示す複数の推定値を用いて一方の画像を変換し、他方の画像との一致度を算出する。算出部204は、複数の推定値のうち、一致度が他の推定値より大きい推定値を出力する。
勾配の大きさの推定方法はこれに限られるものではない。変換した画像と比較対象の画像との一致度がより大きくなるような勾配の大きさを算出可能な方法であればどのような方法を適用してもよい。
例えば算出部204は、画像上での距離の合計を出す際に、対応づけの際の特徴量の距離が短い(特徴量間の類似度が大きい)ほど、距離が短くなるように、距離に重み係数をかけてもよい。算出部204は、対応づけた画素の特徴量の類似度が大きいほど大きい値となる一致度を用いてもよい。算出部204は、非特許文献1に記載されているように、画像変換の変換パラメータ(ホモグラフィ行列H(p))を求めた後に変換パラメータを分解することにより平面パラメータを算出する方法を用いてもよい。
図9の例では、勾配角度p1を推定値とした場合、特徴量の距離、および、画像上での対応位置の距離(矢印1021−1の長さ)が長くなる。一方、勾配角度p2を推定値とした場合、特徴量の距離、および、画像上での対応位置の距離(矢印1021−2の長さ)が、勾配角度p1を推定値とした場合より短くなる。例えば算出部204は、一致度がより大きくなる勾配角度p2を、勾配の大きさの推定値として出力する。
次に、このように構成された第1の実施形態にかかる勾配推定装置20による勾配推定処理について図10を用いて説明する。図10は、第1の実施形態における勾配推定処理の一例を示すフローチャートである。
まず取得部201は、平面を撮影した2枚の画像を取得する(ステップS101)。決定部202は、取得した画像上での平面の勾配方向を決定する(ステップS102)。抽出部203は、決定された勾配方向と異なる方向の画素を、2枚の画像それぞれから抽出する(ステップS103)。例えば抽出部203は、画像内の勾配方向と異なる方向に延びるエッジを抽出する。算出部204は、2枚の画像のうち少なくとも一方を変換する(ステップS104)。算出部204は、他方の画像に対する一致度がより大きくなる画像に基づき、勾配の大きさを算出する(ステップS105)。
推定された勾配の大きさは、例えば、移動体10の移動の制御に用いられてもよい。例えば動力制御部10Gは、勾配の大きさに応じて移動体10の加速度などを制御する。撮影画像に基づく他の機能が備えられている場合に、推定された勾配の大きさに応じて、この機能の動作を制御するように構成してもよい。例えば、平面上の障害物を検出する機能(障害物検出機能)が備えられている場合は、推定された勾配の大きさに応じて、障害物検出機能の適用可否を判断してもよい。
このように、第1の実施形態にかかる勾配推定装置では、平面の勾配方向と異なる方向に並ぶ画素の一致度を判定することにより、平面の勾配の大きさを推定する。これにより、例えば勾配方向に伸びる白線の影響を低減させ、勾配の推定精度をより向上させることが可能となる。
(第2の実施形態)
第2の実施形態にかかる勾配推定装置は、勾配の大きさを推定するために用いる画像内の領域を設定可能とする。
図11は、第2の実施形態の移動体10−2の構成の一例を示すブロック図である。移動体10−2は、勾配推定装置20−2と、出力部10Aと、センサ10Bと、入力装置10Cと、動力制御部10Gと、動力部10Hと、を備える。勾配推定装置20−2は、記憶部20Bと、処理部200−2と、を有する。
第2の実施形態では、処理部200−2内に設定部205−2を追加したこと、および、抽出部203−2の機能が第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる勾配推定装置20のブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。
設定部205−2は、画像内の領域を設定する。設定する領域は、例えば平面を含む領域の候補となる候補領域である。設定する候補領域は1つでもよいし、複数であってもよい。例えば設定部205−2は、勾配方向に並ぶ複数の領域を候補領域に設定してもよい。設定部205−2は、設定した候補領域を抽出部203−2に出力する。
設定部205−2は、画像上の予め設定された領域を候補領域としてもよいし、求めたい平面の候補位置が変化した際に、変化後の候補位置に候補領域を設定してもよい。例えば、移動体10−2が移動する速度に応じて、勾配を求めたい位置までの距離を変更するとともに、候補領域の画像上での位置を上下方向に移動させてもよい。図12および図13は、設定される候補領域の一例を示す図である。図12は、移動体10−2により近い位置の勾配を推定するために、候補領域1201が画像の下部に設定された例を示している。図13は、図12より遠い位置の勾配を推定するために、候補領域1301が画像の上方向に移動された例を示している。
設定部205−2は、候補領域を拡大または縮小して設定してもよい。図14は、縮小して設定された候補領域1401の一例を示す図である。図14に示すように、設定部205−2は、勾配の上方向に移動する場合に候補領域を縮小して設定してもよい。
設定部205−2は、路面のパターンと照合する方法などにより画像から路面を検出し、検出した路面内に限定して候補領域を設定してもよい。図15および図16は、路面内に設定される候補領域の一例を示す図である。図15の候補領域1501は、移動体10−2により近い位置の勾配を推定するために、画像の下部に、路面の形状に沿って台形状に設定された候補領域の例を示す。図16の候補領域1601は、図15より遠い位置の勾配を推定するために、画像の上方向に移動され、路面の形状に沿って台形状に設定された候補領域の例を示す。
図17は、複数の候補領域を設定した例を示す図である。図17では、2つの候補領域1701、1702が設定された例が示されている。
図11に戻り、抽出部203−2は、各画像について、設定部205−2により設定された領域から、勾配方向と異なる方向の画素を抽出する点が、第1の実施形態の抽出部203と異なる。
次に、このように構成された第2の実施形態にかかる勾配推定装置20−2による勾配推定処理について図18を用いて説明する。図18は、第2の実施形態における勾配推定処理の一例を示すフローチャートである。
ステップS201からステップS202は、第1の実施形態にかかる勾配推定装置20におけるステップS101からステップS102までと同様の処理なので、その説明を省略する。
設定部205−2は、取得された画像内に、平面の候補領域を設定する(ステップS203)。抽出部203−2は、設定された候補領域を対象として、エッジの抽出処理を実行する(ステップS204)。
ステップS205からステップS206は、第1の実施形態にかかる勾配推定装置20におけるステップS104からステップS105までと同様の処理なので、その説明を省略する。
なお、複数の候補領域が設定された場合は、算出部204は、各領域について勾配の大きさを推定し、推定値を出力する。例えば算出部204は、各領域に対して推定された勾配の大きさをそのまま出力する。算出部204は、各領域の勾配の大きさの差(勾配の大きさの変化)を算出し、差が閾値と比べて大きい場合に、勾配の大きさの変化点が存在することを示す出力情報を出力してもよい。また、変化点が存在した領域の画像上での位置から、変化点までの距離を出力してもよい。
このように、第2の実施形態にかかる勾配推定装置では、勾配の大きさを推定するために用いる画像内の領域を設定する。これにより、平面の勾配の大きさの推定精度をさらに向上させることができる。
なお、上記各実施形態では、カメラが平面に対して水平前向きに設置されていることを仮定して説明した。カメラの設置方向が異なる場合は、設置方向に合わせて水平、垂直、上下、および、左右の向きを変更すればよい。
以上説明したとおり、第1から第2の実施形態によれば、平面の勾配方向と異なる方向の画素を対応づける画像変換結果を利用することで、勾配方向に特徴的な部位を一致させることができる。この結果、平面の勾配の大きさの推定の精度を向上させること、および、勾配の推定を頑健に実行すること、が可能となる。
次に、第1または第2の実施形態にかかる勾配推定装置のハードウェア構成について図19を用いて説明する。図19は、第1または第2の実施形態にかかる勾配推定装置のハードウェア構成例を示す説明図である。
第1または第2の実施形態にかかる勾配推定装置は、CPU(Central Processing Unit)51などの制御装置と、ROM(Read Only Memory)52やRAM(Random Access Memory)53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、各部を接続するバス61を備えている。
第1または第2の実施形態にかかる勾配推定装置で実行されるプログラムは、ROM52等に予め組み込まれて提供される。
第1または第2の実施形態にかかる勾配推定装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供されるように構成してもよい。
さらに、第1または第2の実施形態にかかる勾配推定装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、第1または第2の実施形態にかかる勾配推定装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
第1または第2の実施形態にかかる勾配推定装置で実行されるプログラムは、コンピュータを上述した勾配推定装置の各部として機能させうる。このコンピュータは、CPU51がコンピュータ読取可能な記憶媒体からプログラムを主記憶装置上に読み出して実行することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10、10−2 移動体
10A 出力部
10B センサ
10C 入力装置
10D 通信部
10E ディスプレイ
10F スピーカ
10G 動力制御部
10H 動力部
10I バス
20、20−2 勾配推定装置
20B 記憶部
200、200−2 処理部
201 取得部
202 決定部
203、203−2 抽出部
204 算出部
205−2 設定部

Claims (13)

  1. 物体の表面を撮影した第1画像と第2画像とを取得する取得部と、
    前記表面の勾配方向を決定する決定部と、
    前記第1画像から前記表面の決定された前記勾配方向と異なる方向のオブジェクトの境界を示す第1画素を抽出し、前記第2画像から前記第1画素に対応する第2画素を抽出する抽出部と、
    前記第1画素と前記第2画素との第1一致度に基づく前記第1画像と前記第2画像との第2一致度が大きくなるように前記第1画像および前記第2画像の少なくとも一方を変換することにより、前記表面の勾配の大きさを算出する算出部と、
    を備える勾配推定装置。
  2. 前記抽出部は、前記勾配方向と異なる方向のエッジ上の画素を、前記第1画素として抽出する、
    請求項1に記載の勾配推定装置。
  3. 前記算出部は、前記第1画素を含む領域の特徴量と前記第2画素を含む領域の特徴量との類似度に基づき、前記第2一致度を決定する、
    請求項1に記載の勾配推定装置。
  4. 前記算出部は、前記類似度に基づいて、相互に類似する前記第1画素と前記第2画素とを対応づけ、対応づけた前記第1画素と前記第2画素の画像上での距離である前記第1一致度が小さいほど大きくなる前記第2一致度を決定する、
    請求項3に記載の勾配推定装置。
  5. 前記算出部は、前記類似度が大きいほど大きい値となる前記第2一致度を決定する、
    請求項3に記載の勾配推定装置。
  6. 前記算出部は、前記表面の勾配の大きさを示す複数の推定値を用いて前記第1画像を変換し、複数の前記推定値のうち、前記第2一致度が他の推定値より大きい推定値を、前記表面の勾配の大きさとして算出する、
    請求項1に記載の勾配推定装置。
  7. 前記算出部は、前記第2一致度が大きくなるように前記第1画像を変換する変換パラメータを求め、前記変換パラメータから前記表面の勾配の大きさを算出する、
    請求項1に記載の勾配推定装置。
  8. 前記変換パラメータは、勾配の大きさの推定値と、画像間の相対位置変化を示すベクトルと、姿勢変化を示す回転行列と、から算出できるホモグラフィ行列である、
    請求項7に記載の勾配推定装置。
  9. 画像内の領域を設定する設定部をさらに備え、
    前記抽出部は、設定された前記領域に対応する前記第1画像の領域から前記第1画素を抽出し、設定された前記領域に対応する前記第2画像の領域から前記第2画素を抽出する、
    請求項1に記載の勾配推定装置。
  10. 前記設定部は、前記勾配方向に並ぶ複数の領域を設定し、
    前記算出部は、複数の前記領域それぞれについて勾配の大きさを算出し、複数の前記領域について算出した複数の勾配の大きさの変化をさらに算出する、
    請求項9に記載の勾配推定装置。
  11. 物体の表面を撮影した第1画像と第2画像とを取得する取得ステップと、
    前記表面の勾配方向を決定する決定ステップと、
    前記第1画像から前記表面の決定された前記勾配方向と異なる方向のオブジェクトの境界を示す第1画素を抽出し、前記第2画像から前記第1画素に対応する第2画素を抽出する抽出ステップと、
    前記第1画素と前記第2画素との第1一致度に基づく前記第1画像と前記第2画像との第2一致度が大きくなるように前記第1画像および前記第2画像の少なくとも一方を変換することにより、前記表面の勾配の大きさを算出する算出ステップと、
    を含む勾配推定方法。
  12. コンピュータを、
    物体の表面を撮影した第1画像と第2画像とを取得する取得部と、
    前記表面の勾配方向を決定する決定部と、
    前記第1画像から前記表面の決定された前記勾配方向と異なる方向のオブジェクトの境界を示す第1画素を抽出し、前記第2画像から前記第1画素に対応する第2画素を抽出する抽出部と、
    前記第1画素と前記第2画素との第1一致度に基づく前記第1画像と前記第2画像との第2一致度が大きくなるように前記第1画像および前記第2画像の少なくとも一方を変換することにより、前記表面の勾配の大きさを算出する算出部と、
    として機能させるためのプログラム。
  13. 物体の表面を撮影した第1画像と第2画像とを取得する取得部と、
    前記表面の勾配方向を決定する決定部と、
    前記第1画像から前記表面の決定された前記勾配方向と異なる方向のオブジェクトの境界を示す第1画素を抽出し、前記第2画像から前記第1画素に対応する第2画素を抽出する抽出部と、
    前記第1画素と前記第2画素との第1一致度に基づく前記第1画像と前記第2画像との第2一致度が大きくなるように前記第1画像および前記第2画像の少なくとも一方を変換することにより、前記表面の勾配の大きさを算出する算出部と、
    前記勾配の大きさに基づいて移動体の移動を制御する制御部と、
    を備える制御システム。
JP2017235717A 2017-12-08 2017-12-08 勾配推定装置、勾配推定方法、プログラムおよび制御システム Active JP6901386B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017235717A JP6901386B2 (ja) 2017-12-08 2017-12-08 勾配推定装置、勾配推定方法、プログラムおよび制御システム
US16/125,312 US11087145B2 (en) 2017-12-08 2018-09-07 Gradient estimation device, gradient estimation method, computer program product, and controlling system
EP18193180.9A EP3496040A1 (en) 2017-12-08 2018-09-07 Gradient estimation device, gradient estimation method, computer-readable medium, and controlling system
CN201811048936.6A CN109900245B (zh) 2017-12-08 2018-09-10 坡度推定装置、坡度推定方法以及存储介质
KR1020180107761A KR102117313B1 (ko) 2017-12-08 2018-09-10 그래디언트 추정 장치, 그래디언트 추정 방법, 컴퓨터 프로그램 및 제어 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017235717A JP6901386B2 (ja) 2017-12-08 2017-12-08 勾配推定装置、勾配推定方法、プログラムおよび制御システム

Publications (2)

Publication Number Publication Date
JP2019102007A JP2019102007A (ja) 2019-06-24
JP6901386B2 true JP6901386B2 (ja) 2021-07-14

Family

ID=63528600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017235717A Active JP6901386B2 (ja) 2017-12-08 2017-12-08 勾配推定装置、勾配推定方法、プログラムおよび制御システム

Country Status (5)

Country Link
US (1) US11087145B2 (ja)
EP (1) EP3496040A1 (ja)
JP (1) JP6901386B2 (ja)
KR (1) KR102117313B1 (ja)
CN (1) CN109900245B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017217005A1 (de) * 2017-09-26 2019-03-28 Robert Bosch Gmbh Verfahren zum Ermitteln der Steigung einer Fahrbahn
CN112184792B (zh) * 2020-08-28 2023-05-26 辽宁石油化工大学 一种基于视觉的道路坡度计算方法及装置
CN114155304A (zh) * 2020-09-04 2022-03-08 株式会社理光 空间平面图像比较方法、装置和计算机可读存储介质
CN112660125B (zh) * 2020-12-26 2023-04-07 江铃汽车股份有限公司 一种车辆巡航控制方法、装置、存储介质及车辆
JP2022153857A (ja) * 2021-03-30 2022-10-13 キヤノン株式会社 画像処理装置、画像処理方法、移動装置、及びコンピュータプログラム
CN117532624B (zh) * 2024-01-10 2024-03-26 南京东奇智能制造研究院有限公司 一种护栏板安装自动定位调准方法及系统

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5550937A (en) * 1992-11-23 1996-08-27 Harris Corporation Mechanism for registering digital images obtained from multiple sensors having diverse image collection geometries
US6408109B1 (en) * 1996-10-07 2002-06-18 Cognex Corporation Apparatus and method for detecting and sub-pixel location of edges in a digital image
JPH11328408A (ja) * 1998-05-12 1999-11-30 Advantest Corp データ処理装置および方法、情報記憶媒体
US6519372B1 (en) * 1999-08-31 2003-02-11 Lockheed Martin Corporation Normalized crosscorrelation of complex gradients for image autoregistration
US6801244B2 (en) * 2000-02-29 2004-10-05 Kabushiki Kaisha Toshiba Obstacle detection apparatus and method
JP3759429B2 (ja) * 2001-05-23 2006-03-22 株式会社東芝 障害物検出装置及びその方法
US7636455B2 (en) * 2002-06-04 2009-12-22 Raytheon Company Digital image edge detection and road network tracking method and system
JP4692773B2 (ja) * 2004-03-03 2011-06-01 日本電気株式会社 物体の姿勢推定及び照合システム、物体の姿勢推定及び照合方法、並びにそのためのプログラム
JP3937414B2 (ja) * 2004-08-11 2007-06-27 本田技研工業株式会社 平面検出装置及び検出方法
JP4637618B2 (ja) * 2005-03-18 2011-02-23 株式会社ホンダエレシス 車線認識装置
US20070070365A1 (en) * 2005-09-26 2007-03-29 Honeywell International Inc. Content-based image retrieval based on color difference and gradient information
JP2007140684A (ja) * 2005-11-15 2007-06-07 Toshiba Corp 画像処理装置、方法、プログラム
EP1881454A1 (en) * 2006-07-17 2008-01-23 Mitsubishi Electric Information Technology Centre Europe B.V. Image processing for change detection
US7680303B2 (en) * 2006-09-11 2010-03-16 Mitsubishi Electric Research Laboratories, Inc. Image registration using joint spatial gradient maximization
JP4727615B2 (ja) * 2007-03-30 2011-07-20 シャープ株式会社 画像処理装置、制御プログラム、コンピュータ読み取り可能な記録媒体、電子機器及び画像処理装置の制御方法
JP2009041972A (ja) * 2007-08-07 2009-02-26 Toshiba Corp 画像処理装置及びその方法
WO2009022584A1 (ja) 2007-08-10 2009-02-19 Equos Research Co., Ltd. 車両
US8260048B2 (en) * 2007-11-14 2012-09-04 Exelis Inc. Segmentation-based image processing system
CN101894262B (zh) * 2009-05-20 2014-07-09 索尼株式会社 对图像进行分类的方法和设备
US8489287B2 (en) * 2010-12-31 2013-07-16 Automotive Research & Test Center Vehicle roll over prevention safety driving system and method
JP5287914B2 (ja) * 2011-03-22 2013-09-11 株式会社デンソー 車両存在通報装置
DE102011076795A1 (de) 2011-05-31 2012-09-20 Robert Bosch Gmbh Verfahren zum Bestimmen einer Nickbewegung einer in einem Fahrzeug verbauten Kamera und Verfahren zur Steuerung einer Lichtaussendung zumindest eines Frontscheinwerfers eines Fahrzeugs
JP2013097675A (ja) * 2011-11-02 2013-05-20 Honda Elesys Co Ltd 勾配推定装置、勾配推定方法、及び勾配推定プログラム
JP5894426B2 (ja) 2011-12-13 2016-03-30 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 計測対象抽出装置、顔形状推定装置、計測対象抽出方法および顔形状推定方法
CN105209297B (zh) * 2013-05-16 2017-05-17 安电株式会社 车辆接近通报装置
US9349189B2 (en) * 2013-07-01 2016-05-24 Here Global B.V. Occlusion resistant image template matching using distance transform
JP2015056057A (ja) * 2013-09-12 2015-03-23 トヨタ自動車株式会社 姿勢推定方法及びロボット
JP6455164B2 (ja) 2014-02-28 2019-01-23 株式会社リコー 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
EP3023907A1 (en) * 2014-11-20 2016-05-25 Autoliv Development AB Gradient detection based on perspective-transformed image
WO2016086023A1 (en) * 2014-11-24 2016-06-02 Massachusetts Institute Of Technology Systems, apparatus, and methods for analyzing blood cell dynamics
EP3246205B1 (en) 2015-01-14 2022-10-05 Koito Manufacturing Co., Ltd. Control device for vehicular lamp, and vehicular lamp system
US10142613B2 (en) * 2015-09-03 2018-11-27 Kabushiki Kaisha Toshiba Image processing apparatus, image processing system, and image processing method
KR101679279B1 (ko) * 2015-09-10 2016-11-24 한국과학기술원 카메라 노출 조절 장치 및 방법
JP6515039B2 (ja) * 2016-01-08 2019-05-15 Kddi株式会社 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法
EP3199403B1 (en) * 2016-01-28 2022-06-22 Harman Becker Automotive Systems GmbH System and method for external sound synthesis of a vehicle
JP6986683B2 (ja) * 2018-01-05 2021-12-22 パナソニックIpマネジメント株式会社 視差値算出装置、視差値算出方法及びプログラム

Also Published As

Publication number Publication date
US11087145B2 (en) 2021-08-10
KR20190068409A (ko) 2019-06-18
JP2019102007A (ja) 2019-06-24
KR102117313B1 (ko) 2020-06-01
CN109900245B (zh) 2021-10-08
EP3496040A1 (en) 2019-06-12
US20190180116A1 (en) 2019-06-13
CN109900245A (zh) 2019-06-18

Similar Documents

Publication Publication Date Title
JP6901386B2 (ja) 勾配推定装置、勾配推定方法、プログラムおよび制御システム
TWI695181B (zh) 用於產生彩色點雲的方法和系統
JP7082545B2 (ja) 情報処理方法、情報処理装置およびプログラム
CN109313031B (zh) 车载处理装置
CN112665556B (zh) 使用被动和主动测量生成场景的三维地图
JP6883215B2 (ja) 計測装置および方法、並びにプログラム
WO2017159382A1 (ja) 信号処理装置および信号処理方法
US10825186B2 (en) Information processing device, information processing method, and computer program product
RU2668459C1 (ru) Устройство оценки положения и способ оценки положения
JP6804991B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
KR20200042760A (ko) 차량 위치 결정 방법 및 차량 위치 결정 장치
US20210365038A1 (en) Local sensing based autonomous navigation, and associated systems and methods
US11200432B2 (en) Method and apparatus for determining driving information
KR102056147B1 (ko) 자율주행차량을 위한 거리 데이터와 3차원 스캔 데이터의 정합 방법 및 그 장치
JP2016157197A (ja) 自己位置推定装置、自己位置推定方法およびプログラム
JP6552448B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
CN114746894A (zh) 图像处理装置、图像处理方法以及图像处理程序
JP7337617B2 (ja) 推定装置、推定方法及びプログラム
US20240151855A1 (en) Lidar-based object tracking

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180918

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210617

R150 Certificate of patent or registration of utility model

Ref document number: 6901386

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150