JP2021092996A - 計測システム、車両、計測方法、計測装置及び計測プログラム - Google Patents

計測システム、車両、計測方法、計測装置及び計測プログラム Download PDF

Info

Publication number
JP2021092996A
JP2021092996A JP2019223499A JP2019223499A JP2021092996A JP 2021092996 A JP2021092996 A JP 2021092996A JP 2019223499 A JP2019223499 A JP 2019223499A JP 2019223499 A JP2019223499 A JP 2019223499A JP 2021092996 A JP2021092996 A JP 2021092996A
Authority
JP
Japan
Prior art keywords
image
feature point
unit
measurement
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019223499A
Other languages
English (en)
Inventor
拓 妹尾
Taku Senoo
拓 妹尾
平野 正浩
Masahiro Hirano
正浩 平野
正俊 石川
Masatoshi Ishikawa
正俊 石川
則政 岸
Norimasa Kishi
則政 岸
鈴木 健二
Kenji Suzuki
健二 鈴木
浩史 丸山
Hiroshi Maruyama
浩史 丸山
▲尭▼ 潘
Yao Pan
▲尭▼ 潘
笑笑 仲
Xiaoxiao Zhong
笑笑 仲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kotei Informatics Corp
University of Tokyo NUC
Original Assignee
Kotei Informatics Corp
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kotei Informatics Corp, University of Tokyo NUC filed Critical Kotei Informatics Corp
Priority to JP2019223499A priority Critical patent/JP2021092996A/ja
Publication of JP2021092996A publication Critical patent/JP2021092996A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】対象物の突然の出現等にも対応することができる、周囲の対象物の計測システム、車両、計測方法、計測装置及び計測プログラムを提供する。【解決手段】計測システムは、時刻t−1における第1の画像と時刻tにおける第2の画像とを含む対象物の画像を100fps以上で撮像する撮像装置2と、第1の画像において対象物に係る特徴点である第1の特徴点を複数抽出するとともに、そのオプティカルフローを演算し、第2の画像において前記対象物に係る特徴点である第2の特徴点を複数抽出し、第1の特徴点の第2の画像における推定移動先をオプティカルフローに基づいて算出するとともに、これらの推定移動先と第2の特徴点とを比較することで、特徴点の新たな出現又は消滅を含む特徴点情報を算出し、特徴点情報に基づいて、対象物の移動に関する物理量を計測する情報処理装置3とを備える。【選択図】図1

Description

本発明は、計測システム、車両、計測方法、計測装置及び計測プログラムに関する。
産業界において、自動車や移動ロボット等を周囲の対象物(障害物又は移動体)と衝突しないように制御することが求められている。そのために、周囲の対象物の変位・速度・加速度といった物理量の計測が求められている。特許文献1には、対象物の速度を計測可能な物体速度算出装置が開示されている。
特開2019−53011号公報
ところで、例えば自動車の隊列走行を考慮すると、衝突回避を担保しつつ車間距離を詰めて走行することができれば経済的なメリットが大きい。しかしながら、特許文献1に記載される装置では、前方等特定方向に位置する対象物の速度(物理量)を計測することはできるが、システムの応答性から側方からの突然の割り込み等には対処できない。また、ドローン等の3次元に移動可能な移動体を周囲の対象物と衝突回避を担保しつつ制御する場合等でも、任意の位置からの突然の出現等に対処できないと考えられる。
本発明は、かかる事情を鑑みてなされたものであり、対象物の突然の出現等にも対応することができる、周囲の対象物の計測システム、車両、計測方法、計測装置及び計測プログラムを提供することを目的とする。
本発明の一態様によれば、対象物を計測する計測システムであって、撮像装置と、情報処理装置とを備え、前記撮像装置は、画角に含まれる前記対象物の画像を100fps以上で撮像可能に構成され、ここで前記画像は、時刻t−1における第1の画像と時刻tにおける第2の画像とを含み、前記情報処理装置は、受付部と、特徴点抽出部と、特徴点情報算出部と、計測部とを備え、前記受付部は、前記撮像装置によって撮像された前記画像を受け付けるように構成され、前記特徴点抽出部は、前記第1の画像において前記対象物に係る特徴点である第1の特徴点を複数抽出するとともに、そのオプティカルフローを演算するように構成され、続いて、前記第2の画像において前記対象物に係る特徴点である第2の特徴点を複数抽出するように構成され、前記特徴点情報算出部は、前記第1の特徴点の前記第2の画像における推定移動先を前記オプティカルフローに基づいて算出するとともに、これらの推定移動先と前記第2の特徴点とを比較することで、前記特徴点の新たな出現又は消滅を含む特徴点情報を算出するように構成され、前記計測部は、前記特徴点情報に基づいて、前記対象物の移動に関する物理量を計測するように構成されるものが提供される。
かかる計測システムによれば、対象物の突然の出現等も含めて周囲の対象物の物理量を高速に計測することができる、という有利な効果を奏する。
計測システム1の全体構成を示す概要図である。 情報処理装置3のハードウェア構成を示すブロック図である。 第1の実施形態に係る情報処理装置3(制御部33)の機能構成を示すブロック図である。 左画像IMa及び右画像IMbにおいて設定された矩形領域Ra,Rbを示す概要図である。 矩形領域Ra,Rbにおける対象物の特徴点の対応を示す概要図である。 特徴点がクラスタリングされ、各クラスタCに分類された態様を示している。 第1の特徴点F1のオプティカルフローOFを示す概要図である。 推定移動先EP(図8A)と、第2の特徴点F2(図8B)とを比較した概要図である。 逆透視投影変換の概要図である。 IPM変換部331による処理の流れを示す概要図である。 計測方法の流れを示すアクティビティ図である。 割り込み判断に関する概要図である。 割り込み判断に関する概要図である。 第2の実施形態に係る情報処理装置3(制御部33)の機能構成を示すブロック図である。
以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。特に、本明細書において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、0又は1で構成される2進数のビット集合体として信号値の高低によって表され、広義の回路上で通信・演算が実行されうる。
また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。
また、実施形態中に登場するプログラムは、サーバからダウンロード可能な態様であってもよいし、不揮発性又は揮発性の記憶媒体に記憶させて、このようなプログラムが頒布されてもよい。
1.ハードウェア構成(第1の実施形態)
本節では、第1の実施形態に係る計測システム1のハードウェア構成について説明する。
1.1 計測システム1
図1は、計測システム1の全体構成を示す概要図である。対象物を計測する計測システム1は、撮像装置2と、情報処理装置3とを備え、これらが電気的に接続されたシステムである。計測システム1は、移動体に設置して使用することが好ましい。移動体とは、例えば、自動車、列車(公共交通機関だけでなく遊戯用等も含む)、船舶、移動型ロボット、ヒト、動物等が想定される。本明細書では、例として自動車を取り上げて説明を行い、計測システム1が搭載された自動車を「本自動車」と定義する。すなわち、計測システム1は、車両に載置されたもの(車両が計測システム1を備える)で、対象物が車両に対する障害物又は他の車両である。
1.2 撮像装置2
撮像装置2は、外界の情報を画像として取得可能に構成される、いわゆるビジョンセンサ(カメラ)であり、特に高速ビジョンと称する撮像レートが高いものが採用されることが好ましい。すなわち、撮像装置2は、画角に含まれる対象物の画像(左画像IMa,右画像IMb)を100fps以上で撮像可能に構成される。
撮像レートは、具体的には例えば、100,125,150,175,200,225,250,275,300,325,350,375,400,425,450,475,500,525,550,575,600,625,650,675,700,725,750,775,800,825,850,875,900,925,950,975,1000,1025,1050,1075,1100,1125,1150,1175,1200,1225,1250,1275,1300,1325,1350,1375,1400,1425,1450,1475,1500,1525,1550,1575,1600,1625,1650,1675,1700,1725,1750,1775,1800,1825,1850,1875,1900,1925,1950,1975,2000fps(ヘルツ)であり、ここで例示した数値の何れか2つの間の範囲内であってもよい。
撮像装置2は、左カメラ2a及び右カメラ2bからなる、いわゆる2眼の撮像装置である。また、左カメラ2aの画角及び右カメラ2bの画角は、互いに重複する領域があることに留意されたい。また、撮像装置2において、可視光だけではなく紫外域や赤外域といったヒトが知覚できない帯域を計測可能なカメラを採用してもよい。このようなカメラを採用することによって、暗視野であっても本実施形態に係る計測システム1を用いた計測を実施することができる、という有利な効果を奏する。
(左カメラ2a)
左カメラ2aは、計測システム1において、右カメラ2bと並列に設けられ、本自動車の左側前方を撮像可能に構成される。具体的には、左カメラ2aの画角に、本自動車の前方に延在する路面又は前方に位置する障害物(例えば、前方車両、歩行者、動物等)がとらえられる。また、左カメラ2aは、後述の情報処理装置3における通信部31と電気通信回線(例えばUSBケーブル等)で接続され、撮像した画像を情報処理装置3に転送可能に構成される。
(右カメラ2b)
右カメラ2bは、計測システム1において、左カメラ2aと並列に設けられ、本自動車の右側前方を撮像可能に構成される。具体的には、右カメラ2bの画角に、本自動車の前方に延在する路面又は前方に位置する前方車両(すなわち障害物)がとらえられる。また、右カメラ2bは、後述の情報処理装置3における通信部31と電気通信回線(例えばUSBケーブル等)で接続され、撮像した画像を情報処理装置3に転送可能に構成される。
換言すると、左カメラ2a及び右カメラ2bの画角に含まれる対象物を、左画像IMa及び右画像IMbとして時系列に撮像可能に構成される。
1.3 情報処理装置3
図2は、情報処理装置3のハードウェア構成を示すブロック図である。図2に示されるように、情報処理装置3は、通信部31と、記憶部32と、制御部33とを有し、これらの構成要素が情報処理装置3の内部において通信バス30を介して電気的に接続されている。以下、各構成要素についてさらに説明する。
(通信部31)
通信部31は、USB、IEEE1394、Thunderbolt、有線LANネットワーク通信等といった有線型の通信手段が好ましいものの、無線LANネットワーク通信、3G/LTE/5G等のモバイル通信、Bluetooth(登録商標)通信等を必要に応じて含めてもよい。すなわち、これら複数の通信手段の集合として実施することがより好ましい。特に、前述の撮像装置2における左カメラ2a及び右カメラ2bとは、所定の高速通信規格(例えば、USB3.0やカメラリンク等)において通信することで、画像を受信可能に構成されることが好ましい。また、計測システム1が計測する対象物の物理量や本自動車の速度等の計測結果を表示するためのモニター(不図示)や、計測結果に基づいて本自動車を自動制御(自動運転)するための自動制御装置(不図示)が接続されてもよい。
(記憶部32)
記憶部32は、前述の記載により定義される様々な情報を記憶する。これは、例えばソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。また、これらの組合せであってもよい。
特に、記憶部32は、撮像装置2における左カメラ2a及び右カメラ2bによって撮像され、且つ通信部31が受信した左画像IMa及び右画像IMbを記憶する。記憶部32は、左画像IMaより変換された左IPM画像IM’a及び右画像IMbより変換された右IPM画像IM’bを記憶する。ここで、画像やIPM画像は、例えばRGB各8ビットのピクセル情報を具備する配列情報である。
また、記憶部32は、次に説明する制御部33が読み出し可能な、受付プログラムと、IPM変換プログラムと、矩形領域設定プログラムと、特徴点抽出プログラムと、計測プログラムとを記憶している。
(制御部33)
制御部33は、情報処理装置3に関連する全体動作の処理・制御を行う。制御部33は、例えば不図示の中央処理装置(Central Processing Unit:CPU)である。制御部33は、記憶部32に記憶された所定のプログラムを読み出すことによって、情報処理装置3に係る種々の機能を実現する。具体的には受付機能と、IPM変換機能と、矩形領域設定機能と、特徴点抽出機能と、特徴点情報算出機能と、計測機能とが該当する。すなわち、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されることで、図3に示されるように、受付部330、IPM変換部331、矩形領域設定部332、特徴点抽出部333、特徴点情報算出部334、及び計測部335として実行されうる。これらについては、第2節において詳述する。
なお、図2においては、単一の制御部33として表記されているが、実際はこれに限るものではなく、機能ごとに複数の制御部33を有するように実施してもよい。またそれらの組合せであってもよい。
2.機能構成
本節では、本実施形態の機能構成について説明する。図3は、情報処理装置3(制御部33)の機能構成を示すブロック図である。前述の制御部33に関して、情報処理装置3は、受付部330と、IPM変換部331と、矩形領域設定部332と、特徴点抽出部333と、特徴点情報算出部334と、計測部335とを備える。以下、各構成要素についてさらに説明する。
(受付部330)
受付部330は、撮像装置2によって撮像された画像を受け付けるように構成される。具体的には、受付部330は、通信部31を介して左画像IMa及び右画像IMbを受信し、これらを記憶部32に記憶させる。
(IPM変換部331)
IPM変換部331は、受付部330が受け付けた画像を逆透視投影変換してIPM画像(左IPM画像IM’a,右IPM画像IM’b)を生成するように構成される。ここでIPM画像とは、対象物を含む所定平面を俯瞰するように描画された画像である。換言すると、左画像IMaを逆透視投影変換することによって、左IPM画像IM’aが生成され、右画像IMbを逆透視投影変換することによって、右IPM画像IM’bが生成される。また、IPM変換部331は、左IPM画像IM’a及び右IPM画像IM’bに基づいて、対象物の相対的位置を大略的に把握することができる。これらについては、第3節において補足する。
(矩形領域設定部332)
図4は、左画像IMa及び右画像IMbにおいて設定された矩形領域Ra,Rbを示す概要図である。このように、矩形領域設定部332は、画像中において、対象物の少なくとも一部を包含する矩形領域を設定するように構成される。より詳細には、矩形領域設定部332は、左IPM画像IM’a及び右IPM画像IM’bに基づいて矩形領域Ra,Rbを設定するように構成される。このように矩形領域を設定することによって、画像全体で画像処理を施す場合に比べて、計算コストを削減することができる。また、範囲を限定しているため、次の特徴点抽出部333による各特徴点の対応付けに際しても誤対応(図5におけるNGと記載された組合せ)が低減される。特に、本実施形態では、撮像装置2の撮像レートが高いことから、1フレームあたりの対象物の移動距離が小さく、このような手法が極めて有効に機能する。
(特徴点抽出部333)
図5は、矩形領域Ra,Rbにおける対象物の特徴点の対応を示す概要図である。撮像装置2によって撮像された画像は、時刻t−1における第1の画像と時刻tにおける第2の画像とを含む。特徴点抽出部333は、時刻t−1の第1の画像において対象物に係る特徴点である第1の特徴点F1を複数抽出する。特に、矩形領域設定部332が矩形領域Ra,Rbを設定しているため、特徴点抽出部333は、矩形領域Ra,Rbの範囲で特徴点を抽出するように構成されるとよい。そして、矩形領域Raにおける各特徴点と、矩形領域Rbにおける各特徴点との対応付けが行われる。このとき、計算コストを考慮して、所定の幾何的な条件を考慮して誤対応(図5におけるNGと記載された組合せ)を除外するように実施することが好ましい。
図6は、特徴点がクラスタリングされ、各クラスタCに分類された態様を示している。このように、特徴点は、クラスタCに分類されたものであることが好ましい。クラスタリングの手法は、特に限定されず、例えば重心法が採用されうる。また、特徴点の数は多い方が好ましい。其の結果、統計的な処理が可能となり、精度向上に寄与すると解する。
また、特徴点抽出部333は、抽出した第1の特徴点F1のオプティカルフローOFを演算するように構成される。図7は、第1の特徴点F1のオプティカルフローOFを示す概要図である。ここでは、第1の特徴点F1a,F1b,F1c,F1dの4つの特徴点が例示されている。これらの特徴点は、クラスタCに分類されたものから任意に選んだ一点であるとする。そして、オプティカルフローOFa,OFb,OFc,OFdが演算されている。ここで、第1の特徴点F1のオプティカルフローOFとは、時刻t−1における第1の特徴点F1を始点とし、時刻tにおいて第1の特徴点F1と比較して所定の条件を満たす点(推定移動先EP)を終点としたベクトルである。オプティカルフローOFは、画像中における対象物の動きを表す指標として一般的に用いられる。特に、Lucas Kanade法によって計算コストを抑えて演算することが可能である。
そして、特徴点抽出部333は、前述の時刻t−1の第1の画像と同様に、時刻tの第2の画像において対象物に係る特徴点である第2の特徴点F2を複数抽出するように構成される。
(特徴点情報算出部334)
特徴点情報算出部334は、第1の特徴点F1の第2の画像における推定移動先EPをオプティカルフローOFに基づいて算出する。つまり、第1の特徴点F1に係る位置ベクトルに、オプティカルフローOF(ベクトル)を足し合わせることによって、推定移動先EPに係る位置ベクトルが求められる。ここでは、第1の特徴点F1a,F1b,F1c,F1dの推定移動先EPa,EPb,EPc,EPdがオプティカルフローOFa,OFb,OFc,OFdによって求められている。
図8は、推定移動先EP(図8A)と、第2の特徴点F2(図8B)とを比較した概要図である。特徴点情報算出部334は、これらの推定移動先EPと、特徴点抽出部333によって抽出された第2の特徴点F2とを比較することで、特徴点の新たな出現又は消滅を含む特徴点情報を算出するように構成される。より具体的には、推定移動先EPと第2の特徴点F2との距離を計算し、既定値以下に収まるもとを対応付けて、これに当てはまらないものがあれば、新たな特徴点の出現又は特徴点の消滅とみなすことができる。例えば、図8Aにおける推定移動先EPdに対応する第2の特徴点F2が図8Bにおいて存在しないことから、推定移動先EPdの元となる第1の特徴点F1dが消滅したと解する。一方、図8Bにおける第2の特徴点F2eは、これに対応する推定移動先EPが存在しないことから、新たに出現したものであると解する。
本自動車という立場で考えれば、新たな特徴点の出現は、本自動車と前方車両との間に側方からの新たな車両が割り込んで(例えば車線変更)、その側面が見え始めていることを意味すると解する。特徴点の消滅は、前方車両が側方に車線変更しようとしていることを意味すると解する。このような状況に際して、高い推定精度を実現することができる。なお、図8A及び図8Bでは、ある1点の出現とある1点の消滅の例が示されているが、実際には、クラスタCに含まれる特徴点の数は複数である。特に、対象物を各々認識させて、同一対象物中における特徴点のクラスタリングにおいて、あるクラスタCに含まれる特徴点の数が閾値よりも小さい場合は、アウトライアと判断してそのクラスタCを除去することが好ましい。このような構成によって、対象物が突然出現した場合でも、これを素早く認識することができるという有利な効果を奏する。
なお、前述の通り、第1の特徴点F1は、各クラスタCの代表点であることから、特徴点情報は、クラスタCの新たな出現又は消滅を含む情報であるともいえる。
(計測部335)
計測部335は、特徴点情報算出部334によって算出された特徴点情報に基づいて、対象物の移動に関する物理量を計測するように構成される。すなわち、こうして得られたフレーム間の2つの点群(第1の特徴点F1及び第2の特徴点F2)から、対象物のダイナミクス変化を捉える。つまり、オプティカルフローOFにより得られた点の移動を表す変換行列を繰り返し演算による最適化により求めることが好ましい。ところで、計測システム1によって直接計測される対象物の物理量は、本自動車に対する相対的なものであるから、本自動車の物理量(速度等)を別途計測することで、対象物の絶対的な物理量を計測するように実施してもよい。このような事情を鑑みると、ここでの物理量は、対象物までの距離と、対象物の奥行き方向の変位と、対象物の横方向の変位と、対象物の速度と、対象物の姿勢とのうち少なくとも1つを含む。なお、外れ値等を除外してより正確に物理量を計測するために、計測部335は、フィルタを用いて、物理量を推定的に計測するように構成されることが好ましい。このフィルタは、例えば、カルマンフィルタやベイズフィルタ等、制御系の状態空間を推定するものであれば特に限定されるものではない。
物理量を速度とするならば、本自動車から見て、自身の絶対速度と、その周辺に位置する対象物の相対速度及び絶対速度とを高い時間分解能で且つ高い精度で把握することで、今後の自動運転技術等の発展に大きく貢献すると期待される。特に、車線変更等に伴う新たな車両の出現や消滅をも素早く認識することができるため、衝突回避を担保しつつ車間距離を詰めた隊列走行をすることが可能となり、経済的な効果が大きいと考えられる。このように、車両及び移動体の姿勢、速度、加速度が計測できることから、図12及び図13に示されるような割り込み判断までできるようになる。
3.逆透視投影変換
本節では、逆透視投影変換について説明する。図9は、逆透視投影変換の概要図である。図10は、IPM変換部331による処理の流れを示す概要図である。ここではモデルとして、ピンホールカメラを仮定するとともに、カメラのピッチ角のみを考慮して表式化していることにも留意されたい。もちろん、魚眼カメラやオムニディレクショナルカメラを仮定してもよいし、ロール角を考慮して表式化してもよい。図2に示されるように、世界座標系O_Wで表された点(X_W、Y_W,Z_W)をカメラ画像平面π_Cに投影したときの点(x,y)は[数1]のように表される。
Figure 2021092996


ただし、Kはカメラ(左カメラ2a及び右カメラ2b)の内部行列、Πはカメラ座標系O_Cからカメラ画像平面π_Cへの射影行列、R∈SO(3)及びT∈R^3は、世界座標系O_Wからカメラ座標系O_Cへの回転行列、及び並進ベクトルをそれぞれ表す。
いま、左カメラ2a及び右カメラ2bに写っている対象物がある平面π上にのみ存在する場合を考える。このとき、画像平面上の点とπ上の点の間には1対1対応があるため、画像平面からπへの1対1の写像を考えることができる。この写像を逆透視投影(Inverse Perspective Mapping)という。R、Tがそれぞれ、
Figure 2021092996


と表されるとき、画像上の点(x,y)の逆透視投影像であるπ上の点(X_W,Y_W,Z_W)は、(x,y)を用いて、[数3]のように計算される。
Figure 2021092996

ここで、f_x、f_yはそれぞれx、y方向の焦点距離、(o_x,o_y)は光学中心である。本実施形態では、この写像によって、撮像装置2によって撮像された画像を射影した画像をIPM画像と呼ぶ。2台のカメラ(左カメラ2a及び右カメラ2b)が同じ平面を撮像している場合、計算されるIPM画像の対(左IPM画像IM’a及び右IPM画像IM’b)で、平面上のある1点に対応する画素の輝度値は同一となる。しかし、平面上にない対象物が視野内に存在する場合、IPM画像の対に輝度の差が生じる。この差(差分D)を検出することにより、視野内に存在する前方車両等の対象物を検知することができる。この手法は、平面のテクスチャに対してロバストであるため、影が写り込んでいるような単眼カメラが不得意とする状況でも、対象物を正確に検知することができる。
これらの流れが図10に示されている。まず、左カメラ2aによる左画像IMaと、右カメラ2bによる右画像IMbとが撮像される。続いて、左画像IMaを変換して得られた左IPM画像IM’aと、右画像IMbを変換して得られた右IPM画像IM’bとが生成される。さらに、左IPM画像IM’a及び右IPM画像IM’bの差分D(所定のしきい値をもって2値化したもの)が得られる。差分Dにおいて、対象物のエッジ部分が白色のピクセルとして検出される。このようにして、対象物の位置を大略的に把握し、これに基づいて、矩形領域設定部332が適切な矩形領域Ra,Rbを設定することとなる。
4.計測方法
本節では、対象物を計測する計測方法について詳述する。対象物を計測する計測方法は、撮像ステップと、受付ステップと、特徴点抽出ステップと、特徴点情報産出ステップと、計測ステップとを備える。撮像ステップでは、画角に含まれる対象物の画像を100fps以上で撮像する。ここで画像は、時刻t−1における第1の画像と時刻tにおける第2の画像とを含む。受付ステップでは、撮像ステップで撮像された画像を受け付ける。特徴点抽出ステップでは、第1の画像において対象物に係る特徴点である複数の第1の特徴点F1を抽出するとともに、そのオプティカルフローOFを演算する。続いて、第2の画像において対象物に係る特徴点である複数の第2の特徴点F2を抽出する。特徴点情報算出ステップでは、第1の特徴点F1の第2の画像における推定移動先EPをオプティカルフローOFに基づいて算出するとともに、これらの推定移動先EPと第2の特徴点F2とを比較することで、特徴点の新たな出現又は消滅を含む特徴点情報を算出す。計測ステップでは、特徴点情報に基づいて、対象物の移動に関する物理量を計測する。
図11は、計測方法の流れを示すアクティビティ図である。以下、図11における各アクティビティに沿ってこの計測方法を具体的に説明する。なお、図示の通り、アクティビティA1〜A10は、時系列で繰り返される。
[ここから]
(アクティビティA1)
撮像装置2(左カメラ2a及び右カメラ2b)が対象物を100fps以上の撮像レートで画像(左画像IMa及び右画像IMb)として撮像する。
(アクティビティA2)
アクティビティA1に続いて、IPM変換部331が画像に対して逆透視投影変換を行って、IPM画像(左IPM画像IM’a及び右IPM画像IM’b)を生成する。
(アクティビティA3)
アクティビティA2に続いて、IPM変換部331が対象物の位置を大略的に把握する。
(アクティビティA4)
アクティビティA3に続いて、矩形領域設定部332がアクティビティA3で大略的に把握された対象物の位置に基づいて、左画像IMaに矩形領域Raを、右画像IMbに矩形領域Rbをそれぞれ設定する。
(アクティビティA5)
アクティビティA4に続いて、特徴点抽出部333が矩形領域Ra,Rbにおいて複数の特徴点を抽出し、その位置の対応関係を把握する。
(アクティビティA6)
アクティビティA5に続いて、特徴点抽出部333が抽出した特徴点をクラスタリングする。各クラスタCの代表点を第1の特徴点F1とする。
(アクティビティA7)
アクティビティA6に続いて、特徴点抽出部333が各クラスタCにおける第1の特徴点F1に対するオプティカルフローOFを算出する。
(アクティビティA8)
アクティビティA7に続いて、特徴点抽出部333が第1の特徴点F1とオプティカルフローOFとに基づいて、第1の特徴点F1の推定移動先EPを算出する。
(アクティビティA9)
アクティビティA8に続いて、特徴点情報算出部334が推定移動先EPと第2の特徴点F2とを比較することで、特徴点の出現又は消滅に関する情報を含む特徴点情報を算出する。
(アクティビティA10)
アクティビティA9に続いて、計測部335がアクティビティA9において算出された特徴点情報に基づいて、対象物の物理量を計測する。
[ここまで]
このような計測方法によれば、新たな対象物の出現や既存の対象物の状態変化等を素早く認識し、且つこれらの物理量を、オフラインに限らずリアルタイムにも計測することができるという有利な効果を奏する。
5.変形例
本節では、計測システム1の変形例について説明する。すなわち、次のような態様によって、本実施形態に係る計測システム1をさらに創意工夫してもよい。
(1)例えば計測システム1を搭載した本自動車であれば、計測された対象物の物理量に基づいて、一部又は全部について自動運転がなされてもよい。例えば、衝突を回避するためのブレーキ動作や、ハンドル動作が考えられうる。また、計測された対象物の認識状況を、本自動車の運転者が認知できるように、本自動車内に取り付けられたモニターに表示されるように実施してもよい。
(2)前述の実施形態では、左カメラ2a及び右カメラ2bからなる2眼の撮像装置2を用いているが、3つ以上のカメラを用いた3眼以上の撮像装置2を実施してもよい。この際、異なる種類のカメラ(例えば、可視光カメラ及び赤外線カメラ)を組み合わせて実施してもよい。カメラの個数を増やすことで、計測システム1による計測に係るロバスト性が向上するという、有利な効果を奏する。
(3)前述の実施形態では、時刻t−1及び時刻tを用いて特徴点情報が算出されているが、これ以外の時刻も含めた複数時刻の画像を合わせて処理してもよい。処理する時系列の画像を増やすことで、さらなる精度向上が期待される。
(4)IPM変換部331及び矩形領域設定部332に係る対象物の認識に関する処理と、特徴点抽出部333、特徴点情報算出部334及び計測部335に係る対象物のトラッキングに関する処理とを並列化することが好ましい。このような構成によれば、処理の高速化に寄与すると解する。
(5)撮像装置2及び情報処理装置3を、計測システム1としてではなく、これらの機能を有する1つの計測装置として実現してもよい。具体的には例えば、3次元計測装置、画像処理装置、投影表示装置、3次元シミュレータ装置等が挙げられる。かかる場合、対象物を計測する計測装置は、受付部330と、特徴点抽出部333と、特徴点情報算出部334と、計測部335とを備える。受付部330は、対象物を含む画像を受け付けるように構成される。ここで画像は、時刻t−1における第1の画像と時刻tにおける第2の画像とを含む。特徴点抽出部333は、第1の画像において対象物に係る特徴点である複数の第1の特徴点F1を抽出するとともに、そのオプティカルフローOFを演算するように構成される。続いて、第2の画像において対象物に係る特徴点である複数の第2の特徴点F2を抽出するように構成される。特徴点情報算出部334は、第1の特徴点F1の第2の画像における推定移動先EPをオプティカルフローOFに基づいて算出するとともに、これらの推定移動先EPと第2の特徴点F2とを比較することで、特徴点の新たな出現又は消滅を含む特徴点情報を算出するように構成される。計測部335は、特徴点情報に基づいて、対象物の移動に関する物理量を計測するように構成される。
(6)コンピュータを計測装置として機能させる計測プログラムを実施してもよい。この計測プログラムは、サーバからダウンロード可能な態様であってもよいし、不揮発性又は揮発性の記憶媒体に記憶させて、このようなプログラムが頒布されてもよい。
(7)撮像装置2が撮像した画像IMを直接画像処理して位置合わせを行ってもよいし、撮像装置2以外のセンサ、例えば、レーザ変位センサ、赤外線センサ等を用いる態様であってもよい。
(8)本自動車に代えて、ドローン等3次元に移動可能な移動体に計測システム1を搭載してもよい。
6.第2の実施形態
本節では、第2の実施形態に係る計測システム1について説明する。なお、第1の実施形態に係る計測システム1との共通部分についてはその記載を省略する。
図14は、第2の実施形態に係る情報処理装置3(制御部33)の機能構成を示すブロック図である。第2の実施形態に係る計測システム1は、対象物を含む矩形領域Ra,Rbを設定する上で、IPM変換部331による逆透視投影変換に代えて、機械学習部331aによる機械学習を採用する。かかる場合、記憶部32は、種々の対象物とこれらに対する矩形領域との相関を予め学習させた学習済みモデルを記憶する。矩形領域設定部332は、学習済みモデルに基づいて矩形領域を設定するように構成される。具体的には、情報処理装置3(制御部33)が、重畳対象物分離部332aと、サイズ変更部332bとをさらに備える。
特に、対象物が複数ある場合、情報処理装置3がそれぞれを分離的に認識可能に構成される。より詳細には、複数の対象物それぞれの囲う所定領域が機械学習によって予め学習されていることにより、対象物それぞれを分離的に認識可能に構成される。例えば、対象物として、本自動車に対する前方車両及び前々方車両の移動に関する物理量を計測することに留意されたい。以下詳細を説明する。
(重畳対象物分離部332a)
重畳対象物分離部332aは、前々方車両を含む画像に対して、前方車両に係る領域を単色で塗って特徴を消す消去処理を実行するように構成される。これにより前方車両学習の抑制を行う。このとき、視差による前方車両の情報が残らないように、左画像IMa及び右画像IMbのそれぞれの矩形領域Ra,Rbの重畳領域を内包する最小の長方形を単色塗付領域として設定する。
(サイズ変更部332b)
サイズ変更部332bは、矩形領域のサイズを変更するように構成される。画像中における車両を含む面積は、時間とともに変化することが想定される。このような変化に対する頑健性を維持するために、サイズ変更部332bは、車間距離を用いて矩形領域の大きさをスケーリングし、各矩形領域が占める車両面積の割合がほとんど変化しないように矩形領域のサイズを変更する。
また、矩形領域のサイズ変化に伴う計算量増加を回避するため、矩形領域内の画像を特定の固定サイズにリサイズしてトラッキングする。これにより、矩形領域が大きい場合でも計算時間が伸びることなくトラッキングのアルゴリズムが適用可能となる。
このような構成によれば、対象物が複数の場合においても、より頑健に対象物を分離して区別しつつ、第1の実施形態に係る計測システム1が有する効果をさらに奏することができる。
7.結言
以上のように、本実施形態によれば、対象物の突然の出現等にも対応することができる、周囲の対象物の計測システム、車両、計測方法、計測装置及び計測プログラムを実施することができる。
次に記載の各態様で提供されてもよい。
前記計測システムにおいて、矩形領域設定部をさらに備え、前記矩形領域設定部は、前記画像中において、前記対象物の少なくとも一部を包含する矩形領域を設定するように構成され、前記特徴点抽出部は、前記矩形領域の範囲で前記特徴点を抽出するように構成されるもの。
前記計測システムにおいて、IPM変換部をさらに備え、前記IPM変換部は、前記受付部が受け付けた前記画像を逆透視投影変換してIPM画像を生成するように構成され、ここで前記IPM画像とは、前記対象物を含む所定平面を俯瞰するように描画された画像で、前記矩形領域設定部は、前記IPM画像に基づいて前記矩形領域を設定するように構成されるもの。
前記計測システムにおいて、記憶部をさらに備え、前記記憶部は、種々の対象物とこれらに対する前記矩形領域との相関を予め学習させた学習済みモデルを記憶し、前記矩形領域設定部は、前記学習済みモデルに基づいて前記矩形領域を設定するように構成されるもの。
前記計測システムにおいて、前記特徴点は、クラスタに分類されたもので、前記特徴点情報は、前記クラスタの新たな出現又は消滅を含む情報であるもの。
前記計測システムにおいて、前記物理量は、前記対象物までの距離と、前記対象物の奥行き方向の変位と、前記対象物の横方向の変位と、前記対象物の速度と、前記対象物の姿勢とのうち少なくとも1つを含むもの。
前記計測システムにおいて、前記計測部は、フィルタを用いて、前記物理量を推定的に計測するように構成されるもの。
前記計測システムにおいて、車両に載置されたもので、前記対象物が前記車両に対する障害物又は他の車両であるもの。
車両であって、前記計測システムを備えるもの。
対象物を計測する計測方法であって、撮像ステップと、受付ステップと、特徴点抽出ステップと、特徴点情報産出ステップと、計測ステップとを備え、前記撮像ステップでは、画角に含まれる前記対象物の画像を100fps以上で撮像し、ここで前記画像は、時刻t−1における第1の画像と時刻tにおける第2の画像とを含み、前記受付ステップでは、前記撮像ステップで撮像された前記画像を受け付け、前記特徴点抽出ステップでは、前記第1の画像において前記対象物に係る特徴点である複数の第1の特徴点を抽出するとともに、そのオプティカルフローを演算し、続いて、前記第2の画像において前記対象物に係る特徴点である複数の第2の特徴点を抽出し、前記特徴点情報算出ステップでは、前記第1の特徴点の前記第2の画像における推定移動先を前記オプティカルフローに基づいて算出するとともに、これらの推定移動先と前記第2の特徴点とを比較することで、前記特徴点の新たな出現又は消滅を含む特徴点情報を算出し、前記計測ステップでは、前記特徴点情報に基づいて、前記対象物の移動に関する物理量を計測するもの。
対象物を計測する計測装置であって、受付部と、特徴点抽出部と、特徴点情報算出部と、計測部とを備え、前記受付部は、前記対象物を含む画像を受け付けるように構成され、ここで前記画像は、時刻t−1における第1の画像と時刻tにおける第2の画像とを含み、前記特徴点抽出部は、前記第1の画像において前記対象物に係る特徴点である複数の第1の特徴点を抽出するとともに、そのオプティカルフローを演算するように構成され、続いて、前記第2の画像において前記対象物に係る特徴点である複数の第2の特徴点を抽出するように構成され、前記特徴点情報算出部は、前記第1の特徴点の前記第2の画像における推定移動先を前記オプティカルフローに基づいて算出するとともに、これらの推定移動先と前記第2の特徴点とを比較することで、前記特徴点の新たな出現又は消滅を含む特徴点情報を算出するように構成され、前記計測部は、前記特徴点情報に基づいて、前記対象物の移動に関する物理量を計測するように構成されるもの。
計測プログラムであって、コンピュータを前記計測装置として機能させるもの。
もちろん、この限りではない。
最後に、本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 :計測システム
2 :撮像装置
2a :左カメラ
2b :右カメラ
3 :情報処理装置
30 :通信バス
31 :通信部
32 :記憶部
33 :制御部
330 :受付部
331 :IPM変換部
331a :機械学習部
332 :矩形領域設定部
332a :重畳対象物分離部
332b :サイズ変更部
333 :特徴点抽出部
334 :特徴点情報算出部
335 :計測部
C :クラスタ
D :差分
EP :推定移動先
F1 :第1の特徴点
F2 :第2の特徴点
IM :画像
IM’a :左IPM画像
IM’b :右IPM画像
IMa :左画像
IMb :右画像
OF :オプティカルフロー
O_C :カメラ座標系
O_W :世界座標系
Ra :矩形領域
Rb :矩形領域

Claims (12)

  1. 対象物を計測する計測システムであって、
    撮像装置と、情報処理装置とを備え、
    前記撮像装置は、画角に含まれる前記対象物の画像を100fps以上で撮像可能に構成され、ここで前記画像は、時刻t−1における第1の画像と時刻tにおける第2の画像とを含み、
    前記情報処理装置は、受付部と、特徴点抽出部と、特徴点情報算出部と、計測部とを備え、
    前記受付部は、前記撮像装置によって撮像された前記画像を受け付けるように構成され、
    前記特徴点抽出部は、
    前記第1の画像において前記対象物に係る特徴点である第1の特徴点を複数抽出するとともに、そのオプティカルフローを演算するように構成され、
    続いて、前記第2の画像において前記対象物に係る特徴点である第2の特徴点を複数抽出するように構成され、
    前記特徴点情報算出部は、前記第1の特徴点の前記第2の画像における推定移動先を前記オプティカルフローに基づいて算出するとともに、これらの推定移動先と前記第2の特徴点とを比較することで、前記特徴点の新たな出現又は消滅を含む特徴点情報を算出するように構成され、
    前記計測部は、前記特徴点情報に基づいて、前記対象物の移動に関する物理量を計測するように構成されるもの。
  2. 請求項1に記載の計測システムにおいて、
    矩形領域設定部をさらに備え、
    前記矩形領域設定部は、前記画像中において、前記対象物の少なくとも一部を包含する矩形領域を設定するように構成され、
    前記特徴点抽出部は、前記矩形領域の範囲で前記特徴点を抽出するように構成されるもの。
  3. 請求項2に記載の計測システムにおいて、
    IPM変換部をさらに備え、
    前記IPM変換部は、前記受付部が受け付けた前記画像を逆透視投影変換してIPM画像を生成するように構成され、ここで前記IPM画像とは、前記対象物を含む所定平面を俯瞰するように描画された画像で、
    前記矩形領域設定部は、前記IPM画像に基づいて前記矩形領域を設定するように構成されるもの。
  4. 請求項2に記載の計測システムにおいて、
    記憶部をさらに備え、
    前記記憶部は、種々の対象物とこれらに対する前記矩形領域との相関を予め学習させた学習済みモデルを記憶し、
    前記矩形領域設定部は、前記学習済みモデルに基づいて前記矩形領域を設定するように構成されるもの。
  5. 請求項1〜請求項4の何れか1つに記載の計測システムにおいて、
    前記特徴点は、クラスタに分類されたもので、
    前記特徴点情報は、前記クラスタの新たな出現又は消滅を含む情報であるもの。
  6. 請求項1〜請求項5の何れか1つに記載の計測システムにおいて、
    前記物理量は、前記対象物までの距離と、前記対象物の奥行き方向の変位と、前記対象物の横方向の変位と、前記対象物の速度と、前記対象物の姿勢とのうち少なくとも1つを含むもの。
  7. 請求項1〜請求項6の何れか1つに記載の計測システムにおいて、
    前記計測部は、フィルタを用いて、前記物理量を推定的に計測するように構成されるもの。
  8. 請求項1〜請求項7の何れか1つに記載の計測システムにおいて、
    車両に載置されたもので、前記対象物が前記車両に対する障害物又は他の車両であるもの。
  9. 車両であって、
    請求項1〜請求項8の何れか1つに記載の計測システムを備えるもの。
  10. 対象物を計測する計測方法であって、
    撮像ステップと、受付ステップと、特徴点抽出ステップと、特徴点情報産出ステップと、計測ステップとを備え、
    前記撮像ステップでは、画角に含まれる前記対象物の画像を100fps以上で撮像し、ここで前記画像は、時刻t−1における第1の画像と時刻tにおける第2の画像とを含み、
    前記受付ステップでは、前記撮像ステップで撮像された前記画像を受け付け、
    前記特徴点抽出ステップでは、
    前記第1の画像において前記対象物に係る特徴点である複数の第1の特徴点を抽出するとともに、そのオプティカルフローを演算し、
    続いて、前記第2の画像において前記対象物に係る特徴点である複数の第2の特徴点を抽出し、
    前記特徴点情報算出ステップでは、前記第1の特徴点の前記第2の画像における推定移動先を前記オプティカルフローに基づいて算出するとともに、これらの推定移動先と前記第2の特徴点とを比較することで、前記特徴点の新たな出現又は消滅を含む特徴点情報を算出し、
    前記計測ステップでは、前記特徴点情報に基づいて、前記対象物の移動に関する物理量を計測するもの。
  11. 対象物を計測する計測装置であって、
    受付部と、特徴点抽出部と、特徴点情報算出部と、計測部とを備え、
    前記受付部は、前記対象物を含む画像を受け付けるように構成され、ここで前記画像は、時刻t−1における第1の画像と時刻tにおける第2の画像とを含み、
    前記特徴点抽出部は、
    前記第1の画像において前記対象物に係る特徴点である複数の第1の特徴点を抽出するとともに、そのオプティカルフローを演算するように構成され、
    続いて、前記第2の画像において前記対象物に係る特徴点である複数の第2の特徴点を抽出するように構成され、
    前記特徴点情報算出部は、前記第1の特徴点の前記第2の画像における推定移動先を前記オプティカルフローに基づいて算出するとともに、これらの推定移動先と前記第2の特徴点とを比較することで、前記特徴点の新たな出現又は消滅を含む特徴点情報を算出するように構成され、
    前記計測部は、前記特徴点情報に基づいて、前記対象物の移動に関する物理量を計測するように構成されるもの。
  12. 計測プログラムであって、
    コンピュータを請求項11に記載の計測装置として機能させるもの。
JP2019223499A 2019-12-11 2019-12-11 計測システム、車両、計測方法、計測装置及び計測プログラム Pending JP2021092996A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019223499A JP2021092996A (ja) 2019-12-11 2019-12-11 計測システム、車両、計測方法、計測装置及び計測プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019223499A JP2021092996A (ja) 2019-12-11 2019-12-11 計測システム、車両、計測方法、計測装置及び計測プログラム

Publications (1)

Publication Number Publication Date
JP2021092996A true JP2021092996A (ja) 2021-06-17

Family

ID=76312473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019223499A Pending JP2021092996A (ja) 2019-12-11 2019-12-11 計測システム、車両、計測方法、計測装置及び計測プログラム

Country Status (1)

Country Link
JP (1) JP2021092996A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102499023B1 (ko) * 2022-01-27 2023-02-14 포티투닷 주식회사 차로 별 트래픽 흐름을 결정하는 장치 및 방법
JP7253302B1 (ja) * 2022-11-14 2023-04-06 株式会社ASED Lab. 情報処理システム、プログラム及び情報処理方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158640A (ja) * 2006-12-21 2008-07-10 Fuji Heavy Ind Ltd 移動物体検出装置
WO2009005025A1 (ja) * 2007-07-03 2009-01-08 Konica Minolta Holdings, Inc. 移動物体検出装置
JP2012173803A (ja) * 2011-02-17 2012-09-10 Panasonic Corp 安全運転支援装置及び安全運転支援方法
JP2016024602A (ja) * 2014-07-18 2016-02-08 日立オートモティブシステムズ株式会社 物体検知装置及びそれを用いた車両制御システム
JP2017167608A (ja) * 2016-03-14 2017-09-21 株式会社Jvcケンウッド 物体認識装置、物体認識方法及び物体認識プログラム
JP2018063606A (ja) * 2016-10-13 2018-04-19 株式会社デンソー 移動検出装置、移動検出方法
JP2018097582A (ja) * 2016-12-13 2018-06-21 株式会社デンソー 運転支援装置、及び運転支援方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158640A (ja) * 2006-12-21 2008-07-10 Fuji Heavy Ind Ltd 移動物体検出装置
WO2009005025A1 (ja) * 2007-07-03 2009-01-08 Konica Minolta Holdings, Inc. 移動物体検出装置
JP2012173803A (ja) * 2011-02-17 2012-09-10 Panasonic Corp 安全運転支援装置及び安全運転支援方法
JP2016024602A (ja) * 2014-07-18 2016-02-08 日立オートモティブシステムズ株式会社 物体検知装置及びそれを用いた車両制御システム
JP2017167608A (ja) * 2016-03-14 2017-09-21 株式会社Jvcケンウッド 物体認識装置、物体認識方法及び物体認識プログラム
JP2018063606A (ja) * 2016-10-13 2018-04-19 株式会社デンソー 移動検出装置、移動検出方法
JP2018097582A (ja) * 2016-12-13 2018-06-21 株式会社デンソー 運転支援装置、及び運転支援方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102499023B1 (ko) * 2022-01-27 2023-02-14 포티투닷 주식회사 차로 별 트래픽 흐름을 결정하는 장치 및 방법
JP7253302B1 (ja) * 2022-11-14 2023-04-06 株式会社ASED Lab. 情報処理システム、プログラム及び情報処理方法

Similar Documents

Publication Publication Date Title
CN112292711B (zh) 关联lidar数据和图像数据
EP3418943B1 (en) Object detecting apparatus, object detecting method, and computer-readable medium
US10860870B2 (en) Object detecting apparatus, object detecting method, and computer program product
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
US8406472B2 (en) Method and system for processing image data
JP6574611B2 (ja) 立体画像に基づいて距離情報を求めるためのセンサシステム
CN107273788B (zh) 在车辆中执行车道检测的成像系统与车辆成像系统
US11233983B2 (en) Camera-parameter-set calculation apparatus, camera-parameter-set calculation method, and recording medium
JP2014138420A (ja) 自律車両用の奥行き検知方法及びシステム
JP7135665B2 (ja) 車両制御システム、車両の制御方法及びコンピュータプログラム
JP2014137815A (ja) 歪みのあるカメラ画像を補正するシステム及び方法
US11748998B1 (en) Three-dimensional object estimation using two-dimensional annotations
JP4967758B2 (ja) 物体移動の検出方法及び検出装置
JP2021092996A (ja) 計測システム、車両、計測方法、計測装置及び計測プログラム
JP2012252501A (ja) 走行路認識装置及び走行路認識用プログラム
Nambi et al. FarSight: a smartphone-based vehicle ranging system
JP7360520B1 (ja) オブジェクト追跡統合方法及び統合装置
JP2019087166A (ja) 撮影画像に含まれる境界線を検出するための装置、方法、及びプログラム
CN114170267A (zh) 目标跟踪方法、装置、设备及计算机可读存储介质
JPWO2020122143A1 (ja) 計測システム、計測方法、及び計測プログラム
KR20200072590A (ko) 자동 주차 기능을 위한 주차선 이탈 감지 방법 및 장치
WO2020246202A1 (ja) 計測システム、計測方法、及び計測プログラム
JP2019096031A (ja) 推定プログラム、推定装置、及び推定方法
US20220406070A1 (en) Method and device for recognizing an object for a vehicle including a mono camera, and camera system
WO2021230314A1 (ja) 計測システム、車両、計測装置、計測プログラム及び計測方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200706

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231010