WO2020122143A1 - 計測システム、計測方法、及び計測プログラム - Google Patents

計測システム、計測方法、及び計測プログラム Download PDF

Info

Publication number
WO2020122143A1
WO2020122143A1 PCT/JP2019/048554 JP2019048554W WO2020122143A1 WO 2020122143 A1 WO2020122143 A1 WO 2020122143A1 JP 2019048554 W JP2019048554 W JP 2019048554W WO 2020122143 A1 WO2020122143 A1 WO 2020122143A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
ipm
measuring
unit
measurement system
Prior art date
Application number
PCT/JP2019/048554
Other languages
English (en)
French (fr)
Inventor
平野 正浩
拓 妹尾
則政 岸
正俊 石川
Original Assignee
国立大学法人 東京大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人 東京大学 filed Critical 国立大学法人 東京大学
Priority to JP2020559296A priority Critical patent/JP7169689B2/ja
Priority to CN201980080871.XA priority patent/CN113167579B/zh
Priority to US17/299,362 priority patent/US20220018658A1/en
Publication of WO2020122143A1 publication Critical patent/WO2020122143A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • G01C11/12Interpretation of pictures by comparison of two or more pictures of the same area the pictures being supported in the same relative position as when they were taken
    • G01C11/26Interpretation of pictures by comparison of two or more pictures of the same area the pictures being supported in the same relative position as when they were taken using computers to control the position of the pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • H04N13/264Image signal generators with monoscopic-to-stereoscopic image conversion using the relative movement of objects in two video frames or fields
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Abstract

【課題】計測すべき対象物(障害物)の存在をすばやく且つ確実に検知することで、産業における安全なオペレーションを実現可能な計測システム、計測方法、及び計測プログラムを提供すること。 【解決手段】本発明の一態様によれば、対象物の位置を計測可能に構成される計測システムであって、撮像装置と、情報処理装置とを備え、前記撮像装置は、フレームレートが100fps以上のカメラであり、前記カメラの画角に含まれる前記対象物を、画像として撮像可能に構成され、前記情報処理装置は、通信部と、IPM変換部と、位置計測部とを備え、前記通信部は、前記撮像装置と接続され、前記撮像装置によって撮像された前記画像を受信可能に構成され、前記IPM変換部は、前記対象物を含む前記画像の少なくとも一部を所定領域として設定し、前記画像を逆透視投影変換して、前記所定領域に限定されたIPM画像を生成するように構成され、ここで前記IPM画像とは、前記対象物を含む所定平面を俯瞰するように描画された画像であり、前記位置計測部は、前記IPM画像に基づいて、前記対象物の位置を計測可能に構成される、計測システムが提供される。

Description

計測システム、計測方法、及び計測プログラム
 本発明は、計測システム、計測方法、及び計測プログラムに関する。
 産業界において、静止、又は移動している計測システムによって、その周辺環境を適切に認識することは、安全なオペレーションを実現する要素技術の1つである。特に、計測システムの視界に対象物(障害物)が侵入したときに、その存在をすばやく且つ確実に検知する必要がある。例えば、特許文献1には、障害物を検知する計測システムが開示されている。かかる計測システムは、カメラで得られた画像を逆透視投影変換して、IPM画像と呼ばれる所定平面を俯瞰するように描画された画像を生成し、IPM画像から障害物を検知するように構成されている。
特開2013-65304号公報
 しかしながら、特許文献1に開示された計測システムにおける逆透視投影変換とは、処理時間を要するものであり、その結果、動作レートが低く且つレイテンシも大きくならざるを得ない。その結果、肝心の安全性を確保するほどに十分な性能を有していない。
 本発明は、かかる事情を鑑みてなされたものであり、計測すべき対象物(障害物)の存在をすばやく且つ確実に検知することで、産業における安全なオペレーションを実現可能な計測システム、計測方法、及び計測プログラムを提供することを目的とする。
 本発明の一態様によれば、対象物の位置を計測可能に構成される計測システムであって、撮像装置と、情報処理装置とを備え、前記撮像装置は、フレームレートが100fps以上のカメラであり、前記カメラの画角に含まれる前記対象物を、画像として撮像可能に構成され、前記情報処理装置は、通信部と、IPM変換部と、位置計測部とを備え、前記通信部は、前記撮像装置と接続され、前記撮像装置によって撮像された前記画像を受信可能に構成され、前記IPM変換部は、前記対象物を含む前記画像の少なくとも一部を所定領域として設定し、前記画像を逆透視投影変換して、前記所定領域に限定されたIPM画像を生成するように構成され、ここで前記IPM画像とは、前記対象物を含む所定平面を俯瞰するように描画された画像であり、前記位置計測部は、前記IPM画像に基づいて、前記対象物の位置を計測可能に構成される、計測システムが提供される。
 本発明に係るシステムでは、フレームレートが100fps以上のカメラによって対象物を撮像し、かかる画像を逆透視投影変換して所定領域に限定されたIPM画像を生成し、これを用いて対象物の位置を計測することを特徴とする。100fps以上という高いフレームレートのカメラを用いることで、対象物の存在しうる位置が限定されるので、これを前提条件として所定領域に限定することで逆透視投影変換及び位置計測にかかる処理時間を短くすることができる。その結果、駆動周波数を高くするとともにレイテンシを小さくし、より安全なオペレーションを実現することができる、という有利な効果を奏する。
実施形態に係るシステムの機能ブロック図。 逆透視投影変換の概要図。 [図3A]第1のカメラ(左)による第1の画像、[図3B]第2のカメラ(右)による第2の画像、[図3C]第1の画像を変換して得られた第1のIPM画像、[図3D]第2の画像を変換して得られた第2のIPM画像、[図3E]第1及び第2のIPM画像の差分、[図3F]不図示の別カメラによって撮像された俯瞰図。 [図4A]図3Eの差分画像から得られた第1のヒストグラム、[図4B]図3Eの差分画像から得られた第2のヒストグラム。 計測方法の流れを示すフローチャート。 状態に関するパラメータを考慮した所定領域の決定を示す概要図。 機械学習の流れを示す概要図。 カメラのピッチ角と、路面上の特徴点の動き(オプティカルフロー)との関係を示す概要図。 カメラのピッチ角と、路面上の特徴点の動き(オプティカルフロー)との関係を示す概要図。 IPM変換処理前の画像IMに対するオプティカルフローと(図10A)、1回目IPM変換処理で得られたオプティカルフロー(図10B)と、2回目のIPM変換処理で得られたオプティカルフロー(図10C)とを比較した図。
 以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。特に、本明細書において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、0又は1で構成される2進数のビット集合体として信号値の高低によって表され、広義の回路上で通信・演算が実行されうる。
 また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。
1.全体構成
 第1節では、計測システム1の全体構成について説明する。図1は、本実施形態に係る計測システム1の構成概要を示す図である。計測システム1は、撮像装置2と、情報処理装置3とを備え、これらが電気的に接続されたシステムである。計測システム1は、静止して使用してもよいが、特になんらかの移動手段に設置して使用することが好ましい。移動手段とは、例えば、自動車、列車(公共交通機関だけでなく遊戯用等も含む)、船舶、飛行体(飛行機、ヘリコプター、ドローン等を含む)、移動型ロボット等が想定される。本明細書では、例として自動車を取り上げて説明を行い、計測システム1が搭載された自動車を「本自動車」と定義する。すなわち、計測システム1は、本自動車の、例えば、前方に位置する前方車両(障害物である対象物)の位置を計測するために用いられる。
1.1 撮像装置2
 撮像装置2は、外界の情報を画像として取得可能に構成される、いわゆるビジョンセンサ(カメラ)であり、特に高速ビジョンと称するフレームレートが高いものが採用されることが好ましい。フレームレートは、例えば、100fps以上であり、好ましくは、250fps以上であり、更に好ましくは500fps又は1000fpsである。具体的には例えば、100、125、150、175、200、225、250、275、300、325、350、375、400、425、450、475、500、525、550、575、600、625、650、675、700、725、750、775、800、825、850、875、900、925、950、975、1000、1025、1050、1075、1100、1125、1150、1175、1200、1225、1250、1275、1300、1325、1350、1375、1400、1425、1450、1475、1500、1525、1550、1575、1600、1625、1650、1675、1700、1725、1750、1775、1800、1825、1850、1875、1900、1925、1950、1975、2000fps(ヘルツ)であり、ここで例示した数値の何れか2つの間の範囲内であってもよい。より具体的には、撮像装置2は、第1のカメラ21及び第2のカメラ22からなる、いわゆる2眼の撮像装置である。また、第1のカメラ21の画角及び第2のカメラ22の画角は、互いに重複する領域があることに留意されたい。また、撮像装置2において、可視光だけではなく紫外域や赤外域といったヒトが知覚できない帯域を計測可能なカメラを採用してもよい。このようなカメラを採用することによって、暗視野であっても本実施形態に係る計測システム1を用いた計測を実施することができる、という有利な効果を奏する。
<第1のカメラ21>
 第1のカメラ21は、例えば、計測システム1において、第2のカメラ22と並列に設けられ、本自動車の左側前方を撮像可能に構成される。具体的には、第1のカメラ21の画角に、本自動車の前方に位置する前方車両(すなわち障害物である対象物)がとらえられる。また、第1のカメラ21は、後述の情報処理装置3における通信部31と電気通信回線(例えばUSBケーブル等)で接続され、撮像した画像を情報処理装置3に転送可能に構成される。
<第2のカメラ22>
 第2のカメラ22は、例えば、計測システム1において、第1のカメラ21と並列に設けられ、本自動車の右側前方を撮像可能に構成される。具体的には、第2のカメラ22の画角に、本自動車の前方に位置する前方車両(すなわち障害物である対象物)がとらえられる。また、第2のカメラ22は、後述の情報処理装置3における通信部31と電気通信回線(例えばUSBケーブル等)で接続され、撮像した画像を情報処理装置3に転送可能に構成される。
1.2 情報処理装置3
 情報処理装置3は、通信部31と、記憶部32と、制御部33とを有し、これらの構成要素が情報処理装置3の内部において通信バス30を介して電気的に接続されている。以下、各構成要素についてさらに説明する。
<通信部31>
 通信部31は、USB、IEEE1394、Thunderbolt、有線LANネットワーク通信等といった有線型の通信手段が好ましいものの、無線LANネットワーク通信、LTE/3G等のモバイル通信、Bluetooth(登録商標)通信等を必要に応じて含めてもよい。すなわち、これら複数の通信手段の集合として実施することがより好ましい。特に、前述の撮像装置2における第1のカメラ21及び第2のカメラ22とは、所定の高速通信規格(例えば、USB3.0やカメラリンク等)において通信可能に構成されることが好ましい。また、前方車両の計測結果を表示するためのモニター(不図示)や、計測結果に基づいて本自動車を自動制御(自動運転)するための自動制御装置(不図示)が接続されてもよい。
<記憶部32>
 記憶部32は、前述の記載により定義される様々な情報を記憶する。これは、例えばソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。また、これらの組合せであってもよい。
 特に、記憶部32は、撮像装置2における第1のカメラ21及び第2のカメラ22によって撮像され、且つ通信部31が受信した第1の画像IM1及び第2の画像IM2(画像IM)を記憶する。記憶部32は、IPM画像IM’を記憶する。具体的には第1の画像IM1より変換された第1のIPM画像IM1’及び第2の画像IM2より変換された第2のIPM画像IM2’を記憶する。ここで、画像IMやIPM画像IM’は、例えばRGB各8ビットのピクセル情報を具備する配列情報である。
 また、記憶部32は、画像IMに基づいてIPM画像IM’を生成するためのIPM変換プログラムを記憶している。記憶部32は、第1のIPM画像IM1’及び第2のIPM画像IM2’の差分Dを演算し且つ角度(方向)を基準とした第1のヒストグラムHG1及び距離を基準とした第2のヒストグラムHG2を生成するためのヒストグラム生成プログラムを記憶している。記憶部32は、第1のヒストグラムHG1及び第2のヒストグラムHG2に基づいて次のフレームでの処理で使用する所定領域ROIを決定するための所定領域決定プログラムを記憶している。記憶部32は、差分Dに基づいて前方車両の位置を計測するための位置計測プログラムを記憶している。記憶部32は、IPM画像IM’の真値との誤差を補正するための補正プログラムを記憶している。さらに、記憶部32は、これ以外にも制御部33によって実行される計測システム1に係る種々のプログラム等を記憶している。
<制御部33>
 制御部33は、情報処理装置3に関連する全体動作の処理・制御を行う。制御部33は、例えば不図示の中央処理装置(Central Processing Unit:CPU)である。制御部33は、記憶部32に記憶された所定のプログラムを読み出すことによって、情報処理装置3に係る種々の機能を実現する。具体的にはIPM変換機能、ヒストグラム生成機能、所定領域ROI決定機能、位置計測機能、補正機能等が該当する。すなわち、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されることで、IPM変換部331、ヒストグラム生成部332、位置計測部333、及び補正部334として実行されうる。なお、図1においては、単一の制御部33として表記されているが、実際はこれに限るものではなく、機能ごとに複数の制御部33を有するように実施してもよい。またそれらの組合せであってもよい。以下、IPM変換部331、ヒストグラム生成部332、位置計測部333、及び補正部334についてさらに詳述する。
[IPM変換部331]
 IPM変換部331は、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているものである。IPM変換部331は、撮像装置2における第1のカメラ21及び第2のカメラ22から送信され且つ通信部31によって受信した画像IMに対して、逆透視投影変換処理を実行可能に構成される。逆透視投影変換については、第2節において詳述する。
 換言すると、第1の画像IM1を逆透視投影変換することによって、第1のIPM画像IM1’が生成され、第2の画像IM2を逆透視投影変換することによって、第2のIPM画像IM2’が生成される。ところで、[発明が解決しようとする課題]においても説明したように、逆透視投影変換は処理時間を要するものであった。本実施形態に係る計測システム1では、画像IMの全領域に対応するIPM画像IM’が生成されるのではなく、所定領域ROIに限定されたIPM画像IM’が生成されることに留意されたい。すなわち、本来処理時間を要する逆透視投影変換を限定的に実施することで、処理時間を短縮し、計測システム1全体の制御レートを高くすることができる。より詳細には、計測システム1全体としては、第1のカメラ21及び第2のカメラ22のフレームレート、並びに制御部33の動作レートの低い方が、位置計測に係る制御レートとして働く。換言すると、当該フレームレート及び動作レートを同程度に高くすることで、フィードバック制御のみであっても前方車両の位置の計測(トラッキング)を実施することができる。
 なお、所定領域ROIは、過去(通常は1つ前)のフレームの処理によって決定されたものであり、より詳しくは、第3節において説明する。換言すると、撮像装置2が撮像したn(n≧2)番目のフレームに係る画像を、現在画像と定義し、撮像装置2が撮像したn-k(n>k≧1)番目のフレームに係る画像を、過去画像と定義すると、現在画像に対して適用される所定領域ROIは、過去画像を用いて計測された対象物の過去の位置に基づいて設定される。
[ヒストグラム生成部332]
 ヒストグラム生成部332は、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているものである。ヒストグラム生成部332は、第1のIPM画像IM1’及び第2のIPM画像IM2’の差分Dを演算し、続いて、それぞれ異なるパラメータを基準に生成された複数のヒストグラムHGを生成する。かかるヒストグラムHGは、過去のフレームで決定された所定領域ROIに限定されたものである。具体的には、角度(方向)を基準とした第1のヒストグラムHG1と、距離を基準とした第2のヒストグラムHG2とを生成する。さらに、ヒストグラム生成部332は、生成した第1のヒストグラムHG1及び第2のヒストグラムHG2に基づいて、次のフレームでの処理で使用する所定領域ROIを決定する。より詳しくは、第3節において説明する。
[位置計測部333]
 位置計測部333は、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているものである。位置計測部333は、ヒストグラム生成部332によって演算された差分D、並びに第1のヒストグラムHG1及び第2のヒストグラムHG2に基づいて、前方車両の位置を計測可能に構成される。計測された前方車両の位置は、適宜、本自動車の運転者に不図示のモニターを介して提示されるとよい。さらには、計測結果に基づいて本自動車を自動制御(自動運転)するための自動制御装置に適切な制御信号が送信されてもよい。
[補正部334]
 補正部334は、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているものである。補正部334は、第1のIPM画像IM1’及び第2のIPM画像IM2’を比較することで、これらの座標の対応関係を推定し、推定された座標の対応関係に基づいて、IPM画像IM’の真値との誤差を補正する。より詳しくは、第4節において説明する。
2.逆透視投影変換
 第2節では、逆透視投影変換について説明する。図2は、逆透視投影変換の概要図であり、ここではモデルとして、ピンホールカメラを仮定するとともに、カメラのピッチ角のみを考慮して表式化していることにも留意されたい。もちろん、魚眼カメラやオムニディレクショナルカメラを仮定してもよいし、ロール角を考慮して表式化してもよい。図2に示されるように、世界座標系O_Wで表された点(X_W,Y_W,Z_W)をカメラ画像平面π_Cに投影したときの点(x,y)は[数1]のように表される。
Figure JPOXMLDOC01-appb-M000001

  
ただし、Kはカメラ(第1のカメラ21及び第2のカメラ22)の内部行列、Πはカメラ座標系O_Cからカメラ画像平面π_Cへの射影行列、R∈SO(3)及びT∈R^3は、世界座標系O_Wからカメラ座標系O_Cへの回転行列、及び並進ベクトルをそれぞれ表す。
 いま、第1のカメラ21及び第2のカメラ22に写っている対象物がある平面π上にのみ存在する場合を考える。このとき、画像平面上の点とπ上の点の間には1対1対応があるため、画像平面からπへの1対1の写像を考えることができる。この写像を逆透視投影(Inverse Perspective Mapping)という。R、Tがそれぞれ、
Figure JPOXMLDOC01-appb-M000002

  
と表されるとき、画像上の点(x,y)の逆透視投影像であるπ上の点(X_W,Y_W,Z_W)は、(x,y)を用いて、[数3]のように計算される。
Figure JPOXMLDOC01-appb-M000003

  
 ここで、f_x、f_yはそれぞれx、y方向の焦点距離、(o_x,o_y)は光学中心である。本実施形態では、この写像によって、撮像装置2によって撮像された画像IMを射影した画像をIPM画像IM’と呼ぶ。2台のカメラ(第1のカメラ21及び第2のカメラ22)が同じ平面を撮像している場合、計算されるIPM画像IM’の対(第1のIPM画像IM1’及び第2のIPM画像IM2’)で、平面上のある1点に対応する画素の輝度値は同一となる。しかし、平面上にない対象物が視野内に存在する場合、IPM画像IM’の対に輝度の差が生じる。この差(差分D)を検出することにより、視野内に存在する対象物を検知することができる。この手法は、平面のテクスチャに対してロバストであるため、影が写り込んでいるような単眼カメラが不得意とする状況でも、対象物を正確に検知することができる。
 具体的な例が、図3A~図3Fに示されている。図3Aは、第1のカメラ21(左)による第1の画像IM1を示し、図3Bは、第2のカメラ22(右)による第2の画像IM2を示している。図3Cは、第1の画像IM1を変換して得られた第1のIPM画像IM1’を示し、図3Dは、第2の画像IM2を変換して得られた第2のIPM画像IM2’を示し、図3Eは、第1のIPM画像IM1’及び第2のIPM画像IM2’の差分D(所定のしきい値をもって2値化したもの)を示している。また、図3Fは、不図示の別カメラによって撮像された俯瞰図を示している。図3Eに示される差分Dを検出することで、対象物である前方車両の位置(白色で示される部分)が計測される。
3.所定領域ROIの決定
 第3節では、所定領域ROIについて説明する。2台のカメラ(第1のカメラ21及び第2のカメラ22)の画角内に対象物が存在する場合、IPM画像IM’の対の差分Dにおいて対象物の左右の側辺に相当する部分にそれぞれ大きな三角形状の非ゼロ領域ができる(図3E参照)。2台のカメラを平面に射影した点の中点F(撮像装置2を射影した点と解する)を原点として角度方向のヒストグラムHGである第1のヒストグラムHG1を取ると、図4Aに示されるように、三角形の頂点に対応する位置にピークを持つ。このピークを示す角度がカメラから物体の側辺までの角度を表す。ここで、この物体に対して移動量微小仮定をおく。すなわち、連続するフレーム間の対象物の角度方向の移動量は高々δθであると仮定すると、時刻t+1におけるピーク位置θ_(t+1)と時刻tにおけるピーク位置θ_tの間に[数4]の関係が成り立つ。
Figure JPOXMLDOC01-appb-M000004

  
 また、差分Dにおいて中点Fを中心とする長さ方向のヒストグラムHGである第2のヒストグラムHG2を取ると、図4Bに示されるように対象物の下辺に相当する部分で急峻な変化を持つ。フレーム間の長さ方向の移動量に対しても同様に、高々δrであると仮定すると、時刻t+1におけるピーク位置r_(t+1)と時刻tにおけるピーク位置r_tの間に[数5]の関係が成り立つ。
Figure JPOXMLDOC01-appb-M000005

  
 ここで、[数4]及び[数5]で表される関係を用いることにより、第1のヒストグラムHG1を取る第1の所定領域ROI1及び第2のヒストグラムHG2を取る第2の所定領域ROI2にそれぞれ限定することができる(図4A及び図4B参照)。特に、図4Aに示される第1のヒストグラムHG1においては、前方車両である対象物の両端部分として、ピークθが2つ存在(それぞれ、θ^l及びθ^r)するため、第1の所定領域ROI1の左端はθ^l(_t)-δθとなり、右端がθ^r(_t)+δθとなることに留意されたい。また、次のフレームでは、これらを統合した上で、ヒストグラムHGを取る所定領域ROIのバウンディングボックス部分のみで逆透視投影変換をすればよいため、大幅に計算を効率化することができる。
 換言すると、第1のヒストグラムHG1の基準となるパラメータは、IPM画像IM’(より厳密には差分D)における撮像装置2の位置を中心とした極座標での角度θであり、第2のヒストグラムHG2の基準となるパラメータは、当該極座標での距離rである。また、第1のヒストグラムHG1及び第2のヒストグラムHG2におけるそれぞれのパラメータ(角度θ及び距離r)が所定範囲内にあるか否かに基づいて、次のフレームにおいてヒストグラムHGを生成する際の所定領域ROIが決定される。
4.補正
 第4節では、情報処理装置3における補正部334によってなされる補正(キャリブレーション)について説明する。かかる補正によって、逆透視投影変換の精度が向上する。
4.1 単眼カメラでの補正
 本実施形態においては、第1のカメラ21及び第2のカメラ22を具備するものの、各カメラ単独で補正を行うように実施することができる。つまり、補正部334は、現在画像と過去画像とを逐次的に比較することで、撮像装置2が有するパラメータを推定し、推定されたパラメータに基づいて、IPM画像IM’の真値との誤差を補正可能に構成される。
 具体的には、カメラ単独で撮像されたものであって異なるフレーム間の画像IM2枚を比較する。それぞれの画像IMに複数の注目点を設定し、位置合せのアルゴリズムを実施する。また、再投影誤差最小化によりカメラ外部パラメータ{Θ}を推定し、推定されたカメラ外部パラメータ{Θ}を用いて画像IM2枚に対し逆透視投影変換を実施し、IPM画像IM’2枚を得る。
 続いて、IPM画像IM’2枚に対しても、画像IM2枚と同様に複数の注目点を設定し、位置合せのアルゴリズムを実施する。また、再投影誤差最小化により、再びカメラ外部パラメータ{Θ}を推定する。そして、再び推定されたカメラ外部パラメータ{Θ}を用いて画像IM2枚に対し逆透視投影変換を実施し、新たなIPM画像IM’2枚を得る。かかる処理を繰り返すと、カメラ外部パラメータ{Θ}が収束し、補正が完了する。かかる収束値には、カメラのピッチ角、ロール角、カメラ自体(計測システム1)の並進量及び同回転量等が含まれる。このようにして、逆透視投影変換に係る撮像装置2の補正がなされる。なお、画像IM2枚ではなく、3枚以上を利用してもよいし、RANSAC、時系列情報、及びカルマンフィルタ等の利用により推定に失敗した箇所を除去可能に実施してもよい。
4.2 ステレオカメラでの補正
 本実施形態においては、第1のカメラ21及び第2のカメラ22を具備するため、かかる構成を利用してカメラ間の位置姿勢関係を把握し、さらに補正を行うことができる。つまり、補正部334は、第1のIPM画像IM1’及び第2のIPM画像IM2’を比較することで、これらの座標の対応関係を推定し、推定された座標の対応関係に基づいて、IPM画像IM’の真値との誤差を補正可能に構成される。
 具体的には、第4.1節において説明した単眼カメラでの補正が済んでいるものとして考える。まず、初期設定として、第1のIPM画像IM1’及び第2のIPM画像IM2’を予め設定された所定領域ROIで区切り、位置合せのアルゴリズムを実施することで、並進・回転?{Θ}のうちの並進量の初期値を得る。
 以下が繰り返し処理となる。得られた並進?の初期値を用いて再度所定領域ROIで区切り、位置合せのアルゴリズムを実施することで、並進・回転?{Θ}を得る。続いて、得られた並進・回転?{Θ}に基づいてIPM画像IM’における所定領域ROIを複数抽出し、それぞれの並進・回転量θ_iを計算する。そして、全体の並進・回転?{Θ}と所定領域ROIごとの並進・回転?{θ}_iが整合しているかを確認し、これを収束するまで繰り返す。このようにして、逆透視投影変換に係る撮像装置2の補正がなされる。
4.3 オプティカルフローを指標とした繰り返し処理
 前述に説明した繰り返し処理に際して、より具体的には、時系列に隣接するフレーム(画像IM)に基づいて算出されたオプティカルフローを指標とするとよい。オプティカルフローとは、時刻t-1における任意に選択された点を始点とし、時刻tにおいて、選択された点と比較して所定の条件を満たす点(推定移動先)を終点としたベクトルである。オプティカルフローは、画像中における対象物の動きを表す指標として一般的に用いられる。特に、Lucas Kanade法によって計算コストを抑えて演算することが可能である。特に、IPM画像IM’上で,位相限定相関法等の画像の位置合せ手法を用いることで、高精度なオプティカルフローを推定することができる。
 図8及び図9は、カメラのピッチ角と、路面上の特徴点の動き(オプティカルフロー)との関係を示す概要図である。カメラから近い点と遠い点とを比較すると、カメラのピッチ角、ロール角によって、これらのオプティカルフローは異なるものとなる。また、IPM画像IM’は擬似的に俯瞰画像を形成しているものであり、カメラが並進していると仮定すると、IPM画像IM’における複数の選択された点の各オプティカルフローは、理想的には均一となる。つまり、オプティカルフローが均一となるように繰り返し処理をすることで、収束値として、カメラのピッチ角、ロール角、カメラ自体(計測システム1)の並進量及び同回転量等が得られる。具体的には、図10を参照されたい。図10は、IPM変換処理前の画像IMに対するオプティカルフローと(図10A)、1回目IPM変換処理で得られたオプティカルフロー(図10B)と、2回目のIPM変換処理で得られたオプティカルフロー(図10C)とを比較した図である。図10Cでは、図10Bに比べて、よりオプティカルフローが均一となっていることが確認される。
 このような繰り返し処理を高速に実現することで、カメラ外部パラメータ{Θ}をリアルタイムに得ることができる。したがって、本計測システム1を使用するにあたって、カメラの位置・姿勢が変動する二輪車やドローンにも対応することができる。
5.計測方法
 第5節では、本実施形態に係る計測システム1を用いた計測方法について説明する。図5は、計測方法の流れを示すフローチャートである。以下、図5における各ステップに沿って説明する。
[開始]
(ステップS1)
 ある時刻tにおいて、撮像装置2(第1のカメラ21及び第2のカメラ22)が対象物を100fps以上のフレームレートで画像IM(第1の画像IM1及び第2の画像IM2)として撮像する(ステップS2に続く)。
(ステップS2)
 続いて、ステップS1において撮像された画像IMに対して、所定領域ROIが設定される。なお、ここでの所定領域ROIは、時刻tよりも過去(通常は1フレーム前)のステップS5(後述)において決定されたものである。ただし、1フレーム目については、かかる所定領域ROIが設定されなくてよい(ステップS3に続く)。
(ステップS3)
 続いて、IPM変換部331が、画像IMに対して逆透視投影変換(第2節参照)を行って、ステップS2で設定された所定領域ROIに限定されたIPM画像IM’(第1のIPM画像IM1’及び第2のIPM画像IM2’)を生成する(ステップS4に続く)。
(ステップS4)
 続いて、ヒストグラム生成部332が、第1のIPM画像IM1’及び第2のIPM画像IM2’の差分Dを演算し、続いて、それぞれ異なるパラメータ(角度及び距離)を基準に生成されたヒストグラムHG(第1のヒストグラムHG1及び第2のヒストグラムHG2)を生成する。また、かかる差分Dに基づいて、位置計測部333が対象物の位置を計測することとなる(ステップS5に続く)。
(ステップS5)
 続いて、ヒストグラム生成部332が、ステップS4において生成されたヒストグラムHGに基づいて、時刻t以降(通常は1フレーム先)のステップS2(前述)において設定されうる所定領域ROIを決定する。
[終了]
 このように、ステップS1~S5が繰り返されることによって、高い動作レートで対象物の位置が計測されることに留意されたい。なお、説明を省略したが、かかるステップの間に第4節において説明した補正部334による補正が実行されることが好ましい。さらに、何れのタイミングにおいても所定領域ROIに関する機械学習をさせてもよい。
6.変形例
 第6節では、本実施形態に係る変形例について説明する。すなわち、次のような態様によって、本実施形態に係る計測システム1をさらに創意工夫してもよい。
 第一に、計測システム1が本自動車の如く移動可能に構成されている場合、図6A及び図6Bに示されるように、計測システム1の速度、加速度、移動方向、周辺環境の少なくとも1つのパラメータを考慮して、所定領域ROIが決定されるようにしてもよい。特に、これらのパラメータと、所定領域ROIとの相関性が機械学習によって予め学習されていることが好ましい。さらに、計測システム1を継続的に使用していく中でさらに機械学習を行って、より好ましい所定領域ROIが決定されることが好ましい。
 第二に、障害物となりうる対象物が複数ある場合、情報処理装置3における位置計測部333が、これら複数の対象物それぞれを分離的に認識可能に構成されることが好ましい。特に、複数の対象物それぞれの囲う所定領域ROIが機械学習によって予め学習されていることにより、位置計測部333が複数の対象物それぞれを分離的に認識可能に構成されることが好ましい。さらに、図7に示されるように、計測システム1を継続的に使用して、前述の逆透視投影変換を用いた対象物の認識を繰り返す中で、順次所定領域ROIの機械学習を行うことで分離の精度がより向上されることが好ましい。このようにして、所定領域ROIに含まれる、様々な対象物の位置、種類などが特定されうる。特に、対象物を囲うバウンディングボックスの下端の値と、撮像装置2の高さ、ロール角、ピッチ角をもとに、対象物までの距離を推定可能に構成されるとよい。あるいは、本実施形態に係る計測システム1のように撮像装置2が2眼であれば、ステレオ視によって対象物までの距離を計測するように実施してもよい。
 第三に、例えば計測システム1を搭載した本自動車であれば、計測された対象物の位置に基づいて、一部又は全部について自動運転がなされてもよい。例えば、衝突を回避するためのブレーキ動作や、ハンドル動作が考えられうる。また、計測された対象物の認識状況を、本自動車の運転者が認知できるように、本自動車内に取り付けられたモニターに表示されるように実施してもよい。
 第四に、前述の実施形態では、第1のカメラ21及び第2のカメラ22からなる2眼の撮像装置2を用いているが、3つ以上のカメラを用いた3眼以上の撮像装置2を実施してもよい。カメラの個数を増やすことで、計測システム1による計測に係るロバスト性が向上するという、有利な効果を奏する。また、第4.2節において説明した補正部334による補正についても、3眼以上で同様に適用可能なことにも留意されたい。
 第五に、撮像装置2及び情報処理装置3を、計測システム1としてではなく、これらの機能を有する1つの装置として実現してもよい。具体的には例えば、3次元計測装置、画像処理装置、投影表示装置、3次元シミュレータ装置等が挙げられる。
7.結言
 以上のように、本実施形態によれば、計測すべき対象物(障害物)の存在をすばやく且つ確実に検知することで、産業における安全なオペレーションを実現可能な計測システム1を実施することができる。
 かかる計測システム1は、対象物の位置を計測可能に構成され、撮像装置2と、情報処理装置3とを備え、前記撮像装置2は、フレームレートが100fps以上のカメラ(第1のカメラ21及び第2のカメラ22)であり、前記カメラの画角に含まれる前記対象物を、画像IMとして撮像可能に構成され、前記情報処理装置3は、通信部31と、IPM変換部331と、位置計測部333とを備え、前記通信部31は、前記撮像装置2と接続され、前記撮像装置2によって撮像された前記画像IMを受信可能に構成され、前記IPM変換部331は、前記対象物を含む前記画像IMの少なくとも一部を所定領域ROIとして設定し、前記画像IMを逆透視投影変換して、前記所定領域ROIに限定されたIPM画像IM’を生成するように構成され、ここで前記IPM画像IM’とは、前記対象物を含む所定平面を俯瞰するように描画された画像であり、前記位置計測部333は、前記IPM画像IM’に基づいて、前記対象物の位置を計測可能に構成される。
 また、かかる計測システム1を用いることで、計測すべき対象物(障害物)の存在をすばやく且つ確実に検知することで、産業における安全なオペレーションを実現可能な計測方法を実施することができる。
 かかる計測方法は、対象物の位置を計測する方法であって、撮像ステップと、変換ステップと、位置計測ステップとを備え、前記撮像ステップでは、フレームレートが100fps以上のカメラ(第1のカメラ21及び第2のカメラ22)を用いて、前記カメラの画角に含まれる前記対象物を、画像IMとして撮像し、前記IPM変換ステップでは、前記対象物を含む前記画像IMの少なくとも一部を所定領域ROIとして決定し、前記画像IMを逆透視投影変換して、前記所定領域ROIに限定されたIPM画像IM’を生成し、ここで前記IPM画像IM’とは、前記対象物を含む所定平面を俯瞰するように描画された画像であり、前記位置計測ステップでは、前記IPM画像IM’に基づいて、前記対象物の位置を計測する。
 また、計測すべき対象物(障害物)の存在をすばやく且つ確実に検知することで、産業における安全なオペレーションを実現可能な計測システム1をハードウェアとして実施するためのソフトウェアを、プログラムとして実施することもできる。そして、このようなプログラムを、コンピュータが読み取り可能な非一時的な記録媒体として提供してもよいし、外部のサーバからダウンロード可能に提供してもよいし、外部のコンピュータで当該プログラムを起動させて、クライアント端末で各機能を実施可能な、いわゆるクラウド・コンピューティングを実施してもよい。
 かかる計測プログラムは、対象物の位置を計測するためのものであって、コンピュータに撮像機能と、IPM変換機能と、位置計測機能とを実行させるように構成され、前記撮像機能によって、カメラ(第1のカメラ21及び第2のカメラ22)の画角に含まれる対象物が、画像IMとしてフレームレート100fps以上で撮像され、前記IPM変換機能によって、前記対象物を含む前記画像IMの少なくとも一部が所定領域ROIとして決定され、前記画像IMを逆透視投影変換して、前記所定領域ROIに限定されたIPM画像IM’が生成され、ここで前記IPM画像IM’とは、前記対象物を含む所定平面を俯瞰するように描画された画像であり、前記位置計測機能によって、前記IPM画像IM’に基づいて、前記対象物の位置が計測される。
 次に記載の各態様で提供されてもよい。
 前記計測システムにおいて、前記撮像装置が撮像したn(n≧2)番目のフレームに係る画像を、現在画像と定義し、前記撮像装置が撮像したn-k(n>k≧1)番目のフレームに係る画像を、過去画像と定義すると、前記現在画像に対して適用される前記所定領域は、前記過去画像を用いて計測された前記対象物の過去の位置に基づいて設定される、計測システム。
 前記計測システムにおいて、前記情報処理装置は、補正部をさらに備え、前記補正部は、前記現在画像と前記過去画像とを逐次的に比較することで、前記撮像装置が有するパラメータを推定し、推定された前記パラメータに基づいて、前記IPM画像の真値との誤差を補正可能に構成される、計測システム。
 前記計測システムにおいて、前記撮像装置は、第1及び第2のカメラからなる2眼の撮像装置であり、前記第1及び第2のカメラの画角に含まれる前記対象物を、第1及び第2の画像として前記フレームレートで撮像可能に構成され、前記IPM変換部は、前記第1及び第2の画像に対応する第1及び第2のIPM画像を生成し、前記位置計測部は、前記第1及び第2のIPM画像の差分に基づいて前記対象物の位置を計測可能に構成される、計測システム。
 前記計測システムにおいて、前記情報処理装置は、補正部をさらに備え、前記補正部は、前記第1及び第2のIPM画像を比較することで、これらの座標の対応関係を推定し、推定された前記座標の対応関係に基づいて、前記IPM画像の真値との誤差を補正可能に構成される、計測システム。
 前記計測システムにおいて、ヒストグラム生成部をさらに備え、前記ヒストグラム生成部は、前記IPM画像の差分に基づいて、前記所定領域に限定されたヒストグラムを生成する、計測システム。
 前記計測システムにおいて、前記ヒストグラムは、それぞれ異なるパラメータを基準に生成された第1及び第2のヒストグラムを含む複数のヒストグラムであり、それぞれの前記パラメータが所定範囲内にあるか否かに基づいて、前記所定領域が決定される、計測システム。
 前記計測システムにおいて、前記第1のヒストグラムの基準となる前記パラメータは、前記IPM画像における前記撮像装置の位置を中心とした極座標での角度であり、前記第2のヒストグラムの基準となる前記パラメータは、前記極座標での距離である、計測システム。
 前記計測システムにおいて、当該計測システムは、移動可能に構成され、前記所定領域は、当該計測システムの速度、加速度、移動方向、周辺環境の少なくとも1つに基づいて決定される、計測システム。
 前記計測システムにおいて、当該計測システムの速度、加速度、移動方向、周辺環境の少なくとも1つと、前記所定領域との相関性が、機械学習によって学習可能に構成される、計測システム。
 前記計測システムにおいて、前記対象物は複数あり、前記位置計測部は、前記複数の対象物それぞれを分離的に認識し、且つそれぞれの位置を計測可能に構成される、計測システム。
 前記計測システムにおいて、前記複数の対象物を分離的に認識した結果が機械学習可能に構成され、これにより、当該計測システムの継続的な使用を通じて前記位置計測部による分離認識の精度が向上可能に構成される、計測システム。
 対象物の位置を計測する計測方法であって、撮像ステップと、IPM変換ステップと、位置計測ステップとを備え、前記撮像ステップでは、フレームレートが100fps以上のカメラを用いて、前記カメラの画角に含まれる前記対象物を、画像として撮像し、前記IPM変換ステップでは、前記対象物を含む前記画像の少なくとも一部を所定領域として決定し、前記画像を逆透視投影変換して、前記所定領域に限定されたIPM画像を生成し、ここで前記IPM画像とは、前記対象物を含む所定平面を俯瞰するように描画された画像であり、前記位置計測ステップでは、前記IPM画像に基づいて、前記対象物の位置を計測する、計測方法。
 対象物の位置を計測可能に構成される計測システムの情報処理装置であって、受付部と、IPM変換部と、位置計測部とを備え、前記受付部は、対象物を含む画像を受付可能に構成され、前記IPM変換部は、前記対象物を含む前記画像の少なくとも一部を所定領域として設定し、前記画像を逆透視投影変換して、前記所定領域に限定されたIPM画像を生成するように構成され、ここで前記IPM画像とは、前記対象物を含む所定平面を俯瞰するように描画された画像であり、前記位置計測部は、前記IPM画像に基づいて、前記対象物の位置を計測可能に構成される、情報処理装置。
 計測プログラムであって、コンピュータを前記情報処理装置として機能させるもの。
 もちろん、この限りではない。
 最後に、本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1      :計測システム
2      :撮像装置
21     :第1のカメラ
22     :第2のカメラ
3      :情報処理装置
30     :通信バス
31     :通信部
32     :記憶部
33     :制御部
331    :IPM変換部
332    :ヒストグラム生成部
333    :位置計測部
334    :補正部
D      :差分
HG     :ヒストグラム
HG1    :第1のヒストグラム
HG2    :第2のヒストグラム
IM     :画像
IM’    :IPM画像
IM1    :第1の画像
IM1’   :第1のIPM画像
IM2    :第2の画像
IM2’   :第2のIPM画像
ROI    :所定領域
ROI1   :第1の所定領域
ROI2   :第2の所定領域

Claims (15)

  1. 対象物の位置を計測可能に構成される計測システムであって、
     撮像装置と、情報処理装置とを備え、
     前記撮像装置は、
      フレームレートが100fps以上のカメラであり、
      前記カメラの画角に含まれる前記対象物を、画像として撮像可能に構成され、
     前記情報処理装置は、通信部と、IPM変換部と、位置計測部とを備え、
     前記通信部は、
      前記撮像装置と接続され、
      前記撮像装置によって撮像された前記画像を受信可能に構成され、
     前記IPM変換部は、
      前記対象物を含む前記画像の少なくとも一部を所定領域として設定し、
      前記画像を逆透視投影変換して、前記所定領域に限定されたIPM画像を生成するように構成され、ここで前記IPM画像とは、前記対象物を含む所定平面を俯瞰するように描画された画像であり、
     前記位置計測部は、前記IPM画像に基づいて、前記対象物の位置を計測可能に構成される、
    計測システム。
  2. 請求項1に記載の計測システムにおいて、
     前記撮像装置が撮像したn(n≧2)番目のフレームに係る画像を、現在画像と定義し、前記撮像装置が撮像したn-k(n>k≧1)番目のフレームに係る画像を、過去画像と定義すると、
     前記現在画像に対して適用される前記所定領域は、前記過去画像を用いて計測された前記対象物の過去の位置に基づいて設定される、
    計測システム。
  3. 請求項2に記載の計測システムにおいて、
     前記情報処理装置は、補正部をさらに備え、
     前記補正部は、
      前記現在画像と前記過去画像とを逐次的に比較することで、前記撮像装置が有するパラメータを推定し、
      推定された前記パラメータに基づいて、前記IPM画像の真値との誤差を補正可能に構成される、
    計測システム。
  4. 請求項1~請求項3の何れか1つに記載の計測システムにおいて、
     前記撮像装置は、
      第1及び第2のカメラからなる2眼の撮像装置であり、
      前記第1及び第2のカメラの画角に含まれる前記対象物を、第1及び第2の画像として前記フレームレートで撮像可能に構成され、
     前記IPM変換部は、前記第1及び第2の画像に対応する第1及び第2のIPM画像を生成し、
     前記位置計測部は、前記第1及び第2のIPM画像の差分に基づいて前記対象物の位置を計測可能に構成される、
    計測システム。
  5. 請求項4に記載の計測システムにおいて、
     前記情報処理装置は、補正部をさらに備え、
     前記補正部は、
      前記第1及び第2のIPM画像を比較することで、これらの座標の対応関係を推定し、
      推定された前記座標の対応関係に基づいて、前記IPM画像の真値との誤差を補正可能に構成される、
    計測システム。
  6. 請求項4又は請求項5に記載の計測システムにおいて、
     ヒストグラム生成部をさらに備え、
     前記ヒストグラム生成部は、前記IPM画像の差分に基づいて、前記所定領域に限定されたヒストグラムを生成する、
    計測システム。
  7. 請求項6に記載の計測システムにおいて、
     前記ヒストグラムは、それぞれ異なるパラメータを基準に生成された第1及び第2のヒストグラムを含む複数のヒストグラムであり、
     それぞれの前記パラメータが所定範囲内にあるか否かに基づいて、前記所定領域が決定される、
    計測システム。
  8. 請求項7に記載の計測システムにおいて、
     前記第1のヒストグラムの基準となる前記パラメータは、前記IPM画像における前記撮像装置の位置を中心とした極座標での角度であり、
     前記第2のヒストグラムの基準となる前記パラメータは、前記極座標での距離である、
    計測システム。
  9. 請求項1~請求項8の何れか1つに記載の計測システムにおいて、
     当該計測システムは、移動可能に構成され、
     前記所定領域は、当該計測システムの速度、加速度、移動方向、周辺環境の少なくとも1つに基づいて決定される、
    計測システム。
  10. 請求項9に記載の計測システムにおいて、
     当該計測システムの速度、加速度、移動方向、周辺環境の少なくとも1つと、前記所定領域との相関性が、機械学習によって学習可能に構成される、
    計測システム。
  11. 請求項1~請求項10の何れか1つに記載の計測システムにおいて、
     前記対象物は複数あり、
     前記位置計測部は、前記複数の対象物それぞれを分離的に認識し、且つそれぞれの位置を計測可能に構成される、
    計測システム。
  12. 請求項11に記載の計測システムにおいて、
     前記複数の対象物を分離的に認識した結果が機械学習可能に構成され、これにより、当該計測システムの継続的な使用を通じて前記位置計測部による分離認識の精度が向上可能に構成される、
    計測システム。
  13. 対象物の位置を計測する計測方法であって、
     撮像ステップと、IPM変換ステップと、位置計測ステップとを備え、
     前記撮像ステップでは、フレームレートが100fps以上のカメラを用いて、前記カメラの画角に含まれる前記対象物を、画像として撮像し、
     前記IPM変換ステップでは、
      前記対象物を含む前記画像の少なくとも一部を所定領域として決定し、
      前記画像を逆透視投影変換して、前記所定領域に限定されたIPM画像を生成し、ここで前記IPM画像とは、前記対象物を含む所定平面を俯瞰するように描画された画像であり、
     前記位置計測ステップでは、前記IPM画像に基づいて、前記対象物の位置を計測する、
    計測方法。
  14. 対象物の位置を計測可能に構成される計測システムの情報処理装置であって、
     受付部と、IPM変換部と、位置計測部とを備え、
     前記受付部は、対象物を含む画像を受付可能に構成され、
     前記IPM変換部は、
      前記対象物を含む前記画像の少なくとも一部を所定領域として設定し、
      前記画像を逆透視投影変換して、前記所定領域に限定されたIPM画像を生成するように構成され、ここで前記IPM画像とは、前記対象物を含む所定平面を俯瞰するように描画された画像であり、
     前記位置計測部は、前記IPM画像に基づいて、前記対象物の位置を計測可能に構成される、
    情報処理装置。
  15. 計測プログラムであって、
     コンピュータを請求項14に記載の情報処理装置として機能させるもの。
PCT/JP2019/048554 2018-12-12 2019-12-11 計測システム、計測方法、及び計測プログラム WO2020122143A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020559296A JP7169689B2 (ja) 2018-12-12 2019-12-11 計測システム、計測方法、及び計測プログラム
CN201980080871.XA CN113167579B (zh) 2018-12-12 2019-12-11 用于测量对象物位置的系统、方法以及存储介质
US17/299,362 US20220018658A1 (en) 2018-12-12 2019-12-11 Measuring system, measuring method, and measuring program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018232784 2018-12-12
JP2018-232784 2018-12-12

Publications (1)

Publication Number Publication Date
WO2020122143A1 true WO2020122143A1 (ja) 2020-06-18

Family

ID=71076434

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/048554 WO2020122143A1 (ja) 2018-12-12 2019-12-11 計測システム、計測方法、及び計測プログラム

Country Status (4)

Country Link
US (1) US20220018658A1 (ja)
JP (1) JP7169689B2 (ja)
CN (1) CN113167579B (ja)
WO (1) WO2020122143A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7360180B2 (ja) 2017-02-28 2023-10-12 国立大学法人 筑波大学 半導体装置とその製造方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006121087A1 (ja) * 2005-05-10 2006-11-16 Olympus Corporation 画像処理装置、画像処理方法および画像処理プログラム
US20180192035A1 (en) * 2017-01-04 2018-07-05 Qualcomm Incorporated Systems and methods for object location

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07262375A (ja) * 1994-03-25 1995-10-13 Toshiba Corp 移動体検出装置
KR101075615B1 (ko) * 2006-07-06 2011-10-21 포항공과대학교 산학협력단 주행 차량의 운전자 보조 정보 생성 장치 및 방법
CN102221358B (zh) * 2011-03-23 2012-12-12 中国人民解放军国防科学技术大学 基于逆透视投影变换的单目视觉定位方法
US8848978B2 (en) * 2011-09-16 2014-09-30 Harman International (China) Holdings Co., Ltd. Fast obstacle detection
US20180208201A1 (en) * 2016-03-23 2018-07-26 Deutsche Telekom Ag System and method for a full lane change aid system with augmented reality technology
US20180240031A1 (en) * 2017-02-17 2018-08-23 Twitter, Inc. Active learning system
US11618438B2 (en) * 2018-03-26 2023-04-04 International Business Machines Corporation Three-dimensional object localization for obstacle avoidance using one-shot convolutional neural network
US20210383688A1 (en) * 2018-09-28 2021-12-09 Senken Group Co., Ltd. Traffic monitoring and evidence collection system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006121087A1 (ja) * 2005-05-10 2006-11-16 Olympus Corporation 画像処理装置、画像処理方法および画像処理プログラム
US20180192035A1 (en) * 2017-01-04 2018-07-05 Qualcomm Incorporated Systems and methods for object location

Also Published As

Publication number Publication date
JPWO2020122143A1 (ja) 2021-10-21
CN113167579B (zh) 2023-03-14
JP7169689B2 (ja) 2022-11-11
US20220018658A1 (en) 2022-01-20
CN113167579A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
US10713507B2 (en) Object detecting apparatus, object detecting method, and computer program product
JP2021185548A (ja) 物体検出装置、物体検出方法およびプログラム
US20160221404A1 (en) Method and apparatus for measuring tire tread abrasion
US10728525B2 (en) Image capturing apparatus, image processing method, and recording medium
US20180089501A1 (en) Computer implemented method of detecting the distance of an object from an image sensor
US10719949B2 (en) Method and apparatus for monitoring region around vehicle
US10148938B2 (en) Vehicle-mounted image recognition device to set a stereoscopic-vision and monocular-vision image areas
KR101676656B1 (ko) 장애물 검출 장치 및 장애물 검출 방법
US20220375208A1 (en) Annotation cross-labeling for autonomous control systems
TWI530409B (zh) 自動追蹤防撞警示系統及其方法
JP2023530762A (ja) 3dバウンディングボックスからの単眼深度管理
WO2020122143A1 (ja) 計測システム、計測方法、及び計測プログラム
CN114919584A (zh) 机动车定点目标测距方法、装置及计算机可读存储介质
JP6577595B2 (ja) 車両用外界認識装置
JP2021092996A (ja) 計測システム、車両、計測方法、計測装置及び計測プログラム
WO2020246202A1 (ja) 計測システム、計測方法、及び計測プログラム
JP2018146495A (ja) 物体検出装置、物体検出方法、物体検出プログラム、撮像装置、及び、機器制御システム
JP6988860B2 (ja) 情報処理システム、情報処理方法及び情報処理プログラム
JP2021086258A (ja) 姿勢推定装置、および、姿勢推定方法
KR20200072590A (ko) 자동 주차 기능을 위한 주차선 이탈 감지 방법 및 장치
CN111656404A (zh) 图像处理方法、系统及可移动平台
WO2021230314A1 (ja) 計測システム、車両、計測装置、計測プログラム及び計測方法
JP2008225785A (ja) 画像認識装置
JP2008225787A (ja) 画像認識装置
JP2017045395A (ja) 検出装置、検出方法、撮像装置、機器制御システム、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19894788

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020559296

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19894788

Country of ref document: EP

Kind code of ref document: A1