JP4288028B2 - Planar area specifying method and image measuring apparatus - Google Patents

Planar area specifying method and image measuring apparatus Download PDF

Info

Publication number
JP4288028B2
JP4288028B2 JP2001362478A JP2001362478A JP4288028B2 JP 4288028 B2 JP4288028 B2 JP 4288028B2 JP 2001362478 A JP2001362478 A JP 2001362478A JP 2001362478 A JP2001362478 A JP 2001362478A JP 4288028 B2 JP4288028 B2 JP 4288028B2
Authority
JP
Japan
Prior art keywords
voting
plane
image
local
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001362478A
Other languages
Japanese (ja)
Other versions
JP2003162725A (en
Inventor
浩明 岡本
進 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2001362478A priority Critical patent/JP4288028B2/en
Publication of JP2003162725A publication Critical patent/JP2003162725A/en
Application granted granted Critical
Publication of JP4288028B2 publication Critical patent/JP4288028B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、画像から平面の位置や向きを計測し、その計測された平面が画像中で占める領域を特定する画像計測方法、および、その画像計測方法を実施する画像計測装置に関するものである。
【0002】
【従来の技術】
従来、画像のオプティカルフローや視差ベクトルなどから、平面の三次元幾何情報(平面の向きや距離などの平面の空間パラメータ)を計測する方法が提供されている(特開2000-357235号公報など)。
【0003】
同公報に記載の方法によれば、ある被写体に向かって移動しているカメラによって異なる時刻t0、t1にその被写体を撮影して得られた2枚の画像から得られる動き情報、あるいは、左眼カメラ及び右眼カメラによって同一時刻tにその被写体を撮影して得られた2枚の画像から得られる視差情報から、画像中の平面の空間パラメータ(平面の向き、平面までの到達時間、平面までの最短距離など)を計測することができる。
【0004】
【発明が解決しようとする課題】
しかしながら、上記平面の空間パラメータの計測方法では、平面(空間パラメータ)を計測することはできるが、その計測された平面が画像中のどの領域に存在しているかを特定することができなかった。
【0005】
本発明の課題は、平面の空間パラメータの計測方法により計測された平面(空間パラメータによって特定される平面)が画像中で占める領域を特定できるようにすることにある。
【0006】
【課題を解決するための手段】
本発明は、上記の課題を解決するために、平面領域特定方法であって、画像内で局所運動を検出し、その運動情報を平面の空間パラメータで構成される投票空間に投票して平面の空間パラメータを求め、投票結果のデータを基に局所領域を探索することによって、前記空間パラメータによって特定される平面が画像中で占める領域を特定する構成とした。
【0007】
本発明によれば、平面の空間パラメータの計測方法により計測された平面(空間パラメータ(平面方位nと規格化時間tcなど)によって特定される平面)が画像中で占める領域を特定することが可能になる。
【0008】
上記平面領域特定方法をコンピュータシステムによって実施する場合、画像計測装置として次のように特定することが可能である。
【0009】
画像計測装置であって、画像内の任意の位置の局所運動を検出する局所運動検出部と、その運動情報を投票テーブルに基づいて平面の空間パラメータで構成される投票空間に投票する平面パラメータ投票部と、その投票結果からピークデータを抽出するピーク抽出部と、投票したデータ情報を格納する投票データ格納部と、前記ピーク抽出部から得られたピークデータを基に、前記投票データ格納部を探索して平面領域に含まれる局所領域を特定する平面領域抽出部とを備える。
【0010】
本発明によれば、平面の空間パラメータの計測方法により計測された平面(ピークデータ、空間パラメータ(平面方位nと規格化時間tcなど)によって特定される平面)が画像中で占める領域を特定することが可能になる。即ち、ピークデータ、平面の空間パラメータ(平面方位nと規格化時間tcなど)によって特定される平面領域に含まれる局所領域(平面領域を構成する局所領域)を特定することが可能になる。
【0011】
また、本発明は、上記の課題を解決するために、平面領域特定方法であって、画像内で局所視差を検出し、その視差情報を平面の空間パラメータで構成される投票空間に投票して平面の空間パラメータを求め、投票結果のデータを基に局所領域を探索することによって、前記空間パラメータによって特定される平面が画像中で占める領域を特定する構成とした。
【0012】
本発明によれば、平面の空間パラメータの計測方法により計測された平面(空間パラメータ(平面方位nと最短距離dcなど)によって特定される平面)が画像中で占める領域を特定することが可能になる。
【0013】
上記平面領域特定方法をコンピュータシステムによって実施する場合、画像計測装置として次のように特定することが可能である。
【0014】
画像計測装置であって、画像内の任意の位置の局所視差を検出する局所視差検出部と、その視差情報を投票テーブルに基づいて平面の空間パラメータで構成される投票空間に投票する平面パラメータ投票部と、その投票結果からピークデータを抽出するピーク抽出部と、投票したデータ情報を格納する投票データ格納部と、前記ピーク抽出部から得られたピークデータを基に、前記投票データ格納部を探索して平面領域に含まれる局所領域を特定する平面領域抽出部とを備える。
【0015】
本発明によれば、平面の空間パラメータの計測方法により計測された平面(ピークデータ、空間パラメータ(平面方位nと最短距離dcなど)によって特定される平面)が画像中で占める領域を特定することが可能になる。即ち、ピークデータ、平面の空間パラメータ(平面方位nと規格化時間tcなど)によって特定される平面領域に含まれる局所領域(平面領域を構成する局所領域)を特定することが可能になる。
【0016】
本発明は、次のように特定することも可能である。平面領域特定方法であって、被写体に向かって移動するカメラによって異なる時刻にその被写体を撮影して得られた撮影画像から複数の局所領域画像を切り出し、その切り出された局所領域画像ごとに、局所領域画像内の任意の位置の局所運動を検出し、投票空間(例えば、実施の形態における平面パラメータ投票空間101)を構成する複数の配列の要素それぞれに前記検出された運動情報に基づいて得られる投票値を投票し、その投票値を投票値の投票先要素の指定情報と投票値の基礎とされた(投票値若しくは局所運動検出の基礎とされた)局所領域画像の指定情報とに対応づけて格納し(例えば、実施の形態における投票強度テーブル106)、前記投票結果からピークデータを抽出し、その抽出されたピークデータを基に、前記格納された情報から、前記複数の局所領域画像のうち前記抽出されたピークデータの出現に寄与した局所領域画像の指定情報を探索し、その探索された指定情報によって指定される局所領域画像を撮影画像中の平面領域として特定する。
【0017】
本発明によれば、平面の空間パラメータの計測方法により計測された平面(ピークデータ、空間パラメータ(平面方位nと規格化時間tcなど)によって特定される平面)が画像中で占める領域を特定することが可能になる。
【0018】
本発明は、次のように特定することも可能である。平面領域特定方法であって、被写体に向かって移動するあるいは静止した複数のカメラ(例えば、2台のカメラ)によって同一時刻にその被写体を撮影して得られた撮影画像から複数の局所領域画像を切り出し、その切り出された局所領域画像ごとに、局所領域画像内の任意の位置の局所視差を検出し、投票空間(例えば、実施の形態における平面パラメータ投票空間101)を構成する複数の配列の要素それぞれに前記検出された視差情報に基づいて得られる投票値を投票し、投票値と投票値の投票先要素の指定情報と投票値の基礎とされた(投票値若しくは局所運動検出の基礎とされた)局所領域画像の指定情報とを対応づけて格納し(例えば、実施の形態における投票強度テーブル106)、前記投票結果からピークデータを抽出し、その抽出されたピークデータを基に、前記格納された情報から、前記複数の局所領域画像のうち前記抽出されたピークデータの出現に寄与した局所領域画像の指定情報を探索し、その探索された指定情報によって指定される局所領域画像を撮影画像中の平面領域として特定する。
【0019】
本発明によれば、平面の空間パラメータの計測方法により計測された平面(ピークデータ、平面の空間パラメータ(平面方位nと最短距離dcなど)によって特定される平面)が画像中で占める領域を特定することが可能になる。
【0020】
【発明の実施の形態】
以下、本発明の平面領域特定方法を実施するためのシステム構成について、図面を参照しながら説明する。図1は、本発明の平面領域特定方法(平面の空間パラメータ計測方法を含む)を実施するためのコンピュータシステムの外観図である。図2は、図1に示すコンピュータシステムのハードウェア構成図である。
【0021】
コンピュータシステム300は、中央演算処理装置(CPU)311と、そのCPU311にバスなどを介して接続される、RAM312、磁気ディスクコントローラ313、フロッピィディスクドライバ314、MOドライバ315、マウスコントローラ316、キーボードコントローラ317、ディスプレイコントローラ318、通信用ボード319、及び、画像入力用ボード320などを備えている。
【0022】
磁気ディスクコントローラ313は、本体301(図1参照)に内蔵された磁気ディスク321をアクセスするためのものである。また、フロッピィディスクドライバ314、MOドライバ315はそれぞれ、フロッピィディスク322、MO323が装填され、装填されたフロッピィディスク322、MO323をアクセスするためのものである。
【0023】
また、マウスコントローラ316、キーボードコントローラ317はそれぞれ、マウス304、キーボード303の操作をこのコンピュータ内部に伝えるものである。
【0024】
また、ディスプレイコントローラ318は、CPU311が実行するプログラムに応じて、CRTディスプレイ302に画像を表示させるコントローラである。
【0025】
さらに、通信用ボード319は、通信回線400を介してLANやインターネットなどの通信網と接続されており、この通信用ボード319は、例えば、その通信網を介して画像データを受信する役割りを担っている。
【0026】
さらに、画像入力用ボードは、外部のカメラCA(電子スチールカメラ、あるいはビデオカメラ等)と接続され、そのカメラCAでの撮影により得られた画像データをこのコンピュータ内部に取り込む役割りを担っている。尚、この図2には、カメラは1台のみ示されているが、この画像入力用ボード320には2台のカメラが接続され、例えば人間の両眼の視差に対応した異なる方向から同一の被写体を同時に撮影して得た2枚の画像を入力することもできる。
【0027】
また、航空機や二足歩行ロボットや車両などの移動体にカメラCA及びフラッシュメモリやICカードなどの着脱可能な記録媒体を搭載し、そのカメラCAで撮影した画像を記録媒体に記録し、コンピュータに接続された読取装置などによって、その記録媒体から画像を読み取ってコンピュータ内部に入力するようにしてもよい。また、そのような記録媒体から画像を読み取って無線又は有線の通信回線を介してコンピュータ内部に入力するようにしてもよい。
【0028】
このコンピュータシステム300は、フロッピィディスク322やMO323に記憶されているプログラムがインストールされ、あるいは、通信回線400を経由してきたプログラムがインストールされて、後述する本発明の平面領域特定方法(平面の空間パラメータの計測方法を含む)を実施するものである。平面領域特定方法を実施するための機能は、コンピュータシステム300において所定のプログラムが実行されることによって実現される。それらの機能は、後述する各種の機能ブロック図及びフローチャートなどで示されている。
【0029】
次に、平面領域特定方法(平面の空間パラメータの計測方法も含む)の第一の実施の形態の概略について説明する。
【0030】
本実施の形態の平面領域特定方法は、平面の空間パラメータの計測方法(特開2000-357235号公報など)によって計測された平面(平面方位nと規格化時間tcによって特定される平面)が画像中(撮影画像中)で占める領域を特定しようとするものである。
【0031】
平面の空間パラメータの計測方法は、図3に示すように、ある被写体(本実施の形態では被写体として滑走路を例示している)に向かって移動しているカメラCA(本実施の形態では航空機に搭載されているものとする)によって異なる時刻t0、t1にその被写体を撮影して得られた2枚の画像G0、G1(図8ではその一方の画像G0を示している)に対して、図12のS100からS112で示される処理を施すことにより、画像中の平面の空間パラメータ(平面方位nと規格化時間tcなど)を計測しようとするものである。
【0032】
平面領域特定方法(平面の空間パラメータの計測方法も含む)の理解を容易にするため、まず、平面領域特定方法において用いられる、ijτテーブルと平面パラメータ投票空間について説明する。
【0033】
ijτテーブル100とは、局所領域番号iにおける局所速度τの計算強度を空間パラメータの要素番号jに投票することを決めるためのものである(要素番号jは方位と到達時間のパラメータからなる全投票空間における通し番号である)。本実施の形態においては、図4及び図5に示すように、i及びjとijτとを対応づけているテーブルのことをijτテーブルと呼んでいる。ijτテーブルの作成方法については、特開2000-357235号公報の第111図及びその説明部分などに詳細に記載されているので、ここでは、ijτテーブルの作成に用いられる機能ブロックを示すにとどめる(図6及び図7参照)。
【0034】
平面パラメータ投票空間101は、図9及び図10に示すように、複数の配列の要素101aを含んだ円101bがいくつも重なり合った円柱状の投票空間であり(図8参照)、所定のプログラムが実行されることにより形成される。個々の配列の要素101aには通し番号j(1、2、・・・、最後)が割り当てられている。個々の配列の要素101aは、同じく通し番号jが割り当てられている投票値格納領域(RAM内に確保される領域)に対応している(図11参照)。
【0035】
本実施の形態の平面領域特定方法は、図8に示すように、その第1段階では、入力画像から局所領域を順次切り出し、それぞれについて局所運動検出を行う。その検出結果を基に、平面の空間パラメータによって構成された投票空間に投票を行い、投票値を累積して行く。ここでは、平面を表す空間パラメータとして、平面の方位(2次元)と平面までの規格化到達時間の3次元配列を取った。この投票空間からピークを検出することにより、画像内の平面の方位nと規格化到達時間tcが求まる。ここまでの平面検出方法についてはこれまでに報告されている(特開2000-357235号公報 ,電子情報通信学会論文誌J83-D-II, No.12, pp.2786-2797など)。
【0036】
第2段階では、ピーク検出によって得られた方位と規格化到達時間に基いて、予め記録してあった投票データを探索し、ピークへの投票に寄与した局所運動検出領域を求める。それらの局所領域を包含する部分が画像内でその平面が存在している領域である。こうして、画像中の平面領域(平面が画像中で占める領域)を特定し、抽出することができる。このように、本実施の形態によれば、画像中で向き・距離などを検出された平面が、画像内のどの領域に存在しているのかを速度検出・視差検出を行う局所領域の単位で簡単に求めることができる。
【0037】
次に、本実施の形態の平面領域特定方法(平面の空間パラメータの計測方法も含む)をコンピュータシステム300で実施する例について、図4、図12を参照しながら詳細に説明する。以下の説明においては、カメラCAの移動方向vは既知とし、平面の空間パラメータとしては平面の方位nと平面までの到達時間tcを考える。また、ijτテーブルはS100以下の処理が開始される前に予め作成されているものとする。
【0038】
以下の処理は、所定プログラムが実行されることによって実現される。所定プログラムが実行されると、まず、個々の局所領域(又は局所領域画像)を指定する局所領域番号iに初期値としてi=0が設定される(S100)。局所領域走査部102は、画像内を走査しながら時刻t0と時刻t1の2枚の画像からそれぞれ、予め設定されている局所領域(i番目の局所領域)に対応する画像部分(以下、局所領域画像という)を各々切り出す(S101)。図13は、切り出された局所領域画像の例を示している。局所運動検出部103は、画像内の任意の位置の局所運動を検出する(S102)。具体的には、局所運動検出部103は、これら切り出された2つの局所領域画像(i番目の局所領域画像)からその運動ベクトル(局所速度)を算出する。
【0039】
局所運動検出の方法としては、(a)極変換+1次元相関+逆極変換による方法(特開平6−44364号公報など参照)、あるいは、(b)MPEGの動き推定で用いられているブロックマッチングによる方法などが利用できる。この局所運動検出処理により、入力画像に応じた局所運動検出平面(局所速度マップ)が得られる。図14は、局所運動検出平面(局所速度マップ)の例を示している。
【0040】
局所運動検出平面は速度を示す座標値とその強度情報から成り、その強度情報は(a)においては反応強度、(b)で相関演算を用いる場合は相関値、(b)で差分絶対値和などの距離演算を用いる場合はその距離値を意味する。反応強度あるいは相関値が最大となる座標(距離の場合は最小となる座標)が、その局所領域の速度を示す。これらの強度情報(反応強度・相関値・距離値)を平面パラメータ投票空間への投票値として直接/間接に利用することができる。
【0041】
次に、平面パラメータ投票空間の個々の配列の要素(及び、投票値格納領域)を指定する要素番号jに初期値としてj=0が設定される(S103)。
【0042】
平面パラメータの走査部104は、ijτテーブルから、その時点での局所領域番号i及び要素番号jが対応づけられているijτを読み出す(出力する)(S104)。
【0043】
平面パラメータ投票部105は、局所運動検出部103によって検出された運動情報を投票テーブルに基づいて平面の空間パラメータで構成される投票空間に投票する。即ち、平面パラメータ投票部105は、S102で算出された運動情報に基づく計算値(強度ともいう。以下、投票値という。)をijτテーブルに従い、平面パラメータ投票空間101の要素番号jに投票して行く(S106)。具体的には、S104で読み出されたijτに対する投票値(S102で算出されている)をRAM内に確保される投票値格納領域(jで示される領域)に加算する。
【0044】
なお、投票値をそのまま(投票値に対して何らの演算を施すことなく)投票してもよいし、投票値を必要に応じて10倍あるいは1/10倍(強度計算)などして投票してもよい(S105)。また、投票値を2値化して投票してもよいし、投票値がある値よりも小さい場合には0を投票してもよい。
【0045】
投票の際、その投票値としての計算値(強度)をその投票時点での局所領域番号i及び要素番号jに対応づけて投票強度テーブル106(例えば、図15左側の投票強度テーブル106)に格納しておく(S107)。投票強度テーブル106が、投票したデータ情報を格納する投票データ格納部に相当する。強度テーブル106は、投票値(投票強度)と投票値の投票先要素の指定情報jと投票値の基礎とされた局所領域画像の指定情報i(即ち、投票時点でのi)とを対応づけたテーブルである。
【0046】
上記のS104からS107の処理は、平面パラメータ投票空間101を構成する全ての配列の要素番号に対して行われる(S108、S109)。また、上記のS101からS109の処理は、画像内の全ての局所領域画像に対して行われる(S110、S111)。本実施の形態においては、画像中には円領域で示されるi=0番目からi=10番目までの合計11個の局所領域画像が存在しているので(図8参照)、S101からS109の処理は、これらの11個の局所領域画像に対して行われる。
【0047】
全画像を走査した後に、ピーク抽出部107は、平面パラメータ投票空間101でピーク抽出を行う(S112)。即ち、ピーク抽出部107は、投票結果からピークデータを抽出する。ピークは、例えば、平面パラメータ空間101のある断面において図10に示すように出現する。
抽出されたピークの平面パラメータ投票空間101における座標位置(n、tc)が画像内に存在する平面(図8に示した画像においては、水平線以下の大地部分)の方位nと到達時間tcを示している。これにより平面が検出されたことになる。即ち、平面空間パラメータとして平面の方位nと到達時間tcが計測されたことになる。この計測された座標位置(n、tc)は要素番号jpに対応しており、要素番号jpで表すこともできる(S113)。
【0048】
次の段階では、平面領域検出部108が、ピーク抽出部107から得られたピークデータを基に、投票データ格納部を探索して平面領域に含まれる局所領域を特定する。以下、平面領域検出部108の処理について説明する。
【0049】
まず、検出された平面空間パラメータの要素番号jpを基にして、投票強度テーブル106を探索し(S115)、要素jpに投票された局所領域番号iとその投票値としての計算値(強度)を調べる(S116)。即ち、投票強度テーブル106から、要素番号jpが対応づけられている局所領域番号i及びその投票値を読み出す。
【0050】
そして、読み出した投票値を用いて平面領域としての判定処理(例えば、読み出した投票値が一定の閾値以上であるか否かの判定)を実行し(S116)、i番目の局所領域画像が平面(方位nと到達時間tcによって特定される平面)に含まれる領域であるかどうかを決定する。例えば、投票値が閾値以上のi番号に対応づけて、同一グループを示す記号”1”などをテーブルに格納する(図16参照)。
【0051】
この領域判定を繰り返して(S118、S119)、平面領域検出部108は、最終的に得られた局所領域番号i(例えば、i番号に同一グループを示す記号”1”が対応づけられている局所領域i)の覆う部分を画像中の平面(方位nと到達時間tcによって特定される平面)の領域であると特定し、抽出する(S120)。
即ち、平面の空間パラメータ(方位nと到達時間tc)によって特定される平面が撮影画像中で占める領域として、最終的に得られた局所領域番号iで指定される局所領域を特定している。また、平面の空間パラメータ(方位nと到達時間tc)によって特定される平面領域に含まれる局所領域として、最終的に得られた局所領域番号iで指定される局所領域を特定していると捉えることもできる。
さらに、抽出されたピークデータとしてのjpを基に、投票強度テーブル106から、前記複数の局所領域画像のうち抽出されたピークデータの出現に寄与した局所領域画像の指定情報iを探索し、その探索された指定情報iによって指定される局所領域画像を撮影画像中の平面領域として特定していると捉えることもできる。
【0052】
なお、投票強度テーブル106は図15右のように、ijτテーブルと共有しても構わない。このようにすれば、テーブルを格納するためのメモリなどを節約できる。また、投票強度だけではなく、検出速度がその局所運動検出平面上でピークであるか否かなどの属性を記録して、その情報を領域判定に利用することも有効である。このようにすれば、より正確に平面が存在する領域を特定することが可能になる。
【0053】
また、上記実施の形態では予め作成したijτテーブルを用いて投票を行う例について説明したが、本発明は、これに限定されることなく、逐次的に投票先要素番号を計算しながら、投票と同時に投票強度テーブルを作成し、このijτテーブルを用いて投票を行うようにしてもよい。
【0054】
また、上記実施の形態では局所領域画像として円領域に対応する合計11個の局所領域画像を用いる例について説明した(図8参照)。本発明は、これに限定されることなく、例えば、図19に示すように、局所領域画像として、画像全体を格子状に分割しその分割した個々の矩形領域(その他、三角形、5角形、楕円などあらゆる図形の領域が考えられる)に対応する局所領域画像を用いてもよい。また、その局所領域画像の個数は、必要に応じて適宜の数とすることが可能である。
【0055】
また、上記実施の形態では画像中に含まれている1つの平面の領域を特定する例について説明した。本発明は、これに限定されることなく、複数の平面それぞれの領域を、次のようにして特定することも可能である。
【0056】
例えば、図19下に示すように、立方体を撮影した3つの平面を含む画像を考える。この場合、S112では3つのピークが抽出されることになる。抽出された3つのピークの平面パラメータ投票空間101における座標位置(n1、tc1)、(n2、tc2)、(n3、tc3)が画像内に存在する3つの平面それぞれの方位nと到達時間tcを示している。これらの計測された座標位置(n1、tc1)、(n2、tc2)、(n3、tc3)は要素番号jp1、jp2、jp3に対応しており、要素番号jp1、jp2、jp3で表すこともできる(S113)。
【0057】
次に、各jp(jp1、jp2、jp3)ごとに、S114からS119の処理を行う。このとき、S116の判定処理において、jpごとに異なる閾値を用いる。そして、投票値が閾値以上のi番号に対応づけて、同一グループを示す記号”1”、”2”、”3”などをテーブルに格納する(図16参照)。
【0058】
このようにすれば、最終的に得られた局所領域番号i(例えば、i番号に同一グループを示す記号”1”が対応づけられている局所領域i)の覆う部分を画像中の第1平面(方位n1と到達時間tc1によって特定される平面)の領域であると特定し、抽出できる。第2平面(方位n2と到達時間tc2によって特定される平面)の領域及び第3平面(方位n3と到達時間tc3によって特定される平面)の領域についても同様に特定し、抽出できる。
【0059】
次に、平面領域特定方法(平面の空間パラメータの計測方法も含む)の第二の実施の形態の概略について説明する。
【0060】
本実施の形態の平面領域特定方法は、平面の空間パラメータの計測方法(特開2000-357235号公報など)によって計測された平面(平面方位nと最短距離dcによって特定される平面)が画像中(撮影画像中)で占める領域を特定しようとするものである。
【0061】
平面の空間パラメータの計測方法は、図3に示すように、左眼カメラCA及び右眼カメラCA(本実施の形態では航空機に搭載されているものとする)によって同一時刻にその被写体を撮影して得られた2枚の画像G0、G1(図8ではその一方の画像G0を示している)に対して、図18のS200からS212で示される処理を施すことにより、画像中の平面の空間パラメータ(平面方位nと平面までの最短距離dcなど)を計測しようとするものである。
【0062】
平面領域特定方法において用いられるijσテーブルとしては、上記の第一の実施の形態で説明したijτテーブルが相当し(即ち、図5に示したijτテーブルのijτの値をijσに置き換えたものがijσテーブルである)、平面パラメータ投票空間としては、上記の第一の実施の形態で説明したものと同じものを用いる。
【0063】
次に、本実施の形態の平面領域特定方法(平面の空間パラメータの計測方法も含む)をコンピュータシステム300で実施する例について、図17、図18を参照しながら詳細に説明する。以下の説明においては、左眼カメラCAから右眼カメラCAへの移動方向vは既知とし、平面の空間パラメータとしては平面の方位nと平面までの最短距離dcを考える。また、局所領域iにおける局所視差σの計算強度を空間パラメータの要素番号jに投票することを決めるためのijσテーブルはS200以下の処理が開始される前に予め作成されているものとする。
【0064】
以下の処理は、所定プログラムが実行されることによって実現される。所定プログラムが実行されると、まず、個々の局所領域(又は局所領域画像)を指定する局所領域番号iに初期値としてi=0が設定される(S200)。局所領域走査部202は、画像内を走査しながら左眼カメラCAと右目カメラより同一時刻に得られた2枚の画像からそれぞれ、予め設定されている局所領域(i番目の局所領域)に対応する画像部分(以下、局所領域画像という)を各々切り出す(S201)。図13は、切り出された局所領域画像の例を示している。局所視差検出部203は、画像内の任意の位置の局所視差を検出する(S202)。具体的には、局所視差検出部203は、これら切り出された2つの局所領域画像(i番目の局所領域画像)からその変位ベクトル(局所視差)を算出する。
【0065】
次に、平面パラメータ投票空間の個々の配列の要素(及び、投票値格納領域)を指定する要素番号jに初期値としてj=0が設定される(S203)。
【0066】
平面パラメータの走査部204は、ijσテーブルから、その時点での局所領域番号i及び要素番号jが対応づけられているijσを読み出す(出力する)(S204)。
【0067】
平面パラメータ投票部205は、局所視差検出部203によって検出された視差情報を投票テーブルに基づいて平面の空間パラメータで構成される投票空間に投票する。即ち、平面パラメータ投票部205は、S202で算出された視差情報に基づく計算値(強度ともいう。以下、投票値という。)をijσテーブルに従い、平面パラメータ投票空間の要素番号jに投票して行く(S206)。具体的には、S204で読み出されたijσに対する投票値(S202で算出されている)をRAM内に確保される投票値格納領域(jで示される領域)に加算する。
【0068】
なお、投票値をそのまま(投票値に対して何らの演算を施すことなく)投票してもよいし、投票値を必要に応じて10倍あるいは1/10倍(強度計算)などして投票してもよい(S205)。また、投票値を2値化して投票してもよいし、投票値がある値よりも小さい場合には0を投票してもよい。
【0069】
投票の際、その投票値としての計算値(強度)をその投票時点での局所領域番号i及び要素番号jに対応づけて投票強度テーブル206(例えば、図15左側の投票強度テーブル106)に格納しておく(S207)。投票強度テーブル206が、投票したデータ情報を格納する投票データ格納部に相当する。強度テーブル206は、投票値(投票強度)と投票値の投票先要素の指定情報jと投票値の基礎とされた局所領域画像の指定情報i(即ち、投票時点でのi)とを対応づけたテーブルである。
【0070】
上記のS204からS207の処理は、平面パラメータ投票空間101を構成する全ての配列の要素番号に対して行われる(S208、S209)。また、上記のS201からS209の処理は、画像内の全ての局所領域画像に対して行われる(S210、S211)。本実施の形態においては、画像中には円領域で示されるi=0番目からi=10番目までの合計11個の局所領域画像が存在しているので(図8参照)、S201からS209の処理は、これらの11個の局所領域画像に対して行われる。
【0071】
全画像を走査した後に、ピーク抽出部207は、平面パラメータ投票空間101でピーク抽出を行う(S212)。即ち、ピーク抽出部207は、投票結果からピークデータを抽出する。ピークは、例えば、平面パラメータ空間101のある断面において図10に示すように出現する。
抽出されたピークの平面パラメータ投票空間101における座標位置(n、dc)が画像内に存在する平面(図8に示した画像においては、水平線以下の大地部分)の方位nと最短距離dcを示している。これにより平面が検出されたことになる。即ち、平面空間パラメータとして平面の方位nと最短距離dcが計測されたことになる。この計測された座標位置(n、dc)は要素番号jpに対応しており、要素番号jpで表すこともできる(S213)。
【0072】
次の段階では、平面領域検出部208が、ピーク抽出部207から得られたピークデータを基に、投票データ格納部を探索して平面領域に含まれる局所領域を特定する。以下、平面領域検出部208の処理について説明する。
【0073】
まず、検出された平面空間パラメータの要素番号jpを基にして、投票強度テーブル206を探索し(S215)、要素jpに投票された局所領域番号iとその投票値としての計算値(強度)を調べる(S216)。即ち、投票強度テーブル206から、要素番号jpが対応づけられている局所領域番号i及びその投票値を読み出す。
【0074】
そして、読み出した投票値を用いて平面領域としての判定処理(例えば、読み出した投票値が一定の閾値以上であるか否かの判定)を実行し(S216)、i番目の局所領域画像が平面(方位nと最短距離dcによって特定される平面)に含まれる領域であるかどうかを決定する。例えば、投票値が閾値以上のi番号に対応づけて、同一グループを示す記号”1”などをテーブルに格納する(図16参照)。
【0075】
この領域判定を繰り返して(S218、S219)、平面領域検出部208は、最終的に得られた局所領域番号i(例えば、i番号に同一グループを示す記号”1”が対応づけられている局所領域i)の覆う部分を画像中の平面(方位nと最短距離dcによって特定される平面)の領域であると特定し、抽出する(S220)。
即ち、平面の空間パラメータ(方位nと最短距離dc)によって特定される平面が撮影画像中で占める領域として、最終的に得られた局所領域番号iで指定される局所領域を特定している。また、平面の空間パラメータ(方位nと最短距離dc)によって特定される平面領域に含まれる局所領域として、最終的に得られた局所領域番号iで指定される局所領域を特定していると捉えることもできる。
さらに、抽出されたピークデータとしてのjpを基に、投票強度テーブル106から、前記複数の局所領域画像のうち抽出されたピークデータの出現に寄与した局所領域画像の指定情報iを探索し、その探索された指定情報iによって指定される局所領域画像を撮影画像中の平面領域として特定していると捉えることもできる。
【0076】
上記実施の形態では局所領域画像として円領域に対応する合計11個の局所領域画像を用いる例について説明した(図8参照)。本発明は、これに限定されることなく、例えば、図19に示すように、局所領域画像として、画像全体を格子状に分割しその分割した個々の矩形領域(その他、三角形、5角形、楕円などあらゆる図形の領域が考えられる)に対応する局所領域画像を用いてもよい。また、その局所領域画像の個数は、必要に応じて適宜の数とすることが可能である。
【0077】
また、上記実施の形態では画像中に含まれている1つの平面の領域を特定する例について説明した。本発明は、これに限定されることなく、複数の平面それぞれの領域を、次のようにして特定することも可能である。
【0078】
例えば、図19下に示すように、立方体を撮影した3つの平面を含む画像を考える。この場合、S212では3つのピークが抽出されることになる。抽出された3つのピークの平面パラメータ投票空間101における座標位置(n1、tc1)、(n2、tc2)、(n3、tc3)が画像内に存在する3つの平面それぞれの方位nと到達時間tcを示している。これらの計測された座標位置(n1、tc1)、(n2、tc2)、(n3、tc3)は要素番号jp1、jp2、jp3に対応しており、要素番号jp1、jp2、jp3で表すこともできる(S213)。
【0079】
次に、各jp(jp1、jp2、jp3)ごとに、S214からS219の処理を行う。このとき、S216の判定処理において、jpごとに異なる閾値を用いる。そして、投票値が閾値以上のi番号に対応づけて、同一グループを示す記号”1”、”2”、”3”などをテーブルに格納する(図16参照)。
【0080】
このようにすれば、最終的に得られた局所領域番号i(例えば、i番号に同一グループを示す記号”1”が対応づけられている局所領域i)の覆う部分を画像中の第1平面(方位n1と到達時間tc1によって特定される平面)の領域であると特定し、抽出できる。第2平面(方位n2と到達時間tc2によって特定される平面)の領域及び第3平面(方位n3と到達時間tc3によって特定される平面)の領域についても同様に特定し、抽出できる。
【0081】
[その他] 本発明は、以下のように特定することができる。
(付記1) 画像内で局所運動を検出し、その運動情報を平面の空間パラメータで構成される投票空間に投票して平面の空間パラメータを求め、投票結果のデータを基に局所領域を探索することによって、前記空間パラメータによって特定される平面が画像中で占める領域を特定する平面領域特定方法。
(付記2) 画像内の任意の位置の局所運動を検出する局所運動検出部と、その運動情報を投票テーブルに基づいて平面の空間パラメータで構成される投票空間に投票する平面パラメータ投票部と、その投票結果からピークデータを抽出するピーク抽出部と、投票したデータ情報を格納する投票データ格納部と、前記ピーク抽出部から得られたピークデータを基に、前記投票データ格納部を探索して平面領域に含まれる局所領域を特定する平面領域抽出部とを備える画像計測装置。
(付記3) 画像内で局所視差を検出し、その視差情報を平面の空間パラメータで構成される投票空間に投票して平面の空間パラメータを求め、投票結果のデータを基に局所領域を探索することによって、前記空間パラメータによって特定される平面が画像中で占める領域を特定する平面領域特定方法。
(付記4) 画像内の任意の位置の局所視差を検出する局所視差検出部と、その視差情報を投票テーブルに基づいて平面の空間パラメータで構成される投票空間に投票する平面パラメータ投票部と、その投票結果からピークデータを抽出するピーク抽出部と、投票したデータ情報を格納する投票データ格納部と、前記ピーク抽出部から得られたピークデータを基に、前記投票データ格納部を探索して平面領域に含まれる局所領域を特定する平面領域抽出部とを備える画像計測装置。
(付記5) 被写体に向かって移動するカメラによって異なる時刻にその被写体を撮影して得られた撮影画像から複数の局所領域画像を切り出し、その切り出された局所領域画像ごとに、局所領域画像内の任意の位置の局所運動を検出し、投票空間を構成する複数の配列の要素それぞれに前記検出された運動情報に基づいて得られる投票値を投票し、その投票値を投票値の投票先要素の指定情報と投票値の基礎とされた局所領域画像の指定情報とに対応づけて格納し、前記投票結果からピークデータを抽出し、その抽出されたピークデータを基に、前記格納された情報から、前記複数の局所領域画像のうち前記抽出されたピークの出現に寄与した局所領域画像の指定情報を探索し、その探索された指定情報によって指定される局所領域画像を撮影画像中の平面領域として特定する平面領域特定方法。
(付記6) 被写体に向かって移動するあるいは静止した複数のカメラによって同一時刻にその被写体を撮影して得られた撮影画像から複数の局所領域画像を切り出し、その切り出された局所領域画像ごとに、局所領域画像内の任意の位置の局所視差を検出し、投票空間を構成する複数の配列の要素それぞれに前記検出された視差情報に基づいて得られる投票値を投票し、投票値と投票値の投票先要素の指定情報と投票値の基礎とされた局所領域画像の指定情報とを対応づけて格納し、前記投票結果からピークデータを抽出し、その抽出されたピークデータを基に、前記格納された情報から、前記複数の局所領域画像のうち前記抽出されたピークデータの出現に寄与した局所領域画像の指定情報を探索し、その探索された指定情報によって指定される局所領域画像を撮影画像中の平面領域として特定する平面領域特定方法。
【0082】
本発明は、その精神または主要な特徴から逸脱することなく、他の様々な形で実施することができる。このため、上記の実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。
【0083】
【発明の効果】
以上説明したように、本発明によれば、平面の空間パラメータの計測方法により計測された平面(空間パラメータによって特定される平面)が画像中で占める領域を特定することが可能になる。また、画像中のどの領域に平面が存在しているのかを特定することができるので、その平面を画像から切り出すことが可能になる。その結果、移動中の障害物の大きさを推定して適切に回避動作を行うことができる。また、重なりなどによって複数の平面に分割されて検出された平面も抽出することができる。複数の平面領域を抽出することにより、画像からのその三次元的な空間構造を再構成することも実現可能である。
【図面の簡単な説明】
【図1】本発明の第一及び第二の実施形態を実施するためのコンピュータシステムの外観図である。
【図2】図1に示すコンピュータシステムのハードウェア構成図である。
【図3】本発明の第一及び第二の実施の形態で撮影される被写体の例である。
【図4】本発明の第一の実施の形態をコンピュータシステムで実施するための機能ブロック図である。
【図5】本発明の第一の実施の形態において用いられるijτテーブルの例を説明するための図である。
【図6】本発明の第一の実施の形態において用いられるijτテーブルの作成に用いられる機能ブロック図である。
【図7】本発明の第一の実施の形態において用いられるijτテーブルの作成に用いられる機能ブロック図である。
【図8】主に、本発明の第一及び第二の実施の形態において用いられる平面パラメータ投票空間、及び、局所領域画像を説明するための図である。
【図9】本発明の第一及び第二の実施の形態において用いられる平面パラメータ投票空間の構造(断面構造)を説明するための図である。
【図10】本発明の第一及び第二の実施の形態において用いられる平面パラメータ投票空間に出現するピークを説明するための図である。
【図11】本発明の第一及び第二の実施の形態において用いられるRAM内に確保される投票値格納領域と投票との関係を説明するための図である。
【図12】本発明の第一の実施形態を図4の機能ブロックで実施する場合の動作を説明するためのフローチャートである。
【図13】本発明の第一及び第二の実施の形態において切り出される局所領域画像の例である。
【図14】本発明の第一の実施形態において得られる局所運動検出平面(局所速度マップ)の例である。
【図15】本発明の第一及び第二の実施の形態において用いられる投票強度テーブルの例である。
【図16】本発明の第一及び第二の実施の形態において用いられる、局所領域画像をグループ化するためのテーブルの例である。
【図17】本発明の第二の実施の形態をコンピュータシステムで実施するための機能ブロック図である。
【図18】本発明の第二の実施の形態を図17の機能ブロックで実施する場合の動作を説明するためのフローチャートである。
【図19】本発明の変形例を説明するための図である。
【符号の説明】
100 ijτテーブル
101 平面パラメータ投票空間
101a 配列の要素
102 局所領域走査部
103 局所運動検出部
104 平面パラメータ走査部
105 平面パラメータ投票部
106 投票強度テーブル
107 ピーク抽出部
108 平面領域検出部
202 局所領域走査部
203 局所視差検出部
204 平面パラメータ走査部
205 平面パラメータ投票部
206 投票強度テーブル
207 ピーク抽出部
208 平面領域検出部
300 コンピュータシステム
301 本体
311 CPU
312 RAM
313 磁気ディスクコントローラ
314 フロッピィディスクドライバ
315 MOドライバ
316 マウスコントローラ
317 キーボードコントローラ
318 ディスプレイコントローラ
319 通信用ボード
320 画像入力用ボード
321 磁気ディスク
322 フロッピィディスク
323 MO
400 通信回線
CA カメラ
n 平面方位
tc 規格化時間
dc 最短距離
G0,G1 画像
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image measurement method for measuring the position and orientation of a plane from an image, and specifying an area occupied by the measured plane in the image, and an image measurement apparatus that implements the image measurement method.
[0002]
[Prior art]
Conventionally, a method for measuring three-dimensional geometric information of a plane (planar spatial parameters such as plane orientation and distance) from an optical flow or a parallax vector of an image has been provided (JP 2000-357235 A). .
[0003]
According to the method described in the publication, motion information obtained from two images obtained by photographing the subject at different times t0 and t1 depending on the camera moving toward the subject, or the left eye From parallax information obtained from two images obtained by photographing the subject at the same time t by the camera and the right eye camera, the spatial parameters of the plane in the image (plane orientation, plane arrival time, plane up to plane Can be measured.
[0004]
[Problems to be solved by the invention]
However, in the method for measuring the spatial parameter of the plane, the plane (spatial parameter) can be measured, but it cannot be specified in which region in the image the measured plane exists.
[0005]
An object of the present invention is to make it possible to specify an area occupied by a plane (a plane specified by a spatial parameter) measured by a method for measuring a plane spatial parameter in an image.
[0006]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the present invention is a plane area specifying method, which detects local motion in an image, votes the motion information in a voting space constituted by plane space parameters, By obtaining a spatial parameter and searching for a local region based on the data of the voting result, the region occupied by the plane specified by the spatial parameter in the image is specified.
[0007]
According to the present invention, it is possible to specify an area occupied by a plane (a plane specified by a spatial parameter (such as plane orientation n and normalized time tc)) measured by a plane spatial parameter measurement method. become.
[0008]
When the above planar area specifying method is implemented by a computer system, the image measuring apparatus can be specified as follows.
[0009]
A plane parameter voting for voting a local motion detection unit that detects local motion at an arbitrary position in an image and a voting space composed of the spatial parameters of the plane based on the voting table. A voting data storage unit for extracting voting data information, a voting data storage unit for storing voting data information, and the voting data storage unit based on the peak data obtained from the peak extracting unit. A plane area extraction unit that searches and identifies a local area included in the plane area.
[0010]
According to the present invention, the area occupied by the plane (peak data, plane specified by the plane parameters (plane orientation n and normalization time tc, etc.)) measured by the plane spatial parameter measurement method is specified. It becomes possible. That is, it is possible to specify a local area (local area constituting the plane area) included in the plane area specified by the peak data and the plane space parameters (plane orientation n and normalization time tc).
[0011]
In order to solve the above-mentioned problem, the present invention is a plane area specifying method that detects local parallax in an image and votes the parallax information on a voting space constituted by plane space parameters. The plane space parameter is obtained, and the local area is searched based on the voting result data, whereby the area occupied by the plane specified by the space parameter in the image is specified.
[0012]
According to the present invention, it is possible to specify a region occupied by a plane (a plane specified by a spatial parameter (such as plane direction n and shortest distance dc)) measured by the plane parameter measurement method. Become.
[0013]
When the above planar area specifying method is implemented by a computer system, the image measuring apparatus can be specified as follows.
[0014]
Planar parameter voting for voting a local parallax detection unit that detects local parallax at an arbitrary position in an image and a voting space composed of the spatial parameters of the plane based on a voting table. A voting data storage unit for extracting voting data information, a voting data storage unit for storing voting data information, and the voting data storage unit based on the peak data obtained from the peak extracting unit. A plane area extraction unit that searches and identifies a local area included in the plane area.
[0015]
According to the present invention, the area occupied by a plane (peak data, a plane specified by a spatial parameter (such as plane orientation n and shortest distance dc)) measured by the plane parameter measurement method is specified in the image. Is possible. That is, it is possible to specify a local area (local area constituting the plane area) included in the plane area specified by the peak data and the plane space parameters (plane orientation n and normalization time tc).
[0016]
The present invention can also be specified as follows. A planar area specifying method, in which a plurality of local area images are cut out from captured images obtained by shooting a subject at different times by a camera moving toward the subject, and a local area image is extracted for each of the cut out local area images. A local motion at an arbitrary position in the region image is detected and obtained based on the detected motion information for each of a plurality of elements constituting a voting space (for example, the planar parameter voting space 101 in the embodiment). Vote the voting value, and associate the voting value with the specified information of the voting element of the voting value and the specified information of the local region image that is the basis of the voting value (based on the voting value or local motion detection) (For example, the voting strength table 106 in the embodiment), the peak data is extracted from the voting result, and the case is extracted based on the extracted peak data. From the obtained information, search for designation information of the local area image contributing to the appearance of the extracted peak data among the plurality of local area images, and take a local area image designated by the searched designation information Identifies as the middle planar area.
[0017]
According to the present invention, the area occupied by the plane (peak data, plane specified by the plane parameters (plane orientation n and normalization time tc, etc.)) measured by the plane spatial parameter measurement method is specified. It becomes possible.
[0018]
The present invention can also be specified as follows. A method for specifying a planar area, in which a plurality of local area images are obtained from captured images obtained by photographing a subject at the same time by a plurality of cameras (for example, two cameras) that move toward the subject or are stationary. A plurality of array elements that form a voting space (for example, the planar parameter voting space 101 in the embodiment) by detecting a local parallax at an arbitrary position in the local region image for each cut out local region image Voting values obtained based on the detected parallax information are voted for each, and the voting value and the designated information of the voting target element of the voting value and the basis of the voting value (the basis for detecting the voting value or local motion) The local area image designation information is stored in association with each other (for example, the voting strength table 106 in the embodiment), and peak data is extracted from the voting result, Based on the extracted peak data, the local information that has contributed to the appearance of the extracted peak data among the plurality of local area images is searched from the stored information, and the search is performed. The local area image specified by the specification information is specified as a planar area in the captured image.
[0019]
According to the present invention, the area occupied by the plane (the peak data, the plane specified by the plane spatial parameters (such as the plane orientation n and the shortest distance dc)) measured by the plane spatial parameter measurement method is specified. It becomes possible to do.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a system configuration for carrying out the planar area specifying method of the present invention will be described with reference to the drawings. FIG. 1 is an external view of a computer system for carrying out a planar area specifying method (including a planar spatial parameter measuring method) according to the present invention. FIG. 2 is a hardware configuration diagram of the computer system shown in FIG.
[0021]
The computer system 300 includes a central processing unit (CPU) 311 and a RAM 312, a magnetic disk controller 313, a floppy disk driver 314, an MO driver 315, a mouse controller 316, and a keyboard controller 317 that are connected to the CPU 311 via a bus or the like. , A display controller 318, a communication board 319, an image input board 320, and the like.
[0022]
The magnetic disk controller 313 is for accessing a magnetic disk 321 built in the main body 301 (see FIG. 1). The floppy disk driver 314 and the MO driver 315 are for loading the floppy disk 322 and the MO 323, respectively, and for accessing the loaded floppy disk 322 and the MO 323.
[0023]
A mouse controller 316 and a keyboard controller 317 transmit the operations of the mouse 304 and the keyboard 303 to the inside of the computer, respectively.
[0024]
The display controller 318 is a controller that displays an image on the CRT display 302 in accordance with a program executed by the CPU 311.
[0025]
Further, the communication board 319 is connected to a communication network such as a LAN or the Internet via the communication line 400. The communication board 319 serves to receive image data via the communication network, for example. I'm in charge.
[0026]
Further, the image input board is connected to an external camera CA (electronic still camera, video camera, or the like), and plays a role of capturing image data obtained by photographing with the camera CA into the computer. . Although only one camera is shown in FIG. 2, two cameras are connected to the image input board 320, and the same camera is used from different directions corresponding to the parallax of human eyes, for example. It is also possible to input two images obtained by photographing the subject at the same time.
[0027]
In addition, a camera CA and a removable recording medium such as a flash memory or an IC card are mounted on a moving body such as an aircraft, a bipedal walking robot, or a vehicle, and an image captured by the camera CA is recorded on the recording medium and stored in a computer. An image may be read from the recording medium by a connected reading device or the like and input into the computer. Further, an image may be read from such a recording medium and input into the computer via a wireless or wired communication line.
[0028]
In the computer system 300, a program stored in the floppy disk 322 or the MO 323 is installed, or a program transmitted via the communication line 400 is installed, and the planar area specifying method (planar space parameter of the present invention described later) is installed. (Including the measurement method). The function for implementing the planar area specifying method is realized by executing a predetermined program in the computer system 300. These functions are shown in various functional block diagrams and flowcharts to be described later.
[0029]
Next, an outline of the first embodiment of the plane area specifying method (including the plane space parameter measuring method) will be described.
[0030]
In the plane area specifying method of the present embodiment, a plane (plane specified by plane orientation n and standardized time tc) measured by a plane spatial parameter measurement method (JP 2000-357235 A) is an image. It is intended to specify the area occupied in the middle (in the captured image).
[0031]
As shown in FIG. 3, the plane space parameter is measured by a camera CA (aircraft in this embodiment) moving toward a certain subject (in this embodiment, a runway is illustrated as a subject). For two images G0 and G1 (one image G0 is shown in FIG. 8) obtained by photographing the subject at different times t0 and t1. By performing the processing shown in S100 to S112 in FIG. 12, the plane spatial parameters (plane orientation n and normalized time tc, etc.) in the image are to be measured.
[0032]
In order to facilitate understanding of the planar area identification method (including the measurement method of the spatial parameter of the plane), first, it is used in the planar area identification method. ij The τ table and the plane parameter voting space will be described.
[0033]
ij The τ table 100 is for deciding to vote the calculation strength of the local velocity τ in the local region number i to the element number j of the spatial parameter (the element number j is a total vote consisting of the azimuth and arrival time parameters). Serial number in space). In this embodiment, as shown in FIG. 4 and FIG. ij The table that associates τ with ij It is called the τ table. ij The method for creating the τ table is described in detail in FIG. 111 of JP-A-2000-357235 and the description thereof. ij Only functional blocks used to create the τ table are shown (see FIGS. 6 and 7).
[0034]
As shown in FIGS. 9 and 10, the planar parameter voting space 101 is a cylindrical voting space in which a plurality of circles 101b including a plurality of array elements 101a overlap each other (see FIG. 8). It is formed by being executed. A serial number j (1, 2,..., Last) is assigned to each element 101a of the array. Each element 101a of the array corresponds to a vote value storage area (area secured in the RAM) to which the serial number j is assigned (see FIG. 11).
[0035]
As shown in FIG. 8, the planar region specifying method according to the present embodiment sequentially extracts local regions from an input image and performs local motion detection for each of them in the first stage. Based on the detection result, voting is performed on the voting space constituted by the plane space parameters, and the voting values are accumulated. Here, a three-dimensional array of plane orientation (two-dimensional) and normalized arrival time up to the plane was taken as a spatial parameter representing the plane. By detecting the peak from the voting space, the plane direction n and the standardized arrival time tc in the image are obtained. The plane detection method so far has been reported so far (Japanese Patent Laid-Open No. 2000-357235, J83-D-II, No.12, pp.2786-2797, etc.).
[0036]
In the second stage, on the basis of the azimuth obtained by peak detection and the standardized arrival time, voting data recorded in advance is searched, and a local motion detection region contributing to voting for the peak is obtained. A portion including these local regions is a region where the plane exists in the image. In this way, it is possible to identify and extract a planar area (area occupied by a plane in the image) in the image. As described above, according to the present embodiment, it is possible to determine in which region in the image the plane in which the direction / distance is detected exists in the image, in units of local regions that perform speed detection / parallax detection. It can be easily obtained.
[0037]
Next, an example in which the computer system 300 implements the planar region specifying method (including the planar spatial parameter measuring method) according to the present embodiment will be described in detail with reference to FIGS. In the following description, it is assumed that the moving direction v of the camera CA is known, and the plane azimuth n and the arrival time tc to the plane are considered as the plane spatial parameters. Also, ij It is assumed that the τ table is created in advance before the processing of S100 and subsequent steps is started.
[0038]
The following processing is realized by executing a predetermined program. When the predetermined program is executed, first, i = 0 is set as an initial value to a local area number i that designates each local area (or local area image) (S100). The local area scanning unit 102 scans the inside of the image, and from each of the two images at time t0 and time t1, an image portion (hereinafter referred to as a local area) corresponding to a preset local area (i-th local area). Each image) is cut out (S101). FIG. 13 shows an example of a cut-out local area image. The local motion detection unit 103 detects local motion at an arbitrary position in the image (S102). Specifically, the local motion detection unit 103 calculates a motion vector (local velocity) from these two extracted local region images (i-th local region image).
[0039]
As a local motion detection method, (a) a pole conversion + 1-dimensional correlation + inverse pole conversion method (see JP-A-6-44364) or (b) block matching used in MPEG motion estimation. Can be used. By this local motion detection process, a local motion detection plane (local velocity map) corresponding to the input image is obtained. FIG. 14 shows an example of a local motion detection plane (local velocity map).
[0040]
The local motion detection plane is composed of coordinate values indicating velocity and intensity information thereof. The intensity information is the reaction intensity in (a), the correlation value in the case of using correlation calculation in (b), and the sum of absolute differences in (b). When the distance calculation such as is used, the distance value is meant. The coordinates at which the reaction intensity or the correlation value is maximum (the minimum coordinate in the case of distance) indicate the speed of the local region. Such intensity information (reaction intensity, correlation value, distance value) can be used directly / indirectly as a vote value for the plane parameter voting space.
[0041]
Next, j = 0 is set as an initial value to an element number j that designates an element (and a vote value storage area) of each array in the plane parameter voting space (S103).
[0042]
The plane parameter scanning unit 104 ij From the τ table, the local area number i and the element number j at that time are associated with each other. ij τ is read (output) (S104).
[0043]
The plane parameter voting unit 105 votes the motion information detected by the local motion detection unit 103 to a voting space constituted by plane space parameters based on the voting table. That is, the plane parameter voting unit 105 uses the calculated value (also referred to as intensity, hereinafter referred to as voting value) based on the exercise information calculated in S102. ij Voting is performed on the element number j of the plane parameter voting space 101 according to the τ table (S106). Specifically, it was read in S104 ij The vote value for τ (calculated in S102) is added to the vote value storage area (area indicated by j) secured in the RAM.
[0044]
The vote value may be voted as it is (without performing any operation on the vote value), or the vote value is voted 10 times or 1/10 times (intensity calculation) as necessary. (S105). Further, the vote value may be binarized and voted, or 0 may be voted when the vote value is smaller than a certain value.
[0045]
At the time of voting, the calculated value (strength) as the voting value is stored in the voting strength table 106 (for example, the voting strength table 106 on the left side of FIG. 15) in association with the local region number i and the element number j at the time of voting. (S107). The voting strength table 106 corresponds to a voting data storage unit that stores voting data information. The strength table 106 associates the voting value (voting strength) with the voting value designating element j of the voting value and the local region image designating information i based on the voting value (that is, i at the time of voting). It is a table.
[0046]
The processing from S104 to S107 is performed on the element numbers of all the arrays constituting the planar parameter voting space 101 (S108, S109). Further, the above-described processing from S101 to S109 is performed on all local area images in the image (S110, S111). In the present embodiment, there are a total of 11 local area images from i = 0th to i = 10th indicated by circular areas in the image (see FIG. 8). Processing is performed on these 11 local region images.
[0047]
After scanning all the images, the peak extraction unit 107 performs peak extraction in the planar parameter voting space 101 (S112). That is, the peak extraction unit 107 extracts peak data from the voting result. For example, the peak appears in a cross section of the planar parameter space 101 as shown in FIG.
The coordinate position (n, tc) of the extracted peak in the plane parameter voting space 101 indicates the azimuth n and arrival time tc of the plane (the ground portion below the horizontal line in the image shown in FIG. 8) in the image. ing. As a result, a plane is detected. That is, the plane direction n and the arrival time tc are measured as plane space parameters. The measured coordinate position (n, tc) corresponds to the element number jp and can also be represented by the element number jp (S113).
[0048]
In the next stage, the plane area detection unit 108 searches the voting data storage unit based on the peak data obtained from the peak extraction unit 107 and identifies a local area included in the plane area. Hereinafter, the process of the plane area | region detection part 108 is demonstrated.
[0049]
First, the voting strength table 106 is searched based on the detected element number jp of the plane space parameter (S115), and the local area number i voted for the element jp and the calculated value (intensity) as the voting value are obtained. Check (S116). That is, the local area number i associated with the element number jp and its voting value are read from the voting strength table 106.
[0050]
Then, using the read voting value, a determination process as a planar area (for example, determination whether or not the read voting value is equal to or greater than a certain threshold value) is executed (S116), and the i-th local area image is planar It is determined whether or not the region is included in (the plane specified by the azimuth n and the arrival time tc). For example, the symbol “1” or the like indicating the same group is stored in the table in association with the i number whose voting value is equal to or greater than the threshold (see FIG. 16).
[0051]
By repeating this region determination (S118, S119), the planar region detecting unit 108 determines the local region number i finally obtained (for example, the local number in which the symbol “1” indicating the same group is associated with the i number). A portion covered by the region i) is identified as a region of a plane in the image (a plane identified by the azimuth n and the arrival time tc) and extracted (S120).
That is, the local area specified by the finally obtained local area number i is specified as the area occupied by the plane specified by the plane space parameters (direction n and arrival time tc) in the captured image. Further, it is assumed that the local region specified by the finally obtained local region number i is specified as the local region included in the plane region specified by the plane spatial parameters (direction n and arrival time tc). You can also.
Further, based on jp as the extracted peak data, search the voting intensity table 106 for the designation information i of the local area image that contributed to the appearance of the extracted peak data among the plurality of local area images, It can also be understood that the local area image designated by the searched designation information i is specified as a planar area in the captured image.
[0052]
The voting strength table 106 is as shown on the right side of FIG. ij It may be shared with the τ table. In this way, a memory for storing the table can be saved. It is also effective to record not only the voting intensity but also an attribute such as whether or not the detection speed is a peak on the local motion detection plane and use the information for region determination. In this way, it is possible to specify the region where the plane exists more accurately.
[0053]
In the above embodiment, it was created in advance. ij Although an example in which voting is performed using the τ table has been described, the present invention is not limited to this, and a voting strength table is created simultaneously with voting while sequentially calculating voting element numbers. ij Voting may be performed using the τ table.
[0054]
In the above embodiment, an example in which a total of 11 local area images corresponding to a circular area are used as local area images has been described (see FIG. 8). The present invention is not limited to this. For example, as shown in FIG. 19, as a local region image, the entire image is divided into a grid shape and the divided rectangular regions (in addition, triangles, pentagons, ellipses). A local region image corresponding to any graphic region may be used. The number of local area images can be set to an appropriate number as necessary.
[0055]
Further, in the above-described embodiment, the example in which the area of one plane included in the image is specified has been described. The present invention is not limited to this, and the areas of each of the plurality of planes can be specified as follows.
[0056]
For example, as shown in the lower part of FIG. 19, consider an image including three planes obtained by photographing a cube. In this case, three peaks are extracted in S112. The coordinate positions (n1, tc1), (n2, tc2), (n3, tc3) of the three extracted peaks in the plane parameter voting space 101 are the azimuth n and arrival time tc of each of the three planes present in the image. Show. These measured coordinate positions (n1, tc1), (n2, tc2), (n3, tc3) correspond to the element numbers jp1, jp2, and jp3, and can also be represented by the element numbers jp1, jp2, and jp3. (S113).
[0057]
Next, the processing from S114 to S119 is performed for each jp (jp1, jp2, jp3). At this time, a different threshold is used for each jp in the determination process of S116. Then, the symbols “1”, “2”, “3” and the like indicating the same group are stored in the table in association with the i-number whose voting value is equal to or greater than the threshold (see FIG. 16).
[0058]
In this way, the first plane in the image covers the portion covered by the finally obtained local region number i (for example, the local region i in which the symbol “1” indicating the same group is associated with the i number). It can be specified and extracted as a region of (a plane specified by the direction n1 and the arrival time tc1). The region of the second plane (the plane specified by the azimuth n2 and the arrival time tc2) and the region of the third plane (the plane specified by the azimuth n3 and the arrival time tc3) can be similarly specified and extracted.
[0059]
Next, an outline of the second embodiment of the plane area specifying method (including the plane space parameter measuring method) will be described.
[0060]
In the plane area specifying method of the present embodiment, a plane (a plane specified by the plane orientation n and the shortest distance dc) measured by a plane space parameter measurement method (Japanese Patent Laid-Open No. 2000-357235, etc.) is included in the image. This is intended to specify the area occupied by (in the captured image).
[0061]
As shown in FIG. 3, the plane space parameter is measured by photographing the subject at the same time using a left-eye camera CA and a right-eye camera CA (in this embodiment, they are mounted on an aircraft). The two images G0 and G1 obtained in this way (one image G0 is shown in FIG. 8) are subjected to the processing shown in S200 to S212 in FIG. A parameter (such as the plane direction n and the shortest distance dc to the plane) is to be measured.
[0062]
Used in planar area identification method ij The σ table has been described in the first embodiment. ij corresponds to the τ table (ie shown in FIG. ij τ table ij the value of τ ij The one replaced by σ ij As the plane parameter voting space, the same one as described in the first embodiment is used.
[0063]
Next, an example in which the plane area specifying method (including the plane space parameter measurement method) according to the present embodiment is implemented in the computer system 300 will be described in detail with reference to FIGS. 17 and 18. In the following description, it is assumed that the moving direction v from the left eye camera CA to the right eye camera CA is known, and the plane space parameter is the plane direction n and the shortest distance dc to the plane. In addition, for deciding to vote the calculated intensity of the local parallax σ in the local region i for the element number j of the spatial parameter ij It is assumed that the σ table is created in advance before the processing of S200 and subsequent steps is started.
[0064]
The following processing is realized by executing a predetermined program. When the predetermined program is executed, first, i = 0 is set as an initial value to a local area number i that designates each local area (or local area image) (S200). The local area scanning unit 202 corresponds to a preset local area (i-th local area) from two images obtained at the same time from the left eye camera CA and the right eye camera while scanning the image. Each image portion to be performed (hereinafter referred to as a local region image) is cut out (S201). FIG. 13 shows an example of a cut-out local area image. The local parallax detection unit 203 detects local parallax at an arbitrary position in the image (S202). Specifically, the local parallax detection unit 203 calculates a displacement vector (local parallax) from these two cut out local area images (i-th local area image).
[0065]
Next, j = 0 is set as an initial value to an element number j that designates an element (and vote value storage area) of each array in the plane parameter voting space (S203).
[0066]
The plane parameter scanning unit 204 includes: ij From the σ table, the local area number i and the element number j at that time are associated with each other. ij σ is read (output) (S204).
[0067]
The plane parameter voting unit 205 votes the parallax information detected by the local parallax detection unit 203 to a voting space composed of plane space parameters based on the voting table. That is, the plane parameter voting unit 205 uses the calculated value (also referred to as intensity, hereinafter referred to as voting value) based on the parallax information calculated in S202. ij Voting is performed on the element number j of the plane parameter voting space according to the σ table (S206). Specifically, it was read in S204. ij The vote value for σ (calculated in S202) is added to the vote value storage area (area indicated by j) secured in the RAM.
[0068]
The vote value may be voted as it is (without performing any operation on the vote value), or the vote value is voted 10 times or 1/10 times (intensity calculation) as necessary. (S205). Further, the vote value may be binarized and voted, or 0 may be voted when the vote value is smaller than a certain value.
[0069]
At the time of voting, the calculated value (intensity) as the voting value is stored in the voting intensity table 206 (for example, the voting intensity table 106 on the left side of FIG. 15) in association with the local region number i and element number j at the time of voting. (S207). The voting strength table 206 corresponds to a voting data storage unit that stores voting data information. The strength table 206 associates the voting value (voting strength) with the voting value voting destination element designation information j and the local region image designation information i based on the voting value (that is, i at the time of voting). It is a table.
[0070]
The above processing from S204 to S207 is performed for the element numbers of all the arrays constituting the planar parameter voting space 101 (S208, S209). Further, the processing from S201 to S209 is performed on all local region images in the image (S210, S211). In the present embodiment, since there are a total of 11 local region images from i = 0th to i = 10th indicated by a circular region in the image (see FIG. 8), S201 to S209 Processing is performed on these 11 local region images.
[0071]
After scanning all images, the peak extraction unit 207 performs peak extraction in the planar parameter voting space 101 (S212). That is, the peak extraction unit 207 extracts peak data from the vote result. For example, the peak appears in a cross section of the planar parameter space 101 as shown in FIG.
The coordinate position (n, dc) of the extracted peak in the plane parameter voting space 101 indicates the azimuth n and the shortest distance dc of the plane (the ground portion below the horizontal line in the image shown in FIG. 8) in the image. ing. As a result, a plane is detected. That is, the plane direction n and the shortest distance dc are measured as plane space parameters. The measured coordinate position (n, dc) corresponds to the element number jp and can also be represented by the element number jp (S213).
[0072]
In the next stage, the plane area detection unit 208 searches the voting data storage unit based on the peak data obtained from the peak extraction unit 207 and identifies a local area included in the plane area. Hereinafter, the process of the plane area detection unit 208 will be described.
[0073]
First, the voting strength table 206 is searched based on the detected element number jp of the planar space parameter (S215), and the local area number i voted for the element jp and the calculated value (intensity) as the voting value are obtained. Check (S216). That is, the local area number i associated with the element number jp and its voting value are read from the voting strength table 206.
[0074]
Then, a determination process as a planar area (for example, determination of whether or not the read voting value is equal to or greater than a certain threshold value) is executed using the read vote value (S216), and the i-th local area image is planar. It is determined whether the region is included in (the plane specified by the azimuth n and the shortest distance dc). For example, the symbol “1” or the like indicating the same group is stored in the table in association with the i number whose voting value is equal to or greater than the threshold (see FIG. 16).
[0075]
By repeating this region determination (S218, S219), the planar region detection unit 208 determines the local region number i finally obtained (for example, the local number in which the symbol “1” indicating the same group is associated with the i number). The part covered by the area i) is specified as an area of a plane in the image (a plane specified by the azimuth n and the shortest distance dc) and extracted (S220).
In other words, the local area specified by the finally obtained local area number i is specified as the area occupied by the plane specified by the plane space parameters (direction n and shortest distance dc) in the captured image. Further, it is assumed that the local area specified by the finally obtained local area number i is specified as the local area included in the plane area specified by the plane spatial parameters (direction n and shortest distance dc). You can also.
Further, based on jp as the extracted peak data, search the voting intensity table 106 for the designation information i of the local area image that contributed to the appearance of the extracted peak data among the plurality of local area images, It can also be understood that the local area image designated by the searched designation information i is specified as a planar area in the captured image.
[0076]
In the above embodiment, an example in which a total of 11 local area images corresponding to a circular area are used as local area images has been described (see FIG. 8). The present invention is not limited to this. For example, as shown in FIG. 19, as a local region image, the entire image is divided into a grid shape and the divided rectangular regions (in addition, triangles, pentagons, ellipses). A local region image corresponding to any graphic region may be used. The number of local area images can be set to an appropriate number as necessary.
[0077]
Further, in the above-described embodiment, the example in which the area of one plane included in the image is specified has been described. The present invention is not limited to this, and the areas of each of the plurality of planes can be specified as follows.
[0078]
For example, as shown in the lower part of FIG. 19, consider an image including three planes obtained by photographing a cube. In this case, three peaks are extracted in S212. The coordinate positions (n1, tc1), (n2, tc2), (n3, tc3) of the three extracted peaks in the plane parameter voting space 101 are the azimuth n and arrival time tc of each of the three planes present in the image. Show. These measured coordinate positions (n1, tc1), (n2, tc2), (n3, tc3) correspond to the element numbers jp1, jp2, and jp3, and can also be represented by the element numbers jp1, jp2, and jp3. (S213).
[0079]
Next, the processing from S214 to S219 is performed for each jp (jp1, jp2, jp3). At this time, a different threshold is used for each jp in the determination process of S216. Then, the symbols “1”, “2”, “3” and the like indicating the same group are stored in the table in association with the i-number whose voting value is equal to or greater than the threshold (see FIG. 16).
[0080]
In this way, the first plane in the image covers the portion covered by the finally obtained local region number i (for example, the local region i in which the symbol “1” indicating the same group is associated with the i number). It can be specified and extracted as a region of (a plane specified by the direction n1 and the arrival time tc1). The region of the second plane (the plane specified by the azimuth n2 and the arrival time tc2) and the region of the third plane (the plane specified by the azimuth n3 and the arrival time tc3) can be similarly specified and extracted.
[0081]
[Others] The present invention can be specified as follows.
(Supplementary note 1) Local motion is detected in an image, the motion information is voted on a voting space composed of plane spatial parameters to obtain a plane spatial parameter, and a local region is searched based on the data of the voting result. A plane area specifying method for specifying an area occupied in the image by the plane specified by the spatial parameter.
(Supplementary Note 2) A local motion detection unit that detects local motion at an arbitrary position in an image, a plane parameter voting unit that votes the motion information based on a voting table into a voting space composed of plane spatial parameters, Based on the peak data obtained from the peak extraction unit that extracts peak data from the voting result, the voting data storage unit that stores the voted data information, and the peak extraction unit, the voting data storage unit is searched. An image measurement apparatus comprising: a planar area extraction unit that identifies a local area included in a planar area.
(Appendix 3) Detecting local parallax in an image, voting the parallax information to a voting space composed of plane spatial parameters to obtain a plane spatial parameter, and searching for a local region based on voting result data A plane area specifying method for specifying an area occupied in the image by the plane specified by the spatial parameter.
(Additional remark 4) The local parallax detection part which detects the local parallax of the arbitrary positions in an image, The plane parameter voting part which votes the parallax information to the voting space comprised by a plane spatial parameter based on a voting table, Based on the peak data obtained from the peak extraction unit that extracts peak data from the voting result, the voting data storage unit that stores the voted data information, and the peak extraction unit, the voting data storage unit is searched. An image measurement apparatus comprising: a planar area extraction unit that identifies a local area included in a planar area.
(Supplementary Note 5) A plurality of local region images are cut out from captured images obtained by shooting the subject at different times depending on the camera moving toward the subject, and each local region image thus cut out is included in the local region image. A local motion at an arbitrary position is detected, a vote value obtained on the basis of the detected motion information is voted for each of a plurality of array elements constituting the voting space, and the vote value is assigned to a vote destination element of the vote value. Corresponding and storing the designation information and the designation information of the local region image that is the basis of the voting value, extracting peak data from the voting result, and from the stored information based on the extracted peak data The local area image that has contributed to the appearance of the extracted peak is searched for in the plurality of local area images, and the local area image specified by the searched specification information is captured. A plane area specifying method for specifying as a plane area in a shadow image.
(Supplementary Note 6) A plurality of local region images are cut out from captured images obtained by shooting the subject at the same time by a plurality of cameras moving toward or stationary at the same time, and for each of the cut out local region images, A local parallax at an arbitrary position in the local area image is detected, and a vote value obtained based on the detected parallax information is voted for each of a plurality of array elements constituting the voting space. The designation information of the voting destination element and the designation information of the local area image based on the voting value are stored in association with each other, the peak data is extracted from the voting result, and the storage is performed based on the extracted peak data. The specified information of the local area image that contributed to the appearance of the extracted peak data is searched from the plurality of local area images, and specified by the searched specification information. A plane area specifying method for specifying a local area image to be performed as a plane area in a captured image.
[0082]
The present invention can be implemented in various other forms without departing from the spirit or main features thereof. For this reason, said embodiment is only an illustration in all the points, and is not interpreted limitedly.
[0083]
【The invention's effect】
As described above, according to the present invention, it is possible to specify the area occupied by the plane (plane specified by the spatial parameter) measured by the plane spatial parameter measurement method. In addition, since it is possible to specify in which region in the image the plane exists, it is possible to cut out the plane from the image. As a result, the avoidance operation can be appropriately performed by estimating the size of the moving obstacle. A plane detected by being divided into a plurality of planes by overlapping or the like can also be extracted. It is also possible to reconstruct the three-dimensional spatial structure from the image by extracting a plurality of planar regions.
[Brief description of the drawings]
FIG. 1 is an external view of a computer system for carrying out first and second embodiments of the present invention.
2 is a hardware configuration diagram of the computer system shown in FIG. 1. FIG.
FIG. 3 is an example of a subject photographed in the first and second embodiments of the present invention.
FIG. 4 is a functional block diagram for implementing the first embodiment of the present invention in a computer system.
FIG. 5 is used in the first embodiment of the present invention. ij It is a figure for demonstrating the example of (tau) table.
FIG. 6 is used in the first embodiment of the present invention. ij It is a functional block diagram used for preparation of a τ table.
FIG. 7 is used in the first embodiment of the present invention. ij It is a functional block diagram used for preparation of a τ table.
FIG. 8 is a diagram for mainly explaining a planar parameter voting space and a local region image used in the first and second embodiments of the present invention.
FIG. 9 is a diagram for explaining the structure (cross-sectional structure) of a planar parameter voting space used in the first and second embodiments of the present invention.
FIG. 10 is a diagram for explaining peaks appearing in a planar parameter voting space used in the first and second embodiments of the present invention.
FIG. 11 is a diagram for explaining a relationship between a voting value storage area secured in a RAM used in the first and second embodiments of the present invention and voting.
12 is a flowchart for explaining an operation when the first embodiment of the present invention is implemented by the functional blocks of FIG. 4;
FIG. 13 is an example of a local region image cut out in the first and second embodiments of the present invention.
FIG. 14 is an example of a local motion detection plane (local velocity map) obtained in the first embodiment of the present invention.
FIG. 15 is an example of a voting strength table used in the first and second embodiments of the present invention.
FIG. 16 is an example of a table for grouping local area images used in the first and second embodiments of the present invention.
FIG. 17 is a functional block diagram for implementing the second embodiment of the present invention in a computer system.
FIG. 18 is a flowchart for explaining an operation when the second embodiment of the present invention is implemented by the functional blocks of FIG. 17;
FIG. 19 is a diagram for explaining a modification of the present invention.
[Explanation of symbols]
100 ij τ table
101 planar parameter voting space
101a Array elements
102 Local area scanning unit
103 Local motion detector
104 Planar parameter scanning unit
105 Planar parameter voting section
106 Voting strength table
107 Peak extractor
108 Planar area detector
202 Local area scanning unit
203 Local parallax detection unit
204 Planar parameter scanning unit
205 Planar parameter voting section
206 Voting Strength Table
207 Peak extractor
208 Planar area detector
300 computer system
301 body
311 CPU
312 RAM
313 Magnetic disk controller
314 floppy disk driver
315 MO driver
316 Mouse controller
317 Keyboard controller
318 Display controller
319 Communication board
320 Image input board
321 magnetic disk
322 floppy disk
323 MO
400 communication line
CA camera
n Planar orientation
tc Normalization time
dc shortest distance
G0, G1 images

Claims (5)

画像内で局所運動を検出し、その運動情報を平面の空間パラメータで構成される投票空間に投票して複数の平面の空間パラメータを求め、投票結果のデータを基に局所領域を探索することによって、前記空間パラメータによって特定される複数の平面が画像中で占める領域を特定する平面領域特定方法。By detecting local motion in the image, voting the motion information to a voting space composed of spatial parameters of the plane, obtaining spatial parameters of multiple planes, and searching for local regions based on the data of the voting results A plane area specifying method for specifying an area occupied by a plurality of planes specified by the spatial parameter in an image. 画像内の任意の位置の局所運動を検出する局所運動検出部と、
その運動情報を投票テーブルに基づいて平面の空間パラメータで構成される投票空間に投票する平面パラメータ投票部と、
その投票結果から複数のピークデータを抽出するピーク抽出部と、
投票したデータ情報を格納する投票データ格納部と、
前記ピーク抽出部から得られた複数のピークデータを基に、前記投票データ格納部を探索して複数の平面領域に含まれる局所領域をそれぞれ特定する平面領域抽出部とを備える画像計測装置。
A local motion detector that detects local motion at an arbitrary position in the image;
A plane parameter voting unit for voting the motion information to a voting space composed of plane space parameters based on a voting table;
A peak extraction unit that extracts a plurality of peak data from the voting results;
A voting data storage for storing voting data information;
Wherein based on the plurality of peak data obtained from the peak extraction unit, an image measuring device and a plane area extracting unit searches the voting data storage unit specifying each local regions included in the plurality of planar regions.
画像内で局所視差を検出し、その視差情報を平面の空間パラメータで構成される投票空間に投票して複数の平面の空間パラメータを求め、投票結果のデータを基に局所領域を探索することによって、前記空間パラメータによって特定される複数の平面が画像中で占める領域を特定する平面領域特定方法。By detecting local parallax in an image, voting the parallax information to a voting space composed of plane spatial parameters, obtaining spatial parameters of multiple planes, and searching for local regions based on the data of voting results A plane area specifying method for specifying an area occupied by a plurality of planes specified by the spatial parameter in an image. 画像内の任意の位置の局所視差を検出する局所視差検出部と、
その視差情報を投票テーブルに基づいて平面の空間パラメータで構成される投票空間に投票する平面パラメータ投票部と、
その投票結果から複数のピークデータを抽出するピーク抽出部と、
投票したデータ情報を格納する投票データ格納部と、
前記ピーク抽出部から得られた複数のピークデータを基に、前記投票データ格納部を探索して複数の平面領域に含まれる局所領域をそれぞれ特定する平面領域抽出部とを備える画像計測装置。
A local parallax detector that detects local parallax at an arbitrary position in the image;
A plane parameter voting unit for voting the parallax information to a voting space composed of plane space parameters based on a voting table;
A peak extraction unit that extracts a plurality of peak data from the voting results;
A voting data storage for storing voting data information;
Wherein based on the plurality of peak data obtained from the peak extraction unit, an image measuring device and a plane area extracting unit searches the voting data storage unit specifying each local regions included in the plurality of planar regions.
被写体に向かって移動するカメラによって異なる時刻にその被写体を撮影して得られた撮影画像から複数の局所領域画像を切り出し、その切り出された局所領域画像ごとに、局所領域画像内の任意の位置の局所運動を検出し、平面の空間パラメータからなる投票空間を構成する複数の配列の要素それぞれに前記検出された運動情報に基づいて得られる投票値を投票し、その投票値を投票値の投票先要素の指定情報と投票値の基礎とされた局所領域画像の指定情報とに対応づけて格納し、前記投票結果から複数のピークデータを抽出し、その抽出された複数のピークデータを基に、前記格納された情報から、前記複数の局所領域画像のうち前記抽出されたピークの出現に寄与した局所領域画像の指定情報を探索し、その探索された複数の指定情報によって指定される複数の局所領域画像を撮影画像中の複数の平面領域として特定する平面領域特定方法。A plurality of local region images are cut out from captured images obtained by shooting the subject at different times depending on the camera moving toward the subject, and an arbitrary position in the local region image is extracted for each of the cut out local region images. A local motion is detected, and a vote value obtained based on the detected motion information is voted for each element of a plurality of arrays constituting a voting space composed of plane space parameters, and the vote value is voted to Store in association with the designation information of the element and the designation information of the local region image that is the basis of the vote value, extract a plurality of peak data from the vote result, based on the extracted plurality of peak data, from the stored information, the designation information of the local region image that has contributed to the emergence of the peaks extracted explore the multiple designations are the search among the plurality of local region image A plurality of local region image plane region specifying method for specifying a plurality of planar regions in the captured image specified by broadcast.
JP2001362478A 2001-11-28 2001-11-28 Planar area specifying method and image measuring apparatus Expired - Fee Related JP4288028B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001362478A JP4288028B2 (en) 2001-11-28 2001-11-28 Planar area specifying method and image measuring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001362478A JP4288028B2 (en) 2001-11-28 2001-11-28 Planar area specifying method and image measuring apparatus

Publications (2)

Publication Number Publication Date
JP2003162725A JP2003162725A (en) 2003-06-06
JP4288028B2 true JP4288028B2 (en) 2009-07-01

Family

ID=19172972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001362478A Expired - Fee Related JP4288028B2 (en) 2001-11-28 2001-11-28 Planar area specifying method and image measuring apparatus

Country Status (1)

Country Link
JP (1) JP4288028B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4645601B2 (en) 2007-02-13 2011-03-09 トヨタ自動車株式会社 Environmental map generation method and mobile robot

Also Published As

Publication number Publication date
JP2003162725A (en) 2003-06-06

Similar Documents

Publication Publication Date Title
US9183444B2 (en) Information processing apparatus, information processing method, and computer program
Liu et al. Detecting and counting people in surveillance applications
CN109829398B (en) Target detection method in video based on three-dimensional convolution network
CN107093171B (en) Image processing method, device and system
US10311595B2 (en) Image processing device and its control method, imaging apparatus, and storage medium
CN109344746B (en) Pedestrian counting method, system, computer device and storage medium
US20120163672A1 (en) Depth Estimate Determination, Systems and Methods
EP2573734B1 (en) Systems and methods for evaluating plane similarity
JP6111745B2 (en) Vehicle detection method and apparatus
WO2012177336A2 (en) Systems and methods for estimating the geographic location at which image data was captured
JP4906683B2 (en) Camera parameter estimation apparatus and camera parameter estimation program
JPH1166319A (en) Method and device for detecting traveling object, method and device for recognizing traveling object, and method and device for detecting person
Shi et al. An improved lightweight deep neural network with knowledge distillation for local feature extraction and visual localization using images and LiDAR point clouds
CN113537047A (en) Obstacle detection method, obstacle detection device, vehicle and storage medium
Ferguson et al. A 2d-3d object detection system for updating building information models with mobile robots
Liang et al. Reduced-complexity data acquisition system for image-based localization in indoor environments
WO2021193672A1 (en) Three-dimensional model generation method and three-dimensional model generation device
CN114764870A (en) Object positioning model processing method, object positioning device and computer equipment
US20150254527A1 (en) Methods for 3d object recognition and registration
JP2013218605A (en) Image recognition device, image recognition method, and program
CN111368883A (en) Obstacle avoidance method based on monocular camera, computing device and storage device
JP4288028B2 (en) Planar area specifying method and image measuring apparatus
CN116883981A (en) License plate positioning and identifying method, system, computer equipment and storage medium
Li et al. SIFT and SURF feature analysis in visible and infrared imaging for uavs
CN111597893B (en) Pedestrian image matching method and device, storage medium and terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070803

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070828

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090330

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130403

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140403

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees