JP2004144719A - Measuring method and instrument of object position/form by ultrasonic array sensor - Google Patents

Measuring method and instrument of object position/form by ultrasonic array sensor Download PDF

Info

Publication number
JP2004144719A
JP2004144719A JP2002312784A JP2002312784A JP2004144719A JP 2004144719 A JP2004144719 A JP 2004144719A JP 2002312784 A JP2002312784 A JP 2002312784A JP 2002312784 A JP2002312784 A JP 2002312784A JP 2004144719 A JP2004144719 A JP 2004144719A
Authority
JP
Japan
Prior art keywords
group
map
data
point
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002312784A
Other languages
Japanese (ja)
Inventor
Koushi Aketo
明渡 甲志
Toshinori Inoue
井上 敏範
Shigeru Makino
牧野 滋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2002312784A priority Critical patent/JP2004144719A/en
Publication of JP2004144719A publication Critical patent/JP2004144719A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enable to track an object which is moving relatively to a sensor even if occlusion is generated, in a measuring method and an instrument of object position/form by an ultrasonic array sensor. <P>SOLUTION: Position information and reflection intensity of the object to be tracked are detected by using the ultrasonic sensor, and a detecting object map ZM and a reflection intensity map RM are obtained. By simulating an intensity value at each point by using the maximum reflection intensity value on the front side of the sensor as a standard, data only in a range which is predetermined based on an upper limit H and a lower limit L of the reflection intensity are extracted and a reliable and new detection object map ZM is created. Object tracking is executed with respect to a tracking point group on the detection object map 2M obtained in a time series order while performing decision of characteristic point, detection of occlusion, and inclusion of occlusion to a pattern for matching. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、超音波アレイセンサによる物体位置・形状の計測方法及びその計測装置に関する。
【0002】
【従来の技術】
従来、計測対象物の位置や形状を計測するセンサとして、計測対象物からの反射超音波を受信するアレイ型超音波センサが知られている。このセンサは、超音波受信素子がアレイ状に配置されており、超音波の発射から反射波を受信するまでの時間によって、対象物までの距離を検出するものである。超音波は光に比べて伝搬速度が遅いため距離計測が容易である。また、超音波センサを機械的に首振り動作をさせて計測方向を走査するかわりに、アレイ状に配置した受信素子の出力に対して遅延処理を行うことにより、電子的に走査を行うことができる。このようなアレイ型超音波センサとして、小型化を目的とした構成に特徴があるアレイ型センサや(例えば、特許文献1参照)、超音波の発信部をアレイ型として、各発信素子から発せられる超音波の位相をずらせて、波動の干渉現象により形成されるメインビームの方向を制御した超音波と組み合わせて用いられるアレイ型センサ(例えば、特許文献2参照)などがある。
【0003】
【特許文献1】
特開2002−156451号公報
【特許文献2】
特開2001−305222号公報
【0004】
【発明が解決しようとする課題】
しかしながら、上述したような特許文献1及び2においては、センサと相対的に移動する物体を追跡処理する場合のオクルージョン問題及びノイズ等によるあいまいなデータの処理については言及されていない。このような点は、対象物体が静止している場合は問題ないが、移動物体を追跡処理する場合、特に問題となる。超音波の受信素子がアレイ状に配列された超音波センサにより対象物の方向を電子的に走査して、センサと相対的に移動する物体のセンサに対面する表面位置・形状を計測しながら追跡する際に、対象物体表面の凹凸とセンサの位置関係によっては対象物体自身の陰になるため計測されないオクルージョンが生じる場合がある。このようなオクルージョンが発生したときは、計測する対象物体の見かけの表面形状が変化するため、対象物体を追跡することが困難となる。ノイズ等のあいまいなデータが含まれるときは、さらに追跡が困難となる。
【0005】
本発明は、上記課題を解消するものであって、オクルージョンが生じてもセンサに対し相対的に移動する物体を追跡することができる、超音波アレイセンサによる物体位置・形状の計測方法及びその計測装置を提供することを目的とする。
【0006】
【課題を解決するための手段及び発明の効果】
上記課題を達成するために、請求項1の発明は、超音波アレイセンサにより検出した物体の位置検出データを用いて、前記センサに対し相対的に移動する物体のセンサと対面する表面位置及び/又は表面形状を計測する物体位置・形状の計測方法において、計測した前記表面位置及び表面形状のデータを検出物マップに展開するマップ作成ステップと、前記検出物マップ上のそれぞれの点における反射強度のデータを反射強度マップに展開する強度マップ作成ステップと、前記検出物マップと反射強度マップに示されたそれぞれのデータについて時間的又は空間的に所定の範囲内で略滑らかに変化するデータを信頼性のあるデータとして抽出して新たな検出物マップを作成するデータ抽出ステップと、を有するものである。
【0007】
上記計測方法においては、超音波受信素子がアレイ状に配列された超音波センサを用いて、センサと物体の相対位置が時系列的に異なる物体の位置情報と反射強度を検出して、これらの情報を組み合わせ、ノイズ等の不良データを識別して破棄するので、信頼性のある表面位置及び表面形状のデータが得られる。このようなデータが得られることで、センサに対し相対移動する物体の追跡が容易かつ確実となる。
【0008】
請求項2の発明は、請求項1記載の物体位置・形状の計測方法において、前記データ抽出ステップにより抽出された相対的に移動する物体の2回以上の表面位置及び/又は表面形状の検出データを比較することにより、検出物のオクルージョンの発生部分を推定するオクルージョン推定ステップと、物体の追跡に用いるマッチング用パターンを前記オクルージョンが発生した場合の物体の位置姿勢に補正すると共に前記オクルージョンを組み込んだ新たなマッチング用パターンを生成するパターン生成ステップと、前記生成した新たなマッチング用パターンを用いて次のパターンマッチングを行い物体の位置及び/又は姿勢を追跡する追跡ステップと、をさらに有するものである。
【0009】
上記計測方法においては、相対位置の異なる条件において、2回以上の表面位置及び表面形状の信頼性ある検出データを得て、これらを比較するので、オクルージョンの推定及びマッチング用パターンの更新を精度良くでき、オクルージョンが生じても対象物体の追跡が可能となる。
【0010】
請求項3の発明は、請求項1又は請求項2記載の物体位置・形状の計測方法において、前記データ抽出ステップにより抽出された前記検出物マップを時系列的に取得し、各検出物マップについて物体の測定点から成るグループの中から所定の特徴点をグループの代表点として定め、時系列的に先後する各グループについて、先のグループの代表点とこの代表点に対応する後のグループにおける代表点との移動距離が所定量以下の場合に、先のグループと後のグループとが前記物体の同一グループに対応するものであると判断して物体の位置及び/又は姿勢を追跡する追跡ステップをさらに有するものである。
【0011】
上記計測方法においては、追跡点グループの特徴点である代表点に着目し、各代表点の移動距離をもとに同一性を判断して追跡するので、時系列検出物マップ間の追跡点誤対応を減少できる。また、代表点により判断するので判断処理時間が短縮される。
【0012】
請求項4の発明は、請求項1乃至請求項3のいずれかに記載の物体位置・形状の計測方法において、前記データ抽出ステップにより抽出された前記検出物マップを時系列的に取得し、各検出物マップについて物体の測定点から成るグループの中から所定の特徴点をグループの代表点として定め、時系列的に先後する各グループについて、先のグループの代表点の反射強度とこの代表点に対応する後のグループにおける代表点の反射強度との強度差が所定量以下の場合に、先のグループと後のグループとが前記物体の同一測定点グループに対応するものであると判断して物体の位置及び/又は姿勢を追跡する追跡ステップをさらに有するものである。
【0013】
上記計測方法においては、追跡点グループの特徴点である代表点に着目し、各代表点の反射強度をもとに同一性を判断して追跡するので、時系列検出物マップ間の追跡点誤対応を減少できる。また、代表点により判断するので判断処理時間が短縮される。
【0014】
請求項5の発明は、請求項1乃至請求項4のいずれかに記載の物体位置・形状の計測方法において、強度マップ作成ステップにおいて反射強度が所定値以上の測定点を検出物マップにおける有効測定値とするものである。
【0015】
上記計測方法においては、受信した反射超音波の反射強度の高いデータのみを有効値とするので信頼性の高い計測値が得られる。このような計測値が得られることで、センサに対し相対移動する物体の追跡が容易かつ確実となる。
【0016】
請求項6の発明は、請求項1記載の物体位置・形状の計測方法において、前記データ抽出ステップにより抽出された検出物マップを時系列的に取得し、時系列的に先後する先の検出物マップにおける物体の測定点から成るグループをマッチング用パターンとして移動及び回転を含む幾何学変換を行い、これと後の検出物マップにおけるグループとを重ねて類似度が所定以上で最大となる対象を検出し、これら検出した対象をもとにオクルージョンの発生部分を検出するオクルージョン検出ステップと、前記マッチング用パターンに前記オクルージョンを組み込んで補正した新たなマッチング用パターンを生成し、この生成したマッチング用パターンを用いて次のパターンマッチングを行って物体の位置及び/又は姿勢を追跡する追跡ステップと、をさらに有するものである。
【0017】
上記計測方法においては、先後の検出物マップにおける対応点を検出し、これをもとに生成したマッチング用パターンによりオクルージョンを検出してオクルージョンを組み込んで再度マッチング用パターンを生成し、このリフレッシュされたマッチング用パターンを用いて追跡するので、計測された対象物体の見かけの表面形状がオクルージョン発生により変化しても、パターンマッチングによる対象物体の追跡が可能となる。
【0018】
請求項7の発明は、請求項6記載の物体位置・形状の計測方法において、前記オクルージョン検出ステップにおいて、予め分かっている物体の形状データを基にオクルージョンの発生部分を推定し、前記幾何学変換を行ったグループを、この推定したオクルージョン発生部分により補正して新たなマッチング用パターンを生成するものである。
【0019】
上記計測方法においては、計測された対象物体の見かけの表面形状がオクルージョンにより変化しても、オクルージョンの組み込みがより確実に行われ、パターンマッチングによる対象物体の追跡が容易かつ確実となる。
【0020】
請求項8の発明は、請求項6又は請求項7記載の物体位置・形状の計測方法において、検出物マップにおける連続する点列により形成される曲線の曲率の大きい部分を特徴点としてマッチング用パターンに含めるものである。
【0021】
上記計測方法においては、追跡点グループの特徴点である曲率の大きい部分を代表点としてこれに着目し、各代表点の移動距離をもとに同一性を判断して追跡するので、時系列検出物マップ間の追跡点誤対応を減少できる。また、追跡のための代表点を選択する選択肢が広がり、追跡をより確実にできる。
【0022】
請求項9の発明は、請求項6乃至請求項8のいずれかに記載の物体位置・形状の計測方法において、検出物マップにおける物体の測定点から成るグループに含まれる点列曲線の曲率が、先後する複数の検出物マップにおいて、所定量以下の変化を示す場合に、先のグループと後のグループとが前記物体の同一測定点グループに対応するものであると判断する追跡点同定ステップをさらに有するものである。
【0023】
上記計測方法においては、追跡点列の曲率に着目し、その変化量をもとに同一性を判断して追跡するので、角部等の特徴点の少ない形状物体の時系列検出物マップ間の追跡ができ、誤対応を減少できる。また、追跡のための代表点を選択する選択肢が広がり、追跡をより確実にできる。
【0024】
請求項10の発明は、請求項6乃至請求項9のいずれかに記載の物体位置・形状の計測方法において、検出物マップにおける物体の測定点から成る第1及び第2の2つのグループについて、時系列的に先後する先の検出物マップにおける第1のグループに幾何学変換を行って後の検出物マップにおける前記第1のグループに対応するグループを得たとき、同じ変換を先の検出物マップにおける第2のグループに行い、その変換したグループの点と後の検出物マップにおける第2のグループの点との距離が所定の値以下の場合に、第1及び第2の2つのグループを1つのグループとする再グループ化ステップをさらに有するものである。
【0025】
上記計測方法においては、2つの追跡点グループについて同じ幾何学変換を行って、その変換に対する追跡点の挙動に基づいて、2つのグループの同一グループ性を判断するので、ノイズ判別と除去及び複数物体の識別が可能となり、物体追跡をより確実にできる。
【0026】
請求項11の発明は、請求項6乃至請求項10のいずれかに記載の物体位置・形状の計測方法において、時間的に連続する検出物マップのグループに係る測定点を追跡した際の軌跡から次の検出物マップにおけるグループの位置を推定する軌跡予測ステップをさらに有するものである。
【0027】
上記計測方法においては、追跡点の過去の移動軌跡に基づく次の移動位置を推定するので、次の検出物マップにおける追跡に要する演算時間を短縮できる。
【0028】
請求項12の発明は、請求項6乃至請求項11のいずれかに記載の物体位置・形状の計測方法において、検出物マップにおける物体の測定点から成るグループにおける点列から求めた回帰直線の傾きが、先後する複数の検出物マップにおいて、略滑らかに変化する場合に、先の検出物マップのグループと後の検出物マップのグループとが物体の同一測定点グループに対応するものであると判断する直線追跡ステップをさらに有するものである。
【0029】
上記計測方法においては、追跡点列の回帰直線の傾きに着目し、その変化量をもとに同一性を判断して追跡するので、角部等の特徴点の少ない形状物体の時系列検出物マップ間の追跡ができ、誤対応を減少できる。また、追跡のための代表点を選択する選択肢が広がり、追跡をより確実にできる。
【0030】
請求項13の発明は、超音波音源と、超音波音源の超音波発信を制御する超音波発信制御手段と、超音波音源から発信された超音波が検出物体により反射される超音波を検出する超音波アレイセンサと、超音波発信制御手段と同期して超音波アレイセンサで検出した超音波信号を受信する超音波信号受信手段と、超音波信号受信手段からの超音波アレイセンサの各素子出力信号を処理して検出物体の位置を検出する物体位置検出手段と、物体位置検出手段で検出した位置検出データから検出物体の表面位置及び表面形状データを生成し、生成した表面位置及び表面形状データを検出物マップに展開するマップ作成機能手段、前記検出物マップ上のそれぞれの点における反射強度のデータを反射強度マップに展開する強度マップ作成機能手段、及び前記検出物マップと反射強度マップに示されたそれぞれのデータについて時間的又は空間的に所定の範囲内で略滑らかに変化するデータを信頼性のあるデータとして抽出して新たな検出物マップを作成するデータ抽出機能手段を用いて検出物体の位置・形状を計測する物体位置・形状計測手段と、を備えた物体位置・形状の計測装置である。
【0031】
上記構成においては、上記請求項1乃至請求項12のいずれかと同様の作用が得られる。また、超音波アレイセンサを用いて、相対移動する物体の表面位置・形状計測及び物体追跡を行う簡便な装置が得られる。
【0032】
【発明の実施の形態】
以下、本発明の一実施形態に係る超音波アレイセンサによる物体位置・形状の計測方法及びその計測装置について、図面を参照して説明する。図1は超音波アレイセンサ(以下センサ)と物体との位置関係を示す。ここに、物体1,2及びセンサSはそれぞれ互いに相対的に移動しており、センサSが点P1から点P2に移動して計測する。センサSは、2次元的に配列された複数の超音波受信素子からなる受信面と、超音波を発する音源と、超音波の発信・受信制御及び信号処理を行う制御部を備えている。センサSは音源から超音波を発し、3次元形状の物体1,2の表面で反射した超音波を、受信部の複数の素子で受信する。超音波が音源から発信されてセンサSに受信されるまでの時間に基づいて、センサSと対象物表面において超音波が反射した各部分までの距離が計測される。また、距離の計測と同時に、受信した反射超音波の強度も計測される。センサSは、各受信素子が受信した信号を電気的に走査することにより、例えば、点P1において、左右方向X1,奥行き又は距離Z1及び上下方向位置Y1について、距離及び方向を計測することができる。対象物表面の形状は、離散的な点群データとして表現される。
【0033】
図2はある時間において計測された表面位置・形状データの例を示す。また、図3(a)、(b)は検出状況と検出物マップを示す。ここには、特定の高さ位置Y1=y1、Y2=y2(y1=y2)における計測結果を示し、センサSに対面した物体表面の計測点m1,m2に対応して、検出物マップZM1,ZM2に点群として表される。図4は上記により得られた複数の検出物マップZM1,ZM2をセンサSの視点から同一マップ上に表現したものである。
【0034】
図5(a)(b)はそれぞれ検出物マップ及び反射強度マップを示す。検出物マップのデータに対して、以下のように反射強度マップのデータを用いて、信頼性向上のためのデータ抽出が行われる。まず、表面位置・形状のデータから図5(a)に示される一連の計測点データ11〜15と計測点16からなる検出物マップZMが得られたとする。このとき、検出物マップZM上のそれぞれの点に対応する受信超音波の強度は図5(b)に示される反射強度マップRMとして展開される。展開された反射強度マップRM上で、反射強度データは一連のデータ21〜25,26のように分布する。センサSからの遠近及びセンサSの正面位置からの振れ角度に依存して、センサSに近く、また、その正面にあるものほど反射強度が強く分布するため、反射強度データがグループ化されて分布している。
一般に、超音波は伝搬に伴って減衰し、またセンサSの受信面と反射体とのなす角度等によって反射強度が変化する。そこで、センサ正面での最大反射強度値を基準にして各点での強度値をシミュレーションすることで、反射強度の上限界H及び下限界Lを求め、これらの上限界Hと下限界Lに基づいて定めた所定範囲内のデータのみを信頼性あるデータとして抽出し他を破棄する選別ができる。例えば、検出物マップZMにおける点16は、反射強度マップRMにおける対応する点26が所定範囲から外れているためノイズとして破棄される。
【0035】
図6は上述のような信頼性データ抽出を一連の計測の中で行う処理フローを示す。まず、物体へ向けて超音波が発信され、物体から反射した超音波が超音波アレイセンサで受信される(S101,S102)。超音波アレイセンサを構成する各受信素子で受信された信号に、遅延操作(電子走査)が行われ、センサの視野内の各方向に存在する物体の表面位置・形状データ及び超音波の反射強度データが作成される(S103)。次に、これらのデータが特定水平面において検出物マップZM(n)と反射強度マップRM(n)に展開される(S104)。次に、反射強度マップRM(n)における各データを、超音波伝播条件Jに基づく判定条件により判定して、信頼性あるデータが抽出され、他のデータは破棄される。超音波伝播条件Jには、超音波の伝播経路における媒質条件、超音波の発信条件、反射条件、受信条件等が含まれる。また、検出物マップZM(n)の各データは、対応する反射強度マップRM(n)の各データの抽出又は破棄に伴い、抽出又は破棄される(S105)。抽出されたデータにより信頼性ある検出物マップZM(n)が再作成され、これをもとに物体位置・形状決定が行われ、n回目の計測が終了する(S106,S107)。この後、上記同様に(n+1)回目の計測が行われる(S108)。
【0036】
次に、オクルージョン推定と動体追跡について説明する。図7はオクルージョン発生の様子を示す。オクルージョンは被計測物体自身の陰になってセンサSから見えない表面部分ができることにより発生する。反射超音波RUは、図におけるオクルージョン発生箇所OCからセンサSに入射することがない。このようなオクルージョンが発生すると、計測された対象物体の見かけの形状が変化するため、対象物体の追跡が困難となる。この間題を解決するため、少なくとも2回以上の対象物の位置・形状検出データを比較し、オクルージョンの発生部分を推定し、マッチング用パターンをその位置姿勢でのオクルージョンになるように補正して、マッチング用オクルージョン補正パターンにてパターンマッチングを行って、対象物の位置姿勢を追跡する。
【0037】
図8は上述のようなオクルージョン補正を考慮した位置・形状計測と物体追跡を行う処理フローを示す。まず、n回目の計測が行われ前述の信頼性あるデータ抽出を経た検出物マップZM(n)が取得される(S201)。次に、前回の計測データ又は事前に予測して求められたデータから得られたマッチング用パターンM(n)を用いて、検出物マップZM(n)上で対象とする追跡物体を検出するパターンマッチングが行われる(S202)。パターンマッチングに失敗した場合、つまり対象物体を検出できなかった場合(S203でno)、オクルージョンの発生により検出物マップZM(n)上の追跡すべき点の集まり(追跡点グループ)の構造が変化したと判断され、次のステップにおいて、オクルージョンの推定とマッチング用パターンの補正が行われる。オクルージョン推定のため、物体とセンサの相対位置が異なるk個(k≧2)の時系列検出物マップZM(i)、i=n1〜nkが取得される(S204)。この時系列検出マップZM(i)は、オクルージョン発生を追跡するのに必要十分な相対位置変化間隔で取得される。相対位置の変化速度等に依存して、はじめに粗い間隔で取得し、次により細かい間隔で取得することも行われる。このようにして得られた角検出物マップZM(i)に対してパターンマッチングを行い、オクルージョンを推定し(S205)、得られたオクルージョン情報をマッチング用パターンM(n)に組み込んで新たなマッチング用パターンM(n)とする(S206)。この後、通常の追跡が続行される(S207,S208)。また、ステップS203においてパターンマッチングが成功して対象物体が検出された場合も(S203でyes)、次の相対位置変化した状態における計測へと追跡が続行される(S207,S208)。
【0038】
次に、時系列的に連続した検出物マップ間におけるグループを追跡する方法を説明する。図9は検出物マップ上の時系列的に先後する2つの追跡点グループG(n−1),G(n)を示す。各追跡点グループの点列において、終点や折れ線の頂点等の複数の特徴点a(j,k)がグループの代表点として決定される。そして、代表点の互いに対応する点、例えばa(n−1,3)とa(n,3)とを結ぶベクトルV3、同様にV2,V1について絶対値が求められ、各絶対値の大きさが所定の判定値以下の場合に追跡点グループG(n−1)とグループG(n)は物体上の同一点グループに対応すると判断され、同一グループとして追跡が実行される。
【0039】
図10は上述した追跡方法の処理フローを示す。まず、(n−1)回目の検出物マップ作成と追跡点グループG(n−1)の決定が行われ(S301)、追跡点グループG(n−1)内の点群からm個の特徴点が決定される(S302)。
次に、物体とセンサの相対位置が変化した状態でn回目の計測について上記と同様のステップが行われる(S303〜S305)。次に、各代表点の移動距離が各点間の移動ベクトルの絶対値、例えば、|a(n−1)−a(n)|の計算により求められ、その値と所定の判定値からのずれD(i)が計算される(S306)。次に、全てのずれD(i)が正、つまり移動量が判定値より小さいとき(S307でyes)、追跡点グループG(n−1)とG(n)は物体上の同一点グループに対応すると判断される(S308)。この場合は、追跡が成功しており、追跡が続行される(S309)。ステップS307でnoの場合、追跡は失敗していると判断され、例外処理が行われる(S310)。なお、上記では各点の移動距離を所定の判定値と比較したが、各点の移動距離間のばらつきを所定の判定値と比較して、ばらつきが判定値以下の場合に追跡点グループG(n−1)とグループG(n)は物体上の同一点グループに対応すると判断してもよい。
【0040】
次に、時系列的に連続した検出物マップ間におけるグループを追跡する他の方法を説明する。図11は検出物マップ上の時系列的に先後する2つの追跡点グループG(n−1),G(n)を示す。各追跡点グループG(n−1),G(n)において、終点や折れ線の頂点等の複数の特徴点a(j,k)がグループの代表点として決定さる。そして、代表点の互いに対応する点、例えばa(n−1,3)とa(n,3)における反射強度r(n−1,3)とr(n,3)が比較される。各対応点についての各反射強度の差が所定量以下の場合に、追跡点グループG(n−1)とグループG(n)は物体上の同一点グループに対応すると判断され、同一グループとして追跡される。
【0041】
図12は上述した追跡方法の処理フローを示す。この場合の処理フローは、前述の図10における代表点a(j,k)の替わりに反射強度r(j,k)が用いられ、判定値からのずれD(i)の替わりに、判定値からの代表点反射強度変化のずれE(i)=(判定値)−|r(n,i)−r(n,i)|が用いられている点が異なる。また、他の追跡方法として、図9、図10の移動距離を用いる追跡方法と、図11、図12の反射強度の差を用いる追跡方法を組み合わせて追跡してもよく、この追跡方法では移動距離および反射強度の差の両方がそれぞれの所定量以下であるとき、追跡点グループG(n−1)と追跡点グループG(n)は物体上の同一点グループに対応すると判断するため、さらに信頼性高く追跡することができる。
【0042】
次に、反射強度に対し下限値を設けて、検出物マップの信頼性を上げる方法について説明する。図13はその方法の処理フローを示す。各計測点において、反射強度が所定量以上であればノイズである可能性が低く、信号としてのS/Nが大きいため方向や距離の算出結果の信頼性が高くなる。まず、物体へ向けて超音波が発信され、物体から反射した超音波が超音波アレイセンサで受信される(S501,S502)。超音波アレイセンサを構成する各受信素子で受信された信号に、遅延操作(電子走査)が行われ、センサの視野内の各方向に存在する物体の表面位置・形状データ及び超音波の反射強度データが作成される(S503)。次に、各反射強度値が所定の判定値と比較され、判定値よりも大きい場合は(S504でyes)次のステップに進み、判定値よりも小さい場合は(S504でno)、その反射強度データに対応する表面位置・形状データ及び反射強度データが破棄される(S505)。この処理が全ての測定データについて行われた後(S506でyes)、破棄されずに残ったデータが検出物マップZM(n)と反射強度マップRM(n)に展開される(S507)。次に、図6において説明された信頼性あるデータを抽出する処理が行われ、最終的に得られた検出物マップZM(n)により、物体位置・形状決定が行われn回目の計測が終了する(S508〜S510)。この後、上記同様に(n+1)回目の計測が行われる(S511)。
【0043】
次に、オクルージョンを補正する方法とパターンマッチングによる追跡方法について説明する。図14は時間的に先後する2つの追跡点グループを示す。先の追跡点グループG(n−1)は、物体表面の凸部に対しほぼ正面から計測されており、また、後の追跡点グループG(n)は凸部の右斜め方向から計測されている。このため、追跡点グループG(n)にはオクルージョンOCが発生している。計測データにオクルージョンが含まれる場合、連続して2回以上計測する。つまり、相対移動している物体を異なる方向から計測することによって求めた検出物マップを用いてマッチング用パターンの補正を行うことができる。
【0044】
図15(a)は上述した先の追跡点グループに幾何学変換を施し、オクルージョンを検出する様子を示す。オクルージョンを含まない追跡点グループG(n−1)をマッチング用パターンとして、これに回転及び平行移動からなる幾何学変換を施して、類似度が所定以上で最大になるグループを見つけてパターンマッチングを行う。これは、検出物マップ上には図示していないが、追跡点グループG(n)は、通常複数あり、その中から追跡中のグループに対応するグループを検出する必要があることによる。対応する追跡点グループを見つけることができた場合、追跡点グループを構成する計測点列の平行度等を比較し、マッチング用パターンにおいて追跡点グループG(n)の形状と大きく異なる部分をオクルージョン発生部位として抽出する。
【0045】
図15(b)(c)は新たなマッチング用パターン生成の方法を示す。マッチング用パターンをその位置姿勢に対応するように位置補正すると共に、抽出した部位情報によりオクルージョン補正を行い、新たなマッチング用パターンを生成する。以後は、この補正されたマッチング用パターンを用いてパターンマッチングを行う。これにより、計測された対象物体にオクルージョンが生じて見かけの表面形状が変化しても、パターンマッチングによる対象物体の追跡が可能となる。
【0046】
図16は上述したオクルージョン補正の処理フローを示す。まず、物体へ向けて超音波を発信することから、検出物マップZM(1)の作成、物体位置・形状決定が行われ(S601,S602)、検出物マップZM(1)上の物体測定点から追跡点グループG(1)が決定される(S603)。この追跡点グループ(1)をもとにマッチング用パターンM(1)が生成される(S604)。マッチング用パターンM(1)は、次の計測と物体追跡におけるパターンマッチングに用いられる。同様に、n回目の計測が行われ、追跡点グループG(n)が決定される(S605〜S607)。この時点で、追跡点グループG(n)がオクルージョンを含んでいると想定して、そのようなオクルージョンを含んだ追跡点グループG(n)に対するマッチング用パターンM(n)を生成する方法を説明する。まず、前回計測の追跡点グループG(n−1)をもとに設定されたマッチング用パターンM(n−1)に対して平行移動と回転を含む幾何学変換を施した変換追跡点グループK(n−1)を求める(S608)。次に、幾何学変換の条件を変化させながら、追跡点グループG(n)と変換追跡点グループK(n−1)との類似度を最大とする(S609,S610)。類似度が最大となったときの変換追跡点グループK(n−1)をもとにマッチング用パターンM(n)を生成する(S611)。次に、追跡点グループG(n)の各点と生成されたマッチング用パターンM(n)の各点を比較してオクルージョン発生部分を検出する(S612〜S614)。次に、マッチング用パターンM(n)にオクルージョンを組み込む補正を行った新たなマッチング用パターンM(n)を生成する(S615)。次回の計測・追跡では、この補正されたマッチング用パターンM(n)を用いてパターンマッチングが行われる。
【0047】
図17はオクルージョンの発生する部位が予め分かっている場合のマッチング用パターンの生成の方法を示す。対象物体の形状が分かっている場合は、パターンマッチング時に行われる幾何学変換に対して、対象物体の見え方の変化、従って、オクルージョンの発生の様子が予測できる。このため、マッチング用パターンの補正が容易に行われる。また、対象物体の形状さらに対象物体の回転等の動きが予め分かっている場合、同様にマッチング用パターンの補正が容易となる。
このような事前情報はセンサと対象物体の間に介在物が往来する場合などの追跡において、とくに有効である。マッチング用パターンにオクルージョン補正を行うことにより、オクルージョンが生じて計測された対象物体の見かけの表面形状が変化しても、パターンマッチングによる対象物体の追跡が可能となる。
【0048】
次に、検出物マップにおける測定点列のなす曲線の曲率に着目した代表点の決定について説明する。図18は検出物マップ上の点列曲線を示す。検出物マップ上の追跡点グループにおいて、測定点列からなる折れ線の頂点等がない曲線のような場合は、特徴点が点列の終点のみとなり、追跡の信頼性が低下する。このようなときは、曲率の変化量の大きい部分を求め、これらの点p1、p2、p3を特徴点とすることで、時系列追跡点グループ間の誤対応を減少できる。
【0049】
次に、検出物マップにおける測定点列のなす曲線の曲率半径に着目した追跡方法(追跡点同定方法)について説明する。図19は検出物マップ上の時系列を構成する2つの追跡点グループG(n−1),G(n)を示す。各グループにおいて、測定点列に折れ線の頂点等の特徴点がない滑らかな曲線の場合は、特徴点が点列の終点のみとなり、追跡の信頼性が低下する。このようなときは、曲線の曲率を求め、曲率半径を特徴点の替わりに用いることができる。
【0050】
図20は上述の追跡方法の処理フローを示す。まず、曲率半径ρ(n−1),ρ(n)が求められ(S701,S702)、両者の差|ρ(n−1)−ρ(n)|が所定の判定値と比較される。曲率半径の差が所定量以下の場合に(S703でyes)、両追跡点グループG(n−1),G(n)の点は、物体上の同一追跡点であると同定され(S704)、そうでない場合(S703でno)、追跡点グループG(n−1),G(n)の点は、物体上の異なるグループ、つまり追跡対象点ではないとされる(S705)。このように、曲率半径を用いることで、追跡点を同定して追跡することができ、時系列追跡点グループ間の誤対応を減少できる。
【0051】
次に、追跡点グループの同一性判定と再グループ化方法について説明する。図21は先後する各計測時点において2つづつの追跡点グループがある場合を示す。検出物マップ上の同一計測時における2つの追跡点グループG1(n−1),G2(n−1)、及び他の計測時における2つの追跡点グループG1(n),G2(n)について考える。追跡点グループG1(n−1),G1(n)の追跡が行われ、追跡が成功した後に、追跡点グループG2(n−1),G2(n)の同一性が判断される。
【0052】
図22は上述の再グループ化方法の処理フローを示す。まず、(n−1)回目とn回目における追跡点グループG1(n−1),G2(n−1),G1(n),G2(n)が決定される(S801〜S803)。追跡点グループG1(n−1)に幾何学変換を施して変換グループH1(n−1)とする(S804)。次に、追跡点グループG1(n)と変換グループH1(n−1)の類似度判断が行われ(S805)、最終幾何学変換Tにより類似度が最大となり、追跡点グループG1(n−1)とG1(n)が同一追跡点に対応すると判断される(S806〜S808)。次に、追跡点グループG2(n−1)に前記最終幾何学変換Tを施して変換グループH2(n−1)とする(S809)。次に、追跡点グループG2(n)内の各点a2(n,i)と変換グループH2(n−1)内の各点b2(n−1,i)の差D(i)が計算される(S810)。差D(i)が所定の判定値と比較され、全てのD(i)が判定値以下の場合に(S811でyes)、両追跡点グループG1とG2の点は、同一グループに属すべき点であると判断され1つに再グループ化される(S812)。そうでない場合(S811でno)、追跡点グループG1,G2の点は、別グループに属すものと判断される(S813)。このとき、別グループの点とされるものは、ノイズか別の物体に属する測定点であると考えられる。
【0053】
次に、追跡点グループの移動領域予測方法について説明する。図23は検出物マップ上の時系列をなす3つの追跡点グループを示す。最初の2つの追跡点グループG(n−1),G(n)において、グループ内の点列のなす終点や、折れ線の頂点等から構成される複数の特徴点をグループの代表点とする。追跡点グループ間の互いに対応する点を結ぶ移動ベクトル軌跡V1,V2,V3から、次の(n+1)回目の計測で追跡点グループが移動すると推定される移動ベクトル軌跡W1,W2,W3及び候補点を予測する。その予測に基づいて、候補点の周辺を次のパターンマッチングの候補領域とすることで、次の検出物マップにおける追跡位置を推定できるので、演算時間を短縮できる。
【0054】
次に、追跡点グループを特徴づける他の方法について説明する。図24は検出物マップ上の時系列をなす2つの追跡点グループG(n−1),G(n)を示す。各グループ内の点列のなす終点や、折れ線の頂点等から構成される複数の特徴点をグループの代表点とする。各グループ内において、これらの特徴点の点列が例えば2つの回帰直線としてそれぞれ所定の値以上の相関係数を有するときG(n−1)における直線L1(n−1),L2(n−1)、G(n)における直線L1(n−1),L2(n−1)等を導入する。そして、追跡時に対応する直線の傾きの差が所定量以下の場合に、同一グループとする。これにより、特徴点の少ない形状の計測点列の追跡点グループであっても、このように追跡でき、誤対応を減少させることができる。ここで、1グループの回帰直線は1つでも、あるいは2つ以上に区分して決定してもよい。
【0055】
次に、上述した物体位置・形状の計測方法を組み込んだ物体位置・形状の計測装置について説明する。図25は本計測装置のブロック図を示す。計測装置は、超音波音源100と、超音波音源100の超音波発信を制御する超音波発信制御手段200と、超音波音源100から発信された超音波が検出物体により反射される超音波を検出する超音波アレイセンサ300と、超音波アレイセンサ300で検出した超音波信号を超音波発信制御手段200に同期して受信する超音波信号受信手段400とを備えている。また、計測装置は、超音波信号受信手段400からの各素子出力信号を処理して検出物体の位置を検出する物体位置検出手段500と、物体位置検出手段500で検出した位置検出データを用いて検出物体の位置・形状を計測する物体位置・形状計測手段600とを備えている。
【0056】
上述の超音波アレイセンサ300は、例えば縦N列、横M行に超音波受信素子301を配列したアレイ状のセンサである。超音波音源100は、超音波の送信方向と受信方向の角度を少なくするように、超音波アレイセンサ300の近傍に設置される。また、超音波発信制御手段200は、超音波音源100を制御して超音波をパルス発信させると共に、パルス発信のタイミング信号を、超音波受信手段400に送る。超音波受信手段400はそのタイミング信号に同期して各超音波受信素子301が受信した超音波信号受信する。各超音波受信素子301からの信号及び時間情報を含む信号は物体位置検出手段500へ送られる。
【0057】
物体位置検出手段500は、上述の各受信素子301が受信した時間情報を含む信号を、アレイ状に配列された各受信素子301の配列に従って、遅延加算部501において電気的に走査することにより、超音波アレイセンサ300が対面する物体の表面各点の方向を示す方向データ及びその方向における強度データを得て計算結果記憶部503へと送出する。また、遅延加算部501からは各方向毎の信号として再構成された受信超音波信号とその時間情報が距離算出部502にへと送られる。距離算出部502はこれらの信号及び時間情報をもとにセンサと物体の表面各点との距離を算出して計算結果記憶部503へと送出する。計算結果記憶部503は、これらの方向データ、強度データ、及び距離データを位置検出データとして記憶保存すると共に物体位置・形状計測手段600へと送出する。
【0058】
上述の位置検出データは、物体位置・形状計測手段600の検出物マップ作成部601及び反射強度マップ作成部602において、特定の垂直位置について、水平走査位置に対する距離及び同じ水平走査位置に対する反射強度の分布マップとして展開される。データは各マップ上で離散データとして表現される。検出物マップに展開された距離データは、データ抽出部603において、反射強度マップ上のデータと超音波の伝播及び計測条件に基づいた所定の判別処理によって取捨選択が行われ、信頼性ある距離データのみが抽出されてなる検出物マップが再構成される。このような検出物マップを全ての垂直位置に対して行うことにより、超音波アレイセンサ300が対面する物体表面の3次元位置データが得られ、従って、物体位置・形状の計測が行われる。
【0059】
上述の再構成された検出物マップの距離データは、3次元物体の位置・形状データであるため、物体の形状及び計測方向によっては計測データにオクルージョンが発生する。オクルージョンに対して、物体とセンサの相対移動による計測位置の変化に伴う計測データを得て物体形状を推定する。計測対象物体が移動している場合は、経時的に計測することにより相対位置の異なる計測ができる。また、物体位置・形状計測装置本体又は超音波アレイセンサ300に移動装置を設けることにより相対位置の異なる計測ができる。逆に、超音波アレイセンサ300と物体の相対位置が変化する場合において、パターンマッチングの手法を用いて、オクルージョンの推定を行いながら、物体追跡を行うことができる。
【0060】
このようなオクルージョンの推定又は検出及びパターンマッチング用のパターン生成及びそのパターンの更新、さらに物体の追跡は、オクルージョン検出部604,オクルージョン推定部607、パターン生成部605,608、追跡部606,609における一連の処理によって行われる。オクルージョンの検出又は推定の結果、マッチング用パターン、計測対象物の計測データ等は、計測結果出力部610に出力されると共に、計測データ記憶部611に記憶される。計測データ記憶部611に記憶されたデータは、計測対象物体と超音波アレイセンサ300の相対位置が変化した次の計測におけるパターンマッチング用データやオクルージョン推定/検出用のデータとして、データ抽出部603以降における処理において用いることができる。
【0061】
なお、本発明は、上記説明に限られることなく種々の変形が可能である。例えば、一水平面上における検出物マップについて説明したが、これに限られることなく、上下斜め方向への移動体の追跡についても同様に適用可能である。また、上記に示された時系列的に連続した検出物マップ間における追跡点グループを追跡する方法、特徴点を決定する方法等は組み合わせて用いることができ、組み合わせることで移動体追跡の信頼性が向上する。また、類似度判断として、画像処理において行われる通常の手法である、対応する構成点間の距離の二乗和や絶対値和等が最小のとき類似度が最大であるとする方法等を用いることができる。また、幾何学変換として二次元内の回転及び平行移動を用いて説明したが、本発明に用いられる幾何学変換はこれに限られることなく、拡大や縮小、又は三次元空間における物体の移動に基づく計測点の空間配置変換等を含むものである。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る、超音波アレイセンサによる物体位置・形状の計測方法を概念的に説明する斜視図。
【図2】同上計測方法により得られる表面位置・形状データを概念的に示す斜視図。
【図3】(a)は同上計測方法におけるセンサ配置の例を示す平面図、(b)は(a)におけるセンサ配置において得られた検出物マップの概念図。
【図4】同上計測方法により得られた検出物マップの図。
【図5】(a)は同上計測方法により得られた検出物マップの図、(b)は同上計測方法により得られた反射強度マップの図。
【図6】本発明の一実施形態に係る位置・形状計測のフロー図。
【図7】三次元計測におけるオクルージョンを説明する平面図。
【図8】本発明の一実施形態に係る位置・形状計測、及び追跡方法のフロー図。
【図9】本発明の一実施形態に係る追跡方法を説明する図。
【図10】同上位置・形状計測、及び追跡方法のフロー図。
【図11】本発明の一実施形態に係る他の追跡方法を説明する図。
【図12】同上位置・形状計測、及び追跡方法のフロー図。
【図13】本発明の一実施形態に係る位置・形状計測のフロー図。
【図14】時系列データを説明する検出物マップ図。
【図15】(a)は本発明の一実施形態に係るマッチング用パターンの幾何学変換を説明する図、(b)は同じくオクルージョン補正を説明する図、(c)は同じく新たなマッチング用パターンを説明する図。
【図16】本発明の一実施形態に係るさらに他の位置・形状計測、及び追跡方法のフロー図。
【図17】本発明の一実施形態に係るマッチング用パターンの補正を説明する図。
【図18】本発明の一実施形態に係る特徴点を求める方法を説明する図。
【図19】同上特徴点を求める他の方法を説明する図。
【図20】本発明の一実施形態に係る追跡点同定のフロー図。
【図21】本発明の一実施形態に係る追跡点の再グループ化を説明する図。
【図22】同上再グループ化のフロー図。
【図23】本発明の一実施形態に係る追跡点グループを追跡する方法を説明する図。
【図24】同上追跡点グループを追跡する他の方法を説明する図。
【図25】本発明の一実施形態に係る物体位置・形状の計測装置ブロック図。
【符号の説明】
1,2 物体
100 超音波音源
200 超音波発信制御手段
300 超音波アレイセンサ
400 超音波信号受信手段
500 物体位置検出手段
600 物体位置・形状計測手段
G,G(n),G1(n),G2(n) 追跡点グループ
L1(n),L2(n) 回帰直線
M(n) マッチング用パターン
OC オクルージョン
RM 反射強度マップ
RU 反射超音波
S 超音波アレイセンサ
T 幾何学変換
V1,V2,V3 移動ベクトル軌跡
ZM 検出物マップ
ρ(n) 曲率半径
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a method and apparatus for measuring the position and shape of an object using an ultrasonic array sensor.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, as a sensor for measuring the position and shape of a measurement target, an array-type ultrasonic sensor that receives reflected ultrasonic waves from the measurement target is known. In this sensor, ultrasonic receiving elements are arranged in an array, and detect the distance to an object based on the time from emission of ultrasonic waves to reception of reflected waves. Ultrasonic waves have a slower propagation speed than light, so distance measurement is easy. Also, instead of mechanically oscillating the ultrasonic sensor and scanning in the measurement direction, electronic scanning can be performed by performing delay processing on the output of the receiving elements arranged in an array. it can. As such an array-type ultrasonic sensor, an array-type sensor characterized by a configuration aiming at miniaturization (for example, see Patent Literature 1), or an ultrasonic-wave transmission unit is array-type and is transmitted from each transmission element. There is an array type sensor that is used in combination with an ultrasonic wave in which the phase of an ultrasonic wave is shifted to control the direction of a main beam formed by the interference phenomenon of a wave (for example, see Patent Document 2).
[0003]
[Patent Document 1]
JP-A-2002-156451
[Patent Document 2]
JP 2001-305222 A
[0004]
[Problems to be solved by the invention]
However, in Patent Documents 1 and 2 described above, there is no mention of an occlusion problem in tracking an object that moves relatively to a sensor and processing of ambiguous data due to noise or the like. Such a point is not a problem when the target object is stationary, but becomes a problem particularly when the moving object is tracked. An ultrasonic sensor in which ultrasonic receiving elements are arranged in an array electronically scans the direction of the object, and tracks while moving the object relative to the sensor while measuring the surface position and shape facing the sensor In this case, the occlusion which is not measured may occur due to the shadow of the target object itself depending on the positional relationship between the unevenness of the surface of the target object and the sensor. When such occlusion occurs, the apparent surface shape of the target object to be measured changes, making it difficult to track the target object. When ambiguous data such as noise is included, tracking becomes more difficult.
[0005]
An object of the present invention is to solve the above-mentioned problem, and to measure an object position / shape using an ultrasonic array sensor and to measure the object, which can track an object moving relative to the sensor even if occlusion occurs. It is intended to provide a device.
[0006]
Means for Solving the Problems and Effects of the Invention
In order to achieve the above object, the invention according to claim 1 uses a position detection data of an object detected by an ultrasonic array sensor to detect a surface position of an object that moves relatively to the sensor and / or a surface position of the object that moves relative to the sensor. Or, in the method of measuring the position and shape of an object for measuring the surface shape, a map creating step of expanding the measured surface position and surface shape data on a detected object map, and the reflection intensity at each point on the detected object map. An intensity map creating step of expanding the data into a reflection intensity map, and reliability of data that changes substantially smoothly within a predetermined range temporally or spatially for each of the data shown in the detected object map and the reflection intensity map. A data extraction step of extracting the data as having certain data and creating a new detected object map.
[0007]
In the measurement method, using an ultrasonic sensor in which ultrasonic receiving elements are arranged in an array, the relative position between the sensor and the object is detected in a time series to detect position information and reflection intensity of the object, and these are detected. Since the information is combined, defective data such as noise is identified and discarded, reliable surface position and surface shape data can be obtained. Obtaining such data facilitates and reliably tracks an object that moves relative to the sensor.
[0008]
According to a second aspect of the present invention, in the method for measuring the position and shape of an object according to the first aspect, the detection data of the surface position and / or the surface shape of the relatively moving object extracted at the data extracting step is at least two times. By comparing the occlusion estimation step of estimating the occurrence of occlusion of the detected object, and correcting the matching pattern used for tracking the object to the position and orientation of the object when the occlusion occurs, and incorporating the occlusion. The method further includes a pattern generating step of generating a new matching pattern, and a tracking step of performing the next pattern matching using the generated new matching pattern to track the position and / or orientation of the object. .
[0009]
In the above measurement method, reliable detection data of the surface position and the surface shape are obtained two or more times under different conditions of the relative position, and these are compared, so that the occlusion estimation and the updating of the matching pattern can be performed with high accuracy. Yes, even if occlusion occurs, the target object can be tracked.
[0010]
According to a third aspect of the present invention, in the object position / shape measuring method according to the first or second aspect, the detected object maps extracted in the data extracting step are obtained in a time series, and each of the detected object maps is acquired. A predetermined feature point is determined as a representative point of the group from the group of the measurement points of the object, and for each of the groups preceding and succeeding in time series, the representative point of the preceding group and the representative of the subsequent group corresponding to this representative point are set. When the moving distance from the point is equal to or less than a predetermined amount, a tracking step of determining that the previous group and the subsequent group correspond to the same group of the object and tracking the position and / or orientation of the object is performed. It has more.
[0011]
In the above measurement method, attention is paid to representative points, which are characteristic points of the tracking point group, and tracking is performed by determining identity based on the moving distance of each representative point. Correspondence can be reduced. Further, since the judgment is made based on the representative points, the judgment processing time is reduced.
[0012]
According to a fourth aspect of the present invention, in the object position / shape measuring method according to any one of the first to third aspects, the detected object map extracted in the data extracting step is obtained in time series. For the detected object map, a predetermined feature point is determined as a representative point of the group from the group consisting of the measurement points of the object, and for each group preceding and succeeding in time series, the reflection intensity of the representative point of the preceding group and the representative point If the intensity difference between the corresponding group and the reflection intensity of the representative point in the subsequent group is equal to or less than a predetermined amount, it is determined that the previous group and the subsequent group correspond to the same measurement point group of the object, and the object is determined. Further comprising a tracking step of tracking the position and / or attitude of the camera.
[0013]
In the above measurement method, attention is paid to representative points, which are characteristic points of the tracking point group, and tracking is performed by determining identity based on the reflection intensity of each representative point. Correspondence can be reduced. Further, since the judgment is made based on the representative points, the judgment processing time is reduced.
[0014]
According to a fifth aspect of the present invention, in the method for measuring the position and shape of an object according to any one of the first to fourth aspects, in the intensity map creating step, a measurement point whose reflection intensity is equal to or more than a predetermined value is effectively measured in the object map. Value.
[0015]
In the above-described measurement method, only the data having a high reflection intensity of the received reflected ultrasonic waves is used as an effective value, so that a highly reliable measurement value can be obtained. Obtaining such measured values makes it easy and reliable to track an object that moves relative to the sensor.
[0016]
According to a sixth aspect of the present invention, in the object position / shape measuring method according to the first aspect, the detected object map extracted in the data extracting step is obtained in a time series, and the detected object ahead of and behind the time series is obtained. Performs geometric transformation including movement and rotation using a group consisting of the measurement points of the object on the map as a matching pattern, and superimposes this on a group in the subsequent detected object map to detect the target whose similarity is greater than or equal to or higher than a predetermined value. Then, an occlusion detection step of detecting an occlusion occurrence portion based on the detected target, and generating a new matching pattern corrected by incorporating the occlusion into the matching pattern, and generating the generated matching pattern. Tracking step of tracking the position and / or orientation of an object by performing the following pattern matching using , In which further comprises a.
[0017]
In the above measurement method, a corresponding point in the preceding and following object maps is detected, an occlusion is detected by a matching pattern generated based on the detected point, an occlusion is incorporated, a matching pattern is generated again, and this refreshed pattern is obtained. Since the tracking is performed using the matching pattern, even if the measured apparent surface shape of the target object changes due to the occurrence of occlusion, the target object can be tracked by pattern matching.
[0018]
According to a seventh aspect of the present invention, in the object position / shape measuring method according to the sixth aspect, in the occlusion detecting step, a portion where occlusion occurs is estimated based on shape data of the object known in advance, and the geometric transformation is performed. Is corrected by the estimated occlusion occurrence portion to generate a new matching pattern.
[0019]
In the above-described measurement method, even if the measured apparent surface shape of the target object changes due to occlusion, occlusion is more reliably incorporated, and tracking of the target object by pattern matching becomes easier and more reliable.
[0020]
According to an eighth aspect of the present invention, in the method for measuring an object position / shape according to the sixth or seventh aspect, a matching pattern having a large curvature portion of a curve formed by a continuous point sequence in a detected object map as a feature point. Is included.
[0021]
In the above-described measurement method, a portion having a large curvature, which is a feature point of the tracking point group, is focused on as a representative point, and tracking is performed by judging identity based on the moving distance of each representative point. It is possible to reduce erroneous correspondence of tracking points between object maps. In addition, options for selecting a representative point for tracking are expanded, and tracking can be performed more reliably.
[0022]
According to a ninth aspect of the present invention, in the object position / shape measuring method according to any one of the sixth to eighth aspects, a curvature of a point sequence curve included in a group including measurement points of the object in the detected object map is: A tracking point identification step of determining that the previous group and the subsequent group correspond to the same measurement point group of the object when the plurality of detected object maps show a change equal to or less than a predetermined amount, Have
[0023]
In the above measurement method, focusing on the curvature of the tracking point sequence, tracking is performed by judging the identity based on the amount of change, so that the time series detection object map of the shape object with few feature points such as corners is used. It can be tracked and wrong responses can be reduced. In addition, options for selecting a representative point for tracking are expanded, and tracking can be performed more reliably.
[0024]
According to a tenth aspect of the present invention, in the method for measuring an object position / shape according to any one of the sixth to ninth aspects, the first and second groups of measurement points of the object on the detected object map are provided. When a geometrical transformation is performed on the first group in the earlier detected object map in chronological order to obtain a group corresponding to the first group in the later detected object map, the same transformation is performed on the first detected object map. When the distance between the converted group point and the subsequent point of the second group in the detected object map is equal to or less than a predetermined value, the first and second groups are formed. The method further includes a regrouping step of forming one group.
[0025]
In the above measurement method, the same geometric transformation is performed for two tracking point groups, and the same group property of the two groups is determined based on the behavior of the tracking points for the transformation. Can be identified, and object tracking can be performed more reliably.
[0026]
According to an eleventh aspect of the present invention, in the method for measuring the position and shape of an object according to any one of the sixth to tenth aspects, a trajectory obtained by tracking measurement points of a group of temporally continuous detected object maps is used. The method further includes a trajectory prediction step of estimating the position of the group in the next detected object map.
[0027]
In the above measurement method, the next movement position is estimated based on the past movement trajectory of the tracking point, so that the calculation time required for tracking in the next detected object map can be reduced.
[0028]
According to a twelfth aspect of the present invention, in the object position / shape measuring method according to any one of the sixth to eleventh aspects, a slope of a regression line obtained from a point sequence in a group including measurement points of the object in the detected object map. However, when a plurality of the detected object maps change substantially smoothly, it is determined that the group of the detected object map and the group of the detected object map correspond to the same measurement point group of the object. It further includes a straight line tracking step.
[0029]
In the above measurement method, focusing on the inclination of the regression line of the tracking point sequence, tracking is performed by judging identity based on the amount of change, so that a time-series detected object of a shape object with few feature points such as corners is obtained. Tracking between maps can be performed, and incorrect responses can be reduced. In addition, options for selecting a representative point for tracking are expanded, and tracking can be performed more reliably.
[0030]
According to a thirteenth aspect of the present invention, an ultrasonic sound source, ultrasonic transmission control means for controlling ultrasonic transmission of the ultrasonic sound source, and detecting an ultrasonic wave transmitted from the ultrasonic sound source reflected by a detection object. An ultrasonic array sensor, an ultrasonic signal receiving means for receiving an ultrasonic signal detected by the ultrasonic array sensor in synchronization with the ultrasonic transmission control means, and each element output of the ultrasonic array sensor from the ultrasonic signal receiving means Object position detecting means for processing the signal to detect the position of the detected object; and generating the surface position and surface shape data of the detected object from the position detection data detected by the object position detecting means, and generating the generated surface position and surface shape data. Map creation function means for developing the object map, the intensity map creation function means for developing the reflection intensity data at each point on the object map into a reflection intensity map, For each data shown in the detected object map and the reflection intensity map, data that changes substantially smoothly within a predetermined range temporally or spatially is extracted as reliable data, and a new detected object map is extracted. An object position / shape measuring device comprising: an object position / shape measuring means for measuring a position / shape of a detected object using a data extracting function means to be created.
[0031]
In the above configuration, an operation similar to any one of the first to twelfth aspects can be obtained. In addition, a simple device for measuring the surface position and shape of a relatively moving object and tracking the object using the ultrasonic array sensor can be obtained.
[0032]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a method and apparatus for measuring the position and shape of an object using an ultrasonic array sensor according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows a positional relationship between an ultrasonic array sensor (hereinafter, sensor) and an object. Here, the objects 1 and 2 and the sensor S are moving relative to each other, and the sensor S moves from the point P1 to the point P2 and measures. The sensor S includes a receiving surface including a plurality of ultrasonic receiving elements arranged two-dimensionally, a sound source that emits ultrasonic waves, and a control unit that controls transmission and reception of ultrasonic waves and performs signal processing. The sensor S emits an ultrasonic wave from a sound source, and receives the ultrasonic waves reflected on the surfaces of the three-dimensional objects 1 and 2 by a plurality of elements of a receiving unit. Based on the time from when the ultrasonic wave is transmitted from the sound source to when the ultrasonic wave is received by the sensor S, the distance between the sensor S and each part of the object surface where the ultrasonic wave is reflected is measured. At the same time as measuring the distance, the intensity of the received reflected ultrasonic wave is also measured. By electrically scanning the signal received by each receiving element, the sensor S can measure the distance and the direction, for example, at the point P1, the horizontal direction X1, the depth or the distance Z1, and the vertical position Y1. . The shape of the object surface is expressed as discrete point cloud data.
[0033]
FIG. 2 shows an example of surface position / shape data measured at a certain time. FIGS. 3A and 3B show a detection situation and a detected object map. Here, the measurement results at specific height positions Y1 = y1, Y2 = y2 (y1 = y2) are shown, and corresponding to the measurement points m1, m2 on the object surface facing the sensor S, the detected object map ZM1, It is represented in ZM2 as a point cloud. FIG. 4 shows the plurality of detected object maps ZM1 and ZM2 obtained as described above on the same map from the viewpoint of the sensor S.
[0034]
FIGS. 5A and 5B show a detected object map and a reflection intensity map, respectively. Data extraction for improving reliability is performed on the detected object map data using the reflection intensity map data as follows. First, it is assumed that a detection object map ZM including a series of measurement point data 11 to 15 and a measurement point 16 shown in FIG. At this time, the intensity of the received ultrasonic wave corresponding to each point on the detected object map ZM is developed as a reflection intensity map RM shown in FIG. On the developed reflection intensity map RM, the reflection intensity data is distributed as a series of data 21 to 25 and 26. Depending on the distance from the sensor S and the deflection angle from the front position of the sensor S, the closer to the sensor S and the closer to the front of the sensor S, the more the reflection intensity is distributed. Therefore, the reflection intensity data is grouped and distributed. are doing.
Generally, ultrasonic waves are attenuated with propagation, and the reflection intensity changes depending on the angle between the receiving surface of the sensor S and the reflector. Therefore, the upper limit H and lower limit L of the reflection intensity are obtained by simulating the intensity value at each point based on the maximum reflection intensity value at the front of the sensor, and based on these upper limit H and lower limit L, It is possible to select only data within a predetermined range defined as reliable data and discard others. For example, the point 16 in the detected object map ZM is discarded as noise because the corresponding point 26 in the reflection intensity map RM is out of the predetermined range.
[0035]
FIG. 6 shows a processing flow for performing the above-described reliability data extraction in a series of measurements. First, an ultrasonic wave is transmitted toward the object, and the ultrasonic wave reflected from the object is received by the ultrasonic array sensor (S101, S102). A delay operation (electronic scanning) is performed on a signal received by each receiving element constituting the ultrasonic array sensor, and the surface position / shape data of the object present in each direction in the field of view of the sensor and the reflection intensity of the ultrasonic wave. Data is created (S103). Next, these data are developed into a detected object map ZM (n) and a reflection intensity map RM (n) on a specific horizontal plane (S104). Next, each data in the reflection intensity map RM (n) is determined by a determination condition based on the ultrasonic wave propagation condition J, reliable data is extracted, and other data is discarded. The ultrasonic wave propagation condition J includes a medium condition in the ultrasonic wave propagation path, an ultrasonic wave transmission condition, a reflection condition, a reception condition, and the like. Further, each data of the detected object map ZM (n) is extracted or discarded with extraction or discarding of each data of the corresponding reflection intensity map RM (n) (S105). Based on the extracted data, a reliable detected object map ZM (n) is re-created. Based on this, the object position / shape is determined, and the n-th measurement is completed (S106, S107). Thereafter, the (n + 1) -th measurement is performed in the same manner as described above (S108).
[0036]
Next, occlusion estimation and moving object tracking will be described. FIG. 7 shows how occlusion occurs. Occlusion occurs when a surface portion that cannot be seen from the sensor S is formed behind the measured object itself. The reflected ultrasonic wave RU does not enter the sensor S from the occlusion occurrence point OC in the figure. When such occlusion occurs, the measured apparent shape of the target object changes, which makes it difficult to track the target object. In order to solve this problem, the position / shape detection data of the object is compared at least twice or more, an occurrence portion of the occlusion is estimated, and the matching pattern is corrected so as to become the occlusion at the position and orientation. The position and orientation of the target object are tracked by performing pattern matching using the occlusion correction pattern for matching.
[0037]
FIG. 8 shows a processing flow for performing position / shape measurement and object tracking in consideration of the occlusion correction as described above. First, an object map ZM (n) obtained by performing the n-th measurement and extracting the above-described reliable data is obtained (S201). Next, a pattern for detecting a target tracking object on the detected object map ZM (n) using the matching pattern M (n) obtained from the previous measurement data or data obtained by prediction in advance. Matching is performed (S202). When the pattern matching fails, that is, when the target object cannot be detected (No in S203), the structure of a group of points to be tracked (tracking point group) on the detected object map ZM (n) changes due to the occurrence of occlusion. In the next step, the occlusion is estimated and the matching pattern is corrected. For occlusion estimation, k (k ≧ 2) time-series detected object maps ZM (i), i = n1 to nk, in which the relative positions of the object and the sensor are different (S204). The time series detection map ZM (i) is acquired at a relative position change interval necessary and sufficient to track the occurrence of occlusion. Depending on the speed of change of the relative position and the like, acquisition is performed first at coarse intervals and then at finer intervals. Pattern matching is performed on the obtained corner detection object map ZM (i) to estimate occlusion (S205), and the obtained occlusion information is incorporated into a matching pattern M (n) to perform new matching. The pattern M (n) is used (S206). Thereafter, normal tracking is continued (S207, S208). Also, when the pattern matching is successful in step S203 and the target object is detected (yes in S203), the tracking is continued to the measurement in the state where the relative position has changed (S207, S208).
[0038]
Next, a method of tracking a group between time-series consecutive detected object maps will be described. FIG. 9 shows two tracking point groups G (n-1) and G (n) which are ahead and behind in time series on the detected object map. In the point sequence of each tracking point group, a plurality of characteristic points a (j, k) such as an end point and a vertex of a polygonal line are determined as representative points of the group. Then, the absolute values of the corresponding points of the representative points, for example, a vector V3 connecting a (n-1,3) and a (n, 3), and similarly V2 and V1, are obtained. Is less than or equal to a predetermined determination value, it is determined that the tracking point group G (n-1) and the group G (n) correspond to the same point group on the object, and tracking is performed as the same group.
[0039]
FIG. 10 shows a processing flow of the above-described tracking method. First, the (n-1) th detection object map creation and the tracking point group G (n-1) are determined (S301), and m features are obtained from the point group in the tracking point group G (n-1). A point is determined (S302).
Next, steps similar to the above are performed for the n-th measurement with the relative position between the object and the sensor changed (S303 to S305). Next, the moving distance of each representative point is obtained by calculating the absolute value of the moving vector between each point, for example, | a (n-1) -a (n) |, and the moving distance between the value and a predetermined determination value is calculated. The shift D (i) is calculated (S306). Next, when all the deviations D (i) are positive, that is, when the movement amount is smaller than the determination value (yes in S307), the tracking point groups G (n-1) and G (n) become the same point group on the object. It is determined that they correspond (S308). In this case, the tracking has been successful, and the tracking is continued (S309). If no in step S307, it is determined that tracking has failed, and exception processing is performed (S310). In the above description, the moving distance of each point is compared with a predetermined determination value. However, the variation between the moving distances of each point is compared with a predetermined determination value, and when the variation is equal to or less than the determination value, the tracking point group G ( It may be determined that n-1) and the group G (n) correspond to the same point group on the object.
[0040]
Next, another method of tracking a group between successively detected object maps in chronological order will be described. FIG. 11 shows two tracking point groups G (n-1) and G (n) preceding and succeeding in time series on the detected object map. In each of the tracking point groups G (n-1) and G (n), a plurality of feature points a (j, k) such as an end point and a vertex of a polygonal line are determined as representative points of the group. Then, the reflection intensities r (n-1,3) and r (n, 3) at the corresponding points of the representative points, for example, a (n-1,3) and a (n, 3) are compared. When the difference between the reflection intensities for each corresponding point is equal to or less than a predetermined amount, it is determined that the tracking point group G (n-1) and the group G (n) correspond to the same point group on the object, and are tracked as the same group. Is done.
[0041]
FIG. 12 shows a processing flow of the above-described tracking method. The processing flow in this case uses the reflection intensity r (j, k) instead of the representative point a (j, k) in FIG. 10 described above, and uses the judgment value instead of the deviation D (i) from the judgment value. The difference is that E (i) = (judgment value) − | r (n, i) −r (n, i) | As another tracking method, the tracking method using the moving distance shown in FIGS. 9 and 10 may be combined with the tracking method using the difference between the reflection intensities shown in FIGS. 11 and 12. When both the distance and the difference between the reflection intensities are equal to or smaller than the respective predetermined amounts, it is determined that the tracking point group G (n-1) and the tracking point group G (n) correspond to the same point group on the object. Can be tracked reliably.
[0042]
Next, a method for improving the reliability of the detected object map by setting a lower limit for the reflection intensity will be described. FIG. 13 shows a processing flow of the method. At each measurement point, if the reflection intensity is equal to or more than a predetermined amount, the possibility of noise is low, and since the S / N as a signal is large, the reliability of the calculation result of the direction and the distance increases. First, an ultrasonic wave is transmitted toward an object, and the ultrasonic wave reflected from the object is received by the ultrasonic array sensor (S501, S502). A delay operation (electronic scanning) is performed on a signal received by each receiving element constituting the ultrasonic array sensor, and the surface position / shape data of the object present in each direction in the field of view of the sensor and the reflection intensity of the ultrasonic wave. Data is created (S503). Next, each reflection intensity value is compared with a predetermined judgment value, and when it is larger than the judgment value (yes in S504), the process proceeds to the next step, and when it is smaller than the judgment value (no in S504), the reflection intensity is determined. The surface position / shape data and reflection intensity data corresponding to the data are discarded (S505). After this processing has been performed for all the measurement data (yes in S506), the remaining data that has not been discarded is developed into the detected object map ZM (n) and the reflection intensity map RM (n) (S507). Next, the process of extracting reliable data described in FIG. 6 is performed, and the object position / shape is determined based on the finally obtained detected object map ZM (n), and the n-th measurement is completed. (S508 to S510). Thereafter, the (n + 1) -th measurement is performed in the same manner as described above (S511).
[0043]
Next, a method of correcting occlusion and a tracking method by pattern matching will be described. FIG. 14 shows two tracking point groups that come and go in time. The preceding tracking point group G (n-1) is measured from almost the front with respect to the convex portion on the object surface, and the following tracking point group G (n) is measured from the diagonal right direction of the convex portion. I have. Therefore, the occlusion OC has occurred in the tracking point group G (n). When occlusion is included in the measurement data, measurement is continuously performed twice or more. That is, the matching pattern can be corrected using the detected object map obtained by measuring the object that is moving relatively from different directions.
[0044]
FIG. 15A shows how the above-described tracking point group is subjected to geometric transformation to detect occlusion. A tracking point group G (n-1) that does not include occlusion is used as a matching pattern, and a geometric transformation including rotation and translation is performed on the group. Do. This is because, although not shown on the detected object map, there are usually a plurality of tracking point groups G (n), and it is necessary to detect a group corresponding to the group being tracked from among them. When a corresponding tracking point group can be found, the parallelism and the like of the measurement point sequence constituting the tracking point group are compared, and a portion that is significantly different from the shape of the tracking point group G (n) in the matching pattern is generated. Extract as a part.
[0045]
FIGS. 15B and 15C show a method of generating a new matching pattern. The position of the matching pattern is corrected so as to correspond to the position and orientation, and the occlusion correction is performed based on the extracted part information to generate a new matching pattern. Thereafter, pattern matching is performed using the corrected matching pattern. Thus, even if occlusion occurs in the measured target object and the apparent surface shape changes, the target object can be tracked by pattern matching.
[0046]
FIG. 16 shows a processing flow of the above-described occlusion correction. First, since an ultrasonic wave is transmitted toward an object, creation of an object map ZM (1) and determination of the object position and shape are performed (S601, S602), and object measurement points on the object map ZM (1). , A tracking point group G (1) is determined (S603). A matching pattern M (1) is generated based on the tracking point group (1) (S604). The matching pattern M (1) is used for pattern matching in the next measurement and object tracking. Similarly, the n-th measurement is performed, and the tracking point group G (n) is determined (S605 to S607). At this point, assuming that the tracking point group G (n) includes occlusion, a method of generating a matching pattern M (n) for the tracking point group G (n) including such occlusion will be described. I do. First, a conversion tracking point group K obtained by subjecting a matching pattern M (n-1) set based on the previously measured tracking point group G (n-1) to geometric conversion including translation and rotation. (N-1) is obtained (S608). Next, the similarity between the tracking point group G (n) and the conversion tracking point group K (n-1) is maximized while changing the condition of the geometric conversion (S609, S610). A matching pattern M (n) is generated based on the conversion tracking point group K (n-1) when the similarity is maximized (S611). Next, each point of the tracking point group G (n) is compared with each point of the generated matching pattern M (n) to detect an occlusion occurrence portion (S612 to S614). Next, a new matching pattern M (n) corrected to incorporate occlusion into the matching pattern M (n) is generated (S615). In the next measurement and tracking, pattern matching is performed using the corrected matching pattern M (n).
[0047]
FIG. 17 shows a method of generating a matching pattern when the site where occlusion occurs is known in advance. If the shape of the target object is known, a change in the appearance of the target object, and thus the occurrence of occlusion, can be predicted with respect to the geometric transformation performed during pattern matching. Therefore, the matching pattern can be easily corrected. In addition, when the shape of the target object and the movement of the target object such as rotation are known in advance, the correction of the matching pattern becomes easy similarly.
Such prior information is particularly effective in tracking when an intervening object moves between the sensor and the target object. By performing occlusion correction on the matching pattern, even if the apparent surface shape of the measured target object changes due to occlusion, the target object can be tracked by pattern matching.
[0048]
Next, determination of a representative point focusing on the curvature of a curve formed by a series of measurement points in the detected object map will be described. FIG. 18 shows a point sequence curve on the detected object map. In the tracking point group on the detected object map, if the curved line has no vertex or the like of the polygonal line composed of the measurement point sequence, the characteristic point is only the end point of the point sequence, and the tracking reliability is reduced. In such a case, a portion where the amount of change in curvature is large is determined, and by using these points p1, p2, and p3 as feature points, erroneous correspondence between the time-series tracking point groups can be reduced.
[0049]
Next, a tracking method (tracking point identification method) focusing on the radius of curvature of a curve formed by a series of measurement points in the detected object map will be described. FIG. 19 shows two tracking point groups G (n-1) and G (n) forming a time series on the detected object map. In each group, in the case of a smooth curve having no characteristic point such as a vertex of a polygonal line in the measurement point sequence, the characteristic point is only the end point of the point sequence, and the tracking reliability is reduced. In such a case, the curvature of the curve is obtained, and the radius of curvature can be used instead of the feature point.
[0050]
FIG. 20 shows a processing flow of the above tracking method. First, the radii of curvature ρ (n−1) and ρ (n) are obtained (S701, S702), and the difference | ρ (n−1) −ρ (n) | between them is compared with a predetermined determination value. If the difference between the radii of curvature is equal to or smaller than the predetermined amount (yes in S703), the points of both tracking point groups G (n-1) and G (n) are identified as the same tracking point on the object (S704). Otherwise (no in S703), the points of the tracking point groups G (n-1) and G (n) are determined to be different groups on the object, that is, not tracking target points (S705). As described above, by using the radius of curvature, the tracking points can be identified and tracked, and erroneous correspondence between the time-series tracking point groups can be reduced.
[0051]
Next, a method for determining the identity of a tracking point group and regrouping will be described. FIG. 21 shows a case where there are two tracking point groups at each preceding measurement point. Consider two tracking point groups G1 (n-1) and G2 (n-1) on the detected object map at the same measurement, and two tracking point groups G1 (n) and G2 (n) at another measurement. . The tracking point groups G1 (n-1) and G1 (n) are tracked, and after the tracking is successful, the identity of the tracking point groups G2 (n-1) and G2 (n) is determined.
[0052]
FIG. 22 shows a processing flow of the regrouping method described above. First, the tracking point groups G1 (n-1), G2 (n-1), G1 (n) and G2 (n) at the (n-1) th and nth times are determined (S801 to S803). A geometrical transformation is performed on the tracking point group G1 (n-1) to form a transformation group H1 (n-1) (S804). Next, the similarity determination between the tracking point group G1 (n) and the transformation group H1 (n-1) is performed (S805), and the final geometric transformation T maximizes the similarity, and the tracking point group G1 (n-1) ) And G1 (n) are determined to correspond to the same tracking point (S806 to S808). Next, the final geometric transformation T is performed on the tracking point group G2 (n-1) to form a transformation group H2 (n-1) (S809). Next, a difference D (i) between each point a2 (n, i) in the tracking point group G2 (n) and each point b2 (n-1, i) in the conversion group H2 (n-1) is calculated. (S810). The difference D (i) is compared with a predetermined determination value, and if all D (i) are equal to or less than the determination value (yes in S811), the points of both tracking point groups G1 and G2 should belong to the same group. , And are regrouped into one (S812). Otherwise (no in S811), the points of the tracking point groups G1 and G2 are determined to belong to another group (S813). At this time, the points in another group are considered to be noise or measurement points belonging to another object.
[0053]
Next, a method of estimating a moving area of a tracking point group will be described. FIG. 23 shows three tracking point groups in a time series on the detected object map. In the first two tracking point groups G (n-1) and G (n), a plurality of feature points including the end points of the point sequence in the group and the vertices of the polygonal line are set as the representative points of the group. From the motion vector trajectories V1, V2, V3 connecting the corresponding points between the tracking point groups, the motion vector trajectories W1, W2, W3 and the candidate points estimated to move the tracking point group in the next (n + 1) th measurement To predict. By setting the area around the candidate point as the candidate area for the next pattern matching based on the prediction, the tracking position in the next detected object map can be estimated, so that the calculation time can be reduced.
[0054]
Next, another method for characterizing the tracking point group will be described. FIG. 24 shows two tracking point groups G (n-1) and G (n) in a time series on the detected object map. A plurality of feature points including the end points of the point sequence in each group, the vertices of the polygonal line, and the like are set as representative points of the group. In each group, when the point sequence of these feature points has, for example, two regression lines each having a correlation coefficient equal to or more than a predetermined value, the straight lines L1 (n-1) and L2 (n-n) in G (n-1) are obtained. 1), straight lines L1 (n-1), L2 (n-1) and the like in G (n) are introduced. Then, when the difference between the inclinations of the straight lines corresponding to the tracking is equal to or less than a predetermined amount, the straight lines are grouped together. As a result, even a tracking point group of a measurement point sequence having a shape with a small number of feature points can be tracked in this way, and erroneous correspondence can be reduced. Here, the regression line of one group may be determined to be one or two or more.
[0055]
Next, an object position / shape measuring device incorporating the above-described object position / shape measuring method will be described. FIG. 25 shows a block diagram of the present measuring device. The measuring device detects an ultrasonic sound source 100, an ultrasonic transmission control unit 200 that controls ultrasonic transmission of the ultrasonic sound source 100, and an ultrasonic wave transmitted from the ultrasonic sound source 100 reflected by a detection object. An ultrasonic array sensor 300 to perform the operation, and an ultrasonic signal receiving unit 400 that receives an ultrasonic signal detected by the ultrasonic array sensor 300 in synchronization with the ultrasonic transmission control unit 200. Further, the measuring device processes each element output signal from the ultrasonic signal receiving means 400 to detect the position of the detected object, using the object position detecting means 500 and the position detection data detected by the object position detecting means 500. An object position / shape measuring means 600 for measuring the position / shape of the detected object is provided.
[0056]
The above-described ultrasonic array sensor 300 is an array sensor in which the ultrasonic receiving elements 301 are arranged in, for example, N columns and M rows. The ultrasonic sound source 100 is installed near the ultrasonic array sensor 300 so as to reduce the angle between the transmission direction and the reception direction of the ultrasonic wave. Further, the ultrasonic transmission control means 200 controls the ultrasonic sound source 100 to transmit ultrasonic pulses, and sends a pulse transmission timing signal to the ultrasonic receiving means 400. The ultrasonic receiving means 400 receives the ultrasonic signal received by each ultrasonic receiving element 301 in synchronization with the timing signal. A signal from each ultrasonic receiving element 301 and a signal including time information are sent to the object position detecting means 500.
[0057]
The object position detecting unit 500 electrically scans the signal including the time information received by each of the receiving elements 301 in the delay adding unit 501 according to the arrangement of the receiving elements 301 arranged in an array, The ultrasonic array sensor 300 obtains direction data indicating the direction of each point on the surface of the object facing the object and intensity data in the direction, and sends them to the calculation result storage unit 503. Also, the delay adder 501 sends the received ultrasonic signal reconstructed as a signal for each direction and its time information to the distance calculator 502. The distance calculation unit 502 calculates the distance between the sensor and each point on the surface of the object based on the signal and the time information, and sends the distance to the calculation result storage unit 503. The calculation result storage unit 503 stores and stores these direction data, intensity data, and distance data as position detection data, and sends the data to the object position / shape measurement unit 600.
[0058]
The above-described position detection data is obtained by the detected object map creation unit 601 and the reflection intensity map creation unit 602 of the object position / shape measurement unit 600 for the distance to the horizontal scanning position and the reflection intensity for the same horizontal scanning position for a specific vertical position. It is developed as a distribution map. The data is represented as discrete data on each map. The distance data developed on the detected object map is selected by the data extraction unit 603 by a predetermined determination process based on the data on the reflection intensity map and the propagation and measurement conditions of the ultrasonic wave, and the reliable distance data is obtained. The detected object map obtained by extracting only the object is reconstructed. By performing such a detection object map for all the vertical positions, three-dimensional position data of the object surface facing the ultrasonic array sensor 300 is obtained, and thus the measurement of the object position / shape is performed.
[0059]
Since the distance data of the reconstructed detected object map is the position / shape data of the three-dimensional object, occlusion occurs in the measured data depending on the shape and the measurement direction of the object. With respect to occlusion, the shape of the object is estimated by obtaining measurement data accompanying a change in the measurement position due to the relative movement of the object and the sensor. When the measurement target object is moving, measurement with different relative positions can be performed by performing measurement over time. In addition, by providing a moving device in the object position / shape measuring device main body or the ultrasonic array sensor 300, measurement with different relative positions can be performed. Conversely, when the relative position between the ultrasonic array sensor 300 and the object changes, object tracking can be performed while estimating occlusion using a pattern matching technique.
[0060]
Such occlusion estimation or detection, generation of a pattern for pattern matching and update of the pattern, and tracking of an object are performed by the occlusion detection unit 604, the occlusion estimation unit 607, the pattern generation units 605, 608, and the tracking units 606, 609. This is performed by a series of processes. The result of the occlusion detection or estimation, the matching pattern, the measurement data of the measurement target, and the like are output to the measurement result output unit 610 and stored in the measurement data storage unit 611. The data stored in the measurement data storage unit 611 is used as pattern matching data or occlusion estimation / detection data in the next measurement in which the relative position between the measurement target object and the ultrasonic array sensor 300 has changed. Can be used in the processing in.
[0061]
The present invention is not limited to the above description, and various modifications can be made. For example, the detection object map on one horizontal plane has been described. However, the invention is not limited to this, and the invention can be similarly applied to tracking of a moving object in an up-down diagonal direction. In addition, the method of tracking the tracking point group between the detected object maps successive in time series and the method of determining the feature points described above can be used in combination, and the reliability of the tracking of the moving object can be obtained by combining the methods. Is improved. In addition, as the similarity determination, a method that is a normal method performed in image processing, such as a method in which the similarity is maximized when the sum of squares of the distances between corresponding constituent points or the sum of absolute values is minimum, or the like is used. Can be. In addition, although the description has been made using the rotation and parallel movement in two dimensions as the geometric transformation, the geometric transformation used in the present invention is not limited to this, and can be used for enlargement or reduction, or movement of an object in three-dimensional space. This includes spatial arrangement conversion of measurement points based on the above.
[Brief description of the drawings]
FIG. 1 is a perspective view conceptually illustrating a method for measuring an object position / shape using an ultrasonic array sensor according to an embodiment of the present invention.
FIG. 2 is a perspective view conceptually showing surface position / shape data obtained by the same measuring method.
FIG. 3A is a plan view showing an example of sensor arrangement in the measurement method described above, and FIG. 3B is a conceptual diagram of a detected object map obtained in the sensor arrangement in FIG.
FIG. 4 is a diagram of a detected object map obtained by the same measuring method.
FIG. 5A is a diagram of a detected object map obtained by the same measurement method, and FIG. 5B is a diagram of a reflection intensity map obtained by the same measurement method.
FIG. 6 is a flowchart of position / shape measurement according to an embodiment of the present invention.
FIG. 7 is a plan view illustrating occlusion in three-dimensional measurement.
FIG. 8 is a flowchart of a position / shape measurement and tracking method according to an embodiment of the present invention.
FIG. 9 is a view for explaining a tracking method according to an embodiment of the present invention.
FIG. 10 is a flowchart of a position / shape measurement and tracking method according to the embodiment.
FIG. 11 is a view for explaining another tracking method according to an embodiment of the present invention.
FIG. 12 is a flowchart of a position / shape measurement and tracking method according to the embodiment.
FIG. 13 is a flowchart of position / shape measurement according to an embodiment of the present invention.
FIG. 14 is a detected object map illustrating time-series data.
15A is a diagram for explaining geometric transformation of a matching pattern according to an embodiment of the present invention, FIG. 15B is a diagram for explaining occlusion correction, and FIG. FIG.
FIG. 16 is a flowchart of still another position / shape measurement and tracking method according to an embodiment of the present invention.
FIG. 17 is a diagram illustrating correction of a matching pattern according to an embodiment of the present invention.
FIG. 18 is a view for explaining a method for obtaining a feature point according to an embodiment of the present invention.
FIG. 19 is a view for explaining another method for obtaining the above feature points.
FIG. 20 is a flowchart of tracking point identification according to an embodiment of the present invention.
FIG. 21 is a view for explaining re-grouping of tracking points according to an embodiment of the present invention.
FIG. 22 is a flowchart of the same regrouping.
FIG. 23 is a view for explaining a method of tracking a tracking point group according to an embodiment of the present invention.
FIG. 24 is a view for explaining another method of tracking the tracking point group.
FIG. 25 is a block diagram of an apparatus for measuring the position and shape of an object according to an embodiment of the present invention.
[Explanation of symbols]
1,2 objects
100 ultrasonic sound source
200 Ultrasonic transmission control means
300 ultrasonic array sensor
400 Ultrasonic signal receiving means
500 Object position detecting means
600 Object position / shape measuring means
G, G (n), G1 (n), G2 (n) Tracking point group
L1 (n), L2 (n) Regression line
M (n) Matching pattern
OC occlusion
RM reflection intensity map
RU reflected ultrasound
S ultrasonic array sensor
T geometric transformation
V1, V2, V3 movement vector trajectory
ZM object map
ρ (n) radius of curvature

Claims (13)

超音波アレイセンサにより検出した物体の位置検出データを用いて、前記センサに対し相対的に移動する物体のセンサと対面する表面位置及び/又は表面形状を計測する物体位置・形状の計測方法において、
計測した前記表面位置及び表面形状のデータを検出物マップに展開するマップ作成ステップと、
前記検出物マップ上のそれぞれの点における反射強度のデータを反射強度マップに展開する強度マップ作成ステップと、
前記検出物マップと反射強度マップに示されたそれぞれのデータについて時間的又は空間的に所定の範囲内で略滑らかに変化するデータを信頼性のあるデータとして抽出して新たな検出物マップを作成するデータ抽出ステップと、を有することを特徴とする物体位置・形状の計測方法。
Using the position detection data of the object detected by the ultrasonic array sensor, in the object position and shape measurement method of measuring the surface position and / or surface shape facing the sensor of the object that moves relatively to the sensor,
A map creation step of expanding the measured surface position and surface shape data into a detected object map,
Intensity map creating step of expanding the reflection intensity data at each point on the detected object map into a reflection intensity map,
A new detected object map is created by extracting, as reliable data, data that changes substantially smoothly within a predetermined range temporally or spatially for each of the data indicated in the detected object map and the reflection intensity map. And a data extraction step of performing the following.
前記データ抽出ステップにより抽出された相対的に移動する物体の2回以上の表面位置及び/又は表面形状の検出データを比較することにより、検出物のオクルージョンの発生部分を推定するオクルージョン推定ステップと、
物体の追跡に用いるマッチング用パターンを前記オクルージョンが発生した場合の物体の位置姿勢に補正すると共に前記オクルージョンを組み込んだ新たなマッチング用パターンを生成するパターン生成ステップと、
前記生成した新たなマッチング用パターンを用いて次のパターンマッチングを行い物体の位置及び/又は姿勢を追跡する追跡ステップと、をさらに有することを特徴とする請求項1記載の物体位置・形状の計測方法。
An occlusion estimating step of estimating an occlusion occurrence portion of the detected object by comparing the detected data of the surface position and / or the surface shape of the relatively moving object extracted two or more times in the data extracting step;
A pattern generation step of correcting a matching pattern used for tracking an object to the position and orientation of the object when the occlusion occurs, and generating a new matching pattern incorporating the occlusion,
2. The object position / shape measurement according to claim 1, further comprising: a tracking step of performing the next pattern matching using the generated new matching pattern to track the position and / or orientation of the object. Method.
前記データ抽出ステップにより抽出された前記検出物マップを時系列的に取得し、各検出物マップについて物体の測定点から成るグループの中から所定の特徴点をグループの代表点として定め、時系列的に先後する各グループについて、先のグループの代表点とこの代表点に対応する後のグループにおける代表点との移動距離が所定量以下の場合に、先のグループと後のグループとが前記物体の同一グループに対応するものであると判断して物体の位置及び/又は姿勢を追跡する追跡ステップをさらに有することを特徴とする請求項1又は請求項2記載の物体位置・形状の計測方法。Obtaining the detected object map extracted in the data extraction step in time series, determining a predetermined feature point from a group of measurement points of the object for each detected object map as a representative point of the group, When the moving distance between the representative point of the previous group and the representative point in the subsequent group corresponding to this representative point is equal to or less than a predetermined amount, the former group and the latter group become 3. The method for measuring the position and shape of an object according to claim 1, further comprising a tracking step of determining the position and / or orientation of the object by determining that the object and the object correspond to the same group. 前記データ抽出ステップにより抽出された前記検出物マップを時系列的に取得し、各検出物マップについて物体の測定点から成るグループの中から所定の特徴点をグループの代表点として定め、時系列的に先後する各グループについて、先のグループの代表点の反射強度とこの代表点に対応する後のグループにおける代表点の反射強度との強度差が所定量以下の場合に、先のグループと後のグループとが前記物体の同一測定点グループに対応するものであると判断して物体の位置及び/又は姿勢を追跡する追跡ステップをさらに有することを特徴とする請求項1乃至請求項3のいずれかに記載の物体位置・形状の計測方法。Obtaining the detected object map extracted in the data extraction step in time series, determining a predetermined feature point from a group of measurement points of the object for each detected object map as a representative point of the group, If the difference between the reflection intensity of the representative point of the previous group and the reflection intensity of the representative point in the subsequent group corresponding to this representative point is equal to or less than a predetermined amount, the former group and the latter group 4. The apparatus according to claim 1, further comprising a tracking step of determining that the group corresponds to the same measurement point group of the object and tracking the position and / or orientation of the object. The method for measuring the position and shape of an object according to the above. 強度マップ作成ステップにおいて反射強度が所定値以上の測定点を検出物マップにおける有効測定値とすることを特徴とする請求項1乃至請求項4のいずれかに記載の物体位置・形状の計測方法。The method according to any one of claims 1 to 4, wherein in the intensity map creating step, a measurement point having a reflection intensity equal to or more than a predetermined value is set as an effective measurement value in the detected object map. 前記データ抽出ステップにより抽出された検出物マップを時系列的に取得し、時系列的に先後する先の検出物マップにおける物体の測定点から成るグループをマッチング用パターンとして移動及び回転を含む幾何学変換を行い、これと後の検出物マップにおけるグループとを重ねて類似度が所定以上で最大となる対象を検出し、これら検出した対象をもとにオクルージョンの発生部分を検出するオクルージョン検出ステップと、
前記マッチング用パターンに前記オクルージョンを組み込んで補正した新たなマッチング用パターンを生成し、この生成したマッチング用パターンを用いて次のパターンマッチングを行って物体の位置及び/又は姿勢を追跡する追跡ステップと、をさらに有することを特徴とする請求項1記載の物体位置・形状の計測方法。
The detected object map extracted in the data extracting step is obtained in time series, and a group including measurement points of the object in the preceding detected object map in time series is used as a matching pattern as a geometrical pattern including movement and rotation. An occlusion detection step of performing conversion, superimposing this and a group in the subsequent detected object map to detect an object having a maximum similarity at a predetermined value or more, and detecting an occurrence portion of occlusion based on the detected object. ,
A tracking step of generating a corrected new matching pattern by incorporating the occlusion into the matching pattern, performing the next pattern matching using the generated matching pattern, and tracking the position and / or orientation of the object; 2. The method for measuring the position and shape of an object according to claim 1, further comprising:
前記オクルージョン検出ステップにおいて、予め分かっている物体の形状データを基にオクルージョンの発生部分を推定し、前記幾何学変換を行ったグループを、この推定したオクルージョン発生部分により補正して新たなマッチング用パターンを生成することを特徴とする請求項6記載の物体位置・形状の計測方法。In the occlusion detection step, an occlusion occurrence portion is estimated based on shape data of an object known in advance, and the group subjected to the geometric transformation is corrected by the estimated occlusion occurrence portion to obtain a new matching pattern. 7. The method for measuring the position and shape of an object according to claim 6, wherein: 検出物マップにおける連続する点列により形成される曲線の曲率の大きい部分を特徴点としてマッチング用パターンに含めることを特徴とする請求項6又は請求項7記載の物体位置・形状の計測方法。8. The method for measuring the position and shape of an object according to claim 6, wherein a portion having a large curvature of a curve formed by a continuous point sequence in the detected object map is included in the matching pattern as a feature point. 検出物マップにおける物体の測定点から成るグループに含まれる点列曲線の曲率が、先後する複数の検出物マップにおいて、所定量以下の変化を示す場合に、先のグループと後のグループとが前記物体の同一測定点グループに対応するものであると判断する追跡点同定ステップをさらに有することを特徴とする請求項6乃至請求項8のいずれかに記載の物体位置・形状の計測方法。When the curvature of the point sequence curve included in the group consisting of the measurement points of the object in the detected object map shows a change of not more than a predetermined amount in the plurality of detected object maps, the former group and the latter group are compared with each other. 9. The object position / shape measuring method according to claim 6, further comprising a tracking point identifying step of determining that the object points correspond to the same measurement point group of the object. 検出物マップにおける物体の測定点から成る第1及び第2の2つのグループについて、時系列的に先後する先の検出物マップにおける第1のグループに幾何学変換を行って後の検出物マップにおける前記第1のグループに対応するグループを得たとき、同じ変換を先の検出物マップにおける第2のグループに行い、その変換したグループの点と後の検出物マップにおける第2のグループの点との距離が所定の値以下の場合に、第1及び第2の2つのグループを1つのグループとする再グループ化ステップをさらに有することを特徴とする請求項6乃至請求項9のいずれかに記載の物体位置・形状の計測方法。For the first and second groups of measurement points of the object in the detected object map, the first group in the preceding detected object map in chronological order is subjected to a geometric transformation, and the first group in the later detected object map is subjected to geometric transformation. When a group corresponding to the first group is obtained, the same conversion is performed on the second group in the previous object map, and the points of the converted group and the points of the second group in the subsequent object map are used. 10. The method according to claim 6, further comprising the step of regrouping the first and second two groups into one group when the distance is equal to or less than a predetermined value. Method for measuring the position and shape of an object. 時間的に連続する検出物マップのグループに係る測定点を追跡した際の軌跡から次の検出物マップにおけるグループの位置を推定する軌跡予測ステップをさらに有することを特徴とする請求項6乃至請求項10のいずれかに記載の物体位置・形状の計測方法。7. A trajectory prediction step for estimating a position of a group in a next detected object map from a trajectory obtained when a measurement point of a group of temporally continuous detected object maps is tracked. 10. The method for measuring the position and shape of an object according to any one of 10. 検出物マップにおける物体の測定点から成るグループにおける点列から求めた回帰直線の傾きが、先後する複数の検出物マップにおいて、略滑らかに変化する場合に、先の検出物マップのグループと後の検出物マップのグループとが物体の同一測定点グループに対応するものであると判断する直線追跡ステップをさらに有することを特徴とする請求項6乃至請求項11のいずれかに記載の物体位置・形状の計測方法。When the slope of the regression line obtained from the point sequence in the group consisting of the measurement points of the object in the object map changes substantially smoothly in the plurality of object maps preceding and succeeding, the group of the preceding object map and the subsequent object map are changed. The object position / shape according to any one of claims 6 to 11, further comprising a straight line tracking step of judging that the detected object map group corresponds to the same measurement point group of the object. Measurement method. 超音波音源と、超音波音源の超音波発信を制御する超音波発信制御手段と、超音波音源から発信された超音波が検出物体により反射される超音波を検出する超音波アレイセンサと、超音波発信制御手段と同期して超音波アレイセンサで検出した超音波信号を受信する超音波信号受信手段と、超音波信号受信手段からの超音波アレイセンサの各素子出力信号を処理して検出物体の位置を検出する物体位置検出手段と、物体位置検出手段で検出した位置検出データから検出物体の表面位置及び表面形状データを生成し、生成した表面位置及び表面形状データを検出物マップに展開するマップ作成機能手段、前記検出物マップ上のそれぞれの点における反射強度のデータを反射強度マップに展開する強度マップ作成機能手段、及び前記検出物マップと反射強度マップに示されたそれぞれのデータについて時間的又は空間的に所定の範囲内で略滑らかに変化するデータを信頼性のあるデータとして抽出して新たな検出物マップを作成するデータ抽出機能手段を用いて検出物体の位置・形状を計測する物体位置・形状計測手段と、を備えたことを特徴とする物体位置・形状の計測装置。An ultrasonic sound source, an ultrasonic transmission control means for controlling the ultrasonic transmission of the ultrasonic sound source, an ultrasonic array sensor for detecting the ultrasonic waves transmitted from the ultrasonic source reflected by the detection object, and an ultrasonic array sensor. An ultrasonic signal receiving means for receiving an ultrasonic signal detected by the ultrasonic array sensor in synchronization with the ultrasonic wave transmission control means, and a processing object for processing each element output signal of the ultrasonic array sensor from the ultrasonic signal receiving means. Object position detecting means for detecting the position of the object, and surface position and surface shape data of the detected object are generated from the position detection data detected by the object position detecting means, and the generated surface position and surface shape data are developed on a detected object map. Map creation function means, intensity map creation function means for developing reflection intensity data at each point on the object map into a reflection intensity map, and the object map Data extraction function means for extracting data that changes substantially smoothly within a predetermined range temporally or spatially with respect to each data shown in the reflection intensity map as reliable data and creating a new detected object map An object position / shape measuring device, comprising: an object position / shape measuring means for measuring the position / shape of a detected object using the object.
JP2002312784A 2002-10-28 2002-10-28 Measuring method and instrument of object position/form by ultrasonic array sensor Withdrawn JP2004144719A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002312784A JP2004144719A (en) 2002-10-28 2002-10-28 Measuring method and instrument of object position/form by ultrasonic array sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002312784A JP2004144719A (en) 2002-10-28 2002-10-28 Measuring method and instrument of object position/form by ultrasonic array sensor

Publications (1)

Publication Number Publication Date
JP2004144719A true JP2004144719A (en) 2004-05-20

Family

ID=32457582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002312784A Withdrawn JP2004144719A (en) 2002-10-28 2002-10-28 Measuring method and instrument of object position/form by ultrasonic array sensor

Country Status (1)

Country Link
JP (1) JP2004144719A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011505610A (en) * 2007-11-07 2011-02-24 テレ アトラス ベスローテン フエンノートシャップ Method and apparatus for mapping distance sensor data to image sensor data
US8370085B2 (en) 2009-08-06 2013-02-05 Honda Motor Co., Ltd. Device, method, and program for detecting position
JP2014173869A (en) * 2013-03-06 2014-09-22 Denso Wave Inc Object detection method
KR101483271B1 (en) 2008-06-27 2015-01-15 삼성전자주식회사 Method for Determining the Representative Point of Cluster and System for Sound Source Localization
JP2017151043A (en) * 2016-02-26 2017-08-31 株式会社デンソー Object recognition device and program
JP2019215281A (en) * 2018-06-13 2019-12-19 株式会社デンソーテン Radar device and target data output method
CN113362379A (en) * 2021-07-09 2021-09-07 肇庆学院 Moving target trajectory tracking detection method based on virtual ultrasonic image

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011505610A (en) * 2007-11-07 2011-02-24 テレ アトラス ベスローテン フエンノートシャップ Method and apparatus for mapping distance sensor data to image sensor data
US9880010B2 (en) 2007-11-07 2018-01-30 Tomtom Global Content B.V. Method of and arrangement for mapping range sensor data on image sensor data
KR101483271B1 (en) 2008-06-27 2015-01-15 삼성전자주식회사 Method for Determining the Representative Point of Cluster and System for Sound Source Localization
US8370085B2 (en) 2009-08-06 2013-02-05 Honda Motor Co., Ltd. Device, method, and program for detecting position
JP2014173869A (en) * 2013-03-06 2014-09-22 Denso Wave Inc Object detection method
JP2017151043A (en) * 2016-02-26 2017-08-31 株式会社デンソー Object recognition device and program
JP2019215281A (en) * 2018-06-13 2019-12-19 株式会社デンソーテン Radar device and target data output method
JP7244220B2 (en) 2018-06-13 2023-03-22 株式会社デンソーテン Radar device and target data output method
CN113362379A (en) * 2021-07-09 2021-09-07 肇庆学院 Moving target trajectory tracking detection method based on virtual ultrasonic image
CN113362379B (en) * 2021-07-09 2023-04-07 肇庆学院 Moving target trajectory tracking detection method based on virtual ultrasonic image

Similar Documents

Publication Publication Date Title
JP6405778B2 (en) Object tracking method and object tracking apparatus
JP6641535B2 (en) Structure measuring device, measuring point correcting device, and measuring point correcting method
CN101957197A (en) Location measurement method and position measuring instrument
Huber et al. Integrating lidar into stereo for fast and improved disparity computation
JP5984376B2 (en) Radar signal processing apparatus and radar apparatus
JP2005528707A (en) Feature mapping between data sets
JP2008286582A (en) Radar signal processing device and method
GB2482551A (en) Alignment of synthetic aperture radar images
JP6117466B2 (en) Method and system for synthetic aperture sonar
JP2004144719A (en) Measuring method and instrument of object position/form by ultrasonic array sensor
JP6668594B2 (en) Parallax calculation system, information processing device, information processing method, and program
JP2002168952A (en) Method of reconstituting submarine three-dimensional structure
JP2008104705A (en) Ultrasonic diagnostic equipment
JP6667676B2 (en) Ultrasonic imaging system, ultrasonic imaging apparatus, ultrasonic imaging method, and image synthesis program
US10192470B2 (en) Apparatus and method for outputting image information, and non-transitory computer-readable storage medium for storing program for outputting image information
US9964640B2 (en) Method for phase unwrapping using confidence-based rework
RU2385468C1 (en) Method of navigating moving objects
JP4966105B2 (en) Target angle measuring device
JP2006047700A (en) Three-dimensional bathymetric chart display device and method
Spears et al. Determining underwater vehicle movement from sonar data in relatively featureless seafloor tracking missions
Esquivel et al. Reconstruction of sewer shaft profiles from fisheye-lens camera images
EP1678522A1 (en) Improved active element array apparatus for displaced phase center systems
JP5446516B2 (en) Image processing device
Pyo et al. Development of passive acoustic landmark using imaging sonar for AUV's localization
Bikonis et al. Computer vision techniques applied for reconstruction of seafloor 3d images from side scan and synthetic aperture sonars data

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060110