JP4101478B2 - Human body end point detection method and apparatus - Google Patents
Human body end point detection method and apparatus Download PDFInfo
- Publication number
- JP4101478B2 JP4101478B2 JP2001160775A JP2001160775A JP4101478B2 JP 4101478 B2 JP4101478 B2 JP 4101478B2 JP 2001160775 A JP2001160775 A JP 2001160775A JP 2001160775 A JP2001160775 A JP 2001160775A JP 4101478 B2 JP4101478 B2 JP 4101478B2
- Authority
- JP
- Japan
- Prior art keywords
- human body
- image
- dimensional coordinate
- end point
- coordinate calculation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は画像処理により、所定の検知空間内に存在する人体の頭部、両肩部、両手部、両足部などを検出する人体端点検出方法及び装置に関するものである。
【0002】
【従来の技術】
従来、この種の人体端点検出方法は、マーカやセンサなどを人体の検出対象の部位に装着し、画像処理でマーカを検出し、または検知器でセンサ位置を検出することで、頭、手、足といった所望の人体部位を検出していた。なお、被験者にマーカを装着して検出する方法は、図8に示すとおりである。すなわち、図8(a)に示すように、被験者の頭部に赤のマーク201、両手に青のマーク202、203、両肩に黄色のマーク204、205、両足に緑のマーク206、207を装着する。次いで、図8(b)に示すように、前記被験者を1式の計測用カラーカメラ208で撮像し、前述の4色(赤、青、黄、緑)を識別できる画像処理装置209で各色を検出する。こうして各部位を検出することが可能となる。
【0003】
一方、ステレオ画像処理を用い、撮像された画像から検知空間内の物体を検出する物体検出方法及び装置に関する技術が開示されている。この種の物体検出装置は、カメラなどの撮像手段で得られた複数の画像を用い、ステレオ画像処理により物体までの距離分布を計測する距離計測手段と、この距離計測手段で計測された前記物体までの距離分布データから、検知空間内の物体を検出する物体検知手段と、検出された物体情報を補正する検出結果補正手段とを備え、ステレオ画像処理で距離分布が正しく計測されなかった場合でも、検知空間内の物体を検出可能とするものであった(特開2000-261787号公報)。
【0004】
【発明が解決しようとする課題】
しかし、このような従来の人体端点検出方法では、被験者がマーカを装着する必要があるために、長時間の計測には苦痛を伴うという問題があった。また、被験者がマーカを装着する必要があるために、被験者の自然な動作を阻害する、あるいは色情報を利用するので計測用カメラはカラーカメラに限定されるという問題があった。
【0005】
また、前述の特開2000-261787号公報に開示された技術では、人体(物体)の3次元座標から頭、手、足といった人体の端点を検出する手段を備えていないために、ステレオ画像処理を用いた人体端点検出装置にそのまま適用するのは難しいという問題があった。また、カメラなどの撮像手段で得られた画像に対して歪み補正を施す手段を備えていないために、ステレオ画像処理の距離計測精度を向上させ、あるいは検出率を向上させることが難しいという問題があった。
【0006】
本発明は、このような問題を解決するためになされたもので、画像処理によって、マーカ等の接触型センサを装着していない人体の部位を検出できる人体端点検出方法及び装置を提供するものである。
【0007】
【課題を解決するための手段】
参考として、本発明の人体端点検出方法は、複数のカメラを搭載した撮像装置により所定の検知空間内に存在する人体を撮像し、ステレオ画像処理で撮像されている人体全体の距離分布を計測し、前記人体全体の距離分布の計測データと前記複数のカメラの位置データとから人体全体の3次元座標を算出し、人体の端点を出力するようにしている。この方法により、接触型のセンサを使用しなくても距離分布から人体の端点を検出できることとなる。
【0008】
本発明の人体端点検出方法は、複数のカメラを搭載した撮像装置により所定の検知空間内に存在する人体を撮像し、ステレオ画像処理で撮像されている人体全体の距離分布を計測し、前記人体全体の距離分布の計測データと前記複数のカメラの位置データとから人体全体の3次元座標を算出し、前記人体全体の3次元座標算出データから人体の頭頂点を求め、この頭頂点より下に胸部があると仮定し、前記人体全体の3次元座標算出データの中で胸部以上を表す3次元座標算出データを用いて床面に投影画像を作成し、この投影画像において頭部を中心にして所定の距離内で最遠点を示す2点を人体の両肩部とし、この両肩部を示す3次元座標算出データを逆投影処理で求めるようにしている。この方法により、接触型のセンサを使用しなくても距離分布から人体の両肩部を精度よく検出できることとなる。
【0009】
さらに、本発明の人体端点検出方法は、前記人体の膝部が床面より上にあると仮定し、前記人体全体の3次元座標算出データの中で膝部以上を表す3次元座標算出データを用いて床面に投影画像を作成し、この投影画像において重心座標を算出し、重心座標から最遠点1点とこの最遠点の周囲を除く重心座標からの最遠点1点の合計2点を人体の両手部とし、この両手部を示す3次元座標算出データを逆投影処理で求めるようにしている。この方法により、接触型のセンサを使用しなくても距離分布から人体の両手部を精度よく検出できることとなる。
【0010】
本発明の人体端点検出装置は、所定の検知空間を撮像するための複数のカメラからなる撮像手段と、前記複数のカメラから得られた画像を用い、ステレオ画像処理で撮像された人体の距離分布を計測する距離計測手段と、この距離計測手段で計測された距離分布と予め定められた前記複数のカメラの位置データとから人体全体の3次元座標を算出する人体3次元座標算出手段と、この人体3次元座標算出手段で算出された人体全体の3次元座標から人体の端点を出力する人体端点出力手段と、を有し、前記人体全体の3次元座標算出データから人体の頭頂点を求め、この頭頂点より下に胸部があると仮定し、前記人体全体の3次元座標算出データの中で胸部以上を表す3次元座標算出データを用いて床面に投影画像を作成し、この投影画像において頭部を中心にして所定の距離内で最遠点を示す2点を人体の両肩部とし、この両肩部を示す3次元座標算出データを逆投影処理で求める構成を有している。この構成により、接触型のセンサを使用しなくても距離分布から人体の端点を検出できることとなる。
また、本発明の人体端点検出装置は、前記人体の膝部が床面より上にあると仮定し、前記人体全体の3次元座標算出データの中で膝部以上を表す3次元座標算出データを用いて床面に投影画像を作成し、この投影画像において重心座標を算出し、重心座標から最遠点1点とこの最遠点の周囲を除く重心座標からの最遠点1点の合計2点を人体の両手部とし、この両手部を示す3次元座標算出データを逆投影処理で求める構成を有している。
【0011】
また、本発明の人体端点検出装置は、前記複数のカメラから得られた画像の歪みを補正する歪み補正手段を有し、この歪み補正手段により補正された画像を用い、ステレオ画像処理で撮像された人体の距離分布を計測する構成を有している。この構成により、歪みのある画像に対して歪み補正をすることで、ステレオ画像処理の距離計測精度を向上させ、画像の歪みが原因で位置精度が悪化するのを回避できることとなる。
【0012】
また、本発明の人体端点検出装置は、前記複数のカメラから得られた画像の歪みを補正する歪み補正手段と、装置起動時に得られた画像に対して歪み補正した画像を基準画像として記憶する基準画像記憶手段と、この基準画像記憶手段に記憶されている画像と装置起動時以降に得られた画像に対して歪み補正した画像とを比較して画像変化を算出する画像変化算出手段と、を有し、前記歪み補正手段により補正された画像を用い、ステレオ画像処理で撮像された人体の距離分布を計測するとともに、前記画像変化算出手段から得られた画像変化算出結果と前記人体端点出力手段から得られた端点座標結果とから端点座標を画像変化領域に修正する構成を有している。この構成により、基準画像と順次入力される撮像画像を比較して変化のある領域上に人体の部位が検出されるように修正することで、距離計測の誤差やノイズにより誤って検出した端点を修正して精度よく端点を出力でき、人体端点の検出率が向上することとなる。
【0013】
さらに、本発明の人体端点検出装置は、前記人体3次元座標算出手段で算出された人体全体の3次元座標から人体の頭部を検出する頭部検出手段と、前記人体3次元座標算出手段で算出された人体全体の3次元座標から人体の両肩部を検出する両肩部検出手段と、前記人体3次元座標算出手段で算出された人体全体の3次元座標から人体の両手部を検出する両手部検出手段と、前記人体3次元座標算出手段で算出された人体全体の3次元座標から人体の両足部を検出する両足部検出手段とを設けた構成を有している。この構成により、接触型のセンサを使用しなくても距離分布から人体の両肩部、両手部、両足部を精度よく検出できることとなる。
【0014】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を用いて説明する。
図1に示すように、本発明の第1の実施の形態の人体端点検出装置は、所定の検知空間を撮像するための複数のカメラ102、103からなる撮像手段(撮像装置)101と、複数のカメラ102、103から得られた画像を用い、ステレオ画像処理で撮像された人体の距離分布を計測する距離計測手段112と、この距離計測手段112で計測された距離分布と予め定められた複数のカメラ102、103の位置データとから人体全体の3次元座標を算出する人体3次元座標算出手段114と、この人体3次元座標算出手段114で算出された人体全体の3次元座標から人体の端点を出力する人体端点出力手段116とを設けたものである。
【0015】
図1において、撮像手段101は、複数のカメラ102、103を備えて所定の検知空間を撮像するものである。歪み補正手段105は、カメラ103から得られる画像に対して歪み補正を施し、歪み補正手段106は、カメラ102から得られる画像104に対して歪み補正を施すものである。基準画像記憶手段108は、装置起動時の歪み補正画像107を記憶するものである。画像変化算出手段110は、基準画像記憶手段108に記憶されている基準歪み補正画像109と、歪み補正手段106により歪み補正された画像107とを比較して画像変化を算出するものである。距離計測手段112は、歪み補正手段105、106で補正された画像を用い、ステレオ画像処理で撮像されている人体の距離分布を計測するものである。人体3次元座標算出手段114は、距離計測手段112で計測された人体の距離分布データ113と、予め定められている複数のカメラ102、103の位置データとから人体全体の3次元座標を算出するものである。人体端点出力手段116は、人体3次元情報115を用いて人体の端点を出力するものである。頭部検出手段117は、人体3次元座標算出手段114で算出された人体3次元情報115を用いて人体の頭部を検出するものである。両肩部検出手段118は、人体3次元座標算出手段114で算出された人体3次元情報115を用いて人体の両肩部を検出するものである。両足部検出手段119は、人体3次元座標算出手段114で算出された人体3次元情報115を用いて人体の両足部を検出するものである。両手部検出手段120は、人体3次元座標算出手段114で算出された人体3次元情報115を用いて人体の両手部を検出するものである。人体端点修正手段122は、画像変化算出手段110で算出された画像変化算出結果111と、頭部検出手段117と両肩部検出手段118と両足部検出手段119と両手部検出手段120で検出された端点座標結果121から人体部分に端点を修正するものである。
【0016】
次に、本実施形態における人体端点検出方法について詳細に説明する。まず、撮像手段101は複数のカメラ102、103で所定の検知空間を撮影する。次いで、歪み補正手段104、105はカメラ102、103から得られる画像の歪みを補正する。ここで、画像の歪み(歪曲収差)は、カメラ102、103とこのカメラ102、103に装着するレンズによって決まり、歪み補正関数FHで補正できる。よって、歪み補正画像Ib(i,j)は、歪み画像Ia(i,j)から、
【数1】
と表すことができる。この数式(1)により、カメラ102から得られる歪み画像104から、歪み補正画像107が得られる。これは、歪み補正手段106でも同様である。
【0017】
次いで、基準画像記憶手段108では、装置起動時の人体の撮像されていない歪み補正画像107を基準歪み補正画像109として記憶し、画像変化算出手段110では、基準歪み補正画像109と起動時以降の歪み補正画像107とを比較して、画像変化のあった領域を算出する。ここで、基準歪み補正画像109をIc(i,j)とし、起動時以降の歪み補正画像107をId(i,j)とすると、
【数2】
を満たす時に、画素(i,j)が変化画素となる。ただし、TH1は輝度変化から求まる所定の閾値である。ここで、数式(2)を満たす画素では画像変化分布C(i,j)=1とし、数式(2)を満たさない画素では画像変化分布C(i,j)=0とする。この画素変化分布C(i,j)を画素変化算出結果111とする。
【0018】
次いで、距離計測手段112では、歪み補正手段105、106から得られる歪み補正画像を用いてステレオ画像処理により、撮像されている人体までの距離分布を計測する。ここで、ステレオ画像処理を用いた距離計測方法の例として、『実吉他著、「三次元画像認識技術を用いた運転支援システム」、自動車技術学会学術講演会前刷924、pp169-172(1992-10)』に記載の方法を説明する。なお、これに限らず、他の距離計測方法を用いてもよい。
【0019】
具体的には、カメラ102とカメラ103は、水平方向に既知の間隔で平行に設置されており、図2に示すように、カメラ102より撮影される画像を歪み補正した画像を右画像301、カメラ103により撮影される画像を歪み補正した画像を左画像とする。まず、右画像301を水平方向にm分割、垂直方向にn分割して、合計(m×n)個の画素302からなる部分領域303に分割する。これによって、右画像301は水平方向にM分割、垂直方向にN分割の合計(M×N)個の部分領域303に分割される。
【0020】
次いで、右画像301の部分領域303毎に、左画像中を順次探索していき、対応する領域を決定していく。具体的には、左画像の中で右画像301の部分領域303の画像に類似する画像が存在する可能性のある探索範囲において、水平方向にm、垂直方向にnの合計(m×n)個の画素302からなる探索矩形領域を水平方向に1画素ずつ移動させるごとに、右画像301の部分領域303の画像と左画像の探索矩形領域の画像との類似度評価値Bを求める。
【0021】
この類似度評価値Bは、右画像301の部分領域303のi番目の画素における輝度値をLi、左画像の探索矩形領域中のi番目の画素における輝度値をRiとしたとき、数式(3)によって求めることができる。
【数3】
その結果、類似度評価値Bが最小になった時の左画像における探索部分領域の位置を、右画像301の部分領域303に対応する領域(以下「対応領域」という)と判定して、右画像301の部分領域303の座標PRと左画像の対応領域の座標PLとのずれから、視差dを次に示す数式(4)によって求め、それを出力する。
【数4】
以上のように、右画像301の部分領域303の対応領域を求めて視差dを算出する動作を、右画像301に含まれる全ての部分領域303に対して順次行うものとする。
【0022】
次いで、右画像301の部分領域303毎に得られた視差d(X,Y)[但し、0≦X<M、0≦Y<N]をもとに、カメラ102,103から撮像された人体までの光軸方向の距離分布データK(X,Y)を、数式(5)によって部分領域303毎に求める。
【数5】
但し、2aはカメラ102とカメラ103の設置間距離を表し、fはカメラ102とカメラ103のレンズの焦点距離を表す。
【0023】
次いで、人体3次元座標算出手段114では、予め床面までの距離分布K0を計測しておく。そして、距離計測手段112により計測された距離分布データK(X,Y)と地面までの距離分布用データK0(X,Y)を用いて、撮像されている人体の3次元データを算出する。
【0024】
ここで、図3を参照しながら、人体3次元座標算出手段114の動作を説明する。図3(a)に示すように、カメラの撮像面のX軸と実空間のU軸とが平行になるようにカメラを設置し、検知空間401中に存在する人間402を撮影する。このとき、撮像面403に撮像されている人間402の距離分布データ(X,Y)のV軸方向の位置V(X,Y)を算出する。図3(b)は、撮像されている人間402のH軸方向の位置HとV軸方向の位置Vを算出する手順を説明する図である。図3(b)から、H軸方向の位置HとV軸方向の位置Vは、
【数6】
【数7】
として、算出できる。但し、1≦X≦M、1≦Y≦N、 Hcamはカメラの設置高であり、θはカメラの設置俯角である。
さらに、U軸方向の位置Uは、X軸とU軸は平行なので、
【数8】
として算出できる。但し、a及びbは使用する撮像装置(図1の101に相当)とその設置位置によって決定される定数である。
【0025】
以上、数式6から数式8に示すように、距離分布データK(X,Y)と地面までの距離分布用データK0(X,Y)を用いて、撮像されている人体の3次元情報を算出することができる。この数式(6)から数式(8)を人体3次元情報115とする。
【0026】
次いで、人体端点出力手段116において、はじめに頭部検出手段117に人体3次元情報115を入力する。頭部検出手段117では、人体3次元情報115を用いて人体の頭部を検出する。ここで、図4を参照しながら頭部検出手段117の動作を説明する。
【0027】
入力された人体3次元情報115から、人体で最も高い頭頂点501を求める。この頭頂点501から床面方向へ、順次体の幅BWを計測していき、次式(9)を満たす高さhを求める。
【数9】
但し、頭と手が同じ高さであった場合、大きい方を体の幅BWとする。また、TH2は頭の大きさによって決定される閾値である。数式(9)を満たす値hのうち最も高いものをh_maxとし、高さh_maxの人体の中央点を頭位置502とする。この頭位置502の3次元座標が端点位座標結果121として出力される。
【0028】
次いで、人体端点出力手段116において、両肩検出手段118に人体3次元情報115を入力する。両肩検出手段118では、人体3次元情報115を用いて人体の両肩部を検出する。
【0029】
ここで、図5を参照しながら両肩検出手段118の動作を説明する。まず、入力された人体3次元情報115から、人体の中で最も高い頭頂点AH601を求める。人体の肩SHの高さは頭頂点601より下にあると仮定し、人体の肩は次の数式(10)で示す領域にあるものとする。
【数10】
但し、N、Pは頭と肩の構造な関係から決まる定数である。人体3次元情報115から、数式(10)のSHの示す領域を満たす3次元情報を抽出し、その情報を床面に投影して得られる像が、図5(a)に示す肩投影像602である。また、頭頂点を床面に投影して得られる点が頭投影点603である。
【0030】
次いで、肩投影像602を構成する全ての点のうち、頭投影点603を通過する2点u(ui,uj)、v(vi,vj)の線分の長さdistを次式(11)によって求める。但し、2点u、vは各々の頭投影点603から等距離にあるものとする。
【数11】
次いで、数式(11)で求めた長さを持つ各線分u、vのうち、次式(12)を満たすものを求める。
【数12】
但し、TH3は肩の広さから決まる定数である。数式(12)を満たすdistのうち最長のものをdist_maxとし、その線分を構成する2点を肩投影点604とする(図5(b)に示す)。この肩投影点604に投影した点を人体3次元情報115から探索して求め、その肩逆投影点605を肩位置とする。この肩位置605の3次元座標が端点座標結果121として出力される。
【0031】
次いで、人体端点出力手段116において、両足検出手段119に人体3次元情報115を入力する。両足検出手段119では、人体3次元情報115を用いて人体の両足部を検出する。
【0032】
ここで、図6を参照しながら両足検出手段119の動作を説明する。人体の足LHは膝KHの高さより下にあると仮定し、人体の足は次式(13)で示す領域にあるものとする。
【数13】
ただし、KHは足の構造から決まる定数である。人体3次元情報115から、数式(13)のLHの示す領域を満たす3次元情報を抽出し、その情報を床面に投影して得られる像が足投影像702であり、これを二つの領域に分割する(図6(a)に示す)。
【0033】
まず、任意の点P、Qを定め、それらと足投影像702上の全ての点(i,j)との距離を各々distP(i,j)、distQ(i,j)として求める。distP(i,j)、distQ(i,j)の比較を行い、小さい方に前記点(i,j)が属するものとする。例えば、distP(i,j)がdistQ(i,j)より小さいとき、投影点属性分布D(i,j)=Pとする。投影点属性分布D(i,j)から、足投影像702上の全ての点(i,j)は、P、Qのいずれかに属したことになる。次いで、P、Q各々に属する点(i,j)の重心を求め、各重心点をP、Qとふりなおす。
【0034】
以上の、PQと足投影像上の全ての点との距離を求め、投影点属性分布Dを求め、属性毎に重心を求めそれらをPQとする、という一連の処理をPQの位置が変化しなくなるまで続ける。変化しなくなった点を、足投影点703とする(図6(b)に示す)。床面上での位置を示す足投影点703の2次元座標と両足とはいずれも床面に接していることから、両足の高さは0であるという1次元座標の合計3次元座標が、端点座標結果121として出力される。
【0035】
次いで、人体端点出力手段116において、両手部検出手段120に人体3次元情報115を入力する。両手部検出手段120では、人体3次元情報115を用いて人体の両手部を検出する。
【0036】
ここで、図7を参照しながら両手部検出手段119の動作を説明する。人体の手HHは膝KHの高さより上にあると仮定し、人体の手は次式(14)で示す領域にあるものとする。
【数14】
但し、KHは足の構造から決まる定数である。人体3次元情報115から、数式(14)のHHの示す領域を満たす3次元情報を抽出し、その情報を床面に投影して得られる像が手投影像802である(図7(a)に示す)。
【0037】
次いで、手投影像802の重心803を求める。さらに、重心803と手投影像802上の全ての点(i,j)との距離dist(i,j)を求める。距離dist(i,j)のうち最大を示す点をR(iR,jR)とする。次に重心803と数式(15)を満たす点(i,j)の距離dist(i,j)を求める。距離dist(i,j)のうち最大を示す点をSとする。
【数15】
但し、TH4は両手間の距離から決まる閾値である。以上2点R、Sを手投影点804とする(図7(b)に示す)。この投影点804に投影した点を人体3次元情報115から探索して求め、その手逆投影点805を手位置とする。この手逆投影点805の3次元情報が端点座標結果121として出力される。
【0038】
こうして、頭部検出手段117と両肩部検出手段118と両足部検出手段119と両手部検出手段120から出力された端点座標結果121は、人体端点修正手段122に入力される。この人体端点修正手段122では、画素変化算出結果111と端点座標結果121から、部位を修正する。まず、端点座標結果が画素変化分布C(i,j)=1上に存在するかを調べ、存在しなければ、画素変化分布C(i,j)=1を満たす画素(i,j)と端点座標結果121の座標との距離を求め、最小となる点を新たな端点座標結果とする。
【0039】
以上のように、本発明の実施の一形態に係る人体端点検出装置は、所定の検知空間を撮像するための複数のカメラ102、103からなる撮像手段(撮像装置)101と、複数のカメラ102、103から得られた画像を用い、ステレオ画像処理で撮像された人体の距離分布を計測する距離計測手段112と、この距離計測手段112で計測された距離分布と予め定められた複数のカメラ102、103の位置データとから人体全体の3次元座標を算出する人体3次元座標算出手段114と、この人体3次元座標算出手段114で算出された人体全体の3次元座標から人体の端点を出力する人体端点出力手段116とを設け、撮像手段101により所定の検知空間内に存在する人体を撮像し、ステレオ画像処理で撮像されている人体全体の距離分布を計測し、この距離分布の計測データと複数のカメラ102、103の位置データとから人体全体の3次元座標を算出して、人体の端点を出力しているので、接触型のセンサを使用しなくても距離分布から人体の端点を検出できる。
【0040】
なお、本実施形態においては、歪みのある画像に対して歪み補正をすることで、ステレオ画像処理の距離計測精度を向上させ、基準画像と順次入力される撮像画像とを比較して変化のある領域に人体の部位が検出されているか否かを判定し、変化のない領域に人体の部位が検出されている場合は変化のある領域に修正することで、検出率を向上させることが可能である。
【0041】
また、本実施形態においては、人体全体の3次元座標算出データから頭頂点を求め、頭頂点から床方向に身体の幅を計測し、所定の閾値以上の幅を持つ部分を人体の頭部とし、その幅の中央点を頭部の位置とすることで、頭部に接触型のセンサを装着しなくても距離分布から精度良く頭部を検出できる。
【0042】
さらに、本実施形態においては、床面より上に膝部があると仮定し、身体全体の3次元座標算出データの中で膝部以下を表す3次元座標算出データを用いて床面に投影画像を作成し、投影画像において領域を2つに分割し、各領域の重心を人体の足部とすることで、足部に接触型のセンサを装着しなくても距離分布から精度良く足部を検出できる。
【0043】
【発明の効果】
以上説明したように、本発明はステレオ画像処理により人体全体の3次元座標を算出することにより、被験者にマーカ等の接触型のセンサを取り付けることなく、人体部位を検出できるという優れた効果を有する人体端点検出装置及び方法を提供することができるものである。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る人体端点検出装置の構成を示すブロック図
【図2】本発明の実施の形態に係る人体端点検出方法(距離計測方法)における画像と部分領域の関係を表す模式図
【図3】本発明の実施の形態に係る人体端点検出装置における人体3次元座標算出手段の動作を説明する模式図
【図4】本発明の実施の形態に係る人体端点検出装置における頭部検出手段の動作を説明する模式図
【図5】本発明の実施の形態に係る人体端点検出装置における両肩部検出手段の動作を説明する模式図
【図6】本発明の実施の形態に係る人体端点検出装置における両足部検出手段の動作を説明する模式図
【図7】本発明の実施の形態に係る人体端点検出装置における両手部検出手段の動作を説明する模式図
【図8】従来のマーカを装着して人体端点を検出する方法を説明する模式図
【符号の説明】
101 撮像手段
102、103 カメラ
104 画像
105、106 歪み補正手段
107 歪み補正画像
108 基準画像記憶手段
109 基準歪み補正画像
110 画像変化算出手段
111 画像変化算出結果
112 距離計測手段
113 距離分布データ
114 人体3次元座標算出手段
115 人体3次元情報
116 人体端点出力手段
117 頭部検出手段
118 両肩部検出手段
119 両足検出手段
120 両手検出手段
121 端点座標結果
122 人体端点修正手段
201 頭に装着した赤マーク
202 手に装着した青マーク
203 手に装着した青マーク
204 肩に装着した黄マーク
205 肩に装着した黄マーク
206 足に装着した緑マーク
207 足に装着した緑マーク
208 計測用カラーカメラ
209 画像処理装置
301 右画像
302 画素
303 部分領域
401 検知空間
402 人間(人体)
403 撮像面
501 頭頂点
502 頭の位置
601 頭頂点
602 肩投影像
603 頭投影点
604 肩投影点
605 肩逆投影点
701 膝の高さ
702 足投影像
703 足投影点
801 膝の高さ
802 手投影像
803 重心
804 手投影点
805 手逆投影点[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a human body end point detection method and apparatus for detecting the head, both shoulders, both hands, both feet, and the like of a human body existing in a predetermined detection space by image processing.
[0002]
[Prior art]
Conventionally, this type of human body end point detection method has a method in which a marker, a sensor, or the like is attached to a detection target part of the human body, the marker is detected by image processing, or the sensor position is detected by a detector. A desired human body part such as a foot was detected. In addition, the method of attaching and detecting a marker to a test subject is as showing in FIG. That is, as shown in FIG. 8A, a
[0003]
On the other hand, a technique relating to an object detection method and apparatus for detecting an object in a detection space from a captured image using stereo image processing is disclosed. This type of object detection apparatus uses a plurality of images obtained by an imaging unit such as a camera, measures distance distribution to an object by stereo image processing, and the object measured by the distance measurement unit Even if the distance distribution is not correctly measured by stereo image processing, it has an object detection means for detecting an object in the detection space from the distance distribution data up to and a detection result correction means for correcting the detected object information. The object in the detection space can be detected (Japanese Patent Laid-Open No. 2000-261787).
[0004]
[Problems to be solved by the invention]
However, in such a conventional human body end point detection method, the subject needs to wear a marker, so that there is a problem that long-time measurement is painful. Also, since the subject needs to wear a marker, the measurement camera is limited to a color camera because the subject's natural movement is hindered or color information is used.
[0005]
Further, in the technique disclosed in the aforementioned Japanese Patent Laid-Open No. 2000-261787, since there is no means for detecting the end points of the human body such as the head, hand, and foot from the three-dimensional coordinates of the human body (object), stereo image processing is performed. There is a problem that it is difficult to directly apply to a human body end point detection device using. In addition, since there is no means for performing distortion correction on an image obtained by an imaging means such as a camera, it is difficult to improve the distance measurement accuracy of stereo image processing or to improve the detection rate. there were.
[0006]
The present invention has been made to solve such a problem, and provides a human body end point detection method and apparatus capable of detecting a part of a human body not equipped with a contact sensor such as a marker by image processing. is there.
[0007]
[Means for Solving the Problems]
As reference,In the human body end point detection method of the present invention, a human body existing in a predetermined detection space is imaged by an imaging device equipped with a plurality of cameras, the distance distribution of the whole human body imaged by stereo image processing is measured, and the human body The three-dimensional coordinates of the entire human body are calculated from the measurement data of the entire distance distribution and the position data of the plurality of cameras, and the end points of the human body are output. By this method, the end point of the human body can be detected from the distance distribution without using a contact-type sensor.
[0008]
The present inventionThe human body endpoint detection method isThe human body existing in a predetermined detection space is imaged by an imaging device equipped with a plurality of cameras, the distance distribution of the entire human body imaged by stereo image processing is measured, and the distance distribution measurement data of the entire human body and the Calculate the 3D coordinates of the whole human body from the position data of multiple cameras,3D coordinate calculation representing the human body's head vertex from the 3D coordinate calculation data of the entire human body, assuming that there is a chest below the head vertex, and representing the chest or more in the 3D coordinate calculation data of the entire human body A projection image is created on the floor using the data. In this projection image, two points indicating the farthest point within a predetermined distance centered on the head are taken as both shoulders of the human body, and 3 indicating these shoulders. The dimension coordinate calculation data is obtained by back projection processing. By this method, it is possible to accurately detect both shoulder portions of the human body from the distance distribution without using a contact-type sensor.
[0009]
Furthermore, in the human body end point detection method of the present invention, it is assumed that the knee part of the human body is above the floor surface, and three-dimensional coordinate calculation data representing the knee part or more in the three-dimensional coordinate calculation data of the whole human body is obtained. A projected image is created on the floor surface, the center of gravity coordinates are calculated in the projected image, and a total of 2 points, one farthest point from the center of gravity coordinates and one farthest point from the center of gravity coordinates excluding the periphery of the farthest point, are 2 A point is set as both hands of the human body, and three-dimensional coordinate calculation data indicating both hands is obtained by back projection processing. By this method, both hands of the human body can be accurately detected from the distance distribution without using a contact-type sensor.
[0010]
The human body end point detection apparatus according to the present invention is a distance distribution of a human body imaged by stereo image processing, using an imaging unit including a plurality of cameras for imaging a predetermined detection space and images obtained from the plurality of cameras. A distance measuring means for measuring the human body, a human body three-dimensional coordinate calculating means for calculating the three-dimensional coordinates of the whole human body from the distance distribution measured by the distance measuring means and the predetermined position data of the plurality of cameras, Human body end point output means for outputting an end point of the human body from the three-dimensional coordinates of the whole human body calculated by the human body three-dimensional coordinate calculation means;And determining the head vertex of the human body from the three-dimensional coordinate calculation data of the whole human body, assuming that there is a chest below the head vertex, and calculating the chest or more in the three-dimensional coordinate calculation data of the whole human body. A projection image is created on the floor using the three-dimensional coordinate calculation data that is represented, and two points indicating the farthest point within a predetermined distance centered on the head in the projection image are defined as both shoulder portions of the human body. Obtain 3D coordinate calculation data indicating shoulder by back projection processIt has a configuration. With this configuration, the end point of the human body can be detected from the distance distribution without using a contact-type sensor.
Further, the human body end point detection device of the present invention assumes that the knee part of the human body is above the floor surface, and the three-dimensional coordinate calculation data representing the knee part or more in the three-dimensional coordinate calculation data of the whole human body. A projected image is created on the floor surface, the center of gravity coordinates are calculated in the projected image, and a total of 2 points, one farthest point from the center of gravity coordinates and one farthest point from the center of gravity coordinates excluding the periphery of the farthest point, are 2 A point is used as both hands of the human body, and three-dimensional coordinate calculation data indicating both hands is obtained by back projection processing.
[0011]
Moreover, the human body end point detection device of the present invention isSaidDistortion correction means for correcting distortion of images obtained from a plurality of camerasHaveUsing the image corrected by this distortion correction means, the distance distribution of the human body imaged by stereo image processing is calculated.measureIt has a configuration. With this configuration, by performing distortion correction on a distorted image, it is possible to improve the distance measurement accuracy of stereo image processing, and to avoid deterioration in position accuracy due to image distortion.
[0012]
Moreover, the human body end point detection device of the present invention isSaidDistortion correction means for correcting distortion of images obtained from a plurality of cameras, reference image storage means for storing, as a reference image, an image obtained by correcting distortion with respect to the image obtained at the time of starting the apparatus, and the reference image storage means An image change calculating means for calculating an image change by comparing a stored image with an image obtained after distortion correction with respect to an image obtained after starting the apparatus;HaveUsing the image corrected by the distortion correction means, the distance distribution of the human body imaged by stereo image processingWhile measuringFrom the image change calculation result obtained from the image change calculation means and the end point coordinate result obtained from the human body end point output means, the end point coordinates are set in the image change area.CorrectIt has a configuration. With this configuration, by comparing the reference image with the captured image that is sequentially input and correcting it so that the part of the human body is detected on the area where there is a change, the end points that were detected incorrectly due to distance measurement errors or noise can be detected. The end points can be output with high accuracy by correction, and the detection rate of the human body end points is improved.
[0013]
Furthermore, the human body end point detection apparatus of the present invention includes a head detecting means for detecting the head of the human body from the three-dimensional coordinates of the whole human body calculated by the human body three-dimensional coordinate calculating means, and the human three-dimensional coordinate calculating means. Both shoulder detection means for detecting both shoulders of the human body from the calculated three-dimensional coordinates of the entire human body, and both hands of the human body are detected from the three-dimensional coordinates of the entire human body calculated by the human body three-dimensional coordinate calculation means. It has a configuration in which both hands detecting means and both feet detecting means for detecting both feet of the human body from the three-dimensional coordinates of the whole human body calculated by the human body three-dimensional coordinate calculating means are provided. With this configuration, it is possible to accurately detect both shoulders, both hands, and both feet of the human body from the distance distribution without using a contact-type sensor.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
As shown in FIG. 1, the human body end point detection device according to the first embodiment of the present invention includes an imaging means (imaging device) 101 including a plurality of
[0015]
In FIG. 1, an imaging means 101 includes a plurality of
[0016]
Next, the human body end point detection method in the present embodiment will be described in detail. First, the imaging means 101 images a predetermined detection space with a plurality of
[Expression 1]
It can be expressed as. With this mathematical formula (1), a distortion corrected
[0017]
Next, the reference image storage means 108 stores the distortion corrected
[Expression 2]
When the condition is satisfied, the pixel (i, j) becomes the change pixel. However, TH1Is a predetermined threshold obtained from the luminance change. Here, it is assumed that the image change distribution C (i, j) = 1 is set for a pixel satisfying Expression (2), and the image change distribution C (i, j) = 0 is set for a pixel not satisfying Expression (2). This pixel change distribution C (i, j) is defined as a pixel
[0018]
Next, the
[0019]
Specifically, the
[0020]
Next, for each
[0021]
This similarity evaluation value B is the luminance value at the i-th pixel of the
[Equation 3]
As a result, the position of the search partial region in the left image when the similarity evaluation value B is minimized is determined as a region corresponding to the
[Expression 4]
As described above, it is assumed that the operation of obtaining the corresponding region of the
[0022]
Next, the parallax d (X, Y) obtained for each
[Equation 5]
2a represents the distance between the
[0023]
Next, in the human body three-dimensional coordinate calculation means 114, the distance distribution K to the floor surface in advance.0Measure. Then, the distance distribution data K (X, Y) measured by the distance measuring means 112 and the distance distribution data K to the ground.0Using (X, Y), three-dimensional data of the human body being imaged is calculated.
[0024]
Here, the operation of the human body three-dimensional coordinate calculation means 114 will be described with reference to FIG. As shown in FIG. 3A, the camera is installed so that the X axis of the imaging surface of the camera and the U axis of the real space are parallel, and a person 402 existing in the detection space 401 is photographed. At this time, the position V (X, Y) in the V-axis direction of the distance distribution data (X, Y) of the person 402 imaged on the imaging surface 403 is calculated. FIG. 3B is a diagram illustrating a procedure for calculating the position H in the H-axis direction and the position V in the V-axis direction of the person 402 being imaged. From FIG. 3B, the position H in the H-axis direction and the position V in the V-axis direction are
[Formula 6]
[Expression 7]
Can be calculated. However, 1 ≦ X ≦ M, 1 ≦ Y ≦ N, Hcam is a camera installation height, and θ is a camera installation depression angle.
Furthermore, since the position U in the U-axis direction is parallel to the X-axis and the U-axis,
[Equation 8]
Can be calculated as However, a and b are constants determined by the imaging device to be used (corresponding to 101 in FIG. 1) and its installation position.
[0025]
As described above, the distance distribution data K (X, Y) and the distance distribution data K to the ground as shown in Expression 6 to Expression 8.0(X, Y) can be used to calculate the three-dimensional information of the human body being imaged. The mathematical formula (6) to the mathematical formula (8) are set as the human body three-dimensional information 115.
[0026]
Next, the human body end point output means 116 first inputs the human body three-dimensional information 115 to the head detection means 117. The head detection means 117 detects the human head using the human three-dimensional information 115. Here, the operation of the head detecting means 117 will be described with reference to FIG.
[0027]
From the input human three-dimensional information 115, the highest head vertex 501 in the human body is obtained. The body width BW is sequentially measured from the top vertex 501 toward the floor surface, and a height h satisfying the following equation (9) is obtained.
[Equation 9]
However, when the head and the hand are at the same height, the larger one is defined as the body width BW. TH2Is a threshold determined by the size of the head. The highest value h satisfying Expression (9) is set as h_max, and the center point of the human body having the height h_max is set as the head position 502. The three-dimensional coordinates of the head position 502 are output as the end point position coordinate
[0028]
Next, the human body end point output means 116 inputs the human body three-dimensional information 115 to both shoulder detection means 118. Both shoulder detection means 118 detects both shoulders of the human body using the human body three-dimensional information 115.
[0029]
Here, the operation of both shoulder detection means 118 will be described with reference to FIG. First, the highest head vertex AH601 in the human body is obtained from the input three-dimensional human body information 115. It is assumed that the height of the shoulder SH of the human body is below the head vertex 601 and the shoulder of the human body is in the region indicated by the following formula (10).
[Expression 10]
N and P are constants determined from the structural relationship between the head and shoulder. An image obtained by extracting the three-dimensional information satisfying the region indicated by SH in Expression (10) from the human three-dimensional information 115 and projecting the information on the floor surface is a shoulder projection image 602 shown in FIG. It is. A point obtained by projecting the head vertex onto the floor is a head projection point 603.
[0030]
Next, of all the points constituting the shoulder projection image 602, two points u (u) that pass through the head projection point 603 are used.i, Uj), V (vi, Vj) Is obtained by the following equation (11). However, it is assumed that the two points u and v are equidistant from each head projection point 603.
## EQU11 ##
Next, among the line segments u and v having the lengths obtained by the equation (11), those satisfying the following equation (12) are obtained.
[Expression 12]
However, THThreeIs a constant determined by the width of the shoulder. The longest dist satisfying Expression (12) is set as dist_max, and the two points constituting the line segment are set as shoulder projection points 604 (shown in FIG. 5B). A point projected onto the shoulder projection point 604 is obtained by searching from the human body three-dimensional information 115, and the shoulder back projection point 605 is set as a shoulder position. The three-dimensional coordinates of the shoulder position 605 are output as the end point coordinate
[0031]
Next, the human body end point output means 116 inputs the human body three-dimensional information 115 to the both feet detection means 119. The both
[0032]
Here, the operation of the both foot detection means 119 will be described with reference to FIG. It is assumed that the human foot LH is below the height of the knee KH, and the human foot is in the region represented by the following equation (13).
[Formula 13]
However, KH is a constant determined from the foot structure. An image obtained by extracting three-dimensional information satisfying the region indicated by LH in Expression (13) from the human three-dimensional information 115 and projecting the information onto the floor surface is a foot projection image 702, which is divided into two regions. (Shown in FIG. 6A).
[0033]
First, arbitrary points P and Q are determined, and distances between them and all points (i, j) on the foot projection image 702 are set to dist respectively.P(I, j), distQObtained as (i, j). distP(I, j), distQ(I, j) is compared, and the point (i, j) belongs to the smaller one. For example, distP(I, j) is distQWhen smaller than (i, j), the projection point attribute distribution D (i, j) = P. From the projection point attribute distribution D (i, j), all the points (i, j) on the foot projection image 702 belong to either P or Q. Next, the center of gravity of the point (i, j) belonging to each of P and Q is obtained, and each center of gravity is re-assigned to P and Q.
[0034]
As described above, the position of PQ changes in the series of processes of obtaining the distance between PQ and all points on the foot projection image, obtaining the projection point attribute distribution D, obtaining the center of gravity for each attribute, and setting them as PQ. Continue until it runs out. The point that no longer changes is set as a foot projection point 703 (shown in FIG. 6B). Since both the two-dimensional coordinates of the foot projection point 703 indicating the position on the floor surface and both feet are in contact with the floor surface, the total three-dimensional coordinates of the one-dimensional coordinate that the height of both feet is 0, The end point coordinate
[0035]
Next, the human body end point output means 116 inputs the human body three-dimensional information 115 to the both-hand part detection means 120. The both-hand part detection means 120 detects both hands of the human body using the human body three-dimensional information 115.
[0036]
Here, the operation of the both-
[Expression 14]
KH is a constant determined from the foot structure. An image obtained by extracting three-dimensional information satisfying the region indicated by HH in Expression (14) from the human three-dimensional information 115 and projecting the information on the floor surface is a hand-projected image 802 (FIG. 7A). To show).
[0037]
Next, the center of gravity 803 of the hand projection image 802 is obtained. Further, distances dist (i, j) between the center of gravity 803 and all points (i, j) on the hand projection image 802 are obtained. The point indicating the maximum among the distances dist (i, j)R, JR). Next, the distance dist (i, j) between the center of gravity 803 and the point (i, j) that satisfies the formula (15) is obtained. Let S be the point indicating the maximum of the distance dist (i, j).
[Expression 15]
However, THFourIs a threshold value determined from the distance between both hands. The two points R and S are the hand projection points 804 (shown in FIG. 7B). A point projected on the projection point 804 is obtained by searching from the human body three-dimensional information 115, and the hand back projection point 805 is set as a hand position. The three-dimensional information of the hand back projection point 805 is output as the end point coordinate
[0038]
Thus, the end point coordinate
[0039]
As described above, the human body end point detection device according to the embodiment of the present invention includes the imaging unit (imaging device) 101 including the plurality of
[0040]
In the present embodiment, the distortion measurement is performed on the distorted image to improve the distance measurement accuracy of the stereo image processing, and the reference image and the sequentially input captured image are compared and changed. It is possible to improve the detection rate by determining whether or not a human body part is detected in the area, and if a human body part is detected in the area where there is no change, it is corrected to the changed area. is there.
[0041]
Further, in the present embodiment, the head vertex is obtained from the three-dimensional coordinate calculation data of the entire human body, the width of the body is measured from the head vertex in the floor direction, and a portion having a width equal to or larger than a predetermined threshold is set as the head of the human body. By setting the center point of the width as the position of the head, the head can be accurately detected from the distance distribution without attaching a contact-type sensor to the head.
[0042]
Further, in the present embodiment, it is assumed that the knee is above the floor, and the projected image is projected onto the floor using the three-dimensional coordinate calculation data representing the knee or lower in the three-dimensional coordinate calculation data of the entire body. By dividing the area into two in the projected image and using the center of gravity of each area as the foot part of the human body, the foot part can be accurately obtained from the distance distribution without attaching a contact type sensor to the foot part. It can be detected.
[0043]
【The invention's effect】
As described above, the present invention has an excellent effect that a human body part can be detected without attaching a contact sensor such as a marker to a subject by calculating the three-dimensional coordinates of the entire human body by stereo image processing. A human body end point detection apparatus and method can be provided.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a human body end point detection apparatus according to an embodiment of the present invention.
FIG. 2 is a schematic diagram showing a relationship between an image and a partial region in the human body end point detection method (distance measurement method) according to the embodiment of the present invention.
FIG. 3 is a schematic diagram for explaining the operation of the human body three-dimensional coordinate calculation means in the human body end point detection device according to the embodiment of the present invention;
FIG. 4 is a schematic diagram for explaining the operation of the head detection means in the human body end point detection apparatus according to the embodiment of the present invention.
FIG. 5 is a schematic diagram for explaining the operation of both shoulder detection means in the human body end point detection device according to the embodiment of the present invention;
FIG. 6 is a schematic diagram for explaining the operation of both foot detection means in the human body end point detection device according to the embodiment of the present invention.
FIG. 7 is a schematic diagram for explaining the operation of both-hands detection means in the human body end point detection device according to the embodiment of the present invention.
FIG. 8 is a schematic diagram for explaining a method for detecting a human body end point by attaching a conventional marker;
[Explanation of symbols]
101 Imaging means
102, 103 camera
104 images
105, 106 Distortion correction means
107 Distorted image
108 Reference image storage means
109 Reference distortion corrected image
110 Image change calculation means
111 Image change calculation result
112 Distance measuring means
113 Distance distribution data
114 Human body 3D coordinate calculation means
115 Human body 3D information
116 Human body end point output means
117 Head detection means
118 Both shoulder detection means
119 Both feet detection means
120 Two-hand detection means
121 End point coordinate result
122 Human body end point correction means
201 Red mark on the head
202 Blue mark on hand
203 Blue mark on hand
204 Yellow mark on the shoulder
205 Yellow mark on shoulder
206 Green mark on the foot
207 Green mark on the foot
208 Color camera for measurement
209 Image processing device
301 Right image
302 pixels
303 partial area
401 detection space
402 Human (human body)
403 Imaging surface
501 vertex
502 head position
601 head vertex
602 Shoulder projection
603 head projection points
604 Shoulder projection point
605 Shoulder backprojection point
701 knee height
702 foot image
703 foot projection point
801 knee height
802 Hand projection image
803 center of gravity
804 Hand projection point
805 Hand backprojection point
Claims (7)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001160775A JP4101478B2 (en) | 2001-05-29 | 2001-05-29 | Human body end point detection method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001160775A JP4101478B2 (en) | 2001-05-29 | 2001-05-29 | Human body end point detection method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002352231A JP2002352231A (en) | 2002-12-06 |
JP4101478B2 true JP4101478B2 (en) | 2008-06-18 |
Family
ID=19004139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001160775A Expired - Fee Related JP4101478B2 (en) | 2001-05-29 | 2001-05-29 | Human body end point detection method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4101478B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005012367A (en) * | 2003-06-17 | 2005-01-13 | Intec Web & Genome Informatics Corp | Newborn infant monitoring system |
US7557966B2 (en) * | 2004-08-11 | 2009-07-07 | Acushnet Company | Apparatus and method for scanning an object |
JP4475060B2 (en) * | 2004-08-24 | 2010-06-09 | パナソニック電工株式会社 | Human detection device |
JP4970861B2 (en) * | 2006-07-07 | 2012-07-11 | 本田技研工業株式会社 | Vehicle periphery monitoring system, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring system construction system |
JP6413299B2 (en) * | 2014-03-31 | 2018-10-31 | カシオ計算機株式会社 | Image analysis apparatus, image analysis method, and program |
JP6712778B2 (en) * | 2017-10-11 | 2020-06-24 | パナソニックIpマネジメント株式会社 | Object detection device, object detection system, and object detection method |
JP6840890B2 (en) * | 2018-03-16 | 2021-03-10 | 株式会社ソニー・インタラクティブエンタテインメント | Body size estimation device, body size estimation method and program |
JP7375456B2 (en) | 2019-10-18 | 2023-11-08 | 株式会社アイシン | Toe position estimation device and fingertip position estimation device |
-
2001
- 2001-05-29 JP JP2001160775A patent/JP4101478B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002352231A (en) | 2002-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4095491B2 (en) | Distance measuring device, distance measuring method, and distance measuring program | |
US9816809B2 (en) | 3-D scanning and positioning system | |
JP5671281B2 (en) | Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus | |
US9759548B2 (en) | Image processing apparatus, projector and projector system including image processing apparatus, image processing method | |
JP4883517B2 (en) | Three-dimensional measuring apparatus, three-dimensional measuring method, and three-dimensional measuring program | |
CN104596439A (en) | Speckle matching and three-dimensional measuring method based on phase information aiding | |
JP5715735B2 (en) | Three-dimensional measurement method, apparatus and system, and image processing apparatus | |
JP2008082870A (en) | Image processing program, and road surface state measuring system using this | |
CN103782232A (en) | Projector and control method thereof | |
JP2001324305A (en) | Image correspondent position detector and range finder equipped with the same | |
JP4521235B2 (en) | Apparatus and method for extracting change of photographed image | |
CN108470356A (en) | A kind of target object fast ranging method based on binocular vision | |
JP4055998B2 (en) | Distance detection device, distance detection method, and distance detection program | |
KR20050002612A (en) | Depth measuring method and depth measuring apparatus | |
CN116188558B (en) | Stereo photogrammetry method based on binocular vision | |
JP2005017286A (en) | Method and system for camera calibration | |
JP6942566B2 (en) | Information processing equipment, information processing methods and computer programs | |
JP4101478B2 (en) | Human body end point detection method and apparatus | |
JP2006350465A (en) | Image matching device, image matching method, and program for image matching | |
JP2020056644A (en) | Information processing device, information processing method, and program | |
CN108416735B (en) | Method and device for splicing digital X-ray images based on geometric features | |
CN107945166B (en) | Binocular vision-based method for measuring three-dimensional vibration track of object to be measured | |
JP6456084B2 (en) | Image processing apparatus, image processing method, and program | |
JP2004046464A (en) | Apparatus and method for estimating three-dimensional position of mobile object, program, and recording medium thereof | |
US20240085448A1 (en) | Speed measurement method and apparatus based on multiple cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071204 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080319 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110328 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110328 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120328 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130328 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |