JPWO2013088517A1 - 停立人物の向き推定方法 - Google Patents

停立人物の向き推定方法 Download PDF

Info

Publication number
JPWO2013088517A1
JPWO2013088517A1 JP2013548992A JP2013548992A JPWO2013088517A1 JP WO2013088517 A1 JPWO2013088517 A1 JP WO2013088517A1 JP 2013548992 A JP2013548992 A JP 2013548992A JP 2013548992 A JP2013548992 A JP 2013548992A JP WO2013088517 A1 JPWO2013088517 A1 JP WO2013088517A1
Authority
JP
Japan
Prior art keywords
foot
ground
person
lower leg
boundary position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013548992A
Other languages
English (en)
Other versions
JP5868426B2 (ja
Inventor
泰士 上田
泰士 上田
亮介 中村
亮介 中村
梓 網野
梓 網野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2013088517A1 publication Critical patent/JPWO2013088517A1/ja
Application granted granted Critical
Publication of JP5868426B2 publication Critical patent/JP5868426B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P13/00Indicating or recording presence, absence, or direction, of movement
    • G01P13/02Indicating direction only, e.g. by weather vane
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

従来の方法は、所定時間毎の歩行者の位置変化から歩行者進路モデルを構築するが、位置変化のない停立人物の進路モデルは構築できず向きを推定できない。また、一般歩行者モデルの様に、データベースとのパターンマッチングによる方法では、停留人物の服装や体格などの外見が、データベース内の人物と大きく異なる場合は向きが推定できない。そこで、撮像手段から得た画像内の人の下肢の踝より末端部の足と下腿の概略境界部である足と下腿の境界位置を検出し、前記画像内の地面と地面以外を分類可能な特徴量を検出し、前記境界位置周囲の周辺領域内に、前記境界位置との相対位置情報および/または/相対的向き情報を持つ複数の局所領域を設定し、前記地面固有の特徴量を用いて前記局所領域それぞれが地面か地面以外かを判断し、地面以外と判断した前記局所領域から足領域を判定し、前記足領域と分類された局所領域と前記情報から人の足の向きを推定する。

Description

本発明は、停立人物の向き推定方法に関する。
自律移動装置が安全に効率よく進むためには、人物の移動方向を判断する必要がある。
本技術分野の背景技術として、特開2007−229816号公報(特許文献1)がある。この特許文献1には、歩行者の進路を足先画像から予測する方法が記載されている。その内容は、特定の歩行者の足先画像の情報と、検出された特定の歩行者の進路情報とを組み合わせることで、歩行者進路モデル構築部が一般の歩行者の進路モデルを予め構築し、その歩行者進路モデルの情報を歩行者進路モデル記憶部が記憶するものである。
その後、歩行者足先画像生成部により生成される不特定の歩行者の足先像の情報を歩行者進路モデル記憶部に記憶されている歩行者進路モデルの情報と照合することにより、歩行者進路予測部が不特定の歩行者の進路を予測するようになっている。
歩行者進路モデル構築時の進路検出の方法としては、歩行者の3次元位置を所定時間毎に順次検出し、その3次元位置の時間的変化から、歩行者の進路を検出することが記載されている。
特開2007−229816号公報
上記特許文献1では、所定時間毎の歩行者の位置変化から歩行者進路モデルを構築するが、立ち止まっている人物(停立人物)は位置変化が無いため、進路モデルを構築できず向きを推定できない。また、特許文献1の一般歩行者モデルの様に、データベースとのパターンマッチングによる方法では、停立人物の服装や体格などの外見が、データベース内の人物と大きく異なる場合に向きが推定できない。
しかし、ロボット等の自律移動装置が停立人物で混み合った環境を通行する際、停立人物が急に歩き始めても、自律移動装置が人と衝突したり、人の移動を妨げたりしないためには、停立人物が歩き出す向きの推定が必要である。停立人物の歩きだす向きは、足の向きと一致することが多く、足の側方や後方へは1、2歩程度しか動き出さない。そのため足の向きから人の歩きだす向きを推定するのが適している。
本発明の目的は、停立人物の瞬間単独静止画像から歩きだす方向を推定し、人とぶつかる可能性の低い領域を走行することで安全な移動制御を行うことが可能な停立人物の向き推定方法を提供することにある。
上記目的を達成するために本発明は、撮像手段から得た画像内の人の下肢の踝より末端部の足と下腿の概略境界部である足と下腿の境界位置を検出するステップと、前記画像内の地面と地面以外を分類可能な特徴量を検出するステップと、前記境界位置周囲の周辺領域内に、前記境界位置との相対的位置情報および/または/相対的向き情報を持つ複数の局所領域を設定し、前記地面固有の特徴量を用いて前記局所領域それぞれが地面か地面以外かを判断するスッテプと、地面以外と判断した前記局所領域から足領域を判定するスッテプと、前記足領域と分類された局所領域と前記情報から人の足の向きを推定するスッテプとを備えたものである。
また上記目的を達成するために本発明は好ましくは、前記足と下腿の境界位置は距離センサを用いて特定すると良い。
また上記目的を達成するために本発明は好ましくは、前記距離センサは地面と平行で、人の下肢の前記足と下腿の概略境界部の高さの平面を測定すると良い。
また上記目的を達成するために本発明は好ましくは、前記地面の特徴量は画像内各画素のデータのヒストグラムを元にして求めると良い。
また上記目的を達成するために本発明は好ましくは、前記足と下腿の境界位置周囲の周辺領域内に設定する局所領域は、前記境界位置を中心とした扇形にすると良い。
また上記目的を達成するために本発明は好ましくは、1対の足領域同士の距離が所定値より小さく、前記1対の足領域の特徴量の差が互いに所定値以下である場合に、前記1対の足領域を同一人物の足領域と判断すると良い。
また上記目的を達成するために本発明は好ましくは、同一人物の足領域が含む局所領域の持つ情報を元に、人物の向きを推定すると良い。
本発明によれば、停立人物の瞬間単独静止画像から歩きだす方向を推定し、人とぶつかる可能性の低い領域を走行することで安全な移動制御を行うことが可能な停立人物の向き推定方法を提供できる。
本発明の実施例に係る向き推定手順を説明するフロー図である。 本発明の実施例に係る向き推定装置の概略構成図である。 本発明の実施例に係る向き推定装置の概略外観図である。 本発明の実施例に係る足下腿境界位置推定方法を説明するフロー図である。 本発明の実施例に係る地平面内足下腿境界位置推定方法を説明する図である。 本発明の実施例に係る射影投射の計算方法例を説明する図である。 本発明の実施例に係る足下腿境界位置の推定結果を説明する図である。 本発明の実施例に係る地面の特徴量抽出方法を説明する図である。 本発明の実施例に係る人物の足向き推定方法を説明する図である。 本発明の実施例に係る局所領域について説明する図である。 本発明の実施例でつま先領域特定処理を説明するフロー図である。 本発明の他の実施例に係る向き推定装置の構成図である。 本発明の他の実施例に係る向き推定装置の外観図である。
以下、実施例を図面にしたがって説明する。
図2は本実施例を実装した向き推定装置1の構成例を示す図である。
図3は向き推定装置1の外観図である。
図2において、向き推定装置1は、デジタルカメラ101とレーザースキャナ102、計算機103、出力端子104から成る。デジタルカメラ101はデジタル画像Gを取得し計算機103へ送る。レーザースキャナ102は測定値を計算機103へ送る。計算機103は、デジタルカメラ101とレーザースキャナ102から得た情報を元に、人物201の向きを推定し、出力端子104から結果を電気信号で出力する。
図3において、デジタルカメラ101は向き推定装置2の上部に設けられている。このデジタルカメラ105は撮影対象を上から撮影するため図3(b)に示すように傾斜して取り付けられている。レーザースキャナ102は向き推定装置1の下部に設けられている。計算機103は向き推定装置2のほぼ中央部に設置されており、背後の出力端子104に接続されている。
図1のフローチャートを用いて、本実施例による停立人物の向き推定方法を説明する。
図1において、S1では、デジタルカメラ101より、人物201の足元のデジタル画像Gを取得する。デジタル画像Gの各画素は数値データCとして、RGBインテンシティなどの色情報を含んでいるが、撮像手段として赤外線カメラ、ステレオカメラ、3次元距離センサなどを用いることで、温度情報、距離情報等を好適に用いることができる。本実施例では、数値データC としてRGBインテンシティを用いる。
S2では画像G内停立人物の、画像G内の足と下腿の境界部分を示す位置(足下腿境界位置OM)を設定する。S2での処理を図4のフローチャートに示す。
SS101ではレーザースキャナ102より、図3に示した地面T301に平行な平面F302を走査し、人物201の、足と下腿の境界部分表面の座標データ群を取得する。
図3(c)に示すように、平面F302の高さは15〜30cm程度で、人の足首程度の高さが適当である。SS102では、SS101で取得した座標データ群から平面F302上での足と下腿の境界断面の代表位置(地平面内足下腿境界位置O’M)を設定する。この設定方法には次の方法がある。
まず、レーザースキャナ102が得る座標データ群のうち、隣接する点が一定距離以内の範囲にある座標データ点同士を同一物体による座標データ点とみなすことで、座標データ点をグループ分けする。そして、図5に示すように足と下腿の境界断面の形状を円とみなした場合の、前記境界断面の中心位置を地平面内足下腿境界位置O’Mとする。
例えば、グループkに属する座標データ点群を{d、 d、 d、 d}とした場合に、任意の座標データ点3点{di、 dj、 dk}(i、 j、 kは任意の自然数)を選び、{di、 dj、 dk}内の任意の2点が作る垂直二等分線同士の交点を地平面内足下腿境界位置O’Mとする。図4のSS103では、SS102で得た地平面内足下腿境界位置O’Mを射影変換し、S1で得たデジタル画像G内での足下腿境界位置OMを求める。
図6のように、カメラの撮像面を平面M303としたとき、平面F302内の任意の点X(x、y)は、式1を満たす平面M303内の点X’(x’、 y’)へ射影変換できる。
Figure 2013088517
実数係数a、 b、 c、 a、 b、 c、 a、 b、 cを決定することで平面F302から平面M303への写像関係を導く。式1は、右辺分母分子を通分することで、独立変数8つとみなすことができる。
そこで、図6のように、四頂点の座標が既知である平面F302上の矩形ABCDを平面M303上へ撮像した四角形A’B’C’D’の四頂点の座標を測り、ABCD及びA’B’C’D’の各頂点の座標を式1へ代入し連立方程式を解けば、全係数を求められる。装置作動前にあらかじめ係数を求めておけば、平面F302上の任意の点について平面M303への射影変換が求められるため、図7の様に、SS102で求めた地平面内足下腿境界位置O’Mを射影変換し、デジタル画像G内での足下腿境界位置OMを求めることができる。
図1のS3ではデジタル画像Gから地面固有の特徴量Qfを抽出する。特徴量抽出方法の例を図8で説明する。
図8(1)のデジタル画像Gの各画素は、RGBインテンシティを数値で持っている。デジタル画像GのRGBインテンシティのヒストグラムを求めると図8(2)の様になる。地面はデジタル画像Gの大半を占めるため、図8(2)のヒストグラムのRGBそれぞれのピークRm、Gm、Bm近傍の色は地面の色と推測し、式2をみたすRGBインテンシティを、地面固有の特徴量Q fと設定する。
Figure 2013088517
ΔRl、ΔRr、ΔGl、ΔGr、ΔBl、ΔBr任意の実数で、地面状況に応じ好適に設定する。なお、Qfが常に一定の環境であれば、Qfをあらかじめ抽出し、装置内外に記憶しておいても良い。
図1のS4ではデジタル画像Gの足の周辺領域(足周辺領域E)から、足を含む領域(足領域)を見つけるために、局所領域Dkを設定する。例えば図9(2)のように、S2によって左右の下肢の足下腿境界位置OMR、OMLが設定されているとする。まずデジタル画像GをS2と同様の方法で地面に平行な面上へ射影変換し、足を地面垂直方向から見た状態を模擬する。ここで射影変換された画像をG’とし、OMR、OMLの投射位置をO’’MR、O’’MLとする。次に射影変換後の足下腿境界位置O’’MR、またはO’’MLを中心とした、半径rminの円と半径rmaxの円が挟む領域を足周辺領域Eとする。そして、足周辺領域Eから、複数の局所領域Dkを選択する。局所領域Dkは位置または向きの情報を持つように設定する。
本実施例では、図10及び式3に示すように、O’’Mを中心とした任意の方向θkによってDkを設定する。
Figure 2013088517
rmin、rmax、Δθ、Dkの個数は、環境に応じて好適に決める。
図1のS5では各局所領域Dkを評価し、地面か否かを判断する。局所領域Dk内の画素のうち、特徴量Qfの条件を満たす画素の個数を局所領域Dkの評価値とする。こうして評価値が高い領域ほど、地面を多く含んでいると判断できる。評価値が所定値より大きい場合、Dkを地面、所定地よりも小さければ、足の一部と判断し、S6へ進みDkを足領域K{Dq} (qは自然数)と分類する。なお、本実施例では足周辺領域Eを円、局所領域Dを扇形としているが、それぞれ多角形や楕円形などを好適に選んでよい。
図1のS7では、全てのDkを評価できたかを調べ、もし未評価の局所領域Dkがあれば、S4へ戻り、未評価のDkを評価する。
図1のS8では、足領域Kと分類した局所領域Dqと足下腿境界位置OMの位置関係から事物Mの足向きθMを推定 する。
例えば図9(3)の場合、S8に進む時点ではDp (p=1、2、3、…、6)とD*を足領域Kと分類している。Dpはつま先を含む領域(つま先領域T)であり、D*は、下腿を含む領域(下腿領域L)である。人の足向きは、足下腿境界位置OMを基準としたつま先の向きであるため、つま先領域Tの位置から足向きが分かる。つま先領域Tと下腿領域Lの分離の例を、図11のフローチャートを用いて説明する。
SS201では、足領域Kに属する連続して隣り合う局所領域Dqを同じグループとしてグループ分けをする。SS202ではグループの個数を調べ、グループが2つ以上あった場合、SS203へ進み、手前方向(図9(3)の-y方向)へ近い向きのグループをつま先領域Tだと判定し、1つしかグループが無い場合、SS204へ進みそのグループをつま先領域Tと判定する。SS205では、つま先領域Tが含む局所領域Dpを定める方向θpの平均値を、足の向きθMとする。
例えば図9(4)の場合、足下腿境界位置O’’MLを基準とする局所領域DLnを定める方向をθLnとし、θLnの平均値をO’’ML上の足の向きθMLとする。足下腿境界位置O’’ MR上の足の向きθMRも同様に求める。
こうして推定した全ての足の向きを、出力端子104から出力する。また、S8において、もし O’’MLとO’’MR間の距離が一定値Lより小さく、なおかつ、O’’MRとO’’MLを中心とするつま先領域DLnとDRnの所定の特徴量QMが互いに近い値なら、つま先領域DLnとDRnは同一人物のもの判断し、θMLとθMRの平均値を人物201の足向きθMであると推定してもよい。特徴量QMには、RGBカラーヒストグラムやエッジ処理による特徴点座標などを好適に用いる。これによって、画像Gが複数の人物が含んでいても、それぞれの人物を独立に向き推定することが可能である。
以上のようにして、単一の画像から、データベースを用いずに、人物201の足向き推定が可能となる。
本実施例では、距離画像を使った例を説明する。
図12に、実施例2における停立人物の向き推定装置2を、図13に向き推定装置2の外観図を示す。
図12の向き推定装置2のうち、既に説明した図2及び図3に示された同一の符号を付された構成と同一の機能を有する部分については、説明を省略する。
図12に示した向き推定装置2は、撮像手段としてステレオカメラ105を装備し、撮影対象を異なる視点から見た2枚のデジタル画像を計算機103へ渡す。計算機103は、2枚のデジタル画像から、画像内物体の、地面T301基準の距離を計算し、距離画像G 3Dを作成し、各画素が持つ数値データCとして、距離情報を利用して人物201の向きを推定する。
図13において、ステレオカメラ105は向き推定装置2の上部に設けられ、2個のレンズでステレオ映像を撮影する。このステレオカメラ105は撮影対象を上から撮影するため図13(b)に示すように傾斜して取り付けられている。計算機103は向き推定装置2のほぼ中央部に設置されており、背後の出力端子104に接続されている。
実施例2における処理の流れを図1のフローチャートを用いて説明する。ただし、S4〜S8は、既に説明した実施例1のS4〜S8と同じであるため説明を省略する。
S1では、ステレオカメラ104から2枚のデジタル画像G、Gを取得する。
S2では、デジタル画像G、Gから、距離画像G3Dを作成する。距離画像G3Dの作成は、例えば次のような方法で行う。まずデジタル画像G内の微小な領域a1nにエッジ抽出等を施して特徴量s1nを与える。次にGからa1nと同じ特徴量s2nをもつ微小領域a nを探索する。そして微小領域akn (k=1、2)までの距離znを、式4で計算し、微量領域a 1nの距離とする。
Figure 2013088517
ここで、gkn (k=1、2)はakn の重心位置、fはカメラの焦点距離、hは二つのカメラの間隔である。以上の計算を、デジタル画像G内全てについて行うことで、カメラからの距離画像G’3Dを得る。G’3Dから容易に地面T301基準の距離画像G3Dを得ることができる。
S3では、足下腿境界位置を特定する。S2で得た距離画像G3Dのうち、地面T301から人の足首までの高さより距離Cが大きく、所定高さより距離Cが低い画素を人物201の足下腿境界位置と認識することで、ただちに画像内GまたはGの足下腿境界位置が特定できる。
S4では、地面の特徴量Qfを抽出する。地面の特徴量Qfは、距離が0近傍であることであり、式5で表す。
Figure 2013088517
εは任意の実数で、地面状況に応じ好適に設定する。S4以降は、画像GまたはGに対し実施例1と同様の処理をして、人の足向きを推定できる。
実施例1において、地面に複数の色が含まれている場合、ヒストグラムのピークが複数個になる。その場合それぞれのピーク近傍の色を地面の特徴量としてもよい。
実施例1、2、及び3において、地面の特徴量が各人物の位置によって変わる場合、各人物の足元の局所画像で、各人物の足を含まない領域の特徴量を得ることで対応できる。
1・・・実施例1の向き推定装置、2・・・実施例2の向き推定装置、101・・・デジタルカメラ、102・・・レーザースキャナ、103・・・計算機、104・・・出力端子、105・・・ステレオカメラ、201・・・対象人物、T301・・・実際に対象人物が立っている地面、F302・・・レーザースキャナの走査面、M303・・・デジタルカメラの撮像面、G・・・デジタル画像、C・・・画像特徴量、Qf・・・足接地面特徴量、OM・・・人物の足下腿境界位置、D・・・局所領域、E・・・足周辺領域、K・・・足領域、θ・・・方向。

Claims (7)

  1. 撮像手段から得た画像内の人の下肢の踝より末端部の足と下腿の概略境界部である足と下腿の境界位置を検出するステップと、
    前記画像内の地面と地面以外を分類可能な特徴量を検出するステップと、
    前記境界位置周囲の周辺領域内に、前記境界位置との相対的位置情報および/または/相対的向き情報を持つ複数の局所領域を設定し、前記地面固有の特徴量を用いて前記局所領域それぞれが地面か地面以外かを判断するスッテプと、
    地面以外と判断した前記局所領域から足領域を判定するスッテプと、
    前記足領域と分類された局所領域と前記情報から人の足の向きを推定するスッテプとを備えたことを特徴とする停立人物の向き推定方法。
  2. 請求項1記載の停立人物の向き推定方法において、
    前記足と下腿の境界位置は距離センサを用いて特定することを特徴とする停立人物の向き推定方法
  3. 請求項2記載の停立人物の向き推定方法において、
    前記距離センサは地面と平行で、人の下肢の前記足と下腿の概略境界部の高さの平面を測定することを特徴とする停立人物の向き推定方法。
  4. 請求項1ないし3のいずれかに記載の停立人物の向き推定方法において、
    前記地面の特徴量は画像内各画素のデータのヒストグラムを元にして求めることを特徴とする停立人物の向き推定方法。
  5. 請求項1ないし4のいずれかに記載の停立人物の向き推定方法において、
    前記足と下腿の境界位置周囲の周辺領域内に設定する局所領域は、前記境界位置を中心とした扇形にすることを特徴とする停立人物の向き推定方法。
  6. 請求項1ないし5のいずれかに記載の停立人物の向き推定方法において、
    1対の足領域同士の距離が所定値より小さく、前記1対の足領域の特徴量の差が互いに所定値以下である場合に、前記1対の足領域を同一人物の足領域と判断することを特徴とする停立人物の向き推定方法。
  7. 請求項6記載の停立人物の向き推定方法において、
    同一人物の足領域が含む局所領域の持つ情報を元に、人物の向きを推定することを特徴とする停立人物の向き推定方法。
JP2013548992A 2011-12-13 2011-12-13 停立人物の向き推定方法 Expired - Fee Related JP5868426B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/078805 WO2013088517A1 (ja) 2011-12-13 2011-12-13 停立人物の向き推定方法

Publications (2)

Publication Number Publication Date
JPWO2013088517A1 true JPWO2013088517A1 (ja) 2015-04-27
JP5868426B2 JP5868426B2 (ja) 2016-02-24

Family

ID=48612005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013548992A Expired - Fee Related JP5868426B2 (ja) 2011-12-13 2011-12-13 停立人物の向き推定方法

Country Status (3)

Country Link
US (1) US9235895B2 (ja)
JP (1) JP5868426B2 (ja)
WO (1) WO2013088517A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201408795D0 (en) * 2014-05-19 2014-07-02 Mccormack Owen System and method for determining demographic information
US10762658B2 (en) * 2017-10-24 2020-09-01 Altek Corporation Method and image pick-up apparatus for calculating coordinates of object being captured using fisheye images
US10963680B2 (en) * 2018-01-12 2021-03-30 Capillary Technologies International Pte Ltd Overhead people detection and tracking system and method
US10621730B2 (en) 2018-05-22 2020-04-14 Sony Corporation Missing feet recovery of a human object from an image sequence based on ground plane detection
DE102020116239B4 (de) 2020-06-19 2022-06-02 Sick Ag System und Verfahren mit mindestens einem ortsauflösenden Sensor
JP2022068577A (ja) * 2020-10-22 2022-05-10 パナソニックホールディングス株式会社 歩行者装置、情報収集装置、基地局装置、測位方法、利用者管理方法、情報収集方法、及び施設監視方法
CN113570579B (zh) * 2021-07-29 2023-04-07 广州东利运动科技有限公司 一种判断足踝异常旋转机制的图像检测识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269366A (ja) * 1997-03-24 1998-10-09 Nippon Telegr & Teleph Corp <Ntt> 図面記号認識方法
JP2000207568A (ja) * 1999-01-20 2000-07-28 Nippon Telegr & Teleph Corp <Ntt> 姿勢の計測装置及び姿勢の計測プログラムを記録した記録媒体
JP2010152873A (ja) * 2008-11-19 2010-07-08 Clarion Co Ltd 接近物体検知システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7006950B1 (en) * 2000-06-12 2006-02-28 Siemens Corporate Research, Inc. Statistical modeling and performance characterization of a real-time dual camera surveillance system
US6678413B1 (en) * 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
US7706571B2 (en) * 2004-10-13 2010-04-27 Sarnoff Corporation Flexible layer tracking with weak online appearance model
JP2007229816A (ja) 2006-02-27 2007-09-13 Toyota Motor Corp 自律移動型ロボット
CA2717485A1 (en) * 2007-03-02 2008-09-12 Organic Motion System and method for tracking three dimensional objects
CN102414719B (zh) * 2009-07-22 2014-10-15 欧姆龙株式会社 监视摄像机终端
KR101032509B1 (ko) * 2009-08-21 2011-05-04 중앙대학교 산학협력단 칼만 필터를 이용한 실시간 발 모션 추정 시스템 및 그 방법
US8457357B2 (en) * 2011-11-09 2013-06-04 Disney Enterprises, Inc. Relative pose estimation of non-overlapping cameras using the motion of subjects in the camera fields of view

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269366A (ja) * 1997-03-24 1998-10-09 Nippon Telegr & Teleph Corp <Ntt> 図面記号認識方法
JP2000207568A (ja) * 1999-01-20 2000-07-28 Nippon Telegr & Teleph Corp <Ntt> 姿勢の計測装置及び姿勢の計測プログラムを記録した記録媒体
JP2010152873A (ja) * 2008-11-19 2010-07-08 Clarion Co Ltd 接近物体検知システム

Also Published As

Publication number Publication date
US9235895B2 (en) 2016-01-12
US20140376780A1 (en) 2014-12-25
WO2013088517A1 (ja) 2013-06-20
JP5868426B2 (ja) 2016-02-24

Similar Documents

Publication Publication Date Title
JP5868426B2 (ja) 停立人物の向き推定方法
US10417775B2 (en) Method for implementing human skeleton tracking system based on depth data
CN107273846B (zh) 一种人体体型参数确定方法及装置
US9235753B2 (en) Extraction of skeletons from 3D maps
JP5898199B2 (ja) 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
JP5950296B2 (ja) 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
JP5873442B2 (ja) 物体検出装置および物体検出方法
CN103996019B (zh) 用于检测和跟踪一个物体上多个部位的系统和方法
CN107392086B (zh) 人体姿态的评估装置、系统及存储装置
US20170122727A1 (en) Determining three-dimensional information from projections or placement of two-dimensional patterns
WO2021084677A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラムが格納された非一時的なコンピュータ可読媒体
JP6189170B2 (ja) 姿勢推定装置
WO2016031314A1 (ja) 個人識別装置、個人識別方法、及び、個人識別プログラム
JP2012123667A (ja) 姿勢推定装置および姿勢推定方法
JP7355974B2 (ja) 距離推定装置および方法
US20130069939A1 (en) Character image processing apparatus and method for footskate cleanup in real time animation
JP7024876B2 (ja) 検出装置、処理装置、検出方法、及び処理プログラム
JP7200994B2 (ja) 処理装置、検出装置、処理方法、及び処理プログラム
WO2020261403A1 (ja) 身長推定装置、身長推定方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JP2007109126A (ja) 移動体分布推定装置、移動体分布推定方法及び移動体分布推定プログラム
KR101085435B1 (ko) 다중 카메라를 이용한 얼굴 인식 시스템
JP7396364B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR20100019773A (ko) 보행자 검지 및 보행밀도 계산방법
JP7420146B2 (ja) カメラ校正装置、カメラ校正方法及びカメラ校正プログラム
Bhanu et al. Model-based human recognition—2D and 3D gait

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160105

R150 Certificate of patent or registration of utility model

Ref document number: 5868426

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees