JP7430207B2 - 歩行動画処理装置、方法及びプログラム - Google Patents

歩行動画処理装置、方法及びプログラム Download PDF

Info

Publication number
JP7430207B2
JP7430207B2 JP2022024764A JP2022024764A JP7430207B2 JP 7430207 B2 JP7430207 B2 JP 7430207B2 JP 2022024764 A JP2022024764 A JP 2022024764A JP 2022024764 A JP2022024764 A JP 2022024764A JP 7430207 B2 JP7430207 B2 JP 7430207B2
Authority
JP
Japan
Prior art keywords
walking
video data
image
dimensional coordinates
pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022024764A
Other languages
English (en)
Other versions
JP2023121417A (ja
Inventor
匡純 熊本
元喜 須藤
直人 高柳
真澄 富崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to JP2022024764A priority Critical patent/JP7430207B2/ja
Publication of JP2023121417A publication Critical patent/JP2023121417A/ja
Application granted granted Critical
Publication of JP7430207B2 publication Critical patent/JP7430207B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、歩行者を正面から撮像した歩行動画を処理する技術に関する。
従来より、歩行者を正面から動画を撮像し、この動画を歩行者の歩容の観察・分析に活用することが行われている(特許文献1参照)。特許文献1に記載のものでは、動画中の歩行者の大きさを安定させて定量的な歩容の観察・分析を可能にするとともに、狭い設置スペースで比較的長時間の歩行動画を撮影可能にするために、無限軌道ベルトを歩行面とするトレッドミルが用いられている。これにより、特許文献1に記載のものでは、歩行者の大きさが安定した歩行動画を取得することができ、この歩行動画に基づいた歩容の観察・分析を行っている。
特開2013-66696号公報
しかし、特許文献1に記載のものでは、トレッドミルが必要となるためコストがかかるという問題や、撮影場所がトレッドミルの設置場所に限定されるので利便性が悪いという問題があった。
本発明は上記事情に鑑みてなされたものであり、その目的とするところは、歩行者の大きさが安定した歩行動画を低コスト且つ容易に取得できる装置、方法及びプログラムを提供することにある。
上記目的を達成するために、本願発明に係る歩行動画処理装置は、所定の歩行通路上を歩行する歩行者を歩行方向前方から前記歩行通路が含まれるように撮像して得られた第1の動画データを取得する動画データ取得手段と、前記第1の動画データから現実空間における歩行者の歩行速度を検出する歩行速度検出手段と、現実空間の三次元座標と第1の動画データのフレーム画像における二次元座標とを変換する座標変換手段と、歩行者に追従する現実空間内における仮想的な枠の三次元座標を前記歩行速度に基づき算出し、当該仮想的な枠の三次元座標を前記座標変換手段により二次元座標に変換し、当該二次元座標に基づき前記第1の動画データの各フレーム画像から仮想的な枠内の画像を抽出し、抽出した画像を所定のサイズに伸縮して第2の動画データを生成する画像抽出手段とを備えたことを特徴とする。
本発明によれば、第1の動画のフレーム画像では歩行にともない大きくなる歩行者の画像が、所定のサイズに伸縮されて第2の動画データとなる。すなわち、トレッドミルを用いることなく、一般的なカメラによる動画データに基づきトレッドミルを用いた場合と同様の歩行動画を取得することができる。
歩行動画処理装置の使用形態を説明する図 は歩行動画処理装置の機能ブロック図 歩行動画データのフレーム画像の一例 基準オブジェクト画像に仮想的な点群をプロットした画像の一例 歩行特徴量検出部の機能ブロック図 射影変換処理を説明する図 動体抽出処理を説明する図 端部位置検出処理を説明する図 歩行動画データのフレーム画像に仮想的な枠を重畳表示した画像の一例 画像抽出処理を説明する図
本発明の一実施の形態に係る歩行動画処理装置について図面を参照して説明する。図1は歩行動画処理装置の使用形態を説明する図、図2は歩行動画処理装置の機能ブロック図である。
本実施の形態に係る歩行動画処理装置100は、図1に示すように、所定の歩行通路1上を歩行する歩行者10を正面から撮像するカメラ50と接続し、カメラ50により撮像された第1の動画データから歩行者10の大きさがほぼ一定になるように抽出して第2の動画データを生成する。以降の説明では、第1の動画データを「歩行動画データ」と呼称するものとする。また、第2の動画データは、トレッドミルを用いて撮像した場合と同様の動画データになるので、ここでは「疑似トレッドミル動画データ」と呼称するものとする。また、本実施の形態に係る歩行動画処理装置は、カメラ50により撮像された歩行動画データに基づき歩行特徴量を検出する。
ここで、本願において歩行特徴量とは、歩行者10の歩容の評価に用いられ、歩行者10の歩行を特徴付ける各種パラメータの総称を意味する。歩行特徴量としては、例えば、歩行速度、歩行周期、歩幅、左右の足の接地位置の左右方向の間隔である歩隔などが挙げられる。なお、本願において足とは足首より先の部位を意味し、脚は足を含むものである点に留意されたい。
本実施の形態に係る歩行動画処理装置100は、歩行動画データに基づき歩行特徴量を検出し、この歩行特徴量を用いて歩行動画データから疑似トレッドミル動画データを生成する。
歩行通路1は、例えば、幅60cm、長さ240cm程度の矩形領域からなり、歩行動画処理装置100による処理対象となる領域である。歩行通路1は、床面に絨毯やシートなどを敷設して他の床面の領域と区画することにより形成することができる。また、歩行通路1は、床面に載置した基準オブジェクトに基づきその領域を設定することができる。正確な歩行特徴量を検出するために、床面は影が映り込まないよう反射率が低く、床面は水平又は水平に限りなく近いことが好ましい。
歩行者10は、歩行通路1の幅方向略中心線上を歩行通路1の長さ方向に歩行する。歩行者10は、歩行通路1に対して歩行方向手前に立ち、この立ち位置から歩行を開始する。また、歩行者10は、歩行通路1上を歩き抜け、歩行通路1の歩行方向前方で歩行を停止する。すなわち、歩行通路1上における歩行者10の歩行は、歩行開始時及び方向停止時の動作を含まない、安定した歩行状態である。安定した歩容を観測するために、歩行通路1の長手方向の前後には数m程度のスペースがあると好ましい。
カメラ50は、歩行通路1の歩行者10の歩行方向前方に静止した状態で設置される。すなわち、カメラ50は、歩行通路1上を歩行する歩行者10を正面から撮影する。カメラ50は、歩行通路1との間に歩行者10を含む障害物がない条件において、少なくとも撮像した歩行動画データに歩行者10の全身及び歩行通路1の全体が映り込まれるよう、設置位置、撮影方向、画角などの撮影条件が設定されている。本実施の形態では、カメラ50は、撮影方向すなわち光軸が、歩行通路1の幅方向中心を通り長手方向に延びる中心線から所定距離だけ上方に移動させた位置を通るように設置されている。また、カメラ50は、歩行通路1の上面が二次元画像である歩行動画データのフレーム画像200の横方向となるように設置されている。これにより、図3に示すように、歩行動画データ171のフレーム画像200においては、歩行通路1の長辺201を延長した仮想的な線は当該フレーム画像200の中心点である消失点203を通過する線となり、歩行通路1の短辺202は当該フレーム画像200の横方向(X方向)に延びる線となる。なお、カメラ50の、画角や歩行通路1との距離は、少なくとも撮像した歩行動画データに歩行者10の全身及び歩行通路1の全体が映り込まれるのであれば任意である。
歩行動画処理装置100は、図2に示すように、歩行動画取得部110と、座標変換情報生成部120と、座標変換部130と、歩行特徴量検出部140と、画像抽出部150と、動画出力部160と、記憶部170とを備えている。
歩行動画処理装置100は、主演算装置、主記憶部、補助記憶部、表示装置、入力装置等を備えた従来周知のコンピュータにより構成することができる。歩行動画処理装置100は、前述の各部として機能させるプログラムをコンピュータにインストールすることにより実装することができる。歩行動画処理装置100は、専用のハードウェアとして実装することができる。歩行動画処理装置100は、複数の装置に分散して実装することができる。
歩行動画取得部110は、カメラ50が撮像した画像を歩行動画データ171として所定のフレームレート(例えば30fps)でリアルタイムに取得するとともに、取得した歩行動画データ171を記憶部170に記憶する。なお、歩行動画取得部110は、過去にカメラ50で撮像した歩行動画データ171をネットワークや任意の記憶メディアを介して取得し、これを記憶部170に記憶してもよい。
座標変換情報生成部120は、後述する座標変換部130で用いられる座標変換情報172を生成して記憶部170に記憶する。座標変換情報172は、歩行通路1の上面をXY平面とする現実空間における三次元直交座標と、二次元画像である歩行動画データ171のフレーム画像200の二次元直交座標との対応情報からなり、床面を定量化したものである。この座標変換情報172は、歩行動画データ171のフレーム画像200に含まれている歩行通路1の投影領域を特定する通路特定情報としても機能する。本実施の形態では、座標変換情報172は、歩行通路1の上面上に所定の間隔で格子状に設定した仮想的な点群の三次元座標と、これら仮想的な点群が歩行動画データ171のフレーム画像200に投影される二次元座標との対応情報からなる。なお、現実空間における三次元直交座標は、図1に示すように、鉛直方向をZ方向、歩行通路1からカメラ50に向かう方向をX方向、歩行通路1と直交する方向をY方向とする。
前述したように、カメラ50は、撮影方向すなわち光軸が、歩行通路1の幅方向中心を通り長方向に延びる中心線から所定距離だけ上方に移動させた位置を通るように設置されている。また、カメラ50は、歩行通路1の上面すなわち現実空間の水平面(XY面)が二次元画像である歩行動画データ171のフレーム画像200の横方向(X方向)となるように設置されている。したがって、一点透視図法の考え方から、現実空間における仮想的な点群のうち歩行通路1の歩行方向(X方向)成分が共通な点群に対応する二次元座標は、フレーム画像200の縦方向(Y方向)成分が共通となる。例えば、歩行通路1が幅60cm、長さ240cmであり、現実空間において縦横1cm間隔で仮想点群を設定すると、仮想点群は合計で14400個である。ここで、長さ方向が共通の仮想点群は、対応する二次元座標の縦方向(Y方向)成分が共通である。したがって、全仮想点群に対応する二次元座標の縦方向(Y方向)成分の値の数は240点となる。一方、全仮想点群に対応する二次元座標の横方向(X方向)成分の値の数は14400点となる。
座標変換情報生成部120は、歩行動画データ171と同一の撮像条件において撮像され且つ現実空間内の既知の位置に載置された既知の形状の基準オブジェクト20が含まれるように撮像して得られた基準オブジェクト画像210を取得する基準オブジェクト画像取得部121を備えている。基準オブジェクト画像210としては、まだ歩行者10による歩行が行われていない歩行動画データ171の何れかのフレーム画像200を用いることができる。本実施の形態では、基準オブジェクト20は矩形のシート状部材からなる。基準オブジェクト20の各辺は歩行通路1の各辺と平行となるように配置される。また、記憶部170には、基準オブジェクト20の4点のコーナーの位置情報が基準オブジェクト20の既知情報173として記憶されている。
座標変換情報生成部120は、基準オブジェクト画像210から当該画像に含まれる基準オブジェクト20の投影画像から当該基準オブジェクト20の特徴点を検出し、この特徴点の基準オブジェクト画像210における二次元座標を取得する。そして、座標変換情報生成部120は、取得した二次元座標と基準オブジェクト20の特徴点についての既知情報173とに基づき座標変換情報172を生成する。本実施の形態では、座標変換情報生成部120は、まず基準オブジェクト20の4点のコーナーを特徴点としてその二次元座標をそれぞれ取得し、一点透視図の手法を用いて一度1cm範囲の4点のコーナーの二次元座標へ縮小した後に、計測対象エリアである歩行通路1まで拡大し、計測範囲に含まれる全ての点の二次元座標を取得する。座標変換情報生成部120は、取得した二次元座標と基準オブジェクト20の特徴点についての既知情報173とに基づき座標変換情報172を生成する。図4に、座標変換情報172の実体である仮想的な点群204を基準オブジェクト画像210にプロットした様子を示す。
座標変換部130は、後述する画像抽出部150からの要求に応じて、座標変換情報172を参照して、現実空間の三次元座標を歩行動画データ171のフレーム画像200における二次元座標に変換する。
歩行特徴量検出部140は、図5に示すように、射影変換部141と、動体抽出部142と、端部位置検出部143と、歩行特徴量算出部144とを備えている。
射影変換部141は、図6に示すように、歩行動画データ171の各フレーム画像200に対して、歩行通路1の投影領域205における画像を、現実空間における歩行通路1の平面形状と一致又は相似するように射影変換して歩行通路1の平面画像220を生成することにより射影変換動画データ174を生成する。歩行通路1の投影領域205は、座標変換情報172を参照することにより特定することができる。本実施の形態では、射影変換部141は、平面画像220のX軸方向を歩行通路1の幅方向に一致させ、且つ、平面画像220のY軸方向を歩行通路1の長さ方向に一致させるよう射影変換処理を行う。
ここで、射影変換部141は、歩行通路1の平面画像220に対して低解像度化処理を行う低解像度化処理部を機能的に内包することができる。すなわち、射影変換部141は、射影変換処理と低解像度化処理を同時に行うことができる。例えば、カメラ50で撮像した歩行動画データ171のフレーム画像200の幅及び高さが1920×1080ピクセルであり、当該フレーム画像200に含まれる歩行通路1の投影領域205の幅及び高さが概ね500×500ピクセルの範囲程度である場合を考える。また、現実空間において矩形の歩行通路1の幅が60cm、歩行方向長さが240cmである場合を考える。このとき、歩行通路1の平面形状に関するデータとして、60×240ピクセルの矩形データを設定する。これにより、射影変換動画データ174を構成する平面画像220の1ピクセルに対応する実空間の大きさは1cmとなる。なお、現実空間の大きさと射影変換動画データ174の1ピクセルとの対応関係、すなわち射影変換動画データ174の解像度は、カメラ50の解像度に応じて或いは任意に設定可能である。
動体抽出部142は、射影変換部141により生成された射影変換動画データ174の各フレームの平面画像220に対して動体抽出処理を行う。動体抽出のアルゴルズムは種々のものを用いることができる。本実施の形態では、2つの異なるフレームを比較することにより平面画像220中の動体を抽出する。さらに具体的には、本実施の形態では、処理対象をN番目のフレームとすると、N番目のフレームとN-1番目のフレームの加重平均を累積して計算し、当該加重平均とN番目のフレームの差分を算出することにより動体抽出処理を行う。また、動体抽出部142は、後処理の行程として、減色化処理部を機能的に内包することができ。この減色化処理部は、動体部と非動体部との区別をより明確にするとともに処理負荷を軽減するためである。本実施の形態では、減色化処理として白黒二値化処理を行っている。なお、さらに前処理の行程として、例えばグレースケール化などの減色化処理や、ガウシアンフィルタ適用などのノイズ除去処理を行うようにしてもよい。
図7に動体抽出部142による処理例を示す。図7(a)は動体抽出処理前の射影変換動画データ174の平面画像220aである。図7(a)には歩行通路1を歩行する歩行者10の両脚部(足部を含む)が映っている。この画像における歩行者10の歩行状態は、右脚(紙面左側の脚)11が接地しており、左脚(紙面右側の脚)12が地面を離れて前方(紙面下方)に移動中である。図7(b)は動体抽出処理後の射影変換動画データ174の平面画像220bである。図7(b)に示すように、動体抽出処理後の平面画像220bは、接地しており動きがない又は動きが小さい右脚11及び非動体である歩行通路1の表面部分は抽出されず、動きがある左脚12が抽出されている。図7(c)は、動体抽出処理について理解を容易にするため、図7(a)の平面画像220aに、抽出した動体部の輪郭を重畳したものである。
端部位置検出部143は、動体抽出後の射影変換動画データ174の各フレームの平面画像220に対して、当該平面画像220に含まれる歩行者10の投影部について当該画像における歩行方向前方の端部位置を検出し、端部位置データ175として記憶部170に記憶する。より具体的には、端部位置検出部143は、図8に示すように、平面画像220においてY軸方向(歩行方向)の最大値から最小方向に向かって動体部が存在しているかを行走査し、各X座標について動体部を最初に検出したY軸方向の位置を検出して、端部位置データ175として記憶部170に記憶する。ここで、動体部が検出されなかったX座標についてはY軸方向の検出位置として最小値(例えばゼロ)を記録する。
歩行特徴量算出部144は、端部位置検出部143により検出された端部位置の経時的変化に基づき歩行特徴量を算出する。歩行特徴量算出部144の算出する歩行特徴量は、少なくとも、歩行速度及び歩行周期を含む。歩行特徴量算出部144は、他の歩行特徴量として、歩幅、歩隔、ケーデンス、歩行角度、歩行比、歩幅左右差(1RL)、歩隔左右差(2RL)、歩行周期時間(3RL)、歩行角度左右差(4RL)などを算出することができる。
画像抽出部150は、歩行者10に追従する現実空間内における仮想的な枠の三次元座標を前記歩行特徴量算出部144により算出された歩行速度に基づき算出し、仮想的な枠の三次元座標を前記座標変換部130により二次元座標に変換し、この二次元座標に基づき歩行動画データ171の各フレーム画像200から仮想的な枠内の画像を抽出し、抽出した画像を所定のサイズに伸縮して疑似トレッドミル動画データ176を生成し、この疑似トレッドミル動画データ176を記憶部170に記憶する。仮想的な枠は、現実空間においては、YZ平面に設定され歩行者10を囲むような矩形の枠であり、歩行者10の歩行に追従して歩行方向すなわちX方向に移動させる。図9に歩行動画データ171の各フレーム画像200に仮想的な枠230を重畳表示した一例を示す。
本実施の形態では、仮想的な枠230の横幅は計測対象エリアである歩行通路1の幅と一致する。また、仮想的な枠230の高さは横幅の所定倍(例えば3倍)とする。画像抽出部150は、まず、前記歩行特徴量算出部144により算出された歩行速度(cm/s)を歩行動画データ171のフレームレートで除算した値を1フレームあたりLcm進んだ値として算出する。
次に、画像抽出部150は、端部位置検出部143において足が検出される3から5フレーム前をスタートフレームとし、前記1フレームあたりに進む距離Lを用いてフレームごとに仮想的な枠230の底部について歩行方向すなわちX方向の三次元座標を算出する。ここで、前述したように、前記座標変換情報172は計測対象エリアである歩行通路1の三次元座標も特定することができる。また、前述したように、仮想的な枠230の横幅は計測対象エリアである歩行通路1の幅としている。そこで、画像抽出部150は、座標変換部130を用いることにより、フレームごとに、仮想的な枠230の底辺の両端部の三次元座標と、当該三次元座標に対応する歩行動画データ171のフレーム画像200における両端部の二次元座標を取得することができる。さらに、画像抽出部150は、当該両端部の二次元座標から歩行動画データ171のフレーム画像200における仮想的な枠230の横幅を算出し、さらに当該横幅から歩行動画データ171のフレーム画像200における仮想的な枠230の上辺の両端部の二次元座標を算出する。以上より、画像抽出部150は、歩行動画データ171のフレーム画像200における仮想的な枠230の四隅の二次元座標を取得できる。そして、画像抽出部150は、この四隅の二次元座標を用いて、歩行動画データ171のフレーム画像200における仮想的な枠230内の画像を抽出する。ここで、抽出した画像のサイズはフレームごとに異なる。そこで、画像抽出部150は、図10に示すように、抽出した画像を一定のサイズに伸縮する。画像抽出部150は、以上の処理をフレームごとに歩行動画データ171に対して行うことにより、疑似トレッドミル動画データ176を生成し、この疑似トレッドミル動画データ176を記憶部170に記憶する。
動画出力部160は、画像抽出部150によって生成された疑似トレッドミル動画データ176について、任意のフレームを開始フレームとし、前記歩行特徴量算出部144により算出された歩行周期に基づき終了フレームを算出し、開始フレームから終了フレームの時間区間を繰り返し出力することができる。このように歩行周期に基づいた時間区間を繰り返し出力することで、表示を続けている間は歩行が連続しているかのように表示できる。なお、フレームと時間との変換処理は疑似トレッドミル動画データのフレームレートを参照すればよい。動画の出力先は、所定の表示装置(図示省略)であってもよいし記憶部170であってもよいし、外部の他の装置であってもよい。なお、動画出力部160は、疑似トレッドミル動画データ176をそのまま出力することもできる。
このような歩行動画処理装置100によれば、歩行動画データ171では歩行にともない大きくなる歩行者10の画像が、所定のサイズに伸縮されて疑似トレッドミル動画データ176となる。すなわち、トレッドミルを用いることなく、一般的なカメラ50による歩行動画データに基づきトレッドミルを用いた場合と同様の歩行動画を取得することができる。
以上、本発明の一実施の形態について詳述したが、本発明は上記実施の形態に限定されるものではなく、本発明の主旨を逸脱しない範囲において、種々の改良や変更をしてもよい。
例えば、上記実施の形態では、現実空間の三次元座標と歩行動画データ171のフレーム画像200における二次元座標とを変換する座標変換手段として、基準オブジェクト画像210に基づき撮像画像データ両者の対応情報である座標変換情報172を生成し、この座標変換情報172を用いて座標変換処理を行っていたが、他の手段を用いてもよい。例えば、基準オブジェクト画像210に基づき現実空間の三次元座標系から二次元座標系への変換関数を生成し、この変換関数を用いて座標変換処理を行ってもよい。
また、上記実施の形態では、動画出力部160は、疑似トレッドミル動画データ176について歩行周期に基づく任意の時間区間において繰り返し出力する機能を有しているが、この機能を設けるか否かは任意であり本発明の必須の要素ではない。すなわち、動画出力部160は、疑似トレッドミル動画データ176をそのまま出力するものであってもよい。なお、この場合には歩行周期の算出処理も任意である。
また、上記実施の形態では、歩行動画データ171から現実空間における歩行者10の歩行速度を検出する手段として、まず射影変換動画データ174を生成し、この射影変換動画データ174のフレーム画像に含まれる歩行者10の足位置を検出し、この足位置の経時的変化に基づき歩行速度を算出していたが、他の手段を用いて歩行速度や当該歩行速度に相当するパラメータを算出するようにしてもよい。例えば、歩行者10の部位であって歩行時に比較的安定した移動速度となる部位を歩行動画データ171のフレーム画像から抽出し、当該抽出した部位についての画像サイズの経時的変化に基づき移動速度を算出し、この移動速度を歩行速度に相当するパラメータとしてもよい。このような部位としては、例えば歩行者10の顔や頭などが挙げられる。また、歩行者10のこのような部位に既知の大きさの基準オブジェクトを付設し、この基準オブジェクトを歩行動画データ171のフレーム画像から抽出するようにしてもよい。このような基準オブジェクトとしては、例えば、歩行者10が装着するメガネや帽子、歩行者10の頭部や胴体部に装着した専用のマーカーなどが挙げられる。そして本願発明では、このような歩行速度に相当するパラメータを用いて、仮想的な枠の三次元座標を算出することができる。
同様に、上記実施の形態では、歩行動画データ171から現実空間における歩行者10の歩行周期を検出する手段として、まず射影変換動画データ174を生成し、この射影変換動画データ174のフレーム画像に含まれる歩行者10の足位置を検出し、この足位置の経時的変化に基づき歩行周期を算出していたが、他の手段を用いて歩行周期や当該歩行周期に相当するパラメータを算出するようにしてもよい。例えば、疑似トレッドミル動画データ176において、歩行者10の部位であって歩行時に比較的安定した移動速度となる部位の高さ位置(Y座標位置)を検出し、当該高さ位置の経時的変化に基づき歩行周期に相当するパラメータを算出してもよい。このような部位としては、例えば歩行者10の顔や頭などが挙げられる。また、歩行者10のこのような部位に既知の形状の基準オブジェクトを付設し、この基準オブジェクトの高さ位置を疑似トレッドミル動画データ176のフレーム画像から検出するようにしてもよい。このような基準オブジェクトとしては、例えば、歩行者10が装着するメガネや帽子、歩行者10の頭部や胴体部に装着した専用のマーカーなどが挙げられる。
また、上記実施の形態では、歩行動画処理装置100とカメラ50とを別装置として構成しているが、歩行動画処理装置100にカメラ50を内蔵させるようにしてもよい。
また、上記実施の形態では、カメラ50で歩行者10の歩行状態を撮影して歩行動画データを取得した後に歩行動画データの処理を行っているが、カメラ50で撮影しながらリアルタイムで歩行動画データの処理を行うようにしてもよい。
1…歩行通路
10…歩行者
50…カメラ
100…歩行動画処理装置
110…歩行動画取得部
120…座標変換情報生成部
130…座標変換部
140…歩行特徴量検出部
141…射影変換部
142…動体検出部
143…端部位置検出部
144…歩行特徴量算出部
150…画像抽出部
160…動画出力部
170…記憶部

Claims (6)

  1. 所定の歩行通路上を歩行する歩行者を歩行方向前方から前記歩行者の全身及び前記歩行通路が含まれるように撮像して得られた第1の動画データを取得する動画データ取得手段と、
    前記第1の動画データから現実空間における歩行者の歩行速度を検出する歩行速度検出手段と、
    現実空間の三次元座標と第1の動画データのフレーム画像における二次元座標とを変換する座標変換手段と、
    歩行者に追従する現実空間内における仮想的な枠の三次元座標を前記歩行速度に基づき算出し、当該仮想的な枠の三次元座標を前記座標変換手段により二次元座標に変換し、当該二次元座標に基づき前記第1の動画データの各フレーム画像から仮想的な枠内の画像を抽出し、抽出した画像を所定のサイズに伸縮して第2の動画データを生成する画像抽出手段とを備えた
    ことを特徴とする歩行動画処理装置。
  2. 前記歩行速度検出手段は、
    前記第1の動画データのフレーム画像に対して前記歩行通路の平面形状と一致又は相似するように射影変換して第3の動画データを生成する射影変換手段と、
    前記第3の動画データのフレーム画像に含まれる歩行者の足位置を検出し、当該足位置の経時的変化に基づき歩行速度を算出する演算手段とを含む
    ことを特徴とする請求項1記載の歩行動画処理装置。
  3. 前記第1の動画データと同一の撮像条件において撮像され且つ現実空間内の既知の位置に載置された既知の形状の基準オブジェクトが含まれるように撮像して得られた基準オブジェクト画像を取得する基準オブジェクト画像取得手段を備え、
    前記座標変換手段は、前記基準オブジェクトの特徴点の前記基準オブジェクト画像における二次元座標と前記特徴点の現実空間内における三次元座標とに基づき形成される
    ことを特徴とする請求項1又は2記載の歩行動画処理装置。
  4. 前記第1の動画データから現実空間における歩行者の歩行周期を検出する歩行周期検出手段と、
    前記第2の動画データのうち所定の再生開始時刻から前記歩行周期までの時間区間を繰り返し出力する出力手段を備えた
    ことを特徴とする請求項1から3の何れか1項に記載の歩行動画処理装置。
  5. コンピュータを用いて歩行動画を処理する方法であって、
    所定の歩行通路上を歩行する歩行者を歩行方向前方から前記歩行者の全身及び前記歩行通路が含まれるように撮像して得られた第1の動画データを取得するステップと、
    前記第1の動画データから現実空間における歩行者の歩行速度を検出するステップと、
    歩行者に追従する現実空間内における仮想的な枠の三次元座標を前記歩行速度に基づき算出し、当該仮想的な枠の三次元座標を第1の動画データのフレーム画像における二次元座標に変換し、当該二次元座標に基づき前記第1の動画データの各フレーム画像から仮想的な枠内の画像を抽出し、抽出した画像を所定のサイズに伸縮して第2の動画データを生成するステップとを備えた
    ことを特徴とする歩行動画処理方法。
  6. コンピュータを、請求項1から4の何れか1項に記載の歩行動画処理装置として機能させる
    ことを特徴とする歩行動画処理プログラム。
JP2022024764A 2022-02-21 2022-02-21 歩行動画処理装置、方法及びプログラム Active JP7430207B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022024764A JP7430207B2 (ja) 2022-02-21 2022-02-21 歩行動画処理装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022024764A JP7430207B2 (ja) 2022-02-21 2022-02-21 歩行動画処理装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2023121417A JP2023121417A (ja) 2023-08-31
JP7430207B2 true JP7430207B2 (ja) 2024-02-09

Family

ID=87798189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022024764A Active JP7430207B2 (ja) 2022-02-21 2022-02-21 歩行動画処理装置、方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7430207B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002345785A (ja) 2001-05-22 2002-12-03 Hitachi Kiden Kogyo Ltd 足跡分析装置
JP2018161258A (ja) 2017-03-24 2018-10-18 パナソニックIpマネジメント株式会社 認知機能評価支援装置、認知機能評価支援方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002345785A (ja) 2001-05-22 2002-12-03 Hitachi Kiden Kogyo Ltd 足跡分析装置
JP2018161258A (ja) 2017-03-24 2018-10-18 パナソニックIpマネジメント株式会社 認知機能評価支援装置、認知機能評価支援方法及びプログラム

Also Published As

Publication number Publication date
JP2023121417A (ja) 2023-08-31

Similar Documents

Publication Publication Date Title
CN108111818B (zh) 基于多摄像机协同的运动目标主动感知方法和装置
JP6125188B2 (ja) 映像処理方法及び装置
US9578310B2 (en) Automatic scene calibration
JP5567922B2 (ja) 画像処理装置及びその制御方法
JP6352208B2 (ja) 三次元モデル処理装置およびカメラ校正システム
KR20110032352A (ko) 영상 처리 장치 및 방법
CN107517346B (zh) 基于结构光的拍照方法、装置及移动设备
JP6638723B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
CN110926330A (zh) 图像处理装置和图像处理方法
WO2016031314A1 (ja) 個人識別装置、個人識別方法、及び、個人識別プログラム
JP2953154B2 (ja) 形状合成方法
JP5463584B2 (ja) 変位計測方法、変位計測装置及び変位計測プログラム
CN106264537B (zh) 图像中人体姿态高度的测量系统及方法
KR101469099B1 (ko) 사람 객체 추적을 통한 자동 카메라 보정 방법
JP4628910B2 (ja) 長さ測定装置および身長測定装置
JP7430207B2 (ja) 歩行動画処理装置、方法及びプログラム
JP6027952B2 (ja) 拡張現実画像生成システム、3次元形状データ生成装置、拡張現実提示装置、拡張現実画像生成方法、及びプログラム
JPWO2020153264A1 (ja) 校正方法および校正装置
JP2005196359A (ja) 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム
JP2022170183A (ja) 歩行特徴量検出装置及びプログラム
JPH09145368A (ja) ステレオ画像による物体の移動追跡方法
Das et al. Automatic extraction of height and stride parameters for human recognition
JP2023121415A (ja) 歩行タイミング検出装置、方法及びプログラム
JP6482102B2 (ja) 測定装置及び測定方法
JP4839330B2 (ja) 画像処理装置および画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240130

R150 Certificate of patent or registration of utility model

Ref document number: 7430207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150