JP6630322B2 - 映像解析方法 - Google Patents

映像解析方法 Download PDF

Info

Publication number
JP6630322B2
JP6630322B2 JP2017166060A JP2017166060A JP6630322B2 JP 6630322 B2 JP6630322 B2 JP 6630322B2 JP 2017166060 A JP2017166060 A JP 2017166060A JP 2017166060 A JP2017166060 A JP 2017166060A JP 6630322 B2 JP6630322 B2 JP 6630322B2
Authority
JP
Japan
Prior art keywords
data
time
frame
specific
specific location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017166060A
Other languages
English (en)
Other versions
JP2019047215A (ja
Inventor
原田 崇志
崇志 原田
裕二 都築
裕二 都築
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shinano Kenshi Co Ltd
Original Assignee
Shinano Kenshi Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shinano Kenshi Co Ltd filed Critical Shinano Kenshi Co Ltd
Priority to JP2017166060A priority Critical patent/JP6630322B2/ja
Priority to CN201810993233.4A priority patent/CN109426811B/zh
Publication of JP2019047215A publication Critical patent/JP2019047215A/ja
Application granted granted Critical
Publication of JP6630322B2 publication Critical patent/JP6630322B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は映像解析方法に関し、より詳細には、モニタ等の表示装置内における映像データの特定個所の追跡を行うと共に、その特定個所が表示装置内で動き始め、あるいは停止した時間を特定時間データとして抽出するための映像解析方法に関する。
映像を解析する必要性は様々な分野で存在している。例えば、特許文献1(特開2017−33390号公報)には、スポーツ中継等で同じ形状のボールが映像内に複数表示されていても、特定のボールを高精度で追跡することが可能な技術内容が開示されている。また、特許文献2(特開2016−207140号公報)には、映像内の人物の位置情報を得ることができる技術内容が開示されている。さらには、特許文献3(特開2015−170874号公報)には、複数のネットワークカメラから送信されてきた映像をリアルタイムで解析し、人や車等の動体を検知して自動的に管理者にアラートを上げるような大規模管理システムに関する技術内容が開示されている。
特開2017−33390号公報 特開2016−207140号公報 特開2015−170874号公報
ところで、映像内における特定個所の追跡および特定個所の映像内における移動が開始、あるいは停止した時間(タイミング)を検出するにあたっては、映像をフレーム分割して特定個所の動作を分析する手法が一般的である。このとき、特定個所を高精度で追跡するためにはフレームレートを増やす必要があるが、フレームレートを増やすと、特定個所の移動開始時間あるいは移動停止時間を検出するためのデータ処理量が膨大になってしまい煩雑であるといった課題がある。これとは反対にフレームレートを減らすと、特定個所の移動開始時間あるいは移動停止時間を検出するためのデータ処理量が少なくなり煩雑さは軽減されるが、特定個所の追跡や特定個所の移動開始時間あるいは移動停止時間を高精度で行うことができないといった課題がある。
そこで本発明は、映像内の特定個所を高精度に追跡することが可能でありながらも、映像内の特定個所の移動が開始、あるいは停止した時間を特定時間データとして抽出する際におけるデータ処理の煩雑さを軽減することが可能な映像解析方法の提供を目的としている。
すなわち本発明は、映像をフレームごとに認識する認識手段と、前記映像の特定個所をマーキングするマーキング手段と、演算手段と、を有する映像解析装置を用い、前記マーキング手段によりマーキングされた前記映像の前記特定個所のフレーム領域内における位置データを所定時間範囲にわたって追跡し、前記特定個所の前記フレーム領域内における移動が開始、あるいは停止したときにおける前記フレームの時間データを特定時間データとして抽出する映像解析方法であって、前記演算手段は、前記フレームの各々に対し、前記時間データおよび前記特定個所の前記フレーム領域内における前記位置データをそれぞれ算出し、前記フレームの各々を対象として、前記特定個所の前記フレーム領域内における前記位置データから、前記特定個所の前記フレーム領域内における移動が開始、あるいは停止したと推定される前記フレームを特定位置到達フレームとして抽出し、当該特定位置到達フレームの前記時間データのうち最大あるいは最小の時間データおよび前記フレーム領域内における前記位置データを特定位置座標として抽出し、前記特定位置到達フレームにおける前記時間データ以降、あるいは前記特定位置到達フレームにおける前記時間データ以前の時間範囲における前記フレームの前記時間データおよび前記フレーム領域内における前記位置データの近似曲線を算出し、前記近似曲線と前記特定位置到達フレームの前記フレーム領域内における前記位置データとの交点における前記時間データを前記特定時間データとして抽出することを特徴とする映像解析方法とすることもできる。
これにより、映像内の特定個所を高精度に追跡することが可能でありながらも、映像内の特定個所の移動が開始、あるいは停止した時間を検出する際におけるデータ処理の煩雑さを軽減することが可能になる。
また、前記演算手段は、前記所定時間範囲における最小の時間あるいは最大の時間のときの前記フレーム領域内における前記位置データを前記特定位置到達フレームの前記フレーム領域内における前記位置データとしていることが好ましい。このとき、前記所定時間範囲における最小の時間あるいは最大の時間のときの前記フレーム領域内における前記位置データは停止した状態になっていることが前提となる。
これにより、特定位置到達フレームの決定が容易になるから、映像内の特定個所が表示装置内において移動が開始した時間、あるいは停止した時間を抽出する際における映像解析の煩雑さを軽減することができる。
また、前記所定時間範囲における前記最大の時間あるいは前記最小の時間のときの前記フレーム領域内における前記位置データは、前記最大の時間あるいは前記最小の時間から所定時間範囲にある前記フレームの前記フレーム領域内における前記位置データの平均値としていることが好ましい。
これにより、前記所定時間範囲における前記最大の時間あるいは前記最小の時間のときの前記フレーム領域内における前記位置データの信頼性を高めることができる。
また、前記演算手段は、前記所定時間範囲における前記最大の時間あるいは前記最小の時間のときの前記フレーム領域内における前記位置データに予め設定した比率を乗じて得た値を前記特定位置到達フレームの前記フレーム領域内における前記位置データとしていることが好ましい。
これにより、特定位置到達フレームの決定が容易になるから、映像内の特定個所の移動が開始、あるいは停止した特定時間データを抽出する際における映像解析の煩雑さを軽減することができる。
本発明における映像解析方法の構成によれば、映像内の特定個所を高精度に追跡することが可能でありながらも、映像内の特定個所の移動が開始、あるいは停止した特定時間データを抽出する際におけるデータ処理の煩雑さを軽減することができる。
参考実施形態における映像解析装置の概略構成図である。 参考実施形態における映像解析方法の概略処理フロー図である。 参考実施形態における特定個所の時間データと座標データの関係を表すグラフである。 第1実施形態における映像解析方法の概略処理フロー図である。 第1実施形態における特定個所の時間データと座標データの関係を表すグラフである。 変形実施形態における特定個所の時間データと座標データの関係を表すグラフである。
本発明における映像解析方法について実施形態に基づいて説明する。
参考実施形態
本実施形態で用いられる映像解析装置100は、図1に示すように映像をフレームごとに認識する認識手段としての高速度カメラ10と、高速度カメラ10で撮影した映像の特定個所をマーキングするマーキング手段22と、マーキング手段22によりマーキングされた映像の特定個所の映像データを演算するCPUに代表される演算手段24とを有するパーソナルコンピュータ20を具備している。
パーソナルコンピュータ20の記憶部26には、高速度カメラ10により撮像された映像データVDが記憶される。また、記憶部26には映像解析プログラムVAPGMが予めインストールされていて、映像解析者は、映像解析プログラムVAPGMに沿ってマウスやキーボードなどに代表されるデータ入力手段28を操作することで、本実施形態における映像解析方法を実行することができる。ここでは、映像解析装置100を用いてバーチャルリアリティー映像を表示するヘッドマウントディスプレー30の性能判定検査に本発明の映像解析方法を適用した実施形態について説明を行うものとする。
バーチャルリアリティー映像を表示するヘッドマウントディスプレー30(以下、単にディスプレー30という)は、使用者の視野がディスプレー30に表示された画像のみとなるように、使用者の頭部に装着した状態で用いられる。ディスプレー30は、使用者の動作に合わせて表示面30aに表示する映像内容を変化させることで、使用者にバーチャル空間を体感させている。このようなバーチャルリアリティーを体感する際においては、使用者の動きに対してディスプレー30に表示されている映像が変化するまでのタイムラグが大きいと、使用者が不快な思いをすることがある。このため、実際の使用者の動きとディスプレー30に表示されている映像が変化するまでのタイムラグが許容できる範囲内であるか否かの確認を行う際に本発明における映像解析方法が用いられる。
具体的には、ディスプレー30の表示面30aに表示されている映像を撮像する高速度カメラ10と、高速度カメラ10で撮像された映像データを解析するパーソナルコンピュータ20とを用いた映像解析方法である。ディスプレー30には図示しない加速度センサが取り付けられていて、加速度センサにより計測された加速度データADはパーソナルコンピュータ20に送信可能に設定されている。また、ディスプレー30は三次元の3軸方向の軸線であるx軸、y軸、z軸のそれぞれの軸線周りに回転可能な保持具(図示せず)に保持されている。パーソナルコンピュータ20の演算手段24は、加速度センサから送信された加速度データADを加速度計測時間データACTDと紐づけさせた状態で記憶部26に記憶させている。以上が図2に示す解析用データ収集ステップである。
続けて図2を参照しながら本実施形態における映像解析方法を説明する。映像解析者がパーソナルコンピュータ20のデータ入力手段28を介してマーキング手段22に映像の特徴的部分を特定個所としてマーキングさせる(ステップ1)。演算手段24は、このマーキングした部分(以下、特定個所)を映像のフレーム毎に所定の時間範囲にわたって追跡する。演算手段24は、ディスプレー30に表示されている特定個所のディスプレー30の表示面30aに設定されている特定個所位置データPLD(特定個所のフレーム領域内における位置を示す位置データ)と、そのときの特定個所時間データPTD(時間データ)とをフレーム毎に抽出し、これらを対にした状態で記憶部26に記憶させる(ステップ2)。
演算手段24は、加速度データADと加速度データADを計測している時間データである加速度計測時間データACTDとに基づいて、加速度計測時間データACTDと、x軸周りの回転加速度、y軸周りの回転加速度、z軸周りの回転加速度をフレーム毎に抽出する(ステップ3)。ここで、特定個所位置データPLDと共に抽出された特定個所時間データPTDと、加速度計測時間データACTDは基準時間(時間軸の基準点)を共通させておく処理が施されている。なお、ステップ2とステップ3の順序は入れ替えることもできる。このようにして演算手段24により所定時間範囲において抽出された特定個所位置データPLDと特定個所時間データPTDをグラフ化したものが図3である。図3のグラフの縦軸は特定個所位置データPLD(位置データ)を示し、同横軸が特定個所時間データPTD(時間データ)を示している。
続いて演算手段24は、フレームの各々を対象として、特定個所のフレーム領域内における変位が所定範囲内(予め記憶部26に記憶されている閾値)になっている位置を停止推定位置として抽出する。この閾値は適宜設定することができる。本実施形態においては、図3のグラフに示されているように、最終時間までの所要時間範囲における特定個所のフレーム領域内における変位が0になっている(グラフが水平になっていて、特定個所がフレーム領域内において停止した状態を意味する)。したがって本実施形態においては閾値にかかわらず、グラフが水平になっているときの特定個所位置データPLDを特定個所がフレーム領域内での移動を停止したと推定する停止推定位置とし、停止推定位置における特定個所位置データPLDSとして抽出(ステップ4)し記憶部26に記憶させている。
また、演算手段24は停止推定位置の特定個所位置データPLDSと同じ位置データであると共に特定個所時間データPTDが最初に検出されたフレーム(特定個所位置データPLDSと同じ位置データであって、かつ時間データが最小の時間であるフレーム)を特定位置到達フレームPRFとして抽出して記憶部26に記憶させる(ステップ5)。演算手段24は特定位置到達フレームPRFにおける特定個所時間データPTDSと特定個所位置データPLDSを特定個所の停止位置座標SPCDとして抽出し、記憶部26に記憶させる(ステップ6)。
さらに演算手段24は、特定個所の停止位置座標SPCDと、ステップ3で算出した時間データとx軸周りの回転加速度、y軸周りの回転加速度、z軸周りの回転加速度とを比較し、ディスプレー30を装着した使用者の動作変化と、この動作変化に対応するディスプレー30への映像の表示変化とのディレイタイムDTを算出し、記憶部26に記憶させる(ステップ7)。本実施形態においては、すべての軸周りの回転加速度が0になったときの時間データと、停止位置座標SPCDの停止推定位置における特定個所時間データPTDSとの差を求めればよい。演算手段24はディレイタイムDTが、予め記憶部26に記憶(設定)されている許容値PV以下であるかを判断(ステップ8)し、許容値PV以下であればそのディスプレー30に対して合格判定を出し(ステップ9)、ディレイタイムDTが許容値PVを超えていたらそのディスプレー30に対して不合格判定を出し(ステップ10)、本実施形態における処理フローを終了する(END)。
このように、所定時間範囲内で抽出された特定個所の位置データと特定個所の時間データのグラフにおいて、限定した範囲内での特定個所の位置データおよび時間データを確認することで停止位置座標SPCDを抽出することが可能になる。これにより、従来技術に比較して極めて短時間で停止位置座標SPCD(すなわち特定時間データ)を抽出することができるのである。すなわちバーチャルリアリティーにおいて用いられるディスプレー30の製品性能評価の合否判断を高精度かつ短時間で行うことができる点において好都合である。
第1実施形態
本実施形態においては、参考実施形態と共通する構成については参考実施形態で用いた符号を付すことによりここでの詳細な説明は省略している。本実施形態における映像解析方法は、図4に示すように、解析用データ収集ステップからステップ3までは同一であるが、ステップ4以降の処理において相違する。
具体的には、図5に示すように、演算手段24は、グラフにおいて所定時間範囲の最終時間のときの特定個所位置データPPLD(位置データ)と同じ値であって特定個所時間データが最小の時間データであるフレームを特定位置到達フレームPPRFとして抽出して記憶部26に記憶させる(ステップ4)。演算手段24は、特定位置到達フレームPPRFにおける特定位置到達時間データPPTDと特定位置到達位置データPPLDを、特定位置到達時の特定位置座標PPCDとして抽出すると共に記憶部26に記憶させる(ステップ5)。続けて演算手段24は、特定位置到達フレームPPRFにおける時間データ以前の時間範囲におけるフレームの時間データおよびフレーム領域内における位置データの近似曲線NCVを算出する(ステップ6)。このフレームの時間データおよび位置データの近似曲線NCVの算出方法は、公知の方法を適宜採用することができるので詳細な説明は省略する。なお、図5に示すように近似曲線NCVは、曲率半径が無限大である直線になることもある。
演算手段24は、算出した近似曲線NCVと特定位置座標PPCDの特定個所位置データPPLDとの交点を算出(ステップ7)し、算出した交点における特定個所時間データPPTD2および特定個所位置データPPLDを停止位置座標SPCDとして抽出し記憶部26に記憶させる(ステップ8)。続いて演算手段24は、特定個所の停止位置座標SPCDと、ステップ3で算出した時間データとx軸周りの回転加速度、y軸周りの回転加速度、z軸周りの回転加速度とを比較し、ディスプレー30を装着した使用者の動作変化と、この動作変化に対応するディスプレー30への映像の表示変化とのディレイタイムDTを算出し、記憶部26に記憶させる(ステップ9)。なお、ディレイタイムDTの算出方法は、参考実施形態と同様にして行うことができるため、ここでの詳細な説明は省略する。
演算手段24は、ディレイタイムDTが予め記憶部26に記憶(設定)されている許容値PV以下であるかを判断(ステップ10)し、ディレイタイムDTが許容値PV以下であれば演算手段24がそのディスプレー30に対して合格判定を出す(ステップ11)。これに対し、ディレイタイムDTが許容値PVを超えていた場合には、演算手段24がそのディスプレー30に対して不合格判定を出し(ステップ12)、本実施形態における処理フローを終了する(END)。
本実施形態では、参考実施形態に比較して特定個所の停止位置座標SPCD(すなわち特定時間データ)を算出する際のデータ処理が複雑になるが、従来技術に対しては十分にデータ処理量を削減することができる。また、本実施形態によれば、参考実施形態より高精度で特定個所の停止位置座標SPCD(特定時間データ)の算出が可能になる。
以上の実施形態における特定個所位置データは、特定個所を追跡した所定時間範囲において最終時間のときの位置データとしているが、この形態に限定されるものではない。例えば、特定個所を追跡した所定時間範囲において最大の時間(最終時間)のときの位置データに、予め設定した比率(記憶部26に予め記憶されている)を乗じて得た値を停止推定位置のフレーム領域内における位置データとして用いることも可能である。
また、演算手段24は、各実施形態におけるステップ4に代えて、フレームの各々を対象として、特定個所のフレーム領域内における変位が予め設定されている閾値の範囲内であるか否かを判断する停止推定位置判断ステップを実行してもよい。この停止推定位置判断ステップの判断結果に基づいて特定個所が停止したと推定して(判断結果がYES)停止推定位置を決定することもできる。判断結果がNOである場合には、判断結果がYESになるまで停止推定位置判断ステップを繰り返し行えばよい。
また、以上の実施形態は、特定個所がフレーム領域内において移動していた状態から停止した際のフレームにおける時間データを特定時間データとして抽出する形態について説明したが、このような形態に限定されるものではない。例えば、図6に示すように演算手段24は、特定個所がフレーム領域内において停止していた状態から移動を開始した際のフレームを移動開始位置フレームとし、移動開始位置フレームにおける座標MPCDにおける位置データをPPLDとして用いる。
そして演算手段24はこのときの時間データをPPTD2として、このときの時間データPPTD2以降における特定個所時間データと特定個所位置データの近似曲線NCVを算出する。さらに演算手段24は、算出した近似曲線NCVに移動開始位置フレームの位置データPPLDを代入して特定時間データPPTDを抽出する形態とすることもできる。このような形態においては、第1実施形態において『最小の時間』と『最大の時間』を入れ替え、『時間データ以前』を『時間データ以降』に置き換えればよい。
さらには、以上の実施形態と変形実施形態においては、特定個所の所定時間範囲における最小の時間あるいは最大の時間のときのフレーム領域内における位置データは停止した状態になっていることが前提としているが、この形態に限定されるものではない。以上に説明した実施形態のように認識手段として高速度カメラ10を用いている場合には、特定個所が完全に停止していなくても、人間の視覚においては停止したと認識することができる場合があるためである。
例えば、演算手段24は所定時間範囲における最大の時間を含む特定時間範囲の微小変化範囲において、特定個所が予め設定した単位時間当たりの位置変化量以内に収束したときのフレームを特定位置到達フレームPRFとみなし、演算手段24はこのときの座標を停止位置座標SPCDとして採用することもできる。また、所定時間範囲における最小の時間を含む特定時間範囲の微小変化範囲において、演算手段24は、特定個所が予め設定した単位時間当たりの位置変化量以上に変化したときのフレームを移動開始位置フレームMPCDとみなすこともできる。移動開始位置フレームMPCDを算出した後は、演算手段24が第1実施形態および図6に示した変形実施形態と同様の手順によって特定時間データPPTDを抽出することができる。
さらには、以上の実施形態における構成に対し、明細書中に記載されている変形例や、他の公知の構成を適宜組み合わせた形態を採用することもできる。
10 高速度カメラ
20 パーソナルコンピュータ,
22 マーキング手段,24 演算手段,26 記憶部,28 データ入力手段,
30 ディスプレー(ヘッドマウントディスプレー),
30a 表示面,
100 映像解析装置,
VD 映像データ,
VAPGM 映像解析プログラム,
AD 加速度データ,
ACTD 加速度計測時間データ,
PLD 特定個所位置データ,
PTD 特定個所時間データ,
PRF 特定位置到達フレーム,
PLDS 停止推定位置における特定個所時間データ,
PTDS PRFにおける特定個所時間データ,
SPCD 停止位置座標,
DT ディレイタイム,
PV 許容値,
NCV 近似曲線

Claims (4)

  1. 映像をフレームごとに認識する認識手段と、前記映像の特定個所をマーキングするマーキング手段と、演算手段と、を有する映像解析装置を用い、前記マーキング手段によりマーキングされた前記映像の前記特定個所のフレーム領域内における位置データを所定時間範囲にわたって追跡し、前記特定個所の前記フレーム領域内における移動が開始、あるいは停止したときにおける前記フレームの時間データを特定時間データとして抽出する映像解析方法であって、
    前記演算手段は、
    前記フレームの各々に対し、前記時間データおよび前記特定個所の前記フレーム領域内における前記位置データをそれぞれ算出し、
    前記フレームの各々を対象として、前記特定個所の前記フレーム領域内における前記位置データから、前記特定個所の前記フレーム領域内における移動が開始、あるいは停止したと推定される前記フレームを特定位置到達フレームとして抽出し、当該特定位置到達フレームの前記時間データのうち最大あるいは最小の時間データおよび前記フレーム領域内における前記位置データを特定位置座標として抽出し、
    前記特定位置到達フレームにおける前記時間データ以降、あるいは前記特定位置到達フレームにおける前記時間データ以前の時間範囲における前記フレームの前記時間データおよび前記フレーム領域内における前記位置データの近似曲線を算出し、
    前記近似曲線と前記特定位置到達フレームの前記フレーム領域内における前記位置データとの交点における前記時間データを前記特定時間データとして抽出することを特徴とする映像解析方法。
  2. 前記演算手段は、
    前記所定時間範囲における最小の時間あるいは最大の時間のときの前記フレーム領域内における前記位置データを前記特定位置到達フレームの前記フレーム領域内における前記位置データとしていることを特徴とする請求項1記載の映像解析方法。
  3. 前記所定時間範囲における前記最大の時間あるいは前記最小の時間のときの前記フレーム領域内における前記位置データは、前記最大の時間あるいは前記最小の時間から所定時間範囲にある前記フレームの前記フレーム領域内における前記位置データの平均値としていることを特徴とする請求項1または2に記載の映像解析方法。
  4. 前記演算手段は、
    前記所定時間範囲における前記最大の時間あるいは前記最小の時間のときの前記フレーム領域内における前記位置データに予め設定した比率を乗じて得た値を前記特定位置到達フレームの前記フレーム領域内における前記位置データとしていることを特徴とする請求項1または2に記載の映像解析方法。
JP2017166060A 2017-08-30 2017-08-30 映像解析方法 Active JP6630322B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017166060A JP6630322B2 (ja) 2017-08-30 2017-08-30 映像解析方法
CN201810993233.4A CN109426811B (zh) 2017-08-30 2018-08-29 影像分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017166060A JP6630322B2 (ja) 2017-08-30 2017-08-30 映像解析方法

Publications (2)

Publication Number Publication Date
JP2019047215A JP2019047215A (ja) 2019-03-22
JP6630322B2 true JP6630322B2 (ja) 2020-01-15

Family

ID=65514737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017166060A Active JP6630322B2 (ja) 2017-08-30 2017-08-30 映像解析方法

Country Status (2)

Country Link
JP (1) JP6630322B2 (ja)
CN (1) CN109426811B (ja)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007315892A (ja) * 2006-05-25 2007-12-06 Aisin Seiki Co Ltd 障害物検出装置および受信時刻推測方法
US8005284B2 (en) * 2006-12-07 2011-08-23 Kabushiki Kaisha Toshiba Three dimensional image processing apparatus and x-ray diagnosis apparatus
JP5409189B2 (ja) * 2008-08-29 2014-02-05 キヤノン株式会社 撮像装置及びその制御方法
JP5603663B2 (ja) * 2010-06-02 2014-10-08 Toa株式会社 移動体軌跡表示装置および移動体軌跡表示プログラム
JP5653174B2 (ja) * 2010-10-29 2015-01-14 株式会社キーエンス 動画追尾装置、動画追尾方法および動画追尾プログラム
JP5803534B2 (ja) * 2011-10-05 2015-11-04 株式会社豊田中央研究所 光通信装置及びプログラム
CN103198492A (zh) * 2013-03-28 2013-07-10 沈阳航空航天大学 一种人体运动捕获方法
WO2016098720A1 (ja) * 2014-12-15 2016-06-23 コニカミノルタ株式会社 画像処理装置、画像処理方法、および画像処理プログラム
CN108027652B (zh) * 2015-09-16 2021-06-22 索尼公司 信息处理设备、信息处理方法以及记录介质
WO2017104372A1 (ja) * 2015-12-18 2017-06-22 株式会社リコー 画像処理装置、画像処理システム、画像処理方法およびプログラム

Also Published As

Publication number Publication date
CN109426811B (zh) 2023-06-30
JP2019047215A (ja) 2019-03-22
CN109426811A (zh) 2019-03-05

Similar Documents

Publication Publication Date Title
US10417775B2 (en) Method for implementing human skeleton tracking system based on depth data
JP3962803B2 (ja) 頭部検出装置、頭部検出方法および頭部検出プログラム
JP6525453B2 (ja) オブジェクト位置推定システム、及びそのプログラム
JP6159179B2 (ja) 画像処理装置、画像処理方法
CN102156537A (zh) 一种头部姿态检测设备及方法
JP6590609B2 (ja) 画像解析装置及び画像解析方法
CN111488775B (zh) 注视度判断装置及方法
WO2021147905A1 (zh) 三维空间内注视行为的识别方法、装置及存储介质
WO2021036373A1 (zh) 目标跟踪方法、装置和计算机可读存储介质
Larsson et al. Head movement compensation and multi-modal event detection in eye-tracking data for unconstrained head movements
Pundlik et al. Time to collision and collision risk estimation from local scale and motion
US20180336733A1 (en) Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium
JP2010104754A (ja) 情動分析装置
Boltes et al. Influences of extraction techniques on the quality of measured quantities of pedestrian characteristics
Ramey et al. Morphological gender recognition by a social robot and privacy concerns: Late breaking reports
JP6171781B2 (ja) 視線分析システム
JP6630322B2 (ja) 映像解析方法
Riener et al. Head-pose-based attention recognition on large public displays
US11373318B1 (en) Impact detection
KR101461144B1 (ko) 운동하는 볼에 대한 센싱장치 및 센싱방법
Gupta et al. Hand gesture based region marking for tele-support using wearables
JP7256032B2 (ja) 人物計数装置、人物計数方法及び人物計数プログラム
KR20130081126A (ko) 손 제스처 인식 방법 및 그 장치
TWI460683B (zh) The way to track the immediate movement of the head
JP2010244192A (ja) 物体流動速度計測方法とその装置、プログラム及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191206

R150 Certificate of patent or registration of utility model

Ref document number: 6630322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250