JP7485154B1 - 映像処理システム - Google Patents

映像処理システム Download PDF

Info

Publication number
JP7485154B1
JP7485154B1 JP2023083335A JP2023083335A JP7485154B1 JP 7485154 B1 JP7485154 B1 JP 7485154B1 JP 2023083335 A JP2023083335 A JP 2023083335A JP 2023083335 A JP2023083335 A JP 2023083335A JP 7485154 B1 JP7485154 B1 JP 7485154B1
Authority
JP
Japan
Prior art keywords
target
behavior
processing system
posture
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023083335A
Other languages
English (en)
Inventor
ゼン コウ
訓成 小堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2023083335A priority Critical patent/JP7485154B1/ja
Application granted granted Critical
Publication of JP7485154B1 publication Critical patent/JP7485154B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】映像に映っているターゲットの行動を適切に反映した行動特徴量を取得すること。【解決手段】映像処理システムは、ターゲットが映っている映像に適用される。映像処理システムは、映像に映っているターゲットの姿勢をオリジナル姿勢として推定する。映像処理システムは、オリジナル姿勢を有するターゲットの所定の関節の関節回転の情報を取得する。更に、映像処理システムは、ベース姿勢を有するベースターゲットモデルの所定の関節に関節回転を適用することによって、ベースターゲットモデルのベース姿勢をターゲットの規格化姿勢に変換する。そして、映像処理システムは、時系列上のターゲットの一連の規格化姿勢の特徴量をターゲットの行動特徴量として抽出する。【選択図】図2

Description

本開示は、ターゲットが映っている映像に適用される映像処理技術に関する。
特許文献1は、被写体人物の三次元姿勢を推定する三次元人物姿勢推定装置を開示している。
特開2022-092528号公報
映像に映っているターゲット(例:人物)の姿勢を推定する技術が知られている。時系列上のターゲットの一連の姿勢から抽出される特徴量は、そのターゲットの行動(action)を反映した行動特徴量となる。ターゲットの行動特徴量は、例えば、そのターゲットの行動を認識したり、異常行動を検知したりするために有用である。
但し、映像に映っているターゲットのサイズ、形状、向き、等は様々である。ターゲットのサイズ、形状、あるいは向きが異なる場合、同じ行動であっても、抽出される行動特徴量が十分に一致しない可能性がある。行動特徴量を利用したアプリケーションの精度を向上させるためには、同じ行動に対して抽出される行動特徴量はなるべく一致することが望ましい。
本開示の1つの目的は、映像に映っているターゲットの行動を適切に反映した行動特徴量を取得することができる技術を提供することにある。
本開示の1つの観点は、ターゲットが映っている映像に適用される映像処理システムに関する。
映像処理システムは、1又は複数のプロセッサを備える。
1又は複数のプロセッサは、映像に映っているターゲットの姿勢をオリジナル姿勢として推定する。1又は複数のプロセッサは、オリジナル姿勢を有するターゲットの所定の関節の関節回転の情報を取得する。
更に、1又は複数のプロセッサは、ベース姿勢を有するベースターゲットモデルの所定の関節に関節回転を適用することによって、ベースターゲットモデルのベース姿勢をターゲットの規格化姿勢に変換する。
そして、1又は複数のプロセッサは、時系列上のターゲットの一連の規格化姿勢の特徴量をターゲットの行動特徴量として抽出する。
本開示によれば、映像に映っているターゲットのオリジナル姿勢を規格化することにより、ターゲットの規格化姿勢が得られる。ターゲットの規格化姿勢からは、ターゲットのサイズ、形状、等の影響が排除されている。そのような規格化姿勢に基づいて、ターゲットの行動特徴量が抽出される。よって、同じ行動に対する行動特徴量がより一致しやすくなる。すなわち、ターゲットの行動を適切に反映した行動特徴量が得られる。その結果、行動特徴量を利用したアプリケーションの精度が向上する。
実施の形態に係る映像処理システムの概要を説明するための概念図である。 実施の形態に係る映像処理システムの機能構成例を示すブロック図である。 実施の形態に係る空間的観点からの規格化処理の一例を説明するための概念図である。 実施の形態に係る時間的観点からの規格化処理の一例を説明するための概念図である。 実施の形態に係る規格化処理の一例を示す概念図である。 実施の形態に係る映像処理システムの機能構成例を示すブロック図である。
1.映像処理システムの概要
図1は、本実施の形態に係る映像処理システム100の概要を説明するための概念図である。映像処理システム100は、カメラCAMによって撮影される映像VIDを取得し、映像VIDに対して様々な処理を行う。
特に、映像処理システム100は、ターゲットTGが映っている映像VIDに適用される。本実施の形態では、ターゲットTGは、関節(joint)を有する動体である。そのようなターゲットTGとしては、人物、人物の一部(例:手)、ロボット、等が例示される。以下の説明では、ターゲットTGが人物である場合について主に考える。但し、ターゲットTGは人物に限定されない。
一例として、映像VIDに映っているターゲットTGの行動(action)を認識することを考える。映像処理システム100は、映像VIDを構成する一連の画像の各々に映っているターゲットTGの姿勢(pose)を推定する。時系列上に並べられた一連の姿勢を、以下、「姿勢シーケンス」と呼ぶ。映像処理システム100は、ターゲットTGの姿勢シーケンスの特徴量を抽出する。ターゲットTGの姿勢シーケンスから抽出される特徴量は、そのターゲットTGの行動を反映している。そのような特徴量を、以下、「行動特徴量FEA」と呼ぶ。行動の種類と行動特徴量FEAとの対応関係を示すデータベースは予め作成されている。映像処理システム100は、ターゲットTGの行動特徴量FEAをデータベースと照らし合わせることによって、そのターゲットTGの行動を認識(分類、特定)することができる。
行動特徴量FEAの用途は、行動認識に限られない。例えば、映像VIDに映っているターゲットTGの行動を分析することができる。例えば、正常な行動を表す行動特徴量FEAの分布とターゲットTGの行動特徴量FEAとを対比することによって、ターゲットTGの異常行動を検出することができる。他の例として、習熟した行動を表す行動特徴量FEAの分布とターゲットTGの行動特徴量FEAとを対比することによって、ターゲットTGの行動の習熟度合いを見積もることができる。
更に他の例として、ターゲットTGの行動特徴量FEAを用いてマッチングを行うことによって、映像データベースの中から、ターゲットTGと同じ行動をしている他のターゲットを検索することができる。更に他の例として、ターゲットTGの行動特徴量FEAを用いてマッチングを行うことによって、映像データベースの中から、ターゲットTGと同じ行動をしている他のターゲットが映っている他の映像を検索することもできる。
但し、映像VIDに映っているターゲットTGのサイズ(size)、形状(shape)、向き(view)、等は様々である。ターゲットTGのサイズ、形状、あるいは向きが異なる場合、同じ行動であっても、抽出される行動特徴量FEAが十分に一致しない可能性がある。
例えば図1において、カメラCAM-1によって撮影される映像VID-1には、走っているターゲットTG-1が映っている。カメラCAM-2によって撮影される映像VID-2には、走っているターゲットTG-2が映っている。ターゲットTG-1、TG-2は共に走っている。すなわち、ターゲットTG-1、TG-2の“行動”は同じである。しかしながら、映像VID-1、VID-2のそれぞれに映っているターゲットTG-1、TG-2のサイズ、形状、向き、等は異なっている。よって、映像VID-1に映っているターゲットTG-1の行動特徴量FEA-1と映像VID-2に映っているターゲットTG-2の行動特徴量FEA-2が十分に一致しない可能性がある。すなわち、ターゲットTG-1、TG-2の“行動”は同じであるにもかかわらず、それぞれの行動特徴量FEA-1、FEA-2が十分に一致しない可能性がある。
同じ行動に対する行動特徴量FEAが十分に一致しない場合、行動特徴量FEAを利用したアプリケーションの精度が低下するおそれがある。行動特徴量FEAを利用したアプリケーションの精度を向上させるためには、同じ行動に対して抽出される行動特徴量FEAはなるべく一致することが望ましい。すなわち、ターゲットTGのサイズ、形状、向き、等に対する行動特徴量FEAのロバスト性を向上させることが望まれる。
そこで、本実施の形態によれば、行動特徴量FEAのロバスト性を向上させるために、行動特徴量FEAの抽出の前処理として、ターゲットTGの姿勢の「規格化(normalization)」が行われる。以下、本実施の形態に係る規格化処理に関連する処理について詳しく説明する。
2.規格化処理に関連する処理
図2は、本実施の形態に係る映像処理システム100の機能構成例を示すブロック図である。映像処理システム100は、姿勢推定部110、規格化処理部120、及び特徴量抽出部130を含んでいる。
映像処理システム100は、カメラCAMによって撮影された映像VIDを取得する。映像VIDは、一連の画像(フレーム)を含んでいる。まず、映像処理システム100は、映像VIDに含まれる各画像に映っているターゲットTGを検出する。ターゲットTGの検出は、周知の物体検出技術により可能である。バウンディングボックスは、画像において検出されたターゲットTGの位置を表す。
姿勢推定部110は、ターゲットTGの部分の画像に基づいて、ターゲットTGの3次元姿勢を推定する姿勢推定処理を行う。画像の中の各バウンディングボックスによって囲まれる部分画像が、ターゲットTGの画像に相当する。姿勢推定部110は、機械学習に基づく姿勢推定モデルを用いることによって、部分画像からキーポイントを抽出し、ターゲットTGの3次元姿勢を推定する。尚、姿勢推定処理は周知技術であり、その手法は特に限定されない。例えば、TransPoseが姿勢推定処理に利用される。
姿勢推定部110によって推定されるターゲットTGの3次元姿勢を、便宜上、「オリジナル姿勢PSO」と呼ぶ。このオリジナル姿勢PSOから行動特徴量FEAが直接抽出されると、上述の課題が発生する。そこで、規格化処理部120は、特徴量抽出の前処理として、ターゲットTGのオリジナル姿勢PSOを規格化する規格化処理を実行する。規格化処理をリターゲッティング(re-targeting)と言うこともできる。規格化処理部120における規格化処理の詳細は後述される。オリジナル姿勢PSOを規格化することにより得られる3次元姿勢を、以下、「規格化姿勢PSN」と呼ぶ。
特徴量抽出部130は、オリジナル姿勢PSOではなく規格化姿勢PSNに基づいて、ターゲットTGの行動特徴量FEAを抽出する。より詳細には、特徴量抽出部130は、ターゲットTGの規格化姿勢PSNを時系列上に並べる。規格化姿勢シーケンスは、時系列上に並べられた一連の規格化姿勢PSNである。特徴量抽出部130は、ターゲットTGの規格化姿勢シーケンスの特徴量をターゲットTGの行動特徴量FEAとして抽出する。このような特徴量抽出処理には、例えば、公知のST-GCNs(Spatial-Temporal Graph Convolutional Networks)が用いられる。
以下、規格化処理部120による規格化処理について詳しく説明する。以下に説明されるように、空間的観点からの規格化処理と時間的観点からの規格化処理の2種類が考えられる。
2-1.空間的観点からの規格化処理
図2に示されるように、規格化処理部120は、関節回転取得部121、ベースターゲットモデル122、及びモデル処理部123を含んでいる。
関節回転取得部121は、ターゲットTGのオリジナル姿勢PSOの情報を取得する。ターゲットTGは、1以上の関節JTiを有している。姿勢推定処理において抽出されたキーポイントの少なくとも一部が関節JTiに相当する。iは関節の識別子であり、1以上の値を取る。ターゲットTGのオリジナル姿勢PSOの情報は、ターゲットTGの関節JTiの3次元配置情報を含んでいる。その関節JTiの3次元配置情報に基づいて、所定の関節JTiの関節回転(joint rotation)Riの情報を取得することができる。すなわち、関節回転取得部121は、オリジナル姿勢PSOを有するターゲットTGの所定の関節JTiの関節回転Riの情報を取得することができる。関節回転Riは、関節角(joint angle)とも呼ばれる。ターゲットTGの関節JTiの関節回転Riは、ターゲットTGのサイズ、形状、及び向きに依存しない。
ベースターゲットモデル122は、ターゲットTGの共通モデルである。ベースターゲットモデル122は、ベース姿勢を有している。図2に示される例では、ベースターゲットモデル122は、T字姿勢をベース姿勢として有するT-Poseモデルである。ベースターゲットモデル122も所定の関節JTiを有している。
モデル処理部123は、関節回転取得部121からターゲットTGの所定の関節JTiの関節回転Riの情報を取得する。そして、モデル処理部123は、ベース姿勢を有するベースターゲットモデル122の所定の関節JTiに、ターゲットTGの所定の関節JTiの関節回転Riを適用する。ベースターゲットモデル122の所定の関節JTiに関節回転Riを適用することにより、ベースターゲットモデル122のベース姿勢が変換される。変換後のベースターゲットモデル122の姿勢には、ターゲットTGのサイズや形状を除くターゲットTGのオリジナル姿勢PSOが反映されている。従って、変換後のベースターゲットモデル122の姿勢が、ターゲットTGのサイズや形状の影響が除外されたターゲットTGの規格化姿勢PSNとなる。すなわち、モデル処理部123は、関節回転Riをベースターゲットモデル122に適用することによって、ベースターゲットモデル122のベース姿勢をターゲットTGの規格化姿勢PSNに変換する。
更に、モデル処理部123は、規格化姿勢PSNの向きを“所定の向き”に揃えてもよい。所定の向きは予め指定される。ベースターゲットモデル122は仮想のモデルであるため、その向きを自由に変化させることができるのである。例えば、ベースターゲットモデル122の向きは、クォータニオン(quaternion)によって表現される。ベースターゲットモデル122のクォータニオンを所定のクォータニオンにすることによって、規格化姿勢PSNの向きを所定の向きに揃えることができる。すなわち、モデル処理部123は、規格化姿勢PSNの向きが所定の向きになるように、ベースターゲットモデル122のベース姿勢をターゲットTGの規格化姿勢PSNに変換する。
図3は、空間的観点からの規格化処理の一例を示している。映像VID-1にはターゲットTG-1が映っており、映像VID-2にはターゲットTG-2が映っている。ターゲットTG-1とターゲットTG-2は、異なるサイズ、形状、及び向きを有している。ターゲットTG-1のオリジナル姿勢PSO-1に基づいて、ターゲットTG-1の関節回転Ri-1の情報が得られる。関節回転Ri-1がベースターゲットモデル122に適用され、ターゲットTG-1の規格化姿勢PSN-1が得られる。更に、ターゲットTG-1の規格化姿勢PSN-1は“所定の向き”になるように調整される。ターゲットTG-2についても同様である。
このようにして得られたターゲットTG-1の規格化姿勢PSN-1からは、ターゲットTG-1のサイズ、形状、及び向きの影響が排除されている。同様に、ターゲットTG-2の規格化姿勢PSN-2からは、ターゲットTG-2のサイズ、形状、及び向きの影響が排除されている。すなわち、ターゲットTGのサイズ、形状、及び向きに対するロバスト性が向上する。
以上に説明されたように、規格化処理部120は、ターゲットTGのオリジナル姿勢PSOを空間的観点から規格化し、ターゲットTGの規格化姿勢PSNを取得する。尚、規格化姿勢PSNにおける各関節JTiは、位置(x,y,z)と時間(t)の情報を有する。
2-2.時間的観点からの規格化処理
一例として、ターゲットTGが人物であり、行動が走ることである場合について考える。速く走る人物もいれば、遅く走る人物もいる。但し、行動特徴量FEAの観点から言えば、速い走りも遅い走りも同じ“走り”として捉えることが好ましい。言い換えれば、速い走りに対する行動特徴量FEAと遅い走りに対する行動特徴量FEAをなるべく一致させることが好ましい。そのために、時間的観点から規格化処理が行われる。
図4は、時間的観点からの規格化処理の一例を説明するための概念図である。以下の説明において、「シフト量SFT」とは、時系列上で異なるタイミング間のターゲットTGの所定の関節JTの位置変化量である。例えば、シフト量SFTは、所定時間だけ離れたタイミング間のターゲットTGの所定の関節JTの位置変化量である。他の例として、シフト量SFTは、連続するタイミング間のターゲットTGの所定の関節JTの位置変化量であってもよい。規格化姿勢PSNにおける関節JTは位置(x,y,z)と時間(t)の情報を有するため、それら情報に基づいてシフト量SFTを算出することができる。
規格化姿勢シーケンスは、時系列上に並べられた一連の規格化姿勢PSNである。規格化処理部120は、ターゲットTGの規格化姿勢シーケンスに基づいて、ターゲットTGの所定の関節JTのシフト量SFTを算出する。更に、規格化処理部120は、そのシフト量SFTが所定の基準量SFT0になるように、規格化姿勢シーケンスを逆に調整する。すなわち、規格化処理部120は、シフト量SFTを所定の基準量SFT0に規格化する。
例えば図4において、時間t2aにおけるターゲットTG-2の関節JTの位置と時間t2bにおけるターゲットTG-2の関節JTの位置に基づいて、ターゲットTG-2に関するシフト量SFT-2が算出される。算出されたシフト量SFT-2は、所定の基準量SFT0よりも大きい(SFT-2>SFT0)。そこで、時間t2a~時間t2xまでのシフト量SFT-2が所定の基準量SFT0と一致するような時間t2xが探索される。そのような時間t2xは、時間t2a、t2bにおける関節JTの位置に基づいて探索可能である。そして、時間t2xに新たな規格化姿勢PSNが挿入される。時間t2xにおける規格化姿勢PSNの関節JTの位置は、時間t2a、t2bにおける関節JTの位置に基づく線形補間により算出可能である。このように、ターゲットTG-2に関するシフト量SFT-2が所定の基準量SFT0に一致するように、ターゲットTG-2の規格化姿勢シーケンスが調整される。これは、“アップサンプリング”に相当する。
一方、図4において、ターゲットTG-1に関するシフト量SFT-1は、所定の基準量SFT0よりも小さい(SFT-1<SFT0)。この場合は、“ダウンサンプリング”が行われる。ターゲットTG-1に関するシフト量SFT-1が所定の基準量SFT0に一致するように、ターゲットTG-1の規格化姿勢シーケンスが調整される。
規格化処理部120は、ターゲットTGの関節JT毎に上述の処理を行い、シフト量SFTを所定の基準量SFT0に規格化する。
変形例として、規格化処理部120は、ターゲットTGの関節JT毎に算出されたシフト量SFTの平均値を算出してもよい。その平均値は、ターゲットTG全体としてのシフト量SFTであると言える。ターゲットTG全体としてのシフト量SFTは、ターゲットTG全体としての速度に相当する。規格化処理部120は、ターゲットTGのシフト量SFTが所定の基準量SFT0になるように、ターゲットTGの規格化姿勢シーケンスを調整する。
図5は、規格化処理の一例を示している。ターゲットTG-1のオリジナル姿勢PSO-1が規格化され、規格化姿勢PSN-1が得られる。同様に、ターゲットTG-2のオリジナル姿勢PSO-2が規格化され、規格化姿勢PSN-2が得られる。オリジナル姿勢PSO-1、PSO-2ではターゲットTG-1、TG-2のサイズ、形状、向き、及び速度は異なっているが、規格化姿勢PSN-1、PSN-2ではそれらは揃っている。すなわち、ターゲットTGの規格化姿勢PSNからは、ターゲットTGのサイズ、形状、向き、及び速度の影響が排除されている。
2-4.効果
以上に説明されたように、本実施の形態によれば、映像VIDに映っているターゲットTGのオリジナル姿勢PSOを規格化することにより、ターゲットTGの規格化姿勢PSNが得られる。ターゲットTGの規格化姿勢PSNからは、ターゲットTGのサイズ、形状、向き、及び速度の影響が排除されている。そのような規格化姿勢PSNに基づいて、ターゲットTGの行動特徴量FEAが抽出される。よって、ターゲットTGのサイズ、形状、向き、速度に対する行動特徴量FEAのロバスト性が向上する。言い換えれば、同じ行動に対する行動特徴量FEAがより一致しやすくなる。すなわち、ターゲットTGの行動を適切に反映した行動特徴量FEAが得られる。その結果、行動特徴量FEAを利用したアプリケーションの精度が向上する。
尚、上記セクション2-1で説明された空間的観点からの規格化処理だけでも、効果は得られる。時間的観点からの規格化処理はオプションである。また、規格化姿勢PSNの向きを所定の向きに揃えなくても、ターゲットTGのサイズ及び形状の影響は排除されるため、ある程度の効果は得られる。規格化姿勢PSNの向きを所定の向きにそろえた場合、更なる効果が得られる。
3.映像処理システムの構成例
図6は、本実施の形態に係る映像処理システム100の構成例を示すブロック図である。映像処理システム100は、1又は複数のプロセッサ101(以下、単に「プロセッサ101」と呼ぶ)、1又は複数の記憶装置102(以下、単に「記憶装置102」と呼ぶ)、及びインタフェース103を備えている。プロセッサ101は、様々な処理を実行する。例えば、プロセッサ101は、CPU(Central Processing Unit)を含んでいる。記憶装置102は、処理に必要な様々な情報を格納する。記憶装置102の例としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、揮発性メモリ、不揮発性メモリ、等が挙げられる。インタフェース103は、ネットワークインタフェースやユーザインタフェースを含む。
コンピュータプログラム104は、本実施の形態に係る映像処理のためのコンピュータプログラムである。コンピュータプログラム104は、記憶装置102に格納される。コンピュータプログラム104は、コンピュータ読み取り可能な記録媒体に記録されていてもよい。コンピュータプログラム104は、プロセッサ101により実行される。コンピュータプログラム104を実行するプロセッサ101と記憶装置102との協働により、映像処理システム100の機能が実現されてもよい。
また、各種データベース105が記憶装置102に格納される。
プロセッサ101は、インタフェース103を介して、1以上のカメラCAMによって撮影される映像VIDを収集する。データベース105は、収集された映像VIDに関する映像データベースを含む。
また、プロセッサ101は、図2で示された姿勢推定部110、規格化処理部120、及び特徴量抽出部130の機能を備えている。プロセッサ101は、映像VIDに映っているターゲットTGの行動特徴量FEAを抽出する。データベース105は、抽出された行動特徴量FEAに関する特徴量データベースを含む。特徴量データベースは、行動の種類と行動特徴量FEAの対応関係を示していてもよい。
プロセッサ101は、行動特徴量FEAを様々な用途に利用することができる。例えば、プロセッサ101は、ターゲットTGの行動特徴量FEAを特徴量データベースと照らし合わせることによって、そのターゲットTGの行動を認識(分類、特定)することができる。
他の例として、プロセッサ101は、映像VIDに映っているターゲットTGの行動を分析してもよい。例えば、正常な行動を表す行動特徴量FEAの分布とターゲットTGの行動特徴量FEAとを対比することによって、ターゲットTGの異常行動を検出することができる。他の例として、習熟した行動を表す行動特徴量FEAの分布とターゲットTGの行動特徴量FEAとを対比することによって、ターゲットTGの行動の習熟度合いを見積もることができる。
更に他の例として、プロセッサ101は、ターゲットTGの行動特徴量FEAを用いてマッチングを行うことによって、映像データベースの中から、ターゲットTGと同じ行動をしている他のターゲットを検索してもよい。更に他の例として、プロセッサ101は、ターゲットTGの行動特徴量FEAを用いてマッチングを行うことによって、映像データベースの中から、ターゲットTGと同じ行動をしている他のターゲットが映っている他の映像を検索してもよい。
100…映像処理システム, 110…姿勢推定部, 120…規格化処理部, 121…関節回転取得部, 122…ベースターゲットモデル, 123…モデル処理部, 130…特徴量抽出部, FEA…行動特徴量, PSN…規格化姿勢, PSO…オリジナル姿勢, VID…映像

Claims (4)

  1. ターゲットが映っている映像に適用される映像処理システムであって、
    1又は複数のプロセッサを備え、
    前記1又は複数のプロセッサは、
    前記映像に映っている前記ターゲットの姿勢をオリジナル姿勢として推定し、
    前記オリジナル姿勢を有する前記ターゲットの所定の関節の関節回転の情報を取得し、
    ベース姿勢を有するベースターゲットモデルの前記所定の関節に前記関節回転を適用することによって、前記ベースターゲットモデルの前記ベース姿勢を前記ターゲットの規格化姿勢に変換し、
    時系列上の前記ターゲットの一連の規格化姿勢の特徴量を前記ターゲットの行動特徴量として抽出する
    ように構成された
    映像処理システム。
  2. 請求項1に記載の映像処理システムであって、
    前記1又は複数のプロセッサは、更に、前記規格化姿勢の向きが所定の向きになるように、前記ベースターゲットモデルの前記ベース姿勢を前記ターゲットの前記規格化姿勢に変換するように構成された
    映像処理システム。
  3. 請求項2に記載の映像処理システムであって、
    前記1又は複数のプロセッサは、更に、時系列上で異なるタイミング間の前記所定の関節の位置変化量が基準量になるように、時系列上の前記ターゲットの前記一連の規格化姿勢を調整するように構成された
    映像処理システム。
  4. 請求項1乃至のいずれか一項に記載の映像処理システムであって、
    前記1又は複数のプロセッサは、更に、前記行動特徴量に基づいて第1処理を行い、
    前記第1処理は、
    前記映像に映っている前記ターゲットの行動を認識すること、
    前記映像に映っている前記ターゲットの前記行動を分析すること、
    前記映像に映っている前記ターゲットの異常行動を検出すること、
    前記ターゲットと同じ行動をしている他のターゲットを検索すること、及び
    前記ターゲットと同じ行動をしている他のターゲットが映っている他の映像を検索すること
    のうち少なくとも1つを含む
    映像処理システム。
JP2023083335A 2023-05-19 2023-05-19 映像処理システム Active JP7485154B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023083335A JP7485154B1 (ja) 2023-05-19 2023-05-19 映像処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023083335A JP7485154B1 (ja) 2023-05-19 2023-05-19 映像処理システム

Publications (1)

Publication Number Publication Date
JP7485154B1 true JP7485154B1 (ja) 2024-05-16

Family

ID=91030897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023083335A Active JP7485154B1 (ja) 2023-05-19 2023-05-19 映像処理システム

Country Status (1)

Country Link
JP (1) JP7485154B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111582220A (zh) 2020-05-18 2020-08-25 中国科学院自动化研究所 一种基于移位图卷积神经网络骨骼点行为识别系统及其识别方法
WO2021186223A1 (en) 2020-03-20 2021-09-23 Wrnch Inc. Joint rotation inferences based on inverse kinematics
WO2021255846A1 (ja) 2020-06-17 2021-12-23 日本電気株式会社 画像処理装置、画像処理方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021186223A1 (en) 2020-03-20 2021-09-23 Wrnch Inc. Joint rotation inferences based on inverse kinematics
CN111582220A (zh) 2020-05-18 2020-08-25 中国科学院自动化研究所 一种基于移位图卷积神经网络骨骼点行为识别系统及其识别方法
WO2021255846A1 (ja) 2020-06-17 2021-12-23 日本電気株式会社 画像処理装置、画像処理方法、及びプログラム

Similar Documents

Publication Publication Date Title
JP6161257B2 (ja) イベント検出装置及びその方法、動作認識装置及びその方法、プログラム
JP3873793B2 (ja) 顔メタデータ生成方法および顔メタデータ生成装置
US9235751B2 (en) Method and apparatus for image detection and correction
JP3962803B2 (ja) 頭部検出装置、頭部検出方法および頭部検出プログラム
JP4093273B2 (ja) 特徴点検出装置、特徴点検出方法および特徴点検出プログラム
CN103577793B (zh) 手势识别方法及装置
Zeng et al. Silhouette-based gait recognition via deterministic learning
US7693310B2 (en) Moving object recognition apparatus for tracking a moving object based on photographed image
JP4947769B2 (ja) 顔照合装置および方法並びにプログラム
JP6007682B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4353246B2 (ja) 法線情報推定装置、登録画像群作成装置および画像照合装置ならびに法線情報推定方法
Shreve et al. Automatic expression spotting in videos
JP4951498B2 (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
WO2009128784A1 (en) Face expressions identification
Yu et al. HeadFusion: 360${^\circ} $ Head Pose Tracking Combining 3D Morphable Model and 3D Reconstruction
JP4375570B2 (ja) 顔認識方法およびシステム
JP4792471B2 (ja) イメージシーケンスデータ検索のための情報要素抽出方法及びその方法を記録した記録媒体
JP7485154B1 (ja) 映像処理システム
Schneider et al. Activity recognition using imagery for smart home monitoring
JP6118976B2 (ja) 頭部姿勢の推定装置、頭部姿勢の推定方法およびコンピュータに頭部姿勢の推定方法を実行させるためのプログラム
JP6430102B2 (ja) 人物属性推定装置、人物属性推定方法及びプログラム
JP2013015891A (ja) 画像処理装置、画像処理方法及びプログラム
US10140727B2 (en) Image target relative position determining method, device, and system thereof
My et al. Real time face tracking and pose estimation using an adaptive correlation filter for human-robot interaction
Pęszor et al. Facial reconstruction on the basis of video surveillance system for the purpose of suspect identification

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240415

R150 Certificate of patent or registration of utility model

Ref document number: 7485154

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150