JP2013232181A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2013232181A
JP2013232181A JP2013017636A JP2013017636A JP2013232181A JP 2013232181 A JP2013232181 A JP 2013232181A JP 2013017636 A JP2013017636 A JP 2013017636A JP 2013017636 A JP2013017636 A JP 2013017636A JP 2013232181 A JP2013232181 A JP 2013232181A
Authority
JP
Japan
Prior art keywords
image
frame
situation
detected
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013017636A
Other languages
English (en)
Other versions
JP6148480B2 (ja
JP2013232181A5 (ja
Inventor
Takeshi Kuroki
剛 黒木
Takayuki Iwamoto
貴之 岩本
Yasuo Katano
康生 片野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013017636A priority Critical patent/JP6148480B2/ja
Priority to US13/854,479 priority patent/US9699419B2/en
Publication of JP2013232181A publication Critical patent/JP2013232181A/ja
Publication of JP2013232181A5 publication Critical patent/JP2013232181A5/ja
Application granted granted Critical
Publication of JP6148480B2 publication Critical patent/JP6148480B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Abstract

【課題】 映像中で検出したオブジェクトの接触状態を判定することにより、より詳細に映像中で起こったイベントを解釈するための技術を提供する。
【解決手段】 撮像装置から出力される各フレームの画像を順次取得する。画像中に写っている状況を該画像に対する認識処理によって認識し、該認識した状況が規定の状況であれば、該画像及び該画像を含む各フレームの画像から、該規定の状況に関連する種別のオブジェクトを検出する。それぞれのオブジェクトの画像からの検出位置を用いて、オブジェクト同士が現実空間中で接触しているのか否かを判断する。
【選択図】 図2

Description

本発明は、映像中で起こったイベントを映像認識により解釈する技術に関するものである。
従来から、カメラを用いてシーンを撮影し、シーン中で起こった事象を映像認識により解釈する方法が知られている。例えば、特許文献1では、用具等の隠蔽状態から、打撃時刻情報を特定し、打撃時刻における用具の位置と該スポーツのルール情報とに基づいて、プレイヤーの動作を認識する技術が開示されている。また、監視カメラの中には、撮影した映像を解析し、乱暴行為や持ち去り、置き去り等を検出する機能を備えたものがある。
特許第4482690号
このような映像解析の中では、従来、映像中のオブジェクトの接触状態を検知し、より詳細に映像中で起こったイベントを解釈するようなことは行われてこなかった。本発明はこのような問題に鑑みてなされたものであり、映像中で検出したオブジェクトの接触状態を判定することにより、より詳細に映像中で起こったイベントを解釈するための技術を提供する。
本発明の目的を達成するために、例えば、本発明の画像処理装置は、撮像装置から出力される各フレームの画像を順次取得する手段と、前記画像中に写っている状況を該画像に対する認識処理によって認識し、該認識した状況が規定の状況であれば、該画像及び該画像を含む各フレームの画像から、該規定の状況に関連する種別のオブジェクトを検出する検出手段と、前記検出手段が検出したそれぞれのオブジェクトの画像からの検出位置を用いて、オブジェクト同士が現実空間中で接触しているのか否かを判断する判断手段とを備えることを特徴とする。
本発明の構成によれば、映像中で検出したオブジェクトの接触状態を判定することにより、より詳細に映像中で起こったイベントを解釈することができる。
スライディングタックルを行っている状況を撮像した3フレーム分の画像を示す図。 行動認識装置200の機能構成例を示すブロック図。 ルール記憶部204が保持しているテーブル情報の構成例を示す図。 検出枠を示す図。 ボールの検出位置を示す図。 ボールの速度、加速度を示す図。 ボールと足との間の距離を示す図。 行動認識装置200が行う処理のフローチャート。 行動認識装置200が行う処理のフローチャート。 行動認識装置200が行う処理のフローチャート。 パンチを打っている状況を撮像した画像を示す図。 図11の状況を上部から見た模式図。 第5の実施形態において監視カメラが撮影した映像を示した図。 監視カメラが撮影した映像から切り出された部分画像を示した図。 第5の実施形態において行動認識装置200が行う処理のフローチャート。 第6の実施形態において監視カメラが撮影した映像を示した図。 第6の実施形態において行動認識装置200が行う処理のフローチャート。 第6の実施形態において行動認識装置200が行う処理のフローチャート。 行動認識装置200の機能構成例を示すブロック図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
[第1の実施形態]
<本実施形態の概要>
先ず、本実施形態の概要について説明する。本実施形態では、サッカーの試合中のスライディング行為が反則であったか否かを、該サッカーの試合を撮像している1台の撮像装置から得られる各フレームの画像から判定する。
図1は、サッカーの試合中に人物110がスライディングタックルを行っている状況を撮像した3フレーム分の画像を示している。人物120はボール130をドリブル中であり、人物110はボール130を奪取するためにスライディングタックルを行っている。ここで、図1(a)は、フレーム1の画像を示しており、図1(b)は、フレーム1に後続するフレーム2の画像を示しており、図1(c)は、フレーム2に後続するフレーム3の画像を示している。なお、フレーム1とフレーム2とは隣接しているわけではないし、フレーム2とフレーム3とは隣接しているわけではない。即ち、フレーム1,2,3は何れも適当な間隔を開けてサンプリングしたフレームであり、撮像装置のサンプリングレートはそれよりも十分に高く、フレーム1とフレーム2との間、フレーム2とフレーム3との間には1フレーム以上のフレームが存在する。
また、人物110と人物120はフレーム3以降で交錯し、人物120が転倒したものとする。サッカーのルールでは、スライディングタックルを行ったプレイヤーが、ボールに触れるよりも先に相手に触れた場合、反則行為となる。
本実施形態に係る画像処理装置は、転倒現象を検知した後、該検知を行ったフレームよりも過去のフレーム(先に撮像されたフレーム)の画像を用いて、人物110の足がボール130に触れたか否かを判断する。この判断により、人物120の転倒の原因となった、人物110の行ったスライディングタックルが、ルール上正当な行為であったことを判断し、判定の根拠となった接触部位を画像に表示する。
<本実施形態に係る画像処理装置の機能構成例とその動作>
次に、画像処理装置として機能する本実施形態に係る行動認識装置の機能構成例について、図2のブロック図を用いて説明する。
画像入力部201は、スポーツの一例としてのサッカーの試合を撮像している撮像装置から出力される各フレームの画像を順次取得し、取得した画像を映像記憶部202に格納すると共に、イベント検出部203に対して出力する。
イベント検出部203は、画像入力部201から受けた画像中に写っている状況を該画像に対する認識処理によって認識することで、該画像中で生じているイベントを検出する。例えば、サッカーの場合、転倒、スライディング、ハンド、シュート、空中のボールの競り合い、スローインなどの場面がイベントに相当する。イベント検出はBag of Keypointsの考え方とHidden Markov Model(HMM)を用いた以下の方法により行われる。
まず、i番目のフレームの画像Iiから、画像特徴(特徴ベクトル)fの集合Fi={f1,f2,…,fN}を抽出する。ここで、画像特徴fには、下記の文献1に記載のSIFTのような、key pointベースの画像特徴を用いることが可能である。
<文献1>
David Lowe, “Distinctive Image Features from Scale-Invariant Keypoints”, International Journal of Computer Vision, 60, 2, pp. 91-110, 2004.
次に、Fiの要素である特徴ベクトルと、予め用意されたK個の特徴ベクトル{g1,g2,…,gK}それぞれとの距離dを計算し、最も距離が近いベクトルgjを探す。すなわち、下記の式を計算する。
Figure 2013232181
そして、ビン数がKであるヒストグラムhiのj番目のビンに1を加える。Fiの要素である特徴ベクトル全てについてこのような処理を行い、ヒストグラムhiを完成させる。ここで得られるヒストグラムhiが、画像Iiより得られるcode wordとなる。
さらに、得られたヒストグラムhiが予め用意されたM個のヒストグラムO1,O2,…,OMのうちどれに最も類似するのかを、Histogram Intersectionを用いて判定する。最も類似するOを、この画像Iiより得られたシンボルO(i)とする。
以上の処理をt=1からt=T(現フレーム)までの各フレームの画像{I1,I2,…,IT}について行うことにより、t=1からt=Tまでのシンボルの系列O1:T={O(1),O(2),…,O(T)}を得る。
得られたシンボルの系列O1:Tと、それぞれのイベントλlに対する学習済みモデルとしてのHMMλlについて、確率Pr(λl|O1:T)が最も高くなるλcを、下記の式を計算することで特定する。
Figure 2013232181
この式によれば、確率Pr(λl|O1:T)が最も高くなるlはcであるので、現フレームの画像中で生じているイベントがλcであることを検出する。ただし、この式で求めた確率Pr(λc|O1:T)が予め定められた閾値よりも小さい場合は、いずれのイベントも検出されなかったものと判断する。
このようなイベント検出方法によれば、画像内でイベントやそれに類似したイベントが生起したことを検出することは可能である。しかしながら、そのイベントが実際のルールに則しているか否かを判定することは一般には困難である。例えば、スライディング行為であれば、反則行為に該当するスライディングと正当なスライディングとでは、画面全体では類似した画像特徴が現れるため、このイベント検出方法のみでその行為の正当性の判別を高い精度で行うことは困難である。また、ハンドに関しても、ハンドと疑わしきイベント、すなわちボールが身体に衝突したことはこのイベント検出方法で検出可能であるが、実際にその衝突が反則行為であるかどうかは、ボールと腕部との接触の判定を行わなくてはいけない。そのため、このイベント検出方法で検出されたシーンを後段の接触判定処理によって再度判定を行う必要がある。
ルール記憶部204は、予め定められた複数種のイベント(上記の場合、全てのλl)のそれぞれに対し、画像から該イベントが検出された場合に、該画像から検出すべきオブジェクトの種別を管理している。例えば、ルール記憶部204は、図3に例示するテーブル情報を保持している。
図3に示したテーブル情報は、サッカーにおいて反則行為があったか否かを判断するためのテーブル情報である。しかし、他のスポーツにおいて反則行為があったか否かを判断するためには、そのスポーツで生じうるイベント、該イベント発生時に接触判定を行う対象、速度や加速度といった情報を用いてその動きを判定する対象、をルール記憶部204に登録する必要がある。
図3のテーブル情報によれば、イベント「スライディング」に対して接触判定対象として「足」、「ボール」が登録されている。即ち、画像からイベントとして「スライディング」を検出した場合には、実際に現実空間中で接触があったか否かを判定する為に画像から検出するオブジェクトが「足」、「ボール」であることが登録されている。また、イベント「スライディング」に対して加速度判定対象として「ボール」が登録されている。即ち、画像からイベントとして「スライディング」を検出した場合には、実際に現実空間中で接触があったか否かを判定する為に加速度を判定するオブジェクトが「ボール」であることが登録されている。なお、加速度判定対象の代わりに、他の指標の判定対象を登録するようにしてもかまわない。
図2に戻って物体検出部205は、イベント検出部203がイベントを検出した検出元の画像を映像記憶部202から読み出し、該読み出した画像から該イベントに関連付けて上記のテーブル情報に登録されている接触判定対象としてのオブジェクトを検出する。例えば、イベント検出部203で検出されたイベントが「スライディング」である場合、物体検出部205は、「スライディング」に関連付けて上記のテーブル情報に接触判定対象として登録されているオブジェクトである「足」、「ボール」を画像から検出する。
ボール等の特定の物体の検出は例えば、Hough変換による円検出を用いることができる。また、下記の文献2に記載の顔検出アルゴリズムのように、複数のシーンから切り出したボールの画像を訓練サンプルとして学習した検出器を用いてボールを検出することもできる。
<文献2>
Paul Viola and Michael J. Jones, “Rapid Object Detection using a Boosted Cascade of Simple Features,” IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'01)
人体部位の検出に関しては例えば、下記の文献3に記載の方法にあるように、人物画像とその3次元の姿勢データが対になったデータセットから、姿勢データが類似した特定の部位の画像のみを訓練サンプルとして学習を行った検出器を用いることが可能である。
<文献3>
Lubomir Bourdev and Jitendra Malik, ”Poselets: Body Part Detectors Trained Using 3D Human Pose Annotations,” ICCV 2009
図4(a)に示す如く、フレーム1の画像からイベントとして「スライディング」が検出された場合、該画像から「足」の領域321、「ボール」の領域311が検出される。また、図4(b)に示す如く、フレーム2の画像からイベントとして「スライディング」が検出された場合、該画像から「足」の領域322、「ボール」の領域312が検出される。また、図4(c)に示す如く、フレーム3の画像からイベントとして「スライディング」が検出された場合、該画像から「足」の領域323、「ボール」の領域313が検出される。
なお、図4では、オブジェクトの検出結果として、該オブジェクトの検出枠を求めているが、該オブジェクトのエッジに沿った領域を検出結果としても良いし、検出結果の表現方法は他の方法も考え得る。
このように、物体検出部205は、検出されたイベントに応じたオブジェクトを画像から検出する。然るに同様の目的を達成できるのであれば、如何なる技術を採用してもかまわない。
図2に戻って、接触判定部206は、物体検出部205が検出したオブジェクト同士が、現実空間中で接触しているか否かを判断する。ここでは、一例として、画像からイベントとして「スライディング」が検出され、該画像から「足」、「ボール」が検出されたケースを例に挙げて接触判定部206の動作を説明する。しかし、以下の説明は他のオブジェクト同士の接触判定にも適用可能であるし、他の接触判定方法を採用しても良い。
イベント検出部203がフレームtの画像から「スライディング」を検出したとすると、接触判定対象は「足」、「ボール」であるため、物体検出部205は該画像から「足」と「ボール」を検出する。接触判定部206は、加速度判定対象は「ボール」であるので、「ボール」については画像上における速度と加速度を求め、接触判定対象のうち加速度判定対象ではない「足」については画像上における速度のみを求める。
ここで、スライディングが開始されてから終了するまでには数フレームを要するため、スライディングを初めて検出したフレームから数フレームは連続してスライディングが検出されるはずである。そこで、フレームtの画像から「スライディング」を検出したとすると、フレームtから過去のフレームにさかのぼって、「スライディング」が検出されたフレーム群を映像記憶部202から特定し、該フレーム群を以下の処理対象(対象画像)とする。然るに、本実施形態では、あるフレームについてイベントを検出すると、該フレームと該フレームから検出したイベントとを関連付けて適当なメモリに関しておく必要がある。また、ここでは説明をわかりやすくするために、フレーム1〜tの各フレームの画像において「スライディング」が検出されたものとする。
接触判定部206は先ず、フレーム3〜tの各フレームの画像について、該画像上における「ボール」の速度及び加速度、「足」の速度、を求める。フレームtの画像上におけるボールの速度、加速度は、フレームt〜(t−2)のそれぞれの画像から物体検出部205によって検出された「ボール」の検出位置を用いれば求めることができる。フレームtの画像から検出された「ボール」の位置をx、フレーム(t−1)の画像から検出された「ボール」の位置をxt−Δt、フレーム(t−2)の画像から検出された「ボール」の位置をxt−2Δtとする。このとき、フレームtにおける画像上の「ボール」の速度v、加速度aは下記の式により計算することができる。
Figure 2013232181
ここで、Δは、フレーム間隔時間を表す。また、フレームt、(t−Δt)のそれぞれの画像から検出された「足」の位置をx、xt−Δtとすれば、式3により、フレームtにおける画像上の「足」の速度を求めることができる。このような処理を、フレーム3〜tの各フレームの画像について行うことで、該画像上における「ボール」の速度及び加速度、「足」の速度、を求めることができる。
フレーム1〜3の各フレームの画像上における「ボール」の検出位置を図5に示す。縦軸はy座標値、横軸はx座標値を示している。また、各フレームの画像上における「ボール」の速度を図6(a)に示す。図6(a)において、縦軸はフレーム番号、横軸は速度を示している。また、各フレームの画像上における「ボール」の加速度を図6(b)に示す。図6(b)において、縦軸はフレーム番号、横軸は加速度を示している。
また、接触判定部206は、フレーム3〜tの各フレームの画像について、該画像上における「ボール」の検出位置x ballと「足」の検出位置x footと、の間の距離dtを求める。この計算は、以下の式を計算することで求めることができる。
Figure 2013232181
距離dtは、「ボール」、「足」のそれぞれの検出枠間の距離であっても良いし、それぞれの輪郭間の距離であっても良い。「足」の検出枠の中心位置x footと「ボール」の検出枠の中心位置x ballと、の間の距離を図7に示す。図7において横軸はフレーム番号、縦軸は距離dtを示している。
次に、接触判定部206は、求めた距離dtのうち、閾値以下となるdtを満たすtの区間を特定する。図7の場合、点線は閾値を示しており、この場合、点線よりも下のtの区間を特定する。
そして接触判定部206は、特定した区間内の各フレーム番号を改めてtとすると、先ず、フレームtにおけるボールの加速度の大きさ|a|が閾値以上か否かを判断する。そして、加速度の大きさ|a|が閾値以上であった場合、フレーム(t+1)におけるボールの加速度と足の速度の方向が一致しているか否かを、以下の式のsが閾値(>0)以上であるか否かを判断することで行う。
Figure 2013232181
そして接触判定部206は、t=t’においてこのsが閾値以上であれば、フレームt’において「足」と「ボール」とは接触したものと判断する。
結果表示部207は、sが閾値以上となったフレームの画像を、行動認識装置200に接続されている表示装置に表示する。表示形態については特定の表示形態に限るものではなく、例えば、図4(b)に示す如く、画像上に「足」、「ボール」のそれぞれの検出枠を合成して表示しても良い。また、sが閾値以上となったフレームの前後数フレームの画像をスロー再生して表示しても良い。もちろん、このスロー再生する各フレームの画像上に検出枠を合成して表示しても良い。
次に、以上説明した行動認識装置200の動作について、図8及び図9のフローチャートを用いて説明する。図8及び図9のフローチャートに従った処理は、1フレーム分の画像に対して行う処理のフローチャートであるので、実際には、各フレームについて図8及び図9のフローチャートに従った処理を行うことになる。以下の説明では、フレームtの画像に対する処理について説明する。なお、各ステップにおける処理の詳細については上記の通りであるため、ここでは簡単に説明する。
ステップS101では、イベント検出部203は、画像入力部201から受けたフレームtの画像中で生じているイベントを検出する。
ステップS102では、物体検出部205は、ステップS101で検出したイベントと関連づけてルール記憶部204に接触判定対象として登録されているオブジェクトを特定する。
ステップS103では、物体検出部205は、イベントを検出した検出元のフレームtから過去のフレームにさかのぼって、ステップS101で検出したイベントと同イベントが検出されたフレーム群(一部でも良い)を映像記憶部202から読み出す。
ステップS104では、物体検出部205は、ステップS103で読み出した各フレームの画像(フレームtの画像を含む)から、ステップS102で特定したオブジェクトを検出する。
ステップS105では、接触判定部206は、ステップS103で読み出した各フレームの画像について、該画像上における、ステップS102で特定したオブジェクトの速度及び加速度(オブジェクトによっては速度のみ)を求める。
ステップS106では、接触判定部206は、ステップS103で読み出した各フレームの画像について、該画像上における、ステップS102で特定したオブジェクトの検出位置間の距離を求める。
ステップS107では、接触判定部206は、ステップS106で求めた距離のうち、閾値以下となるフレーム区間を特定する。
ステップS108では、接触判定部206は、ステップS106で求めた距離のうち、閾値以下となるフレーム区間が存在したか否か、即ち、ステップS107で1以上のフレームを特定することができたのか否かを判断する。この判断の結果、特定することができたのであれば、処理はステップS109に進み、特定することができなかった場合には、本フレームに対する処理は終了する。
ステップS109では、接触判定部206は、ステップS107で特定したフレームのうち未選択の1つを選択フレームとして選択する。そしてステップS110では接触判定部206は、選択フレームの画像における第1のオブジェクト(上記の例ではボール)の加速度の大きさが閾値以上か否かを判断する。この判断の結果、加速度の大きさが閾値以上であれば、処理はステップS111に進み、加速度の大きさが閾値未満であれば、処理はステップS113に進む。
ステップS111では、接触判定部206は、選択フレームの1フレーム後のフレームにおける第1のオブジェクトの加速度と第2のオブジェクト(上記の例では足)の速度の方向が一致しているか否かを判断する。即ち上記の通り、上記のsが閾値(>0)以上であるか否かを判断する。この判断の結果、sが閾値以上であれば、処理はステップS112に進み、sが閾値未満であれば、処理はステップS113に進む。
ステップS112では、接触判定部206は、選択フレームのフレーム番号など、該選択フレームを特定するための情報を行動認識装置200がアクセス可能なメモリに格納する。
ステップS113では、接触判定部206は、ステップS107で特定したフレームの全てを選択フレームとして選択したか否かを判断する。この判断の結果、全てを選択フレームとして選択したのであれば、処理はステップS114に進み、まだ選択していないフレームが残っている場合には、処理はステップS109に戻る。
ステップS114では、結果表示部207は、ステップS112でメモリに記録した情報によって特定されるフレームの画像を、行動認識装置200に接続されている表示装置に表示する。
即ち、本実施形態では、スポーツの試合を撮像している撮像装置から出力される各フレームの画像を順次取得する。そして、該画像中の状況を該画像に対する認識処理により認識し、該認識した状況が規定の状況の場合、該画像及び該画像より過去のフレームで該規定の状況が認識された画像の各画像から、該規定の状況に予め関連付けられている種別のオブジェクトを検出する。そして、オブジェクトの検出位置を用いて、該オブジェクト同士が現実空間中で接触しているのか否かを判断する。
より詳しくは、上記各画像のうち、規定の状況を構成する第1のオブジェクト及び第2のオブジェクトのそれぞれの該画像上の検出位置の間の距離が閾値以下となる画像を対象画像とする。そして、第1のオブジェクトの対象画像上の加速度の大きさが閾値以上且つ該加速度を表すベクトルと第2のオブジェクトの対象画像上の速度を表すベクトルとのなす角が閾値よりも小さい場合、それぞれのオブジェクトとが現実空間中で接触していると判断する。
[第2の実施形態]
第1の実施形態では、1台の撮像装置によって撮像されたフレームの画像を処理対象としたが、本実施形態では、それぞれ視点が異なる複数台の撮像装置によってスポーツの試合を撮像する。行動認識装置200は、それぞれの撮像装置のうち、最も接触判定に適した画像を撮像する撮像装置を選択し、選択した撮像装置による撮像画像を用いて第1の実施形態と同様の動作を行う。以下では、第1の実施形態との差分のみについて説明し、以下で特に触れない限りは、第1の実施形態と同様である。
画像入力部201は、複数台の撮像装置のそれぞれから出力される各フレームの画像を順次取得し、取得した画像を映像記憶部202に格納すると共に、イベント検出部203に対して出力する。
イベント検出部203は、画像入力部201から受けた画像中に写っている状況を該画像に対する認識処理によって認識することで、該画像中で生じているイベントを検出する。例えば、イベント検出部203は、N(Nは2以上の自然数)台の撮像装置のそれぞれからフレームtの画像を取得したとする。このときイベント検出部203は、i(1≦i≦N)番目の撮像装置から取得したフレームtの画像について上記のイベント生起確率確率(状況生起確率)Pr(i)(λc|O1:T)を求める。そして、i=1,2,…,Nについて求めたイベント生起確率のうち最も大きい確率がPr(j)(λc|O1:T)(1≦j≦N)であり且つPr(j)(λl|O1:T)が閾値以上であったとする。このときイベント検出部203は、j番目の撮像装置から取得したフレームtの画像中でイベントλcが生じていると判断する。
そして、以降は第1の実施形態と同様であるが、物体検出部205、接触判定部206、結果表示部207は何れも、j番目の撮像装置から取得した画像を用いて処理を行い、j番目の撮像装置以外の撮像装置から取得した画像は用いない。
[第3の実施形態]
本実施形態では、ボクシング競技における、パンチの当たり判定を行う。図11は、ボクシングの試合中に人物410と人物420が互いにパンチを打っている状況を撮像した画像を示している。また、図12は、図11の状況を上部から見た模式図である。411は人物410の頭部、412は人物410の左拳である。また、421は人物420の頭部、422は人物420の右拳である。人物410と人物420の周囲には、カメラ431、カメラ432、カメラ433が配置されている。各カメラから延びる点線は、各カメラの画角を示す。図11は、カメラ432から撮った画像である。図11の画像では、頭部411と右拳422には重複が見られる。また、カメラ433から得られる画像においても同様に頭部411と右拳422に重複が見られる。しかしながら、カメラ431の視点からは、頭部411と右拳422には重複が生じず、接触をしていないことがわかる。本実施形態に係る行動認識装置は、以上の現象を利用して対象物体同士の接触状態の判定を行う。
本実施形態でも第1の実施形態と同様の構成を有する行動認識装置200を用いるが、本実施形態でも第2の実施形態同様、複数台の撮像装置が行動認識装置200に接続されている。
画像入力部201は、複数台の撮像装置のそれぞれから出力される各フレームの画像を順次取得し、取得した画像を映像記憶部202に格納すると共に、イベント検出部203に対して出力する。
イベント検出部203は、画像入力部201から受けた画像中に写っている状況を該画像に対する認識処理によって認識することで、該画像中で生じているイベントを検出する。本実施形態では、パンチを放つ動作が生じたことをイベントとして検出する。
物体検出部205は、イベント検出部203がイベントを検出した検出元の画像から過去数フレーム分の画像を映像記憶部202から読み出す。そして、該読み出したそれぞれの画像について、該画像から検出したイベントに関連付けて上記のテーブル情報に登録されている接触判定対象としてのオブジェクトを該画像から検出する。本実施形態では、頭部とグローブを検出する。
頭部の検出を行う場合、カメラの角度によっては、グローブによるオクルージョンが生じる。オクルージョンに対応した物体検出方法には、上記の文献3に開示される方法がある。文献3ではまず、物体を構成する部分を検出し、その検出結果をvotingにより加算することで、物体全体の検出結果を得る。このため、本実施形態のように、グローブによるオクルージョンがある程度生じた場合においても、頭部の検出と定位を正しく行うことが可能である。オクルージョンの割合が大きく、頭部のほとんどが隠れている場合は、文献3の方法によっても検出ができない。この場合、頭部の検出がされなかった視点からの画像は、接触判定には寄与しないものとする。
接触判定部206は、物体検出部205が頭部及びグローブを検出した各画像について、該画像上の頭部の検出位置とグローブの検出位置との間の距離を求め、全ての画像について求めた距離が閾値以下であれば、頭部とグローブとは接触状態にあると判定する。
結果表示部207は、接触状態にあると判定されたフレームのうち1つを選択し、行動認識装置200に接続されている表示装置に表示する。表示形態については第1の実施形態と同様、特定の表示形態に限るものではない。
次に、以上説明した行動認識装置200の動作について、図10のフローチャートを用いて説明する。図10のフローチャートに従った処理は、1フレーム分の画像に対して行う処理のフローチャートであるので、実際には、各フレームについて図10のフローチャートに従った処理を行うことになる。以下の説明では、フレームtの画像に対する処理について説明する。なお、各ステップにおける処理の詳細については上記の通りであるため、ここでは簡単に説明する。
ステップS301では、イベント検出部203は、画像入力部201から受けた、それぞれの撮像装置による撮像画像であるフレームtの画像中で生じているイベントを検出する。
ステップS302では、物体検出部205は、それぞれの撮像装置によるフレームtの画像のうちイベントを検出した検出元の画像ごとに、該画像から過去数フレーム分の画像を映像記憶部202から読み出す。
ステップS303では、物体検出部205は、イベントを検出した検出元の画像ごとに映像記憶部202から読み出した過去数フレーム分の画像のうち未選択のkフレーム目の画像を選択する。
ステップS304では、接触判定部206は、イベントを検出した検出元の画像ごとに選択したkフレーム目の画像から頭部とグローブとを検出する。
ステップS305では、接触判定部206は、イベントを検出した検出元の画像ごとに選択したkフレーム目の画像のうち、頭部とグローブとを検出できた画像を選択画像として選択する。
ステップS306では、接触判定部206は、全ての選択画像について、該選択画像上の頭部の検出位置とグローブの検出位置との間の距離を求める。そして、全ての選択画像について求めた距離が閾値以下であれば、処理はステップS307を介してステップS309に進み、1以上の距離が閾値よりも大きい場合は、処理はステップS307を介してステップS308に進む。
ステップS308では、物体検出部205は、イベントを検出した検出元の画像ごとに映像記憶部202から読み出した過去数フレーム分の画像を全て選択したか否かを判断する。この判断の結果、全て選択した場合には、処理はステップS309に進み、まだ選択していない画像が残っている場合には、処理はステップS303に進む。
ステップS309では、結果表示部207は、接触状態にあると判定されたフレームのうち1つを選択し、行動認識装置200に接続されている表示装置に表示する。表示形態については第1の実施形態と同様、特定の表示形態に限るものではない。
[第4の実施形態]
図2に示した各部はハードウェアで構成しても良いが、映像記憶部202及びルール記憶部204をハードディスクドライブ装置などのメモリ装置で構成し、その他の各部をコンピュータプログラムで構成しても良い。この場合、行動認識装置200には、一般のPC(パーソナルコンピュータ)等のコンピュータを適用することができる。
例えば、PCのハードディスクドライブ装置に映像記憶部202及びルール記憶部204が記憶するものとして説明したデータ群を格納する。更に、ハードディスクドライブ装置に、画像入力部201、イベント検出部203、物体検出部205、接触判定部206、結果表示部207、の各部が行うものとして上述した各処理をPCのCPUに実行させる為のコンピュータプログラムやデータを格納する。これによりCPUは、ハードディスクドライブ装置に格納されているコンピュータプログラムやデータをRAM等のメモリにロードし、該コンピュータプログラムやデータを用いて処理を実行することができる。これにより、CPUは、行動認識装置200が行うものとして上述した各処理を実行することができる。
[第5の実施形態]
本実施形態では、監視カメラにおいて、物体の置き去りを検知し、さらに置き去りをした人物の特定を行う例について説明する。監視カメラの中には、映像認識機能により、物体の置き去りや持ち去りの検知機構を備えているものがある。物体の置き去りとは、監視しているシーン中に、鞄などの物体が置かれる状態を指し、テロ防止の観点からこれを検知する認識機能が開発されてきた。物体の持ち去りとは、監視しているシーン中から、絵などの物体が持ち去られる状態を指し、盗難防止の観点からこれを検知する認識機能が開発されてきた。
物体の置き去りや持ち去りの検知は、あらかじめ撮影された映像と、現在撮影された映像と、を比較する背景差分法により、比較的簡単な映像処理により実現することができる。本実施形態では、置き去りを検知した後、さらなる映像認識処理により、置き去りを行った人物の特定を行う。
図13は、街路に設置された監視カメラが撮影した映像のうち、3フレーム分の画像を示したものである。図13(a)は置き去りが発生する前の時点におけるフレームの画像を示し、図13(b)は置き去りが発生した後の時点におけるフレームの画像を示し、図13(c)は置き去りが発生した瞬間のフレームの画像を示している。図13(a)〜(c)において、601、602、603、604、605、606、608、609、610はそれぞれ異なる人物を示しており、607は置き去りされた物体を示している。
画像処理装置として機能する本実施形態に係る行動認識装置の機能構成例は、図19のブロック図で表される。図19に示した構成は、図2の構成に通報部208を加えた構成となっている。通報部208は、行動認識の結果を受けてその結果を外部に通報するための機能部であり、監視カメラに備えられたスピーカや、外部への通信回線等によって構成される。本実施形態における行動認識装置の動作について、図15のフローチャートを用いて説明する。
ステップS501では、イベント検出部203が、画像入力部201から受けた画像から、置き去りイベントを検出する。置き去りイベントの検出は、例えば次のようにして行う。予め撮影していた背景画像と入力フレームの画像との差分画像を作成し、差分画像における着目差分領域(フレーム間で異なる領域)が一定フレーム数以上差分画像から得られる場合に置き去りがあったものと判断する、一般的なアルゴリズムによって行う。なお、置き去りイベントの検出は、置き去りを検出できる手法であれば、どのような手法でなされてもよい。
ステップS502では、物体検出部205は、置き去りイベントが検出された場合に、置き去りの発生した瞬間のフレームの画像(ステップS501で背景画像と差分を計算したフレームの画像)を映像記憶部202から読み出す。図13(c)は、ステップS502で読み出されるフレームの画像を図示したものである。
ステップS503では、物体検出部205は、ステップS502で読み出した画像から、置き去り物体が写っている領域を含む矩形領域を切り出す。例えば、ステップS502で読み出した画像から、置き去り物体が写っている領域を中心として、あらかじめ定められた大きさの矩形領域を切り出す。図14は、ステップS503で図13(c)の画像から切り出された部分画像を示したものである。
ステップS504では、物体検出部205は、ステップS503で切り出された部分画像中から人が写っている領域を検出する。人が写っている領域の検出に関しては例えば、下記の文献4に記載の方法にあるように、HOG特徴量を用いて人が写っている領域を検出する手法を用いることができる。HOG特徴量とは局所領域の輝度の勾配方向と強度をヒストグラム化したものであり、人などのテクスチャの多様な物体に有効な特徴量である。
<文献4>
N.Dalal and B.Triggs, “Histograms of Oriented Gradients for Human Detection,” CVPR 2005
図14中の611および612は、ステップS504で検出された領域をバウンディングボックスで示したものである。ステップS505では、物体検出部205は、人が写っている領域から人の手を検出する。手の検出を行う理由は、物体の置き去りが専ら手によってなされるからである。手の検出は、第1の実施形態と同様に、例えば文献3に示される検出器を用いた方法によってなされる。
手の検出を行う際には、合わせて、検出した手がどの人に属するかを検出するものとしてよい。例えば、下記の文献5に記載のDeformable Parts Model手法は、人の全身を捉える検出ウィンドウと、人の部位を捉えるフィルタとの位置関係を用いて人体を検出することができる手法である。このような手法を用いれば、手を検出した際に、その手がどの人体に属するかを同時に検出することができる。
<文献5>
P. F. Felzenszwalb, et al., “Object Detection with Discriminatively Trained Part Based Models,” PAMI 2009
ステップS506では、接触判定部206は、ステップS505で検出した手が、置き去り物体と接触しているか否かを判定する。この判定は、置き去り物体のバウンディングボックスと、検出された手のバウンディングボックスと、がそれぞれ重なりあう領域を持つかどうかをチェックすることによってなされる。例えば、図14において、検出された手613のバウンディングボックスと、置き去り物体607のバウンディングボックスと、は重なっているため、手と置き去り物体は接触しているものとして判定する。
ステップS507では、結果表示部207は、ステップS506における判定結果に係る表示を行う。図6の例では、置き去り物体607と接触している手613の、最も近傍にある人体609を、置き去った人物として特定し、該人体609を画面上で強調表示する。例えば、各フレームの画像を表示する際に、人体609のバウンディングボックスを表示したり、これを点滅表示させたりする。
あるいは、ステップS505において、検出した手がどの人体に属するかを検出していた場合には、接触している手613の属する人体609を、置き去った人物として特定する。
この過程においては、結果の表示に止まらず、通報部208は、通報を行うものとしてよい。たとえば、監視カメラに備えられたスピーカから警告音を発したり、警察や警備会社への通報を行い、さらに撮影した画像(例えば結果表示部207が表示した画像)を送信するものとしてよい。
以上の動作を行う行動認識装置を備えることで、監視カメラを用いて物体の置き去りを検知し、さらに置き去り人物の特定を行うシステムを実現することができる。本実施形態では置き去り人物の特定について記述したが、同様の手法で、盗難など持ち去り人物の特定を行うシステムを実現することができる。
[第6の実施形態]
本実施形態では、小売店舗のレジ近辺を撮影するよう配置された監視カメラにおいて、従業員に対する暴力行為を検知する例について記述する。図16は、本実施形態において、監視カメラが撮影した映像中の1フレームを例示したものである。図16(a)は客が従業員に対して代金を払っている瞬間を撮影した画像を示し、図16(b)は客が従業員に対して暴力を振るっている瞬間を撮影した画像を示す。
画像処理装置として機能する本実施形態に係る行動認識装置の機能構成例は、第5の実施形態と同様、図19のブロック図で表される。本実施形態に係る行動認識装置の動作について、図17のフローチャートを用いて説明する。
ステップS601では、イベント検出部203が、画像入力部201から受けた画像から、レジ付近で起こったイベントを検出する。本実施形態において、このイベント検出は、図16(a)中に示される、レジ701が写っている領域の情報から予め求めて設定された矩形領域702の中の画素値の変化を観測することによってなされる。イベント検出部203は、矩形領域702中の画素値の変化量の合計が、あらかじめ定められた閾値以上であるとき、レジ近辺で何らかのイベントが起こったものと判定する。
ステップS602では、物体検出部205は、ステップS601で何らかのイベントが発生したと判定された各フレームの画像を、映像記憶部202から読み出す。ステップS603〜ステップS607までのループは、接触判定ループであり、ステップS602で読み出された各フレームの画像を、先頭フレームから順番に処理する手順を示している。本実施形態では、ステップS602で読み出した全てのフレームについてこのループが繰り返される。しかし、これに限らず、例えば先頭フレームから5フレームごとにフレームを取り出し、取り出したフレームの画像に対してループ中の処理を実行するものとしてもよい。
ステップS604では、物体検出部205は、ステップS602で読み出された各フレームの画像のうち未処理の画像を1つ選択画像として選択し、該選択画像から、第5の実施形態と同様の手法により、人が写っている領域を検出する。図16中の703はステップS604において検出された従業員の人体を示しており、704は客の人体を示している。
ステップS605では、物体検出部205は、選択画像からレジが写っている領域を挟んだ両側に人体が検出されたか、すなわち、従業員と客が検出されたかどうかを判定する。検出された場合には、処理はステップS606に進み、検出されていない場合には、処理はステップS603に戻る。
ステップS606では、物体検出部205は、選択画像から手を検出する。ここで、手の検出を行う理由は、従業員に対する暴力が手によってなされることを想定しているためである。手の検出は、第1の実施形態と同様に、例えば文献3に示される検出器を用いた方法によってなされる。図16中の705は、このようにして検出された手のバウンディングボックスを示している。この過程において検出された手は、従業員と客のいずれに属するかが合わせて判定される。
ステップS607では、接触判定部206は、ステップS606で検出された手が、人体と接触しているか否かを判定する。この判定は、図18のフローチャートに示される処理によってなされる。
図18においてステップS701では、接触判定部206は、背景差分処理によって、選択画像から従業員の領域のみを切り出す。画像から特定の被写体の領域を切り出す方法については上記の通りである。
そしてステップS702では、接触判定部206は、切り出された従業員の領域から、ステップS606で検出した従業員の手の領域を削除した残りの領域を対象領域として特定する。そしてステップS703では、接触判定部206は、対象領域、即ち、従業員の体の領域が、ステップS606で検出された客の手の領域と重なるか否かを判定する。
図18に示される処理の流れにおいて、従業員の手の領域を接触判定の対象から外しているのは、レジにおいておつりのやりとりの際などに頻繁に発生する、従業員と客の手同士の接触を接触判定の対象から外すためである。
図6に戻って、ステップS602で読み出した全てのフレームについてステップS603〜S607までの処理を行うと、処理はステップS608に進む。ステップS608では、結果表示部207は、結果の表示を行う。すべてのフレームについて、客の手と従業員の体に接触が見られなかった場合には、何の表示も行われない。客の手と従業員の体に接触があった(従業員の体の領域が、ステップS606で検出された客の手の領域と重なる)場合には、該当するフレームの画像において、検出された人体領域を示すバウンディングボックスを赤色で描画し、画像に合成する。もちろん、表示形態はこれに限るものではない。これに加えて若しくは代わりに、客の領域を示すバウンディングボックスを赤色で描画し、画像に合成してもよいし、もちろん、表示形態はこれに限るものではない。
この過程においては、結果の表示に止まらず、通報部208により、店舗の外部への通報を行うものとしてよい。たとえば、店舗の外部に設置したライトを点滅させたり、警察や警備会社への通報を行い、さらに撮影した画像を送信するものとしてよい。
<第1乃至3の実施形態の効果>
第1の実施形態では、スライディング動作を検知し、スライディング動作のルール違反の判定のために検出する対象として足とボールとを選択している。これにより、ルールの判定に必要な物体のみを検出対象とし、計算コストを低減する効果がある。
また、第1の実施形態では、対象物体間の距離が閾値よりも小さくなった時刻に、対象物体の速度・加速度の変化が生じていることを用いて、接触の判定を行っている。これにより、静止画だけを用いるよりもより正確に接触判定を行うことができる効果がある。
また、第3の実施形態では、複数の視点から撮影された画像の全てにおいて、物体同士の距離が閾値以内であることを利用して、物体同士の接触の判定を行っている。これにより、ある一方の視点からは判定が難しい場合でも、正しく接触を判定することができるという効果がある。
また、第3の実施形態では、物体が検出された視点の画像を選択して用いることで、撮影された全ての視点の画像を用いずとも対象物体同士の接触判定を行うことが可能になり、接触判定の計算コストを低減することができるという効果がある。
また、第2の実施形態では、複数の視点の画像から、イベント検出部の出力が高くなるような視点の画像を選択して用いて、接触の判定を行っている。これにより、撮影された全ての視点の画像を用いずとも対象物体同士の接触判定を行うことが可能になり、接触判定の計算コストを低減することができるという効果がある。
また、第3の実施形態では、複数の視点の画像から、物体検出部において対象物体が検出できなかった視点の画像は、接触判定処理には用いない。これにより、全ての視点の画像を用いる場合に比べ、接触判定の精度を向上できるという効果がある。
また、第1乃至3の実施形態では、接触判定に使用した画像に接触判定の根拠となった物体検出枠を重畳して表示している。これにより、ユーザーが判定結果を容易に確認できるという効果がある。
<第1乃至3の実施形態に対する定義等>
上記の各実施形態で用いた「イベント」とは、スポーツ中の特定のプレイ、特定の動作など、スポーツにおける行為や状況であればどのようなものであってもよく、上記の実施形態で説明したものに限らない。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (8)

  1. 撮像装置から出力される各フレームの画像を順次取得する手段と、
    前記画像中に写っている状況を該画像に対する認識処理によって認識し、該認識した状況が規定の状況であれば、該画像及び該画像を含む各フレームの画像から、該規定の状況に関連する種別のオブジェクトを検出する検出手段と、
    前記検出手段が検出したそれぞれのオブジェクトの画像からの検出位置を用いて、オブジェクト同士が現実空間中で接触しているのか否かを判断する判断手段と
    を備えることを特徴とする画像処理装置。
  2. 前記判断手段は、
    前記各フレームの画像のうち、前記規定の状況を構成する第1のオブジェクト及び第2のオブジェクトのそれぞれの該画像上の検出位置の間の距離が閾値以下となる画像を対象画像とし、
    前記第1のオブジェクトの前記対象画像上の加速度の大きさが閾値以上且つ、該加速度を表すベクトルと、前記第2のオブジェクトの前記対象画像上の速度を表すベクトルと、のなす角が閾値よりも小さい場合には、前記第1のオブジェクトと前記第2のオブジェクトとが現実空間中で接触していると判断することを特徴とする請求項1に記載の画像処理装置。
  3. 前記検出手段は、
    複数台の撮像装置のそれぞれから出力された画像中に写っている状況を該画像に対する認識処理によって認識し、該認識した状況が規定の状況であれば、前記複数台の撮像装置のそれぞれから出力された画像のうち該認識の際に計算した状況生起確率が最も大きい画像及び該画像を含む各フレームの画像から、該規定の状況に関連する種別のオブジェクトを検出することを特徴とする請求項1に記載の画像処理装置。
  4. 前記検出手段は、物体の置き去り若しくは持ち去りを行った人物、を検出することを特徴とする請求項1に記載の画像処理装置。
  5. 前記判断手段は、暴力行為があったか否かを判断することを特徴とする請求項1に記載の画像処理装置。
  6. 更に、
    前記判断手段が接触していると判断した結果に対応する情報を通報する通報手段を備えることを特徴とする請求項1に記載の画像処理装置。
  7. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の取得手段が、撮像装置から出力される各フレームの画像を順次取得する工程と、
    前記画像処理装置の検出手段が、前記画像中に写っている状況を該画像に対する認識処理によって認識し、該認識した状況が規定の状況であれば、該画像及び該画像を含む各フレームの画像から、該規定の状況に関連する種別のオブジェクトを検出する検出工程と、
    前記画像処理装置の判断手段が、前記検出工程で検出したそれぞれのオブジェクトの画像からの検出位置を用いて、オブジェクト同士が現実空間中で接触しているのか否かを判断する判断工程と
    を備えることを特徴とする画像処理方法。
  8. コンピュータを、請求項1乃至6の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2013017636A 2012-04-06 2013-01-31 画像処理装置、画像処理方法 Active JP6148480B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013017636A JP6148480B2 (ja) 2012-04-06 2013-01-31 画像処理装置、画像処理方法
US13/854,479 US9699419B2 (en) 2012-04-06 2013-04-01 Image processing apparatus and image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012087934 2012-04-06
JP2012087934 2012-04-06
JP2013017636A JP6148480B2 (ja) 2012-04-06 2013-01-31 画像処理装置、画像処理方法

Publications (3)

Publication Number Publication Date
JP2013232181A true JP2013232181A (ja) 2013-11-14
JP2013232181A5 JP2013232181A5 (ja) 2016-03-10
JP6148480B2 JP6148480B2 (ja) 2017-06-14

Family

ID=49291993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013017636A Active JP6148480B2 (ja) 2012-04-06 2013-01-31 画像処理装置、画像処理方法

Country Status (2)

Country Link
US (1) US9699419B2 (ja)
JP (1) JP6148480B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111385640A (zh) * 2018-12-28 2020-07-07 广州市百果园信息技术有限公司 视频封面的确定方法、装置、设备及存储介质
WO2020149242A1 (ja) * 2019-01-17 2020-07-23 Arithmer株式会社 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。
EP3689236A1 (en) 2019-01-31 2020-08-05 Konica Minolta, Inc. Posture estimation device, behavior estimation device, posture estimation program, and posture estimation method
JP2020166526A (ja) * 2019-03-29 2020-10-08 Arithmer株式会社 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。
JP2020201863A (ja) * 2019-06-13 2020-12-17 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
WO2022196213A1 (ja) * 2021-03-18 2022-09-22 矢崎総業株式会社 見守りシステム
EP4071727A1 (en) 2021-04-06 2022-10-12 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
WO2023112214A1 (ja) * 2021-12-15 2023-06-22 日本電信電話株式会社 注目映像検出装置、方法およびプログラム
JP7465773B2 (ja) 2020-09-17 2024-04-11 京セラ株式会社 システム、電子機器、電子機器の制御方法、及びプログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101937272B1 (ko) * 2012-09-25 2019-04-09 에스케이 텔레콤주식회사 복수 개의 촬영영상으로부터 이벤트를 검출하는 장치 및 방법
US9646387B2 (en) * 2014-10-15 2017-05-09 Comcast Cable Communications, Llc Generation of event video frames for content
DE102016201987A1 (de) * 2015-02-16 2016-08-18 Robert Bosch Engineering and Business Solutions Ltd. Ein Verfahren zum Testen einer durch eine Displayeinrichtung angezeigten Grafik
JP6241796B2 (ja) 2015-12-25 2017-12-06 パナソニックIpマネジメント株式会社 置去り物監視装置およびこれを備えた置去り物監視システムならびに置去り物監視方法
CN106709461B (zh) * 2016-12-28 2019-09-17 中国科学院深圳先进技术研究院 基于视频的行为识别方法及装置
US11205273B2 (en) * 2019-03-11 2021-12-21 Velo Software, Llc Methods and systems of tracking velocity
US11164007B2 (en) * 2019-07-23 2021-11-02 Conduent Business Services, Llc Method and system for detecting the owner of an abandoned object from a surveillance video
DE102019214707A1 (de) * 2019-09-26 2021-04-01 Siemens Mobility GmbH Verfahren, Vorrichtung und Schienenfahrzeug
GB2589904A (en) * 2019-12-12 2021-06-16 Sony Corp A device, computer program and method
CN114842372A (zh) * 2022-03-31 2022-08-02 北京的卢深视科技有限公司 接触式犯规检测方法、装置、电子设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008307658A (ja) * 2007-06-15 2008-12-25 Toyota Motor Corp 自律移動装置
JP2009519510A (ja) * 2005-11-28 2009-05-14 ハネウェル・インターナショナル・インコーポレーテッド 異常な群集の行動の検出
WO2011106888A1 (en) * 2010-03-05 2011-09-09 Interactive Sports Technologies Inc. Apparatus and method for measuring golf club shaft flex and golf simulation system incorporating the same
JP2012048691A (ja) * 2010-08-30 2012-03-08 Secom Co Ltd 画像監視装置
WO2012029518A1 (ja) * 2010-08-31 2012-03-08 オムロン株式会社 挙動解析装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH113499A (ja) * 1997-06-10 1999-01-06 Hitachi Ltd 移動体管理システム,移動体載装置,基地局備装置および移動体管理方法
US6162123A (en) * 1997-11-25 2000-12-19 Woolston; Thomas G. Interactive electronic sword game
WO2003022369A2 (en) * 2001-09-12 2003-03-20 Pillar Vision Corporation Trajectory detection and feedback system
US20050134685A1 (en) * 2003-12-22 2005-06-23 Objectvideo, Inc. Master-slave automated video-based surveillance system
EP1617374A4 (en) 2003-04-11 2008-08-13 Nat Inst Inf & Comm Tech PICTURE IDENTIFIER AND PICTURE IDENTIFICATION PROGRAM
WO2007052285A2 (en) * 2005-07-22 2007-05-10 Yogesh Chunilal Rathod Universal knowledge management and desktop search system
EP2150057A3 (en) * 2008-07-29 2013-12-11 Gerald Curry Camera-based tracking and position determination for sporting events
US8228381B2 (en) * 2008-09-03 2012-07-24 Walter Accurso Video and data capturing system and method
US8477046B2 (en) * 2009-05-05 2013-07-02 Advanced Technologies Group, LLC Sports telemetry system for collecting performance metrics and data
US9053562B1 (en) * 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
JP5848551B2 (ja) 2011-08-26 2016-01-27 キヤノン株式会社 学習装置、学習装置の制御方法、検出装置、検出装置の制御方法、およびプログラム
GB2496591B (en) * 2011-11-11 2017-12-27 Sony Corp Camera Movement Correction
US9999825B2 (en) * 2012-02-23 2018-06-19 Playsight Interactive Ltd. Smart-court system and method for providing real-time debriefing and training services of sport games

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009519510A (ja) * 2005-11-28 2009-05-14 ハネウェル・インターナショナル・インコーポレーテッド 異常な群集の行動の検出
JP2008307658A (ja) * 2007-06-15 2008-12-25 Toyota Motor Corp 自律移動装置
WO2011106888A1 (en) * 2010-03-05 2011-09-09 Interactive Sports Technologies Inc. Apparatus and method for measuring golf club shaft flex and golf simulation system incorporating the same
JP2012048691A (ja) * 2010-08-30 2012-03-08 Secom Co Ltd 画像監視装置
WO2012029518A1 (ja) * 2010-08-31 2012-03-08 オムロン株式会社 挙動解析装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111385640A (zh) * 2018-12-28 2020-07-07 广州市百果园信息技术有限公司 视频封面的确定方法、装置、设备及存储介质
WO2020149242A1 (ja) * 2019-01-17 2020-07-23 Arithmer株式会社 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。
EP3689236A1 (en) 2019-01-31 2020-08-05 Konica Minolta, Inc. Posture estimation device, behavior estimation device, posture estimation program, and posture estimation method
US11298050B2 (en) 2019-01-31 2022-04-12 Konica Minolta, Inc. Posture estimation device, behavior estimation device, storage medium storing posture estimation program, and posture estimation method
JP2020166526A (ja) * 2019-03-29 2020-10-08 Arithmer株式会社 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。
JP2020201863A (ja) * 2019-06-13 2020-12-17 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP7401199B2 (ja) 2019-06-13 2023-12-19 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP7465773B2 (ja) 2020-09-17 2024-04-11 京セラ株式会社 システム、電子機器、電子機器の制御方法、及びプログラム
WO2022196213A1 (ja) * 2021-03-18 2022-09-22 矢崎総業株式会社 見守りシステム
JP7326363B2 (ja) 2021-03-18 2023-08-15 矢崎総業株式会社 見守りシステム
EP4071727A1 (en) 2021-04-06 2022-10-12 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
WO2023112214A1 (ja) * 2021-12-15 2023-06-22 日本電信電話株式会社 注目映像検出装置、方法およびプログラム

Also Published As

Publication number Publication date
US9699419B2 (en) 2017-07-04
JP6148480B2 (ja) 2017-06-14
US20130265434A1 (en) 2013-10-10

Similar Documents

Publication Publication Date Title
JP6148480B2 (ja) 画像処理装置、画像処理方法
JP6013241B2 (ja) 人物認識装置、及び方法
Shao et al. Crowdhuman: A benchmark for detecting human in a crowd
US10965886B2 (en) System and method of generating a composite frame
JP6525453B2 (ja) オブジェクト位置推定システム、及びそのプログラム
CN110648352B (zh) 一种异常事件的检测方法、装置及电子设备
EP3324307B1 (en) Retrieval device, retrieval method, and computer-readable medium
TW201005656A (en) Object matching for tracking, indexing, and search
CN113574866A (zh) 校准捕捉广播视频的移动相机的系统及方法
US10037467B2 (en) Information processing system
CN107305693B (zh) 信息处理装置、信息处理方法及存储介质
Nambiar et al. A multi-camera video dataset for research on high-definition surveillance
JP4886707B2 (ja) オブジェクト軌道識別装置、オブジェクト軌道識別方法、及びオブジェクト軌道識別プログラム
CN111814510A (zh) 一种遗留物主体检测方法及装置
JP4465150B2 (ja) 基準点に対する物体の相対位置を測定するシステムおよび方法
US20190005331A1 (en) Apparatus and method for detecting event based on deterministic finite automata in soccer video
Soman et al. Detection of anomalous behavior in an examination hall towards automated proctoring
CN114581990A (zh) 一种跑步智能测试方法以及装置
Taha et al. Exploring behavior analysis in video surveillance applications
Hsu et al. 2D Histogram-based player localization in broadcast volleyball videos
Yu Automatic basketball tracking in broadcast basketball video
Aljarrah A computer vision system to detect diving cases in soccer
US20240013427A1 (en) Video analysis apparatus, video analysis method, and a non-transitory storage medium
WO2022038702A1 (en) Causal interaction detection apparatus, control method, and computer-readable storage medium
Chen et al. Recognizing jump patterns with physics-based validation in human moving trajectory

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170519

R151 Written notification of patent or utility model registration

Ref document number: 6148480

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151