JP6604019B2 - 画像処理装置、画像処理方法、および画像処理システム - Google Patents
画像処理装置、画像処理方法、および画像処理システム Download PDFInfo
- Publication number
- JP6604019B2 JP6604019B2 JP2015082275A JP2015082275A JP6604019B2 JP 6604019 B2 JP6604019 B2 JP 6604019B2 JP 2015082275 A JP2015082275 A JP 2015082275A JP 2015082275 A JP2015082275 A JP 2015082275A JP 6604019 B2 JP6604019 B2 JP 6604019B2
- Authority
- JP
- Japan
- Prior art keywords
- frame image
- image
- cutout
- unit
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Description
1.画像処理システムの基本構成
2.実施形態の詳細な説明
3.変形例
本開示は、一例として「2.実施形態の詳細な説明」において詳細に説明するように、多様な形態で実施され得る。最初に、本実施形態による画像処理システムの基本構成について、図1を参照して説明する。
カメラ10は、本開示における画像処理装置の一例である。カメラ10は、外環境の動画像を撮影するための装置である。このカメラ10は、人や車の交通量が多い場所や、監視対象の場所などに設置され得る。例えば、カメラ10は、道路、駅、空港、商業用ビルディング、アミューズメントパーク、公園、駐車場、または立ち入り禁止区域などに設置されてもよい。
撮影部100は、外部の映像を、レンズを通して例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子に結像させることにより、フレーム画像を取得する機能を有する。例えば、撮影部100は、所定のフレームレートごとに外部の映像を撮影することにより、フレーム画像を取得する。
映像縮小部102は、撮影部100により取得されたフレーム画像を所定のサイズに縮小することにより縮小画像を生成する。
領域設定部104は、撮影部100により取得されたフレーム画像において、クロッピング画像の生成元となる領域であるクロッピング領域を設定する。例えば、領域設定部104は、撮影部100により取得されたフレーム画像から、カメラ10に設けられている映像クロッピング部106の個数だけクロッピング領域を設定する。
映像クロッピング部106は、本開示における切り出し画像生成部の一例である。映像クロッピング部106は、領域設定部104により設定されたクロッピング領域を、撮影部100により取得されたフレーム画像から切り出すことによりクロッピング画像を生成する。
通信部108は、本実施形態による取得部の一例である。通信部108は、後述する通信網24を介して、通信網24に接続された装置との間で各種の情報の送受信を行う。例えば、通信部108は、映像縮小部102により取得された縮小画像、および、複数の映像クロッピング部106により生成された複数のクロッピング画像をストレージ20へ送信する。また、通信部108は、ユーザにより設定された、クロッピング対象を選択するための検出指定情報を監視端末22から受信する。
ストレージ20は、カメラ10から受信される縮小画像およびクロッピング画像を記憶するための記憶装置である。例えば、ストレージ20は、カメラ10の識別情報、撮影日時、受信された縮小画像、および受信された複数のクロッピング画像を対応づけて記憶する。なお、ストレージ20は、例えばデータセンタや、監視員が勤務する監視センタなどに設置され得る。
監視端末22は、カメラ10により生成された縮小画像およびクロッピング画像を表示するための情報処理端末である。この監視端末22は、例えば監視センタに設置され、そして、監視員に使用され得る。
制御部220は、監視端末22に内蔵されるCPU(Central Processing Unit)、RAM(Random Access Memory)、およびROM(Read Only Memory)などのハードウェアを用いて、監視端末22の動作を全般的に制御する。
通信部222は、後述する通信網24を介して、通信網24に接続された装置との間で各種の情報の送受信を行う。例えば、通信部222は、ストレージ20に格納されている縮小画像およびクロッピング画像をストレージ20から受信する。なお、通信部222は、カメラ10により生成された縮小画像、および複数のクロッピング画像をカメラ10から直接受信することも可能である。
表示部224は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や、OLED(Organic Light Emitting Diode)などのディスプレイにより構成される。この表示部224は、例えば、ストレージ20から受信された縮小画像またはクロッピング画像を含む監視画面などを表示する。
入力部226は、例えばマウス、キーボード、タッチパネル、または、マイクロフォンなどの入力装置を含む。この入力部226は、監視端末22に対するユーザによる各種の入力を受け付ける。例えば、入力部226は、表示部224に表示された評価基準設定画面に対する検出指定情報の入力を受け付ける。
通信網24は、通信網24に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網24は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網24は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
<2−1.構成>
以上、本実施形態による画像処理システムの構成について説明した。次に、本実施形態によるカメラ10の構成について詳細に説明する。
(2−1−1−1.検出例1)
物体検出部120は、例えば監視端末22から受信された検出指定情報に基づいて、撮影部100により取得されたフレーム画像(以下、現在のフレーム画像と称する)における検出枠の中からクロッピング対象の物体を検出する。例えば、物体検出部120は、検出枠に含まれる複数の物体のうち、受信された検出指定情報に含まれる評価項目の評価基準で評価した値が最も高い物体をクロッピング対象として検出する。
また、受信された検出指定情報が評価項目「物体の停止時間」を含む場合には、物体検出部120は、現在の検出対象の物体が停止していると推測される時間の長さと、当該検出指定情報に含まれる停止上限時間との比較に基づいて、検出対象の物体を切り替えるか否かを判断する。
また、後述する重なり判定部124によりクロッピング領域が重なっていると判定された場合には、物体検出部120は、判定されたクロッピング領域のうちいずれかのクロッピング対象の物体を別の物体に切り替えることを判断する。
なお、物体検出部120は、現在のフレーム画像の中から、例えば映像クロッピング部106の個数以内の数など、所定の数の物体を検出することが可能である。
また、物体検出部120は、検出枠の中にクロッピング対象(追跡対象)の物体が存在しない場合には、いずれの物体も検出しないことが可能である。
(2−1−2−1.決定例1)
クロッピング領域決定部122は、本開示における切り出し領域決定部の一例である。クロッピング領域決定部122は、物体検出部120により検出された物体の検出位置が含まれるように、現在のフレーム画像におけるクロッピング領域を決定する。例えば、クロッピング領域決定部122は、物体検出部120により検出された物体の検出位置がクロッピング領域の中心になるように、現在のフレーム画像におけるクロッピング領域を決定する。
なお、物体検出部120によりいずれの物体も検出されなかった場合には、クロッピング領域決定部122は、いずれの領域も出力しないことを決定してもよい。または、上記の場合には、クロッピング領域決定部122は、ホームポジションを含む領域をクロッピング領域として決定してもよい。
重なり判定部124は、クロッピング領域決定部122によりクロッピング領域が決定された際に、受信された検出指定情報に含まれる重なり判定条件に基づいて、当該クロッピング領域が他のクロッピング領域と重なっているか否かを判定する。例えば、重なり判定部124は、クロッピング領域の面積に対する、重なっている領域の面積の割合が所定の閾値以上である場合には、当該クロッピング領域は他のクロッピング領域と重なっていると判定する。また、重なり判定部124は、当該クロッピング領域の中心から他のクロッピング領域までの距離が所定の閾値以下である場合には、当該クロッピング領域は他のクロッピング領域と重なっていると判定する。
以上、本実施形態による構成について説明した。続いて、本実施形態による動作について、図9〜図11を参照して説明する。なお、ここでは、カメラ10が映像クロッピング部106を四個有しており、そして、一枚のフレーム画像から一枚の縮小画像および四枚のクロッピング画像を生成する場面における動作例について説明する。なお、この動作は、所定のフレームレートごとに繰り返し実行される。
図9は、本実施形態による動作例を示したフローチャートである。図9に示したように、まず、カメラ10の撮影部100は、所定の撮影タイミングが到来したら、外部の映像を撮影することによりフレーム画像を取得する(S101)。
ここで、図10〜図11を参照して、S107における「クロッピング画像生成処理」の動作について詳細に説明する。図10に示したように、まず、カメラ10の物体検出部120は、I箇所目のクロッピング対象として設定されている物体、つまり、追跡中の物体を検出する(S151)。
[2−3−1.効果1]
以上、例えば図4、図8〜図11などを参照して説明したように、本実施形態によるカメラ10は、複数の評価項目の中からユーザにより選択された評価項目に基づいて物体を検出し、そして、検出された物体の検出位置が含まれるように、現在のフレーム画像におけるクロッピング領域を決定する。このため、フレーム画像に含まれる複数の物体のうち、最適なクロッピング対象を自動的に選択することができる。また、クロッピング対象の物体をクロッピングする時間の長さに関しても同様に最適化することができる。
また、カメラ10は、クロッピング対象の物体が停止していると推測される時間が停止上限時間を超えた場合には、クロッピング対象の物体を別の物体に切り替え、そして、切り替え後の物体が中心となるようにクロッピング領域を決定する。このため、仮に、一度クロッピング対象に定められた物体が同じ場所に位置し続けたとしても、停止条件時間が経過すれば、クロッピング対象の物体は別の物体に変更される。従って、長時間同じ場所が切り出し領域に設定され続けることを防止できる。
また、クロッピング領域決定部122によるクロッピング領域の決定方法は簡易な方法であるので、カメラ10は、クロッピング画像の生成をリアルタイムに行うことができる。
また、本実施形態によれば、カメラ10単体で縮小画像およびクロッピング画像を生成することが可能である。このため、縮小画像およびクロッピング画像を生成するための例えばサーバなどの他の装置に、カメラ10はフレーム画像を送信する必要がないので、通信量を軽減することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
上述した実施形態では、本開示による画像処理装置がカメラ10である例について説明したが、かかる例に限定されない。例えば、監視端末22(の制御部220)が、カメラ10の代わりに、上述した映像縮小部102、領域設定部104、および、複数の映像クロッピング部106の全てを有する場合には、本開示による画像処理装置は、監視端末22であってもよい。
また、上記の説明では、物体の追跡上限時間、および、物体の停止上限時間は検出指定情報に含まれる値、つまり固定値である例について説明したが、かかる例に限定されず、カメラ10は、追跡上限時間、または、停止上限時間を動的に決定してもよい。例えば、カメラ10は、検出枠ごとに、追跡上限時間、または、停止上限時間を動的に決定してもよい。一例として、カメラ10は、検出枠ごとに、未追跡の物体の数が少ないほど、追跡上限時間を長くしてもよい。また、カメラ10は、検出枠に例えば監視対象領域が含まれる場合には、追跡上限時間をより長くしてもよい。
また、上述した実施形態によれば、例えばCPU、ROM、およびRAMなどのハードウェアを、上述した映像縮小部102、領域設定部104、および、映像クロッピング部106と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。
(1)
動画像に含まれる第1のフレーム画像から第1の物体を検出する物体検出部と、
前記第1の物体の検出位置が含まれるように前記第1のフレーム画像の切り出し領域を決定する切り出し領域決定部と、
を備え、
前記切り出し領域決定部は、前記第1のフレーム画像よりも後の第2のフレーム画像において、前記第1の物体が停止していると推測される時間の長さに基づいて、前記第2のフレーム画像の切り出し領域を決定する、画像処理装置。
(2)
前記切り出し領域決定部は、前記第1の物体が停止していると推測される時間の長さが停止上限時間より大きいか否かに基づいて、前記第2のフレーム画像の切り出し領域を決定する、前記(1)に記載の画像処理装置。
(3)
前記第2のフレーム画像が、前記第1の物体が停止していると推測される時間が前記停止上限時間を超えた際もしくは後のフレーム画像である場合には、前記物体検出部は、前記第2のフレーム画像から第2の物体を検出し、
前記切り出し領域決定部は、前記第2の物体の検出位置が含まれるように前記第2のフレーム画像の切り出し領域を決定する、前記(2)に記載の画像処理装置。
(4)
前記第2のフレーム画像が、前記第1の物体が停止していると推測される時間が前記停止上限時間以下である際のフレーム画像である場合には、前記切り出し領域決定部は、前記第1の物体の検出位置が含まれるように前記第2のフレーム画像の切り出し領域を決定する、前記(2)または(3)に記載の画像処理装置。
(5)
前記第1の物体が停止していると推測される時間の長さは、連続するフレーム画像間での前記第1の物体の検出位置の変化量が所定の範囲内である間の時間の長さである、前記(2)〜(4)のいずれか一項に記載の画像処理装置。
(6)
前記画像処理装置は、ユーザにより指定された停止上限時間の長さを取得する取得部をさらに備え、
前記切り出し領域決定部は、前記第1の物体が停止していると推測される時間の長さが、前記取得部により取得された停止上限時間以上であるか否かに基づいて、前記第2のフレーム画像の切り出し領域を決定する、前記(5)に記載の画像処理装置。
(7)
前記第2のフレーム画像の切り出し領域の形状およびサイズは、前記第1のフレーム画像の切り出し領域と同一である、前記(2)〜(6)のいずれか一項に記載の画像処理装置。
(8)
前記画像処理装置は、前記動画像からの切り出し領域を決定するための複数の目標情報の中からユーザにより選択された目標情報を取得する取得部をさらに備え、
前記切り出し領域決定部は、さらに、前記取得部により取得された目標情報に基づいて、前記第2のフレーム画像の切り出し領域を決定する、前記(2)〜(5)のいずれか一項に記載の画像処理装置。
(9)
前記複数の目標情報は、切り出し領域に対応する切り出し対象の物体を同一に維持する時間の上限値である追跡上限時間を含み、
前記第2のフレーム画像が、前記物体検出部による前記第1の物体の検出の継続時間が前記取得部により取得された追跡上限時間を超えた際もしくは後のフレーム画像である場合には、前記物体検出部は、前記第2のフレーム画像から第2の物体を検出し、
前記切り出し領域決定部は、前記第2の物体の検出位置が含まれるように前記第2のフレーム画像の切り出し領域を決定する、前記(8)に記載の画像処理装置。
(10)
前記物体検出部は、さらに、所定の数の物体を前記第2のフレーム画像から検出し、
前記切り出し領域決定部は、前記所定の数の物体の各々の検出位置に基づいて、前記第2のフレーム画像の中から前記所定の数の切り出し領域をそれぞれ決定する、前記(8)に記載の画像処理装置。
(11)
前記複数の目標情報は、複数の切り出し領域の重なりを判定するための重なり判定条件を含み、
前記取得部により取得された重なり判定条件に基づいて前記所定の数の切り出し領域のうち第1の切り出し領域と第2の切り出し領域とが一部重複すると判定された場合には、前記物体検出部は、前記第2の切り出し領域に対応づけて検出された物体とは異なる第3の物体を前記第2のフレーム画像から検出し、
前記切り出し領域決定部は、前記第3の物体の検出位置が含まれるように前記第2の切り出し領域の位置を変更する、前記(10)に記載の画像処理装置。
(12)
前記動画像において監視対象領域が予め設定されており、
前記複数の目標情報は、切り出し領域に対応する切り出し対象の物体と前記監視対象領域との間の距離の上限値である監視上限距離を含み、
前記第2のフレーム画像が、前記第1の物体と前記監視対象領域との間の距離が前記取得部により取得された監視上限距離を超えた際もしくは後のフレーム画像である場合には、前記物体検出部は、前記第2のフレーム画像から第2の物体を検出し、
前記切り出し領域決定部は、前記第2の物体の検出位置が含まれるように前記第2のフレーム画像の切り出し領域を決定する、前記(8)に記載の画像処理装置。
(13)
前記第2の物体は、前記第2のフレーム画像に含まれる複数の物体のうち前記監視対象領域の最も近くに位置する物体である、前記(12)に記載の画像処理装置。
(14)
前記複数の目標情報は、検出対象の物体の領域サイズ、検出対象の物体の移動速度、検出対象の物体の滞在時間、検出対象の物体の縦横比、または、検出対象の物体が前記動画像の領域外に移動するまでの予測時間を含む、前記(9)〜(13)のいずれか一項に記載の画像処理装置。
(15)
前記画像処理装置は、前記切り出し領域決定部により決定された前記切り出し領域を前記第2のフレーム画像から切り出すことにより切り出し画像を生成する切り出し画像生成部をさらに備える、前記(1)〜(14)のいずれか一項に記載の画像処理装置。
(16)
動画像に含まれる第1のフレーム画像から第1の物体を検出することと、
前記第1の物体の検出位置が含まれるように前記第1のフレーム画像の切り出し領域を決定することと、
前記第1のフレーム画像よりも後の第2のフレーム画像において、前記第1の物体が停止していると推測される時間の長さに基づいて、前記第2のフレーム画像の切り出し領域を決定することと
を備える、画像処理方法。
(17)
動画像に含まれる第1のフレーム画像から第1の物体を検出する物体検出部と、
前記第1の物体の検出位置が含まれるように前記第1のフレーム画像の切り出し領域を決定する切り出し領域決定部と、
前記切り出し領域決定部により決定された前記切り出し領域を前記第1のフレーム画像から切り出すことにより切り出し画像を生成する切り出し画像生成部と、
生成された前記切り出し画像を記憶する記憶部と、
を備え、
前記切り出し領域決定部は、前記第1のフレーム画像よりも後の第2のフレーム画像において、前記第1の物体が停止していると推測される時間の長さに基づいて、前記第2のフレーム画像の切り出し領域を決定する、画像処理システム。
20 ストレージ
22 監視端末
24 通信網
100 撮影部
102 映像縮小部
104 領域設定部
106 映像クロッピング部
108 通信部
120 物体検出部
122 クロッピング領域決定部
124 重なり判定部
220 制御部
222 通信部
224 表示部
226 入力部
Claims (17)
- 動画像に含まれるフレーム画像のうちの第1のフレーム画像から第1の物体を選択し、前記第1のフレーム画像よりも後の第2のフレーム画像において、前記第1の物体が停止していると推測される時間の長さに基づいて、第2のフレーム画像から第2の物体を選択する物体検出部と、
前記選択した物体の検出位置が含まれるように前記フレーム画像の切り出し領域を決定する切り出し領域決定部と、
を備える、
画像処理装置。 - 前記物体検出部は、前記第1の物体が停止していると推測される時間の長さが停止上限時間より大きいか否かに基づいて、前記第2のフレーム画像から前記第2の物体を選択する、請求項1に記載の画像処理装置。
- 前記第2のフレーム画像が、前記第1の物体が停止していると推測される時間が前記停止上限時間を超えた際もしくは後のフレーム画像である場合には、前記物体検出部は、前記第2のフレーム画像から第2の物体を選択する、
請求項2に記載の画像処理装置。 - 前記第2のフレーム画像が、前記第1の物体が停止していると推測される時間が前記停止上限時間以下である際のフレーム画像である場合には、前記物体検出部は、前記第2のフレーム画像から前記第1の物体を選択する、請求項2または3に記載の画像処理装置。
- 前記第1の物体が停止していると推測される時間の長さは、連続するフレーム画像間での前記第1の物体の検出位置の変化量が所定の範囲内である間の時間の長さである、請求項1〜4のいずれか一項に記載の画像処理装置。
- 前記画像処理装置は、ユーザにより指定された停止上限時間の長さを取得する取得部をさらに備え、
前記物体検出部は、前記第1の物体が停止していると推測される時間の長さが、前記取得部により取得された停止上限時間以上であるか否かに基づいて、前記第2のフレーム画像から前記第2の物体を選択する、請求項5に記載の画像処理装置。 - 前記第2のフレーム画像の切り出し領域の形状およびサイズは、前記第1のフレーム画像の切り出し領域と同一である、請求項1〜6のいずれか一項に記載の画像処理装置。
- 前記画像処理装置は、前記フレーム画像から物体を選択するための複数の目標情報の中からユーザにより選択された目標情報を取得する取得部をさらに備え、
前記物体検出部は、さらに、前記取得部により取得された目標情報に基づいて、前記第2のフレーム画像から第2の物体を選択する、請求項1〜5のいずれか一項に記載の画像処理装置。 - 前記複数の目標情報は、切り出し領域に対応する切り出し対象の物体を同一に維持する時間の上限値である追跡上限時間を含み、
前記第2のフレーム画像が、前記物体検出部による前記第1の物体の検出の継続時間が前記取得部により取得された追跡上限時間を超えた際もしくは後のフレーム画像である場合には、前記物体検出部は、前記第2のフレーム画像から第2の物体を選択する、
請求項8に記載の画像処理装置。 - 前記物体検出部は、さらに、所定の数の物体を前記第2のフレーム画像から選択し、
前記切り出し領域決定部は、前記所定の数の物体の各々の検出位置に基づいて、前記第2のフレーム画像の中から前記所定の数の切り出し領域をそれぞれ決定する、請求項1〜9のいずれか一項に記載の画像処理装置。 - 前記画像処理装置は、前記フレーム画像から物体を選択するための複数の目標情報の中からユーザにより選択された目標情報を取得する取得部をさらに備え、
前記複数の目標情報は、複数の切り出し領域の重なりを判定するための重なり判定条件を含み、
前記取得部により取得された重なり判定条件に基づいて前記所定の数の切り出し領域のうち第1の切り出し領域と第2の切り出し領域とが一部重複すると判定された場合には、前記物体検出部は、前記第2の切り出し領域に対応づけて選択された物体とは異なる第3の物体を前記第2のフレーム画像から選択し、
前記切り出し領域決定部は、前記第3の物体の検出位置が含まれるように前記第2の切り出し領域の位置を変更する、請求項10に記載の画像処理装置。 - 前記動画像において監視対象領域が予め設定されており、
前記複数の目標情報は、切り出し領域に対応する切り出し対象の物体と前記監視対象領域との間の距離の上限値である監視上限距離を含み、
前記第2のフレーム画像が、前記第1の物体と前記監視対象領域との間の距離が前記取得部により取得された監視上限距離を超えた際もしくは後のフレーム画像である場合には、前記物体検出部は、前記第2のフレーム画像から第2の物体を選択する、
請求項8に記載の画像処理装置。 - 前記第2の物体は、前記第2のフレーム画像に含まれる複数の物体のうち前記監視対象領域の最も近くに位置する物体である、請求項12に記載の画像処理装置。
- 前記複数の目標情報は、検出対象の物体の領域サイズ、検出対象の物体の移動速度、検出対象の物体の滞在時間、検出対象の物体の縦横比、または、検出対象の物体が前記動画像の領域外に移動するまでの予測時間を含む、請求項8、9または11のいずれか一項に記載の画像処理装置。
- 前記画像処理装置は、前記切り出し領域決定部により決定された前記切り出し領域を前記第2のフレーム画像から切り出すことにより切り出し画像を生成する切り出し画像生成部をさらに備える、請求項1〜14のいずれか一項に記載の画像処理装置。
- 動画像に含まれるフレーム画像のうちの第1のフレーム画像から第1の物体を選択し、前記第1のフレーム画像よりも後の第2のフレーム画像において、前記第1の物体が停止していると推測される時間の長さに基づいて、第2のフレーム画像から第2の物体を選択することと、
前記選択した物体の検出位置が含まれるように前記フレーム画像の切り出し領域を決定することと、
を備える、画像処理方法。 - 動画像に含まれるフレーム画像のうちの第1のフレーム画像から第1の物体を選択し、前記第1のフレーム画像よりも後の第2のフレーム画像において、前記第1の物体が停止していると推測される時間の長さに基づいて、第2のフレーム画像から第2の物体を選択する物体検出部と、
前記選択した物体の検出位置が含まれるように前記フレーム画像の切り出し領域を決定する切り出し領域決定部と、
前記切り出し領域決定部により決定された前記切り出し領域を前記フレーム画像から切り出すことにより切り出し画像を生成する切り出し画像生成部と、
生成された前記切り出し画像を記憶する記憶部と、
を備える、
画像処理システム。
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015082275A JP6604019B2 (ja) | 2015-04-14 | 2015-04-14 | 画像処理装置、画像処理方法、および画像処理システム |
| EP16718488.6A EP3284014B1 (en) | 2015-04-14 | 2016-04-04 | Image processing apparatus, image processing method, and image processing system |
| CN201680019676.2A CN107408300A (zh) | 2015-04-14 | 2016-04-04 | 图像处理装置、图像处理方法和图像处理系统 |
| PCT/JP2016/001897 WO2016166950A1 (en) | 2015-04-14 | 2016-04-04 | Image processing apparatus, image processing method, and image processing system |
| US15/542,685 US10319099B2 (en) | 2015-04-14 | 2016-04-04 | Image processing apparatus, image processing method, and image processing system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015082275A JP6604019B2 (ja) | 2015-04-14 | 2015-04-14 | 画像処理装置、画像処理方法、および画像処理システム |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019190608A Division JP6996538B2 (ja) | 2019-10-17 | 2019-10-17 | 画像処理装置、画像処理方法、および画像処理システム |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2016201756A JP2016201756A (ja) | 2016-12-01 |
| JP2016201756A5 JP2016201756A5 (ja) | 2018-05-10 |
| JP6604019B2 true JP6604019B2 (ja) | 2019-11-13 |
Family
ID=55808811
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015082275A Active JP6604019B2 (ja) | 2015-04-14 | 2015-04-14 | 画像処理装置、画像処理方法、および画像処理システム |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US10319099B2 (ja) |
| EP (1) | EP3284014B1 (ja) |
| JP (1) | JP6604019B2 (ja) |
| CN (1) | CN107408300A (ja) |
| WO (1) | WO2016166950A1 (ja) |
Families Citing this family (28)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6587995B2 (ja) * | 2016-09-16 | 2019-10-09 | 富士フイルム株式会社 | 画像表示制御システム,画像表示制御方法および画像表示制御プログラム |
| JP6936018B2 (ja) | 2017-02-21 | 2021-09-15 | ソニーセミコンダクタソリューションズ株式会社 | 映像送信装置および映像受信装置 |
| US10614688B1 (en) * | 2017-03-01 | 2020-04-07 | Sunflower Labs Inc. | Detecting and identifying activities and events within a property's security perimeter using a configurable network of vibration and motion sensors |
| KR102509132B1 (ko) | 2017-06-09 | 2023-03-13 | 소니 세미컨덕터 솔루션즈 가부시키가이샤 | 영상 송신 장치 및 영상 수신 장치 |
| DE102017215079A1 (de) * | 2017-08-29 | 2019-02-28 | Osram Gmbh | Erfassen von Verkehrsteilnehmern auf einem Verkehrsweg |
| JP7007160B2 (ja) | 2017-11-10 | 2022-01-24 | ソニーセミコンダクタソリューションズ株式会社 | 送信装置 |
| EP3709662B1 (en) | 2017-11-10 | 2025-05-21 | Sony Semiconductor Solutions Corporation | Transmission device |
| JP6572500B1 (ja) * | 2018-03-14 | 2019-09-11 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 画像処理装置、撮像装置、移動体、画像処理方法、及びプログラム |
| CN108566512A (zh) * | 2018-03-21 | 2018-09-21 | 珠海市魅族科技有限公司 | 一种智能拍摄方法、装置、计算机设备及可读存储介质 |
| EP3780629A1 (en) | 2018-04-05 | 2021-02-17 | Sony Semiconductor Solutions Corporation | Transmission device, reception device, and communication system |
| JP6973258B2 (ja) * | 2018-04-13 | 2021-11-24 | オムロン株式会社 | 画像解析装置、方法およびプログラム |
| US11587292B2 (en) * | 2018-07-30 | 2023-02-21 | Disney Enterprises, Inc. | Triggered virtual reality and augmented reality events in video streams |
| JP7484103B2 (ja) * | 2018-07-31 | 2024-05-16 | 株式会社リコー | 通信端末、通信システム、通信方法、及びプログラム |
| US11528429B2 (en) | 2018-09-12 | 2022-12-13 | Sony Corporation | Image processing device, and image processing method |
| JP7584412B2 (ja) | 2019-06-28 | 2024-11-15 | ソニーセミコンダクタソリューションズ株式会社 | 送信装置、受信装置及び伝送システム |
| WO2020261816A1 (ja) | 2019-06-28 | 2020-12-30 | ソニーセミコンダクタソリューションズ株式会社 | 送信装置、受信装置及び伝送システム |
| EP3993390A4 (en) | 2019-06-28 | 2022-08-31 | Sony Semiconductor Solutions Corporation | TRANSMITTER, RECEIVER AND COMMUNICATION SYSTEM |
| CN114009007A (zh) | 2019-06-28 | 2022-02-01 | 索尼半导体解决方案公司 | 发送装置、接收装置和传输系统 |
| TW202107892A (zh) | 2019-07-31 | 2021-02-16 | 日商索尼半導體解決方案公司 | 發送裝置、接收裝置及通信系統 |
| TWI749365B (zh) * | 2019-09-06 | 2021-12-11 | 瑞昱半導體股份有限公司 | 移動影像整合方法及移動影像整合系統 |
| CN112954267B (zh) * | 2019-12-11 | 2023-02-07 | 杭州海康威视数字技术股份有限公司 | 一种用于生成报警视频的摄像机 |
| JP7513639B2 (ja) * | 2020-01-30 | 2024-07-09 | 富士フイルム株式会社 | 表示方法 |
| JP7394151B2 (ja) * | 2020-01-30 | 2023-12-07 | 富士フイルム株式会社 | 表示方法 |
| CN115362688A (zh) | 2020-03-25 | 2022-11-18 | 索尼半导体解决方案公司 | 接收装置和传输系统 |
| WO2021199944A1 (ja) | 2020-03-31 | 2021-10-07 | ソニーセミコンダクタソリューションズ株式会社 | 送信装置、受信装置及び伝送システム |
| US12008881B1 (en) * | 2021-05-28 | 2024-06-11 | Swamcam LLC | Water safety device, system, and method |
| JP7690940B2 (ja) * | 2022-10-24 | 2025-06-11 | トヨタ自動車株式会社 | 情報処理システム及び情報処理システムの処理方法 |
| CN119450187A (zh) * | 2023-07-31 | 2025-02-14 | 北京小米移动软件有限公司 | 拍摄方法、装置、电子设备及介质 |
Family Cites Families (29)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4516665B2 (ja) | 2000-05-19 | 2010-08-04 | パナソニック株式会社 | 監視装置 |
| JP2002092600A (ja) * | 2000-09-19 | 2002-03-29 | Oki Electric Ind Co Ltd | 道路監視装置 |
| JP4421121B2 (ja) * | 2001-02-06 | 2010-02-24 | 株式会社日立国際電気 | 侵入物体検出方法 |
| JP3782368B2 (ja) * | 2002-03-29 | 2006-06-07 | 株式会社東芝 | 物体画像切り出し方法及びプログラム並びに物体画像切り出し装置 |
| JP4186693B2 (ja) | 2003-05-08 | 2008-11-26 | 日本電信電話株式会社 | 部分情報抽出方法及び映像切り出し方法及び映像表示方法及び映像出力方法及び装置及びプログラム及び映像出力プログラムを格納した記憶媒体 |
| US7171024B2 (en) | 2003-12-01 | 2007-01-30 | Brickstream Corporation | Systems and methods for determining if objects are in a queue |
| US7801328B2 (en) * | 2005-03-31 | 2010-09-21 | Honeywell International Inc. | Methods for defining, detecting, analyzing, indexing and retrieving events using video image processing |
| JP5040258B2 (ja) * | 2006-10-23 | 2012-10-03 | 株式会社日立製作所 | 映像監視装置、映像監視システムおよび画像処理方法 |
| JP5111088B2 (ja) * | 2007-12-14 | 2012-12-26 | 三洋電機株式会社 | 撮像装置及び画像再生装置 |
| US8284249B2 (en) | 2008-03-25 | 2012-10-09 | International Business Machines Corporation | Real time processing of video frames for triggering an alert |
| US20100289904A1 (en) * | 2009-05-15 | 2010-11-18 | Microsoft Corporation | Video capture device providing multiple resolution video feeds |
| US8724928B2 (en) * | 2009-08-31 | 2014-05-13 | Intellectual Ventures Fund 83 Llc | Using captured high and low resolution images |
| CN102063610B (zh) * | 2009-11-13 | 2013-08-28 | 鸿富锦精密工业(深圳)有限公司 | 影像辨识系统及方法 |
| US10645344B2 (en) * | 2010-09-10 | 2020-05-05 | Avigilion Analytics Corporation | Video system with intelligent visual display |
| TWI514324B (zh) * | 2010-11-30 | 2015-12-21 | Ind Tech Res Inst | 影像目標區域追蹤系統與方法及電腦程式產品 |
| US8879789B1 (en) | 2011-01-20 | 2014-11-04 | Verint Americas Inc. | Object analysis using motion history |
| US9111352B2 (en) * | 2011-12-27 | 2015-08-18 | Avid Technology, Inc. | Automated detection and correction of stereoscopic edge violations |
| JP2013172446A (ja) * | 2012-02-23 | 2013-09-02 | Sony Corp | 情報処理装置、端末装置、撮像装置、情報処理方法、及び撮像装置における情報提供方法 |
| JP2013232869A (ja) * | 2012-05-02 | 2013-11-14 | Olympus Corp | 撮像装置 |
| US9171382B2 (en) | 2012-08-06 | 2015-10-27 | Cloudparc, Inc. | Tracking speeding violations and controlling use of parking spaces using cameras |
| JP2014053859A (ja) * | 2012-09-10 | 2014-03-20 | Canon Inc | 移動体観測装置 |
| KR101791604B1 (ko) * | 2012-09-11 | 2017-10-30 | 삼성전자주식회사 | 헤드 포지션 추정 방법 및 장치, 컴퓨터 판독가능 저장 매체 |
| CN103020989B (zh) * | 2012-12-05 | 2016-06-08 | 河海大学 | 一种基于在线场景特征聚类的多视角目标跟踪方法 |
| CN105075248A (zh) | 2013-03-29 | 2015-11-18 | 日本电气株式会社 | 对象物体标识设备、对象物体标识方法和对象物体标识程序 |
| JP2014222825A (ja) * | 2013-05-13 | 2014-11-27 | キヤノン株式会社 | 映像処理装置および映像処理方法 |
| US9251431B2 (en) * | 2014-05-30 | 2016-02-02 | Apple Inc. | Object-of-interest detection and recognition with split, full-resolution image processing pipeline |
| US9449239B2 (en) * | 2014-05-30 | 2016-09-20 | Apple Inc. | Credit card auto-fill |
| US20150347860A1 (en) * | 2014-05-30 | 2015-12-03 | Apple Inc. | Systems And Methods For Character Sequence Recognition With No Explicit Segmentation |
| WO2015193877A1 (en) * | 2014-06-18 | 2015-12-23 | Trax Technology Solutions Pte. Ltd. | A method and a system for object recognition |
-
2015
- 2015-04-14 JP JP2015082275A patent/JP6604019B2/ja active Active
-
2016
- 2016-04-04 EP EP16718488.6A patent/EP3284014B1/en active Active
- 2016-04-04 CN CN201680019676.2A patent/CN107408300A/zh active Pending
- 2016-04-04 WO PCT/JP2016/001897 patent/WO2016166950A1/en not_active Ceased
- 2016-04-04 US US15/542,685 patent/US10319099B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| US20170372485A1 (en) | 2017-12-28 |
| JP2016201756A (ja) | 2016-12-01 |
| WO2016166950A1 (en) | 2016-10-20 |
| EP3284014A1 (en) | 2018-02-21 |
| US10319099B2 (en) | 2019-06-11 |
| CN107408300A (zh) | 2017-11-28 |
| EP3284014B1 (en) | 2023-10-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6604019B2 (ja) | 画像処理装置、画像処理方法、および画像処理システム | |
| JP6693509B2 (ja) | 画像処理装置、画像処理方法、および画像処理システム | |
| CN109104561B (zh) | 用于追踪场景中的移动对象的系统及方法 | |
| US10740887B2 (en) | Method and system for automated video image focus change detection and classification | |
| JP6724904B2 (ja) | 画像処理装置、画像処理方法、および画像処理システム | |
| JP2023022015A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
| GB2560477A (en) | Unattended object monitoring device, unattended object monitoring system equipped with same, and unattended object monitoring method | |
| US20170004629A1 (en) | Low-complexity motion detection based on image edges | |
| JP2016201756A5 (ja) | ||
| JP6414066B2 (ja) | 画像処理システム、画像処理方法及びプログラム | |
| JP2015103104A (ja) | 情報処理装置、情報処理方法、情報処理システム | |
| JP6837356B2 (ja) | 迷子検出装置および迷子検出方法 | |
| JP2019078880A (ja) | 制御装置、撮像装置、制御方法、及びプログラム | |
| JP2009268005A (ja) | 侵入物検知追跡装置 | |
| CN113361364A (zh) | 目标行为检测方法、装置、设备及存储介质 | |
| US11463632B2 (en) | Displaying a video stream | |
| JP6996538B2 (ja) | 画像処理装置、画像処理方法、および画像処理システム | |
| JP6478643B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
| CN110262269B (zh) | 运行控制方法、模块、系统、家电设备和可读存储介质 | |
| KR102107137B1 (ko) | 팬틸트줌 카메라를 이용한 이벤트 감지방법 및 장치 | |
| US10748397B2 (en) | Monitoring system | |
| CN112291282B (zh) | 一种动检告警方法及装置 | |
| JP5573387B2 (ja) | 監視装置、監視プログラム及び監視方法 | |
| JP2010186435A (ja) | 煙検出装置 | |
| JP6226827B2 (ja) | 監視映像表示装置及び監視映像表示方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180320 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180320 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190208 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190214 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190222 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190422 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190514 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190625 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190917 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190930 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6604019 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |