JP2013021551A - Detection device, detection method, and program - Google Patents
Detection device, detection method, and program Download PDFInfo
- Publication number
- JP2013021551A JP2013021551A JP2011154052A JP2011154052A JP2013021551A JP 2013021551 A JP2013021551 A JP 2013021551A JP 2011154052 A JP2011154052 A JP 2011154052A JP 2011154052 A JP2011154052 A JP 2011154052A JP 2013021551 A JP2013021551 A JP 2013021551A
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- unmoving
- unit
- image data
- object region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
Abstract
Description
本発明は、動きのある人等と動きが静止した物とを判断するための技術である。 The present invention is a technique for judging a person or the like who is moving and an object whose movement is stationary.
従来、空港、駅等において、設置された監視カメラの映像を利用して置き去られた荷物を検知するための置き去り検知システムが知られている。置き去り検知システムにおいては、主に、セキュリティの面から置き去られた危険物体を検知することが目的である。しかしながら、置き去り検知システムは、背景差分方式やフレーム間差分方式による動体検知技術を利用して不動体を検出しているため、人が一定時間静止している場合も置き去り物体として検知されることがあった。そのため、置き去り検知システムで検出された結果が人であるか物であるかを判断するためには、置き去り検知結果を目視により人手で確認したり、人物認識技術を利用したりする必要があった(特許文献1、2参照)。 Conventionally, a leaving detection system for detecting a baggage left using an image of an installed surveillance camera at an airport, a station, or the like is known. The purpose of the abandonment detection system is mainly to detect a dangerous object that has been left behind from the viewpoint of security. However, since the abandonment detection system detects a non-moving object using a moving object detection technique based on a background difference method or an inter-frame difference method, it may be detected as a left object even when a person is stationary for a certain period of time. there were. Therefore, in order to determine whether the result detected by the abandonment detection system is a person or an object, it is necessary to visually confirm the abandonment detection result or to use human recognition technology. (See Patent Documents 1 and 2).
しかしながら、目視による人手での確認は手間がかかり、監視対象が増加すると困難であった。一方、特許文献1に開示される人物認識技術においては、人を識別するためのセンサを追加する必要があり、コストアップにつながる。また、特許文献2に開示される人物認識技術においては、顔を認識するためのエリアを抽出する必要があったり、顔の特徴を判別するためのデータが必要であったりした。特に監視カメラにおいては、様々な角度で顔が検出されるため、人物認識技術で認識が難しい真上からの画角等も含めて常に高い精度で実施することは困難であった。 However, manual confirmation by visual inspection is time-consuming and difficult when the number of monitoring targets increases. On the other hand, in the person recognition technique disclosed in Patent Document 1, it is necessary to add a sensor for identifying a person, leading to an increase in cost. Further, in the person recognition technique disclosed in Patent Document 2, it is necessary to extract an area for recognizing a face, or data for discriminating facial features. Particularly in surveillance cameras, since faces are detected at various angles, it has been difficult to always perform with high accuracy, including the angle of view from directly above, which is difficult to recognize with human recognition technology.
そこで、本発明の目的は、動きのある人等と動きが静止した物とを容易に判断することにある。 Accordingly, an object of the present invention is to easily determine a person or the like who is moving and an object whose movement is stationary.
本発明の検知装置は、撮像手段により撮像された画像データから不動体領域を検出する検出手段と、前記検出手段により検出された前記不動体領域を拡大させる拡大手段と、前記拡大手段により拡大された前記不動体領域を用いて動体又は不動体を検知する検知手段とを有することを特徴とする。 The detection device of the present invention is expanded by the detection unit that detects the unmoving object region from the image data captured by the imaging unit, the enlarging unit that expands the unmoving object region detected by the detecting unit, and the enlarging unit. And detecting means for detecting the moving object or the non-moving object using the non-moving object region.
本発明によれば、動きのある人等と動きが静止した物とを容易に判断することが可能となる。 According to the present invention, it is possible to easily determine a person or the like who is moving and an object whose movement is stationary.
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.
先ず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る置き去り検知システムの構成を示す図である。図1に示すように、第1の実施形態に係る置き去り検知システム101は、撮影(撮像)部102、制御部104、メモリ部105、動体・不動体検出部106及び不動体拡大映像供給部109を備える。また、撮影部102は、光学ズーム部103を備えており、動体・不動体検出部106は、背景差分検出部107及びフレーム間差分検出部108を備えている。
First, a first embodiment of the present invention will be described. FIG. 1 is a diagram showing a configuration of a leaving detection system according to the first embodiment of the present invention. As shown in FIG. 1, the
撮影部102は、制御部104からの指示に応じて、レンズから入射される被写体像を撮影し、被写体像の画像データをメモリ部105に記録する。また撮影部102は、制御部104からの指示に応じて、撮影する被写体像の拡大及び縮小処理(光学ズーム処理)を光学ズーム部103に指示する。さらに撮影部102は、撮影範囲を変更するためのパン及びチルト制御も行う。なお、光学ズーム部103における光学ズーム処理の際には、ブレ補正技術によって精度が向上される。
In response to an instruction from the
メモリ部105には、撮影部102によって撮影された被写体像の画像データ、及び、動体・不動体検出部106において検出された動体領域及び不動体領域が記録される。また、メモリ部105には、背景差分検出部107が背景差分をとる際に必要な背景画像データ、及び、フレーム間差分検出部108がフレーム間差分をとる際に必要なフレーム画像データが記録される。なお、本実施形態においては、メモリ部105を一つ備えた構成としているが、複数のメモリ部を備えた構成としてもよいし、動体・不動体検出部106及び不動体拡大映像供給部109の夫々の内部にメモリ部を個別に備えた構成としてもよい。
The
動体・不動体検出部106は、背景差分検出部107及びフレーム間差分検出部108を用いて動体及び不動体を判別する。背景差分検出部107は、撮影部102によって撮影された被写体像の画像データと予め記録されている背景画像データとを比較する背景差分法により差分領域を検出する。検出された差分領域は動体領域としてメモリ部105に記録される。なお、動体領域には、例えば当該動体領域の位置や大きさ等を示す情報が含まれる。
The moving object / unmoving
フレーム間差分検出部108は、背景差分検出部107によって検出された動体領域に対してフレーム間差分をとり、一定時間変化が見られない動体領域を検出する。検出された動体領域は不動体領域としてメモリ部105に記録される。また、フレーム間差分検出部108は、不動体領域を検出した旨の通知を不動体拡大映像供給部109に対して出力する。
The inter-frame
不動体拡大映像供給部109は、フレーム間差分検出部108から不動体領域を検出した旨の通知を受けると、メモリ部105に記録された不動体領域から不動体拡大情報を決定する。不動体拡大情報には、例えば不動体領域を拡大するための、撮影範囲、拡大率及び拡大時間等を示す情報が含まれる。例えば、光学ズーム部103において不動体領域の拡大率を可能な限り高くする一方で、拡大時間を短くすることにより、短時間で容易に人か物かを判定することができる。なお、複数の不動体領域が検出された場合、各不動体領域を順次拡大して人か物かを判定してもよいし、不動体領域が近接している場合、まとめて拡大してもよい。
When the unmoving object enlarged
次に、第1の実施形態に係る置き去り検知システムの動作について説明する。図2は、第1の実施形態に係る置き去り検知システムの制御部104の処理を示すフローチャートである。図3は、第1の実施形態に係る置き去り検知システムを説明するための状況の一例を示す図である。ここでは、図3の302に示すように、複数の人が移動する広場を監視している場合を想定している。
Next, the operation of the leaving detection system according to the first embodiment will be described. FIG. 2 is a flowchart showing processing of the
ステップS201において、制御部104は、撮影部102に対して撮影開始を指示する。撮影部102は、制御部104からの指示に応じて撮影を開始する。ステップS202において、制御部104は、撮影部102によって撮影された被写体像の画像データをメモリ部105に記録する。ステップS203において、制御部104は、動体・不動体検出部106に対して動体領域及び不動体領域の検出を指示する。背景差分検出部107は、撮影部102によって撮影された被写体像の画像データと、背景画像データとを比較し、差分領域を動体領域として検出する。例えば、図3の301に示す背景画像データと、図3の302に示す、撮影部102によって撮影された被写体像の画像データ(動体領域の検出時における画像データ)とを比較することにより、動体領域304〜307が検出される。ここで、図3の301に示す背景画像データは、置き去り検知システム101が製造されたときに登録しておくことや、ユーザが目視により背景と認識した画像データを登録すること等が考えられる。
In step S <b> 201, the
フレーム間差分検出部108は、背景差分検出部107において検出された動体領域304〜307に対してフレーム間差分をとり、不動体領域を検出する。即ち、フレーム間差分検出部108は、図3の302に示す被写体像の画像データ(動体領域の検出時における画像データ)と、図3の303に示す被写体像の画像データ(不動体領域の検出時における画像データ)とのフレーム間差分をとる。その結果、動体領域304、306と領域308、310とは変化がないため、動体・不動体検出部106は領域308、310を不動体領域として認識する。一方、動体領域305、307と領域309、311とは変化しているため、動体・不動体検出部106は領域309、311を動体領域として認識する。
The inter-frame
ステップS204において、制御部104は、不動体拡大映像供給部109から不動体拡大要求を受け付けたか否かを判定する。不動体拡大要求を受け付けた場合、処理はステップS205に移行する。一方、不動体拡大要求を受け付けていない場合、処理はステップS204に戻り、不動体拡大要求を待つ。
In step S <b> 204, the
ステップS205において、制御部104は、不動体拡大映像供給部109から不動体拡大要求を受け付けると、不動体拡大映像供給部109において決定された不動体拡大情報を撮影部102に対して出力することにより、不動体領域の拡大を指示する。撮影部102は、不動体拡大情報に基づいて、不動体領域308、310を光学ズーム部103により拡大する。ステップS206において、制御部104は、拡大された不動体領域308、310をメモリ部105に記録する。上述した不動体領域の拡大処理は、後述のステップS208において終了が指示されるまで継続的に行われる。
In step S <b> 205, when the
ステップS207において、制御部104は、動体・不動体検出部106に対して、拡大された不動体領域308、310における動体及び不動体の検出処理の開始を指示する。フレーム間差分検出部108は、拡大された不動体領域308、310に対してフレーム間差分をとる。その結果、不動体領域308は拡大していっても置き去られた鞄であるため、フレーム間差分はない。従って、動体・不動体検出部106は、不動体領域308を置き去り物として認識する。一方、不動体領域310は人であるため完全に静止することはできない。従って、不動体領域310は拡大されることにより微小な動きであってもフレーム間差分が発生する。よって、動体・不動体検出部106は、不動体領域310を置き去り物ではないと認識する。このアルゴリズムによると、人以外の例えば動物等、完全に静止することができない物体を置き去り物でないと判定する。また、拡大された不動体領域に対してフレーム間差分をとる時間を長くすることにより、精度をさらに向上させることが可能である。
In step S207, the
ステップS208において、制御部104は、撮影部102に対して、不動体領域の拡大処理の終了を指示する。この指示を受けて、撮影部102は不動体領域の拡大処理を終了し、不動体領域の拡大処理前の範囲及び拡大率で撮影を開始する。
In step S208, the
以上のように、第1の実施形態によれば、動きのある人等と動きが静止した物とを容易に判断することが可能となり、高精度に置き去り物体を検知することができる。 As described above, according to the first embodiment, it is possible to easily determine a moving person or the like and an object whose movement is stationary, and it is possible to detect an object with a high accuracy.
次に、本発明の第2の実施形態について説明する。図4は、第2の実施形態に係る置き去り検知システムの構成を示す図である。 Next, a second embodiment of the present invention will be described. FIG. 4 is a diagram illustrating a configuration of the abandonment detection system according to the second embodiment.
図4に示すように、第2の実施形態に係る置き去り検知システムは、撮影部402、制御部404、メモリ部105、動体・不動体検出部106、不動体拡大映像供給部109、解像度変換部410及び出力部411を備える。なお、図4におけるメモリ部105、動体・不動体検出部106及び不動体拡大映像供給部109は、図1に示す同一符号の構成と同様である。
As shown in FIG. 4, the abandonment detection system according to the second embodiment includes an
解像度変換部410は、制御部404の指示に応じて、撮影部402によって撮影された被写体像の画像データの解像度が大きい場合、出力部411において出力される画像データの解像度に合わせるように当該画像データの解像度変換を行う。本実施形態において、解像度変換を行う際は、元となる画像データをメモリ部105に一定時間残しておくことを想定している。なお、出力部411の具体的な構成としては、ディスプレイ等の表示機器又はネットワーク等の画像データの出力先が挙げられる。
When the resolution of the image data of the subject image photographed by the photographing
次に、第2の実施形態に係る置き去り検知システムの動作について説明する。図5は、第2の実施形態に係る置き去り検知システムの制御部404の処理を示すフローチャートである。
Next, the operation of the leaving detection system according to the second embodiment will be described. FIG. 5 is a flowchart illustrating processing of the
ステップS501において、制御部404は、撮影部402に対して撮影開始を指示する。撮影部402は、制御部404からの指示に応じて撮影を開始する。ステップS502において、制御部404は、撮影部402によって撮影された被写体像の画像データをメモリ部105に記録する。ステップS503において、制御部404は、解像度変換部410に対して、被写体像の画像データの解像度を出力部411で必要な解像度に合わせるように解像度変換することを指示する。ここでは、撮影部402で撮影された画像データの解像度が大きく、出力部411で必要な解像度に合わせて当該画像データの解像度が縮小されることを想定している。上記指示を受けた解像度変換部410は、被写体像の画像データの解像度を縮小し、解像度が縮小された後の画像データ(以下、縮小画像データと称す)をメモリ部105に記録する。出力部411は、縮小画像データをメモリ部105から読み出して出力する。
In step S501, the
ステップS504において、制御部104は、動体・不動体検出部106に対して、メモリ部105に記録された縮小画像データにおける動体領域及び不動体領域の検出処理の開始を指示する。背景差分検出部107は、メモリ部105に記録された縮小画像データと背景画像データとを比較し、差分領域を動体領域として検出する。例えば、図3の301に示す背景画像データと、302に示す縮小画像データ(動体領域の検出時の画像データ)とを比較することにより、動体領域304〜307が検出される。
In step S <b> 504, the
フレーム間差分検出部108は、背景差分検出部107において検出された動体領域304〜307に対してフレーム間差分をとり、不動体領域を検出する。即ち、フレーム間差分検出部108は、図3の302に示す縮小画像データ(動体領域の検出時の画像データ)と、図3の303に示す縮小画像データ(不動体領域の検出時の画像データ)とのフレーム間差分をとる。その結果、動体領域304、306と領域308、310とは変化がないため、動体・不動体検出部106は領域308、310を不動体領域として認識する。一方、動体領域305、307と領域309、311とは変化しているため、動体・不動体検出部106は領域309、311を動体領域として認識する。
The inter-frame
ステップS505において、制御部404は、不動体拡大映像供給部109から不動体拡大要求を受け付けたか否かを判定する。不動体拡大要求を受け付けた場合、処理はステップS506に移行する。一方、不動体拡大要求を受け付けていない場合、処理はステップS505に戻り、不動体拡大要求を待つ。
In step S505, the
ステップS506において、制御部404は、不動体拡大映像供給部109から不動体拡大要求を受け付けると、不動体拡大映像供給部109において決定された不動体拡大情報を解像度変換部410に対して出力することより、不動体領域の拡大を指示する。解像度変換部410は、不動体拡大情報に基づいて、縮小画像データ内における不動体領域308、310を拡大する。ここでは、不動体拡大情報において、解像度変換部410によって縮小処理される前の高い解像度とすることで不動体領域を拡大させるための情報が示されているものとする。
In step S <b> 506, when the
ステップS507において、制御部404は、動体・不動体検出部106に対して、拡大された不動体領域における動体及び不動体の検出処理の開始を指示する。フレーム間差分検出部108は、拡大された不動体領域308、310に対してフレーム間差分をとる。その結果、不動体領域308は拡大していっても置き去られた鞄であるため、フレーム間の差分はない。従って、動体・不動体検出部106は、不動体領域308を置き去り物として認識する。一方、不動体領域310は人であるため完全に静止することはできない。従って、不動体領域310は拡大されることにより微小な動きであってもフレーム間差分が発生する。よって、動体・不動体検出部106は、不動体領域310を置き去り物ではないと認識する。このアルゴリズムによると、人以外の例えば動物等、完全に静止することができない物体を置き去り物でないと判定する。また、拡大された不動体領域に対してフレーム間差分をとる時間を長くすることにより、精度をさらに向上させることが可能である。
In step S507, the
以上のように、第2の実施形態によれば、動きのある人等と動きが静止した物とを容易に判断することが可能となり、高精度に置き去り物体を検知することができる。また、第2の実施形態においては、不動体に対して、人か物かの判断を行っている間も撮影映像に変化はないため、監視目的に影響を与えずに簡易的に置き去り物体の検知精度を向上させることが可能となる。 As described above, according to the second embodiment, it is possible to easily determine a moving person or the like and an object in which the movement is stationary, and it is possible to detect the object by leaving with high accuracy. Further, in the second embodiment, since the captured image does not change while the determination of whether the object is a person or an object is not performed on the unmoving object, the object can be simply left without affecting the monitoring purpose. Detection accuracy can be improved.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
101:置き去り検知システム、102:撮影部、103:光学ズーム部、104:制御部104、105:メモリ部、106:動体・不動体検出部、107:背景差分検出部、108:フレーム間差分検出部、109:不動体拡大映像供給部
101: Abandonment detection system, 102: Shooting unit, 103: Optical zoom unit, 104:
Claims (5)
前記検出手段により検出された前記不動体領域を拡大させる拡大手段と、
前記拡大手段により拡大された前記不動体領域を用いて動体又は不動体を検知する検知手段とを有することを特徴とする検知装置。 Detecting means for detecting a non-moving object region from the image data imaged by the imaging means;
An enlarging means for enlarging the unmoving object region detected by the detecting means;
And a detecting means for detecting a moving object or a non-moving object using the non-moving object region enlarged by the enlarging means.
前記検出手段は、前記変換手段により解像度が縮小された前記画像データから前記不動体領域を検出し、前記拡大手段は、前記変換手段により解像度が縮小される前の解像度とすることで前記不動体領域を拡大させることを特徴とする請求項1に記載の検知装置。 Further comprising conversion means for converting the resolution of the image data imaged by the imaging means;
The detecting means detects the unmoving object region from the image data whose resolution has been reduced by the converting means, and the enlarging means has the resolution before the resolution is reduced by the converting means, so that the unmoving object is detected. The detection apparatus according to claim 1, wherein the area is enlarged.
撮像手段により撮像された画像データから不動体領域を検出する検出ステップと、
前記検出ステップにより検出された前記不動体領域を拡大させる拡大ステップと、
前記拡大ステップにより拡大された前記不動体領域を用いて動体又は不動体を検知する検知ステップとを有することを特徴とする検知方法。 A detection method executed by a detection device,
A detection step of detecting a non-moving object region from the image data imaged by the imaging means;
An enlarging step of enlarging the unmoving object region detected by the detecting step;
And a detection step of detecting a moving object or a non-moving object using the non-moving object region enlarged by the enlarging step.
前記検出ステップにより検出された前記不動体領域を拡大させる拡大ステップと、
前記拡大ステップにより拡大された前記不動体領域を用いて動体又は不動体を検知する検知ステップとをコンピュータに実行させるためのプログラム。 A detection step of detecting a non-moving object region from the image data imaged by the imaging means;
An enlarging step of enlarging the unmoving object region detected by the detecting step;
A program for causing a computer to execute a detecting step of detecting a moving object or a non-moving object using the non-moving object region enlarged by the enlarging step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011154052A JP5911227B2 (en) | 2011-07-12 | 2011-07-12 | Determination apparatus, determination method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011154052A JP5911227B2 (en) | 2011-07-12 | 2011-07-12 | Determination apparatus, determination method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013021551A true JP2013021551A (en) | 2013-01-31 |
JP2013021551A5 JP2013021551A5 (en) | 2014-08-21 |
JP5911227B2 JP5911227B2 (en) | 2016-04-27 |
Family
ID=47692533
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011154052A Active JP5911227B2 (en) | 2011-07-12 | 2011-07-12 | Determination apparatus, determination method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5911227B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018113618A (en) * | 2017-01-12 | 2018-07-19 | 三菱電機インフォメーションシステムズ株式会社 | Video stream processing device, video stream processing program, and video monitoring system |
WO2018179202A1 (en) * | 2017-03-30 | 2018-10-04 | 日本電気株式会社 | Information processing device, control method, and program |
JP2019185435A (en) * | 2018-04-11 | 2019-10-24 | パナソニック株式会社 | Deserted cart detection system and deserted cart detection method |
JP2020177676A (en) * | 2017-03-30 | 2020-10-29 | 日本電気株式会社 | Information processing device, information processing method, and program |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102179764B1 (en) * | 2019-11-25 | 2020-11-17 | 세안기술 주식회사 | An image processing method for improving vibration perception on vibration monitoring camera image |
KR102285615B1 (en) * | 2020-08-31 | 2021-08-04 | 세안기술 주식회사 | An image processing method for improving vibration perception on vibration monitoring camera image |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09212770A (en) * | 1996-02-07 | 1997-08-15 | Fujitsu General Ltd | Monitoring camera system |
JPH11112966A (en) * | 1997-10-07 | 1999-04-23 | Canon Inc | Moving object detector, moving object detection method and computer-readable storage medium thereof |
JP2003116139A (en) * | 2001-10-03 | 2003-04-18 | Olympus Optical Co Ltd | Video distribution server and video reception client system |
JP2003219399A (en) * | 2002-01-21 | 2003-07-31 | Toenec Corp | Supervisory apparatus for identifying supervisory object |
JP2005175970A (en) * | 2003-12-11 | 2005-06-30 | Canon Inc | Imaging system |
JP2006127195A (en) * | 2004-10-29 | 2006-05-18 | Fujitsu Ltd | Image sensor device and image sensor system |
JP2006238102A (en) * | 2005-02-25 | 2006-09-07 | Sony Corp | Imaging apparatus and method for distributing image |
JP2007036756A (en) * | 2005-07-27 | 2007-02-08 | Kazuo Iwane | Monitoring camera system for linking all-around camera of fixed visual angle with narrow angle camera which can control the direction of visual point |
JP2008124591A (en) * | 2006-11-09 | 2008-05-29 | Sony Corp | Imaging device and image processing method |
JP2009253449A (en) * | 2008-04-02 | 2009-10-29 | Canon Inc | Monitoring apparatus and monitoring method |
JP2010177893A (en) * | 2009-01-28 | 2010-08-12 | Osaka Prefecture | Imaging controller and imaging control method |
JP2010226687A (en) * | 2009-02-27 | 2010-10-07 | Sony Corp | Image processing device, image processing system, camera device, image processing method, and program therefor |
-
2011
- 2011-07-12 JP JP2011154052A patent/JP5911227B2/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09212770A (en) * | 1996-02-07 | 1997-08-15 | Fujitsu General Ltd | Monitoring camera system |
JPH11112966A (en) * | 1997-10-07 | 1999-04-23 | Canon Inc | Moving object detector, moving object detection method and computer-readable storage medium thereof |
JP2003116139A (en) * | 2001-10-03 | 2003-04-18 | Olympus Optical Co Ltd | Video distribution server and video reception client system |
JP2003219399A (en) * | 2002-01-21 | 2003-07-31 | Toenec Corp | Supervisory apparatus for identifying supervisory object |
JP2005175970A (en) * | 2003-12-11 | 2005-06-30 | Canon Inc | Imaging system |
JP2006127195A (en) * | 2004-10-29 | 2006-05-18 | Fujitsu Ltd | Image sensor device and image sensor system |
JP2006238102A (en) * | 2005-02-25 | 2006-09-07 | Sony Corp | Imaging apparatus and method for distributing image |
JP2007036756A (en) * | 2005-07-27 | 2007-02-08 | Kazuo Iwane | Monitoring camera system for linking all-around camera of fixed visual angle with narrow angle camera which can control the direction of visual point |
JP2008124591A (en) * | 2006-11-09 | 2008-05-29 | Sony Corp | Imaging device and image processing method |
JP2009253449A (en) * | 2008-04-02 | 2009-10-29 | Canon Inc | Monitoring apparatus and monitoring method |
JP2010177893A (en) * | 2009-01-28 | 2010-08-12 | Osaka Prefecture | Imaging controller and imaging control method |
JP2010226687A (en) * | 2009-02-27 | 2010-10-07 | Sony Corp | Image processing device, image processing system, camera device, image processing method, and program therefor |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018113618A (en) * | 2017-01-12 | 2018-07-19 | 三菱電機インフォメーションシステムズ株式会社 | Video stream processing device, video stream processing program, and video monitoring system |
US11776274B2 (en) | 2017-03-30 | 2023-10-03 | Nec Corporation | Information processing apparatus, control method, and program |
JPWO2018179202A1 (en) * | 2017-03-30 | 2020-01-23 | 日本電気株式会社 | Information processing apparatus, control method, and program |
JP2020177676A (en) * | 2017-03-30 | 2020-10-29 | 日本電気株式会社 | Information processing device, information processing method, and program |
US11164006B2 (en) | 2017-03-30 | 2021-11-02 | Nec Corporation | Information processing apparatus, control method, and program |
WO2018179202A1 (en) * | 2017-03-30 | 2018-10-04 | 日本電気株式会社 | Information processing device, control method, and program |
US12046044B2 (en) | 2017-03-30 | 2024-07-23 | Nec Corporation | Information processing apparatus, control method, and program |
US12046043B2 (en) | 2017-03-30 | 2024-07-23 | Nec Corporation | Information processing apparatus, control method, and program |
US12106571B2 (en) | 2017-03-30 | 2024-10-01 | Nec Corporation | Information processing apparatus, control method, and program |
JP2019185435A (en) * | 2018-04-11 | 2019-10-24 | パナソニック株式会社 | Deserted cart detection system and deserted cart detection method |
JP7131944B2 (en) | 2018-04-11 | 2022-09-06 | パナソニックホールディングス株式会社 | Abandoned cart detection system and abandoned cart detection method |
JP2022009396A (en) * | 2020-07-02 | 2022-01-14 | 日本電気株式会社 | Information processing device, information processing method, and program |
JP7347481B2 (en) | 2020-07-02 | 2023-09-20 | 日本電気株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP5911227B2 (en) | 2016-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5911227B2 (en) | Determination apparatus, determination method, and program | |
JP6381353B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
US9807300B2 (en) | Display apparatus for generating a background image and control method thereof | |
JP2011165008A (en) | Image recognition apparatus and method | |
JP6335701B2 (en) | Information processing apparatus, information processing method, and program | |
JP2012118817A (en) | Image processing device and image processing method, program, and storage medium | |
US11170520B2 (en) | Image processing apparatus for analyzing an image to detect an object within the image | |
JP2011076316A (en) | Device, method and program for crowd watching | |
JP2019078880A (en) | Control device, imaging apparatus, control method, and program | |
JP2007328572A (en) | Face authentication device and face authentication method | |
JP4281338B2 (en) | Image detection apparatus and image detection method | |
JP2008299784A (en) | Object determination device and program therefor | |
JP5247338B2 (en) | Image processing apparatus and image processing method | |
JP2016111561A (en) | Information processing device, system, information processing method, and program | |
JP2018201146A (en) | Image correction apparatus, image correction method, attention point recognition apparatus, attention point recognition method, and abnormality detection system | |
JP6483661B2 (en) | Imaging control apparatus, imaging control method, and program | |
JP5539565B2 (en) | Imaging apparatus and subject tracking method | |
JP2009239391A (en) | Compound eye photographing apparatus, control method therefor, and program | |
JP2008211534A (en) | Face detecting device | |
JP2021022783A (en) | Control device, tracking system, control method, and program | |
JP2009157446A (en) | Monitoring system | |
JP5896781B2 (en) | Image processing apparatus and image processing method | |
JP2014216694A (en) | Tracking pan head device with resolution increase processing | |
JP2019192155A (en) | Image processing device, photographing device, image processing method, and program | |
JP2014131211A (en) | Imaging apparatus and image monitoring system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140707 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150113 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150312 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150707 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160329 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5911227 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |