JP4929102B2 - Video search system and video search device - Google Patents
Video search system and video search device Download PDFInfo
- Publication number
- JP4929102B2 JP4929102B2 JP2007221398A JP2007221398A JP4929102B2 JP 4929102 B2 JP4929102 B2 JP 4929102B2 JP 2007221398 A JP2007221398 A JP 2007221398A JP 2007221398 A JP2007221398 A JP 2007221398A JP 4929102 B2 JP4929102 B2 JP 4929102B2
- Authority
- JP
- Japan
- Prior art keywords
- search
- image
- video
- metadata
- concealment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、複数のカメラにおいて撮影された映像データを検索する映像検索システム及び映像検索装置に関する。 The present invention relates to a video search system and a video search apparatus that search video data shot by a plurality of cameras.
近年、例えばカメラにより撮影された映像データ(以下、単に映像と表記)を例えばハードディスクドライブ(HDD:Hard Disk Drive)のようなメディアに蓄積し、当該蓄積された映像を検索する映像検索システムが知られている。 In recent years, for example, a video search system that stores video data (hereinafter simply referred to as video) captured by a camera in a medium such as a hard disk drive (HDD) and searches for the stored video is known. It has been.
このような映像検索システムにおいては、例えば店舗等にセキュリティー目的で設置された複数のカメラにより撮影された映像を検索する場合、異なるカメラにより撮影された同一対象物(例えば、同一人物)を、複数の映像間で対応付けて検索することが必要となる。 In such a video search system, for example, when searching for videos taken by a plurality of cameras installed in a store or the like for security purposes, a plurality of same objects (for example, the same person) taken by different cameras are searched. It is necessary to search in association with each other video.
そこで、例えばシステム全体での自律的な移動体追跡を可能とし、また、複数のカメラに分散された情報の収集・管理を効率的に行うことができる技術(以下、先行技術と表記)が開示されている(例えば、特許文献1を参照)。この先行技術によれば、例えば特定の移動体の特徴量(例えば、色情報)に基づき、当該特徴量によって同定される移動体を探索することで、複数のビデオカメラ毎に分散された移動体追跡情報の統括的管理を可能とする。
しかしながら、上記したような映像検索システムにおいては、例えば映像が時系列に流れていき、未来の時刻の映像を参照することができないリアルタイム映像を処理する方式が採用されている。このため、例えば映像が蓄積されている場合には特定の映像を処理する際に関連のある映像の全シーンを参照可能であるにもかかわらず、時系列的に処理することにより、検索性能の低下を招く場合がある。 However, in the video search system as described above, for example, a method of processing a real-time video in which video flows in time series and a video at a future time cannot be referred to is employed. For this reason, for example, when video is stored, it is possible to refer to all scenes of related video when processing a specific video. It may cause a decrease.
また、上記した先行技術のように、複数のカメラにより撮影された映像を例えば色情報に基づいて検索する場合を想定する。この場合、例えばカメラが設置されている位置等に応じて光源の影響を受けた色情報が算出される。このため、映像を撮影したカメラによっては、例えば人が知覚する色とは異なる色を有する映像が検索される場合がある。また、カメラの特性により映像上で表現される色が異なる場合についても同様に、例えば人が知覚する色とは異なる色を有する映像が検索されることがある。 Further, as in the above-described prior art, a case is assumed where videos taken by a plurality of cameras are searched based on color information, for example. In this case, for example, color information influenced by the light source is calculated according to the position where the camera is installed. For this reason, depending on the camera that captured the video, for example, a video having a color different from the color perceived by a person may be searched. Similarly, when the color expressed on the video differs depending on the characteristics of the camera, for example, a video having a color different from the color perceived by a person may be searched.
また、映像検索を実行する場合、ユーザがキーワードまたはサンプル画像等を検索条件として指定することで処理が実行されるのが一般的である。この場合、通常、ユーザは検索速度または検索精度に関する条件を指定することができない。このため、例えば映像検索システム内の仕様に依存した検索しか実行することができない。 In addition, when executing a video search, the process is generally executed by the user specifying a keyword or a sample image as a search condition. In this case, normally, the user cannot specify the conditions regarding the search speed or the search accuracy. For this reason, for example, only the search depending on the specifications in the video search system can be executed.
本発明の目的は、複数のカメラにより撮影された映像を効率的に検索する映像検索システムを提供することにある。 An object of the present invention is to provide a video search system that efficiently searches videos taken by a plurality of cameras.
本発明の1つの態様によれば、一定の範囲内に設置され、当該範囲内に存在する対象物を含む画像から構成される映像を撮影する複数のカメラと、前記複数のカメラによって撮影された映像を受信する受信手段と、前記受信された映像を格納する格納手段と、前記格納手段に格納された映像を構成する画像のうち、ユーザによって指定された検索対象物を含む画像を検索するための検索条件を入力する検索条件入力手段と、前記格納手段に格納された映像を構成する画像を解析する解析手段と、前記解析された画像に含まれる対象物を特徴付ける属性を示すメタデータを生成するメタデータ生成手段と、前記入力された検索条件及び前記生成されたメタデータに基づいて、前記検索対象物を含む画像を前記格納手段から検索する第1の検索手段と、前記生成されたメタデータに基づいて、前記第1の検索手段によって検索された画像に含まれる前記検索対象物に対する隠蔽の発生を検知する隠蔽発生検知手段と、前記隠蔽の発生が検知された場合、前記格納手段に格納された映像を構成する画像のうち、前記検索対象物に対する隠蔽の発生がない画像を、前記入力された検索条件及び前記生成されたメタデータに基づいて検索する第2の検索手段と、前記第2の検索手段によって検索された画像に含まれる前記検索対象物を特徴付ける属性を示すメタデータを取得する取得手段と、前記取得されたメタデータに基づいて、前記検索対象物を含む画像を前記格納手段から検索する第3の検索手段とを具備することを特徴とする映像検索システムが提供される。 According to one aspect of the present invention, a plurality of cameras that are installed within a certain range and that are configured to capture images composed of images that include objects within the range and the plurality of cameras are used. Retrieving an image including a search object designated by a user from among a receiving unit for receiving a video, a storage unit for storing the received video, and an image constituting the video stored in the storage unit Search condition input means for inputting the search conditions, analysis means for analyzing the image constituting the video stored in the storage means, and generating metadata indicating attributes characterizing the object included in the analyzed image And a first search unit that searches the storage unit for an image including the search object based on the input search condition and the generated metadata. And on the basis of the generated metadata, concealment occurrence detection means for detecting occurrence of concealment with respect to the search object included in the image searched by the first search means, and occurrence of the concealment is detected. In the case where the image stored in the storage means is searched for an image that does not conceal the search target object based on the input search condition and the generated metadata. 2 search means, acquisition means for acquiring metadata indicating an attribute characterizing the search object included in the image searched by the second search means, and the search based on the acquired metadata There is provided a video search system comprising: a third search means for searching for an image including an object from the storage means.
本発明によれば、複数のカメラにより撮影された映像を効率的に検索することを可能とする。 According to the present invention, it is possible to efficiently search for videos taken by a plurality of cameras.
以下、図面を参照して、本発明の実施形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1及び図2を参照して、本実施形態に係る映像検索システムの概略について説明する。図1は、本実施形態に係る映像検索システムの構成を示すブロック図である。図1に示すように、映像検索システムは、カメラ1、画像処理装置10及び映像検索装置50を含む。
With reference to FIG.1 and FIG.2, the outline | summary of the video search system which concerns on this embodiment is demonstrated. FIG. 1 is a block diagram showing a configuration of a video search system according to this embodiment. As shown in FIG. 1, the video search system includes a
カメラ1は、各種映像を撮影する機能を有する。ここで、図2は、図1に示すカメラ1が設置される例えば店舗フロアを示す図である。図2に示すように、カメラ1は、例えば店舗フロア2のような一定範囲内に複数設置される。また、カメラ1は、当該カメラ1の監視範囲3内において、当該監視範囲3内に存在する対象物(例えば、人)4を含む画像を撮影する。
The
本実施形態に係る映像検索システムにおいては、図2に示すような例えば店舗フロア2に設置されている複数のカメラ1間を移動(スルー)する対象物4に対する検索処理が実行される。
In the video search system according to this embodiment, for example, a search process for the
画像処理装置10は、カメラ1の各々に接続されている。画像処理装置10は、カメラ1によって撮影された映像データ(以下、単に映像と表記)を入力する。この映像は、例えば複数の画像データ(以下、単に画像と表記)により構成される。また、映像には、例えば音声データ等が含まれる。画像処理装置10は、入力された映像を例えばネットワーク20を介して、映像検索装置50に対して送信する。
The
映像検索装置50は、画像処理装置10の各々と例えばネットワーク20を介して接続されている。映像検索装置50は、画像処理装置10によって送信された映像を、ネットワーク20を介して受信する。映像検索装置50は、受信された映像を蓄積する。また、映像検索装置50は、蓄積された映像から、例えば上記した複数のカメラ1間を移動(スルー)した特定の対象物を含む映像(を構成する画像)を検索する。
The
図3は、図1に示す画像処理装置10の主として機能構成を示すブロック図である。なお、映像検索システムに含まれる複数の画像処理装置10は同様の構成であるため、以下、1つの画像処理装置10について説明する。図3に示すように、画像処理装置10は、入力部11、画像切り出し部12、メタデータ生成部13及び送信部14を含む。
FIG. 3 is a block diagram mainly showing a functional configuration of the
入力部11は、画像処理装置10に接続されているカメラ1によって撮影された映像(データ)を入力する。なお、この入力部11によって撮影された映像には、対象物(例えば、人)4が含まれている(映っている)。
The
画像切り出し部12は、入力部11によって入力された映像を構成する画像において、当該画像に含まれる対象物4の領域(画像)を切り出す。
The
メタデータ生成部13は、画像切り出し部12によって切り出された画像に対して画像処理を行うことによりメタデータを生成する機能を有する。メタデータ生成部13は、画像切り出し部12によって切り出された画像を解析する。メタデータ生成部13は、解析された画像に含まれる対象物4を特徴付ける属性を示すメタデータ(以下、対象物4に関するメタデータと表記)を生成する。この対象物4に関するメタデータには、例えば対象物4に関する色情報または輝度情報等が含まれる。メタデータ生成部55によって生成されたメタデータは、当該メタデータの生成に用いられた画像に付与される。また、1つの対象物4に対して複数のメタデータが生成された場合には、当該複数のメタデータを1つに纏めて(コード化することで)情報パターンとして扱う。
The
ここで、メタデータ生成部13によって生成されるメタデータの具体例について説明する。例えば解析された画像に含まれる対象物4が人である場合、メタデータ生成部13によって生成されるメタデータには、例えば顔の特徴、髪の毛の色・髪型・髪の長さ・髪の編み方、頭の形、服の色・タイプ、靴のタイプ・色、鞄・紙袋等の持ち物の種類・色・形、体系、姿勢、身長または耳の形等が含まれる。
Here, a specific example of metadata generated by the
例えば解析された画像に含まれる対象物4が車の場合、メタデータ生成部13によって生成されるメタデータには、色、車のタイプ、メーカーのエンブレム、ボディーの形状、タイヤの形状、ホイールのタイプ、ライトの形、ガラスの形またはエンジンの音等が含まれる。
For example, when the
例えば解析された画像に含まれる対象物4が動物の場合、メタデータ生成部13によって生成されるメタデータには、顔の形、耳の形、体の色、毛の生え方、足の数、体の形または泣き声等が含まれる。
For example, when the
例えば解析された画像に含まれる対象物4が風景の場合、メタデータ生成部13によって生成されるメタデータには、画像における色の配置パターン、空、海、川、土、雲、花、木または森の色・配置等が含まれる。
For example, when the
また、例えば解析された画像に含まれる対象物4が乗り物の場合、メタデータ生成部13によって生成されるメタデータには、色、ボディーの形状、タイヤの数、ガラスの形、ハンドルの形またはマフラーの形等が含まれる。
For example, when the
送信部14は、メタデータが付与された画像から構成される映像を、ネットワーク20を介して映像検索装置50に送信する。
The
図4は、図1に示す映像検索装置50の主として機能構成を示すブロック図である。映像検索装置50は、受信部51、映像蓄積処理部52、映像蓄積部53、検索条件入力部54、メタデータ生成部55、検索処理部56、検索結果出力部57及び検索オプション設定部58を含む。
FIG. 4 is a block diagram mainly showing a functional configuration of the
受信部51は、画像処理装置10(に含まれる送信部14)によって送信された映像(画像)を受信する。なお、受信部51は、映像検索システムに含まれる複数の画像処理装置10の各々から送信された映像を受信する。
The receiving
映像蓄積処理部52は、受信部51によって受信された映像を映像蓄積部53に蓄積(格納)する処理を実行する。このとき、映像蓄積処理部52は、受信部51によって受信された映像を、当該映像を撮影したカメラ1毎(当該映像を送信した画像処理装置10毎)に映像蓄積部53に蓄積する。また、映像蓄積処理部52は、受信部51によって受信された映像(画像)を時系列的に蓄積する。
The video
検索条件入力部54は、例えば映像検索装置50を利用するユーザによって指定された対象物(以下、検索対象物と表記)4を含む画像を検索するための検索条件を入力する。また、この検索条件は、例えばリアルタイムに特定の対象物4を追跡する場合には、当該対象物4を指定して自動的に入力されてもよい。この検索条件には、例えば検索対象物4を特徴付ける属性を示す属性情報(メタデータ)またはサンプル画像等が含まれる。
The search
メタデータ生成部55は、映像蓄積部53に蓄積された映像を構成する画像に対して画像処理を行うことによりメタデータを生成する機能を有する。メタデータ生成部55は、映像蓄積部53に蓄積された映像を構成する画像を解析する。メタデータ生成部55は、解析された画像に含まれる対象物(例えば、人)4を特徴付ける属性を示すメタデータを生成する。このメタデータ生成部55によって生成されたメタデータは、例えば当該メタデータの生成に用いられた画像に付与される。
The
なお、上記したように画像処理装置10には、メタデータ生成部55と同様の機能を有するメタデータ生成部13が含まれる。本実施形態においては、例えば画像処理装置10側で映像に事前にメタデータを付与しておく場合と、映像検索装置50側でメタデータを生成して検索する場合が考えられる。このため、上記したように画像処理装置10のメタデータ生成部13によってメタデータが生成される構成でもよいし、映像検索装置50のメタデータ生成部55によってメタデータが生成される構成でもよい。
As described above, the
以下、本実施形態においては、映像検索装置50のメタデータ生成部55によってメタデータが生成され、映像蓄積部53に対する検索処理が実行される場合について説明する。
Hereinafter, in the present embodiment, a case where metadata is generated by the
検索処理部56は、検索条件入力部54によって入力された検索条件及びメタデータ生成部55によって生成されたメタデータに基づいて、当該検索条件に合致する画像(映像)を検索する処理を実行する。つまり、検索処理部56は、ユーザによって指定された検索対象物4を含む画像(映像)を映像蓄積部53から検索する。
The
検索処理部56は、検索された画像(映像)全体から、検索対象物4に関するメタデータを収集する。つまり、検索処理部56は、検索された画像の各々に付与されている検索対象物4に関するメタデータを収集する。検索処理部56は、収集されたメタデータに基づいて、検索対象物4が含まれる画像を検索する。すなわち、検索処理部56は、収集されたメタデータ及びメタデータ生成部55によって生成されたメタデータを比較することにより、ユーザによって指定された検索対象物4の同定(照合)処理を実行する。このように、検索された映像全体からメタデータを収集し、当該メタデータに基づいて検索処理を実行することにより検索性能を向上させる。
The
検索処理部56は、検索された画像において、当該画像に含まれる検索対象物4に対する隠蔽(重なり)の発生を検知する。つまり、検索処理部56は、検索された画像に含まれる検索対象物4が、当該画像に含まれる他の対象物と重なっていることを検知する。以下、検索対象物4に対する隠蔽が発生した画像を隠蔽発生画像と称する。検索処理部56は、検索対象物4に関するメタデータに基づいて隠蔽の発生を検知する。
The
検索処理部56は、検索対象物4に対する隠蔽の発生が検知された場合、時系列的に隠蔽発生画像の前後の画像であって、当該検索対象物4に対する隠蔽の発生がない画像を検索する。
When the occurrence of concealment with respect to the
検索処理部56は、検索された画像(映像)を、検索条件入力部54によって入力された検索条件に対する検索結果として検索結果出力部57に渡す。
The
検索結果出力部57は、検索処理部56から渡された検索結果を、例えばユーザに対して出力する。また、検索結果出力部57は、検索処理部56によって検索された隠蔽発生画像の前後の画像の間の画像を連続して(つないで)例えばユーザに対して出力(表示)する。
The search
検索オプション設定部58は、例えばユーザの操作に応じて、映像蓄積部53に蓄積された映像を構成する画像を検索する際の、当該検索に関する条件を設定(指定)する。この検索に関する条件には、例えば検索速度及び検索精度に関する条件が含まれる。この検索に関する条件が設定されることにより、例えば検索処理部56による検索の検索速度を設定することができる。
The search
次に、図5のフローチャートを参照して、上記した映像検索装置50における検索処理の処理手順について説明する。なお、画像に含まれる対象物4に関するメタデータは、上記したように映像検索装置50側(のメタデータ生成部55)で生成されるものとして説明する。
Next, with reference to the flowchart of FIG. 5, the processing procedure of the search process in the
まず、受信部51は、画像処理装置10の送信部14によって送信された映像(データ)を受信する(ステップS11)。
First, the receiving
映像蓄積処理部52は、受信部51によって受信された映像を映像蓄積部53に蓄積する(ステップS12)。
The video
検索条件入力部54は、例えばユーザによって指定された対象物(検索対象物)4を含む画像を検索するための検索条件を入力する(ステップS13)。この検索条件には、例えば検索対象物4に関するメタデータまたはサンプル画像等が含まれる。
The search
検索条件入力部54によって検索条件が入力されると、メタデータ生成部55は、映像蓄積部53に蓄積された映像を構成する画像に含まれる対象物4のメタデータを生成する(ステップS14)。メタデータ生成部55によって生成されたメタデータは、当該メタデータの生成に用いられた画像(対象物4が含まれる画像)に付与される。このメタデータ生成処理は、映像蓄積部53に蓄積された映像を構成する画像の各々に対して実行される。
When the search condition is input by the search
検索処理部56は、検索条件入力部54によって入力された検索条件及びメタデータ生成部55によって生成されたメタデータに基づいて、検索対象物4が含まれる画像(映像)を検索する(ステップS15)。
The
検索処理においては、例えば検索条件に含まれるメタデータ(特徴量)及びメタデータ生成部55によって生成されたメタデータ(特徴量)に基づいて、画像(に含まれる対象物4)間の類似度演算が行われる。ここで、特徴量とは、メタデータを数値化したものである。換言すると、メタデータは、人間が言葉による扱いができる特徴量であり、当該特徴量をメタデータとして扱わず、数値としてのみ利用する場合は、特徴量という文言で表現される。検索処理部56は、例えば演算された類似度に応じて、検索対象物4が含まれている画像を検索する。
In the search processing, for example, based on the metadata (feature amount) included in the search condition and the metadata (feature amount) generated by the
次に、検索処理部56は、検索された画像(映像)全体から、検索対象物4に関するメタデータを収集する(ステップS14)。この検索対象物4に関するメタデータは、検索された画像(検索対象物4を含む画像)に付与されている。
Next, the
検索処理部56は、収集されたメタデータに基づいて、検索対象物4が含まれる画像(映像)を映像蓄積部53から検索する(ステップS17)。これにより、例えば検索条件に含まれる検索対象物4に関するメタデータ(属性情報)より多くの情報(メタデータ)を用いることで検索性能を向上できる。
The
次に、図6のフローチャートを参照して、上記した映像検索装置50において検索された画像において隠蔽が発生した場合の処理手順について説明する。
Next, a processing procedure in the case where concealment occurs in the image searched by the
まず、上記した図5のステップS11〜ステップS15の処理に相当するステップS21〜ステップS25の処理が実行される。 First, the process of step S21-step S25 equivalent to the process of step S11-step S15 of FIG. 5 mentioned above is performed.
次に、検索処理部56は、検索された画像に含まれる検索対象物4に対する隠蔽の発生を検知する(ステップS26)。このとき、検索処理部56は、検索された画像に付与されている検索対象物4に関するメタデータに基づいて、隠蔽の発生を検知する。検索処理部56は、例えば隠蔽が発生するよりも前の時刻で得られる検索対象物4の全体画像(全身画像)と、検索された画像に含まれる検索対象物4の形状を比較することで隠蔽の発生を検知する。この検索対象物4の形状等は、メタデータ生成部55によって生成された検索対象物4に関するメタデータに含まれる。また、検索処理部56は、検索対象物4に関するメタデータに含まれる輝度情報または色情報に基づいて、隠蔽の発生を検知する。具体的には、例えば検索された画像の1つ前のフレーム(画像)に映っていた特定の色の服を着た人(検索対象物4)の一部のみが次のフレーム(つまり、検索された画像)で見えていたような場合には、検索対象物4に対する隠蔽の発生が検知される。
Next, the
検索処理部56は、検索対象物4に対する隠蔽の発生が検知された場合、当該隠蔽の発生が検知された画像(隠蔽発生画像)に対して時系列的に前後の画像(映像)を検索する(ステップS27)。この場合、検索処理部56は、検索対象物4が含まれる画像であって、当該検索対象物4に対する隠蔽が発生していない画像を検索する。
When the occurrence of concealment with respect to the
検索処理部56は、検索された前後の画像に含まれる検索対象物4に関するメタデータを取得する(ステップS28)。この前後の画像は、検索対象物4に対する隠蔽が発生していない画像であるため、より多くの検索対象物4に関するメタデータを取得することができる。
The
検索処理部56は、取得された検索対象物4に関するメタデータに基づいて、当該検索対象物4が含まれる画像(映像)を映像蓄積部53から検索する(ステップS29)。
The
検索結果出力部57は、検索された画像(映像)を、検索条件入力部54によって入力された検索条件に対する検索結果としてユーザに対して出力する(ステップS30)。また、検索結果出力部57は、上記したステップS27において検索された前後の画像の間の画像を連続した映像としてユーザに対して出力する。これにより、例えば隠蔽発生画像から検索対象物4の情報(メタデータ)を得ることができない場合でも、検索の連続性を確保し、検索性能を高めることができる。
The search
次に、図7のフローチャートを参照して、検索オプションを設定する処理手順について説明する。 Next, a processing procedure for setting a search option will be described with reference to the flowchart of FIG.
まず、検索オプション設定部58は、例えばユーザの操作に応じて、映像蓄積部53に蓄積された映像(を構成する画像)を検索する際の、当該検索に関する条件(検索オプション)を設定する(ステップS31)。この検索オプションには、例えば検索速度または検索精度に関する条件が含まれる。
First, the search
ここで、上記したような検索処理を実行する場合、検索すべきシーン(画像)により処理に使用する情報が異なる。更に、検索精度を高くしようとすると検索速度は低下する。そこで、上記した検索オプションでは、ユーザの操作に応じて、例えば検索処理において用いられる複数用意された特徴量(メタデータ)の組合せや参照する情報の順序が設定される。つまり、ユーザは、検索対象の指定、検索に用いる情報(メタデータ)の選択、組合せの指定及び検索精度の指定等を行うことができる。これにより、ユーザは、検索速度及び検索精度を個別に指定することができる。 Here, when the search process as described above is executed, the information used for the process differs depending on the scene (image) to be searched. Furthermore, the search speed decreases when the search accuracy is increased. Therefore, in the search option described above, a combination of a plurality of feature amounts (metadata) prepared for use in search processing and the order of information to be referred to are set according to a user operation. That is, the user can specify a search target, select information (metadata) used for search, specify a combination, specify search accuracy, and the like. Thereby, the user can designate the search speed and the search accuracy individually.
検索オプション設定部58により検索オプションが設定された場合には、検索処理部56は、当該検索オプションに応じて検索処理を実行する(ステップS32)。
When a search option is set by the search
上記したように本実施形態においては、例えば検索対象物4が含まれる画像(映像)を検索する場合、当該映像蓄積部53に格納された映像全体から検索対象物4に関するメタデータを収集し、当該収集されたメタデータを用いて検索処理を行うことで、例えば検索条件入力部54によって入力された検索条件に含まれる情報より多くの情報を用いて検索を行うことが可能となる。これにより、検索性能を向上させることができる。
As described above, in the present embodiment, for example, when searching for an image (video) including the
また、本実施形態においては、映像蓄積部53に対する検索処理において、例えば画像に含まれる検索対象物4が他の物(対象物)による一時的な隠蔽が発生し、ある瞬間の画像から検索対象物4に関するメタデータを得ることができない場合、当該検索対象物4の隠蔽が発生する前の時刻の画像(映像)または隠蔽が発生しなくなった後の時刻の画像(映像)を探索・処理することで、検索対象物の継続的な検索を実現できる。これにより、隠蔽が発生した画像(映像)に対して無理な検索を行うことなく、画像内の情報(メタデータ)を効率的に取得できる。また、前後の画像の間の画像を連続して出力することで、連続性を確保し、検索性能を向上させることができる。
In the present embodiment, in the search processing for the
また、本実施形態においては、ユーザが検索に関する条件(検索オプション)を指定することができるため、結果として、例えば倍速機能が実現される。これにより、ユーザの意図に応じた検索を実行することができる。 In the present embodiment, the user can specify a search condition (search option). As a result, for example, a double speed function is realized. Thereby, the search according to a user's intention can be performed.
つまり、上記したように本実施形態においては、複数のカメラ1により撮影された画像(映像)を効率的に検索することが可能となる。
That is, as described above, in the present embodiment, it is possible to efficiently search for images (videos) taken by the plurality of
なお、蓄積映像だけでなくリアルタイム映像に対しても処理できる仕組みを導入することで、例えば店舗等に設置された複数のカメラ1間に映っている人を連続的に検索することも可能である。
In addition, by introducing a mechanism capable of processing not only stored video but also real-time video, it is possible to continuously search for people who are shown between a plurality of
[第1の変形例]
次に、図8を参照して、本実施形態の第1の変形例について説明する。本変形例に係る映像検索システムの構成は、前述した本実施形態の構成と同様であるため、図1〜図4を用いて説明する。
[First Modification]
Next, a first modification of the present embodiment will be described with reference to FIG. The configuration of the video search system according to this modification is the same as the configuration of this embodiment described above, and will be described with reference to FIGS.
本変形例に係る映像検索装置50に含まれる検索処理部56は、例えば検索条件入力部54によって入力された検索条件及びメタデータ生成部55によって生成されたメタデータに基づいて、当該検索条件に合致する画像(映像)を検索する。つまり、検索処理部56は、ユーザによって指定された検索対象物4を含む画像(映像)を映像蓄積部53から検索する。
The
検索処理部56は、検索された画像に含まれる検索対象物4に対する隠蔽(重なり)の発生を検知する。検索処理部56は、例えば検索された画像に付与されている検索対象物4に関するメタデータに基づいて隠蔽の発生を検知する。
The
検索処理部56は、検索対象物4に対する隠蔽の発生が検知された場合、当該隠蔽の発生が検知された画像(隠蔽発生画像)をスキップする。検索処理部56は、映像蓄積部53に蓄積された映像を構成する画像のうち、当該検索対象物4に対する隠蔽の発生がない画像を検索する。検索処理部56は、検索された検索対象物4に対する隠蔽の発生がない(隠蔽の発生が検知されていない)画像に含まれる検索対象物4に関するメタデータを取得する。検索処理部56は、取得された検索対象物4に関するメタデータに基づいて、検索対象物4が含まれる画像を検索する。つまり、検索処理部56は、上記した検索対象物4の同定(照合)処理を実行する。
When the occurrence of concealment for the
次に、図8のフローチャートを参照して、本変形例に係る映像検索装置50の処理手順について説明する。
Next, a processing procedure of the
まず、前述した図6のステップS21〜ステップS26の処理に相当するステップS41〜ステップS46の処理が実行される。 First, the process of step S41-step S46 equivalent to the process of step S21-step S26 of FIG. 6 mentioned above is performed.
次に、検索処理部56は、検索対象物4に対する隠蔽の発生が検知された場合、検索対象物4に対する隠蔽の発生が検知された画像(隠蔽発生画像)をスキップする(ステップS47)。
Next, when the occurrence of concealment for the
検索処理部56は、隠蔽発生画像がスキップされると、検索対象物4に対する隠蔽の発生がない画像を検索する(ステップS48)。検索処理部56は、検索条件入力部54によって入力された検索条件及びメタデータ生成部55によって生成されたメタデータに基づいて、映像蓄積部53から画像を検索する。なお、検索対象物4に対する隠蔽の発生がない画像とは、例えば隠蔽発生画像に対して時系列的に前または後の画像であって、当該検索対象物4の全体(全身)が見える画像である。
When the concealment occurrence image is skipped, the
検索処理部56は、検索された検索対象物4に対する隠蔽が発生していない画像に付加されている検索対象物4に関するメタデータを取得する(ステップS49)。この場合、取得されたメタデータは隠蔽が発生していない検索対象物4に関するメタデータであるため、検索処理部56は、例えば隠蔽発生画像に付与されている検索対象物4に関するメタデータと比べてより多くの情報(メタデータ)を取得できる。
The
検索処理部56は、取得されたメタデータに基づいて、検索対象物4の同定処理を実行することで、当該検索対象物4を含む画像を検索する(ステップS50)。
The
検索処理部56によって検索された画像は、検索結果出力57により、例えばユーザに対して出力される。
The image searched by the
上記したように本変形例においては、検索処理において検索対象物4に対する隠蔽(重なり)の発生が検知された場合、当該隠蔽の発生が検知された画像(隠蔽発生画像)をスキップし、例えば当該検索対象物4に対する隠蔽の発生がない画像(例えば、隠蔽発生画像の前または後の検索対象物4の全体が見える画像)に付与されている検索対象物4に関するメタデータを取得する。本変形例においては、隠蔽の発生がない画像から取得されたメタデータを基に、検索対象物4の同定が実行される。
As described above, in the present modification, when occurrence of concealment (overlap) with respect to the
このように、本変形例においては、検索対象物4に対する隠蔽(重なり)が少ない画像を積極的に探索してから検索を行うことで、例えば無駄な映像のスキップに基づく高速検索を実現することが可能となる。したがって、本変形例においては、例えば複数のカメラ1により撮影された映像(画像)を効率的に検索することが可能となる。
As described above, in the present modification, by performing a search after actively searching for an image with less concealment (overlap) with respect to the
[第2の変形例]
次に、図9を参照して、本実施形態の第2の変形例について説明する。図9は、本変形例に係る画像処理装置100の主として機能構成を示すブロック図である。なお、前述した図3と同様の部分には同一参照符号を付してその詳しい説明を省略する。ここでは、図3と異なる部分について主に述べる。
[Second Modification]
Next, a second modification of the present embodiment will be described with reference to FIG. FIG. 9 is a block diagram mainly illustrating a functional configuration of the
図9に示すように、画像処理装置100は、補正情報格納部101及びカラー画像処理部102を含む。
As shown in FIG. 9, the
補正情報格納部101には、例えば複数のカメラ1の各々の特性によって生じる色(色彩)の個体差を補正するための補正情報が予め格納されている。この補正情報は、例えば複数のカメラ1毎に基準となる色のチェッカーボードを予め撮影し、この撮影されたチェッカーボード(の画像)を用いて生成される。
In the correction
カラー画像処理部102は、画像切り出し部12によって切り出された画像に対して、カラー画像処理を実行する。カラー画像処理部102は、例えば画像切り出し部12によって切り出された画像(対象物4)に対する光源の影響を除去する処理を実行する。
The color
カラー画像処理部102は、上記した補正情報を生成する機能を有する。カラー画像処理部102は、生成された補正情報を補正情報格納部14に格納する。
The color
カラー画像処理部102は、補正情報格納部14に格納されている補正情報に基づいて、画像切り出し部12によって切り出された画像に生じる個体差を吸収(補正)する色キャリブレーションを行う。
Based on the correction information stored in the correction
次に、図10のフローチャートを参照して、上記したカラー画像処理の処理手順について説明する。 Next, the color image processing procedure will be described with reference to the flowchart of FIG.
まず、画像処理装置100の入力部11は、当該画像処理装置100に接続されているカメラ1によって撮影された映像(データ)を入力する(ステップS51)。
First, the
画像切り出し部12は、入力部11によって入力された映像を構成する画像において、当該画像に含まれる対象物4の領域(画像)を切り出す(ステップS52)。
The
ここで、例えば複数のカメラ1の各々によって撮影される範囲を移動(スルー)することによって当該複数のカメラ1の各々によって撮影された映像に含まれる特定の対象物(例えば、人)4を検索する際に用いられるメタデータとしては、例えば当該特定の対象物4の服または髪の毛の色のような色情報が重要となる。しかしながら、例えば複数のカメラ1の各々によって撮影された映像(画像)を単純に画像処理した場合には、当該カメラ1が設置されている場所等に応じて光源の影響を受けた色情報が算出される。これにより、例えば同一の対象物(同一人物)の服または髪の毛の色が周囲の環境、時間帯、カメラ間で異なる色として算出され、色情報による対象物4の照合性能が低下する場合がある。
Here, for example, a specific object (for example, a person) 4 included in an image photographed by each of the plurality of
そこで、カラー画像処理部102は、画像切り出し部12によって切り出された画像に対して、カラー画像処理を実行する(ステップS53)。カラー画像処理部102は、例えば画像切り出し部12によって切り出された画像(対象物4)に対する光源の影響を除去する。
Therefore, the color
このカラー画像処理部102によってカラー画像処理された画像によって構成される映像は、例えば送信部14により映像検索装置50に対して送信される。送信部14によって送信された映像は、映像検索装置50の映像蓄積部53に蓄積される。
The video constituted by the image subjected to the color image processing by the color
次に、映像検索装置50において、映像蓄積部53に蓄積された映像に対する検索処理が実行されるものとする。この場合、映像検索装置50のメタデータ生成部55は、映像蓄積部53に蓄積された映像を構成する画像を解析することによって、当該画像に含まれる対象物4の色情報を抽出する(ステップS54)。ここで、処理される画像は、上記したようにカラー画像処理されているため、抽出される色情報は、例えば光源の影響を受けておらず、物体固有の色が算出される。
Next, it is assumed that the
メタデータ生成部55は、抽出された色情報を含む対象物4に関するメタデータを生成する(ステップS55)。ここで、上記したように例えば特定の対象物4に関するメタデータ(属性情報)としては服または髪の毛の色等が挙げられる。この場合、例えば1つの特定の対象物4に関するメタデータが複数生成された場合には、当該複数のメタデータを1つに纏めて(コード化することで)情報パターンとして扱う。
The
なお、本変形例においても、前述した本実施形態と同様に、映像検索装置50のメタデータ生成部55によってメタデータが生成されるものとして説明したが、前述したように画像処理装置100のメタデータ生成部13によって生成される構成であっても構わない。
In the present modification, as in the above-described embodiment, it has been described that metadata is generated by the
検索処理部56は、メタデータ生成部55によって生成されたメタデータに基づいて、例えば複数のカメラ1の各々によって撮影された画像における対象物(検索対象物)4の同定処理を実行する(ステップS56)。
Based on the metadata generated by the
次に、図11のフローチャートを参照して、上記した色キャリブレーションの処理手順について説明する。 Next, the color calibration process will be described with reference to the flowchart of FIG.
複数のカメラ1の各々は、例えば予め用意されている基準となる色のチェッカーボードを撮像(撮影)する(ステップS61)。この複数のカメラ1の各々によって撮像されたチェッカーボードの画像(映像)は、画像処理装置100の入力部11によって入力される。
Each of the plurality of
カラー画像処理部102は、入力部11によって入力されたチェッカーボードの画像に対して、カラー画像処理を実行する。これにより、カラー画像処理部102は、チェッカーボードの色(情報)を算出する(ステップS62)。ここで算出された色情報は、チェッカーボードの固有色情報である。なお、算出されたチェッカーボードの固有色情報は、補正情報として補正情報格納部101に格納される。
The color
ここで、例えば複数のカメラ1の各々によって撮影された映像が入力部11により入力された場合を想定する。この場合、カラー画像処理部102は、補正情報格納部101に格納されている補正情報に基づいて、入力部11によって入力された映像(を構成する画像)に対して色キャリブレーション(補正処理)を実行する(ステップS63)。これにより、複数のカメラ1の各々によって撮影された映像の各色を、固有色のレベルで同じ色に補正する。
Here, for example, a case is assumed in which video captured by each of the plurality of
カラー画像処理部102は、複数のカメラ1間において、色キャリブレーションが実行された映像(補正後の映像)の色を比較する(ステップS64)。
The color
カラー画像処理部102は、比較した結果、複数のカメラ1間における色の誤差(色誤差)が例えば予め定められた範囲(一定範囲)内に収まることを確認する(ステップS65)。カラー画像処理部102によって複数のカメラ1間における色誤差が一定範囲内に収まることが確認されると、色キャリブレーション処理は終了される。
As a result of the comparison, the color
上記したように本変形例においては、複数のカメラ1の各々によって撮影された映像(画像)に対する光源の影響を除去するカラー画像処理を行い、当該画像に含まれる対象物4固有の色を算出し、本色をメタデータとして例えばそれぞれ異なるカメラ1によって撮影された映像(画像)に含まれる当該対象物(検索対象物)4の同定(照合)処理を実行することで、検索性能を高めることが可能となる。
As described above, in this modification, color image processing for removing the influence of the light source on the video (image) taken by each of the plurality of
また、本変形例においては、例えば基準となる色のチェッカーボードを用いて予め生成された補正情報に基づいて、複数のカメラ1毎の特性によって生じる色の個体差を吸収する色キャリブレーションが実行される。このように、複数のカメラ1の各々によって撮影された映像を色キャリブレーションが実行された映像に変換して、例えば特定の対象物(検索対象物)4の検索を実施することで検索性能を向上させることができる。
In this modification, for example, based on correction information generated in advance using a reference color checker board, color calibration is performed to absorb individual differences in color caused by the characteristics of each of the plurality of
また、本変形例においては、例えば対象物4に関する複数のメタデータ(属性情報)を1つに纏めてコード化して情報パターンとして扱うことで、当該対象物4に対する検索処理においてメタデータ同士の比較計算が可能となり、複数のカメラ1の各々によって撮影された映像(画像)においても同一人物の同定(照合)が容易となる。
Further, in this modification, for example, a plurality of metadata (attribute information) related to the
このように、本変形例においては、例えば複数のカメラ1により撮影された映像(画像)を効率的に検索することが可能となる。
As described above, in the present modification, for example, it is possible to efficiently search for videos (images) taken by a plurality of
[第3の変形例]
次に、図12を参照して、本実施形態の第3の変形例について説明する。図12は、本変形例に係る画像処理装置110の主として機能構成を示すブロック図である。なお、前述した図9と同様の部分には同一参照符号を付してその詳しい説明を省略する。ここでは、図9と異なる部分について述べる。
[Third Modification]
Next, a third modification of the present embodiment will be described with reference to FIG. FIG. 12 is a block diagram mainly showing a functional configuration of the
図12に示すように、画像処理装置110は、合成画像生成部111を含む。合成画像生成部111は、画像切り出し部12によって切り出された対象物4の画像を複数収集する。この場合、合成画像生成部111は、例えば時系列的に対象物4の画像を収集する。この収集された複数の画像の各々には、例えばそれぞれ異なる視点からの同一の対象物4が含まれる。また、この収集された複数の画像は、同一のカメラ1によって撮影された画像である。
As illustrated in FIG. 12, the
合成画像生成部111は、収集された複数の画像に基づいて、当該画像に含まれる対象物4を多視点から表す合成画像を生成する。
The composite
次に、図13のフローチャートを参照して、本変形例に係る映像検索システムの処理手順について説明する。なお、画像処理装置110に含まれるカラー画像処理部102の処理(例えば、前述した図10のステップS53の処理)については前述した第2の変形例と同様であるので、ここでは便宜的に省略する。
Next, a processing procedure of the video search system according to this modification will be described with reference to the flowchart of FIG. Note that the processing of the color
まず、前述した図10に示すステップS51及びステップS52の処理に相当するステップS71及びステップS72の処理が実行される。 First, the process of step S71 and step S72 equivalent to the process of step S51 and step S52 shown in FIG. 10 mentioned above is performed.
ここで、本変形例においては、例えば店舗内に設置された複数のカメラ1によって撮影された映像(画像)を検索する場合、当該複数のカメラ1間で特定の対象物(例えば、人)4を追跡検索する場合を想定している。この場合、カメラ1と対象物4との位置関係により、対象物は異なる見え方をする。よって、単純に複数のカメラ1間で対象物4が同一であるかどうか照合(同定)することは困難である。つまり、複数のカメラ1において、同じ見え方をする映像(画像)が得られるとは限らないため、異なる見え方をする対象物4同士の照合が必要となる。
Here, in this modification, for example, when searching for images (images) taken by a plurality of
そこで、合成画像生成部111は、画像切り出し部12によって切り出された対象物4が含まれる画像を複数収集する(ステップS73)。合成画像生成部111は、複数のカメラ1のうち、例えば同一のカメラ1によって撮影された画像を時系列的に収集する。つまり、合成画像生成部111は、例えばそれぞれ異なる視点からの同一の対象物4の画像を収集する。
Therefore, the composite
次に、合成画像生成部111は、収集された複数の画像に基づいて、当該画像に含まれる対象物4を多視点から表す合成画像を生成する(ステップS74)。例えば収集された画像に含まれる対象物4が人である場合には、合成画像生成部111は、多視点から見たときの人モデル画像(合成画像)を生成する。また、この合成画像は、例えば収集された複数の画像を撮影したカメラ1毎に生成される。
Next, the composite
この合成画像生成部111によって生成された合成画像は、例えば送信部14により映像検索装置50に対して送信される。
The composite image generated by the composite
映像検索装置50のメタデータ生成部55は、画像処理装置110の送信部14によって送信された合成画像を解析する。メタデータ生成部55は、解析結果に基づいて、例えばカメラ1毎に生成された合成画像によって表される対象物4に関するメタデータを生成する(ステップS75)。
The
なお、本変形例においても、前述した本実施形態と同様に、映像検索装置50のメタデータ生成部55によってメタデータが生成されるものとして説明したが、前述したように画像処理装置110のメタデータ生成部13によって生成される構成であっても構わない。
In the present modification, as in the above-described embodiment, it has been described that metadata is generated by the
検索処理部56は、メタデータ生成部55によって生成されたメタデータに基づいて、例えば複数のカメラ1の各々によって撮影された画像における対象物(検索対象物)4の同定処理を実行する(ステップS76)。
Based on the metadata generated by the
ここで、複数のカメラ1が第1のカメラ1及び当該第1のカメラ1とは異なる第2のカメラ1を含むものとする。また、例えば第1のカメラ1によって撮影された画像(映像)から生成された合成画像を第1の合成画像、例えば第2のカメラ1によって撮影された画像(映像)から生成された合成画像を第2の合成画像とする。この場合、検索処理部56は、第1の合成画像を解析することによって生成されたメタデータ(第1のメタデータ)及び第2の合成画像を解析することによって生成されたメタデータ(第2のメタデータ)を比較することにより、当該第1の合成画像によって表される対象物4及び当該第2の合成画像によって表される対象物4を照合する。これにより、例えば第1のカメラ1及び第2のカメラ1の各々によって異なる見え方をする対象物4(の映像)が撮影された場合であっても、当該第1のカメラ1及び第2のカメラ1によって撮影された映像に含まれる対象物4同士の照合をすることが可能となる。
Here, it is assumed that the plurality of
上記したように本変形例においては、各カメラ1の時系列画像から当該画像に含まれる対象物4を多視点から表す合成画像(例えば、人画像)を生成しておき、異なるカメラ1によって撮影された画像(映像)において比較が可能な画像(に含まれる対象物4)を照合する。このため、例えば複数のカメラ1において異なる見え方をする映像が撮影された場合であっても、当該映像に含まれる対象物4同士を照合することができる。よって本変形例においては、複数のカメラ1に渡って撮影された対象物4の継続検索性能を向上させることが可能となる。これにより、本変形例においては、複数のカメラ1により撮影された画像(映像)を効率的に検索することが可能となる。
As described above, in this modified example, a composite image (for example, a human image) representing the
なお、本願発明は、上記実施形態またはその各変形例そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態またはその各変形例に開示されている複数の構成要素の適宜な組合せにより種々の発明を形成できる。例えば、実施形態またはその各変形例に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態またはその各変形例に亘る構成要素を適宜組合せてもよい。 Note that the present invention is not limited to the above-described embodiment or its modifications, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiment or its modifications. For example, you may delete a some component from all the components shown by embodiment or each modification. Furthermore, you may combine suitably the component covering different embodiment or its modification.
1…カメラ、2…店舗フロア、3…監視範囲、4…対象物、10,100,110…画像処理装置、11…入力部、12…画像切り出し部、13…メタデータ生成部、14…送信部、20…ネットワーク、50…映像検索装置、51…受信部、52…映像蓄積処理部、53…映像蓄積部(格納手段)、54…検索条件入力部、55…メタデータ生成部、56…検索処理部、57…検索結果出力部、58…検索オプション設定部、101…補正情報格納部、102…カラー画像処理部、111…合成画像生成部。
DESCRIPTION OF
Claims (2)
前記複数のカメラによって撮影された映像を受信する受信手段と、
前記受信された映像を格納する格納手段と、
前記格納手段に格納された映像を構成する画像のうち、ユーザによって指定された検索対象物を含む画像を検索するための検索条件を入力する検索条件入力手段と、
前記格納手段に格納された映像を構成する画像を解析する解析手段と、
前記解析された画像に含まれる対象物を特徴付ける属性を示すメタデータを生成するメタデータ生成手段と、
前記入力された検索条件及び前記生成されたメタデータに基づいて、前記検索対象物を含む画像を前記格納手段から検索する第1の検索手段と、
前記生成されたメタデータに基づいて、前記第1の検索手段によって検索された画像に含まれる前記検索対象物に対する隠蔽の発生を検知する隠蔽発生検知手段と、
前記隠蔽の発生が検知された場合、前記格納手段に格納された映像を構成する画像のうち、前記検索対象物に対する隠蔽の発生がない画像を、前記入力された検索条件及び前記生成されたメタデータに基づいて検索する第2の検索手段と、
前記第2の検索手段によって検索された画像に含まれる前記検索対象物を特徴付ける属性を示すメタデータを取得する取得手段と、
前記取得されたメタデータに基づいて、前記検索対象物を含む画像を前記格納手段から検索する第3の検索手段と
を具備することを特徴とする映像検索システム。 A plurality of cameras that are installed within a certain range and shoot a video composed of an image including an object existing within the range;
Receiving means for receiving images taken by the plurality of cameras;
Storage means for storing the received video;
Search condition input means for inputting a search condition for searching for an image including a search target specified by a user among images constituting the video stored in the storage means;
Analyzing means for analyzing an image constituting the video stored in the storage means;
Metadata generation means for generating metadata indicating attributes characterizing the object included in the analyzed image;
First search means for searching the storage means for an image including the search object based on the input search condition and the generated metadata;
Concealment occurrence detection means for detecting occurrence of concealment for the search object included in the image searched by the first search means based on the generated metadata;
When the occurrence of concealment is detected, among the images constituting the video stored in the storage means, an image that does not cause concealment with respect to the search object is selected as the input search condition and the generated meta data. A second search means for searching based on the data;
Obtaining means for obtaining metadata indicating an attribute characterizing the search object included in the image searched by the second search means;
A video search system comprising: third search means for searching the storage means for an image including the search object based on the acquired metadata.
前記受信された映像を格納する格納手段と、
前記格納手段に格納された映像を構成する画像のうち、ユーザによって指定された検索対象物を含む画像を検索するための検索条件を入力する検索条件入力手段と、
前記格納手段に格納された映像を構成する画像を解析する解析手段と、
前記解析された画像に含まれる対象物を特徴付ける属性を示すメタデータを生成するメタデータ生成手段と、
前記入力された検索条件及び前記生成されたメタデータに基づいて、前記検索対象物を含む画像を前記格納手段から検索する第1の検索手段と、
前記生成されたメタデータに基づいて、前記第1の検索手段によって検索された画像に含まれる検索対象物に対する隠蔽の発生を検知する隠蔽発生検知手段と、
前記隠蔽の発生が検知された場合、前記格納手段に格納された映像を構成する画像のうち、前記検索対象物に対する隠蔽の発生がない画像を、前記入力された検索条件及び前記生成されたメタデータに基づいて検索する第2の検索手段と、
前記第2の検索手段によって検索された画像に含まれる前記検索対象物を特徴付ける属性を示すメタデータを取得する取得手段と、
前記取得されたメタデータに基づいて、前記検索対象物を含む画像を前記格納手段から検索する第3の検索手段と
を具備することを特徴とする映像検索装置。 Receiving means for receiving a video composed of an image including an object present in the range, which is taken by a plurality of cameras installed in a certain range;
Storage means for storing the received video;
Search condition input means for inputting a search condition for searching for an image including a search target specified by a user among images constituting the video stored in the storage means;
Analyzing means for analyzing an image constituting the video stored in the storage means;
Metadata generation means for generating metadata indicating attributes characterizing the object included in the analyzed image;
First search means for searching the storage means for an image including the search object based on the input search condition and the generated metadata;
Concealment occurrence detection means for detecting occurrence of concealment for the search object included in the image searched by the first search means based on the generated metadata;
When the occurrence of concealment is detected, among the images constituting the video stored in the storage means, an image that does not cause concealment with respect to the search object is selected as the input search condition and the generated meta data. A second search means for searching based on the data;
Obtaining means for obtaining metadata indicating an attribute characterizing the search object included in the image searched by the second search means;
3. A video search apparatus comprising: a third search unit that searches the storage unit for an image including the search object based on the acquired metadata.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007221398A JP4929102B2 (en) | 2007-08-28 | 2007-08-28 | Video search system and video search device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007221398A JP4929102B2 (en) | 2007-08-28 | 2007-08-28 | Video search system and video search device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009055445A JP2009055445A (en) | 2009-03-12 |
JP4929102B2 true JP4929102B2 (en) | 2012-05-09 |
Family
ID=40506085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007221398A Expired - Fee Related JP4929102B2 (en) | 2007-08-28 | 2007-08-28 | Video search system and video search device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4929102B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6688975B2 (en) | 2016-03-25 | 2020-04-28 | パナソニックIpマネジメント株式会社 | Monitoring device and monitoring system |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004072628A (en) * | 2002-08-08 | 2004-03-04 | Univ Waseda | Moving body tracking system using a plurality of cameras and its method |
JP2005086626A (en) * | 2003-09-10 | 2005-03-31 | Matsushita Electric Ind Co Ltd | Wide area monitoring device |
JP4214990B2 (en) * | 2004-12-08 | 2009-01-28 | 日本電信電話株式会社 | Event detection method, apparatus and program |
JP2006186808A (en) * | 2004-12-28 | 2006-07-13 | Mitsubishi Electric Corp | Video recorder |
JP2006301995A (en) * | 2005-04-21 | 2006-11-02 | Matsushita Electric Ind Co Ltd | Person search device and person search method |
JP2007049332A (en) * | 2005-08-09 | 2007-02-22 | Sony Corp | Recording and reproducing apparatus and method, and recording apparatus and method |
JP4700477B2 (en) * | 2005-11-15 | 2011-06-15 | 株式会社日立製作所 | MOBILE BODY MONITORING SYSTEM AND MOBILE BODY FEATURE CALCULATION DEVICE |
-
2007
- 2007-08-28 JP JP2007221398A patent/JP4929102B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009055445A (en) | 2009-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7317919B2 (en) | Appearance search system and method | |
US20160019426A1 (en) | Method of video analysis | |
US8866900B2 (en) | Information processing apparatus and method of controlling same | |
CN105574506B (en) | Intelligent face pursuit system and method based on deep learning and large-scale clustering | |
JP5371083B2 (en) | Face identification feature value registration apparatus, face identification feature value registration method, face identification feature value registration program, and recording medium | |
US8270806B2 (en) | Information processing apparatus and method of controlling same | |
JP4973188B2 (en) | Video classification device, video classification program, video search device, and video search program | |
KR101425170B1 (en) | Object tracking apparatus and method of camera and secret management system | |
JP5127067B2 (en) | Image search apparatus and image search method | |
JP6789601B2 (en) | A learning video selection device, program, and method for selecting a captured video masking a predetermined image area as a learning video. | |
CN111898581B (en) | Animal detection method, apparatus, electronic device, and readable storage medium | |
CN105262942B (en) | Distributed automatic image and video processing | |
KR20080104034A (en) | Face-image registration device, face-image registration method, face-image registration program, and recording medium | |
JP2008165700A (en) | Image processing device, electronic equipment, image processing system, image processing method, and program | |
JP2011528150A (en) | Method and system for automatic personal annotation of video content | |
KR102213494B1 (en) | Apparatus and method for identifying action | |
JP2007097047A (en) | Contents editing apparatus, contents editing method and contents editing program | |
KR20200020009A (en) | Image processing apparatus and image processing method | |
CN114863321B (en) | Automatic video generation method and device, electronic equipment and chip system | |
US20220273984A1 (en) | Method and device for recommending golf-related contents, and non-transitory computer-readable recording medium | |
WO2012063544A1 (en) | Image processing device, image processing method, and recording medium | |
JP4987629B2 (en) | Video search system and video search device | |
JP4937043B2 (en) | Video search system and video search device | |
JP2009055447A (en) | System and device for searching video image | |
JP4929102B2 (en) | Video search system and video search device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100315 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120117 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120213 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150217 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4929102 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150217 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |