JP2009055447A - System and device for searching video image - Google Patents

System and device for searching video image Download PDF

Info

Publication number
JP2009055447A
JP2009055447A JP2007221400A JP2007221400A JP2009055447A JP 2009055447 A JP2009055447 A JP 2009055447A JP 2007221400 A JP2007221400 A JP 2007221400A JP 2007221400 A JP2007221400 A JP 2007221400A JP 2009055447 A JP2009055447 A JP 2009055447A
Authority
JP
Japan
Prior art keywords
search
image
video
metadata
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007221400A
Other languages
Japanese (ja)
Inventor
Yoshihiko Suzuki
美彦 鈴木
Yusuke Takahashi
雄介 高橋
Kenji Baba
賢二 馬場
Takaaki Enohara
孝明 榎原
Haruki Kinoshita
晴喜 木下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007221400A priority Critical patent/JP2009055447A/en
Publication of JP2009055447A publication Critical patent/JP2009055447A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently search for a video image photographed by a plurality of cameras. <P>SOLUTION: A video image storage section 53 stores a video image photographed by the plurality of cameras. A search option setting section 58 sets search conditions for searching for an image compositing the video image stored in the video image storage section 53, according to the operation of a user. A search condition input section 54 inputs the search conditions for searching an image containing an object designated by the user. A meta data generating section 55 generates meta data indicating attributes characterizing an object contained in the image for compositing the video image stored in the video image storage section 53. A search processing section 56 searches for the image for compositing the video image stored in the video image storage section 53, based on the search conditions set by the search option setting section 58, search conditions inputted by the search condition input section 54, and the meta data generated by the meta data generating section 55. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、複数のカメラにおいて撮影された映像を検索する映像検索システム及び映像検索装置に関する。   The present invention relates to a video search system and a video search apparatus that search videos taken by a plurality of cameras.

近年、例えばカメラにより撮影された映像データ(以下、単に映像と表記)を例えばハードディスクドライブ(HDD:Hard Disk Drive)のようなメディアに蓄積し、当該蓄積された映像を検索する映像検索システムが知られている。   In recent years, for example, a video search system that stores video data (hereinafter simply referred to as video) captured by a camera in a medium such as a hard disk drive (HDD) and searches for the stored video is known. It has been.

このような映像検索システムにおいては、例えば店舗等にセキュリティー目的で設置された複数のカメラにより撮影された映像を検索する場合、異なるカメラにより撮影された同一対象物(例えば、同一人物)を、複数の映像間で対応付けて検索することが必要となる。   In such a video search system, for example, when searching for videos taken by a plurality of cameras installed in a store or the like for security purposes, a plurality of same objects (for example, the same person) taken by different cameras are searched. It is necessary to search in association with each other video.

そこで、例えばシステム全体での自律的な移動体追跡を可能とし、また、複数のカメラに分散された情報の収集・管理を効率的に行うことができる技術(以下、先行技術と表記)が開示されている(例えば、特許文献1を参照)。この先行技術によれば、例えば特定の移動体の特徴量(例えば、色情報)に基づき、当該特徴量によって同定される移動体を探索することで、複数のビデオカメラ毎に分散された移動体追跡情報の統括的管理を可能とする。
特開2004−72628号公報
Therefore, for example, a technology (hereinafter referred to as prior art) that enables autonomous tracking of a moving body in the entire system and can efficiently collect and manage information distributed to a plurality of cameras is disclosed. (For example, refer to Patent Document 1). According to this prior art, for example, based on a feature amount (for example, color information) of a specific moving body, a moving body that is distributed for each of a plurality of video cameras is searched by searching for the moving body identified by the feature amount Enables comprehensive management of tracking information.
Japanese Patent Laid-Open No. 2004-72628

しかしながら、上記したような映像検索システムにおいては、例えば映像が時系列に流れていき、未来の時刻の映像を参照することができないリアルタイム映像を処理する方式が採用されている。このため、例えば映像が蓄積されている場合には特定の映像を処理する際に関連のある映像の全シーンを参照可能であるにもかかわらず、時系列的に処理することにより、検索性能の低下を招く場合がある。   However, in the video search system as described above, for example, a method of processing a real-time video in which video flows in time series and a video at a future time cannot be referred to is employed. For this reason, for example, when video is stored, it is possible to refer to all scenes of related video when processing a specific video. It may cause a decrease.

また、上記した先行技術のように、複数のカメラにより撮影された映像を例えば色情報に基づいて検索する場合を想定する。この場合、例えばカメラが設置されている位置等に応じて光源の影響を受けた色情報が算出される。このため、映像を撮影したカメラによっては、例えば人が知覚する色とは異なる色を有する映像が検索される場合がある。また、カメラの特性により映像上で表現される色が異なる場合についても同様に、例えば人が知覚する色とは異なる色を有する映像が検索されることがある。   Further, as in the above-described prior art, a case is assumed where videos taken by a plurality of cameras are searched based on color information, for example. In this case, for example, color information influenced by the light source is calculated according to the position where the camera is installed. For this reason, depending on the camera that captured the video, for example, a video having a color different from the color perceived by a person may be searched. Similarly, when the color expressed on the video differs depending on the characteristics of the camera, for example, a video having a color different from the color perceived by a person may be searched.

また、映像検索を実行する場合、ユーザがキーワードまたはサンプル画像等を検索条件として指定することで処理が実行されるのが一般的である。この場合、通常、ユーザは検索速度または検索精度に関する条件を指定することができない。このため、例えば映像検索システム内の仕様に依存した検索しか実行することができない。   In addition, when executing a video search, the process is generally executed by the user specifying a keyword or a sample image as a search condition. In this case, normally, the user cannot specify the conditions regarding the search speed or the search accuracy. For this reason, for example, only the search depending on the specifications in the video search system can be executed.

本発明の目的は、複数のカメラにより撮影された映像を効率的に検索する映像検索システムを提供することにある。   An object of the present invention is to provide a video search system that efficiently searches videos taken by a plurality of cameras.

本発明の1つの態様によれば、一定の範囲内に設置され、当該範囲内に存在する対象物を含む画像から構成される映像を撮影する複数のカメラと、前記複数のカメラによって撮影された映像を受信する受信手段と、前記受信された映像を格納する格納手段と、前記格納手段に格納された映像を構成する画像を検索する際の当該検索に関する条件を、ユーザの操作に応じて設定する設定手段と、前記格納手段に格納された映像を構成する画像のうち、ユーザによって指定された検索対象物を含む画像を検索するための検索条件を入力する検索条件入力手段と、前記格納手段に格納された映像を構成する画像を解析する解析手段と、前記解析された画像に含まれる対象物を特徴付ける属性を示すメタデータを生成するメタデータ生成手段と、前記設定された検索に関する条件、前記入力された検索条件及び前記生成されたメタデータに基づいて、前記検索対象物を含む画像を前記格納手段から検索する検索手段とを具備することを特徴とする映像検索システムが提供される。   According to one aspect of the present invention, a plurality of cameras that are installed within a certain range and that are configured to capture images composed of images that include objects within the range and the plurality of cameras are used. Receiving means for receiving video, storage means for storing the received video, and conditions related to the search when searching for an image constituting the video stored in the storage means are set according to a user operation Setting means, search condition input means for inputting a search condition for searching for an image including a search object designated by a user among images constituting the video stored in the storage means, and the storage means Analyzing means for analyzing an image constituting the video stored in the image, metadata generating means for generating metadata indicating an attribute characterizing the object included in the analyzed image, and And a search unit that searches the storage unit for an image including the search object based on a predetermined search condition, the input search condition, and the generated metadata. A search system is provided.

本発明によれば、複数のカメラにより撮影された映像を効率的に検索することを可能とする。   According to the present invention, it is possible to efficiently search for videos taken by a plurality of cameras.

以下、図面を参照して、本発明の実施形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1及び図2を参照して、本実施形態に係る映像検索システムの概略について説明する。図1は、本実施形態に係る映像検索システムの構成を示すブロック図である。図1に示すように、映像検索システムは、カメラ1、画像処理装置10及び映像検索装置50を含む。   With reference to FIG.1 and FIG.2, the outline | summary of the video search system which concerns on this embodiment is demonstrated. FIG. 1 is a block diagram showing a configuration of a video search system according to this embodiment. As shown in FIG. 1, the video search system includes a camera 1, an image processing device 10, and a video search device 50.

カメラ1は、各種映像を撮影する機能を有する。ここで、図2は、図1に示すカメラ1が設置される例えば店舗フロアを示す図である。図2に示すように、カメラ1は、例えば店舗フロア2のような一定範囲内に複数設置される。また、カメラ1は、当該カメラ1の監視範囲3内において、当該監視範囲3内に存在する対象物(例えば、人)4を含む画像を撮影する。   The camera 1 has a function of shooting various videos. Here, FIG. 2 is a diagram showing, for example, a store floor where the camera 1 shown in FIG. 1 is installed. As shown in FIG. 2, a plurality of cameras 1 are installed within a certain range such as a store floor 2. Further, the camera 1 captures an image including an object (for example, a person) 4 existing in the monitoring range 3 within the monitoring range 3 of the camera 1.

本実施形態に係る映像検索システムにおいては、図2に示すような例えば店舗フロア2に設置されている複数のカメラ1間を移動(スルー)する対象物4に対する検索処理が実行される。   In the video search system according to this embodiment, for example, a search process for the object 4 that moves (through) between a plurality of cameras 1 installed on the store floor 2 is executed as shown in FIG.

画像処理装置10は、カメラ1の各々に接続されている。画像処理装置10は、カメラ1によって撮影された映像データ(以下、単に映像と表記)を入力する。この映像は、例えば複数の画像データ(以下、単に画像と表記)により構成される。また、映像には、例えば音声データ等が含まれる。画像処理装置10は、入力された映像を例えばネットワーク20を介して、映像検索装置50に対して送信する。   The image processing apparatus 10 is connected to each of the cameras 1. The image processing apparatus 10 inputs video data captured by the camera 1 (hereinafter simply referred to as video). This video is composed of, for example, a plurality of image data (hereinafter simply referred to as images). The video includes audio data, for example. The image processing device 10 transmits the input video to the video search device 50 via the network 20, for example.

映像検索装置50は、画像処理装置10の各々と例えばネットワーク20を介して接続されている。映像検索装置50は、画像処理装置10によって送信された映像を、ネットワーク20を介して受信する。映像検索装置50は、受信された映像を蓄積する。また、映像検索装置50は、蓄積された映像から、例えば上記した複数のカメラ1間を移動(スルー)した特定の対象物を含む映像(を構成する画像)を検索する。   The video search device 50 is connected to each of the image processing devices 10 via, for example, the network 20. The video search device 50 receives the video transmitted by the image processing device 10 via the network 20. The video search device 50 stores the received video. In addition, the video search device 50 searches, for example, a video (a constituent image) including a specific object that has been moved (through) between the plurality of cameras 1 described above, from the stored video.

図3は、図1に示す画像処理装置10の主として機能構成を示すブロック図である。なお、映像検索システムに含まれる複数の画像処理装置10は同様の構成であるため、以下、1つの画像処理装置10について説明する。図3に示すように、画像処理装置10は、入力部11、画像切り出し部12、メタデータ生成部13及び送信部14を含む。   FIG. 3 is a block diagram mainly showing a functional configuration of the image processing apparatus 10 shown in FIG. Since a plurality of image processing devices 10 included in the video search system have the same configuration, only one image processing device 10 will be described below. As illustrated in FIG. 3, the image processing apparatus 10 includes an input unit 11, an image cutout unit 12, a metadata generation unit 13, and a transmission unit 14.

入力部11は、画像処理装置10に接続されているカメラ1によって撮影された映像(データ)を入力する。なお、この入力部11によって撮影された映像には、対象物(例えば、人)4が含まれている(映っている)。   The input unit 11 inputs video (data) taken by the camera 1 connected to the image processing apparatus 10. Note that the image captured by the input unit 11 includes an object (for example, a person) 4 (shown).

画像切り出し部12は、入力部11によって入力された映像を構成する画像において、当該画像に含まれる対象物4の領域(画像)を切り出す。   The image cutout unit 12 cuts out a region (image) of the object 4 included in the image in the image constituting the video input by the input unit 11.

メタデータ生成部13は、画像切り出し部12によって切り出された画像に対して画像処理を行うことによりメタデータを生成する機能を有する。メタデータ生成部13は、画像切り出し部12によって切り出された画像を解析する。メタデータ生成部13は、解析された画像に含まれる対象物4を特徴付ける属性を示すメタデータ(以下、対象物4に関するメタデータと表記)を生成する。この対象物4に関するメタデータには、例えば対象物4に関する色情報または輝度情報等が含まれる。メタデータ生成部55によって生成されたメタデータは、当該メタデータの生成に用いられた画像に付与される。また、1つの対象物4に対して複数のメタデータが生成された場合には、当該複数のメタデータを1つに纏めて(コード化することで)情報パターンとして扱う。   The metadata generation unit 13 has a function of generating metadata by performing image processing on the image cut out by the image cutout unit 12. The metadata generation unit 13 analyzes the image cut out by the image cutout unit 12. The metadata generation unit 13 generates metadata indicating attributes that characterize the target object 4 included in the analyzed image (hereinafter referred to as metadata related to the target object 4). The metadata related to the object 4 includes, for example, color information or luminance information related to the object 4. The metadata generated by the metadata generation unit 55 is given to the image used for generating the metadata. Further, when a plurality of metadata is generated for one object 4, the plurality of metadata are collected into one (by coding) and handled as an information pattern.

ここで、メタデータ生成部13によって生成されるメタデータの具体例について説明する。例えば解析された画像に含まれる対象物4が人である場合、メタデータ生成部13によって生成されるメタデータには、例えば顔の特徴、髪の毛の色・髪型・髪の長さ・髪の編み方、頭の形、服の色・タイプ、靴のタイプ・色、鞄・紙袋等の持ち物の種類・色・形、体系、姿勢、身長または耳の形等が含まれる。   Here, a specific example of metadata generated by the metadata generation unit 13 will be described. For example, when the object 4 included in the analyzed image is a person, the metadata generated by the metadata generation unit 13 includes, for example, facial features, hair color, hairstyle, hair length, hair knitting , Head shape, clothing color / type, shoe type / color, bag type / color / shape of bag / paper bag, etc., system, posture, height or ear shape.

例えば解析された画像に含まれる対象物4が車の場合、メタデータ生成部13によって生成されるメタデータには、色、車のタイプ、メーカーのエンブレム、ボディーの形状、タイヤの形状、ホイールのタイプ、ライトの形、ガラスの形またはエンジンの音等が含まれる。   For example, when the object 4 included in the analyzed image is a car, the metadata generated by the metadata generation unit 13 includes color, car type, manufacturer emblem, body shape, tire shape, wheel Includes type, light shape, glass shape or engine sound etc.

例えば解析された画像に含まれる対象物4が動物の場合、メタデータ生成部13によって生成されるメタデータには、顔の形、耳の形、体の色、毛の生え方、足の数、体の形または泣き声等が含まれる。   For example, when the object 4 included in the analyzed image is an animal, the metadata generated by the metadata generation unit 13 includes face shape, ear shape, body color, hair growth, and number of legs. , Body shape or crying.

例えば解析された画像に含まれる対象物4が風景の場合、メタデータ生成部13によって生成されるメタデータには、画像における色の配置パターン、空、海、川、土、雲、花、木または森の色・配置等が含まれる。   For example, when the object 4 included in the analyzed image is a landscape, the metadata generated by the metadata generation unit 13 includes the color arrangement pattern, sky, sea, river, soil, clouds, flowers, trees in the image. Or the color and arrangement of the forest.

また、例えば解析された画像に含まれる対象物4が乗り物の場合、メタデータ生成部13によって生成されるメタデータには、色、ボディーの形状、タイヤの数、ガラスの形、ハンドルの形またはマフラーの形等が含まれる。   For example, when the object 4 included in the analyzed image is a vehicle, the metadata generated by the metadata generation unit 13 includes color, body shape, number of tires, glass shape, handle shape, The shape of the muffler is included.

送信部14は、メタデータが付与された画像から構成される映像を、ネットワーク20を介して映像検索装置50に送信する。   The transmission unit 14 transmits a video composed of an image to which metadata is added to the video search device 50 via the network 20.

図4は、図1に示す映像検索装置50の主として機能構成を示すブロック図である。映像検索装置50は、受信部51、映像蓄積処理部52、映像蓄積部53、検索条件入力部54、メタデータ生成部55、検索処理部56、検索結果出力部57及び検索オプション設定部58を含む。   FIG. 4 is a block diagram mainly showing a functional configuration of the video search device 50 shown in FIG. The video search device 50 includes a receiving unit 51, a video storage processing unit 52, a video storage unit 53, a search condition input unit 54, a metadata generation unit 55, a search processing unit 56, a search result output unit 57, and a search option setting unit 58. Including.

受信部51は、画像処理装置10(に含まれる送信部14)によって送信された映像(画像)を受信する。なお、受信部51は、映像検索システムに含まれる複数の画像処理装置10の各々から送信された映像を受信する。   The receiving unit 51 receives the video (image) transmitted by the image processing apparatus 10 (the transmitting unit 14 included therein). The receiving unit 51 receives video transmitted from each of the plurality of image processing apparatuses 10 included in the video search system.

映像蓄積処理部52は、受信部51によって受信された映像を映像蓄積部53に蓄積(格納)する処理を実行する。このとき、映像蓄積処理部52は、受信部51によって受信された映像を、当該映像を撮影したカメラ1毎(当該映像を送信した画像処理装置10毎)に映像蓄積部53に蓄積する。また、映像蓄積処理部52は、受信部51によって受信された映像(画像)を時系列的に蓄積する。   The video accumulation processing unit 52 executes a process of accumulating (storing) the video received by the reception unit 51 in the video accumulation unit 53. At this time, the video storage processing unit 52 stores the video received by the receiving unit 51 in the video storage unit 53 for each camera 1 that captured the video (for each image processing apparatus 10 that transmitted the video). The video accumulation processing unit 52 accumulates the video (image) received by the reception unit 51 in time series.

検索条件入力部54は、例えば映像検索装置50を利用するユーザによって指定された対象物(以下、検索対象物と表記)4を含む画像を検索するための検索条件を入力する。また、この検索条件は、例えばリアルタイムに特定の対象物4を追跡する場合には、当該対象物4を指定して自動的に入力されてもよい。この検索条件には、例えば検索対象物4を特徴付ける属性を示す属性情報(メタデータ)またはサンプル画像等が含まれる。   The search condition input unit 54 inputs search conditions for searching for an image including an object 4 (hereinafter referred to as a search object) 4 designated by a user who uses the video search device 50, for example. In addition, for example, when tracking a specific object 4 in real time, the search condition may be automatically input by specifying the object 4. This search condition includes, for example, attribute information (metadata) indicating an attribute characterizing the search object 4 or a sample image.

メタデータ生成部55は、映像蓄積部53に蓄積された映像を構成する画像に対して画像処理を行うことによりメタデータを生成する機能を有する。メタデータ生成部55は、映像蓄積部53に蓄積された映像を構成する画像を解析する。メタデータ生成部55は、解析された画像に含まれる対象物(例えば、人)4を特徴付ける属性を示すメタデータを生成する。このメタデータ生成部55によって生成されたメタデータは、例えば当該メタデータの生成に用いられた画像に付与される。   The metadata generation unit 55 has a function of generating metadata by performing image processing on images constituting the video stored in the video storage unit 53. The metadata generation unit 55 analyzes the images constituting the video stored in the video storage unit 53. The metadata generation unit 55 generates metadata indicating attributes that characterize the object (for example, person) 4 included in the analyzed image. The metadata generated by the metadata generation unit 55 is added to an image used for generating the metadata, for example.

なお、上記したように画像処理装置10には、メタデータ生成部55と同様の機能を有するメタデータ生成部13が含まれる。本実施形態においては、例えば画像処理装置10側で映像に事前にメタデータを付与しておく場合と、映像検索装置50側でメタデータを生成して検索する場合が考えられる。このため、上記したように画像処理装置10のメタデータ生成部13によってメタデータが生成される構成でもよいし、映像検索装置50のメタデータ生成部55によってメタデータが生成される構成でもよい。   As described above, the image processing apparatus 10 includes the metadata generation unit 13 having the same function as the metadata generation unit 55. In the present embodiment, for example, a case where metadata is given to a video in advance on the image processing apparatus 10 side and a case where metadata is generated and searched on the video search apparatus 50 side are conceivable. For this reason, the configuration may be such that the metadata is generated by the metadata generation unit 13 of the image processing device 10 as described above, or the metadata is generated by the metadata generation unit 55 of the video search device 50.

以下、本実施形態においては、映像検索装置50のメタデータ生成部55によってメタデータが生成され、映像蓄積部53に対する検索処理が実行される場合について説明する。   Hereinafter, in the present embodiment, a case where metadata is generated by the metadata generation unit 55 of the video search device 50 and search processing for the video storage unit 53 is executed will be described.

検索処理部56は、検索条件入力部54によって入力された検索条件及びメタデータ生成部55によって生成されたメタデータに基づいて、当該検索条件に合致する画像(映像)を検索する処理を実行する。つまり、検索処理部56は、ユーザによって指定された検索対象物4を含む画像(映像)を映像蓄積部53から検索する。   The search processing unit 56 executes processing for searching for an image (video) that matches the search condition based on the search condition input by the search condition input unit 54 and the metadata generated by the metadata generation unit 55. . That is, the search processing unit 56 searches the video storage unit 53 for an image (video) including the search target 4 designated by the user.

検索処理部56は、検索された画像(映像)全体から、検索対象物4に関するメタデータを収集する。つまり、検索処理部56は、検索された画像の各々に付与されている検索対象物4に関するメタデータを収集する。検索処理部56は、収集されたメタデータに基づいて、検索対象物4が含まれる画像を検索する。すなわち、検索処理部56は、収集されたメタデータ及びメタデータ生成部55によって生成されたメタデータを比較することにより、ユーザによって指定された検索対象物4の同定(照合)処理を実行する。このように、検索された映像全体からメタデータを収集し、当該メタデータに基づいて検索処理を実行することにより検索性能を向上させる。   The search processing unit 56 collects metadata related to the search target 4 from the entire searched image (video). That is, the search processing unit 56 collects metadata related to the search target object 4 assigned to each searched image. The search processing unit 56 searches for an image including the search target object 4 based on the collected metadata. That is, the search processing unit 56 performs identification (collation) processing of the search target 4 designated by the user by comparing the collected metadata and the metadata generated by the metadata generation unit 55. In this way, metadata is collected from the entire searched video, and search performance is improved by executing search processing based on the metadata.

検索処理部56は、検索された画像において、当該画像に含まれる検索対象物4に対する隠蔽(重なり)の発生を検知する。つまり、検索処理部56は、検索された画像に含まれる検索対象物4が、当該画像に含まれる他の対象物と重なっていることを検知する。以下、検索対象物4に対する隠蔽が発生した画像を隠蔽発生画像と称する。検索処理部56は、検索対象物4に関するメタデータに基づいて隠蔽の発生を検知する。   The search processing unit 56 detects occurrence of concealment (overlap) with respect to the search object 4 included in the searched image in the searched image. That is, the search processing unit 56 detects that the search target 4 included in the searched image overlaps with another target included in the image. Hereinafter, an image in which concealment with respect to the search object 4 has occurred is referred to as a concealment occurrence image. The search processing unit 56 detects the occurrence of concealment based on the metadata related to the search target object 4.

検索処理部56は、検索対象物4に対する隠蔽の発生が検知された場合、時系列的に隠蔽発生画像の前後の画像であって、当該検索対象物4に対する隠蔽の発生がない画像を検索する。   When the occurrence of concealment with respect to the search object 4 is detected, the search processing unit 56 searches for images before and after the concealment occurrence image in time series, and without occurrence of concealment with respect to the search object 4. .

検索処理部56は、検索された画像(映像)を、検索条件入力部54によって入力された検索条件に対する検索結果として検索結果出力部57に渡す。   The search processing unit 56 passes the searched image (video) to the search result output unit 57 as a search result for the search condition input by the search condition input unit 54.

検索結果出力部57は、検索処理部56から渡された検索結果を、例えばユーザに対して出力する。また、検索結果出力部57は、検索処理部56によって検索された隠蔽発生画像の前後の画像の間の画像を連続して(つないで)例えばユーザに対して出力(表示)する。   The search result output unit 57 outputs the search result passed from the search processing unit 56 to the user, for example. In addition, the search result output unit 57 outputs (displays) images between images before and after the concealment occurrence image searched by the search processing unit 56, for example, to a user.

検索オプション設定部58は、例えばユーザの操作に応じて、映像蓄積部53に蓄積された映像を構成する画像を検索する際の、当該検索に関する条件を設定(指定)する。この検索に関する条件には、例えば検索速度及び検索精度に関する条件が含まれる。この検索に関する条件が設定されることにより、例えば検索処理部56による検索の検索速度を設定することができる。   The search option setting unit 58 sets (specifies) a condition related to the search when searching for an image constituting a video stored in the video storage unit 53, for example, according to a user operation. Conditions relating to this search include, for example, conditions relating to search speed and search accuracy. By setting the conditions related to this search, for example, the search speed of the search by the search processing unit 56 can be set.

次に、図5のフローチャートを参照して、上記した映像検索装置50における検索処理の処理手順について説明する。なお、画像に含まれる対象物4に関するメタデータは、上記したように映像検索装置50側(のメタデータ生成部55)で生成されるものとして説明する。   Next, with reference to the flowchart of FIG. 5, the processing procedure of the search process in the video search apparatus 50 will be described. Note that the metadata regarding the object 4 included in the image will be described as being generated on the video search device 50 side (the metadata generation unit 55) as described above.

まず、受信部51は、画像処理装置10の送信部14によって送信された映像(データ)を受信する(ステップS11)。   First, the receiving unit 51 receives the video (data) transmitted by the transmitting unit 14 of the image processing apparatus 10 (step S11).

映像蓄積処理部52は、受信部51によって受信された映像を映像蓄積部53に蓄積する(ステップS12)。   The video accumulation processing unit 52 accumulates the video received by the reception unit 51 in the video accumulation unit 53 (Step S12).

検索条件入力部54は、例えばユーザによって指定された対象物(検索対象物)4を含む画像を検索するための検索条件を入力する(ステップS13)。この検索条件には、例えば検索対象物4に関するメタデータまたはサンプル画像等が含まれる。   The search condition input unit 54 inputs a search condition for searching for an image including the target object (search target object) 4 designated by the user, for example (step S13). This search condition includes, for example, metadata about the search object 4 or a sample image.

検索条件入力部54によって検索条件が入力されると、メタデータ生成部55は、映像蓄積部53に蓄積された映像を構成する画像に含まれる対象物4のメタデータを生成する(ステップS14)。メタデータ生成部55によって生成されたメタデータは、当該メタデータの生成に用いられた画像(対象物4が含まれる画像)に付与される。このメタデータ生成処理は、映像蓄積部53に蓄積された映像を構成する画像の各々に対して実行される。   When the search condition is input by the search condition input unit 54, the metadata generation unit 55 generates the metadata of the object 4 included in the image constituting the video stored in the video storage unit 53 (step S14). . The metadata generated by the metadata generation unit 55 is given to the image (image including the target object 4) used for generating the metadata. This metadata generation process is executed for each of the images constituting the video stored in the video storage unit 53.

検索処理部56は、検索条件入力部54によって入力された検索条件及びメタデータ生成部55によって生成されたメタデータに基づいて、検索対象物4が含まれる画像(映像)を検索する(ステップS15)。   The search processing unit 56 searches for an image (video) including the search target 4 based on the search condition input by the search condition input unit 54 and the metadata generated by the metadata generation unit 55 (step S15). ).

検索処理においては、例えば検索条件に含まれるメタデータ(特徴量)及びメタデータ生成部55によって生成されたメタデータ(特徴量)に基づいて、画像(に含まれる対象物4)間の類似度演算が行われる。ここで、特徴量とは、メタデータを数値化したものである。換言すると、メタデータは、人間が言葉による扱いができる特徴量であり、当該特徴量をメタデータとして扱わず、数値としてのみ利用する場合は、特徴量という文言で表現される。検索処理部56は、例えば演算された類似度に応じて、検索対象物4が含まれている画像を検索する。   In the search processing, for example, based on the metadata (feature amount) included in the search condition and the metadata (feature amount) generated by the metadata generation unit 55, the similarity between the images (the object 4 included in the image) An operation is performed. Here, the feature amount is a numerical value of metadata. In other words, metadata is a feature quantity that humans can handle with words, and when the feature quantity is not treated as metadata but is used only as a numerical value, it is expressed in terms of feature quantities. The search processing unit 56 searches for an image including the search object 4 according to, for example, the calculated similarity.

次に、検索処理部56は、検索された画像(映像)全体から、検索対象物4に関するメタデータを収集する(ステップS14)。この検索対象物4に関するメタデータは、検索された画像(検索対象物4を含む画像)に付与されている。   Next, the search processing unit 56 collects metadata about the search object 4 from the entire searched image (video) (step S14). The metadata related to the search object 4 is given to the searched image (image including the search object 4).

検索処理部56は、収集されたメタデータに基づいて、検索対象物4が含まれる画像(映像)を映像蓄積部53から検索する(ステップS17)。これにより、例えば検索条件に含まれる検索対象物4に関するメタデータ(属性情報)より多くの情報(メタデータ)を用いることで検索性能を向上できる。   The search processing unit 56 searches the video storage unit 53 for an image (video) including the search target 4 based on the collected metadata (step S17). Thereby, for example, the search performance can be improved by using more information (metadata) than the metadata (attribute information) regarding the search object 4 included in the search condition.

次に、図6のフローチャートを参照して、上記した映像検索装置50において検索された画像において隠蔽が発生した場合の処理手順について説明する。   Next, a processing procedure in the case where concealment occurs in the image searched by the video search device 50 will be described with reference to the flowchart of FIG.

まず、上記した図5のステップS11〜ステップS15の処理に相当するステップS21〜ステップS25の処理が実行される。   First, the process of step S21-step S25 equivalent to the process of step S11-step S15 of FIG. 5 mentioned above is performed.

次に、検索処理部56は、検索された画像に含まれる検索対象物4に対する隠蔽の発生を検知する(ステップS26)。このとき、検索処理部56は、検索された画像に付与されている検索対象物4に関するメタデータに基づいて、隠蔽の発生を検知する。検索処理部56は、例えば隠蔽が発生するよりも前の時刻で得られる検索対象物4の全体画像(全身画像)と、検索された画像に含まれる検索対象物4の形状を比較することで隠蔽の発生を検知する。この検索対象物4の形状等は、メタデータ生成部55によって生成された検索対象物4に関するメタデータに含まれる。また、検索処理部56は、検索対象物4に関するメタデータに含まれる輝度情報または色情報に基づいて、隠蔽の発生を検知する。具体的には、例えば検索された画像の1つ前のフレーム(画像)に映っていた特定の色の服を着た人(検索対象物4)の一部のみが次のフレーム(つまり、検索された画像)で見えていたような場合には、検索対象物4に対する隠蔽の発生が検知される。   Next, the search processing unit 56 detects occurrence of concealment with respect to the search object 4 included in the searched image (step S26). At this time, the search processing unit 56 detects the occurrence of concealment based on the metadata related to the search object 4 given to the searched image. The search processing unit 56 compares the shape of the search object 4 included in the searched image with the entire image (whole body image) of the search object 4 obtained at a time before, for example, concealment occurs. Detect the occurrence of concealment. The shape or the like of the search target 4 is included in the metadata related to the search target 4 generated by the metadata generation unit 55. In addition, the search processing unit 56 detects occurrence of concealment based on luminance information or color information included in the metadata related to the search target 4. Specifically, for example, only a part of a person (search object 4) wearing a specific color clothes that was shown in the previous frame (image) of the searched image is the next frame (that is, the search). In the case where the search object 4 is visible, occurrence of concealment with respect to the search object 4 is detected.

検索処理部56は、検索対象物4に対する隠蔽の発生が検知された場合、当該隠蔽の発生が検知された画像(隠蔽発生画像)に対して時系列的に前後の画像(映像)を検索する(ステップS27)。この場合、検索処理部56は、検索対象物4が含まれる画像であって、当該検索対象物4に対する隠蔽が発生していない画像を検索する。   When the occurrence of concealment with respect to the search object 4 is detected, the search processing unit 56 searches for images (videos) before and after the image (concealment occurrence image) in which the occurrence of concealment is detected in time series. (Step S27). In this case, the search processing unit 56 searches for an image that includes the search target object 4 and that does not conceal the search target object 4.

検索処理部56は、検索された前後の画像に含まれる検索対象物4に関するメタデータを取得する(ステップS28)。この前後の画像は、検索対象物4に対する隠蔽が発生していない画像であるため、より多くの検索対象物4に関するメタデータを取得することができる。   The search processing unit 56 acquires metadata about the search target 4 included in the images before and after the search (step S28). Since the images before and after this are images in which the search object 4 is not concealed, more metadata about the search object 4 can be acquired.

検索処理部56は、取得された検索対象物4に関するメタデータに基づいて、当該検索対象物4が含まれる画像(映像)を映像蓄積部53から検索する(ステップS29)。   The search processing unit 56 searches the video storage unit 53 for an image (video) including the search target 4 based on the acquired metadata about the search target 4 (step S29).

検索結果出力部57は、検索された画像(映像)を、検索条件入力部54によって入力された検索条件に対する検索結果としてユーザに対して出力する(ステップS30)。また、検索結果出力部57は、上記したステップS27において検索された前後の画像の間の画像を連続した映像としてユーザに対して出力する。これにより、例えば隠蔽発生画像から検索対象物4の情報(メタデータ)を得ることができない場合でも、検索の連続性を確保し、検索性能を高めることができる。   The search result output unit 57 outputs the searched image (video) to the user as a search result for the search condition input by the search condition input unit 54 (step S30). In addition, the search result output unit 57 outputs the images between the images before and after the search in step S27 described above to the user as continuous videos. Thereby, for example, even when the information (metadata) of the search target 4 cannot be obtained from the concealment occurrence image, the search continuity can be ensured and the search performance can be improved.

次に、図7のフローチャートを参照して、検索オプションを設定する処理手順について説明する。   Next, a processing procedure for setting a search option will be described with reference to the flowchart of FIG.

まず、検索オプション設定部58は、例えばユーザの操作に応じて、映像蓄積部53に蓄積された映像(を構成する画像)を検索する際の、当該検索に関する条件(検索オプション)を設定する(ステップS31)。この検索オプションには、例えば検索速度または検索精度に関する条件が含まれる。   First, the search option setting unit 58 sets conditions (search options) relating to the search when searching for the video (the image constituting the video) stored in the video storage unit 53 according to, for example, a user operation ( Step S31). This search option includes, for example, conditions relating to search speed or search accuracy.

ここで、上記したような検索処理を実行する場合、検索すべきシーン(画像)により処理に使用する情報が異なる。更に、検索精度を高くしようとすると検索速度は低下する。そこで、上記した検索オプションでは、ユーザの操作に応じて、例えば検索処理において用いられる複数用意された特徴量(メタデータ)の組合せや参照する情報の順序が設定される。つまり、ユーザは、検索対象の指定、検索に用いる情報(メタデータ)の選択、組合せの指定及び検索精度の指定等を行うことができる。これにより、ユーザは、検索速度及び検索精度を個別に指定することができる。   Here, when the search process as described above is executed, the information used for the process differs depending on the scene (image) to be searched. Furthermore, the search speed decreases when the search accuracy is increased. Therefore, in the search option described above, a combination of a plurality of feature amounts (metadata) prepared for use in search processing and the order of information to be referred to are set according to a user operation. That is, the user can specify a search target, select information (metadata) used for search, specify a combination, specify search accuracy, and the like. Thereby, the user can designate the search speed and the search accuracy individually.

検索オプション設定部58により検索オプションが設定された場合には、検索処理部56は、当該検索オプションに応じて検索処理を実行する(ステップS32)。   When a search option is set by the search option setting unit 58, the search processing unit 56 executes a search process according to the search option (step S32).

上記したように本実施形態においては、例えば検索対象物4が含まれる画像(映像)を検索する場合、当該映像蓄積部53に格納された映像全体から検索対象物4に関するメタデータを収集し、当該収集されたメタデータを用いて検索処理を行うことで、例えば検索条件入力部54によって入力された検索条件に含まれる情報より多くの情報を用いて検索を行うことが可能となる。これにより、検索性能を向上させることができる。   As described above, in the present embodiment, for example, when searching for an image (video) including the search target object 4, metadata about the search target object 4 is collected from the entire video stored in the video storage unit 53, By performing a search process using the collected metadata, for example, a search can be performed using more information than the information included in the search condition input by the search condition input unit 54. Thereby, search performance can be improved.

また、本実施形態においては、映像蓄積部53に対する検索処理において、例えば画像に含まれる検索対象物4が他の物(対象物)による一時的な隠蔽が発生し、ある瞬間の画像から検索対象物4に関するメタデータを得ることができない場合、当該検索対象物4の隠蔽が発生する前の時刻の画像(映像)または隠蔽が発生しなくなった後の時刻の画像(映像)を探索・処理することで、検索対象物の継続的な検索を実現できる。これにより、隠蔽が発生した画像(映像)に対して無理な検索を行うことなく、画像内の情報(メタデータ)を効率的に取得できる。また、前後の画像の間の画像を連続して出力することで、連続性を確保し、検索性能を向上させることができる。   In the present embodiment, in the search processing for the video storage unit 53, for example, the search object 4 included in the image is temporarily concealed by another object (object), and the search object is searched from an image at a certain moment. When metadata about the object 4 cannot be obtained, an image (video) at a time before the concealment of the search target object 4 occurs or an image (video) at a time after the concealment stops occurring is searched and processed. Thus, continuous search of the search object can be realized. Thereby, information (metadata) in the image can be efficiently acquired without performing an excessive search on the image (video) in which concealment has occurred. Further, by continuously outputting images between the preceding and succeeding images, continuity can be ensured and search performance can be improved.

また、本実施形態においては、ユーザが検索に関する条件(検索オプション)を指定することができるため、結果として、例えば倍速機能が実現される。これにより、ユーザの意図に応じた検索を実行することができる。   In the present embodiment, the user can specify a search condition (search option). As a result, for example, a double speed function is realized. Thereby, the search according to a user's intention can be performed.

つまり、上記したように本実施形態においては、複数のカメラ1により撮影された画像(映像)を効率的に検索することが可能となる。   That is, as described above, in the present embodiment, it is possible to efficiently search for images (videos) taken by the plurality of cameras 1.

なお、蓄積映像だけでなくリアルタイム映像に対しても処理できる仕組みを導入することで、例えば店舗等に設置された複数のカメラ1間に映っている人を連続的に検索することも可能である。   In addition, by introducing a mechanism capable of processing not only stored video but also real-time video, it is possible to continuously search for people who are shown between a plurality of cameras 1 installed in a store, for example. .

[第1の変形例]
次に、図8を参照して、本実施形態の第1の変形例について説明する。本変形例に係る映像検索システムの構成は、前述した本実施形態の構成と同様であるため、図1〜図4を用いて説明する。
[First Modification]
Next, a first modification of the present embodiment will be described with reference to FIG. The configuration of the video search system according to this modification is the same as the configuration of this embodiment described above, and will be described with reference to FIGS.

本変形例に係る映像検索装置50に含まれる検索処理部56は、例えば検索条件入力部54によって入力された検索条件及びメタデータ生成部55によって生成されたメタデータに基づいて、当該検索条件に合致する画像(映像)を検索する。つまり、検索処理部56は、ユーザによって指定された検索対象物4を含む画像(映像)を映像蓄積部53から検索する。   The search processing unit 56 included in the video search device 50 according to the present modification uses the search condition based on the search condition input by the search condition input unit 54 and the metadata generated by the metadata generation unit 55, for example. Search for matching images (video). That is, the search processing unit 56 searches the video storage unit 53 for an image (video) including the search target 4 designated by the user.

検索処理部56は、検索された画像に含まれる検索対象物4に対する隠蔽(重なり)の発生を検知する。検索処理部56は、例えば検索された画像に付与されている検索対象物4に関するメタデータに基づいて隠蔽の発生を検知する。   The search processing unit 56 detects occurrence of concealment (overlap) with respect to the search target object 4 included in the searched image. The search processing unit 56 detects the occurrence of concealment based on, for example, metadata related to the search object 4 given to the searched image.

検索処理部56は、検索対象物4に対する隠蔽の発生が検知された場合、当該隠蔽の発生が検知された画像(隠蔽発生画像)をスキップする。検索処理部56は、映像蓄積部53に蓄積された映像を構成する画像のうち、当該検索対象物4に対する隠蔽の発生がない画像を検索する。検索処理部56は、検索された検索対象物4に対する隠蔽の発生がない(隠蔽の発生が検知されていない)画像に含まれる検索対象物4に関するメタデータを取得する。検索処理部56は、取得された検索対象物4に関するメタデータに基づいて、検索対象物4が含まれる画像を検索する。つまり、検索処理部56は、上記した検索対象物4の同定(照合)処理を実行する。   When the occurrence of concealment for the search object 4 is detected, the search processing unit 56 skips the image (the concealment occurrence image) where the occurrence of the concealment is detected. The search processing unit 56 searches for an image in which no concealment occurs with respect to the search target object 4 among the images constituting the video stored in the video storage unit 53. The search processing unit 56 acquires metadata related to the search target 4 included in an image in which no concealment occurs for the searched search target 4 (the occurrence of concealment is not detected). The search processing unit 56 searches for an image including the search target 4 based on the acquired metadata about the search target 4. That is, the search processing unit 56 executes the above-described identification (collation) process of the search target object 4.

次に、図8のフローチャートを参照して、本変形例に係る映像検索装置50の処理手順について説明する。   Next, a processing procedure of the video search device 50 according to this modification will be described with reference to the flowchart of FIG.

まず、前述した図6のステップS21〜ステップS26の処理に相当するステップS41〜ステップS46の処理が実行される。   First, the process of step S41-step S46 equivalent to the process of step S21-step S26 of FIG. 6 mentioned above is performed.

次に、検索処理部56は、検索対象物4に対する隠蔽の発生が検知された場合、検索対象物4に対する隠蔽の発生が検知された画像(隠蔽発生画像)をスキップする(ステップS47)。   Next, when the occurrence of concealment for the search target 4 is detected, the search processing unit 56 skips the image (the concealment occurrence image) where the occurrence of concealment for the search target 4 is detected (step S47).

検索処理部56は、隠蔽発生画像がスキップされると、検索対象物4に対する隠蔽の発生がない画像を検索する(ステップS48)。検索処理部56は、検索条件入力部54によって入力された検索条件及びメタデータ生成部55によって生成されたメタデータに基づいて、映像蓄積部53から画像を検索する。なお、検索対象物4に対する隠蔽の発生がない画像とは、例えば隠蔽発生画像に対して時系列的に前または後の画像であって、当該検索対象物4の全体(全身)が見える画像である。   When the concealment occurrence image is skipped, the search processing unit 56 searches for an image in which no concealment occurs for the search target object 4 (step S48). The search processing unit 56 searches for an image from the video storage unit 53 based on the search condition input by the search condition input unit 54 and the metadata generated by the metadata generation unit 55. The image without occurrence of concealment with respect to the search target 4 is, for example, an image before or after the concealment occurrence image in time series, and an image in which the entire search target 4 (whole body) can be seen. is there.

検索処理部56は、検索された検索対象物4に対する隠蔽が発生していない画像に付加されている検索対象物4に関するメタデータを取得する(ステップS49)。この場合、取得されたメタデータは隠蔽が発生していない検索対象物4に関するメタデータであるため、検索処理部56は、例えば隠蔽発生画像に付与されている検索対象物4に関するメタデータと比べてより多くの情報(メタデータ)を取得できる。   The search processing unit 56 acquires metadata about the search target 4 added to an image in which the search target 4 is not concealed (step S49). In this case, since the acquired metadata is metadata related to the search target object 4 in which concealment has not occurred, the search processing unit 56 compares the metadata with respect to the search target object 4 assigned to the concealment occurrence image, for example. More information (metadata).

検索処理部56は、取得されたメタデータに基づいて、検索対象物4の同定処理を実行することで、当該検索対象物4を含む画像を検索する(ステップS50)。   The search processing unit 56 searches the image including the search target object 4 by executing the identification process of the search target object 4 based on the acquired metadata (step S50).

検索処理部56によって検索された画像は、検索結果出力57により、例えばユーザに対して出力される。   The image searched by the search processing unit 56 is output to the user, for example, by the search result output 57.

上記したように本変形例においては、検索処理において検索対象物4に対する隠蔽(重なり)の発生が検知された場合、当該隠蔽の発生が検知された画像(隠蔽発生画像)をスキップし、例えば当該検索対象物4に対する隠蔽の発生がない画像(例えば、隠蔽発生画像の前または後の検索対象物4の全体が見える画像)に付与されている検索対象物4に関するメタデータを取得する。本変形例においては、隠蔽の発生がない画像から取得されたメタデータを基に、検索対象物4の同定が実行される。   As described above, in the present modification, when occurrence of concealment (overlap) with respect to the search object 4 is detected in the search process, the image (concealment occurrence image) in which the occurrence of concealment is detected is skipped. Metadata about the search object 4 attached to an image in which no concealment occurs with respect to the search object 4 (for example, an image in which the entire search object 4 before or after the concealment occurrence image can be seen) is acquired. In this modification, the identification of the search target 4 is executed based on metadata acquired from an image that does not cause concealment.

このように、本変形例においては、検索対象物4に対する隠蔽(重なり)が少ない画像を積極的に探索してから検索を行うことで、例えば無駄な映像のスキップに基づく高速検索を実現することが可能となる。したがって、本変形例においては、例えば複数のカメラ1により撮影された映像(画像)を効率的に検索することが可能となる。   As described above, in the present modification, by performing a search after actively searching for an image with less concealment (overlap) with respect to the search target 4, for example, a high-speed search based on skipping useless video can be realized. Is possible. Therefore, in this modification, for example, it is possible to efficiently search for videos (images) taken by a plurality of cameras 1.

[第2の変形例]
次に、図9を参照して、本実施形態の第2の変形例について説明する。図9は、本変形例に係る画像処理装置100の主として機能構成を示すブロック図である。なお、前述した図3と同様の部分には同一参照符号を付してその詳しい説明を省略する。ここでは、図3と異なる部分について主に述べる。
[Second Modification]
Next, a second modification of the present embodiment will be described with reference to FIG. FIG. 9 is a block diagram mainly illustrating a functional configuration of the image processing apparatus 100 according to the present modification. The same parts as those in FIG. 3 described above are denoted by the same reference numerals, and detailed description thereof is omitted. Here, parts different from FIG. 3 will be mainly described.

図9に示すように、画像処理装置100は、補正情報格納部101及びカラー画像処理部102を含む。   As shown in FIG. 9, the image processing apparatus 100 includes a correction information storage unit 101 and a color image processing unit 102.

補正情報格納部101には、例えば複数のカメラ1の各々の特性によって生じる色(色彩)の個体差を補正するための補正情報が予め格納されている。この補正情報は、例えば複数のカメラ1毎に基準となる色のチェッカーボードを予め撮影し、この撮影されたチェッカーボード(の画像)を用いて生成される。   In the correction information storage unit 101, for example, correction information for correcting individual differences in colors (colors) caused by the characteristics of each of the plurality of cameras 1 is stored in advance. This correction information is generated using, for example, a checkerboard of a reference color for each of the plurality of cameras 1 in advance and using the captured checkerboard (image thereof).

カラー画像処理部102は、画像切り出し部12によって切り出された画像に対して、カラー画像処理を実行する。カラー画像処理部102は、例えば画像切り出し部12によって切り出された画像(対象物4)に対する光源の影響を除去する処理を実行する。   The color image processing unit 102 performs color image processing on the image cut out by the image cutout unit 12. The color image processing unit 102 executes processing for removing the influence of the light source on the image (target object 4) cut out by the image cutout unit 12, for example.

カラー画像処理部102は、上記した補正情報を生成する機能を有する。カラー画像処理部102は、生成された補正情報を補正情報格納部14に格納する。   The color image processing unit 102 has a function of generating the correction information described above. The color image processing unit 102 stores the generated correction information in the correction information storage unit 14.

カラー画像処理部102は、補正情報格納部14に格納されている補正情報に基づいて、画像切り出し部12によって切り出された画像に生じる個体差を吸収(補正)する色キャリブレーションを行う。   Based on the correction information stored in the correction information storage unit 14, the color image processing unit 102 performs color calibration that absorbs (corrects) individual differences that occur in the image cut out by the image cutout unit 12.

次に、図10のフローチャートを参照して、上記したカラー画像処理の処理手順について説明する。   Next, the color image processing procedure will be described with reference to the flowchart of FIG.

まず、画像処理装置100の入力部11は、当該画像処理装置100に接続されているカメラ1によって撮影された映像(データ)を入力する(ステップS51)。   First, the input unit 11 of the image processing apparatus 100 inputs video (data) captured by the camera 1 connected to the image processing apparatus 100 (step S51).

画像切り出し部12は、入力部11によって入力された映像を構成する画像において、当該画像に含まれる対象物4の領域(画像)を切り出す(ステップS52)。   The image cutout unit 12 cuts out a region (image) of the target object 4 included in the image included in the image input from the input unit 11 (step S52).

ここで、例えば複数のカメラ1の各々によって撮影される範囲を移動(スルー)することによって当該複数のカメラ1の各々によって撮影された映像に含まれる特定の対象物(例えば、人)4を検索する際に用いられるメタデータとしては、例えば当該特定の対象物4の服または髪の毛の色のような色情報が重要となる。しかしながら、例えば複数のカメラ1の各々によって撮影された映像(画像)を単純に画像処理した場合には、当該カメラ1が設置されている場所等に応じて光源の影響を受けた色情報が算出される。これにより、例えば同一の対象物(同一人物)の服または髪の毛の色が周囲の環境、時間帯、カメラ間で異なる色として算出され、色情報による対象物4の照合性能が低下する場合がある。   Here, for example, a specific object (for example, a person) 4 included in an image photographed by each of the plurality of cameras 1 is searched by moving (through) a range photographed by each of the plurality of cameras 1. As metadata used in this case, for example, color information such as clothes of the specific object 4 or hair color is important. However, for example, when video (image) taken by each of the plurality of cameras 1 is simply image-processed, color information influenced by the light source is calculated according to the location where the camera 1 is installed. Is done. Thereby, for example, the color of clothes or hair of the same object (same person) is calculated as a different color between the surrounding environment, time zone, and camera, and the collation performance of the object 4 based on color information may deteriorate. .

そこで、カラー画像処理部102は、画像切り出し部12によって切り出された画像に対して、カラー画像処理を実行する(ステップS53)。カラー画像処理部102は、例えば画像切り出し部12によって切り出された画像(対象物4)に対する光源の影響を除去する。   Therefore, the color image processing unit 102 performs color image processing on the image cut out by the image cutout unit 12 (step S53). The color image processing unit 102 removes the influence of the light source on the image (target object 4) cut out by the image cutout unit 12, for example.

このカラー画像処理部102によってカラー画像処理された画像によって構成される映像は、例えば送信部14により映像検索装置50に対して送信される。送信部14によって送信された映像は、映像検索装置50の映像蓄積部53に蓄積される。   The video constituted by the image subjected to the color image processing by the color image processing unit 102 is transmitted to the video search device 50 by the transmission unit 14, for example. The video transmitted by the transmission unit 14 is stored in the video storage unit 53 of the video search device 50.

次に、映像検索装置50において、映像蓄積部53に蓄積された映像に対する検索処理が実行されるものとする。この場合、映像検索装置50のメタデータ生成部55は、映像蓄積部53に蓄積された映像を構成する画像を解析することによって、当該画像に含まれる対象物4の色情報を抽出する(ステップS54)。ここで、処理される画像は、上記したようにカラー画像処理されているため、抽出される色情報は、例えば光源の影響を受けておらず、物体固有の色が算出される。   Next, it is assumed that the video search device 50 executes a search process for the video stored in the video storage unit 53. In this case, the metadata generation unit 55 of the video search device 50 extracts the color information of the object 4 included in the image by analyzing the image constituting the video stored in the video storage unit 53 (step S54). Here, since the image to be processed is subjected to color image processing as described above, the extracted color information is not affected by, for example, a light source, and an object-specific color is calculated.

メタデータ生成部55は、抽出された色情報を含む対象物4に関するメタデータを生成する(ステップS55)。ここで、上記したように例えば特定の対象物4に関するメタデータ(属性情報)としては服または髪の毛の色等が挙げられる。この場合、例えば1つの特定の対象物4に関するメタデータが複数生成された場合には、当該複数のメタデータを1つに纏めて(コード化することで)情報パターンとして扱う。   The metadata generation unit 55 generates metadata regarding the object 4 including the extracted color information (step S55). Here, as described above, for example, the metadata (attribute information) related to the specific object 4 includes the color of clothes or hair. In this case, for example, when a plurality of pieces of metadata relating to one specific object 4 are generated, the plurality of pieces of metadata are combined into one (by coding) and handled as an information pattern.

なお、本変形例においても、前述した本実施形態と同様に、映像検索装置50のメタデータ生成部55によってメタデータが生成されるものとして説明したが、前述したように画像処理装置100のメタデータ生成部13によって生成される構成であっても構わない。   In the present modification, as in the above-described embodiment, it has been described that metadata is generated by the metadata generation unit 55 of the video search device 50. However, as described above, the metadata of the image processing apparatus 100 is also described. The configuration may be generated by the data generation unit 13.

検索処理部56は、メタデータ生成部55によって生成されたメタデータに基づいて、例えば複数のカメラ1の各々によって撮影された画像における対象物(検索対象物)4の同定処理を実行する(ステップS56)。   Based on the metadata generated by the metadata generation unit 55, the search processing unit 56 executes identification processing of the target object (search target object) 4 in an image photographed by each of the plurality of cameras 1, for example (step). S56).

次に、図11のフローチャートを参照して、上記した色キャリブレーションの処理手順について説明する。   Next, the color calibration process will be described with reference to the flowchart of FIG.

複数のカメラ1の各々は、例えば予め用意されている基準となる色のチェッカーボードを撮像(撮影)する(ステップS61)。この複数のカメラ1の各々によって撮像されたチェッカーボードの画像(映像)は、画像処理装置100の入力部11によって入力される。   Each of the plurality of cameras 1 captures (captures), for example, a checker board having a reference color prepared in advance (step S61). An image (video) of the checkerboard imaged by each of the plurality of cameras 1 is input by the input unit 11 of the image processing apparatus 100.

カラー画像処理部102は、入力部11によって入力されたチェッカーボードの画像に対して、カラー画像処理を実行する。これにより、カラー画像処理部102は、チェッカーボードの色(情報)を算出する(ステップS62)。ここで算出された色情報は、チェッカーボードの固有色情報である。なお、算出されたチェッカーボードの固有色情報は、補正情報として補正情報格納部101に格納される。   The color image processing unit 102 performs color image processing on the checkerboard image input by the input unit 11. As a result, the color image processing unit 102 calculates the color (information) of the checkerboard (step S62). The color information calculated here is unique color information of the checker board. The calculated unique color information of the checkerboard is stored in the correction information storage unit 101 as correction information.

ここで、例えば複数のカメラ1の各々によって撮影された映像が入力部11により入力された場合を想定する。この場合、カラー画像処理部102は、補正情報格納部101に格納されている補正情報に基づいて、入力部11によって入力された映像(を構成する画像)に対して色キャリブレーション(補正処理)を実行する(ステップS63)。これにより、複数のカメラ1の各々によって撮影された映像の各色を、固有色のレベルで同じ色に補正する。   Here, for example, a case is assumed in which video captured by each of the plurality of cameras 1 is input by the input unit 11. In this case, the color image processing unit 102 performs color calibration (correction processing) on the video (the image constituting it) input by the input unit 11 based on the correction information stored in the correction information storage unit 101. Is executed (step S63). Thereby, each color of the video image | photographed with each of the some camera 1 is correct | amended to the same color at the level of a specific color.

カラー画像処理部102は、複数のカメラ1間において、色キャリブレーションが実行された映像(補正後の映像)の色を比較する(ステップS64)。   The color image processing unit 102 compares the colors of images (corrected images) for which color calibration has been executed among the plurality of cameras 1 (step S64).

カラー画像処理部102は、比較した結果、複数のカメラ1間における色の誤差(色誤差)が例えば予め定められた範囲(一定範囲)内に収まることを確認する(ステップS65)。カラー画像処理部102によって複数のカメラ1間における色誤差が一定範囲内に収まることが確認されると、色キャリブレーション処理は終了される。   As a result of the comparison, the color image processing unit 102 confirms that the color error (color error) between the plurality of cameras 1 falls within, for example, a predetermined range (fixed range) (step S65). When the color image processing unit 102 confirms that the color error between the plurality of cameras 1 is within a certain range, the color calibration process is ended.

上記したように本変形例においては、複数のカメラ1の各々によって撮影された映像(画像)に対する光源の影響を除去するカラー画像処理を行い、当該画像に含まれる対象物4固有の色を算出し、本色をメタデータとして例えばそれぞれ異なるカメラ1によって撮影された映像(画像)に含まれる当該対象物(検索対象物)4の同定(照合)処理を実行することで、検索性能を高めることが可能となる。   As described above, in this modification, color image processing for removing the influence of the light source on the video (image) taken by each of the plurality of cameras 1 is performed, and the unique color of the object 4 included in the image is calculated. The search performance can be improved by executing identification (collation) processing of the target object (search target object) 4 included in videos (images) captured by different cameras 1, for example, using the main color as metadata. It becomes possible.

また、本変形例においては、例えば基準となる色のチェッカーボードを用いて予め生成された補正情報に基づいて、複数のカメラ1毎の特性によって生じる色の個体差を吸収する色キャリブレーションが実行される。このように、複数のカメラ1の各々によって撮影された映像を色キャリブレーションが実行された映像に変換して、例えば特定の対象物(検索対象物)4の検索を実施することで検索性能を向上させることができる。   In this modification, for example, based on correction information generated in advance using a reference color checker board, color calibration is performed to absorb individual differences in color caused by the characteristics of each of the plurality of cameras 1. Is done. In this way, the video captured by each of the plurality of cameras 1 is converted into a video that has been subjected to color calibration, and search performance is improved by, for example, searching for a specific target (search target) 4. Can be improved.

また、本変形例においては、例えば対象物4に関する複数のメタデータ(属性情報)を1つに纏めてコード化して情報パターンとして扱うことで、当該対象物4に対する検索処理においてメタデータ同士の比較計算が可能となり、複数のカメラ1の各々によって撮影された映像(画像)においても同一人物の同定(照合)が容易となる。   Further, in this modification, for example, a plurality of metadata (attribute information) related to the target object 4 is collectively encoded and handled as an information pattern so that the metadata can be compared in the search process for the target object 4. Calculation is possible, and identification (collation) of the same person is facilitated even in videos (images) taken by each of the plurality of cameras 1.

このように、本変形例においては、例えば複数のカメラ1により撮影された映像(画像)を効率的に検索することが可能となる。   As described above, in the present modification, for example, it is possible to efficiently search for videos (images) taken by a plurality of cameras 1.

[第3の変形例]
次に、図12を参照して、本実施形態の第3の変形例について説明する。図12は、本変形例に係る画像処理装置110の主として機能構成を示すブロック図である。なお、前述した図9と同様の部分には同一参照符号を付してその詳しい説明を省略する。ここでは、図9と異なる部分について述べる。
[Third Modification]
Next, a third modification of the present embodiment will be described with reference to FIG. FIG. 12 is a block diagram mainly showing a functional configuration of the image processing apparatus 110 according to the present modification. The same parts as those in FIG. 9 described above are denoted by the same reference numerals, and detailed description thereof is omitted. Here, a different part from FIG. 9 is described.

図12に示すように、画像処理装置110は、合成画像生成部111を含む。合成画像生成部111は、画像切り出し部12によって切り出された対象物4の画像を複数収集する。この場合、合成画像生成部111は、例えば時系列的に対象物4の画像を収集する。この収集された複数の画像の各々には、例えばそれぞれ異なる視点からの同一の対象物4が含まれる。また、この収集された複数の画像は、同一のカメラ1によって撮影された画像である。   As illustrated in FIG. 12, the image processing apparatus 110 includes a composite image generation unit 111. The composite image generation unit 111 collects a plurality of images of the target object 4 cut out by the image cutout unit 12. In this case, the composite image generation unit 111 collects images of the target object 4 in time series, for example. Each of the collected images includes, for example, the same object 4 from different viewpoints. Further, the collected plurality of images are images taken by the same camera 1.

合成画像生成部111は、収集された複数の画像に基づいて、当該画像に含まれる対象物4を多視点から表す合成画像を生成する。   The composite image generation unit 111 generates a composite image that represents the object 4 included in the image from multiple viewpoints based on the collected images.

次に、図13のフローチャートを参照して、本変形例に係る映像検索システムの処理手順について説明する。なお、画像処理装置110に含まれるカラー画像処理部102の処理(例えば、前述した図10のステップS53の処理)については前述した第2の変形例と同様であるので、ここでは便宜的に省略する。   Next, a processing procedure of the video search system according to this modification will be described with reference to the flowchart of FIG. Note that the processing of the color image processing unit 102 included in the image processing apparatus 110 (for example, the processing in step S53 in FIG. 10 described above) is the same as that in the second modification described above, and is omitted here for convenience. To do.

まず、前述した図10に示すステップS51及びステップS52の処理に相当するステップS71及びステップS72の処理が実行される。   First, the process of step S71 and step S72 equivalent to the process of step S51 and step S52 shown in FIG. 10 mentioned above is performed.

ここで、本変形例においては、例えば店舗内に設置された複数のカメラ1によって撮影された映像(画像)を検索する場合、当該複数のカメラ1間で特定の対象物(例えば、人)4を追跡検索する場合を想定している。この場合、カメラ1と対象物4との位置関係により、対象物は異なる見え方をする。よって、単純に複数のカメラ1間で対象物4が同一であるかどうか照合(同定)することは困難である。つまり、複数のカメラ1において、同じ見え方をする映像(画像)が得られるとは限らないため、異なる見え方をする対象物4同士の照合が必要となる。   Here, in this modification, for example, when searching for images (images) taken by a plurality of cameras 1 installed in a store, a specific object (for example, a person) 4 between the plurality of cameras 1. It is assumed that the search is tracked. In this case, the object looks different depending on the positional relationship between the camera 1 and the object 4. Therefore, it is difficult to simply collate (identify) whether the object 4 is the same among the plurality of cameras 1. That is, since a plurality of cameras 1 do not always obtain images (images) that look the same, it is necessary to collate the objects 4 that look different.

そこで、合成画像生成部111は、画像切り出し部12によって切り出された対象物4が含まれる画像を複数収集する(ステップS73)。合成画像生成部111は、複数のカメラ1のうち、例えば同一のカメラ1によって撮影された画像を時系列的に収集する。つまり、合成画像生成部111は、例えばそれぞれ異なる視点からの同一の対象物4の画像を収集する。   Therefore, the composite image generation unit 111 collects a plurality of images including the object 4 cut out by the image cutout unit 12 (step S73). The composite image generation unit 111 collects, for example, images taken by the same camera 1 among the plurality of cameras 1 in time series. That is, the composite image generation unit 111 collects images of the same object 4 from different viewpoints, for example.

次に、合成画像生成部111は、収集された複数の画像に基づいて、当該画像に含まれる対象物4を多視点から表す合成画像を生成する(ステップS74)。例えば収集された画像に含まれる対象物4が人である場合には、合成画像生成部111は、多視点から見たときの人モデル画像(合成画像)を生成する。また、この合成画像は、例えば収集された複数の画像を撮影したカメラ1毎に生成される。   Next, the composite image generation unit 111 generates a composite image that represents the object 4 included in the image from multiple viewpoints based on the collected plurality of images (step S74). For example, when the target 4 included in the collected image is a person, the composite image generation unit 111 generates a human model image (composite image) when viewed from multiple viewpoints. Further, this composite image is generated for each camera 1 that has taken a plurality of collected images, for example.

この合成画像生成部111によって生成された合成画像は、例えば送信部14により映像検索装置50に対して送信される。   The composite image generated by the composite image generation unit 111 is transmitted to the video search device 50 by the transmission unit 14, for example.

映像検索装置50のメタデータ生成部55は、画像処理装置110の送信部14によって送信された合成画像を解析する。メタデータ生成部55は、解析結果に基づいて、例えばカメラ1毎に生成された合成画像によって表される対象物4に関するメタデータを生成する(ステップS75)。   The metadata generation unit 55 of the video search device 50 analyzes the composite image transmitted by the transmission unit 14 of the image processing device 110. Based on the analysis result, the metadata generation unit 55 generates metadata related to the object 4 represented by, for example, a composite image generated for each camera 1 (step S75).

なお、本変形例においても、前述した本実施形態と同様に、映像検索装置50のメタデータ生成部55によってメタデータが生成されるものとして説明したが、前述したように画像処理装置110のメタデータ生成部13によって生成される構成であっても構わない。   In the present modification, as in the above-described embodiment, it has been described that metadata is generated by the metadata generation unit 55 of the video search device 50. However, as described above, the metadata of the image processing device 110 is also described. The configuration may be generated by the data generation unit 13.

検索処理部56は、メタデータ生成部55によって生成されたメタデータに基づいて、例えば複数のカメラ1の各々によって撮影された画像における対象物(検索対象物)4の同定処理を実行する(ステップS76)。   Based on the metadata generated by the metadata generation unit 55, the search processing unit 56 executes identification processing of the target object (search target object) 4 in an image photographed by each of the plurality of cameras 1, for example (step). S76).

ここで、複数のカメラ1が第1のカメラ1及び当該第1のカメラ1とは異なる第2のカメラ1を含むものとする。また、例えば第1のカメラ1によって撮影された画像(映像)から生成された合成画像を第1の合成画像、例えば第2のカメラ1によって撮影された画像(映像)から生成された合成画像を第2の合成画像とする。この場合、検索処理部56は、第1の合成画像を解析することによって生成されたメタデータ(第1のメタデータ)及び第2の合成画像を解析することによって生成されたメタデータ(第2のメタデータ)を比較することにより、当該第1の合成画像によって表される対象物4及び当該第2の合成画像によって表される対象物4を照合する。これにより、例えば第1のカメラ1及び第2のカメラ1の各々によって異なる見え方をする対象物4(の映像)が撮影された場合であっても、当該第1のカメラ1及び第2のカメラ1によって撮影された映像に含まれる対象物4同士の照合をすることが可能となる。   Here, it is assumed that the plurality of cameras 1 includes a first camera 1 and a second camera 1 different from the first camera 1. Further, for example, a composite image generated from an image (video) photographed by the first camera 1 is converted into a first composite image, for example, a composite image generated from an image (video) captured by the second camera 1. A second composite image is assumed. In this case, the search processing unit 56 analyzes the metadata (first metadata) generated by analyzing the first composite image and the metadata (second metadata) generated by analyzing the second composite image. Are compared, the object 4 represented by the first composite image and the object 4 represented by the second composite image are collated. Thereby, for example, even when the object 4 (image of the object) that looks different depending on each of the first camera 1 and the second camera 1 is photographed, the first camera 1 and the second camera 1 are captured. It becomes possible to collate the objects 4 included in the video imaged by the camera 1.

上記したように本変形例においては、各カメラ1の時系列画像から当該画像に含まれる対象物4を多視点から表す合成画像(例えば、人画像)を生成しておき、異なるカメラ1によって撮影された画像(映像)において比較が可能な画像(に含まれる対象物4)を照合する。このため、例えば複数のカメラ1において異なる見え方をする映像が撮影された場合であっても、当該映像に含まれる対象物4同士を照合することができる。よって本変形例においては、複数のカメラ1に渡って撮影された対象物4の継続検索性能を向上させることが可能となる。これにより、本変形例においては、複数のカメラ1により撮影された画像(映像)を効率的に検索することが可能となる。   As described above, in this modified example, a composite image (for example, a human image) representing the object 4 included in the image from multiple viewpoints is generated from the time-series images of each camera 1 and photographed by different cameras 1. The images (images included) included in the compared images (images) can be compared. For this reason, for example, even when videos that look different from each other are captured by the plurality of cameras 1, the objects 4 included in the videos can be collated. Therefore, in this modification, it is possible to improve the continuous search performance of the target object 4 photographed over the plurality of cameras 1. Thereby, in this modification, it becomes possible to search efficiently the image (video) image | photographed with the some camera 1. FIG.

なお、本願発明は、上記実施形態またはその各変形例そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態またはその各変形例に開示されている複数の構成要素の適宜な組合せにより種々の発明を形成できる。例えば、実施形態またはその各変形例に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態またはその各変形例に亘る構成要素を適宜組合せてもよい。   Note that the present invention is not limited to the above-described embodiment or its modifications, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiment or its modifications. For example, you may delete a some component from all the components shown by embodiment or each modification. Furthermore, you may combine suitably the component covering different embodiment or its modification.

本発明の実施形態に係る映像検索システムの構成を示すブロック図。1 is a block diagram showing a configuration of a video search system according to an embodiment of the present invention. 図1に示すカメラ1が設置される店舗フロアを示す図。The figure which shows the shop floor in which the camera 1 shown in FIG. 1 is installed. 図1に示す画像処理装置10の主として機能構成を示すブロック図。FIG. 2 is a block diagram mainly showing a functional configuration of the image processing apparatus 10 shown in FIG. 1. 図1に示す映像検索装置50の主として機能構成を示すブロック図。FIG. 2 is a block diagram mainly showing a functional configuration of the video search device 50 shown in FIG. 1. 映像検索装置50における検索処理の処理手順を示すフローチャート。5 is a flowchart showing a processing procedure of search processing in the video search device 50. 映像検索装置50において検索された画像において隠蔽が発生した場合の処理手順を示すフローチャート。The flowchart which shows the process sequence when concealment generate | occur | produces in the image searched in the video search device. 検索オプションを設定する処理手順を示すフローチャート。The flowchart which shows the process sequence which sets a search option. 本実施形態の第1の変形例に係る映像検索装置50の処理手順を示すフローチャート。The flowchart which shows the process sequence of the video search apparatus 50 which concerns on the 1st modification of this embodiment. 本実施形態の第2の変形例に係る画像処理装置100の主として機能構成を示すブロック図。The block diagram which mainly shows a function structure of the image processing apparatus 100 which concerns on the 2nd modification of this embodiment. カラー画像処理の処理手順を示すフローチャート。5 is a flowchart showing a processing procedure of color image processing. 色キャリブレーションの処理手順を示すフローチャート。5 is a flowchart showing a color calibration processing procedure. 本実施形態の第3の変形例に係る画像処理装置110の主として機能構成を示すブロック図。The block diagram which mainly shows a function structure of the image processing apparatus 110 which concerns on the 3rd modification of this embodiment. 本変形例に係る映像検索システムの処理手順を示すフローチャート。The flowchart which shows the process sequence of the video | video search system which concerns on this modification.

符号の説明Explanation of symbols

1…カメラ、2…店舗フロア、3…監視範囲、4…対象物、10,100,110…画像処理装置、11…入力部、12…画像切り出し部、13…メタデータ生成部、14…送信部、20…ネットワーク、50…映像検索装置、51…受信部、52…映像蓄積処理部、53…映像蓄積部(格納手段)、54…検索条件入力部、55…メタデータ生成部、56…検索処理部、57…検索結果出力部、58…検索オプション設定部、101…補正情報格納部、102…カラー画像処理部、111…合成画像生成部。   DESCRIPTION OF SYMBOLS 1 ... Camera, 2 ... Store floor, 3 ... Monitoring range, 4 ... Object, 10, 100, 110 ... Image processing apparatus, 11 ... Input part, 12 ... Image clipping part, 13 ... Metadata production | generation part, 14 ... Transmission , 20 ... Network, 50 ... Video search device, 51 ... Receiving part, 52 ... Video storage processing part, 53 ... Video storage part (storage means), 54 ... Search condition input part, 55 ... Metadata generation part, 56 ... Search processing unit 57... Search result output unit 58... Search option setting unit 101 101 Correction information storage unit 102 Color image processing unit 111 Composite image generation unit

Claims (4)

一定の範囲内に設置され、当該範囲内に存在する対象物を含む画像から構成される映像を撮影する複数のカメラと、
前記複数のカメラによって撮影された映像を受信する受信手段と、
前記受信された映像を格納する格納手段と、
前記格納手段に格納された映像を構成する画像を検索する際の当該検索に関する条件を、ユーザの操作に応じて設定する設定手段と、
前記格納手段に格納された映像を構成する画像のうち、ユーザによって指定された検索対象物を含む画像を検索するための検索条件を入力する検索条件入力手段と、
前記格納手段に格納された映像を構成する画像を解析する解析手段と、
前記解析された画像に含まれる対象物を特徴付ける属性を示すメタデータを生成するメタデータ生成手段と、
前記設定された検索に関する条件、前記入力された検索条件及び前記生成されたメタデータに基づいて、前記検索対象物を含む画像を前記格納手段から検索する検索手段と
を具備することを特徴とする映像検索システム。
A plurality of cameras that are installed within a certain range and shoot a video composed of an image including an object existing within the range;
Receiving means for receiving images taken by the plurality of cameras;
Storage means for storing the received video;
Setting means for setting a condition relating to the search when searching for an image constituting the video stored in the storage means in accordance with a user operation;
Search condition input means for inputting a search condition for searching for an image including a search target specified by a user among images constituting the video stored in the storage means;
Analyzing means for analyzing an image constituting the video stored in the storage means;
Metadata generation means for generating metadata indicating attributes characterizing the object included in the analyzed image;
Search means for searching for an image including the search object from the storage means based on the set search condition, the input search condition and the generated metadata. Video search system.
前記設定手段によって設定される検索に関する条件には、検索速度及び検索精度に関する条件が含まれることをと特徴とする請求項1記載の画像検索システム。   2. The image search system according to claim 1, wherein the search condition set by the setting means includes a search speed and a search accuracy condition. 前記設定手段は、検索において用いられるメタデータを選択または当該メタデータの組合せを設定することにより、前記検索速度及び検索精度に関する条件を設定することを特徴とする請求項2記載の画像検索システム。   3. The image search system according to claim 2, wherein the setting means sets conditions relating to the search speed and search accuracy by selecting metadata used in the search or setting a combination of the metadata. 一定の範囲内に設置された複数のカメラによって撮影された当該範囲内に存在する対象物を含む画像を受信する受信手段と、
前記受信された映像を格納する格納手段と、
前記格納手段に格納された映像を構成する画像を検索する際の当該検索に関する条件を、ユーザの操作に応じて設定する設定手段と、
前記格納手段に格納された映像を構成する画像のうち、ユーザによって指定された検索対象物を含む画像を検索するための検索条件を入力する検索条件入力手段と、
前記格納手段に格納された映像を構成する画像を解析する解析手段と、
前記解析された画像に含まれる対象物を特徴付ける属性を示すメタデータを生成するメタデータ生成手段と、
前記設定された検索に関する条件、前記入力された検索条件及び前記生成されたメタデータに基づいて、前記検索対象物を含む画像を前記格納手段から検索する検索手段と
を具備することを特徴とする映像検索装置。
Receiving means for receiving an image including an object existing in the range, which is taken by a plurality of cameras installed in a certain range;
Storage means for storing the received video;
Setting means for setting a condition relating to the search when searching for an image constituting the video stored in the storage means in accordance with a user operation;
Search condition input means for inputting a search condition for searching for an image including a search target specified by a user among images constituting the video stored in the storage means;
Analyzing means for analyzing an image constituting the video stored in the storage means;
Metadata generation means for generating metadata indicating attributes characterizing the object included in the analyzed image;
Search means for searching for an image including the search object from the storage means based on the set search condition, the input search condition and the generated metadata. Video search device.
JP2007221400A 2007-08-28 2007-08-28 System and device for searching video image Pending JP2009055447A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007221400A JP2009055447A (en) 2007-08-28 2007-08-28 System and device for searching video image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007221400A JP2009055447A (en) 2007-08-28 2007-08-28 System and device for searching video image

Publications (1)

Publication Number Publication Date
JP2009055447A true JP2009055447A (en) 2009-03-12

Family

ID=40506087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007221400A Pending JP2009055447A (en) 2007-08-28 2007-08-28 System and device for searching video image

Country Status (1)

Country Link
JP (1) JP2009055447A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101119084B1 (en) * 2011-07-13 2012-03-15 (주)블루비스 System for managementing video data using metadata and method thereof
CN105279898A (en) * 2015-10-28 2016-01-27 小米科技有限责任公司 Alarm method and device
JP2020038564A (en) * 2018-09-05 2020-03-12 トヨタ自動車株式会社 Log data generation method, program, and data structure

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268479A (en) * 2000-03-16 2001-09-28 Nippon Hoso Kyokai <Nhk> Moving image retrieval device
JP2004145564A (en) * 2002-10-23 2004-05-20 Matsushita Electric Ind Co Ltd Image search system
JP2006072949A (en) * 2004-09-02 2006-03-16 Takaaki Yamaoka Document search system, and document search engine program
JP2007049332A (en) * 2005-08-09 2007-02-22 Sony Corp Recording and reproducing apparatus and method, and recording apparatus and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268479A (en) * 2000-03-16 2001-09-28 Nippon Hoso Kyokai <Nhk> Moving image retrieval device
JP2004145564A (en) * 2002-10-23 2004-05-20 Matsushita Electric Ind Co Ltd Image search system
JP2006072949A (en) * 2004-09-02 2006-03-16 Takaaki Yamaoka Document search system, and document search engine program
JP2007049332A (en) * 2005-08-09 2007-02-22 Sony Corp Recording and reproducing apparatus and method, and recording apparatus and method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101119084B1 (en) * 2011-07-13 2012-03-15 (주)블루비스 System for managementing video data using metadata and method thereof
CN105279898A (en) * 2015-10-28 2016-01-27 小米科技有限责任公司 Alarm method and device
US9953506B2 (en) 2015-10-28 2018-04-24 Xiaomi Inc. Alarming method and device
JP2020038564A (en) * 2018-09-05 2020-03-12 トヨタ自動車株式会社 Log data generation method, program, and data structure
JP7119794B2 (en) 2018-09-05 2022-08-17 トヨタ自動車株式会社 LOG DATA GENERATION METHOD, PROGRAM AND DATA STRUCTURE

Similar Documents

Publication Publication Date Title
JP7317919B2 (en) Appearance search system and method
US20160019426A1 (en) Method of video analysis
US8270806B2 (en) Information processing apparatus and method of controlling same
US8866900B2 (en) Information processing apparatus and method of controlling same
KR100996066B1 (en) Face-image registration device, face-image registration method, face-image registration program, and recording medium
CN110119711A (en) A kind of method, apparatus and electronic equipment obtaining video data personage segment
JP5371083B2 (en) Face identification feature value registration apparatus, face identification feature value registration method, face identification feature value registration program, and recording medium
JP4973188B2 (en) Video classification device, video classification program, video search device, and video search program
JP5127067B2 (en) Image search apparatus and image search method
CN105262942B (en) Distributed automatic image and video processing
JP2008165700A (en) Image processing device, electronic equipment, image processing system, image processing method, and program
WO2017212813A1 (en) Image search device, image search system, and image search method
JP4911191B2 (en) Image processing apparatus and image processing program
Saddique et al. Spatial Video Forgery Detection and Localization using Texture Analysis of Consecutive Frames.
JP2018005555A (en) Image processing device, information processing device and method, as well as program
US20170213576A1 (en) Live Comics Capturing Camera
JP2019079357A (en) Learning video selecting device, program and method for selecting, as learning video, shot video with predetermined image region masked
JP2009055447A (en) System and device for searching video image
JP4937043B2 (en) Video search system and video search device
JP4987629B2 (en) Video search system and video search device
JP4929102B2 (en) Video search system and video search device
KR102277929B1 (en) Real time face masking system based on face recognition and real time face masking method using the same
JP2009055443A (en) Image search system
US20080201379A1 (en) Method and apparatus for generating digest of captured images
US9275140B2 (en) Method of optimizing the search for a scene on the basis of a stream of images archived in a video database

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120124

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120522

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120529