JP2008171434A - Image retrieval device and image retrieval system - Google Patents

Image retrieval device and image retrieval system Download PDF

Info

Publication number
JP2008171434A
JP2008171434A JP2008009234A JP2008009234A JP2008171434A JP 2008171434 A JP2008171434 A JP 2008171434A JP 2008009234 A JP2008009234 A JP 2008009234A JP 2008009234 A JP2008009234 A JP 2008009234A JP 2008171434 A JP2008171434 A JP 2008171434A
Authority
JP
Japan
Prior art keywords
video
data
search
imaging range
video frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008009234A
Other languages
Japanese (ja)
Other versions
JP4248593B2 (en
Inventor
Toshihiko Hata
淑彦 秦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2008009234A priority Critical patent/JP4248593B2/en
Publication of JP2008171434A publication Critical patent/JP2008171434A/en
Application granted granted Critical
Publication of JP4248593B2 publication Critical patent/JP4248593B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image retrieval device and an image retrieval system having a light load to an operator and capable of rapidly retrieving an imaged part of a photographed object whose position can be specified. <P>SOLUTION: Image data 1 is composed of image raw data 5 which is a time series set of image frames, and image attribute data 6 including imaging range data 10 showing an imaging range of each image frame. In an image retrieval section 3, an input means 7 accepts a retrieval request including position data of the photographed object and a position relationship between the photographed object and the imaging range, and a retrieval processing means 8 calculates a mutual position relationship from the position data and the imaging range data in the image storage section 2, and determines the image frame which meets the accepted retrieval request. An output means 9 outputs the retrieval result to a retrieval application executing section 4. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、記録装置に蓄積された多数の映像データの中から、所望の物体や空間といった被写体が映っている映像データあるいは映像データ部分を、被写体の位置データをキーとして検索する映像検索装置、および指定された被写体の位置データを獲得してこの映像検索装置に検索要求を送出する映像検索システムに関するものであり、例えばセキュリティ監視、プラント運転制御、設備管理、映画や放送番組の制作といった分野に適するものである。   The present invention relates to a video search device that searches video data or a video data portion showing a subject such as a desired object or space from among a large number of video data stored in a recording device, using the subject position data as a key, The present invention relates to a video search system that acquires position data of a designated subject and sends a search request to the video search device. For example, in the fields of security monitoring, plant operation control, facility management, production of movies and broadcast programs, etc. It is suitable.

セキュリティ監視やプラント運転制御では、建物や設備がある現場の状況を複数の監視カメラで撮像し、現場と離れた監視センタにて必要な映像を切り替えて表示する映像監視が行われている。図22は一般的な映像監視システムの構成例を示すブロック図であり、現場の状況を雲台カメラやカメラロボットを含む複数のカメラで撮像し、その映像データをローカルコントローラよりネットワークに送信し、当該ネットワークで接続された現場より離れた監視センタの監視ステーションにてその映像を監視する。その結果、障害の発生などが発見されると、当該監視ステーションより必要に応じて、ネットワークで接続された設備コントローラに指示して、現場の機器の障害復旧等を制御する。   In security monitoring and plant operation control, video monitoring is performed in which a situation where a building or facility is located is imaged by a plurality of monitoring cameras, and a necessary video is switched and displayed at a monitoring center remote from the site. FIG. 22 is a block diagram showing an example of the configuration of a general video surveillance system. The situation in the field is captured by a plurality of cameras including a pan head camera and a camera robot, and the video data is transmitted from a local controller to a network. The video is monitored at a monitoring station of a monitoring center remote from the site connected by the network. As a result, when the occurrence of a failure or the like is detected, the monitoring station instructs the equipment controller connected via the network as needed to control the failure recovery of the equipment on the site.

なお、この監視センタにおいては、表示する映像はライブ映像により現時点の状況を確認する以外に、ビデオテープレコーダ(以下、VTRという)やハードディスク装置などに記録された蓄積映像を検索して表示し、事件発生前の状況を確認したり、現象を繰り返し表示して詳細に分析するといった作業が行われる。映像データの情報量は膨大なものとなるため、その蓄積には主としてVTRが使用されていたが、動画像の圧縮・蓄積・伝送技術の進展と普及により、最近では動画像をディジタル圧縮してハードディスク装置等に記録する映像監視装置も製品化されている。   In this monitoring center, the video to be displayed is searched for and displayed on a video tape recorder (hereinafter referred to as VTR) or a hard disk device, in addition to confirming the current situation with live video, Work such as confirming the situation before the incident occurs and repeatedly analyzing the phenomenon for detailed analysis. Since the amount of information in video data is enormous, VTRs were mainly used for its storage. Recently, with the progress and popularization of video compression / storage / transmission technology, video has been digitally compressed. Video surveillance devices that record on a hard disk device or the like have also been commercialized.

このように、監視映像をディジタル化して蓄積することにより、記録を止めずに蓄積映像を表示できる、過去の映像を素早く読み出し表示できる、センサデータや運転データ等の数値データと関連付けて検索・表示できるなどの効果があるため、図22に示す映像監視システムなどにおいては、今後益々、多量の映像データを一時的あるいは長期間保存することになるのは確実である。その際、多数のカメラで撮像された多量の映像データから、必要な時に必要な映像データを高速に検索する機能を有する映像検索装置が重要となる。 In this way, by digitizing and accumulating surveillance video, the accumulated video can be displayed without stopping recording, past video can be quickly read and displayed, and search and display in association with numerical data such as sensor data and operation data Since there is an effect such as being able to do so, in the video monitoring system shown in FIG. 22 and the like, it is certain that a large amount of video data will be stored temporarily or for a long time in the future. At that time, a video search apparatus having a function of searching for necessary video data at high speed when necessary from a large amount of video data captured by a large number of cameras is important.

ここで、図23は例えば特許文献1に示された、従来の映像検索装置の構成を示すブロック図である。図において、1は映像データ、2は映像蓄積部であり、3は映像検索部、4は検索アプリケーションである。5は映像データ1の映像生データ、6はその映像属性データであり、7は映像検索部3の入力手段、8はその検索処理手段、9は出力手段である。   Here, FIG. 23 is a block diagram showing a configuration of a conventional video search apparatus disclosed in Patent Document 1, for example. In the figure, 1 is video data, 2 is a video storage unit, 3 is a video search unit, and 4 is a search application. Reference numeral 5 denotes raw video data of the video data 1, reference numeral 6 denotes the video attribute data thereof, reference numeral 7 denotes input means of the video search unit 3, reference numeral 8 denotes search processing means, and reference numeral 9 denotes output means.

次に動作について説明する。
映像蓄積部2に蓄積される映像データ1は、各カメラに対して例えば最新の10分間の映像をエンドレスに記録するものや、現場に設置された各種センサからのアラーム発報により例えば発報前後1分間の映像を記録するものなどがある。各映像データ1は1枚の画像である映像フレームが時間的に連続した映像生データ5と、撮像したカメラのID、記録のトリガとなったアラームのID、撮像時刻などを記述した映像属性データ6から構成されている。
Next, the operation will be described.
The video data 1 stored in the video storage unit 2 is, for example, an endless recording of the latest 10 minutes of video for each camera, or alarms from various sensors installed at the site. There is one that records a one-minute video. Each video data 1 includes video raw data 5 in which video frames as one image are temporally continuous, video attribute data describing an ID of a camera that has been imaged, an ID of an alarm that triggers recording, an imaging time, and the like. It is comprised from 6.

オペレータの指示により、検索アプリケーション4はアラームIDやカメラIDをキーとして該当する映像データを検索するように、映像検索部3に対して検索要求を送出する。映像検索部3ではこの検索要求を入力手段7で受け付けると、検索処理手段8にて映像蓄積部2から映像属性データ6を読み出し、指定されたアラームIDやカメラIDとマッチする映像データ1をサーチする。映像検索部3は次に、そのマッチした映像データ1のID一覧を、検索結果として出力手段9より検索アプリケーション4に回答する。検索アプリケーション4はこの検索結果をもとに、自動的あるいはオペレータの指示に従い、該当する映像生データ5を映像蓄積部2から取り出して表示する。   In response to an operator's instruction, the search application 4 sends a search request to the video search unit 3 so as to search for the corresponding video data using the alarm ID or camera ID as a key. When the video search unit 3 accepts this search request by the input unit 7, the video processing unit 8 reads the video attribute data 6 from the video storage unit 2 and searches the video data 1 that matches the specified alarm ID or camera ID. To do. Next, the video search unit 3 answers the search application 4 from the output means 9 with the ID list of the matched video data 1 as a search result. Based on the search result, the search application 4 takes out the corresponding video raw data 5 from the video storage unit 2 and displays it automatically or in accordance with an instruction from the operator.

「セキュリティ監視用ディジタル画像記録装置」,Sanyo Technical Review Vol.28,No.2,pp.50−57 0ct.1996“Digital image recording apparatus for security monitoring”, Sanyo Technical Review Vol. 28, no. 2, pp. 50-57 0ct. 1996

従来の映像検索装置は以上のように構成されているので、例えば装置AのバルブBとか、X丁目Y番地といった、被写体が映っている映像部分のみを見たいという要求に対して、該当箇所を担当するカメラのIDや該当箇所と関連するアラームIDから、可能性のある映像データ1を検索することしかできず、オペレータ自身が検索結果の映像全てに目を通し、該当する映像部分を探し出さねばならず、特に、パン・チルト・ズームが可能な雲台付きカメラや、カメラそのものが移動するカメラロボットの場合には、固定のアングルで決められた被写体のみを写していないので、該当する映像部分が少ない場合もあり、無駄な作業が増えてしまい、オペレータへの負荷が増大するといった課題があった。   Since the conventional video search device is configured as described above, for example, a request to view only the video portion in which the subject is shown, such as the valve B of the device A or the X-chome and Y-addresses, is used. It is only possible to search for possible video data 1 from the ID of the camera in charge and the alarm ID associated with the corresponding part, and the operator himself looks through all the search results and searches for the corresponding video part. In particular, in the case of a camera with a pan head that can pan, tilt, and zoom, or a camera robot that moves the camera itself, only the subject determined by a fixed angle is not captured. There are cases where the number of parts is small, and there is a problem that wasteful work increases and the load on the operator increases.

この発明は上記のような課題を解決するためになされたもので、蓄積された多量の映像データから、位置が特定できる被写体が映っている映像データ部分を高速に検索できる映像検索装置、および被写体を管理するサブシステムから指定された被写体の位置データを獲得して上記映像検索装置に検索要求を送出する映像検索システムを得ることを目的とする。   The present invention has been made in order to solve the above-described problems, and a video search apparatus capable of quickly searching a video data portion in which a subject whose position can be specified is shown from a large amount of stored video data, and a subject An object of the present invention is to obtain a video search system that acquires position data of a designated subject from a subsystem that manages the video and sends a search request to the video search device.

この発明に係る映像検索装置は、映像データを蓄積する映像蓄積部と、問い合わせ元からの検索要求に対して、検索要求の検索条件を満足する映像データを検索してその結果を問い合わせ元に回答する映像検索部から構成される映像検索装置において、映像蓄積部に蓄積される映像データが、映像フレームの時系列集合である映像生データと、各映像フレームの撮像範囲を示す撮像範囲データを含む映像属性データから構成され、映像検索部が、被写体の位置データ、および被写体と撮像範囲との位置関係として、被写体が撮像される方向に関する条件を含む検索要求を受け付ける入力手段と、位置データと撮像範囲データから被写体が撮像される方向を計算し、指定された撮像される方向に関する条件を含む検索要求を満足する映像フレームを求める検索処理手段と、検索処理手段の検索結果を問い合わせ元に出力する出力手段を有するものである。   The video search device according to the present invention searches for video data satisfying a search condition of a search request in response to a search request from a video storage unit that stores video data and the query source, and returns the result to the query source In the video search device including the video search unit, the video data stored in the video storage unit includes video raw data that is a time-series set of video frames and imaging range data indicating an imaging range of each video frame. An input means configured by video attribute data, wherein the video search unit accepts a search request including a condition relating to a direction in which the subject is imaged as position data of the subject and a positional relationship between the subject and the imaging range, position data, and imaging Calculates the direction in which the subject is imaged from the range data, and satisfies the search request including the conditions related to the specified imaging direction. And search processing means for determining, and has an output means for outputting the inquiry source search result of the search processing means.

この発明に係る映像検索装置は、映像検索部の入力手段が、複数の被写体の投影面での関係に関する条件を含む検索要求を受け付けるものであり、映像検索部の検索処理手段が、複数の被写体の位置データと撮影範囲データから複数の被写体の投影面での関係を計算し、指定された投影面での関係に関する条件を含む検索要求を満足する映像フレームを求めるものである。   In the video search device according to the present invention, the input unit of the video search unit accepts a search request including a condition relating to the relationship of a plurality of subjects on the projection plane, and the search processing unit of the video search unit includes a plurality of subjects. The relationship between a plurality of subjects on the projection plane is calculated from the position data and the photographing range data, and a video frame satisfying a search request including a condition regarding the relationship on the designated projection plane is obtained.

この発明に係る映像検索装置は、映像属性データが、各映像フレームの撮像範囲を示す撮像範囲データとともに、各映像フレームを撮像した時刻を示す撮像時刻データを含み、映像検索部において、被写体の位置データおよび被写体と撮像範囲の位置関係と、撮像時刻の範囲を示す撮像時間区間とを含んだ検索要求を、その入力手段で受け付け、その検索処理手段にて、位置データと撮像範囲データから互いの位置関係を計算して、受け付けた検索要求を満足する映像フレームを求めるようにしたものである。   In the video search device according to the present invention, the video attribute data includes imaging range data indicating the imaging range of each video frame and imaging time data indicating the time when each video frame was captured. A search request including the positional relationship between the data and the subject and the imaging range, and an imaging time interval indicating the imaging time range is received by the input means, and the search processing means accepts each other from the position data and the imaging range data. By calculating the positional relationship, a video frame that satisfies the accepted search request is obtained.

この発明に係る映像検索装置は、映像属性データが、各映像フレームの撮像範囲を示す撮像範囲データとともに、各映像フレームの撮像時刻を計算するための撮像時刻データを含み、映像検索部において、被写体の位置データおよび被写体と撮像範囲との位置関係と、撮像時刻の範囲を示す撮像時間区間とを含む検索要求を、その入力手段で受け付け、その検索処理手段にて、位置データと撮像範囲データから互いの位置関係を計算するとともに、撮像時刻データから撮像時刻を計算して、受け付けた検索要求を満足する映像フレームを求めるようにしたものである。   In the video search device according to the present invention, the video attribute data includes imaging time data for calculating the imaging time of each video frame together with imaging range data indicating the imaging range of each video frame. A search request including the positional data and the positional relationship between the subject and the imaging range, and the imaging time interval indicating the imaging time range is received by the input means, and the search processing means determines from the position data and the imaging range data. In addition to calculating the positional relationship with each other, the imaging time is calculated from the imaging time data, and a video frame satisfying the accepted search request is obtained.

この発明に係る映像検索装置は、複数の時間的に連続する映像フレーム集合毎にその集合に含まれる映像フレーム全体の撮像範囲を示す第一の撮像範囲データと、各映像フレームまたは映像フレーム集合を分割した映像フレームサブ集合の撮像範囲を示す第二の撮像範囲データとによって、映像属性データの撮像範囲データを構成し、映像検索部において、その検索処理手段が、まず第一の撮像範囲データを基に映像フレーム集合に対する位置関係を計算して、検索要求を満足する映像フレームが存在し得る映像フレーム集合を求め、次いでその映像フレーム集合に属する各映像フレームまたは映像フレームサブ集合に対して、第二の撮像範囲データを基に位置関係を計算して、検索要求を満足する映像フレームを求めるようにしたものである。   The video search device according to the present invention includes, for each of a plurality of temporally continuous video frame sets, first imaging range data indicating an imaging range of an entire video frame included in the set, and each video frame or video frame set. The imaging range data of the video attribute data is configured by the second imaging range data indicating the imaging range of the divided video frame sub-set, and in the video search unit, the search processing means first converts the first imaging range data And calculating a positional relationship with respect to the video frame set to obtain a video frame set in which a video frame satisfying the search request may exist, and then, for each video frame or video frame sub-set belonging to the video frame set, By calculating the positional relationship based on the second imaging range data, a video frame that satisfies the search request is obtained. .

この発明に係る映像検索装置は、複数の時間的に連続する映像フレーム集合毎に、その集合に含まれる映像フレーム全体の撮像範囲を示す第一の撮像範囲データと、各映像フレームまたは映像フレーム集合を分割した映像フレームサブ集合の撮像範囲を計算するための第三の撮像範囲データとによって、映像属性データの撮像範囲データを構成し、映像検索部において、その検索処理手段が、まず第一の撮像範囲データを基に映像フレーム集合に対する位置関係を計算して、検索要求を満足する映像フレームが存在し得る映像フレーム集合を求め、次いでその映像フレーム集合に属する映像フレームまたは映像フレームサブ集合の撮像範囲を、第三の撮像範囲データを基に求めて位置関係を計算し、検索要求を満足する映像フレームを求めるようにしたものである。   The video search apparatus according to the present invention includes, for each of a plurality of temporally continuous video frame sets, first imaging range data indicating an imaging range of the entire video frame included in the set, and each video frame or video frame set The imaging range data of the video attribute data is constituted by the third imaging range data for calculating the imaging range of the video frame sub-set obtained by dividing the video frame sub-set. By calculating the positional relationship with the video frame set based on the imaging range data, a video frame set in which a video frame satisfying the search request can be obtained is obtained, and then imaging of the video frame or video frame sub-set belonging to the video frame set The range is calculated based on the third imaging range data, the positional relationship is calculated, and a video frame that satisfies the search request is obtained. Those were Unishi.

この発明に係る映像検索装置は、第一の撮像範囲データおよび第二の撮像範囲データに、カメラ毎にそのカメラで撮像された映像データに属する映像フレーム全体の撮像範囲を示す第四の撮像範囲データを加えて撮像範囲データを構成し、映像検索部において、その検索処理手段が、まず各カメラに属する映像フレーム全体に対する位置関係を第四の撮像範囲データを基に計算して、検索要求を満足する映像フレームが存在し得るカメラを求め、次いでそのカメラで撮像された映像フレーム集合に対する位置関係を第一の撮像範囲データを基に計算して、検索要求を満足する映像フレームが存在し得る映像フレーム集合を求め、さらにその映像フレーム集合に属する各映像フレームまたは映像フレームサブ集合に対して、第二の撮像範囲データを基に位置関係を計算して検索要求を満足する映像フレームを求めるようにしたものである。   The video search device according to the present invention is the fourth imaging range indicating the imaging range of the entire video frame belonging to the video data captured by the camera for each camera in the first imaging range data and the second imaging range data. The imaging range data is configured by adding data, and in the video search unit, the search processing means first calculates the positional relationship with respect to the entire video frame belonging to each camera based on the fourth imaging range data, and issues a search request. A camera in which a satisfactory video frame can exist is obtained, and then a positional relationship with respect to a set of video frames captured by the camera is calculated based on the first imaging range data, and a video frame that satisfies the search request can exist. A video frame set is obtained, and for each video frame or video frame sub-set belonging to the video frame set, a second imaging range data is obtained. The is obtained so as to obtain an image frame that satisfies the search request to calculate the positional relationship based.

この発明に係る映像検索装置は、第一の撮像範囲データおよび第三の撮像範囲データに、カメラ毎にそのカメラで撮像された映像データに属する映像フレーム全体の撮像範囲を示す第四の撮像範囲データを加えて撮像範囲データを構成し、映像検索部において、その検索処理手段が、まず各カメラに属する映像フレーム全体に対する位置関係を第四の撮像範囲データを基に計算して、検索要求を満足する映像フレームが存在し得るカメラを求め、次いでそのカメラで撮像された映像フレーム集合に対する位置関係を第一の撮像範囲データを基に計算して、検索要求を満足する映像フレームが存在し得る映像フレーム集合を求め、さらにその映像フレーム集合に属する映像フレームまたは映像フレームサブ集合の撮像範囲を、第三の撮像範囲データを基に求めて位置関係を計算し、検索要求を満足する映像フレームを求めるようにしたものである。   The video search device according to the present invention provides a fourth imaging range indicating the imaging range of the entire video frame belonging to the video data captured by the camera for each camera in the first imaging range data and the third imaging range data. The imaging range data is configured by adding data, and in the video search unit, the search processing means first calculates the positional relationship with respect to the entire video frame belonging to each camera based on the fourth imaging range data, and issues a search request. A camera in which a satisfactory video frame can exist is obtained, and then a positional relationship with respect to a set of video frames captured by the camera is calculated based on the first imaging range data, and a video frame that satisfies the search request can exist. A video frame set is obtained, and an imaging range of a video frame or a video frame sub-set belonging to the video frame set is determined as a third imaging range set. Seeking based on data to calculate the positional relationship is obtained by to obtain the video frame that satisfies the search request.

この発明に係る映像検索システムは、上記発明の映像検索装置と、映像検索装置に検索要求を送出する問い合わせ元としての検索アプリケーション実行部と、被写体について、少なくともその被写体の位置データを管理するサブシステムから構成される映像検索システムであって、検索アプリケーション実行部が、指定された被写体について、その位置データを前記サブシステムから獲得し、映像検索装置に獲得した位置データを含む検索要求を送出するようにしたものである。   The video search system according to the present invention includes a video search device according to the above invention, a search application execution unit as an inquiry source for sending a search request to the video search device, and a subsystem that manages at least the position data of the subject. The search application execution unit acquires the position data of the designated subject from the subsystem and sends a search request including the acquired position data to the video search device. It is a thing.

この発明によれば、映像データを蓄積する映像蓄積部と、問い合わせ元からの検索要求に対して、検索要求の検索条件を満足する映像データを検索してその結果を問い合わせ元に回答する映像検索部から構成される映像検索装置において、映像蓄積部に蓄積される映像データが、映像フレームの時系列集合である映像生データと、各映像フレームの撮像範囲を示す撮像範囲データを含む映像属性データから構成され、映像検索部が、被写体の位置データ、および被写体と撮像範囲との位置関係として、被写体が撮像される方向に関する条件を含む検索要求を受け付ける入力手段と、位置データと撮像範囲データから被写体が撮像される方向を計算し、指定された撮像される方向に関する条件を含む検索要求を満足する映像フレームを求める検索処理手段と、検索処理手段の検索結果を問い合わせ元に出力する出力手段を有するよう構成したので、位置が特定できる被写体について、撮像範囲との位置関係を満足する映像データ部分のみを検索して自動的に切り出すことが可能となり、オペレータは位置関係を満足しない映像部分まで見る必要がなくなるため、短時間で業務を遂行することができ、オペレータへの負荷を軽減できる映像検索装置が得られる効果がある。また、例えば、ある被写体が投影面の中央に映った映像部分のみを見たいといった場合には、より精度の高い検索を行うことが可能となり、オペレータは検索結果の中から不要な映像部分を見る必要がなくなるという効果がある。   According to the present invention, in response to a search request from a query source, a video search unit that stores video data, searches for video data that satisfies a search request search condition, and returns the result to the query source. Image data including video raw data, which is a time-series set of video frames, and imaging range data indicating an imaging range of each video frame. An input means for receiving a search request including a condition relating to a direction in which the subject is imaged as a positional relationship between the subject position data and the subject and the imaging range, and the position data and the imaging range data. The direction in which the subject is imaged is calculated, and a search for obtaining a video frame that satisfies the search request including the condition relating to the specified direction in which the image is captured is performed. Since the processing means and the output means for outputting the search result of the search processing means to the inquiry source are provided, only the video data portion satisfying the positional relationship with the imaging range is automatically searched for the subject whose position can be specified. Therefore, the operator does not need to see the video portion that does not satisfy the positional relationship, so that the work can be performed in a short time and the video search device that can reduce the burden on the operator can be obtained. is there. In addition, for example, when it is desired to view only a video portion where a certain subject is reflected in the center of the projection surface, it becomes possible to perform a search with higher accuracy, and the operator views an unnecessary video portion from the search result. There is an effect that it becomes unnecessary.

この発明によれば、映像検索部の入力手段が、複数の被写体の投影面での関係に関する条件を含む検索要求を受け付けるものであり、映像検索部の検索処理手段が、複数の被写体の位置データと撮影範囲データから複数の被写体の投影面での関係を計算し、指定された投影面での関係に関する条件を含む検索要求を満足する映像フレームを求めるよう構成したので、検索条件として単一の被写体に関するものだけではなく、複数の被写体に対して、各領域の位置データと投影面での互いの位置や大きさの関係を組み合わせた条件を含む検索要求にも容易に拡張することができる。   According to the present invention, the input means of the video search unit accepts a search request including a condition relating to the relationship of the plurality of subjects on the projection plane, and the search processing means of the video search unit receives the position data of the plurality of subjects. And the shooting range data are used to calculate the relationship between the projection planes of multiple subjects and to obtain a video frame that satisfies the search request including the conditions related to the specified projection plane. The search request can be easily expanded not only for the subject but also for a plurality of subjects including a condition that combines the positional data of each region and the relationship between the position and size of each other on the projection plane.

この発明によれば、映像属性データとして、各映像フレームの撮像範囲を示す撮像範囲データ、および撮像した時刻を示す撮像時刻データを含み、映像検索部において、入力手段が被写体の位置データおよび被写体と撮像範囲の位置関係と、撮像時刻の範囲を示す撮像時間区間を含む検索要求を受け付け、検索処理手段が位置データと撮像範囲データから互いの位置関係を計算して、受け付けた検索要求を満足する映像フレームを求めるように構成したので、ある被写体のある時間帯の映像のみ検索したい場合には、より精度の高い検索を行うことが可能となり、オペレータは検索結果の中から不要な映像部分を見る必要がなくなるという効果がある。   According to the present invention, the video attribute data includes the imaging range data indicating the imaging range of each video frame and the imaging time data indicating the imaging time. In the video search unit, the input means includes the subject position data and the subject. A search request including the positional relationship between the imaging ranges and the imaging time interval indicating the imaging time range is received, and the search processing unit calculates the positional relationship between the position data and the imaging range data, and satisfies the received search request. Since it is configured to obtain a video frame, if you want to search only video of a certain subject in a certain time zone, it is possible to perform a more accurate search, and the operator views unnecessary video parts from the search results There is an effect that it becomes unnecessary.

この発明によれば、映像属性データとして、各映像フレームの撮像範囲を示す撮像範囲データ、および撮像した時刻を計算するための撮像時刻データを含み、映像検索部において、入力手段が被写体の位置データおよび被写体と撮像範囲の位置関係と、撮像時刻の範囲を示す撮像時間区間を含む検索要求を受け付け、検索処理手段が位置データと撮像範囲データから互いの位置関係を計算するとともに、撮像時刻データから撮像時刻を計算して、受け付けた検索要求を満足する映像フレームを求めるように構成したので、ある被写体のある時間帯の映像のみ検索したい場合には、より精度の高い検索を行うことが可能となり、オペレータは検索結果の中から不要な映像部分を見る必要がなくなるとともに、撮像時刻データの格納のための記憶容量を削減でき、検索処理時間の短縮が可能になるなどの効果がある。   According to the present invention, the video attribute data includes imaging range data indicating the imaging range of each video frame, and imaging time data for calculating the imaging time. A search request including a positional relationship between the subject and the imaging range and an imaging time interval indicating a range of the imaging time, and the search processing means calculates the mutual positional relationship from the position data and the imaging range data, and from the imaging time data Since it is configured to calculate the imaging time and obtain a video frame that satisfies the received search request, it is possible to perform a more accurate search if you only want to search for video in a certain time zone of a subject. The operator does not need to see unnecessary video parts from the search results, and the memory for storing imaging time data The amount can be reduced, there is an effect such as to allow shortening of the search process time.

この発明によれば、撮像範囲データを、複数の時間的に連続する映像フレーム集合毎にその集合に含まれる映像フレーム全体の撮像範囲を示す第一の撮像範囲データと、各映像フレームの撮像範囲を示す第二の撮像範囲データとで構成し、映像検索部において、検索処理手段がまず第一の撮像範囲データを基に映像フレーム集合に対する位置関係を計算して、検索要求を満足する映像フレームが存在し得る映像フレーム集合を求め、さらにその映像フレーム集合に属する各映像フレームに対して第二の撮像範囲データを基に位置関係を計算して、検索要求を満足する映像フレームを求めるように構成したので、蓄積された全ての映像データにおける全ての映像フレームに対して、撮像範囲データの読み込み、位置関係計算および判定を行う必要がなくなり、検索処理時間を短縮できるという効果がある。   According to the present invention, the imaging range data includes the first imaging range data indicating the imaging range of the entire video frame included in the set for each of a plurality of temporally continuous video frame sets, and the imaging range of each video frame. The video frame satisfying the search request by the search processing means first calculating the positional relationship with respect to the video frame set based on the first imaging range data in the video search unit. To obtain a video frame satisfying the search request by calculating a positional relationship based on the second imaging range data for each video frame belonging to the video frame set. Since it is configured, it is necessary to read the imaging range data, calculate the positional relationship, and determine all the video frames in all the stored video data. Is eliminated, there is an effect that can shorten the search process time.

この発明によれば、撮像範囲データを、複数の時間的に連続する映像フレーム集合毎にその集合に含まれる映像フレーム全体の撮像範囲を示す第一の撮像範囲データと、各映像フレームの撮像範囲を計算するための第三の撮像範囲データとで構成し、映像検索部において、検索処理手段がまず第一の撮像範囲データを基に映像フレーム集合に対する位置関係を計算して、検索要求を満足する映像フレームが存在し得る映像フレーム集合を求め、さらにその映像フレーム集合に属する映像フレームの撮像範囲を第三の撮像範囲データを基に求めて位置関係を計算し、検索要求を満足する映像フレームを求めるように構成したので、全ての映像データにおける全ての映像フレームに対して、撮像範囲データの読み込みと、位置関係の計算および判定を行う必要がなくなり、検索処理時間の短縮が可能になるとともに、各映像フレームの撮像範囲データを少ないデータ量で記述することができて、記録装置の容量を削減できるなどの効果がある。   According to the present invention, the imaging range data includes the first imaging range data indicating the imaging range of the entire video frame included in the set for each of a plurality of temporally continuous video frame sets, and the imaging range of each video frame. The image search unit first calculates the positional relationship with respect to the video frame set based on the first image pickup range data to satisfy the search request. A video frame satisfying a search request by obtaining a video frame set in which a video frame can exist, calculating an imaging range of video frames belonging to the video frame set based on third imaging range data, and calculating a positional relationship Therefore, for all the video frames in all the video data, the imaging range data is read and the positional relationship is calculated and determined. It is not necessary to perform, it becomes possible to shorten the search processing time, and can be described with a small amount of data an imaging range data for each video frame, there are effects such as may reduce the capacity of the recording apparatus.

この発明によれば、撮像範囲データを、第一の撮像範囲データおよび第二の撮像範囲データに、カメラ毎にそのカメラで撮像された映像データに属する映像フレーム全体の撮像範囲を示す第四の撮像範囲データを加えて構成し、映像検索部において、検索処理手段がまず第四の撮像範囲データを基に、各カメラに属する映像フレーム全体に対する位置関係を計算して、検索要求を満足する映像フレームが存在し得るカメラを求め、次に第一の撮像範囲データを基に、そのカメラで撮像された映像フレーム集合に対する位置関係を計算して、検索要求を満足する映像フレームが存在し得る映像フレーム集合を求め、さらにその映像フレーム集合に属する各映像フレームに対して、第二の撮像範囲データを基に位置関係を計算して検索要求を満足する映像フレームを求めるように構成したので、蓄積された全ての映像データについて、位置関係の計算および判定を行う必要がなくなり、検索検索処理を高速化できる効果がある。   According to the present invention, the imaging range data is converted into the first imaging range data and the second imaging range data, and the fourth imaging range indicating the imaging range of the entire video frame belonging to the video data captured by the camera for each camera. Video that is configured by adding imaging range data, and in the video search unit, the search processing means first calculates the positional relationship with respect to the entire video frame belonging to each camera based on the fourth imaging range data, and satisfies the search request A video that can satisfy a search request by calculating a positional relationship with respect to a set of video frames captured by the camera based on the first imaging range data after obtaining a camera that can have a frame. Find the frame set and calculate the positional relationship based on the second imaging range data for each video frame belonging to the video frame set to satisfy the search request Since it is configured to determine a video frame that, for accumulating all the image data, it is not necessary to perform the calculation and determination of the positional relationship, there is an effect of speeding up the Search process.

この発明によれば、撮像範囲データを、第一の撮像範囲データおよび第三の撮像範囲データに、カメラ毎にそのカメラで撮像された映像データに属する映像フレーム全体の撮像範囲を示す第四の撮像範囲データを加えて構成し、映像検索部において、検索処理段がまず第四の撮像範囲データを基に、各カメラに属する映像フレーム全体に対する位置関係を計算して、検索要求を満足する映像フレームが存在し得るカメラを求め、次に第一の撮像範囲データを基に、そのカメラで撮像された映像フレーム集合に対する位置関係を計算して、検索要求を満足する映像フレームが存在し得る映像フレーム集合を求め、さらにその映像フレーム集合に属する映像フレームの撮像範囲を、第三の撮像範囲データを基に求めて位置関係を計算し、検索要求を満足する映像フレームを求めるように構成したので、蓄積された全ての映像データについて、位置関係の計算および判定を行う必要がなくなって、検索処理を高速化できるとともに、各映像フレームの撮像範囲データを少ないデータ量で記述することができて、記録装置の容量を削減できるなどの効果がある。   According to this invention, the imaging range data is converted into the first imaging range data and the third imaging range data, and the fourth imaging range indicating the imaging range of the entire video frame belonging to the video data captured by the camera for each camera. Video that is configured by adding imaging range data, and in the video search unit, the search processing stage first calculates the positional relationship with respect to the entire video frame belonging to each camera based on the fourth imaging range data, and satisfies the search request A video that can satisfy a search request by calculating a positional relationship with respect to a set of video frames captured by the camera based on the first imaging range data after obtaining a camera that can have a frame. Obtain a frame set, calculate the image range of video frames belonging to the video frame set based on the third image range data, calculate the positional relationship, and request a search Since it is configured to obtain a satisfactory video frame, it is not necessary to calculate and determine the positional relationship for all accumulated video data, the search process can be speeded up, and the imaging range data of each video frame can be obtained. This is advantageous in that it can be described with a small amount of data and the capacity of the recording apparatus can be reduced.

この発明によれば、映像蓄積部に蓄積される映像データを、映像フレームの時系列集合である映像生データと、各映像フレームの撮像範囲を示す撮像範囲データを含む映像属性データとで構成し、映像検索部では、入力手段が被写体の位置データと被写体と撮像範囲の位置関係とを含む検索要求を検索アプリケーション実行部より受け付け、検索処理手段がその位置データと映像蓄積部にある撮像範囲データから互いの位置関係を計算し、受け付けた位置関係を含む検索要求を満足する映像フレームを求め、出力手段がその検索結果を検索アプリケーション実行部に出力し、検索アプリケーション実行部ではオペレータ等から指定された被写体の位置データを、各被写体について、少なくともその位置データを管理しているサブシステムから獲得し、映像検索装置に獲得した位置データを含む検索要求を送出するように構成したので、オペレータは被写体の位置データを自分自身で探してキーボート等で入力する必要がないため、例えば、設備運転表や地図からビジュアルにオブジェクトを選択することで、そのオブジェクトが映っている映像データを検索して表示することが可能となり、操作性のよい映像検索システムが得られる効果がある。   According to the present invention, the video data stored in the video storage unit is composed of video raw data that is a time-series set of video frames and video attribute data including imaging range data indicating the imaging range of each video frame. In the video search unit, the input unit accepts a search request including the position data of the subject and the positional relationship between the subject and the imaging range from the search application execution unit, and the search processing unit receives the location data and the imaging range data in the video storage unit. From each other, the video frame satisfying the search request including the received positional relationship is obtained, and the output means outputs the search result to the search application execution unit, which is designated by the operator or the like in the search application execution unit. For each subject, at least from the subsystem that manages that location data. Since the search request including the acquired position data is sent to the video search device, the operator does not need to search for the position data of the subject by himself / herself and input it with a keyboard or the like. By selecting an object visually from a table or a map, it is possible to search and display video data in which the object is reflected, and there is an effect that a video search system with good operability can be obtained.

以下、この発明の実施の一形態を説明する。
実施の形態1.
図1はこの発明の実施の形態1による映像検索装置の構成を示すブロック図である。図において、1は当該映像検索装置によって検索される映像データであり、2はこの映像データ1を蓄積する映像蓄積部である。3は問い合わせ元からの検索要求に対して、その検索条件を満足する映像データ1を映像蓄積部2より検索し、結果を回答する映像検索部であり、4はオペレータ等の指示に従って映像検索部3に検索要求を送出する、問い合わせ元としての検索アプリケーション実行部である。
An embodiment of the present invention will be described below.
Embodiment 1 FIG.
FIG. 1 is a block diagram showing the configuration of a video search apparatus according to Embodiment 1 of the present invention. In the figure, 1 is video data searched by the video search device, and 2 is a video storage unit for storing the video data 1. 3 is a video search unit that searches the video storage unit 2 for video data 1 that satisfies the search condition in response to a search request from an inquiry source, and 4 returns a result. 4 is a video search unit according to an instruction from an operator or the like. 3 is a search application execution unit serving as an inquiry source.

また、5は1枚の画像である映像フレームが時間的に連続した時系列集合による映像生データであり、6はその映像生データ5を撮像したカメラのIDや記録のトリガとなったアラームのIDなどを含む、当該映像生データ5の属性情報を記述する映像属性データである。映像データ1はこの映像生データ5および映像属性データ6によって構成されている。7は問い合わせ元である検索アプリケーション実行部4からの検索要求を受け付ける入力手段、8は映像蓄積部2に格納された映像データ1より、その検索要求を満足する映像データを求める検索処理手段であり、9はその検索結果を検索アプリケーション実行部4へ出力する出力手段である。映像検索部3はこの入力手段7、検索処理手段8、および出力手段9を有している。なお、これらは、図23に同一符号を付して示した、従来のそれらに相当する部分である。   Further, 5 is video raw data by a time series set in which video frames as one image are temporally continuous, and 6 is the ID of the camera that captured the video raw data 5 and the alarm that triggered the recording. This is video attribute data describing attribute information of the video raw data 5 including an ID and the like. The video data 1 is composed of this raw video data 5 and video attribute data 6. Reference numeral 7 denotes an input means for receiving a search request from the search application execution unit 4 as an inquiry source, and reference numeral 8 denotes a search processing means for obtaining video data satisfying the search request from the video data 1 stored in the video storage unit 2. , 9 are output means for outputting the search result to the search application execution unit 4. The video search unit 3 has this input means 7, search processing means 8, and output means 9. These are the parts corresponding to those of the related art shown with the same reference numerals in FIG.

また、10は各映像フレームの撮像範囲を示す撮像範囲データであり、カメラの位置(X,Y,Z)、水平方向の撮像角度(HL,HR)、垂直方向の撮像角度(VU,VD)、撮像距離(DN,DF)で規定される撮像範囲が、各映像フレーム毎に格納されている。前記映像属性データ6は、カメラIDやアラームIDとともにこの撮像範囲データ10を含んでいる点で、図23に同一符号を付して示した従来のそれとは異なっている。   Reference numeral 10 denotes imaging range data indicating the imaging range of each video frame. The camera position (X, Y, Z), the horizontal imaging angle (HL, HR), and the vertical imaging angle (VU, VD). The imaging range defined by the imaging distance (DN, DF) is stored for each video frame. The video attribute data 6 is different from the conventional one shown in FIG. 23 with the same reference numerals in that it includes the imaging range data 10 together with the camera ID and alarm ID.

次に動作について説明する。
所望の被写体が映っている映像を探して表示したい場合、オペレータは検索アプリケーション実行部4に対して被写体の位置データ(x,y,z)を与えて検索を指示する。この検索の指示を受けた検索アプリケーション実行部4は映像検索部3に対して、その位置データと被写体と撮像範囲の位置関係“include”をパラメータとする検索要求を送出する。映像検索部3の入力手段7はこの検索アプリケーション実行部4からの検索要求を受け付けると、検索処理手段8に映像データ1の検索処理の実行を指示する。
Next, the operation will be described.
When it is desired to search for and display an image showing a desired subject, the operator gives subject position data (x, y, z) to the search application execution unit 4 to instruct search. Upon receiving this search instruction, the search application execution unit 4 sends a search request to the video search unit 3 using the position data, the positional relationship “include” between the subject and the imaging range as parameters. When receiving the search request from the search application execution unit 4, the input unit 7 of the video search unit 3 instructs the search processing unit 8 to execute the search process of the video data 1.

次に、この検索処理手段8による検索処理について説明する。図2はこの実施の形態1における検索処理の手順を示すフローチャートであり、検索処理手段8はこの図2に示す手順に従って、検索アプリケーション実行部4からの検索要求を満足する映像フレームをサーチし、検索結果リストに登録してゆく。すなわち、まずステップST101で映像データのカウンタiを“1”に初期設定して、ステップST102で#1〜#M個の映像データ1について、その全てを調べたかどうかチェックする。この場合には、まだ完了していないのでステップST103に分岐して、映像フレームのカウンタjを“1”に初期設定し、ステップST104にてその#i(この場合は#1)映像データ1に含まれている#1〜#Fiの映像フレームについて、その全てを調べたかどうかチェックする。この場合には、まだ完了していないのでステップST105に分岐して、#i映像データ1の#j(この場合は#1)映像フレームの撮像範囲データ10を読み込む。   Next, search processing by the search processing means 8 will be described. FIG. 2 is a flowchart showing the search processing procedure in the first embodiment, and the search processing means 8 searches for a video frame satisfying the search request from the search application execution unit 4 according to the procedure shown in FIG. Register to the search result list. That is, first, in step ST101, the video data counter i is initially set to "1", and in step ST102, it is checked whether or not all of # 1 to #M video data 1 have been examined. In this case, since it has not been completed yet, the process branches to step ST103, the video frame counter j is initialized to “1”, and the video data 1 is set to #i (# 1 in this case) in step ST104. It is checked whether all the included video frames # 1 to #Fi have been examined. In this case, since it has not been completed yet, the process branches to step ST105, and the imaging range data 10 of #j (# 1 in this case) video frame of #i video data 1 is read.

次にステップST106に進み、物体や空間などの被写体の与えられた位置データと、ステップST105にて読み込んだ撮像範囲データ10より、#i映像データ1の#j映像フレームにおける被写体と撮像範囲の相互の位置関係を計算し、ステップST107においてその#i映像データ1の#j映像フレームにおける互いの位置関係が、検索要求に含まれている指定された位置関係を満足しているか否かの判定を行う。具体的には、ステップST106において、位置データと撮像範囲データ10から被写体が撮像範囲に含まれるか否かという包合関係の計算を行い、ステップST107では、その#i映像データ1の#j映像フレームにおける包含関係が、指定された包含関係を満足しているか否かについて判定する。   Next, the process proceeds to step ST106, where the subject and the imaging range in the #j video frame of #i video data 1 are determined based on the given position data of the subject such as an object or space and the imaging range data 10 read in step ST105. In step ST107, it is determined whether or not the positional relationships in the #j video frame of the #i video data 1 satisfy the specified positional relationship included in the search request. Do. Specifically, in step ST106, an inclusion relationship is calculated from whether the subject is included in the imaging range from the position data and the imaging range data 10, and in step ST107, the #j video of the #i video data 1 is calculated. It is determined whether the inclusion relationship in the frame satisfies the specified inclusion relationship.

判定の結果、指定された位置関係を満足しれていれば、ステップST108にて検索結果リストにその#j映像フレームを登録した後、ステップST109で映像フレームのカウンタjをインクリメントする。一方、満足していなければ、直接ステップST109に分岐してカウンタjのインクリメントのみを行う。その後、処理をステップST104に戻して上記ステップST104〜ステップST109の一連の処理を繰り返す。#i映像データ1について、その#1〜#Fiの映像フレームの全てについて上記処理が完了すると、ステップST110に分岐して映像データのカウンタiをインクリメントする。その後、処理をステップST102に戻して上記ステップST102〜ステップST110の一連の処理を繰り返す。#1〜#MのM個の映像データ1の全てについて上記処理が完了すると、当該検索処理手段8による検索処理を終了し、出力手段9に検索条件を満足する映像フレームが登録された検索結果リストを渡す。   As a result of the determination, if the specified positional relationship is satisfied, the #j video frame is registered in the search result list in step ST108, and then the video frame counter j is incremented in step ST109. On the other hand, if not satisfied, the process directly branches to step ST109 and only increments the counter j. Thereafter, the process returns to step ST104, and the series of processes of step ST104 to step ST109 is repeated. For the #i video data 1, when the above processing is completed for all of the # 1 to #Fi video frames, the flow branches to step ST110 to increment the video data counter i. Thereafter, the process returns to step ST102, and the series of processes of steps ST102 to ST110 is repeated. When the above processing is completed for all of the M pieces of video data 1 of # 1 to #M, the search processing by the search processing unit 8 is finished, and a search result in which video frames satisfying the search condition are registered in the output unit 9 Pass the list.

出力手段9は図1に示すような、映像データ1を識別する映像IDと、該当する映像フレームの開始番号と終了番号による検索結果リストを、検索結果として検索アプリケーション実行部4に回答し、検索アプリケーション実行部4はその検索結果リストをオペレータに表示する。オペレータがそれを基に、該当する映像データ部分の表示を指示すれば、検索アプリケーション実行部4は映像蓄積部2から該当する映像データ部分の映像生データ5を取り出して表示する。   The output means 9 replies to the search application execution unit 4 as a search result with a search result list by the video ID for identifying the video data 1 and the start number and end number of the corresponding video frame as shown in FIG. The application execution unit 4 displays the search result list to the operator. If the operator instructs the display of the corresponding video data portion based on it, the search application execution unit 4 extracts the video raw data 5 of the corresponding video data portion from the video storage unit 2 and displays it.

ここで、映像データ1は、例えば図3のようなデータ構造をしている。図3はこの実施の形態1における映像データ1のデータ構造を示す説明図であり、図中の11は、映像生データ5を指定するポインタと映像属性データ6を指定するポインタを含む映像データ管理テーブルである。このように、映像データ管理テーブル11から映像生データ5や映像属性データ6に、そして映像属性データ6から撮像範囲データ10に、それぞれアドレスポインタを使ってアクセスできるようになっている。なお、撮像範囲データ10は、図1の例では各映像フレーム毎に、また図3の例では連続する10枚の映像フレーム集合毎にデータが記述されている。記述されるデータ項目としては、カメラの位置(X,Y,Z)、水平方向の撮像角度(HL,HR)、垂直方向の撮像角度(VU,VD)、および撮像距離(DN,DF)であり、カメラの位置は被写体の位置データと同じグローバル座標系で表され、水平方向および垂直方向の撮像角度と撮像距離はカメラの位置を中心とする極座標系で表される。   Here, the video data 1 has a data structure as shown in FIG. 3, for example. FIG. 3 is an explanatory diagram showing the data structure of the video data 1 according to the first embodiment. In the figure, reference numeral 11 denotes video data management including a pointer for specifying the raw video data 5 and a pointer for specifying the video attribute data 6. It is a table. As described above, the video data management table 11 can access the video raw data 5 and the video attribute data 6, and the video attribute data 6 and the imaging range data 10 can be accessed using the address pointer. The imaging range data 10 is described for each video frame in the example of FIG. 1 and for each set of 10 consecutive video frames in the example of FIG. The data items to be described include the camera position (X, Y, Z), the horizontal imaging angle (HL, HR), the vertical imaging angle (VU, VD), and the imaging distance (DN, DF). Yes, the camera position is expressed in the same global coordinate system as the subject position data, and the horizontal and vertical imaging angles and imaging distances are expressed in a polar coordinate system centered on the camera position.

また、図4は被写体と撮像範囲の関係を示す説明図であり、図中の12は被写体である。この図4はX−Yの2次元平面にて、被写体の位置データと映像フレームの撮像範囲データの関係を示している。#1映像フレームおよび#10映像フレームにおけるカメラ位置は(x1,y1)=(x10,y10)にある。映像フレームの撮像範囲は、水平方向の撮像角度(HL,HR)かつカメラからの撮像距離(DN,DF)で規定される、ハッチングを施したドーナツ状の部分に相当する。ここでは、☆印で表される被写体12は#1映像フレームの撮像範囲には含まれず、#10映像フレームの撮像範囲に含まれる。なお、その包含関係は以下に示す式(1)および式(2)から容易に判定できる。
HR≦θ=tan-1{(y−Y1)/(x−X1)}≦HL……(1)
DN≦d={(x−X1)2+(y−Y1)21/2≦DF……(2)
FIG. 4 is an explanatory diagram showing the relationship between the subject and the imaging range, and 12 in the figure is the subject. FIG. 4 shows the relationship between the position data of the subject and the imaging range data of the video frame on the XY two-dimensional plane. The camera positions in the # 1 video frame and the # 10 video frame are (x1, y1) = (x10, y10). The imaging range of the video frame corresponds to a hatched donut-shaped portion defined by a horizontal imaging angle (HL, HR) and an imaging distance (DN, DF) from the camera. Here, the subject 12 indicated by the asterisk is not included in the imaging range of the # 1 video frame, but is included in the imaging range of the # 10 video frame. The inclusion relationship can be easily determined from the following expressions (1) and (2).
HR ≦ θ = tan −1 {(y−Y1) / (x−X1)} ≦ HL (1)
DN ≦ d = {(x−X1) 2 + (y−Y1) 2 } 1/2 ≦ DF (2)

撮像範囲の距離はカメラのズーム値(焦点距離)や監視対象の建物や設備の配置から決められる。例えば、部屋の中に設置されたカメラは部屋の外を撮像することはできず、撮像範囲の距離を部屋内に設定しておけば正しい検索結果を返すことができる。図5はこの撮像範囲の距離とカメラの焦点距離の関係を示す説明図であり、図中の12は被写体、13はカメラの被写体12が投影される投影面である。この図5に示すように、ズーム値すなわち焦点距離を変化させると、投影面13での被写体12の大きさは変化するが、例えば近い焦点距離では遠方の被写体12は詳細に観察できないので、目的に応じてズーム値の変化によって撮像範囲の距離の値をダイナミックに変えることは有効である。   The distance of the imaging range is determined from the zoom value (focal length) of the camera and the arrangement of buildings and equipment to be monitored. For example, a camera installed in a room cannot capture the outside of the room, and a correct search result can be returned if the distance of the imaging range is set in the room. FIG. 5 is an explanatory diagram showing the relationship between the distance of the imaging range and the focal length of the camera. In FIG. 5, 12 is a subject, and 13 is a projection plane on which the subject 12 of the camera is projected. As shown in FIG. 5, when the zoom value, that is, the focal length is changed, the size of the subject 12 on the projection plane 13 changes. For example, the far subject 12 cannot be observed in detail at a close focal length. Accordingly, it is effective to dynamically change the distance value of the imaging range by changing the zoom value.

以上のように、この実施の形態1によれば、映像蓄積部2に蓄積される映像データ1を映像フレームの時系列集合である映像生データ5と、各映像フレームの撮像範囲を示す撮像範囲データ10を含む映像属性データ6とで構成し、映像検索部3では、入力手段7が物体や空間などの被写体12の位置データ、および被写体12と撮像範囲の位置関係を含む検索要求を受け付け、検索処理手段8がその位置データと映像蓄積部2にある撮像範囲データ10から、互いの位置関係を計算し、指定された位置関係を含む検索要求を満足する映像フレームを求め、出力手段9がその検索結果を問い合わせ元に出力するようにしたので、位置が特定できる被写体12が映っている映像データ部分のみを検索して自動で切り出すことが可能となって、オペレータは被写体12の映っていない映像部分まで見る必要がなくなるため、短時間で業務を遂行でき、作業にともなう疲労も少なくなるという効果が得られる。   As described above, according to the first embodiment, the video data 1 stored in the video storage unit 2 includes the video raw data 5 that is a time-series set of video frames and the imaging range indicating the imaging range of each video frame. In the video search unit 3, the video search unit 3 accepts a search request including the positional data of the subject 12 such as an object or space, and the positional relationship between the subject 12 and the imaging range. The search processing unit 8 calculates the positional relationship between the position data and the imaging range data 10 in the video storage unit 2 to obtain a video frame satisfying the search request including the specified positional relationship, and the output unit 9 Since the search result is output to the inquiry source, it is possible to search and automatically extract only the video data portion in which the subject 12 whose position can be specified is shown. Because rater is there is no need to look up the image portion not reflected the object 12, can conduct business in a short time, the effect is obtained that fatigue is also reduced due to the work.

なお、以上の説明において被写体の位置データとして点(x,y,z)を与えるようにしたが、位置データは2次元あるいは3次元の領域で与えても、あるいは時間的に変化する軌跡で与えてもよい。このように領域や軌跡で与える場合には、全体が完全に含まれる、一部が含まれるといったバリエーションにも容易に拡張できる。また、位置データとして例えば領域A,B両方が含まれるといった複数要素の組み合わせにも対応できる。   In the above description, the point (x, y, z) is given as the position data of the subject. However, the position data may be given as a two-dimensional or three-dimensional area, or as a temporally changing locus. May be. In this way, when given by areas and trajectories, it can be easily extended to variations in which the whole is completely included or part is included. In addition, it is possible to deal with a combination of a plurality of elements such as including both areas A and B as position data.

さらに、水平および垂直の撮像範囲データ10として最小角度と最大角度で与えるようにしたが、カメラの向きと水平および垂直の広がりを表す角度で与えてもよく、広がりは焦点距離やズーム値からも計算でき、種々の極座標系パラメータが考えられる。   Furthermore, the horizontal and vertical imaging range data 10 is given by the minimum angle and the maximum angle, but it may be given by an angle representing the camera orientation and the horizontal and vertical spread, and the spread is also determined from the focal length and the zoom value. Various polar coordinate system parameters can be considered.

また、映像データ1のデータ構造は図3に示されるもののみに限定されるものではなく、例えば、図6に示すように、撮像範囲データ10が映像生データ5の各映像フレームのヘッダ部に記述されるような構造であってもよい。   Further, the data structure of the video data 1 is not limited to that shown in FIG. 3. For example, as shown in FIG. 6, the imaging range data 10 is included in the header portion of each video frame of the video raw data 5. It may be a structure as described.

実施の形態2.
上記実施の形態1では、撮像範囲データをカメラの極座標系で定義した場合について説明したが、被写体の座標系で定義するようにしてもよい。実施の形態2はそのような映像検索装置に関するもので、実施の形態1とは撮像範囲データの座標系とデータ構造が異なるだけで、装置の構成や検索処理の手順は同様である。図7はこの実施の形態2における撮像範囲データの座標系とデータ構造を示す説明図である。図において、10aは外接台形による撮像範囲データ、10bは外接矩形による撮像範囲データであり、12は被写体である。
Embodiment 2. FIG.
In the first embodiment, the case where the imaging range data is defined in the polar coordinate system of the camera has been described. However, it may be defined in the coordinate system of the subject. The second embodiment relates to such a video search apparatus, and the configuration of the apparatus and the procedure of search processing are the same as those of the first embodiment, except that the coordinate system and data structure of the imaging range data are different. FIG. 7 is an explanatory diagram showing the coordinate system and data structure of the imaging range data in the second embodiment. In the figure, 10a is imaging range data based on a circumscribed trapezoid, 10b is imaging range data based on a circumscribed rectangle, and 12 is a subject.

以下、その撮像範囲データの座標系およびデータ構造について説明する。この実施の形態2における撮像範囲データの座標系は、被写体12の位置を表すグローバル座標系であり、図7では2つの例が示されている。その一つは、極座標系の撮像範囲であるドーナツ上の領域に外接する台形によって定義される、外接台形による撮像範囲データ10aである。なお、3次元の場合には、外接する角錐台にて定義される撮像範囲データとなる。この領域に被写体12が含まれるか否かの判定は、2次元であれば被写体12の位置(x,y)と外接台形を構成する4つの直線との上下関係、3次元であれば被写体位置(x,y,z)と外接角錐台を構成する6つの面との上下関係を計算すればよく、その計算方法は幾何数学の基本公式を用いればよいので、ここではその説明を省略する。   Hereinafter, the coordinate system and data structure of the imaging range data will be described. The coordinate system of the imaging range data in the second embodiment is a global coordinate system that represents the position of the subject 12, and two examples are shown in FIG. One of them is imaging range data 10a based on a circumscribed trapezoid, which is defined by a trapezoid circumscribing an area on the donut that is the imaging range of the polar coordinate system. In the case of the three-dimensional case, the imaging range data is defined by a circumscribed pyramid. The determination as to whether or not the subject 12 is included in this area is the vertical relationship between the position (x, y) of the subject 12 and the four straight lines constituting the circumscribed trapezoid in the case of two dimensions, and the subject position in the case of three dimensions. What is necessary is just to calculate the vertical relationship between (x, y, z) and the six surfaces constituting the circumscribed frustum, and since the calculation method may use the basic formula of geometric mathematics, its description is omitted here.

もう一つは、極座標系の撮像範囲であるドーナツ上の領域に外接する矩形によって定義される、外接矩形による撮像範囲データ10bである。なお、3次元の場合には、外接する直方体にて定義される撮像範囲データとなる。この場合、被写体12がその領域に含まれるか否かの判定は、2次元であれば外接矩形を構成する直線との上下関係の計算が、また3次元であれば外接直方体を構成する面との上下関係の計算が、単に位置(x,y,z)の各成分の大小比較となるため、さらに簡単である。   The other is imaging range data 10b based on a circumscribed rectangle defined by a rectangle circumscribing an area on the donut that is an imaging range of the polar coordinate system. In the case of the three-dimensional case, the imaging range data is defined by a circumscribed rectangular parallelepiped. In this case, whether or not the subject 12 is included in the region is determined by calculating the vertical relationship with the straight line that forms the circumscribed rectangle if it is two-dimensional, and the surface that forms the circumscribed cuboid if it is three-dimensional. Since the calculation of the upper and lower relations is simply a comparison of the components of the position (x, y, z), it is even easier.

以上のように、この実施の形態2によれば、映像属性データ6の撮像範囲データ10を被写体12の位置を表す座標系で記述するようにしたので、極座標系のように毎回被写体12の位置を極座標値に変換する処理が不要となるため、位置関係の判定処理を、簡単かつ高速に処理することができ、特に外接矩形や外接直方体で定義する場合には、真の撮像領域との誤差は大きくなるものの、より簡単かつ高速に位置関係の判定処理を行うことができるという効果が得られる。   As described above, according to the second embodiment, since the imaging range data 10 of the video attribute data 6 is described in the coordinate system representing the position of the subject 12, the position of the subject 12 is determined each time as in the polar coordinate system. Because the process of converting to a polar coordinate value is no longer necessary, the positional relationship determination process can be performed easily and at high speed.Especially, when defining a circumscribed rectangle or circumscribed cuboid, it is an error from the true imaging area. However, the positional relationship determination process can be performed more easily and at a higher speed.

実施の形態3.
上記各実施の形態では、被写体と撮像範囲との包含関係によって検索する場合について説明したが、被写体の投影面での大きさや位置によって検索を行うようにすることも可能である。図8はそのようなこの実施の形態3による映像検索装置の、投影面での被写体の位置関係を示す説明図であり、図中の12は被写体、13は投影面である。なお、同図(a)は被写体12が投影面13の中央にある場合を示し、同図(b)は被写体12が投影面13の中央からずれている場合を示している。
Embodiment 3 FIG.
In each of the above embodiments, the case where the search is performed based on the inclusion relationship between the subject and the imaging range has been described. However, the search may be performed based on the size or position of the subject on the projection plane. FIG. 8 is an explanatory diagram showing the positional relationship of the subject on the projection plane of the video search apparatus according to the third embodiment, in which 12 is the subject and 13 is the projection plane. 2A shows a case where the subject 12 is at the center of the projection plane 13, and FIG. 2B shows a case where the subject 12 is displaced from the center of the projection plane 13. FIG.

この実施の形態3は、映像検索部3の入力手段7が、被写体12と撮像範囲との位置関係として、被写体12の投影面13での大きさや位置といった、投影面13での関係に関する条件を含んだ検索要求を受け付け、検索処理手段8が図2に示したステップST106において、位置データと撮像範囲データ10から被写体12の投影面13での関係を計算することを除けば、実施の形態1の場合と同様である。   In the third embodiment, the input unit 7 of the video search unit 3 sets conditions regarding the relationship on the projection surface 13 such as the size and position of the subject 12 on the projection surface 13 as the positional relationship between the subject 12 and the imaging range. The first embodiment is received except that the search processing unit 8 receives the included search request and calculates the relationship of the subject 12 on the projection plane 13 from the position data and the imaging range data 10 in step ST106 shown in FIG. It is the same as the case of.

例えば、図8(a)に示すように、“A”という被写体12が中央に映っている映像部分のみを検索したい場合、検索要求の位置データとして位置(x,y,z)、大きさ(Δx,Δy,Δz)を与え、関係として位置データで指定した領域が合まれ、かつ中央に位置するという“include & center”を指定する。検索処理手段8は図2のステップST106にて、まず指定された領域がカメラの投影面にどう投影されるかを計算する。   For example, as shown in FIG. 8A, when it is desired to search only the video portion where the subject 12 “A” is shown in the center, the position (x, y, z), size ( [Delta] x, [Delta] y, [Delta] z) is given, and "include & center" is designated that the area specified by the position data is combined and located in the center. In step ST106 in FIG. 2, the search processing means 8 first calculates how the designated area is projected on the projection plane of the camera.

計算方法は図5に示すように、例えば被写体12とカメラレンズが正対している場合、カメラレンズの焦点距離をF、レンズから被写体12までの距離をLとすると、投影面13の座標系X−Yと正対し、レンズの中心線と被写体12の交点を原点とするローカル座標系x−yにおいて、点(x0,y0)が投影面13上で投影される位置(X0,Y0)は、次に示す式(3)で与えられる。
(X0,Y0)=(x0,y0)×F÷L …… (3)
As shown in FIG. 5, for example, when the subject 12 and the camera lens are facing each other, if the focal length of the camera lens is F and the distance from the lens to the subject 12 is L, the coordinate system X of the projection plane 13 is shown in FIG. The position (X0, Y0) at which the point (x0, y0) is projected on the projection plane 13 in the local coordinate system xy with the origin of the intersection of the center line of the lens and the subject 12 as opposed to -Y is It is given by the following equation (3).
(X0, Y0) = (x0, y0) × F ÷ L (3)

なお、被写体12がカメラレンズと正対していない場合には、被写体12を正対するローカル座標系x−yに写像した後、上記式(3)による計算によって求めればよい。   If the subject 12 is not directly facing the camera lens, it may be obtained by calculation according to the above equation (3) after mapping the subject 12 to the local coordinate system xy facing the subject.

この計算により、検索要求で指定された領域が、例えば図8(a)に示すように投影面13の中央にあるのか、同図(b)に示すように投影面13の端にあるのかを求めることができる。   By this calculation, it is determined whether the region specified in the search request is at the center of the projection surface 13 as shown in FIG. 8A, for example, or at the end of the projection surface 13 as shown in FIG. Can be sought.

以上のように、この実施の形態3によれば、映像検索部3の入力手段7が被写体12と撮像範囲の位置関係として、被写体12の投影面13での大きさや位置といった、投影面での関係に関する条件を含む検索要求を受け付け、検索処理手段8が位置データと撮像範囲データから被写体12の投影面13での関係を計算し、指定された投影面13での関係を含む検索要求を満足する映像フレームを求めるようにしたので、例えば、ある被写体12が投影面13の中央に映った映像部分のみを見たいというような場合には、より精度のよい検索を行うことができ、オペレータは検索結果の中から不要な映像部分(例えば、被写体12の一部のみが映っている映像部分)を見る必要がなくなるという効果が得られる。   As described above, according to the third embodiment, the input unit 7 of the video search unit 3 uses the projection surface such as the size and position of the subject 12 on the projection surface 13 as the positional relationship between the subject 12 and the imaging range. A search request including a relational condition is received, and the search processing means 8 calculates the relationship of the subject 12 on the projection plane 13 from the position data and the imaging range data, and satisfies the search request including the relationship on the designated projection plane 13. For example, when it is desired to view only the video portion in which a certain subject 12 is reflected in the center of the projection plane 13, the operator can perform a more accurate search. There is an effect that it is not necessary to see an unnecessary video portion (for example, a video portion in which only a part of the subject 12 is shown) from the search result.

なお、以上の説明において、投影面13での関係として被写体12の領域が投影面13の中央にあるか否かという位置関係を指定したが、指定した領域が投影面13である面積以上を占める場合(すなわち、被写体12がある大きさ以上に見える場合)という大きさの関係や、位置と大きさを組み合わせた関係を指定することも可能である。   In the above description, the positional relationship of whether or not the region of the subject 12 is in the center of the projection surface 13 is specified as the relationship on the projection surface 13, but the specified region occupies more than the area of the projection surface 13. It is also possible to specify a size relationship such as a case (that is, a case where the subject 12 looks larger than a certain size) or a combination of position and size.

また、検索条件として単一の被写体12に関するものだけではなく、複数の被写体12に対して、各領域の位置データと投影面13での互いの位置や大きさの関係を組み合わせた条件を含む検索要求、例えば投影面13で“A”という被写体12が“B”という被写体12の右隣に映っている映像部分を検索するといった検索要求にも容易に拡張することができる。   Further, the search condition includes not only those relating to the single subject 12 but also a plurality of subjects 12 including a condition that combines the position data of each region and the relationship between the position and size of each other on the projection plane 13. The search can be easily extended to a request, for example, a search request in which the subject 12 “A” is displayed on the projection plane 13 on the right side of the subject 12 “B”.

実施の形態4.
上記実施の形態1および実施の形態2では、被写体と撮像範囲との包含関係によって検索する場合について、また実施の形態3では、被写体の投影面での大きさや位置によって検索する場合について説明したが、撮像方向によって検索を行うようにしてもよい。図9はそのようなこの実施の形態4による映像検索装置における被写体と検索方向の関係を示す説明図であり、#1〜#4の4台のカメラで被写体12を撮像した場合について示している。
Embodiment 4 FIG.
In the first embodiment and the second embodiment, the search is performed based on the inclusion relationship between the subject and the imaging range, and in the third embodiment, the search is performed based on the size and position of the subject on the projection plane. The search may be performed according to the imaging direction. FIG. 9 is an explanatory diagram showing the relationship between the subject and the search direction in the video search apparatus according to the fourth embodiment, and shows a case where the subject 12 is imaged by four cameras # 1 to # 4. .

この実施の形態4は、映像検索部3の入力手段7が、被写体12と撮像範囲との位置関係として、被写体12が撮像される方向に関する条件を含む検索要求を受け付け、検索処理手段8が図2のステップST106およびST107にて、位置データと撮像範囲データ10から被写体12の撮像方向を計算して判定することを除けば、実施の形態1の場合と同様である。   In the fourth embodiment, the input unit 7 of the video search unit 3 accepts a search request including a condition regarding the direction in which the subject 12 is imaged as the positional relationship between the subject 12 and the imaging range, and the search processing unit 8 Except for calculating and determining the imaging direction of the subject 12 from the position data and the imaging range data 10 in Steps ST106 and ST107 of 2, the same as in the case of the first embodiment.

例えば、図9に示すように、被写体12が#1〜#4の4つのカメラから撮像されており、被写体12のN面にある一点(指定点)に関して、ベクトルV1を中心に±θの角度内で映っている映像部分を検索したいとする。その場合、検索要求として、関係条件である方向指定“direct”と、指定点の座標(x,y,z)、撮像方向のベクトルV1、および角度範囲±θを与える。検索処理手段8は、図2に示したステップST106およびST107において、各映像フレームがその指定点を含むか否かをまず計算し、含まれていれば、指定点からカメラに向かうベクトルV2と撮像方向のベクトルV1から、ベクトル間の角度φを求め、角度範囲±θと比較する。すなわち、次の式(4)によって判定によってすることができる。
θ ≧ φ ≧ −θ ………… (4)
For example, as shown in FIG. 9, the subject 12 is captured from four cameras # 1 to # 4, and an angle of ± θ with respect to one point (designated point) on the N plane of the subject 12 around the vector V1 Suppose you want to search for the video part that is shown inside. In this case, as a search request, a direction designation “direct” which is a related condition, coordinates (x, y, z) of a designated point, a vector V1 of an imaging direction, and an angle range ± θ are given. In step ST106 and ST107 shown in FIG. 2, the search processing means 8 first calculates whether or not each video frame includes the designated point. If included, the search processing means 8 captures the vector V2 from the designated point toward the camera and the imaging. The angle φ between the vectors is obtained from the direction vector V1, and compared with the angle range ± θ. That is, it can be determined by the following equation (4).
θ ≧ φ ≧ −θ (4)

なお、両ベクトル間の角度φは、両ベクトルの内積をV1・V2とすると、次に示す式(5)で求められる。
φ=arccos(V1・V2÷(|V1|×|V2|)) …… (5)
The angle φ between the two vectors can be obtained by the following equation (5), where the inner product of both vectors is V1 · V2.
φ = arccos (V1 · V2 ÷ (| V1 | × | V2 |)) (5)

以上のように、この実施の形態4によれば、映像検索部3の入力手段7が被写体12と撮像範囲の位置関係として、被写体12が撮像される方向に関する条件を含む検索要求を受け付け、検索処理手段8が位置データと撮像範囲データから被写体12の撮像方向を計算し、指定された撮像方向を含む検索要求を満足する映像フレームを求めるようにしたので、例えば、ある被写体12をある角度範囲で映している映像部分のみを見たいというような場合には、より精度のよい検索を行うことが可能となり、オペレータは検索結果の中から不要な映像部分を見る必要がなくなるという効果が得られる。   As described above, according to the fourth embodiment, the input unit 7 of the video search unit 3 accepts a search request including a condition regarding the direction in which the subject 12 is imaged as the positional relationship between the subject 12 and the imaging range. Since the processing means 8 calculates the imaging direction of the subject 12 from the position data and the imaging range data, and obtains a video frame that satisfies the search request including the designated imaging direction, for example, a certain subject 12 is detected within a certain angular range. If you only want to see the video part that is shown on the screen, you can search more accurately, and the operator will not have to see the unnecessary video part from the search results. .

なお、以上の説明において、検索条件として単一の被写体12に対する検索について示したが、複数の被写体12に対する撮像方向を指定した組み合わせの検索要求にも容易に拡張することができる。   In the above description, a search for a single subject 12 has been shown as a search condition. However, the search can be easily extended to a search request for a combination in which imaging directions for a plurality of subjects 12 are specified.

実施の形態5.
上記各実施の形態では、被写体と撮像範囲との包含関係、被写体の投影面での大きさや位置、さらには撮像方向などによって検索するものを示したが、被写体と撮像範囲との位置関係に加えて、その撮像時間も条件として検索を行うようにしてもよい。図10はそのようなこの実施の形態5による映像検索装置における映像データのデータ構造を示す説明図であり、図中の11は映像データ管理テーブル、14は撮像範囲・撮像時刻データである。この撮像範囲・撮像時刻データ14は、各映像フレームの撮像範囲を示す撮像範囲データ10と、その映像フレームを撮像した時刻を示す撮像時刻データ15を含んでいる。
Embodiment 5. FIG.
In each of the above embodiments, the search is performed based on the inclusion relationship between the subject and the imaging range, the size and position of the subject on the projection plane, and the imaging direction, but in addition to the positional relationship between the subject and the imaging range. Thus, the search may be performed using the imaging time as a condition. FIG. 10 is an explanatory diagram showing the data structure of the video data in the video search apparatus according to the fifth embodiment, in which 11 is a video data management table and 14 is an imaging range / imaging time data. The imaging range / imaging time data 14 includes imaging range data 10 indicating the imaging range of each video frame, and imaging time data 15 indicating the time when the video frame was captured.

なお、この実施の形態5は、被写体と撮像範囲の位置関係に加えて、撮像時間も検索要求で指定できるようにしたもので、その装置構成は図1に示した実施の形態1の場合と同様であるが、映像データ1のデータ構造と検索処理手段8の処理手順が異なるので、以下、それらを中心に説明する。   In the fifth embodiment, in addition to the positional relationship between the subject and the imaging range, the imaging time can be specified by a search request. The apparatus configuration is the same as that of the first embodiment shown in FIG. Although the same, the data structure of the video data 1 and the processing procedure of the search processing means 8 are different, and will be mainly described below.

図10に示すように、映像データ1の映像属性データ6は、各映像フレームの撮像範囲を示す撮像範囲データ10に加えて、その映像フレームがいつ撮像されたかを示す撮像時刻データ15が記述されている撮像範囲・撮像時間データ14に、アドレスポインタを使ってアクセスできるようにしている。ここで、映像データ1と検索要求で指定される撮像時間区間の関係を図11に示す。各映像フレームが検索要求にある被写体と撮像範囲の関係条件だけでなく、例えば、図11に示すように、1997年1月6日のts=13時20分30秒からte=13時30分20秒の時間に撮像された映像データというような、撮像時間区間も条件とする検索に対して、上記撮像範囲・撮像時間データ14の撮像範囲データ10と撮像時刻データ15を用いて各映像フレームの判定を行う。   As shown in FIG. 10, in the video attribute data 6 of the video data 1, in addition to the imaging range data 10 indicating the imaging range of each video frame, imaging time data 15 indicating when the video frame is captured is described. The imaging range / imaging time data 14 can be accessed using an address pointer. Here, the relationship between the video data 1 and the imaging time interval specified by the search request is shown in FIG. For example, as shown in FIG. 11, from ts = 13: 20: 30 on January 6, 1997 to te = 13: 30 as well as the relationship condition between the subject and the imaging range that each video frame is in the search request. For a search that also takes an imaging time interval, such as video data captured at a time of 20 seconds, each video frame is acquired using the imaging range data 10 and the imaging time data 15 of the imaging range / imaging time data 14. Judgment is made.

次に、その処理手順について説明する。
ここで、図12はこの実施の形態5における検索処理手段8の処理手順を示すフローチャートであり、検索処理手段8は各々の映像データ1の各映像フレームに対して、撮像範囲・撮像時刻データ14より撮像範囲データ10および撮像時刻データ15を読み出して判定を行う。従って、データの読み出しおよび判定を行う、図12のステップST205〜ST209のみが、図2に示した実施の形態1におけるステップST105〜ST108と異なっており、他のステップは実施の形態1の場合と同様であるため、ここではそのステップST205〜ST209の動作についてのみ説明する。
Next, the processing procedure will be described.
Here, FIG. 12 is a flowchart showing the processing procedure of the search processing means 8 in the fifth embodiment. The search processing means 8 takes the imaging range / imaging time data 14 for each video frame of each video data 1. Thus, the imaging range data 10 and the imaging time data 15 are read out to make a determination. Accordingly, only steps ST205 to ST209 in FIG. 12 for reading and determining data are different from steps ST105 to ST108 in the first embodiment shown in FIG. 2, and the other steps are the same as those in the first embodiment. Since this is the same, only the operations of steps ST205 to ST209 will be described here.

検索処理手段8はまずステップST205にて、#i映像データ1の#j映像フレームの撮像範囲データ10および撮像時刻データ15を読み込み、次いでステップST206でその撮像時刻が検索条件にある撮像時間区間[ts,te]に含まれるか否かをチェックする。含まれていれば、ステップST207に進み、実施の形態1の場合と同様に、#i映像データ1の#j映像フレームにおける被写体と撮像範囲の相互の位置関係を計算し、ステップST208においてその#i映像データ1の#j映像フレームにおける互いの位置関係が、検索要求に含まれている指定された位置関係を満足するか否かの判定を行う。判定の結果、満足していれば、ステップST209において検索結果リストにその映像フレームを登録した後、ステップST210でカウンタjのインクリメントを行い、満足していなければ、映像フレームの登録を行わずにそのままステップST210に分岐する。   In step ST205, the search processing means 8 first reads the imaging range data 10 and the imaging time data 15 of the #j video frame of the #i video data 1, and then in step ST206, the search time interval [ ts, te] is checked. If it is included, the process proceeds to step ST207, and the positional relationship between the subject and the imaging range in the #j video frame of #i video data 1 is calculated in the same manner as in the first embodiment. It is determined whether or not the mutual positional relationship in the #j video frame of the i video data 1 satisfies the designated positional relationship included in the search request. As a result of the determination, if satisfied, the video frame is registered in the search result list in step ST209, and then the counter j is incremented in step ST210. If not satisfied, the video frame is not registered and remains as it is. The process branches to step ST210.

以上のように、この実施の形態5によれば、映像属性データ6として各映像フレームの撮像範囲を示す撮像範囲データ10および撮像した時刻を示す撮像時刻データ15を含ませ、映像検索部3の入力手段7が物体や空間などの被写体の位置データおよび被写体と撮像範囲の位置関係と、撮像時刻の範囲を示す撮像時間区間を含む検索要求を受け付け、検索処理手段8が位置データと撮像範囲データ10から互いの位置関係を計算し、指定された位置関係および撮像時間区間を含む検索要求を満足する映像フレームを求めるようにしたので、ある被写体のある時間帯の映像のみを検索したいといような場合には、より精度のよい検索を行うことができ、オペレータは検索結果の中から不要な映像部分を見る必要がなくなるという効果が得られる。   As described above, according to the fifth embodiment, the video attribute data 6 includes the imaging range data 10 indicating the imaging range of each video frame and the imaging time data 15 indicating the imaging time. The input means 7 accepts a search request including the position data of the subject such as an object or space, the positional relationship between the subject and the imaging range, and the imaging time interval indicating the imaging time range, and the search processing means 8 receives the position data and the imaging range data. Since the positional relationship is calculated from 10 and the video frame satisfying the search request including the designated positional relationship and the imaging time interval is obtained, it is desired to search only the video in a certain time zone of a certain subject. In this case, the search can be performed with higher accuracy, and the operator can avoid the unnecessary video portion from the search result. .

なお、以上の説明においては、映像データ1のデータ構造が、映像フレーム毎に撮像時刻データ15を有するものについて説明したが、それにのみ限定されるものではなく、例えば、図13に示すような他のデータ構造であってもよい。この図13に示すように、映像データ1毎に、撮像の開始と終了の時刻、および映像フレームの時間間隔である周期を、撮像時刻データ15aとしてその映像属性データ6中に記述しておけば、映像データ1の各映像フレームの撮像時刻はこれらの撮像時刻データ15aから単純な計算で求めることができる。   In the above description, the data structure of the video data 1 has been described as having the imaging time data 15 for each video frame. However, the present invention is not limited to this, and for example, as shown in FIG. The data structure may be As shown in FIG. 13, for each video data 1, the start and end times of imaging and the period that is the time interval of video frames are described in the video attribute data 6 as imaging time data 15a. The imaging time of each video frame of the video data 1 can be obtained from these imaging time data 15a by simple calculation.

このように、映像データ単位に撮像時刻データ15aを記述することで、図10に示すような、映像フレーム毎に撮像時刻データ15を記述する場合よりも蓄積するデータ量を削減することができる。さらに、検索要求にある撮像時間区間と映像データ1の開始および終了時刻を、映像データ単位で比較することにより、撮像時間区間にない映像データ1の映像フレームは、図12のステップST205〜ST210のループ処理をする必要がなくなり、また映像データ1の一部の映像フレームが指定撮像時間区間にある場合には、その映像フレーム1に対してのみステップST205〜ST210の処理を行えばよいので、サーチ速度も向上させることができる。   Thus, by describing the imaging time data 15a in units of video data, the amount of data to be accumulated can be reduced as compared to the case where the imaging time data 15 is described for each video frame as shown in FIG. Further, by comparing the start time and the end time of the video data 1 in the search request with the start time and the end time of the video data 1, the video frames of the video data 1 that are not in the image pickup time section are shown in steps ST205 to ST210 in FIG. When it is not necessary to perform the loop processing and a part of the video frames of the video data 1 is in the designated imaging time section, the processing of steps ST205 to ST210 only needs to be performed on the video frame 1, so the search is performed. Speed can also be improved.

さらに、映像データ毎の撮像時刻を、例えば、文献「The Advanced Video Information System:data structures and query processing」(ACM Multimedia Systems,Vol.4,No.4,pp.172−186 1996)に示されるような木構造で管理しておけば、検索時に不要な映像データをサーチする必要がなくなり、特に映像データの数が多く、記録している撮像時間区間全体に比べて検索する時間区間が小さい場合には、検索時間を大幅に向上させることができる。なお、木構造による具体的な管理方法はこの発明の本質ではないので、ここではその説明は省略する。   Furthermore, the imaging time for each video data is described in, for example, the document “The Advanced Video Information System: data structures and query processing” (ACM Multimedia Systems, Vol. 4, No. 4, pp. 172-18, pp. 172-18). If managed with a simple tree structure, there is no need to search for unnecessary video data at the time of searching, especially when the number of video data is large and the time interval to be searched is small compared to the entire recorded imaging time interval. Can greatly improve the search time. Note that a specific management method using a tree structure is not the essence of the present invention, and therefore the description thereof is omitted here.

また、監視映像や記録映像では、撮像範囲はカメラの位置、方向、焦点距離等により物理的に決まり、また撮像時刻も実時間となるが、必ずしもそれだけに限定されるものではない。ドラマやアニメーション等でも仮想空間での撮像範囲や仮想の撮像時間を定義し、映像データに記述しさえすれば、見たい映像シーンを検索する場合には同様な効果が得られる。   In the monitoring video and the recorded video, the imaging range is physically determined by the position, direction, focal length, and the like of the camera, and the imaging time is also real time, but is not necessarily limited thereto. Even in the case of drama, animation, etc., the same effect can be obtained when searching for a video scene to be viewed as long as the imaging range and virtual imaging time in the virtual space are defined and described in the video data.

実施の形態6.
上記各実施の形態では、映像フレームによる1段の検索を行うものについて説明したが、映像フレーム集合から映像フレームの2段で検索を行うようにしてもよい。図14はそのようなこの実施の形態6による映像検索装置における映像データのデータ構造を示す説明図であり、相当部分については、図3と同一符号を付してその説明を省略する。なお、図中、16は時間的に連続する映像フレーム集合毎に、その映像フレーム集合に含まれる映像フレーム全体の撮像範囲を示す第一の撮像範囲データであり、17は各映像フレームの撮像範囲を示す第二の撮像範囲データである。
Embodiment 6 FIG.
In each of the above-described embodiments, the description has been made of the one-stage search by the video frame. However, the search may be performed by two stages of the video frame from the video frame set. FIG. 14 is an explanatory view showing the data structure of the video data in the video search apparatus according to the sixth embodiment, and the corresponding parts are denoted by the same reference numerals as those in FIG. In the figure, 16 is the first imaging range data indicating the imaging range of the entire video frame included in the video frame set for each temporally continuous video frame set, and 17 is the imaging range of each video frame. Is the second imaging range data.

この実施の形態6は、検索の高速化を目的としており、装置の構成は図1に示す実施の形態1の場合と同様であるが、映像データ1のデータ構造と検索処理手段8の処理手順がそれとは異なるので、以下、それらを中心に説明する。   The sixth embodiment is aimed at speeding up the search, and the configuration of the apparatus is the same as that of the first embodiment shown in FIG. 1, but the data structure of the video data 1 and the processing procedure of the search processing means 8 are the same. However, it is different from that.

図14に示すように、撮像範囲データは、複数の時間的に連続する映像フレーム集合毎に、その映像フレーム集合に含まれる映像フレーム全体の撮像範囲、すなわち各映像フレームの撮像範囲全てを含む領域を示す第一の撮像範囲データ16と、映像フレーム集合内の各映像フレームの撮像範囲を示す第二の撮像範囲データ17の2種類に分けられる。映像データ1の映像属性データ6は、この第一の撮像範囲データ16と第二の撮像範囲データ17に、アドレスポインタを使って2段階でアクセスできるようになっている。   As shown in FIG. 14, the imaging range data includes, for each of a plurality of temporally continuous video frame sets, an imaging range of the entire video frame included in the video frame set, that is, an area including all the imaging ranges of each video frame. The first imaging range data 16 indicating the imaging range and the second imaging range data 17 indicating the imaging range of each video frame in the video frame set. The video attribute data 6 of the video data 1 can access the first imaging range data 16 and the second imaging range data 17 in two stages using an address pointer.

次に、その検索処理の手順について説明する。
ここで、図15はこの実施の形態6における検索処理手段8の処理手順を示すフローチャートである。この図15に示すように、検索処理手段8は全ての映像データ1について判定処理を行うが、一つの映像データ1は複数の時間的に運続する映像フレーム集合に分割しているため、ステップST306にて#i映像データ1の#j映像フレーム集合に対する第一の撮像範囲データ16を読み込む。次にステップST307でこの第一の撮像データ16を基に被写体と撮像範囲の位置関係を計算し、ステップST308にて検索要求で指定された位置関係を満たすか否かを判定する。
Next, the search processing procedure will be described.
FIG. 15 is a flowchart showing the processing procedure of the search processing means 8 in the sixth embodiment. As shown in FIG. 15, the search processing means 8 performs determination processing for all the video data 1, but since one video data 1 is divided into a plurality of video frame sets that continue in time, In ST306, first imaging range data 16 for #j video frame set of #i video data 1 is read. Next, in step ST307, the positional relationship between the subject and the imaging range is calculated based on the first imaging data 16, and it is determined in step ST308 whether the positional relationship specified by the search request is satisfied.

判定の結果、満たしていなければ、その映像フレーム集合に含まれているいかなる映像フレームも検索要求の条件を満足しないので、ステップST315,ST304,ST305を経て次の映像フレーム集合のチェックヘ進む。一方、満たしている場合には、ステップST310でその#j映像フレーム集合に含まれる#k映像フレームに対して第二の撮像範囲データ17を読み込む。次にステップST311でこの第二の撮像範囲データ17に基づく位置関係の計算、ステップST312で指定された位置関係を満足するか否かの判定、ステップST313で検索結果リストヘの登録といった、映像フレーム単位の処理を行う。   If it is not satisfied as a result of the determination, any video frame included in the video frame set does not satisfy the search request condition, and the process proceeds to the check of the next video frame set through steps ST315, ST304, and ST305. On the other hand, if the condition is satisfied, the second imaging range data 17 is read for the #k video frame included in the #j video frame set in step ST310. Next, in step ST311, calculation of the positional relationship based on the second imaging range data 17, determination of whether or not the positional relationship specified in step ST312 is satisfied, registration in the search result list in step ST313, etc. Perform the process.

ステップST314,ST309にて当該映像フレーム集合の全ての映像フレームに対する処理が終了したことが検出された場合、ステップST315,ST304,ST305を経て次の映像フレーム集合のチェックヘ進む。その後、ステップST315,ST304にて当該#j映像データ1の全ての映像フレーム集合に対する処理が終了したことが検出されると、ステップST316,ST302,ST303を経て次の映像データ1のチェックヘ進む。さらに、ステップST316,ST302において#1〜#Mの全ての映像データ1に対する処理が終了したことが検出されると、当該検索処理手段8による検索処理を終了して、得られた検索結果リストを出力手段9に渡す。   If it is detected in steps ST314 and ST309 that the processing for all the video frames in the video frame set has been completed, the process proceeds to steps ST315, ST304, and ST305 to check the next video frame set. Thereafter, when it is detected in steps ST315 and ST304 that the processing for all video frame sets of the #j video data 1 has been completed, the process proceeds to the check of the next video data 1 through steps ST316, ST302 and ST303. Further, when it is detected in steps ST316 and ST302 that the processing for all the video data 1 of # 1 to #M has been completed, the search processing by the search processing means 8 is ended, and the obtained search result list is displayed. It passes to the output means 9.

以上のように、この実施の形態6によれば、撮像範囲データを、複数の時間的に連続する映像フレーム集合毎にその集合に含まれる映像フレーム全体の撮像範囲を示す第一の撮像範囲データ16と、各映像フレームの撮像範囲を示す第二の撮像範囲データ17とで構成し、映像検索部3の検索処理手段8がまず第一の撮像範囲データ16を基に映像フレーム集合に対する位置関係を計算して、検索要求を満足する映像フレームが存在し得る映像フレーム集合を求め、さらにその映像フレーム集合に属する各映像フレームに対して、第二の撮像範囲データ17を基に位置関係を計算し、検索要求を満足する映像フレームを求めるようにしたので、蓄積された全ての映像データ1における全ての映像フレームに対して、撮像範囲データの読み込み、位置関係の計算および判定を行う必要がなくなり、検索処理時間を削減できるという効果が得られる。   As described above, according to the sixth embodiment, the first imaging range data indicating the imaging range of the entire video frame included in the set of the plurality of temporally continuous video frame sets. 16 and second imaging range data 17 indicating the imaging range of each video frame, and the search processing means 8 of the video search unit 3 first has a positional relationship with the video frame set based on the first imaging range data 16. To obtain a set of video frames in which there can exist video frames satisfying the search request, and further calculate the positional relationship for each video frame belonging to the video frame set based on the second imaging range data 17 Since the video frames satisfying the search request are obtained, the imaging range data is read for all the video frames in all the stored video data 1. There is no need to perform calculations and determine the positional relationship, there is an advantage that it reduces the search processing time.

なお、以上の説明では、第一の撮像範囲データ16の単位である、連続する映像フレーム集合は、一つの映像データ1が複数に分割されたものとしたが、一つの映像データ1そのものであってもよい。その場合、映像データ1のデータ構造は、例えば図16のようになる。すなわち、各映像データ1の映像属性データ6中に、その映像データ1に含まれる映像フレーム全体の撮像範囲を第一の撮像範囲データ16として記述しておけばよい。さらに、一つの映像データ1に対して第一の撮像範囲データ16を定義するとともに、その映像データ1を分割した映像フレーム集合にも第一の撮像範囲データ16を定義するといった、図14と図16を融合したようなデータ構造も考えられる。   In the above description, the continuous video frame set, which is the unit of the first imaging range data 16, is obtained by dividing one video data 1 into a plurality of pieces, but it is one video data 1 itself. May be. In this case, the data structure of the video data 1 is as shown in FIG. 16, for example. That is, the imaging range of the entire video frame included in the video data 1 may be described as the first imaging range data 16 in the video attribute data 6 of each video data 1. Further, the first imaging range data 16 is defined for one video data 1, and the first imaging range data 16 is also defined for a set of video frames obtained by dividing the video data 1. A data structure such as 16 is also conceivable.

また、映像フレーム集合の間隔は等間隔である必要はなく、例えばカメラが移動している区間と静止している区間といった任意の設定が可能である。   Further, the interval between video frame sets does not need to be equal, and for example, arbitrary settings such as a section where the camera is moving and a section where the camera is stationary are possible.

さらに、第一の撮像範囲データ16を、例えば文献「画像データベース」(坂内正夫、大沢裕 昭晃堂 1987)に示されるような木構造で別途管理しておけば、検索時に不要な映像フレーム集合をサーチする必要がなくなり、特に映像データ量が多く、かつ全体の(全カメラの)撮像領域が広範囲であって、検索する撮像範囲が全体に比べて小さい場合には大幅な検索時間の向上が図られる。なお、木構造による具体的な管理方法はこの発明の本質ではないので詳細に説明しないが、例えば第一の撮像範囲データ16の各々に対して、その撮像範囲の外接矩形と中心点を定義し、中心点でk−d木やBD木などの木を生成するとともに、各ノードに子ノードの外接矩形を包含する外接矩形を定義し、葉ノードでは外接矩形および対応する第一の映像データを参照できるポインタ値を記述するといったやり方が考えられる。   Furthermore, if the first imaging range data 16 is separately managed with a tree structure as shown in the document “Image Database” (Masao Sakauchi, Hiroaki Osawa, 1987), an unnecessary set of video frames at the time of retrieval is obtained. The search time is greatly improved, especially when the amount of video data is large, the entire imaging area (for all cameras) is wide, and the imaging range to be searched is small compared to the whole. Figured. Although a specific management method using a tree structure is not the essence of the present invention and will not be described in detail, for example, for each of the first imaging range data 16, a circumscribed rectangle and a center point of the imaging range are defined. In addition, a tree such as a kd tree or a BD tree is generated at the center point, and a circumscribed rectangle including a circumscribed rectangle of a child node is defined for each node. A circumscribed rectangle and corresponding first video data are defined in a leaf node. It is possible to write a pointer value that can be referenced.

また、上記説明では、第二の撮像範囲データ17の単位が映像フレームであるものを示したが、第一の撮像範囲データ16の単位である映像フレーム集合をさらに細かく分割した映像フレームサブ集合であってもよい。   In the above description, the unit of the second imaging range data 17 is a video frame. However, it is a video frame sub-set obtained by further subdividing the video frame set that is the unit of the first imaging range data 16. There may be.

実施の形態7.
上記実施の形態6においては、映像フレームの撮像範囲を第二の撮像範囲データから直接得る場合について示したが、映像フレームの撮像範囲を計算によって求めるようにしてもよい。図17はそのようなこの実施の形態7による映像検索装置における映像データのデータ構造を示す説明図であり、相当部分については、図14と同一符号を付してその説明を省略する。なお、図中、18は各映像フレームの撮像範囲を計算するための第三の撮像範囲データである。
Embodiment 7 FIG.
In the sixth embodiment, the case where the imaging range of the video frame is obtained directly from the second imaging range data has been described. However, the imaging range of the video frame may be obtained by calculation. FIG. 17 is an explanatory view showing the data structure of the video data in the video search apparatus according to the seventh embodiment. The same reference numerals are assigned to the corresponding parts, and the description thereof is omitted. In the figure, reference numeral 18 denotes third imaging range data for calculating the imaging range of each video frame.

この実施の形態7は、上記実施の形態6の場合と同様に、検索の高速化を目的としており、検索処理手段8の処理手順もそれと類似しているため、以下では、映像データ1のデータ構造と、検索処理手段8の処理手順中の実施の形態6とは異なる部分を中心に説明する。   As in the case of the sixth embodiment, the seventh embodiment aims to speed up the search, and the processing procedure of the search processing means 8 is similar to that. The description will focus on the structure and the parts different from the sixth embodiment in the processing procedure of the search processing means 8.

図17に示すように、撮像範囲データは、映像フレーム集合に含まれる各映像フレームの撮像範囲の全てを含む領域を示す第一の撮像範囲データ16と、各映像フレームの撮像範囲を計算するための第三の撮像範囲データ18とから構成される。この第三の撮像範囲データ18は、映像フレーム集合における撮像範囲データの初期値と変化速度を表している。例えば、#1〜#10の映像フレームによる映像フレーム集合では、カメラの方向の水平角度が、初期値20度から2度/フレームで移動していることを示している。この第三の撮像範囲データ18のデータ項目は、カメラの位置、水平角度と垂直角度によるカメラの方向、ズーム値であるが、実施の形態1で説明したように、カメラの位置と方向とズーム値から、図4の映像フレームに対する撮像範囲を容易に計算することができる。   As shown in FIG. 17, the imaging range data is used to calculate first imaging range data 16 indicating an area including all the imaging ranges of each video frame included in the video frame set, and the imaging range of each video frame. Of the third imaging range data 18. The third imaging range data 18 represents the initial value and change rate of the imaging range data in the video frame set. For example, the video frame set of video frames # 1 to # 10 indicates that the horizontal angle in the direction of the camera has moved from the initial value of 20 degrees to 2 degrees / frame. The data items of the third imaging range data 18 are the camera position, the camera direction by the horizontal angle and the vertical angle, and the zoom value. As described in the first embodiment, the camera position, direction, and zoom From the value, the imaging range for the video frame of FIG. 4 can be easily calculated.

次に、その検索処理の手順について説明する。
ここで、図18はこの実施の形態7における検索処理手段8の処理手順を示すフローチャートである。図18に示すように、この実施の形態7の検索処理の手順は、第二の撮像範囲データ17の読み込みに代えて、第三の撮像範囲データ18を読み込みを行い、その第三の撮像範囲データ18を基に映像フレームの撮像範囲を計算する処理が加わった点で、図15に示した実施の形態6の検索処理の手順とは異なっている。すなわち、第一の撮像範囲データ16を基に計算された#j映像フレーム集合の位置関係が、ステップST408において検索要求を満足すると判定されると、ステップST409で当該#j映像フレーム集合の第三の撮像範囲データ18を読み込み、ステップST411にてその#k映像フレームの撮像範囲を計算する。
Next, the search processing procedure will be described.
FIG. 18 is a flowchart showing the processing procedure of the search processing means 8 in the seventh embodiment. As shown in FIG. 18, in the search processing procedure of the seventh embodiment, instead of reading the second imaging range data 17, the third imaging range data 18 is read and the third imaging range is read. This is different from the search processing procedure of the sixth embodiment shown in FIG. 15 in that processing for calculating the imaging range of the video frame based on the data 18 is added. That is, when the positional relationship of the #j video frame set calculated based on the first imaging range data 16 is determined to satisfy the search request in step ST408, the third # of the #j video frame set is determined in step ST409. In step ST411, the imaging range data 18 of the #k video frame is calculated.

以上のように、この実施の形態7によれば、撮像範囲データを、複数の時間的に連続する映像フレーム集合毎にその集合に含まれる映像フレーム全体の撮像範囲を示す第一の撮像範囲データ16と、各映像フレームの撮像範囲を計算するための第三の撮像範囲データ18とで構成し、映像検索部3の検索処理手段8がまず、第一の撮像範囲データ16を基に映像フレーム集合に対する位置関係を計算して、検索要求を満足する映像フレームが存在し得る映像フレーム集合を求め、さらにその映像フレーム集合に属する映像フレームの撮像範囲を、第三の撮像範囲データ18を基に求めて位置関係を計算し、検索要求を満足する映像フレームを求めるようにしたので、実施の形態6の場合と比べて、各映像フレームの撮像範囲データを少ないデータ量で記述することができ、記録装置の容量を削減できる効果がある。   As described above, according to the seventh embodiment, the first imaging range data indicating the imaging range of the entire video frame included in the set of the plurality of temporally continuous video frame sets. 16 and third imaging range data 18 for calculating the imaging range of each video frame, and the search processing means 8 of the video search unit 3 first selects the video frame based on the first imaging range data 16. By calculating the positional relationship with the set, a video frame set in which a video frame satisfying the search request can be obtained is obtained, and the imaging range of the video frame belonging to the video frame set is determined based on the third imaging range data 18. Thus, the positional relationship is calculated and a video frame satisfying the search request is obtained. Therefore, the imaging range data of each video frame is reduced as compared with the case of the sixth embodiment. Can be written in data amount, there is an effect of reducing the capacity of the recording apparatus.

なお、この実施の形態7においても実施の形態6の場合と同様に、第一の撮像範囲データ16については、その単位を一つの映像データそのものしとてもよく、また、一つの映像データに対して第一の撮像範囲データ16を定義したり、映像データを分割した映像フレーム集合にも第一の撮像範囲データ16を定義してもよく、さらに、木構造で別途管理することにより検索速度を向上させるといった拡張が考えられる。   In the seventh embodiment, as in the case of the sixth embodiment, the unit of the first imaging range data 16 is very good as one video data itself, and for one video data. The first imaging range data 16 may be defined, or the first imaging range data 16 may be defined for a set of video frames obtained by dividing video data. Further, the search speed is improved by separately managing the tree structure. Expansion such as making it possible is conceivable.

また、第三の撮像範囲データ18の単位も、第一の撮像範囲データ16の単位である映像フレーム集合をさらに細かく分割した映像フレームサブ集合であってもよい。   The unit of the third imaging range data 18 may also be a video frame sub-set obtained by further finely dividing the video frame set that is the unit of the first imaging range data 16.

実施の形態8.
上記実施の形態6および実施の形態7では、映像フレーム集合から映像フレームによる2段で検索を行うものについて説明したが、カメラから映像フレーム集合、さらに映像フレームの3段で検索を行うようにしてもよい。図19はそのようなこの実施の形態8による映像検索装置における映像データのデータ構造を示す説明図であり、相当部分については、図14と同一符号を付してその説明を省略する。なお、図中、19はカメラ毎にそのカメラで撮像された映像データに属する映像フレーム全体の撮像範囲を、外接矩形の形式で示した第四の撮像範囲データであり、20はこの第四の撮像範囲データ19をカメラIDおよび映像データのIDに対応付けるカメラ管理テーブルである。
Embodiment 8 FIG.
In the sixth embodiment and the seventh embodiment described above, the search is performed in two stages based on the video frame from the video frame set. However, the search is performed in the three stages of the video frame set and the video frame from the camera. Also good. FIG. 19 is an explanatory view showing the data structure of the video data in the video search apparatus according to the eighth embodiment. The same reference numerals are assigned to the corresponding parts, and the description thereof is omitted. In the figure, 19 is the fourth imaging range data showing the imaging range of the entire video frame belonging to the video data captured by the camera for each camera in the form of a circumscribed rectangle, and 20 is the fourth imaging range data. 4 is a camera management table that associates imaging range data 19 with camera IDs and video data IDs.

この実施の形態8は、上記実施の形態6の場合と同様に、検索の高速化を目的としており、その処理手順もそれと類似しているため、以下では、実施の形態6と異なる映像データ1のデータ構造と、検索処理手段8の処理手順中の実施の形態6とは異なる部分を中心に説明する。   As in the case of the sixth embodiment, the eighth embodiment aims to speed up the search, and the processing procedure is similar to that. Therefore, the video data 1 different from the sixth embodiment is described below. The difference between the data structure and the sixth embodiment in the processing procedure of the search processing means 8 will be mainly described.

図19に示すように、この実施の形態8の映像データ1には、図14に示す実施の形態6の映像データ1に加えて、カメラ管理テーブル20がある。このカメラ管理テーブル20には、各カメラに対してカメラID、そのカメラで撮像され蓄積されている映像データに属する映像フレーム全体の撮像範囲を示す第四の撮像範囲データ19、その映像データのIDが記述されており、映像データ管理テーブル11と相互に参照できるようになっている。なお、このカメラ管理テーブル20は次に述べる検索処理に用いられる。   As shown in FIG. 19, the video data 1 of the eighth embodiment includes a camera management table 20 in addition to the video data 1 of the sixth embodiment shown in FIG. The camera management table 20 includes a camera ID for each camera, fourth imaging range data 19 indicating the imaging range of the entire video frame belonging to the video data imaged and stored by the camera, and the ID of the video data. Are described, and can be mutually referred to the video data management table 11. The camera management table 20 is used for search processing described below.

次に、その検索処理の手順について説明する。
ここで、図20はこの実施の形態8における検索処理手段8の処理手順を示すフローチャートである。図20に示すように、この実施の形態8の検索処理の手順ではまず、ステップST501でカメラ判別のためのカウンタlを“1”に初期設定し、ステップST502〜ST505において該当するカメラか否かを判定する。すなわち、ステップST503において#lのカメラに対して第四の映像データ19を読み込み、ステップST504にて検索要求にある位置関係を計算して、ステップST505で位置関係を満足するか否かを判定する。
Next, the search processing procedure will be described.
FIG. 20 is a flowchart showing the processing procedure of the search processing means 8 in the eighth embodiment. As shown in FIG. 20, in the search processing procedure of the eighth embodiment, first, in step ST501, a counter 1 for camera discrimination is initially set to “1”, and whether or not the camera is a corresponding camera in steps ST502 to ST505. Determine. That is, in step ST503, the fourth video data 19 is read into the camera # 1, and the positional relationship in the search request is calculated in step ST504, and it is determined whether or not the positional relationship is satisfied in step ST505. .

その結果、満足するようであれば、その#lカメラで撮像され蓄積されている映像データの中に検索要求を満たす映像フレームが存在する可能性があるので、ステップST506〜ST519において、#lカメラで撮像された映像データが位置関係を満足するか否かを判定して、満足する場合にはその映像データの中で位置関係を満足する映像フレームのサーチを行う。   As a result, if satisfied, there is a possibility that a video frame satisfying the search request exists in the video data imaged and stored by the #l camera. Therefore, in steps ST506 to ST519, the #l camera It is determined whether or not the video data captured in (1) satisfies the positional relationship. If the video data is satisfied, a search is performed for a video frame that satisfies the positional relationship in the video data.

一方、ステップST505の判定での結果、満足しないようであれば、ステップST522に分岐してカウンタlのインクリメントを行い、処理をステップST502に戻して次のカメラの撮像した映像データのサーチを行う。また、ステップST507において、#lカメラの撮像した映像データの全てのフレーム集合についてのサーチが終了したことが検出された場合にも、ステップST522に分岐してカウンタlのインクリメントを行い、処理をステップST502に戻して次のカメラの撮像した映像データのサーチを行う。ステップST502で#1〜#Cの全てのカメラで撮像した映像データのサーチが終了したことが検出されると、当該検索処理手段8による検索処理を終了して、得られた検索結果リストを出力手段9に渡す。   On the other hand, if it is not satisfied as a result of the determination in step ST505, the process branches to step ST522 to increment the counter l, and the process returns to step ST502 to search video data captured by the next camera. If it is detected in step ST507 that the search for all frame sets of video data captured by the #l camera is completed, the process branches to step ST522 to increment the counter l, and the process is stepped. Returning to ST502, the video data captured by the next camera is searched. When it is detected in step ST502 that the search of the video data captured by all the cameras # 1 to #C is completed, the search process by the search processing unit 8 is ended and the obtained search result list is output. Passed to means 9.

以上のように、この実施の形態8によれば、撮像範囲データを、第一の撮像範囲データ16と第二の撮像範囲データ17に加えて、カメラ毎にそのカメラで撮像された映像データに属する映像フレーム全体の撮像範囲を示す第四の撮像範囲データ19で構成し、映像検索部3の検索処理手段8がまず第四の撮像範囲データ19を基に、各カメラに属する映像フレーム集合に対する位置関係を計算して、検索要求を満足する映像フレームが存在し得るカメラを求め、次に第一の撮像範囲データ16を基に、そのカメラで撮像された映像フレーム集合に対する位置関係を計算して、検索要求を満足する映像フレームが存在し得る映像フレーム集合を求め、さらにその映像フレーム集合に属する各映像フレームに対して、第二の撮像範囲データ17を基に位置関係を計算して、検索要求を満足する映像フレームを求めるようにしたので、蓄積された全ての映像データ1について、位置関係の計算および判定を行う必要がなくなって検索処理を高速化でき、特に、各々のカメラの撮像範囲が互いに重複しない、あるいは重複が少ない場含には、検索対象となる映像データの数をかなり減らすことが可能となって、検索処理をより高速化できる効果が得られる。   As described above, according to the eighth embodiment, in addition to the first imaging range data 16 and the second imaging range data 17, the imaging range data is converted into video data captured by the camera for each camera. The fourth imaging range data 19 indicating the imaging range of the entire video frame to which the video frame belongs belongs, and the search processing means 8 of the video search unit 3 first selects the video frame set belonging to each camera based on the fourth imaging range data 19. The positional relationship is calculated to find a camera that can have a video frame that satisfies the search request. Next, based on the first imaging range data 16, the positional relationship with respect to the set of video frames captured by the camera is calculated. Thus, a video frame set in which video frames satisfying the search request can be obtained is obtained, and the second imaging range data 17 is obtained for each video frame belonging to the video frame set. Since the positional relationship is calculated based on the video frame satisfying the search request, it is not necessary to calculate and determine the positional relationship for all the stored video data 1, thereby speeding up the search process. In particular, when the imaging range of each camera does not overlap each other or there is little overlap, the number of video data to be searched can be significantly reduced, and the search processing can be speeded up. Is obtained.

なお、以上の説明においては、第四の撮像範囲データ19はそのカメラで撮像され蓄積されている映像データに属する映像フレーム全体の撮像範囲を示すデータとしたが、これは各カメラに対してディフォルトで定義された固定の値でもよいし、映像データの蓄積・削除に対応してダイナミックに更新されるものであってもよい。   In the above description, the fourth imaging range data 19 is data indicating the imaging range of the entire video frame belonging to the video data imaged and stored by the camera. This is the default for each camera. It may be a fixed value defined in (1), or may be dynamically updated in response to accumulation / deletion of video data.

また、上記説明では、第四の撮像範囲データ19が外接矩形の形式であるものを示したが、他の外接多角形でもよいし、また位置が固定のカメラならば極座標系の記述も可能である。さらに、第四の撮像範囲データ19を上述の木構造で別途管理しておけば、さらに検索処理の高速化を図ることができる。   In the above description, the fourth imaging range data 19 is shown as a circumscribed rectangle. However, other circumscribed polygons may be used, and a polar coordinate system can be described if the camera has a fixed position. is there. Furthermore, if the fourth imaging range data 19 is separately managed in the above-described tree structure, the search process can be further speeded up.

さらに、上記説明では、映像データ1は映像フレームの撮像範囲を示すデータとして第二の撮像範囲データ17を用いたものを示したが、実施の形態7において説明した第三の撮像範囲データ18を用いるようにしてもよい。そのようにすることにより、各映像フレームの撮像範囲データを少ないデータ量で記述することができ、記録装置の容量を削減できる効果がある。   Further, in the above description, the video data 1 is obtained by using the second imaging range data 17 as the data indicating the imaging range of the video frame. However, the third imaging range data 18 described in the seventh embodiment is used. You may make it use. By doing so, the imaging range data of each video frame can be described with a small amount of data, and the capacity of the recording apparatus can be reduced.

また、カメラロボットのようなカメラ位置が変化し、かつ広域を移動する場合には、撮像位置や撮像時間をべ一スに複数のサブカメラに分割して第四の撮像範囲データ19を記述すれば、チェックすべき映像データを絞り込むことが可能となる。   In addition, when the camera position changes like a camera robot and moves in a wide area, the fourth imaging range data 19 is described by dividing it into a plurality of sub-cameras based on the imaging position and imaging time. Thus, it is possible to narrow down the video data to be checked.

実施の形態9.
上記各実施の形態においては、映像データを検索する映像検索装置について説明したが、サブシステムより被写体の位置データを求めて検索を行う映像検索システムに適用することも可能である。図21はそのようなこの発明の実施の形態9による映像検索システムの構成を示すブロック図である。図において、21は上記サブシステムとしての設備データベースシステム、22は同じくサブシステムとしての地理情報システムであり、ローカルエリアネットワーク(LAN)などのネットワークによって検索アプリケーション実行部4に接続されている。なお、他の部分は、図1の相当部分と同一の符号を付してその説明を省略する。
Embodiment 9 FIG.
In each of the above-described embodiments, the video search device that searches video data has been described. However, the video search device can be applied to a video search system that searches for the position data of a subject from a subsystem. FIG. 21 is a block diagram showing the configuration of such a video search system according to the ninth embodiment of the present invention. In the figure, 21 is an equipment database system as the above-mentioned subsystem, and 22 is also a geographic information system as a subsystem, and is connected to the search application execution unit 4 via a network such as a local area network (LAN). Other parts are denoted by the same reference numerals as those in FIG. 1, and the description thereof is omitted.

図21に示すように、この実施の形態9による映像検索システムは、上記各実施の形態で説明した映像検索装置と、設備データベースシステム21や地理情報システム22などの、被写体の位置データも含めた被写体の各種情報を管理するサプシステムを統合したシステムである。   As shown in FIG. 21, the video search system according to the ninth embodiment includes the video search apparatus described in each of the above embodiments and subject position data such as the equipment database system 21 and the geographic information system 22. It is a system that integrates a sub-system that manages various information about the subject.

次に動作について説明する。
検索アプリケーション実行部4はオペレータに対して、監視対象である設備の状態や位置を表形式やグラフィックス形式で表示する。例えば、設備の名称、運転パラメータ、測定値を表形式やグラフ形式で表示したり、監視区域の地図上に設備オブジェクトを表示する。なお、表示するのは検索アプリケーション実行部4自身が統合する設備データベースシステム21や地理情報システム22などのサブシステムとは独立に表示してもよいし、検索アプリケーション実行部4が何をどのように表示するかを指示して、設備データベースシステム21や地理情報システム22などに表示させるようにしてもよい。
Next, the operation will be described.
The search application execution unit 4 displays the state and position of the equipment to be monitored in a table format or a graphics format to the operator. For example, the name of the equipment, the operation parameter, and the measured value are displayed in a table format or a graph format, or the equipment object is displayed on the monitoring area map. In addition, what is displayed may be displayed independently of subsystems such as the equipment database system 21 and the geographic information system 22 integrated by the search application execution unit 4 itself. It may be displayed on the facility database system 21 or the geographic information system 22 by instructing whether to display it.

前者の場合には、オペレータが表や地図に表示されたオブジェクトをマウスクリック等で選択した際に、検索アプリケーション実行部4はそのオブジェクトを識別し、当該オブジェクトの名称やIDなどを得て、それらをパラメータとして設備データベースシステム21や地理情報システム22などにオブジェクトが存在する位置を問い合わせ、その位置データを得る。また、後者の場合には、オペレータが表や地図に表示されたオブジェクトをマウスクリック等で選択すると、設備データベースシステム21や地理情報システム22などがそのオブジェクトを識別し、オブジェクトの名称やIDだけでなくその位置データも得て、検索アプリケーション実行部4にオブジェクト名称やIDとともに、そのオブジェクトが存在する位置データを通知する。このような検索アプリケーション実行部4と設備データベースシステム21や地理情報システム22などのサブシステムとの連携方法は公知技術で実現することができ、またこの発明の本質ではないので、ここではその詳細な説明は省略する。   In the former case, when the operator selects an object displayed on the table or map with a mouse click or the like, the search application execution unit 4 identifies the object, obtains the name or ID of the object, Is used as a parameter to inquire about the position where the object exists in the equipment database system 21 or the geographic information system 22, and the position data is obtained. In the latter case, when an operator selects an object displayed on a table or a map with a mouse click or the like, the equipment database system 21 or the geographic information system 22 identifies the object, and only the object name and ID are used. The position data is also obtained and the search application execution unit 4 is notified of the position data where the object exists together with the object name and ID. Such a linkage method between the search application execution unit 4 and the subsystems such as the facility database system 21 and the geographic information system 22 can be realized by a known technique and is not the essence of the present invention. Description is omitted.

オペレータがある設備や区域の監視映像を見たい場合には、オペレータ自身が被写体の位置データを探して座標等の形式でキーボード入力するのではなく、上述の設備運転表や地図上の該当位置をマウスクリック等で指定する。上述の検索アプリケーション実行部4と設備データベースシステム21や地理情報システム22などのサブシステムとの連係機能により、検索アプリケーション実行部4はオペレータが選択した被写体オブジェクトの位置データを、設備データベースシステム21や地理情報システム22などから獲得し、それを指定されている位置関係の条件とともに、映像検索装置の映像検索部3に対して検索要求として出力する。映像検索部3は上記各実施の形態で説明した検索手順に従って、指定された被写体が映っている映像データ(映像フレーム)を検索結果リストに登録し、検索手順の終了時に、得られた検索結果リストを検索結果として検索アプリケーション実行部4に出力する。   When an operator wants to see a monitoring image of a certain facility or area, the operator does not search for the position data of the subject and input the keyboard in the form of coordinates or the like. Specify by mouse click. By the linkage function between the search application execution unit 4 and the subsystems such as the equipment database system 21 and the geographic information system 22 described above, the search application execution unit 4 uses the equipment database system 21 and the geography as the position data of the subject object selected by the operator. The information is acquired from the information system 22 and the like, and is output as a search request to the video search unit 3 of the video search device together with the specified positional relationship condition. The video search unit 3 registers video data (video frames) showing the designated subject in the search result list according to the search procedure described in the above embodiments, and the search result obtained at the end of the search procedure The list is output to the search application execution unit 4 as a search result.

その後、他の実施の形態と同様に、検索アプリケーション実行部4はその検索結果をオペレータに表示し、オペレータがそれを基に該当する映像データ部分の表示を指示すれば、検索アプリケーション実行部4は映像蓄積部2から映像データ1の該当する部分の映像生データ5を取り出して表示する。   After that, as in the other embodiments, the search application execution unit 4 displays the search result to the operator, and if the operator instructs display of the corresponding video data portion based on the search result, the search application execution unit 4 The video raw data 5 corresponding to the video data 1 is extracted from the video storage unit 2 and displayed.

以上のように、この実施の形態9によれば、映像蓄積部2に蓄積される映像データ1を映像フレームの時系列集合である映像生データ5と、各映像フレームの撮像範囲を示す撮像範囲データ10を含む映像属性データ6から構成し、映像検索装置の映像検索部3では、その入力手段7が物体や空間などの被写体の位置データおよび被写体と撮像範囲の位置関係を含む検索要求を受け付け、その検索処理手段8がその位置データと映像蓄積部2にある撮像範囲データ10から互いの位置関係を計算して、検索要求で指定された位置関係を含む検索要求を満足する映像フレームを求め、その出力手段9が得られた検索結果を検索アプリケーション実行部4に出力し、検索アプリケーション実行部4では、オペレータ等から指定された被写体についてその位置データを建物や装置といった被写体について少なくとも被写体の位置データを管理するサブシステム21,22から獲得し、映像検索装置の映像検索部3に獲得した位置データを含む検索要求を送出するようにしたので、オペレータは設備運転表や地図から直接操作で、該当するオブジェクトを選択することによりそのオプジェクトが映っている映像データを検索し、その映像生データ5を表示することが可能となり、操作性のよい映像検索システムが実現できる効果が得られる。   As described above, according to the ninth embodiment, the video data 1 stored in the video storage unit 2 is converted into the video raw data 5 that is a time series set of video frames, and the imaging range indicating the imaging range of each video frame. In the video search unit 3 of the video search device, the input means 7 accepts a search request including position data of a subject such as an object or space and a positional relationship between the subject and the imaging range. The search processing means 8 calculates the mutual positional relationship from the position data and the imaging range data 10 in the video storage unit 2 to obtain a video frame satisfying the search request including the positional relationship specified in the search request. The search result obtained by the output means 9 is output to the search application execution unit 4, and the search application execution unit 4 detects the subject specified by the operator or the like. The position data is acquired from the subsystems 21 and 22 that manage at least the position data of the subject, such as buildings and devices, and a search request including the acquired position data is sent to the video search unit 3 of the video search device. Therefore, the operator can search the video data in which the object is reflected by selecting the corresponding object by directly operating from the equipment operation table or the map, and display the video raw data 5. The effect of realizing a good video search system can be obtained.

なお、以上の説明においては、設備運転表や地図から直接操作で映像データを検索するようにしたが、これに限定されるものではなく、例えば、設備の種類やアラームイベントの種類などをオペレータが指定し、検索アプリケーション実行部4が設備データベースシステム21や地理情報システム22などのサブシステムに該当する設備を問い合わせ、回答結果の設備IDリストを基に位置データを獲得して、映像検索装置に問い合わせるといった種々のバリエーションのユーザインタフェースが可能である。   In the above description, the video data is searched by direct operation from the equipment operation table or map. However, the present invention is not limited to this. For example, the operator can select the type of equipment or the type of alarm event. The search application execution unit 4 inquires about the equipment corresponding to the subsystems such as the equipment database system 21 and the geographic information system 22, acquires the position data based on the equipment ID list of the answer result, and inquires the video search apparatus. Various user interfaces are possible.

また、実施の形態6〜実施の形態9の説明においては、検索要求は被写体の位置と撮像範囲との関係をキーとしたが、実施の形態5の場合と同様に、撮像時刻を含めた検索条件であっても構わない。   In the description of the sixth to ninth embodiments, the search request uses the relationship between the position of the subject and the imaging range as a key. However, as in the case of the fifth embodiment, the search request includes the imaging time. It may be a condition.

また、上記全ての実施の形態において、被写体の位置と撮像範囲との関係や撮像時刻に関する条件は各々一つであったが、複数の条件をANDやORで結合した論理式による検索要求としてもよい。   In all of the above embodiments, the relationship between the position of the subject and the imaging range and the conditions related to the imaging time are each one. However, a search request based on a logical expression in which a plurality of conditions are combined by AND or OR. Good.

さらに、上記全ての実施の形態において、該当する映像データが複数ある場合には、指定した条件で優先順位付けして検索結果リストを返送したり、また決められた個数の映像データしか返送しないようにすることも可能である。例えば、複数カメラで同じ被写体を異なる角度で撮像していた場合、該当する映像データから、最もよく捉えているものを自動的に選択あるいは優先順位情報をつけて回答することができる。   Further, in all of the above embodiments, when there are a plurality of corresponding video data, the search result list is returned with priorities assigned according to the designated conditions, or only a predetermined number of video data is returned. It is also possible to make it. For example, when the same subject is imaged at different angles with a plurality of cameras, it is possible to automatically select the best captured image from the corresponding video data, or to give a reply with priority information.

この発明の実施の形態1による映像検索装置の構成を示すブロック図である。It is a block diagram which shows the structure of the video search device by Embodiment 1 of this invention. 上記実施の形態1における検索処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the search process in the said Embodiment 1. 上記実施の形態1における映像データのデータ構造を示す説明図である。It is explanatory drawing which shows the data structure of the video data in the said Embodiment 1. FIG. 上記実施の形態1における被写体と撮像範囲の関係を示す説明図である。It is explanatory drawing which shows the relationship between the to-be-photographed object in the said Embodiment 1, and an imaging range. 上記実施の形態1における撮像範囲の距離とカメラの焦点距離の関係を示す説明図である。It is explanatory drawing which shows the relationship between the distance of the imaging range in the said Embodiment 1, and the focal distance of a camera. 上記実施の形態1における映像データ構造の他の例を示す説明図である。It is explanatory drawing which shows the other example of the video data structure in the said Embodiment 1. FIG. この発明の実施の形態2による映像検索装置における撮像範囲データの座標系とデータ構造を示す説明図である。It is explanatory drawing which shows the coordinate system and data structure of imaging range data in the image | video search device by Embodiment 2 of this invention. この発明の実施の形態3による映像検索装置における被写体の投影面での位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship on the projection surface of a to-be-photographed object in the image | video search device by Embodiment 3 of this invention. この発明の実施の形態4による映像検索装置における被写体と検索方向の関係を示す説明図である。It is explanatory drawing which shows the relationship between the to-be-photographed object and the search direction in the video search device by Embodiment 4 of this invention. この発明の実施の形態5による映像検索装置における映像データのデータ構造を示す説明図である。It is explanatory drawing which shows the data structure of the video data in the video search device by Embodiment 5 of this invention. 上記実施の形態5における映像データと検索要求で指定される撮像時間区間の関係を示す説明図である。It is explanatory drawing which shows the relationship between the video data in the said Embodiment 5, and the imaging time area designated by the search request. 上記実施の形態5における検索処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the search process in the said Embodiment 5. 上記実施の形態5における映像データのデータ構造の他の例を示す説明図である。It is explanatory drawing which shows the other example of the data structure of the video data in the said Embodiment 5. この発明の実施の形態6による映像検索装置における映像データのデータ構造を示す説明図である。It is explanatory drawing which shows the data structure of the video data in the video search device by Embodiment 6 of this invention. 上記実施の形態6における検索処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the search process in the said Embodiment 6. 上記実施の形態6における映像データのデータ構造の他の例を示す説明図である。It is explanatory drawing which shows the other example of the data structure of the video data in the said Embodiment 6. FIG. この発明の実施の形態7による映像検索装置における映像データのデータ構造を示す説明図である。It is explanatory drawing which shows the data structure of the video data in the video search device by Embodiment 7 of this invention. 上記実施の形態7における検索処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the search process in the said Embodiment 7. この発明の実施の形態8による映像検索装置における映像データのデータ構造を示す説明図である。It is explanatory drawing which shows the data structure of the video data in the video search device by Embodiment 8 of this invention. 上記実施の形態8における検索処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the search process in the said Embodiment 8. この発明の実施の形態9による映像検索システムの構成を示すブロック図である。It is a block diagram which shows the structure of the video search system by Embodiment 9 of this invention. 一般的な映像監視システムの構成例を示すシステム構成図である。1 is a system configuration diagram illustrating a configuration example of a general video monitoring system. 従来の映像検索装置の構成を示すブロック図である。It is a block diagram which shows the structure of the conventional video search apparatus.

符号の説明Explanation of symbols

1 映像データ、2 映像蓄積部、3 映像検索部、4 検索アプリケーション実行部(問い合わせ元)、5 映像生データ、6 映像属性データ、7 入力手段、8 検索処理手段、9 出力手段、10,10a,10b 撮像範囲データ、12 被写体、13 投影面、15,15a 撮像時刻データ、16 第一の撮像範囲データ、17 第二の撮像範囲データ、18 第三の撮像範囲データ、19第四の撮像範囲データ、21 設備データベースシステム(サブシステム)、22 地理情報システム(サブシステム)。   1 video data, 2 video storage unit, 3 video search unit, 4 search application execution unit (inquiry source), 5 video raw data, 6 video attribute data, 7 input means, 8 search processing means, 9 output means, 10 and 10a , 10b imaging range data, 12 subjects, 13 projection planes, 15, 15a imaging time data, 16 first imaging range data, 17 second imaging range data, 18 third imaging range data, 19 fourth imaging range Data, 21 Equipment database system (subsystem), 22 Geographic information system (subsystem).

Claims (9)

映像データを蓄積する映像蓄積部と、問い合わせ元からの検索要求に対して、当該検索要求の検索条件を満足する映像データを検索してその結果を前記問い合わせ元に回答する映像検索部から構成される映像検索装置において、
前記映像蓄積部に蓄積される映像データが、映像フレームの時系列集合である映像生データと、各映像フレームの撮像範囲を示す撮像範囲データを含む映像属性データから構成され、
前記映像検索部が、
被写体の位置データ、および前記被写体と撮像範囲との位置関係として、前記被写体が撮像される方向に関する条件を含む検索要求を受け付ける入力手段と、
前記位置データと撮像範囲データから前記被写体が撮像される方向を計算し、指定された前記撮像される方向に関する条件を含む検索要求を満足する映像フレームを求める検索処理手段と、
前記検索処理手段の検索結果を前記問い合わせ元に出力する出力手段を有することを特徴とする映像検索装置。
A video storage unit that stores video data, and a video search unit that searches for video data that satisfies the search conditions of the search request in response to a search request from the inquiry source and answers the result to the inquiry source. Video search device
The video data stored in the video storage unit is composed of video raw data that is a time-series set of video frames, and video attribute data including imaging range data indicating the imaging range of each video frame,
The video search unit
An input means for receiving a search request including a condition relating to a direction in which the subject is imaged as position data of the subject and a positional relationship between the subject and the imaging range;
Search processing means for calculating a direction in which the subject is imaged from the position data and imaging range data, and for obtaining a video frame satisfying a search request including a condition relating to the designated imaging direction;
A video search apparatus comprising output means for outputting a search result of the search processing means to the inquiry source.
映像検索部の入力手段が、複数の被写体が撮像される方向に関する条件を含む検索要求を受け付けるものであり、
前記映像検索部の検索処理手段が、複数の被写体の位置データと撮影範囲データから前記複数の被写体が撮像される方向を計算し、指定された前記撮像される方向に関する条件を含む検索要求を満足する映像フレームを求めるものであることを特徴とする請求項1記載の映像検索装置。
The input means of the video search unit accepts a search request including a condition regarding a direction in which a plurality of subjects are imaged,
The search processing means of the video search unit calculates a direction in which the plurality of subjects are imaged from a plurality of subject position data and shooting range data, and satisfies a search request including a condition regarding the designated imaging direction. 2. The video search apparatus according to claim 1, wherein a video frame to be obtained is obtained.
映像蓄積部に蓄積される映像データの映像属性データが、各映像フレームの撮像範囲を示す撮像範囲データ、および前記各映像フレームの撮像時刻を示す撮像時刻データを含み、
映像検索部の入力手段が、被写体の位置データおよび前記被写体と前記撮像範囲との位置関係と、前記撮像時刻の範囲を示す撮像時間区間を含む検索要求を受け付けるものであり、
前記映像検索部の検索処理手段が、前記位置データと前記撮像範囲データから互いの位置関係を計算し、指定された前記位置関係および撮像時間区間を含む検索要求を満足する映像フレームを求めるものであることを特徴とする請求項1または請求項2記載の映像検索装置。
The video attribute data of the video data stored in the video storage unit includes imaging range data indicating the imaging range of each video frame, and imaging time data indicating the imaging time of each video frame,
The input means of the video search unit accepts a search request including a subject position data, a positional relationship between the subject and the imaging range, and an imaging time interval indicating the imaging time range,
The search processing means of the video search unit calculates a positional relationship between the position data and the imaging range data, and obtains a video frame satisfying a search request including the specified positional relationship and imaging time interval. The video search apparatus according to claim 1, wherein the video search apparatus is provided.
映像蓄積部に蓄積される映像データの映像属性データが、各映像フレームの撮像範囲を示す撮像範囲データ、および前記各映像フレームの撮像時刻を計算するための撮像時刻データを含み、
映像検索部の入力手段が、被写体の位置データおよび前記被写体と前記撮像範囲との位置関係と、前記撮像時刻の範囲を示す撮像時間区間を含む検索要求を受け付けるものであり、
前記映像検索部の検索処理手段が、前記位置データと前記撮像範囲データから互いの位置関係を、前記撮像時刻データから撮像時刻を計算し、指定された前記位置関係および撮像時間区間を含む検索要求を満足する映像フレームを求めるものであることを特徴とする請求項1または請求項2記載の映像検索装置。
Video attribute data of video data stored in the video storage unit includes imaging range data indicating an imaging range of each video frame, and imaging time data for calculating an imaging time of each video frame,
The input means of the video search unit accepts a search request including a subject position data, a positional relationship between the subject and the imaging range, and an imaging time interval indicating the imaging time range,
A search request in which the search processing means of the video search unit calculates a positional relationship between the position data and the imaging range data and an imaging time from the imaging time data, and includes the specified positional relationship and an imaging time interval 3. A video search apparatus according to claim 1, wherein a video frame satisfying the above is obtained.
映像データの映像属性データにおける撮像範囲データが、複数の時間的に連続する映像フレーム集合毎に、その集合に含まれる映像フレーム全体の撮像範囲を示す第一の撮像範囲データと、各映像フレームもしくは前記映像フレーム集合を分割した映像フレームサブ集合毎に、その撮像範囲を示す第二の撮像範囲データから構成され、
映像検索部の検索処理手段が、まず前記第一の撮像範囲データを基に前記映像フレーム集合に対する位置関係を計算して、検索要求を満足する映像フレームが存在し得る映像フレーム集合を求め、さらにその映像フレーム集合に属する各映像フレームまたは映像フレームサブ集合に対して、前記第二の撮像範囲データを基に位置関係を計算し、前記検索要求を満足する映像フレームを求めることを特徴とする請求項1または請求項2記載の映像検索装置。
The imaging range data in the video attribute data of the video data includes, for each of a plurality of temporally continuous video frame sets, first imaging range data indicating an imaging range of the entire video frame included in the set, and each video frame or Each video frame sub-set obtained by dividing the video frame set is composed of second imaging range data indicating the imaging range,
The search processing means of the video search unit first calculates a positional relationship with respect to the video frame set based on the first imaging range data to obtain a video frame set in which a video frame satisfying the search request can exist, A video frame satisfying the search request is obtained by calculating a positional relationship for each video frame or video frame sub-set belonging to the video frame set based on the second imaging range data. The video search device according to claim 1 or 2.
映像データの映像属性データにおける撮像範囲データが、複数の時間的に連続する映像フレーム集合毎に、その集合に含まれる映像フレーム全体の撮像範囲を示す第一の撮像範囲データと、各映像フレームもしくは前記映像フレーム集合を分割した映像フレームサブ集合毎に、その撮像範囲を計算するための第三の撮像範囲データから構成され、映像検索部の検索処理手段が、まず前記第一の撮像範囲データを基に前記映像フレーム集合に対する位置関係を計算して、検索要求を満足する映像フレームが存在し得る映像フレーム集合を求め、さらにその映像フレーム集合に属する各映像フレームまたは映像フレームサブ集合の撮像範囲を、前記第三の撮像範囲データを基に求めて位置関係を計算し、前記検索要求を満足する映像フレームを求めることを特徴とする請求項1または請求項2記載の映像検索装置。   The imaging range data in the video attribute data of the video data includes, for each of a plurality of temporally continuous video frame sets, first imaging range data indicating an imaging range of the entire video frame included in the set, and each video frame or For each video frame sub-set obtained by dividing the video frame set, it is composed of third imaging range data for calculating the imaging range, and the search processing means of the video search unit first extracts the first imaging range data. And calculating a positional relationship with respect to the video frame set to obtain a video frame set in which a video frame satisfying the search request may exist, and further determining an imaging range of each video frame or video frame sub-set belonging to the video frame set. And calculating the positional relationship based on the third imaging range data to obtain a video frame satisfying the search request. Video searching apparatus according to claim 1 or claim 2 wherein Rukoto. 映像データの映像属性データにおける撮像範囲データが、複数のカメラで撮像された映像データに対して、第一の撮像範囲データおよび第二の撮像範囲データに加えて、前記カメラ毎にそのカメラで撮像された前記映像データに属する映像フレーム全体の撮像範囲を示す第四の撮像範囲データから構成され、
映像検索部の検索処理手段が、まず前記第四の撮像範囲データを基に前記各カメラに属する映像フレーム全体に対する位置関係を計算して、検索要求を満足する映像フレームが存在し得るカメラを求め、次に前記第一の撮像範囲データを基にそのカメラで撮像された映像フレーム集合に対する位置関係を計算して、前記検索要求を満足する映像フレームが存在し得る映像フレーム集合を求め、さらにその映像フレーム集合に属する各映像フレームまたは映像フレームサブ集合に対して、前記第二の撮像範囲データを基に位置関係を計算し、前記検索要求を満足する映像フレームを求めるものであることを特徴とする請求項5記載の映像検索装置。
In addition to the first imaging range data and the second imaging range data, the imaging range data in the video attribute data of the video data is captured by the camera for each camera in addition to the first imaging range data and the second imaging range data. Composed of the fourth imaging range data indicating the imaging range of the entire video frame belonging to the video data,
The search processing means of the video search unit first calculates a positional relationship with respect to the entire video frame belonging to each camera based on the fourth imaging range data, and obtains a camera in which a video frame that satisfies the search request can exist. Next, based on the first imaging range data, a positional relationship with respect to a set of video frames captured by the camera is calculated to obtain a video frame set in which a video frame satisfying the search request can exist, and further For each video frame or video frame sub-set belonging to the video frame set, a positional relationship is calculated based on the second imaging range data, and a video frame satisfying the search request is obtained. The video search device according to claim 5.
映像データの映像属性データにおける撮像範囲データが、複数のカメラで撮像された映像データに対して、第一の撮像範囲データおよび第三の撮像範囲データに加えて、前記カメラ毎にそのカメラで撮像された前記映像データに属する映像フレーム全体の撮像範囲を示す第四の撮像範囲データから構成され、
映像検索部の検索処理手段は、まず前記第四の撮像範囲データを基に前記各カメラに属する映像フレーム全体に対する位置関係を計算して、検索要求を満足する映像フレームが存在し得るカメラを求め、次に前記第一の撮像範囲データを基にそのカメラで撮像された映像フレーム集合に対する位置関係を計算して、前記検索要求を満足する映像フレームが存在し得る映像フレーム集合を求め、さらに前記第三の撮像範囲データを基に、その映像フレーム集合に属する各映像フレームまたは映像フレームサブ集合の撮像範囲を求めて位置関係を計算し、前記検索要求を満足する映像フレームを求めるものであることを特徴とする請求項6記載の映像検索装置。
In addition to the first imaging range data and the third imaging range data, the imaging range data in the video attribute data of the video data is captured by the camera for each camera in addition to the first imaging range data and the third imaging range data. Composed of the fourth imaging range data indicating the imaging range of the entire video frame belonging to the video data,
The search processing means of the video search unit first calculates a positional relationship with respect to all video frames belonging to each camera based on the fourth imaging range data, and obtains a camera in which a video frame satisfying the search request can exist. Next, a positional relationship with respect to a set of video frames captured by the camera based on the first imaging range data is calculated to obtain a video frame set in which a video frame satisfying the search request can exist, and Based on the third imaging range data, the imaging relationship of each video frame or video frame sub-set belonging to the video frame set is obtained, the positional relationship is calculated, and the video frame satisfying the search request is obtained. The video search device according to claim 6.
請求項1から請求項8のうちのいずれか1項記載の映像検索装置と、
前記映像検索装置に検索要求を送出する問い合わせ元としての検索アプリケーション実行部と、
被写体について、少なくともその被写体の位置データを管理するサブシステムから構成される映像検索システムであって、
前記検索アプリケーション実行部が、指定された被写体について、その位置データを前記サブシステムから獲得し、前記映像検索装置に獲得した位置データを含む検索要求を送出するものであることを特徴とする映像検索システム。
The video search device according to any one of claims 1 to 8,
A search application execution unit as an inquiry source for sending a search request to the video search device;
A video search system composed of a subsystem that manages at least the subject's position data for the subject,
The video search characterized in that the search application execution unit acquires position data of a specified subject from the subsystem and sends a search request including the acquired position data to the video search device. system.
JP2008009234A 2008-01-18 2008-01-18 Video search device and video search system Expired - Fee Related JP4248593B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008009234A JP4248593B2 (en) 2008-01-18 2008-01-18 Video search device and video search system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008009234A JP4248593B2 (en) 2008-01-18 2008-01-18 Video search device and video search system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP08695498A Division JP4169824B2 (en) 1998-03-31 1998-03-31 Video search device and video search system

Publications (2)

Publication Number Publication Date
JP2008171434A true JP2008171434A (en) 2008-07-24
JP4248593B2 JP4248593B2 (en) 2009-04-02

Family

ID=39699400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008009234A Expired - Fee Related JP4248593B2 (en) 2008-01-18 2008-01-18 Video search device and video search system

Country Status (1)

Country Link
JP (1) JP4248593B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8601012B2 (en) 2008-09-11 2013-12-03 Thomson Licensing Automatic search and transfer apparatus and automatic search and transfer system
CN111881376A (en) * 2020-07-31 2020-11-03 北京高因科技有限公司 House resource searching system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8601012B2 (en) 2008-09-11 2013-12-03 Thomson Licensing Automatic search and transfer apparatus and automatic search and transfer system
CN111881376A (en) * 2020-07-31 2020-11-03 北京高因科技有限公司 House resource searching system
CN111881376B (en) * 2020-07-31 2023-10-31 中山市云经纪网络科技有限公司 House source searching system

Also Published As

Publication number Publication date
JP4248593B2 (en) 2009-04-02

Similar Documents

Publication Publication Date Title
JP4361484B2 (en) Video generation processing device, video generation processing method, and video storage device
KR101215199B1 (en) Information processing system, information processing apparatus and information processing method, and recording medium
Ay et al. Viewable scene modeling for geospatial video search
US9898829B2 (en) Monitoring apparatus and system using 3D information of images and monitoring method using the same
US7573492B2 (en) Monitoring system and method, and program and recording medium used therewith
US7106333B1 (en) Surveillance system
CN106156199B (en) Video monitoring image storage and retrieval method
CN101946215A (en) Method for controlling an alarm management system
CN107770486B (en) Event search apparatus and system
CN110888957B (en) Object positioning method and related device
JP6396682B2 (en) Surveillance camera system
JP4248593B2 (en) Video search device and video search system
KR102028319B1 (en) Apparatus and method for providing image associated with region of interest
JP2006093955A (en) Video processing apparatus
US11437074B2 (en) Method and system for composing a video material
JP2017118319A (en) Video retrieval system
JP4169824B2 (en) Video search device and video search system
KR101758786B1 (en) Apparatus for determining location of special point in image and method thereof
KR101317428B1 (en) Spatial information system controlling cctv and operating method thereof
KR20210108691A (en) apparatus and method for multi-channel image back-up based on event, and network surveillance camera system including the same
KR102057845B1 (en) Method for video control by interaction with terminal and video control system using the method
JP6875965B2 (en) Control devices, control methods, programs, and monitoring systems
JP3834641B2 (en) Camera video data management system, camera video data management method, and program
KR101714174B1 (en) Structure image management method, image processing apparatus, and image inquiry apparatus
JP2016115082A (en) Image search system and image search method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120123

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130123

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130123

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees