JP2006050404A - Recorded video editing method and display method - Google Patents

Recorded video editing method and display method Download PDF

Info

Publication number
JP2006050404A
JP2006050404A JP2004230759A JP2004230759A JP2006050404A JP 2006050404 A JP2006050404 A JP 2006050404A JP 2004230759 A JP2004230759 A JP 2004230759A JP 2004230759 A JP2004230759 A JP 2004230759A JP 2006050404 A JP2006050404 A JP 2006050404A
Authority
JP
Japan
Prior art keywords
video
recorded
time
imaging device
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004230759A
Other languages
Japanese (ja)
Other versions
JP4786153B2 (en
Inventor
Takahiro Funahashi
孝博 舟橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2004230759A priority Critical patent/JP4786153B2/en
Publication of JP2006050404A publication Critical patent/JP2006050404A/en
Application granted granted Critical
Publication of JP4786153B2 publication Critical patent/JP4786153B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video editing method and a video display method that enable the organization of videos such that a monitor (or operator) can temporally sequentially identify and display the image of a target object from videos taken by a plurality of image pick-up devices. <P>SOLUTION: Channel association information including an estimated position where a surveillance camera installed is registered. When an accident or an event happens, characteristic colors are inputted that are desired to be found in the recorded videos with the colors searched and pursued. A target object is selected from the search result, and a pursuit video is created. Thus, editing is performed such that colors can be searched based on the video channel association, and thereby the pursuit video can be identified and displayed temporally sequentially. The pursuit video can be handled in the same way as other ordinarily recorded videos and pursuit path information can be outputted. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、複数の撮像装置により得られた映像を記録し、記録された映像の編集及び表示方法に関する。   The present invention relates to a method of recording video obtained by a plurality of imaging devices and editing and displaying the recorded video.

従来の映像の記録、編集及び表示方法について、図2と図6を用いて説明する。図2と図6は、所定の視野範囲内を複数の撮像装置により撮像し、得られた映像を記録及び表示するシステムを説明するための図である。   A conventional video recording, editing, and display method will be described with reference to FIGS. FIG. 2 and FIG. 6 are diagrams for explaining a system that captures an image within a predetermined visual field range by a plurality of imaging devices and records and displays the obtained video.

図2は、所定の視野範囲を撮像するために設置した撮像装置の位置と所定の視野範囲内を移動する追跡対象の移動体との関係を示す平面図で、201 〜 206 は、所定の視野範囲内の、所定の各部分視野範囲の映像を得るため設置された撮像装置、207 は追跡対象の移動体、207-0 は移動体 207 が時刻 t0 のときに存在していた位置、207-1 は移動体 207 が時刻 t1 のときにいた位置、207-2 は移動体 207 時刻 t2 のときに存在していた位置、207-3 は移動体 207 が時刻 t3 のときに存在していた位置、207-4 は移動体 207 が時刻 t4 のときに存在していた位置、20-1 は移動体 207 が時刻 t0 から時刻 t1 の間に移動した経路を示す矢印、20-2 は移動体 207 が時刻 t1 から時刻 t2 の間に移動した経路を示す矢印、20-3 は移動体 207 が時刻 t2 から時刻 t3 の間に移動した経路を示す矢印、20-4 は移動体 207 が時刻 t3 から時刻 t4 の間に移動した経路を示す矢印、21-1 〜 21-9 は壁や塀で封鎖され移動体が移動できない空間(移動禁止領域)、22-1 〜 22-6 ,23-1 〜 23-6 は通路(移動可能領域)である。   FIG. 2 is a plan view showing the relationship between the position of an imaging apparatus installed for imaging a predetermined visual field range and a tracking target moving body that moves within the predetermined visual field range. An imaging device installed to obtain an image of each predetermined partial field of view within the range, 207 is a moving body to be tracked, 207-0 is a position where the moving body 207 was present at time t0, 207- 1 is the position at which mobile 207 was at time t1, 207-2 was the position at mobile 207 at time t2, and 207-3 was the position at which mobile 207 was at time t3 207-4 is the position where the mobile unit 207 existed at time t4, 20-1 is an arrow indicating the path the mobile unit 207 has moved from time t0 to time t1, and 20-2 is the mobile unit 207. Is an arrow indicating the path traveled from time t1 to time t2, and 20-3 is an arrow indicating the path traveled by mobile unit 207 from time t2 to time t3. Mark, 20-4 is an arrow indicating the path traveled by mobile unit 207 from time t3 to time t4, and 21-1 to 21-9 are blocked by walls or walls and cannot move the mobile unit (non-movable area) , 22-1 to 22-6 and 23-1 to 23-6 are passages (movable areas).

撮像装置 201 〜 206 は、例えば、テレビジョンカメラである。撮像装置1台ずつには、それぞれ1つのカメラ番号が関連付けされており、例えば、撮像装置 201 には カメラ番号 1( CH1 )が付加され、以下、撮像装置 202 〜 206 にそれぞれカメラ番号 2( CH2 )〜 6( CH6 )が付加されている。
カメラ番号の情報は、例えば、撮影された映像に付加されている。
The imaging devices 201 to 206 are, for example, television cameras. One camera number is associated with each imaging device. For example, camera number 1 (CH1) is added to the imaging device 201. Hereinafter, camera numbers 2 (CH2) are assigned to the imaging devices 202 to 206, respectively. ) To 6 (CH6) are added.
The camera number information is added to the captured video, for example.

図2によって、所定の視野範囲内を移動する移動体を対象として追跡するシステムを説明する。
撮像装置 201 〜 206 が撮像した映像は、図2には図示していないが、有線方式または無線方式またはそれらの組合せからなる伝送方式によって、撮影場所(視野範囲)と離れた場所、例えば、モニタや記録装置を備える監視室と結合されている。監視室にいる監視者は、過去あるいは現在の視野範囲内の映像を見ることができる。
With reference to FIG. 2, a system for tracking a moving body moving within a predetermined visual field range will be described.
The images captured by the imaging devices 201 to 206 are not shown in FIG. 2, but they are separated from the shooting location (field of view range), for example, a monitor by a transmission method comprising a wired method, a wireless method, or a combination thereof. And a monitoring room with a recording device. A monitor in the monitoring room can view images in the past or present field of view.

図6は、記録された映像の従来の表示の様子を模式的に示した図である。それぞれの撮像装置からの映像は、例えば、200 msec 毎にそれぞれの撮像装置の映像としてタイムスタンプとカメラ番号を付加されて記録装置に記録される。図6の横軸は時間、各行は、それぞれの撮像装置( CH1 ,CH2 ,CH3 ,‥‥‥)毎に記録された映像を時間順に並べてモニタに表示した一例である。101 は CH1 の撮像装置 201 が取得した映像列、102 は CH2 の撮像装置 202 が取得した映像列、103 は CH3 の撮像装置 203 が取得した映像列である。101-1 〜 101-12 は映像列 101 の時刻順に記録された映像、102-1 〜 102-12 は映像列 102 の時刻順に記録された映像、103-1 〜 103-12 は映像列 103 の時刻順に記録された映像である。   FIG. 6 is a diagram schematically illustrating a conventional display state of recorded video. The video from each imaging device is recorded in the recording device with a time stamp and a camera number added, for example, as a video of each imaging device every 200 msec. The horizontal axis of FIG. 6 is an example in which time is displayed on the horizontal axis, and each row is an image in which images recorded for each imaging device (CH1, CH2, CH3,...) Are arranged in time order and displayed on the monitor. 101 is a video sequence acquired by the CH1 imaging device 201, 102 is a video sequence acquired by the CH2 imaging device 202, and 103 is a video sequence acquired by the CH3 imaging device 203. 101-1 to 101-12 are videos recorded in the time sequence of the video sequence 101, 102-1 to 102-12 are video sequences recorded in the time sequence of the video sequence 102, and 103-1 to 103-12 are video sequences of the video sequence 103. This is an image recorded in order of time.

図6において、映像 101-1 〜 101-4 を見ると、撮像装置 201 が撮像した移動体 207 が徐々に撮像装置 201 に近づいていることが分かる。そして、映像 102-4 〜 102-8 を見ると、撮像装置 202 が 移動体 207 を撮像しており、やはり徐々に撮像装置 202 に近づいていることが分かる。同様に、映像 103-7 〜 103-11 を見ると、撮像装置 203 が 移動体 207 を撮像しており、こんどは徐々に撮像装置 203 から遠ざかっていることが分かる。   In FIG. 6, when the images 101-1 to 101-4 are viewed, it can be seen that the moving object 207 captured by the image capturing apparatus 201 is gradually approaching the image capturing apparatus 201. When the images 102-4 to 102-8 are viewed, it can be seen that the imaging device 202 is imaging the moving body 207 and is gradually approaching the imaging device 202 as well. Similarly, when the images 103-7 to 103-11 are viewed, it can be seen that the imaging device 203 is imaging the moving body 207, and this time gradually moves away from the imaging device 203.

このことは、図2と比べながら図6を見るとよく分かる。即ち、移動体 207 が、撮像装置 201 が撮像している通路 22-1 を左から右に移動してきて、撮像装置 201 の視野範囲を外れていき、次に撮像装置 202 の視野範囲である通路 22-2 に入り、やはり左から右に移動していき、次に撮像装置 202 の視野範囲を外れ撮像装置 203 の視野範囲の通路 23-5 に入り、通路 23-5 を上から下に徐々に移動して、通路 22-5 に曲がり、映像 103-12 で撮像装置 203 の視野から外れてしまうことが分かる。この次の時点では、移動体 207 が通路 22-5 に曲がったのか、通路 22-6 に曲がったのは分からないが、撮像装置 204 の撮像した映像列に移動体 207 が映っているか否かで判断できる。尚、図2での上下左右の方向は、図2の紙面上の方向によって説明できる方向とした。
また、撮像装置は、移動体 207 の進む方向にだけ設置しているが、説明上必要な撮像装置だけ、図に表示しているだけで、実用上は他の場所にも設置している。
This can be clearly seen by looking at FIG. 6 in comparison with FIG. That is, the moving body 207 moves from the left to the right in the path 22-1 captured by the imaging device 201, moves out of the field of view of the imaging device 201, and then the path that is the field of view of the imaging device 202. 22-2, moving from left to right again, then out of the field of view of the imaging device 202 and entering the path 23-5 of the field of view of the imaging device 203, and gradually passing the path 23-5 from top to bottom It turns out that it turns to the path | route 22-5, and remove | deviates from the visual field of the imaging device 203 by the image | video 103-12. At this next time point, it is not known whether the moving body 207 is bent into the passage 22-5 or the passage 22-6, but whether or not the moving body 207 is reflected in the video sequence captured by the imaging device 204. Can be judged. Note that the vertical and horizontal directions in FIG. 2 are directions that can be explained by the directions on the paper of FIG.
In addition, although the imaging device is installed only in the direction in which the moving body 207 travels, only the imaging device that is necessary for explanation is displayed in the figure, and is practically installed in another place.

図6に示すように、記録装置に記録された映像は、各撮像装置毎に時系列順に並べて表示され、システム管理者またはユーザが確認をできる。
従来は、各撮像装置ごとに記録映像の表示、確認を行なうため、映像列 101 を表示した後、目的(追跡対象)とする物体(移動体 207 )を確認した後、映像列 102 や映像列 103 においても同様の時間帯を表示して確認していた。
As shown in FIG. 6, the video recorded in the recording device is displayed in chronological order for each imaging device, and can be confirmed by the system administrator or the user.
Conventionally, in order to display and confirm the recorded video for each imaging device, after displaying the video sequence 101, the object (moving body 207) as the target (tracking target) is confirmed, and then the video sequence 102 and the video sequence are displayed. In 103, the same time zone was displayed and confirmed.

防犯などを目的とした監視カメラなどは、人通りや交通量の多い箇所に設置され、常時監視はしていない。その代わりビデオテープレコーダやデジタルレコーダなどの記録装置に一定の間隔で常時記録しておき、事故や事件等が発生した場合に検証するようになっている。
事故・事件が発生した日付や時刻がおおよそ分かっていても、複数台ある監視カメラ映像から目的とする映像を見つけ出すのは容易ではなく、また、それぞれのカメラ映像は記録装置の別々のチャネルに入力されるため、連続的に映像を確認することができなかった。
即ち、上述の従来技術では、追跡対象とする物体(移動体)を記録された映像列から選択したときに、関連する他の撮像装置の記録映像から目的とする物体の映像を表示して確認する必要があった。
本発明の目的は、上記のような欠点を除去し、1つの撮像装置が撮像した映像から、監視者(または操作者)が目的とする物体を選択した時に、他の撮像装置が撮像した映像から関連する映像を時系列的に確認表示できるように映像を編集することを可能にする記録映像の編集方法及び表示方法を提供することにある。
Surveillance cameras for the purpose of crime prevention etc. are installed in places with heavy traffic and traffic, and are not constantly monitored. Instead, it is always recorded on a recording device such as a video tape recorder or digital recorder at regular intervals, and is verified when an accident or incident occurs.
Even if you know the date and time when an accident or incident occurred, it is not easy to find the target video from multiple surveillance camera videos, and each camera video is input to a separate channel of the recorder. As a result, it was impossible to continuously check the video.
That is, in the above-described conventional technology, when an object (moving body) to be tracked is selected from a recorded video sequence, a video of the target object is displayed and confirmed from a recorded video of another related imaging device. There was a need to do.
An object of the present invention is to eliminate the above-described drawbacks, and when a supervisor (or operator) selects a target object from an image captured by one imaging device, an image captured by another imaging device It is an object of the present invention to provide a recording video editing method and a display method that enable editing of video so that related video can be confirmed and displayed in time series.

上記の目的を達成するために本発明の記録映像の編集方法及び表示方法は、複数の撮像装置が撮像した映像を記録し、記録された映像から特定の対象物を検索(例えば、色検索)して、特定の対象物を追跡した映像を時系列的に並べた映像(追跡映像)を作成し、表示するものである。
このため、本発明は、監視カメラの設置位置などを想定した撮像装置毎の映像列の時系列的な関連付け情報を予め登録しておく。そして、記録映像中に目的とする物体の特徴色を入力し、色追跡検索を行なう。検索結果から目的とする物体を選択する。選択した物体の特徴を時系列関連情報から検索して、目的とする物体が映っているチャネルの映像を追跡映像チャネルにまとめ、通常の記録映像と同様に扱えるように編集し、表示するとともに、追跡経路情報を出力するものである。
In order to achieve the above object, a recorded video editing method and display method according to the present invention records videos taken by a plurality of imaging devices, and searches for specific objects from the recorded videos (for example, color search). Thus, a video (tracking video) in which videos tracking a specific object are arranged in time series is created and displayed.
For this reason, the present invention registers in advance time-series association information of video sequences for each imaging device assuming the installation position of the monitoring camera and the like. Then, the characteristic color of the target object is input into the recorded video, and color tracking search is performed. Select the target object from the search results. Search the characteristics of the selected object from time series related information, collect the video of the channel in which the target object is reflected in the tracking video channel, edit and display it so that it can be handled in the same way as normal recorded video, The tracking route information is output.

即ち、本発明の記録映像の編集及び表示方法は、所定の視野範囲内の映像を撮像する複数の撮像装置と、撮像装置によって撮像された映像を記録する記録装置と、記録装置に記録された映像を表示する表示装置とを備えた監視システムであって、記録装置に記録された映像の検索を行い、目的とする物体の基準映像が存在する映像を検出し、検出された映像について、予め登録してある関連付け情報に基づいて、時系列関連情報を作成するものである。
また、本発明の記録映像の編集及び表示方法は、好ましくは、関連情報に基づいて、基準映像が存在する映像を表示するものである。
That is, the recorded video editing and display method of the present invention includes a plurality of imaging devices that capture images within a predetermined field of view, a recording device that records images captured by the imaging device, and a recording device. A monitoring system including a display device for displaying a video, searching for a video recorded in a recording device, detecting a video in which a reference video of a target object is present, Based on the registered association information, time-series association information is created.
In addition, the recorded video editing and displaying method of the present invention preferably displays a video in which a reference video exists based on related information.

本発明を実施することによって、システム管理者またはユーザは、複数チャネルに渡る記録映像から、特定の目的の映像を捜索し、捜索した映像の内容を確認する作業を軽減することができる。また、複数の撮像装置の映像をまとめるために映像を複写する必要がなくなる。
例えば、事故や事件などが発生した場合に、記録された映像の中から容疑者や被害者などを迅速に検索でき、容疑者や被害者などを追跡するときに便利であり、追跡データを出力できる。また、この追跡データを蓄積することにより、経路情報を蓄えられる。
By implementing the present invention, the system administrator or the user can reduce the work of searching for a video of a specific purpose from recorded video over a plurality of channels and confirming the content of the searched video. In addition, it is not necessary to copy the videos in order to collect the videos of the plurality of imaging devices.
For example, in the event of an accident or incident, you can quickly search for suspects and victims from the recorded video, which is useful for tracking suspects and victims, and outputs tracking data it can. Further, by accumulating the tracking data, route information can be accumulated.

本発明の記録映像の編集方法及び表示方法は、例えば、以下のステップ1〜3のようにして実施する。
ステップ1「関連付け情報の登録」:システム管理者またはユーザは、撮像装置の設置位置(設置位置間の距離)や階段等の高さの違い、通路の幅、交通量などを勘案して、撮像装置間(映像チャネル間)の時系列的な関連付け情報(時系列関連情報)を予め記録装置等に登録しておく。
ステップ2「検索」:基準となる映像の情報(記録された映像の1つ、または外部から入力する映像の情報)をシステム管理者またはユーザが予めまたはその都度指定する。指定された映像の情報は、例えば、予め記録装置等に入力され、システム管理者またはユーザにより選択される。記録装置は、記録された映像を検索し、選択された基準映像の情報が存在する映像を目的とする物体が存在している映像として選択する。
検索方法としては、例えば、検索を目的とする物体の特徴色を入力し、色追跡検索を行なう方法がある。このような検索方法は、例えば、特開平6−223179号公報、特開2000−253309号公報等に記載がある。
ステップ3「追跡経路の決定」:選択した物体の時系列関連情報から、目的とする物体が映っているチャネルの映像を追跡映像チャネルにまとめ、通常の記録映像と同様に扱えるように関連付けする。また、追跡経路情報を出力する。
The recorded video editing method and display method of the present invention are implemented, for example, in the following steps 1 to 3.
Step 1 “Registration of association information”: The system administrator or the user takes an image taking into consideration the installation position (distance between installation positions) of the imaging device, the height of the stairs, the width of the passage, the traffic volume, etc. Time-series association information (time-series association information) between devices (between video channels) is registered in advance in a recording device or the like.
Step 2 “Search”: Information on a reference video (one recorded video or information on an externally input video) is designated in advance or each time by a system administrator or a user. The specified video information is input to a recording device or the like in advance and selected by a system administrator or a user, for example. The recording device searches the recorded video and selects a video in which information of the selected reference video exists as a video in which a target object exists.
As a search method, for example, there is a method of inputting a feature color of an object for search and performing a color tracking search. Such a search method is described in, for example, Japanese Patent Application Laid-Open Nos. 6-223179 and 2000-253309.
Step 3 “Determination of tracking path”: From the time-series related information of the selected object, the video of the channel in which the target object is shown is gathered into the tracking video channel and associated so that it can be handled in the same way as a normal recorded video. It also outputs tracking route information.

上記のステップ1〜ステップ3の動作例を、更に、図1〜図5を用いて説明する。
図2は、従来技術の説明にも使用した、所定の視野範囲内を複数の撮像装置により撮像し、得られた映像を表示または記録するシステムの構成例を説明するための図である。図3は、図2の撮像装置 201 〜 206 が撮像した映像を、例えば、モニタや記録装置を備える監視室で、監視者が視野範囲内の映像を見る場合の最も単純なシステム構成の一例を示す図である。201 〜 206 は撮像装置、301 は複数チャネルの撮像装置 201 〜 206 の映像を記録するための記録装置、302は映像表示を行なうモニタである。
撮像装置 201 〜 206 と記録装置 301 、及び記録装置 301 とモニタ 302 とは伝送ケーブルで結合されている。
An example of the operation of steps 1 to 3 will be further described with reference to FIGS.
FIG. 2 is a diagram for explaining a configuration example of a system that is also used in the description of the prior art and that captures images within a predetermined visual field range by a plurality of imaging devices and displays or records the obtained video. FIG. 3 shows an example of the simplest system configuration in the case where a video image taken by the imaging devices 201 to 206 shown in FIG. 2 is viewed by a supervisor in a monitoring room equipped with a monitor and a recording device, for example. FIG. 201 to 206 are imaging devices, 301 is a recording device for recording images of the imaging devices 201 to 206 of a plurality of channels, and 302 is a monitor for displaying images.
The imaging devices 201 to 206 and the recording device 301, and the recording device 301 and the monitor 302 are coupled by a transmission cable.

図3において、記録装置 301 は、操作機能、フレームスイッチ機能、分割表示機能、記録映像検索機能、映像出力機能等の機能を備えている。
また、それらの各機能を別々の機器で実現し、それら別々の機器の集合体が記録装置と相互に情報を交換しながら、またはアクセスし合いながら本発明の機能を実現しても良い。また、記録装置は、複数台あっても良い。また、記録装置 301 は、映像を記録しながら、同時にモニタに出力することもできる。
また、撮像装置 201 〜 206 と記録装置 301 とは伝送ケーブルで結合されているが、ネットワークを介して結合されていても良いし、有線である必要もない。
In FIG. 3, a recording apparatus 301 has functions such as an operation function, a frame switch function, a split display function, a recorded video search function, and a video output function.
In addition, the functions of the present invention may be realized by realizing each of these functions with different devices, and a collection of these different devices exchanging information with each other or accessing each other. Further, there may be a plurality of recording devices. Further, the recording device 301 can also output the video to the monitor at the same time while recording the video.
In addition, although the imaging devices 201 to 206 and the recording device 301 are coupled by a transmission cable, they may be coupled via a network or need not be wired.

図4は、本発明の映像編集方法及び映像表示方法において、チャネル毎(または、撮像装置毎)の情報の関連付け、即ち、時系列関連情報(相関関係情報)を作成する方法を説明するための図である。401-1 はカメラ番号(チャネル番号)CH1 の撮像装置 201 が撮像した映像列、401-2 はカメラ番号 CH2 の撮像装置 202 が撮像した映像列、401-3 はカメラ番号 CH3 の撮像装置 203 が撮像した映像列、401-4 はカメラ番号 CH4 の撮像装置 204 が撮像した映像列、401-5 はカメラ番号 CH5 の撮像装置 205 が撮像した映像列、401-6 はカメラ番号 CH6 の撮像装置 206 が撮像した映像列、402 はそれぞれの映像列 401-1 〜 401-6 の間に相関関係がある場合に相関関係があることを示す矢印である。   FIG. 4 is a diagram for explaining a method of creating information association for each channel (or each imaging device), that is, time-series related information (correlation information) in the video editing method and the video display method of the present invention. FIG. 401-1 is the video sequence captured by the imaging device 201 with the camera number (channel number) CH1, 401-2 is the video sequence captured by the imaging device 202 with the camera number CH2, and 401-3 is the imaging sequence 203 with the camera number CH3. The captured video sequence, 401-4 is the video sequence captured by the imaging device 204 with the camera number CH4, 401-5 is the video sequence captured by the imaging device 205 with the camera number CH5, and 401-6 is the imaging device 206 with the camera number CH6. Is a captured video sequence, and 402 is an arrow indicating that there is a correlation when there is a correlation between the respective video sequences 401-1 to 401-6.

図4において、矢印 402 の矢の方向は、目的とする物体が時系列的に、矢の方向の映像列に動くことを示している。例えば、通常移動する流れが決まっている場合、矢印方向を片方向にしておけば、異常な方向に移動した情報として参照することができる。   In FIG. 4, the direction of the arrow 402 indicates that the target object moves to the video sequence in the direction of the arrow in time series. For example, when the flow that normally moves is determined, if the arrow direction is set to one direction, it can be referred to as information that has moved in an abnormal direction.

また、相関関係に時間の重み付けを行うこともできる。例えば、映像列 401-2 と映像列 401-3 は場所(または移動する距離)が離れているため移動に時間が掛かり、映像列 401-3 と映像列 401-4 は場所が近い(または移動する距離が短い)ので移動に時間がかからないという場合は重み付け(優先順位付け)を行なう。   It is also possible to weight the correlation with time. For example, video sequence 401-2 and video sequence 401-3 are far away from each other (or moving distance), so it takes time to move, and video sequence 401-3 and video sequence 401-4 are close (or moved) Weighting (prioritization) is performed when it takes less time to move.

例えば、追跡対象の移動体がある時刻 t に映像列 401-3 にあり、次の時刻 t+1 に、映像列 401-2 と映像列 401-4 にあると検索された場合に、映像列 401-4 を映像列 401-2 より優先するというように、距離が近い方を優先したり、距離ばかりではなく、勾配、階段、エスカレータ、エレベータ、横断歩道(交通信号器なし)、横断歩道(交通信号器有)、等で優先順位をつける。   For example, when it is searched that a moving object to be tracked is in the video sequence 401-3 at a time t and is in the video sequence 401-2 and the video sequence 401-4 at the next time t + 1, the video sequence 401- 4 is prioritized over video sequence 401-2. The closer distance is prioritized, and not only the distance but also the slope, stairs, escalator, elevator, pedestrian crossing (no traffic signal), pedestrian crossing (traffic signal) Priority is given by equating).

図5は、本発明の映像編集方法及び映像表示方法において、チャネル毎(または、撮像装置毎)に情報の関連付けされた場合でのフレーム選定状況を説明するための図である。501 は記録装置 302 に記録された撮像装置 201 が撮像した映像を時刻順に並べて模式的に示した映像列、502 は記録装置 302 に記録された撮像装置 202 が撮像した映像を時刻順に並べて模式的に示した映像列、503 は記録装置 302 に記録された撮像装置 203 が撮像した映像を時刻順に並べて模式的に示した映像列である(他の撮像装置 204 〜 206 の映像列は省力する。)。504 は、検索結果を並べた映像を模式的に示した映像列である。
枠で囲った数字は、ハイフンの前の数字が撮像した撮像装置のカメラ番号、ハイフンの後の数字が撮影した時刻順に付された続き番号を示す。例えば、1-1 はカメラ番号 1 の撮像装置 201 が最初に撮像した映像であることを示し、2-5 はカメラ番号 2 の撮像装置 202 が 5 番目に撮像した映像であることを示し、3-11 はカメラ番号 3 の撮像装置 203 が 11 番目に撮像した映像であることを示す。
FIG. 5 is a diagram for explaining a frame selection situation when information is associated with each channel (or each imaging device) in the video editing method and the video display method of the present invention. Reference numeral 501 is a video sequence schematically showing the images captured by the imaging device 201 recorded in the recording device 302 in time order, and 502 is a schematic sequence of images captured by the imaging device 202 recorded in the recording device 302 in time order. 503 is a video sequence schematically shown by arranging the images captured by the imaging device 203 recorded in the recording device 302 in time order (the video sequences of the other imaging devices 204 to 206 are saved. ). Reference numeral 504 denotes a video sequence schematically showing videos in which search results are arranged.
The numbers enclosed in a frame indicate the camera number of the imaging device in which the number before the hyphen is imaged, and the continuation number assigned in order of the time at which the number after the hyphen is captured. For example, 1-1 indicates that the imaging device 201 with camera number 1 is the first image captured, 2-5 indicates that the imaging device 202 with camera number 2 is the fifth image, and 3 -11 indicates that this is the 11th image captured by the imaging device 203 with the camera number 3.

図5は、時系列的に色検索を実行した一例の様子を示している。
今、映像列 501 〜 503 の中の映像 1-1 〜 1-11 ,2-1 〜 2-11 ,3-1 〜 3-11 に対して追跡対象の移動体の色検索を時系列的に実行する。これによって、映像列 501 〜 503 の中の映像 1-1 〜 1-11 ,2-1 〜 2-11 ,3-1 〜 3-11 中の二重枠で示した映像部分( 1-1 ,1-2 ,1-3 ,1-4 ,1-8 ,1-10 ,2-2 ,2-4 ,2-5 ,2-6 ,2-7 ,2-8 ,3-5 ,3-8 ,3-9 ,3-10 ,3-11 )に追跡対象の移動体と推測できる映像部分(フレーム)が、追跡候補とされる。
FIG. 5 shows an example of a color search performed in time series.
Now, the color search of the moving object to be tracked is performed in time series for the images 1-1 to 1-11, 2-1 to 2-11, and 3-1 to 3-11 in the image sequences 501 to 503. Execute. As a result, the video portion indicated by the double frame in the video 1-1 to 1-11, 2-1 to 2-11, 3-1 to 3-11 in the video sequence 501 to 503 (1-1, 1-2, 1-3, 1-4, 1-8, 1-10, 2-2, 2-4, 2-5, 2-6, 2-7, 2-8, 3-5, 3- 8, 3-9, 3-10, 3-11), video portions (frames) that can be estimated as moving objects to be tracked are considered as tracking candidates.

次に図4の相関関係情報(時系列関連情報)から、同じ時刻で重複候補がある場合、追跡対象の映像部分を選定していく。
例えば、映像部分 2-1 と映像部分 2-2 では、映像部分 2-2 が追跡候補から除外される。また、例えば、映像部分 1-4 と映像部分 2-4 では、映像部分 2-4 が追跡候補から除外され、映像部分 2-5 と映像部分 3-5 では、映像部分 3-5 が追跡候補から除外される。同様に、例えば、映像部分 1-8 、映像部分 2-8 、映像部分 3-8 では、映像部分 1-8 と映像部分 3-8 とが追跡候補から除外され、映像部分 1-10 と映像部分 3-10 では、映像部分 1-10 が追跡候補から除外される。
Next, when there are overlapping candidates at the same time from the correlation information (time-series related information) in FIG. 4, the video portion to be tracked is selected.
For example, for video part 2-1 and video part 2-2, video part 2-2 is excluded from the tracking candidates. Also, for example, in video part 1-4 and video part 2-4, video part 2-4 is excluded from the tracking candidates, and in video part 2-5 and video part 3-5, video part 3-5 is the tracking candidate. Excluded from. Similarly, for example, in video part 1-8, video part 2-8, and video part 3-8, video part 1-8 and video part 3-8 are excluded from the tracking candidates, and video part 1-10 and video part 3-8 are excluded. In part 3-10, video part 1-10 is excluded from the tracking candidates.

上記実施例では、相関関係情報として、同一映像列(カメラ番号( CH ))が優先されて、他のチャネルが追跡候補から除外される。また、映像部分 1-10 と映像部分 3-10 では、映像部分 1-10 図4の相関関係情報により、映像部分 1-10 の映像列 501 は、映像列 503 から外れているために、映像部分 1-10 が追跡候補から除外される。   In the above embodiment, priority is given to the same video sequence (camera number (CH)) as correlation information, and other channels are excluded from the tracking candidates. In addition, in the video part 1-10 and the video part 3-10, the video part 1-10 is separated from the video string 503 by the correlation information in FIG. Parts 1-10 are excluded from the tracking candidates.

この選定を行なった結果、図5の映像列 504 に示すように、映像フレームが出来上がり、これを表示することによって、システム管理者またはユーザが、確認することができる。
同じ時刻で、重複候補がある場合は、相関関係から大幅に外れていない限り関連情報として残す。この重複候補は、任意に削除あるいは入替えが可能とする。入れ替えとは、検索実行により自動的に選定された映像部分を関連映像部分として残しておいたものと入替えることである。例えば図5において、映像部分 2-7 から映像部分 2-8 、映像部分 2-8 から映像部分 3-9 として導き出されたものを、映像部分 2-8 と映像部分 3-8 を入替え、映像部分 2-7 から映像部分 3-8 、映像部分 3-8 から映像部分 3-9 として入れ替える。
As a result of this selection, a video frame is completed as shown in the video sequence 504 in FIG. 5, and the system administrator or the user can confirm it by displaying this video frame.
If there is a duplicate candidate at the same time, it remains as related information unless it is significantly deviated from the correlation. This duplication candidate can be arbitrarily deleted or replaced. The replacement is to replace the video part automatically selected by the search execution with the video part left as the related video part. For example, in FIG. 5, the video part 2-8 is replaced with the video part 3-8, and the video part 2-8 is replaced with the video part 3-8. Replace parts 2-7 with video part 3-8 and video part 3-8 with video part 3-9.

また、映像部分 3-9 と映像部分 3-11 の間が時間的に離れている場合は映像部分 1-10 は追跡候補として残される。例えば、映像列 502( CH2 )で追跡候補が見つけられなかった場合である。
また、検索結果として同時刻の映像部分に候補がなかった場合は、その直前に候補がある映像列の映像部分を映像フレームを埋めたり、ブラック表示、ブルー表示等を行い、追跡候補がその時刻に無いことを明確にする。
In addition, when the video part 3-9 and the video part 3-11 are separated in time, the video part 1-10 is left as a tracking candidate. For example, this is a case where no tracking candidate is found in the video sequence 502 (CH2).
Also, if there is no candidate in the video part at the same time as the search result, the video part of the video sequence with the candidate immediately before that is filled in the video frame, black display, blue display, etc. Make it clear that

図1は、図5と同様に、時系列的に色検索を実行した一例を示している。図1の映像列 101 〜 103 は、図6での映像列 101 〜 103 と同じ映像である。また、104 は、検索結果(時系列関連情報)から導き出した映像列である。
図1に示すように、映像列 104 を時系列順に表示することによって、追跡対象とした物体が移動して行く様子がわかる。この移動した情報は、別の外部機器に出力することができる。外部機器とは、例えば、外部記録装置、印刷器、電話回線と結合されたファクシミリ、パーソナルコンピュータ、ネットワーク機器と結合された映像配信装置、サーバ、等である。
尚、上記実施例では、映像列を 3 つとしたが、設置された撮像装置の数等、必要によりいくつでも良い。
FIG. 1 shows an example in which color search is executed in time series as in FIG. Video sequences 101 to 103 in FIG. 1 are the same as the video sequences 101 to 103 in FIG. Reference numeral 104 denotes a video sequence derived from the search result (time-series related information).
As shown in FIG. 1, by displaying the video sequence 104 in chronological order, it can be seen how the object to be tracked moves. This moved information can be output to another external device. The external device is, for example, an external recording device, a printer, a facsimile coupled with a telephone line, a personal computer, a video distribution device coupled with a network device, a server, or the like.
In the above embodiment, the number of video sequences is three. However, the number of image pickup devices installed may be any number as necessary.

尚、追跡候補を検索する色検索においては、指定色毎に色範囲を予め決めておく必要がある。指定色は複数色を指定することができ、且つ参照フレームから選定することもできる。
例えば、黄色い通学帽子を被った赤いランドセルの小学生などを追跡候補とする場合、黄色と赤を指定色とし、実際の映像フレームから帽子を範囲指定すると、その範囲に含まれる色成分の幅が自動的に記録される。この色成分の幅(例えば、画素数)は、ある程度の大きさを持つものを自動的に認識して候補とする。つまり1画素のみが候補となる色成分であっても反応しない。
これらの機能は、図3の記録装置 301 に組み込むか、あるいは、記録装置 301 と別の装置(検索器)として分離して構成しても良い。
In the color search for searching for tracking candidates, it is necessary to determine a color range in advance for each specified color. As the designated color, a plurality of colors can be designated and can be selected from the reference frame.
For example, if a red school bag elementary school student wearing a yellow school hat is a tracking candidate, yellow and red are designated colors, and the hat range is specified from the actual video frame, the width of the color component included in that range is automatically set. Recorded. The width of this color component (for example, the number of pixels) is automatically recognized as a candidate having a certain size and is set as a candidate. That is, even if only one pixel is a candidate color component, it does not react.
These functions may be incorporated in the recording device 301 of FIG. 3 or may be configured separately from the recording device 301 as a separate device (search device).

本発明の一実施例の映像記録結果を示す図。The figure which shows the video recording result of one Example of this invention. 従来の所定の視野範囲を撮像するために設置した撮像装置の位置と所定の視野範囲内を移動する追跡対象の移動体との関係を示す平面図。The top view which shows the relationship between the position of the imaging device installed in order to image the conventional predetermined visual field range, and the tracking target moving body which moves within the predetermined visual field range. 本発明の一実施例のシステム構成を示す図。The figure which shows the system configuration | structure of one Example of this invention. 本発明の一実施例の相関関係情報を説明するための図。The figure for demonstrating the correlation information of one Example of this invention. 本発明の情報の関連付けされた場合のフレーム選定状況の一実施例を説明するための図。The figure for demonstrating one Example of the frame selection condition at the time of the correlation of the information of this invention. 記録された映像の従来の表示の様子を模式的に示した図。The figure which showed typically the mode of the conventional display of the recorded image | video.

符号の説明Explanation of symbols

20-1〜20-4:移動した経路を示す矢印、 21-1〜21-9:空間、 22-1〜22-6,23-1〜23-6:通路、 101〜104:映像列、 201〜206:撮像装置、 207:移動体、 207-0〜207-4:移動体の位置、 301:記録装置、 302:モニタ、 401-1〜401-6:映像列、 402:相関関係があることを示す矢印、 501〜504:映像列。
20-1 to 20-4: arrows indicating the route traveled, 21-1 to 21-9: space, 22-1 to 22-6, 23-1 to 23-6: passage, 101 to 104: video sequence, 201 to 206: imaging device, 207: moving body, 207-0 to 207-4: position of moving body, 301: recording device, 302: monitor, 401-1 to 401-6: video sequence, 402: correlation Arrow indicating that there is, 501 to 504: video sequence.

Claims (2)

所定の視野範囲内の映像を撮像する複数の撮像装置と、該撮像装置によって撮像された映像を記録する記録装置と、該記録装置に記録された映像を表示する表示装置とを備えた監視システムであって、
上記記録装置に記録された映像の検索を行い、
目的とする物体の基準映像が存在する上記映像を検出し、
検出された映像について、予め登録してある関連付け情報に基づいて、時系列関連情報を作成することを特徴とする記録映像の編集及び表示方法。
A monitoring system comprising a plurality of imaging devices that capture images within a predetermined visual field range, a recording device that records images captured by the imaging device, and a display device that displays the images recorded in the recording device Because
Search the video recorded in the recording device,
Detect the above video where the reference video of the target object exists,
A method for editing and displaying a recorded video, wherein time-series related information is created based on association information registered in advance for the detected video.
請求項1記載の記録映像の編集方法及び表示方法において、
上記関連情報に基づいて、上記基準映像が存在する上記映像を表示することを特徴とする記録映像の編集及び表示方法。
The recorded video editing method and display method according to claim 1,
A method for editing and displaying a recorded video, wherein the video having the reference video is displayed based on the related information.
JP2004230759A 2004-08-06 2004-08-06 Recorded video editing and display method Expired - Fee Related JP4786153B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004230759A JP4786153B2 (en) 2004-08-06 2004-08-06 Recorded video editing and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004230759A JP4786153B2 (en) 2004-08-06 2004-08-06 Recorded video editing and display method

Publications (2)

Publication Number Publication Date
JP2006050404A true JP2006050404A (en) 2006-02-16
JP4786153B2 JP4786153B2 (en) 2011-10-05

Family

ID=36028414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004230759A Expired - Fee Related JP4786153B2 (en) 2004-08-06 2004-08-06 Recorded video editing and display method

Country Status (1)

Country Link
JP (1) JP4786153B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257483A (en) * 2010-07-15 2010-11-11 Fujitsu Ten Ltd Driving support device and driving support method
JP2011008579A (en) * 2009-06-26 2011-01-13 Sanyo Electric Co Ltd Image processor, imaging apparatus, and reproduction device
JP2011010199A (en) * 2009-06-29 2011-01-13 Mitsubishi Electric Corp Video monitoring system
JP2011028748A (en) * 2010-07-15 2011-02-10 Fujitsu Ten Ltd Driving support device, driving support system, driving support software, and driving support method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001309368A (en) * 2000-04-26 2001-11-02 Matsushita Electric Ind Co Ltd Digital image recording and reproducing device for monitoring
JP2002057967A (en) * 2001-04-27 2002-02-22 Mitsubishi Electric Corp Video information display system
JP2002344897A (en) * 2001-05-16 2002-11-29 Mitsubishi Electric Corp Video display device
JP2004112153A (en) * 2002-09-17 2004-04-08 Fujitsu Ltd Image processing system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001309368A (en) * 2000-04-26 2001-11-02 Matsushita Electric Ind Co Ltd Digital image recording and reproducing device for monitoring
JP2002057967A (en) * 2001-04-27 2002-02-22 Mitsubishi Electric Corp Video information display system
JP2002344897A (en) * 2001-05-16 2002-11-29 Mitsubishi Electric Corp Video display device
JP2004112153A (en) * 2002-09-17 2004-04-08 Fujitsu Ltd Image processing system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008579A (en) * 2009-06-26 2011-01-13 Sanyo Electric Co Ltd Image processor, imaging apparatus, and reproduction device
JP2011010199A (en) * 2009-06-29 2011-01-13 Mitsubishi Electric Corp Video monitoring system
JP2010257483A (en) * 2010-07-15 2010-11-11 Fujitsu Ten Ltd Driving support device and driving support method
JP2011028748A (en) * 2010-07-15 2011-02-10 Fujitsu Ten Ltd Driving support device, driving support system, driving support software, and driving support method

Also Published As

Publication number Publication date
JP4786153B2 (en) 2011-10-05

Similar Documents

Publication Publication Date Title
KR100896949B1 (en) Image Monitoring System for Object Identification
RU2702160C2 (en) Tracking support apparatus, tracking support system, and tracking support method
US10019877B2 (en) Apparatus and methods for the semi-automatic tracking and examining of an object or an event in a monitored site
US7940432B2 (en) Surveillance system having a multi-area motion detection function
KR102164863B1 (en) Information processing apparatus, method thereof, and computer readable storage medium
KR101964683B1 (en) Apparatus for Processing Image Smartly and Driving Method Thereof
JP6013923B2 (en) System and method for browsing and searching for video episodes
WO2021167374A1 (en) Video search device and network surveillance camera system including same
JP6415061B2 (en) Display control apparatus, control method, and program
JP2008092279A (en) Monitoring system and monitoring method
KR101033238B1 (en) Video surveillance system and recording medium recording in which video surveillance program is recorded
JP4786153B2 (en) Recorded video editing and display method
WO2021172943A1 (en) Video search device and network surveillance camera system comprising same
KR20160048428A (en) Method and Apparatus for Playing Video by Using Pan-Tilt-Zoom Camera
KR20180075506A (en) Information processing apparatus, information processing method, and program
KR200396567Y1 (en) Auto tele and wide zooming camera
KR20180075145A (en) Method for generating and searching object data for analyzing large amounts of CCTV video
KR20040084222A (en) System and Method for Tracking and Monitering a Moving Object
KR101362630B1 (en) Method for chasing object moving path in digital video recorder
KR101666812B1 (en) Cctv monitoring system for detecting event occurrence using virtual line and method thereof
JP4675217B2 (en) Tracking type monitoring system
JP4185376B2 (en) Image processing system
KR101615243B1 (en) Video surveillance apparatus for intelligent security and video surveillance method thereof
KR101498608B1 (en) Apparatus for searching image data
JP4175622B2 (en) Image display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100623

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110628

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110713

R150 Certificate of patent or registration of utility model

Ref document number: 4786153

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees