JPWO2015087730A1 - Monitoring system - Google Patents

Monitoring system Download PDF

Info

Publication number
JPWO2015087730A1
JPWO2015087730A1 JP2015552396A JP2015552396A JPWO2015087730A1 JP WO2015087730 A1 JPWO2015087730 A1 JP WO2015087730A1 JP 2015552396 A JP2015552396 A JP 2015552396A JP 2015552396 A JP2015552396 A JP 2015552396A JP WO2015087730 A1 JPWO2015087730 A1 JP WO2015087730A1
Authority
JP
Japan
Prior art keywords
image
unit
camera
video
intruder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015552396A
Other languages
Japanese (ja)
Other versions
JP6403687B2 (en
Inventor
藤井 幸
幸 藤井
山口 宗明
宗明 山口
晴洋 古藤
晴洋 古藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Publication of JPWO2015087730A1 publication Critical patent/JPWO2015087730A1/en
Application granted granted Critical
Publication of JP6403687B2 publication Critical patent/JP6403687B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

複数のカメラの視野に同時に侵入者が入ってきた場合に、モニタ表示されているカメラに対してのみしか状況確認ができないという欠点が改善された監視システムが開示される。このシステムは、複数のカメラにより撮影された映像を取得する映像取得手段と、該映像取得手段で取得した映像から物体を検知する物体検知手段と、映像表示手段と、該映像表示手段に映像を表示する映像表示制御手段とを備える。映像表示制御手段は映像受信部とアラーム受信部とマップ表示部とブザー制御部と映像切替部と座標変換部とマップ作成部と位置判定部と物体重畳部と軌跡重畳部の機能を有する。映像表示制御手段は、平面の地図画像にカメラの配置画像と透視立体物画像を重畳した第1の出力と、アラーム受信部でアラームを受信した場合に侵入者または侵入物を表す画像と侵入軌跡とカメラの配置画像を平面の地図画像に重畳した第2の出力を有する。A monitoring system is disclosed which has an improved defect that the situation can be confirmed only for the cameras displayed on the monitor when an intruder enters the field of view of a plurality of cameras at the same time. The system includes a video acquisition unit that acquires video captured by a plurality of cameras, an object detection unit that detects an object from the video acquired by the video acquisition unit, a video display unit, and a video displayed on the video display unit. Video display control means for displaying. The video display control means has functions of a video reception unit, an alarm reception unit, a map display unit, a buzzer control unit, a video switching unit, a coordinate conversion unit, a map creation unit, a position determination unit, an object superposition unit, and a trajectory superposition unit. The video display control means includes a first output obtained by superimposing a camera arrangement image and a perspective three-dimensional object image on a planar map image, an image representing an intruder or an intruder when an alarm is received by an alarm receiver, and an intrusion locus. And a second output in which the arrangement image of the camera is superimposed on the planar map image.

Description

本発明は、監視システムに関するものである。   The present invention relates to a monitoring system.

背景技術として、侵入者の自動検知機能を有した従来の監視システムを、図1〜図4を用いて説明する。
図1に、従来の監視システムのシステム構成図が示される。
図1のシステムは、敷地内を5台のカメラで監視するものであり、カメラ101、物体検知部102、映像配信部103、LAN_SW(Local Area Network SWitch)104、モニタ表示用PC(Personal Computer)105で構成される。
カメラ101で撮影された映像は、物体検知部102に入力される。
物体検知部102は、入力された映像に対して、侵入者・侵入物検知処理を行い、入力された映像に各種情報(線、文字、マーカーなど)を重畳し、検知結果映像を出力する。
映像配信部103は、物体検知部102から出力された検知結果映像を圧縮し、LANで映像を配信する。映像配信部103で配信された映像は、モニタ表示用PC105で受信し復号されて、モニタ表示用PC105に接続されたモニタ部210に表示する。
As a background art, a conventional monitoring system having an intruder automatic detection function will be described with reference to FIGS.
FIG. 1 shows a system configuration diagram of a conventional monitoring system.
The system in FIG. 1 monitors the site with five cameras, and includes a camera 101, an object detection unit 102, a video distribution unit 103, a LAN_SW (Local Area Network SWitch) 104, and a monitor display PC (Personal Computer). 105.
An image captured by the camera 101 is input to the object detection unit 102.
The object detection unit 102 performs an intruder / intruder detection process on the input video, superimposes various information (lines, characters, markers, etc.) on the input video, and outputs a detection result video.
The video distribution unit 103 compresses the detection result video output from the object detection unit 102 and distributes the video through the LAN. The video distributed by the video distribution unit 103 is received and decoded by the monitor display PC 105 and displayed on the monitor unit 210 connected to the monitor display PC 105.

図4は、物体検知部102のブロック図である。
物体検知部102は、同軸ケーブル等で接続されたカメラ101から映像信号を入力され、A/D変換(Analog/Digital Conversion)などを行いデジタル画像データとして取り込むための画像入力I/F(InterFace)401、画像を一時記憶する画像メモリ402、画像処理のためのデータを一時記憶するためのワークメモリ部403、プログラムを実行するためのCPU(Central Processing Unit)204、画像メモリ402に記憶された映像をD/A変換し外部に出力するための画像出力I/F405、プログラムメモリ406、データバス407、モニタ表示用PC105へのアラーム通知やモニタ表示用PC105からのパラメータ設定のためのLAN_I/F408で構成されている。
FIG. 4 is a block diagram of the object detection unit 102.
An object detection unit 102 receives an image signal from a camera 101 connected by a coaxial cable or the like, performs an A / D conversion (Analog / Digital Conversion), and the like, and inputs an image input I / F (InterFace). 401, an image memory 402 for temporarily storing images, a work memory unit 403 for temporarily storing data for image processing, a CPU (Central Processing Unit) 204 for executing a program, and a video stored in the image memory 402 Is an image output I / F 405 for D / A conversion and output to the outside, a program memory 406, a data bus 407, a LAN_I / F 408 for alarm notification to the monitor display PC 105 and parameter setting from the monitor display PC 105 It is configured.

プログラムメモリ406には、侵入者・侵入物検知ソフト409が記憶されている。
侵入者・侵入物検知ソフト409は、カメラの映像101を画像入力I/F401で取込み、画像メモリ402、ワークメモリ403を用いて、一般的なモーションディテクタに代表されるフレーム間差分処理、しきい値処理、物体判定(面積・幅・高さの判定)により、侵入者・侵入物検知を行うものである。
侵入者・侵入物検知ソフト409は、画像メモリ402に記憶された画像(処理途中過程の画像(差分画像や二値画像)や、入力画像に処理結果を重畳した処理結果画像など)を画像出力I/F405を用いて、モニタなどに表示する機能を持っている。また、検知処理の結果すなわち、侵入者・侵入物検知開始/終了の信号は、LAN_I/F201により、モニタ表示用PC105に通知される。
An intruder / intruder detection software 409 is stored in the program memory 406.
The intruder / intruder detection software 409 captures the video 101 of the camera with the image input I / F 401 and uses the image memory 402 and the work memory 403 to perform inter-frame difference processing represented by a general motion detector, threshold value, and the like. Intruder / intruder detection is performed by processing and object determination (area / width / height determination).
The intruder / intruder detection software 409 outputs an image stored in the image memory 402 (an image in the middle of processing (difference image or binary image), a processing result image obtained by superimposing a processing result on an input image, or the like). It has a function of displaying on a monitor or the like using the I / F 405. Further, the detection result, that is, the intruder / intruder detection start / end signal is notified to the monitor display PC 105 by the LAN_I / F 201.

図2はモニタ表示用PC105の機能ブロック図であり、図3はモニタ表示用PC105で生成された監視用映像をモニタに表示した図である。
図2において、モニタ表示用PC105は、物体検知部102からのアラーム通知受信、物体検知部102のパラメータ送受信、映像配信部103からの配信映像の受信に用いるLAN_I/F201、データの演算や記憶を行うためのメモリ202、マップデータが記憶されているHDD23、プログラムを実行するためのCPU204、ポインティングデバイス212やキーボードなどでモニタ表示用PCの操作するための入力I/F205、プログラムメモリ206、ブザー211を制御(ON/OFF)するためのブザー出力I/F207、生成した表示マップ画像306及び表示カメラ映像307をD/A変換してモニタに出力するためのモニタ出力I/F208、データバス209、ポインティングデバイス212、モニタ部210−1〜210−2、ブザー211で構成されている。
FIG. 2 is a functional block diagram of the monitor display PC 105, and FIG. 3 is a diagram in which the monitor video generated by the monitor display PC 105 is displayed on the monitor.
In FIG. 2, the monitor display PC 105 receives an alarm notification from the object detection unit 102, transmits / receives parameters of the object detection unit 102, LAN_I / F 201 used to receive distribution video from the video distribution unit 103, and calculates and stores data. Memory 202 for performing, HDD 23 storing map data, CPU 204 for executing a program, input I / F 205 for operating a monitor display PC with a pointing device 212 or a keyboard, a program memory 206, a buzzer 211 Buzzer output I / F 207 for controlling (ON / OFF), monitor output I / F 208 for D / A converting the generated display map image 306 and display camera video 307 and outputting to the monitor, data bus 209, Pointing device 212, monitor unit 2 0-1~210-2, and a buzzer 211.

プログラムメモリ206には、モニタ表示用ソフトウェアが記憶され、モニタ表示用ソフトウェアは、映像受信部206−1、アラーム受信部206−2、マップ表示部206―3、ブザー制御部206−4、映像切替部206−5で構成される。
映像受信部206−1は、映像配信部103から配信された映像を、LAN_I/F201を使用して受信を行い、受信した映像を復号してメモリに保持し、必要に応じ復号前の映像データをHDDにも記録する。ここでメモリもしくはHDDに記憶するカメラの映像は、全てのカメラであっても、表示カメラ映像307に表示されるカメラのみのどちらの形態もある。
アラーム受信部206−2は、物体検知部102から出力された侵入者・侵入物検知開始/終了の信号を受信し、受信した信号状態を元に、各カメラの警報状態(1回前及び現在の侵入者または侵入物のあり/なし)をメモリ202に記録する。管理上、各アラームには受信順にシリアル番号(受信されたアラームID)が付され、発報種別、発報元のカメラID、時刻、位置情報等が記録される。
記憶した侵入者または侵入物検知の開始/終了の信号は、マップ表示部206−3でのマップ表示画面の生成、ブザー制御部206−4のブザー制御や、映像切替部206−5のカメラ映像として表示する画面の選択制御に用いられる。
The program memory 206 stores monitor display software. The monitor display software includes a video reception unit 206-1, an alarm reception unit 206-2, a map display unit 206-3, a buzzer control unit 206-4, and video switching. Part 206-5.
The video receiving unit 206-1 receives the video distributed from the video distribution unit 103 using the LAN_I / F 201, decodes the received video, holds it in a memory, and stores video data before decoding as necessary. Is also recorded on the HDD. Here, the video of the camera stored in the memory or the HDD may be all cameras or only the camera displayed in the display camera video 307.
The alarm receiving unit 206-2 receives the intruder / intruder detection start / end signal output from the object detection unit 102, and based on the received signal state, the alarm state (previous and current) of each camera. Intruder or presence / absence of intruder) is recorded in the memory 202. For management purposes, each alarm is assigned a serial number (received alarm ID) in the order of reception, and a notification type, a camera ID of the notification source, time, position information, and the like are recorded.
The stored intruder or intruder detection start / end signal is generated as a map display screen generation on the map display unit 206-3, a buzzer control on the buzzer control unit 206-4, or a camera image on the video switching unit 206-5. It is used for the selection control of the screen to be displayed.

マップ表示部206−3、ブザー制御部206−4、映像切替部206−5の動作について、図3を用いて説明する。
HDD23に記憶されたマップデータ303を読み込み、メモリ202上にマップ画像(1)として記憶する。マップ画像 (1)に対して、HDD23に記憶されたカメラ台数/表示位置情報、ボタンの名称/表示位置情報のデータを読み込み、マップ画像 (1)にマップ表示切替ボタン301、カメラアイコン302、警報確認ボタン304、ブザー停止ボタン305を追加し、マップ画像 (2)として、メモリ202上に保存する。
アラーム受信部206−2でメモリ202に記憶された各カメラの警報状態(1回前及び現在の侵入者・侵入物あり/なし)を元に、マップ表示切替ボタン301及び、警報確認ボタン304、ブザー停止ボタン305の色を変更する機能を有している。
本公知例は、侵入者・侵入物なしの場合にはマップ表示切替ボタン301の色を「緑」、侵入者・侵入物ありの場合にはマップ表示切替ボタン301の色を「赤」、マップ画像303に相当する場所(1F〜3F及び外周)のマップ表示切替ボタン301は色を「白」に設定する。
侵入者または侵入物なしの場合には、カメラアイコン302の色を「青」、侵入者または侵入物ありの場合にはカメラアイコン302の色を「赤」、モニタ部210に表示する表示カメラ映像307に相当するカメラは、カメラアイコン302の色を「橙」に設定する。
警報確認ボタン304、ブザー停止ボタン305は、通常「薄黄色」に設定し、「警報なし」から「警報あり」の状態に変わったときには、警報確認ボタン304、ブザー停止ボタン305の色は「赤」に設定する。
Operations of the map display unit 206-3, the buzzer control unit 206-4, and the video switching unit 206-5 will be described with reference to FIG.
The map data 303 stored in the HDD 23 is read and stored as a map image (1) on the memory 202. For the map image (1), the number of cameras / display position information and the button name / display position information stored in the HDD 23 are read, and the map display switch button 301, camera icon 302, alarm are stored in the map image (1). A confirmation button 304 and a buzzer stop button 305 are added and saved on the memory 202 as a map image (2).
Based on the alarm status of each camera stored in the memory 202 by the alarm receiver 206-2 (previous and current intruder / intruder present / not present), a map display switching button 301, an alarm confirmation button 304, It has a function of changing the color of the buzzer stop button 305.
In this known example, the color of the map display switching button 301 is “green” when there is no intruder / intruder, and the color of the map display switching button 301 is “red” when there is an intruder / intruder. The map display switching button 301 in the place corresponding to the image 303 (1F to 3F and the outer periphery) sets the color to “white”.
When there is no intruder or intruder, the color of the camera icon 302 is “blue”, and when there is an intruder or intruder, the color of the camera icon 302 is “red”, and the display camera image displayed on the monitor unit 210 The camera corresponding to 307 sets the color of the camera icon 302 to “orange”.
The alarm confirmation button 304 and the buzzer stop button 305 are normally set to “light yellow”, and when the state changes from “no alarm” to “alarm present”, the color of the alarm confirmation button 304 and the buzzer stop button 305 is “red”. To "".

警報ありの状態でも、監視員がポインティングデバイス212を操作し、警報確認ボタン304または、ブザー停止ボタン305を選択した場合には、通常の「薄黄色」に設定する。これで、モニタ部210に表示するための表示マップ画像306が生成される。なお、ポインティングデバイス212は画面上のボタンなどをユーザが任意に指定することができれば良く、一般的にはマウスやタッチパネルが使われることが多い。
ブザー制御部206−4では、アラーム受信部206−2でメモリ202に記憶された各カメラの警報状態(1回前及び、現在の侵入者・侵入物あり/なし)及び、ブザー停止ボタン305の状態を判断し、ブザー211の鳴動及び鳴動停止の制御を行う。
各カメラの警報状態で1回前:侵入者・侵入物なしでかつ、現在:侵入者・侵入物ありでかつ、ブザー停止ボタン305が通常状態(ボタン色が黄色)であった場合にのみ、ブザー出力I/F207に対して、ブザー211を鳴動させるように制御する。監視員がブザー停止の操作(ポインティングデバイス212を操作。ブザー停止ボタン305が警報状態(ボタン色が赤)を選択)した場合、ブザー出力I/F207に対して、ブザー211の鳴動停止させるように制御する。
Even when there is an alarm, when the monitor operates the pointing device 212 and selects the alarm confirmation button 304 or the buzzer stop button 305, the normal “light yellow” is set. Thereby, a display map image 306 to be displayed on the monitor unit 210 is generated. Note that the pointing device 212 only needs to allow the user to arbitrarily specify buttons on the screen, and generally a mouse or a touch panel is often used.
In the buzzer control unit 206-4, the alarm state of each camera stored in the memory 202 by the alarm receiving unit 206-2 (previous and present / no intruder / intruder) and the buzzer stop button 305 are displayed. The state is determined, and the buzzer 211 is controlled to be sounded and stopped.
Once in the alarm state of each camera: No intruder / intruder, and present: Intruder / intruder, and buzzer stop button 305 is in normal state (button color is yellow) Control is performed so that the buzzer 211 sounds in response to the buzzer output I / F 207. When the buzzer stop operation (operates the pointing device 212. When the buzzer stop button 305 selects the alarm state (button color is red)), the buzzer output I / F 207 stops the buzzer 211 from sounding. Control.

映像切替部206−5は、監視員の表示カメラ映像307の切替操作(ポインティングデバイス212を操作、カメラアイコン302を選択)した場合、表示カメラ映像307を監視員が選択したカメラに切替える。
映像受信部206−1で全てのカメラ映像をメモリもしくはHDD23に記憶している場合には、メモリもしくはHDD23に記憶されている表示カメラ映像307を読み込めば良いし、表示カメラ映像307のカメラのみメモリもしくはHDD23に記憶している場合には、映像受信部206−1で受信するカメラの切替、映像受信後に、表示カメラ映像307を読み込む動作となる。
映像切替部206−5は、アラーム発生していない状態(警報確認ボタン304が通常状態(ボタン色が黄色))に、新たにアラームが発生していた場合(各カメラの警報状態で1回前:侵入者または侵入物なしでかつ、現在:侵入者または侵入物ありのカメラあり)には、表示カメラ映像307を切替える制御も行うし、警報確認ボタン304が押された場合に、他のカメラでのアラームが発生していた場合には、アラーム発生しているカメラの映像に表示カメラ映像307を切替える制御も行う。
The video switching unit 206-5 switches the display camera video 307 to the camera selected by the monitor when the monitor's display camera video 307 is switched (operating the pointing device 212 and the camera icon 302 is selected).
When all video images are stored in the memory or HDD 23 by the video receiver 206-1, the display camera video 307 stored in the memory or HDD 23 may be read, and only the camera of the display camera video 307 is stored in the memory. Alternatively, when the image is stored in the HDD 23, the display camera image 307 is read after the switching of the camera received by the image receiving unit 206-1 and the image reception.
The video switching unit 206-5 is in a state where an alarm has not occurred (the alarm confirmation button 304 is in a normal state (button color is yellow)) and a new alarm has occurred (in the alarm state of each camera, one time before : No intruder or intruder and currently: intruder or camera with intruder) is also controlled to switch the display camera image 307, and when the alarm confirmation button 304 is pressed, other cameras When an alarm is generated in the above case, control is also performed to switch the display camera image 307 to the image of the camera in which the alarm has occurred.

また、監視分野において、例えば駐車場などのカメラ監視では1台のカメラだけでは障害物によりカメラ画像に死角が発生してしまうことがある。また、死角をカバーするためにカメラを複数にすると、監視する空間は1カ所であるのに、カメラの台数だけ監視画像を表示するモニタが必要になる。一般に複数カメラの画像監視では、1つのモニタ画面を16分割した各領域に各カメラの画像を表示したり、時分割によりシーケンシャル表示したりして、1台のモニタで監視することもある。だが、モニタ台数は減っても分割画面の数だけ監視する情報が増えるため、モニタが複数台あるのと変わらずモニタを見る監視者に負担を強いることがある。   Further, in the monitoring field, for example, in camera monitoring in a parking lot or the like, a blind spot may occur in a camera image due to an obstacle with only one camera. In addition, when a plurality of cameras are used to cover the blind spot, a monitor for displaying monitoring images as many as the number of cameras is required even though there is only one space to be monitored. In general, when monitoring images from a plurality of cameras, the image of each camera may be displayed in each area obtained by dividing one monitor screen into 16 parts, or may be displayed sequentially by time division, and may be monitored by one monitor. However, even if the number of monitors is reduced, the number of information to be monitored increases by the number of divided screens, so that there is a burden on the observer who looks at the monitor as there are multiple monitors.

特開2005−117580号公報JP 2005-117580 A 特開2008−5450号公報JP 2008-5450 A 特開2000−331279号公報JP 2000-33279 A 特開2011−151459号公報JP 2011-151594 A 特開2006−148221号公報JP 2006-148221 A

前述の背景技術には、4つの課題がある。
第1の課題は、複数のカメラの視界のそれぞれに同時に複数の侵入者・侵入物が入ってきた場合に、モニタ表示されているカメラに対してのみしか状況確認ができない。その他カメラの確認を行うためには監視員の操作が必要となり、監視員が操作するまでのタイムラグによっては、確認した際にはそのカメラに侵入者・侵入物が映っておらず、結果として見逃しが発生する。
第2の課題は、カメラで視野が重複している部分があった場合には、単一の侵入者であっても複数のアラームが発生しうるため、侵入者が複数であるような状況と間違えやすい、或いは、全てのカメラに対してアラーム確認が必要となる点である。
第3の課題は、中規模・大規模監視システムでは監視カメラ設置場所マップ作成に労力がかかる。
第4の課題は、1カ所の空間を複数のカメラで監視すると、重なった領域を監視しているのにも関わらず、モニタ台数がカメラ台数だけ必要になる。
There are four problems with the background art described above.
The first problem is that when a plurality of intruders / intruders enter the fields of view of a plurality of cameras at the same time, the situation can be confirmed only for the cameras displayed on the monitor. In order to check other cameras, it is necessary to operate the surveillance staff. Depending on the time lag until the surveillance staff operates, there are no intruders or intruders on the camera when they are confirmed. Will occur.
The second problem is that when there are overlapping parts of the field of view on the camera, even a single intruder can generate multiple alarms. It is easy to make a mistake, or alarm confirmation is required for all cameras.
The third problem is that in a medium-scale / large-scale monitoring system, it takes effort to create a monitoring camera installation location map.
The fourth problem is that when a single space is monitored by a plurality of cameras, the number of monitors is the same as the number of cameras, although the overlapping area is monitored.

本発明の監視システムは、複数のカメラにより撮影された映像を取得する映像取得手段と、該映像取得手段で取得した映像から物体を検知する物体検知手段と、映像表示手段と、該映像表示手段に映像を表示する映像表示制御手段を有する監視システムであって、映像表示制御手段は映像受信部とアラーム受信部とマップ表示部とブザー制御部と映像切替部と座標変換部とマップ作成部と位置判定部と物体重畳部と軌跡重畳部の機能を有し、映像表示制御手段は、平面の地図画像にカメラの配置画像と透視立体物画像を重畳した第1の出力と、アラーム受信部でアラームを受信した場合に侵入者または侵入物を表す画像と侵入軌跡とカメラの配置画像を平面の地図画像に重畳した第2の出力を有することを特徴とする。   The monitoring system according to the present invention includes a video acquisition unit that acquires video captured by a plurality of cameras, an object detection unit that detects an object from the video acquired by the video acquisition unit, a video display unit, and the video display unit. A video display control means for displaying video on the video display control means, the video display control means comprising: a video reception unit, an alarm reception unit, a map display unit, a buzzer control unit, a video switching unit, a coordinate conversion unit, and a map creation unit; The video display control means has a first output obtained by superimposing a camera arrangement image and a perspective three-dimensional object image on a planar map image, and an alarm receiving unit. A second output in which an image representing an intruder or an intruder, an intrusion locus, and a camera arrangement image are superimposed on a planar map image when an alarm is received is provided.

また、本発明の監視システムは、上述の監視システムであって、映像表示制御手段はさらにCG選択部を有し、映像表示制御手段は平面の地図画像にカメラの配置画像と透視立体物画像を重畳した第1の出力と、アラーム受信部でアラームを受信した場合に侵入者または侵入物を表すCG画像と侵入軌跡とカメラの配置画像を平面の地図画像に重畳した第2の出力を有することを特徴とする。   The monitoring system of the present invention is the above-described monitoring system, wherein the video display control means further includes a CG selection unit, and the video display control means adds the camera arrangement image and the perspective three-dimensional object image to the planar map image. A first output superimposed, and a second output in which a CG image representing an intruder or an intruder, an intrusion locus, and a camera arrangement image are superimposed on a planar map image when an alarm is received by the alarm receiver. It is characterized by.

さらに、本発明の監視システムは、少なくとも2台のカメラと、該カメラ画像を画像処理する画像処理装置を有する監視システムであって、画像処理装置は複数のマーカー処理部と俯瞰座標変換部と俯瞰画像作成部と、俯瞰画像合成部を有し、カメラは同じマーカーを撮影し、マーカーは前後左右の識別可能な図柄を有し、マーカー処理部はカメラ画像からマーカーを検出し、俯瞰座標変換部はマーカーを基準にカメラ画像に所定回転を施し、
カメラ画像から俯瞰画像を作成する俯瞰画像作成部は、マーカーの2辺以上の長さや傾きから、カメラの高さやカメラが設置されている地面との角度のカメラパラメータを算出し、算出したカメラパラメータを元に仮想的な俯瞰カメラで見たような真上からの画像に変換し、同じ大きさの物体であれば画面のどこに置いても同じ大きさになるように俯瞰画像を作成し、俯瞰画像合成部は、複数の俯瞰画像を1つの画像に合成することを特徴とする。
Furthermore, the monitoring system of the present invention is a monitoring system having at least two cameras and an image processing device that performs image processing on the camera image, and the image processing device includes a plurality of marker processing units, an overhead coordinate conversion unit, and an overhead view. It has an image creation unit and an overhead view image synthesis unit, the camera captures the same marker, the marker has front, back, left and right identifiable patterns, the marker processing unit detects the marker from the camera image, and the overhead view coordinate conversion unit Performs a predetermined rotation on the camera image based on the marker,
The overhead image creation unit that creates the overhead image from the camera image calculates the camera parameter of the camera height and the angle with the ground where the camera is installed from the length and inclination of two or more sides of the marker, and calculates the calculated camera parameter Is converted into an image from directly above as seen with a virtual overhead camera, and if it is an object of the same size, an overhead image is created so that it will be the same size no matter where it is placed on the screen, The image combining unit combines a plurality of overhead images into one image.

本発明によれば、複数のカメラを切替操作なく少ないモニタ台数で監視できるため、監視員の負担を軽減したモニタ表示を提供することができる。
また、カメラ画像を俯瞰画像に変換することで、1枚の監視画像で監視対象の空間の全体を把握することができる。
According to the present invention, since a plurality of cameras can be monitored with a small number of monitors without switching operation, it is possible to provide a monitor display that reduces the burden on the supervisor.
Also, by converting the camera image into a bird's-eye view image, the entire space to be monitored can be grasped with one monitoring image.

従来技術および本発明の実施例に係る監視システムのブロック図。The block diagram of the monitoring system which concerns on the prior art and the Example of this invention. 従来の監視システムのモニタ表示用PC105の機能を説明するブロック図。The block diagram explaining the function of PC105 for monitor display of the conventional monitoring system. 従来の監視システムのモニタ表示を説明する図。The figure explaining the monitor display of the conventional monitoring system. 従来の監視システムの物体検知部102のブロック図。The block diagram of the object detection part 102 of the conventional monitoring system. 本発明の実施例1の物体検知部2の機能ブロック図。The functional block diagram of the object detection part 2 of Example 1 of this invention. 実施例1のモニタ表示用PC5の機能ブロック図。FIG. 3 is a functional block diagram of a monitor display PC 5 according to the first embodiment. モニタ表示用PC5による俯瞰表示のモニタ画面図。The monitor screen figure of the bird's-eye view display by PC5 for monitor display. モニタ表示用PC5による鳥瞰表示のモニタ画面図。The monitor screen figure of the bird's-eye view display by PC5 for monitor displays. 顔認識機能を備えたモニタ表示用PC5による俯瞰表示のモニタ画面図。The monitor screen figure of the bird's-eye view display by PC5 for monitor display provided with the face recognition function. 物体をCGで表示するモニタ表示用PC5のモニタ画面図。The monitor screen figure of PC5 for monitor display which displays an object by CG. 本発明の実施例2の監視システムにおける仮想的な俯瞰画像を説明する図。The figure explaining the virtual overhead view image in the monitoring system of Example 2 of this invention. カメラの高さと距離の関係を説明するための図。The figure for demonstrating the relationship between the height of a camera, and distance. 図12を真上から見た図。The figure which looked at FIG. 12 from right above. 撮像素子と像距離の関係を説明するための図。The figure for demonstrating the relationship between an image pick-up element and an image distance. 実施例2の監視システムにおいて、マーカーを道路に置いた状態を示す図であるIn the monitoring system of Example 2, it is a figure which shows the state which put the marker on the road. 実施例2の監視システムのマーカー処理部2200のブロック図。The block diagram of the marker process part 2200 of the monitoring system of Example 2. FIG. 実施例2の監視システムの画像処理装置2000のブロック図。FIG. 6 is a block diagram of an image processing apparatus 2000 of the monitoring system according to the second embodiment. 複数カメラでマーカーを撮影し俯瞰画像を生成する配置を説明する図。The figure explaining arrangement | positioning which image | photographs a marker with a some camera, and produces | generates an overhead image. 実施例2の監視システムの俯瞰画像合成部2005のブロック図。The block diagram of the bird's-eye view image synthetic | combination part 2005 of the monitoring system of Example 2. FIG. 実施例2の監視システムで使用するマーカーの他のデザインを示す図。The figure which shows the other design of the marker used with the monitoring system of Example 2. FIG.

本発明の各実施例の監視システムは、建物等の監視領域を鳥瞰透視しているように、カメラ映像をマッピングして画面に表示する。マッシュアップ手法により、サードパーティが提供するオンライン地図等を監視領域の地図画像として利用することができる。また、検知された侵入者の像を、検知位置にあわせて拡大されたサイズで合成表示する。侵入者の像から、ビデオ内容分析(VCA)技術により個人が特定され、侵入者はカメラに映るたびにその位置が特定され、追跡される。   The monitoring system of each embodiment of the present invention maps a camera video and displays it on a screen so that a monitoring area such as a building is seen through a bird's-eye view. With the mashup method, an online map or the like provided by a third party can be used as a map image of the monitoring area. In addition, the detected intruder image is combined and displayed in a size enlarged in accordance with the detection position. From the image of the intruder, individuals are identified by video content analysis (VCA) technology, and the intruder is located and tracked each time it appears on the camera.

実施例1の監視システムは、5台のカメラ1、5台の物体検知部2、5台の映像配信部3、LAN_SW4、及びモニタ表示用PC5で構成される。つまり、システムレベルでの構成は図1に示す従来システムと同じであり、説明を省略する。   The monitoring system according to the first embodiment includes five cameras 1, five object detection units 2, five video distribution units 3, LAN_SW 4, and a monitor display PC 5. That is, the configuration at the system level is the same as that of the conventional system shown in FIG.

(物体検知部の機能)
図5は、実施例1の監視システムの物体検知部2の機能ブロック図である。物体検知部2は、画像入力I/F21、画像メモリ22、ワークメモリ部23、CPU204、画像出力I/F25、プログラムメモリ26、ブザー出力I/F27、LAN_I/F28、データバス29、で構成されている。物体検知部2は、ハードウェア上は、従来の物体検知部102と構成が似ているが、プログラムメモリ26に格納されたプログラムが従来とは大きく異なる。
プログラムメモリ26は、画像取込部31、背景作成部32、差分処理部33、二値化処理部34、ラベリング部35、追跡処理部36、判定処理部37、物体種別判定部38、表示用物体領域抽出部39、ワールド座標算出部40、表示用軌跡作成部41、及び、表示用データ作成部42の機能モジュールで構成されている。
(Function of the object detection unit)
FIG. 5 is a functional block diagram of the object detection unit 2 of the monitoring system according to the first embodiment. The object detection unit 2 includes an image input I / F 21, an image memory 22, a work memory unit 23, a CPU 204, an image output I / F 25, a program memory 26, a buzzer output I / F 27, a LAN_I / F 28, and a data bus 29. ing. The object detection unit 2 is similar in configuration to the conventional object detection unit 102 in hardware, but the program stored in the program memory 26 is significantly different from the conventional one.
The program memory 26 includes an image capture unit 31, a background creation unit 32, a difference processing unit 33, a binarization processing unit 34, a labeling unit 35, a tracking processing unit 36, a determination processing unit 37, an object type determination unit 38, and a display The function module includes an object region extraction unit 39, a world coordinate calculation unit 40, a display trajectory creation unit 41, and a display data creation unit 42.

画像取込部31は、画像入力I/F21を用いてカメラ1の映像を取り込むことで、例えば、0〜255の256階調の輝度信号で構成される入力画像に変換し、入力画像を画像メモリ22に保存する。
背景作成部32は、画像メモリ22に記憶された入力画像を、一定数取り込みながら、例えば加重平均するなどの方法で物体のいない背景画像を生成し、画像メモリ22に保存する。なお、この侵入者・侵入物検知は物体の存在時間が短い場所で使われることを前提としている。
The image capturing unit 31 captures the video of the camera 1 using the image input I / F 21 to convert the input image into, for example, an input image composed of luminance signals of 256 gradations from 0 to 255. Save in the memory 22.
The background creation unit 32 generates a background image without an object by, for example, a weighted average while capturing a certain number of input images stored in the image memory 22 and stores the background image in the image memory 22. This intruder / intruder detection is based on the assumption that the object exists for a short time.

差分処理部33は、画像メモリ22に記憶された背景画像と入力画像の画素ごとの差分を算出し、差分画像を画像メモリ22に保存する。
なお、背景画像と入力画像の画素ごとの差分とは、変化した部分を抽出する絶対値差分(|入力画像−背景画像|)、背景に対して明るくなった部分を抽出する差分(入力画像−背景画像)、背景に対して暗くなった部分を抽出する差分(背景画像−入力画像)であり、これは用途によって選択されるものである。
The difference processing unit 33 calculates a difference for each pixel between the background image and the input image stored in the image memory 22 and stores the difference image in the image memory 22.
Note that the difference for each pixel of the background image and the input image is an absolute value difference (| input image−background image |) for extracting a changed portion, or a difference (input image−) for extracting a portion that is brighter than the background. Background image) and a difference (background image-input image) for extracting a portion darkened with respect to the background, which is selected depending on the application.

二値化処理部34は、画像メモリ22に記憶された差分画像をしきい値処理し、例えば輝度値の階調が256段階であれば、差分値が所定のしきい値未満の画素を輝度値0、しきい値以上の画素を輝度値255とした二値画像を生成し、画像メモリ22に保存する。
ラベリング部35は、二値画像で得られた白画素に対してかたまりごとに番号付けを行い、物体個数の算出及び、ラベリング画像を画像メモリ22に保存するとともに、ラベリング画像に対して、特徴量抽出処理を行い、各物体の面積・幅・高さ・足元の位置の情報が得られる。
The binarization processing unit 34 performs threshold processing on the difference image stored in the image memory 22, and, for example, if the gradation of the luminance value is 256 levels, a pixel whose difference value is less than the predetermined threshold is determined as luminance. A binary image having a luminance value of 255 for a pixel having a value of 0 and a threshold value or more is generated and stored in the image memory 22.
The labeling unit 35 numbers the white pixels obtained in the binary image for each block, calculates the number of objects, stores the labeling image in the image memory 22, and applies a feature amount to the labeling image. Extraction processing is performed, and information on the area, width, height, and foot position of each object is obtained.

追跡処理部36では、ラベリング処理部35で得られた足元位置の情報を、過去と現在との間で比較し、最も足元位置の近いものを同一物体として関連付けることで、物体の追跡を行い、物体ごとに出現時間、滞在時間、軌跡情報、消失してからの経過時間(消失していない場合には0、消失時間が一定以上になるとその軌跡情報は削除)を算出する。   In the tracking processing unit 36, the information on the foot position obtained by the labeling processing unit 35 is compared between the past and the present, and the object having the closest foot position is correlated as the same object, thereby tracking the object. Appearance time, stay time, trajectory information, and elapsed time after disappearance (0 if no disappearance, trajectory information is deleted when the disappearance time exceeds a certain value) are calculated for each object.

判定処理部37では、ラベリング処理部35で得られた足元位置情報、面積、幅、高さと、追跡処理部36で算出された物体ごとの滞在時間、軌跡情報を用いて、予め設定した検知条件に合致するか否かを判定し、検知条件に合致した場合には、侵入者・侵入物ありと判断し、侵入者・侵入物ありのフラグ及び、侵入者・侵入物の足元位置情報(画面上のX,Y位置)、幅、高さをワークメモリ23に記憶する。
なお、判定処理部37の予め設定した検知条件とは、画面上に仮想エリアを設定し、その仮想エリアに物体が入ってきたときもしくはその仮想エリアに滞在時間以上物体が存在した場合に検知する。また、境界ライン即ち画面上に仮想ラインを設定し、その仮想ラインを物体が指定方向に横切った場合に検知する。さらに物体の大きさを条件に入れてもよい。
The determination processing unit 37 uses the foot position information, area, width, and height obtained by the labeling processing unit 35 and the stay time and trajectory information for each object calculated by the tracking processing unit 36 to set detection conditions set in advance. If the detection conditions are met, it is determined that there is an intruder / intruder, the intruder / intruder flag, and the intruder / intruder foot position information (screen The X, Y position), width, and height are stored in the work memory 23.
The detection condition set in advance by the determination processing unit 37 is detected when a virtual area is set on the screen and an object enters the virtual area or when an object exists in the virtual area for the duration of stay or longer. . In addition, a virtual line is set on the boundary line, that is, the screen, and detection is performed when the virtual line crosses the virtual line in the designated direction. Furthermore, the size of the object may be taken into consideration.

物体種別判定部38は、CGで作成された物体画像1001をモニタ表示用PC5で選択するために必要となる物体種別情報を生成する。物体画像1001は視認性の良いアイコン、イラストの類でもよく、詳細は後述する。物体種別としては、人,車,二輪車に乗った人,その他物体とする。   The object type determination unit 38 generates object type information necessary for selecting the object image 1001 created by CG on the monitor display PC 5. The object image 1001 may be an icon or illustration with good visibility, details of which will be described later. As the object type, a person, a car, a person on a two-wheeled vehicle, and other objects are used.

なお、判定処理部37では、侵入者または侵入物と判断された物体に対して、物体種別を算出する。
物体種別の判断方法としては、以下の分類方法がある。
大きさ判定による分類は、物体の幅(画素)、高さ(画素)を、カメラの設置条件(カメラの高さ、俯角、焦点距離、CCDサイズ)と物体の足元位置から実際の物体の幅(m)、高さ(m)を算出し、人、二輪車(自転車,バイク)に乗った人,車,その他の4種類に分類する。
速度による分類は、大きさ判定による分類で人、二輪車に乗った人と判断された物体に対して、最新と最古の軌跡情報(画素)を、カメラの設置条件、例えば、カメラの高さ,俯角,焦点距離,CCDサイズから実際の距離(m)に変換し、最新と最古の軌跡情報の時間差から速度を算出することにより、人と二輪車に乗った人を分類する。
Note that the determination processing unit 37 calculates an object type for an object determined to be an intruder or an intruder.
As a method for determining the object type, there are the following classification methods.
Classification based on size determination is based on the width (pixel) and height (pixel) of the object, the actual object width based on the camera installation conditions (camera height, depression angle, focal length, CCD size) and the foot position of the object. (M) and height (m) are calculated and classified into four types: human, person riding a motorcycle (bicycle, motorcycle), car, and others.
The classification based on speed is based on the size determination, and the latest and oldest trajectory information (pixels) is determined for the object that is determined to be a person or a person riding a motorcycle. , The depression angle, the focal length, and the CCD size are converted into the actual distance (m), and the speed is calculated from the time difference between the latest and oldest trajectory information, thereby classifying the person and the person on the motorcycle.

上記の大きさ判定による分類、速度による分類で判断された分類精度を向上する方法として、物体の輪郭線の類似性を見る方法がある。
まず、物体が存在する位置周辺に対して、ラプラシアンフィルタなどのエッジ抽出処理により物体の輪郭線を抽出し、抽出した物体の輪郭線と、予め用意しておいた人の輪郭線モデル,車の輪郭線モデル,二輪車に乗った人の輪郭線モデルのどれに一番類似性があるかを判断することにより、人,車,二輪車に乗った人に分類し、どのモデルにも類似性がない物体はその他に分類する。
ここで、類似性をみるためには、予め用意した人の輪郭線モデル,車の輪郭線モデル,二輪車に乗った人の輪郭線モデルは、物体の位置(カメラからの距離(m))により拡大または縮小を行い、物体の大きさ変化の影響をなくすものとする。また、物体が存在する位置周辺範囲全てに対して類似性を算出することで、二値化処理部34で得られた二値画像や、ラベリング処理ステップ35で得られた物体の位置,幅,高さが、実際の物体よりも小さく検出されていた場合でも、分類精度を向上することが可能となる。
As a method of improving the classification accuracy determined by the classification based on the size determination and the classification based on the speed, there is a method of checking the similarity of the contour lines of the object.
First, the outline of the object is extracted by edge extraction processing such as a Laplacian filter around the position where the object exists, and the extracted outline of the object, a human outline model prepared in advance, By determining which contour model or contour model of a person riding a motorcycle has the most similarity, it is classified into a person, a car, or a person riding a motorcycle, and there is no similarity in any model Objects are classified as other.
Here, in order to see the similarity, the contour model of the person prepared in advance, the contour model of the car, and the contour model of the person riding the two-wheeled vehicle are determined by the position of the object (distance (m) from the camera). Enlarge or reduce to eliminate the effect of object size change. In addition, by calculating the similarity for all the range around the position where the object exists, the binary image obtained by the binarization processing unit 34, the position, width, and the like of the object obtained by the labeling processing step 35 are obtained. Even when the height is detected to be smaller than the actual object, the classification accuracy can be improved.

表示用物体領域抽出部39は、モニタ表示用PC5で表示する物体画像803を抽出するものである。物体画像803については図8の説明で後述する。
一般的に二値化処理部34で得られた二値画像や、ラベリング処理部35で得られた物体の位置,幅,高さを用いた場合には、影・物体のコントラストの影響を受け、物体の一部が欠けるもしくは物体よりも大きすぎるといった問題があり精度が低い。
そのため、得られた物体の足元位置、幅、高さを、物体種別判定部38で得られた物体種別に応じて拡張(例えば、人の場合、足元位置、幅、高さを物体の幅50cm、物体の高さ1.7m分拡張)し、拡張した範囲内でラプラシアンフィルタなどによりエッジ抽出を行い、エッジが一番密集している部分を中心として、物体種別に応じた範囲+規定範囲(例えば、5%)の範囲を切出すことによって、物体の範囲をかけることなく切出す。
また、影の影響に対しては、画像メモリ22に記憶された背景画像と入力画像の相関性を判断し、相関性が高い部分を物体以外、相関性が低い部分を物体と判断して得られた範囲に対して、上記の処理を行うことによって、影の影響を減らすことが可能となる。
The display object region extraction unit 39 extracts an object image 803 to be displayed on the monitor display PC 5. The object image 803 will be described later with reference to FIG.
In general, when the binary image obtained by the binarization processing unit 34 or the position, width, and height of the object obtained by the labeling processing unit 35 is used, it is affected by the contrast of the shadow / object. There is a problem that a part of the object is missing or too large, and the accuracy is low.
Therefore, the foot position, width, and height of the obtained object are expanded according to the object type obtained by the object type determination unit 38 (for example, in the case of a person, the foot position, width, and height are increased to 50 cm of the object width). The height of the object is expanded by 1.7 m), and edge extraction is performed with a Laplacian filter or the like within the expanded range, and the range according to the object type + specified range (centered around the portion where the edges are most concentrated) For example, by cutting out a range of 5%), cutting out the range of the object.
Further, the influence of the shadow is obtained by determining the correlation between the background image stored in the image memory 22 and the input image, and determining that the portion with high correlation is other than the object and the portion with low correlation is the object. It is possible to reduce the influence of shadows by performing the above-described processing on a given range.

ワールド座標算出部40は表示用物体領域抽出部39で算出した物体の足元位置を、カメラの設置条件(カメラの高さ、俯角、焦点距離、CCDサイズ)を利用して、カメラからの距離に変換するとともに、予め設定されたカメラの位置情報(敷地内のマップの左上の点を(0,0)としたときのカメラの相対位置(単位はメートル))を足すことで、実際の敷地上の位置情報を算出する。
表示用軌跡作成部41は、追跡処理部36で得られた軌跡情報(画素)を、ワールド座標算出部40と同様にカメラの設置条件を利用して、カメラからの距離に変換するとともに、予め設定されたカメラ位置を足すことで、実際の敷地上の位置情報を算出する。
ここで、軌跡は追跡処理部36を使うこととしたが、表示用物体領域抽出部39の処理を、追跡処理部36より前に行うことで、精度を向上することもできる。
The world coordinate calculation unit 40 converts the foot position of the object calculated by the display object region extraction unit 39 into a distance from the camera using camera installation conditions (camera height, depression angle, focal length, CCD size). By converting and adding the preset camera position information (relative camera position (unit is meter) when the upper left point of the map in the site is (0,0)) The position information of is calculated.
The display trajectory creation unit 41 converts the trajectory information (pixels) obtained by the tracking processing unit 36 into a distance from the camera using the camera installation conditions in the same manner as the world coordinate calculation unit 40, and in advance. The actual position information on the site is calculated by adding the set camera position.
Here, the tracking processing unit 36 is used for the trajectory, but the accuracy can be improved by performing the processing of the display object region extraction unit 39 before the tracking processing unit 36.

表示用データ作成部42は、物体種別判定部38で得られた物体種別情報、表示用物体領域抽出部39で得られた物体画像803、ワールド座標算出部40で得られた物体の実際の敷地上の位置情報、表示用軌跡作成部41で得られた実際の敷地上の軌跡情報を、一つのデータ、例えばステータスメッセージやファイルとしてまとめ、まとめたデータはLAN_I/F201を介してモニタ表示用PC105に送られる。物体画像803は、不定期に発生しうるので、フレーム間予測符号化の適用は困難であり、JPEGやイントラ予測符号化を用いて圧縮されることになるが、これは表示の遅延を抑える効果もある。   The display data creation unit 42 includes the object type information obtained by the object type determination unit 38, the object image 803 obtained by the display object region extraction unit 39, and the actual site of the object obtained by the world coordinate calculation unit 40. The location information above and the actual site trajectory information obtained by the display trajectory creation unit 41 are collected as a single data, for example, a status message or a file, and the collected data is sent to the monitor display PC 105 via the LAN_I / F 201. Sent to. Since the object image 803 can occur irregularly, it is difficult to apply inter-frame predictive coding, and the object image 803 is compressed using JPEG or intra-predictive coding, which has the effect of suppressing display delay. There is also.

(モニタ表示用PCの機能)
図6に、実施例1におけるモニタ表示用PC5の機能ブロック図が示される。
モニタ表示用PCは、カメラ映像の表示を制御する手段であり、本例のPC5は、物体の位置情報を元に重複物体を削除する機能や、顔切出し及び顔認証機能を利用して重複物体を削除する機能や、モニタ表示画像801に物体画像(顔)1201を重畳する機能を有しうる。
(Monitor display PC functions)
FIG. 6 shows a functional block diagram of the monitor display PC 5 in the first embodiment.
The monitor display PC is a means for controlling the display of the camera video. The PC 5 in this example uses the function of deleting the duplicate object based on the position information of the object, the face extraction and the face authentication function, and the duplicate object. And a function of superimposing the object image (face) 1201 on the monitor display image 801.

まず、物体の位置情報を元に重複物体を削除する機能について図6、図8、図9を参照して説明する。
図6に示されるモニタ表示用PC5中で、符号21〜29に係る構成は、26を除き従来のモニタ表示用PC105における201〜209と同様であるため、説明を省略する。プログラムメモリ26は、座標変換部51、マップ作成部52、位置判定部53、物体重畳部54、軌跡重畳部55を有する点で従来と異なる。
First, a function for deleting an overlapping object based on the position information of the object will be described with reference to FIGS. 6, 8, and 9. FIG.
In the monitor display PC 5 shown in FIG. 6, the configuration according to reference numerals 21 to 29 is the same as 201 to 209 in the conventional monitor display PC 105 except for 26, and thus the description thereof is omitted. The program memory 26 is different from the conventional one in that it includes a coordinate conversion unit 51, a map creation unit 52, a position determination unit 53, an object superimposing unit 54, and a trajectory superimposing unit 55.

座標変換部51は、HDD23に記憶されている市販地図や航空写真、衛星写真、或いは米国グーグル社などが提供しているオンライン地図であって建物の形状が把握できる程度の縮尺の画像を、所定の透視図法における所定の視点からの映像(鳥瞰表示・俯瞰表示)に変換し、地図画像801とする。俯瞰表示は、図9に示されるように地表を斜め下方向に眺めたような表示であり、CGなどで一般的に使われている透視変換を用いて元の地図画像を座標変換して得られる。この地図画像801を一番下のレイヤー(レイヤ0)とする。ここに、地図画像801に対応した透視図法及び視点で、建物の骨格をワイヤーフレームモデルで描画した建物フロア図(鳥瞰)802を重畳する。つまり建物フロア図(鳥瞰)802はレイヤ0より上のレイヤ1に描画される。建物の骨格情報は、初期的には、地図画像801における建物の輪郭からポリゴンとして再現し、与えられた階数の分だけ上方に押し出して生成する。一方、鳥瞰表示は、図8に示されるように地表面を真上から見下ろしたような表示でありd、正投影法などが用いられ、通常は地図画像がそのまま利用できる。   The coordinate conversion unit 51 is a commercial map stored in the HDD 23, an aerial photograph, a satellite photograph, or an online map provided by Google Inc. Is converted into an image (bird's-eye display / overhead display) from a predetermined viewpoint in the perspective projection method of FIG. The bird's-eye view display is a display as if the ground surface is viewed obliquely downward as shown in FIG. 9, and is obtained by coordinate-transforming the original map image using a perspective transformation generally used in CG or the like. It is done. Let this map image 801 be the lowest layer (layer 0). A building floor diagram (bird's-eye view) 802 in which a skeleton of the building is drawn with a wire frame model is superimposed on the perspective view and viewpoint corresponding to the map image 801. That is, the building floor view (bird's eye view) 802 is drawn on layer 1 above layer 0. Initially, the skeleton information of the building is generated as a polygon from the outline of the building in the map image 801 and is pushed upward by a given number of floors and generated. On the other hand, the bird's-eye view display is a display as if the ground surface was looked down from directly above as shown in FIG. 8, d, an orthographic projection method, or the like is used.

マップ作成部52は、座標変換部51で作成された地図画像801の上に、建物フロア図(鳥瞰)802を重畳した画像上に、HDD23に記憶された実際の敷地上のカメラ位置情報(画面上の左上を(0,0)とした場合のカメラ位置(m))で指定された位置に、カメラアイコン302を重畳するとともに、画面上の指定された位置に警報確認ボタン304、ブザー停止ボタン305を重畳する。つまり、カメラアイコン302等は、レイヤ2に描画される。   The map creation unit 52 includes camera position information (screen) on the actual site stored in the HDD 23 on an image obtained by superimposing a building floor diagram (bird's eye view) 802 on the map image 801 created by the coordinate conversion unit 51. The camera icon 302 is superimposed on the position designated by the camera position (m) when the upper left is (0, 0), and the alarm confirmation button 304 and the buzzer stop button are placed at the designated position on the screen. 305 is superimposed. That is, the camera icon 302 and the like are drawn on the layer 2.

位置判定部53は、物体検知部2のそれぞれから送信された実際の敷地上の位置/軌跡情報を元に、物体の重複を判断する。複数の物体検知部2から得られた実際の敷地上の位置/軌跡情報を比較および照合し、誤差が規定値以内(例えば、5%)であった場合には同一物体と判断する。同一物体と判断した場合、表示する物体画像が解像度(画素数)の最も高い方の位置情報を残し、解像度の低い位置情報は削除する。   The position determination unit 53 determines the overlap of objects based on the actual position / trajectory information on the site transmitted from each of the object detection units 2. The actual position / trajectory information on the site obtained from the plurality of object detection units 2 is compared and collated, and when the error is within a specified value (for example, 5%), it is determined that they are the same object. If it is determined that the objects are the same, the position information of the object image to be displayed with the highest resolution (number of pixels) remains, and the position information with the lower resolution is deleted.

物体重畳部54は、位置判定部53からの指示に基づき、物体検知部2から受信した物体領域画像を、物体画像803(803−1、803−2)として、物体検知部2から送信された実際の敷地上の位置情報部分に透過率0で重畳する。つまり最も上のレイヤ4に描画する。この時、物体画像803が示す人物の足元の位置は実際の位置に対応するが、サイズは変更しない。つまり物体画像803はカメラで撮影された時の画素数のまま構成しているため、実際の地図上の縮尺とは違う(大きい)画像で物体が表示され、監視員が見やすい物体画像を提供することができる。
ただし、物体重畳部54は、カメラ1から受け取った物体画像803のサイズが規定値以下であった場合には、拡大処理+バイキュービック補完などの補完処理をすることにより、画質劣化が少なく見やすいサイズに拡大してもよい。また、建物内で検知された物体画像803を重畳する場合には、建物フロア図(鳥瞰)のフロアごとに吹き出し図形を描画し、その吹き出しの中に各フロアに設置しているカメラで撮影した物体画像803を並べて表示してもよい。
軌跡重畳部55は、位置判定部53からの指示に基づき、物体検知部2から受信した実際の敷地上の軌跡情報に基づいて軌跡804をレイヤ3に描画し、地図画像801上に重畳する。
Based on an instruction from the position determination unit 53, the object superimposing unit 54 transmits the object region image received from the object detection unit 2 as the object image 803 (803-1, 803-2) from the object detection unit 2. Superimpose the actual location information on the site with 0 transmittance. That is, drawing is performed on the uppermost layer 4. At this time, the position of the foot of the person indicated by the object image 803 corresponds to the actual position, but the size is not changed. In other words, since the object image 803 is configured with the number of pixels when the image is taken by the camera, the object is displayed as an image that is different (large) from the scale on the actual map, and provides an object image that is easy for the observer to view. be able to.
However, when the size of the object image 803 received from the camera 1 is equal to or smaller than the specified value, the object superimposing unit 54 performs a complementing process such as an enlargement process + bicubic complementation to reduce the image quality and is easy to see. You may enlarge it. In addition, when superimposing the object image 803 detected in the building, a balloon figure is drawn for each floor of the building floor diagram (bird's eye view), and photographed with a camera installed on each floor in the balloon. The object image 803 may be displayed side by side.
The trajectory superimposing unit 55 draws the trajectory 804 on the layer 3 based on the actual trajectory information received from the object detection unit 2 based on the instruction from the position determination unit 53 and superimposes it on the map image 801.

図8は、モニタ表示用PC5によるモニタ画面の俯瞰表示の例である。モニタ表示用PC5に接続された2つのモニタ部210−1、210−2は、横に隣り合うように並べて設置され、地図画像801はモニタ部をまたがるように連続的に画面全体に表示される。俯瞰では、表示上の高さが圧縮され横に長い表示画面となるので、このようなマルチディスプレイ構成が好適である。鳥瞰・俯瞰切替ボタン808は、鳥瞰・俯瞰を切り替えるもので、図8は俯瞰の状態なので、切替先の鳥瞰を示すアイコンが表示されている。ポインティングデバイス212がマウスの場合、地図画像801上で右ボタンを押しながらドラッグすれば視線の方向を変更でき、左ボタンを押しながらドラッグすれば地図画像801をスライド、つまり視線が地表と交差する点を変更できる。地図画像801はその点が中心となるように表示される。   FIG. 8 is an example of a bird's eye view display of a monitor screen by the monitor display PC 5. The two monitor units 210-1 and 210-2 connected to the monitor display PC 5 are installed side by side so that the map image 801 is continuously displayed on the entire screen so as to straddle the monitor unit. . In the bird's-eye view, since the display height is compressed and a horizontally long display screen is obtained, such a multi-display configuration is preferable. The bird's-eye / overhead switching button 808 switches between bird's-eye and bird's-eye, and since FIG. 8 is in a bird's-eye view, an icon indicating the bird's-eye view of the switching destination is displayed. When the pointing device 212 is a mouse, the direction of the line of sight can be changed by dragging while pressing the right button on the map image 801, and the map image 801 can be slid by dragging while pressing the left button, that is, the point where the line of sight intersects the ground surface. Can be changed. The map image 801 is displayed so that the point is the center.

図9は、モニタ表示用PC5によるモニタ画面の鳥瞰表示の例である。モニタ表示用PC5に接続された2つのモニタ部210−1、210−2は、隣り合うように並べて設置され、地図画像801はモニタ部をまたがるように連続的に画面全体に表示される。鳥瞰・俯瞰切替ボタン808は、鳥瞰・俯瞰を切り替えるもので、図8は俯瞰の状態なので、切替先の鳥瞰を示すアイコンが表示されている。ポインティングデバイス212がマウスの場合、地図画像801上で右ボタンを押しながらドラッグすれば視線の方向を変更でき、左ボタンを押しながらドラッグすれば地図画像801をスライド、つまり視線が地表と交差する点を変更できる。地図画像801はその点が中心となるように表示される。   FIG. 9 is an example of a bird's-eye view display of the monitor screen by the monitor display PC 5. The two monitor units 210-1 and 210-2 connected to the monitor display PC 5 are installed side by side so that the map image 801 is continuously displayed on the entire screen so as to straddle the monitor unit. The bird's-eye / overhead switching button 808 switches between bird's-eye and bird's-eye, and since FIG. 8 is in a bird's-eye view, an icon indicating the bird's-eye view of the switching destination is displayed. When the pointing device 212 is a mouse, the direction of the line of sight can be changed by dragging while pressing the right button on the map image 801, and the map image 801 can be slid by dragging while pressing the left button, that is, the point where the line of sight intersects the ground surface. Can be changed. The map image 801 is displayed so that the point is the center.

次に、図6、図9を参照して、顔切出し及び顔認証機能を利用して重複物体を削除する機能と、モニタ表示画像801に物体画像(顔)1201を重畳する機能について説明する。この機能は主に、図6のモニタ表示用PC5における顔認証部56、顔重畳部57により実現される。   Next, with reference to FIGS. 6 and 9, a function for deleting an overlapping object using the face extraction and face authentication functions and a function for superimposing an object image (face) 1201 on the monitor display image 801 will be described. This function is mainly realized by the face authentication unit 56 and the face superimposing unit 57 in the monitor display PC 5 of FIG.

顔認証部56は、映像配信部103から受信しメモリ22等に保存されている映像に対し、顔検出技術を使用して映像中の人の顔の領域を検出し、その領域の画像特徴量を計算し、その領域から切出した顔画像データや時刻、位置情報等とともにHDD23に記録する。顔検出に用いられる判別器や抽出する特徴量には、公知のJoint Haar-linke特徴が利用できる。なお人物の顔だけでなく全身像を検出する場合は、CoHOG(Co-occurrence Histograms of Oriented Gradients)等が利用できる。映像全体からリアルタイムに顔や人影を検出することが困難な場合、物体画像803の内部での検出を優先し、余力があればフレームを間引きするなどして処理する。顔の位置情報としては、対応する物体画像803の位置情報がそのまま利用できる。
そして、今検出されたばかりの顔を1つずつキーとして、今検出された他の顔及び過去にHDD23に記録された顔画像の中から、特徴量の類似する顔を探索し、同一人物かどうか照合する。同一と判断された時は、物体ID、軌跡情報(HDD23に記録された当該人物の過去の位置情報)等が返される。ここで同一人物には同じ物体IDが付される。
The face authentication unit 56 detects a human face area in the video using the face detection technique for the video received from the video distribution unit 103 and stored in the memory 22 or the like, and the image feature amount of the area is detected. And is recorded in the HDD 23 together with face image data cut out from the area, time, position information, and the like. A well-known Joint Haar-linke feature can be used as a discriminator used for face detection or a feature amount to be extracted. In addition, when detecting not only a person's face but a whole body image, CoHOG (Co-occurrence Histograms of Oriented Gradients) etc. can be utilized. When it is difficult to detect a face or a human figure in real time from the entire video, priority is given to detection inside the object image 803, and processing is performed by thinning out the frame if there is remaining power. As the face position information, the position information of the corresponding object image 803 can be used as it is.
Then, using the faces just detected one by one as a key, search for a face having a similar feature amount from the other faces detected now and the face images recorded in the HDD 23 in the past. Collate. When it is determined that they are the same, an object ID, trajectory information (the past position information of the person recorded in the HDD 23), and the like are returned. Here, the same object ID is assigned to the same person.

顔認証部56は、ほぼ同一時刻(及び同一の場所)で、同一と判断された人物等に対しては、解像度の最も高い、若しくは顔検出時のスコア(顔らしさ、或いは検出の信頼性を示す)が最も高い画像1つだけに絞って、位置判定部53や顔重畳部57に通知するとともに、解像度の低い人物を撮影したカメラのIDや該人物の位置情報等、冗長なアラームとの対応付けが可能な情報を、警報状態を管理するブザー制御部206−4に通知する。これにより冗長な警報が削除される。通知を受けた位置判定部53は、顔認証による軌跡が優先して表示されるように、物体重畳部54を制御する。
顔認証部56はまた、時刻や場所が多少異なっても、同一と判断された人物等に対しては、同一人物が移動したもの(つまり一件の侵入事象)と推定して、古い方のアラームを新しいアラームで上書きする。ここで言う上書きには、例えば古いアラーム受信IDと同じIDを新しいアラームでも使うことなど、これらのアラームを統合できる様々な手法が含まれる。HDD23には、追跡処理部よりも長時間、消失後の軌跡が保持されており、一端途切れた軌跡を連結することができる。
顔認証部56は、同一と判断された人物等に対しては、解像度やスコアの最も高い画像を1乃至所定数だけ残して、新たな軌跡情報を加えて統合された軌跡情報とともにHDD23に記憶させ、記録にない(つまり初めての)人物等に対しては、今の顔画像、物体ID、物体検知部2からの位置情報や軌跡情報(もしあれば)をHDD23に記憶させる。なおHDD23には、追跡したりモニタ画面へ表示したりする必要のない人物(例えば従業員)の顔をホワイトリストとして記憶させてもよい。この場合顔認証部56は、ホワイトリストの人物と一致しても何もしない。
The face authentication unit 56 has the highest resolution or the score (face-likeness or detection reliability) for the person who is determined to be the same at almost the same time (and the same place). Only the highest image is shown and notified to the position determination unit 53 and the face superimposing unit 57, and redundant alarms such as the ID of the camera that captured the low-resolution person and the position information of the person are displayed. Information that can be associated is notified to the buzzer control unit 206-4 that manages the alarm state. This eliminates redundant alarms. Receiving the notification, the position determining unit 53 controls the object superimposing unit 54 so that the locus by the face authentication is displayed with priority.
The face authentication unit 56 also estimates that the same person has moved (that is, one intrusion event) to the person who is determined to be the same even if the time and place are slightly different, and the older one Overwrite alarm with new alarm. The overwriting mentioned here includes various methods that can integrate these alarms, for example, using the same ID as the old alarm reception ID for the new alarm. The HDD 23 holds a trajectory after disappearance for a longer time than the tracking processing unit, and the trajectories that have been interrupted can be connected.
The face authentication unit 56 stores one or a predetermined number of images having the highest resolution and score for the persons determined to be the same, and stores them in the HDD 23 together with the integrated trajectory information by adding new trajectory information. For a person who is not recorded (that is, for the first time), the current face image, object ID, position information from the object detection unit 2 and trajectory information (if any) are stored in the HDD 23. The HDD 23 may store a face of a person (for example, an employee) that does not need to be tracked or displayed on the monitor screen as a white list. In this case, the face authentication unit 56 does nothing even if it matches the person in the white list.

顔重畳部57は、顔認証部56で得られた顔画像と実際の敷地内の位置情報を使用して、地図画像801に物体画像(顔)1201を重畳し、HDD23に記録された軌跡情報を使用して地図画像801に軌跡804−1を重畳する。この重畳は、ユーザが特別な操作をしない限り、顔が検知されなくなった後も所定時間、最後に検知された位置で維持される。顔が検知できなくても追跡処理部36の追跡が続いていれば、更新された物体画像804が最新の位置に表示されうる。
なお、建物内で顔検出された場合や、ある領域内で検出された顔の密度が高い場合、物体画像(顔)1201を正確な位置に重畳する代わりに、フロアや領域ごとに吹き出しを作成し、その吹き出しの中に物体画像(顔)1201を並べて表示し、軌跡は、特定の物体画像(顔)1201を選んだ時だけ表示するようにしてもよい。
以上説明した処理を行うことにより、図9のモニタ表示を実現することが可能となる。重複を削除するには、顔認証の他、RFID(Radio Frequency IDentification)などによる物理セキュリティーシステムと組合せる方法もある。
The face superimposing unit 57 superimposes the object image (face) 1201 on the map image 801 using the face image obtained by the face authenticating unit 56 and the actual location information in the site, and the trajectory information recorded in the HDD 23. Is used to superimpose the locus 804-1 on the map image 801. This superposition is maintained at the last detected position for a predetermined time after the face is not detected unless the user performs a special operation. If tracking of the tracking processing unit 36 continues even if the face cannot be detected, the updated object image 804 can be displayed at the latest position.
When a face is detected in a building or the density of faces detected in a certain area is high, a balloon is created for each floor or area instead of superimposing the object image (face) 1201 on the correct position. The object image (face) 1201 may be displayed side by side in the balloon, and the locus may be displayed only when a specific object image (face) 1201 is selected.
By performing the processing described above, the monitor display of FIG. 9 can be realized. To eliminate duplication, there is a method of combining with a physical security system using RFID (Radio Frequency IDentification) or the like in addition to face authentication.

次に、図1、図6、図7、図10を参照して、物体画像をCGで表示する機能を有したモニタ表示用PC105について説明する。この機能は主に、図6のCG選択部58により実現される。図6のモニタ表示用PC105のその他の構成は前述と同様であるため、説明を省略する。   Next, a monitor display PC 105 having a function of displaying an object image in CG will be described with reference to FIG. 1, FIG. 6, FIG. 7, and FIG. This function is mainly realized by the CG selection unit 58 of FIG. The other configuration of the monitor display PC 105 in FIG. 6 is the same as that described above, and thus the description thereof is omitted.

CG選択部58は、物体検知部2の物体種別判定部38で算出された物体種別情報を参照し、HDD23から物体種別にあった物体画像(CG)1001を読み込み、地図画像801や建物フロア図(鳥瞰)802より上のレイヤに描画することで重畳表示する。つまり、図7において、実写の物体画像803に代えて、規定のアイコンを表示するようにしたものである。このようにすれば、物体画像803を得るためだけに映像受信部26−1で映像復号処理を行う必要がなくなるほか、物体画像803の数が多い場合や不鮮明な場合は、物体画像(CG)1001の方が視認性や把握できる情報量に優れる場合がある。例えば不審さの程度に応じて色などを変えることができる。物体画像(CG)1001が地図画像801にあまり使われていない色であれば、視覚的に目立たせることができ、その色の面積から物体の数などが把握できる。   The CG selection unit 58 refers to the object type information calculated by the object type determination unit 38 of the object detection unit 2, reads an object image (CG) 1001 corresponding to the object type from the HDD 23, and reads a map image 801 or a building floor diagram. (Bird's-eye view) Superimposed display is performed by drawing on a layer above 802. That is, in FIG. 7, instead of the actual object image 803, a prescribed icon is displayed. In this way, it is not necessary to perform the video decoding process in the video receiving unit 26-1 only to obtain the object image 803, and the object image (CG) is used when the number of object images 803 is large or unclear. 1001 may be superior in visibility and the amount of information that can be grasped. For example, the color or the like can be changed according to the degree of suspiciousness. If the object image (CG) 1001 is a color that is not often used in the map image 801, it can be visually conspicuous, and the number of objects can be grasped from the area of the color.

ただし、物体画像をCGにした場合には実際のカメラの映像を見たくなるため、物体画像(CG)1001をポインティングデバイス212で選択した場合には、映像切替部26−5は、図7のような表示から、図10のような表示に切り替える。つまり、図10では、モニタ部210−1には、物体が存在する部分のみの地図画像801、建物フロア図(鳥瞰)802、カメラアイコン302、物体画像(CG)1001、軌跡804が鳥瞰或いは俯瞰表示され、モニタ部210−2には選択されたカメラ映像が座標変換なしにそのまま表示される。さらにモニタ部210−1には、表示切替ボタン1101が表示される。ユーザが表示切替ボタン1101を押すと、映像切替部26−5は、その表示様態を図7のような連結表示に戻す。   However, when the object image is set to CG, it is tempting to see the video of the actual camera. Therefore, when the object image (CG) 1001 is selected by the pointing device 212, the video switching unit 26-5 displays the image of FIG. The display is switched from the display as shown in FIG. That is, in FIG. 10, the monitor unit 210-1 has a map image 801, a building floor diagram (bird's-eye view) 802, a camera icon 302, an object image (CG) 1001, and a trajectory 804 only in a portion where an object exists. The selected camera image is displayed on the monitor unit 210-2 without any coordinate conversion. Further, a display switching button 1101 is displayed on the monitor unit 210-1. When the user presses the display switching button 1101, the video switching unit 26-5 returns the display mode to the linked display as shown in FIG.

以上説明した様に、物体画像をCGで表示する方法は、建物フロア図(鳥瞰)に人数分重畳することが可能となるため、建物が多数存在するような監視場所においては、有益な表示方法である。物体画像をCGで表示することで、顔が大きく映っているような場合でも、プライバシー保護した形で外部に証拠画像として容易に提供することができる。また、人が群れているなどして物体の一部しか見えない場合にも、見やすい映像を提供することが可能となる。   As described above, since the method of displaying an object image in CG can be superimposed on the building floor diagram (bird's eye view) for the number of people, it is useful in a monitoring place where there are many buildings. It is. By displaying the object image in CG, even if the face is shown large, it can be easily provided as an evidence image to the outside in a privacy-protected form. In addition, even when only a part of an object is visible due to crowds of people, it is possible to provide an easy-to-view video.

実施例2の監視システムは、監視エリアに設けた標識(マーカ)を、複数のカメラで撮像することで、カメラのキャリブレーションを行う画像処理装置2000を備えたものであり、その他の構成は実施例1の監視システムと同じである。   The monitoring system according to the second embodiment includes an image processing apparatus 2000 that calibrates a camera by imaging a marker (marker) provided in a monitoring area with a plurality of cameras, and other configurations are implemented. This is the same as the monitoring system of Example 1.

図11は、監視カメラで一般的に得られる俯瞰画像を示す図である。広範囲に撮像するため、カメラ141を設置する際は、俯角を浅く(水平よりやや下向き)し、道路143の奥行き方向が見えるように設置するのが一般的である。しかしこのカメラで見える視野142では奥行き方向(カメラ画像144をモニタで見るとモニタ画面の上方向)に行くに従い、画面上での距離が縮まって見える。つまり、車140が手前を走行している場合と奥を走行している場合とでは画面上でのスケールが異なるため、距離が判る他の情報がないと、カメラから車までの距離を把握するのが困難になる。   FIG. 11 is a diagram illustrating an overhead image generally obtained by a surveillance camera. In order to capture an image over a wide range, when installing the camera 141, it is common to install the camera 141 so that the depression angle is shallow (slightly downward from the horizontal) and the depth direction of the road 143 can be seen. However, in the visual field 142 that can be seen by this camera, the distance on the screen appears to decrease as it goes in the depth direction (upward on the monitor screen when the camera image 144 is viewed on the monitor). In other words, the scale on the screen is different between the case where the car 140 is traveling in front and the case where it is traveling in the back, so if there is no other information to know the distance, the distance from the camera to the car is grasped. It becomes difficult.

そこで、図11のように仮想的な俯瞰画像155に変換することで距離を把握しやすくする。
カメラ141で撮影した画像を画像処理により、あたかも真上からカメラで撮影したような画像に変換する。ここではこの真上に位置する仮想的なカメラを俯瞰カメラ145と称す。この俯瞰カメラ145で撮影した俯瞰視野146は、あたかも地図上で矩形に切り取ったように、どの位置でもスケールが一定であり、道路143を走行する車140の位置が把握しやすくなる。以降、仮想的な俯瞰カメラ145で撮影した俯瞰視野146内の画像を俯瞰画像148と称する。
Therefore, the distance is easily grasped by converting to a virtual overhead image 155 as shown in FIG.
The image captured by the camera 141 is converted into an image as if captured by the camera from directly above by image processing. Here, the virtual camera located directly above is referred to as an overhead camera 145. The bird's-eye view 146 photographed by this bird's-eye camera 145 has a constant scale at any position as if it was cut out in a rectangular shape on the map, making it easy to grasp the position of the car 140 traveling on the road 143. Hereinafter, an image in the overhead view field 146 photographed by the virtual overhead camera 145 is referred to as an overhead image 148.

次にカメラ画像144から俯瞰画像148を作成するのに必要なカメラの設置条件(以降はカメラパラメータと称する)ついて、図12乃至図14を用いて概念的に説明する。
図12はカメラ支柱166の上にカメラ141を高さHの位置に設置した様子を真横から見た状態を示す。このときカメラ141は道路143に向かって下向きに設置され、カメラ141の中心を通る光軸は角度θで距離Xだけ離れた車の中心を撮影している。このとき、H、X、θには次の式1の関係が成り立つ。
Next, camera installation conditions (hereinafter referred to as camera parameters) necessary for creating the overhead image 148 from the camera image 144 will be conceptually described with reference to FIGS.
FIG. 12 shows a state in which the camera 141 is installed on the camera column 166 at a height H as viewed from the side. At this time, the camera 141 is installed downward toward the road 143, and the optical axis passing through the center of the camera 141 captures the center of a car separated by a distance X at an angle θ. At this time, the relationship of the following formula 1 holds for H, X, and θ.

X = H × tan(θ) ・・・・・ 式1
但し、カメラ支柱166と道路143は直角を成すとする。この式を変形すると式2のようになる。
θ = atan(X/H) ・・・・・ 式2
式2はカメラ141の画面中心に映る物体までの距離Xとカメラの設置高さHが分かれば、カメラが向いている角度θが分かることを示す。
X = H × tan (θ) (1)
However, it is assumed that the camera column 166 and the road 143 form a right angle. When this equation is modified, the following equation 2 is obtained.
θ = atan (X / H) Equation 2
Equation 2 indicates that if the distance X to the object reflected at the center of the screen of the camera 141 and the installation height H of the camera are known, the angle θ at which the camera is facing can be found.

さらに、図13はカメラ141とその被写体を真上から鉛直下向き見た状態を示す。
一例として、被写体a173と被写体b174の2つが、レンズ172の主点からそれぞれ距離Xa、Xb離れた場所にあり、被写体a173の方が被写体b174より近くにあるとする。またカメラの光軸は、両被写体の中心に直角に交差する。被写体a173の端から光軸までの距離がYaの長さであるときに、その端からの光はカメラ141に搭載されたレンズ172を通り撮像素子171の端に届いているとする。撮像素子171の端から光軸までの距離(像高)はZaとする。この被写体a173の端からレンズ172の主点を通って撮像素子171に届く光線は、光軸に対しφaの角度をなす。被写体b174と撮像素子171に関係する光軸からの距離Yb、焦点位置での光軸からの角度φbも被写体a173と同様である。
また、被写体a173と被写体b174の大きさは同じである場合、被写体表面の光軸から端までの距離は式3の関係にある。
Further, FIG. 13 shows a state in which the camera 141 and its subject are viewed vertically downward from above.
As an example, it is assumed that the subject a 173 and the subject b 174 are located at distances Xa and Xb from the principal point of the lens 172, respectively, and the subject a 173 is closer to the subject b 174. The optical axis of the camera intersects the center of both subjects at right angles. It is assumed that when the distance from the end of the subject a 173 to the optical axis is the length of Ya, the light from that end passes through the lens 172 mounted on the camera 141 and reaches the end of the image sensor 171. The distance (image height) from the end of the image sensor 171 to the optical axis is assumed to be Za. Light rays that reach the image sensor 171 from the end of the subject a 173 through the principal point of the lens 172 make an angle of φa with respect to the optical axis. The distance Yb from the optical axis related to the subject b 174 and the image sensor 171 and the angle φb from the optical axis at the focal position are the same as the subject a 173.
Further, when the size of the subject a 173 and the size of the subject b 174 is the same, the distance from the optical axis to the end of the subject surface has the relationship of Equation 3.

Ya = Yb ・・・・・ 式3
2つの被写体は同じ大きさであるが、カメラ141からの距離が異なるため、式4に示す関係である被写体b174の端からレンズ172に入る光の角度θbは、被写体a173の角度θaよりも小さい。
θa > θb ・・・・・ 式4
Ya = Yb Equation 3
Although the two subjects have the same size, but have different distances from the camera 141, the angle θb of the light that enters the lens 172 from the end of the subject b174, which has the relationship shown in Expression 4, is smaller than the angle θa of the subject a173. .
θa> θb Equation 4

図14は撮像素子と焦点距離の関係を説明するための図である。
図14は、カメラ141が被写体a173と被写体b174を撮影したものであり、図中のφaとφbは図13で説明した角度と同じである。但しレンズ172を通った後の光の経路を図示しているため、角度φa、φbを上下反転して図示している。一般にレンズ172内の焦点183から撮像素子171までの光軸での距離を焦点距離f182とする。被写体a173の端から出た光は撮像素子171の表面上で光軸から距離Za離れた位置に届く。同様に被写体b174の端から出た光は光軸から距離Zb離れた位置に届く。この例では被写体a9の端を出た光は撮像素子7のちょうど端に届いている。光軸に対して撮像素子7と被写体a173、被写体b174が直角を成し、光軸が被写体の中心であるとき、距離Zaと撮像素子サイズ181は式5の関係にある。
FIG. 14 is a diagram for explaining the relationship between the image sensor and the focal length.
In FIG. 14, the camera 141 captures the subject a173 and the subject b174, and φa and φb in the figure are the same as the angles described in FIG. However, since the path of light after passing through the lens 172 is shown, the angles φa and φb are shown upside down. In general, the distance on the optical axis from the focal point 183 in the lens 172 to the image sensor 171 is defined as a focal length f182. The light emitted from the end of the subject a 173 reaches a position on the surface of the image sensor 171 at a distance Za from the optical axis. Similarly, light emitted from the end of the subject b174 reaches a position away from the optical axis by a distance Zb. In this example, the light that exits the end of the subject a9 reaches the end of the image sensor 7. When the image sensor 7, the subject a 173, and the subject b 174 are perpendicular to the optical axis and the optical axis is the center of the subject, the distance Za and the image sensor size 181 are in the relationship of Equation 5.

撮像素子サイズ = Za × 2 ・・・・・ 式5
被写体b174について図14を見ると、被写体b174の端を出た光が角度φbで撮像素子171に届く。式4の関係から撮像素子171に届いた光は光軸から距離Zbの位置であり、式6の関係にある。
Za > Zb ・・・・・ 式6
被写体a173と被写体b174は式3に示すように同じ大きさであるが、撮像素子171上では式6に示すように被写体b174の方が小さくなっている。これは2つの被写体の距離が異なるためであり、遠くにあるほど小さく見えるのはこのためである。
Image sensor size = Za x 2 Equation 5
Looking at FIG. 14 for the subject b174, the light exiting the end of the subject b174 reaches the image sensor 171 at an angle φb. The light that reaches the image sensor 171 from the relationship of Equation 4 is at a distance Zb from the optical axis, and is in the relationship of Equation 6.
Za> Zb Expression 6
The subject a 173 and the subject b 174 have the same size as shown in Equation 3, but the subject b 174 is smaller on the image sensor 171 as shown in Equation 6. This is because the distance between the two subjects is different, and this is why the farther away the object looks, the smaller.

ここで図13と図14を合わせると式7と式8の関係にある。
Xa / Ya = f / Za ・・・・・ 式7
Xb / Yb = f / Zb ・・・・・ 式8
式7と式8を距離XaとXbを求める式に変形すると式9と式10になる。
Xa = Ya × f / Za ・・・・・ 式9
Xb = Yb × f / Zb ・・・・・ 式10
ここで、fは像距離(レンズの主点から像面までの距離)で、用いるレンズ172により与えられ、ZaとZbは撮影された画像上で計測できる値であるため、被写体の大きさYaとYbが分かれば被写体までの距離XaとXbが求まる。
よって、被写体が真横から見たときに光軸上にあるならば、被写体までの距離が求まり、式2のXに距離を代入することで、大きさが分かっている被写体を撮影しているカメラ141の角度θが求まる。
Here, FIG. 13 and FIG.
Xa / Ya = f / Za Equation 7
Xb / Yb = f / Zb Equation 8
When formulas 7 and 8 are transformed into formulas for obtaining distances Xa and Xb, formulas 9 and 10 are obtained.
Xa = Ya × f / Za Equation 9
Xb = Yb × f / Zb Expression 10
Here, f is an image distance (distance from the principal point of the lens to the image plane), which is given by the lens 172 to be used, and Za and Zb are values that can be measured on the photographed image. And Yb, the distances Xa and Xb to the subject can be obtained.
Therefore, if the subject is on the optical axis when viewed from the side, the distance to the subject is obtained, and a camera that captures a subject whose size is known by substituting the distance into X in Equation 2 The angle θ of 141 is obtained.

本実施例2では、大きさが分かっている被写体を監視エリアの地面や床に置いて撮影することで、カメラ141のカメラパラメータである角度θ等を求める。以降、その被写体をマーカーと称する。
図15は、マーカー192を道路143に置いた状態を示す図である。マーカー192は大きさが分かっている正方形もしくは長方形であり、その表面の模様から向きが分かるようになっている。説明を容易にするため、マーカーの辺は光軸に直交する場合を例示している。
In the second embodiment, an angle θ or the like, which is a camera parameter of the camera 141, is obtained by shooting a subject whose size is known on the ground or floor of the monitoring area. Hereinafter, the subject is referred to as a marker.
FIG. 15 is a diagram illustrating a state where the marker 192 is placed on the road 143. The marker 192 is a square or a rectangle whose size is known, and the direction can be recognized from the pattern on the surface. For ease of explanation, the case where the side of the marker is orthogonal to the optical axis is illustrated.

図15において、カメラ画像191には、道路143とマーカー192が映っている。モニタ画面191の上方向が奥行きにあたるため、マーカー192は下辺よりも上辺が短く見えている。これは式6の関係に相当する。像面上でのマーカー192の下辺の半分の長さをZa、上辺の半分の長さをZbとすると、カメラ141から上辺、下辺までの距離Xa,Xbは、式9、式10で求めることが出来る。カメラ141の角度θは、設置高さHが与えられれば、距離Xa,Xbの平均値をXとして、式2で近似的に求めることができる。
より一般的な条件でカメラパラメータを求めるには、特許文献4や5に記載の手法を用いればよい。
In FIG. 15, a camera image 191 shows a road 143 and a marker 192. Since the upper direction of the monitor screen 191 corresponds to the depth, the upper side of the marker 192 appears shorter than the lower side. This corresponds to the relationship of Equation 6. When the length of the lower half of the marker 192 on the image plane is Za and the length of the upper half is Zb, the distances Xa and Xb from the camera 141 to the upper side and the lower side are obtained by Expressions 9 and 10. I can do it. If the installation height H is given, the angle θ of the camera 141 can be approximately calculated by Expression 2 where X is the average value of the distances Xa and Xb.
To obtain camera parameters under more general conditions, the methods described in Patent Documents 4 and 5 may be used.

図16に、本実施例2においてカメラパラメータを計算するマーカー処理部2002の構成を示す。
入力するカメラからの画像2201にはマーカー192が映っている。マーカー192を探し出すため、直線検出部2202は、ハフ変換などを用いて画像内の直線成分を求める。マーカー192は所定の大きさであるため、画像中に映るマーカーの大きさ程度の長さの直線に絞って直線をピックアップする。求めた直線の座標を後段のマーカー位置検出部2203に出力する。
マーカー位置検出2203は、求めた直線の内、四角(奥行きが縮まっているので台形に変形して見える)になっている閉じた直線部分をピックアップする。そしてマーカー14の中心位置がカメラ画像のどの座標位置にあるかを記憶しておく。
さらに後段のマーカー傾き計算部2204では、台形に変形して見えるマーカー192の上辺と下辺の長さの割合から、マーカー192の上辺と下辺それぞれの、カメラからの距離を求めることが出来る。この直線が傾いて見えても問題は無く、直線の中心位置を距離の始点とすれば良い。
カメラパラメータ算出部2205は、マーカー192の上辺と下辺のカメラからの距離を元に、カメラの角度θを求めて俯瞰座標変換に使うための情報として出力する。得られたカメラパラメータは、物体検知部2との双方向通信によりワールド座標算出部40に通知されうる。
FIG. 16 shows a configuration of a marker processing unit 2002 that calculates camera parameters in the second embodiment.
A marker 192 is shown in the image 2201 from the input camera. In order to find the marker 192, the straight line detection unit 2202 obtains a straight line component in the image using Hough transform or the like. Since the marker 192 has a predetermined size, the straight line is picked up by narrowing down to a straight line having a length about the size of the marker shown in the image. The obtained straight line coordinates are output to the subsequent marker position detection unit 2203.
The marker position detection 2203 picks up a closed straight line portion that is a square (which appears to be deformed into a trapezoid because the depth is reduced) among the obtained straight lines. Then, the coordinate position of the camera image at the center position of the marker 14 is stored.
Further, the marker inclination calculation unit 2204 in the subsequent stage can determine the distance from the camera of each of the upper side and the lower side of the marker 192 from the ratio of the length of the upper side and the lower side of the marker 192 that appears to be deformed into a trapezoid. There is no problem even if this straight line appears to be inclined, and the center position of the straight line may be used as the starting point of the distance.
The camera parameter calculation unit 2205 obtains an angle θ of the camera based on the distance from the camera on the upper side and the lower side of the marker 192 and outputs it as information for use in overhead coordinate conversion. The obtained camera parameters can be notified to the world coordinate calculation unit 40 by bidirectional communication with the object detection unit 2.

一旦カメラパラメータが決定されれば、カメラ画像191を俯瞰画像193に変換することができる。正方形のマーカー192の上辺と下辺は本来、同じ長さであり、俯瞰画像191では同じ長さに表れている。カメラ画像(a)では奥に行くに従い物体が縮まって見えていたのが、俯瞰画像に変換したことで、奥行きへの縮まりが無くなり奥行き方向への距離が分かりやすくなる。
例えば、手前に映っている1mの物体と、最も奥に映っている1mの物体が、俯瞰画像(b)では同じ大きさで表示される。つまり、俯瞰画像を作成するには、本来同じ大きさである物体をモニタ画面191の上でも同じ大きさになるよう投影すれば良い。
Once the camera parameters are determined, the camera image 191 can be converted into an overhead image 193. The upper side and the lower side of the square marker 192 are originally the same length, and appear in the same length in the overhead image 191. In the camera image (a), the object was shrunk as it went back, but by converting it to a bird's-eye view image, the shrinkage to the depth disappears and the distance in the depth direction becomes easy to understand.
For example, a 1 m object shown in the foreground and a 1 m object shown in the back are displayed in the same size in the overhead image (b). That is, in order to create a bird's-eye view image, an object that is originally the same size may be projected on the monitor screen 191 so as to have the same size.

図18は、複数のカメラで同じ領域を撮影した画像の連結を説明する図である。
カメラA2103が撮影しているカメラA視野2104には障害物2105があり、カメラA死角2106が発生している。その死角になり見ることが出来ない領域を撮影するため、カメラB2101を設置しカメラB視野2102でカメラA死角2106の領域をカバーしている。
この図18のようにカメラが設置されてる場合、カメラA視野2104とカメラB視野2102が重なる位置にマーカー2107を置く。このマーカー2107を基準に各カメラの画像を俯瞰画像に変換する。俯瞰画像に変換後、各カメラの画像を合成して1枚の画像にする。マーカー2107の模様は向きが分かるようになっているので、マーカー2107がちょうど重なるように、アフィン変換(リサイズと回転)を行ってから合成する。モニタ210にはこの合成後の俯瞰画像を表示するので、監視者は複数のカメラ画像を1枚の画像として監視することが出来る。
FIG. 18 is a diagram for explaining the connection of images obtained by photographing the same area with a plurality of cameras.
The camera A visual field 2104 captured by the camera A 2103 has an obstacle 2105, and a camera A blind spot 2106 is generated. In order to take an image of the blind spot that cannot be seen, the camera B 2101 is installed and the camera B visual field 2102 covers the area of the camera A blind spot 2106.
When the camera is installed as shown in FIG. 18, the marker 2107 is placed at a position where the camera A visual field 2104 and the camera B visual field 2102 overlap. Based on the marker 2107, the image of each camera is converted into an overhead image. After converting to a bird's-eye view image, the images from each camera are combined into a single image. Since the pattern of the marker 2107 can be seen, it is synthesized after affine transformation (resizing and rotating) so that the marker 2107 is exactly overlapped. Since the synthesized overhead image is displayed on the monitor 210, the monitor can monitor a plurality of camera images as one image.

図17に、上述の画像変換や合成を行う画像処理装置2000のブロック図が示される。
画像処理装置2000は、複数のカメラの入力を受けるため、内部では同じ処理が並列して設けられるが、各カメラで共通な処理はカメラ番号1から入力されるカメラ画像2001−1の処理を代表して説明する。
カメラ画像2001−1は、図16で説明したようなマーカー処理部2002−1に入力し、マーカーの画像情報からカメラパラメータを算出し、後段の俯瞰座標変換部2003−1に出力する。
FIG. 17 shows a block diagram of an image processing apparatus 2000 that performs the above-described image conversion and composition.
Since the image processing apparatus 2000 receives inputs from a plurality of cameras, the same processing is provided in parallel inside, but the processing common to each camera is representative of the processing of the camera image 2001-1 input from the camera number 1. To explain.
The camera image 2001-1 is input to the marker processing unit 2002-1 described with reference to FIG. 16, camera parameters are calculated from the marker image information, and are output to the downstream overhead coordinate conversion unit 2003-1.

俯瞰座標変換部2003−1は、入力したカメラ画像2001−1をマーカー処理部2002−1で算出したカメラパラメータ(カメラ角度)を元に仮想的な俯瞰カメラで見たような真上からの画像に変換するため、どの画素を俯瞰画像のどこに対応づけるかを算出して、俯瞰画像作成部2004−1に出力する。
俯瞰画像作成部2004−1は、俯瞰座標変換部2003−1で算出した俯瞰画像変換後の座標に各画素を配置して出力する。カメラで撮影した画像ではモニタ画面2006の上に行くほど大きさが縮まっていたが、俯瞰座標に変換することで同じ大きさの物体であればモニタ画面2006のどこに置いても同じ大きさになる。
俯瞰画像合成部2005は、複数のカメラからの俯瞰画像を1枚の画像に合成してモニタ2006に出力する。
The overhead coordinate conversion unit 2003-1 is an image from directly above as seen by a virtual overhead camera based on the camera parameter (camera angle) calculated by the marker processing unit 2002-1 on the input camera image 2001-1. Therefore, which pixel is associated with which part of the overhead image is calculated and output to the overhead image creation unit 2004-1.
The overhead image creation unit 2004-1 arranges and outputs each pixel to the coordinates after the overhead image conversion calculated by the overhead coordinate conversion unit 2003-1. The image taken by the camera has shrunk as it goes on the monitor screen 2006. However, by converting to overhead coordinates, an object of the same size will have the same size no matter where it is placed on the monitor screen 2006. .
The bird's-eye view image combining unit 2005 combines the bird's-eye view images from a plurality of cameras into a single image and outputs it to the monitor 2006.

図19に、俯瞰画像合成部2005のブロック図が示される。
入力する画像は俯瞰に変換した画像であり、その俯瞰画像がカメラの台数だけ入力される。1、2、・・・、nまでのn台のカメラが接続されている場合を例に説明する。
俯瞰画像合成部2205は、n枚の俯瞰画像のうち、1枚は基準俯瞰画像として、他の俯瞰画像を基準俯瞰画像に合わせて位置を調整する。この例では1番目のカメラの画像から作成した俯瞰画像を基準俯瞰画像と称して説明し、基準俯瞰画像以外の動作説明は2番目のカメラの画像を例に説明する。また、マーカー192の位置合わせをするアルゴリズムは色々な手段が考えられるが、ここでは俯瞰画像を回転して基準俯瞰画像と一致するまで回転を続けることでマーカー位置を一致されるアルゴリズムを例に説明する。他の実現手段として直線部分に着目して位置合わせを行うなど、画像処理で使われるパターンマッチング処理であればどのような手段で実現しても構わない。
FIG. 19 shows a block diagram of the overhead view image synthesis unit 2005.
The input image is an image converted to a bird's-eye view, and the bird's-eye view image is input by the number of cameras. A case where n cameras of 1, 2,..., N are connected will be described as an example.
The bird's-eye view image synthesis unit 2205 adjusts the position of one of the n bird's-eye-view images as a reference bird's-eye image, with the other bird's-eye view images aligned with the reference bird's-eye image. In this example, the bird's-eye view image created from the image of the first camera will be referred to as a reference bird's-eye view image, and the operations other than the reference bird's-eye image will be described using the image of the second camera as an example. There are various means for positioning the marker 192. Here, an example is described in which the marker position is matched by rotating the overhead image until it matches the reference overhead image. To do. As other implementation means, any means may be used as long as it is a pattern matching process used in image processing, such as performing alignment by paying attention to a straight line portion.

2番目のカメラ画像から作成した俯瞰画像2401−2は、俯瞰画像移動回転部2402−2に入力する。マーカー192の位置が中心になるよう画像を移動して、小さな角度で、例えば角度1度などで俯瞰画像を回転して、パターンマッチング部2403−2に出力する。なお、回転処理に必要なマーカーの中心座標は図16のマーカー位置検出部2203ですでに求めている。
パターンマッチング部2403−2は、俯瞰画像と、基準俯瞰画像である1番目のカメラとマーカー画像の同じ画像になるか画素単位で比較を行う。
このときにカメラ毎に明るさが異なる場合があるので、ある程度の明るさのばらつきは許容するようにしておく。例えば、画素の明るさが256階調であったならば、1/4の64階調にして比較するなどの手段がある。もしくは白と黒の明るさが両者で同じ値になるよう明るさの正規化処理を行っても良い。
The overhead image 2401-2 created from the second camera image is input to the overhead image movement rotation unit 2402-2. The image is moved so that the position of the marker 192 is centered, and the overhead image is rotated at a small angle, for example, at an angle of 1 degree, and is output to the pattern matching unit 2403-2. The center coordinates of the marker necessary for the rotation process have already been obtained by the marker position detection unit 2203 in FIG.
The pattern matching unit 2403-2 compares the overhead image and the first camera, which is the reference overhead image, and the marker image, or compares them in pixel units.
At this time, since the brightness may be different for each camera, a certain degree of brightness variation is allowed. For example, if the brightness of a pixel is 256 gradations, there is a means of comparing with 64 gradations of 1/4. Alternatively, brightness normalization processing may be performed so that the brightness of white and black becomes the same value in both.

パターンマッチング部2403−2のパターンマッチング結果は、前段の俯瞰画像移動回転部2402−2に戻す。パターンマッチングの結果が一致であれば後段の俯瞰画像重ね合わせ部2404に回転した俯瞰画像を出力する。
俯瞰画像移動回転部2402−2は、パターンマッチング部2403−2からパターンマッチングの結果が不一致であるという結果が返った場合、更に俯瞰画像の回転を小さな角度(例えば、1度など)を行う。この結果を戻すループはパターンマッチング結果が一致になるか、360度回転まで続ける。
このようにして1番目の基準俯瞰画像と、2〜n番目の俯瞰画像を全て俯瞰画像重ね合わせ部2404に入力し、マーカー位置で1枚の画像に重ね合わせて、俯瞰合成画像2405として出力する。また、パターンマッチング部2403で得られたカメラ間の相対位置を示す情報は、ワールド座標算出部40に通知されうる。
The pattern matching result of the pattern matching unit 2403-2 is returned to the preceding overhead image movement rotation unit 2402-2. If the pattern matching results match, the rotated overhead image is output to the overhead image overlay unit 2404 at the subsequent stage.
The bird's-eye view image moving / rotating unit 2402-2 further rotates the bird's-eye view image by a small angle (for example, 1 degree) when the pattern matching unit 2403-2 returns a result that the pattern matching results do not match. The loop that returns this result continues until the pattern matching results match or rotates 360 degrees.
In this way, the first reference bird's-eye view image and the 2nd to n-th bird's-eye view images are all input to the bird's-eye view image superimposing unit 2404, superimposed on one image at the marker position, and output as the bird's-eye view synthesized image 2405. . Information indicating the relative position between the cameras obtained by the pattern matching unit 2403 can be notified to the world coordinate calculation unit 40.

なお、マーカー192のデザインの一例を図20の(a)(b)(c)に示す。
マーカー192の外周は黒線で縁取りし、その内側に白い帯、さらに内側に黒線で区切った中をマーカー192が回転しても向きが分かるようなパターンにしている。黒枠の内側を白い帯にしたのは上辺と下辺の直線を検出しやすくするためである。マーカー192の色は白黒でなくても構わないが、明るさ成分だけで画像処理を行う方が処理を単純化しやすいのと、照明に色が付いても判別しやすい点で白黒のパターンが扱いやすい。またマーカー192の各辺が直角に交われば長方形でも構わないが、回転処理を行うために正方形が扱いやすい。
An example of the design of the marker 192 is shown in (a), (b), and (c) of FIG.
The outer periphery of the marker 192 is bordered by a black line, and a white band is formed on the inner side of the marker 192. Further, the marker 192 has a pattern that can be recognized even when the marker 192 rotates. The reason why the inside of the black frame is white is to make it easy to detect the straight line between the upper side and the lower side. The color of the marker 192 does not have to be black and white, but it is easier to simplify the image processing when performing image processing with only the brightness component, and the black and white pattern is handled because it is easy to distinguish even if the lighting is colored. Cheap. In addition, a rectangle may be used as long as each side of the marker 192 intersects at a right angle, but a square is easy to handle in order to perform rotation processing.

以上説明した様に、本実施例2では、カメラに映ったマーカー192を画像の中から探しだしてカメラパラメータを求め、そのカメラパラメータから俯瞰画像に変換するための角度を求める。求めた角度に従い変換した各々の俯瞰画像のマーカー192を基準にして1枚に合成してモニタ2006に出力することで、1枚の俯瞰画像を作成する。
なお、画像処理装置2000は、別途ハードウェアを備えずとも、モニタ表示用PC5や物体検知部2のCPUで実現することもできる。
また装置に入力される画像はライブ映像でなくても良く、ハードディスクなどの記録媒体に記憶された画像データや、ネットワークを経由して入力される画像データでも良い。その画像データは画像圧縮処理が施された画像データでもよく、その場合は画像伸張処理を行った後に上記で説明した処理を施せば良い。さらに俯瞰画像の出力先はモニタでなくても良く、ハードディスクなどの記録媒体、ネットワークなどでも良い。
また、複数のカメラで撮影した画像は俯瞰表示だけではなく、カメラで斜め上から見たような鳥瞰表示にしても構わない。真上から見た画像に座標変換する際に使用する傾きの数値を変更するだけで容易に鳥瞰表示にも対応できる。一度全てのカメラ画像を俯瞰表示に変換して1枚の画像に合成した後に、その1枚の俯瞰画像に対して座標変換処理を行い鳥瞰表示に変換しても良い。建物の各フロアを表示する鳥瞰画像を作成する手段として、このマーカーを使っても複数のカメラ画像を合成しても構わない。さらにこのマーカーを使って複数カメラの画像を合成した俯瞰画像や鳥瞰画像に対し、侵入者や侵入物と、その軌跡や顔認証の結果を合成しても構わない。
As described above, in the second embodiment, the marker 192 reflected in the camera is searched from the image to obtain the camera parameter, and the angle for converting the camera parameter into the overhead image is obtained. A single bird's-eye view image is created by combining the images into one sheet based on the markers 192 of each bird's-eye view image converted according to the obtained angle, and outputting it to the monitor 2006.
Note that the image processing apparatus 2000 can be realized by the monitor display PC 5 or the CPU of the object detection unit 2 without separately providing hardware.
The image input to the apparatus may not be a live video, but may be image data stored in a recording medium such as a hard disk or image data input via a network. The image data may be image data that has undergone image compression processing. In this case, the processing described above may be performed after the image expansion processing. Further, the output destination of the overhead image does not have to be a monitor, but may be a recording medium such as a hard disk or a network.
In addition, images captured by a plurality of cameras may be displayed not only in a bird's-eye view but also in a bird's-eye view as viewed obliquely from above with a camera. A bird's eye view display can be easily handled by simply changing the numerical value of the tilt used when converting the coordinates into an image viewed from directly above. Once all the camera images are converted into a bird's-eye view display and combined into a single image, coordinate conversion processing may be performed on the one bird's-eye view image to convert it into a bird's-eye view display. As a means for creating a bird's-eye view image that displays each floor of a building, this marker may be used or a plurality of camera images may be combined. Furthermore, an intruder or an intruder, its trajectory, and the result of face authentication may be combined with an overhead image or a bird's-eye image obtained by combining images from a plurality of cameras using this marker.

本発明は、CCTV(Closed-Circuit TeleVision)など、監視の目的で遠隔の映像を表示する装置、システム、管理ソフトウェア等に適用可能であり、業務用のほか、一般家庭や個人に対するサービスとしても提供されうる。   The present invention can be applied to CCTV (Closed-Circuit TeleVision) and other devices, systems, management software, etc. that display remote images for monitoring purposes, and is also provided as a service for general households and individuals for business purposes. Can be done.

1:カメラ、2:物体検知部、3:映像配信部、4:LAN_SW、5:モニタ表示用PC、
21:画像入力I/F、22:画像メモリ、23:ワークメモリ、24:CPU、25:画像出力I/F、26:プログラムメモリ、26-1:映像受信部、26-2:アラーム受信部、26-3:マップ表示部、26-4:ブザー制御部、26-5:映像切替部、27:ブザー出力I/F、28:モニタ出力I/F、29:データバス、
31:画像取込部、32:背景作成部、33:差分処理部、34:二値化処理部、35:ラベリング部、36:追跡処理部、37:判定処理部、38:物体種別判定部、39:表示用物体領域抽出部、40:ワールド座標算出部、41:表示用軌跡作成部、42:表示用データ作成部、
51:座標変換部、52:マップ作成部、53:位置判定部、54:物体画像重畳部、55:軌跡重畳部、56:顔認証部、57:顔重畳部、58:CG選択部、
212:ポインティングデバイス、210-1,210-2:モニタ部、211:ブザー、
304:警報確認ボタン、305:ブザー停止ボタン、
401:画像入力I/F、402:画像メモリ、403:ワークメモリ、404:CPU、405:画像出力I/F、408:LAN I/F、
801:地図画像、802:建物フロア図(鳥瞰)、803-1,803-2:物体画像、804-1,804-2:軌跡、1001-1:物体画像(CG)、1101:表示切替ボタン、1201:物体画像(顔)、
2000:画像処理装置、2001-1〜2001-n:カメラ画像、2002-1〜2002-n:マーカー処理部、2003-1〜2003-n:俯瞰座標変換部、2004-1〜2004-n:俯瞰画像作成部、2005:俯瞰画像合成部、2006:モニタ部、2202:直線検出部、2203:マーカー位置検出部、2204:マーカー傾き計算部、2205:カメラパラメータ算出部。
1: camera, 2: object detection unit, 3: video distribution unit, 4: LAN_SW, 5: PC for monitor display,
21: Image input I / F, 22: Image memory, 23: Work memory, 24: CPU, 25: Image output I / F, 26: Program memory, 26-1: Video receiver, 26-2: Alarm receiver 26-3: Map display section, 26-4: Buzzer control section, 26-5: Video switching section, 27: Buzzer output I / F, 28: Monitor output I / F, 29: Data bus,
31: Image capturing unit, 32: Background creation unit, 33: Difference processing unit, 34: Binarization processing unit, 35: Labeling unit, 36: Tracking processing unit, 37: Determination processing unit, 38: Object type determination unit 39: Display object region extraction unit, 40: World coordinate calculation unit, 41: Display trajectory creation unit, 42: Display data creation unit,
51: coordinate conversion unit, 52: map creation unit, 53: position determination unit, 54: object image superimposition unit, 55: locus superimposition unit, 56: face authentication unit, 57: face superimposition unit, 58: CG selection unit,
212: Pointing device, 210-1, 210-2: Monitor unit, 211: Buzzer,
304: Alarm confirmation button, 305: Buzzer stop button,
401: Image input I / F, 402: Image memory, 403: Work memory, 404: CPU, 405: Image output I / F, 408: LAN I / F,
801: Map image, 802: Building floor plan (bird's-eye view), 803-1, 803-2: Object image, 804-1, 804-2: Trajectory, 1001-1: Object image (CG), 1101: Display switch button, 1201: Object Image (face),
2000: Image processing device, 2001-1 to 2001-n: Camera image, 2002-1 to 2002-n: Marker processing unit, 2003-1 to 2003-n: Overhead coordinate conversion unit, 2004-1 to 2004-n: Overhead image creation unit, 2005: Overhead image synthesis unit, 2006: Monitor unit, 2202: Straight line detection unit, 2203: Marker position detection unit, 2204: Marker inclination calculation unit, 2205: Camera parameter calculation unit

Claims (3)

複数のカメラにより撮影された映像を取得する映像取得手段と、該取得した映像から物体を検知する物体検知手段と、映像表示手段と、該映像表示手段に映像を表示する映像表示制御手段を有する監視システムにおいて、
前記映像表示制御手段は、映像受信部とアラーム受信部とマップ表示部とブザー制御部と映像切替部と座標変換部とマップ作成部と位置判定部と物体重畳部と軌跡重畳部の機能を有し、
前記映像表示制御手段は、平面の地図画像に前記カメラの配置画像と透視立体物画像を重畳した第1の出力と、前記アラーム受信部でアラームを受信した場合に侵入者または侵入物を表す画像と侵入軌跡と前記カメラの配置画像を平面の地図画像に重畳した第2の出力を有することを特徴とする監視システム。
Video acquisition means for acquiring videos taken by a plurality of cameras, object detection means for detecting an object from the acquired videos, video display means, and video display control means for displaying video on the video display means In the monitoring system,
The video display control means has functions of a video reception unit, an alarm reception unit, a map display unit, a buzzer control unit, a video switching unit, a coordinate conversion unit, a map creation unit, a position determination unit, an object superimposition unit, and a trajectory superposition unit. And
The video display control means includes a first output obtained by superimposing the arrangement image of the camera and a perspective three-dimensional object image on a planar map image, and an image representing an intruder or an intruder when an alarm is received by the alarm receiver. And a second output in which the intrusion locus and the arrangement image of the camera are superimposed on a planar map image.
請求項1に記載の監視システムにおいて、
前記映像表示制御手段は、さらにCG選択部を有し、
前記映像表示制御手段は、平面の地図画像に前記カメラの配置画像と透視立体物画像を重畳した第1の出力と、前記アラーム受信部でアラームを受信した場合に侵入者または侵入物を表すCG画像と侵入軌跡と前記カメラの配置画像を平面の地図画像に重畳した第2の出力を有することを特徴とする監視システム。
The monitoring system according to claim 1,
The video display control means further includes a CG selection unit,
The video display control means includes a first output obtained by superimposing a camera arrangement image and a perspective three-dimensional object image on a planar map image, and a CG representing an intruder or an intruder when an alarm is received by the alarm receiver. A monitoring system comprising a second output in which an image, an intrusion locus, and an arrangement image of the camera are superimposed on a planar map image.
請求項1に記載の監視システムにおいて、複数のマーカー処理部と俯瞰座標変換部と俯瞰画像作成部と、俯瞰画像合成部を有する画像処理装置を更に設け、
前記カメラは同じマーカーを撮影し、
前記マーカーは前後左右の識別可能な図柄を有し、
前記マーカー処理部はカメラ画像からマーカーを検出し、
前記俯瞰座標変換部は前記マーカーを基準にカメラ画像に所定回転を施し、
カメラ画像から俯瞰画像を作成する俯瞰画像作成部は、前記マーカーの2辺以上の長さや傾きから、カメラの高さやカメラが設置されている地面との角度のカメラパラメータを算出し、算出したカメラパラメータを元に仮想的な俯瞰カメラで見たような真上からの画像に変換し、同じ大きさの物体であれば画面のどこに置いても同じ大きさになるように俯瞰画像を作成、もしくは複数のカメラ画像から斜め上の1点から見たような鳥瞰画像を作成し、
前記俯瞰画像合成部は、複数の俯瞰画像もしくは鳥瞰画像を1つの画像に合成することを特徴とする監視システム。
The monitoring system according to claim 1, further comprising an image processing apparatus having a plurality of marker processing units, an overhead coordinate conversion unit, an overhead image creation unit, and an overhead image synthesis unit,
The camera takes the same marker,
The marker has an identifiable pattern of front, rear, left and right,
The marker processing unit detects a marker from a camera image,
The overhead view coordinate conversion unit performs a predetermined rotation on the camera image based on the marker,
A bird's-eye view image creation unit that creates a bird's-eye view image from a camera image calculates camera parameters of the height of the camera and the angle with the ground on which the camera is installed from the length and inclination of two or more sides of the marker. Based on the parameters, it is converted to an image from directly above as seen with a virtual overhead camera, and if it is an object of the same size, create an overhead image so that it will be the same size no matter where it is placed on the screen, or Create a bird's-eye view as seen from one diagonally upper point from multiple camera images,
The monitoring system, wherein the overhead image synthesis unit synthesizes a plurality of overhead images or bird's-eye images into one image.
JP2015552396A 2013-12-10 2014-12-01 Monitoring system Active JP6403687B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013254966 2013-12-10
JP2013254966 2013-12-10
PCT/JP2014/081729 WO2015087730A1 (en) 2013-12-10 2014-12-01 Monitoring system

Publications (2)

Publication Number Publication Date
JPWO2015087730A1 true JPWO2015087730A1 (en) 2017-03-16
JP6403687B2 JP6403687B2 (en) 2018-10-10

Family

ID=53371039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015552396A Active JP6403687B2 (en) 2013-12-10 2014-12-01 Monitoring system

Country Status (2)

Country Link
JP (1) JP6403687B2 (en)
WO (1) WO2015087730A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111147811A (en) * 2019-11-20 2020-05-12 重庆特斯联智慧科技股份有限公司 Three-dimensional imaging system, imaging method and imaging device for automatic face tracking
CN111670456A (en) * 2018-02-08 2020-09-15 三菱电机株式会社 Information processing apparatus, tracking method, and tracking program

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017054311A (en) * 2015-09-09 2017-03-16 株式会社デンソー Object detection apparatus
JP6593922B2 (en) * 2015-11-13 2019-10-23 株式会社日立国際電気 Image surveillance system
JP2017134775A (en) * 2016-01-29 2017-08-03 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP6482580B2 (en) 2017-02-10 2019-03-13 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP6875255B2 (en) * 2017-11-09 2021-05-19 株式会社日立ビルシステム Video monitoring system and video monitoring device
US11341774B2 (en) * 2018-03-27 2022-05-24 Nec Corporation Information processing apparatus, data generation method, and non-transitory computer readable medium storing program
JP2020017804A (en) * 2018-07-23 2020-01-30 株式会社チャオ Image transmission device, image transmission method and image transmission program
CN111372036B (en) * 2018-12-25 2021-05-25 中国科学院深圳先进技术研究院 Video monitoring method and system
JP7178574B2 (en) * 2020-03-12 2022-11-28 パナソニックIpマネジメント株式会社 Surveillance camera management device, surveillance camera management system, surveillance camera management method and program
JP7030906B2 (en) * 2020-07-17 2022-03-07 キヤノン株式会社 Information processing equipment, information processing methods and programs
CN114237094A (en) * 2021-11-23 2022-03-25 富盛科技股份有限公司 Intelligent alarm linkage monitoring system, method, electronic equipment and medium
JP7174389B1 (en) 2022-02-18 2022-11-17 株式会社ヒューマンサポートテクノロジー Object position estimation display device, method and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001094968A (en) * 1999-09-21 2001-04-06 Toshiba Corp Video processor
JP2008199549A (en) * 2007-02-15 2008-08-28 Hitachi Ltd Monitor image processing method, monitoring system, and monitor image processing program
JP2011077982A (en) * 2009-10-01 2011-04-14 Panasonic Corp Surveillance camera system
JP2013210990A (en) * 2012-02-29 2013-10-10 Jvc Kenwood Corp Image processor, image processing method and image processing program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003078811A (en) * 2001-09-04 2003-03-14 Nippon Hoso Kyokai <Nhk> Method for associating marker coordinate, method and system for acquiring camera parameter and calibration pattern
JP3820157B2 (en) * 2002-01-21 2006-09-13 ペンタックス株式会社 Photogrammetry system, photogrammetry method and recording medium storing photogrammetry program
US20060265664A1 (en) * 2005-05-17 2006-11-23 Hitachi, Ltd. System, method and computer program product for user interface operations for ad-hoc sensor node tracking
JP5299231B2 (en) * 2009-11-17 2013-09-25 富士通株式会社 Calibration device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001094968A (en) * 1999-09-21 2001-04-06 Toshiba Corp Video processor
JP2008199549A (en) * 2007-02-15 2008-08-28 Hitachi Ltd Monitor image processing method, monitoring system, and monitor image processing program
JP2011077982A (en) * 2009-10-01 2011-04-14 Panasonic Corp Surveillance camera system
JP2013210990A (en) * 2012-02-29 2013-10-10 Jvc Kenwood Corp Image processor, image processing method and image processing program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111670456A (en) * 2018-02-08 2020-09-15 三菱电机株式会社 Information processing apparatus, tracking method, and tracking program
CN111670456B (en) * 2018-02-08 2023-09-15 三菱电机株式会社 Information processing apparatus, tracking method, and recording medium
CN111147811A (en) * 2019-11-20 2020-05-12 重庆特斯联智慧科技股份有限公司 Three-dimensional imaging system, imaging method and imaging device for automatic face tracking
CN111147811B (en) * 2019-11-20 2021-04-13 重庆特斯联智慧科技股份有限公司 Three-dimensional imaging system, imaging method and imaging device for automatic face tracking

Also Published As

Publication number Publication date
WO2015087730A1 (en) 2015-06-18
JP6403687B2 (en) 2018-10-10

Similar Documents

Publication Publication Date Title
JP6403687B2 (en) Monitoring system
US20230300466A1 (en) Video surveillance system and video surveillance method
US10614311B2 (en) Automatic extraction of secondary video streams
US6774905B2 (en) Image data processing
KR101937272B1 (en) Method and Apparatus for Detecting Event from Multiple Image
CN103283225B (en) Multi-resolution image shows
JP2017098879A (en) Monitoring device, monitoring system and monitoring method
KR101778744B1 (en) Monitoring system through synthesis of multiple camera inputs
KR101985711B1 (en) Augmented reality CCTV system, and control method for the same
JP2023126352A (en) Program, video monitoring method, and video monitoring system
KR101780929B1 (en) Image surveillence system for moving object
WO2021248564A1 (en) Panoramic big data application monitoring and control system
KR101645451B1 (en) Spatial analysis system using stereo camera
KR101937582B1 (en) Safety System for Walkway Monitor
KR102152319B1 (en) Method of calculating position and size of object in 3d space and video surveillance system using the same
KR101674033B1 (en) Image mapping system of a closed circuit television based on the three dimensional map
US11108974B2 (en) Supplementing video material
JP2003232867A (en) Method and device for detecting material object
KR101749679B1 (en) Three-dimensional shape generation system of the target track with the capture image and method thereof
WO2022022809A1 (en) Masking device
JP2005140754A (en) Method of detecting person, monitoring system, and computer program
KR102098225B1 (en) Omnidirectional image display apparatus and method
KR101728994B1 (en) Cctv monitoring system using augmented reality
EP2706483A1 (en) Privacy masking in monitoring system.
KR20200086561A (en) System and method to be connected video data of CCTV camera system with 3D control system of subway station

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180911

R150 Certificate of patent or registration of utility model

Ref document number: 6403687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250