DK3010229T3 - Videoovervågningssystem, videoovervågningsindretning - Google Patents

Videoovervågningssystem, videoovervågningsindretning Download PDF

Info

Publication number
DK3010229T3
DK3010229T3 DK13886651.2T DK13886651T DK3010229T3 DK 3010229 T3 DK3010229 T3 DK 3010229T3 DK 13886651 T DK13886651 T DK 13886651T DK 3010229 T3 DK3010229 T3 DK 3010229T3
Authority
DK
Denmark
Prior art keywords
virtual
camera
cameras
conversion
motion property
Prior art date
Application number
DK13886651.2T
Other languages
English (en)
Inventor
Kenichi Yoneji
Daisuke Matsubara
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Application granted granted Critical
Publication of DK3010229T3 publication Critical patent/DK3010229T3/da

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Claims (10)

1. Videoovervågningssystem (200) omfattende: en ekstraktionsenhed (206), der modtager videobilleder fra hver af flerheden af kameraer (102,103) og ekstraherer en bevægelsesegenskabmængde - motion feature quantity - (104, 105) for hver af flerheden af kameraer fra en flerhed af rammer, der udgør det tilsvarende videobillede, hvor hver bevægelsesegenskabmængde er vist i et koordinatsystem, der er forbundet med det tilsvarende kamera; en lagringsenhed (111) til akkumulering af ekstraktionsresultater fra ekstraktionsenheden; en virtuelt beskuelsespunkt-genereringsenhed (203) til generering af et respektivt virtuelt beskuelsespunkt (306, 307) for hver af flerheden af kameraer, hvor hvert virtuelt beskuelsespunkt er baseret på virtuel installationstilstandsinformation (301) og på installationsinformationen (2033, 2034) af det tilsvarende kamera; en omdannelsesenhed (207) omfattende: en tredimensionel position-estimeringsenhed (2071) til estimering af en tredimensionel position af bevægelsesegenskabmængden, der ekstraheres af ekstraktionsenheden i et realt rum; og en koordinatomdannelsesenhed (2072), der er indrettet til at omdanne, for hver af de ekstraherede bevægelsesegenskabmængder, den ekstraherede bevægelsesegenskabmængde til et respektivt virtuelt koordinatsystem, hvor det virtuelle koordinatsystem er forbundet med det virtuelle beskuelsespunkt svarende til kameraet, som bevægelsesegenskabmængden svarer til, og det virtuelle koordinatsystem er forskellig fra hvert af koordinatsystemerne, der er forbundet med flerheden af kameraer, hvor den ekstraherede bevægelsesegenskabmængde omdannes ved anvendelse af den estimerede tredimensi-onelle position; og en analyseenhed (208) til analyse af de omdannede bevægelsesegenskabmængder, kendetegnet ved, at: virtuelt beskuelsespunkt-genereringsenheden beregner en position for et krydsningspunkt (402) mellem en synslinjeakse for hvert af kameraerne og grundniveauet på baggrund af installationsinformationen af hvert af kameraerne og genererer hvert virtuelt beskuelsespunkt, således at krydsningspunk- tet mellem synslinjeaksen fra hvert virtuelle beskuelsespunkt (405) og grundniveauet passes sammen med krydsningspunktet mellem synslinjeaksen af det tilsvarende kamera (401) og grundniveauet.
2. Videoovervågningssystem ifølge krav 1, hvor videoovervågningssystemet (200) endvidere omfatter: en omdannelsesfremgangsmådebestemmelsesenhed (204) til bestemmelse af, under anvendelse af hvert virtuelt beskuelsespunkt, en omdannelsesfremgangsmåde (211), der anvendes ved omdannelse af den tilsvarende bevægelsesegenskabmængde; og hvor omdannelse af hver bevægelsesegenskabmængde ved hjælp af koordinatomdannelsesenheden (2072) udføres ved yderligere anvendelse af den tilsvarende bestemte omdannelsesfremgangsmåde.
3. Videoovervågningssystem ifølge krav 2, endvidere omfattende: en flerhed af omdannelsesenhederne; og en fremvisningsenhed (209) til fremvisning af et analyseresultat fra en flerhed af analyseresultater fra analyseenheden (208), og hvor analyseresultatet, der fremvises af fremvisningsenheden, er valgt på baggrund af et styresignal.
4. Videoovervågningssystem ifølge krav 1, hvor virtuelt beskuelsespunkt-genereringsenheden (203) er konfigureret til at: ekstrahere en position af en hvid linje fra input-vejinformation; beregne et punkt på den hvide linje tættest på krydsningspunktet; og, af positioner af kameraerne hver synslinje, hvis midte er punktet på den hvide linje, at generere en position med en højde, der er lig med en højde fra grundniveauet i den virtuelle installationstilstand 301, og med en vinkel, der er lig med en vinkel fra grundniveauet i den virtuelle installationstilstand som et virtuelt beskuelsespunkt.
5. Videoovervågningssystem ifølge krav 1, endvidere omfattende en brugergrænseflade (804) til indstilling af den virtuelle installationstilstand.
6. Videoovervågningsfremgangsmåde omfattende: et ekstraktionstrin for hver af flerheden af kameraer til modtagelse af et videobillede fra kameraet og ekstraktion afen bevægelsesegenskabmængde fra en flerhed af rammer, der udgør videobilledet, hvor bevægelsesegenskabmængden vises i et koordinatsystem, der er forbundet med det tilsvarende kamera; et lagringstrin for hver af flerheden af kameraer til akkumulering af ekstraktionsresultater fra ekstraktionstrinnet; et genereringstrin for hver af flerheden af kameraer til generering af et virtuelt beskuelsespunkt for kameraet, hvor det virtuelle beskuelsespunkt er baseret på virtuel installationstilstandsinformation og på installationsinformation af kameraet; et omdannelsestrin for hver af de ekstraherede bevægelsesegenskabmængder omfattende: et tredimensionel position-estimeringstrin til estimering af en tredimensionel position af bevægelsesegenskabmængden, der ekstraheres i ekstraktionstrinnet i et realt rum; og et koordinatomdannelsestrin til omdannelse af den ekstraherede bevægelsesegenskabmængde til et virtuelt koordinatsystem, hvor det virtuelle koordinatsystem er forbundet med det virtuelle beskuelsespunkt svarende til kameraet, som bevægelsesegenskabmængden svarer til, og det virtuelle koordinatsystem er forskellig fra hvert af koordinatsystemerne, der er forbundet med flerheden af kameraer, hvor den ekstraherede bevægelsesegenskabmængde omdannes ved anvendelse af den estimerede tredimensionelle position; og et analysetrin til analyse af de omdannede bevægelsesegenskabmængder, kendetegnet ved, at: genereringstrinnet for hver af flerheden af kameraer beregner en position for et krydsningspunkt mellem en synslinjeakse for kameraet og grundniveauet på baggrund af installationsinformation af kameraet og genererer det virtuelle beskuelsespunkt, således at krydsningspunktet mellem synslinjeaksen fra det virtuelle beskuelsespunkt og grundniveauet passes sammen med krydsningspunktet mellem synslinjeaksen af kameraet og grundniveauet.
7. Videoovervågningsfremgangsmåde ifølge krav 6, hvor omdannelsestrinnet for hver af de ekstraherede bevægelsesegenskabmængder endvidere omfatter: et omdannelsesfremgangsmådebestemmelsestrin til bestemmelse af, under anvendelse af det virtuelle beskuelsespunkt svarende til kameraet, som bevægelsesegenskabmængden svarer til, en omdannelsesfremgangsmåde, der anvendes ved omdannelse af bevægelsesegenskabmængden; og hvor omdannelsen af bevægelsesegenskabmængden i koordinatomdannelsestrinnet udføres ved anvendelse af den bestemte omdannelsesfremgangsmåde.
8. Videoovervågningsfremgangsmåde ifølge krav 7, endvidere omfattende: et fremvisningstrin til fremvisning af et analyseresultat fra en flerhed af analyseresultater fra analyseenheden, og hvor analyseresultatet, der fremvises i fremvisningstrinnet, er valgt på baggrund af et styresignal.
9. Computerlæsbart informationsregistreringsmedium, hvorpå der er lagret et program til at bevirke, at en computer udfører de følgende trin: et ekstraktionstrin for hver af en flerhed af kameraer til modtagelse af et videobillede fra kameraet og ekstraktion afen bevægelsesegenskabmængde fra en flerhed af rammer, der udgør videobilledet, hvor bevægelsesegenskabmængden er vist i et koordinatsystem, der er forbundet med det tilsvarende kamera; et lagringstrin for hver af flerheden af kameraer til akkumulering af ekstraktionsresultater fra ekstraktionstrinnet; et genereringstrin for hver af flerheden af kameraer til generering af et virtuelt beskuelsespunkt for kameraet, hvor det virtuelle beskuelsespunkt er baseret på virtuel installationstilstandsinformation og på installationsinformation af kameraet; et omdannelsestrin for hver af de ekstraherede bevægelsesegenskabmængder omfattende: et tredimensionel position-estimeringstrin til estimering af en tredimensionel position af bevægelsesegenskabmængden, der ekstraheres i ekstraktionstrinnet i et realt rum; og et koordinatomdannelsestrin til omdannelse af den ekstraherede bevægelsesegenskabmængde til et virtuelt koordinatsystem, hvor det virtuelle koordinatsystem er forbundet med det virtuelle beskuelsespunkt svarende til kameraet, som bevægelsesegenskabmængden svarer til, og det virtuelle koordinatsystem er forskellig fra hvert af koordinatsystemerne, der er forbundet med flerheden af kameraer, hvor den ekstraherede bevægelsesegenskabmængde omdannes ved anvendelse af den estimerede tredimensionelle position; og et analysetrin til analyse af de omdannede bevægelsesegenskabmængder, hvor genereringstrinnet for hver af flerheden af kameraer beregner en position for et krydsningspunkt mellem en synslinjeakse for kameraet og grundniveauet på baggrund af installationsinformation af kameraet og genererer det virtuelle beskuelsespunkt, således at krydsningspunktet mellem synslinjeaksen fra det virtuelle beskuelsespunkt og grundniveauet passes sammen med krydsningspunktet mellem synslinjeaksen af det tilsvarende kamera og grundniveauet.
10. Informationsregistreringsmedium ifølge krav 9, hvor omdannelsestrinnet for hver af de ekstraherede bevægelsesegenskabmængder endvidere omfatter: et omdannelsesfremgangsmådebestemmelsestrin til bestemmelse af, under anvendelse af det virtuelle beskuelsespunkt svarende til kameraet, som bevægelsesegenskabmængden svarer til, en omdannelsesfremgangsmåde, der anvendes ved omdannelse af bevægelsesegenskabmængden; og omdannelse af bevægelsesegenskabmængden i koordinatomdannelsestrinnet udføres ved anvendelse af den bestemte omdannelsesfremgangsmåde.
DK13886651.2T 2013-06-14 2013-06-14 Videoovervågningssystem, videoovervågningsindretning DK3010229T3 (da)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/066418 WO2014199505A1 (ja) 2013-06-14 2013-06-14 映像監視システム、監視装置

Publications (1)

Publication Number Publication Date
DK3010229T3 true DK3010229T3 (da) 2019-03-18

Family

ID=52021835

Family Applications (1)

Application Number Title Priority Date Filing Date
DK13886651.2T DK3010229T3 (da) 2013-06-14 2013-06-14 Videoovervågningssystem, videoovervågningsindretning

Country Status (6)

Country Link
US (1) US10491863B2 (da)
EP (1) EP3010229B1 (da)
JP (1) JP6182607B2 (da)
CN (1) CN105284108B (da)
DK (1) DK3010229T3 (da)
WO (1) WO2014199505A1 (da)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6539253B2 (ja) * 2016-12-06 2019-07-03 キヤノン株式会社 情報処理装置、その制御方法、およびプログラム
WO2018123801A1 (ja) * 2016-12-28 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル配信方法、三次元モデル受信方法、三次元モデル配信装置及び三次元モデル受信装置
JP6815935B2 (ja) * 2017-06-05 2021-01-20 日立オートモティブシステムズ株式会社 位置推定装置
JP6482696B2 (ja) 2017-06-23 2019-03-13 キヤノン株式会社 表示制御装置、表示制御方法、およびプログラム
JP2019102907A (ja) * 2017-11-30 2019-06-24 キヤノン株式会社 設定装置、設定方法、及びプログラム
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
JP7164968B2 (ja) * 2018-05-07 2022-11-02 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム
JP7277085B2 (ja) * 2018-07-04 2023-05-18 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7123736B2 (ja) * 2018-10-23 2022-08-23 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7423196B2 (ja) * 2019-05-09 2024-01-29 キヤノン株式会社 撮像装置、撮像システム、およびその制御方法
JP7358078B2 (ja) * 2019-06-07 2023-10-10 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及び、プログラム
JP2021179728A (ja) * 2020-05-12 2021-11-18 株式会社日立製作所 映像処理装置、及び、その方法
US11765223B2 (en) * 2020-12-04 2023-09-19 Kabushiki Kaisha Toshiba Information processing system

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US5912700A (en) * 1996-01-10 1999-06-15 Fox Sports Productions, Inc. System for enhancing the television presentation of an object at a sporting event
US6567116B1 (en) * 1998-11-20 2003-05-20 James A. Aman Multiple object tracking system
WO2005099423A2 (en) * 2004-04-16 2005-10-27 Aman James A Automatic event videoing, tracking and content generation system
US7796162B2 (en) * 2000-10-26 2010-09-14 Front Row Technologies, Llc Providing multiple synchronized camera views for broadcast from a live venue activity to remote viewers
US6816185B2 (en) * 2000-12-29 2004-11-09 Miki Harmath System and method for judging boundary lines
JP3814779B2 (ja) 2001-03-27 2006-08-30 三菱電機株式会社 侵入者自動追尾方法および装置並びに画像処理装置
US7143083B2 (en) * 2001-06-12 2006-11-28 Lucent Technologies Inc. Method and apparatus for retrieving multimedia data through spatio-temporal activity maps
US7173672B2 (en) * 2001-08-10 2007-02-06 Sony Corporation System and method for transitioning between real images and virtual images
US6950123B2 (en) * 2002-03-22 2005-09-27 Intel Corporation Method for simultaneous visual tracking of multiple bodies in a closed structured environment
JP4192680B2 (ja) 2003-05-28 2008-12-10 アイシン精機株式会社 移動体周辺監視装置
KR100603601B1 (ko) 2004-11-08 2006-07-24 한국전자통신연구원 다시점 콘텐츠 생성 장치 및 그 방법
EP2200313A1 (en) * 2004-11-12 2010-06-23 Saab Ab Image-based movement tracking
US9182228B2 (en) * 2006-02-13 2015-11-10 Sony Corporation Multi-lens array system and method
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
US8457392B2 (en) * 2007-07-27 2013-06-04 Sportvision, Inc. Identifying an object in an image using color profiles
US20090113505A1 (en) * 2007-10-26 2009-04-30 At&T Bls Intellectual Property, Inc. Systems, methods and computer products for multi-user access for integrated video
US8049750B2 (en) * 2007-11-16 2011-11-01 Sportvision, Inc. Fading techniques for virtual viewpoint animations
US8184855B2 (en) * 2007-12-10 2012-05-22 Intel Corporation Three-level scheme for efficient ball tracking
EP2150057A3 (en) * 2008-07-29 2013-12-11 Gerald Curry Camera-based tracking and position determination for sporting events
IL207116A (en) * 2009-08-10 2014-12-31 Stats Llc Location tracking method and method
US9286720B2 (en) * 2009-08-20 2016-03-15 Northrop Grumman Systems Corporation Locative video for situation awareness
JP5470111B2 (ja) 2010-03-15 2014-04-16 オムロン株式会社 監視カメラ端末
US9600760B2 (en) * 2010-03-30 2017-03-21 Disney Enterprises, Inc. System and method for utilizing motion fields to predict evolution in dynamic scenes
JP5645450B2 (ja) 2010-04-16 2014-12-24 キヤノン株式会社 画像処理装置および方法
US20110298988A1 (en) * 2010-06-04 2011-12-08 Toshiba Alpine Automotive Technology Corporation Moving object detection apparatus and moving object detection method
US8532367B2 (en) * 2010-08-17 2013-09-10 Raytheon Company System and method for 3D wireframe reconstruction from video
JP5525495B2 (ja) * 2011-08-30 2014-06-18 株式会社日立製作所 映像監視装置、映像監視方法およびプログラム
US8457357B2 (en) * 2011-11-09 2013-06-04 Disney Enterprises, Inc. Relative pose estimation of non-overlapping cameras using the motion of subjects in the camera fields of view

Also Published As

Publication number Publication date
CN105284108B (zh) 2019-04-02
EP3010229A4 (en) 2017-01-25
JPWO2014199505A1 (ja) 2017-02-23
US10491863B2 (en) 2019-11-26
EP3010229A1 (en) 2016-04-20
JP6182607B2 (ja) 2017-08-16
EP3010229B1 (en) 2019-02-06
CN105284108A (zh) 2016-01-27
US20160127692A1 (en) 2016-05-05
WO2014199505A1 (ja) 2014-12-18

Similar Documents

Publication Publication Date Title
DK3010229T3 (da) Videoovervågningssystem, videoovervågningsindretning
US10297084B2 (en) Identification of relative distance of objects in images
EP2851880B1 (en) Method, system and storage medium for controlling an image capture device, in particular of a door station
KR102335045B1 (ko) 깊이 카메라 기반 사람 객체를 판별하는 방법 및 장치
US20160021355A1 (en) Preprocessor for Full Parallax Light Field Compression
CN107646109B (zh) 管理电子设备上的环境映射的特征数据
KR101181967B1 (ko) 고유식별 정보를 이용한 3차원 실시간 거리뷰시스템
WO2012015563A1 (en) Video summarization using video frames from different perspectives
KR101073432B1 (ko) 3차원 공간정보를 통합한 도시 관리 시스템 구축장치 및 방법
CN113711276A (zh) 尺度感知单目定位和地图构建
US20180020203A1 (en) Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium
KR102473165B1 (ko) 3d 환경 모델을 이용하여 피사체의 실제 크기를 측정 가능한 cctv 관제 시스템
KR20170093421A (ko) 영상 처리 장치에 의해 수행되는 영상에서 관심 객체를 판별하는 방법, 영상 처리 장치 및 컴퓨팅 장치
KR102068489B1 (ko) 3차원 객체 생성 장치
KR20160039447A (ko) 스테레오 카메라를 이용한 공간분석시스템
KR101036107B1 (ko) 고유식별 정보를 이용한 증강 현실 구현시스템
US20220114749A1 (en) Information integration method, information integration device, and information integration program
KR102028726B1 (ko) 공간 내의 물체 운동 분석 장치 및 그 제어 방법
KR20200109799A (ko) 영상내 객체의 깊이정보를 추정하는 장치 및 방법
KR102347658B1 (ko) 영상 처리 방법
CN110546677A (zh) 在应用相互关联规则挖掘的增强现实技术中支持军用装备维修的服务器、方法及可穿戴设备
Bohez et al. Cloudlet-based large-scale 3D reconstruction using real-time data from mobile depth cameras
KR20230053262A (ko) 2d 현실공간 이미지를 기반의 3d 객체 인식 및 변환 방법과 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
JP2023020071A (ja) 物体移動計測装置、システム、方法、及びプログラム
KR20210081223A (ko) 2d 영상 및 3d 영상의 융합을 통한 공간 상황 인지 장치, 방법, 및 시스템