JPWO2017169593A1 - 監視システムおよび端末装置 - Google Patents

監視システムおよび端末装置 Download PDF

Info

Publication number
JPWO2017169593A1
JPWO2017169593A1 JP2018508896A JP2018508896A JPWO2017169593A1 JP WO2017169593 A1 JPWO2017169593 A1 JP WO2017169593A1 JP 2018508896 A JP2018508896 A JP 2018508896A JP 2018508896 A JP2018508896 A JP 2018508896A JP WO2017169593 A1 JPWO2017169593 A1 JP WO2017169593A1
Authority
JP
Japan
Prior art keywords
unit
area map
terminal device
image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018508896A
Other languages
English (en)
Other versions
JP6483326B2 (ja
Inventor
木村 亮介
亮介 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Publication of JPWO2017169593A1 publication Critical patent/JPWO2017169593A1/ja
Application granted granted Critical
Publication of JP6483326B2 publication Critical patent/JP6483326B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

本発明の目的は、カメラ画像にエリアマップを容易に紐関連付けして、監視の効率向上を図ることにある。
本発明の監視システムは、撮像装置と端末装置を備えた監視システムであって、端末装置は平面エリアマップを3D化する3D処理部を備えており、撮像装置が撮像した画像データと3D処理部により3D化したエリアマップを重畳した座標対応付け画面を表示し、座標対応付け画面から指定した測定点と矩形領域を平面エリアマップ上に表示することを特徴とする。

Description

本発明は、監視システムおよび端末装置に関するものである。
従来から、大型商業施設、イベント会場、空港、駅、道路といった不特定多数の人が訪れる施設には、事故防止等の目的で、映像監視システムが設置されている。これは、監視対象の人物等をカメラ等の撮像装置で撮影し、その映像を、管理事務所や警備室等の監視センタに伝送し、常駐する監視者がそれを監視し、目的や必要に応じて、注意するものである。
このような背景から、監視者の労力を減らすための様々な機能を備える映像監視システムが普及しつつある。特に、近年では、映像中の特定の事象(イベント)の発生を、画像処理技術を用いてリアルタイムに自動検知する等のより高度な検索機能を備えた映像監視システムが登場しつつある。
その映像監視システムの実現方法としては、例えば大型商業施設においてカメラ設置エリアごとの混雑状況を電子案内マップ上でピンポイント表示するなどがあった。その結果を用いた運用として、例えば、混雑の強度が高いエリアに警備員をたくさん配置するなどがあった。
先行技術文献としては、例えば、特許文献1に、2次元撮像装置が撮影した画像の明るさと最も近い明るさの基準画像とを比較して不審物を検知する画像処理装置と、アラームを発報する発明が開示されている。
特開2011−61651号公報 特開2012−124658号公報 特開2015−32133号公報
画像処理技術の発展・精度向上や、カメラ解像度の飛躍的進化により、一台のカメラから多値・多種の画像処理情報が演算でき、一つのカメラ画角内に存在する複数の測定点・矩形を正確かつ低労力でエリアマップ上に複数測定点・矩形として対応付ける必要性がでてきた。しかしながら、空間情報であるカメラ画像上の点を平面情報であるエリアマップ上の点に紐づけるには、各々の画面を見ながらの目視による対応付けか、実フィールドでの正確な測量に基づく対応付けが必要であった。前者は不正確、後者は労力が大きいといった問題点がある。
本発明の目的は、カメラ画像にエリアマップを容易に関連付けして、監視の効率向上を図ることにある。
本発明の監視システムは、撮像装置と端末装置を備えた監視システムであって、端末装置は平面エリアマップを3D化する3D処理部を備えており、撮像装置が撮像した画像データと3D処理部により3D化したエリアマップを重畳した座標対応付け画面を表示し、座標対応付け画面から指定した測定点と矩形領域を平面エリアマップ上に表示することを特徴とする。
また、上記の監視システムは、測定点における混雑度を算出する制御装置を備えており、制御装置は混雑度に基づいた制御の要求を撮像装置へ送信することが好ましい。
さらに、本発明の端末装置は、画像データを受信する画像受信部と、平面エリアマップを3D化する3D処理部と、表示部を備えており、表示部は画像受信部により受信した画像データと3D処理部により3D化したエリアマップとを重畳した座標対応付け画面を表示し、表示部は座標対応付け画面から指定した測定点と矩形領域を平面エリアマップ上に表示することを特徴とする。
本発明によれば、カメラ画像にエリアマップを容易に関連付けして、監視の効率向上を図ることができる。
本発明の一実施例に係る監視システムの構成を示すブロック図である。 本発明の一実施例に係る監視システムの動作を説明するためのフローチャートである。 本発明の一実施例に係る端末装置の動作を説明するためのフローチャートである。 本発明の一実施例に係る端末装置の座標対応付け画面を説明するための図である。 本発明の一実施例に係る端末装置のエリアマップ調整部と3D処理部を説明するための図である。 本発明の一実施例に係る端末装置の測定点と矩形の付与を説明するための座標対応付け画面の図である。 本発明の一実施例に係る端末装置の測定点と矩形の平面エリア上の描画について説明するための図である。 本発明の一実施例に係る端末装置のカメラ画像とエリアマップ間の座標対応付けの幾何学計算概念を説明するための図である。 本発明の一実施例に係る端末装置のエリアマップを用いた撮像装置制御について説明するための図である。
以下、本発明の実施形態について図面を参照して詳細に説明する。
図1は本発明の一実施例に係る監視システムの構成を示すブロック図である。
図1において、監視システムは、撮像装置101、サーバ装置201、端末装置301、ネットワーク100で構成されている。
ネットワーク100は、データ通信を行う専用ネットワークやイントラネット、インターネット、無線LAN(Local Area Network)等の通信を行う通信手段で、撮像装置101、サーバ装置201、端末装置301等を接続している。
撮像装置101は、画像送信部102、要求受信部103、画角制御部104、雲台制御部105、撮像部106、雲台部107で構成されている。
撮像部106は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)素子等で被写体を撮影し、撮影した画像にデジタル処理を施し、ネットワーク100を介して出力する。
なお、サーバ装置201、端末装置301は、ネットワーク機能を有するPC(Personal Computer)でもよい。また、本構成では、サーバ装置201と端末装置301とが負荷分散しているが、一体でもよい。
画像送信部102は、撮像部106が撮影した画像データをネットワーク100を介してサーバ装置201や端末装置301等に出力するための処理部である。
要求受信部103は、ネットワーク100を介してサーバ装置201や端末装置301等から要求命令を受信し、その要求命令内容を解読し、装置内の各部に伝達する処理部である。
画角制御部104は、要求受信部103で受信した要求内容に応じて図示していないレンズ部の画角(ズーム倍率)を制御する。
雲台制御部105は、要求受信部103で受信した要求内容に応じて雲台部107を制御する。
雲台部107は、雲台制御部105の制御情報に基づいて、パンとチルトの動作を行う。
サーバ装置201は、画像受信部202、システム運用支援部203、要求送信部204、システム総合管理部205、画像処理演算部206、データベース部207、データベース管理部208で構成されている。
画像受信部202は、ネットワーク100を介して撮像装置101や端末装置301等からの画像入力を行う処理部である。
システム運用支援部203は、撮像装置101への命令処理内容を作成する。
要求送信部204は、システム運用支援部203で作成された命令内容を撮像装置101へ送信する。
システム総合管理部205は、ネットワーク構成、各種プロセス設定等、監視システム全体の設定要素を管理する。
画像処理演算部206は、受信画像について特定の画像処理演算、例えば画角内要所の混雑度推定を行う。
データベース部207は、画像データ、画像処理演算結果、位置情報、時刻情報等と紐(関連)づけて格納(記憶)する。また、エリアマップの情報、各カメラの設置座標・IPアドレスも格納(記憶)する。
データベース管理部208は、データベース部207と端末装置301との間でのデータ入出力管理を行う。
端末装置301は、エリアマップ表示部302、エリアマップ調整部303、3D(Three Dimensions)処理部304、カメラ映像表示部305、画像受信部306、画像要求部307、演算結果要求部308、演算結果受信部309、演算結果表示部310、座標情報送信部311、画面操作検知部312で構成されている。
エリアマップ表示部302は、データベース部207より読み込んだエリアマップをGUI(Graphical User Interface)アプリケーション上に表示する。
エリアマップ調整部303は、エリアマップの拡大、縮小、回転、切り出しを行う。
3D処理部304は、2次元平面で表現されたエリアマップの3次元表示とパン・チルト、ヨー・ピッチ・ロールの調整等を行う。
カメラ映像表示部305は、画像受信部306で受信した画像データをGUIアプリケーション上に表示する。
画像受信部306は、ネットワーク100を介して撮像装置101やサーバ装置201等からの画像入力を行う処理部である。
画像要求部307は、装置外部へ画像出力を要求する処理部であり、本例では撮像装置101へ画像データを要求する。
演算結果要求部308は、ネットワーク100を介して、データベース管理部208へ所定の条件(場所、時間等)を指定して所定の演算結果(例えば混雑度)を要求する。
演算結果受信部309は、演算結果要求部308の要求に応じた演算結果をデータベース部207から受信する。
演算結果表示部310は、演算結果受信部309が受信した演算結果をGUIアプリケーション上に表示する。
座標情報送信部311は、エリアマップとカメラ画像間での座標点フィッティング情報をサーバ装置201へ送信する。
画面操作検知部312は、外部入力デバイス401による操作受付けを行う。
外部入力デバイス部401は、キーボードやポインティングデバイス(マウス)等で構成されている。
外部出力デバイス部402は、表示装置等である。
次に、監視システムの動作について図2を用いて説明する。
図2は本発明の一実施例に係る監視システムの動作を説明するためのフローチャートである。
運用開始前に、各種装置接続を行う(2000)。
サーバ装置201は、初期設定として、ネットワーク構成、各種プロセス設定等をシステム総合管理部205に設定する(2201)。
端末装置301の準備としては、カメラ画像とエリアマップ間の測定点・矩形の座標対応付けを行う(2301)。本座標対応付け方法は、図3〜図6を用いて後述する。ここでは、エリアマップ上にカメラ位置と測定点・矩形が設定される。
次に、実運用時について図2と図9を用いて説明する。
図9は本発明の一実施例に係る端末装置のエリアマップを用いた撮像装置制御について説明するための図である。
図2において、撮像装置101は、撮像部106で撮影した画像データ(2121)を画像送信部102からネットワーク100を介してサーバ装置201の画像受信部202に送信する(2101)。
サーバ装置201の画像受信部202は撮像部106が撮影した画像データ(2121)を受信する(2202)。
画像処理演算部206は、画像受信部202が受信した画像データ(2121)に対して所定の画像処理演算を行い(2203)、演算結果をデータベース部207に出力する。
データベース部207は、演算結果を画像データ(2121)と紐づけて記憶(格納)する(2204)。
サーバ装置201は、この処理を繰り返してエリア内XY座標−測定時間T−画像処理演算値Vを蓄積(記憶)していく。
システム運用支援部203は、データベース部207のデータベース情報を用いて特徴エリアの演算を行う(2205)。この演算は、画像処理演算値が所定の特徴を持つエリアを見つけるものである。例えば、画像処理演算値が混雑度ポイントである場合、混雑度ポイントが高いエリアほど混雑しているエリアであることを示す。
システム運用支援部203は、地点x1y1を中心とした単位円内の測定点・矩形で、現時間から単位時間t遡った範囲における平均画像処理演算値v1がしきい値vt以上である地点の情報を演算により算出する(2206)。
画像処理演算値を混雑度とすると、システム運用支援部203は、混雑度が高いエリアを見つけた場合には混雑度が高いエリアの地点をより多角度から観察するため、図9に示す高混雑度点(9040)の半径α(9041)内に備え付けられたカメラ9010,9020に対して撮影方向を該当地点(9040)に向けさせる要求(2212)を要求送信部204からネットワーク100を介して、撮像装置101の要求受信部103に送信する(2207)。
システム運用支援部203は、要求(2212)の詳細として、該当カメラ9010,9020のヨー・ピッチ・ロール角・パン・チルト情報、混雑度地点(9040)の座標、該当カメラ9010,9020の座標をデータベース部207から読み出し、該当カメラ9010,9020が混雑地点(9040)を撮影するのに適したヨー・ピッチ・ロール角・パン・チルト情報との差分を、混雑度地点座標と該当カメラ座標間との空間関係より算出し、該当カメラ9010,9020にヨー・ピッチ・ロール角・パン・チルト情報を送信するものである。なお、必ずしもサーバ装置201から撮像装置101を制御する必要はなく、システム運用支援部203や要求送信部204の機能を備えた別体の制御装置から撮像装置101を制御するようにしてもよい。
撮像装置101の要求受信部103は、サーバ装置201から要求(2212)送信の有無を判定し(202)、要求送信が有る場合(YES)には(2103)の処理に進み、要求送信が無い場合(NO)には(2101)の処理に戻る。
要求受信部103は、要求(2212)の内容を解読(2103)し、(2104)の処理に進む。
要求受信部103は、要求内容を適用(2104)させるため、解読した内容に従って、画角制御部104には画角情報を送り、雲台制御部105には撮影方向情報を送る。画角制御部104は画角情報に従って図示していないレンズ部を制御し、雲台制御部105は撮影方向情報に従って雲台部107を制御する。
図9において、システム運用支援部203は混雑度が高いエリアをリアルタイムに演算し、その結果による要求(2212)を随時、該当するカメラ(撮像装置)に送信することで、自動で混雑地点を追尾することができる。
なお、特定人物検知(例えば、特許文献2参照)、特定物体検索(例えば、特許文献3参照)と連動した監視システムにおいては、画角内の人物数や物体、行動数も確率的に増えることにより、特定人物・物体・行動発見を発報する機会も増える。このように、画角固定カメラよりも、画像処理検知・検索システムのより効果的な運用に結び付けることができる。
次に、サーバ装置201と端末装置301間の実運用について説明する。
図2において、端末装置301は、実装されたGUIアプリケーション上でエリアマップ表示部302によるエリアマップ表示を行う(2302)。
なお、エリアマップ上には、すでにカメラ設置座標が登録されているものとする。
また、各々のカメラ設置座標とカメラIPアドレスを紐(関連)づけた情報は、サーバ装置201のデータベース部207に格納(記憶)されているものとする。
端末装置301の画面操作検知部312は、エリアマップ上のカメラ座標点をマウスクリックによる押下を検知、すなわちカメラ映像表示要求有りと判定(2303)する。
演算結果要求部308は、画面操作検知部312が検知したカメラ座標点に該当するカメラのIP(Internet Protocol)アドレスをサーバ装置201のデータベース管理部208へ要求する。データベース管理部208は、データベース部207に格納(記憶)しているIPアドレスを読み出して端末装置301の演算結果受信部309に返送する。
そして、カメラ画像要求部307は、画像要求(2311)をネットワーク100を介して演算結果受信部309が受信したIPアドレスの撮像装置101に要求する(2304)。
画像要求(2311)を受信した撮像装置101の要求受信部103は、端末装置301から画像要求(2311)ありと判定し(2105)、撮像部106が撮影した画像データを画像送信部102に送る。
画像送信部102は、撮像部106が撮影した画像データ(2132)をネットワーク100を介して端末装置301の画像受信部306に送信する(2106)。
端末装置301の画像受信部306は、画像データ(2132)を受信する(2305)と、カメラ表示部305に送る。
カメラ映像表示部305は、画像データ(2132)を表示する(2306)。これを繰り返すことで連続的な映像(動画)となる。
また、エリアマップ表示部302は、エリアマップ上にサーバ装置201の画像処理演算部206による画像処理演算結果を重畳表示することができる。そのためには、演算結果要求部308がサーバ装置201のデータベース管理部208に特定条件(場所、時間)を指定した演算結果要求(2308)する。
データベース管理部208は、演算結果要求有りの判定(2208)で、端末装置301の演算結果要求部308が送信した演算結果要求(2322)を受信すると、要求あり(YES)の判定となり、データベース部207から該当演算結果(2233)を読み出し、端末装置301の演算結果受信部309に返送する(該演算結果送信2209)。
端末装置301は、該当演算結果(2233)を演算結果受信部309で受信すると、その結果を用いて、演算結果表示部310が、エリアマップ上に重畳表示する(演算結果表示2309)。
次に、カメラ画像とエリアマップ間の測定点と矩形の対応付けについて図3〜図7を用いて説明する。
図3は本発明の一実施例に係る端末装置の動作を説明するためのフローチャートである。
図4は本発明の一実施例に係る端末装置の座標対応付け画面を説明するための図である。
図3において、端末装置301は、実装されているGUIのアプリケーションを起動(3001)し、エリア表示部302の機能を用いて、図4の座標対応付け画面4001にエリアマップ2302を表示する。
エリアマップ2302は、線分から構成され、各々の線分とマップ内座標には高さ情報が紐(関連)づけられている。
端末装置301は、図4において、エリアマップ2302のカメラ座標点にカメラアイコン4020を重畳し、カメラアイコン4020をマウスクリックすることでカメラIPアドレスを取得(3002)する。
端末装置301は、カメラIPアドレスを取得後、カメラ画角内測定点と矩形をエリアマップに対応付けを行うフェーズに移る。
端末装置301は、エリアマップ2302内の対応付けカメラが選択(測定点・矩形付与カメラ選択3003)されると、演算結果要求部308がカメラ映像をカメラ映像表示部305に表示させるため、画面操作検知部312が検知したカメラ座標点に該当するカメラのIPアドレスをサーバ装置201のデータベース管理部208へ要求する。データベース管理部208は、データベース部207に格納(記憶)しているIPアドレスを読み出して端末装置301の演算結果受信部309に返送する。
そして、カメラ画像要求部307は、画像要求(2311)をネットワーク100を介して演算結果受信部309が受信したIPアドレスの撮像装置101に要求する(2304)。
画像要求(2311)を受信した撮像装置101の要求受信部103は、端末装置301から画像要求(2311)ありと判定し(2105)、撮像部106が撮影した画像データを画像送信部102に送る。
画像送信部102は、撮像部106が撮影した画像データ(2132)をネットワーク100を介して端末装置301の画像受信部306に送信する(2106)。
端末装置301の画像受信部306は、画像データ(2132)を受信する(2305)と、カメラ表示部305に送る。
カメラ映像表示部305は、画像データ(2132)(要求した時点での静止フレーム)を表示する(2306)。
次に、本発明の一実施例に係る端末装置のエリアマップ調整部と3D処理部について図3と図5を用いて動作を説明する。
図5は本発明の一実施例に係る端末装置のエリアマップ調整部と3D処理部を説明するための図である。
端末装置301は、図5のエリアマップ2302上の領域5011が領域選択(3004)されると、エリアマップ調整部303がマウス等の操作に従いエリアマップの拡大、縮小、回転、切り出しを平面領域5100に対して実施する(平面領域変形3005)。
次に、3D処理部304は、2次元平面で表現されたエリアマップ5100を3次元表示するため、領域立体化3006とその調整(立体領域変形・調整3007)を実施する。
3D処理部304は、例えば、パン・チルト、ヨー・ピッチ・ロールの調整ボタン(操作群)5020などの操作に従い、3D化したエリアマップ(5101)をカメラ画像に近づけるためのフィッティング(3008)を行う。
次に、本発明の一実施例に係る端末装置の測定点と矩形の付与について図3と図6を用いて説明する。
図6は本発明の一実施例に係る端末装置の測定点と矩形の付与を説明するための座標対応付け画面の図である。
図6において、端末装置301は、立体の特定区画における立体エリアマップ上に、カメラ画像をフローティング6001、半透明表示させ、フィッティング3008を実施し、フィッティング完了後、カメラ画像上における測定点・矩形を立体エリアマップ上に描画(測定点・矩形付与3009)することで、幾何学演算により描画結果を平面エリアマップ上へ落とす(床面投射3010)。
端末装置301は、例えば、測定点・矩形描画を実現するため、座標対応付け画面4001上に測定点アイコン4002や測定矩形アイコン4003が用意され、測定点アイコン4002がマウスでクリックされ、その後にエリアマップ上で再度クリックされると測定点6002を確定し、測定矩形アイコン4003がマウスクリック後にエリアマップ上で閉じた矩形が描写6003されると測定矩形を確定する。
次に、本発明の一実施例に係る端末装置の測定点と矩形の平面エリア上の描画(床面投射)について図7を用いて説明する。
図7は本発明の一実施例に係る端末装置の測定点と矩形の平面エリア上の描画について説明するための図である。
図7において、端末装置301は、例えば、(A)立体エリアマップ上で描画した点・矩形がカメラ焦点距離の垂直平面7002に描かれた場合に、カメラ201のレンズ中心と各点を結んだ線7004を床面まで伸ばしたときに床と交差した各点7007を平面エリアマップ上に投射する。図7ではカメラ奥行方向をイメージしているが、左右方向について同様に実施する。
端末装置301は、座標情報が確定後、座標情報送信部311からサーバ装置201へ座標情報(2321)を送信する。
サーバ装置201のデータベース部207は、受信した座標情報(2321)を格納(記憶)する。
次に、発明の一実施例に係る端末装置のカメラ画像とエリアマップ間の座標対応付けの幾何学計算概念について図8を用いて説明する。
図8は本発明の一実施例に係る端末装置のカメラ画像とエリアマップ間の座標対応付けの幾何学計算概念を説明するための図である。
図8において、端末装置301は、フィッティング時、カメラ201のレンズ中心点から鉛直に伸びる垂線ベクトル角8007から、エリアマップ基準ベクトル角8008に対するヨー・ピッチ・ロール角、レンズの左下点・右下点に対応する各々の床面点間距離8006から、パン・チルトの度合いも自動幾何学計算し、サーバ装置201のデータベース部207に送信する。
サーバ装置201のデータベース部207は、受信したパン・チルトの度合いを格納(記憶)する。
本発明の実施形態である監視システムは、撮像装置と端末装置を備えており、さらに前記端末装置はエリアマップを3D化する3D処理部を備えており、前記撮像装置が撮像した画像データと前記3D処理部により3D化したエリアマップを重畳した座標対応付け画面を表示し、前記座標対応付け画面から指定した測定点と矩形領域をエリアマップ上に投射することを特徴とする。これにより、カメラ画像にエリアマップを容易に紐(関連)付けして、監視の効率向上を図ることができる。
以上、本発明の一実施形態について詳細に説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々変更して実施することができる。
例えば、エリアマップの情報をサーバ装置ではなく、端末装置に記憶させてもよい。
カメラ画像にエリアマップを容易に関連付けることによって、監視の効率向上を図る用途に適用できる。
100…ネットワーク、101…撮像装置、102…画像送信部、103…要求受信部、104…画角制御部、105…雲台制御部、106…撮像部、107:雲台部、201…サーバ装置、202…画像受信部、203…システム運用支援部、204…要求送信部、205…システム総合管理部、206…画像処理演算部、207…データベース部、208…データベース管理部、301…端末装置、302…エリアマップ表示部、303…エリアマップ調整部、304…3D処理部、305…カメラ映像表示部、306…画像受信部、307…画像要求部、308…演算結果要求部、309…演算結果受信部、310…演算結果表示部、311…座標情報送信部、312…画面操作検知部、401…外部入力デバイス部、402…外部出力デバイス部。

Claims (3)

  1. 撮像装置と端末装置を備えた監視システムにおいて、
    前記端末装置は、平面エリアマップを3D化する3D処理部を備えており、前記撮像装置が撮像した画像データと前記3D処理部により3D化したエリアマップを重畳した座標対応付け画面を表示し、前記座標対応付け画面から指定した測定点と矩形領域を平面エリアマップ上に表示することを特徴とする監視システム。
  2. 請求項1に記載の監視システムにおいて、
    前記測定点における混雑度を算出する制御装置を備えており、
    前記制御装置は、前記混雑度に基づいた制御の要求を前記撮像装置へ送信することを特徴とする監視システム。
  3. 画像データを受信する画像受信部と、平面エリアマップを3D化する3D処理部と、表示部を備えており、
    前記表示部は、前記画像受信部により受信した画像データと前記3D処理部により3D化したエリアマップとを重畳した座標対応付け画面を表示し、
    さらに前記表示部は、前記座標対応付け画面から指定した測定点と矩形領域を平面エリアマップ上に表示する ことを特徴とする端末装置。
JP2018508896A 2016-03-29 2017-03-08 監視システムおよび端末装置 Active JP6483326B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016065705 2016-03-29
JP2016065705 2016-03-29
PCT/JP2017/009249 WO2017169593A1 (ja) 2016-03-29 2017-03-08 監視システムおよび端末装置

Publications (2)

Publication Number Publication Date
JPWO2017169593A1 true JPWO2017169593A1 (ja) 2019-02-14
JP6483326B2 JP6483326B2 (ja) 2019-03-13

Family

ID=59963062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018508896A Active JP6483326B2 (ja) 2016-03-29 2017-03-08 監視システムおよび端末装置

Country Status (3)

Country Link
US (1) US20190080179A1 (ja)
JP (1) JP6483326B2 (ja)
WO (1) WO2017169593A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111343431B (zh) * 2020-03-13 2021-10-15 温州大学大数据与信息技术研究院 基于图像矫正的机场目标检测系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005286685A (ja) * 2004-03-30 2005-10-13 Hitachi Ltd 画像生成装置、システムまたは画像合成方法。
JP2005303537A (ja) * 2004-04-08 2005-10-27 Toyota Motor Corp 画像処理装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3532492B2 (ja) * 1999-06-25 2004-05-31 株式会社ザナヴィ・インフォマティクス 道路交通情報提供システム、情報提供装置、およびナビゲーション装置
DE102011115739A1 (de) * 2011-10-11 2013-04-11 Daimler Ag Verfahren zur Integration von virtuellen Objekten in Fahrzeuganzeigen

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005286685A (ja) * 2004-03-30 2005-10-13 Hitachi Ltd 画像生成装置、システムまたは画像合成方法。
JP2005303537A (ja) * 2004-04-08 2005-10-27 Toyota Motor Corp 画像処理装置

Also Published As

Publication number Publication date
WO2017169593A1 (ja) 2017-10-05
JP6483326B2 (ja) 2019-03-13
US20190080179A1 (en) 2019-03-14

Similar Documents

Publication Publication Date Title
JP2024032829A (ja) 監視システム、監視方法および監視プログラム
KR101613112B1 (ko) 비디오 획득 방법, 장치, 및 시스템
US9665776B2 (en) System and method for 2D occupancy sensing
CN103377471B (zh) 物体定位方法和装置、最优摄像机对确定方法和装置
KR101933153B1 (ko) 관심객체 이동방향에 따른 관제 영상 재배치 방법 및 장치
CN113115000B (zh) 地图生成方法及装置、电子设备和存储介质
CN113910224B (zh) 机器人跟随的方法、装置及电子设备
JP2019211337A (ja) 情報処理装置、システム、情報処理方法及びプログラム
JPWO2017038450A1 (ja) 監視システム、監視ネットワーク構築方法、およびプログラム
TWI556651B (zh) 具攝影機自動調派功能之3d影像監控系統及其監控方法
KR101338496B1 (ko) 도로 감시 방법
CA2866957C (en) Video obtaining method, device, and system
JP6032283B2 (ja) 監視カメラ管理装置、監視カメラ管理方法およびプログラム
JP6483326B2 (ja) 監視システムおよび端末装置
KR102374357B1 (ko) 밀집 통제를 위한 영상 감시 장치
KR20150019230A (ko) 복수의 카메라를 이용한 객체 추적 방법 및 장치
JP2018107587A (ja) 監視システム
KR101670247B1 (ko) Cctv 실시간 영상의 원클릭 선택을 이용한 객체 확대 이동 시스템 및 그 방법
CN112866631B (zh) 一种区域确定方法、系统、装置及电子设备
KR101572800B1 (ko) 3차원 공간 모델에 대한 카메라 제어 시스템
JP6581280B1 (ja) 監視装置、監視システム、監視方法、監視プログラム
JP6875965B2 (ja) 制御装置、制御方法、プログラム、及び監視システム
CN106856558B (zh) 具有摄影机自动调派功能的3d影像监控系统及其监控方法
KR20190022397A (ko) 위치 추적 시스템
KR102250873B1 (ko) 보안 환경에서의 외부 영상 정보 전송 시스템 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180911

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180928

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190213

R150 Certificate of patent or registration of utility model

Ref document number: 6483326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250