JP2019176378A - 制御装置、監視システム、及び監視カメラ制御方法 - Google Patents

制御装置、監視システム、及び監視カメラ制御方法 Download PDF

Info

Publication number
JP2019176378A
JP2019176378A JP2018063965A JP2018063965A JP2019176378A JP 2019176378 A JP2019176378 A JP 2019176378A JP 2018063965 A JP2018063965 A JP 2018063965A JP 2018063965 A JP2018063965 A JP 2018063965A JP 2019176378 A JP2019176378 A JP 2019176378A
Authority
JP
Japan
Prior art keywords
camera
imaging devices
flow line
imaging
tracking information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018063965A
Other languages
English (en)
Other versions
JP6828708B2 (ja
Inventor
浩介 滝
Kosuke Taki
浩介 滝
洋一 平沼
Yoichi Hiranuma
洋一 平沼
文弥 坂下
Fumiya Sakashita
文弥 坂下
翔一 坂口
Shoichi Sakaguchi
翔一 坂口
尚平 藤原
Shohei Fujiwara
尚平 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2018063965A priority Critical patent/JP6828708B2/ja
Priority to US16/365,797 priority patent/US10771716B2/en
Publication of JP2019176378A publication Critical patent/JP2019176378A/ja
Application granted granted Critical
Publication of JP6828708B2 publication Critical patent/JP6828708B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Abstract

【課題】被検知体が所定の撮像領域から他の撮像領域に移動する場合に、容易に被検知体の追跡情報を設定することができる制御装置、監視システム、及び監視カメラ制御方法を提供する。【解決手段】監視システム100は、複数のカメラC1〜Cnと、制御装置5とを備える。制御装置5は、装置記憶部54と、出力装置53と、入力装置52とを備える。装置記憶部54は、複数のカメラC1〜Cnのそれぞれのカメラによって撮像された撮像画像を記憶する。出力装置53は、複数のカメラC1〜Cnの位置関係を示す。入力装置52は、複数のカメラC1〜Cnのうちの1つのカメラに対して撮像画像内の特定追跡対象物を追跡するための追跡情報を設定する。入力装置52が、複数のカメラC1〜Cnの位置関係に対して仮想動線を入力する場合、複数のカメラC1〜Cnのうち1つのカメラ以外の仮想動線に対応するカメラに対して追跡情報を設定する。【選択図】図1

Description

本発明は、制御装置、監視システム、及び監視カメラ制御方法に関する。
特許文献1には、最適カメラ設定装置が開示されている。特許文献1に開示の最適カメラ設定装置は、人物追跡部と、人物解析部と、カメラ配置状況推定部と、ユーザー提示部とを備える。人物追跡部は、被写体を撮影するカメラで撮影された撮影画像から人物を検出し追跡する。人物解析部は、人物追跡部で追跡された人物に対して、顔の検出回数と、移動方向と、顔向きと、ピントと、ダイナミックレンジと、画角とを含む項目を来店者情報として抽出する。カメラ配置状況推定部は、人物解析部で抽出された来店者情報を用いて、カメラの配置位置と、高さと、画角と、フォーカスとを含む配置状況が適しているかを推定する。ユーザー提示部は、カメラ配置状況推定部で推定された結果を提示する。具体的には、最適カメラ設定装置は、顔照合と年齢性別推定との画像認識処理に最適なカメラの配置位置と、高さと、画角と、フォーカスとを含む配置状況をユーザーに提示する。カメラの配置位置と、高さと、画角と、フォーカスとの設定を簡単に行うことが可能となり、作業効率が向上する。
国際公開第2013/114862号パンフレット
しかしながら、特許文献1に開示された技術では、被検知体が所定の撮像領域から他の撮像領域に移動する場合に、被検知体の追跡情報を設定することが容易ではない。
本発明は、上記課題に鑑み、被検知体が所定の撮像領域から他の撮像領域に移動する場合に、容易に被検知体の追跡情報を設定することができる制御装置、監視システム、及び監視カメラ制御方法を提供することを目的とする。
本発明に係る制御装置は、複数の撮像装置を制御する。制御装置は、記憶部と、表示部と、入力部とを備える。前記記憶部は、前記複数の撮像装置のそれぞれの撮像装置によって撮像された撮像画像を記憶する。前記表示部は、前記複数の撮像装置の位置関係を表示する。前記入力部は、前記複数の撮像装置のうちの1つの撮像装置に対して撮像画像内の特定追跡対象物を追跡するための追跡情報を設定する。前記入力部が、前記複数の撮像装置の前記位置関係を示す画像に対して仮想動線を入力する場合、前記複数の撮像装置のうち前記1つの撮像装置以外の前記仮想動線に対応する撮像装置に対して前記追跡情報を設定する。
本発明に係る監視システムは、撮像装置と、制御装置とを備える。撮像装置は、複数である。制御装置は、記憶部と、表示部と、入力部とを備える。前記記憶部は、前記複数の撮像装置のそれぞれの撮像装置によって撮像された撮像画像を記憶する。前記表示部は、前記複数の撮像装置の位置関係を表示する。前記入力部は、前記複数の撮像装置のうちの1つの撮像装置に対して撮像画像内の特定追跡対象物を追跡するための追跡情報を設定する。前記入力部が、前記複数の撮像装置の前記位置関係を示す画像に対して仮想動線を入力する場合、前記複数の撮像装置のうち前記1つの撮像装置以外の前記仮想動線に対応する撮像装置に対して前記追跡情報を設定する。
本発明に係る監視カメラ制御方法は、制御装置の制御により複数の撮像装置を設定する。監視カメラ制御方法は、記憶ステップと、表示ステップと、入力ステップとを備える。前記記憶ステップは、前記複数の撮像装置のそれぞれの撮像装置によって撮像された撮像画像を記憶部により記憶する。前記表示ステップは、前記複数の撮像装置の位置関係を表示部により表示する。前記入力ステップは、前記複数の撮像装置のうちの1つの撮像装置に対して撮像画像内の特定追跡対象物を追跡するための追跡情報を入力部により設定する。前記入力ステップは、前記入力部により、前記複数の撮像装置の前記位置関係を示す画像に対して仮想動線を入力する場合、前記複数の撮像装置のうち前記1つの撮像装置以外の前記仮想動線に対応する撮像装置に対して前記追跡情報を設定する。
本発明によれば、被検知体が所定の撮像領域から他の撮像領域に移動する場合に、被検知体を容易に追跡設定することができる。
本発明の実施形態1に係る監視システムの構成を示す図である。 本発明の実施形態1に係る追跡情報の設定処理を示すフローチャートである。 本発明の実施形態1に係る追跡情報の設定処理を示すフローチャートである。 本発明の実施形態1に係る追跡情報の設定画面の一例を示す図である。 本発明の実施形態1に係る追跡情報の設定画面において仮想動線の候補の一例を示す図である。 本発明の実施形態1に係る追跡情報の設定画面において仮想動線の候補の一例を示す図である。 本発明の実施形態1に係る追跡情報の設定画面において仮想動線の候補の一例を示す図である。 本発明の実施形態1に係る撮像画像データの一例を示す図である。 本発明の実施形態2に係る追跡情報の設定画面において被検知体の動線の一例を示す図である。 本発明の実施形態3に係る追跡情報の設定画面においてカメラの撮影範囲の一例を示す図である。
以下、図面を参照して、本発明に係る監視システムの実施形態について説明する。なお、図中、同一又は相当部分については同一の参照符号を付して説明を繰り返さない。
[実施形態1]
まず、図1を参照して、本発明の実施形態1に係る監視システム100について説明する。図1は、実施形態1に係る監視システム100の構成を示す図である。実施形態に係る監視システム100は、複数のカメラC1〜Cnを制御して、複数のカメラC1〜Cnに被検知体の追跡情報を設定する。被検知体は、監視システム100の管理者によって設定される。被検知体は、例えば、特定の人物の顔、又は特定の人物の全身である。被検知体は、特定追跡対象物の一例である。
図1に示すように、監視システム100は、複数のカメラC1〜Cnと、制御装置5とを備える。カメラC1〜Cnの各々は、撮像装置の一例である。
カメラC1〜Cnは、それぞれ撮像素子11と、カメラ通信部12と、カメラ記憶部13と、カメラ制御部14とを備える。実施形態1において、カメラC1〜Cnの構成と機能とは各々同等である。以下、カメラC1の構成と機能を説明する。
撮像素子11は、所定の撮像領域を撮像する。撮像素子11は、撮像画像を示すデータを生成し、カメラ制御部14へ送信する。撮像素子11は、例えば、CCD(Charge Coupled Device)イメージセンサー、又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサーである。
カメラC1の撮像領域は、建物の1階のフロアの所定の領域である。
カメラ通信部12は、同じ通信方式(プロトコル)を利用する通信機が搭載された電子機器との間で通信が可能である。カメラ通信部12は、LAN(Local Area Network)などのネットワーク網を介して制御装置5と通信する。カメラ通信部12は、例えば、LANボードのような通信モジュール(通信機器)である。実施形態1において、カメラ通信部12は、撮像画像データを制御装置5へ送信する。
カメラ記憶部13は、撮像画像データなどの各種データを記憶する。カメラ記憶部13は、半導体メモリーによって構成される。半導体メモリーは、例えば、RAM(Random Access Memory)及びROM(Read Only Memory)を構成する。
カメラ制御部14は、カメラ記憶部13に記憶されたカメラ制御プログラムを実行することによって、カメラC1が備える各部の動作を制御する。カメラ制御部14は、例えば、MPU(micro processing unit)のようなプロセッサーによって構成される。
カメラC1〜Cnのうち、制御装置5により追跡情報の設定が行われたカメラは、撮像画像データに基づいて被検知体を追跡する。以下、カメラC1に追跡情報の設定が行われたとして説明する。
カメラC1のカメラ制御部14は、例えば、背景差分法によって、撮像画像の変化を検知する。あるいは、カメラ制御部14は、隣接フレーム間差分法によって、撮像画像の変化を検知する。カメラ制御部14は、撮像画像の変化を検知することにより、被検知体を追跡する。
カメラ制御部14は、撮像画像の変化を検知すると、撮像画像データをカメラC1のカメラ記憶部13に記憶させる。また、カメラ制御部14は、撮像画像の変化を検知すると、撮像画像の変化を検知したことを示すデータを、カメラC1のカメラ通信部12を介して制御装置5へ送信する。以下、撮像画像の変化を検知したことを示すデータを「変化検知データ」と記載する。
制御装置5は、装置通信部51と、入力装置52と、出力装置53と、装置記憶部54と、装置制御部55とを備える。入力装置52は、入力部の一例である。出力装置53は、表示部の一例である。装置記憶部54は、記憶部の一例である。制御装置5は、例えば、サーバーである。
装置通信部51は、同じ通信方式(プロトコル)を利用する通信機が搭載された電子機器との間で通信が可能である。装置通信部51は、LANなどのネットワーク網を介してカメラ通信部12と通信する。装置通信部51は、例えば、LANボードのような通信モジュール(通信機器)である。実施形態1において、装置通信部51は、撮像画像データをカメラ通信部12から受信する。装置通信部51は、カメラ制御部14が撮像画像の変化を検知すると、変化検知データをカメラ通信部12から受信する。
入力装置52は、制御装置5に対するユーザーの指示の入力を受け付ける。具体的には、被検知体を追跡するための追跡情報を設定する。実施形態1において、入力装置52は、タッチセンサーを含む。なお、入力装置52は、キーボード及びマウスを含み得る。
出力装置53は、複数のカメラC1〜Cnの位置関係を示す。具体的には、出力装置53は、建物の1階のフロアのレイアウトを表示し、さらにそのレイアウト上に複数のカメラC1〜Cnを表示する。出力装置53は、液晶ディスプレーのようなディスプレーを含む。
装置記憶部54は、撮像画像データなどの各種データを記憶する。装置記憶部54は、ストレージデバイス及び半導体メモリーによって構成される。ストレージデバイスは、例えば、HDD(Hard Disk Drive)及び/又はSSD(Solid State Drive)によって構成される。半導体メモリーは、例えば、RAM及びROMを構成する。
装置記憶部54に記憶された装置制御プログラムを実行することによって、装置制御部55は、制御装置5が備える各部の動作を制御する。装置制御部55は、例えば、CPU(Central Processing Unit)のようなプロセッサーによって構成される。
装置制御部55は、入力装置52が撮像画像の出力の指示を受け付けると、装置通信部51が受信した撮像画像データに基づいて出力装置53に撮像画像を出力させる。あるいは、装置制御部55は、装置記憶部54に記憶された撮像画像データに基づいて出力装置53に撮像画像を出力させる。
次に、図2及び図3を参照して、実施形態1に係る監視システムが被検知体の追跡情報を設定する処理について説明する。図2及び図3は、実施形態1に追跡情報の設定処理を示すフローチャートである。なお、以下の処理において、装置通信部51、入力装置52、出力装置53、及び装置記憶部54は、装置制御部55の制御に従って動作する。また、カメラC1〜Cnの各々において、撮像素子11、カメラ通信部12、及びカメラ記憶部13は、カメラ制御部14に従って動作する。
まず、追跡情報の設定処理が開始する(スタート)。次に、ステップS101において、ユーザーが入力装置52のタッチセンサーを用いて追跡指示を入力した場合(ステップS101のYes)、処理はステップS102に進む。
ステップS102において、1つのカメラに追跡情報を設定する。以下、カメラC1に追跡情報の設定が行われたとして説明する。一方、ユーザーが追跡指示を入力しない場合(ステップS101のNo)、ユーザーが追跡指示を入力するまで待機する。ステップS102における追跡情報の設定の詳細については、図4を参照して後述する。ステップS102において、追跡情報を設定した後、処理はステップS103に進む。
ステップS103において、出力装置53が建物の1階のフロアのレイアウトと、フロアのレイアウトに配置された複数のカメラC1〜Cnとを表示する。出力装置53は、フロアのレイアウトと複数のカメラC1〜Cnとを表示することにより、複数のカメラC1〜Cnの位置関係を示す。ステップS103のフロアのレイアウトと複数のカメラC1〜Cnとを表示する処理の詳細については、後述する。ステップS103の処理の後、処理は、ステップS104に進む。
ステップS104において、ユーザーの指示に基づいて入力装置52が仮想動線を入力するか否かを判定する(ステップS104)。仮想動線は、ユーザーの指示に基づいて入力装置52が入力した線であり、被検知体の仮想的な動きを示す線である。仮想動線として、曲線、折れ線及び直線の何れか1つを用いることができる。
ステップ104において、入力装置52が仮想動線を入力しない場合(ステップS104のYes)、処理はステップS105に進む。ステップS105において、入力装置52が、追跡情報の設定処理を終了するか否かを判定する。ステップS105において、入力装置52が追跡情報の設定処理を終了すると判定した場合(ステップS105のYes)、追跡情報の設定処理を終了する。ステップS105において、入力装置52が追跡情報の設定処理を終了しないと判定した場合(ステップS105のNo)、処理は、ステップS104に戻り、入力装置52は、ステップS104を実行する。一方、ステップ104において、入力装置52が仮想動線を入力する場合(ステップS104のYes)、処理は、ステップS106に進む。
ステップS106において、入力装置52が仮想動線を入力する。ステップS106における仮想動線の入力の詳細については、図5〜図7を参照して後述する。ステップS106において、仮想動線を入力した後、処理は、ステップS107に進む。
ステップS107において、入力装置52は、複数のカメラC1〜Cnのうち、追跡情報を設定するカメラを選択する。ステップS107において、既に追跡情報を設定したカメラC1を除いた複数のカメラC2〜Cnから仮想動線に対応するカメラを選択する。ステップS107における追跡情報を設定するカメラの選択の詳細については、図7を参照して後述する。ステップS107において、追跡情報を設定するカメラを選択した後、処理はステップS108に進む。
ステップS108において、入力装置52は、選択したカメラに追跡情報を設定する。選択したカメラに設定する追跡情報は、ステップS102において入力装置52がカメラC1に設定し、装置記憶部54が記憶している追跡情報と同一の追跡情報である。
入力装置52は、装置記憶部54が記憶している追跡情報を読み出し、選択したカメラを特定する情報と、追跡情報とを装置通信部51に出力する。装置通信部51は、選択したカメラのカメラ通信部12と通信することにより、選択したカメラに追跡情報を設定する。なお、選択したカメラに追跡情報を設定する手順は、ステップ102においてカメラC1に追跡情報を設定する手順と同一である。これにより、選択した全てのカメラにカメラC1の追跡情報と同一の追跡情報が設定され、選択されたカメラが追跡可能になる。
このように、カメラC1を除いた複数のカメラC2〜Cnのうち、仮想動線に対応するカメラに対して入力装置52が追跡情報を設定することにより、被検知体が所定の撮像領域から他の撮像領域に移動する場合に、容易に被検知体の追跡情報を設定することができる。
また、複数のカメラC1〜Cnのうち、ステップ102においてユーザーにより選択されたカメラC1と、ステップS107において入力装置52が選択したカメラとに同一の追跡情報が設定される。その結果、被検知体が特定の人物の顔である場合、又は被検知体が特定の人物の全身である場合に、特に効率よく被検知体を追跡することができる。即ち、被検知体が特定の人物の顔である場合、又は被検知体が特定の人物の全身である場合、被検知体の大きさは変化しないため、各カメラに同一の追跡情報を設定することにより効率よく追跡を行うことができる。
ステップS108において、入力装置52が選択したカメラに追跡情報を設定した後、処理は、ステップS109に進む。
ステップS109において、追跡情報が設定されたカメラは、被検知体に対して追跡を行う(ステップS109)。即ち、追跡情報が設定されたカメラのカメラ制御部14は、公知の追跡処理により、追跡情報が設定されたカメラの撮像素子11で撮像された撮像画像データに基づいて被検知体を追跡する。そして、追跡情報が設定されたカメラのカメラ制御部14は、撮像画像の変化を検知すると、撮像画像の変化を検知したことを示す変化検知データを、カメラ通信部12を介して制御装置5へ送信する。
追跡情報が設定されたカメラ制御部14は、変化検知データとして、フラグ及び時刻を作成する。変化検知データと、フラグと、時刻との作成の詳細は、図8を参照して後述する。ステップS109の処理の後、処理は、ステップS110に進む。
ステップS110において、カメラの追跡を終了するか否かを判定する。入力装置52のタッチパネルのユーザーによる操作に基づいて、入力装置52がカメラの追跡を終了する指示を入力した場合(ステップS110のYes)、カメラは追跡を終了し、処理は、ステップS111に進む。一方、入力装置52がカメラの追跡を終了する指示を入力していない場合(ステップS110のNo)、ステップS109に戻る。そして、ステップS109において、継続してカメラの追跡を行う。
ステップS111において、制御装置5はカメラC1〜Cnの各々からフラグがオン状態に設定されている撮像画像を複数取得することにより、1つの動画に編集する。ステップS111における1つの動画に編集する処理については、図8を参照して後述する。ステップS111の処理の後、処理は、ステップS112に進む。
ステップS112において、出力装置53は、監視システム100の管理者が使用する端末に編集した動画を送信する。この結果、管理者は、特定の被験者が検知された1つの動画を検査することができる。また、出力装置53は、編集した1つの動画を出力装置53のディスプレーに表示してもよい。
ステップS112において、出力装置53が、編集した1つの動画の送信を完了した場合、追跡情報の設定処理を終了する(エンド)。
実施形態1の監視システム100によれば、被検知体が所定の撮像領域から他の撮像領域に移動する場合に、被検知体を容易に追跡設定することができる。また、実施形態1の監視システム100によれば、特定の被検知体を検知した撮像画像を1つの動画として編集することができる。
なお、実施形態1において、出力装置53が建物の1階のフロアのレイアウトと複数のカメラC1〜Cnとを表示する例を説明したが、これに限定されない、建物の複数階のフロアのレイアウトと複数のカメラC1〜Cnとを出力装置53が表示してもよい。
次に、ステップS102における追跡情報の設定の詳細については、図4を参照して説明する。
図4は、本発明の実施形態1に係る追跡情報の設定画面の一例を示す図である。画面61は、追跡情報の設定画面である。画面61は、建物の1階のフロアのレイアウトと、複数のカメラC1〜Cnとを示す。画面61は、出力装置53のディスプレーに表示される。
ステップS101において、カメラC1〜Cnのうち、追跡情報を設定する1つのカメラを入力装置52からユーザーが選択する。具体的には、入力装置52のタッチセンサーを用いて画面61に表示された複数のカメラC1〜C5の何れか1つのカメラをユーザーがタッチした場合、画面61のカメラC1〜C2のうち、タッチされた1つのカメラを入力装置52が選択する。以下、ユーザーがカメラC1を選択したとして説明する。
次に、ユーザーが選択したカメラC1に対して、追跡情報を設定する。ここで、追跡情報は、カメラが撮像した撮像画像に示された被検知体を追跡するための情報である。具体的には、追跡情報は、撮像画像に示された被検知体を含む検知領域を含む。また、追跡情報は、被検知体が特定の人物の顔である場合、顔を追跡するのに必要な追跡パラメーターを含む。顔を追跡する場合の追跡パラメーターの一例は、特定の人物の顔の大きさと、位置と、向きと、傾きとである。また、追跡情報は、被検知体が特定の人物の全身である場合、全身を追跡するのに必要な追跡パラメーターを含む。全身を追跡する場合の追跡パラメーターの一例は、追跡対象人物の衣服の色と、衣服の種類と、性別とである。
追跡情報の設定は、カメラC1の撮像画像に基づいて行う。具体的には、出力装置53が、被検知体が撮像された撮像画像を表示する。そして、ユーザーの指示に従って、入力装置52が被検知体を含む検知領域を入力することにより検知領域の設定をする。また、被検知体が特定の人物の顔である場合、追跡に必要な追跡パラメーターを撮像画像の検知領域内の画像を画像処理することにより入力装置52が自動的に入力してもよい。又は、被検知体が特定の人物の顔である場合、追跡に必要な追跡パラメーターを入力するためのメニュー画面を出力装置53が表示する。そして、そのメニュー画面に対するユーザーの指示に基づいて、入力装置52が追跡に必要な追跡パラメーターを入力してもよい。また、被検知体が特定の人物の全身である場合も被検知体が特定の人物の顔である場合と同様に追跡パラメーターを入力することができる。
入力装置52は、入力された追跡情報を装置記憶部54に出力し、装置記憶部54は、入力装置52から出力された追跡情報を記憶する。そして、入力装置52は、入力された追跡情報と、カメラC1を特定する情報とを装置通信部51に出力する。カメラC1を特定する情報により特定されたカメラC1と、装置通信部51とが通信する。装置通信部51は、カメラC1のカメラ通信部12に入力された追跡情報を送信する。カメラ通信部12が追跡情報を受信すると、カメラ通信部12は、受信した追跡情報をカメラC1のカメラ記憶部13に出力する。カメラ記憶部13は、出力された追跡情報を記憶する。カメラ記憶部13が追跡情報を記憶することにより、カメラC1に追跡情報が設定する。図4を参照して説明したように、選択された1つのカメラC1に追跡情報が設定され、カメラC1が追跡可能になる。
次に、ステップS103において、フロアのレイアウトと複数のカメラC1〜Cnとを表示する処理の詳細について図4を参照して説明する。
ステップS102と同様に、出力装置53は、図4の画面61を表示する。画面61において、カメラC1〜C15の15台のカメラがフロアのレイアウト上に表示されている。このように出力装置53は、フロアのレイアウト上に複数のカメラC1〜C15を表示することにより複数のカメラC1〜C15の位置関係を示す。
次に、S106における仮想動線の入力の詳細については、図4〜図7を参照して説明する。
図5〜図7は、本発明の実施形態1に係る追跡情報の設定画面において仮想動線の候補の一例を示す図である。
図5は、画面62を示す。画面62は、仮想動線を入力するための画面である。画面62は、カメラC1〜C15と、指71とを含む。指71は、仮想動線を入力するユーザーの指である。画面62は、建物の1階のフロアのレイアウトと、複数のカメラC1〜Cnとを示す。画面62は、出力装置53のディスプレーに表示される。
図6は、画面63を示す。画面63は、仮想動線を入力するための画面である。画面63は、カメラC1〜C15と、指71と、仮想動線の候補72とを含む。仮想動線の候補72は、入力装置52が入力する。画面63は、出力装置53のディスプレーに表示される。
図7は、画面64を示す。画面64は、仮想動線を入力するための画面である。画面64は、カメラC1〜C15と、指71と、仮想動線の候補72とを含む。画面64は、出力装置53のディスプレーに表示される。
ステップS106において、出力装置53が図4の画面61を表示している状態で、ユーザーが入力装置52のタッチセンサーを指71でタッチすることにより、被検知体の移動の始点となる画面61の位置、即ち仮想動線の始点を指定する。ユーザーが仮想動線の始点を指定したタイミングで、出力装置53は、図5の画面62を表示する。画面62は、ユーザーの指71がカメラC3の近傍をタッチしていることを示している。図5の画面62においてユーザーの指71に対応する位置(ユーザーの指71の直下)に仮想動線の始点が表示される。
次に、ユーザーは、入力装置52のタッチセンサーを指71によりタッチしたまま、図6の画面63に示すように指71を移動する。図6の画面63において、ユーザーの指71はカメラC5の近傍に移動している。ユーザーの指71がタッチセンサーをタッチしたまま移動するにつれて、出力装置53は、仮想動線の候補72を表示する。仮想動線の候補72は、入力装置52が入力する。具体的には、図6の画面63において、出力装置53は、仮想動線の候補72を表示している。画面63において、仮想動線の候補72は、カメラC2の近傍からカメラC5まで曲線として表示されている。
さらに、ユーザーがタッチセンサーを指71によりタッチしたまま移動させる場合、出力装置53は、ユーザーの指71の動きに追随して仮想動線の候補72の表示を続ける。図7の画面64は、ユーザーがタッチセンサーを指71によりタッチしたまま、指71をカメラC13の近傍に移動させた場合を示している。画面64において、出力装置53は仮想動線の候補72を表示している。仮想動線の候補72は、カメラC3の近傍からカメラC2、カメラC5、及びカメラC8を経由してカメラC13まで表示されている。
なお、ユーザーがタッチセンサーを指71によりタッチしたまま移動させる場合に、ユーザーの指71がフロアのレイアウトの壁を貫通して移動したときには、仮想動線の候補72が壁を貫通しないように仮想動線の候補72の入力を制限することもできる。仮想動線の候補72の入力に対して、仮想動線の候補72がレイアウトの壁を貫通しないという制限を設けることにより、現実的な仮想動線の候補72の入力を行うことができる。
最後に、ユーザーが入力装置52のタッチセンサーから指71を離した後、ユーザーが入力装置52のタッチセンサーを再度タッチした場合、仮想動線の候補72が仮想動線として確定し、入力装置52は、確定した仮想動線を装置記憶部54に出力する。装置記憶部54は入力装置52から出力された確定した仮想動線を記憶する。
また、ユーザーが入力装置52のタッチセンサーから指71を離した後、仮想動線の候補72を削除して仮想動線を再度入力し直すこともできる。具体的には、出力装置53は仮想動線の候補72を削除するためのユーザーインターフェイス(図示せず)を表示する。このユーザーインターフェイスを用いてユーザーが仮想動線の候補72を削除する指示をした場合、入力装置52は、仮想動線の候補72を削除する指示を入力する。そして、入力装置52は、その指示に従って仮想動線の候補72を削除する。その後、入力装置52は、図4〜図7に示すステップS106の処理に従って仮想動線の候補72を再度入力する。
次に、ステップS107における追跡情報を設定するカメラの選択の詳細について、図7を参照して後述する。
確定した仮想動線が図7の画面64に表示されている仮想動線の候補72であるとして説明する。
ステップS107において、既に追跡情報を設定したカメラC1を除いた複数のカメラC2〜C15から仮想動線に対応するカメラを選択する。画面64に示すように、仮想動線の候補72が仮想動線として確定している場合、入力装置52は、カメラC3、カメラC2、カメラC5、カメラC8、及びカメラC13を選択する。出力装置53は、入力装置52が選択したカメラを、選択されなかったカメラとは異なった色で表示する。これにより、ユーザーに選択したカメラを容易に把握させることができる。
入力装置52は、複数のカメラC1〜C15のうち、仮想動線に対応するカメラを選択する。ここで、「仮想動線に対応するカメラを選択する」とは以下の2通りの場合の何れか1つ又は両方を意味する。第1の場合は、仮想動線の近傍に位置するカメラを選択する場合である。第2の場合は、仮想動線と撮像範囲とが交差しているカメラを選択する場合である。以下、2つの場合について説明する。
(仮想動線の近傍に位置するカメラを選択する場合)
この場合、入力装置52は、複数のカメラC1〜C15のうち、仮想動線の近傍に位置するカメラを全て選択する。ここで、カメラが仮想動線の近傍に位置するか否かの判定は、仮想動線とカメラの中心位置との最短距離が予め設定した所定の距離以下である場合にカメラが仮想動線の近傍にあると判定することにより行う。そして、予め設定した所定の距離は、フロアのレイアウトの規模に応じて適宜設定することができる。具体的には、フロアのレイアウトにおいて典型的な通路の幅が3メートルである場合、所定の距離として1メートルを設定することができる。このように、フロアのレイアウトの通路の幅に応じて所定の距離を予め設定する。
(仮想動線と撮像範囲とが交差しているカメラを選択する場合)
この場合、図1の装置記憶部54が、複数のカメラC1〜Cnの撮像範囲を示すデータを記憶している。そして、入力装置52は、装置記憶部54から各カメラC1〜Cnの撮像範囲を示すデータを読み出し、仮想動線と各カメラの撮像範囲とが交差するか否かを判定する。仮想動線と撮像範囲とが交差した場合、入力装置52は交差したカメラを選択する。なお、撮像範囲を示すデータの一例として、カメラが実際に撮像する3次元空間である撮像範囲をフロアのレイアウトへ投影した2次元の領域データを用いることができる。
次に、ステップS109における変化検知データと、フラグと、時刻との作成の詳細について、図8を参照して説明する。
図8は、本発明の実施形態1に係る撮像画像データの一例を示す図である。撮像画像データ81は、被検知体の撮像画像データを含む撮像画像データである。撮像画像データ81の横軸は、時刻である。また、時刻T1は、被検知体の追跡が開始された時刻を示す。時刻T2は、被検知体の追跡が終了した時刻を示す。撮像画像データ81には、被検知体毎にその被検知体が追跡されたか否かを示すフラグが設けられている。
追跡情報がカメラC1に設定されているとして説明する。追跡情報が設定された他のカメラもカメラC1と同様である。
ステップS109において、カメラC1のカメラ制御部14は、撮像画像データ81に基づいて被検知体を追跡する。撮像画像データ81のフラグは、初期状態でオフ状態に設定されている。カメラ制御部14が撮像画像データ81に被検知体を検知した場合、カメラ制御部14はフラグをオン状態に設定する。
フラグは、被検知体毎に設けられる。そして、カメラ制御部14が撮像画像データ81に特定の被検知体を検知する場合、特定の被検知体に対応するフラグをオン状態に設定する。そして、カメラ制御部14は特定の被検知体を検知する開始時刻及び終了時刻を、特定の被検知体に対応するフラグと組にし、変化検知データとして記録する。
撮像画像データ81において、上記したように、時刻T1で特定の被検知体の追跡が開始され、時刻T2で特定の被検知体の追跡が終了する。
この場合、時刻が時刻T1になった時点で、カメラ制御部14は、特定の被検知体を検知する。カメラ制御部14は、時刻が時刻T1になった時点で特定の被検知体に対応するフラグをオン状態する。時刻が時刻T1から時刻T2までの間、カメラ制御部14は、特定の被検知体の検知を継続する。時刻が時刻T2を経過した場合、カメラ制御部14は、特定の被検知体を検知しなくなる。時刻が時刻T2になった時点で、カメラ制御部14は、特定の被検知体に対応するフラグと、特定の被検知体の追跡を開始した時刻T1と、特定の被検知体の追跡を終了した時刻T2とを組みにし、変化検知データとして記録する。
カメラ制御部14は、特定の被検知体を検知した場合、撮像画像データをカメラ記憶部13に記憶させる。カメラ制御部14は、特定の被検知体毎にフラグの設定を行い、フラグと、開始時刻T1と、終了時刻T2とを組みにし、変化検知データとして記録する。
次に、ステップS111における1つの動画に編集する処理について、図8を参照して説明する。
ステップS111において、装置制御部55は装置通信部51を制御する。装置通信部51は、装置制御部55の制御に従って複数のカメラC1〜Cnと通信を行い、各カメラC1〜Cnのカメラ記憶部13に記憶されている撮像画像データを取得し、装置記憶部54に出力する。装置記憶部54は装置通信部51から出力された撮像画像データを記憶する。出力装置53は、装置記憶部54に記憶されている撮像画像データのうち、特定の被検知体に対応するフラグがオン状態になっている撮像画像データを特定する。出力装置53は、順番リストを作成する。順番リストは、撮像画像データを特定する情報が並べられたリストである。順番リストは、フラグがオン状態になっている撮像画像データの開始時刻T1が経時の順番になるように、撮像画像データを特定する情報を並べたものである。
そして、出力装置53は、作成した順番リストで特定される撮像画像データの順に撮像画像データの時刻T1から時刻T2までの部分を順次結合し1つの動画に編集する。この結果、特定の被検知体が検知された1つの動画が作成される。
[実施形態2]
次に、図1を参照して、実施形態2に係る監視システム100について説明する。
実施形態2の監視システムは、予め収集された被検知体の動線73を表示する点で、実施形態1の監視システム100と異なる。以下、実施形態2では、動線73を表示する機能を中心に説明する。
実施形態2の監視システムは、実施形態1の監視システム100と動線表示機能が異なる。
図9は、本発明の実施形態2に係る追跡情報の設定画面において被検知体の動線の一例を示す図である。画面65は、仮想動線を入力するための画面である。画面65は、カメラC1〜C15と、動線73とを含む。画面65は、建物の1階のフロアのレイアウトと、複数のカメラC1〜Cnと、動線73とを示す。画面65は、出力装置53のディスプレーに表示される。
図2のステップ102において、制御装置5が仮想動線を入力する場合、出力装置53は、画面65に示すように、動線73をも表示する。
動線73は、過去に行った被検知体の追跡に基づいて予め作成され、装置記憶部54に記憶されている。出力装置53が被検知体の動線73を表示することにより、ユーザーが仮想動線を入力する際の補助とすることができる。具体的には、ユーザーが指71を出力装置53のタッチセンサーにタッチしたまま画面65の動線73上を移動する。これにより、被検知体が移動する可能性が高い仮想動線を容易に入力することができる。なお、仮想動線の入力については図1のステップS106と同様である。
なお、実施形態2において、出力装置53が動線73を表示する例について説明したが動線73に限定するものではない。出力装置53が、動線73の代わりに、フロアのレイアウト上での被検知体の滞留状況を示すヒートマップを表示してもよい。
[実施形態3]
次に、図1を参照して、実施形態3に係る監視システム100について説明する。
実施形態3の監視システムは、カメラの撮像範囲を表示する点で、実施形態1の監視システム100と異なる。以下、実施形態3では、カメラの撮像範囲を表示する機能を中心に説明する。
実施形態3の監視システムは、実施形態1の監視システム100と撮像範囲の表示機能が異なる。
図10は、本発明の実施形態3に係る追跡情報の設定画面においてカメラの撮影範囲の一例を示す図である。
画面67は、仮想動線を入力するための画面である。画面67は、カメラC1〜C15と、撮像範囲74とを含む。画面67は、建物の1階のフロアのレイアウトと、複数のカメラC1〜Cnと、撮像範囲74とを示す。画面67は、出力装置53のディスプレーに表示される。
図2のステップ102において、制御装置5が仮想動線を入力する場合、出力装置53は、画面67に示すように、撮像範囲74をも表示する。
画面67において、出力装置53は、カメラC12の撮像範囲74を表示する。
画面67において、出力装置53は、入力装置52により選択したカメラC12の撮像範囲74を表示するが、出力装置53が全てのカメラC1〜C15の撮像範囲を表示してもよい。
出力装置53がカメラの撮像範囲74を表示することにより、ユーザーは被検知体を追跡できる範囲を容易に把握することができる。
以上、本発明の実施形態について、図面(図1〜図10)を参照しながら説明した。但し、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で、種々の態様において実施することが可能である。
例えば、各実施形態1〜3において説明した事項は、適宜組み合わせ可能である。例えば、実施形態2において説明した構成と、実施形態3において説明した構成とを組み合わせてもよい。
なお、図面は、理解しやすくするために、それぞれの構成要素を主体に模式的に示している。従って、図示された各構成要素の厚み、長さ等は、図面作成の都合上から実際とは異なる。
本発明は、制御装置、監視システム、及び監視カメラ制御方法の分野に有用である。
C1〜Cn カメラ
11 撮像素子
12 カメラ通信部
13 カメラ記憶部
5 制御装置
51 装置通信部
52 入力装置
53 出力装置
54 装置記憶部
55 装置制御部
72 仮想動線の候補
100 監視システム

Claims (10)

  1. 複数の撮像装置を制御する制御装置であって、
    前記複数の撮像装置のそれぞれの撮像装置によって撮像された撮像画像を記憶する記憶部と、
    前記複数の撮像装置の位置関係を表示する表示部と、
    前記複数の撮像装置のうちの1つの撮像装置に対して撮像画像内の特定追跡対象物を追跡するための追跡情報を設定する入力部と
    を備え、
    前記入力部が、前記複数の撮像装置の前記位置関係を示す画像に対して仮想動線を入力する場合、前記複数の撮像装置のうち前記1つの撮像装置以外の前記仮想動線に対応する撮像装置に対して前記追跡情報を設定する、制御装置。
  2. 前記表示部は、前記複数の撮像装置のそれぞれの撮像装置によって撮像された撮像画像を1つの画像として編集する、請求項1に記載の制御装置。
  3. 前記撮像画像はフラグを有し、
    前記撮像装置は、前記特定追跡対象物を示す画像が含まれた前記撮像画像の前記フラグをオン状態にし、前記表示部は、前記フラグがオン状態である前記撮像画像を複数取得することにより、前記複数の撮像装置のそれぞれの撮像装置によって撮像された撮像画像を1つの画像として編集する、請求項2に記載の制御装置。
  4. 前記追跡情報は、前記特定追跡対象物を示す画像を覆う検知領域を含む、請求項1〜3の何れか1項に記載の制御装置。
  5. 前記入力部は、ユーザーの指示に基づいて前記仮想動線を入力する、請求項1〜4の何れか1項に記載の制御装置。
  6. 前記表示部は、前記特定追跡対象物の動線を表示する、請求項1〜5の何れか1項に記載の制御装置。
  7. 前記表示部は、前記撮像装置の撮像範囲を表示する、請求項1〜6の何れか1項に記載の制御装置。
  8. 前記表示部が、前記複数の撮像装置と前記複数の撮像装置が配置されたフロアのレイアウトとを表示することにより、前記表示部は、前記複数の撮像装置の位置関係を表示する、請求項1〜7の何れか1項に記載の制御装置。
  9. 複数の撮像装置と、
    前記複数の撮像装置を制御する制御装置と
    を備え、
    前記制御装置は、前記複数の撮像装置のそれぞれの撮像装置によって撮像された撮像画像を記憶する記憶部と、
    前記複数の撮像装置の位置関係を表示する表示部と、
    前記複数の撮像装置のうちの1つの撮像装置に対して撮像画像内の特定追跡対象物を追跡するための追跡情報を設定する入力部と
    を備え、
    前記入力部が、前記複数の撮像装置の前記位置関係を示す画像に対して仮想動線を入力する場合、前記複数の撮像装置のうち前記1つの撮像装置以外の前記仮想動線に対応する撮像装置に対して前記追跡情報を設定する、監視システム。
  10. 制御装置の制御により複数の撮像装置を制御する監視カメラ制御方法であって、
    前記複数の撮像装置のそれぞれの撮像装置によって撮像された撮像画像を記憶部により記憶する記憶ステップと、
    前記複数の撮像装置の位置関係を表示部により表示する表示ステップと、
    前記複数の撮像装置のうちの1つの撮像装置に対して撮像画像内の特定追跡対象物を追跡するための追跡情報を入力部により設定する入力ステップと
    を備え、
    前記入力ステップは、前記入力部により、前記複数の撮像装置の前記位置関係を示す画像に対して仮想動線を入力する場合、前記複数の撮像装置のうち前記1つの撮像装置以外の前記仮想動線に対応する撮像装置に対して前記追跡情報を設定する、監視カメラ制御方法。
JP2018063965A 2018-03-29 2018-03-29 制御装置、監視システム、及び監視カメラ制御方法 Active JP6828708B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018063965A JP6828708B2 (ja) 2018-03-29 2018-03-29 制御装置、監視システム、及び監視カメラ制御方法
US16/365,797 US10771716B2 (en) 2018-03-29 2019-03-27 Control device, monitoring system, and monitoring camera control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018063965A JP6828708B2 (ja) 2018-03-29 2018-03-29 制御装置、監視システム、及び監視カメラ制御方法

Publications (2)

Publication Number Publication Date
JP2019176378A true JP2019176378A (ja) 2019-10-10
JP6828708B2 JP6828708B2 (ja) 2021-02-10

Family

ID=68057439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018063965A Active JP6828708B2 (ja) 2018-03-29 2018-03-29 制御装置、監視システム、及び監視カメラ制御方法

Country Status (2)

Country Link
US (1) US10771716B2 (ja)
JP (1) JP6828708B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021131935A1 (ja) * 2019-12-26 2021-07-01 株式会社コロプラ プログラム、方法および情報処理装置
JP2022057885A (ja) * 2020-09-30 2022-04-11 アースアイズ株式会社 撮影システム、及び、撮影方法
JP2022167129A (ja) * 2021-04-22 2022-11-04 三菱電機株式会社 待機者誘導装置、待機者誘導方法及び待機者誘導プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113450258B (zh) * 2021-08-31 2021-11-05 贝壳技术有限公司 视角转换方法和装置、存储介质、电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008306604A (ja) * 2007-06-08 2008-12-18 Canon Inc 情報処理装置、及び情報処理方法
JP2015204546A (ja) * 2014-04-15 2015-11-16 株式会社日立国際電気 監視カメラシステム
JP2016154306A (ja) * 2015-02-20 2016-08-25 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP2016224919A (ja) * 2015-06-01 2016-12-28 キヤノン株式会社 データ閲覧装置、データ閲覧方法、及びプログラム
JP2018056915A (ja) * 2016-09-30 2018-04-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7522186B2 (en) * 2000-03-07 2009-04-21 L-3 Communications Corporation Method and apparatus for providing immersive surveillance
US20080263592A1 (en) * 2007-04-18 2008-10-23 Fuji Xerox Co., Ltd. System for video control by direct manipulation of object trails
US8270767B2 (en) * 2008-04-16 2012-09-18 Johnson Controls Technology Company Systems and methods for providing immersive displays of video camera information from a plurality of cameras
US9781336B2 (en) 2012-01-30 2017-10-03 Panasonic Intellectual Property Management Co., Ltd. Optimum camera setting device and optimum camera setting method
JP5506989B1 (ja) * 2013-07-11 2014-05-28 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
US20180007991A1 (en) * 2016-07-11 2018-01-11 John Sodec, Jr. Safer baseball batting helmet

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008306604A (ja) * 2007-06-08 2008-12-18 Canon Inc 情報処理装置、及び情報処理方法
JP2015204546A (ja) * 2014-04-15 2015-11-16 株式会社日立国際電気 監視カメラシステム
JP2016154306A (ja) * 2015-02-20 2016-08-25 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP2016224919A (ja) * 2015-06-01 2016-12-28 キヤノン株式会社 データ閲覧装置、データ閲覧方法、及びプログラム
JP2018056915A (ja) * 2016-09-30 2018-04-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021131935A1 (ja) * 2019-12-26 2021-07-01 株式会社コロプラ プログラム、方法および情報処理装置
JP2022057885A (ja) * 2020-09-30 2022-04-11 アースアイズ株式会社 撮影システム、及び、撮影方法
JP2022167129A (ja) * 2021-04-22 2022-11-04 三菱電機株式会社 待機者誘導装置、待機者誘導方法及び待機者誘導プログラム
JP7195367B2 (ja) 2021-04-22 2022-12-23 三菱電機株式会社 待機者誘導装置、待機者誘導方法及び待機者誘導プログラム

Also Published As

Publication number Publication date
US20190306433A1 (en) 2019-10-03
JP6828708B2 (ja) 2021-02-10
US10771716B2 (en) 2020-09-08

Similar Documents

Publication Publication Date Title
JP6828708B2 (ja) 制御装置、監視システム、及び監視カメラ制御方法
WO2019033957A1 (zh) 交互位置确定方法、系统、存储介质和智能终端
JP6159179B2 (ja) 画像処理装置、画像処理方法
JP6270325B2 (ja) 情報処理装置およびその制御方法
CN106031154B (zh) 处理图像的方法和用于其的电子装置
JP5674465B2 (ja) 画像処理装置、カメラ、画像処理方法およびプログラム
JP2013069224A (ja) 動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム
CN105898213A (zh) 显示控制装置和显示控制方法
JP2015079444A5 (ja)
CN107229274B (zh) 位置指示方法、终端装置、自行式装置以及程序
JP6575845B2 (ja) 画像処理システム、画像処理方法及びプログラム
EP3038347A1 (en) Method for displaying focus picture and image processing device
JP6602067B2 (ja) 表示制御装置、表示制御方法、プログラム
JP2018182593A (ja) 画像処理装置、画像処理方法
CN106412429B (zh) 一种基于温室大棚的图像处理方法及装置
JP6617547B2 (ja) 画像管理システム、画像管理方法、プログラム
JP4979895B2 (ja) ディスプレイ制御装置、ディスプレイ制御方法、ディスプレイ制御プログラム、およびディスプレイ
JP2016218626A (ja) 画像管理装置、画像管理方法およびプログラム
US20220283698A1 (en) Method for operating an electronic device in order to browse through photos
JP6238569B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP6841977B2 (ja) 撮影支援装置、撮影支援方法、及び撮影支援プログラム
JP5343823B2 (ja) メモ情報管理システム、メモ情報処理装置及びプログラム
JP5798083B2 (ja) 一筆書き図形方向検出装置
US20220214752A1 (en) Gesture-based targeting control for image capture devices
JP2018098627A (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210104

R150 Certificate of patent or registration of utility model

Ref document number: 6828708

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150