JP6701018B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP6701018B2
JP6701018B2 JP2016141290A JP2016141290A JP6701018B2 JP 6701018 B2 JP6701018 B2 JP 6701018B2 JP 2016141290 A JP2016141290 A JP 2016141290A JP 2016141290 A JP2016141290 A JP 2016141290A JP 6701018 B2 JP6701018 B2 JP 6701018B2
Authority
JP
Japan
Prior art keywords
camera
range
information processing
display control
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016141290A
Other languages
English (en)
Other versions
JP2018014553A (ja
Inventor
章博 河野
章博 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016141290A priority Critical patent/JP6701018B2/ja
Priority to US15/651,223 priority patent/US20180025247A1/en
Publication of JP2018014553A publication Critical patent/JP2018014553A/ja
Application granted granted Critical
Publication of JP6701018B2 publication Critical patent/JP6701018B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Vascular Medicine (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、特に、カメラの設置位置を支援するために用いて好適な情報処理装置、情報処理方法及びプログラムに関する。
従来、画像から人体を検出する方法が知られている。人体を検出する場合は、遮蔽物をなるべく少なくし、検出しやすい角度から人体の検出を行うようにすることが好ましい。したがって、カメラの設置位置も、人体を検出するためには重要な要素である。特許文献1には、カメラの設置時に、撮像画像からガイダンスして監視目標を適切にとらえるようにする設置支援方法が開示されている。
特許第5325251号公報
近年の物体検出機能は多種多様になってきており、例えば真上から物体を認識するものや、横から物体を検出するものなど、さまざまな検出機能がある。しかしながら、真上から物体を検出することを望むアルゴリズムで横から撮像するようにカメラを設置したり、横から物体を検出することを望むアルゴリズムで真上から撮像するようにカメラを設置したりすると、検出効率が低下する。また、ネットワークカメラを使った監視システムは大規模化してきており、適切なカメラを効率良く設置できるようにする要望がある。
本発明は前述の問題点に鑑み、適切に物体を検出できるようなカメラの設置位置を支援できるようにすることを目的としている。
本発明に係る情報処理装置は、少なくともカメラの撮影の対象とする位置または範囲と、前記カメラが撮影する上下方向の角度との情報を含む撮影条件を入力する入力手段によって入力された撮影条件に基づいて、前記カメラの撮影の対象とする位置または範囲に対して、前記カメラを設置可能とする範囲を表示装置に表示する表示制御手段、を有することを特徴とする。
本発明によれば、適切に物体を検出できるようなカメラの設置位置を支援することができる。
カメラ設置支援装置のハードウェア構成例を示すブロック図である。 カメラ設置支援装置の機能構成例を示すブロック図である。 第1の実施形態において、カメラの設置を支援するための表示画面の一例を示す図である。 第2の実施形態において、カメラの設置を支援するための表示画面の一例を示す図である。 第4の実施形態において、カメラの設置を支援するための表示画面の一例を示す図である。 第1の実施形態において、カメラの設置位置ガイドを表示する処理手順の一例を示すフローチャートである。 第2の実施形態において、カメラの設置位置ガイドを表示する処理手順の一例を示すフローチャートである。 人体検知1におけるカメラの位置を説明するための図である。 第3の実施形態において、カメラの設置条件を説明するための図である。 第3の実施形態において、カメラの種別に応じた設置位置ガイドを含む表示画面の一例を示す図である。
(第1の実施形態)
以下、本発明の第1の実施形態について、図面を参照しながら説明する。
図1は、情報処理装置であるカメラ設置支援装置100のハードウェア構成例を示すブロック図である。
カメラ設置支援装置100は、CPU110、一次記憶装置120、二次記憶装置130、入力I/F140、ディスプレイ160、およびネットワークI/F190を備えている。これらが内部バス180を介して相互に接続されている。
CPU110は、中央演算処理装置であり、各種処理や演算を行う。
一次記憶装置120は、RAMなどの書き込み可能な高速の記憶装置であり、OSや各種プログラム及び各種データがロードされ、またOSや各種プログラムの作業領域としても使用される。
二次記憶装置130は、HDD(ハードディスクドライブ)、フラッシュメモリ、CD−ROMドライブ等などの不揮発性の記憶装置であり、OSや各種プログラム及び各種データの永続的な記憶領域として使用される。また、二次記憶装置130は、短期的な各種データの記憶領域としても使用される。
入力I/F140は、キーボードやマウスなどの入力装置150と接続するためのインターフェイスであり、入力装置150から指示を入力する。
ディスプレイ160は、画像などを表示する出力装置である。
ネットワークI/F190は、ネットワーク195と接続して各種の通信を行うためのインターフェイスである。
図2は、本実施形態に係るカメラ設置支援装置100の機能構成例を示すブロック図である。
図2に示すように、カメラ設置支援装置100は、表示制御部200と、制御部210と、判定部220とを備えている。また、カメラ設置支援装置100の二次記憶装置130には、制約データ280、設定データ290などが保存される。ここで、設定データ290とは、後述する図3に示すようなカメラの設置支援を行う表示画面を表示するために必要なデータである。制約データ280の詳細については後述する。
表示制御部200は、二次記憶装置130に記憶された設定データ290に応じて、各種情報をディスプレイ160に表示させる。本実施形態では、カメラの設置支援を行うための表示画面をディスプレイ160に表示する。
図3は、本実施形態において、カメラの設置を支援するための表示画面の一例を示す図である。
図3に示すように、例えば、ある場所で人体を検出するため、その場所に対するカメラの設置位置をガイドする表示画面30がディスプレイ160に表示される。より具体的には、表示制御部200は、まず、表示画面30に、カメラの設置を行う現場を示すマップなどのレイアウトガイド31を表示させる。その際には、マップ内での実際の寸法がわかるように、縮尺情報や天井の高さなどの情報を入力するための操作領域34も併せて表示させる。例えば、「縮尺」は、表示画面30上の何画素が1mに相当するかを単位としたpixels/mを用い、「天井高」は、メートル単位での高さhを用いる。また、「アルゴリズム」は、プルダウンメニューからの選択式とし、詳細な説明は後述する。
また、表示制御部200は、後述の制御部210の制御に応じて検出されるであろう人体の位置を示す検出位置32をレイアウトガイド31に表示させる。例えば、ユーザーは、入力装置150を操作して操作領域34にある検出位置オブジェクト36を、ポインタ35に合わせてドラッグすることなどによって検出位置32の位置を決定することができる。
さらに、設置するカメラの設置条件を示すために、表示制御部200は、例えば検出位置32から一定距離離れた領域としての設置位置ガイド33をレイアウトガイド31に表示させる。本実施形態では、設置位置ガイド33として検出位置32を中心としたある半径の円を示し、円外をカメラの設置に好ましい位置としてガイド表示している。設置位置ガイド33は後述の判定部220からの表示の通知によって表示される。以上のように、表示制御部200は、制御部210および判定部220の指示に応じて、カメラを設置するためのガイド情報を表示させる。
制御部210は、ユーザーによる入力装置150の操作や表示画面30に基づくイベントに応じた制御を行う。操作領域34の「縮尺」、「天井高」、「アルゴリズム」に入力装置150から値等が入力され、入力装置150から検出位置32が指示されると、制御部210は、表示制御部200および判定部220へ入力情報(撮影条件)を通知する。判定部220は、入力情報に基づいて計算を行い、表示制御部200に設置位置ガイド33を表示させるよう通知する。これらは、一般的な操作やイベントに応じた処理であるため、詳細な説明は省く。
図6は、本実施形態において、カメラの設置位置ガイド33を表示する処理手順の一例を示すフローチャートである。本実施形態では、3種類のカメラを設置するための情報を表示する例を説明する。前述した「アルゴリズム」は、カメラごとに設定を行うためのアルゴリズムであり、それぞれの3種類のカメラの機能を「人体検知1」、「人体検知2」、「人体検知3」とする。「人体検知1」は、図8に示すように、天井より俯角60度以下の方向から人体を検出することを想定している。また、「人体検知2」は、人体を真上(俯角90度)から検出することを想定しており、「人体検知3」は、人体を真横(俯角0度)から検出することを想定している。このように本実施形態では、カメラが撮影する上下方向の角度によってカメラの機能を区別している。
まず、S601において、表示制御部200は、二次記憶装置130から設定データ290を読み出し、カメラの設置位置をガイドする表示画面30をディスプレイ160に表示する。そして、S602において、制御部210は、ユーザーにより入力装置150が操作され、表示画面30に基づくイベントが発生するまで待機する。つまり、制御部210は、操作領域34に値等が入力され、検出位置32が設定されるまで待機する。
S602において、イベントが発生した場合は、S603において、制御部210は、操作領域34の「アルゴリズム」において「人体検知1」が選択されたか否かを判定する。この判定の結果、「人体検知1」が選択されていない場合はS606に進む。一方、「人体検知1」が選択された場合は、S604において、判定部220は、二次記憶装置130から制約データ280を読み出す。ここで、制約データ280は、例えばインプットに対してアウトプットxを求める関数などが登録されたデータである。
ここで、S604で読み出す制約データ280について説明する。「人体検知1」では、天井より俯角60度以下で人体を検出するため、制約データ280は、天井高hのインプットに対して図8に示す距離xを得るものである。「人体検知1」では、距離x≧h×tan(90°−60°)であることから、アウトプットとして「距離xがh×tan30°以上」という結果が得られる。
S605においては、判定部220は、制約データ280に対して、制御部210から通知された入力情報に基づいて天井高hを代入することによって距離xを計算する。そして、表示制御部200は、アウトプットである距離xに基づいて、設置位置ガイド33をレイアウトガイド31に表示する。そして、S602に戻る。
一方、S606においては、制御部210は、操作領域34の「アルゴリズム」において「人体検知2」が選択されたか否かを判定する。この判定の結果、「人体検知2」が選択されていない場合はS609に進む。一方、「人体検知2」が選択された場合は、S607において、判定部220は、二次記憶装置130から制約データ280を読み出す。
ここで、S607で読み出す制約データ280について説明する。「人体検知2」は、真上から人体を検出するためのアルゴリズムであるため、制約データ280から、アウトプットである距離xは、「x=0」と算出される。その後、S608においては、表示制御部200は、検出位置32と同心の小さな円を設置位置ガイド33としてレイアウトガイド31に表示する。そして、S602に戻る。
一方、S609においては、制御部210は、操作領域34の「アルゴリズム」において「人体検知3」が選択されたか否かを判定する。この判定の結果、「人体検知3」が選択されていない場合はS612に進む。一方、「人体検知3」が選択された場合は、S610において、判定部220は、二次記憶装置130から制約データ280を読み出す。
ここで、S610で読み出す制約データ280について説明する。「人体検知3」は、真横から人体を検出するためのアルゴリズムであるため、制約データ280から、アウトプットである高さxは、「高さx=if(j<1.50) then j else 150」となる。つまり、人体の高さ1.50メートルより低い天井(ロフト、屋根裏など)では、高さxは入力された天井高とし、そうでなければ、高さxは高さ1.50メートルという固定値となる。その後、S611においては、表示制御部200は、レイアウトガイド31上に、例えばテキストにより「設置高さxメートル」などのような設置位置ガイド33を表示する。そして、S602に戻る。
S612においては、制御部210は、ユーザーにより入力装置150が操作され、イベントの終了を指示されたか否かを判定する。この判定の結果、イベントの終了が指示されていない場合はS602に戻り、イベントの終了が指示された場合は処理を終了する。
以上のように本実施形態によれば、カメラ設置支援装置100は、検出位置32や操作領域34の入力に応じて、それぞれのアルゴリズムの制約に応じた設置条件を表示させるようにすることができる。なお、設置位置ガイド33は、模式図でも、テキストでもよく、設置位置を明示できるものであればよい。
(第2の実施形態)
第1の実施形態では、検出位置に応じた設置位置ガイドを表示したが、本実施形態では、さらに検出位置に代えて検出の領域を指定した上で設置位置ガイドを示す例について説明する。なお、本実施形態に係るカメラ設置支援装置100の内部構成については図1及び図2と同様であるため、説明は省略する。以下、第1の実施形態と異なる点について説明する。
図4は、本実施形態において、カメラの設置を支援するための表示画面の一例を示す図である。
例えば、単独作業を検知させたい領域を監視する場合には、人体の前後方向から撮影する必要があり、この場合は「人体検知1」の制約を加えてカメラを設置することになる。より具体的には、図4に示すように、レイアウトガイド31を表示済みの表示画面30で、表示制御部200は、検出領域40と検出方向41とを表示させる。これらの表示は、例えば、操作領域34の検出領域オブジェクト42をポインタ35によって指示してガイド31上の所望の位置に矩形を配置し、検出方向オブジェクト43をポインタ35によって指示して所望の方向に設定することにより達成される。
以上のような操作がユーザーによって行われると、検出領域40と検出方向41とから、検出領域40の中心をとおり、検出方向41に平行な線分上で、検出領域40の中心から一定距離離れた領域としての設置位置ガイド33が表示される。本実施形態では、検出方向に沿って検出領域40の中心からある距離以上離れた位置からの線分をガイドとして示している。そのため、領域の左右2つの設置位置ガイド33が、人体の前後方向から撮像する制約に従って表示される。
図7は、本実施形態において、カメラの設置位置ガイド33を表示する処理手順の一例を示すフローチャートである。以下、図6と異なる点についてのみ説明する。本実施形態においては、「アルゴリズム」は、4種類のカメラの機能を「人体検知1」、「人体検知2」、「人体検知3」、及び「単独作業検知」とする。
S701においては、制御部210は、操作領域34の「アルゴリズム」において「単独作業検知」が選択されたか否かを判定する。つまり、図4に示した表示画面30において、前述した手順でユーザーによって検出領域40および検出方向41が設定されたか否かを判定することになる。この判定の結果、「単独作業検知」が選択された場合はS702に進み、そうでない場合はS612に進む。
S702においては、判定部220は、二次記憶装置130から制約データ280を読み出す。ここで、S702で読み出す制約データ280について説明する。「単独作業検知」では、天井より俯角60度以下で人体を検出し、かつ単独作業を検知する。そのため、アウトプットである距離xは、「距離x≧h×tan30°以上」、かつ検出領域40の矩形の中心を通る検出方向41に平行の線分上となる。その後、S703において、表示制御部200は、図4に示すような矢印を設置位置ガイド33としてレイアウトガイド31に表示する。そして、S602に戻る。
以上のように本実施形態によれば、カメラ設置支援装置100は、検出領域40および検出方向41を指定することにより、設置位置ガイド33に、それぞれのアルゴリズムの制約に応じた設置条件を表示させるようにすることができる。
(第3の実施形態)
第2の実施形態では、検出領域および検出方向に応じて設置位置ガイドを示したが、本実施形態では、さらに設置予定のカメラを指定し、カメラの設置位置を表示させる例について説明する。なお、本実施形態に係るカメラ設置支援装置100の内部構成については図1及び図2と同様であるため、説明は省略する。以下、第2の実施形態と異なる点について説明する。
本実施形態においては、図4に示す操作領域34において、設置するカメラの種別を入力可能としている。カメラの種別は、例えば、カメラ機種名「カメラA」、「カメラB」というようなものである。
また、本実施形態に係る処理手順は、基本的には図7と同様の手順であるが、以下の点が異なっている。本実施形態では、S702で読み出す制約データ280は、カメラ種別ごとの条件のデータベースに応じて、以下の制約がさらに勘案される。ここで、カメラ種別ごとの条件には、カメラの広角端画角、望遠端画角、解像度、アスペクト比等の、特に光学と撮像センサーとの情報が保持されているものとする。
まず、図9(b)に示すように該当するカメラの少なくとも広角端で物体(人体80)が撮像範囲に収まることが勘案され、人体80が撮像範囲に収まらない場合には、距離xの最短距離は、広角端で収まるところまで遠のくこととなる。具体例を図9に示す。
図9(a)において、第1の条件としてカメラの撮像範囲が検出領域40を含むようにするためには、検出領域40の幅ABが撮像範囲に含まれる必要がある。そのためには、水平画角HZI、垂直画角EZGを満たす画角の広角端をもつようにする。そこで、図9(a)の台形ABDCを有効視野とするようにカメラAが配置されることになる。この際、x軸に平行なZK方向として、俯角KZF(=∠PFZ)が、60度以下である必要がある。なお、線分ZFはカメラの光軸であり、線分ZQはカメラが設置可能な範囲である。
以上の点から、検出領域40の幅ABが定まれば、その中点Eも定まり、そこから垂線PJをx軸とする空間において、上記の条件から最小距離PEを求めることができる。望遠系のレンズを持ったカメラでは、第2の実施形態の場合よりも最小距離PEが長くなる場合がある。このため、このような特性のカメラが選択された場合は、カメラの特性に従って、カメラが設置されるのに好適な位置を示す線分ZQが設置位置ガイド33として表示される。図10(a)には、設置位置ガイド33を表示した例を示す。
次に、第2の条件として最大距離QEが人体を検出することが可能な距離に収まることが勘案される。具体例を図9(b)に示す。
図9(b)において、カメラが人体を検出するためには、検出領域40上で、例えば1.5メートルと仮定した人体80が、解像度640×480の画像において所定の大きさ以上(例えば150px以上の大きさ)になる必要があるものとする。このことから、特定の解像度において人体が150px以上で撮像されるような最大距離Q'Eを計算することができる。
これによって、例えば広角系で低解像度のレンズを持ったカメラでは、第2の実施形態の場合よりも最大距離が短くなる場合がある。このため、このような特性のカメラが選択された場合は、カメラの特性に従って、カメラが設置されるのに好適な位置を示す線分ZQが設置位置ガイド33として表示される。図10(b)には、設置位置ガイド33を表示した例を示す。
以上のように本実施形態によれば、カメラ設置支援装置100は、操作領域34のカメラ種別のインプットによって、それぞれのカメラの条件に応じたカメラの設置位置を表示させるようにすることができる。
(第4の実施形態)
第3の実施形態では、カメラの種別に応じて設置位置ガイドが異なるようにした。本実施形態では、複数のカメラの選択に応じて、あるいは設置予定のカメラを指定することなく全数のカメラから、カメラ種別ごとの設置条件を表示させ、カメラの選択をもサポートする例について説明する。なお、本実施形態に係るカメラ設置支援装置100の内部構成については図1及び図2と同様であるため、説明は省略する。以下、第3の実施形態と異なる点について説明する。
本実施形態では、操作領域34で個別にカメラの種別を入力することを不要とし、代わりにカメラを複数選択または全数選択できるようにしている。例えば、カメラ機種名「カメラA」、「カメラB」と複数のカメラを選択するか、もしくは未選択とする。未選択の場合は全数を選択するものとする。S703で設置位置ガイドを表示する際に、複数のカメラ候補に対応して複数の線分を表示する。表示例を図5に示す。
図5に示すように、検出領域40および検出方向41が指定されている場合、レイアウトガイド31上に複数の設置位置の候補が表示される。このとき、複数の線分が重なって表示されるため、例えば色を変えて表示したり、図5に示すように同一線分を表す点線の矩形の中に複数の実践の矢印線分を表示させて表現したりして、設置位置ガイド33を表示する。矩形で表現する際、線分は本来矩形の中心を通る線上にあること示している。また、例えばユーザーが操作してポインタ35を線分上に置くとようにすると、対象のカメラ種別のチップ表示50を表示させるようにする。これにより、候補のカメラおよびその設置位置を知ることができる。
以上のように本実施形態によれば、カメラ設置支援装置100は、それぞれのカメラの種別に応じたカメラの設置位置を複数表示させるようにすることができる。これにより、ユーザーはその中から所望のカメラを選択して設置することができる。
(第5の実施形態)
第4の実施形態では、複数のカメラ種別に応じて複数の設置位置ガイドを示した。本実施形態では、複数のカメラの優先順位を予め持たせることにより、設置予定のカメラを指定せずに好適なカメラを選択して設置条件を表示させる例について説明する。なお、本実施形態に係るカメラ設置支援装置100の内部構成については図1及び図2と同様であるため、説明は省略する。以下、第4の実施形態と異なる点について説明する。
本実施形態では、図5に示すような設置位置ガイド33を表示するが、例えば、優先順位に応じて1つだけ線分の色を変えたり線の太さを変えたり、表示態様を変えて表示する。また、第一優先の線分だけを表示させてもよい。
また、S702で読み出す制約データ280には、カメラ種別ごとの優先度などの情報も含まれている。優先度の情報は、価格によるソート情報や、カメラの屋内モデル、屋外モデルなどの属性情報、フラッグシップ版、廉価版の区別、機能の有無等の情報になる。また、この際、優先度情報は、操作領域34から選択できるようにし、指定された「価格順」や「屋外モデル」などのカメラのソートやフィルタに関する情報を用いて、優先度の絞り込みや順位を変更できるようにしてもよい。
以上のように本実施形態によれば、カメラ設置支援装置100は、優先度などの情報に応じて好適なカメラを表示して、設置を支援することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
200 表示制御部
210 制御部
220 判定部

Claims (10)

  1. 少なくともカメラの撮影の対象とする位置または範囲と、前記カメラが撮影する上下方向の角度との情報を含む撮影条件を入力する入力手段によって入力された撮影条件に基づいて、前記カメラの撮影の対象とする位置または範囲に対して、前記カメラを設置可能とする範囲を表示装置に表示する表示制御手段、
    を有することを特徴とする情報処理装置。
  2. 前記入力手段は、さらに前記カメラの種別の情報を入力し、
    前記表示制御手段は、さらに前記カメラの種別の情報に基づいて、前記カメラを設置可能とする範囲を前記表示装置に表示することを特徴とする請求項1に記載の情報処理装置。
  3. 前記カメラの種別は、前記カメラの画角、解像度、アスペクト比のうち、少なくとも1つに基づいた種別であることを特徴とする請求項2に記載の情報処理装置。
  4. 前記表示制御手段は、前記カメラが撮影する物体が所定の大きさ以上となるような範囲で前記カメラを設置可能とする範囲を前記表示装置に表示することを特徴とする請求項2又は3に記載の情報処理装置。
  5. 前記表示制御手段は、前記カメラの撮影の対象とする範囲がすべて収まるような範囲で前記カメラを設置可能とする範囲を前記表示装置に表示することを特徴とする請求項2又は3に記載の情報処理装置。
  6. 前記表示制御手段は、前記カメラの種別の情報に基づいて、前記カメラを設置可能とする範囲を前記カメラの種別ごとにすべて前記表示装置に表示することを特徴とする請求項2〜5の何れか1項に記載の情報処理装置。
  7. 前記入力手段は、さらに前記カメラの種別の優先度の情報を入力し、
    前記表示制御手段は、前記カメラの種別の優先度に応じた表示態様で、前記カメラを設置可能とする範囲を前記カメラの種別ごとにすべて前記表示装置に表示することを特徴とする請求項6に記載の情報処理装置。
  8. 前記入力手段は、さらに前記カメラの種別の優先度の情報を入力し、
    前記表示制御手段は、前記優先度の最も高いカメラを設置可能とする範囲を前記表示装置に表示することを特徴とする請求項2〜5の何れか1項に記載の情報処理装置。
  9. 少なくともカメラの撮影の対象とする位置または範囲と、前記カメラが撮影する上下方向の角度との情報を含む撮影条件を入力する入力手段によって入力された撮影条件に基づいて、前記カメラの撮影の対象とする位置または範囲に対して、前記カメラを設置可能とする範囲を表示装置に表示する表示制御工程、
    を有することを特徴とする情報処理方法。
  10. 少なくともカメラの撮影の対象とする位置または範囲と、前記カメラが撮影する上下方向の角度との情報を含む撮影条件を入力する入力手段によって入力された撮影条件に基づいて、前記カメラの撮影の対象とする位置または範囲に対して、前記カメラを設置可能とする範囲を表示装置に表示する表示制御工程、
    をコンピュータに実行させることを特徴とするプログラム。
JP2016141290A 2016-07-19 2016-07-19 情報処理装置、情報処理方法及びプログラム Active JP6701018B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016141290A JP6701018B2 (ja) 2016-07-19 2016-07-19 情報処理装置、情報処理方法及びプログラム
US15/651,223 US20180025247A1 (en) 2016-07-19 2017-07-17 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016141290A JP6701018B2 (ja) 2016-07-19 2016-07-19 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018014553A JP2018014553A (ja) 2018-01-25
JP6701018B2 true JP6701018B2 (ja) 2020-05-27

Family

ID=60988067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016141290A Active JP6701018B2 (ja) 2016-07-19 2016-07-19 情報処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US20180025247A1 (ja)
JP (1) JP6701018B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10582095B2 (en) * 2016-10-14 2020-03-03 MP High Tech Solutions Pty Ltd Imaging apparatuses and enclosures
US11765323B2 (en) 2017-05-26 2023-09-19 Calumino Pty Ltd. Apparatus and method of location determination in a thermal imaging system
CN108549845B (zh) * 2018-03-26 2022-04-05 武汉晨龙电子有限公司 一种确定表面指针位置的方法
JP7319069B2 (ja) * 2019-03-28 2023-08-01 セコム株式会社 画像生成装置、画像生成プログラム及び画像生成方法
US11417013B2 (en) * 2020-10-13 2022-08-16 Sensormatic Electornics, LLC Iterative layout mapping via a stationary camera
JP2023173764A (ja) 2022-05-26 2023-12-07 キヤノン株式会社 情報処理装置、情報処理方法

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2057961C (en) * 1991-05-06 2000-06-13 Robert Paff Graphical workstation for integrated security system
EP0715453B1 (en) * 1994-11-28 2014-03-26 Canon Kabushiki Kaisha Camera controller
US6768563B1 (en) * 1995-02-24 2004-07-27 Canon Kabushiki Kaisha Image input system
US6359647B1 (en) * 1998-08-07 2002-03-19 Philips Electronics North America Corporation Automated camera handoff system for figure tracking in a multiple camera system
JP3809309B2 (ja) * 1999-09-27 2006-08-16 キヤノン株式会社 カメラ制御システム及びカメラ制御方法及び記憶媒体
US7034864B2 (en) * 2000-05-19 2006-04-25 Canon Kabushiki Kaisha Image display apparatus, image display system, and image display method
US20020005866A1 (en) * 2000-07-14 2002-01-17 Space-Wise Technologies, Inc. Method and system for creation of a spatially referenced multimedia relational database that can be transmitted among users or published to internet
US7385626B2 (en) * 2002-10-21 2008-06-10 Sarnoff Corporation Method and system for performing surveillance
JP4568009B2 (ja) * 2003-04-22 2010-10-27 パナソニック株式会社 カメラ連携による監視装置
US20100013917A1 (en) * 2003-08-12 2010-01-21 Keith Hanna Method and system for performing surveillance
JP3775683B2 (ja) * 2003-08-21 2006-05-17 松下電器産業株式会社 人物検出装置および人物検出方法
JP3915805B2 (ja) * 2004-08-31 2007-05-16 住友電気工業株式会社 駐車場におけるカメラ設置条件の自動決定方法及び装置
WO2006098469A1 (ja) * 2005-03-18 2006-09-21 Yamaha Hatsudoki Kabushiki Kaisha 飛行制御システム
JP4847165B2 (ja) * 2006-03-09 2011-12-28 株式会社日立製作所 映像記録再生方法及び映像記録再生装置
WO2008035745A1 (en) * 2006-09-20 2008-03-27 Panasonic Corporation Monitor system, camera and video image coding method
US8189962B2 (en) * 2006-12-19 2012-05-29 Hitachi Kokusai Electric Inc. Image processing apparatus
DE102007054819A1 (de) * 2007-11-16 2009-05-20 Robert Bosch Gmbh Überwachungssystem mit Zustandserfassungsmodul, Verfahren zur Selbstüberwachung eines Beobachters sowie Computerprogramm
WO2009110417A1 (ja) * 2008-03-03 2009-09-11 ティーオーエー株式会社 旋回型カメラの設置条件特定装置および方法ならびに当該設置条件特定装置を備えるカメラ制御システム
AT506928B1 (de) * 2008-05-28 2012-07-15 Kiwisecurity Software Gmbh Verfahren zur videoanalyse
US8531522B2 (en) * 2008-05-30 2013-09-10 Verint Systems Ltd. Systems and methods for video monitoring using linked devices
JP5495625B2 (ja) * 2009-06-01 2014-05-21 キヤノン株式会社 監視カメラシステム、監視カメラ及び監視カメラ制御装置
NO332170B1 (no) * 2009-10-14 2012-07-16 Cisco Systems Int Sarl Anordning og fremgangsmate for kamerakontroll
KR20110079164A (ko) * 2009-12-31 2011-07-07 삼성테크윈 주식회사 촬영장치 핸드오프 방법 및 이를 적용한 감시 장치
JP5269002B2 (ja) * 2010-06-28 2013-08-21 株式会社日立製作所 カメラ配置決定支援装置
US8193909B1 (en) * 2010-11-15 2012-06-05 Intergraph Technologies Company System and method for camera control in a surveillance system
US8537195B2 (en) * 2011-02-09 2013-09-17 Polycom, Inc. Automatic video layouts for multi-stream multi-site telepresence conferencing system
US9269243B2 (en) * 2011-10-07 2016-02-23 Siemens Aktiengesellschaft Method and user interface for forensic video search
CA2798298C (en) * 2011-12-09 2016-08-23 W-Ideas Network Inc. Systems and methods for video processing
JP5586071B2 (ja) * 2012-02-17 2014-09-10 Necソリューションイノベータ株式会社 撮影支援装置、撮影支援方法、及びプログラム
WO2013179335A1 (ja) * 2012-05-30 2013-12-05 株式会社 日立製作所 監視カメラ制御装置及び映像監視システム
CN104662389B (zh) * 2012-09-21 2017-06-16 株式会社多田野 作业车的周围信息获取装置
US9390332B2 (en) * 2012-10-18 2016-07-12 Nec Corporation Information processing system, information processing method and program
US10137363B2 (en) * 2013-06-20 2018-11-27 Uday Parshionikar Gesture based user interfaces, apparatuses and control systems
US9423946B2 (en) * 2013-08-12 2016-08-23 Apple Inc. Context sensitive actions in response to touch input
WO2015125544A1 (ja) * 2014-02-18 2015-08-27 Nkワークス株式会社 情報処理装置、情報処理方法、及び、プログラム
JP6639091B2 (ja) * 2015-02-12 2020-02-05 キヤノン株式会社 表示制御装置及び表示制御方法
EP3073726B1 (en) * 2015-03-24 2017-03-01 Axis AB Method for configuring a camera
US11019268B2 (en) * 2015-03-27 2021-05-25 Nec Corporation Video surveillance system and video surveillance method
JP6633862B2 (ja) * 2015-08-04 2020-01-22 キヤノン株式会社 情報処理装置およびその制御方法
US11019282B2 (en) * 2016-01-06 2021-05-25 Sony Corporation Shooting system and shooting method
JP2019114821A (ja) * 2016-03-23 2019-07-11 日本電気株式会社 監視システム、装置、方法およびプログラム
US9547883B1 (en) * 2016-08-19 2017-01-17 Intelligent Security Systems Corporation Systems and methods for dewarping images
US9609197B1 (en) * 2016-08-19 2017-03-28 Intelligent Security Systems Corporation Systems and methods for dewarping images

Also Published As

Publication number Publication date
US20180025247A1 (en) 2018-01-25
JP2018014553A (ja) 2018-01-25

Similar Documents

Publication Publication Date Title
JP6701018B2 (ja) 情報処理装置、情報処理方法及びプログラム
US9998651B2 (en) Image processing apparatus and image processing method
US10237494B2 (en) Display control apparatus and display control method
CN104469324B (zh) 一种基于视频的移动目标追踪方法和装置
EP3054662A1 (en) Information processing apparatus, information processing method, and computer program
US20180213148A1 (en) Information acquisition apparatus
JP6494418B2 (ja) 画像解析装置、画像解析方法、およびプログラム
CN110278408A (zh) 图像处理装置、图像处理方法和存储介质
US8526741B2 (en) Apparatus and method for processing image
CN109510967A (zh) 摄像装置、摄像装置的控制方法和存储介质
JP2020108038A (ja) 制御装置、その制御方法、産業用自動化システム、プログラム、および記憶媒体
JP2011142574A (ja) デジタルカメラ、画像処理装置および画像処理プログラム
JP6210807B2 (ja) 表示制御装置及び表示制御装置の制御方法
JP5586071B2 (ja) 撮影支援装置、撮影支援方法、及びプログラム
JP6891071B2 (ja) 情報処理装置、撮像システム、撮像方法及びプログラム
US11729494B2 (en) Information processing apparatus, control method therefor, and storage medium
JP2019002747A (ja) 目的地特定システム
JP2010175896A (ja) 情報処理装置、撮像装置およびプログラム
JP2017192114A5 (ja)
WO2019179374A1 (zh) 显示控制装置、摄像装置、显示控制方法
JP4812099B2 (ja) カメラ位置検出方法
JP2009117949A (ja) 撮影装置
JP5287430B2 (ja) 画像編集装置、画像編集方法、画像編集プログラム
JP2014116857A (ja) 情報処理装置、電子会議システム、情報処理方法、およびプログラム
JP2016213689A (ja) 撮像装置及びその制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200501

R151 Written notification of patent or utility model registration

Ref document number: 6701018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151