JP2016220148A - 制御装置、制御方法、システム - Google Patents
制御装置、制御方法、システム Download PDFInfo
- Publication number
- JP2016220148A JP2016220148A JP2015105817A JP2015105817A JP2016220148A JP 2016220148 A JP2016220148 A JP 2016220148A JP 2015105817 A JP2015105817 A JP 2015105817A JP 2015105817 A JP2015105817 A JP 2015105817A JP 2016220148 A JP2016220148 A JP 2016220148A
- Authority
- JP
- Japan
- Prior art keywords
- space
- imaging
- control
- video
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
【課題】 撮像装置が撮像対象を、効率よく撮像できるようにする。【解決手段】 第1の撮像装置による映像中の人物の顔の方向を検出し、該検出した方向における空間を撮像可能な第2の撮像装置を選択し、該第2の撮像装置に該空間を撮像させるよう制御する。【選択図】 図1
Description
本発明は、撮像装置の制御方法に関するものである。
従来から、監視及びモニタリングカメラシステムにおけるカメラの制御方法として次のようなものが考えられている。すなわち、撮像装置の撮像画像内の人物のうち、カーソルで指定された人物を自動的に追尾して、当該人物の表示エリアを囲み表示する監視装置が考えられている(特許文献1)。
特許文献1のような構成を用いる場合、何を撮像対象とすべきかを判断する人が、カメラ画像が表示される場所に存在している必要がある。したがって、上記のような方法で撮像対象を決定しようとすると不便である場合があった。
本発明はこのような問題に鑑みてなされたものであり、撮像装置が撮像対象を、効率よく撮像できるようにすることを目的とする。
本発明の一様態は、第1の撮像装置による映像中の人物の顔の方向を検出し、該検出した方向における空間を撮像可能な第2の撮像装置を選択する選択手段と、前記第2の撮像装置に前記空間を撮像させるよう制御する制御手段とを備えることを特徴とする。
本発明の構成によれば、撮像装置が撮像対象を、効率よく撮像できるようになる。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
以下では、第1の撮像装置による映像中の人物の顔の方向を検出し、該検出した方向における空間を撮像可能な第2の撮像装置を選択し、該第2の撮像装置に該空間を撮像させるよう制御する制御装置の一例について説明する。
以下では、第1の撮像装置による映像中の人物の顔の方向を検出し、該検出した方向における空間を撮像可能な第2の撮像装置を選択し、該第2の撮像装置に該空間を撮像させるよう制御する制御装置の一例について説明する。
本実施形態に係る監視カメラシステムの構成例を図2を用いて説明する。カメラ100、200は何れも空間中の任意の位置に配置される監視カメラであるが、カメラ100は、撮影範囲が固定されたカメラであり、カメラ200は、そのパン角、チルト角、ズームが制御可能な(撮影範囲が制御可能な)カメラである。また、図2では、カメラ100,200のそれぞれの個数を2としているが、それぞれの個数は2以上であればよい。
サーバ装置400は、カメラ100,200のそれぞれから撮影映像を取得し、その一部若しくは全部をストレージ装置300に記録したり、表示装置500に表示したりする。また、サーバ装置400は、監視対象を撮影させるべくカメラ200のパン角、チルト角、ズームのうち少なくとも1つを制御する。
ストレージ装置300には、サーバ装置400がカメラ100,200から取得した撮影映像のうち記録対象となった撮影映像が記録される。
表示装置500は、CRT、液晶画面、プロジェクタ等、受信した映像信号に基づいて画像や文字を表示/投影可能な装置である。
上記のカメラ100,200、サーバ装置400、ストレージ装置300、表示装置500は何れも、LANやインターネットなどのネットワーク600に接続されており、該ネットワーク600を介して互いにデータ通信が可能な構成となっている。なお、ネットワーク600は、有線、無線の何れかのネットワークで構成されても良いし、有線のネットワークと無線のネットワークとを組み合わせて構成しても構わない。以下では、一例として、ネットワーク600はLANであるものとして説明する。
また、図2に示した監視カメラシステムの構成は一例であり、それぞれの装置の数やネットワーク構成については図2に示したものに限らない。次に、カメラ100,200、サーバ装置400、のそれぞれの機能構成例について、図1を用いて説明する。
先ず、カメラ100について説明する。撮像センサ部101は、撮像面に結像された光像を光電変換によりディジタル電気信号に変換するCMOSなどの撮像素子である。
現像処理部102は、撮像センサ部101から光電変換により得られたディジタル電気信号に対して画素補間や色変換処理等の画像処理を行うことで、各画素がRGB値若しくはYUV値を有するディジタル映像(撮影映像)を生成する。また、現像処理部102は、現像を施した後のディジタル映像を用いて演算処理を行い、該演算処理に基づいてホワイトバランス、シャープネス、コントラスト、色変換などの映像処理を行う。
映像符号化部103は、現像処理部102によって生成されたディジタル映像を圧縮符号化したり、フレームレートを変換したりする。圧縮符号化の方式としては、例えば、MPEG4、H.264、MJPEGまたはJPEGなどがある。そして映像符号化部103は、圧縮符号化したディジタル映像をmp4形式やmov形式等の規定の形式の映像データにファイル化する。
LAN I/F部104は、ネットワーク600を介してサーバ装置400との間のデータ通信を制御する。なお、カメラ100からの映像の配信形態については、特定の配信形態に限るものではない。また、LAN I/F部104は、ストレージ装置300と連携することにより、例えば、NFSやCIFSなどのネットワークファイルシステムを構築して、映像データの記録も行なう。
次に、カメラ200について説明する。撮像センサ部201、現像処理部202、映像符号化部203、LAN I/F部204はそれぞれ、撮像センサ部101、現像処理部102、映像符号化部103、LAN I/F部104と同様に動作するものである。なお、カメラ200からの映像の配信形態についても、特定の配信形態に限るものではない。
制御部205は、ネットワーク600を介したサーバ装置400からの指示に応じて、カメラ200のパン角、チルト角、ズームのうち少なくとも1つを制御することで、カメラ200の撮影範囲を制御する。
次に、サーバ装置400について説明する。LAN I/F部301は、ネットワーク600を介してカメラ100,200、ストレージ装置300、表示装置500との間のデータ通信を行う。
映像復号化部302は、カメラ100やカメラ200から受信した映像(符号化映像データ)や、ストレージ装置300から読み出した映像(符号化映像データ)を復号する。映像復号化部302によって復号されたそれぞれの映像は後段の機能部で使用されるが、表示装置500に対して送出しても良い。この場合、表示装置500には、カメラ100やカメラ200による撮影映像が表示されることになる。
推定部303は、複数のカメラ100からの映像(復号済み)を用いて、該映像中に写っている特定人物の3次元位置を、三角測量の方式を基本とした位置推定方法を用いて推定する。
検出部304は、複数のカメラ100からの映像(復号済み)を用いて、該映像中に写っている特定人物の顔を検出し、該検出した顔における目や鼻、口などの部位を認識することによって、該顔の方向(向き)を検出する。
選択部305は、それぞれのカメラ200のうち、検出部304が検出した顔の方向における空間を撮影可能なカメラを選択カメラとして選択する。そして選択部305は、該選択カメラに対して、該方向における空間を撮像させるためのパン角、チルト角、ズームを指示する。
ここで、複数の映像から該映像中の特定人物の3次元位置を推定するために推定部303が行う処理について、図4のフローチャートを用いて説明する。
<ステップS11>
本ステップにおける処理は、後述する図3のフローチャートに従った処理、すなわち、監視カメラシステムが監視対象を監視するための動作を開始する前に行われる処理である。本ステップでは、それぞれのカメラ100について、空間中の1点の3次元座標と、該1点が投影されるであろう該カメラ100の撮像面上の1点の座標と、を関連づける。本ステップの処理を、図5を例にとり説明する。
本ステップにおける処理は、後述する図3のフローチャートに従った処理、すなわち、監視カメラシステムが監視対象を監視するための動作を開始する前に行われる処理である。本ステップでは、それぞれのカメラ100について、空間中の1点の3次元座標と、該1点が投影されるであろう該カメラ100の撮像面上の1点の座標と、を関連づける。本ステップの処理を、図5を例にとり説明する。
図5では、カメラ100を3台としている(それぞれカメラ1,カメラ2,カメラ3)。カメラ1については、空間中の1点の座標(Xa、Ya、Za)と、該1点の座標(Xa、Ya、Za)が投影されるカメラ1の撮像面上の1点の座標(X1,Y1,Z1)と、を関連づける。カメラ2については、空間中の1点の座標(Xa、Ya、Za)と、該1点の座標(Xa、Ya、Za)が投影されるカメラ2の撮像面上の1点の座標(X2,Y2,Z2)と、を関連づける。カメラ3については、空間中の1点の座標(Xa、Ya、Za)と、該1点の座標(Xa、Ya、Za)が投影されるカメラ3の撮像面上の1点の座標(X3,Y3,Z3)と、を関連づける。
<ステップS12>
ステップS11のキャリブレーション処理の後、ステップS12〜S15の各ステップにおける処理が繰り返し実行されることになる。本ステップでは、それぞれのカメラ100から順次送出される映像に対して、該映像中に写っている人物を追跡する処理(人体追尾処理)を行う。
ステップS11のキャリブレーション処理の後、ステップS12〜S15の各ステップにおける処理が繰り返し実行されることになる。本ステップでは、それぞれのカメラ100から順次送出される映像に対して、該映像中に写っている人物を追跡する処理(人体追尾処理)を行う。
<ステップS13>
追尾処理を行っている人物に対して、多視点幾何を利用したカメラ間の人物の対応付け探索を行う。例えば、図6に示す如く、カメラ1とカメラ2とが人物601を含む複数人を撮影しているとする。ここで、カメラ1の視点から該カメラ1の撮像面上で人物601が写っている位置を通る線分を考えると、カメラ2の撮影面上では人物601は該線分上の何れかの位置に写っていることになる。然るに、カメラ2の撮影面上における該線分上の人物601の位置を、カメラ1の撮影面上における人物601の位置と、を対応づける。
追尾処理を行っている人物に対して、多視点幾何を利用したカメラ間の人物の対応付け探索を行う。例えば、図6に示す如く、カメラ1とカメラ2とが人物601を含む複数人を撮影しているとする。ここで、カメラ1の視点から該カメラ1の撮像面上で人物601が写っている位置を通る線分を考えると、カメラ2の撮影面上では人物601は該線分上の何れかの位置に写っていることになる。然るに、カメラ2の撮影面上における該線分上の人物601の位置を、カメラ1の撮影面上における人物601の位置と、を対応づける。
<ステップS14>
3次元位置を得る対象となる人物を撮影したカメラ100の位置と、該カメラ100による撮影映像中の該人物の位置と、を用いて三角測量の原理を用いることで、該人物の3次元位置を推定することができる。図6の場合は、カメラ1の位置、カメラ2の位置、カメラ1の視点から該カメラ1の撮像面上で人物601が写っている位置を通る線分とカメラ2の視点から該カメラ2の撮像面上で人物601が写っている位置を通る線分との交点位置と、を用いる。
3次元位置を得る対象となる人物を撮影したカメラ100の位置と、該カメラ100による撮影映像中の該人物の位置と、を用いて三角測量の原理を用いることで、該人物の3次元位置を推定することができる。図6の場合は、カメラ1の位置、カメラ2の位置、カメラ1の視点から該カメラ1の撮像面上で人物601が写っている位置を通る線分とカメラ2の視点から該カメラ2の撮像面上で人物601が写っている位置を通る線分との交点位置と、を用いる。
<ステップS15>
図7に示すように、上記の三角測量によって対象人物が見つからない場合、例えばカメラ3による撮影映像に対して、ステップS11で求めた座標の関連付けを用いて上記の3次元位置を射影する。これにより、カメラ3による撮影映像からの該対象人物の検出漏れを補完する。
図7に示すように、上記の三角測量によって対象人物が見つからない場合、例えばカメラ3による撮影映像に対して、ステップS11で求めた座標の関連付けを用いて上記の3次元位置を射影する。これにより、カメラ3による撮影映像からの該対象人物の検出漏れを補完する。
なお、映像中の人物の3次元位置を推定若しくは求める方法は図4のフローチャートに従った方法に限るものではなく、他の方法を用いても構わない。例えば、位置センサを用いて対象人物の3次元位置を推定若しくは求めても構わない。
次に、サーバ装置400の動作について、図3のフローチャートを用いて説明する。
<ステップS1>
選択部305は、それぞれのカメラ200で撮影可能な範囲を設定する。例えば、カメラ200の設置位置、パン角が取り得る範囲、チルト角が取り得る範囲、ズームが取り得る範囲、から、空間中で該カメラ200が撮影可能な範囲を求めて設定する。本ステップでは、選択部305がそれぞれのカメラ200について撮影可能な範囲を求めて設定しても良いし、ユーザが不図示の操作部を用いて入力した「それぞれのカメラ200の撮影可能な範囲」を選択部305が設定しても構わない。
選択部305は、それぞれのカメラ200で撮影可能な範囲を設定する。例えば、カメラ200の設置位置、パン角が取り得る範囲、チルト角が取り得る範囲、ズームが取り得る範囲、から、空間中で該カメラ200が撮影可能な範囲を求めて設定する。本ステップでは、選択部305がそれぞれのカメラ200について撮影可能な範囲を求めて設定しても良いし、ユーザが不図示の操作部を用いて入力した「それぞれのカメラ200の撮影可能な範囲」を選択部305が設定しても構わない。
<ステップS2>
推定部303は、映像中で認識すべき対象となる人物(特定人物)を認識するために必要な情報(特定人物情報)を設定する。例えば、特定人物の識別情報(例えばID)と、特定人物の顔、服装、容姿などの特徴量と、を設定する。特徴量は、個人を識別することができる情報であれば、如何なる情報であっても構わない。本ステップでは、例えば、ユーザが不図示の操作部を用いて入力した特定人物情報を推定部303が設定しても構わないし、データとして本装置に供給された特定人物情報を推定部303が設定しても構わない。
推定部303は、映像中で認識すべき対象となる人物(特定人物)を認識するために必要な情報(特定人物情報)を設定する。例えば、特定人物の識別情報(例えばID)と、特定人物の顔、服装、容姿などの特徴量と、を設定する。特徴量は、個人を識別することができる情報であれば、如何なる情報であっても構わない。本ステップでは、例えば、ユーザが不図示の操作部を用いて入力した特定人物情報を推定部303が設定しても構わないし、データとして本装置に供給された特定人物情報を推定部303が設定しても構わない。
<ステップS3>
ステップS1,S2の後、サーバ装置400には、カメラ100,200から撮影映像が符号化された状態で入力される。LAN I/F部301を介してサーバ装置400に入力された映像は、映像復号化部302によって復号され、推定部303に供給される。推定部303は、それぞれのカメラ100による撮影映像から特定人物の検出処理を行う。該検出処理には、上記の特定人物情報を用いる。そして推定部303は、検出した特定人物の3次元位置を求める。この推定部303による一連の動作は、図4を用いて上述したとおりである。
ステップS1,S2の後、サーバ装置400には、カメラ100,200から撮影映像が符号化された状態で入力される。LAN I/F部301を介してサーバ装置400に入力された映像は、映像復号化部302によって復号され、推定部303に供給される。推定部303は、それぞれのカメラ100による撮影映像から特定人物の検出処理を行う。該検出処理には、上記の特定人物情報を用いる。そして推定部303は、検出した特定人物の3次元位置を求める。この推定部303による一連の動作は、図4を用いて上述したとおりである。
<ステップS4>
検出部304は、ステップS3で特定人物が検出された撮影映像から、該特定人物の顔の方向(向き)を検出する。映像中に写っている人の顔の向きを検出するための技術については周知の技術であるため、該技術に関する説明は省略する。
検出部304は、ステップS3で特定人物が検出された撮影映像から、該特定人物の顔の方向(向き)を検出する。映像中に写っている人の顔の向きを検出するための技術については周知の技術であるため、該技術に関する説明は省略する。
<ステップS5>
選択部305は、規定時間の間若しくは規定フレームの間、ステップS4で検出した方向の変化が規定範囲内であるか否かを判断する。この判断の結果、規定時間の間若しくは規定フレームの間、ステップS4で検出した方向の変化が規定範囲内であれば、特定人物は注視状態にあると判断する。一方、規定時間の間若しくは規定フレームの間に、ステップS4で検出した方向の変化が規定範囲から外れてしまうことがあった場合には、特定人物は注視状態にはないと判断する。
選択部305は、規定時間の間若しくは規定フレームの間、ステップS4で検出した方向の変化が規定範囲内であるか否かを判断する。この判断の結果、規定時間の間若しくは規定フレームの間、ステップS4で検出した方向の変化が規定範囲内であれば、特定人物は注視状態にあると判断する。一方、規定時間の間若しくは規定フレームの間に、ステップS4で検出した方向の変化が規定範囲から外れてしまうことがあった場合には、特定人物は注視状態にはないと判断する。
例えば図9に示す如く、特定人物としての警備員が注視状態にあると判断した場合、警備員はある対象を注視しているものと判断することができる。ここでは、この「ある対象」を監視対象とする。
このような判断処理の結果、特定人物は注視状態にあると判断した場合には、処理はステップS6に進み、注視状態にはないと判断した場合には、処理はステップS3に戻る。
<ステップS6>
選択部305は、それぞれのカメラ200のうち、ステップS4で検出した顔の方向における空間を撮影可能なカメラを選択カメラとして選択する。なお、「ステップS4で検出した顔の方向」とは、映像内における向きであり、空間中で実際に顔がどの方向を向いているのかを求める必要がある。本ステップの段階で、カメラ及び特定人物のそれぞれの3次元位置は既知である。然るに、カメラと特定人物との相対的な位置関係と、カメラの撮影面内における顔の向きと、から周知の方法でもって、特定人物が空間中でどの方向を向いているのかを求めることができる。もちろん、特定人物が空間中でどの方向を向いているのかを求める方法には、他の方法を採用しても構わない。そして、特定人物が空間中で向いている方向を求めると、該方向における空間を撮影範囲に含むカメラ200を選択カメラとして選択する。
選択部305は、それぞれのカメラ200のうち、ステップS4で検出した顔の方向における空間を撮影可能なカメラを選択カメラとして選択する。なお、「ステップS4で検出した顔の方向」とは、映像内における向きであり、空間中で実際に顔がどの方向を向いているのかを求める必要がある。本ステップの段階で、カメラ及び特定人物のそれぞれの3次元位置は既知である。然るに、カメラと特定人物との相対的な位置関係と、カメラの撮影面内における顔の向きと、から周知の方法でもって、特定人物が空間中でどの方向を向いているのかを求めることができる。もちろん、特定人物が空間中でどの方向を向いているのかを求める方法には、他の方法を採用しても構わない。そして、特定人物が空間中で向いている方向を求めると、該方向における空間を撮影範囲に含むカメラ200を選択カメラとして選択する。
<ステップS7>
選択部305は、ステップS6で選択した選択カメラに対して、ステップS4で検出した顔の方向における空間(図9の場合は、監視対象を含む空間)を撮像させるためのパン角、チルト角、ズームを指示する。このような指示は、LAN I/F部301及びネットワーク600を介して選択カメラの制御部205に対して送出されるため、該制御部205は該指示に従って選択カメラのパン角、チルト角、ズームを制御する。これにより選択カメラは、ステップS4で検出した顔の方向における空間(図9の場合は、監視対象を含む空間)を撮影することになる。
選択部305は、ステップS6で選択した選択カメラに対して、ステップS4で検出した顔の方向における空間(図9の場合は、監視対象を含む空間)を撮像させるためのパン角、チルト角、ズームを指示する。このような指示は、LAN I/F部301及びネットワーク600を介して選択カメラの制御部205に対して送出されるため、該制御部205は該指示に従って選択カメラのパン角、チルト角、ズームを制御する。これにより選択カメラは、ステップS4で検出した顔の方向における空間(図9の場合は、監視対象を含む空間)を撮影することになる。
更に選択部305は、選択カメラに対して、撮影映像のストレージ装置300への記録指示も行う。これにより選択カメラのLAN I/F部204は、符号化した撮影映像を、ストレージ装置300にも送出することになる。
例えば、それぞれのカメラ200のうち選択カメラのみに対してストレージ装置300への映像記録指示を行う場合を考える。このとき、ストレージ装置300には、特定人物が空間中で向いている方向における空間の撮影映像が記録されることになり、特定人物が空間中で向いている方向における空間を撮影していないカメラによる撮影映像は記録されない。このことは次のような利点を生じさせる。
例えば、特定人物が警備員である場合、警備員が注視している先の空間には、事件や事故、犯罪が生じている可能性がある。本実施形態によれば、このような場合、警備員が注視している先の空間、すなわち、事件や事故、犯罪が生じている空間の撮影映像はストレージ装置300に記録され、該空間を撮影していないカメラによる撮影映像はストレージ装置300には記録されない。それぞれのカメラによる撮影映像を全てストレージ装置300に記録してしまうと、後に捜査や証拠提出などのために映像提供を行う場合、ストレージ装置300から改めて「事件や事故、犯罪が生じている空間の撮影映像」を検索する必要がある。しかし、本実施形態によれば、ストレージ装置300には、事件や事故、犯罪が生じている空間の撮影映像は記録され、該空間を撮影していないカメラによる撮影映像は記録されないので、上記の映像提供を行う場合であっても、このような検索は行わなくてすむ。すなわち、後に捜査や証拠提出などのために映像提供を行う場合には、ストレージ装置300に記録されている撮影映像を提供すれば良く、ストレージ装置300から改めて「事件や事故、犯罪が生じている空間の撮影映像」を検索する必要はない。
図8では、特定人物としての警備員が注視している監視対象を撮影範囲に含むカメラ200(左側の上下のカメラ200)に対して、監視対象を撮影させるためのパン角、チルト角、ズームを指示している。然るに該指示を受けたカメラ200(左側の上下のカメラ200)は自身のパン角、チルト角、ズームを制御することで、監視対象を撮影している。そして、ストレージ装置300には、監視対象の撮影映像が記録されることになる。
なお、選択カメラとして選択するカメラの個数については別段限定はなく、上限数を規定しても構わないし、選択カメラとして選択するカメラの個数を1つに限定しても構わない。
なお、選択カメラとして選択するカメラの個数については別段限定はなく、上限数を規定しても構わないし、選択カメラとして選択するカメラの個数を1つに限定しても構わない。
また、図1では、表示装置500は、ネットワーク600を介してサーバ装置400に接続されているが、ネットワーク600を介さずにサーバ装置400に直接接続しても構わない。
また、ストレージ装置300に記録された映像からイベントシーン等を検索するための操作入力を可能にするインターフェースをサーバ装置400に加えても構わない。また、映像から人物や顔を検出した場合に、該検出した人物や顔に枠を重ねて表示するなど、処理の過程で検出した情報を表示装置500に表示するようにしても構わない。もちろん、表示形態は特定の表示形態に限るものではない。
[第2の実施形態]
第1の実施形態では、選択部305はステップS5において、規定時間の間若しくは規定フレームの間、ステップS4で検出した方向の変化が規定範囲内であるか否かを判断していた。本実施形態では、規定時間の間若しくは規定フレームの間、ステップS4で検出した方向の変化が規定範囲内であるか否かの判断に加えて、該方向の空間が規定の空間を含む若しくは規定の空間に属しているか否かを判断する。本実施形態に係るサーバ装置400の動作について、図10のフローチャートに従って説明する。図10において、図3に示した処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。図10のフローチャートは、ステップS5の代わりに、ステップS9の処理を行う点が、図3と異なる。
第1の実施形態では、選択部305はステップS5において、規定時間の間若しくは規定フレームの間、ステップS4で検出した方向の変化が規定範囲内であるか否かを判断していた。本実施形態では、規定時間の間若しくは規定フレームの間、ステップS4で検出した方向の変化が規定範囲内であるか否かの判断に加えて、該方向の空間が規定の空間を含む若しくは規定の空間に属しているか否かを判断する。本実施形態に係るサーバ装置400の動作について、図10のフローチャートに従って説明する。図10において、図3に示した処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。図10のフローチャートは、ステップS5の代わりに、ステップS9の処理を行う点が、図3と異なる。
<ステップS9>
選択部305は、規定時間の間若しくは規定フレームの間、ステップS4で検出した方向の変化が規定範囲内であるかの判断に加えて、該方向の空間が規定の空間を含む若しくは規定の空間に属しているか否かを判断する。ここで、この判断のためには、空間中で実際に顔がどの方向を向いているのかを求める必要がある。これについては第1の実施形態で説明したように、カメラと特定人物との相対的な位置関係と、カメラの撮影面内における顔の向きと、から周知の方法でもって、特定人物が空間中でどの方向を向いているのかを求めることができる。そして、特定人物が空間中でどの方向を向いているのかを求めると、該向いている方向の空間が、予め設定された空間情報が表す空間に属している若しくは該空間情報が表す空間を含んでいるか否かを判断する。空間情報は、空間を規定する情報であり、例えば、複数点で囲まれた空間を表す場合には、それぞれの点の3次元座標であり、球体の空間を表す場合には、その中心の3次元座標と半径である。
選択部305は、規定時間の間若しくは規定フレームの間、ステップS4で検出した方向の変化が規定範囲内であるかの判断に加えて、該方向の空間が規定の空間を含む若しくは規定の空間に属しているか否かを判断する。ここで、この判断のためには、空間中で実際に顔がどの方向を向いているのかを求める必要がある。これについては第1の実施形態で説明したように、カメラと特定人物との相対的な位置関係と、カメラの撮影面内における顔の向きと、から周知の方法でもって、特定人物が空間中でどの方向を向いているのかを求めることができる。そして、特定人物が空間中でどの方向を向いているのかを求めると、該向いている方向の空間が、予め設定された空間情報が表す空間に属している若しくは該空間情報が表す空間を含んでいるか否かを判断する。空間情報は、空間を規定する情報であり、例えば、複数点で囲まれた空間を表す場合には、それぞれの点の3次元座標であり、球体の空間を表す場合には、その中心の3次元座標と半径である。
なお、第1の実施形態及び第2の実施形態はその一部若しくは全部を組み合わせて構成しても構わないし、それぞれの実施形態の構成の一部若しくは全部を選択的に使用しても構わない。
[第3の実施形態]
図1のサーバ装置400を構成する機能部である、映像復号化部302、推定部303、検出部304、選択部305は何れもハードウェアで構成しても良いが、ソフトウェアで構成しても構わない。この場合、サーバ装置400には、図11に示したハードウェア構成を有するコンピュータ装置を適用することができる。
図1のサーバ装置400を構成する機能部である、映像復号化部302、推定部303、検出部304、選択部305は何れもハードウェアで構成しても良いが、ソフトウェアで構成しても構わない。この場合、サーバ装置400には、図11に示したハードウェア構成を有するコンピュータ装置を適用することができる。
CPU1101は、RAM1102やROM1103に格納されているコンピュータプログラムやデータを用いて処理を実行することでコンピュータ装置全体の動作制御を行うと共に、サーバ装置400が行うものとして上述した各処理を実行若しくは制御する。
RAM1102は、外部記憶装置1105やROM1103からロードされたコンピュータプログラムやデータを格納するためのエリア、I/F1106を介してカメラ100,200やストレージ装置300から受信した映像を格納するためのエリアを有する。更にRAM1102は、CPU1101が各種の処理を実行する際に用いるワークエリアも有する。すなわち、RAM1102は、各種のエリアを適宜提供することができる。
ROM1103には、本コンピュータ装置の設定データや、ブートプログラムなどが格納されている。
操作部1104は、キーボードやマウスなどのユーザインターフェースであり、本コンピュータ装置の操作者が操作することで、各種の指示をCPU1101に対して入力することができる。
外部記憶装置1105は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置1105には、OS(オペレーティングシステム)や、サーバ装置400が行うものとして上述した各処理をCPU1101に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。このコンピュータプログラムには、映像復号化部302、推定部303、検出部304、選択部305の各機能部が行うものとして上述した各処理をCPU1101に実行させるためのコンピュータプログラムが含まれている。また、このデータには、上記の説明において既知の情報として取り扱った情報が含まれている。外部記憶装置1105に保存されているコンピュータプログラムやデータは、CPU1101による制御に従って適宜RAM1102にロードされ、CPU1101による処理対象となる。なお、ネットワーク600上にストレージ装置300を設けずに、外部記憶装置1105をストレージ装置300として使用しても構わない。
I/F1106は、図1のLAN I/F部301の機能をも含みうるものであり、ネットワーク600を介してストレージ装置300やカメラ100,200との間のデータ通信を行う。
CPU1101、RAM1102、ROM1103、操作部1104、外部記憶装置1105、I/F1106は何れも、バス1107に接続されている。なお、図11に示した構成は、サーバ装置400に適用可能なコンピュータ装置の構成の一例に過ぎない。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
303:推定部 304:検出部 305:選択部
Claims (10)
- 第1の撮像装置による映像中の人物の顔の方向を検出し、該検出した方向における空間を撮像可能な第2の撮像装置を選択する選択手段と、
前記第2の撮像装置に前記空間を撮像させるよう制御する制御手段と
を備えることを特徴とする制御装置。 - 前記選択手段は、規定時間の間若しくは規定フレームの間、前記第1の撮像装置による映像中の人物の顔の方向の変化が規定範囲内であれば、該方向における空間を撮像可能な前記第2の撮像装置を選択することを特徴とする請求項1に記載の制御装置。
- 前記選択手段は、規定時間の間若しくは規定フレームの間、前記第1の撮像装置による映像中の人物の顔の方向の変化が規定範囲内であり、且つ該方向における空間が規定の空間を含む若しくは該規定の空間に属している場合には、該方向における空間を撮像可能な前記第2の撮像装置を選択することを特徴とする請求項1に記載の制御装置。
- 前記制御手段は、前記方向における空間を撮像させるためのパン角、チルト角、ズームのうち少なくとも1つを、前記第2の撮像装置に指示することを特徴とする請求項1乃至3の何れか1項に記載の制御装置。
- 更に、
前記第2の撮像装置による映像を記録するよう制御する手段を備えることを特徴とする請求項1乃至4の何れか1項に記載の制御装置。 - 前記第1の撮像装置は、撮影範囲が固定されている撮像装置であることを特徴とする請求項1乃至5の何れか1項に記載の制御装置。
- 前記第2の撮像装置は、撮影範囲が制御可能な撮像装置であることを特徴とする請求項1乃至6の何れか1項に記載の制御装置。
- 複数の撮像装置と、制御装置と、を有するシステムであって、
前記制御装置は、
第1の撮像装置による映像中の人物の顔の方向を検出し、該検出した方向における空間を撮像可能な第2の撮像装置を選択する選択手段と、
前記第2の撮像装置に前記空間を撮像させるよう制御する制御手段と
を備え、
前記複数の撮像装置のそれぞれは、
撮影した映像を前記制御装置に対して送出する手段と、
前記制御手段による制御に従って前記空間を撮像する手段と
を備えることを特徴とするシステム。 - 制御装置が行う制御方法であって、
前記制御装置の選択手段が、第1の撮像装置による映像中の人物の顔の方向を検出し、該検出した方向における空間を撮像可能な第2の撮像装置を選択する選択工程と、
前記制御装置の制御手段が、前記第2の撮像装置に前記空間を撮像させるよう制御する制御工程と
を備えることを特徴とする制御方法。 - コンピュータを、請求項1乃至7の何れか1項に記載の制御装置の各手段として機能させるためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015105817A JP2016220148A (ja) | 2015-05-25 | 2015-05-25 | 制御装置、制御方法、システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015105817A JP2016220148A (ja) | 2015-05-25 | 2015-05-25 | 制御装置、制御方法、システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016220148A true JP2016220148A (ja) | 2016-12-22 |
Family
ID=57579174
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015105817A Pending JP2016220148A (ja) | 2015-05-25 | 2015-05-25 | 制御装置、制御方法、システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016220148A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019004098A1 (ja) * | 2017-06-26 | 2019-01-03 | オリンパス株式会社 | 撮像システム、撮像端末、撮像方法、およびプログラム |
-
2015
- 2015-05-25 JP JP2015105817A patent/JP2016220148A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019004098A1 (ja) * | 2017-06-26 | 2019-01-03 | オリンパス株式会社 | 撮像システム、撮像端末、撮像方法、およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3024227B1 (en) | Image processing apparatus and image processing method | |
JP5790761B2 (ja) | 分散画像処理システム | |
JP5967473B2 (ja) | 撮像装置及び撮像システム | |
KR101530255B1 (ko) | 객체 자동 추적 장치가 구비된 cctv 시스템 | |
JP2017507400A5 (ja) | ||
JP6465600B2 (ja) | 映像処理装置および映像処理方法 | |
JP5991514B2 (ja) | 撮像装置及び撮像システム | |
US10127424B2 (en) | Image processing apparatus, image processing method, and image processing system | |
JP2008035095A (ja) | 監視装置、監視システム、監視方法及びプログラム | |
JP2016127571A (ja) | カメラシステム、表示制御装置、表示制御方法、及びプログラム | |
JP2016187162A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR20180086048A (ko) | 카메라 및 카메라의 영상 처리 방법 | |
JP6700706B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2021196741A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2016111561A (ja) | 情報処理装置、システム、情報処理方法及びプログラム | |
JP2016220148A (ja) | 制御装置、制御方法、システム | |
JP2006319526A (ja) | ネットワークカメラシステム及びその制御方法 | |
KR102474697B1 (ko) | 촬상 장치 및 영상 처리 방법 | |
JP7329967B2 (ja) | 画像処理装置、システム、画像処理装置の制御方法、及び、プログラム | |
JP2012065027A (ja) | 撮像装置及び撮像装置の制御方法 | |
KR101698864B1 (ko) | 메타 데이터를 이용한 영상 검출 방법을 실행시키는 프로그램이 기록된 기록 매체 | |
JP2016021716A (ja) | 追尾装置及びその制御方法 | |
JP2019125058A (ja) | 画像処理装置、撮影装置、画像処理方法、およびプログラム | |
KR102596487B1 (ko) | 표시 제어 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체 | |
JP5398359B2 (ja) | 情報処理装置、撮像装置及び制御方法 |