JP2007067510A - 映像撮影システム - Google Patents
映像撮影システム Download PDFInfo
- Publication number
- JP2007067510A JP2007067510A JP2005247609A JP2005247609A JP2007067510A JP 2007067510 A JP2007067510 A JP 2007067510A JP 2005247609 A JP2005247609 A JP 2005247609A JP 2005247609 A JP2005247609 A JP 2005247609A JP 2007067510 A JP2007067510 A JP 2007067510A
- Authority
- JP
- Japan
- Prior art keywords
- video
- person
- photographed
- photographing
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】 各カメラシステム1(1A〜1E)では、手動による操作なしで、継続的に撮影対象者の顔あるいは顔を中心とした映像を継続的に撮影することができる。
【解決手段】 各カメラシステム1(1A〜1E)は、各カメラ11(11A〜11E)により撮影した映像から顔画像を検出し、その検出した顔画像と予め登録されている撮影対象者の顔画像とを顔照合し、その顔照合が成功した場合には当該映像から人物の位置を検出し、その検出した人物の位置に応じて各カメラ11(11A〜11E)の撮影位置を制御するようになっている。
【選択図】 図2
【解決手段】 各カメラシステム1(1A〜1E)は、各カメラ11(11A〜11E)により撮影した映像から顔画像を検出し、その検出した顔画像と予め登録されている撮影対象者の顔画像とを顔照合し、その顔照合が成功した場合には当該映像から人物の位置を検出し、その検出した人物の位置に応じて各カメラ11(11A〜11E)の撮影位置を制御するようになっている。
【選択図】 図2
Description
本発明は、たとえば、動きのある人物などの被写体を追尾し、その被写体の映像をビデオカメラにより継続的に撮影する映像撮影システムに関する。
従来、特定の被写体を継続的に撮影する映像撮影システムとしては、1台のビデオカメラで人物を追尾して撮影をする自動追尾ビデオカメラシステムがある(例えば、特許文献1)。このような従来のビデオカメラシステムでは、被写体の動きを追尾して、1台のビデオカメラが被写体を継続的に撮影する。しかしながら、上記のような自動追尾ビデオカメラシステムでは、単に特定の被写体を1台のビデオカメラで追尾して撮影するため、特定のアングルでしか被写体を撮影できなかったり、被写体の映像が撮影できない死角が多かったりするという問題点がある。
また、従来は、さまざまなアングルから特定の人物等の1つの被写体を撮影する場合、複数の場所に設置した複数のビデオカメラを用いて1つの被写体を撮影し、人間が複数台のカメラで撮影した映像のなかから1つの映像を選ぶという方法が用いられている。しかしながら、複数台のビデオカメラが撮影している映像から1つの映像を選ぶ作業を手動で継続的に行うのは難しいという問題点がある。また、このような方法では、被写体の急激に動き等に応じて映像を切り換える作業を人手で行うには難しいという問題点もある。
特開2004−112615号公報
この発明は、上記のような問題点を解決するものであり、特定の撮影対象者の映像として最適な映像を継続的に撮影することができる映像撮影システムを提供することを目的とする。
この発明の一形態としての映像撮影システムは、映像を撮影する撮影手段と、この撮影手段で撮影された映像から人物の生体情報を検出し、検出した人物の生体情報と予め設定されている撮影対象者の生体情報とを照合する照合手段と、この照合手段による生体情報の照合が成功した前記撮影手段により撮影された前記撮影対象者の位置を検出する位置検出手段と、この位置検出手段により検出した前記撮影対象者の位置に基づいて前記撮影手段による撮影位置を制御する制御手段とを有する。
この発明の一形態としての映像撮影システムは、映像を撮影する複数の撮影手段と、各撮影手段で撮影された映像からそれぞれ人物の顔画像を検出し、検出した人物の顔画像と予め設定されている撮影対象者の顔画像とを照合する顔照合手段と、この顔照合手段による各撮影手段で撮影した各映像に対するそれぞれの顔画像の照合結果に基づいて各撮影手段が撮影した各映像のうち前記撮影対象者の顔画像を含む1つの映像を選択する映像選択手段と、この映像選択手段により選択した1つの映像を出力する映像出力手段とを有する。
この発明の一形態としての映像撮影システムは、複数のカメラシステムと映像制御システムとを有するシステムであって、各カメラシステムは、映像を撮影する撮影手段と、この撮影手段で撮影された映像から人物の顔画像を検出し、検出した人物の顔画像と予め設定されている撮影対象者の顔画像とを照合する顔照合手段と、前記撮影手段で撮影した映像に対する顔画像の照合結果に基づいて前記撮影対象者の位置を検出する位置検出手段と、前記位置検出手段により検出した前記撮影対象者の位置に基づいて各撮影手段による撮影位置を制御する制御手段と、前記撮影手段により撮影された映像、および、前記顔照合手段による顔画像の照合結果を前記映像制御システムへ送信する送信手段と、を有し、前記映像制御システムは、各カメラシステムからの顔画像の照合結果に基づいて、各カメラシステムからの各映像のうち前記撮影対象者の顔画像を含む1つの映像を選択する映像選択手段と、この映像選択手段により選択した1つの映像を出力する映像出力手段とを有する。
この発明によれば、特定の撮影対象者の映像として最適な映像を継続的に撮影することができる映像撮影システムを提供することができる。
この発明を実施するための最良の形態について図面を参照して詳細に説明する。
図1は、この発明の実施の形態に係る映像撮影システムの構成例を概略的に示す図である。
図1に示すように、映像撮影システムは、複数のカメラシステム1(1A、1B、1C、1D、1E)と映像制御システム2とから構成される。また、各カメラシステム1A、1B、1C、1D、1Eと映像制御システム2とは、通信回線3を介して接続されている。各カメラシステム1A、1B、1C、1D、1Eにより撮影された映像は、通信回線3を介して映像制御システム2へ送信される。
図1は、この発明の実施の形態に係る映像撮影システムの構成例を概略的に示す図である。
図1に示すように、映像撮影システムは、複数のカメラシステム1(1A、1B、1C、1D、1E)と映像制御システム2とから構成される。また、各カメラシステム1A、1B、1C、1D、1Eと映像制御システム2とは、通信回線3を介して接続されている。各カメラシステム1A、1B、1C、1D、1Eにより撮影された映像は、通信回線3を介して映像制御システム2へ送信される。
各カメラシステム1(1A〜1E)は、それぞれカメラ11(11A〜11E)、撮影制御装置12(12A〜12E)、および、撮影位置変更装置13(13A〜13E)により構成されている。
上記カメラ11(11A〜11E)は、撮影の対象となる領域を種々の角度から撮影するような位置に設置される。例えば、図1に示すように、スポーツ会場のような広い会場で特定の人物(撮影対象者)を撮影する場合を想定する。この場合、各カメラ11(11A〜11E)は、撮影対象者が会場のどの位置にいても、何れかのカメラ11A〜11Eが撮影対象者の顔を撮影できるような位置に設置される。
上記カメラ11(11A〜11E)は、撮影の対象となる領域を種々の角度から撮影するような位置に設置される。例えば、図1に示すように、スポーツ会場のような広い会場で特定の人物(撮影対象者)を撮影する場合を想定する。この場合、各カメラ11(11A〜11E)は、撮影対象者が会場のどの位置にいても、何れかのカメラ11A〜11Eが撮影対象者の顔を撮影できるような位置に設置される。
上記撮影制御装置12(12A〜12E)は、上記カメラ11(11A〜11E)により撮影した映像に基づいて種々の処理を行うものである。上記撮影制御装置12(12A〜12E)は、上記カメラ11(11A〜11E)が撮影した映像から人物を検知したり、上記カメラ11から撮影対象者への方向を検出したり、上記カメラ11から撮影対象者までの距離を算出したりするものである。また、上記撮影制御装置12(12A〜12E)は、上記撮影位置変更装置13(13A〜13E)によって上記カメラ11(11A〜11E)の撮影位置を制御する機能も有している。
上記撮影位置変更装置13(13A〜13E)は、上記撮影制御装置12(12A〜12E)による制御に基づいて上記カメラ11(11A〜11E)の撮影位置を変更するものである。
上記撮影位置変更装置13(13A〜13E)は、上記撮影制御装置12(12A〜12E)による制御に基づいて上記カメラ11(11A〜11E)の撮影位置を変更するものである。
上記映像制御システム2は、各カメラシステム1(1A〜1E)により撮影した複数の映像を制御するシステムである。上記映像制御システム2では、各カメラシステム1(1A〜1E)により撮影した複数の映像から1つの映像を選択し、外部へ出力する。言い換えると、上記映像制御システム2では、適宜、最適な1つの映像を外部へ出力するものであり、各カメラシステム1(1A〜1E)により撮影した複数の映像から外部へ出力する1つの映像を切り替えるシステムである。
次に、各カメラシステム1(1A〜1E)の構成について詳細に説明する。
図2は、各カメラシステム1(1A〜1E)の構成例を概略的に示す図である。
各カメラシステム1(1A〜1E)は、上述しように、カメラ11(11A〜11E)、撮影制御装置12(12A〜12E)および撮影位置変更装置13(13A〜13E)から構成されている。また、上記撮影制御装置12(12A〜12E)は、図2に示すように、人物検出部(顔検出部)21、人物認識部(顔照合部)22、制御部23、撮影位置検出部24、および、通信インターフェース部25などを有している。
図2は、各カメラシステム1(1A〜1E)の構成例を概略的に示す図である。
各カメラシステム1(1A〜1E)は、上述しように、カメラ11(11A〜11E)、撮影制御装置12(12A〜12E)および撮影位置変更装置13(13A〜13E)から構成されている。また、上記撮影制御装置12(12A〜12E)は、図2に示すように、人物検出部(顔検出部)21、人物認識部(顔照合部)22、制御部23、撮影位置検出部24、および、通信インターフェース部25などを有している。
上記人物検出部21は、上記カメラ11が撮影した映像から人物の生体情報(人物らしい画像)を検出するものである。上記人物認識部22は、上記人物検出部21により検出した人物を識別するものである。上記人物検出部21および上記人物認識部22は、人物の生体情報を検出して、検出した生体情報による生体照合を行なう照合手段として機能する。
なお、本実施の形態では、人物の生体情報として顔画像を用いるものとする。したがって、本実施の形態では、上記人物検出部21は、上記カメラ11が撮影した映像から人物の顔を検出する顔検出部であり、上記人物認識部22は、上記人物検出部21により検出した人物の顔(顔画像)が予め設定されている人物の顔(顔画像)と一致するか否かを判定する顔照合部であるものとする。
なお、本実施の形態では、人物の生体情報として顔画像を用いるものとする。したがって、本実施の形態では、上記人物検出部21は、上記カメラ11が撮影した映像から人物の顔を検出する顔検出部であり、上記人物認識部22は、上記人物検出部21により検出した人物の顔(顔画像)が予め設定されている人物の顔(顔画像)と一致するか否かを判定する顔照合部であるものとする。
上記制御部23は、上記撮影制御装置12全体の制御を司るものである。上記制御部23は、主に、撮影対象者の位置を判断する位置検出機能(位置検出手段)、上記カメラ11の撮影位置を制御する撮影位置制御機能(撮影位置制御手段)などを有している。また、上記制御部23では、撮影対象者の位置を検出する位置検出機能として、上記カメラ11から撮影対象者の方向を検出する方向検出機能(方向検出手段)、上記カメラ11と撮影対象者との距離を算出する距離算出機能(距離算出手段)、および、方向と距離とに基づいて撮影対象者の位置を判断する位置判断機能(位置判断手段)などを有している。
上記撮影位置検出部24は、上記カメラ11が撮影している撮影位置を検出するものである。上記撮影位置検出部24は、上記カメラ11からの情報に基づいて撮影している位置(方向、焦点距離、ズーム倍率など)を検出する。また、上記制御部23では、上記撮影位置検出部24により検出される上記カメラ11の現在の撮影位置と、上記位置検出機能により検出される撮影対象者の位置とに基づいて上記カメラ11の撮影位置を制御するようになっている。
上記通信インターフェース部25は、上記通信回線3を介して上記映像制御システムあるいは他のカメラシステム1とのデータ通信を行うためのインターフェースである。上記通信インターフェース部25では、上記カメラ11にて撮影した映像を上記映像制御システム2へ転送する機能、他のカメラシステムあるいは上記映像制御システム2からの情報を共有(受信)する機能などを実現している。また、上記制御部23では、上記通信インターフェース部25により他のカメラシステム(あるいは映像制御システム)から取得する撮影対象者の位置を示す情報と上記撮影位置検出部24により検出される上記カメラ11の現在の撮影位置とに基づいて、上記カメラ11の撮影位置を制御する機能も有している。
次に、上記映像制御システム2の構成について説明する。
図3は、上記映像制御システム2の構成例を概略的に示す図である。
上記映像制御システム2は、図3に示すように、映像制御装置31、映像収集装置32、映像表示装置33、通信インターフェース装置34、および、映像伝送装置35などから構成されている。
上記映像制御装置31は、映像制御システム2全体を制御するものである。上記映像制御装置31では、複数の映像から1つの映像を選択する映像選択機能(映像選択手段)を有している。また、上記映像制御装置31は、各カメラシステム1(1A〜1E)が判断した人物の位置情報あるいは顔照合の結果などを総合的に判断して人物の位置を判定する機能なども有している。この実施の形態では、上記映像制御装置31は、映像選択機能として、各カメラシステム1(1A〜1E)からの情報(人物の位置情報あるいは顔照合の結果等)に基づいて1つの映像を自動的に選択するものとする。
図3は、上記映像制御システム2の構成例を概略的に示す図である。
上記映像制御システム2は、図3に示すように、映像制御装置31、映像収集装置32、映像表示装置33、通信インターフェース装置34、および、映像伝送装置35などから構成されている。
上記映像制御装置31は、映像制御システム2全体を制御するものである。上記映像制御装置31では、複数の映像から1つの映像を選択する映像選択機能(映像選択手段)を有している。また、上記映像制御装置31は、各カメラシステム1(1A〜1E)が判断した人物の位置情報あるいは顔照合の結果などを総合的に判断して人物の位置を判定する機能なども有している。この実施の形態では、上記映像制御装置31は、映像選択機能として、各カメラシステム1(1A〜1E)からの情報(人物の位置情報あるいは顔照合の結果等)に基づいて1つの映像を自動的に選択するものとする。
なお、上記映像制御装置31には、オペレータが特定の映像を選択するための操作部(図示しない)を具備するようにしても良い。この場合、上記映像制御装置31は、オペレータからの指示に応じて、オペレータが手動で映像を選択するモードと映像制御装置31が映像を自動的に判断するモードとを切り替えるようにしても良い。すなわち、上記映像制御装置31は、手動で映像を選択するモードでは、オペレータが選択した映像を上記映像伝送装置35により外部へ出力し、映像を自動的に選択するモードとでは、後述する選択機能によって自動的に選択した映像を上記映像伝送装置35により外部へ出力するようにすれば良い。
上記映像収集装置32は、複数の映像を収集する装置である。上記映像収集装置32では、各カメラシステム1(1A〜1E)で撮影した各映像を上記通信インターフェース装置34を介して収集するようになっている。
上記映像表示装置33は、複数の映像を表示する装置である。図2に示す例では、上記映像表示装置33では、上記映像収集装置32により収集した各カメラシステム1(1A〜1E)で撮影した複数の映像、および、上記映像制御装置31により選択された特定の映像を同時に表示するようになっている。
上記映像表示装置33は、複数の映像を表示する装置である。図2に示す例では、上記映像表示装置33では、上記映像収集装置32により収集した各カメラシステム1(1A〜1E)で撮影した複数の映像、および、上記映像制御装置31により選択された特定の映像を同時に表示するようになっている。
上記通信インターフェース装置34は、各カメラシステムとのデータ通信を行うための装置である。上記通信インターフェース装置34では、各カメラシステムから映像を受信する。また、上記通信インターフェース装置34では、各カメラシステムで検出した撮影対象者の位置情報、顔検出及び顔照合の結果などを示す情報を受信する機能、あるいは、情報を各カメラシステムへ配信する機能も有している。
上記映像伝送装置35は、映像を外部へ出力する装置(映像出力手段)である。上記映像伝送装置35では、上記映像制御装置31により選択された特定の映像を外部へ出力するようになっている。
上記映像伝送装置35は、映像を外部へ出力する装置(映像出力手段)である。上記映像伝送装置35では、上記映像制御装置31により選択された特定の映像を外部へ出力するようになっている。
上記映像制御装置31では、各カメラシステムで撮影した各映像から1つの映像を選択し、選択した映像を上記映像伝送装置35により外部へ出力する機能を有している。すなわち、各カメラシステム1A〜1Eで撮影された各映像は、上記通信インターフェース装置34により映像制御システム2に供給される。上記通信インターフェース装置34により受信した各カメラシステム1A〜1Eからの複数の映像は、上記映像収集装置32により収集され、上記映像表示装置33に表示される。また、上記映像制御装置31は、上記映像収集装置32により収集した複数の映像から1つの映像を選択する。この選択された映像は、選択中の映像として上記映像表示装置33に表示されるとともに、上記映像伝送装置35により外部へ出力される。
次に、上記のように構成される映像撮影システムの適用例について説明する。
以下の説明では、図1に示すような野球場のような広い会場において特定の選手(撮影対象者)を撮影して放映する場合を想定する。この場合、各カメラシステム1(1A〜1E)は、会場の各所に設置される。各カメラシステム1(1A〜1E)は、それぞれの設置位置から当該会場内の撮影対象者を撮影し、撮影した映像を種々の情報とともに上記映像制御システム2へ出力する。上記映像制御システム2では、各カメラシステム1(1A〜1E)で撮影した映像のなかから1つの映像だけを選んで外部へ出力(放映)する。また、本実施の形態では、カメラシステム1Aのカメラ11Aは、会場全体を撮影するものとし、他のカメラシステム1B〜1Eのカメラ11B〜11Eは、特定の人物(予め撮影対象として設定した人物の顔を含む映像)を撮影するものとする。
以下の説明では、図1に示すような野球場のような広い会場において特定の選手(撮影対象者)を撮影して放映する場合を想定する。この場合、各カメラシステム1(1A〜1E)は、会場の各所に設置される。各カメラシステム1(1A〜1E)は、それぞれの設置位置から当該会場内の撮影対象者を撮影し、撮影した映像を種々の情報とともに上記映像制御システム2へ出力する。上記映像制御システム2では、各カメラシステム1(1A〜1E)で撮影した映像のなかから1つの映像だけを選んで外部へ出力(放映)する。また、本実施の形態では、カメラシステム1Aのカメラ11Aは、会場全体を撮影するものとし、他のカメラシステム1B〜1Eのカメラ11B〜11Eは、特定の人物(予め撮影対象として設定した人物の顔を含む映像)を撮影するものとする。
すなわち、このような構成の映像撮影システムでは、撮影したい人物の顔画像を予め登録した複数のカメラシステムを使って撮影対象者を撮影する。各カメラシステム1A〜1Eの各カメラ11A〜11Eは、それぞれ設置位置及び撮影する向きが違うため、特定の人物の顔を含む映像(撮影対象者のほぼ正面の映像)を同時に撮影することができない。しかしながら、会場を取り囲むように各所に設置した複数のカメラ11B、カメラ11C、カメラ11D、カメラ11Eが当該会場内における撮影対象者を中心とした映像を撮影するため、1台もしくは2台のいずれかのカメラが撮影対象者のほぼ正面の映像を撮影することが可能である。また、撮影対象者のほぼ正面の映像が撮影されているかは、各カメラシステムが撮影した映像と予め登録されている撮影対象者の顔画像との顔照合の結果などにより判断されるようになっている。
このような構成では、各カメラシステム1B〜1Eには、撮影対象とする人物の顔画像が予め登録される。各カメラシステム1B〜1Eでは、各カメラにより映像を継続的に撮影して上記映像制御システム2へ出力するとともに、撮影した映像から人物の顔画像の検出(顔検出処理)、および、検出した顔画像と予め登録されている顔画像との照合(顔照合処理)を行う。なお、各カメラシステムでの顔検出処理及び顔照合処理は、各カメラによる映像の撮影中において、映像の撮影と並行して繰り返し実行されるものである。つまり、各カメラシステムでの映像の撮影は連続的に行われるが、各カメラシステムでの顔検出処理及び顔照合処理は、たとえば、所定の間隔で行うようにしても良い。
上記のような顔照合が成功したカメラシステムでは、検出した顔画像および顔照合の結果に基づいて、当該映像を撮影したカメラから撮影対象者への方向を検出するとともに、当該映像を撮影したカメラから人物までの距離を算出する。カメラからの人物の方向と距離とが得られると、当該カメラシステムでは、カメラの現在位置(この場合はカメラを固定しているためカメラの設置位置)と、上記カメラからの人物までの方向と、上記カメラから人物までの距離等とに基づいて撮影対象者の位置を判断する。
撮影対象者の位置を判断すると、当該カメラシステムでは、撮影対象者の位置に基づいてカメラの撮影位置(撮影方向と撮影距離)を制御する。これにより、当該カメラシステムでは、予め設定されている人物を追尾して継続的に撮影することが可能となる。また、上記のような顔照合が成功したカメラシステムでは、判定した人物の位置を示す情報をネットワーク経由で他のカメラシステムあるいは映像制御システム2へ出力するようになっている。
また、上記のような顔照合が失敗したカメラシステム、つまり、撮影対象とする人物の顔画像が検出できなかったカメラシステムは、他のカメラシステムあるいは映像制御システム2から受信した人物の位置情報に基づいてカメラの撮影位置を制御する。すなわち、上記のように、顔照合が成功したカメラシステムでは、人物の位置を示す情報をネットワーク経由で出力している。すなわち、本映像撮影システム全体としては、各カメラシステムが他のカメラシステムで判断した人物の位置を示す情報を共有している。
これにより、上記顔照合が失敗したカメラシステムでは、他のカメラシステムにより判断した人物の位置情報に基づいてカメラの撮影位置を制御することができ、撮影対象者の顔を撮影できないカメラシステムも撮影対象者の位置を中心とした映像を撮影することができるようになっている。
これにより、上記顔照合が失敗したカメラシステムでは、他のカメラシステムにより判断した人物の位置情報に基づいてカメラの撮影位置を制御することができ、撮影対象者の顔を撮影できないカメラシステムも撮影対象者の位置を中心とした映像を撮影することができるようになっている。
なお、撮影対象者の位置を示す情報は、各カメラシステム1(1A〜1E)が検出した撮影対象者の位置を示す情報を上記映像制御システム2が一旦取得して統合し、上記映像制御システム2から各カメラシステム1(1A〜1E)へ配信するようにしても良い。
次に、各カメラシステム1B〜1Eの動作について詳細に説明する。
図4は、各カメラシステム1B〜1Eにおけるカメラ11B〜11Eの制御に係る動作例を説明するためのフローチャートである。
まず、各カメラシステム1(1B〜1E)には、撮影対象となる人物の顔画像が予め登録される(ステップS11)。たとえば、撮影対象なる人物の顔画像は、上記映像制御システム2から各カメラシステム1B〜1Eに配信し、各カメラシステム1に登録するようにしても良い。この状態において、上記カメラ11(11B〜11E)が撮影した映像は、上記通信インターフェース部25により通信回線3を介して上記映像制御システム2に送信されるとともに、上記顔検出部21に供給される。
図4は、各カメラシステム1B〜1Eにおけるカメラ11B〜11Eの制御に係る動作例を説明するためのフローチャートである。
まず、各カメラシステム1(1B〜1E)には、撮影対象となる人物の顔画像が予め登録される(ステップS11)。たとえば、撮影対象なる人物の顔画像は、上記映像制御システム2から各カメラシステム1B〜1Eに配信し、各カメラシステム1に登録するようにしても良い。この状態において、上記カメラ11(11B〜11E)が撮影した映像は、上記通信インターフェース部25により通信回線3を介して上記映像制御システム2に送信されるとともに、上記顔検出部21に供給される。
また、上記撮影位置検出部24では、当該映像を撮影した際のカメラ11の状態を検出し、検出したカメラ11の状態を示す情報を当該映像の撮影位置を示す情報として上記制御部23へ通知している(ステップS12)。たとえば、上記撮影位置検出部24は、当該映像の撮影位置を示す情報として、当該映像を撮影した際のカメラ11の向き、焦点距離、ズーム倍率などの情報を上記制御部23へ通知している。
上記カメラ11にて撮影した映像を取得した顔検出部21では、上記カメラ11が撮影した映像から人物の顔らしい画像(顔画像)を検出する顔検出処理を行う(ステップS13)。上記顔検出部21により撮影した映像から顔画像が検出されると(ステップS14、YES)、上記顔照合部22は、カメラ11にて撮影した映像から検出した顔画像と予め登録されている顔画像とを照合する顔照合処理を行う(ステップS15)。また、上記顔検出処理により顔画像が検出できなかった場合(ステップS14、NO)、上記顔検出部21は、上記顔照合部22を介して撮影対象者の顔が検出できなかった旨を上記制御部23へ通知する。
上記顔照合処理による顔照合が成功した場合、つまり、上記カメラ11が撮影した映像から撮影対象者の顔が検出できた場合(ステップS16、YES)、上記顔照合部22は、上記制御部23へ顔照合が成功した旨を通知する。この際、上記顔照合部22は、撮影対象者の位置を判断するための情報として、顔画像の検出結果や顔照合の結果などを示す情報も上記制御部23へ通知する。また、上記顔照合処理による顔照合が失敗した場合、つまり、上記カメラ11が撮影した映像から検出した顔画像が予め登録されている撮影対象者の顔画像と一致ないと判定した場合(ステップS16、NO)、上記顔照合部22は、顔画像の照合が失敗した旨を上記制御部23へ通知する。
上記顔照合部22から顔画像の照合が成功した旨の通知を受けた制御部23は、撮影対象者の位置を検出する位置検出処理を行う(ステップS18)。この位置検出処理として、上記制御部23は、方向検出処理(ステップS19)、距離算出処理(ステップS20)、および、位置判断処理(ステップS21)を行う。上記方向検出処理は、カメラ11から撮影対象者への方向を検出する処理であり、上記距離算出処理は、カメラ11から撮影対象者までの距離を算出する距離算出処理である。また、上記位置判断処理は、上記方向検出処理により検出した方向と上記距離算出処理により算出した距離とに基づいて人物の位置を判断する処理である。
すなわち、上記顔照合部22から顔照合が成功すると、上記制御部23は、上記方向検出処理として、上記撮影位置検出部24からの情報により得られるカメラ11の撮影方向と、当該映像における上記顔検出処理により検出した顔画像の位置(たとえば、顔画像の中心位置)とに基づいて、当該カメラ11から撮影対象者への方向を検出する(ステップS19)。
さらに、上記制御部23は、上記距離算出処理として、上記撮影位置検出部24からの情報により得られるカメラ11の撮影位置(焦点位置、ズーム倍率など)の情報、当該映像における上記顔検出処理により検出した顔画像の大きさ(あるいは、人物全体の大きさ)、および、予め設定されている人物の顔画像の大ききなどの情報に基づいて、当該カメラ11から撮影対象者までの距離を推定(算出)する(ステップS20)。
なお、他のカメラシステムでも撮影対象者の顔が検出されている場合、つまり、複数のカメラで撮影した映像から撮影対象者の顔が検出されている場合、それらのカメラの位置関係と各カメラから撮影対象者への方向とに基づいて各カメラから撮影対象者までの距離を判断するようにしても良い。ここでは、カメラの位置を固定していることを想定しているため、各カメラの位置および各カメラ間の距離は、予め決められる。従って、各カメラ間の距離と各カメラから撮影対象者への方向とに基づいて各カメラから人物までの距離が算出できる。
上記のような方向検出処理による撮影対象者の方向と距離算出処理による撮影対象者までの距離とが得られると、上記制御部23は、位置判断処理として、当該カメラの設置位置、当該カメラから撮影対象者への方向、及び、当該カメラから撮影対象者までの距離に基づいて撮影対象者の位置を判断する(ステップS21)。なお、他のカメラシステムでも撮影対象者の位置が検出されている場合、上記制御部23では、それらの他のカメラシステムで得られた撮影対象者の位置情報を加味して撮影対象者の位置を判断するようにしても良い。
上記のような人物の位置検出処理により撮影対象となる人物の位置が検出されると、上記制御部23は、当該カメラシステム1における顔照合処理の結果と人物の位置検出処理により検出した撮影対象者の位置情報とを上記通信インターフェース部25および上記通信回線3を介して上記映像制御システム2および他のカメラシステム1へ出力する(ステップS22)。
さらに、上記人物の位置検出処理により撮影対象となる人物の位置を検出すると、上記制御部23は、検出した撮影対象者の位置情報に基づいて上記撮影位置変更装置13により上記カメラ11の撮影位置(向き、焦点距離、ズーム倍率など)を制御する(ステップS23)。
さらに、上記人物の位置検出処理により撮影対象となる人物の位置を検出すると、上記制御部23は、検出した撮影対象者の位置情報に基づいて上記撮影位置変更装置13により上記カメラ11の撮影位置(向き、焦点距離、ズーム倍率など)を制御する(ステップS23)。
また、上記顔検出処理により映像から人物の顔が検出できなかった場合(ステップS14、NO)、あるいは、上記顔照合処理により顔検出処理で検出した顔画像と予め設定されている撮影対象者の顔画像との照合が失敗した場合(ステップS16、NO)、上記制御部23は、他のカメラシステム1で検出した撮影対象者の位置情報に基づいて上記撮影位置変更装置13によりカメラ11の撮影位置を制御する(ステップS24)。
本映像撮影システムでは、特定のカメラシステムで検出した人物の位置情報は、上記通信回線3を介して各カメラシステムで共有するようになっている。従って、上記制御部23は、撮影した映像から撮影対象者の顔が検出できなかった場合、ネットワーク経由で受信した他のカメラシステム1で検出された撮影対象者の位置情報に基づいて上記カメラ11の撮影位置を制御する。
上記ステップS12〜S24の処理は、上記カメラ11が映像を撮影している間に繰り返し実行される。これにより、各カメラシステム1のカメラ11は、継続的に予め登録されている撮影対象者の位置に応じた撮影位置に制御され、継続的に撮影対象者を中心した映像を撮影することが可能となる。
上記のように、各カメラシステムは、カメラにより撮影した映像から顔画像を検出し、その検出した顔画像と予め登録されている撮影対象者の顔画像とを顔照合し、その顔照合が成功した場合には撮影対象者の位置を検出し、その検出した人物の位置に応じて上記カメラの撮影位置を制御するようになっている。これにより、各カメラシステムでは、手動による操作なしで、継続的に撮影対象者の顔あるいは顔を中心とした映像を継続的に撮影することができる。
さらに、各カメラシステムでは、上記顔照合が失敗した場合には他のカメラシステムにおいて検出された撮影対象者の位置に基づいて上記カメラの撮影位置を制御するようになっている。これにより、撮影対象者の顔が撮影できない状態のカメラシステムであっても、撮影対象者の人物の位置に応じてカメラの撮影位置を制御することができ、手動による操作なしで、継続的に撮影対象者の位置を中心とした映像を継続的に撮影することができる。さらに、各カメラが撮影対象者を中心とした映像を撮影しているため、撮影対象者の急激な動きをしても、様々な角度から撮影対象者を撮影することができる。
次に、上記映像制御システム2の動作について詳細に説明する。
上記映像制御システム2では、上述したように、各カメラシステム1A〜1Eの各カメラ11A〜11Eで撮影した各映像を収集するとともに、収集した複数の映像から1つの映像を選択し、選択した映像を映像表示装置33により表示したり、映像伝送装置35により外部へ出力したりする。
上記映像制御システム2では、上述したように、各カメラシステム1A〜1Eの各カメラ11A〜11Eで撮影した各映像を収集するとともに、収集した複数の映像から1つの映像を選択し、選択した映像を映像表示装置33により表示したり、映像伝送装置35により外部へ出力したりする。
すなわち、上記映像制御システム2では、各カメラシステム1A〜1Eが撮影したそれぞれの映像を上記通信回線3及び上記通信インターフェース装置34を介して上記映像収集装置32により収集している。これとともに、上記映像制御システム2では、各カメラシステム1A〜1Eにおける顔照合の結果及び当該映像から検出した人物の位置情報などのデータを上記通信回線3及び上記通信インターフェース装置34を介して上記映像制御装置31により収集している。
上記映像収集装置32が各カメラシステム1A〜1Eから収集した各映像は、リアルタイムに映像表示装置33により表示される。たとえば、図3に示す例では、上記映像表示装置33は、上記映像収集装置32により収集した各カメラシステム1A〜1Eで撮影した各映像をそれぞれ同時に表示するようになっている。また、上記映像表示装置33は、上記映像制御装置31により選択された1つの映像(選択中の映像)を各カメラシステム1A〜1Eから収集した各映像とともに表示するようになっている。つまり、上記映像制御装置31は、各カメラシステム1A〜1Eから収集した各映像から1つの映像を選択し、選択した映像を選択中の映像として映像表示装置33に表示するようになっている。
また、上記映像制御装置31が選択した映像は、上記映像伝送装置35を介して外部へ出力されるようになっている。たとえば、上記映像制御システム2が指定(選択)した1つの映像を放映する場合、上記映像制御装置31により選択された映像が放映されることとなる。
以下、上記のような映像制御システム2における映像の選択処理について説明する。
図5は、上記映像制御システム2における映像の選択処理の動作例を説明するためのフローチャートである。
まず、上記映像制御装置31は、上記通信インターフェース装置34により各カメラシステム1A〜1Eから顔照合結果及び人物の位置情報を収集する(ステップS31)。
まず、上記映像制御装置31は、上記通信インターフェース装置34により各カメラシステム1A〜1Eから顔照合結果及び人物の位置情報を収集する(ステップS31)。
各カメラシステムにおける顔照合結果及び人物の位置情報を取得すると、上記映像制御装置31は、各カメラシステムにおける顔照合結果に基づいて撮影対象者(予め各カメラシステムに顔画像が設定されている人物)の顔画像の照合が成功したカメラシステムが存在するか否かを判断する(ステップS32)。
この判断により撮影対象者の顔画像の照合が成功したカメラシステムが存在しないと判断した場合(ステップS32、NO)、上記映像制御装置31は、予め設定されている特定のカメラの映像を選択する(ステップS33)。ここでは、人物が検出できない場合、特定のカメラの映像を選択するように設定しておいても良いし、現在選択中のカメラの映像をそのまま選択するように設定しておいても良い。
たとえば、上述した適用例のように、カメラ11Aが会場全体を撮影し、他のカメラ11B〜11Eが撮影対象者の位置に応じた撮影位置を撮影するように構成されているシステムでは、人物が検出できない場合には、会場全体を撮影しているカメラ11Aを選択するように設定しても良い。この場合、撮影対象者の位置が検出できくなっても、会場全体の映像を選択することが可能となる。これにより、たとえば、何れかのカメラシステム1B〜1Eの不具合により撮影対象者の位置が検出できくなった場合、撮影対象者が会場内から退場した場合、あるいは、撮影対象者の顔が全てのカメラシステム1B〜1Eの死角にはいった場合などであっても、会場全体の映像を選択することができ、不自然な映像を選択してしまうことを防止できる。
また、上記判断により撮影対象者の顔画像の照合が成功したカメラシステムが存在すると判断した場合(ステップS32、YES)、上記映像制御装置31は、撮影対象者の顔画像の照合が成功したカメラシステムが複数であるか否かを判断する(ステップS34)。この判断により撮影対象者の顔画像の照合が成功したカメラシステムが複数でないと判断した場合、つまり、撮影対象者の顔画像の照合が成功したカメラシステムが1つだけであると判断した場合(ステップS34、NO)、上記映像制御装置31は、撮影対象者の顔画像の照合が成功したカメラシステムのカメラの映像を選択する(ステップS35)。
また、上記判断により撮影対象者の顔画像の照合が成功したカメラシステムが複数であると判断した場合(ステップS34、YES)、上記映像制御装置31は、それらの撮影対象者の顔画像の照合が成功した各カメラシステムの各カメラの映像から1つの映像を選択する処理を行う(ステップS36)。この選択処理では、各カメラの設置位置、人物の位置、照合結果、または、動作予測などに基づいて、撮影対象者の顔を検出した各カメラシステムの各カメラの映像から1つの映像を選択する。この選択処理については、以下のような方法が適用できる。
たとえば、上記ステップS36の選択処理としては、撮影対象者の位置に最も近い位置のカメラの映像を選択するようにしても良い。この場合、上記映像制御装置31では、最も撮影対象者に近い位置のカメラが撮影した映像を選択することができる。また、上記のような撮影対象者までの距離に基づく映像の選択は、各カメラシステムから各カメラから人物までの距離、人物の位置、あるいはカメラの位置などの情報を取得することにより実現できる。つまり、各カメラシステムから取得する情報に基づいて各カメラから撮影対象者までの距離を判定し、それらの距離のうち最も短い距離のカメラ(最も撮影対象者に近いカメラ)が撮影した映像を選択するようにすれば良い。
なお、各カメラから撮影対象者までの距離は、上記距離算出処理により算出した距離を示す情報を各カメラシステムから取得するようにしても良いし、各カメラの設置位置と撮影対象者の位置とに基づいて算出するようにしても良い。また、各カメラから撮影対象者までの距離を算出するには、各カメラの位置が固定である場合には各カメラの位置を予め設定しておき、各カメラシステムから取得する撮影対象者の位置とから算出し、カメラの位置が固定でない場合には、各カメラシステムからる撮影対象者の位置とともに各カメラの位置を示す情報を取得し、各カメラの位置と撮影対象者の位置とから算出することが可能である。
また、上記ステップS36の選択処理としては、各カメラシステムにおける顔照合処理の過程で得られる照合度に基づいて映像を選択するようにしても良い。この場合、上記映像制御装置31では、最も撮影対象者の顔が確実に映っている映像を選択することができる。また、上記のような照合度に基づく映像の選択は、各カメラシステムから顔照合の結果として映像から検出した顔画像と所定の顔画像との照合度を取得することにより実現できる。つまり、各カメラシステムから顔照合の結果として照合度を取得し、それらの照合度のうち最も高い照合度の各カメラシステムのカメラが撮影した映像を選択するようにすれば良い。
また、上記ステップS36の選択処理としては、撮影対象者の位置の変化による撮影対象者の動作予測に基づいて最適な位置のカメラの映像を選択するようにしても良い。この場合、撮影対象者の動きに応じた最適な映像を選択することができる。また、上記のような動作予測に基づく映像の選択は、各カメラシステムから継続的に取得する撮影対象者の位置情報を蓄積しておき、蓄積している撮影対象者の位置情報から当該撮影対象者の動作を予測することより実現できる。つまり、上記映像制御装置31は、撮影対象者の位置を継続的に監視し、撮影対象者の位置の計時変化に基づいて撮影対象者の動作予測を行い、その動作予測に基づいて最適なカメラの映像を選択するようにすれば良い。
さらには、上記ステップS36の選択処理としては、選択中の映像に基づいて最適な映像を選択するようにしても良い。具体的には、たとえば、現在選択している映像を撮影しているカメラの映像を優先的に選択する。この場合、映像制御システム2が選択する映像の切替えを少なくすることができる。また、上記のような映像の選択は、選択中の映像を撮影しているカメラの映像を優先的に選択するように設定しておくことにより実現できる。つまり、上記映像制御装置31は、選択中の映像を撮影しているカメラシステムを含む複数のカメラシステムで撮影対象者が検出された場合、選択中の映像を撮影しているカメラシステムからの映像を優先的に選択するようにすれば良い。
上記ステップS33、ステップS35、あるいはステップS36により1つの映像を選択すると、上記映像制御装置31は、選択したカメラシステムからの映像を上記映像表示装置33により選択中の映像として表示させるとともに(ステップS37)、上記映像伝送装置35により外部へ出力する(ステップS38)。
上記ステップS31〜S38の処理は、上記映像収集装置32による各カメラシステムからの各映像の収集と並行して、上記映像制御装置31により繰り返し実行される。これにより、上記映像制御システム2では、最適なアングルで撮影された撮影対象者の顔を中心とした映像を選択中の映像として、継続的に映像表示装置33に表示したり、映像伝送装置35により外部へ出力したりすることができる。すなわち、上記ような処理によれば、手動による操作なしで、予め登録している撮影対象者の顔が映っている映像に自動的に切替ることができる。
上記のように、本実施の形態の映像制御システムは、各カメラシステムから各カメラで撮影した映像と撮影対象者に対する顔照合の結果とを収集し、各カメラシステムのカメラで撮影した各映像のうち前記撮影対象者の顔の画像を含む1つの映像を選択するようにしたものである。これにより、映像制御システムでは、手動による操作なしで、各カメラが撮影した複数の映像から撮影対象者を撮影した映像として最適な映像を継続的に選択することができる。
さらに、上記映像制御システムでは、複数の箇所に設置したカメラがさまざまなアングルで撮影対象者を撮影している。このため、撮影対象者の急な動きを行っても、顔照合の結果に応じて選択中の映像を撮影対象者を撮影した映像として最適な映像に的確に切替えることができ、特定の撮影対象者の映像として最適な映像を継続的に選択することができる
1(1A〜1E)…カメラシステム、2…映像制御システム、3…通信回線、11(11A〜11E)…カメラ、12(12A〜12E)…撮影制御装置、13(13A〜13E)…撮影位置変更装置、20…画像収集装置、21…人物検出部(顔検出部)、22…人物認識部(顔照合部)、23…制御部、24…撮影位置検出部、25…通信インターフェース部、31…映像制御装置、32…映像収集装置、33…映像表示装置、34…通信インターフェース装置、35…映像伝送装置
Claims (7)
- 映像を撮影する撮影手段と、
この撮影手段で撮影された映像から人物の生体情報を検出し、検出された人物の生体情報と予め設定されている撮影対象者の生体情報とを照合する照合手段と、
この照合手段による生体情報の照合が成功した前記撮影手段により撮影された前記撮影対象者の位置を検出する位置検出手段と、
この位置検出手段により検出した前記撮影対象者の位置に基づいて前記撮影手段による撮影位置を制御する制御手段と、
を具備することを特徴とする映像撮影システム。 - 前記照合手段は、前記撮影手段で撮影された映像から人物の顔画像を検出し、検出された人物の顔画像と予め設定されている撮影対象者の顔画像とを照合する顔照合手段であり、
前記位置検出手段は、前記照合手段による顔画像の照合が成功した前記撮影手段により撮影された前記撮影対象者の位置を検出する、
ことを特徴とする前記請求項1に記載の映像撮影システム。 - 前記位置検出手段は、前記撮影手段により映像を撮影した方向を検出する方向検出手段と、前記撮影手段と前記顔照合手段による顔画像の照合が成功した前記撮影対象者との距離を算出する距離算出手段と、前記方向検出手段により検出した方向と前記距離算出手段により算出した距離とに基づいて前記撮影対象者の位置を判断する位置判断手段と、からなる、
ことを特徴とする前記請求項2に記載の映像撮影システム。 - 映像を撮影する複数の撮影手段と、
各撮影手段で撮影された映像からそれぞれ人物の顔画像を検出し、検出した人物の顔画像と予め設定されている撮影対象者の顔画像とを照合する顔照合手段と、
この顔照合手段による各撮影手段で撮影した各映像に対するそれぞれの顔画像の照合結果に基づいて前記撮影対象者の位置を検出する位置検出手段と、
前記位置検出手段により検出した前記撮影対象者の位置に基づいて各撮影手段による撮影位置を制御する制御手段と、
を具備することを特徴とする映像撮影システム。 - 映像を撮影する複数の撮影手段と、
各撮影手段で撮影された映像からそれぞれ人物の顔画像を検出し、検出した人物の顔画像と予め設定されている撮影対象者の顔画像とを照合する顔照合手段と、
この顔照合手段による各撮影手段で撮影した各映像に対するそれぞれの顔画像の照合結果に基づいて各撮影手段が撮影した各映像のうち前記撮影対象者の顔画像を含む1つの映像を選択する映像選択手段と、
この映像選択手段により選択した1つの映像を出力する映像出力手段と、
を具備することを特徴とする映像撮影システム。 - さらに、各撮影手段で撮影した各映像に対する顔画像の照合結果に基づいて前記撮影対象者の位置を検出する位置検出手段と、
前記位置検出手段により検出した前記撮影対象者の位置を示す情報に基づいて各撮影手段による撮影位置を制御する制御手段と、を有する、
ことを特徴とする前記請求項5に記載の映像撮影システム。 - 複数のカメラシステムと映像制御システムとを有する映像撮影システムであって、
各カメラシステムは、
映像を撮影する撮影手段と、
この撮影手段で撮影された映像から人物の顔画像を検出し、検出した人物の顔画像と予め設定されている撮影対象者の顔画像とを照合する顔照合手段と、
前記撮影手段で撮影した映像に対する顔画像の照合結果に基づいて前記撮影対象者の位置を検出する位置検出手段と、
前記位置検出手段により検出した前記撮影対象者の位置に基づいて各撮影手段による撮影位置を制御する制御手段と、
前記撮影手段により撮影された映像、および、前記顔照合手段による照合結果を前記映像制御システムへ送信する送信手段と、を有し、
前記映像制御システムは、
各カメラシステムからの顔画像の照合結果に基づいて、各カメラシステムからの各映像のうち前記撮影対象者の顔画像を含む1つの映像を選択する映像選択手段と、
この映像選択手段により選択した1つの映像を出力する映像出力手段と、を有する、
ことを特徴とする映像撮影システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005247609A JP2007067510A (ja) | 2005-08-29 | 2005-08-29 | 映像撮影システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005247609A JP2007067510A (ja) | 2005-08-29 | 2005-08-29 | 映像撮影システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007067510A true JP2007067510A (ja) | 2007-03-15 |
Family
ID=37929264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005247609A Pending JP2007067510A (ja) | 2005-08-29 | 2005-08-29 | 映像撮影システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007067510A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009111827A (ja) * | 2007-10-31 | 2009-05-21 | Fujifilm Corp | 撮影装置及び画像ファイル提供システム |
JP2011211598A (ja) * | 2010-03-30 | 2011-10-20 | Sony Corp | 撮像システムおよび撮像装置 |
JP2013005451A (ja) * | 2011-06-20 | 2013-01-07 | Polycom Inc | ビデオ会議のための自動カメラ選択 |
JP2016045670A (ja) * | 2014-08-22 | 2016-04-04 | 株式会社国際電気通信基礎技術研究所 | ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置 |
JP2017022780A (ja) * | 2016-10-06 | 2017-01-26 | 京セラ株式会社 | 統合画像処理システム |
JP2017055175A (ja) * | 2015-09-07 | 2017-03-16 | キヤノン株式会社 | 画像処理装置 |
US10212336B2 (en) | 2016-03-17 | 2019-02-19 | Kabushiki Kaisha Toshiba | Imaging support apparatus, imaging support method, and computer program product |
WO2022244314A1 (ja) * | 2021-05-21 | 2022-11-24 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
-
2005
- 2005-08-29 JP JP2005247609A patent/JP2007067510A/ja active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009111827A (ja) * | 2007-10-31 | 2009-05-21 | Fujifilm Corp | 撮影装置及び画像ファイル提供システム |
JP2011211598A (ja) * | 2010-03-30 | 2011-10-20 | Sony Corp | 撮像システムおよび撮像装置 |
JP2013005451A (ja) * | 2011-06-20 | 2013-01-07 | Polycom Inc | ビデオ会議のための自動カメラ選択 |
US9030520B2 (en) | 2011-06-20 | 2015-05-12 | Polycom, Inc. | Automatic camera selection for videoconferencing |
JP2016045670A (ja) * | 2014-08-22 | 2016-04-04 | 株式会社国際電気通信基礎技術研究所 | ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置 |
JP2017055175A (ja) * | 2015-09-07 | 2017-03-16 | キヤノン株式会社 | 画像処理装置 |
US10212336B2 (en) | 2016-03-17 | 2019-02-19 | Kabushiki Kaisha Toshiba | Imaging support apparatus, imaging support method, and computer program product |
JP2017022780A (ja) * | 2016-10-06 | 2017-01-26 | 京セラ株式会社 | 統合画像処理システム |
WO2022244314A1 (ja) * | 2021-05-21 | 2022-11-24 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6696615B2 (ja) | 監視システム、監視方法、及び監視プログラムを記憶する記録媒体 | |
JP4699040B2 (ja) | 自動追尾制御装置及び自動追尾制御方法、並びにプログラム、自動追尾システム | |
JP4241742B2 (ja) | 自動追尾装置及び自動追尾方法 | |
JP2007067510A (ja) | 映像撮影システム | |
KR101228341B1 (ko) | 카메라 간 협업을 이용한 영상 감시 시스템 및 방법 | |
JP4389901B2 (ja) | スポーツ競技におけるカメラ自動制御システム、カメラ自動制御方法、カメラ自動制御装置、およびプログラム | |
JP2007158860A (ja) | 撮影システム、撮影装置、画像切替装置、およびデータ保持装置 | |
US20090237554A1 (en) | Autofocus system | |
EP2757771B1 (en) | Image pickup apparatus, remote control apparatus, and methods of controlling image pickup apparatus and remote control apparatus | |
JP2003284053A (ja) | 監視カメラシステムおよび監視カメラ制御装置 | |
WO2005107240A1 (ja) | 自動撮影方法および装置 | |
KR101328246B1 (ko) | 이동 객체 자동 추적 시스템과 그 방법 | |
JP6465600B2 (ja) | 映像処理装置および映像処理方法 | |
JP7448043B2 (ja) | 撮影制御システム | |
WO2020065852A1 (ja) | 認証システム、認証方法、及び、記憶媒体 | |
US7860385B2 (en) | Autofocus system | |
KR100656345B1 (ko) | 두 대의 카메라를 이용한 이동 물체 추적 장치 및 방법 | |
JP5039607B2 (ja) | 撮像装置及びその制御方法 | |
US20070058067A1 (en) | Monitoring system | |
JP2012124767A (ja) | 撮像機器 | |
JP2007208659A (ja) | 連携カメラシステム | |
JP2008219452A (ja) | カメラ監視装置 | |
JP4054859B2 (ja) | 動体監視装置 | |
JP5397281B2 (ja) | 監視カメラ端末 | |
JP2003289532A (ja) | 監視カメラシステム及び監視カメラシステムの制御プログラム |