JP2023176536A - 情報処理装置、その制御方法ならびにプログラム - Google Patents
情報処理装置、その制御方法ならびにプログラム Download PDFInfo
- Publication number
- JP2023176536A JP2023176536A JP2022088873A JP2022088873A JP2023176536A JP 2023176536 A JP2023176536 A JP 2023176536A JP 2022088873 A JP2022088873 A JP 2022088873A JP 2022088873 A JP2022088873 A JP 2022088873A JP 2023176536 A JP2023176536 A JP 2023176536A
- Authority
- JP
- Japan
- Prior art keywords
- likelihood
- subject
- information processing
- value
- imaging means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 86
- 238000000034 method Methods 0.000 title description 40
- 238000003384 imaging method Methods 0.000 claims abstract description 48
- 238000004091 panning Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 51
- 230000008569 process Effects 0.000 description 32
- 238000004891 communication Methods 0.000 description 24
- 238000001514 detection method Methods 0.000 description 15
- 239000000203 mixture Substances 0.000 description 10
- 230000008859 change Effects 0.000 description 8
- 238000007726 management method Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000013500 data storage Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000271566 Aves Species 0.000 description 1
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
【課題】状況が変化しても目標被写体を精度良く追尾することが可能な情報処理装置を提供する。【解決手段】本開示に係る情報処理装置は、撮像手段のパン、チルト及びズームの少なくともいずれかの駆動を制御しながら撮影された動画を受信する受信手段と、動画を構成する画像に含まれる被写体を学習モデルを用いて推定する推定手段と、被写体に対する推定の信頼度を示す尤度に応じて、追尾の対象となる目標被写体を決定する決定手段と、目標被写体の画像内の位置を、画像内の所定の位置に位置させるように撮像手段の駆動を制御するための制御情報を出力する制御手段と、を有する。ここで、決定手段は、撮像手段のチルト角度に応じて異なる、目標被写体を決定するための尤度の基準を用いて、目標被写体を決定する。【選択図】図8
Description
本発明は、情報処理装置、その制御方法ならびにプログラムに関する。
従来、ユーザが操作器からカメラを遠隔操作することで所望の映像を取得する、遠隔撮影システムが知られている。このようなシステムでは、空港の屋上に設置された雲台装置を放送局から遠隔操作することで、航空機の映像を撮影することができる。システムに画像認識技術を搭載して映像内の被写体を推定し、被写体の動きに合わせて自動的に雲台装置のカメラのパン、チルト、ズームを動作させることで、ユーザが操作器を操作しなくても、動きのある被写体を追尾して撮影することができる。
また、機械学習により学習させた学習モデルを用いた画像認識技術が知られている。特許文献1では、学習モデルを用いて撮像画像に含まれる被写体領域とその種別を推定すると共に、撮影中のカメラの動きを推定し、推定されたカメラの動きと被写体の種別に応じて、主被写体を選択する技術を提案している。
ところで、追尾撮影の進行に伴って、被写体及びその周囲の状況が変化する場合がある。例えば、追尾撮影の進行に伴って、被写体と雲台装置との距離の変化により撮影可能な被写体の大きさが変化したり、同種の他の被写体が存在する傾向が変化したりする場合がある。
本発明は、上記課題に鑑みてなされ、その目的は、状況が変化しても目標被写体を精度良く追尾することが可能な技術を実現することである。
この課題を解決するため、例えば本発明の情報処理装置は以下の構成を備える。すなわち、撮像手段のパン、チルト及びズームの少なくともいずれかの駆動を制御しながら撮影された動画を受信する受信手段と、前記動画を構成する画像に含まれる被写体を学習モデルを用いて推定する推定手段と、被写体に対する推定の信頼度を示す尤度に応じて、追尾の対象となる目標被写体を決定する決定手段と、前記目標被写体の画像内の位置を、前記画像内の所定の位置に位置させるように前記撮像手段の前記駆動を制御するための制御情報を出力する制御手段と、を有し、前記決定手段は、前記撮像手段のチルト角度に応じて異なる、前記目標被写体を決定するための尤度の基準を用いて、前記目標被写体を決定する、ことを特徴とする。
本発明によれば、状況が変化しても目標被写体を精度良く追尾することが可能になる。
<実施形態1>
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
<システムの構成例>
図1は、実施形態1に係るシステムの構成例を示している。情報処理装置100、雲台装置200、操作装置300、ネットワーク130で構成される。情報処理装置100は、例えば、機械学習モデル(単に学習モデルともいう)を用いた画像認識技術を実行可能なパーソナルコンピュータである。しかし、情報処理装置100はパーソナルコンピュータに限らず、機械学習モデルを用いた画像認識技術を実行可能な他の任意の機器であってよい。また、雲台装置200及び操作装置300はそれぞれ専用の装置である場合を例に説明するが、雲台装置200及び操作装置300のそれぞれの一部がパーソナルコンピュータやタブレット端末などの電子機器で構成されてもよい。
図1は、実施形態1に係るシステムの構成例を示している。情報処理装置100、雲台装置200、操作装置300、ネットワーク130で構成される。情報処理装置100は、例えば、機械学習モデル(単に学習モデルともいう)を用いた画像認識技術を実行可能なパーソナルコンピュータである。しかし、情報処理装置100はパーソナルコンピュータに限らず、機械学習モデルを用いた画像認識技術を実行可能な他の任意の機器であってよい。また、雲台装置200及び操作装置300はそれぞれ専用の装置である場合を例に説明するが、雲台装置200及び操作装置300のそれぞれの一部がパーソナルコンピュータやタブレット端末などの電子機器で構成されてもよい。
ユーザは操作装置300を操作すると、操作に応じた命令が、ネットワーク130および情報処理装置100を経由し、雲台装置200に送信される。雲台装置200が命令の内容に応じてカメラによる撮影を制御することにより、ユーザは雲台装置200を遠隔操作することが可能になる。雲台装置200で撮影された映像は、情報処理装置100に送信され、情報処理装置100は、自動追尾撮影に必要な各種演算および記録を行う。ネットワーク130は、公衆電話回線、移動体通信網或いはインターネット等の通信回線である。例えば、雲台装置200および情報処理装置100は、空港や鉄塔、テレビ局屋上といったスポットに設置され、操作装置300はテレビ局内等に設置される。本実施形態では、例えば、情報処理装置100および雲台装置200が空港に設置され、自動追尾撮影の対象物が航空機である場合を例に説明する。
図2は、図1のシステムを構成する各装置のハードウェア構成の一例を示している。情報処理装置100は、RAM101、GPU102、CPU103、入力部104、記憶部105、シリアル通信部106、ネットワーク通信部107、UI部108を含む。雲台装置200は、カメラ201、駆動部202、シリアル通信部203、CPU204、記憶部205を含む。操作装置300は、ネットワーク通信部301、操作部302、記憶部303、CPU304、表示部305を含む。
情報処理装置100の構成について説明する。RAM101は、例えば揮発性のメモリであり、CPU103の主メモリ、ワークエリア等の一時記憶領域として用いられる。CPU103は、1つ以上のプロセッサを含み、例えば記憶部105に格納されるプログラムに従い、RAM101をワークメモリとして用いて、情報処理装置100の各部を制御する。GPU102は、1つ以上のプロセッサを含み、データをより多く並列処理することで効率的な演算を行うことができる。このため、ディープニューラルネットワーク(DNN)等の学習モデルを用いて複数回に渡り学習を行う場合、GPU102による演算は有効である。
入力部104は、動画信号を情報処理装置100に入力するためのインタフェースであり、例えばUSB等の各種通信インタフェースである。記憶部105は、例えばHDDやフラッシュメモリなどの不揮発性のメモリであり、画像データやその他のデータ、CPU103が動作するための各種プログラム等が、それぞれ所定の領域に格納されている。シリアル通信部106は、CPU103の制御に基づき、雲台装置200と通信するためのインタフェースである。ネットワーク通信部107は、CPU103の制御に基づき、ネットワーク130を介して操作装置300と通信するための通信インタフェースである。UI部108は、情報処理装置100を操作するユーザからの操作入力を受け付け、ユーザへ情報処理装置100の情報を表示するためのユーザインタフェースである。UI部108は、キーボードやマウス、ディスプレイ、タッチパネルを含んでよい。
次に、雲台装置200のハードウェア構成について説明する。カメラ201は、撮像センサを含み、雲台装置200が設置された周囲を撮影し、目標被写体を映した画像を順次出力する(すなわち動画を出力する)。カメラ201は撮影倍率を変更可能な光学ズームレンズを含み、CPU204からカメラ201にズーム制御命令を送信することで、撮像される画像の倍率を変更することができる。さらに、カメラ201は撮像された画像の一部を局所的に拡大させるデジタルズーム機能も有する。デジタルズームは、前記光学ズームでは倍率が足りない場合、すなわち、より撮影画像を拡大したい場合に実行される。また、カメラ201は、情報処理装置100の入力部104と有線で接続され、撮影した動画を情報処理装置100へ出力する。
駆動部202は、雲台装置200をパン、チルト方向に旋回させるためのアクチュエータ、その駆動回路、及び周辺回路を含む。雲台装置200は、目標被写体に対し、パン、チルト方向に旋回することで、目標被写体を追尾する動画を撮影することができる。
シリアル通信部203は、情報処理装置100のシリアル通信部106と接続され、CPU204の制御に基づき、情報処理装置100と通信するためのインタフェースである。CPU204は、1つ以上のプロセッサを含み、例えば記憶部205に格納されるプログラムに従い、雲台装置200の各部を制御する。記憶部205は、不揮発性のメモリであり、雲台装置200の設定データやその他のデータ、CPU204が動作するための各種プログラム等が、それぞれ所定の領域に格納されている。
更に、操作装置300のハードウェア構成について説明する。ネットワーク通信部301は、CPU304の制御に基づき、ネットワーク130を介して情報処理装置100と通信するための通信インタフェースである。操作部302は、ジョイスティック、操作レバーや各種スイッチであり、操作者は、これを操作することで、雲台装置200のパンやチルトの旋回制御やズーム制御、ゲインなどの調整を行う。記憶部303は、例えば不揮発性のメモリであり、操作装置300の設定データやその他のデータ、CPU304が動作するための各種プログラム等が、それぞれ所定の領域に格納されている。CPU304は、1つ以上のプロセッサを含み、例えば記憶部303に格納されるプログラムに従い、操作装置300の各部を制御する。表示部305はLEDを含み、雲台装置200のステータスや警告等をユーザに通知する。表示部305はタッチパネルを含んでもよい。
次に、図3を参照して、自動追尾システムのソフトウェア構成について説明する。
まず、情報処理装置100のソフトウェア構成について説明する。情報処理装置100は、学習部150、データ記憶部151、推定対象設定部152、モード管理部153、画像処理部154、推定部155、推定結果処理部156、雲台制御部157、及び、追尾尤度決定部158を含む。これらの各部は、情報処理装置100のCPU103或いはGPU102がプログラムを実行することにより実現され得る。
学習部150は、後述する推定部155で機械学習モデル(単に学習モデルともいう)による推論段階の処理を行う前に、機械学習モデルを学習させる学習段階の処理を実行する。学習段階の処理の詳細な内容については後述する。データ記憶部151は、自動追尾して撮影した動画の記録処理や、学習データの記録処理を行う。
推定対象設定部152は、推定部155が出力するオブジェクト(被写体)のタグを管理する。タグは、学習部150に入力する学習用データの一部、および推定部155が出力するデータのひとつであり、オブジェクトが何であるかを示すラベルである。タグの具体例として、航空機、犬、猫、鳥、炎などが挙げられる。推定対象設定部152は、自動追尾撮影するオブジェクトのタグを、ユーザ操作により予め設定することができ、複数のタグを設定することも可能である。本実施形態では、航空機に対する自動追尾撮影を行うため、航空機のタグが設定されているものとする。後述する推定部155は、オブジェクトのタグ出力に加え、推定の確からしさ(信頼度)を示す尤度を算出し、出力する。また、後述する追尾尤度決定部158からの指示に応じて、自動追尾撮影するタグに対し、自動追尾撮影する対象の尤度の基準を設定することも可能である。
モード管理部153は、情報処理装置100の動作モードを管理する。動作モードは、学習モード、自動追尾モード、手動撮影モードの3モードを含む。各モードの詳細な内容については後述する。
画像処理部154は、雲台装置200から動画を受信して、受信した動画の処理を行う。動画の処理は、例えば、画像のリサイズや、輝度調整を含む。推定部155は、画像処理部154の出力した動画を入力データとして、学習部150での処理によって学習済みとなった学習モデルを用いて推論段階の処理を行う。
推定結果処理部156は、推定部155の出力に対し、各種ノイズ処理、平均化処理を実施し、追尾対象である目標被写体の画像内の位置(被写体現在位置)を出力する。雲台装置200で撮影する映像には、追尾対象以外のノイズ(航空機以外の航空機や、背景の一部や雲など航空機と見間違えるもの)が存在する。推定結果処理部156は、これらのノイズを処理し、信頼度の高い画像内の被写体の現在位置を出力する役割を果たす。また、推定対象設定部152に航空機に加えて他のタグを設定すると、推定結果処理部156でのノイズ処理に負荷がかかったり、出力する被写体現在位置の信頼性が低下したりする。そのため、推定対象設定部152に設定するタグは、必要最小限にしておくとよい。
雲台制御部157は、前述した動作モードに応じて、雲台装置200を制御する制御信号を生成する。雲台制御部157は、現在の動作モードが自動追尾モードである場合には、被写体の現在位置と、追尾目標位置(追尾撮影中に撮影画面内で被写体を保持したい位置)をもとに、雲台装置200を制御する制御情報を生成し、出力する。その結果、被写体を所望の画角内に位置させた自動追尾撮影を行うことができる。また、雲台制御部157は、通信部253から、雲台装置200のカメラの向きであるパン情報、カメラの角度であるチルト情報を受信する。
動作モードが手動撮影モードである場合には、操作者が操作装置300を操作して雲台装置200を制御することが可能である。このとき、雲台制御部157は、操作装置300からの操作指令を出力する。
追尾尤度決定部158は、雲台制御部157から受信する雲台装置200のチルト情報をもとに、推定対象設定部152に対し自動追尾撮影で対象とする被写体(タグ)の尤度を設定することができる。追尾尤度決定部158は、例えば、チルト情報から雲台装置200のカメラのチルト角度が所定値以下かどうかに応じて、自動追尾撮影の対象とする尤度の閾値を設定してもよい。
なお、学習部150による処理にはCPU103に加えてGPU102を用いてよい。例えば、学習モデルを用いた学習段階の処理を実行する場合に、CPU103とGPU102が協働して演算を行う。なお、学習部150の処理はCPU103またはGPU102のみにより演算が行われてもよい。また、推定部155も学習部150と同様にGPU102を用いてもよい。
次に、雲台装置200のソフトウェア構成について説明する。雲台装置200は、パンチルト制御部250、カメラ制御部251、設定管理部252、通信部253を含む。パンチルト制御部250は、通信部253で受信した制御情報に基づいて、パン、チルト及びズームの少なくとも1つを駆動するための信号を、駆動部202へ出力する。カメラ制御部251は、通信部253で受信した制御情報に基づいて、カメラを制御するための信号を、カメラ201へ出力する。設定管理部252は、操作装置300の設定を管理する。具体的な設定項目として、パン、チルトの最高速や、駆動可能範囲などが挙げられる。通信部253は、雲台制御部157とあらかじめ定めた通信ルール(プロトコル)に則って、操作指令や制御情報、ステータス情報のやり取りを行う。
更に、操作装置300のソフトウェア構成について説明する。操作装置300は、通信部350、表示部351を含む。通信部350は、雲台制御部157とあらかじめ定めた通信ルール(プロトコル)に従って、操作指令や制御情報、ステータス情報のやり取りを行う。表示部351は、例えばLCDパネルなどの表示パネルを含み、操作装置300の動作状態などを表示する。
なお、上述のソフトウェア構成における機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。
次に、図4を参照して、本実施形態における学習モデルの入出力の構造について説明する。入力データ400は、雲台装置200で撮影された後、情報処理装置100の画像処理部154で処理された画像データである。なお、雲台装置200は動画を撮影するため、実際には、画像処理部154から動画像中の各フレームが順次出力される。なお、以下の説明では入力データを単に画像という。
出力データ401は、入力された画像内に存在する被写体のタグ、座標、尤度の情報を含む。出力されるタグは学習時に入力した学習用データに含まれるタグの中から選択される。学習用データの詳細については後述する。座標は、2点が出力され、推定結果を示す画像402に示すように、推定したオブジェクト(例えば目標被写体)の外接枠の左上と、右下である。出力データ401の座標は、オブジェクトの外接枠の座標1と座標2に該当する。出力データの2点の座標に基づいて、被写体のサイズや中心座標を求めることができる。尤度は0~1の値であり、値が大きいほど、出力したタグに対する推定の信頼度が高いことを示す。
学習モデル403は、例えばニューラルネットワークによって構成され、ニューラルネットワークの内部パラメータは学習部150による学習段階の処理によって生成され或いは求められる(最適化される)。なお、学習部150は、誤差検出部と、更新部を備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、教師データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと教師データとの誤差を計算するようにしてもよい。更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。
<情報処理装置における一連の動作>
次に、図5を参照して、学習段階の処理を含む情報処理装置100の一連の動作を説明する。なお、CPU103又はGPU102が記憶部105に格納されたプログラムを実行することにより、学習部150又はモード管理部153などの情報処理装置100の各部の動作を実現する。
次に、図5を参照して、学習段階の処理を含む情報処理装置100の一連の動作を説明する。なお、CPU103又はGPU102が記憶部105に格納されたプログラムを実行することにより、学習部150又はモード管理部153などの情報処理装置100の各部の動作を実現する。
モード管理部153は、まずステップS500で現在の動作モードが学習モードか否かを判定する。モード管理部153は、情報処理装置100の動作モードが学習モードである場合はステップS501に処理を進め、そうでない場合は、ステップS506に処理を進める。
ステップS501では、学習部150は、学習用データの入力を受け付ける。ここで、学習用データについて図6を参照して説明する。図6は、学習段階で用いられる学習用データの一例を示している。学習用データは、画像(入力データ)と画像内に含まれるオブジェクトのタグ(教師データ)とが紐づけられている。なお、入力データである画像に含まれるオブジェクトはひとつであることが好ましく、画像サイズは、複数の学習用データ間で同一であることが好ましい。本実施形態の例では、空港で航空機の自動追尾撮影を行うため、入力データとして航空機が含まれる画像を学習データとして、学習モデルを学習させる。加えて自動追尾撮影中に、雲台装置200に写る可能性が高い他のオブジェクトや、航空機以外で追尾したい動画を用意して学習モデルを学習させる。例えば、他のオブジェクトは、鳥や凧、炎が挙げられる。また、これらのオブジェクトの画像は、予め雲台装置200を用いて撮影・記録すればよい。学習用データのうち、教師データは前述したオブジェクト画像からオブジェクトが何であるかを目視で判断し、設定する。図6に示す(a)~(d)は学習用データの例であり、それぞれ、航空機、鳥、凧、炎の画像の用いた学習用データの例を示す。
再び図5を参照して、ステップS502では、学習部150は、受け付けた学習用データが決められたルールに則ったもの(例えば、図6に示す学習用データの形式)であるか否かを判定する。学習部150は、ルール通りであると判定した場合は、ステップS503に処理を進め、そうでない場合はステップS501に処理を戻す。ステップS503では、学習部150は、受け付けたデータ学習用データを学習モデルに入力し、ステップS504において学習モデルの学習を行う。なお、学習モデルの学習は、図4を参照して説明したように実行される。
ステップS505では、学習部150は、学習用データを全て学習したか否かを判定し、全て学習した場合は処理を終了し、そうでなければステップS501に処理を戻す。以上の処理によって、学習モデル403の内部パラメータが決定され、推定部155により推定処理が実行される際の基となる学習済みモデルが生成される。
なお、ステップS506以降の処理は、現在の動作モードが、手動撮影モードもしくは自動追尾モードである場合の処理である。ステップS506では、モード管理部153は、現在のモードが手動撮影モードか否かを判断し、手動撮影モードである場合は、ステップS507に進み、そうでなければ、ステップS509に進む。
ステップS507では、雲台制御部157は、操作装置300からの操作指令を受信する。ステップS508では、雲台制御部157は、受信した操作指令又は制御情報を雲台装置200へ送信し、処理を終了する。ステップS509では、推定部155等が後述する自動追尾モードの処理を実行する。
<システムにおける自動追尾モードの動作>
次に、図7を参照して、自動追尾システムにおける自動追尾モードの動作について説明する。まず、(7-1)では、操作装置300が情報処理装置100に追尾開始命令を送信する。この追尾開始命令は、例えば、ユーザが、操作装置300の所定の操作部302を操作することで実行される。(7-2)では、情報処理装置100は、雲台装置200に対し、追尾開始位置の情報を送信する。追尾開始位置は、自動追尾撮影を開始する雲台装置200のパン、チルト及びズームの位置であり、ユーザが操作部302を操作することで、あらかじめ設定しておく。
次に、図7を参照して、自動追尾システムにおける自動追尾モードの動作について説明する。まず、(7-1)では、操作装置300が情報処理装置100に追尾開始命令を送信する。この追尾開始命令は、例えば、ユーザが、操作装置300の所定の操作部302を操作することで実行される。(7-2)では、情報処理装置100は、雲台装置200に対し、追尾開始位置の情報を送信する。追尾開始位置は、自動追尾撮影を開始する雲台装置200のパン、チルト及びズームの位置であり、ユーザが操作部302を操作することで、あらかじめ設定しておく。
(7-3)では、追尾開始位置の情報を受信した雲台装置200は、パン、チルト及びズームの位置を開始位置に移動する。これにより、雲台装置200のカメラ201が開始状態に設定される。(7-4)では、雲台装置200は、パン、チルト及びズームの位置が開始位置に到達したら、情報処理装置100へ開始位置に到達したことおよび、動画信号を送信する。
(7-5)では、情報処理装置100は、記憶部105に雲台装置200からの動画信号を記録する処理を開始する。続いて、(7-6-1)では、情報処理装置100は、受信した動画を構成する画像に含まれる目標被写体を推定する処理を行う。(7-6-2)では、情報処理装置100の推定結果処理部156と雲台制御部157は、雲台装置200のパン、チルト及びズームを制御するための制御量を演算して、制御情報を生成する。(7-7)では、雲台制御部157は、生成した制御情報を雲台装置200へ送信する。
(7-8)では、雲台装置200は、情報処理装置100から受信した制御情報に従って、パン、チルト及びズームを制御して撮影を行う。(7-9)では、雲台装置200は、撮影した動画信号を情報処理装置100へ送信する。以降、(7-6-1)~(7-6-2)及び(7-7)~(7-9)の処理が実行されることで、目標被写体の自動追尾撮影が可能となる。
<自動追尾モードの一連の動作>
次に、図8を参照して、情報処理装置100における自動追尾モードの一連の動作について説明する。なお、本処理は、情報処理装置100のCPU103(或いはGPU102)が記憶部105に格納されたプログラムを実行することにより、例えば推定対象設定部152等の情報処理装置100の各部を機能させて実現される。
次に、図8を参照して、情報処理装置100における自動追尾モードの一連の動作について説明する。なお、本処理は、情報処理装置100のCPU103(或いはGPU102)が記憶部105に格納されたプログラムを実行することにより、例えば推定対象設定部152等の情報処理装置100の各部を機能させて実現される。
ステップS801では、雲台制御部157は、雲台装置200が航空機を検出するにあたってカメラ201を所定の位置に移動させるように、駆動部202を制御する命令を送信する。このとき、推定部155は、航空機を検出するまで停止してもよいし、航空機の探索を行う、所定の動作を繰り返し実施してもよい。
ステップS802では、追尾尤度決定部158は、自動追尾撮影の対象とするタグの尤度の閾値を設定する。設定された閾値以上の尤度の航空機が検出された場合、当該尤度の航空機が自動追尾撮影の対象の被写体(目的被写体)となる。設定される尤度は、各自動追尾の動作が実行されるごとに変更されてよく、撮影時の条件に応じて自由に変更することができるものとする。
ステップS803では、推定部155は、雲台装置200から受信した画像に対し、サイズの変更(リサイズ)を行う。推定部155は、入力する画像データのサイズが大きければ大きいほど処理に時間がかかる。そのため、推定部155は入力画像のサイズを小さくすることで、処理時間を低減させる。例えば、サイズ変更後の処理時間が50ms程度になるように画像をリサイズする。なお、処理時間は情報処理装置100の演算処理能力に関わるため、他の任意の処理時間になるように画像をリサイズしてよい。
ステップS804では、推定部155は、推定対象設定部152から推定対象とするタグを取得する。本実施形態では、推定対象設定部152の初期値として、航空機を設定するので、この場合、タグとして航空機が取得される。
ステップS805では、推定部155は、ステップS803でリサイズした画像を、学習済みの学習モデルに入力する。その後、ステップS806では、推定部155は推定処理を実行する。このとき、推定部155による出力は、図4を参照して説明したように、推定される被写体のタグや、推定されたタグに対する尤度を含む。
ステップS807では、推定結果処理部156は、推定部155による推定結果にステップS804で取得したタグ(すなわち航空機)が含まれるかを判定する。推定結果処理部156は、推定結果のタグに航空機が含まれる場合には処理をステップS808に進め、そうでない場合はステップS801に処理を戻す。
ステップS808では、追尾尤度決定部158は、ステップS806で推定されたタグに対する尤度が、所定値以上(例えば第1の尤度の値以上)であるかを判定する。追尾尤度決定部158は、推定されたタグに対する尤度が所定値以上であると判定した場合、検出されたタグの航空機を自動追尾の対象(目標被写体)とし、ステップS809に処理を進め、そうでない場合はステップS801に処理を戻す。
ステップS809では、雲台制御部157は、S806の推定結果の目標被写体の座標と追尾目標位置の差分とに基づいてパン、チルトの制御情報を生成し、また、推定結果の目標被写体のサイズと追尾目標サイズとに基づいてズームの制御情報を生成する。雲台制御部157は、生成した制御情報を雲台装置200に送信する。なお、追尾目標位置と、追尾目標サイズは、予め情報処理装置100に登録しておけばよい。一例として、追尾目標位置を画面内の中心座標とし、追尾目標サイズを画面の30%のサイズとして設定することができるが、これに限らない。また、追尾目標位置と追尾目標サイズは、操作装置300から情報処理装置100に設定できる構成としても良い。
このように、S809までの処理により、制御情報に従って雲台装置200が旋回、変倍制御される。雲台装置200の旋回、変倍を制御しながら撮影される動画が、情報処理装置100に再び入力されることで、継続した自動追尾撮影が実現できる。
ところで、航空機の着陸映像を、常設された雲台装置200から撮影する場合、雲台装置200が所望の航空機を(継続的に)検出する必要がある。着陸寸前の滑走路付近での撮影は、航空機と雲台装置200の距離が近く、十分な大きさの被写体が撮影されるため、推定部155が推定する尤度は高い尤度を算出することができる。ただし、滑走路の撮影においては、停止している他の航空機も多数存在する場合が多い。追尾中の目標被写体が障害物等で画角から見えなくなったとき、他の航空機が画角に入ると目標被写体が入れ替わり、以降、所望でない航空機を誤追尾してしまう恐れがある。
このような誤追尾を防止するため、推定対象設定部152は、自動追尾撮影の対象を判定する尤度を、所定の値以上にしておいてもよい。自動追尾撮影では、所望の構図で航空機(被写体)が撮影されるように駆動部202が制御されるため、通常、目標被写体の尤度が最も高く、フレームインしてきた航空機は、最適な構図ではないため、尤度が低くなりやすい。よって、自動追尾撮影の対象を判定する尤度を高く(すなわち、S808の第1の尤度の値より大きい第2の尤度の値)に設定することで、誤追尾を防ぐことができる。
一方、被写体推定を開始する上空遠方での撮影では、航空機と雲台装置200距離が遠いため、テレ側にズームしても雲台装置200の画角に対して航空機が小さくなる。このように十分な大きさの被写体が撮影できない場合、推定部155が推定する尤度は小さくなる。この場合、前述のように誤追尾を防止するために尤度を高めに設定していると、推定結果処理部156は、被写体を目標被写体とみなさずに、自動追尾撮影が開始できなくなる恐れがある。
そこで、ステップS810以降の処理では、目標被写体を決定するための尤度の基準を撮影状況(例えばカメラのチルト角度の値)に応じて変更することにより、所望の被写体を継続して自動追尾撮影の対象とする。
ステップS810では、まず、追尾尤度決定部158は、雲台制御部157から雲台装置200における、撮影構図に対するチルト角度の値を入手する。追尾尤度決定部158には、撮影構図に対するチルト角度に応じた、自動追尾撮影の対象を判定する尤度を事前に設定する。例えば、追尾尤度決定部158は、記憶部105から、チルト角度と自動追尾撮影の対象を判定する尤度とを関連付けたテーブルを読み出して、当該設定を行ってもよい。この設定により、情報処理装置100は、自動追尾撮影中に、撮影構図に対するチルト角度の値に応じて、自動追尾撮影の対象を判定する尤度を変更することができる。例えば、目標被写体が小さくなる上空遠方を撮影する際(チルト角度が所定の値より大きい)には、自動追尾撮影の対象を判定する尤度の値を低くし(第1の尤度の値)、画角内で被写体が小さくなる場合であっても目標被写体を安定的に決定できるようにする。また、滑走路付近を撮影する際(チルト角度が所定の値以下)には、自動追尾撮影の対象を判定する尤度の値を高くし(第1の尤度の値より大きい第2の尤度の値)、最適な画角により尤度が高くなる所望の被写体のみを追尾することが可能となる。すなわち、状況が変化しても目標被写体に対する誤追尾を防止して、目標被写体を精度良く追尾することが可能になる。このように、撮影状況に応じて尤度の基準を変化させて被写体に対する尤度を判定すれば、容易に目的被写体を検出することができ、複数の被写体を検出した後に別個の処理で主要被写体を選択する動作が不要になる。
ステップS810では、追尾尤度決定部158は、撮影構図に対するチルト角度が所定の値以下であるかを判定する。追尾尤度決定部158は、撮影構図に対するチルト角度が所定の値以下であると判定した場合、処理をステップS811に進め、そうでない場合には、処理をステップS809に戻す。
ステップS811にておいて、追尾尤度決定部158は、所定の時間が経過するまで待機し、所定の時間が経過した後、ステップS812に進む。なお、ステップS811における所定の時間は任意に設定可能であり、経過時間ゼロとしてもよい。ここで経過時間を置くことで、検出尤度が低い状態を長く保つことができ、状況に応じて検出しやすい時間を調整することができる。
ステップS812では、追尾尤度決定部158は、追尾対象を判定する尤度を変更する。なお、本実施形態では、追尾撮影が進行するにつれて尤度を初期設定よりも高く設定するものとする。ステップS813では、情報処理装置100は、設定された新たな尤度の設定値において、自動追尾撮影を継続し、その後、本処理を終了する。
以上説明したように、本実施形態では、情報処理装置100が、カメラで撮影された画像に含まれる被写体を学習モデルを用いて推定し、被写体に対する推定の信頼度を示す尤度に応じて、追尾の対象となる目標被写体を決定するようにした。このとき、情報処理装置100は、目標被写体を決定するための尤度の基準をカメラのチルト角度に応じて変更し、変更した基準を用いて目標被写体を決定するようにした。特に、カメラのチルト角度が所定の値より大きい場合には、尤度が第1の尤度の値以上である被写体を目標被写体として決定する。一方、カメラのチルト角度が所定の値以下である場合には、尤度が第1の尤度の値より大きい第2の尤度の値以上である被写体を目標被写体として決定する。このようにすることで、状況が変化しても目標被写体を精度良く追尾することが可能になる。
<実施形態2>
次に、実施形態2について説明する。上述の実施形態では、雲台装置200の撮影構図に対するチルト角度の値が所定値になるかどうかで自動追尾撮影する尤度の閾値を変更するようにした。これに対し、本実施形態では、尤度の取りうる最大値を実験等により予め把握可能であれば、実際に検出された尤度が、取りうる最大値を検出した時点で自動追尾撮影対象とする尤度を変更する。すでに雲台装置200は、尤度が最大値を検出できる構図に調整されているからである。最大値を検出した時点で早めに尤度の閾値を変更しておくことで、早い段階から誤追尾を防止することができる。以下、実施形態2の具体例について説明する。
次に、実施形態2について説明する。上述の実施形態では、雲台装置200の撮影構図に対するチルト角度の値が所定値になるかどうかで自動追尾撮影する尤度の閾値を変更するようにした。これに対し、本実施形態では、尤度の取りうる最大値を実験等により予め把握可能であれば、実際に検出された尤度が、取りうる最大値を検出した時点で自動追尾撮影対象とする尤度を変更する。すでに雲台装置200は、尤度が最大値を検出できる構図に調整されているからである。最大値を検出した時点で早めに尤度の閾値を変更しておくことで、早い段階から誤追尾を防止することができる。以下、実施形態2の具体例について説明する。
なお、実施形態2では、情報処理装置100が、ソフトウェア構成例において尤度検出部900を新たに含む点、及び、自動追尾モードの一連の動作の一部が異なる点が実施形態1と異なる。しかし、他の構成及び処理は実施形態1と同一又は実質的に同一にすることができる。このため、実施形態2の説明では、同一又は実質的に同一である構成及び処理については同一の符号を付してその説明を省略し、相違点について説明する。
<実施形態2に係る自動追尾システムの構成>
図9は、実施形態2に係る、自動追尾システムのソフトウェア構成例を示している。ここでは、相違点である尤度検出部901について説明する。
図9は、実施形態2に係る、自動追尾システムのソフトウェア構成例を示している。ここでは、相違点である尤度検出部901について説明する。
尤度検出部901は、推定部155が検出する尤度が所定の値に達した場合には、追尾尤度決定部158の設定を変更することができる。例えば、尤度検出部901は、推定された被写体の尤度がすでに情報処理装置100の取りうる最大値に達したと判断できれば、それ以降は追尾尤度決定部158におけるチルト角度の条件を取り外して自動追尾撮影を開始させることができる。また、尤度検出部901は、自動追尾撮影中の任意の期間において、推定部155で推定された被写体の尤度の値に基づいて、自動追尾撮影ごとに所定の尤度を設定し直してもよい。
<実施形態2に係る自動追尾モードの一連の動作>
次に、図10を参照して、実施形態2に係る自動追尾モードにおける一連の動作について説明する。なお、本実施形態の処理も、情報処理装置100のCPU103(或いはGPU102)が記憶部105に格納されたプログラムを実行することにより、例えば推定対象設定部152等の情報処理装置100の各部を機能させて実現される。また、情報処理装置100は、ステップS801~S809の処理を実施形態1と同様に実行して、目標被写体を追尾する自動追尾撮影を行う。
次に、図10を参照して、実施形態2に係る自動追尾モードにおける一連の動作について説明する。なお、本実施形態の処理も、情報処理装置100のCPU103(或いはGPU102)が記憶部105に格納されたプログラムを実行することにより、例えば推定対象設定部152等の情報処理装置100の各部を機能させて実現される。また、情報処理装置100は、ステップS801~S809の処理を実施形態1と同様に実行して、目標被写体を追尾する自動追尾撮影を行う。
ステップS1001以降の処理では、条件に応じて自動追尾撮影の対象を判定する尤度を変更することにより、継続して所望の被写体を自動追尾撮影の対象とする。ステップS1001では、尤度検出部901は、推定部155が検出する尤度が所定の値以上(例えば後述の最大値)であるかを判定する。尤度検出部901は、推定部155が検出する尤度が所定の値以上である場合、処理をステップS811に進め、尤度が所定の値より小さい場合は処理をステップS810に進める。すでに検出された尤度が予め定められた尤度の最大値であることが分かった時点で、最適な構図になっていると判断することができる。そのため、(S810でチルト角度を判定すること無く)以降の尤度の閾値を変更することで、それ以降の誤追尾を防げる効果があるからである。なお、ステップS1001にて設定する所定の尤度は、任意に設定可能であり、事前に設定してもよいが、ステップS850以降に検出された尤度の値をもとに尤度検出部901が自動追尾撮影を行うごとに設定してもよい。
情報処理装置100は、その後、S810~S813の処理を実施形態1と同様に実行して、本実施期待に係る自動追尾モードの一連の動作を終了する。
以上説明したように、本実施形態では、カメラのチルト角度が所定の値より大きい角度である間に、被写体に対する尤度が、(低いチルト角度の基準で用いる)第2の尤度より大きい予め定めた第3の尤度の値以上であるかを判定するようにした。そして、被写体に対する尤度が、第3の尤度の値以上である場合には、カメラのチルト角度が低チルト角度に変化した場合にも、尤度の基準で用いる尤度の値を第3の尤度に設定するようにした。このようにすることで、早い段階で高い被写体の尤度が得られる場合には当該尤度を用いて被写体の追尾を継続することができる。
なお、上述の実施形態では、航空機が着陸するシーンを自動追尾撮影する場合を例として説明をした。しかし、本実施形態は、この例に限定されず、航空機が離陸するシーンを自動追尾撮影しても良い。航空機が離陸する場合には、まず、チルト角度が所定の値以下であるため、推定部155による尤度が所定値以上の被写体を目標被写体とする。その後、チルト角度が大きくなり、チルト角度が所定の値より大きくなったことに応じて、基準に用いる尤度が下がるように設定し、被写体に対する尤度が、変更後の尤度の基準を超える場合に、当該被写体を目的被写体とする。
また、上述の実施形態では、目標被写体を決定するための尤度の基準が、カメラのチルト角度に応じて異なる場合を例に説明した。しかし、カメラのチルト角度に加えて、ズーム倍率を更に考慮するようにしてもよい。すなわち、カメラのチルト角度とカメラのズーム倍率とに応じて異なる、目標被写体を決定するための尤度の基準を用いて、目標被写体を決定する。例えば、カメラのチルト角度が所定の値より大きく且つカメラのズーム倍率が所定の倍率の値より大きい場合に、尤度が上記第1の尤度の値以上である被写体を目標被写体として決定する。また、カメラのチルト角度とカメラのズーム倍率のいずれかが上記を満たさない場合、尤度が(第1の尤度の値より大きい)上記第2の尤度の値以上である被写体を目標被写体として決定する。このようにすることで、目標被写体が上空におり、かつズームを活用しても被写体の推定結果が低下し得る状況に限定して、低下させた尤度の閾値を使用することができる。
また、上述の実施形態では、情報処理装置100と雲台装置200間をシリアル通信と、有線の映像信号線で接続したが、これに限らず公衆電話回線や、インターネット等の通信回線で接続しても良い。
更に、上述した各処理部のうち、推定部155については、機械学習された学習済みモデルを用いて処理を実行したが、ルックアップテーブル(LUT)等のルールベースの処理を行ってもよい。その場合には、例えば、入力データと出力データとの関係をあらかじめLUTとして作成する。そして、この作成したLUTを情報処理装置100の記憶部105に格納しておくとよい。推定部155の処理を行う場合には、この格納されたLUTを参照して、出力データを取得することができる。つまりLUTは、推定部155と同等の処理をするためのプログラムとして、CPUあるいはGPUなどと協働で動作することができる。
プロセッサまたは回路は、上述したCPUやGPUのほか、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、またはニューラルプロセッシングユニット(NPU)を含みうる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本明細書の開示は、以下の情報処理装置、情報処理装置の制御方法、及びプログラムを含む。
(項目1)
撮像手段のパン、チルト及びズームの少なくともいずれかの駆動を制御しながら撮影された動画を受信する受信手段と、
前記動画を構成する画像に含まれる被写体を学習モデルを用いて推定する推定手段と、
被写体に対する推定の信頼度を示す尤度に応じて、追尾の対象となる目標被写体を決定する決定手段と、
前記目標被写体の画像内の位置を、前記画像内の所定の位置に位置させるように前記撮像手段の前記駆動を制御するための制御情報を出力する制御手段と、を有し、
前記決定手段は、前記撮像手段のチルト角度に応じて異なる、前記目標被写体を決定するための尤度の基準を用いて、前記目標被写体を決定する、ことを特徴とする情報処理装置。
撮像手段のパン、チルト及びズームの少なくともいずれかの駆動を制御しながら撮影された動画を受信する受信手段と、
前記動画を構成する画像に含まれる被写体を学習モデルを用いて推定する推定手段と、
被写体に対する推定の信頼度を示す尤度に応じて、追尾の対象となる目標被写体を決定する決定手段と、
前記目標被写体の画像内の位置を、前記画像内の所定の位置に位置させるように前記撮像手段の前記駆動を制御するための制御情報を出力する制御手段と、を有し、
前記決定手段は、前記撮像手段のチルト角度に応じて異なる、前記目標被写体を決定するための尤度の基準を用いて、前記目標被写体を決定する、ことを特徴とする情報処理装置。
(項目2)
前記決定手段は、前記撮像手段のチルト角度が所定の値より大きい場合に、尤度が第1の尤度の値以上である被写体を前記目標被写体として決定し、前記撮像手段のチルト角度が前記所定の値以下である場合に、尤度が前記第1の尤度の値より大きい第2の尤度の値以上である被写体を前記目標被写体として決定する、ことを特徴とする項目1に記載の情報処理装置。
前記決定手段は、前記撮像手段のチルト角度が所定の値より大きい場合に、尤度が第1の尤度の値以上である被写体を前記目標被写体として決定し、前記撮像手段のチルト角度が前記所定の値以下である場合に、尤度が前記第1の尤度の値より大きい第2の尤度の値以上である被写体を前記目標被写体として決定する、ことを特徴とする項目1に記載の情報処理装置。
(項目3)
前記決定手段は、前記所定の値より大きい第1の角度から前記所定の値以下の第2の角度のうち、前記撮像手段のチルト角度が前記第2の角度になったことに応じて、前記尤度の基準で用いる尤度の値を前記第2の尤度に設定する、ことを特徴とする項目2に記載の情報処理装置。
前記決定手段は、前記所定の値より大きい第1の角度から前記所定の値以下の第2の角度のうち、前記撮像手段のチルト角度が前記第2の角度になったことに応じて、前記尤度の基準で用いる尤度の値を前記第2の尤度に設定する、ことを特徴とする項目2に記載の情報処理装置。
(項目4)
前記決定手段は、前記所定の値より大きい第1の角度から前記所定の値以下の第2の角度のうち、前記撮像手段のチルト角度が前記第2の角度になり、且つ第2の角度になってから所定の時間が経過したことに応じて、前記尤度の基準で用いる尤度の値を前記第2の尤度に設定する、ことを特徴とする項目2に記載の情報処理装置。
前記決定手段は、前記所定の値より大きい第1の角度から前記所定の値以下の第2の角度のうち、前記撮像手段のチルト角度が前記第2の角度になり、且つ第2の角度になってから所定の時間が経過したことに応じて、前記尤度の基準で用いる尤度の値を前記第2の尤度に設定する、ことを特徴とする項目2に記載の情報処理装置。
(項目5)
前記決定手段は、前記撮像手段のチルト角度が前記所定の値より大きい角度である間に、被写体に対する尤度が、前記第2の尤度より大きい予め定めた第3の尤度の値以上である場合には、前記撮像手段のチルト角度が前記所定の値以下である前記第2の角度まで変化した場合であっても、前記尤度の基準で用いる尤度の値を前記第2の尤度に変更しない、ことを特徴とする項目3又は4に記載の情報処理装置。
前記決定手段は、前記撮像手段のチルト角度が前記所定の値より大きい角度である間に、被写体に対する尤度が、前記第2の尤度より大きい予め定めた第3の尤度の値以上である場合には、前記撮像手段のチルト角度が前記所定の値以下である前記第2の角度まで変化した場合であっても、前記尤度の基準で用いる尤度の値を前記第2の尤度に変更しない、ことを特徴とする項目3又は4に記載の情報処理装置。
(項目6)
前記決定手段は、前記撮像手段のチルト角度が前記所定の値より大きい角度である間に、被写体に対する尤度が前記第3の尤度の値以上である場合には、前記尤度の基準で用いる尤度の値として前記第3の尤度を用いる、ことを特徴とする項目5に記載の情報処理装置。
前記決定手段は、前記撮像手段のチルト角度が前記所定の値より大きい角度である間に、被写体に対する尤度が前記第3の尤度の値以上である場合には、前記尤度の基準で用いる尤度の値として前記第3の尤度を用いる、ことを特徴とする項目5に記載の情報処理装置。
(項目7)
前記決定手段は、前記撮像手段のチルト角度が前記所定の値より大きい角度である間に、被写体に対する尤度が前記第3の尤度の値以上である場合には、前記尤度の基準で用いる尤度の値を、被写体に対して得られる尤度の値に基づいて設定する、ことを特徴とする項目5に記載の情報処理装置。
前記決定手段は、前記撮像手段のチルト角度が前記所定の値より大きい角度である間に、被写体に対する尤度が前記第3の尤度の値以上である場合には、前記尤度の基準で用いる尤度の値を、被写体に対して得られる尤度の値に基づいて設定する、ことを特徴とする項目5に記載の情報処理装置。
(項目8)
前記決定手段は、前記撮像手段のチルト角度と前記撮像手段のズーム倍率とに応じて異なる、前記目標被写体を決定するための尤度の基準を用いて、前記目標被写体を決定する、ことを特徴とする項目1から7のいずれか1項に記載の情報処理装置。
前記決定手段は、前記撮像手段のチルト角度と前記撮像手段のズーム倍率とに応じて異なる、前記目標被写体を決定するための尤度の基準を用いて、前記目標被写体を決定する、ことを特徴とする項目1から7のいずれか1項に記載の情報処理装置。
(項目9)
前記決定手段は、前記撮像手段のチルト角度が前記所定の値より大きく且つ前記撮像手段のズーム倍率が所定の倍率の値より大きい場合に、尤度が第1の尤度の値以上である被写体を前記目標被写体として決定する、ことを特徴とする項目8に記載の情報処理装置。
前記決定手段は、前記撮像手段のチルト角度が前記所定の値より大きく且つ前記撮像手段のズーム倍率が所定の倍率の値より大きい場合に、尤度が第1の尤度の値以上である被写体を前記目標被写体として決定する、ことを特徴とする項目8に記載の情報処理装置。
(項目10)
撮像手段のパン、チルト及びズームの少なくともいずれかの駆動を制御しながら撮影された動画を受信する受信工程と、
前記動画を構成する画像に含まれる被写体を学習モデルを用いて推定する推定工程と、
被写体に対する推定の信頼度を示す尤度に応じて、追尾の対象となる目標被写体を決定する決定工程と、
前記目標被写体の画像内の位置を、前記画像内の所定の位置に位置させるように前記撮像手段の前記駆動を制御するための制御情報を出力する制御工程と、を有し、
前記決定工程では、前記撮像手段のチルト角度に応じて異なる、前記目標被写体を決定するための尤度の基準を用いて、前記目標被写体を決定する、情報処理装置の制御方法。
撮像手段のパン、チルト及びズームの少なくともいずれかの駆動を制御しながら撮影された動画を受信する受信工程と、
前記動画を構成する画像に含まれる被写体を学習モデルを用いて推定する推定工程と、
被写体に対する推定の信頼度を示す尤度に応じて、追尾の対象となる目標被写体を決定する決定工程と、
前記目標被写体の画像内の位置を、前記画像内の所定の位置に位置させるように前記撮像手段の前記駆動を制御するための制御情報を出力する制御工程と、を有し、
前記決定工程では、前記撮像手段のチルト角度に応じて異なる、前記目標被写体を決定するための尤度の基準を用いて、前記目標被写体を決定する、情報処理装置の制御方法。
(項目11)
コンピュータを、項目1から9のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
コンピュータを、項目1から9のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
100…情報処理装置、200…雲台装置、300…操作装置、155…推定部、157…雲台制御部、158…追尾尤度決定部
Claims (11)
- 撮像手段のパン、チルト及びズームの少なくともいずれかの駆動を制御しながら撮影された動画を受信する受信手段と、
前記動画を構成する画像に含まれる被写体を学習モデルを用いて推定する推定手段と、
被写体に対する推定の信頼度を示す尤度に応じて、追尾の対象となる目標被写体を決定する決定手段と、
前記目標被写体の画像内の位置を、前記画像内の所定の位置に位置させるように前記撮像手段の前記駆動を制御するための制御情報を出力する制御手段と、を有し、
前記決定手段は、前記撮像手段のチルト角度に応じて異なる、前記目標被写体を決定するための尤度の基準を用いて、前記目標被写体を決定する、ことを特徴とする情報処理装置。 - 前記決定手段は、前記撮像手段のチルト角度が所定の値より大きい場合に、尤度が第1の尤度の値以上である被写体を前記目標被写体として決定し、前記撮像手段のチルト角度が前記所定の値以下である場合に、尤度が前記第1の尤度の値より大きい第2の尤度の値以上である被写体を前記目標被写体として決定する、ことを特徴とする請求項1に記載の情報処理装置。
- 前記決定手段は、前記所定の値より大きい第1の角度から前記所定の値以下の第2の角度のうち、前記撮像手段のチルト角度が前記第2の角度になったことに応じて、前記尤度の基準で用いる尤度の値を前記第2の尤度に設定する、ことを特徴とする請求項2に記載の情報処理装置。
- 前記決定手段は、前記所定の値より大きい第1の角度から前記所定の値以下の第2の角度のうち、前記撮像手段のチルト角度が前記第2の角度になり、且つ第2の角度になってから所定の時間が経過したことに応じて、前記尤度の基準で用いる尤度の値を前記第2の尤度に設定する、ことを特徴とする請求項2に記載の情報処理装置。
- 前記決定手段は、前記撮像手段のチルト角度が前記所定の値より大きい角度である間に、被写体に対する尤度が、前記第2の尤度より大きい予め定めた第3の尤度の値以上である場合には、前記撮像手段のチルト角度が前記所定の値以下である前記第2の角度まで変化した場合であっても、前記尤度の基準で用いる尤度の値を前記第2の尤度に変更しない、ことを特徴とする請求項3に記載の情報処理装置。
- 前記決定手段は、前記撮像手段のチルト角度が前記所定の値より大きい角度である間に、被写体に対する尤度が前記第3の尤度の値以上である場合には、前記尤度の基準で用いる尤度の値として前記第3の尤度を用いる、ことを特徴とする請求項5に記載の情報処理装置。
- 前記決定手段は、前記撮像手段のチルト角度が前記所定の値より大きい角度である間に、被写体に対する尤度が前記第3の尤度の値以上である場合には、前記尤度の基準で用いる尤度の値を、被写体に対して得られる尤度の値に基づいて設定する、ことを特徴とする請求項5に記載の情報処理装置。
- 前記決定手段は、前記撮像手段のチルト角度と前記撮像手段のズーム倍率とに応じて異なる、前記目標被写体を決定するための尤度の基準を用いて、前記目標被写体を決定する、ことを特徴とする請求項1に記載の情報処理装置。
- 前記決定手段は、前記撮像手段のチルト角度が前記所定の値より大きく且つ前記撮像手段のズーム倍率が所定の倍率の値より大きい場合に、尤度が第1の尤度の値以上である被写体を前記目標被写体として決定する、ことを特徴とする請求項8に記載の情報処理装置。
- 撮像手段のパン、チルト及びズームの少なくともいずれかの駆動を制御しながら撮影された動画を受信する受信工程と、
前記動画を構成する画像に含まれる被写体を学習モデルを用いて推定する推定工程と、
被写体に対する推定の信頼度を示す尤度に応じて、追尾の対象となる目標被写体を決定する決定工程と、
前記目標被写体の画像内の位置を、前記画像内の所定の位置に位置させるように前記撮像手段の前記駆動を制御するための制御情報を出力する制御工程と、を有し、
前記決定工程では、前記撮像手段のチルト角度に応じて異なる、前記目標被写体を決定するための尤度の基準を用いて、前記目標被写体を決定する、情報処理装置の制御方法。 - コンピュータを、請求項1から9のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022088873A JP2023176536A (ja) | 2022-05-31 | 2022-05-31 | 情報処理装置、その制御方法ならびにプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022088873A JP2023176536A (ja) | 2022-05-31 | 2022-05-31 | 情報処理装置、その制御方法ならびにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023176536A true JP2023176536A (ja) | 2023-12-13 |
Family
ID=89122940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022088873A Pending JP2023176536A (ja) | 2022-05-31 | 2022-05-31 | 情報処理装置、その制御方法ならびにプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023176536A (ja) |
-
2022
- 2022-05-31 JP JP2022088873A patent/JP2023176536A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4241742B2 (ja) | 自動追尾装置及び自動追尾方法 | |
JP4498104B2 (ja) | 監視装置、その制御方法、およびプログラム | |
US8085300B2 (en) | Surveillance camera system, remote-controlled monitoring device, control method, and their control program | |
JP4350725B2 (ja) | 画像処理方法、画像処理装置、及び、画像処理方法をコンピュータに実行させるためのプログラム | |
JP5911201B2 (ja) | カメラ装置の自動追尾制御装置及びそれを有する自動追尾カメラシステム | |
JP5279635B2 (ja) | 画像処理装置、画像処理方法、および、プログラム | |
CN112703533A (zh) | 对象跟踪 | |
EP3629570A2 (en) | Image capturing apparatus and image recording method | |
JP6892524B2 (ja) | 対象追跡に基づくスローモーションビデオキャプチャ | |
US10939044B1 (en) | Automatically setting zoom level for image capture | |
JP6257308B2 (ja) | 自動追尾撮影システム | |
JP2023176536A (ja) | 情報処理装置、その制御方法ならびにプログラム | |
JP2010074264A (ja) | 撮影装置及び撮影システム | |
JP4794903B2 (ja) | 端末装置、端末装置が行う制御方法及びプログラム | |
JP2013183419A (ja) | カメラ制御装置及びそのコンピュータプログラム | |
JP2023176535A (ja) | 情報処理装置、その制御方法ならびにプログラム | |
JP2022086194A (ja) | 情報処理装置及びその制御方法、並びにプログラム | |
JP2023172294A (ja) | 情報処理装置、その制御方法ならびにプログラム | |
JP2022175854A (ja) | 情報処理装置およびその制御方法ならびにプログラム | |
JP2022002378A (ja) | 撮像装置、撮像システム、撮像装置の制御方法、およびプログラム | |
JPWO2020129620A1 (ja) | 撮像制御装置、撮像装置、撮像制御方法 | |
US20240163544A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP5072733B2 (ja) | 撮像装置及び撮像装置の制御方法 | |
JP2024010640A (ja) | 撮像システム及びそれを構成する制御装置、撮像装置、制御方法 | |
KR101441105B1 (ko) | 관심 영역 설정 장치 및 방법 |