JP2009211294A - ニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラム - Google Patents

ニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラム Download PDF

Info

Publication number
JP2009211294A
JP2009211294A JP2008052299A JP2008052299A JP2009211294A JP 2009211294 A JP2009211294 A JP 2009211294A JP 2008052299 A JP2008052299 A JP 2008052299A JP 2008052299 A JP2008052299 A JP 2008052299A JP 2009211294 A JP2009211294 A JP 2009211294A
Authority
JP
Japan
Prior art keywords
neural network
data
learning
interval value
robot camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008052299A
Other languages
English (en)
Other versions
JP5108563B2 (ja
Inventor
Makoto Okuda
誠 奥田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2008052299A priority Critical patent/JP5108563B2/ja
Publication of JP2009211294A publication Critical patent/JP2009211294A/ja
Application granted granted Critical
Publication of JP5108563B2 publication Critical patent/JP5108563B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】煩雑な作業の省力化を図ることができ、従来よりも短時間で最適モデルを構築することができるニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラムを提供すること。
【解決手段】ロボットカメラ制御装置1は、被写体を撮影するセンサカメラ10と、被写体の位置を検出する被写体検出装置20と、被写体を撮影するカメラを有するロボットカメラ30と、ロボットカメラ30を操作するロボカメ操作器40と、ニューラルネットワーク装置100の学習及びロボットカメラ30の撮影動作を制御する学習制御装置50とを備え、学習制御装置50は、現在時刻以前のデータを入力する際のステップ間隔値及びステップ数を設定する入力層最適化手段120を備える。
【選択図】図2

Description

本発明は、例えば動く物体の位置を予測計算するニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラムに関する。
近年、人間の脳の仕組みを模倣したニューラルネットワークをパターン認識や予測など様々な分野に適用する研究が行われている。ニューラルネットワークの構造としては、階層型ニューラルネットワーク、カスケードコリレーション型ニューラルネットワーク、リカレントニューラルネットワーク等が知られている。従来、例えば、ロボットの動作を制御する方法として、リカレントニューラルネットワークを利用したものが提案されている(例えば、特許文献1参照)。
特許文献1に記載されたロボットは、リカレントニューラルネットワークの入力層に入力した時系列の過去データに基づいた後ろ向き演算(バックプロパゲーション)による学習を行い、リカレントニューラルネットワークの重み係数が所定値に設定されると、対面する人間の動きに近い動きを実行するようになっている。
特開2005−115654号公報
しかしながら、従来のものでは、過去データを入力する際に、不要な過去データが多かったり、逆に必要な過去データが欠落したりすると、ニューラルネットワークのパフォーマンスに悪影響を与えるため、ユーザーが、過去データを入力する範囲を何通りも設定し、所望の学習レベルに達したニューラルネットワークモデル(以下「最適モデル」という。)が得られるまで過去データの入力作業を繰り返し行っていた。したがって、従来のものでは、前述のように煩雑な作業を要するので、最適モデルの構築に長時間を要するという課題があった。
本発明は、前述のような課題を解決するためになされたものであり、煩雑な作業の省力化を図ることができ、従来よりも短時間で最適モデルを構築することができるニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラムを提供することを目的とする。
本発明のニューラルネットワーク装置は、ニューラルネットワークと、予め定められた単位時間毎に取得されたデータを前記ニューラルネットワークに入力するデータ入力手段とを備え、前記データ入力手段は、現在時刻以前のデータを前記ニューラルネットワークに段階的に入力する際の間隔を示すステップ間隔値を設定するステップ間隔値設定部と、前記間隔の数を示すステップ数を設定するステップ数設定部と、前記ステップ間隔値及び前記ステップ数に基づいて前記ニューラルネットワークに入力する現在時刻以前のデータを選択するデータ選択部とを備えた構成を有している。
この構成により、本発明のニューラルネットワーク装置は、現在時刻以前のデータをニューラルネットワークに段階的に入力する際のステップ間隔値及びステップ数を設定し、ステップ間隔値及びステップ数に基づいてニューラルネットワークに入力する現在時刻以前のデータを選択するので、煩雑な作業の省力化を図ることができ、従来よりも短時間で最適モデルを構築することができる。
また、本発明のニューラルネットワーク装置は、前記ニューラルネットワークに入力した前記現在時刻以前のデータに対する前記ニューラルネットワークの出力信号データから前記ニューラルネットワークの学習状態を評価する学習状態評価手段と、前記ニューラルネットワークの学習状態が予め定められた学習状態となる最適ステップ間隔値及び最適ステップ数を前記ステップ間隔値と前記ステップ数との組み合わせから探索するための探索領域を設定する探索領域設定手段と、前記最適ステップ間隔値及び前記最適ステップ数を前記探索領域から探索する最適ステップ情報探索手段とを備えた構成を有している。
この構成により、本発明のニューラルネットワーク装置は、最適ステップ情報探索手段が、最適ステップ間隔値及び最適ステップ数を探索領域から探索するので、ニューラルネットワークの入力層を容易に最適化することができ、煩雑な作業の省力化を図ることができ、従来よりも短時間で最適モデルを構築することができる。
さらに、本発明のニューラルネットワーク装置は、前記探索領域設定手段は、前記ステップ間隔値に基づいて前記最適ステップ間隔値を探索するためのステップ間隔値探索領域を分割して第1の探索間隔を設定する第1の探索間隔設定部と、前記ステップ数に基づいて前記最適ステップ数を探索するためのステップ数探索領域を分割して第2の探索間隔を設定する第2の探索間隔設定部とを備えた構成を有している。
この構成により、本発明のニューラルネットワーク装置は、探索領域設定手段が、第1の探索間隔設定部と第2の探索間隔設定部とを含むので、最適ステップ間隔値及び最適ステップ数を探索領域から短時間で探索することができる。
本発明のロボットカメラ制御装置は、ニューラルネットワーク装置と、予め定められた被写体の位置を検出して被写体位置データを出力する被写体検出装置と、前記被写体を撮影するカメラ装置及び雲台装置を搭載したロボットカメラと、前記ロボットカメラの撮影動作を制御するための撮影動作制御信号データを出力するロボットカメラ制御装置と、前記被写体位置データと前記被写体位置データに対応する前記撮影動作制御信号データとを含む学習用データに基づいて前記ニューラルネットワークを学習させる学習装置とを備え、前記学習装置は、前記ニューラルネットワークを学習させる学習時において、前記ステップ間隔値及び前記ステップ数に基づき、前記学習用データを前記データ入力手段に段階的に入力して前記ニューラルネットワーク装置の学習状態が予め定められた学習状態となる最適ステップ間隔値及び最適ステップ数を求めるものであり、ロボットカメラ制御装置は、前記ニューラルネットワークが学習した後の自動制御時において、前記学習装置が前記学習時に求めた前記最適ステップ間隔値及び前記最適ステップ数に基づき、前記被写体検出装置からの前記被写体位置データを前記データ入力手段に入力し、前記ニューラルネットワークの出力信号データを前記撮影動作制御信号データとして前記ロボットカメラに出力して前記ロボットカメラの撮影動作を制御するものである構成を有している。
この構成により、本発明のロボットカメラ制御装置は、学習用データによって学習したニューラルネットワークの出力信号データによって、ロボットカメラの撮影動作を制御することができる。
本発明のニューラルネットワークプログラムは、コンピュータを、ニューラルネットワークと、前記ニューラルネットワークに現在時刻以前のデータを段階的に入力する際の間隔を示すステップ間隔値を設定するステップ間隔値設定部と、前記間隔の数を示すステップ数を設定するステップ数設定部と、前記ステップ間隔値及び前記ステップ数に基づいて前記ニューラルネットワークに入力する現在時刻以前のデータを選択するデータ選択部として機能させる構成を有している。
この構成により、本発明のニューラルネットワークプログラムは、現在時刻以前のデータをニューラルネットワークに段階的に入力する際のステップ間隔値及びステップ数を設定し、ステップ間隔値及びステップ数に基づいてニューラルネットワークに入力する現在時刻以前のデータを選択するので、煩雑な作業の省力化を図ることができ、従来よりも短時間で最適モデルを構築することができる。
本発明は、煩雑な作業の省力化を図ることができ、従来よりも短時間で最適モデルを構築することができるという効果を有するニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラムを提供することができるものである。
以下、本発明の一実施の形態について図面を用いて説明する。なお、本発明に係るロボットカメラ制御装置を、放送局のスタジオ内における人物を被写体として撮影するロボットカメラの撮像動作制御に適用した例を挙げて説明する。このロボットカメラ制御装置は、カメラマンに代わってロボットカメラに被写体を撮影させるものであって、人間らしい自然なカメラワークをロボットカメラに行わせようとするものである。
まず、本実施の形態におけるロボットカメラ制御装置の構成について説明する。図1は、本実施の形態におけるロボットカメラ制御装置1の概要構成を示す図である。
図1に示すように、ロボットカメラ制御装置1は、被写体を撮影するセンサカメラ10と、被写体の位置を検出する被写体検出装置20と、被写体を撮影するロボットカメラ30と、ロボットカメラ30を操作するロボットカメラ操作器(以下「ロボカメ操作器」という。)40と、ニューラルネットワーク装置を有し、その学習及びロボットカメラ30の撮影動作を制御する学習制御装置50とを備えている。
図1において、実線の矢印は、学習制御装置50が有するニューラルネットワーク装置の学習時における信号の流れを示し、破線の矢印は、学習制御装置50がロボットカメラ30を自動制御する自動制御時における信号の流れを示す。なお、学習時とは、ニューラルネットワーク装置を学習させるための学習用データと、学習したニューラルネットワーク装置をテストするためのテスト用データとを取得する期間と、ニューラルネットワーク装置を学習用データで学習させる期間と、学習したニューラルネットワーク装置をテスト用データでテストする期間とを含む期間をいう。
センサカメラ10は、例えば、所定間隔をおいて設けた2つのカメラ装置を備え、スタジオの天井に固定され、予め定めた領域内における人物を俯瞰してステレオ立体視が行えるようになっている。また、センサカメラ10は、2つのカメラ装置が人物を撮影したそれぞれの撮影信号を被写体検出装置20に単位時間毎、例えば17ミリ秒毎に出力するようになっている。
被写体検出装置20は、例えば、画像処理を行うコンピュータで構成され、センサカメラ10からのステレオ立体視による映像信号と、スタジオ内において仮想的に予め定めた3次元軸(x、y、z軸)との関係から被写体の位置を検出し、被写体の位置を示す被写体位置データを学習制御装置50に出力するようになっている。
ロボットカメラ30は、カメラ装置及び雲台装置(以下「雲台装置等」という。)と、ロボカメ操作器40又は学習制御装置50が指示した撮影場所に移動する移動装置とを備え、ロボカメ操作器40からの制御信号データ(以下「操作制御信号データ」という。)、又は学習制御装置50からの制御信号データ(以下「撮影動作制御信号データ」という。)に応じた撮影動作を行うようになっている。具体的には、ロボットカメラ30は、操作制御信号データ又は撮影動作制御信号データにより、雲台装置等及び移動装置が制御され、パン、チルト、ズーム、フォーカス、撮影場所移動等の撮影動作を行うようになっている。
ロボカメ操作器40は、熟練したカメラマンが操作するものであって、例えば、ロボットカメラ30の撮影映像を表示するモニタ、ロボットカメラ30の雲台装置等を遠隔操作する操作ハンドルやスイッチ等を備えている。ロボカメ操作器40によってロボットカメラ30が操作されているとき、ロボットカメラ30におけるパン、チルト、ズーム、フォーカス、撮影場所移動等の撮影動作の状態を示すデータ(以下「撮影動作状態データ」という。)を、ロボットカメラ30が学習制御装置50に出力するようになっている。
次に、学習制御装置50の構成を図2に基づいて説明する。図2は、本実施の形態におけるロボットカメラ制御装置1をブロック図で示したものであって、学習制御装置50の詳細な構成を示す。
学習制御装置50は、データを取得するデータ取得部51と、データを記憶するデータ記憶部52と、計算パラメータを入力する計算パラメータ入力部53と、ニューラルネットワーク装置100とを備えている。なお、図示を省略したが、学習制御装置50は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、入出力インターフェース回路、記憶装置、ディスプレイ等を備えたコンピュータで構成される。この学習制御装置50は、本発明に係るロボットカメラ制御装置及び学習装置を構成する。
データ取得部51は、ニューラルネットワーク装置100の学習時において、被写体検出装置20からの被写体位置データと、ロボカメ操作器40によって操作されるロボットカメラ30からの撮影動作状態データとを単位時間毎に取得するようになっている。
データ記憶部52は、データ取得部51が取得した被写体位置データ及び撮影動作状態データを、ニューラルネットワーク装置100を学習させるための学習用データ、又は学習済みのニューラルネットワーク110の性能を評価するためのテスト用データとして記憶するようになっている。
計算パラメータ入力部53は、ニューラルネットワーク装置100に現在時刻以前のデータ(以下「以前データ」という。)を入力する際に、以前データのステップ間隔値を入力するステップ間隔値入力部53aと、ステップ数を入力するステップ数入力部53bと、ステップ間隔値及びステップ数以外の計算パラメータを入力するパラメータ入力部53cとを備えている。なお、計算パラメータ入力部53は、本発明に係る探索領域設定手段を構成する。
ニューラルネットワーク装置100は、例えば入力層、中間層及び出力層を含む階層型のニューラルネットワーク110と、ニューラルネットワーク110の入力層を最適化する入力層最適化手段120と、ニューラルネットワーク110の学習評価を行う学習評価部130とを備えている。
入力層最適化手段120は、ニューラルネットワーク110の入力層に以前データを入力するデータ入力部121と、ステップ間隔値及びステップ数(以下、「ステップ情報」と総称する。)を設定するステップ情報設定部122とを備えている。なお、入力層最適化手段120は、本発明に係るデータ入力手段、入力層最適化部及び最適ステップ情報探索手段を構成する。
データ入力部121は、学習時においてデータ記憶部52から学習用データ又はテストデータを、自動制御時において被写体検出装置20から被写体位置データを、それぞれ、入力するようになっている。なお、データ入力部121は、本発明に係るデータ選択部を構成する。
ここで、データ入力部121が、ニューラルネットワーク110の入力層に以前データを入力する構成としているのは、カメラマンが被写体を撮影する場合、被写体の瞬間位置のみに応じてカメラを操作するのではなく、被写体の過去位置も考慮しながら撮影するからである。そのため、ステップ情報設定部122はステップ情報を設定し、データ入力部121はステップ情報に応じて以前データをニューラルネットワーク110の入力層に入力する構成となっている。なお、ステップ情報設定部122は、本発明に係るステップ間隔値設定部及びステップ数設定部を構成する。
以下、図3を用いて、以前データ及びステップ情報について説明する。
図3において、黒丸で示した点は、単位時間毎に撮影された撮影データの時間的位置を表している。また、現在時刻tにおける被写体位置のデータをSで表している。以前データとは、現在時刻t以前の被写体位置のデータであって、時刻t、t−i、t−2i、t−3i、・・・、t−uiにそれぞれ対応する被写体位置のデータS、St−i、St−2i、St−3i、・・・、St−uiをいう。ここで、各データの間隔を示す記号iがステップ間隔値を示し、図3に示した例では、ステップ間隔値i=3としている。また、ステップ間隔値iの総数を示す記号uがステップ数を示す。
また、被写体位置のデータSと同様に、カメラマンがロボカメ操作器40を介してロボットカメラ30を操作した際のロボットカメラ30の撮影動作状態データrも、各時刻に対応する撮影動作状態データr、rt−i、rt−2i、rt−3i、・・・、rt−uiを含む。同様に、ロボットカメラ30の撮影動作状態データRも、各時刻に対応する撮影動作状態データR、Rt−i、Rt−2i、Rt−3i、・・・、Rt−uiを含む。
図2に戻り、構成の説明を続ける。
学習評価部130は、以前データに対するニューラルネットワーク110の出力信号データからニューラルネットワーク110の学習状態を評価するようになっている。また、学習評価部130は、ニューラルネットワーク110の学習状態に応じて、ニューラルネットワーク110における入力層と中間層との間、中間層と出力層との間の重み係数を更新するようになっている。なお、学習評価部130は、本発明に係る学習状態評価手段を構成する。
次に、本実施の形態におけるロボットカメラ制御装置1の動作について説明する。なお、ロボットカメラ制御装置1の動作としては、(1)学習用データ及びテスト用データを取得する動作と、(2)最適モデルを生成する動作と、(3)ロボットカメラ30を自動制御する動作とがあり、以下、順に説明する。
(1)学習用データ及びテスト用データを取得する動作
図2において、熟練したカメラマンがロボカメ操作器40を操作すると、ロボカメ操作器40は、操作制御信号データをロボットカメラ30に出力する。ロボットカメラ30は、操作制御信号データに基づいて被写体を撮影し、撮影動作状態データをデータ取得部51に単位時間毎に出力する。並行して、被写体検出装置20は、センサカメラ10が撮影した被写体画像に基づいて被写体の位置を検出し、被写体位置データをデータ取得部51に単位時間毎に出力する。
そして、データ取得部51は、被写体位置データと、この被写体位置データに対応する撮影動作状態データとを対応づけた学習用データを生成し、所定のファイル形式でデータ記憶部52に記憶する。学習用データを記憶するファイル形式として、例えば、csv(Comma Separated Values)ファイル形式を用いる場合、被写体位置データと撮影動作状態データとを単位時間毎に対応させ、各データをカンマで区切って並べたファイルとなる。
なお、テスト用データも学習用データと同様にデータ取得部51が取得し、データ記憶部52に記憶する。
(2)最適モデルを生成する動作
図4は、最適モデルを生成する動作を示すフローチャートである。
まず、計算パラメータ入力部53は、入力パラメータを設定する(ステップS11)。具体的には、計算パラメータ入力部53は、図5に示すようなGUI(Graphical User Interface)画面をディスプレイに表示し、利用者にパラメータの入力を促す。
図5に示すGUI画面は、学習用データを指定する学習用データ指定部101と、テスト用データを指定するテスト用データ指定部102と、ニューラルネットワーク110の最適モデルデータを記憶するファイル情報を指定する最適モデルデータ指定部103と、ニューラルネットワーク110に入力する位置データの座標軸を指定する入力変数チェックボックス104と、ニューラルネットワーク110に制御させる座標軸を指定する出力変数チェックボックス105と、ステップ情報の探索領域を指定する探索領域指定部106とを含む。また、探索領域指定部106は、最大過去ステップ値の入力部106aと、その間隔値を指定する間隔値指定ボックス106bと、ステップ間隔値の入力部106cと、その間隔値を指定する間隔値指定ボックス106dとを含む。なお、最大過去ステップ値は、後述するように、ステップ数uを定めるための値である。また、間隔値指定ボックス106bは、本発明に係る第2の探索間隔設定部を構成する。また、間隔値指定ボックス106dは、本発明に係る第1の探索間隔設定部を構成する。
図5に示した例では、入力変数としては、x軸、y軸及びz軸に関する変数のうち、x軸及びy軸に関する変数が指定されている。また、出力変数としては、パン、チルト、ズーム、フォーカス、X軸、Y軸及びZ軸に関する変数のうち、パン及びチルトに関する変数が指定されている。なお、X軸、Y軸及びZ軸に関する変数は、ロボットカメラ30の移動装置に撮影場所を移動させる動作を行わせるためのものである。
また、探索領域指定部106においては、最大過去ステップ値の入力部106aに「5,10−30,50」、間隔値指定ボックス106bに「5」、ステップ間隔値の入力部106cに「1−5,20」、間隔値指定ボックス106dに「2」が、それぞれ、記述された状態が示されている。
ここで、記号「,」は論理演算における論理積(アンド)を示し、記号「−」は対象とする領域を示している。記号「−」を用いているのは、以前データにおける1ステップの変化ではニューラルネットワーク110の特徴が大きく変化しないので、最大過去ステップ値の入力部106a及びステップ間隔値の入力部106cにおいて記号「−」で範囲を指定し、それぞれ、間隔値指定ボックス106b及び間隔値指定ボックス106dでの指定によって探索間隔が大まかに設定できるようになっている。
具体的には、図5に示した例では、最大過去ステップ値の入力部106aにおいて、「5」、「10から30まで」、「50」が指定されていることになる。加えて、間隔値指定ボックス106bに「5」が指定されているので、最大過去ステップ値として、「5」、「10」、「15」、「20」、「25」、「30」、「50」が指定されていることになる。
同様に、ステップ間隔値の入力部106cに「1−5,20」が記述され、間隔値指定ボックス106dに「2」が記述されているので、ステップ間隔値としては、「1」、「3」、「5」、「20」が指定されていることになる。ここで指定されたステップ間隔値が図3において記号iで示したステップ間隔値に相当する。一方、図3において記号uで示したステップ数は、最大過去ステップ値をステップ間隔値で除して得る。例えば、最大過去ステップ値=50、ステップ間隔値i=2のとき、ステップ数u=25である。ただし、この除算において割り切れないときは、割り切れる数値のうちの最大値を用いるのが好ましい。例えば、最大過去ステップ値=50、ステップ間隔値i=3のとき、ステップ数u=16とすればよい。なお、最大過去ステップ値の入力に代えてステップ数uを直接入力する構成としてもよい。
図4に戻り、ステップS11において設定したパラメータを使用して、ステップ情報設定部122は、探索領域から全i、uの組み合わせを計算する(ステップS12)。具体的には、図5で設定した探索領域におけるステップ間隔値i、ステップ数uの組み合わせは以下のようになる。
(i,u)=(1,5)、(3,1)、(5,1)、(1,10)、(1,15)、(1,20)、(1,25)、(1,30)、(3,3)、(3,5)、(3,6)、(3,8)、(3,10)、(5,2)、(5,3)、(5,4)、(5,5)、(5,6)、(1,50)、(3,16)、(5,10)、(20,1)、(20,2)
続いて、入力層最適化手段120は、ステップS11において指定した学習用データをデータ記憶部52から読み出し、全i、uの組み合わせについて、学習用データを用いてニューラルネットワーク110を学習させる(ステップS13)。本実施の形態では、誤差逆伝播法により学習処理を行う例を挙げ、図6に基づいて説明する。
図6に示すように、入力層最適化手段120は、ステップS21において時刻変数tを初期化し、ステップS22及びS23において、時刻変数tが(i×u)より大きくなるまで時刻変数tを増加させる。
入力層最適化手段120は、ステップS22においてt≧(i×u)と判断した場合、ニューラルネットワーク110に学習用データの被写体位置データS、St−i、St−2i、St−3i、・・・、St−uiを入力し、ニューラルネットワーク110は、前向き演算によってロボットカメラ30の予測撮影動作状態データRt+1を計算する(ステップS24)。
次に、学習評価部130は、ニューラルネットワーク110が求めたロボットカメラ30の予測撮影動作状態データRt+1と、学習用データに含まれる時刻(t+1)における位置、すなわち、熟練したカメラマンにより実際に制御された際の時刻(t+1)におけるロボットカメラ30の撮影動作状態データrt+1とについて、例えばパン軸値及びチルト軸値の二乗誤差の総和値eを計算する(ステップS25)。
次に、学習評価部130は、後ろ向き演算によってニューラルネットワーク110の重み係数を更新する(ステップS26)。
次に、入力層最適化手段120は、時刻変数tが撮影時刻Tと等しいか否か判断する(ステップS27)。なお、撮影時刻T情報は、例えば学習用データで予め指定される。
ステップS27において、時刻変数tが撮影時刻Tと等しいと判断しなかった場合、入力層最適化手段120は、時刻変数tをインクリメントし(ステップS28)、ステップS24の処理に戻る。
一方、ステップS27において、時刻変数tが撮影時刻Tと等しいと判断した場合、入力層最適化手段120は、ニューラルネットワーク110の学習が終了したか否かを判断し(ステップS29)、学習が終了したと判断した場合は学習処理を終了し、学習が終了したと判断しなかった場合はステップS21の処理に戻る。
ここで、前述した学習処理について図7に基づき具体的に説明する。説明を簡単にするため、i=3、u=5、撮影単位時間=1(秒)とする。この場合において、図7は、学習させる被写体位置の以前データの推移を示している。この例において、被写体位置の以前データをニューラルネットワーク110に入力開始するのは、最初のデータ(左端の黒点)から(i×u)=15(秒)後の時点であるので、図7において、その時刻を開始時刻(=0)とし、撮影終了時刻Tをその9(秒)後としている。
開始時刻において入力するのは被写体位置の以前データDである。図6のステップS28において時刻変数tがインクリメントされるので、D、D、・・・、Dと以前データを順次入力することになる。そして、以前データDによって重み係数が更新された後、ステップS29で学習が終了したか否かが判断される。ここで、学習が終了したと判断されなかった場合に、ステップS21において時刻変数tが初期化される。これは、再度、以前データDからDまでを順次入力することを意味している。一般に、入力する以前データが同じデータであっても、学習を繰り返すに従って、ニューラルネットワーク110の学習状態を向上させることができる。
次に、ステップS29において、ニューラルネットワーク110の学習が終了したか否かを判断する手法の例を示す。本実施の形態に示したように、ニューラルネットワーク110が階層型の場合は、例えば、ニューラルネットワーク110の全ての入出力パターンについて、ステップS25で求めた総和値eが、事前に設定した閾値Eよりも小さくなったときを学習の終了時とすることができる。この閾値Eは被写体や撮影シーンに応じて定めるのが好ましい。
図4に戻り、前述のように学習したニューラルネットワーク110に対し、全i、uの組み合わせについて、テスト用データを用いて評価値を計算する(ステップS14)。この処理の一例について、図8に示すフローチャートを用いて説明する。
図8に示すように、入力層最適化手段120は、ステップS31において時刻変数tを初期化し、ステップS32及びS33において、時刻変数tが(i×u)より大きくなるまで時刻変数tを増加させるとともに、ロボットカメラ30の雲台装置等における各軸値の二乗誤差の総和値e =0とする。
入力層最適化手段120は、ステップS32においてt≧(i×u)と判断した場合、ニューラルネットワーク110にテスト用データの被写体位置データS、St−i、St−2i、St−3i、・・・St−uiを学習済みニューラルネットワーク110に入力し、ニューラルネットワーク110は、前向き演算によってロボットカメラ30の予測撮影動作状態データRt+1を計算する(ステップS34)。
次に、学習評価部130は、ニューラルネットワーク110が求めたロボットカメラ30の予測撮影動作状態データRt+1と、テスト用データに含まれる時刻(t+1)における位置、すなわち、熟練したカメラマンにより実際に制御された際の時刻(t+1)におけるロボットカメラ30の撮影動作状態データrt+1とについて、例えばパン軸値及びチルト軸値の二乗誤差の総和e を計算する(ステップS35)。
次に、入力層最適化手段120は、時刻変数tが撮影時刻Tと等しいか否か判断する(ステップS36)。なお、撮影時刻Tは、例えばテスト用データで予め指定される。
ステップS36において、時刻変数tが撮影時刻Tと等しいと判断しなかった場合、入力層最適化手段120は、時刻変数tをインクリメントし(ステップS37)、ステップS34の処理に戻る。
一方、ステップS36において、時刻変数tが撮影時刻Tと等しいと判断した場合、入力層最適化手段120は、ニューラルネットワーク110の評価値を数1により計算し(ステップS38)、評価値の計算処理を終了する。
Figure 2009211294
なお、ニューラルネットワーク110の評価値は、この方法によるものに限定されるものではなく、例えば、t=(i×u)〜TにおけるRt+1とrt+1との相関係数を用いてもよい。
図4に戻り、入力層最適化手段120は、ステップS14において求めた評価値のうち、最良の評価値が得られたステップ情報(以下「最適ステップ情報」という。)、すなわち、最適ステップ間隔値及び最適ステップ数の組み合わせとなるi、u各1つずつのデータと、最良の評価値が得られた最適モデルデータとを、図5に示した最適モデルデータ指定部103で指定したファイル情報で、図示しない記憶装置に出力し(ステップS15)、最適モデル生成処理を終了する。
(3)ロボットカメラ30を自動制御する動作
次に、ロボットカメラ30を自動制御する動作を図2に基づいて説明する。
まず、入力層最適化手段120は、最適モデル生成処理において記憶された最適ステップ情報のデータ及び最適モデルデータを図示しない記憶装置から読み出し、これらに基づいてニューラルネットワーク110を構築する。その結果、ニューラルネットワーク110の入力層のユニット数は(u+1)と入力変数の個数との積で示される。
次に、センサカメラ10は、ステレオ立体視による被写体の撮影を行い、その映像信号を被写体検出装置20に単位時間毎に出力する。
次に、被写体検出装置20は、ステレオ立体視による映像信号と、スタジオ内において仮想的に予め定めた3次元軸との関係から、画像処理を行って被写体の位置を検出し、被写体の位置を示す被写体位置データを学習制御装置50のデータ入力部121に送る。
次に、データ入力部121は、ニューラルネットワーク110の入力層に被写体位置データを単位時間毎に、最適ステップ情報に基づいて選択して入力する。例えば、最適ステップ情報がステップ間隔数i=3、ステップ数u=2の場合を例に挙げる。この場合、データ入力部121は、単位時間毎に順次入力する被写体位置データから、現在時刻の被写体位置データと、現在時刻から3単位時間前の被写体位置データと、現在時刻から6単位時間前の被写体位置データとを選択して入力層に入力する。
ニューラルネットワーク110は、入力層が入力した被写体位置データに基づいてロボットカメラ30の撮影動作状態を予測する計算をし、計算結果のデータを撮影動作制御信号データとしてロボットカメラ30に出力する。
そして、ロボットカメラ30は、学習制御装置50からの撮影動作制御信号データに応じた撮影動作、例えばパン動作、チルト動作等を行う。
なお、図4、図6及び図8に示した各ステップの処理をプログラミングし、当該プログラムによってコンピュータを動作させることにより、当該プログラムは、コンピュータをロボットカメラ制御装置1として機能させることができる。この場合、コンピュータは、図2に示した構成を有することとなる。
以上のように、本実施の形態におけるロボットカメラ制御装置1によれば、以前データをニューラルネットワークに段階的に入力する際のステップ間隔値及びステップ数を設定する構成としたので、煩雑な作業の省力化を図ることができ、従来よりも短時間で最適モデルを構築することができる。
なお、前述の実施の形態において、本発明に係るネットワーク装置をロボットカメラの撮像動作制御に適用した例を挙げて説明したが、本発明はこれに限定されるものではなく、例えば、移動する人物や物体の位置を予測する予測装置に適用することもできる。
以上のように、本発明に係るニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラムは、煩雑な作業の省力化を図ることができ、従来よりも短時間で最適モデルを構築することができるという効果を有し、例えば動く物体の位置を予測計算するニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラム等として有用である。
本発明の一実施の形態におけるロボットカメラ制御装置の概要構成を示す図 本発明の一実施の形態におけるロボットカメラ制御装置のブロック図 本発明の一実施の形態におけるロボットカメラ制御装置における以前データ及びステップ情報の説明図 本発明の一実施の形態におけるロボットカメラ制御装置において、最適なニューラルネットワークモデルを生成する動作を示すフローチャート 本発明の一実施の形態におけるロボットカメラ制御装置において、入力パラメータを設定するためのGUI画面の一例を示す図 本発明の一実施の形態におけるロボットカメラ制御装置において、学習用データを用いてニューラルネットワークを学習させる動作を示すフローチャート 本発明の一実施の形態におけるロボットカメラ制御装置において、学習用データを用いてニューラルネットワークを学習させる際の具体的な説明図 本発明の一実施の形態におけるロボットカメラ制御装置において、テスト用データを用いてニューラルネットワークの評価値を計算する動作を示すフローチャート
符号の説明
1 ロボットカメラ制御装置
10 センサカメラ
20 被写体検出装置
30 ロボットカメラ
40 ロボカメ操作器
50 学習制御装置(ロボットカメラ制御装置、学習装置)
51 データ取得部
52 データ記憶部
53 計算パラメータ入力部(探索領域設定手段)
53a ステップ間隔値入力部
53b ステップ数入力部
53c パラメータ入力部
100 ニューラルネットワーク装置
101 学習用データ指定部
102 テスト用データ指定部
103 最適モデルデータ指定部
104 入力変数チェックボックス
105 出力変数チェックボックス
106 探索領域指定部
106a 最大過去ステップ値の入力部
106b 間隔値指定ボックス(第2の探索間隔設定部)
106c ステップ間隔値の入力部
106d 間隔値指定ボックス(第1の探索間隔設定部)
110 ニューラルネットワーク
120 入力層最適化手段(データ入力手段、入力層最適化部、最適ステップ情報探索手段)
121 データ入力部(データ選択部)
122 ステップ情報設定部(ステップ間隔値設定部、ステップ数設定部)
130 学習評価部(学習状態評価手段)

Claims (5)

  1. ニューラルネットワークと、予め定められた単位時間毎に取得されたデータを前記ニューラルネットワークに入力するデータ入力手段とを備え、
    前記データ入力手段は、現在時刻以前のデータを前記ニューラルネットワークに段階的に入力する際の間隔を示すステップ間隔値を設定するステップ間隔値設定部と、前記間隔の数を示すステップ数を設定するステップ数設定部と、前記ステップ間隔値及び前記ステップ数に基づいて前記ニューラルネットワークに入力する現在時刻以前のデータを選択するデータ選択部とを備えたことを特徴とするニューラルネットワーク装置。
  2. 前記ニューラルネットワークに入力した前記現在時刻以前のデータに対する前記ニューラルネットワークの出力信号データから前記ニューラルネットワークの学習状態を評価する学習状態評価手段と、
    前記ニューラルネットワークの学習状態が予め定められた学習状態となる最適ステップ間隔値及び最適ステップ数を前記ステップ間隔値と前記ステップ数との組み合わせから探索するための探索領域を設定する探索領域設定手段と、
    前記最適ステップ間隔値及び前記最適ステップ数を前記探索領域から探索する最適ステップ情報探索手段とを備えたことを特徴とする請求項1に記載のニューラルネットワーク装置。
  3. 前記探索領域設定手段は、前記ステップ間隔値に基づいて前記最適ステップ間隔値を探索するためのステップ間隔値探索領域を分割して第1の探索間隔を設定する第1の探索間隔設定部と、前記ステップ数に基づいて前記最適ステップ数を探索するためのステップ数探索領域を分割して第2の探索間隔を設定する第2の探索間隔設定部とを備えたことを特徴とする請求項2に記載のニューラルネットワーク装置。
  4. 請求項1乃至3のいずれか1項に記載のニューラルネットワーク装置と、予め定められた被写体の位置を検出して被写体位置データを出力する被写体検出装置と、前記被写体を撮影するカメラ装置及び雲台装置を搭載したロボットカメラと、前記ロボットカメラの撮影動作を制御するための撮影動作制御信号データを出力するロボットカメラ制御装置と、前記被写体位置データと前記被写体位置データに対応する前記撮影動作制御信号データとを含む学習用データに基づいて前記ニューラルネットワークを学習させる学習装置とを備え、
    前記学習装置は、前記ニューラルネットワークを学習させる学習時において、前記ステップ間隔値及び前記ステップ数に基づき、前記学習用データを前記データ入力手段に段階的に入力して前記ニューラルネットワーク装置の学習状態が予め定められた学習状態となる最適ステップ間隔値及び最適ステップ数を求めるものであり、
    ロボットカメラ制御装置は、前記ニューラルネットワークが学習した後の自動制御時において、前記学習装置が前記学習時に求めた前記最適ステップ間隔値及び前記最適ステップ数に基づき、前記被写体検出装置からの前記被写体位置データを前記データ入力手段に入力し、前記ニューラルネットワークの出力信号データを前記撮影動作制御信号データとして前記ロボットカメラに出力して前記ロボットカメラの撮影動作を制御するものであることを特徴とするロボットカメラ制御装置。
  5. コンピュータを、ニューラルネットワークと、前記ニューラルネットワークに現在時刻以前のデータを段階的に入力する際の間隔を示すステップ間隔値を設定するステップ間隔値設定部と、前記間隔の数を示すステップ数を設定するステップ数設定部と、前記ステップ間隔値及び前記ステップ数に基づいて前記ニューラルネットワークに入力する現在時刻以前のデータを選択するデータ選択部として機能させることを特徴とするニューラルネットワークプログラム。
JP2008052299A 2008-03-03 2008-03-03 ニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラム Active JP5108563B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008052299A JP5108563B2 (ja) 2008-03-03 2008-03-03 ニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008052299A JP5108563B2 (ja) 2008-03-03 2008-03-03 ニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラム

Publications (2)

Publication Number Publication Date
JP2009211294A true JP2009211294A (ja) 2009-09-17
JP5108563B2 JP5108563B2 (ja) 2012-12-26

Family

ID=41184381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008052299A Active JP5108563B2 (ja) 2008-03-03 2008-03-03 ニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラム

Country Status (1)

Country Link
JP (1) JP5108563B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104616072A (zh) * 2015-01-23 2015-05-13 东北大学 一种基于区间优化的提高谷氨酸发酵产物浓度的方法
CN108388834A (zh) * 2017-01-24 2018-08-10 福特全球技术公司 利用循环神经网络和级联特征映射的对象检测
WO2019107455A1 (ja) 2017-11-28 2019-06-06 川崎重工業株式会社 技能伝承機械装置
WO2019187277A1 (ja) * 2018-03-27 2019-10-03 エバ・ジャパン株式会社 情報探索システム及びプログラム
WO2020100438A1 (ja) * 2018-11-13 2020-05-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
KR102204958B1 (ko) * 2019-10-28 2021-01-20 삼성에스디에스 주식회사 의료 검사 결과 데이터의 처리 방법
WO2023047531A1 (ja) * 2021-09-24 2023-03-30 富士通株式会社 データ収集プログラム,データ収集装置及びデータ収集方法
JP7357555B2 (ja) 2020-01-24 2023-10-06 日本放送協会 スライディングモード制御を行う制御装置及びプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02140073A (ja) * 1988-08-05 1990-05-29 Omron Tateisi Electron Co カメラの自動追尾制御装置,対象物の自動追尾装置,追尾制御を利用した対象物の方向検出装置,ならびに追尾制御を利用したロボット制御装置
JPH0581228A (ja) * 1991-09-19 1993-04-02 Hitachi Ltd ニユーラルネツトワークの構成方法および学習/想起システム
JPH05233062A (ja) * 1992-02-25 1993-09-10 Masanori Sugisaka 移動物体識別追尾システム
JPH06259398A (ja) * 1993-03-02 1994-09-16 Sharp Corp 波形生成装置
JPH06337852A (ja) * 1993-05-31 1994-12-06 Hitachi Ltd ニューラルネットワークによる時系列予測方法
JPH07234862A (ja) * 1993-12-27 1995-09-05 Nec Corp 精度保証最適化装置
JP2004056473A (ja) * 2002-07-19 2004-02-19 Matsushita Electric Ind Co Ltd 監視制御装置
JP2006023868A (ja) * 2004-07-07 2006-01-26 Toshiba Corp 解探索装置及びその初期値設定方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02140073A (ja) * 1988-08-05 1990-05-29 Omron Tateisi Electron Co カメラの自動追尾制御装置,対象物の自動追尾装置,追尾制御を利用した対象物の方向検出装置,ならびに追尾制御を利用したロボット制御装置
JPH0581228A (ja) * 1991-09-19 1993-04-02 Hitachi Ltd ニユーラルネツトワークの構成方法および学習/想起システム
JPH05233062A (ja) * 1992-02-25 1993-09-10 Masanori Sugisaka 移動物体識別追尾システム
JPH06259398A (ja) * 1993-03-02 1994-09-16 Sharp Corp 波形生成装置
JPH06337852A (ja) * 1993-05-31 1994-12-06 Hitachi Ltd ニューラルネットワークによる時系列予測方法
JPH07234862A (ja) * 1993-12-27 1995-09-05 Nec Corp 精度保証最適化装置
JP2004056473A (ja) * 2002-07-19 2004-02-19 Matsushita Electric Ind Co Ltd 監視制御装置
JP2006023868A (ja) * 2004-07-07 2006-01-26 Toshiba Corp 解探索装置及びその初期値設定方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104616072B (zh) * 2015-01-23 2017-12-01 东北大学 一种基于区间优化的提高谷氨酸发酵产物浓度的方法
CN104616072A (zh) * 2015-01-23 2015-05-13 东北大学 一种基于区间优化的提高谷氨酸发酵产物浓度的方法
CN108388834B (zh) * 2017-01-24 2023-08-22 福特全球技术公司 利用循环神经网络和级联特征映射的对象检测
CN108388834A (zh) * 2017-01-24 2018-08-10 福特全球技术公司 利用循环神经网络和级联特征映射的对象检测
WO2019107455A1 (ja) 2017-11-28 2019-06-06 川崎重工業株式会社 技能伝承機械装置
WO2019107454A1 (ja) 2017-11-28 2019-06-06 川崎重工業株式会社 技能伝承機械装置
US11977365B2 (en) 2017-11-28 2024-05-07 Kawasaki Jukogyo Kabushiki Kaisha Skill transfer mechanical apparatus
JP2019174200A (ja) * 2018-03-27 2019-10-10 エバ・ジャパン 株式会社 情報探索システム及びプログラム
WO2019187277A1 (ja) * 2018-03-27 2019-10-03 エバ・ジャパン株式会社 情報探索システム及びプログラム
WO2020100438A1 (ja) * 2018-11-13 2020-05-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP7472795B2 (ja) 2018-11-13 2024-04-23 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
KR102204958B1 (ko) * 2019-10-28 2021-01-20 삼성에스디에스 주식회사 의료 검사 결과 데이터의 처리 방법
JP7357555B2 (ja) 2020-01-24 2023-10-06 日本放送協会 スライディングモード制御を行う制御装置及びプログラム
WO2023047531A1 (ja) * 2021-09-24 2023-03-30 富士通株式会社 データ収集プログラム,データ収集装置及びデータ収集方法

Also Published As

Publication number Publication date
JP5108563B2 (ja) 2012-12-26

Similar Documents

Publication Publication Date Title
JP5108563B2 (ja) ニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラム
US5627586A (en) Moving body detection device of camera
JP4498104B2 (ja) 監視装置、その制御方法、およびプログラム
CN105282435B (zh) 变焦控制设备和变焦控制方法
US8525923B2 (en) Focusing method and apparatus, and recording medium for recording the method
US20150116502A1 (en) Apparatus and method for dynamically selecting multiple cameras to track target object
JP2010041299A (ja) 電子カメラ
JP6497965B2 (ja) 画像処理装置及び画像処理方法
CN105323470A (zh) 变焦控制设备和变焦控制方法
JP7146472B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2020060602A (ja) 焦点調整装置およびその制御方法ならびにプログラム
JP7214681B2 (ja) 被写体追尾装置、被写体追尾方法、コンピュータプログラム及び記憶媒体
JP2012257173A (ja) 追尾装置、追尾方法及びプログラム
JP7146507B2 (ja) 情報処理装置及びその制御方法
JPH10262164A (ja) 画像入力装置、画像入力方法および記憶媒体
CN115379195A (zh) 视频生成方法、装置、电子设备和可读存储介质
JP2009253449A (ja) 監視装置及び監視方法
JP2009017481A (ja) 撮影制御装置、撮影制御方法及びプログラム
KR100917166B1 (ko) 강의 촬영 장치 및 강의 촬영 방법
JP4231216B2 (ja) 仮想シーン撮影方法及びその装置
JP7397001B2 (ja) ロボットカメラソフトウェアと制御装置
JP7166837B2 (ja) 教師データ作成装置、教師データ作成方法、教師データ作成プログラム、学習装置及び撮像装置
JP2017216599A (ja) 撮像装置及びその制御方法
JP2017085439A (ja) 追尾装置
JP2006146963A (ja) 情報表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120911

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121005

R150 Certificate of patent or registration of utility model

Ref document number: 5108563

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250