JP5108563B2 - Neural network device, robot camera control device using the same, and neural network program - Google Patents
Neural network device, robot camera control device using the same, and neural network program Download PDFInfo
- Publication number
- JP5108563B2 JP5108563B2 JP2008052299A JP2008052299A JP5108563B2 JP 5108563 B2 JP5108563 B2 JP 5108563B2 JP 2008052299 A JP2008052299 A JP 2008052299A JP 2008052299 A JP2008052299 A JP 2008052299A JP 5108563 B2 JP5108563 B2 JP 5108563B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- data
- learning
- interval value
- robot camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 127
- 238000011156 evaluation Methods 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 5
- 238000005457 optimization Methods 0.000 description 17
- 238000012360 testing method Methods 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 15
- 238000000034 method Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 9
- 238000013500 data storage Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Feedback Control In General (AREA)
Description
本発明は、例えば動く物体の位置を予測計算するニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラムに関する。 The present invention relates to a neural network device that predicts and calculates the position of a moving object, a robot camera control device using the same, and a neural network program, for example.
近年、人間の脳の仕組みを模倣したニューラルネットワークをパターン認識や予測など様々な分野に適用する研究が行われている。ニューラルネットワークの構造としては、階層型ニューラルネットワーク、カスケードコリレーション型ニューラルネットワーク、リカレントニューラルネットワーク等が知られている。従来、例えば、ロボットの動作を制御する方法として、リカレントニューラルネットワークを利用したものが提案されている(例えば、特許文献1参照)。 In recent years, research has been conducted to apply a neural network imitating the mechanism of the human brain to various fields such as pattern recognition and prediction. As the structure of the neural network, a hierarchical neural network, a cascade correlation neural network, a recurrent neural network, and the like are known. Conventionally, for example, a method using a recurrent neural network has been proposed as a method for controlling the operation of a robot (see, for example, Patent Document 1).
特許文献1に記載されたロボットは、リカレントニューラルネットワークの入力層に入力した時系列の過去データに基づいた後ろ向き演算(バックプロパゲーション)による学習を行い、リカレントニューラルネットワークの重み係数が所定値に設定されると、対面する人間の動きに近い動きを実行するようになっている。
しかしながら、従来のものでは、過去データを入力する際に、不要な過去データが多かったり、逆に必要な過去データが欠落したりすると、ニューラルネットワークのパフォーマンスに悪影響を与えるため、ユーザーが、過去データを入力する範囲を何通りも設定し、所望の学習レベルに達したニューラルネットワークモデル(以下「最適モデル」という。)が得られるまで過去データの入力作業を繰り返し行っていた。したがって、従来のものでは、前述のように煩雑な作業を要するので、最適モデルの構築に長時間を要するという課題があった。 However, in the past, when inputting past data, if there is a lot of unnecessary past data, or if necessary past data is missing, the performance of the neural network will be adversely affected. The input range of the past data was repeatedly set until a neural network model (hereinafter referred to as “optimum model”) that reached a desired learning level was obtained. Therefore, since the conventional method requires complicated work as described above, there is a problem that it takes a long time to construct an optimum model.
本発明は、前述のような課題を解決するためになされたものであり、煩雑な作業の省力化を図ることができ、従来よりも短時間で最適モデルを構築することができるニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラムを提供することを目的とする。 The present invention has been made in order to solve the above-mentioned problems, and can save labor for complicated work, and can construct a neural network device capable of constructing an optimum model in a shorter time than in the past. An object of the present invention is to provide a robot camera control device and a neural network program using the same.
本発明のニューラルネットワーク装置は、被写体を撮影するカメラ装置及び雲台装置を搭載したロボットカメラの撮影動作を制御するニューラルネットワーク装置であって、ニューラルネットワークと、現在時刻以前のデータを前記ニューラルネットワークに段階的に入力する際の間隔を示すステップ間隔値を設定するステップ間隔値設定部と、前記間隔の数を示すステップ数を設定するステップ数設定部と、前記ステップ間隔値及び前記ステップ数に基づいて前記ニューラルネットワークに入力する現在時刻以前のデータを選択するデータ選択部と、を含み予め定められた単位時間毎に取得されたデータを前記ニューラルネットワークに入力するデータ入力手段と、前記ニューラルネットワークに入力した前記現在時刻以前のデータに対する前記ニューラルネットワークの出力信号データから前記ニューラルネットワークの学習状態を評価する学習状態評価手段と、前記ニューラルネットワークの学習状態が予め定められた学習状態となる最適ステップ間隔値及び最適ステップ数を探索するための探索領域を前記ステップ間隔値と前記ステップ数との組み合わせを絞り込むことにより設定する探索領域設定手段と、前記最適ステップ間隔値及び前記最適ステップ数を前記探索領域から探索する最適ステップ情報探索手段と、を備えた構成を有している。 The neural network device of the present invention is a neural network device for controlling the photographing operation of a robot camera equipped with a camera device and a pan head device for photographing a subject, and the neural network and data before the current time are stored in the neural network. Based on the step interval value setting unit for setting a step interval value indicating an interval when inputting in stages, a step number setting unit for setting the step number indicating the number of the intervals, the step interval value and the step number A data selection unit for selecting data before the current time to be input to the neural network, data input means for inputting data acquired at predetermined unit times to the neural network, and the neural network For data entered before the current time A learning state evaluation unit that evaluates a learning state of the neural network from output signal data of the neural network, and an optimum step interval value and an optimum number of steps that make the learning state of the neural network a predetermined learning state. Search area setting means for setting the search area by narrowing down the combination of the step interval value and the step number, and optimum step information search means for searching the optimum step interval value and the optimum step number from the search area, It has the structure provided with.
この構成により、本発明のニューラルネットワーク装置は、現在時刻以前のデータをニューラルネットワークに段階的に入力する際のステップ間隔値及びステップ数を設定し、ステップ間隔値及びステップ数に基づいてニューラルネットワークに入力する現在時刻以前のデータを選択するので、煩雑な作業の省力化を図ることができ、従来よりも短時間で最適モデルを構築することができる。 With this configuration, the neural network device of the present invention sets the step interval value and the number of steps when the data before the current time is input to the neural network in stages, and the neural network device based on the step interval value and the step number Since data before the current time to be input is selected, labor-saving work can be saved, and an optimal model can be constructed in a shorter time than in the past.
また、この構成により、本発明のニューラルネットワーク装置は、最適ステップ情報探索手段が、最適ステップ間隔値及び最適ステップ数を探索領域から探索するので、ニューラルネットワークの入力層を容易に最適化することができ、煩雑な作業の省力化を図ることができ、従来よりも短時間で最適モデルを構築することができる。 Also, with this configuration, the neural network device of the present invention can optimize the input layer of the neural network easily because the optimal step information search means searches the optimal step interval value and the optimal number of steps from the search area. It is possible to save labor for complicated work, and an optimum model can be constructed in a shorter time than conventional.
さらに、本発明のニューラルネットワーク装置は、前記探索領域設定手段は、前記ステップ間隔値に基づいて前記最適ステップ間隔値を探索するためのステップ間隔値探索領域を分割して第1の探索間隔を設定する第1の探索間隔設定部と、前記ステップ数に基づいて前記最適ステップ数を探索するためのステップ数探索領域を分割して第2の探索間隔を設定する第2の探索間隔設定部とを備えた構成を有している。 Further, in the neural network device of the present invention, the search area setting means divides a step interval value search area for searching for the optimum step interval value based on the step interval value and sets a first search interval. A first search interval setting unit configured to divide a step number search area for searching for the optimum step number based on the step number and set a second search interval. It has the composition provided.
この構成により、本発明のニューラルネットワーク装置は、探索領域設定手段が、第1の探索間隔設定部と第2の探索間隔設定部とを含むので、最適ステップ間隔値及び最適ステップ数を探索領域から短時間で探索することができる。 With this configuration, in the neural network device according to the present invention, the search region setting means includes the first search interval setting unit and the second search interval setting unit, so that the optimal step interval value and the optimal step number can be calculated from the search region. You can search in a short time.
本発明のロボットカメラ制御装置は、ニューラルネットワーク装置と、予め定められた被写体の位置を検出して被写体位置データを出力する被写体検出装置と、前記被写体を撮影するカメラ装置及び雲台装置を搭載したロボットカメラと、前記ロボットカメラの撮影動作を制御するための撮影動作制御信号データを出力するロボットカメラ制御装置と、前記被写体位置データと前記被写体位置データに対応する前記撮影動作制御信号データとを含む学習用データに基づいて前記ニューラルネットワークを学習させる学習装置とを備え、前記学習装置は、前記ニューラルネットワークを学習させる学習時において、前記ステップ間隔値及び前記ステップ数に基づき、前記学習用データを前記データ入力手段に段階的に入力して前記ニューラルネットワーク装置の学習状態が予め定められた学習状態となる最適ステップ間隔値及び最適ステップ数を求めるものであり、ロボットカメラ制御装置は、前記ニューラルネットワークが学習した後の自動制御時において、前記学習装置が前記学習時に求めた前記最適ステップ間隔値及び前記最適ステップ数に基づき、前記被写体検出装置からの前記被写体位置データを前記データ入力手段に入力し、前記ニューラルネットワークの出力信号データを前記撮影動作制御信号データとして前記ロボットカメラに出力して前記ロボットカメラの撮影動作を制御するものである構成を有している。 The robot camera control device of the present invention includes a neural network device, a subject detection device that detects a predetermined subject position and outputs subject position data, a camera device that captures the subject, and a pan head device. A robot camera, a robot camera control device that outputs shooting operation control signal data for controlling a shooting operation of the robot camera, and the subject position data and the shooting operation control signal data corresponding to the subject position data A learning device that learns the neural network based on learning data, and the learning device learns the learning data based on the step interval value and the number of steps when learning to learn the neural network. The neural network is inputted stepwise into the data input means. An optimal step interval value and an optimal number of steps at which a learning state of a network device is set to a predetermined learning state are obtained, and the robot camera control device performs the learning device during automatic control after learning by the neural network. Inputs the subject position data from the subject detection device to the data input means based on the optimum step interval value and the optimum number of steps obtained at the time of learning, and outputs the neural network output signal data to the photographing operation control. It is configured to output the signal data to the robot camera to control the shooting operation of the robot camera.
この構成により、本発明のロボットカメラ制御装置は、学習用データによって学習したニューラルネットワークの出力信号データによって、ロボットカメラの撮影動作を制御することができる。 With this configuration, the robot camera control device of the present invention can control the shooting operation of the robot camera by the output signal data of the neural network learned from the learning data.
本発明のニューラルネットワークプログラムは、被写体を撮影するカメラ装置及び雲台装置を搭載したロボットカメラの撮影動作を制御するニューラルネットワーク装置としてコンピュータを機能させるニューラルネットワークプログラムであって、前記コンピュータを、ニューラルネットワークと、現在時刻以前のデータを前記ニューラルネットワークに段階的に入力する際の間隔を示すステップ間隔値を設定するステップ間隔値設定部と、前記間隔の数を示すステップ数を設定するステップ数設定部と、前記ステップ間隔値及び前記ステップ数に基づいて前記ニューラルネットワークに入力する現在時刻以前のデータを選択するデータ選択部と、を含み予め定められた単位時間毎に取得されたデータを前記ニューラルネットワークに入力するデータ入力手段と、前記ニューラルネットワークに入力した前記現在時刻以前のデータに対する前記ニューラルネットワークの出力信号データから前記ニューラルネットワークの学習状態を評価する学習状態評価手段と、前記ニューラルネットワークの学習状態が予め定められた学習状態となる最適ステップ間隔値及び最適ステップ数を探索するための探索領域を前記ステップ間隔値と前記ステップ数との組み合わせを絞り込むことにより設定する探索領域設定手段と、前記最適ステップ間隔値及び前記最適ステップ数を前記探索領域から探索する最適ステップ情報探索手段と、して機能させる構成を有している。 The neural network program of the present invention is a neural network program that causes a computer to function as a neural network device that controls the photographing operation of a camera device that shoots a subject and a robot camera equipped with a pan head device. A step interval value setting unit for setting a step interval value indicating an interval when data before the current time is input to the neural network stepwise, and a step number setting unit for setting the step number indicating the number of the intervals And a data selection unit that selects data before the current time to be input to the neural network based on the step interval value and the number of steps, and the data acquired at predetermined unit times is included in the neural network Enter in Data input means, learning state evaluation means for evaluating the learning state of the neural network from output signal data of the neural network for the data before the current time input to the neural network, and the learning state of the neural network in advance A search area setting means for setting a search area for searching for an optimal step interval value and an optimal step number in a determined learning state by narrowing down a combination of the step interval value and the step number; and the optimal step interval It has the structure which functions as an optimal step information search means for searching the value and the optimal step number from the search area .
この構成により、本発明のニューラルネットワークプログラムは、現在時刻以前のデータをニューラルネットワークに段階的に入力する際のステップ間隔値及びステップ数を設定し、ステップ間隔値及びステップ数に基づいてニューラルネットワークに入力する現在時刻以前のデータを選択するので、煩雑な作業の省力化を図ることができ、従来よりも短時間で最適モデルを構築することができる。 With this configuration, the neural network program of the present invention sets the step interval value and the step number when inputting the data before the current time to the neural network step by step, and the neural network program based on the step interval value and the step number. Since data before the current time to be input is selected, labor-saving work can be saved, and an optimal model can be constructed in a shorter time than in the past.
本発明は、煩雑な作業の省力化を図ることができ、従来よりも短時間で最適モデルを構築することができるという効果を有するニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラムを提供することができるものである。 The present invention is able to save labor for complicated work, and has the effect that an optimum model can be constructed in a shorter time than the conventional one, and a robot camera control device and a neural network program using the same Can be provided.
以下、本発明の一実施の形態について図面を用いて説明する。なお、本発明に係るロボットカメラ制御装置を、放送局のスタジオ内における人物を被写体として撮影するロボットカメラの撮像動作制御に適用した例を挙げて説明する。このロボットカメラ制御装置は、カメラマンに代わってロボットカメラに被写体を撮影させるものであって、人間らしい自然なカメラワークをロボットカメラに行わせようとするものである。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings. An example in which the robot camera control device according to the present invention is applied to imaging operation control of a robot camera that takes a person as a subject in a studio of a broadcasting station will be described. This robot camera control device causes a robot camera to shoot a subject on behalf of a cameraman, and causes the robot camera to perform human-like natural camera work.
まず、本実施の形態におけるロボットカメラ制御装置の構成について説明する。図1は、本実施の形態におけるロボットカメラ制御装置1の概要構成を示す図である。
First, the configuration of the robot camera control device in the present embodiment will be described. FIG. 1 is a diagram showing a schematic configuration of a robot
図1に示すように、ロボットカメラ制御装置1は、被写体を撮影するセンサカメラ10と、被写体の位置を検出する被写体検出装置20と、被写体を撮影するロボットカメラ30と、ロボットカメラ30を操作するロボットカメラ操作器(以下「ロボカメ操作器」という。)40と、ニューラルネットワーク装置を有し、その学習及びロボットカメラ30の撮影動作を制御する学習制御装置50とを備えている。
As shown in FIG. 1, the robot
図1において、実線の矢印は、学習制御装置50が有するニューラルネットワーク装置の学習時における信号の流れを示し、破線の矢印は、学習制御装置50がロボットカメラ30を自動制御する自動制御時における信号の流れを示す。なお、学習時とは、ニューラルネットワーク装置を学習させるための学習用データと、学習したニューラルネットワーク装置をテストするためのテスト用データとを取得する期間と、ニューラルネットワーク装置を学習用データで学習させる期間と、学習したニューラルネットワーク装置をテスト用データでテストする期間とを含む期間をいう。
In FIG. 1, a solid arrow indicates a signal flow during learning of the neural network device included in the
センサカメラ10は、例えば、所定間隔をおいて設けた2つのカメラ装置を備え、スタジオの天井に固定され、予め定めた領域内における人物を俯瞰してステレオ立体視が行えるようになっている。また、センサカメラ10は、2つのカメラ装置が人物を撮影したそれぞれの撮影信号を被写体検出装置20に単位時間毎、例えば17ミリ秒毎に出力するようになっている。
The
被写体検出装置20は、例えば、画像処理を行うコンピュータで構成され、センサカメラ10からのステレオ立体視による映像信号と、スタジオ内において仮想的に予め定めた3次元軸(x、y、z軸)との関係から被写体の位置を検出し、被写体の位置を示す被写体位置データを学習制御装置50に出力するようになっている。
The
ロボットカメラ30は、カメラ装置及び雲台装置(以下「雲台装置等」という。)と、ロボカメ操作器40又は学習制御装置50が指示した撮影場所に移動する移動装置とを備え、ロボカメ操作器40からの制御信号データ(以下「操作制御信号データ」という。)、又は学習制御装置50からの制御信号データ(以下「撮影動作制御信号データ」という。)に応じた撮影動作を行うようになっている。具体的には、ロボットカメラ30は、操作制御信号データ又は撮影動作制御信号データにより、雲台装置等及び移動装置が制御され、パン、チルト、ズーム、フォーカス、撮影場所移動等の撮影動作を行うようになっている。
The
ロボカメ操作器40は、熟練したカメラマンが操作するものであって、例えば、ロボットカメラ30の撮影映像を表示するモニタ、ロボットカメラ30の雲台装置等を遠隔操作する操作ハンドルやスイッチ等を備えている。ロボカメ操作器40によってロボットカメラ30が操作されているとき、ロボットカメラ30におけるパン、チルト、ズーム、フォーカス、撮影場所移動等の撮影動作の状態を示すデータ(以下「撮影動作状態データ」という。)を、ロボットカメラ30が学習制御装置50に出力するようになっている。
The robot
次に、学習制御装置50の構成を図2に基づいて説明する。図2は、本実施の形態におけるロボットカメラ制御装置1をブロック図で示したものであって、学習制御装置50の詳細な構成を示す。
Next, the configuration of the
学習制御装置50は、データを取得するデータ取得部51と、データを記憶するデータ記憶部52と、計算パラメータを入力する計算パラメータ入力部53と、ニューラルネットワーク装置100とを備えている。なお、図示を省略したが、学習制御装置50は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、入出力インターフェース回路、記憶装置、ディスプレイ等を備えたコンピュータで構成される。この学習制御装置50は、本発明に係るロボットカメラ制御装置及び学習装置を構成する。
The
データ取得部51は、ニューラルネットワーク装置100の学習時において、被写体検出装置20からの被写体位置データと、ロボカメ操作器40によって操作されるロボットカメラ30からの撮影動作状態データとを単位時間毎に取得するようになっている。
The
データ記憶部52は、データ取得部51が取得した被写体位置データ及び撮影動作状態データを、ニューラルネットワーク装置100を学習させるための学習用データ、又は学習済みのニューラルネットワーク110の性能を評価するためのテスト用データとして記憶するようになっている。
The
計算パラメータ入力部53は、ニューラルネットワーク装置100に現在時刻以前のデータ(以下「以前データ」という。)を入力する際に、以前データのステップ間隔値を入力するステップ間隔値入力部53aと、ステップ数を入力するステップ数入力部53bと、ステップ間隔値及びステップ数以外の計算パラメータを入力するパラメータ入力部53cとを備えている。なお、計算パラメータ入力部53は、本発明に係る探索領域設定手段を構成する。
The calculation
ニューラルネットワーク装置100は、例えば入力層、中間層及び出力層を含む階層型のニューラルネットワーク110と、ニューラルネットワーク110の入力層を最適化する入力層最適化手段120と、ニューラルネットワーク110の学習評価を行う学習評価部130とを備えている。
The
入力層最適化手段120は、ニューラルネットワーク110の入力層に以前データを入力するデータ入力部121と、ステップ間隔値及びステップ数(以下、「ステップ情報」と総称する。)を設定するステップ情報設定部122とを備えている。なお、入力層最適化手段120は、本発明に係るデータ入力手段、入力層最適化部及び最適ステップ情報探索手段を構成する。
The input layer optimizing means 120 sets the step information setting unit for inputting the previous data to the input layer of the
データ入力部121は、学習時においてデータ記憶部52から学習用データ又はテストデータを、自動制御時において被写体検出装置20から被写体位置データを、それぞれ、入力するようになっている。なお、データ入力部121は、本発明に係るデータ選択部を構成する。
The
ここで、データ入力部121が、ニューラルネットワーク110の入力層に以前データを入力する構成としているのは、カメラマンが被写体を撮影する場合、被写体の瞬間位置のみに応じてカメラを操作するのではなく、被写体の過去位置も考慮しながら撮影するからである。そのため、ステップ情報設定部122はステップ情報を設定し、データ入力部121はステップ情報に応じて以前データをニューラルネットワーク110の入力層に入力する構成となっている。なお、ステップ情報設定部122は、本発明に係るステップ間隔値設定部及びステップ数設定部を構成する。
Here, the
以下、図3を用いて、以前データ及びステップ情報について説明する。 Hereinafter, previous data and step information will be described with reference to FIG.
図3において、黒丸で示した点は、単位時間毎に撮影された撮影データの時間的位置を表している。また、現在時刻tにおける被写体位置のデータをStで表している。以前データとは、現在時刻t以前の被写体位置のデータであって、時刻t、t−i、t−2i、t−3i、・・・、t−uiにそれぞれ対応する被写体位置のデータSt、St−i、St−2i、St−3i、・・・、St−uiをいう。ここで、各データの間隔を示す記号iがステップ間隔値を示し、図3に示した例では、ステップ間隔値i=3としている。また、ステップ間隔値iの総数を示す記号uがステップ数を示す。 In FIG. 3, the points indicated by black circles represent the temporal positions of the shooting data shot every unit time. Also, currently represents the data of the object position at time t by S t. The previous data, a data of the current time t earlier object position, time t, t-i, t- 2i, t-3i, ···, data of the corresponding object position respectively t-ui S t , St-i , St-2i , St-3i , ..., St-ui . Here, the symbol i indicating the interval of each data indicates the step interval value, and in the example shown in FIG. 3, the step interval value i = 3. A symbol u indicating the total number of step interval values i indicates the number of steps.
また、被写体位置のデータSと同様に、カメラマンがロボカメ操作器40を介してロボットカメラ30を操作した際のロボットカメラ30の撮影動作状態データrも、各時刻に対応する撮影動作状態データrt、rt−i、rt−2i、rt−3i、・・・、rt−uiを含む。同様に、ロボットカメラ30の撮影動作状態データRも、各時刻に対応する撮影動作状態データRt、Rt−i、Rt−2i、Rt−3i、・・・、Rt−uiを含む。
Similarly to the subject position data S, the shooting operation state data r of the
図2に戻り、構成の説明を続ける。 Returning to FIG. 2, the description of the configuration is continued.
学習評価部130は、以前データに対するニューラルネットワーク110の出力信号データからニューラルネットワーク110の学習状態を評価するようになっている。また、学習評価部130は、ニューラルネットワーク110の学習状態に応じて、ニューラルネットワーク110における入力層と中間層との間、中間層と出力層との間の重み係数を更新するようになっている。なお、学習評価部130は、本発明に係る学習状態評価手段を構成する。
The learning
次に、本実施の形態におけるロボットカメラ制御装置1の動作について説明する。なお、ロボットカメラ制御装置1の動作としては、(1)学習用データ及びテスト用データを取得する動作と、(2)最適モデルを生成する動作と、(3)ロボットカメラ30を自動制御する動作とがあり、以下、順に説明する。
Next, the operation of the robot
(1)学習用データ及びテスト用データを取得する動作
図2において、熟練したカメラマンがロボカメ操作器40を操作すると、ロボカメ操作器40は、操作制御信号データをロボットカメラ30に出力する。ロボットカメラ30は、操作制御信号データに基づいて被写体を撮影し、撮影動作状態データをデータ取得部51に単位時間毎に出力する。並行して、被写体検出装置20は、センサカメラ10が撮影した被写体画像に基づいて被写体の位置を検出し、被写体位置データをデータ取得部51に単位時間毎に出力する。
(1) Operation for Acquiring Learning Data and Test Data In FIG. 2, when a skilled cameraman operates the robot
そして、データ取得部51は、被写体位置データと、この被写体位置データに対応する撮影動作状態データとを対応づけた学習用データを生成し、所定のファイル形式でデータ記憶部52に記憶する。学習用データを記憶するファイル形式として、例えば、csv(Comma Separated Values)ファイル形式を用いる場合、被写体位置データと撮影動作状態データとを単位時間毎に対応させ、各データをカンマで区切って並べたファイルとなる。
Then, the
なお、テスト用データも学習用データと同様にデータ取得部51が取得し、データ記憶部52に記憶する。
The test data is also acquired by the
(2)最適モデルを生成する動作
図4は、最適モデルを生成する動作を示すフローチャートである。
(2) Operation for Generating Optimal Model FIG. 4 is a flowchart showing an operation for generating an optimal model.
まず、計算パラメータ入力部53は、入力パラメータを設定する(ステップS11)。具体的には、計算パラメータ入力部53は、図5に示すようなGUI(Graphical User Interface)画面をディスプレイに表示し、利用者にパラメータの入力を促す。
First, the calculation
図5に示すGUI画面は、学習用データを指定する学習用データ指定部101と、テスト用データを指定するテスト用データ指定部102と、ニューラルネットワーク110の最適モデルデータを記憶するファイル情報を指定する最適モデルデータ指定部103と、ニューラルネットワーク110に入力する位置データの座標軸を指定する入力変数チェックボックス104と、ニューラルネットワーク110に制御させる座標軸を指定する出力変数チェックボックス105と、ステップ情報の探索領域を指定する探索領域指定部106とを含む。また、探索領域指定部106は、最大過去ステップ値の入力部106aと、その間隔値を指定する間隔値指定ボックス106bと、ステップ間隔値の入力部106cと、その間隔値を指定する間隔値指定ボックス106dとを含む。なお、最大過去ステップ値は、後述するように、ステップ数uを定めるための値である。また、間隔値指定ボックス106bは、本発明に係る第2の探索間隔設定部を構成する。また、間隔値指定ボックス106dは、本発明に係る第1の探索間隔設定部を構成する。
The GUI screen shown in FIG. 5 specifies learning
図5に示した例では、入力変数としては、x軸、y軸及びz軸に関する変数のうち、x軸及びy軸に関する変数が指定されている。また、出力変数としては、パン、チルト、ズーム、フォーカス、X軸、Y軸及びZ軸に関する変数のうち、パン及びチルトに関する変数が指定されている。なお、X軸、Y軸及びZ軸に関する変数は、ロボットカメラ30の移動装置に撮影場所を移動させる動作を行わせるためのものである。
In the example shown in FIG. 5, among the variables related to the x-axis, y-axis, and z-axis, variables related to the x-axis and y-axis are designated as the input variables. As the output variable, a variable related to pan and tilt is specified among variables related to pan, tilt, zoom, focus, X axis, Y axis, and Z axis. Note that the variables related to the X axis, the Y axis, and the Z axis are for causing the moving device of the
また、探索領域指定部106においては、最大過去ステップ値の入力部106aに「5,10−30,50」、間隔値指定ボックス106bに「5」、ステップ間隔値の入力部106cに「1−5,20」、間隔値指定ボックス106dに「2」が、それぞれ、記述された状態が示されている。
In the search
ここで、記号「,」は論理演算における論理積(アンド)を示し、記号「−」は対象とする領域を示している。記号「−」を用いているのは、以前データにおける1ステップの変化ではニューラルネットワーク110の特徴が大きく変化しないので、最大過去ステップ値の入力部106a及びステップ間隔値の入力部106cにおいて記号「−」で範囲を指定し、それぞれ、間隔値指定ボックス106b及び間隔値指定ボックス106dでの指定によって探索間隔が大まかに設定できるようになっている。
Here, the symbol “,” indicates a logical product (AND) in the logical operation, and the symbol “−” indicates a target region. The symbol “-” is used because the characteristic of the
具体的には、図5に示した例では、最大過去ステップ値の入力部106aにおいて、「5」、「10から30まで」、「50」が指定されていることになる。加えて、間隔値指定ボックス106bに「5」が指定されているので、最大過去ステップ値として、「5」、「10」、「15」、「20」、「25」、「30」、「50」が指定されていることになる。
Specifically, in the example illustrated in FIG. 5, “5”, “from 10 to 30”, and “50” are designated in the maximum past step
同様に、ステップ間隔値の入力部106cに「1−5,20」が記述され、間隔値指定ボックス106dに「2」が記述されているので、ステップ間隔値としては、「1」、「3」、「5」、「20」が指定されていることになる。ここで指定されたステップ間隔値が図3において記号iで示したステップ間隔値に相当する。一方、図3において記号uで示したステップ数は、最大過去ステップ値をステップ間隔値で除して得る。例えば、最大過去ステップ値=50、ステップ間隔値i=2のとき、ステップ数u=25である。ただし、この除算において割り切れないときは、割り切れる数値のうちの最大値を用いるのが好ましい。例えば、最大過去ステップ値=50、ステップ間隔値i=3のとき、ステップ数u=16とすればよい。なお、最大過去ステップ値の入力に代えてステップ数uを直接入力する構成としてもよい。
Similarly, “1-5, 20” is described in the step interval
図4に戻り、ステップS11において設定したパラメータを使用して、ステップ情報設定部122は、探索領域から全i、uの組み合わせを計算する(ステップS12)。具体的には、図5で設定した探索領域におけるステップ間隔値i、ステップ数uの組み合わせは以下のようになる。 Returning to FIG. 4, using the parameters set in step S11, the step information setting unit 122 calculates a combination of all i and u from the search area (step S12). Specifically, the combinations of the step interval value i and the number of steps u in the search area set in FIG. 5 are as follows.
(i,u)=(1,5)、(3,1)、(5,1)、(1,10)、(1,15)、(1,20)、(1,25)、(1,30)、(3,3)、(3,5)、(3,6)、(3,8)、(3,10)、(5,2)、(5,3)、(5,4)、(5,5)、(5,6)、(1,50)、(3,16)、(5,10)、(20,1)、(20,2) (I, u) = (1,5), (3,1), (5,1), (1,10), (1,15), (1,20), (1,25), (1 , 30), (3, 3), (3, 5), (3, 6), (3, 8), (3, 10), (5, 2), (5, 3), (5, 4 ), (5,5), (5,6), (1,50), (3,16), (5,10), (20,1), (20,2)
続いて、入力層最適化手段120は、ステップS11において指定した学習用データをデータ記憶部52から読み出し、全i、uの組み合わせについて、学習用データを用いてニューラルネットワーク110を学習させる(ステップS13)。本実施の形態では、誤差逆伝播法により学習処理を行う例を挙げ、図6に基づいて説明する。
Subsequently, the input layer optimization unit 120 reads the learning data specified in step S11 from the
図6に示すように、入力層最適化手段120は、ステップS21において時刻変数tを初期化し、ステップS22及びS23において、時刻変数tが(i×u)より大きくなるまで時刻変数tを増加させる。 As shown in FIG. 6, the input layer optimization unit 120 initializes the time variable t in step S21, and increases the time variable t until the time variable t becomes larger than (i × u) in steps S22 and S23. .
入力層最適化手段120は、ステップS22においてt≧(i×u)と判断した場合、ニューラルネットワーク110に学習用データの被写体位置データSt、St−i、St−2i、St−3i、・・・、St−uiを入力し、ニューラルネットワーク110は、前向き演算によってロボットカメラ30の予測撮影動作状態データRt+1を計算する(ステップS24)。
When the input layer optimization unit 120 determines that t ≧ (i × u) in step S <b> 22, the subject position data S t , S t−i , S t−2i , S t− of the learning data is sent to the
次に、学習評価部130は、ニューラルネットワーク110が求めたロボットカメラ30の予測撮影動作状態データRt+1と、学習用データに含まれる時刻(t+1)における位置、すなわち、熟練したカメラマンにより実際に制御された際の時刻(t+1)におけるロボットカメラ30の撮影動作状態データrt+1とについて、例えばパン軸値及びチルト軸値の二乗誤差の総和値e2を計算する(ステップS25)。
Next, the learning
次に、学習評価部130は、後ろ向き演算によってニューラルネットワーク110の重み係数を更新する(ステップS26)。
Next, the learning
次に、入力層最適化手段120は、時刻変数tが撮影時刻Tと等しいか否か判断する(ステップS27)。なお、撮影時刻T情報は、例えば学習用データで予め指定される。 Next, the input layer optimization unit 120 determines whether or not the time variable t is equal to the shooting time T (step S27). The photographing time T information is designated in advance by learning data, for example.
ステップS27において、時刻変数tが撮影時刻Tと等しいと判断しなかった場合、入力層最適化手段120は、時刻変数tをインクリメントし(ステップS28)、ステップS24の処理に戻る。 If it is not determined in step S27 that the time variable t is equal to the shooting time T, the input layer optimization unit 120 increments the time variable t (step S28), and the process returns to step S24.
一方、ステップS27において、時刻変数tが撮影時刻Tと等しいと判断した場合、入力層最適化手段120は、ニューラルネットワーク110の学習が終了したか否かを判断し(ステップS29)、学習が終了したと判断した場合は学習処理を終了し、学習が終了したと判断しなかった場合はステップS21の処理に戻る。
On the other hand, if it is determined in step S27 that the time variable t is equal to the shooting time T, the input layer optimization unit 120 determines whether learning of the
ここで、前述した学習処理について図7に基づき具体的に説明する。説明を簡単にするため、i=3、u=5、撮影単位時間=1(秒)とする。この場合において、図7は、学習させる被写体位置の以前データの推移を示している。この例において、被写体位置の以前データをニューラルネットワーク110に入力開始するのは、最初のデータ(左端の黒点)から(i×u)=15(秒)後の時点であるので、図7において、その時刻を開始時刻(=0)とし、撮影終了時刻Tをその9(秒)後としている。
Here, the learning process described above will be specifically described with reference to FIG. In order to simplify the description, i = 3, u = 5, and shooting unit time = 1 (second). In this case, FIG. 7 shows the transition of the previous data of the subject position to be learned. In this example, the input of the previous data of the subject position to the
開始時刻において入力するのは被写体位置の以前データD0である。図6のステップS28において時刻変数tがインクリメントされるので、D1、D2、・・・、D9と以前データを順次入力することになる。そして、以前データD9によって重み係数が更新された後、ステップS29で学習が終了したか否かが判断される。ここで、学習が終了したと判断されなかった場合に、ステップS21において時刻変数tが初期化される。これは、再度、以前データD0からD9までを順次入力することを意味している。一般に、入力する以前データが同じデータであっても、学習を繰り返すに従って、ニューラルネットワーク110の学習状態を向上させることができる。
Is a previous data D 0 in the subject position to enter at the start time. Since the time variable t is incremented in step S28 in FIG. 6, D 1, D 2, ···, it will be sequentially input data in the past and D 9. Then, before after weighting coefficients are updated by the data D 9, whether the learning is completed it is determined in step S29. Here, when it is not determined that the learning has ended, the time variable t is initialized in step S21. This means that the previous data D 0 to D 9 are sequentially input again. In general, even if the previous data to be input is the same data, the learning state of the
次に、ステップS29において、ニューラルネットワーク110の学習が終了したか否かを判断する手法の例を示す。本実施の形態に示したように、ニューラルネットワーク110が階層型の場合は、例えば、ニューラルネットワーク110の全ての入出力パターンについて、ステップS25で求めた総和値e2が、事前に設定した閾値E2よりも小さくなったときを学習の終了時とすることができる。この閾値Eは被写体や撮影シーンに応じて定めるのが好ましい。
Next, an example of a technique for determining whether or not learning of the
図4に戻り、前述のように学習したニューラルネットワーク110に対し、全i、uの組み合わせについて、テスト用データを用いて評価値を計算する(ステップS14)。この処理の一例について、図8に示すフローチャートを用いて説明する。
Returning to FIG. 4, for the
図8に示すように、入力層最適化手段120は、ステップS31において時刻変数tを初期化し、ステップS32及びS33において、時刻変数tが(i×u)より大きくなるまで時刻変数tを増加させるとともに、ロボットカメラ30の雲台装置等における各軸値の二乗誤差の総和値et 2=0とする。
As shown in FIG. 8, the input layer optimization unit 120 initializes the time variable t in step S31, and increases the time variable t until the time variable t becomes larger than (i × u) in steps S32 and S33. At the same time, it is assumed that the total value e t 2 = 0 of the square error of each axis value in the pan head device of the
入力層最適化手段120は、ステップS32においてt≧(i×u)と判断した場合、ニューラルネットワーク110にテスト用データの被写体位置データSt、St−i、St−2i、St−3i、・・・St−uiを学習済みニューラルネットワーク110に入力し、ニューラルネットワーク110は、前向き演算によってロボットカメラ30の予測撮影動作状態データRt+1を計算する(ステップS34)。
If the input layer optimization unit 120 determines that t ≧ (i × u) in step S32, the subject network position data S t , S t−i , S t−2i , S t− 3 t ,... S t-ui are input to the learned
次に、学習評価部130は、ニューラルネットワーク110が求めたロボットカメラ30の予測撮影動作状態データRt+1と、テスト用データに含まれる時刻(t+1)における位置、すなわち、熟練したカメラマンにより実際に制御された際の時刻(t+1)におけるロボットカメラ30の撮影動作状態データrt+1とについて、例えばパン軸値及びチルト軸値の二乗誤差の総和et 2を計算する(ステップS35)。
Next, the learning
次に、入力層最適化手段120は、時刻変数tが撮影時刻Tと等しいか否か判断する(ステップS36)。なお、撮影時刻Tは、例えばテスト用データで予め指定される。 Next, the input layer optimization unit 120 determines whether or not the time variable t is equal to the shooting time T (step S36). Note that the photographing time T is designated in advance by test data, for example.
ステップS36において、時刻変数tが撮影時刻Tと等しいと判断しなかった場合、入力層最適化手段120は、時刻変数tをインクリメントし(ステップS37)、ステップS34の処理に戻る。 If it is determined in step S36 that the time variable t is not equal to the shooting time T, the input layer optimization unit 120 increments the time variable t (step S37), and the process returns to step S34.
一方、ステップS36において、時刻変数tが撮影時刻Tと等しいと判断した場合、入力層最適化手段120は、ニューラルネットワーク110の評価値を数1により計算し(ステップS38)、評価値の計算処理を終了する。
On the other hand, if it is determined in step S36 that the time variable t is equal to the shooting time T, the input layer optimization unit 120 calculates the evaluation value of the
なお、ニューラルネットワーク110の評価値は、この方法によるものに限定されるものではなく、例えば、t=(i×u)〜TにおけるRt+1とrt+1との相関係数を用いてもよい。
Note that the evaluation value of the
図4に戻り、入力層最適化手段120は、ステップS14において求めた評価値のうち、最良の評価値が得られたステップ情報(以下「最適ステップ情報」という。)、すなわち、最適ステップ間隔値及び最適ステップ数の組み合わせとなるi、u各1つずつのデータと、最良の評価値が得られた最適モデルデータとを、図5に示した最適モデルデータ指定部103で指定したファイル情報で、図示しない記憶装置に出力し(ステップS15)、最適モデル生成処理を終了する。
Returning to FIG. 4, the input layer optimization unit 120 obtains step information (hereinafter referred to as “optimum step information”) from which the best evaluation value is obtained among the evaluation values obtained in step S <b> 14, that is, an optimum step interval value. In addition, the file information designated by the optimum model
(3)ロボットカメラ30を自動制御する動作
次に、ロボットカメラ30を自動制御する動作を図2に基づいて説明する。
(3) Operation for automatically controlling the
まず、入力層最適化手段120は、最適モデル生成処理において記憶された最適ステップ情報のデータ及び最適モデルデータを図示しない記憶装置から読み出し、これらに基づいてニューラルネットワーク110を構築する。その結果、ニューラルネットワーク110の入力層のユニット数は(u+1)と入力変数の個数との積で示される。
First, the input layer optimizing means 120 reads the data of the optimum step information and the optimum model data stored in the optimum model generation process from a storage device (not shown), and constructs the
次に、センサカメラ10は、ステレオ立体視による被写体の撮影を行い、その映像信号を被写体検出装置20に単位時間毎に出力する。
Next, the
次に、被写体検出装置20は、ステレオ立体視による映像信号と、スタジオ内において仮想的に予め定めた3次元軸との関係から、画像処理を行って被写体の位置を検出し、被写体の位置を示す被写体位置データを学習制御装置50のデータ入力部121に送る。
Next, the
次に、データ入力部121は、ニューラルネットワーク110の入力層に被写体位置データを単位時間毎に、最適ステップ情報に基づいて選択して入力する。例えば、最適ステップ情報がステップ間隔数i=3、ステップ数u=2の場合を例に挙げる。この場合、データ入力部121は、単位時間毎に順次入力する被写体位置データから、現在時刻の被写体位置データと、現在時刻から3単位時間前の被写体位置データと、現在時刻から6単位時間前の被写体位置データとを選択して入力層に入力する。
Next, the
ニューラルネットワーク110は、入力層が入力した被写体位置データに基づいてロボットカメラ30の撮影動作状態を予測する計算をし、計算結果のデータを撮影動作制御信号データとしてロボットカメラ30に出力する。
The
そして、ロボットカメラ30は、学習制御装置50からの撮影動作制御信号データに応じた撮影動作、例えばパン動作、チルト動作等を行う。
Then, the
なお、図4、図6及び図8に示した各ステップの処理をプログラミングし、当該プログラムによってコンピュータを動作させることにより、当該プログラムは、コンピュータをロボットカメラ制御装置1として機能させることができる。この場合、コンピュータは、図2に示した構成を有することとなる。
Note that by programming the processing of each step shown in FIGS. 4, 6, and 8 and operating the computer by the program, the program can cause the computer to function as the robot
以上のように、本実施の形態におけるロボットカメラ制御装置1によれば、以前データをニューラルネットワークに段階的に入力する際のステップ間隔値及びステップ数を設定する構成としたので、煩雑な作業の省力化を図ることができ、従来よりも短時間で最適モデルを構築することができる。
As described above, according to the robot
なお、前述の実施の形態において、本発明に係るネットワーク装置をロボットカメラの撮像動作制御に適用した例を挙げて説明したが、本発明はこれに限定されるものではなく、例えば、移動する人物や物体の位置を予測する予測装置に適用することもできる。 In the above-described embodiment, the network apparatus according to the present invention has been described as an example applied to the imaging operation control of the robot camera. However, the present invention is not limited to this, for example, a moving person It can also be applied to a prediction device that predicts the position of an object.
以上のように、本発明に係るニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラムは、煩雑な作業の省力化を図ることができ、従来よりも短時間で最適モデルを構築することができるという効果を有し、例えば動く物体の位置を予測計算するニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラム等として有用である。 As described above, the neural network device according to the present invention, the robot camera control device using the neural network device, and the neural network program can save labor for complicated work and construct an optimum model in a shorter time than before. For example, it is useful as a neural network device that predicts and calculates the position of a moving object, a robot camera control device using the same, and a neural network program.
1 ロボットカメラ制御装置
10 センサカメラ
20 被写体検出装置
30 ロボットカメラ
40 ロボカメ操作器
50 学習制御装置(ロボットカメラ制御装置、学習装置)
51 データ取得部
52 データ記憶部
53 計算パラメータ入力部(探索領域設定手段)
53a ステップ間隔値入力部
53b ステップ数入力部
53c パラメータ入力部
100 ニューラルネットワーク装置
101 学習用データ指定部
102 テスト用データ指定部
103 最適モデルデータ指定部
104 入力変数チェックボックス
105 出力変数チェックボックス
106 探索領域指定部
106a 最大過去ステップ値の入力部
106b 間隔値指定ボックス(第2の探索間隔設定部)
106c ステップ間隔値の入力部
106d 間隔値指定ボックス(第1の探索間隔設定部)
110 ニューラルネットワーク
120 入力層最適化手段(データ入力手段、入力層最適化部、最適ステップ情報探索手段)
121 データ入力部(データ選択部)
122 ステップ情報設定部(ステップ間隔値設定部、ステップ数設定部)
130 学習評価部(学習状態評価手段)
DESCRIPTION OF
51
53a Step interval
106c Step interval
110 neural network 120 input layer optimization means (data input means, input layer optimization unit, optimum step information search means)
121 Data input part (data selection part)
122 Step information setting unit (step interval value setting unit, step number setting unit)
130 learning evaluation part (learning state evaluation means)
Claims (4)
ニューラルネットワークと、
現在時刻以前のデータを前記ニューラルネットワークに段階的に入力する際の間隔を示すステップ間隔値を設定するステップ間隔値設定部と、前記間隔の数を示すステップ数を設定するステップ数設定部と、前記ステップ間隔値及び前記ステップ数に基づいて前記ニューラルネットワークに入力する現在時刻以前のデータを選択するデータ選択部と、を含み予め定められた単位時間毎に取得されたデータを前記ニューラルネットワークに入力するデータ入力手段と、
前記ニューラルネットワークに入力した前記現在時刻以前のデータに対する前記ニューラルネットワークの出力信号データから前記ニューラルネットワークの学習状態を評価する学習状態評価手段と、
前記ニューラルネットワークの学習状態が予め定められた学習状態となる最適ステップ間隔値及び最適ステップ数を探索するための探索領域を前記ステップ間隔値と前記ステップ数との組み合わせを絞り込むことにより設定する探索領域設定手段と、
前記最適ステップ間隔値及び前記最適ステップ数を前記探索領域から探索する最適ステップ情報探索手段と、
を備えたことを特徴とするニューラルネットワーク装置。 A neural network device for controlling a photographing operation of a robot camera equipped with a camera device and a pan head device for photographing a subject,
A neural network ;
A step interval value setting unit for setting a step interval value indicating an interval when inputting data before the current time stepwise into the neural network, a step number setting unit for setting a step number indicating the number of the intervals, A data selection unit that selects data before the current time to be input to the neural network based on the step interval value and the number of steps, and inputs data acquired every predetermined unit time to the neural network. Data input means,
Learning state evaluation means for evaluating the learning state of the neural network from the output signal data of the neural network for the data before the current time input to the neural network;
A search region for setting a search region for searching for an optimal step interval value and an optimal step number at which the learning state of the neural network becomes a predetermined learning state by narrowing down a combination of the step interval value and the step number Setting means;
Optimal step information search means for searching the search region for the optimal step interval value and the optimal step number;
A neural network device comprising:
前記学習装置は、前記ニューラルネットワークを学習させる学習時において、前記ステップ間隔値及び前記ステップ数に基づき、前記学習用データを前記データ入力手段に段階的に入力して前記ニューラルネットワーク装置の学習状態が予め定められた学習状態となる最適ステップ間隔値及び最適ステップ数を求めるものであり、The learning device inputs the learning data stepwise to the data input means based on the step interval value and the number of steps during learning for learning the neural network, and the learning state of the neural network device is To obtain an optimal step interval value and an optimal number of steps to be in a predetermined learning state,
ロボットカメラ制御装置は、前記ニューラルネットワークが学習した後の自動制御時において、前記学習装置が前記学習時に求めた前記最適ステップ間隔値及び前記最適ステップ数に基づき、前記被写体検出装置からの前記被写体位置データを前記データ入力手段に入力し、前記ニューラルネットワークの出力信号データを前記撮影動作制御信号データとして前記ロボットカメラに出力して前記ロボットカメラの撮影動作を制御するものであることを特徴とするロボットカメラ制御装置。The robot camera control device is configured to detect the subject position from the subject detection device based on the optimum step interval value and the optimum step number obtained by the learning device during the learning during automatic control after the neural network learns. Data is input to the data input means, and the output signal data of the neural network is output to the robot camera as the shooting operation control signal data to control the shooting operation of the robot camera. Camera control device.
前記コンピュータを、The computer,
ニューラルネットワークと、A neural network;
現在時刻以前のデータを前記ニューラルネットワークに段階的に入力する際の間隔を示すステップ間隔値を設定するステップ間隔値設定部と、前記間隔の数を示すステップ数を設定するステップ数設定部と、前記ステップ間隔値及び前記ステップ数に基づいて前記ニューラルネットワークに入力する現在時刻以前のデータを選択するデータ選択部と、を含み予め定められた単位時間毎に取得されたデータを前記ニューラルネットワークに入力するデータ入力手段と、A step interval value setting unit for setting a step interval value indicating an interval when inputting data before the current time stepwise into the neural network, a step number setting unit for setting a step number indicating the number of the intervals, A data selection unit that selects data before the current time to be input to the neural network based on the step interval value and the number of steps, and inputs data acquired every predetermined unit time to the neural network. Data input means,
前記ニューラルネットワークに入力した前記現在時刻以前のデータに対する前記ニューラルネットワークの出力信号データから前記ニューラルネットワークの学習状態を評価する学習状態評価手段と、Learning state evaluation means for evaluating the learning state of the neural network from the output signal data of the neural network for the data before the current time input to the neural network;
前記ニューラルネットワークの学習状態が予め定められた学習状態となる最適ステップ間隔値及び最適ステップ数を探索するための探索領域を前記ステップ間隔値と前記ステップ数との組み合わせを絞り込むことにより設定する探索領域設定手段と、A search region for setting a search region for searching for an optimal step interval value and an optimal step number at which the learning state of the neural network becomes a predetermined learning state by narrowing down a combination of the step interval value and the step number Setting means;
前記最適ステップ間隔値及び前記最適ステップ数を前記探索領域から探索する最適ステップ情報探索手段と、Optimal step information search means for searching the search region for the optimal step interval value and the optimal step number;
して機能させることを特徴とするニューラルネットワークプログラム。A neural network program characterized by functioning as a function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008052299A JP5108563B2 (en) | 2008-03-03 | 2008-03-03 | Neural network device, robot camera control device using the same, and neural network program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008052299A JP5108563B2 (en) | 2008-03-03 | 2008-03-03 | Neural network device, robot camera control device using the same, and neural network program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009211294A JP2009211294A (en) | 2009-09-17 |
JP5108563B2 true JP5108563B2 (en) | 2012-12-26 |
Family
ID=41184381
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008052299A Active JP5108563B2 (en) | 2008-03-03 | 2008-03-03 | Neural network device, robot camera control device using the same, and neural network program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5108563B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104616072B (en) * | 2015-01-23 | 2017-12-01 | 东北大学 | A kind of method of the raising glutamic acid fermentation production concentration based on range optimization |
US10198655B2 (en) * | 2017-01-24 | 2019-02-05 | Ford Global Technologies, Llc | Object detection using recurrent neural network and concatenated feature map |
EP3718707A4 (en) | 2017-11-28 | 2021-08-25 | Kawasaki Jukogyo Kabushiki Kaisha | Skill transferring machinery |
JP6951753B2 (en) * | 2018-03-27 | 2021-10-20 | エバ・ジャパン 株式会社 | Information search system and program |
US20210281745A1 (en) * | 2018-11-13 | 2021-09-09 | Sony Corporation | Information processing apparatus, information processing method, and program |
KR102204958B1 (en) * | 2019-10-28 | 2021-01-20 | 삼성에스디에스 주식회사 | Processing method for result of medical examination |
JP7357555B2 (en) * | 2020-01-24 | 2023-10-06 | 日本放送協会 | Control device and program for sliding mode control |
JP7571452B2 (en) | 2020-10-13 | 2024-10-23 | ソニーグループ株式会社 | Information processing device, information processing method, computer program, and learning system |
EP4407526A4 (en) * | 2021-09-24 | 2024-11-13 | Fujitsu Ltd | Data collection program, data collection device, and data collection method |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02140073A (en) * | 1988-08-05 | 1990-05-29 | Omron Tateisi Electron Co | Automatic tracing controller for camera, automatic tracing device for object, direction detector for object utilizing tracing control, and robot controller utilizing tracking control |
JP3214876B2 (en) * | 1991-09-19 | 2001-10-02 | 株式会社日立製作所 | Neural network configuration method and neural network construction support system |
JP3254241B2 (en) * | 1992-02-25 | 2002-02-04 | 政典 杉坂 | Moving object identification and tracking system |
JPH06259398A (en) * | 1993-03-02 | 1994-09-16 | Sharp Corp | Waveform generating device |
JPH06337852A (en) * | 1993-05-31 | 1994-12-06 | Hitachi Ltd | Time series prediction method by neural network |
JPH07234862A (en) * | 1993-12-27 | 1995-09-05 | Nec Corp | Precision-assured optimizing device |
JP2004056473A (en) * | 2002-07-19 | 2004-02-19 | Matsushita Electric Ind Co Ltd | Monitoring controller |
JP2006023868A (en) * | 2004-07-07 | 2006-01-26 | Toshiba Corp | Solution searching device and initial value setting method |
-
2008
- 2008-03-03 JP JP2008052299A patent/JP5108563B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009211294A (en) | 2009-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5108563B2 (en) | Neural network device, robot camera control device using the same, and neural network program | |
US5627586A (en) | Moving body detection device of camera | |
JP4498104B2 (en) | Monitoring device, control method thereof, and program | |
CN105282435B (en) | Zoom control equipment and Zoom control method | |
US8525923B2 (en) | Focusing method and apparatus, and recording medium for recording the method | |
CN105323470B (en) | Zoom control equipment and Zoom control method | |
CN107645632B (en) | Focus adjustment apparatus, focus adjustment method, image pickup apparatus, and storage medium | |
JP6497965B2 (en) | Image processing apparatus and image processing method | |
EP3516581B1 (en) | Automatic selection of cinemagraphs | |
JP2020144660A (en) | Information processing apparatus, information processing method and program | |
JP2022188095A (en) | Information processing apparatus, method for controlling information processing apparatus, and program | |
US20200412982A1 (en) | Laminated image pickup device, image pickup apparatus, image pickup method, and recording medium recorded with image pickup program | |
JP2020060602A (en) | Focus adjustment device, control method thereof, and program | |
CN107079098B (en) | Image playing method and device based on PTZ camera | |
JP6585396B2 (en) | Work analysis apparatus and work analysis method | |
US20180260650A1 (en) | Imaging device and imaging method | |
JP4281752B2 (en) | Video camera remote control system, video camera remote control method, photographing apparatus, and photographing method | |
JP2009017481A (en) | Photographing control device, photographing control method, and program | |
JP7166837B2 (en) | Teacher data creation device, teacher data creation method, teacher data creation program, learning device, and imaging device | |
JP2018201095A (en) | Imaging apparatus having motion prediction function | |
JP2023004678A (en) | Processing device and control method therefor | |
JP2017085439A (en) | Tracking device | |
JP2017216599A (en) | Imaging apparatus and control method therefor | |
JP7435621B2 (en) | Image processing device, image processing system, and image processing method | |
KR20090076112A (en) | Leture shooting device and leture shooting method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120723 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120911 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121005 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5108563 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151012 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |