JP7100590B2 - Image sensor - Google Patents

Image sensor Download PDF

Info

Publication number
JP7100590B2
JP7100590B2 JP2018554870A JP2018554870A JP7100590B2 JP 7100590 B2 JP7100590 B2 JP 7100590B2 JP 2018554870 A JP2018554870 A JP 2018554870A JP 2018554870 A JP2018554870 A JP 2018554870A JP 7100590 B2 JP7100590 B2 JP 7100590B2
Authority
JP
Japan
Prior art keywords
control signal
image sensor
generation unit
image
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018554870A
Other languages
Japanese (ja)
Other versions
JPWO2018105290A1 (en
Inventor
正嗣 小林
諭 井上
陽介 堀江
敦 能勢
光夫 大山田
隆司 佐伯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of JPWO2018105290A1 publication Critical patent/JPWO2018105290A1/en
Application granted granted Critical
Publication of JP7100590B2 publication Critical patent/JP7100590B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Adjustment Of Camera Lenses (AREA)

Description

本技術は、画像センサに関する。詳しくは、撮像された画像データを利用して制御対象装置の制御を行うための画像センサに関する。 This technique relates to an image sensor. More specifically, the present invention relates to an image sensor for controlling a controlled target device using captured image data.

従来、物体の画像を所定の間隔毎に撮影して、それらの画像に基づいて物体の軌跡を表す画像を生成する画像処理装置が知られている。例えば、第1画像が撮影されてから第2画像が撮影されるまでの間における物体の軌跡を求め、その求めた軌跡を用いて軌跡を補間する画像処理装置が提案されている(例えば、特許文献1参照。)。 Conventionally, there is known an image processing device that captures images of an object at predetermined intervals and generates an image representing the trajectory of the object based on those images. For example, there has been proposed an image processing device that obtains a locus of an object between the time when the first image is taken and the time when the second image is taken and interpolates the locus using the found locus (for example, a patent). See Document 1).

特開2015-087904号公報Japanese Unexamined Patent Publication No. 2015-08794

上述の従来技術では、所定の間隔毎に撮影された物体の画像から物体の軌跡を求めるために補間処理を行っている。画像を表示するためには、一般に30乃至120fps(フレーム/秒)程度の処理速度で足りるが、高度な制御を行うためにはそれでは不十分である。そのため、求められた物体の軌跡を描画することはできても、それを他の装置の制御に利用することが難しい。すなわち、補間処理により生成された物体の軌跡に基づいて、他の装置に対してリアルタイムに制御を行うことは困難である。 In the above-mentioned conventional technique, interpolation processing is performed in order to obtain the trajectory of an object from an image of the object taken at predetermined intervals. Generally, a processing speed of about 30 to 120 fps (frames / second) is sufficient for displaying an image, but that is not enough for advanced control. Therefore, although it is possible to draw the locus of the obtained object, it is difficult to use it for controlling other devices. That is, it is difficult to control other devices in real time based on the trajectory of the object generated by the interpolation process.

本技術はこのような状況に鑑みて生み出されたものであり、表示のための低速画像データとは異なる高速画像データによる対象物の軌跡に基づいて装置の制御を行うことを目的とする。 This technique was created in view of such a situation, and aims to control the device based on the trajectory of an object by high-speed image data different from low-speed image data for display.

本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、対象物を撮像して時系列に並ぶ画像データのフレームを生成する撮像素子と、上記フレームの各々に対して二値化処理を行って二値化フレームを生成する二値化処理部と、時系列に隣接する上記二値化フレームの間の差分を生成して上記二値化フレームに含まれる上記対象物の位置の変化を追跡するトラッキング処理部と、上記トラッキング処理部による結果に基づいて上記二値化フレームに含まれる上記対象物のモーメントを算出するモーメント生成部と、上記モーメント生成部によって生成された上記モーメントに基づいて上記二値化フレームに含まれる上記対象物の重心位置を生成する重心位置生成部と、上記重心位置生成部によって生成された上記対象物の重心位置に基づいて上記対象物の軌跡を予測して生成する軌跡生成部と、上記軌跡生成部によって生成された上記対象物の軌跡に基づいて制御対象装置に制御信号を供給する制御信号供給部とを具備する画像センサである。これにより、予測された対象物の軌跡に基づいて制御対象装置を制御するという作用をもたらす。 The present technology has been made to solve the above-mentioned problems, and the first aspect thereof is an image pickup element that images an object and generates a frame of image data arranged in a time series, and the above frame. The difference between the binarization processing unit that performs binarization processing for each and generates the binarization frame and the binarization frame adjacent to the time series is generated and included in the binarization frame. A tracking processing unit that tracks changes in the position of the object, a moment generation unit that calculates the moment of the object included in the binarization frame based on the result of the tracking processing unit, and a moment generation unit. Based on the center of gravity position generation unit that generates the center of gravity position of the object included in the binarization frame based on the moment generated by, and the center of gravity position of the object generated by the center of gravity position generation unit. An image including a locus generation unit that predicts and generates a locus of the object, and a control signal supply unit that supplies a control signal to the control target device based on the locus of the object generated by the locus generation unit. It is a sensor. This has the effect of controlling the controlled object device based on the predicted trajectory of the object.

また、この第1の側面において、上記軌跡生成部は、上記対象物との距離の軌跡を予測し、上記制御信号供給部は、上記予測された距離が所定の条件を満たす場合に上記制御信号を供給するようにしてもよい。これにより、予測された距離に応じて制御対象装置を制御するという作用をもたらす。 Further, in the first aspect, the locus generation unit predicts a locus of a distance to the object, and the control signal supply unit predicts the control signal when the predicted distance satisfies a predetermined condition. May be supplied. This has the effect of controlling the controlled device according to the predicted distance.

また、この第1の側面において、上記制御信号は、緩衝部材の動作を制御する制御信号であってもよい。これにより、予測された対象物の軌跡に基づいて緩衝部材の動作を制御するという作用をもたらす。 Further, in the first aspect, the control signal may be a control signal for controlling the operation of the cushioning member. This has the effect of controlling the operation of the cushioning member based on the predicted trajectory of the object.

また、この第1の側面において、上記制御信号は、警告装置の動作を制御する制御信号であってもよい。これにより、予測された対象物の軌跡に基づいて警告装置の動作を制御するという作用をもたらす。 Further, in the first aspect, the control signal may be a control signal for controlling the operation of the warning device. This has the effect of controlling the operation of the warning device based on the predicted trajectory of the object.

また、この第1の側面において、上記軌跡生成部は、上記対象物の弾道の軌跡を予測し、上記制御信号供給部は、上記予測された軌跡を表示するための上記制御信号を供給するようにしてもよい。これにより、予測された対象物の軌跡を表示するという作用をもたらす。 Further, in the first aspect, the trajectory generation unit predicts the trajectory of the trajectory of the object, and the control signal supply unit supplies the control signal for displaying the predicted trajectory. You may do it. This has the effect of displaying the predicted trajectory of the object.

また、この第1の側面において、上記軌跡生成部は、上記対象物の飛距離を予測し、上記制御信号供給部は、上記予測された飛距離を表示するための上記制御信号を供給するようにしてもよい。これにより、予測された飛距離を表示するという作用をもたらす。 Further, in the first aspect, the locus generation unit predicts the flight distance of the object, and the control signal supply unit supplies the control signal for displaying the predicted flight distance. You may do it. This has the effect of displaying the predicted flight distance.

また、この第1の側面において、上記軌跡生成部は、上記対象物の到達位置を予測し、上記制御信号供給部は、上記予測された到達位置を表示するための上記制御信号を供給するようにしてもよい。これにより、予測された到達位置を表示するという作用をもたらす。 Further, in the first aspect, the locus generation unit predicts the arrival position of the object, and the control signal supply unit supplies the control signal for displaying the predicted arrival position. You may do it. This has the effect of displaying the predicted arrival position.

また、この第1の側面において、上記制御信号供給部は、上記予測された到達位置に応じた音声信号を出力するための上記制御信号を供給するようにしてもよい。これにより、予測された到達位置に応じた音声信号を出力するという作用をもたらす。 Further, in the first aspect, the control signal supply unit may supply the control signal for outputting the audio signal according to the predicted arrival position. This has the effect of outputting an audio signal according to the predicted arrival position.

また、この第1の側面において、上記撮像素子に上記対象物を含む画像を供給する光学素子をさらに具備し、上記制御信号は、上記光学素子の動作を制御する制御信号であってもよい。これにより、予測された対象物の軌跡に基づいて光学素子の動作を制御するという作用をもたらす。 Further, in the first aspect, the image pickup device may be further provided with an optical element for supplying an image containing the object, and the control signal may be a control signal for controlling the operation of the optical element. This has the effect of controlling the operation of the optical element based on the predicted trajectory of the object.

また、この第1の側面において、上記制御信号は、上記フレームの一部を所定の画像に置換して表示させる制御信号であってもよい。これにより、予測された対象物の軌跡に基づいて画像を置換するという作用をもたらす。 Further, in the first aspect, the control signal may be a control signal in which a part of the frame is replaced with a predetermined image and displayed. This has the effect of replacing the image based on the predicted trajectory of the object.

本技術によれば、表示のための低速画像データとは異なる高速画像データによる対象物の軌跡に基づいて装置の制御を行うことができるという優れた効果を奏し得る。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。 According to the present technique, it is possible to obtain an excellent effect that the device can be controlled based on the locus of an object by high-speed image data different from low-speed image data for display. The effects described herein are not necessarily limited, and may be any of the effects described in the present disclosure.

本技術の実施の形態における制御システムの一構成例を示す図である。It is a figure which shows one configuration example of the control system in embodiment of this technique. 本技術の実施の形態の第1の適用例における緩衝部材の制御の例を示す図である。It is a figure which shows the example of the control of a cushioning member in the 1st application example of embodiment of this technique. 本技術の実施の形態の第1の適用例における緩衝部材の制御の他の例を示す図である。It is a figure which shows the other example of the control of a cushioning member in the 1st application example of embodiment of this technique. 本技術の実施の形態の第1の適用例における緩衝部材の制御の処理手順例を示す流れ図である。It is a flow chart which shows the processing procedure example of the control of a cushioning member in the 1st application example of embodiment of this technique. 本技術の実施の形態の第2の適用例における球体シミュレーションの例を示す図である。It is a figure which shows the example of the sphere simulation in the 2nd application example of the Embodiment of this technique. 本技術の実施の形態の第2の適用例における球体の軌跡の例を示す図である。It is a figure which shows the example of the locus of a sphere in the 2nd application example of embodiment of this technique. 本技術の実施の形態の第2の適用例における球体シミュレーションの処理手順例を示す流れ図である。It is a flow chart which shows the processing procedure example of the sphere simulation in the 2nd application example of embodiment of this technique. 本技術の実施の形態の第3の適用例における場内アナウンスの例を示す図である。It is a figure which shows the example of the announcement in the field in the 3rd application example of the embodiment of this technique. 本技術の実施の形態の第3の適用例におけるボールの客席への侵入を予測する態様を示す図である。It is a figure which shows the mode of predicting the invasion of a ball into the audience seat in the 3rd application example of embodiment of this technique. 本技術の実施の形態の第3の適用例におけるシステム構成例を示す図である。It is a figure which shows the system configuration example in the 3rd application example of the Embodiment of this technique. 本技術の実施の形態の第3の適用例における場内アナウンスの処理手順例を示す流れ図である。It is a flow chart which shows the processing procedure example of the announcement in the field in the 3rd application example of embodiment of this technique. 本技術の実施の形態の第4の適用例における火山弾警報の例を示す図である。It is a figure which shows the example of the volcanic bomb warning in the 4th application example of the Embodiment of this technique. 本技術の実施の形態の第4の適用例における火山弾警報の処理手順例を示す流れ図である。It is a flow chart which shows the processing procedure example of the volcanic bomb warning in the 4th application example of the Embodiment of this technique. 本技術の実施の形態の第5の適用例における追跡撮像の例を示す図である。It is a figure which shows the example of the follow-up imaging in the 5th application example of the Embodiment of this technique. 本技術の実施の形態の第5の適用例における追跡撮像の態様を示す図である。It is a figure which shows the mode of the follow-up imaging in the 5th application example of embodiment of this technique. 本技術の実施の形態の第5の適用例における追跡撮像の他の態様を示す図である。It is a figure which shows the other aspect of the follow-up imaging in the 5th application example of embodiment of this technique. 本技術の実施の形態の第5の適用例における追跡撮像の処理手順例を示す流れ図である。It is a flow chart which shows the processing procedure example of the follow-up imaging in the 5th application example of embodiment of this technique. 本技術の実施の形態の第6の適用例における画像重畳の例を示す図である。It is a figure which shows the example of image superimposition in the 6th application example of embodiment of this technique. 本技術の実施の形態の第6の適用例における画像重畳のタイミング例を示す図である。It is a figure which shows the timing example of image superimposition in the 6th application example of embodiment of this technique. 本技術の実施の形態の第6の適用例における画像重畳の処理手順例を示す流れ図である。It is a flow chart which shows the processing procedure example of image superimposition in the 6th application example of embodiment of this technique. 本技術の実施の形態の第7の適用例における距離算出の例を示す図である。It is a figure which shows the example of the distance calculation in the 7th application example of the Embodiment of this technique. 本技術の実施の形態の第7の適用例におけるオブジェクトトラッキングの態様を示す図である。It is a figure which shows the aspect of the object tracking in the 7th application example of the Embodiment of this technique. 本技術の実施の形態の第7の適用例における距離算出の態様を示す図である。It is a figure which shows the mode of distance calculation in the 7th application example of embodiment of this technique. 本技術の実施の形態の第7の適用例における距離算出の処理手順例を示す流れ図である。It is a flow chart which shows the processing procedure example of the distance calculation in the 7th application example of embodiment of this technique.

以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.実施の形態(制御システムの構成例)
2.第1の適用例(緩衝部材の制御の例)
3.第2の適用例(球体シミュレーションの例)
4.第3の適用例(場内アナウンスの例)
5.第4の適用例(火山弾警報の例)
6.第5の適用例(追跡撮像の例)
7.第6の適用例(画像重畳の例)
8.第7の適用例(距離算出の例)
Hereinafter, embodiments for carrying out the present technology (hereinafter referred to as embodiments) will be described. The explanation will be given in the following order.
1. 1. Embodiment (configuration example of control system)
2. 2. First application example (example of control of cushioning member)
3. 3. Second application example (example of sphere simulation)
4. Third application example (example of announcement in the hall)
5. Fourth application example (example of volcanic bomb warning)
6. Fifth application example (example of follow-up imaging)
7. Sixth application example (example of image superimposition)
8. Seventh application example (example of distance calculation)

<1.実施の形態>
図1は、本技術の実施の形態における制御システムの一構成例を示す図である。この実施の形態における画像処理システムは、画像センサ100と、表示装置320と、制御対象装置330とを備える。
<1. Embodiment>
FIG. 1 is a diagram showing a configuration example of a control system according to an embodiment of the present technology. The image processing system in this embodiment includes an image sensor 100, a display device 320, and a controlled object device 330.

画像センサ100は、対象物を含む被写体を撮像して、対象物の軌跡を予測し、その対象物の軌跡に基づいて制御対象装置330を制御するものである。操作入力装置310は、外部からの操作入力を受け付けるものである。表示装置320は、画像センサ100によって得られた情報を表示するものである。制御対象装置330は、画像センサ100によって制御される装置である。 The image sensor 100 captures an image of a subject including an object, predicts the trajectory of the object, and controls the controlled object device 330 based on the trajectory of the object. The operation input device 310 receives an operation input from the outside. The display device 320 displays the information obtained by the image sensor 100. The controlled object device 330 is a device controlled by the image sensor 100.

画像センサ100は、撮像部110と、フィルタ処理部120と、二値化処理部130と、トラッキング処理部140と、モーメント生成部150と、重心位置生成部160と、集計処理部210と、制御部220と、インターフェース230とを備える。 The image sensor 100 controls the image pickup unit 110, the filter processing unit 120, the binarization processing unit 130, the tracking processing unit 140, the moment generation unit 150, the center of gravity position generation unit 160, and the aggregation processing unit 210. A unit 220 and an interface 230 are provided.

撮像部110は、対象物を含む被写体を撮像する撮像素子である。この撮像部110は、所定のフレームレートにより、時系列に並ぶ画像データのフレームを生成する。ここで、フレームレートとしては、1秒当たり1000フレーム(1000fps)以上の高フレームレートを想定する。この撮像部110によって撮像された画像データのフレームは、その全てが画像センサ100の外部に供給される必要はない。高フレームレートの画像データは以下に説明する制御を目的としたものであり、表示のためにはこれよりも低いフレームレートで十分である。すなわち、高フレームレートの画像データを画像センサ100内の参照に留めることにより、画像センサ100のバンド幅を有効に活用することが可能となる。なお、撮像部110は、特許請求の範囲に記載の撮像素子の一例である。また、対象物は、人物や動物などの生物のみならず、非生物を広く含むオブジェクトである。 The image pickup unit 110 is an image pickup device that captures an image of a subject including an object. The image pickup unit 110 generates frames of image data arranged in time series at a predetermined frame rate. Here, as the frame rate, a high frame rate of 1000 frames (1000 fps) or more per second is assumed. It is not necessary that all the frames of the image data captured by the image pickup unit 110 be supplied to the outside of the image sensor 100. The high frame rate image data is intended for the control described below, and a lower frame rate is sufficient for display. That is, by limiting the image data having a high frame rate to the reference in the image sensor 100, it is possible to effectively utilize the bandwidth of the image sensor 100. The image pickup unit 110 is an example of the image pickup device described in the claims. In addition, the object is an object that includes not only living things such as humans and animals but also non-living things.

フィルタ処理部120は、撮像部110によって撮像された画像データのフレームの各々に対してフィルタ処理を施すものである。このフィルタ処理部120におけるフィルタ処理としては、例えば、移動平均フィルタやメディアンフィルタなどによるノイズ除去処理、Sobelフィルタなどによる輪郭検出処理、ラプラシアンフィルタなどによるエッジ検出などが想定される。また、このフィルタ処理部120によって画像のオイラー数を求めることにより、画像に含まれる対象物の個数を算出することも可能である。オイラー数とは、成分数から孔の数を引いた数である。 The filter processing unit 120 applies a filter process to each of the frames of the image data captured by the image pickup unit 110. As the filter processing in the filter processing unit 120, for example, noise removal processing by a moving average filter, a median filter, etc., contour detection processing by a Sobel filter, edge detection by a Laplacian filter, etc. are assumed. It is also possible to calculate the number of objects included in the image by obtaining the Euler number of the image by the filter processing unit 120. The Euler number is the number of components minus the number of holes.

二値化処理部130は、フィルタ処理部120によってフィルタ処理の施されたフレームの各々に対して二値化処理を行うものである。この二値化処理部130は、各フレームの画像データに含まれる輝度や色のヒストグラム情報に基づいてその画像データを二値化して、二値化データからなる二値化フレームを生成する。 The binarization processing unit 130 performs binarization processing on each of the frames filtered by the filter processing unit 120. The binarization processing unit 130 binarizes the image data based on the histogram information of the brightness and the color included in the image data of each frame, and generates a binarized frame composed of the binarized data.

トラッキング処理部140は、二値化処理部130によって生成された二値化フレームについて、時系列に隣接するフレーム間の差分を生成することにより、二値化フレームに含まれる対象物を検出して、その対象物の位置の変化を追跡するものである。対象物の検出の際には、画像における特定の領域を測定対象として指定することが可能である。 The tracking processing unit 140 detects an object included in the binarization frame by generating a difference between frames adjacent to each other in the time series for the binarization frame generated by the binarization processing unit 130. , Tracks changes in the position of the object. When detecting an object, it is possible to specify a specific area in the image as a measurement target.

モーメント生成部150は、トラッキング処理部140による結果に基づいて、二値化フレームにおける2変数関数のモーメントを算出するものである。0次モーメントは、その二値化フレームに含まれる対象物の面積の変化量を表し、画像の回転や拡大縮小に対して不変な値である。 The moment generation unit 150 calculates the moment of the two-variable function in the binarization frame based on the result of the tracking processing unit 140. The 0th moment represents the amount of change in the area of the object included in the binarized frame, and is a value that is invariant with respect to rotation and enlargement / reduction of the image.

重心位置生成部160は、モーメント生成部150によって生成されたモーメントに基づいて、二値化フレームに含まれる対象物の重心位置を生成するものである。水平方向および垂直方向の各1次モーメントをそれぞれ0次モーメントで除算した値が、重心位置を表す。 The center of gravity position generation unit 160 generates the center of gravity position of the object included in the binarization frame based on the moment generated by the moment generation unit 150. The value obtained by dividing each of the first moments in the horizontal direction and the vertical direction by the zeroth moment represents the position of the center of gravity.

集計処理部210は、画像センサ100によって得られた各種データに基づいて集計処理を行って、対象物の軌跡を生成するものである。この集計処理部210は、以下の適用例に示すように、動作するアプリケーションに応じて必要な処理を行う。制御部220は、画像センサ100の各部に対する動作制御を行うものである。インターフェース230は、外部とのインターフェースを司るものである。この例では、インターフェース230は制御対象装置330と接続して、制御対象装置330に制御信号を供給する。また、インターフェース230は表示装置320と接続して、画像センサ100によって得られた情報を表示装置320に表示させる。なお、集計処理部210は、特許請求の範囲に記載の軌跡生成部の一例である。 The aggregation processing unit 210 performs aggregation processing based on various data obtained by the image sensor 100 to generate a locus of an object. As shown in the following application example, the aggregation processing unit 210 performs necessary processing according to the operating application. The control unit 220 controls the operation of each unit of the image sensor 100. The interface 230 controls the interface with the outside. In this example, the interface 230 is connected to the control target device 330 to supply a control signal to the control target device 330. Further, the interface 230 is connected to the display device 320, and the information obtained by the image sensor 100 is displayed on the display device 320. The aggregation processing unit 210 is an example of the locus generation unit described in the claims.

なお、この図においては、重心位置生成部160からの出力が集計処理部210および制御部220に供給される経路を明示しているが、画像センサ100の各部から集計処理部210に対して各種データを供給する経路が必要に応じて設けられてもよい。 In this figure, the route in which the output from the center of gravity position generation unit 160 is supplied to the aggregation processing unit 210 and the control unit 220 is clearly shown, but various units of the image sensor 100 to the aggregation processing unit 210 are various. A route for supplying data may be provided as needed.

このように構成することにより、対象物の軌跡を予測して、その予測された軌跡に基づいて制御対象装置を制御することができる。また、後段において画像を処理する必要がなく、演算結果のみを利用してリアルタイムに制御を行うことができる。 With this configuration, it is possible to predict the trajectory of the object and control the controlled object device based on the predicted trajectory. In addition, it is not necessary to process the image in the subsequent stage, and control can be performed in real time using only the calculation result.

<2.第1の適用例>
図2は、本技術の実施の形態の第1の適用例における緩衝部材の制御の例を示す図である。本実施の形態における制御システムを用いて緩衝部材の制御を行うためには、保護対象の周囲に画像センサ100を設けて撮像を行い、対象物の軌跡を予測して、その予測された軌跡に基づいて緩衝部材を制御する。これにより、保護対象に迫る危険に対して、緩衝部材によって保護対象を保護することができる。
<2. First application example>
FIG. 2 is a diagram showing an example of control of a cushioning member in the first application example of the embodiment of the present technique. In order to control the shock absorber using the control system in the present embodiment, an image sensor 100 is provided around the protected object to perform image pickup, the trajectory of the object is predicted, and the predicted trajectory is used. The cushioning member is controlled based on this. As a result, the protected object can be protected by the cushioning member against the danger of approaching the protected object.

図2におけるaでは、保護対象511は例えば建造物であり、その周囲の柵に緩衝部材512が設けられている。柵には画像センサ100の一例としての画像センサ513が設けられている。この保護対象511にオートバイや自動車などの移動物体514が近付いてきた場合、画像センサ513はこの移動物体514を衝突予測対象として検出して、移動物体514が保護対象511に衝突するか否かの識別を行う。 In a in FIG. 2, the protected object 511 is, for example, a building, and a cushioning member 512 is provided on a fence around the building. The fence is provided with an image sensor 513 as an example of the image sensor 100. When a moving object 514 such as a motorcycle or an automobile approaches the protected object 511, the image sensor 513 detects the moving object 514 as a collision prediction target and determines whether or not the moving object 514 collides with the protected object 511. Make an identification.

移動物体514の移動速度および移動方向から衝突の危険があると判断した場合には、位置P1において移動物体514に対してブレーキをかけるよう警告を行う。例えば、柵に警告ランプを設けて、その警告ランプを点灯させるなどの方法により警告を行う。また、移動速度が減速せず、物理的に衝突を回避できないと判断した場合には、移動物体514が位置P2に到達したタイミングで緩衝部材512を膨らませて防御状態にするよう制御する。 When it is determined from the moving speed and the moving direction of the moving object 514 that there is a danger of collision, a warning is given to apply the brake to the moving object 514 at the position P1. For example, a warning lamp is provided on the fence and the warning lamp is turned on to give a warning. Further, when it is determined that the moving speed does not slow down and the collision cannot be physically avoided, the cushioning member 512 is controlled to be inflated and put into a defensive state at the timing when the moving object 514 reaches the position P2.

図2におけるbでは、保護対象515は人間である。この例では、人間が背面に緩衝部材516および画像センサ517を背負うことを想定している。このとき、移動物体518が保護対象515の背面から迫ってきた場合に、画像センサ517が衝突を予測すると、緩衝部材516を膨らませて防御状態にするよう制御する。 In b in FIG. 2, the protection target 515 is a human being. In this example, it is assumed that a human carries a cushioning member 516 and an image sensor 517 on the back. At this time, when the moving object 518 approaches from the back surface of the protected object 515 and the image sensor 517 predicts a collision, the cushioning member 516 is controlled to be inflated to be in a defensive state.

これに対し、通常の自動車のエアバッグは、実際に衝突により衝撃を受けた際に作動するようになっており、事前保護を行うことができない。また、その急激な膨らみそのものによる怪我の可能性もある。この例の緩衝部材によれば、そのような不都合は避けることができる。また、この例の緩衝部材は、加速度センサではなく、画像センサによるものであるため、移動しない保護対象の方に設置することができる。 On the other hand, ordinary automobile airbags are designed to operate when they are actually impacted by a collision, and cannot be protected in advance. There is also the possibility of injury due to the sudden bulge itself. According to the cushioning member of this example, such inconvenience can be avoided. Further, since the cushioning member in this example is not an acceleration sensor but an image sensor, it can be installed on a protected object that does not move.

図3は、本技術の実施の形態の第1の適用例における緩衝部材の制御の他の例を示す図である。この例では、保護対象は人間であり、衝突予測対象は地面である。 FIG. 3 is a diagram showing another example of control of the cushioning member in the first application example of the embodiment of the present technique. In this example, the protection target is a human and the collision prediction target is the ground.

図3におけるaでは、人間が緩衝部材521を正面に抱えるとともに、前方を撮像する画像センサ522を頭部に装着することを想定している。このとき、保護対象である人間が前方に倒れた場合に、画像センサ522が地面への衝突を予測すると、緩衝部材521を膨らませて防御状態にするよう制御する。 In a in FIG. 3, it is assumed that a human holds the cushioning member 521 in front and attaches an image sensor 522 that images the front to the head. At this time, when the person to be protected falls forward and the image sensor 522 predicts a collision with the ground, the cushioning member 521 is controlled to be inflated to be in a defensive state.

図3におけるbでは、人間が緩衝部材523を背面に背負うとともに、後方を撮像する画像センサ524を頭部に装着することを想定している。このとき、保護対象である人間が後方に倒れた場合に、画像センサ524が地面への衝突を予測すると、緩衝部材523を膨らませて防御状態にするよう制御する。 In b in FIG. 3, it is assumed that a human carries a cushioning member 523 on his back and wears an image sensor 524 that captures an image of the rear on his head. At this time, when the person to be protected falls backward and the image sensor 524 predicts a collision with the ground, the cushioning member 523 is controlled to be inflated to be in a defensive state.

図3におけるcでは、人間が高所作業を行っている場所において、地面に緩衝部材を敷き詰めるとともに、その人間を撮像する画像センサ526を配置することを想定している。このとき、保護対象である人間が落下した場合に、画像センサ526が地面への衝突を予測すると、その予測された落下位置の緩衝部材525を膨らませて防御状態にするよう制御する。 In c in FIG. 3, it is assumed that a cushioning member is spread on the ground and an image sensor 526 for photographing the human is arranged in a place where a human is working at a high place. At this time, when the image sensor 526 predicts a collision with the ground when a person to be protected falls, the cushioning member 525 at the predicted fall position is inflated and controlled to be in a defensive state.

このように、この例において、画像センサは保護対象自身に装着してもよく、また、保護対象の動きを観察できる位置に配置してもよい。同様に、緩衝部材は保護対象自身に装着してもよく、また、保護対象の衝突が予測される位置に配置されてもよい。 As described above, in this example, the image sensor may be attached to the protected object itself, or may be arranged at a position where the movement of the protected object can be observed. Similarly, the cushioning member may be attached to the protected object itself, or may be arranged at a position where a collision of the protected object is predicted.

図4は、本技術の実施の形態の第1の適用例における緩衝部材の制御の処理手順例を示す流れ図である。 FIG. 4 is a flow chart showing an example of a processing procedure for controlling a cushioning member in the first application example of the embodiment of the present technique.

まず、危険を予測するための画像データが取得される(ステップS811)。この画像データは、保護対象の側から衝突予測対象を観察したものでもよく、また、保護対象と衝突予測対象の両者を観察したものでもよい。いずれかの画像が撮像部110によって撮像されて、画像データが取得される。取得された画像データは、時系列のフレームを構成する。上述のように、フレームレートとしては、1000fps以上の高フレームレートを想定しており、これにより、保護対象と衝突予測対象との間の衝突を正確に予測することができる。 First, image data for predicting danger is acquired (step S811). This image data may be one in which the collision prediction target is observed from the side of the protection target, or may be one in which both the protection target and the collision prediction target are observed. Any image is captured by the image pickup unit 110, and image data is acquired. The acquired image data constitutes a time-series frame. As described above, the frame rate is assumed to be a high frame rate of 1000 fps or more, which makes it possible to accurately predict the collision between the protection target and the collision prediction target.

取得された各フレームは、フィルタ処理部120によって、ノイズが除去(ノイズリダクション)される(ステップS812)。 Noise is removed (noise reduction) from each acquired frame by the filter processing unit 120 (step S812).

その後、操作入力装置310からの指示に従って処理が選択される(ステップS813)。単数ターゲットが指示された場合には(ステップS813:No)、二値化処理部130によってフレームにおける画像のヒストグラムによる二値化が行われて、ターゲットが検出される(ステップS815)。そして、時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成されて、検出されたターゲットの追跡(ターゲットトラッキング)が行われる(ステップS816)。また、そのターゲットについて、モーメント生成部150によってモーメント演算が行われる(ステップS817)。 After that, the process is selected according to the instruction from the operation input device 310 (step S813). When a singular target is instructed (step S813: No), the binarization processing unit 130 performs binarization by the histogram of the image in the frame, and the target is detected (step S815). Then, the difference between the frames adjacent to each other in the time series is generated by the tracking processing unit 140, and the detected target is tracked (target tracking) (step S816). Further, a moment calculation is performed by the moment generation unit 150 for the target (step S817).

演算されたモーメントに基づいて、ターゲットの移動量が重心位置生成部160によって算出される(ステップS818)。また、演算されたモーメントに基づいて、集計処理部210においてターゲットの移動方向が算出される(ステップS818)。算出されたターゲットの移動量および移動方向は、インターフェース230を介して表示装置320に表示される(ステップS819)。 Based on the calculated moment, the movement amount of the target is calculated by the center of gravity position generation unit 160 (step S818). Further, the totaling processing unit 210 calculates the moving direction of the target based on the calculated moment (step S818). The calculated movement amount and movement direction of the target are displayed on the display device 320 via the interface 230 (step S819).

複数ターゲットが指示された場合には(ステップS813:Yes)、複数の視差による距離演算がおこなわれる(ステップS814)。このとき、各ターゲットの座標位置が取得され、ステップS815におけるターゲット検出が行われる。 When a plurality of targets are instructed (step S813: Yes), the distance calculation by the plurality of parallax is performed (step S814). At this time, the coordinate positions of each target are acquired, and the target detection in step S815 is performed.

算出されたターゲットの移動量および移動方向に基づいて、保護対象と衝突予測対象との間の距離の軌跡を予測し、両者の間に衝突が発生するか否かを判断する演算が行われる(ステップS821)。演算の結果、所定の期待値を超える場合には、インターフェース230を介して表示装置320に衝突判定の旨が表示され、緩衝部材を膨らませて防御状態にするよう制御される(ステップS825)。また、期待値を超えないものの、期待値に近似する場合には、インターフェース230を介して表示装置320に事前警告判定の旨が表示され、例えば警告音等を発生するよう制御される(ステップS824)。また、期待値に近似せず、期待値を超えない場合には、そのような警告は行われない(ステップS823)。 Based on the calculated movement amount and movement direction of the target, a calculation is performed to predict the trajectory of the distance between the protection target and the collision prediction target and determine whether or not a collision occurs between the two (the calculation is performed). Step S821). If the result of the calculation exceeds a predetermined expected value, a collision determination is displayed on the display device 320 via the interface 230, and the cushioning member is controlled to be inflated to be in a defensive state (step S825). Further, when the expected value is not exceeded but is close to the expected value, the display device 320 is displayed to the effect of the advance warning determination via the interface 230, and is controlled to generate, for example, a warning sound (step S824). ). Further, if it does not approximate the expected value and does not exceed the expected value, such a warning is not given (step S823).

これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。 These processes are repeated for each of the frames of the image data arranged in chronological order.

このように、この第1の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、ターゲットの移動量および移動方向に基づいて保護対象と衝突予測対象との間の距離の軌跡を予測することにより、緩衝部材の制御を行うことができる。また、同様の判断により、警告表示の制御も行うことができる。 As described above, in this first application example, assuming a high frame rate of 1000 fps or more as the frame rate, the locus of the distance between the protection target and the collision prediction target is determined based on the movement amount and the movement direction of the target. By predicting, the cushioning member can be controlled. Further, the warning display can be controlled by the same judgment.

<3.第2の適用例>
図5は、本技術の実施の形態の第2の適用例における球体シミュレーションの例を示す図である。本実施の形態における制御システムを用いて球体シミュレーションを行うためには、観測対象である球体の画像を画像センサ100により撮像し、球体の移動量および移動方向などを算出する。これにより、球体の軌跡を予測することができる。
<3. Second application example>
FIG. 5 is a diagram showing an example of a sphere simulation in a second application example of the embodiment of the present technique. In order to perform a sphere simulation using the control system in the present embodiment, an image of the sphere to be observed is imaged by the image sensor 100, and the movement amount and the movement direction of the sphere are calculated. This makes it possible to predict the trajectory of the sphere.

例えば、シミュレーションゴルフの場合、プレーヤ531がボール532を打つ様子を携帯端末533によって撮像する。この携帯端末533には画像センサ100が含まれており、その撮像部110によって撮像が行われる。撮像された画像に基づいてターゲットトラッキングやモーメント演算が行われ、ボール532の移動量および移動方向などが算出される。これにより、球体の軌跡が予測され、ボール532の飛距離が予測される。このようにして予測された飛距離は、携帯端末533の表示部に推定飛距離534として表示される。 For example, in the case of simulation golf, the state in which the player 531 hits the ball 532 is imaged by the mobile terminal 533. The mobile terminal 533 includes an image sensor 100, and an image pickup is performed by the image pickup unit 110 thereof. Target tracking and moment calculation are performed based on the captured image, and the movement amount and movement direction of the ball 532 are calculated. As a result, the locus of the sphere is predicted, and the flight distance of the ball 532 is predicted. The flight distance predicted in this way is displayed as an estimated flight distance 534 on the display unit of the mobile terminal 533.

この例では、推定飛距離を表示する例について説明したが、例えば、ボール532の速度や回転方向などを表示するようにしてもよい。ボール532の回転を計測するためには、ボール532にマーカを付して、このマーカを追跡することにより、回転の状態を観察することができる。 In this example, an example of displaying the estimated flight distance has been described, but for example, the speed and rotation direction of the ball 532 may be displayed. In order to measure the rotation of the ball 532, a marker is attached to the ball 532, and the state of rotation can be observed by tracking the marker.

図6は、本技術の実施の形態の第2の適用例における球体の軌跡の例を示す図である。 FIG. 6 is a diagram showing an example of a trajectory of a sphere in a second application example of the embodiment of the present technique.

例えば、時速150kmで球体が投球された場合、従来のカメラのように30fpsで球体を観察すると、隣接するフレーム間では球体の間隔が約140cm空いてしまい、球体の軌跡を予測することは困難である。これに対し、この実施の形態では1000fps以上の高フレームレートを想定することにより、隣接するフレーム間の球体の間隔は約4.2cmとなり、球体の軌跡を緻密に予測することができる。 For example, when a sphere is thrown at a speed of 150 km / h, when observing the sphere at 30 fps like a conventional camera, the distance between the adjacent frames is about 140 cm, and it is difficult to predict the trajectory of the sphere. be. On the other hand, in this embodiment, by assuming a high frame rate of 1000 fps or more, the distance between the spheres between adjacent frames is about 4.2 cm, and the trajectory of the spheres can be predicted precisely.

すなわち、投球の初期段階で高精度な移動速度を割り出して、初期動作による球体の軌跡を予測することができる。また、軌跡の途中において、垂直方向の移動量の有無を判断することにより、頂点に達しているか否かを認識して、その後に下降することを予測することができる。 That is, it is possible to determine a highly accurate moving speed at the initial stage of pitching and predict the trajectory of the sphere due to the initial motion. Further, by determining the presence or absence of the movement amount in the vertical direction in the middle of the locus, it is possible to recognize whether or not the apex has been reached and predict that the vehicle will descend thereafter.

この球体シミュレーションの例は、上述のシミュレーションゴルフの他に、例えば野球のバッティングの測定、テニスのサーブの測定、サッカーのフリーキックの測定に用いることができる。本実施の形態の高フレームレートを想定することにより、フォームの確認だけでなく、打球の速度、推定飛距離、回転方向などをプレーヤの横側から同時に観測することができる。 In addition to the above-mentioned simulation golf, this example of the sphere simulation can be used, for example, for measuring baseball batting, measuring tennis serve, and measuring soccer free kick. By assuming a high frame rate of the present embodiment, it is possible not only to confirm the form but also to simultaneously observe the speed of the hit ball, the estimated flight distance, the rotation direction, and the like from the side of the player.

図7は、本技術の実施の形態の第2の適用例における球体シミュレーションの処理手順例を示す流れ図である。 FIG. 7 is a flow chart showing an example of a processing procedure for a sphere simulation in a second application example of the embodiment of the present technique.

まず、撮像部110によって測定対象である球体を撮像することによって画像データが取得される(ステップS831)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、ノイズが除去される(ステップS832)。 First, image data is acquired by imaging a sphere to be measured by the imaging unit 110 (step S831). The acquired image data constitutes a time-series frame. Noise is removed from each of the acquired frames by the filtering unit 120 (step S832).

そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われる(ステップS833)。ここでは、球体にマーカを付したことを想定して、そのマーカを検出する。なお、マーカを付していない場合には、球体全体を検出する。 Then, the binarization processing unit 130 performs binarization based on the color and brightness of the image in the frame (step S833). Here, it is assumed that a marker is attached to the sphere, and the marker is detected. If no marker is attached, the entire sphere is detected.

検出されたマーカに対して領域が設定されて(ステップS834)、その領域において時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成される。これにより、設定された領域においてマーカの追跡(ターゲットトラッキング)が行われる(ステップS835)。また、そのマーカについて、モーメント生成部150によってモーメント演算が行われる(ステップS836)。 An area is set for the detected marker (step S834), and the difference between frames adjacent to each other in the time series in the area is generated by the tracking processing unit 140. As a result, marker tracking (target tracking) is performed in the set area (step S835). Further, a moment calculation is performed by the moment generation unit 150 for the marker (step S836).

演算されたモーメントに基づいて、マーカの移動量が重心位置生成部160によって算出される(ステップS837)。また、演算されたモーメントに基づいて、集計処理部210においてマーカの移動方向が算出される(ステップS837)。算出されたマーカの移動量および移動方向は、インターフェース230を介して表示装置320に表示される(ステップS838)。 Based on the calculated moment, the movement amount of the marker is calculated by the center of gravity position generation unit 160 (step S837). Further, the totaling processing unit 210 calculates the moving direction of the marker based on the calculated moment (step S837). The calculated movement amount and movement direction of the marker are displayed on the display device 320 via the interface 230 (step S838).

また、操作入力装置310からの指示に従って処理が選択され(ステップS839)、回転率を算出する場合には、集計処理部210においてマーカの回転率が算出される(ステップS841)。算出されたマーカの回転率は、インターフェース230を介して表示装置320に表示される(ステップS842)。 Further, the process is selected according to the instruction from the operation input device 310 (step S839), and when the turnover rate is calculated, the turnover rate of the marker is calculated by the aggregation processing unit 210 (step S841). The calculated rotation rate of the marker is displayed on the display device 320 via the interface 230 (step S842).

そして、算出されたマーカの移動量および移動方向(回転率が算出された場合には、さらに回転率)に基づいて、マーカの軌跡および推定飛距離の予測演算が行われる(ステップS843)。 Then, a calculation for predicting the trajectory of the marker and the estimated flight distance is performed based on the calculated movement amount and movement direction of the marker (and further, if the rotation rate is calculated, the rotation rate) (step S843).

これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。 These processes are repeated for each of the frames of the image data arranged in chronological order.

このように、この第2の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、球体の移動量および移動方向などに基づいて球体の軌跡を予測することにより、球体の推定飛距離を予測することができる。 As described above, in this second application example, the estimated flight of the sphere is estimated by predicting the trajectory of the sphere based on the movement amount and the movement direction of the sphere, assuming a high frame rate of 1000 fps or more as the frame rate. You can predict the distance.

<4.第3の適用例>
図8は、本技術の実施の形態の第3の適用例における場内アナウンスの例を示す図である。本実施の形態における制御システムを用いて場内アナウンスを行うためには、会場(球場)の各所に画像センサ100を含むカメラ541を設置するとともに、カメラ541の近辺にスピーカ542を設置する。カメラ541によってボールの行方を追って、ホームランやファールボールとなったボールが客席に侵入することが予測された場合、その落下地点付近のスピーカ542から注意を喚起するアナウンスを出力するよう制御を行う。
<4. Third application example>
FIG. 8 is a diagram showing an example of an in-field announcement in a third application example of the embodiment of the present technique. In order to make an announcement in the hall using the control system in the present embodiment, a camera 541 including an image sensor 100 is installed in various places in the venue (ballpark), and a speaker 542 is installed in the vicinity of the camera 541. When the camera 541 tracks the whereabouts of the ball and it is predicted that the ball that has become a home run or a foul ball will enter the audience seat, the speaker 542 near the drop point is controlled to output an announcement to call attention.

図9は、本技術の実施の形態の第3の適用例におけるボールの客席への侵入を予測する態様を示す図である。球場においてはグラウンドと客席の間にはフェンス543が設けられる。このフェンス543よりも低い位置であれば、ボールはフェンス543に当ってグラウンドに落下する。しかし、このフェンス543をボールが超えた場合、客席内に落下して、観客に当って怪我を負わせてしまうおそれがある。 FIG. 9 is a diagram showing an aspect of predicting the intrusion of a ball into the audience seat in the third application example of the embodiment of the present technique. In the stadium, a fence 543 is provided between the ground and the audience seats. If the position is lower than the fence 543, the ball hits the fence 543 and falls to the ground. However, if the ball exceeds the fence 543, it may fall into the audience seats and hit the spectators, injuring them.

本実施の形態では、カメラ541によって高フレームレートでボールの行方を追って、ボールの軌跡を予測して、フェンス543を超えそうなボールを、フェンス543を超える前に素早く捉える。これにより、観客に対して注意喚起のアナウンスを流して、不慮の怪我を回避することができる。アナウンスを流すスピーカ542は落下地点付近に限定することができるため、範囲を絞って適格な注意喚起を行うことができる。また、これにより、フェンス543を不必要に高くすることを避け、球場における臨場感の低下を抑制することができる。 In the present embodiment, the camera 541 tracks the whereabouts of the ball at a high frame rate, predicts the trajectory of the ball, and quickly catches the ball that is likely to cross the fence 543 before crossing the fence 543. This makes it possible to send a warning announcement to the audience and avoid accidental injuries. Since the speaker 542 that plays the announcement can be limited to the vicinity of the drop point, it is possible to narrow down the range and give appropriate attention. Further, this makes it possible to avoid unnecessarily raising the fence 543 and suppress a decrease in the sense of presence in the stadium.

図10は、本技術の実施の形態の第3の適用例におけるシステム構成例を示す図である。この例では、フェンス543の上部の各所に画像センサ100を含むカメラ541を設置して、画像センサ100によって得られた情報を制御装置545に供給する。そして、客席へのボール侵入が予測される場合には、制御装置545からスピーカ542に、注意喚起のアナウンスを出力するよう制御信号が供給される。 FIG. 10 is a diagram showing a system configuration example in the third application example of the embodiment of the present technology. In this example, cameras 541 including the image sensor 100 are installed in various places on the upper part of the fence 543, and the information obtained by the image sensor 100 is supplied to the control device 545. Then, when it is predicted that the ball will enter the audience seat, a control signal is supplied from the control device 545 to the speaker 542 to output a warning announcement.

なお、カメラ541には、ボールが当たった際の衝撃を緩めるために保護カバー544を設けることが望ましい。 It is desirable that the camera 541 be provided with a protective cover 544 in order to loosen the impact when the ball hits the camera 541.

図11は、本技術の実施の形態の第3の適用例における場内アナウンスの処理手順例を示す流れ図である。 FIG. 11 is a flow chart showing an example of a processing procedure for an announcement in the field in a third application example of the embodiment of the present technique.

まず、撮像部110によって測定対象であるボールを撮像することによって画像データが取得される(ステップS851)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、ノイズが除去される(ステップS852)。 First, image data is acquired by imaging the ball to be measured by the imaging unit 110 (step S851). The acquired image data constitutes a time-series frame. Noise is removed from each of the acquired frames by the filter processing unit 120 (step S852).

そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われて、ターゲットとなるボールが検出される(ステップS853)。 Then, the binarization processing unit 130 performs binarization based on the color and brightness of the image in the frame, and the target ball is detected (step S853).

検出されたボールに対して、時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成されて、ボールの追跡(ターゲットトラッキング)が行われる(ステップS854)。また、そのボールについて、モーメント生成部150によってモーメント演算が行われる(ステップS855)。その結果、動きが検出された場合には以下のステップS857以降の処理が行われ、動きが検出されない場合にはステップS851以降の処理を繰り返す。 For the detected ball, the difference between the frames adjacent to each other in the time series is generated by the tracking processing unit 140, and the ball is tracked (target tracking) (step S854). Further, a moment calculation is performed on the ball by the moment generation unit 150 (step S855). As a result, when the motion is detected, the following processes after step S857 are performed, and when the motion is not detected, the processes after step S851 are repeated.

演算されたモーメントに基づいて、集計処理部210においてカメラ541とボールの距離が演算される(ステップS857)。また、集計処理部210において、ボールの移動方向および軌跡が判定される(ステップS858)。さらに、ボールの位置に応じて、集計処理部210においてファールボールかホームランかの区別が判定される(ステップS859)。これらの情報に基づいて、制御部220からインターフェース230を介して、スピーカ542に注意喚起のアナウンスを出力するよう制御信号が供給され、自動アナウンスが再生される(ステップS861)。 The distance between the camera 541 and the ball is calculated in the aggregation processing unit 210 based on the calculated moment (step S857). In addition, the aggregation processing unit 210 determines the moving direction and locus of the ball (step S858). Further, depending on the position of the ball, the aggregation processing unit 210 determines whether the ball is a foul ball or a home run (step S859). Based on this information, a control signal is supplied from the control unit 220 to the speaker 542 via the interface 230 to output a warning announcement, and the automatic announcement is reproduced (step S861).

これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。 These processes are repeated for each of the frames of the image data arranged in chronological order.

このように、この第3の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、ボールの軌跡を予測することにより、ボールの落下地点を推定して、状況に応じた場内アナウンスを行うことができる。 As described above, in this third application example, a high frame rate of 1000 fps or more is assumed as the frame rate, the trajectory of the ball is predicted, the falling point of the ball is estimated, and an announcement in the field is made according to the situation. It can be performed.

<5.第4の適用例>
図12は、本技術の実施の形態の第4の適用例における火山弾警報の例を示す図である。本実施の形態における制御システムを用いて火山弾警報を行うためには、同図のように、観測対象となる火山の噴火口を画像センサ100により撮像する。そして、火山弾が発生した場合に、その火山弾の行方を追って、火山弾の軌跡を予測して、落下地点を推定する。この推定された落下地点を危険エリアとして、避難勧告などの警告を行う。
<5. Fourth application example>
FIG. 12 is a diagram showing an example of a volcanic bomb warning in the fourth application example of the embodiment of the present technique. In order to issue a volcanic bomb warning using the control system in the present embodiment, the crater of the volcano to be observed is imaged by the image sensor 100 as shown in the figure. Then, when a volcanic bomb occurs, the whereabouts of the volcanic bomb are traced, the trajectory of the volcanic bomb is predicted, and the drop point is estimated. Warnings such as evacuation advisories will be given with this estimated fall point as a dangerous area.

通常の望遠カメラでは、観測画像から噴煙を認識することは可能であるが、火山弾の到達範囲を予測することは困難である。本実施の形態の例では、高フレームレートで火山弾を捉えて、火山弾のサイズおよび移動速度を計測し、その到達範囲を推測することができる。 With a normal telephoto camera, it is possible to recognize the eruption from the observed image, but it is difficult to predict the reach of the volcanic bomb. In the example of this embodiment, it is possible to capture a volcanic bomb at a high frame rate, measure the size and moving speed of the volcanic bomb, and estimate its reach.

図13は、本技術の実施の形態の第4の適用例における火山弾警報の処理手順例を示す流れ図である。なお、画像センサ100の設置時には、適切な撮像が行われるようキャリブレーションが行われる。 FIG. 13 is a flow chart showing an example of a procedure for processing a volcanic bomb warning in the fourth application example of the embodiment of the present technique. When the image sensor 100 is installed, calibration is performed so that appropriate imaging can be performed.

撮像部110によって観測対象である火山の噴火口を撮像することによって画像データが取得される(ステップS871)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、コントラスト等の補正が行われる(ステップS872)。これにより、天候や時刻による影響を緩和することができる。 Image data is acquired by imaging the crater of the volcano to be observed by the image pickup unit 110 (step S871). The acquired image data constitutes a time-series frame. Each of the acquired frames is corrected for contrast and the like by the filter processing unit 120 (step S872). This makes it possible to mitigate the effects of weather and time.

そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われ、時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成されて、動体が抽出される(ステップS873)。抽出された動体については、モーメント生成部150によってモーメント演算が行われ、その面積や移動量のベクトルが計測される(ステップS874)。 Then, the binarization processing unit 130 performs binarization by the color and brightness of the image in the frame, the difference between the frames adjacent to each other in the time series is generated by the tracking processing unit 140, and the moving object is extracted (step). S873). For the extracted moving body, a moment calculation is performed by the moment generation unit 150, and the area and the vector of the movement amount are measured (step S874).

計測された動体の面積や移動量のベクトルから、火山弾が発生したか否かが判断される(ステップS875)。火山弾が発生したと判断された場合には(ステップS875:Yes)、ステップS876以降の処理が行われる。火山弾が発生していないと判断された場合には(ステップS875:No)、ステップS871以降の処理が繰り返される。 From the measured vector of the area of the moving body and the amount of movement, it is determined whether or not a volcanic bomb has occurred (step S875). If it is determined that a volcanic bomb has occurred (step S875: Yes), the processing after step S876 is performed. If it is determined that no volcanic bombs have occurred (step S875: No), the processes after step S871 are repeated.

計測された動体の面積に基づいて、集計処理部210において火山弾の質量が推定される(ステップS876)。また、計測された動体の面積や移動量のベクトルに基づいて、火山弾の到達範囲が推定される(ステップS877)。そして、この推定された到達範囲に関して、警戒情報を生成して(ステップS878)、関係機関にその警戒情報を発報する(ステップS879)。 Based on the measured area of the moving object, the mass of the volcanic bomb is estimated in the aggregation processing unit 210 (step S876). In addition, the reach of the volcanic bomb is estimated based on the measured area of the moving object and the vector of the amount of movement (step S877). Then, with respect to this estimated reach, warning information is generated (step S878), and the warning information is notified to related organizations (step S879).

これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。 These processes are repeated for each of the frames of the image data arranged in chronological order.

このように、この第4の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、火山弾の軌跡を予測することにより、火山弾の落下地点を推定して、到達範囲に関する警戒情報を生成することができる。 As described above, in this fourth application example, the fall point of the volcanic bomb is estimated by predicting the trajectory of the volcanic bomb, assuming a high frame rate of 1000 fps or more as the frame rate, and caution regarding the reachable range is obtained. Information can be generated.

<6.第5の適用例>
図14は、本技術の実施の形態の第5の適用例における追跡撮像の例を示す図である。本実施の形態における制御システムを用いて追跡撮像を行うために、画像センサ100を含むカメラ550のレンズ部分にレンズ駆動アクチュエータ552を設ける。また、このレンズ駆動アクチュエータ552を制御するための自動追跡ボタン551を設ける。自動追跡ボタン551が押下されている間は、ターゲットとして検出された対象物を画面内に固定して捉えるようにレンズ駆動アクチュエータ552が制御される。カメラ550は、撮影者によって把持されるため、手振れ等が生じてターゲットの位置が一定にならないことが多いが、この実施の形態によればそのようなターゲットを固定した位置に捉えて撮像することができる。
<6. Fifth application example>
FIG. 14 is a diagram showing an example of follow-up imaging in the fifth application example of the embodiment of the present technique. In order to perform tracking imaging using the control system in the present embodiment, a lens drive actuator 552 is provided in the lens portion of the camera 550 including the image sensor 100. Further, an automatic tracking button 551 for controlling the lens drive actuator 552 is provided. While the automatic tracking button 551 is pressed, the lens drive actuator 552 is controlled so as to fix and capture the object detected as the target in the screen. Since the camera 550 is gripped by the photographer, the position of the target is often not constant due to camera shake or the like, but according to this embodiment, such a target is captured at a fixed position and imaged. Can be done.

図15は、本技術の実施の形態の第5の適用例における追跡撮像の態様を示す図である。ここでは、一例として、サッカーの試合中にボールをターゲットとして捉える場合の例を示す。 FIG. 15 is a diagram showing a mode of follow-up imaging in the fifth application example of the embodiment of the present technique. Here, as an example, an example of catching the ball as a target during a soccer match is shown.

通常の撮像モードからスポーツモードに変更すると、ボールの周辺には検出枠553が表示される。これは、画像センサ100によってボールを認識できていることを示している。検出枠553が表示されている状態において、自動追跡ボタン551が押下されると、トラッキング処理部140によってボールの動きが追跡され、モーメント生成部150によってモーメント演算が行われる。そして、演算されたモーメントに基づいて、ボールの移動量が重心位置生成部160によって算出される。また、演算されたモーメントに基づいて、集計処理部210においてボールの移動方向554が算出される。集計処理部210は、算出されたボールの移動量および移動方向からボールの軌跡を予測する。 When the normal imaging mode is changed to the sports mode, the detection frame 553 is displayed around the ball. This indicates that the ball can be recognized by the image sensor 100. When the automatic tracking button 551 is pressed while the detection frame 553 is displayed, the movement of the ball is tracked by the tracking processing unit 140, and the moment calculation is performed by the moment generation unit 150. Then, the movement amount of the ball is calculated by the center of gravity position generation unit 160 based on the calculated moment. Further, the totaling processing unit 210 calculates the moving direction 554 of the ball based on the calculated moment. The aggregation processing unit 210 predicts the trajectory of the ball from the calculated movement amount and direction of the ball.

制御部220は、予測されたボールの軌跡に合わせて、レンズ駆動アクチュエータ552に制御情報を供給する。この制御情報によりレンズ駆動アクチュエータ552が駆動されてレンズが動く。このとき、カメラが移動すると、カメラの重心位置がずれるため、制御部220からレンズ駆動アクチュエータ552にさらに制御情報がフィードバックされる。これにより、レンズ駆動アクチュエータ552の駆動によってレンズが動いて、ボールの位置が画面内の固定した位置になるように撮像が行われる。なお、レンズは、特許請求の範囲に記載の光学素子の一例である。 The control unit 220 supplies control information to the lens drive actuator 552 according to the predicted trajectory of the ball. The lens drive actuator 552 is driven by this control information to move the lens. At this time, when the camera moves, the position of the center of gravity of the camera shifts, so that the control information is further fed back from the control unit 220 to the lens drive actuator 552. As a result, the lens is moved by the drive of the lens drive actuator 552, and imaging is performed so that the position of the ball is a fixed position in the screen. The lens is an example of the optical element described in the claims.

なお、この例では、自動追跡ボタン551が押下された際のボールの表示位置を維持することを想定したが、自動追跡ボタン551が押下された際にボールの表示位置を中央に移動し、その後、その中央位置に維持するようにしてもよい。また、ボールの軌跡は急峻に変化しないように、フィルタ処理部120においてローパスフィルタをかけるようにしてもよい。また、ボールの追跡が瞬間的に外れた場合には、数フレーム程度については軌道予測を行ってもよい。 In this example, it is assumed that the display position of the ball is maintained when the automatic tracking button 551 is pressed, but the display position of the ball is moved to the center when the automatic tracking button 551 is pressed, and then the display position of the ball is moved to the center. , May be maintained in its central position. Further, a low-pass filter may be applied in the filter processing unit 120 so that the trajectory of the ball does not change sharply. Further, if the tracking of the ball is momentarily deviated, the trajectory may be predicted for several frames.

図16は、本技術の実施の形態の第5の適用例における追跡撮像の他の態様を示す図である。ここでは、撮像モードとして、ズームモードを想定する。このズームモードにおいては、ボールの検出とともに、顔の検出も行うものとする。同図では、画面555において、ボールの周辺には検出枠558が表示され、顔の周辺には検出枠559が表示されたものとしている。 FIG. 16 is a diagram showing another aspect of follow-up imaging in the fifth application example of the embodiment of the present technique. Here, a zoom mode is assumed as the imaging mode. In this zoom mode, the face is detected as well as the ball. In the figure, it is assumed that the detection frame 558 is displayed around the ball and the detection frame 559 is displayed around the face on the screen 555.

ズームイン枠557に検出枠558および559が入ると、拡大(ズームイン)動作が行われる。一方、ズームアウト枠556から検出枠558または559の少なくとも一方が外れると、縮小(ズームアウト)動作が行われる。これにより、検出枠558および559両方が必ず画面555内に入るように、ズームインまたはズームアウト動作が行われる。 When the detection frames 558 and 559 are inserted in the zoom-in frame 557, the enlargement (zoom-in) operation is performed. On the other hand, when at least one of the detection frame 558 or 559 is removed from the zoom-out frame 556, the reduction (zoom-out) operation is performed. As a result, the zoom-in or zoom-out operation is performed so that both the detection frames 558 and 559 always enter the screen 555.

図17は、本技術の実施の形態の第5の適用例における追跡撮像の処理手順例を示す流れ図である。同図において、左側の流れ図はカメラ550本体の処理手順を表し、右側の流れ図は画像センサ100の処理手順を表す。 FIG. 17 is a flow chart showing an example of a follow-up imaging processing procedure in the fifth application example of the embodiment of the present technique. In the figure, the flow chart on the left side shows the processing procedure of the camera 550 main body, and the flow chart on the right side shows the processing procedure of the image sensor 100.

カメラ550において撮像が開始すると、画像センサ100が起動される。画像センサ100の電源がオフになっている場合には(ステップS731:Yes)、画像センサ100の動作は行われない。画像センサ100の電源がオンになっている場合には(ステップS731:No)、カメラ550においてターゲットが指定されるまで待機する(ステップS732)。 When the image pickup is started in the camera 550, the image sensor 100 is activated. When the power of the image sensor 100 is turned off (step S731: Yes), the operation of the image sensor 100 is not performed. When the power of the image sensor 100 is turned on (step S731: No), the camera 550 waits until a target is specified (step S732).

カメラ550では、モニタリングモードによる撮像および表示が行われる(ステップS711)。このモニタリングモードにおいて追跡の対象となるターゲットが指定される(ステップS712)。例えば、サッカーの試合においてボールがターゲットとして指定される。ターゲットの検出が開始すると(ステップS713:Yes)、そのターゲットの座標が画像センサ100に通知される(ステップS714)。ターゲットトラッキングに失敗した場合には(ステップS715:No)、再びターゲットの検出を行う(ステップS713)。 The camera 550 performs imaging and display in the monitoring mode (step S711). A target to be tracked is specified in this monitoring mode (step S712). For example, a ball is designated as a target in a soccer match. When the detection of the target starts (step S713: Yes), the coordinates of the target are notified to the image sensor 100 (step S714). If the target tracking fails (step S715: No), the target is detected again (step S713).

ターゲットが指定されてその座標が通知されると(ステップS732:Yes)、画像センサ100はそのターゲットを検出する。検出に成功すると(ステップS733:Yes)、画像センサ100は検出レスポンスをカメラ550に返す(ステップS734)。また、検出に成功しても、その後のターゲットトラッキングに失敗した場合には(ステップS735:No)、トラッキングから外れた旨の通知をカメラ550に返して(ステップS738)、再びターゲットの検出を行う(ステップS733)。 When the target is designated and its coordinates are notified (step S732: Yes), the image sensor 100 detects the target. If the detection is successful (step S733: Yes), the image sensor 100 returns the detection response to the camera 550 (step S734). Further, even if the detection is successful, if the subsequent target tracking fails (step S735: No), a notification indicating that the tracking has been removed is returned to the camera 550 (step S738), and the target is detected again. (Step S733).

カメラ550は、画像センサ100からターゲット検出の通知またはトラッキングから外れた旨の通知を受けると(ステップS716:Yes)、自動追跡ボタン551の押下を待つ。そして、自動追跡ボタン551の押下が開始すると(ステップS717:Yes)、追跡の制御を画像センサ100に指示する(ステップS718)。自動追跡ボタン551の押下が終了すると(ステップS719:Yes)、追跡を終了する制御を画像センサ100に指示する(ステップS721)。 When the camera 550 receives the notification of target detection or the notification of deviation from tracking from the image sensor 100 (step S716: Yes), the camera 550 waits for the automatic tracking button 551 to be pressed. Then, when the automatic tracking button 551 starts to be pressed (step S717: Yes), the image sensor 100 is instructed to control the tracking (step S718). When the pressing of the automatic tracking button 551 is completed (step S719: Yes), the image sensor 100 is instructed to control the end of tracking (step S721).

画像センサ100は、カメラ550から追跡に関する制御を受けると(ステップS736:Yes)、ボールの軌跡を予測して、この予測された軌跡に基づいてレンズ駆動アクチュエータ552を制御する(ステップS737)。その間、ターゲットトラッキングを繰り返す(ステップS735)。 When the image sensor 100 receives control regarding tracking from the camera 550 (step S736: Yes), the image sensor 100 predicts the trajectory of the ball and controls the lens drive actuator 552 based on the predicted trajectory (step S737). Meanwhile, target tracking is repeated (step S735).

カメラ550は、モード切替が行われるまで(ステップS722)、ターゲットトラッキングを繰り返す(ステップS715)。モード切替が行われると(ステップS722:Yes)、電源オフでなければターゲットの指定に戻る(ステップS712)。 The camera 550 repeats target tracking (step S715) until mode switching is performed (step S722). When the mode is switched (step S722: Yes), the process returns to the target designation unless the power is turned off (step S712).

このように、この第5の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、ターゲットの軌跡を予測することにより、その予測された軌跡に基づいてレンズ駆動アクチュエータ552の駆動を制御する。これにより、ボールの位置が画面内の固定した位置になるように撮像することができる。 As described above, in this fifth application example, the lens drive actuator 552 is driven based on the predicted locus by predicting the locus of the target assuming a high frame rate of 1000 fps or more as the frame rate. Control. This makes it possible to take an image so that the position of the ball is a fixed position on the screen.

<7.第6の適用例>
図18は、本技術の実施の形態の第6の適用例における画像重畳の例を示す図である。本実施の形態における制御システムを用いて画像重畳を行うためには、元画像を画像センサ100により撮像する。そして、元画像において重畳対象となる部分を検出して、その部分に他の画像を重畳する。これにより、必要に応じて重畳された画像を供給することができる。
<7. Sixth application example>
FIG. 18 is a diagram showing an example of image superimposition in the sixth application example of the embodiment of the present technique. In order to perform image superimposition using the control system in the present embodiment, the original image is captured by the image sensor 100. Then, a portion of the original image to be superimposed is detected, and another image is superimposed on that portion. This makes it possible to supply superimposed images as needed.

図18におけるaでは、一例として、サッカーの試合中に選手のユニフォームに記載されている広告部分を他の広告に置換する場合の例を示す。現場の選手のユニフォームには「P商事」の企業名561が広告として記載されているものとする。これは物理的なものであるため、それ自体は変化しない。現場のカメラは、この状態の様子をそのまま撮影する。 In a in FIG. 18, as an example, an example in which the advertisement portion described in the player's uniform is replaced with another advertisement during a soccer match is shown. It is assumed that the company name 561 of "P Shoji" is described as an advertisement on the uniforms of the players in the field. Since this is physical, it does not change in itself. The on-site camera captures the situation as it is.

撮影された画像は、放送局の設備を通じて各地に放送される。その際、撮影された画像の広告部分に対して、広告契約に応じた企業名やブランド名が重畳される。例えば、図18におけるbのように、「P商事」の上に「Q産業」の企業名が重畳され、その重畳された画像が放送される。これにより、テレビに表示される選手のユニフォームには、「Q産業」の企業名562が広告として記載されているように映る。 The captured images are broadcast to various places through the equipment of the broadcasting station. At that time, the company name or brand name according to the advertising contract is superimposed on the advertising portion of the captured image. For example, as shown in b in FIG. 18, the company name of "Q industry" is superimposed on "P trading", and the superimposed image is broadcast. As a result, the player's uniform displayed on the television appears as if the company name 562 of "Q industry" is described as an advertisement.

図19は、本技術の実施の形態の第6の適用例における画像重畳のタイミング例を示す図である。ここでは、放送用カメラのフレームレートとして30fpsを想定する。一方、本実施の形態の画像センサ100を備える高速カメラのフレームレートとして1000fpsを想定する。 FIG. 19 is a diagram showing an example of image superimposition timing in the sixth application example of the embodiment of the present technique. Here, 30 fps is assumed as the frame rate of the broadcast camera. On the other hand, 1000 fps is assumed as the frame rate of the high-speed camera provided with the image sensor 100 of the present embodiment.

この場合、高速カメラによって撮像された画像において重畳対象である広告部分をトラッキング対象物としてターゲットトラッキングを行う。これにより、広告部分の座標位置および形状が認識される。そして、新たな広告のテクスチャを生成して、その生成されたテクスチャを放送用カメラのフレームの広告部分に張り付ける。高速カメラのフレームレートは放送用カメラのフレームレートよりも十分に速いため、高速カメラのフレームについてこれらの処理を行った後に、放送用カメラのフレームに対して重畳を行うことができる。 In this case, target tracking is performed with the advertisement portion to be superimposed in the image captured by the high-speed camera as the tracking target. As a result, the coordinate position and shape of the advertisement portion are recognized. Then, a new advertisement texture is generated, and the generated texture is attached to the advertisement part of the frame of the broadcasting camera. Since the frame rate of the high-speed camera is sufficiently faster than the frame rate of the broadcast camera, it is possible to superimpose the frame of the high-speed camera on the frame of the broadcast camera after performing these processes.

図20は、本技術の実施の形態の第6の適用例における画像重畳の処理手順例を示す流れ図である。 FIG. 20 is a flow chart showing an example of an image superimposition processing procedure in the sixth application example of the embodiment of the present technique.

まず、画像センサ100により画像データが取得される(ステップS881)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、ノイズが除去される(ステップS882)。 First, image data is acquired by the image sensor 100 (step S881). The acquired image data constitutes a time-series frame. Noise is removed from each of the acquired frames by the filtering unit 120 (step S882).

そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われて、重畳対象であるマーカが検出される(ステップS883)。検出されたマーカに対して領域が設定されて(ステップS884)、その領域において時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成される。これにより、設定された領域においてマーカの追跡(ターゲットトラッキング)が行われる(ステップS885)。また、そのマーカについて、モーメント生成部150によってモーメント演算が行われる(ステップS886)。 Then, the binarization processing unit 130 performs binarization based on the color and brightness of the image in the frame, and detects the marker to be superimposed (step S883). An area is set for the detected marker (step S884), and the difference between frames adjacent to each other in the time series in the area is generated by the tracking processing unit 140. As a result, marker tracking (target tracking) is performed in the set area (step S885). Further, a moment calculation is performed by the moment generation unit 150 for the marker (step S886).

また、操作入力装置310からの指示に従って処理が選択される(ステップS887)。重畳映像を出力する場合には、集計処理部210において重畳処理が行った後に(ステップS888)、インターフェース230を介してその重畳映像を出力する(ステップS889)。一方、オリジナル映像を出力する場合には、重畳処理を行うことなくインターフェース230を介してオリジナル映像を出力する(ステップS889)。 Further, the process is selected according to the instruction from the operation input device 310 (step S887). When the superimposed video is output, the superimposed video is output via the interface 230 after the superimposition processing is performed by the aggregation processing unit 210 (step S888) (step S888). On the other hand, when the original video is output, the original video is output via the interface 230 without performing the superimposition processing (step S889).

これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。 These processes are repeated for each of the frames of the image data arranged in chronological order.

このように、この第6の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、重畳対象の軌跡を予測することにより、その重畳対象の位置の画像を重畳して置換することができる。 As described above, in this sixth application example, by assuming a high frame rate of 1000 fps or more as the frame rate and predicting the locus of the superimposed object, the image at the position of the superimposed object is superimposed and replaced. Can be done.

<8.第7の適用例>
図21は、本技術の実施の形態の第7の適用例における距離算出の例を示す図である。従来、モーションキャプチャ等で使われるオブジェクトトラッキングは、3次元での動きを正確に測定するために複数のカメラを用いて行われていた。そのため、システムとしては大掛かりで高価なものとなっていた。そこで、本実施の形態における制御システムを用いて距離算出を行うために、測定対象である対象物の画像を画像センサ100により撮像し、対象物の距離を算出する。
<8. 7th application example>
FIG. 21 is a diagram showing an example of distance calculation in the seventh application example of the embodiment of the present technique. Conventionally, object tracking used in motion capture and the like has been performed using a plurality of cameras in order to accurately measure movement in three dimensions. Therefore, the system was large and expensive. Therefore, in order to calculate the distance using the control system in the present embodiment, the image of the object to be measured is imaged by the image sensor 100, and the distance of the object is calculated.

この例において距離を算出するためには、予めキャリブレーションを行う必要がある。すなわち、ある決められた座標位置(0,0)に、トラッキング対象のオブジェクト571を配置し、そのときの距離および面積を基準距離および基準面積として記録する。その後、オブジェクト571についてトラッキングを行い、そのオブジェクト571の重心位置(x,y)と面積sを算出し、その面積とキャリブレーションの結果から、次式により距離zを算出する。
距離z=基準距離×(面積s/基準面積)1/2
In order to calculate the distance in this example, it is necessary to calibrate in advance. That is, the object 571 to be tracked is placed at a predetermined coordinate position (0,0), and the distance and area at that time are recorded as the reference distance and the reference area. After that, tracking is performed on the object 571, the position of the center of gravity (x, y) and the area s of the object 571 are calculated, and the distance z is calculated from the area and the calibration result by the following equation.
Distance z = reference distance x (area s / reference area) 1/2

図22は、本技術の実施の形態の第7の適用例におけるオブジェクトトラッキングの態様を示す図である。この例では、画像センサ100により撮像されるフレームレートとして1000fps以上の高フレームレートを想定するため、フレーム単位の動き量は微少となる。これを前提に、検出範囲を局所化し、その範囲での面積と重心位置を求めることにより、簡易な仕組みでトラッキングを行うことができる。 FIG. 22 is a diagram showing an aspect of object tracking in the seventh application example of the embodiment of the present technique. In this example, since a high frame rate of 1000 fps or more is assumed as the frame rate imaged by the image sensor 100, the amount of movement in each frame is very small. On the premise of this, by localizing the detection range and obtaining the area and the position of the center of gravity in that range, tracking can be performed by a simple mechanism.

前フレームにおけるオブジェクト572の重心位置573を中心として、その近傍を検出対象枠574として設定する。このとき、検出範囲の一辺(幅および高さ)は、次式により表される。ただし、αは探索範囲係数である。
検出範囲の一辺=(前フレームの0次モーメント)1/2×α
Centering on the center of gravity position 573 of the object 572 in the previous frame, the vicinity thereof is set as the detection target frame 574. At this time, one side (width and height) of the detection range is expressed by the following equation. However, α is a search range coefficient.
One side of the detection range = (0th moment of the previous frame) 1/2 x α

トラッキング処理部140によって、検出対象枠574において、次フレームにおけるオブジェクト575が検出されると、二値化処理部130によって二値化処理が行われる。これにより、オブジェクト575の位置(x,y)にはビットマップI(x,y)として「1」が、それ以外の位置には「0」が示される。このビットマップI(x,y)に基づいて、モーメント生成部150において次式のようにモーメント演算が行われる。
0次モーメント(面積)=ΣΣI(x,y)
水平1次モーメント=ΣΣx×I(x,y)
垂直1次モーメント=ΣΣy×I(x,y)
ただし、上式におけるΣΣは、水平方向および垂直方向の総和演算を表す。
When the tracking processing unit 140 detects the object 575 in the next frame in the detection target frame 574, the binarization processing unit 130 performs the binarization processing. As a result, "1" is indicated as the bitmap I (x, y) at the position (x, y) of the object 575, and "0" is indicated at the other positions. Based on this bitmap I (x, y), the moment generation unit 150 performs a moment calculation as shown in the following equation.
0th moment (area) = ΣΣI (x, y)
Horizontal first moment of area = ΣΣx × I (x, y)
Vertical first moment of area = ΣΣy × I (x, y)
However, ΣΣ in the above equation represents the summation operation in the horizontal direction and the vertical direction.

このようにして生成されたモーメントに基づいて、重心位置生成部160において重心位置の座標が次式により生成される。
重心x座標=水平1次モーメント/0次モーメント
重心y座標=垂直1次モーメント/0次モーメント
Based on the moment generated in this way, the coordinates of the center of gravity position are generated in the center of gravity position generation unit 160 by the following equation.
Center of gravity x coordinate = horizontal primary moment / 0th order moment Center of gravity y coordinate = vertical primary moment / 0th order moment

図23は、本技術の実施の形態の第7の適用例における距離算出の態様を示す図である。上述のように、この例では、予め基準位置における距離と面積の関係をキャリブレーションしておくことにより、カメラ561により得られた面積から距離を算出することができる。 FIG. 23 is a diagram showing a mode of distance calculation in the seventh application example of the embodiment of the present technique. As described above, in this example, the distance can be calculated from the area obtained by the camera 561 by calibrating the relationship between the distance and the area at the reference position in advance.

ここで、基準位置における面積A0を基準面積として、そのときの距離D0を基準距離とする。オブジェクトトラッキングを行った際に、面積A1が得られた場合、その距離D1は次式により算出される。
D1=D0×(A1/A0)1/2
Here, the area A0 at the reference position is used as the reference area, and the distance D0 at that time is used as the reference distance. If the area A1 is obtained when object tracking is performed, the distance D1 is calculated by the following equation.
D1 = D0 × (A1 / A0) 1/2

同様に、オブジェクトトラッキングを行った際に、面積A2が得られた場合、その距離D2は次式により算出される。
D2=D0×(A2/A0)1/2
Similarly, when the area A2 is obtained when the object tracking is performed, the distance D2 is calculated by the following equation.
D2 = D0 × (A2 / A0) 1/2

図24は、本技術の実施の形態の第7の適用例における距離算出の処理手順例を示す流れ図である。なお、この距離算出の前提として、キャリブレーションが行われているものとする。 FIG. 24 is a flow chart showing an example of a processing procedure for distance calculation in the seventh application example of the embodiment of the present technique. It is assumed that calibration has been performed as a premise for calculating this distance.

まず、画像センサ100により画像データが取得される(ステップS891)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、ノイズが除去される(ステップS892)。 First, image data is acquired by the image sensor 100 (step S891). The acquired image data constitutes a time-series frame. Noise is removed from each of the acquired frames by the filter processing unit 120 (step S892).

そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われて、重畳対象であるマーカが検出される(ステップS893)。検出されたマーカに対して領域が設定されて(ステップS894)、その領域において時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成される。これにより、設定された領域においてマーカの追跡(ターゲットトラッキング)が行われる(ステップS895)。 Then, the binarization processing unit 130 performs binarization based on the color and brightness of the image in the frame, and detects the marker to be superimposed (step S893). An area is set for the detected marker (step S894), and the difference between frames adjacent to each other in the time series in the area is generated by the tracking processing unit 140. As a result, marker tracking (target tracking) is performed in the set area (step S895).

また、そのマーカについて、モーメント生成部150によってモーメント演算が行われる(ステップS896)。 演算されたモーメントに基づいて、マーカの移動量が重心位置生成部160によって算出される(ステップS897)。 Further, a moment calculation is performed by the moment generation unit 150 for the marker (step S896). Based on the calculated moment, the movement amount of the marker is calculated by the center of gravity position generation unit 160 (step S897).

また、操作入力装置310からの指示に従って処理が選択され(ステップS898)、距離算出を行う場合には、集計処理部210において距離が算出される(ステップS899)。算出された距離は、例えば、インターフェース230を介して表示装置320に表示される。 Further, the process is selected according to the instruction from the operation input device 310 (step S898), and when the distance is calculated, the distance is calculated by the aggregation processing unit 210 (step S899). The calculated distance is displayed on the display device 320 via the interface 230, for example.

これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。 These processes are repeated for each of the frames of the image data arranged in chronological order.

このように、この第7の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、オブジェクトの軌跡を予測することにより、オブジェクトとの間の距離を算出することができる。 As described above, in this seventh application example, the distance to the object can be calculated by predicting the trajectory of the object assuming a high frame rate of 1000 fps or more as the frame rate.

ここまで説明したように、本技術の実施の形態によれば、対象物を高フレームレートにより撮像して画像センサ100内で画像処理することにより、対象物の軌跡を予測して、その予測結果に基づいて制御対象装置330を制御することができる。 As described above, according to the embodiment of the present technique, the trajectory of the object is predicted by imaging the object at a high frame rate and performing image processing in the image sensor 100, and the prediction result thereof. The controlled device 330 can be controlled based on the above.

なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。 It should be noted that the above-described embodiment shows an example for embodying the present technology, and the matters in the embodiment and the matters specifying the invention within the scope of claims have a corresponding relationship with each other. Similarly, the matters specifying the invention within the scope of claims and the matters in the embodiment of the present technology having the same name have a corresponding relationship with each other. However, the present technique is not limited to the embodiment, and can be embodied by applying various modifications to the embodiment without departing from the gist thereof.

また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disc)、メモリカード、ブルーレイディスク(Blu-ray(登録商標)Disc)等を用いることができる。 Further, the processing procedure described in the above-described embodiment may be regarded as a method having these series of procedures, or as a program for causing a computer to execute these series of procedures or as a recording medium for storing the program. You may catch it. As the recording medium, for example, a CD (Compact Disc), MD (MiniDisc), DVD (Digital Versatile Disc), memory card, Blu-ray Disc (Blu-ray (registered trademark) Disc) and the like can be used.

なお、本明細書に記載された効果はあくまで例示であって、限定されるものではなく、また、他の効果があってもよい。 It should be noted that the effects described in the present specification are merely examples and are not limited, and other effects may be obtained.

なお、本技術は以下のような構成もとることができる。
(1)対象物を撮像して時系列に並ぶ画像データのフレームを生成する撮像素子と、
前記フレームの各々に対して二値化処理を行って二値化フレームを生成する二値化処理部と、
時系列に隣接する前記二値化フレームの間の差分を生成して前記二値化フレームに含まれる前記対象物の位置の変化を追跡するトラッキング処理部と、
前記トラッキング処理部による結果に基づいて前記二値化フレームに含まれる前記対象物のモーメントを算出するモーメント生成部と、
前記モーメント生成部によって生成された前記モーメントに基づいて前記二値化フレームに含まれる前記対象物の重心位置を生成する重心位置生成部と、
前記重心位置生成部によって生成された前記対象物の重心位置に基づいて前記対象物の軌跡を予測して生成する軌跡生成部と、
前記軌跡生成部によって生成された前記対象物の軌跡に基づいて制御対象装置に制御信号を供給する制御信号供給部と
を具備する画像センサ。
(2)前記軌跡生成部は、前記対象物との距離の軌跡を予測し、
前記制御信号供給部は、前記予測された距離が所定の条件を満たす場合に前記制御信号を供給する
前記(1)に記載の画像センサ。
(3)前記制御信号は、緩衝部材の動作を制御する制御信号である前記(2)に記載の画像センサ。
(4)前記制御信号は、警告装置の動作を制御する制御信号である前記(2)に記載の画像センサ。
(5)前記軌跡生成部は、前記対象物の弾道の軌跡を予測し、
前記制御信号供給部は、前記予測された軌跡を表示するための前記制御信号を供給する
前記(1)から(4)のいずれかに記載の画像センサ。
(6)前記軌跡生成部は、前記対象物の飛距離を予測し、
前記制御信号供給部は、前記予測された飛距離を表示するための前記制御信号を供給する
前記(5)に記載の画像センサ。
(7)前記軌跡生成部は、前記対象物の到達位置を予測し、
前記制御信号供給部は、前記予測された到達位置を表示するための前記制御信号を供給する
前記(5)に記載の画像センサ。
(8)前記制御信号供給部は、前記予測された到達位置に応じた音声信号を出力するための前記制御信号を供給する
前記(7)に記載の画像センサ。
(9)前記撮像素子に前記対象物を含む画像を供給する光学素子をさらに具備し、
前記制御信号は、前記光学素子の動作を制御する制御信号である
前記(1)から(8)のいずれかに記載の画像センサ。
(10)前記制御信号は、前記フレームの一部を所定の画像に置換して表示させる制御信号である前記(1)から(9)のいずれかに記載の画像センサ。
The present technology can have the following configurations.
(1) An image sensor that captures an object and generates frames of image data arranged in chronological order.
A binarization processing unit that performs binarization processing on each of the frames to generate a binarization frame, and a binarization processing unit.
A tracking processing unit that generates a difference between the binarized frames adjacent to the time series and tracks a change in the position of the object included in the binarized frame.
A moment generation unit that calculates the moment of the object included in the binarization frame based on the result of the tracking processing unit, and a moment generation unit.
A center of gravity position generation unit that generates the center of gravity position of the object included in the binarization frame based on the moment generated by the moment generation unit.
A locus generation unit that predicts and generates a locus of the object based on the center of gravity position of the object generated by the center of gravity position generation unit.
An image sensor including a control signal supply unit that supplies a control signal to a control target device based on the trajectory of the object generated by the trajectory generation unit.
(2) The locus generation unit predicts a locus of a distance from the object and predicts the locus.
The image sensor according to (1), wherein the control signal supply unit supplies the control signal when the predicted distance satisfies a predetermined condition.
(3) The image sensor according to (2) above, wherein the control signal is a control signal that controls the operation of the shock absorber.
(4) The image sensor according to (2) above, wherein the control signal is a control signal that controls the operation of the warning device.
(5) The trajectory generation unit predicts the trajectory of the trajectory of the object, and predicts the trajectory of the object.
The image sensor according to any one of (1) to (4), wherein the control signal supply unit supplies the control signal for displaying the predicted locus.
(6) The locus generation unit predicts the flight distance of the object and determines the flight distance.
The image sensor according to (5), wherein the control signal supply unit supplies the control signal for displaying the predicted flight distance.
(7) The locus generation unit predicts the arrival position of the object and predicts the arrival position of the object.
The image sensor according to (5), wherein the control signal supply unit supplies the control signal for displaying the predicted arrival position.
(8) The image sensor according to (7), wherein the control signal supply unit supplies the control signal for outputting an audio signal according to the predicted arrival position.
(9) The image pickup device is further provided with an optical element for supplying an image containing the object.
The image sensor according to any one of (1) to (8) above, wherein the control signal is a control signal for controlling the operation of the optical element.
(10) The image sensor according to any one of (1) to (9) above, wherein the control signal is a control signal in which a part of the frame is replaced with a predetermined image and displayed.

100 画像センサ
110 撮像部
120 フィルタ処理部
130 二値化処理部
140 トラッキング処理部
150 モーメント生成部
160 重心位置生成部
210 集計処理部
220 制御部
230 インターフェース
310 操作入力装置
320 表示装置
330 制御対象装置
511、515 保護対象
512、516、521、523、525 緩衝部材
513、517、522、524、526 画像センサ
514、518 移動物体
531 プレーヤ
532 ボール
533 携帯端末
534 推定飛距離
541、550、561 カメラ
542 スピーカ
543 フェンス
544 保護カバー
545 制御装置
551 自動追跡ボタン
552 レンズ駆動アクチュエータ
100 Image sensor 110 Imaging unit 120 Filter processing unit 130 Binarization processing unit 140 Tracking processing unit 150 Moment generation unit 160 Center of gravity position generation unit 210 Aggregation processing unit 220 Control unit 230 Interface 310 Operation input device 320 Display device 330 Control target device 511 515 Protected object 512, 516, 521, 523, 525 Cushioning member 513, 517, 522, 524, 526 Image sensor 514, 518 Moving object 531 Player 532 Ball 533 Mobile terminal 534 Estimated flight distance 541, 550, 561 Camera 542 Speaker 543 Fence 544 Protective cover 545 Control device 551 Automatic tracking button 552 Lens drive actuator

Claims (10)

対象物を撮像して時系列に並ぶ画像データのフレームを1000fps以上のフレームレートにより生成する撮像素子と、
前記フレームの各々に対して二値化処理を行って二値化フレームを生成する二値化処理部と、
時系列に隣接する前記二値化フレームの間の差分を生成して前記二値化フレームに含まれる前記対象物の位置の変化を追跡するトラッキング処理部と、
前記トラッキング処理部による結果に基づいて前記二値化フレームに含まれる前記対象物のモーメントを算出するモーメント生成部と、
前記モーメント生成部によって生成された前記モーメントに基づいて前記二値化フレームに含まれる前記対象物の重心位置を生成する重心位置生成部と、
前記重心位置生成部によって生成された前記対象物の重心位置に基づいて前記対象物の軌跡を予測して生成する軌跡生成部と、
前記軌跡生成部によって生成された前記対象物の軌跡に基づいて制御対象装置に制御信号を供給する制御信号供給部と
を具備する画像センサ。
An image sensor that captures an object and generates frames of image data arranged in chronological order at a frame rate of 1000 fps or higher .
A binarization processing unit that performs binarization processing on each of the frames to generate a binarization frame, and a binarization processing unit.
A tracking processing unit that generates a difference between the binarized frames adjacent to the time series and tracks a change in the position of the object included in the binarized frame.
A moment generation unit that calculates the moment of the object included in the binarization frame based on the result of the tracking processing unit, and a moment generation unit.
A center of gravity position generation unit that generates the center of gravity position of the object included in the binarization frame based on the moment generated by the moment generation unit.
A locus generation unit that predicts and generates a locus of the object based on the center of gravity position of the object generated by the center of gravity position generation unit.
An image sensor including a control signal supply unit that supplies a control signal to a control target device based on the trajectory of the object generated by the trajectory generation unit.
前記軌跡生成部は、前記対象物との距離の軌跡を予測し、
前記制御信号供給部は、前記予測された距離が所定の条件を満たす場合に前記制御信号を供給する
請求項1記載の画像センサ。
The locus generation unit predicts a locus of a distance from the object and predicts the locus.
The image sensor according to claim 1, wherein the control signal supply unit supplies the control signal when the predicted distance satisfies a predetermined condition.
前記制御信号は、緩衝部材の動作を制御する制御信号である請求項2記載の画像センサ。 The image sensor according to claim 2, wherein the control signal is a control signal that controls the operation of the cushioning member. 前記制御信号は、警告装置の動作を制御する制御信号である請求項2記載の画像センサ。 The image sensor according to claim 2, wherein the control signal is a control signal that controls the operation of the warning device. 前記軌跡生成部は、前記対象物の弾道の軌跡を予測し、
前記制御信号供給部は、前記予測された軌跡を表示するための前記制御信号を供給する
請求項1記載の画像センサ。
The trajectory generation unit predicts the trajectory of the trajectory of the object and predicts the trajectory of the object.
The image sensor according to claim 1, wherein the control signal supply unit supplies the control signal for displaying the predicted locus.
前記軌跡生成部は、前記対象物の飛距離を予測し、
前記制御信号供給部は、前記予測された飛距離を表示するための前記制御信号を供給する
請求項5記載の画像センサ。
The locus generation unit predicts the flight distance of the object and
The image sensor according to claim 5, wherein the control signal supply unit supplies the control signal for displaying the predicted flight distance.
前記軌跡生成部は、前記対象物の到達位置を予測し、
前記制御信号供給部は、前記予測された到達位置を表示するための前記制御信号を供給する
請求項5記載の画像センサ。
The locus generation unit predicts the arrival position of the object and predicts the arrival position of the object.
The image sensor according to claim 5, wherein the control signal supply unit supplies the control signal for displaying the predicted arrival position.
前記制御信号供給部は、前記予測された到達位置に応じた音声信号を出力するための前記制御信号を供給する
請求項7記載の画像センサ。
The image sensor according to claim 7, wherein the control signal supply unit supplies the control signal for outputting an audio signal according to the predicted arrival position.
前記撮像素子に前記対象物を含む画像を供給する光学素子をさらに具備し、
前記制御信号は、前記光学素子の動作を制御する制御信号である
請求項1記載の画像センサ。
The image pickup device is further provided with an optical element that supplies an image containing the object.
The image sensor according to claim 1, wherein the control signal is a control signal that controls the operation of the optical element.
前記制御信号は、前記フレームの一部を所定の画像に置換して表示させる制御信号である請求項1記載の画像センサ。 The image sensor according to claim 1, wherein the control signal is a control signal in which a part of the frame is replaced with a predetermined image and displayed.
JP2018554870A 2016-12-07 2017-11-07 Image sensor Active JP7100590B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016237176 2016-12-07
JP2016237176 2016-12-07
PCT/JP2017/040037 WO2018105290A1 (en) 2016-12-07 2017-11-07 Image sensor

Publications (2)

Publication Number Publication Date
JPWO2018105290A1 JPWO2018105290A1 (en) 2019-10-24
JP7100590B2 true JP7100590B2 (en) 2022-07-13

Family

ID=62492252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018554870A Active JP7100590B2 (en) 2016-12-07 2017-11-07 Image sensor

Country Status (2)

Country Link
JP (1) JP7100590B2 (en)
WO (1) WO2018105290A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020075230A1 (en) * 2018-10-10 2020-04-16 株式会社ウフル Strike alert system, method, program, and seat in baseball stadium
CN110062272B (en) 2019-04-30 2021-09-28 腾讯科技(深圳)有限公司 Video data processing method and related device
JP7083332B2 (en) * 2019-12-27 2022-06-10 楽天グループ株式会社 Image processing equipment, image processing methods, and programs
JP7083334B2 (en) * 2019-12-27 2022-06-10 楽天グループ株式会社 Image processing equipment, image processing methods, and programs
WO2022034245A1 (en) * 2020-08-14 2022-02-17 Topgolf Sweden Ab Motion based pre-processing of two-dimensional image data prior to three-dimensional object tracking with virtual time synchronization
JP7322320B2 (en) 2020-08-14 2023-08-07 トップゴルフ スウェーデン エービー Motion-based preprocessing of 2D image data before 3D object tracking using virtual time synchronization

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001521403A (en) 1996-02-12 2001-11-06 ゴルフ エイジ テクノロジーズ,インコーポレイテッド Golf driving range distance determination apparatus and method
JP2002543503A (en) 1999-04-23 2002-12-17 シーメンス アクチエンゲゼルシヤフト Method and apparatus for determining the position of an object in a scene
JP2004145669A (en) 2002-10-24 2004-05-20 Sharp Corp Movement detection method, control method, movement detector, controller and computer program
JP2008160436A (en) 2006-12-22 2008-07-10 Olympus Imaging Corp Imaging device
JP2008219489A (en) 2007-03-05 2008-09-18 Nippon Hoso Kyokai <Nhk> Trajectory image synthesizer of video object and program therefor
JP2010005267A (en) 2008-06-30 2010-01-14 Mitsubishi Electric Engineering Co Ltd Safety management system for golf links

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916863A (en) * 1995-06-27 1997-01-17 Toshiba Corp Monitor and control device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001521403A (en) 1996-02-12 2001-11-06 ゴルフ エイジ テクノロジーズ,インコーポレイテッド Golf driving range distance determination apparatus and method
JP2002543503A (en) 1999-04-23 2002-12-17 シーメンス アクチエンゲゼルシヤフト Method and apparatus for determining the position of an object in a scene
JP2004145669A (en) 2002-10-24 2004-05-20 Sharp Corp Movement detection method, control method, movement detector, controller and computer program
JP2008160436A (en) 2006-12-22 2008-07-10 Olympus Imaging Corp Imaging device
JP2008219489A (en) 2007-03-05 2008-09-18 Nippon Hoso Kyokai <Nhk> Trajectory image synthesizer of video object and program therefor
JP2010005267A (en) 2008-06-30 2010-01-14 Mitsubishi Electric Engineering Co Ltd Safety management system for golf links

Also Published As

Publication number Publication date
JPWO2018105290A1 (en) 2019-10-24
WO2018105290A1 (en) 2018-06-14

Similar Documents

Publication Publication Date Title
JP7100590B2 (en) Image sensor
US9734583B2 (en) Systems and methods for controlling vehicle position and orientation
JP2020191646A (en) Information processing system, information processing method and program
EP2659465B1 (en) Tracking moving objects using a camera network
KR20190005765A (en) Image processing apparatus, image processing method thereof and program
US20160370239A1 (en) Body Motion Assessment Using Image Analysis
JP7119442B2 (en) Monitoring system, monitoring method and monitoring program
JP5187292B2 (en) Vehicle periphery monitoring device
JP5574789B2 (en) Vehicle periphery monitoring device and vehicle periphery monitoring method
CN106463032A (en) Intrusion detection with directional sensing
US20180136306A1 (en) Device and method for measuring flight data of flying objects using high speed video camera and computer readable recording medium having program for performing the same
JP5418661B2 (en) Vehicle periphery monitoring device
JP2021185698A (en) Video image processing device, video image analysis system, method, and program
JP2013105253A5 (en)
CA3139271C (en) Ball tracking apparatus and ball tracking method
JP7161981B2 (en) Object tracking program, device and method capable of switching object tracking means
JP6760485B2 (en) Video processing equipment, video analysis systems, methods and programs
JP2014175706A (en) Monitor device, monitor method, and imaging unit arrangement method
EP3434621A1 (en) Instruction projecting device, package sorting system and instruction projecting method
JP2019135653A (en) Monitoring system, monitoring method and monitoring program
JP6384802B2 (en) MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT
JP7128577B2 (en) monitoring device
US8885886B2 (en) Method and apparatus and program
Vorapatratorn et al. Fast obstacle detection system for the blind using depth image and machine learning.
KR102621481B1 (en) Method for displaying locus using image accumulation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220701

R150 Certificate of patent or registration of utility model

Ref document number: 7100590

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150