JPWO2018105290A1 - Image sensor - Google Patents

Image sensor Download PDF

Info

Publication number
JPWO2018105290A1
JPWO2018105290A1 JP2018554870A JP2018554870A JPWO2018105290A1 JP WO2018105290 A1 JPWO2018105290 A1 JP WO2018105290A1 JP 2018554870 A JP2018554870 A JP 2018554870A JP 2018554870 A JP2018554870 A JP 2018554870A JP WO2018105290 A1 JPWO2018105290 A1 JP WO2018105290A1
Authority
JP
Japan
Prior art keywords
control signal
trajectory
image sensor
target
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018554870A
Other languages
Japanese (ja)
Other versions
JP7100590B2 (en
Inventor
正嗣 小林
諭 井上
陽介 堀江
敦 能勢
光夫 大山田
隆司 佐伯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of JPWO2018105290A1 publication Critical patent/JPWO2018105290A1/en
Application granted granted Critical
Publication of JP7100590B2 publication Critical patent/JP7100590B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Adjustment Of Camera Lenses (AREA)

Abstract

表示のための低速画像データとは異なる高速画像データによる対象物の軌跡に基づいて装置の制御を行う。撮像素子は、対象物を撮像して時系列に並ぶ画像データのフレームを生成する。二値化処理部は、フレームの各々に対して二値化処理を行って二値化フレームを生成する。トラッキング処理部は、時系列に隣接する二値化フレームの間の差分を生成して二値化フレームに含まれる対象物の位置の変化を追跡する。モーメント生成部は、二値化フレームのモーメントを算出する。重心位置生成部は、二値化フレームに含まれる対象物の重心位置を生成する。軌跡生成部は、対象物の軌跡を予測して生成する。制御信号供給部は、対象物の軌跡に基づいて制御対象装置に制御信号を供給する。The apparatus is controlled based on the trajectory of the object based on the high-speed image data different from the low-speed image data for display. The imaging device captures an object and generates frames of image data arranged in time series. The binarization processing unit performs binarization processing on each of the frames to generate a binarized frame. The tracking processing unit generates a difference between the binarized frames adjacent to each other in time series and tracks the change in the position of the object included in the binarized frame. The moment generator calculates the moment of the binarized frame. The centroid position generation unit generates the centroid position of the object included in the binarized frame. The trajectory generation unit predicts and generates a trajectory of the object. The control signal supply unit supplies a control signal to the control target device based on the trajectory of the target object.

Description

本技術は、画像センサに関する。詳しくは、撮像された画像データを利用して制御対象装置の制御を行うための画像センサに関する。   The present technology relates to an image sensor. Specifically, the present invention relates to an image sensor for controlling a control target device using captured image data.

従来、物体の画像を所定の間隔毎に撮影して、それらの画像に基づいて物体の軌跡を表す画像を生成する画像処理装置が知られている。例えば、第1画像が撮影されてから第2画像が撮影されるまでの間における物体の軌跡を求め、その求めた軌跡を用いて軌跡を補間する画像処理装置が提案されている(例えば、特許文献1参照。)。   2. Description of the Related Art Conventionally, an image processing apparatus that captures an image of an object at predetermined intervals and generates an image representing the locus of the object based on those images is known. For example, there has been proposed an image processing apparatus that obtains a trajectory of an object from when the first image is photographed until the second image is photographed, and interpolates the trajectory using the obtained trajectory (for example, a patent). Reference 1).

特開2015−087904号公報Japanese Patent Application Laid-Open No. 2015-087904

上述の従来技術では、所定の間隔毎に撮影された物体の画像から物体の軌跡を求めるために補間処理を行っている。画像を表示するためには、一般に30乃至120fps(フレーム/秒)程度の処理速度で足りるが、高度な制御を行うためにはそれでは不十分である。そのため、求められた物体の軌跡を描画することはできても、それを他の装置の制御に利用することが難しい。すなわち、補間処理により生成された物体の軌跡に基づいて、他の装置に対してリアルタイムに制御を行うことは困難である。   In the above-described prior art, interpolation processing is performed in order to obtain the locus of an object from the image of the object photographed at predetermined intervals. In order to display an image, a processing speed of about 30 to 120 fps (frames / second) is generally sufficient, but that is not sufficient for advanced control. Therefore, even though the trajectory of the obtained object can be drawn, it is difficult to use it for controlling other devices. That is, it is difficult to control other devices in real time based on the trajectory of the object generated by the interpolation process.

本技術はこのような状況に鑑みて生み出されたものであり、表示のための低速画像データとは異なる高速画像データによる対象物の軌跡に基づいて装置の制御を行うことを目的とする。   The present technology has been created in view of such a situation, and an object of the present technology is to control an apparatus based on a trajectory of an object based on high-speed image data different from low-speed image data for display.

本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、対象物を撮像して時系列に並ぶ画像データのフレームを生成する撮像素子と、上記フレームの各々に対して二値化処理を行って二値化フレームを生成する二値化処理部と、時系列に隣接する上記二値化フレームの間の差分を生成して上記二値化フレームに含まれる上記対象物の位置の変化を追跡するトラッキング処理部と、上記トラッキング処理部による結果に基づいて上記二値化フレームに含まれる上記対象物のモーメントを算出するモーメント生成部と、上記モーメント生成部によって生成された上記モーメントに基づいて上記二値化フレームに含まれる上記対象物の重心位置を生成する重心位置生成部と、上記重心位置生成部によって生成された上記対象物の重心位置に基づいて上記対象物の軌跡を予測して生成する軌跡生成部と、上記軌跡生成部によって生成された上記対象物の軌跡に基づいて制御対象装置に制御信号を供給する制御信号供給部とを具備する画像センサである。これにより、予測された対象物の軌跡に基づいて制御対象装置を制御するという作用をもたらす。   The present technology has been made to solve the above-described problems. The first aspect of the present technology is an imaging device that captures an object and generates frames of image data arranged in time series, and the above-described frame. Generate a difference between a binarization processing unit that performs binarization processing on each to generate a binarized frame and the binarized frame adjacent to the time series, and includes the difference in the binarized frame A tracking processing unit that tracks a change in the position of the target object, a moment generation unit that calculates a moment of the target object included in the binarized frame based on a result of the tracking processing unit, and the moment generation unit A centroid position generation unit that generates a centroid position of the object included in the binarized frame based on the moment generated by A trajectory generator that predicts and generates a trajectory of the object based on the position of the center of gravity of the object, and a control that supplies a control signal to the control target device based on the trajectory of the object generated by the trajectory generator An image sensor including a signal supply unit. This brings about the effect | action of controlling a control object apparatus based on the locus | trajectory of the estimated target object.

また、この第1の側面において、上記軌跡生成部は、上記対象物との距離の軌跡を予測し、上記制御信号供給部は、上記予測された距離が所定の条件を満たす場合に上記制御信号を供給するようにしてもよい。これにより、予測された距離に応じて制御対象装置を制御するという作用をもたらす。   In the first aspect, the trajectory generation unit predicts a trajectory of the distance to the object, and the control signal supply unit includes the control signal when the predicted distance satisfies a predetermined condition. May be supplied. This brings about the effect | action of controlling a control object apparatus according to the estimated distance.

また、この第1の側面において、上記制御信号は、緩衝部材の動作を制御する制御信号であってもよい。これにより、予測された対象物の軌跡に基づいて緩衝部材の動作を制御するという作用をもたらす。   In the first aspect, the control signal may be a control signal for controlling the operation of the buffer member. This brings about the effect | action of controlling operation | movement of a buffer member based on the locus | trajectory of the estimated target object.

また、この第1の側面において、上記制御信号は、警告装置の動作を制御する制御信号であってもよい。これにより、予測された対象物の軌跡に基づいて警告装置の動作を制御するという作用をもたらす。   In the first aspect, the control signal may be a control signal for controlling the operation of the warning device. This brings about the effect | action of controlling operation | movement of a warning device based on the locus | trajectory of the estimated target object.

また、この第1の側面において、上記軌跡生成部は、上記対象物の弾道の軌跡を予測し、上記制御信号供給部は、上記予測された軌跡を表示するための上記制御信号を供給するようにしてもよい。これにより、予測された対象物の軌跡を表示するという作用をもたらす。   In the first aspect, the trajectory generation unit predicts a trajectory of the trajectory of the object, and the control signal supply unit supplies the control signal for displaying the predicted trajectory. It may be. This brings about the effect | action that the locus | trajectory of the estimated target object is displayed.

また、この第1の側面において、上記軌跡生成部は、上記対象物の飛距離を予測し、上記制御信号供給部は、上記予測された飛距離を表示するための上記制御信号を供給するようにしてもよい。これにより、予測された飛距離を表示するという作用をもたらす。   In the first aspect, the trajectory generation unit predicts a flight distance of the object, and the control signal supply unit supplies the control signal for displaying the predicted flight distance. It may be. This brings about the effect | action of displaying the predicted flight distance.

また、この第1の側面において、上記軌跡生成部は、上記対象物の到達位置を予測し、上記制御信号供給部は、上記予測された到達位置を表示するための上記制御信号を供給するようにしてもよい。これにより、予測された到達位置を表示するという作用をもたらす。   In the first aspect, the trajectory generation unit predicts the arrival position of the object, and the control signal supply unit supplies the control signal for displaying the predicted arrival position. It may be. As a result, the predicted arrival position is displayed.

また、この第1の側面において、上記制御信号供給部は、上記予測された到達位置に応じた音声信号を出力するための上記制御信号を供給するようにしてもよい。これにより、予測された到達位置に応じた音声信号を出力するという作用をもたらす。   In the first aspect, the control signal supply unit may supply the control signal for outputting an audio signal corresponding to the predicted arrival position. This brings about the effect | action that the audio | voice signal according to the estimated arrival position is output.

また、この第1の側面において、上記撮像素子に上記対象物を含む画像を供給する光学素子をさらに具備し、上記制御信号は、上記光学素子の動作を制御する制御信号であってもよい。これにより、予測された対象物の軌跡に基づいて光学素子の動作を制御するという作用をもたらす。   Further, in the first aspect, an optical element that supplies an image including the object to the imaging element may be further provided, and the control signal may be a control signal that controls an operation of the optical element. This brings about the effect | action of controlling operation | movement of an optical element based on the locus | trajectory of the estimated target object.

また、この第1の側面において、上記制御信号は、上記フレームの一部を所定の画像に置換して表示させる制御信号であってもよい。これにより、予測された対象物の軌跡に基づいて画像を置換するという作用をもたらす。   In the first aspect, the control signal may be a control signal that is displayed by replacing a part of the frame with a predetermined image. This brings about the effect | action of replacing an image based on the locus | trajectory of the estimated target object.

本技術によれば、表示のための低速画像データとは異なる高速画像データによる対象物の軌跡に基づいて装置の制御を行うことができるという優れた効果を奏し得る。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。   According to the present technology, it is possible to achieve an excellent effect that the apparatus can be controlled based on the trajectory of the object based on the high-speed image data different from the low-speed image data for display. Note that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.

本技術の実施の形態における制御システムの一構成例を示す図である。It is a figure showing an example of 1 composition of a control system in an embodiment of this art. 本技術の実施の形態の第1の適用例における緩衝部材の制御の例を示す図である。It is a figure showing an example of control of a buffer member in the 1st example of application of an embodiment of this art. 本技術の実施の形態の第1の適用例における緩衝部材の制御の他の例を示す図である。It is a figure showing other examples of control of a buffer member in the 1st example of application of an embodiment of this art. 本技術の実施の形態の第1の適用例における緩衝部材の制御の処理手順例を示す流れ図である。It is a flowchart which shows the example of a process sequence of control of the buffer member in the 1st application example of embodiment of this technique. 本技術の実施の形態の第2の適用例における球体シミュレーションの例を示す図である。It is a figure which shows the example of the sphere simulation in the 2nd application example of embodiment of this technique. 本技術の実施の形態の第2の適用例における球体の軌跡の例を示す図である。It is a figure which shows the example of the locus | trajectory of the sphere in the 2nd application example of embodiment of this technique. 本技術の実施の形態の第2の適用例における球体シミュレーションの処理手順例を示す流れ図である。It is a flowchart which shows the process sequence example of the spherical body simulation in the 2nd application example of embodiment of this technique. 本技術の実施の形態の第3の適用例における場内アナウンスの例を示す図である。It is a figure which shows the example of the announcement in the field in the 3rd application example of embodiment of this technique. 本技術の実施の形態の第3の適用例におけるボールの客席への侵入を予測する態様を示す図である。It is a figure which shows the aspect which estimates the penetration | invasion to the passenger seat of the ball | bowl in the 3rd application example of embodiment of this technique. 本技術の実施の形態の第3の適用例におけるシステム構成例を示す図である。It is a figure which shows the system configuration example in the 3rd application example of embodiment of this technique. 本技術の実施の形態の第3の適用例における場内アナウンスの処理手順例を示す流れ図である。It is a flowchart which shows the process sequence example of the announcement in a field in the 3rd application example of embodiment of this technique. 本技術の実施の形態の第4の適用例における火山弾警報の例を示す図である。It is a figure showing an example of a volcanic bomb warning in the 4th example of application of an embodiment of this art. 本技術の実施の形態の第4の適用例における火山弾警報の処理手順例を示す流れ図である。It is a flowchart which shows the process sequence example of the volcanic bomb warning in the 4th application example of embodiment of this technique. 本技術の実施の形態の第5の適用例における追跡撮像の例を示す図である。It is a figure which shows the example of the tracking imaging in the 5th application example of embodiment of this technique. 本技術の実施の形態の第5の適用例における追跡撮像の態様を示す図である。It is a figure which shows the aspect of the tracking imaging in the 5th application example of embodiment of this technique. 本技術の実施の形態の第5の適用例における追跡撮像の他の態様を示す図である。It is a figure which shows the other aspect of the tracking imaging in the 5th application example of embodiment of this technique. 本技術の実施の形態の第5の適用例における追跡撮像の処理手順例を示す流れ図である。16 is a flowchart illustrating an example of a tracking imaging process procedure according to the fifth application example of the embodiment of the present technology. 本技術の実施の形態の第6の適用例における画像重畳の例を示す図である。It is a figure showing an example of image superposition in the 6th example of application of an embodiment of this art. 本技術の実施の形態の第6の適用例における画像重畳のタイミング例を示す図である。It is a figure showing the example of timing of image superposition in the 6th example of application of an embodiment of this art. 本技術の実施の形態の第6の適用例における画像重畳の処理手順例を示す流れ図である。18 is a flowchart illustrating an example of an image superimposition processing procedure in a sixth application example of the embodiment of the present technology. 本技術の実施の形態の第7の適用例における距離算出の例を示す図である。It is a figure showing an example of distance calculation in the 7th example of application of an embodiment of this art. 本技術の実施の形態の第7の適用例におけるオブジェクトトラッキングの態様を示す図である。It is a figure which shows the aspect of the object tracking in the 7th application example of embodiment of this technique. 本技術の実施の形態の第7の適用例における距離算出の態様を示す図である。It is a figure which shows the aspect of the distance calculation in the 7th application example of embodiment of this technique. 本技術の実施の形態の第7の適用例における距離算出の処理手順例を示す流れ図である。24 is a flowchart illustrating an example of a distance calculation processing procedure according to a seventh application example of the embodiment of the present technology.

以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.実施の形態(制御システムの構成例)
2.第1の適用例(緩衝部材の制御の例)
3.第2の適用例(球体シミュレーションの例)
4.第3の適用例(場内アナウンスの例)
5.第4の適用例(火山弾警報の例)
6.第5の適用例(追跡撮像の例)
7.第6の適用例(画像重畳の例)
8.第7の適用例(距離算出の例)
Hereinafter, modes for carrying out the present technology (hereinafter referred to as embodiments) will be described. The description will be made in the following order.
1. Embodiment (configuration example of control system)
2. First application example (example of buffer member control)
3. Second application example (sphere simulation example)
4). Third application example (example of on-site announcement)
5. Fourth application example (example of volcanic bomb warning)
6). Fifth application example (example of tracking imaging)
7). Sixth application example (example of image superimposition)
8). Seventh application example (distance calculation example)

<1.実施の形態>
図1は、本技術の実施の形態における制御システムの一構成例を示す図である。この実施の形態における画像処理システムは、画像センサ100と、表示装置320と、制御対象装置330とを備える。
<1. Embodiment>
FIG. 1 is a diagram illustrating a configuration example of a control system according to an embodiment of the present technology. The image processing system in this embodiment includes an image sensor 100, a display device 320, and a control target device 330.

画像センサ100は、対象物を含む被写体を撮像して、対象物の軌跡を予測し、その対象物の軌跡に基づいて制御対象装置330を制御するものである。操作入力装置310は、外部からの操作入力を受け付けるものである。表示装置320は、画像センサ100によって得られた情報を表示するものである。制御対象装置330は、画像センサ100によって制御される装置である。   The image sensor 100 captures an image of a subject including the object, predicts the locus of the object, and controls the control target device 330 based on the locus of the object. The operation input device 310 receives an operation input from the outside. The display device 320 displays information obtained by the image sensor 100. The control target device 330 is a device controlled by the image sensor 100.

画像センサ100は、撮像部110と、フィルタ処理部120と、二値化処理部130と、トラッキング処理部140と、モーメント生成部150と、重心位置生成部160と、集計処理部210と、制御部220と、インターフェース230とを備える。   The image sensor 100 includes an imaging unit 110, a filter processing unit 120, a binarization processing unit 130, a tracking processing unit 140, a moment generation unit 150, a centroid position generation unit 160, a totalization processing unit 210, and a control. A unit 220 and an interface 230.

撮像部110は、対象物を含む被写体を撮像する撮像素子である。この撮像部110は、所定のフレームレートにより、時系列に並ぶ画像データのフレームを生成する。ここで、フレームレートとしては、1秒当たり1000フレーム(1000fps)以上の高フレームレートを想定する。この撮像部110によって撮像された画像データのフレームは、その全てが画像センサ100の外部に供給される必要はない。高フレームレートの画像データは以下に説明する制御を目的としたものであり、表示のためにはこれよりも低いフレームレートで十分である。すなわち、高フレームレートの画像データを画像センサ100内の参照に留めることにより、画像センサ100のバンド幅を有効に活用することが可能となる。なお、撮像部110は、特許請求の範囲に記載の撮像素子の一例である。また、対象物は、人物や動物などの生物のみならず、非生物を広く含むオブジェクトである。   The image capturing unit 110 is an image sensor that captures an image of a subject including an object. The imaging unit 110 generates frames of image data arranged in time series at a predetermined frame rate. Here, a high frame rate of 1000 frames per second (1000 fps) or more is assumed as the frame rate. It is not necessary for all the frames of image data captured by the imaging unit 110 to be supplied to the outside of the image sensor 100. The image data with a high frame rate is intended for the control described below, and a frame rate lower than this is sufficient for display. In other words, it is possible to effectively utilize the bandwidth of the image sensor 100 by keeping high frame rate image data as a reference in the image sensor 100. The imaging unit 110 is an example of an imaging element described in the claims. In addition, the object is an object that widely includes non-living objects as well as living things such as people and animals.

フィルタ処理部120は、撮像部110によって撮像された画像データのフレームの各々に対してフィルタ処理を施すものである。このフィルタ処理部120におけるフィルタ処理としては、例えば、移動平均フィルタやメディアンフィルタなどによるノイズ除去処理、Sobelフィルタなどによる輪郭検出処理、ラプラシアンフィルタなどによるエッジ検出などが想定される。また、このフィルタ処理部120によって画像のオイラー数を求めることにより、画像に含まれる対象物の個数を算出することも可能である。オイラー数とは、成分数から孔の数を引いた数である。   The filter processing unit 120 performs filter processing on each frame of image data captured by the imaging unit 110. As the filter processing in the filter processing unit 120, for example, noise removal processing using a moving average filter or median filter, contour detection processing using a Sobel filter, edge detection using a Laplacian filter, or the like is assumed. Further, the number of objects included in the image can be calculated by obtaining the Euler number of the image by the filter processing unit 120. The Euler number is the number of components minus the number of holes.

二値化処理部130は、フィルタ処理部120によってフィルタ処理の施されたフレームの各々に対して二値化処理を行うものである。この二値化処理部130は、各フレームの画像データに含まれる輝度や色のヒストグラム情報に基づいてその画像データを二値化して、二値化データからなる二値化フレームを生成する。   The binarization processing unit 130 performs binarization processing on each of the frames subjected to the filter processing by the filter processing unit 120. The binarization processing unit 130 binarizes the image data based on luminance and color histogram information included in the image data of each frame, and generates a binarized frame including the binarized data.

トラッキング処理部140は、二値化処理部130によって生成された二値化フレームについて、時系列に隣接するフレーム間の差分を生成することにより、二値化フレームに含まれる対象物を検出して、その対象物の位置の変化を追跡するものである。対象物の検出の際には、画像における特定の領域を測定対象として指定することが可能である。   The tracking processing unit 140 detects an object included in the binarized frame by generating a difference between frames adjacent in time series for the binarized frame generated by the binarization processing unit 130. , To track changes in the position of the object. When detecting an object, it is possible to designate a specific region in the image as a measurement target.

モーメント生成部150は、トラッキング処理部140による結果に基づいて、二値化フレームにおける2変数関数のモーメントを算出するものである。0次モーメントは、その二値化フレームに含まれる対象物の面積の変化量を表し、画像の回転や拡大縮小に対して不変な値である。   The moment generation unit 150 calculates the moment of the two-variable function in the binarized frame based on the result from the tracking processing unit 140. The 0th-order moment represents the amount of change in the area of the object included in the binarized frame, and is a value that is invariant to image rotation and enlargement / reduction.

重心位置生成部160は、モーメント生成部150によって生成されたモーメントに基づいて、二値化フレームに含まれる対象物の重心位置を生成するものである。水平方向および垂直方向の各1次モーメントをそれぞれ0次モーメントで除算した値が、重心位置を表す。   The center-of-gravity position generation unit 160 generates the center-of-gravity position of the target object included in the binarized frame based on the moment generated by the moment generation unit 150. A value obtained by dividing the respective primary moments in the horizontal direction and the vertical direction by the zeroth moment represents the position of the center of gravity.

集計処理部210は、画像センサ100によって得られた各種データに基づいて集計処理を行って、対象物の軌跡を生成するものである。この集計処理部210は、以下の適用例に示すように、動作するアプリケーションに応じて必要な処理を行う。制御部220は、画像センサ100の各部に対する動作制御を行うものである。インターフェース230は、外部とのインターフェースを司るものである。この例では、インターフェース230は制御対象装置330と接続して、制御対象装置330に制御信号を供給する。また、インターフェース230は表示装置320と接続して、画像センサ100によって得られた情報を表示装置320に表示させる。なお、集計処理部210は、特許請求の範囲に記載の軌跡生成部の一例である。   The aggregation processing unit 210 performs an aggregation process based on various data obtained by the image sensor 100 to generate a trajectory of the object. As shown in the application example below, the totalization processing unit 210 performs necessary processing according to the application that operates. The control unit 220 performs operation control on each unit of the image sensor 100. The interface 230 serves as an interface with the outside. In this example, the interface 230 is connected to the control target device 330 and supplies a control signal to the control target device 330. The interface 230 is connected to the display device 320 and causes the display device 320 to display information obtained by the image sensor 100. The aggregation processing unit 210 is an example of a trajectory generation unit described in the claims.

なお、この図においては、重心位置生成部160からの出力が集計処理部210および制御部220に供給される経路を明示しているが、画像センサ100の各部から集計処理部210に対して各種データを供給する経路が必要に応じて設けられてもよい。   In this figure, the output from the center-of-gravity position generation unit 160 clearly shows the route through which the output is supplied to the totalization processing unit 210 and the control unit 220. A route for supplying data may be provided as necessary.

このように構成することにより、対象物の軌跡を予測して、その予測された軌跡に基づいて制御対象装置を制御することができる。また、後段において画像を処理する必要がなく、演算結果のみを利用してリアルタイムに制御を行うことができる。   By comprising in this way, the locus | trajectory of a target object can be estimated and a control object apparatus can be controlled based on the estimated locus | trajectory. Further, it is not necessary to process the image in the subsequent stage, and control can be performed in real time using only the calculation result.

<2.第1の適用例>
図2は、本技術の実施の形態の第1の適用例における緩衝部材の制御の例を示す図である。本実施の形態における制御システムを用いて緩衝部材の制御を行うためには、保護対象の周囲に画像センサ100を設けて撮像を行い、対象物の軌跡を予測して、その予測された軌跡に基づいて緩衝部材を制御する。これにより、保護対象に迫る危険に対して、緩衝部材によって保護対象を保護することができる。
<2. First application example>
FIG. 2 is a diagram illustrating an example of control of the buffer member in the first application example of the embodiment of the present technology. In order to control the buffer member using the control system according to the present embodiment, the image sensor 100 is provided around the protection target, imaging is performed, the trajectory of the target is predicted, and the predicted trajectory is obtained. Based on this, the buffer member is controlled. Thereby, the protection object can be protected by the buffer member against the danger approaching the protection object.

図2におけるaでは、保護対象511は例えば建造物であり、その周囲の柵に緩衝部材512が設けられている。柵には画像センサ100の一例としての画像センサ513が設けられている。この保護対象511にオートバイや自動車などの移動物体514が近付いてきた場合、画像センサ513はこの移動物体514を衝突予測対象として検出して、移動物体514が保護対象511に衝突するか否かの識別を行う。   In a in FIG. 2, the protection target 511 is, for example, a building, and a buffer member 512 is provided on the surrounding fence. An image sensor 513 as an example of the image sensor 100 is provided on the fence. When a moving object 514 such as a motorcycle or an automobile approaches the protection target 511, the image sensor 513 detects the moving object 514 as a collision prediction target, and determines whether or not the moving object 514 collides with the protection target 511. Identify.

移動物体514の移動速度および移動方向から衝突の危険があると判断した場合には、位置P1において移動物体514に対してブレーキをかけるよう警告を行う。例えば、柵に警告ランプを設けて、その警告ランプを点灯させるなどの方法により警告を行う。また、移動速度が減速せず、物理的に衝突を回避できないと判断した場合には、移動物体514が位置P2に到達したタイミングで緩衝部材512を膨らませて防御状態にするよう制御する。   If it is determined that there is a risk of collision based on the moving speed and moving direction of the moving object 514, a warning is given to brake the moving object 514 at the position P1. For example, a warning lamp is provided on the fence and the warning is performed by lighting the warning lamp. Further, when it is determined that the moving speed does not decelerate and the collision cannot be physically avoided, control is performed to inflate the buffer member 512 at the timing when the moving object 514 reaches the position P2 to enter the defense state.

図2におけるbでは、保護対象515は人間である。この例では、人間が背面に緩衝部材516および画像センサ517を背負うことを想定している。このとき、移動物体518が保護対象515の背面から迫ってきた場合に、画像センサ517が衝突を予測すると、緩衝部材516を膨らませて防御状態にするよう制御する。   In FIG. 2b, the protection target 515 is a human. In this example, it is assumed that a human bears the buffer member 516 and the image sensor 517 on the back. At this time, when the moving object 518 approaches from the back surface of the protection target 515, if the image sensor 517 predicts a collision, the buffer member 516 is controlled to be inflated to be in a protective state.

これに対し、通常の自動車のエアバッグは、実際に衝突により衝撃を受けた際に作動するようになっており、事前保護を行うことができない。また、その急激な膨らみそのものによる怪我の可能性もある。この例の緩衝部材によれば、そのような不都合は避けることができる。また、この例の緩衝部材は、加速度センサではなく、画像センサによるものであるため、移動しない保護対象の方に設置することができる。   On the other hand, a normal automobile airbag is activated when it is actually subjected to an impact due to a collision, and cannot be protected in advance. There is also the possibility of injury from the sudden bulge itself. According to the buffer member of this example, such inconvenience can be avoided. Moreover, since the buffer member of this example is not an acceleration sensor but an image sensor, it can be installed on a protected object that does not move.

図3は、本技術の実施の形態の第1の適用例における緩衝部材の制御の他の例を示す図である。この例では、保護対象は人間であり、衝突予測対象は地面である。   FIG. 3 is a diagram illustrating another example of the control of the buffer member in the first application example of the embodiment of the present technology. In this example, the protection target is a human and the collision prediction target is the ground.

図3におけるaでは、人間が緩衝部材521を正面に抱えるとともに、前方を撮像する画像センサ522を頭部に装着することを想定している。このとき、保護対象である人間が前方に倒れた場合に、画像センサ522が地面への衝突を予測すると、緩衝部材521を膨らませて防御状態にするよう制御する。   In FIG. 3 a, it is assumed that a human holds the buffer member 521 in the front and the image sensor 522 that captures the front is attached to the head. At this time, when the person to be protected falls forward, if the image sensor 522 predicts a collision with the ground, the buffer member 521 is controlled to be inflated to be in a protective state.

図3におけるbでは、人間が緩衝部材523を背面に背負うとともに、後方を撮像する画像センサ524を頭部に装着することを想定している。このとき、保護対象である人間が後方に倒れた場合に、画像センサ524が地面への衝突を予測すると、緩衝部材523を膨らませて防御状態にするよう制御する。   In FIG. 3 b, it is assumed that a person carries the shock-absorbing member 523 on the back, and an image sensor 524 that captures the rear is attached to the head. At this time, when the human being to be protected falls backward, if the image sensor 524 predicts a collision with the ground, the buffer member 523 is controlled to be inflated to be in a protective state.

図3におけるcでは、人間が高所作業を行っている場所において、地面に緩衝部材を敷き詰めるとともに、その人間を撮像する画像センサ526を配置することを想定している。このとき、保護対象である人間が落下した場合に、画像センサ526が地面への衝突を予測すると、その予測された落下位置の緩衝部材525を膨らませて防御状態にするよう制御する。   In FIG. 3 c, it is assumed that a buffer member is spread on the ground and an image sensor 526 for capturing the person is arranged at a place where a person is working at a high place. At this time, when a human being to be protected falls, if the image sensor 526 predicts a collision with the ground, control is performed so that the buffer member 525 at the predicted drop position is inflated to be in a protective state.

このように、この例において、画像センサは保護対象自身に装着してもよく、また、保護対象の動きを観察できる位置に配置してもよい。同様に、緩衝部材は保護対象自身に装着してもよく、また、保護対象の衝突が予測される位置に配置されてもよい。   Thus, in this example, the image sensor may be attached to the protection target itself, or may be disposed at a position where the movement of the protection target can be observed. Similarly, the buffer member may be attached to the protection target itself, or may be disposed at a position where a collision of the protection target is predicted.

図4は、本技術の実施の形態の第1の適用例における緩衝部材の制御の処理手順例を示す流れ図である。   FIG. 4 is a flowchart illustrating an example of a processing procedure for controlling the buffer member in the first application example of the embodiment of the present technology.

まず、危険を予測するための画像データが取得される(ステップS811)。この画像データは、保護対象の側から衝突予測対象を観察したものでもよく、また、保護対象と衝突予測対象の両者を観察したものでもよい。いずれかの画像が撮像部110によって撮像されて、画像データが取得される。取得された画像データは、時系列のフレームを構成する。上述のように、フレームレートとしては、1000fps以上の高フレームレートを想定しており、これにより、保護対象と衝突予測対象との間の衝突を正確に予測することができる。   First, image data for predicting danger is acquired (step S811). This image data may be the observation of the collision prediction target from the protection target side, or may be the observation of both the protection target and the collision prediction target. One of the images is picked up by the image pickup unit 110, and image data is acquired. The acquired image data constitutes a time-series frame. As described above, a high frame rate of 1000 fps or higher is assumed as the frame rate, and thereby, a collision between the protection target and the collision prediction target can be accurately predicted.

取得された各フレームは、フィルタ処理部120によって、ノイズが除去(ノイズリダクション)される(ステップS812)。   Noise is removed (noise reduction) from the acquired frames by the filter processing unit 120 (step S812).

その後、操作入力装置310からの指示に従って処理が選択される(ステップS813)。単数ターゲットが指示された場合には(ステップS813:No)、二値化処理部130によってフレームにおける画像のヒストグラムによる二値化が行われて、ターゲットが検出される(ステップS815)。そして、時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成されて、検出されたターゲットの追跡(ターゲットトラッキング)が行われる(ステップS816)。また、そのターゲットについて、モーメント生成部150によってモーメント演算が行われる(ステップS817)。   Thereafter, a process is selected in accordance with an instruction from the operation input device 310 (step S813). When a single target is instructed (step S813: No), the binarization processing unit 130 performs binarization based on the histogram of the image in the frame, and detects the target (step S815). Then, the difference between frames adjacent in time series is generated by the tracking processing unit 140, and the detected target is tracked (target tracking) (step S816). Further, moment calculation is performed on the target by the moment generator 150 (step S817).

演算されたモーメントに基づいて、ターゲットの移動量が重心位置生成部160によって算出される(ステップS818)。また、演算されたモーメントに基づいて、集計処理部210においてターゲットの移動方向が算出される(ステップS818)。算出されたターゲットの移動量および移動方向は、インターフェース230を介して表示装置320に表示される(ステップS819)。   Based on the calculated moment, the moving amount of the target is calculated by the gravity center position generation unit 160 (step S818). Further, based on the calculated moment, the total processing unit 210 calculates the target moving direction (step S818). The calculated amount and direction of movement of the target are displayed on the display device 320 via the interface 230 (step S819).

複数ターゲットが指示された場合には(ステップS813:Yes)、複数の視差による距離演算がおこなわれる(ステップS814)。このとき、各ターゲットの座標位置が取得され、ステップS815におけるターゲット検出が行われる。   When a plurality of targets are instructed (step S813: Yes), a distance calculation using a plurality of parallaxes is performed (step S814). At this time, the coordinate position of each target is acquired, and target detection in step S815 is performed.

算出されたターゲットの移動量および移動方向に基づいて、保護対象と衝突予測対象との間の距離の軌跡を予測し、両者の間に衝突が発生するか否かを判断する演算が行われる(ステップS821)。演算の結果、所定の期待値を超える場合には、インターフェース230を介して表示装置320に衝突判定の旨が表示され、緩衝部材を膨らませて防御状態にするよう制御される(ステップS825)。また、期待値を超えないものの、期待値に近似する場合には、インターフェース230を介して表示装置320に事前警告判定の旨が表示され、例えば警告音等を発生するよう制御される(ステップS824)。また、期待値に近似せず、期待値を超えない場合には、そのような警告は行われない(ステップS823)。   Based on the calculated amount and direction of movement of the target, a trajectory of the distance between the protection target and the collision prediction target is predicted, and an operation is performed to determine whether or not a collision occurs between them ( Step S821). As a result of the calculation, when a predetermined expected value is exceeded, the fact of collision determination is displayed on the display device 320 via the interface 230, and control is performed to inflate the buffer member to enter the protective state (step S825). If the expected value is not exceeded, but approximates the expected value, the display device 320 displays a notice of prior warning determination via the interface 230 and is controlled to generate a warning sound, for example (step S824). ). Further, when the value does not approximate the expected value and does not exceed the expected value, such warning is not performed (step S823).

これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。   These processes are repeated for each frame of image data arranged in time series.

このように、この第1の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、ターゲットの移動量および移動方向に基づいて保護対象と衝突予測対象との間の距離の軌跡を予測することにより、緩衝部材の制御を行うことができる。また、同様の判断により、警告表示の制御も行うことができる。   Thus, in the first application example, assuming a high frame rate of 1000 fps or more as the frame rate, the trajectory of the distance between the protection target and the collision prediction target is calculated based on the movement amount and movement direction of the target. By predicting, the buffer member can be controlled. Further, warning display can be controlled by the same determination.

<3.第2の適用例>
図5は、本技術の実施の形態の第2の適用例における球体シミュレーションの例を示す図である。本実施の形態における制御システムを用いて球体シミュレーションを行うためには、観測対象である球体の画像を画像センサ100により撮像し、球体の移動量および移動方向などを算出する。これにより、球体の軌跡を予測することができる。
<3. Second application example>
FIG. 5 is a diagram illustrating an example of a sphere simulation in the second application example of the embodiment of the present technology. In order to perform a sphere simulation using the control system in the present embodiment, an image of a sphere to be observed is captured by the image sensor 100, and the amount of movement and direction of movement of the sphere are calculated. Thereby, the trajectory of the sphere can be predicted.

例えば、シミュレーションゴルフの場合、プレーヤ531がボール532を打つ様子を携帯端末533によって撮像する。この携帯端末533には画像センサ100が含まれており、その撮像部110によって撮像が行われる。撮像された画像に基づいてターゲットトラッキングやモーメント演算が行われ、ボール532の移動量および移動方向などが算出される。これにより、球体の軌跡が予測され、ボール532の飛距離が予測される。このようにして予測された飛距離は、携帯端末533の表示部に推定飛距離534として表示される。   For example, in the case of simulation golf, the mobile terminal 533 captures an image of the player 531 hitting the ball 532. The portable terminal 533 includes the image sensor 100, and imaging is performed by the imaging unit 110. Target tracking and moment calculation are performed based on the captured image, and the amount and direction of movement of the ball 532 are calculated. Thereby, the trajectory of the sphere is predicted, and the flight distance of the ball 532 is predicted. The flight distance predicted in this way is displayed as the estimated flight distance 534 on the display unit of the portable terminal 533.

この例では、推定飛距離を表示する例について説明したが、例えば、ボール532の速度や回転方向などを表示するようにしてもよい。ボール532の回転を計測するためには、ボール532にマーカを付して、このマーカを追跡することにより、回転の状態を観察することができる。   In this example, the example in which the estimated flight distance is displayed has been described. However, for example, the speed and rotation direction of the ball 532 may be displayed. In order to measure the rotation of the ball 532, a marker is attached to the ball 532, and the state of rotation can be observed by tracking the marker.

図6は、本技術の実施の形態の第2の適用例における球体の軌跡の例を示す図である。   FIG. 6 is a diagram illustrating an example of a trajectory of a sphere in the second application example of the embodiment of the present technology.

例えば、時速150kmで球体が投球された場合、従来のカメラのように30fpsで球体を観察すると、隣接するフレーム間では球体の間隔が約140cm空いてしまい、球体の軌跡を予測することは困難である。これに対し、この実施の形態では1000fps以上の高フレームレートを想定することにより、隣接するフレーム間の球体の間隔は約4.2cmとなり、球体の軌跡を緻密に予測することができる。   For example, when a sphere is thrown at a speed of 150 km / h, when the sphere is observed at 30 fps as in a conventional camera, the distance between the spheres is about 140 cm between adjacent frames, and it is difficult to predict the trajectory of the sphere. is there. On the other hand, in this embodiment, assuming a high frame rate of 1000 fps or more, the distance between the spheres between adjacent frames is about 4.2 cm, and the trajectory of the sphere can be accurately predicted.

すなわち、投球の初期段階で高精度な移動速度を割り出して、初期動作による球体の軌跡を予測することができる。また、軌跡の途中において、垂直方向の移動量の有無を判断することにより、頂点に達しているか否かを認識して、その後に下降することを予測することができる。   That is, it is possible to predict the trajectory of the sphere by the initial operation by calculating a highly accurate moving speed at the initial stage of pitching. Further, by determining whether or not there is a vertical movement amount in the middle of the trajectory, it is possible to recognize whether or not the vertex has been reached and predict that it will subsequently descend.

この球体シミュレーションの例は、上述のシミュレーションゴルフの他に、例えば野球のバッティングの測定、テニスのサーブの測定、サッカーのフリーキックの測定に用いることができる。本実施の形態の高フレームレートを想定することにより、フォームの確認だけでなく、打球の速度、推定飛距離、回転方向などをプレーヤの横側から同時に観測することができる。   This example of the sphere simulation can be used for, for example, baseball batting measurement, tennis serve measurement, and soccer free kick measurement in addition to the above-described simulation golf. By assuming the high frame rate of the present embodiment, not only the confirmation of the form but also the speed of the hit ball, the estimated flight distance, the rotation direction, etc. can be observed simultaneously from the side of the player.

図7は、本技術の実施の形態の第2の適用例における球体シミュレーションの処理手順例を示す流れ図である。   FIG. 7 is a flowchart illustrating a processing procedure example of the sphere simulation in the second application example of the embodiment of the present technology.

まず、撮像部110によって測定対象である球体を撮像することによって画像データが取得される(ステップS831)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、ノイズが除去される(ステップS832)。   First, image data is acquired by imaging a sphere that is a measurement target by the imaging unit 110 (step S831). The acquired image data constitutes a time-series frame. Noise is removed from each acquired frame by the filter processing unit 120 (step S832).

そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われる(ステップS833)。ここでは、球体にマーカを付したことを想定して、そのマーカを検出する。なお、マーカを付していない場合には、球体全体を検出する。   Then, the binarization processing unit 130 performs binarization based on the color and brightness of the image in the frame (step S833). Here, assuming that a marker is attached to the sphere, the marker is detected. If no marker is attached, the entire sphere is detected.

検出されたマーカに対して領域が設定されて(ステップS834)、その領域において時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成される。これにより、設定された領域においてマーカの追跡(ターゲットトラッキング)が行われる(ステップS835)。また、そのマーカについて、モーメント生成部150によってモーメント演算が行われる(ステップS836)。   An area is set for the detected marker (step S834), and a difference between frames adjacent in time series in the area is generated by the tracking processing unit 140. Thereby, tracking of the marker (target tracking) is performed in the set region (step S835). Further, moment calculation is performed by the moment generator 150 for the marker (step S836).

演算されたモーメントに基づいて、マーカの移動量が重心位置生成部160によって算出される(ステップS837)。また、演算されたモーメントに基づいて、集計処理部210においてマーカの移動方向が算出される(ステップS837)。算出されたマーカの移動量および移動方向は、インターフェース230を介して表示装置320に表示される(ステップS838)。   Based on the calculated moment, the movement amount of the marker is calculated by the centroid position generation unit 160 (step S837). Based on the calculated moment, the totalization processing unit 210 calculates the movement direction of the marker (step S837). The calculated marker movement amount and direction are displayed on the display device 320 via the interface 230 (step S838).

また、操作入力装置310からの指示に従って処理が選択され(ステップS839)、回転率を算出する場合には、集計処理部210においてマーカの回転率が算出される(ステップS841)。算出されたマーカの回転率は、インターフェース230を介して表示装置320に表示される(ステップS842)。   In addition, a process is selected in accordance with an instruction from the operation input device 310 (step S839), and when the rotation rate is calculated, the rotation rate of the marker is calculated in the aggregation processing unit 210 (step S841). The calculated rotation rate of the marker is displayed on the display device 320 via the interface 230 (step S842).

そして、算出されたマーカの移動量および移動方向(回転率が算出された場合には、さらに回転率)に基づいて、マーカの軌跡および推定飛距離の予測演算が行われる(ステップS843)。   Based on the calculated movement amount and direction of the marker (or the rotation rate when the rotation rate is calculated), the marker trajectory and the estimated flight distance are predicted (step S843).

これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。   These processes are repeated for each frame of image data arranged in time series.

このように、この第2の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、球体の移動量および移動方向などに基づいて球体の軌跡を予測することにより、球体の推定飛距離を予測することができる。   As described above, in this second application example, assuming a high frame rate of 1000 fps or more as the frame rate, the sphere trajectory is predicted based on the movement amount and the movement direction of the sphere, thereby estimating the sphere. Distance can be predicted.

<4.第3の適用例>
図8は、本技術の実施の形態の第3の適用例における場内アナウンスの例を示す図である。本実施の形態における制御システムを用いて場内アナウンスを行うためには、会場(球場)の各所に画像センサ100を含むカメラ541を設置するとともに、カメラ541の近辺にスピーカ542を設置する。カメラ541によってボールの行方を追って、ホームランやファールボールとなったボールが客席に侵入することが予測された場合、その落下地点付近のスピーカ542から注意を喚起するアナウンスを出力するよう制御を行う。
<4. Third application example>
FIG. 8 is a diagram illustrating an example of an in-field announcement in the third application example of the embodiment of the present technology. In order to make an announcement in the field using the control system in the present embodiment, a camera 541 including the image sensor 100 is installed in each place of the venue (ball field), and a speaker 542 is installed in the vicinity of the camera 541. When it is predicted that a ball that has become a home run or a foul ball will enter the passenger seat by following the whereabouts of the ball by the camera 541, control is performed so as to output an announcement for calling attention from the speaker 542 near the falling point.

図9は、本技術の実施の形態の第3の適用例におけるボールの客席への侵入を予測する態様を示す図である。球場においてはグラウンドと客席の間にはフェンス543が設けられる。このフェンス543よりも低い位置であれば、ボールはフェンス543に当ってグラウンドに落下する。しかし、このフェンス543をボールが超えた場合、客席内に落下して、観客に当って怪我を負わせてしまうおそれがある。   FIG. 9 is a diagram illustrating a mode in which the intrusion of the ball into the passenger seat is predicted in the third application example of the embodiment of the present technology. In the stadium, a fence 543 is provided between the ground and the audience seat. If the position is lower than the fence 543, the ball hits the fence 543 and falls to the ground. However, if the ball exceeds this fence 543, it may fall into the audience seat and hit the audience, causing injury.

本実施の形態では、カメラ541によって高フレームレートでボールの行方を追って、ボールの軌跡を予測して、フェンス543を超えそうなボールを、フェンス543を超える前に素早く捉える。これにより、観客に対して注意喚起のアナウンスを流して、不慮の怪我を回避することができる。アナウンスを流すスピーカ542は落下地点付近に限定することができるため、範囲を絞って適格な注意喚起を行うことができる。また、これにより、フェンス543を不必要に高くすることを避け、球場における臨場感の低下を抑制することができる。   In the present embodiment, the camera 541 follows the ball at a high frame rate, predicts the trajectory of the ball, and quickly catches a ball that is likely to exceed the fence 543 before the fence 543 is exceeded. As a result, it is possible to avoid an inadvertent injury by sending an announcement to alert the audience. Since the speaker 542 that plays the announcement can be limited to the vicinity of the fall point, the range can be narrowed down to perform appropriate alerting. Moreover, this can avoid making the fence 543 unnecessarily high, and can suppress a reduction in the presence of the stadium.

図10は、本技術の実施の形態の第3の適用例におけるシステム構成例を示す図である。この例では、フェンス543の上部の各所に画像センサ100を含むカメラ541を設置して、画像センサ100によって得られた情報を制御装置545に供給する。そして、客席へのボール侵入が予測される場合には、制御装置545からスピーカ542に、注意喚起のアナウンスを出力するよう制御信号が供給される。   FIG. 10 is a diagram illustrating a system configuration example in the third application example of the embodiment of the present technology. In this example, cameras 541 including the image sensor 100 are installed at various locations on the fence 543, and information obtained by the image sensor 100 is supplied to the control device 545. When a ball intrusion into the passenger seat is predicted, a control signal is supplied from the control device 545 to the speaker 542 so as to output a warning announcement.

なお、カメラ541には、ボールが当たった際の衝撃を緩めるために保護カバー544を設けることが望ましい。   The camera 541 is desirably provided with a protective cover 544 in order to relax the impact when the ball hits.

図11は、本技術の実施の形態の第3の適用例における場内アナウンスの処理手順例を示す流れ図である。   FIG. 11 is a flowchart illustrating an example of a processing procedure of in-place announcement in the third application example of the embodiment of the present technology.

まず、撮像部110によって測定対象であるボールを撮像することによって画像データが取得される(ステップS851)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、ノイズが除去される(ステップS852)。   First, image data is acquired by imaging the ball which is the measurement object by the imaging unit 110 (step S851). The acquired image data constitutes a time-series frame. Noise is removed from each acquired frame by the filter processing unit 120 (step S852).

そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われて、ターゲットとなるボールが検出される(ステップS853)。   Then, the binarization processing unit 130 performs binarization based on the color and brightness of the image in the frame, and detects the target ball (step S853).

検出されたボールに対して、時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成されて、ボールの追跡(ターゲットトラッキング)が行われる(ステップS854)。また、そのボールについて、モーメント生成部150によってモーメント演算が行われる(ステップS855)。その結果、動きが検出された場合には以下のステップS857以降の処理が行われ、動きが検出されない場合にはステップS851以降の処理を繰り返す。   For the detected ball, a difference between adjacent frames in time series is generated by the tracking processing unit 140, and the ball is tracked (target tracking) (step S854). Further, moment calculation is performed on the ball by the moment generator 150 (step S855). As a result, if a motion is detected, the following processing from step S857 is performed, and if no motion is detected, the processing from step S851 is repeated.

演算されたモーメントに基づいて、集計処理部210においてカメラ541とボールの距離が演算される(ステップS857)。また、集計処理部210において、ボールの移動方向および軌跡が判定される(ステップS858)。さらに、ボールの位置に応じて、集計処理部210においてファールボールかホームランかの区別が判定される(ステップS859)。これらの情報に基づいて、制御部220からインターフェース230を介して、スピーカ542に注意喚起のアナウンスを出力するよう制御信号が供給され、自動アナウンスが再生される(ステップS861)。   Based on the calculated moment, the total processing unit 210 calculates the distance between the camera 541 and the ball (step S857). Further, the totaling processing unit 210 determines the moving direction and locus of the ball (step S858). Furthermore, according to the position of the ball, the totalization processing unit 210 determines whether it is a foul ball or a home run (step S859). Based on these pieces of information, a control signal is supplied from the control unit 220 via the interface 230 so as to output a warning announcement to the speaker 542, and an automatic announcement is reproduced (step S861).

これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。   These processes are repeated for each frame of image data arranged in time series.

このように、この第3の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、ボールの軌跡を予測することにより、ボールの落下地点を推定して、状況に応じた場内アナウンスを行うことができる。   As described above, in the third application example, by assuming a high frame rate of 1000 fps or more as a frame rate, the ball trajectory is predicted to estimate the ball falling point, and an in-field announcement corresponding to the situation It can be performed.

<5.第4の適用例>
図12は、本技術の実施の形態の第4の適用例における火山弾警報の例を示す図である。本実施の形態における制御システムを用いて火山弾警報を行うためには、同図のように、観測対象となる火山の噴火口を画像センサ100により撮像する。そして、火山弾が発生した場合に、その火山弾の行方を追って、火山弾の軌跡を予測して、落下地点を推定する。この推定された落下地点を危険エリアとして、避難勧告などの警告を行う。
<5. Fourth application example>
FIG. 12 is a diagram illustrating an example of a volcanic bomb warning in the fourth application example of the embodiment of the present technology. In order to perform a volcanic bomb warning using the control system in the present embodiment, the volcanic crater to be observed is imaged by the image sensor 100 as shown in FIG. And when a volcanic bomb occurs, it follows the whereabouts of the volcanic bomb, predicts the trajectory of the volcanic bomb, and estimates the fall point. A warning such as an evacuation recommendation is given with the estimated fall point as a dangerous area.

通常の望遠カメラでは、観測画像から噴煙を認識することは可能であるが、火山弾の到達範囲を予測することは困難である。本実施の形態の例では、高フレームレートで火山弾を捉えて、火山弾のサイズおよび移動速度を計測し、その到達範囲を推測することができる。   With a normal telephoto camera, it is possible to recognize volcanic smoke from observation images, but it is difficult to predict the reach of volcanic bombs. In the example of the present embodiment, a volcanic bomb can be captured at a high frame rate, the size and moving speed of the volcanic bomb can be measured, and its reach can be estimated.

図13は、本技術の実施の形態の第4の適用例における火山弾警報の処理手順例を示す流れ図である。なお、画像センサ100の設置時には、適切な撮像が行われるようキャリブレーションが行われる。   FIG. 13 is a flowchart illustrating an example of a volcanic bomb warning processing procedure in the fourth application example of the embodiment of the present technology. When the image sensor 100 is installed, calibration is performed so that appropriate imaging is performed.

撮像部110によって観測対象である火山の噴火口を撮像することによって画像データが取得される(ステップS871)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、コントラスト等の補正が行われる(ステップS872)。これにより、天候や時刻による影響を緩和することができる。   Image data is acquired by imaging the volcano crater to be observed by the imaging unit 110 (step S871). The acquired image data constitutes a time-series frame. Each acquired frame is subjected to correction such as contrast by the filter processing unit 120 (step S872). Thereby, the influence by weather and time can be relieved.

そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われ、時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成されて、動体が抽出される(ステップS873)。抽出された動体については、モーメント生成部150によってモーメント演算が行われ、その面積や移動量のベクトルが計測される(ステップS874)。   Then, the binarization processing unit 130 performs binarization based on the color and luminance of the image in the frame, and a difference between frames adjacent in time series is generated by the tracking processing unit 140 to extract a moving object (step) S873). About the extracted moving body, moment calculation is performed by the moment generation part 150, and the vector of the area and movement amount is measured (step S874).

計測された動体の面積や移動量のベクトルから、火山弾が発生したか否かが判断される(ステップS875)。火山弾が発生したと判断された場合には(ステップS875:Yes)、ステップS876以降の処理が行われる。火山弾が発生していないと判断された場合には(ステップS875:No)、ステップS871以降の処理が繰り返される。   It is determined whether or not a volcanic bomb has been generated from the measured area of the moving object and the vector of the movement amount (step S875). If it is determined that a volcanic bomb has been generated (step S875: Yes), the processing after step S876 is performed. When it is determined that no volcanic bomb has been generated (step S875: No), the processing after step S871 is repeated.

計測された動体の面積に基づいて、集計処理部210において火山弾の質量が推定される(ステップS876)。また、計測された動体の面積や移動量のベクトルに基づいて、火山弾の到達範囲が推定される(ステップS877)。そして、この推定された到達範囲に関して、警戒情報を生成して(ステップS878)、関係機関にその警戒情報を発報する(ステップS879)。   Based on the measured area of the moving object, the mass of the volcanic bomb is estimated in the totalization processing unit 210 (step S876). Further, the reach of the volcanic bomb is estimated based on the measured area of the moving object and the vector of the movement amount (step S877). And alert information is produced | generated about this estimated reach (step S878), and the alert information is alert | reported to a related organization (step S879).

これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。   These processes are repeated for each frame of image data arranged in time series.

このように、この第4の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、火山弾の軌跡を予測することにより、火山弾の落下地点を推定して、到達範囲に関する警戒情報を生成することができる。   As described above, in the fourth application example, by assuming a high frame rate of 1000 fps or more as a frame rate, by predicting the trajectory of the volcanic bomb, the fall point of the volcanic bomb is estimated, and the warning regarding the reach is given. Information can be generated.

<6.第5の適用例>
図14は、本技術の実施の形態の第5の適用例における追跡撮像の例を示す図である。本実施の形態における制御システムを用いて追跡撮像を行うために、画像センサ100を含むカメラ550のレンズ部分にレンズ駆動アクチュエータ552を設ける。また、このレンズ駆動アクチュエータ552を制御するための自動追跡ボタン551を設ける。自動追跡ボタン551が押下されている間は、ターゲットとして検出された対象物を画面内に固定して捉えるようにレンズ駆動アクチュエータ552が制御される。カメラ550は、撮影者によって把持されるため、手振れ等が生じてターゲットの位置が一定にならないことが多いが、この実施の形態によればそのようなターゲットを固定した位置に捉えて撮像することができる。
<6. Fifth application example>
FIG. 14 is a diagram illustrating an example of tracking imaging in the fifth application example of the embodiment of the present technology. In order to perform tracking imaging using the control system in this embodiment, a lens driving actuator 552 is provided in the lens portion of the camera 550 including the image sensor 100. Further, an automatic tracking button 551 for controlling the lens driving actuator 552 is provided. While the automatic tracking button 551 is pressed, the lens driving actuator 552 is controlled so that the object detected as the target is fixedly captured in the screen. Since the camera 550 is gripped by a photographer, camera shake or the like often occurs and the position of the target is not constant. According to this embodiment, such a target is captured at a fixed position and imaged. Can do.

図15は、本技術の実施の形態の第5の適用例における追跡撮像の態様を示す図である。ここでは、一例として、サッカーの試合中にボールをターゲットとして捉える場合の例を示す。   FIG. 15 is a diagram illustrating an aspect of tracking imaging in the fifth application example of the embodiment of the present technology. Here, as an example, an example in which a ball is captured as a target during a soccer game is shown.

通常の撮像モードからスポーツモードに変更すると、ボールの周辺には検出枠553が表示される。これは、画像センサ100によってボールを認識できていることを示している。検出枠553が表示されている状態において、自動追跡ボタン551が押下されると、トラッキング処理部140によってボールの動きが追跡され、モーメント生成部150によってモーメント演算が行われる。そして、演算されたモーメントに基づいて、ボールの移動量が重心位置生成部160によって算出される。また、演算されたモーメントに基づいて、集計処理部210においてボールの移動方向554が算出される。集計処理部210は、算出されたボールの移動量および移動方向からボールの軌跡を予測する。   When the normal imaging mode is changed to the sports mode, a detection frame 553 is displayed around the ball. This indicates that the image sensor 100 can recognize the ball. When the automatic tracking button 551 is pressed while the detection frame 553 is displayed, the movement of the ball is tracked by the tracking processing unit 140 and the moment calculation is performed by the moment generating unit 150. Then, based on the calculated moment, the movement amount of the ball is calculated by the gravity center position generation unit 160. Also, the ball movement direction 554 is calculated in the totalization processing unit 210 based on the calculated moment. The aggregation processing unit 210 predicts the ball trajectory from the calculated movement amount and movement direction of the ball.

制御部220は、予測されたボールの軌跡に合わせて、レンズ駆動アクチュエータ552に制御情報を供給する。この制御情報によりレンズ駆動アクチュエータ552が駆動されてレンズが動く。このとき、カメラが移動すると、カメラの重心位置がずれるため、制御部220からレンズ駆動アクチュエータ552にさらに制御情報がフィードバックされる。これにより、レンズ駆動アクチュエータ552の駆動によってレンズが動いて、ボールの位置が画面内の固定した位置になるように撮像が行われる。なお、レンズは、特許請求の範囲に記載の光学素子の一例である。   The control unit 220 supplies control information to the lens driving actuator 552 in accordance with the predicted trajectory of the ball. With this control information, the lens driving actuator 552 is driven to move the lens. At this time, if the camera moves, the position of the center of gravity of the camera shifts, so control information is further fed back from the control unit 220 to the lens driving actuator 552. Thereby, the lens is moved by driving the lens driving actuator 552, and imaging is performed so that the position of the ball becomes a fixed position in the screen. The lens is an example of an optical element described in the claims.

なお、この例では、自動追跡ボタン551が押下された際のボールの表示位置を維持することを想定したが、自動追跡ボタン551が押下された際にボールの表示位置を中央に移動し、その後、その中央位置に維持するようにしてもよい。また、ボールの軌跡は急峻に変化しないように、フィルタ処理部120においてローパスフィルタをかけるようにしてもよい。また、ボールの追跡が瞬間的に外れた場合には、数フレーム程度については軌道予測を行ってもよい。   In this example, it is assumed that the display position of the ball when the automatic tracking button 551 is pressed is maintained. However, when the automatic tracking button 551 is pressed, the display position of the ball is moved to the center, and thereafter The center position may be maintained. Further, a low pass filter may be applied in the filter processing unit 120 so that the trajectory of the ball does not change sharply. Further, when the tracking of the ball is momentarily off, trajectory prediction may be performed for about several frames.

図16は、本技術の実施の形態の第5の適用例における追跡撮像の他の態様を示す図である。ここでは、撮像モードとして、ズームモードを想定する。このズームモードにおいては、ボールの検出とともに、顔の検出も行うものとする。同図では、画面555において、ボールの周辺には検出枠558が表示され、顔の周辺には検出枠559が表示されたものとしている。   FIG. 16 is a diagram illustrating another aspect of the tracking imaging in the fifth application example of the embodiment of the present technology. Here, the zoom mode is assumed as the imaging mode. In this zoom mode, the detection of the face is performed together with the detection of the ball. In the figure, on the screen 555, a detection frame 558 is displayed around the ball, and a detection frame 559 is displayed around the face.

ズームイン枠557に検出枠558および559が入ると、拡大(ズームイン)動作が行われる。一方、ズームアウト枠556から検出枠558または559の少なくとも一方が外れると、縮小(ズームアウト)動作が行われる。これにより、検出枠558および559両方が必ず画面555内に入るように、ズームインまたはズームアウト動作が行われる。   When the detection frames 558 and 559 enter the zoom-in frame 557, an enlargement (zoom-in) operation is performed. On the other hand, when at least one of the detection frames 558 and 559 is removed from the zoom-out frame 556, a reduction (zoom-out) operation is performed. As a result, the zoom-in or zoom-out operation is performed so that both the detection frames 558 and 559 always enter the screen 555.

図17は、本技術の実施の形態の第5の適用例における追跡撮像の処理手順例を示す流れ図である。同図において、左側の流れ図はカメラ550本体の処理手順を表し、右側の流れ図は画像センサ100の処理手順を表す。   FIG. 17 is a flowchart illustrating an example of a tracking imaging process procedure according to the fifth application example of the embodiment of the present technology. In the drawing, the flowchart on the left represents the processing procedure of the camera 550 main body, and the flowchart on the right represents the processing procedure of the image sensor 100.

カメラ550において撮像が開始すると、画像センサ100が起動される。画像センサ100の電源がオフになっている場合には(ステップS731:Yes)、画像センサ100の動作は行われない。画像センサ100の電源がオンになっている場合には(ステップS731:No)、カメラ550においてターゲットが指定されるまで待機する(ステップS732)。   When imaging with the camera 550 starts, the image sensor 100 is activated. When the power of the image sensor 100 is off (step S731: Yes), the operation of the image sensor 100 is not performed. When the image sensor 100 is powered on (step S731: No), the process waits until a target is designated by the camera 550 (step S732).

カメラ550では、モニタリングモードによる撮像および表示が行われる(ステップS711)。このモニタリングモードにおいて追跡の対象となるターゲットが指定される(ステップS712)。例えば、サッカーの試合においてボールがターゲットとして指定される。ターゲットの検出が開始すると(ステップS713:Yes)、そのターゲットの座標が画像センサ100に通知される(ステップS714)。ターゲットトラッキングに失敗した場合には(ステップS715:No)、再びターゲットの検出を行う(ステップS713)。   The camera 550 performs imaging and display in the monitoring mode (step S711). In this monitoring mode, a target to be tracked is designated (step S712). For example, a ball is designated as a target in a soccer game. When target detection starts (step S713: Yes), the coordinates of the target are notified to the image sensor 100 (step S714). When the target tracking fails (step S715: No), the target is detected again (step S713).

ターゲットが指定されてその座標が通知されると(ステップS732:Yes)、画像センサ100はそのターゲットを検出する。検出に成功すると(ステップS733:Yes)、画像センサ100は検出レスポンスをカメラ550に返す(ステップS734)。また、検出に成功しても、その後のターゲットトラッキングに失敗した場合には(ステップS735:No)、トラッキングから外れた旨の通知をカメラ550に返して(ステップS738)、再びターゲットの検出を行う(ステップS733)。   When the target is specified and its coordinates are notified (step S732: Yes), the image sensor 100 detects the target. If the detection is successful (step S733: Yes), the image sensor 100 returns a detection response to the camera 550 (step S734). In addition, even if the detection is successful, if the subsequent target tracking fails (step S735: No), a notification that the tracking is not performed is returned to the camera 550 (step S738), and the target is detected again. (Step S733).

カメラ550は、画像センサ100からターゲット検出の通知またはトラッキングから外れた旨の通知を受けると(ステップS716:Yes)、自動追跡ボタン551の押下を待つ。そして、自動追跡ボタン551の押下が開始すると(ステップS717:Yes)、追跡の制御を画像センサ100に指示する(ステップS718)。自動追跡ボタン551の押下が終了すると(ステップS719:Yes)、追跡を終了する制御を画像センサ100に指示する(ステップS721)。   When the camera 550 receives a notification of target detection from the image sensor 100 or a notification that it is out of tracking (step S716: Yes), the camera 550 waits for the automatic tracking button 551 to be pressed. When the automatic tracking button 551 starts to be pressed (step S717: Yes), the image sensor 100 is instructed to perform tracking control (step S718). When the pressing of the automatic tracking button 551 is completed (step S719: Yes), the image sensor 100 is instructed to control tracking (step S721).

画像センサ100は、カメラ550から追跡に関する制御を受けると(ステップS736:Yes)、ボールの軌跡を予測して、この予測された軌跡に基づいてレンズ駆動アクチュエータ552を制御する(ステップS737)。その間、ターゲットトラッキングを繰り返す(ステップS735)。   Upon receiving control related to tracking from the camera 550 (step S736: Yes), the image sensor 100 predicts the trajectory of the ball and controls the lens driving actuator 552 based on the predicted trajectory (step S737). Meanwhile, target tracking is repeated (step S735).

カメラ550は、モード切替が行われるまで(ステップS722)、ターゲットトラッキングを繰り返す(ステップS715)。モード切替が行われると(ステップS722:Yes)、電源オフでなければターゲットの指定に戻る(ステップS712)。   The camera 550 repeats target tracking (step S715) until the mode is switched (step S722). When the mode is switched (step S722: Yes), the process returns to the target designation unless the power is turned off (step S712).

このように、この第5の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、ターゲットの軌跡を予測することにより、その予測された軌跡に基づいてレンズ駆動アクチュエータ552の駆動を制御する。これにより、ボールの位置が画面内の固定した位置になるように撮像することができる。   As described above, in the fifth application example, assuming the high frame rate of 1000 fps or more as the frame rate, the target locus is predicted, and thus the lens driving actuator 552 is driven based on the predicted locus. Control. Thereby, it is possible to take an image so that the position of the ball becomes a fixed position in the screen.

<7.第6の適用例>
図18は、本技術の実施の形態の第6の適用例における画像重畳の例を示す図である。本実施の形態における制御システムを用いて画像重畳を行うためには、元画像を画像センサ100により撮像する。そして、元画像において重畳対象となる部分を検出して、その部分に他の画像を重畳する。これにより、必要に応じて重畳された画像を供給することができる。
<7. Sixth application example>
FIG. 18 is a diagram illustrating an example of image superposition in the sixth application example of the embodiment of the present technology. In order to perform image superimposition using the control system in the present embodiment, an original image is captured by the image sensor 100. Then, a part to be superimposed is detected in the original image, and another image is superimposed on the part. Thereby, the superimposed image can be supplied as necessary.

図18におけるaでは、一例として、サッカーの試合中に選手のユニフォームに記載されている広告部分を他の広告に置換する場合の例を示す。現場の選手のユニフォームには「P商事」の企業名561が広告として記載されているものとする。これは物理的なものであるため、それ自体は変化しない。現場のカメラは、この状態の様子をそのまま撮影する。   In FIG. 18 a, as an example, an example in which an advertisement portion described in a player's uniform is replaced with another advertisement during a soccer game is shown. It is assumed that the company name 561 of “P Shoji” is described as an advertisement on the player's uniform on the spot. Since this is physical, it does not change itself. The on-site camera takes a picture of this state as it is.

撮影された画像は、放送局の設備を通じて各地に放送される。その際、撮影された画像の広告部分に対して、広告契約に応じた企業名やブランド名が重畳される。例えば、図18におけるbのように、「P商事」の上に「Q産業」の企業名が重畳され、その重畳された画像が放送される。これにより、テレビに表示される選手のユニフォームには、「Q産業」の企業名562が広告として記載されているように映る。   The captured images are broadcast to various places through the facilities of the broadcasting station. At that time, the company name or brand name corresponding to the advertising contract is superimposed on the advertisement part of the photographed image. For example, as shown in FIG. 18b, the company name “Q industry” is superimposed on “P trading”, and the superimposed image is broadcast. Thereby, the company name 562 of “Q industry” appears as an advertisement on the player's uniform displayed on the television.

図19は、本技術の実施の形態の第6の適用例における画像重畳のタイミング例を示す図である。ここでは、放送用カメラのフレームレートとして30fpsを想定する。一方、本実施の形態の画像センサ100を備える高速カメラのフレームレートとして1000fpsを想定する。   FIG. 19 is a diagram illustrating an example of image superimposition timing in the sixth application example of the embodiment of the present technology. Here, 30 fps is assumed as the frame rate of the broadcasting camera. On the other hand, a frame rate of a high-speed camera including the image sensor 100 according to the present embodiment is assumed to be 1000 fps.

この場合、高速カメラによって撮像された画像において重畳対象である広告部分をトラッキング対象物としてターゲットトラッキングを行う。これにより、広告部分の座標位置および形状が認識される。そして、新たな広告のテクスチャを生成して、その生成されたテクスチャを放送用カメラのフレームの広告部分に張り付ける。高速カメラのフレームレートは放送用カメラのフレームレートよりも十分に速いため、高速カメラのフレームについてこれらの処理を行った後に、放送用カメラのフレームに対して重畳を行うことができる。   In this case, target tracking is performed by using the advertisement portion to be superimposed in the image captured by the high-speed camera as the tracking target. Thereby, the coordinate position and shape of an advertisement part are recognized. Then, a new advertisement texture is generated, and the generated texture is pasted on the advertisement part of the frame of the broadcast camera. Since the frame rate of the high-speed camera is sufficiently faster than the frame rate of the broadcast camera, after performing these processes on the frame of the high-speed camera, the frame can be superimposed on the frame of the broadcast camera.

図20は、本技術の実施の形態の第6の適用例における画像重畳の処理手順例を示す流れ図である。   FIG. 20 is a flowchart illustrating an example of an image superimposition processing procedure in the sixth application example of the embodiment of the present technology.

まず、画像センサ100により画像データが取得される(ステップS881)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、ノイズが除去される(ステップS882)。   First, image data is acquired by the image sensor 100 (step S881). The acquired image data constitutes a time-series frame. Noise is removed from each acquired frame by the filter processing unit 120 (step S882).

そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われて、重畳対象であるマーカが検出される(ステップS883)。検出されたマーカに対して領域が設定されて(ステップS884)、その領域において時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成される。これにより、設定された領域においてマーカの追跡(ターゲットトラッキング)が行われる(ステップS885)。また、そのマーカについて、モーメント生成部150によってモーメント演算が行われる(ステップS886)。   Then, the binarization processing unit 130 performs binarization based on the color and brightness of the image in the frame, and detects a marker to be superimposed (step S883). An area is set for the detected marker (step S884), and a difference between frames adjacent in time series in the area is generated by the tracking processing unit 140. Thereby, marker tracking (target tracking) is performed in the set region (step S885). In addition, moment calculation is performed on the marker by the moment generator 150 (step S886).

また、操作入力装置310からの指示に従って処理が選択される(ステップS887)。重畳映像を出力する場合には、集計処理部210において重畳処理が行った後に(ステップS888)、インターフェース230を介してその重畳映像を出力する(ステップS889)。一方、オリジナル映像を出力する場合には、重畳処理を行うことなくインターフェース230を介してオリジナル映像を出力する(ステップS889)。   Further, processing is selected in accordance with an instruction from the operation input device 310 (step S887). In the case of outputting the superimposed video, after the superimposition processing is performed in the aggregation processing unit 210 (step S888), the superimposed video is output through the interface 230 (step S889). On the other hand, when outputting the original video, the original video is output via the interface 230 without performing the superimposing process (step S889).

これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。   These processes are repeated for each frame of image data arranged in time series.

このように、この第6の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、重畳対象の軌跡を予測することにより、その重畳対象の位置の画像を重畳して置換することができる。   As described above, in the sixth application example, assuming a high frame rate of 1000 fps or more as the frame rate, the locus of the superimposition target is predicted to superimpose and replace the image at the superimposition target position. Can do.

<8.第7の適用例>
図21は、本技術の実施の形態の第7の適用例における距離算出の例を示す図である。従来、モーションキャプチャ等で使われるオブジェクトトラッキングは、3次元での動きを正確に測定するために複数のカメラを用いて行われていた。そのため、システムとしては大掛かりで高価なものとなっていた。そこで、本実施の形態における制御システムを用いて距離算出を行うために、測定対象である対象物の画像を画像センサ100により撮像し、対象物の距離を算出する。
<8. Seventh application example>
FIG. 21 is a diagram illustrating an example of distance calculation in the seventh application example of the embodiment of the present technology. Conventionally, object tracking used in motion capture or the like has been performed using a plurality of cameras in order to accurately measure a three-dimensional movement. Therefore, the system is large and expensive. Therefore, in order to perform distance calculation using the control system in the present embodiment, an image of the object to be measured is captured by the image sensor 100, and the distance of the object is calculated.

この例において距離を算出するためには、予めキャリブレーションを行う必要がある。すなわち、ある決められた座標位置(0,0)に、トラッキング対象のオブジェクト571を配置し、そのときの距離および面積を基準距離および基準面積として記録する。その後、オブジェクト571についてトラッキングを行い、そのオブジェクト571の重心位置(x,y)と面積sを算出し、その面積とキャリブレーションの結果から、次式により距離zを算出する。
距離z=基準距離×(面積s/基準面積)1/2
In this example, in order to calculate the distance, it is necessary to perform calibration in advance. That is, the tracking target object 571 is arranged at a predetermined coordinate position (0, 0), and the distance and area at that time are recorded as the reference distance and the reference area. Thereafter, tracking is performed on the object 571, the center of gravity (x, y) and the area s of the object 571 are calculated, and the distance z is calculated from the area and the result of calibration by the following equation.
Distance z = reference distance × (area s / reference area) 1/2

図22は、本技術の実施の形態の第7の適用例におけるオブジェクトトラッキングの態様を示す図である。この例では、画像センサ100により撮像されるフレームレートとして1000fps以上の高フレームレートを想定するため、フレーム単位の動き量は微少となる。これを前提に、検出範囲を局所化し、その範囲での面積と重心位置を求めることにより、簡易な仕組みでトラッキングを行うことができる。   FIG. 22 is a diagram illustrating an aspect of object tracking in the seventh application example of the embodiment of the present technology. In this example, since a high frame rate of 1000 fps or more is assumed as the frame rate captured by the image sensor 100, the amount of motion in units of frames is very small. On the premise of this, tracking can be performed with a simple mechanism by localizing the detection range and obtaining the area and the center of gravity in the range.

前フレームにおけるオブジェクト572の重心位置573を中心として、その近傍を検出対象枠574として設定する。このとき、検出範囲の一辺(幅および高さ)は、次式により表される。ただし、αは探索範囲係数である。
検出範囲の一辺=(前フレームの0次モーメント)1/2×α
The vicinity of the center of gravity 573 of the object 572 in the previous frame is set as a detection target frame 574. At this time, one side (width and height) of the detection range is expressed by the following equation. Where α is a search range coefficient.
One side of the detection range = (0th moment of the previous frame) 1/2 × α

トラッキング処理部140によって、検出対象枠574において、次フレームにおけるオブジェクト575が検出されると、二値化処理部130によって二値化処理が行われる。これにより、オブジェクト575の位置(x,y)にはビットマップI(x,y)として「1」が、それ以外の位置には「0」が示される。このビットマップI(x,y)に基づいて、モーメント生成部150において次式のようにモーメント演算が行われる。
0次モーメント(面積)=ΣΣI(x,y)
水平1次モーメント=ΣΣx×I(x,y)
垂直1次モーメント=ΣΣy×I(x,y)
ただし、上式におけるΣΣは、水平方向および垂直方向の総和演算を表す。
When the tracking processing unit 140 detects the object 575 in the next frame in the detection target frame 574, the binarization processing unit 130 performs binarization processing. As a result, “1” is indicated as the bitmap I (x, y) at the position (x, y) of the object 575, and “0” is indicated at other positions. Based on the bitmap I (x, y), the moment generator 150 performs moment calculation as shown in the following equation.
0th moment (area) = ΣΣI (x, y)
Horizontal first moment = ΣΣx × I (x, y)
Vertical first moment = ΣΣy × I (x, y)
However, ΣΣ in the above equation represents the summation in the horizontal and vertical directions.

このようにして生成されたモーメントに基づいて、重心位置生成部160において重心位置の座標が次式により生成される。
重心x座標=水平1次モーメント/0次モーメント
重心y座標=垂直1次モーメント/0次モーメント
Based on the moment generated in this way, the center-of-gravity position generation unit 160 generates the coordinates of the center-of-gravity position by the following expression.
Center of gravity x coordinate = horizontal first moment / zero order moment Center of gravity y coordinate = vertical first moment / zero order moment

図23は、本技術の実施の形態の第7の適用例における距離算出の態様を示す図である。上述のように、この例では、予め基準位置における距離と面積の関係をキャリブレーションしておくことにより、カメラ561により得られた面積から距離を算出することができる。   FIG. 23 is a diagram illustrating an aspect of distance calculation in the seventh application example of the embodiment of the present technology. As described above, in this example, the distance can be calculated from the area obtained by the camera 561 by calibrating the relationship between the distance and the area at the reference position in advance.

ここで、基準位置における面積A0を基準面積として、そのときの距離D0を基準距離とする。オブジェクトトラッキングを行った際に、面積A1が得られた場合、その距離D1は次式により算出される。
D1=D0×(A1/A0)1/2
Here, the area A0 at the reference position is set as the reference area, and the distance D0 at that time is set as the reference distance. When the area A1 is obtained when performing object tracking, the distance D1 is calculated by the following equation.
D1 = D0 × (A1 / A0) 1/2

同様に、オブジェクトトラッキングを行った際に、面積A2が得られた場合、その距離D2は次式により算出される。
D2=D0×(A2/A0)1/2
Similarly, when the area A2 is obtained when performing object tracking, the distance D2 is calculated by the following equation.
D2 = D0 × (A2 / A0) 1/2

図24は、本技術の実施の形態の第7の適用例における距離算出の処理手順例を示す流れ図である。なお、この距離算出の前提として、キャリブレーションが行われているものとする。   FIG. 24 is a flowchart illustrating an example of a processing procedure of distance calculation in the seventh application example of the embodiment of the present technology. It is assumed that calibration is performed as a precondition for the distance calculation.

まず、画像センサ100により画像データが取得される(ステップS891)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、ノイズが除去される(ステップS892)。   First, image data is acquired by the image sensor 100 (step S891). The acquired image data constitutes a time-series frame. Noise is removed from each acquired frame by the filter processing unit 120 (step S892).

そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われて、重畳対象であるマーカが検出される(ステップS893)。検出されたマーカに対して領域が設定されて(ステップS894)、その領域において時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成される。これにより、設定された領域においてマーカの追跡(ターゲットトラッキング)が行われる(ステップS895)。   Then, the binarization processing unit 130 performs binarization based on the color and brightness of the image in the frame, and detects a marker to be superimposed (step S893). An area is set for the detected marker (step S 894), and a difference between frames adjacent in time series in the area is generated by the tracking processing unit 140. Thereby, tracking of the marker (target tracking) is performed in the set region (step S895).

また、そのマーカについて、モーメント生成部150によってモーメント演算が行われる(ステップS896)。 演算されたモーメントに基づいて、マーカの移動量が重心位置生成部160によって算出される(ステップS897)。   Further, moment calculation is performed by the moment generator 150 for the marker (step S896). Based on the calculated moment, the movement amount of the marker is calculated by the gravity center position generation unit 160 (step S897).

また、操作入力装置310からの指示に従って処理が選択され(ステップS898)、距離算出を行う場合には、集計処理部210において距離が算出される(ステップS899)。算出された距離は、例えば、インターフェース230を介して表示装置320に表示される。   In addition, a process is selected in accordance with an instruction from the operation input device 310 (step S898), and when the distance is calculated, the distance is calculated in the totalization processing unit 210 (step S899). The calculated distance is displayed on the display device 320 via the interface 230, for example.

これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。   These processes are repeated for each frame of image data arranged in time series.

このように、この第7の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、オブジェクトの軌跡を予測することにより、オブジェクトとの間の距離を算出することができる。   Thus, in the seventh application example, it is possible to calculate the distance to the object by predicting the trajectory of the object assuming a high frame rate of 1000 fps or more as the frame rate.

ここまで説明したように、本技術の実施の形態によれば、対象物を高フレームレートにより撮像して画像センサ100内で画像処理することにより、対象物の軌跡を予測して、その予測結果に基づいて制御対象装置330を制御することができる。   As described so far, according to the embodiment of the present technology, the object trajectory is predicted by imaging the object at a high frame rate and performing image processing in the image sensor 100, and the prediction result thereof. The control target device 330 can be controlled based on the above.

なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。   The above-described embodiment shows an example for embodying the present technology, and the matters in the embodiment and the invention-specific matters in the claims have a corresponding relationship. Similarly, the invention specific matter in the claims and the matter in the embodiment of the present technology having the same name as this have a corresponding relationship. However, the present technology is not limited to the embodiment, and can be embodied by making various modifications to the embodiment without departing from the gist thereof.

また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disc)、メモリカード、ブルーレイディスク(Blu-ray(登録商標)Disc)等を用いることができる。   Further, the processing procedure described in the above embodiment may be regarded as a method having a series of these procedures, and a program for causing a computer to execute these series of procedures or a recording medium storing the program. You may catch it. As this recording medium, for example, a CD (Compact Disc), an MD (MiniDisc), a DVD (Digital Versatile Disc), a memory card, a Blu-ray disc (Blu-ray (registered trademark) Disc), or the like can be used.

なお、本明細書に記載された効果はあくまで例示であって、限定されるものではなく、また、他の効果があってもよい。   In addition, the effect described in this specification is an illustration to the last, Comprising: It does not limit and there may exist another effect.

なお、本技術は以下のような構成もとることができる。
(1)対象物を撮像して時系列に並ぶ画像データのフレームを生成する撮像素子と、
前記フレームの各々に対して二値化処理を行って二値化フレームを生成する二値化処理部と、
時系列に隣接する前記二値化フレームの間の差分を生成して前記二値化フレームに含まれる前記対象物の位置の変化を追跡するトラッキング処理部と、
前記トラッキング処理部による結果に基づいて前記二値化フレームに含まれる前記対象物のモーメントを算出するモーメント生成部と、
前記モーメント生成部によって生成された前記モーメントに基づいて前記二値化フレームに含まれる前記対象物の重心位置を生成する重心位置生成部と、
前記重心位置生成部によって生成された前記対象物の重心位置に基づいて前記対象物の軌跡を予測して生成する軌跡生成部と、
前記軌跡生成部によって生成された前記対象物の軌跡に基づいて制御対象装置に制御信号を供給する制御信号供給部と
を具備する画像センサ。
(2)前記軌跡生成部は、前記対象物との距離の軌跡を予測し、
前記制御信号供給部は、前記予測された距離が所定の条件を満たす場合に前記制御信号を供給する
前記(1)に記載の画像センサ。
(3)前記制御信号は、緩衝部材の動作を制御する制御信号である前記(2)に記載の画像センサ。
(4)前記制御信号は、警告装置の動作を制御する制御信号である前記(2)に記載の画像センサ。
(5)前記軌跡生成部は、前記対象物の弾道の軌跡を予測し、
前記制御信号供給部は、前記予測された軌跡を表示するための前記制御信号を供給する
前記(1)から(4)のいずれかに記載の画像センサ。
(6)前記軌跡生成部は、前記対象物の飛距離を予測し、
前記制御信号供給部は、前記予測された飛距離を表示するための前記制御信号を供給する
前記(5)に記載の画像センサ。
(7)前記軌跡生成部は、前記対象物の到達位置を予測し、
前記制御信号供給部は、前記予測された到達位置を表示するための前記制御信号を供給する
前記(5)に記載の画像センサ。
(8)前記制御信号供給部は、前記予測された到達位置に応じた音声信号を出力するための前記制御信号を供給する
前記(7)に記載の画像センサ。
(9)前記撮像素子に前記対象物を含む画像を供給する光学素子をさらに具備し、
前記制御信号は、前記光学素子の動作を制御する制御信号である
前記(1)から(8)のいずれかに記載の画像センサ。
(10)前記制御信号は、前記フレームの一部を所定の画像に置換して表示させる制御信号である前記(1)から(9)のいずれかに記載の画像センサ。
In addition, this technique can also take the following structures.
(1) an image sensor that images a target and generates frames of image data arranged in time series;
A binarization processing unit that performs binarization processing on each of the frames to generate a binarized frame;
A tracking processing unit that generates a difference between the binarized frames adjacent to each other in time series and tracks a change in the position of the object included in the binarized frame;
A moment generation unit that calculates a moment of the object included in the binarized frame based on a result of the tracking processing unit;
A center-of-gravity position generation unit that generates a center-of-gravity position of the object included in the binarized frame based on the moment generated by the moment generation unit;
A trajectory generator that predicts and generates a trajectory of the object based on the barycentric position of the object generated by the centroid position generator;
An image sensor comprising: a control signal supply unit configured to supply a control signal to the control target device based on the trajectory of the object generated by the trajectory generation unit.
(2) The trajectory generation unit predicts a trajectory of the distance to the object,
The image sensor according to (1), wherein the control signal supply unit supplies the control signal when the predicted distance satisfies a predetermined condition.
(3) The image sensor according to (2), wherein the control signal is a control signal for controlling the operation of the buffer member.
(4) The image sensor according to (2), wherein the control signal is a control signal for controlling the operation of the warning device.
(5) The trajectory generator predicts a trajectory of the trajectory of the object,
The image sensor according to any one of (1) to (4), wherein the control signal supply unit supplies the control signal for displaying the predicted trajectory.
(6) The trajectory generator predicts the flight distance of the object,
The image sensor according to (5), wherein the control signal supply unit supplies the control signal for displaying the predicted flight distance.
(7) The locus generation unit predicts the arrival position of the object,
The image sensor according to (5), wherein the control signal supply unit supplies the control signal for displaying the predicted arrival position.
(8) The image sensor according to (7), wherein the control signal supply unit supplies the control signal for outputting an audio signal corresponding to the predicted arrival position.
(9) further comprising an optical element that supplies an image including the object to the image sensor;
The image sensor according to any one of (1) to (8), wherein the control signal is a control signal for controlling an operation of the optical element.
(10) The image sensor according to any one of (1) to (9), wherein the control signal is a control signal that is displayed by replacing a part of the frame with a predetermined image.

100 画像センサ
110 撮像部
120 フィルタ処理部
130 二値化処理部
140 トラッキング処理部
150 モーメント生成部
160 重心位置生成部
210 集計処理部
220 制御部
230 インターフェース
310 操作入力装置
320 表示装置
330 制御対象装置
511、515 保護対象
512、516、521、523、525 緩衝部材
513、517、522、524、526 画像センサ
514、518 移動物体
531 プレーヤ
532 ボール
533 携帯端末
534 推定飛距離
541、550、561 カメラ
542 スピーカ
543 フェンス
544 保護カバー
545 制御装置
551 自動追跡ボタン
552 レンズ駆動アクチュエータ
DESCRIPTION OF SYMBOLS 100 Image sensor 110 Imaging part 120 Filter process part 130 Binarization process part 140 Tracking process part 150 Moment generation part 160 Center of gravity position generation part 210 Aggregation process part 220 Control part 230 Interface 310 Operation input apparatus 320 Display apparatus 330 Control object apparatus 511 515 Protection target 512, 516, 521, 523, 525 Buffer member 513, 517, 522, 524, 526 Image sensor 514, 518 Moving object 531 Player 532 Ball 533 Mobile terminal 534 Estimated flight distance 541, 550, 561 Camera 542 Speaker 543 Fence 544 Protective cover 545 Control device 551 Automatic tracking button 552 Lens drive actuator

Claims (10)

対象物を撮像して時系列に並ぶ画像データのフレームを生成する撮像素子と、
前記フレームの各々に対して二値化処理を行って二値化フレームを生成する二値化処理部と、
時系列に隣接する前記二値化フレームの間の差分を生成して前記二値化フレームに含まれる前記対象物の位置の変化を追跡するトラッキング処理部と、
前記トラッキング処理部による結果に基づいて前記二値化フレームに含まれる前記対象物のモーメントを算出するモーメント生成部と、
前記モーメント生成部によって生成された前記モーメントに基づいて前記二値化フレームに含まれる前記対象物の重心位置を生成する重心位置生成部と、
前記重心位置生成部によって生成された前記対象物の重心位置に基づいて前記対象物の軌跡を予測して生成する軌跡生成部と、
前記軌跡生成部によって生成された前記対象物の軌跡に基づいて制御対象装置に制御信号を供給する制御信号供給部と
を具備する画像センサ。
An image sensor that images a target and generates frames of image data arranged in time series; and
A binarization processing unit that performs binarization processing on each of the frames to generate a binarized frame;
A tracking processing unit that generates a difference between the binarized frames adjacent to each other in time series and tracks a change in the position of the object included in the binarized frame;
A moment generation unit that calculates a moment of the object included in the binarized frame based on a result of the tracking processing unit;
A center-of-gravity position generation unit that generates a center-of-gravity position of the object included in the binarized frame based on the moment generated by the moment generation unit;
A trajectory generator that predicts and generates a trajectory of the object based on the barycentric position of the object generated by the centroid position generator;
An image sensor comprising: a control signal supply unit configured to supply a control signal to the control target device based on the trajectory of the object generated by the trajectory generation unit.
前記軌跡生成部は、前記対象物との距離の軌跡を予測し、
前記制御信号供給部は、前記予測された距離が所定の条件を満たす場合に前記制御信号を供給する
請求項1記載の画像センサ。
The trajectory generator predicts a trajectory of the distance to the object;
The image sensor according to claim 1, wherein the control signal supply unit supplies the control signal when the predicted distance satisfies a predetermined condition.
前記制御信号は、緩衝部材の動作を制御する制御信号である請求項2記載の画像センサ。   The image sensor according to claim 2, wherein the control signal is a control signal for controlling an operation of the buffer member. 前記制御信号は、警告装置の動作を制御する制御信号である請求項2記載の画像センサ。   The image sensor according to claim 2, wherein the control signal is a control signal for controlling an operation of the warning device. 前記軌跡生成部は、前記対象物の弾道の軌跡を予測し、
前記制御信号供給部は、前記予測された軌跡を表示するための前記制御信号を供給する
請求項1記載の画像センサ。
The trajectory generator predicts the trajectory of the trajectory of the object;
The image sensor according to claim 1, wherein the control signal supply unit supplies the control signal for displaying the predicted trajectory.
前記軌跡生成部は、前記対象物の飛距離を予測し、
前記制御信号供給部は、前記予測された飛距離を表示するための前記制御信号を供給する
請求項5記載の画像センサ。
The trajectory generator predicts the flight distance of the object,
The image sensor according to claim 5, wherein the control signal supply unit supplies the control signal for displaying the predicted flight distance.
前記軌跡生成部は、前記対象物の到達位置を予測し、
前記制御信号供給部は、前記予測された到達位置を表示するための前記制御信号を供給する
請求項5記載の画像センサ。
The locus generation unit predicts the arrival position of the object;
The image sensor according to claim 5, wherein the control signal supply unit supplies the control signal for displaying the predicted arrival position.
前記制御信号供給部は、前記予測された到達位置に応じた音声信号を出力するための前記制御信号を供給する
請求項7記載の画像センサ。
The image sensor according to claim 7, wherein the control signal supply unit supplies the control signal for outputting an audio signal corresponding to the predicted arrival position.
前記撮像素子に前記対象物を含む画像を供給する光学素子をさらに具備し、
前記制御信号は、前記光学素子の動作を制御する制御信号である
請求項1記載の画像センサ。
An optical element for supplying an image including the object to the image sensor;
The image sensor according to claim 1, wherein the control signal is a control signal for controlling an operation of the optical element.
前記制御信号は、前記フレームの一部を所定の画像に置換して表示させる制御信号である請求項1記載の画像センサ。   The image sensor according to claim 1, wherein the control signal is a control signal that is displayed by replacing a part of the frame with a predetermined image.
JP2018554870A 2016-12-07 2017-11-07 Image sensor Active JP7100590B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016237176 2016-12-07
JP2016237176 2016-12-07
PCT/JP2017/040037 WO2018105290A1 (en) 2016-12-07 2017-11-07 Image sensor

Publications (2)

Publication Number Publication Date
JPWO2018105290A1 true JPWO2018105290A1 (en) 2019-10-24
JP7100590B2 JP7100590B2 (en) 2022-07-13

Family

ID=62492252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018554870A Active JP7100590B2 (en) 2016-12-07 2017-11-07 Image sensor

Country Status (2)

Country Link
JP (1) JP7100590B2 (en)
WO (1) WO2018105290A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020075230A1 (en) * 2018-10-10 2020-04-16 株式会社ウフル Strike alert system, method, program, and seat in baseball stadium
CN110062272B (en) 2019-04-30 2021-09-28 腾讯科技(深圳)有限公司 Video data processing method and related device
JP7083332B2 (en) * 2019-12-27 2022-06-10 楽天グループ株式会社 Image processing equipment, image processing methods, and programs
JP7083334B2 (en) * 2019-12-27 2022-06-10 楽天グループ株式会社 Image processing equipment, image processing methods, and programs
WO2022034245A1 (en) * 2020-08-14 2022-02-17 Topgolf Sweden Ab Motion based pre-processing of two-dimensional image data prior to three-dimensional object tracking with virtual time synchronization
JP7322320B2 (en) 2020-08-14 2023-08-07 トップゴルフ スウェーデン エービー Motion-based preprocessing of 2D image data before 3D object tracking using virtual time synchronization

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916863A (en) * 1995-06-27 1997-01-17 Toshiba Corp Monitor and control device
JP2001521403A (en) * 1996-02-12 2001-11-06 ゴルフ エイジ テクノロジーズ,インコーポレイテッド Golf driving range distance determination apparatus and method
JP2002543503A (en) * 1999-04-23 2002-12-17 シーメンス アクチエンゲゼルシヤフト Method and apparatus for determining the position of an object in a scene
JP2004145669A (en) * 2002-10-24 2004-05-20 Sharp Corp Movement detection method, control method, movement detector, controller and computer program
JP2008160436A (en) * 2006-12-22 2008-07-10 Olympus Imaging Corp Imaging device
JP2008219489A (en) * 2007-03-05 2008-09-18 Nippon Hoso Kyokai <Nhk> Trajectory image synthesizer of video object and program therefor
JP2010005267A (en) * 2008-06-30 2010-01-14 Mitsubishi Electric Engineering Co Ltd Safety management system for golf links

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916863A (en) * 1995-06-27 1997-01-17 Toshiba Corp Monitor and control device
JP2001521403A (en) * 1996-02-12 2001-11-06 ゴルフ エイジ テクノロジーズ,インコーポレイテッド Golf driving range distance determination apparatus and method
JP2002543503A (en) * 1999-04-23 2002-12-17 シーメンス アクチエンゲゼルシヤフト Method and apparatus for determining the position of an object in a scene
JP2004145669A (en) * 2002-10-24 2004-05-20 Sharp Corp Movement detection method, control method, movement detector, controller and computer program
JP2008160436A (en) * 2006-12-22 2008-07-10 Olympus Imaging Corp Imaging device
JP2008219489A (en) * 2007-03-05 2008-09-18 Nippon Hoso Kyokai <Nhk> Trajectory image synthesizer of video object and program therefor
JP2010005267A (en) * 2008-06-30 2010-01-14 Mitsubishi Electric Engineering Co Ltd Safety management system for golf links

Also Published As

Publication number Publication date
JP7100590B2 (en) 2022-07-13
WO2018105290A1 (en) 2018-06-14

Similar Documents

Publication Publication Date Title
WO2018105290A1 (en) Image sensor
JP6525453B2 (en) Object position estimation system and program thereof
US10771760B2 (en) Information processing device, control method of information processing device, and storage medium
JP2017531979A (en) System and method for visual player tracking in a sports arena
US10171794B2 (en) Method for selecting cameras and image distribution system capable of appropriately selecting cameras
US20130120581A1 (en) Apparatus, method and system
KR20190005765A (en) Image processing apparatus, image processing method thereof and program
US10564250B2 (en) Device and method for measuring flight data of flying objects using high speed video camera and computer readable recording medium having program for performing the same
US20160370239A1 (en) Body Motion Assessment Using Image Analysis
JP4389901B2 (en) Camera automatic control system, camera automatic control method, camera automatic control device, and program in sports competition
US20080068463A1 (en) system and method for graphically enhancing the visibility of an object/person in broadcasting
US9589332B2 (en) Camera movement correction apparatus, method and system
JP6447515B2 (en) Information processing apparatus, recording medium, and information processing method
JP2022132286A (en) Virtual reality provision system
JP2011071932A (en) Vehicle surroundings monitoring apparatus
CN110270078B (en) Football game special effect display system and method and computer device
JP7161981B2 (en) Object tracking program, device and method capable of switching object tracking means
JP2013093865A (en) Vehicle periphery monitoring device
JP2017156796A (en) Object tracking system, object tracking device and program, as well as physical object with location display body
US8885886B2 (en) Method and apparatus and program
US20200372779A1 (en) Terminal device, risk prediction method, and recording medium
KR102621481B1 (en) Method for displaying locus using image accumulation
JP2019096062A (en) Object tracking device, object tracking method, and object tracking program
JPH1021407A (en) Moition detector
KR101019847B1 (en) Sensing processing device and method for moving object, and virtual golf simulation device using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220701

R150 Certificate of patent or registration of utility model

Ref document number: 7100590

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150