JPWO2018105290A1 - Image sensor - Google Patents
Image sensor Download PDFInfo
- Publication number
- JPWO2018105290A1 JPWO2018105290A1 JP2018554870A JP2018554870A JPWO2018105290A1 JP WO2018105290 A1 JPWO2018105290 A1 JP WO2018105290A1 JP 2018554870 A JP2018554870 A JP 2018554870A JP 2018554870 A JP2018554870 A JP 2018554870A JP WO2018105290 A1 JPWO2018105290 A1 JP WO2018105290A1
- Authority
- JP
- Japan
- Prior art keywords
- control signal
- trajectory
- image sensor
- target
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Geometry (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Adjustment Of Camera Lenses (AREA)
Abstract
表示のための低速画像データとは異なる高速画像データによる対象物の軌跡に基づいて装置の制御を行う。撮像素子は、対象物を撮像して時系列に並ぶ画像データのフレームを生成する。二値化処理部は、フレームの各々に対して二値化処理を行って二値化フレームを生成する。トラッキング処理部は、時系列に隣接する二値化フレームの間の差分を生成して二値化フレームに含まれる対象物の位置の変化を追跡する。モーメント生成部は、二値化フレームのモーメントを算出する。重心位置生成部は、二値化フレームに含まれる対象物の重心位置を生成する。軌跡生成部は、対象物の軌跡を予測して生成する。制御信号供給部は、対象物の軌跡に基づいて制御対象装置に制御信号を供給する。The apparatus is controlled based on the trajectory of the object based on the high-speed image data different from the low-speed image data for display. The imaging device captures an object and generates frames of image data arranged in time series. The binarization processing unit performs binarization processing on each of the frames to generate a binarized frame. The tracking processing unit generates a difference between the binarized frames adjacent to each other in time series and tracks the change in the position of the object included in the binarized frame. The moment generator calculates the moment of the binarized frame. The centroid position generation unit generates the centroid position of the object included in the binarized frame. The trajectory generation unit predicts and generates a trajectory of the object. The control signal supply unit supplies a control signal to the control target device based on the trajectory of the target object.
Description
本技術は、画像センサに関する。詳しくは、撮像された画像データを利用して制御対象装置の制御を行うための画像センサに関する。 The present technology relates to an image sensor. Specifically, the present invention relates to an image sensor for controlling a control target device using captured image data.
従来、物体の画像を所定の間隔毎に撮影して、それらの画像に基づいて物体の軌跡を表す画像を生成する画像処理装置が知られている。例えば、第1画像が撮影されてから第2画像が撮影されるまでの間における物体の軌跡を求め、その求めた軌跡を用いて軌跡を補間する画像処理装置が提案されている(例えば、特許文献1参照。)。 2. Description of the Related Art Conventionally, an image processing apparatus that captures an image of an object at predetermined intervals and generates an image representing the locus of the object based on those images is known. For example, there has been proposed an image processing apparatus that obtains a trajectory of an object from when the first image is photographed until the second image is photographed, and interpolates the trajectory using the obtained trajectory (for example, a patent). Reference 1).
上述の従来技術では、所定の間隔毎に撮影された物体の画像から物体の軌跡を求めるために補間処理を行っている。画像を表示するためには、一般に30乃至120fps(フレーム/秒)程度の処理速度で足りるが、高度な制御を行うためにはそれでは不十分である。そのため、求められた物体の軌跡を描画することはできても、それを他の装置の制御に利用することが難しい。すなわち、補間処理により生成された物体の軌跡に基づいて、他の装置に対してリアルタイムに制御を行うことは困難である。 In the above-described prior art, interpolation processing is performed in order to obtain the locus of an object from the image of the object photographed at predetermined intervals. In order to display an image, a processing speed of about 30 to 120 fps (frames / second) is generally sufficient, but that is not sufficient for advanced control. Therefore, even though the trajectory of the obtained object can be drawn, it is difficult to use it for controlling other devices. That is, it is difficult to control other devices in real time based on the trajectory of the object generated by the interpolation process.
本技術はこのような状況に鑑みて生み出されたものであり、表示のための低速画像データとは異なる高速画像データによる対象物の軌跡に基づいて装置の制御を行うことを目的とする。 The present technology has been created in view of such a situation, and an object of the present technology is to control an apparatus based on a trajectory of an object based on high-speed image data different from low-speed image data for display.
本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、対象物を撮像して時系列に並ぶ画像データのフレームを生成する撮像素子と、上記フレームの各々に対して二値化処理を行って二値化フレームを生成する二値化処理部と、時系列に隣接する上記二値化フレームの間の差分を生成して上記二値化フレームに含まれる上記対象物の位置の変化を追跡するトラッキング処理部と、上記トラッキング処理部による結果に基づいて上記二値化フレームに含まれる上記対象物のモーメントを算出するモーメント生成部と、上記モーメント生成部によって生成された上記モーメントに基づいて上記二値化フレームに含まれる上記対象物の重心位置を生成する重心位置生成部と、上記重心位置生成部によって生成された上記対象物の重心位置に基づいて上記対象物の軌跡を予測して生成する軌跡生成部と、上記軌跡生成部によって生成された上記対象物の軌跡に基づいて制御対象装置に制御信号を供給する制御信号供給部とを具備する画像センサである。これにより、予測された対象物の軌跡に基づいて制御対象装置を制御するという作用をもたらす。 The present technology has been made to solve the above-described problems. The first aspect of the present technology is an imaging device that captures an object and generates frames of image data arranged in time series, and the above-described frame. Generate a difference between a binarization processing unit that performs binarization processing on each to generate a binarized frame and the binarized frame adjacent to the time series, and includes the difference in the binarized frame A tracking processing unit that tracks a change in the position of the target object, a moment generation unit that calculates a moment of the target object included in the binarized frame based on a result of the tracking processing unit, and the moment generation unit A centroid position generation unit that generates a centroid position of the object included in the binarized frame based on the moment generated by A trajectory generator that predicts and generates a trajectory of the object based on the position of the center of gravity of the object, and a control that supplies a control signal to the control target device based on the trajectory of the object generated by the trajectory generator An image sensor including a signal supply unit. This brings about the effect | action of controlling a control object apparatus based on the locus | trajectory of the estimated target object.
また、この第1の側面において、上記軌跡生成部は、上記対象物との距離の軌跡を予測し、上記制御信号供給部は、上記予測された距離が所定の条件を満たす場合に上記制御信号を供給するようにしてもよい。これにより、予測された距離に応じて制御対象装置を制御するという作用をもたらす。 In the first aspect, the trajectory generation unit predicts a trajectory of the distance to the object, and the control signal supply unit includes the control signal when the predicted distance satisfies a predetermined condition. May be supplied. This brings about the effect | action of controlling a control object apparatus according to the estimated distance.
また、この第1の側面において、上記制御信号は、緩衝部材の動作を制御する制御信号であってもよい。これにより、予測された対象物の軌跡に基づいて緩衝部材の動作を制御するという作用をもたらす。 In the first aspect, the control signal may be a control signal for controlling the operation of the buffer member. This brings about the effect | action of controlling operation | movement of a buffer member based on the locus | trajectory of the estimated target object.
また、この第1の側面において、上記制御信号は、警告装置の動作を制御する制御信号であってもよい。これにより、予測された対象物の軌跡に基づいて警告装置の動作を制御するという作用をもたらす。 In the first aspect, the control signal may be a control signal for controlling the operation of the warning device. This brings about the effect | action of controlling operation | movement of a warning device based on the locus | trajectory of the estimated target object.
また、この第1の側面において、上記軌跡生成部は、上記対象物の弾道の軌跡を予測し、上記制御信号供給部は、上記予測された軌跡を表示するための上記制御信号を供給するようにしてもよい。これにより、予測された対象物の軌跡を表示するという作用をもたらす。 In the first aspect, the trajectory generation unit predicts a trajectory of the trajectory of the object, and the control signal supply unit supplies the control signal for displaying the predicted trajectory. It may be. This brings about the effect | action that the locus | trajectory of the estimated target object is displayed.
また、この第1の側面において、上記軌跡生成部は、上記対象物の飛距離を予測し、上記制御信号供給部は、上記予測された飛距離を表示するための上記制御信号を供給するようにしてもよい。これにより、予測された飛距離を表示するという作用をもたらす。 In the first aspect, the trajectory generation unit predicts a flight distance of the object, and the control signal supply unit supplies the control signal for displaying the predicted flight distance. It may be. This brings about the effect | action of displaying the predicted flight distance.
また、この第1の側面において、上記軌跡生成部は、上記対象物の到達位置を予測し、上記制御信号供給部は、上記予測された到達位置を表示するための上記制御信号を供給するようにしてもよい。これにより、予測された到達位置を表示するという作用をもたらす。 In the first aspect, the trajectory generation unit predicts the arrival position of the object, and the control signal supply unit supplies the control signal for displaying the predicted arrival position. It may be. As a result, the predicted arrival position is displayed.
また、この第1の側面において、上記制御信号供給部は、上記予測された到達位置に応じた音声信号を出力するための上記制御信号を供給するようにしてもよい。これにより、予測された到達位置に応じた音声信号を出力するという作用をもたらす。 In the first aspect, the control signal supply unit may supply the control signal for outputting an audio signal corresponding to the predicted arrival position. This brings about the effect | action that the audio | voice signal according to the estimated arrival position is output.
また、この第1の側面において、上記撮像素子に上記対象物を含む画像を供給する光学素子をさらに具備し、上記制御信号は、上記光学素子の動作を制御する制御信号であってもよい。これにより、予測された対象物の軌跡に基づいて光学素子の動作を制御するという作用をもたらす。 Further, in the first aspect, an optical element that supplies an image including the object to the imaging element may be further provided, and the control signal may be a control signal that controls an operation of the optical element. This brings about the effect | action of controlling operation | movement of an optical element based on the locus | trajectory of the estimated target object.
また、この第1の側面において、上記制御信号は、上記フレームの一部を所定の画像に置換して表示させる制御信号であってもよい。これにより、予測された対象物の軌跡に基づいて画像を置換するという作用をもたらす。 In the first aspect, the control signal may be a control signal that is displayed by replacing a part of the frame with a predetermined image. This brings about the effect | action of replacing an image based on the locus | trajectory of the estimated target object.
本技術によれば、表示のための低速画像データとは異なる高速画像データによる対象物の軌跡に基づいて装置の制御を行うことができるという優れた効果を奏し得る。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。 According to the present technology, it is possible to achieve an excellent effect that the apparatus can be controlled based on the trajectory of the object based on the high-speed image data different from the low-speed image data for display. Note that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.
以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.実施の形態(制御システムの構成例)
2.第1の適用例(緩衝部材の制御の例)
3.第2の適用例(球体シミュレーションの例)
4.第3の適用例(場内アナウンスの例)
5.第4の適用例(火山弾警報の例)
6.第5の適用例(追跡撮像の例)
7.第6の適用例(画像重畳の例)
8.第7の適用例(距離算出の例)Hereinafter, modes for carrying out the present technology (hereinafter referred to as embodiments) will be described. The description will be made in the following order.
1. Embodiment (configuration example of control system)
2. First application example (example of buffer member control)
3. Second application example (sphere simulation example)
4). Third application example (example of on-site announcement)
5. Fourth application example (example of volcanic bomb warning)
6). Fifth application example (example of tracking imaging)
7). Sixth application example (example of image superimposition)
8). Seventh application example (distance calculation example)
<1.実施の形態>
図1は、本技術の実施の形態における制御システムの一構成例を示す図である。この実施の形態における画像処理システムは、画像センサ100と、表示装置320と、制御対象装置330とを備える。<1. Embodiment>
FIG. 1 is a diagram illustrating a configuration example of a control system according to an embodiment of the present technology. The image processing system in this embodiment includes an
画像センサ100は、対象物を含む被写体を撮像して、対象物の軌跡を予測し、その対象物の軌跡に基づいて制御対象装置330を制御するものである。操作入力装置310は、外部からの操作入力を受け付けるものである。表示装置320は、画像センサ100によって得られた情報を表示するものである。制御対象装置330は、画像センサ100によって制御される装置である。
The
画像センサ100は、撮像部110と、フィルタ処理部120と、二値化処理部130と、トラッキング処理部140と、モーメント生成部150と、重心位置生成部160と、集計処理部210と、制御部220と、インターフェース230とを備える。
The
撮像部110は、対象物を含む被写体を撮像する撮像素子である。この撮像部110は、所定のフレームレートにより、時系列に並ぶ画像データのフレームを生成する。ここで、フレームレートとしては、1秒当たり1000フレーム(1000fps)以上の高フレームレートを想定する。この撮像部110によって撮像された画像データのフレームは、その全てが画像センサ100の外部に供給される必要はない。高フレームレートの画像データは以下に説明する制御を目的としたものであり、表示のためにはこれよりも低いフレームレートで十分である。すなわち、高フレームレートの画像データを画像センサ100内の参照に留めることにより、画像センサ100のバンド幅を有効に活用することが可能となる。なお、撮像部110は、特許請求の範囲に記載の撮像素子の一例である。また、対象物は、人物や動物などの生物のみならず、非生物を広く含むオブジェクトである。
The
フィルタ処理部120は、撮像部110によって撮像された画像データのフレームの各々に対してフィルタ処理を施すものである。このフィルタ処理部120におけるフィルタ処理としては、例えば、移動平均フィルタやメディアンフィルタなどによるノイズ除去処理、Sobelフィルタなどによる輪郭検出処理、ラプラシアンフィルタなどによるエッジ検出などが想定される。また、このフィルタ処理部120によって画像のオイラー数を求めることにより、画像に含まれる対象物の個数を算出することも可能である。オイラー数とは、成分数から孔の数を引いた数である。
The
二値化処理部130は、フィルタ処理部120によってフィルタ処理の施されたフレームの各々に対して二値化処理を行うものである。この二値化処理部130は、各フレームの画像データに含まれる輝度や色のヒストグラム情報に基づいてその画像データを二値化して、二値化データからなる二値化フレームを生成する。
The
トラッキング処理部140は、二値化処理部130によって生成された二値化フレームについて、時系列に隣接するフレーム間の差分を生成することにより、二値化フレームに含まれる対象物を検出して、その対象物の位置の変化を追跡するものである。対象物の検出の際には、画像における特定の領域を測定対象として指定することが可能である。
The
モーメント生成部150は、トラッキング処理部140による結果に基づいて、二値化フレームにおける2変数関数のモーメントを算出するものである。0次モーメントは、その二値化フレームに含まれる対象物の面積の変化量を表し、画像の回転や拡大縮小に対して不変な値である。
The
重心位置生成部160は、モーメント生成部150によって生成されたモーメントに基づいて、二値化フレームに含まれる対象物の重心位置を生成するものである。水平方向および垂直方向の各1次モーメントをそれぞれ0次モーメントで除算した値が、重心位置を表す。
The center-of-gravity
集計処理部210は、画像センサ100によって得られた各種データに基づいて集計処理を行って、対象物の軌跡を生成するものである。この集計処理部210は、以下の適用例に示すように、動作するアプリケーションに応じて必要な処理を行う。制御部220は、画像センサ100の各部に対する動作制御を行うものである。インターフェース230は、外部とのインターフェースを司るものである。この例では、インターフェース230は制御対象装置330と接続して、制御対象装置330に制御信号を供給する。また、インターフェース230は表示装置320と接続して、画像センサ100によって得られた情報を表示装置320に表示させる。なお、集計処理部210は、特許請求の範囲に記載の軌跡生成部の一例である。
The
なお、この図においては、重心位置生成部160からの出力が集計処理部210および制御部220に供給される経路を明示しているが、画像センサ100の各部から集計処理部210に対して各種データを供給する経路が必要に応じて設けられてもよい。
In this figure, the output from the center-of-gravity
このように構成することにより、対象物の軌跡を予測して、その予測された軌跡に基づいて制御対象装置を制御することができる。また、後段において画像を処理する必要がなく、演算結果のみを利用してリアルタイムに制御を行うことができる。 By comprising in this way, the locus | trajectory of a target object can be estimated and a control object apparatus can be controlled based on the estimated locus | trajectory. Further, it is not necessary to process the image in the subsequent stage, and control can be performed in real time using only the calculation result.
<2.第1の適用例>
図2は、本技術の実施の形態の第1の適用例における緩衝部材の制御の例を示す図である。本実施の形態における制御システムを用いて緩衝部材の制御を行うためには、保護対象の周囲に画像センサ100を設けて撮像を行い、対象物の軌跡を予測して、その予測された軌跡に基づいて緩衝部材を制御する。これにより、保護対象に迫る危険に対して、緩衝部材によって保護対象を保護することができる。<2. First application example>
FIG. 2 is a diagram illustrating an example of control of the buffer member in the first application example of the embodiment of the present technology. In order to control the buffer member using the control system according to the present embodiment, the
図2におけるaでは、保護対象511は例えば建造物であり、その周囲の柵に緩衝部材512が設けられている。柵には画像センサ100の一例としての画像センサ513が設けられている。この保護対象511にオートバイや自動車などの移動物体514が近付いてきた場合、画像センサ513はこの移動物体514を衝突予測対象として検出して、移動物体514が保護対象511に衝突するか否かの識別を行う。
In a in FIG. 2, the
移動物体514の移動速度および移動方向から衝突の危険があると判断した場合には、位置P1において移動物体514に対してブレーキをかけるよう警告を行う。例えば、柵に警告ランプを設けて、その警告ランプを点灯させるなどの方法により警告を行う。また、移動速度が減速せず、物理的に衝突を回避できないと判断した場合には、移動物体514が位置P2に到達したタイミングで緩衝部材512を膨らませて防御状態にするよう制御する。
If it is determined that there is a risk of collision based on the moving speed and moving direction of the moving object 514, a warning is given to brake the moving object 514 at the position P1. For example, a warning lamp is provided on the fence and the warning is performed by lighting the warning lamp. Further, when it is determined that the moving speed does not decelerate and the collision cannot be physically avoided, control is performed to inflate the
図2におけるbでは、保護対象515は人間である。この例では、人間が背面に緩衝部材516および画像センサ517を背負うことを想定している。このとき、移動物体518が保護対象515の背面から迫ってきた場合に、画像センサ517が衝突を予測すると、緩衝部材516を膨らませて防御状態にするよう制御する。
In FIG. 2b, the
これに対し、通常の自動車のエアバッグは、実際に衝突により衝撃を受けた際に作動するようになっており、事前保護を行うことができない。また、その急激な膨らみそのものによる怪我の可能性もある。この例の緩衝部材によれば、そのような不都合は避けることができる。また、この例の緩衝部材は、加速度センサではなく、画像センサによるものであるため、移動しない保護対象の方に設置することができる。 On the other hand, a normal automobile airbag is activated when it is actually subjected to an impact due to a collision, and cannot be protected in advance. There is also the possibility of injury from the sudden bulge itself. According to the buffer member of this example, such inconvenience can be avoided. Moreover, since the buffer member of this example is not an acceleration sensor but an image sensor, it can be installed on a protected object that does not move.
図3は、本技術の実施の形態の第1の適用例における緩衝部材の制御の他の例を示す図である。この例では、保護対象は人間であり、衝突予測対象は地面である。 FIG. 3 is a diagram illustrating another example of the control of the buffer member in the first application example of the embodiment of the present technology. In this example, the protection target is a human and the collision prediction target is the ground.
図3におけるaでは、人間が緩衝部材521を正面に抱えるとともに、前方を撮像する画像センサ522を頭部に装着することを想定している。このとき、保護対象である人間が前方に倒れた場合に、画像センサ522が地面への衝突を予測すると、緩衝部材521を膨らませて防御状態にするよう制御する。
In FIG. 3 a, it is assumed that a human holds the
図3におけるbでは、人間が緩衝部材523を背面に背負うとともに、後方を撮像する画像センサ524を頭部に装着することを想定している。このとき、保護対象である人間が後方に倒れた場合に、画像センサ524が地面への衝突を予測すると、緩衝部材523を膨らませて防御状態にするよう制御する。
In FIG. 3 b, it is assumed that a person carries the shock-absorbing
図3におけるcでは、人間が高所作業を行っている場所において、地面に緩衝部材を敷き詰めるとともに、その人間を撮像する画像センサ526を配置することを想定している。このとき、保護対象である人間が落下した場合に、画像センサ526が地面への衝突を予測すると、その予測された落下位置の緩衝部材525を膨らませて防御状態にするよう制御する。
In FIG. 3 c, it is assumed that a buffer member is spread on the ground and an
このように、この例において、画像センサは保護対象自身に装着してもよく、また、保護対象の動きを観察できる位置に配置してもよい。同様に、緩衝部材は保護対象自身に装着してもよく、また、保護対象の衝突が予測される位置に配置されてもよい。 Thus, in this example, the image sensor may be attached to the protection target itself, or may be disposed at a position where the movement of the protection target can be observed. Similarly, the buffer member may be attached to the protection target itself, or may be disposed at a position where a collision of the protection target is predicted.
図4は、本技術の実施の形態の第1の適用例における緩衝部材の制御の処理手順例を示す流れ図である。 FIG. 4 is a flowchart illustrating an example of a processing procedure for controlling the buffer member in the first application example of the embodiment of the present technology.
まず、危険を予測するための画像データが取得される(ステップS811)。この画像データは、保護対象の側から衝突予測対象を観察したものでもよく、また、保護対象と衝突予測対象の両者を観察したものでもよい。いずれかの画像が撮像部110によって撮像されて、画像データが取得される。取得された画像データは、時系列のフレームを構成する。上述のように、フレームレートとしては、1000fps以上の高フレームレートを想定しており、これにより、保護対象と衝突予測対象との間の衝突を正確に予測することができる。
First, image data for predicting danger is acquired (step S811). This image data may be the observation of the collision prediction target from the protection target side, or may be the observation of both the protection target and the collision prediction target. One of the images is picked up by the
取得された各フレームは、フィルタ処理部120によって、ノイズが除去(ノイズリダクション)される(ステップS812)。 Noise is removed (noise reduction) from the acquired frames by the filter processing unit 120 (step S812).
その後、操作入力装置310からの指示に従って処理が選択される(ステップS813)。単数ターゲットが指示された場合には(ステップS813:No)、二値化処理部130によってフレームにおける画像のヒストグラムによる二値化が行われて、ターゲットが検出される(ステップS815)。そして、時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成されて、検出されたターゲットの追跡(ターゲットトラッキング)が行われる(ステップS816)。また、そのターゲットについて、モーメント生成部150によってモーメント演算が行われる(ステップS817)。
Thereafter, a process is selected in accordance with an instruction from the operation input device 310 (step S813). When a single target is instructed (step S813: No), the
演算されたモーメントに基づいて、ターゲットの移動量が重心位置生成部160によって算出される(ステップS818)。また、演算されたモーメントに基づいて、集計処理部210においてターゲットの移動方向が算出される(ステップS818)。算出されたターゲットの移動量および移動方向は、インターフェース230を介して表示装置320に表示される(ステップS819)。
Based on the calculated moment, the moving amount of the target is calculated by the gravity center position generation unit 160 (step S818). Further, based on the calculated moment, the
複数ターゲットが指示された場合には(ステップS813:Yes)、複数の視差による距離演算がおこなわれる(ステップS814)。このとき、各ターゲットの座標位置が取得され、ステップS815におけるターゲット検出が行われる。 When a plurality of targets are instructed (step S813: Yes), a distance calculation using a plurality of parallaxes is performed (step S814). At this time, the coordinate position of each target is acquired, and target detection in step S815 is performed.
算出されたターゲットの移動量および移動方向に基づいて、保護対象と衝突予測対象との間の距離の軌跡を予測し、両者の間に衝突が発生するか否かを判断する演算が行われる(ステップS821)。演算の結果、所定の期待値を超える場合には、インターフェース230を介して表示装置320に衝突判定の旨が表示され、緩衝部材を膨らませて防御状態にするよう制御される(ステップS825)。また、期待値を超えないものの、期待値に近似する場合には、インターフェース230を介して表示装置320に事前警告判定の旨が表示され、例えば警告音等を発生するよう制御される(ステップS824)。また、期待値に近似せず、期待値を超えない場合には、そのような警告は行われない(ステップS823)。
Based on the calculated amount and direction of movement of the target, a trajectory of the distance between the protection target and the collision prediction target is predicted, and an operation is performed to determine whether or not a collision occurs between them ( Step S821). As a result of the calculation, when a predetermined expected value is exceeded, the fact of collision determination is displayed on the
これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。 These processes are repeated for each frame of image data arranged in time series.
このように、この第1の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、ターゲットの移動量および移動方向に基づいて保護対象と衝突予測対象との間の距離の軌跡を予測することにより、緩衝部材の制御を行うことができる。また、同様の判断により、警告表示の制御も行うことができる。 Thus, in the first application example, assuming a high frame rate of 1000 fps or more as the frame rate, the trajectory of the distance between the protection target and the collision prediction target is calculated based on the movement amount and movement direction of the target. By predicting, the buffer member can be controlled. Further, warning display can be controlled by the same determination.
<3.第2の適用例>
図5は、本技術の実施の形態の第2の適用例における球体シミュレーションの例を示す図である。本実施の形態における制御システムを用いて球体シミュレーションを行うためには、観測対象である球体の画像を画像センサ100により撮像し、球体の移動量および移動方向などを算出する。これにより、球体の軌跡を予測することができる。<3. Second application example>
FIG. 5 is a diagram illustrating an example of a sphere simulation in the second application example of the embodiment of the present technology. In order to perform a sphere simulation using the control system in the present embodiment, an image of a sphere to be observed is captured by the
例えば、シミュレーションゴルフの場合、プレーヤ531がボール532を打つ様子を携帯端末533によって撮像する。この携帯端末533には画像センサ100が含まれており、その撮像部110によって撮像が行われる。撮像された画像に基づいてターゲットトラッキングやモーメント演算が行われ、ボール532の移動量および移動方向などが算出される。これにより、球体の軌跡が予測され、ボール532の飛距離が予測される。このようにして予測された飛距離は、携帯端末533の表示部に推定飛距離534として表示される。
For example, in the case of simulation golf, the
この例では、推定飛距離を表示する例について説明したが、例えば、ボール532の速度や回転方向などを表示するようにしてもよい。ボール532の回転を計測するためには、ボール532にマーカを付して、このマーカを追跡することにより、回転の状態を観察することができる。
In this example, the example in which the estimated flight distance is displayed has been described. However, for example, the speed and rotation direction of the
図6は、本技術の実施の形態の第2の適用例における球体の軌跡の例を示す図である。 FIG. 6 is a diagram illustrating an example of a trajectory of a sphere in the second application example of the embodiment of the present technology.
例えば、時速150kmで球体が投球された場合、従来のカメラのように30fpsで球体を観察すると、隣接するフレーム間では球体の間隔が約140cm空いてしまい、球体の軌跡を予測することは困難である。これに対し、この実施の形態では1000fps以上の高フレームレートを想定することにより、隣接するフレーム間の球体の間隔は約4.2cmとなり、球体の軌跡を緻密に予測することができる。 For example, when a sphere is thrown at a speed of 150 km / h, when the sphere is observed at 30 fps as in a conventional camera, the distance between the spheres is about 140 cm between adjacent frames, and it is difficult to predict the trajectory of the sphere. is there. On the other hand, in this embodiment, assuming a high frame rate of 1000 fps or more, the distance between the spheres between adjacent frames is about 4.2 cm, and the trajectory of the sphere can be accurately predicted.
すなわち、投球の初期段階で高精度な移動速度を割り出して、初期動作による球体の軌跡を予測することができる。また、軌跡の途中において、垂直方向の移動量の有無を判断することにより、頂点に達しているか否かを認識して、その後に下降することを予測することができる。 That is, it is possible to predict the trajectory of the sphere by the initial operation by calculating a highly accurate moving speed at the initial stage of pitching. Further, by determining whether or not there is a vertical movement amount in the middle of the trajectory, it is possible to recognize whether or not the vertex has been reached and predict that it will subsequently descend.
この球体シミュレーションの例は、上述のシミュレーションゴルフの他に、例えば野球のバッティングの測定、テニスのサーブの測定、サッカーのフリーキックの測定に用いることができる。本実施の形態の高フレームレートを想定することにより、フォームの確認だけでなく、打球の速度、推定飛距離、回転方向などをプレーヤの横側から同時に観測することができる。 This example of the sphere simulation can be used for, for example, baseball batting measurement, tennis serve measurement, and soccer free kick measurement in addition to the above-described simulation golf. By assuming the high frame rate of the present embodiment, not only the confirmation of the form but also the speed of the hit ball, the estimated flight distance, the rotation direction, etc. can be observed simultaneously from the side of the player.
図7は、本技術の実施の形態の第2の適用例における球体シミュレーションの処理手順例を示す流れ図である。 FIG. 7 is a flowchart illustrating a processing procedure example of the sphere simulation in the second application example of the embodiment of the present technology.
まず、撮像部110によって測定対象である球体を撮像することによって画像データが取得される(ステップS831)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、ノイズが除去される(ステップS832)。 First, image data is acquired by imaging a sphere that is a measurement target by the imaging unit 110 (step S831). The acquired image data constitutes a time-series frame. Noise is removed from each acquired frame by the filter processing unit 120 (step S832).
そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われる(ステップS833)。ここでは、球体にマーカを付したことを想定して、そのマーカを検出する。なお、マーカを付していない場合には、球体全体を検出する。
Then, the
検出されたマーカに対して領域が設定されて(ステップS834)、その領域において時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成される。これにより、設定された領域においてマーカの追跡(ターゲットトラッキング)が行われる(ステップS835)。また、そのマーカについて、モーメント生成部150によってモーメント演算が行われる(ステップS836)。
An area is set for the detected marker (step S834), and a difference between frames adjacent in time series in the area is generated by the
演算されたモーメントに基づいて、マーカの移動量が重心位置生成部160によって算出される(ステップS837)。また、演算されたモーメントに基づいて、集計処理部210においてマーカの移動方向が算出される(ステップS837)。算出されたマーカの移動量および移動方向は、インターフェース230を介して表示装置320に表示される(ステップS838)。
Based on the calculated moment, the movement amount of the marker is calculated by the centroid position generation unit 160 (step S837). Based on the calculated moment, the
また、操作入力装置310からの指示に従って処理が選択され(ステップS839)、回転率を算出する場合には、集計処理部210においてマーカの回転率が算出される(ステップS841)。算出されたマーカの回転率は、インターフェース230を介して表示装置320に表示される(ステップS842)。
In addition, a process is selected in accordance with an instruction from the operation input device 310 (step S839), and when the rotation rate is calculated, the rotation rate of the marker is calculated in the aggregation processing unit 210 (step S841). The calculated rotation rate of the marker is displayed on the
そして、算出されたマーカの移動量および移動方向(回転率が算出された場合には、さらに回転率)に基づいて、マーカの軌跡および推定飛距離の予測演算が行われる(ステップS843)。 Based on the calculated movement amount and direction of the marker (or the rotation rate when the rotation rate is calculated), the marker trajectory and the estimated flight distance are predicted (step S843).
これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。 These processes are repeated for each frame of image data arranged in time series.
このように、この第2の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、球体の移動量および移動方向などに基づいて球体の軌跡を予測することにより、球体の推定飛距離を予測することができる。 As described above, in this second application example, assuming a high frame rate of 1000 fps or more as the frame rate, the sphere trajectory is predicted based on the movement amount and the movement direction of the sphere, thereby estimating the sphere. Distance can be predicted.
<4.第3の適用例>
図8は、本技術の実施の形態の第3の適用例における場内アナウンスの例を示す図である。本実施の形態における制御システムを用いて場内アナウンスを行うためには、会場(球場)の各所に画像センサ100を含むカメラ541を設置するとともに、カメラ541の近辺にスピーカ542を設置する。カメラ541によってボールの行方を追って、ホームランやファールボールとなったボールが客席に侵入することが予測された場合、その落下地点付近のスピーカ542から注意を喚起するアナウンスを出力するよう制御を行う。<4. Third application example>
FIG. 8 is a diagram illustrating an example of an in-field announcement in the third application example of the embodiment of the present technology. In order to make an announcement in the field using the control system in the present embodiment, a
図9は、本技術の実施の形態の第3の適用例におけるボールの客席への侵入を予測する態様を示す図である。球場においてはグラウンドと客席の間にはフェンス543が設けられる。このフェンス543よりも低い位置であれば、ボールはフェンス543に当ってグラウンドに落下する。しかし、このフェンス543をボールが超えた場合、客席内に落下して、観客に当って怪我を負わせてしまうおそれがある。
FIG. 9 is a diagram illustrating a mode in which the intrusion of the ball into the passenger seat is predicted in the third application example of the embodiment of the present technology. In the stadium, a
本実施の形態では、カメラ541によって高フレームレートでボールの行方を追って、ボールの軌跡を予測して、フェンス543を超えそうなボールを、フェンス543を超える前に素早く捉える。これにより、観客に対して注意喚起のアナウンスを流して、不慮の怪我を回避することができる。アナウンスを流すスピーカ542は落下地点付近に限定することができるため、範囲を絞って適格な注意喚起を行うことができる。また、これにより、フェンス543を不必要に高くすることを避け、球場における臨場感の低下を抑制することができる。
In the present embodiment, the
図10は、本技術の実施の形態の第3の適用例におけるシステム構成例を示す図である。この例では、フェンス543の上部の各所に画像センサ100を含むカメラ541を設置して、画像センサ100によって得られた情報を制御装置545に供給する。そして、客席へのボール侵入が予測される場合には、制御装置545からスピーカ542に、注意喚起のアナウンスを出力するよう制御信号が供給される。
FIG. 10 is a diagram illustrating a system configuration example in the third application example of the embodiment of the present technology. In this example,
なお、カメラ541には、ボールが当たった際の衝撃を緩めるために保護カバー544を設けることが望ましい。
The
図11は、本技術の実施の形態の第3の適用例における場内アナウンスの処理手順例を示す流れ図である。 FIG. 11 is a flowchart illustrating an example of a processing procedure of in-place announcement in the third application example of the embodiment of the present technology.
まず、撮像部110によって測定対象であるボールを撮像することによって画像データが取得される(ステップS851)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、ノイズが除去される(ステップS852)。 First, image data is acquired by imaging the ball which is the measurement object by the imaging unit 110 (step S851). The acquired image data constitutes a time-series frame. Noise is removed from each acquired frame by the filter processing unit 120 (step S852).
そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われて、ターゲットとなるボールが検出される(ステップS853)。
Then, the
検出されたボールに対して、時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成されて、ボールの追跡(ターゲットトラッキング)が行われる(ステップS854)。また、そのボールについて、モーメント生成部150によってモーメント演算が行われる(ステップS855)。その結果、動きが検出された場合には以下のステップS857以降の処理が行われ、動きが検出されない場合にはステップS851以降の処理を繰り返す。
For the detected ball, a difference between adjacent frames in time series is generated by the
演算されたモーメントに基づいて、集計処理部210においてカメラ541とボールの距離が演算される(ステップS857)。また、集計処理部210において、ボールの移動方向および軌跡が判定される(ステップS858)。さらに、ボールの位置に応じて、集計処理部210においてファールボールかホームランかの区別が判定される(ステップS859)。これらの情報に基づいて、制御部220からインターフェース230を介して、スピーカ542に注意喚起のアナウンスを出力するよう制御信号が供給され、自動アナウンスが再生される(ステップS861)。
Based on the calculated moment, the
これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。 These processes are repeated for each frame of image data arranged in time series.
このように、この第3の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、ボールの軌跡を予測することにより、ボールの落下地点を推定して、状況に応じた場内アナウンスを行うことができる。 As described above, in the third application example, by assuming a high frame rate of 1000 fps or more as a frame rate, the ball trajectory is predicted to estimate the ball falling point, and an in-field announcement corresponding to the situation It can be performed.
<5.第4の適用例>
図12は、本技術の実施の形態の第4の適用例における火山弾警報の例を示す図である。本実施の形態における制御システムを用いて火山弾警報を行うためには、同図のように、観測対象となる火山の噴火口を画像センサ100により撮像する。そして、火山弾が発生した場合に、その火山弾の行方を追って、火山弾の軌跡を予測して、落下地点を推定する。この推定された落下地点を危険エリアとして、避難勧告などの警告を行う。<5. Fourth application example>
FIG. 12 is a diagram illustrating an example of a volcanic bomb warning in the fourth application example of the embodiment of the present technology. In order to perform a volcanic bomb warning using the control system in the present embodiment, the volcanic crater to be observed is imaged by the
通常の望遠カメラでは、観測画像から噴煙を認識することは可能であるが、火山弾の到達範囲を予測することは困難である。本実施の形態の例では、高フレームレートで火山弾を捉えて、火山弾のサイズおよび移動速度を計測し、その到達範囲を推測することができる。 With a normal telephoto camera, it is possible to recognize volcanic smoke from observation images, but it is difficult to predict the reach of volcanic bombs. In the example of the present embodiment, a volcanic bomb can be captured at a high frame rate, the size and moving speed of the volcanic bomb can be measured, and its reach can be estimated.
図13は、本技術の実施の形態の第4の適用例における火山弾警報の処理手順例を示す流れ図である。なお、画像センサ100の設置時には、適切な撮像が行われるようキャリブレーションが行われる。
FIG. 13 is a flowchart illustrating an example of a volcanic bomb warning processing procedure in the fourth application example of the embodiment of the present technology. When the
撮像部110によって観測対象である火山の噴火口を撮像することによって画像データが取得される(ステップS871)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、コントラスト等の補正が行われる(ステップS872)。これにより、天候や時刻による影響を緩和することができる。 Image data is acquired by imaging the volcano crater to be observed by the imaging unit 110 (step S871). The acquired image data constitutes a time-series frame. Each acquired frame is subjected to correction such as contrast by the filter processing unit 120 (step S872). Thereby, the influence by weather and time can be relieved.
そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われ、時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成されて、動体が抽出される(ステップS873)。抽出された動体については、モーメント生成部150によってモーメント演算が行われ、その面積や移動量のベクトルが計測される(ステップS874)。
Then, the
計測された動体の面積や移動量のベクトルから、火山弾が発生したか否かが判断される(ステップS875)。火山弾が発生したと判断された場合には(ステップS875:Yes)、ステップS876以降の処理が行われる。火山弾が発生していないと判断された場合には(ステップS875:No)、ステップS871以降の処理が繰り返される。 It is determined whether or not a volcanic bomb has been generated from the measured area of the moving object and the vector of the movement amount (step S875). If it is determined that a volcanic bomb has been generated (step S875: Yes), the processing after step S876 is performed. When it is determined that no volcanic bomb has been generated (step S875: No), the processing after step S871 is repeated.
計測された動体の面積に基づいて、集計処理部210において火山弾の質量が推定される(ステップS876)。また、計測された動体の面積や移動量のベクトルに基づいて、火山弾の到達範囲が推定される(ステップS877)。そして、この推定された到達範囲に関して、警戒情報を生成して(ステップS878)、関係機関にその警戒情報を発報する(ステップS879)。 Based on the measured area of the moving object, the mass of the volcanic bomb is estimated in the totalization processing unit 210 (step S876). Further, the reach of the volcanic bomb is estimated based on the measured area of the moving object and the vector of the movement amount (step S877). And alert information is produced | generated about this estimated reach (step S878), and the alert information is alert | reported to a related organization (step S879).
これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。 These processes are repeated for each frame of image data arranged in time series.
このように、この第4の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、火山弾の軌跡を予測することにより、火山弾の落下地点を推定して、到達範囲に関する警戒情報を生成することができる。 As described above, in the fourth application example, by assuming a high frame rate of 1000 fps or more as a frame rate, by predicting the trajectory of the volcanic bomb, the fall point of the volcanic bomb is estimated, and the warning regarding the reach is given. Information can be generated.
<6.第5の適用例>
図14は、本技術の実施の形態の第5の適用例における追跡撮像の例を示す図である。本実施の形態における制御システムを用いて追跡撮像を行うために、画像センサ100を含むカメラ550のレンズ部分にレンズ駆動アクチュエータ552を設ける。また、このレンズ駆動アクチュエータ552を制御するための自動追跡ボタン551を設ける。自動追跡ボタン551が押下されている間は、ターゲットとして検出された対象物を画面内に固定して捉えるようにレンズ駆動アクチュエータ552が制御される。カメラ550は、撮影者によって把持されるため、手振れ等が生じてターゲットの位置が一定にならないことが多いが、この実施の形態によればそのようなターゲットを固定した位置に捉えて撮像することができる。<6. Fifth application example>
FIG. 14 is a diagram illustrating an example of tracking imaging in the fifth application example of the embodiment of the present technology. In order to perform tracking imaging using the control system in this embodiment, a
図15は、本技術の実施の形態の第5の適用例における追跡撮像の態様を示す図である。ここでは、一例として、サッカーの試合中にボールをターゲットとして捉える場合の例を示す。 FIG. 15 is a diagram illustrating an aspect of tracking imaging in the fifth application example of the embodiment of the present technology. Here, as an example, an example in which a ball is captured as a target during a soccer game is shown.
通常の撮像モードからスポーツモードに変更すると、ボールの周辺には検出枠553が表示される。これは、画像センサ100によってボールを認識できていることを示している。検出枠553が表示されている状態において、自動追跡ボタン551が押下されると、トラッキング処理部140によってボールの動きが追跡され、モーメント生成部150によってモーメント演算が行われる。そして、演算されたモーメントに基づいて、ボールの移動量が重心位置生成部160によって算出される。また、演算されたモーメントに基づいて、集計処理部210においてボールの移動方向554が算出される。集計処理部210は、算出されたボールの移動量および移動方向からボールの軌跡を予測する。
When the normal imaging mode is changed to the sports mode, a
制御部220は、予測されたボールの軌跡に合わせて、レンズ駆動アクチュエータ552に制御情報を供給する。この制御情報によりレンズ駆動アクチュエータ552が駆動されてレンズが動く。このとき、カメラが移動すると、カメラの重心位置がずれるため、制御部220からレンズ駆動アクチュエータ552にさらに制御情報がフィードバックされる。これにより、レンズ駆動アクチュエータ552の駆動によってレンズが動いて、ボールの位置が画面内の固定した位置になるように撮像が行われる。なお、レンズは、特許請求の範囲に記載の光学素子の一例である。
The
なお、この例では、自動追跡ボタン551が押下された際のボールの表示位置を維持することを想定したが、自動追跡ボタン551が押下された際にボールの表示位置を中央に移動し、その後、その中央位置に維持するようにしてもよい。また、ボールの軌跡は急峻に変化しないように、フィルタ処理部120においてローパスフィルタをかけるようにしてもよい。また、ボールの追跡が瞬間的に外れた場合には、数フレーム程度については軌道予測を行ってもよい。
In this example, it is assumed that the display position of the ball when the
図16は、本技術の実施の形態の第5の適用例における追跡撮像の他の態様を示す図である。ここでは、撮像モードとして、ズームモードを想定する。このズームモードにおいては、ボールの検出とともに、顔の検出も行うものとする。同図では、画面555において、ボールの周辺には検出枠558が表示され、顔の周辺には検出枠559が表示されたものとしている。
FIG. 16 is a diagram illustrating another aspect of the tracking imaging in the fifth application example of the embodiment of the present technology. Here, the zoom mode is assumed as the imaging mode. In this zoom mode, the detection of the face is performed together with the detection of the ball. In the figure, on the
ズームイン枠557に検出枠558および559が入ると、拡大(ズームイン)動作が行われる。一方、ズームアウト枠556から検出枠558または559の少なくとも一方が外れると、縮小(ズームアウト)動作が行われる。これにより、検出枠558および559両方が必ず画面555内に入るように、ズームインまたはズームアウト動作が行われる。
When the detection frames 558 and 559 enter the zoom-in
図17は、本技術の実施の形態の第5の適用例における追跡撮像の処理手順例を示す流れ図である。同図において、左側の流れ図はカメラ550本体の処理手順を表し、右側の流れ図は画像センサ100の処理手順を表す。
FIG. 17 is a flowchart illustrating an example of a tracking imaging process procedure according to the fifth application example of the embodiment of the present technology. In the drawing, the flowchart on the left represents the processing procedure of the
カメラ550において撮像が開始すると、画像センサ100が起動される。画像センサ100の電源がオフになっている場合には(ステップS731:Yes)、画像センサ100の動作は行われない。画像センサ100の電源がオンになっている場合には(ステップS731:No)、カメラ550においてターゲットが指定されるまで待機する(ステップS732)。
When imaging with the
カメラ550では、モニタリングモードによる撮像および表示が行われる(ステップS711)。このモニタリングモードにおいて追跡の対象となるターゲットが指定される(ステップS712)。例えば、サッカーの試合においてボールがターゲットとして指定される。ターゲットの検出が開始すると(ステップS713:Yes)、そのターゲットの座標が画像センサ100に通知される(ステップS714)。ターゲットトラッキングに失敗した場合には(ステップS715:No)、再びターゲットの検出を行う(ステップS713)。
The
ターゲットが指定されてその座標が通知されると(ステップS732:Yes)、画像センサ100はそのターゲットを検出する。検出に成功すると(ステップS733:Yes)、画像センサ100は検出レスポンスをカメラ550に返す(ステップS734)。また、検出に成功しても、その後のターゲットトラッキングに失敗した場合には(ステップS735:No)、トラッキングから外れた旨の通知をカメラ550に返して(ステップS738)、再びターゲットの検出を行う(ステップS733)。
When the target is specified and its coordinates are notified (step S732: Yes), the
カメラ550は、画像センサ100からターゲット検出の通知またはトラッキングから外れた旨の通知を受けると(ステップS716:Yes)、自動追跡ボタン551の押下を待つ。そして、自動追跡ボタン551の押下が開始すると(ステップS717:Yes)、追跡の制御を画像センサ100に指示する(ステップS718)。自動追跡ボタン551の押下が終了すると(ステップS719:Yes)、追跡を終了する制御を画像センサ100に指示する(ステップS721)。
When the
画像センサ100は、カメラ550から追跡に関する制御を受けると(ステップS736:Yes)、ボールの軌跡を予測して、この予測された軌跡に基づいてレンズ駆動アクチュエータ552を制御する(ステップS737)。その間、ターゲットトラッキングを繰り返す(ステップS735)。
Upon receiving control related to tracking from the camera 550 (step S736: Yes), the
カメラ550は、モード切替が行われるまで(ステップS722)、ターゲットトラッキングを繰り返す(ステップS715)。モード切替が行われると(ステップS722:Yes)、電源オフでなければターゲットの指定に戻る(ステップS712)。
The
このように、この第5の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、ターゲットの軌跡を予測することにより、その予測された軌跡に基づいてレンズ駆動アクチュエータ552の駆動を制御する。これにより、ボールの位置が画面内の固定した位置になるように撮像することができる。
As described above, in the fifth application example, assuming the high frame rate of 1000 fps or more as the frame rate, the target locus is predicted, and thus the
<7.第6の適用例>
図18は、本技術の実施の形態の第6の適用例における画像重畳の例を示す図である。本実施の形態における制御システムを用いて画像重畳を行うためには、元画像を画像センサ100により撮像する。そして、元画像において重畳対象となる部分を検出して、その部分に他の画像を重畳する。これにより、必要に応じて重畳された画像を供給することができる。<7. Sixth application example>
FIG. 18 is a diagram illustrating an example of image superposition in the sixth application example of the embodiment of the present technology. In order to perform image superimposition using the control system in the present embodiment, an original image is captured by the
図18におけるaでは、一例として、サッカーの試合中に選手のユニフォームに記載されている広告部分を他の広告に置換する場合の例を示す。現場の選手のユニフォームには「P商事」の企業名561が広告として記載されているものとする。これは物理的なものであるため、それ自体は変化しない。現場のカメラは、この状態の様子をそのまま撮影する。
In FIG. 18 a, as an example, an example in which an advertisement portion described in a player's uniform is replaced with another advertisement during a soccer game is shown. It is assumed that the
撮影された画像は、放送局の設備を通じて各地に放送される。その際、撮影された画像の広告部分に対して、広告契約に応じた企業名やブランド名が重畳される。例えば、図18におけるbのように、「P商事」の上に「Q産業」の企業名が重畳され、その重畳された画像が放送される。これにより、テレビに表示される選手のユニフォームには、「Q産業」の企業名562が広告として記載されているように映る。
The captured images are broadcast to various places through the facilities of the broadcasting station. At that time, the company name or brand name corresponding to the advertising contract is superimposed on the advertisement part of the photographed image. For example, as shown in FIG. 18b, the company name “Q industry” is superimposed on “P trading”, and the superimposed image is broadcast. Thereby, the
図19は、本技術の実施の形態の第6の適用例における画像重畳のタイミング例を示す図である。ここでは、放送用カメラのフレームレートとして30fpsを想定する。一方、本実施の形態の画像センサ100を備える高速カメラのフレームレートとして1000fpsを想定する。
FIG. 19 is a diagram illustrating an example of image superimposition timing in the sixth application example of the embodiment of the present technology. Here, 30 fps is assumed as the frame rate of the broadcasting camera. On the other hand, a frame rate of a high-speed camera including the
この場合、高速カメラによって撮像された画像において重畳対象である広告部分をトラッキング対象物としてターゲットトラッキングを行う。これにより、広告部分の座標位置および形状が認識される。そして、新たな広告のテクスチャを生成して、その生成されたテクスチャを放送用カメラのフレームの広告部分に張り付ける。高速カメラのフレームレートは放送用カメラのフレームレートよりも十分に速いため、高速カメラのフレームについてこれらの処理を行った後に、放送用カメラのフレームに対して重畳を行うことができる。 In this case, target tracking is performed by using the advertisement portion to be superimposed in the image captured by the high-speed camera as the tracking target. Thereby, the coordinate position and shape of an advertisement part are recognized. Then, a new advertisement texture is generated, and the generated texture is pasted on the advertisement part of the frame of the broadcast camera. Since the frame rate of the high-speed camera is sufficiently faster than the frame rate of the broadcast camera, after performing these processes on the frame of the high-speed camera, the frame can be superimposed on the frame of the broadcast camera.
図20は、本技術の実施の形態の第6の適用例における画像重畳の処理手順例を示す流れ図である。 FIG. 20 is a flowchart illustrating an example of an image superimposition processing procedure in the sixth application example of the embodiment of the present technology.
まず、画像センサ100により画像データが取得される(ステップS881)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、ノイズが除去される(ステップS882)。 First, image data is acquired by the image sensor 100 (step S881). The acquired image data constitutes a time-series frame. Noise is removed from each acquired frame by the filter processing unit 120 (step S882).
そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われて、重畳対象であるマーカが検出される(ステップS883)。検出されたマーカに対して領域が設定されて(ステップS884)、その領域において時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成される。これにより、設定された領域においてマーカの追跡(ターゲットトラッキング)が行われる(ステップS885)。また、そのマーカについて、モーメント生成部150によってモーメント演算が行われる(ステップS886)。
Then, the
また、操作入力装置310からの指示に従って処理が選択される(ステップS887)。重畳映像を出力する場合には、集計処理部210において重畳処理が行った後に(ステップS888)、インターフェース230を介してその重畳映像を出力する(ステップS889)。一方、オリジナル映像を出力する場合には、重畳処理を行うことなくインターフェース230を介してオリジナル映像を出力する(ステップS889)。
Further, processing is selected in accordance with an instruction from the operation input device 310 (step S887). In the case of outputting the superimposed video, after the superimposition processing is performed in the aggregation processing unit 210 (step S888), the superimposed video is output through the interface 230 (step S889). On the other hand, when outputting the original video, the original video is output via the
これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。 These processes are repeated for each frame of image data arranged in time series.
このように、この第6の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、重畳対象の軌跡を予測することにより、その重畳対象の位置の画像を重畳して置換することができる。 As described above, in the sixth application example, assuming a high frame rate of 1000 fps or more as the frame rate, the locus of the superimposition target is predicted to superimpose and replace the image at the superimposition target position. Can do.
<8.第7の適用例>
図21は、本技術の実施の形態の第7の適用例における距離算出の例を示す図である。従来、モーションキャプチャ等で使われるオブジェクトトラッキングは、3次元での動きを正確に測定するために複数のカメラを用いて行われていた。そのため、システムとしては大掛かりで高価なものとなっていた。そこで、本実施の形態における制御システムを用いて距離算出を行うために、測定対象である対象物の画像を画像センサ100により撮像し、対象物の距離を算出する。<8. Seventh application example>
FIG. 21 is a diagram illustrating an example of distance calculation in the seventh application example of the embodiment of the present technology. Conventionally, object tracking used in motion capture or the like has been performed using a plurality of cameras in order to accurately measure a three-dimensional movement. Therefore, the system is large and expensive. Therefore, in order to perform distance calculation using the control system in the present embodiment, an image of the object to be measured is captured by the
この例において距離を算出するためには、予めキャリブレーションを行う必要がある。すなわち、ある決められた座標位置(0,0)に、トラッキング対象のオブジェクト571を配置し、そのときの距離および面積を基準距離および基準面積として記録する。その後、オブジェクト571についてトラッキングを行い、そのオブジェクト571の重心位置(x,y)と面積sを算出し、その面積とキャリブレーションの結果から、次式により距離zを算出する。
距離z=基準距離×(面積s/基準面積)1/2 In this example, in order to calculate the distance, it is necessary to perform calibration in advance. That is, the
Distance z = reference distance × (area s / reference area) 1/2
図22は、本技術の実施の形態の第7の適用例におけるオブジェクトトラッキングの態様を示す図である。この例では、画像センサ100により撮像されるフレームレートとして1000fps以上の高フレームレートを想定するため、フレーム単位の動き量は微少となる。これを前提に、検出範囲を局所化し、その範囲での面積と重心位置を求めることにより、簡易な仕組みでトラッキングを行うことができる。
FIG. 22 is a diagram illustrating an aspect of object tracking in the seventh application example of the embodiment of the present technology. In this example, since a high frame rate of 1000 fps or more is assumed as the frame rate captured by the
前フレームにおけるオブジェクト572の重心位置573を中心として、その近傍を検出対象枠574として設定する。このとき、検出範囲の一辺(幅および高さ)は、次式により表される。ただし、αは探索範囲係数である。
検出範囲の一辺=(前フレームの0次モーメント)1/2×αThe vicinity of the center of
One side of the detection range = (0th moment of the previous frame) 1/2 × α
トラッキング処理部140によって、検出対象枠574において、次フレームにおけるオブジェクト575が検出されると、二値化処理部130によって二値化処理が行われる。これにより、オブジェクト575の位置(x,y)にはビットマップI(x,y)として「1」が、それ以外の位置には「0」が示される。このビットマップI(x,y)に基づいて、モーメント生成部150において次式のようにモーメント演算が行われる。
0次モーメント(面積)=ΣΣI(x,y)
水平1次モーメント=ΣΣx×I(x,y)
垂直1次モーメント=ΣΣy×I(x,y)
ただし、上式におけるΣΣは、水平方向および垂直方向の総和演算を表す。When the
0th moment (area) = ΣΣI (x, y)
Horizontal first moment = ΣΣx × I (x, y)
Vertical first moment = ΣΣy × I (x, y)
However, ΣΣ in the above equation represents the summation in the horizontal and vertical directions.
このようにして生成されたモーメントに基づいて、重心位置生成部160において重心位置の座標が次式により生成される。
重心x座標=水平1次モーメント/0次モーメント
重心y座標=垂直1次モーメント/0次モーメントBased on the moment generated in this way, the center-of-gravity
Center of gravity x coordinate = horizontal first moment / zero order moment Center of gravity y coordinate = vertical first moment / zero order moment
図23は、本技術の実施の形態の第7の適用例における距離算出の態様を示す図である。上述のように、この例では、予め基準位置における距離と面積の関係をキャリブレーションしておくことにより、カメラ561により得られた面積から距離を算出することができる。
FIG. 23 is a diagram illustrating an aspect of distance calculation in the seventh application example of the embodiment of the present technology. As described above, in this example, the distance can be calculated from the area obtained by the
ここで、基準位置における面積A0を基準面積として、そのときの距離D0を基準距離とする。オブジェクトトラッキングを行った際に、面積A1が得られた場合、その距離D1は次式により算出される。
D1=D0×(A1/A0)1/2 Here, the area A0 at the reference position is set as the reference area, and the distance D0 at that time is set as the reference distance. When the area A1 is obtained when performing object tracking, the distance D1 is calculated by the following equation.
D1 = D0 × (A1 / A0) 1/2
同様に、オブジェクトトラッキングを行った際に、面積A2が得られた場合、その距離D2は次式により算出される。
D2=D0×(A2/A0)1/2 Similarly, when the area A2 is obtained when performing object tracking, the distance D2 is calculated by the following equation.
D2 = D0 × (A2 / A0) 1/2
図24は、本技術の実施の形態の第7の適用例における距離算出の処理手順例を示す流れ図である。なお、この距離算出の前提として、キャリブレーションが行われているものとする。 FIG. 24 is a flowchart illustrating an example of a processing procedure of distance calculation in the seventh application example of the embodiment of the present technology. It is assumed that calibration is performed as a precondition for the distance calculation.
まず、画像センサ100により画像データが取得される(ステップS891)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、ノイズが除去される(ステップS892)。 First, image data is acquired by the image sensor 100 (step S891). The acquired image data constitutes a time-series frame. Noise is removed from each acquired frame by the filter processing unit 120 (step S892).
そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われて、重畳対象であるマーカが検出される(ステップS893)。検出されたマーカに対して領域が設定されて(ステップS894)、その領域において時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成される。これにより、設定された領域においてマーカの追跡(ターゲットトラッキング)が行われる(ステップS895)。
Then, the
また、そのマーカについて、モーメント生成部150によってモーメント演算が行われる(ステップS896)。 演算されたモーメントに基づいて、マーカの移動量が重心位置生成部160によって算出される(ステップS897)。
Further, moment calculation is performed by the
また、操作入力装置310からの指示に従って処理が選択され(ステップS898)、距離算出を行う場合には、集計処理部210において距離が算出される(ステップS899)。算出された距離は、例えば、インターフェース230を介して表示装置320に表示される。
In addition, a process is selected in accordance with an instruction from the operation input device 310 (step S898), and when the distance is calculated, the distance is calculated in the totalization processing unit 210 (step S899). The calculated distance is displayed on the
これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。 These processes are repeated for each frame of image data arranged in time series.
このように、この第7の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、オブジェクトの軌跡を予測することにより、オブジェクトとの間の距離を算出することができる。 Thus, in the seventh application example, it is possible to calculate the distance to the object by predicting the trajectory of the object assuming a high frame rate of 1000 fps or more as the frame rate.
ここまで説明したように、本技術の実施の形態によれば、対象物を高フレームレートにより撮像して画像センサ100内で画像処理することにより、対象物の軌跡を予測して、その予測結果に基づいて制御対象装置330を制御することができる。
As described so far, according to the embodiment of the present technology, the object trajectory is predicted by imaging the object at a high frame rate and performing image processing in the
なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。 The above-described embodiment shows an example for embodying the present technology, and the matters in the embodiment and the invention-specific matters in the claims have a corresponding relationship. Similarly, the invention specific matter in the claims and the matter in the embodiment of the present technology having the same name as this have a corresponding relationship. However, the present technology is not limited to the embodiment, and can be embodied by making various modifications to the embodiment without departing from the gist thereof.
また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disc)、メモリカード、ブルーレイディスク(Blu-ray(登録商標)Disc)等を用いることができる。 Further, the processing procedure described in the above embodiment may be regarded as a method having a series of these procedures, and a program for causing a computer to execute these series of procedures or a recording medium storing the program. You may catch it. As this recording medium, for example, a CD (Compact Disc), an MD (MiniDisc), a DVD (Digital Versatile Disc), a memory card, a Blu-ray disc (Blu-ray (registered trademark) Disc), or the like can be used.
なお、本明細書に記載された効果はあくまで例示であって、限定されるものではなく、また、他の効果があってもよい。 In addition, the effect described in this specification is an illustration to the last, Comprising: It does not limit and there may exist another effect.
なお、本技術は以下のような構成もとることができる。
(1)対象物を撮像して時系列に並ぶ画像データのフレームを生成する撮像素子と、
前記フレームの各々に対して二値化処理を行って二値化フレームを生成する二値化処理部と、
時系列に隣接する前記二値化フレームの間の差分を生成して前記二値化フレームに含まれる前記対象物の位置の変化を追跡するトラッキング処理部と、
前記トラッキング処理部による結果に基づいて前記二値化フレームに含まれる前記対象物のモーメントを算出するモーメント生成部と、
前記モーメント生成部によって生成された前記モーメントに基づいて前記二値化フレームに含まれる前記対象物の重心位置を生成する重心位置生成部と、
前記重心位置生成部によって生成された前記対象物の重心位置に基づいて前記対象物の軌跡を予測して生成する軌跡生成部と、
前記軌跡生成部によって生成された前記対象物の軌跡に基づいて制御対象装置に制御信号を供給する制御信号供給部と
を具備する画像センサ。
(2)前記軌跡生成部は、前記対象物との距離の軌跡を予測し、
前記制御信号供給部は、前記予測された距離が所定の条件を満たす場合に前記制御信号を供給する
前記(1)に記載の画像センサ。
(3)前記制御信号は、緩衝部材の動作を制御する制御信号である前記(2)に記載の画像センサ。
(4)前記制御信号は、警告装置の動作を制御する制御信号である前記(2)に記載の画像センサ。
(5)前記軌跡生成部は、前記対象物の弾道の軌跡を予測し、
前記制御信号供給部は、前記予測された軌跡を表示するための前記制御信号を供給する
前記(1)から(4)のいずれかに記載の画像センサ。
(6)前記軌跡生成部は、前記対象物の飛距離を予測し、
前記制御信号供給部は、前記予測された飛距離を表示するための前記制御信号を供給する
前記(5)に記載の画像センサ。
(7)前記軌跡生成部は、前記対象物の到達位置を予測し、
前記制御信号供給部は、前記予測された到達位置を表示するための前記制御信号を供給する
前記(5)に記載の画像センサ。
(8)前記制御信号供給部は、前記予測された到達位置に応じた音声信号を出力するための前記制御信号を供給する
前記(7)に記載の画像センサ。
(9)前記撮像素子に前記対象物を含む画像を供給する光学素子をさらに具備し、
前記制御信号は、前記光学素子の動作を制御する制御信号である
前記(1)から(8)のいずれかに記載の画像センサ。
(10)前記制御信号は、前記フレームの一部を所定の画像に置換して表示させる制御信号である前記(1)から(9)のいずれかに記載の画像センサ。In addition, this technique can also take the following structures.
(1) an image sensor that images a target and generates frames of image data arranged in time series;
A binarization processing unit that performs binarization processing on each of the frames to generate a binarized frame;
A tracking processing unit that generates a difference between the binarized frames adjacent to each other in time series and tracks a change in the position of the object included in the binarized frame;
A moment generation unit that calculates a moment of the object included in the binarized frame based on a result of the tracking processing unit;
A center-of-gravity position generation unit that generates a center-of-gravity position of the object included in the binarized frame based on the moment generated by the moment generation unit;
A trajectory generator that predicts and generates a trajectory of the object based on the barycentric position of the object generated by the centroid position generator;
An image sensor comprising: a control signal supply unit configured to supply a control signal to the control target device based on the trajectory of the object generated by the trajectory generation unit.
(2) The trajectory generation unit predicts a trajectory of the distance to the object,
The image sensor according to (1), wherein the control signal supply unit supplies the control signal when the predicted distance satisfies a predetermined condition.
(3) The image sensor according to (2), wherein the control signal is a control signal for controlling the operation of the buffer member.
(4) The image sensor according to (2), wherein the control signal is a control signal for controlling the operation of the warning device.
(5) The trajectory generator predicts a trajectory of the trajectory of the object,
The image sensor according to any one of (1) to (4), wherein the control signal supply unit supplies the control signal for displaying the predicted trajectory.
(6) The trajectory generator predicts the flight distance of the object,
The image sensor according to (5), wherein the control signal supply unit supplies the control signal for displaying the predicted flight distance.
(7) The locus generation unit predicts the arrival position of the object,
The image sensor according to (5), wherein the control signal supply unit supplies the control signal for displaying the predicted arrival position.
(8) The image sensor according to (7), wherein the control signal supply unit supplies the control signal for outputting an audio signal corresponding to the predicted arrival position.
(9) further comprising an optical element that supplies an image including the object to the image sensor;
The image sensor according to any one of (1) to (8), wherein the control signal is a control signal for controlling an operation of the optical element.
(10) The image sensor according to any one of (1) to (9), wherein the control signal is a control signal that is displayed by replacing a part of the frame with a predetermined image.
100 画像センサ
110 撮像部
120 フィルタ処理部
130 二値化処理部
140 トラッキング処理部
150 モーメント生成部
160 重心位置生成部
210 集計処理部
220 制御部
230 インターフェース
310 操作入力装置
320 表示装置
330 制御対象装置
511、515 保護対象
512、516、521、523、525 緩衝部材
513、517、522、524、526 画像センサ
514、518 移動物体
531 プレーヤ
532 ボール
533 携帯端末
534 推定飛距離
541、550、561 カメラ
542 スピーカ
543 フェンス
544 保護カバー
545 制御装置
551 自動追跡ボタン
552 レンズ駆動アクチュエータDESCRIPTION OF
Claims (10)
前記フレームの各々に対して二値化処理を行って二値化フレームを生成する二値化処理部と、
時系列に隣接する前記二値化フレームの間の差分を生成して前記二値化フレームに含まれる前記対象物の位置の変化を追跡するトラッキング処理部と、
前記トラッキング処理部による結果に基づいて前記二値化フレームに含まれる前記対象物のモーメントを算出するモーメント生成部と、
前記モーメント生成部によって生成された前記モーメントに基づいて前記二値化フレームに含まれる前記対象物の重心位置を生成する重心位置生成部と、
前記重心位置生成部によって生成された前記対象物の重心位置に基づいて前記対象物の軌跡を予測して生成する軌跡生成部と、
前記軌跡生成部によって生成された前記対象物の軌跡に基づいて制御対象装置に制御信号を供給する制御信号供給部と
を具備する画像センサ。An image sensor that images a target and generates frames of image data arranged in time series; and
A binarization processing unit that performs binarization processing on each of the frames to generate a binarized frame;
A tracking processing unit that generates a difference between the binarized frames adjacent to each other in time series and tracks a change in the position of the object included in the binarized frame;
A moment generation unit that calculates a moment of the object included in the binarized frame based on a result of the tracking processing unit;
A center-of-gravity position generation unit that generates a center-of-gravity position of the object included in the binarized frame based on the moment generated by the moment generation unit;
A trajectory generator that predicts and generates a trajectory of the object based on the barycentric position of the object generated by the centroid position generator;
An image sensor comprising: a control signal supply unit configured to supply a control signal to the control target device based on the trajectory of the object generated by the trajectory generation unit.
前記制御信号供給部は、前記予測された距離が所定の条件を満たす場合に前記制御信号を供給する
請求項1記載の画像センサ。The trajectory generator predicts a trajectory of the distance to the object;
The image sensor according to claim 1, wherein the control signal supply unit supplies the control signal when the predicted distance satisfies a predetermined condition.
前記制御信号供給部は、前記予測された軌跡を表示するための前記制御信号を供給する
請求項1記載の画像センサ。The trajectory generator predicts the trajectory of the trajectory of the object;
The image sensor according to claim 1, wherein the control signal supply unit supplies the control signal for displaying the predicted trajectory.
前記制御信号供給部は、前記予測された飛距離を表示するための前記制御信号を供給する
請求項5記載の画像センサ。The trajectory generator predicts the flight distance of the object,
The image sensor according to claim 5, wherein the control signal supply unit supplies the control signal for displaying the predicted flight distance.
前記制御信号供給部は、前記予測された到達位置を表示するための前記制御信号を供給する
請求項5記載の画像センサ。The locus generation unit predicts the arrival position of the object;
The image sensor according to claim 5, wherein the control signal supply unit supplies the control signal for displaying the predicted arrival position.
請求項7記載の画像センサ。The image sensor according to claim 7, wherein the control signal supply unit supplies the control signal for outputting an audio signal corresponding to the predicted arrival position.
前記制御信号は、前記光学素子の動作を制御する制御信号である
請求項1記載の画像センサ。An optical element for supplying an image including the object to the image sensor;
The image sensor according to claim 1, wherein the control signal is a control signal for controlling an operation of the optical element.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016237176 | 2016-12-07 | ||
JP2016237176 | 2016-12-07 | ||
PCT/JP2017/040037 WO2018105290A1 (en) | 2016-12-07 | 2017-11-07 | Image sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018105290A1 true JPWO2018105290A1 (en) | 2019-10-24 |
JP7100590B2 JP7100590B2 (en) | 2022-07-13 |
Family
ID=62492252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018554870A Active JP7100590B2 (en) | 2016-12-07 | 2017-11-07 | Image sensor |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7100590B2 (en) |
WO (1) | WO2018105290A1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020075230A1 (en) * | 2018-10-10 | 2020-04-16 | 株式会社ウフル | Strike alert system, method, program, and seat in baseball stadium |
CN110062272B (en) | 2019-04-30 | 2021-09-28 | 腾讯科技(深圳)有限公司 | Video data processing method and related device |
JP7083332B2 (en) * | 2019-12-27 | 2022-06-10 | 楽天グループ株式会社 | Image processing equipment, image processing methods, and programs |
JP7083334B2 (en) * | 2019-12-27 | 2022-06-10 | 楽天グループ株式会社 | Image processing equipment, image processing methods, and programs |
WO2022034245A1 (en) * | 2020-08-14 | 2022-02-17 | Topgolf Sweden Ab | Motion based pre-processing of two-dimensional image data prior to three-dimensional object tracking with virtual time synchronization |
JP7322320B2 (en) | 2020-08-14 | 2023-08-07 | トップゴルフ スウェーデン エービー | Motion-based preprocessing of 2D image data before 3D object tracking using virtual time synchronization |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0916863A (en) * | 1995-06-27 | 1997-01-17 | Toshiba Corp | Monitor and control device |
JP2001521403A (en) * | 1996-02-12 | 2001-11-06 | ゴルフ エイジ テクノロジーズ,インコーポレイテッド | Golf driving range distance determination apparatus and method |
JP2002543503A (en) * | 1999-04-23 | 2002-12-17 | シーメンス アクチエンゲゼルシヤフト | Method and apparatus for determining the position of an object in a scene |
JP2004145669A (en) * | 2002-10-24 | 2004-05-20 | Sharp Corp | Movement detection method, control method, movement detector, controller and computer program |
JP2008160436A (en) * | 2006-12-22 | 2008-07-10 | Olympus Imaging Corp | Imaging device |
JP2008219489A (en) * | 2007-03-05 | 2008-09-18 | Nippon Hoso Kyokai <Nhk> | Trajectory image synthesizer of video object and program therefor |
JP2010005267A (en) * | 2008-06-30 | 2010-01-14 | Mitsubishi Electric Engineering Co Ltd | Safety management system for golf links |
-
2017
- 2017-11-07 WO PCT/JP2017/040037 patent/WO2018105290A1/en active Application Filing
- 2017-11-07 JP JP2018554870A patent/JP7100590B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0916863A (en) * | 1995-06-27 | 1997-01-17 | Toshiba Corp | Monitor and control device |
JP2001521403A (en) * | 1996-02-12 | 2001-11-06 | ゴルフ エイジ テクノロジーズ,インコーポレイテッド | Golf driving range distance determination apparatus and method |
JP2002543503A (en) * | 1999-04-23 | 2002-12-17 | シーメンス アクチエンゲゼルシヤフト | Method and apparatus for determining the position of an object in a scene |
JP2004145669A (en) * | 2002-10-24 | 2004-05-20 | Sharp Corp | Movement detection method, control method, movement detector, controller and computer program |
JP2008160436A (en) * | 2006-12-22 | 2008-07-10 | Olympus Imaging Corp | Imaging device |
JP2008219489A (en) * | 2007-03-05 | 2008-09-18 | Nippon Hoso Kyokai <Nhk> | Trajectory image synthesizer of video object and program therefor |
JP2010005267A (en) * | 2008-06-30 | 2010-01-14 | Mitsubishi Electric Engineering Co Ltd | Safety management system for golf links |
Also Published As
Publication number | Publication date |
---|---|
JP7100590B2 (en) | 2022-07-13 |
WO2018105290A1 (en) | 2018-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018105290A1 (en) | Image sensor | |
JP6525453B2 (en) | Object position estimation system and program thereof | |
US10771760B2 (en) | Information processing device, control method of information processing device, and storage medium | |
JP2017531979A (en) | System and method for visual player tracking in a sports arena | |
US10171794B2 (en) | Method for selecting cameras and image distribution system capable of appropriately selecting cameras | |
US20130120581A1 (en) | Apparatus, method and system | |
KR20190005765A (en) | Image processing apparatus, image processing method thereof and program | |
US10564250B2 (en) | Device and method for measuring flight data of flying objects using high speed video camera and computer readable recording medium having program for performing the same | |
US20160370239A1 (en) | Body Motion Assessment Using Image Analysis | |
JP4389901B2 (en) | Camera automatic control system, camera automatic control method, camera automatic control device, and program in sports competition | |
US20080068463A1 (en) | system and method for graphically enhancing the visibility of an object/person in broadcasting | |
US9589332B2 (en) | Camera movement correction apparatus, method and system | |
JP6447515B2 (en) | Information processing apparatus, recording medium, and information processing method | |
JP2022132286A (en) | Virtual reality provision system | |
JP2011071932A (en) | Vehicle surroundings monitoring apparatus | |
CN110270078B (en) | Football game special effect display system and method and computer device | |
JP7161981B2 (en) | Object tracking program, device and method capable of switching object tracking means | |
JP2013093865A (en) | Vehicle periphery monitoring device | |
JP2017156796A (en) | Object tracking system, object tracking device and program, as well as physical object with location display body | |
US8885886B2 (en) | Method and apparatus and program | |
US20200372779A1 (en) | Terminal device, risk prediction method, and recording medium | |
KR102621481B1 (en) | Method for displaying locus using image accumulation | |
JP2019096062A (en) | Object tracking device, object tracking method, and object tracking program | |
JPH1021407A (en) | Moition detector | |
KR101019847B1 (en) | Sensing processing device and method for moving object, and virtual golf simulation device using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201002 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220701 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7100590 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |