JP2012129709A - Information processor, information processing method, and program - Google Patents
Information processor, information processing method, and program Download PDFInfo
- Publication number
- JP2012129709A JP2012129709A JP2010278089A JP2010278089A JP2012129709A JP 2012129709 A JP2012129709 A JP 2012129709A JP 2010278089 A JP2010278089 A JP 2010278089A JP 2010278089 A JP2010278089 A JP 2010278089A JP 2012129709 A JP2012129709 A JP 2012129709A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- roi
- region
- resolution
- low
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、追跡すべき対象物体を捉えるように画像データ内の注目領域を決定する技術に関するものである。 The present invention relates to a technique for determining a region of interest in image data so as to capture a target object to be tracked.
近年、ロボット技術が急速な進歩を遂げてきており、産業用ロボットのみならず、一般向け玩具としてもペットロボット等の開発が活発である。産業用組み立てロボットには、多品種少量生産が求められてきており、また組み立てる製品そのものも複雑化してきている。こうした状況に対応するためには、個々の製品に応じた特殊な専用工具や専用センサを極力少なくすることが必要となる。そこでカメラと多関節ロボットを組み合わせ、画像処理によって対象物体を認識し、組み立て作業を行うことに注目が集まってきている。また、ペットロボット等の一般向けロボットにおいては、使用可能なセンサが限られており、多くの情報を取得できるセンサとしてカメラを用い、画像処理により様々な情報を抽出、獲得しているものもある。 In recent years, robot technology has made rapid progress, and not only industrial robots but also pet robots are actively developed as toys for general use. Industrial assembly robots are required to produce a variety of products in small quantities, and the products to be assembled are becoming more complex. In order to cope with such a situation, it is necessary to reduce the number of special dedicated tools and dedicated sensors according to individual products as much as possible. Therefore, attention has been focused on combining cameras and articulated robots, recognizing target objects by image processing, and performing assembly work. Also, in general-purpose robots such as pet robots, usable sensors are limited, and there are some that use a camera as a sensor that can acquire a lot of information, and extract and acquire various information by image processing. .
このようなカメラと画像処理を組み合わせた視覚センサの最も基本的な働きの一つとして、対象物体の追跡(追尾)が挙げられる。カメラを用いた対象物体の追跡という技術に注目すると、いくつかの方式がある。一つは、カメラを固定しておき一定の範囲を撮像し続け、その撮像範囲内にある対象物体の追跡を行う、というものである。これは監視の分野で多く用いられ、不審者や異常物体の監視等に用いられる。また、人や車の交通量計測にも用いられる。最近のデジタルカメラには顔画像の認識と対象物体の追跡とを組み合わせ、常に人物の顔にピントを合わせるような製品もある。別の方式としては対象物体の移動に応じて、あるいはロボットの移動に応じて、対象物体を捉えつつカメラを移動させたり、向きを変えたりするものがある。対象物体の三次元形状計測や、位置姿勢認識等に用いられる。その他、両者を複合させた方式も考えられるが、いずれの方式にせよ、撮像された画像から対象物体の範囲を特定し、続く画像処理装置によって様々な処理がなされることとなる。対象物体の追跡処理は、次フレーム以降の撮像範囲の決定、または画像処理装置に送る画像範囲の決定、あるいはその両者ということになる。 One of the most basic functions of a visual sensor that combines such a camera and image processing is tracking (tracking) a target object. When paying attention to the technique of tracking a target object using a camera, there are several methods. One is to keep a camera fixed and continue to capture a certain range, and to track a target object within the imaging range. This is often used in the field of monitoring, and is used for monitoring suspicious persons and abnormal objects. It is also used for traffic volume measurement of people and cars. Some recent digital cameras combine facial image recognition and target object tracking to always focus on a person's face. Another method is to move the camera or change the direction while capturing the target object according to the movement of the target object or according to the movement of the robot. It is used for 3D shape measurement of target objects, position and orientation recognition, and the like. In addition, a method in which both are combined is conceivable, but in any method, the range of the target object is specified from the captured image, and various processes are performed by the subsequent image processing apparatus. The tracking processing of the target object is to determine the imaging range after the next frame and / or to determine the image range to be sent to the image processing apparatus.
ここで、従来の物体追跡撮像システムは、カメラと、カメラによって撮像された画像データから追跡すべき物体領域を抽出し、当該物体領域の画像データから注目領域(ROI)を決定する物体追跡処理装置とによって構成される。物体追跡処理装置は、決定した注目領域に相当する画像データを生成し、生成した画像データを画像処理装置に対して渡す。画像処理装置では、注目領域に相当する画像データから、追跡すべき対象物体に刻印されている部品番号を読み取る処理や、ロボットが当該対象物体を把持する際のマニピュレータの挿入位置を決定するといった処理を行う。 Here, a conventional object tracking imaging system extracts an object region to be tracked from a camera and image data captured by the camera, and determines a region of interest (ROI) from the image data of the object region. It is comprised by. The object tracking processing device generates image data corresponding to the determined attention area, and passes the generated image data to the image processing device. In the image processing apparatus, a process of reading a part number stamped on a target object to be tracked from image data corresponding to a region of interest, or a process of determining an insertion position of a manipulator when the robot grips the target object I do.
このようにして、画像処理装置において処理される注目領域に相当する画像データが得られるが、カメラと物体追跡処理装置とをつなぐ通信路には一般に流れるデータ量の上限(帯域幅)が存在する。例えば、VGA(640×480[画素])サイズのRGBカラー画像(各色8ビット)で毎秒60画面を転送する場合であれば、640×480×8×3×60=442368000[bit/sec]≒0.4[Gbit/sec]程度の幅があればよい。ROIの大きさを仮に撮像サイズの縦横1/4とすると、160×120[画素]である。しかし、アプリケーションによってはさらに高精細の画像を用いて画像処理を行いたい場合がある。例えば、VGAサイズのROIが必要であるとすると、撮像画像の大きさは2560×1920[画素]となる。この場合、通信路には7[Gbit/sec]以上のトラフィックが発生する。フレームレート(毎秒転送する画面数)を上げれば、さらに広い帯域幅が必要になる。逆にいえば、通信路の帯域幅によって、画像処理装置が処理する画像データの画像サイズ(ROIサイズ)やフレームレートが抑えられてしまうことになる。しかし、画像処理装置が必要としている画像データのみをカメラから通信路に送出することができれば、通信路の帯域幅を有効に活用することができる。 In this way, image data corresponding to a region of interest processed in the image processing apparatus can be obtained. However, there is generally an upper limit (bandwidth) of the amount of data that flows in the communication path connecting the camera and the object tracking processing apparatus. . For example, in the case of transferring 60 screens per second with an RGB color image (8 bits for each color) of VGA (640 × 480 [pixel]) size, 640 × 480 × 8 × 3 × 60 = 4422368000 [bit / sec] ≈ A width of about 0.4 [Gbit / sec] is sufficient. Assuming that the ROI size is ¼ the horizontal and vertical size of the imaging size, it is 160 × 120 [pixels]. However, depending on the application, it may be desired to perform image processing using a higher definition image. For example, if a VGA-size ROI is required, the size of the captured image is 2560 × 1920 [pixels]. In this case, traffic of 7 [Gbit / sec] or more is generated on the communication path. Increasing the frame rate (number of screens transferred per second) will require wider bandwidth. In other words, the image size (ROI size) and the frame rate of the image data processed by the image processing apparatus are suppressed depending on the bandwidth of the communication path. However, if only the image data required by the image processing apparatus can be sent from the camera to the communication path, the bandwidth of the communication path can be used effectively.
特許文献1には、カメラ自体の位置や姿勢を制御することにより、ROIの画像データを取得する技術が開示されている。この場合、カメラの撮像範囲はROIサイズに一致している。 Patent Document 1 discloses a technique for acquiring ROI image data by controlling the position and orientation of the camera itself. In this case, the imaging range of the camera matches the ROI size.
ここでROIの決定について注目してみると、一画面前の画像データを基に決定している。そのため、追跡すべき対象物体がフレームサイズ、フレームレートと比較して高速に動いている場合等、対象物体を正確に捉えることが難しくなる。そこで、過去の対象物体の動きから、次画面での対象物体の位置を予測することが必要となる。 Here, paying attention to the determination of ROI, it is determined based on the image data of the previous screen. For this reason, it is difficult to accurately capture the target object when the target object to be tracked is moving faster than the frame size and frame rate. Therefore, it is necessary to predict the position of the target object on the next screen from the past movement of the target object.
しかしながら、上述した過去の対象物体の動きから次画面での対象物体の位置を予測する手法では、フレームレートの高速化を図れたとしても、動き予測部が必要となるという課題がある。また、対象物体が、動き予測部が想定する動きとは異なる動きをした場合、対象物体を正確に、また安定して捉えることが難しいという課題もある。 However, the above-described method of predicting the position of the target object on the next screen from the past movement of the target object has a problem that a motion prediction unit is required even if the frame rate can be increased. In addition, when the target object moves differently from the movement assumed by the motion prediction unit, there is a problem that it is difficult to accurately and stably capture the target object.
そこで、本発明の目的は、動き予測部のような特別な構成を追加することなく、対象物体の動きによらず、対象物体を正確に、また安定して捉えることにある。 Therefore, an object of the present invention is to accurately and stably capture a target object regardless of the movement of the target object without adding a special configuration such as a motion prediction unit.
本発明の情報処理装置は、前の時点に撮像された画像データに基づいて、次の時点に撮像される低解像度画像データの注目領域である第1の注目領域を決定する第1の決定手段と、前記低解像度画像データのうち、前記第1の注目領域に該当する前記低解像度画像データを取得する取得手段と、前記第1の注目領域に該当する前記低解像度画像データに基づいて、前記次の時点に撮像される高解像度画像データの注目領域である第2の注目領域を決定する第2の決定手段とを有することを特徴とする。 The information processing apparatus according to the present invention is configured to determine a first attention area, which is an attention area of low-resolution image data captured at the next time point, based on image data captured at the previous time point. And, based on the low-resolution image data corresponding to the first region of interest, the acquisition means for acquiring the low-resolution image data corresponding to the first region of interest among the low-resolution image data, And second determination means for determining a second region of interest that is a region of interest of the high-resolution image data to be imaged at the next time point.
本発明によれば、動き予測部のような特別な構成を追加することなく、対象物体の動きによらず、対象物体を正確に、また安定して捉えることが可能となる。 According to the present invention, it is possible to accurately and stably capture a target object regardless of the movement of the target object without adding a special configuration such as a motion prediction unit.
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.
図1は、本発明の実施形態に係る物体追跡撮像システムの構成を示す図である。図1に示すように、本実施形態に係る物体追跡撮像システムは、カメラ11と物体追跡処理装置12とが通信部13を介して接続されている。カメラ11は、撮像部111、画像出力部112、撮像制御部113及び解像度・ROI制御部114から構成される。なお、物体追跡処理装置は、本発明の情報処理装置の適用例となる構成である。
FIG. 1 is a diagram showing a configuration of an object tracking imaging system according to an embodiment of the present invention. As shown in FIG. 1, in the object tracking imaging system according to the present embodiment, a
撮像部111は、レンズ、CMOSイメージセンサ等から構成され、撮像処理により画像データを生成する。画像出力部112は、撮像部111により生成された画像データを、通信路13を介して物体追跡処理装置12に送信する。撮像制御部113は、例えば露光タイミングやCMOSイメージセンサ内に保持された画像データを消去するタイミングを制御する。例えば撮像制御部113は、一定時間毎に露光を行ったり、画像出力部112が通信路13に画像データを出力した後に、CMOSイメージセンサ内に保持された画像データを消去したりする。解像度・ROI制御部114は、物体追跡処理装置12から解像度情報及びROI情報の2つの情報を得て、画像出力部112に対して出力する。ここでいう解像度情報とは、低解像度画像データを指定するための情報や高解像度画像データを指定するための情報である。本実施形態においては、同一の撮像範囲の画像データで比べた場合、高解像度画像データでは1280×960画素、低解像度画像データでは640×480画素であることを想定している。また、ROI情報とは、撮影された画像データ内の注目領域(ROI:Region of Interest)を指定する情報である。ROIとしては、例えば、物体領域を含む最小の矩形領域、或いは物体領域の中心を画像中心とする予め定められた大きさの矩形領域等である。
The
物体追跡処理装置12は、画像入力部121、ROI画像生成部123及びROI算出部122から構成される。ROI算出部122は、対象抽出部1221、低解像度ROI決定部1222及び高解像度ROI決定部1223から構成される。物体追跡処理装置12は、通信路13から画像入力部121によって画像データを得る。画像入力部121は、通信路13から得た画像データを、物体追跡処理装置12内の他の構成部からアクセスできる状態で保持する。なお、低解像度ROI決定部1222は、第1の決定手段の適用例となる構成であり、画像入力部121は、取得手段の適用例となる構成であり、高解像度ROI決定部1223は、第2の決定手段の適用例となる構成である。
The object
以下では、説明の便宜上、撮像時刻を、・・・、t−2、t−1、t、t+1、・・・であるとし、現在は時刻tでの撮像が終了した直後であるとする。対象抽出部1221は、画像入力部121から低解像度ROI画像データ又は高解像度ROI画像データを得て、追跡すべき物体領域を抽出する。低解像度ROI決定部1222は、低解像度ROI画像データから抽出された物体領域からROI(以下、低解像度ROIと称す)を決定する。また、高解像度ROI決定部1223は、高解像度ROI画像データから抽出された物体領域からROI(以下、高解像度ROIと称す)を決定する。なお、画像入力部121においては、時刻t−1までの低解像度ROI画像データ及び高解像度ROI画像データを、通信路13を経てカメラ11より取得済みである。
In the following, for convenience of explanation, it is assumed that the imaging times are..., T-2, t-1, t, t + 1,. The
さて、ここで時刻tのROI画像データ(低解像度ROI画像データ、高解像度ROI画像データ)を得る手法について説明する。対象抽出部1221は、時刻t−1の低解像度ROI画像データから物体領域を抽出する。物体領域の抽出方法は、例えば黒い背景内を白いピンポン玉様の物体が動き回っているときに、ピンポン玉様の物体領域を抽出する場合の手法の例は次のようなものである。先ず対象抽出部1221は、低解像度ROI画像データから輝度画像データを得る。RGBカラー画像データから輝度値Yを算出する手法はよく知られており、画素毎にY=0.299R+0.587G+0.114Bで算出された輝度値から輝度画像データを生成する方法がよく用いられる。輝度画像データの画素値が[0,1]で正規化されているとすると、ある閾値(例えば、0.5)以下の輝度値を持つ画素と、それ以外の画素とで二値化する。前者を黒画素、後者を白画素として二値画像データを生成すると、ピンポン玉様の物体領域は白画素で表される。そこで、全白画素を含む最小の円形領域を以て物体領域の抽出ができたことになる。
Now, a method for obtaining ROI image data (low resolution ROI image data, high resolution ROI image data) at time t will be described. The
対象抽出部1221は、抽出した物体領域の位置や大きさ等の情報を低解像度ROI決定部1222に送る。対象抽出部1221は、前述の手法で物体領域を抽出した場合、例えば当該物体領域の中心を「位置」、円形領域の直径を「大きさ」とする。
The
低解像度ROI決定部1222は、時刻t−1の低解像度ROI画像データ中の物体領域の「位置」及び「大きさ」に基づいて、時刻tの低解像度ROI(第1の注目領域)を決定する。対象物体の運動に比べてフレームレートが十分高い(撮像間隔が十分に短い)場合、物体領域の「位置」や「大きさ」は、時刻t−1のROI画像データと時刻tのROI画像データとでほとんど同じと考えられる。そこで、低解像度ROI決定部1222は、例えば物体領域を含む最小の矩形領域を時刻tの低解像度ROIとして決定する。「位置」及び「大きさ」を用いた場合、例えば「位置」を中心とする一辺の長さが「大きさ」である正方形領域を低解像度ROIとすればよい。そして、低解像度ROI決定部1222は、時刻tの低解像度ROIを示すROI情報と解像度情報(ここでは、低解像度画像データを指定するための情報)との2つの情報をカメラ11の解像度・ROI制御部114に通知する。
The low resolution
解像度・ROI制御部114は、物体追跡処理装置12から得たROI情報と解像度情報とを画像出力部112に伝える。画像出力部122は、解像度情報に応じて、撮像部111が撮像した時刻tの低解像度画像データを取得する。そして画像出力部122は、ROI情報によって指定された低解像度ROIの範囲を時刻tの低解像度画像データから抽出し、時刻tの低解像度ROI画像データとして通信路13を経て物体追跡処理部12に送出する。
The resolution / ROI control unit 114 transmits the ROI information and resolution information obtained from the object
画像入力部121は、この時刻tの低解像度ROI画像データを得て、対象抽出部1221に送る。対象抽出部1221は、時刻tの低解像度ROI画像データから物体領域を抽出する。そして対象抽出部1221は、抽出した物体領域の「位置」や「大きさ」等の情報を高解像度ROI決定部1223に送る。一般的に低解像度ROIに相当する高解像度画像データの領域の中に高解像度ROIが含まれる。そこで高解像度ROI決定部1223は、時刻tの低解像度ROI画像データ中の物体領域の「位置」や「大きさ」等の情報に基づいて時刻tの高解像度ROI(第2の注目領域)を決定する。ここでは、例えば物体領域を含む最小の矩形領域を高解像度ROIとして決定するものとする。
The
以上のように、時刻tの低解像度ROIの決定は、時刻t−1の低解像度ROI画像データを基にしているため、対象物体が運動している場合には物体領域の中心が必ずしも時刻t−1の低解像度ROI画像データの中心にあるとは限らない。しかし、時刻tの高解像度ROIの決定には、同時刻である時刻tの低解像度ROI画像データを基にしているため、対象物体の中心と高解像度ROI画像データの中心とを一致させることができる。このように、二段階に高解像度ROIを決定することにより、対象物体の運動によらずに安定して高解像度ROIを決定することができる。 As described above, since the determination of the low-resolution ROI at time t is based on the low-resolution ROI image data at time t−1, the center of the object region is not necessarily the time t when the target object is moving. The low-resolution ROI image data of −1 is not necessarily at the center. However, since the determination of the high resolution ROI at time t is based on the low resolution ROI image data at time t, which is the same time, the center of the target object may coincide with the center of the high resolution ROI image data. it can. Thus, by determining the high resolution ROI in two steps, the high resolution ROI can be determined stably regardless of the motion of the target object.
そして、高解像度ROI決定部1223は、決定した高解像度ROIを示すROI情報と解像度情報(ここでは、高解像度画像データを指定するための情報)との2つの情報をカメラ11の解像度・ROI制御部114に通知する。解像度・ROI制御部114は、物体追跡処理装置12から得たROI情報と解像度情報とを画像出力部112に伝える。画像出力部112は、解像度情報に応じて、撮像部111が撮像した時刻tの高解像度画像データを取得する。なお、以下の説明において、低解像度画像データ及び高解像度画像データとは、ともに同一の撮像範囲で撮像された解像度が異なる画像データである。画像出力部112は、ROI情報によって指定された高解像度ROIの範囲を時刻tの高解像度画像データから抽出し、時刻tの高解像度ROI画像データとして通信路13を経て物体追跡処理装置12に送出する。
Then, the high-resolution
画像入力部121は、時刻tの高解像度ROI画像データを得て、ROI画像生成部123に送る。ROI画像生成部123は、時刻tの高解像度ROI画像データを物体追跡処理装置12の外部に配置される画像処理装置14に送る。画像処理装置14は、時刻tの高解像度ROI画像データを用いて対象物体に関する処理を実行する。ここでいう対象物体に関する処理とは、例えば、当該対象物体に刻印されている部品番号を読み取る処理や、ロボットが当該対象物体を把持する際のマニピュレータの挿入位置の決定といった処理である。
The
画像出力部112は、時刻tの高解像度ROI画像データを送出した後に、時刻tの画像データの消去を撮像制御部113に対して指示するとともに、時刻t+1での撮像を撮像制御部113に対して指示する。撮像制御部113は、画像出力部112からの指示に従って撮像部111を制御する。
After sending the high-resolution ROI image data at time t, the
以上の動作を繰り返し、時刻t+1の低解像度ROI画像データ、時刻t+1の高解像度ROI画像データ、・・・と順にROI画像データを得ていくことにより、画像処理装置14には各時刻の高解像度ROI画像データが連続して送られることになる。 By repeating the above operation and obtaining ROI image data in the order of low resolution ROI image data at time t + 1, high resolution ROI image data at time t + 1,... ROI image data is sent continuously.
なお、一般的なグローバルシャッタタイプ(全画素の露光を同時に行う方式)のCMOSイメージセンサの場合、デジタル化された画像データはCMOSイメージセンサ上にあり、非破壊で読み出すことができる。そのため、高解像度ROI画像データは、撮像部111がCMOSイメージセンサ上の高解像度ROIとして指示された領域の全画素を読み出すことにより実現できる。また、低解像度ROI画像データは、撮像部111がCMOSイメージセンサ上の低解像度ROIとして指示された領域の画素を例えば1画素ずつ間引いて読み出すことにより実現できる。
In the case of a general global shutter type (a method in which all pixels are exposed simultaneously) CMOS image sensor, the digitized image data is on the CMOS image sensor and can be read out nondestructively. Therefore, the high-resolution ROI image data can be realized by reading out all the pixels in the area designated as the high-resolution ROI on the CMOS image sensor by the
ところで、本実施形態においては、低解像度ROIと高解像度ROIとはほぼ同じ領域である。そのため、低解像度ROI画像データに含まれる画素は、そのほとんどが高解像度ROI画像データに含まれることになる。そこで、画像出力部112は、時刻tの高解像度ROI画像データを転送する際、時刻tの低解像度ROI画像データに含まれない画素データのみを転送する。これにより、通信路13を流れる画像データ量を本来必要な高解像度ROI画像データのデータ量とほぼ等しくすることができる。これは、一画素ずつ間引いて低解像度ROI画像データを読み出して物体追跡処理部12に転送することによる通信路13の圧迫は、ほとんどないことを意味する。
By the way, in this embodiment, the low resolution ROI and the high resolution ROI are substantially the same region. Therefore, most of the pixels included in the low resolution ROI image data are included in the high resolution ROI image data. Therefore, when transferring the high-resolution ROI image data at time t, the
図2は、CMOSイメージセンサ上における低解像度ROI画像データを構成する画素と高解像度ROI画像データを構成する画素との例を示す図である。図2の例において、低解像度ROI画像データを構成する画素は○と●であり、高解像度ROI画像データを構成する画素は■と●である。先ず画像出力部112は、○と●との画素から低解像度ROI画像データを読み出し、物体追跡処理装置12に転送する。その後、画像出力部112は、■と●との画素から高解像度画像ROIデータを読み出し、物体追跡処理装置12に転送する。但し、既に●は転送済みであるので、画像出力部112は■だけを転送する。図2の場合、低解像度ROI画像データと高解像度ROI画像データとの重なりは約65%であるが、低解像度ROI画像データの転送によるデータ量(画素数)の増加分は9%以下である。
FIG. 2 is a diagram showing an example of pixels constituting low resolution ROI image data and pixels constituting high resolution ROI image data on a CMOS image sensor. In the example of FIG. 2, the pixels constituting the low resolution ROI image data are ◯ and ●, and the pixels constituting the high resolution ROI image data are ■ and ●. First, the
なお、本実施形態においては、説明を分かりやすくするため、時刻tの低解像度ROI画像データを得てから、時刻tの高解像度ROI画像データ、次いで時刻t+1の低解像度ROI画像データを得るように説明しているが、処理は逐次的でなくても構わない。時刻tの低解像度ROI画像データを得て、対象抽出部1221で物体領域の「位置」や「大きさ」等の情報を得た後、低解像度ROI決定部1222と高解像度ROI決定部1223とで同時に処理を進めても構わない。但し、画像出力部112による時刻tの低解像度ROI画像データの送出は、時刻tの高解像度ROI画像データの送出に先立って行われなければならない。従って、ROI情報及び解像度情報の送出時、あるいは解像度・ROI制御部114で上記指示情報を受信した後に正しい順序になるようにする必要がある。
In this embodiment, in order to make the explanation easy to understand, after obtaining the low-resolution ROI image data at time t, the high-resolution ROI image data at time t and then the low-resolution ROI image data at time t + 1 are obtained. Although described, the process may not be sequential. After obtaining low-resolution ROI image data at time t and obtaining information such as “position” and “size” of the object region in the
また、本実施形態では、物体領域を含む最小の矩形領域をROIとしているが、他の方法でも構わない。以下にいくつかの手法の例を挙げる。
第1の手法として、物体領域の中心を画像中心とする予め定められた大きさの矩形領域をROIとして決定する手法である。第2の手法として、物体領域の中心を画像中心とし、物体領域を含む最小の矩形領域をROIとして決定する手法である。第3の手法として、物体領域を含む最小の矩形領域の中心を画像中心とし、物体領域を含む最小の矩形領域の大きさに一定倍率をかけた大きさの矩形領域をROIとして決定する手法である。第4の手法として、第2又は第3の手法の矩形領域の中心を画像中心とし、当該矩形領域を含む、予め定められた縦横比の最小の矩形領域をROIとして決定する手法である。
In this embodiment, the minimum rectangular area including the object area is set as the ROI, but other methods may be used. Some examples of techniques are given below.
As a first method, a rectangular region having a predetermined size with the center of the object region as the image center is determined as the ROI. As a second method, the center of the object region is set as the image center, and the minimum rectangular region including the object region is determined as the ROI. As a third method, the center of the smallest rectangular area including the object area is set as the image center, and a rectangular area having a size obtained by multiplying the size of the smallest rectangular area including the object area by a fixed magnification is determined as the ROI. is there. As a fourth technique, the center of the rectangular area of the second or third technique is used as the image center, and the rectangular area having the minimum predetermined aspect ratio including the rectangular area is determined as the ROI.
次に、本発明の第2の実施形態について説明する。第1の実施形態で示したように、低解像度ROI決定部1222は、時刻tの低解像度ROIを決定する際に、時刻t−1の低解像度ROI画像データを基にしている。そのため、対象物体が動いている場合等には、時刻tの低解像度ROIは必ずしも時刻tの高解像度ROIを含んでいない。これは、高解像度ROI決定部1223が時刻tの高解像度ROIを決定する際に、未知の領域を一部含めなければならないことを意味している。
Next, a second embodiment of the present invention will be described. As shown in the first embodiment, the low resolution
図3は、対象物体が動いている場合等における時刻tの低解像度ROIと時刻tの高解像度ROIとの関係を示す図である。図3に示すように、対象物体が動いている場合等において、時刻tの低解像度ROI画像データに基づいて時刻tの高解像度ROIを決定する場合、時刻tの高解像度ROIの一部に、時刻tの低解像度ROI画像データに属しない領域が存在することになる。従って、時刻tの高解像度ROIを決定する際には、当該時刻tの高解像度ROIの一部について物体領域を推定する必要がある。 FIG. 3 is a diagram illustrating the relationship between the low resolution ROI at time t and the high resolution ROI at time t when the target object is moving. As shown in FIG. 3, when the high resolution ROI at the time t is determined based on the low resolution ROI image data at the time t when the target object is moving, a part of the high resolution ROI at the time t is There is an area that does not belong to the low-resolution ROI image data at time t. Therefore, when determining the high resolution ROI at time t, it is necessary to estimate the object region for a part of the high resolution ROI at time t.
そこで、時刻tの高解像度ROI画像データに含まれる可能性のある領域を全て、時刻tの低解像度ROI画像データの領域が含むようにしてやると、時刻tの高解像度ROIの決定は単なる切り出しという問題に帰着する。具体的には、対象物体が撮影間隔の間に画面上で動き得る最大の距離だけ低解像度ROIを大きめに決定すればよい。 Therefore, if all the regions that may be included in the high-resolution ROI image data at time t are included in the region of the low-resolution ROI image data at time t, the determination of the high-resolution ROI at time t is simply clipping. It comes down to the problem. Specifically, the low resolution ROI may be determined to be larger by the maximum distance at which the target object can move on the screen during the shooting interval.
図4は、本実施形態における時刻tの低解像度ROIの決定方法を説明するための図である。図4に示すように、時刻tの高解像度ROIに対して上記最大の距離(マージン)だけ大きめに時刻tの低解像度ROIを決定する。これにより、時刻tの高解像度ROIは必ず時刻tの低解像度ROI画像データに含まれることになり、高解像度ROIの決定が正確且つ安定して行えるようになる。なお、上記最大の距離の算出方法は、動的に定めてもよいが、システムの動作要件として予め定めておいてもよい。 FIG. 4 is a diagram for explaining a method of determining the low resolution ROI at time t in the present embodiment. As shown in FIG. 4, the low resolution ROI at time t is determined to be larger by the maximum distance (margin) than the high resolution ROI at time t. As a result, the high resolution ROI at time t is always included in the low resolution ROI image data at time t, and the determination of the high resolution ROI can be performed accurately and stably. The maximum distance calculation method may be determined dynamically, but may be determined in advance as system operation requirements.
例えば、左右の画角が90°の撮像系で1m離れた面上を対象物体が動き回る場合、水平方向の画素数が1024画素である場合には、1画素あたり約1.5mmの解像度を持っていることになる。毎秒1000フレームで撮像を行う場合、連続するフレーム間で20画素のマージン(最大の距離)を見込むと、20[画素]×1.5[mm/画素]×1000[フレーム/秒]=3000[mm/秒]となり、秒速3mまでの対象物体の追跡が可能ということになる。 For example, when the target object moves around on a surface 1 m away in an imaging system with a left and right angle of view of 90 °, and the number of pixels in the horizontal direction is 1024 pixels, it has a resolution of about 1.5 mm per pixel. Will be. When imaging is performed at 1000 frames per second, when 20 pixels margin (maximum distance) is expected between consecutive frames, 20 [pixel] × 1.5 [mm / pixel] × 1000 [frame / second] = 3000 [ mm / sec], and it is possible to track the target object up to 3 m / s.
次に、本発明の第3の実施形態について説明する。上記実施形態では、高解像度ROI決定部4222は、時刻tの高解像度ROIを時刻tの低解像度ROI画像データから決定していた。低解像度ROI画像データにより、物体領域の大まかな「位置」や「大きさ」は分かるが、詳細な「位置」及び「大きさ」は解像度が不足しているために容易には算出できない。例えば、蜘蛛の足のように細い尖状の突起があるような物体の場合、低解像度ROI画像データからは突起の位置や姿勢が明瞭に判断しにくい場合がある。このような場合には、高解像度ROI画像データも併用して用いるとよい。大まかな「位置」及び「大きさ」の算出には低解像度ROI画像データを用い、詳細な「位置」及び「大きさ」の算出には高解像度ROI画像データを用いるのである。具体的には、対象抽出部1221は、時刻tの低解像度ROI画像データから物体領域の大まかな「位置」及び「大きさ」を算出し、さらに時刻t−1の高解像度ROI画像データを用いて詳細な「位置」及び「大きさ」を算出する。
Next, a third embodiment of the present invention will be described. In the above embodiment, the high resolution ROI determination unit 4222 determines the high resolution ROI at time t from the low resolution ROI image data at time t. Although the rough “position” and “size” of the object region can be understood from the low-resolution ROI image data, the detailed “position” and “size” cannot be easily calculated because the resolution is insufficient. For example, in the case of an object having a thin pointed protrusion such as a heel foot, it may be difficult to clearly determine the position and orientation of the protrusion from the low-resolution ROI image data. In such a case, high resolution ROI image data may be used in combination. Low-resolution ROI image data is used for the rough calculation of “position” and “size”, and high-resolution ROI image data is used for the detailed calculation of “position” and “size”. Specifically, the
高解像度ROIの大きさは一定として、画像中心を求める手順の例を図5に示す。また、対象物体(蜘蛛)を図6に示す。図6の左側が時刻t−1、右側が時刻tの撮像画像である。図6に示すように、対象物体は上から下へ移動しており、また低解像度画像データでは検出の難しい突起があり、この突起も運動をしている。 FIG. 5 shows an example of a procedure for obtaining the center of the image, assuming that the size of the high resolution ROI is constant. The target object (物体) is shown in FIG. The left side of FIG. 6 is a captured image at time t−1, and the right side is a captured image at time t. As shown in FIG. 6, the target object is moving from top to bottom, and there are projections that are difficult to detect in the low-resolution image data, and these projections also move.
本実施形態の場合、低解像度ROI画像データと高解像度ROI画像データとの両方の画像データが高解像度ROI決定部1223に渡される。時刻tの低解像度ROI画像データが入力されると、高解像度ROI決定部1223は、上記実施形態と同様に、図6の601の○内に十字で示している対象物体の中心を算出する(ステップS501)。そして高解像度ROI決定部1223は、得られた対象物体の中心と、別途保存している対象物体特有の特徴毎のオフセット情報とから、対象物体の中心を補正する(ステップS502)。ここで対象物体特有の特徴とは、低解像度ROI画像データからは抽出が困難であるが、高解像度ROI画像データからは抽出可能な特徴であり、図6では蜘蛛の脚の先端(図6の602における○)である。オフセット情報とは、低解像度ROI画像データから得られた中心位置と対象物体特有の特徴の相対位置関係を示すものであり、時刻t−1における情報が保存されている。高フレームレートで連続撮像するため、時刻t−1での相対位置関係と、時刻tでの相対位置関係はほぼ等しいとみなせる。こうして得られたオフセット情報を用いて対象物体特有の特徴を推定することにより、対象物体の大きさ及び中心を推定(補正)する。
In the case of the present embodiment, both low-resolution ROI image data and high-resolution ROI image data are passed to the high-resolution
図6の右側に、上記手順で推定した高解像度ROIに対応する領域を一点鎖線で示した。高解像度ROI決定部1223は、対象物体の中心位置を補正した後、補正前の低解像度ROI画像データから得られた対象物体の中心位置を、低解像度中心位置情報として更新する(ステップS503)。そして、高解像度ROI決定部1223は、補正後の対象物体の中心(高解像度ROI)を、高解像度ROI決定部1223の出力とする(ステップS504)。
On the right side of FIG. 6, a region corresponding to the high resolution ROI estimated by the above procedure is indicated by a one-dot chain line. The high resolution
さて、高解像度ROI画像データが入力された場合には、高解像度ROI決定部1223は相対位置関係である特徴毎のオフセット情報を更新する。時刻tの高解像度ROI画像データが入力された時点では、低解像度中心位置情報には時刻tの低解像度ROI画像データから得られた対象の中心位置が保存されている。従って、高解像度ROI決定部1223は、この低解像度中心位置情報と特徴毎のオフセット情報とから、高解像度ROI画像データ上での特徴位置を推定する(ステップS505)。前述したとおり、高フレームレートで連続撮影するため、ここで推定した特徴位置付近に実際の特徴が存在する。そこで、高解像度ROI決定部1223は、推定した位置付近で対象物体の特徴位置を、画像パターンマッチング等を用いて検出する(ステップS506)。高解像度ROI決定部1223は、検出された特徴位置と低解像度中心位置情報とから、特徴毎のオフセット情報を算出して更新する(ステップS507)。
When high-resolution ROI image data is input, the high-resolution
具体的には次のようにして推定する。先ず高解像度ROI決定部1223は対象特有の特徴の詳細な位置を特定する。時刻t−1における対象物体(蜘蛛)の腹部の中心位置は、時刻tの低解像度ROI画像データから推定できる。ここから、高解像度ROI決定部1223は上記オフセット情報を用いて、対象特有の特徴がありそうな範囲を特定する。そして、高解像度ROI決定部1223は、この範囲の中で対象物体特有の特徴を検出し、詳細な位置を特定する。対象物体特有の特徴の検出には、例えば蜘蛛の足の特徴的な画像パターンをいくつか用意しておき、パターンマッチングにより検出を行う。高解像度ROI決定部1223は、対象特有の特徴の詳細な位置を特定した後、上記オフセット情報を時刻tのものとして更新しておく。次に高解像度ROI決定部1223は、蜘蛛の全ての足先(対象特有の特徴)を含む最小の矩形領域を求め、その中心と大きさを対象物体の中心と大きさとして算出する。
Specifically, the estimation is performed as follows. First, the high resolution
なお、ここでは高解像度ROI画像データの中心を求める例を示したが、他の値を求めてもよい。高解像度ROIを構成する値(画像サイズ、姿勢等)、或いはそれを求めるために必要な値であればよい。 In addition, although the example which calculates | requires the center of high resolution ROI image data was shown here, you may obtain | require another value. Any value may be used as long as it is a value (image size, orientation, etc.) constituting the high-resolution ROI or a value necessary for obtaining it.
また、ここでは時刻tの高解像度ROIを求めるのに、時刻t−1及び時刻tの低解像度ROI画像データ、時刻t−1の高解像度ROI画像データを用いたが、さらに過去の低解像度ROI画像や高解像度ROI画像を用いてもよい。 In this example, the high resolution ROI at time t is obtained by using the low resolution ROI image data at time t-1 and time t and the high resolution ROI image data at time t-1. An image or a high-resolution ROI image may be used.
図7は、本発明の実施形態に係る物体追跡撮影システムと比較するための物体追跡撮影システムの例を示す図である。図7において、図1と同じ符号の構成は、図1と共通の構成であるため、それらの説明は省略する。図1との相違点としては、カメラ711にはROI制御部115が設けられ、物体追跡処理装置712には、図1と共通の対象抽出部1221のほか、動き予測部1224及びROI決定部1225を備えたROI算出部722を設けた点にある。
FIG. 7 is a diagram illustrating an example of an object tracking imaging system for comparison with the object tracking imaging system according to the embodiment of the present invention. 7, the configuration with the same reference numerals as in FIG. 1 is the same configuration as in FIG. The difference from FIG. 1 is that the
撮像部111が撮像する範囲は、上述した実施形態と同様であるが、画像出力部112から通信路13を経て物体追跡処理装置712に送られるのは、ROI制御部115から指示されたROIの範囲のみである。
The range captured by the
物体追跡処理装置712に送られたROI画像データは、既に画像処理装置14に必要なサイズになっているので、そのまま画像処理装置14に送るだけでよい。対象抽出部1221は、ROI画像データから追跡すべき対象物体を抽出し、ROI決定部1225は、抽出された対象物体に基づいて次の画像データのROIを決定し、ROI制御部115に対して通知する。ここで時刻tのROIの決定は、時刻t−1の画像データを基に決定されている(図8(a))。そのため、図8(b)に示すように、対象物体がフレームサイズ、フレームレートと比較して高速に動いている場合等、対象物体を正確に捉えることが難しくなる。そこで、過去の対象物体の動きから、時刻tでの対象物体の位置を予測することが必要となる。動き予測部1224は対象物体の動きを予測する。ROI決定部1225は、動き予測部1224による予測結果に基づいて時刻tのROIを決定する。これにより、図8(b)の実線枠で示したように対象物体を捉えることが可能となる。
Since the ROI image data sent to the object
しかしながら、図7に示す物体追跡撮影システムにおいては、フレームレートの高速化を図れたとしても、動き予測部1224という構成の追加が必要となる。また、対象物体が、動き予測部1224が想定する動きとは異なる動きをした場合、対象物体を正確に、また安定して捉えることが難しい。これに対し、本発明の実施形態は、動き予測部1224のような特別な構成を追加することなく、対象物体の動きによらず、対象物体を正確に、また安定して捉えることが可能となる。
However, in the object tracking imaging system shown in FIG. 7, even if the frame rate can be increased, the configuration of the
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
11:カメラ、12:物体追跡処理装置、13:通信路、111:撮像部、112:画像出力部、113:撮像制御部、114:解像度・ROI制御部、121:画像入力部、122:ROI算出部、123:ROI画像生成部、124:画像処理装置、1221:対象抽出部、1222:低解像度ROI決定部、1223:高解像度ROI決定部 11: Camera, 12: Object tracking processing device, 13: Communication path, 111: Imaging unit, 112: Image output unit, 113: Imaging control unit, 114: Resolution / ROI control unit, 121: Image input unit, 122: ROI Calculation unit, 123: ROI image generation unit, 124: Image processing device, 1221: Object extraction unit, 1222: Low resolution ROI determination unit, 1223: High resolution ROI determination unit
Claims (5)
前記低解像度画像データのうち、前記第1の注目領域に該当する前記低解像度画像データを取得する取得手段と、
前記第1の注目領域に該当する前記低解像度画像データに基づいて、前記次の時点に撮像される高解像度画像データの注目領域である第2の注目領域を決定する第2の決定手段とを有することを特徴とする情報処理装置。 First determination means for determining a first region of interest, which is a region of interest of low-resolution image data captured at the next time point, based on image data captured at the previous time point;
Obtaining means for obtaining the low resolution image data corresponding to the first region of interest among the low resolution image data;
Second determining means for determining a second region of interest, which is a region of interest of the high-resolution image data captured at the next time point, based on the low-resolution image data corresponding to the first region of interest. An information processing apparatus comprising:
前の時点に撮像された画像データに基づいて、次の時点に撮像される低解像度画像データの注目領域である第1の注目領域を決定する第1の決定ステップと、
前記低解像度画像データのうち、前記第1の注目領域に該当する前記低解像度画像データを取得する取得ステップと、
前記第1の注目領域に該当する前記低解像度画像データに基づいて、前記次の時点に撮像される高解像度画像データの注目領域である第2の注目領域を決定する第2の決定ステップとを含むことを特徴とする情報処理方法。 An information processing method executed by an information processing apparatus,
A first determination step of determining a first region of interest, which is a region of interest of low-resolution image data captured at the next time point, based on image data captured at the previous time point;
Obtaining the low resolution image data corresponding to the first region of interest among the low resolution image data; and
A second determination step of determining a second region of interest that is a region of interest of the high-resolution image data captured at the next time point based on the low-resolution image data corresponding to the first region of interest; An information processing method comprising:
前記低解像度画像データのうち、前記第1の注目領域に該当する前記低解像度画像データを取得する取得ステップと、
前記第1の注目領域に該当する前記低解像度画像データに基づいて、前記次の時点に撮像される高解像度画像データの注目領域である第2の注目領域を決定する第2の決定ステップとをコンピュータに実行させるためのプログラム。 A first determination step of determining a first region of interest, which is a region of interest of low-resolution image data captured at the next time point, based on image data captured at the previous time point;
Obtaining the low resolution image data corresponding to the first region of interest among the low resolution image data; and
A second determination step of determining a second region of interest that is a region of interest of the high-resolution image data captured at the next time point based on the low-resolution image data corresponding to the first region of interest; A program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010278089A JP5839796B2 (en) | 2010-12-14 | 2010-12-14 | Information processing apparatus, information processing system, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010278089A JP5839796B2 (en) | 2010-12-14 | 2010-12-14 | Information processing apparatus, information processing system, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012129709A true JP2012129709A (en) | 2012-07-05 |
JP5839796B2 JP5839796B2 (en) | 2016-01-06 |
Family
ID=46646300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010278089A Active JP5839796B2 (en) | 2010-12-14 | 2010-12-14 | Information processing apparatus, information processing system, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5839796B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015216482A (en) * | 2014-05-09 | 2015-12-03 | キヤノン株式会社 | Imaging control method and imaging apparatus |
JP2016504889A (en) * | 2013-01-25 | 2016-02-12 | イノバシオネス・ミクロエレクトロニカス・ソシエダッド・リミターダ・(アナフォーカス)Innovaciones Microelectronicas S.L.(Anafocus) | Automatic region of interest function for image sensors |
KR20170126982A (en) * | 2015-03-02 | 2017-11-20 | 이스라엘 에어로스페이스 인더스트리즈 리미티드 | Remote object detection and tracking |
JP2018129621A (en) * | 2017-02-07 | 2018-08-16 | 富士通株式会社 | Transmission control program, transmission control method, and transmission control device |
WO2021220412A1 (en) * | 2020-04-28 | 2021-11-04 | 日本電気株式会社 | Imaging system, imaging method, and computer program |
WO2022264613A1 (en) * | 2021-06-16 | 2022-12-22 | ミネベアミツミ株式会社 | Antena device, feeding system, feeding apparatus, and feeding method |
JP7338726B1 (en) | 2022-03-15 | 2023-09-05 | 日本電気株式会社 | Moving object measurement method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070098218A1 (en) * | 2005-11-02 | 2007-05-03 | Microsoft Corporation | Robust online face tracking |
JP2010068471A (en) * | 2008-09-12 | 2010-03-25 | Toyota Motor Corp | Image processing apparatus |
JP2010258839A (en) * | 2009-04-27 | 2010-11-11 | Fujifilm Corp | Display control apparatus and operation control method thereof |
-
2010
- 2010-12-14 JP JP2010278089A patent/JP5839796B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070098218A1 (en) * | 2005-11-02 | 2007-05-03 | Microsoft Corporation | Robust online face tracking |
JP2010068471A (en) * | 2008-09-12 | 2010-03-25 | Toyota Motor Corp | Image processing apparatus |
JP2010258839A (en) * | 2009-04-27 | 2010-11-11 | Fujifilm Corp | Display control apparatus and operation control method thereof |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9979904B2 (en) | 2013-01-25 | 2018-05-22 | Innovaciones Microelectrónicas S.L. (Anafocus) | Advanced region of interest function for image sensors |
JP2016504889A (en) * | 2013-01-25 | 2016-02-12 | イノバシオネス・ミクロエレクトロニカス・ソシエダッド・リミターダ・(アナフォーカス)Innovaciones Microelectronicas S.L.(Anafocus) | Automatic region of interest function for image sensors |
US9894294B2 (en) | 2013-01-25 | 2018-02-13 | Innovaciones Microelectrónicas S.L. (Anafocus) | Automatic region of interest function for image sensors |
JP2015216482A (en) * | 2014-05-09 | 2015-12-03 | キヤノン株式会社 | Imaging control method and imaging apparatus |
KR102285078B1 (en) | 2015-03-02 | 2021-08-04 | 이스라엘 에어로스페이스 인더스트리즈 리미티드 | Remote detection and tracking of objects |
KR20170126982A (en) * | 2015-03-02 | 2017-11-20 | 이스라엘 에어로스페이스 인더스트리즈 리미티드 | Remote object detection and tracking |
JP2018129621A (en) * | 2017-02-07 | 2018-08-16 | 富士通株式会社 | Transmission control program, transmission control method, and transmission control device |
WO2021220412A1 (en) * | 2020-04-28 | 2021-11-04 | 日本電気株式会社 | Imaging system, imaging method, and computer program |
US20230171481A1 (en) * | 2020-04-28 | 2023-06-01 | Nec Corporation | Imaging system, imaging method, and computer program |
JP7364059B2 (en) | 2020-04-28 | 2023-10-18 | 日本電気株式会社 | Imaging system, imaging method, and computer program |
WO2022264613A1 (en) * | 2021-06-16 | 2022-12-22 | ミネベアミツミ株式会社 | Antena device, feeding system, feeding apparatus, and feeding method |
JP7338726B1 (en) | 2022-03-15 | 2023-09-05 | 日本電気株式会社 | Moving object measurement method |
WO2023176488A1 (en) * | 2022-03-15 | 2023-09-21 | 日本電気株式会社 | Moving bodies measurement method |
Also Published As
Publication number | Publication date |
---|---|
JP5839796B2 (en) | 2016-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5839796B2 (en) | Information processing apparatus, information processing system, information processing method, and program | |
JP6942488B2 (en) | Image processing equipment, image processing system, image processing method, and program | |
US10438360B2 (en) | Video processing apparatus, video processing method, and storage medium | |
US20170061229A1 (en) | Method and system for object tracking | |
JP2017528731A5 (en) | ||
CN110008795B (en) | Image target tracking method and system and computer readable recording medium | |
JP2010118862A (en) | Image processor, imaging apparatus and image processing method | |
JP7272024B2 (en) | Object tracking device, monitoring system and object tracking method | |
US10013632B2 (en) | Object tracking apparatus, control method therefor and storage medium | |
US9734612B2 (en) | Region detection device, region detection method, image processing apparatus, image processing method, program, and recording medium | |
KR20110023472A (en) | Apparatus and method for tracking object based on ptz camera using coordinate map | |
JP2011234314A (en) | Image processing apparatus, image processing method and program | |
JP2020514891A (en) | Optical flow and sensor input based background subtraction in video content | |
JP2008288684A (en) | Person detection device and program | |
CN107958202B (en) | Human body detection apparatus, control method of human body detection apparatus, and storage medium | |
JP2009260671A (en) | Image processing apparatus and imaging device | |
JP7401246B2 (en) | Imaging device, method of controlling the imaging device, and program | |
JP5539565B2 (en) | Imaging apparatus and subject tracking method | |
JP6577595B2 (en) | Vehicle external recognition device | |
JPH1098644A (en) | Movement detection device | |
WO2018155269A1 (en) | Image processing device and method, and program | |
CN117561540A (en) | System and method for performing computer vision tasks using a sequence of frames | |
JP2007156771A (en) | Image detection tracing device, image detection tracing method and image detection tracing program | |
JP5247419B2 (en) | Imaging apparatus and subject tracking method | |
US10885348B2 (en) | Information processing device, information processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140821 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150331 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151013 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151110 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5839796 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |