JP6659095B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP6659095B2 JP6659095B2 JP2015131841A JP2015131841A JP6659095B2 JP 6659095 B2 JP6659095 B2 JP 6659095B2 JP 2015131841 A JP2015131841 A JP 2015131841A JP 2015131841 A JP2015131841 A JP 2015131841A JP 6659095 B2 JP6659095 B2 JP 6659095B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional position
- candidate
- time
- interest
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.
監視カメラシステムにおいて、視野が重複している複数のカメラを用いて物体を撮影することで、物体の三次元位置を推定する手法が提案されている。この手法によれば、ステレオ視の原理に従い、位置が既知のカメラで被写体を撮影することで、カメラ画像上の被写体の位置から被写体の三次元位置が推定される。 In a surveillance camera system, there has been proposed a method of estimating a three-dimensional position of an object by photographing the object using a plurality of cameras having overlapping visual fields. According to this method, the three-dimensional position of the subject is estimated from the position of the subject on the camera image by photographing the subject with a camera whose position is known according to the principle of stereo vision.
このとき、実際には物体が存在しない三次元位置において物体が存在すると推定されることが問題となる。以下では、物体が存在する三次元位置、すなわち正しく推定された三次元位置のことを実像と呼び、物体が存在しない三次元位置、すなわち誤って推定された三次元位置のことを虚像と呼ぶ。虚像は、カメラと人物との位置関係により生じる。図2は、虚像が生じるカメラと人物との位置関係を示している。図2においては、カメラ1が人物Bを、カメラ2が人物Aと人物Bとをそれぞれ捉えている。カメラと人物とを結ぶ直線の交点が物体の三次元位置として推定されるため、カメラ1と人物Bとを結ぶ直線と、カメラ2と人物Bとを結ぶ直線との交点に実像が生じる。その一方で、カメラ1と人物Bとを結ぶ直線と、カメラ2と人物Aとを結ぶ直線との交点にも虚像が生じる。 At this time, there is a problem that it is estimated that an object exists at a three-dimensional position where the object does not actually exist. Hereinafter, a three-dimensional position where an object exists, that is, a correctly estimated three-dimensional position, is called a real image, and a three-dimensional position where no object exists, that is, a three-dimensional position that is incorrectly estimated is called a virtual image. The virtual image occurs due to the positional relationship between the camera and the person. FIG. 2 illustrates a positional relationship between a camera and a person where a virtual image occurs. In FIG. 2, camera 1 captures person B, and camera 2 captures person A and person B, respectively. Since the intersection of the straight line connecting the camera and the person is estimated as the three-dimensional position of the object, a real image is generated at the intersection of the straight line connecting the camera 1 and the person B and the straight line connecting the camera 2 and the person B. On the other hand, a virtual image also occurs at the intersection of a straight line connecting camera 1 and person B and a straight line connecting camera 2 and person A.
この問題の解決方法として、特許文献1では、像の動きの連動性に基づいて虚像を低減する方法を提案している。具体的には、虚像に連動して動く像が多いという性質を利用して、ある像に連動して動く像を計数し、計数された値が多いと像は虚像として判別される。また、特許文献2は、人物の三次元移動軌跡を求め、これらの三次元移動軌跡の断片を連結して、それぞれの人物の完全な移動軌跡を算出する方法を開示している。特許文献2の方法によれば、一定時間の長さにわたる軌跡同士を連結することにより虚像を削減することができる。 As a solution to this problem, Patent Literature 1 proposes a method of reducing a virtual image based on the interlocking of image movement. Specifically, utilizing the property that many images move in conjunction with a virtual image, images that move in conjunction with a certain image are counted, and if the counted value is large, the image is determined as a virtual image. Patent Document 2 discloses a method of obtaining a three-dimensional movement trajectory of a person, connecting the fragments of the three-dimensional movement trajectory, and calculating a complete movement trajectory of each person. According to the method of Patent Literature 2, a virtual image can be reduced by connecting trajectories over a predetermined time length.
特許文献1の方法には、カメラ数又は物体数が多いと虚像が増えるため、連動性に基づいて虚像を判別することが容易ではないという課題があった。また、特許文献2の方法は、一定時間の長さの軌跡同士を連結するため、即応性が要求される場合には利用しにくいとともに、計算量が大きくなるという課題があった。 The method of Patent Literature 1 has a problem that it is not easy to determine a virtual image based on interlocking, because the virtual image increases when the number of cameras or objects is large. In addition, the method of Patent Document 2 has a problem that it is difficult to use when responsiveness is required because the trajectories having a fixed length of time are connected to each other, and the amount of calculation increases.
本発明は、物体の三次元位置を推定する際に虚像を効果的に削減することを目的とする。 An object of the present invention is to effectively reduce virtual images when estimating a three-dimensional position of an object.
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。すなわち、
連続して撮影されたフレーム画像群を、視野が重複している複数の撮像部のそれぞれから取得する取得手段と、
前記フレーム画像群上の物体を追尾する追尾手段と、
前記物体のフレーム画像上の位置と前記複数の撮像部間の位置関係とに基づいて着目時刻における前記物体の三次元位置の候補を生成する生成手段と、
前記着目時刻における三次元位置の候補と、前記着目時刻より前の過去時刻における前記物体の三次元位置の候補とを対応付ける対応付け手段と、
前記着目時刻における三次元位置の候補が前記物体に対応する確度を示す局所対応確度と、前記過去時刻における三次元位置の候補が前記物体に対応する確度を示す積算対応確度と、に基づいて、前記着目時刻における三次元位置の候補が前記物体に対応する確度を示す積算対応確度を求める算出手段と、
前記着目時刻における三次元位置の候補のそれぞれについて、1つのフレーム画像群上で追尾されている物体に対応して記録されている前記積算対応確度を取得し、複数のフレーム画像群のそれぞれについて前記取得された積算対応確度に応じて前記三次元位置の候補の信頼度を求め、前記信頼度に基づいて前記着目時刻における前記物体の三次元位置を判定する判定手段と、
を備える。
In order to achieve an object of the present invention, for example, an image processing apparatus of the present invention has the following configuration. That is,
Acquisition means for acquiring a group of continuously captured frame images from each of a plurality of imaging units having overlapping visual fields,
Tracking means for tracking an object on the frame image group;
Generating means for generating a candidate for a three-dimensional position of the object at a time of interest based on a position on the frame image of the object and a positional relationship between the plurality of imaging units;
Associating means for associating the candidate of the three-dimensional position at the time of interest with the candidate of the three-dimensional position of the object at a past time before the time of interest;
Based on the local correspondence accuracy indicating the probability that the candidate of the three-dimensional position at the time of interest corresponds to the object, and the integration correspondence accuracy indicating the probability that the candidate of the three-dimensional position at the past time corresponds to the object, Calculation means for calculating an integrated correspondence accuracy indicating a probability that the candidate of the three-dimensional position at the time of interest corresponds to the object,
For each of the candidates for the three-dimensional position at the time of interest, the integration correspondence accuracy recorded corresponding to the object tracked on one frame image group is obtained, and for each of the plurality of frame image groups, Determining the reliability of the candidate of the three-dimensional position according to the acquired integration correspondence accuracy, determining means for determining the three-dimensional position of the object at the time of interest based on the reliability ,
Is provided.
本発明によれば、物体の三次元位置を推定する際に虚像を効果的に削減することができる。 According to the present invention, it is possible to effectively reduce virtual images when estimating the three-dimensional position of an object.
以下、本発明の実施形態について説明する。以下では人物を検出対象とする場合について説明するが、検出対象は他の物体であってもよい。 Hereinafter, embodiments of the present invention will be described. Hereinafter, a case will be described in which a person is a detection target, but the detection target may be another object.
図3は、本実施形態に係る画像処理装置100のハードウェア構成例を示す。撮像素子301は撮像部に相当し、光学的な被写体像を電気信号に変換する。撮像素子301としては、例えばCCD又はCMOS等を用いることができる。信号処理回路302は、撮像素子301から得られた時系列の電気信号をデジタル信号に変換する。撮像素子301及び信号処理回路302により、被写体像を含む画像を生成することができる。以下の説明においては、画像処理装置100は複数のカメラを有しており、それぞれのカメラが撮像素子301を備えているものとする。
FIG. 3 illustrates a hardware configuration example of the image processing apparatus 100 according to the present embodiment. The
CPU303は、ROM304に格納されている制御プログラムを実行することにより、画像処理装置100全体の制御を行う。より具体的には、CPU303が制御プログラムを実行することにより、図1に示される各機能が実現され、及び後述するフローチャートに示される各処理が行われる。ROM304は、CPU303が実行する制御プログラム及び各種パラメータデータを格納する記憶媒体である。RAM305は、画像及び各種情報を記憶する。また、RAM305は、CPU303のワークエリア、又はデータの一時待避領域として機能する。ディスプレイ306は画像を表示する。
The
画像処理装置100の構成は図3に示すものには限られない。例えば、画像処理装置100は汎用のPCを用いて実現することもできる。この場合、画像処理装置100が撮像素子301、信号処理回路302及びディスプレイ306を有する必要はない。一実施形態において、撮像素子301及び信号処理回路302はカメラのような撮像装置に含まれ、この撮像装置は画像処理装置100と通信可能である。このような実施形態において画像処理装置100は、2つ以上の撮像素子301のそれぞれにより得られた電気信号を取得することができる。
The configuration of the image processing apparatus 100 is not limited to that shown in FIG. For example, the image processing apparatus 100 can be realized using a general-purpose PC. In this case, the image processing device 100 does not need to include the
また、コンピュータ等の処理装置において、CPU303のようなプロセッサが、ネットワーク又は記憶媒体を介して取得したソフトウェア(プログラム)を実行することにより、図1に示される機能及び後述するフローチャートに示す各処理を実現してもよい。一方で、これらの機能及び処理のうち1以上を、電子回路等の専用のハードウェアを用いて実現することもできる。例えば、画像処理装置100は物体検出専用のハードウェアで構成された物体検出専用装置であってもよい。
In a processing device such as a computer, a processor such as a
画像処理装置100の機能構成を図1に示す。画像処理装置100は、情報保持部103、物体追尾部102、位置記憶部123、確度算出部109及び位置確定部115を備える。画像処理装置100はさらに、画像取得部101、位置生成部104、位置併合部124、対応記憶部125、位置更新部119、位置削除部122及び表示制御部126を備える。
FIG. 1 shows a functional configuration of the image processing apparatus 100. The image processing apparatus 100 includes an
以下の説明においては、画像処理装置100は、視野が重複している2台のカメラを有しているものとする。上述のように、それぞれのカメラは撮像素子301を備えている。もっとも、カメラの台数は2台以上であれば特に制限されない。
In the following description, it is assumed that the image processing apparatus 100 has two cameras having overlapping visual fields. As described above, each camera includes the
情報保持部103は、キャリブレーションを行うことにより得られた各カメラの内部パラメータ及び位置姿勢に関する情報を保持する。キャリブレーション方法としては公知の方法を採用することができる。例えば、環境中に設置されたキャリブレーションボードをカメラで撮像することにより得られた画像を用いて、各カメラの内部パラメータを求めることができる。具体的な方法としては、Zhengyou Zhang. "A flexible New Technique for Camera Calibration", IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(11):1330-1334, 2000.に記載の方法が挙げられる。その後、環境中に設置された位置姿勢が既知であるキャリブレーションマーカーをカメラで撮像することにより得られた画像を用いて、各カメラの位置姿勢を推定することができる。
The
別の方法として、カメラによって撮像された画像からコーナーやSIFT特徴等の特徴点を抽出し、それぞれの画像から抽出された特徴点を対応づけることにより、カメラの位置姿勢を推定する方法を用いることもできる。具体的な方法としては、Pierre Moulon, Pascal Monasse, and Renaud Marlet. "Adaptive structure from motion with a contrario model estimation", Computer Vision - ACCV 2012: 11th Asian Conference on Computer Vision, Part IV, pp. 257-270, 2013.に記載の方法が挙げられる。また、カメラの内部パラメータと位置姿勢とを同時に求めてもよい。 As another method, a method of extracting a feature point such as a corner or a SIFT feature from an image captured by a camera and associating the feature points extracted from each image with a method of estimating the position and orientation of the camera is used. Can also. As a specific method, Pierre Moulon, Pascal Monasse, and Renaud Marlet. "Adaptive structure from motion with a contrario model estimation", Computer Vision-ACCV 2012: 11th Asian Conference on Computer Vision, Part IV, pp. 257-270 , 2013. Further, the camera internal parameters and the position and orientation may be obtained at the same time.
画像取得部101は、連続して撮影されたフレーム画像群を複数の撮像部のそれぞれから取得する。例えば、画像取得部101は、各カメラから、連続して撮影されたフレーム画像群で構成される映像を取得することができる。本実施形態においては2台のカメラが用いられるため、画像取得部101は2つの映像を取得する。画像処理装置が備える各部は、ほぼ同時に各カメラにより撮像された複数のフレーム画像を参照して処理を行う。
The
物体追尾部102は、画像取得部101が取得したフレーム画像群上の物体を追尾する。例えば、物体追尾部102は、画像取得部101により取得されたそれぞれのフレーム画像に対して追尾処理を行うことができる。この結果、追尾対象物体の画像領域がそれぞれのフレーム画像から検出される。本実施形態では人物の追尾が行われるため、物体追尾部102は、画像から人物領域を抽出し、着目時刻の画像から抽出された人物領域と、同一の人物に関して過去の画像から抽出された人物領域と、を対応付ける。こうして、複数の時刻にわたって同一人物を追尾することができる。追尾処理の方法としては公知の方法を用いることができる。例えば、連続する画像のそれぞれに対して人物検出処理を行い、それぞれの画像から検出された人物をマッチングスコアに基づいて対応づけることにより、人物追尾を行うことができる。具体的な方法としては、M. D. Breitenstein et al. "Robust tracking-by-detection using a detector confidence particle filter", 2009 IEEE 12th International Conference on Computer Vision (ICCV), pp. 1515-1522.に記載の方法が挙げられる。
The
物体追尾部102による追尾処理の結果、それぞれの画像に含まれる追尾対象物体の二次元位置と、追尾対象物体の識別子とのセットが得られる。以下では、追尾対象物体の画像領域のことを追尾結果又は単に物体と呼び、追尾対象物体の識別子のことを追尾結果の識別子と呼ぶ。本実施形態においては、それぞれの画像に含まれる人物の二次元位置と、人物の識別子とのセットが得られる。より具体的には、それぞれの画像に含まれる人物領域の二次元位置と、人物領域の識別子とのセットが得られる。本実施形態において人物領域は矩形領域であり、人物領域の二次元位置としては矩形領域の代表点座標(x,y)、矩形領域の高さh、及び矩形領域の幅wが得られる。代表点座標は、例えば検出された顔領域の中心座標、又は矩形領域の中心座標等でありうる。また、追尾結果の識別子として、2D追尾ラベルiが得られる。2D追尾ラベルiは、それぞれのカメラについて、画像中で追尾されている人物を識別するための符号である。同じカメラにより得られた画像において、異なる人物に対しては異なる2D追尾ラベルiが付されるように、2D追尾ラベルiは決定される。
As a result of the tracking processing by the
位置記憶部123は、三次元位置の情報を記憶する。詳細は後述する。
The
位置生成部104は、物体のフレーム画像上の位置と複数の撮像部間の位置関係とに基づいて着目時刻における物体の三次元位置の候補を生成する。例えば、位置生成部104は、物体追尾部102による追尾処理により得られた人物の二次元位置に基づいて、三次元位置の候補を新規に生成することができる。具体的には、位置生成部104は、それぞれの画像から検出された人物の二次元位置を対応付けることにより、三次元位置の候補を作成する。三次元位置とは三次元空間中の人物の位置を示すものであり、座標(x,y,z)で表される。また、位置生成部104は、三次元位置の候補に対して、識別子と、属性情報とを割り当てる。以下では、三次元位置の候補を単に三次元位置と呼ぶことがある。
The
識別子とは、生成された三次元位置の候補を識別するための符号であり、例えば3D追尾ラベルjを用いることができる。異なる三次元位置に対しては異なる3D追尾ラベルjが付されるように、3D追尾ラベルjは決定される。また、属性情報とは、三次元位置の性質を表す値又は符号である。本実施形態においては、三次元位置に対応する追尾結果の属性(物体の属性)を用いて三次元位置の属性が決定される。例えば、人物の色(色属性)を属性として用いることができる。別の実施形態においては、色属性の代わりに、人物の年齢、性別、身長、向き若しくは大きさ、又は追尾結果から抽出した特徴量等を、属性として用いることができる。具体的な一例として、位置生成部104は、三次元位置の候補を生成する際に参照された各フレーム画像上の追尾結果から特徴量を抽出し、三次元位置の属性として、各フレーム画像について抽出された特徴量の統計量、例えば平均値、を算出することができる。
The identifier is a code for identifying the generated three-dimensional position candidate, and for example, a 3D tracking label j can be used. The 3D tracking label j is determined so that different 3D tracking labels j are assigned to different three-dimensional positions. The attribute information is a value or a code representing the property of the three-dimensional position. In the present embodiment, the attribute of the three-dimensional position is determined using the attribute of the tracking result (the attribute of the object) corresponding to the three-dimensional position. For example, the color (color attribute) of a person can be used as an attribute. In another embodiment, instead of the color attribute, the age, gender, height, direction, or size of the person, a feature amount extracted from the tracking result, or the like can be used as the attribute. As a specific example, the
位置生成部104は、対応付け部105、位置推定部106及び属性抽出部107を備える。対応付け部105は、物体追尾部102により追尾されている人物を画像間で対応付ける。位置推定部106は、対応付け部105により対応付けられた人物の三次元位置の候補を生成する。属性抽出部107は、対応付け部105により対応付けられた人物の属性を取得する。これらの詳細については後に説明する。
The
位置記憶部123は、三次元位置の情報を記憶する。例えば、位置記憶部123は、位置生成部104により生成された三次元位置の候補と、この三次元位置についての3D追尾ラベルjと、この三次元位置についての属性と、のセットを記憶することができる。
The
位置併合部124は、着目時刻における三次元位置の候補と、着目時刻より前の過去時刻における物体の三次元位置の候補とを対応づける。本実施形態においては、位置併合部124は、物体のフレーム画像上の位置と複数の撮像部間の位置関係とに基づいて生成された着目時刻における三次元位置の候補と、過去時刻における三次元位置の候補と、を併合する。こうして、位置併合部124は、着目時刻における三次元位置の候補を過去時刻における三次元位置の候補と対応づける。
The
例えば、位置併合部124は、位置生成部104により生成された複数の三次元位置の候補を1つに併合することができる。この処理により、同一人物に対応すると判定された三次元位置同士が併合される。また、この処理の結果、着目時刻における三次元位置の候補と、着目時刻より前の過去時刻における物体の三次元位置の候補と、の対応付けが実現できる。もっとも、三次元位置を併合することにより対応付けを行うことは必ずしも必須ではなく、着目時刻における三次元位置の候補と過去時刻における三次元位置の候補とが同一人物に対応すると判定されたことを示す情報を記録することもできる。
For example, the
位置生成部104による処理の結果、同一人物の三次元位置が複数生成されることがある。また、図4に示す処理全体により生じる推定誤りによって、同一人物の三次元位置が複数存在することがある。そこで、位置併合部124は、同一人物の三次元位置を1つに限定するために、同一人物とみなせる複数の三次元位置を探索して1つに併合する。また、位置併合部124は、現在処理対象となっている着目時刻におけるフレーム画像を用いて生成された三次元位置の候補と、着目時刻よりも前の過去時刻におけるフレーム画像を用いて生成された三次元位置の候補と、も併合する。対応記憶部125は、位置併合部124により併合された三次元位置が同一人物であることを示す情報を記憶する。これらの詳細については後に説明する。
As a result of the processing by the
確度算出部109は、着目時刻における三次元位置の候補が物体に対応する積算対応確度を求める。この処理は、着目時刻におけるフレーム画像に基づいて求められた着目時刻における三次元位置の候補が物体に対応する確度を示す局所対応確度と、過去時刻における三次元位置の候補が物体に対応する確度を示す積算対応確度と、の双方に基づいて行われる。本実施形態において、確度算出部109は、着目時刻tのみを考慮した三次元位置jと追尾結果iとの間の対応確度(局所対応確度)と、過去のフレーム画像に基づく三次元位置jと追尾結果iとの間の対応確度(積算対応確度)とに基づいて対応確度を計算する。対応確度の計算方法については後に詳しく説明する。
The
これらの対応確度とは、三次元位置の候補が示す物体が、追尾されている物体と同一である可能性を示す指標であり、三次元位置と追尾結果とが同一人物に対応する度合いを示すものである。こうして、確度算出部109は、三次元位置と追尾結果間の対応確度を計算する。ここで、三次元位置とは位置併合部124による併合処理により得られた三次元位置のことを指し、それぞれの三次元位置を3D位置ラベルjを用いて三次元位置jと呼ぶ。また、追尾結果とは物体追尾部102による処理によりそれぞれの画像において追尾されている人物のことを指し、それぞれの追尾結果を2D位置ラベルiを用いて追尾結果iと呼ぶ。
The correspondence accuracy is an index indicating the possibility that the object indicated by the candidate of the three-dimensional position is the same as the object being tracked, and indicates the degree to which the three-dimensional position and the tracking result correspond to the same person. Things. Thus, the
確度算出部109は、距離計算部110、相違度計算部111、局所確度計算部112、積算確度計算部113及び積算確度記憶部114を備える。距離計算部110は、三次元位置と物体追尾部の結果とカメラの位置関係とから物体距離を計算する。具体的には、画像に投影された三次元位置と追尾結果の画像上の距離を計算する。相違度計算部111は、三次元位置の持つ色属性と追尾結果の人物検出領域から抽出される色属性の相違度を計算する。局所確度計算部112は、着目時刻tのみを考慮した三次元位置と追尾結果間の対応確度(局所対応確度)を計算するものであり、詳細は後述する。積算確度計算部113は、積算確度記憶部114に記憶された積算対応確度を局所確度計算部112で取得された局所対応確度で更新するものであり、詳細は後述する。積算確度記憶部114は、求められた積算対応確度を、着目時刻における三次元位置の候補が物体に対応する確度を示す積算対応確度として記録する。記録される積算対応確度は、局所対応確度を積算して得られる値に相当する。
The
位置確定部115は、積算対応確度に基づいて前目時刻における物体の三次元位置を判定する。本実施形態において位置確定部115は、記録された積算対応確度がより高い、着目時刻における三次元位置の候補を、着目時刻における物体の三次元位置に対応すると判定する。このようにして位置確定部115は、対応確度から三次元位置を確定する。本実施形態では、三次元位置の実像らしさを表わす実像信頼度を計算し、それを用いて実像であることを確定する。さらに三次元位置と追尾結果の対応関係を求める。位置確定部115は、信頼度算出部116、位置選択部117及び結果選択部118を備える。信頼度算出部116は、三次元位置の実像らしさを表わす実像信頼度を計算する。位置選択部117は、実像信頼度が大きな三次元位置を求め、実像として確定する。結果選択部118は、三次元位置に対応する追尾結果を確定する。これらの処理の詳細は後述する。
The position determination unit 115 determines the three-dimensional position of the object at the previous eye time based on the integration correspondence accuracy. In the present embodiment, the position determination unit 115 determines that the candidate of the three-dimensional position at the time of interest that has the higher accumulated integration correspondence accuracy corresponds to the three-dimensional position of the object at the time of interest. In this way, the position determination unit 115 determines the three-dimensional position from the correspondence accuracy. In the present embodiment, the real image reliability indicating the real image likelihood of the three-dimensional position is calculated, and the real image reliability is determined using the calculated reliability. Further, the correspondence between the three-dimensional position and the tracking result is obtained. The position determination unit 115 includes a
位置更新部119は、位置確定部115で求めた三次元位置と追尾結果の対応関係を用いて、三次元位置及び属性を更新する。位置更新部119は、座標更新部120及び属性更新部121を備える。座標更新部120及び属性更新部121は、それぞれ三次元位置及びそれが持つ属性を更新する。位置削除部122は、不要な三次元位置を削除する。表示制御部126は、物体の検出結果や三次元位置をカメラ画像とともにディスプレイに表示させる。
The
以下で、図4のフローチャートを参照して、画像処理装置100の動作について説明する。ステップS401においては、上述のようにキャリブレーションを行うことにより、各カメラの内部パラメータ及び位置姿勢が推定され、これらの情報が情報保持部103に保持される。ステップS402において画像取得部101は、上述のように各カメラからフレーム画像を取得する。以下では、画像取得部101は時刻tにおけるフレーム画像を取得するものとする。ステップS403において物体追尾部は、上述のように人物追尾処理を行い、それぞれの追尾結果に代表点座標(x,y)、高さh、幅w、及び2D追尾ラベルiを割り当てる。
Hereinafter, the operation of the image processing apparatus 100 will be described with reference to the flowchart of FIG. In step S401, the internal parameters and the position and orientation of each camera are estimated by performing the calibration as described above, and the information is held in the
ステップS404において、位置生成部104は、上述のように人物の三次元位置の候補を生成し、位置記憶部123に三次元位置の情報を格納する。ステップS404の処理の詳細について、図5を参照して説明する。ステップS501において、位置推定部106は、ある画像から検出された追尾結果が、他の画像のどの追尾結果に対応するかを探索する。画像間での追尾結果の対応付け方法は特に限定されないが、例えばエピポーラ幾何を用いる方法が挙げられる。以下では、エピポーラ幾何を用いて追尾結果を対応づける方法について説明する。説明のために、以下ではカメラ1及びカメラ2の2つのカメラが用いられるものとし、一方のカメラにより撮像された画像をカメラ画像1、他方のカメラにより撮像された画像をカメラ画像2と呼ぶ。
In step S404, the
図6(A)はカメラ画像1を示す。カメラ画像1には、人物Aが映っている。情報保持部103は、それぞれのカメラの相対的位置姿勢及び内部パラメータを示す情報を有しているため、この情報を参照して、カメラ画像1において所定の位置に映っている人物Aは、カメラ画像2においてどの位置に映るのかを知ることができる。具体的には、人物Aがカメラ画像2に映っている場合、その位置はエピポーラ線と呼ばれる直線上のどこかになる。
FIG. 6A shows a camera image 1. The camera image 1 shows the person A. Since the
カメラ1,2の位置姿勢及び内部パラメータから得られる、カメラ画像1とカメラ画像2との間での位置関係の情報を含む行列である基礎行列をFとする。さらに、カメラ画像1における人物Aの次元座標を表わすベクトルをxとする。すると、従来より知られているように、ると、エピポーラ線lは次式で表わされる。
対応付け部105は、カメラ画像2において、代表点とエピポーラ線間の距離が閾値以下となる人物を、人物Aに対応する人物として判定する。例えば、図6において、人物Aには、人物B及び人物Cが対応する。もっとも、人物Aと同一の人物はカメラ画像2中にはせいぜい1人しかいないから、人物Bと人物Cとの少なくとも一方は、人物Aに対応する人物として誤検出されている。
The associating
ステップS502において位置推定部106は、ステップS501で対応づけられた人物の組に基づいて、この人物の三次元位置を推定する。この推定は、三角測量の原理に従って行うことができる。例えば、三次元空間中において、カメラAの光学中心から人物Aの代表点の方向へと向かう直線と、カメラBの光学中心から人物Bの代表点の方向へと向かう直線と、の交点を、同一人物と推定される人物A,Bの推定三次元位置として取得することができる。具体例としては、位置推定部106は、図7に示すように、各カメラ画像における人物の代表点の座標とカメラの中心座標とを結ぶ三次元空間中の直線を取得する。そして、位置推定部106は、複数のカメラから得られたこれらの直線が交差する座標を取得する。厳密にはこれらの直線が交差することは稀であるから、位置推定部106は、交点の座標の代わりに、これらの直線の共通垂線の中点座標を人物の推定三次元位置として取得することができる。
In step S502, the
ステップS503において属性抽出部107は、ステップS501で対応づけられた人物の組について属性を取得する。本実施形態において、属性抽出部107は、それぞれのカメラ画像に含まれる追尾結果の属性を取得し、得られた属性値に基づいて人物の組についての属性を取得する。具体例としては、属性抽出部107は、カメラ画像1における人物Aの追尾結果の色属性と、カメラ画像2における人物Bの追尾結果の色属性とを計算することができる。この色属性は、例えば追尾結果の色の平均でありうる。そして、属性抽出部107は、それぞれの追尾結果の色属性の平均を、人物A,Bについての色属性として用いることができる。
In step S503, the
別の実施形態において対応付け部105は、エピポーラ幾何の代わりに、又はエピポーラ幾何に加えて、追尾結果の属性を参照して人物の対応付けを行うこともできる。具体例としては、各追尾結果の属性の誤差が閾値以下である場合に、各人物を対応づけることができる。この場合、ステップS501の前に、属性抽出部107は、各追尾結果の属性(例えば色属性)を取得することができる。また、ステップS503において属性抽出部107は、既に求められている、対応するカメラ画像に含まれる追尾結果の色属性を平均することにより、人物の色属性を取得することができる。
In another embodiment, the associating
ステップ404では、2台のカメラ間での対応付けについて説明した。しかしながら、3台以上のカメラを用いる場合も、同様に対応付けを行うことができる。例えば、複数のカメラから選択された2台のカメラの組み合わせのそれぞれについて、対応付け及び三次元位置の候補の生成を行うことができる。また、多視点の幾何拘束を用いて対応付け及び三次元位置の候補の生成を行うこともできる。 Step 404 has described the association between the two cameras. However, when three or more cameras are used, the association can be similarly performed. For example, for each combination of two cameras selected from a plurality of cameras, association and generation of three-dimensional position candidates can be performed. Also, correspondence and generation of three-dimensional position candidates can be performed using geometric constraints of multiple viewpoints.
ステップS404によれば、ステップS403で検出された追尾結果に基づいて新しい三次元位置が作成される。この処理により、以前のフレーム画像では検出されていない新しい実像候補を探し出すことができる。 According to step S404, a new three-dimensional position is created based on the tracking result detected in step S403. By this process, a new real image candidate that has not been detected in the previous frame image can be found.
ステップS405において位置併合部124は、上述のように、同一人物に対応すると判定される三次元位置同士を1つに併合する。本実施形態では、三次元位置同士の距離が短い場合にそれぞれの三次元位置は同一人物を表すものとみなし、位置併合部124はそれぞれの三次元位置を併合する。具体例としては、位置併合部124は、互いの距離が一定値以下である三次元位置を探索し、距離が短い三次元位置同士のグループを作成する。こうして1つのグループに入れられた三次元位置が併合される。位置併合部124は、そして、それぞれのグループについて三次元位置の平均座標をもとめ、これを併合後の三次元位置の座標とする。
In step S405, the
本実施形態においては、着目時刻のフレーム画像に基づいて位置生成部104により生成された三次元位置と、過去のフレーム画像に基づいて位置生成部104により生成された三次元位置との距離が短い場合も、それぞれの三次元位置を併合する。具体例としては、位置併合部124は、前回のステップS405により過去のフレーム画像を参照して得られた併合後の三次元位置と、今回のステップS404において着目時刻のフレーム画像を参照して生成された三次元位置の候補と、を併合することができる。別の実施形態においては、過去のフレーム画像に基づいて過去のステップS404において生成された三次元位置の候補と、着目時刻のフレーム画像に基づいて今回のステップS404において生成された三次元位置の候補と、を併合することもできる。
In the present embodiment, the distance between the three-dimensional position generated by the
併合後の三次元位置の属性及び3D追尾ラベルjとしては、併合前のいずれかの三次元位置のものが採用される。本実施形態においては、最も古い時刻から存在する三次元位置の属性及び3D追尾ラベルjが採用される。このような構成は、三次元位置に生成された時刻を示す情報を付加することにより実現できる。しかしながら、他の採用基準を用いることもできる。位置併合部124は、さらに、それぞれ異なる物体に対応すると判定された過去時刻における2以上の三次元位置の候補を併合した場合、2以上の三次元位置が同一物体に対応することを示す情報を記録することができる。例えば、位置併合部124は、採用されなかった3D追尾ラベルを有する三次元位置と、採用された3D追尾ラベルを有する三次元位置とが、同一人物を表すことを示す情報を記録することができる。具体例としては、位置併合部124は、これらの3D追尾ラベルが同一であることを示す情報を対応記憶部125に記録することができる。
As the attribute of the three-dimensional position after merging and the 3D tracking label j, any one of the three-dimensional positions before merging is adopted. In the present embodiment, the attribute of the three-dimensional position existing from the oldest time and the 3D tracking label j are adopted. Such a configuration can be realized by adding information indicating the time generated at the three-dimensional position. However, other recruitment criteria can be used. The
本実施形態では距離が短い三次元位置同士を併合したが、併合方法はこの方法には限られず、他の基準に従って併合する三次元位置を決定することもできる。例えば、着目時刻における三次元位置の候補と過去時刻における三次元位置の候補との間の距離を用いることができる。また、着目時刻における三次元位置の候補に対応する物体の属性と過去時刻における三次元位置の候補に対応する物体の属性との相違度を用いることもできる。これらのうちの少なくとも一方に基づいて、着目時刻における三次元位置の候補と過去時刻における三次元位置の候補とを併合することができる。例えば、属性が類似する三次元位置同士を併合することもできるし、三次元位置間の距離と属性の相違とに基づいて併合する三次元位置を決定することもできる。ここで、現在時刻又は過去時刻における三次元位置の候補に対応する物体とは、三次元位置の候補を生成する際に参照された各フレーム画像上の物体(追尾結果)であってもよい。一方で、過去時刻における三次元位置の候補に対応する物体は、三次元位置の候補に対応する積算対応確度が所定値以上でありかつ積算対応確度が最も高い物体としてフレーム画像毎に選択された物体(追尾結果)であってもよい。 In the present embodiment, the three-dimensional positions with a short distance are merged. However, the merging method is not limited to this method, and the three-dimensional position to be merged can be determined according to other criteria. For example, the distance between the candidate of the three-dimensional position at the time of interest and the candidate of the three-dimensional position at the past time can be used. Further, the degree of difference between the attribute of the object corresponding to the candidate of the three-dimensional position at the time of interest and the attribute of the object corresponding to the candidate of the three-dimensional position at the past time can also be used. Based on at least one of these, the candidate of the three-dimensional position at the time of interest and the candidate of the three-dimensional position at the past time can be merged. For example, three-dimensional positions with similar attributes can be merged, or the three-dimensional positions to be merged can be determined based on the distance between the three-dimensional positions and the difference in attributes. Here, the object corresponding to the candidate of the three-dimensional position at the current time or the past time may be an object (tracking result) on each frame image referred to when generating the candidate of the three-dimensional position. On the other hand, the object corresponding to the candidate of the three-dimensional position at the past time is selected for each frame image as the object whose integration corresponding accuracy corresponding to the candidate of the three-dimensional position is equal to or more than the predetermined value and whose integration corresponding accuracy is the highest. It may be an object (tracking result).
ステップS405によれば、同一人物である可能性のある複数の実像候補を1つに絞り込むことができる。この処理により、実像の特定精度の向上が見込まれる。また、冗長な三次元位置を削除することにより、計算量削減の効果が見込まれる。 According to step S405, a plurality of real image candidates that may be the same person can be narrowed down to one. This processing is expected to improve the accuracy of specifying the real image. Further, by removing redundant three-dimensional positions, an effect of reducing the amount of calculation is expected.
ステップS406で確度算出部109は、上述のように、三次元位置と追尾結果間の対応確度を計算する。ステップS406の詳細を図8のフローチャートを参照して説明する。本実施形態においては着目時刻における三次元位置の候補と過去時刻における三次元位置の候補とを併合して得られた三次元位置jのそれぞれについて対応確度が計算される。しかしながら、着目時刻における三次元位置の候補、又は着目時刻における複数の三次元位置の候補を併合して得られる三次元位置の候補、のそれぞれについて対応確度が計算されてもよい。
In step S406, the
ステップS801において距離計算部110は、図9(a)に示すように、三次元位置jのそれぞれを、それぞれのカメラ画像に投影する。次にステップS802で距離計算部110は、図9(b)に示すように、カメラ画像に投影された三次元位置jと追尾結果iとの画像上の距離を計算する。例えば、カメラ画像1上で人物A,Bが追尾されており、カメラ画像2上で人物C,Dが追尾されている場合について考える。この場合、まずカメラ画像1に投影された三次元位置jと人物Aの追尾結果との距離、及びカメラ画像1に投影された三次元位置jと人物Bの追尾結果との間の距離が計算される。また、カメラ画像2に投影された三次元位置jと人物Cの追尾結果との間の距離、及びカメラ画像2に投影された三次元位置jと人物Dの追尾結果との間の距離も計算される。また、これらの計算がそれぞれの三次元位置jについて行われる。
In step S801, the
ステップS803で相違度計算部111は、三次元位置jの持つ属性と追尾結果iの属性との相違度を計算する。ここで、追尾結果iの属性とは、追尾結果iに対応する人物検出領域から抽出された属性のことを指す。本実施形態において、三次元位置jの持つ属性、及び追尾結果iの属性は色属性のことを指す。また、本実施形態において、三次元位置jの持つ色属性と追尾結果iの色属性との相違度としては、三次元位置jの持つ色属性のRGB値と追尾結果iの色属性のRGB値との2乗誤差を用いる。カメラ画像1上で人物A,Bが追尾されており、カメラ画像2上で人物C,Dが追尾されている上記の場合、三次元位置jと、人物A,B,C,Dのそれぞれとの間で相違度が計算される。また、これらの計算がそれぞれの三次元位置jについて行われる。
In step S803, the
ステップS804で局所確度計算部112は、三次元位置jと追尾結果iが対応している確度を表す局所対応確度を求める。この際、着目時刻におけるフレーム画像上での着目時刻における三次元位置の候補に対応する位置と物体の位置との間の距離と、着目時刻における三次元位置の候補に対応する物体の属性と物体の属性との相違度と、の少なくとも一方を用いることができる。具体的な例としては、局所確度計算部112は、ステップS802で計算された距離と、ステップS803で計算された属性の相違度との少なくとも一方に基づいて、局所対応確度を求めることができる。ここで、三次元位置の候補に対応する物体は、三次元位置の候補を生成する際に参照された各フレーム画像上の物体でありうる。
In step S804, the local
例えば、局所確度計算部112は、ステップS802で計算された距離と、ステップS803で計算された属性の相違度とに基づいて局所対応確度st i,jを計算する。局所確度計算部112は、距離及び相違度が小さいほど局所対応確度が大きくなるように、局所対応確度を計算することができる。具体例としては、局所確度計算部112は、ステップS802で計算された距離とステップS803で計算された相違度との重み付き平均を任意の重みを用いて求め、さらに局所対応確度として得られた重み付け平均の逆数を求めることができる。本実施形態において、局所確度計算部112は、局所対応確度を距離と相違度との双方から求めるが、どちらか1つだけを用いて局所対応確度を求めてもよい。ステップS804により、三次元位置jと、人物A,B,C,Dのそれぞれとの間で局所対応確度が計算される。また、これらの計算がそれぞれの三次元位置jについて行われる。このように、局所対応確度は、着目時刻におけるフレーム画像に基づいて求められる。
For example, the local
ステップS805で積算確度計算部113は、三次元位置jと追尾結果iとの現在の積算対応確度を、ステップS804で求めた局所対応確度st i,jと、過去に求めた積算対応確度at-1 i,jとから求める。こうして求められる現在の積算対応確度at i,jは、着目時刻tにおけるフレーム画像を用いて算出された積算対応確度に相当する。また、過去に求めた積算対応確度at-1 i,jとは、時刻t−1におけるフレーム画像を用いて算出された積算対応確度のことを指す。
Integrating
積算確度計算部113は、局所対応確度st i,j及び過去の積算対応確度at-1 i,jが大きいほど現在の積算対応確度が大きくなるように、現在の積算対応確度at i,jを求めることができる。例えば、積算確度計算部113は、現在の積算対応確度at i,jとして、局所対応確度st i,jと過去の積算対応確度at-1 i,jとの任意の重みを用いた重み付き平均を求めることができる。具体例としては、下式を用いる方法が挙げられる。
ステップS805において積算確度計算部113はさらに、閾値以上の値を有する現在の積算対応確度at i,jを、積算確度記憶部114に記録する。次回のステップS407において時刻t+1におけるフレーム画像を用いて積算対応確度at+1 i,jを算出する際には、こうして記録された積算対応確度at i,jは、過去の積算対応確度として参照される。一方で、積算確度計算部113は、現在の積算対応確度が所定値未満である場合、この積算対応確度を記録しない。三次元位置jと追尾結果iとの間の積算対応確度at i,jが閾値未満である場合には、積算確度計算部113は三次元位置jと追尾結果iとの関係は薄いものと判断し、積算対応確度at i,jを記録せず破棄する。
In step S < b> 805, the integration
ステップS407において位置確定部115は、それぞれの三次元位置jについて、三次元位置jと追尾結果iとの間の積算対応確度at i,jを用いて、実像らしさを表す実像信頼度Ljを求める。そして、位置確定部115は、実像信頼度Ljに基づいて、三次元位置jを実像を表す三次元位置として確定する。具体的には、位置確定部115は、実像として確定された三次元位置jの実像信頼度が高くなるように、三次元位置jのうちいくつかを実像を表す三次元位置として確定する。そして、位置確定部115、実像として確定した三次元位置に対して対応する追尾結果を割り当て、実像として確定された三次元位置jと追尾結果iとの対応関係を記録する。ステップS407の詳細を図10に示す。図10の処理においては、ステップS1004で処理を継続しないと判定されるまで、ステップS1001からステップS1004までが繰り返し実行される。 In step S407, for each three-dimensional position j, the position determination unit 115 uses the integrated correspondence accuracy a t i, j between the three-dimensional position j and the tracking result i to obtain a real image reliability L j representing the likelihood of a real image. Ask for. The position determination unit 115, based on the real image reliability L j, to determine the three-dimensional position j as a three-dimensional position representing the real image. Specifically, the position determination unit 115 determines some of the three-dimensional positions j as three-dimensional positions representing the real image so that the real image reliability of the three-dimensional position j determined as the real image is increased. Then, the position determination unit 115 allocates a corresponding tracking result to the three-dimensional position determined as the real image, and records the correspondence between the three-dimensional position j determined as the real image and the tracking result i. FIG. 10 shows the details of step S407. In the process of FIG. 10, steps S1001 to S1004 are repeatedly executed until it is determined in step S1004 that the process is not continued.
ステップS1001において信頼度算出部116は、三次元位置jの実像らしさを表す実像信頼度Ljを求める。信頼度算出部116は、積算対応確度at i,jがより高い追尾結果iを有しているほど実像信頼度Ljが高くなるように、三次元位置jの実像信頼度Ljを算出する。具体例としては次のような方法が挙げられる。以下の処理は、ステップS1003において実像として確定されていない全ての三次元位置jと、ステップS1003において実像に対応する追尾結果として確定されていない全ての追尾結果iを用いて行われる。
Step
まず、信頼度算出部116は、着目時刻における三次元位置の候補のそれぞれについて、1つのフレーム画像群上で追尾されている物体に対応して記録されている積算対応確度を取得する。例えば、信頼度算出部116は、それぞれのカメラ画像について、積算対応確度at i,jが最も高くなる追尾結果iを探索する。
First, the
ここでは、1つの三次元位置jに対応する、それぞれのカメラ画像上の追尾結果iは1つであるとする。例えば、カメラ画像1上で人物A,Bが追尾されており、カメラ画像2上で人物C,Dが追尾されている上記の場合であって、まだ三次元位置jが実像として確定されていない場合について説明する。この場合、信頼度算出部116は、フレーム画像群上で追尾されている1以上の物体のうち積算対応確度が最も高くなる物体を選択する。そして、フレーム画像群についての積算対応確度として、選択された物体に対応して記録されている積算対応確度が選択される。例えば、人物Aと人物Bとのうち、三次元位置jとの積算対応確度がより大きくなる人物の追尾結果が、カメラ画像1上の追尾結果として選択される。また、人物Cと人物Dとのうち、三次元位置jとの積算対応確度がより大きくなる人物の追尾結果が、カメラ画像2上の追尾結果として選択される。
Here, it is assumed that the tracking result i on each camera image corresponding to one three-dimensional position j is one. For example, in the above case where the persons A and B are tracked on the camera image 1 and the persons C and D are tracked on the camera image 2, the three-dimensional position j has not yet been determined as a real image. The case will be described. In this case, the
そして、信頼度算出部116は、複数のフレーム画像群のそれぞれについて取得された積算対応確度に応じて三次元位置の候補の実像信頼度を求める。例えば、信頼度算出部116は、三次元位置jの実像信頼度Ljとして、それぞれのカメラ画像について選択された追尾結果と三次元位置jとの間の積算対応確度を合計する。具体的には、三次元位置jの実像信頼度Ljは下式で表すことができる。
上式において、Ajは三次元位置jに対応する追尾結果の集合である。1つの三次元位置jに対応するそれぞれのカメラ画像上の追尾結果iは1つであるから、Ajに含まれる追尾結果はカメラ1つにつき最大1つであり、Ajの要素数の最大値はカメラ数である。このように、実像信頼度Ljは、それぞれの三次元位置jについて、実像信頼度Ljが高くなるように追尾結果iを仮に対応づけることにより求められる。以上のように、信頼度算出部116は、それぞれの三次元位置jについて実像信頼度Ljを求める。
In the above equation, A j is a set of tracking results corresponding to the three-dimensional position j. Maximum Since tracking result i on each camera image is one, the tracking result contained in A j is the most one per one camera 1, the A j number of elements corresponding to one of the three-dimensional position j The value is the number of cameras. As described above, the real image reliability Lj is obtained by temporarily associating the tracking result i with each of the three-dimensional positions j such that the real image reliability Lj becomes higher. As described above, the
ステップS1002において、位置選択部117は、より高い実像信頼度を有する三次元位置の候補を、着目時刻における物体の三次元位置に対応すると判定する。例えば、位置選択部117は、ステップS1001で求めた実像信頼度Ljが最大となる三次元位置jを選択する。選択された三次元位置jは、実像を表す三次元位置として確定される。こうして確定された三次元位置は、続くステップS1001では選択されない。
In step S1002, the
位置選択部117は、実像信頼度が最も高い三次元位置の候補であって、三次元位置の候補に対応する物体が所定数以上存在する三次元位置の候補を選択して、着目時刻における物体の三次元位置に対応すると判定することができる。ここで、所定数は2以上であれば特に限定されない。三次元位置の候補に対応する物体が1つしかない、すなわち三次元位置の候補に対応する物体が写っているフレーム画像が1つしかない場合、この三次元位置は正確に算出されていない可能性が高い。
The
ステップS1003において結果選択部118は、ステップS1002で選択された三次元位置jについて、ステップS1001でそれぞれのカメラ画像について選択された追尾結果を、三次元位置jに対応する追尾結果として確定する。もっとも、別の実施形態において、三次元位置jを生成するために用いられた追尾結果を、三次元位置jに対応する追尾結果として確定してもよい。このように、三次元位置の候補に対応する物体は、三次元位置の候補を生成する際に参照された各フレーム画像上の物体であってもよい。また、三次元位置の候補に対応する物体は、三次元位置の候補に対応する積算対応確度が所定値以上でありかつ積算対応確度が最も高い物体としてフレーム画像毎に選択された物体であってもよい。
In step S1003, for the three-dimensional position j selected in step S1002, the
ステップS1003においてはさらに除外処理が行われ、選択された三次元位置の候補と、三次元位置の候補に対応する物体(追尾結果)と、はステップS1002における選択処理の選択の対象から外される。例えば、こうして確定された追尾結果は、続くステップS1002では選択されない。 In step S1003, exclusion processing is further performed, and the selected three-dimensional position candidate and the object (tracking result) corresponding to the three-dimensional position candidate are excluded from selection in the selection processing in step S1002. . For example, the tracking result thus determined is not selected in the subsequent step S1002.
ステップS1004で信頼度算出部116は、未確定の三次元位置及び追尾結果のうち、対応付け可能なものが存在するか否かを判定する。存在する場合、処理はステップS1001に戻る。また、存在しない場合、図10の処理は終了する。
In step S1004, the
例えば、ステップS805では積算対応確度が高い三次元位置と追尾結果との組み合わせが記録される。一方で、三次元位置との対応確度が高い追尾結果が2以上のカメラ画像に存在することにより、三次元位置を精度良く求めることができる。このような観点から、三次元位置について、対応確度が高い追尾結果が存在するカメラ画像の数が1以下である場合に、この三次元位置については追尾結果を対応付けられないものと判定することができる。そして、全ての三次元位置について追尾結果を対応付けできない場合、未確定の三次元位置及び追尾結果のうち対応付け可能なものは存在しないと判定することができる。 For example, in step S805, a combination of a three-dimensional position having a high integration correspondence accuracy and a tracking result is recorded. On the other hand, the three-dimensional position can be obtained with high accuracy because the tracking result with high correspondence accuracy with the three-dimensional position exists in two or more camera images. From such a viewpoint, when the number of camera images for which a tracking result with high correspondence accuracy exists for a three-dimensional position is 1 or less, it is determined that the tracking result cannot be associated with the three-dimensional position. Can be. If the tracking results cannot be associated with all the three-dimensional positions, it can be determined that there is no unidentified three-dimensional position and tracking result that can be associated.
以上のステップS1001〜S1004においては、実像信頼度が最大となる三次元位置を選択及び確定し、この三次元位置に対応する追尾結果を確定する選択処理と、選択された三次元位置及び追尾結果を除外する除外処理と、が繰り返される。このように、三次元位置に割り当てる追尾結果の組み合わせを探索することで、実像として確定される三次元位置の実像信頼度を高くすることができるため、三次元位置と追尾結果との照合精度向上の効果が見込まれる。このような繰り返し処理を行うことは、仮に過去時刻における積算対応確度を考慮しない場合であっても、高い信頼性をもって実像を表す三次元位置を選択することができる点で有利である。一方で、三次元位置と追尾結果との照合方法は、実像として確定された三次元位置の実像信頼度が高くなるのであれば特に限定されない。本実施形態ではグリーディな方法で組み合わせを探索したが、他の組み合わせ探索の方法を用いてもよい。また、それぞれの三次元位置の実像信頼度の和が大きくなるように、総当たり又は他の探索方法で三次元位置に割り当てる追尾結果の組み合わせを探索してもよい。 In the above steps S1001 to S1004, a selection process for selecting and confirming the three-dimensional position at which the real image reliability is maximum, and for determining the tracking result corresponding to the three-dimensional position, the selected three-dimensional position and the tracking result And an exclusion process for excluding are repeated. As described above, by searching for a combination of tracking results assigned to the three-dimensional position, the reliability of the real image of the three-dimensional position determined as the real image can be increased, and thus the accuracy of matching between the three-dimensional position and the tracking result is improved. The effect is expected. Performing such repetitive processing is advantageous in that a three-dimensional position representing a real image can be selected with high reliability even if the integration correspondence accuracy at the past time is not considered. On the other hand, the method of comparing the three-dimensional position with the tracking result is not particularly limited as long as the real image reliability of the three-dimensional position determined as the real image increases. In this embodiment, a combination is searched for by a greedy method, but another combination search method may be used. Further, a combination of tracking results assigned to the three-dimensional position may be searched by a brute force or another search method so that the sum of the real image reliability of each three-dimensional position is increased.
以上のように、ステップS406においては、三次元位置と追尾結果とを照合することにより、これらが同一の物体であることを示す指標である積算対応確度が算出される。さらにステップS407では、この積算対応確度を用いて三次元位置が実像か否かが判定される。これらの処理により、虚像である三次元位置を効果的に削減できるため、三次元位置推定の精度向上を見込むことができる。特に、積算対応確度の算出の際には、着目時刻tのフレーム画像に基づいて得られる局所対応確度に加えて、過去の複数フレームの対応確度も参照される。このため、過去の長期間のフレーム画像に基づく三次元位置と追尾結果との照合が可能となるため、効果的に虚像を削減する効果が見込まれる。 As described above, in step S406, by comparing the three-dimensional position with the tracking result, the integrated correspondence accuracy, which is an index indicating that these are the same object, is calculated. Further, in step S407, it is determined whether or not the three-dimensional position is a real image using the integration correspondence accuracy. By these processes, the three-dimensional position, which is a virtual image, can be effectively reduced, so that improvement in the accuracy of three-dimensional position estimation can be expected. In particular, when calculating the integrated correspondence accuracy, reference is made to the past correspondence accuracy of a plurality of frames in addition to the local correspondence accuracy obtained based on the frame image at the time of interest t. For this reason, since the three-dimensional position based on the past long-term frame image can be compared with the tracking result, the effect of effectively reducing the virtual image is expected.
また、本実施形態によれば、三次元位置と追尾結果との組み合わせに結びつけて積算対応確度が記録され、記録された積算対応確度を用いて三次元位置と追尾結果との照合が行われる。このため、過去のカメラ画像自体を参照することは必須ではなく、過去の物体追尾で得られる追尾結果の位置及び2D追尾ラベル等を記憶し、毎フレーム参照することは必須ではない。このような構成によれば、記憶領域サイズを削減する効果及び計算量を削減する効果が見込まれる。 Further, according to the present embodiment, the integration correspondence accuracy is recorded in association with the combination of the three-dimensional position and the tracking result, and the three-dimensional position and the tracking result are collated using the recorded integration correspondence accuracy. Therefore, it is not essential to refer to the past camera image itself, and it is not essential to store the position of the tracking result obtained in the past object tracking, the 2D tracking label, and the like, and refer to each frame. According to such a configuration, an effect of reducing the storage area size and an effect of reducing the amount of calculation are expected.
さらに、ステップS406では、カメラ画像上に投影された三次元位置と追尾結果との画像上の距離と、属性の相違度と、の双方を用いて三次元位置と追尾結果との照合が行われた。このような構成によれば、距離と属性の相違度とのどちらかだけでは照合が難しい場合あっても、両方を用いることにより効果的に照合を行うことができる。もっとも、距離と属性の相違度との双方を用いることは必須ではなく、どちらか一方を用いて照合を行ってもよいし、別のさらなる情報を用いてもよい。 Further, in step S406, the three-dimensional position is compared with the tracking result using both the distance between the three-dimensional position projected on the camera image and the tracking result on the image and the degree of difference between the attributes. Was. According to such a configuration, even when it is difficult to perform matching only by using either the distance or the difference between the attributes, it is possible to perform effective matching by using both. However, it is not essential to use both the distance and the difference between the attributes, and the matching may be performed using one of them, or another additional information may be used.
また、ステップS407では、実像信頼度Ljが対応確度at i,jの和として計算される。そのため、三次元位置に対応する追尾結果の数が多いほど実像信頼度Ljは大きくなる。このように、一実施形態においては、積算対応確度が取得されたフレーム画像群の数が多いほど実像信頼度が大きくなるように、三次元位置の候補の実像信頼度が求められる。多視点幾何においては、より多くのカメラに物体が映っているほど対応付けの曖昧性が減少するという性質がある。本実施形態の方法では、三次元位置に対応する追尾結果の数が多いほど大きくなるように実像信頼度Ljが計算されるため、より多くのカメラ画像上の追尾結果に対応づけられた三次元位置が実像として確定されやすくなり、精度向上の効果が見込まれる。 In step S407, the real image reliability L j is calculated as the sum of the corresponding probabilities a t i, j . Therefore, real reliability as the number of tracking results corresponding to the three-dimensional position L j becomes larger. As described above, in one embodiment, the real image reliability of the candidate of the three-dimensional position is obtained such that the larger the number of frame images in which the integration correspondence accuracy is acquired, the larger the real image reliability. In a multi-view geometry, there is a property that the ambiguity of the association is reduced as more objects are reflected in more cameras. In the method of the present embodiment, since the real image reliability Lj is calculated so as to increase as the number of tracking results corresponding to the three-dimensional position increases, the third order associated with the tracking results on more camera images The original position is easily determined as a real image, and an effect of improving accuracy is expected.
ステップS408において位置更新部119は、着目時刻における物体の三次元位置に対応すると判定された三次元位置の候補に対応する物体の各フレーム画像上の位置と、複数の撮像部間の位置関係とに基づいて、物体の三次元位置を求める。例えば、位置更新部119は、ステップS407で求めた三次元位置と追尾結果の対応関係を用いて、三次元位置の座標を求めることができる。位置更新部119はさらに、着目時刻における三次元位置の候補を、対応すると判定された物体の三次元位置で更新することができる。こうして更新された三次元位置の候補は、次のステップS405における併合処理において用いることができる。
In step S408, the
例えば座標更新部120は、三次元位置に対応するそれぞれのカメラ画像上の追尾結果を用いて、三次元位置の座標を再度算出することができる。ここでは、着目時刻tにおけるフレーム画像から検出された追尾結果の座標を用いて三次元位置の座標が算出される。具体的には、ステップS502と同様に、カメラ画像上の追尾結果の代表点の座標とカメラ中心の座標とに基づいて、三角測量の原理で座標を求めることができる。3つ以上のカメラ画像上の追尾結果を用いて三次元位置の座標を算出する場合には、カメラ中心の座標とカメラ画像上の追尾結果の代表点の座標とを結ぶ三次元空間中の直線をそれぞれ求め、これらの直線に最も近い座標を求めることができる。具体例としては、これらの直線との距離の二乗和が最も小さくなる座標を、カメラ画像上の追尾結果に対応する三次元位置の座標として求めることができる。
For example, the coordinate updating
また、属性更新部121は、三次元位置の属性を、追尾結果の属性に基づいて更新することができる。例えば、それぞれのカメラ画像上の追尾結果の画素値に基づいて、三次元位置の属性を求めることができる。具体例としては、それぞれのカメラ画像上の追尾結果の画素値の平均値を三次元位置の属性として求めることができる。
Further, the
このように、ステップS408の処理によって、位置記憶部123に記録されている三次元位置の候補の座標及び属性が更新される。こうして更新された三次元位置の候補の座標及び属性は、続くステップS405における併合処理において用いることができる。もっとも、位置記憶部123に記録されている三次元位置の候補の座標及び属性を更新することは必ずしも必須ではない。
As described above, the coordinates and attributes of the three-dimensional position candidates recorded in the
ステップS409において位置削除部122は、不要な三次元位置を削除する。例えば、位置削除部122は、所定期間以上物体に対応すると判定されておらず、所定期間以上三次元位置の候補と併合されていない、過去の時刻において生成された三次元位置の候補を削除することができる。具体例としては、一定フレーム数以上の期間、ステップS407で実像として確定されなかった三次元位置を削除の対象とすることができる。不要な三次元位置を削除することで、記憶領域の削減、及びステップS405からステップS408での計算量の効果が見込まれる。
In step S409, the
ステップS410において表示制御部126は、以上の処理で求められた人物追尾結果及び三次元位置推定結果を表示機器に表示させる。例えば表示制御部126は、ステップS407で実像として確定された三次元位置と、実像として確定された三次元位置に対応する各カメラ画像上の追尾結果の位置を、表示機器に表示させることができる。
In step S410, the
図11には、表示機器に表示される画面の構成例を示す。図11に示す画面は、1つ以上のカメラ画像1101と三次元マップ1104とを含む。図11には、4台のカメラを用いた場合の表示例を示し、4つのカメラ画像1101はそれぞれのカメラで撮像された画像である。
FIG. 11 shows a configuration example of a screen displayed on the display device. The screen shown in FIG. 11 includes one or
カメラ画像1101には、ステップ403での追尾結果を示すシンボル(枠)が重畳表示される。本実施形態においては、ステップS407で実像として確定された三次元位置に対応する各カメラ画像上の追尾結果を示す枠が、それぞれのカメラ画像1101に重畳される。異なるカメラに映っている人物が同一であるか否かをユーザが容易に識別できるように、異なるカメラ画像においても同一の人物を示す枠は同じ色で表示される。
A symbol (frame) indicating the tracking result in
三次元マップ1104には、位置記憶部123から取得された人物の三次元位置を示すシンボル1103と、カメラの位置及び向きを示すシンボル1102とが、床面とともに三次元画像として表示されている。本実施形態においては、ステップS407で実像として確定された三次元位置が、三次元マップ1104に表示される。カメラ画像1101上の人物と三次元マップ1104上の人物が同一であるか否かをユーザが容易に識別できるように、カメラ画像1101上の追尾結果を示す枠と三次元マップ1104上の三次元位置を示すシンボルとは同じ色で表示される。
In the three-
ステップS405では、併合された三次元位置が同一人物を表すことを示す情報が対応記憶部125に記憶される。このように、いくつかの三次元位置が同一の人物を表すことを示す情報が対応記憶部125に記憶されている場合、これらの三次元位置が同一の人物を表すことがと分かるように三次元マップ1104を表示することができる。例えば、ステップS405においていくつかの三次元位置が併合された場合、ステップ405で併合された後の三次元位置に対応する人物を表すシンボルの近くに、併合前の三次元位置に対応する人物を表すシンボルと同じ色の印を表示することができる。このように、対応記憶部125を設けることで、異なる三次元位置が同じ人物を表すことを示すことが可能となる。このような構成は、単に追跡結果を表示する場合の他に、例えば映像解析処理により人物の長期間の三次元軌跡を算出する場合又は人物を同定する場合等に有効に適用可能である。
In step S405, information indicating that the merged three-dimensional position represents the same person is stored in the
図11の例では、人物が同一であるか否かを表現するためにそれぞれの人物を異なる色で表示した。別の例においては、視認性を高めるために、人物固有の番号、文字又は記号等を、カメラ画像1101又は三次元マップ1104に重畳表示してもよい。また、図11の例では、三次元マップ1104を用いて三次元位置を三次元空間中に表示したが、三次元位置を二次元マップ上に表示することもできる。三次元位置を三次元マップ上に表す場合には、三次元マップから人物の床面上の位置に加えて高さ方向の位置を知ることができる。特に、物体追尾を顔認識に基づいて行う場合等、人物の位置が頭部を基準として決定される場合には、三次元マップから人物の身長を知ることができる。一方で、三次元位置を二次元マップ上に表す場合には、人物の床面上での位置が視認しやすくなるという効果がある。
In the example of FIG. 11, each person is displayed in a different color to express whether or not the person is the same. In another example, a number, a character, a symbol, or the like unique to a person may be superimposed on the
また、三次元マップ1104の視点は固定されていてもよいし、ユーザが視点を変更できる機構が設けられていてもよい。三次元マップ1104に表示できるものは以上で挙げたものには限られない。例えば、家具等の配置を示す見取り図を床面に重畳表示してもよいし、その他の物体を重畳表示してもよい。このようにすることで、人物と、人物の周囲にある物体との位置関係をわかりやすく提示することができる。
In addition, the viewpoint of the three-
ステップS411で、画像取得部101は、処理を継続するか否かを判定する。新たなフレーム画像をカメラから取得可能である場合、処理はステップS402に戻り、新たに取得されたフレーム画像を用いて処理が繰り返される。一方で、新たなフレーム画像をカメラから取得可能ではない場合、又は終了を示すユーザ指示があった場合、図4の処理は終了する。
In step S411, the
実像信頼度Ljを求める際には、積算対応確度at i,j以外のパラメータを参照することもできる。例えば、本実施形態においては、長期間実像として確定されなかった三次元位置は削除される。このため、三次元位置の存在時間が長いことは、追尾結果が対応づけられる頻度が高い、すなわち実像である尤もらしさが高いことを意味する。このため、三次元位置jの存在時間が長いほど実像信頼度Ljが増加するように、実像信頼度Ljを求めてもよい。一実施形態においては、より古い時刻に生成された三次元位置の候補と併合されているほど実像信頼度が大きくなるように、三次元位置の候補の実像信頼度が求められる。より古い時刻に生成された三次元位置の候補と併合されていることは、三次元位置jの存在時間が長いことを意味する。例えば、三次元位置jの存在時間をTjとすると、実像信頼度Ljを次式のように求めることができる。
本実施形態においては、積算対応確度を局所対応確度と過去の積算対応確度との和として、実像信頼度を積算対応確度の和として、それぞれ計算している。一方で、積算対応確度を局所対応確度と過去の積算対応確度との積として、実像信頼度を積算対応確度の積として、それぞれ計算してもよい。この場合、積算対応確度及び実像信頼度は尤度ではなく確率として計算できる。 In the present embodiment, the integrated correspondence accuracy is calculated as the sum of the local correspondence accuracy and the past integrated correspondence accuracy, and the real image reliability is calculated as the sum of the integrated correspondence accuracy. On the other hand, the integrated correspondence accuracy may be calculated as the product of the local correspondence accuracy and the past integrated correspondence accuracy, and the real image reliability may be calculated as the product of the integrated correspondence accuracy. In this case, the integration correspondence accuracy and the real image reliability can be calculated as probabilities instead of likelihoods.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.
101:画像取得部、102:物体追尾部、104:位置生成部、109:確度算出部、115:位置確定部、123:位置記憶部、124:位置併合部 101: image acquisition unit, 102: object tracking unit, 104: position generation unit, 109: accuracy calculation unit, 115: position determination unit, 123: position storage unit, 124: position merging unit
Claims (18)
前記フレーム画像群上の物体を追尾する追尾手段と、
前記物体のフレーム画像上の位置と前記複数の撮像部間の位置関係とに基づいて着目時刻における前記物体の三次元位置の候補を生成する生成手段と、
前記着目時刻における三次元位置の候補と、前記着目時刻より前の過去時刻における前記物体の三次元位置の候補とを対応付ける対応付け手段と、
前記着目時刻における三次元位置の候補が前記物体に対応する確度を示す局所対応確度と、前記過去時刻における三次元位置の候補が前記物体に対応する確度を示す積算対応確度と、に基づいて、前記着目時刻における三次元位置の候補が前記物体に対応する確度を示す積算対応確度を求める算出手段と、
前記着目時刻における三次元位置の候補のそれぞれについて、1つのフレーム画像群上で追尾されている物体に対応して記録されている前記積算対応確度を取得し、複数のフレーム画像群のそれぞれについて前記取得された積算対応確度に応じて前記三次元位置の候補の信頼度を求め、前記信頼度に基づいて前記着目時刻における前記物体の三次元位置を判定する判定手段と、
を備えることを特徴とする画像処理装置。 Acquisition means for acquiring a group of continuously captured frame images from each of a plurality of imaging units having overlapping visual fields,
Tracking means for tracking an object on the frame image group;
Generating means for generating a candidate for a three-dimensional position of the object at a time of interest based on a position on the frame image of the object and a positional relationship between the plurality of imaging units;
Associating means for associating the candidate of the three-dimensional position at the time of interest with the candidate of the three-dimensional position of the object at a past time before the time of interest;
Based on the local correspondence accuracy indicating the probability that the candidate of the three-dimensional position at the time of interest corresponds to the object, and the integration correspondence accuracy indicating the probability that the candidate of the three-dimensional position at the past time corresponds to the object, Calculation means for calculating an integrated correspondence accuracy indicating a probability that the candidate of the three-dimensional position at the time of interest corresponds to the object,
For each of the three-dimensional position candidates at the time of interest, the integration correspondence accuracy recorded corresponding to the object tracked on one frame image group is obtained, and for each of the plurality of frame image groups, Determining the reliability of the candidate of the three-dimensional position according to the acquired integration correspondence accuracy, determining means for determining the three-dimensional position of the object at the time of interest based on the reliability ,
An image processing apparatus comprising:
前記信頼度が最も高い三次元位置の候補であって、当該三次元位置の候補に対応する物体が所定数以上存在する三次元位置の候補を選択して、前記着目時刻における前記物体の三次元位置に対応すると判定する選択処理と、
前記選択された三次元位置の候補と、当該三次元位置の候補に対応する物体と、を前記選択処理における対象から外す除外処理と、
を繰り返すことを特徴とする、請求項1乃至9の何れか1項に記載の画像処理装置。 The determining means includes:
A candidate for the three-dimensional position having the highest reliability, and a candidate for a three-dimensional position where an object corresponding to the candidate for the three-dimensional position is present for a predetermined number or more is selected. A selection process for determining that it corresponds to the position;
The selected three-dimensional position candidate and an object corresponding to the three-dimensional position candidate, an exclusion process of excluding from the target in the selection process,
And repeating the image processing apparatus according to any one of claims 1 to 9.
連続して撮影されたフレーム画像群を、視野が重複している複数の撮像部のそれぞれから取得する取得工程と、
前記フレーム画像群上の物体を追尾する追尾工程と、
前記物体のフレーム画像上の位置と前記複数の撮像部間の位置関係とに基づいて着目時刻における前記物体の三次元位置の候補を生成する生成工程と、
前記着目時刻における三次元位置の候補と、前記着目時刻より前の過去時刻における前記物体の三次元位置の候補とを対応付ける対応付け工程と、
前記着目時刻における三次元位置の候補が前記物体に対応する確度を示す局所対応確度と、前記過去時刻における三次元位置の候補が前記物体に対応する確度を示す積算対応確度と、に基づいて、前記着目時刻における三次元位置の候補が前記物体に対応する確度を示す積算対応確度を求める算出工程と、
前記着目時刻における三次元位置の候補のそれぞれについて、1つのフレーム画像群上で追尾されている物体に対応して記録されている前記積算対応確度を取得し、複数のフレーム画像群のそれぞれについて前記取得された積算対応確度に応じて前記三次元位置の候補の信頼度を求め、前記信頼度に基づいて前記着目時刻における前記物体の三次元位置を判定する判定工程と、
を備えることを特徴とする画像処理方法。 An image processing method performed by the image processing apparatus,
An acquisition step of acquiring a group of continuously captured frame images from each of a plurality of imaging units having overlapping visual fields,
A tracking step of tracking an object on the frame image group;
A generation step of generating a candidate for a three-dimensional position of the object at a time of interest based on a position on the frame image of the object and a positional relationship between the plurality of imaging units;
An associating step of associating the candidate of the three-dimensional position at the time of interest with the candidate of the three-dimensional position of the object at a past time before the time of interest;
Based on the local correspondence accuracy indicating the probability that the candidate of the three-dimensional position at the time of interest corresponds to the object, and the integration correspondence accuracy indicating the probability that the candidate of the three-dimensional position at the past time corresponds to the object, A calculation step of obtaining an integrated correspondence accuracy indicating a probability that the three-dimensional position candidate at the time of interest corresponds to the object,
For each of the candidates for the three-dimensional position at the time of interest, the integration correspondence accuracy recorded corresponding to the object tracked on one frame image group is obtained, and for each of the plurality of frame image groups, Determining a reliability of the candidate of the three-dimensional position according to the acquired integration correspondence accuracy, a determining step of determining a three-dimensional position of the object at the time of interest based on the reliability ,
An image processing method comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015131841A JP6659095B2 (en) | 2015-06-30 | 2015-06-30 | Image processing apparatus, image processing method, and program |
US15/084,381 US9877012B2 (en) | 2015-04-01 | 2016-03-29 | Image processing apparatus for estimating three-dimensional position of object and method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015131841A JP6659095B2 (en) | 2015-06-30 | 2015-06-30 | Image processing apparatus, image processing method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017016356A JP2017016356A (en) | 2017-01-19 |
JP2017016356A5 JP2017016356A5 (en) | 2018-08-09 |
JP6659095B2 true JP6659095B2 (en) | 2020-03-04 |
Family
ID=57829253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015131841A Active JP6659095B2 (en) | 2015-04-01 | 2015-06-30 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6659095B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6789421B2 (en) * | 2018-02-08 | 2020-11-25 | 三菱電機株式会社 | Information processing equipment, tracking method, and tracking program |
CN110675426B (en) * | 2018-07-02 | 2022-11-22 | 百度在线网络技术(北京)有限公司 | Human body tracking method, device, equipment and storage medium |
JP6800509B1 (en) * | 2020-09-30 | 2020-12-16 | アースアイズ株式会社 | Shooting system and shooting method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007281792A (en) * | 2006-04-05 | 2007-10-25 | Mitsubishi Electric Corp | Dynamic management apparatus |
JP2009143722A (en) * | 2007-12-18 | 2009-07-02 | Mitsubishi Electric Corp | Person tracking apparatus, person tracking method and person tracking program |
JP2010063001A (en) * | 2008-09-05 | 2010-03-18 | Mitsubishi Electric Corp | Person-tracking device and person-tracking program |
JP6186834B2 (en) * | 2013-04-22 | 2017-08-30 | 富士通株式会社 | Target tracking device and target tracking program |
-
2015
- 2015-06-30 JP JP2015131841A patent/JP6659095B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017016356A (en) | 2017-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9877012B2 (en) | Image processing apparatus for estimating three-dimensional position of object and method therefor | |
JP6700752B2 (en) | Position detecting device, position detecting method and program | |
CN107431786B (en) | Image processing apparatus, image processing system, and image processing method | |
JP6942488B2 (en) | Image processing equipment, image processing system, image processing method, and program | |
CN104573614B (en) | Apparatus and method for tracking human face | |
KR101776620B1 (en) | Apparatus for recognizing location mobile robot using search based correlative matching and method thereof | |
US9672634B2 (en) | System and a method for tracking objects | |
JP2016099941A (en) | System and program for estimating position of object | |
JP2010176380A (en) | Information processing device and method, program, and recording medium | |
JP6454984B2 (en) | Hand position determination method and device based on depth image | |
JP7379065B2 (en) | Information processing device, information processing method, and program | |
JP2002024807A (en) | Object movement tracking technique and recording medium | |
JP2016099982A (en) | Behavior recognition device, behaviour learning device, method, and program | |
JP6894707B2 (en) | Information processing device and its control method, program | |
JP2018113021A (en) | Information processing apparatus and method for controlling the same, and program | |
JP2019114103A (en) | Object recognition processing device, object recognition processing method and program | |
US11651581B2 (en) | System and method for correspondence map determination | |
JP6659095B2 (en) | Image processing apparatus, image processing method, and program | |
JP7354767B2 (en) | Object tracking device and object tracking method | |
KR101681104B1 (en) | A multiple object tracking method with partial occlusion handling using salient feature points | |
EP3035242A1 (en) | Method and electronic device for object tracking in a light-field capture | |
JP4836065B2 (en) | Edge tracking method and computer program therefor | |
US11544926B2 (en) | Image processing apparatus, method of processing image, and storage medium | |
JP2002218449A (en) | Device for tracking moving object | |
JP6606340B2 (en) | Image detection apparatus, image detection method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180629 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180629 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190830 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200204 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6659095 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |