JP2015087904A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2015087904A
JP2015087904A JP2013225143A JP2013225143A JP2015087904A JP 2015087904 A JP2015087904 A JP 2015087904A JP 2013225143 A JP2013225143 A JP 2013225143A JP 2013225143 A JP2013225143 A JP 2013225143A JP 2015087904 A JP2015087904 A JP 2015087904A
Authority
JP
Japan
Prior art keywords
trajectory
image
img
unit
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013225143A
Other languages
Japanese (ja)
Other versions
JP6237119B2 (en
Inventor
浩志 岩淵
Hiroshi Iwabuchi
浩志 岩淵
宏之 小野寺
Hiroyuki Onodera
宏之 小野寺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Semiconductor Ltd
Original Assignee
Fujitsu Semiconductor Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Semiconductor Ltd filed Critical Fujitsu Semiconductor Ltd
Priority to JP2013225143A priority Critical patent/JP6237119B2/en
Publication of JP2015087904A publication Critical patent/JP2015087904A/en
Application granted granted Critical
Publication of JP6237119B2 publication Critical patent/JP6237119B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technique for creating an image representing the trajectory of an object from a plurality of images obtained by photographing the object in time intervals.SOLUTION: An image processor includes an extraction part for receiving a first image and a second image obtained by sequentially photographing an object, extracting a blur of the object included in the first image as a first trajectory of the object, and extracting a blur of the object included in the second image as a second trajectory of the object, an estimation part for estimating features of motions of the object at times when the first image and the second image are respectively photographed on the basis of respective image features of the first trajectory and the second trajectory extracted by the extraction part, and an interpolation part for acquiring a trajectory of the object between photographing of the first image and photographing of the second image on the basis of the features of the motions of the object estimated by the estimation part and interpolating a trajectory between the first trajectory and the second trajectory by using the acquired trajectory.

Description

本発明は、画像処理装置および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

例えば、動く物体を所定の時間間隔で撮影した複数の画像のそれぞれから物体の画像を切り出し、切り出した画像を1枚の画像に合成することで、物体の動きを表現する画像を生成する技術が提案されている(例えば、特許文献1参照)。   For example, there is a technology that generates an image that expresses the motion of an object by cutting out an image of the object from each of a plurality of images obtained by capturing a moving object at a predetermined time interval and combining the cut out images into one image. It has been proposed (see, for example, Patent Document 1).

特開2004−164563号公報JP 2004-164563 A

運動する物体を所定の時間間隔で撮影した場合に、各画像が撮影された時刻は、時間軸上で離散的に分布する。このため、撮影された複数の画像のそれぞれから切り出された物体の画像は、時間軸上に離散的に分布する各瞬間における物体を表している。したがって、各画像から切り出された物体の画像を互いに合成しても、物体が運動する過程で描く軌跡を連続的に表現する画像を生成することは困難である。   When a moving object is photographed at a predetermined time interval, the time when each image is photographed is discretely distributed on the time axis. For this reason, the image of the object cut out from each of the plurality of captured images represents the object at each moment distributed discretely on the time axis. Therefore, even if the images of the objects cut out from the respective images are combined with each other, it is difficult to generate an image that continuously represents the trajectory drawn in the process of movement of the object.

本件開示の画像処理装置および画像処理方法は、物体を時間間隔をおいて撮影した複数の画像から、物体の軌跡を表す画像を生成する技術を提供することを目的とする。   An object of the image processing apparatus and the image processing method disclosed herein is to provide a technique for generating an image representing a trajectory of an object from a plurality of images obtained by photographing the object at time intervals.

一つの観点によれば、画像処理装置は、物体を順次に撮影することで得られる第1画像と第2画像とが入力され、第1画像に含まれる物体のブレを物体の第1軌跡として抽出し、第2画像に含まれる物体のブレを物体の第2軌跡として抽出する抽出部と、抽出部によって抽出された第1軌跡および第2軌跡のそれぞれの画像の特徴に基づいて、第1画像と第2画像とのそれぞれが撮影された時刻における物体の運動の特徴を推定する推定部と、推定部により推定された物体の運動の特徴に基づいて、第1画像が撮影されてから第2画像が撮影されるまでの間における物体の軌跡を求め、求めた軌跡を用いて第1軌跡と第2軌跡との間に軌跡を補間する補間部とを有する。   According to one aspect, the image processing apparatus receives a first image and a second image obtained by sequentially photographing an object, and uses a blur of the object included in the first image as a first trajectory of the object. An extraction unit that extracts and extracts the blurring of the object included in the second image as the second trajectory of the object, and the first trajectory and the first trajectory extracted by the extraction unit, based on the characteristics of each image. Based on the motion characteristics of the object estimated by the estimation section, the estimation section estimating the motion characteristics of the object at the time when each of the image and the second image was captured, and after the first image is captured An interpolating unit that obtains the trajectory of the object until two images are captured and interpolates the trajectory between the first trajectory and the second trajectory using the obtained trajectory.

別の観点によれば、画像処理方法は、物体を順次に撮影することで得られる第1画像と第2画像との入力を受け、第1画像に含まれる物体のブレを物体の第1軌跡として抽出し、第2画像に含まれる物体のブレを物体の第2軌跡として抽出し、抽出された第1軌跡および第2軌跡のそれぞれの画像の特徴に基づいて、第1画像と第2画像とのそれぞれが撮影された時刻における物体の運動の特徴を推定し、推定された物体の運動の特徴に基づいて、第1画像が撮影されてから第2画像が撮影されるまでの間における物体の軌跡を求め、求めた軌跡を用いて第1軌跡と第2軌跡との間に軌跡を補間する。   According to another aspect, the image processing method receives an input of a first image and a second image obtained by sequentially photographing an object, and blurs the object included in the first image. And the blur of the object included in the second image is extracted as the second trajectory of the object, and the first image and the second image are extracted based on the characteristics of the extracted images of the first trajectory and the second trajectory. The object motion characteristics at the time when each of the images is photographed are estimated, and the object between the time when the first image is photographed and the time when the second image is photographed based on the estimated object motion characteristics And the trajectory is interpolated between the first trajectory and the second trajectory using the obtained trajectory.

本件開示の画像処理装置および画像処理方法は、物体を時間間隔をおいて撮影した複数の画像から、物体の軌跡を表す画像を生成することができる。   The image processing apparatus and the image processing method according to the present disclosure can generate an image representing a locus of an object from a plurality of images obtained by photographing the object at time intervals.

画像処理装置の一実施形態を示す図である。It is a figure which shows one Embodiment of an image processing apparatus. 図1に示した撮影装置によって撮影された画像の例を示す図である。It is a figure which shows the example of the image image | photographed with the imaging device shown in FIG. 図1に示した補間部による第1軌跡と第2軌跡との補間例を示す図である。It is a figure which shows the example of interpolation of the 1st locus | trajectory by the interpolation part shown in FIG. 1, and a 2nd locus | trajectory. 図1に示した画像処理装置の動作を示す図である。It is a figure which shows operation | movement of the image processing apparatus shown in FIG. 画像処理装置の別実施形態を示す図である。It is a figure which shows another embodiment of an image processing apparatus. 図2に示した物体の軌跡における画素値の変化の例を示す図である。It is a figure which shows the example of the change of the pixel value in the locus | trajectory of the object shown in FIG. 図5に示した予測部によって予測される領域の例を示す図である。It is a figure which shows the example of the area | region estimated by the prediction part shown in FIG. 図5に示した生成部によって生成される補間軌跡の例を示す図である。It is a figure which shows the example of the interpolation locus | trajectory produced | generated by the production | generation part shown in FIG. 画像処理装置を搭載したデジタルカメラのハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the digital camera carrying an image processing apparatus. 図9に示した画像処理装置の動作を示す図である。It is a figure which shows operation | movement of the image processing apparatus shown in FIG. 同じ物体の動きを示す軌跡の組を検出する処理の例を示す図である。It is a figure which shows the example of the process which detects the group of the locus | trajectory which shows the motion of the same object. 画像処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an image processing apparatus. 画像処理装置のハードウェア構成の別例を示す図である。It is a figure which shows another example of the hardware constitutions of an image processing apparatus.

以下、図面に基づいて、実施形態を説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、画像処理装置の一実施形態を示す。   FIG. 1 shows an embodiment of an image processing apparatus.

図1に示した画像処理装置10は、撮影装置GRDから画像IMG_1,…,IMG_nを受ける抽出部11と、抽出部11に接続された推定部12および補間部13を有している。抽出部11および補間部13の出力は、合成画像GSNを生成する合成装置SYNに接続される。抽出部11、推定部12および補間部13の機能および動作は、図2で説明する。   The image processing apparatus 10 illustrated in FIG. 1 includes an extraction unit 11 that receives images IMG_1,..., IMG_n from the imaging device GRD, and an estimation unit 12 and an interpolation unit 13 connected to the extraction unit 11. The outputs of the extraction unit 11 and the interpolation unit 13 are connected to a synthesizing device SYN that generates a synthesized image GSN. The functions and operations of the extraction unit 11, the estimation unit 12, and the interpolation unit 13 will be described with reference to FIG.

撮影装置GRDは、デジタルカメラなどであり、運動する物体を例えば所定の時間間隔で撮影することでn(nは2以上の整数)枚の画像IMG_1,…,IMG_nを取得し、取得した画像IMG_1,…,IMG_nを画像処理装置10に渡す。なお、撮影装置GRDは、デジタルカメラに限らず、連写機能と露光時間を調整する機能を有していれば、携帯電話やスマートフォンなどの携帯端末装置に搭載されたカメラでもよい。また、図1において各画像を示す符号において、記号“_”の後の数字は、撮影装置GRDによる撮影順序を示している。以下の説明では、画像IMG_1,…,IMG_nを互いに区別しない場合には、画像IMGと総称する。   The photographing device GRD is a digital camera or the like, and obtains n (n is an integer of 2 or more) images IMG_1,..., IMG_n by photographing a moving object at a predetermined time interval, for example, and obtains the obtained image IMG_1. ,..., IMG_n are passed to the image processing apparatus 10. Note that the photographing device GRD is not limited to a digital camera, and may be a camera mounted on a portable terminal device such as a mobile phone or a smartphone as long as it has a continuous shooting function and a function for adjusting an exposure time. Further, in the reference numerals indicating the respective images in FIG. 1, the number after the symbol “_” indicates the photographing order by the photographing device GRD. In the following description, when the images IMG_1,..., IMG_n are not distinguished from each other, they are collectively referred to as an image IMG.

撮影装置GRDにより、物体を撮影する際に用いられる露光時間は、例えば、撮影した画像IMGにおいて物体の位置が当該物体の運動により数画素程度のブレが発生する程度の時間が設定されている。なお、撮影装置GRDが用いる露光時間は、撮影装置GRDに搭載された撮像素子に露光時間中に入射する光量により、撮像素子が飽和しない程度の値に設定されることが望ましい。   The exposure time used when photographing an object by the photographing apparatus GRD is set to a time at which the position of the object in the photographed image IMG causes a blur of about several pixels due to the movement of the object. Note that the exposure time used by the imaging device GRD is preferably set to a value that does not saturate the imaging device due to the amount of light incident on the imaging device mounted on the imaging device GRD during the exposure time.

以上に説明した撮影装置GRDによって撮影された各画像IMG_1,…,IMG_nは、撮影に用いられた露光時間中に物体が動いた軌跡を、物体を示す画像のブレとして含んでいる。   Each of the images IMG_1,..., IMG_n photographed by the photographing apparatus GRD described above includes a trajectory in which the object moves during the exposure time used for photographing as a blurring of an image indicating the object.

図2は、図1に示した撮影装置GRDによって撮影された画像IMGの例を示す。図2(A)に示した画像IMG_kおよび図2(B)に示した画像IMG_k+1は、撮影装置GRDによって撮影することで得られたn枚の画像の中のk(kは、n−1以下の正の整数)番目とk+1番目に撮影された画像の例である。すなわち、画像IMG_kは、運動する物体を撮影した第1画像の一例であり、画像IMG_k+1は、第1画像よりも後に撮影された第2画像の一例である。例えば、画像IMG_k+1は、撮影装置GRDが画像IMG_kの次に撮影した画像である。   FIG. 2 shows an example of an image IMG photographed by the photographing apparatus GRD shown in FIG. An image IMG_k shown in FIG. 2A and an image IMG_k + 1 shown in FIG. 2B are k (k is n−1 or less) in n images obtained by photographing by the photographing device GRD. This is an example of images taken in the (positive integer) th and (k + 1) th. That is, the image IMG_k is an example of a first image obtained by photographing a moving object, and the image IMG_k + 1 is an example of a second image taken after the first image. For example, the image IMG_k + 1 is an image photographed after the image IMG_k by the photographing device GRD.

図2(A)に示した画像IMG_kは、物体の一例であるボールBLが、網掛けを付した領域で示した芝生LNの上をピンPINに向かって転がる過程において、画像IMG_kが撮影された際の露光時間中にボールBLが移動した長円状の軌跡Tr_kを含んでいる。図2(A)の例では、軌跡Tr_kは、露光時間の開始時に破線の円形Ps_kで示した位置にあったボールが、露光時間の終了時に破線の円形Pe_kの位置まで移動したことを示している。すなわち、図2(A)に示した軌跡Tr_kは、n枚の画像が撮影される間にボールが辿る軌跡の一部であり、第1画像に相当する画像IMG_kから抽出された第1軌跡の一例である。なお、ボールBLを示す円形と露光時間の開始時および終了時のボールBLの位置を示す円形Ps_k,Pe_kは、ボールBLの軌跡を説明するために示した要素であり、画像IMG_kには含まれない。   The image IMG_k shown in FIG. 2A is the image IMG_k taken in the process in which the ball BL, which is an example of an object, rolls on the lawn LN indicated by the shaded area toward the pin PIN. The ellipsoidal trajectory Tr_k along which the ball BL has moved during the exposure time is included. In the example of FIG. 2A, the trajectory Tr_k indicates that the ball that was at the position indicated by the dashed circle Ps_k at the start of the exposure time has moved to the position of the dashed circle Pe_k at the end of the exposure time. Yes. That is, the trajectory Tr_k shown in FIG. 2A is a part of the trajectory followed by the ball while n images are captured, and the first trajectory extracted from the image IMG_k corresponding to the first image. It is an example. Note that the circle indicating the ball BL and the circles Ps_k and Pe_k indicating the position of the ball BL at the start and end of the exposure time are elements shown for explaining the trajectory of the ball BL, and are included in the image IMG_k. Absent.

同様に、図2(B)に示した画像IMG_k+1は、ボールが芝生LNの上をピンPINに向かって転がる過程において、画像IMG_k+1が撮影された際の露光時間中にボールが移動した長円状の軌跡Tr_k+1を含んでいる。図2(B)の例では、軌跡Tr_kは、露光時間の開始時に破線の円形Ps_k+1で示した位置にあったボールが、露光時間の終了時に破線の円形Pe_k+1の位置まで移動したことを示している。すなわち、図2(B)に示した軌跡Tr_k+1は、n枚の画像が撮影される間にボールが辿る軌跡の一部であり、第2画像に相当する画像IMG_k+1から抽出された第2軌跡の一例である。なお、ボールBLを示す円形と露光時間の開始時および終了時のボールBLの位置を示す円形Ps_k+1,Pe_k+1は、ボールBLの軌跡を説明するために示した要素であり、画像IMG_k+1には含まれない。   Similarly, the image IMG_k + 1 shown in FIG. 2B is an oval shape in which the ball moves during the exposure time when the image IMG_k + 1 is photographed in the process of rolling the ball over the lawn LN toward the pin PIN. Trajectory Tr_k + 1. In the example of FIG. 2B, the trajectory Tr_k indicates that the ball that was at the position indicated by the broken-line circle Ps_k + 1 at the start of the exposure time has moved to the position of the broken-line circle Pe_k + 1 at the end of the exposure time. Yes. That is, the trajectory Tr_k + 1 shown in FIG. 2B is a part of the trajectory followed by the ball while n images are captured, and the trajectory of the second trajectory extracted from the image IMG_k + 1 corresponding to the second image. It is an example. Note that the circle indicating the ball BL and the circles Ps_k + 1 and Pe_k + 1 indicating the position of the ball BL at the start and end of the exposure time are elements shown for explaining the trajectory of the ball BL, and are included in the image IMG_k + 1. Absent.

図1に示した画像処理装置10の抽出部11は、例えば、順次に撮影された2枚の画像IMGのそれぞれから、図2に示したボールBLの動きによるボールBLの画像のブレを、ボールBLの軌跡の一部である軌跡Tr_k,Tr_k+1として抽出する。例えば、抽出部11は、図2(A)に示した画像IMG_kから、ボールBLが円形Ps_kの位置と円形Pe_kの位置との間で動いたことを示す軌跡Tr_kを抽出する。同様に、抽出部11は、図2(B)に示した画像IMG_k+1から、ボールBLが円形Ps_k+1の位置と円形Pe_k+1の位置との間で動いたことを示す軌跡Tr_k+1を抽出する。   The extraction unit 11 of the image processing apparatus 10 illustrated in FIG. 1 performs, for example, blurring of the image of the ball BL due to the movement of the ball BL illustrated in FIG. 2 from each of the two images IMG photographed sequentially. Extracted as trajectories Tr_k and Tr_k + 1 which are part of the BL trajectory. For example, the extraction unit 11 extracts a trajectory Tr_k indicating that the ball BL has moved between the position of the circle Ps_k and the position of the circle Pe_k from the image IMG_k illustrated in FIG. Similarly, the extraction unit 11 extracts a trajectory Tr_k + 1 indicating that the ball BL has moved between the position of the circle Ps_k + 1 and the position of the circle Pe_k + 1 from the image IMG_k + 1 illustrated in FIG.

抽出部11は、例えば、時系列的に撮影された複数の画像から動く物体の画像を検出する技術などを、順次に撮影された2枚の画像IMG_k、IMG_k+1に含まれる軌跡Tr_k,Tr_k+1の抽出に用いてもよい。   The extraction unit 11 extracts, for example, a technique for detecting an image of a moving object from a plurality of images photographed in time series, and extracts trajectories Tr_k and Tr_k + 1 included in two sequentially captured images IMG_k and IMG_k + 1. You may use for.

例えば、抽出部11は、図2(A),(B)に示した画像IMG_k,IMG_k+1の差を示す差分画像を生成し、生成した差分画像において、所定値以上の差分を有する画素が連結している領域を検出する。ここで、差分画像から検出された領域は、画像IMG_k,IMG_k+1のいずれかにおいて、2つの画像IMG_k、IMG_k+1との間で動かない背景(例えば、芝生LN)を示す画像の特徴とは異なる特徴を示す領域、即ち、動くボールBLを示す領域である。画像IMG_k,IMG_k+1から生成した差分画像の例では、抽出部11により、図2(A),(B)に示した軌跡Tr_kおよび軌跡Tr_k+1に対応する2つの領域が差分画像から検出される。そして、抽出部11は、差分画像から検出した2つの領域のそれぞれに対応する画像IMG_kの領域の境界の内側と外側とで画素の特徴を比較し、境界の内側と外側とで特徴が互いに異なる領域を、画像IMG_kに含まれる軌跡Tr_kとして抽出する。同様に、抽出部11は、差分画像から検出した2つの領域のそれぞれに対応する画像IMG_k+1の領域の境界の内側と外側とで特徴が互いに異なる領域を、画像IMG_k+1に含まれる軌跡Tr_k+1として抽出する。例えば、画像IMG_kにおいて、軌跡Tr_kに対応する領域は、境界の内側と外側とで特徴が互いに異なるため、抽出部11により、軌跡Tr_kとして抽出される。一方、画像IMG_kにおいて、軌跡Tr_k+1に対応する領域は、境界の内側と外側とが共に芝生LNであり、特徴が共通であるため、軌跡として抽出されない。   For example, the extraction unit 11 generates a difference image indicating a difference between the images IMG_k and IMG_k + 1 illustrated in FIGS. 2A and 2B, and pixels having a difference greater than or equal to a predetermined value are connected in the generated difference image. Detect the area that is. Here, the region detected from the difference image has a feature different from the feature of the image indicating the background (for example, lawn LN) that does not move between the two images IMG_k and IMG_k + 1 in either of the images IMG_k and IMG_k + 1. This is an area showing the moving ball BL. In the example of the difference image generated from the images IMG_k and IMG_k + 1, the extraction unit 11 detects two regions corresponding to the trajectory Tr_k and the trajectory Tr_k + 1 shown in FIGS. 2A and 2B from the difference image. Then, the extraction unit 11 compares the pixel features between the inside and outside of the boundary of the region of the image IMG_k corresponding to each of the two regions detected from the difference image, and the features are different between the inside and outside of the boundary. The region is extracted as a trajectory Tr_k included in the image IMG_k. Similarly, the extraction unit 11 extracts, as a trajectory Tr_k + 1 included in the image IMG_k + 1, a region having different characteristics between the inside and the outside of the boundary of the region of the image IMG_k + 1 corresponding to each of the two regions detected from the difference image. . For example, in the image IMG_k, the region corresponding to the trajectory Tr_k has different features on the inner side and the outer side of the boundary, and thus is extracted as the trajectory Tr_k by the extraction unit 11. On the other hand, in the image IMG_k, the region corresponding to the trajectory Tr_k + 1 is not extracted as a trajectory because the inside and the outside of the boundary are both lawn LN and the features are common.

なお、順次に撮影された2枚の画像IMGからの軌跡Tr_k,Tr_k+1の抽出に抽出部11が用いる技法は、各画像IMGにおいて移動しない背景と、各画像IMGにおいて位置が変化する物体とを峻別する技法であればどんな技法でもよい。例えば、抽出部11は、順次に撮影された複数の画像IMGにおいて、所定数の画素を含むブロック毎に求めた動きベクトルが類似している領域を検出し、検出した領域を動く物体として抽出する技術を用いてもよい。   Note that the technique used by the extraction unit 11 to extract the trajectories Tr_k and Tr_k + 1 from two images IMG photographed sequentially distinguishes a background that does not move in each image IMG and an object whose position changes in each image IMG. Any technique can be used. For example, the extraction unit 11 detects a region in which a motion vector obtained for each block including a predetermined number of pixels is similar in a plurality of images IMG taken sequentially, and extracts the detected region as a moving object. Technology may be used.

図1に示した推定部12は、画像IMGと軌跡Tr_k,Tr_k+1を示す情報とを抽出部11から受ける。推定部12は、軌跡Tr_k,Tr_k+1として抽出された領域の画像の特徴に基づいて、各画像IMG_k,IMG_k+1が撮影された時刻において、画像IMGに含まれるボールBLが示した運動の特徴を推定する。   The estimation unit 12 illustrated in FIG. 1 receives the image IMG and information indicating the trajectories Tr_k and Tr_k + 1 from the extraction unit 11. The estimation unit 12 estimates the feature of the motion indicated by the ball BL included in the image IMG at the time when the images IMG_k and IMG_k + 1 are captured based on the features of the images of the regions extracted as the trajectories Tr_k and Tr_k + 1. .

推定部12は、例えば、軌跡Tr_kまたは軌跡Tr_k+1として抽出された画像IMGの領域に含まれる画素の色または輝度を示す画素値の変化の方向と物体の運動の方向との相関関係に基づいて、画素値の変化の方向から物体の運動の方向を推定する。また、推定部12は、軌跡Tr_kまたは軌跡Tr_k+1として抽出された画像IMGの領域の推定した運動の方向の長さから、物体が画像IMGにおいて動く速さを推定する。なお、推定部12により物体の運動の特徴を推定する手法については、図5および図6を用いて後述する。   Based on the correlation between the direction of change in the pixel value indicating the color or luminance of the pixel included in the region of the image IMG extracted as the trajectory Tr_k or the trajectory Tr_k + 1 and the direction of motion of the object, for example, The direction of motion of the object is estimated from the direction of change of the pixel value. Further, the estimation unit 12 estimates the moving speed of the object in the image IMG from the estimated length of the motion direction of the region of the image IMG extracted as the trajectory Tr_k or the trajectory Tr_k + 1. A method of estimating the motion characteristics of the object by the estimation unit 12 will be described later with reference to FIGS. 5 and 6.

例えば、推定部12は、図2(A)に示した画像IMG_kから抽出された軌跡Tr_kから、矢印で示した方向Dr_kを運動の方向として推定した場合に、点Qs_k,Qe_kを軌跡Tr_kの両側の端点として特定する。同様に、推定部12は、図2(B)に示した画像IMG_k+1から抽出された軌跡Tr_k+1から、矢印で示した方向を運動の方向Dr_k+1として推定した場合に、点Qs_k+1,Qe_k+1をTr_k+1の両側の端点として特定する。また、推定部12は、軌跡Tr_kおよび軌跡Tr_k+1のそれぞれについて特定した端点間の距離を露光時間で除算することで、画像IMG_k、IMG_k+1のそれぞれが撮影された時刻において、推定された運動の方向に動くボールBLの速さを求める。そして、推定部12は、求めた方向Dr_kと速さとから、軌跡Tr_kの各端点Qs_k,Qe_kを始点とし、推定された運動の方向に沿い、軌跡Tr_kから離れる向きを持ち、推定された速さを示す2つの速度ベクトルV1_k,V2_kを求める。同様に、推定部12は、求めた方向Dr_k+1と速さとから、軌跡Tr_k+1の各端点Qs_k+1,Qe_k+1を始点とし、軌跡Tr_k+1から離れる向きを持つ2つの速度ベクトルV1_k+1,V2_k+1を求める。そして、推定部12は、求めた2組の速度ベクトル(V1_k,V2_k)、(V1_k+1,V2_k+1)を、画像IMG_k,IMG_k+1のそれぞれが撮影された時刻におけるボールBLの運動の特徴を示す情報として、図1に示した補間部13に渡す。   For example, when the estimation unit 12 estimates the direction Dr_k indicated by the arrow as the direction of motion from the trajectory Tr_k extracted from the image IMG_k shown in FIG. 2A, the points Qs_k and Qe_k are both sides of the trajectory Tr_k. Specify as the end point of. Similarly, when the estimation unit 12 estimates the direction indicated by the arrow as the motion direction Dr_k + 1 from the trajectory Tr_k + 1 extracted from the image IMG_k + 1 illustrated in FIG. 2B, the estimation unit 12 sets the points Qs_k + 1 and Qe_k + 1 to both sides of the Tr_k + 1. Specify as the end point of. Further, the estimation unit 12 divides the distance between the end points specified for each of the trajectory Tr_k and the trajectory Tr_k + 1 by the exposure time, so that the estimated direction of motion is obtained at the time when each of the images IMG_k and IMG_k + 1 is captured. Find the speed of the moving ball BL. Then, the estimating unit 12 starts from each end point Qs_k, Qe_k of the trajectory Tr_k from the obtained direction Dr_k and speed, has a direction away from the trajectory Tr_k along the estimated direction of motion, and the estimated speed Two velocity vectors V1_k and V2_k indicating Similarly, the estimation unit 12 obtains two velocity vectors V1_k + 1 and V2_k + 1 having directions from the end points Qs_k + 1 and Qe_k + 1 of the trajectory Tr_k + 1 as starting points and away from the trajectory Tr_k + 1 from the obtained direction Dr_k + 1 and speed. Then, the estimation unit 12 uses the obtained two sets of velocity vectors (V1_k, V2_k) and (V1_k + 1, V2_k + 1) as information indicating the characteristics of the motion of the ball BL at the time when each of the images IMG_k and IMG_k + 1 is captured. The data is passed to the interpolation unit 13 shown in FIG.

更に、推定部12は、軌跡Tr_kと軌跡Tr_k+1との相対位置に基づいて、2つの速度ベクトルV1_k,V2_kの一方を選択し、選択した速度ベクトルを補間部13に渡してもよい。例えば、図2(A),(B)の例では、軌跡Tr_k+1の2つの端点Qs_k+1,Qe_k+1は、軌跡Tr_kの2つの端点Qs_k,Qe_kよりも速度ベクトルV2_kで示される側にある。この場合に、推定部12は、画像IMG_kが撮影された時刻における物体の運動の方向として、図2(A)に示した速度ベクトルV2_kを特定する。ここで、画像IMG_kが撮影されてから画像IMG_k+1が撮影されるまでの期間においてボールBLの運動の特徴の変化は少ないことから、画像IMG_k,IMG_k+1が撮影されたそれぞれの時刻におけるボールBLの運動の方向はほぼ一致する。したがって、推定部12は、画像IMG_k+1の撮影時刻におけるボールBLの運動の特徴として、軌跡Tr_kと軌跡Tr_k+1との相対位置に基づいて選択した速度ベクトルV2_kに類似した向きを持つ速度ベクトルV2_k+1を選択してもよい。この場合に、推定部12は、画像IMG_k、IMG_k+1のそれぞれが撮影された際のボールBLの運動の特徴を示す情報として、図2(A)に示した速度ベクトルV2_kと図2(B)に示した速度ベクトルV2_k+1とを補間部13に渡す。   Furthermore, the estimation unit 12 may select one of the two velocity vectors V1_k and V2_k based on the relative position between the trajectory Tr_k and the trajectory Tr_k + 1, and pass the selected velocity vector to the interpolation unit 13. For example, in the example of FIGS. 2A and 2B, the two end points Qs_k + 1 and Qe_k + 1 of the trajectory Tr_k + 1 are on the side indicated by the velocity vector V2_k relative to the two end points Qs_k and Qe_k of the trajectory Tr_k. In this case, the estimation unit 12 specifies the velocity vector V2_k illustrated in FIG. 2A as the direction of the movement of the object at the time when the image IMG_k was captured. Here, since there is little change in the characteristics of the motion of the ball BL during the period from when the image IMG_k is captured to when the image IMG_k + 1 is captured, the motion of the ball BL at each time when the images IMG_k and IMG_k + 1 are captured. The directions are almost the same. Therefore, the estimation unit 12 selects a velocity vector V2_k + 1 having a direction similar to the velocity vector V2_k selected based on the relative position between the locus Tr_k and the locus Tr_k + 1 as a feature of the motion of the ball BL at the shooting time of the image IMG_k + 1. May be. In this case, the estimation unit 12 uses the velocity vector V2_k illustrated in FIG. 2A and the velocity vector V2_k illustrated in FIG. 2B as information indicating the characteristics of the motion of the ball BL when each of the images IMG_k and IMG_k + 1 is captured. The indicated velocity vector V2_k + 1 is passed to the interpolation unit 13.

図1に示した補間部13は、抽出部11から画像IMGを受け、推定部12からボールBLの運動の特徴を示す情報を受ける。補間部13は、推定部12により推定されたボールBLの運動の特徴に基づいて、第1画像に相当する画像IMG_kと第2画像に相当する画像IMG_k+1との撮影間隔で動いたボールBLの軌跡を生成する。そして、補間部13は、生成した軌跡を用いて、第1軌跡として画像IMG_kから抽出された軌跡Tr_kと第2軌跡として画像IMG_k+1から抽出された軌跡Tr_k+1との間を補間する。補間部13は、例えば、軌跡Tr_k,Tr_k+1について推定された2つの速度ベクトルV2_k,V2_k+1の方向を示す成分の平均および速さの平均を求めることで、画像IMG_k,IMG_k+1の撮影間隔におけるボールBLの速度を求める。補間部13は、求めた速度で示される方向と速さとから、画像IMG_k,IMG_k+1の撮影間隔におけるボールBLの軌跡を生成する。そして、補間部13は、生成した軌跡により、第1軌跡および第2軌跡に相当する軌跡Tr_k,Tr_k+1を接続することで補間を行う。   The interpolation unit 13 illustrated in FIG. 1 receives the image IMG from the extraction unit 11 and receives information indicating the characteristics of the motion of the ball BL from the estimation unit 12. Based on the motion characteristics of the ball BL estimated by the estimation unit 12, the interpolation unit 13 follows the trajectory of the ball BL moved at the shooting interval between the image IMG_k corresponding to the first image and the image IMG_k + 1 corresponding to the second image. Is generated. The interpolation unit 13 then interpolates between the trajectory Tr_k extracted from the image IMG_k as the first trajectory and the trajectory Tr_k + 1 extracted from the image IMG_k + 1 as the second trajectory using the generated trajectory. For example, the interpolating unit 13 obtains the average of the components indicating the directions of the two velocity vectors V2_k and V2_k + 1 estimated with respect to the trajectories Tr_k and Tr_k + 1 and the average of the velocities, so Find the speed. The interpolation unit 13 generates a trajectory of the ball BL at the shooting interval of the images IMG_k and IMG_k + 1 from the direction and speed indicated by the obtained speed. Then, the interpolation unit 13 performs interpolation by connecting the trajectories Tr_k and Tr_k + 1 corresponding to the first trajectory and the second trajectory by the generated trajectory.

図3は、図1に示した補間部13による第1軌跡と第2軌跡との補間例を示す。なお、図3に示した要素のうち、図2に示した要素と同等のものは、図2と同じ符号で示すとともに要素の説明を省略する場合がある。   FIG. 3 shows an example of interpolation between the first locus and the second locus by the interpolation unit 13 shown in FIG. 3 that are equivalent to the elements shown in FIG. 2 are denoted by the same reference numerals as those in FIG. 2 and description of the elements may be omitted.

図3(A)は、図2に示した画像IMG_k、IMG_k+1のそれぞれから第1軌跡および第2軌跡として抽出された軌跡Tr_k,Tr_k+1の間を、図1に示した補間部13により補間することで得られる補間済みの軌跡Trc_kの例を示す。図3(A)において、座標軸X,Yは、補間部13において、軌跡Tr_k,Tr_k+1の位置を互いに関連付けるために用いられる。   In FIG. 3A, interpolation is performed between the trajectories Tr_k and Tr_k + 1 extracted as the first trajectory and the second trajectory from the images IMG_k and IMG_k + 1 shown in FIG. 2, respectively, by the interpolating unit 13 shown in FIG. An example of the interpolated trajectory Trc_k obtained in (1) is shown. In FIG. 3A, coordinate axes X and Y are used in the interpolation unit 13 to associate the positions of the trajectories Tr_k and Tr_k + 1 with each other.

図3(A)に破線で囲んで示した矩形Tri_kは、速度ベクトルV2_k,V2_k+1に基づいて、補間部13により補間された、画像IMG_k,IMG_k+1の撮影間隔におけるボールBLの軌跡の例である。図3(A)に示した軌跡Tri_kは、速度ベクトルV2_k,V2_k+1から求めた速度ベクトルVi_kで示される方向に平行な1組の辺を、軌跡Tr_kの平均的な幅wで示される間隔を空けて対向させた平行四辺形である。   A rectangle Tri_k surrounded by a broken line in FIG. 3A is an example of the trajectory of the ball BL at the shooting interval of the images IMG_k and IMG_k + 1 interpolated by the interpolation unit 13 based on the velocity vectors V2_k and V2_k + 1. The trajectory Tri_k shown in FIG. 3A has a pair of sides parallel to the direction indicated by the velocity vector Vi_k obtained from the velocity vectors V2_k and V2_k + 1 with an interval indicated by the average width w of the trajectory Tr_k. Parallelograms facing each other.

また、図1に示した補間部13は、軌跡Tr_kまたは軌跡Tr_k+1を示す画像に含まれる各画素の色および輝度を示す画素値に基づいて、軌跡Tri_kを示す画像に含まれる各画素の色および輝度を示す画素値を設定することが望ましい。例えば、補間部13は、軌跡Tr_kの輪郭よりも中央部に近い位置にある複数の画素の画素値の平均値を求め、求めた平均値を用いて、軌跡Tri_kを示す画像に含まれる各画素の画素値を設定してもよい。   Further, the interpolation unit 13 illustrated in FIG. 1 performs the color and color of each pixel included in the image indicating the trajectory Tri_k based on the pixel value indicating the color and luminance of each pixel included in the image indicating the trajectory Tr_k or Tr_k + 1. It is desirable to set a pixel value indicating luminance. For example, the interpolation unit 13 obtains an average value of the pixel values of a plurality of pixels located closer to the center than the contour of the trajectory Tr_k, and uses the obtained average value for each pixel included in the image indicating the trajectory Tri_k. The pixel value may be set.

補間部13は、図3(A)に示した軌跡Tri_kを用いて、軌跡Tr_k,Tr_k+1を接続することで、軌跡Tr_kの端点Qs_kから軌跡Tr_k+1の端点Qe_k+1まで切れ目なく連続する軌跡Trc_kを生成することができる。   The interpolating unit 13 uses the trajectory Tri_k shown in FIG. 3A to connect the trajectories Tr_k and Tr_k + 1, thereby generating a continuous trajectory Trc_k from the end point Qs_k of the trajectory Tr_k to the end point Qe_k + 1 of the trajectory Tr_k + 1. be able to.

そして、図1に示した画像処理装置10は、撮影装置GRDで撮影された各画像IMGを順次に第1画像として、以上に説明した処理を行うことで、n枚の画像IMG_1,…,IMG_nが撮影された期間の物体の動きを連続的に表す軌跡を生成することができる。   Then, the image processing apparatus 10 illustrated in FIG. 1 sequentially performs the above-described processing using each image IMG captured by the imaging apparatus GRD as a first image, thereby performing n images IMG_1,..., IMG_n. It is possible to generate a trajectory that continuously represents the movement of the object during the period in which the image is captured.

例えば、補間部13は、連続して撮影された2枚の画像IMGのそれぞれを第1画像および第2画像とし、第1画像および第2画像から抽出された第1軌跡と第2軌跡との間を補間する軌跡を生成する毎に、補間した軌跡を合成装置SYNに渡してもよい。また、抽出部11は、例えば、撮影装置GRDから最初に受けた画像IMG_1を、ボールBLの背景を示す情報として合成装置SYNに渡す。   For example, the interpolating unit 13 sets each of the two images IMG taken consecutively as the first image and the second image, and calculates the first locus and the second locus extracted from the first image and the second image. The interpolated trajectory may be passed to the synthesizing device SYN every time a trajectory for interpolating the gap is generated. For example, the extraction unit 11 passes the image IMG_1 received first from the imaging device GRD to the synthesizing device SYN as information indicating the background of the ball BL.

図3(B)は、図2(A),(B)に示した軌跡Tr_k,Tr_k+1の間に補間部13で生成した軌跡Tri_kを配置することで得られた軌跡Trc_kと画像IMG_1とを、図1に示した合成装置SYNにより合成した合成画像GSNの例を示す。   FIG. 3B shows a trajectory Trc_k obtained by arranging the trajectory Tri_k generated by the interpolation unit 13 between the trajectories Tr_k and Tr_k + 1 shown in FIGS. 2A and 2B and the image IMG_1. An example of a synthesized image GSN synthesized by the synthesizing device SYN shown in FIG.

図1に示した合成装置SYNは、例えば、n枚の画像IMG_1,…,IMG_nのそれぞれである画像IMG_kとし、補間部13で生成される軌跡Tri_kを用いた補間が行われる毎に、補間された軌跡Trc_kを受ける。そして、合成装置SYNは、受けた軌跡Trc_kを順次に画像IMG_1に追加する。これにより、n枚の画像IMGの全てについての軌跡Tri_kの補間処理が完了したときに、n枚の画像IMGが撮影された期間にボールBLが芝生LNやピンPINを含む背景の中で動いた軌跡を連続的に表現する合成画像GSNを生成することができる。   The synthesizing device SYN shown in FIG. 1 is, for example, an image IMG_k that is each of n images IMG_1,..., IMG_n, and is interpolated each time interpolation is performed using the trajectory Tri_k generated by the interpolation unit 13. The trajectory Trc_k is received. Then, the synthesizing device SYN sequentially adds the received trajectory Trc_k to the image IMG_1. As a result, when the interpolation process of the trajectory Tri_k for all of the n images IMG is completed, the ball BL moves in the background including the lawn LN and the pin PIN during the period when the n images IMG were taken. A composite image GSN that continuously represents the trajectory can be generated.

なお、合成装置SYNは、図1に示したように、画像処理装置10の外部に設けられてもよいし、画像処理装置10に含まれてもよい。合成装置SYNの機能を有する構成要素を含む画像処理装置10については、図5および図9〜図10を用いて後述する。   The synthesizing device SYN may be provided outside the image processing device 10 as illustrated in FIG. 1 or may be included in the image processing device 10. The image processing apparatus 10 including components having the function of the synthesizing apparatus SYN will be described later with reference to FIGS. 5 and 9 to 10.

図4は、図1に示した画像処理装置10の動作を示す。図4に示したステップS301〜ステップS303の処理は、図1に示した画像処理装置10の動作を示すとともに、画像処理方法の例を示す。図4に示す処理は、例えば、画像処理装置10に搭載されるハードウェアによって実行されてもよいし、画像処理装置10に搭載されたプロセッサが、各処理をプロセッサに読み取り可能な形式で記載したプログラムを実行することで実現されてもよい。   FIG. 4 shows the operation of the image processing apparatus 10 shown in FIG. The processing in steps S301 to S303 shown in FIG. 4 shows the operation of the image processing apparatus 10 shown in FIG. 1 and an example of an image processing method. The processing illustrated in FIG. 4 may be executed by, for example, hardware mounted on the image processing apparatus 10 or described in a format that can be read by the processor mounted on the image processing apparatus 10 by the processor. It may be realized by executing a program.

図4に示した各処理は、例えば、最初に撮影された画像IMG_1からn−1番目に撮影された画像IMG_n−1までの各画像IMGを順次に第1画像として、画像処理装置10に含まれる抽出部11、推定部12および補間部13により繰り返し実行される。なお、図4に示した各処理は、2枚目以降の画像IMG_2,…,IMG_nが撮影装置GRDにより撮影される毎に、推定部12および補間部13により実行されてもよい。2枚目以降の画像が撮影された場合、例えば、図4に示した各処理では、新たに撮影された画像が第2画像とされ、新たに撮影された画像よりも1枚前に撮影された画像が第1画像とされる。   Each process shown in FIG. 4 is included in the image processing apparatus 10 by sequentially setting each image IMG from the first image IMG_1 taken to the image IMG_n-1 taken first to the first image as a first image, for example. The extraction unit 11, the estimation unit 12, and the interpolation unit 13 are repeatedly executed. 4 may be executed by the estimation unit 12 and the interpolation unit 13 each time the second and subsequent images IMG_2,..., IMG_n are captured by the imaging device GRD. When the second and subsequent images are captured, for example, in each process shown in FIG. 4, the newly captured image is taken as the second image, and is captured one image before the newly captured image. This image is the first image.

ステップS301において、抽出部11は、図2を用いて説明したように、第1画像と第2画像とのそれぞれから、物体の一例であるボールBLが露光時間中に動いたことで現れる物体の画像のブレを第1軌跡および第2軌跡として抽出する。   In step S <b> 301, as described with reference to FIG. 2, the extraction unit 11 detects an object that appears when the ball BL, which is an example of an object, moves during the exposure time from each of the first image and the second image. Image blur is extracted as a first trajectory and a second trajectory.

ステップS302において、推定部12は、ステップS301の処理で抽出された第1軌跡および第2軌跡の形状に基づいて、第1画像および第2画像が撮影された時刻における物体の運動の特徴を推定する。   In step S302, the estimation unit 12 estimates the feature of the motion of the object at the time when the first image and the second image were taken based on the shapes of the first trajectory and the second trajectory extracted in the process of step S301. To do.

ステップS303において、補間部13は、ステップS302の処理で推定された運動の特徴に基づいて、第1画像と第2画像との撮影間隔に動いた物体の軌跡を生成し、生成した軌跡を用いて第1軌跡と第2軌跡との間を補間する。   In step S303, the interpolation unit 13 generates a trajectory of the object moved at the shooting interval between the first image and the second image based on the motion feature estimated in the process of step S302, and uses the generated trajectory. To interpolate between the first trajectory and the second trajectory.

以上に説明した各処理を実行することにより、画像処理装置10は、異なる時刻に所定の露光時間で撮影された2枚の画像のそれぞれに含まれる露光時間中の物体の運動を示す軌跡の間を補間する軌跡を生成する。これにより、画像処理装置10は、補間する軌跡を含めて連続的な軌跡を生成することができる。そして、画像IMG_1から画像IMG_n−1までの各画像IMGを順次に第1画像とした場合に、画像処理装置10で生成された軌跡は、合成装置SYNにより、例えば、最初に撮影された画像IMG_1に順次に合成される。これにより、画像処理装置10は、n枚の画像IMGが撮影装置GRDにより撮影される過程で物体が動いた軌跡の全体を連続的に示すことができる。   By executing the processes described above, the image processing apparatus 10 can detect the movement of the object during the exposure time included in each of the two images captured at different times with the predetermined exposure time. A trajectory for interpolating is generated. Thereby, the image processing apparatus 10 can generate a continuous trajectory including the trajectory to be interpolated. Then, when each image IMG from the image IMG_1 to the image IMG_n−1 is sequentially set as the first image, the trajectory generated by the image processing device 10 is, for example, the image IMG_1 that is first captured by the synthesizing device SYN. Are synthesized sequentially. As a result, the image processing apparatus 10 can continuously indicate the entire trajectory of the movement of the object in the process in which n images IMG are captured by the imaging device GRD.

即ち、図1に示した画像処理装置10は、運動する物体を時間間隔を空けて順次に撮影した画像から、物体の軌跡を連続的に表す画像を生成することが可能である。これにより、画像処理装置10は、例えば、白昼のゴルフ場の芝生を転がるボールの軌跡を、夜間の高速道路を走る車のテールライトを長時間露光で撮影した場合と同様の連続した軌跡として表現する画像を生成することができる。   That is, the image processing apparatus 10 illustrated in FIG. 1 can generate an image that continuously represents the locus of an object from images obtained by sequentially capturing moving objects at time intervals. Thereby, for example, the image processing apparatus 10 expresses the trajectory of the ball rolling on the lawn of the golf course in the daytime as a continuous trajectory similar to the case where the taillight of the car running on the night highway is photographed with long exposure. An image to be generated can be generated.

図5は、画像処理装置の別実施形態を示す。なお、図5に示す構成要素のうち、図1に示した構成要素と同等のものは、同一の符号で示すとともに構成要素の説明を省略する場合がある。   FIG. 5 shows another embodiment of the image processing apparatus. Note that among the components shown in FIG. 5, components equivalent to those shown in FIG. 1 are denoted by the same reference numerals and description of the components may be omitted.

図5に示した画像処理装置10は、図1に示した抽出部11と、図1に示した推定部12に相当する推定部12aと、図1に示した補間部13に相当する補間部13aと、図1に示した合成装置SYNに相当する合成部14とを含んでいる。更に、画像処理装置10は、軌跡データベースDBを含んでおり、抽出部11、推定部12a、補間部13aは、軌跡データベースDBを介して互いに情報の授受が可能である。   An image processing apparatus 10 illustrated in FIG. 5 includes an extraction unit 11 illustrated in FIG. 1, an estimation unit 12a corresponding to the estimation unit 12 illustrated in FIG. 1, and an interpolation unit corresponding to the interpolation unit 13 illustrated in FIG. 13a and a synthesizing unit 14 corresponding to the synthesizing device SYN shown in FIG. Furthermore, the image processing apparatus 10 includes a trajectory database DB, and the extraction unit 11, the estimation unit 12a, and the interpolation unit 13a can exchange information with each other via the trajectory database DB.

図5に示した抽出部11は、撮影装置GRDによって撮影されたn枚の画像IMGから、撮影順が連続する2枚の画像IMGを第1画像および第2画像として順次に受ける。そして、抽出部11は、第1画像あるいは第2画像として受けた画像IMGに含まれる物体の画像のブレを第1軌跡あるいは第2軌跡として抽出する。そして、抽出部11は、各画像に含まれる物体の軌跡を示す情報として、各画像から第1軌跡あるいは第2軌跡として抽出した物体の画像のブレを示す情報を軌跡データベースDBに蓄積する。   The extraction unit 11 illustrated in FIG. 5 sequentially receives, as a first image and a second image, two images IMG having a continuous shooting order from n images IMG taken by the photographing device GRD. Then, the extraction unit 11 extracts the blurring of the object image included in the image IMG received as the first image or the second image as the first locus or the second locus. Then, the extraction unit 11 accumulates, in the trajectory database DB, information indicating blurring of the object image extracted from each image as the first trajectory or the second trajectory as information indicating the trajectory of the object included in each image.

ここで、抽出部11は、3番目以降に撮影された各画像IMGを受けた際に、受けた画像IMGの前に撮影された画像IMGから抽出された軌跡を示す情報を用いて、新たに受けた画像IMGからの軌跡の抽出を行ってもよい。例えば、画像IMG_1,IMG_2のそれぞれからの軌跡の抽出が完了した後に、3番目に撮影された画像IMG_3を受けた場合に、抽出部11は、画像IMG_3からの軌跡の抽出に、画像IMG_2から抽出された軌跡を示す情報を用いてもよい。   Here, when the extraction unit 11 receives each image IMG taken after the third image, the extraction unit 11 newly uses the information indicating the locus extracted from the image IMG taken before the received image IMG. You may extract the locus | trajectory from the received image IMG. For example, when extraction of the trajectory from each of the images IMG_1 and IMG_2 is completed and the third image IMG_3 is received, the extraction unit 11 extracts the trajectory from the image IMG_3 from the image IMG_2. You may use the information which shows the made | formed locus | trajectory.

図5に示した推定部12aは、算出部121と、特定部122とを含み、抽出部11により第1軌跡あるいは第2軌跡として抽出される物体の軌跡に含まれる各画素の色または輝度を示す画素値の位置による変化の特徴に基づいて、物体の動きの方向を推定する。   The estimation unit 12a illustrated in FIG. 5 includes a calculation unit 121 and a specifying unit 122, and calculates the color or luminance of each pixel included in the trajectory of the object extracted as the first trajectory or the second trajectory by the extraction unit 11. The direction of the movement of the object is estimated based on the feature of change depending on the position of the pixel value indicated.

補間部13aは、検出部131と生成部132とを含み、検出部131は、更に予測部134と照合部133と含む。そして、補間部13aは、抽出部11により抽出された第1軌跡のそれぞれと、当該第1軌跡で動きが示された物体の第2画像における動きを示す第2軌跡との間を補間する。   The interpolation unit 13 a includes a detection unit 131 and a generation unit 132, and the detection unit 131 further includes a prediction unit 134 and a collation unit 133. Then, the interpolation unit 13a interpolates between each of the first trajectories extracted by the extraction unit 11 and the second trajectory indicating the motion in the second image of the object indicated by the first trajectory.

また、合成部14は、図1に示した合成装置SYNに相当する機能を有し、抽出部11から最初に撮影された画像IMG_1を受け、補間部13aから補間された軌跡を受ける毎に、補間された軌跡を画像IMG_1に追加することで合成画像GSNを生成する。   Further, the synthesizing unit 14 has a function corresponding to the synthesizing device SYN shown in FIG. 1, and receives the first image IMG_1 taken from the extracting unit 11 and receives the interpolated trajectory from the interpolating unit 13a. A composite image GSN is generated by adding the interpolated trajectory to the image IMG_1.

図6は、図2に示した物体の軌跡Tr_kにおける画素値の変化の例を示す。図6(A)に示した座標軸X,Yは、推定部12aにおいて、各画素の位置関係を示すために用いられる。また、図6(B),(C)に示した座標軸Bは、輝度値の大きさを示す。   FIG. 6 shows an example of a change in pixel value in the trajectory Tr_k of the object shown in FIG. The coordinate axes X and Y shown in FIG. 6A are used in the estimation unit 12a to indicate the positional relationship of each pixel. Also, the coordinate axis B shown in FIGS. 6B and 6C indicates the magnitude of the luminance value.

図6(A)は、物体の軌跡Tr_kにおいて、長円状の閉曲線C1,C2,C3,C4のそれぞれは、輝度値が数値B1、B2,B3,B4以上である画素が分布する範囲を示す等高線である。なお、図6では、数値B1,B2,B3,B4の順に値が大きくなる。また、図6(B)は、図6(A)に破線で示した方向Dr1に並んだ各画素の輝度値Bの変化を示し、図6(B)は、図6(A)に一点鎖線で示した方向Dr2に並んだ各画素の輝度値Bの変化を示す。   FIG. 6A shows an oval closed curve C1, C2, C3, C4 in a trajectory Tr_k of the object, each showing a range in which pixels whose luminance values are greater than or equal to the numerical values B1, B2, B3, B4 are distributed. Contour lines. In FIG. 6, the values increase in the order of numerical values B1, B2, B3, and B4. 6B shows a change in the luminance value B of each pixel arranged in the direction Dr1 shown by the broken line in FIG. 6A, and FIG. 6B shows the alternate long and short dash line in FIG. The change of the luminance value B of each pixel arranged in the direction Dr2 shown in FIG.

図6(A)の例は、図2に示したボールBLが方向Dr1に動いた場合に画像IMG_kから抽出される軌跡Tr_kを示している。図6(A)から分かるように、方向Dr1における輝度値の勾配は、方向Dr1と交差する方向Dr2を含む他の方向における輝度値の勾配に比べて小さくなっている。つまり、画像IMGから第1軌跡あるいは第2軌跡として抽出された物体の軌跡における輝度値の勾配と、軌跡を描いた物体が動いた方向との間には相関関係がある。同様に、画像IMGから第1軌跡あるいは第2軌跡として抽出された物体の軌跡に含まれる各画素の色を示す色度値の勾配と、軌跡を描いた物体が動いた方向との間には相関関係がある。したがって、抽出された軌跡を示す領域において、色または輝度を示す画素値の勾配が他の方向よりも小さい方向は、抽出された軌跡を描いた物体が動いた方向を示す。   The example of FIG. 6A shows a trajectory Tr_k extracted from the image IMG_k when the ball BL shown in FIG. 2 moves in the direction Dr1. As can be seen from FIG. 6A, the gradient of the luminance value in the direction Dr1 is smaller than the gradient of the luminance value in other directions including the direction Dr2 intersecting the direction Dr1. In other words, there is a correlation between the gradient of the luminance value in the trajectory of the object extracted as the first trajectory or the second trajectory from the image IMG and the direction in which the object depicting the trajectory has moved. Similarly, between the gradient of the chromaticity value indicating the color of each pixel included in the trajectory of the object extracted from the image IMG as the first trajectory or the second trajectory, and the direction in which the object depicting the trajectory moves There is a correlation. Therefore, in the region indicating the extracted locus, the direction in which the gradient of the pixel value indicating the color or the luminance is smaller than the other directions indicates the direction in which the object depicting the extracted locus has moved.

図5に示した算出部121は、抽出部11によって第1軌跡あるいは第2軌跡として抽出された物体の軌跡のそれぞれに含まれる各画素の色または輝度を示す画素値の位置による変化を示す勾配を算出する。   The calculation unit 121 illustrated in FIG. 5 has a gradient indicating a change due to the position of the pixel value indicating the color or luminance of each pixel included in each of the object trajectories extracted as the first trajectory or the second trajectory by the extraction unit 11. Is calculated.

図5に示した特定部122は、第1軌跡として抽出された物体の軌跡について算出部121により得られた画素値の勾配に基づいて、他の方向よりも小さい勾配が算出された方向を特定する。そして、特定部122は、特定した方向を、第1軌跡を含む画像IMGが撮影された時刻における物体の運動の方向とする。同様に、特定部122は、第2軌跡として抽出された物体の軌跡について算出部121により得られた画素値の勾配に基づいて、他の方向よりも小さい勾配が算出された方向を特定する。そして、特定部122は、特定した方向を、第2画像が撮影された時刻における物体の運動の方向とする。   The identification unit 122 illustrated in FIG. 5 identifies a direction in which a gradient smaller than the other directions is calculated based on the gradient of the pixel value obtained by the calculation unit 121 for the trajectory of the object extracted as the first trajectory. To do. Then, the specifying unit 122 sets the specified direction as the direction of motion of the object at the time when the image IMG including the first trajectory is captured. Similarly, the specifying unit 122 specifies a direction in which a gradient smaller than the other directions is calculated based on the gradient of the pixel value obtained by the calculating unit 121 for the trajectory of the object extracted as the second trajectory. Then, the specifying unit 122 sets the specified direction as the direction of movement of the object at the time when the second image is captured.

更に、特定部122は、第1軌跡および第2軌跡のそれぞれについて、第1軌跡および第2軌跡のそれぞれについて特定した運動の方向に最も離れた点である軌跡の2つの端点間の距離を求める。そして、特定部122は、求めた距離と露光時間とに基づいて、第1軌跡および第2軌跡をそれぞれ含む画像IMGにおける物体の速さを求める。   Further, the specifying unit 122 obtains a distance between two end points of the trajectory that is the point farthest in the direction of motion specified for each of the first trajectory and the second trajectory for each of the first trajectory and the second trajectory. . Then, the specifying unit 122 obtains the speed of the object in the image IMG including each of the first locus and the second locus based on the obtained distance and the exposure time.

例えば、特定部122は、図6(A)に示した軌跡Tr_kの方向Dr1の長さL_kを求める。例えば、特定部122は、図6(A)に示した閉曲線のうち、輝度値が最も小さい閉曲線C1における方向Dr1の長さを長さL_kとして求める。そして、特定部122は、求めた長さL_kを露光時間で除算することで、軌跡Tr_kを含む画像IMG_kにおいて、図2に示したボールBLが方向Dr1に動く速さを求めることができる。   For example, the specifying unit 122 obtains the length L_k in the direction Dr1 of the trajectory Tr_k illustrated in FIG. For example, the specifying unit 122 obtains the length of the direction Dr1 in the closed curve C1 having the smallest luminance value as the length L_k among the closed curves shown in FIG. Then, the specifying unit 122 can determine the speed at which the ball BL illustrated in FIG. 2 moves in the direction Dr1 in the image IMG_k including the trajectory Tr_k by dividing the obtained length L_k by the exposure time.

そして、特定部122は、第1軌跡あるいは第2軌跡として抽出された物体の軌跡のそれぞれに対応して、以上に説明したようにして求めた運動の方向と速さとを示す速度ベクトルを軌跡データベースDBに蓄積する。また、特定部122は、第1軌跡あるいは第2軌跡として抽出された物体の軌跡のそれぞれに対応する情報の一部として、物体の速さを求める過程で軌跡のそれぞれについて検出した両側の端点の位置を示す情報を軌跡データベースDBに蓄積することが望ましい。   Then, the specifying unit 122 corresponds to each of the trajectories of the object extracted as the first trajectory or the second trajectory, and stores a velocity vector indicating the direction and speed of the motion obtained as described above. Accumulate in DB. In addition, the identification unit 122 detects the end points on both sides detected for each of the trajectories in the process of obtaining the speed of the object as part of the information corresponding to each of the trajectories of the object extracted as the first trajectory or the second trajectory. It is desirable to store information indicating the position in the trajectory database DB.

なお、図6(A)に示した例のように、物体の軌跡を示す領域の形状を解析することで、領域の形状の長軸と短軸とを特定可能である場合に、算出部121により輝度値あるいは色度値の勾配を求める方向は、長軸方向と短軸方向とに絞り込まれてもよい。この場合に、特定部122は、算出部121により長軸方向について算出された勾配と短軸方向について算出された勾配とを比較し、勾配が小さいとされた方向を物体の運動の方向として特定し、特定した方向の長さから物体の運動の速さを求める。   Note that, as in the example illustrated in FIG. 6A, when the shape of the region indicating the trajectory of the object can be analyzed to identify the major axis and the minor axis of the region shape, the calculation unit 121 Thus, the direction of obtaining the gradient of the luminance value or chromaticity value may be narrowed down to the major axis direction and the minor axis direction. In this case, the specifying unit 122 compares the gradient calculated in the major axis direction with the gradient calculated in the minor axis direction by the calculating unit 121, and specifies the direction in which the gradient is small as the direction of motion of the object. Then, the speed of movement of the object is obtained from the length in the specified direction.

ところで、図5に示した撮影装置GRDによって撮影された各画像IMGは、複数の動く物体を含んでいる場合がある。この場合に、図5に示した抽出部11は、例えば、各画像IMGに複数の物体のそれぞれに対応して含まれる物体の軌跡を第1軌跡あるいは第2軌跡として抽出した際に、抽出した物体の軌跡のそれぞれに各画像において一意の番号をつけて区別する。そして、抽出した物体の軌跡を軌跡データベースDBに蓄積する際に、抽出部11は、抽出した物体の軌跡を含む画像IMGを示す撮影順および物体の軌跡を区別するための番号と物体の軌跡を示す情報とを対応付ける。また、この場合に、図5に示した推定部12aは、抽出部11により、第1軌跡あるいは第2軌跡として各画像IMGから抽出された物体の軌跡のそれぞれについて、物体の軌跡で示される物体の運動の特徴を示す速度ベクトルを求める。   By the way, each image IMG photographed by the photographing device GRD shown in FIG. 5 may include a plurality of moving objects. In this case, for example, the extraction unit 11 illustrated in FIG. 5 extracts the trajectory of the object included in each image IMG corresponding to each of the plurality of objects as the first trajectory or the second trajectory. Each object trajectory is distinguished by attaching a unique number to each image. Then, when accumulating the extracted object trajectory in the trajectory database DB, the extraction unit 11 determines the imaging order indicating the image IMG including the extracted object trajectory and the number for distinguishing the object trajectory and the object trajectory. Correlate with the information shown. Further, in this case, the estimation unit 12a illustrated in FIG. 5 performs the object indicated by the object trajectory for each of the object trajectories extracted from each image IMG as the first trajectory or the second trajectory by the extraction unit 11. A velocity vector indicating the characteristics of the motion is obtained.

複数の動く物体を含む場合、図5に示した検出部131は、抽出部11により第1画像から抽出された第1軌跡毎に、第2画像から抽出された複数の第2軌跡の中から、第1軌跡について推定された運動の特徴と類似する運動の特徴が推定された第2軌跡を検出する。例えば、検出部131は、k番目に撮影された画像IMG_kから抽出された複数の物体の軌跡について推定された速度ベクトルと、k+1番目に撮影された画像IMG_k+1から抽出された複数の物体の軌跡について推定された速度ベクトルとを互いに照合する。なお、撮影順を示す数値kは、n−1以下の正の整数である。そして、検出部131は、互いに類似した速度ベクトルが推定された物体の軌跡の組を、画像IMG_k、IMG_k+1のそれぞれにおいて同一の物体の運動を示す第1軌跡と第2軌跡とする。   When a plurality of moving objects are included, the detection unit 131 illustrated in FIG. 5 includes, for each first trajectory extracted from the first image by the extraction unit 11, a plurality of second trajectories extracted from the second image. A second trajectory in which a motion feature similar to the motion feature estimated for the first trajectory is estimated is detected. For example, the detection unit 131 calculates the velocity vectors estimated for the trajectories of a plurality of objects extracted from the kth image IMG_k and the trajectories of the plurality of objects extracted from the k + 1th image IMG_k + 1. The estimated velocity vectors are checked against each other. Note that the numerical value k indicating the photographing order is a positive integer of n−1 or less. Then, the detection unit 131 sets a set of object trajectories for which velocity vectors similar to each other are estimated as a first trajectory and a second trajectory indicating the motion of the same object in each of the images IMG_k and IMG_k + 1.

検出部131は、例えば、画像IMG_k、IMG_k+1のそれぞれから抽出された複数の物体の軌跡で示される運動の特徴を互いに照合するのに先立って、画像IMG_kから抽出された軌跡について推定された運動の特徴に基づく絞込みを行ってもよい。   For example, prior to collating the motion features indicated by the trajectories of a plurality of objects extracted from each of the images IMG_k and IMG_k + 1 with each other, the detection unit 131 detects the motion estimated for the trajectory extracted from the image IMG_k. You may narrow down based on the feature.

検出部131の予測部133は、推定部12aによって第1軌跡のそれぞれについて推定された速度ベクトルに基づいて、当該第1軌跡を描いた物体が第2画像において存在することが予測される位置を含む領域を求める。また、検出部131の照合部134は、第1軌跡について推定された速度ベクトルに基づいて、予測部133が予測した領域から抽出された第2軌跡の中から、第1軌跡と運動の特徴が類似する第2軌跡を検出する。   Based on the velocity vector estimated for each of the first trajectories by the estimating unit 12a, the predicting unit 133 of the detecting unit 131 determines the position where the object depicting the first trajectory is predicted to exist in the second image. Find the area to include. In addition, the collation unit 134 of the detection unit 131 has the first trajectory and the motion feature out of the second trajectory extracted from the region predicted by the prediction unit 133 based on the velocity vector estimated for the first trajectory. A similar second trajectory is detected.

図7は、図5に示した予測部133によって予測される領域の例を示す。図7において網掛けを付して示した領域Tr1_kは、画像IMG_kから抽出された物体の軌跡の一つを示す。また、図7において網掛けを付して示した領域Tr1_k+1、Tr2_k+1のそれぞれは、画像IMG_k+1から抽出された物体の軌跡の一つを示す。なお、図7において、網掛けの種類の違いは、網掛けが付された領域が示す色または輝度の違いを示している。即ち、図7に示した物体の軌跡Tr1_kと物体の軌跡Tr1_k+1とは類似した色または輝度を示し、物体の軌跡Tr1_k+1と物体の軌跡Tr2_k+1とは互いに異なる色または輝度を示す。   FIG. 7 shows an example of a region predicted by the prediction unit 133 shown in FIG. A region Tr1_k indicated by shading in FIG. 7 indicates one of the trajectories of the object extracted from the image IMG_k. Each of the regions Tr1_k + 1 and Tr2_k + 1 indicated by shading in FIG. 7 represents one of the trajectories of the object extracted from the image IMG_k + 1. In FIG. 7, the difference in the type of shading indicates a difference in color or luminance indicated by the shaded area. That is, the object trajectory Tr1_k and the object trajectory Tr1_k + 1 shown in FIG. 7 have similar colors or brightness, and the object trajectory Tr1_k + 1 and the object trajectory Tr2_k + 1 show different colors or brightness.

図7に示した領域RNG1,RNG2は、軌跡Tr1_kについて推定された運動の方向Dr1_kに基づいて、図5に示した予測部133により、画像IMG_k+1の撮影時刻に物体が存在することが予測された領域を示している。   The regions RNG1 and RNG2 illustrated in FIG. 7 are predicted to have an object at the shooting time of the image IMG_k + 1 by the prediction unit 133 illustrated in FIG. 5 based on the motion direction Dr1_k estimated for the trajectory Tr1_k. Indicates the area.

図7の例では、領域RNG1,RNG2は、軌跡Tr1_kの内部の点を中心とし、2つの速度ベクトルで示される方向が類似すると判定する閾値を示す角度θ(例えば、20度)の2倍の中心角を持つ扇形で示される。また、領域RNG1を示す扇形の弧と軌跡Tr1_kに基づいて推定された運動の方向Dr1_kを示す直線との交点から軌跡Tr1_kの端点Q1s_kまでの距離Ex_kは、軌跡Tr1_kに基づいて推定された速さに基づいて設定される。例えば、距離Ex_kは、軌跡Tr1_kに基づいて推定された速さで画像IMG_kが撮影された時刻から画像IMG_k+1が撮影された時刻までに物体が動く距離に、数値1.1〜1.5程度の値を持つ所定の係数を乗じた値に設定されることが望ましい。図7においては、図示を省略しているが、領域RNG2を示す扇形の中心角および扇形の弧と運動の方向Dr1_kを示す直線との交点から軌跡Tr1_kの端点Qe1_kまでの距離は、領域RNG1の対応する要素と同様に設定される。   In the example of FIG. 7, the regions RNG1 and RNG2 are centered on a point inside the trajectory Tr1_k, and are twice the angle θ (for example, 20 degrees) indicating a threshold for determining that the directions indicated by the two velocity vectors are similar. It is shown as a sector with a central angle. The distance Ex_k from the intersection of the sector arc indicating the region RNG1 and the straight line indicating the direction of motion Dr1_k estimated based on the trajectory Tr1_k to the end point Q1s_k of the trajectory Tr1_k is the speed estimated based on the trajectory Tr1_k. Is set based on For example, the distance Ex_k is a numerical value of about 1.1 to 1.5, which is a distance that the object moves from the time when the image IMG_k is captured at the speed estimated based on the trajectory Tr1_k to the time when the image IMG_k + 1 is captured. It is desirable to set a value obtained by multiplying a predetermined coefficient having a value. In FIG. 7, although not shown, the distance from the intersection of the fan-shaped central angle indicating the region RNG2 and the fan-shaped arc to the straight line indicating the direction of motion Dr1_k to the end point Qe1_k of the trajectory Tr1_k is Set in the same way as the corresponding element.

図7に示した領域RNG1,RNG2を用いることで、画像IMG_k、IMG_k+1のそれぞれに多数の物体の軌跡が含まれる場合にも、図5に示した照合部134による照合の対象となる軌跡を絞り込むことができる。なお、予測部133が求める領域の形状は、図7に示した扇形に限らず、先に撮影された画像IMG_kに含まれる複数の物体の軌跡から選択した第1軌跡について推定された運動の方向および速さの少なくとも一方を反映した形状であればよい。例えば、予測部133は、図7に示した軌跡Tr1_kを描いた物体の画像IMG_k+1において予測される位置を含む領域として、軌跡Tr1_kの端点Qs1_k,Qe1_kのそれぞれを中心とし、半径Ex_kを持つ円形の領域を求めてもよい。   By using the regions RNG1 and RNG2 shown in FIG. 7, even when the images IMG_k and IMG_k + 1 each include a lot of object trajectories, the trajectories to be collated by the collation unit 134 shown in FIG. 5 are narrowed down. be able to. Note that the shape of the region obtained by the predicting unit 133 is not limited to the sector shown in FIG. 7, and the direction of motion estimated for the first trajectory selected from the trajectories of a plurality of objects included in the previously captured image IMG_k. And any shape that reflects at least one of speed. For example, the prediction unit 133 is a circular region having a radius Ex_k centered on each of the end points Qs1_k and Qe1_k of the trajectory Tr1_k as a region including a predicted position in the image IMG_k + 1 of the object depicting the trajectory Tr1_k illustrated in FIG. An area may be obtained.

例えば、図7の例では、照合部134により、物体の軌跡Tr1_kについて推定された速度ベクトルと照合される速度ベクトルは、領域RNG2に含まれる物体の軌跡Tr1_k+1,Tr2_k+1について推定された速度ベクトルに絞り込まれる。   For example, in the example of FIG. 7, the velocity vector collated with the velocity vector estimated for the object trajectory Tr1_k by the matching unit 134 is narrowed down to the velocity vector estimated for the object trajectories Tr1_k + 1 and Tr2_k + 1 included in the region RNG2. It is.

なお、第1画像から抽出された第1軌跡のそれぞれで示される物体の運動の向きが既に判明している場合に、図5に示した予測部133は、運動の向きと逆の向きに物体が移動した場合に予測される位置を含む領域の生成を省略してもよい。例えば、図7に示した軌跡Tr1_kで示される物体の運動について、既に、運動の向きが端点Q1s_kから端点Q1e_kに向かう向きであることが判明している場合に、図5に示した予測部133は、図7に示した領域RNG1の生成を省略する。また、図7に示した軌跡Tr1_kで示される物体の運動について、既に、運動の向きが端点Q1e_kから端点Q1s_kに向かう向きであることが判明している場合に、図5に示した予測部133は、図7に示した領域RNG2の生成を省略する。   Note that when the motion direction of the object indicated by each of the first trajectories extracted from the first image is already known, the prediction unit 133 illustrated in FIG. 5 performs the object in the direction opposite to the motion direction. The generation of the region including the position predicted when the is moved may be omitted. For example, when the motion of the object indicated by the trajectory Tr1_k illustrated in FIG. 7 is already determined to be the direction from the end point Q1s_k to the end point Q1e_k, the prediction unit 133 illustrated in FIG. Omits the generation of the region RNG1 shown in FIG. In addition, regarding the motion of the object indicated by the trajectory Tr1_k illustrated in FIG. 7, when it is already known that the direction of motion is the direction from the end point Q1e_k to the end point Q1s_k, the prediction unit 133 illustrated in FIG. Omits the generation of the region RNG2 shown in FIG.

図5に示した照合部134は、軌跡データベースDBを参照することで、図7に示した軌跡Tr1_kに対応して保持された速度ベクトルと、軌跡Tr1_k+1、Tr2_k+1のそれぞれに対応して保持された速度ベクトルとを取得する。次いで、照合部134は、取得した速度ベクトルに基づき、軌跡Tr1_kで示される運動の方向Dr1_kと、軌跡Tr1_k+1、Tr2_k+1のそれぞれで示される運動の方向Dr1_k+1,Dr2_k+1とがなす角α1、α2の角度をそれぞれ求める。照合部134は、例えば、方向Dr1_kを示す点線で示した直線と、方向Dr1_k+1を示す破線で示した直線とがなす角のうち、鋭角である方を角α1とし、求めた角α1が閾値θ以下である場合に運動の方向が類似すると判断する。同様に、照合部134は、方向Dr1_kを示す点線で示した直線と、方向Dr2_k+1を示す一点鎖線で示した直線とがなす角のうち、鋭角である方を角α2とし、求めた角α2が閾値θ以下である場合に運動の方向が類似すると判断する。   The collation unit 134 illustrated in FIG. 5 refers to the trajectory database DB, and stores the velocity vector corresponding to the trajectory Tr1_k illustrated in FIG. 7 and the trajectories Tr1_k + 1 and Tr2_k + 1. Get velocity vector. Next, the collation unit 134 determines the angles α1 and α2 formed by the motion direction Dr1_k indicated by the trajectory Tr1_k and the motion directions Dr1_k + 1 and Dr2_k + 1 indicated by the trajectories Tr1_k + 1 and Tr2_k + 1 based on the acquired velocity vector. Ask for each. For example, the collation unit 134 sets the angle α1 to the acute angle among the angles formed by the straight line indicated by the dotted line indicating the direction Dr1_k and the straight line indicated by the broken line indicating the direction Dr1_k + 1, and the obtained angle α1 is the threshold θ It is determined that the direction of motion is similar when: Similarly, the collating unit 134 sets the angle α2 as the acute angle among the angles formed by the straight line indicated by the dotted line indicating the direction Dr1_k and the straight line indicated by the alternate long and short dash line indicating the direction Dr2_k + 1, and the obtained angle α2 is When it is less than or equal to the threshold θ, it is determined that the direction of motion is similar.

例えば、図7に示した角α1が閾値θ以下である場合に、照合部134は、軌跡Tr1_kと軌跡Tr1_k+1とは同一の物体の動きを示すと判断する。一方、図7に示した角α2が閾値θよりも大きい場合に、照合部134は、軌跡Tr1_kと軌跡Tr2_k+1とは異なる物体の動きを示すと判断する。   For example, when the angle α1 illustrated in FIG. 7 is equal to or smaller than the threshold θ, the collation unit 134 determines that the trajectory Tr1_k and the trajectory Tr1_k + 1 indicate the same object motion. On the other hand, when the angle α2 illustrated in FIG. 7 is larger than the threshold θ, the matching unit 134 determines that the trajectory Tr1_k and the trajectory Tr2_k + 1 indicate different object motions.

更に、照合部134は、取得した速度ベクトルに基づき、軌跡Tr1_kで示される運動の速さと、軌跡Tr1_k+1、Tr2_k+1のそれぞれで示される運動の速さを照合し、照合した結果を2つの軌跡が同一の物体の動きを示すか否かの判断に用いてもよい。   Furthermore, the collation unit 134 collates the speed of the movement indicated by the trajectory Tr1_k with the speed of the movement indicated by each of the trajectories Tr1_k + 1 and Tr2_k + 1 based on the acquired velocity vector, and the two results are the same. It may be used to determine whether or not the object moves.

例えば、照合部134は、軌跡Tr1_kの速度ベクトルで示される運動の速さと、軌跡Tr1_k+1、Tr2_k+1のそれぞれの速度ベクトルで示される運動の速さとの比を求め、求めた比が所定の範囲内である場合に同一の物体の動きを示すと判断する。なお、速さの比に基づく判断に用いる所定の範囲は、例えば、数値0.9〜1.1程度の範囲に設定されることが望ましい。   For example, the matching unit 134 obtains a ratio between the speed of the motion indicated by the speed vector of the trajectory Tr1_k and the speed of the motion indicated by each speed vector of the trajectories Tr1_k + 1 and Tr2_k + 1, and the obtained ratio is within a predetermined range. In some cases, it is determined that the same object moves. Note that the predetermined range used for the determination based on the speed ratio is desirably set to a range of about 0.9 to 1.1, for example.

以上に説明したように、予測部133および照合部134を有する検出部131は、画像IMG_kから抽出された軌跡Tr1_kと画像IMG_k+1から抽出された軌跡Tr1_k+1,Tr2_k+1との照合に、個々の軌跡が示す運動の特徴を用いる。これにより、検出部131は、例えば、ある時刻に撮影された物体の画像と別の時刻に撮影された物体の画像とを互いの位置関係に基づいて同じ物体を示すか否かを判定する場合に比べて、高い精度で同じ物体の動きを示す軌跡を検出することができる。   As described above, the detection unit 131 including the prediction unit 133 and the collation unit 134 shows the individual trajectories in the collation between the trajectory Tr1_k extracted from the image IMG_k and the trajectories Tr1_k + 1 and Tr2_k + 1 extracted from the image IMG_k + 1. Use motion features. Thereby, for example, the detection unit 131 determines whether or not the image of the object photographed at a certain time and the image of the object photographed at another time indicate the same object based on the mutual positional relationship. Compared to the above, it is possible to detect a trajectory indicating the movement of the same object with high accuracy.

更に、照合部134は、軌跡Tr1_kを示す画像の領域の色と、軌跡Tr1_k+1、Tr2_k+1のそれぞれを示す画像の領域の色とを照合し、照合された2つの軌跡の色が類似する場合に、照合された2つの軌跡が同一の物体の動きを示すと判断してもよい。   Furthermore, the collation unit 134 collates the color of the image region indicating the trajectory Tr1_k with the color of the image region indicating each of the trajectories Tr1_k + 1 and Tr2_k + 1, and when the colors of the two collated trajectories are similar, It may be determined that the two verified trajectories indicate the movement of the same object.

照合部134は、軌跡データベースDBを参照することにより、図7に示した軌跡Tr1_kとして画像IMG_kから抽出された画像と軌跡Tr1_k+1、Tr2_k+1として画像IMG_k+1から抽出された画像とを取得することができる。そして、照合部134は、取得した画像で示される色を互いに比較することで、例えば、図7に示した軌跡Tr1_kと軌跡Tr1_k+1とが互いに類似した色であるとの照合結果を得る。一方、照合部134は、取得した画像で示される色を互いに比較することで、軌跡Tr1_kが示す色と軌跡Tr2_k+1が示す色とは異なるとの照合結果を得る。   By referring to the trajectory database DB, the collation unit 134 can acquire the image extracted from the image IMG_k as the trajectory Tr1_k and the image extracted from the image IMG_k + 1 as the trajectories Tr1_k + 1 and Tr2_k + 1 illustrated in FIG. And the collation part 134 compares the color shown with the acquired image mutually, for example, acquires the collation result that the locus | trajectory Tr1_k and locus | trajectory Tr1_k + 1 shown in FIG. 7 are mutually similar colors. On the other hand, the collation unit 134 obtains a collation result that the color indicated by the trajectory Tr1_k is different from the color indicated by the trajectory Tr2_k + 1 by comparing the colors indicated in the acquired image with each other.

照合部134により、速度ベクトルの照合とともに、軌跡を示す画像の色の照合を行うことにより、運動の方向および速さの類似に加えて、軌跡を示す画像の特徴の類似性を考慮して、同一の物体の運動を示す軌跡の組を検出することが可能となる。例えば、軌跡を示す画像の色の照合を行う照合部134を有する検出部131は、図7に示した領域RNG2内に、速度ベクトルが類似した別の軌跡が存在する場合にも、軌跡Tr1_kとの色の類似性を根拠として、軌跡Tr1_k+1を検出することができる。これにより、軌跡を示す画像の特徴の類似性を考慮しない場合に比べて、検出部131による同じ物体の運動を示す軌跡の検出の精度を向上することができる。   In addition to the similarity of the direction and the speed of the motion, the similarity of the feature of the image showing the trajectory is considered in addition to the similarity of the direction and speed of the motion by collating the color of the image showing the trajectory together with the collation of the velocity vector. It is possible to detect a set of trajectories indicating the motion of the same object. For example, the detection unit 131 having the collation unit 134 that collates the colors of the images indicating the trajectory is different from the trajectory Tr1_k even when another trajectory having a similar velocity vector exists in the region RNG2 illustrated in FIG. The trajectory Tr1_k + 1 can be detected based on the similarity of the colors. Thereby, compared with the case where the similarity of the feature of the image which shows a locus | trajectory is not considered, the detection precision of the locus | trajectory which shows the motion of the same object by the detection part 131 can be improved.

なお、照合部134は、以上に説明した速度ベクトルの照合と軌跡の色の照合とをどのような順序で実行してもよいし、両者を並行して実行してもよい。   The collating unit 134 may execute the speed vector collation and the locus color collation described above in any order, or may execute both in parallel.

以上に説明した検出部131により、撮影順序が連続する画像IMGである第1画像と第2画像とにおいて同一の物体の運動を示す第1軌跡および第2軌跡として検出された軌跡の組を示す情報は、図5に示した生成部132に渡される。   A set of trajectories detected as the first trajectory and the second trajectory indicating the motion of the same object in the first image and the second image, which are the images IMG in which the imaging order is continuous, is shown by the detection unit 131 described above. The information is passed to the generation unit 132 shown in FIG.

生成部132は、第1画像から抽出された複数の第1軌跡のそれぞれと、当該第1軌跡について検出部131によって検出された第2軌跡との間を補間する軌跡である補間軌跡を生成する。   The generation unit 132 generates an interpolation trajectory that is a trajectory for interpolating between each of the plurality of first trajectories extracted from the first image and the second trajectory detected by the detection unit 131 for the first trajectory. .

生成部132は、例えば、検出部131から渡された情報に基づいて、軌跡データベースDBを参照し、同一の物体の運動を示す第1軌跡および第2軌跡として検出された軌跡のそれぞれの端点を示す座標を取得する。そして、生成部132は、例えば、スプライン関数などを用いて、取得した端点を順次に接続する曲線を求めることで、第1軌跡と第2軌跡との間を補間する補間軌跡を生成する。   For example, the generation unit 132 refers to the trajectory database DB based on the information passed from the detection unit 131, and determines each end point of the trajectory detected as the first trajectory and the second trajectory indicating the motion of the same object. Get the indicated coordinates. And the production | generation part 132 produces | generates the interpolation locus | trajectory which interpolates between a 1st locus | trajectory and a 2nd locus | trajectory by calculating | requiring the curve which connects the acquired endpoint sequentially using a spline function etc., for example.

図8は、図5に示した生成部132によって生成される補間軌跡の例を示す。なお、図8に示した要素のうち、図7に示した要素と同等のものは同じ符号で示され、その要素の説明は省略される場合がある。   FIG. 8 shows an example of an interpolation locus generated by the generation unit 132 shown in FIG. Of the elements shown in FIG. 8, elements equivalent to those shown in FIG. 7 are denoted by the same reference numerals, and description of the elements may be omitted.

図8は、図5に示した検出部131により、図7に示した軌跡Tr1_kと軌跡Tr1_k+1とが同じ物体の第1軌跡および第2軌跡として検出された場合に、生成部132によって生成される補間軌跡Tri_kの例を示す。   8 is generated by the generation unit 132 when the trajectory Tr1_k and the trajectory Tr1_k + 1 illustrated in FIG. 7 are detected as the first trajectory and the second trajectory of the same object by the detection unit 131 illustrated in FIG. An example of the interpolation trajectory Tri_k is shown.

図8において、破線で示した曲線Ci_kは、軌跡Tr1_kの端点Q1s_k,Q1e_kと、軌跡Tr1_k+1の端点Q1s_k+1,Q1e_k+1とについて、スプライン補間を行うことで得られた曲線を示す。   In FIG. 8, a curved line Ci_k indicated by a broken line indicates a curve obtained by performing spline interpolation on the end points Q1s_k, Q1e_k of the locus Tr1_k and the end points Q1s_k + 1, Q1e_k + 1 of the locus Tr1_k + 1.

生成部132は、例えば、図8に示した曲線Ci_kの線幅を拡張し、第1軌跡に相当する軌跡Tr1_kと第2軌跡に相当する軌跡Tr1_k+1との双方の輪郭に接続させることで、図8において点線で囲んで示した補間軌跡Tri_kを生成する。   For example, the generation unit 132 expands the line width of the curve Ci_k illustrated in FIG. 8 and connects it to the contours of both the trajectory Tr1_k corresponding to the first trajectory and the trajectory Tr1_k + 1 corresponding to the second trajectory. In step 8, an interpolation trajectory Tri_k surrounded by a dotted line is generated.

そして、生成部132は、生成された補間軌跡を用いて、図8に示した軌跡Tr1_kと軌跡Tr1_k+1とを補間することで、軌跡Tr1_kの端点Q1s_kから軌跡Tr1_k+1の端点Q1e_k+1まで連続した軌跡Tr1c_kを生成する。   Then, the generation unit 132 interpolates the trajectory Tr1_k and the trajectory Tr1_k + 1 illustrated in FIG. 8 using the generated interpolation trajectory, thereby generating a trajectory Tr1c_k continuous from the end point Q1s_k of the trajectory Tr1_k to the end point Q1e_k + 1 of the trajectory Tr1_k + 1. Generate.

以上に説明した検出部131と生成部132とを有する補間部13aは、各画像IMGに複数の物体の軌跡が含まれている場合にも、撮影順が連続する画像において同じ物体の運動をそれぞれ示す軌跡の組を検出し、検出した2つの軌跡の間を補間することができる。   The interpolating unit 13a having the detecting unit 131 and the generating unit 132 described above performs the motion of the same object in an image in which the imaging order is continuous even when each image IMG includes trajectories of a plurality of objects. It is possible to detect the set of trajectories shown and interpolate between the two detected trajectories.

即ち、図5に示した画像処理装置10は、撮影装置GRDで撮影された各画像IMGに含まれる運動する物体の数にかかわらず、時間をおいて順次に撮影された画像から、物体の軌跡を連続的に表す画像を生成することができる。   That is, the image processing apparatus 10 shown in FIG. 5 uses the trajectory of an object from images that are sequentially photographed over time regardless of the number of moving objects included in each image IMG photographed by the photographing apparatus GRD. Can be generated continuously.

合成部14は、例えば、抽出部11から渡される最初の画像IMG_1に、2枚目以降の画像IMG_2〜IMG_nから抽出された物体の軌跡と、補間部13aによって生成された補間軌跡とを順次に合成する。   For example, the synthesis unit 14 sequentially adds the trajectory of the object extracted from the second and subsequent images IMG_2 to IMG_n to the first image IMG_1 passed from the extraction unit 11 and the interpolation trajectory generated by the interpolation unit 13a. Synthesize.

これにより、合成部14は、撮影装置GRDによってn枚の画像IMGが撮影された期間における各物体の運動を連続的に示す軌跡を、各物体の周囲の風景などを示す背景とともに提示する合成画像GSNを生成することができる。更に、合成部14は、合成画像GSNにおいて、物体の連続的な軌跡の輪郭を、軌跡の周囲の画像から際立たせる色で表すことにより、物体の軌跡を強調してもよい。   Thereby, the composition unit 14 presents a trajectory that continuously indicates the motion of each object during the period in which n images IMG were captured by the image capturing device GRD, together with the background indicating the scenery around each object, and the like. A GSN can be generated. Further, the synthesis unit 14 may emphasize the trajectory of the object by expressing the contour of the continuous trajectory of the object in the composite image GSN with a color that makes the object stand out from the image around the trajectory.

以上に説明した本件開示の画像処理装置10は、例えば、デジタルカメラやカメラ機能を有する携帯端末装置や携帯型ゲーム機などに搭載されたプロセッサやメモリなどのハードウェアを用いて実現することができる。   The image processing apparatus 10 disclosed herein can be realized using hardware such as a digital camera, a mobile terminal device having a camera function, a portable game machine, and the like, and a hardware such as a processor. .

図9は、画像処理装置10を適用したデジタルカメラのハードウェア構成例を示す。なお、図9に示す構成要素のうち、図1または図5に示した構成要素と同等のものは、同一の符号で示すとともに構成要素の説明を省略する場合がある。   FIG. 9 shows a hardware configuration example of a digital camera to which the image processing apparatus 10 is applied. 9 that are equivalent to the components shown in FIG. 1 or FIG. 5 are denoted by the same reference numerals and description of the components may be omitted.

図9に示したデジタルカメラ20は、プロセッサ21と、メモリ22と、信号処理部23と、撮像制御部24と、操作パネルなどの入力装置25と、液晶ディスプレイなどの表示装置26と、メモリカードスロット27とを含んでいる。図9に例示したプロセッサ21と、メモリ22と、信号処理部23と、撮像制御部24と、入力装置25と、表示装置26と、メモリカードスロット27とは、バスを介して互いに接続されている。   A digital camera 20 shown in FIG. 9 includes a processor 21, a memory 22, a signal processing unit 23, an imaging control unit 24, an input device 25 such as an operation panel, a display device 26 such as a liquid crystal display, and a memory card. Slot 27. The processor 21, the memory 22, the signal processing unit 23, the imaging control unit 24, the input device 25, the display device 26, and the memory card slot 27 illustrated in FIG. 9 are connected to each other via a bus. Yes.

また、デジタルカメラ20は、更に、撮像素子SNCと、撮像光学系OPTとを含んでおり、撮像光学系OPTは、撮影範囲VWに含まれる運動する物体MVおよび物体の周囲の背景を含む被写体からの光を撮像素子SNCの受光面に結像させる。撮像素子SNCの出力信号は、信号処理部23に入力され、信号処理部23は、撮像素子SNCの出力信号から被写体の画像を示す画像データを生成する。また、撮像制御部24は、プロセッサ21からの指示に基づいて、撮像光学系OPTに含まれるレンズの焦点を被写体に合わせる合焦動作や撮像素子SNCに被写体からの光を入射させる露光時間を制御する。   The digital camera 20 further includes an imaging element SNC and an imaging optical system OPT. The imaging optical system OPT detects an object including a moving object MV included in the imaging range VW and a background around the object. Is formed on the light receiving surface of the image sensor SNC. The output signal of the image sensor SNC is input to the signal processor 23, and the signal processor 23 generates image data indicating the image of the subject from the output signal of the image sensor SNC. In addition, the imaging control unit 24 controls the focusing operation for focusing the lens included in the imaging optical system OPT on the subject and the exposure time during which light from the subject is incident on the imaging element SNC based on an instruction from the processor 21. To do.

図9に示したプロセッサ21とメモリ22とは、画像処理装置10に含まれ、撮像素子SNCと信号処理部23と撮像制御部24と撮像光学系OPTとは、図1または図5に示した撮影装置GRDに含まれる。   The processor 21 and the memory 22 illustrated in FIG. 9 are included in the image processing apparatus 10, and the imaging element SNC, the signal processing unit 23, the imaging control unit 24, and the imaging optical system OPT are illustrated in FIG. 1 or FIG. 5. It is included in the photographing device GRD.

また、メモリカードスロット27は、メモリカード28を装着可能であり、装着したメモリカード28に記録された情報の読出およびメモリカード28への情報の記録を行う。   The memory card slot 27 can be loaded with a memory card 28, and reads information recorded on the memory card 28 and records information on the memory card 28.

図9に示したメモリ22は、デジタルカメラ20のオペレーティングシステムとともに、図5〜図8を用いて説明した物体の連続的な軌跡を示す画像を生成する処理をプロセッサ21が実行するためのアプリケーションプログラムを格納している。なお、物体の連続的な軌跡を示す画像を生成する処理を実行するためのアプリケーションプログラムは、例えば、メモリカード28に記録して頒布することができる。そして、メモリカード28をメモリカードスロット27に装着して読み込み処理を行うことにより、物体の連続的な軌跡を示す画像を生成する処理を実行するためのアプリケーションプログラムを、メモリ22に格納させてもよい。また、インターネットなどのネットワークに接続する通信装置(図示せず)を介して、物体の連続的な軌跡を示す画像を生成する処理のためのアプリケーションプログラムをダウンロードし、ダウンロードしたプログラムをメモリ22に読み込ませることもできる。   The memory 22 shown in FIG. 9 is an application program for the processor 21 to execute the process of generating an image showing the continuous trajectory of the object described with reference to FIGS. 5 to 8 together with the operating system of the digital camera 20. Is stored. Note that an application program for executing processing for generating an image showing a continuous trajectory of an object can be recorded and distributed in the memory card 28, for example. Then, by loading the memory card 28 in the memory card slot 27 and performing a reading process, an application program for executing a process for generating an image showing a continuous trajectory of the object may be stored in the memory 22. Good. In addition, an application program for processing for generating an image showing a continuous trajectory of an object is downloaded via a communication device (not shown) connected to a network such as the Internet, and the downloaded program is read into the memory 22. It can also be made.

そして、プロセッサ21は、メモリ22に格納されたアプリケーションプログラムを実行することにより、図5に示した抽出部11、推定部12a、補間部13aの機能を果たしてもよい。また、図5に示した軌跡データベースDBは、メモリ22の記憶領域の一部を用いて実現することができる。   The processor 21 may fulfill the functions of the extraction unit 11, the estimation unit 12a, and the interpolation unit 13a illustrated in FIG. 5 by executing an application program stored in the memory 22. The trajectory database DB shown in FIG. 5 can be realized by using a part of the storage area of the memory 22.

プロセッサ21は、例えば、図5に示したn枚の画像IMG_1〜IMG_nの撮影を開始させる指示が入力装置25を介して入力された場合に、画像IMG_1〜IMG_nから物体の連続的な軌跡を示す画像を生成する処理を実行する。また、プロセッサ21は、物体の連続的な軌跡を示す画像を生成する処理の実行に先立って、図9に示した撮像制御部24に対して、画像IMG_1〜IMG_nの撮影に用いる露光時間の設定を行う。プロセッサ21は、露光時間として、例えば、各画像IMGに含まれる運動する物体MVの像に数画素以上のブレを発生させ、かつ、撮像素子SNCの出力信号を飽和させない時間を設定する。   For example, when an instruction to start photographing the n images IMG_1 to IMG_n illustrated in FIG. 5 is input via the input device 25, the processor 21 indicates a continuous trajectory of an object from the images IMG_1 to IMG_n. A process of generating an image is executed. Further, prior to the execution of the process of generating an image showing a continuous trajectory of the object, the processor 21 sets the exposure time used for photographing the images IMG_1 to IMG_n with respect to the imaging control unit 24 shown in FIG. I do. As the exposure time, for example, the processor 21 sets a time during which a blur of several pixels or more is generated in an image of the moving object MV included in each image IMG and the output signal of the image sensor SNC is not saturated.

図10は、図9に示した画像処理装置10の動作を示す。図10に示したステップS302およびステップS311〜ステップS319の各処理は、物体の連続的な軌跡を示す画像を生成する処理のためのアプリケーションプログラムに含まれる処理の一例である。また、ステップS302およびステップS311〜ステップS319の各処理は、図9に示したプロセッサ21によって実行される。   FIG. 10 shows the operation of the image processing apparatus 10 shown in FIG. Each process of step S302 and step S311 to step S319 illustrated in FIG. 10 is an example of a process included in an application program for generating an image indicating a continuous trajectory of an object. Further, each processing of step S302 and steps S311 to S319 is executed by the processor 21 shown in FIG.

ステップS311において、プロセッサ21は、最初に撮影された画像IMG_1を信号処理部23から取得し、取得した画像IMG_1を初期状態の合成画像としてメモリ22に格納する。   In step S311, the processor 21 acquires the first image IMG_1 taken from the signal processing unit 23, and stores the acquired image IMG_1 in the memory 22 as a composite image in an initial state.

ステップS312において、プロセッサ21は、新たに撮影された画像IMG_k+1(kはn−1以下の正の整数)を信号処理部23から取得し、取得した画像IMG_k+1と画像IMG_kとの差を示す差分画像から図9に示した物体MVの軌跡を抽出する。プロセッサ21は、ステップS312の処理において、第1画像に相当する画像IMG_kと第2画像に相当する画像IMG_k+1とのそれぞれに、運動する複数の物体が含まれている場合に、複数の物体のそれぞれに対応する軌跡を差分画像から抽出する。また、プロセッサ21は、抽出した軌跡のそれぞれを示す情報に対応して、各軌跡を表す画像データをメモリ22あるいはメモリカード28に設けた軌跡データベースDBに蓄積する。   In step S312, the processor 21 acquires a newly captured image IMG_k + 1 (k is a positive integer equal to or less than n−1) from the signal processing unit 23, and indicates a difference image indicating a difference between the acquired image IMG_k + 1 and the image IMG_k. To extract the trajectory of the object MV shown in FIG. In the process of step S312, the processor 21 includes a plurality of moving objects when each of the image IMG_k corresponding to the first image and the image IMG_k + 1 corresponding to the second image includes a plurality of moving objects. The trajectory corresponding to is extracted from the difference image. Further, the processor 21 stores image data representing each trajectory in a trajectory database DB provided in the memory 22 or the memory card 28 corresponding to information indicating each extracted trajectory.

ステップS302において、プロセッサ21は、ステップS312の処理で抽出した軌跡のそれぞれを示す画像の特徴に基づいて、各軌跡で示される物体の運動の特徴を推定する。プロセッサ21は、例えば、図6を用いて説明したようにして、抽出した軌跡のそれぞれを示す画像の領域における輝度値の勾配と軌跡を描いた物体の運動の方向との相関関係に基づいて、物体の運動の方向と、運動の速さとを推定する。また、プロセッサ21は、各軌跡を示す情報に対応して、各軌跡について推定した運動の方向および速さを示す速度ベクトルを示す情報を軌跡データベースDBに蓄積する。   In step S302, the processor 21 estimates the feature of the motion of the object indicated by each trajectory based on the feature of the image indicating each trajectory extracted in the process of step S312. The processor 21, for example, as described with reference to FIG. 6, based on the correlation between the gradient of the luminance value in the image area indicating each extracted locus and the direction of the motion of the object depicting the locus, Estimate the direction of motion of the object and the speed of motion. Further, the processor 21 stores information indicating a velocity vector indicating the direction and speed of the motion estimated for each trajectory in the trajectory database DB in correspondence with information indicating each trajectory.

ステップS313において、プロセッサ21は、ステップS312の処理により、一つ前の画像IMG_kから抽出された軌跡の中の一つを順次に選択し、選択した軌跡を第1軌跡とする。   In step S313, the processor 21 sequentially selects one of the trajectories extracted from the previous image IMG_k by the processing of step S312 and sets the selected trajectory as the first trajectory.

ステップS314において、プロセッサ21は、新たな画像IMG_k+1から抽出された軌跡の中から、ステップS312の処理で選択した第1軌跡と同じ物体の動きを示す軌跡を検出する。プロセッサ21は、図11に示す各処理を実行することにより、撮影順が連続する2枚の画像IMG_k,IMG_k+1において、同じ物体の動きを示す軌跡の組を検出する。   In step S314, the processor 21 detects a trajectory indicating the same object motion as the first trajectory selected in step S312 from the trajectories extracted from the new image IMG_k + 1. The processor 21 detects each set of trajectories indicating the movement of the same object in two images IMG_k and IMG_k + 1 in which the imaging order is continuous by executing each process shown in FIG.

図11は、同じ物体の動きを示す軌跡の組を検出する処理の例を示す。図11に示したステップS321〜ステップS329の各処理は、図10においてステップS314で示した同じ物体の動きを示す軌跡の組を検出する処理の一例である。また、ステップS321〜ステップS329の各処理は、図9に示したプロセッサ21によって実行される。   FIG. 11 shows an example of processing for detecting a set of trajectories indicating the movement of the same object. Each process of step S321 to step S329 illustrated in FIG. 11 is an example of a process of detecting a set of trajectories indicating the movement of the same object illustrated in step S314 in FIG. In addition, each processing of step S321 to step S329 is executed by the processor 21 shown in FIG.

ステップS321において、プロセッサ21は、図10に示したステップS313の処理で選択した第1軌跡を描いて運動する物体が新たな画像IMG_k+1において存在する位置を含む領域を求める。プロセッサ21は、第1軌跡について軌跡データベースDBを参照することで、第1軌跡で示される運動の特徴を取得する。そして、プロセッサ21は、取得した運動の特徴で示される運動の方向および速さに基づいて、図7を用いて説明したようにして、第1軌跡を描いて運動する物体が新たな画像IMG_k+1において存在する位置を含む領域を求める。   In step S321, the processor 21 obtains a region including a position where an object moving along the first locus selected in the process of step S313 illustrated in FIG. 10 exists in the new image IMG_k + 1. The processor 21 refers to the trajectory database DB for the first trajectory, thereby acquiring the motion feature indicated by the first trajectory. Then, based on the direction and speed of the movement indicated by the acquired movement characteristics, the processor 21 moves the object moving along the first trajectory in the new image IMG_k + 1 as described with reference to FIG. The area including the existing position is obtained.

ステップS322において、プロセッサ21は、図10に示したステップS312の処理で新たな画像IMG_k+1から抽出された軌跡から、ステップS327の処理で一つ前の画像IMG_k内の軌跡との対応関係が登録されていない軌跡を選択する。例えば、プロセッサ21は、画像IMG_k+1に対応して軌跡データベースDBに登録された軌跡の中で、画像IMG_kに含まれる軌跡との対応関係を示す情報が登録されていない軌跡を順次に選択し、選択した軌跡を示す情報を取得する。なお、画像IMG_kに含まれる軌跡と画像IMG_k+1に含まれる軌跡との対応関係の登録については、ステップS327において後述する。   In step S322, the processor 21 registers the correspondence between the trajectory extracted from the new image IMG_k + 1 in the process of step S312 shown in FIG. 10 and the trajectory in the previous image IMG_k in the process of step S327. Select a trajectory that is not. For example, the processor 21 sequentially selects and selects a trajectory in which information indicating a correspondence relationship with the trajectory included in the image IMG_k is not registered among trajectories registered in the trajectory database DB corresponding to the image IMG_k + 1. Information indicating the trajectory is obtained. The registration of the correspondence relationship between the trajectory included in image IMG_k and the trajectory included in image IMG_k + 1 will be described later in step S327.

ステップS323において、プロセッサ21は、ステップS322の処理で選択した軌跡が、ステップS321の処理で求めた領域に含まれているか否かを判定する。   In step S323, the processor 21 determines whether or not the trajectory selected in the process in step S322 is included in the region obtained in the process in step S321.

例えば、ステップS322の処理で選択した軌跡に対応して軌跡データベースDBに登録された端点の双方が、ステップS321の処理で求めた領域に含まれる場合に(ステップS323の肯定判定(YES))、プロセッサ21は、ステップS324の処理に進む。   For example, when both of the end points registered in the trajectory database DB corresponding to the trajectory selected in step S322 are included in the region obtained in step S321 (Yes in step S323 (YES)), The processor 21 proceeds to the process of step S324.

ステップS324において、プロセッサ21は、ステップS322の処理で選択された軌跡と、図10に示したステップS313の処理で選択された第1軌跡とのそれぞれで示される運動の方向が互いに類似するか否かを判定する。   In step S324, the processor 21 determines whether or not the directions of motion indicated by the trajectory selected in the process of step S322 and the first trajectory selected in the process of step S313 illustrated in FIG. 10 are similar to each other. Determine whether.

プロセッサ21は、例えば、ステップS322の処理で選択した軌跡と図10に示したステップS313の処理で選択された第1軌跡とのそれぞれに対応して軌跡データベースDBに登録された速度ベクトルで示される運動の方向の差を求める。そして、プロセッサ21は、求めた差と、方向の類似を判定する閾値(例えば、±20度)とを比較することで、ステップS324の判定処理を行い、運動の方向の差が閾値以下である場合に(ステップS324の肯定判定(YES))、ステップS325の処理に進む。   For example, the processor 21 is indicated by a velocity vector registered in the trajectory database DB corresponding to each of the trajectory selected in the process of step S322 and the first trajectory selected in the process of step S313 shown in FIG. Find the difference in direction of motion. Then, the processor 21 performs the determination process in step S324 by comparing the obtained difference with a threshold value (for example, ± 20 degrees) for determining similarity in direction, and the difference in the direction of motion is equal to or less than the threshold value. If (Yes in step S324 (YES)), the process proceeds to step S325.

ステップS325において、プロセッサ21は、ステップS322の処理で選択された軌跡と、図10に示したステップS313の処理で選択された第1軌跡とのそれぞれで示される運動の速さが互いに同等か否かを判定する。   In step S325, the processor 21 determines whether or not the speeds of movement indicated by the trajectory selected in step S322 and the first trajectory selected in step S313 shown in FIG. 10 are equal to each other. Determine whether.

プロセッサ21は、例えば、ステップS322の処理で選択した軌跡と図10に示したステップS313の処理で選択された第1軌跡とのそれぞれに対応して軌跡データベースDBに登録された速度ベクトルで示される運動の速さの比を求める。プロセッサ21は、求めた比が、速さの類似を判定するために設定された範囲(例えば、0.9〜1.1)に含まれるか否かを判定することで、ステップS325の判定処理を行う。そして、運動の速さの比が設定された範囲内である場合に(ステップS325の肯定判定(YES))、プロセッサ21は、両者の速さは同等であると判断し、ステップS326の処理に進む。   For example, the processor 21 is indicated by a velocity vector registered in the trajectory database DB corresponding to each of the trajectory selected in the process of step S322 and the first trajectory selected in the process of step S313 shown in FIG. Find the ratio of the speed of movement. The processor 21 determines whether or not the obtained ratio is included in a range (e.g., 0.9 to 1.1) set for determining the similarity of the speed, whereby the determination process in step S325 is performed. I do. If the ratio of the speeds of movement is within the set range (Yes in step S325 (YES)), the processor 21 determines that both speeds are equal, and the process of step S326 is performed. move on.

ステップS326において、プロセッサ21は、ステップS322の処理で選択された軌跡を示す画像IMG_kの領域の色と、図10に示したステップS313の処理で選択された第1軌跡を示す画像IMG_kの領域の色とが互いに類似するか否かを判定する。   In step S326, the processor 21 determines the color of the area of the image IMG_k indicating the locus selected in the process of step S322 and the area of the image IMG_k indicating the first locus selected in the process of step S313 illustrated in FIG. It is determined whether the colors are similar to each other.

プロセッサ21は、例えば、ステップS322の処理で選択した軌跡と図10に示したステップS313の処理で選択された第1軌跡とのそれぞれに対応して軌跡データベースDBに登録された画像の領域において代表的な色を示す代表色をそれぞれ求める。プロセッサ21は、更に、ステップS322の処理で選択した軌跡について求めた代表色を示す色度座標の各成分と、ステップS313の処理で選択された第1軌跡について求めた代表色を示す色度座標の各成分との比を求める。そして、プロセッサ21は、各成分について求めた比の全てが所定の範囲(例えば、0.9〜1.1など)内である場合に(ステップS326の肯定判定(YES))、ステップS327の処理に進む。   The processor 21 represents, for example, an image area registered in the trajectory database DB corresponding to each of the trajectory selected in the process of step S322 and the first trajectory selected in the process of step S313 shown in FIG. Each representative color indicating a typical color is obtained. The processor 21 further includes each component of chromaticity coordinates indicating the representative color obtained for the locus selected in the process of step S322, and chromaticity coordinates indicating the representative color obtained for the first locus selected in the process of step S313. The ratio with each component of is obtained. Then, when all of the ratios obtained for the respective components are within a predetermined range (for example, 0.9 to 1.1) (affirmative determination in step S326 (YES)), the process of step S327 is performed. Proceed to

以上に説明したステップS323〜ステップS325の各処理をプロセッサ21が実行することにより、撮影順が連続する2枚の画像IMG_k,IMG_k+1において、互いに運動の方向および速さが類似する軌跡を検出することができる。また、プロセッサ21が、ステップS326の処理を実行することにより、第1軌跡として選択された軌跡と運動の特徴が類似した軌跡の中で、更に、類似した色を示す軌跡を検出することができる。これにより、画像IMG_k,IMG_k+1のそれぞれに運動する多数の物体の軌跡が含まれている場合にも、画像IMG_k,IMG_k+1において同じ物体の動きを示している軌跡の組を検出することができる。   The processor 21 executes the processes in steps S323 to S325 described above, thereby detecting a trajectory in which the direction and speed of movement are similar to each other in the two images IMG_k and IMG_k + 1 in which the shooting order is continuous. Can do. Further, by executing the process of step S326, the processor 21 can further detect a trajectory showing a similar color among trajectories similar in motion characteristics to the trajectory selected as the first trajectory. . Thereby, even when the trajectories of a large number of moving objects are included in each of the images IMG_k and IMG_k + 1, it is possible to detect a set of trajectories indicating the movement of the same object in the images IMG_k and IMG_k + 1.

以上に説明したステップS323〜ステップS326の各処理の処理順は、図11に示した順序に限らず、ステップS323〜ステップS326の各処理は、どのような順序で実行されてもよい。そして、ステップS323〜ステップS326の各処理の全てにおいて肯定判定とした場合に、プロセッサ21は、ステップS327の処理に進む。   The processing order of the processes in steps S323 to S326 described above is not limited to the order shown in FIG. 11, and the processes in steps S323 to S326 may be executed in any order. If the determination is affirmative in all the processes in steps S323 to S326, the processor 21 proceeds to the process in step S327.

ステップS327において、プロセッサ21は、ステップS322の処理で選択した軌跡を、図10に示したステップS313の処理で選択された第1軌跡と同じ物体の動きを示す第2軌跡として検出し、2つの軌跡の対応関係を軌跡データベースDBに登録する。例えば、プロセッサ21は、2つの軌跡の対応関係を示す情報として、第1軌跡として検出された画像IMG_k+1に含まれる軌跡に対応して軌跡データベースDBに登録された情報に、画像IMG_kにおいて第1軌跡を示す識別情報を追加する。   In step S327, the processor 21 detects the trajectory selected in the process of step S322 as a second trajectory indicating the same object motion as the first trajectory selected in the process of step S313 shown in FIG. The correspondence relation of the trajectory is registered in the trajectory database DB. For example, the processor 21 uses the information registered in the trajectory database DB corresponding to the trajectory included in the image IMG_k + 1 detected as the first trajectory as information indicating the correspondence relationship between the two trajectories in the image IMG_k. Add identification information to indicate

一方、以上で説明したステップS323〜ステップS326のいずれかの処理において否定判定(NO)となった場合に、プロセッサ21は、ステップS328の処理に進む。   On the other hand, if the determination in step S323 to step S326 described above is negative (NO), the processor 21 proceeds to the process of step S328.

ステップS328において、プロセッサ21は、図10に示したステップS312の処理で画像IMG_k+1から抽出された軌跡の中で、画像IMG_kから抽出された軌跡との対応関係が未登録であり、まだ選択されていない軌跡があるか否かを判定する。   In step S328, the processor 21 has not yet registered the correspondence relationship with the trajectory extracted from the image IMG_k among the trajectories extracted from the image IMG_k + 1 in the process of step S312 shown in FIG. Determine if there is no trajectory.

例えば、プロセッサ21は、軌跡データベースDBを参照し、画像IMG_k+1に対応して登録された軌跡の中から、第1軌跡との対応関係を示す情報が未登録で、ステップS322の処理でまだ選択されていない軌跡を検出する。そして、第1軌跡との対応関係を示す情報が未登録で、ステップS322の処理でまだ選択されていない軌跡を検出した場合に(ステップS328の肯定判定(YES))、プロセッサ21は、ステップS322の処理に戻る。   For example, the processor 21 refers to the trajectory database DB, and information indicating the correspondence relationship with the first trajectory is not registered from the trajectories registered corresponding to the image IMG_k + 1, and is still selected in the process of step S322. Detects a trajectory that is not. When the information indicating the correspondence relationship with the first trajectory is unregistered and a trajectory that has not been selected in the process of step S322 is detected (affirmative determination in step S328 (YES)), the processor 21 proceeds to step S322. Return to the process.

この場合に、プロセッサ21は、軌跡データベースDBに画像IMG_k+1に対応して登録された軌跡の中で、第1軌跡との対応関係が未登録の軌跡の中からまだ選択されていない軌跡を選択し、選択した軌跡について、ステップS323以降の処理を実行する。   In this case, the processor 21 selects a trajectory that has not yet been selected from the trajectories registered in the trajectory database DB in association with the image IMG_k + 1 and whose correspondence with the first trajectory is not registered. Then, the processes after step S323 are executed for the selected locus.

一方、第1軌跡との対応関係が未登録の軌跡の中に、ステップS322の処理でまだ選択されていない軌跡が残っていない場合に(ステップS328の否定判定(NO))、プロセッサ21は、ステップS329の処理に進む。   On the other hand, when there is no trajectory that is not yet selected in the process of step S322 in the trajectory that has not been registered with the first trajectory (No determination in step S328 (NO)), the processor 21 The process proceeds to step S329.

ステップS329において、プロセッサ21は、図10に示したステップS313の処理で第1軌跡として選択された軌跡に対応する軌跡が、新たな画像IMG_k+1に含まれていないことを示す検出結果を出力する。   In step S329, the processor 21 outputs a detection result indicating that the trajectory corresponding to the trajectory selected as the first trajectory in the process of step S313 illustrated in FIG. 10 is not included in the new image IMG_k + 1.

以上に説明したステップS327あるいはステップS329の処理の終了後に、プロセッサ21は、同じ物体の動きを示す軌跡の組を検出する処理を終了し、図10に示したステップS315の処理に進む。   After the process of step S327 or step S329 described above is completed, the processor 21 ends the process of detecting a set of trajectories indicating the movement of the same object, and proceeds to the process of step S315 shown in FIG.

ステップS315において、プロセッサ21は、図8を用いて説明したようにして、ステップS313の処理で第1軌跡として選択した軌跡とステップS314の処理で第2軌跡として検出した軌跡との間を補間する補間軌跡を生成する。なお、図8に示した軌跡Tr1_kは、ステップS313の処理で選択した第1軌跡の一例であり、図8に示した軌跡Tr1_k+1は、ステップS315の処理で検出された第2軌跡の一例である。同様に、図8に示した補間軌跡Tri_kは、ステップS316の処理で生成される補間軌跡の一例である。また、図11を用いて説明したステップS314の処理において、第1軌跡として選択された軌跡に対応する第2軌跡が画像IMG_k+1に含まれていないことを示す検出結果が得られた場合に、プロセッサ21は、ステップS315、S316の処理を省略する。   In step S315, as described with reference to FIG. 8, the processor 21 interpolates between the locus selected as the first locus in the process of step S313 and the locus detected as the second locus in the process of step S314. Generate an interpolation trajectory. The trajectory Tr1_k shown in FIG. 8 is an example of the first trajectory selected in the process of step S313, and the trajectory Tr1_k + 1 shown in FIG. 8 is an example of the second trajectory detected in the process of step S315. . Similarly, the interpolation trajectory Tri_k illustrated in FIG. 8 is an example of the interpolation trajectory generated by the process of step S316. Further, in the process of step S314 described with reference to FIG. 11, when a detection result indicating that the second trajectory corresponding to the trajectory selected as the first trajectory is not included in the image IMG_k + 1 is obtained, the processor 21 omits the processes of steps S315 and S316.

ステップS316において、プロセッサ21は、ステップS315の処理で生成した補間軌跡とステップS314の処理で第2軌跡として検出した軌跡とを示す画像を、メモリ22に格納された合成画像に追加する。これにより、図3に示した補間された軌跡Trc_kや図8に示した補間された軌跡Trc1_jのように、撮影順が連続する2枚の画像のそれぞれに含まれる軌跡を含み、物体MVの動きを連続的に表す軌跡を示す合成画像を生成することができる。   In step S316, the processor 21 adds an image indicating the interpolation trajectory generated in step S315 and the trajectory detected as the second trajectory in step S314 to the composite image stored in the memory 22. As a result, the movement of the object MV includes the trajectories included in each of the two images in the order of photographing, such as the interpolated trajectory Trc_k shown in FIG. 3 and the interpolated trajectory Trc1_j shown in FIG. It is possible to generate a composite image showing a trajectory that continuously represents.

ステップS317において、プロセッサ21は、ステップS312の処理で画像IMG_kから抽出された全ての軌跡をステップS313の処理で選択したか否かを判定する。   In step S317, the processor 21 determines whether or not all the trajectories extracted from the image IMG_k in step S312 have been selected in step S313.

ステップS313の処理で選択されていない軌跡がまだ残っている場合に(ステップS317の否定判定(NO))、プロセッサ21は、ステップS313の処理に戻り、新たに選択した軌跡について、ステップS314〜ステップS317の処理を実行する。   If there is still a locus that has not been selected in the process of step S313 (No determination in step S317 (NO)), the processor 21 returns to the process of step S313, and steps S314 to S3 are performed for the newly selected locus. The process of S317 is executed.

ステップS312の処理で画像IMG_kから抽出された全ての軌跡について、ステップS313〜ステップS317の処理が完了した場合に(ステップS317の肯定判定(YES))、プロセッサ21は、ステップS318の処理に進む。   When the processes in steps S313 to S317 are completed for all the trajectories extracted from the image IMG_k in the process of step S312 (Yes in step S317 (YES)), the processor 21 proceeds to the process of step S318.

ステップS318において、プロセッサ21は、例えば、図9に示した入力装置25からの指示を示す信号などに基づいて、撮影が継続中であるか否かを判定する。   In step S318, for example, the processor 21 determines whether or not shooting is being continued based on a signal indicating an instruction from the input device 25 illustrated in FIG.

例えば、入力装置25からの信号により、入力装置25に設けられたレリーズボタンが押下された状態が継続していることが示された場合に、プロセッサ21は、デジタルカメラ20の利用者により撮影の継続が指示されていると判断する。この場合に、プロセッサ21は、ステップS318の肯定判定(YES)ルートに従ってステップS312に進み、新たに撮影された画像についての処理を開始する。   For example, when the signal from the input device 25 indicates that the release button provided on the input device 25 is being pressed, the processor 21 performs shooting by the user of the digital camera 20. Judge that continuation is instructed. In this case, the processor 21 proceeds to step S312 according to the affirmative determination (YES) route of step S318, and starts processing for a newly captured image.

一方、入力装置25からの信号により、レリーズボタンが押下された状態が解除されたことが示された場合に、プロセッサ21は、デジタルカメラ20の利用者により撮影の停止が指示されたと判断する。この場合に、プロセッサ21は、ステップS318の否定判定(NO)ルートに従ってステップS319に進む。   On the other hand, when the signal from the input device 25 indicates that the release button has been released, the processor 21 determines that the user of the digital camera 20 has instructed to stop shooting. In this case, the processor 21 proceeds to step S319 according to a negative determination (NO) route of step S318.

ステップS319において、プロセッサ21は、メモリ22に格納された合成画像を表示装置24に渡し、表示装置24に含まれる表示画面に表示させることで、デジタルカメラ20の利用者に、物体MVの連続的な軌跡を含む合成画像を提示する。ステップS319の処理において提示される合成画像は、物体MVの撮影が開始されてから撮影が終了するまでに物体MVが動いた軌跡を連続的に表している。   In step S319, the processor 21 passes the composite image stored in the memory 22 to the display device 24 and displays it on the display screen included in the display device 24, thereby allowing the user of the digital camera 20 to continuously display the objects MV. A composite image including a simple trajectory. The composite image presented in the process of step S319 continuously represents the trajectory of the movement of the object MV from the start of shooting of the object MV to the end of shooting.

すなわち、図10および図11に示した処理をプロセッサ21が実行することで、デジタルカメラ20により、動く物体MVを離散的に撮影する過程の中で、撮影の開始から終了までの期間に物体MVが動いた軌跡を連続的に表す合成画像を生成することができる。   That is, when the processor 21 executes the processing shown in FIGS. 10 and 11, the object MV is captured during the period from the start to the end of shooting in the process of discretely shooting the moving object MV with the digital camera 20. It is possible to generate a composite image that continuously represents the trajectory of the movement.

また、図10および図11に示した処理を実行するプロセッサは、図9に示したデジタルカメラのように撮影機能を含む装置に搭載されたプロセッサに限らず、撮影機能を含まないコンピュータ装置に搭載されたプロセッサによって実行されてもよい。   10 and FIG. 11 is not limited to a processor mounted on a device including a shooting function such as the digital camera shown in FIG. 9, but is mounted on a computer device that does not include a shooting function. May be executed by a designated processor.

図12は、画像処理装置10のハードウェア構成の一例を示す。なお、図12に示した構成要素のうち、図1または図5に示した構成要素と同等のものは、同じ符号で示すとともに構成要素の説明を省略する場合がある。   FIG. 12 shows an example of the hardware configuration of the image processing apparatus 10. Note that, among the components shown in FIG. 12, components equivalent to those shown in FIG. 1 or FIG. 5 are denoted by the same reference numerals and description of the components may be omitted.

図12に示したコンピュータ装置30は、プロセッサ31と、メモリ32と、ハードディスク装置33と、汎用インタフェース34と、入力装置35と、表示装置36と、ネットワークインタフェース37と、光学ドライブ38とを含んでいる。図12に例示したプロセッサ31と、メモリ32と、ハードディスク装置33と、汎用インタフェース34と、入力装置35と、表示装置36と、ネットワークインタフェース37と、光学ドライブ38とは、バスを介して互いに接続されている。   The computer device 30 shown in FIG. 12 includes a processor 31, a memory 32, a hard disk device 33, a general-purpose interface 34, an input device 35, a display device 36, a network interface 37, and an optical drive 38. Yes. The processor 31, the memory 32, the hard disk device 33, the general-purpose interface 34, the input device 35, the display device 36, the network interface 37, and the optical drive 38 illustrated in FIG. 12 are connected to each other via a bus. Has been.

また、コンピュータ装置30は、汎用インタフェース34を介して、撮影装置GRDに接続されており、また、ネットワークインタフェース37を介してインターネットなどのネットワークNWに接続されている。図12に示したプロセッサ31とメモリ32とハードディスク装置33と汎用インタフェース34とは、画像処理装置10に含まれる。   The computer device 30 is connected to the photographing device GRD via the general-purpose interface 34, and is connected to a network NW such as the Internet via the network interface 37. The processor 31, the memory 32, the hard disk device 33, and the general-purpose interface 34 illustrated in FIG. 12 are included in the image processing apparatus 10.

入力装置35は、例えば、キーボードやマウスなどであり、コンピュータ装置30の利用者からの指示の入力に用いられる。また、表示装置36は、例えば、液晶ディスプレイ装置などであり、利用者に対する画像の提示などに用いられる。   The input device 35 is, for example, a keyboard or a mouse, and is used for inputting an instruction from a user of the computer device 30. The display device 36 is a liquid crystal display device, for example, and is used for presenting images to the user.

また、光学ドライブ38は、光ディスクなどのリムーバブルディスクRMDを装着可能であり、装着したリムーバブルディスクRMDに記録された情報の読出およびリムーバブルディスクRMDへの情報の記録を行う。   The optical drive 38 can be mounted with a removable disk RMD such as an optical disk, and reads information recorded on the mounted removable disk RMD and records information on the removable disk RMD.

図12に示したメモリ32は、コンピュータ装置30のオペレーティングシステムとともに、図10、図11に示した物体の連続的な軌跡を示す画像を生成する処理をプロセッサ31が実行するためのアプリケーションプログラムを格納している。なお、物体の連続的な軌跡を示す画像を生成する処理を実行するためのアプリケーションプログラムは、例えば、リムーバブルディスクRMDに記録して頒布することができる。そして、リムーバブルディスクRMDを光学ドライブ装置38に装着して読み込み処理を行うことにより、物体の連続的な軌跡を示す画像を生成する処理を実行するためのアプリケーションプログラムを、メモリ32に格納させてもよい。また、物体の連続的な軌跡を示す画像を生成する処理のためのアプリケーションプログラムは、ネットワークNWに接続されたサーバ装置SVから、ネットワークインタフェース37を介してダウンロードすることもできる。そして、ダウンロードしたプログラムをメモリ32またはハードディスク装置33に読み込ませてもよい。   The memory 32 illustrated in FIG. 12 stores an application program for the processor 31 to execute processing for generating an image indicating the continuous trajectory of the object illustrated in FIGS. 10 and 11 together with the operating system of the computer device 30. doing. Note that an application program for executing processing for generating an image showing a continuous trajectory of an object can be recorded and distributed, for example, on a removable disk RMD. Then, by loading the removable disk RMD into the optical drive device 38 and performing reading processing, an application program for executing processing for generating an image showing a continuous trajectory of the object may be stored in the memory 32. Good. In addition, an application program for processing for generating an image showing a continuous trajectory of an object can be downloaded via the network interface 37 from the server device SV connected to the network NW. Then, the downloaded program may be read into the memory 32 or the hard disk device 33.

そして、プロセッサ31は、メモリ32に格納されたアプリケーションプログラムを実行することにより、図5に示した抽出部11、推定部12a、補間部13aの機能を果たす。また、図5に示した軌跡データベースDBは、メモリ32またはハードディスク装置33の記憶領域の一部を用いて実現することができる。   Then, the processor 31 performs the functions of the extraction unit 11, the estimation unit 12a, and the interpolation unit 13a illustrated in FIG. 5 by executing the application program stored in the memory 32. Further, the trajectory database DB shown in FIG. 5 can be realized by using a part of the storage area of the memory 32 or the hard disk device 33.

プロセッサ31は、例えば、撮影装置GRDにより、図5に示したn枚の画像IMG_1〜IMG_nの撮影が完了した後に、汎用インタフェース34を介して、撮影装置GRDから画像IMG_1〜IMG_nを示す画像データを取得する。プロセッサ31は、取得した画像データをハードディスク装置33などに蓄積する。また、プロセッサ31は、蓄積した画像データを順次に読み出し、読み出した画像に基づいて、図10に示したステップS312〜ステップS317の処理を実行することで、物体の連続的な軌跡を示す画像を生成する。   For example, the processor 31 captures image data indicating the images IMG_1 to IMG_n from the photographing device GRD via the general-purpose interface 34 after the photographing of the n images IMG_1 to IMG_n illustrated in FIG. get. The processor 31 stores the acquired image data in the hard disk device 33 or the like. Further, the processor 31 sequentially reads out the accumulated image data, and executes the processing in steps S312 to S317 shown in FIG. 10 based on the read-out image, thereby obtaining an image showing a continuous trajectory of the object. Generate.

図12に示した画像処理装置10は、コンピュータ装置30に搭載されたプロセッサ31により、運動する物体を離散的に撮影した複数の画像から物体の連続的な軌跡を示す画像を生成する処理を撮影処理とは独立に実行することで、処理の高速化が可能である。   The image processing apparatus 10 illustrated in FIG. 12 captures a process of generating an image indicating a continuous locus of an object from a plurality of images obtained by discretely capturing a moving object by a processor 31 mounted on the computer apparatus 30. By executing the processing independently of the processing, the processing speed can be increased.

また、物体の連続的な軌跡を示す画像を生成する処理は、インターネットなどのネットワークを介したクラウドサービスとして提供することも可能である。   Further, the process of generating an image showing a continuous trajectory of an object can be provided as a cloud service via a network such as the Internet.

図13は、図5に示した画像処理装置10のハードウェア構成の別例を示す。なお、図13に示した構成要素のうち、図1または図5に示した構成要素と同等のものは、同じ符号で示すとともに構成要素の説明を省略する場合がある。   FIG. 13 shows another example of the hardware configuration of the image processing apparatus 10 shown in FIG. Note that, among the components shown in FIG. 13, components equivalent to those shown in FIG. 1 or FIG. 5 are denoted by the same reference numerals and description of the components may be omitted.

図13に示したサーバ装置40は、プロセッサ41と、メモリ42と、ハードディスク装置43と、ネットワークインタフェース44と、光学ドライブ45とを含んでいる。図13に示したプロセッサ41と、メモリ42と、ハードディスク装置43と、ネットワークインタフェース44と、光学ドライブ45とは、バスを介して互いに接続されている。   The server device 40 illustrated in FIG. 13 includes a processor 41, a memory 42, a hard disk device 43, a network interface 44, and an optical drive 45. The processor 41, the memory 42, the hard disk device 43, the network interface 44, and the optical drive 45 illustrated in FIG. 13 are connected to each other via a bus.

また、サーバ装置40は、ネットワークインタフェース44を介してインターネットなどのネットワークNWに接続されている。図13に示したプロセッサ41とメモリ42とハードディスク装置43とネットワークインタフェース44とは、画像処理装置10に含まれる。   The server device 40 is connected to a network NW such as the Internet via a network interface 44. The processor 41, the memory 42, the hard disk device 43, and the network interface 44 illustrated in FIG. 13 are included in the image processing apparatus 10.

また、光学ドライブ45は、光ディスクなどのリムーバブルディスクRMDを装着可能であり、装着したリムーバブルディスクRMDに記録された情報の読出およびリムーバブルディスクRMDへの情報の記録を行う。   The optical drive 45 can be mounted with a removable disk RMD such as an optical disk, and reads information recorded on the mounted removable disk RMD and records information on the removable disk RMD.

また、サーバ装置40は、ネットワークNWを介して、物体の連続的な軌跡を示す画像を生成する処理を用いたサービスの利用者が所持する携帯端末UEに接続されている。   The server device 40 is connected to a mobile terminal UE possessed by a service user using a process of generating an image showing a continuous trajectory of an object via the network NW.

携帯端末UEは、例えば、スマートフォンなどであり、カメラ機能と無線によるネットワーク接続機能を有している。そして、利用者が携帯端末UEのカメラ機能を用いて撮影した複数の画像は、ネットワークNWを介して、ネットワークNWに接続された別のサーバ装置SVaに渡され、更に、画像を蓄積する画像蓄積装置Gacに蓄積されている。図13に示した画像蓄積装置Gacに蓄積された画像は、図5に示したn枚の画像IMG_1〜IMG_nに相当する。   The mobile terminal UE is, for example, a smartphone, and has a camera function and a wireless network connection function. Then, a plurality of images taken by the user using the camera function of the mobile terminal UE are passed to another server device SVa connected to the network NW via the network NW, and further, image storage for storing images Accumulated in the device Gac. The images stored in the image storage device Gac shown in FIG. 13 correspond to the n images IMG_1 to IMG_n shown in FIG.

図13に示したメモリ42は、サーバ装置40のオペレーティングシステムとともに、図10、図11に示した物体の連続的な軌跡を示す画像を生成する処理をプロセッサ41が実行するためのアプリケーションプログラムを格納している。なお、物体の連続的な軌跡を示す画像を生成する処理を実行するためのアプリケーションプログラムは、例えば、リムーバブルディスクRMDに記録して頒布することができる。そして、リムーバブルディスクRMDを光学ドライブ装置45に装着して読み込み処理を行うことにより、物体の連続的な軌跡を示す画像を生成する処理を実行するためのアプリケーションプログラムを、メモリ42に格納させてもよい。また、物体の連続的な軌跡を示す画像を生成する処理のためのアプリケーションプログラムは、ネットワークNWに接続されたサーバ装置SVaから、ネットワークインタフェース44を介してダウンロードすることもできる。そして、ダウンロードしたプログラムをメモリ42またはハードディスク装置43に読み込ませてもよい。   The memory 42 illustrated in FIG. 13 stores an application program for the processor 41 to execute processing for generating an image indicating the continuous trajectory of the object illustrated in FIGS. 10 and 11 together with the operating system of the server device 40. doing. Note that an application program for executing processing for generating an image showing a continuous trajectory of an object can be recorded and distributed, for example, on a removable disk RMD. Then, by loading the removable disk RMD into the optical drive device 45 and performing reading processing, an application program for executing processing for generating an image showing a continuous trajectory of the object may be stored in the memory 42. Good. In addition, an application program for processing for generating an image indicating a continuous trajectory of an object can be downloaded from the server device SVa connected to the network NW via the network interface 44. Then, the downloaded program may be read into the memory 42 or the hard disk device 43.

そして、プロセッサ41は、メモリ42に格納されたアプリケーションプログラムを実行することにより、図5に示した抽出部11、推定部12a、補間部13aの機能を果たす。また、図5に示した軌跡データベースDBは、メモリ42またはハードディスク装置43の記憶領域の一部を用いて実現することができる。   The processor 41 performs the functions of the extraction unit 11, the estimation unit 12a, and the interpolation unit 13a illustrated in FIG. 5 by executing the application program stored in the memory 42. Further, the trajectory database DB shown in FIG. 5 can be realized by using a part of the storage area of the memory 42 or the hard disk device 43.

プロセッサ41は、例えば、携帯端末UEからサービスを要求された際に、画像蓄積装置Gacに予め蓄積された画像の中から、サービスの要求において指定された複数の画像を、サーバ装置SVaを介して取得する。プロセッサ41は、取得した画像データを、図5に示した画像IMG_1〜IMG_nとしてハードディスク装置33などに蓄積する。また、プロセッサ41は、蓄積した画像データを順次に読み出し、読み出した画像に基づいて、図10に示したステップS312〜ステップS317の処理を実行することで、物体の連続的な軌跡を示す画像を生成する。   For example, when a service is requested from the mobile terminal UE, the processor 41 displays a plurality of images specified in the service request from the images stored in advance in the image storage device Gac via the server device SVa. get. The processor 41 stores the acquired image data in the hard disk device 33 or the like as the images IMG_1 to IMG_n illustrated in FIG. Further, the processor 41 sequentially reads the stored image data, and executes the processing of steps S312 to S317 shown in FIG. 10 based on the read image, thereby obtaining an image showing a continuous trajectory of the object. Generate.

図13に示した画像処理装置10は、運動する物体を離散的に撮影した複数の画像から物体の連続的な軌跡を示す画像を生成するサービスを、ネットワークNWを介して提供することができる。   The image processing apparatus 10 illustrated in FIG. 13 can provide a service for generating an image indicating a continuous locus of an object from a plurality of images obtained by discretely capturing moving objects via the network NW.

以上の詳細な説明により、実施形態の特徴点及び利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で、前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更を容易に想到できるはずである。したがって、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物に拠ることも可能である。   From the above detailed description, features and advantages of the embodiment will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and changes. Therefore, there is no intention to limit the scope of the inventive embodiments to those described above, and appropriate modifications and equivalents included in the scope disclosed in the embodiments can be used.

以上の説明に関して、更に、以下の各項を開示する。
(付記1)
物体を順次に撮影することで得られる第1画像と第2画像とが入力され、前記第1画像に含まれる前記物体のブレを前記物体の第1軌跡として抽出し、前記第2画像に含まれる前記物体のブレを前記物体の第2軌跡として抽出する抽出部と、
前記抽出部によって抽出された前記第1軌跡および前記第2軌跡のそれぞれの画像の特徴に基づいて、前記第1画像と前記第2画像とのそれぞれが撮影された時刻における前記物体の運動の特徴を推定する推定部と、
前記推定部により推定された前記物体の運動の特徴に基づいて、前記第1画像が撮影されてから前記第2画像が撮影されるまでの間における前記物体の軌跡を求め、求めた軌跡を用いて前記第1軌跡と前記第2軌跡との間に軌跡を補間する補間部と、
を備えたことを特徴とする画像処理装置。
(付記2)
付記1に記載の画像処理装置において、
前記推定部は、
前記第1軌跡および前記第2軌跡のそれぞれに含まれる各画素の色または輝度を示す画素値の勾配が他の方向よりも小さい方向を求め、求めた方向を、前記第1画像および前記第2画像のそれぞれが撮影された時刻における前記物体の運動の特徴の一つである前記物体の運動の方向とする
ことを特徴とする画像処理装置。
(付記3)
付記1または付記2に記載の画像処理装置において、
前記第1画像および前記第2画像のそれぞれに複数の物体が含まれ、前記抽出部により、前記第1画像および前記第2画像から前記複数の物体のそれぞれの前記第1軌跡および前記第2軌跡が抽出された場合に、
前記補間部は、
前記抽出部により前記第1画像から抽出された前記第1軌跡毎に、前記第2画像から抽出された複数の前記第2軌跡の中から、前記第1画像から抽出された前記第1軌跡について前記推定部により推定された運動の特徴と類似する運動の特徴が推定された一つの前記第2軌跡を、前記第1軌跡に対応する第2軌跡として検出する検出部と、
前記第1画像から抽出された複数の前記第1軌跡のそれぞれと前記第1軌跡に対応して検出された前記第2軌跡のそれぞれとの間を補間する補間軌跡を生成する生成部とを有する
ことを特徴とする画像処理装置。
(付記4)
付記3に記載の画像処理装置において、
前記検出部は、
前記抽出部により前記第2画像から抽出された複数の前記第2軌跡の中から、前記第1軌跡の画像の特徴に類似した特徴を有する一つの前記第2軌跡を、前記第1軌跡に対応する第2軌跡として検出する
ことを特徴とする画像処理装置。
(付記5)
付記3に記載の画像処理装置において、
前記検出部は、
前記第1軌跡について推定された運動の特徴に含まれる運動の方向と速さとに基づいて、前記第2画像において前記物体が存在することが予測される位置を含む領域を求める予測部を有し、
前記予測部で求められた領域に含まれる前記第2軌跡の中から、前記第1軌跡について推定された運動の特徴と類似した運動の特徴が推定された一つの前記第2軌跡を、前記第1軌跡に対応する第2軌跡として検出する
ことを特徴とする画像処理装置。
(付記6)
物体を順次に撮影することで得られる第1画像と第2画像との入力を受け、前記第1画像に含まれる前記物体のブレを前記物体の第1軌跡として抽出し、前記第2画像に含まれる前記物体のブレを前記物体の第2軌跡として抽出し、
前記抽出された前記第1軌跡および前記第2軌跡のそれぞれの画像の特徴に基づいて、前記第1画像と前記第2画像とのそれぞれが撮影された時刻における前記物体の運動の特徴を推定し、
前記推定された前記物体の運動の特徴に基づいて、前記第1画像が撮影されてから前記第2画像が撮影されるまでの間における前記物体の軌跡を求め、求めた軌跡を用いて前記第1軌跡と前記第2軌跡との間に軌跡を補間する、
ことを特徴とする画像処理方法。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
A first image and a second image obtained by sequentially photographing an object are input, and blurring of the object included in the first image is extracted as a first trajectory of the object and included in the second image. An extraction unit that extracts a blur of the object as a second locus of the object;
Based on the characteristics of the images of the first trajectory and the second trajectory extracted by the extraction unit, characteristics of the motion of the object at the time when each of the first image and the second image is captured An estimation unit for estimating
Based on the motion characteristics of the object estimated by the estimation unit, a trajectory of the object is obtained between the time when the first image is captured and the time when the second image is captured, and the determined trajectory is used. An interpolation unit for interpolating a trajectory between the first trajectory and the second trajectory;
An image processing apparatus comprising:
(Appendix 2)
In the image processing apparatus according to attachment 1,
The estimation unit includes
A direction in which the gradient of the pixel value indicating the color or luminance of each pixel included in each of the first trajectory and the second trajectory is smaller than the other directions is obtained, and the obtained directions are represented by the first image and the second trajectory. An image processing apparatus, characterized in that the direction of movement of the object, which is one of the characteristics of the movement of the object at the time when each of the images was taken.
(Appendix 3)
In the image processing apparatus according to appendix 1 or appendix 2,
A plurality of objects are included in each of the first image and the second image, and the first locus and the second locus of each of the plurality of objects from the first image and the second image by the extraction unit. Is extracted,
The interpolation unit
For each first trajectory extracted from the first image by the extraction unit, the first trajectory extracted from the first image from among the plurality of second trajectories extracted from the second image. A detection unit that detects one second trajectory in which a motion feature similar to the motion feature estimated by the estimation unit is estimated as a second trajectory corresponding to the first trajectory;
A generation unit configured to generate an interpolation trajectory for interpolating between each of the plurality of first trajectories extracted from the first image and each of the second trajectories detected corresponding to the first trajectory; An image processing apparatus.
(Appendix 4)
In the image processing device according to attachment 3,
The detector is
One of the plurality of second trajectories extracted from the second image by the extraction unit corresponds to one second trajectory having characteristics similar to those of the image of the first trajectory. An image processing apparatus, wherein the second locus is detected.
(Appendix 5)
In the image processing device according to attachment 3,
The detector is
A prediction unit that obtains a region including a position where the object is predicted to be present in the second image based on a motion direction and speed included in a motion characteristic estimated for the first trajectory; ,
From the second trajectory included in the region obtained by the prediction unit, the second trajectory in which a motion feature similar to the motion feature estimated for the first trajectory is estimated is obtained as the second trajectory. An image processing apparatus that detects a second locus corresponding to one locus.
(Appendix 6)
In response to the input of the first image and the second image obtained by sequentially photographing the object, the blur of the object included in the first image is extracted as the first trajectory of the object, and the second image is extracted. Extracting the blur of the contained object as a second trajectory of the object;
Based on the extracted image characteristics of the first trajectory and the second trajectory, the motion characteristic of the object at the time when the first image and the second image are captured is estimated. ,
Based on the estimated motion characteristics of the object, a trajectory of the object from the first image is captured until the second image is captured, and the first trajectory is used to determine the trajectory of the object. Interpolating a trajectory between one trajectory and the second trajectory;
An image processing method.

10…画像処理装置;11…抽出部;12,12a…推定部;13,13a…補間部;14…合成部;121…算出部;122…特定部;131…検出部;132…生成部;133…予測部;134…照合部;20…デジタルカメラ;21,31,41…プロセッサ;22,32,42…メモリ;23…信号処理部;24…撮像制御部;25,35…入力装置;26,36…表示装置;27…メモリカードスロット;28…メモリカード;33,43…ハードディスク装置;34…汎用インタフェース;37,44…ネットワークインタフェース;38…光学ドライブ装置;GRD…撮影装置;SYN…合成装置;DB…軌跡データベース;RMD…リムーバブルディスク;NW…ネットワーク;SNC…撮像素子;OPT…撮像光学系;SV,SVa…サーバ装置;Gac…画像蓄積装置;UE…携帯端末

DESCRIPTION OF SYMBOLS 10 ... Image processing apparatus; 11 ... Extraction part; 12, 12a ... Estimation part; 13, 13a ... Interpolation part; 14 ... Synthesis part; 121 ... Calculation part; 122 ... Identification part; 133 ... Prediction unit; 134 ... Collation unit; 20 ... Digital camera; 21, 31, 41 ... Processor; 22, 32, 42 ... Memory; 23 ... Signal processing unit; 24 ... Imaging control unit; 26, 36 ... display device; 27 ... memory card slot; 28 ... memory card; 33, 43 ... hard disk device; 34 ... general-purpose interface; 37, 44 ... network interface; 38 ... optical drive device; GRD ... photographing device; Synthesizer; DB ... locus database; RMD ... removable disk; NW ... network; SNC ... imaging device; OPT ... imaging optical system; , SVa ... server; Gac ... image storage apparatus; UE ... portable terminal

Claims (5)

物体を順次に撮影することで得られる第1画像と第2画像とが入力され、前記第1画像に含まれる前記物体のブレを前記物体の第1軌跡として抽出し、前記第2画像に含まれる前記物体のブレを前記物体の第2軌跡として抽出する抽出部と、
前記抽出部によって抽出された前記第1軌跡および前記第2軌跡のそれぞれの画像の特徴に基づいて、前記第1画像と前記第2画像とのそれぞれが撮影された時刻における前記物体の運動の特徴を推定する推定部と、
前記推定部により推定された前記物体の運動の特徴に基づいて、前記第1画像が撮影されてから前記第2画像が撮影されるまでの間における前記物体の軌跡を求め、求めた軌跡を用いて前記第1軌跡と前記第2軌跡との間に軌跡を補間する補間部と、
を備えたことを特徴とする画像処理装置。
A first image and a second image obtained by sequentially photographing an object are input, and blurring of the object included in the first image is extracted as a first trajectory of the object and included in the second image. An extraction unit that extracts a blur of the object as a second locus of the object;
Based on the characteristics of the images of the first trajectory and the second trajectory extracted by the extraction unit, characteristics of the motion of the object at the time when each of the first image and the second image is captured An estimation unit for estimating
Based on the motion characteristics of the object estimated by the estimation unit, a trajectory of the object is obtained between the time when the first image is captured and the time when the second image is captured, and the determined trajectory is used. An interpolation unit for interpolating a trajectory between the first trajectory and the second trajectory;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記推定部は、
前記第1軌跡および前記第2軌跡のそれぞれに含まれる各画素の色または輝度を示す画素値の勾配が他の方向よりも小さい方向を求め、求めた方向を、前記第1画像および前記第2画像のそれぞれが撮影された時刻における前記物体の運動の特徴の一つである前記物体の運動の方向とする
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The estimation unit includes
A direction in which the gradient of the pixel value indicating the color or luminance of each pixel included in each of the first trajectory and the second trajectory is smaller than the other directions is obtained, and the obtained directions are represented by the first image and the second trajectory. An image processing apparatus, characterized in that the direction of movement of the object, which is one of the characteristics of the movement of the object at the time when each of the images was taken.
請求項1または請求項2に記載の画像処理装置において、
前記第1画像および前記第2画像のそれぞれに複数の物体が含まれ、前記抽出部により、前記第1画像および前記第2画像から前記複数の物体のそれぞれの前記第1軌跡および前記第2軌跡が抽出された場合に、
前記補間部は、
前記抽出部により前記第1画像から抽出された前記第1軌跡毎に、前記第2画像から抽出された複数の前記第2軌跡の中から、前記第1画像から抽出された前記第1軌跡について前記推定部により推定された運動の特徴と類似する運動の特徴が推定された一つの前記第2軌跡を、前記第1軌跡に対応する第2軌跡として検出する検出部と、
前記第1画像から抽出された複数の前記第1軌跡のそれぞれと前記第1軌跡に対応して検出された前記第2軌跡のそれぞれとの間を補間する補間軌跡を生成する生成部とを有する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
A plurality of objects are included in each of the first image and the second image, and the first locus and the second locus of each of the plurality of objects from the first image and the second image by the extraction unit. Is extracted,
The interpolation unit
For each first trajectory extracted from the first image by the extraction unit, the first trajectory extracted from the first image from among the plurality of second trajectories extracted from the second image. A detection unit that detects one second trajectory in which a motion feature similar to the motion feature estimated by the estimation unit is estimated as a second trajectory corresponding to the first trajectory;
A generation unit configured to generate an interpolation trajectory for interpolating between each of the plurality of first trajectories extracted from the first image and each of the second trajectories detected corresponding to the first trajectory; An image processing apparatus.
請求項3に記載の画像処理装置において、
前記検出部は、
前記抽出部により前記第2画像から抽出された複数の前記第2軌跡の中から、前記第1軌跡の画像の特徴に類似した特徴を有する一つの前記第2軌跡を、前記第1軌跡に対応する第2軌跡として検出する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
The detector is
One of the plurality of second trajectories extracted from the second image by the extraction unit corresponds to one second trajectory having characteristics similar to those of the image of the first trajectory. An image processing apparatus, wherein the second locus is detected.
物体を順次に撮影することで得られる第1画像と第2画像との入力を受け、前記第1画像に含まれる前記物体のブレを前記物体の第1軌跡として抽出し、前記第2画像に含まれる前記物体のブレを前記物体の第2軌跡として抽出し、
前記抽出された前記第1軌跡および前記第2軌跡のそれぞれの画像の特徴に基づいて、前記第1画像と前記第2画像とのそれぞれが撮影された時刻における前記物体の運動の特徴を推定し、
前記推定された前記物体の運動の特徴に基づいて、前記第1画像が撮影されてから前記第2画像が撮影されるまでの間における前記物体の軌跡を求め、求めた軌跡を用いて前記第1軌跡と前記第2軌跡との間に軌跡を補間する、
ことを特徴とする画像処理方法。
In response to the input of the first image and the second image obtained by sequentially photographing the object, the blur of the object included in the first image is extracted as the first trajectory of the object, and the second image is extracted. Extracting the blur of the contained object as a second trajectory of the object;
Based on the extracted image characteristics of the first trajectory and the second trajectory, the motion characteristic of the object at the time when the first image and the second image are captured is estimated. ,
Based on the estimated motion characteristics of the object, a trajectory of the object from the first image is captured until the second image is captured, and the first trajectory is used to determine the trajectory of the object. Interpolating a trajectory between one trajectory and the second trajectory;
An image processing method.
JP2013225143A 2013-10-30 2013-10-30 Image processing apparatus and image processing method Active JP6237119B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013225143A JP6237119B2 (en) 2013-10-30 2013-10-30 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013225143A JP6237119B2 (en) 2013-10-30 2013-10-30 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2015087904A true JP2015087904A (en) 2015-05-07
JP6237119B2 JP6237119B2 (en) 2017-11-29

Family

ID=53050647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013225143A Active JP6237119B2 (en) 2013-10-30 2013-10-30 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6237119B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017069939A (en) * 2015-10-02 2017-04-06 キヤノン株式会社 Image processing system, control method of the same, and program
JP2019121981A (en) * 2018-01-10 2019-07-22 キヤノン株式会社 Image processing apparatus, image processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004164563A (en) * 2002-09-26 2004-06-10 Toshiba Corp Image analysis method, image analysis apparatus, image analysis program
JP2005123824A (en) * 2003-10-15 2005-05-12 Nippon Hoso Kyokai <Nhk> Video object locus composing apparatus, method and program thereof
JP2009020897A (en) * 2002-09-26 2009-01-29 Toshiba Corp Image analysis method, image analysis apparatus, image analysis program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004164563A (en) * 2002-09-26 2004-06-10 Toshiba Corp Image analysis method, image analysis apparatus, image analysis program
JP2009020897A (en) * 2002-09-26 2009-01-29 Toshiba Corp Image analysis method, image analysis apparatus, image analysis program
JP2005123824A (en) * 2003-10-15 2005-05-12 Nippon Hoso Kyokai <Nhk> Video object locus composing apparatus, method and program thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017069939A (en) * 2015-10-02 2017-04-06 キヤノン株式会社 Image processing system, control method of the same, and program
JP2019121981A (en) * 2018-01-10 2019-07-22 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP7102150B2 (en) 2018-01-10 2022-07-19 キヤノン株式会社 Image processing equipment, image processing methods, and programs

Also Published As

Publication number Publication date
JP6237119B2 (en) 2017-11-29

Similar Documents

Publication Publication Date Title
KR102480245B1 (en) Automated generation of panning shots
JP6655878B2 (en) Image recognition method and apparatus, program
JP4586709B2 (en) Imaging device
JP2006191526A (en) Digital photographing device selecting optimum taking opportune moment
US10121089B2 (en) Object information extraction apparatus, object information extraction program, and object information extraction method
EP1857978A1 (en) Method, system and computer product for deriving three-dimensional information progressivly from a streaming video sequence
CN111614905A (en) Image processing method, image processing device and electronic equipment
US20180288315A1 (en) Imaging method and electronic device thereof
JP2015186085A (en) Travel derivation apparatus and travel derivation method
JP2010140425A (en) Image processing system
CN105809664B (en) Method and device for generating three-dimensional image
JP6237119B2 (en) Image processing apparatus and image processing method
CN110490131B (en) Positioning method and device of shooting equipment, electronic equipment and storage medium
WO2021134311A1 (en) Method and apparatus for switching object to be photographed, and image processing method and apparatus
KR101648786B1 (en) Method of object recognition
CN112417977A (en) Target object searching method and terminal
TW201006527A (en) Measuring object contour method and measuring object contour apparatus
KR20130038487A (en) Apparatus for measuring distance of object using single camera and method for the same
CN107534736B (en) Image registration method and device of terminal and terminal
AU2008356238A1 (en) Method and device for analyzing video signals generated by a moving camera
JP2017016592A (en) Main subject detection device, main subject detection method and program
JP2018051669A (en) Robot system and program
JP6344903B2 (en) Image processing apparatus, control method therefor, imaging apparatus, and program
CN113691731B (en) Processing method and device and electronic equipment
JP7324066B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND IMAGING APPARATUS

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150605

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171016

R150 Certificate of patent or registration of utility model

Ref document number: 6237119

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150