JP7169894B2 - Image processing method, image processing device, and object recognition method - Google Patents

Image processing method, image processing device, and object recognition method Download PDF

Info

Publication number
JP7169894B2
JP7169894B2 JP2019016869A JP2019016869A JP7169894B2 JP 7169894 B2 JP7169894 B2 JP 7169894B2 JP 2019016869 A JP2019016869 A JP 2019016869A JP 2019016869 A JP2019016869 A JP 2019016869A JP 7169894 B2 JP7169894 B2 JP 7169894B2
Authority
JP
Japan
Prior art keywords
image
reference phase
image processing
measurement point
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019016869A
Other languages
Japanese (ja)
Other versions
JP2020126306A (en
Inventor
ヒョンソン チョ
秀和 西内
宏 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2019016869A priority Critical patent/JP7169894B2/en
Publication of JP2020126306A publication Critical patent/JP2020126306A/en
Application granted granted Critical
Publication of JP7169894B2 publication Critical patent/JP7169894B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理方法、画像処理装置及び物体認識方法に関する。 The present invention relates to an image processing method, an image processing apparatus, and an object recognition method.

連続的に撮影された複数の撮影フレームにより構成される画像データを高画質化するために、複数の撮影フレームを合成する画像処理方法が用いられている。例えば、特許文献1では、被合成画像の変化量に基づいて合成画像を生成する際に、画像のサイズに応じて被合成画像の枚数を設定する。画像のサイズが大きければ被合成画像の枚数を少なくすることにより、合成画像を生成するリソースを小さくできる。 2. Description of the Related Art An image processing method for synthesizing a plurality of photographed frames is used in order to improve the image quality of image data composed of a plurality of consecutively photographed photographed frames. For example, in Japanese Patent Application Laid-Open No. 2002-200315, when generating a composite image based on the amount of change in the composite image, the number of composite images is set according to the size of the image. If the size of the image is large, the resources for generating the composite image can be reduced by reducing the number of images to be composited.

特開2006-92450号公報JP-A-2006-92450

しかしながら、撮影フレームを単純に重ねて合成画像を生成化した場合、歩行中の人間のように動いていることにより形状が連続的に変化する観測対象は、動きのない部分のみが高画質化し、動いている部分はぼやけてしまう。 However, when a composite image is generated by simply overlapping the photographed frames, the image quality is improved only in the non-moving parts of the observation target, which changes shape continuously due to movement, such as a walking human being. Moving parts are blurry.

本発明は、動いている観測対象の全体を高画質化する画像処理方法、画像処理装置及び画像処理の結果を用いた物体認識方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing method, an image processing apparatus, and an object recognition method using the results of image processing that improve the image quality of an entire moving observation target.

本発明の一態様に係る画像処理方法、画像処理装置及び物体認識方法は、画像データの画像中の複数の計測点について動きを計測することによって観測対象が同じ形状である撮影フレームを選択し、これらを加算処理して合成画像を生成することを要旨とする。 An image processing method, an image processing apparatus, and an object recognition method according to an aspect of the present invention select a photographed frame in which an observation target has the same shape by measuring the movement of a plurality of measurement points in an image of image data, The gist is to generate a composite image by performing addition processing on these.

本発明によれば、動いている観測対象の全体を高画質化する画像処理方法、画像処理装置及び画像処理の結果を用いた物体認識方法を提供することができる。 Advantageous Effects of Invention According to the present invention, it is possible to provide an image processing method, an image processing apparatus, and an object recognition method using the result of image processing that improve the image quality of the entire moving observation target.

本発明の第1の実施形態に係る画像処理装置の構成を示す模式図である。1 is a schematic diagram showing the configuration of an image processing apparatus according to a first embodiment of the present invention; FIG. 歩行中の人間のオプティカルフローを示すグラフである。1 is a graph showing human optical flow during walking; 歩行中の人間の足の水平方向のオプティカルフローを示すグラフである。1 is a graph showing the horizontal optical flow of a human foot during walking; 歩行中の人間の足の垂直方向のオプティカルフローを示すグラフである。1 is a graph showing the vertical optical flow of a human foot during walking; 歩行中の人間の膝の水平方向のオプティカルフローを示すグラフである。Fig. 4 is a graph showing the horizontal optical flow of a human knee during walking; 歩行中の人間の手の水平方向のオプティカルフローを示すグラフである。Fig. 4 is a graph showing the horizontal optical flow of a human hand during walking; 歩行中の人間の頭部の垂直方向のオプティカルフローを示すグラフである。Fig. 3 is a graph showing the vertical optical flow of the human head during walking; 比較例の合成画像を示す模式図である。It is a schematic diagram which shows the synthesized image of a comparative example. 本発明の第1の実施形態に係る画像処理方法を説明するためのフローチャートである。4 is a flow chart for explaining an image processing method according to the first embodiment of the present invention; 本発明の第1の実施形態に係る画像処理方法におけるオプティカルフローの計測方法を説明するための模式図である(その1)。FIG. 4 is a schematic diagram for explaining a method of measuring optical flow in the image processing method according to the first embodiment of the present invention (Part 1); 本発明の第1の実施形態に係る画像処理方法におけるオプティカルフローの計測方法を説明するための模式図である(その2)。FIG. 2 is a schematic diagram for explaining an optical flow measurement method in the image processing method according to the first embodiment of the present invention (No. 2); 本発明の第1の実施形態に係る画像処理方法の処理結果の例を示す模式図である。FIG. 4 is a schematic diagram showing an example of a processing result of the image processing method according to the first embodiment of the present invention; 本発明の第2の実施形態に係る画像処理装置の構成を示す模式図である。FIG. 5 is a schematic diagram showing the configuration of an image processing apparatus according to a second embodiment of the present invention; 本発明の第3の実施形態に係る画像処理装置の構成を示す模式図である。FIG. 11 is a schematic diagram showing the configuration of an image processing apparatus according to a third embodiment of the present invention;

以下に、図面を参照して実施形態を説明する。図面の記載において同一部分には同一符号を付して説明を省略する。 Embodiments will be described below with reference to the drawings. In the description of the drawings, the same parts are denoted by the same reference numerals, and the description thereof is omitted.

(第1の実施形態)
図1に示す本発明の第1の実施形態に係る画像処理装置20は、撮像装置10により観測対象を時間的に(経時的に)連続して撮影した複数の撮影フレームにより構成される画像データについて画像処理を行う。撮像装置10は、例えば自動車に搭載されたカメラや防犯カメラなどである。撮像装置10によって撮影された画像データは、画像処理装置20に送信される。
(First embodiment)
The image processing apparatus 20 according to the first embodiment of the present invention shown in FIG. Image processing is performed for The imaging device 10 is, for example, a camera mounted on an automobile, a security camera, or the like. Image data captured by the imaging device 10 is transmitted to the image processing device 20 .

画像処理装置20は、計測部21、周期性判断部22、位相判断部23、画像格納部24、画像合成部25を備える。画像処理装置20は、計測結果記録装置261、画像記録装置262を有する記録装置26を更に備える。なお、図1には、撮像装置10、画像処理装置20、画像表示装置30及び物体認識装置40を備える画像データ処理システムを記載している。 The image processing device 20 includes a measuring section 21 , a periodicity determining section 22 , a phase determining section 23 , an image storing section 24 and an image synthesizing section 25 . The image processing apparatus 20 further includes a recording device 26 having a measurement result recording device 261 and an image recording device 262 . Note that FIG. 1 shows an image data processing system including an imaging device 10, an image processing device 20, an image display device 30, and an object recognition device 40. As shown in FIG.

計測部21は、画像データの画像中に設定した複数の計測点について経時的な動きを計測する。例えば、時間的に連続して撮影された撮影フレームの相互間の画像を比較して、計測点の動きを計測する。計測結果は、計測結果記録装置261に格納される。例えば、計測部21は、画像データの画像の各部分の動きを示すオプティカルフローを計測する。 The measurement unit 21 measures movement over time at a plurality of measurement points set in an image of image data. For example, the motion of the measurement point is measured by comparing the images between the captured frames captured in succession in time. The measurement results are stored in the measurement result recording device 261 . For example, the measuring unit 21 measures an optical flow indicating motion of each part of the image of the image data.

周期性判断部22は、計測点のそれぞれについて動きに周期性があるか否かを判断する。周期性判断部22による判断の結果は、位相判断部23に出力される。 The periodicity determination unit 22 determines whether or not there is periodicity in the movement of each of the measurement points. A result of the determination by the periodicity determination unit 22 is output to the phase determination unit 23 .

位相判断部23は、動きに周期性があると判断された計測点(以下において「周期計測点」という。)のうちの1つを注目計測点Psに選択し、注目計測点Psの動きの周期である動作周期の位相の1つを基準位相Tsに設定する。更に、位相判断部23は、画像データを構成する撮影フレームのそれぞれについて、基準位相Tsに相当する時刻に撮影された基準位相フレームであるか否か判断し、複数の基準位相フレームを抽出する。 The phase determination unit 23 selects one of the measurement points determined to have periodicity in motion (hereinafter referred to as “periodic measurement points”) as the target measurement point Ps, and determines the motion of the target measurement point Ps. One of the phases of the operating cycle, which is the cycle, is set as the reference phase Ts. Further, the phase determination unit 23 determines whether each of the captured frames forming the image data is a reference phase frame captured at a time corresponding to the reference phase Ts, and extracts a plurality of reference phase frames.

画像格納部24は、注目計測点Psの周囲の画像領域を、複数の基準位相フレームそれぞれから切り取る。複数の基準位相フレームから切り取った画像領域の画像は、画像記録装置262に格納される。 The image storage unit 24 cuts out image regions around the target measurement point Ps from each of the plurality of reference phase frames. Images of image regions cropped from a plurality of reference phase frames are stored in image recorder 262 .

画像合成部25は、画像記録装置262に格納された複数の基準位相フレームの画像領域を加算処理して、合成画像を生成する。 The image synthesizing unit 25 adds the image areas of the plurality of reference phase frames stored in the image recording device 262 to generate a synthesized image.

なお、基準位相フレームから切り取る画像領域は、注目計測点Psが含まれる一定の範囲である。これにより、画像領域は動作周期で動く部分を有する観測対象が含まれるように基準位相フレームから切り取られる。この画像領域の範囲は、撮像装置10から注目計測点Psまでの距離及び観測対象の大きさに応じて設定される。例えば観測対象として人間を想定する場合は、撮像装置10からの距離を用いて人間の大きさを認定し、観測対象の全体が含まれるように画像領域の範囲を設定する。 Note that the image area cut out from the reference phase frame is a certain range that includes the target measurement point Ps. Thereby, the image region is cropped from the reference phase frame to include the object having a portion that moves with the motion cycle. The range of this image area is set according to the distance from the imaging device 10 to the target measurement point Ps and the size of the observation target. For example, when a person is assumed as an observation target, the size of the person is identified using the distance from the imaging device 10, and the range of the image area is set so as to include the entire observation target.

以下では、計測部21がオプティカルフローを計測する場合を例示的に説明する。歩行中の人間の足、手、膝、頭の動きは周期性を有する。このため、例えば図2に示すオプティカルフローように、足の位置の計測点P1、膝の位置の計測点P2、手の位置の計測点P3、頭部の位置の計測点P4は周期計測点である。図2の横軸は時刻であり、縦軸は計測点の速度(フロー速度)である。図3~図7に、計測点P1~P4のオプティカルフローの例を示す。 A case where the measurement unit 21 measures the optical flow will be exemplified below. Movements of human feet, hands, knees, and head during walking have periodicity. For this reason, for example, as in the optical flow shown in FIG. 2, the leg position measurement point P1, the knee position measurement point P2, the hand position measurement point P3, and the head position measurement point P4 are periodic measurement points. be. The horizontal axis of FIG. 2 is the time, and the vertical axis is the velocity (flow velocity) of the measurement point. 3 to 7 show examples of optical flows at measurement points P1 to P4.

図3に足の計測点P1の画像の水平方向のオプティカルフローの例を示し、図4に計測点P1の画像の垂直方向のオプティカルフローの例を示した。着地した状態で足は地面にしばらく留まり、その後、上方に移動する。したがって、足が着地した瞬間の速度はゼロである。計測点P1の速度は、足が地面についた瞬間に最大であり、足が地面につく前の瞬間が最小である。 FIG. 3 shows an example of the horizontal optical flow of the image of the foot measurement point P1, and FIG. 4 shows an example of the vertical optical flow of the image of the measurement point P1. After landing, the foot stays on the ground for a while and then moves upwards. Therefore, the velocity at the moment the foot lands is zero. The speed at the measurement point P1 is maximum at the moment the foot touches the ground, and is minimum at the moment before the foot touches the ground.

図5に、膝の計測点P2の水平方向のオプティカルフローの例を示した。計測点P2のオプティカルフローには、足と連結する膝が動くときの最大速度の瞬間である1回目の極大値V1と、反対の足が動くときの2回目の極大値V2がある。 FIG. 5 shows an example of the horizontal optical flow at the knee measurement point P2. The optical flow at the measurement point P2 has a first maximum value V1, which is the moment of maximum velocity when the knee connected to the leg moves, and a second maximum value V2, when the opposite leg moves.

図6に、手の計測点P3の水平方向のオプティカルフローの例を示した。手が最下点を通過する瞬間に速度が最大となる。 FIG. 6 shows an example of the horizontal optical flow at the hand measurement point P3. The speed is maximum at the moment when the hand passes the lowest point.

図7に、頭部の計測点P4の垂直方向のオプティカルフローの例を示した。膝を伸ばす瞬間が最大速度であり、膝を曲げる瞬間が最小速度である。なお、歩行中の人間の頭部や胴体は、手足の左右の動きに対して同じ動きをする。このため、手や足の動きの周期は、頭部の動きの周期の2倍である。 FIG. 7 shows an example of the vertical optical flow at the measurement point P4 on the head. The maximum speed is the moment the knee is extended, and the minimum speed is the moment the knee is bent. It should be noted that the head and torso of a walking human being move in the same manner as the left and right movements of the hands and feet. Therefore, the period of movement of the hands and feet is twice the period of movement of the head.

歩行中の人間の画像を単純に加算処理して合成画像を生成すると、例えば図8に示す比較例のように、動いていない部分については高解像度の画像が得られるが、動いている部分はぼやけてしまう。これに対し、第1の実施形態に係る画像処理方法によれば、動いている部分も含めて高解像度の画像が得られる。 If a composite image is generated by simply adding images of a walking human, a high-resolution image can be obtained for a portion that is not moving, as in the comparative example shown in FIG. Blurry. On the other hand, according to the image processing method according to the first embodiment, a high-resolution image including moving parts can be obtained.

以下に、図9に示したフローチャートを参照して、図1に示した画像処理装置20による画像処理方法を説明する。なお、以下では、歩行中の人間を観測対象とする場合を例示的に説明する。 The image processing method by the image processing apparatus 20 shown in FIG. 1 will be described below with reference to the flowchart shown in FIG. In addition, below, the case where a person who is walking is set as an observation target will be described as an example.

図9のステップS10において、撮像装置10が撮影した処理対象の画像データが画像処理装置20に送信される。その後、ステップS20において画像データについて画像処理が行われる。 In step S<b>10 in FIG. 9 , image data to be processed captured by the imaging device 10 is transmitted to the image processing device 20 . Thereafter, image processing is performed on the image data in step S20.

ステップS21において、計測部21が、撮像装置10から送られてくる複数の撮影フレームを用いて、画像データの複数の計測点について動きを計測する。例えば、計測部21は、撮影フレームの画像の各部分の動きを示すオプティカルフローを計測する。オプティカルフローの計測は、例えば撮影フレームに含まれる画像の角や点などの追跡が容易な特徴点をオプティカルフローの計測点として抽出し、複数の撮影フレームにわたって計測点の移動を追跡して行う。 In step S<b>21 , the measurement unit 21 measures motion at a plurality of measurement points of the image data using a plurality of captured frames sent from the imaging device 10 . For example, the measurement unit 21 measures an optical flow that indicates the motion of each part of the image of the captured frame. Optical flow measurement is performed by extracting feature points that can be easily tracked, such as corners and points of an image included in a photographed frame, as optical flow measurement points, and tracking the movement of the measurement points over a plurality of photographed frames.

ある撮影フレーム(以下、「元の撮影フレーム」という。)と、元の撮影フレームの次に撮影された撮影フレーム(以下、「次の撮影フレーム」という。)との間の計測点の追跡は、例えば以下のようにして行う。まず、計測部21は、計測点を中心にして、所定の画素数を含む大きさの画像範囲を元の撮影フレームから切り取る。そして、計測部21は、次の撮影フレームにおいて、元の撮影フレームの計測点の位置を中心として所定の探索範囲に含まれる複数の画素をそれぞれ中心に、元の撮影フレームの画像範囲と同じ大きさの画像範囲を切り取る。次に、計測部21は、次の撮影フレームから切り取られた複数の画像範囲のそれぞれと元の撮影フレームから切り取られた画像範囲について相関を取り、最も相関の大きい画像範囲の中心を次の撮影フレームでの計測点の座標とする。このようにして得られる撮影フレーム間での計測点の移動をオプティカルフローとする。 Tracking of measurement points between a certain shooting frame (hereinafter referred to as "original shooting frame") and a shooting frame shot next to the original shooting frame (hereinafter referred to as "next shooting frame") , for example, as follows: First, the measurement unit 21 cuts out an image range having a size including a predetermined number of pixels from the original captured frame, centering on the measurement point. Then, in the next photographed frame, the measuring unit 21 calculates a plurality of pixels included in a predetermined search range centered on the position of the measurement point of the original photographed frame, and the image range of the same size as the original photographed frame. Crop a small image area. Next, the measurement unit 21 correlates each of a plurality of image ranges cut out from the next captured frame with the image range cut out from the original captured frame, and selects the center of the image range with the highest correlation for the next captured frame. Coordinates of the measurement point in the frame. The movement of the measurement points between the captured frames obtained in this manner is referred to as an optical flow.

例えば、図10に示すように、計測部21は、計測点Pが中心の画素Sに位置するように、画像範囲Aを元の撮影フレームから切り取る。そして、計測部21は、次の撮影フレームにおいて、図11に示すように、画素S及び画素Sに隣接する画素からなる9つの画素を探索範囲Bとして設定する。次に、計測部21は、探索範囲Bに含まれるそれぞれの画素を中心とし、画像範囲Aと同じ大きさの9つの画像範囲を、次の撮影フレームから切り取る。そして、計測部21は、次の撮影フレームから切り取られた9つの画像範囲の中から画像範囲Aとの相関が最も大きい画像範囲を選択し、選択した画像範囲の中心を次の撮影フレームでの計測点の座標とする。 For example, as shown in FIG. 10, the measurement unit 21 cuts out an image range A from the original captured frame so that the measurement point P is located at the central pixel S. Then, the measurement unit 21 sets nine pixels including the pixel S and pixels adjacent to the pixel S as the search range B in the next imaging frame, as shown in FIG. 11 . Next, the measurement unit 21 cuts out nine image ranges having the same size as the image range A centering on each pixel included in the search range B from the next captured frame. Then, the measurement unit 21 selects an image range having the largest correlation with the image range A from among the nine image ranges cut out from the next captured frame, and places the center of the selected image range in the next captured frame. Coordinates of the measurement point.

計測部21は、画像処理を開始した時点から設定された過去までの計測点のオプティカルフローの履歴を、周期性判断部22に出力する。設定された過去までの期間は任意であるが、少なくとも想定される観測対象の動きの周期性を確認できる程度の期間を設定する。 The measurement unit 21 outputs to the periodicity determination unit 22 the history of the optical flow of the measurement points from the time when the image processing was started to the set past. The set period up to the past is arbitrary, but at least a period of time that allows confirmation of the periodicity of the movement of the assumed observation target is set.

ステップS22において、周期性判断部22は、オプティカルフローの履歴から、すべての計測点の動きについて周期性を判断し、周期性のある計測点を選択する。例えば観測対象を歩行中の人間とする場合には、人間は左右の手足を交互に動かして歩行するため、その動きは周期的で連続的に変形する。このため、自動車などの剛性が高くて変形しない被写体と人間とは、その動きによって区別できる。周期性の有無の判断は、例えば以下のようにして行われる。 In step S22, the periodicity determination unit 22 determines the periodicity of the movements of all measurement points from the optical flow history, and selects measurement points having periodicity. For example, when the observation target is a walking human, the human walks by moving the left and right limbs alternately, so that the movement is cyclically and continuously deformed. For this reason, a subject such as a car that has high rigidity and does not deform can be distinguished from a human by its movement. The determination of the presence or absence of periodicity is performed, for example, as follows.

周期性判断部22は、計測点について計測部21から入力された水平方向若しくは垂直方向のオプティカルフローの履歴をフーリエ変換する。そして、直流成分を除いて最大の出力の周波数について、その出力が所定の閾値以上であれば、その計測点を周期計測点であると判断し、その周波数を周期計測点の基準周波数と定義する。周期性判断部22は、周期計測点とその基準周波数を位相判断部23に出力する。なお、周期計測点であると判断するための出力の閾値は、想定される観測対象の動きから設定しておくことが可能である。 The periodicity determination unit 22 Fourier-transforms the history of the horizontal or vertical optical flow input from the measurement unit 21 for the measurement points. Then, regarding the frequency of the maximum output excluding the DC component, if the output is equal to or greater than a predetermined threshold value, the measuring point is determined to be the period measuring point, and that frequency is defined as the reference frequency of the period measuring point. . The periodicity determination unit 22 outputs the period measurement points and their reference frequencies to the phase determination unit 23 . It should be noted that the threshold value of the output for judging that it is a periodic measurement point can be set based on the expected movement of the observation target.

ステップS23において、位相判断部23が、周期性判断部22によって周期性があると判断された周期計測点の1つを、注目計測点Psとして選択する。更に、位相判断部23は、注目計測点Psの動きの周期である動作周期における位相の1つを基準位相Tsに設定する。そして、ステップS24において、位相判断部23は、画像データを構成する撮影フレームのそれぞれについて、基準位相Tsに相当する時刻に撮影された撮影フレームか否かを判断する。以下において、基準位相Tsに撮影された撮影フレームを「基準位相フレーム」とし、基準位相フレームの集合を「基準位相フレーム群Fs」という。即ち、基準位相フレーム群Fsは、動作周期を単位として画像データを構成する撮影フレームを複数のサイクルに区切ったときに、各サイクルにおける基準位相Tsに相当する時刻に撮影された撮影フレームの集合である。 In step S23, the phase determination unit 23 selects one of the periodicity measurement points determined to have periodicity by the periodicity determination unit 22 as the target measurement point Ps. Furthermore, the phase determination unit 23 sets one of the phases in the operation period, which is the period of movement of the target measurement point Ps, as the reference phase Ts. Then, in step S24, the phase determination unit 23 determines whether or not each of the captured frames forming the image data is captured at a time corresponding to the reference phase Ts. In the following description, the frames captured at the reference phase Ts are referred to as "reference phase frames", and the set of reference phase frames is referred to as "reference phase frame group Fs". That is, the reference phase frame group Fs is a set of photographic frames photographed at times corresponding to the reference phase Ts in each cycle when the photographic frames forming the image data are divided into a plurality of cycles in units of operation cycles. be.

周期計測点を一部とする観測対象の動きは反復されるため、動作周期の同じ位相では、周期計測点は同じ位置であり、観測対象はすべて同じ形状である。つまり、基準位相フレーム群Fsは、観測対象の形状が同じ撮影フレームの集合である。 Since the motion of the observed object with the period measuring point as a part is repeated, at the same phase of the working cycle, the period measuring point is at the same position and the observed objects are all the same shape. In other words, the reference phase frame group Fs is a set of captured frames having the same shape of the observation target.

例えば、位相判断部23は、動作周期に対応する周波数を基準周波数とする周期計測点の中から、画像の中央に一番近い計測点を注目計測点Psとして選択する。観測対象が歩行中の人間である場合、基準周波数は2~3Hz程度である。そして、位相判断部23は、注目計測点Psのオプティカルフローの時間的変化から、例えばオプティカルフローの履歴における最新の動作周期である1回目の動作周期において基準位相Tsを設定する。基準位相Tsとして、例えば、注目計測点Psの水平方向の速度の大きさが最大である時刻に相当する位相が設定される。そして、位相判断部23は、オプティカルフローの履歴における2回目以降の動作周期において、撮影フレームのそれぞれについて撮影された時刻に相当する位相が基準位相Tsと同じであるか否かを判断する。位相判断部23は、撮影された時刻に相当する位相が基準位相Tsと同じであると判断された基準位相フレームを、画像格納部24に出力する。 For example, the phase determination unit 23 selects the measurement point closest to the center of the image as the target measurement point Ps from among the period measurement points having the frequency corresponding to the operation period as the reference frequency. When the object of observation is a walking human, the reference frequency is about 2 to 3 Hz. Then, the phase determination unit 23 sets the reference phase Ts in the first operation cycle, which is the latest operation cycle in the history of the optical flow, for example, based on the temporal change of the optical flow at the target measurement point Ps. As the reference phase Ts, for example, a phase corresponding to the time when the magnitude of the horizontal velocity of the target measurement point Ps is maximum is set. Then, the phase determination unit 23 determines whether or not the phase corresponding to the time when each captured frame was captured is the same as the reference phase Ts in the second and subsequent operation cycles in the optical flow history. The phase determination unit 23 outputs to the image storage unit 24 the reference phase frame determined to have the same phase as the reference phase Ts corresponding to the time when the image was taken.

ステップS25において、画像格納部24が、注目計測点Psの周囲の画像領域を、動作周期で動く他の計測点を有する観測対象が含まれるように基準位相フレームから切り取り、この画像領域の画像を画像記録装置262に格納する。例えば、注目計測点Psから所定の距離以内にあり、且つ注目計測点Psと同じ基準周波数の周期計測点が全て含まれる領域を含む画像領域の画像が、画像記録装置262に格納される。画像領域の大きさは、撮像装置10から注目計測点Psまでの距離や想定される観測対象の大きさに対応する。 In step S25, the image storage unit 24 cuts out an image area around the target measurement point Ps from the reference phase frame so as to include an observation target having other measurement points that move in the operation cycle, and stores an image of this image area. Stored in the image recording device 262 . For example, the image recording device 262 stores an image of an image area that includes all period measurement points that are within a predetermined distance from the target measurement point Ps and have the same reference frequency as the target measurement point Ps. The size of the image area corresponds to the distance from the imaging device 10 to the target measurement point Ps and the size of the assumed observation target.

ステップS26において、画像合成部25が、画像記録装置262に格納された複数の基準位相フレームの画像領域を加算処理して、合成画像を生成する。観測対象の形状が同じ画像を加算処理することにより、高画質の合成画像が得られる。画像処理装置によって生成された高画質の合成画像を用いることにより、例えば、観測対象についての物体認識の精度を向上させることができる。物体認識のために、所定の倍数に合成画像を拡大してもよい。なお、画像を加算処理として、加算平均処理をおこなってもよい。 In step S26, the image synthesizing unit 25 adds the image regions of the plurality of reference phase frames stored in the image recording device 262 to generate a synthesized image. A high-quality composite image can be obtained by performing addition processing on images having the same shape of the observation target. By using the high-quality composite image generated by the image processing device, for example, it is possible to improve the accuracy of object recognition for the observation target. For object recognition, the synthetic image may be magnified by a predetermined factor. It should be noted that addition averaging processing may be performed on the image as addition processing.

なお、画像記録装置262に格納する画像領域に、注目計測点Psの基準周波数の2倍の基準周波数の周期計測点も含まれるようにしてもよい。例えば、歩行中の人間の頭部の動きの周期は、手や足の動きの周期の半分である。このため、注目計測点Psが人間の手や足である場合に、基準周波数の2倍の周期計測点を含めることにより、頭部も画像領域に含めることができる。 Note that the image area stored in the image recording device 262 may also include periodic measurement points with a reference frequency that is twice the reference frequency of the target measurement point Ps. For example, the period of movement of the human head during walking is half the period of movement of the hands and feet. Therefore, when the measurement point of interest Ps is a human hand or foot, the head can be included in the image area by including the periodic measurement points with twice the reference frequency.

また、画像領域に観測対象の全体を確実に含ませるために、以下のように画像領域の範囲にマージンをもたせてもよい。即ち、対象の周期計測点が全て含まれる最小の領域の外側に一定の長さを上下左右に広げた画像領域の画像を、画像記録装置262に格納するようにしてもよい。 Also, in order to ensure that the entire observation target is included in the image area, a margin may be given to the range of the image area as follows. That is, the image recording device 262 may store an image of an image area that is expanded by a certain length in the vertical and horizontal directions outside the minimum area that includes all the target periodic measurement points.

なお、画像合成の画質を低下させる画像を画像合成の対象から除外するようにしてもよい。例えば、先に撮影された基準位相フレームから切り取られた画像領域の画像と、後に撮影された基準位相フレームから切り取られた画像領域の画像との相関を取る。つまり、先に画像記録装置262に格納された基準位相フレームの画像と、その後に格納しようとする基準位相フレームの画像との相関を取る。この画像の相関は、2つの画像における注目計測点Psの位置を合わせ、重複する部分に対して実行する。そして、画像の相関値が所定の閾値以下であれば、格納しようとする基準位相フレームの画像を画像記録装置262に格納せず、その画像を画像合成に使用しない。例えば、1回目の動作周期の基準位相フレームの画像を画像記録装置262に格納した場合、画像記録装置262に格納した画像と2回目以降の動作周期の基準位相フレームの画像との相関を取る。 It should be noted that an image for which the image quality of image synthesis is to be lowered may be excluded from the target of image synthesis. For example, an image of an image region cropped from a previously captured reference phase frame is correlated with an image region of an image region cropped from a later captured reference phase frame. That is, the correlation between the image of the reference phase frame previously stored in the image recording device 262 and the image of the reference phase frame to be stored later is obtained. This image correlation is performed on overlapping portions by aligning the positions of the target measurement points Ps in the two images. If the correlation value of the image is equal to or less than a predetermined threshold value, the image of the reference phase frame to be stored is not stored in the image recording device 262, and the image is not used for image synthesis. For example, when the image of the reference phase frame of the first operation cycle is stored in the image recording device 262, the correlation between the image stored in the image recording device 262 and the image of the reference phase frame of the second and subsequent operation cycles is obtained.

相関値が閾値以下であるのは観測対象の形状が大きく変形した場合であり、画像間で観測対象の形状が大きく変化した場合には合成画像の画質が低下する。画像の相関値が所定の閾値以下である画像を画像記録装置262に格納しないことにより、観測対象の画像を合成した画像の画質が悪化するのを防ぐことができる。このため、画像記録装置262に格納された画像を初期化する。 The correlation value is less than or equal to the threshold when the shape of the observation target is greatly deformed, and when the shape of the observation target is greatly changed between images, the image quality of the synthesized image is degraded. By not storing in the image recording device 262 an image whose correlation value is equal to or less than a predetermined threshold value, it is possible to prevent deterioration of the image quality of an image obtained by synthesizing observation target images. Therefore, the image stored in the image recording device 262 is initialized.

なお、画像合成に使用しない画像領域が2回以上続いた場合には、その画像領域に対応する注目計測点Psや基準位相Tsを画像合成に使用する対象から除外してもよい。これにより、画質の悪い合成画像が生成されることを防止できる。 Note that if an image area that is not used for image synthesis continues two or more times, the target measurement point Ps and the reference phase Ts corresponding to the image area may be excluded from the targets used for image synthesis. This can prevent generation of a composite image with poor image quality.

ところで、画像を単純に加算処理して拡大するのみでは、画素の中に埋もれたサブピクセル単位の情報が、生成された合成画像で再現されにくい。このため、1回目の基準位相Tsの拡大された画像に2回目以降の画像を加算処理するために、注目計測点Psの動きの履歴、即ちオプティカルフローの履歴から、観測対象の位置変化量を算出する。そして、その位置変化量だけ2回目以降の基準位相Tsの画像の位置を順次移動させて、画像を加算処理する。このように観測対象の位置変化量を補正した画像の加算処理によって、画像記録装置262に格納された画像を拡大し且つサブピクセル単位の情報が再現された高画質の合成画像が観測対象について生成される。画像合成部25は、生成した合成画像を、画像表示装置30や物体認識装置40に出力する。 By the way, if the image is simply added and enlarged, it is difficult to reproduce the sub-pixel unit information buried in the pixel in the generated synthesized image. Therefore, in order to add the second and subsequent images to the first enlarged image of the reference phase Ts, the amount of change in the position of the observation target is calculated from the history of the movement of the target measurement point Ps, that is, the history of the optical flow. calculate. Then, the positions of the images of the second and subsequent reference phases Ts are sequentially moved by the amount of positional change, and the images are added. In this way, the image stored in the image recording device 262 is enlarged and a high-quality composite image in which information in sub-pixel units is reproduced is generated for the observation target by addition processing of the images corrected for the positional change amount of the observation target. be done. The image combining unit 25 outputs the generated combined image to the image display device 30 and the object recognition device 40 .

ステップS30及びステップS40において、上記の画像処理方法による処理結果を用いた物体認識が行われる。 In steps S30 and S40, object recognition is performed using the processing results of the image processing method described above.

ステップS30において、画像表示装置30が、画像合成部25から出力された高画質の合成画像を表示する。画像表示装置30は、例えば高解像度モニターなどである。画像表示装置30には、例えば所定の倍数に拡大された合成画像を表示してもよい。 In step S<b>30 , the image display device 30 displays the high-quality synthesized image output from the image synthesizing section 25 . The image display device 30 is, for example, a high resolution monitor. For example, the image display device 30 may display a synthesized image enlarged by a predetermined multiple.

ステップS40において、物体認識装置40が、画像合成部25から出力された高画質の合成画像を入力とし、合成画像に含まれる観測対象の物体認識を行う。物体認識装置40は、例えば機械学習によって学習された人工知能を使用して、観測対象についての種々な形状データが格納された学習データベースを参照して、観測対象の物体認識を行う。 In step S40, the object recognition device 40 receives the high-quality synthesized image output from the image synthesizing unit 25, and recognizes an object to be observed included in the synthesized image. The object recognition device 40 uses artificial intelligence learned by machine learning, for example, and refers to a learning database in which various shape data about the observation target is stored to perform object recognition of the observation target.

以上に説明したように、第1の実施形態に係る画像処理方法では、撮影フレーム間での計測点の移動を示すオプティカルフローについて、周期性のある周期計測点を抽出する。そして、周期計測点から選択した注目計測点Psの動作周期の1つの時刻を基準位相Tsとし、基準位相Tsに相当する時刻に撮影された撮影フレームを抽出する。これにより、観測対象が同じ形状である基準位相フレーム群Fsが得られる。図12に示すように、基準位相フレーム群Fsの画像領域について加算処理することにより、高画質の合成画像が生成される。 As described above, in the image processing method according to the first embodiment, periodic measurement points are extracted with respect to the optical flow indicating the movement of the measurement points between the captured frames. Then, one time in the operation cycle of the target measurement point Ps selected from the periodic measurement points is set as the reference phase Ts, and the captured frames captured at the time corresponding to the reference phase Ts are extracted. As a result, a reference phase frame group Fs in which the observation target has the same shape is obtained. As shown in FIG. 12, a high-quality composite image is generated by performing addition processing on the image regions of the reference phase frame group Fs.

したがって、第1の実施形態に係る画像処理方法によれば、動きのある観測対象についても高画質の画像が得られる。この高画質の合成画像を使用することにより、画像処理をしていない画像を使用する場合よりも、観測対象の物体認識が容易であり、精度が向上する。合成画像を拡大した場合の観測対象の形状の輪郭は明確である。 Therefore, according to the image processing method according to the first embodiment, a high-quality image can be obtained even for a moving observation target. By using this high-quality composite image, it is easier to recognize the object to be observed, and the accuracy is improved, compared to using an image that has not undergone image processing. The outline of the shape of the observed object is clear when the synthesized image is enlarged.

観測対象は任意に選択可能である。例えば、歩行中の人間を観測対象にする場合には、垂直方向若しくは水平方向の動きが周期性を有し、基準周波数が2~3Hz程度の周期計測点を注目計測点Psとして選択する。なお、基準周波数は観測対象に応じて適宜変更可能であり、例えば走行中の人間を観測対象とする場合は、歩行中の人間を観測対象とする場合の基準周波数よりも高い基準周波数の周期計測点を注目計測点Psとして選択する。このとき、注目計測点Psの動作周期の逓倍の周期で動く周期計測点も観測対象に含まれる計測点としてもよい。これにより、全ての周期計測点の基準周波数が同一ではない観測対象に関して、多数の周期計測点を画像領域に含ませることができる。例えば、人間を想定した観測対象において、手や足を注目計測点Psにした場合に、手や足の動きの周期の2倍の周期で動く頭部を画像領域に含ませるようにできる。 Observation targets can be selected arbitrarily. For example, when a walking human being is to be observed, a periodic measurement point whose movement in the vertical or horizontal direction has periodicity and whose reference frequency is about 2 to 3 Hz is selected as the target measurement point Ps. Note that the reference frequency can be changed as appropriate according to the object of observation. A point is selected as the target measurement point Ps. At this time, a periodic measurement point that moves at a cycle that is a multiple of the operation period of the target measurement point Ps may also be included in the observation target. As a result, many periodic measurement points can be included in the image area for an observation target in which all the periodic measurement points do not have the same reference frequency. For example, in an observation target assumed to be a human being, when the hand or foot is set as the target measurement point Ps, the image area can include the head that moves twice as much as the movement period of the hand or foot.

なお、計測点の動きの速度が最大の時刻や最小の時刻を、歩行中の人間の周期的な動きが現われる注目計測点Psの基準位相Tsとしてもよい。或いは、注目計測点Psの動きがゼロから変化する時刻、即ち注目計測点Psが静止状態から動き始める時刻を基準位相Tsとしてもよい。これにより、計測されたオプティカルフローから抽出することが容易な時刻が基準位相Tsになり、観測対象が同じ形状になる位相を容易に選択することができる。また、歩行中の人間の膝を注目計測点Psとする場合には、動作周期において速度が2回目の極大値になる時刻を基準位相Tsとしてもよい。 The time when the speed of movement of the measurement point is maximum or minimum may be used as the reference phase Ts of the target measurement point Ps at which the periodic movement of a person appears during walking. Alternatively, the time at which the movement of the target measurement point Ps changes from zero, that is, the time at which the target measurement point Ps starts moving from a stationary state may be used as the reference phase Ts. As a result, the time that can be easily extracted from the measured optical flow becomes the reference phase Ts, and it is possible to easily select the phase in which the observation target has the same shape. Further, when the knee of a walking human being is set as the target measurement point Ps, the time when the speed reaches the second maximum value in the operation cycle may be set as the reference phase Ts.

ところで、撮像装置10の遠方の人間については、手足の動きよりも頭部の動きの方が観測されやすい。このため、頭部が注目計測点Psとして選択される可能性も高い。人間の頭部や胴体のように手足の左の動きと右の動きに対して同じ動きをする部分の周期は、手や足の動きの周期の半分である。したがって、頭部を注目計測点Psとした選択した場合には、注目計測点Psの動作周期の2倍の周期の間に1つの撮影フレームを選択することにより、観測対象が同じ形状になる撮影フレームを抽出できる。このため、撮影時間の順序で1つおきに基準位相フレームの画像領域を加算処理することにより、高画質の合成画像を生成できる。例えば、偶数回目または奇数回目の基準位相Tsについての基準位相フレームのみの画像領域を加算処理する。これは、動作周期の2倍の周期を1周期として基準位相Tsを設定し直すことに等価である。これにより、観測対象の動きの実際の周期の半分の周期の周期計測点を注目計測点Psに選択した場合に、高画質の合成画像を生成できる。 By the way, for a person far away from the imaging device 10, the movement of the head is more likely to be observed than the movement of the hands and feet. Therefore, there is a high possibility that the head will be selected as the target measurement point Ps. The period of a portion of the human head or body that moves in the same manner with respect to the left and right movements of the limbs is half the period of the movements of the hands and feet. Therefore, when the head is selected as the target measurement point Ps, by selecting one shooting frame during a cycle twice as long as the operation cycle of the target measurement point Ps, the observation target can be photographed in the same shape. Frames can be extracted. Therefore, a high-quality composite image can be generated by performing addition processing on every other image area of the reference phase frame in order of shooting time. For example, addition processing is performed on the image area of only the reference phase frame for the even-numbered or odd-numbered reference phase Ts. This is equivalent to resetting the reference phase Ts with a period that is twice the operating period as one period. As a result, when a periodic measurement point having a period half the actual period of the movement of the observation target is selected as the target measurement point Ps, a high-quality synthetic image can be generated.

例えば、撮像装置10からの距離が長い遠方では、画像データには人間の形状の特徴が殆ど見られない。このため、周期計測点が少なく検出されたときは、注目計測点Psが頭部や胴体である可能性が高い。したがって、画像領域に含まれる動作周期の計測点の個数が所定の設定値よりも少ない場合に、注目計測点Psが頭部や胴体であるとして、動作周期の2倍の周期について1つの基準位相を設定し直して、撮影フレームのそれぞれについて基準位相フレームであるか否かを判断する。この設定値は任意に設定可能であるが、周期計測点が1-2点程度であれば頭部や胴体である可能性が高いと推定される。したがって、例えば設定値を2-3としてもよい。 For example, at a long distance from the imaging device 10, the image data has almost no features of a human shape. Therefore, when a small number of periodic measurement points are detected, there is a high possibility that the target measurement point Ps is the head or body. Therefore, when the number of measurement points in the motion cycle included in the image area is less than a predetermined set value, one reference phase is set for a cycle twice the motion cycle, assuming that the target measurement point Ps is the head or body. is set again, and it is determined whether or not each photographed frame is a reference phase frame. This set value can be arbitrarily set, but if there are about 1 or 2 periodic measurement points, it is estimated that the head or body is highly likely. Therefore, for example, the set value may be 2-3.

第1の実施形態に係る画像処理方法や物体認識方法は、例えば車載カメラなどの移動体に搭載された撮像装置10により撮影された画像や、防犯カメラなどの固定された撮像装置10により撮影された画像などの画像処理に使用することができる。 The image processing method and the object recognition method according to the first embodiment can be used, for example, to capture an image captured by an imaging device 10 mounted on a mobile object such as an in-vehicle camera, or to capture an image captured by a fixed imaging device 10 such as a security camera. It can be used for image processing such as

(第2の実施形態)
図13に示す第2の実施形態に係る画像処理装置20では、位相判断部23が、1つの注目計測点Psの動作周期について複数の基準位相Tsを設定する。そして、位相判断部23は、複数の基準位相Tsのそれぞれに関して、撮影フレームのそれぞれが基準位相Tsに相当する時刻に撮影されたか否かを判断する。つまり、1つの注目計測点Psに対して複数の基準位相Tsが設定されることが、1つの注目計測点Psについて1つの基準位相Tsが設定される第1の実施形態と異なる点である。
(Second embodiment)
In the image processing apparatus 20 according to the second embodiment shown in FIG. 13, the phase determination section 23 sets a plurality of reference phases Ts for the operation period of one target measurement point Ps. Then, the phase determination unit 23 determines whether or not each captured frame was captured at a time corresponding to the reference phase Ts for each of the plurality of reference phases Ts. That is, the fact that a plurality of reference phases Ts are set for one target measurement point Ps is different from the first embodiment in which one reference phase Ts is set for one target measurement point Ps.

例えば、位相判断部23は、1回目の動作周期におけるオプティカルフローから複数の基準位相Tsを設定する。以下に、3つの基準位相Tsが設定される場合を例示的に説明する。例えば、注目計測点Psの水平方向の動きの速度が最小である時刻の位相を基準位相Ts1とする。更に、動きの速度が最大である時刻の位相を基準位相Ts2とし、動きの速度がゼロから変化する時刻の位相を基準位相Ts3とする。 For example, the phase determination unit 23 sets a plurality of reference phases Ts from the optical flow in the first operation cycle. A case where three reference phases Ts are set will be exemplified below. For example, the phase at which the speed of horizontal movement of the target measurement point Ps is minimum is set as the reference phase Ts1. Further, the phase at which the motion speed is maximum is defined as a reference phase Ts2, and the phase at which the motion speed changes from zero is defined as a reference phase Ts3.

位相判断部23は、撮影フレームのそれぞれについて、設定された基準位相Ts1、Ts2、Ts3のいずれかに相当する時刻に撮影されたか否か判断する。そして、位相判断部23は、基準位相Ts1に相当する時刻に設営された第1基準位相フレーム群Ft1、基準位相Ts2に相当する時刻に撮影された第2基準位相フレーム群Ft2、及び、基準位相Ts3に相当する時刻に撮影された第3基準位相フレーム群Ft3を画像格納部24に出力する。 The phase determination unit 23 determines whether or not each captured frame was captured at a time corresponding to one of the set reference phases Ts1, Ts2, and Ts3. Then, the phase determination unit 23 determines the first reference phase frame group Ft1 set up at the time corresponding to the reference phase Ts1, the second reference phase frame group Ft2 captured at the time corresponding to the reference phase Ts2, and the reference phase A third reference phase frame group Ft3 captured at a time corresponding to Ts3 is output to the image storage unit 24 .

このとき、位相判断部23は、第1基準位相フレーム群Ft1、第2基準位相フレーム群Ft2、第3基準位相フレーム群Ft3に関するフレーム情報を、それぞれの基準位相フレーム群が判断された基準位相Tsと対応付けて画像格納部24に出力する。フレーム情報は、それぞれの撮影フレームが画像データのどの時刻に撮影されたかを示す情報であり、例えば撮影フレームに付与されたフレーム番号が記録されたタグなどである。 At this time, the phase determination unit 23 converts the frame information about the first reference phase frame group Ft1, the second reference phase frame group Ft2, and the third reference phase frame group Ft3 to the reference phase Ts from which each reference phase frame group was judged. , and output to the image storage unit 24 . The frame information is information indicating at what time in the image data each photographed frame was photographed, and is, for example, a tag in which a frame number assigned to the photographed frame is recorded.

画像格納部24は、第1基準位相フレーム群Ft1、第2基準位相フレーム群Ft2、第3基準位相フレーム群Ft3の画像を、図13に示した画像処理装置20の第1位相画像記録装置262_T1、第2位相画像記録装置262_T2、第3位相画像記録装置262_T3にそれぞれ格納する。なお、画像記録装置に格納する画像の選択方法及び相関を使った判定は第1の実施形態と同様である。例えば、前後の基準位相フレームの画像の相関値が閾値以下である場合は、画像記録装置に格納された画像を初期化する。 The image storage unit 24 stores the images of the first reference phase frame group Ft1, the second reference phase frame group Ft2, and the third reference phase frame group Ft3 in the first phase image recording device 262_T1 of the image processing device 20 shown in FIG. , the second phase image recording device 262_T2, and the third phase image recording device 262_T3, respectively. The method of selecting images to be stored in the image recording apparatus and the determination using correlation are the same as in the first embodiment. For example, when the correlation value of the image of the reference phase frame before and after is equal to or less than the threshold value, the image stored in the image recording device is initialized.

画像合成部25は、第1の実施形態と同様に、画像記録装置に格納された画像を合成し、合成画像を生成する。このとき、基準位相Tsごとに基準位相フレーム群の画像領域を加算処理して、複数の合成画像を生成する。つまり、第1位相画像記録装置262_T1、第2位相画像記録装置262_T2、第3位相画像記録装置262_T3ごとに、格納されている画像を第1の実施形態と同様に合成して、基準位相Tsごとの合成画像を生成する。その結果、観測対象の形状が異なる3つの合成画像が生成される。 The image synthesizing unit 25 synthesizes the images stored in the image recording device to generate a synthesized image, as in the first embodiment. At this time, the image regions of the reference phase frame group are added for each reference phase Ts to generate a plurality of synthesized images. That is, the images stored in each of the first phase image recording device 262_T1, the second phase image recording device 262_T2, and the third phase image recording device 262_T3 are synthesized in the same manner as in the first embodiment, and generates a composite image of As a result, three synthesized images with different shapes of observation targets are generated.

第2の実施形態に係る画像処理方法では、1つの注目計測点Psについて設定された複数の基準位相Tsのそれぞれについて高画質の合成画像を生成する。このため、1つの注目計測点Psについて1つの基準位相Tsを設定する場合に比べて、合成画像が生成される間隔が短くなる。 In the image processing method according to the second embodiment, a high-quality composite image is generated for each of a plurality of reference phases Ts set for one target measurement point Ps. Therefore, compared to the case where one reference phase Ts is set for one target measurement point Ps, the interval at which the synthesized image is generated becomes shorter.

したがって、第2の実施形態に係る画像処理方法は、特に、観測対象の動きの周期が長い場合、若しくは物体認識をより短い間隔で行う場合に効果的である。例えば、撮像装置10の撮影レートに比べて人間の歩行周期がゆっくりである場合に、1つの基準位相Tsのみに基づいて画像合成を行うと、物体認識装置40には撮影レートよりも短い間隔でしか合成画像が入力しない。その結果、物体認識を行う間隔が長くなる。このため、例えば自動車の制御に物体認識の結果を反映させるには時間的余裕が十分ではない可能性がある。これに対し、第2の実施形態においては、注目計測点Psについて複数の基準位相Tsを設定することによって、物体認識を行う時間間隔を短くできる。 Therefore, the image processing method according to the second embodiment is particularly effective when the movement period of the observation target is long, or when object recognition is performed at shorter intervals. For example, when the walking cycle of a person is slow compared to the imaging rate of the imaging device 10, if image synthesis is performed based on only one reference phase Ts, the object recognition device 40 will receive the images at intervals shorter than the imaging rate. Only synthetic images are input. As a result, the interval at which object recognition is performed becomes longer. For this reason, there is a possibility that there is not enough time to reflect the result of object recognition in the control of an automobile, for example. In contrast, in the second embodiment, by setting a plurality of reference phases Ts for the target measurement point Ps, the time interval for object recognition can be shortened.

以上に説明したように、第2の実施形態に係る画像処理方法によれば、第1の実施形態と同様に、動きのある観測対象について高画質の合成画像を生成できる。更に、第2の実施形態によれば、複数の基準位相Tsのそれぞれについて高画質の合成画像を生成するため、注目計測点Psの動作周期よりも短い時間間隔で合成画像を生成できる。短い時間間隔で生成した合成画像を用いて物体認識を行うことにより、高い頻度で遠方の物体情報を取得することも可能である。他は、第1の実施形態と実質的に同様であり、重複した説明を省略する。 As described above, according to the image processing method according to the second embodiment, similarly to the first embodiment, it is possible to generate a high-quality composite image of a moving observation target. Furthermore, according to the second embodiment, since a high-quality composite image is generated for each of a plurality of reference phases Ts, composite images can be generated at time intervals shorter than the operation cycle of the target measurement point Ps. By performing object recognition using synthesized images generated at short time intervals, it is also possible to acquire information on distant objects with high frequency. Others are substantially the same as those of the first embodiment, and redundant description is omitted.

(第3の実施形態)
図14に示す第3の実施形態に係る画像処理装置20では、位相判断部23が、動作周期が同一である複数の注目計測点Psを選択する。これにより、観測対象について周期性のある部分が複数選択される。そして、位相判断部23は、複数の注目計測点Psについて互いに異なる位相をそれぞれの基準位相Tsに設定する。基準位相Tsが互いに異なるため、それぞれの基準位相Tsに相当する時刻における観測対象の形状は異なる。複数の注目計測点Psを選択し、それぞれの注目計測点Psについて基準位相Tsが設定されることが、1つの注目計測点Psについて1つの基準位相Tsが設定される第1の実施形態と異なる点である。
(Third embodiment)
In the image processing apparatus 20 according to the third embodiment shown in FIG. 14, the phase determination section 23 selects a plurality of measurement points of interest Ps having the same operation cycle. As a result, a plurality of periodic portions are selected for the observation target. Then, the phase determination unit 23 sets different phases as the reference phases Ts for the plurality of target measurement points Ps. Since the reference phases Ts are different from each other, the shape of the observation target at the time corresponding to each reference phase Ts is different. A plurality of measurement points of interest Ps are selected, and a reference phase Ts is set for each of the measurement points of interest Ps, which is different from the first embodiment in which one reference phase Ts is set for one measurement point of interest Ps. It is a point.

位相判断部23は、例えば想定する観測対象が人間である場合、人間が歩行するときの手足の動きの周期である2~3Hz程度の基準周波数の周期計測点から、複数の注目計測点Psを選択する。以下に、3つの注目計測点Psが選択される場合を例示的に説明する。例えば、位相判断部23は、画像の中央付近に最も近い周期計測点を第1注目計測点Ps1として選択する。更に、位相判断部23は、第1注目計測点Ps1からある程度離れた第2注目計測点Ps2、第3注目計測点Ps3を選択する。第1注目計測点Ps1、第2注目計測点Ps2及び第3注目計測点Ps3の相互の距離は、観測対象が含まれる画像の範囲によって設定される。つまり、撮像装置10から観測対象までの距離や想定される観測対象の大きさに応じて、選択される複数の注目計測点Psの相互の距離の範囲が設定される。 For example, when the assumed observation target is a human, the phase determination unit 23 selects a plurality of target measurement points Ps from the period measurement points of the reference frequency of about 2 to 3 Hz, which is the period of the movement of the hands and feet when the human walks. select. A case in which three measurement points of interest Ps are selected will be exemplified below. For example, the phase determination unit 23 selects the periodic measurement point closest to the center of the image as the first target measurement point Ps1. Further, the phase determination section 23 selects a second measuring point of interest Ps2 and a third measuring point of interest Ps3 that are separated from the first measuring point of interest Ps1 by a certain amount. The mutual distances of the first measurement point of interest Ps1, the second measurement point of interest Ps2, and the third measurement point of interest Ps3 are set according to the range of the image including the observation target. That is, the mutual distance range of the selected plurality of target measurement points Ps is set according to the distance from the imaging device 10 to the observation target and the size of the assumed observation target.

位相判断部23は、1回目の動作周期におけるオプティカルフローから、第1注目計測点Ps1、第2注目計測点Ps2及び第3注目計測点Ps3のそれぞれの基準位相Tp1、Tp2、Tp3を設定する。例えば、水平方向の動きの速度が最小である時刻の位相を、基準位相Tp1、Tp2、Tp3とする。更に、位相判断部23は、撮影フレームのそれぞれについて、基準位相Tp1、Tp2、Tp3のいずれかに相当する時刻に撮影されたか否かを判断する。そして、位相判断部23は、基準位相Tp1、Tp2、Tp3のそれぞれに相当する時刻に撮影された第1基準位相フレーム群Fp1、第2基準位相フレーム群Fp2、第3基準位相フレーム群Fp3を、フレーム情報及び注目計測点Psの情報と対応付けて画像格納部24に出力する。 The phase determination unit 23 sets reference phases Tp1, Tp2, and Tp3 of the first measurement point of interest Ps1, the second measurement point of interest Ps2, and the third measurement point of interest Ps3, respectively, from the optical flow in the first operation cycle. For example, the phases at which the speed of horizontal motion is minimum are set as reference phases Tp1, Tp2, and Tp3. Furthermore, the phase determination unit 23 determines whether or not each captured frame was captured at a time corresponding to one of the reference phases Tp1, Tp2, and Tp3. Then, the phase determination unit 23 selects the first reference phase frame group Fp1, the second reference phase frame group Fp2, and the third reference phase frame group Fp3 captured at times corresponding to the reference phases Tp1, Tp2, and Tp3, respectively. It is output to the image storage unit 24 in association with the frame information and the information of the target measurement point Ps.

画像格納部24は、第1基準位相フレーム群Fp1の画像、第2基準位相フレーム群Fp2の画像、第3基準位相フレーム群Fp3の画像を、図14に示した画像処理装置20の第1計測点画像記録装置262_P1、第2計測点画像記録装置262_P2、第3計測点画像記録装置262_P3にそれぞれ格納する。なお、画像記録装置に格納する画像の選択方法及び相関を使った判定は第1の実施形態と同様である。 The image storage unit 24 stores the image of the first reference phase frame group Fp1, the image of the second reference phase frame group Fp2, and the image of the third reference phase frame group Fp3 in the first measurement of the image processing device 20 shown in FIG. They are stored in the point image recording device 262_P1, the second measurement point image recording device 262_P2, and the third measurement point image recording device 262_P3, respectively. The method of selecting images to be stored in the image recording apparatus and the determination using correlation are the same as in the first embodiment.

画像合成部25は、注目計測点Psごとに基準位相フレーム群Fsの画像領域を加算処理して、複数の合成画像を生成する。つまり、画像合成部25は、第1計測点画像記録装置262_P1、第2計測点画像記録装置262_P2、第3計測点画像記録装置262_P3ごとに、格納されている画像を第1の実施形態と同様に合成して、合成画像を生成する。注目計測点Psごとに異なる基準位相Tsを設定しているため、観測対象の形状が異なる複数の合成画像が生成される。 The image synthesizing unit 25 adds image regions of the reference phase frame group Fs for each target measurement point Ps to generate a plurality of synthesized images. That is, the image synthesizing unit 25 synthesizes the stored images for each of the first measurement point image recording device 262_P1, the second measurement point image recording device 262_P2, and the third measurement point image recording device 262_P3 in the same manner as in the first embodiment. to generate a composite image. Since a different reference phase Ts is set for each target measurement point Ps, a plurality of synthesized images with different shapes of observation targets are generated.

第3の実施形態に係る画像処理方法によれば、第1の実施形態と同様に、動きのある観測対象について高画質の合成画像を生成できる。更に、第3の実施形態に係る画像処理方法では、複数の注目計測点Psのそれぞれについて高画質の合成画像を生成する。このため、1つの注目計測点Psについて1つの基準位相Tsを設定する場合に比べて、合成画像が生成される間隔が短くなる。つまり、短い時間間隔で生成される高画質の合成画像を用いて物体認識を行うことにより、高い頻度で遠方の物体情報を取得することが可能である。 According to the image processing method according to the third embodiment, similarly to the first embodiment, it is possible to generate a high-quality composite image of a moving observation target. Furthermore, in the image processing method according to the third embodiment, a high-quality composite image is generated for each of the plurality of target measurement points Ps. Therefore, compared to the case where one reference phase Ts is set for one target measurement point Ps, the interval at which the synthesized image is generated becomes shorter. That is, by performing object recognition using high-quality composite images generated at short time intervals, it is possible to acquire information on distant objects with high frequency.

したがって、第3の実施形態に係る画像処理方法は、特に、観測対象の動きの周期が長い場合や物体認識をより短い間隔で行う場合に効果的である。他は、第1及び第2の実施形態と実質的に同様であり、重複した説明を省略する。 Therefore, the image processing method according to the third embodiment is particularly effective when the movement period of the observation target is long or when object recognition is performed at shorter intervals. Others are substantially the same as those of the first and second embodiments, and redundant description is omitted.

(第4の実施形態)
上記に説明した画像処理方法によれば、基準位相フレーム群Fsの画像領域を加算処理することにより、高解像度の合成画像を生成することができる。また、基準位相フレーム群Fsの画像領域を加算処理することにより、高階調度の合成画像を生成することも可能である。
(Fourth embodiment)
According to the image processing method described above, a high-resolution composite image can be generated by performing addition processing on the image regions of the reference phase frame group Fs. Further, by subjecting the image areas of the reference phase frame group Fs to addition processing, it is possible to generate a composite image with high gradation.

即ち、撮影した画像を撮像装置10がアナログデジタル(AD)変換によりデジタル化した画像データを、画像合成部25によって高階調化することができる。例えば、画像合成部25は画像記録装置262に格納されている画像を用い、1回目の動作周期の画像の注目計測点Psの位置と2回目以降の動作周期の注目計測点Psの位置を合わせるように画像の位置をずらしながら、画像領域の加算処理を行う。画像の位置のずらし量は、例えば、注目計測点Psのオプティカルフローの履歴から算出される観測対象の位置変化量を用いる。画像記録装置262に格納された画像のずれを補正して加算処理することにより、高階調画像を取得することができる。例えば、撮像装置10がAD変換による8ビットのデータを各画素について出力していた場合に、16ビットまで復元した合成画像を生成する。これにより、反復的な動きをしている観測対象について合成画像のコントラストが上がり、ノイズを減らすことができる。 That is, the image synthesizing unit 25 can increase the gradation of image data obtained by digitizing a captured image by analog-to-digital (AD) conversion by the imaging device 10 . For example, the image synthesizing unit 25 uses the image stored in the image recording device 262 to align the position of the target measurement point Ps in the image of the first operation cycle with the position of the target measurement point Ps of the second and subsequent operation cycles. Addition processing of the image area is performed while shifting the position of the image as shown. For the image position shift amount, for example, the observation target position change amount calculated from the history of the optical flow of the target measurement point Ps is used. A high gradation image can be obtained by correcting the displacement of the images stored in the image recording device 262 and performing addition processing. For example, when the imaging device 10 outputs 8-bit data for each pixel by AD conversion, a synthesized image restored to 16 bits is generated. This increases the contrast of the composite image and reduces noise for observation objects that are moving repetitively.

第4の実施形態に係る画像処理装置は、特に、画像のコントラストが小さく、撮像装置10のAD変換によって画素間の輝度差が埋もれているときに効果がある。例えば、周囲が暗い夕方には観測対象とその周辺とのコントラストが小さく、観測対象が鮮明に見えないために物体認識が難しくなる可能性がある。この点、第4の実施形態に係る画像処理装置によれば、高階調画像を生成することにより観測対象の物体とその周辺とのコントラストの差を明確にし、観測対象が鮮明に見えるようにすることができる。 The image processing apparatus according to the fourth embodiment is particularly effective when the contrast of the image is low and the luminance difference between pixels is hidden by the AD conversion of the imaging apparatus 10 . For example, in the evening when the surroundings are dark, the contrast between the observation target and its surroundings is small, and the observation target cannot be seen clearly, which may make object recognition difficult. In this regard, according to the image processing apparatus according to the fourth embodiment, by generating a high-gradation image, the difference in contrast between the object to be observed and its surroundings is clarified, and the object to be observed can be seen clearly. be able to.

(その他の実施形態)
上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなろう。
(Other embodiments)
While embodiments of the present invention have been described above, the discussion and drawings forming part of this disclosure should not be construed as limiting the invention. Various alternative embodiments, implementations and operational techniques will become apparent to those skilled in the art from this disclosure.

例えば、上記では歩行中の人間を観測対象に想定した場合について説明したが、観測対象はこれに限定されるものではなく、観測対象は自転車で走行中の人間であったり、人間以外の動物であったりしもよい。 For example, in the above description, a case where a walking human being is assumed as an observation target is explained, but the observation target is not limited to this, and the observation target can be a human riding a bicycle or an animal other than a human. It could be.

また、観測対象の周期的な動きのある部分の周期が、注目計測点Psの周期の2倍である場合だけでなく、3倍以上の場合もある。このため、2倍だけでなく逓倍の周期で動く周期計測点を含むように画像領域を設定してもよい。 In addition, the period of a portion of the observation target having periodic motion may not only be twice the period of the target measurement point Ps, but may be three times or more. For this reason, the image area may be set so as to include periodic measurement points that move not only with a double cycle but also with a multiplication cycle.

10…撮像装置
20…画像処理装置
21…計測部
22…周期性判断部
23…位相判断部
24…画像格納部
25…画像合成部
26…記録装置
30…画像表示装置
40…物体認識装置
261…計測結果記録装置
262…画像記録装置
DESCRIPTION OF SYMBOLS 10... Imaging device 20... Image processing apparatus 21... Measurement part 22... Periodicity determination part 23... Phase determination part 24... Image storage part 25... Image synthesizing part 26... Recording device 30... Image display device 40... Object recognition device 261... Measurement result recording device 262... Image recording device

Claims (16)

経時的に連続して撮影した複数の撮影フレームにより構成される画像データを処理する画像処理方法において、
前記画像データの画像中の複数の計測点について動きを計測し、
前記計測点のそれぞれについて前記計測した動きに周期性があるか否かを判断し、
前記計測した動きに周期性があると判断された前記計測点のうちの1つを注目計測点に選択して前記注目計測点の動きの周期である動作周期の位相の1つを基準位相に設定し、
前記撮影フレームのそれぞれについて、前記基準位相に相当する時刻に撮影された基準位相フレームであるか否か判断し、
前記動作周期で動く他の前記計測点を有する観測対象が含まれるように前記注目計測点の周囲の画像領域を前記基準位相フレームから切り取り、
複数の前記基準位相フレームの前記画像領域を加算処理して合成画像を生成する
ことを特徴とする画像処理方法。
In an image processing method for processing image data composed of a plurality of captured frames captured continuously over time,
measuring the movement of a plurality of measurement points in the image of the image data;
Determining whether the movement measured for each of the measurement points has periodicity,
One of the measurement points determined to have periodicity in the measured motion is selected as a target measurement point, and one phase of an operation cycle, which is the motion cycle of the target measurement point, is set as a reference phase. Set,
determining whether each of the captured frames is a reference phase frame captured at a time corresponding to the reference phase;
cutting out an image area around the measurement point of interest from the reference phase frame so as to include an observation target having the other measurement points that move in the motion cycle;
An image processing method comprising adding the image regions of a plurality of the reference phase frames to generate a synthesized image.
前記動作周期について複数の前記基準位相を設定し、
前記撮影フレームのそれぞれについて、複数の前記基準位相のいずれかに相当する時刻に撮影された前記基準位相フレームであるか否かを判断し、
前記基準位相ごとに前記基準位相フレームの前記画像領域を加算処理して複数の前記合成画像を生成する
ことを特徴とする請求項1に記載の画像処理方法。
setting a plurality of the reference phases for the operation period;
determining whether each of the captured frames is the reference phase frame captured at a time corresponding to one of the plurality of reference phases;
2. The image processing method according to claim 1, wherein the image regions of the reference phase frame are added for each of the reference phases to generate a plurality of the composite images.
前記動作周期が同一である複数の前記注目計測点を選択し、
複数の前記注目計測点について互いに異なる位相をそれぞれの前記基準位相に設定し、
前記撮影フレームのそれぞれについて、複数の前記注目計測点の前記基準位相のいずれかに相当する時刻に撮影された前記基準位相フレームであるか否かを判断し、
前記注目計測点ごとに前記基準位相フレームの前記画像領域を加算処理して複数の前記合成画像を生成する
ことを特徴とする請求項1に記載の画像処理方法。
selecting a plurality of the target measurement points having the same operation cycle;
setting different phases as the reference phases for the plurality of measurement points of interest;
determining whether each of the captured frames is the reference phase frame captured at a time corresponding to one of the reference phases of the plurality of measurement points of interest;
2. The image processing method according to claim 1, wherein the image regions of the reference phase frame are added for each of the target measurement points to generate a plurality of the composite images.
前記注目計測点の動きの履歴に基づいて算出された前記観測対象の位置変化量に応じて前記画像領域の画像を移動させながら、前記画像領域の加算処理を行うことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理方法。 2. The addition process of the image area is performed while the image of the image area is moved according to the position change amount of the observation target calculated based on the movement history of the target measurement point. 4. The image processing method according to any one of items 1 to 3. 前記画像領域の加算処理において前記画像データを高階調化した前記合成画像を生成することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理方法。 5. The image processing method according to any one of claims 1 to 4, wherein the composite image is generated by increasing the gradation of the image data in the addition processing of the image areas. 前記計測点の垂直方向の動きも若しくは水平方向の動きを用いて、前記計測点の動きに周期性があるか否かを判断することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理方法。 6. The method according to any one of claims 1 to 5, wherein it is determined whether or not there is periodicity in the movement of said measurement points by using the movement of said measurement points in the vertical direction or the movement in the horizontal direction. The described image processing method. 前記注目計測点の前記動作周期の逓倍の周期で動く前記計測点を含むように前記画像領域を設定することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理方法。 7. The image processing method according to any one of claims 1 to 6, wherein the image area is set so as to include the measurement point that moves in a cycle that is a multiple of the operation cycle of the target measurement point. 前記注目計測点の動きの速度が最大の時刻または最小の時刻を前記基準位相とすることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理方法。 8. The image processing method according to any one of claims 1 to 7, wherein the reference phase is set to a time when a speed of movement of the target measurement point is maximum or minimum. 前記注目計測点の動きの速度がゼロから変化する時刻を前記基準位相とすることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理方法。 8. The image processing method according to any one of claims 1 to 7, wherein the reference phase is a time when the speed of movement of the target measurement point changes from zero. 前記注目計測点の動きの速度が前記動作周期において2回目の極大値になる時刻を前記基準位相とすることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理方法。 8. The image processing method according to any one of claims 1 to 7, wherein the reference phase is a time when the speed of movement of the target measurement point reaches a second maximum value in the operation cycle. 撮影時間の順序で1つおきに前記基準位相フレームの前記画像領域を加算処理して前記合成画像を生成することを特徴とする請求項1乃至10のいずれか1項に記載の画像処理方法。 11. The image processing method according to any one of claims 1 to 10, wherein the image regions of the reference phase frames are added alternately in order of photographing time to generate the composite image. 前記画像領域に含まれる前記動作周期の前記計測点の個数が設定値よりも少ない場合に、前記動作周期の2倍の周期について1つの前記基準位相を設定し直して、前記撮影フレームのそれぞれについて前記基準位相フレームであるか否か判断することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理方法。 When the number of measurement points in the operation period included in the image area is smaller than a set value, one reference phase is set again for a period twice as large as the operation period, and for each of the photographing frames. 12. The image processing method according to any one of claims 1 to 11, wherein it is determined whether or not it is the reference phase frame. 先に撮影された前記基準位相フレームから切り取られた前記画像領域の画像と、後に撮影された前記基準位相フレームから切り取られた前記画像領域の画像との相関を取り、相関値が所定の閾値以下の場合は、後に撮影された前記基準位相フレームから切り取られた前記画像領域を前記合成画像の生成に使用せず、
前記合成画像の生成に使用しない前記画像領域が2回以上続いた場合には、前記注目計測点及び前記基準位相を画像合成に使用する対象から除外する
ことを特徴とする請求項1乃至12のいずれか1項に記載の画像処理方法。
A correlation is obtained between an image of the image region cropped from the reference phase frame captured earlier and an image of the image region cropped from the reference phase frame captured later, and a correlation value is equal to or less than a predetermined threshold. if the image region cropped from the reference phase frame taken later is not used to generate the composite image,
13. The method according to any one of claims 1 to 12, wherein when the image area not used for generating the composite image continues twice or more, the target measurement point and the reference phase are excluded from the targets used for image synthesis. The image processing method according to any one of the items.
請求項1乃至13のいずれか1項に記載の画像処理方法の処理結果を表示し、
前記観測対象の様々な形状が格納された学習データベースを用いて、前記処理結果から前記観測対象の物体認識を実行する
ことを特徴とする物体認識方法。
Displaying the processing result of the image processing method according to any one of claims 1 to 13,
An object recognition method, wherein object recognition of the observation target is executed from the processing result using a learning database storing various shapes of the observation target.
前記観測対象が歩行中の人間であることを特徴とする請求項14に記載の物体認識方法。 15. The object recognition method according to claim 14, wherein the observation target is a walking human being. 経時的に連続して撮影した複数の撮影フレームにより構成される画像データを処理する画像処理装置であって、前記画像処理装置は、
前記画像データの画像中の複数の計測点について動きを計測し、
前記計測点のそれぞれについて前記計測した動きに周期性があるか否かを判断し、
前記計測した動きに周期性があると判断された前記計測点のうちの1つを注目計測点に選択して前記注目計測点の動きの周期である動作周期の位相の1つを基準位相に設定し、
前記撮影フレームのそれぞれについて、前記基準位相に相当する時刻に撮影された基準位相フレームであるか否か判断し、
前記動作周期で動く他の前記計測点を有する観測対象が含まれるように前記注目計測点の周囲の画像領域を前記基準位相フレームから切り取り、
複数の前記基準位相フレームの前記画像領域を加算処理して合成画像を生成する
ことを特徴とする画像処理装置。
An image processing device for processing image data composed of a plurality of frames captured continuously over time, the image processing device comprising:
measuring the movement of a plurality of measurement points in the image of the image data;
Determining whether the movement measured for each of the measurement points has periodicity,
One of the measurement points determined to have periodicity in the measured motion is selected as a target measurement point, and one phase of an operation cycle, which is the motion cycle of the target measurement point, is set as a reference phase. Set,
determining whether each of the captured frames is a reference phase frame captured at a time corresponding to the reference phase;
cutting out an image area around the measurement point of interest from the reference phase frame so as to include an observation target having the other measurement points that move in the motion cycle;
An image processing apparatus that generates a composite image by adding the image regions of the plurality of reference phase frames.
JP2019016869A 2019-02-01 2019-02-01 Image processing method, image processing device, and object recognition method Active JP7169894B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019016869A JP7169894B2 (en) 2019-02-01 2019-02-01 Image processing method, image processing device, and object recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019016869A JP7169894B2 (en) 2019-02-01 2019-02-01 Image processing method, image processing device, and object recognition method

Publications (2)

Publication Number Publication Date
JP2020126306A JP2020126306A (en) 2020-08-20
JP7169894B2 true JP7169894B2 (en) 2022-11-11

Family

ID=72083979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019016869A Active JP7169894B2 (en) 2019-02-01 2019-02-01 Image processing method, image processing device, and object recognition method

Country Status (1)

Country Link
JP (1) JP7169894B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002063579A (en) 2000-08-17 2002-02-28 Hitachi Plant Eng & Constr Co Ltd Device and method for analyzing image
WO2009139206A1 (en) 2008-05-14 2009-11-19 コニカミノルタエムジー株式会社 Dynamic imaging controller and dynamic imaging system
JP2010093451A (en) 2008-10-06 2010-04-22 Olympus Corp Imaging apparatus and program for imaging apparatus
JP2010158275A (en) 2009-01-06 2010-07-22 Konica Minolta Holdings Inc Moving image display device and program
JP2016046666A (en) 2014-08-22 2016-04-04 キヤノン株式会社 Imaging apparatus, control method therefor, and program
JP2017094006A (en) 2015-11-27 2017-06-01 株式会社島津製作所 Image processing device and radiographic apparatus
JP2018173914A (en) 2017-03-31 2018-11-08 綜合警備保障株式会社 Image processing system, imaging apparatus, learning model creation method, and information processing device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002063579A (en) 2000-08-17 2002-02-28 Hitachi Plant Eng & Constr Co Ltd Device and method for analyzing image
WO2009139206A1 (en) 2008-05-14 2009-11-19 コニカミノルタエムジー株式会社 Dynamic imaging controller and dynamic imaging system
JP2010093451A (en) 2008-10-06 2010-04-22 Olympus Corp Imaging apparatus and program for imaging apparatus
JP2010158275A (en) 2009-01-06 2010-07-22 Konica Minolta Holdings Inc Moving image display device and program
JP2016046666A (en) 2014-08-22 2016-04-04 キヤノン株式会社 Imaging apparatus, control method therefor, and program
JP2017094006A (en) 2015-11-27 2017-06-01 株式会社島津製作所 Image processing device and radiographic apparatus
JP2018173914A (en) 2017-03-31 2018-11-08 綜合警備保障株式会社 Image processing system, imaging apparatus, learning model creation method, and information processing device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
矢口 陽一 他,超解像処理のための複数モーションに対応したロバストかつ高精度な位置合せ手法,電子情報通信学会論文誌 (J92-D),第11号,社団法人電子情報通信学会,2009年11月01日

Also Published As

Publication number Publication date
JP2020126306A (en) 2020-08-20

Similar Documents

Publication Publication Date Title
JP6641163B2 (en) Object tracking device and its program
JP5687553B2 (en) Image composition apparatus, image composition method, and image composition program
CN113271415B (en) Method and system for image processing with multiple image sources
US8004528B2 (en) Method, systems and computer product for deriving three-dimensional information progressively from a streaming video sequence
JP2006311480A (en) Method, apparatus and program for generating interpolation frame
JP2011097246A (en) Image processing apparatus, method, and program
JP2012034327A5 (en)
JP6412819B2 (en) Image processing apparatus, image processing method, and image processing program
CN113784014A (en) Image processing method, device and equipment
JP6017279B2 (en) Image processing apparatus, image processing method, and program
JP7169894B2 (en) Image processing method, image processing device, and object recognition method
JP2017147689A (en) Video editing device, video editing method, and computer program for editing video
US9106926B1 (en) Using double confirmation of motion vectors to determine occluded regions in images
KR101740124B1 (en) An appratus for frame rate conversion and a method thereof
JP2009282762A (en) Corresponding point retrieval device
KR101105675B1 (en) Method and apparatus of inpainting for video data
JP2011188035A (en) Imaging device, panoramic image synthesis method, and program therefor
JP2011171795A (en) Noise reduction device
JP2008226067A (en) Image processor and image processing method
CN110692235B (en) Image processing apparatus, image processing program, and image processing method
JP2008287648A (en) Mobile body detection method and device, and monitoring device
KR20180133394A (en) Image processing apparatus and image processing method
JP4556803B2 (en) Image processing apparatus and program
US20150281576A1 (en) Image processing apparatus, image processing method, program, and camera
JP5927053B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221031

R150 Certificate of patent or registration of utility model

Ref document number: 7169894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150