JP5778522B2 - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP5778522B2
JP5778522B2 JP2011181307A JP2011181307A JP5778522B2 JP 5778522 B2 JP5778522 B2 JP 5778522B2 JP 2011181307 A JP2011181307 A JP 2011181307A JP 2011181307 A JP2011181307 A JP 2011181307A JP 5778522 B2 JP5778522 B2 JP 5778522B2
Authority
JP
Japan
Prior art keywords
frame image
image
reference frame
unit
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011181307A
Other languages
Japanese (ja)
Other versions
JP2013045207A (en
Inventor
村瀬 洋
洋 村瀬
大輔 出口
大輔 出口
高橋 友和
友和 高橋
智成 吉田
智成 吉田
世紅 労
世紅 労
剛 倉田
剛 倉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Omron Corp
Tokai National Higher Education and Research System NUC
Original Assignee
Nagoya University NUC
Omron Corp
Tokai National Higher Education and Research System NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Omron Corp, Tokai National Higher Education and Research System NUC filed Critical Nagoya University NUC
Priority to JP2011181307A priority Critical patent/JP5778522B2/en
Publication of JP2013045207A publication Critical patent/JP2013045207A/en
Application granted granted Critical
Publication of JP5778522B2 publication Critical patent/JP5778522B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

この発明は、ビデオカメラ等の撮像装置で撮像した複数のフレーム画像から、このフレーム画像よりも高精細な画像を生成する画像処理装置、および画像処理プログラムに関する。   The present invention relates to an image processing device and an image processing program for generating a higher-definition image than a frame image from a plurality of frame images captured by an imaging device such as a video camera.

従来、ビデオカメラ等の撮像装置で撮像したフレーム画像から、このフレーム画像よりも高精細な画像(以下、高精細画像と言う。)を生成する技術(以下、超解像技術と言う。)が種々提案されている(例えば、特許文献1〜3等参照)。一般に、ビデオカメラ等の撮像装置は、解像度が高いものほど高価である。この超解像技術は、撮像装置を使用する様々なシステムの構築にかかるコストを低減するのに有用である。   2. Description of the Related Art Conventionally, a technique (hereinafter referred to as a super-resolution technique) that generates a higher-definition image (hereinafter referred to as a high-definition image) than a frame image captured by an imaging device such as a video camera. Various proposals have been made (for example, see Patent Documents 1 to 3). In general, an imaging apparatus such as a video camera is more expensive as the resolution is higher. This super-resolution technique is useful for reducing the cost of building various systems that use an imaging apparatus.

撮像装置を使用するシステムは、そのシステムの用途や目的により、撮像したオブジェクトの認識率が要求される。例えば、駅、繁華街、ショッピングセンタ等、不特定多数の人が集まる場所では、複数の防犯カメラを設置し、不審者等を監視するための監視システムを構築している。この監視システムでは、防犯カメラで撮像したフレーム画像に撮像されている人物の顔について、ある程度の認識率が要求される。また、監視システムは、広域にわたって不審者等を監視するため、複数の防犯カメラを使用している。要求される顔の認識率を満足させるために、比較的高解像度の防犯カメラを使用すると、システムの構築にかかるコストが高くなる。そこで、比較的低解像度の防犯カメラを使用し、上述の超解像技術を利用することにより、システム構築にかかるコストを低減し、且つ、要求される顔の認識率を確保することが行われている。   A system that uses an imaging apparatus is required to have a recognition rate of an imaged object depending on the use and purpose of the system. For example, in a place where an unspecified number of people gather, such as a station, a downtown area, a shopping center, etc., a plurality of security cameras are installed, and a monitoring system for monitoring suspicious persons and the like is constructed. In this monitoring system, a certain recognition rate is required for a person's face captured in a frame image captured by a security camera. The monitoring system uses a plurality of security cameras to monitor suspicious persons over a wide area. If a relatively high-resolution security camera is used to satisfy the required face recognition rate, the cost for constructing the system increases. Therefore, by using a security camera with a relatively low resolution and utilizing the above-described super-resolution technology, the cost for system construction is reduced and the required face recognition rate is secured. ing.

なお、この超解像技術を利用するシステムとしては、上述の監視システム以外にも、道路を走行している車両のナンバープレートに表記されているナンバープレート番号を認識し、2地点間における車両の旅行時間等を得る交通管制システム等がある。   In addition to the above-described monitoring system, the system using this super-resolution technology recognizes the license plate number written on the license plate of the vehicle traveling on the road and recognizes the vehicle between the two points. There is a traffic control system that gets travel time.

特開2007−157001号公報JP 2007-157001 A 特開2005−130443号公報JP-A-2005-130443 特開2005− 72935号公報JP-A-2005-72935

しかしながら、特許文献1、2等で提案されている超解像技術は、フレーム画像に撮像されている人物等のオブジェクトについて、複数枚のフレーム画像から高精細なオブジェクトの画像(例えば、顔画像)を生成するとき、撮像フレーム間におけるオブジェクトの向きの違いを考慮していなかった。   However, the super-resolution technique proposed in Patent Documents 1 and 2 and the like is a high-definition object image (for example, a face image) from a plurality of frame images for an object such as a person captured in a frame image. When generating the image, the difference in the orientation of the object between the imaging frames was not taken into consideration.

この発明の目的は、複数のフレーム画像間における、撮像されている人物の顔等の対象オブジェクトの向きの違いを考慮することで、対象オブジェクトについて従来よりも高精細な画像を生成することができる画像処理装置、および画像処理プログラムを提供することにある。   An object of the present invention is to take into account the difference in the orientation of a target object such as the face of a person being imaged between a plurality of frame images, so that a higher-definition image can be generated for the target object than before. An object is to provide an image processing apparatus and an image processing program.

この発明の画像処理装置は、上記目的を達するために、以下のように構成している。   In order to achieve the above object, the image processing apparatus of the present invention is configured as follows.

画像入力部には、撮像装置で撮像したフレーム画像が入力される。撮像装置は、例えば、1秒間に30フレーム程度のフレーム画像(動画像)を出力するビデオカメラであってもよいし、レリーズボタンの操作に応じて撮像するカメラや連写機能を有するカメラであってもよい。   A frame image captured by the imaging device is input to the image input unit. The imaging device may be, for example, a video camera that outputs a frame image (moving image) of about 30 frames per second, a camera that captures images in response to an operation of a release button, or a camera that has a continuous shooting function. May be.

抽出部が、画像入力部に入力されたフレーム画像の中から、処理対象である対象オブジェクト(例えば、対象者の顔や、車両のナンバープレート)が撮像されているフレーム画像を複数フレーム抽出する。基準フレーム画像選択部は、抽出部が抽出した複数のフレーム画像の中から、基準フレーム画像を選択する。例えば、抽出部が抽出した複数のフレーム画像の中から、対象者の顔(対象オブジェクト)の向きが最も正面に近いフレーム画像を、基準フレーム画像として選択する。
また、分割部は、抽出部が抽出した複数フレームのフレーム画像毎に、対象オブジェクトの撮像領域を予め定めた画素数に応じて格子状に分割する。特徴点設定部は、処理対象である対象オブジェクトに対して複数の特徴点を設定する。
The extraction unit extracts a plurality of frame images from which the target object (for example, the face of the target person or a vehicle license plate) is captured from the frame image input to the image input unit. The reference frame image selection unit selects a reference frame image from a plurality of frame images extracted by the extraction unit. For example, a frame image in which the orientation of the target person's face (target object) is closest to the front is selected as a reference frame image from among a plurality of frame images extracted by the extraction unit.
Further, the dividing unit divides the imaging region of the target object into a grid according to a predetermined number of pixels for each frame image extracted by the extracting unit. The feature point setting unit sets a plurality of feature points for the target object that is the processing target.

非剛体変形部は、基準フレーム画像選択部が基準フレーム画像として選択しなかった非基準フレーム画像毎に、特徴点設定部が設定した各特徴点の位置が、基準フレーム画像に撮像されている対象オブジェクトの対応する特徴点の位置に合うように分割部が格子状に分割した各格子点を移動させるFree Form Deformations(FFD)により、その非基準フレーム画像に撮像されている対象オブジェクトの向きを、基準フレーム画像に撮像されている対象オブジェクトの向きに合わせる非剛体変形を行う。 The non-rigid deformation unit is a target in which the position of each feature point set by the feature point setting unit is captured in the reference frame image for each non-reference frame image that the reference frame image selection unit has not selected as the reference frame image. The orientation of the target object imaged in the non-reference frame image is determined by Free Form Deformations (FFD) that moves each lattice point divided by the division unit in a lattice shape so as to match the position of the corresponding feature point of the object. Non-rigid deformation is performed in accordance with the direction of the target object captured in the reference frame image .

高精細画像生成部は、基準フレーム画像選択部が選択した基準フレーム画像に対して、分割部が格子状に分割した各格子点の画素値を、非剛体変形部が非剛体変形を行った非基準フレーム画像の対応する格子点の画素値を用いて決定した対象オブジェクトの高精細画像を生成する The high-definition image generation unit uses the reference frame image selected by the reference frame image selection unit, the pixel value of each grid point divided by the division unit in a lattice shape, and the non-rigid deformation unit performs non-rigid deformation. A high-definition image of the target object determined using the pixel values of the corresponding lattice points of the reference frame image is generated .

また、高精細画像生成部が生成した高精細画像に対して、ノイズ、および光学ボケを低減する画質改善処理を行う構成としてもよい。   Moreover, it is good also as a structure which performs the image quality improvement process which reduces noise and an optical blur with respect to the high definition image which the high definition image generation part produced | generated.

したがって、複数のフレーム画像間における、撮像されている人物の顔等の対象オブジェクトの向きの違いを考慮し、これら複数のフレーム画像から、対象オブジェクトについて、これらのフレーム画像よりも高精細な画像を生成することができる。   Therefore, considering the difference in the orientation of the target object such as the face of the person being imaged between the plurality of frame images, a higher definition image than the frame images is obtained for the target object from the plurality of frame images. Can be generated.

この発明によれば、複数のフレーム画像間における、撮像されている人物の顔等の対象オブジェクトの向きの違いを考慮し、この対象オブジェクトについて高精細な画像を生成することができる。   According to the present invention, it is possible to generate a high-definition image for a target object in consideration of a difference in direction of the target object such as the face of a person being captured between a plurality of frame images.

画像処理装置の主要部の構成を示すブロック図である。It is a block diagram which shows the structure of the principal part of an image processing apparatus. 画像処理装置における高精細画像生成処理を示すフローチャートである。It is a flowchart which shows the high-definition image generation process in an image processing apparatus. 非剛体変形処理を説明する図である。It is a figure explaining a non-rigid body deformation process. 非剛体変形処理を説明する図である。It is a figure explaining a non-rigid body deformation process. 非剛体変形処理を説明する図である。It is a figure explaining a non-rigid body deformation process.

以下、この発明の実施形態である画像処理装置について説明する。   Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described.

図1は、この画像処理装置の主要部の構成を示すブロック図である。画像処理装置1は、制御部2と、画像入力部3と、画像処理部4と、出力部5と、を備えている。   FIG. 1 is a block diagram showing a configuration of a main part of the image processing apparatus. The image processing apparatus 1 includes a control unit 2, an image input unit 3, an image processing unit 4, and an output unit 5.

制御部2は、画像処理装置1本体各部の動作を制御する。   The control unit 2 controls the operation of each part of the main body of the image processing apparatus 1.

画像入力部3には、ビデオカメラ10が接続されている。ビデオカメラ10は、例えば防犯カメラである。ビデオカメラ10は、不審者の侵入や、不審物の放置等を監視する監視対象エリアが撮像視野内に収まるように設置している。ビデオカメラ10は、監視対象エリアを撮像した動画像を出力する。例えば、ビデオカメラ10は、監視対象エリアを撮像したフレーム画像を、1秒間に30フレーム程度出力する。ビデオカメラ10は、監視対象エリアを撮像したフレーム画像を画像入力部3に入力する。   A video camera 10 is connected to the image input unit 3. The video camera 10 is a security camera, for example. The video camera 10 is installed so that a monitoring target area for monitoring the intrusion of a suspicious person, the leaving of a suspicious object, or the like is within the imaging field of view. The video camera 10 outputs a moving image obtained by imaging the monitoring target area. For example, the video camera 10 outputs about 30 frames per second of a frame image obtained by imaging the monitoring target area. The video camera 10 inputs a frame image obtained by imaging the monitoring target area to the image input unit 3.

なお、ここでは、ビデオカメラ10を画像入力部3に接続した構成を例にしているが、ビデオカメラ10で撮像した動画像を記録したハードディスク等の記録媒体を画像入力部3に接続し、画像入力部3がビデオカメラ10で撮像した動画像を構成するフレーム画像をこの記録媒体から順次読み出す構成であってもよい。   Here, the configuration in which the video camera 10 is connected to the image input unit 3 is taken as an example, but a recording medium such as a hard disk on which a moving image captured by the video camera 10 is recorded is connected to the image input unit 3 and the image is input. The input unit 3 may be configured to sequentially read frame images constituting a moving image captured by the video camera 10 from the recording medium.

画像処理部4は、画像入力部3に入力されたフレーム画像を処理し、このフレーム画像に撮像されている対象オブジェクト(ここでは、撮像されている人物の顔)を検出する。画像処理部4は、対象オブジェクトである人物の顔が撮像されている複数枚のフレーム画像を用いて、この人物の顔について高精細画像を生成する高精細画像生成処理を行う。この画像処理部4は、この高精細画像生成処理を実行するマイコンや、ワーキングエリアとして使用する画像メモリ等を備えている。この発明にかかる画像処理プログラムは、このマイコンを動作させるプログラムであり、予め画像処理部4にインストールしている。   The image processing unit 4 processes the frame image input to the image input unit 3 and detects a target object (here, a human face being imaged) captured in the frame image. The image processing unit 4 performs high-definition image generation processing for generating a high-definition image for the face of the person using a plurality of frame images in which the face of the person as the target object is captured. The image processing unit 4 includes a microcomputer that executes the high-definition image generation processing, an image memory that is used as a working area, and the like. The image processing program according to the present invention is a program for operating this microcomputer and is installed in the image processing unit 4 in advance.

出力部5は、画像入力部3に入力されたフレーム画像や、画像処理部4が高精細画像生成処理により生成した高精細画像等を出力する。出力部5には、表示装置や、顔認証装置等が接続される。出力部5に接続した表示装置(不図示)では、画像入力部3に入力されたフレーム画像や、画像処理部4が生成した高精細画像(対象者の顔画像)を表示する。また、出力部5に接続した顔認証装置(不図示)では、画像処理部4が生成した高精細画像(対象者の顔画像)を用いて、対象者に対する顔認証処理等を行う。   The output unit 5 outputs a frame image input to the image input unit 3, a high-definition image generated by the image processing unit 4 through a high-definition image generation process, and the like. A display device, a face authentication device, and the like are connected to the output unit 5. A display device (not shown) connected to the output unit 5 displays a frame image input to the image input unit 3 and a high-definition image (face image of the subject) generated by the image processing unit 4. In addition, a face authentication apparatus (not shown) connected to the output unit 5 performs face authentication processing for the target person using the high-definition image (the target person's face image) generated by the image processing unit 4.

以下、この画像処理装置1の動作について説明する。   Hereinafter, the operation of the image processing apparatus 1 will be described.

画像入力部3には、接続されているビデオカメラ10が撮像している撮像エリアのフレーム画像が1秒間に30フレーム程度入力されている。画像処理装置1は、図示していない操作部において、オペレータが対象者を指定する入力操作を行うのを待っている。オペレータは、出力部5に接続した表示装置が表示している、ビデオカメラ10の撮像画像を確認しながら、対象者を指定する入力操作を行う。画像処理装置1は、対象者を指定する入力操作が行われると、以下に示す高精細画像生成処理を実行する。   The image input unit 3 is input with about 30 frames per second of a frame image of the imaging area captured by the connected video camera 10. The image processing apparatus 1 waits for an operator to perform an input operation for designating a target person in an operation unit (not shown). The operator performs an input operation for designating the target person while confirming the captured image of the video camera 10 displayed on the display device connected to the output unit 5. When an input operation for designating a target person is performed, the image processing apparatus 1 executes the following high-definition image generation processing.

なお、ここでは対象者をオペレータが指定する場合を例にしているが、例えば、ビデオカメラ10が撮像している動画像を処理して、特異な行動をとった人物を検出すると、この人物を対象者として自動的に指定する構成としてもよい。   Here, the case where the operator designates the target person is taken as an example. However, for example, when a moving image captured by the video camera 10 is processed and a person who takes a peculiar action is detected, this person is selected. It is good also as a structure designated automatically as a subject person.

図2は、この高精細画像生成処理を示すフローチャートである。この高精細画像生成処理は、画像処理部4において実行される。   FIG. 2 is a flowchart showing this high-definition image generation processing. This high-definition image generation process is executed in the image processing unit 4.

画像処理部4は、画像入力部3に入力されたフレーム画像の中から、今回指定された対象者の顔(対象オブジェクト)が撮像されているフレーム画像を、予め定めたフレーム数(例えば、30フレーム)取り込む(s1)。   The image processing unit 4 selects a frame image in which the face (target object) of the target person designated this time is captured from the frame images input to the image input unit 3 by a predetermined number of frames (for example, 30). Frame) (s1).

画像処理部4は、s1で取り込んだ複数フレームのフレーム画像の中から、基準とする基準フレーム画像を選択する(s2)。   The image processing unit 4 selects a reference frame image as a reference from a plurality of frame images captured in s1 (s2).

s2では、s1で取り込んだフレーム画像の中で、対象者の顔が最も正面に近いフレーム画像を基準フレーム画像として選択する。例えば、対象者の鼻の中心と、口の中心と、を通る直線(分割線)で、対象者の顔を縦方向に分割する。この分割線から右頬の端部までの長さと、この分割線から左頬の端部までの長さとの差の絶対値が最小であるフレーム画像を、基準フレーム画像として選択する。   In s2, the frame image with the subject's face closest to the front is selected as the reference frame image from the frame images captured in s1. For example, the subject's face is divided in the vertical direction by a straight line (partition line) passing through the center of the subject's nose and the center of the mouth. A frame image in which the absolute value of the difference between the length from this dividing line to the end of the right cheek and the length from this dividing line to the end of the left cheek is selected as the reference frame image.

なお、このs2における処理負荷を低減するため、s1で取り込んだ複数のフレーム画像の中で、時間的に中間に位置するフレーム画像を基準フレーム画像としてもよいし、時間的に最も古いフレーム画像を基準フレーム画像としてもよいし、時間的に最も新しいフレーム画像を基準フレーム画像としてもよいし、その他の方法で基準フレーム画像を選択してもよい。   In order to reduce the processing load in s2, a frame image located in the middle in time among the plurality of frame images captured in s1 may be used as the reference frame image, or the oldest frame image in time is selected. The reference frame image may be used, the latest frame image in time may be used as the reference frame image, or the reference frame image may be selected by other methods.

画像処理部4は、s2で基準フレーム画像として選択しなかった非基準フレーム画像毎に、対象オブジェクトである人物の顔の向きを、基準画像における対象オブジェクトである人物の顔の向きに合わせる非剛体変形を行う(s3)。この非剛体変形は、Free Form Deformations(FFD)により行う。   For each non-reference frame image that has not been selected as the reference frame image in s2, the image processing unit 4 matches the orientation of the face of the person who is the target object with the orientation of the face of the person who is the target object in the reference image. Deformation is performed (s3). This non-rigid deformation is performed by Free Form Deformations (FFD).

FFDによる非剛体変形は、公知であるので、簡単に説明しておく。図3(A)は、s2で抽出した基準フレーム画像に撮像されている対象者の顔画像である。また、図3(B)は、対象者の顔が少し左側に傾いている顔画像であり、図3(C)は、対象者の顔が少し右側に傾いている顔画像である。図3(B)、および図3(C)は、非基準フレーム画像である。   Non-rigid deformation by FFD is well known and will be described briefly. FIG. 3A is a face image of the subject captured in the reference frame image extracted in s2. 3B is a face image in which the subject's face is slightly tilted to the left, and FIG. 3C is a face image in which the subject's face is slightly tilted to the right. FIG. 3B and FIG. 3C are non-reference frame images.

図3(A)に示す基準フレーム画像に対して、対象オブジェクトである人物の顔が、予め定めた画素数になるように格子状に分割する(図4(A)参照)。縦方向に分割しているラインと、横方向に分割しているラインとが交差する格子点(ノード)が、1つの画素に相当する。画素は、格子点を中心とする適当な大きさである。同様に、非剛体変形を行う非基準フレーム画像(図3(B)、および図3(C))についても、基準フレーム画像と同様に、対象オブジェクトである人物の顔が、予め定めた画素数になるように格子状に分割する(図4(B)、および図4(C)参照)。   With respect to the reference frame image shown in FIG. 3A, the face of the person who is the target object is divided into a lattice shape so as to have a predetermined number of pixels (see FIG. 4A). A lattice point (node) at which the line divided in the vertical direction and the line divided in the horizontal direction intersect corresponds to one pixel. The pixel has an appropriate size centered on the lattice point. Similarly, in the non-reference frame images (FIG. 3B and FIG. 3C) that perform non-rigid deformation, the face of the person who is the target object has a predetermined number of pixels as in the reference frame image. (See FIGS. 4B and 4C).

画像処理部4は、対象者の顔に対して、複数の特徴点を設定する。画像処理部4は、非基準フレーム画像毎に、以下の処理を行う。   The image processing unit 4 sets a plurality of feature points for the subject's face. The image processing unit 4 performs the following processing for each non-reference frame image.

その非基準フレーム画像上に設定した各格子点に、水平方向、および垂直方向の係数を持たせる。画像処理部4は、非基準フレーム画像における複数の特徴点(対象者の顔の特徴点)の位置を、基準フレーム画像上の位置に一致させる格子点の位置(係数)を算出する。画像処理部4は、非基準フレーム画像の各格子点を、その格子点について算出した係数に基づいて移動する。このとき、隣接する4つの格子点で囲まれる領域の画像は、これらの格子点の移動に応じて変形する。図5(A)は、基準フレーム画像であり、図5(B)、および図5(C)は、s3にかかる非剛体変形を行った非基準フレーム画像である。図5(B)は、図4(B)に示した非基準フレーム画像を非剛体変形した例であり、図5(C)は、図4(C)に示した非基準フレーム画像を非剛体変形した例である。   Each grid point set on the non-reference frame image is given a coefficient in the horizontal direction and the vertical direction. The image processing unit 4 calculates the positions (coefficients) of lattice points that match the positions of a plurality of feature points (feature points of the subject's face) in the non-reference frame image with the positions on the reference frame image. The image processing unit 4 moves each grid point of the non-reference frame image based on the coefficient calculated for the grid point. At this time, the image of the region surrounded by the four adjacent grid points is deformed according to the movement of these grid points. FIG. 5A is a reference frame image, and FIG. 5B and FIG. 5C are non-reference frame images obtained by performing non-rigid deformation on s3. FIG. 5B is an example in which the non-reference frame image shown in FIG. 4B is non-rigidly deformed, and FIG. 5C is a non-rigid body image of the non-reference frame image shown in FIG. This is a modified example.

図5に示すように、このs3にかかる非剛体変形により、各非基準フレーム画像における対象者の顔の向きが、基準フレーム画像における対象者の顔の向きに合わせられる。   As shown in FIG. 5, the non-rigid deformation of s <b> 3 matches the orientation of the subject's face in each non-reference frame image with the orientation of the subject's face in the reference frame image.

画像処理部4は、非剛体変形を行った非基準フレーム画像を用いて、対象オブジェクトについて高精細画像を生成する(s4)。この高精細画像を生成する処理においては、基準フレーム画像を使用してもよいし、使用しなくてもよい。ここでは、基準フレーム画像を使用するものとして説明する。   The image processing unit 4 generates a high-definition image for the target object using the non-reference frame image subjected to non-rigid deformation (s4). In the process of generating the high-definition image, the reference frame image may or may not be used. Here, description will be made assuming that a reference frame image is used.

s4は、基準フレーム画像における画素毎に、画素値を決定する処理である。ここでは、画素毎に、基準フレーム画像、およびs3で非剛体変形を行った非基準フレーム画像において対応する画素の画素値の平均を、その画素の画素値に決定する処理である。   s4 is a process for determining a pixel value for each pixel in the reference frame image. Here, for each pixel, the average pixel value of the corresponding pixel in the reference frame image and the non-reference frame image subjected to non-rigid body deformation in s3 is determined as the pixel value of that pixel.

なお、基準フレーム画像を使用しない場合は、非剛体変形を行った非基準フレーム画像において対応する画素の画素値の平均を、対応する画素の画素値にすればよい。また、ここでは、画素毎に、その画素値を各フレーム画像における対応する画素の画素値の平均にするとしたが、二乗平均等、他の手法で算出してもよい。   In the case where the reference frame image is not used, the average of the pixel values of the corresponding pixels in the non-reference frame image subjected to non-rigid deformation may be set to the pixel value of the corresponding pixel. In addition, here, for each pixel, the pixel value is an average of the pixel values of the corresponding pixels in each frame image, but may be calculated by other methods such as a mean square.

高精細画像は、各画素について、上記処理で決定した画素値の画像である。   A high-definition image is an image having a pixel value determined by the above process for each pixel.

画像処理部4は、s4で生成した高精細画像に対して、ノイズ、および光学ボケを低減する画質改善処理を行う(s5)。s5では、公知のアンシャープマスキングや、エッジの強調等にかかる処理を画質改善処理として実行する。   The image processing unit 4 performs image quality improvement processing for reducing noise and optical blur on the high-definition image generated in s4 (s5). In s5, known unsharp masking and edge enhancement are executed as image quality improvement processing.

画像処理装置1は、s5で画質改善処理を行った高精細画像を出力部5から出力する。   The image processing apparatus 1 outputs from the output unit 5 a high-definition image that has undergone image quality improvement processing in s5.

このように、この画像処理装置1は、上述の高精細画像生成処理において、複数のフレーム画像間での人物の顔の向きの違いを考慮して、この人物の顔画像について高精細画像を生成することができる。   As described above, the image processing apparatus 1 generates a high-definition image for the face image of the person in consideration of the difference in the orientation of the face of the person among the plurality of frame images in the above-described high-definition image generation process. can do.

なお、上記の例では、対象オブジェクトを人物の顔としたが、対象オブジェクトは人物の顔に限らず、車両のナンバープレート等、他の種類のオブジェクトであってもよい。   In the above example, the target object is a person's face, but the target object is not limited to a person's face, and may be another type of object such as a vehicle license plate.

また、生成する高精細画像の画素数については、基準フレーム画像や、非基準フレーム画像を分割する格子の大きさを調整することで、任意に設定できる。   Further, the number of pixels of the high-definition image to be generated can be arbitrarily set by adjusting the size of the grid that divides the reference frame image or the non-reference frame image.

1…画像処理装置
2…制御部
3…画像入力部
4…画像処理部
5…出力部
10…ビデオカメラ
DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus 2 ... Control part 3 ... Image input part 4 ... Image processing part 5 ... Output part 10 ... Video camera

Claims (4)

撮像装置で撮像したフレーム画像を入力する画像入力部と、
前記画像入力部に入力されたフレーム画像の中から、処理対象である対象オブジェクトが撮像されているフレーム画像を複数フレーム抽出する抽出部と、
前記抽出部が抽出した複数のフレーム画像の中から、基準フレーム画像を選択する基準フレーム画像選択部と、
前記抽出部が抽出した複数フレームのフレーム画像毎に、対象オブジェクトの撮像領域を予め定めた画素数に応じて格子状に分割する分割部と、
処理対象である対象オブジェクトに対して複数の特徴点を設定する特徴点設定部と、
前記抽出部が抽出し、前記基準フレーム画像選択部が基準フレーム画像として選択しなかった非基準フレーム画像毎に、前記特徴点設定部が設定した各特徴点の位置が、前記基準フレーム画像に撮像されている対象オブジェクトの対応する特徴点の位置に合うように前記分割部が格子状に分割した各格子点を移動させるFree Form Deformations(FFD)により、その非基準フレーム画像に撮像されている対象オブジェクトの向きを、前記基準フレーム画像に撮像されている対象オブジェクトの向きに合わせる非剛体変形を行う非剛体変形部と、
前記基準フレーム画像選択部が選択した基準フレーム画像に対して、前記分割部が格子状に分割した各格子点の画素値を、前記非剛体変形部が非剛体変形を行った非基準フレーム画像の対応する格子点の画素値を用いて決定した対象オブジェクトの高精細画像を生成する高精細画像生成部と、を備えた画像処理装置。
An image input unit for inputting a frame image captured by the imaging device;
An extraction unit that extracts a plurality of frame images of a target object that is a processing target from the frame image input to the image input unit;
A reference frame image selection unit that selects a reference frame image from a plurality of frame images extracted by the extraction unit;
A dividing unit that divides the imaging region of the target object into a grid according to a predetermined number of pixels for each frame image of the plurality of frames extracted by the extraction unit;
A feature point setting unit for setting a plurality of feature points for a target object to be processed;
For each non-reference frame image extracted by the extraction unit and not selected as the reference frame image by the reference frame image selection unit , the position of each feature point set by the feature point setting unit is captured in the reference frame image. The target imaged in the non-reference frame image by Free Form Deformations (FFD) that moves each grid point divided by the division unit in a grid shape so as to match the position of the corresponding feature point of the target object being processed A non-rigid deformation part that performs non-rigid deformation to match the direction of the object with the direction of the target object imaged in the reference frame image;
With respect to the reference frame image selected by the reference frame image selection unit, the pixel value of each lattice point divided by the dividing unit in a lattice shape is used for the non-reference frame image obtained by performing non-rigid deformation by the non-rigid deformation unit . An image processing apparatus comprising: a high-definition image generation unit that generates a high-definition image of a target object determined using pixel values of corresponding grid points .
対象オブジェクトは、対象者の顔画像であり、
前記特徴点設定部は、対象者の顔部品の特徴量を用いて、複数の特徴点を対象オブジェクトに設定する、請求項に記載の画像処理装置。
The target object is the face image of the target person,
The image processing apparatus according to claim 1 , wherein the feature point setting unit sets a plurality of feature points to a target object using a feature amount of a face part of the target person.
前記高精細画像生成部が生成した対象オブジェクトの高精細画像に対して、ノイズ、および光学ボケを低減する画質改善処理部を備えた、請求項1、または2に記載の画像処理装置。 The image processing apparatus according to claim 1 , further comprising an image quality improvement processing unit that reduces noise and optical blur for a high-definition image of the target object generated by the high-definition image generation unit. 画像入力部に入力されたフレーム画像の中から、処理対象である対象オブジェクトが撮像されているフレーム画像を複数フレーム抽出する抽出処理と、
前記抽出処理で抽出した複数のフレーム画像の中から、基準フレーム画像を選択する基準フレーム画像選択処理と、
前記抽出処理で抽出した複数フレームのフレーム画像毎に、対象オブジェクトの撮像領域を予め定めた画素数に応じて格子状に分割する分割処理と、
処理対象である対象オブジェクトに対して複数の特徴点を設定する特徴点設定処理と、
前記抽出処理で抽出し、前記基準フレーム画像選択処理で基準フレーム画像として選択しなかった非基準フレーム画像毎に、前記特徴点設定処理で設定した各特徴点の位置が、前記基準フレーム画像に撮像されている対象オブジェクトの対応する特徴点の位置に合うように前記分割処理で格子状に分割した各格子点を移動させるFree Form Deformations(FFD)により、その非基準フレーム画像に撮像されている対象オブジェクトの向きを、前記基準フレーム画像に撮像されている対象オブジェクトの向きに合わせる非剛体変形を行う非剛体変形処理と、
前記基準フレーム画像選択処理で選択した基準フレーム画像に対して、前記分割処理で格子状に分割した各格子点の画素値を、前記非剛体変形処理で非剛体変形を行った非基準フレーム画像の対応する格子点の画素値を用いて決定した対象オブジェクトの高精細画像を生成する高精細画像生成処理と、をコンピュータに実行させる画像処理プログラム。
An extraction process for extracting a plurality of frame images in which a target object to be processed is imaged from the frame image input to the image input unit;
A reference frame image selection process for selecting a reference frame image from a plurality of frame images extracted by the extraction process;
A division process for dividing the imaging region of the target object into a grid according to a predetermined number of pixels for each frame image of a plurality of frames extracted by the extraction process;
A feature point setting process for setting a plurality of feature points for a target object to be processed;
For each non-reference frame image extracted in the extraction process and not selected as a reference frame image in the reference frame image selection process, the position of each feature point set in the feature point setting process is captured in the reference frame image. The target imaged in the non-reference frame image by Free Form Deformations (FFD) that moves each grid point divided in the grid pattern by the division processing so as to match the position of the corresponding feature point of the target object being processed A non-rigid deformation process for performing non-rigid deformation to match the direction of the object with the direction of the target object imaged in the reference frame image;
With respect to the reference frame image selected by the reference frame image selection process, the pixel values of the respective lattice points divided in a lattice shape by the division process are converted into the non-reference frame image obtained by performing non-rigid deformation by the non-rigid deformation process . An image processing program for causing a computer to execute high-definition image generation processing for generating a high-definition image of a target object determined using pixel values of corresponding grid points .
JP2011181307A 2011-08-23 2011-08-23 Image processing apparatus and image processing program Expired - Fee Related JP5778522B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011181307A JP5778522B2 (en) 2011-08-23 2011-08-23 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011181307A JP5778522B2 (en) 2011-08-23 2011-08-23 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2013045207A JP2013045207A (en) 2013-03-04
JP5778522B2 true JP5778522B2 (en) 2015-09-16

Family

ID=48009087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011181307A Expired - Fee Related JP5778522B2 (en) 2011-08-23 2011-08-23 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP5778522B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101908851B1 (en) * 2017-04-14 2018-10-17 한국 한의학 연구원 Apparatus and method for correcting facial posture
CN121095105A (en) * 2025-11-13 2025-12-09 清软微视(杭州)科技有限公司 Image preprocessing method and system for laser polishing imaging

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5696848A (en) * 1995-03-09 1997-12-09 Eastman Kodak Company System for creating a high resolution image from a sequence of lower resolution motion images
JP3861421B2 (en) * 1997-11-28 2006-12-20 日本ビクター株式会社 Personal identification device
US6285804B1 (en) * 1998-12-21 2001-09-04 Sharp Laboratories Of America, Inc. Resolution improvement from multiple images of a scene containing motion at fractional pixel values
JP4772894B2 (en) * 2009-08-03 2011-09-14 シャープ株式会社 Image output device, portable terminal device, captured image processing system, image output method, program, and recording medium
JP5584441B2 (en) * 2009-08-20 2014-09-03 アズビル株式会社 Association method between volume data

Also Published As

Publication number Publication date
JP2013045207A (en) 2013-03-04

Similar Documents

Publication Publication Date Title
JP5774889B2 (en) Information processing apparatus, information processing system, and information processing method
JP5810296B2 (en) Image display device and image display method
JP7106282B2 (en) Image processing device, image processing method and program
CN105453536B (en) Image processing device and image processing method
KR101308946B1 (en) Method for reconstructing three dimensional facial shape
WO2012132168A1 (en) Information processing device, information processing method, and data structure of location information
CN114494085B (en) A video stream restoration method, system, electronic device and storage medium
JP6513941B2 (en) Image processing method, image processing apparatus and program
JP6406044B2 (en) Camera calibration unit, camera calibration method, and camera calibration program
JP5778522B2 (en) Image processing apparatus and image processing program
JP6223161B2 (en) Image processing apparatus, imaging apparatus including the same, and image processing method
JP2009244944A (en) Image-recovering apparatus and photographing apparatus
JP2019009615A (en) Surveillance camera device, surveillance video distribution method, and surveillance system
JP2012212235A (en) Object detection system, object detection method, and program
JP2005149145A (en) Object detecting device and method, and computer program
JP2017073642A (en) Information processing device, information processing method, and program
WO2023182290A1 (en) Parallax information generation device, parallax information generation method, and parallax information generation program
JP4680087B2 (en) Image transmission device
JP5834671B2 (en) Image processing apparatus, image processing method, and program
JP4434689B2 (en) Object counting method and object counting apparatus
CN110059681B (en) Information processing apparatus, information processing method, and storage medium
JP5446641B2 (en) Image processing apparatus, image processing method, and image processing program
KR101162701B1 (en) Image converting method for vehicle license plate recognition
JP2016111484A (en) Image processing apparatus, image processing method and program
JP6392742B2 (en) Optimal depth determination device, optimal depth determination method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150709

R150 Certificate of patent or registration of utility model

Ref document number: 5778522

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees