JP5166230B2 - 画像処理装置および方法並びにプログラム - Google Patents

画像処理装置および方法並びにプログラム Download PDF

Info

Publication number
JP5166230B2
JP5166230B2 JP2008332709A JP2008332709A JP5166230B2 JP 5166230 B2 JP5166230 B2 JP 5166230B2 JP 2008332709 A JP2008332709 A JP 2008332709A JP 2008332709 A JP2008332709 A JP 2008332709A JP 5166230 B2 JP5166230 B2 JP 5166230B2
Authority
JP
Japan
Prior art keywords
image
reference image
specific subject
images
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008332709A
Other languages
English (en)
Other versions
JP2010152819A (ja
Inventor
貽▲トウ▼ 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008332709A priority Critical patent/JP5166230B2/ja
Priority to US12/647,253 priority patent/US8620085B2/en
Priority to CN200910249568A priority patent/CN101770643A/zh
Publication of JP2010152819A publication Critical patent/JP2010152819A/ja
Application granted granted Critical
Publication of JP5166230B2 publication Critical patent/JP5166230B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、被写体を撮影して得た複数の画像を位置合わせして合成する処理に適した画像処理装置および方法並びにプログラムに関するものである。
従来、デジタルカメラ等の撮像装置において、撮影者の手ブレや被写体の動き等に起因して生じる画像のブレを低減するために、像ブレが生じない程度の短い露光時間で複数回の撮影を連続して行い、あるいは複眼カメラにより異なる視点から視差のある複数の画像を同時に撮影し、その撮影により取得された複数の画像をそれぞれ位置合わせして合成する技術が知られている。
特許文献1には、複数の画像のうち基準となる第1の画像における複数の特徴点を抽出し、第2の画像における、第1の画像で抽出された各特徴点に対応する対応点を取得し、その対応点が第1の画像上での対応する特徴点に一致するように、第2の画像の各画素の位置を座標変換し、第1の画像および座標変換された第2の画像を合成することが提案されている。
この座標変換は、第2の画像を隣接する3つの対応点を頂点とする複数の三角パッチに分割し、その各対応点が第1の画像上での対応する特徴点に重なるように、その各三角パッチをアフィン変換することにより行われる(特許文献2参照)。
特開2004−35702号公報 特開2000−155831号公報
上記座標変換手法では、三角パッチの頂点をなす3つの対応点とその各対応点が対応する特徴点との位置関係に基づいて、その三角パッチ内部の全画素がアフィン変換される。このため、各三角パッチの内部における画像の局所的な変形が正しく反映されず、座標変換後の画像が不自然に変形されてしまう場合が生じる。例えば静止した背景の中で動いている車を連続撮影して得られた2の画像を位置合わせして合成しようとした場合、大きく変形が生じる車領域と静止した背景領域との境界部分において画像間の対応誤差が大きくなり、車の輪郭が不自然に変形されてしまう可能性が高い。
一般的には抽出する特徴点の数を増やすことにより、つまり画像を分割する三角パッチの大きさを充分に小さくすることにより、画像間の対応誤差を低減させることは可能であるが、計算処理の量も著しく増加してしまうという不都合がある。
本発明は、上記事情に鑑み、計算負荷を軽減しつつ、特定の被写体の輪郭が不自然に変形されてしまうことを防止できる画像処理装置および方法並びにプログラムを提供することを目的とするものである。
本発明の第1の画像処理装置は、複数の画像において基準となる基準画像を設定する基準画像設定手段と、基準画像設定手段により設定された基準画像から特定の被写体を検出する検出手段と、検出手段により検出された特定の被写体の輪郭近傍領域が他の領域よりも特徴点の平均密度が高くなるように、基準画像における複数の特徴点を抽出する特徴点抽出手段と、複数の画像のうち基準画像以外の他の画像における、特徴点抽出手段により抽出された各特徴点に対応する対応点を取得する対応点取得手段と、各特徴点の位置と、その各特徴点に対応する対応点の位置が一致するように、基準画像および/または他の画像の各画素の位置を座標変換する座標変換手段を備えたことを特徴とするものである。
上記装置において、複数の画像は3以上の画像であり、座標変換手段は、対応点取得手段により取得された対応点の位置が対応する特徴点の位置に一致するように、他の画像の各画素の位置を座標変換するものであってもよい。
本発明の第2の画像処理装置は、3以上の画像から、その各画像がそれぞれ少なくとも1組の画像群に含まれるように、2組以上の画像群を設定する画像群設定手段と、3以上の画像において最終基準となる最終基準画像を設定するとともに、画像群設定手段により設定された各画像群において基準となる基準画像を設定する基準画像設定手段と、各画像群において、基準画像設定手段により設定された基準画像から特定の被写体を検出する検出手段と、検出手段により検出された特定の被写体の輪郭近傍領域が他の領域よりも特徴点の平均密度が高くなるように、基準画像における複数の特徴点を抽出する特徴点抽出手段と、各画像群において、基準画像以外の他の画像における、特徴点抽出手段により抽出された各特徴点に対応する対応点を取得する対応点取得手段と、基準画像を最終基準画像に位置合わせするための座標変換関数を取得する変換関数取得手段と、対応点取得手段により取得された対応点の位置が対応する特徴点の位置に一致するように、他の画像の各画素の位置を座標変換するとともに、座標変換してなる座標変換済み画像の各画素の位置を、変換関数取得手段により取得された座標変換関数を用いて座標変換する座標変換手段とを備えたことを特徴とするものである。
上記第2の画像処理装置において、複数の画像が順次取得されてなるものであり、画像群の設定が、連続して取得された2以上の画像が1組の画像群となるように、2組以上の画像群を設定するものであることが望ましい。
上記各装置において、特定の被写体は顔または動体であってもよい。この特定の被写体には、顔や動体に限らず、たとえば格子模様などその輪郭の変形におけるわずかなズレが、位置合わせの失敗として判断されてしまうようなものが広く含まれる。
また、特定の被写体は顔であり、検出手段は、検出枠内の画像が前記特定の被写体を表す画像であるか否かを識別する機能を有し、基準画像上に前記検出枠を走査させることにより前記検出を行うものであり、輪郭近傍領域は、検出枠から内側および/または外側に所定の幅を有する領域であってもよい。
また、輪郭近傍領域は、特定の被写体の輪郭から内側および/または外側に所定の幅を有する領域であってもよい。
本発明の第1の画像処理方法は、複数の画像において基準となる基準画像を設定し、設定された基準画像から特定の被写体を検出し、検出された特定の被写体の輪郭近傍領域が他の領域よりも特徴点の平均密度が高くなるように、基準画像における複数の特徴点を抽出し、複数の画像のうち基準画像以外の他の画像における、抽出された各特徴点に対応する対応点を取得し、各特徴点の位置と、その各特徴点に対応する対応点の位置が一致するように、基準画像および/または他の画像の各画素の位置を座標変換することを特徴とするものである。
本発明の第2の画像処理方法は、3以上の画像において最終基準となる最終基準画像を設定し、3以上の画像から、その各画像がそれぞれ少なくとも1組の画像群に含まれるように、2組以上の画像群を設定し、設定された画像群毎に、その画像群において基準となる基準画像を設定し、設定された基準画像から特定の被写体を検出し、検出された特定の被写体の輪郭近傍領域が他の領域よりも特徴点の平均密度が高くなるように、基準画像における複数の特徴点を抽出し、その画像群における基準画像以外の他の画像における、抽出された各特徴点に対応する対応点を取得し、取得された対応点の位置が対応する特徴点の位置に一致するように、他の画像の各画素の位置を座標変換し、基準画像を最終基準画像に位置合わせするための座標変換関数を取得し、座標変換してなる座標変換済み画像の各画素の位置を、取得された座標変換関数を用いて座標変換することを特徴とするものである。
なお、上記方法の各処理は、必ずしもこの順番で行われる必要はない。例えば最終基準画像を設定する処理は、すくなくとも基準画像を最終基準画像に位置合わせするための座標変換関数を取得する前に行われるようにすればよく、画像群の設定の前に限らず、例えば画像群の設定の後、基準画像の設定の後など、任意のタイミングで行われるようにしてもよい。座標変換関数を取得する処理も、すくなくとも基準画像と最終基準画像が設定されてからその座標変換関数を用いて座標変換を行う前までの間に行われるようにすれば足りる。
本発明の第1および第2の画像処理プログラムは、それぞれ上記第1および第2の画像処理方法をコンピュータに実行させるものである。
なお、上記第2の画像処理装置および方法並びにプログラムにおいて、「基準画像を最終基準画像に位置合わせする」とは、基準画像と最終基準画像上の互いに対応する点同士が一致するように、基準画像の各画素の位置を座標変換することをいう。
本発明の第1の画像処理装置および方法並びにプログラムによれば、複数の画像において基準となる基準画像を設定し、設定された基準画像から特定の被写体を検出し、検出された特定の被写体の輪郭近傍領域が他の領域よりも特徴点の平均密度が高くなるように、基準画像における複数の特徴点を抽出し、複数の画像のうち基準画像以外の他の画像における、抽出された各特徴点に対応する対応点を取得し、各特徴点の位置と、その各特徴点に対応する対応点の位置が一致するように、基準画像および/または他の画像の各画素の位置を座標変換することにより、不自然に変形されやすい特定の被写体の輪郭について他の領域よりも位置合わせの精度を向上させることができ、計算負荷を軽減しつつ、特定の被写体の輪郭が不自然に変形されてしまうことを防止できる。
また、本発明の第2の画像処理装置および方法並びにプログラムによれば、複数の画像において最終基準となる最終基準画像を設定し、複数の画像がそれぞれ少なくとも1組の画像群に含まれるように、前記複数の画像から1組以上の画像群を設定し、設定された画像群毎に、その画像群において基準となる基準画像を設定し、設定された基準画像から特定の被写体を検出し、検出された特定の被写体の輪郭近傍領域が他の領域よりも特徴点の平均密度が高くなるように、基準画像における複数の特徴点を抽出し、その画像群における基準画像以外の他の画像における、抽出された各特徴点に対応する対応点を取得し、取得された対応点の位置が対応する特徴点の位置に一致するように、他の画像の各画素の位置を座標変換し、基準画像を最終基準画像に位置合わせするための座標変換関数を取得し、座標変換してなる座標変換済み画像の各画素の位置を、取得された座標変換関数を用いて座標変換することにより、不自然に変形されやすい特定の被写体の輪郭について他の領域よりも位置合わせの精度を向上させることができ、計算負荷を軽減しつつ、特定の被写体の輪郭が不自然に変形されてしまうことを防止できる。
上記装置において、複数の画像が順次取得されてなるものであり、画像群の設定が、連続して取得された2以上の画像が1組の画像群となるように、2組以上の画像群を設定するものであれば、連続して取得されてなる画像の方が断続して取得された画像よりも画像間の類似度が高い傾向があるため、位置合わせを容易に高精度で行うことができるとともに、全画像の取得が完了することを待つことなく、順次処理を進めることができ、処理の高速化を図ることもできる。
また、特定の被写体が顔である場合、人の顔は輪郭の変形にわずかなズレがあっても、気づかれやすく、位置合わせの失敗として判断される傾向があることから、その輪郭について他の領域よりも位置合わせの精度を向上させることにより、位置合わせの失敗を減らすことができる。
また、特定の被写体が動体である場合にも、上述した通り、その輪郭が不自然に変形されてしまう可能性が高いことから、その輪郭について他の領域よりも位置合わせの精度を向上させることにより、位置合わせの失敗を減らすことができる。
以下、図面を参照して本発明の画像処理装置の実施の形態について説明する。なお、本発明の一実施形態である画像処理装置1は、補助記憶装置に読み込まれた画像処理プログラムをコンピュータ、あるいは撮影装置(たとえば連写撮影が可能なデジタルカメラ、複眼カメラ等)上で実行することにより実現される。このとき、この画像処理プログラムは、CD−ROM等の情報記憶媒体に記憶され、もしくはインターネット等のネットワークを介して配布され、コンピュータ、あるいは撮影装置にインストールされる。
図1に示すように、画像処理装置1は、基準画像設定部30、特定被写体検出部40、特徴点抽出部50、対応点取得部60、および座標変換部70を備えている。
基準画像設定部30は、複数の画像P1〜Pnが入力されると、それらの複数の画像P1〜Pnのうちいずれか1つの画像を基準画像Psとして設定する。なお、基準画像Psは、後述する座標変換処理において他の画像を変形する際に基準となる画像であるため、つまり、他の画像がこの基準画像Psに重なるように変形されるため、各他の画像とのズレが全体的に少ない画像を基準画像Psとして設定することが好ましい。たとえば図2に示すように、連写により順次取得された複数の画像P1〜P5が入力された場合には、真ん中の画像P3を基準画像Psとして設定すればよい。また、複数の画像P1〜Pnが複眼カメラにより異なる視点から視差のある複数の画像を同時に撮影することにより取得されたものである場合には、略真ん中の視点から撮影された画像を基準画像Psとして設定すればよい。
特定被写体検出部40は、基準画像設定部30により設定された基準画像Psから特定の被写体が撮影されている領域を検出する。ここで、特定の被写体は、特定被写体検出部40に組み込まれている特定被写体検出用のプログラムで検出の対象としているものをいい、たとえば動体、人の顔、格子模様等である。ここで、動体はその画像の撮影時に動いている被写体をいう。以下、その検出手法の具体例について説明する。
特定の被写体が人の顔である場合、人の顔であることが分かっている複数のサンプル画像と人の顔でないことが分かっている複数のサンプル画像とからなるサンプル画像群を、アダブーストのアルゴリズム等を用いて機械学習することにより、検出枠内の画像が人の顔を表す画像であるか否かを識別する識別器を生成し、対象画像上にその識別器の検出枠を少しずつ移動させ、移動した位置毎に検出枠内の画像が人の顔であるか否かを判別することにより、人の顔が撮影されている領域を検出する。
特定の被写体が動体である場合、たとえば図3に示すように、入力された複数の画像P21とP22の間で、各対応する画素の座標変化を動きベクトルとして求め、その動きベクトルの大きさが所定のしきい値を超える画素からなる領域を動体領域として検出する。図3の例では、画素Q3、Q4などの動きが大きい画素からなる車の領域が動体領域として検出される。なお、特定の被写体が動体である場合、たとえば図4に示すように、入力された複数の画像P31とP32のそれぞれについて特定の物体(例えば、車)を検出し、各画像P31とP32における特定の物体(車)の位置が異なる場合に、その領域を動体領域として検出することもできる。
特定の被写体が格子模様である場合、対象画像に対してハフ変換を行い、規則的、垂直的な線分が集中している領域を格子模様が撮影されている領域として検出する。
特徴点抽出部50は、特定被写体検出部40により検出された特定の被写体の輪郭近傍領域Ra(第1領域)が他の領域Rb(第2領域)よりも特徴点の平均密度が高くなるように、基準画像Psにおける複数の特徴点を抽出する。
ここで、輪郭近傍領域Ra(第1領域)は、例えば特定の被写体が人の顔であり、特定被写体検出部40が、検出枠Df内の画像が人の顔を表す画像であるか否かを識別する機能を有し、基準画像Ps上に検出枠Dfを走査させることにより人の顔を検出するものである場合、図5に示すような、顔の検出枠Dfから内側に一定の幅d1を有するとともに、外側に一定の幅d2を有する領域(斜線で表示)であってもよいし、図6に示すような、その検出枠Dfの中心点Cを中心とした半径rの円形の枠Cfから内側に一定の幅d1を有するとともに、外側に一定の幅d2を有する領域(斜線で表示)であってもよい。また、特定被写体検出部40が、人体固有の肌色情報に基づいて、基準画像Ps中の各画素が肌色領域を示す画素であるか否かを判断することにより顔領域を検出するものである場合には、その検出された顔領域の輪郭から内側および/または外側に所定の幅を有する領域であってもよい。
また、特定の被写体が動体であり、特定被写体検出部40が、動体領域を検出するものである場合、図7に示すような、その検出された動体の輪郭MOから内側に一定の幅d1を有するとともに、外側に一定の幅d2を有する領域(斜線で表示)であってもよい。
一方、他の領域Rb(第2領域)は、その画像中の輪郭近傍領域Ra(第1領域)以外の領域をいう。
特徴点抽出部50は、まず、各領域Ra、Rbについて、特徴点の平均密度を決定する。
領域Rbにおける特徴点の平均密度d2は、例えばd2=1%など、事前に設定されているものとし、その平均密度d2に基づいて領域Raにおける特徴点の平均密度d1を算出する。具体的には、平均密度d2に事前に設定しておいた定数K(K>1)を乗算してなる値を平均密度d1として算出したり、平均密度d2に領域Raの面積sに関する関数F(s)を乗算してなる値を平均密度d1として算出したりする。なお、平均密度d1、d2には、その値があまり小さくならないよう、それぞれ下限を設けておくとよい。
輪郭近傍領域Raにおける特徴点の平均密度d1は、他の領域Rbにおける特徴点の平均密度d2の1.5倍以上、より好ましくは2倍以上であることが望ましい。一般的には輪郭近傍領域Raにおける特徴点の平均密度d1を他の領域Rbにおける特徴点の平均密度d2の1.5倍以上にすればある程度特定の被写体の輪郭が不自然に変形されてしまうことを防止できる効果が得られ、2倍以上にまでするとより大きな効果が認められる。但し、実際に何倍以上で効果が出るかというのは、その画像によって、多少の差異がある。
次いで、領域Ra、Rbの面積と上記取得された平均密度d1、d2とに基づき、領域Raから抽出する特徴点の数と、領域Rbから抽出する特徴点の数とをそれぞれ設定する。具体的には、平均密度d1に領域Raの面積を乗算した値を領域Raから抽出する特徴点の数として設定し、平均密度d2に領域Rbの面積を乗算した値を領域Rbから抽出する特徴点の数として設定する。
次いで、その各設定された数の特徴点を領域Ra、Rbから抽出する。特徴点は被写体の角部や画像パターン等として特徴を有する点であり、画素信号の勾配情報等に基づいて抽出される。たとえば、基準画像Psの各画素Ps(i,j)について、4つの近傍画素Ps(i,j)、Ps(i+1,j)、Ps(i,j+1)、Ps(i+1,j+1)の画素値から2つの固有値λ1、λ2を求め、このうち最小値min(λ1,λ2)をその画素Ps(i,j)の特徴値として算出し、各領域Ra、Rbについて、その領域内の画素を特徴値の大きさによりソーティングし、上位から設定された数の画素を特徴点として抽出するようにすれば、所定数の特徴点を確実に取得することができる。なお、Moravecの手法や、Harrisの手法等を使用して所定数の特徴点を抽出することもできるが、本発明においては、特徴点を抽出できれば抽出方法は限定しない。
対応点取得部60は、複数の画像P1〜Pnのうち基準画像Ps以外の他の画像P1〜Ps-1、Ps+1〜Pnのそれぞれから、特徴点抽出部50によって抽出された特徴点に対応する対応点を検出する。対応点は、特徴点の特徴と略一致する点であり、対応点の検出方法としては、例えばKLT法、ブロックマッチング等を使用することができるが、本発明においては、対応点を検出できれば検出方法は限定しない。
座標変換部70は、他の画像P1〜Ps-1、Ps+1〜Pnをそれぞれ基準画像Psに重なるように変形するものであり、各他の画像において対応点取得部60により取得された対応点の位置が対応する特徴点の位置に一致するように、その画像の各画素の位置を座標変換する。この座標変換には、例えば画像を局所的に歪めて、すなわちワープして変形するワーピングを使用することができる。一般的にワーピングは、画像を複数の三角パッチに分割し、その三角パッチ毎に変形を行う。
具体的には、図8の左図に示す如く、座標変形の対象となる画像P1において、その画像P1上の各対応点及び4隅の点から、画像P1を隣接する3つの点を頂点とする複数の三角パッチに分割する。そして画像P1の各点が対応する特徴点に重なるように画像P1の各三角パッチをアフィン変換して画像P1’を生成する。このとき使用するアフィン変換の式を下記式(1)に示す。
x’=ax+by+s
y’=cx+dy+t ・・・(1)
上記式(1)において(x,y)は画像P1における所定の三角パッチの中の所定の点の座標値で、(x',y')は(x,y)に対応する点の座標値を表す。またa,b,c,d,s,tは未知のパラメータであり、三角パッチの3つの頂点の座標値から一意に定めることができる。つまり、三角パッチの3つの頂点をなす点とその点に対応する特徴点との組からアフィン変換のパラメータを算出し、算出したパラメータに基づいて三角形内部の点つまり各画素をアフィン変換する。そして全ての三角形をアフィン変換してワーピングを終了する。
次いで、図9のフローチャートを参照して、第1の実施形態において行われる処理の一例について説明する。
まず、複数の画像P1〜Pnが入力されると(ステップST1)、基準画像設定部30が、それらの複数の画像P1〜Pnのうちいずれか1つの画像を基準画像Psとして設定し、その基準画像Ps以外の画像は対応画像とする(ステップST2)。次いで、特定被写体検出部40が、基準画像Psから特定の被写体を検出する(ステップST3)。次いで、特徴点抽出部50が、ステップST3において検出された特定の被写体の輪郭近傍領域を第1領域とし、その第1領域以外の領域を第2領域とし(ステップST4)、第1領域が第2領域よりも特徴点の平均密度が高くなるように、各第1、第2領域において抽出すべき特徴点の数をそれぞれ設定し(ステップST5)、その設定された数の特徴点を第1、第2領域からそれぞれ抽出する(ステップST6)。次に、対応点取得部60が、各対応画像から、特徴点抽出部50によって抽出された特徴点に対応する対応点を取得し(ステップST7)、座標変換部70が、各対応画像において取得された対応点の位置が対応する特徴点の位置に一致するように、その画像の各画素の位置を座標変換する。この座標変換された対応画像と基準画像は、画像間の対応する画素値を加算したり、画素値の平均値を算出したりすることにより合成される。
次いで、図10から図12を参照して本発明の第2の実施形態について説明する。なお、図9に示す画像処理装置2において図1の画像処理装置1と同一の構成を有する部位には同一の符号を付してその説明を省略する。
図9に示すように、画像処理装置2は、画像群設定部10、基準画像設定部30A、特定被写体検出部40、特徴点抽出部50、対応点取得部60、座標変換部70A、および座標変換関数取得部80を備えている。
画像群設定部10は、複数の画像P1〜Pnが入力されると、それらの複数の画像P1〜Pnから、その各画像がそれぞれ少なくとも1組の画像群に含まれるように、2組以上の画像群を設定する。複数の画像P1〜Pnが連写等により順次取得されてなるものである場合には、連続して取得された2以上の画像が1組の画像群となるように画像群を設定することが好ましい。例えば図11に示すように、順次取得された複数の画像P1〜P5が入力された場合には、画像P1とP2、画像P2とP3、画像P3とP4、および画像P4とP5をそれぞれ1組の画像群とすればよい。
基準画像設定部30Aは、数の画像P1〜Pnが入力されると、それらの複数の画像P1〜Pnのうちいずれか1つの画像を最終基準画像Pfとして設定するとともに、画像群設定部10によって設定された画像群毎に、その画像群を構成する複数の画像のうちいずれか1つの画像を基準画像Psとして設定する。
最終基準画像Pfは、座標変換部70Aによる座標変換処理において他の画像を変形する際に最終的な基準となる画像であるため、つまり、他の画像がこの基準画像Psに重なるように変形されるため、各他の画像とのズレが全体的に少ない画像であることを好ましい。また、基準画像Psは、その画像群内の他の画像を変形する際に1次的な基準となる画像であり、この基準画像Psを基準として変形された他の画像はさらに最終基準画像を最終的な基準として変形されるため、その画像群を構成する複数の画像のうち、最終基準画像に最も近い画像であることが好ましい。例えば連写により順次取得された複数の画像P1〜P5が入力された場合には、真ん中の画像P3を最終基準画像Pfとして設定すればよい。また、図11に示すように、それらの画像P1〜P5から4組の画像群が設定されている場合には、組1の画像群では画像P2を、組2の画像群では画像P3を、組3の画像群では画像P3を、組4の画像群では画像P4を、基準画像Psとして設定すればよい。
特定被写体検出部40は、画像群設定部10によって設定された画像群毎に、その画像群において設定された基準画像Psから特定の被写体が撮影されている領域を検出する。
特徴点抽出部50は、画像群設定部10によって設定された画像群毎に、特定被写体検出部40により検出された特定の被写体の輪郭近傍領域Ra(第1領域)が他の領域Rb(第2領域)よりも特徴点の平均密度が高くなるように、基準画像Psにおける複数の特徴点を抽出する。
対応点取得部60は、画像群設定部10によって設定された画像群毎に、その画像群を構成する複数の画像のうち基準画像Ps以外の他の画像のそれぞれから、基準画像Ps上の各特徴点に対応する対応点を検出する。
座標変換部70Aは、画像群設定部10によって設定された画像群毎に、他の画像をそれぞれ基準画像Psに重なるように変形するものであり、各他の画像上の対応点の位置が基準画像Ps上の対応する特徴点の位置に一致するように、その画像の各画素の位置を座標変換する。
また、その座標変換してなる座標変換済み画像の各画素の位置を、後述する座標変換関数取得部80により取得される、その基準画像Psを最終基準画像Pfに位置合わせするための座標変換関数を用いて座標変換する。なお、基準画像Psと最終基準画像Pfが同一画像である場合には、この座標変換処理は省略される。
なお、ここでは、座標変換の対象となる画像を、まず基準画像Psを基準として座標変換し、基準画像Psと最終基準画像Pfとの座標変換関数を用いてさらに座標変換しているが、その各変換関係に基づいてその対象となる画像と最終基準画像Pfとの座標変換関数を求め、その座標変換関数による1回の座標変換処理で最終的な座標変換済み画像を取得するようにしてもよい。
座標変換関数取得部80は、画像群設定部10によって設定された画像群毎に、その画像群において設定された基準画像Psを最終基準画像Pfに位置合わせするための座標変換関数を取得する。なお、この座標変換関数は、最終基準画像Pfから特徴点を取得し、それに対応する対応点を基準画像Psから取得して、その対応点が特徴点に一致するように、基準画像Psの各画素の位置を座標変換させる変換関数を求めることにより取得してもよいが、座標変換部70Aで、各画像群に対して他の画像を基準画像Psに座標変換するときに、この基準画像Psと最終基準画像Pfの組み合わせと一致する他の画像と基準画像Psの組み合わせが存在する場合には、その座標変換の際に使用された変換関数をこの基準画像Psを最終基準画像Pfに位置合わせするための座標変換関数として取得してもよい。
たとえば、図11に示すように、画像P1〜P5から4組の画像群が設定されている場合、座標変換部70Aは、組1の画像群において画像P1を基準画像P2に重なるように変形する座標変換処理を行うとともに、組2の画像群においては画像P2を基準画像P3に重なるように変形する座標変換処理を行っている。そこで、組1の画像群において座標変換してなる座標変換済み画像を、基準画像P2を最終基準画像P3に位置合わせするための座標変換関数を用いてさらに座標変換する際には、組2の画像群における座標変換の際に使用された変換関数をそのまま取得し、使用することができる。
次いで、図12のフローチャートを参照して、第2の実施形態において行われる処理の一例について説明する。
まず、複数の画像P1〜Pnが入力されると(ステップST21)、基準画像設定部30Aが、それらの複数の画像P1〜Pnのうちいずれか1つの画像を最終基準画像Pfとして設定し(ステップST22)、画像群設定部10が、その各画像がそれぞれ少なくとも1組の画像群に含まれるように、2組以上の画像群を設定する(ステップST23)。次いで、ステップST23において設定された画像群毎に、基準画像設定部30Aがその画像群を構成する複数の画像のうちいずれか1つの画像を基準画像Psとして設定するとともに、その基準画像Ps以外の画像は対応画像とし(ステップST24)、特定被写体検出部40がその設定された基準画像Psから特定の被写体を検出する(ステップST25)。なお、ステップST26以降においても、ステップST24〜ST25のように、ステップST23において設定された画像群毎にそれぞれ処理が行われる。次いで、特徴点抽出部50が、ステップST25において検出された特定の被写体の輪郭近傍領域を第1領域とし、その第1領域以外の領域を第2領域とし(ステップST26)、第1領域が第2領域よりも特徴点の平均密度が高くなるように、各第1、第2領域において抽出すべき特徴点の数をそれぞれ設定し(ステップST27)、その設定された数の特徴点を第1、第2領域からそれぞれ抽出する(ステップST28)。次いで、対応点取得部60が、各対応画像から、特徴点抽出部50によって抽出された特徴点に対応する対応点を取得し(ステップST29)、座標変換部70Aが、各対応画像において取得された対応点の位置が基準画像Ps上の対応する特徴点の位置に一致するように、その画像の各画素の位置を座標変換し(ステップST30)、その座標変換してなる座標変換済み画像の各画素の位置を、その基準画像Psを最終基準画像Pfに位置合わせするための座標変換関数を用いて座標変換する(ステップST31)。このような処理により位置合わせが行われた複数の画像P1〜Pnは、画像間の対応する画素値を加算したり、画素値の平均値を算出したりすることにより合成される。
上記各実施の形態によれば、被写体を撮影して得た複数の画像を位置合わせして合成する際に、不自然に変形されやすい特定の被写体を検出し、その輪郭近傍領域Raが他の領域Rbよりも位置合わせの演算に用いられる特徴点の平均密度が高くなるように設定しているので、その輪郭について他の領域よりも位置合わせの精度を向上させることができ、計算負荷を軽減しつつ、合成画像において特定の被写体の輪郭が不自然に変形されてしまうことを防止できる。
本発明の第1の実施形態による画像処理装置の概略構成を示すブロック図 基準画像設定部による基準画像の設定処理について説明するための図 特定被写体検出部による動体の検出処理について説明するための図 特定被写体検出部による動体の検出処理について説明するための図 特定の被写体が人の顔である場合における輪郭近傍領域の一設定例を示す図 特定の被写体が人の顔である場合における輪郭近傍領域の他の設定例を示す図 特定の被写体が動体である場合における輪郭近傍領域の一設定例を示す図 座標変換部によるワーピング処理を説明するための図 第1の実施形態において行われる処理を示すフローチャート 本発明の第2の実施形態による画像処理装置の概略構成を示すブロック図 画像群設定部による画像群の一設定例を示す図 第2の実施形態において行われる処理を示すフローチャート
符号の説明
1、2 画像処理装置
10 画像群設定部
30、30A 基準画像設定部
40 特定被写体検出部
50 特徴点抽出部
60 対応点取得部
70、70A 座標変換部
80 座標変換関数取得部
Ra 輪郭近傍領域
Df 検出枠
Ps 基準画像
Pf 最終基準画像

Claims (15)

  1. 複数の画像において基準となる基準画像を設定する基準画像設定手段と、
    該基準画像設定手段により設定された基準画像から特定の被写体を検出する検出手段と、
    該検出手段により検出された特定の被写体の輪郭近傍領域が他の領域よりも特徴点の平均密度が高くなるように、前記基準画像における複数の特徴点を抽出する特徴点抽出手段と、
    前記複数の画像のうち前記基準画像以外の他の画像における、前記特徴点抽出手段により抽出された各特徴点に対応する対応点を取得する対応点取得手段と、
    前記各特徴点の位置と、該各特徴点に対応する対応点の位置が一致するように、前記基準画像および/または前記他の画像の各画素の位置を座標変換する座標変換手段とを備え、
    前記特定の被写体が顔であり、
    前記検出手段が、検出枠内の画像が前記特定の被写体を表す画像であるか否かを識別する機能を有し、前記基準画像上に前記検出枠を走査させることにより前記検出を行うものであり、
    前記輪郭近傍領域が、前記検出枠から内側および/または外側に幅を有する領域であることを特徴とする画像処理装置。
  2. 前記複数の画像が3以上の画像であり、
    前記座標変換手段が、前記対応点取得手段により取得された対応点の位置が対応する特徴点の位置に一致するように、前記他の画像の各画素の位置を座標変換するものであることを特徴とする請求項1記載の画像処理装置。
  3. 3以上の画像から、該各画像がそれぞれ少なくとも1組の画像群に含まれるように、2組以上の画像群を設定する画像群設定手段と、
    前記3以上の画像において最終基準となる最終基準画像を設定するとともに、前記画像群設定手段により設定された各画像群において基準となる基準画像を設定する基準画像設定手段と、
    前記各画像群において、前記基準画像設定手段により設定された基準画像から特定の被写体を検出する検出手段と、
    該検出手段により検出された特定の被写体の輪郭近傍領域が他の領域よりも特徴点の平均密度が高くなるように、前記基準画像における複数の特徴点を抽出する特徴点抽出手段と、
    前記各画像群において、前記基準画像以外の他の画像における、前記特徴点抽出手段により抽出された各特徴点に対応する対応点を取得する対応点取得手段と、
    前記基準画像を前記最終基準画像に位置合わせするための座標変換関数を取得する変換関数取得手段と、
    前記対応点取得手段により取得された対応点の位置が対応する特徴点の位置に一致するように、前記他の画像の各画素の位置を座標変換するとともに、該座標変換してなる座標変換済み画像の各画素の位置を、前記変換関数取得手段により取得された座標変換関数を用いて座標変換する座標変換手段とを備え、
    前記特定の被写体が顔であり、
    前記検出手段が、検出枠内の画像が前記特定の被写体を表す画像であるか否かを識別する機能を有し、前記基準画像上に前記検出枠を走査させることにより前記検出を行うものであり、
    前記輪郭近傍領域が、前記検出枠から内側および/または外側に幅を有する領域であることを特徴とする画像処理装置。
  4. 前記3以上の画像が、順次取得されてなるものであり、
    前記画像群の設定が、連続して取得された2以上の画像が1組の画像群となるように、前記2組以上の画像群を設定するものであることを特徴とする請求項3記載の画像処理装置。
  5. 前記特定の被写体が、顔、または動体であることを特徴とする請求項1から4のいずれか1項記載の画像処理装置。
  6. 複数の画像において基準となる基準画像を設定し、
    該設定された基準画像から特定の被写体を検出し、
    前記検出された特定の被写体の輪郭近傍領域が他の領域よりも特徴点の平均密度が高くなるように、前記基準画像における複数の特徴点を抽出し、
    前記複数の画像のうち前記基準画像以外の他の画像における、前記抽出された各特徴点に対応する対応点を取得し、
    前記各特徴点の位置と、該各特徴点に対応する対応点の位置が一致するように、前記基準画像および/または前記他の画像の各画素の位置を座標変換する
    ことを特徴とする画像処理方法であって、
    前記特定の被写体が顔であり、
    前記検出処理が、前記基準画像上に検出枠を走査させながら該検出枠内の画像が前記特定の被写体を表す画像であるか否かを識別することにより前記検出を行うものであり、
    前記輪郭近傍領域が、前記検出枠から内側および/または外側に幅を有する領域であることを特徴とする画像処理方法
  7. 3以上の画像において最終基準となる最終基準画像を設定し、
    前記3以上の画像から、該各画像がそれぞれ少なくとも1組の画像群に含まれるように、2組以上の画像群を設定し、
    該設定された画像群毎に、該画像群において基準となる基準画像を設定し、該設定された基準画像から特定の被写体を検出し、該検出された特定の被写体の輪郭近傍領域が他の領域よりも特徴点の平均密度が高くなるように、前記基準画像における複数の特徴点を抽出し、当該画像群における前記基準画像以外の他の画像における、前記抽出された各特徴点に対応する対応点を取得し、該取得された対応点の位置が対応する特徴点の位置に一致するように、前記他の画像の各画素の位置を座標変換し、
    前記基準画像を前記最終基準画像に位置合わせするための座標変換関数を取得し、
    前記座標変換してなる座標変換済み画像の各画素の位置を、前記取得された座標変換関数を用いて座標変換する
    ことを特徴とする画像処理方法であって、
    前記特定の被写体が顔であり、
    前記検出処理が、前記基準画像上に検出枠を走査させながら該検出枠内の画像が前記特定の被写体を表す画像であるか否かを識別することにより前記検出を行うものであり、
    前記輪郭近傍領域が、前記検出枠から内側および/または外側に幅を有する領域であることを特徴とする画像処理方法
  8. コンピュータに、
    複数の画像において基準となる基準画像を設定し、
    該設定された基準画像から特定の被写体を検出し、
    前記検出された特定の被写体の輪郭近傍領域が他の領域よりも特徴点の平均密度が高くなるように、前記基準画像における複数の特徴点を抽出し、
    前記複数の画像のうち前記基準画像以外の他の画像における、前記抽出された各特徴点に対応する対応点を取得し、
    前記各特徴点の位置と、該各特徴点に対応する対応点の位置が一致するように、前記基準画像および/または前記他の画像の各画素の位置を座標変換する
    ことを実行させるための画像処理プログラムであって、
    前記特定の被写体が顔であり、
    前記検出処理が、前記基準画像上に検出枠を走査させながら該検出枠内の画像が前記特定の被写体を表す画像であるか否かを識別することにより前記検出を行うものであり、
    前記輪郭近傍領域が、前記検出枠から内側および/または外側に幅を有する領域であることを特徴とする画像処理プログラム。
  9. コンピュータに、
    3以上の画像において最終基準となる最終基準画像を設定し、
    前記3以上の画像から、該各画像がそれぞれ少なくとも1組の画像群に含まれるように、2組以上の画像群を設定し、
    該設定された画像群毎に、該画像群において基準となる基準画像を設定し、該設定された基準画像から特定の被写体を検出し、該検出された特定の被写体の輪郭近傍領域が他の領域よりも特徴点の平均密度が高くなるように、前記基準画像における複数の特徴点を抽出し、当該画像群における前記基準画像以外の他の画像における、前記抽出された各特徴点に対応する対応点を取得し、該取得された対応点の位置が対応する特徴点の位置に一致するように、前記他の画像の各画素の位置を座標変換し、
    前記基準画像を前記最終基準画像に位置合わせするための座標変換関数を取得し、
    前記座標変換してなる座標変換済み画像の各画素の位置を、前記取得された座標変換関数を用いて座標変換する
    ことを実行させるための画像処理プログラムであって、
    前記特定の被写体が顔であり、
    前記検出処理が、前記基準画像上に検出枠を走査させながら該検出枠内の画像が前記特定の被写体を表す画像であるか否かを識別することにより前記検出を行うものであり、
    前記輪郭近傍領域が、前記検出枠から内側および/または外側に幅を有する領域であることを特徴とする画像処理プログラム
  10. 複数の画像において基準となる基準画像を設定する基準画像設定手段と、
    該基準画像設定手段により設定された基準画像から特定の被写体を検出する検出手段と、
    該検出手段により検出された特定の被写体の輪郭近傍領域が他の領域よりも特徴点の平均密度が高くなるように、前記基準画像における複数の特徴点を抽出する特徴点抽出手段と、
    前記複数の画像のうち前記基準画像以外の他の画像における、前記特徴点抽出手段により抽出された各特徴点に対応する対応点を取得する対応点取得手段と、
    前記各特徴点の位置と、該各特徴点に対応する対応点の位置が一致するように、前記基準画像および/または前記他の画像の各画素の位置を座標変換する座標変換手段を備え、
    前記輪郭近傍領域が、前記特定の被写体の輪郭から内側および/または外側に幅を有する領域であることを特徴とする画像処理装置。
  11. 3以上の画像から、該各画像がそれぞれ少なくとも1組の画像群に含まれるように、2組以上の画像群を設定する画像群設定手段と、
    前記3以上の画像において最終基準となる最終基準画像を設定するとともに、前記画像群設定手段により設定された各画像群において基準となる基準画像を設定する基準画像設定手段と、
    前記各画像群において、前記基準画像設定手段により設定された基準画像から特定の被写体を検出する検出手段と、
    該検出手段により検出された特定の被写体の輪郭近傍領域が他の領域よりも特徴点の平均密度が高くなるように、前記基準画像における複数の特徴点を抽出する特徴点抽出手段と、
    前記各画像群において、前記基準画像以外の他の画像における、前記特徴点抽出手段により抽出された各特徴点に対応する対応点を取得する対応点取得手段と、
    前記基準画像を前記最終基準画像に位置合わせするための座標変換関数を取得する変換関数取得手段と、
    前記対応点取得手段により取得された対応点の位置が対応する特徴点の位置に一致するように、前記他の画像の各画素の位置を座標変換するとともに、該座標変換してなる座標変換済み画像の各画素の位置を、前記変換関数取得手段により取得された座標変換関数を用いて座標変換する座標変換手段とを備え、
    前記輪郭近傍領域が、前記特定の被写体の輪郭から内側および/または外側に幅を有する領域であることを特徴とする画像処理装置。
  12. 複数の画像において基準となる基準画像を設定し、
    該設定された基準画像から特定の被写体を検出し、
    前記検出された特定の被写体の輪郭近傍領域が他の領域よりも特徴点の平均密度が高くなるように、前記基準画像における複数の特徴点を抽出し、
    前記複数の画像のうち前記基準画像以外の他の画像における、前記抽出された各特徴点に対応する対応点を取得し、
    前記各特徴点の位置と、該各特徴点に対応する対応点の位置が一致するように、前記基準画像および/または前記他の画像の各画素の位置を座標変換する
    ことを特徴とする画像処理方法であって、
    前記輪郭近傍領域が、前記特定の被写体の輪郭から内側および/または外側に幅を有する領域であることを特徴とする画像処理方法
  13. 3以上の画像において最終基準となる最終基準画像を設定し、
    前記3以上の画像から、該各画像がそれぞれ少なくとも1組の画像群に含まれるように、2組以上の画像群を設定し、
    該設定された画像群毎に、該画像群において基準となる基準画像を設定し、該設定された基準画像から特定の被写体を検出し、該検出された特定の被写体の輪郭近傍領域が他の領域よりも特徴点の平均密度が高くなるように、前記基準画像における複数の特徴点を抽出し、当該画像群における前記基準画像以外の他の画像における、前記抽出された各特徴点に対応する対応点を取得し、該取得された対応点の位置が対応する特徴点の位置に一致するように、前記他の画像の各画素の位置を座標変換し、
    前記基準画像を前記最終基準画像に位置合わせするための座標変換関数を取得し、
    前記座標変換してなる座標変換済み画像の各画素の位置を、前記取得された座標変換関数を用いて座標変換する
    ことを特徴とする画像処理方法であって、
    前記輪郭近傍領域が、前記特定の被写体の輪郭から内側および/または外側に幅を有する領域であることを特徴とする画像処理方法
  14. コンピュータに、
    複数の画像において基準となる基準画像を設定し、
    該設定された基準画像から特定の被写体を検出し、
    前記検出された特定の被写体の輪郭近傍領域が他の領域よりも特徴点の平均密度が高くなるように、前記基準画像における複数の特徴点を抽出し、
    前記複数の画像のうち前記基準画像以外の他の画像における、前記抽出された各特徴点に対応する対応点を取得し、
    前記各特徴点の位置と、該各特徴点に対応する対応点の位置が一致するように、前記基準画像および/または前記他の画像の各画素の位置を座標変換する
    ことを実行させるための画像処理プログラムであって、
    前記輪郭近傍領域が、前記特定の被写体の輪郭から内側および/または外側に幅を有する領域であることを特徴とする画像処理プログラム
  15. コンピュータに、
    3以上の画像において最終基準となる最終基準画像を設定し、
    前記3以上の画像から、該各画像がそれぞれ少なくとも1組の画像群に含まれるように、2組以上の画像群を設定し、
    該設定された画像群毎に、該画像群において基準となる基準画像を設定し、該設定された基準画像から特定の被写体を検出し、該検出された特定の被写体の輪郭近傍領域が他の領域よりも特徴点の平均密度が高くなるように、前記基準画像における複数の特徴点を抽出し、当該画像群における前記基準画像以外の他の画像における、前記抽出された各特徴点に対応する対応点を取得し、該取得された対応点の位置が対応する特徴点の位置に一致するように、前記他の画像の各画素の位置を座標変換し、
    前記基準画像を前記最終基準画像に位置合わせするための座標変換関数を取得し、
    前記座標変換してなる座標変換済み画像の各画素の位置を、前記取得された座標変換関数を用いて座標変換する
    ことを実行させるための画像処理プログラムであって、
    前記輪郭近傍領域が、前記特定の被写体の輪郭から内側および/または外側に幅を有する領域であることを特徴とする画像処理プログラム。
JP2008332709A 2008-12-26 2008-12-26 画像処理装置および方法並びにプログラム Expired - Fee Related JP5166230B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008332709A JP5166230B2 (ja) 2008-12-26 2008-12-26 画像処理装置および方法並びにプログラム
US12/647,253 US8620085B2 (en) 2008-12-26 2009-12-24 Image processing apparatus, image processing method, and image processing program
CN200910249568A CN101770643A (zh) 2008-12-26 2009-12-25 图像处理装置、图像处理方法以及图像处理程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008332709A JP5166230B2 (ja) 2008-12-26 2008-12-26 画像処理装置および方法並びにプログラム

Publications (2)

Publication Number Publication Date
JP2010152819A JP2010152819A (ja) 2010-07-08
JP5166230B2 true JP5166230B2 (ja) 2013-03-21

Family

ID=42285070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008332709A Expired - Fee Related JP5166230B2 (ja) 2008-12-26 2008-12-26 画像処理装置および方法並びにプログラム

Country Status (3)

Country Link
US (1) US8620085B2 (ja)
JP (1) JP5166230B2 (ja)
CN (1) CN101770643A (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5226600B2 (ja) * 2009-04-28 2013-07-03 富士フイルム株式会社 画像変形装置およびその動作制御方法
JP5735227B2 (ja) * 2010-07-16 2015-06-17 ルネサスエレクトロニクス株式会社 画像変換装置及び画像変換システム
CN101945257B (zh) * 2010-08-27 2012-03-28 南京大学 基于监控视频内容提取车辆底盘图像的合成方法
CN102486868A (zh) * 2010-12-06 2012-06-06 华南理工大学 一种基于平均脸的美丽人脸合成方法
JP5954712B2 (ja) * 2011-01-13 2016-07-20 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法、及びそのプログラム
JP5507003B2 (ja) 2011-03-24 2014-05-28 富士フイルム株式会社 立体画像処理装置及び立体画像処理方法
WO2012132304A1 (ja) * 2011-03-30 2012-10-04 富士フイルム株式会社 立体画像表示制御装置及び立体画像表示制御方法
JP6098065B2 (ja) * 2011-09-13 2017-03-22 株式会社リコー 画像検査装置、画像検査方法、及びプログラム
US10099614B2 (en) * 2011-11-28 2018-10-16 Magna Electronics Inc. Vision system for vehicle
CN103136543B (zh) * 2011-12-02 2016-08-10 湖南欧姆电子有限公司 图像处理装置及图像处理方法
US9172939B2 (en) * 2011-12-30 2015-10-27 Stmicroelectronics (Canada), Inc. System and method for adjusting perceived depth of stereoscopic images
CN104704815B (zh) * 2012-05-23 2018-12-07 杭州阿尔法红外检测技术有限公司 热像摄影装置和热像摄影方法
CN103095990A (zh) * 2012-12-18 2013-05-08 武汉烽火众智数字技术有限责任公司 具有分布式图像采集单元的超高清摄像机
US9235781B2 (en) * 2013-08-09 2016-01-12 Kabushiki Kaisha Toshiba Method of, and apparatus for, landmark location
CN104035680A (zh) * 2014-06-16 2014-09-10 中国科学院长春光学精密机械与物理研究所 采用fpga实现楔条形光子计数探测器图像处理的方法
CN104118609B (zh) * 2014-07-22 2016-06-29 广东平航机械有限公司 贴标质量检测方法和装置
JP5959684B2 (ja) * 2015-04-16 2016-08-02 ルネサスエレクトロニクス株式会社 画像変換システム
US9984314B2 (en) * 2016-05-06 2018-05-29 Microsoft Technology Licensing, Llc Dynamic classifier selection based on class skew
EP3547681B1 (en) 2016-11-24 2021-01-20 FUJIFILM Corporation Image processing device, image capturing device, and image processing method
CN109478326B (zh) * 2017-05-26 2021-11-05 深圳配天智能技术研究院有限公司 一种图像处理方法、终端设备及计算机存储介质
CN109952594B (zh) * 2017-10-18 2022-01-07 腾讯科技(深圳)有限公司 图像处理方法、装置、终端及存储介质
JP7372589B2 (ja) * 2019-07-23 2023-11-01 株式会社Ihi 水中レーザ視認装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6473536B1 (en) * 1998-09-18 2002-10-29 Sanyo Electric Co., Ltd. Image synthesis method, image synthesizer, and recording medium on which image synthesis program is recorded
JP2000155831A (ja) * 1998-09-18 2000-06-06 Sanyo Electric Co Ltd 画像合成方法、画像合成装置、画像合成プログラムを記録した記録媒体
JP3764364B2 (ja) * 2000-10-31 2006-04-05 株式会社東芝 画像特徴点検出方法、画像処理方法、及びプログラム
JP2004035702A (ja) 2002-07-03 2004-02-05 Toray Ind Inc 繊維強化複合材料用エポキシ樹脂組成物、繊維強化複合材料および繊維強化複合材料の製造方法
JP2004343483A (ja) * 2003-05-16 2004-12-02 Acutelogic Corp 手振れ補正装置および方法、手振れ検出装置
JP2005151495A (ja) * 2003-11-20 2005-06-09 Konica Minolta Photo Imaging Inc 画像処理方法
EP1768387B1 (en) * 2005-09-22 2014-11-05 Samsung Electronics Co., Ltd. Image capturing apparatus with image compensation and method therefor
JP4509925B2 (ja) * 2005-12-27 2010-07-21 株式会社メガチップス 画像処理装置及びカメラシステム並びに画像処理方法及び動画像表示方法
CN100375108C (zh) * 2006-03-02 2008-03-12 复旦大学 一种人脸特征点自动定位方法

Also Published As

Publication number Publication date
US20100166319A1 (en) 2010-07-01
US8620085B2 (en) 2013-12-31
CN101770643A (zh) 2010-07-07
JP2010152819A (ja) 2010-07-08

Similar Documents

Publication Publication Date Title
JP5166230B2 (ja) 画像処理装置および方法並びにプログラム
US11302009B2 (en) Method of image processing using a neural network
CN109410207B (zh) 一种基于ncc特征的无人机巡线图像输电线路检测方法
JP5812599B2 (ja) 情報処理方法及びその装置
CN107025660B (zh) 一种确定双目动态视觉传感器图像视差的方法和装置
CN108981672A (zh) 基于单目机器人与测距传感器结合的舱门实时定位方法
JP2019057248A (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
JP6639523B2 (ja) 学習画像自動選別装置、学習画像自動選別方法および学習画像自動選別プログラム
KR20140013407A (ko) 객체 추적 장치 및 방법
WO2013190862A1 (ja) 画像処理装置及び画像処理方法
US11727637B2 (en) Method for generating 3D skeleton using joint-based calibration acquired from multi-view camera
CN112528902B (zh) 一种基于3d人脸模型的视频监控动态人脸识别方法及装置
JP4946878B2 (ja) 画像識別装置及びプログラム
WO2020152927A1 (ja) 学習用データ生成方法、学習用データ生成装置、および、推論処理方法
JP4042750B2 (ja) 画像処理装置、コンピュータプログラム、及び画像処理方法
CN110926330A (zh) 图像处理装置和图像处理方法
CN114612352A (zh) 多聚焦图像融合方法、存储介质和计算机
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
US20140055644A1 (en) Apparatus and method for extracting object
CN113569896A (zh) 基于图像和深度数据进行对象3d定位的计算机实现方法
CN109074646B (zh) 图像识别装置以及图像识别程序
JP2006215743A (ja) 画像処理装置及び画像処理方法
CN110956664A (zh) 一种手持式三维扫描系统的相机位置实时重定位方法
JP2010113562A (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
JP6276504B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5166230

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees