JP5752011B2 - 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体 - Google Patents

画像処理装置及び画像処理方法、プログラム、並びに記憶媒体 Download PDF

Info

Publication number
JP5752011B2
JP5752011B2 JP2011246854A JP2011246854A JP5752011B2 JP 5752011 B2 JP5752011 B2 JP 5752011B2 JP 2011246854 A JP2011246854 A JP 2011246854A JP 2011246854 A JP2011246854 A JP 2011246854A JP 5752011 B2 JP5752011 B2 JP 5752011B2
Authority
JP
Japan
Prior art keywords
image processing
scene information
information
image
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011246854A
Other languages
English (en)
Other versions
JP2013105214A (ja
Inventor
由佳 峯岸
由佳 峯岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011246854A priority Critical patent/JP5752011B2/ja
Priority to US13/657,228 priority patent/US9025873B2/en
Publication of JP2013105214A publication Critical patent/JP2013105214A/ja
Application granted granted Critical
Publication of JP5752011B2 publication Critical patent/JP5752011B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Description

本発明は、1枚の画像を複数の領域に分割し、領域ごとに画像処理を行い、再び1枚の画像に合成する画像処理技術に関する。
近年、画像解析技術が進歩し、画像から個々の被写体を識別することが可能となってきた。この技術を用いることで、特許文献1に開示されているように、個々の被写体領域ごとに高画質化処理を行うということが考えられる。
また、画像処理の対象画像から得られる画像情報だけでなく、測距センサから得られる測距情報を基に画像処理を行う方法が知られている。特許文献2では、画像を分割したそれぞれの領域に対して、画像解析結果とデフォーカス情報を用いて画像処理を行い、疑似ボケ画像を作成している。
このように、1枚の画像を分割し、領域ごとに画像処理を行い、再び1枚の画像に合成する画像処理方法が知られている。
特開2009−050035号公報 特開2003−087545号公報
上述したように、領域ごとに画像処理を行った場合、画面全体に画像処理を行った場合と比較して、より高画質な画像が得られたり、背景領域をぼかしたりすることができる。しかしながら、領域ごとの画像処理では、必ず領域境界が存在し、その不連続性は高画質化効果や疑似ボケ効果を阻害してしまうおそれがある。
また、写真での表現において、絞りや構図などのユーザの意図を画像合成の際に反映することも必要である。
本発明は、上述した課題に鑑みてなされ、その目的は、領域ごとに画像処理を行った後に再び1枚の画像を作成する際に、絞りや構図などのユーザの意図を反映させつつ、領域境界の不連続性を低減する画像処理技術を実現することである。
上述した解題を解決し、目的を達成するために、本発明の画像処理装置は、内の複数の領域に異なる画像処理を施し、当該画像処理が施された画像を合成する画像処理装置において、前記複数の領域シーン情報を取得する第1のシーン情報取得手段と、前記シーン情報を取得した際の領域境界部分におけるシーン情報を取得する第2のシーン情報取得手段と、前記第1のシーン情報取得手段により取得したシーン情報に対応したパラメータで画像の前記複数の領域それぞれに画像処理を施す画像処理手段と、前記シーン情報及び前記領域境界部分におけるシーン情報に基づいて、前記画像処理手段で画像処理された複数の画像を合成する合成比率を算出する算出手段と、前記合成比率に基づいて前記画像処理手段により画像処理された複数の画像を合成する合成手段と、を有する。
本発明によれば、領域ごとに画像処理を行った後に再び1枚の画像を作成する際に、境界の不連続性を低減することができる。また、絞りや構図などのユーザの意図を合成の際に反映できる。
本実施形態の画像処理装置のブロック図。 本実施形態の画像処理方法の説明図。 実施形態1の合成比率の算出方法の説明図。 実施形態2の合成比率の算出方法の説明図。 実施形態3の合成比率の算出方法の説明図。 実施形態4の合成比率の算出方法の説明図。
以下に、本発明を実施するための形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成しても良い。
<装置構成>図1を参照して、後述する各実施形態の合成比率の算出方法を実現する画像処理装置の構成について説明する。
図1に示すように、本実施形態の画像処理装置は、第1のシーン情報取得部10、第2のシーン情報取得部20、画像処理部30、合成比率算出部40、画像合成部50を有する。また、本実施形態の画像処理装置は、圧縮部60、記録部70、制御部80、メモリ90、インタフェース(I/F)100を有する。
第1のシーン情報取得部10は、入力画像における複数の領域ごとにシーン情報を取得する。第2のシーン情報取得部20は、上記領域ごとにシーン情報を取得した際の領域境界部分におけるシーン情報を取得する。ここでシーン情報とは、被写体情報や色温度情報、距離情報やデフォーカス情報や周波数情報や色相情報や輝度情報、彩度情報などに限定されず、本発明の趣旨を逸脱しない範囲で適する情報を用いることとする。また、本画像処理装置は、デジタルカメラ等の撮像装置の一部でもよく、撮像装置から独立したパーソナルコンピュータなどで実現されてもよい。
ただし、第1のシーン情報取得部10と第2のシーン情報取得部20からシーン情報を取得する処理順序は、どちらを先に取得してもよい。また、画像処理部30は、第1のシーン情報取得部10からシーン情報を取得した後で、画像合成部50で合成を行う前であれば、どの処理順序で画像処理を行ってもよい。
図1において、入力画像とその入力画像に対応する領域ごとのシーン情報、領域境界部分のシーン情報は予めメモリ90に蓄えられており、第1のシーン情報取得部10と第2のシーン情報取得部20はメモリ90からシーン情報を取得する。このとき、入力画像のシーン識別は事前に行われており、入力画像とその入力画像に対応する領域ごとのシーン情報、領域境界部分のシーン情報はメモリに蓄えられている、もしくは、記録媒体に保存されていて必要に応じてメモリ90に展開される。また、領域ごとのシーン情報取得部10と第2のシーン情報取得部20は、入力画像のシーン識別を適宜行い、その結果としてシーン情報を取得してもよい(図2(a)のS1とS2)。
画像処理部30では、入力画像に対して、第1のシーン情報取得部10から取得したシーン情報に対応したパラメータを用いて画像処理を行う。この第1のシーン情報取得部10から取得したシーン情報に対応したパラメータを用いて生成された画像をシーン対応画像と呼ぶ。ここで、入力画像がRAWデータであった場合には現像処理も施すなど、入力画像に応じて必要な画像処理をそれぞれ施す。つまり、本発明の対象となる画像は、現像処理後のJPEGデータだけでなく、現像処理前のRAWデータなども含みうる(図2(a)のS3)。
合成比率算出部40では、第1のシーン情報取得部10、第2のシーン情報取得部20から取得したシーン情報を用いて、シーン対応画像の合成比率を算出する(図2(a)のS4)。まず、第1のシーン情報取得部10から取得したシーン情報と第2のシーン情報取得部20から取得したシーン情報に対応して、合成比率を変化させる合成比率変化領域A1を決める(I)。合成比率変化領域A1は、領域ごとにシーン情報を取得した際の領域境界を中心に決めてもよく、領域境界を端とする領域内に決めてもよく、領域境界を端とする領域外に決めてもよく、本発明の趣旨を逸脱しない範囲で適当な領域を決めることができる。次に、第1のシーン情報取得部10から取得したシーン情報と第2のシーン情報取得部20から取得したシーン情報に対応して、合成比率変化領域A1における合成比率の変化のさせ方を決める(II)。図2(b)では、変化のさせ方を直線で表しているが、曲線で表してもよく、本発明は合成比率の変化のさせ方を限定するものではない。最後に、合成比率変化領域以外の領域A2の合成比率を任意の値に決める(III)。図2(b)では、任意の値として領域内を100、領域外を0として表しているが、本発明の趣旨を逸脱しない範囲においてどのような値を取ってもよく、また領域内・領域外ともに一定値である必要はない。ちなみに、合成比率の算出において、合成比率の算出順序、つまり、(I)合成比率変化領域A1の決定、(II)合成比率の変化のさせ方の決定、(III)合成比率変化領域以外の領域A2の任意の値の決定順序は上記順序と異なってもよい(図2(a)のS4)。
画像合成部50では、合成比率算出部40の算出結果に基づいて、シーン対応画像を基準となる画像に合成する(図2(a)のS5)。このとき、基準となる画像は、ある特定のパラメータで画像処理を行った画像でもよく、複数のシーンをそれぞれ合成してできた画像でもよく、いずれかに限定するものではない。
上述したように、1枚の画像を複数の領域に分割し、領域ごとに画像処理を行い、再び1枚の画像に合成する際に、合成比率を算出し、その算出結果に基づいて領域ごとの画像合成を行うことで、まず、領域境界の不連続性を低減することができる。また、領域ごとのシーン情報や領域境界部分のシーン情報を合成比率の算出に用いることで、絞りや構図などのユーザの意図を反映した自然な印象の合成画像を得ることができる。
画像合成部50で合成された画像は、メモリ90に蓄える、もしくは、圧縮部60でJPEG等の方法で圧縮し、記録部70にてフラッシュメモリ等の記録媒体に記録される。
各部で用いられる画像データやシーン情報などのデータはメモリ90に蓄えられ、制御部80によって各部が制御される。場合によってはユーザ操作による指示などがI/F100を介して画像処理装置へ入力される。
[実施形態1]以下、図1及び図3を参照して、実施形態1による、領域境界部分のデフォーカス情報を用いた画像の合成比率の算出方法について、第1のシーン情報取得部10からシーンXの情報が図3(a)のように取得された場合を例に説明する。また、第2のシーン情報取得部20から、例えば、図3(b)のような黒いほどデフォーカス量の絶対値が小さいデフォーカス情報(デフォーカスマップ)が取得されたとする。つまり、領域境界部分(a)はデフォーカス量の絶対値が小さく、領域境界部分(b)はデフォーカス量の絶対値が大きい。このとき、デフォーカス情報を取得する方法として、入力画像と連続して撮影した深い被写界深度の画像と入力画像を比較して取得してもよく、デフォーカス情報を検出する装置から取得してもよく、その手段は限定しない。
上記条件の場合の、領域境界部分(a)と領域境界部分(b)における合成比率の算出方法について説明する(図3(c))。
まず、第1のシーン情報取得部10から取得したシーンXに対応した合成比率変化領域A1_X’を求める。合成比率変化領域A1_X’は、シーン情報で適応的に変化させることが望ましいが、どのようなシーン情報に対しても固定してよい。
次に、デフォーカス量の絶対値が小さい領域境界部分(a)では合成比率変化領域A1_X’の幅を本例では1倍としたものを合成比率変化領域A1_X−(a)とする。また、デフォーカス量の絶対値が大きい領域境界部分(b)では合成比率変化領域A1_X’の幅を本例では2倍としたものを合成比率変化領域A1_X−(b)とする(図3(c))。デフォーカス情報に対応した合成比率変化領域A1_X’の幅の変化のさせ方は、上記例に限定されず、デフォーカス情報で適応的に変化させることが望ましいが、どのようなデフォーカス情報に対しても固定してよい。
さらに、第1のシーン情報取得部10から取得したシーン情報と第2のシーン情報取得部20から取得したデフォーカス情報に対応して、合成比率変化領域A1_Xにおける合成比率の変化のさせ方を本例では直線とする(図3(c))。合成比率変化領域A1_Xにおける合成比率の変化のさせ方は、上記例に限定されず、領域ごとのシーン情報やデフォーカス情報で適応的に変化させることが望ましいが、どのような領域ごとのシーン情報や、どのようなデフォーカス情報に対しても固定してよい。
最後に、合成比率変化領域以外の領域A2_Xの合成比率を領域内の任意の値として100、領域外の任意の値として0とする(図3(c))。任意の値は、上記例に限定されず、領域ごとのシーン情報やデフォーカス情報で適応的に変化させることが望ましいが、どのような領域ごとのシーン情報や、どのようなデフォーカス情報に対しても固定してよい。
このようにして求めた合成比率算出結果(図3(d):黒いほど合成比率が高い)に基づいて、画像合成部50においてシーン対応画像の合成を行う。
[実施形態2]以下、図1及び図4を参照して、実施形態2による、領域境界部分の周波数情報を用いた画像の合成比率の算出方法について、第1のシーン情報取得部10からシーンXの情報が図4(a)のように取得された場合を例に説明する。また、第2のシーン情報取得部20から、例えば、図4(b)のような黒いほど高周波である周波数情報(周波数マップ)が取得されたとする。つまり、領域境界部分(a)は低周波部分であり、領域境界部分(b)は高周波部分である。このとき、周波数情報を取得する方法として、入力画像に対して空間周波数分析を行って取得してもよく、周波数情報を検出する装置から取得してもよく、その手段は限定しない。
上記条件の場合の、領域境界部分(a)と領域境界部分(b)における合成比率の算出方法について説明する(図4(c))。
まず、第1のシーン情報取得部10から取得したシーンXに対応した合成比率変化領域A1_X’を求める。合成比率変化領域A1_X’は、シーン情報で適応的に変化させることが望ましいが、どのようなシーン情報に対しても固定してよい。
次に、低周波部分の領域境界部分(a)では合成比率変化領域A1_X’の幅を本例では2倍としたものを合成比率変化領域A1_X−(a)とする。また、高周波部分の領域境界部分(b)では合成比率変化領域A1_X’の幅を本例では1倍としたものを合成比率変化領域A1_X−(b)とする(図4(c))。周波数情報に対応した合成比率変化領域A1_X’の幅の変化のさせ方は、上記例に限定されず、周波数情報で適応的に変化させることが望ましいが、のような周波数情報に対しても固定してよい。
さらに、第1のシーン情報取得部10から取得したシーン情報と第2のシーン情報取得部20から取得した周波数情報に対応して、合成比率変化領域A1_Xにおける合成比率の変化のさせ方を本例ではS字曲線とする(図4(c))。合成比率変化領域A1_Xにおける合成比率の変化のさせ方は、上記例に限定されず、領域ごとのシーン情報や周波数情報で適応的に変化させることが望ましいが、どのような領域ごとのシーン情報や、どのような周波数情報に対しても固定してよい。
最後に、合成比率変化領域以外の領域A2_Xの合成比率を領域内の任意の値として100、領域外の任意の値として0とする(図4(c))。任意の値は、上記例に限定されず、領域ごとのシーン情報や周波数情報で適応的に変化させることが望ましいが、どのような領域ごとのシーン情報や、どのような周波数情報に対しても固定してよい。
このようにして求めた合成比率算出結果(図4(d):黒いほど合成比率が高い)に基づいて、画像合成部50においてシーン対応画像の合成を行う。
[実施形態3]以下、図1及び図5を参照して、実施形態3による、領域境界部分の色差情報を用いたシーン対応画像の合成比率算出方法について、第1のシーン情報取得部10からシーンXの情報が図5(a)のように取得された場合を例に説明する。また、第2のシーン情報取得部20から、例えば、図5(b)のような黒いほど色差量が大きい色差情報(色差マップ)が取得されたとする。つまり、領域境界部分(a)は色差量が大きく、領域境界部分(b)は色差量が小さい。このとき、色差情報を取得する方法として、入力画像のL*a*b*表色系やRGB表色系などのある表色系の色空間におけるユークリッド距離を取得してもよく、色差情報を検出する装置から取得してもよく、その手段は限定しない。
上記条件の場合の、領域境界部分(a)と領域境界部分(b)における合成比率の算出方法について説明する(図5(c))。
まず、第1のシーン情報取得部10から取得したシーンXに対応した合成比率変化領域A1_X’を求める。合成比率変化領域A1_X’は、シーン情報で適応的に変化させることが望ましいが、どのようなシーン情報に対しても固定してよい。
次に、色差量が大きい領域境界部分(a)では合成比率変化領域A1_X’の幅を本例では1倍としたものを合成比率変化領域A1_X−(a)とする。また、色差が小さい領域境界部分(b)では合成比率変化領域A1_X’の幅を本例では2倍としたものを合成比率変化領域A1_X−(b)とする(図5(c))。色差情報に対応した合成比率変化領域A1_X’の幅の変化のさせ方は、上記例に限定されず、色差情報で適応的に変化させることが望ましいが、どのような色差情報に対しても固定してよい。
さらに、第1のシーン情報取得部10から取得したシーン情報と第2のシーン情報取得部20から取得した色差情報に対応して、合成比率変化領域A1_Xにおける合成比率の変化のさせ方を本例では上凸曲線する(図5(c))。合成比率変化領域A1_Xにおける合成比率の変化のさせ方は、上記例に限定されず、領域ごとのシーン情報や色差情報で適応的に変化させることが望ましいが、どのような領域ごとのシーン情報や、どのような色差情報に対しても固定してよい。
最後に、合成比率変化領域以外の領域A2_Xの合成比率を領域内の任意の値として100、領域外の任意の値として0とする(図5(c))。任意の値は、上記例に限定されず、領域ごとのシーン情報や色差情報で適応的に変化させることが望ましいが、どのような領域ごとのシーン情報に対しても固定してよく、どのような色差情報に対しても固定してよい。
このようにして求めた合成比率算出結果(図5(d):黒いほど合成比率が高い)に基づいて、画像合成部50においてシーン対応画像の合成を行う。
[実施形態4]以下、図1及び図6を参照して、実施形態4による、第1のシーン情報取得部10から得られるシーン情報が複数のシーンを含む場合について説明する。
本例では、第1のシーン情報取得部10からシーンX、シーンY、シーンZの情報として、それぞれの領域の分割数(粗さもしくは細かさ)についての情報も取得するものとする。このとき、シーンXは入力画像を4分割した領域からシーン情報を取得し、シーンYは入力画像を16分割した領域からシーン情報を取得し、シーンZは入力画像を64分割した領域からシーン情報を取得したと仮定した場合について説明する(図6(a))。また、説明を簡素化するために、シーンX、シーンY、シーンZは上記分割数以外の情報は同じものと仮定し、分割数以外の情報から決まる合成比率の変化領域を1次的合成比率変化領域A1_tとする。
上記条件の場合の、シーンX、シーンY、シーンZにおける合成比率の算出方法について説明する(図6(b))。
また、第1のシーン情報取得部10から取得したシーン情報に対応した合成比率変化領域A1’は、分割数についての情報も加味する。上記の例においては、シーンXの合成比率変化領域A1_X’は1次的合成比率変化領域A1_tの幅を本例では3倍にしたものとする。シーンYの合成比率変化領域A1_Y’は1次的合成比率変化領域A1_tの幅を本例では2倍にしたものとする。シーンZの合成比率変化領域A1_Z’は1次的合成比率変化領域A1_tの幅を本例では1倍にしたものとする。つまり、分割数が少ない領域ほど合成比率の変化領域の幅を広くする。ただし、合成比率変化領域A1’の幅の変化のさせ方は、本発明の趣旨を逸脱しない範囲において、特定の方法や値に限定されるものではない。
さらに、第1のシーン情報取得部10から取得したシーン情報に対応した合成比率変化領域A1における合成比率の変化のさせ方は、分割数についての情報についても加味する。上記の例においては、シーンXの合成比率の変化のさせ方は本例では上に凸の曲線とし、シーンYの合成比率の変化のさせ方は本例では直線とし、シーンZの合成比率の変化のさせ方は本例では下に凸の曲線とする。ただし、合成比率の変化のさせ方は、本発明の趣旨を逸脱しない範囲において、特定の方法に限定されるものではない。
画像合成部50におけるシーン対応画像の合成順序は、分割数が少ない領域から順に合成し、上記の例においては、シーンX、シーンY、シーンZの順に合成を行う。
一方、第1のシーン情報取得部10から分割数が同じ領域のシーン情報を複数の領域から取得した場合、第1のシーン情報取得部10からさらに距離情報を取得し、距離の遠いシーンから順に合成する。
ただし、本発明は、1シーンごとにシーン対応画像を合成する場合だけに限らず、複数シーンのシーン対応画像の合成比率を1度に算出し、1度に合成する場合も含むものとする。
[他の実施形態]本発明は、以下の処理を実行することによっても実現される。即ち上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。

Claims (10)

  1. 内の複数の領域に異なる画像処理を施し、当該画像処理が施された画像を合成する画像処理装置において、
    前記複数の領域シーン情報を取得する第1のシーン情報取得手段と、
    記シーン情報を取得した際の領域境界部分におけるシーン情報を取得する第2のシーン情報取得手段と、
    前記第1のシーン情報取得手段により取得したシーン情報に対応したパラメータで画像の前記複数の領域それぞれに画像処理を施す画像処理手段と、
    記シーン情報及び前記領域境界部分におけるシーン情報に基づいて、前記画像処理手段で画像処理された複数の画像を合成する合成比率を算出する算出手段と、
    前記合成比率に基づいて前記画像処理手段により画像処理された複数の画像を合成する合成手段と、を有することを特徴とする画像処理装置。
  2. 前記算出手段は、前記シーン情報と前記領域境界部分におけるシーン情報に対応して、前記合成比率の変化する変化領域と前記合成比率の変化のさせ方を変えることを特徴とする請求項1に記載の画像処理装置。
  3. 前記第2のシーン情報取得手段から得られる情報は、画像のデフォーカス情報、画像の周波数情報、画像の色差情報の少なくともいずれかを含むことを特徴とする請求項1に記載の画像処理装置。
  4. 前記第1のシーン情報取得手段から得られる情報は、それぞれの領域のシーンを評価する際の画像の分割数の情報を含むことを特徴とする請求項1記載の画像処理装置。
  5. 前記算出手段は、前記分割数が少ないシーン情報に対応する領域ほど合成比率の変化領域の幅を広くすることを特徴とする請求項4に記載の画像処理装置。
  6. 前記算出手段は、前記分割数に応じて当該分割数で評価されたシーン情報に対応する領域の、合成比率が変化する変化領域における合成比率の変化のさせ方を変えることを特徴とする請求項4に記載の画像処理装置。
  7. 前記合成手段は、より少ない分割数で評価されたシーン情報に対応する領域の画像から順に合成を行うことを特徴とする請求項4に記載の画像処理装置。
  8. 内の複数の領域に異なる画像処理を施し、当該画像処理が施された画像を合成する画像処理方法であって、
    前記複数の領域シーン情報を取得する第1のシーン情報取得工程と、
    記シーン情報を取得した際の領域境界部分におけるシーン情報を取得する第2のシーン情報取得工程と、
    前記第1のシーン情報取得工程により取得したシーン情報に対応したパラメータで画像の前記複数の領域それぞれに画像処理を施す画像処理工程と、
    記シーン情報及び前記領域境界部分におけるシーン情報に基づいて、前記画像処理工程で画像処理された複数の画像を合成する合成比率を算出する算出工程と、
    前記合成比率に基づいて前記画像処理工程にて画像処理された複数の画像を合成する合成工程と、を有することを特徴とする画像処理方法。
  9. コンピュータを、請求項1乃至7のいずれか1項に記載された画像処理装置の各手段として機能させるプログラム。
  10. コンピュータを、請求項1乃至7のいずれか1項に記載された画像処理装置の各手段として機能させるプログラムを記憶した記憶媒体。
JP2011246854A 2011-11-10 2011-11-10 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体 Expired - Fee Related JP5752011B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011246854A JP5752011B2 (ja) 2011-11-10 2011-11-10 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
US13/657,228 US9025873B2 (en) 2011-11-10 2012-10-22 Image processing apparatus and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011246854A JP5752011B2 (ja) 2011-11-10 2011-11-10 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体

Publications (2)

Publication Number Publication Date
JP2013105214A JP2013105214A (ja) 2013-05-30
JP5752011B2 true JP5752011B2 (ja) 2015-07-22

Family

ID=48624730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011246854A Expired - Fee Related JP5752011B2 (ja) 2011-11-10 2011-11-10 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体

Country Status (1)

Country Link
JP (1) JP5752011B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017085808A1 (ja) * 2015-11-18 2017-05-26 デクセリアルズ株式会社 環状オレフィン系樹脂組成物フィルム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268345A (ja) * 2000-03-17 2001-09-28 Ricoh Co Ltd 画像合成装置
JP2003087545A (ja) * 2001-09-07 2003-03-20 Canon Inc 撮像装置、画像処理装置及び方法
JP2007094623A (ja) * 2005-09-28 2007-04-12 Fujifilm Corp 画像補正方法および装置並びにプログラム
JP4783461B2 (ja) * 2007-09-25 2011-09-28 富士通株式会社 画像合成装置及び方法

Also Published As

Publication number Publication date
JP2013105214A (ja) 2013-05-30

Similar Documents

Publication Publication Date Title
WO2018176925A1 (zh) Hdr图像的生成方法及装置
US9135726B2 (en) Image generation apparatus, image generation method, and recording medium
US9747675B2 (en) Image processing system
TW201029443A (en) Method and device for generating a depth map
JP6071419B2 (ja) 画像処理装置及び画像処理方法
JP2011135563A (ja) 撮像装置および画像処理方法
CN113632134B (zh) 用于生成高动态范围图像的方法、计算机可读存储介质和hdr相机
JP2010263423A (ja) 画像処理方法および画像処理装置
JP2011095861A (ja) 画像処理装置、制御方法、及びプログラム
JP5843599B2 (ja) 画像処理装置および撮像装置並びにその方法
CN102447833B (zh) 图像处理设备和用于控制图像处理设备的方法
JP5752011B2 (ja) 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
JP2010026734A (ja) 画像処理装置およびその方法
TWI721288B (zh) 影像處理裝置、影像處理方法及程式記錄媒體
JP5836789B2 (ja) 画像処理装置およびその制御方法、およびプログラム
Korus et al. Neural imaging pipelines-the scourge or hope of forensics?
JP2017229025A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2012095342A (ja) 擬似濃淡画像生成装置及びプログラム
JP5539561B2 (ja) 画像処理装置およびその方法
JP6025555B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2014049895A (ja) 画像処理方法
JP2014039126A (ja) 画像処理装置、画像処理方法、及びプログラム
US20240155248A1 (en) Method and apparatus for generating high-dynamic-range image, and electronic device
JP5263010B2 (ja) 画像処理装置、及びプログラム
US20130121578A1 (en) Image processing apparatus and control method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150519

R151 Written notification of patent or utility model registration

Ref document number: 5752011

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees