JP3861641B2 - Image composition apparatus, image composition method, and program - Google Patents

Image composition apparatus, image composition method, and program Download PDF

Info

Publication number
JP3861641B2
JP3861641B2 JP2001281606A JP2001281606A JP3861641B2 JP 3861641 B2 JP3861641 B2 JP 3861641B2 JP 2001281606 A JP2001281606 A JP 2001281606A JP 2001281606 A JP2001281606 A JP 2001281606A JP 3861641 B2 JP3861641 B2 JP 3861641B2
Authority
JP
Japan
Prior art keywords
image
zoom
images
error
enlargement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001281606A
Other languages
Japanese (ja)
Other versions
JP2003087553A (en
Inventor
達也 飯島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2001281606A priority Critical patent/JP3861641B2/en
Publication of JP2003087553A publication Critical patent/JP2003087553A/en
Application granted granted Critical
Publication of JP3861641B2 publication Critical patent/JP3861641B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、銀塩カメラの撮影方法の一つである露光間ズームと同等の効果を得た画像を得ることができる画像合成装置、画像合成方法及びプログラムに関するものである。
【0002】
【従来の技術】
従来、銀塩カメラの撮影方法に、シャッターを開いた状態で光学ズームを行い流れるような光の軌跡を得る露光間ズームがある。露光間ズームを行うには、銀塩カメラを三脚などで固定し、シャッタースピードを長く設定し、シャッターが開いている間に光学ズームを変化させて撮影する。
【0003】
また、電子撮像装置の一種として、デジタルカメラが広く知られている。近年、デジタルカメラは高画素化が進んでおり銀塩カメラに劣らないレベルの画像が得られるようになってきている。デジタルカメラは、画像を撮影して保存する記録モードと、保存されている画像を再生する再生モードといった機能を持っている。このデジタルカメラの記録モードにおいて画像を撮影する際に銀塩カメラと同じように光学ズームを用いて同等の露光間ズームの効果を得ることができる。
【0004】
【発明が解決しようとする課題】
しかしながら、従来の銀塩カメラやデジタルカメラにおいて、露光間ズームを行うには、シャッタースピードを長く設定せざるを得ないためにカメラ本体を三脚にしっかり固定しなければならず、さらにその状態で光学ズームを変化させるといった、非常に手間のかかる作業になり手軽に撮影することができなかった。また、ズームレンズが無ければ銀塩カメラやデジタルカメラで露光間ズームを行うことは不可能であった。
【0005】
本発明は、このような従来の課題に鑑てなされたものであり、1枚の画像データに対して拡大率を連続に変化させた拡大率の異なる複数の画像データを作成し、それらを合成することにより露光間ズームと同等の効果を得た画像を得る画像合成装置、画像合成方法及びプログラムを提供することを目的とするものである。
【0006】
【課題を解決するための手段】
以上の課題を解決すべく請求項1記載の発明は、一枚の画像を元画像として、この元画像から異なる複数のサイズの画像を切り出す画像切り出し手段と、前記画像切り出し手段により切り出した複数の画像を前記元画像と同じサイズにそれぞれ拡大する画像拡大手段と、前記画像拡大手段により拡大された複数の同じサイズの画像の対応する画素の画素値を加算する画像合成手段とを備えることを特徴としている。
【0007】
以上のように、請求項1記載の発明によれば、一枚の画像から複数の大きさの画像を切り出し、切り出し前の画像と同じ大きさに拡大した後、これらの画像を合成するようにしたので、手間をかけることなく光学ズームを用いた露光間ズームと同等の画像を得ることができる。
【0008】
そして、請求項2記載の発明は、被写体を撮像する撮像手段と、前記撮像手段より発生した被写体像を画像データとして記録する記録手段と、切り出すサイズの情報が記憶されている情報記録手段とを備えることを特徴としている。
【0009】
このように、請求項2記載の発明によれば、撮影した画像を記録し、切り出すサイズの情報に基づき複数の画像を切り出すので、カメラ本体を三脚に固定する必要がなくなり、手持ちの撮影において露光間ズームと同等の効果を得られる。
【0010】
また、請求項3記載の発明は、画像合成装置における前記画像拡大手段は矩形拡大のアルゴリズムに基づき行われ、拡大前の画像を構成する画素の中から1画素を選択してその値を複製することを特徴としている。
【0011】
このように、請求項3記載の発明によれば、簡単な整数演算のみで矩形の拡大を行える矩形拡大のアルゴリズムを用いることにより、CPUに負担をかけることなく、短い時間で画像の拡大、合成を行える。
【0012】
また、請求項4記載の発明は、前記画像拡大手段は矩形拡大のアルゴリズムに基づき行われ、拡大前の画像を構成する複数の画素に重み付けを行い、その値を複製することを特徴としている。
【0013】
このように、請求項4記載の発明によれば、矩形拡大のアルゴリズムにおいて、複数の画素を重み付けによって補間処理したことにより鮮明な画像を得ることができる。
【0014】
また、請求項5記載の発明は、前記元画像は撮像素子から取り込まれているスルー画像であることを特徴としている。
【0015】
このように、請求項5記載の発明によれば、ユーザーは実際のズーム合成画像を見ながら撮影ができる。
【0016】
また、請求項6記載の発明は、一枚の画像を元画像として、この元画像から異なる複数のサイズの画像を切り出す画像切り出し処理と、前記画像切り出し手段により切り出した複数の画像を前記元画像と同じサイズにそれぞれ拡大する画像拡大処理と、前記画像拡大処理により拡大された複数の同じサイズの画像の対応する画素の画素値を加算する画像合成処理からなる画像合成方法を特徴としている。
【0017】
このように、請求項6記載の発明によれば、一枚の画像から複数の大きさの画像を切り出し、切り出し前の画像と同じ大きさに拡大した後、これらの画像を合成する方法にしたので、手間をかけることなく光学ズームを用いた露光間ズームと同等の画像を得ることができる。
【0018】
また、請求項7記載の発明は、一枚の画像を元画像として、この元画像から異なる複数のサイズの画像を切り出す画像切り出し手段と、前記画像切り出し手段により切り出した複数の画像を前記元画像と同じサイズにそれぞれ拡大する画像拡大手段と、前記画像拡大手段により拡大された複数の同じサイズの画像の対応する画素の画素値を加算する画像合成手段を実現するための画像合成プログラムを特徴としている。
【0019】
このように、請求項7記載の発明によれば、一枚の画像から複数の大きさの画像を切り出し、切り出し前の画像と同じ大きさに拡大した後、これらの画像を合成するプログラムにしたので、手間をかけることなく光学ズームを用いた露光間ズームと同等の画像を得ることができる。
【0020】
【発明の実施の形態】
以下本発明の実施の一形態について画像合成装置としてデジタルカメラ100を用いた場合の実施の形態を図面を参照して説明する。
【0021】
(第1の実施の形態)
図1にデジタルカメラ100のブロック図を示す。デジタルカメラ100は、記録モードと再生モードがある。記録モードでは、レンズ後方に配置されたCCD1によって取り込まれた画像データがCCD1を制御しているCCD制御部2と共に備わったA/D変換器(図示せず)でデジタルデータに変換され、YUVプロセッサ3に送られる。YUVプロセッサ3でカラープロセス処理され、デジタルの輝度、色差マルチプレクス信号(YUVデータ)とがメモリコントローラ5を介して画像メモリ4へと転送される。画像メモリ4はRAM等のメモリで構成される。
【0022】
同時に、スルー画像表示を行うためにYUVデータはメモリコントローラ5を介してビデオエンコーダ6にも送られ、ビデオエンコーダ6はYUVデータを周期的に読み出し、これらのデータを元にビデオ信号を発生してビデオ出力部7へ出力すると同時にビデオ信号は表示部14にも出力される。表示部14は液晶表示装置など構成される。これにより表示部14には、現在のCCD1から取り込んでいる画像情報に基づく画像が表示される。
【0023】
このように表示部14に現在画像が表示されている状態で、記録保存を行いたいタイミングでシャッターキー12を操作すると、キー処理部11はシャッターキー12の入力が処理され、CPU9は、現在のCCD1から取り込んでいるYUVデータをメモリコントローラ5を介して画像メモリ4へ転送後、直ちにCCD1からの画像メモリ4への経路を停止し、記録保存状態に遷移する。この記録保存状態では、CPU9が画像メモリ4に書き込まれているYUVデータを圧縮処理し、記録媒体10に書き込む。記録媒体10は不揮発性メモリであるフラッシュメモリなどである。不揮発性メモリは着脱可能のものでもよい。そして、YUVデータの圧縮処理及びフラッシュメモリへの圧縮データの書き込み終了に伴って、CPU9は再度CCD1から画像メモリ4への経路を起動する。
【0024】
再生モードでは、CPU9はCCD1から画像メモリ4への経路を停止する。各種キー部13の操作により記録されている画像から選択をすると、キー処理部11は入力処理をし、CPU9がフラッシュメモリから圧縮データを読み出して、伸長処理を行い、画像メモリ4にYUVデータを展開する。すると、ビデオエンコーダ6は、YUVデータを元にビデオ信号を発生し、ビデオ出力部7へ出力すると共に表示部14にも出力し表示を行う。
【0025】
データ通信部8は撮影され記録された画像や既に記録媒体10に記録されている画像を外部機器へ、例えばパソコン等へ送信又は外部機器からの画像の受信を行う。通信は無線でも有線(USBなど)でもどちらでも良い。
【0026】
各種キー部13の操作において、露光間ズームと同等の画像を得るモード、つまりズーム合成撮影モードになっていると、まず画像メモリ4に格納されたシャッターキー12が押された瞬間の画像データを元画像として複数段階にズームした複数の画像を作成する。そしてこれらの画像を合成することにより露光間ズームによって得られる画像と同等のズーム合成画像を作成する。合成された画像はビデオエンコーダ6を通してビデオ出力部7へ出力されると共に表示部14にも出力し、記録媒体10にも記録される。また、元画像はCCD1から取り込まれた画像だけでなく、既に記録媒体10に記録された画像や、データ通信部8を通して送られてきた画像でもよく、それらの画像に対してもズーム合成画像を作成することができる。
【0027】
図2にズーム合成の原理を示す。画像12はCCD1から取り込んだ元画像である。画像13は元画像の一部分を拡大処理した1段階ズームアップの画像である。画像14は1段階ズームアップの画像を拡大処理した2段階ズームアップの画像である。画像15は2段階ズームアップの画像を拡大処理した3段階ズームアップの画像である。これらを画像合成すると画像16のようなズーム合成画像を得ることができる。画像16で滑らかなズーム合成画像を得るためには画像12〜画像15のズームアップ画像の各ズーム比を飛び飛びの値を取ることなく、できるだけ細かく変化するような値を取る必要がある。
【0028】
次に滑らかなズーム比を得るためのズーム合成に必要なアルゴリズムとなる矩形拡大アルゴリズムについて図3(A)〜図5(B)で説明する。図3(A)及び図3(B)はズーム合成に必要な矩形拡大アルゴリズムの基礎となる線分発生アルゴリズムである。線分発生アルゴリズムは(X0,Y0)から(XN,YN)に線分を引く場合に線分を構成するドットをどの座標に置くかを決めるものである。
【0029】
図3(A)に示すように理想的な直線は(X0,Y0)と(XN,YN)を単純に結んだ直線であるが、デジタル画像においては点を配置できる座標は無限には存在しないので、理想的な直線に最も近い座標上に点を配置していく。始点は(X0,Y0)であるが、ここは元々座標が存在するのでX0の時のY座標はY0になる。以下、Xが1増える毎に理想的な直線でYは(YN−Y0)/(XN−X0)ずつ増えることになる。X1の時のY座標は理想的にはY0+(YN−Y0)/(XN−X0)であるが図3(A)の×印で示すように最も近いY1が選択される。次にX0=0、XN=16、Y0=0、YN=10として座標が決定される様子を示す。Xが1増えたときのYの増加分は(YN−Y0)/(XN−X0)=10/16=0.625となる。また、(X0,Y0)においてY座標からの誤差(Yの誤差)0である。X1の時のYの誤差は、0+0.625=0.625である。Yの誤差が0.5よりも大きいか否かによってY座標が決定される。この場合0.5よりも大きいのでY座標は1増えて1(Y1)になる。Y座標が1増えたので、この時Yの誤差から1を減算しておくことによりYの誤差は0.625−1=−0.375になる。X2の時のYの誤差は、−0.375+0.625=0.25になる。Yの誤差は0.5以下なのでY座標は1(Y1)のままである。Yの誤差もそのままになる。以下同様に、Yの誤差に0.625を加算して0.5より大きいか否かを判別していくと、図3(A)で示すような直線(×印)が得られる。
【0030】
図3(B)のフローチャートは、上記で説明した動作をコンピュータで処理しやすくするために整数演算のみで実現したものである。上記での説明では、Yの誤差の初期値を0として、Yの増加分を加えたときに0.5より大きいか否かを判別していたが、まず誤差の初期値を−0.5にして、Yの増加分を加えたときに0より大きいか否かによって判別するようにした。ΔY=YN−Y0、ΔX=XN−X0とすると、誤差の初期値は−0.5で誤差はEi+1=E+ΔY/ΔX>0で判別する。(この条件を満たしていればEi+1=E−1)次に誤差の判別を誤差を2ΔX倍したもので行うように変更する。すると、誤差の初期値は−ΔXになり誤差はEi+1*2ΔX=E*2ΔX+2ΔY>0で判別することになる。(この条件を満たしていればEi+1=E−2ΔX)
【0031】
以上のアルゴリズムの動作を図3(B)のフローチャートに沿って説明する。まず、Xの初期座標をX0、Yの初期座標をY0に設定する(S1)。次に誤差Eの初期値を−ΔX=−(XN−X0)に設定する(S2)。座標(X,Y)に点を描き(S3)、誤差Eに2ΔY=2(YN−Y0)を加算し(S4)、誤差Eが0よりも大きいか否かを判別し、誤差Eが0以下の場合はそのまま抜け、誤差Eが0よりも大きければ(S5)誤差Eから2ΔXを減算し(S6)、Y座標をインクリメントする(S7)。次にX座標をインクリメントする(S8)。X座標がXNを超えるまで(S9)上記の処理を繰り返す。
【0032】
図4(A)〜図4(C)には図3(A)及び図3(B)に示した線分発生アルゴリズムを用いて線分を伸張することができる線分伸張アルゴリズムを示す。図4(A)に示すようにS0からSNのドットからなる線分SをD0からDNのドットからなる線分Dに伸張する。その原理は、図3(A)のX座標を伸張先の線分D、Y座標を元の線分Sに置き換えればよい(図4(B))。
【0033】
線分伸張アルゴリズムを図4(C)のフローチャートに沿って説明する。まず、伸張先の線分Dの初期画素をD0、伸張元の線分Sの初期画素をS0に設定する(S10)。線分Sの誤差Eの初期値を−ΔD=(DN−D0)に設定する(S11)。線分SのドットS(初期状態はS0。)を線分DのドットD(初期状態はD0。)にコピーする(S12)。誤差Eに2ΔS=2(SN−S0)を加算して(S13)、誤差Eが0よりも大きいか否かを判別し、誤差Eが0以下ならばそのまま抜け、誤差Eが0よりも大きければ(S14)誤差Eから2ΔDを減算し(S15)同時に伸張元の線分Sのドットをインクリメント(次のドットを選択。)する(S16)。次に伸張元のDのドットをインクリメント(次のドットを選択。)する(S17)。DのドットがDNを超えるまで(S18)、全てのドットの処理が終了するまで上記の処理を繰り返す。
【0034】
図5(A)及び図5(B)に図4(A)〜図4(C)で示した線分伸張アルゴリズムを応用して2次元に拡張すると矩形の拡大ができる矩形拡大アルゴリズムを示す。図5(A)に示すように横XS0〜XSN、縦YS0〜YSNからなる矩形Sを横XD0〜XDN、縦YD0〜YDNからなる矩形Dに拡大する。
【0035】
縦方向ではラインYS0〜YSNをラインYD0〜YDNに水増しするために図4(A)〜図4(C)で示した線分伸張アルゴリズムを使う。ラインYD0にはラインYS0が、ラインYD1とラインYD2にはラインYS1がコピーされる。ラインが決定するとライン内のドットは図4(A)〜図4(C)示した線分伸張アルゴリズムを用いて伸張できる。
【0036】
上記に示す矩形拡大アルゴリズムを図5(B)のフローチャートで説明する。網掛け以外の部分(S19、S20、S30〜S35)がラインを水増しする処理であり、網掛け部分(S21〜S29)がライン内のドットを伸張する処理である。まず、ラインを水増しするために矩形Sの初期ラインをYS0、矩形Dの初期ラインをYD0に設定する(S19)。ラインを水増しするための誤差EYの初期値を−ΔYD=−(YDN−YD0)に設定する(S20)。この後にライン内のドットの伸張を行う(網掛け部分。)。この網掛け部分(S21〜S29)は図4(C)で説明したフローチャートS10〜S18に相当し同じであるため説明は省略する。次に誤差EYに2ΔYS=2(YSN−YS0)を加算する(S30)。誤差EYが0よりも大きいか否かを判別し、誤差EYが0以下ならばそのまま抜け、誤差EYが0よりも大きければ(S31)誤差EYから2ΔYDを減算し(S32)、同時に転送元のラインYSをインクリメント(次のラインを選択。)する(S33)。次に転送先のラインYDのをインクリメント(次のラインを選択。)する(S34)。YDのラインがYDNを超えるまで(S35)、全てのラインの処理が終了するまで上記の処理を繰り返す。
【0037】
この矩形拡大アルゴリズムを用いれば、任意の大きさの矩形を任意の大きさの矩形に拡大することができるため、元画像に対してズーム比が細かく変化する複数の画像を用意することができる。また、簡単な整数演算のみで矩形の拡大を行うことができるのでCPU9に負担をかけることなく、短い時間でズーム合成画像を得ることができる。
【0038】
次に、図6(A)に複数のサイズの画像を切り出すための切り出し画像の情報テーブルを示す。ズーム比を連続して変化させる場合に切り出す元画像の左上の座標と画像サイズをまとめたテーブルである。図6(A)では元画像の大きさは1280×960である。元画像を1段階ズームアップするときに切り出す画像の左上座標は(4,3)であり、画像サイズは1272×954である。また、2段階ズームアップするときは切り出す画像の左上座標は(8,6)である。同様に複数段階のズームアップに対する左上座標と画像サイズがテーブルになっている。切り出した各画像は図5(A)及び図5(B)で示した矩形拡大アルゴリズムによってそれぞれ1280×960の画像に拡大される。
【0039】
図6(B)には切り出した画像の矩形拡大されたイメージを示す。切り出した画像の左上座標は(320,240)で画像サイズが640×480である場合、矩形拡大アルゴリズムによって1280×960の画像に拡大された場合を示す。
【0040】
図6(B)に示すように画像の中心をズームアップして複数のズーム画像を得ていたが、画像の中心から任意の方向に一定間隔でズームアップの中心を移動させながらズーム画像を得ることも可能である。また、元画像から複数のズーム画像を作成していたが、前回切り出して矩形拡大した画像からズーム画像を作成しても良い。この場合切り出し画像の左上の座標と画像サイズを一定にすることができるので、図6(A)に示すような切り出し画像の情報テーブルが不必要になる。
【0041】
さらに、滑らかなズーム合成画像を得るために切り出し画像の情報テーブルの切り出し画像サイズを細かく設定していたが、切り出し画像サイズを粗く設定することにより、光学ズームでは得ることのできない全く新しいズーム合成画像を得ることができる。
【0042】
図7には拡大された画像の合成方法を説明する。画像データはRGB3つの成分を持っており複数の画素から構成され、RGBの各成分毎に0〜255の値(8bit)を持っている。図7ではRGB成分の内、1つの成分の合成について説明する。画像17と画像18は合成の対象となる、ある成分の画像であり、画像19は合成後のある成分の画像である。左上の画素に着目すると、画像17は11で画像18は8であり、単純に加算すると画像19では19になる。その右隣の画素では画像17は9で画像18は7であり、単純に加算すると画像19では16になる。図7にはないが、加算した結果が255を超えた場合は255以上の値は削り255にする。RGBの各成分についても同様に合成することが可能である。
【0043】
図8にズーム合成処理のフローチャートを示す。フローチャートにはないが、最初に目的のズームアップの大きさを各種キー部13により×5、×10、×20というように指定しておく。ズーム合成撮影モードでシャッターキー12が押されて撮影が行われたときは、まずCCD1から取り込んだ画像を画像メモリ4の一部を元画像バッファとして使用し、そこに格納する(S36)。元画像バッファにはズーム合成処理中に、撮影が行われると、CCD1から取り込んだ画像が常に格納される。これらの画像を元画像として複数のズーム画像を作成する。同時に画像メモリ4の一部を合成画像バッファとして使用し合成画像バッファにも取り込んだ画像を格納する(初期画像の設定)(S37)。合成画像バッファは、ズーム合成処理中に前回のズーム比までの合成画像が格納されていて、新たなズーム比の画像が作成される度に合成画像バッファの画像に合成されていく。合成画像バッファに初期画像の設定が終わると、図6(A)で説明したテーブルに従って、元画像バッファの画像を切り出す(S38)。切り出した画像は、矩形拡大処理を行って元画像と同じサイズに拡大する(S39)。矩形拡大した画像は、合成画像バッファの画像と合成され、再び合成画像バッファに格納される(S40)。目的の大きさまでのズームアップが完了するまでS38からの処理を繰り返し行う(S41)。目的の大きさまでのズームアップが完了したらその画像はズーム合成画像として記録媒体10に保存する。
【0044】
以上のように撮影した1枚の元画像から連続的に大きさの変化する複数の矩形を切り出し、切り出した複数の矩形を元画像と同じ大きさに矩形拡大した後、これらの合成画像を得るようにしたので、簡単に光学ズームを用いた露光間ズームで撮影した画像と同等の画像を得ることが可能である。また、1枚普通に撮影すればいいので光学ズームを用いるときのようにカメラを三脚で固定する必要がなく、カメラを手で持って撮影することができる。
【0045】
(第2の実施の形態)
今まで説明したズーム合成処理の矩形拡大アルゴリズムは、拡大後の画像を構成する任意の画素は拡大前の画像を構成する画素の中から理想位置に最も近い1画素を選択してその値をそのままコピーする方法を用いた。次に、拡大後の画像を構成する任意の画素は、拡大前の画像を構成する理想位置周辺の複数の画素に重み付けを行った後、その値をコピーする方法について説明する。図9(A)〜図10(B)において、重み付けを用いた矩形拡大アルゴリズムを示す。なお、ズーム合成処理での矩形拡大アルゴリズム以外のデジタルカメラ100の動作及び切り出し画像の情報テーブル、ズーム合成処理等はすでに説明した第1の実施の形態と同じなので説明は省略する。
【0046】
図9(A)〜図9(C)は重み付けを用いた線分伸張アルゴリズムである。図9(A)に示すようにS0からSNの(n+1)ドットからなる線分Sを、重み付けを用いてD0からDMの(m+1)ドットからなる線分Dに伸張する。図9(B)に示すように、まず線分Dの始点D0には線分Sの始点S0がそのままコピーされる。次に線分DがD0からD1に1増えると、理想的な線分Sの画素はS0(△印)とS1(▽印)の間のS0からn/mの位置(○印)になる。しかし、実際にはこの位置に画素は存在しないので画素S1と画素S2の値から算出する。S0からn/mの位置でS1から(m−n)/mの位置になるので、画素D1の値はD1=S0*(m−n)/m+S1*n/mの式で求められる。
【0047】
さらに、線分DがD1からD2に1増えると、理想的な線分Sの画素はS0から2*n/mの位置にあることになる。このとき図9(B)で示すように2*n/mが1以上のときには、補間に使われる線分Sの画素はS1(△印)とS2(▽印)になり、理想的な線分Sの画素はS1から(2*n/m)−1の位置(○印)にあると言える。画素D2の値はD2=S1*2(m−n)/m+S2*(2n−m)/mの式で求められる。
【0048】
これらを一般式で表すと、補間に使われる線分Sの画素をS(△印)、S´(▽印)とすれば画素S(△印)と理想位置(○印)との誤差は、誤差の初期値は0で誤差はEi+1=E+n/m≧1で判別する。(この条件を満たしていればEi+1=E−1)Ei+1=E+n/m≧1を満たしていれば、Eから1を減算すると共に補間に使われる画素S、S´を更新する。また、S(△印)とS´(▽印)から画素Dの値はD=S*(1−E)+S´*Eとなる。
【0049】
図9(C)のフローチャートは、上記で説明した動作をコンピュータで処理しやすくするために、誤差の判別の部分を整数演算で実現したものである。上記での説明では、誤差の初期値を0として、n/mを加えたときに1以上か否かを判別していたが、まず誤差の初期値を−1にして、n/mを加えたときに0以上か否かによって判別するようにした。誤差の初期値は−1で誤差はEi+1=E+n/m≧0で判別する。(この条件を満たしていればEi+1=E−1)そしてD=S*(−E)+S´*(E+1)となる。次に誤差の判別を誤差をm倍したもので行うように変更する。すると、誤差の初期値は−mになり誤差はEi+1*m=E*m+n≧0で判別することになる。(この条件を満たしていればEi+1=E−m)そしてD=S*(−E)/m+S´*(E+m)/mとなる。
【0050】
以上のアルゴリズムの動作を詳しく図9(C)のフローチャートに沿って説明する。まず、伸張先の線分Dの画素DをD0、伸張元の線分Sの補間に使用する1つ目の画素SをS0、補間に使用する2つ目の画素S´をS1に初期設定する(S42)。次に線分Sの誤差Eの初期値を−mに設定する(S43)。D=S*(−E)/m+S´*(E+m)/mをRGB各成分毎に用いて転送先の画素DのRGB値を求める(S44)。誤差Eにnを加算して(S45)、誤差Eが0よりも大きいか否かを判別し、誤差Eが0以下の場合はそのまま抜け、誤差Eが0よりも大きければ(S46)誤差Eからmを減算し(S47)、同時に伸張元の線分Sの画素S、S´をインクリメント(次の画素を選択)する(S48)。次に伸張先の線分Dの画素Dをインクリメント(次の画素を選択)する(S49)。Dの画素がDMを超えるまで(S50)、全ての画素Dの処理が終了するまで上記の処理を繰り返す。
【0051】
次に、図10(A)及び図10(B)に、図9(A)〜図9(C)で示した重み付けを用いた線分伸張アルゴリズムを使用して矩形の拡大ができる矩形拡大アルゴリズムを示す。図10(A)に示すように横(nx+1)ドット、縦(ny+1)ドットからなる矩形を横(mx+1)ドット、縦(my+1)ドットからなる矩形に拡大する。横(X)方向、縦(Y)方向ともに、図9(A)〜図9(C)で説明した線分伸張アルゴリズムを用いて、伸張元の矩形Sの4画素から伸張先の矩形Dの1画素の値を計算する。
【0052】
上記の矩形拡大アルゴリズムを図10(B)のフローチャートに沿って説明する。まず、伸張先の矩形Dの画素DのY座標YDをYD0、伸張元の矩形Sの補間に使用する1つ目のY座標YSをYS0、補間に使用する2つ目のY座標YS´をYS1に初期設定する(S51)。Y方向の誤差EYの初期値を−myに設定する(S52)。この後にX方向の処理を行う。(網掛け部分)この網掛け部分(S53〜S61)はY座標が固定のまま、X座標のみが更新される。まず、伸張先の矩形Dの画像DのX座標XDをXD0、伸張元の矩形Sの補間に使用する1つ目のX座標XSをXS0、補間に使用する2つ目のX座標XS´をXS1に初期設定する(S53)。次にX方向の誤差EXの初期値を−mxに設定する(S54)。この時点の2つのY座標YS、YS´と2つのX座標XS、XS´から補間に使用される矩形Sの4画素(XS,YS)(XS´,YS)(XS,YS´)(XS´,YS´)が決まる。補間の方法は図11で説明するが、この4点の値から伸張先の矩形D上の1点(XD,YD)の画素のRGB値がそれぞれ求められる(S55)。次に誤差EXにnxを加算する(S56)。
誤差EXが0よりも大きいか否かを判別し、誤差EXが0以下ならばそのまま抜け、誤差EXが0よりも大きければ(S57)誤差EXからmxを減算し(S58)同時に伸張元のX座標XS、XS´をインクリメントする(S59)。次に伸張先のX座標XDをインクリメント(次の画素を選択)する(S60)。XDの画素がXDMを超えるまで(S61)、全てのX座標の処理が終了するまで上記の処理を繰り返す。次に誤差EYにnyを加算する(S62)。誤差EYが0よりも大きいか否かを判別し、誤差EYが0以下ならばそのまま抜け、誤差EYが0よりも大きければ(S63)誤差EYからmyを減算し(S64)同時に伸張元のY座標YS、YS´をインクリメントする(S65)。次に伸張先のY座標YDをインクリメント(次のラインを選択)する(S66)。YDのラインがYDMを超えるまで(S67)、全てのY座標の処理が終了するまで上記の処理を繰り返す。
【0053】
図11では重み付けによる画像補間、伸張元の4画素から伸張先の1画素を補間する方法を説明する。図10(A)及び図10(B)に示した矩形拡大アルゴリズムにより、伸張元の4画素S1(XS,YS)、S2(XS´,YS)、S3(XS,YS´)、S4(XS´,YS´)が決まる。さらに、X方向、Y方向とも重み付けの値が、X方向はS*(−EX)/mx+S´*(EX+mx)/mxであり、Y方向はS*(−EY)/my+S´*(EY+my)/myなので、求めるRGB値は((S1*(−EX)/mx+S2*(EX+mx)/mx)*(−EY)/my)+((S3*(−EX)/mx+S4*(EX+mx)/mx)*(EY+my)/my)で求められる。RGBそれぞれに対してこの式から算出すればよい。
【0054】
このように伸張元の画像のうち4画素に対して重み付けによる補間を行って、伸張後の画像の画素の値を決定しているので、鮮明な画像を得ることができる。また、矩形の拡大方法として、縦方向、横方向ともに重み付けによる補間を行ったが、縦方向あるいは横方向のいずれか一方のみを重み付けによる補間を行い、残りの一方は図5(A)及び図5(B)で示した通常の矩形拡大アルゴリズムを用いてもよい。これにより、ある程度の画質は保ちつつ、CPU9の負担を軽くすることができる。
【0055】
(第3の実施の形態)
次に、図12に図5(A)及び図5(B)で示した矩形拡大アルゴリズムと図10(A)及び図10(B)で示した重み付けによる矩形拡大アルゴリズムを使い分けて行う、ズーム合成処理を説明する。
【0056】
図12のフローチャートにはないが、最初に目的のズームアップの大きさを各種キー部13により×5、×10、×20というように指定しておく。ズーム合成撮影モードでシャッターキー12が押されて撮影が行われたときは、まずCCD1より取り込んだ画像を画像メモリ4の一部を元画像バッファとして使用し、そこに格納する(S68)。元画像バッファにはズーム合成処理中に、撮影が行われると、CCD1から取り込んだ画像が常に格納される。これらの画像を元画像として複数のズーム画像を作成する。同時に画像メモリ4の一部を合成画像バッファとして使用し、合成画像バッファにも取り込んだ画像を格納する(S69)。次に元画像バッファの画像を図6(A)のテーブルに従って切り出す(S70)。その画像がズーム比の最も小さな画像(最初の画像)あるいはズーム比の最も大きな画像(最後の画像)ならば(S71)、図10(A)及び図10(B)で示した重み付けによる矩形拡大アルゴリズムで処理をし(S73)、それ以外の画像ならば重み付けを行わない図5(A)及び図5(B)で示した矩形拡大アルゴリズムで処理をする(S72)。矩形拡大した画像を合成画像バッファの画像と合成する(S74)。目的の大きさまでズームアップが完了するまでS70からの処理を繰り返す(S75)。目的の大きさまでのズームアップが完了したらその画像はズーム合成画像として記録媒体10に保存する。
【0057】
以上のように2種類の矩形拡大アルゴリズムを使い分けることによりズーム開始とズーム終了の両端の画像は鮮明になり、それらの間を埋める動的な画像においてはCPUの負担を軽くすることが可能となる。また、ズーム開始とズーム終了の画像に加え、間を構成するズーム画像のうち一定間隔毎に重み付けを行う矩形拡大アルゴリズムを用いたズーム画像を挿入することにより、ズーム合成画像の画質を高めることも可能である。
【0058】
(第4の実施の形態)
上述した第1の実施の形態〜第3の実施の形態においては、ズーム合成処理はシャッターキー12が押されて取り込まれた画像を元画像として合成処理を行ったが、第4の実施の形態として、シャッターキー12が押される以前のスルー画像を元画像としてズーム合成処理を行う例を示す。デジタルカメラ100の動作及び切り出し画像の情報テーブル、矩形拡大アルゴリズムはすでに説明した第1の実施の形態〜第3の実施の形態と同じなので説明は省略する。
【0059】
この実施の形態では、最初に目的のズームアップの大きさを各種キー部13により×5、×10、×20というように指定しておく。ズーム合成撮影モードになっていると、CCD1から取り入れられた画像データが表示部14でスルー画像表示されている状態でズーム合成処理が行われる。すなわち、前述した実施の形態1〜3でシャッターキー12が操作された後、撮像し記憶する処理の段階で行なっていたズーム合成処理と同様の処理が、シャッターキー12が操作される以前の撮像準備状態で随時行われ、この結果、ズーム合成された画像は随時ビデオ出力部7へ出力されると同時に表示部14に出力される。これによって、撮像準備状態の時に常に表示部14にはズーム合成画像が表示され、ユーザはズーム合成された撮影したい画像を表示部14で確認しつつシャッターキー12を押す。シャッターキー12が押されるとその時、表示部14に表示されているズーム合成画像が記録媒体10に保存される。もちろん、この際に前述した実施の形態1〜3と同様にシャッターキー12が押されたことにより取り込まれた画像を元画像として合成処理を行うようにしてもよい。
【0060】
以上のように、シャッターキー12を押す前からスルー画像表示の時点で、ズーム合成処理を行い表示部14に表示するので、ユーザーはズーム合成画像を見ながら撮影ができる。したがって、ズーム合成画像を見た時点で撮影するかどうか選択ができるため、無駄な撮影記録を回避し、意図した画像が容易に得られる。
【0061】
【発明の効果】
以上のように、請求項1記載の発明によれば、一枚の画像から複数の大きさの画像を切り出し、切り出し前の画像と同じ大きさに拡大した後、これらの画像を合成するようにしたので、手間をかけることなく光学ズームを用いた露光間ズームと同等の画像を得ることができる。
【0062】
そして、請求項2記載の発明によれば、撮影した画像を記録し、切り出すサイズの情報に基づき複数の画像を切り出すので、カメラ本体を三脚に固定する必要がなくなり、手持ちの撮影において露光間ズームと同等の効果を得られる。
【0063】
また、請求項3記載の発明によれば、簡単な整数演算のみで矩形の拡大を行える矩形拡大のアルゴリズムを用いることにより、CPUに負担をかけることなく、短い時間で画像の拡大、合成を行える。
【0064】
また、請求項4記載の発明によれば、矩形拡大のアルゴリズムにおいて、複数の画素を重み付けによって補間処理したことにより鮮明な画像を得ることができる。
【0065】
また、請求項5記載の発明によれば、元画像は撮像素子から取り込まれているスルー画像なので、実際のズーム合成画像を見ながら撮影ができる。
【0066】
また、請求項6記載の発明によれば、一枚の画像から複数の大きさの画像を切り出し、切り出し前の画像と同じ大きさに拡大した後、これらの画像を合成する方法にしたので、手間をかけることなく光学ズームを用いた露光間ズームと同等の画像を得ることができる。
【0067】
また、請求項7記載の発明によれば、一枚の画像から複数の大きさの画像を切り出し、切り出し前の画像と同じ大きさに拡大した後、これらの画像を合成するプログラムにしたので、手間をかけることなく光学ズームを用いた露光間ズームと同等の画像を得ることができる。
【図面の簡単な説明】
【図1】本発明装置のブロック図である。
【図2】ズーム合成の原理を示した図である。
【図3】(A)は線分発生アルゴリズムを示した座標図である。
(B)は線分発生アルゴリズムを示したフローチャートである。
【図4】(A)は線分伸張アルゴリズムを示した構造図である。
(B)は線分伸張アルゴリズムを示した座標図である。
(C)は分伸張アルゴリズムを示したフローチャートである。
【図5】(A)は矩形拡大アルゴリズムを示した構造図である。
(B)は矩形拡大アルゴリズムを示したフローチャートである。
【図6】(A)は切り出し画像の情報テーブルを示した図である。
(B)は切り出し画像のイメージを示した図である。
【図7】拡大後の画像の合成方法を示した図である。
【図8】ズーム合成処理のフローチャートである。
【図9】(A)は重み付けによる線分伸張アルゴリズムを示した構造図である。
(B)は重み付けによる線分伸張アルゴリズムを示した座標図である。
(C)は重み付けによる線分伸張アルゴリズムを示したフローチャートである。
【図10】(A)は重み付けによる矩形拡大アルゴリズムを示した構造図である。
(B)は重み付けによる矩形拡大アルゴリズムを示したフローチャートである。
【図11】重み付けによる画像補間を示した図である。
【図12】2種類の矩形拡大アルゴリズムによるズーム合成処理のフローチャートである。
【符号の説明】
1 CCD
2 CCD制御部
3 YUVプロセッサ
4 画像メモリ
5 メモリコントローラ
6 ビデオエンコーダ
7 ビデオ出力部
8 データ通信部
9 CPU
10 記録媒体
11 キー処理部
100 デジタルカメラ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image synthesizing apparatus, an image synthesizing method, and a program capable of obtaining an image having an effect equivalent to that of an inter-exposure zoom which is one of photographing methods of a silver salt camera.
[0002]
[Prior art]
Conventionally, as a photographing method of a silver salt camera, there is an inter-exposure zoom in which an optical zoom is performed with a shutter opened to obtain a flowing light trajectory. To zoom between exposures, fix a silver salt camera with a tripod, set a long shutter speed, and change the optical zoom while the shutter is open.
[0003]
A digital camera is widely known as a kind of electronic imaging apparatus. In recent years, the number of pixels of a digital camera has been increased, and an image at a level comparable to that of a silver halide camera can be obtained. A digital camera has functions such as a recording mode for capturing and storing images, and a playback mode for reproducing stored images. When taking an image in the recording mode of the digital camera, the same effect of zooming between exposures can be obtained by using an optical zoom in the same manner as a silver halide camera.
[0004]
[Problems to be solved by the invention]
However, in conventional silver halide cameras and digital cameras, zooming between exposures requires a long shutter speed, so the camera body must be firmly fixed to a tripod and optical It was very time consuming to change the zoom, and it was not possible to shoot easily. Also, without a zoom lens, it was impossible to zoom between exposures with a silver salt camera or a digital camera.
[0005]
The present invention has been made in view of such a conventional problem. A plurality of pieces of image data having different enlargement ratios are generated by continuously changing the enlargement ratio for one piece of image data, and these are synthesized. Accordingly, an object of the present invention is to provide an image composition device, an image composition method, and a program for obtaining an image that has the same effect as the zoom between exposures.
[0006]
[Means for Solving the Problems]
In order to solve the above problems, the invention according to claim 1 is characterized in that an image cutout unit that cuts out images of a plurality of different sizes from the original image, and a plurality of pieces cut out by the image cutout unit. An image enlarging means for enlarging each image to the same size as the original image, and an image enlarged by the image enlarging means Add pixel values of corresponding pixels of multiple images of the same size And image synthesizing means.
[0007]
As described above, according to the first aspect of the present invention, an image having a plurality of sizes is cut out from a single image, enlarged to the same size as the image before cutting, and then combined. Therefore, an image equivalent to the zoom between exposures using the optical zoom can be obtained without taking time and effort.
[0008]
According to a second aspect of the present invention, there is provided an imaging unit that images a subject, a recording unit that records a subject image generated by the imaging unit as image data, and an information recording unit that stores information about a size to be cut out. It is characterized by providing.
[0009]
Thus, according to the second aspect of the present invention, since the photographed image is recorded and a plurality of images are cut out based on the size information to be cut out, there is no need to fix the camera body to a tripod, and exposure in hand-held shooting The same effect as zoom can be obtained.
[0010]
According to a third aspect of the present invention, the image enlargement means in the image composition apparatus is performed based on a rectangular enlargement algorithm, and selects one pixel from pixels constituting the image before enlargement and duplicates the value. It is characterized by that.
[0011]
Thus, according to the third aspect of the present invention, by using a rectangular enlargement algorithm that can enlarge a rectangle with only a simple integer operation, it is possible to enlarge and synthesize an image in a short time without imposing a burden on the CPU. Can be done.
[0012]
According to a fourth aspect of the present invention, the image enlarging means is performed based on a rectangular enlarging algorithm, weights a plurality of pixels constituting the image before enlargement, and duplicates the values.
[0013]
Thus, according to the fourth aspect of the present invention, a clear image can be obtained by interpolating a plurality of pixels by weighting in the rectangular enlargement algorithm.
[0014]
The invention according to claim 5 is characterized in that the original image is a through image taken from an image sensor.
[0015]
Thus, according to the fifth aspect of the invention, the user can take a picture while viewing the actual zoom composite image.
[0016]
According to a sixth aspect of the present invention, there is provided an image cutout process for cutting out images of a plurality of different sizes from the original image, and a plurality of images cut out by the image cutout means as the original image. The image was enlarged by the image enlargement process and the image enlargement process. Add pixel values of corresponding pixels of multiple images of the same size It is characterized by an image composition method comprising image composition processing.
[0017]
As described above, according to the invention described in claim 6, after a plurality of sizes of images are cut out from one image and enlarged to the same size as the image before cutting out, these images are combined. Therefore, an image equivalent to the exposure zoom using the optical zoom can be obtained without taking time and effort.
[0018]
According to the seventh aspect of the present invention, there is provided an image cutout unit that cuts out images of a plurality of different sizes from the original image, and a plurality of images cut out by the image cutout unit as the original image. And image enlargement means for enlarging each to the same size, and enlarged by the image enlargement means Add pixel values of corresponding pixels of multiple images of the same size It is characterized by an image composition program for realizing an image composition means.
[0019]
Thus, according to the seventh aspect of the present invention, after cutting out images of a plurality of sizes from a single image and enlarging them to the same size as the image before cutting out, a program for combining these images is made. Therefore, an image equivalent to the exposure zoom using the optical zoom can be obtained without taking time and effort.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention when a digital camera 100 is used as an image composition apparatus will be described with reference to the drawings.
[0021]
(First embodiment)
FIG. 1 shows a block diagram of the digital camera 100. The digital camera 100 has a recording mode and a playback mode. In the recording mode, the image data captured by the CCD 1 disposed behind the lens is converted into digital data by an A / D converter (not shown) provided with the CCD control unit 2 that controls the CCD 1, and is converted into a YUV processor. Sent to 3. A color process is performed by the YUV processor 3, and digital luminance and color difference multiplexed signals (YUV data) are transferred to the image memory 4 via the memory controller 5. The image memory 4 is composed of a memory such as a RAM.
[0022]
At the same time, the YUV data is also sent to the video encoder 6 via the memory controller 5 to display the through image, and the video encoder 6 periodically reads the YUV data and generates a video signal based on these data. Simultaneously with the output to the video output unit 7, the video signal is also output to the display unit 14. The display unit 14 includes a liquid crystal display device. As a result, an image based on the image information captured from the current CCD 1 is displayed on the display unit 14.
[0023]
In this way, when the shutter key 12 is operated at the timing at which recording and storage is desired while the image is currently displayed on the display unit 14, the key processing unit 11 processes the input of the shutter key 12, and the CPU 9 After the YUV data fetched from the CCD 1 is transferred to the image memory 4 via the memory controller 5, the path from the CCD 1 to the image memory 4 is immediately stopped and the recording and storage state is entered. In this recording / saving state, the CPU 9 compresses the YUV data written in the image memory 4 and writes it in the recording medium 10. The recording medium 10 is a flash memory that is a nonvolatile memory. The nonvolatile memory may be removable. Then, along with the compression processing of the YUV data and the writing of the compressed data to the flash memory, the CPU 9 activates the path from the CCD 1 to the image memory 4 again.
[0024]
In the reproduction mode, the CPU 9 stops the path from the CCD 1 to the image memory 4. When a selection is made from images recorded by operating the various key sections 13, the key processing section 11 performs input processing, the CPU 9 reads compressed data from the flash memory, performs decompression processing, and stores YUV data in the image memory 4. expand. Then, the video encoder 6 generates a video signal based on the YUV data and outputs it to the video output unit 7 and also to the display unit 14 for display.
[0025]
The data communication unit 8 transmits a captured and recorded image or an image already recorded on the recording medium 10 to an external device, such as a personal computer, or receives an image from the external device. Communication may be either wireless or wired (such as USB).
[0026]
When the operation of various key units 13 is in a mode for obtaining an image equivalent to the zoom during exposure, that is, in the zoom composite shooting mode, first, image data at the moment when the shutter key 12 stored in the image memory 4 is pressed is obtained. A plurality of images zoomed in a plurality of stages are created as original images. Then, by combining these images, a zoom composite image equivalent to the image obtained by the zoom between exposures is created. The synthesized image is output to the video output unit 7 through the video encoder 6, is output to the display unit 14, and is also recorded on the recording medium 10. Further, the original image is not limited to the image captured from the CCD 1 but may be an image already recorded on the recording medium 10 or an image sent through the data communication unit 8. Can be created.
[0027]
FIG. 2 shows the principle of zoom composition. An image 12 is an original image taken from the CCD 1. The image 13 is a one-stage zoom-up image obtained by enlarging a part of the original image. The image 14 is a two-stage zoom-up image obtained by enlarging the one-stage zoom-up image. The image 15 is a three-stage zoom-up image obtained by enlarging the two-stage zoom-up image. When these are combined, a zoom combined image like the image 16 can be obtained. In order to obtain a smooth zoom composite image with the image 16, it is necessary to take values that change as finely as possible without taking the values of the zoom ratios of the zoomed-up images of the images 12 to 15.
[0028]
Next, a rectangular enlargement algorithm, which is an algorithm necessary for zoom composition for obtaining a smooth zoom ratio, will be described with reference to FIGS. 3 (A) to 5 (B). FIGS. 3A and 3B are line segment generation algorithms that are the basis of a rectangular enlargement algorithm necessary for zoom composition. The line segment generation algorithm determines the coordinates at which the dots constituting the line segment are placed when the line segment is drawn from (X0, Y0) to (XN, YN).
[0029]
As shown in FIG. 3A, an ideal straight line is a straight line simply connecting (X0, Y0) and (XN, YN). However, in a digital image, there are infinite coordinates where points can be arranged. Therefore, the points are arranged on the coordinates closest to the ideal straight line. The starting point is (X0, Y0), but since the coordinates originally exist here, the Y coordinate at X0 is Y0. Hereinafter, Y increases by (YN−Y0) / (XN−X0) by an ideal straight line every time X increases by 1. The Y coordinate at X1 is ideally Y0 + (YN-Y0) / (XN-X0), but the closest Y1 is selected as shown by the x mark in FIG. Next, how the coordinates are determined with X0 = 0, XN = 16, Y0 = 0, and YN = 10 is shown. The increment of Y when X increases by 1 is (YN−Y0) / (XN−X0) = 10/16 = 0.625. Further, the error (Y error) from the Y coordinate is 0 at (X0, Y0). The error of Y at X1 is 0 + 0.625 = 0.625. The Y coordinate is determined by whether or not the error of Y is greater than 0.5. In this case, since it is larger than 0.5, the Y coordinate increases by 1 to 1 (Y1). Since the Y coordinate has increased by 1, by subtracting 1 from the Y error at this time, the Y error becomes 0.625-1 = −0.375. The error of Y at X2 is −0.375 + 0.625 = 0.25. Since the error of Y is 0.5 or less, the Y coordinate remains 1 (Y1). The error of Y remains as it is. Similarly, when 0.625 is added to the error of Y to determine whether it is larger than 0.5, a straight line (x mark) as shown in FIG. 3A is obtained.
[0030]
The flowchart in FIG. 3B is realized only by integer arithmetic so that the operation described above can be easily processed by a computer. In the above description, the initial value of the error of Y is set to 0, and it is determined whether or not it is larger than 0.5 when the increment of Y is added. Thus, the determination is made based on whether or not the increase in Y is greater than 0. If ΔY = YN−Y0 and ΔX = XN−X0, the initial value of the error is −0.5 and the error is E i + 1 = E i It is determined by + ΔY / ΔX> 0. (If this condition is met, E i + 1 = E i -1) Next, the error is determined so that the error is determined by multiplying the error by 2ΔX. Then, the initial value of the error is −ΔX, and the error is E i + 1 * 2ΔX = E i * 2 ΔX + 2ΔY> 0. (If this condition is met, E i + 1 = E i -2ΔX)
[0031]
The operation of the above algorithm will be described with reference to the flowchart of FIG. First, the initial coordinate of X is set to X0, and the initial coordinate of Y is set to Y0 (S1). Next, an initial value of the error E is set to −ΔX = − (XN−X0) (S2). A point is drawn at the coordinates (X, Y) (S3), 2ΔY = 2 (YN−Y0) is added to the error E (S4), and it is determined whether or not the error E is greater than 0, and the error E is 0. In the following cases, the process is left as it is, and if the error E is larger than 0 (S5), 2ΔX is subtracted from the error E (S6), and the Y coordinate is incremented (S7). Next, the X coordinate is incremented (S8). The above processing is repeated until the X coordinate exceeds XN (S9).
[0032]
4A to 4C show a line segment expansion algorithm that can expand a line segment using the line segment generation algorithm shown in FIGS. 3A and 3B. As shown in FIG. 4A, the line segment S composed of dots from S0 to SN is expanded to a line segment D composed of dots from D0 to DN. The principle is that the X-coordinate in FIG. 3A may be replaced with the stretched line segment D and the Y-coordinate is replaced with the original line segment S (FIG. 4B).
[0033]
The line segment extension algorithm will be described with reference to the flowchart of FIG. First, the initial pixel of the extension line segment D is set to D0, and the initial pixel of the extension line segment S is set to S0 (S10). The initial value of the error E of the line segment S is set to −ΔD = (DN−D0) (S11). The dot S of the line segment S (initial state is S0) is copied to the dot D of the line segment D (initial state is D0) (S12). 2ΔS = 2 (SN−S0) is added to the error E (S13), and it is determined whether or not the error E is greater than 0. If the error E is equal to or less than 0, the error E is lost, and the error E is greater than 0. (S14) 2ΔD is subtracted from the error E (S15), and at the same time, the dots of the line segment S as the expansion source are incremented (the next dot is selected) (S16). Next, the extension dot D is incremented (the next dot is selected) (S17). Until the dot of D exceeds DN (S18), the above processing is repeated until the processing of all dots is completed.
[0034]
FIGS. 5A and 5B show a rectangular enlargement algorithm that can enlarge a rectangle when it is expanded in two dimensions by applying the line segment extension algorithm shown in FIGS. 4A to 4C. As shown in FIG. 5A, a rectangle S composed of horizontal XS0 to XSN and vertical YS0 to YSN is expanded to a rectangle D composed of horizontal XD0 to XDN and vertical YD0 to YDN.
[0035]
In the vertical direction, the line segment expansion algorithm shown in FIGS. 4A to 4C is used to pad the lines YS0 to YSN to the lines YD0 to YDN. The line YS0 is copied to the line YD0, and the line YS1 is copied to the lines YD1 and YD2. When the line is determined, the dots in the line can be expanded using the line segment expansion algorithm shown in FIGS. 4 (A) to 4 (C).
[0036]
The rectangular enlargement algorithm described above will be described with reference to the flowchart of FIG. Portions other than the shaded areas (S19, S20, S30 to S35) are processes for adding water to the line, and shaded areas (S21 to S29) are processes for expanding the dots in the line. First, in order to pad the line, the initial line of the rectangle S is set to YS0, and the initial line of the rectangle D is set to YD0 (S19). The initial value of the error EY for inflating the line is set to −ΔYD = − (YDN−YD0) (S20). Thereafter, the dots in the line are expanded (shaded portion). The shaded portions (S21 to S29) correspond to the flowcharts S10 to S18 described with reference to FIG. Next, 2ΔYS = 2 (YSN−YS0) is added to the error EY (S30). It is determined whether or not the error EY is greater than 0. If the error EY is less than or equal to 0, the process exits. If the error EY is greater than 0 (S31), 2ΔYD is subtracted from the error EY (S32). The line YS is incremented (the next line is selected) (S33). Next, the transfer destination line YD is incremented (the next line is selected) (S34). Until the YD line exceeds YDN (S35), the above process is repeated until all the lines have been processed.
[0037]
If this rectangular enlargement algorithm is used, a rectangle having an arbitrary size can be enlarged to a rectangle having an arbitrary size, so that a plurality of images whose zoom ratios change finely with respect to the original image can be prepared. Further, since the enlargement of the rectangle can be performed only by a simple integer calculation, a zoom composite image can be obtained in a short time without imposing a burden on the CPU 9.
[0038]
Next, FIG. 6A shows a cut-out image information table for cutting out images of a plurality of sizes. It is the table which put together the upper left coordinate and image size of the original image cut out when changing a zoom ratio continuously. In FIG. 6A, the size of the original image is 1280 × 960. The upper left coordinate of the image cut out when the original image is zoomed up by one step is (4, 3), and the image size is 1272 × 954. Further, when zooming up in two steps, the upper left coordinate of the image to be cut out is (8, 6). Similarly, upper left coordinates and image sizes for a plurality of stages of zoom-up are provided as a table. Each cut-out image is enlarged to an image of 1280 × 960 by the rectangular enlargement algorithm shown in FIGS. 5 (A) and 5 (B).
[0039]
FIG. 6B shows an enlarged image of the cut out image. When the upper left coordinate of the cut out image is (320, 240) and the image size is 640 × 480, the image is enlarged to a 1280 × 960 image by the rectangular enlargement algorithm.
[0040]
As shown in FIG. 6B, the center of the image is zoomed up to obtain a plurality of zoom images, but a zoom image is obtained while moving the zoom-up center at a predetermined interval from the center of the image in an arbitrary direction. It is also possible. In addition, a plurality of zoom images have been created from the original image, but a zoom image may be created from an image that was previously cut out and enlarged in a rectangular shape. In this case, since the upper left coordinate and the image size of the clipped image can be made constant, an information table of the clipped image as shown in FIG. 6A becomes unnecessary.
[0041]
Furthermore, in order to obtain a smooth zoom composite image, the cut-out image size of the cut-out image information table was finely set, but by setting the cut-out image size coarsely, a completely new zoom composite image that cannot be obtained with optical zoom Can be obtained.
[0042]
FIG. 7 illustrates a method for combining enlarged images. The image data has three RGB components and is composed of a plurality of pixels. Each RGB component has a value of 0 to 255 (8 bits). FIG. 7 illustrates the synthesis of one of the RGB components. An image 17 and an image 18 are images of a certain component to be synthesized, and an image 19 is an image of a certain component after synthesis. Focusing on the upper left pixel, image 17 is 11 and image 18 is 8, and simply adding it becomes 19 in image 19. In the pixel on the right side, the image 17 is 9 and the image 18 is 7, and when simply added, the image 19 becomes 16. Although not shown in FIG. 7, if the result of addition exceeds 255, a value of 255 or more is reduced to 255. The RGB components can be similarly synthesized.
[0043]
FIG. 8 shows a flowchart of zoom composition processing. Although not shown in the flowchart, first, the target zoom-up size is designated as x5, x10, and x20 by the various key units 13. When shooting is performed by pressing the shutter key 12 in the zoom composite shooting mode, first, an image captured from the CCD 1 is used by using a part of the image memory 4 as an original image buffer and stored therein (S36). When an image is taken during zoom composition processing, the original image buffer always stores an image captured from the CCD 1. A plurality of zoom images are created using these images as original images. At the same time, a part of the image memory 4 is used as a composite image buffer, and the captured image is also stored in the composite image buffer (setting of an initial image) (S37). The composite image buffer stores a composite image up to the previous zoom ratio during zoom composition processing, and is composed with the image in the composite image buffer each time an image with a new zoom ratio is created. When the initial image is set in the composite image buffer, the image in the original image buffer is cut out according to the table described with reference to FIG. 6A (S38). The cut-out image is enlarged to the same size as the original image by performing a rectangle enlargement process (S39). The rectangularly enlarged image is combined with the image in the combined image buffer and stored again in the combined image buffer (S40). The processing from S38 is repeated until zooming up to the target size is completed (S41). When zooming up to the target size is completed, the image is stored in the recording medium 10 as a zoom composite image.
[0044]
A plurality of rectangles that continuously change in size are cut out from one original image shot as described above, and after the plurality of cut out rectangles are enlarged to the same size as the original image, these combined images are obtained. As a result, it is possible to easily obtain an image equivalent to an image photographed by the zoom between exposures using the optical zoom. Further, since it is sufficient to shoot one image normally, there is no need to fix the camera with a tripod as in the case of using the optical zoom, and it is possible to shoot by holding the camera by hand.
[0045]
(Second Embodiment)
The rectangular enlargement algorithm of the zoom composition processing described so far uses an arbitrary pixel constituting the enlarged image by selecting one pixel closest to the ideal position from the pixels constituting the image before enlargement and leaving the value as it is. The method of copying was used. Next, a description will be given of a method for copying arbitrary values of arbitrary pixels constituting an image after enlargement after weighting a plurality of pixels around the ideal position constituting the image before enlargement. 9A to 10B show a rectangular enlargement algorithm using weighting. Since the operation of the digital camera 100 other than the rectangular enlargement algorithm in the zoom composition processing, the information table of the cut-out image, the zoom composition processing, and the like are the same as those in the first embodiment already described, the description thereof is omitted.
[0046]
FIG. 9A to FIG. 9C are line segment extension algorithms using weighting. As shown in FIG. 9A, a line segment S composed of (n + 1) dots from S0 to SN is extended to a line segment D composed of (m + 1) dots from D0 to DM using weighting. As shown in FIG. 9B, first, the start point S0 of the line segment S is copied as it is to the start point D0 of the line segment D. Next, when the line segment D increases by 1 from D0 to D1, the ideal pixel of the line segment S is located at a position (circle mark) from S0 between S0 (△ mark) and S1 (▽ mark). . However, in actuality, there is no pixel at this position, so the calculation is performed from the values of the pixels S1 and S2. Since the position from S1 to (mn) / m is from S0 to n / m, the value of the pixel D1 can be obtained by the equation D1 = S0 * (mn) / m + S1 * n / m.
[0047]
Further, when the line segment D increases by 1 from D1 to D2, the ideal pixel of the line segment S is at a position of 2 * n / m from S0. At this time, as shown in FIG. 9B, when 2 * n / m is 1 or more, the pixels of the line segment S used for interpolation are S1 (Δ mark) and S2 (▽ mark), and an ideal line It can be said that the pixel of the minute S is located at the position (◯ mark) from S1 to (2 * n / m) -1. The value of the pixel D2 is obtained by the following equation: D2 = S1 * 2 (mn) / m + S2 * (2n-m) / m.
[0048]
When these are represented by general formulas, if the pixel of the line segment S used for interpolation is S (Δ mark) and S ′ (▽ mark), the error between the pixel S (Δ mark) and the ideal position (◯ mark) is The initial value of the error is 0 and the error is E i + 1 = E i It is determined by + n / m ≧ 1. (If this condition is met, E i + 1 = E i -1) E i + 1 = E i If + n / m ≧ 1, 1 is subtracted from E and the pixels S and S ′ used for interpolation are updated. From S (Δ mark) and S ′ (▽ mark), the value of the pixel D is D = S * (1−E) + S ′ * E.
[0049]
In the flowchart of FIG. 9C, in order to make it easy for the computer to process the operation described above, the error determination part is realized by integer arithmetic. In the above description, the initial value of the error is set to 0, and it is determined whether or not it is 1 or more when n / m is added. First, the initial value of the error is set to −1 and n / m is added. It was made to discriminate depending on whether it was 0 or more. The initial value of the error is -1 and the error is E i + 1 = E i It is determined by + n / m ≧ 0. (If this condition is met, E i + 1 = E i -1) and D = S * (-E) + S '* (E + 1). Next, a change is made so that the error is determined by multiplying the error by m. Then, the initial value of the error is −m, and the error is E i + 1 * M = E i * M + n ≧ 0. (If this condition is met, E i + 1 = E i −m) and D = S * (− E) / m + S ′ * (E + m) / m.
[0050]
The operation of the above algorithm will be described in detail with reference to the flowchart of FIG. First, the pixel D of the extension line segment D is set to D0, the first pixel S used for interpolation of the extension line segment S is set to S0, and the second pixel S ′ used for interpolation is set to S1. (S42). Next, the initial value of the error E of the line segment S is set to -m (S43). The RGB value of the transfer destination pixel D is obtained using D = S * (− E) / m + S ′ * (E + m) / m for each RGB component (S44). N is added to the error E (S45) to determine whether or not the error E is greater than 0. If the error E is less than or equal to 0, the error E is left as it is. If the error E is greater than 0 (S46), the error E Then, m is subtracted from S (S47), and at the same time, the pixels S and S 'of the line segment S as the extension source are incremented (next pixel is selected) (S48). Next, the pixel D of the extension line segment D is incremented (the next pixel is selected) (S49). The above processing is repeated until the processing of all the pixels D is completed until the pixels of D exceed DM (S50).
[0051]
Next, in FIG. 10A and FIG. 10B, a rectangular enlargement algorithm capable of enlarging a rectangle using the line segment expansion algorithm using the weighting shown in FIGS. 9A to 9C. Indicates. As shown in FIG. 10A, a rectangle composed of horizontal (nx + 1) dots and vertical (ny + 1) dots is expanded into a rectangle composed of horizontal (mx + 1) dots and vertical (my + 1) dots. In both the horizontal (X) direction and the vertical (Y) direction, the line segment expansion algorithm described in FIGS. 9A to 9C is used to change the expansion destination rectangle D from the four pixels of the expansion source rectangle S. One pixel value is calculated.
[0052]
The rectangle enlargement algorithm will be described with reference to the flowchart of FIG. First, the Y coordinate YD of the pixel D of the extension destination rectangle D is YD0, the first Y coordinate YS used for interpolation of the extension source rectangle S is YS0, and the second Y coordinate YS ′ used for interpolation is set. Initial setting is made to YS1 (S51). The initial value of the error EY in the Y direction is set to -my (S52). Thereafter, processing in the X direction is performed. (Shaded portion) In this shaded portion (S53 to S61), only the X coordinate is updated while the Y coordinate is fixed. First, the X coordinate XD of the image D of the extension destination rectangle D is XD0, the first X coordinate XS used for interpolation of the extension source rectangle S is XS0, and the second X coordinate XS ′ used for interpolation is set. Initial setting is made to XS1 (S53). Next, the initial value of the error EX in the X direction is set to -mx (S54). Four pixels (XS, YS) (XS ', YS) (XS, YS') (XS) of the rectangle S used for interpolation from the two Y coordinates YS, YS 'and the two X coordinates XS, XS' at this time ', YS') is determined. The interpolation method will be described with reference to FIG. 11. From these four values, the RGB values of one point (XD, YD) on the extension destination rectangle D are obtained (S55). Next, nx is added to the error EX (S56).
It is determined whether or not the error EX is greater than 0. If the error EX is 0 or less, the process exits. If the error EX is greater than 0 (S57), mx is subtracted from the error EX (S58). The coordinates XS and XS ′ are incremented (S59). Next, the X coordinate XD of the expansion destination is incremented (next pixel is selected) (S60). The above processing is repeated until the processing of all the X coordinates is completed until the pixel of XD exceeds XDM (S61). Next, ny is added to the error EY (S62). It is determined whether or not the error EY is greater than 0. If the error EY is less than or equal to 0, the error EY is left. If the error EY is greater than 0 (S63), my is subtracted from the error EY (S64). The coordinates YS and YS ′ are incremented (S65). Next, the Y coordinate YD of the extension destination is incremented (the next line is selected) (S66). Until the YD line exceeds YDM (S67), the above process is repeated until all the Y coordinate processes are completed.
[0053]
FIG. 11 illustrates an image interpolation method using weighting and a method of interpolating one pixel of the expansion destination from four pixels of the expansion source. By the rectangular enlargement algorithm shown in FIGS. 10A and 10B, the four pixels S1 (XS, YS), S2 (XS ′, YS), S3 (XS, YS ′), S4 (XS) of the expansion source ', YS') is determined. Further, the weighting values in both the X direction and the Y direction are S * (− EX) / mx + S ′ * (EX + mx) / mx in the X direction, and S * (− EY) / my + S ′ * (EY + my) in the Y direction. Therefore, the RGB value to be calculated is ((S1 * (− EX) / mx + S2 * (EX + mx) / mx) * (− EY) / my) + ((S3 * (− EX) / mx + S4 * (EX + mx) / mx) ) * (EY + my) / my). What is necessary is just to calculate from this formula for each of RGB.
[0054]
In this way, interpolation by weighting is performed on four pixels of the decompression source image to determine the pixel value of the decompressed image, so that a clear image can be obtained. In addition, as a method of enlarging the rectangle, interpolation by weighting is performed in both the vertical direction and the horizontal direction, but interpolation by weighting is performed only in either the vertical direction or the horizontal direction, and the other one is shown in FIG. The normal rectangular enlargement algorithm shown in 5 (B) may be used. As a result, the burden on the CPU 9 can be reduced while maintaining a certain level of image quality.
[0055]
(Third embodiment)
Next, in FIG. 12, zoom composition is performed using the rectangular enlargement algorithm shown in FIGS. 5A and 5B and the rectangular enlargement algorithm based on weighting shown in FIGS. 10A and 10B. Processing will be described.
[0056]
Although not shown in the flowchart of FIG. 12, first, the target zoom-up size is designated by various key units 13 such as x5, x10, and x20. When shooting is performed by pressing the shutter key 12 in the zoom composite shooting mode, first, an image captured from the CCD 1 is used as a part of the image memory 4 as an original image buffer and stored therein (S68). When an image is taken during zoom composition processing, the original image buffer always stores an image captured from the CCD 1. A plurality of zoom images are created using these images as original images. At the same time, a part of the image memory 4 is used as a composite image buffer, and the captured image is also stored in the composite image buffer (S69). Next, the image in the original image buffer is cut out according to the table of FIG. 6A (S70). If the image has the smallest zoom ratio (first image) or the largest zoom ratio (last image) (S71), rectangular enlargement by weighting shown in FIGS. 10A and 10B is performed. Processing is performed using an algorithm (S73), and if the image is any other image, processing is performed using the rectangular enlargement algorithm shown in FIGS. 5A and 5B in which weighting is not performed (S72). The rectangularly enlarged image is synthesized with the synthesized image buffer image (S74). The processing from S70 is repeated until the zoom-in to the target size is completed (S75). When zooming up to the target size is completed, the image is stored in the recording medium 10 as a zoom composite image.
[0057]
As described above, by properly using the two types of rectangular enlargement algorithms, the images at both ends of the zoom start and the zoom end become clear, and it becomes possible to reduce the load on the CPU in a dynamic image that fills between them. . In addition to the zoom start and zoom end images, the zoom composite image can be improved in quality by inserting a zoom image using a rectangular enlargement algorithm that performs weighting at regular intervals from among the zoom images constituting the gap. Is possible.
[0058]
(Fourth embodiment)
In the first to third embodiments described above, the zoom composition processing is performed using the image captured when the shutter key 12 is pressed as the original image, but the fourth embodiment. As an example, zoom composition processing is performed using a through image before the shutter key 12 is pressed as an original image. Since the operation of the digital camera 100, the information table of the cut-out image, and the rectangular enlargement algorithm are the same as those in the first to third embodiments already described, description thereof is omitted.
[0059]
In this embodiment, first, the target zoom-up size is designated by the various key sections 13 as x5, x10, and x20. In the zoom composition shooting mode, zoom composition processing is performed in a state where the image data taken from the CCD 1 is displayed as a through image on the display unit 14. That is, after the shutter key 12 is operated in the first to third embodiments, the same processing as the zoom composition processing performed at the stage of processing for capturing and storing is performed before the shutter key 12 is operated. This is performed at any time in the preparation state, and as a result, the zoomed image is output to the video output unit 7 and output to the display unit 14 at any time. Thus, the zoom composite image is always displayed on the display unit 14 in the imaging preparation state, and the user presses the shutter key 12 while confirming the zoom composite image to be captured on the display unit 14. When the shutter key 12 is pressed, the zoom composite image displayed on the display unit 14 is stored in the recording medium 10 at that time. Needless to say, at this time, as in the first to third embodiments, an image captured by pressing the shutter key 12 may be used as the original image for the synthesis process.
[0060]
As described above, since zoom composition processing is performed and displayed on the display unit 14 at the time of through image display before the shutter key 12 is pressed, the user can take a picture while viewing the zoom composite image. Accordingly, since it is possible to select whether or not to shoot when the zoom composite image is viewed, it is possible to avoid useless shooting and recording and easily obtain an intended image.
[0061]
【The invention's effect】
As described above, according to the first aspect of the present invention, an image having a plurality of sizes is cut out from a single image, enlarged to the same size as the image before cutting, and then combined. Therefore, an image equivalent to the zoom between exposures using the optical zoom can be obtained without taking time and effort.
[0062]
According to the second aspect of the present invention, since the captured image is recorded and a plurality of images are cut out based on the information of the cut-out size, there is no need to fix the camera body to a tripod, and zoom between exposures in hand-held shooting Equivalent effects can be obtained.
[0063]
According to the third aspect of the present invention, it is possible to enlarge and synthesize an image in a short time without imposing a burden on the CPU by using a rectangle enlargement algorithm capable of enlarging a rectangle with only a simple integer operation. .
[0064]
According to the fourth aspect of the present invention, a clear image can be obtained by interpolating a plurality of pixels by weighting in the rectangular enlargement algorithm.
[0065]
According to the invention of claim 5, the original image is taken from the image sensor. Because it is a through image You can shoot while viewing the actual zoom composite image.
[0066]
Further, according to the invention of claim 6, since an image having a plurality of sizes is cut out from a single image and enlarged to the same size as the image before the cut out, these images are combined. An image equivalent to the exposure zoom using the optical zoom can be obtained without taking time and effort.
[0067]
Further, according to the invention of claim 7, since a plurality of sizes of images are cut out from one image and enlarged to the same size as the image before cutting out, the program is composed to synthesize these images. An image equivalent to the exposure zoom using the optical zoom can be obtained without taking time and effort.
[Brief description of the drawings]
FIG. 1 is a block diagram of an apparatus according to the present invention.
FIG. 2 is a diagram illustrating the principle of zoom composition.
FIG. 3A is a coordinate diagram showing a line segment generation algorithm.
(B) is a flowchart showing a line segment generation algorithm.
FIG. 4A is a structural diagram showing a line segment decompression algorithm.
(B) is a coordinate diagram showing a line segment extension algorithm.
(C) is a flowchart showing a minute extension algorithm.
FIG. 5A is a structural diagram showing a rectangular enlargement algorithm.
(B) is a flowchart showing a rectangular enlargement algorithm.
FIG. 6A is a diagram illustrating an information table of clipped images.
(B) is the figure which showed the image of the cut-out image.
FIG. 7 is a diagram illustrating a method for synthesizing an enlarged image.
FIG. 8 is a flowchart of zoom composition processing.
FIG. 9A is a structural diagram showing a line segment expansion algorithm by weighting.
(B) is a coordinate diagram showing a line segment extension algorithm by weighting.
(C) is a flowchart showing a line segment expansion algorithm by weighting.
FIG. 10A is a structural diagram showing a rectangular enlargement algorithm by weighting.
(B) is a flowchart showing a rectangular enlargement algorithm by weighting.
FIG. 11 is a diagram showing image interpolation by weighting.
FIG. 12 is a flowchart of zoom composition processing by two types of rectangular enlargement algorithms.
[Explanation of symbols]
1 CCD
2 CCD controller
3 YUV processor
4 Image memory
5 Memory controller
6 Video encoder
7 Video output section
8 Data communication department
9 CPU
10 Recording media
11 Key processing part
100 digital camera

Claims (7)

一枚の画像を元画像として、この元画像から異なる複数のサイズの画像を切り出す画像切り出し手段と、
前記画像切り出し手段により切り出した複数の画像を前記元画像と同じサイズにそれぞれ拡大する画像拡大手段と、
前記画像拡大手段により拡大された複数の同じサイズの画像の対応する画素の画素値を加算する画像合成手段と、
を備える画像合成装置。
Image cutting means for cutting out images of a plurality of different sizes from the original image, with one image as the original image,
Image enlargement means for enlarging each of the plurality of images cut out by the image cutout means to the same size as the original image;
Image combining means for adding pixel values of corresponding pixels of a plurality of images of the same size enlarged by the image enlargement means;
An image synthesizing apparatus.
被写体を撮像する撮像手段と、
前記撮像手段より発生した被写体像を画像データとして記録する記録手段と、
切り出すサイズの情報が記憶されている情報記録手段と、
を備える請求項1記載の画像合成装置。
Imaging means for imaging a subject;
Recording means for recording the subject image generated by the imaging means as image data;
Information recording means for storing information on the size to be cut out;
The image synthesizing device according to claim 1.
前記画像拡大手段は矩形拡大のアルゴリズムに基づき行われ、拡大前の画像を構成する画素の中から1画素を選択してその値を複製することを特徴とする請求項1の画像合成装置。  2. The image synthesizing apparatus according to claim 1, wherein the image enlarging means is performed based on a rectangular enlarging algorithm, and selects one pixel from pixels constituting the image before enlarging and duplicates the value. 前記画像拡大手段は矩形拡大のアルゴリズムに基づき行われ、拡大前の画像を構成する複数の画素に重み付けを行い、その値を複製することを特徴とする請求項1記載の画像合成装置。  2. The image synthesizing apparatus according to claim 1, wherein the image enlarging means is performed based on a rectangular enlarging algorithm, weights a plurality of pixels constituting an image before enlargement, and duplicates the values. 前記元画像は撮像素子から取り込まれているスルー画像であることを特徴とする請求項1記載の画像合成装置。  The image composition apparatus according to claim 1, wherein the original image is a through image captured from an image sensor. 一枚の画像を元画像として、この元画像から異なる複数のサイズの画像を切り出す画像切り出し処理と、
前記画像切り出し手段により切り出した複数の画像を前記元画像と同じサイズにそれぞれ拡大する画像拡大処理と、
前記画像拡大処理により拡大された複数の同じサイズの画像の対応する画素の画素値を加算する画像合成処理からなる画像合成方法。
Image cutout processing for cutting out images of a plurality of different sizes from the original image using one image as the original image;
Image enlargement processing for enlarging each of the plurality of images cut out by the image cutout means to the same size as the original image;
An image composition method comprising image composition processing for adding pixel values of corresponding pixels of a plurality of images of the same size enlarged by the image enlargement processing.
一枚の画像を元画像として、この元画像から異なる複数のサイズの画像を切り出す画像切り出し手段と、
前記画像切り出し手段により切り出した複数の画像を前記元画像と同じサイズにそれぞれ拡大する画像拡大手段と、
前記画像拡大手段により拡大された複数の同じサイズの画像の対応する画素の画素値を加算する画像合成手段を実現するための画像合成プログラム。
Image cutting means for cutting out images of a plurality of different sizes from the original image, with one image as the original image,
Image enlargement means for enlarging each of the plurality of images cut out by the image cutout means to the same size as the original image;
An image composition program for realizing image composition means for adding pixel values of corresponding pixels of a plurality of images of the same size enlarged by the image enlargement means.
JP2001281606A 2001-09-17 2001-09-17 Image composition apparatus, image composition method, and program Expired - Fee Related JP3861641B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001281606A JP3861641B2 (en) 2001-09-17 2001-09-17 Image composition apparatus, image composition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001281606A JP3861641B2 (en) 2001-09-17 2001-09-17 Image composition apparatus, image composition method, and program

Publications (2)

Publication Number Publication Date
JP2003087553A JP2003087553A (en) 2003-03-20
JP3861641B2 true JP3861641B2 (en) 2006-12-20

Family

ID=19105400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001281606A Expired - Fee Related JP3861641B2 (en) 2001-09-17 2001-09-17 Image composition apparatus, image composition method, and program

Country Status (1)

Country Link
JP (1) JP3861641B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5279518B2 (en) * 2009-01-19 2013-09-04 キヤノン株式会社 Imaging apparatus and control method thereof
JP2010268441A (en) * 2009-04-16 2010-11-25 Sanyo Electric Co Ltd Image processor, imaging device, and image reproducing device
JP5931619B2 (en) * 2012-07-17 2016-06-08 オリンパス株式会社 Imaging device
JPWO2015049899A1 (en) * 2013-10-01 2017-03-09 オリンパス株式会社 Image display device and image display method
JP2016092609A (en) 2014-11-05 2016-05-23 オリンパス株式会社 Imaging device and control method of imaging device

Also Published As

Publication number Publication date
JP2003087553A (en) 2003-03-20

Similar Documents

Publication Publication Date Title
US6750903B1 (en) Super high resolution camera
JP4212109B2 (en) Imaging apparatus and imaging method
JP4636467B2 (en) Shooting method of mobile communication terminal with camera
JP4346938B2 (en) Image processing apparatus, method, program, and storage medium
JP5300756B2 (en) Imaging apparatus and image processing method
JP3799861B2 (en) Image synthesizing apparatus and recording medium on which program for executing image synthesizing method is recorded
JP2003199034A (en) Still picture format for post-picture stitch for forming panorama image
JP2007316982A (en) Image display control device, image display device, camera, and image display control program
JP6529533B2 (en) Imaging device, control method of imaging device, and program
JP4735166B2 (en) Image display apparatus and program
JP3861641B2 (en) Image composition apparatus, image composition method, and program
JP4001233B2 (en) Panorama shooting method and image processing apparatus and image pickup apparatus capable of using the method
JP2000217022A (en) Electronic still camera and its image data recording and reproducing method
JP4834497B2 (en) Display device
JP2004080427A (en) Imaging apparatus and image form converting method
JPH11168685A (en) Image processing method
JP2005275765A (en) Image processor, image processing method, image processing program and recording medium recording the program
JP2004304763A (en) Image compositing apparatus, image compositing method and program
JP2004013461A (en) Image processing system and digital imaging apparatus
JP4396579B2 (en) Electronic camera, zoom range display method, and program
JP2009065323A (en) Image processing device, image processing method, imaging apparatus, and imaging method
JP5176857B2 (en) Movie editing device
JP2012151585A (en) Digital zoom mechanism, digital zoom control method and digital zoom control program
JP6828069B2 (en) Imaging equipment, imaging methods and programs
JP2007166447A (en) Imaging apparatus, zoom display method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060918

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091006

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101006

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111006

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121006

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121006

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131006

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees