JP4246952B2 - Image processing system, imaging apparatus, imaging method, and program - Google Patents

Image processing system, imaging apparatus, imaging method, and program Download PDF

Info

Publication number
JP4246952B2
JP4246952B2 JP2002093319A JP2002093319A JP4246952B2 JP 4246952 B2 JP4246952 B2 JP 4246952B2 JP 2002093319 A JP2002093319 A JP 2002093319A JP 2002093319 A JP2002093319 A JP 2002093319A JP 4246952 B2 JP4246952 B2 JP 4246952B2
Authority
JP
Japan
Prior art keywords
image
unit
sub
image processing
main
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002093319A
Other languages
Japanese (ja)
Other versions
JP2003289496A (en
Inventor
義弘 山口
淳彦 石原
浩一 坂本
浩司 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2002093319A priority Critical patent/JP4246952B2/en
Publication of JP2003289496A publication Critical patent/JP2003289496A/en
Application granted granted Critical
Publication of JP4246952B2 publication Critical patent/JP4246952B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理システム、撮像装置、撮像方法、及びプログラムに関する。特に本発明は、画像データを処理する画像処理システムであって、撮像装置が、被写体の主画像から画像処理装置の特性に応じた副画像を生成し、画像処理装置が、副画像に基づいて主画像を適切に補正する画像処理システムに関する。
【0002】
【従来の技術】
従来、プリンタやパーソナルコンピュータ等の画像処理装置が画像を出力する場合、即ち、プリンタが画像を印刷し、パーソナルコンピュータが画像をモニタに表示する場合、これらの画像処理装置は、取得した主画像から、当該装置の特性に応じて解析用の副画像を生成し、副画像を解析した結果に基づいて原画像を補正していた。また、従来、デジタルカメラ等の撮像装置は、取得した主画像から、画像を確認するためのインデックスとしての縮小画像を生成し、主画像を縮小画像とを対応づけて外部の画像処理装置に送信していた。
【0003】
【発明が解決しようとする課題】
しかしながら、従来の画像処理装置においては、主画像から解析用の副画像を生成する処理が、画像を受信してから出力するまでの時間を短縮する妨げになっていた。また、従来のデジタルカメラが生成する縮小画像は、画像処理装置の特性を考慮して生成されたものではないので、画像処理装置が主画像の補正条件を決定するために解析する副画像としては利用できなかった。
【0004】
そこで本発明は、上記の課題を解決することのできる画像処理システム、撮像装置、撮像方法、及びプログラムを提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。
【0005】
【課題を解決するための手段】
上記課題を解決するために、本発明の第1の形態によれば、画像データを処理する画像処理システムであって、被写体を撮像する撮像装置と、撮像装置から画像を受け取る画像処理装置とを備え、撮像装置は、被写体の主画像を取得する撮像部と、画像処理装置から、画像処理装置の画像処理特性であるガンマ特性および/または画像出力特性である色バランスを受信する外部特性受信部と、外部特性受信部が受信したガンマ特性および/または色バランスに基づいて、主画像にガンマ処理および/または色バランス調整し、主画像よりデータサイズが小さい副画像を生成する副画像生成部と、主画像および副画像を対応づけて格納する格納部と、主画像および副画像を対応づけて画像処理装置に送信する画像送信部とを有し、画像処理装置は、画像送信部が送信した主画像および副画像を受信する画像受信部と、画像受信部が受信した副画像を解析する副画像解析部と、副画像解析部が副画像を解析した結果に基づいて、主画像を画像処理する画像処理部と、画像処理部が画像処理した主画像を出力する画像出力部とを有する。
【0006】
画像処理装置は、画像処理部のガンマ特性および/または色バランスを撮像装置に送信する処理特性送信部をさらに有してもよい。
【0007】
また、本発明の第2の形態によれば、被写体を撮像する撮像装置であって、被写体の主画像を取得する撮像部と、主画像を画像処理する外部の画像処理装置から、画像処理装置の画像処理特性である第1のガンマ特性および/または画像出力特性である色バランスを受信する外部特性受信部と、外部特性受信部が受信したガンマ特性および/または色バランスに基づいて、主画像にガンマ処理および/または色バランス調整し、主画像よりデータサイズが小さい副画像を生成する副画像生成部と、主画像および副画像を対応づけて格納する格納部と、主画像および副画像を対応づけて画像処理装置に送信する画像送信部とを備える。
【0008】
副画像生成部は、画像処理装置の第1のガンマ特性および撮像装置の第2のガンマ特性に基づいて、第3のガンマ特性を生成するガンマ合成部と、第3のガンマ特性に基づいて、主画像をガンマ処理して副画像を生成するガンマ処理部とを有してもよい。
【0009】
外部特性受信部は、画像出力特性として、画像処理装置が出力する色数を示す情報をさらに受信してもよい。
【0010】
外部特性受信部は、画像出力特性として、画像処理装置の解像度を示す情報をさらに受信してもよい。
【0013】
なお上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションも又発明となりうる。
【0014】
【発明の実施の形態】
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態はクレームにかかる発明を限定するものではなく、又実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
【0015】
図1は、本発明の一実施形態に係る画像処理システム500の一例を示す。画像処理システム500は、デジタルカメラ10、プリンタ200、及びパーソナルコンピュータ400を備える。デジタルカメラ10、プリンタ200、及びパーソナルコンピュータ400は、互いにデータ伝送路を介してデータの送受信を行う。データ伝送路は、例えば、IEEE1394、USB等の有線通信媒体や、IrDA、ブルートゥース、無線LAN等の無線通信媒体である。データ伝送路は、有線通信媒体及び無線通信媒体を複数用いたネットワーク網、例えばインターネット網であってもよい。また、デジタルカメラ10、プリンタ200、及びパーソナルコンピュータ400間のデータの受け渡しは、リムーバブルメディア等の記録媒体を用いてもよい。
【0016】
プリンタ200は、デジタルカメラ10に、プリンタ200の画像処理特性及び/又は画像出力特性を送信する。パーソナルコンピュータ400は、デジタルカメラ10に、パーソナルコンピュータ400の画像処理特性及び/又は画像出力特性を送信する。デジタルカメラ10は、プリンタ200の画像処理特性及び/又は画像出力特性を受信して格納する。また、デジタルカメラ10は、パーソナルコンピュータ400の画像処理特性及び/又は画像出力特性を受信して格納する。
【0017】
デジタルカメラ10は、ユーザの操作に基づいて、被写体の主画像を取得する。デジタルカメラ10は、格納した画像処理特性及び/又は画像出力特性に基づいて、取得した主画像から副画像を生成する。そして、デジタルカメラ10は、取得した主画像と生成した副画像とを対応付けてプリンタ200又はパーソナルコンピュータ400に送信する。ここで、副画像は、主画像よりもデータサイズが小さいことが好ましい。
【0018】
プリンタ200又はパーソナルコンピュータ400は、デジタルカメラ10から、互いに対応づけられた主画像及び副画像を受信する。そして、プリンタ200又はパーソナルコンピュータ400は、主画像に対応付けられた副画像を解析し、副画像を解析した結果に基づいて、主画像に対して画像処理を行う。そして、プリンタ200又はパーソナルコンピュータ400は、画像処理を行った主画像を出力する。即ち、プリンタ200は、主画像を印刷し、パーソナルコンピュータ400は、主画像をモニタに表示する。
【0019】
なお、デジタルカメラ10は、本発明の撮像装置の一例である。撮像装置は、静止画を撮影するデジタルスチルカメラであってもよく、動画を撮影するデジタルビデオカメラであってもよい。また、プリンタ200及びパーソナルコンピュータ400は、本発明の画像処理装置の一例である。画像処理装置は、デジタルカメラで撮影した画像の画質等を自動調整して印刷するラボ用印刷装置であってもよい。
【0020】
図2は、本実施形態に係るデジタルカメラ10の機能構成の一例を示す。デジタルカメラ10は、被写体の主画像を取得する撮像部20、プリンタ200及びパーソナルコンピュータ400などの外部の画像処理装置から、画像処理装置の画像処理特性及び/又は画像出力特性を受信する外部特性受信部134、外部特性受信部134が受信した画像処理特性及び/又は画像出力特性に基づいて、主画像から副画像を生成する副画像生成部141、主画像及び副画像を対応づけて格納する格納部120、及び対応づけられた主画像と副画像とを画像処装置に送信する画像送信部132を有する。
【0021】
外部特性受信部134は、例えばプリンタ200から、プリンタ200の画像処理特性及び/又は画像出力特性を受信する。また、外部特性受信部134は、例えばパーソナルコンピュータ400から、パーソナルコンピュータ400の画像処理特性及び/又は画像出力特性を受信する。具体的には、外部特性受信部134は、プリンタ200又はパーソナルコンピュータ400の画像処理特性として、ガンマ特性を示す情報を受信する。また、外部特性受信部134は、プリンタ200又はパーソナルコンピュータ400の画像出力特性として、プリンタ200又はパーソナルコンピュータ400が出力する色数を示す情報を受信する。また、外部特性受信部134は、プリンタ200又はパーソナルコンピュータ400の画像出力特性として、色バランスを示す情報を受信する。また、外部特性受信部134は、プリンタ200又はパーソナルコンピュータ400の画像出力特性として、解像度を示す情報を受信する。
【0022】
撮像部20は、ユーザの操作に基づいて被写体の主画像を取得する。副画像生成部141は、撮像部20が取得した主画像に対して、外部特性受信部134が受信した画像処理特性及び/又は画像出力特性に基づいた画像処理を行い、副画像を生成する。格納部120は、撮像部20が取得した主画像と副画像生成部141が生成した副画像とを対応付けて格納する。そして、画像送信部132は、格納部120が格納した主画像及び副画像を互いに対応づけて、プリンタ200又はパーソナルコンピュータ400に出力する。
【0023】
図3は、図2で説明した副画像生成部141の機能ブロックの一例を示す。副画像生成部141は、ガンマ合成部143、ガンマ処理部142、色数処理部144、色バランス処理部146、及び解像度処理部148を含む。
【0024】
ガンマ合成部143は、外部特性受信部134が受信したプリンタ200又はパーソナルコンピュータ400の第1のガンマ特性と、デジタルカメラ10の第2のガンマ特性に基づいて第3のガンマ特性を生成する。そして、ガンマ処理部142は、ガンマ合成部143が生成した第3のガンマ特性に基づいて、撮像部20が取得した主画像をガンマ処理する。
【0025】
色数処理部144は、外部特性受信部134が受信した、プリンタ200又はパーソナルコンピュータ400が出力する色数を示す情報に基づいて、主画像の色数を調節する。例えば、色数処理部144は、主画像の色数を、プリンタ200又はパーソナルコンピュータ400が出力する色数に合わせてもよい。色バランス処理部146は、外部特性受信部134が受信した、プリンタ200又はパーソナルコンピュータ400の色バランスを示す情報に基づいて、主画像の色バランスを調節する。例えば、色バランス処理部146は、プリンタ200又はパーソナルコンピュータ400の色バランスとして、RGBバランスを取得し、主画像のRGBバランスが取得したRGBバランスに合うように、主画像を調節する。
【0026】
解像度処理部148は、外部特性受信部134が受信した、プリンタ200又はパーソナルコンピュータ400の解像度を示す情報に基づいて、主画像の解像度を調節する。例えば、プリンタ200が印刷できるドット数が、主画像のドット数よりも小さい場合、解像度処理部148は、主画像を縮小して、主画像のドット数をプリンタ200が印刷可能なドット数に削減してもよい。また、パーソナルコンピュータ400がモニタに表示できるドット数が、主画像のドット数よりも小さい場合、解像度処理部148は、主画像を縮小して、主画像のドット数をパーソナルコンピュータ400のモニタが表示できるドット数に削減してもよい。
以上の処理により、副画像生成部141は、主画像から副画像を生成する。そして、副画像生成部141は、生成した副画像を格納部120に送信する。
【0027】
図4は、本実施形態に係るプリンタ200及びパーソナルコンピュータ400の機能構成の一例を示す。プリンタ200及びパーソナルコンピュータ400は、図2におけるデジタルカメラ10の画像送信部132が送信した主画像及び副画像を受信する画像受信部202、画像受信部202が受信した副画像を解析する副画像解析部208、副画像解析部208が副画像を解析した結果に基づいて、主画像を画像処理する画像処理部206、画像処理部206の画像処理特性を前記撮像装置に送信する処理特性送信部210、画像処理部206が画像処理した主画像を出力する画像出力部204、及び画像出力部204の画像出力特性をデジタルカメラ10に送信する出力特性送信部212を有する。なお、プリンタ200にとって、画像出力部204は、例えば印刷部である。また、パーソナルコンピュータ400にとって、画像出力部204は、例えばLCD等の表示部である。
【0028】
以上のような画像処理システム500によれば、デジタルカメラ10は、被写体の主画像と、プリンタ200又はパーソナルコンピュータ400の画像処理特性及び/又は画像出力特性を反映した副画像とを対応づけて、プリンタ200又はパーソナルコンピュータ400に出力する。そして、プリンタ200又はパーソナルコンピュータ400は、プリンタ200又はパーソナルコンピュータ400の画像処理特性及び/又は画像出力特性を反映した副画像に基づいて、主画像の画像補整を行う。
【0029】
すなわち、プリンタ200又はパーソナルコンピュータ400は、自らの特性を反映した副画像に基づいて、主画像に適切な画像補整を行うので、優れた画質で主画像を出力することができる。また、プリンタ200又はパーソナルコンピュータ400は、主画像に基づいて解析画像を生成する処理を省略することができるので、プリント時間又は表示時間を短縮することができる。
【0030】
また、プリンタ200は又はパーソナルコンピュータ400は、それぞれが出力する解像度に合わせて縮小された副画像を解析するので、解析時間を短縮し、プリント時間又は表示時間を短縮することが出来る。また、画像処理システム500は、ガンマ処理部142が、第3のガンマ特性を用いて主画像をガンマ処理するので、ガンマ処理の回数を削減することができる。従って、画像処理システム500は、ガンマ処理で発生する量子化誤差を低減することが出来る。
【0031】
図5は、デジタルカメラ10及びプリンタ200の動作の一例を示すシーケンスである。まず、プリンタ200は、画像処理特性及び/又は印刷出力特性をデジタルカメラ10に送信する(S200)。デジタルカメラ10は、プリンタ200の画像画像処理特性及び/又は印刷出力特性を受信して(S100)、格納する。そして、デジタルカメラ10は、ユーザの操作に基づいて、被写体の主画像を取得する(S102)。次に、デジタルカメラ10は、プリンタ200の画像処理特性及び/又は印刷出力特性に基づいて主画像から副画像を生成する(S104)。デジタルカメラ10は、主画像と副画像とを対応づけて格納し、ユーザの操作に基づいて、主画像と副画像とを対応づけてプリンタ200に送信する(S106)。
【0032】
プリンタ200は、対応づけられた主画像及び副画像をデジタルカメラ10から受信する(S202)。次に、プリンタ200は、主画像に対応づけられた副画像を解析して、主画像の補整条件を決定する(S204)。次にプリンタ200は、副画像を解析した結果に基づいて、主画像に対して画像処理を行う(S206)。そして、プリンタ200は、画像処理した主画像を印刷する(S208)。以上で本シーケンスは終了する。
【0033】
以上説明した方法によれば、プリンタ200の特性を反映した副画像に基づいて、主画像に適切な画像補整を行うので、優れた画質で主画像を出力することができる。また、プリンタ200が主画像に基づいて解析画像を生成する処理を省略するので、プリンタ200が画像を受信してから印刷するまでの時間を短縮することができる。
【0034】
なお、本シーケンスにおいて、プリンタ200はパーソナルコンピュータ400であってもよい、この場合、印刷出力特性はモニタ出力特性であり、S208において、パーソナルコンピュータ400は、主画像をモニタに表示する。
【0035】
図6は、本実施形態に係るパーソナルコンピュータ400のハードウェア構成の一例を示す。パーソナルコンピュータ400は、CPU700と、ROM702と、RAM704と、通信インタフェース706と、ハードディスクドライブ708と、データベースインタフェース710と、フロッピーディスクドライブ712と、CD−ROMドライブ714とを備える。CPU700は、ROM702及びRAM704に格納されたプログラムに基づいて動作し、各部の制御を行う。通信インタフェース706は、デジタルカメラ10及びプリンタ200と通信する。データベースインタフェース710は、データベースへのデータの書込、及びデータベースの内容の更新を行う。
【0036】
フロッピーディスクドライブ712は、フロッピーディスク720からデータ又はプログラムを読み取り通信インタフェース706に提供する。CD−ROMドライブ714は、CD−ROM722からデータ又はプログラムを読み取り通信インタフェース706に提供する。通信インタフェース706は、フロッピーディスクドライブ712又はCD−ROMドライブ714から提供されたデータ又はプログラムを、デジタルカメラ10又はプリンタ200に送信する。データベースインタフェース710は、各種データベース724と接続してデータを送受信する。
【0037】
デジタルカメラ10又はプリンタ200に提供されるプログラムは、フロッピーディスク720又はCD−ROM722等の記録媒体に格納されて利用者によって提供される。記録媒体に格納されたプログラムは圧縮されていても非圧縮であってもよい。プログラムは記録媒体から読み出され、通信インタフェース706を介して、デジタルカメラ10又はプリンタ200にインストールされ、デジタルカメラ10又はプリンタ200において実行される。
【0038】
記録媒体に格納されて提供され、デジタルカメラ10にインストールされるプログラムは、デジタルカメラ10を、撮像手段、格納手段、副画像生成手段、画像送信手段、外部特性受信手段、ガンマ合成手段、ガンマ処理手段、色数処理手段、色バランス処理手段、及び解像度処理手段として機能させる。
【0039】
また、記録媒体に格納されて提供され、プリンタ200及び/又はパーソナルコンピュータ400にインストールされるプログラムは、プリンタ200及び/又はパーソナルコンピュータ400を、画像受信手段、副画像解析手段、画像処理手段、画像出力手段、処理特性送信手段、及び出力特性送信手段として機能させる。前述の各手段として、デジタルカメラ10、プリンタ200、又はパーソナルコンピュータ400が機能する場合の動作は、図1から図5において説明したデジタルカメラ10、プリンタ200、及びパーソナルコンピュータ400における、対応する部材の動作と同一であるから、説明を省略する。
【0040】
図6に示した記録媒体の一例としてのフロッピーディスク720又はCD−ROM722には、本出願で説明した実施形態におけるデジタルカメラ10、プリンタ200又は、パーソナルコンピュータ400の動作の一部又は全ての機能を格納することができる。
【0041】
これらのプログラムは記録媒体から直接デジタルカメラ10又はプリンタ200によって読み出されて実行されても、デジタルカメラ10又はプリンタ200にインストールされた後にデジタルカメラ10又はプリンタ200において実行されてもよい。更に、上記プログラムは単一の記録媒体に格納されても複数の記録媒体に格納されてもよい。また、符号化した形態で格納されていてもよい。
【0042】
記録媒体としては、フロッピーディスク、CD−ROMの他にも、DVD、PD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、磁気記録媒体、ICカードやミニチュアカードなどの半導体メモリ等を用いることができる。また、専用通信ネットワークやインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の格納装置を記録媒体として使用し、通信網を介してプログラムをデジタルカメラ10又はプリンタ200に提供してもよい。
【0043】
図7は、本実施形態に係る撮像装置の一例であるデジタルカメラ10の構成を示す。デジタルカメラ10は、撮像部20、撮像制御部40、システム制御部60、表示部100、操作部110、格納部120、外部接続部130、及び画像処理部140を備える。なお、画像処理部140は、本発明に係る副画像生成部の一例である。外部接続部130は、本発明に係る画像送信部及び外部特性受信部の一例である。
【0044】
撮像部20は、撮影レンズ部22、絞り24、シャッタ26、光学LPF28、CCD30、撮像信号処理部32、ファインダ34、及びストロボ36を有する。
【0045】
撮影レンズ部22は、被写体像を取り込んで処理を施す。撮影レンズ部22は、フォーカスレンズやズームレンズ等を含み、被写体像をCCD30の受光面上に結像する。絞り24は、撮影レンズ部22を通過した光を絞り、光学LPF28は、絞り24を通過した光に含まれる所定の空間周波数よりも低い空間周波数の光を通過させる。CCD30が含む各受光素子300は、結像した被写体像の光量に応じ、電荷を蓄積する(以下その電荷を「蓄積電荷」という)。
【0046】
シャッタ26は、機械式シャッタであり、撮影レンズ部22を通過した光をCCD30に露光するか否かを制御する。また、デジタルカメラ10は、シャッタ26に代えて電子シャッタ機能を有してもよい。電子シャッタ機能を実現するために、CCD30の受光素子300は、シャッタゲート及びシャッタドレインを有する。シャッタゲートを駆動することにより、蓄積電荷がシャッタドレインに掃き出される。シャッタゲートの制御により、各受光素子300に電荷を蓄積する時間、即ちシャッタスピードを制御できる。CCD30において、蓄積電荷は、リードゲートパルスによってシフトレジスタに読み出され、レジスタ転送パルスによって電圧信号として順次読み出される。
【0047】
撮像信号処理部32は、CCD30から出力される被写体像を示す電圧信号、即ちアナログ信号をR、G、B成分に色分解する。そして、撮像信号処理部32は、R、G、B成分を調整することにより、被写体像のホワイトバランスを調整する。撮像信号処理部32は、被写体像のガンマ補正を行う。そして、撮像信号処理部32は、R、G、B成分に分解されたアナログ信号をA/D変換し、その結果得られた被写体像のデジタルの画像データ(以下「デジタル画像データ」という)をシステム制御部60へ出力する。
【0048】
ファインダ34は、表示手段を有してもよく、後述のメインCPU62等からの各種情報をファインダ34内に表示してもよい。ストロボ36は、コンデンサに蓄えられたエネルギを放電する放電管37を有し、放電管37にエネルギが供給されたとき放電管37が発光することで機能する。
【0049】
撮像制御部40は、ズーム駆動部42、フォーカス駆動部44、絞り駆動部46、シャッタ駆動部48、それらを制御する撮像系CPU50、測距センサ52、及び測光センサ54を有する。ズーム駆動部42、フォーカス駆動部44、絞り駆動部46、及びシャッタ駆動部48は、それぞれステッピングモータ等の駆動手段を有し、撮像部20に含まれる機構部材を駆動する。
【0050】
後述のレリーズスイッチ114の押下に応じ、測距センサ52は被写体までの距離を測定し、測光センサ54は被写体輝度を測定する。そして、測距センサ52及び測光センサ54は、測定された被写体までの距離のデータ(以下単に「測距データ」という)及び被写体輝度のデータ(以下単に「測光データ」という)を、それぞれ撮像系CPU50に供給する。
【0051】
撮像系CPU50は、ユーザから指示されたズーム倍率等の撮影情報に基づき、ズーム駆動部42及びフォーカス駆動部44を制御して撮影レンズ部22のズーム倍率とピントの調整を行う。また、撮像系CPU50は、測距センサ52から受け取った測距データに基づいて、ズーム駆動部42及びフォーカス駆動部44を制御してズーム倍率及びピントの調整を行ってもよい。
【0052】
撮像系CPU50は、測光センサ54から受け取った測光データに基づいて、絞り値及びシャッタスピードを決定する。決定された値に従い、絞り駆動部46及びシャッタ駆動部48は、絞り24の絞り量及びシャッタ26の開閉をそれぞれ制御する。
【0053】
また、撮像系CPU50は、測光センサ54から受け取った測光データに基づいて、ストロボ36の発光を制御し、同時に絞り24の絞り量を調整する。ユーザが映像の取込を指示したとき、CCD30は電荷蓄積を開始し、測光データから計算されたシャッタ時間の経過後、蓄積電荷を撮像信号処理部32へ出力する。
【0054】
システム制御部60は、メインCPU62、キャラクタ生成部84、タイマ86、及びクロック発生器88を有する。メインCPU62は、デジタルカメラ10全体、特にシステム制御部60を制御する。メインCPU62は、シリアル通信等により、撮像系CPU50との間で必要な情報の受け渡しをする。
【0055】
クロック発生器88は、メインCPU62の動作クロックを発生し、メインCPU62に供給する。また、クロック発生器88は、撮像系CPU50及び表示部100の動作クロックを発生する。クロック発生器88は、メインCPU62、撮像系CPU50、及び表示部100に対してそれぞれ異なる周波数の動作クロックを供給してもよい。
【0056】
キャラクタ生成部84は、撮影日時、タイトル等の撮影画像に合成する文字情報や、図形情報を生成する。タイマ86は、例えば電池等でバックアップされ、常に時間をカウントし、当該カウント値に基づいて撮影画像の撮影日時に関する情報等の時刻情報をメインCPU62に供給する。タイマ86は、蓄電池から供給された電力により、デジタルカメラ本体の電源がオフである場合にも時間をカウントするのが望ましい。また、キャラクタ生成部84及びタイマ86は、メインCPU62に併設されることが好ましい。
【0057】
格納部120は、メモリ制御部64、不揮発性メモリ66、及びメインメモリ68を有する。メモリ制御部64は、不揮発性メモリ66とメインメモリ68とを制御する。不揮発性メモリ66は、EEPROM(電気的消去及びプログラム可能なROM)やFLASHメモリ等で構成され、ユーザによる設定情報や出荷時の調整値等、デジタルカメラ10の電源がオフの間も保持すべきデータを格納する。不揮発性メモリ66は、メインCPU62のブートプログラムやシステムプログラム等を格納してもよい。
【0058】
メインメモリ68は、DRAMのように比較的安価で容量の大きなメモリで構成されることが好ましい。メインメモリ68は、撮像部20から出力されたデータを格納するフレームメモリとしての機能、各種プログラムをロードするシステムメモリとしての機能、その他ワークエリアとしての機能を有する。不揮発性メモリ66及びメインメモリ68は、システム制御部60内外の各部とバス82を介してデータのやりとりを行う。不揮発性メモリ66は、デジタル画像データを更に格納してもよい。
【0059】
画像処理部140は、YC処理部70、エンコーダ72、及び圧縮伸張処理部78を有する。また、外部接続部130は、オプション装置制御部74、及び通信I/F部80を有する。
【0060】
YC処理部70は、デジタル画像データにYC変換を施し、輝度信号Y、並びに色差(クロマ)信号B−Y及びR−Yを生成する。メインメモリ68は、メモリ制御部64の制御に基づいて、輝度信号及び色差信号を格納する。
【0061】
圧縮伸張処理部78は、メインメモリ68から順次輝度信号と色差信号を読み出して圧縮する。そして、オプション装置制御部74は、圧縮されたデジタル画像データ(以下単に「圧縮データ」という)をオプション装置76の一例であるメモリカードへ書き込む。
【0062】
エンコーダ72は、輝度信号と色差信号を、ビデオ信号(NTSCやPAL信号)に変換して端子90から出力する。オプション装置76に記録された圧縮データからビデオ信号を生成する場合、圧縮データは、まずオプション装置制御部74を介して圧縮伸張処理部78へ与えられる。続いて、圧縮伸張処理部78で必要な伸張処理が施されたデータはエンコーダ72によってビデオ信号へ変換される。
【0063】
オプション装置制御部74は、オプション装置76が許容する信号仕様及びバス82のバス仕様に従い、バス82とオプション装置76との間で必要な信号の生成、論理変換、及び/又は電圧変換等を行う。デジタルカメラ10は、オプション装置76として前述のメモリカードの他に、例えばPCMCIA準拠の標準的なI/Oカードをサポートしてもよい。その場合、オプション装置制御部74は、PCMCIA用バス制御LSI等で構成してもよい。
【0064】
通信I/F部80は、デジタルカメラ10がサポートする通信仕様、たとえばUSB、RS−232C、イーサネット等の仕様に応じたプロトコル変換等の制御を行う。通信I/F部80は、圧縮データ又はデジタル画像データを、端子92を介してネットワークを含む外部機器に出力してよい。通信I/F部80は、必要に応じてドライバICを含み、外部機器と端子92を介して通信する。通信I/F部80は、例えばプリンタ、カラオケ機、ゲーム機等の外部機器との間で独自のインタフェースによるデータ授受を行う構成としてもよい。
【0065】
表示部100は、LCDモニタ102、LCDパネル104、モニタドライバ106、及びパネルドライバ108を有する。モニタドライバ106は、LCDモニタ102を制御する。また、パネルドライバ108は、LCDパネル104を制御する。LCDモニタ102は、例えば2インチ程度の大きさでカメラ背面に設けられ、現在の撮影や再生のモード、撮影や再生のズーム倍率、電池残量、日時、モード設定のための画面、被写体画像等を表示する。LCDパネル104は例えば小さな白黒LCDでカメラ上面に設けられ、画質(FINE/NORMAL/BASIC等)、ストロボ発光/発光禁止、標準撮影可能枚数、画素数、電池容量/残量等の情報を表示する。
【0066】
操作部110は、パワースイッチ112、レリーズスイッチ114、機能設定部116、及びズームスイッチ118を有する。パワースイッチ112は、ユーザの指示に基づいてデジタルカメラ10の電源をオン/オフする。レリーズスイッチ114は、半押しと全押しの二段階押し込み構造を有する。一例として、レリーズスイッチ114が半押しされることにより、撮像制御部40は、自動焦点調整及び自動露出調整を行い、全押しされることにより、撮像部20は、被写体像を取り込む。
【0067】
機能設定部116は、例えば回転式のモードダイヤルや十字キー等であって、「ファイルフォーマット」、「特殊効果」、「印画」、「決定/保存」、「表示切換」等の設定を受け付ける。ズームスイッチ118は、撮像部20が取得する被写体像のズーム倍率の設定を受け付ける。
【0068】
以上の構成による主な動作は以下のとおりである。まずパワースイッチ112が押下され、デジタルカメラ10の各部に電力が供給される。メインCPU62は、機能設定部116の状態を読み込むことで、デジタルカメラ10が撮影モードにあるか再生モードにあるかを判断する。
【0069】
デジタルカメラ10が撮影モードの場合、メインCPU62は、レリーズスイッチ114の半押し状態を監視する。レリーズスイッチ114の半押し状態が検出されたとき、撮像系CPU50は、測光センサ54及び測距センサ52からそれぞれ測光データと測距データを得る。撮像制御部40は、撮像系CPU50が得た測光データ及び測距データに基づいて、撮像部20のピント、絞り等を調整する。調整が完了すると、LCDモニタは、「スタンバイ」等の文字を表示してユーザにその旨を伝える。
【0070】
続いて、メインCPU62は、レリーズスイッチ114の全押し状態を監視する。レリーズスイッチ114の全押し状態が検出されたとき、所定のシャッタ時間をおいてシャッタ26が閉じられ、CCD30の蓄積電荷が撮像信号処理部32へ掃き出される。撮像信号処理部32による処理の結果生成されたデジタル画像データはバス82へ出力される。デジタル画像データは一旦メインメモリ68へ格納され、この後YC処理部70と圧縮伸張処理部78で処理され、オプション装置制御部74を経由してオプション装置76へ記録される。記録されたデジタル画像データに基づく撮影画像は、フリーズされた状態でしばらくLCDモニタ102に表示され、ユーザは撮影画像を確認することができる。以上で一連の撮影動作が完了する。
【0071】
一方、デジタルカメラ10が再生モードの場合、メインCPU62は、メインメモリ68、不揮発性メモリ66、及び/又はオプション装置76から撮影した撮影画像を読み出し、これを表示部100のLCDモニタ102へ表示する。
【0072】
この状態でユーザが機能設定部116にて「順送り」、「逆送り」を指示すると、メインCPU62は、メインメモリ68、不揮発性メモリ66、及び/又はオプション装置76が格納した他の撮影画像を読み出し、これを表示部100のLCDモニタ102へ表示する。
【0073】
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に、多様な変更または改良を加えることができる。そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
【0074】
【発明の効果】
上記説明から明らかなように、本発明によれば、画像処理装置の特性を反映した副画像に基づいて、主画像に適切な画像補整を行うことにより、優れた画質で主画像を出力する画像処理システムを提供することが出来る。また、画像処理装置が画像を受信してから出力するまでの時間を短縮する画像処理システムを提供することができる。
【図面の簡単な説明】
【図1】 本発明の一実施形態に係る画像処理システム500の一例を示す図である。
【図2】 本実施形態に係るデジタルカメラ10の機能構成の一例を示す図である。
【図3】 副画像生成部141の機能構成の一例を示す図である。
【図4】 本実施形態に係るプリンタ200及びパーソナルコンピュータ400の機能構成の一例を示す図である。
【図5】 デジタルカメラ10及びプリンタ200の動作の一例を示すシーケンス図である。
【図6】 パーソナルコンピュータ400のハードウェア構成の一例を示す図である。
【図7】 デジタルカメラ10の詳細な機能構成の一例を示す図である。
【符号の説明】
10…デジタルカメラ 20…撮像部
120…格納部 132…画像送信部
134…外部特性受信部 141…副画像生成部
143…ガンマ合成部 142…ガンマ処理部
144…色数処理部 146…色バランス処理部
148…解像度処理部 200…プリンタ
202…画像受信部 204…画像出力部
206…画像処理部 208…副画像解析部
210…処理特性送信部 212…出力特性送信部
400…パーソナルコンピュータ 500…画像処理システム
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing system, an imaging apparatus, an imaging method, and a program. In particular, the present invention is an image processing system for processing image data, in which an imaging device generates a sub-image according to characteristics of the image processing device from a main image of a subject, and the image processing device is based on the sub-image. The present invention relates to an image processing system for appropriately correcting a main image.
[0002]
[Prior art]
Conventionally, when an image processing device such as a printer or a personal computer outputs an image, that is, when the printer prints an image and the personal computer displays the image on a monitor, these image processing devices are used to acquire the acquired main image. A sub-image for analysis is generated according to the characteristics of the apparatus, and the original image is corrected based on the result of analyzing the sub-image. Conventionally, an imaging device such as a digital camera generates a reduced image as an index for confirming an image from the acquired main image, and associates the main image with the reduced image and transmits the reduced image to an external image processing device. Was.
[0003]
[Problems to be solved by the invention]
However, in the conventional image processing apparatus, the process of generating the sub-image for analysis from the main image has hindered shortening the time from receiving the image to outputting it. In addition, since the reduced image generated by the conventional digital camera is not generated in consideration of the characteristics of the image processing apparatus, the sub-image that the image processing apparatus analyzes in order to determine the correction condition of the main image is used. It was not available.
[0004]
Accordingly, an object of the present invention is to provide an image processing system, an imaging apparatus, an imaging method, and a program that can solve the above-described problems. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous specific examples of the present invention.
[0005]
[Means for Solving the Problems]
In order to solve the above problems, according to a first aspect of the present invention, there is provided an image processing system that processes image data, an imaging device that images a subject, and an image processing device that receives an image from the imaging device. An imaging device that acquires a main image of a subject, and an external characteristic reception unit that receives a gamma characteristic that is an image processing characteristic of the image processing apparatus and / or a color balance that is an image output characteristic from the image processing apparatus A gamma process and / or color balance adjustment on the main image based on the gamma characteristic and / or color balance received by the external characteristic receiving unit, and a sub-image generating unit that generates a sub-image having a data size smaller than that of the main image An image processing device having a storage unit for storing the main image and the sub image in association with each other and an image transmission unit for transmitting the main image and the sub image to the image processing device in association with each other. An image receiving unit that receives the main image and the sub-image transmitted by the image transmitting unit, a sub-image analyzing unit that analyzes the sub-image received by the image receiving unit, and a result of the sub-image analyzing unit analyzing the sub-image The image processing unit that performs image processing on the main image, and the image output unit that outputs the main image subjected to image processing by the image processing unit.
[0006]
The image processing apparatus may further include a processing characteristic transmission unit that transmits the gamma characteristic and / or color balance of the image processing unit to the imaging apparatus.
[0007]
According to the second aspect of the present invention, there is provided an image processing apparatus that captures an image of a subject from an image capturing unit that acquires a main image of the subject and an external image processing device that performs image processing on the main image. An external characteristic receiving unit that receives the first gamma characteristic and / or the color balance that is the image output characteristic, and the main image based on the gamma characteristic and / or color balance received by the external characteristic receiving unit A gamma process and / or color balance adjustment, a sub-image generation unit that generates a sub-image having a data size smaller than that of the main image, a storage unit that stores the main image and the sub-image in association with each other, and a main image and a sub-image And an image transmission unit that transmits the image to the image processing apparatus in association with each other.
[0008]
The sub-image generation unit is configured to generate a third gamma characteristic based on the first gamma characteristic of the image processing device and the second gamma characteristic of the imaging device, and based on the third gamma characteristic. A gamma processing unit that generates a sub-image by subjecting the main image to gamma processing.
[0009]
The external characteristic receiving unit may further receive information indicating the number of colors output from the image processing apparatus as the image output characteristic.
[0010]
The external characteristic receiving unit may further receive information indicating the resolution of the image processing apparatus as the image output characteristic.
[0013]
The above summary of the invention does not enumerate all the necessary features of the present invention, and sub-combinations of these feature groups can also be the invention.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described through embodiments of the invention. However, the following embodiments do not limit the claimed invention, and all combinations of features described in the embodiments are the solution of the invention. It is not always essential to the means.
[0015]
FIG. 1 shows an example of an image processing system 500 according to an embodiment of the present invention. The image processing system 500 includes a digital camera 10, a printer 200, and a personal computer 400. The digital camera 10, the printer 200, and the personal computer 400 exchange data with each other via a data transmission path. The data transmission path is, for example, a wired communication medium such as IEEE1394 or USB, or a wireless communication medium such as IrDA, Bluetooth, or wireless LAN. The data transmission path may be a network network using a plurality of wired communication media and wireless communication media, for example, the Internet network. In addition, a recording medium such as a removable medium may be used to exchange data between the digital camera 10, the printer 200, and the personal computer 400.
[0016]
The printer 200 transmits the image processing characteristics and / or image output characteristics of the printer 200 to the digital camera 10. The personal computer 400 transmits the image processing characteristics and / or image output characteristics of the personal computer 400 to the digital camera 10. The digital camera 10 receives and stores image processing characteristics and / or image output characteristics of the printer 200. The digital camera 10 receives and stores the image processing characteristics and / or image output characteristics of the personal computer 400.
[0017]
The digital camera 10 acquires a main image of a subject based on a user operation. The digital camera 10 generates a sub image from the acquired main image based on the stored image processing characteristics and / or image output characteristics. Then, the digital camera 10 associates the acquired main image with the generated sub-image and transmits them to the printer 200 or the personal computer 400. Here, the sub image preferably has a data size smaller than that of the main image.
[0018]
The printer 200 or the personal computer 400 receives the main image and the sub image that are associated with each other from the digital camera 10. Then, the printer 200 or the personal computer 400 analyzes the sub image associated with the main image, and performs image processing on the main image based on the analysis result of the sub image. Then, the printer 200 or the personal computer 400 outputs a main image that has undergone image processing. That is, the printer 200 prints the main image, and the personal computer 400 displays the main image on the monitor.
[0019]
The digital camera 10 is an example of an imaging apparatus according to the present invention. The imaging device may be a digital still camera that captures still images or a digital video camera that captures moving images. The printer 200 and the personal computer 400 are examples of the image processing apparatus of the present invention. The image processing apparatus may be a laboratory printing apparatus that automatically adjusts and prints the image quality of an image captured by a digital camera.
[0020]
FIG. 2 shows an example of a functional configuration of the digital camera 10 according to the present embodiment. The digital camera 10 receives external characteristic reception for receiving image processing characteristics and / or image output characteristics of the image processing apparatus from external image processing apparatuses such as the imaging unit 20, the printer 200, and the personal computer 400 that acquire the main image of the subject. 134, a sub image generation unit 141 that generates a sub image from a main image based on image processing characteristics and / or image output characteristics received by the external characteristic receiving unit 134, and a storage that stores the main image and the sub image in association with each other. And an image transmission unit 132 that transmits the associated main image and sub-image to the image processing apparatus.
[0021]
The external characteristic receiving unit 134 receives image processing characteristics and / or image output characteristics of the printer 200 from the printer 200, for example. The external characteristic receiving unit 134 receives image processing characteristics and / or image output characteristics of the personal computer 400 from the personal computer 400, for example. Specifically, the external characteristic receiving unit 134 receives information indicating a gamma characteristic as an image processing characteristic of the printer 200 or the personal computer 400. The external characteristic receiving unit 134 receives information indicating the number of colors output from the printer 200 or the personal computer 400 as the image output characteristics of the printer 200 or the personal computer 400. Further, the external characteristic receiving unit 134 receives information indicating the color balance as the image output characteristic of the printer 200 or the personal computer 400. Further, the external characteristic receiving unit 134 receives information indicating resolution as an image output characteristic of the printer 200 or the personal computer 400.
[0022]
The imaging unit 20 acquires a main image of the subject based on a user operation. The sub image generation unit 141 performs image processing on the main image acquired by the imaging unit 20 based on the image processing characteristics and / or image output characteristics received by the external characteristic reception unit 134, and generates a sub image. The storage unit 120 stores the main image acquired by the imaging unit 20 and the sub image generated by the sub image generation unit 141 in association with each other. Then, the image transmission unit 132 associates the main image and the sub image stored in the storage unit 120 with each other, and outputs them to the printer 200 or the personal computer 400.
[0023]
FIG. 3 shows an example of functional blocks of the sub-image generation unit 141 described in FIG. The sub-image generation unit 141 includes a gamma synthesis unit 143, a gamma processing unit 142, a color number processing unit 144, a color balance processing unit 146, and a resolution processing unit 148.
[0024]
The gamma synthesis unit 143 generates a third gamma characteristic based on the first gamma characteristic of the printer 200 or the personal computer 400 received by the external characteristic reception unit 134 and the second gamma characteristic of the digital camera 10. Then, the gamma processing unit 142 performs gamma processing on the main image acquired by the imaging unit 20 based on the third gamma characteristic generated by the gamma synthesis unit 143.
[0025]
The color number processing unit 144 adjusts the number of colors of the main image based on the information received by the external characteristic receiving unit 134 and indicating the number of colors output from the printer 200 or the personal computer 400. For example, the color number processing unit 144 may match the number of colors of the main image with the number of colors output from the printer 200 or the personal computer 400. The color balance processing unit 146 adjusts the color balance of the main image based on the information received by the external characteristic receiving unit 134 and indicating the color balance of the printer 200 or the personal computer 400. For example, the color balance processing unit 146 acquires RGB balance as the color balance of the printer 200 or the personal computer 400, and adjusts the main image so that the RGB balance of the main image matches the acquired RGB balance.
[0026]
The resolution processing unit 148 adjusts the resolution of the main image based on the information received by the external characteristic receiving unit 134 and indicating the resolution of the printer 200 or the personal computer 400. For example, when the number of dots that can be printed by the printer 200 is smaller than the number of dots in the main image, the resolution processing unit 148 reduces the main image to reduce the number of dots in the main image to the number of dots that the printer 200 can print. May be. When the number of dots that can be displayed on the monitor by the personal computer 400 is smaller than the number of dots in the main image, the resolution processing unit 148 reduces the main image and displays the number of dots in the main image on the monitor of the personal computer 400. The number of dots can be reduced.
Through the above processing, the sub image generation unit 141 generates a sub image from the main image. Then, the sub-image generation unit 141 transmits the generated sub-image to the storage unit 120.
[0027]
FIG. 4 shows an example of functional configurations of the printer 200 and the personal computer 400 according to the present embodiment. The printer 200 and the personal computer 400 include an image receiving unit 202 that receives a main image and a sub image transmitted by the image transmitting unit 132 of the digital camera 10 in FIG. 2, and a sub image analysis that analyzes the sub image received by the image receiving unit 202. 208, an image processing unit 206 that performs image processing on the main image, and a processing characteristic transmission unit 210 that transmits image processing characteristics of the image processing unit 206 to the imaging device, based on the result of analysis of the sub image by the sub image analysis unit 208. The image processing unit 206 includes an image output unit 204 that outputs a main image subjected to image processing, and an output characteristic transmission unit 212 that transmits image output characteristics of the image output unit 204 to the digital camera 10. For the printer 200, the image output unit 204 is, for example, a printing unit. For the personal computer 400, the image output unit 204 is a display unit such as an LCD.
[0028]
According to the image processing system 500 as described above, the digital camera 10 associates the main image of the subject with the sub-image that reflects the image processing characteristics and / or image output characteristics of the printer 200 or the personal computer 400, and The data is output to the printer 200 or the personal computer 400. The printer 200 or the personal computer 400 corrects the main image based on the sub-image reflecting the image processing characteristics and / or the image output characteristics of the printer 200 or the personal computer 400.
[0029]
That is, since the printer 200 or the personal computer 400 performs appropriate image correction on the main image based on the sub-image reflecting its own characteristics, the main image can be output with excellent image quality. Further, since the printer 200 or the personal computer 400 can omit the process of generating the analysis image based on the main image, the print time or the display time can be shortened.
[0030]
In addition, since the printer 200 or the personal computer 400 analyzes the sub-images that are reduced in accordance with the output resolution, the analysis time can be shortened, and the print time or display time can be shortened. In the image processing system 500, since the gamma processing unit 142 performs gamma processing on the main image using the third gamma characteristic, the number of times of gamma processing can be reduced. Therefore, the image processing system 500 can reduce the quantization error generated by the gamma processing.
[0031]
FIG. 5 is a sequence showing an example of operations of the digital camera 10 and the printer 200. First, the printer 200 transmits image processing characteristics and / or print output characteristics to the digital camera 10 (S200). The digital camera 10 receives and stores the image image processing characteristics and / or print output characteristics of the printer 200 (S100). Then, the digital camera 10 acquires a main image of the subject based on the user's operation (S102). Next, the digital camera 10 generates a sub image from the main image based on the image processing characteristics and / or print output characteristics of the printer 200 (S104). The digital camera 10 stores the main image and the sub image in association with each other, and transmits the main image and the sub image in association with each other based on the user's operation (S106).
[0032]
The printer 200 receives the associated main image and sub image from the digital camera 10 (S202). Next, the printer 200 analyzes the sub-image associated with the main image, and determines the correction condition for the main image (S204). Next, the printer 200 performs image processing on the main image based on the result of analyzing the sub-image (S206). Then, the printer 200 prints the processed main image (S208). This sequence is completed.
[0033]
According to the method described above, image correction appropriate for the main image is performed based on the sub-image reflecting the characteristics of the printer 200, so that the main image can be output with excellent image quality. In addition, since the process of generating an analysis image based on the main image by the printer 200 is omitted, it is possible to shorten the time from when the printer 200 receives the image until printing.
[0034]
In this sequence, the printer 200 may be the personal computer 400. In this case, the print output characteristic is the monitor output characteristic, and in S208, the personal computer 400 displays the main image on the monitor.
[0035]
FIG. 6 shows an example of a hardware configuration of the personal computer 400 according to the present embodiment. The personal computer 400 includes a CPU 700, ROM 702, RAM 704, communication interface 706, hard disk drive 708, database interface 710, floppy disk drive 712, and CD-ROM drive 714. The CPU 700 operates based on a program stored in the ROM 702 and the RAM 704 and controls each unit. The communication interface 706 communicates with the digital camera 10 and the printer 200. The database interface 710 writes data into the database and updates the contents of the database.
[0036]
The floppy disk drive 712 reads data or a program from the floppy disk 720 and provides it to the communication interface 706. The CD-ROM drive 714 reads data or a program from the CD-ROM 722 and provides it to the communication interface 706. The communication interface 706 transmits data or a program provided from the floppy disk drive 712 or the CD-ROM drive 714 to the digital camera 10 or the printer 200. The database interface 710 is connected to various databases 724 to transmit / receive data.
[0037]
The program provided to the digital camera 10 or the printer 200 is stored in a recording medium such as the floppy disk 720 or the CD-ROM 722 and provided by the user. The program stored in the recording medium may be compressed or uncompressed. The program is read from the recording medium, installed in the digital camera 10 or the printer 200 via the communication interface 706, and executed in the digital camera 10 or the printer 200.
[0038]
The program provided by being stored in a recording medium and installed in the digital camera 10 includes the digital camera 10, an imaging unit, a storage unit, a sub-image generation unit, an image transmission unit, an external characteristic reception unit, a gamma synthesis unit, and a gamma process. Means, color number processing means, color balance processing means, and resolution processing means.
[0039]
A program stored in a recording medium and installed in the printer 200 and / or the personal computer 400 includes the printer 200 and / or the personal computer 400, an image receiving unit, a sub-image analyzing unit, an image processing unit, an image It functions as output means, processing characteristic transmission means, and output characteristic transmission means. The operations when the digital camera 10, the printer 200, or the personal computer 400 function as the above-described means are the same as those of the corresponding members in the digital camera 10, the printer 200, and the personal computer 400 described with reference to FIGS. 1 to 5. Since it is the same as operation | movement, description is abbreviate | omitted.
[0040]
A floppy disk 720 or a CD-ROM 722 as an example of the recording medium shown in FIG. 6 has a part or all of the functions of the digital camera 10, the printer 200, or the personal computer 400 in the embodiment described in this application. Can be stored.
[0041]
These programs may be read and executed directly from the recording medium by the digital camera 10 or the printer 200, or may be executed by the digital camera 10 or the printer 200 after being installed in the digital camera 10 or the printer 200. Further, the program may be stored in a single recording medium or a plurality of recording media. Further, it may be stored in an encoded form.
[0042]
As recording media, in addition to floppy disks and CD-ROMs, optical recording media such as DVD and PD, magneto-optical recording media such as MD, tape media, magnetic recording media, semiconductor memories such as IC cards and miniature cards, etc. Can be used. Further, a storage device such as a hard disk or a RAM provided in a server system connected to a dedicated communication network or the Internet may be used as a recording medium, and the program may be provided to the digital camera 10 or the printer 200 via the communication network.
[0043]
FIG. 7 shows a configuration of a digital camera 10 that is an example of an imaging apparatus according to the present embodiment. The digital camera 10 includes an imaging unit 20, an imaging control unit 40, a system control unit 60, a display unit 100, an operation unit 110, a storage unit 120, an external connection unit 130, and an image processing unit 140. The image processing unit 140 is an example of a sub image generation unit according to the present invention. The external connection unit 130 is an example of an image transmission unit and an external characteristic reception unit according to the present invention.
[0044]
The imaging unit 20 includes a photographic lens unit 22, a diaphragm 24, a shutter 26, an optical LPF 28, a CCD 30, an imaging signal processing unit 32, a finder 34, and a strobe 36.
[0045]
The taking lens unit 22 takes in a subject image and performs processing. The photographing lens unit 22 includes a focus lens, a zoom lens, and the like, and forms a subject image on the light receiving surface of the CCD 30. The stop 24 stops light that has passed through the photographing lens unit 22, and the optical LPF 28 passes light having a spatial frequency lower than a predetermined spatial frequency included in the light that has passed through the stop 24. Each light receiving element 300 included in the CCD 30 accumulates charges according to the amount of light of the imaged subject image (hereinafter, the charges are referred to as “accumulated charges”).
[0046]
The shutter 26 is a mechanical shutter and controls whether or not the CCD 30 is exposed to the light that has passed through the photographing lens unit 22. The digital camera 10 may have an electronic shutter function instead of the shutter 26. In order to realize the electronic shutter function, the light receiving element 300 of the CCD 30 has a shutter gate and a shutter drain. By driving the shutter gate, the accumulated charge is swept out to the shutter drain. By controlling the shutter gate, the time during which charges are accumulated in each light receiving element 300, that is, the shutter speed can be controlled. In the CCD 30, the accumulated charge is read to the shift register by a read gate pulse, and sequentially read as a voltage signal by a register transfer pulse.
[0047]
The imaging signal processing unit 32 color-separates a voltage signal indicating an object image output from the CCD 30, that is, an analog signal, into R, G, and B components. Then, the imaging signal processing unit 32 adjusts the white balance of the subject image by adjusting the R, G, and B components. The imaging signal processing unit 32 performs gamma correction on the subject image. The imaging signal processing unit 32 performs A / D conversion on the analog signal decomposed into R, G, and B components, and digital image data (hereinafter referred to as “digital image data”) of the subject image obtained as a result. Output to the system control unit 60.
[0048]
The finder 34 may have a display means, and may display various types of information from the main CPU 62 described later in the finder 34. The strobe 36 has a discharge tube 37 that discharges the energy stored in the capacitor, and functions when the discharge tube 37 emits light when energy is supplied to the discharge tube 37.
[0049]
The imaging control unit 40 includes a zoom driving unit 42, a focus driving unit 44, an aperture driving unit 46, a shutter driving unit 48, an imaging system CPU 50 that controls them, a distance measuring sensor 52, and a photometric sensor 54. The zoom driving unit 42, the focus driving unit 44, the aperture driving unit 46, and the shutter driving unit 48 each have a driving unit such as a stepping motor, and drive a mechanism member included in the imaging unit 20.
[0050]
In response to pressing of a release switch 114 described later, the distance measuring sensor 52 measures the distance to the subject, and the photometric sensor 54 measures the subject brightness. The distance measuring sensor 52 and the photometric sensor 54 respectively measure the measured distance to the subject (hereinafter simply referred to as “distance data”) and the subject luminance data (hereinafter simply referred to as “photometric data”). It supplies to CPU50.
[0051]
The imaging system CPU 50 adjusts the zoom magnification and focus of the photographing lens unit 22 by controlling the zoom driving unit 42 and the focus driving unit 44 based on photographing information such as a zoom magnification designated by the user. Further, the imaging system CPU 50 may adjust the zoom magnification and focus by controlling the zoom drive unit 42 and the focus drive unit 44 based on the distance measurement data received from the distance measurement sensor 52.
[0052]
The imaging system CPU 50 determines the aperture value and the shutter speed based on the photometric data received from the photometric sensor 54. In accordance with the determined values, the aperture driving unit 46 and the shutter driving unit 48 respectively control the aperture amount of the aperture 24 and the opening / closing of the shutter 26.
[0053]
Further, the imaging system CPU 50 controls the light emission of the strobe 36 based on the photometric data received from the photometric sensor 54 and adjusts the aperture amount of the aperture 24 at the same time. When the user instructs to capture an image, the CCD 30 starts charge accumulation, and outputs the accumulated charge to the imaging signal processing unit 32 after a lapse of the shutter time calculated from the photometric data.
[0054]
The system control unit 60 includes a main CPU 62, a character generation unit 84, a timer 86, and a clock generator 88. The main CPU 62 controls the entire digital camera 10, particularly the system control unit 60. The main CPU 62 exchanges necessary information with the imaging CPU 50 by serial communication or the like.
[0055]
The clock generator 88 generates an operation clock for the main CPU 62 and supplies it to the main CPU 62. The clock generator 88 generates an operation clock for the imaging system CPU 50 and the display unit 100. The clock generator 88 may supply operation clocks having different frequencies to the main CPU 62, the imaging system CPU 50, and the display unit 100.
[0056]
The character generation unit 84 generates character information and graphic information to be combined with a captured image such as a shooting date and time and a title. The timer 86 is backed up by a battery or the like, for example, always counts time, and supplies time information such as information related to the shooting date and time of the shot image to the main CPU 62 based on the count value. It is desirable that the timer 86 counts the time even when the power source of the digital camera body is off by the power supplied from the storage battery. The character generation unit 84 and the timer 86 are preferably provided in the main CPU 62.
[0057]
The storage unit 120 includes a memory control unit 64, a nonvolatile memory 66, and a main memory 68. The memory control unit 64 controls the nonvolatile memory 66 and the main memory 68. The non-volatile memory 66 includes an EEPROM (electrically erasable and programmable ROM), a FLASH memory, and the like, and should be retained even when the power of the digital camera 10 is turned off, such as setting information and adjustment values at the time of shipment. Store the data. The nonvolatile memory 66 may store a boot program, a system program, and the like for the main CPU 62.
[0058]
The main memory 68 is preferably composed of a relatively inexpensive memory having a large capacity, such as a DRAM. The main memory 68 has a function as a frame memory for storing data output from the imaging unit 20, a function as a system memory for loading various programs, and other functions as a work area. The nonvolatile memory 66 and the main memory 68 exchange data with each unit inside and outside the system control unit 60 via the bus 82. The nonvolatile memory 66 may further store digital image data.
[0059]
The image processing unit 140 includes a YC processing unit 70, an encoder 72, and a compression / decompression processing unit 78. The external connection unit 130 includes an optional device control unit 74 and a communication I / F unit 80.
[0060]
The YC processing unit 70 performs YC conversion on the digital image data, and generates a luminance signal Y and color difference (chroma) signals BY and RY. The main memory 68 stores the luminance signal and the color difference signal based on the control of the memory control unit 64.
[0061]
The compression / decompression processing unit 78 sequentially reads out the luminance signal and the color difference signal from the main memory 68 and compresses them. Then, the option device control unit 74 writes the compressed digital image data (hereinafter simply referred to as “compressed data”) to a memory card that is an example of the option device 76.
[0062]
The encoder 72 converts the luminance signal and the color difference signal into a video signal (NTSC or PAL signal) and outputs it from the terminal 90. When a video signal is generated from the compressed data recorded in the option device 76, the compressed data is first supplied to the compression / decompression processing unit 78 via the option device control unit 74. Subsequently, the data that has undergone the necessary decompression processing in the compression / decompression processing unit 78 is converted into a video signal by the encoder 72.
[0063]
The optional device control unit 74 performs necessary signal generation, logical conversion, and / or voltage conversion between the bus 82 and the optional device 76 in accordance with the signal specifications allowed by the optional device 76 and the bus specifications of the bus 82. . The digital camera 10 may support a standard I / O card conforming to PCMCIA, for example, in addition to the memory card described above as the optional device 76. In this case, the option device control unit 74 may be configured by a PCMCIA bus control LSI or the like.
[0064]
The communication I / F unit 80 performs control such as protocol conversion according to communication specifications supported by the digital camera 10, such as USB, RS-232C, Ethernet, and the like. The communication I / F unit 80 may output the compressed data or digital image data to an external device including a network via the terminal 92. The communication I / F unit 80 includes a driver IC as necessary, and communicates with an external device via a terminal 92. The communication I / F unit 80 may be configured to exchange data with an external interface such as a printer, a karaoke machine, or a game machine.
[0065]
The display unit 100 includes an LCD monitor 102, an LCD panel 104, a monitor driver 106, and a panel driver 108. The monitor driver 106 controls the LCD monitor 102. The panel driver 108 controls the LCD panel 104. The LCD monitor 102 is provided on the rear side of the camera with a size of about 2 inches, for example, and the current shooting / playback mode, zoom magnification for shooting / playback, battery level, date / time, mode setting screen, subject image, etc. Is displayed. The LCD panel 104 is a small black and white LCD, for example, provided on the upper surface of the camera, and displays information such as image quality (FINE / NORMAL / BASIC, etc.), strobe light emission / flash inhibition, standard number of shoots, number of pixels, battery capacity / remaining capacity, etc. .
[0066]
The operation unit 110 includes a power switch 112, a release switch 114, a function setting unit 116, and a zoom switch 118. The power switch 112 turns on / off the power of the digital camera 10 based on a user instruction. The release switch 114 has a two-stage pushing structure of half-pressing and full-pressing. As an example, when the release switch 114 is half-pressed, the imaging control unit 40 performs automatic focus adjustment and automatic exposure adjustment, and when fully pressed, the imaging unit 20 captures a subject image.
[0067]
The function setting unit 116 is, for example, a rotary mode dial or a cross key, and accepts settings such as “file format”, “special effect”, “print”, “decision / save”, “display switching”, and the like. The zoom switch 118 receives the setting of the zoom magnification of the subject image acquired by the imaging unit 20.
[0068]
The main operation of the above configuration is as follows. First, the power switch 112 is pressed to supply power to each part of the digital camera 10. The main CPU 62 reads the state of the function setting unit 116 to determine whether the digital camera 10 is in the shooting mode or the playback mode.
[0069]
When the digital camera 10 is in the shooting mode, the main CPU 62 monitors the half-pressed state of the release switch 114. When the half-pressed state of the release switch 114 is detected, the imaging system CPU 50 obtains photometry data and distance measurement data from the photometry sensor 54 and the distance measurement sensor 52, respectively. The imaging control unit 40 adjusts the focus, aperture, and the like of the imaging unit 20 based on the photometry data and the distance measurement data obtained by the imaging system CPU 50. When the adjustment is completed, the LCD monitor displays characters such as “standby” to inform the user accordingly.
[0070]
Subsequently, the main CPU 62 monitors the fully pressed state of the release switch 114. When the fully depressed state of the release switch 114 is detected, the shutter 26 is closed after a predetermined shutter time, and the accumulated charge of the CCD 30 is swept out to the imaging signal processing unit 32. Digital image data generated as a result of processing by the imaging signal processing unit 32 is output to the bus 82. The digital image data is temporarily stored in the main memory 68, then processed by the YC processing unit 70 and the compression / decompression processing unit 78, and recorded in the option device 76 via the option device control unit 74. The captured image based on the recorded digital image data is displayed on the LCD monitor 102 for a while in a frozen state, and the user can confirm the captured image. This completes a series of shooting operations.
[0071]
On the other hand, when the digital camera 10 is in the playback mode, the main CPU 62 reads a photographed image taken from the main memory 68, the non-volatile memory 66, and / or the optional device 76 and displays it on the LCD monitor 102 of the display unit 100. .
[0072]
In this state, when the user instructs “forward” and “reverse” in the function setting unit 116, the main CPU 62 displays other captured images stored in the main memory 68, the nonvolatile memory 66, and / or the option device 76. This is read and displayed on the LCD monitor 102 of the display unit 100.
[0073]
As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various modifications or improvements can be added to the above embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
[0074]
【The invention's effect】
As is apparent from the above description, according to the present invention, an image that outputs the main image with excellent image quality by performing appropriate image correction on the main image based on the sub-image reflecting the characteristics of the image processing apparatus. A processing system can be provided. In addition, it is possible to provide an image processing system that shortens the time from when an image processing apparatus receives an image until it is output.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an example of an image processing system 500 according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of a functional configuration of the digital camera 10 according to the present embodiment.
3 is a diagram illustrating an example of a functional configuration of a sub-image generation unit 141. FIG.
FIG. 4 is a diagram illustrating an example of functional configurations of a printer 200 and a personal computer 400 according to the present embodiment.
5 is a sequence diagram illustrating an example of operations of the digital camera 10 and the printer 200. FIG.
6 is a diagram illustrating an example of a hardware configuration of a personal computer 400. FIG.
7 is a diagram showing an example of a detailed functional configuration of the digital camera 10. FIG.
[Explanation of symbols]
10 ... Digital camera 20 ... Imaging unit
120 ... Storage unit 132 ... Image transmission unit
134: External characteristic receiving unit 141: Sub-image generating unit
143 ... Gamma synthesis unit 142 ... Gamma processing unit
144 ... Number of colors processing unit 146 ... Color balance processing unit
148 ... Resolution processing unit 200 ... Printer
202 ... Image receiving unit 204 ... Image output unit
206: Image processing unit 208: Sub image analysis unit
210: Processing characteristic transmission unit 212 ... Output characteristic transmission unit
400 ... Personal computer 500 ... Image processing system

Claims (2)

画像データを処理する画像処理システムであって、
被写体を撮像する撮像装置と、
前記撮像装置から画像を受け取る画像処理装置と
を備え、
前記撮像装置は、
前記被写体の主画像を取得する撮像部と、
前記画像処理装置から、前記画像処理装置の画像処理特性であるガンマ特性および画像出力特性である色バランスを受信する外部特性受信部と、
前記外部特性受信部が受信したガンマ特性および色バランスに基づいて、前記画像処理装置が行うガンマ処理および色バランス調整と同一のガンマ処理および色バランス調整を前記主画像に施し、さらにガンマ処理および色バランス調整が施された前記主画像を縮小することにより、前記主画像よりデータサイズが小さい副画像を生成する副画像生成部と、
前記主画像および前記副画像を対応づけて格納する格納部と、
前記主画像および前記副画像を対応づけて前記画像処理装置に送信する画像送信部と
を有し、
前記画像処理装置は、
前記画像送信部が送信した前記主画像および前記副画像を受信する画像受信部と、
前記画像受信部が受信した前記副画像を解析する副画像解析部と、
前記副画像解析部が前記副画像を解析した結果に基づいて、前記主画像を画像処理する画像処理部と、
前記画像処理部が画像処理した前記主画像を出力する画像出力部と
を有する画像処理システム。
An image processing system for processing image data,
An imaging device for imaging a subject;
An image processing device for receiving an image from the imaging device,
The imaging device
An imaging unit for acquiring a main image of the subject;
An external characteristic receiving unit that receives gamma characteristics that are image processing characteristics of the image processing apparatus and color balance that is image output characteristics from the image processing apparatus;
The main image is subjected to the same gamma processing and color balance adjustment as the gamma processing and color balance adjustment performed by the image processing device on the basis of the gamma characteristic and color balance received by the external characteristic receiving unit , and further the gamma processing and color A sub-image generating unit that generates a sub-image having a data size smaller than that of the main image by reducing the main image subjected to balance adjustment ;
A storage unit for storing the main image and the sub-image in association with each other;
An image transmission unit that associates the main image and the sub-image and transmits the image to the image processing apparatus,
The image processing apparatus includes:
An image receiver for receiving the main image and the sub-image transmitted by the image transmitter;
A sub-image analyzer that analyzes the sub-image received by the image receiver;
An image processing unit that performs image processing on the main image based on a result of the sub-image analysis unit analyzing the sub-image;
An image output system comprising: an image output unit that outputs the main image subjected to image processing by the image processing unit.
前記画像処理装置は、
前記画像処理部のガンマ特性および色バランスを前記撮像装置に送信する処理特性送信部
をさらに有する請求項1に記載の画像処理システム。
The image processing apparatus includes:
The image processing system according to claim 1, further comprising: a processing characteristic transmission unit that transmits gamma characteristics and color balance of the image processing unit to the imaging device.
JP2002093319A 2002-03-28 2002-03-28 Image processing system, imaging apparatus, imaging method, and program Expired - Fee Related JP4246952B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002093319A JP4246952B2 (en) 2002-03-28 2002-03-28 Image processing system, imaging apparatus, imaging method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002093319A JP4246952B2 (en) 2002-03-28 2002-03-28 Image processing system, imaging apparatus, imaging method, and program

Publications (2)

Publication Number Publication Date
JP2003289496A JP2003289496A (en) 2003-10-10
JP4246952B2 true JP4246952B2 (en) 2009-04-02

Family

ID=29237825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002093319A Expired - Fee Related JP4246952B2 (en) 2002-03-28 2002-03-28 Image processing system, imaging apparatus, imaging method, and program

Country Status (1)

Country Link
JP (1) JP4246952B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5504913B2 (en) * 2010-01-25 2014-05-28 株式会社ニコン Camera, display device and image display system
JP5786979B2 (en) * 2014-01-30 2015-09-30 株式会社ニコン Imaging apparatus and control method

Also Published As

Publication number Publication date
JP2003289496A (en) 2003-10-10

Similar Documents

Publication Publication Date Title
JP4275344B2 (en) Imaging apparatus, imaging method, and program
JP3880862B2 (en) Imaging device
JP3806038B2 (en) Image processing system and imaging apparatus
JP3914060B2 (en) Focusing device
US6963368B1 (en) Digital camera and image capturing control apparatus including a delay device
JP2003224767A (en) Imaging apparatus, method for determining main subject position and program
JP4343468B2 (en) Image processing system, imaging apparatus, image processing apparatus, image processing method, and program
JP2003179807A (en) Image pickup device
JP4202013B2 (en) Image processing system, imaging apparatus, image processing apparatus, image processing method, and program
JP4246952B2 (en) Image processing system, imaging apparatus, imaging method, and program
JP3957147B2 (en) Focusing device
JP2009005356A (en) Imaging device, image processor, image processing system, image processing method, and image processing program
JP4101673B2 (en) Image processing device
JP4130338B2 (en) Image processing system, image processing method, imaging apparatus, and image processing apparatus
JP2003209737A (en) Imaging apparatus
JP2003242504A (en) Image processor
JP3828822B2 (en) Imaging apparatus, image processing system, imaging method, and program
JP2003244626A (en) Image processing apparatus, image processing system, image processing method, and imaging apparatus
JP2003069872A (en) Imaging device, image output device, image processing system, image output method and program
JP3860045B2 (en) Imaging device
JP4312974B2 (en) Imaging apparatus, image processing apparatus, image processing system, image processing method, and image processing program
JP4275335B2 (en) Display unit and imaging apparatus
JP3904880B2 (en) Imaging apparatus, test apparatus, and recycling method
JP4338919B2 (en) Imaging device and replacement unit
JP3943364B2 (en) Imaging device and determination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040304

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070517

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081125

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20081210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090109

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees