JP4087631B2 - Imaging apparatus, image processing apparatus, imaging method, image processing method, image processing system, and program - Google Patents
Imaging apparatus, image processing apparatus, imaging method, image processing method, image processing system, and program Download PDFInfo
- Publication number
- JP4087631B2 JP4087631B2 JP2002087227A JP2002087227A JP4087631B2 JP 4087631 B2 JP4087631 B2 JP 4087631B2 JP 2002087227 A JP2002087227 A JP 2002087227A JP 2002087227 A JP2002087227 A JP 2002087227A JP 4087631 B2 JP4087631 B2 JP 4087631B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- unit
- subject
- brightness
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000003384 imaging method Methods 0.000 title claims description 168
- 238000012545 processing Methods 0.000 title claims description 77
- 238000003672 processing method Methods 0.000 title claims description 14
- 238000012937 correction Methods 0.000 claims description 137
- 238000003860 storage Methods 0.000 claims description 38
- 238000000605 extraction Methods 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 17
- 238000005259 measurement Methods 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 11
- 230000008094 contradictory effect Effects 0.000 claims description 4
- 235000019557 luminance Nutrition 0.000 description 29
- 230000015654 memory Effects 0.000 description 28
- 230000005540 biological transmission Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 10
- 238000000034 method Methods 0.000 description 10
- 230000000875 corresponding effect Effects 0.000 description 7
- 238000003825 pressing Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 5
- 230000006835 compression Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000005375 photometry Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000006837 decompression Effects 0.000 description 4
- 230000006872 improvement Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005282 brightening Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Description
【0001】
【発明の属する技術分野】
本発明は、撮像装置、画像処理装置、撮像方法、画像処理方法、画像処理システム、及びプログラムに関する。特に本発明は、撮像画像に関するタグ情報を画像データとともに画像処理装置に送信する撮像装置、撮像方法、及びプログラムと、撮像装置から受け取ったタグ情報に基づいて画像データを処理する画像処理装置、画像処理方法、画像処理システム、及びプログラムに関する。
【0002】
【従来の技術】
カメラには、マクロ撮影モード、ポートレート撮影モード、風景撮影モード等の複数の撮影モードが予め設定されている場合がある。ユーザは、撮影時に所望する撮影モードを選択することにより、ユーザの作画意図に適した撮影効果を得ることができる。また、撮影した画像は、例えばプリンタ等で撮影後に画像の補正を行うことにより、所望する画像に変換することができる。特に、特開平6−253147号公報では、フィルム上の画像を、露光レベル、撮像倍率、光源、合焦精度等のデータを用いて画質を補正する装置が開示されている。
【0003】
【発明が解決しようとする課題】
しかしながら、ユーザが所定の撮影モードを選択し、被写体を撮影した場合であっても、被写体までの距離や周囲の光量等の撮影環境により、十分な撮影効果が得られない場合があった。また、従来のカメラやプリンタ等は、画像を自動補整する場合に適切な補正レベルが判断できず、ユーザが所望する仕上がりの画像を出力することができない場合があった。
【0004】
【発明が解決しようとする課題】
そこで本発明は、上記の課題を解決することのできる撮像装置、画像処理装置、撮像方法、画像処理方法、画像処理システム、及びプログラムを提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。
【0005】
【課題を解決するための手段】
即ち、本発明の第1の形態によると、撮像時にストロボ光を発光する撮像装置であって、被写体を撮像する撮像部と、撮像部が被写体を撮像するときの被写体情報を取得する被写体情報取得部と、被写体情報に基づいて、ストロボ光を発光させるか否かを判断する判断部と、ストロボ光を発光させるか否か示すストロボ指示をユーザから受け取る操作部と、操作部が受け取ったストロボ指示と、判断部が被写体情報に基づいて判断した判断情報とを、撮像部が撮像した画像データに対応付けて格納する撮像画像格納部とを備える。
【0006】
本発明の第2の形態によると、被写体を撮像する撮像装置であって、当該撮像装置が被写体を撮像するときにストロボ光を発光するストロボと、ストロボがストロボ光を発光した状態で、被写体を撮像する撮像部と、ストロボがストロボ光を発光していない状態における被写体の明るさを示す第1の明るさ情報を取得する第1の明るさ情報取得部と、第1の明るさ情報取得部が取得した第1の明るさ情報を、撮像部が撮像した本画像データに対応付けて格納する撮像画像格納部とを備える。
【0007】
ストロボがストロボ光を発光した状態における被写体の明るさを示す第2の明るさ情報を取得する第2の明るさ情報取得部をさらに備え、撮像画像格納部は、第2の明るさ情報取得部が取得した第2の明るさ情報を、画像データに対応付けて格納してもよい。
【0008】
撮像部は、ストロボがストロボ光を発光していない状態で、被写体を撮像し、第1の明るさ情報取得部は、撮像部が撮像した予備画像データから、第1の明るさ情報を取得してもよい。
【0009】
第2の明るさ情報取得部は、本画像データから、第2の明るさ情報を取得してもよい。当該撮像装置から被写体までの距離を示す距離情報を取得する距離情報取得部をさらに備え、撮像画像格納部は、距離情報を本画像データに対応付けて格納してもよい。
【0010】
本発明の第3の形態によると、被写体を撮像する撮像装置は、被写体の予備画像データを撮像し、予備画像データに基づいて決定される被写体情報で被写体の本画像データを撮像する撮像部と、予備画像データ及び本画像データに基づいて、本画像データを補正する場合の補正条件を決定する補正条件決定部とを備える。
【0011】
補正条件及び補正された本画像データを互いに関連づけて格納する格納部と、格納部に格納された、補正条件及び本画像データを互いに関連付けて送信する送信部とを更に備えてもよい。補正条件決定部は、本画像データを撮像したときの被写体と撮像装置との距離を示す情報に更に基づいて、補正条件を決定してもよい。
【0012】
本画像データを複数の領域に分割する分割部を更に備え、補正条件決定部は、予備画像データ及び本画像データに基づいて、領域毎に、補正条件を決定してもよい。
【0013】
分割部は、本画像データの輝度分布に基づいて、本画像データを複数の領域に分割してもよい。
【0014】
分割部は、本画像データの色度分布に基づいて、本画像データを複数の領域に分割してもよい。
【0015】
予備画像データにおける、肌色の画素が所定値以上の割合を占める第1の肌色領域と、本画像データにおける、肌色の画素が所定値以上の割合を占める第2の肌色領域とを抽出する肌色抽出部を更に備え、補正条件決定部は、第1の肌色領域の輝度、撮像条件、及び第2の肌色領域の輝度に基づいて、補正条件を決定してもよい。
【0016】
予備画像データにおける、肌色の画素が所定値以上の割合を占める第1の肌色領域と、本画像データにおける、肌色の画素が所定値以上の割合を占める第2の肌色領域とを抽出する肌色抽出部を更に備え、補正条件決定部は、第1の肌色領域の色度、撮像条件、及び第2の肌色領域の色度に基づいて、補正条件を決定してもよい。
【0017】
本発明の第4の形態によると、画像データを処理する画像処理装置であって、本画像データが撮像されたときにストロボ光を発光したか否かを示すストロボ発光情報を、本画像データとともに受け取る受信部と、受信部が受け取ったストロボ発光情報に基づいて、本画像データを補正する補正部とを備える。
【0018】
ストロボ発光情報は、手動でストロボを発光したか否かを示してもよい。補正部は、ストロボ発光情報が、ストロボ光を発光した旨を示す場合に、本画像データを補正してもよい。補正部は、ストロボ発光情報が、ストロボ光を発光していない旨を示す場合に、本画像データを補正しなくてもよい。
【0019】
受信部は、本画像データを撮像した撮像装置が、自動でストロボ光を発光すべきか否かを判断した判断情報をさらに受け取り、補正部は、判断情報と、ストロボ発光情報とに基づいて、本画像データを補正してもよい。補正部は、判断情報とストロボ情報とが矛盾する情報である場合に、本画像データの補正を行わなくてもよい。
【0020】
受信部は、本画像データの被写体が、ストロボ光を発光していない状態で撮像された予備画像データに基づく予備画像データ情報をさらに受け取り、補正部は、予備画像データ情報に基づいて、本画像データを補正してもよい。
【0021】
予備画像データ情報は、予備画像データの明るさを示す情報であってもよい。予備画像データ情報は、予備画像データであってもよい。予備画像データの明るさを測定する測定部をさらに備え、補正部は、測定部が測定した明るさに基づいて、本画像データを補正してもよい。
【0022】
受信部は、本画像データを撮像した撮像装置と、本画像データの被写体との距離を示す距離情報をさらに受け取り、補正部は、距離情報に基づいて、本画像データを補正してもよい。
【0023】
本画像データの被写体が、人物を含む場合に、本画像データから人物の顔領域を抽出する顔抽出部をさらに備え、顔抽出部が抽出した顔領域に基づいて、本画像データを補正してもよい。補正部が補正した本画像データを印刷する印刷部をさらに備えてもよい。
【0024】
本発明の第5の形態によると、画像データを処理する画像処理装置は、予備画像データ、及び予備画像データに基づく撮像条件によって撮像された本画像データを取得する取得部と、予備画像データ及び本画像データに基づいて、本画像データを補正する補正部とを備える。また、本画像データを複数の領域に分割する分割部を更に備え、補正部は、当該領域毎に本画像を補正してもよい。また、取得部は、本画像を撮像したときの被写体までの距離を示す情報を更に取得してもよく、補正部は、当該距離を示す情報に更に基づいて本画像データを補正してもよい。
【0025】
予備画像データにおける、肌色の画素が所定値以上の割合を占める第1の肌色領域、及び本画像データにおける、肌色の画素が所定値以上の割合を占める第2の肌色領域を抽出する肌色抽出部を更に備えてもよく、補正部は、第1の肌色領域の輝度、及び第2の肌色領域の輝度に基づいて、本画像データの輝度を補正してもよい。
【0026】
予備画像データにおける、肌色の画素が所定値以上の割合を占める第1の肌色領域、及び本画像データにおける、肌色の画素が所定値以上の割合を占める第2の肌色領域を抽出する肌色抽出部を更に備えてもよく、補正部は、第1の肌色領域の色度、及び第2の肌色領域の色度に基づいて、本画像データの色度を補正してもよい。
【0027】
本発明の第6の形態によると、画像データを処理する画像処理システムであって、被写体を撮像する撮像装置と、撮像装置から画像データを受け取る画像処理装置とを備え、撮像装置は、被写体を撮像する撮像部と、撮像部が被写体を撮像するときに、ストロボ光を発光するストロボと、ストロボがストロボ光を発光したか否かを示すストロボ発光情報を、撮像部が撮像した画像データに対応付けて格納する撮像画像格納部と、画像データと、ストロボ発光情報とを対応付けて画像処理装置に送信する送信部とを有し、画像処理装置は、ストロボ発光情報と、画像データとを撮像装置から受け取る受信部と、受信部が受け取ったストロボ発光情報に基づいて、画像データを補正する補正部とを有する。ストロボ発光情報は、手動でストロボを発光したか否かを示してもよい。
【0028】
本発明の第7の形態によると、撮像時にストロボ光を発光する撮像方法であって、被写体を撮像して、被写体を撮像するときの被写体情報を取得し、被写体情報に基づいて、ストロボ光を発光させるか否かを判断して、ストロボ光を発光させるか否か示すストロボ指示をユーザから受け取り、受け取ったストロボ指示と、被写体情報に基づいて判断した判断情報とを、撮像した画像データに対応付けて管理する。
【0029】
本発明の第8の形態によると、被写体を撮像する撮像方法であって、被写体を撮像するときにストロボ光を発光して、ストロボ光を発光した状態で、被写体を撮像し、ストロボ光を発光していない状態における被写体の明るさを示す第1の明るさ情報を取得して、取得した第1の明るさ情報を、撮像した本画像データに対応付けて管理する。
【0030】
本発明の第9の形態によると、被写体を撮像する撮像方法は、被写体の予備画像データを撮像するステップと、予備画像データに基づいて決定される撮像条件によって被写体の本画像データを撮像するステップと、予備画像データ及び本画像データに基づいて、本画像データを補正する場合の補正条件を決定するステップとを備える。
【0031】
本発明の第10の形態によると、画像データを処理する画像処理方法であって、本画像データが撮像されたときにストロボ光を発光したか否かを示すストロボ発光情報を、本画像データとともに受け取って、受け取ったストロボ発光情報に基づいて、本画像データを補正する。
【0032】
本発明の第11の形態によると、画像データを処理する画像処理方法は、予備画像データ、及び前記予備画像データに基づく撮像条件によって撮像された本画像データを受け取るステップと、本画像データを複数の領域に分割するステップと、予備画像データ及び本画像データに基づいて、領域毎に、本画像データを補正するステップとを備える。
【0033】
本発明の第12の形態によると、撮像時にストロボ光を発光する撮像装置用のプログラムであって、撮像装置が被写体を撮像するときの被写体情報を取得させる被写体情報取得モジュールと、被写体情報に基づいて、ストロボ光を発光させるか否かを判断させる判断モジュールと、ストロボ光を発光させるか否か示すストロボ指示をユーザから受け取らせる操作モジュールと、受け取らせたストロボ指示と、被写体情報に基づいて判断させた判断情報とを、撮像装置が撮像した画像データに対応付けて管理する管理モジュールとを備える。
【0034】
本発明の第13の形態によると、被写体を撮像する撮像装置用のプログラムであって、撮像装置がストロボ光を発光していない状態における被写体の明るさを示す第1の明るさ情報を取得させる第1の明るさ情報取得モジュールと、取得させた第1の明るさ情報を、撮像装置が撮像した本画像データに対応付けて管理する管理モジュールとを備える。
【0035】
本発明の第14の形態によると、被写体を撮像する撮像装置用のプログラムは、撮像装置に、被写体の予備画像データを撮像させ、予備画像データに基づいて決定させる撮像条件によって被写体の本画像データを撮像させる撮像モジュールと、予備画像データ及び本画像データに基づいて、本画像データを補正する場合の補正条件を決定させる補正条件決定モジュールとを備える。
【0036】
本発明の第15の形態によると、画像データを処理する画像処理装置用のプログラムであって、本画像データが撮像されたときにストロボ光を発光したか否かを示すストロボ発光情報を、本画像データとともに受け取らせる受信モジュールと、受け取らせたストロボ発光情報に基づいて、本画像データを補正させる補正モジュールとを備える。
【0037】
本発明の第16の形態によると、画像データを処理する画像処理装置用のプログラムは、画像処理装置に、予備画像データ、及び予備画像データに基づく撮像条件によって撮像された本画像データを受け取らせる取得モジュールと、本画像データを複数の領域に分割させる分割モジュールと、予備画像データ及び本画像データに基づいて、本画像データを領域毎に補正させる補正モジュールとを備える。
【0038】
なお上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションも又発明となりうる。
【0039】
【発明の実施の形態】
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態はクレームにかかる発明を限定するものではなく、又実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。なお、発明の実施の形態に記載の「ストロボ指示」及び「判断情報」は、特許請求の範囲に記載の「ストロボ発光情報」の一例である。また発明の実施の形態に記載の「距離情報」、及び「画像データの明るさ」は、特許請求の範囲に記載の「画像データ情報」の一例である。また、発明の実施の形態に記載の「通信I/F部」は、特許請求の範囲に記載の「送信部」の一例である。また、発明の実施の形態に記載の「不揮発性メモリ」及び「メインメモリ」は、特許請求の範囲に記載の「格納部」の一例である。
【0040】
図1は、本発明の一実施形態に係る画像処理システム全体の概略を示す。画像処理システムは、デジタルカメラ10と、プリンタ200と、パーソナルコンピュータ900とを備える。デジタルカメラ10、プリンタ200、およびパーソナルコンピュータ900は、互いにデータ伝送路を介してデータの送受信を行う。
【0041】
デジタルカメラ10は、撮像時にストロボ光を発光させたか否かを示すストロボ発光情報を、撮像した画像データに対応付けて、プリンタ200に送信する。プリンタ200は、デジタルカメラ10から受信したストロボ発光情報に基づいて、画像データを補正する。
【0042】
データ伝送路は、例えば、USB等の有線ケーブルやブルートゥース等の無線チャネル等である。データ伝送路は、有線ケーブルや無線チャネル等を複数用いたネットワーク網(例えば、インターネット網)であってもよい。本図では、上記のようなデータ伝送路を用いてデータのやり取りを行う形態を例示しているが、デジタルカメラ10、プリンタ200、およびパーソナルコンピュータ900間のデータのやり取りは、リムーバブルメディア等の記録媒体を用いてもよい。
【0043】
デジタルカメラ10は、被写体の画像を撮像し、撮像した画像データをプリンタ200またはパーソナルコンピュータ900に送信する。プリンタ200またはパーソナルコンピュータ900は、受信した画像データに所定の処理を施して出力する。すなわち、プリンタ200は、画像データを印刷して出力し、パーソナルコンピュータ900は、画像データをモニタに出力する。また、パーソナルコンピュータ900は、デジタルカメラ10またはプリンタ200に設定情報を送信し、プリンタ200の設定情報を変更する。なお、デジタルカメラ10は、本発明に係る撮像装置の一例であり、プリンタ200およびパーソナルコンピュータ900は、本発明に係る画像処理装置の一例である。
【0044】
図2は、本実施形態に係るデジタルカメラ10の構成を示す。デジタルカメラ10は、主に撮像部20、撮像信号処理部32、撮像制御部40、処理部60、表示部100、および操作部110を含む。
【0045】
撮像部20は、撮影および結像に関する機構部材および電気部材を含む。撮像部20はまず、映像を取り込んで処理を施す撮影レンズ22、絞り24、シャッタ26、光学LPF(ローパスフィルタ)28、及びCCD30を含む。撮影レンズ22は、フォーカスレンズやズームレンズ等からなる。この構成により、被写体像がCCD30の受光面上に結像する。結像した被写体像の光量に応じ、CCD30の各センサエレメント(図示せず)に電荷が蓄積される(以下その電荷を「蓄積電荷」という)。蓄積電荷は、リードゲートパルスによってシフトレジスタ(図示せず)に読み出され、レジスタ転送パルスによって電圧信号として順次読み出される。
【0046】
デジタルカメラ10は一般に電子シャッタ機能を有するので、シャッタ26のような機械式シャッタは必須ではない。電子シャッタ機能を実現するために、CCD30にシャッタゲートを介してシャッタドレインが設けられる。シャッタゲートを駆動すると蓄積電荷がシャッタドレインに掃き出される。シャッタゲートの制御により、各センサエレメントに電荷を蓄積するための時間、すなわちシャッタスピードが制御できる。
【0047】
撮像信号処理部32は、CCD30から出力される電圧信号、すなわちアナログ信号をR、G、B成分に色分解し、まずホワイトバランスを調整する。次に撮像信号処理部32は、ガンマ補正を行い、必要なタイミングでR、G、B信号を順次A/D変換し、その結果得られたデジタルの画像データ(以下単に「デジタル画像データ」とよぶ)を処理部60へ出力する。
【0048】
撮像部20はさらに、ファインダ34とストロボ36を有する。ファインダ34には図示しないLCDを内装してもよく、その場合、後述のメインCPU62等からの各種情報をファインダ34内に表示できる。ストロボ36は、コンデンサ(図示せず)に蓄えられたエネルギが放電管36aに供給されたときそれが発光することで機能する。
【0049】
撮像制御部40は、レンズ駆動部42、フォーカス駆動部44、絞り駆動部46、シャッタ駆動部48、それらを制御する撮像系CPU50、測距センサ52、および測光センサ54をもつ。レンズ駆動部42などの駆動部は、それぞれステッピングモータ等の駆動手段を有する。後述のレリーズスイッチ114の押下に応じ、測距センサ52は被写体までの距離を測定し、測光センサ54は被写体輝度を測定する。測定された距離のデータ(以下単に「測距データ」という)および被写体輝度のデータ(以下単に「測光データ」という)は撮像系CPU50へ送られる。撮像系CPU50は、ユーザから指示されたズーム倍率等の撮影情報に基づき、レンズ駆動部42とフォーカス駆動部44を制御して撮影レンズ22のズーム倍率とピントの調整を行う。
【0050】
撮像系CPU50は、1画像フレームのRGBのデジタル信号積算値、すなわちAE情報に基づいて絞り値とシャッタスピードを決定する。決定された値にしたがい、絞り駆動部46とシャッタ駆動部48がそれぞれ絞り量の調整とシャッタ26の開閉を行う。
【0051】
撮像系CPU50はまた、測光データに基づいてストロボ36の発光を制御し、同時に絞り24の絞り量を調整する。ユーザが映像の取込を指示したとき、CCD30が電荷蓄積を開始し、測光データから計算されたシャッタ時間の経過後、蓄積電荷が撮像信号処理部32へ出力される。
【0052】
処理部60は、デジタルカメラ10全体、とくに処理部60自身を制御するメインCPU62と、これによって制御されるメモリ制御部64、YC処理部70、オプション装置制御部74、圧縮伸張処理部78、通信I/F部80を有する。メインCPU62は、シリアル通信などにより、撮像系CPU50との間で必要な情報をやりとりする。メインCPU62の動作クロックは、クロック発生器88から与えられる。クロック発生器88は、撮像系CPU50、表示部100に対してもそれぞれ異なる周波数のクロックを提供する。
【0053】
メインCPU62には、キャラクタ生成部84とタイマ86が併設されている。タイマ86は電池でバックアップされ、つねに日時をカウントしている。このカウント値から撮影日時に関する情報、その他の時刻情報がメインCPU62に与えられる。キャラクタ生成部84は、撮影日時、タイトル等の文字情報を発生し、この文字情報が適宜撮影画像に合成される。
【0054】
メモリ制御部64は、不揮発性メモリ66とメインメモリ68を制御する。不揮発性メモリ66は、EEPROM(電気的消去およびプログラム可能なROM)やFLASHメモリなどで構成され、ユーザーによる設定情報や出荷時の調整値など、デジタルカメラ10の電源がオフの間も保持すべきデータが格納されている。不揮発性メモリ66には、場合によりメインCPU62のブートプログラムやシステムプログラムなどが格納されてもよい。一方、メインメモリ68は一般にDRAMのように比較的安価で容量の大きなメモリで構成される。メインメモリ68は、撮像部20から出力されたデータを格納するフレームメモリとしての機能、各種プログラムをロードするシステムメモリとしての機能、その他ワークエリアとしての機能をもつ。不揮発性メモリ66とメインメモリ68は、処理部60内外の各部とメインバス82を介してデータのやりとりを行う。
【0055】
YC処理部70は、デジタル画像データにYC変換を施し、輝度信号Yと色差(クロマ)信号B−Y、R−Yを生成する。輝度信号と色差信号はメモリ制御部64によってメインメモリ68に一旦格納される。圧縮伸張処理部78はメインメモリ68から順次輝度信号と色差信号を読み出して圧縮する。こうして圧縮されたデータ(以下単に「圧縮データ」という)は、オプション装置制御部74を介してオプション装置76の一種であるメモリカードへ書き込まれる。
【0056】
処理部60はさらにエンコーダ72をもつ。エンコーダ72は輝度信号と色差信号を受信し、これらをビデオ信号(NTSCやPAL信号)に変換してビデオ出力端子90から出力する。オプション装置76に記録されたデータからビデオ信号を生成する場合、そのデータはまずオプション装置制御部74を介して圧縮伸張処理部78へ与えられる。つづいて、圧縮伸張処理部78で必要な伸張処理が施されたデータはエンコーダ72によってビデオ信号へ変換される。
【0057】
オプション装置制御部74は、オプション装置76に認められる信号仕様およびメインバス82のバス仕様にしたがい、メインバス82とオプション装置76の間で必要な信号の生成、論理変換、または電圧変換などを行う。デジタルカメラ10は、オプション装置76として前述のメモリカードのほかに、例えばPCMCIA準拠の標準的なI/Oカードをサポートしてもよい。その場合、オプション装置制御部74は、PCMCIA用バス制御LSIなどで構成してもよい。
【0058】
通信I/F部80は、デジタルカメラ10がサポートする通信仕様、たとえばUSB、RS−232Cなどの仕様に応じたプロトコル変換等の制御を行う。通信I/F部80は、必要に応じてドライバICを含み、ネットワークを含む外部機器とコネクタ92を介して通信する。そうした標準的な仕様のほかに、例えばプリンタ、カラオケ機、ゲーム機等の外部機器との間で独自のI/Fによるデータ授受を行う構成としてもよい。
【0059】
表示部100は、LCDモニタ102とLCDパネル104を有する。それらはLCDドライバであるモニタドライバ106、パネルドライバ108によってそれぞれ制御される。LCDモニタ102は、例えば2インチ程度の大きさでカメラ背面に設けられ、現在の撮影や再生のモード、撮影や再生のズーム倍率、電池残量、日時、モード設定のための画面、被写体画像などを表示する。LCDパネル104は例えば小さな白黒LCDでカメラ上面に設けられ、画質(FINE/NORMAL/BASICなど)、ストロボ発光/発光禁止、標準撮影可能枚数、画素数、電池容量などの情報を簡易的に表示する。
【0060】
操作部110は、ユーザがデジタルカメラ10の動作やそのモードなどを設定または指示するために必要な機構および電気部材を含む。パワースイッチ112は、デジタルカメラ10の電源のオンオフを決める。レリーズスイッチ114は、半押しと全押しの二段階押し込み構造になっている。一例として、半押しでAFおよびAEがロックし、全押しで撮影画像の取込が行われ、必要な信号処理、データ圧縮等の後、メインメモリ68、オプション装置76等に記録される。操作部110はこれらのスイッチの他、回転式のモードダイヤルや十字キーなどによる設定を受け付けてもよく、それらは図2において機能設定部116と総称されている。操作部110で指定できる動作または機能の例として、「ファイルフォーマット」、「特殊効果」、「印画」、「決定/保存」、「表示切換」等がある。ズームスイッチ118は、ズーム倍率を決める。
【0061】
以上の構成による主な動作は以下のとおりである。まずデジタルカメラ10のパワースイッチ112がオンされ、カメラ各部に電力が供給される。メインCPU62は、機能設定部116の状態を読み込むことで、デジタルカメラ10が撮影モードにあるか再生モードにあるかを判断する。
【0062】
カメラが撮影モードにあるとき、メインCPU62はレリーズスイッチ114の半押し状態を監視する。半押し状態が検出されたとき、メインCPU62は測光センサ54および測距センサ52からそれぞれ測光データと測距データを得る。得られたデータに基づいて撮像制御部40が動作し、撮影レンズ22のピント、絞りなどの調整が行われる。調整が完了すると、LCDモニタ102に「スタンバイ」などの文字を表示してユーザにその旨を伝え、つづいてレリーズスイッチ114の全押し状態を監視する。
【0063】
レリーズスイッチ114が全押しされると、所定のシャッタ時間をおいてシャッタ26が閉じられ、CCD30の蓄積電荷が撮像信号処理部32へ掃き出される。撮像信号処理部32による処理の結果生成されたデジタル画像データはメインバス82へ出力される。デジタル画像データは一旦メインメモリ68へ格納され、この後YC処理部70と圧縮伸張処理部78で処理を受け、オプション装置制御部74を経由してオプション装置76へ記録される。記録された画像は、フリーズされた状態でしばらくLCDモニタ102に表示され、ユーザは撮影画像を知ることができる。以上で一連の撮影動作が完了する。
【0064】
一方、デジタルカメラ10が再生モードの場合、メインCPU62は、メモリ制御部64を介してメインメモリ68から最後に撮影した画像を読み出し、これを表示部100のLCDモニタ102へ表示する。
【0065】
この状態でユーザが機能設定部116にて「順送り」、「逆送り」を指示すると、現在表示している画像の前後に撮影された画像が読み出され、LCDモニタ102へ表示される。
【0066】
図3は、本実施形態の第1実施例に係るデジタルカメラ10の特徴的な機能構成を示すブロック図である。図3に示すデジタルカメラ10の動作は一例として、図2で説明したメインCPU62と、メインメモリ68や不揮発性メモリ66に格納またはロードされたプログラムの連携によって実現することができる。メインCPU62が内蔵メモリをもつ場合にはそのメモリに必要なプログラムを格納し、諸機能をファームウエアとして実現してもよい。
【0067】
撮像系CPU50は、判断部500と、被写体情報取得部502と、ストロボ制御部504と、距離情報取得部506とを有する。撮像信号処理部32は、撮像画像格納部320と、第1の明るさ情報取得部322と、第2の明るさ情報取得部324とを有する。送信部326の機能は、処理部60が有する。撮像画像格納部320は、ストロボを発光していない状態で撮像された撮像画像である予備画像データと、被写体からデジタルカメラ10までの距離を示す距離情報と、デジタルカメラ10が判断したストロボを発光させるか否かを示す判断情報と、ストロボを発光させるか否かのユーザからの指示であるストロボ指示とを、ストロボを発光した状態の撮像画像である本画像データに対応付けて格納する。
【0068】
被写体情報取得部502は、レリーズスイッチ114が半押し状態である旨を示す半押し情報を、メインCPU62から受け取ると、撮像部20から被写体情報を取得する。被写体情報は、被写体の明るさを示す明るさ情報と、デジタルカメラ10から被写体までの距離を示す距離情報とを含む。明るさ情報は、例えば画像データの明度を示す情報である。被写体情報取得部502は、取得した被写体情報のうち、距離情報を距離情報取得部506に送る。距離情報取得部506は、受け取った距離情報を撮像画像格納部320に格納する。
【0069】
また被写体情報取得部502は、被写体情報のうち、被写体の明るさを示す情報を判断部500に送る。判断部500は、受け取った明るさの情報に基づいて、ストロボ光を発光させるか否かを判断し、判断情報として、ストロボ制御部504に送る。操作部110は、ストロボ光を発光させるか否かを示すストロボ指示をユーザから受け取り、ストロボ制御部504に送る。
【0070】
ストロボ制御部504は、ストロボ指示を操作部110から受け取った場合に、ストロボ指示に基づいて、ストロボを発光させるか否かを示すストロボ発光情報を撮像部20に送る。一方ストロボ制御部504は、ストロボ指示を操作部110から受け取らなかった場合に、判断情報に基づいて、ストロボを発光させるか否かを示すストロボ発光情報を撮像部20に送る。またストロボ制御部504は、判断情報及びストロボ指示を撮像画像格納部320に格納する。
【0071】
第1の明るさ情報取得部322は、レリーズスイッチ114が半押し状態である旨を示す半押し情報を、メインCPU62から受け取ると、ストロボ光を発光していない状態における被写体の予備画像データを撮像部20から受け取り、明るさ情報として、撮像画像格納部320に格納する。第2の明るさ情報取得部324は、レリーズスイッチ114が全押し状態である旨を示す全押し情報を、メインCPU62から受け取ると、ストロボ光を発光した状態における被写体の本画像データを撮像部20から受け取り、撮像画像格納部320に格納する。
【0072】
送信部326は、撮像画像格納部320に格納されている本画像データと、予備画像データと、距離情報と、ストロボ指示と、判断情報とをプリンタ200に送信する。
【0073】
図4は、本実施例に係るプリンタ200の機能構成を示すブロック図である。プリンタ200は、受信部202と、印刷部204と、補正部206と、顔抽出部208と、タグ解析部210と、測定部212と、距離情報取得部214とを有する。
【0074】
受信部202は、本画像データと、予備画像データと、距離情報と、ストロボ指示と、判断情報とをデジタルカメラ10から受信する。受信部202は、受信した予備画像データと、距離情報と、ストロボ指示と、判断情報とをタグ解析部210に送る。また受信部202は、本画像データを顔抽出部208と、補正部206に送る。
【0075】
タグ解析部210は、ストロボ指示の内容と判断情報の内容とが一致するか否かを判断する。次にタグ解析部210は、ストロボ指示の内容と判断情報の内容とが一致する場合に、受信部202から受け取った予備画像データを測定部212に送り、距離情報を距離情報取得部214に送る。
【0076】
測定部212は、タグ解析部210から受け取った予備画像データの明るさを測定し、第2の明るさ情報として、補正部206に送る。距離情報取得部214は、タグ解析部210から受け取った距離情報を補正部206に送る。
【0077】
顔抽出部208は、受信部202から受け取った本画像データにおいて、被写体の人物の顔領域を抽出し、抽出した顔領域の画像データを補正部206に送る。
【0078】
補正部206は、距離情報取得部214から受け取った距離情報と、測定部212から受け取った第2の明るさ情報と、顔抽出部208から受け取った顔領域の画像データとに基づいて、受信部202から受け取った本画像データを補正し、印刷部204に送る。印刷部204は、補正部206から受け取った本画像データを印刷する。
【0079】
図5は、本実施例に係るデジタルカメラ10の動作を示すフローチャートである。被写体情報取得部502は、レリーズスイッチ114が半押し状態である旨を示す半押し情報を受け取ると(S100)、被写体情報を取得する(S102)。判断部500は、被写体情報に基づいてストロボ光を発光させるか否かを判断する(S103)。
【0080】
ストロボ制御部504は、操作部110がユーザからストロボ指示を受け取った場合に、ストロボ指示に基づいてストロボ光を発光させるか否かを決定する。一方、ストロボ制御部504は、操作部110がユーザからストロボ指示を受け取らなかった場合に、判断部500が判断した判断情報に基づいてストロボ光を発光させるか否かを決定する(S104)。
【0081】
ストロボ制御部504は、ストロボ光を発光させると決定した場合に、ストロボ36にストロボ光を発光させる旨を指示する(S106)。次に撮像部20は、ストロボ光を発光させない状態での被写体を撮像する(S108)。
【0082】
次に距離情報取得部506は、デジタルカメラ10から被写体までの距離を示す距離情報を取得する(S110)。レリーズスイッチ114が全押し状態である場合に(S112)、撮像部20は、被写体を撮像する(S114)。第2の明るさ情報取得部324は、距離情報取得部506が取得した距離情報と、操作部110がユーザから受け取ったストロボ指示と、判断部500が判断した判断情報と、S108において撮像された予備画像データとをタグ情報として、S114において撮像された本画像データに対応付けて撮像画像格納部320に格納する(S116)。
【0083】
本実施例において第1の明るさ情報取得部322は、ストロボ光を発光させない状態で撮像された予備画像データを撮像画像格納部320に格納しているが、これに代えて予備画像データから被写体の明るさを測定し、測定した明るさを示す第1の明るさ情報を撮像画像格納部320に格納してもよい。
【0084】
また第2の明るさ情報取得部324は、ストロボ光を発光させた状態で撮像された本画像データのみを撮像画像格納部320に格納しているが、これに代えて、本画像データからストロボ光を発光させた状態の被写体の明るさを測定し、測定した明るさを示す第2の明るさ情報を本画像データに対応付けてさらに撮像画像格納部320に格納してもよい。
【0085】
図6は、本実施例におけるプリンタ200の動作を示すフローチャートである。受信部202は、本画像データのタグ情報である予備画像データと、距離情報と、ストロボ指示と、判断情報とを、本画像データとともにデジタルカメラ10から受信する(S200)。
【0086】
ストロボ指示と判断情報との双方が、ストロボ光を発光すべき旨を示す情報であるとタグ解析部210が判断した場合に(S202)、測定部212は、受信部202が受信した予備画像データの明るさを測定する(S204)。ここで予備画像データの明るさとは、被写体周辺の明るさであり、例えば、画像データのR(Red)、G(Green)、B(Blue)各色のレベルや、EV値(Exposure Value、露光指数)によって示される。
【0087】
次に距離情報取得部214は、デジタルカメラ10から被写体までの距離を示す距離情報を取得する(S206)。ここで距離情報取得部214は、本画像データに対応したタグ情報のうち、距離情報を選択し、補正部206が利用可能に情報を加工してもよい。
【0088】
次に顔抽出部208は、受信部202が受信した本画像データから被写体の人物の顔領域を抽出する(S208)。ここで本画像データから顔領域を抽出する具体的な方法としては、例えば特開平8−122944号公報、または特開平5−100328号公報に記載された方法を用いることができる。
【0089】
特開平8−122944号公報に記載された方法は、本画像データを複数領域に分割し、非人物領域を除外した後に人物の頭部の輪郭を表す形状パターンを検出し、検出したパターンに応じて顔候補領域を検出し、さらに人物の顔の輪郭を表す形状パターン、顔の内部構造を表す形状パターン及び人物の胴体の輪郭を表す形状パターンをそれぞれ検出し、検出したパターンにより顔候補領域の整合性を判定し、人物の顔に相当する領域である確度が最も高い領域を判定することにより、顔領域を抽出するものである。
【0090】
特開平5−100328号公報に記載された方法は、画像を複数領域に分割して測光し、測光により得られたデータを色相及び彩度に変換し、これらの2次元ヒストグラムを作成するとともに、このヒストグラムを単峰の山毎に分解し、さらに画像の角画素がいずれの山に属するかを判断して画素を分割された山に対応する群に分解し、各群毎に画像を分割して顔候補領域を抽出し、抽出した領域の画像サイズと主要画像サイズ情報から得られる画像サイズとを比較して最も一致する領域を顔領域として抽出するものである。
【0091】
次に補正部206は、受信部202が受信した本画像データの明るさを測定する。補正部206は、例えば‘Y’が明るさを示す情報とすると、各RGBチャンネルを用いて、
【0092】
Y=0.299R+0.587G+0.114B
(0<R、G、B<255、255;白色)
として、全画素積算積算してもよいし、画像データを複数の領域に分割して、中央部に重みを付ける等、加重平均して、明るさを測定してもよい。
【0093】
次に補正部206は、測定した本画像データの明るさと、顔抽出部208が抽出した顔領域の画像と、距離情報取得部214が取得した距離情報と、測定部212が測定した予備画像データの明るさとに基づいて、本画像データを補正する(S212)。
【0094】
例えば補正部206は、予備画像データの明るさが所定値以下の暗いシーンを示し、かつ本画像データの明るさが所定値以下の、ストロボ光が十分に照射されていない程度を示す場合に、被写体の輪郭が明確になり、明るくなりすぎない程度に本画像データを補正する。また補正部206は、例えば顔抽出部208が抽出した顔領域の画像の色度が、適切な顔の色度になるように本画像データを補正する。このように補正部206は、本画像データの顔領域の画像の色度や、予備画像データの明るさに応じて、本画像データの明るさを適切に補正することができる。
【0095】
また補正部206は、距離情報を用いて本画像データを補正することができる。デジタルカメラ10がストロボ光を発光させて被写体を撮像した場合、デジタルカメラ10から被写体までの距離によって、被写体に照射される発光量が異なる。そこで補正部206は、距離情報取得部214が取得した距離情報を用いて被写体に発光される発光量を推定し、推定した発光量に基づいて、本画像データを補正する。
【0096】
印刷部204は、補正部206が補正した本画像データを印刷する(S214)。S202において、ストロボ指示と判断情報のいずれか一方が、ストロボ光を発光しない旨を示す情報であるとタグ解析部210が判断した場合に、本画像データを補正することなく、S214にジャンプする。
【0097】
判断情報がストロボ光を発光すべきではない旨を示し、ストロボ指示がストロボ光を発光すべきである旨を示す場合には、例えば被写体が明るい状態であるにも関わらず、ユーザが任意にストロボ光を発光させるので、本画像データの明るさは、非常に高い値になる。補正部206は、明るさが非常に高い値である場合に、本画像データを適度な明るさに補正することができる。しかしタグ解析部210は、判断情報がストロボ光を発光すべきではない旨を示し、ストロボ指示がストロボ光を発光すべきである旨を示す場合には、ユーザが任意にストロボ光を発光させているので、本画像データの補正を補正部206に禁止することができる。
【0098】
本実施例のデジタルカメラ10は、ストロボを発光させない状態で撮像された本画像データにタグ情報を付与していないが、他の例としては、これに代えてストロボを発光させない状態で撮像された本画像データにタグ情報を付与報告してもよい。ここでタグ情報は、判断部500が判断した判断情報と、ストロボ指示とを含む。デジタルカメラ10は、タグ情報と本画像データとをプリンタ200に送る。プリンタ200は、受け取ったタグ情報に基づいて本画像データを補正する。
【0099】
例えば、判断情報がストロボ光を発光させるべきである旨を示し、ストロボ指示がストロボ光を発光させるべきではない旨を示す場合、被写体の明るさは、所定値以下の明るさで暗い状態であるにも関わらず、ユーザはストロボ光を発光させたくない状態、即ち暗い画像を所望している可能性が高い。そこでプリンタ200は、本画像データを明るくする補正を禁止することができる。このようにプリンタ200は、ストロボ光を発光していない状態で撮像された本画像データの補正を、本画像データに対応したタグ情報に基づいて、補正することができる。
【0100】
図7は、本実施形態の第2実施例に係るデジタルカメラ10の特徴的な機能構成を示すブロック図である。デジタルカメラ10は、画像を撮像する撮像部20、撮像部20の動作を制御する撮像系CPU50、画像を分割する分割部600、画像から肌色の領域を抽出する肌色抽出部602、画像を補整する場合の補正条件を決定する補正条件決定部604、決定された補正条件に基づいて画像を補整する補正部606、画像を格納する格納部608、及び画像をプリンタ200又はパーソナルコンピュータ900に送信する送信部326を有する。
【0101】
撮像部20は、被写体の予備画像データを撮像し、予備画像データに基づいて決定される撮像条件によって被写体の本画像データを撮像する。具体的には、撮像部20は、レリーズスイッチ114の半押し等のユーザの操作に基づいて、被写体の予備画像を撮像する。撮像系CPU50は、撮像部20が取得した予備画像を解析して、被写体の明るさや色等の被写体情報を取得する。撮像系CPU50は、図2で説明した測距センサ52から、被写体情報のうちの被写体の距離を更に取得してもよい。
【0102】
そして、撮像系CPU50は、被写体の明るさ、色、距離等の被写体情報に基づいて、撮像部20が被写体の本画像を撮像する場合に最適と判断する撮像条件を決定する。撮像条件は、例えば、シャッタースピード、絞り値、図2で説明したストロボ36の発光の有無、ストロボ36を発光させる場合の発光強度、及びホワイトバランス等である。
【0103】
続いてレリーズスイッチ114の全押しなどのユーザの操作が行われると、撮像部20は、撮像系CPU50が決定した撮像条件によって被写体の本画像データを撮像する。具体的には、撮像部20は、撮像系CPU50が決定した発光条件によってストロボ36を発光させ、撮像系CPU50が決定したシャッタースピード及び絞り値で図2で説明したCCD30を露光し、撮像系CPU50が決定したホワイトバランスで撮像信号を処理する。
【0104】
分割部600は、本画像データを複数の領域に分割する。具体的には、分割部600は、予め定められたパターンで本画像を複数の領域に分割する。例えば、分割部600は、所定のピッチでグリッド状に本画像を分割してもよいし、画像の中心からの距離に応じて同心円状に本画像を分割してもよい。
【0105】
分割部600は、本画像データの輝度分布に基づいて、本画像データを複数の領域に分割してもよい。例えば、分割部600は、予め定められた基準値よりも高い平均輝度を持つ領域と、基準値よりも低い平均輝度を持つ領域とに本画像データを分割してもよい。
【0106】
分割部600は、本画像データの色度分布に基づいて、本画像データを複数の領域に分割してもよい。例えば、分割部600は、RGBの色バランスが予め定められた基準を満たしているか否かに基づいて、本画像データを複数の領域に分割してもよい。あるいは、分割部600は、本画像データをR(Red)のレベルが基準値よりも高い領域、G(Green)のレベルが基準値よりも高い領域、及びB(Blue)のレベルが基準値よりも高い領域等に分割してもよい。
【0107】
分割部600は、被写体の距離に基づいて、本画像データを複数の領域に分割してもよい。例えば、分割部600は、所定値よりも距離が遠い被写体の領域と、所定値よりも距離が近い被写体の領域とに本画像データを分割してもよい。
【0108】
肌色抽出部602は、予備画像データにおける、肌色の画素が所定値以上の割合を占める第1の肌色領域と、本画像データにおける、肌色の画素が所定値以上の割合を占める第2の肌色領域とを抽出する。
【0109】
補正条件決定部604は、予備画像データ及び本画像データに基づいて、本画像データを補正する場合の補正条件を決定する。補正条件決定部604は、予備画像データ及び本画像データに基づいて、分割部600が複数の領域に分割した本画像データのそれぞれの領域毎に、補正条件を決定してもよい。具体的には、補正条件決定部604は、予備画像データと本画像データとを比較して、本画像データの画質が予備画像データの画質よりも所定以上改善しているか否かを、領域毎に判断する。そして、補正条件決定部604は、本画像データにおいて、予備画像と比較した場合の画質の改善が不十分な領域の画像データを補正する場合の補正値を決定する。
【0110】
例えば、補正条件決定部604は、所定値よりも低い予備画像データの輝度に対して、ストロボ36を発光して取得された本画像データの輝度が所定値以上高いか否かを領域毎に判断する。そして、本画像データの輝度が予備画像データの輝度よりも所定値以上高くない領域があれば、補正条件決定部604は、当該領域の輝度が予備画像データの輝度よりも所定値以上高くなるべく、本画像データの輝度を補正する補正値を決定する。
【0111】
補正条件決定部604は、本画像データを撮像するときの撮像条件に更に基づいて、本画像データを補正する場合の補正条件を決定してもよい。具体的には、補正条件決定部604は、撮像系CPU50が、予備画像に基づいて最適化した撮像条件によって達成できると判断した画質を、本画像データが満たしているか否かを判断する。そして、補正条件決定部604は、撮像系CPU50が達成できると判断した画質を満たすべく、本画像データを補正する場合の補正値を決定してもよい。
【0112】
補正条件決定部604は、本画像データが撮像されたときのデジタルカメラ10から被写体までの距離に更に基づいて、本画像データを補正する場合の補正値を決定してもよい。例えば、デジタルカメラ10から被写体までの距離が所定値より近い場合、補正条件決定部604は、当該距離が所定値より遠い場合よりも本画像データの輝度を高く補正する補正値を決定してもよい。これにより、補正条件決定部604は、被写体までの距離に応じて、ストロボ発光の効果を適正化する補正値を決定することができる。また、デジタルカメラ10から被写体までの距離が所定値より近い場合、補正条件決定部604は、当該距離が所定値より遠い場合よりも、本画像データのカラーバランスにおける青の割合が強くなるような補正値を決定してもよい。これにより、補正条件決定部604は、電球の明かりや夕方の太陽光等よりも色温度が高いストロボ36の光が、本画像データのカラーバランスに与える影響を適切に補正することができる。
【0113】
補正条件決定部604は、第1の肌色領域の輝度、及び第2の肌色領域の輝度に基づいて、本画像データを補正する場合の補正条件を決定してもよい。具体的には、補正条件決定部604は、撮像した予備画像データ及び本画像データからそれぞれ抽出した第1及び第2の肌色領域の輝度の差が、撮像系CPU50が撮像条件を決定したときに想定した第1及び第2の輝度の差と比較して、所定の誤差内で収まっているかを判断する。そして、撮像した予備画像データ及び本画像データからそれぞれ抽出した第1及び第2の肌色領域の輝度の差が、撮像系CPU50が想定した輝度の差と比較して所定の誤差内で収まっていない場合、補正条件決定部604は、第1及び第2の肌色領域の輝度の差が、撮像系CPU50が想定した輝度の差と比較して所定の誤差内に収まるように、本画像データの輝度を補正する場合の補正条件を決定する。
【0114】
補正条件決定部604は、第1の肌色領域の色度、及び第2の肌色領域の色度に基づいて、本画像データを補正する場合の補正条件を決定してもよい。具体的には、補正条件決定部604は、撮像系CPU50が第1の肌色領域の色度に基づいて調節したホワイトバランスを第2の肌色領域の色度が反映しているか否かを判断する。そして、第2の肌色領域の色度が、第1の肌色領域の色度に基づいて調節されたホワイトバランスを反映していない場合、補正条件決定部604は、第2の肌色領域の色度が第1の肌色領域の色度に基づいて調節されたホワイトバランスを反映するべく本画像データの色度を補正する場合の補正条件を決定する。
【0115】
補正部606は、補正条件決定部604が決定した補正条件に従って、本画像データを補正する。補正部606は、分割部600が分割した複数の領域のそれぞれを、補正条件決定部604が決定した補正条件に基づいて補正する。また、補正部606は、本画像データにおける肌色領域の画像データを、補正条件決定部604が決定した補正条件に基づいて補正する。
【0116】
格納部608は、補正部606が補正した本画像データを格納する。送信部326は、格納部608が格納した本画像データをプリンタ200又はパーソナルコンピュータ900に送信する。
【0117】
デジタルカメラ10は、補正部606を有しなくてもよい。この場合、格納部608は、補正条件決定部604が決定した補正条件と、本画像データとを互いに関連づけて格納する。そして、送信部326は、格納部608が格納した補正条件及び本画像データを、互いに関連づけてプリンタ200又はパーソナルコンピュータ900に送信する。
【0118】
また、デジタルカメラ10は、分割部600、肌色抽出部602、補正条件決定部604、及び補正部606を有しなくてもよい。この場合、格納部608は、撮像部20が取得した予備画像データ及び本画像データを互いに関連づけて格納する。そして、送信部326は、格納部608が格納した予備画像データ及び本画像データを、互いに関連づけてプリンタ200又は、パーソナルコンピュータ900に送信する。
【0119】
図8は、本実施例に係るプリンタ200及びパーソナルコンピュータ900の特徴的な機能構成を示すブロック図である。プリンタ200及びパーソナルコンピュータ900は、画像を取得する取得部220、画像を分割する分割部222、画像から肌色の領域を抽出する肌色抽出部224、画像を補整する補正部226、及び画像を出力する出力部228を有する。
【0120】
取得部220は、デジタルカメラ10から、互いに関連づけられた予備画像データ、及び予備画像データに基づく撮像条件によって撮像された本画像データを取得する。取得部220は、デジタルカメラ10から、予備画像データを撮像したときの被写体の距離を示す情報を更に関連づけて取得してもよいし、予備画像に基づいて決定された、本画像データを撮像したときの撮像条件を更に関連づけて取得してもよい。
【0121】
分割部222は、本画像データを複数の領域に分割する。肌色抽出部224は、予備画像データにおける、肌色の画素が所定値以上の割合を占める第1の肌色領域と、本画像データにおける、肌色の画素が所定値以上の割合を占める第2の肌色領域とを抽出する。分割部222が本画像データを分割する動作、及び肌色抽出部224が第1の肌色領域及び第2の肌色領域を抽出する動作は、図7において説明した、デジタルカメラ10が有する分割部600及び肌色抽出部602の動作とそれぞれ同様なので省略する。
【0122】
補正部225は、予備画像データ及び本画像データに基づいて、本画像データを補正する。補正部226は、予備画像データ及び本画像データに基づいて、分割部222が分割した領域毎に、本画像データを補正してもよい。また、補正部226は、第1の肌色領域の輝度、第2の肌色領域の輝度、及び撮像条件に基づいて、本画像データの輝度を補正してもよい。また、補正部226は、第1の肌色領域の色度、第2の肌色領域の色度、及び撮像条件に基づいて、本画像データの色度を補正してもよい。補正部226の動作は、図7において説明した、デジタルカメラ10が有する補正条件決定部604及び補正部606の動作を合わせたものであるので省略する。
【0123】
出力部228は、補正部226が補正した本画像データを出力する。すなわち、プリンタ200は、本画像データを印刷し、パーソナルコンピュータ900は、本画像データをモニタに表示する。
【0124】
以上説明したように、本実施例のデジタルカメラ10、プリンタ200、及びパーソナルコンピュータ900によれば、撮像条件を調節する前に撮像した予備画像データと、撮像条件を調節した後に撮像した本画像データとに基づいて本画像データを補正するので、被写体の状態を反映した精度の高い補正を本画像データに施すことができる。
【0125】
図9は、本実施例に係るデジタルカメラ10の動作を示すフローチャートである。デジタルカメラ10は、レリーズスイッチの半押しなどのユーザの操作を検出すると、測距センサ52は被写体までの距離を測定し、測光センサは、被写体の明るさを取得し、撮像部20は、被写体の予備画像を撮像する(S300)。次に、撮像系CPU50は、被写体の明るさ、色、距離等の被写体情報に基づいて、撮像部20が被写体の本画像を撮像する場合に最適と判断する撮像条件を決定する(S304)。撮像条件は、例えば、シャッタースピード、絞り値、図2で説明したストロボ36の発光の有無、ストロボ36を発光させる場合の発光強度、及びホワイトバランス等である。
【0126】
続いてレリーズスイッチ114の全押しなどのユーザの操作が行われると、撮像部20は、撮像系CPU50が決定した撮像条件によって被写体の本画像データを撮
像する(S306)。次に、分割部600は、本画像データの輝度分布に基づいて、本画像データを複数の領域に分割する(S308)。
【0127】
補正条件決定部604は、予備画像データ及び本画像データを比較して、本画像データが所定の条件を満たしているか否かを判断し、所定の条件を満たしていない領域の画像データを補正する場合の補正条件を領域毎に決定する(S314)。本画像データを補正する場合の補正条件を分割部600が分割した領域毎に決定する(S314)。
【0128】
補正部606は、補正条件決定部604が決定した補正条件に従って、本画像データを補正する(S316)。補正部606は、分割部600が分割した複数の領域のそれぞれを、補正条件決定部604が決定した補正条件に基づいて補正する。
【0129】
格納部608は、補正部606が補正した本画像データを格納する(S318)。送信部326は、格納部608が格納した本画像データをプリンタ200又はパーソナルコンピュータ900に送信する(S322)。以上で本フローは終了する。
【0130】
図10は、本実施例に係るプリンタ200及びパーソナルコンピュータ900の動作を示すフローチャートである。取得部220は、デジタルカメラ10から、本画像データ及び予備画像データを取得する(S400)。次に、分割部222は、本画像データの輝度分布に基づいて、本画像データを複数の領域に分割する(S402)。次に、補正部226は、分割部222が複数の領域に分割した本画像データを、本画像データ及び予備画像データに基づいて領域毎に補正する(S404)。次に、出力部228は、補正された本画像データを出力する(S406)。すなわち、プリンタ200は、本画像データを印刷し、パーソナルコンピュータ900は、本画像データをモニタに表示する。以上で本フローは終了する。
【0131】
図11は、本実施形態に係るパーソナルコンピュータ900のハードウェア構成を示す。パーソナルコンピュータ200は、CPU700と、ROM702と、RAM704と、通信インタフェース706と、ハードディスクドライブ710と、フレキシブルディスクドライブ712と、CD−ROMドライブ716とを備える。CPU700は、ROM702及びRAM704に格納されたプログラムに基づいて動作し、各部の制御を行う。通信インタフェース706は、デジタルカメラ10及びプリンタ12と通信する。
【0132】
フレキシブルディスクドライブ712は、フレキシブルディスク714からデータ又はプログラムを読み取り通信インタフェース706に提供する。CD−ROMドライブ716は、CD−ROM718からデータ又はプログラムを読み取り通信インタフェース706に提供する。通信インタフェース706は、フレキシブルディスクドライブ712又はCD−ROMドライブ716から提供されたデータ又はプログラムを、デジタルカメラ10又はプリンタ200に送信する。
【0133】
プリンタ200に提供されるプログラムは、フレキシブルディスク714又はCD−ROM718等の記録媒体に格納されて利用者によって提供される。記録媒体に格納されたプログラムは圧縮されていても非圧縮であってもよい。プログラムは記録媒体から読み出され、通信インタフェース706を介して、デジタルカメラ10又はプリンタ200にインストールされ、デジタルカメラ10又はプリンタ200において実行される。
【0134】
記録媒体に格納されて提供され、デジタルカメラ10にインストールされるプログラムは、機能構成として、被写体情報取得モジュールと、判断モジュールと、操作モジュールと、管理モジュールと、第1の明るさ情報取得モジュールと、撮像モジュールと、分割モジュールと、肌色抽出モジュールと、補正条件決定モジュールと、補正モジュールと、格納モジュールと、送信モジュールとを有する。各モジュールがデジタルカメラ10に働きかけて行わせる動作は、図1から図9において説明したデジタルカメラ10における、対応する部材の動作と同一であるから、説明を省略する。
【0135】
また、記録媒体に格納されて提供され、プリンタ200にインストールされるプログラムは、機能構成として、受信モジュールと、取得モジュールと、補正モジュールと、分割モジュールと、肌色抽出モジュールと、出力モジュールとを有する。各モジュールがプリンタ12に働きかけて行わせる動作は、図1から図10において説明したプリンタ200における、対応する部材の動作と同一であるから、説明を省略する。
【0136】
図11に示した、記録媒体の一例としてのフレキシブルディスク714又はCD−ROM718には、本出願で説明した実施形態におけるデジタルカメラ10又はプリンタ200の動作の一部又は全ての機能を格納することができる。
【0137】
これらのプログラムは記録媒体から直接デジタルカメラ10又はプリンタ200によって読み出されて実行されても、デジタルカメラ10又はプリンタ200にインストールされた後にデジタルカメラ10又はプリンタ200において実行されてもよい。更に、上記プログラムは単一の記録媒体に格納されても複数の記録媒体に格納されてもよい。又、符号化した形態で格納されていてもよい。
【0138】
記録媒体としては、フレキシブルディスク、CD−ROMの他にも、DVD、PD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、磁気記録媒体、ICカードやミニチュアカードなどの半導体メモリ等を用いることができる。また、専用通信ネットワークやインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の格納装置を記録媒体として使用し、通信網を介してプログラムをデジタルカメラ10又はプリンタ200に提供してもよい。このような記録媒体は、デジタルカメラ10又はプリンタ200を製造するためのみに使用されるものであり、そのような記録媒体の業としての製造及び販売等が本出願に基づく特許権の侵害を構成することは明らかである。
【0139】
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に、多様な変更又は改良を加えることができる。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
【0140】
【発明の効果】
上記説明から明らかなように、本発明によればストロボ光の発光状態に応じて画像データを処理することができる。また、予備画像データ及び本画像データに基づいて、本画像データを精度よく補正することができる。
【図面の簡単な説明】
【図1】 本実施形態に係る画像処理システムの概略を示す図である。
【図2】 本実施形態に係るデジタルカメラ10の構成を示す図である。
【図3】 本実施形態の第1実施例に係るデジタルカメラ10の特徴的な機能構成を示すブロック図である。
【図4】 第1実施例に係るプリンタ200の特徴的な機能構成を示すブロック図である。
【図5】 第1実施例に係るデジタルカメラ10の動作を示すフローチャートである。
【図6】 第1実施例に係るプリンタ200の動作を示すフローチャートである。
【図7】 本実施形態の第2実施例に係るデジタルカメラ10の特徴的な機能構成を示すブロック図である。
【図8】 第2実施例に係るプリンタ200の特徴的な機能構成を示すブロック図である。
【図9】 第2実施例に係るデジタルカメラ10の動作を示すフローチャートである。
【図10】 第2実施例に係るプリンタ200の動作を示すフローチャートである。
【図11】 本実施形態に係るパーソナルコンピュータ900のハードウェア構成を示す図である。
【符号の説明】
10 デジタルカメラ 20 撮像部
32 撮像信号処理部 40 撮像制御部
50 撮像系CPU 60 処理部
62 メインCPU 100 表示部
110 操作部 200 プリンタ
202 受信部 204 印刷部
206 補正部 208 顔抽出部
210 タグ解析部 212 測定部
214 距離情報取得部 220 取得部
222 分割部 224 肌色抽出部
226 補正部 228 出力部
320 撮像画像格納部 322 第1の明るさ情報取得部
324 第2の明るさ情報取得部 326 送信部
500 判断部 502 被写体情報取得部
504 ストロボ制御部 506 距離情報取得部
600 分割部 602 肌色抽出部
604 補正条件決定部 606 補正部
608 格納部 700 CPU
702 ROM 704 RAM
706 通信インタフェース 710 ハードディスクドライブ
712 フレキシブルディスクドライブ 716 CD−ROMドライブ
900 パーソナルコンピュータ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an imaging device, an image processing device, an imaging method, an image processing method, an image processing system, and a program. In particular, the present invention relates to an imaging apparatus, an imaging method, and a program that transmit tag information about a captured image together with image data to an image processing apparatus, an image processing apparatus that processes image data based on tag information received from the imaging apparatus, and an image The present invention relates to a processing method, an image processing system, and a program.
[0002]
[Prior art]
A camera may have a plurality of shooting modes set in advance, such as a macro shooting mode, a portrait shooting mode, and a landscape shooting mode. The user can obtain a shooting effect suitable for the user's intention to draw by selecting a desired shooting mode at the time of shooting. Further, the photographed image can be converted into a desired image by correcting the image after photographing with a printer or the like, for example. In particular, Japanese Patent Laid-Open No. 6-253147 discloses an apparatus for correcting the image quality of an image on a film using data such as an exposure level, an imaging magnification, a light source, and focusing accuracy.
[0003]
[Problems to be solved by the invention]
However, even when the user selects a predetermined shooting mode and shoots the subject, there may be a case where a sufficient shooting effect cannot be obtained depending on the shooting environment such as the distance to the subject and the amount of ambient light. Also, conventional cameras, printers, and the like cannot determine an appropriate correction level when automatically correcting an image, and may not be able to output an image with a finish desired by a user.
[0004]
[Problems to be solved by the invention]
Accordingly, an object of the present invention is to provide an imaging apparatus, an image processing apparatus, an imaging method, an image processing method, an image processing system, and a program that can solve the above-described problems. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous specific examples of the present invention.
[0005]
[Means for Solving the Problems]
That is, according to the first aspect of the present invention, an imaging apparatus that emits strobe light during imaging, an imaging unit that captures a subject, and subject information acquisition that acquires subject information when the imaging unit captures the subject A determination unit that determines whether or not to emit strobe light based on subject information, an operation unit that receives a strobe instruction indicating whether or not to emit strobe light from a user, and a strobe instruction received by the operation unit And a captured image storage unit that stores determination information determined by the determination unit based on subject information in association with image data captured by the imaging unit.
[0006]
According to a second aspect of the present invention, there is provided an imaging device that captures an image of a subject, the strobe that emits strobe light when the imaging device images the subject, and the subject in a state in which the strobe emits strobe light. An imaging unit for imaging, a first brightness information acquisition unit for acquiring first brightness information indicating the brightness of the subject in a state where the strobe is not emitting strobe light, and a first brightness information acquisition unit Includes a captured image storage unit that stores the first brightness information acquired in association with the main image data captured by the imaging unit.
[0007]
The apparatus further includes a second brightness information acquisition unit that acquires second brightness information indicating the brightness of the subject in a state where the strobe emits strobe light, and the captured image storage unit includes the second brightness information acquisition unit. The second brightness information acquired by may be stored in association with the image data.
[0008]
The imaging unit images a subject in a state where the strobe is not emitting strobe light, and the first brightness information acquisition unit acquires first brightness information from the preliminary image data captured by the imaging unit. May be.
[0009]
The second brightness information acquisition unit may acquire the second brightness information from the main image data. A distance information acquisition unit that acquires distance information indicating the distance from the imaging device to the subject may be further included, and the captured image storage unit may store the distance information in association with the main image data.
[0010]
According to the third aspect of the present invention, an imaging device that captures an image of a subject captures preliminary image data of the subject, and captures the main image data of the subject with subject information determined based on the preliminary image data. A correction condition determining unit that determines correction conditions for correcting the main image data based on the preliminary image data and the main image data.
[0011]
A storage unit that stores the correction condition and the corrected main image data in association with each other, and a transmission unit that stores the correction condition and the main image data in association with each other may be further provided. The correction condition determination unit may determine the correction condition further based on information indicating a distance between the subject and the imaging device when the main image data is captured.
[0012]
The image forming apparatus may further include a dividing unit that divides the main image data into a plurality of regions, and the correction condition determining unit may determine the correction conditions for each region based on the preliminary image data and the main image data.
[0013]
The dividing unit may divide the main image data into a plurality of regions based on the luminance distribution of the main image data.
[0014]
The dividing unit may divide the main image data into a plurality of regions based on the chromaticity distribution of the main image data.
[0015]
Skin color extraction for extracting the first skin color area in which the skin color pixels occupy a predetermined value or more in the preliminary image data and the second skin color area in which the skin color pixels occupy the predetermined value or more in the main image data The correction condition determination unit may determine the correction condition based on the brightness of the first skin color area, the imaging condition, and the brightness of the second skin color area.
[0016]
Skin color extraction for extracting the first skin color area in which the skin color pixels occupy a predetermined value or more in the preliminary image data and the second skin color area in which the skin color pixels occupy the predetermined value or more in the main image data The correction condition determination unit may determine the correction condition based on the chromaticity of the first skin color area, the imaging condition, and the chromaticity of the second skin color area.
[0017]
According to a fourth aspect of the present invention, there is provided an image processing apparatus for processing image data, wherein strobe light emission information indicating whether or not strobe light has been emitted when the main image data is captured is displayed together with the main image data. A receiving unit that receives the image data and a correction unit that corrects the main image data based on the strobe light emission information received by the receiving unit.
[0018]
The strobe light emission information may indicate whether or not the strobe light is manually emitted. The correction unit may correct the main image data when the strobe light emission information indicates that the strobe light is emitted. The correction unit does not have to correct the main image data when the strobe light emission information indicates that the strobe light is not emitted.
[0019]
The receiving unit further receives determination information for determining whether or not the imaging device that has captured the main image data should automatically emit strobe light, and the correction unit is configured to perform main information based on the determination information and the strobe light emission information. Image data may be corrected. The correction unit may not correct the main image data when the determination information and the strobe information are contradictory information.
[0020]
The reception unit further receives preliminary image data information based on preliminary image data captured in a state where the subject of the main image data is not emitting strobe light, and the correction unit receives the main image based on the preliminary image data information. Data may be corrected.
[0021]
The preliminary image data information may be information indicating the brightness of the preliminary image data. The preliminary image data information may be preliminary image data. A measurement unit that measures the brightness of the preliminary image data may be further provided, and the correction unit may correct the main image data based on the brightness measured by the measurement unit.
[0022]
The receiving unit may further receive distance information indicating a distance between the imaging device that captured the main image data and a subject of the main image data, and the correction unit may correct the main image data based on the distance information.
[0023]
When the subject of the main image data includes a person, the image processing apparatus further includes a face extraction unit that extracts a human face area from the main image data, and corrects the main image data based on the face area extracted by the face extraction unit. Also good. You may further provide the printing part which prints this image data which the correction | amendment part correct | amended.
[0024]
According to the fifth aspect of the present invention, an image processing apparatus that processes image data includes: preliminary image data; an acquisition unit that acquires main image data captured according to an imaging condition based on the preliminary image data; A correction unit that corrects the main image data based on the main image data. The image processing apparatus may further include a dividing unit that divides the main image data into a plurality of regions, and the correction unit may correct the main image for each region. The acquisition unit may further acquire information indicating a distance to the subject when the main image is captured, and the correction unit may correct the main image data based on the information indicating the distance. .
[0025]
A skin color extraction unit that extracts a first skin color area in which the skin color pixels occupy a predetermined value or more in the preliminary image data and a second skin color area in which the skin color pixels occupy a predetermined value or more in the main image data. The correction unit may correct the brightness of the main image data based on the brightness of the first skin color area and the brightness of the second skin color area.
[0026]
A skin color extraction unit that extracts a first skin color area in which the skin color pixels occupy a predetermined value or more in the preliminary image data and a second skin color area in which the skin color pixels occupy a predetermined value or more in the main image data. The correction unit may correct the chromaticity of the main image data based on the chromaticity of the first skin color area and the chromaticity of the second skin color area.
[0027]
According to a sixth aspect of the present invention, there is provided an image processing system for processing image data, comprising: an imaging device that images a subject; and an image processing device that receives image data from the imaging device. Corresponding to the image data captured by the imaging unit, the imaging unit that captures the image, the strobe that emits the strobe light when the imaging unit images the subject, and the strobe emission information that indicates whether the strobe emitted the strobe light A captured image storage unit that stores the image data, and a transmission unit that associates the image data with the flash emission information and transmits the information to the image processing apparatus. The image processing apparatus captures the flash emission information and the image data. A reception unit received from the apparatus, and a correction unit that corrects image data based on the strobe light emission information received by the reception unit. The strobe light emission information may indicate whether or not the strobe light is manually emitted.
[0028]
According to a seventh aspect of the present invention, there is provided an imaging method for emitting strobe light at the time of imaging, capturing a subject, obtaining subject information when the subject is imaged, and emitting strobe light based on the subject information. Judgment is made on whether to emit light, a strobe instruction indicating whether to emit strobe light is received from the user, and the received strobe instruction and judgment information determined based on subject information are associated with the captured image data Manage it.
[0029]
According to an eighth aspect of the present invention, there is provided an imaging method for imaging a subject, which emits strobe light when imaging the subject, images the subject in a state where the strobe light is emitted, and emits strobe light. First brightness information indicating the brightness of the subject in a state in which the subject is not captured is acquired, and the acquired first brightness information is managed in association with the captured main image data.
[0030]
According to the ninth aspect of the present invention, an imaging method for imaging a subject includes the steps of imaging preliminary image data of the subject, and imaging the main image data of the subject according to an imaging condition determined based on the preliminary image data. And determining a correction condition for correcting the main image data based on the preliminary image data and the main image data.
[0031]
According to a tenth aspect of the present invention, there is provided an image processing method for processing image data, wherein strobe light emission information indicating whether or not strobe light has been emitted when the main image data is imaged together with the main image data. The received image data is corrected based on the received flash emission information.
[0032]
According to an eleventh aspect of the present invention, an image processing method for processing image data includes a step of receiving preliminary image data and main image data imaged under an imaging condition based on the preliminary image data, and a plurality of main image data. And a step of correcting the main image data for each region based on the preliminary image data and the main image data.
[0033]
According to a twelfth aspect of the present invention, there is provided a program for an imaging device that emits strobe light during imaging, a subject information acquisition module that acquires subject information when the imaging device images a subject, and the subject information A determination module that determines whether or not to emit strobe light, an operation module that receives a strobe instruction indicating whether or not to emit strobe light from a user, a strobe instruction received, and determination based on subject information And a management module that manages the determined determination information in association with image data captured by the imaging apparatus.
[0034]
According to a thirteenth aspect of the present invention, there is provided a program for an imaging device that captures an image of a subject, wherein first brightness information indicating the brightness of the subject in a state where the imaging device is not emitting strobe light is acquired. A first brightness information acquisition module; and a management module that manages the acquired first brightness information in association with main image data captured by the imaging apparatus.
[0035]
According to the fourteenth aspect of the present invention, a program for an imaging device that captures an image of a subject causes the imaging device to capture preliminary image data of the subject, and the main image data of the subject according to an imaging condition that is determined based on the preliminary image data. And a correction condition determination module for determining a correction condition for correcting the main image data based on the preliminary image data and the main image data.
[0036]
According to a fifteenth aspect of the present invention, there is provided a program for an image processing apparatus for processing image data, wherein strobe light emission information indicating whether or not strobe light is emitted when the main image data is captured is A receiving module that receives the image data together with the image data and a correction module that corrects the main image data based on the received strobe light emission information.
[0037]
According to the sixteenth aspect of the present invention, a program for an image processing apparatus that processes image data causes the image processing apparatus to receive preliminary image data and main image data imaged under an imaging condition based on the preliminary image data. An acquisition module, a division module that divides main image data into a plurality of areas, and a correction module that corrects main image data for each area based on preliminary image data and main image data.
[0038]
The above summary of the invention does not enumerate all the necessary features of the present invention, and sub-combinations of these feature groups can also be the invention.
[0039]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described through embodiments of the invention. However, the following embodiments do not limit the claimed invention, and all combinations of features described in the embodiments are the solution of the invention. It is not always essential to the means. The “strobe instruction” and the “determination information” described in the embodiment of the invention are examples of “strobe light emission information” described in the claims. Further, “distance information” and “brightness of image data” described in the embodiments of the present invention are examples of “image data information” described in the claims. Further, the “communication I / F unit” described in the embodiment of the invention is an example of the “transmission unit” described in the claims. The “nonvolatile memory” and the “main memory” described in the embodiments of the invention are examples of the “storage unit” described in the claims.
[0040]
FIG. 1 shows an outline of an entire image processing system according to an embodiment of the present invention. The image processing system includes a
[0041]
The
[0042]
The data transmission path is, for example, a wired cable such as USB or a wireless channel such as Bluetooth. The data transmission path may be a network network (for example, the Internet network) using a plurality of wired cables, wireless channels, and the like. In this figure, a mode of exchanging data using the data transmission path as described above is illustrated, but data exchange between the
[0043]
The
[0044]
FIG. 2 shows a configuration of the
[0045]
The
[0046]
Since the
[0047]
The imaging
[0048]
The
[0049]
The
[0050]
The
[0051]
The
[0052]
The
[0053]
The
[0054]
The
[0055]
The
[0056]
The
[0057]
The option
[0058]
The communication I /
[0059]
The
[0060]
The
[0061]
The main operation of the above configuration is as follows. First, the
[0062]
When the camera is in the shooting mode, the
[0063]
When the
[0064]
On the other hand, when the
[0065]
In this state, when the user instructs “forward” or “reverse” on the
[0066]
FIG. 3 is a block diagram showing a characteristic functional configuration of the
[0067]
The
[0068]
When the subject
[0069]
The subject
[0070]
When the
[0071]
When the first brightness
[0072]
The
[0073]
FIG. 4 is a block diagram illustrating a functional configuration of the
[0074]
The receiving
[0075]
The
[0076]
The
[0077]
The
[0078]
The
[0079]
FIG. 5 is a flowchart illustrating the operation of the
[0080]
When the
[0081]
When it is determined that the strobe light is emitted, the
[0082]
Next, the distance
[0083]
In the present embodiment, the first brightness
[0084]
The second brightness
[0085]
FIG. 6 is a flowchart showing the operation of the
[0086]
When the
[0087]
Next, the distance
[0088]
Next, the
[0089]
In the method described in Japanese Patent Laid-Open No. 8-122944, the main image data is divided into a plurality of areas, and after removing the non-person area, a shape pattern representing the contour of the person's head is detected, and the detected pattern is detected. Then, a face candidate area is detected, and a shape pattern that represents the contour of the person's face, a shape pattern that represents the internal structure of the face, and a shape pattern that represents the outline of the human torso are detected. A face region is extracted by determining consistency and determining a region with the highest degree of accuracy corresponding to a human face.
[0090]
The method described in Japanese Patent Application Laid-Open No. 5-100328 divides an image into a plurality of areas and performs photometry, converts the data obtained by photometry into hue and saturation, creates these two-dimensional histograms, This histogram is decomposed into single peaks, and further, it is determined which corner pixel of the image belongs to, and the pixels are decomposed into groups corresponding to the divided peaks, and the image is divided into each group. Then, the face candidate area is extracted, the image size of the extracted area is compared with the image size obtained from the main image size information, and the most matching area is extracted as the face area.
[0091]
Next, the correcting
[0092]
Y = 0.299R + 0.587G + 0.114B
(0 <R, G, B <255, 255; white)
As described above, the total pixel integration may be performed, or the image data may be divided into a plurality of regions, and the brightness may be measured by weighted average such as weighting the central portion.
[0093]
Next, the
[0094]
For example, the
[0095]
The
[0096]
The printing unit 204 prints the main image data corrected by the correction unit 206 (S214). In S202, when the
[0097]
When the judgment information indicates that the strobe light should not be emitted and the strobe instruction indicates that the strobe light should be emitted, for example, the user can arbitrarily set the strobe light even though the subject is in a bright state. Since light is emitted, the brightness of the main image data has a very high value. The correcting
[0098]
The
[0099]
For example, when the determination information indicates that the strobe light should be emitted and the strobe instruction indicates that the strobe light should not be emitted, the brightness of the subject is dark with a brightness equal to or less than a predetermined value. Nevertheless, there is a high possibility that the user does not want to emit strobe light, that is, a dark image is desired. Therefore, the
[0100]
FIG. 7 is a block diagram showing a characteristic functional configuration of the
[0101]
The
[0102]
Then, the
[0103]
Subsequently, when a user operation such as full pressing of the
[0104]
The dividing
[0105]
The dividing
[0106]
The dividing
[0107]
The dividing
[0108]
The skin
[0109]
The correction
[0110]
For example, the correction
[0111]
The correction
[0112]
The correction
[0113]
The correction
[0114]
The correction
[0115]
The
[0116]
The
[0117]
The
[0118]
Further, the
[0119]
FIG. 8 is a block diagram illustrating a characteristic functional configuration of the
[0120]
The
[0121]
The dividing
[0122]
The correction unit 225 corrects the main image data based on the preliminary image data and the main image data. The correcting
[0123]
The
[0124]
As described above, according to the
[0125]
FIG. 9 is a flowchart illustrating the operation of the
[0126]
Subsequently, when a user operation such as full pressing of the
An image is formed (S306). Next, the dividing
[0127]
The correction
[0128]
The
[0129]
The
[0130]
FIG. 10 is a flowchart illustrating operations of the
[0131]
FIG. 11 shows a hardware configuration of the
[0132]
flexible The
[0133]
The program provided to the
[0134]
The program stored and provided in the recording medium and installed in the
[0135]
The program stored and provided in the recording medium and installed in the
[0136]
As an example of the recording medium shown in FIG. flexible The
[0137]
These programs may be read and executed directly from the recording medium by the
[0138]
As a recording medium, flexible In addition to disks and CD-ROMs, optical recording media such as DVD and PD, magneto-optical recording media such as MD, tape media, magnetic recording media, and semiconductor memories such as IC cards and miniature cards can be used. Further, a storage device such as a hard disk or a RAM provided in a server system connected to a dedicated communication network or the Internet may be used as a recording medium, and the program may be provided to the
[0139]
As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various modifications or improvements can be added to the above embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
[0140]
【The invention's effect】
As is apparent from the above description, according to the present invention, image data can be processed according to the light emission state of strobe light. Further, the main image data can be corrected with high accuracy based on the preliminary image data and the main image data.
[Brief description of the drawings]
FIG. 1 is a diagram showing an outline of an image processing system according to an embodiment.
FIG. 2 is a diagram illustrating a configuration of a
FIG. 3 is a block diagram illustrating a characteristic functional configuration of the
FIG. 4 is a block diagram illustrating a characteristic functional configuration of the
FIG. 5 is a flowchart showing the operation of the
FIG. 6 is a flowchart illustrating an operation of the
FIG. 7 is a block diagram showing a characteristic functional configuration of a
FIG. 8 is a block diagram illustrating a characteristic functional configuration of a
FIG. 9 is a flowchart showing the operation of the
FIG. 10 is a flowchart illustrating an operation of the
FIG. 11 is a diagram illustrating a hardware configuration of a
[Explanation of symbols]
10
32 Imaging
50
62
110
202 receiving unit 204 printing unit
206
210
214 Distance
222
226
320 Captured
324 Second brightness
500
504
600
604 Correction
608
702
706
712
900 Personal computer
Claims (21)
前記撮像装置は、
被写体を撮像する撮像部と、
被写体の明るさを示す明るさ情報と、前記撮像装置から被写体までの距離を示す距離情報とを含む被写体情報を取得する被写体情報取得部と、
前記被写体情報に基づいて、ストロボ光を発光させるか否かを判断する判断部と、
ストロボ光を発光させるか否かを示すストロボ指示をユーザから受け取る操作部と、
前記判断部が前記被写体情報に基づいて判断した判断情報、および前記ストロボ指示を、前記撮像部が撮像した本画像データに対応付けて格納する撮像画像格納部と
を有し、
前記画像処理装置は、
前記判断情報および前記ストロボ指示を、前記本画像データとともに受け取る受信部と、
前記判断情報および前記ストロボ指示に基づいて、前記本画像データを補正する補正部と
を有し、
前記補正部は、前記判断情報と前記ストロボ指示とが矛盾する情報である場合に、前記本画像データの補正を行わない画像処理システム。An image processing system including an imaging device and an image processing device,
The imaging device
An imaging unit for imaging a subject;
A subject information acquisition unit for acquiring subject information including brightness information indicating the brightness of the subject and distance information indicating a distance from the imaging device to the subject;
A determination unit for determining whether to emit strobe light based on the subject information;
An operation unit for receiving a strobe instruction indicating whether or not to emit a strobe light from a user;
A captured image storage unit that stores the determination information determined by the determination unit based on the subject information and the strobe instruction in association with main image data captured by the imaging unit;
The image processing apparatus includes:
A receiving unit that receives the determination information and the strobe instruction together with the main image data;
Based on the determination information and the strobe instruction, it has a correction unit that corrects the main image data,
The image processing system in which the correction unit does not correct the main image data when the determination information and the strobe instruction are contradictory information .
前記撮像部が、ストロボ光を発光した状態で前記本画像データを撮像した場合に、ストロボ光を発光していない状態における被写体の明るさを示す第1の明るさ情報を取得する第1の明るさ情報取得部
をさらに有し、
前記撮像画像格納部は、前記第1の明るさ情報を、前記本画像データに対応付けて格納する請求項1に記載の画像処理システム。The imaging device
When the imaging unit captures the main image data in a state in which strobe light is emitted, first brightness information that acquires first brightness information indicating the brightness of the subject in a state in which the strobe light is not emitted. And an information acquisition unit,
The image processing system according to claim 1, wherein the captured image storage unit stores the first brightness information in association with the main image data.
ストロボ光を発光した状態における被写体の明るさを示す第2の明るさ情報を取得する第2の明るさ情報取得部
をさらに有し、
前記撮像画像格納部は、前記第2の明るさ情報を、前記本画像データに対応付けて格納する請求項2に記載の画像処理システム。The imaging device
A second brightness information acquisition unit for acquiring second brightness information indicating the brightness of the subject in a state in which the strobe light is emitted;
The captured image storage unit, the image processing system according to claim 2, said second brightness information, and stores in association with the main image data.
前記第1の明るさ情報取得部は、前記予備画像データから、前記第1の明るさ情報を取得する請求項2に記載の画像処理システム。The imaging unit captures preliminary image data in a state where no strobe light is emitted,
The image processing system according to claim 2 , wherein the first brightness information acquisition unit acquires the first brightness information from the preliminary image data.
前記画像処理装置は、
前記予備画像データの明るさを測定する測定部
をさらに有し、
前記補正部は、前記測定部が測定した明るさに基づいて、前記本画像データを補正する請求項1に記載の画像処理システム。The imaging unit captures preliminary image data in a state where no strobe light is emitted,
The image processing apparatus includes:
A measurement unit for measuring the brightness of the preliminary image data;
The image processing system according to claim 1, wherein the correction unit corrects the main image data based on brightness measured by the measurement unit.
前記本画像データの被写体が人物を含む場合に、前記本画像データから前記人物の顔領域を抽出する顔抽出部
をさらに有し、
前記補正部は、前記顔領域にさらに基づいて、前記本画像データを補正する請求項1乃至請求項6のいずれかに記載の画像処理システム。The image processing apparatus includes:
A face extracting unit that extracts a face area of the person from the main image data when the subject of the main image data includes a person;
Wherein the correction unit is further based on the face area, the image processing system according to any one of claims 1 to 6 corrects the main image data.
前記撮像ステップは、
被写体を撮像するステップと、
被写体の明るさを示す明るさ情報と、撮像装置から被写体までの距離を示す距離情報とを含む被写体情報を取得するステップと、
前記被写体情報に基づいて、ストロボ光を発光させるか否かを判断するステップと、
ストロボ光を発光させるか否かを示すストロボ指示をユーザから受け取るステップと、
前記被写体情報に基づいて判断した判断情報、および前記ストロボ指示を、撮像した本画像データに対応付けて格納するステップと
を有し、
前記画像処理ステップは、
前記判断情報および前記ストロボ指示を、前記本画像データとともに受け取るステップと、
前記判断情報および前記ストロボ指示に基づいて、前記本画像データを補正するステップと
を有し、
前記補正するステップは、前記判断情報と前記ストロボ指示とが矛盾する情報である場合に、前記本画像データの補正を行わない画像処理方法。An image processing method comprising an imaging step and an image processing step,
The imaging step includes
Imaging a subject;
Obtaining subject information including brightness information indicating the brightness of the subject and distance information indicating a distance from the imaging device to the subject;
Determining whether to emit strobe light based on the subject information;
Receiving a strobe instruction from a user indicating whether or not to emit strobe light;
Storing the determination information determined based on the subject information, and the strobe instruction in association with the captured main image data,
The image processing step includes
Receiving the determination information and the strobe instruction together with the main image data;
Based on the determination information and the strobe instruction, it possesses and correcting the main image data,
An image processing method in which the correcting step does not correct the main image data when the determination information and the strobe instruction are contradictory information .
ストロボ光を発光した状態で前記本画像データを撮像した場合に、ストロボ光を発光していない状態における被写体の明るさを示す第1の明るさ情報を取得するステップと、
前記第1の明るさ情報を、前記本画像データに対応付けて格納するステップと
をさらに有する請求項8に記載の画像処理方法。The imaging step includes
Acquiring the first brightness information indicating the brightness of the subject in a state where the strobe light is not emitted when the main image data is captured while the strobe light is emitted;
The image processing method according to claim 8 , further comprising a step of storing the first brightness information in association with the main image data.
ストロボ光を発光した状態における被写体の明るさを示す第2の明るさ情報を取得するステップと、
前記第2の明るさ情報を、前記本画像データに対応付けて格納するステップと
をさらに有する請求項9に記載の画像処理方法。The imaging step includes
Obtaining second brightness information indicating the brightness of the subject in a state in which the strobe light is emitted;
The image processing method according to claim 9 , further comprising a step of storing the second brightness information in association with the main image data.
前記第1の明るさ情報を取得するステップは、前記予備画像データから、前記第1の明るさ情報を取得する請求項9に記載の画像処理方法。The step of imaging the subject captures preliminary image data in a state in which no flash light is emitted,
The image processing method according to claim 9 , wherein the step of acquiring the first brightness information acquires the first brightness information from the preliminary image data.
前記画像処理ステップは、
前記予備画像データの明るさを測定するステップ
をさらに有し、
前記補正するステップは、前記測定するステップで測定した明るさに基づいて、前記本画像データを補正する請求項8に記載の画像処理方法。The step of imaging the subject captures preliminary image data in a state in which no flash light is emitted,
The image processing step includes
Measuring the brightness of the preliminary image data,
The image processing method according to claim 8 , wherein the correcting step corrects the main image data based on the brightness measured in the measuring step.
前記本画像データの被写体が人物を含む場合に、前記本画像データから前記人物の顔領域を抽出するステップ
をさらに有し、
前記補正するステップは、前記顔領域にさらに基づいて、前記本画像データを補正する請求項8乃至請求項13のいずれかに記載の画像処理方法。The image processing step includes
A step of extracting a face area of the person from the main image data when the subject of the main image data includes a person;
Step is further based on the face area, the image processing method according to any one of claims 8 to 13 corrects the main image data to the correction.
前記撮像装置を、
被写体を撮像する撮像部、
被写体の明るさを示す明るさ情報と、前記撮像装置から被写体までの距離を示す距離情報とを含む被写体情報を取得する被写体情報取得部、
前記被写体情報に基づいて、ストロボ光を発光させるか否かを判断する判断部、
ストロボ光を発光させるか否かを示すストロボ指示をユーザから受け取る操作部、および
前記判断部が前記被写体情報に基づいて判断した判断情報、および前記ストロボ指示を、前記撮像部が撮像した本画像データに対応付けて格納する撮像画像格納部
として機能させ、
前記画像処理装置を、
前記判断情報および前記ストロボ指示を、前記本画像データとともに受け取る受信部、および
前記判断情報および前記ストロボ指示に基づいて、前記本画像データを補正する補正部
として機能させ、
前記補正部は、前記判断情報と前記ストロボ指示とが矛盾する情報である場合に、前記本画像データの補正を行わないプログラム。A program for an image processing system comprising an imaging device and an image processing device,
The imaging device;
An imaging unit for imaging a subject;
A subject information acquisition unit that acquires subject information including brightness information indicating the brightness of the subject and distance information indicating a distance from the imaging device to the subject;
A determination unit that determines whether to emit strobe light based on the subject information;
An operation unit that receives a strobe instruction indicating whether or not to emit strobe light from a user, determination information determined by the determination unit based on the subject information, and main image data obtained by capturing the strobe instruction by the imaging unit Function as a captured image storage unit that stores data in association with
The image processing apparatus;
A receiving unit that receives the determination information and the strobe instruction together with the main image data; and a correction unit that corrects the main image data based on the determination information and the strobe instruction ;
The correction unit is a program that does not correct the main image data when the determination information and the strobe instruction are contradictory information .
前記撮像部が、ストロボ光を発光した状態で前記本画像データを撮像した場合に、ストロボ光を発光していない状態における被写体の明るさを示す第1の明るさ情報を取得する第1の明るさ情報取得部
としてさらに機能させ、
前記撮像画像格納部は、前記第1の明るさ情報を、前記本画像データに対応付けて格納する請求項15に記載のプログラム。The imaging device;
When the imaging unit captures the main image data while emitting strobe light, the first brightness for obtaining first brightness information indicating the brightness of the subject in a state where the strobe light is not emitted. Further function as an information acquisition unit,
The program according to claim 15 , wherein the captured image storage unit stores the first brightness information in association with the main image data.
ストロボ光を発光した状態における被写体の明るさを示す第2の明るさ情報を取得する第2の明るさ情報取得部
としてさらに機能させ、
前記撮像画像格納部は、前記第2の明るさ情報を、前記本画像データに対応付けて格納する請求項16に記載のプログラム。The imaging device;
Further functioning as a second brightness information acquisition unit for acquiring second brightness information indicating the brightness of the subject in a state in which flash light is emitted;
The program according to claim 16 , wherein the captured image storage unit stores the second brightness information in association with the main image data.
前記第1の明るさ情報取得部は、前記予備画像データから、前記第1の明るさ情報を取得する請求項16に記載のプログラム。The imaging unit captures preliminary image data in a state where no strobe light is emitted,
The program according to claim 16 , wherein the first brightness information acquisition unit acquires the first brightness information from the preliminary image data.
前記画像処理装置を、
前記予備画像データの明るさを測定する測定部
としてさらに機能させ、
前記補正部は、前記測定部が測定した明るさに基づいて、前記本画像データを補正する請求項15に記載のプログラム。The imaging unit captures preliminary image data in a state where no strobe light is emitted,
The image processing apparatus;
Further function as a measurement unit for measuring the brightness of the preliminary image data,
The program according to claim 15 , wherein the correction unit corrects the main image data based on the brightness measured by the measurement unit.
前記本画像データの被写体が人物を含む場合に、前記本画像データから前記人物の顔領域を抽出する顔抽出部
としてさらに機能させ、
前記補正部は、前記顔領域にさらに基づいて、前記本画像データを補正する請求項16乃至請求項20のいずれかに記載のプログラム。The image processing apparatus;
When the subject of the main image data includes a person, it further functions as a face extraction unit that extracts the face area of the person from the main image data,
Wherein the correction unit is configured further based on the face area, the program according to any one of claims 16 to 20 to correct the image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002087227A JP4087631B2 (en) | 2001-08-24 | 2002-03-26 | Imaging apparatus, image processing apparatus, imaging method, image processing method, image processing system, and program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001-254083 | 2001-08-24 | ||
JP2001254083 | 2001-08-24 | ||
JP2002087227A JP4087631B2 (en) | 2001-08-24 | 2002-03-26 | Imaging apparatus, image processing apparatus, imaging method, image processing method, image processing system, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003143524A JP2003143524A (en) | 2003-05-16 |
JP4087631B2 true JP4087631B2 (en) | 2008-05-21 |
Family
ID=26620917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002087227A Expired - Lifetime JP4087631B2 (en) | 2001-08-24 | 2002-03-26 | Imaging apparatus, image processing apparatus, imaging method, image processing method, image processing system, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4087631B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4510768B2 (en) | 2006-02-15 | 2010-07-28 | 富士フイルム株式会社 | Imaging apparatus and method, and program |
CN101115147B (en) | 2006-07-25 | 2010-07-14 | 富士胶片株式会社 | System for and method of taking image |
JP5113514B2 (en) * | 2007-12-27 | 2013-01-09 | キヤノン株式会社 | White balance control device and white balance control method |
JP5146015B2 (en) * | 2008-03-04 | 2013-02-20 | 株式会社リコー | Imaging apparatus and imaging method |
JP5743142B2 (en) | 2011-03-29 | 2015-07-01 | ソニー株式会社 | Image processing apparatus and method, and program |
-
2002
- 2002-03-26 JP JP2002087227A patent/JP4087631B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2003143524A (en) | 2003-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7626615B2 (en) | Printer system and image processing system having image correcting function | |
JP4275344B2 (en) | Imaging apparatus, imaging method, and program | |
JP3473552B2 (en) | Digital still camera | |
JP2003338972A (en) | Image processing system, imaging unit, apparatus and method for processing image and program | |
JP2001211362A (en) | Composition assisting frame selecting method for digital camera and digital camera | |
JP4451583B2 (en) | Imaging apparatus, imaging method, and program | |
US8228423B2 (en) | Imaging apparatus and method for controlling flash emission | |
US7339606B2 (en) | Image capturing apparatus, main subject position determination method, and computer-readable medium storing program | |
JP3806038B2 (en) | Image processing system and imaging apparatus | |
JP4200428B2 (en) | Face area extraction method and apparatus | |
JP2000050152A (en) | Exposure amount control system for digital camera | |
US7379620B2 (en) | Image taking apparatus | |
JP2003179807A (en) | Image pickup device | |
JP4343468B2 (en) | Image processing system, imaging apparatus, image processing apparatus, image processing method, and program | |
JP2004201228A (en) | Method and device for extracting face area | |
JP4202013B2 (en) | Image processing system, imaging apparatus, image processing apparatus, image processing method, and program | |
JP4087631B2 (en) | Imaging apparatus, image processing apparatus, imaging method, image processing method, image processing system, and program | |
JP2009005356A (en) | Imaging device, image processor, image processing system, image processing method, and image processing program | |
US8041206B2 (en) | Imaging apparatus and method for controlling flash emission | |
JP2003242504A (en) | Image processor | |
JP2003043558A (en) | Image pickup device | |
JP2003333381A (en) | Imaging apparatus with image evaluation function | |
JP4188531B2 (en) | Imaging apparatus and exposure control method | |
JP4312974B2 (en) | Imaging apparatus, image processing apparatus, image processing system, image processing method, and image processing program | |
JP2000004445A (en) | Camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040304 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060911 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20061208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070502 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070626 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080221 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110228 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120229 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120229 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130228 Year of fee payment: 5 |