JP3763293B2 - 画像処理装置、画像処理方法、及び撮像装置 - Google Patents

画像処理装置、画像処理方法、及び撮像装置 Download PDF

Info

Publication number
JP3763293B2
JP3763293B2 JP2002255865A JP2002255865A JP3763293B2 JP 3763293 B2 JP3763293 B2 JP 3763293B2 JP 2002255865 A JP2002255865 A JP 2002255865A JP 2002255865 A JP2002255865 A JP 2002255865A JP 3763293 B2 JP3763293 B2 JP 3763293B2
Authority
JP
Japan
Prior art keywords
person
trimming
mouth
face
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002255865A
Other languages
English (en)
Other versions
JP2004096487A (ja
Inventor
俊明 中西
道忠 上田
洋明 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002255865A priority Critical patent/JP3763293B2/ja
Priority to EP03808870A priority patent/EP1558015B1/en
Priority to US10/493,938 priority patent/US8098293B2/en
Priority to DE60329620T priority patent/DE60329620D1/de
Priority to KR1020047006362A priority patent/KR100980915B1/ko
Priority to PCT/JP2003/010986 priority patent/WO2004036900A1/ja
Publication of JP2004096487A publication Critical patent/JP2004096487A/ja
Application granted granted Critical
Publication of JP3763293B2 publication Critical patent/JP3763293B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、証明写真等の人物が撮像された画像における人物画像が印画紙内にて所定位置になるようトリミングする画像処理装置、画像処理方法、及び撮像装置に関する。
【0002】
【従来の技術】
従来、図35に示すように、証明写真を撮る撮像装置800は、略矩形の筐体801を有し、この筐体801には、内部に撮像室802が設けられている。この筐体801には、撮像室802に入った被写体となる人物の顔を撮像する撮像部803と、撮像部803が撮像した画像を印刷するプリンタ804とが内蔵されている。また、筐体801には、撮像室802に入るための入り口805が設けられており、入り口805には、遮光カーテン806が取り付けられている。また、撮像室802には、被写体となる人物が着座する椅子807が設けられている。更に、撮像装置800には、被写体を照射する照明器具809が設けられている他、図示しないコイン投入口や金庫等が設けられている。
【0003】
このような撮像装置800では、入り口805より被写体となる人物が撮像室802に入って椅子806に着座すると、撮像準備が完了した状態となる。そして、撮像装置800では、椅子807に座っている被写体をフラッシュ撮像し、この撮像データをプリンタ804で出力する。
【0004】
【発明が解決しようとする課題】
しかしながら、従来の撮像装置800においては、顔が規定の位置に写るよう、具体的には、正面のミラー(撮像部)に頭頂部を合せるマーク(図示せず)が記されており、このマーク位置に頭頂部が一致するよう、椅子807を回転させ、その高さを手動で上下させ、頭頂部の位置を合わせなければならなかった。
【0005】
また、例えば店頭等の簡易スタジオでは、カメラの角度等を変えることにより、顔の位置を決められた位置になるように合せていた。このように顔の位置を手動で合せると、できあがった写真は顔の位置が上下にばらつくことが多いという問題点がある。また、写真の最上部から頭頂部までの天部が広い間が抜けた写真になり、一方、天部が狭いと窮屈で見苦しい写真になってしまうという問題点がある。
【0006】
また、一般の写真においても、主役となる被写体を画面の中心部に配置する傾向がある。このため不必要に天部の面積が大きくなる傾向にある。記念写真又はポートレートでは、顔部を画面中心に配置することにより、天部が広くなり間が抜けた写真に仕上ってしまう。更に、風景写真では空の部分が多くなり、主役の被写体が上手に表現されないという問題点もある。
【0007】
本発明は、このような従来の実情に鑑みて提案されたものであり、撮像された人物画像をトリミングにより自動的に見やすい写真に仕上げることができる画像処理装置、画像処理方法及び撮像装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
上述した目的を達成するために、本発明に係る画像処理装置は、人物の画像から顔領域を抽出する顔領域抽出手段と、顔領域抽出手段により抽出された顔領域から人物の頭頂部、口及び眼の位置を検出する位置検出手段と、位置検出手段により検出された人物の頭頂部の位置及び口の位置から人物の頭頂部から口までの距離を算出するとともに、位置検出手段により検出された上記人物の頭頂部、口及び眼の位置の少なくとも一つから人物の顔を左右に等分する中心線とを算出する算出手段と、位置検出手段により検出された人物の頭頂部と、算出手段により算出された上記人物の頭頂部から口までの距離と、算出手段により算出された人物の顔を左右に等分する中心線とに基づきトリミング範囲を決定してトリミングを行い、位置検出手段が人物の口の位置を検出できなかったときには、画像の最上端をトリミング範囲の最上端にするとともに、画像の最上端から位置検出手段が検出した人物の頭頂部までを天部とし、天部の寸法と位置検出手段が検出した人物の頭頂部の位置と画像内に人物が有効に配される有効領域の幅とに基づきトリミング範囲の最下端を決定してトリミングをトリミング手段とを備えることを特徴とする。
【0009】
また、本発明に係る画像処理方法は、人物の画像から顔領域を抽出する顔領域抽出工程と、顔領域から人物の頭頂部、口及び眼の位置を検出する位置検出工程と、人物の頭頂部から口までの距離と、人物の頭頂部、口及び眼の位置の少なくとも一つから人物の顔を左右に等分する中心線とを算出する算出工程と、人物の頭頂部の位置と、人物の頭頂部から口まで距離と、人物の顔を左右に等分する中心線とに基づきトリミング範囲を決定してトリミング行い、人物の口の位置が検出されていないときには、画像の最上端をトリミング範囲の最上端とし、画像の最上端から上記人物の頭頂部の位置までを天部とし、天部の寸法と人物の頭頂部の位置と画像内に人物が有効に配される有効領域の幅とに基づきトリミング範囲の最下端を決定してトリミングを行うトリミング工程とを有することを特徴とする。
【0010】
更に、本発明に係る撮像装置は、人物を撮像する撮像手段と、撮像手段が撮像した人物の画像から顔領域を抽出する顔領域抽出手段と、顔領域抽出手段により抽出された顔領域から上記人物の頭頂部、口及び眼の位置を検出する位置検出手段と、位置検出手段により検出された人物の頭頂部の位置及び口の位置から人物の頭頂部から口までの距離を算出するとともに、位置検出手段により検出された人物の頭頂部、口及び眼の位置の少なくとも一つから人物の顔を左右に等分する中心線とを算出する算出手段と、位置検出手段により検出された人物の頭頂部と、算出手段により算出された人物の頭頂部から口までの距離と、算出手段により算出された人物の顔を左右に等分する中心線とに基づきトリミング範囲を決定してトリミングを行い位置検出手段が人物の口の位置を検出できなかったときには、画像の最上端をトリミング範囲の最上端にするとともに、画像の最上端から位置検出手段が検出した人物の頭頂部までを天部とし、天部の寸法と位置検出手段が検出した人物の頭頂部の位置と画像内に人物が有効に配される有効領域の幅とに基づきトリミング範囲の最下端を決定してトリミングを行うトリミング手段とを備えることを特徴とする。
【0011】
本発明においては、位置検出手段により人物の特徴となる頭頂部、口及び眼の位置を検出し、算出手段により、頭頂部、口及び眼のそれぞれの間隔や顔の縦方向の中心を算出し、トリミング手段が、人物の頭頂部の位置と、頭頂部から口までの距離と、顔の縦方向の中心とに基づきトリミング範囲を決定することで、顔部、胸部及び天部のバランスを自動的に調整して画像をトリミングすることで、常に見やすい写真を得ることができる。このため、撮像者は、被写体の顔が最適な位置になるようカメラ位置を考慮する必要がなく、また、フォトブースでは、被写体となる使用者が椅子の高さを調整する必要がない。
【0012】
【発明の実施の形態】
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、撮像された画像から人物の顔領域である顔部を自動検出してオートトリミングする画像処理装置であって、顔部、胸部、及び天部の比率を規定することにより、人物画像をバランスよく自動配置し、自動的に見やすい写真に仕上げるための画像処理装置に適用したものである。
【0013】
図1は、証明写真における人物の配置を示す模式図である。図1に示すように、証明写真600において、証明写真の最上端600aから人物画像601の頭頂部TOHまでの垂直方向の大きさAが天部寸法を示す。また、人物画像601の頭頂部TOHから口HOMまでの垂直方向の大きさBが顔部寸法を示す。更に、人物画像601の口HOMから証明写真の最下端600bまでの大きさCが胸部寸法を示す。ここで、D(D=A+B+C)は、印画紙において証明写真600が印刷された領域(以下、有効領域という。)の垂直方向の大きさを示す。ここで、この有効領域は、印画紙において証明写真が印刷されていない余白を含む場合、この余白を除いた領域を示す。また、Eは、有効領域の水平方向の大きさを示す。更に、COHは、顔を左右に等分するEの中間を示す線、いわゆる顔の中心線である。ここで、この有効領域(D×E)は、印画紙に証明写真が印刷されていない余白を含む場合、この余白を除いた領域を示す。
【0014】
本実施の形態の画像処理装置は、被写体の顔領域が印画紙において本発明範囲、即ち顔部Bの寸法を基準とした場合、各部の比率を顔部B:胸部C:天部A=1:0.6〜1.0:0.2〜0.3の範囲となるようにトリミングを行うものである。
【0015】
ここで、本画像処理装置は、証明写真装置等の写真ブースにおいて、画像処理で顔部を検出してオートトリミングする際に使用される。ここでは、先ず、本実施の形態の画像処理装置が設けられる写真ブースについて説明する。
【0016】
A.写真ブース
図2乃至図4に示すように、撮像装置1は、病院等に設置されて患者等の顔写真を撮像するために用いられる写真ブースを構成するものであり、本体部を構成する筐体11を有する。この筐体11は、背面部12に相対向して設けられる側壁13,14と、側壁13,14間を閉塞し天井を構成する天板15とを有し、背面部12と一対の側壁13,14と天板15とで構成される空間部に撮像室16が設けられている。
【0017】
被写体となる人物が撮像室16に入ったときに対向する背面部12には、その内部に、被写体を撮像するための撮像部17、撮像部17が撮像した画像を印刷するプリンタ18,19、撮像部17の出力である画像信号をアナログ信号からディジタル信号に変換する等の画像処理を行う画像処理回路、全体の動作を制御する制御回路等の様々な電気回路が組み込まれたメイン基板21等が内蔵されている。撮像部17は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor device)等の撮像素子を有する撮像装置17aと、撮像室16の被写体となる人物と向き合う面に設けられるハーフミラー17bと、ハーフミラー17bを透過した光を反射する反射板17cとを有する。ハーフミラー17bは、被写体を撮像するとき、ハーフミラー17bで被写体からの光を所定量反射させることで被写体となる人物が自分の顔を見ることができるようにすると共に、残りの光を透過し、撮像装置17aが被写体を取り込むことができるようにする。ハーフミラー17bを透過した光は、反射板17cで反射されて撮像装置17aへと導かれ、これによって、撮像装置17aは、被写体を撮像する。撮像装置17aからの出力は、メイン基板21の画像処理回路に出力され、ディジタル処理がなされ、これをプリンタ18若しくは19に出力する。
【0018】
第1のプリンタ18は、通常使用するメインプリンタであり、第2のプリンタ19は、第1のプリンタ18が故障したとき等に使用される補助プリンタである。ディジタル信号に変換された画像データは、第1のプリンタ18若しくは第2のプリンタ19に出力され、プリンタ18,19で印画紙に印刷される。その他に、筐体11を構成する背面部12には、電源スイッチ20a、金庫20b等が内蔵されている。
【0019】
側壁13,14は、このような背面部12と一体的に、互いに略平行となすように設けられている。背面部12を構成する外壁と共に側壁13,14は、鉄板等比較的比重の重い材料で形成することで、筐体11の下側を重くし、安定して設置面2に設置できるように形成されている。一方の側壁13は、他方の側壁14より短くなるように形成されている。筐体11は、長い側の他方の側壁14が、壁に沿うように設置される。短い側となる一方の側壁13には、設置面2と接続する転動防止部材22が取り付けられる。転倒防止部材22は、設置面2、一方の側壁13のそれぞれをねじ止め等することで、筐体11が一方の側壁13側から押されたときにも倒れないようにしている。そして、他方の側壁14は、一方の側壁13より長く形成することで、一方の側壁13側から力が加えられたときにも、筐体11を十分支持できるように形成されている。
【0020】
側壁13,14間に取り付けられる天板15は、撮像室16の天井を構成するものであり、長手方向の長さが長い側となる他方の側壁14と略同じ若しくは他方の側壁14よりやや長く形成されている。ここで、天板15は、ポリプロピレン等の樹脂材料で形成されている。即ち、天板15は、側壁13,14に比べて比重の軽い材料で形成されている。筐体11は、側壁13,14を含む周面を鉄板等の比較的比重の重い材料で形成し、上方に位置する天板15を比重の比較的軽い材料で形成し、下側が重くなるように形成することで、安定して設置面2に設置できるようになっている。
【0021】
撮像室16は、以上のような背面部12と一体的に形成される一対の側壁13,14と天板15とで構成され、一方の側壁13の端部と他方の側壁14の端部との間が撮像室16の入り口23とされている。即ち、被写体となる人物は、筐体11の前面側からと一方の側壁13側から撮像室16に入ることができるようになっている。筐体11は、底板が設けられておらず、従って、撮像室16の床は、設置面2となっており、撮像室の床は、設置面2と面一になっている。したがって、従来のように、撮像室16の入り口23には、段差が無く、車椅子等に乗った患者も、車椅子等に乗ったまま撮像室16に入ることができる。
【0022】
ここで撮像室16の詳細を説明すると、撮像室16には、長い側の他方の側壁14に回動支持された椅子24が設けられている。この椅子24には、被写体となる人物が座る。この撮像室16には、車椅子等に乗った患者も入り口23より入ることがあり、この場合は、椅子24が邪魔となる。そこで、この椅子24は、長い側の他方の側壁14側に倒すことができ、撮像室16より待避させることで、車椅子の患者が撮像室16に入ることができるようになっている。具体的に、後述する検出部59により椅子24が側壁14側に倒されているかいないか、即ち椅子24が側壁14側に退避されているかどうかを検出して、撮像装置1の各部が動作するようになっている。また、この椅子24の高さは、車椅子の座る部分と略同じ高さとなっている。撮像部17は、機構を簡素化するため、位置を変えることはできず固定となっている。被写体となる人物には、車椅子に乗った者と乗っていない者とがおり、それによって、顔の高さは異なる。そこで、椅子24は、車椅子の高さと略同じとすることで、車椅子に乗っていない者が椅子24に座ったときの顔の高さと車椅子に乗った者の顔の高さとが略同じになるようにし、撮像部17が固定であっても確実に被写体となる人物の顔を確実に撮像することができるようにしている。なお、椅子24の隣には、物置台25が設けられおり、被写体となる人物が鞄等を置くことができるようになっている。
【0023】
椅子24に座った若しくは撮像室16に入った車椅子に乗った患者と対向する第1の面16aは、撮像部17を構成する撮像装置17aの光軸と垂直となるように形成されており、この面の被写体となる人物の顔と対向する位置には、撮像部17を構成する略矩形のハーフミラー17bが設けられている。このハーフミラー17bは、椅子24に座った若しくは車椅子に座っている患者がハーフミラー17bで自分の顔を見ながら撮像を行うことができるようになっている。
【0024】
このハーフミラー17bが設けられた第1の面16aと左右に隣り合う第2及び第3の面16b,16cは、互いに向き合う方向に、第1の面16aに対して傾斜するように設けられている。これら第2及び第3の面16b,16cには、被写体となる人物を照らす照明器具26,27が設けられている。照明器具26,27は、発光体が内蔵されており、撮像時に点灯されることで、フラッシュ撮像を行うことができるようになっている。照明器具26,27は、従来、被写体の正面上方から光を照射していたのに対して、被写体の左右斜め前方から光を被写体に光を照射するようにし、被写体の顔の額と顎との間、即ち顔の上下で照明差が発生しないようにし、また、しわに影が発生することを防止してしわが目立たないようにしている。
【0025】
ところで、図5に示すように、第2の面16bに設けられた照明器具26と第3の面16cに設けられた照明器具27とは、撮像装置17aの光軸Lと椅子のセンタOとを結ぶ線と照明器具26,27のセンタO,Oと椅子24のセンタOとを結ぶ線とがなす角θを有するように設けられている。θは、撮像時に、顔に滑らかな影ができ、眼鏡に照明の写り込みが無く、背景に影が出にくい角度に設定され、例えば30°〜70°、好ましくは50°とされる。
【0026】
また、写真に写し出された顔は、一般に左右で照明差があった方が看者によく見えるものである。そこで、照明装置26,27は、照明差が発生するように被写体を照射するようにしている。例えば、照明器具26,27は、照明差が例えば1:1.5〜1:3、好ましくは1:2となるように被写体を照射する。なお、光を強くする方の照明器具は、何れであってもよい。これによって、写真は、柔らかな影が形成され、平面的でなく立体的に被写体を写し出すことができる。なお、本撮像装置1では、撮像部17の撮像装置17aにCCDを用いている。CCDは、銀塩フィルムを用いるカメラ(銀塩カメラ)に比べてラティチュード(latitude)が狭い。そこで、この照明差は、銀塩カメラに比べて比が小さくなるように設定される。
【0027】
なお、更に、この撮像室16には、照明器具26,27他に、被写体を下側から照射する照明器具28が設けられている。この照明器具28は、第1の面16aであってハーフミラー17bの下側に撮像室16側に突出して形成された突出部28aの上側の面28bに設けられ、照射方向が斜め上方となるように設けられている。
【0028】
また、撮像室16には、図2乃至図4に示すように、被写体の正面側であって、一方の側壁13側に操作部を構成する料金投入部29が設けられている。料金投入部29は、コインを投球するコイン投入部29aと紙幣を投入する紙幣投入部29bとからなり、これら投入部29a,29bは、人が椅子24座ったとき、手で料金を投入し易い高さに設けられている。椅子24は、上述したように車椅子の高さに合わせて設けられていることから、車椅子に乗った人も、容易に料金投入部29に料金を投入することができる。なお、本例では、操作部として、料金投入部29が設けられているのみであるが、その他に、撮像を開始する撮像開始ボタン、撮像した画像をプリンタ18,19で印刷する前に確認する確認ボタン等を設けるようにしてもよく、この場合、これらのボタンも、被写体の正面側であって、一方の側壁13側に設けられる。
【0029】
突出部28aの下側には、被写体となる人の撮像位置を位置決めするための位置決め凹部31が設けられている。この位置決め凹部31が設けられる位置は、椅子24又は車椅子に座った人の膝を収めることができる高さに設けられている。撮像をするとき、被写体となる人は、椅子24に座り、又は、撮像室16に車椅子で入り口23より入り、膝を位置決め凹部31に係合させることによって、容易に撮像位置を位置決めすることができる。即ち、被写体となる人は、膝を位置決め凹部31に係合させることによって、ハーフミラー17bに対して正面を向くようになる。
【0030】
また、撮像室16には、撮像室16に被写体が入ったかどうかを検出する被写体検出部32が設けられている。被写体検出部32は、天板15の椅子24の上に設けられ、被写体が撮像位置に居ることを検出することができるようになっている。被写体検出部32は、被写体を検出すると、この検出信号を、メイン基板21の制御回路に出力し、待機モードから写真撮影モードに切り換える。
【0031】
なお、この被写体検出部32は、上述した位置決め凹部31内に設けるようにしてもよい。天板15に被写体検出部32を設けたときには、例えば被写体となる人が撮像室16内で立っているとき等実際には撮像位置に居ないときも被写体を検出してしまうが、被写体検出部32を位置決め凹部31内に設けたときには、膝が位置決め凹部31に係合していない限り被写体を検出することができないことから、確実に撮像位置にある被写体を検出することができる。
【0032】
天板15の入り口23となる領域には、図示しないカーテンレールやフックが設けられており、このカーテンレールやフックには、遮光部材となるカーテン33が垂下されており、入り口23を開閉できるようになっている。このカーテン33は、遮光性のものであり、撮像時に外光が撮像室16内に入らないようにしている。このカーテン33は、図6に示すように、撮像室16へ出入りするときには簡単に移動させて容易に入ることができる。カーテン33をフックに固定したときには、正面入口のカーテン33にスリット33aを設けることにより入りやすくなる。カーテン33の撮像室16側の面であって、被写体の背後となる領域は、写真の背景となる領域である。このため、スリット33aは、写真の背景となる領域を除く領域に設けられている。
【0033】
なお、遮光部材として、カーテン33の他にプレート等を用いるようにしてもよい。
【0034】
入り口23を構成する短い側の側壁13の端部の略中央領域には、垂直方向に第1の手摺り34が設けられており、松葉杖をついた患者、車椅子に乗った患者等の身体障害者が入り口23より撮像室16内に入り易いようになっている。また、入り口23を構成する長い側の他方の側壁14の端部上方には、垂直方向に第2の手摺り35が設けられ、例えば松葉杖をついた患者が入り口23より撮像室16内へ入り易いようになっている。更に、他方の側壁14であって、操作部を構成する料金投入部29と略同じ高さには、水平方向に第3の手摺り36が設けられ、例えば椅子に座った被写体となる人や車椅子に乗った人が撮像位置の調整を容易に行うことができるようになっている。
【0035】
なお、短い側の一方の側壁13には、外面側に、プリンタ18,19で印刷された写真が排出される写真排出口38が設けられている。
【0036】
次に、背面部12に内蔵されたメイン基板21等に組み込まれた制御回路について図7を参照して説明すると、この制御回路70は、装置の動作に必要なプログラムが記憶されるROM(Read-Only Memory)71と、装置の動作に必要なアプリケーションプログラム及び後述する画像抽出処理を行うプログラム等が記憶されるハードディスク等からなるプログラム記憶部72と、ROM71やプログラム記憶部72に保存されているプログラムがロードされるRAM(Random-Access Memory)73と、料金投入部29より投入された金額等を判断し課金処理を行う課金処理部74と、音声を出力する音声出力部75と、音声データを可聴音として出力するスピーカ76と、外部記憶装置が装着されるドライブ77と、全体の動作を制御するCPU(Central Processing Unit)78とを備え、これらは、バス79を介して接続されている。また、このバス79には、撮像部17を構成する撮像装置17a、照明器具26,27,28、撮像室16に被写体が入ったかどうかを検出する被写体検出部32、椅子24が待機位置にあることを検出する検出部59等が接続されている。
【0037】
次に、図8を参照して、撮像装置1の動作を説明する。ステップS1において、CPU78は、椅子24が待避位置にあるかどうか、即ち椅子24が他方の側壁14と略平行な状態となっており、車椅子が撮像室16に進入可能な状態にあるかどうかを判断する。CPU78は、椅子24が待避位置に無い、即ち撮像室24に設置された状態にあると判断したとき、ステップS2に進み、通常モード、即ち被写体となる人が椅子24に座って撮像するモードに移る。また、CPU78は、椅子24が待避位置にあると判断したとき、ステップS9に進み、車椅子専用のモードに移る。車椅子専用のモードは、車椅子に乗った人は車椅子に乗っていない人に比べて撮像位置の位置決め等に時間がかかることから、撮像までの時間が長くなるようになっている。
【0038】
通常のモードのとき、ステップS2において、CPU78は、ユーザが撮像位置についたかどうかを判断する。即ち、被写体検出部32は、赤外線センサ等で構成されており、被写体となる人が椅子24に座って膝を位置決め凹部31に係合された撮像位置についているかを検出する。CPU78は、被写体検出部32が撮像位置についていることを検出したとき、ステップS3に進み、検出していないときステップS2を繰り返す。
【0039】
ステップS3において、CPU78は、音声出力部75を介して料金を料金投入部29に投入するようにアナウンスする。即ち、音声出力部75は、「料金をお入れください。」等のメッセージをスピーカ76より可聴音で出力する。
【0040】
これを受けて、被写体となる人は、料金投入部29より必要な料金を投入する。このとき、料金投入部29は、比較的手に届き易い位置に設けられていることから、被写体となる人は、椅子24若しくは車椅子に座ったままの状態で、容易に料金を料金投入部29に投入することができる。また、料金投入部29は、一方の側壁13側に設けられていることから、介護者も入り口23より手を伸ばして容易に料金投入部29より料金を投入することができる。
【0041】
ステップS4において、CPU78は、料金投入部29より所定金額が投入されたかどうかを判断する。具体的に、課金処理部74は、料金投入部29より投入された金額を判断し、不足しているときは金額の追加を求め、多いときには、おつりを算出し返金する。そして、課金処理部74は、課金が完了したことをCPU78に出力し、これによって、CPU78は、課金処理が終了したかを判断する。CPU78は、課金処理が終了していないとき、ステップS3に戻り、再度、料金を投入するように再アナウンスする。
【0042】
ステップS5において、CPU78は、音声出力部75を介して写真撮影を開始する旨をアナウンスする。例えば、音声出力部75は、「これより写真撮影を開始します。」等のメッセージをスピーカ76より可聴音で出力する。
【0043】
所定時間が経過すると、CPU78は、ステップS6において、被写体の撮像を行う。CPU78は、撮像装置17aを駆動すると、この撮像装置17aは、取り込んだ光を光電変換し出力する。このとき、照明器具26,27,28は、発光体を発光する。照明器具26,27は、被写体の左右斜め前方から被写体に光を照射するようにすることで、被写体の顔の額と顎との間、即ち顔の上下で照明差が発生しないようにし、また、しわに影が発生しないように写真を撮ることができるようにする。また、照明器具26,27は、左右で照明差を設けて発光することから、柔らかな影を有する立体的な写真を撮ることができるようにする。
【0044】
ステップS7において、CPU78は、音声出力部75を介して写真撮影が終了した旨をアナウンスする。例えば、音声出力部75は、「写真撮影を終了しました。」等のメッセージをスピーカ76より可聴音で出力する。
【0045】
ステップS8において、CPU78は、撮像装置17aのデータを第1のプリンタ18若しくは第2のプリンタ19に出力し、第1のプリンタ18若しくは第2のプリンタ19は、入力されたデータに基づいて印画紙に印刷をする。そして、第1のプリンタ18若しくは第2のプリンタ19は、画像を印刷した印画紙を写真排出口38に排出する。
【0046】
なお、CPU78は、ステップS1において、椅子24が待避位置にあると判断したとき、車椅子の専用のモードとなり、ステップS9からステップS14までの処理を行う。ステップS9からステップS14までの処理は、上述したステップS2からステップS6までの処理と略同じであるため省略する。但し、ステップS13は、ステップS12の撮像開始のアナウンスから写真撮影を開始するまでの時間がステップS6の場合より長くなる。これは、車椅子に乗った者は、車椅子に乗っていない者と比べて写真撮影の準備に時間を要するためである。
【0047】
また、ステップS1において、椅子24が使用され待避位置にない場合、即ち、椅子24が撮像室16に広げられている場合、椅子取付け部材41と椅子支持部材44とを接続するリンク部材(図示せず)は、設置面2に対して略垂直な状態となっており、椅子24を支持した状態にある。このような場合に、撮像室16に車椅子に乗った患者等が入るために椅子24を片づける必要があるときは、椅子24は、患者が取っ手24aを持って回動操作される。椅子24を他方の側壁14側へ回動操作すると、支軸(図示せず)を介して椅子取付け部材41と回転自在に取り付けられている椅子支持部材44が回動する。そして、椅子24を他方の側壁14と略平行となすまで回動操作すると、椅子24は、他方の壁14に設けられた待避位置に椅子24を保持するための保持機構(図示せず)により保持される。これによって、椅子24は、他方の側壁14と略平行な待避位置に保持される。
【0048】
保持機構は、他方の側壁14に一体的に設けられた支持片に保持部材が取り付けら、この保持部材は、中途部で支軸によって支持片に回動可能に支持されている。そして、保持部材の一端側に、椅子24を係止する係止突部が設けられ、他端側に、椅子24が待機位置にあることを検出する図7に示す検出部59を押圧する押圧部が設けられており、保持部材の押圧部が検出部59を押圧することにより、検出部59は、椅子24が待避位置にあることを検出することができる。
【0049】
また、ドライブ77には、記録可能な追記型若しくは書換え型の光ディスク、光磁気ディスク、磁気ディスク、ICカード等のリムーバル記録媒体80を装着することができる。これら、リムーバル記録媒体80には、例えば撮像部17で撮像した被写体の画像データが保存される。リムーバル記録媒体80に保存された画像データは、例えば他の情報処理装置を用いて読み出し、電子カルテ等の患者の顔写真として用いることができる。この患者の画像データは、リムーバル記録媒体80を用いるほか、LAN(Local Area Network)等のネットワークに接続された送受信部を介して上記他の情報処理装置に送信するようにしてもよい。更に、このドライブ77は、ROM型の光ディスク等のリムーバル記録媒体80を装着し、本装置1を動作させるのに必要なアプリケーションプログラムをプログラム記憶部72にインストールするのに用いるようにしてもよい。勿論、プログラム記憶部72等にインストールするプログラムは、上記送受信部を介してダウンロードしてインストールするようにしてもよい。
【0050】
以上のように構成された撮像装置1では、撮像室の床が設置面2と面一になっていることから、段差が無く、車椅子等に乗った患者も、車椅子等に乗ったまま撮像室16に入ることができる。また、この撮像装置1は、病院等に設置されるものであり、健常者だけでなく車椅子に乗った者や松葉杖をついた者の利用することから、例えば入り口23より撮像室16に入るときに、一方の側壁13等に当たってしまうことがあるが、この撮像装置1は、他方の側壁14を一方の側壁13より長く形成し、また、一方の側壁13を転倒防止部材22で設置面2に固定し、更には、天板15を側壁13,14より比重の軽い材料で形成し、重心が下方に来るように組み立てられていることから、利用者が撮像室16に入るときにぶつかって衝撃が加わったときにも、設置位置がずれたり転倒することを確実に防止することができる。更に、撮像室16に入るときには、第1乃至第3の手摺り34〜36を使うことができることから、撮像室16に入る作業を容易に行うことができると共に撮像位置の位置決めも容易に行うことができる。
【0051】
また、この撮像装置1では、椅子24を撮像室16より待避させることができる。したがって、車椅子に乗った患者は、椅子24を折り畳むことで、車椅子に乗ったまま撮像室16に入ることができる。この椅子24は、撮像室16に設置されているとき、椅子支持部材44で確実に支持され、患者等の被写体は、安定した状態で椅子24に座ることができる。また、この椅子は、折り畳むとき、取っ手24aが短い側の一方の側壁13側に設けられていることで、取っ手24aが入り口23側に位置し、車椅子に乗った患者やこれを介護する介護者が容易に椅子24を回動操作して折り畳むことができる。また、料金を支払うときおいて、料金投入部29は、一方の側壁13側、即ち入り口23の近くに設けられていることから、介護者が手を伸ばすだけで容易に料金を料金投入部29に投入することができる。
【0052】
また、撮像時において、撮像装置1は、照明器具26,27が被写体の左右斜め前方から光を被写体に光を照射することで、被写体の顔の額と顎との間、即ち顔の上下で照明差が発生しないようにし、また、照明器具26,27は、しわに影を写りにくくすることができる。また、左右照明に照明差を設けることで、写真に柔らかな影を形成し立体的に被写体を写し出すことができる。
【0053】
更に、撮像装置1は、椅子24が回動操作されて他方の側壁14と略平行な状態にされ、撮像室16より待避させることができることで、車椅子の専用モードとなり、撮像開始のアナウンスから撮像までの時間を長くする。これによって、車椅子に乗った者は、通常、車椅子に乗っていない者と比べて写真撮影の準備に時間を要するが、ゆとりを持って写真撮影の準備をすることができる。
【0054】
B.画像処理
次に、上述の撮像装置1に設けられる画像処理装置について説明する。本実施の形態の画像処理装置は、上述したように、病院内等に備えられる撮像装置1に備えられるものであり、車椅子に乗った者や松葉杖をついた患者や健常者が写真撮影をする際に、頭の高さがそれぞれ異なることとなるが、撮像部17を動かすことなく、撮像部17により撮像された画像データを画像処理することで被写体となる人物の顔が中心とされたバランスの取れた画像を出力するものである。具体的に、画像処理装置は、上述の制御回路70内のプログラム記憶部72に記憶されたプログラムによって、撮像された入力画像から人物の顔領域を抽出してトリミングを行う処理を実行するものである。図9は、本実施の形態における画像処理装置を示すブロック図である。
【0055】
図9に示すように、画像処理装置100は、上述の撮像部17から人物が撮像されたカラー画像が入力され、デジタルデータとして出力する画像入力部101と、画像データが入力されて肌色領域を検出する肌色領域抽出部200と、検出された肌色領域から被写体の検出を行う被写体検出部300と、検出された被写体のトリミングを行うトリミング部400とから構成される。
【0056】
肌色領域抽出部200は、図10に示すように、画像入力部101からのカラー画像の各画素値を色空間上の座標値に変換する色変換部である表色系変換部212と、この色空間上に変換された座標値の出現頻度を表すヒストグラムを生成するヒストグラム生成部213と、このヒストグラムにおける出現頻度の極大点及びその近傍の画素を初期クラスタとして抽出する初期クラスタ抽出部214と、初期クラスタ抽出部214にて抽出された初期クラスタ及び画像入力部101から送られるカラー画像から上記初期クラスタを含む閉領域を抽出する初期領域抽出部215と、この初期領域内に複数の初期クラスタが抽出されている場合に初期クラスタを1つのクラスタとして統合するクラスタ統合部216と、この初期領域内の画素の分布状態に応じてこの初期領域を複数の領域に分割する領域分割部217と、人間の肌の色に対応するクラスタに属する画素が含まれる領域を抽出する領域抽出部218とから構成され、抽出した肌色領域を被写体検出部300に供給する。
【0057】
被写体検出部300は、図11に示すように、画像入力部101及び肌色領域抽出部200から夫々カラー画像及び肌色領域が入力され、人物の頭頂部を検出する頭頂部検出部313と、肌色領域及びカラー画像が入力され、人物の口を検出する口検出部314と、カラー画像、肌色領域並びに頭頂部及び口のデータが入力され、人物の眼を検出する眼検出部315と、眼及び口のデータから人物の顎位置を算出する顎検出部316と、カラー画像及び口及び眼のデータが入力され人物の顔の中心線を検出する中心線検出部317と、頭頂部、眼、口及び顔の中心線のデータが入力され顔領域を修正する領域修正部318と、カラー画像と、肌色領域、眼、口、及び領域修正部318からの修正データとが入力され、抽出された肌色領域Vが人物の顔であるか否かを判定する判定部319とから構成され、顔と判定された肌色領域をトリミング部400に供給する。
【0058】
なお、肌色領域抽出部200、被写体検出部300において、複数の領域が顔と判定された場合、それらの中から対象となる領域を1つ選択してもよい。例えば、撮像された画像に複数の人物が存在している可能性がある場合、撮像時の指示等により、入力画像においてトリミングの対象となる人物の顔が最も画像中央に近い位置に存在することを期待できる場合には、抽出された顔領域の中心が画像中央に最も近いものを選択する。また、例えば子供の顔を撮像するために、親がその子供を抱いて撮像した場合、トリミングの対象となる子供の顔領域は、抽出された顔の領域の中で最も下部に位置すると考えられるため、顔領域のうち、中心が最も下部に位置するものを選択するようにすることができる。
【0059】
また、これら対象領域選択の方法は、利用形態を考慮して予め設定しておく他に、例えばインターフェース(図示せず)を設けることにより、撮像者又は被撮像者が手動で設定できるようにすること等も可能である。
【0060】
トリミング部400は、被写体検出部300から供給される被写体の顔領域(顔部)が印画紙における写真が印刷される領域である有効領域において、本発明範囲となるようにトリミングを行う。上述したような写真ブースにおいて、画像処理で顔部を検出してオートトリミングする際、印画紙にどのように人物画像を配置するかが重要になる。即ち、画面(印画紙の有効領域)最上端から人物の頭頂部までを天部、人物の頭頂部から口までを顔部、人物の口から画面(印画紙の有効領域)最下端までを胸部としたとき、これら天部、顔部及び胸部の寸法比率を本発明範囲、即ち、顔部:胸部:天部=1:0.6〜1.0:0.2〜0.3となるようにトリミング範囲を決定して画像をトリミングすることにより、見やすく、落ち着いた証明写真を得ることができる。
【0061】
以下、本実施の形態の画像処理装置の各部位について詳細に説明する。
【0062】
(1)肌色領域抽出部
肌色領域抽出部200においては、先ず、入力されたカラー画像の表色系を変換して色空間上の座標値に変換する(色変換工程)。次に、この色空間上の座標値の出現頻度を示すヒストグラムを生成する(ヒストグラム生成工程)。そして、このヒストグラムにおける出現頻度の極大点及びその極大点近傍の画素を初期クラスタとして抽出し、この初期クラスタの色空間上の分布を示すクラスタマップCを生成する(初期クラスタ抽出工程)。各初期クラスタには、これらを識別するクラスタ番号nが設定される。次いで、クラスタマップC上の各初期クラスタを再び、元のカラー画像上の座標値に変換した領域マップRを形成する。領域マップR上の各画素は、座標値と共にクラスタ番号nを有する。この領域マップR上で同一の初期クラスタに属する画素、即ち、同一のクラスタ番号nを有する画素の密度分布が所定の閾値以上である長方形の閉領域を初期領域として抽出する(初期領域抽出工程)。次に、任意の2つの初期クラスタを選択し、この2つの初期クラスタが、クラスタマップC上において近接し、且つ領域マップR上において近接する長方形領域に属するものである場合、この2つの初期クラスタを統合する(クラスタ統合工程)。初期クラスタを統合した統合クラスタに基づいて領域マップRを更新し、この更新した領域マップに基づいて長方形領域も再設定する。次に、再設定した長方形領域内における同一のクラスタ番号nを有する画素の密度分布を算出し、この密度分布に基づいて必要に応じて長方形領域を分割する(領域分割工程)。こうして、入力カラー画像において、同一の色を有する複数の長方形領域が設定される。これらの長方形領域から、特定の色、即ち、本実施の形態においては、肌色を有する長方形領域を抽出する。以下、各工程について説明する。
【0063】
(1−1)色変換工程
色変換工程では、表色系変換部212により、画像入力部101で得られた画像データを所望の領域を抽出するために適した表色系に変換する。過検出を極力軽減するためには、変換後の表色系は、その表色系による色空間において、抽出すべき領域の色ができるだけ狭い範囲に分布するようなものを選択することが好ましい。これは、抽出すべき領域の性質に依存するが、例えば本実施の形態のように、人物の顔の領域を抽出対象とする場合に効果的な表色系の1つとして、下記式(1)に示すr−g表色系が知られている。
【0064】
【数1】
Figure 0003763293
【0065】
ここで、R、G、BはRGB表色系の各座標値を表している。従って、画像入力部101の出力画像がRGB表色系で表されている場合、表色系変換部212では各画素毎に上記式(1)の演算が行なわれ、座標値(r,g)の値が算出される。こうして表色系が変換された画像データは、ヒストグラム生成部213に送られる。
【0066】
なお、以下の説明では、このr−g表色系を領域抽出に用いる場合を例に説明を行なう。また、特に入力カラー画像上の位置(座標)(x,y)における値を表す場合には、{r(x,y),g(x,y)}と表現する。
【0067】
(1−2)ヒストグラム生成工程
ヒストグラム生成工程では、ヒストグラム生成部213により、表色系変換部212によって表色系が変換されたデータ{r(x,y),g(x,y)}の色空間上における出現頻度を示す2次元ヒストグラムを生成する。ヒストグラムの生成は、抽出すべき領域の色が十分に含まれる色の範囲に対してのみ行なわれる。このような色の範囲は、例えば、r及びgの各値に対する下限値及び上限値を定めることで下記式(2)のように表すことができる。
【0068】
【数2】
Figure 0003763293
【0069】
ここで、rmin及びrmaxは、夫々rの下限値及び上限値、gmin及びgmaxは、夫々gの下限値及び上限値を示す。
【0070】
画像上の位置(x,y)における{r(x,y),g(x,y)}が上記式(2)の条件を満足する場合、先ず、これらの値が下記式(3)によって量子化され、ヒストグラム上の座標(ir,ig)に変換される。
【0071】
【数3】
Figure 0003763293
【0072】
ここで、rstep及びgstepは、夫々r及びgに対する量子化ステップであり、intは括弧内の数値の小数点以下を切り捨てる演算を示す。
【0073】
次に、算出された座標値に対応するヒストグラムの値を下記式(4)によってインクリメントすることで、座標値の出現頻度を示す2次元ヒストグラムHが生成される。
【0074】
【数4】
Figure 0003763293
【0075】
図12は、簡単のため、本来2次元であるヒストグラムを1次元としたヒストグラムと抽出された初期クラスタとの関係を模式的に示すものである。図12に示すように、出現頻度は、カラー画像上の例えば肌色等の各色領域の大きさに応じて大きさが異なる複数個の極大値を有する。
【0076】
そして、生成されたヒストグラムHは、例えばノイズを除去し、誤検出を防止するために必要に応じてローパスフィルタによって平滑化された後、初期クラスタ抽出部214に送られる。
【0077】
(1−3)初期クラスタ生成工程
初期クラスタ生成工程では、初期クラスタ抽出部214により、ヒストグラム生成部213によって生成された各座標値の出現頻度を示す2次元ヒストグラムHから、分布が集中している色の座標の集合を初期クラスタとして抽出する。具体的には、上述したr−g表色系の座標値における出現頻度の極大値及びその近傍に存在する画素群を1つの初期クラスタとして抽出する。即ち、各極大点を、構成要素が1つの初期クラスタと見なし、これらを始点として、隣接する座標を併合することで初期クラスタの成長を行なう。初期クラスタの成長は、既に生成されているクラスタマップをCとすると、このクラスタマップC上の各座標を走査し、新たに併合すべき座標を検出することにより行われる。
【0078】
例えば、図12においては、極大点1乃至3に対し、この極大点1乃至3を始点としてこの極大点1乃至3近傍の座標の画素群が併合され、夫々初期クラスタ271乃至271として抽出される。ここで、図12に示すヒストグラムにおける出現頻度H(ir,ig)の極大値を始点とし、この始点に隣接する座標の画素から、出現頻度H(ir,ig)が閾値Tに至る座標(閾値T以下になる前の座標)の画素まで順次併合するが、その際、座標(ir,ig)がいずれのクラスタにも併合されておらず、その出現頻度が閾値Tよりも大きく、更にその隣接座標(ir+dr,ig+dg)のいずれかにおいて、既にいずれかの初期クラスタに併合されたものがあり、その隣接座標における出現頻度が、自らの出現頻度よりも大きい場合に、座標(ir,ig)を既に併合されている隣接座標と同一の初期クラスタに併合すべき座標として検出する。このように、出現頻度の閾値Tを設けることにより、出現頻度が小さい座標領域における座標を有する画素の抽出を防止する。初期クラスタは、2次元ヒストグラムHの極大点の個数に応じて1つ以上の初期クラスタが抽出されるが、各初期クラスタには固有の番号が割り当てられ、識別される。こうして抽出された複数の初期クラスタは2次元配列であるクラスタマップC(ir,ig)上に多値画像として下記式(5)のように示される。
【0079】
【数5】
Figure 0003763293
【0080】
即ち、上記式(5)は、色の座標(ir,ig)が初期クラスタnに含まれていることを示す。図13(a)及び(b)は、夫々入力画像及びクラスタマップCを示す模式図である。図13(a)に示すように、入力カラー画像201における例えば(x1,y1)、(x2,y2)等の各画素値は、表色変換部212にて色座標(ir1,ig1)、(ir2,ig2)に変換され、その出現頻度から2次元ヒストグラムが生成されて、この2次元ヒストグラムに基づいて抽出された初期クラスタが図13(b)に示す横軸にir、縦軸にigを取った2次元配列であるクラスタマップC上に初期クラスタ272,273として示される。
抽出された初期クラスタは図13(b)に示すクラスタマップCとして、初期領域抽出部215及びクラスタ統合部216に送られる。
【0081】
(1−4)初期領域抽出工程
初期領域抽出部215では、初期クラスタ抽出部214において得られた、例えば図13(b)に示す初期クラスタ272,273等の初期クラスタに含まれる色を有する画素のうち、同一初期クラスタに属する画素がカラー画像上で集中する長方形の領域を初期領域として抽出する。図13(c)は、領域マップRを示す模式図である。初期クラスタ抽出部214で成長され生成された各初期クラスタから抽出された画素は、図13(c)に示す2次元配列である領域マップR(x,y)上にクラスタを識別するnを有する多値画像として表現される。ここで、図13(a)に示す入力カラー画像の位置(x1,y1),(x2,y2)における画素が、図13(b)に示す夫々初期クラスタ272,273に含まれるものであり、初期クラスタ272,273のクラスタ番号nを1,2としたとき、領域マップRにおける座標(x1,y1),(x2,y2)は、そのクラスタ番号1,2を有するものとなる。即ち、画像上の位置(x,y)の画素の色がクラスタnに含まれている場合、下記式(6)のように示される。
【0082】
【数6】
Figure 0003763293
【0083】
そして、図14に示す領域マップRにおいて、抽出画素276の分布が集中する領域を囲む長方形領域277を算出する。各初期クラスタに対応して得られた長方形領域は、図15に示すように、1つの対角線上で相対する2頂点の座標(srx,sty)、(edx,edy)で表現され、1次元配列である頂点リストV1に格納される。即ち、クラスタnに対応して得られた長方形領域277の2つの頂点座標が(stx,sty)、(edx,edy)である場合、これらの座標は頂点座標V1(n)に下記式(7)のように格納されるものとする。
【0084】
【数7】
Figure 0003763293
【0085】
各初期クラスタに対応して得られた抽出画素及び長方形領域は、夫々領域マップR及び頂点リストV1としてクラスタ統合部216に送られる。
【0086】
(1−5)クラスタ統合工程
クラスタ統合工程では、クラスタ統合部216により、初期クラスタ抽出部214で得られたクラスタマップC並びに初期領域抽出部215で得られた領域マップR及び頂点リストV1を使用して、本来1つの領域に含まれる色でありながら異なる初期クラスタとして抽出された複数の初期クラスタを統合する。
【0087】
即ち、クラスタ統合部216は、初期クラスタ抽出部214で生成されたクラスタマップCが入力されると、先ず、任意の2つの初期クラスタm及び初期クラスタnの組み合わせを発生させる。そして、発生させた初期クラスタm,nとクラスタマップCとから初期クラスタmと初期クラスタnとの色差が算出される。また、初期クラスタm,n並びに初期領域抽出部215で生成された領域マップR及び頂点リストV1から、初期クラスタmと初期クラスタnとの重なり度が算出される。そして、初期クラスタm,n、領域マップR及び頂点リストV1、色差、並びに重なり度から、初期クラスタm,nを統合するか否かの判定が行われ、色差が小さく、初期クラスタm,nが画像上で大きく重なり合って分布している場合にこれらのクラスタを統合する。
【0088】
そして、初期クラスタの統合に応じて、領域マップR及び頂点リストV1が修正され、夫々領域マップR2及び頂点リストV2として領域分割部217に送られる。また修正された領域マップR2は領域抽出部218にも送られる。
【0089】
(1−6)領域分割工程
領域分割工程では、領域分割部217により、クラスタ統合部216において修正された領域マップR2及び頂点リストV2を用いて、同一のクラスタ、即ち、初期クラスタ又は初期クラスタが統合された統合クラスタ(以下、単にクラスタという。)によって抽出された抽出画素の分布に応じて、頂点リストV2に格納されている頂点座標V2(n)が示す長方形領域を分割する。即ち、クラスタ統合部216によって得られた新たな領域マップR2及び頂点リストV2(n)が入力されると、頂点リストV2(n)が示す長方形領域を水平又は垂直に2分割する主分割点が検出され、長方形領域が垂直に2分割された場合は、領域マップR2及び分割された2つの垂直分割長方形領域の頂点リストを使用して、各垂直分割長方形領域が水平に分割される。また、長方形領域が水平に2分割された場合は、領域マップR2及び分割された2つの水平分割長方形領域の頂点リストを使用して、各水平分割長方形領域が垂直に分割される。領域の分割には、例えば頂点リストV2で表される長方形領域内において、クラスタnによって抽出された画素の数を水平方向及び垂直方向に累積した夫々ヒストグラムHH及びHV使用し、このヒストグラムの最小点となる点を検出し、これが予め設定された閾値よりも小さい場合に分割する。そして、領域マップR2及びこのように分割された長方形領域の頂点リストを使用して、長方形領域を修正する。
【0090】
例えば、図16に示すように、画像上で同一のクラスタによって抽出された抽出画素が、このクラスタに対応して得られた長方形領域295において複数の塊296a,296bを構成している場合、各塊296a,296bを異なる領域とみなし、長方形領域295の分割を行なう。この結果、1つの初期クラスタに属する長方形領域295内に、例えば塊296a,296b等の複数の画素の塊が対応することになり、各画素の塊296a,296bを取り囲む分割長方形領域297a,297bを算出することができる。
【0091】
分割長方形領域297a,297bは初期領域抽出部215と同様、図15に示すように1つの対角線上で相対する2つの頂点座標で表され、新たな頂点リストV3(n,m)に格納される。即ち、クラスタnに対応するm番目の長方形領域が{(V3(n,m).stx,V3(n,m).sty),(V3(n,m).edx,V3(n,m).edy)}で表される場合、これらの座標は新たな頂点リストV3(n,m)に下記式(8)のように格納されるものとする。新たな頂点リストV3(n,m)は、領域抽出部218に送られる。
【0092】
【数8】
Figure 0003763293
【0093】
(1−7)領域抽出工程
領域抽出部218では、クラスタ統合部216において修正された領域マップR2と、領域分割部217において得られた新たな頂点リストV3を用いて、下記式(9)の条件を満たす画素の集合Snmを抽出する。
【0094】
【数9】
Figure 0003763293
【0095】
即ち、同一のクラスタから抽出された画素であっても、領域分割部217にて長方形領域が分割された場合、例えば図16に示す長方形領域297a,297b等のような分割された長方形領域を1つの集合と見なして抽出する。ここで抽出された複数の領域は図示せぬ判別処理部に送られ、所望の領域か否かの判別が行なわれる。
【0096】
このように肌色領域抽出部200では、クラスタ統合部216により、1つの物体に対応する領域が類似した複数の色から構成されている場合、それらの色を統合して、1つの領域として扱うことができ、また、領域分割部217により、同一の色を持つ物体が複数存在する場合、それらを分離して扱うことが可能となる。また、クラスタを抽出し、これを統合し、更に画素密度分布によって抽出領域を分割することにより、肌色領域を極めて正確に抽出することができる。
【0097】
(2)被写体検出部
被写体検出部では、肌色領域抽出部200によって抽出された各肌色領域を顔領域と仮定し、この肌色領域に対応する頂点座標V3(n)が示す長方形領域から、特徴点検出部により各特徴点が検出される。特徴点検出部は、人物の頭頂部の位置を検出する頭頂部検出部313と、肌色領域内の赤みの強さに基づき、人物の口の位置を検出する口検出部314と、頭頂部及び口の位置に基づき検索範囲を設定して眼を検出する眼検出部315と、眼及び口の位置から顎の位置を算出する顎検出部316と、口の位置から口領域を設定し、この口領域内の赤み強度に基づいて顔の中心線を検出する中心線検出部317と、頭頂部、顎及び顔中心線の位置から、肌色領域抽出部200にて算出された頂点座標V3(n)を修正する領域修正部318と、抽出された肌色領域Vが人物の顔であるか否かを判定する判定部319とから構成される。以下、各検出部について更に詳細に説明する。
【0098】
(2−1)人物の頭頂部の検出
頭頂部検出部313は、肌色領域を顔として有する人物の頭頂部を検出する。頭頂部の検出は、例えば人物以外の背景領域は単一色であること及び人物の上方、即ち、垂直座標が小さい側には背景領域のみが存在し得ることを仮定し、背景色とは異なる色を有する画素の中で垂直座標が最も小さい位置を検出する。以下、頭頂部の位置における垂直方向の座標を頭頂部の高さという。
【0099】
具体的には、図17に示すように、画像入力部101から送られる入力カラー画像360において、注目する肌色領域361に対応する長方形領域362の図中上方の領域、即ち、長方形領域362よりも垂直座標が小さい領域であって、V3(n).stx≦水平座標(x座標)≦V3(n).edxの範囲に設定した頭頂部探索範囲363を図中上方から走査し、各画素の値と背景領域364の背景色との差dを下記式(10)によって算出する。
【0100】
【数10】
Figure 0003763293
【0101】
ここで、R(x,y)、G(x,y)、B(x,y)はカラー画像上の座標(x,y)における画素のR、G、Bの値であり、Rbg、Gbg、Bbgは背景色のR、G、Bの値である。この背景色としては、現在の注目画素よりも上方、即ち、垂直座標(y座標)が小さい領域における画素の平均値、例えば画像360の最上端360aから10ライン目までの平均値を使用することができる。
【0102】
そして、上記式(10)の色の差dを算出し、この値が所定の閾値Tよりも大きい画素が出現した時点で、その垂直座標yを頭頂部の高さTOHとする。検出された頭頂部の高さTOHは眼検出部315及び領域修正部318に送られる。
【0103】
(2−2)人物の口検出
次に、口検出部314は、肌色領域抽出部200により抽出された各肌色領域に対し、口の高さを検出する。先ず、頂点リストV3(n)によって表される長方形領域内において、肌色領域としては抽出されていない各画素(x,y)に対して、赤みの強さを示す下記式(11)の値rdsh(x,y)を算出する。
【0104】
【数11】
Figure 0003763293
【0105】
算出された値rdsh(x,y)は、図18に示すように水平方向(x軸方向)に累積されて、下記式(12)に示すヒストグラムHrdsh(y)が生成される。
【0106】
【数12】
Figure 0003763293
【0107】
ここで、V3(n)及びR(x,y)は、いずれも肌色領域抽出部200から送られたデータであって、夫々肌色領域nに対応する長方形領域の頂点座標、及び領域マップを示す。
【0108】
次に、ヒストグラムHrdsh(y)は、ノイズ等を除去するため、必要に応じて1次元ローパスフィルタによって平滑化された後、ヒストグラムHrdsh(y)の最大値における垂直座標yが口の高さHOMとして検出される。検出された口の高さHOMは、眼検出部315、顎検出部316、中心線検出部317、及び判定部319に送られる。
【0109】
(2−3)人物の眼検出
次に、眼検出部315は、肌色領域抽出部200で抽出された各肌色領域に対して眼の高さを検出する。先ず、頭頂部検出部313によって検出された頭頂部の高さTOHと口検出部314によって検出された口の高さHOMとから、垂直方向(y軸方向)の眼の探索範囲を例えば下記式(13)により算出する。
【0110】
【数13】
Figure 0003763293
【0111】
ここで、e1及びe2は予め設定された係数である。etop及びebtmは、夫々検索範囲の垂直座標における下限値及び上限値である。そして、これら垂直座標における下限値及び上限値に挟まれ、且つ注目する肌色領域に対応する長方形領域内に存在する画素に対して水平方向のエッジ(以下、水平エッジという。)の強度edge(x,y)を検出する。
【0112】
入力カラー画像の各座標において算出された水平エッジの強度edge(x,y)は、水平方向(x軸方向)に累積されて、長方形領域内における垂直方向の水平エッジを示すヒストグラムHedge(y)が下記式(14)により算出される。
【0113】
【数14】
Figure 0003763293
【0114】
ここで、V3(n)は肌色領域抽出部200で得られた肌色領域nに対応する長方形領域の頂点座標である。図19は、生成されたヒストグラムHedge(y)を示す模式図である。ヒストグラムHedge(y)は、ノイズ等を除去するため、必要に応じて1次元ローパスフィルタによって平滑化された後、その最大値に対応する垂直座標yが眼の高さHOEとして検出される。
【0115】
また、上記式(13)によって算出されるebtmが、肌色領域を囲む長方形領域の頂点座標のV3(n).styより小さい場合、頭頂部の高さTOH又は口の高さHOMの検出が適切に行なわれていない可能性が高い。そこで、このような場合には、対応する長方形領域の頂点座標V3(n)に位置座標としては無効な値である例えば−1を格納して頂点リストVを修正することができる。
【0116】
検出された眼の高さHOEは、顎検出部316及び判定部319に送られる。また、修正された頂点リストVは顎検出部316、中心線検出部317、及び領域修正部318に送られる。
【0117】
(2−4)人物の顎検出
顎検出部316では、眼検出部315において修正された頂点リストV3に無効ではない頂点座標を有する各肌色領域に対して、顎の高さを検出する。顎の高さの検出は、例えば図20に示すように、人物の顔380においては顎と口との間の距離381と、眼と口との間の距離382との比がほぼ一定であると仮定して、下記式(15)により推定することができる。
【0118】
【数15】
Figure 0003763293
【0119】
ここで、cは、予め設定された係数であり、HOCは顎の高さを示す。算出された顎の高さHOCは領域修正部318に送られる。
【0120】
(2−5)人物の顔の中心線検出
次に、顔の中心線検出部317は、眼検出部315において修正された頂点リストV3に無効ではない頂点座標を有する各肌色領域に対して、顔を左右に分割する中心線の位置を検出する。
【0121】
ここでは、はじめに口検出部314で検出された口の高さHOMを中心として垂直方向の座標における口探索範囲を設定する。この探索範囲は、例えば対応する長方形領域の垂直方向における幅から下記式(16)により算出することができる。
【0122】
【数16】
Figure 0003763293
【0123】
ここで、mは予め設定された係数であり、V3(n)は肌色領域nに対応する長方形領域の頂点座標である。上記式(16)により算出された夫々mtop及びmbtmを、探索範囲のy座標の夫々下限値及び上限値とする。また、水平方向の探索範囲は、長方形領域の水平方向の幅とすることができる。即ち、x座標の上限及び下限は、長方形領域の夫々左端V3(n).stx及び右端V3(n).edxとすることができる。図21は、肌色領域391に対応する長方形領域392における口の高さHOM及び検索範囲mtop、mbtmを示す模式図である。
【0124】
次に、設定された探索範囲に存在し、かつ肌色領域に含まれない画素に対して上記式(11)により赤みの強さを算出し、図21に示すように、赤みの強さの値が閾値よりも大きくなる画素の水平座標の平均値を中心線の水平座標位置COHとして検出する。赤みの強さを算出する際に、肌色領域に属する画素を除くことにより、肌色領域に属する画素の影響を排除することができ、極めて高精度に顔の中心線を検出することができる。こうして、検出された顔中心線の位置COHは領域修正部318及び判定部319に送られる。
【0125】
また、顔の中心線は、肌色領域における肌色画素の分布の平均位置を検出し、これを通る直線を顔の中心線とすることもできる。
【0126】
(2−6)長方形領域の修正
領域修正部318は、眼検出部315において修正された頂点リストV3に無効ではない頂点座標を有する各肌色領域に対して、長方形領域を改めて算出し、頂点リストVの修正を行なう。例えば、頭頂部検出部313で得られた頭頂部の高さTOH、顎検出部316で得られた顎の高さHOC、及び中心線検出で得られた中心線の位置COHを使用して、図22に示すように、長方形領域500を設定することができる。即ち、修正後の長方形領域500を示す2つの頂点座標{(stx、sty),(edx、edy)}は下記式(17)により算出することができる。
【0127】
【数17】
Figure 0003763293
【0128】
ここで、aspは人物の顔の幅に対する高さの比、即ちアスペクト比を示す係数、適当な値が予め設定されているものとする。
【0129】
肌色領域nに対して新たに算出された頂点座標は、頂点リストVに上書きされ判定部319に送られる。
【0130】
(2−7)顔判定
判定部319は、領域修正部318において修正された頂点リストV3に無効ではない頂点座標を有する各肌色領域に対して、その肌色領域が顔領域であるか否かの判定を行なう。顔領域の判定は、例えば人物の顔領域では眼の部分及び口の部分に水平エッジが多く分布すること、また唇の色が他の部分に比べて赤みが強いことを利用し、これらの条件が口検出部313で検出された口の高さHOM、及び眼検出部314で検出された眼の高さHOEにおいて成立しているか否かを検証することにより行なうことができる。判定結果は、顔領域であるか否かを表す2値のフラグfaceflagとして出力される。
【0131】
このように、被写体検出部300においては、抽出された肌色領域に対して、頭頂部及び口の位置を検出し、これらの位置から眼の検索範囲を設定して眼の位置を検出するため、極めて高精度に眼の位置を検出することができる。また、顎の位置は、眼と口の位置から算出することにより、顔と首との輝度及び色の差が小さく、高精度に検出することが難しい場合にも顎の位置の検出を正確に行うことができる。更に、顔の中心線は、口の赤みの強さに基づき検出されるため、極めて高精度に顔中心線を検出することができる。更にまた、顔判定部において、眼のパターンらしさ及び口のパターンらしさを判定し、この判定結果に基づき顔であるか否かの総合判定をするため、複数の顔が含まれている場合であっても、顔であるか否かの判定結果の信頼性が高い。
【0132】
また、判定部319により顔と判定される肌色領域が複数存在する場合に、複数の顔領域から、例えばその顔領域の位置に基づき1つの顔領域を選択する選択部(図示せず)を設けることもできる。これにより、例えば、複数の顔領域が存在する画像から1つの顔領域を抽出して、トリミング部400にてトリミング処理を施すことができる。なお、判定部319に、顔領域を選択する機能をもたせるようにしてもよい。
【0133】
(3)トリミング部
トリミング部400は、上述した如く、抽出した人物の顔領域を印画紙の有効領域に配置する際、天部、顔部及び胸部の寸法比率を所定比になるように画像をトリミングする。印画紙において画像が印刷される有効領域内の被写体における天部、顔部、胸部の各部のサイズ、即ち寸法比を規定することにより、見やすく、落ち着いた証明写真を得ることができる。
【0134】
証明写真をオートトリミングする時には、印画紙の有効領域内に、顔部をどのように配置するかにより証明写真のできばえが変わる。
【0135】
従って、図1に示すように、天部A、顔部B及び胸部Cの各部において、顔部Bの寸法を基準とした場合、例えば、顔部B:胸部C:天部A=1:0.6〜1.0:0.2〜0.3の範囲であれば、見やすいバランスのとれた写真を得ることができる。
【0136】
図23は、証明写真において、顔部Bに対する天部A、胸部Cの寸法比率を変えたときの証明写真を示す模式図である。図23(b)は、本発明の実施例を示す図であり、天部A,顔部B及び胸部Cの寸法比率が適切であるため、大変見やすい証明写真となっている。この実施例における天部Aの比率は、顔部Bに対して0.25である。
【0137】
一方、図23(a)及び図23(c)は、上記の寸法比率から外れる夫々比較例1及び比較例2を示す図である。図23(a)に示す比較例1は、天部Aの寸法比率が顔部Bに対して0.42と大きい場合である。証明写真は、顔部Bを中心に撮像すると、このような比較例1に示す証明写真になることが多い。このように、天部Aの寸法が顔部Bに比して本発明範囲より大きいため、間が抜けたアンバランスな証明写真になっている。
【0138】
また、図23(c)に示す比較例2は、天部Aの寸法比率が顔部Bに対して0.04と小さい場合である。このように、天部Aの寸法比率が小さいと、圧迫感のある写真になってしまう。
【0139】
図24(a)及び(b)は、顔部Bの画像が夫々小さい例及び大きい例の証明写真を示す模式図である。図24(a)に示す例では、顔部Bに対して、天部A及び胸部Cが著しく大きく、また、図24(b)に示す例では、顔部Bに対して、天部A及び胸部Cが小さいため、いずれの写真も証明写真としては不適である。
【0140】
また、顔の中心位置が印画紙の有効領域内の中心から左右どちらにずれても、証明写真としては好ましくない。従って、上述した中心線検出部317により検出した顔中心線COHを使用して顔部が印画紙の中心位置であって、且つ所定の寸法比になるようにトリミングすることが好ましい。
【0141】
このように画像をトリミングするトリミング部400においては、制御回路70のCPU78により実行されるプログラムによりトリミング範囲を算出している。
【0142】
以上のように構成された画像処理装置は、撮像した画像データから人物の顔が適切なバランスとなるように配置された画像をトリミングして、見やすく、落ち着いた画像を得ることができる。
【0143】
なお、上述したように画像処理装置においては、病院内等で使用される撮像装置1に備えられるものであり、写真撮影をする者が、車椅子に乗っていたり、松葉杖をついたり、子供を抱きかかえている場合などが考えられるため、撮像した画像データの中心に常に顔が位置しているわけではないが、そのような場合でも、自動的に画像をトリミングして、見やすく、落ち着いた画像を得ることができる。
【0144】
次に、画像処理装置の各部の動作について説明する。図25は、画像抽出方法を示すフローチャートである。また、図26は、画像抽出の各工程を示す模式図である。
【0145】
図25及び図26に示すように、先ず、ステップS21において、画像入力部101は、図26(a)に示すような撮像された元画像700をダウンサンプリングして、図26(b)に示すダウンサンプリング画像データ701を得る。
【0146】
次に、ステップS22において、肌色領域抽出部200は、画像データ701から肌色領域を抽出する。
【0147】
次に、ステップS23において、被写体検出部300は、被写体の検出を行う。このとき、図26(c)に示すように、ダウンサンプリング画像データ701には、複数の肌色領域702a〜702cが抽出される場合がある。被写体の検出は、これらの肌色領域702a〜702c全て、又は、特定に肌色領域を選択して行う。ここでは、図26(d)に示すように、例えば最も中央に位置する肌色領域702aを選択して、この肌色領域702aを使用し、被写体検出部300により被写体を検出する場合について説明する。
【0148】
次に、ステップS24において、被写体検出部300により、肌色領域702aにおいて被写体が検出された場合、即ち、肌色領域702aが顔であると判定された場合は、このデータがトリミング部400に供給され、トリミング部400にてトリミング処理が施される。即ち、元画像700において、被写体を示す肌色領域702aの顔部Bに対して天部A及び胸部Cが上述の寸法比となるよう有効領域(トリミング領域)711が算出され、図26(f)に示すように、所定の寸法比になるように切り取られたこの有効領域711がプリンタ18又は19等に出力される。
【0149】
次に、ステップS23の被写体の検出方法について更に詳細に説明する。図27は、被写体検出部300の被写体の検出方法を示すフローチャートである。
【0150】
先ず、ステップS31において、頭頂部検出部313は、頭頂部を検出する。頭頂部の検出は、上述したように、例えば、入力画像において上から10ライン目までを背景とし、この背景と肌色領域の上部の画素とを比較し、その変化が大きくなった位置を頭頂部TOHとして検出する。
【0151】
次に、ステップS32において、中心線検出部317は、肌色領域における肌色画素の分布の平均位置を通る線分を顔の中心線COHとして検出する。上述したように、口、又は眼の検出結果を使用して顔の中心線を検出してもよい。
【0152】
次に、ステップS33において、口検出部314は、肌色領域内で赤みを利用して口の位置MOHを検出する。
【0153】
次に、ステップS34において、眼検出部315は、肌色領域内でエッジ密度が高いことを利用して眼の位置EOHを検出する。
【0154】
次に、ステップS35において、顎検出部316は、口及び眼の位置の検出結果を使用して顎部の位置を算出する。
【0155】
次に、ステップS36において、判定部319は、口及び眼の位置の検出結果からステップS31にて検出された頭頂部の位置の妥当性を判定し、検出された頭頂部の位置が妥当でないと判定された場合は、口及び眼の検出結果から頭頂部の位置を算出する。このように、頭頂部の位置をチェックすることにより、誤検出を防止する。
【0156】
次に、ステップS37において、領域修正部318は、肌色領域を囲む長方形領域を計算する。
【0157】
次に、ステップS38において、判定部319は、眼及び口におけるエッジ密度が所定の閾値以上であって、且つ口の赤みが所定の閾値以上であること等の条件を利用して、顔か否かの判定を行う。
【0158】
最後に、ステップS39において、複数顔が検出された場合に顔抽出領域を選択し、この顔領域をトリミング部400に供給する。
【0159】
なお、判定部319により上述したような顔判定を行い、顔領域を選択するは、例えば、撮像された画像データ内に子供を抱えた母親が一緒に写っている場合に、顔領域が複数検出されて子供の顔領域をうまく抽出することができなくなってしまうのを防ぐためである。例えば、判定部319では、撮像された画像データ全体の中心に近い顔領域を選択する。
【0160】
トリミング部400は、CPU78の計算により、図28に示すように、入力された顔領域に基づき、元画像データ901内の人物902がバランスよく配置されるようにトリミング領域903を算出してトリミングを行う。また、トリミング部400は、CPU78により、図29に示すように、入力された顔領域に基づき、元画像データ904内に人物905及び906の2人が配されている場合、より中央に近い人物905を基準にトリミング範囲907を算出してトリミングを行う。更に、トリミング部400は、CPU78の計算により、図30に示すように、入力された顔領域に基づき、元画像データ908内の人物の眼や口の位置が特定できない場合、頭頂部の位置を基準に推定被写体領域909を算出し、元画像データ908内の有効領域をトリミング領域910とする。
【0161】
以下では、元画像データ901,904,908の画像サイズを幅×高さが960×1280画素であるとして、顔領域が供給された後のトリミング部400の画像処理の動作を、図31乃至図32に基づき説明する。図31及び図32は、トリミング部400のトリミング方法を示すフローチャートである。また、以下では、上述の被写体検出部300の各部で検出した頭頂部、眼及び口の位置と、顔の中心線が、RAM73に記憶されているものとして説明する。
【0162】
先ず、図31に示すように、ステップS41において、CPU78は、頭頂部検出部313により検出された頭頂部の位置をRAM73から読み出す。以下では、RAM73から読み出した頭頂部の位置をTOHとする。
【0163】
次に、CPU78は、ステップS42において、口検出部314により検出された口の位置をRAM73から読みだす。以下では、RAM73から読み出した口の位置をMOUTHとする。
【0164】
次に、ステップS43において、CPU78は、頭頂部から口までの長さをTOH_MOUTHとして算出する。即ちCPU78は、TOH_MOUTH=MOUTH−TOHとする計算を行う。
【0165】
次に、ステップS44において、CPU78は、頭上マージン、即ち天部の長さを頭頂部から口までの長さの1/4として、天部=(TOH_MOUTH×1/4)とする計算を行う。
【0166】
次に、ステップS45において、CPU78は、トリミング領域903の上部開始位置を頭頂部の位置から天部の長さ分だけ上方であるとして、上部開始位置sty1=TOH−(TOH_MOUTH×1/4)とする計算を行う。
【0167】
次に、ステップS46において、CPU78は、上部開始位置sty1が、元画像データ901から上方にはみ出た位置にあるかどうかを判断する。即ちCPU78は、上部開始位置sty1<0であるかを判断し、上部開始位置sty1<0である場合に処理をステップS47に進め、上部開始位置sty1≧0である場合に処理をステップS48に進める。
【0168】
ステップS47において、CPU78は、上部開始位置sty1が、元画像データ901から上方にはみ出た位置にある場合、上部開始位置sty1を元画像データ901の上端とする、即ち上部開始位置=0とする計算を行う。そしてCPU78は、ステップS48に処理を進める。
【0169】
次に、ステップS48において、CPU78は、口の位置から下部終了位置までの距離が頭頂部から口までの距離に等しいとして、下部終了位置edy1=MOUTH+(TOH_MOUTH×1/1)とする計算を行う。
【0170】
次に、ステップS49において、CPU78は、下部終了位置edy1が、元画像データ901から下方にはみ出た位置にあるかどうかを判断する、即ち下部終了位置edy1>1279であるかを判断し、下部終了位置edy1>1279である場合に処理をステップS50に進め、下部終了位置edy1≦1279である場合に処理をステップS51に進める。
【0171】
ステップS50において、CPU78は、下部終了位置edy1が、元画像データ901から下方にはみ出た位置にある場合、下部終了位置edy1を元画像データ901の下端とする、即ち下部終了位置edy1=1279とする計算を行い、処理をステップS51に進める。
【0172】
ステップS51において、CPU78は、トリミング領域903の縦方向の高さを画像高さYとして、画像高さY=下部終了位置edy1―上部開始位置sty1とする計算を行う。
【0173】
次に、図32に示すように、ステップS52において、CPU78は、画像高さYと元画像データ901の高さとを比較し、画像高さYが元画像データ901の高さよりも小さい場合に処理をステップS60に進め、画像高さYが元画像データ901の高さよりも大きい場合に処理をステップS53に進める。
【0174】
ステップS53において、CPU78は、眼の位置をRAM73から読み出す。以下では、RAM73から読み出した眼の位置をEYEとする。
【0175】
次に、ステップS54において、CPU78は、眼から口までの長さをEYE_MOUTHとして、TOH_MOUTH=MOUTH−TOHとする計算を行う。
【0176】
次に、ステップS55において、CPU78は、EYE_MOUTHと口から下部終了位置edy2までの長さとの比が1:2となるように下部終了位置edy2を算出する。即ちCPU78は、edy2=mouth+(eye_mouth×2/1)とする計算を行う。
【0177】
次に、ステップS56において、CPU78は、下部終了位置edy2が、元画像データ901から下方にはみ出た位置にあるかどうかを判断する、即ち下部終了位置edy2>1279であるかを判断し、下部終了位置edy2>1279である場合に処理をステップS57に進め、下部終了位置edy1≦1279である場合に処理をステップS58に進める。
【0178】
ステップS57において、CPU78は、下部終了位置edy2が、元画像データ901から下方にはみ出た位置にある場合、下部終了位置edy2を元画像データ901の下端とする、即ち下部終了位置edy2=1279とする計算を行い、処理をステップS58に進める。
【0179】
ステップS58において、CPU78は、edy1とedy2の大きさの比較を行い、edy1>edy2である場合、処理をステップS59に進め、edy1≦edy2である場合、処理をステップS60に進める。
【0180】
ステップS59において、CPU78は、トリミング領域903の縦方向の高さを画像高さYとして、画像高さY=下部終了位置edy2−上部開始位置sty1とする計算を行い、処理をステップS60に進める。
【0181】
ステップS60において、CPU78は、トリミング領域903の横方向の幅を画像幅Xとして、画像幅X及び画像高さYのアスペクト比が1.42であることから、画像幅X=画像高さY/1.42とする計算を行う。
【0182】
次に、ステップS61において、CPU78は、中央線検出部317により検出された頭頂部の位置をRAM73から読み出す。以下では、RAM73から読み出した中央線の位置をCOHとする。
【0183】
次に、ステップS62において、CPU78は、中央線の位置COHを中心に、画像幅Xとなるように、トリミング範囲の最左端を左端開始位置stx1、最右端を右端終了位置edx1として、これらstx1及びedx1を算出する。
【0184】
次に、ステップS63において、CPU78は、左部開始位置stx1が、元画像データ901から左側にはみ出た位置にあるかどうかを判断する、即ち左部開始位置stx1<0であるかを判断し、左部開始位置stx1<0である場合に処理をステップS64に進める。また、ステップS63において、CPU78は、右部終了位置edx1が、元画像データ901から右側にはみ出た位置にあるかどうかを判断する、即ち右部終了位置edx1>959であるかを判断し、右部終了位置edx1>959である場合に処理をステップS64に進める。なお、ステップS63において、CPU78は、左部開始位置stx1≧0である場合で、且つ右部終了位置edx≦959である場合に処理をステップS65に進める。
【0185】
ステップS64において、CPU78は、元画像データ901からはみ出た部分に白紙領域を追加するために、元画像データ901に画像データを加え、処理をステップS65に進める。
【0186】
ステップS65において、CPU78は、sty1,edy1(edy2),stx1,edx1に基づきトリミング範囲903を決定し元画像データ901からトリミングを行う。
【0187】
以上のような処理によりトリミング部400は、元画像データ901からトリミング範囲903をトリミングする。
【0188】
トリミング部400は、このような処理により、顔部:胸部:天部の寸法比率が1:1:0.25なるようにトリミング範囲903を決定することができるとともに、顔の位置が左右どちらかによってしまった場合も空白領域を元画像データ901に付け加えることで、顔の位置が中心となるようにトリミング範囲903を決定することができる。
【0189】
また、トリミング部400は、印画紙のアスペクト比が決まっていることから、画像高さを算出した後に画像幅を容易に算出することができる。
【0190】
ここで、被写体検出部300の各部が位置検出に失敗した場合のトリミング部400の画像処理の動作を図33に基づいて説明する。図33は、トリミング部400のトリミング方法を示すフローチャートである。
【0191】
先ず、ステップS71において、CPU78は、頭頂部検出部313により頭頂部の位置が検出されているかを判断し、検出されていなければ処理をステップS73に進め、検出されていれば処理をステップS72に進める。
【0192】
ステップS72において、CPU78は、頭頂部検出部313により検出された頭頂部の位置をRAM73から読み出す。以下では、RAM73から読み出した頭頂部の位置をTOHとする。
【0193】
次に、ステップS74において、CPU78は、トリミング領域910の最上端から元画像データ908の高さの1/10の位置となるように上部開始位置sty1を算出する。即ち、CPU78は、上部開始位置sty1=toh−(1280/10)なる計算を行い、処理をステップS75に進める。
【0194】
一方、ステップS71において、頭頂部が検出されていないと判断された場合、ステップS73において、CPU78は、トリミング領域910の上端を元画像データ908の上端として上部開始位置sty1を算出する。即ち、CPU78は、上部開始位置sty1=0なる計算を行い、処理をステップS75に進める。
【0195】
ステップS75において、CPU78は、トリミング領域910の最下端を、元画像データ908の最下端として下部終了位置edy1を算出する。即ち、CPU78は、下部終了位置edy11279なる計算を行う。
【0196】
次に、ステップS76において、CPU78は、トリミング領域910の縦方向の高さを画像高さYとして、画像高さY=下部終了位置edy1―上部開始位置sty1とする計算を行う。
【0197】
次に、ステップS77において、CPU78は、トリミング領域910の横方向の幅を画像幅Xとして、画像幅X及び画像高さYのアスペクト比が1.42であることから、画像幅X=画像高さY/1.42とする計算を行う。
【0198】
次に、ステップS78において、CPU78は、中央線の位置COHを中心に、画像幅Xとなるように、トリミング範囲の最左端を左端開始位置stx1、最右端を右端終了位置edx1として、これらstx1及びedx1を算出する。なお、中央線の位置COHが検出されていない場合は、元画像データ908の有効領域全体の幅の中心をCOHに替えて用いてもよい。
【0199】
次に、ステップS79において、CPU78は、sty1,edy1,stx1,edx1に基づきトリミング範囲910を決定し元画像データ908からトリミングを行う。
【0200】
以上のような処理によりトリミング部400は、元画像データ908からトリミング範囲910をトリミングする。
【0201】
トリミング部400は、被写体検出部300が頭頂部や口の位置が検出できなかった場合でも、トリミング範囲903を適切に決定することができる。ここで、被写体検出部300が頭頂部や口の位置が検出できなかった場合とは、撮像装置1を設置する場所が病院であるということから例えば、包帯をしている場合、めがねをかけている場合、マスクをしている場合等が考えられる。トリミング部400は、写真撮影をする者がそのような状態であっても適切にトリミングを行うことができる。
【0202】
なお、被写体検出部300において、頭頂部、眼及び口が検出できなかった場合、トリミング部400は、図34に示すように、全画像データ900内に人物902が写された領域である有効領域901の画像幅に基づいて、アスペクト比から画像高さを算出するようにしてもよい。ここで、図34に示す、人物902が写された領域以外の帯部BとBは、撮像装置1の構造により写りこむ影であり、何も写されていない部分である。この帯部BとBは、撮像装置1において、縦方向にスリットが設けられ、このスリットを介して撮像部17が撮像を行うために発生する。トリミング部400は、この帯部BとBとが互いに平行であるため、全画像データ900から有効領域901切り出すときに、これらの間を画像幅となるようにトリミングを行う。
【0203】
本実施の形態において、画像処理装置が撮像した入力画像から顔領域を検出してオートトリミングするため、被撮像者は、撮像装置の椅子に座るのみで、図23(b)に示すようなバランスがよい証明写真を常に得ることができる。このような画像処理装置を撮像装置1が備えることで、写真撮影をする者が椅子の高さを調節する必要がなくなり、使用者への利便性が向上する。
【0204】
また、本実施の形態において、画像処理装置は、病院内等で使用される撮像装置1に備えられるものであり、写真撮影をする者が、車椅子に乗っていたり、松葉杖をついたり、母親が子供を抱きかかえている場合等が考えられるため、撮像した画像データの中心に常に顔が位置するわけではないが、そのような場合でも、自動的に画像をトリミングして、顔がバランスよく配された画像を得ることができる。
【0205】
更に、本実施の形態において、画像処理装置は、病院内等で使用される撮像装置1に備えられるものであり、写真撮影をする者が、顔に包帯をしていたり、めがねをかけていたり、マスクをしていたりする場合等が考えられるため、頭頂部、眼及び口の検出に失敗することがあるが、そのような場合でも、自動的に画像をトリミングして、顔がバランスよく配された画像を得ることができる。
【0206】
以上、病院等に設置される写真ブースを例にとり説明したが、本発明は、これに限定されるものではなく、例えば街角等に設置される証明写真装置やゲームセンタ等に設置される装置に適用することもできる。これによって、街角やゲームセンタ等に設置された装置も、身体障害者にとって使いやすいものとなる。
【0207】
また、上述の実施の形態では、トリミング部400以外についてハードウェアの構成として説明したが、これに限定されるものではなく、任意の処理を、トリミング部400と同様に、CPU78にコンピュータプログラムを実行させることにより実現することも可能である。この場合、コンピュータプログラムは、記録媒体に記録して提供することも可能であり、また、インターネットその他の伝送媒体を介して伝送することにより提供することも可能である。
【0208】
【発明の効果】
以上詳述したように、本発明によれば、天部、顔部、胸部が最適の比率でトリミングされるため、撮像者はカメラ位置を変えることなく、また、フォトブースでは、被写体となる使用者が椅子の高さを調整することなく、自動的に顔の大きさ及び位置が最適に配置された見やすい写真を常に得ることができる。
【図面の簡単な説明】
【図1】証明写真における人物の配置を示す模式図である。
【図2】本発明の実施の形態に係る撮像装置を正面側から見た斜視図である。
【図3】上記撮像装置を背面側から見た斜視図である。
【図4】上記撮像装置の透視平面図である。
【図5】撮像室に設けられた左右一対の照明器具を説明する平面図である。
【図6】上記撮像装置を正面側から見た図であって、カーテンを閉めた状態を説明する図である。
【図7】上記撮像装置の制御回路を説明するブロック図である。
【図8】上記制御回路の動作を説明するフローチャートである。
【図9】本発明の実施の形態に係る画像処理装置を示すブロック図である。
【図10】本発明の実施の形態に係る画像処理装置における肌色領域抽出部を示すブロック図である。
【図11】本発明の実施の形態に係る画像処理装置における顔領域抽出部を示すブロック図である。
【図12】横軸に座標をとり、縦軸に出現頻度をとって、出現頻度を示すヒストグラムとクラスタとの関係を模式的に示すグラフ図である。
【図13】(a)乃至(c)は、夫々入力画像、クラスタマップC及び領域マップRを示す模式図である。
【図14】本発明の実施の形態における肌色領域抽出部において作成された領域マップRを示す模式図である。
【図15】本発明の実施の形態における肌色領域抽出部において抽出される長方形領域を示す模式図である。
【図16】本発明の実施の形態における肌色領域抽出部の領域分割部にて分割される長方形領域を示す模式図である。
【図17】カラー画像における人物の頭頂部を検索する際の検索範囲を示す模式図である。
【図18】長方形領域の水平方向の赤み強度が累積されて生成されたヒストグラムHrdshと長方形領域との関係を示す模式図である。
【図19】人物の眼、口及び顎の位置の関係を示す模式図である。
【図20】エッジを構成する画素が水平方向に累積されて生成されたヒストグラムHedge(y)と肌色領域に対応する長方形領域との関係を示す模式図である。
【図21】肌色領域に対応する長方形領域における口の高さHOM及び検索範囲mtop、mbtmを示す模式図である。
【図22】修正後の長方形領域の頂点座標{(stx、sty),(edx、edy)}を示す模式図である。
【図23】証明写真において、顔部Bに対する天部A、胸部Cの寸法比率を変えたときの証明写真を示す模式図であって、(b)は、本発明の実施例を示す図であり、(a)及び(c)は、夫々比較例1及び比較例2を示す図である。
【図24】(a)及び(b)は、顔部Bの画像が夫々小さい例及び大きい例の証明写真を示す模式図である。
【図25】本発明の実施の形態における画像処理方法を示すフローチャートである。
【図26】本発明の実施の形態における画像処理方法の各工程を示す模式図である。
【図27】本発明の実施の形態における画像処理装置の被写体検出方法を示すフローチャートである。
【図28】本発明の実施の形態における画像処理装置のトリミング部がトリミング範囲と、画像データとの模式図である。
【図29】画像データに人物が2人写っている場合のトリミング範囲を説明する模式図である。
【図30】頭頂部を検出できなかった場合を説明する模式図である。
【図31】本発明の実施の形態における画像処理装置のトリミング部の処理の流れを示すフローチャートである。
【図32】本発明の実施の形態における画像処理装置のトリミング部の処理の流れを示す図31に続くフローチャートである。
【図33】本発明の実施の形態における画像処理装置のトリミング部の処理の流れを示すフローチャートである。
【図34】画像データの有効領域を説明するための模式図である。
【図35】従来の撮像装置を説明する側面図である。
【符号の説明】
1 撮像装置、2 設置面、11 筐体、12 背面部、13 一方の側壁、14 他方の側壁、15 天板、16a 第1の面、16b 第2の面、16c 第3の面、17 撮像部、17a 撮像装置、17b ハーフミラー、17c 反射板、18,19 プリンタ、22 転動防止部材、23 入口、24 椅子、24a 取っ手、29 料金投入部、31 位置決め凹部、32 被写体検出部32 カーテン、33a スリット、34 第1の手摺り、35 第2の手摺り、36 第3の手摺り、40 回動支持機構、41 椅子取付部材、42 回動支持部、44 椅子支持部材、46 リンク部材、48 ガイド孔、49 係合突起、51 ダンパ、54 保持機構、56 保持部材、58 係止突部、59 検出部、60 押圧部、70 制御回路、100 画像抽出装置、101 画像入力部、200 肌色領域抽出部、212 表色系変換部、213 ヒストグラム生成部、214 初期クラスタ抽出部、215 初期領域抽出部、216クラスタ統合部、217 領域分割部、218 領域抽出部、300 被写体検出部、313 頭頂部検出部、314 口検出部、315 眼検出部、316顎検出部、317 中心線検出部、318 領域修正部、319 判定部、400 トリミング部、600 証明写真、600a 最上端、600b 最下端、601 人物画像

Claims (13)

  1. 人物の画像から顔領域を抽出する顔領域抽出手段と、
    上記顔領域抽出手段により抽出された顔領域から上記人物の頭頂部、口及び眼の位置を検出する位置検出手段と、
    上記位置検出手段により検出された上記人物の頭頂部の位置及び口の位置から上記人物の頭頂部から口までの距離を算出するとともに、上記位置検出手段により検出された上記人物の頭頂部、口及び眼の位置の少なくとも一つから上記人物の顔を左右に等分する中心線とを算出する算出手段と、
    上記位置検出手段により検出された上記人物の頭頂部と、上記算出手段により算出された上記人物の頭頂部から口までの距離と、上記算出手段により算出された上記人物の顔を左右に等分する中心線とに基づきトリミング範囲を決定してトリミングを行い、上記位置検出手段が上記人物の口の位置を検出できなかったときには、上記画像の最上端を上記トリミング範囲の最上端にするとともに、上記画像の最上端から上記位置検出手段が検出した上記人物の頭頂部までを天部とし、上記天部の寸法と上記位置検出手段が検出した上記人物の頭頂部の位置と上記画像内に人物が有効に配される有効領域の幅とに基づき上記トリミング範囲の最下端を決定してトリミングをトリミング手段とを備えることを特徴とする画像処理装置。
  2. 上記トリミング手段は、上記位置検出手段により検出された上記人物の頭頂部の位置から上記人物の口の位置までを顔部、上記位置検出手段により検出された上記人物の口の位置からトリミング範囲の最下端までを胸部、上記トリミング範囲の最上端から上記位置検出手段により検出された上記人物の頭頂部までを天部として、顔部、胸部及び天部の寸法比率が1:0.6乃至1:0.2乃至0.3となるように、上記トリミング範囲の最上端及び最下端を決定し、トリミングを行うことを特徴とする請求項1記載の画像処理装置。
  3. 上記トリミング手段は、決定された上記トリミング範囲の最上端から最下端までの距離から、アスペクト比が1.42となるように、上記トリミング範囲の横方向の幅を決定し、上記算出手段により算出された上記人物の顔を左右に等分する中心線に基づき上記トリミング範囲の最左端及び最右端を決定し、トリミングを行うことを特徴とする請求項2記載の画像処理装置。
  4. 上記トリミング手段は、さらに、上記位置検出手段が上記人物の頭頂部及び口の位置を検出できなかったときには、上記画像内に人物が有効に配される有効領域の全体を上記トリミング範囲としてトリミングを行うことを特徴とする請求項1記載の画像処理装置。
  5. 人物の画像から顔領域を抽出する顔領域抽出工程と、
    上記顔領域から上記人物の頭頂部、口及び眼の位置を検出する位置検出工程と、
    上記人物の頭頂部から口までの距離と、上記人物の頭頂部、口及び眼の位置の少なくとも一つから上記人物の顔を左右に等分する中心線とを算出する算出工程と、
    上記人物の頭頂部の位置と、上記人物の頭頂部から口まで距離と、上記人物の顔を左右に等分する中心線とに基づきトリミング範囲を決定してトリミング行い、上記人物の口の位置が検出されていないときには、上記画像の最上端を上記トリミング範囲の最上端とし、上記画像の最上端から上記人物の頭頂部の位置までを天部とし、上記天部の寸法と上記人物の頭頂部の位置と上記画像内に人物が有効に配される有効領域の幅とに基づき上記トリミング範囲の最下端を決定してトリミングを行うトリミング工程と
    を有することを特徴とする画像処理方法。
  6. 上記トリミング工程では、上記人物の頭頂部からの位置から上記人物の口の位置までを顔部、上記人物の口の位置からトリミング範囲の最下端までを胸部、上記トリミング範囲の最上端から上記人物の頭頂部までを天部として、顔部、胸部及び天部の寸法比率が1:0.6乃至1:0.2乃至0.3となるように、上記トリミング範囲の最上端及び最下端を決定し、トリミングを行うことを特徴とする請求項5記載の画像処理方法。
  7. 上記トリミング工程では、決定された上記トリミング範囲の最上端から最下端までの距離から、アスペクト比が1.42となるように、上記トリミング範囲の横方向の幅を決定し、上記人物の顔を左右に等分する中心線に基づき上記トリミング範囲の最左端及び最右端を決定し、トリミングを行うことを特徴とする請求項6記載の画像処理方法。
  8. 上記トリミング工程では、さらに、上記人物の頭頂部及び口の位置を検出されていないときには、上記画像内に人物が有効に配される有効領域の全体を上記トリミング範囲としてトリミングを行うことを特徴とする請求項5記載の画像処理方法。
  9. 人物を撮像する撮像手段と、
    上記撮像手段が撮像した人物の画像から顔領域を抽出する顔領域抽出手段と、上記顔領域抽出手段により抽出された顔領域から上記人物の頭頂部、口及び眼の位置を検出する位置検出手段と、
    上記位置検出手段により検出された上記人物の頭頂部の位置及び口の位置から上記人物の頭頂部から口までの距離を算出するとともに、上記位置検出手段により検出された上記人物の頭頂部、口及び眼の位置の少なくとも一つから上記人物の顔を左右に等分する中心線とを算出する算出手段と、
    上記位置検出手段により検出された上記人物の頭頂部と、上記算出手段により算出された上記人物の頭頂部から口までの距離と、上記算出手段により算出された上記人物の顔を左右に等分する中心線とに基づきトリミング範囲を決定してトリミングを行い上記位置検出手段が上記人物の口の位置を検出できなかったときには、上記画像の最上端を上記トリミング範囲の最上端にするとともに、上記画像の最上端から上記位置検出手段が検出した上記人物の頭頂部までを天部とし、上記天部の寸法と上記位置検出手段が検出した上記人物の頭頂部の位置と上記画像内に人物が有効に配される有効領域の幅とに基づき上記トリミング範囲の最下端を決定してトリミングを行うトリミング手段とを備えることを特徴とする撮像装置。
  10. 上記トリミング手段は、上記位置検出手段により検出された上記人物の頭頂部の位置から上記人物の口の位置までを顔部、上記位置検出手段により検出された上記人物の口の位置からトリミング範囲の最下端までを胸部、上記トリミング範囲の最上端から上記位置検出手段により検出された上記人物の頭頂部までを天部として、顔部、胸部及び天部の寸法比率が1:0.6乃至1:0.2乃至0.3となるように、上記トリミング範囲の最上端及び最下端を決定し、トリミングを行うことを特徴とする請求項9記載の撮像装置。
  11. 上記トリミング手段は、決定された上記トリミング範囲の最上端から最下端までの距離から、アスペクト比が1.42となるように、上記トリミング範囲の横方向の幅を決定し、上記算出手段により算出された上記人物の顔を左右に等分する中心線に基づき上記トリミング範囲の最左端及び最右端を決定し、トリミングを行うことを特徴とする請求項9記載の撮像装置。
  12. 上記トリミング手段は、さらに、上記位置検出手段が上記人物の頭頂部及び口の位置を検出できなかったときには、上記画像内に人物が有効に配される有効領域の全体を上記トリミング範囲としてトリミングを行うことを特徴とする請求項9記載の撮像装置。
  13. 更に、上記トリミング手段によりトリミングされた画像を印刷する印刷手段を備えることを特徴とする請求項9記載の撮像装置。
JP2002255865A 2002-08-30 2002-08-30 画像処理装置、画像処理方法、及び撮像装置 Expired - Fee Related JP3763293B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2002255865A JP3763293B2 (ja) 2002-08-30 2002-08-30 画像処理装置、画像処理方法、及び撮像装置
EP03808870A EP1558015B1 (en) 2002-08-30 2003-08-28 Image extraction device, image extraction method, image processing device, image processing method, and imaging device
US10/493,938 US8098293B2 (en) 2002-08-30 2003-08-28 Image extraction device, image extraction method, image processing device, image processing method, and imaging device
DE60329620T DE60329620D1 (de) 2002-08-30 2003-08-28 Bildextraktionseinrichtung, bildextraktionsverfahren, bildverarbeitungseinrichtung,bildverarbeitungsverfahren und abbildungseinrichtung
KR1020047006362A KR100980915B1 (ko) 2002-08-30 2003-08-28 화상 처리 장치 및 처리 방법 및 촬영 장치
PCT/JP2003/010986 WO2004036900A1 (ja) 2002-08-30 2003-08-28 画像抽出装置及び方法、画像処理装置及び処理方法、並びに撮像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002255865A JP3763293B2 (ja) 2002-08-30 2002-08-30 画像処理装置、画像処理方法、及び撮像装置

Publications (2)

Publication Number Publication Date
JP2004096487A JP2004096487A (ja) 2004-03-25
JP3763293B2 true JP3763293B2 (ja) 2006-04-05

Family

ID=32061245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002255865A Expired - Fee Related JP3763293B2 (ja) 2002-08-30 2002-08-30 画像処理装置、画像処理方法、及び撮像装置

Country Status (1)

Country Link
JP (1) JP3763293B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006215685A (ja) 2005-02-02 2006-08-17 Funai Electric Co Ltd フォトプリンタ
JP4683339B2 (ja) * 2006-07-25 2011-05-18 富士フイルム株式会社 画像トリミング装置
JP4837595B2 (ja) * 2007-02-19 2011-12-14 富士フイルム株式会社 マスク領域決定装置、方法、およびプログラム
JP4947018B2 (ja) * 2008-09-12 2012-06-06 大日本印刷株式会社 顔画像の自動トリミング装置
JP2013214234A (ja) 2012-04-03 2013-10-17 Sony Corp 移動制御装置、移動制御方法、およびプログラム
JP6919833B2 (ja) * 2017-06-23 2021-08-18 大日本印刷株式会社 証明写真作製システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3643988B2 (ja) * 1992-01-22 2005-04-27 コニカミノルタホールディングス株式会社 撮影装置
JP2002051315A (ja) * 2000-05-24 2002-02-15 Sony Corp データ伝送方法およびその装置、並びにデータ伝送システム

Also Published As

Publication number Publication date
JP2004096487A (ja) 2004-03-25

Similar Documents

Publication Publication Date Title
KR100980915B1 (ko) 화상 처리 장치 및 처리 방법 및 촬영 장치
JP3855939B2 (ja) 画像処理装置、画像処理方法及び撮影装置
JP2004318204A (ja) 画像処理装置、画像処理方法及び撮影装置
JP4085677B2 (ja) 撮影装置
US7289664B2 (en) Method of detecting and correcting the red eye
JP3657769B2 (ja) 画像処理方法および画像処理装置
JP4718952B2 (ja) 画像補正方法および画像補正システム
EP1276315A2 (en) A method for processing a digital image to adjust brightness
US20110109749A1 (en) Method for activating a function, namely an alteration of sharpness, using a colour digital image
JP2000350123A (ja) 画像選択装置、カメラ、画像選択方法及び記録媒体
KR20060112663A (ko) 화상 판별 방법 및 화상 처리 장치
JP3763293B2 (ja) 画像処理装置、画像処理方法、及び撮像装置
JP5748651B2 (ja) 画像処理装置、画像処理方法、並びにプログラム
JP2000347278A (ja) カメラ及び撮影方法
JP2004318205A (ja) 画像処理装置、画像処理方法及び撮影装置
JP2008059534A (ja) 画像トリミング装置、画像トリミング方法およびそのプログラム
JP2004234571A (ja) 画像処理装置、画像処理方法及び撮影装置
JP2000347277A (ja) カメラ及び撮影方法
JP2004096486A (ja) 画像抽出装置、画像抽出方法、及び撮影装置
JP2001197296A (ja) 画像処理方法および装置
JPH11316845A (ja) 主要被写体抽出方法および装置
US6458492B1 (en) Mask changing the brightness profile of a photographic copy
JP2005308966A (ja) 写真撮影装置
JP3964796B2 (ja) 赤目検出および修正方法
JP3576809B2 (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050927

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060109

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090127

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100127

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100127

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110127

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110127

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120127

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120127

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130127

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140127

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees