JP4853320B2 - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP4853320B2
JP4853320B2 JP2007034558A JP2007034558A JP4853320B2 JP 4853320 B2 JP4853320 B2 JP 4853320B2 JP 2007034558 A JP2007034558 A JP 2007034558A JP 2007034558 A JP2007034558 A JP 2007034558A JP 4853320 B2 JP4853320 B2 JP 4853320B2
Authority
JP
Japan
Prior art keywords
image
frame
image data
synthesis
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007034558A
Other languages
English (en)
Other versions
JP2008198062A (ja
Inventor
正道 飛鳥井
雅明 鶴田
大二 伊藤
曜一郎 佐古
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2007034558A priority Critical patent/JP4853320B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to BRPI0807679-0A priority patent/BRPI0807679A2/pt
Priority to PCT/JP2008/050214 priority patent/WO2008099627A1/ja
Priority to EP08703078A priority patent/EP2124186A4/en
Priority to US12/449,230 priority patent/US8482651B2/en
Priority to CN2008800052827A priority patent/CN101617339B/zh
Priority to KR1020097016960A priority patent/KR101401855B1/ko
Publication of JP2008198062A publication Critical patent/JP2008198062A/ja
Application granted granted Critical
Publication of JP4853320B2 publication Critical patent/JP4853320B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像画像データについての合成処理を行う画像処理装置、及び画像処理方法に関する。
特開2004−134950号公報
上記特許文献1には、カメラで撮像された画像に、コンピュータグラフィックスなどで作成した素材画像を合成する技術が開示されている。
一般にユーザがカメラ撮像を行う場合、被写体となった人がシャッタタイミングで眼をつむってしまったり、表情が悪くなったりして、あまり好ましい撮像画像ではなくなる場合がある。特に集合写真を撮ったときに、被写体の人のうちの一部の人が眼を閉じてしまっているといった撮像画像となる場合が多々ある。
まばたきや表情の変化を考慮して、良好な表情で人を撮像するためには、例えば撮像装置側で被写体となった人の笑顔検出やまばたき検出を行うことも考えられている。これは撮像装置側でシャッタタイミング前のモニタ状態において、取り込まれる画像データについて顔画像の解析を行い、笑顔になった瞬間にシャッタが切られるような制御を行ったり、また、まばたきなどで眼を閉じている間はシャッタが切られないように制御するものである。ところがこのような技術は、被写体が一人の場合には問題ないと考えられるが、集合写真で多数の人を写す場合には、なかなかシャッタが切られないといったことも発生する。
また被写体とする目的の人や物以外の人や物が撮し込まれて、画像に対する満足度が低下するといったことや、日光や照明による明暗の関係により、部分的に暗すぎたり明るすぎる画像となる場合もある。
これらのように通常、撮像を行った際には、撮像者にとって満足の行かない画像となることが多いが、本発明では容易に、満足度の高い撮像画像が得られるようにすることを目的とする。
本発明の画像処理装置は、合成処理に用いる撮像画像データとして、異なる時間として連続的に撮像された複数のフレームの撮像画像データを取得する取得手段と、上記取得手段により取得した上記複数のフレームのうちの或るフレーム内で合成対象領域を設定し、上記合成対象領域における画素データを、上記複数のフレームのうちの他のフレームの画素データに置き換えるとともに、上記合成対象領域と上記或るフレームの撮像画像データの境界領域については、上記或るフレームと上記他のフレームの時間的に中間のフレームが存在する場合には、該中間のフレームの、上記境界領域に相当する画素データを上記境界領域に割り当てて合成処理を行って合成画像データを生成する画像合成手段と、上記画像合成手段で生成された合成画像データについて保存処理を行う保存処理手段とを備える。
また上記取得手段は、画像撮像を行う撮像部を有し、上記撮像部での撮像により、上記合成処理に用いる撮像画像データに含まれる少なくとも1フレーム、或いは合成処理に用いる複数フレームの撮像画像データを取得する。上記撮像部は、撮像素子としてCCDセンサ又はCMOSセンサを用いて構成されている。
また上記取得手段は、外部機器と通信を行う通信部を有し、上記通信部での外部機器と通信により、上記合成処理に用いる撮像画像データに含まれる少なくとも1フレームの撮像画像データを受信して取得する。
また上記取得手段は、可搬性記録媒体から情報を再生する再生部を有し、上記再生部による上記可搬性記録媒体の再生により、上記合成処理に用いる撮像画像データに含まれる少なくとも1フレームの撮像画像データを取得する。
また上記保存処理手段は、記録媒体に対して情報の記録を行う記録部を有し、上記保存処理として、上記合成画像データを上記記録媒体に記録する。
また上記保存処理手段は、外部機器と通信を行う通信部を有し、上記保存処理として、上記合成画像データを外部機器に送信する。
また上記画像合成手段は、画像解析処理により、上記合成対象領域を設定する。特に、上記画像解析処理により、フレーム画像内に存在する人の顔画像についての眼の開閉、又は顔の表情、又は顔の向き、又は眼球の色の全部又は一部を判別し、判別結果に基づいて上記合成対象領域を設定する。
また操作入力手段をさらに備え、上記画像合成手段は、上記操作入力手段からの入力に従って、上記合成対象領域を設定する。
また上記画像合成手段は、上記複数のフレームのそれぞれについての画像解析処理により、上記他のフレームとなるフレームを選定し、選定したフレームから、上記合成対象領域に合成する画素データを取り出す。
また上記画像合成手段は、上記操作入力手段からの入力に従って、上記複数のフレームのうちから上記他のフレームとなるフレームを選定し、選定したフレームから、上記合成対象領域に合成する画素データを取り出す。
さらに、上記合成画像データについての出力処理を行う画像出力手段を備える。
上記画像出力手段は、表示部を有し、上記出力処理として、上記表示部において上記合成画像データについての表示出力を行う。
上記画像出力手段は、外部機器と通信を行う通信部を有し、上記出力処理として、上記通信部により上記合成画像データについての外部機器への送信出力を行う。
上記画像出力手段は、可搬性記録媒体に情報を記録する記録部を有し、上記出力処理として、上記記録部によって上記可搬性記録媒体に上記合成画像データを記録する。
本発明の画像処理方法は、合成処理に用いる撮像画像データとして、異なる時間として連続的に撮像された複数のフレームの撮像画像データを取得するステップと、取得した上記複数のフレームのうちの或るフレーム内で合成対象領域を設定し、上記合成対象領域における画素データを、上記複数のフレームのうちの他のフレームの画素データに置き換えるとともに、上記合成対象領域と上記或るフレームの撮像画像データの境界領域については、上記或るフレームと上記他のフレームの時間的に中間のフレームが存在する場合には、該中間のフレームの、上記境界領域に相当する画素データを上記境界領域に割り当てて合成処理を行って合成画像データを生成するステップと、生成した合成画像データについて保存処理を行うステップとを備える。


即ち以上の本発明では、例えば撮像したり、或いは外部の撮像装置で撮像した画像データを入力するなどして異なる時間に撮像された複数のフレームの撮像画像データを所得する。異なる時間に撮像された複数のフレームの撮像画像データとは、例えば動画撮像のように連続したフレームの画像であったり、数100m秒間隔、1秒間隔、数秒間隔などで撮像した各フレームの画像であったりすればよい。もちろんさらに長い時間間隔(例えば数分間隔、数時間間隔、日単位の間隔、年単位の間隔など)で撮像された複数のフレームの画像であってもよい。
これらの複数のフレームの画像を取得した際には、例えば或る1つのフレームの画像を基準とし(以下、基準とする画像を合成ベース画像という)、他のフレームの画像を用いた合成処理を行う。即ち合成ベース画像としたフレーム画像内で、合成対象領域を設定し、その合成対象領域の画素データを、他のフレームの画素データに置き換える処理を行う。
例えば集合写真画像としての合成ベース画像内で眼を閉じている人がいた場合、その人の顔の部分を合成対象領域とする。そして他のフレームとして、その人が眼を開いている画像を探し、その眼を開いている顔画像の部分の画素データを取り出して、合成ベース画像に合成する。この処理を行うことで、全員が眼を開いている集合写真を容易に生成できる。
本発明によれば、画像内の一部としての合成対象領域を、他のフレームの画像における画素データに置き換える合成処理をおこなうことで、ユーザの満足度の高い撮像画像を容易に生成できるという効果がある。
以下、本発明の画像処理装置、画像処理方法の実施の形態を説明する。ここでは画像処理装置の例として撮像装置を挙げて説明する。なお後に変形例、拡張例として述べるが本発明の画像処理装置は、撮像装置以外の機器でも実現できる。
説明は次の順序で行う。
[1.撮像装置の外観例]
[2.撮像装置の構成例]
[3.画像合成及び保存]
[4.画像合成処理]
[5.実施の形態の効果、及び変形例、拡張例]
[1.撮像装置の外観例]

実施の形態の撮像装置1としては、各種の形態が想定されるが、それらの外観例を図1(a)(b)(c)(d)に例示する。
図1(a)は、眼鏡型ディスプレイカメラとした撮像装置1を示している。撮像装置1は、例えば両側頭部から後頭部にかけて半周回するようなフレームの構造の装着ユニットを持ち、図のように両耳殻にかけられることでユーザに装着される。
この撮像装置1は、ユーザが装着した状態において、ユーザの視界方向を被写体方向として撮像するように、前方に向けて撮像レンズ3aが配置されている。
また図示のような装着状態において、ユーザの両眼の直前、即ち通常の眼鏡におけるレンズが位置する場所に、左眼用と右眼用の一対の表示パネル部2a、2aが配置される構成とされている。この表示パネル部2aには、例えば液晶パネルが用いられ、透過率を制御することで、図のようなスルー状態、即ち透明又は半透明の状態とできる。表示パネル部2aがスルー状態とされることで、眼鏡のようにユーザが常時装着していても、通常の生活には支障がない。
なお、表示パネル部2aは、両眼に対応して一対設けられる他、片側の眼に対応して1つ設けられる構成も考えられる。
図1(b)は、同じくユーザが頭部に装着する撮像装置1を示しているが、図1(a)のような表示パネル部2aを備えない構成である。例えば耳殻に掛けられるような装着ユニットによりユーザ頭部に装着される。そしてこの状態でユーザの視界方向を被写体方向として撮像するように、前方に向けて撮像レンズ3aが配置されている。
これら図1(a)(b)では、眼鏡型或いは頭部装着型の装着ユニットによりユーザの頭部に装着される撮像装置1を挙げたが、撮像装置1をユーザが装着するための構造は多様に考えられる。例えばヘッドホン型、ネックバンドタイプ、耳掛け式など、どのような装着ユニットでユーザに装着されるものであってもよい。さらには、例えば通常の眼鏡やバイザー、或いはヘッドホン等に、クリップなどの取付具で取り付けることでユーザに装着させる形態であってもよい。また必ずしもユーザの頭部に装着されるものでなくても良い。
また、撮像方向をユーザの視界方向としているが、装着時にユーザの後方、側方、上方、足下方向などを撮像するように撮像レンズ3aが取り付けられている構成や、撮像方向が同一又は異なる方向とされた複数の撮像系が設けられている構成も考えらえる。
さらには、1又は複数の撮像レンズ3aについて、被写体方向を手動又は自動で可変できる撮像方向可変機構を設けても良い。
図1(c)は一般にデジタルスチルカメラとして知られているような形態の撮像装置1を示している。
また図1(d)は一般にビデオカメラとして知られているような形態の撮像装置1を示している。
これら図1(c)(d)のようにユーザが所持して使用する撮像装置1も、本発明の実施の形態の一態様となる。そして図では撮像レンズ3aしか示していないが、撮像モニタ用のパネル表示部やビューファインダなどの表示デバイスも設けられている。
なお、静止画撮像や動画撮像を行う撮像装置として、これら図1(a)(b)(c)(d)に示す以外の形態も考えられることは言うまでもない。例えば携帯電話機やPDA(Personal Digital Assistant)、携帯用パーソナルコンピュータなどの機器であって、撮像装置としての機能を備えているものも本実施の形態の撮像装置1として想定できる。
また、これらの各種形態において、例えば外部音声を集音するマイクロホンを設け、撮像時に、画像データと共に記録する音声信号を得るようにしてもよい。また音声出力を行うスピーカ部やイヤホン部を形成するようにしても良い。
また撮像レンズ3aの近辺に、被写体方向への照明を行う発光部を、例えばLED(Light Emitting Diode)等により設けたり、静止画撮像のためのフラッシュ発光部を設けることも考えられる。
[2.撮像装置の構成例]

撮像装置1の構成例を図2で説明する。
システムコントローラ10は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ部、インターフェース部を備えたマイクロコンピュータにより構成され、撮像装置1の全体を制御する制御部とされる。このシステムコントローラ10は内部のROM等に保持したプログラムに基づいて、各種演算処理やバス13を介した各部と制御信号等のやりとりを行い、各部に所要の動作を実行させる。
撮像部3は、撮像光学系、撮像素子部、撮像信号処理部を有する。
撮像部3における撮像光学系では、図1に示した撮像レンズ3aや、絞り、ズームレンズ、フォーカスレンズなどを備えて構成されるレンズ系や、レンズ系に対してフォーカス動作やズーム動作を行わせるための駆動系等が備えられる。
また撮像部3における撮像素子部では、撮像光学系で得られる撮像光を検出し、光電変換を行うことで撮像信号を生成する固体撮像素子アレイが設けられる。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイとされる。
また撮像部3における撮像信号処理部では、固体撮像素子によって得られる信号に対するゲイン調整や波形整形を行うサンプルホールド/AGC(Automatic Gain Control)回路や、ビデオA/Dコンバータを備え、デジタルデータとしての撮像画像データを得る。また撮像画像データに対してホワイトバランス処理、輝度処理、色信号処理、ぶれ補正処理などを行う。
これらの撮像光学系、撮像素子部、撮像信号処理部を有する撮像部3により、撮像が行われ、撮像画像データが得られる。
この撮像部3の撮像動作によって得られた画像データは、撮像制御部6で処理される。
撮像制御部6は、システムコントローラ10の制御に従って、撮像画像データを所定の画像データフォーマットに変換する処理や、変換した撮像画像データを、動作状況に応じて画像解析/合成部12,ストレージ部14,通信部15,表示制御部7へ供給する処理を行う。
また撮像制御部6はシステムコントローラ10の指示に基づいて、撮像部3における撮像動作のオン/オフ制御、撮像光学系のズームレンズ、フォーカスレンズの駆動制御、撮像素子部の感度やフレームレートの制御、撮像信号処理部の各処理のパラメータ制御や実行処理の設定などを行う。
また、撮像部3で静止画撮像を行う際には、いわゆる連続シャッタ機能として、連続的に撮像画像を取り込む動作を実行することができる。例えば撮像制御部6は、ユーザの1回のシャッタ操作に応じて、数10m秒間隔、数100m秒間隔、1秒間隔、数秒間隔などの所定の時間間隔で、連続的に撮像画像データを取り込む処理を行う。即ち撮像部3では、フレーム単位で撮像画像データを生成して撮像制御部6に出力できるが、撮像制御部6は、1回の静止画撮像において、そのシャッタタイミングのフレームに加えて、異なる時間で撮像された複数のフレームの撮像画像データを取り込むようにする。
なお、連続シャッタ機能で複数フレームの撮像画像データを取り込む場合、撮像制御部6は、各フレームの取込タイミング毎に、撮像信号処理に関するパラメータを変更させ、信号処理上で輝度レベルを異なるものとしたり、色合いを変えたり、感度を変更するようにしても良い。また、フォーカス状態(焦点距離)を変更しながら複数フレームを取り込んでいくことで、各フレームとして異なる焦点距離の撮像画像を得るようにしても良い。
また、いわゆる動画撮像と同様にして連続的に各フレームを撮像画像データとして取り込んでもよい。
画像解析/合成部12は、この撮像装置1が取得した複数のフレームの撮像画像データを用いて、画像合成処理を行う。
合成処理の対象とする複数のフレームの撮像画像データとは、例えば上記のように連続シャッタ機能で撮像された複数のフレームの撮像画像データである。
なお、撮像装置1が取得できる撮像画像データとしては、外部の撮像装置で撮像された撮像画像データもあり得る。例えば外部の撮像装置で撮像された撮像画像データが、その撮像装置やサーバ装置等から送信され、通信部15で受信される場合がある。
また外部の撮像装置で撮像された撮像画像データが可搬性記録媒体に記録され、その可搬性記録媒体をストレージ部14(ストレージ部14が可搬性記録媒体に対する再生機能を備えている場合)で再生することで取得する場合もある。
このため、例えば通信部15で受信した複数のフレームの撮像画像データを、画像解析/合成部12での合成処理の対象とすることもできる。
また可搬性記録媒体から再生して読み出した複数のフレームの撮像画像データを、画像解析/合成部12での合成処理の対象とすることもできる。
さらに、撮像部3,撮像制御部6で、連続シャッタ機能ではなく、通常の静止画撮像としてシャッタタイミングで1枚(1フレーム)の撮像画像データを取得した場合に、その撮像画像データと、通信部15で受信した撮像画像データ、或いは可搬性記録媒体から読み出した撮像画像データとを合わせて、合成処理の対象とする複数のフレームの撮像画像データとすることができる。
この画像解析/合成部12は、マイクロコンピュータやビデオプロセッサとしてのDSP(Digital Signal Processor)などで構成できる。また、この図2ではマイクロコンピュータによるシステムコントローラ10と別ブロックで示しているが、システムコントローラ10内で起動されるソフトウエアにより画像解析/合成部12としての動作が実現されても良い。
画像解析/合成部12で実行される画像合成処理の例については後述する。
撮像装置1においてユーザに対して表示を行う構成としては、表示部2、表示制御部7が設けられる。
この表示部2は、上述した液晶パネル等による表示パネル部2aと、表示パネル部2aを表示駆動する表示駆動部が設けられる。
表示駆動部は、撮像制御部6から供給される画像データを、例えば液晶ディスプレイとされる表示パネル部2aにおいて表示させるための画素駆動回路で構成されている。画素駆動回路は表示パネル部2aにおいてマトリクス状に配置されている各画素について、それぞれ所定の水平/垂直駆動タイミングで映像信号に基づく駆動信号を印加し、表示を実行させる。
表示制御部7は、システムコントローラ10の制御に基づいて、表示部2における画素駆動回路を駆動し、表示パネル部2aに所定の表示を実行させる。
即ち、撮像部3での撮像モニタとしての表示や、ストレージ部14に取り込まれた撮像画像データの再生表示、さらには通信部15で受信したデータの表示、各種キャラクタの表示などを、表示パネル部2aにおいて実行させる。
またこれらの表示のために、例えば輝度レベル調整、色補正、コントラスト調整、シャープネス(輪郭強調)調整などを行うことができる。また画像データの一部を拡大した拡大画像の生成、或いは縮小画像の生成、ソフトフォーカス、モザイク、輝度反転、画像内の一部のハイライト表示(強調表示)、全体の色の雰囲気の変化などの画像エフェクト処理、撮像画像の分割表示のための画像の分離や合成、キャラクタ画像やイメージ画像の生成及び生成した画像を撮像画像に合成する処理なども行うことができる。
また表示制御部7は、システムコントローラ10の指示に基づいて表示駆動部を制御し、表示パネル部2aの各画素の透過率を制御して、スルー状態(透明又は半透明の状態)とすることもできる。
ストレージ部14は、各種データの保存に用いられる。例えば撮像画像データや合成画像データの保存に用いられる。
このストレージ部14は、RAM或いはフラッシュメモリなどの固体メモリにより構成されても良いし、例えばHDD(Hard Disk Drive)により構成されてもよい。
また内蔵の記録媒体ではなく、可搬性の記録媒体、例えば固体メモリを内蔵したメモリカード、光ディスク、光磁気ディスク、ホログラムメモリなどの記録媒体に対応する記録再生ドライブなどとされても良い。
もちろん、固体メモリやHDD等の内蔵タイプのメモリと、可搬性記録媒体に対する記録再生ドライブの両方が搭載されてもよい。
このストレージ部14は、システムコントローラ10の制御に基づいて、撮像画像データや合成画像データを記録し、保存する。
またシステムコントローラ10の制御に基づいて、記録したデータを読み出し、システムコントローラ10や表示制御部7などに供給する。
通信部15は外部機器との間でのデータの送受信を行う。この通信部15は、無線LAN、ブルートゥースなどの方式で、例えばネットワークアクセスポイントに対する近距離無線通信を介してネットワーク通信を行う構成としても良いし、対応する通信機能を備えた外部機器との間で直接無線通信を行うものでもよい。
また、必ずしも無線通信ではなく、外部機器との間の有線接続により外部機器と通信を行うものでもよい。
この撮像装置1では、ユーザの操作のために操作入力部11が設けられる。
操作入力部11は、例えばキー、ダイヤル等の操作子を有するようにし、キー操作等としてのユーザの操作を検知する構成としてもよいし、或いはユーザの意識的な挙動を検知する構成としても良い。
操作子を設ける場合、例えば、電源オン/オフ操作、撮像系の操作(例えばシャッタ操作、ズーム等の操作や、信号処理の指示操作)、表示関連操作(例えば表示内容の選択や表示調整操作)などに用いる操作子が形成されればよい。
また、操作子としてタッチパッドやタッチパネルを設けても良い。例えば表示部2においてタッチパネルを配し、表示画面上にユーザがタッチすることで操作入力が行われるようにする。
また、画面上でカーソル等のポインタを移動させる操作子として、上記タッチパネルや十字キー、ジョグダイヤル等を備えるようにしてもよい。或いは、加速度センサ、角速度センサ等を内蔵したリモートコントローラにより、ユーザがリモートコントローラを手に持って動かすことで、画面上のカーソル等が移動するような操作が実行可能としても良い。
例えば図1(c)(d)のような撮像装置を考えた場合、操作キー、ダイヤル、タッチパネル等により各種の操作を行うことが好適である。
一方、図1(a)(b)のような頭部に装着する撮像装置の場合、操作キー、ダイヤル、タッチパネル等を設けてもよいし、リモートコントローラを使用する形態も想定されるが、多数の操作子等の配置が難しいことを考慮すれば、ユーザの挙動を検知して操作入力とみなす構成を採ることも好適となる。
ユーザの挙動を検知する構成とする場合は、加速度センサ、角速度センサ、振動センサ、圧力センサ等を設けることが考えられる。
例えばユーザが撮像装置1を側面側からコツコツと軽く叩くといったことを、加速度センサ、振動センサ等で検知し、例えば横方向の加速度が一定値を越えたときにシステムコントローラ10がユーザの操作として認識するようにすることができる。また、加速度センサや角速度センサによりユーザが右側から側部(眼鏡のツルに相当する部分)を叩いたか、左側から側部を叩いたかを検出できるようにすれば、それらを、それぞれ所定の操作として判別することもできる。
またユーザが頭を回す、首を振るなどとすることを加速度センサや角速度センサで検知し、これをシステムコントローラ10がユーザの操作として認識することができる。
また、撮像装置1の左右の側部(眼鏡のツルに相当する部分)等に圧力センサを配置し、右側部をユーザが指で押したときは望遠方向のズーム操作、左側部をユーザが指で押したときは広角方向のズーム操作などとすることもできる。
さらには、生体センサとしての構成を備えるようにし、ユーザの生体情報を検出して、操作入力と認識するようにしても良い。生体情報とは、脈拍数、心拍数、心電図情報、筋電、呼吸情報(例えば呼吸の速さ、深さ、換気量など)、発汗、GSR(皮膚電気反応)、血圧、血中酸素飽和濃度、皮膚表面温度、脳波(例えばα波、β波、θ波、δ波の情報)、血流変化、眼の状態などである。
そしてシステムコントローラ10は生体センサの検出情報を、ユーザの操作入力として認識する。例えばユーザの意識的な挙動として目の動き(視線方向の変化やまばたき)が考えられるが、ユーザが3回まばたきをしたことを検知したら、それを特定の操作入力と判断するなどである。さらには、上記生体情報の検知によりユーザが撮像装置1を装着したことや外したこと、あるいは特定のユーザが装着したことなども検出可能であり、システムコントローラ10がその検出に応じて電源オン/オフなどを行うようにしてもよい。
なお生体センサは、例えば眼鏡型の撮像装置1の装着フレーム内側に配置することで、例えばユーザの側頭部や後頭部に接触して、上記各種情報を検知できるようにしてもよいし、撮像装置1の装着フレーム部分とは別体として、身体の所定箇所に装着されるようにしてもよい。
また眼の状態や動き、瞳孔などの状態の検出のためには、ユーザの眼部を撮像するカメラを用いることが考えられる。
操作入力部20は、このように操作子、加速度センサ、角速度センサ、振動センサ、圧力センサ、生体センサ等として得られる情報をシステムコントローラ10に供給し、システムコントローラ10はこれらの情報によりユーザの操作を検知する。
なお、ユーザの挙動を検出するための構成としては、さらにユーザの声を検知するセンサ、唇の動きを検知するセンサなど、他のセンサが設けられても良い。
本例の撮像装置1において、シャッタ操作や、後述する画像合成処理において手動操作を行う場合における合成対象領域の選定、合成する他のフレームとして時間軸上で並ぶフレーム選定などの操作には、上記のタッチパネル操作、カーソル移動操作、ユーザ挙動による操作を割り当てることができる。
以上、撮像装置1の構成を示したが、これは一例にすぎない。実際に実施される動作例や機能に応じて各種の構成要素の追加や削除は当然考えられる。
図3は撮像装置1の動作形態を、外部機器との関連において例示したものである。
図3(a)は撮像装置1が単体で動作する場合であり、この場合、撮像装置1では、例えば撮像動作により取得した複数のフレームの撮像画像データを用いて画像合成処理を行うことができる。撮像した複数のフレームの撮像画像データや、合成処理により生成した合成画像データは、保存処理としてストレージ部14に保存する。
またストレージ部14として、光ディスク、メモリカードなどの可搬性記録媒体に対する再生部を備える場合は、可搬性記録媒体から読み出した撮像画像データを利用した合成処理も可能である。
図3(b)は撮像装置1が通信部15により外部機器70と通信を行う例である。この場合、撮像動作により取得した撮像画像データを用いて画像合成処理を行う他、撮像画像データを外部機器70から取得して、画像合成処理に用いることも想定される。例えば外部機器70が撮像装置である場合や、外部機器70が他の撮像装置で撮像した撮像画像データを格納している場合、この外部機器70から撮像画像データを送信させ、通信部15で受信する。このように通信部15で受信した撮像画像データを用いて画像合成処理を行う。
また画像合成処理により生成した合成画像データについての保存処理としては、撮像装置1の内部のストレージ部14に保存する他、通信部15から外部機器に合成画像データを送信し、外部機器70の画像格納部71に保存させるという動作例が考えられる。
外部機器70との通信は、無線通信だけでなく、有線通信も想定される。
図3(c)は、撮像装置1の通信部15が、特にインターネット等のネットワーク60を介した通信アクセス機能を備えることで、ネットワーク60で接続される外部機器70と通信を行う例である。動作例は上記図3(b)の場合と同様に考えられる。
ネットワーク60とは、インターネットの他に、携帯電話通信網、PHS通信網、アドホックネットワーク、LANなど、各種考えられる。
また図3(b)(c)における外部機器70とは、図2のような構成の他の撮像装置1も想定できるし、通信機能を備えたデータサーバ、パーソナルコンピュータ、ビデオプレーヤ、ビデオカメラ、デジタルスチルカメラ、撮像機能を備えた携帯電話機、PDAなど多様な機器が想定できる。
[3.画像合成及び保存]

画像解析/合成部12で行われる合成処理について説明する。
上述のように画像解析/合成部12では、複数のフレームの撮像画像データを用いて合成処理を行う。例えば撮像部3での連続シャッタ機能による複数のフレームの撮像画像データを対象として合成処理を行う。
図4(a)は、或る撮像画像データとしての複数のフレーム(F#1、F#2、F#3・・・)を示している。これは集合写真の撮像を行った場合であり、各フレームはt1時点、t2時点、t3時点・・・で示す異なるタイミングで取り込まれたフレームである。例えば数100m秒間隔で撮像されたフレームであるとする。例えばユーザがシャッタ操作を行ったタイミングの撮像画像フレームがフレームF#1であり、これに続いてフレームF#2以降がそれぞれ数100m秒間隔で取り込まれたとする。
ここで、図4(a)に示すフレームF#1としての撮像画像内容をみると、被写体となっている多数の人の内、人物H1,H2,H3の3人が眼を閉じている。
例えばこのような画像となったときに、フレームF#1を合成処理の基本画像となる合成ベース画像とし、この合成ベース画像上で選定した合成対象領域にフレームF#2以降の画素データを当てはめていくような合成を行い、結果として図4(b)のような合成画像を生成する。この図4(b)の合成画像は、被写体となっている全ての人が眼を開いた画像となっている。
被写体となった人々のまばたきにより、ユーザがシャッタ操作を行ったタイミングで取り込んだフレームF#1の画像において、眼を閉じている人がいるが、数100m秒間隔である他のフレームF#2、F#3、F#4・・・では、フレームF#1で眼を閉じていた人が眼を開いている可能性が高い。
フレームF#2、F#3、F#4、F#5,F#6の画像例を図5に示す。
例えば人物H1については、フレームF#4、F#5、F#6の画像では眼を開いている。人物H2は、フレームF#3、F#4、F#5の画像では眼を開いている。人物H3は、フレームF#2、F#3、F#5、F#6の画像では眼を開いている。
この場合、フレームF#1の画像において眼を閉じている人物H1、H2,H3の顔画像部分をそれぞれ合成対象領域とし、それぞれ人物H1、H2,H3が眼を開いている画像に置き換えればよい。
例えば人物H1の顔の部分を1つめの合成対象領域とし、その領域の画素データを、フレームF#4の画素データに置き換える。
また人物H2の顔の部分を2つめの合成対象領域とし、その領域の画素データを、フレームF#3の画素データに置き換える。
また人物H3の顔の部分を3つめの合成対象領域とし、その領域の画素データを、フレームF#2の画素データに置き換える。
このようにすることで、フレームF#1の画像上で人物H1、H2,H3の顔画像が目を開いた画像に置き換えられたことになり、図4(b)のように全員が眼を開いた合成画像が生成できる。
なお、置き換える画素データを抽出するフレームは、合成ベース画像であるフレームF#1になるべく時間的に近いフレームが好ましい。合成対象領域の内外での画像の差異をなるべく少なくするためである。
図6は、合成処理の前後でのストレージ部14の画像保存状態を模式的に示している。
例えば撮像部3での撮像動作が行われる毎に、撮像画像データVD1,VD2,VD3・・・がストレージ部14において記録されていく。
撮像画像データVD1に関していえば、画像管理情報C1と、複数のフレームの撮像画像データF#1、F#2、F#3・・・が保存されることになる。
画像管理情報C1は、例えば撮像画像データのファイル名、画像種別(動画/静止画の別など)、データサイズ、圧縮方式、日時情報、撮像を行った装置の識別情報などを含む。
複数のフレームの撮像画像データF#1、F#2、F#3・・・については、時間差情報TMを含むようにする。例えば先頭のフレームF#1を基準とし、フレームF#2以降は、それぞれ先頭のフレームF#1からの撮像タイミングとしての時間差を時間差情報TMとする。例えば0.4秒毎に各フレームを取り込んだとすると、フレームF#1の時間差情報TM1は「0秒」、フレームF#2の時間差情報TM2は「+0.4秒」、フレームF#3の時間差情報TM3は「+0.8秒」、フレームF#4の時間差情報TM4は「+1.2秒」・・・などとする。なお時間差情報TMは、フレーム取込の実時刻(年/月/日/時/分/秒/フレーム)の情報であってもよい。
そして、例えば1回の撮像画像データVD1として撮像を行った場合、システムコントローラ10は、その撮像画像データVD1についての画像管理情報を生成すると共に、撮像画像データとしての複数のフレームF#1、F#2、F#3・・・について、それぞれ時間差情報TM1,TM2,TM3・・・を付加してストレージ部14に記録させる。
静止画撮像毎にこのような動作をおこなうことで、撮像画像データVD2,VD3・・・も同様に複数のフレームの撮像画像データが記録される。
なお、複数の各フレームの撮像画像データは、撮像部3での連続撮像によるものだけでなく、通信部15で受信された複数フレームであったり、可搬性記録媒体から読み出された複数フレームである場合もある。
また、1又は複数のフレームを撮像により取り込んだ後、さらに通信部15で受信したり可搬性記録媒体から読み出したフレームを追加してもよい。例えば撮像画像データVD1として1枚のフレームF#1を取り込んだ後、受信したり再生して取得したフレーム画像を、撮像画像データVD1に含まれるフレームF#2以降として記録しても良い。
ここで、撮像画像データVD1が図4(a)の画像であるとすると、撮像画像データVD1として図6(a)のように記録されている複数のフレームF#1、F#2・・・が、図4(a)及び図5に示した内容の画像データである。
画像解析/合成部12では、このようにストレージ部14に記録されたフレームF#1、F#2・・・を用いて上述のように合成処理を行い、例えば図4(b)の合成画像データを生成する。合成画像データが生成されたら、システムコントローラ10は、それを撮像画像データVD1に対応する合成画像データmVD1としてストレージ部14に保存させる。
図6(b)は、ストレージ部14において合成画像データmVD1が、撮像画像データVD(F#1、F#2・・・)に対応づけられて保存された様子を示している。
また、撮像画像データVD2に対応する合成画像データmVD2や、撮像画像データVD3に対応する合成画像データmVD3も、それぞれ生成されて記憶された状態を示している。
このように合成画像データmVDが保存されることで、その後、合成画像データmVDを表示部2において表示出力することができる。
なお、ストレージ部14において合成画像データmVDを記録したら、元の複数のフレームの撮像画像データF#1、F#2・・・を削除するようにしても良い。もちろん、そのまま削除せずに保存しておいてもよいし、保存しておくことで、他の合成画像データmVDを作成することができるようにしてもよい。
また、ここではストレージ部14に保存する例を述べたが、保存処理としては、合成画像データmVDを、通信部15から送信出力するという処理を行っても良い。即ち図3(b)(c)のような形態において、外部機器70の画像格納部71に合成画像データmVDの保存を行うようにすることも考えられる。
ところで、図4,図5で述べた合成処理は、被写体の全員が眼が開いた状態になるようにする例としたが、もちろんその他にも多様な合成処理が想定される。
図7,図8,図9,図10に例を示す。
図7(a)は、或る撮像画像データとしての複数のフレーム(F#1、F#2、F#3・・・)を示している。これは5人の人物の写真の撮像を行った場合であり、各フレームは例えば数100m秒間隔で撮像されたフレームであるとする。
この図7(a)に示されたフレームF#1の画像内容としては、前列左側の人物が横を向いてしまった瞬間の画像となっており、また後列左側の人物の表情が変な表情の画像となってしまった場合を示している。
このような場合も、これらの人物の顔の部分を合成対象領域とし、その各合成対象領域の画素データを、他のフレームF#2、F#3・・・から探し出して合成することで、例えば図7(b)のように、全員が前を向き、また良い表情で写された画像とすることができる。
図8(a)は一人の人物を被写体としたときの撮像画像データとしての複数のフレーム(F#1、F#2、F#3・・・)を示している。図8(a)に示すフレームF#1の画像内容としては、バックに無関係な人物が撮し込まれた画像となっている。
例えばこの無関係な人物の部分を合成対象領域とし、他のフレームF#2、F#3・・・からその人物が写っていない画像を探し出して合成することで、図8(b)のように、目的の人物のみが写された画像とすることができる。
図9(a)は、或る撮像画像データとして、日なたと日陰の影響で、画像内で明暗が大きく分かれてしまった状態を示している。この場合、画像の上半分は日陰となって、明度が低く、見えにくい画像となっており、画像の下半分は、良好な明度となっている。
一方、図9(b)は、撮像感度を上げて撮像した場合の画像であり、図9(a)とは逆に、上半分は良好な明度となっているが、感度を上げたことにより下半分が明るさが過剰となって見えにくい画像となっているものである。
例えば1秒おきなどの連続撮像の際に、感度を変化させながら撮像をおこなって複数フレームを取り込むことで、その複数フレームの中に、図9(a)(b)のような画像が含まれることになる。
この場合、図9(a)のフレームを合成ベース画像とし、上半分の日陰部分を合成対象領域とする。そしてその合成対象領域の画素データを、図9(b)のフレームの画素データに置き換える合成処理を行うことで、図9(c)のように、画面全面が適度な明度となった合成画像データを得ることができる。
図10(a)は例えば撮像装置1の位置から距離が異なる複数の人物を被写体としたときの撮像画像データとしての複数のフレーム(F#1、F#2、F#3・・・)を示している。図10(a)に示すフレームF#1の画像内容としては、例えば最も近い位置(画像上左側)にいる人物に焦点が合っているが、離れた位置にいる他の人物は、焦点距離が合わず、ボケた画像となっている。
ここで、複数のフレーム(F#1、F#2、F#3・・・)を撮像しているときに、撮像部3で焦点距離を徐々に変化させるようにする。すると、或るフレームとして真ん中の人物に焦点が合った画像が得られ、また或るフレームとして右側の人物に焦点が合った画像が得られる。
この場合、図10(a)のフレームを合成ベース画像とし、被写体がボケている領域を合成対象領域とする。そしてその合成対象領域の画素データを、その領域がボケていない他のフレームの画素データに置き換える合成処理を行うことで、図10(b)のように、例えば距離が異なる人物の全員がボケていない良好な合成画像データを得ることができる。
もちろん、これら例示した以外にも多様な合成処理が可能である。
[4.画像合成処理]

上記のような画像合成を行うためのシステムコントローラ10の処理及び画像解析/合成部12の処理を図11,図12に示す。
まず図11でシステムコントローラ10の処理を述べる。
システムコントローラ10はステップF101で合成トリガの発生をチェックする。システムコントローラ10は、撮像装置1において合成処理を開始させる際の何らかの信号や動作状態を合成トリガ発生として認識する。
例えばシステムコントローラ10は、図6(a)のように記録された或る撮像画像データを表示部2において表示出力している際に、ユーザが合成処理の操作を行った場合に、合成トリガ発生と認識する。
なお、図6(a)のような保存状況の際の撮像画像データの表示とは、例えば撮像画像データVDとしての先頭のフレームF#1の撮像画像データを表示するものとすればよい。ユーザがシャッタ操作を行う毎に、撮像処理が行われて撮像画像データVD1,VD2・・・が保存されていくが、本例の場合、1回の撮像において複数フレームが取り込まれる。このときに、例えば先頭のフレームF#1が、ユーザの操作によるシャッタタイミングでの画像データであり、フレームF#2以降は、シャッタタイミングより所定時間間隔で取り込んだ画像データとした場合、フレームF#1の画像データを、基本的な撮像画像データとみなせばよい。従って、撮像直後のモニタリングや、ユーザが保存した撮像画像のモニタリングを行おうとして表示を求める操作を行った場合、各撮像画像データVD1,VD2・・・として、フレームF#1の画像データを表示する。
或る撮像画像データVDを表示させているときに、ユーザが合成処理の指示の操作を行った場合は、その撮像画像データVDについての合成処理を開始することになる。
また、保存された撮像画像データVD1,VD2・・・を一覧表示を実行させているときに、ユーザが操作入力により、1又は複数の撮像画像データを指定して、合成処理の操作を行った場合も、システムコントローラ10は合成トリガの発生として認識し、指定された1又は複数の撮像画像データVDについての合成処理を開始することになる。
またユーザ操作により、保存された全撮像画像データVD1,VD2・・・についての合成処理の指示があった場合も、システムコントローラ10は合成トリガの発生として認識し、全ての撮像画像データVDについての合成処理を開始する。
さらに、撮像時に自動的に合成処理が実行されることも考えられる。例えば撮像画像データVD1としてフレームF#1、F#2・・・の取込が行われた際に、システムコントローラ10は合成トリガの発生と認識し、自動的にフレームF#1、F#2・・・を用いた合成処理に進むような動作例である。
また図3(b)(c)のような形態で通信部15によって外部機器70から送信されてきた撮像画像データ(他の撮像装置で撮像された複数フレームの撮像画像データ)を受信した場合や、可搬性記録媒体に対する記録再生ドライブが装備されている構成において可搬性記録媒体から複数フレームの撮像画像データが再生された場合なども、システムコントローラ10は合成トリガの発生と認識して、取得した複数フレームの撮像画像データを用いた合成処理に進むような動作例も考えられる。
さらに、上述のように生体センサを備える場合、ユーザの主観的な評価に基づいて合成トリガの判別を行ってもよい。例えば、撮像画像データを表示させてユーザに提示したときに検出される脳波等から、撮像画像に対するユーザの満足度を推定する。そしてユーザが不満を感じていると推定した場合に、合成トリガ発生と判断し、当該撮像画像データについての合成処理に進むという動作例も考えられる。
例えば以上のような各種の状況として、合成トリガの発生を認識したら、システムコントローラ10は処理をステップF101からF102に進め、画像解析/合成部12に処理対象画像についての合成処理の実行を指示する。
例えば上記のようなユーザ操作や、撮像動作等に応じて、1又は複数の撮像画像データVDについての合成処理を行う場合、ステップF102では、システムコントローラ10は、1又は複数の処理対象のうちの1つの撮像画像データVDを指定して画像解析/合成部12に合成処理を指示する。
このステップF102の指示に応じて、画像解析/合成部12では後述する図12の画像合成処理を実行する。
画像解析/合成部12に合成処理の開始を指示したら、システムコントローラ10は、ステップF103で、画像解析/合成部12での合成処理が完了したか否かを確認する。またステップF104で画像解析/合成部12から合成処理が不要もしくは不能との通知があったか否かを確認する。
画像解析/合成部12から、合成処理完了の通知があった場合は、システムコントローラ10は処理をステップF103からF105に進め、生成された合成画像データの保存のための制御処理を行う。即ち図6(b)で説明したように、生成された合成画像データmVDをストレージ部14に転送し、記録させる。或いは、外部機器70において保存が行われるように、生成された合成画像データmVDを通信部15から外部機器70に送信させる制御を行う。
合成画像データmVDの保存制御を行ったらステップF106に進む。また合成不要又は合成不能の通知を受け取った場合は、ステップF104からF106に進む。
システムコントローラ10はステップF106で、まだ他に合成処理対象の撮像画像データVDが存在するか否かを確認する。複数の撮像画像データVDを処理対象として合成処理を開始した場合であって、まだ処理対象とされた全ての撮像画像データVDについての処理を終えていなければ、ステップF102に戻って、次の撮像画像データVDについて、同様にステップF102〜F105の処理を行う。
処理対象とされた全ての撮像画像データVDについてステップF102〜F105の処理を終えたら、ステップF107に進み、合成結果を表示部2に表示させ、合成処理を終える。例えば合成結果として、対象とされた撮像画像データVDについての合成完了/合成不要/合成不能をユーザに提示したり、生成された合成画像データmVDを表示させるなどの処理を行う。
続いて、システムコントローラ10の指示に応じて画像解析/合成部12が実行する合成処理を図12で説明する。
画像解析/合成部12は、上記図11のステップF102としてのシステムコントローラ10からの合成処理の指示があることに応じて、図12の処理をステップF201からF202に進め、画像合成処理を開始する。
画像解析/合成部12は、ステップF202で、システムコントローラ10から指示された処理対象の撮像画像データVDを取り込む。例えば図6(a)のように撮像画像データがストレージ部14に記録されている際に、処理対象として撮像画像データVD1を指示された場合は、その撮像画像データVD1における各フレームF#1、F#2、F#3・・・を取り込むことになる。
続いて画像解析/合成部12はステップF203で、取り込んだ複数のフレームの撮像画像データの内の1つを合成ベース画像に設定し、その合成ベース画像上で1又は複数の合成対象領域AR(AR1〜ARn)を選定する。
複数フレームのうちでどのフレームを合成ベース画像とするかの設定としては、自動設定と、ユーザ操作に基づく手動設定のいづれかが考えられる。
自動設定としては、例えば時間的に先頭となるフレームF#1とすればよい。但し、複数フレームのうちで、時間的に中間となるフレームを合成ベース画像としてもよいし、時間的に終端となるフレームを合成ベース画像としてもよい。もちろんそれ以外で選択しても良い。また時間的な前後の条件ではなく、撮像パラメータなどに応じて設定してもよい。例えば複数フレームを撮像する際に、或る撮像パラメータ(例えば感度や輝度処理、色処理のパラメータ、或いは焦点距離など)を変更しながら各フレームを撮像した場合、そのパラメータが中間値となったフレームを合成ベース画像とするなどである。
手動設定としては、例えば各フレームF#1、F#2、F#3・・・を順次表示部2において表示出力させたり、縮小画像で一覧表示させるなどして、ユーザに選択を求めるような手法が想定される。
合成ベース画像が選択されたら、その合成ベース画像上で合成対象領域を選定する。例えば図13、図14に選定された合成対象領域の例を示す。
図13(a)(b)(c)(d)及び図14は、それぞれ合成ベース画像とされた或るフレームの画像例を示している。
図13(a)は、集合写真としての画像であるが、この画像内で、眼を閉じている人物の顔領域が、それぞれ合成対象領域AR1,AR2,AR3として設定された例を示している。
図13(b)は、5人の人物の画像において、横を向いている人の顔領域や、変な表情になった人物の顔領域が合成対象領域AR1,AR2として設定された例を示している。
図13(c)は、画像内に無関係な人物が撮し込まれた場合に、その無関係な人物の領域が合成対象領域AR1と設定された例である。
図13(d)は、画像内で明度が大きく分かれた場合に、明度が低い領域(日陰となった領域)を、合成対象領域AR1と設定した例である。
図14は、複数の人物の画像において、焦点がボケた状態となっている人物の領域が合成対象領域AR1,AR2として設定された例を示している。
例えばこのように合成対象領域を設定するが、その設定処理も自動設定と手動設定が想定される。
自動設定としては、例えば次のような例がある。
合成ベース画像について画像解析を行い、画像内に人物の顔が存在するか否かを判別する。1又は複数の人物の顔が存在したら、その人物が眼を開いているか否か(眼が検出できるか否か)を検出する。そして眼を閉じている(眼が検出できない)顔画像が存在したら、その顔画像の領域を合成対象領域とする。このような処理により図13(a)のような合成対象領域の設定が可能である。
また、画像解析によって視線方向や顔の表情を判定できる場合は、視線が正面を向いていない顔画像の領域や、笑顔あるいは自然な表情でない顔画像の領域を検出し、その領域を合成対象領域とすることで、図13(b)のような設定が可能となる。
なお、顔の表情の判定の処理は各種考えられるが、例えば顔を構成するパーツを抽出し、各パーツに評価値を与えて、表情判定する方式が採用できる。
例えば笑顔を判定する場合、顔を構成するパーツとして、画像から眼、眉、唇の各部分を抽出する。そして例えば眉については、角度を判定する。いわゆる「つり上がり」の状態を低いポイントとし、眉の両端が下がるほど、高いポイントを付与するようにする。また眼については、瞳孔の開き具合を判定し、瞳孔が開いているほど高いポイントを付与するようにする。唇については、両端の角度が下がっているほど低く、逆に両端の角度が上がっているほど高いポイントを付与する。
例えばこのように各パーツに、笑顔判定のポイントを付与し、それらを加算(或いはパーツ毎に重み付けを変えて加算)し、笑顔ポイントとする。この笑顔ポイントが高いほど、「良い表情」と判定する。
もちろんこれは一例であり、頬の状態や、笑ったときに生じる皺などを判定要素としてもよい。
また、笑顔判定でなく、怒った表情や不機嫌な表情など、他の表情も、顔を構成する各パーツの画像から推定することも可能である。
また、被写体として無関係な人物が存在する場合、その検出も可能である。
例えば合成ベース画像上で顔画像を検出した場合、その前後のフレームで同じ位置に顔を検出できない画像があれば、その人物は、撮像時に背後を通り過ぎた人物と推定できる。特に、顔領域が画像の中心から外れており(例えば画像中心から1/2よりも外側であり)、その合成ベース画像の前後のフレームの画像で、同じ位置に顔を検出できない画像が存在すれば、その人物が無関係な人物である可能性は高い。
また、合成ベース画像上で顔画像を検出した場合、その顔領域の面積または対角線の長さが十分に小さい場合において、その合成ベース画像の前後のフレームの画像で、同じ位置に顔を検出できない画像があれば、その人物が無関係な人物である可能性は高い。十分い小さいとは、例えば画像全体の面積または画像の対角線の長さの1/10以下などである。
さらに合成ベース画像上で複数の顔画像が存在する場合に、或る人物の顔画像の領域が、他の人物の顔画像の領域よりも十分に小さい場合も、背景にたまたま撮し込まれた人物と推定できる。例えば画像内の最大の顔領域の1/2以下などの顔画像である。この場合も、その合成ベース画像の前後のフレームの画像で、同じ位置に顔を検出できない画像が存在すれば、その人物が無関係な人物である可能性は高くなる。
例えばこのような処理により、自動的に無関係な人物の判定が可能となり、例えば図13(c)のような合成対象領域の設定が可能となる。
また、合成ベース画像内において、明暗の差、輝度の差、色合いの差を検出し、極端に異なる領域が存在すれば、その領域を合成対象領域とすることも可能である。これにより図13(d)のような合成対象領域の設定ができる。
また、合成ベース画像内において、部分的にボケた画像があることは、画像内で被写体の輪郭線となる部分の明確さを比較することなどで判定できる。例えば明瞭な輪郭線を持つ被写体と不明瞭な輪郭線を持つ被写体が混在していれば、不明瞭な輪郭線を持つ被写体は、焦点距離が合っていないボケた画像部分と判定できるため、その領域を合成対象領域とすることも可能である。これにより図14のような合成対象領域の設定ができる。
例えば以上のような手法を用いることで、自動設定として合成対象領域の設定が可能となる。もちろんこれ以外にも自動設定の手法は考えられる。
なお自動設定で1又は複数の合成対象領域を設定した場合、例えば図13,図14のような合成対象領域を示す画像を表示部2において表示出力させ、当該合成対象領域において合成処理を行って良いか否かの判断をユーザに求めるようにしてもよい。その場合、ユーザが表示された各合成対象領域について合成実行のOK・キャンセルの操作入力を行うことにより、合成対象領域を確定させる。
合成対象領域を手動設定とする場合は、表示部2において合成ベース画像を表示させ、その合成ベース画像上で、ユーザが合成対象領域とする領域を指定する操作を行うようにする。ユーザは、タッチパッド、タッチパネル、カーソル/ポインタ操作、数値入力などの方式で領域を指定する操作を行う。
領域指定入力の例を図15,図16,図17,図18に示す。各図の格子の一升は、画像を構成する1画素を示しているものとする。
図15(a)は、ユーザが操作入力により画面上で2つの位置P1,P2を指定することに応じて、その位置P1,P2の画素を対角の点とする矩形の領域を合成対象領域ARとする例である。
図15(b)は、ユーザが操作入力により画面上で1つの位置P1を指定するとともに、半径rの値を入力することに応じて、その位置P1の画素を中心とした半径rの円に含まれる、斜線部の画素領域を合成対象領域ARとする例である。
図16(a)は、ユーザが操作入力により画面上で4つの位置P1,P2,P3,P4を指定することに応じて、その位置P1,P2,P3,P4の画素を含む、斜線部の略楕円状の画素領域を合成対象領域ARとする例である。
図16(b)は、ユーザが操作入力により画面上で3以上の任意の位置、例えばここでは5つの位置P1,P2,P3,P4,P5を指定することに応じて、その位置P1,P2,P3,P4,P5の画素をそれぞれ直線で結んだ範囲に含まれる、斜線部の画素領域を合成対象領域ARとする例である。
図17(a)は、ユーザが操作入力により画面上で閉曲線Lを描くことにより、その閉曲線Lの範囲に含まれる、斜線部の画素領域を合成対象領域ARとする例である。
図17(b)は、ユーザが操作入力により画面上で閉曲線Lを描いた場合に、その閉曲線Lの範囲に含まれる画素を除いた、斜線部の画素領域を合成対象領域ARとする例である。
図18(a)(b)は、ユーザが画像内の人物を指定する例である。図18(a)のように画像内で或る人物を指定するように位置P1を入力する。これに応じて、位置P1の人物の顔画像の領域を判定し、図18(b)のように、その指定された人物の顔画像の領域を合成対象領域ARとする例である。
例えば以上のような手法で手動設定として合成対象領域の設定が可能となる。もちろんこれ以外にも手動設定の手法は考えられる。
画像解析/合成部12は、図12のステップF203において上記の自動設定又は手動設定により合成対象領域ARの設定処理を行ったら、ステップF204で、合成対象領域ARの設定の有無を確認する。
例えば自動設定として上記のような各種の画像解析を行った場合に、合成対象領域とする画素領域が見つからなかったら合成対象領域無しとなる。或いは、自動設定で1又は複数の合成対象領域を設定しても、ユーザが全ての合成対象領域について合成処理の必要無しとしてキャンセル操作を行った場合は、合成対象領域無しとなる。
さらに、手動設定を行う場合に、表示された合成ベース画像において合成する領域(つまりユーザが修正したいと思う領域)が存在しないとして、ユーザが領域入力を行わなかった場合、或いは合成処理自体のキャンセル操作を行った場合は、合成対象領域無しと判定する。
合成対象領域無しと判定した場合は、システムコントローラ10から指示された今回の撮像画像データについては、合成処理の必要はないとして、ステップF205でシステムコントローラ10に合成不要通知を送信し、図12の処理を終える。
1以上の合成対象領域が設定された場合、画像解析/合成部12の処理はステップF206に進み、以降の処理のために処理制御変数xを「1」に設定する。
ステップF207では、合成対象領域AR(x)について、他のフレームから合成用の部分画像(画素データ)を探索する処理を行う。つまりステップF203で設定した1又は複数の合成対象領域のうち、最初の合成対象領域AR1に当てはめる画素データを探索する。
この処理も自動処理と手動処理が想定される。
自動処理の場合は、画像解析/合成部12が、合成ベース画像以外の各フレームにおいて、合成対象領域ARと同一の領域の画像内容を解析し、以下の例のように合成用の画素データを抽出する。
例えば図13(a)のように眼を閉じている顔画像を合成対象領域ARとした場合、その合成ベース画像の前後のフレームにおける同一の画素領域において、眼を検出できる顔画像を探索する。合成対象領域ARと同一の画素領域における顔画像が、眼を開いている顔画像であるフレームを検出したら、そのフレームの当該画素領域の画素データを、合成対象領域ARに当てはめる画素データとする。
また図13(b)の合成対象領域AR1のように、正面を向いていない顔画像を合成対象領域ARとした場合も、その合成ベース画像の前後のフレームにおける同一の画素領域において、正面を向いている顔画像を探索する。合成対象領域ARと同一の画素領域における顔画像が、正面を向いている顔画像であるフレームを検出したら、そのフレームの当該画素領域の画素データを、合成対象領域ARに当てはめる画素データとする。正面を向いた顔か否かの判別は、例えば眼球の位置や、顔の要素(目、鼻、口、耳等)の位置関係などから可能である。
また同じく図13(b)の合成対象領域AR2のように、表情が乱れた顔画像を合成対象領域ARとした場合も、その合成ベース画像の前後のフレームにおける同一の画素領域において、笑顔や通常の表情の顔画像を探索する。合成対象領域ARと同一の画素領域における顔画像が、笑顔や通常の表情の顔画像であるフレームを検出したら、そのフレームの当該画素領域の画素データを、合成対象領域ARに当てはめる画素データとする。
図13(c)のように無関係な人物など、不要な被写体の領域を合成対象領域ARとした場合は、その合成ベース画像の前後のフレームにおける同一の画素領域において、無関係な人物等が存在しないフレームを探索し、そのフレームの当該画素領域の画素データを、合成対象領域ARに当てはめる画素データとする。
図13(d)のように、明暗、輝度差、色合いの差などが極端に異なる領域を合成対象領域ARとした場合は、その合成ベース画像の前後のフレームにおける同一の画素領域において、合成ベース画像の合成対象領域AR以外の部分と比較して明暗、輝度差、色合いの差などが小さくなっているフレームを探索する。そしてその探索したフレームの当該画素領域の画素データを、合成対象領域ARに当てはめる画素データとする。
図14のように、焦点距離が合わずにボケた被写体の領域を合成対象領域ARとした場合は、その合成ベース画像の前後のフレームにおいて、同一の画素領域が焦点の合った画像となっているフレームを検出し、そのフレームの当該画素領域の画素データを、合成対象領域ARに当てはめる画素データとする。
一方、合成用の画素データの探索を手動処理で行う場合は、次のような例が考えられる。
例えば合成ベース画像を表示部2において表示出力するとともに、その合成対象領域AR(x)について、順次、他のフレームの同一領域の画素データを合成させて表示させる。例えば合成ベース画像をフレームF#1としているとき、合成対象領域AR1に、フレームF#2の同一領域を当てはめて表示する。続いて合成対象領域AR1に、フレームF#3の同一領域を当てはめて表示する。このように合成対象領域AR(x)の画素領域を、順次他のフレームの画素に置き換えながら表示させ、それぞれユーザが確認できるようにする。そしてユーザが、適切な画像を決定する操作を行うことにより、合成を行うフレームを確定し、そのフレームの画素データを、合成対象領域ARに当てはめる画素データとする。
なお、合成対象領域AR(x)についての各フレームとの合成画像を順次表示するのではなく、各フレームとの合成画像を一覧表示させて、ユーザが各画像を同時に比較しながら選択操作できるようにしてもよい。
また順次各フレームとの合成画像を表示させる際には、ユーザの時間深さの操作に応じて合成フレームが変化するようなユーザインターフェースも適切である。例えば時間軸方向のスクロールバーを表示させたり、所定の操作子やユーザ挙動による操作に応じて、時間軸方向の移動をユーザが指定できるようにする。そして、その時間軸方向の連続的な操作によって、合成対象領域AR(x)に画素データを当てはめるフレームを変動させていく。すると、画像上で、合成対象領域AR(x)のみ、時間軸方向に前後する画像が表示できることになり、これによってもユーザは適切な合成フレームを選定できる。
時間軸方向の移動を指定する操作としては、例えばタッチパッドを備えるようにし、触った点からの移動量(ドラッグ移動量)及び方向により、時刻の移動量及び未来/過去の方向を指定できるようにすることが考えられる。方向については、例えば右や上への移動はプラス(未来方向)、左や下への移動はマイナス方向(過去方向)などとする。
また圧力検知可能なタッチパッドを備え、圧力の強さにより、時刻の移動量を指定するようにしてもよい。
もちろんユーザの挙動として、首を振ったり、頭部に装着した撮像装置1の側面を叩くなどの操作を、移動量及び方向の指定操作としてもよい。
移動量や方向の指定操作に応じては、各フレームの時間差情報TMを参照して、指定操作に応じたフレームを選定し、合成画像を生成する。
画像解析/合成部12は、ステップF207での自動解析又は手動操作に応じた合成用の画素データの探索の結果、合成用の部分画像として、合成対象領域ARに当てはめる画素データがあれば、ステップF208からF209に進み、合成対象領域AR(x)の合成処理を行う。つまり合成ベース画像の合成対象領域AR(x)の画素データを、探索された他のフレームの画素データに置き換える。例えば図13(a)の合成対象領域AR1について、図5に示した各フレームの画像のうちで、フレームF#4の同一領域を合成用の部分画像とした場合、このフレームF#4において、合成対象領域AR(x)と同一領域の画素データを、合成ベース画像(フレームF#1)の合成対象領域AR(x)に当てはめる。
一方、ステップF207の他のフレームの画像内容の探索処理で、適切な合成用の部分画像が見つけられなかった場合は、ステップF208からF210に進み、合成対象領域AR(x)については合成不能とする。
ステップF211では、処理制御変数x=nであるか否かを判別する。nはステップF203で設定された合成対象領域ARの数である。つまり、設定された全ての合成対象領域ARについて処理を終えたか否かを確認する。
また未処理の合成対象領域ARが存在すれば、ステップF212で処理制御変数xをインクリメントしてステップF207に戻る。そして次の合成対象領域AR(x)について、上記同様に処理を行う。
ステップF211でx=nとなった時点で、ステップF203で設定した全ての合成対象領域ARについての処理を完了したことになる。この場合、ステップF213で、全ての合成対象領域ARが、ステップF210で合成不能とされたか否かを確認する。もし、全ての合成対象領域ARが合成不能となっていた場合は、画像解析/合成部12の処理はステップF215に進み、システムコントローラ10に対して合成不能通知を送信する。
一方、少なくとも1つの合成対象領域ARにおいてステップF209の合成処理を行っていれば、ステップF214に進み、システムコントローラ10に対して合成完了通知を送信する。以上で図12の処理を終える。
例えば以上の図11,図12としてのシステムコントローラ10及び画像解析/合成部12の処理により、図4(b)、図7(b),図8(b),図9(b),図10(b)で例示したような合成画像データが生成され、図6(b)の合成画像データmVDとして示すようにストレージ部14に保存されることになる。
[5.実施の形態の効果、及び変形例、拡張例]

以上の実施の形態によれば、撮像画像データの1つのフレームを合成ベース画像とし、その合成ベース画像内で設定した合成対象領域ARの画素データを、他のフレームの画像データに置き換える合成処理をおこなうことで、ユーザの満足度の高い撮像画像を容易に生成できるという効果がある。
例えば集合写真において、全員が眼を開けていたり、全員が良い表情であったり、全員が正面を向いているような合成画像、さらには全員がボケていない合成画像を容易に生成できる。また、不要な被写体を消したり、画面全体の統一感を出した画像なども、同様に容易に生成できる。これにより、いわゆる撮像に失敗したとユーザが思うような場合も、手軽に画像を修正できることになり、ユーザの写真撮像に対する満足度を向上させる。
さらには、合成処理において手動操作で、面白みのある画像を生成することもでき、一般ユーザの写真撮像の可能性や画像の利用範囲を広げることもできる。
合成画像データについては例えばストレージ部14に保存されるが、これを表示することで、好適な撮像画像をユーザに提示できる。
図6(b)のように各撮像画像データVD1,VD2・・・について生成した合成画像データmVD1,mVD2・・・については、例えばこれらをユーザの操作に応じて順次表示したり、スライドショウ方式で自動的に順次表示したり、縮小画像で一覧表示したりするなどの処理を行うことができる。
本発明は、上記実施の形態に限られず、撮像装置1の構成例や処理例として各種の変形例や拡張例が考えられる。
まず、図12のステップF209で合成処理を行う場合、単に合成対象領域ARの画素データを他のフレームの画素データに置き換えるだけでなく、より自然な合成画像が生成されるようにすることもできる。
つまり合成処理では時刻の違うフレーム同志の画像を合成することになるが、このときに両フレーム(合成ベース画像としたフレームと、合成用の画素データを抽出するフレーム)の境界をスムーズにするために、境界領域では現画像とターゲット画像の両方の画像の画素のブレンド(線形結合)を行うようにしてもよい。
また、同じく時刻の違う画像の境界をスムーズにするために、境界領域では時間がより連続的になるように、合成ベース画像としたフレームと、合成用の画素データを抽出するフレームの中間(時間的に中間)のフレームの画素を用いることも考えられる。
図19(a)のように、或る合成ベース画像上で合成対象領域AR1,AR2が設定されたとする。この場合、図19(b)のように、斜線部とした合成対象領域AR1,AR2には、他のフレームから抽出した画素データを割り当てるが、その合成対象領域AR1、AR2の周囲には、中間フレームの画素を割り当てるようにする。
例えば合成ベース画像がフレームF#1であり、合成対象領域AR1として、フレーム#3の画素データを割り当てた場合、合成対象領域AR1の周囲の画素データMAとして、フレーム#2の画素データを割り当てる。
また合成対象領域AR2として、フレーム#6の画素データを割り当てた場合、合成対象領域AR2の周囲の画素データMA1としてフレーム#4の画素データを割り当て、さらにその周囲の画素データMA2としてフレーム#2の画素データを割り当てる。
このようにすると、合成箇所の境界での時間差が小さくなり、これによって合成画像データが、より自然な画像となる。
また、被写体の動きにより、他のフレームでは、合成ベース画像上の合成対象領域ARと同じ画素領域に、同じ被写体が位置しないこともある。例えば被写体の人物が歩いているときに撮像したような場合、その人の顔領域となる画素範囲は、各フレームで異なってくる。
このため、例えば合成対象領域ARとしての画像の特徴点を抽出し、合成ベース画像上の位置に対応する、他のフレームでの画像の位置を補正するようにしてもよい。
例えば画像の3つの特徴点から、移動・回転・拡大(アフィン変換)のマトリックスを計算して補正する。顔画像を対象とする場合、3つの特徴点として、顔の両眼と口を用いることが適切である。
また、本発明の画像処理装置は、撮像装置1として実現する以外に、多様な装置が想定される。
図20は、本発明の画像処理装置としての構成要素として、制御手段としてのシステムコントローラ10と、画像取得部20と、画像解析/合成部12と、保存処理部22と、画像出力部21を示している。
例えばこのような構成要素を備える各種機器として本発明の画像処理装置を実現できる。
画像取得部20は、異なる時点に撮像された複数フレームの撮像画像データ、即ち合成処理の対象となる撮像画像データを取得する部位であり、上記実施の形態のような撮像装置1では、撮像部3及び撮像制御部6に相当する。
このような撮像機能としての部位以外に、例えば合成処理の対象となる複数フレームの撮像画像データを外部機器70から受信する通信部15も、画像取得部20となり得る。もちろんケーブル接続により外部機器70からの撮像画像データを受信するものであってもよい。さらに、例えば光ディスク、メモリカードなどの可搬性記録媒体に対して再生を行って、可搬性記録媒体に記録されている撮像画像データを読み出す再生ドライブも、画像取得部20となり得る。
また画像取得部20で取得する複数フレームの撮像画像データとは、複数枚の静止画データでもよいし、動画データでもよい。
保存処理部22は、合成画像データを保存する処理を行う部位であるが、上記実施の形態のストレージ部14に相当する。
但し、撮像画像データと評価データを外部機器70に送信して、外部機器70において保存を実行させるようにする場合、その送信を行う通信部15は、保存処理部22に相当することになる。もちろん無線送信、有線送信のいずれでも良い。
画像出力部21は、上記実施の形態の場合では保存した撮像画像データを表示出力する表示部2が相当する。また、外部のモニタ装置において表示させるために画像信号を出力する出力部も、画像出力部21となり得る。
また、保存した撮像画像データを外部機器70に有線又は無線で送信する通信部15も、画像出力部21となり得る。
また、保存した撮像画像データを可搬性記録媒体に記録し、可搬性記録媒体によって装置外に持ち出せるようにする記録ドライブも画像出力部21となり得る。
このように例えば画像取得部20、画像出力部21、保存処理部22としては、非常に多様な形態が想定される。それらを考慮すると、本発明は、スチルカメラやビデオカメラ等の撮像装置として実現する他、撮像機能のない、モニタ表示装置、通信装置、画像データ保存装置、画像合成を行う画像編集装置などとしても実現できる。
また合成画像データを生成するための複数フレームの撮像画像データとは、略連続的に撮像された各フレーム画像データではなく、かなり離散的なタイミングで撮像されたものでもよい。
例えば図1(a)(b)のようなウェアラブルな撮像装置1において、定期的に撮像を行っていると、例えばユーザの1日の行動において見た各種光景の撮像画像データが取得できることになる。このような、或る程度無関係な複数フレームの撮像画像データを用いても、合成処理を行うことができる。例えば1日の光景をコラージュ的に合成したような合成画像を生成できる。
同様に、例えば観光地などで、逐次撮像した撮像画像データを、画像共有サービスなどからの通信で取得した場合、そのような撮像画像データと、自分で同じ観光地で撮像した撮像画像データを用いて合成処理をおこなうことなども考えられる。
また、静止画としての合成画像データの生成について述べたが、動画としての合成画像データの生成にも拡張できる。
例えば合成対象領域ARとしての画素領域のみ、その周囲と時間進行具合を変化させるような合成動画を実現できる。つまり、動画を構成する各フレームにおいて、合成対象領域ARのみ、異なるフレームの画素データに置き換えることで、画面の一部のみ、遅い時間の光景となったっり、先の時間の光景となったり、時間の進行が早くなったり、時間の進行が遅くなったりするような合成動画を生成できる。
さらに3次元画像など、高次画像への適用も可能である。
本発明の実施の形態の撮像装置の外観例の説明図である。 実施の形態の撮像装置のブロック図である。 実施の形態の撮像装置の使用形態の説明図である。 実施の形態の合成画像の説明図である。 実施の形態の合成に用いる各フレーム画像の説明図である。 実施の形態の撮像画像データ、合成画像データの保存状態の説明図である。 実施の形態の合成画像の説明図である。 実施の形態の合成画像の説明図である。 実施の形態の合成画像の説明図である。 実施の形態の合成画像の説明図である。 実施の形態のシステムコントローラの処理のフローチャートである。 実施の形態の画像解析/合成部の合成処理のフローチャートである。 実施の形態の合成対象領域の設定の説明図である。 実施の形態の合成対象領域の設定の説明図である。 実施の形態の合成対象領域の手動設定方式の説明図である。 実施の形態の合成対象領域の手動設定方式の説明図である。 実施の形態の合成対象領域の手動設定方式の説明図である。 実施の形態の合成対象領域の手動設定方式の説明図である。 実施の形態の合成の際の境界領域の処理例の説明図である 本発明の構成要素の説明図である。
符号の説明
1 撮像装置、2 表示部、2a 表示パネル部、3 撮像部、6 撮像制御部、7 表示制御部、10 システムコントローラ、11 操作入力部、12 画像解析/合成部、14 ストレージ部、15 通信部、20 画像取得部、21 画像出力部、22 保存処理部

Claims (17)

  1. 合成処理に用いる撮像画像データとして、異なる時間として連続的に撮像された複数のフレームの撮像画像データを取得する取得手段と、
    上記取得手段により取得した上記複数のフレームのうちの或るフレーム内で合成対象領域を設定し、上記合成対象領域における画素データを、上記複数のフレームのうちの他のフレームの画素データに置き換えるとともに、上記合成対象領域と上記或るフレームの撮像画像データの境界領域については、上記或るフレームと上記他のフレームの時間的に中間のフレームが存在する場合には、該中間のフレームの、上記境界領域に相当する画素データを上記境界領域に割り当てて合成処理を行って合成画像データを生成する画像合成手段と、
    上記画像合成手段で生成された合成画像データについて保存処理を行う保存処理手段と、
    を備えた像処理装置。
  2. 上記取得手段は、上記撮像部での撮像により、上記合成処理に用いる複数のフレームの撮像画像データを取得する求項に記載の画像処理装置。
  3. 上記撮像部は、撮像素子としてCCDセンサ又はCMOSセンサを用いて構成されている求項に記載の画像処理装置。
  4. 上記取得手段は、外部機器と通信を行う通信部を有し、上記通信部での外部機器と通信により、上記合成処理に用いる撮像画像データ受信して取得する求項1に記載の画像処理装置
  5. 上記取得手段は、可搬性記録媒体から情報を再生する再生部を有し、上記再生部による上記可搬性記録媒体の再生により、上記合成処理に用いる撮像画像データ取得する求項1に記載の画像処理装置。
  6. 上記保存処理手段は、記録媒体に対して情報の記録を行う記録部を有し、上記保存処理として、上記合成画像データを上記記録媒体に記録する求項1に記載の画像処理装置。
  7. 上記保存処理手段は、外部機器と通信を行う通信部を有し、上記保存処理として、上記合成画像データを外部機器に送信する求項1に記載の画像処理装置。
  8. 上記画像合成手段は、画像解析処理により、上記合成対象領域を設定する求項1に記載の画像処理装置。
  9. 上記画像合成手段は、上記画像解析処理により、フレーム画像内に存在する人の顔画像についての眼の開閉、又は顔の表情、又は顔の向き、又は眼球の色の全部又は一部を判別し、判別結果に基づいて上記合成対象領域を設定する求項に記載の画像処理装置。
  10. 操作入力手段をさらに備え、
    上記画像合成手段は、上記操作入力手段からの入力に従って、上記合成対象領域を設定する求項1に記載の画像処理装置。
  11. 上記画像合成手段は、画像解析処理により、上記他のフレームとなるフレームを選定し、選定したフレームから、上記合成対象領域に合成する画素データを取り出す求項1に記載の画像処理装置。
  12. 操作入力手段をさらに備え、
    上記画像合成手段は、上記操作入力手段からの入力に従って、上記複数のフレームのうちから上記他のフレームとなるフレームを選定し、選定したフレームから、上記合成対象領域に合成する画素データを取り出す求項1に記載の画像処理装置。
  13. さらに、上記合成画像データについての出力処理を行う画像出力手段を備えた求項1に記載の画像処理装置。
  14. 上記画像出力手段は、表示部を有し、上記出力処理として、上記表示部において上記合成画像データについての表示出力を行う求項1に記載の画像処理装置。
  15. 上記画像出力手段は、外部機器と通信を行う通信部を有し、上記出力処理として、上記通信部により上記合成画像データについての外部機器への送信出力を行う求項1に記載の画像処理装置。
  16. 上記画像出力手段は、可搬性記録媒体に情報を記録する記録部を有し、上記出力処理として、上記記録部によって上記可搬性記録媒体に上記合成画像データを記録する求項1に記載の画像処理装置。
  17. 合成処理に用いる撮像画像データとして、異なる時間として連続的に撮像された複数のフレームの撮像画像データを取得するステップと、
    取得した上記複数のフレームのうちの或るフレーム内で合成対象領域を設定し、上記合成対象領域における画素データを、上記複数のフレームのうちの他のフレームの画素データに置き換えるとともに、上記合成対象領域と上記或るフレームの撮像画像データの境界領域については、上記或るフレームと上記他のフレームの時間的に中間のフレームが存在する場合には、該中間のフレームの、上記境界領域に相当する画素データを上記境界領域に割り当てて合成処理を行って合成画像データを生成するステップと、
    生成した合成画像データについて保存処理を行うステップと、を備えた画像処理方法。
JP2007034558A 2007-02-15 2007-02-15 画像処理装置、画像処理方法 Expired - Fee Related JP4853320B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2007034558A JP4853320B2 (ja) 2007-02-15 2007-02-15 画像処理装置、画像処理方法
PCT/JP2008/050214 WO2008099627A1 (ja) 2007-02-15 2008-01-10 画像処理装置、画像処理方法
EP08703078A EP2124186A4 (en) 2007-02-15 2008-01-10 IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD
US12/449,230 US8482651B2 (en) 2007-02-15 2008-01-10 Image processing device and image processing method
BRPI0807679-0A BRPI0807679A2 (pt) 2007-02-15 2008-01-10 Dispositivo e método de processamento de imagem
CN2008800052827A CN101617339B (zh) 2007-02-15 2008-01-10 图像处理装置和图像处理方法
KR1020097016960A KR101401855B1 (ko) 2007-02-15 2008-01-10 화상 처리 장치, 화상 처리 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007034558A JP4853320B2 (ja) 2007-02-15 2007-02-15 画像処理装置、画像処理方法

Publications (2)

Publication Number Publication Date
JP2008198062A JP2008198062A (ja) 2008-08-28
JP4853320B2 true JP4853320B2 (ja) 2012-01-11

Family

ID=39689873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007034558A Expired - Fee Related JP4853320B2 (ja) 2007-02-15 2007-02-15 画像処理装置、画像処理方法

Country Status (7)

Country Link
US (1) US8482651B2 (ja)
EP (1) EP2124186A4 (ja)
JP (1) JP4853320B2 (ja)
KR (1) KR101401855B1 (ja)
CN (1) CN101617339B (ja)
BR (1) BRPI0807679A2 (ja)
WO (1) WO2008099627A1 (ja)

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5017989B2 (ja) 2006-09-27 2012-09-05 ソニー株式会社 撮像装置、撮像方法
JP5119636B2 (ja) 2006-09-27 2013-01-16 ソニー株式会社 表示装置、表示方法
JP2008096868A (ja) 2006-10-16 2008-04-24 Sony Corp 撮像表示装置、撮像表示方法
JP2008225550A (ja) * 2007-03-08 2008-09-25 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP4424364B2 (ja) * 2007-03-19 2010-03-03 ソニー株式会社 画像処理装置、画像処理方法
JP4396720B2 (ja) * 2007-03-26 2010-01-13 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2009003334A (ja) * 2007-06-25 2009-01-08 Sony Corp 画像撮像装置、撮像制御方法
JP4513903B2 (ja) * 2008-06-25 2010-07-28 ソニー株式会社 画像処理装置、及び画像処理方法
JP5051091B2 (ja) * 2008-10-03 2012-10-17 株式会社Jvcケンウッド 撮像装置、画像信号処理装置、撮像方法、および画像信号処理方法
KR101665130B1 (ko) * 2009-07-15 2016-10-25 삼성전자주식회사 복수의 인물에 대한 이미지 생성 장치 및 방법
US9792012B2 (en) 2009-10-01 2017-10-17 Mobile Imaging In Sweden Ab Method relating to digital images
JP2011139282A (ja) * 2009-12-28 2011-07-14 Sony Corp 画像処理装置、撮像装置、画像処理方法およびプログラム
SE534551C2 (sv) 2010-02-15 2011-10-04 Scalado Ab Digital bildmanipulation innefattande identifiering av ett målområde i en målbild och sömlös ersättning av bildinformation utifrån en källbild
JP5484994B2 (ja) * 2010-04-06 2014-05-07 オリンパスイメージング株式会社 顔画像合成装置、顔画像合成方法、およびプログラム
US20120019686A1 (en) * 2010-07-23 2012-01-26 Casio Computer Co., Ltd. Image synthesizing device, image synthesizing method and computer readable medium
TWI420405B (zh) 2010-10-20 2013-12-21 Hon Hai Prec Ind Co Ltd 人臉影像代換系統及方法
JP5807354B2 (ja) * 2011-03-22 2015-11-10 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US20120300092A1 (en) * 2011-05-23 2012-11-29 Microsoft Corporation Automatically optimizing capture of images of one or more subjects
JP2012244525A (ja) * 2011-05-23 2012-12-10 Sony Corp 情報処理装置、情報処理方法及びコンピュータプログラム
SE1150505A1 (sv) 2011-05-31 2012-12-01 Mobile Imaging In Sweden Ab Metod och anordning för tagning av bilder
EP2718896A4 (en) 2011-07-15 2015-07-01 Mobile Imaging In Sweden Ab METHOD FOR PROVIDING ADJUSTED DIGITAL GRAPHIC REPRESENTATION OF VIEW AND APPROPRIATE APPARATUS
JP2013058923A (ja) * 2011-09-08 2013-03-28 Olympus Imaging Corp 撮影機器
JP2013141104A (ja) * 2011-12-29 2013-07-18 Nikon Corp 撮像装置
KR101231469B1 (ko) 2012-02-23 2013-02-07 인텔 코오퍼레이션 이미지 처리 지원 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
JP5948960B2 (ja) * 2012-02-29 2016-07-06 株式会社ニコン カメラ、画像処理装置及びプログラム
WO2013131536A1 (en) * 2012-03-09 2013-09-12 Sony Mobile Communications Ab Image recording method and corresponding camera device
JP5941736B2 (ja) * 2012-04-10 2016-06-29 オリンパス株式会社 撮影機器
CN103533212A (zh) * 2012-07-04 2014-01-22 腾讯科技(深圳)有限公司 一种图像合成方法和装置
US10048858B2 (en) 2012-11-06 2018-08-14 Nokia Technologies Oy Method and apparatus for swipe shift photo browsing
US20140153832A1 (en) * 2012-12-04 2014-06-05 Vivek Kwatra Facial expression editing in images based on collections of images
JP2014123261A (ja) 2012-12-21 2014-07-03 Sony Corp 情報処理装置及び記録媒体
JP2014127744A (ja) * 2012-12-25 2014-07-07 Casio Comput Co Ltd 撮像装置、撮像制御方法、及びプログラム
CN103079033B (zh) * 2012-12-28 2016-05-04 东莞宇龙通信科技有限公司 拍照方法及装置
KR101999140B1 (ko) * 2013-01-03 2019-07-11 삼성전자주식회사 카메라장치 및 카메라를 구비하는 휴대단말기의 이미지 촬영장치 및 방법
US8849064B2 (en) * 2013-02-14 2014-09-30 Fotonation Limited Method and apparatus for viewing images
KR102065362B1 (ko) 2013-05-14 2020-01-13 삼성전자주식회사 연속 촬영 이미지에서의 고조점 이미지 추출 장치 및 방법
JP2015001609A (ja) * 2013-06-14 2015-01-05 ソニー株式会社 制御装置、および記憶媒体
US9336583B2 (en) * 2013-06-17 2016-05-10 Cyberlink Corp. Systems and methods for image editing
JP5889247B2 (ja) * 2013-07-02 2016-03-22 キヤノン株式会社 画像処理装置、画像処理方法及び画像処理プログラム、並びに撮像装置
KR102127351B1 (ko) * 2013-07-23 2020-06-26 삼성전자주식회사 사용자 단말 장치 및 그 제어 방법
US9478056B2 (en) 2013-10-28 2016-10-25 Google Inc. Image cache for replacing portions of images
CN103747180A (zh) * 2014-01-07 2014-04-23 宇龙计算机通信科技(深圳)有限公司 照片拍摄方法及拍照终端
JP2014096836A (ja) * 2014-01-08 2014-05-22 Nikon Corp デジタルカメラ
CN103795920B (zh) * 2014-01-21 2017-06-20 宇龙计算机通信科技(深圳)有限公司 照片处理方法及装置
KR20150110032A (ko) * 2014-03-24 2015-10-02 삼성전자주식회사 영상데이터 처리 전자장치 및 방법
CN103873777A (zh) * 2014-03-26 2014-06-18 深圳市金立通信设备有限公司 一种照片合成方法及终端
TW201540258A (zh) * 2014-04-29 2015-11-01 Chunghwa Telecom Co Ltd 快速影像式脈搏偵測方法
JP2016009873A (ja) * 2014-06-20 2016-01-18 ソニー株式会社 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP6444073B2 (ja) 2014-06-25 2018-12-26 キヤノン株式会社 画像処理装置
JP6357922B2 (ja) * 2014-06-30 2018-07-18 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
CN104243818B (zh) * 2014-08-29 2018-02-23 小米科技有限责任公司 图像处理方法、装置及设备
CN105791671B (zh) * 2014-12-26 2021-04-02 中兴通讯股份有限公司 一种前摄像头拍摄修正方法、装置及终端
CN105991916A (zh) * 2015-02-05 2016-10-05 联想(北京)有限公司 一种信息处理方法及电子设备
CN104680478B (zh) 2015-02-15 2018-08-21 青岛海信移动通信技术股份有限公司 一种目标图像数据的选取方法和装置
JP6500618B2 (ja) * 2015-06-12 2019-04-17 リコーイメージング株式会社 撮影装置及び撮影方法
CN104954678A (zh) * 2015-06-15 2015-09-30 联想(北京)有限公司 一种图像处理方法及装置、电子设备
CN105072327B (zh) * 2015-07-15 2018-05-25 广东欧珀移动通信有限公司 一种防闭眼的人像拍摄处理的方法和装置
US20170032172A1 (en) * 2015-07-29 2017-02-02 Hon Hai Precision Industry Co., Ltd. Electronic device and method for splicing images of electronic device
KR102469694B1 (ko) * 2015-08-24 2022-11-23 삼성전자주식회사 카메라를 구비하는 장치에서 사진 촬영 지원 기법
CN105472240B (zh) * 2015-11-18 2019-02-15 努比亚技术有限公司 图像采集方法及装置
CN105592249B (zh) * 2015-12-23 2018-12-21 努比亚技术有限公司 基于眼纹识别对照片中人物进行眼部修复的终端及方法
JP7056554B2 (ja) * 2016-03-29 2022-04-19 ソニーグループ株式会社 情報処理装置、撮像装置、画像再生装置、および方法とプログラム
CN105704386B (zh) * 2016-03-30 2019-03-29 联想(北京)有限公司 一种图像获取方法、电子设备及电子装置
CN105763812B (zh) * 2016-03-31 2019-02-19 北京小米移动软件有限公司 智能拍照方法及装置
JP2017208658A (ja) * 2016-05-17 2017-11-24 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6213619B2 (ja) * 2016-06-09 2017-10-18 株式会社ニコン カメラおよびプログラム
WO2017220667A1 (de) * 2016-06-21 2017-12-28 Stefan Zechner Verfahren und vorrichtung zur veränderung der affektiven visuellen information im gesichtsfeld eines benutzers
EP3349178A1 (de) * 2017-01-17 2018-07-18 Zechner, Stefan Verfahren und vorrichtung zur veränderung der affektiven visuellen information im gesichtsfeld eines benutzers
CN106097429B (zh) * 2016-06-23 2017-11-28 腾讯科技(深圳)有限公司 一种图像处理方法和装置
CN106204435A (zh) * 2016-06-27 2016-12-07 北京小米移动软件有限公司 图像处理方法及装置
US10257414B2 (en) 2016-07-15 2019-04-09 Qualcomm Incorporated Method and system for smart group portrait
JP6874772B2 (ja) * 2016-11-25 2021-05-19 日本電気株式会社 画像生成装置、画像生成方法、およびプログラム
CN107071300A (zh) * 2017-03-22 2017-08-18 努比亚技术有限公司 一种图像合成方法及装置
JP6441408B2 (ja) * 2017-05-03 2018-12-19 株式会社blincam 撮像装置
CN107563329B (zh) * 2017-09-01 2021-03-30 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和移动终端
US10475222B2 (en) * 2017-09-05 2019-11-12 Adobe Inc. Automatic creation of a group shot image from a short video clip using intelligent select and merge
JP2018026838A (ja) * 2017-09-21 2018-02-15 株式会社ニコン カメラ、画像処理装置
CN108234878A (zh) * 2018-01-31 2018-06-29 广东欧珀移动通信有限公司 图像处理方法、装置及终端
CN108259758B (zh) * 2018-03-18 2020-10-09 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质和电子设备
CN108513068B (zh) * 2018-03-30 2021-03-02 Oppo广东移动通信有限公司 图像的选取方法、装置、存储介质及电子设备
CN108521547A (zh) 2018-04-24 2018-09-11 京东方科技集团股份有限公司 图像处理方法、装置及设备
CN110457974B (zh) * 2018-05-07 2022-06-14 浙江宇视科技有限公司 图像叠加方法、装置、电子设备及可读存储介质
WO2019239472A1 (ja) * 2018-06-11 2019-12-19 株式会社blincam 撮像装置
CN109510941B (zh) * 2018-12-11 2021-08-03 努比亚技术有限公司 一种拍摄处理方法、设备及计算机可读存储介质
JPWO2020138258A1 (ja) * 2018-12-28 2021-11-04 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
KR102216623B1 (ko) * 2019-02-15 2021-02-17 임수정 동영상 편집 방법 및 그 서버
JP7045342B2 (ja) * 2019-02-18 2022-03-31 富士フイルム株式会社 画像処理装置、方法及びプログラム並びに撮像装置
JP6916342B2 (ja) * 2019-06-04 2021-08-11 マクセル株式会社 撮像装置及び画像処理方法
CN110602412B (zh) * 2019-08-30 2022-04-29 北京迈格威科技有限公司 Ipc、图像处理设备、图像处理的系统及方法
CN110933300B (zh) * 2019-11-18 2021-06-22 深圳传音控股股份有限公司 一种图像处理方法和电子终端设备
CN112036311A (zh) * 2020-08-31 2020-12-04 北京字节跳动网络技术有限公司 基于眼部状态检测的图像处理方法、装置及存储介质
CN112672056A (zh) * 2020-12-25 2021-04-16 维沃移动通信有限公司 图像处理方法及装置
CN112818147A (zh) * 2021-02-22 2021-05-18 维沃移动通信有限公司 图片处理方法、装置、设备及存储介质
JP6970945B1 (ja) * 2021-06-18 2021-11-24 パナソニックIpマネジメント株式会社 撮像装置
CN113630552A (zh) * 2021-07-16 2021-11-09 深圳全王科技有限公司 一种集体照拍摄系统
CN113747057B (zh) * 2021-07-26 2022-09-30 荣耀终端有限公司 一种图像处理方法、电子设备、芯片系统和存储介质
JP2023117149A (ja) * 2022-02-10 2023-08-23 ヤマハ株式会社 画像処理方法および画像処理装置

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6353531A (ja) 1986-08-25 1988-03-07 Canon Inc 像ブレ防止カメラ
US4901096A (en) 1988-12-30 1990-02-13 Lemelson Jerome H Camera apparatus and method
JP2603871B2 (ja) 1989-09-06 1997-04-23 旭光学工業株式会社 像ブレ防止カメラ
JP3063801B2 (ja) 1991-11-15 2000-07-12 株式会社ニコン ブレ防止カメラ
US5463443A (en) 1992-03-06 1995-10-31 Nikon Corporation Camera for preventing camera shake
JPH0630374A (ja) 1992-07-10 1994-02-04 Kyocera Corp 不要撮影を防止する電子スチルカメラ
JPH0743803A (ja) 1993-07-29 1995-02-14 Olympus Optical Co Ltd カメラの手ぶれ防止装置
JPH07218970A (ja) 1994-02-03 1995-08-18 Nikon Corp カメラ
JPH08256289A (ja) 1995-03-15 1996-10-01 Canon Inc 撮像装置
JP2736963B2 (ja) 1995-04-24 1998-04-08 旭光学工業株式会社 像ブレ防止カメラ
JPH1048681A (ja) 1996-05-10 1998-02-20 Olympus Optical Co Ltd ぶれ防止カメラ
US5923908A (en) 1997-10-30 1999-07-13 Eastman Kodak Company Camera with touch sensitive control
JPH11174520A (ja) 1997-12-16 1999-07-02 Canon Inc 撮像装置
JPH11205761A (ja) 1998-01-14 1999-07-30 Mitsubishi Electric Corp カメラ機能付携帯電話装置
JP2000163196A (ja) 1998-09-25 2000-06-16 Sanyo Electric Co Ltd ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置
JP2000132693A (ja) 1998-10-27 2000-05-12 Sony Corp 画像処理装置および方法、並びに提供媒体
JP4043708B2 (ja) * 1999-10-29 2008-02-06 富士フイルム株式会社 画像処理方法および装置
US6898300B1 (en) 1999-10-29 2005-05-24 Fuji Photo Film Co., Ltd. Image processing method and apparatus
JP3939889B2 (ja) 2000-02-01 2007-07-04 ペンタックス株式会社 像振れ防止デジタルカメラ
JP3740351B2 (ja) 2000-06-23 2006-02-01 日本電信電話株式会社 画像加工装置および方法およびこの方法の実行プログラムを記録した記録媒体
JP3955170B2 (ja) 2000-07-03 2007-08-08 富士フイルム株式会社 画像検索システム
JP2002023716A (ja) 2000-07-05 2002-01-25 Pfu Ltd プレゼンテーションシステムおよび記録媒体
JP2002049912A (ja) 2000-08-04 2002-02-15 Nri & Ncc Co Ltd 人物画像取得システム
GB0118436D0 (en) 2001-07-27 2001-09-19 Hewlett Packard Co Synchronised cameras with auto-exchange
JP4036051B2 (ja) 2002-07-30 2008-01-23 オムロン株式会社 顔照合装置および顔照合方法
JP2004120404A (ja) 2002-09-26 2004-04-15 Fuji Photo Film Co Ltd 画像配信装置および画像処理装置並びにプログラム
JP2004134950A (ja) 2002-10-09 2004-04-30 Sony Corp 画像合成方法および画像合成装置
EP1577705B1 (en) 2002-12-25 2018-08-01 Nikon Corporation Blur correction camera system
US7212230B2 (en) 2003-01-08 2007-05-01 Hewlett-Packard Development Company, L.P. Digital camera having a motion tracking subsystem responsive to input control for tracking motion of the digital camera
US20040223649A1 (en) * 2003-05-07 2004-11-11 Eastman Kodak Company Composite imaging method and system
US7453506B2 (en) 2003-08-25 2008-11-18 Fujifilm Corporation Digital camera having a specified portion preview section
JP4206888B2 (ja) 2003-09-30 2009-01-14 カシオ計算機株式会社 画像処理装置及びプログラム
US20050129324A1 (en) * 2003-12-02 2005-06-16 Lemke Alan P. Digital camera and method providing selective removal and addition of an imaged object
JP2005182526A (ja) 2003-12-19 2005-07-07 Seiko Epson Corp 著作権保護システム、配置装置、保護装置及び著作権保護方法
JP2005303511A (ja) 2004-04-08 2005-10-27 Logic:Kk 画像蓄積システム、携帯端末、画像蓄積装置、画像蓄積方法、画像送信プログラムおよび画像蓄積プログラム
JP2006050163A (ja) 2004-08-03 2006-02-16 Olympus Corp 撮像装置
JP3906847B2 (ja) 2004-04-16 2007-04-18 ソニー株式会社 撮像装置
JP3892860B2 (ja) 2004-06-11 2007-03-14 三菱電機株式会社 カメラ付き携帯端末機器
JP4932161B2 (ja) 2005-01-14 2012-05-16 三菱電機株式会社 視聴者情報測定装置
JP2006202049A (ja) 2005-01-20 2006-08-03 Omron Corp 顔認識装置
JP2006203600A (ja) 2005-01-21 2006-08-03 Konica Minolta Holdings Inc 撮像装置、画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2006201531A (ja) 2005-01-21 2006-08-03 Konica Minolta Holdings Inc 撮像装置
JP4642489B2 (ja) 2005-01-24 2011-03-02 キヤノン株式会社 撮像装置及び撮像方法、並びに撮像プログラム及び記憶媒体
JP2006202181A (ja) 2005-01-24 2006-08-03 Sony Corp 画像出力方法および装置
JP3992286B2 (ja) 2005-01-28 2007-10-17 キヤノン株式会社 カメラシステムおよび交換レンズ
JP2006221378A (ja) 2005-02-09 2006-08-24 Smart Wireless Kk 顔認証を利用した警報システムおよび方法
JP2006279291A (ja) 2005-03-28 2006-10-12 Toshiba Corp 撮影装置
US7612832B2 (en) 2005-03-29 2009-11-03 Microsoft Corporation Method and system for video clip compression
JP2006319610A (ja) 2005-05-12 2006-11-24 Matsushita Electric Ind Co Ltd 撮像装置
US8374403B2 (en) 2005-05-16 2013-02-12 Cisco Technology, Inc. Methods and apparatus for efficient, automated red eye detection
JP2006330800A (ja) * 2005-05-23 2006-12-07 Nippon Telegr & Teleph Corp <Ntt> 画像合成システム、画像合成方法、この方法のプログラム
JP2006331271A (ja) 2005-05-30 2006-12-07 Nippon Hoso Kyokai <Nhk> 代表画像抽出装置及び代表画像抽出プログラム
US20070014543A1 (en) 2005-07-13 2007-01-18 Canon Kabushiki Kaisha Image processing apparatus and control method therefor
JP2007097090A (ja) 2005-09-30 2007-04-12 Fujifilm Corp 画像表示装置および方法ならびにプログラム、さらに写真プリント注文受付装置
JP4630807B2 (ja) * 2005-12-16 2011-02-09 キヤノン株式会社 画像処理装置及び画像処理方法
JP4872396B2 (ja) 2006-03-15 2012-02-08 オムロン株式会社 画像編集装置、画像編集方法および画像編集プログラム
JP2008225550A (ja) 2007-03-08 2008-09-25 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP4424364B2 (ja) 2007-03-19 2010-03-03 ソニー株式会社 画像処理装置、画像処理方法
US20080231714A1 (en) 2007-03-22 2008-09-25 Texas Instruments Incorporated System and method for capturing images
JP4396720B2 (ja) 2007-03-26 2010-01-13 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2009003334A (ja) 2007-06-25 2009-01-08 Sony Corp 画像撮像装置、撮像制御方法

Also Published As

Publication number Publication date
JP2008198062A (ja) 2008-08-28
EP2124186A4 (en) 2012-01-18
KR101401855B1 (ko) 2014-05-29
CN101617339B (zh) 2013-07-03
US20100066840A1 (en) 2010-03-18
WO2008099627A1 (ja) 2008-08-21
CN101617339A (zh) 2009-12-30
BRPI0807679A2 (pt) 2014-05-27
EP2124186A1 (en) 2009-11-25
KR20090113289A (ko) 2009-10-29
US8482651B2 (en) 2013-07-09

Similar Documents

Publication Publication Date Title
JP4853320B2 (ja) 画像処理装置、画像処理方法
US10666856B1 (en) Gaze-directed photography via augmented reality feedback
CN101272457B (zh) 图像处理装置和图像处理方法
JP4826485B2 (ja) 画像保存装置、画像保存方法
US9772686B2 (en) Imaging display apparatus and method
JP4367663B2 (ja) 画像処理装置、画像処理方法、プログラム
JP5228307B2 (ja) 表示装置、表示方法
JP2008185609A (ja) 表示装置、表示方法
JP2008227813A (ja) 画像処理装置、画像処理方法、画像処理システム
JP5664677B2 (ja) 撮像表示装置、撮像表示方法
JP2008288821A (ja) 撮像装置、撮像方法
WO2019044135A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5971298B2 (ja) 表示装置、表示方法
JP2014143595A (ja) 画像記録装置
JP2009055080A (ja) 撮像装置、撮像方法
JP5640466B2 (ja) デジタルカメラ
CN109525772A (zh) 图像处理装置、图像处理方法以及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110927

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111010

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees