JP5084696B2 - 画像処理装置、画像処理方法及び電子機器 - Google Patents

画像処理装置、画像処理方法及び電子機器 Download PDF

Info

Publication number
JP5084696B2
JP5084696B2 JP2008275218A JP2008275218A JP5084696B2 JP 5084696 B2 JP5084696 B2 JP 5084696B2 JP 2008275218 A JP2008275218 A JP 2008275218A JP 2008275218 A JP2008275218 A JP 2008275218A JP 5084696 B2 JP5084696 B2 JP 5084696B2
Authority
JP
Japan
Prior art keywords
subject
image
sub
cutout
main subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008275218A
Other languages
English (en)
Other versions
JP2010103884A (ja
Inventor
晋平 福本
悟 竹内
和浩 小島
法和 恒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008275218A priority Critical patent/JP5084696B2/ja
Priority to US12/606,411 priority patent/US8488840B2/en
Publication of JP2010103884A publication Critical patent/JP2010103884A/ja
Application granted granted Critical
Publication of JP5084696B2 publication Critical patent/JP5084696B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、入力画像の一部を切り出して所望の切り出し画像を得る画像処理装置や画像処理方法、この画像処理装置を備えた電子機器に関する。
近年、CCD(Charge Coupled Device)やCMOS(Complimentary Metal Oxide Semiconductor)センサなどのイメージセンサを用いて撮像を行うデジタルスチルカメラやデジタルビデオカメラなどの撮像装置や、画像を表示する液晶ディスプレイなどの表示装置が広く普及している。また、このような撮像装置や表示装置として、処理対象となる画像(以下、入力画像とする)から所定の領域を切り出すとともに、この切り出した領域の画像(以下、切り出し画像とする)を記録したり表示したりするものがある。
このような切り出し処理を行うこととすると、撮像の簡易化を図ることが可能となる。具体的に例えば、ユーザに広画角となる入力画像を撮像させるとともに、得られる入力画像に対して切り出し処理を行い、ユーザが特に注目したいと考える被写体(以下、主要被写体とする)を中心とする領域の切り出しを行う。この切り出し処理によって、主要被写体を中心とした構図の画像が得られるために、撮像時にユーザが集中して主要被写体を追う必要をなくすことが可能となる。特に、撮像装置を主要被写体の方に簡易的に向けるだけで足りるようになる。さらに、入力画像中から主要被写体を検出し、検出された主要被写体の位置に基づいて切り出し処理を行うこととすると、主要被写体を中心とした構図の画像を自動的に得ることが可能となる。
しかしながら、主要被写体以外の被写体(以下、副被写体とする)であり主要被写体と何らかのやり取りなどをしている副被写体が入力画像中に存在する場合に、主要被写体を中心とした切り出し処理を行うこととすると、この副被写体が含まれない切り出し画像が生成される場合が生じ得る。この場合、主要被写体と副被写体とのやりとりなどが切り出し画像に含まれないこととなり、切り出し画像において主要被写体の挙動が明確に表現されない問題が生じる。
そこで、特許文献1では、入力画像から検出した複数の対象物が含まれるように切り出し領域を設定して表示する表示方法が提案されている。この表示方法によれば、複数の被写体を切り出し画像内に含ませることが可能となる。
特開2004−194309号公報
しかしながら、複数の被写体が含まれるだけの切り出し画像を得るものとすると、主要被写体と関係がない無用な副被写体を含む切り出し画像が生成されることとなる。そのため、主要被写体を強調した構図の切り出し画像が得難くなることが問題となる。
以上の問題を鑑みて、本発明は、被写体の状況に応じた切り出し画像を生成する画像処理装置や画像処理方法、この画像処理装置を備えた電子機器を提供することを目的とする。
上記目的を達成するために、本発明の画像処理装置は、入力画像の一部を切り出して切り出し画像を生成する切り出し処理部を備える画像処理装置において、前記切り出し処理部が、前記入力画像から所定の被写体を検出するとともに、検出した前記被写体の一つを主要被写体として設定し、他を副被写体として設定する被写体検出部と、前記被写体検出部で検出される前記主要被写体と前記副被写体との関係の強さを示す関係度を算出する関係度算出部と、前記入力画像中の前記主要被写体及び前記副被写体の位置と、前記関係度と、に基づいて、前記入力画像に対して切り出し領域を設定する切り出し領域設定部と、前記入力画像から前記切り出し領域を切り出して前記切り出し画像を生成する切り出し部と、を備えることを特徴とする。
なお、関係の強さが、例えば、主要被写体と副被写体とが関連した動作をしている可能性の高さや、同じグループに属する可能性の高さなどを示すものとしても構わない。
また、上記構成の画像処理装置において、前記切り出し領域設定部が、前記主要被写体と、前記主要被写体との前記関係度が所定の値以上である前記副被写体と、が含まれる前記切り出し領域を設定することとしても構わない。
このように構成すると、前記主要被写体との関係度が大きい副被写体が、選択的に切り出し領域に含まれることとなる。そのため、必要な副被写体が切り出し領域に含まれることとなり、主要被写体の挙動が明確となる切り出し画像を得ることが可能となる。さらに、無用な副被写体が切り出し画像に含まれることを抑制することにより、主要被写体を強調した切り出し画像を得ることが可能となる。
また、上記構成の画像処理装置において、前記被写体検出部が、顔を検出することによって前記被写体を検出するものであり、前記入力画像中最も大きい顔と、前記入力画像中最も中央に近い顔と、特定の顔として認識される顔と、外部より入力される選択信号によって指定される顔と、の少なくとも一つに該当する顔を有する前記被写体を、前記主要被写体として設定することとしても構わない。
このように構成すると、主要被写体と成り得る可能性が高い被写体を、主要被写体として自動的に設定することが可能となる。また、ユーザの意思を反映させて、確実に所望の被写体を主要被写体として設定することも可能となる。
また、上記構成の画像処理装置において、前記関係度算出部が、前記主要被写体と前記副被写体との距離と、前記主要被写体及び前記副被写体のそれぞれの顔の向きと、前記主要被写体及び前記副被写体が発する音と、前記主要被写体及び前記副被写体の顔が類似する程度と、前記主要被写体及び前記副被写体の色が類似する程度と、前記副被写体の顔が特定の顔であると認識される程度と、順次入力される前記入力画像中に前記副被写体が含まれる割合と、の少なくとも一つに基づいて前記関係度を算出することとしても構わない。
このように構成すると、種々の方法で関係の強さを規定することが可能となる。なお、これらを組み合わせて関係度を算出することとすると、関係度を多面的な値として設定することが可能となり、より精密に関係度を算出することが可能となるため好ましい。
また、本発明の電子機器は、上記のいずれかに記載の画像処理装置を備え、前記画像処理装置から出力される前記切り出し画像を記録または表示することを特徴とする。
また、本発明の画像処理方法は、入力画像から所定の被写体を検出するとともに、検出した前記被写体の一つを主要被写体として設定し、他を副被写体として設定する第1ステップと、前記第1ステップで設定された前記主要被写体と前記副被写体との関係の強さを示す関係度を算出する第2ステップと、前記入力画像中の前記主要被写体及び前記副被写体の位置と、前記第2ステップで算出される前記関係度と、に基づいて、前記入力画像に対して切り出し領域を設定する第3ステップと、前記入力画像から前記第3ステップで設定された前記切り出し領域を切り出して切り出し画像を生成する第4ステップと、を備えることを特徴とする。
本発明によると、主要被写体と副被写体との関係度を用いて切り出し領域が設定されることとなる。そのため、関係度に応じて切り出し画像の構図を変更することが可能となる。したがって、状況に応じた切り出し画像を生成することが可能となる。
本発明の実施形態について、以下に図面を参照して説明する。最初に、本発明における電子機器の一例である撮像装置について説明する。なお、以下に説明する撮像装置は、デジタルカメラなどの音声、動画及び静止画の記録が可能なものである。
<<電子機器:記録時切り出し処理>>
まず、撮像装置の構成について、図1を参照して説明する。図1は、本発明の実施形態における撮像装置の構成を示すブロック図である。また、図1に示す撮像装置1は、撮像した画像に対して切り出し処理を行い、得られる切り出し画像を記録するものである。
図1に示すように、撮像装置1は、入射される光学像を電気信号に変換するCCDまたはCMOSセンサなどの固体撮像素子から成るイメージセンサ2と、被写体の光学像をイメージセンサ2に結像させるとともに光量などの調整を行うレンズ部3と、を備える。レンズ部3とイメージセンサ2とで撮像部が構成され、この撮像部によって画像信号が生成される。なお、レンズ部3は、ズームレンズやフォーカスレンズなどの各種レンズ(不図示)や、イメージセンサ2に入力される光量を調整する絞り(不図示)などを備える。
さらに、撮像装置1は、イメージセンサ2から出力されるアナログ信号である画像信号をデジタル信号に変換するとともにゲインの調整を行うAFE(Analog Front End)4と、入力される音声を電気信号に変換する集音部5と、AFE4から出力されるR(赤)G(緑)B(青)のデジタル信号となる画像信号をY(輝度信号)U,V(色差信号)を用いた信号に変換するとともに画像信号に各種画像処理を施す画像処理部6と、集音部5から出力されるアナログ信号である音声信号をデジタル信号に変換する音声処理部7と、画像処理部6から出力される画像信号に対してJPEG(Joint Photographic Experts Group)圧縮方式などの静止画用の圧縮符号化処理を施したり画像処理部6から出力される画像信号と音声処理部7からの音声信号とに対してMPEG(Moving Picture Experts Group)圧縮方式などの動画用の圧縮符号化処理を施したりする圧縮処理部8と、圧縮処理部8で圧縮符号化された圧縮符号化信号を記録する外部メモリ10と、圧縮符号化信号を外部メモリ10に記録したり読み出したりするドライバ部9と、ドライバ部9において外部メモリ10から読み出した圧縮符号化信号を伸長して復号する伸長処理部11と、を備える。なお、画像処理部6は、入力される画像信号から一部を切り出して新たな画像信号を得る切り出し処理部60を備える。
また、撮像装置1は、伸長処理部11で復号された画像信号をディスプレイなどの表示装置(不図示)で表示可能な形式の信号に変換する画像出力回路部12と、伸長処理部11で復号された音声信号をスピーカなどの再生装置(不図示)で再生可能な形式の信号に変換する音声出力回路部13と、を備える。
また、撮像装置1は、撮像装置1内全体の動作を制御するCPU(Central Processing Unit)14と、各処理を行うための各プログラムを記憶するとともにプログラム実行時の信号の一時保管を行うメモリ15と、撮像を開始するボタンや各種設定の決定を行うボタンなどのユーザからの指示が入力される操作部16と、各部の動作タイミングを一致させるためのタイミング制御信号を出力するタイミングジェネレータ(TG)部17と、CPU14と各部との間で信号のやりとりを行うためのバス回線18と、メモリ15と各部との間で信号のやりとりを行うためのバス回線19と、を備える。
なお、外部メモリ10は画像信号や音声信号を記録することができればどのようなものでも構わない。例えば、SD(Secure Digital)カードのような半導体メモリ、DVDなどの光ディスク、ハードディスクなどの磁気ディスクなどをこの外部メモリ10として使用することができる。また、外部メモリ10を撮像装置1から着脱自在としても構わない。
次に、撮像装置1の基本動作について図1を用いて説明する。まず、撮像装置1は、レンズ部3より入射される光をイメージセンサ2において光電変換することによって、電気信号である画像信号を取得する。そして、イメージセンサ2は、TG部17から入力されるタイミング制御信号に同期して、所定のフレーム周期(例えば、1/30秒)で順次AFE4に画像信号を出力する。そして、AFE4によってアナログ信号からデジタル信号へと変換された画像信号は、画像処理部6に入力される。画像処理部6では、画像信号がYUVを用いた信号に変換されるとともに、階調補正や輪郭強調等の各種画像処理が施される。また、メモリ15はフレームメモリとして動作し、画像処理部6が処理を行なう際に画像信号を一時的に保持する。
また、このとき画像処理部6に入力される画像信号に基づき、レンズ部3において、各種レンズの位置が調整されてフォーカスの調整が行われたり、絞りの開度が調整されて露出の調整が行われたりする。このフォーカスや露出の調整は、それぞれ最適な状態となるように所定のプログラムに基づいて自動的に行われたり、ユーザの指示に基づいて手動で行われたりする。また、画像処理部6に備えられる切り出し処理部60は、入力される画像信号の一部を切り出して新たな画像信号を生成する切り出し処理を行う。
動画を記録する場合であれば、画像信号だけでなく音声信号も記録される。集音部5において電気信号に変換されて出力される音声信号は音声処理部7に入力されてデジタル化されるとともにノイズ除去などの処理が施される。そして、画像処理部6から出力される画像信号と、音声処理部7から出力される音声信号と、はともに圧縮処理部8に入力され、圧縮処理部8において所定の圧縮方式で圧縮される。このとき、画像信号と音声信号とは時間的に関連付けられており、再生時に画像と音とがずれないように構成される。そして、圧縮された画像信号及び音声信号はドライバ部9を介して外部メモリ10に記録される。
一方、静止画や音声のみを記録する場合であれば、画像信号または音声信号が圧縮処理部8において所定の圧縮方式で圧縮され、外部メモリ10に記録される。なお、動画を記録する場合と静止画を記録する場合とで、画像処理部6において行われる処理を異なるものとしても構わない。
外部メモリ10に記録された圧縮後の画像信号及び音声信号は、ユーザの指示に基づいて伸長処理部11に読み出される。伸長処理部11では、圧縮された画像信号及び音声信号を伸長し、画像信号を画像出力回路部12、音声信号を音声出力回路部13にそれぞれ出力する。そして、画像出力回路部12や音声出力回路部13において、表示装置やスピーカで表示または再生可能な形式の信号に変換されて出力される。
なお、表示装置やスピーカは、撮像装置1と一体となっているものでも構わないし、別体となっており、撮像装置1に備えられる端子とケーブル等を用いて接続されるようなものでも構わない。
また、画像信号の記録を行わずに表示装置などに表示される画像をユーザが確認する、所謂プレビューモードである場合に、画像処理部6から出力される画像信号を圧縮せずに画像出力回路部12に出力することとしても構わない。また、動画の画像信号を記録する際に、圧縮処理部8で圧縮して外部メモリ10に記録するのと並行して、画像出力回路部12を介して表示装置などに画像信号を出力することとしても構わない。
また、画像処理部6に備えられる切り出し処理部60は、必要に応じて撮像装置1の各部(例えば、音声処理部7など)から種々の情報(例えば、音声信号)を取得可能であることとする。ただし、図1においては、これらの情報が切り出し処理部60に入力されることを示す矢印の図示を省略する。
<切り出し処理部>
次に、図1に示した切り出し処理部60の構成について、図面を参照して説明する。図2は、本発明の実施形態における撮像装置に備えられる切り出し処理部の構成を示すブロック図である。なお、以下では説明の具体化のために、切り出し処理部60に入力されて切り出し処理が行われる画像信号を画像として表現するとともに、「入力画像」と呼ぶこととする。また、切り出し処理部60から出力される画像信号を「切り出し画像」と呼ぶこととする。
図2に示すように、切り出し処理部60は、入力画像から被写体を検出して入力画像中の被写体の状態を示す被写体情報を出力する被写体検出部61と、被写体検出部61から出力される被写体情報に基づいて関係度を算出して関係度情報を出力する関係度算出部62と、被写体検出部61から出力される被写体情報と関係度算出部62から出力される関係度情報とに基づいて切り出し領域を設定して切り出し領域情報を出力する切り出し領域設定部63と、切り出し領域設定部63から出力される切り出し領域情報に基づいて入力画像の切り出し処理を行い切り出し画像を生成する切り出し部64と、を備える。
被写体検出部61が生成及び出力する被写体情報には、入力画像から検出された主要被写体及び副被写体の種々の情報が含まれ得る。例えば、入力画像中の主要被写体及び副被写体の位置や大きさ、向き、動きの大きさや方向、色などが含まれ得る。なお、これらは一例に過ぎず、被写体情報にどのような情報が含まれても構わないものとする。
また、関係度算出部62が算出する関係度は、被写体検出部61で検出される主要被写体及び副被写体の関係の強さを示すものである。関係の強さとは、例えば、主要被写体と副被写体とが関連した動作(例えば会話など)をしている可能性の高さや、同じグループ(例えば、血縁関係や学校などの所属関係)に属する可能性の高さなどを示すものである。
また、切り出し領域設定部63が出力する切り出し領域情報とは、入力画像中のある領域となる切り出し領域を、例えば入力画像の座標を用いるなどして指定するものである。なお、切り出し領域の大きさは、被写体情報や関係度情報に応じて変動し得る不定の大きさとしても構わないし、一定の大きさとしても構わない。
切り出し処理部60の動作の一例について、図面を参照して説明する。図3は、切り出し処理部の動作の一例について説明するフローチャートである。なお、図3は、切り出し処理部60だけでなく、撮像装置1全体の動作例についても示すものである。
図3に示すように、切り出し処理を伴う撮像動作が開始されると、まず、プレビューが行われる(STEP1)。プレビュー中は、撮像部で順次生成される画像を表示装置に順次表示する。また、このとき生成される画像は、外部メモリ10に記録されないこととする。
また、ユーザから被写体を設定する指示が入力されているか否かが確認される(STEP2)。例えば、操作部17の一例であるシャッタボタンが、ユーザに半押しされたか否かによって、この指示の有無を確認しても構わない。被写体を設定する指示が入力されていない場合(STEP2、NO)、STEP1に戻りプレビューを継続する。
一方、ユーザから被写体を設定する指示が入力されている場合(STEP2、YES)、まず、切り出し処理部60が入力画像を取得する(STEP3)。そして、被写体検出部61が、STEP3で取得された入力画像に対して被写体の検出を行う(STEP4)。なお、被写体の検出方法として、例えば以下に示すような顔検出処理を利用することができる。
顔検出処理の一例について図面を参照して説明する。図4は、顔検出処理の一例について示す画像の模式図である。なお、図4に示す方法は一例に過ぎず、顔検出処理として既存のどのような処理方法を用いることとしても構わない。
本例では、入力画像と重みテーブルとを比較することで顔を検出する。重みテーブルとは、大量の教師サンプル(顔及び非顔のサンプル画像)から求められたものである。このような重みテーブルは、例えば、Adaboostと呼ばれる公知の学習方法を利用して作成することができる(Yoav Freund, Robert E. Schapire,"A decision-theoretic generalization of on-line learning and an application to boosting", European Conference on Computational Learning Theory, September 20,1995.)。このAdaboostは、適応的なブースティング学習方法の1つで、大量の教師サンプルをもとに、複数の弱識別器候補の中から識別に有効な弱識別器を複数個選択し、それらを重み付けして統合することによって高精度な識別器を実現する学習方法である。ここで、弱識別器とは、全くの偶然よりは識別能力は高いが、十分な精度を満たすほど高精度ではない識別器のことをいう。弱識別器の選択時には、既に選択した弱識別器がある場合、選択済の弱識別器によって誤認識してしまう教師サンプルに対して学習を重点化することによって、残りの弱識別器候補の中から最も効果の高い弱識別器を選択する。
図4に示すように、まず入力画像40から、例えば縮小率を0.8として縮小画像41〜45が生成されて階層化される。また、各画像40〜45において判定を行う判定領域46の大きさは、どの画像40〜45においても同じである。そして、図中の矢印で示すように、各画像上で判定領域46を左から右に移動させて水平方向の走査を行う。また、この水平走査を上方から下方に向かって行うことで、画像全体が走査される。このとき、判定領域46とマッチングする顔画像の検出が行われる。ここで、入力画像40の他に複数の縮小画像41〜45を生成することで、1種類の重みテーブルを用いて大きさが異なる顔を検出することを可能としている。また、走査順はこれに限られるものではなく、どのような順番で行っても構わない。
マッチングは、粗い判定から順次細かい判定に移行する複数の判定ステップから成る。そして、ある判定ステップにおいて顔が検出されなかった場合には、次の判定ステップには移行せず、当該判定領域46には顔が存在しないものと判定する。全ての判定ステップにおいて顔が検出された場合にのみ、当該判定領域46に顔が存在すると判定し、次の判定領域46での判定に移行する。そして、このような顔検出処理によって、入力画像に含まれる人物の顔を検出することができる。
次に、STEP4で検出された被写体から、主要被写体及び副被写体が設定される(STEP5)。特に、検出された被写体中のいずれか1つが、主要被写体として設定される。例えば、上記のように顔検出処理を用いる場合、入力画像の中で最も大きい顔を有する被写体を、主要被写体として設定しても構わない。また例えば、入力画像の中央の最も近くに位置する顔を有する被写体を、主要被写体として設定することとしても構わない。また例えば、検出した複数の顔をユーザに表示して、ユーザが選択した顔を有する被写体を、主要被写体として設定することとしても構わない。また例えば、特定の人物の顔をサンプルとして記録しておき、この特定の人物の顔として認識された顔を有する被写体を、主要被写体として設定することとしても構わない。さらに、これらの主要被写体の設定方法を組み合わせた方法を用いて、主要被写体を決定することとしても構わない。
また、STEP5では、主要被写体の他に副被写体も設定される。なお、副被写体は複数設定され得るものであり、検出された被写体のうち主要被写体以外を全て副被写体として設定しても構わない。また例えば、検出された被写体が1つでありそれが主要被写体として設定される場合、副被写体が設定されないこととしても構わない。
STEP5によって主要被写体及び副被写体が設定されると、次に、ユーザから記録を開始する指示が入力されるか否かを確認する(STEP6)。例えば、操作部17の一例であるシャッタボタンが、ユーザに全押しされるか否かによって、この指示の有無を確認しても構わない。記録を開始する指示が入力されない場合(STEP6、NO)、STEP1に戻りプレビューを行う。なお、このときSTEP2〜5の動作を再度行い、被写体の設定をやり直すこととしても構わない。
一方、ユーザから記録を開始する指示が入力される場合(STEP6、YES)、まず、STEP5において副被写体が設定されているか否かが確認される(STEP7)。副被写体が設定されていない場合(STEP7、NO)とは、主要被写体のみが設定されているか、主要被写体すら設定されていない場合である。このとき、主要被写体が設定されておれば、切り出し処理部60が入力画像を取得して(STEP8)、被写体検出部61がSTEP8で取得した入力画像から主要被写体の検出を行い、被写体情報を生成する(STEP9)。なお、主要被写体が設定されていない場合は、被写体検出部61からその旨を示す被写体情報が生成される(STEP9)。
STEP5において主要被写体及び副被写体が設定されている場合(STEP7、YES)、切り出し処理部60が入力画像を取得して(STEP10)、被写体検出部61がSTEP10で取得された入力画像から主要被写体及び副被写体の検出を行い、被写体情報を生成する(STEP11)。そして、関係度算出部62がSTEP11で生成される被写体情報に基づいて関係度を算出し、関係度情報を生成する(STEP12)。なお、関係度の算出方法についての詳細については、後述する。
STEP9やSTEP11の被写体検出では、STEP5で設定された主要被写体及び副被写体の追尾処理を行うことで被写体を検出する。例えば、ある入力画像に対する被写体の検出結果(例えば検出位置)を、次に取得する入力画像に対する主要被写体の検出に利用したり、被写体の特徴(例えば、被写体の胴体の色)を認識して検出された被写体と同じ被写体をSTEP8及び10で順次取得される入力画像から検出したりするなど、継続的に被写体の検出を行う。
STEP9で被写体情報が生成された場合、切り出し領域設定部63は、被写体情報のみに基づいて切り出し領域の設定を行い、切り出し領域情報を生成する(STEP13)。STEP9で主要被写体のみが検出されている場合、例えば、主要被写体が略中心となるような切り出し領域が設定される。また、STEP9で被写体が検出されていない場合、入力画像の所定の領域(例えば、中央の領域など)が切り出し領域として設定される。
一方、STEP11で被写体情報が生成され、STEP12で関係度情報が生成されている場合、切り出し領域設定部63が、被写体情報と関係度情報とに基づいて切り出し領域の設定を行い、切り出し領域情報を生成する(STEP13)。そして、切り出し部64が、切り出し領域情報に基づいて入力画像の切り出し処理を行い、切り出し画像を生成する(STEP14)。なお、切り出し領域設定部63による関係度情報に基づいた切り出し領域の設定方法の詳細については、後述する。
そして、STEP14で生成された切り出し画像は、必要に応じて画像処理部6によってその画素数が変換され、圧縮処理部8で圧縮処理された後に外部メモリ10に記録される(STEP15)。このとき、画像処理部6は、拡大処理(例えば、画素の補間処理などを行って画素数を増大させる処理)や縮小処理(例えば、画素の加算処理や間引き処理などを行って画素数を低減させる処理)を切り出し画像に施すことによって、画素数の変換を行い所定の大きさの記録用画像を生成する。特に、切り出し領域を不定の大きさとする場合にこの処理を行うこととすると、記録用画像の大きさを揃えることが可能となるため好ましい。
STEP15において記録用画像を記録すると、次に、記録を停止する指示がユーザから入力されるか否かが確認される(STEP16)。例えば、操作部17の一例である記録停止ボタンが、ユーザに押されるか否かによって、この指示の有無を確認しても構わない。記録を停止する指示が入力されない場合(STEP16、NO)、STEP7に戻り次の入力画像の切り出し処理を行う。
一方、記録を停止する指示が入力されている場合(STEP16、YES)、次に、撮像装置1の動作を終了するか否かが確認される(STEP17)。例えば、操作部17の一例である電源ボタンが、ユーザに押されるか否かによって、この指示の有無を確認しても構わない。撮像装置1の動作を終了する指示が入力されない場合(STEP17、NO)、STEP1に戻りプレビューを行う。一方、撮像装置1の動作を終了する指示が入力される場合は(STEP17,YES)、動作を終了する。
<<電子機器:再生時切り出し>>
上記の撮像装置1は、画像処理部6に切り出し処理部60を備え、撮像部で得られた画像に対して切り出し処理を行い、外部メモリ10に記録するものである。しかしながら、本発明の電子機器は、以下に示すように画像の再生時に切り出し処理を行う構成とすることも可能である。なお、以下においても電子機器の一例として撮像装置を挙げて説明する。
まず、撮像装置の構成について、図5を参照して説明する。図5は、本発明の実施形態における撮像装置の別例の構成を示すブロック図である。また、図1に示す撮像装置1と同様の部分については同じ符号を付し、その詳細な説明については省略する。
図5に示す撮像装置1aは、画像処理部6の代わりに画像処理部6aを備える点と、伸長処理部11から入力される画像信号を処理して画像出力回路部12に出力する画像処理部6bをさらに備える点と、を除き、図1の撮像装置1と同様の構成となる。画像処理部6aは、切り出し処理部60を備えない構成となる点を除き、図1に示す画像処理部6と同様の構成となる。一方、画像処理部6bに切り出し処理部60が備えられる。
図5に示す撮像装置1aは、外部メモリ10に記録されている圧縮符号化信号が伸長処理部11に読み出されるとともに、伸長処理部11において画像信号に復号されて出力される。この画像信号が、画像処理部6b及び切り出し処理部60に入力されることにより、画像処理や切り出し処理が行われる。そして、画像処理部6bから出力される画像信号は画像出力回路部12に入力されるとともに、表示装置などにおいて表示可能な形式に変換されて出力される。
なお、撮像装置1aが、イメージセンサ2、レンズ部3、AFE4、マイク5、画像処理部6a、音声処理部7及び圧縮処理部8を備えない構成としても構わない。即ち、再生機能のみを備える再生専用の装置としても構わない。また、画像処理部6bから出力される画像信号を、表示するとともに(または、表示せずに)外部メモリ10に記録する構成としても構わない。即ち、編集時に切り出し処理を行う電子機器としても構わない。
次に、画像処理部6bに備えられる切り出し処理部60の動作の一例について、図面を参照して説明する。図6は、切り出し処理部の動作の別例について説明するフローチャートである。なお、図6は、切り出し処理部60だけでなく、撮像装置1a全体の動作例についても示すものである。また、図6は、記録時に切り出し処理を行う場合の切り出し処理部60の動作について示した図3に相当するものである。なお、図6において図3と同様の動作となる部分には同じステップ番号を付し、その詳細な説明については省略する。
図6に示すように、切り出し処理を伴う再生動作が開始されると、まず、再生する画像の選択画面の表示が行われる(STEP21)。例えば、外部メモリ10に記録されている画像のサムネイル画像を整列させたものなどが表示装置に表示される。
また、ユーザから再生する画像を選択する指示が入力されるか否かが確認される(STEP22)。例えば、操作部17の一例であるタッチパネルや方向キーなどによって、ユーザに再生する画像を選択させても構わない。再生する画像が選択されない場合(STEP22、NO)、STEP21に戻り再生する画像を選択する画面の表示を継続する。
一方、ユーザから再生する画像を選択する指示が入力されている場合(STEP22、YES)、切り出し処理部60が入力画像を取得する(STEP3)。ただし、この入力画像は、外部メモリ10に記録されているとともに伸長処理部11から出力されるものである。そして、被写体検出部61が、STEP3で取得された入力画像に対して被写体の検出を行う(STEP4)。そして、STEP4で検出された被写体から、主要被写体及び副被写体が設定される(STEP5)。
STEP5によって主要被写体及び副被写体が設定されると、次に、ユーザから再生を開始する指示が入力されるか否かを確認する(STEP26)。例えば、操作部17の一例である再生開始ボタンが、ユーザに押されるか否かによって、この指示の有無を確認しても構わない。再生を開始する指示が入力されない場合(STEP26、NO)、再生開始の指示が入力されるまで待機する。なお、このときSTEP4に戻り被写体の設定をやり直すこととしても構わないし、STEP3に戻り入力画像を取得し直した上で被写体の設定をやり直すこととしても構わない。
一方、ユーザから再生を開始する指示が入力される場合(STEP26、YES)、STEP5において副被写体が設定されているか否かが確認される(STEP7)。副被写体が設定されていない場合(STEP7、NO)、主要被写体が設定されていれば切り出し処理部60が入力画像を取得して(STEP8)、被写体検出部61がSTEP8で取得した入力画像から主要被写体の検出を行い、被写体情報を生成する(STEP9)。なお、主要被写体が設定されていない場合は、被写体検出部61からその旨を示す被写体情報が生成される(STEP9)。
主要被写体及び副被写体が設定されている場合(STEP7、YES)、切り出し処理部60が入力画像を取得して(STEP10)、被写体検出部61がSTEP10で取得された入力画像から主要被写体及び副被写体の検出を行い、被写体情報を生成する(STEP11)。そして、関係度算出部62がSTEP11で生成される被写体情報に基づいて関係度を算出し、関係度情報を生成する(STEP12)。なお、関係度の算出方法についての詳細については、後述する。
切り出し領域設定部63は、被写体情報や主要被写体の位置、関係度情報に基づいて切り出し領域の設定を行い、切り出し領域情報を生成する(STEP13)。そして、切り出し部64が、切り出し領域情報に基づいて入力画像の切り出し処理を行い、切り出し画像を生成する(STEP14)。なお、切り出し領域設定部63による関係度情報に基づいた切り出し領域の設定方法の詳細については、後述する。
STEP14で生成された切り出し画像は、必要に応じて画像処理部6bによってその画素数が変換され、画像出力回路部12に入力されて表示装置で表示される(STEP35)。このとき、画像処理部6bは、拡大処理や縮小処理を切り出し画像に施すことによって画素数の変換を行い、所定の大きさの再生用画像を生成する。特に、切り出し領域を不定の大きさとする場合にこの処理を行うこととすると、再生用画像の大きさを揃えることが可能となるため好ましい。
STEP35において再生用画像を再生すると、次に、再生を停止する指示がユーザから入力されるか否か、または、STEP21で選択した画像を全て再生し終わったか否かが確認される(STEP36)。再生を終了しない場合(STEP36、NO)、即ち、再生を停止する指示が入力されなかったり、選択した画像を全て再生し終わったりしていない場合は、STEP7に戻り次の入力画像の切り出し処理を行う。
一方、再生を終了する場合(STEP36、YES)、次に、撮像装置1aの動作を終了するか否かが確認される(STEP17)。撮像装置1aの動作を終了しない場合(STEP17、NO)、STEP21に戻り再生する画像の選択画面を表示する。一方、撮像装置1aの動作を終了する場合は(STEP17,YES)、動作を終了する。
<<関係度>>
次に、上述した関係度の算出方法について、各実施例(算出に用いる各パラメータ)を挙げるとともに図面を参照して説明する。
[第1実施例]
本実施例では、主要被写体及び副被写体間の距離R1に基づいて関係度を設定する。例えば、上述の顔検出処理を行うことによって設定される矩形の顔検出枠を用いて距離R1を算出することとしても構わない。
距離R1の算出方法の一例について図7を参照して説明する。図7は、関係度の算出方法の第1実施例について説明する入力画像の模式図である。図7では、入力画像50中に、主要被写体Mと副被写体Sとが含まれる場合について示している。また、主要被写体Mの顔検出枠51の左上の頂点P1の座標を(x1,y1)、副被写体Sの顔検出枠52の左上の頂点P2の座標を(x2,y2)とする。なお、x1,x2は水平方向(図中の左右方向)の座標、y1,y2は垂直方向(図中の上下方向)の座標をそれぞれ示すものとする。
本例の場合、主要被写体M及び副被写体S間の距離R1は、下記式(1)のように表すことができる。
Figure 0005084696
以上のようにして算出される主要被写体M及び副被写体S間の距離R1は、小さいほど主要被写体M及び副被写体Sが近くに位置することとなる。そのため、主要被写体M及び副被写体Sの関係が強いと想定される。したがって、距離R1が小さいほど関係度が大きくなるように設定する。
なお、上記式(1)は入力画像50の平面的な2次元距離であるが、奥行き方向の座標を用いた3次元距離で主要被写体M及び副被写体S間の距離R1を表現することも可能である。下記式(1a)は、主要被写体M及び副被写体S間の距離R1を3次元距離として算出したものである。なお、主要被写体Mの奥行き方向の座標をz1、副被写体Sの奥行き方向の座標をz2とする。
Figure 0005084696
奥行き方向の座標z1,z2は、例えば、顔の大きさを利用して算出することができる。図7に示す場合では、入力画像50中で比較的顔が大きい主要被写体Mは手前に位置し、比較的顔が小さい副被写体Sは奥に位置することとなる。特に、顔検出枠51,52のそれぞれの大きさに基づいて、奥行き方向の座標z1及びz2をそれぞれ算出しても構わないし、顔検出枠51,52の大きさを比較して、(z1−z2)を算出することとしても構わない。
また、AF(Auto Focus)の結果を利用して奥行き方向の座標z1,z2を算出することも可能である。例えば、撮像装置1,1aから主要被写体M及び副被写体Sのそれぞれまでの合焦距離を利用して、奥行き方向の座標z1,z2を算出しても構わない。合焦距離は、例えば、画像処理部6,6aに入力される画像における所定の領域毎の高周波成分を積算したAF評価値を算出するとともに、主要被写体M及び副被写体Sが属するそれぞれの領域で、AF評価値を最大としたときの焦点距離を求めることによって、算出することができる。
[第2実施例]
本実施例では、主要被写体及び副被写体の顔の向きの相関性を示す顔向き度R2に基づいて関係度を設定する。例えば、上述の顔検出処理を行うことによって設定される矩形の顔検出枠の位置と、顔検出処理によって得られる顔の向きと、を用いて顔向き度R2を算出することとしても構わない。なお、顔検出処理によって主要被写体及び副被写体の顔の向きを検出する場合、例えば、種々の方向を向いた顔のサンプルを用いてマッチングを行うこととしても構わない。
顔向き度R2の算出方法の一例について図8を参照して説明する。図8は、関係度の算出方法の第2実施例について説明する入力画像の模式図である。なお、図8に示す入力画像50は、図7に示す入力画像50と同様の画像である。そのため、図8中、図7と同じ部分には同じ符号を付してその詳細な説明については省略する。
図8において、主要被写体Mの顔の向きをD1、副被写体Sの顔の向きをD2とする。D1(dx1,dy1,dz1)及びD2(dx2,dy2,dz2)はいずれもベクトルであり、水平方向の成分をdx1,dx2、垂直方向の成分をdy1,dy2、奥行き方向の成分をdz1,dz2とする3次元の方向を示すものとする。
このとき、主要被写体Mから副被写体Sへの方向(ベクトル)V1を、顔検出枠51,52の位置P1,P2を用いて表すと、V1=P2―P1となる。同様に、副被写体Sから主要被写体Mへの方向V2は、V2=P1―P2となる。したがって、主要被写体Mの顔の向きD1と主要被写体Mから副被写体Sへの方向V1とが成す角度T1(rad)は、下記式(2a)に示すようになる。同様に、副被写体Sの顔の向きD2と副被写体Sから主要被写体Mへの方向V2とが成す角度T2は、下記式(2b)に示すものとなる。ただし、(0≦T1≦π)及び(0≦T2≦π)であるものとする。また、下記式(2a)及び(2b)中、V1・D1、V2・D2は、それぞれ内積を示すものとする。また、P1=P2となる場合は、T1=T2=0とする。
Figure 0005084696
上記式(2a)及び(2b)の角度T1,T2を用いて、下記式(2)に示すように主要被写体M及び副被写体Sの顔向き度R2を算出する。顔向き度R2は、主要被写体M及び副被写体Sが互いの方向を見ている(即ち、T1,T2が小さくなる)場合に1に近づき、逆の方向を見ている(即ち、T1,T2が大きくなる)場合に0に近づく。
Figure 0005084696
以上のようにして算出される顔向き度R2は、大きいほど(1に近いほど)主要被写体M及び副被写体Sが向き合うものとなる。そのため、主要被写体M及び副被写体Sの関係が強いと想定される。したがって、顔向き度R2が大きいほど関係度が大きくなるように設定する。
なお、上述した顔向き度R2は、奥行き方向の成分を用いて3次元的に算出したものであるが、奥行き方向の成分を用いずに2次元的に算出することとしても構わない。
[第3実施例]
本実施例では、集音部5で集音されて得られる音声信号の有無を示す音声関係度R3を用いて関係度を設定する。例えば、図2に示す被写体検出部61が音声信号を取得可能な構成として、被写体情報に音声信号の有無を示す情報を含ませることとしても構わない。
具体的に例えば、主要被写体か副被写体かを問わず、所定の大きさ以上の音声信号が得られた場合に音声関係度R3を1とする。また、所定の大きさ以上の音声信号が得られない場合は、音声関係度R3を0とする。
以上のようにして算出される音声関係度R3は、大きいほど(1に近いほど)主要被写体と副被写体とが音声を発してやりとり(例えば会話)をしている可能性が高くなる。そのため、主要被写体及び副被写体の関係が強いと想定される。したがって、音声関係度R3が大きいほど関係度が大きくなるように設定する。
なお、集音部5で集音される音声の到来方向に基づいて、音声関係度R3の値を決定しても構わない。音声の到来方向については、例えば、集音部5を複数のマイクを備えたマイクアレイとするとともに、各マイクで集音されて得られた音声信号を比較(例えば、位相のずれや時間のずれを比較)することによって、特定することが可能となる。そして例えば、主要被写体及び副被写体が存在する方向から到来した音声を集音した場合に、音声関係度R3の値を大きくすることとしても構わない。このように構成すると、主要被写体及び副被写体が発する音声であるか否かを厳密に判定することが可能となる。
[第4実施例]
本実施例では、主要被写体と副被写体との顔の類似性を示す顔類似度R4に基づいて関係度を設定する。例えば、上述の顔認識処理を行うことによって、主要被写体と副被写体との顔類似度R4を算出することとしても構わない。
具体的に例えば、主要被写体に最も類似する顔のサンプル(顔認識の結果、最もスコアが高くなったサンプル)を用いて、副被写体の顔認識処理を行った場合におけるスコアによって、主要被写体と副被写体との顔の類否を判定する。特に、副被写体の顔認識を行った際のスコアが高いほど、主要被写体と副被写体とが類似していると判定することができる。ただし、顔類似度R4は、0≦R4≦1を満たす値になるものとする。
スコアは、例えば顔のサンプルの種々の特徴点を、主要被写体の顔からそれぞれ検出するとともに、検出結果を合算することで算出することができる。また、特徴点毎に重みを与え、ある特徴点が主要被写体や副被写体から検出された場合に特にスコアが大きくなるように構成しても構わない。
以上のようにして算出される顔類似度R4は、大きいほど(1に近いほど)主要被写体と副被写体とが類似しており、親戚などの縁者である可能性が高くなる。そのため、主要被写体及び副被写体の関係が強いと想定される。そのため、顔類似度R4が大きいほど関係度が大きくなるように設定する。
[第5実施例]
本実施例では、主要被写体及び副被写体の移動方向の類似性を示す移動方向類似度R5に基づいて関係度を設定する。例えば、順次入力される入力画像から検出される主要被写体及び副被写体の位置の変化により、それぞれの移動方向を算出することによって、移動方向類似度R5を算出することとしても構わない。
移動方向類似度R5の算出方法の一例について図9を参照して説明する。図9は、関係度の算出方法の第5実施例について説明する入力画像の模式図である。なお、図9に示す入力画像50は、図7に示す入力画像50と同様の画像である。そのため、図9中、図7と同じ部分には同じ符号を付してその詳細な説明については省略する。
図9において、主要被写体Mの移動方向をA1、副被写体Sの移動方向をA2とする。A1(ax1,ay1,az1)及びD2(ax2,ay2,az2)はいずれもベクトルであり、水平方向の成分をax1,ax2、垂直方向の成分をay1,ay2、奥行き方向の成分をaz1,az2とする3次元の方向を示すものとする。
このとき、移動方向A1,A2を用いて、下記式(3)に示すように主要被写体M及び副被写体Sの移動方向類似度R5を算出する。移動方向類似度R5は、主要被写体M及び副被写体Sの移動方向が同じ方向となる場合に1に近づき、逆の方向となる場合に0に近づく。また、いずれか一方が移動していない場合(即ち、移動方向A1またはA2が0となる場合)は、移動方向類似度R5が1になることとする。また、下記式(3)中、A1・A2は内積を示すものとする。
Figure 0005084696
以上のようにして算出される移動方向類似度R5は、大きいほど(1に近いほど)主要被写体M及び副被写体Sの移動方向が近いものとなる。そのため、主要被写体M及び副被写体Sの関係が強いと想定される。したがって、移動方向類似度R5が大きいほど関係度が大きくなるように設定する。
なお、上述した移動方向類似度R5は、奥行き方向の成分を用いて3次元的に算出したものであるが、奥行き方向の成分を用いずに2次元的に算出することとしても構わない。
[第6実施例]
本実施例では、主要被写体と副被写体との色の類似性を示す色類似度R6に基づいて関係度を設定する。例えば、上述の顔認識処理を行うことによって設定される顔検出枠に基づいて、主要被写体と副被写体との全体がそれぞれ含まれる被写体領域をそれぞれ設定し、被写体領域内のそれぞれの色情報を用いて色類似度R6を算出することとしても構わない。
色類似度R6の算出方法の一例について図10を参照して説明する。図10は、関係度の算出方法の第6実施例について説明する入力画像の模式図である。なお、図10に示す入力画像50は、図7に示す入力画像50と同様の画像である。そのため、図10中、図7と同じ部分には同じ符号を付してその詳細な説明については省略する。
図10において、被写体領域53,54は、例えば、図7に示した顔検出枠51,52を、それぞれ所定の倍率で下方及び左右方向に拡大するなどして設定される。そして、被写体領域53,54内の色情報を取得し、比較することで色類似度R6を算出する。
色情報として、例えば、被写体領域53,54内の色情報を平均化した値を用いることが可能である。また、色情報は、RGBの色ベクトルで表現したものとすることができる。ここで、主要被写体Mの被写体領域53の色情報をC1、副被写体Sの被写体領域54の色情報をC2とし、C1(R1,G1,B1)、C2(R2,G2,B2)とする。
このとき、色情報C1,C2を用いて、下記式(4)に示すように主要被写体M及び副被写体Sの色類似度R6を算出する。色類似度R6は、主要被写体M及び副被写体Sの色が似ている場合に1に近づき、異なる場合に0に近づく。また、下記式(4)中、C1・C2は内積を示すものとする。
Figure 0005084696
以上のようにして算出される色類似度R6は、大きいほど(1に近いほど)主要被写体M及び副被写体Sの色が似ており、例えば同じ服装や帽子などを身につけている可能性が高くなる。そのため、主要被写体M及び副被写体の関係が強いと想定される。したがって、色類似度R6が大きいほど関係度が大きくなるように設定する。
なお、色情報C1,C2を、RGBの信号を用いたものとしたが、YUVの信号を用いたものとしても構わないし、H(Hue)S(Saturation)B(Brightness)などの信号を用いたものとしても構わない。また、色情報C1,C2を、被写体領域53,54の色情報を平均化したものとしたが、一部を抽出したもの(例えば、最頻出の色)としても構わない。
また、上記式(4)のように、主要被写体M及び副被写体Sの色情報の差を色ベクトルの角度差で表現しないものとしても構わない。例えば、画素値の2乗差や絶対値差などを用いて色情報の差を算出しても構わない。
[第7実施例]
本実施例では、入力画像中の副被写体が特定の被写体として認識されるか否かを示す特定被写体存在度R7に基づいて関係度を設定する。例えば、特定の被写体の顔をサンプルとして予め記録して顔認識処理を行い、副被写体の顔が特定の被写体の顔として認識されるか否かで特定被写体存在度R7を算出しても構わない。
具体的に例えば、特定の被写体の顔のサンプルを用いて副被写体の顔認識処理を行った場合におけるスコアによって、顔認識度R7を設定する。特に、スコアが所定の値以上である場合、副被写体が特定の被写体であるとして、特定被写体存在度R7を1に設定する。一方、スコアが所定の値より小さいものである場合、副被写体が特定の被写体ではないとして、特定被写体存在度R7を0に設定する。
以上のようにして算出される特定被写体存在度R7は、大きいほど(1に近いほど)ユーザが主要被写体とともに切り出し画像内に含めたいと考える特定被写体が含まれる可能性が高いものとなる。そのため、主要被写体と副被写体との関係が強いと想定される。したがって、特定被写体存在度R7が大きいほど関係度が大きくなるように設定する。
なお、副被写体に対して特定の顔のサンプルを用いて行った顔認識処理のスコアに応じて、特定被写体存在度R7の値を設定しても構わない。特に、スコアが高いほど特定被写体存在度R7が大きくなるように設定しても構わない。ただし、特定被写体存在度R7は、0≦R7≦1を満たす値になるものとする。
[第8実施例]
本実施例では、副被写体の出現割合を示す出現度R8に基づいて関係度を設定する。例えば、切り出し処理部60に順次入力される入力画像中の副被写体が含まれる入力画像の割合に基づいて、出現度R8を算出することとしても構わない。
具体的に例えば、本実施例を画像記録時に適用する場合、関係度算出部62が関係度を算出する時点までに入力された入力画像の数で、これらの入力画像の中で副被写体が含まれていた数を除算することによって、出現度R8を算出する。また例えば、本実施例を画像再生時に適用する場合、表示する全ての入力画像の数(例えば、ある動画ファイルに含まれる全ての画像数)で、これらの入力画像の中で副被写体が含まれている数を除算することによって、出現度R8を算出する。このように設定される出現度R8は、0≦R8≦1を満たす値となる。
以上のようにして算出される出現度R8は、大きいほど(1に近いほど)副被写体が主要被写体とともに入力画像内に含まれることとなる。そのため、主要被写体と副被写体との関係が強いと想定される。したがって、出現度R8が大きいほど関係度が大きくなるように設定する。
なお、再生時に切り出し処理を行う場合において、画像の記録時に副被写体の検出を行って出現度R8を求め、画像とともに出現度R8を外部メモリ10に記録することとしても構わない。また、再生を開始する前に、全ての入力画像(例えば、ある動画ファイルに含まれる全ての画像)から副被写体を検出して、出現度R8を算出することとしても構わない。
[変形例]
なお、上述の第1、2及び5実施例では、主要被写体及び副被写体の位置を顔検出枠で示すこととしたが、主要被写体及び副被写体の全体を含む領域で位置を示すこととしても構わない。例えば、第6実施例において示した被写体領域としても構わない。また、顔検出枠の左上以外の頂点や中心点を用いて主要被写体及び副被写体の位置を示すこととしても構わない。
また、上述の実施例は組み合わせて実施することができる。即ち、下記式(5)に示すように、上述した各パラメータ値R1〜R8のそれぞれに重み付けを行うとともに合算して、関係度Yを算出することとしても構わない。なお、下記式(5)中のW1〜W8のそれぞれは、各パラメータ値R1〜R8に乗算される重み係数である。また、距離R1のみ小さいほど関係度が大きくなるものであるため、距離R1は逆数1/R1に重み係数W1が乗算されて合算される。
Figure 0005084696
上記式(5)は、第1〜第8実施例に示した各値R1〜R8を全て用いて関係度Yを算出する場合について示しているが、この中のいずれかの値を用いないこととしても構わない。また、これ以外の主要被写体及び副被写体の関係の強さを示す値を加えても構わない。
このように、種々の値を用いて関係度Yを規定することとすると、関係度Yを多面的な値として設定することが可能となる。したがって、より精密に関係度を算出することが可能となる。
<切り出し処理の具体例>
次に、上述した関係度を用いた切り出し処理の具体例について、図面を参照して説明する。特に、図2の切り出し領域設定部63による切り出し領域の設定方法について説明する。
図11は、切り出し領域の設定方法の一例を示す入力画像の模式図である。なお、図11に示す入力画像50は、図7に示す入力画像50と同様の画像である。そのため、図11中、図7と同じ部分には同じ符号を付してその詳細な説明については省略する。なお、図11は、再生時に切り出し処理を行う場合について示すものとする。
また、図11に示す例では、入力画像(即ち、図1の外部メモリ10に記録されている画像)の大きさが640×480であるものとする。また、再生用画像(即ち、図6のSTEP35において大きさが変換された後の画像)の大きさも640×480であるものとする。さらに、図11に示す入力画像について、左上の画素の座標を(0,0)とする。また、右下の画素の座標を(639,479)とする。
図11に示す主要被写体Mについて、顔検出枠51の大きさが(240,240)、左上の頂点の座標P1が(360,80)、顔の向きD1が(−10,2)、色情報C1が(150,150,50)であるものとする。また、副被写体Sについて、顔検出枠52の大きさが(180,180)、左上の頂点の座標P2が(60,100)、顔の向きD2が(10,2)、色情報C2が(150,150,50)であるものとする。
さらに、入力される音声信号があり、主要被写体M及び副被写体Sの移動はないものとする。また、主要被写体M及び副被写体Sの顔はわずかに類似しており、副被写体Sは記録していた特定の顔のサンプルに類似していたものとする。そして、再生する入力画像100枚中、90枚に副被写体Sが含まれていたこととする。
上記の場合、各パラメータ値R1〜R8は図11の表Laに示す値となる。即ち、R1=301、R2=0.94、R3=1、R4=0.1、R5=1、R6=0.99、R7=1、R8=0.9となる。また、重み係数W1〜W8は、W1=100、R2=1、W3=1、W4=0.5、W5=0.5、W6=0.5、W7=0.5、W8=1とする。この場合、上記式(5)に示すように関係度を算出することとすると、関係度Ya=4.72となる。
図2に示す切り出し領域設定部63は、例えばある所定の閾値TH_Y(例えば、3.0)と関係度Yaとを比較して、切り出し領域の設定方法を決定する。図11に示すように、関係度Ya(=4.72)が閾値TH_Y(=3.0)以上となる場合、主要被写体M及び副被写体Sの入力画像中の位置に基づいて切り出し領域を設定する。特に、主要被写体M及び副被写体Sが含まれるような切り出し領域113を設定する。
例えば、切り出し領域113の中心が、顔検出枠51,52のそれぞれの中心である(150,190)及び(480,200)の中間位置(315,195)と一致するように、切り出し領域113を設定する。また、再生用画像のアスペクト比(本例では、640:480=4:3)と略等しく、かつ顔検出枠51,52が全て含まれるように、切り出し領域113を設定する。その結果、図11に示す例では、570×428の大きさとなる切り出し領域113が設定される。
切り出し領域113は、再生用画像よりも小さいものとなるため、上述のように拡大処理が施される。例えば、補間処理が施されることによって画素数が増大されて、640×480の画素数を備える切り出し画像が生成される。
また、図12に、切り出し領域の設定方法の別例を示す、図12は、切り出し領域の設定方法の別例を示す入力画像の模式図である。なお、図12に示す入力画像120は、図7に示す入力画像50と同様の画像であるが、主要被写体M及び副被写体Sの位置や向きなどが異なっている。なお、図12中、図7と同じ部分には同じ符号を付してその詳細な説明については省略する。また、図12は、図11に示した例と同様の条件(切り出し処理が再生時、入力画像及び再生用画像の大きさが640×480)で切り出し領域を設定する場合について示すものとする。
図12に示す主要被写体Mについて、顔検出枠121の大きさが(240,240)、左上の頂点の座標P3が(300,80)、顔の向きD3が(10,2)、色情報C3が(150,150,50)であるものとする。また、副被写体Sについて、顔検出枠122の大きさが(180,180)、左上の頂点の座標P4が(20,100)、顔の向きD4が(−10,2)、色情報C4が(150,150,50)であるものとする。
さらに、入力される音声信号がなく、主要被写体M及び副被写体Sの移動もないものとする。また、主要被写体M及び副被写体Sの顔はわずかに類似しており、副被写体Sは記録していた特定の顔のサンプルに類似していたものとする。そして、再生する入力画像100枚中、90枚に副被写体Sが含まれていたこととする。
上記の場合、各パラメータ値R1〜R8は図12の表Lbに示す値となる。即ち、R1=281、R2=0.06、R3=0、R4=0.1、R5=1、R6=0.99、R7=1、R8=0.9となる。また、重み係数W1〜W8は、W1=100、R2=1、W3=1、W4=0.5、W5=0.5、W6=0.5、W7=0.5、W8=1とする。この場合、上記式(5)に示すように関係度を算出することとすると、関係度Yb=2.86となる。
上述のように、図2に示す切り出し領域設定部63は、例えばある所定の閾値TH_Y(例えば、3.0)と関係度Ybとを比較して、切り出し領域の設定方法を決定する。図12に示すように関係度Yb(=2.86)が閾値TH_Y(=3.0)より小さくなる場合、主要被写体Mの入力画像中の位置に基づいて切り出し領域を設定する。特に、主要被写体Mが略中心に位置するような切り出し領域123を設定する。
例えば、切り出し領域123の中心が、顔検出枠121の中心(即ち、(420,200))と一致するように設定する。また、出力する画像のアスペクト比(本例では、640:480=4:3)と略等しく、かつ顔検出枠121が全て含まれるような切り出し領域123を設定する。その結果、図12に示す例では、320×240の大きさとなる切り出し領域123が設定される。
切り出し領域123は、出力する画像よりも小さいものとなるため、上述のように拡大処理が施される。例えば、補間処理が施されることによって画素数が増大されて、640×480の画素数を備える切り出し画像が生成される。
以上のように切り出し領域を設定し、切り出し処理を行うこととすると、主要被写体と副被写体との関係の強さに応じて切り出し画像の構図を変更することが可能となる。特に、主要被写体と副被写体との関係が強い場合、主要被写体と副被写体とが含まれる構図の切り出し画像を得ることができる。したがって、主要被写体の挙動が明確となる切り出し画像を得ることが可能となる。
一方、主要被写体と副被写体との関係が弱い場合は、主要被写体が略中心となる構図の切り出し画像を得ることができる。したがって、無用な副被写体が切り出し画像に含まれることを抑制し、主要被写体を強調した切り出し画像を得ることが可能となる。
なお、入力画像中に含まれる副被写体が1つである場合を具体例として挙げたが、入力画像中に複数の副被写体が含まれることとしても構わない。また、複数の副被写体が含まれる場合、副被写体と主要被写体との関係度をそれぞれ算出するとともに、切り出し画像に含めるか否かをそれぞれ設定することとしても構わない。
さらに、切り出し画像に含める複数の副被写体のそれぞれの中心位置を、主要被写体との関係度によって重み付けして平均化した位置を、複数の副被写体の重心位置としても構わない。そして、主要被写体の中心位置と複数の副被写体の重心位置との中間位置が、中心位置となるような切り出し領域を設定しても構わない。
また、主要被写体及び副被写体の位置を、顔検出枠を用いて表現する場合を例示したが、図10に示すような被写体領域を用いて表現することとしても構わない。
また、上記のように切り出し画像に拡大処理を施す場合、入力される縮小画像の画素数を増やすために例えば補間処理を行うこととしたが、補間処理に加えて(または代えて)超解像処理を行うこととしても構わない。
超解像処理を行うこととすると、拡大処理して得られる画像(記録用画像または再生用画像)の画質を向上させることが可能となる。なお、以下では、超解像処理の一種であるMAP(Maximum A Posterior)法を用いる場合を例に挙げるとともに、図面を参照して説明する。図13及び図14は、超解像処理の概要を示す図である。
また、以下においては説明を簡単にするため、切り出し画像のある1方向に整列した複数の画素について考えることとする。また、2つの切り出し画像を合成することで超解像処理を行う場合であり、合成する画素値が輝度値である場合を例に挙げて説明する。
図13(a)は、撮像しようとする被写体の輝度分布を示したものである。また、図13(b)及び(c)のそれぞれは、図13(a)に示す被写体を撮像して得られる切り出し画像の輝度分布である。また、図13(d)は、図13(c)に示す縮小画像を所定の位置だけずらしたものである。なお、図13(b)に示す切り出し画像(以下、低解像度実画像Faとする)と図13(c)に示す切り出し画像(以下、低解像度実画像Fbとする)とは、撮像された時間が異なる。
図13(b)に示すように、図13(a)に示す輝度分布を有する被写体を時間T1に撮像して得られた低解像度実画像Faのサンプル点の位置を、S1、S1+ΔS、S1+2ΔSとする。また、図13(c)に示すように、時間T2(T1≠T2)に撮像して得られた低解像度実画像Fbのサンプル点の位置を、S2、S2+ΔS、S2+2ΔSとする。このとき、低解像度実画像Faのサンプル点S1と低解像度実画像Fbのサンプル点S2とは、手ブレなどが原因となりその位置にズレが生じているものとする。即ち、画素位置が(S1−S2)だけずれたものとなる。
図13(b)に示す低解像度実画像Faについて、サンプル点S1、S1+ΔS、S1+2ΔSから得られた輝度値を、画素P1,P2,P3における画素値pa1,pa2,pa3とする。同様に、図13(c)に示す低解像度実画像Fbについて、サンプル点S2、S2+ΔS、S2+2ΔSから得られた輝度値が、画素P1,P2,P3における画素値pb1,pb2,pb3とする。
ここで、低解像度実画像Faの画素P1,P2,P3を基準(注目画像)として低解像度実画像Fbを表した場合(即ち、低解像度実画像Fbを、低解像度実画像Faに対する動き量(S1−S2)だけ位置ズレ補正した場合)、位置ずれ補正後の低解像度実画像Fb+は、図13(d)に示すようになる。
次に、低解像度実画像Faと低解像度実画像Fb+とを組み合わせて高解像度画像を生成する方法を図14に示す。まず、図14(a)に示すように、低解像度実画像Faと低解像度実画像Fb+とを組み合わせて高解像度画像Fx1を推定する。なお、説明を簡単にするために、例えば、解像度をある1方向に対して2倍にするものとする。即ち、高解像度画像Fx1の画素が、低解像度実画像Fa,Fb+の画素P1,P2,P3と、画素P1,P2の中間位置に位置する画素P4と、画素P2,P3の中間位置に位置する画素P5と、を備えるものとする。
低解像度実画像Faの画素P4の画素値は、低解像度実画像Faの画素P1,P2の画素位置(画素の中心位置)と画素P4の画素位置との距離よりも、低解像度実画像Fb+における画素P1の画素位置と画素P4の画素位置との距離の方が近いことにより、画素値pb1が選択される。同様に、画素P5の画素値については、低解像度実画像Faにおける画素P2,P3の画素位置と画素P5の画素位置との距離よりも、低解像度実画像Fb+における画素P2の画素位置と画素P5の画素位置との距離の方が近いことにより、画素値pb2が選択される。
その後、図14(b)に示すように、得られた高解像度画像Fx1に対してダウンサンプリング量やぼけ量や位置ズレ量(動き量に相当)などをパラメータとして備えた変換式による演算を行うことで、低解像度実画像Fa,Fbのそれぞれに相当する推定画像である低解像度推定画像Fa1,Fb1を生成する。なお、図14(b)では、n回目の処理によって推定された高解像度画像Fxnより生成される低解像度推定画像Fan,Fbnを示している。
例えば、n=1のとき、図14(a)に示す高解像度画像Fx1に基づいて、サンプル点S1、S1+ΔS、S1+2ΔSにおける画素値を推定して、取得した画素値pa11〜pa31を画素P1〜P3の画素値とする低解像度推定画像Fa1を生成する。同様に、高解像度画像Fx1に基づいて、サンプル点S2、S2+ΔS、S2+2ΔSにおける画素値を推定して、取得した画素値pb11〜pb31を画素P1〜P3の画素値とする低解像度推定画像Fb1を生成する。そして、図14(c)に示すように、低解像度推定画像Fa1,Fb1のそれぞれと、低解像度実画像Fa,Fbのそれぞれとの間における差分を求め、この差分を合成することで高解像度画像Fx1に対する差分画像ΔFx1を取得する。なお、図14(c)では、n回目の処理によって取得された高解像度画像Fxnに対する差分画像ΔFxnを示している。
例えば、差分画像ΔFa1は、差分値(pa11−pa1)、(pa21−pa2)、(pa31−pa3)がP1〜P3の画素値となり、差分画像ΔFb1は、差分値(pb11−pb1)、(pb21−pb2)、(pb31−pb3)がP1〜P3の画素値となる。そして、差分画像ΔFa1,ΔFb1の画素値を合成することによって、画素P1〜P5のそれぞれにおける差分値を算出して、高解像度画像Fx1に対する差分画像ΔFx1を取得する。この差分画像ΔFa1,ΔFb1の画素値を合成して差分画像ΔFx1を取得する際、例えば、ML(Maximum Likelihood)法やMAP法を用いる場合では、二乗誤差を評価関数として用いる。即ち、差分画像ΔFa1,ΔFb1の画素値を二乗してフレーム間で加算した値を評価関数とする。この評価関数の微分値である勾配は、差分画像ΔFa1,ΔFb1の画素値を2倍した値となる。そのため、高解像度画像Fx1に対する差分画像ΔFx1は、差分画像ΔFa1,ΔFb1それぞれの画素値を2倍した値を用いて高解像度化することで算出される。
その後、図14(d)に示すように、得られた差分画像ΔFx1における画素P1〜P5の画素値(差分値)が、高解像度画像Fx1における画素P1〜P5の画素値より減算されることで、図13(a)に示した輝度分布の被写体に近い画素値となる高解像度画像Fx2が再構成される。なお、図14(d)では、n回目の処理によって取得された高解像度画像Fx(n+1)を示している。
上述した一連の処理を繰り返すことによって、得られる差分画像ΔFxnの画素値が小さくなり、高解像度画像Fxnの画素値が図13(a)に示す輝度分布の被写体に近い画素値に収束される。そして、差分画像ΔFxnの画素値(差分値)が所定値より小さくなったときや、差分画像ΔFxnの画素値(差分値)が収束したとき、前の処理(n−1回目の処理)において得られた高解像度画像Fxnを、超解像処理後の画像(記録用画像または再生用画像)とする。
また、上記の処理において動き量(位置ズレ量)を求める際に、例えば以下に示すような、代表点マッチング法と1画素内動き量検出とを行うこととしても構わない。最初に、代表点マッチング法について図面を参照して説明し、その後に1画素内動き量検出について図面を参照して説明する。図15及び図16は、代表点マッチング法について示す図である。図15は、画像の各領域の分割方法について示す画像の模式図であり、図16は、基準画像及び非基準画像について示す模式図である。
代表点マッチング法は、例えば、基準となる画像(基準画像)と、基準画像と比較されて動きが検出される画像(非基準画像)のそれぞれに対して、図15に示すような領域分割を行う。例えば、a×bの画素群(例えば、36×36の画素群)を1つの小領域eとして分割し、さらに、この小領域eのp×q領域分(例えば、6×8領域分)を1つの検出領域Eとして分割する。また、図16(a)に示すように、小領域eを構成するa×bの画素から1つの画素が代表点Qとして設定される。一方、図16(b)に示すように、小領域eを構成するa×bの画素のうちの複数の画素がサンプリング点Uとして設定される(例えば、a×bの画素全てをサンプリング点Uとしても構わない)。
以上のように小領域e及び検出領域Eが設定されると、基準画像と非基準画像の同一位置となる小領域eについて、非基準画像の各サンプリング点Uの画素値と基準画像の代表点Qの画素値との差が、各サンプリング点Uでの相関値として求められる。そして、検出領域E毎に、各小領域e間で代表点Rとの相対位置が同一となるサンプリング点Uの相関値を、検出領域Eを構成する全ての小領域e分だけ累積加算することで、各サンプリング点Uにおける累積相関値を取得する。これにより、検出領域E毎に、代表点Qとの相対位置が同一となるp×q個のサンプリング点Uの相関値が累積加算されることで、サンプリング点Uの個数分の累積相関値が得られる(例えば、a×bの画素全てをサンプリング点Uとする場合、a×b個の累積相関値が得られることとなる)。
各検出領域Eに対して、各サンプリング点Uに対する累積相関値が求められると、各検出領域Eにおいて、代表点Qと相関性が最も高いと考えられるサンプリング点U(即ち、累積相関値が最小となるサンプリング点U)が検出される。そして、各検出領域Eでは、累積相関値が最小となるサンプリング点Uと代表点Qとの動き量が、それぞれの画素位置によって求められる。その後、各検出領域Eそれぞれに対して求められた動き量を平均することで、この平均値を、基準画像と非基準画像との間の画素単位による動き量として検出する。
次に、1画素内動き量検出について図面を参照して説明する。図17は、1画素内動き量検出について示す基準画像及び非基準画像の模式図であり、図18は、1画素内動き量検出を行う際の代表点及びサンプリング点の画素値の関係を示すグラフである。
上述のように、例えば代表点マッチング法を用いるなどして画素単位の動き量を検出した後、さらに、下記に示す方法を用いて1画素内の動き量を検出することができる。例えば、小領域e毎に基準画像の代表点Qの画素の画素値と、代表点Qと相関性の高いサンプリング点Uxの画素及びその周辺画素のそれぞれの画素値と、の関係によって1画素内の動き量を検出することができる。
図17に示すように、各小領域eにおいて、基準画像で画素位置(ar,br)となる代表点Qの画素値Laと、非基準画像において画素位置(as,bs)となるサンプル点Uxの画素値Lbと、サンプル点Uxと水平方向に隣接する画素位置(as+1,bs)の画素値Lcと、サンプル点Uxと垂直方向に隣接する画素位置(as,bs+1)の画素値Ldとの関係によって、1画素内における動き量が検出される。このとき、代表点マッチング法により、基準画像から非基準画像への画素単位の動き量が、(as−ar,bs−br)となるベクトル量で表される値となる。
また、図18(a)に示すように、サンプル点Uxとなる画素から水平方向に1画素ずれることで、画素値Lbから画素値Lcに線形的に変化するものとする。同様に、図18(b)に示すように、サンプル点Uxとなる画素から垂直方向に1画素ずれることで、画素値Lbから画素値Ldに線形的に変化するものとする。そして、画素値Lb,Lcの間で画素値Laとなる水平方向の位置Δx(=(La−Lb)/(Lc−Lb))を求めるとともに、画素値Lb,Ldの間で画素値Laとなる垂直方向の位置Δy(=(La−Lb)/(Ld−Lb))を求める。即ち、(Δx,Δy)で表されるベクトル量が、基準画素と非基準画素との間における、1画素内での動き量として求められる。
このようにして、小領域eそれぞれにおける1画素内での動き量を求める。そして、求めた動き量を平均して得られる平均値を、基準画像(例えば、低解像度実画像Fb)と非基準画像(例えば、低解像度実画像Fa)との間の1画素内での動き量として検出する。そして、代表点マッチング法によって得られた画素単位による動き量に、求めた1画素内での動き量を加えることによって、基準画像と非基準画像との間における動き量を算出することができる。
<<変形例>>
また、本発明の実施形態における撮像装置1,1aについて、画像処理部6,6a,6bや切り出し処理部60などのそれぞれの動作を、マイコンなどの制御装置が行うこととしても構わない。さらに、このような制御装置によって実現される機能の全部または一部をプログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能の全部または一部を実現するようにしても構わない。
また、上述した場合に限らず、図1及び図5の撮像装置1,1aや、図2の切り出し処理部60は、ハードウェア、あるいは、ハードウェアとソフトウェアの組み合わせによって実現可能である。また、ソフトウェアを用いて撮像装置1,1aや切り出し処理部60を構成する場合、ソフトウェアによって実現される部位についてのブロック図は、その部位の機能ブロック図を表すこととする。
以上、本発明の実施形態についてそれぞれ説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で種々の変更を加えて実行することができる。
本発明は、入力画像を切り出して所望の切り出し画像を得る画像処理装置や画像処理方法、デジタルビデオカメラに代表される撮像装置などの電子機器に関する。
は、本発明の実施形態における撮像装置の構成を示すブロック図である。 は、本発明の実施形態における撮像装置に備えられる切り出し処理部の構成を示すブロック図である。 は、切り出し処理部の動作の一例について説明するフローチャートである。 は、顔検出処理の一例について示す画像の模式図である。 は、本発明の実施形態における撮像装置の別例の構成を示すブロック図である。 は、切り出し処理部の動作の別例について説明するフローチャートである。 は、関係度の算出方法の第1実施例について説明する入力画像の模式図である。 は、関係度の算出方法の第2実施例について説明する入力画像の模式図である。 は、関係度の算出方法の第5実施例について説明する入力画像の模式図である。 は、関係度の算出方法の第6実施例について説明する入力画像の模式図である。 は、切り出し領域の設定方法の一例を示す入力画像の模式図である。 は、切り出し領域の設定方法の別例を示す入力画像の模式図である。 は、超解像処理の概要を示す図である。 は、超解像処理の概要を示す図である。 は、代表点マッチング法における画像の各領域の分割方法について示す画像の模式図である。 は、代表点マッチング法について示す基準画像及び非基準画像の模式図である。 は、1画素内動き量検出について示す基準画像及び非基準画像の模式図である。 は、1画素内動き量検出を行う際の代表点及びサンプリング点の画素値の関係を示すグラフである。
符号の説明
1,1a 撮像装置
2 イメージサンサ
3 レンズ部
4 AFE
5 集音部
6,6a,6b 画像処理部
60 切り出し処理部
61 被写体検出部
62 関係度算出部
63 切り出し領域設定部
64 切り出し部
7 音声処理部
8 圧縮処理部
9 ドライバ部
10 外部メモリ
11 伸長処理部
12 画像出力回路部
13 音声出力回路部
14 CPU
15 メモリ
16 操作部
17 TG部
18 バス
19 バス

Claims (6)

  1. 入力画像の一部を切り出して切り出し画像を生成する切り出し処理部を備える画像処理装置において、
    前記切り出し処理部が、
    前記入力画像から所定の被写体を検出するとともに、検出した前記被写体の一つを主要被写体として設定し、他を副被写体として設定する被写体検出部と、
    前記被写体検出部で検出される前記主要被写体と前記副被写体との関係の強さを示す関係度を算出する関係度算出部と、
    前記入力画像中の前記主要被写体及び前記副被写体の位置と、前記関係度と、に基づいて、前記入力画像に対して切り出し領域を設定する切り出し領域設定部と、
    前記入力画像から前記切り出し領域を切り出して前記切り出し画像を生成する切り出し部と、
    を備えることを特徴とする画像処理装置。
  2. 前記切り出し領域設定部が、
    前記主要被写体と、前記主要被写体との前記関係度が所定の値以上である前記副被写体と、が含まれる前記切り出し領域を設定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記被写体検出部が、顔を検出することによって前記被写体を検出するものであり、
    前記入力画像中最も大きい顔と、前記入力画像中最も中央に近い顔と、特定の顔として認識される顔と、外部より入力される選択信号によって指定される顔と、
    の少なくとも一つに該当する顔を有する前記被写体を、前記主要被写体として設定することを特徴とする請求項1または請求項2に記載の画像処理装置。
  4. 前記関係度算出部が、
    前記主要被写体と前記副被写体との距離と、前記主要被写体及び前記副被写体のそれぞれの顔の向きと、前記主要被写体及び前記副被写体が発する音と、前記主要被写体及び前記副被写体の顔が類似する程度と、前記主要被写体及び前記副被写体の色が類似する程度と、前記副被写体の顔が特定の顔であると認識される程度と、順次入力される前記入力画像中に前記副被写体が含まれる割合と、
    の少なくとも一つに基づいて前記関係度を算出することを特徴とする請求項1〜請求項3のいずれかに記載の画像処理装置。
  5. 請求項1〜請求項4のいずれかに記載の画像処理装置を備え、
    前記画像処理装置から出力される前記切り出し画像を記録または表示することを特徴とする電子機器。
  6. 入力画像から所定の被写体を検出するとともに、検出した前記被写体の一つを主要被写体として設定し、他を副被写体として設定する第1ステップと、
    前記第1ステップで設定された前記主要被写体と前記副被写体との関係の強さを示す関係度を算出する第2ステップと、
    前記入力画像中の前記主要被写体及び前記副被写体の位置と、前記第2ステップで算出される前記関係度と、に基づいて、前記入力画像に対して切り出し領域を設定する第3ステップと、
    前記入力画像から前記第3ステップで設定された前記切り出し領域を切り出して切り出し画像を生成する第4ステップと、
    を備えることを特徴とする画像処理方法。
JP2008275218A 2008-10-27 2008-10-27 画像処理装置、画像処理方法及び電子機器 Expired - Fee Related JP5084696B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008275218A JP5084696B2 (ja) 2008-10-27 2008-10-27 画像処理装置、画像処理方法及び電子機器
US12/606,411 US8488840B2 (en) 2008-10-27 2009-10-27 Image processing device, image processing method and electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008275218A JP5084696B2 (ja) 2008-10-27 2008-10-27 画像処理装置、画像処理方法及び電子機器

Publications (2)

Publication Number Publication Date
JP2010103884A JP2010103884A (ja) 2010-05-06
JP5084696B2 true JP5084696B2 (ja) 2012-11-28

Family

ID=42117050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008275218A Expired - Fee Related JP5084696B2 (ja) 2008-10-27 2008-10-27 画像処理装置、画像処理方法及び電子機器

Country Status (2)

Country Link
US (1) US8488840B2 (ja)
JP (1) JP5084696B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5427577B2 (ja) * 2009-12-04 2014-02-26 パナソニック株式会社 表示制御装置及び表示画像形成方法
JP2012160039A (ja) * 2011-02-01 2012-08-23 Fujifilm Corp 画像処理装置、立体画像印刷システム、画像処理方法およびプログラム
JP5389083B2 (ja) * 2011-03-25 2014-01-15 株式会社東芝 画像処理装置、画像符号化システム及び画像復号システム
JP5862071B2 (ja) * 2011-06-30 2016-02-16 株式会社ニコン 画像処理装置、撮像装置およびプログラム
CN103535025B (zh) * 2012-03-15 2018-03-06 松下电器(美国)知识产权公司 内容数据处理装置、内容数据处理方法以及程序
US9049382B2 (en) * 2012-04-05 2015-06-02 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US9648205B2 (en) 2013-03-26 2017-05-09 Panasonic Intellectual Property Management Co., Ltd. Image generation device, imaging device, image generation method, and program for generating a new image from a captured image based on a cut-out frame
US9769424B2 (en) 2013-10-24 2017-09-19 Telefonaktiebolaget Lm Ericsson (Publ) Arrangements and method thereof for video retargeting for video conferencing
JP6701706B2 (ja) * 2015-12-09 2020-05-27 株式会社ニコン 電子機器及びプログラム
US10402945B2 (en) 2016-02-18 2019-09-03 Imint Image Intelligence Ab System and method for video processing
EP3287947A1 (en) * 2016-08-25 2018-02-28 Dolby Laboratories Licensing Corp. Automatic video framing of conference participants
JP2020072457A (ja) * 2018-11-02 2020-05-07 ソニー株式会社 映像処理装置、映像処理方法、およびプログラム

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6275258B1 (en) * 1996-12-17 2001-08-14 Nicholas Chim Voice responsive image tracking system
JP2000295517A (ja) 1999-04-06 2000-10-20 Matsushita Electric Ind Co Ltd 被写体追尾装置、及びカメラシステム
JP2001149643A (ja) * 1999-09-16 2001-06-05 Sony Computer Entertainment Inc 3次元ゲームにおけるオブジェクト表示方法、情報記録媒体およびエンタテインメント装置
KR20020064888A (ko) 1999-10-22 2002-08-10 액티브스카이 인코포레이티드 객체 지향형 비디오 시스템
JP2001169169A (ja) 1999-12-10 2001-06-22 Fuji Photo Optical Co Ltd 自動追尾装置
US6661450B2 (en) 1999-12-03 2003-12-09 Fuji Photo Optical Co., Ltd. Automatic following device
US20020161561A1 (en) 2001-01-16 2002-10-31 Sridevi Sarma System and method for association of object sets
US7782357B2 (en) * 2002-06-21 2010-08-24 Microsoft Corporation Minimizing dead zones in panoramic images
JP3789121B2 (ja) 2002-11-27 2006-06-21 中央電子株式会社 表示方法および表示装置
GB2395780A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
US7349008B2 (en) * 2002-11-30 2008-03-25 Microsoft Corporation Automated camera management system and method for capturing presentations using videography rules
KR100839772B1 (ko) * 2003-07-15 2008-06-20 오므론 가부시키가이샤 대상 결정 장치 및 촬상 장치
JP2006099058A (ja) * 2004-09-03 2006-04-13 Fuji Photo Film Co Ltd 表示装置、表示方法、およびプログラム
JP2006270488A (ja) * 2005-03-24 2006-10-05 Seiko Epson Corp 撮像装置、及び、画像処理方法
US7209577B2 (en) * 2005-07-14 2007-04-24 Logitech Europe S.A. Facial feature-localized and global real-time video morphing
JP2007274017A (ja) * 2006-03-30 2007-10-18 Fujifilm Corp 自動トリミング方法および装置ならびにプログラム
JP2007272685A (ja) * 2006-03-31 2007-10-18 Fujifilm Corp 自動トリミング方法および装置ならびにプログラム
JP4182117B2 (ja) * 2006-05-10 2008-11-19 キヤノン株式会社 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP2007316417A (ja) * 2006-05-26 2007-12-06 Matsushita Electric Ind Co Ltd 高域情報検出処理装置および撮像装置
JP4509063B2 (ja) * 2006-06-07 2010-07-21 富士フイルム株式会社 画像処理装置,その制御方法およびその制御プログラム
JP4207980B2 (ja) * 2006-06-09 2009-01-14 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
JP2008022240A (ja) * 2006-07-12 2008-01-31 Fujifilm Corp 撮影装置,画像処理装置、及び画像ファイル生成方法,画像処理方法、並びに画像処理プログラム
JP4228320B2 (ja) * 2006-09-11 2009-02-25 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP4912117B2 (ja) 2006-10-27 2012-04-11 三洋電機株式会社 追跡機能付き撮像装置
US7916894B1 (en) * 2007-01-29 2011-03-29 Adobe Systems Incorporated Summary of a video using faces
KR100818289B1 (ko) * 2007-02-02 2008-03-31 삼성전자주식회사 비디오 영상 트레킹 방법 및 장치
JP4396720B2 (ja) * 2007-03-26 2010-01-13 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2009004873A (ja) 2007-06-19 2009-01-08 Canon Inc カメラ制御システム及び方法、並びにプログラム及び記憶媒体
GB2452510A (en) * 2007-09-05 2009-03-11 Sony Corp System For Communicating A Three Dimensional Representation Of A Sporting Event
US20090290791A1 (en) * 2008-05-20 2009-11-26 Holub Alex David Automatic tracking of people and bodies in video

Also Published As

Publication number Publication date
US20100103192A1 (en) 2010-04-29
JP2010103884A (ja) 2010-05-06
US8488840B2 (en) 2013-07-16

Similar Documents

Publication Publication Date Title
JP5084696B2 (ja) 画像処理装置、画像処理方法及び電子機器
JP5202283B2 (ja) 撮像装置及び電子機器
JP5202211B2 (ja) 画像処理装置及び電子機器
US8421887B2 (en) Image sensing apparatus
JP5183297B2 (ja) 画像処理装置、撮像装置及び画像処理方法
JP4674471B2 (ja) デジタルカメラ
JP5359783B2 (ja) 画像処理装置および方法、並びにプログラム
JP2010103972A (ja) 画像処理装置及び電子機器
JP2010088105A (ja) 撮像装置および方法、並びにプログラム
JP4839908B2 (ja) 撮像装置、自動焦点調整方法、およびプログラム
JP2010161760A (ja) 画像処理装置及び電子機器
JP2010153969A (ja) 撮像装置
JP2007336411A (ja) 撮像装置、オートブラケティング撮影方法、およびプログラム
JP2010028608A (ja) 画像処理装置、撮像装置、再生装置及び画像処理方法
JP5261765B2 (ja) 撮像装置及び撮像方法
JP2009124644A (ja) 画像処理装置、撮像装置及び画像再生装置
JP2013165488A (ja) 画像処理装置、撮像装置、およびプログラム
JP2009089220A (ja) 撮像装置
JP2011128643A (ja) 撮像装置、自動焦点調整方法、およびプログラム
JP2011066827A (ja) 画像処理装置、画像処理方法及びプログラム
JP5267279B2 (ja) 画像合成装置及びプログラム
JP2009044329A (ja) プログラム、画像処理方法および画像処理装置
JP2008172395A (ja) 撮像装置、画像処理装置、方法およびプログラム
JP2011155582A (ja) 撮像装置
JP2014132771A (ja) 画像処理装置および方法、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120807

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120904

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees