JP2010011441A - 撮像装置及び画像再生装置 - Google Patents

撮像装置及び画像再生装置 Download PDF

Info

Publication number
JP2010011441A
JP2010011441A JP2009093571A JP2009093571A JP2010011441A JP 2010011441 A JP2010011441 A JP 2010011441A JP 2009093571 A JP2009093571 A JP 2009093571A JP 2009093571 A JP2009093571 A JP 2009093571A JP 2010011441 A JP2010011441 A JP 2010011441A
Authority
JP
Japan
Prior art keywords
image
tracking
tracking target
area
cutout
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009093571A
Other languages
English (en)
Inventor
Masahiro Yokohata
正大 横畠
Hideto Fujita
日出人 藤田
Clarissa Leung
ルン・クラリッサ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2009093571A priority Critical patent/JP2010011441A/ja
Priority to US12/471,859 priority patent/US20100033579A1/en
Priority to CN200910202859XA priority patent/CN101605209B/zh
Publication of JP2010011441A publication Critical patent/JP2010011441A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】追尾対象が切り出し画像内から出てしまうことを防ぐ。
【解決手段】撮像装置は、撮像素子の出力信号に基づき撮影画像列上における追尾対象の位置を順次検出することによって前記撮影画像列上で前記追尾対象を追尾する追尾処理部と、追尾対象を含む切り出し領域を撮影画像内に設定し、切り出し領域内の画像を切り出し画像として抽出する切り出し処理部と、撮像素子の出力信号に基づいて追尾処理部による追尾信頼度を評価する追尾信頼度評価部とを備える。切り出し処理部は、評価された追尾信頼度が比較的高い場合は、切り出し領域の大きさを比較的小さくし、評価された追尾信頼度が比較的低い場合は、切り出し領域の大きさを比較的大きくする。
【選択図】図9

Description

本発明は、動画像の撮影が可能な撮像装置に関する。また、本発明は、動画像を再生する画像再生装置に関する。
動物体を抽出及び追尾する機能は、監視カメラを用いたシステムにおいて実現されている。この種のシステムにおいては、監視カメラより得た画像中の指定エリア内から動物体(不審者)が検出された場合に警報が出力される。また、監視員が確認しやすいように、追尾結果を表示する機能を持ったシステムも実用化されている。
画像を用いた追尾処理は、追尾パターンの設定後に画像内におけるパターンの位置を探索するパターンマッチング法や、オプティカルフローに基づいて動物体の位置を検出する方法、色などの被写体特徴を追跡する方法などを用いて実現される。
画像処理を用いた動物体の抽出及び追尾技術は、監視カメラでの利用やロボット視覚実現を目的に研究されてきたが、近年、一般消費者向けのデジタルカメラにおいても利用され始めている。例えば、指定した被写体を追尾し、切り出し処理によって注目した被写体に適した構図の画像を撮影画像から切り出す方法が開示されている(下記非特許文献1参照)。
主要被写体を追尾対象とする追尾処理を行い、追尾対象の像を含む画像領域を撮影画像から切り出すようにすれば、追尾対象に対して良好な構図を有する動画像をユーザに提供することが可能となる。しかし、画像処理による追尾は常に成功する訳ではなく、様々な要因によって追尾の容易度が変化し、カメラが追尾対象を見失うことも少なくない。例えば、追尾対象の色情報に基づいて追尾を行う場合において、背景の色と追尾対象の色が似通っていると、追尾の容易度が低下して、カメラが追尾対象を見失うこともある。追尾の容易度が低下すると、当然、追尾の信頼度も低下する。
図30(a)に示す如く、追尾の信頼度又は容易度が高い状態では、追尾対象900に注目した切り出し領域902を撮影画像901内に設定し、切り出し領域902内の画像を切り出し画像として生成及び記録すればよい。しかし、追尾の信頼度又は容易度が低下した状態において、それらが高い場合と同様の切り出し処理を行うと、図30(b)に示す如く、撮影画像911内に設定された切り出し領域912中に追尾対象910が存在していないといったことも生じうる。図30(b)は、色情報に基づく追尾処理の実行時において、追尾対象の色に類似した色を有する物体が背景に存在しており、その物体を追尾対象であると誤って認識した場合を想定している。
カメラの撮影領域内に追尾対象である主要被写体が収まっているにも拘らず、カメラに記録された切り出し画像内に該主要被写体の像が収まっていないという事態は、極めて好ましくない事態であり、そのような事態の発生は極力回避されるべきである。
追尾対象に着目した切り出し処理利用時(即ち、電子ズーム利用時)の課題を上述したが、追尾対象に着目して光学ズームを行う場合にも同様の問題が生じうる。また、撮影時に行うべき処理を画像再生時に行おうとした場合にも同様の問題が生じうる。また更に、追尾対象に着目したオートフォーカス制御等を実現しようとした場合にも同様の問題が生じうる。
尚、電子ズーム及び/又は光学ズームを利用して、追尾対象に注目した画像を取得しようとする技術が様々に提案されているが(例えば、下記特許文献1及び2参照)、従来の技術では、追尾の信頼度又は容易度に対する考慮がなされていないのが実情である。また、追尾対象の画像中の移動に合わせてオートフォーカス制御に用いる領域を移動させる技術も提案されているが(例えば、下記特許文献2参照)、この技術においても、追尾の信頼度又は容易度に対する考慮がなされていない。
特開2006−19852号公報 特許第3168492号公報
カシオ、エクシリム総合カタログ、"オートフレーミング機能(ページ4の右下)"、[online]、平成19年11月、[平成20年1月25日検索]、インターネット<URL:http://ftp.casio.co.jp/pub/exilim/jp/exilim.pdf>
そこで本発明は、追尾処理を利用した制御(例えば切り出し制御)であって且つ追尾の信頼度又は容易度に適応した制御を行うことのできる撮像装置及び画像再生装置を提供することを目的とする。
本発明に係る第1の撮像装置は、順次撮影によって撮影画像列を表す信号を出力する撮像素子と、前記撮像素子の出力信号に基づき前記撮影画像列上における追尾対象の位置を順次検出することによって、前記撮影画像列上で前記追尾対象を追尾する追尾処理手段と、撮影画像ごとに、検出された前記位置に基づいて切り出し領域を前記撮影画像内に設定し、前記切り出し領域内の画像を切り出し画像として抽出する或いは前記切り出し領域の位置及び大きさを表す切り出し情報を出力する切り出し処理手段と、前記撮像素子の出力信号に基づき、前記追尾処理手段による追尾の信頼性又は容易性の度合いを評価する追尾評価手段とを備え、前記切り出し処理手段は、評価された前記度合いに応じて前記切り出し領域の大きさを変化させることを特徴とする。
これにより、例えば、追尾の信頼度又は容易度が比較的低い時には、切り出し領域の大きさを比較的大きくするといったことも可能となる。結果、追尾対象が切り出し領域内に含まれなくなるといった事態の発生を回避することが可能となる。
即ち具体的には例えば、前記切り出し処理手段は、前記度合いが比較的高いと評価されたときにおける前記切り出し領域の大きさを、前記度合いが比較的低いと評価されたときにおける前記切り出し領域の大きさよりも小さくする。
これにより、追尾対象にとって良好な構図を有する動画像の取得を可能としつつ、追尾の信頼度又は容易度が比較的低い時に、追尾対象が切り出し領域内に含まれなくなるといった事態の発生を回避することが可能となる。
また具体的には例えば、前記切り出し処理手段は、評価された前記度合いと撮影画像上の前記追尾対象の大きさに基づいて、前記切り出し領域の大きさを設定する。
本発明に係る第2の撮像装置は、順次撮影によって撮影画像列を表す信号を出力する撮像素子と、前記撮像素子の出力信号に基づき前記撮影画像列上における追尾対象の位置を順次検出することによって、前記撮影画像列上で前記追尾対象を追尾する追尾処理手段と、撮影における画角を調整する画角調整手段と、前記撮像素子の出力信号に基づき、前記追尾処理手段による追尾の信頼性又は容易性の度合いを評価する追尾評価手段とを備え、前記画角調整手段は、評価された前記度合いに応じて前記画角を変化させることを特徴とする。
これにより、例えば、追尾の信頼度又は容易度が比較的低い時には、画角を比較的大きくするといったことも可能となる。結果、追尾対象が撮影領域内に収まらなくなるといった事態の発生を回避することが可能となる。
即ち具体的には例えば、前記画角調整手段は、前記度合いが比較的高いと評価されたときに撮影画像上の前記追尾対象の大きさが比較的大きくなるように、且つ、前記度合いが比較的低いと評価されたときに撮影画像上の前記追尾対象の大きさが比較的小さくなるように、前記度合いに応じて前記画角を調整する。
これにより、追尾対象にとって良好な構図を有する動画像の取得を可能としつつ、追尾の信頼度又は容易度が比較的低い時に、追尾対象が撮影領域内に収まらなくなるといった事態の発生を回避することが可能となる。
また具体的には例えば、前記画角調整手段は、評価された前記度合いと撮影画像上の前記追尾対象の大きさに基づいて、前記画角を設定する。
また具体的には例えば、前記第1又は第2の撮像装置において、前記追尾評価手段は、前記撮影画像列を形成する撮影画像を被演算画像として受けて、前記被演算画像の全体領域を前記追尾対象が表れる追尾対象領域と前記追尾対象領域以外の背景領域に切り分け、前記追尾対象領域における画像特徴と前記背景領域における画像特徴との対比から前記度合いを評価する。
本発明に係る第1の画像再生装置は、撮影対象を次々と撮影することにより得られた画像信号を記録手段から読み出すことによって、前記画像信号に基づく入力画像列を取得する画像取得手段と、前記入力画像列の画像信号に基づき前記入力画像列上における追尾対象の位置を順次検出することによって、前記入力画像列上で前記追尾対象を追尾する追尾処理手段と、入力画像ごとに、検出された前記位置に基づいて切り出し領域を前記入力画像内に設定し、前記切り出し領域内の画像を切り出し画像として抽出する切り出し処理手段と、前記入力画像列の画像信号に基づき、前記追尾処理手段による追尾の信頼性又は容易性の度合いを評価する追尾評価手段とを備えて、切り出し画像列の画像信号を表示手段又は外部に出力する画像再生装置であって、前記切り出し処理手段は、評価された前記度合いに応じて前記切り出し領域の大きさを変化させることを特徴とする。
これにより、例えば、追尾の信頼度又は容易度が比較的低い時には、切り出し領域の大きさを比較的大きくするといったことも可能となる。結果、追尾対象が切り出し領域内に含まれなくなるといった事態の発生を回避することが可能となる。
本発明に係る第3の撮像装置は、順次撮影によって撮影画像列を表す信号を出力する撮像素子と、前記撮像素子の出力信号に基づき前記撮影画像列上における追尾対象の位置を順次検出することによって、前記撮影画像列上で前記追尾対象を追尾する追尾処理手段と、検出された前記位置に基づいて評価値収集領域を各撮影画像内に設定する領域設定手段と、各撮影画像における前記評価値収集領域内の画像信号に基づいて前記撮影画像列の取得条件を制御する取得条件制御手段と、前記撮像素子の出力信号に基づき、前記追尾処理手段による追尾の信頼性又は容易性の度合いを評価する追尾評価手段とを備え、前記領域設定手段は、評価された前記度合いに応じて前記評価値収集領域の大きさを変化させることを特徴とする。
これにより、例えば、追尾の信頼度又は容易度が比較的低い時には、評価値収集領域の大きさを比較的大きくするといったことも可能となる。結果、撮影画像列の取得条件が追尾対象とは全く関係のない物体に対して最適化される、といったことを回避することが可能となる。
本発明に係る第2の画像再生装置は、撮影対象を次々と撮影することにより得られた画像信号を記録手段から読み出すことによって、前記画像信号に基づく入力画像列を取得する画像取得手段と、前記入力画像列の画像信号に基づき前記入力画像列上における追尾対象の位置を順次検出することによって、前記入力画像列上で前記追尾対象を追尾する追尾処理手段と、検出された前記位置に基づいて評価値収集領域を各入力画像内に設定する領域設定手段と、各入力画像における前記評価値収集領域内の画像信号に基づいて前記入力画像列を加工した出力画像列を生成する出力画像生成手段と、前記入力画像列の画像信号に基づき、前記追尾処理手段による追尾の信頼性又は容易性の度合いを評価する追尾評価手段とを備えて、前記出力画像列の画像信号を表示手段又は外部に出力する画像再生装置であって、前記領域設定手段は、評価された前記度合いに応じて前記評価値収集領域の大きさを変化させることを特徴とする。
これにより、例えば、追尾の信頼度又は容易度が比較的低い時には、評価値収集領域の大きさを比較的大きくするといったことも可能となる。結果、再生画像の画質が追尾対象とは全く関係のない物体に対して最適化される、といったことを回避することが可能となる。
また例えば、上記の撮像装置又は画像再生装置において、前記追尾評価手段は、前記撮影画像又は前記入力画像上の追尾対象の大きさに基づいて前記度合いを評価してもよい。
また例えば、上記の撮像装置又は画像再生装置において、前記追尾評価手段は、前記撮影画像又は前記入力画像上の追尾対象の位置に基づいて前記度合いを評価してもよい。
また例えば、上記の撮像装置又は画像再生装置において、前記追尾評価手段は、前記撮影画像列又は前記入力画像列上における追尾対象の動きに基づいて前記度合いを評価してもよい。
また例えば、上記の撮像装置又は画像再生装置において、前記追尾評価手段は、前記撮影画像列又は前記入力画像列上における追尾対象の画像特徴の変化量に基づいて前記度合いを評価してもよい。
また例えば、上記の撮像装置又は画像再生装置において、前記追尾評価手段は、前記撮影画像又は前記入力画像上における前記追尾対象の画像特徴と前記追尾対象の周辺の画像特徴との対比から前記度合いを評価してもよい。
また例えば、上記の撮像装置又は画像再生装置において、前記追尾評価手段は、前記撮影画像又は前記入力画像上における前記追尾対象の周辺の輝度に基づいて前記度合いを評価してもよい。
また例えば、上記の撮像装置又は画像再生装置において、前記追尾評価手段は、前記追尾対象に対する光源の色温度の推定結果に基づいて前記度合いを評価してもよい。
また例えば、上記の撮像装置又は画像再生装置において、前記追尾評価手段は、前記撮影画像又は前記入力画像に含まれるノイズの大きさに基づいて前記度合いを評価してもよい。
本発明によれば、追尾処理を利用した制御(例えば切り出し制御)であって且つ追尾の信頼度又は容易度に適応した制御を行うことのできる撮像装置及び画像再生装置を提供することが可能である。
本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。
本発明の第1実施形態に係る撮像装置の全体ブロック図である。 図1における撮像部の内部構成図である。 図1の撮像装置の外観斜視図である。 本発明の第1実施形態に係り、撮像装置内に設けられる、被写体追尾機能に特に関与する部位のブロック図である。 本発明の第1実施形態に係り、撮影モードにおける撮像装置の動作の流れを表すフローチャートである。 本発明の第1実施形態に係り、追尾処理において参照される初期設定用フレーム画像の例を示す図である。 本発明の第1実施形態に係り、フレーム画像としての被演算画像が複数の小ブロックに分割される様子を示す図である。 図4の追尾信頼度評価部による追尾信頼度の評価方法を説明するための図であって、フレーム画像としての被演算画像に、追尾対象の中心などを重畳した図である。 本発明の第1実施形態に係り、追尾信頼度に応じて切り出し領域のサイズが可変設定される様子を示す図である。 本発明の第1実施形態に係り、切り出し領域の設定方法手順を表すフローチャートである。 本発明の第1実施形態に係り、画像をXY座標面上に示したものである。 本発明の第1実施形態に係り、フレーム画像中における追尾対象領域を示す図(a)と、フレーム画像中における切り出し領域を示す図(b)である。 本発明の第1実施形態に係り、暫定的に設定された切り出し領域がフレーム画像からはみ出している様子を示す図である。 本発明の第1実施形態に係り、時系列で並ぶフレーム画像列及びそれらから抽出される切り出し画像列を示す図である。 本発明の第2実施形態に係り、撮像装置内に設けられる、被写体追尾機能に特に関与する部位のブロック図である。 本発明の第2実施形態に係り、撮影モードにおける撮像装置の動作の流れを表すフローチャートである。 本発明の第2実施形態に係り、ズームレンズ位置と画角と光学ズーム倍率との関係を示す図である。 本発明の第2実施形態に係り、追尾信頼度に応じて画角(撮影画角)が可変設定される様子を示す図である。 本発明の第3実施形態に係る撮像装置の一部ブロック図である。 本発明の第3実施形態に係り、撮像装置に設けられるAF評価値算出部の内部ブロック図である。 本発明の第3実施形態に係り、フレーム画像に設定されたAF評価領域内に複数の小ブロックが属している様子を示す図である。 本発明の第3実施形態に係り、撮影モードにおける撮像装置の動作の流れを表すフローチャートである。 本発明の第4実施形態に係る撮像装置の一部ブロック図である。 本発明の第4実施形態に係り、画像再生動作時に実行される処理の手順を表すフローチャートである。 本発明の第5実施形態に係り、2枚のフレーム画像と両画像間のオプティカルフローを示す図である。 本発明の第6実施形態に係り、被演算画像上の画像中心と追尾対象の中心とを表す図である。 本発明の第6実施形態に係り、時系列で並ぶフレーム画像列とフレーム画像間の動きベクトルを示す図である。 本発明の第6実施形態に係り、追尾対象の周辺輝度レベルと信頼度評価値との関係を示す図である。 本発明の第6実施形態に係り、追尾対象フレーム画像ごとに推定された色温度の分布を示す図である。 従来技術に係り、追尾の信頼度又は容易度が比較的高い時に想定される切り出し領域の設定例と、それが比較的低い時に想定される切り出し領域の設定例と、を示す図である。
以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。
<<第1実施形態>>
まず、本発明の第1実施形態について説明する。図1は、第1実施形態に係る撮像装置1の全体ブロック図である。撮像装置1は、静止画像及び動画像を撮影及び記録可能なデジタルビデオカメラである。
撮像装置1は、撮像部11と、AFE(Analog Front End)12と、主制御部13と、内部メモリ14と、表示部15と、記録媒体16と、操作部17と、を備えている。
図2に、撮像部11の内部構成図を示す。撮像部11は、光学系35と、絞り32と、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどから成る撮像素子(固体撮像素子)33と、光学系35や絞り32を駆動制御するためのドライバ34と、を有している。光学系35は、ズームレンズ30及びフォーカスレンズ31を含む複数枚のレンズから形成される。ズームレンズ30及びフォーカスレンズ31は光軸方向に移動可能である。ドライバ34は、主制御部13からの制御信号に基づいてズームレンズ30及びフォーカスレンズ31の各位置並びに絞り32の開度を駆動制御することにより、撮像部11の焦点距離(画角)及び焦点位置並びに撮像素子33への入射光量を制御する。
撮像素子33は、光学系35及び絞り32を介して入射した被写体を表す光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。より具体的には、撮像素子33は、マトリクス状に二次元配列された複数の受光画素を備え、各撮影において、各受光画素は露光時間に応じた電荷量の信号電荷を蓄える。蓄えた信号電荷の電荷量に比例した大きさを有する各受光画素からのアナログ信号は、撮像装置1内で生成される駆動パルスに従って順次AFE12に出力される。露光時間の長さは、主制御部13によって制御される。
AFE12は、撮像部11(撮像素子33)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換する。AFE12は、このデジタル信号を、順次、主制御部13に出力する。AFE12における信号増幅の増幅度は、主制御部13によって制御される。
主制御部13は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等を備え、映像信号処理部として機能する。主制御部13は、AFE12の出力信号に基づいて、撮像部11によって撮影された画像を表す映像信号を生成する。また、主制御部13は、表示部15の表示内容を制御する表示制御手段としての機能をも備え、表示に必要な制御を表示部15に対して行う。
内部メモリ14は、SDRAM(Synchronous Dynamic Random Access Memory)等にて形成され、撮像装置1内で生成された各種データを一時的に記憶する。表示部15は、液晶ディスプレイパネル等から成る表示装置であり、主制御部13の制御の下、撮影された画像や記録媒体16に記録されている画像などを表示する。記録媒体16は、SD(Secure Digital)メモリカード等の不揮発性メモリであり、主制御部13による制御の下、撮影された画像などを記憶する。
操作部17は、外部からの操作を受け付ける。操作部17に対する操作内容は、主制御部13に伝達される。操作部17には、静止画像の撮影及び記録を指示するためのシャッタボタン(不図示)や、動画像の撮影及び記録を指示するための録画ボタン(不図示)などが備えられる。
撮像装置1の動作モードには、静止画像又は動画像を撮影可能な撮影モードと記録媒体16に記録された静止画像又は動画像を表示部15上で再生可能な再生モードとが含まれる。撮影モードでは、所定のフレーム周期にて順次撮影が行われ、撮像素子33から撮影画像列が取得される。この撮影画像列を形成する各画像を「フレーム画像」と呼ぶ。画像列(例えば、撮影画像列)とは、時系列で並ぶ複数の画像を意味する。フレーム画像列を、動画像として表示部15の表示画面上に表示することができる。
図3に、撮影者側から見た、撮像装置1の外観斜視図を示す。図3には、被写体としての人物も示されている。撮影者は、表示部15の表示画面上に表示された被写体の様子を確認することで、撮像装置1の撮影範囲を確認することができる。
撮像装置1は、画像処理を用いた被写体追尾機能を備えており、この被写体追尾機能の実現時に特徴的な動作を行う。操作部17に対して所定操作を施すことで、被写体追尾機能が有効となる。以下に示される動作は、特に記述なき限り、この被写体追尾機能が有効となっている時における撮像装置1の動作である(後述の他の実施形態についても同様)。尚、画像を表すデータを画像データと呼ぶ。或るフレーム画像の画像データは、そのフレーム画像の光学像を表す、AFE12の出力信号から生成される。画像データを画像信号と読み替えることもできる。また、画像データを表す信号と映像信号と呼ぶこともあるが、画像データと映像信号は等価なものである。
図4は、撮像装置1内の、被写体追尾機能に特に関与する部位のブロック図である。図4において符号51〜54によって参照される各部位は、図1の主制御部13内に設けられる。フレーム画像列を形成する各フレーム画像の画像データは、順次、追尾処理部51、追尾信頼度評価部52及び切り出し処理部53に与えられる。
追尾処理部51は、フレーム画像列の画像データに基づき各フレーム画像内における特定被写体の位置を逐次検出していくことにより、フレーム画像列における特定被写体の位置を追尾する。追尾されるべき特定被写体を、以下、「追尾対象」という。追尾対象が人物である場合を考える。
追尾処理部51は、顔検出部(不図示)としての機能をも備え、フレーム画像の画像データに基づいてフレーム画像中から人物の顔を検出し、検出された顔を含む顔領域を抽出する。これを実現する処理を顔検出処理という。画像中に含まれる顔を検出する手法として様々な手法が知られており、追尾処理部51は何れの手法をも採用可能である。例えば、特開2000−105819号公報に記載の手法のようにフレーム画像から肌色領域を抽出することによって顔(顔領域)を検出しても良いし、特開2006−211139号公報又は特開2006−72770号公報に記載の手法を用いて顔(顔領域)を検出しても良い。
追尾信頼度評価部52は、フレーム画像列の画像データに基づき、追尾処理部51による追尾の信頼度(追尾の信頼性の度合い)又は追尾の容易度(追尾の容易性の度合い)を評価する。追尾の信頼度と追尾の容易度は、同様の意義又は類似の意義を有している。厳密には、追尾の信頼度は、過去に実行した追尾がどの程度信頼できるものであるかを表すものと解釈され、追尾の容易度は、これから実行しようとする追尾がどの程度容易であるかを表すものと解釈される。追尾の容易度が高ければ追尾の信頼度も高くなり、追尾の容易度が低ければ追尾の信頼度も低くなる。以下の説明では、記述の便宜上、「追尾処理部51が評価するものは追尾の信頼度である」と考えるが、追尾の信頼度を追尾の容易度と読み替えることも可能である。また、追尾の信頼度と追尾信頼度は同じものを指す。
切り出し処理部53は、追尾処理部51による追尾処理の結果及び追尾信頼度評価部52による追尾信頼度の評価結果に基づいて、追尾対象に対応する画像データが存在する追尾対象領域を含む切り出し領域をフレーム画像内に設定し、その切り出し領域内の画像をフレーム画像から切り出す。切り出された、切り出し領域内の画像を「切り出し画像」と呼ぶ。切り出し領域はフレーム画像の全体領域よりも小さく、切り出し画像はフレーム画像の一部画像に相当する。従って、切り出し画像の画像サイズ(水平方向及び垂直方向の画素数)は、フレーム画像のそれよりも小さい。切り出し処理部53にて生成される切り出し画像の画像データは、順次、解像度変換部54に与えられる。
解像度変換部54は、切り出し画像の解像度を向上させるための画像処理(以下、解像度向上処理という)を実行する。例えば、線形補間等の補間処理によって或いは超解像処理によって切り出し画像の解像度を向上させる。解像度向上後の切り出し画像を、特に出力画像とも呼ぶ。解像度変換部54は、出力画像の画像データを生成及び出力する。
[撮影時の動作]
図5を参照して、被写体追尾機能の実現時における撮像装置1の動作について、より詳細に説明する。図5は、撮影モードにおける、撮像装置1の動作の流れを表すフローチャートである。撮影モードにおいて、被写体追尾機能が有効となると、図4の追尾処理部51は、順次入力されるフレーム画像に対して顔検出処理を行う。順次入力されるフレーム画像は、表示部15に更新表示される。主制御部13は、現在のフレーム画像から顔が検出されたか否かを確認する一方で(ステップS11)、所定の追尾開始指示操作が操作部17に対してなされているかを確認し(ステップS12)、顔が検出されており且つ所定の追尾開始指示操作が操作部17に対してなされている場合に、ステップS13に移行してステップS13の処理を実行するようにする。
ステップS13において、追尾処理部51は、ステップS13に至る直前に得られた、顔が検出されたフレーム画像を初期設定用フレーム画像として捉え、初期設定用フレーム画像の画像データに基づいて追尾対象及び追尾色を設定する。
追尾対象及び追尾色の設定方法を、図6を参照して説明する。図6の画像201は初期設定用フレーム画像の例を表している。図6において、破線矩形領域211は、顔検出処理によって初期設定用フレーム画像201から抽出された顔領域である。追尾処理部51は、顔領域211に含まれる顔を有する人物を、追尾対象として設定する。顔領域211の抽出後、追尾処理部51は、その顔領域211に対応する人物の胴体部分を含む領域である胴体領域212を検出する。胴体領域212は、顔領域211の下方側(眉間から口に向かう方向側)に存在する矩形領域とされる。初期設定用フレーム画像における、胴体領域212の位置及び大きさは、顔領域211の位置及び大きさに依存して決定される。
その後、追尾処理部51は、胴体領域212内の画像の画像データに基づいて胴体領域212内の色を特定し、特定した色を追尾色として設定する。例えば、胴体領域212内の画像を形成する各画素の色信号(例えば、RGB信号)に基づいて胴体領域212内の画像の色ヒストグラムを生成する。そして、その色ヒストグラムに基づいて胴体領域212内の画像における支配色又は最頻色を求め、その求めた色を追尾色として設定する。或る画像の支配色とは、その画像の画像領域の大部分を占めている色を指し、或る画像の最頻色とは、その画像の色ヒストグラムにおいて最も高い度数を有している色を指す(支配色と最頻色は同じでありうる)。或いは、胴体領域212内の画像を形成する各画素の色信号(例えば、RGB信号)を平均化することにより胴体領域212内の画像の平均的な色を求めて、その平均的な色を追尾色として設定するようにしてもよい。
尚、ステップS13において、追尾対象及び追尾色を、操作部17に対する手動操作によって設定するようにしても良い。例えば、ユーザが、操作部17に対する操作を介して追尾対象となるべき人物のフレーム画像上の位置を指定することによって追尾対象が設定され、操作部17に対する操作を介して追尾色を指定することによって追尾色が設定される。
ステップS13にて追尾対象及び追尾色が設定された後、ステップS21〜S25からなるループ処理が繰り返し実行されるが、このループ処理の中で、追尾処理部51は、追尾対象及び追尾色が設定された後に得られるフレーム画像列に対し、追尾処理を実行する。この追尾処理が施されるべきフレーム画像列を形成する各フレーム画像を、特に追尾対象フレーム画像という。追尾処理部51は、追尾対象フレーム画像列の画像データに基づき、各追尾対象フレーム画像における追尾対象の位置及び大きさを検出する。
追尾処理部51は、追尾対象が有する色情報に基づいて追尾処理を行う。色情報に基づく追尾処理の方法として、特開平5−284411号公報、特開2000−48211号公報、特開2001−169169号公報などに記載の方法を用いることができる。今の例において、追尾対象が有する色情報は、上述の如く設定した追尾色によって表現される。このため、追尾処理部51は、追尾対象フレーム画像の色信号に基づいて、追尾色との類似性が高い色を有する領域を追尾対象フレーム画像から抽出する。ここで抽出された領域は、追尾対象フレーム画像内における追尾対象の胴体領域とみなされる。
より具体的には例えば、着目した追尾対象フレーム画像内に、追尾対象の胴体領域の大きさと同程度の大きさを有する追尾枠を設定して、追尾枠内における画像の色と追尾色との類似性評価を追尾枠の位置を探索範囲内で順次変更しながら実行し、最大の類似性が得られた追尾枠の位置に追尾対象の胴体領域が存在すると判断する。今回の追尾対象フレーム画像に対する探索範囲は、前回の追尾対象フレーム画像における追尾対象の位置を基準にして設定される。通常、その探索範囲は、前回の追尾対象フレーム画像における追尾対象の位置を中心とする矩形領域とされ、探索範囲のサイズ(画像サイズ)は、フレーム画像の全体領域のサイズよりも小さい。
追尾処理部51は、次々と入力される追尾対象フレーム画像に対して上述の色情報に基づく追尾処理を実行することにより、各追尾対象フレーム画像における追尾対象の位置を検出する。例えば、追尾対象の位置は、その追尾対象の胴体領域の中心座標値によって表現される。
また、追尾対象フレーム画像上における追尾対象の大きさは、追尾対象と撮像装置1との間における、実空間上の距離の変化などに起因して変化する。このため、追尾対象フレーム画像上における追尾対象の大きさに応じて上記の追尾枠の大きさを適切に変更していく必要があるが、この変更は、公知の追尾アルゴリズムで用いられる被写体サイズ検出方法を用いることによって実現される。例えば、追尾対象フレーム画像において、追尾対象の胴体が存在すると予想される点から十分に離れた点に背景が現れていると考え、追尾処理部51は、両点の画像特徴から両点間の各位置の画素が背景及び追尾対象の何れに属するかを分類していく。画像特徴は、輝度情報及び色情報を含む。この分類によって追尾対象の輪郭が推定される。そして、その輪郭から追尾対象の大きさを推定し、この推定された大きさに応じて追尾枠の大きさを設定する。
追尾枠の大きさを設定するということは、追尾対象フレーム画像における追尾対象の胴体領域の大きさを検出するということと同義である。また、追尾対象の大きさは、胴体領域の大きさに比例するのであるから、胴体領域の大きさの検出と同時に追尾対象の大きさも特定される。このため、追尾処理部51は、各追尾対象フレーム画像における追尾対象の位置及び大きさを検出することとなる。検出した位置及び大きさを表す情報(換言すれば、追尾対象領域の位置及び大きさを表す情報)を含む追尾結果情報は、追尾信頼度評価部52及び切り出し処理部53に伝達される(図4参照)。
追尾処理部51は、追尾対象の位置及び大きさの検出結果に基づいて、追尾対象の全体像が表れる画像領域を設定することができる。フレーム画像の全体領域の内、追尾対象の全体像が表れる画像領域(追尾対象を表す画像データが存在する領域)を追尾対象領域と呼び、追尾対象が表れていない画像領域(追尾対象を表す画像データが存在していない領域)を背景領域と呼ぶ。追尾対象領域は、追尾対象の全体像を含みつつ、なるだけ小さくなるように設定される。
尚、追尾対象フレーム画像における追尾対象の大きさ(主要被写体の大きさ)を推定する方法として、上述した方法と異なる他の任意の方法(例えば、特開2004−94680号公報に記載された方法や特開平9−189934号公報に記載された方法)を採用することも可能である。
図5のステップS21〜S25にて実行される各処理について説明する。ステップS13にて追尾対象及び追尾色が設定された後、まず、ステップS21の処理が実行される。
ステップS21において、現時点におけるフレーム画像1枚分のAFE12の出力信号から現在のフレーム画像が取得される。ここで取得されるフレーム画像は、上述したように、追尾対象フレーム画像である。続くステップS22において、追尾処理部51は、ステップS21にて得られた現在のフレーム画像における追尾対象の位置及び大きさを上述の追尾処理によって検出すると共に、検出した位置及び大きさを表す情報を含む追尾結果情報を生成し、追尾結果情報を追尾信頼度評価部52及び切り出し処理部53に出力する。
ステップS22に続くステップS23において、追尾信頼度評価部52は、現時点における追尾信頼度を評価する、換言すれば、ステップS21のフレーム画像に対して検出された追尾対象の位置(及び大きさ)の信頼度を評価する。
この評価方法を例示する。評価された信頼度を表す評価値を信頼度評価値と呼び、それをEVRにて表す。信頼度評価値を、追尾対象フレーム画像ごとに算出することが可能である。EVRは0以上100以下の値をとり、追尾信頼度が高いと評価されるほど信頼度評価値EVRは増大する。
追尾信頼度評価部52は、ステップS21で取得される追尾対象フレーム画像を被演算画像として取り扱う。そして、図7に示す如く、被演算画像の全体領域を水平方向及び垂直方向に複数に分割することにより被演算画像内に複数の小ブロックを設定する。今、水平方向及ぶ垂直方向の分割数を夫々M及びNとする(M及びNは2以上の整数)。各小ブロックは、二次元配列された複数の画素から形成される。また、被演算画像内の小ブロックの水平位置及び垂直位置を表す記号としてm及びnを導入する(mは1≦m≦Mを満たす整数値、且つ、nは1≦n≦Nを満たす整数値)。mが大きくなるほど、その水平位置は右方向に向かい、nが大きくなるほど、その垂直位置は下方向に向かうものとする。水平位置がmであって垂直位置がnである小ブロックを小ブロック[m,n]と表記する。
追尾信頼度評価部52は、追尾結果情報に基づいて被演算画像における追尾対象の胴体領域の中心を認識し、その中心の位置が、何れの小ブロックに属するかを特定する。図8の点250は、この中心を表している。今、その中心250が小ブロック[mO,nO]に属していたとする(mOは1≦m≦Mを満たす整数値、且つ、nOは1≦n≦Nを満たす整数値)。また、上述の被写体サイズ検出方法を用いることにより、各小ブロックを、追跡対象の画像データが表れる小ブロック又は背景の画像データが表れる小ブロックに分類する。前者の小ブロックを被写体ブロックと呼び、後者の小ブロックを背景ブロックと呼ぶ。図8は、中心250の周辺に現れる追跡対象の色が背景の色と異なることをイメージ化して示している。
被写体ブロックの全てを合成した領域を追尾対象領域と捉えることができ、背景ブロックの全てを合成した領域を背景領域と捉えることができる。
追尾信頼度評価部52は、設定された追尾色と背景ブロック内の画像の色との差を表す色差評価値を、背景ブロック毎に算出する。背景ブロックはQ個存在するものとし、第1〜第Qの背景ブロックに対して算出された色差評価値を夫々CDIS[1]〜CDIS[Q]にて表す(Qは、不等式「2≦Q≦(M×N)−1」を満たす整数)。例えば、色差評価値CDIS[1]を算出する際には、第1の背景ブロックに属する各画素の色信号(例えば、RGB信号)を平均化することにより第1の背景ブロック内の画像の平均的な色を求め、その平均的な色の、RGB色空間上における位置を検出する。一方で、追跡対象に対して設定された追尾色の、RGB色空間上における位置も検出し、RGB色空間上における両位置間の距離を色差評価値CDIS[1]として算出する。これにより、対比される色の相違度が増大すれば色差評価値CDIS[1]は増大することになる。また、色差評価値CDIS[1]が取りうる値の範囲が0以上1以下となるように、RGB色空間は正規化されているものとする。他の色差評価値CDIS[2]〜CDIS[Q]も同様にして算出される。尚、色差評価値を求めるための色空間は、RGB色空間以外(例えば、HSV色空間)であってもよい。或る着目した画像領域に関し、その画像領域内の色の、色空間上の位置は、その画像領域内の画像の特徴を表す量(画像特徴量)の一種であることは言うまでもない。
更に、追尾信頼度評価部52は、中心250と背景ブロックとの、被演算画像上における空間的な位置の差を表す位置差評価値を、背景ブロック毎に算出する。第1〜第Qの背景ブロックに対して算出された位置差評価値を夫々PDIS[1]〜PDIS[Q]にて表す。或る背景ブロックに対する位置差評価値は、中心250と、その背景ブロックの4頂点の内の、中心250に対する最近傍頂点と、の距離とされる。小ブロック[1,1]が第1の背景ブロックであると共に1<mO且つ1<nOであり、図8に示す如く、小ブロック[1,1]の4頂点の内、頂点251が中心250に最も近いとすれば、位置差評価値PDIS[1]は、中心250と頂点251との、被演算画像上における空間的な距離とされる。位置差評価値PDIS[1]が取りうる値の範囲が0以上1以下となるように、被演算画像の空間領域は正規化されているものとする。他の位置差評価値PDIS[2]〜PDIS[Q]も同様にして算出される。
上述の如く求めた色差評価値及び位置差評価値に基づき、追尾信頼度評価部52は、下記式(1)に従って、着目した被演算画像に対する統合距離CPDISを算出する。そして、その統合距離CPDISを用い、下記式(2)に従って、着目した被演算画像に対する信頼度評価値EVRを算出する。即ち、「CPDIS>100」の場合は「EVR=0」とされ、「CPDIS≦100」の場合は「EVR=100−CPDIS」とされる。この算出方法から理解されるように、追尾対象の近くに追尾色と同色又は類似色の背景が存在すれば、信頼度評価値EVRは低くなる。
図5のステップS23にて追尾信頼度が評価された後、ステップS24の処理が実行される。ステップS24において、切り出し処理部53は、追尾処理部51から出力される最新の追尾結果情報及び追尾信頼度評価部52によって評価された最新の追尾信頼度に基づいて、ステップS21にて得られたフレーム画像の全体領域内に切り出し領域を設定し、そのフレーム画像から、その切り出し領域内の画像を切り出し画像として切り出す。
この際、フレーム画像上における追尾対象の大きさが一定であるとすると、図9(a)〜(c)に示す如く、追尾信頼度が高くなるに従って切り出し領域のサイズが小さくなるように切り出し領域を設定する。図9(a)、(b)及び(c)は、追尾信頼度が夫々第1、第2、第3信頼度である場合における切り出し領域の設定の様子を示している。第1〜第3信頼度の内、第1信頼度が最も信頼度が高く、第3信頼度が最も信頼度が低いとする。図9(a)〜(c)において、実線四角枠内の画像271〜273は切り出し領域が設定されるべきフレーム画像を示しており、破線四角枠内の領域281〜283は切り出し領域を示している。各切り出し領域内の人物は、追尾対象である。追尾対象が有する追尾色の類似色が、追尾対象の近辺に位置することによって、フレーム画像272及び273に対する追尾信頼度は、フレーム画像271のそれよりも低くなっている。
フレーム画像271に対して設定される切り出し領域281のサイズは、フレーム画像272に対して設定される切り出し領域282のサイズよりも小さく、且つ、切り出し領域282のサイズは、フレーム画像273に対して設定される切り出し領域283のサイズよりも小さい。切り出し領域のサイズは、切り出し領域の大きさを表す切り出し領域の画像サイズであり、切り出し領域内に属する画素数によって表現される。
図10を参照して、より詳細な、ステップS24における切り出し領域の設定方法例を説明する。図10は、切り出し領域の設定の手順を表すフローチャートであり、切り出し処理部53によって、図10に示されるステップS31〜S35の各処理が順次実行される。
図10に示す処理の説明に先立ち、図11を参照して、画像上の座標値の意義等を説明する。図11は、フレーム画像などの任意の画像300を、XY座標面上に示したものである。XY座標面は、互いに直交するX軸及びY軸を座標軸とする二次元座標面であり、X軸が伸びる方向は画像300の水平方向と平行であって、Y軸が伸びる方向は画像300の垂直方向と平行であるものとする。また、画像上の物体又は領域を議論する際、その物体又は領域のX軸方向における大きさ(サイズ)を物体又は領域の幅と捉え、その物体又は領域のY軸方向における大きさ(サイズ)を物体又は領域の高さと捉える。画像300上の、着目した或る点の座標値を(x,y)にて表すものとする。x及びyは、夫々、着目した点の水平方向の座標値及び垂直方向の座標値を表す。X軸及びY軸は原点Oにて交差し、原点Oから見て、X軸の正の方向を右方向、X軸の負の方向を左方向、Y軸の正の方向を上方向、Y軸の負の方向を下方向とする。
図10に示されるステップS31〜S35の各処理について説明する。まず、ステップS31において、切り出し処理部53は、追尾結果情報によって表される追尾対象の高さHAを用い、式「HB=k1×HA」に従って、切り出し高さHBを算出する。k1は予め設定された1より大きな定数である。図12(a)に、切り出し領域が設定されるべきフレーム画像310を示すと共に、フレーム画像310において追尾対象の画像データが存在する追尾対象領域を矩形領域311によって示す。図12(b)に、図12(a)に示されたものと同じフレーム画像310を示すと共に、フレーム画像310に対して設定されるべき切り出し領域を矩形領域312によって示す。尚、図12(a)では、追尾対象領域が矩形領域として表されているが、追尾対象領域の外形は矩形であるとは限らない。
矩形領域311としての追尾対象領域の、高さ方向の大きさ(サイズ)が、追尾対象の高さHAであり、矩形領域312としての切り出し領域の、高さ方向の大きさ(サイズ)が、切り出し高さHBである。また、フレーム画像310の全体領域の、高さ方向及び幅方向の大きさ(サイズ)を、夫々、HO及びWOによって表す。
ステップS31にて算出された切り出し高さは、ステップS32において、追尾信頼度を表す信頼度評価値EVRに応じて補正される。補正後の切り出し高さをHB’によって表す(但し、実質的な補正がなされず、HB’=HBとなることもある)。具体的には、最新の信頼度評価値EVRと所定の閾値TH1及びTH2とを比較することによって、以下の第1〜第3不等式の何れが成立するかを判断する。閾値TH1及びTH2は、不等式「100>TH1>TH2>0」が成立するように予め設定され、例えばTH1=95且つTH2=75である。
そして、第1不等式「EVR≧TH1」が成立する場合は、HB’にHBを代入する。即ち、第1不等式が成立する場合には、ステップS31にて算出された切り出し高さに対して補正がなされない。
第2不等式「TH1>EVR≧TH2」が成立する場合は、式「HB’=HB×(1+((1−EVR/100)/2))」に従って、補正後の切り出し高さHB’を算出する。即ち、第2不等式が成立する場合には、切り出し高さが増大補正される。
第3不等式「TH2>EVR」が成立する場合は、HB’にHBOを代入する。HBOは、フレーム画像310の高さHOに基づく定数であり、例えば、高さHOと合致する定数或いは高さHOよりも若干小さな定数である。第3不等式が成立する場合にも、切り出し高さが増大補正される。
ステップS32に続くステップS33では、補正後の切り出し高さHB’を用い、式「WB=k2×HB’」に従って、切り出し幅WBを算出する。切り出し幅WBは、矩形領域312としての切り出し領域の、幅方向の大きさ(サイズ)である。また、k2は予め設定された定数である(例えば、k2=16/9)。追尾対象領域の幅方向の大きさが高さ方向の大きさに比べて異常に大きくなければ、追尾対象領域は切り出し領域に包含されることになる。本例では、追尾対象が人物であって且つ人物の背の高さ方向が画像の垂直方向と合致している場合を想定しており、幅方向の大きさが高さ方向の大きさに比べて異常に大きいような追尾対象領域は、設定されないものとする。
その後、ステップS34において、切り出し処理部53は、追尾結果情報から追尾対象の中心CNAの座標値(xA,yA)を取得し、(xB,yB)=(xA,yA)となるように、切り出し領域の中心CNBの座標値(xB,yB)を設定する。
この段階で設定されている切り出し領域は、フレーム画像310の全体領域からはみ出した領域を含んでいることがある。例えば、図13に示す如く、フレーム画像310の全体領域外であって且つフレーム画像310の上方側に、切り出し領域312aの一部領域が位置することがある。フレーム画像310の全体領域外に位置する、切り出し領域の一部領域をはみ出し領域と呼ぶ。はみ出し領域の、はみ出している方向における大きさを、はみ出し量と呼ぶ。
ステップS35では、はみ出し領域が存在するか否かを判定する。はみ出し領域が存在しない場合は、ステップS31〜S34の処理によって設定された切り出し高さHB’、切り出し幅WB及び座標値(xB,yB)に従った切り出し領域が、図5のステップS24にて設定されるべき最終的な切り出し領域となる。
はみ出し領域が存在する場合は、ステップS31〜S34の処理によって設定された切り出し高さHB’、切り出し幅WB及び座標値(xB,yB)に従った切り出し領域に対して切り出し位置調整を行い、切り出し位置調整後の切り出し領域を、図5のステップS24にて設定されるべき最終的な切り出し領域とする。
切り出し位置調整では、はみ出し量がちょうどゼロとなるように、切り出し領域の中心CNBの座標値が補正される。例えば、図13に示す如く、フレーム画像310の上方側に切り出し領域312aがはみ出している場合は、はみ出し量分だけ、切り出し領域の中心CNBを下方に移動させる。即ち、はみ出し量をΔyとした場合、「yB’=yB−Δy」に従って補正後のy軸座標値yB’を算出し、図5のステップS24にて設定されるべき最終的な切り出し領域の中心CNBの座標値を(xB,yB’)とする。
同様に、フレーム画像の下方側に切り出し領域がはみ出している場合は、はみ出し量分だけ切り出し領域の中心CNBを上方に移動させ、フレーム画像の右側に切り出し領域がはみ出している場合は、はみ出し量分だけ切り出し領域の中心CNBを左方に移動させ、フレーム画像の左側に切り出し領域がはみ出している場合は、はみ出し量分だけ切り出し領域の中心CNBを右方に移動させて、移動後の切り出し領域を、最終的な切り出し領域として設定する。
尚、切り出し領域の下方への移動によって、フレーム画像の下方側に切り出し領域が再度はみ出してしまう場合は、そのはみ出しがなくなるように、切り出し領域の大きさ(切り出し高さ及び切り出し幅)を減少補正する。この減少補正の必要性は、切り出し高さHB’が比較的大きいときに発生しやすい。
再度、図5を参照する。上述の如くして、切り出し領域が設定され、ステップS21にて得られたフレーム画像から切り出し画像が生成された後、ステップS25の処理が実行される。ステップS25において、解像度変換部54は、切り出し画像の解像度を向上させるための解像度向上処理を実行することによって出力画像(即ち、解像度向上後の切り出し画像)を生成する。
解像度向上処理は、例えば、1枚のフレーム画像の画像データを用いた補間処理によって実現される。この場合、例えば、切り出し画像が切り出されるべきフレーム画像の画像サイズが1920×1080であって且つ解像度向上前の切り出し画像の画像サイズが960×540である場合、解像度向上前の切り出し画像の画像サイズを水平方向及び垂直方向に夫々2倍に拡大することで1920×1080の画像サイズを有する切り出し画像(即ち、解像度向上後の切り出し画像)を生成する。画像サイズの拡大は、補間処理を用いた解像度変換によって実現される。補間処理の手法として、ニアレストネイバー法、バイリニア法、バイキュービック法などの各種の手法を利用可能である。
また、上記の補間処理を介して得た解像度向上後の切り出し画像(以下、鮮鋭化前画像という)に更に鮮鋭化処理を施し、鮮鋭化処理後の画像(以下、鮮鋭化後画像という)を、解像度変換部54の出力画像としてもよい。例えば、エッジ強調フィルタ(微分フィルタなど)やアンシャープマスクフィルタを用いたフィルタリングを鮮鋭化前画像に施すことで鮮鋭化後画像を生成することが可能である。アンシャープマスクフィルタを用いたフィルタリングは、アンシャープマスキングとも呼ばれる。アンシャープマスキングでは、鮮鋭化前画像を平滑化して平滑化画像を生成した後、その平滑化画像と鮮鋭化前画像との差分画像を生成する。そして、その差分画像の各画素値と鮮鋭化前画像の各画素値を足し合わせるように差分画像と鮮鋭化前画像を合成することで鮮鋭化後画像を生成する。
或いは、複数枚のフレーム画像を用いた超解像処理によって解像度向上処理を実現しても良い。超解像処理では、位置ずれのある複数の低解像度画像を参照し、複数の低解像度画像間の位置ずれ量と複数の低解像度画像の画像データに基づいて低解像度画像の高解像度化を行うことにより1枚の高解像度画像を生成する。解像度変換部54は、公知の任意の超解像処理を利用可能である。例えば、特開2005−197910号公報、特開2007−205号公報、特開2007−193508号公報などに記載の超解像処理方法を利用することが可能である。
例えば、3フレーム分の切り出し画像を用いて超解像処理を行う場合は、以下のように処理する。今、1フレーム周期分の時間が経過することに、時刻tn-2、tn-1、tn、tn+1、tn+2・・・が順番に訪れるものとし、図14に示す如く、時刻tn+iにて取得されたフレーム画像を時刻tn+iのフレーム画像と呼ぶ(iは整数)。そして、時刻tn+iのフレーム画像から切り出された切り出し画像を、CIn+iにて表す。この場合、3枚の切り出し画像CIn+i、CIn+i+1及びCIn+i+2を用いて1枚の高解像度画像を生成する。
iが(−2)の場合を考えて具体例を挙げる。切り出し画像CInが得られた時点で、3枚の切り出し画像CIn-2、CIn-1及びCInを参照し、切り出し画像CIn-2、CIn-1及びCInを、夫々、第1、第2、及び第3の観測低解像度画像として取り扱って超解像処理を行う。第1の観測低解像度画像を基準として、第1と第2の観測低解像度画像との間の位置ずれ量及び第1と第3の観測低解像度画像との間の位置ずれ量を検出する。位置ずれ量は、水平成分及び垂直成分を含む二次元量であり、動き量又は動きベクトルとも呼ばれる。位置ずれ量は、代表点マッチング法やブロックマッチング法、勾配法などを用いて、サブピクセルの分解能を有するように検出される。即ち、観測低解像度画像内の隣接する画素の間隔よりも短い距離を最小検出単位として位置ずれ量が検出される。
一方で、線形補間やバイキュービック補間を用いて第1の観測低解像度画像の水平及び垂直方向の画素数を増大させた画像を初期の高解像度画像として生成する。その後、検出した上述の各位置ずれ量を用いて、現時点の高解像度画像を構築する3枚の低解像度画像を推定し、推定した各低解像度画像と各観測低解像度画像との誤差が最小化されるように高解像度画像を更新してゆく。最終的に得られた高解像度画像は、解像度向上後の切り出し画像CIn-2に相当する。他の切り出し画像も同様にして解像度が向上される。例えば、切り出し画像CIn-1に対する解像度の向上は、切り出し画像CIn-1、CIn及びCIn+1を用いて実現される。
図5のステップS25の処理の後、ステップS21に戻り、上述のステップS21〜S25から成るループ処理が繰り返し実行される。
上記ループ処理の繰り返しによって得られる、時系列で並ぶ解像度変換部54の出力画像列は動画像として表示部15に表示されると共に、その出力画像列の画像データは記録媒体16に記録される。但し、切り出し処理部53に入力されるフレーム画像列又は切り出し処理部53から出力される切り出し画像列を、動画像として表示部15に表示することも可能であるし、フレーム画像列及び切り出し画像列の画像データを記録媒体16に記録することも可能である。
記録媒体16内の画像データを任意の画像再生装置に読み出させれば、その画像再生装置上で、追尾対象に対して良好な構図を有する切り出し画像の動画像を再生表示することができる。特に、解像度向上後の切り出し画像の画像データを読み出すようにすれば、高精細な切り出し画像の動画像を再生表示することができる。
注目する被写体の動画像撮影を行う際、従来は、その被写体を見失わないように撮像装置の表示画面上で被写体を確認しつつ、被写体の動きに応じて撮像装置の撮影方向やズーム倍率を操作する必要があった。従って、撮影者は、撮影に集中しなければならず、注目する被写体とのコミュニケーションをとりながら撮影を行ったり、他のことに注意を払いながら撮影を行ったりすることが困難であった。一方、本実施形態によれば、注目する被写体(即ち、追尾対象)が撮影領域内に収まるように比較的広い画角にて撮影を行っておくだけで、追尾処理を利用した切り出し処理により、注目する被写体を含む切り出し画像が順次生成される。従って、撮影者は、撮像装置を注目する被写体の方向に向けてさえすれば、なんら意識せずとも自身の希望する被写体の映像を取得することができる。そして、再生時には、注目する被写体が適当な構図で切り出された映像を視聴することができる。
この切り出し処理を行う際、上述の如く、追尾信頼度が比較的高い場合は切り出し領域のサイズが比較的小さくされ、追尾信頼度が比較的低い場合は切り出し領域のサイズが比較的大きくされる。このため、注目した被写体にとって良好な構図を有する動画像の取得を可能としつつ、追尾信頼度が比較的低い時に、注目した被写体が切り出し領域内に含まれなくなるといった事態(図30(b)参照)の発生を回避することが可能となる。
尚、上述の説明では、撮像装置1の撮影領域内に1人の人物のみが含まれている場合を想定したが、撮影領域内に複数の人物が含まれている場合は、その複数の人物の中の一人を追尾対象として選択すればよい。例えば、初期検出用フレーム画像から各人物の顔領域を抽出し、顔領域を明示した初期検出用フレーム画像を表示部15の表示画面に表示させた上で、追尾対象として選択されるべき一人の人物をユーザに選択させる。この選択は操作部17への操作によって行われる。或いは、表示部15を所謂タッチパネルとして機能させ、そのタッチパネルへの操作によって、この選択を行うようにしてもよい。更に或いは、追尾対象として選択されるべき人物の顔の画像を撮像装置1に予め登録しておくようにしてもよい。この場合、その登録された顔が初期検出用フレーム画像に含まれているかを撮像装置1が自動的に探索し、登録された顔が初期検出用フレーム画像に含まれていると判断した場合は、その登録された顔を有する人物が追尾対象として選択される。
また、撮影領域内に複数の人物が含まれている場合、複数の人物の夫々を追尾対象と捉え、追尾対象を含む追尾対象領域を複数個設定してもよい。例えば、撮影領域内に含まれる人物が二人である場合、夫々の人物を追尾対象と捉え、一方の人物の像が表れる追尾対象領域と他方の人物の像が表れる追尾対象領域とを個別に設定する。そして、各追尾対象領域に対して切り出し領域を設定し、1つのフレーム画像から2つの切り出し画像を抽出して、解像度向上前又は後の各切り出し画像の画像データを、個別に記録媒体16に記録するようにしてもよい。画像再生時には、例えば、上記の二人の人物の内の一方をユーザに選択させ、選択した人物についての切り出し画像の動画像を再生表示すればよい。
[画像再生時の動作]
追尾処理、切り出し処理及び解像度向上処理を撮影時に実行する場合の動作について説明したが、これらの処理を画像再生時に実行するようにしてもよい。この場合における画像再生時の、撮像装置1の動作を説明する。この画像再生動作に先立って、動画像撮影時に得られた時系列で並ぶフレーム画像列の全体の画像データが記録媒体16に記録されているものとする。
画像再生時において、図4の追尾処理部51、追尾信頼度評価部52及び切り出し処理部53の前段に配置された画像取得部(不図示)に記録媒体16からフレーム画像を時系列順に次々と読み出させ、その画像データを時系列順に追尾処理部51、追尾信頼度評価部52及び切り出し処理部53に与えて、上述した、図5のステップS11〜S13及びS21〜S25の処理を実行させる。
そして、ステップS21〜S25から成るループ処理の繰り返しによって得られる、時系列で並ぶ解像度変換部54の出力画像列を動画像として表示部15に表示するとよい。切り出し処理部53から出力される切り出し画像列を動画像として表示部15に表示することも可能である。画像再生動作を実現する際、撮像装置1は画像再生装置として機能する。
上述のような画像再生動作を行うようにすれば、注目した被写体にとって良好な構図を有する動画像の再生を可能としつつ、追尾信頼度が比較的低い時に、注目した被写体が再生画像内に含まれなくなるといった事態の発生を回避することが可能となる。
尚、上述の例では、撮像装置1に設けられた表示部15上で画像を再生表示するようにしているが、表示したい画像の画像データを撮像装置1の外部の表示装置(不図示)に供給することで、その外部の表示装置上にて、解像度向上前又は後の切り出し画像を表示するようにしてもよい。また、解像度向上前又は後の切り出し画像の画像データを、必要に応じてネットワーク網などを介しつつ、その画像データを利用する外部機器(ウェブサイトを運営するサーバ機器など)に供給するようにしてもよい。
また、追尾処理、切り出し処理及び解像度向上処理を撮影時に実行する方法、並びに、追尾処理、切り出し処理及び解像度向上処理を画像再生時に実行する方法を上述したが、それらの処理を2つの一部処理に分割し、一方の一部処理を撮影時に実行し且つ他方の一部処理を画像再生時に実行するようにしてもよい。
具体的には、以下のような処理の分割方法が有効である。まず、撮影時において、図5のステップS11〜S13及びS21〜S23の各処理を実行させ、且つ、図4の切り出し処理部53にステップS24の処理を実行させることにより、ステップS21にて得られたフレーム画像の全体領域内に切り出し領域を設定する。但し、この際、実際の切り出し処理を行うことなく、設定した切り出し領域のサイズ(大きさ)及び位置を指し示す切り出し情報を切り出し処理部53に出力させるようにし、その切り出し情報をフレーム画像列の画像データと関連付けて記録媒体16に記録するようにする。このような記録を行う場合、図4の解像度変換部54を省略することが可能である。尚、切り出し領域の位置は、図5のステップS24にて設定されるべき、切り出し領域の中心CNBの座標値によって規定される(図10も参照)。
切り出し情報と画像データの関連付け方法は任意である。例えば、記録媒体16に記録される画像ファイルの本体領域にフレーム画像の画像データを格納すると共に該画像ファイルのヘッダ領域に該画像データに対応する切り出し情報を格納するようにするとよい。Exif(Exchangeable image file format)のファイルフォーマットに準拠する場合、ヘッダ領域はExifタグ又はExif領域とも呼ばれる。画像ファイルのファイルフォーマットを任意の規格に準拠させることが可能である。
画像再生時には、画像再生装置(例えば撮像装置1)が、記録媒体16からフレーム画像を切り出し情報と共に時系列順に次々と読み出して、切り出し情報に従いフレーム画像列から切り出し画像列を生成し、生成した切り出し画像列を動画像として再生表示する。この画像再生装置に図4の解像度変換部54が設けられている場合、切り出し情報に従って生成された切り出し画像列に対して上述の解像度向上処理を実行することにより、解像度変換部54にて出力画像列(解像度向上後の切り出し画像列)を生成させ、その出力画像列を動画像として再生表示することも可能である。
撮影時には特に処理の高速化及び低消費電力化が求められるが、上述の如く、実際に画像を切り出す処理及び解像度向上処理を画像再生時に行うようにすれば、撮影時における処理の負荷が軽減され、撮影時における処理の高速化及び及び低消費電力化が図られる。
<<第2実施形態>>
次に、本発明の第2実施形態について説明する。第2実施形態に係る撮像装置の全体ブロック図は、図1に示すそれと同じであるが、第1実施形態に係る撮像装置と第2実施形態に係る撮像装置を区別するべく、第2実施形態に係る撮像装置を、符号1aによって参照する。撮像装置1aにおける撮像部11の内部構成は、図2に示すそれと同じであり、撮像装置1aの外観斜視図は、図3に示すそれと同じである。そして、矛盾なき限り、撮像装置1aは、第1実施形態に係る撮像装置1が実現する機能を全て実現可能であり、矛盾なき限り、第1実施形態にて記載した事項が第2実施形態にも適用される。
撮像装置1と同様、撮像装置1aも画像処理を用いた被写体追尾機能を備えている。但し、追尾信頼度に応じた良好な構図を有する画像を生成するために、撮像装置1では、切り出し領域のサイズを可変設定していたが(換言すれば、電子ズームにおけるズーム倍率を可変設定していたが)、撮像装置1aでは、その代わりに、撮像部11の画角(換言すれば、光学ズームにおけるズーム倍率)を可変設定する。
図15に、撮像装置1a内の、被写体追尾機能に特に関与する部位のブロック図を示す。図15において符号51、52及び63によって参照される各部位は、図1の主制御部13内に設けられる。フレーム画像列を形成する各フレーム画像の画像データは、順次、追尾処理部51及び追尾信頼度評価部52に与えられる。撮像装置1aに設けられる追尾処理部51及び追尾信頼度評価部52は、第1実施形態で示したそれらと同じものである。
図16を参照して、被写体追尾機能の実現時における撮像装置1aの動作を説明する。図16は、撮影モードにおける、撮像装置1aの動作の流れを表すフローチャートである。撮影モードにおいて、被写体追尾機能が有効となると、追尾処理部51は、順次入力されるフレーム画像に対して顔検出処理を行う。主制御部13は、現在のフレーム画像から顔が検出されたか否かを確認する一方で(ステップS11)、所定の追尾開始指示操作が操作部17に対してなされているかを確認し(ステップS12)、顔が検出されており且つ所定の追尾開始指示操作が操作部17に対してなされている場合に、ステップS13に移行してステップS13の処理を実行するようにする。
ステップS13において、追尾処理部51は、初期設定用フレーム画像の画像データに基づいて追尾対象及び追尾色を設定する。この設定方法は、第1実施形態で述べたものと同じである。追尾対象及び追尾色が設定された後、ステップS21〜S23及びS34からなるループ処理が繰り返し実行されるが、このループ処理の中で、追尾処理部51は、追尾対象及び追尾色が設定された後に得られる追尾対象フレーム画像列に対し、追尾処理を実行する。追尾処理の方法は、第1実施形態で述べたものと同じである。
ステップS21〜S23の各処理は、第1実施形態で述べたそれらと同じものである。即ち、ステップS21において現在のフレーム画像(追尾対象フレーム画像)が取得され、続くステップS22において、その現在のフレーム画像における追尾対象の位置及び大きさが追尾処理によって検出されると共に検出された位置及び大きさを表す情報を含む追尾結果情報が生成される。追尾結果情報は、追尾信頼度評価部52及び画角調整部63に出力される。ステップS22に続くステップS23において、追尾信頼度評価部52は、信頼度評価値EVRの算出を介して、現時点における追尾信頼度を評価する。
第2実施形態では、ステップS23にて追尾信頼度が評価された後、ステップS34の処理が実行される。ステップS34において、画角調整部63は、追尾処理部51から出力される最新の追尾結果情報及び追尾信頼度評価部52によって評価された最新の追尾信頼度に基づいて撮像部11の画角を調整する。
画角の調整は、図2のズームレンズ30の位置を調整することによって実現される。ズームレンズ30は、図2の光学系35内で光軸方向に移動可能である。光学系35内におけるズームレンズ30の位置をズームレンズ位置と呼ぶ。図17に示す如く、ズームレンズ位置がワイド端からテレ端に向かうにつれて、撮像部11の画角(撮影画角)は減少すると共に光学ズーム倍率が増大する。ワイド端及びテレ端は、ズームレンズ30の全移動範囲における両端を表す。
追尾信頼度以外の他の条件(被写体距離など)が全て一定であると考えた場合、ステップS34では、追尾信頼度が高くなるほど画角が小さくなるようにズームレンズ位置が調整される。この結果、追尾信頼度が高くなるほど、フレーム画像上における追尾対象の大きさ(及び追尾対象領域のサイズ)は大きくなる。
図18(a)、(b)及び(c)に、夫々、追尾信頼度が、第1、第2、第3信頼度に維持されている場合において得られるフレーム画像401、402及び403を示す。フレーム画像401〜403の撮影時における、追尾対象の被写体距離は同じであるとする。追尾対象の被写体距離とは、実空間上における、撮像装置1aと追尾対象としての人物との距離を指す。
図18(a)、(b)及び(c)における破線矩形領域411、412及び413は、夫々、フレーム画像401、402及び403内に設定された追尾対象領域である。第1〜第3信頼度の内、第1信頼度が最も信頼度が高く、第3信頼度が最も信頼度が低いとする。追尾対象が有する追尾色の類似色が、追尾対象の近辺に位置することによって、フレーム画像402及び403に対する追尾信頼度は、フレーム画像401のそれよりも低くなっている。
フレーム画像401の撮影時における撮像部11の画角は、フレーム画像402の撮影時における撮像部11の画角よりも小さく、且つ、フレーム画像402の撮影時における撮像部11の画角は、フレーム画像403の撮影時における撮像部11の画角よりも小さい。このため、追尾対象領域411〜413のサイズ(画像サイズ)の内、追尾対象領域411のサイズが最も大きくなり、追尾対象領域413のサイズが最も小さくなる。
上述の如く、追尾信頼度が高くなるほどフレーム画像上における追尾対象の大きさ(及び追尾対象領域の大きさ)が増大するように、撮像部11の画角が調整される。図18(a)〜(c)に示す例の場合、追尾信頼度が第1信頼度であるとき、フレーム画像上の追尾対象の大きさ(又は追尾対象領域411の大きさ)が第1の大きさとなるように、且つ、追尾信頼度が第2信頼度であるとき、フレーム画像上の追尾対象の大きさ(又は追尾対象領域412の大きさ)が第2の大きさとなるように、且つ、追尾信頼度が第3信頼度であるとき、フレーム画像上の追尾対象の大きさ(又は追尾対象領域413の大きさ)が第3の大きさとなるように、追尾結果情報及び追尾信頼度に基づいて画角が調整される。ここで、第1〜第3の大きさの内、第1の大きさが最も大きく、第3の大きさが最も小さいものとする。
画角をどのように調整すべきかを、追尾結果情報に含まれる追尾対象の大きさ情報から決定することができる。例えば、ステップS23にて評価された追尾信頼度が第1信頼度であって且つステップS21にて得られたフレーム画像上における追尾対象の大きさが第2の大きさである場合、次回以降に得られるフレーム画像上において追尾対象の大きさが第1の大きさとなるように、第1の大きさと第2の大きさの差に相当する分だけ、画角を調整すればよい。画角調整部63は、その差に相当する画角調整量(ズームレンズ30の移動量)を、予め設定されたルックアップテーブル等を参照して決定可能である。
尚、追尾対象が撮影領域の端部に位置しており、画角を小さくすることによって追尾対象の一部又は全部が撮影領域外に出てしまう惧れがあるときは、画角の減少は禁止される。
ステップS34の処理の後、ステップS21に戻り、上述のステップS21〜S23及びS34から成るループ処理が繰り返し実行される。上記ループ処理の繰り返しによって得られる、時系列で並ぶフレーム画像列は動画像として表示部15に表示されると共に、そのフレーム画像列の画像データは記録媒体16に記録される。記録媒体16内の画像データを任意の画像再生装置に読み出させれば、その画像再生装置上で、追尾対象に対して良好な構図を有する動画像を再生表示することができる。
本実施形態の如く追尾信頼度に応じて画角を調整するようにすれば、注目した被写体にとって良好な構図を有する動画像の取得を可能としつつ、追尾信頼度が比較的低い時に、注目した被写体が撮影領域内に収まらなくなるといった事態の発生を回避することが可能となる。
<<第3実施形態>>
次に、本発明の第3実施形態を説明する。第3実施形態に係る撮像装置の全体ブロック図は、図1に示すそれと同じであるが、第1実施形態に係る撮像装置と第3実施形態に係る撮像装置を区別するべく、第3実施形態に係る撮像装置を、符号1bによって参照する。撮像装置1bにおける撮像部11の内部構成は、図2に示すそれと同じであり、撮像装置1bの外観斜視図は、図3に示すそれと同じである。そして、矛盾なき限り、撮像装置1bは、第1又は第2実施形態に係る撮像装置が実現する機能を全て実現可能であり、矛盾なき限り、第1又は第2実施形態にて記載した事項が第3実施形態にも適用される。
第3実施形態に係る特徴的動作に関与する、撮像装置1bの一部ブロック図を図19に示す。図19に示される、追尾処理部51、追尾信頼度評価部52及び評価領域設定部73は、図1の主制御部13内に設けられる。フレーム画像列を形成する各フレーム画像の画像データは、順次、追尾処理部51及び追尾信頼度評価部52に与えられる。撮像装置1bに設けられる追尾処理部51及び追尾信頼度評価部52は、第1実施形態で示したそれらと同じものである。追尾処理部51にて生成される追尾結果情報は追尾信頼度評価部52及び評価領域設定部73に与えられ、追尾信頼度評価部52による追尾信頼度の評価結果は評価領域設定部73に与えられる。
撮像装置1bを含む本発明に係る撮像装置は、撮影モードにおいて、画像データに基づくオートフォーカス制御(以下、AF制御という)を実行可能である。
AF制御では、フレーム画像内に設定されたAF評価領域内の画像データからAF評価値を算出し、AF評価値が最大値(厳密には極大値)をとるように、所謂山登り制御を用いて図2のフォーカスレンズ31の位置を制御する。これにより、AF評価領域内に現れる被写体に合焦した状態でフレーム画像列(即ち、動画像)の撮影を行うことができる。
撮像装置1bは、追尾処理を実行し、フレーム画像上における追尾対象の位置を基準にしてAF評価領域の位置を設定しつつ、AF評価領域のサイズ(画像サイズ)を追尾信頼度に応じて可変設定する。AF制御に関する、この方法をより具体的に説明する。
まず、AF評価値を導出するためのAF評価値算出部80を説明する。図20は、AF評価値算出部80の内部ブロック図である。AF評価値算出部80は、図1の主制御部13内に設けられる。AF評価値算出部80は、フレーム画像を被演算画像として取り扱い、図7を参照して説明したように、フレーム画像の全体領域を水平及び垂直方向に分割することによりフレーム画像の全体領域に(M×N)個の小ブロックを設定する。
AF評価値算出部80は、抽出部81、HPF(ハイパスフィルタ)82及び積算部83を備え、フレーム画像ごとに1つのAF評価値を算出する。抽出部81には、フレーム画像の映像信号が与えられる。抽出部81は、その映像信号の中から輝度信号を抽出する。HPF82は、抽出部81によって抽出された輝度信号中の所定の高域周波数成分のみを抽出する。例えば、HPF82を所定のフィルタサイズを有するラプラシアンフィルタにて形成し、そのラプラシアンフィルタをフレーム画像の各画素に作用させる空間フィルタリングを行う。そうすると、HPF82からは、そのラプラシアンフィルタのフィルタ特性に応じた出力値が順次得られる。積算部83は、HPF82によって抽出された高域周波数成分の大きさ(即ち、HPF82の出力値の絶対値)を積算する。この積算は小ブロックごとに個別に行われ、或る小ブロック内における高域周波数成分の大きさの積算値を、その小ブロックのブロックAF値とする。
一方で、AF評価値算出部80には、AF評価領域の位置及び大きさを規定するAF評価領域情報が図19の評価領域設定部73から供給されている。積算部83は、AF評価領域情報に従うAF評価領域に属する小ブロックのブロックAF値からAF評価値を算出する。AF評価領域に属する小ブロックが1つである場合は、その小ブロックのブロックAF値そのものをAF評価値として出力し、図21に示す如く、AF評価領域に属する小ブロックが複数である場合は、その複数の小ブロックのブロックAF値の平均値をAF評価値として出力する。
図22を参照して、追尾信頼度評価結果を利用したAF評価領域の設定方法を説明する。図22は、撮影モードにおける、撮像装置1bの動作の流れを表すフローチャートである。撮影モードにおいて、被写体追尾機能が有効となると、追尾処理部51は、順次入力されるフレーム画像に対して顔検出処理を行う。主制御部13は、現在のフレーム画像から顔が検出されたか否かを確認する一方で(ステップS11)、所定の追尾開始指示操作が操作部17に対してなされているかを確認し(ステップS12)、顔が検出されており且つ所定の追尾開始指示操作が操作部17に対してなされている場合に、ステップS13に移行してステップS13の処理を実行するようにする。
ステップS13において、追尾処理部51は、初期設定用フレーム画像の画像データに基づいて追尾対象及び追尾色を設定する。この設定方法は、第1実施形態で述べたものと同じである。追尾対象及び追尾色が設定された後、ステップS21〜S23及びS44からなるループ処理が繰り返し実行されるが、このループ処理の中で、追尾処理部51は、追尾対象及び追尾色が設定された後に得られる追尾対象フレーム画像列に対し、追尾処理を実行する。追尾処理の方法は、第1実施形態で述べたものと同じである。
ステップS21〜S23の各処理は、第1実施形態で述べたそれらと同じものである。即ち、ステップS21において現在のフレーム画像(追尾対象フレーム画像)が取得され、続くステップS22において、その現在のフレーム画像における追尾対象の位置及び大きさが追尾処理によって検出されると共に検出された位置及び大きさを表す情報を含む追尾結果情報が生成される。追尾結果情報は、追尾信頼度評価部52及び評価領域設定部73に出力される。ステップS22に続くステップS23において、追尾信頼度評価部52は、信頼度評価値EVRの算出を介して、現時点における追尾信頼度を評価する。
第3実施形態では、ステップS23にて追尾信頼度が評価された後、ステップS44の処理が実行される。ステップS44において、評価領域設定部73は、追尾処理部51から出力される最新の追尾結果情報及び追尾信頼度評価部52によって評価された最新の追尾信頼度に基づいてAF評価領域を設定する。このAF評価領域は、現在得られている最新のフレーム画像又はその次に得られるフレーム画像に対して設定される。
AF評価領域の中心位置は、ステップS21にて得られた最新のフレーム画像における追尾対象領域の中心位置と同じとされる。一方で、追尾結果情報にて規定される追尾対象の大きさに基づいて追尾対象領域がAF評価領域に包含されるようにすると共に、追尾信頼度に応じてAF評価領域のサイズを可変設定する。追尾信頼度に応じたAF評価領域のサイズの設定方法は、第1実施形態で述べた、追尾信頼度に応じた切り出し領域のサイズの設定方法と同様であり、その設定方法に関する第1実施形態の技術が本実施形態にも適用される。この適用の際、第1実施形態の説明文中における切り出し領域をAF評価領域に読み替えればよい。つまり例えば、フレーム画像上における追尾対象の大きさが一定であるとすると、追尾信頼度が高くなるに従ってAF評価領域のサイズが小さくなるようにAF評価領域のサイズを設定する。実際には、図10を参照して説明した方法に従って、追尾結果情報に基づく追尾対象の大きさと追尾信頼度(EVR)に基づき、AF評価領域の位置及び大きさを設定すればよい。
撮像装置1bを含む本発明に係る撮像装置は、撮影モードにおいて、画像データに基づくオートアイリス制御(以下、AE制御という)及びオートホワイトバランス制御(以下、AWB制御という)も実行可能であり、AE制御及びAWB制御に対しても、AF制御に対して述べた評価領域の可変設定方法を適用可能である。
AE制御では、図2の絞り32の開度によって定まる絞り値、AFE12(図1参照)における信号増幅の増幅度及びフレーム画像撮影時における露光時間の長さを、3つのAE制御対象として取り扱う。そして、フレーム画像内に設定されたAE評価領域内の画像データからAE評価値を算出し、フレーム画像列内において、AE評価値が所定の値又はその値近辺に保たれるように3つのAE制御対象の内の1以上を制御することにより、AE評価領域内の画像の明るさ(輝度レベル)を所望の明るさに保つ。
撮像装置1b内のAE評価値算出部(不図示)は、フレーム画像毎に1つのAE評価値を算出する。AE評価値は、AE評価領域内に属する画素の輝度値の平均値とされる。尚、輝度値とは輝度信号の値を意味し、輝度値が大きいほど、その輝度値を有する画素の輝度は大きい。
AWB制御では、フレーム画像内に設定されたAWB評価領域内の画像データからAWB評価値を算出し、AWB評価値に基づいてAWB評価領域内におけるホワイトバランスが所望のホワイトバランスとなるように、フレーム画像全体のホワイトバランスを調整する。AWB制御は、例えば、フレーム画像の画像データを生成する過程において、撮像素子33の赤受光画素の出力信号値、緑受光画素の出力信号値若しくは青受光画素の出力信号値又はそれらの2以上に対し、AWB評価値に応じたAWB係数を乗じることにより実現される。
撮像装置1b内のAWB評価値算出部(不図示)は、フレーム画像毎に1つのAWB評価値を算出する。図2に示される撮像素子33は、単板方式の撮像素子であり、撮像素子33の各受光画素の前面にはカラーフィルタが配列されている。カラーフィルタには、光の赤成分のみを透過させる赤フィルタと、光の緑成分のみを透過させる緑フィルタと、光の青成分のみを透過させる青フィルタと、がある。カラーフィルタの配列は、例えばベイヤー配列である。赤フィルタ、緑フィルタ、青フィルタが前面に配置された受光画素を、夫々、赤受光画素、緑受光画素及び青受光画素と呼ぶ。赤受光画素、緑受光画素及び青受光画素は、夫々、光学系35の入射光の、赤成分、緑成分及び青成分にのみ反応する。
フレーム画像は、撮像素子33の各受光画像の出力信号によって表されるので、撮像素子33の撮像面にもAWB評価領域が設定されるものとして考える。AWB評価値算出部は、AWB評価領域に属する各赤受光画素の出力信号値の平均値を赤評価値として算出し、且つ、AWB評価領域に属する各緑受光画素の出力信号値の平均値を緑評価値として算出し、且つ、AWB評価領域に属する各青受光画素の出力信号値の平均値を青評価値として算出する。AWB評価値は、赤評価値、緑評価値及び青評価値から形成される。
尚、AF制御実行時に調整されるべきカメラ制御パラメータには、フォーカスレンズ31の位置が含まれ、AE制御実行時に調整されるべきカメラ制御パラメータには、絞り値、AFE12における信号増幅の増幅度及び/又はフレーム画像撮影時における露光時間の長さが含まれ、AWB制御実行時に調整されるべきカメラ制御パラメータには、上記AWB係数が含まれる。カメラ制御パラメータに依存した動画像が取得されるため、カメラ制御パラメータによって動画像の取得条件が規定される。即ち、AF、AE又はAWB制御実行時には、AF、AE又はAWB評価領域(評価値収集領域)内の画像データに基づいて動画像の取得条件が制御され、例えば、その制御は主制御部13内の取得条件制御部(不図示)によって実行される。
AE制御又はAWB制御に評価領域の可変設定方法を適用する場合、図22のステップS44において、評価領域設定部73は、追尾処理部51から出力される最新の追尾結果情報及び追尾信頼度評価部52によって評価された最新の追尾信頼度に基づいてAE評価領域又はAWB評価領域を設定する。このAE評価領域又はAWB評価領域は、現在得られている最新のフレーム画像又はその次に得られるフレーム画像に対して設定される。
AE評価領域又はAWB評価領域の中心位置は、ステップS21にて得られた最新のフレーム画像における追尾対象領域の中心位置と同じとされる。一方で、追尾結果情報にて規定される追尾対象の大きさに基づいて追尾対象領域がAE評価領域又はAWB評価領域に包含されるようにすると共に、追尾信頼度に応じてAE評価領域又はAWB評価領域のサイズを可変設定する。追尾信頼度に応じたAE評価領域又はAWB評価領域のサイズの設定方法は、第1実施形態で述べた、追尾信頼度に応じた切り出し領域のサイズの設定方法と同様であり、その設定方法に関する第1実施形態の技術が本実施形態にも適用される。この適用の際、第1実施形態の説明文中における切り出し領域をAE評価領域又はAWB評価領域に読み替えればよい。つまり例えば、フレーム画像上における追尾対象の大きさが一定であるとすると、追尾信頼度が高くなるに従ってAE評価領域又はAWB評価領域のサイズが小さくなるようにAE評価領域又はAWB評価領域のサイズを設定する。実際には、図10を参照して説明した方法に従って、追尾結果情報に基づく追尾対象の大きさと追尾信頼度(EVR)に基づき、AE評価領域の位置及び大きさ又はAWB評価領域の位置及び大きさを設定すればよい。
ステップS44の処理の後、ステップS21に戻り、上述のステップS21〜S23及びS44から成るループ処理が繰り返し実行される。このループ処理の繰り返しによって得られる、時系列で並ぶフレーム画像列は動画像として表示部15に表示されると共に、そのフレーム画像列の画像データは記録媒体16に記録される。
追尾信頼度が比較的低い時には、真の追尾対象とは異なる物体を追尾対象であると誤検出している可能性が比較的高い。従って、追尾信頼度が比較的低い時において、それが比較的高い場合と同様にAF、AE又はAWB評価領域のサイズを小さく設定すると、注目した被写体と全く関係のない背景に対してピント合わせ、画像明るさ調整又はホワイトバランス調整がなされるといった事態も発生しうる。これを考慮し、本実施形態では、追尾信頼度に応じてAF、AE又はAWB評価領域のサイズを可変設定する。これにより、そのような事態の発生を回避することが可能となる。
<<第4実施形態>>
次に、本発明の第4実施形態について説明する。第4実施形態に係る撮像装置の全体ブロック図は、図1に示すそれと同じであるが、第1実施形態に係る撮像装置と第4実施形態に係る撮像装置を区別するべく、第4実施形態に係る撮像装置を、符号1cによって参照する。撮像装置1cにおける撮像部11の内部構成は、図2に示すそれと同じであり、撮像装置1cの外観斜視図は、図3に示すそれと同じである。そして、矛盾なき限り、撮像装置1cは、第1又は第2実施形態に係る撮像装置が実現する機能を全て実現可能であり、矛盾なき限り、第1又は第2実施形態にて記載した事項が第4実施形態にも適用される。
撮像装置1cは、画像再生時において、第3実施形態にて述べたAE制御に類似する制御(以下、再生時AE制御という)及び第3実施形態にて述べたAWB制御に類似する制御(以下、生成時AWB制御という)を実行可能である。この画像再生動作に先立って、動画像撮影時に得られた時系列で並ぶフレーム画像列の全体の画像データが記録媒体16に記録されているものとする。本実施形態における以下の動作は、再生モードにおける撮像装置1cの動作である。
第4実施形態に係る特徴的動作に関与する、撮像装置1cの一部ブロック図を図23に示す。図23に示される、符号51、52及び101〜104によって参照される各部位は、図1の主制御部13内に設けられる。画像取得部101は、記録媒体16からフレーム画像を時系列順に次々と読み出し、各フレーム画像の画像データを時系列順に、追尾処理部51、追尾信頼度評価部52、評価値算出部103及び画像加工部104に与える。撮像装置1cに設けられる追尾処理部51及び追尾信頼度評価部52は、第1実施形態で示したそれらと同じものである。追尾処理部51にて生成される追尾結果情報は追尾信頼度評価部52及び評価領域設定部102に与えられ、追尾信頼度評価部52による追尾信頼度の評価結果は評価領域設定部102に与えられる。
追尾処理部51は、所定の追尾開始指示操作が操作部17に対してなされた時点において自身に与えられるフレーム画像を初期設定用フレーム画像として捉え、その初期設定用フレーム画像の画像データに基づいて追尾対象及び追尾色を設定する。但し、初期設定用フレーム画像には、追尾対象となるべき人物が存在しているものとする。追尾対象及び追尾色の設定方法は、第1実施形態で述べたものと同じである。
追尾対象及び追尾色の設定後、図24に示すフローチャートに沿った動作が実行される。図24は、再生時AE制御の動作手順を表すフローチャートである。
追尾対象及び追尾色の設定後、ステップS21〜S23及びS54〜S56から成るループ処理が繰り返し実行されるが、このループ処理の中で、追尾処理部51は、追尾対象及び追尾色が設定された後に得られる追尾対象フレーム画像列に対し、追尾処理を実行する。追尾処理の方法は、第1実施形態で述べたものと同じである。
ステップS21〜S23の各処理は、第1実施形態で述べたそれらと同じものである。即ち、ステップS21において現在のフレーム画像(追尾対象フレーム画像)が取得され、続くステップS22において、その現在のフレーム画像における追尾対象の位置及び大きさが追尾処理によって検出されると共に検出された位置及び大きさを表す情報を含む追尾結果情報が生成される。追尾結果情報は、追尾信頼度評価部52及び評価領域設定部102に出力される。ステップS22に続くステップS23において、追尾信頼度評価部52は、信頼度評価値EVRの算出を介して、現時点における追尾信頼度を評価する。
再生時AE制御では、ステップS23にて追尾信頼度が評価された後、ステップS54の処理が実行される。ステップS54において、評価領域設定部102は、追尾処理部51から出力される最新の追尾結果情報及び追尾信頼度評価部52によって評価された最新の追尾信頼度に基づいてAE評価領域を設定する。このAE評価領域は、ステップS21にて得られた最新のフレーム画像に対して設定される。
AE評価領域の中心位置は、ステップS21にて得られた最新のフレーム画像における追尾対象領域の中心位置と同じとされる。一方で、追尾結果情報にて規定される追尾対象の大きさに基づいて追尾対象領域がAE評価領域に包含されるようにすると共に、追尾信頼度に応じてAE評価領域のサイズを可変設定する。追尾信頼度に応じたAE評価領域のサイズの設定方法は、第1実施形態で述べた、追尾信頼度に応じた切り出し領域のサイズの設定方法と同様であり、その設定方法に関する第1実施形態の技術が本実施形態にも適用される。この適用の際、第1実施形態の説明文中における切り出し領域をAE評価領域に読み替えればよい。つまり例えば、フレーム画像上における追尾対象の大きさが一定であるとすると、追尾信頼度が高くなるに従ってAE評価領域のサイズが小さくなるようにAE評価領域のサイズを設定する。実際には、図10を参照して説明した方法に従って、追尾結果情報に基づく追尾対象の大きさと追尾信頼度(EVR)に基づき、AE評価領域の位置及び大きさを設定すればよい。
ステップS54に続くステップS55において、評価値算出部103は、ステップS54にて設定されたAE評価領域をステップS21にて取得されたフレーム画像に適用し、そのフレーム画像のAE評価領域内の画像データから、そのフレーム画像に対するAE評価値を算出する。AE評価値の算出方法は、第3実施形態で述べたものと同じである。
その後、ステップS56において、画像加工部104は、ステップS21にて取得されたフレーム画像を、ステップS55にて算出されたAE評価値に基づいて加工することにより加工フレーム画像を生成する。再生時AE制御では、AE評価値に応じた一定値を、ステップS21にて取得されたフレーム画像の各画素の輝度値に乗じ、これによって得た画像を加工フレーム画像とする。これにより、追尾対象領域を含むAE評価領域内の画像の明るさ(輝度レベル)を所望の明るさに保つ。
ステップS56の処理の後、ステップS21に戻り、上述のステップS21〜S23及びS54〜S56から成るループ処理が繰り返し実行される。このループ処理の繰り返しによって得られる、時系列で並ぶ加工フレーム画像列は動画像として表示部15に表示される。その加工フレーム画像列の画像データを記録媒体16に記録するようにしてもよい。
再生時AE制御を行う場合の動作を説明したが、再生時AWB制御も、ステップS21〜S23及びS54〜S56の各処理を実行することによって実現される。但し、再生時AWB制御を行う場合は、上記のAE評価領域及びAE評価値が夫々AWB評価領域及びAWB評価値に読み替えられる。AWB評価値は、フレーム画像のAWB評価領域内の画像データに基づいて算出され、ステップS56において、AWB評価値に基づいてフレーム画像が加工される。再生時AWB制御では、AWB評価領域内におけるホワイトバランスが所望のホワイトバランスとなるように、AWB評価値に基づいてフレーム画像全体のホワイトバランスを調整される。ホワイトバランス調整後のフレーム画像が、画像加工部104にて生成されるべき加工フレーム画像である。
追尾信頼度が比較的低い時には、真の追尾対象とは異なる物体を追尾対象であると誤検出している可能性が比較的高い。従って、追尾信頼度が比較的低い時において、それが比較的高い場合と同様にAE又はAWB評価領域のサイズを小さく設定すると、注目した被写体と全く関係のない背景に対して画像明るさ調整又はホワイトバランス調整がなされるといった事態も発生しうる。これを考慮し、本実施形態では、追尾信頼度に応じてAE又はAWB評価領域のサイズを可変設定する。これにより、そのような事態の発生を回避することが可能となる。
尚、上述の例では、撮像装置1cに設けられた表示部15上で加工フレーム画像列を再生表示するようにしているが、表示したい画像の画像データを撮像装置1cの外部の表示装置(不図示)に供給することで、その外部の表示装置上にて、加工フレーム画像列を表示するようにしてもよい。また、加工フレーム画像列の画像データを、必要に応じてネットワーク網などを介しつつ、その画像データを利用する外部機器(ウェブサイトを運営するサーバ機器など)に供給するようにしてもよい。
<<第5実施形態>>
次に、本発明の第5実施形態を説明する。上述の各実施形態では、色情報に基づく追尾処理方法を説明したが、図4等に示される追尾処理部51は、他の任意の追尾処理方法を採用することが可能である。他の追尾処理方法を例示する実施形態を、第5実施形態とする。第5実施形態に記載された内容は、上述の第1〜第4実施形態と組み合わせて実施される。
例えば、追尾処理部51は、画像マッチングを用いることによって、フレーム画像列における追尾対象の位置の追尾を実行することができる。画像マッチングを用いた追尾処理は周知であるが、時刻tn-1のフレーム画像と時刻tnのフレーム画像との間における、画像マッチング(テンプレートマッチング)に基づく追尾処理を簡単に説明する。時刻tn-1のフレーム画像上における追尾対象の位置は、既に検出されているものとする。尚、第1実施形態で述べたように、時刻tn-1のフレーム画像の次に時刻tnのフレーム画像が撮影される(図14参照)。
追尾処理部51は、時刻tn-1のフレーム画像の全体領域中の一部領域であって且つ追尾対象の一部又は全部が表れている画像領域に着目し、その着目した画像領域内の画像をテンプレート画像とする一方で、時刻tnのフレーム画像内に追尾枠を設定する。そして、追尾枠内における画像とテンプレート画像との類似性評価を追尾枠の位置を探索範囲内で順次変更しながら実行し、最大の類似性(換言すれば最小の相違度)が得られた追尾枠の位置に、時刻tnのフレーム画像上の追尾対象が存在すると判断する。時刻tnのフレーム画像に対する探索範囲は、時刻tn-1のフレーム画像における追尾対象の位置を基準にして設定される。通常、その探索範囲は、時刻tn-1のフレーム画像における追尾対象の位置を中心とする矩形領域とされ、探索範囲のサイズ(画像サイズ)は、フレーム画像の全体領域のサイズよりも小さい。
追尾処理部51が画像マッチングを用いて追尾処理を行う場合、追尾信頼度評価部52による信頼度評価値EVRの算出方法も、第1実施形態で述べたものから変更される。画像マッチングを用いた追尾処理に適合する、信頼度評価値EVRの算出方法を説明する。
追尾信頼度評価部52は、各フレーム画像を被演算画像として取り扱い、第1実施形態で述べた方法を用いて、被演算画像内に複数の小ブロックを設定すると共に各小ブロックを被写体ブロック又は背景ブロックに分類することにより各フレーム画像の全体領域を追尾対象領域と背景領域に切り分ける(図7参照)。そして、上記のテンプレート画像が位置する小ブロックを小ブロック[mO,nO]として取り扱い、時刻tnのフレーム画像における小ブロック[mO,nO]内の画像と、時刻tnのフレーム画像における背景ブロック内の画像との相違度を表す相違度評価値を、背景ブロック毎に算出する。
背景ブロックはQ個存在するものとし、第1〜第Qの背景ブロックに対して算出された相違度評価値を夫々CDISA[1]〜CDISA[Q]にて表す(Qは、不等式「2≦Q≦(M×N)−1」を満たす整数)。例えば、時刻tnのフレーム画像に対する相違度評価値CDISA[i]は、時刻tnのフレーム画像における小ブロック[mO,nO]に属する各画素の画素値(例えば輝度値)と、時刻tnのフレーム画像における第iの背景ブロックに属する各画素の画素値(例えば輝度値)との対比から求められる、SAD(Sum of Absolute Difference)又はSSD(Sum of Square Difference)とされる(ここで、iは自然数)。これにより、対比画像間の相違度が増大すれば相違度評価値CDISA[i]は増大することになる。また、相違度評価値CDISA[i]が取りうる値の範囲が0以上1以下となるように、相違度評価値は正規化されているものとする。或る着目した画像領域に関し、その画像領域に属する画素の画素値(例えば輝度値)は、その画像領域内の画像の特徴を表す量(画像特徴量)の一種であることは言うまでもない。
一方で、小ブロック[mO,nO]の中心を、図8を参照して述べた中心250として取り扱って、第1実施形態で述べた方法と同様にして、第1〜第Qの背景ブロックに対する位置差評価値PDIS[1]〜PDIS[Q]を求める。そして、相違度評価値CDISA[i]をCDIS[i]に代入した上で上記式(1)を用いることにより統合距離CPDISを算出し、その統合距離CPDISを用いて上記式(2)に従って、着目した被演算画像(今の例において、時刻tnのフレーム画像)に対する信頼度評価値EVRを算出する。この算出方法から理解されるように、追尾対象の近くに、追尾対象の模様に類似する模様を有する物体が存在すれば、信頼度評価値EVRは低くなる。
追尾処理部51は、画像マッチングではなく、オプティカルフロー情報を用いることによって、フレーム画像列における追尾対象の位置の追尾を実行することもできる。オプティカルフロー情報を用いた追尾処理は周知であるが、時刻tn-1のフレーム画像と時刻tnのフレーム画像との間における、オプティカルフロー情報に基づく追尾処理を簡単に説明する。時刻tn-1のフレーム画像上における追尾対象の位置は、既に検出されているものとする。図25に、時刻tn-1及び時刻tnのフレーム画像501及び502と、両画像間のオプティカルフロー503を示す。オプティカルフロー503内の実線矢印は、追尾対象の動きに対応する動きベクトルを表す。
追尾処理部51は、時刻tn-1及び時刻tnのフレーム画像を対比することにより対比画像間のオプティカルフローを求める。オプティカルフローは、対比画像間における、画像上の物体の動きをベクトルにて表現した動きベクトルの束であり、代表点マッチング法やブロックマッチング法、勾配法などを用いて導出される。追尾処理部51は、その動きベクトルの束から、略同一の向きを有し且つ略同一の大きさを有する動きベクトルの集まりを探索し、その動きベクトルの集まりが存在する位置に、追尾対象としての動物体が存在していると判断する(即ち、その位置が、時刻tnのフレーム画像上における追尾対象の位置であると判断する)。その探索は、探索範囲内においてなされ、時刻tnのフレーム画像に対する探索範囲は、時刻tn-1のフレーム画像における追尾対象の位置を基準にして設定される。通常、その探索範囲は、時刻tn-1のフレーム画像における追尾対象の位置を中心とする矩形領域とされ、探索範囲のサイズ(画像サイズ)は、フレーム画像の全体領域のサイズよりも小さい。尚、探索された動きベクトルの集まりの存在範囲から、追尾対象領域を設定することも可能である。
追尾処理部51がオプティカルフロー情報を用いて追尾処理を行う場合、追尾信頼度評価部52による信頼度評価値EVRの算出方法も、第1実施形態で述べたものから変更される。オプティカルフロー情報を用いた追尾処理に適合する、信頼度評価値EVRの算出方法を説明する。
追尾信頼度評価部52は、各フレーム画像を被演算画像として取り扱い、第1実施形態で述べた方法を用いて、被演算画像内に複数の小ブロックを設定すると共に各小ブロックを被写体ブロック又は背景ブロックに分類することにより各フレーム画像の全体領域を追尾対象領域と背景領域に切り分ける(図7参照)。今、時刻tn-1及び時刻tnのフレーム画像間のオプティカルフローを、時刻tnのフレーム画像に対するオプティカルフローと考える。そして、時刻tnのフレーム画像において追尾対象(追尾対象の中心)が位置する小ブロックを小ブロック[mO,nO]として取り扱い、時刻tnのフレーム画像に対する小ブロック[mO,nO]内のオプティカルフローと、時刻tnのフレーム画像に対する背景ブロック内のオプティカルフローとの相違度を表す動き相違度評価値を、背景ブロック毎に算出する。
背景ブロックはQ個存在するものとし、第1〜第Qの背景ブロックに対して算出された動き相違度評価値を夫々CDISB[1]〜CDISB[Q]にて表す(Qは、不等式「2≦Q≦(M×N)−1」を満たす整数)。時刻tnのフレーム画像に対する小ブロック[mO,nO]内のオプティカルフロー及び時刻tnのフレーム画像に対する第iの背景ブロック内のオプティカルフローを、夫々、第1及び第2オプティカルフローと呼ぶ。そうすると、例えば、時刻tnのフレーム画像に対する動き相違度評価値CDISB[i]は、第1オプティカルフローを形成する動きベクトルの向き及び大きさと第2オプティカルフローを形成する動きベクトルの向き及び大きさとの対比結果に基づき、対比される向きが異なれば異なるほど増加するように且つ対比される大きさが異なれば異なるほど増加するように算出される(ここで、iは自然数)。この際、動き相違度評価値CDISB[i]が取りうる値の範囲が0以上1以下となるように、動き相違度評価値は正規化されているものとする。或る着目した画像領域に関し、その画像領域に対して導出されたオプティカルフローを、その画像領域内の画像の、動きに関する特徴を表す量(画像特徴量)と捉えることができる。
一方で、小ブロック[mO,nO]の中心を、図8を参照して述べた中心250として取り扱って、第1実施形態で述べた方法と同様にして、第1〜第Qの背景ブロックに対する位置差評価値PDIS[1]〜PDIS[Q]を求める。そして、動き相違度評価値CDISB[i]をCDIS[i]に代入した上で上記式(1)を用いることにより統合距離CPDISを算出し、その統合距離CPDISを用いて上記式(2)に従って、着目した被演算画像(今の例において、時刻tnのフレーム画像)に対する信頼度評価値EVRを算出する。この算出方法から理解されるように、追尾対象の近くに、追尾対象の動きに類似して動く物体が存在すれば、信頼度評価値EVRは低くなる。
<<第6実施形態>>
次に、本発明の第6実施形態を説明する。第6実施形態では、追尾信頼度の導出方法の更なる変形例、即ち信頼度評価値EVRの算出方法の更なる変形列を説明する。第6実施形態に記載された内容は、上述の各実施形態と組み合わせて実施される。
以下に、信頼度評価値EVRの算出方法として、第1〜第10算出方法を例示する。図4等に示される追尾信頼度評価部52は、第1〜第10算出方法の何れかを用いて、被演算画像(即ち、信頼度評価値EVRが算出されるべき追尾対象フレーム画像)に対する信頼度評価値EVRを算出することが可能である。
尚、第1実施形態では信頼度評価値EVRが0以上100以下の値をとることとしたが、第6実施形態では、信頼度評価値EVRが0以上1以下の値をとり、追尾信頼度が高いと評価されるほど信頼度評価値EVRが上限値1に近づくものとする。従って、第6実施形態の各算出方法を上述の各実施形態に当てはめる場合においては、第6実施形態の各算出方法にて算出された信頼度評価値EVRを100倍するとよい。
[第1算出方法]
第1算出方法を説明する。第1実施形態にて以下のような追尾処理内容を述べた。追尾色の設定後、被演算画像としての追尾対象フレーム画像内に探索範囲及び追尾枠を設定し、追尾枠内における画像の色と追尾色との類似性評価を追尾枠の位置を探索範囲内で順次変更しながら実行することで追尾対象フレーム画像上における追尾対象の位置を検出する。今回の追尾対象フレーム画像に対する探索範囲は、前回の追尾対象フレーム画像における追尾対象の位置を基準にして設定される。
このような追尾処理において、追尾対象フレーム画像上の追尾対象の大きさが小さいと、追尾の安定性が低下する。例えば、追尾色に類似する色を有する物体(追尾対象と異なる物体)が探索範囲内に入っている場合、その物体が比較的小さかったとしても、追尾対象の大きさが比較的小さいと、その物体が追尾対象であると誤検出される可能性が高まる。逆に、追尾対象の大きさが比較的大きければ、その物体の存在にも関らず、誤検出が生じる可能性は少ない。
このような事情を考慮し、第1算出方法では、被演算画像上における追尾対象の大きさに基づいて信頼度評価値EVRを算出する。具体的には、以下の式(6−1)に従って、被演算画像に対する信頼度評価値EVRを算出する。
ここで、TgtSizeは、被演算画像において、追尾対象の画像データが存在すると判断された画像領域の大きさを表す数値であり、AreaSizeは、被演算画像における上記探索範囲の大きさを表す数値である。
大きさTgtSizeを画素数にて表現することができる。具体的には例えば、上記探索範囲内に属する画素の内、追尾対象の画像データを表す画素の総数を、TgtSizeに代入することができる。第1実施形態にて述べたように、追尾結果情報に基づいて被演算画像の画像領域を追尾対象の画像データが表れる追尾対象領域及び背景の画像データが表れる背景領域に分類することができるが、その追尾対象領域に属する画素の総数をTgtSizeに代入することができる。TgtSizeが画素数にて表現される場合、AreaSizeは、上記探索範囲に属する画素の総数とされる。
或いは、大きさTgtSizeを、画像上の面積にて表現するようにしてもよい。つまり、追尾処理において追尾対象の外形を比較的簡素な形状(例えば、楕円や矩形)に近似することができるが、その近似によって得られた追尾対象の外形内の面積にてTgtSizeを表現するようにしてもよい。具体的には例えば、被演算画像上における追尾対象領域の面積をTgtSizeに代入することができる。第1実施形態では、追尾対象領域の外形が矩形となっているが、その外形は矩形以外であっても構わない。TgtSizeが面積にて表現される場合、AreaSizeは、被演算画像上における探索範囲の面積とされる。
[第2算出方法]
第2算出方法を説明する。第2算出方法では、被演算画像上における追尾対象の位置に基づいて信頼度評価値EVRを算出する。具体的には、以下の式(6−2)に従って、被演算画像に対する信頼度評価値EVRを算出する。但し、式(6−2)の右辺の値が負になる場合、EVRはゼロとされる。
TDistは、図26に示す如く、追尾対象の中心位置601と被演算画像の中心位置602との距離(即ち、位置601及び602間の、被演算画像上における空間的な位置差)であり、StdDistは、予め設定された基準距離である。追尾対象の中心位置601は、例えば、被演算画像に対する追尾結果情報に基づく、第1実施形態で述べた中心250の位置である(図8参照)。
ユーザは、追尾対象となるべき注目被写体が画像の中央付近に配置されるように撮像装置を操作するのが通常である。故に、追尾対象が画像端部において検出されるような追尾結果は、信頼性が疑われる。また、追尾対象が画像端部に存在するような場合、追尾対象が撮像装置の撮影領域外に出やすくなる(所謂フレームアウトが起こりやすくなる)。このような場合、追尾信頼度を低下させて撮影画角を増大方向に向かわせることが、追尾維持の観点からは重要である。これらを考慮し、第2算出方法では、追尾対象の位置が画像中心に近いと判断される場合ほど信頼度評価値EVRを増大させ、逆の場合には信頼度評価値EVRを減少させる。
[第3算出方法]
第3算出方法を説明する。第3算出方法では、異なる追尾対象フレーム画像間における、追尾対象の動きベクトルの大きさに基づいて信頼度評価値EVRを算出する。具体的には、以下の式(6−3)に従って、被演算画像に対する信頼度評価値EVRを算出する。但し、式(6−3)の右辺の値が負になる場合、EVRはゼロとされる。
Vtは、被演算画像である第1の追尾対象フレーム画像と第1の追尾対象フレーム画像よりも前に撮影された第2の追尾対象フレーム画像との間における追尾対象の動きベクトルを表し、|Vt|は、その動きベクトルVtの大きさを表す。Vstdは、予め設定された基準ベクトルであり、|Vstd|は、基準ベクトルVstdの大きさを表す。
動きベクトルVtは、第2の追尾対象フレーム画像上における追尾対象の位置から見た、第1の追尾対象フレーム画像上における追尾対象の位置を表すベクトルである(即ち、動きベクトルVtは、第2の追尾対象フレーム画像を基準画像とする動きベクトルである)。第1及び第2の追尾対象フレーム画像上における追尾対象の位置とは、夫々、例えば、第1及び第2の追尾対象フレーム画像に対する追尾結果情報に基づく、第1及び第2の追尾対象フレーム画像上における中心250の位置を指す(図8参照)。また、第2の追尾対象フレーム画像は、第1の追尾対象フレーム画像よりもnフレーム周期前に撮影されたフレーム画像である(ここで、nは1以上の整数)。また、第1の追尾対象フレーム画像よりも前に撮影された複数のフレーム画像の夫々を第2の追尾対象フレーム画像とみなし、その複数のフレーム画像の夫々と第1の追尾対象フレーム画像との間における追尾対象の動きベクトルの平均をVtとして用いても良い。
第1及び第2の追尾対象フレーム画像の撮影間隔である評価期間中において追尾対象の位置が急激に変わるような追尾結果が得られた場合、その追尾結果の信頼性は疑わしい。また、追尾対象の動きが速い場合、追尾対象がフレームアウトしやすい、追尾処理において追尾対象を見失いやすいといった事情もある。これらを考慮し、第3算出方法では、追尾対象の動きベクトルの大きさに基づいて信頼度評価値EVRを算出する。
[第4算出方法]
第4算出方法を説明する。第4算出方法では、第3算出方法で述べた追尾対象の動きベクトルVtと基準ベクトルVstdとの成す角度θに基づいて、信頼度評価値EVRを算出する。但し、第4算出方法における動きベクトルVtは、被演算画像である第1の追尾対象フレーム画像と第1の追尾対象フレーム画像よりも1フレーム周期前に撮影された追尾対象フレーム画像との間における追尾対象の動きベクトルを表し、第4算出方法における基準ベクトルVstdは、それ以前に得られた追尾対象の動きベクトルを表す。
図27を参照し、第4算出方法における動きベクトルVt及び基準ベクトルVstdの意義を補足説明する。今、1フレーム周期分の時間が経過することに、時刻tn-4、tn-3、tn-2、tn-1、tn・・・が順番に訪れるものとし、時刻tn-iにて取得された追尾対象フレーム画像を、時刻tn-iの追尾対象フレーム画像又は単に時刻tn-iのフレーム画像と呼ぶ(iは整数)。また、時刻tn-iのフレーム画像を基準とした、時刻tn-i及びtn-(i-1)のフレーム画像間における追尾対象の動きベクトルを、図27に示す如く、V[i,i−1]にて表す。
このような前提の下、信頼度評価値EVRが算出されるべき被演算画像が時刻tnのフレーム画像であるならば、第4算出方法における動きベクトルVtは、ベクトルV[1,0]であり、第4算出方法における基準ベクトルVstdは、ベクトルV[2,1]である。或いは、基準ベクトルVstdは、ベクトルV[2,1]と、ベクトルV[2,1]よりも過去に算出された追尾対象についての1又は複数個の動きベクトルと、の平均ベクトル(例えば、V[2,1]とV[3,2]との平均ベクトル)であってもよい。
上述のようなベクトルVt及びVstdを用い、以下の式(6−4)に従って、被演算画像に対する信頼度評価値EVRを算出する。
動きベクトルVtの向きは、画像上における追尾対象の直近の動きの向きを表し、基準ベクトルVstdの向きは、画像上における追尾対象の過去の動きの向きを表す。動画像上において追尾対象が動く際、その動きの方向は概ね一定であることが多く、動きの向きが急峻に変化するような追尾結果は、信頼性が疑われる。これを考慮し、第4算出方法では、上記角度θが比較的大きい場合に信頼度評価値EVRを比較的小さくし、上記角度θが比較的小さい場合に信頼度評価値EVRを比較的大きくする。
[第5算出方法]
第5算出方法を説明する。第5算出方法は、第3及び第4算出方法を組み合わせた方法である。具体的には、第5算出方法では、以下の式(6−5)に従って、被演算画像に対する信頼度評価値EVRを算出する。ここで、EVR4は上記式(6−3)に従って算出されるべきEVRを表し、EVR5は上記式(6−4)に従って算出されるべきEVRを表す。
[第6算出方法]
第6算出方法を説明する。第6算出方法では、追尾対象に分類された画素から得られる特徴量のフレーム間相関に基づいて(換言すれば、フレーム間における追尾対象の特徴量の変化量に基づいて)、信頼度評価値EVRを算出する。具体的には、以下の式(6−6)に従って、被演算画像に対する信頼度評価値EVRを算出する。但し、式(6−6)の右辺の値が負になる場合、EVRはゼロとされる。
ここで、VAL(n)は、第n番目の追尾対象フレーム画像(即ち、図27に示される時刻tnのフレーム画像)についての特徴量であり、VAL(n−1)は、第(n−1)番目の追尾対象フレーム画像(即ち、図27に示される時刻tn-1のフレーム画像)についての特徴量であり、VALbaseは、予め設定された基準特徴量である。
上述したように、各追尾対象フレーム画像の全体領域は、追尾結果情報に基づき、追尾対象の画像データが表れる追尾対象領域及び背景の画像データが表れる背景領域に分類されるが、第i番目の追尾対象フレーム画像における追尾対象領域の特徴量が、VAL(i)とされる(ここで、iはn又は(n−1))。
特徴量VAL(i)は、追尾処理において追尾対象の識別に用いる特徴量と同じ種類の特徴量であっても良い。即ち具体的には例えば、第1実施形態で述べたように色情報に基づいて追尾対象の胴体領域の追尾が行われる場合、第i番目の追尾対象フレーム画像における胴体領域の画像データに基づいて第i番目の追尾対象フレーム画像における胴体領域の色(以下、第iの特徴色という)を求める。第1実施形態で述べた、初期設定用フレーム画像の画像データに基づいて追尾色を導出する方法を、第i番目の追尾対象フレーム画像の画像データに基づいて第iの特徴色を導出する方法に利用することができる。そして、色空間(例えば、RGB又はHSV色空間)上の、第iの特徴色の位置をVAL(i)とする。この場合、式(6−6)における|VAL(n)−VAL(n−1)|は、色空間上における、第nの特徴色の位置と第(n−1)の特徴色の位置との距離である。
特徴量VAL(i)は、追尾処理において追尾対象の識別に用いる特徴量と異なる種類の特徴量であっても良い。即ち具体的には例えば、第1実施形態で述べたように色情報に基づいて追尾対象の胴体領域の追尾が行われる場合、第i番目の追尾対象フレーム画像における胴体領域の画像データに基づいて第i番目の追尾対象フレーム画像における胴体領域の輝度レベル(以下、第iの輝度レベルという)を求める。第i番目の追尾対象フレーム画像の胴体領域に属する各画素の平均輝度を、第iの輝度レベルとすることができる。そして、第iの輝度レベルをVAL(i)とすればよい。この場合、式(6−6)における|VAL(n)−VAL(n−1)|は、第n及び(n−1)番目の追尾対象フレーム画像間における、追尾対象(胴体領域)の輝度差を表すこととなる。
尚、第n番目の追尾対象フレーム画像よりも過去に得られた複数の追尾対象フレーム画像についての特徴量の平均又は加重平均を、式(6−6)のVAL(n−1)に代入するようにしてもよい。即ち例えば、第(n−1)及び(n−2)番目の追尾対象フレーム画像についての特徴量の平均を、式(6−6)のVAL(n−1)に代入するようにしてもよい。
追尾対象の特徴量が急激に変わるような追尾結果が得られた場合、その追尾結果の信頼性は疑わしい。これを考慮し、第6算出方法では、追尾対象の画像特徴を表す特徴量の変化量に基づいて信頼度評価値EVRを算出する。
[第7算出方法]
第7算出方法を説明する。第1実施形態で以下の技術を述べた。
追尾色の設定後、被演算画像としての追尾対象フレーム画像内に探索範囲及び追尾枠を設定し、追尾枠内における画像の色と追尾色との類似性評価を追尾枠の位置を探索範囲内で順次変更しながら実行することで追尾対象フレーム画像上における追尾対象の位置を検出することができる。
被演算画像の全体領域を複数の小ブロックに分解し(図7参照)、各小ブロックを被写体ブロック及び背景ブロックの何れかに分類することで、被演算画像の全体領域を被写体ブロック群の合成領域である追尾対象領域と背景ブロック群の合成領域である背景領域に分類することができる。
追尾色と第iの背景ブロックの色との相違度を色差評価値CDIS[i]として求めることができる。色差評価値CDIS[i]は、0以上1以下の値をとる。
第7算出方法では、この色差評価値CDIS[i]を利用し、以下の式(6−7)に従って、被演算画像に対する信頼度評価値EVRを算出する。
式(6−7)の右辺におけるΣは、被演算画像における追尾対象の周辺領域に属する各背景ブロックの色差評価値の積算を意味している。被演算画像における追尾対象の周辺領域とは、例えば、当該被演算画像に対して設定された上記探索範囲から追尾対象領域を除外することで残る画像領域、或いは、該探索範囲よりも若干大きい若しくは小さい画像領域から追尾対象領域を除外することで残る画像領域、或いは、被演算画像の全体領域から追尾対象領域を除外することで残る画像領域を指す。今、追尾対象の周辺領域に第1〜第Rの背景ブロックが属しているものとする(Rは2以上の整数)。そうすると、式(6−7)に従うEVRは、第1〜第Rの背景ブロックに対して算出された色差評価値CDIS[1]〜CDIS[R]の総和と、(1−ColArea)との、積である。
ColAreaは、追尾色と同じ又は類似する色を有する背景ブロックが、周辺領域に占める割合を表す。例えば、色差評価値CDIS[i]が所定の閾値以下である場合に、第iの背景ブロックが有する色は追尾色と同じ又は類似する色であると判断し、そうでない場合に、第iの背景ブロックが有する色は追尾色と非類似であると判断する。仮に、R=100であって、且つ、第1〜第100の背景ブロックの内、第1〜第40の背景ブロックのみが追尾色と同じ又は類似する色を有すると判断した場合、ColAreaは、40%である。
色情報に基づく追尾は、追尾対象の周辺領域の色が追尾色と大きく異なっていれば安定し、それらが似通っていれば不安定となる。また、色情報に基づく追尾は、追尾対象の周辺に追尾色の類似色が多く存在しているほど不安定となる。第7算出方法は、これらに対応した信頼度評価を提供する。
[第8算出方法]
第8算出方法を説明する。第8算出方法では、追尾対象の周辺の輝度に基づいて信頼度評価値EVRを算出する。例えば、図28に示す如く、追尾対象の周辺領域における輝度が極段に低い又は極端に高い場合に、信頼度評価値EVRを低くする。
図28に示す具体例では、追尾対象の周辺輝度レベルLsrdと所定の基準レベルLTH1〜LTH4とを比較し、不等式「Lsrd<LTH1」又は「LTH4≦Lsrd」の成立時にはEVRを0とし、不等式「LTH1≦Lsrd<LTH2」の成立時にはLsrdがLTH1からLTH2に向かって増大するに従ってEVRを0から1に向かって増大させ、不等式「LTH2≦Lsrd<LTH3」の成立時にはEVRを1とし、不等式「LTH3≦Lsrd<LTH4」の成立時にはLsrdがLTH3からLTH4に向かって増大するに従ってEVRを1から0に向かって減少させる。ここで、基準レベルLTH1〜LTH4は、不等式「0<LTH1<LTH2<LTH3<LTH4」を満たす。
周辺輝度レベルLsrdは、被演算画像における追尾対象の周辺領域の平均輝度を表す(即ち、該周辺領域に属する画素の輝度値の平均値である)。追尾対象の周辺領域の意義は、第7算出方法の説明において述べたものと同様である。追尾対象の周辺領域を第3実施形態で述べたAE評価領域の全部又は一部とみなし、AE評価領域の輝度レベルを表すAE評価値(第3実施形態参照)に基づいて周辺輝度レベルLsrdを算出するようにしてもよい。
色情報に基づく追尾処理において、周辺領域の輝度が極端に低い又は極端に高いと(例えば、いわゆる黒つぶれや白とびがあると)、光源の微妙な変化で色相が大きく変化するため、安定した追尾を実行しにくい。第8算出方法は、このような事情に対応した信頼度評価を提供する。
[第9算出方法]
第9算出方法を説明する。第9算出方法を利用する場合、図4等に示される追尾信頼度評価部52は、追尾対象フレーム画像ごとに、追尾対象フレーム画像の画像データに基づいて追尾対象フレーム画像の光源の色温度を推定する(この推定を、追尾信頼度評価部52以外の部位で行うことも可能である)。
色温度の推定方法として、公知の任意の推定方法を利用可能である。例えば、被演算画像内に小ブロック[m,n]を設けるのと同様に(図7参照)、注目した追尾対象フレーム画像内に複数の小ブロックを設定し、小ブロックごとに小ブロックの画像データに基づいて、当該小ブロックの色を彩度の比較的高い物体色又は彩度の比較的低い光源色に分類する。光源色に分類された色を有する小ブロックを光源色ブロックという。光源色ブロックごとに光源色ブロックのR、G及びB信号に基づいて光源の色温度を推定し、各光源色ブロックに対して推定された色温度の平均を、注目した追尾対象フレーム画像についての色温度として推定することができる。図29に、追尾対象フレーム画像ごとに推定された色温度の分布の例を示す。
第9算出方法では、この推定色温度を利用し、以下の式(6−9)に従って、被演算画像に対する信頼度評価値EVRを算出する。但し、式(6−9)の右辺の値が負になる場合、EVRはゼロとされる。
ここで、CTiは、被演算画像よりも前に得られた複数の追尾対象フレーム画像に対する推定色温度の分散であり、CTstdは、予め設定された基準分散である。
分散CTiが大きいことは、追尾対象フレーム画像の撮影時における光源の色温度がよく変化することを表している。色情報に基づく追尾処理において、光源の色温度の変化が大きいと安定した追尾を実行しにくい。第9算出方法は、このような事情に対応した信頼度評価を提供する。
[第10算出方法]
第10算出方法を説明する。第10算出方法では、追尾対象フレーム画像に含まれるノイズの大きさに基づいて信頼度評価値EVRを算出する。具体的には、以下の式(6−10A)〜(6−10C)に従って、被演算画像に対する信頼度評価値EVRを算出する。但し、式(6−10B)の右辺の値が負になる場合、NRtgtはゼロとされ、式(6−10C)の右辺の値が負になる場合、NRsrdはゼロとされる。
被演算画像の追尾対象領域内に含まれる平坦部を第1平坦部と呼び、被演算画像の追尾対象の周辺領域内に含まれる平坦部を第2平坦部と呼ぶ。追尾対象の周辺領域の意義は、第7算出方法の説明において述べたものと同様である。σtgtは、第1平坦部内の各画素の輝度値における標準偏差であり、σsrdは、第2平坦部内の各画素の輝度値における標準偏差であり、σbaseは、予め設定された基準標準偏差である。
σtgtそのもの又はσtgtの正の平方根は、第1平坦部内の画像に含まれるノイズの大きさ又は第1平坦部内の画像の信号対雑音比を表している(σsrdも同様)。故に、追尾対象領域及び/又は周辺領域に含まれるノイズの大きさが比較的大きいと、σtgt及び/又はσsrdの減少を介して信頼度評価値EVRが減少する。
第1平坦部を、以下のようにして設定することができる。被演算画像の追尾対象領域内に所定の画像サイズを有する評価ブロックを設定し、評価ブロックの位置を追尾対象領域内で水平又は垂直方向に1画素ずつ移動させながら、移動の度に、評価ブロック内の各画素の輝度値の標準偏差を求める。これにより、複数の標準偏差が求められる。その複数の標準偏差の内の最小の標準偏差に対応する評価ブロックの位置を特定し、その位置に配置された評価ブロック内の画像領域を第1平坦部として設定する。第2平坦部の設定方法も同様である。第2平坦部の設定の際には、評価ブロックが追尾対象の周辺領域内に配置される。
追尾対象領域及び/又は周辺領域に含まれるノイズの大きさが大きければ、追尾の安定性が損なわれる。第10算出方法は、このような事情に対応した信頼度評価を提供する。
信頼度評価値EVRの算出方法として第1〜第10算出方法を個別に説明したが、第1〜第10算出方法の内の2以上の算出方法を組み合わせた方法にて、信頼度評価値EVRを算出することも可能である。また、上述の第1〜第10算出方法では、1枚の被演算画像に対する信頼度評価値EVRを算出するに当たりnA枚の追尾対象フレーム画像を利用することを説明しているが(nAは1以上の整数)、第1〜第10算出方法において、矛盾なき限り、その算出に当たってnB枚の追尾対象フレーム画像を利用するようにしても構わない(nBは1以上の整数であって、nA≠nB)。
例えば、上述の第1算出方法の説明では、被演算画像としての時刻tnのフレーム画像に対する信頼度評価値EVRを算出するに当たり、時刻tnのフレーム画像の画像データのみを利用しているが、その算出に時刻tn及び時刻tn-1のフレーム画像の画像データを利用するようにしてもよい。即ち、より具体的には例えば、時刻tnのフレーム画像における追尾対象の大きさTgtSizeと時刻tn-1のフレーム画像における追尾対象の大きさTgtSizeとの平均を、上記式(6−1)のTgtSizeに代入することで、時刻tnのフレーム画像に対する信頼度評価値EVRを算出するようにしてもよい。
<<変形等>>
第1〜第6実施形態に記載した内容は、矛盾なき限り、互いに組み合わせて実施することも可能である。また、上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈5を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
[注釈1]
上述の各実施形態では、追尾対象が人物である場合を例示したが、追尾対象は人物以外でもよい。例えば、追尾対象を、自動車等の車両や移動するロボットとしてもよい。
[注釈2]
上述の各実施形態では、フレームを単位として考え、フレーム画像列に対して、顔検出処理や追尾処理を含む各種の処理を行っているが、フィールドを単位として考え、フィールド画像列に対して、それらの処理を行うようにしてもよい。
[注釈3]
追尾信頼度評価部52によって評価された追尾信頼度を表す指標を、表示部15に表示するようにしてもよい。その指標は、表示部15に表示されるべき動画像と共に表示部15に表示される。
[注釈4]
各実施形態に係る撮像装置は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、図4、図15、図19及び図23に示される各部位は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。ソフトウェアを用いて撮像装置を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。また、実行する必要のある演算処理の全部または一部を、プログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その演算処理の全部または一部を実現するようにしてもよい。
[注釈5]
動画像の再生時において、図4の符号51〜54によって参照される部位を含む装置、及び、図23の符号51、52及び101〜104によって参照される部位を含む装置は、夫々、画像再生装置として機能する。この画像再生装置に、撮像装置を形成する他の部位(表示部15など)が含まれていると考えても構わない。この画像再生装置を、記録媒体16の記録データを読み込み可能な、撮像装置の外部機器(不図示)によって実現してもよい。
1 撮像装置
11 撮像部
12 AFE
13 主制御部
15 表示部
16 記録媒体
30 ズームレンズ
31 フォーカスレンズ
32 絞り
33 撮像素子
51 追尾処理部
52 追尾信頼度評価部
53 切り出し処理部
54 解像度変換部
63 画角調整部
73 評価領域設定部
101 画像取得部
102 評価領域設定部
103 評価値算出部
104 画像加工部

Claims (10)

  1. 順次撮影によって撮影画像列を表す信号を出力する撮像素子と、
    前記撮像素子の出力信号に基づき前記撮影画像列上における追尾対象の位置を順次検出することによって、前記撮影画像列上で前記追尾対象を追尾する追尾処理手段と、
    撮影画像ごとに、検出された前記位置に基づいて切り出し領域を前記撮影画像内に設定し、前記切り出し領域内の画像を切り出し画像として抽出する或いは前記切り出し領域の位置及び大きさを表す切り出し情報を出力する切り出し処理手段と、
    前記撮像素子の出力信号に基づき、前記追尾処理手段による追尾の信頼性又は容易性の度合いを評価する追尾評価手段とを備え、
    前記切り出し処理手段は、評価された前記度合いに応じて前記切り出し領域の大きさを変化させる
    ことを特徴とする撮像装置。
  2. 前記切り出し処理手段は、前記度合いが比較的高いと評価されたときにおける前記切り出し領域の大きさを、前記度合いが比較的低いと評価されたときにおける前記切り出し領域の大きさよりも小さくする
    ことを特徴とする請求項1に記載の撮像装置。
  3. 前記切り出し処理手段は、評価された前記度合いと撮影画像上の前記追尾対象の大きさに基づいて、前記切り出し領域の大きさを設定する
    ことを特徴とする請求項1又は請求項2に記載の撮像装置。
  4. 順次撮影によって撮影画像列を表す信号を出力する撮像素子と、
    前記撮像素子の出力信号に基づき前記撮影画像列上における追尾対象の位置を順次検出することによって、前記撮影画像列上で前記追尾対象を追尾する追尾処理手段と、
    撮影における画角を調整する画角調整手段と、
    前記撮像素子の出力信号に基づき、前記追尾処理手段による追尾の信頼性又は容易性の度合いを評価する追尾評価手段とを備え、
    前記画角調整手段は、評価された前記度合いに応じて前記画角を変化させる
    ことを特徴とする撮像装置。
  5. 前記画角調整手段は、前記度合いが比較的高いと評価されたときに撮影画像上の前記追尾対象の大きさが比較的大きくなるように、且つ、前記度合いが比較的低いと評価されたときに撮影画像上の前記追尾対象の大きさが比較的小さくなるように、前記度合いに応じて前記画角を調整する
    ことを特徴とする請求項4に記載の撮像装置。
  6. 前記画角調整手段は、評価された前記度合いと撮影画像上の前記追尾対象の大きさに基づいて、前記画角を設定する
    ことを特徴とする請求項4又は請求項5に記載の撮像装置。
  7. 前記追尾評価手段は、前記撮影画像列を形成する撮影画像を被演算画像として受けて、前記被演算画像の全体領域を前記追尾対象が表れる追尾対象領域と前記追尾対象領域以外の背景領域に切り分け、前記追尾対象領域における画像特徴と前記背景領域における画像特徴との対比から前記度合いを評価する
    ことを特徴とする請求項1〜請求項6の何れかに記載の撮像装置。
  8. 撮影対象を次々と撮影することにより得られた画像信号を記録手段から読み出すことによって、前記画像信号に基づく入力画像列を取得する画像取得手段と、
    前記入力画像列の画像信号に基づき前記入力画像列上における追尾対象の位置を順次検出することによって、前記入力画像列上で前記追尾対象を追尾する追尾処理手段と、
    入力画像ごとに、検出された前記位置に基づいて切り出し領域を前記入力画像内に設定し、前記切り出し領域内の画像を切り出し画像として抽出する切り出し処理手段と、
    前記入力画像列の画像信号に基づき、前記追尾処理手段による追尾の信頼性又は容易性の度合いを評価する追尾評価手段とを備えて、切り出し画像列の画像信号を表示手段又は外部に出力する画像再生装置であって、
    前記切り出し処理手段は、評価された前記度合いに応じて前記切り出し領域の大きさを変化させる
    ことを特徴とする画像再生装置。
  9. 順次撮影によって撮影画像列を表す信号を出力する撮像素子と、
    前記撮像素子の出力信号に基づき前記撮影画像列上における追尾対象の位置を順次検出することによって、前記撮影画像列上で前記追尾対象を追尾する追尾処理手段と、
    検出された前記位置に基づいて評価値収集領域を各撮影画像内に設定する領域設定手段と、
    各撮影画像における前記評価値収集領域内の画像信号に基づいて前記撮影画像列の取得条件を制御する取得条件制御手段と、
    前記撮像素子の出力信号に基づき、前記追尾処理手段による追尾の信頼性又は容易性の度合いを評価する追尾評価手段とを備え、
    前記領域設定手段は、評価された前記度合いに応じて前記評価値収集領域の大きさを変化させる
    ことを特徴とする撮像装置。
  10. 撮影対象を次々と撮影することにより得られた画像信号を記録手段から読み出すことによって、前記画像信号に基づく入力画像列を取得する画像取得手段と、
    前記入力画像列の画像信号に基づき前記入力画像列上における追尾対象の位置を順次検出することによって、前記入力画像列上で前記追尾対象を追尾する追尾処理手段と、
    検出された前記位置に基づいて評価値収集領域を各入力画像内に設定する領域設定手段と、
    各入力画像における前記評価値収集領域内の画像信号に基づいて前記入力画像列を加工した出力画像列を生成する出力画像生成手段と、
    前記入力画像列の画像信号に基づき、前記追尾処理手段による追尾の信頼性又は容易性の度合いを評価する追尾評価手段とを備えて、前記出力画像列の画像信号を表示手段又は外部に出力する画像再生装置であって、
    前記領域設定手段は、評価された前記度合いに応じて前記評価値収集領域の大きさを変化させる
    ことを特徴とする画像再生装置。
JP2009093571A 2008-05-26 2009-04-08 撮像装置及び画像再生装置 Pending JP2010011441A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009093571A JP2010011441A (ja) 2008-05-26 2009-04-08 撮像装置及び画像再生装置
US12/471,859 US20100033579A1 (en) 2008-05-26 2009-05-26 Image Shooting Device And Image Playback Device
CN200910202859XA CN101605209B (zh) 2008-05-26 2009-05-26 摄像装置及图像再生装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008136986 2008-05-26
JP2009093571A JP2010011441A (ja) 2008-05-26 2009-04-08 撮像装置及び画像再生装置

Publications (1)

Publication Number Publication Date
JP2010011441A true JP2010011441A (ja) 2010-01-14

Family

ID=41470742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009093571A Pending JP2010011441A (ja) 2008-05-26 2009-04-08 撮像装置及び画像再生装置

Country Status (3)

Country Link
US (1) US20100033579A1 (ja)
JP (1) JP2010011441A (ja)
CN (1) CN101605209B (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011160062A (ja) * 2010-01-29 2011-08-18 Fujifilm Corp 追尾枠の初期位置設定装置およびその動作制御方法
JP2012129940A (ja) * 2010-12-17 2012-07-05 Canon Inc 撮像装置及びその制御方法、並びにプログラム
WO2013054726A1 (ja) * 2011-10-12 2013-04-18 キヤノン株式会社 撮像装置、その制御方法及びプログラム
JP2015061239A (ja) * 2013-09-19 2015-03-30 キヤノン株式会社 撮像管理システム、撮像管理装置及びそれらの制御方法、プログラム
JP2016091172A (ja) * 2014-10-31 2016-05-23 キヤノン株式会社 画像処理装置及びその制御方法、並びにプログラム
US9665939B2 (en) 2014-04-04 2017-05-30 Canon Kabushiki Kaisha Image processing apparatus, control method, and recording medium
JP2017216675A (ja) * 2016-05-25 2017-12-07 ソニー株式会社 演算処理装置及び演算処理方法

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5305520B2 (ja) * 2009-05-19 2013-10-02 パナソニック株式会社 監視カメラシステム
JP5657235B2 (ja) * 2009-11-10 2015-01-21 オリンパスイメージング株式会社 画像撮像装置及び画像撮像方法
JP5427577B2 (ja) * 2009-12-04 2014-02-26 パナソニック株式会社 表示制御装置及び表示画像形成方法
JP2011146799A (ja) * 2010-01-12 2011-07-28 Brother Industries Ltd 画像処理装置及び画像処理プログラム
JP2011160379A (ja) * 2010-02-04 2011-08-18 Sony Corp 画像処理装置および方法、並びにプログラム
JP5790944B2 (ja) * 2010-02-26 2015-10-07 日本電気株式会社 画像処理方法、画像処理装置及びプログラム
CN102792333B (zh) * 2010-03-19 2016-11-23 拉碧斯半导体株式会社 图像处理装置、方法、程序以及记录介质
JP2012015889A (ja) * 2010-07-02 2012-01-19 Sony Corp 画像処理装置および画像処理方法
JP5691617B2 (ja) * 2011-02-21 2015-04-01 株式会社ニコン 被写体特定装置、および被写体追尾装置
JP5825851B2 (ja) * 2011-05-27 2015-12-02 キヤノン株式会社 撮像装置及びその制御方法
JP5851206B2 (ja) * 2011-11-04 2016-02-03 オリンパス株式会社 追尾装置及び追尾方法
US9781336B2 (en) 2012-01-30 2017-10-03 Panasonic Intellectual Property Management Co., Ltd. Optimum camera setting device and optimum camera setting method
JP5873378B2 (ja) * 2012-04-10 2016-03-01 キヤノン株式会社 撮像装置およびその制御方法
JP5629722B2 (ja) * 2012-04-11 2014-11-26 京セラドキュメントソリューションズ株式会社 表示入力装置及びこれを備えた画像形成装置
EP2731087B1 (en) * 2012-11-12 2015-01-14 Axis AB Monitoring method and camera
US9836852B2 (en) * 2013-12-21 2017-12-05 Qualcomm Incorporated System and method to stabilize display of an object tracking box
US20150185308A1 (en) * 2014-01-02 2015-07-02 Katsuhiro Wada Image processing apparatus and image processing method, image pickup apparatus and control method thereof, and program
CN103841333B (zh) * 2014-03-27 2017-04-05 成都动力视讯科技股份有限公司 一种预置位方法及控制系统
JP6428144B2 (ja) * 2014-10-17 2018-11-28 オムロン株式会社 エリア情報推定装置、エリア情報推定方法、および空気調和装置
US10062411B2 (en) 2014-12-11 2018-08-28 Jeffrey R. Hay Apparatus and method for visualizing periodic motions in mechanical components
US20160217588A1 (en) 2014-12-11 2016-07-28 Jeffrey R. Hay Method of Adaptive Array Comparison for the Detection and Characterization of Periodic Motion
TWI552112B (zh) * 2014-12-27 2016-10-01 國立中興大學 色溫估測演算法
CN104486598A (zh) * 2014-12-31 2015-04-01 国家电网公司 一种视频监控方法及装置
JP6387450B2 (ja) * 2015-02-18 2018-09-05 富士フイルム株式会社 追尾撮影制御装置、追尾撮影システム、カメラ、端末装置、追尾撮影方法、追尾撮影プログラム
CN105763795B (zh) * 2016-03-01 2017-11-28 苏州科达科技股份有限公司 一种聚焦方法及装置、摄像机和摄像系统
TWI571830B (zh) * 2016-05-31 2017-02-21 和碩聯合科技股份有限公司 移動物偵測方法
CN107645632B (zh) * 2016-07-21 2020-06-16 佳能株式会社 焦点调节设备、焦点调节方法、摄像设备和存储介质
CN108335301B (zh) * 2017-12-26 2022-01-14 努比亚技术有限公司 一种拍照方法及移动终端
TWI662438B (zh) * 2017-12-27 2019-06-11 緯創資通股份有限公司 防止危險自拍之方法、裝置、及儲存媒體
JP7347435B2 (ja) * 2018-09-12 2023-09-20 ソニーグループ株式会社 画像処理装置、プログラムおよび画像処理方法
US11423551B1 (en) 2018-10-17 2022-08-23 Rdi Technologies, Inc. Enhanced presentation methods for visualizing motion of physical structures and machinery
CN111656763B (zh) * 2019-04-04 2022-02-25 深圳市大疆创新科技有限公司 图像采集控制方法,图像采集控制设备和可移动平台
CN110245611B (zh) * 2019-06-14 2021-06-15 腾讯科技(深圳)有限公司 图像识别方法、装置、计算机设备和存储介质
US11004212B1 (en) * 2020-01-02 2021-05-11 Hong Kong Applied Science and Technology Research Institute Company Limited Object tracking method and system using iterative template matching
US11373317B1 (en) 2020-01-24 2022-06-28 Rdi Technologies, Inc. Measuring the speed of rotation or reciprocation of a mechanical component using one or more cameras
CN111479062B (zh) * 2020-04-15 2021-09-28 上海摩象网络科技有限公司 目标对象的跟踪框显示方法、设备及手持相机
US11282213B1 (en) 2020-06-24 2022-03-22 Rdi Technologies, Inc. Enhanced analysis techniques using composite frequency spectrum data
US11640701B2 (en) * 2020-07-31 2023-05-02 Analog Devices International Unlimited Company People detection and tracking with multiple features augmented with orientation and size based classifiers
US11322182B1 (en) 2020-09-28 2022-05-03 Rdi Technologies, Inc. Enhanced visualization techniques using reconstructed time waveforms
JP2022136829A (ja) * 2021-03-08 2022-09-21 本田技研工業株式会社 処理装置、移動体、処理方法、およびプログラム
CN113362369A (zh) * 2021-06-07 2021-09-07 中国科学技术大学 一种移动物体的状态检测方法及检测装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005184266A (ja) * 2003-12-17 2005-07-07 Olympus Corp 撮像装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100541535C (zh) * 2004-01-06 2009-09-16 索尼株式会社 图像处理设备和方法
US7710498B2 (en) * 2004-02-13 2010-05-04 Sony Corporation Image processing apparatus, image processing method and program
JP2005354278A (ja) * 2004-06-09 2005-12-22 Seiko Epson Corp 撮像手段の撮像した画像の画像データを処理する画像データ処理
US20060182433A1 (en) * 2005-02-15 2006-08-17 Nikon Corporation Electronic camera
WO2008072374A1 (ja) * 2006-12-11 2008-06-19 Nikon Corporation 電子カメラ
CN100508599C (zh) * 2007-04-24 2009-07-01 北京中星微电子有限公司 视频监控中的自动跟踪控制方法和控制装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005184266A (ja) * 2003-12-17 2005-07-07 Olympus Corp 撮像装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011160062A (ja) * 2010-01-29 2011-08-18 Fujifilm Corp 追尾枠の初期位置設定装置およびその動作制御方法
JP2012129940A (ja) * 2010-12-17 2012-07-05 Canon Inc 撮像装置及びその制御方法、並びにプログラム
WO2013054726A1 (ja) * 2011-10-12 2013-04-18 キヤノン株式会社 撮像装置、その制御方法及びプログラム
JP2015061239A (ja) * 2013-09-19 2015-03-30 キヤノン株式会社 撮像管理システム、撮像管理装置及びそれらの制御方法、プログラム
US9665939B2 (en) 2014-04-04 2017-05-30 Canon Kabushiki Kaisha Image processing apparatus, control method, and recording medium
KR101803712B1 (ko) * 2014-04-04 2017-12-01 캐논 가부시끼가이샤 화상처리장치, 제어 방법, 프로그램 및 기록 매체
JP2016091172A (ja) * 2014-10-31 2016-05-23 キヤノン株式会社 画像処理装置及びその制御方法、並びにプログラム
JP2017216675A (ja) * 2016-05-25 2017-12-07 ソニー株式会社 演算処理装置及び演算処理方法

Also Published As

Publication number Publication date
US20100033579A1 (en) 2010-02-11
CN101605209B (zh) 2013-05-01
CN101605209A (zh) 2009-12-16

Similar Documents

Publication Publication Date Title
JP2010011441A (ja) 撮像装置及び画像再生装置
US9432575B2 (en) Image processing apparatus
TWI602152B (zh) 影像擷取裝置及其影像處理方法
US8526761B2 (en) Image processing apparatus and image sensing apparatus
JP5460173B2 (ja) 画像処理方法、画像処理装置、画像処理プログラム、撮像装置
JP4848965B2 (ja) 撮像装置
RU2531632C2 (ru) Устройство захвата изображения, способ управления для устройства захвата изображения и носитель информации
US20100060727A1 (en) Real-time face tracking with reference images
JP5213688B2 (ja) 撮像装置
TWI479453B (zh) 產生淺景深影像的方法及裝置
US8488840B2 (en) Image processing device, image processing method and electronic apparatus
JP2004088149A (ja) 撮像システムおよび画像処理プログラム
JP2005229198A (ja) 画像処理装置および方法、並びに、プログラム
JP5453573B2 (ja) 撮像装置、撮像方法およびプログラム
JP2002305683A (ja) 撮像装置および撮像プログラムを記録した記録媒体
JP5468930B2 (ja) 画像処理装置及び画像処理プログラム
JP5144724B2 (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP2009123081A (ja) 顔検出方法及び撮影装置
JP2011171842A (ja) 画像処理装置及び画像処理プログラム
JP2009118434A (ja) ぶれ補正装置及び撮像装置
JP4871664B2 (ja) 撮像装置及び撮像装置の制御方法
JP6245847B2 (ja) 画像処理装置および画像処理方法
JP6218520B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2006295581A (ja) 撮影システム、および映像信号処理プログラム
JP5871590B2 (ja) 撮像装置、及びその制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130606

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130723