JPWO2009150793A1 - 撮像装置、撮像方法 - Google Patents

撮像装置、撮像方法 Download PDF

Info

Publication number
JPWO2009150793A1
JPWO2009150793A1 JP2010502371A JP2010502371A JPWO2009150793A1 JP WO2009150793 A1 JPWO2009150793 A1 JP WO2009150793A1 JP 2010502371 A JP2010502371 A JP 2010502371A JP 2010502371 A JP2010502371 A JP 2010502371A JP WO2009150793 A1 JPWO2009150793 A1 JP WO2009150793A1
Authority
JP
Japan
Prior art keywords
unit
window
feature point
frame image
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010502371A
Other languages
English (en)
Other versions
JP5451593B2 (ja
Inventor
木村 雅之
雅之 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2010502371A priority Critical patent/JP5451593B2/ja
Publication of JPWO2009150793A1 publication Critical patent/JPWO2009150793A1/ja
Application granted granted Critical
Publication of JP5451593B2 publication Critical patent/JP5451593B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

撮像装置であるウェアラブルカメラは、カメラの動きをセンシングするセンシング部と、センシングの結果からフレーム間の画素移動量(d)を算出する予測部とを備える。この予測部は、前フレーム画像から抽出した特徴点(p1)を画素移動量(d)に従って移動させた位置(p1’)を求め、設定部は現フレーム画像(Ft+1)内に位置(p1’)を中心としたウインドウ(w4)を設定する。そして探索部は、ウインドウ(w4)内を対象として、特徴点(p1)に対応する特徴点(q1)を探索して検出する。

Description

本発明は、撮像装置に関し、特に装置の物理的な動きが、撮影した画像に与える影響を補正する技術に関する。
撮像装置の中でも、ウェアラブルカメラは、装着者の常時装着・常時撮影を前提としたカメラである。常時画像を撮影して記録することにより、人の記憶の回想などに有効利用することが期待されている。(例えば、特許文献1参照)。
このようなウェアラブルカメラは、常時装着を前提としているので、装着者が活発に動く場合や装着者にカメラがしっかり固定されていない場合などには、カメラが不規則に揺れることがある。揺れた状態で撮影した動画像も、不規則に揺れたものとなる。
揺れのある動画像は、視聴者に「映像酔い」と呼ばれる不快感や目まい感を及ぼすおそれがあるので、動画像から揺れを補正して取り除く必要がある。
揺れを取り除く手法の1つとして動きベクトルを用いる方法が挙げられる。動きベクトル検出のために、画像の端から端まで探索すると演算量が多くなるので、画像の一部に探索範囲とするウインドウを設定する技術が従来からある。
ウインドウを小さく設定するほど、演算量をより軽減できるが、カメラの物理的動きが大きい場合に、当該動きに起因する画像の動きベクトルを検出できない可能性がある。とはいえ、ウインドウを大きく設定すると探索に必要な演算量の増大を招く。このように、ウインドウの大きさと演算量とはトレードオフの関係にある。
これに関して、フレーム画像間の動きベクトルが大きい場合には、撮影フレームレートを高く変更することで、フレーム間の相対的な動きの量を小さくし、ウインドウの大きさを一定に抑えつつ、大きな動きにも対応できるとする技術がある(特許文献2)。
特開2003-304486号公報 特開2007-281961号公報
しかし、現実にはフレーム画像間の動きは、撮影しているカメラ自身の物理的な動きに起因するものに加えて、撮影されている被写体の動きに起因するものが混在している。撮像された画像のみから両者を区別するのは困難であり、カメラと被写体とが異なる方向に動いている場合、特許文献2の記載の手法ではカメラの物理的な動きを正確に推定するのは困難である。
また、上記特許文献2に記載の手法では、まず先に動きベクトルを検出し、その後でフレームレートを変更するという処理の流れであるので、極めて大きな物理的な動きが発生している場合には、その動きベクトルが検出できず、フレームレートも変更できないという事態に陥るおそれがある。
この点、ウインドウのサイズを大きくすれば、検出の可能性は高くなるものの、上述のように演算量の増大を招いてしまう。このような、動きベクトルの検出手法に関する問題は、ウェアラブルカメラに限らず撮像装置に一般に生じ得る問題である。
本発明は、上述の問題に鑑みてなされたものであって、ウインドウサイズを抑えて演算量の増加を防止しつつ、ウインドウを的確に設定することで、カメラ自身の物理的な大きな動きに起因するフレーム画像間の動きベクトルを検出できる撮像装置を提供することを目的とする。
本発明に係る撮像装置は、被写体を撮像する撮像部と、前記撮像部の物理的な動きをセンシングするセンシング部と、第1フレーム画像から特徴点を抽出する抽出部と、センシングされた動きに基づいて、前記第1フレーム画像から抽出された特徴点の第2フレーム画像中における位置を予測する予測部と、前記予測部により予測された位置に基づいて第2フレーム画像内にウインドウを設定する設定部と、設定されたウインドウを対象に、前記第1フレーム画像から抽出された特徴点に対応する特徴点を、第2フレーム画像から探索する探索部とを備えることを特徴としている。
また、本発明に係る撮像方法は、撮像部により被写体を撮像する撮像ステップと、前記撮像ステップにおける撮像部の動きをセンサによりセンシングするセンシングステップと、第1フレーム画像から特徴点を抽出する抽出ステップと、センシングされた動きに基づいて、前記第1フレーム画像から抽出された特徴点の第2フレーム画像中における位置を予測する予測ステップと、前記予測ステップにより予測された位置に基づいて第2フレーム画像内にウインドウを設定する設定ステップと、設定されたウインドウを対象に、前記第1フレーム画像から抽出された特徴点に対応する特徴点を、第2フレーム画像から探索する探索ステップとを備えることを特徴としている。
課題を解決するための手段に記載した構成によれば、前記予測部は、センシングされた動きから、例えばカメラの画角の変化を求めて、特徴点の位置を予測し、前記設定部は、予測された位置に基づいて第2フレーム画像内にウインドウを設定することで、第2フレーム画像内において特徴点が存在する可能性が高い位置にウインドウを設けて、このウインドウ内から効率良く特徴点を探索することができる。
また、カメラ自身が大きく動くことで、センシングされた動きが大きくなったとしても、その動きに応じて特徴点の位置を予測し、ウインドウを設定することで、第2フレーム画像内のウインドウの内部に特徴点を収めることができる。この結果、第2フレーム画像から特徴点を探索でき、フレーム画像間の動きベクトルの検出に有効利用することができる。
また、前記設定部は、前記予測部により予測された位置を含むようにウインドウを設定するとしても構わない。
この構成によれば、特徴点が存在する可能性が高い領域にウインドウを設定することができる。
また、前記設定部は、前記予測部により予測された位置を中心にウインドウを設定するとしても構わない。
この構成によれば、特徴点が存在する可能性が高い領域にウインドウを設定することができる。
また、前記設定部は、前記第1フレーム画像における抽出された特徴点の位置と、前記予測部により予測された位置とを結ぶ中点を中心にウインドウを設定するとしても構わない。
第2フレーム画像における特徴点は、第1フレーム画像における抽出された位置と、前記予測部により予測された位置との間に存在している可能性が高いので、この構成によれば、ウインドウを的確に設定することができる。
また、センシング部によりセンシングされた物理的な動きの大きさが所定の閾値以上となると、前記撮像部のフレームレートを高い値に変更するフレームレート変更部を備えることを特徴としても構わない。
この構成によれば、センシングされた動きが所定の閾値以上と大きくなった場合に、フレームレートを高く変更することで、フレーム画像間の特徴点の動きの量を小さくでき、小さいサイズのウインドウであったとしても特徴点を検出しやすくなる効果が得られる。
また、前記フレームレート変更部は、前記センシング部によりセンシングされた動きの大きさが前記所定の閾値以上になるとフレームレートを第1の値に変更し、前記センシング部によりセンシングされた動きの大きさが前記所定の閾値より大きい第2の閾値以上となると、フレームレートを前記第1の値より高い第2の値に変更することを特徴としても構わない。
この構成によれば、センシングされた動きに応じて、フレームレートを第1の値、第2の値と変更することで、フレーム画像間の特徴点の動きの量を小さくでき、より効率の良い特徴点の探索に寄与する。
また、前記フレームレート変更部は、前記センシング部によりセンシングされた物理的な動きの大きさが大きいほど、フレームレートをより高い値に変更することを特徴としても構わない。
この構成によれば、センシングされた動きに応じて、フレームレートを高い値に変更することで、フレーム画像間の特徴点の動きの量を小さくでき、より効率の良い特徴点の探索に寄与する。
また、前記フレームレート変更部は、フレーム画像間の時間間隔より長い所定の時間間隔でフレームレートの変更動作を行うことを特徴としても構わない。
また、センシング部によりセンシングされた物理的な動きの大きさが所定の閾値以上となると、前記撮像部のシャッタースピードを速い値に変更するシャッタースピード変更部を備えることを特徴としても構わない。
この構成によれば、センシングされた動きが所定の閾値以上の場合に、シャッタースピードを速い値に変更することで、画像のブレを抑制して探索部による探索の際に、特徴点を誤検出する可能性を低減することができる。
また、センシング部によりセンシングされた物理的な動きの大きさが所定の閾値以上となると、前記撮像部の感度を高い値に変更する感度変更部を備えることを特徴としても構わない。
この構成によれば、撮影時の感度を上げることでシャッタースピードを速い値に変更することに起因する光量の低下を補い、画像の明るさの変動を抑えることができる。
また、前記設定部は、前記センシング部によりセンシングされた物理的な動きの大きさに応じて、設定するウインドウの大きさを変化させるとしても構わない。
この構成によれば、例えば、物理的な動きが大きい場合にウインドウのサイズを大きくすることで、特徴点をウインドウ内に収められる確率を高めることができる。
前記設定部は、前記センシング部によりセンシングされた物理的な動きの大きさが予め定められた値を上回ると、前記ウインドウの大きさの変化を行うとしても構わない。
この構成によれば、例えば、物理的な動きが大きくて、フレームレートの変更では対応が難しいような状況において、特徴点をウインドウ内に収められる確率を高めることができる。
また、前記設定部は、所定のフレーム数あたりに1回は、画像全体を探索範囲と設定することを特徴としても構わない。
画像の揺らぎや障害物による遮蔽などで特徴点が検出されなくなった場合に、その特徴点は以降ウインドウから外れたままになってしまうことがある。上記構成のように、所定のフレーム数ごとに1回は、定期的に画像全体に設定することで、確実に特徴点を探索範囲内に収めることができる。
また、前記センシング部は、角速度センサまたは加速度センサの少なくとも1つにより構成されるとしても構わない。
実施の形態1に係るウェアラブルカメラの機能ブロック図である。 (a)は、ウェアラブルカメラを装着したユーザ2を表す模式図である。(b)は画像の回転軸を表す模式図である。 下部は前フレーム画像Ftを示し、上部は現フレーム画像Ft+1を示す図である。 ウインドウ設定部26が設定したウインドウの例を示す図である。 カメラの回転角度(画角)と画素の移動量の関係を示す模式図である。 下部は前フレーム画像Ftを示し、上部は現フレーム画像Ft+1を示す図である。 (a)(b)は、予測位置を利用したウインドウ設定を示す図である。(c)は、予測位置を利用しないウインドウ設定を示す図である。 ウェアラブルカメラの全体的な処理内容を示すフローチャートである。 ウインドウ設定・探索処理を示すフローチャートである。 動き決定処理を示すフローチャートである。 センサ出力の誤差分布を表す模式図である。 (a)は変形例1に係るウインドウ設定を説明する図であり、(b)は変形例2に係るウインドウ設定を説明する図であり、(c)は変形例3に係るウインドウ設定を説明する図である。 実施の形態2に係るウェアラブルカメラの機能ブロック図である。 (a)は実施の形態2に係るウェアラブルカメラ全体的な処理内容を示すフローチャートであり、(b)はフレームレート変更処理を示すフローチャートである。 センサ出力、フレームレート、感度、シャッタースピードの項目を含む変更テーブルを示す図である。
(実施の形態1)
以下、本発明の実施の形態について、撮像装置であるウェアラブルカメラを例に挙げて説明する。
<構成>
図1は、実施の形態1に係るウェアラブルカメラの機能ブロック図である。
ウェアラブルカメラ10は、撮像部12、センシング部14、動き検出部16、フレームメモリ18、制御部20を備える。
撮像部12は、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)といった撮像素子やレンズ部を含んで構成され、被写体を撮像して画像を出力する機能を有する。
センシング部14は、撮像部12の物理的な動きをセンシングする機能を有する。具体的には、ウェアラブルカメラの筐体に内蔵された振動型角速度センサから構成されており、物理的な動きとして特に角速度をセンシングする。
動き検出部16は、特徴点抽出部22、特徴点位置予測部24、ウインドウ設定部26、特徴点探索部28、多数決処理部30を有し、撮像部12によって撮影された画像のフレーム間の動きベクトルを検出する。検出した動きベクトルは、フレーム画像間の揺れの補正の利用に供される。
特徴点抽出部22は、フレーム画像Ft(フレーム画像Ft、フレーム画像Ft+1は時間的に連続するフレームであり、順にそれぞれ、「前フレーム画像Ft」、「現フレーム画像Ft+1」と呼ぶ。)から特徴点を抽出する。特徴点の抽出手法は、一般的に利用されている周知の手法(例えば、Harrisコーナー検出器(corner detector))に従って、画像中のエッジやコーナーといった特徴点を抽出する。
特徴点位置予測部24は、センシング部14から角速度を含むセンサ情報を取得し、取得したセンサ情報に基づいて、前フレーム画像における特徴点が、現フレーム画像内のどの位置に位置しているかを予測する。
ウインドウ設定部26は、フレーム画像Ft+1内に特徴点探索部28のウインドウを設定する。ウインドウは、特徴点の探索範囲を規定するものであり、フレーム画像の大きさよりは小さい。
特徴点探索部28は、現フレーム画像Ft+1内に設定されたウインドウを対象として、前フレーム画像Ft内の特徴点に対応する特徴点を探索する。
多数決処理部30は、特徴点抽出部22により抽出された複数の特徴点と、特徴点探索部28により探索された複数の特徴点から一対の特徴点組を多数作成して、多数決原理によりフレーム画像全体の動きを決定する。詳しくは後述する。
この探索は、マッチング法と呼ばれる一般的な手法を用いることができる。すなわち、現フレーム画像Ft+1におけるウインドウ内の画素の輝度レベルと前フレーム画像Ftの特徴点の輝度レベルとを比較することで、ウインドウ内の画素から対応する特徴点を探索する。
フレームメモリは、画像を1フレームごとに記憶するためのメモリであり、撮像部12が出力した画像などを記憶する。
制御部20は、CPU、制御プログラムを格納するROM、RAMを含んで構成されており、各機能ブロックを制御する。
次に、センシング部14の具体的な内容について説明する。
<センシング部14>
図2(a)は、ウェアラブルカメラを装着したユーザ2を表す模式図である。
ユーザ2には、その左胸付近の位置にウェアラブルカメラ10が取り付けられている。この取り付けは、ウェアラブルカメラ10の筐体上部から延びる首にぶら下げるためひもや、筐体背面のクリップを利用して行われている。
図2(a)に示すように、水平方向にx軸、垂直方向にy軸、xy平面に直交する方向をz軸(ウェアラブルカメラ10の光軸方向を一致している。)と設定する。
また、図2(b)に示すように、x軸周りの回転をPitch(ピッチ)、y軸周りの回転をYaw(ヨー)、z軸周りの回転をRoll(ロール)と呼ぶ。
センシング部14を構成する振動型角速度センサは、角速度の検知にコリオリの力(Coriolis force)を利用する。
角速度ωで回転する座標系上で質量mの物体が速度Vで運動しているとき、この物体の移動方向に対して垂直方向にコリオリの力Fcがかかり、その大きさは次の式1で表される。
Figure 2009150793
このコリオリの力Fcを検出することで角速度ωを求めることができる。実際には圧電素子を用いてコリオリの力を電圧や電流の変化量として計測するなどの方法で角速度を求めることができる。また圧電素子を複数の方向に設置することで、それぞれの向きに対する回転角速度を検出することができる。
なお、センシング部14が搭載するセンサの数はある一方向に対して1つでもよく、複数でもよい。例えばn個のセンサの出力値の平均を取ると、S/N比がnの平方根に比例して向上するので、より正確なセンサ情報を得ることができる。
次に、動き検出部16の特徴点抽出・探索、多数決処理、ウインドウ設定について具体的に説明する。
<特徴点抽出・探索>
図3の下部は、時刻tの前フレーム画像Ft、上部は、時刻t+1の現フレーム画像Ft+1を示す。
図3中、点a1,a2,a3は、特徴点抽出部22がフレーム画像Ftから抽出した特徴点である。特徴点a1,a2,a3の座標は、それぞれ順に(xa1,ya1),(xa2,ya2),(xa3,ya3)である。
点b1,b2,b3は、特徴点探索部28がフレーム画像Ftから探索により検出した特徴点である。特徴点b1,b2,b3は、特徴点a1,a2,a3にそれぞれ対応する特徴点であり、特徴点b1,b2,b3の座標は、それぞれ順に(xb1,yb1),(xb2,yb2),(xb3,yb3)である。
<多数決処理>
多数決処理部30は、前フレーム画像Ftの特徴点の集合Pa={(xa1,ya1),・・・,(xai,yai)}、現フレーム画像Ft+1の特徴点の集合をPb={(xb1,yb1),・・・,(xbj,ybj)}とし、Pa,Pbの中からそれぞれ1つ特徴点を選んで特徴点の組を作成する。そして特徴点の組からベクトルvを算出して、ベクトルvに従ってPaの各特徴点を移動させてPbの各特徴点と一致するものeをカウントする。
具体的に、上記したa1〜a3、b1〜b3の特徴点の例では、a1とb1とを選んで組を作成すると、2点間のベクトルvは式2で表される。
Figure 2009150793
次に、多数決処理部30は、このベクトルvに従って前フレーム画像Ftのすべての特徴点(a1,a2,a3)を移動させる。そして、移動後の特徴点の位置に現フレーム画像Ft+1の特徴点が存在するものの数をカウントする。実際には画像の揺らぎの影響があって特徴点の位置が完全に一致するとは限らないので、例えば移動後の特徴点の位置から距離δの範囲内に特徴点が存在すればよいものとする。上記の例では3つある特徴点のうち(a1,b1)と(a3,b3)の2組がベクトルvに従っていると判断できる。
同じようにしてa2とb2からベクトルv’を算出した場合、(a2,b2)の1組だけがベクトルv’に従っていると判断できる。
引き続いて、残りの特徴点の組み合わせについてもこの判断を行い、最も多くの特徴点組が従っているベクトルをフレーム画像全体の動きベクトルとする。図3の例では(a1,b1)および(a3,b3)の組から得られるベクトルvが画像全体の動きベクトルであると判断できる。
なお、すべての特徴点の組に対して仮の動きベクトルを算出する代わりに、例えば10ミリ秒など所定の時間だけ繰り返し処理を行い、その中で最も一致度の高い動きベクトルを出力するようにしてもよい。これによって特に処理時間が限られている場合に、その時間内で最良の解を得ることができる。
<ウインドウ設定>
特徴点探索部28は、上述のように特徴点抽出部22が抽出した輝度レベルなどに基づいて、探索を行うのであるが、現フレーム画像Ft+1の画像全体を探索範囲とすると、演算量が過大となる上、特徴点の存在可能性が低い範囲まで探索範囲に含めてしまうので効率が良くない。
このため、本実施の形態では、現フレーム画像Ft+1内に探索範囲となるウインドウを設定することで、探索範囲を限定し演算量の削減を図る。
図4は、ウインドウ設定部26が設定したウインドウの例を示す図である。
図4に示すように、現フレーム画像Ft+1内には、特徴点a1に対応する特徴点を探索する探索範囲であるウインドウw1、特徴点a2に対応する特徴点を探索する探索範囲であるウインドウw2、特徴点a3に対応する特徴点を探索する探索範囲であるウインドウw3が設定されている。
ここで、ウインドウw2は、特徴点a2に対応する特徴点b2がウインドウw2の外に位置しているので、特徴点b2は特徴点探索部28により検出されないこととなる。このように、ウインドウの設定により不要な特徴点の検出を抑制することで、演算量を削減するだけでなく動きベクトルの検出精度を向上させることができる。また特徴点の誤検出を抑制することもできる。
ウインドウw1〜w3はいずれも、前フレーム画像Ftの特徴点a1,a2,a3の位置が中心位置となるようにウインドウを設定しているが、本実施の形態では、より的確なウインドウを設定するために、センシングされた動きを利用してウインドウを設定する。
<特徴点位置予測>
次に、センシングされた動きから、前フレーム画像Ftの特徴点が、現フレーム画像Ft+1のどの位置にあるかを予測する手法について説明する。
まず、特徴点位置予測部24は、センシング部14から現フレーム画像Ft+1の時点における動きを取得し、取得した動きから画像中における画素移動量dを算出する。
図5は、カメラの回転角度(画角)と画素移動量dの関係を示す模式図である。図5を参照しながら、画素移動量dの算出方法について説明する。
例えばカメラがYaw方向に回転し、センサによってYaw方向の回転角速度を計測しているものとする。このとき、図5(a)のようにカメラがφだけ回転したとすると、φと各画素の画像上での移動量を示す画素移動量dの間には式3で示す関係が成立する。
Figure 2009150793
なお、wは水平方向の解像度の半分の値、θは水平画角の半分の値である。また、dは画像上のすべての位置において等しいと近似するものとする。ここで、角度θおよびφが微小であると仮定すると、式3は以下の式4で近似することができる。
Figure 2009150793
また、回転角速度をa、動画像のフレームレートをFrとすると、式4は以下の式5に書き換えることができる。
Figure 2009150793
定数bはカメラの画角および解像度が決まれば自動的に決定され、フレームレートFrは撮影時には決まっているので、式5よりセンサで得られる回転角速度aと移動量dを対応付けることができる。
なお、これらの関係はカメラのPitch方向の回転に対しても同様に成立する。これによって画像上での縦横の移動量を求めることができる。
また、カメラのRoll方向の回転に対しては、図5(b)より式6の関係が成り立つ。
Figure 2009150793
なお、式6は最も移動量が大きくなる画像の端における値であり、中心に近づくほど移動量dは小さくなる。この式6を回転角速度a、フレームレートFrを用いて表すと以下の式7が得られる。
Figure 2009150793
以上のようにして予測位置を算出する。
<予測位置に利用したウインドウ設定>
このように特徴点位置予測部24が算出した予測位置に基づいてウインドウを設定することで、演算量を削減でき、加えて不要な特徴点の検出を回避して精度を向上できる。図6、図7を用いて具体的なウインドウ設定について説明する。
図6は、下部は、時刻tの前フレーム画像Ft、上部は、時刻t+1の現フレーム画像Ft+1を示す。
図6において、点p1,点p2は、特徴点抽出部22が前フレーム画像Ftから抽出した特徴点である。点q1,点q2は、それぞれ点p1,点p2に対応する特徴点である。
現フレーム画像Ft+1内の符号dで示す矢印は、特徴点位置予測部24が算出した移動量dを示すベクトルであり、特徴点p1を、移動量dに従って移動させた点を点p1’(予測位置点p1’)と設定する。前フレーム画像Ftと現フレーム画像Ft+1とを撮像する間に、撮像部だけが動いて被写体が動いていないとすると、特徴点p1は、点p1’の付近に位置していると予測できる。
図7(a)(b)は、予測位置を利用したウインドウ設定を示す図である。
図7(a)に示すように、ウインドウw4は、予測位置点p1’を中心として設定されている。同様に、図7(b)に示すように、ウインドウw5は、予測位置点p2’(点p2が移動量dに従って移動したと予測される位置である。)を中心として設定されている。
このように、予測位置点p1’を中心としたウインドウw4を設定することで、前フレーム画像Ftと現フレーム画像Ft+1とを撮像する間に前フレーム画像Ftの点p1の被写体自身が動いていないのであれば、点p1に対応する点q1をウインドウw4内に収めることができ、狭いウインドウサイズで的確な設定が実現できる。
反対に、前フレーム画像Ftと現フレーム画像Ft+1とを撮像する間に点p2被写体自身が大きく動いた場合には、図7(b)に示すように、点p2に対応する点q2をウインドウw5から外すことができ、被写体自身の動きに起因する動きを検出してしまうことを防ぐことができる。
図7(c)は、図4同様、予測位置を利用せず、前フレーム画像Ftの特徴点p1を中心位置としたウインドウ設定を示す図である。図7(c)の場合、特徴点q1はウインドウw6の外にあるので、このサイズでは特徴点q1を検出できない。仮にウインドウw6のサイズを大きくすれば、特徴点q1は検出可能となるが演算量の増加および検出精度の低下を招きやすい。
<動作>
図8〜図10を参照しつつ本実施の形態に係るウェアラブルカメラ10における動作について説明する。基本的な動作の流れは前述の通りであるので、重複部分は説明を簡単にする。
図8に示すように、まず、特徴点抽出部22は、フレームメモリから前フレーム画像Ftを取得し、取得した前フレーム画像Ftから特徴点を抽出する(S11)。そして、特徴点位置予測部24は、センシング部14から現フレーム画像Ft+1における角速度を取得し(S12)、取得した角速度の誤差を補正する(S13)。
なおステップS12における角速度の取得は、要は前フレーム画像Ftから現フレーム画像Ft+1に至るまでの間の撮像部12の角速度(フレーム間画像の動きに影響する角速度。)を判断するためのものであるから、必ずしも現フレーム画像Ft+1の時点(時刻t+1)で取得した値に限られない。例えば、前フレーム画像Ftの時点(時刻t)で取得した値や、時刻tから時刻t+1までに取得した複数の値の平均値であっても構わない。
この誤差の補正は、例えば次のように行う。
まずはじめに、センシング部14のセンサの誤差分布を測定する。例えばセンサ出力の誤差が、図11のような、平均がμ,標準偏差がσの正規分布に従っているものとする。この際、この正規分布の平均μや標準偏差σに基づいて補正量を決定することができる。例えばセンサ出力がaであった場合、補正後の値a’を次の式8によって算出することができる。
Figure 2009150793
式8において、xは定数であり、一般的な正規分布の性質から、x=2とすると出力の約95%が、x=3とすると約99%が誤差範囲内に含まれることになる。従って、許容される誤差の大きさに応じてxの値を変更することで最適な補正量を決定することができる。実際の誤差の補正に際しては、あらかじめ制御部20のROMなどにセンサの誤差の平均μ,標準偏差σ,および定数xを記録しておき、補正時にこれらの値を読み出して式8に従って補正を行う。
次に、特徴点位置予測部24は、補正後の角速度に基づいて画像内の画素移動量dを算出する(S14)。この画素移動量dの算出方法は、図5を用いて説明した通りである。
算出を終えると、ウインドウ設定処理(S15)、動き決定処理(S16)に移行する。
図9に示すように、ウインドウ設定処理では、ウインドウ設定部26は、フレーム画像Ftの特徴点情報を取得する(S21)。
そして、ウインドウ設定部26は、各特徴点を画素移動量dに従って移動させた位置を、各特徴点の予測位置と決定し(S22)、予測位置を中心としたウインドウを設定する(S23)。
特徴点探索部28は、現フレーム画像Ft+1内に設定されたウインドウを対象に、特徴点を探索して検出する(S24)。
図10に示すように、動き決定処理では、多数決処理部30は、フレーム画像間の動きベクトルを決定する。
具体的には、多数決処理部30は、emax=0と設定し(S31)、前フレーム画像Ftおよび現フレーム画像Ft+1の特徴点を取得する(S32)。そして、前フレーム画像Ftの特徴点1つと、現フレーム画像Ft+1の特徴点1つとを組み合わた特徴点組を作成する(S33)。作成した特徴点組からベクトルvを算出し(S34)、前フレーム画像Ftにおける各特徴点をベクトルvに従い移動させ、現フレーム画像Ft+1における各特徴点との一致度を判定する(S35)。
多数決処理部30は、一致と判定した特徴点の数eをカウントする(S36)。数eがそれまでの最大値emaxを超えれば(S37:Yes)、多数決処理部30は、当該数eを新しい最大値emaxに設定し(S38)、ベクトルvを暫定1位のベクトルとして記憶する(S39)。
ステップS33からS39までの処理を繰り返して、すべての特徴点組についてのeのカウントが終了すれば(S40:Yes)、暫定1位の動きベクトルをフレーム画像Ft,Ft+1間の動きベクトルに決定する(S41)。なお、図8〜図10の処理は、撮像部12がフレーム画像を出力するごとに、すなわちフレームごとに行われる。
以上、説明したように、本実施の形態によれば、センシング部14がセンシングした角速度に基づいて、前フレーム画像Ftにおける特徴点が現フレーム画像Ft+1においてどう移動したかを予測した値である画素移動量dを求め、この特徴点を画素移動量dに従って移動させた予測位置を中心にウインドウを設定するので、的確なウインドウ設定が実現でき、演算量の削減ひいては消費電力量を抑えることができる。加えて、的確なウインドウ設定により、ウェアラブルカメラ自身の動きとは異なる特徴点を積極的にウインドウ外へと追いやることができ、言い換えるとカメラ自身の動きには起因しない被写体の動きを排除することで、動き検出の精度を向上させることが可能となる。
また、ウェアラブルカメラが大きく動いたことにより、画素移動量dが大きくなったとしても、この画素移動量dに従って特徴点を移動させ、移動後の予測位置を中心にウインドウ設定するので、ウインドウサイズを一定に抑えつつも、大きな動きを検出することが可能となる。
なお、上記では図7に示すように、予測位置p1’を中心に矩形のウインドウを設定するとして説明したが、必ずしも予測位置p1’を中心位置としなくても少なくとも当該予測位置p1’を含むようにウインドウを設定すれば的確な設定が実現できる。また、例えば次のようにウインドウを設定しても同様な効果を得ることができる。以下、変形例として説明する。
図12は、ウインドウ設定の変形例1〜3を示す図である
<変形例1>
変形例1に係る図12(a)では、ウインドウw7は、矩形ではなく、予測位置p1’を中心位置とした円形状である。検出したい特徴点q1は、予測位置p1’を中心とした等距離の範囲で移動する可能性が高いので、円形状のウインドウw7を設定することで、効率の良い特徴点探索に寄与し得る。
<変形例2>
変形例2に係る図12(b)では、ウインドウw8は、矩形ではなく、予測位置p1’を中心位置とした楕円形状である。検出したい特徴点q1は、画素移動量dの方向に沿う方向に移動する可能性が高いので、長軸が画素移動量dの方向と一致したウインドウw8を設定することで、効率の良い特徴点探索を実現できる。
<変形例3>
変形例3に係る図12(c)では、ウインドウw9の中心位置は、予測位置p1’ではなく、予測位置p1’と特徴点p1の中点mとなっている。このようなウインドウw9も、効率の良い特徴点探索に貢献できる。
(実施の形態2)
実施の形態2では、実施の形態1の構成に加えて、ウェアラブルカメラの動きに応じてフレームレートなどを変更することで、ウインドウサイズを一定サイズに抑えつつ、大きな動きの検出を実現する。
図13は、実施の形態2に係るウェアラブルカメラの機能ブロック図である。
ウェアラブルカメラ11は、フレームレート変更部32、シャッタースピード変更部34、感度変更部36を備える。他の機能ブロックは図1と同様であるので同じ符号を付して説明を省略する。
フレームレート変更部32は、センシング部14からセンサ出力を取得し、取得したセンサ出力に応じて撮像部12のフレームレートFrを変更する。
シャッタースピード変更部34は、センシング部14からセンサ出力を取得し、取得したセンサ出力に応じて撮像部12のシャッタースピードを変更する。
感度変更部36は、シャッタースピード変更部34によるシャッタースピードの変更に連動して、撮像部12の感度を変更することで、シャッタースピードを高速度化に伴う光量の低下を補う。
図14は、実施の形態2に係るウェアラブルカメラ全体的な処理内容を示すフローチャートである。
図14(a)は、図8のフローと基本的には同様であり、フレームレート変更処理(S17)が追加されている。図14(a)中、図8の同様のステップには同じステップ番号を付して説明を省略する。
図14(b)に示すように、フレームレート変更処理では、フレームレート変更部32は、フレームレート変更許可があるかどうか判断し(S51)、ステップS13において補正されたセンサ情報に含まれるセンサ出力a’を取得し、閾値以上かどうか判断する(S52)。
閾値の設定方法は次のように行う。
上記したように、式5,式7より、あるフレームレートFrにおける画素移動量dが決定される。また、ウインドウ処理の性質上、ある特徴点が移動したとき、移動後の位置がウインドウの範囲内になければ動き検出を行うことができない。そこで、動き検出を行うことができる最大の移動量をdmaxとすると、フレームレートがFrの際に移動量がdmaxとなるような限界回転加速度amaxが得られる。例えば数式5において、d=dmaxとしてこの式をaについて解くと、amaxの値は以下の数式9で定義される。
Figure 2009150793
同様に、式7をaについて解くことで、Roll方向の回転における限界回転加速度の値を求めることができる。このamaxを閾値として用いることができる。
閾値以上であれば(S52:Yes)、フレームレート変更部32は撮像部12のフレームレートを、高フレームレートFr(a’)に変更する(S53)。具体的には、目標とする移動量をd’(ただし、d’<dmaxである)とすると、例えば式5よりFr(a’)は次の式10で与えられる.
Figure 2009150793
なお、閾値未満であれば(S52:No)、フレームレート変更部32は撮像部12のフレームレートを通常フレームレートに変更する(S54)。
そして、時間t1の間フレームレートを変更禁止に設定する(S55)。この設定は、フレームレートの変更間隔を規定するものであり、例えばt1は数秒程度に設定する。
フレームレートFrをFr(a’)へと高く変更することで、フレーム画像Ftと、その次に撮像するフレーム画像Ft+1との間の時間差が短くなる。このため、特徴点の移動量の小さくすることができる。また、Fr(a’)と変更することにより、フレーム画像Ft+1における特徴点を確実にウインドウ内に収めることができるので、カメラの動きと異なる方向に動く被写体の特徴点が存在するとしても、安定して動きとして検出することができる。
なお、上記フレームレートFr(a’)はいわばフレームレートの目標値であり、カメラの仕様などによって、元の値を目標値に変更するまでに時間を要したり、実際の値とはずれたりする場合もある。
また、フレームレートの変更は、次のように行っても構わない。以下、実施の形態2に係る変形例として説明する。
<変形例1>
図15は、センサ出力、フレームレート、感度、シャッタースピードの項目を含む変更テーブル40である。この変更テーブル40は制御部20のROM内に記憶されており、項目として、「センサ出力a’」40a、「フレームレートFr(a’)」40b、「感度ISO(a’)」40c、「シャッタースピードS(a’)」40dを含む。
「センサ出力a’」40aの値が大きくなるほど、「フレームレートFr(a’)」40bはより高くなり、「感度ISO(a’)」40cはより高感度になり、「シャッタースピードS(a’)」40dはより速くなるという関係性である。
なお、ウェアラブルカメラ11のフレームレートは最大60fpsという制約があるため、「センサ出力a’」が0.025の場合も0.020ときと同じ60fpsとなっている。
変形例1では、制御部20は、補正後のセンサ出力を取得し、変更テーブルを参照して、フレームレート、感度、シャッタースピードを変更する。本変形例1によれば、各変数を段階的に変更することで、消費電力を抑えつつ、特徴点を探索することができる。
また上述のようにフレームレートには制約があるため、物理的な動きが特に大きい状況下、すなわちセンサ出力a’が特に大きい状況下には、ウインドウ内に特徴点を収められない可能性が高くなる。
このため、物理的な動きが小さい間は、フレームレートの上昇により対応し、フレームレートが最大値に達すると(物理的な動きがある値を上回ると)、ウインドウサイズの拡大という手法を併用するとしても構わない。
<変形例2>
上記実施の形態2では、フレームレートはセンサ出力に基づいて変更するとして説明したが、変形例2では、フレームレートをウインドウのサイズにも基づいてフレームレートを決定する。
具体的には、式10においてフレームレートを決定する際に移動量d’を動き検出を行うことができる最大の移動量dmaxより小さい値と定義しているが、この移動量d’をウインドウの1辺の長さの半分より小さい値とすることでフレームレートを決定する。これによって、移動後の特徴点がウインドウをはみ出さないことが保証できる。なお、上記実施の形態1の変形例のようにウインドウが予測位置p’1を中心とする矩形でない場合、d’はそれぞれのウインドウの形態に応じて決定する。例えば、上記実施の形態1の変形例2のようにウインドウが楕円形である場合、d’を楕円の短軸の長さの半分とすることで、移動後の特徴点がウインドウをはみ出さないことが保証できる。なお、d’を最大の移動量dmaxおよびセンサ出力の双方に基づいて決定してもよい。
<補足>
以上、本発明の実施の形態について説明したが、本発明は上記の内容に限定されず、本発明の目的とそれに関連または付随する目的を達成するための各種形態においても実施可能であり、例えば、以下であってもよい。
(1)実施の形態1,2では、ウインドウサイズを固定的に設定するとして説明したが、所定フレーム数ごとにより大きなサイズのウインドウを設定するようにしても構わない。特に、所定フレーム数ごとに通常の画像全体を探索範囲と設定するようにしても構わない。
上述のように、ウインドウサイズは小さい方が好ましいが、ウインドウを特徴点の周りにだけ狭く設定することで、画像の揺らぎや障害物による遮蔽などで特徴点が検出されなくなり、その場合、特徴点は以降ウインドウから外れたままになってしまうことがある。
このため、所定フレーム数ごと1回は、画像全体に探索範囲に設定しなおすと、確実に探索範囲内に特徴点を収めることができ、より安定に動きを検出できるようになる。
(2)実施の形態1,2では、センシング部14として角速度センサを例に挙げて説明したが、角速度センサに限らず加速度センサであっても構わない。
(3)実施の形態1,2では、撮像装置としてウェアラブルカメラを例に挙げて説明したが、ウェアラブルカメラに限らず、デジタルビデオカメラをはじめとする動画の撮影が可能なあらゆる撮像装置に対しても実施の形態を適用することができ、特に、揺れや動きの大きい、過酷な環境下での使用が想定される撮像装置に有効である。
(4)実施の形態1,2では、前フレーム画像Ftから特徴点を抽出し、後フレーム画像Ft+1から抽出した特徴点に対応する特徴点を探索するとして説明した。要はフレーム画像Ft,Ft+1間のフレーム画像全体の動きを求められればよいので、反対に、後フレーム画像Ft+1から抽出し、前フレーム画像Ftから探索するという構成もあり得る。
また、フレーム画像Ft,Ft+1のように時間的に隣り合うフレーム画像間でなくてもよい。例えば第1フレーム画像F1と、第2フレーム画像F2(第1フレーム画像F1より時間的に後のフレーム画像)のいずれか一方から特徴点を抽出し、他方から対応する特徴点を探索しても、第1フレーム画像F1,F2間の画像全体の動きベクトルを求めることができる。
なお、この場合、センシング部14により、例えばこの両フレーム画像F1,F2間の時間における角速度を検出することで、画素移動量dを求めて、フレーム画像F1,F2間に特徴点が移動した位置を予測することができる。
(5)実施の形態2では特に触れなかったが、シャッタースピード変更部34や感度変更部36として、AE(Automatic Exposure)カメラなどにおいて一般的に利用されるAE機能を利用しても構わない。
(6)上述の実施の形態で示した動作、処理(図8〜図10)をウェアラブルカメラ等の撮像装置のプロセッサ、及びそのプロセッサに接続された各種回路に実行させるためのプログラムコードからなる制御プログラムを、記録媒体に記録すること、又は各種通信路を介して流通させ頒布することもできる。
このような記録媒体には、ICカード、ハードディスク、光ディスク、フレキシブルディスク、ROM等がある。
流通、頒布された制御プログラムは、プロセッサに読み出され得るメモリ等に格納されることにより利用に供され、そのプロセッサがその制御プログラムを実行することにより実施の形態で示したような各種機能が実現されるようになる。
本発明に係る撮像装置は、演算量の増加を抑えつつ、フレーム画像間の動きベクトルを検出できるので有用である。
10,11 ウェアラブルカメラ
12 撮像部
14 センシング部
16 動き検出部
20 制御部
22 特徴点抽出部
24 特徴点位置予測部
26 ウインドウ設定部
28 特徴点探索部
30 多数決処理部
32 フレームレート変更部
34 シャッタースピード変更部
36 感度変更部
t 前フレーム画像
t+1 現フレーム画像
a1,a2,a3,p1,p2 前フレーム画像Ftの特徴点
b1,b2,b3,q1,q2 現フレーム画像Ft+1の特徴点
d 画素移動量
p1’,p2’ 予測位置(それぞれ特徴点p1,p2を、画素移動量dに従って移動させた点)
w1〜w9 ウインドウ
本発明は、撮像装置に関し、特に装置の物理的な動きが、撮影した画像に与える影響を補正する技術に関する。
撮像装置の中でも、ウェアラブルカメラは、装着者の常時装着・常時撮影を前提としたカメラである。常時画像を撮影して記録することにより、人の記憶の回想などに有効利用することが期待されている。(例えば、特許文献1参照)。
このようなウェアラブルカメラは、常時装着を前提としているので、装着者が活発に動く場合や装着者にカメラがしっかり固定されていない場合などには、カメラが不規則に揺れることがある。揺れた状態で撮影した動画像も、不規則に揺れたものとなる。
揺れのある動画像は、視聴者に「映像酔い」と呼ばれる不快感や目まい感を及ぼすおそれがあるので、動画像から揺れを補正して取り除く必要がある。
揺れを取り除く手法の1つとして動きベクトルを用いる方法が挙げられる。動きベクトル検出のために、画像の端から端まで探索すると演算量が多くなるので、画像の一部に探索範囲とするウインドウを設定する技術が従来からある。
ウインドウを小さく設定するほど、演算量をより軽減できるが、カメラの物理的動きが大きい場合に、当該動きに起因する画像の動きベクトルを検出できない可能性がある。とはいえ、ウインドウを大きく設定すると探索に必要な演算量の増大を招く。このように、ウインドウの大きさと演算量とはトレードオフの関係にある。
これに関して、フレーム画像間の動きベクトルが大きい場合には、撮影フレームレートを高く変更することで、フレーム間の相対的な動きの量を小さくし、ウインドウの大きさを一定に抑えつつ、大きな動きにも対応できるとする技術がある(特許文献2)。
特開2003-304486号公報 特開2007-281961号公報
しかし、現実にはフレーム画像間の動きは、撮影しているカメラ自身の物理的な動きに起因するものに加えて、撮影されている被写体の動きに起因するものが混在している。撮像された画像のみから両者を区別するのは困難であり、カメラと被写体とが異なる方向に動いている場合、特許文献2の記載の手法ではカメラの物理的な動きを正確に推定するのは困難である。
また、上記特許文献2に記載の手法では、まず先に動きベクトルを検出し、その後でフレームレートを変更するという処理の流れであるので、極めて大きな物理的な動きが発生している場合には、その動きベクトルが検出できず、フレームレートも変更できないという事態に陥るおそれがある。
この点、ウインドウのサイズを大きくすれば、検出の可能性は高くなるものの、上述のように演算量の増大を招いてしまう。このような、動きベクトルの検出手法に関する問題は、ウェアラブルカメラに限らず撮像装置に一般に生じ得る問題である。
本発明は、上述の問題に鑑みてなされたものであって、ウインドウサイズを抑えて演算量の増加を防止しつつ、ウインドウを的確に設定することで、カメラ自身の物理的な大きな動きに起因するフレーム画像間の動きベクトルを検出できる撮像装置を提供することを目的とする。
本発明に係る撮像装置は、被写体を撮像する撮像部と、前記撮像部の物理的な動きをセンシングするセンシング部と、第1フレーム画像から特徴点を抽出する抽出部と、センシングされた動きに基づいて、前記第1フレーム画像から抽出された特徴点の第2フレーム画像中における位置を予測する予測部と、前記予測部により予測された位置に基づいて第2フレーム画像内にウインドウを設定する設定部と、設定されたウインドウを対象に、前記第1フレーム画像から抽出された特徴点に対応する特徴点を、第2フレーム画像から探索する探索部とを備えることを特徴としている。
また、本発明に係る撮像方法は、撮像部により被写体を撮像する撮像ステップと、前記撮像ステップにおける撮像部の動きをセンサによりセンシングするセンシングステップと、第1フレーム画像から特徴点を抽出する抽出ステップと、センシングされた動きに基づいて、前記第1フレーム画像から抽出された特徴点の第2フレーム画像中における位置を予測する予測ステップと、前記予測ステップにより予測された位置に基づいて第2フレーム画像内にウインドウを設定する設定ステップと、設定されたウインドウを対象に、前記第1フレーム画像から抽出された特徴点に対応する特徴点を、第2フレーム画像から探索する探索ステップとを備えることを特徴としている。
課題を解決するための手段に記載した構成によれば、前記予測部は、センシングされた動きから、例えばカメラの画角の変化を求めて、特徴点の位置を予測し、前記設定部は、予測された位置に基づいて第2フレーム画像内にウインドウを設定することで、第2フレーム画像内において特徴点が存在する可能性が高い位置にウインドウを設けて、このウインドウ内から効率良く特徴点を探索することができる。
また、カメラ自身が大きく動くことで、センシングされた動きが大きくなったとしても、その動きに応じて特徴点の位置を予測し、ウインドウを設定することで、第2フレーム画像内のウインドウの内部に特徴点を収めることができる。この結果、第2フレーム画像から特徴点を探索でき、フレーム画像間の動きベクトルの検出に有効利用することができる。
また、前記設定部は、前記予測部により予測された位置を含むようにウインドウを設定するとしても構わない。
この構成によれば、特徴点が存在する可能性が高い領域にウインドウを設定することができる。
また、前記設定部は、前記予測部により予測された位置を中心にウインドウを設定するとしても構わない。
この構成によれば、特徴点が存在する可能性が高い領域にウインドウを設定することができる。
また、前記設定部は、前記第1フレーム画像における抽出された特徴点の位置と、前記予測部により予測された位置とを結ぶ中点を中心にウインドウを設定するとしても構わない。
第2フレーム画像における特徴点は、第1フレーム画像における抽出された位置と、前記予測部により予測された位置との間に存在している可能性が高いので、この構成によれば、ウインドウを的確に設定することができる。
また、センシング部によりセンシングされた物理的な動きの大きさが所定の閾値以上となると、前記撮像部のフレームレートを高い値に変更するフレームレート変更部を備えることを特徴としても構わない。
この構成によれば、センシングされた動きが所定の閾値以上と大きくなった場合に、フレームレートを高く変更することで、フレーム画像間の特徴点の動きの量を小さくでき、小さいサイズのウインドウであったとしても特徴点を検出しやすくなる効果が得られる。
また、前記フレームレート変更部は、前記センシング部によりセンシングされた動きの大きさが前記所定の閾値以上になるとフレームレートを第1の値に変更し、前記センシング部によりセンシングされた動きの大きさが前記所定の閾値より大きい第2の閾値以上となると、フレームレートを前記第1の値より高い第2の値に変更することを特徴としても構わない。
この構成によれば、センシングされた動きに応じて、フレームレートを第1の値、第2の値と変更することで、フレーム画像間の特徴点の動きの量を小さくでき、より効率の良い特徴点の探索に寄与する。
また、前記フレームレート変更部は、前記センシング部によりセンシングされた物理的な動きの大きさが大きいほど、フレームレートをより高い値に変更することを特徴としても構わない。
この構成によれば、センシングされた動きに応じて、フレームレートを高い値に変更することで、フレーム画像間の特徴点の動きの量を小さくでき、より効率の良い特徴点の探索に寄与する。
また、前記フレームレート変更部は、フレーム画像間の時間間隔より長い所定の時間間隔でフレームレートの変更動作を行うことを特徴としても構わない。
また、センシング部によりセンシングされた物理的な動きの大きさが所定の閾値以上となると、前記撮像部のシャッタースピードを速い値に変更するシャッタースピード変更部を備えることを特徴としても構わない。
この構成によれば、センシングされた動きが所定の閾値以上の場合に、シャッタースピードを速い値に変更することで、画像のブレを抑制して探索部による探索の際に、特徴点を誤検出する可能性を低減することができる。
また、センシング部によりセンシングされた物理的な動きの大きさが所定の閾値以上となると、前記撮像部の感度を高い値に変更する感度変更部を備えることを特徴としても構わない。
この構成によれば、撮影時の感度を上げることでシャッタースピードを速い値に変更することに起因する光量の低下を補い、画像の明るさの変動を抑えることができる。
また、前記設定部は、前記センシング部によりセンシングされた物理的な動きの大きさに応じて、設定するウインドウの大きさを変化させるとしても構わない。
この構成によれば、例えば、物理的な動きが大きい場合にウインドウのサイズを大きくすることで、特徴点をウインドウ内に収められる確率を高めることができる。
前記設定部は、前記センシング部によりセンシングされた物理的な動きの大きさが予め定められた値を上回ると、前記ウインドウの大きさの変化を行うとしても構わない。
この構成によれば、例えば、物理的な動きが大きくて、フレームレートの変更では対応が難しいような状況において、特徴点をウインドウ内に収められる確率を高めることができる。
また、前記設定部は、所定のフレーム数あたりに1回は、画像全体を探索範囲と設定することを特徴としても構わない。
画像の揺らぎや障害物による遮蔽などで特徴点が検出されなくなった場合に、その特徴点は以降ウインドウから外れたままになってしまうことがある。上記構成のように、所定のフレーム数ごとに1回は、定期的に画像全体に設定することで、確実に特徴点を探索範囲内に収めることができる。
また、前記センシング部は、角速度センサまたは加速度センサの少なくとも1つにより構成されるとしても構わない。
実施の形態1に係るウェアラブルカメラの機能ブロック図である。 (a)は、ウェアラブルカメラを装着したユーザ2を表す模式図である。(b)は画像の回転軸を表す模式図である。 下部は前フレーム画像Ftを示し、上部は現フレーム画像Ft+1を示す図である。 ウインドウ設定部26が設定したウインドウの例を示す図である。 カメラの回転角度(画角)と画素の移動量の関係を示す模式図である。 下部は前フレーム画像Ftを示し、上部は現フレーム画像Ft+1を示す図である。 (a)(b)は、予測位置を利用したウインドウ設定を示す図である。(c)は、予測位置を利用しないウインドウ設定を示す図である。 ウェアラブルカメラの全体的な処理内容を示すフローチャートである。 ウインドウ設定・探索処理を示すフローチャートである。 動き決定処理を示すフローチャートである。 センサ出力の誤差分布を表す模式図である。 (a)は変形例1に係るウインドウ設定を説明する図であり、(b)は変形例2に係るウインドウ設定を説明する図であり、(c)は変形例3に係るウインドウ設定を説明する図である。 実施の形態2に係るウェアラブルカメラの機能ブロック図である。 (a)は実施の形態2に係るウェアラブルカメラ全体的な処理内容を示すフローチャートであり、(b)はフレームレート変更処理を示すフローチャートである。 センサ出力、フレームレート、感度、シャッタースピードの項目を含む変更テーブルを示す図である。
(実施の形態1)
以下、本発明の実施の形態について、撮像装置であるウェアラブルカメラを例に挙げて説明する。
<構成>
図1は、実施の形態1に係るウェアラブルカメラの機能ブロック図である。
ウェアラブルカメラ10は、撮像部12、センシング部14、動き検出部16、フレームメモリ18、制御部20を備える。
撮像部12は、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)といった撮像素子やレンズ部を含んで構成され、被写体を撮像して画像を出力する機能を有する。
センシング部14は、撮像部12の物理的な動きをセンシングする機能を有する。具体的には、ウェアラブルカメラの筐体に内蔵された振動型角速度センサから構成されており、物理的な動きとして特に角速度をセンシングする。
動き検出部16は、特徴点抽出部22、特徴点位置予測部24、ウインドウ設定部26、特徴点探索部28、多数決処理部30を有し、撮像部12によって撮影された画像のフレーム間の動きベクトルを検出する。検出した動きベクトルは、フレーム画像間の揺れの補正の利用に供される。
特徴点抽出部22は、フレーム画像Ft(フレーム画像Ft、フレーム画像Ft+1は時間的に連続するフレームであり、順にそれぞれ、「前フレーム画像Ft」、「現フレーム画像Ft+1」と呼ぶ。)から特徴点を抽出する。特徴点の抽出手法は、一般的に利用されている周知の手法(例えば、Harrisコーナー検出器(cornerdetector))に従って、画像中のエッジやコーナーといった特徴点を抽出する。
特徴点位置予測部24は、センシング部14から角速度を含むセンサ情報を取得し、取得したセンサ情報に基づいて、前フレーム画像における特徴点が、現フレーム画像内のどの位置に位置しているかを予測する。
ウインドウ設定部26は、フレーム画像Ft+1内に特徴点探索部28のウインドウを設定する。ウインドウは、特徴点の探索範囲を規定するものであり、フレーム画像の大きさよりは小さい。
特徴点探索部28は、現フレーム画像Ft+1内に設定されたウインドウを対象として、前フレーム画像Ft内の特徴点に対応する特徴点を探索する。
多数決処理部30は、特徴点抽出部22により抽出された複数の特徴点と、特徴点探索部28により探索された複数の特徴点から一対の特徴点組を多数作成して、多数決原理によりフレーム画像全体の動きを決定する。詳しくは後述する。
この探索は、マッチング法と呼ばれる一般的な手法を用いることができる。すなわち、現フレーム画像Ft+1におけるウインドウ内の画素の輝度レベルと前フレーム画像Ftの特徴点の輝度レベルとを比較することで、ウインドウ内の画素から対応する特徴点を探索する。
フレームメモリは、画像を1フレームごとに記憶するためのメモリであり、撮像部12が出力した画像などを記憶する。
制御部20は、CPU、制御プログラムを格納するROM、RAMを含んで構成されており、各機能ブロックを制御する。
次に、センシング部14の具体的な内容について説明する。
<センシング部14>
図2(a)は、ウェアラブルカメラを装着したユーザ2を表す模式図である。
ユーザ2には、その左胸付近の位置にウェアラブルカメラ10が取り付けられている。この取り付けは、ウェアラブルカメラ10の筐体上部から延びる首にぶら下げるためひもや、筐体背面のクリップを利用して行われている。
図2(a)に示すように、水平方向にx軸、垂直方向にy軸、xy平面に直交する方向をz軸(ウェアラブルカメラ10の光軸方向を一致している。)と設定する。
また、図2(b)に示すように、x軸周りの回転をPitch(ピッチ)、y軸周りの回転をYaw(ヨー)、z軸周りの回転をRoll(ロール)と呼ぶ。
センシング部14を構成する振動型角速度センサは、角速度の検知にコリオリの力(Coriolis force)を利用する。
角速度ωで回転する座標系上で質量mの物体が速度Vで運動しているとき、この物体の移動方向に対して垂直方向にコリオリの力Fcがかかり、その大きさは次の式1で表される。
Figure 2009150793
このコリオリの力Fcを検出することで角速度ωを求めることができる。実際には圧電素子を用いてコリオリの力を電圧や電流の変化量として計測するなどの方法で角速度を求めることができる。また圧電素子を複数の方向に設置することで、それぞれの向きに対する回転角速度を検出することができる。
なお、センシング部14が搭載するセンサの数はある一方向に対して1つでもよく、複数でもよい。例えばn個のセンサの出力値の平均を取ると、S/N比がnの平方根に比例して向上するので、より正確なセンサ情報を得ることができる。
次に、動き検出部16の特徴点抽出・探索、多数決処理、ウインドウ設定について具体的に説明する。
<特徴点抽出・探索>
図3の下部は、時刻tの前フレーム画像Ft、上部は、時刻t+1の現フレーム画像Ft+1を示す。
図3中、点a1,a2,a3は、特徴点抽出部22がフレーム画像Ftから抽出した特徴点である。特徴点a1,a2,a3の座標は、それぞれ順に(xa1,ya1),(xa2,ya2),(xa3,ya3)である。
点b1,b2,b3は、特徴点探索部28がフレーム画像Ftから探索により検出した特徴点である。特徴点b1,b2,b3は、特徴点a1,a2,a3にそれぞれ対応する特徴点であり、特徴点b1,b2,b3の座標は、それぞれ順に(xb1,yb1),(xb2,yb2),(xb3,yb3)である。
<多数決処理>
多数決処理部30は、前フレーム画像Ftの特徴点の集合Pa={(xa1,ya1),・・・,(xai,yai)}、現フレーム画像Ft+1の特徴点の集合をPb={(xb1,yb1),・・・,(xbj,ybj)}とし、Pa,Pbの中からそれぞれ1つ特徴点を選んで特徴点の組を作成する。そして特徴点の組からベクトルvを算出して、ベクトルvに従ってPaの各特徴点を移動させてPbの各特徴点と一致するものeをカウントする。
具体的に、上記したa1〜a3、b1〜b3の特徴点の例では、a1とb1とを選んで組を作成すると、2点間のベクトルvは式2で表される。
Figure 2009150793
次に、多数決処理部30は、このベクトルvに従って前フレーム画像Ftのすべての特徴点(a1,a2,a3)を移動させる。そして、移動後の特徴点の位置に現フレーム画像Ft+1の特徴点が存在するものの数をカウントする。実際には画像の揺らぎの影響があって特徴点の位置が完全に一致するとは限らないので、例えば移動後の特徴点の位置から距離δの範囲内に特徴点が存在すればよいものとする。上記の例では3つある特徴点のうち(a1,b1)と(a3,b3)の2組がベクトルvに従っていると判断できる。
同じようにしてa2とb2からベクトルv’を算出した場合、(a2,b2)の1組だけがベクトルv’に従っていると判断できる。
引き続いて、残りの特徴点の組み合わせについてもこの判断を行い、最も多くの特徴点組が従っているベクトルをフレーム画像全体の動きベクトルとする。図3の例では(a1,b1)および(a3,b3)の組から得られるベクトルvが画像全体の動きベクトルであると判断できる。
なお、すべての特徴点の組に対して仮の動きベクトルを算出する代わりに、例えば10ミリ秒など所定の時間だけ繰り返し処理を行い、その中で最も一致度の高い動きベクトルを出力するようにしてもよい。これによって特に処理時間が限られている場合に、その時間内で最良の解を得ることができる。
<ウインドウ設定>
特徴点探索部28は、上述のように特徴点抽出部22が抽出した輝度レベルなどに基づいて、探索を行うのであるが、現フレーム画像Ft+1の画像全体を探索範囲とすると、演算量が過大となる上、特徴点の存在可能性が低い範囲まで探索範囲に含めてしまうので効率が良くない。
このため、本実施の形態では、現フレーム画像Ft+1内に探索範囲となるウインドウを設定することで、探索範囲を限定し演算量の削減を図る。
図4は、ウインドウ設定部26が設定したウインドウの例を示す図である。
図4に示すように、現フレーム画像Ft+1内には、特徴点a1に対応する特徴点を探索する探索範囲であるウインドウw1、特徴点a2に対応する特徴点を探索する探索範囲であるウインドウw2、特徴点a3に対応する特徴点を探索する探索範囲であるウインドウw3が設定されている。
ここで、ウインドウw2は、特徴点a2に対応する特徴点b2がウインドウw2の外に位置しているので、特徴点b2は特徴点探索部28により検出されないこととなる。このように、ウインドウの設定により不要な特徴点の検出を抑制することで、演算量を削減するだけでなく動きベクトルの検出精度を向上させることができる。また特徴点の誤検出を抑制することもできる。
ウインドウw1〜w3はいずれも、前フレーム画像Ftの特徴点a1,a2,a3の位置が中心位置となるようにウインドウを設定しているが、本実施の形態では、より的確なウインドウを設定するために、センシングされた動きを利用してウインドウを設定する。
<特徴点位置予測>
次に、センシングされた動きから、前フレーム画像Ftの特徴点が、現フレーム画像Ft+1のどの位置にあるかを予測する手法について説明する。
まず、特徴点位置予測部24は、センシング部14から現フレーム画像Ft+1の時点における動きを取得し、取得した動きから画像中における画素移動量dを算出する。
図5は、カメラの回転角度(画角)と画素移動量dの関係を示す模式図である。図5を参照しながら、画素移動量dの算出方法について説明する。
例えばカメラがYaw方向に回転し、センサによってYaw方向の回転角速度を計測しているものとする。このとき、図5(a)のようにカメラがφだけ回転したとすると、φと各画素の画像上での移動量を示す画素移動量dの間には式3で示す関係が成立する。
Figure 2009150793
なお、wは水平方向の解像度の半分の値、θは水平画角の半分の値である。また、dは画像上のすべての位置において等しいと近似するものとする。ここで、角度θおよびφが微小であると仮定すると、式3は以下の式4で近似することができる。
Figure 2009150793
また、回転角速度をa、動画像のフレームレートをFrとすると、式4は以下の式5に書き換えることができる。
Figure 2009150793
定数bはカメラの画角および解像度が決まれば自動的に決定され、フレームレートFrは撮影時には決まっているので、式5よりセンサで得られる回転角速度aと移動量dを対応付けることができる。
なお、これらの関係はカメラのPitch方向の回転に対しても同様に成立する。これによって画像上での縦横の移動量を求めることができる。
また、カメラのRoll方向の回転に対しては、図5(b)より式6の関係が成り立つ。
Figure 2009150793
なお、式6は最も移動量が大きくなる画像の端における値であり、中心に近づくほど移動量dは小さくなる。この式6を回転角速度a、フレームレートFrを用いて表すと以下の式7が得られる。
Figure 2009150793
以上のようにして予測位置を算出する。
<予測位置に利用したウインドウ設定>
このように特徴点位置予測部24が算出した予測位置に基づいてウインドウを設定することで、演算量を削減でき、加えて不要な特徴点の検出を回避して精度を向上できる。図6、図7を用いて具体的なウインドウ設定について説明する。
図6は、下部は、時刻tの前フレーム画像Ft、上部は、時刻t+1の現フレーム画像Ft+1を示す。
図6において、点p1,点p2は、特徴点抽出部22が前フレーム画像Ftから抽出した特徴点である。点q1,点q2は、それぞれ点p1,点p2に対応する特徴点である。
現フレーム画像Ft+1内の符号dで示す矢印は、特徴点位置予測部24が算出した移動量dを示すベクトルであり、特徴点p1を、移動量dに従って移動させた点を点p1’(予測位置点p1’)と設定する。前フレーム画像Ftと現フレーム画像Ft+1とを撮像する間に、撮像部だけが動いて被写体が動いていないとすると、特徴点p1は、点p1’の付近に位置していると予測できる。
図7(a)(b)は、予測位置を利用したウインドウ設定を示す図である。
図7(a)に示すように、ウインドウw4は、予測位置点p1’を中心として設定されている。同様に、図7(b)に示すように、ウインドウw5は、予測位置点p2’(点p2が移動量dに従って移動したと予測される位置である。)を中心として設定されている。
このように、予測位置点p1’を中心としたウインドウw4を設定することで、前フレーム画像Ftと現フレーム画像Ft+1とを撮像する間に前フレーム画像Ftの点p1の被写体自身が動いていないのであれば、点p1に対応する点q1をウインドウw4内に収めることができ、狭いウインドウサイズで的確な設定が実現できる。
反対に、前フレーム画像Ftと現フレーム画像Ft+1とを撮像する間に点p2被写体自身が大きく動いた場合には、図7(b)に示すように、点p2に対応する点q2をウインドウw5から外すことができ、被写体自身の動きに起因する動きを検出してしまうことを防ぐことができる。
図7(c)は、図4同様、予測位置を利用せず、前フレーム画像Ftの特徴点p1を中心位置としたウインドウ設定を示す図である。図7(c)の場合、特徴点q1はウインドウw6の外にあるので、このサイズでは特徴点q1を検出できない。仮にウインドウw6のサイズを大きくすれば、特徴点q1は検出可能となるが演算量の増加および検出精度の低下を招きやすい。
<動作>
図8〜図10を参照しつつ本実施の形態に係るウェアラブルカメラ10における動作について説明する。基本的な動作の流れは前述の通りであるので、重複部分は説明を簡単にする。
図8に示すように、まず、特徴点抽出部22は、フレームメモリから前フレーム画像Ftを取得し、取得した前フレーム画像Ftから特徴点を抽出する(S11)。そして、特徴点位置予測部24は、センシング部14から現フレーム画像Ft+1における角速度を取得し(S12)、取得した角速度の誤差を補正する(S13)。
なおステップS12における角速度の取得は、要は前フレーム画像Ftから現フレーム画像Ft+1に至るまでの間の撮像部12の角速度(フレーム間画像の動きに影響する角速度。)を判断するためのものであるから、必ずしも現フレーム画像Ft+1の時点(時刻t+1)で取得した値に限られない。例えば、前フレーム画像Ftの時点(時刻t)で取得した値や、時刻tから時刻t+1までに取得した複数の値の平均値であっても構わない。
この誤差の補正は、例えば次のように行う。
まずはじめに、センシング部14のセンサの誤差分布を測定する。例えばセンサ出力の誤差が、図11のような、平均がμ,標準偏差がσの正規分布に従っているものとする。この際、この正規分布の平均μや標準偏差σに基づいて補正量を決定することができる。例えばセンサ出力がaであった場合、補正後の値a’を次の式8によって算出することができる。
Figure 2009150793
式8において、xは定数であり、一般的な正規分布の性質から、x=2とすると出力の約95%が、x=3とすると約99%が誤差範囲内に含まれることになる。従って、許容される誤差の大きさに応じてxの値を変更することで最適な補正量を決定することができる。実際の誤差の補正に際しては、あらかじめ制御部20のROMなどにセンサの誤差の平均μ,標準偏差σ,および定数xを記録しておき、補正時にこれらの値を読み出して式8に従って補正を行う。
次に、特徴点位置予測部24は、補正後の角速度に基づいて画像内の画素移動量dを算出する(S14)。この画素移動量dの算出方法は、図5を用いて説明した通りである。
算出を終えると、ウインドウ設定処理(S15)、動き決定処理(S16)に移行する。
図9に示すように、ウインドウ設定処理では、ウインドウ設定部26は、フレーム画像Ftの特徴点情報を取得する(S21)。
そして、ウインドウ設定部26は、各特徴点を画素移動量dに従って移動させた位置を、各特徴点の予測位置と決定し(S22)、予測位置を中心としたウインドウを設定する(S23)。
特徴点探索部28は、現フレーム画像Ft+1内に設定されたウインドウを対象に、特徴点を探索して検出する(S24)。
図10に示すように、動き決定処理では、多数決処理部30は、フレーム画像間の動きベクトルを決定する。
具体的には、多数決処理部30は、emax=0と設定し(S31)、前フレーム画像Ftおよび現フレーム画像Ft+1の特徴点を取得する(S32)。そして、前フレーム画像Ftの特徴点1つと、現フレーム画像Ft+1の特徴点1つとを組み合わた特徴点組を作成する(S33)。作成した特徴点組からベクトルvを算出し(S34)、前フレーム画像Ftにおける各特徴点をベクトルvに従い移動させ、現フレーム画像Ft+1における各特徴点との一致度を判定する(S35)。
多数決処理部30は、一致と判定した特徴点の数eをカウントする(S36)。数eがそれまでの最大値emaxを超えれば(S37:Yes)、多数決処理部30は、当該数eを新しい最大値emaxに設定し(S38)、ベクトルvを暫定1位のベクトルとして記憶する(S39)。
ステップS33からS39までの処理を繰り返して、すべての特徴点組についてのeのカウントが終了すれば(S40:Yes)、暫定1位の動きベクトルをフレーム画像Ft,Ft+1間の動きベクトルに決定する(S41)。なお、図8〜図10の処理は、撮像部12がフレーム画像を出力するごとに、すなわちフレームごとに行われる。
以上、説明したように、本実施の形態によれば、センシング部14がセンシングした角速度に基づいて、前フレーム画像Ftにおける特徴点が現フレーム画像Ft+1においてどう移動したかを予測した値である画素移動量dを求め、この特徴点を画素移動量dに従って移動させた予測位置を中心にウインドウを設定するので、的確なウインドウ設定が実現でき、演算量の削減ひいては消費電力量を抑えることができる。加えて、的確なウインドウ設定により、ウェアラブルカメラ自身の動きとは異なる特徴点を積極的にウインドウ外へと追いやることができ、言い換えるとカメラ自身の動きには起因しない被写体の動きを排除することで、動き検出の精度を向上させることが可能となる。
また、ウェアラブルカメラが大きく動いたことにより、画素移動量dが大きくなったとしても、この画素移動量dに従って特徴点を移動させ、移動後の予測位置を中心にウインドウ設定するので、ウインドウサイズを一定に抑えつつも、大きな動きを検出することが可能となる。
なお、上記では図7に示すように、予測位置p1’を中心に矩形のウインドウを設定するとして説明したが、必ずしも予測位置p1’を中心位置としなくても少なくとも当該予測位置p1’を含むようにウインドウを設定すれば的確な設定が実現できる。また、例えば次のようにウインドウを設定しても同様な効果を得ることができる。以下、変形例として説明する。
図12は、ウインドウ設定の変形例1〜3を示す図である
<変形例1>
変形例1に係る図12(a)では、ウインドウw7は、矩形ではなく、予測位置p1’を中心位置とした円形状である。検出したい特徴点q1は、予測位置p1’を中心とした等距離の範囲で移動する可能性が高いので、円形状のウインドウw7を設定することで、効率の良い特徴点探索に寄与し得る。
<変形例2>
変形例2に係る図12(b)では、ウインドウw8は、矩形ではなく、予測位置p1’を中心位置とした楕円形状である。検出したい特徴点q1は、画素移動量dの方向に沿う方向に移動する可能性が高いので、長軸が画素移動量dの方向と一致したウインドウw8を設定することで、効率の良い特徴点探索を実現できる。
<変形例3>
変形例3に係る図12(c)では、ウインドウw9の中心位置は、予測位置p1’ではなく、予測位置p1’と特徴点p1の中点mとなっている。このようなウインドウw9も、効率の良い特徴点探索に貢献できる。
(実施の形態2)
実施の形態2では、実施の形態1の構成に加えて、ウェアラブルカメラの動きに応じてフレームレートなどを変更することで、ウインドウサイズを一定サイズに抑えつつ、大きな動きの検出を実現する。
図13は、実施の形態2に係るウェアラブルカメラの機能ブロック図である。
ウェアラブルカメラ11は、フレームレート変更部32、シャッタースピード変更部34、感度変更部36を備える。他の機能ブロックは図1と同様であるので同じ符号を付して説明を省略する。
フレームレート変更部32は、センシング部14からセンサ出力を取得し、取得したセンサ出力に応じて撮像部12のフレームレートFrを変更する。
シャッタースピード変更部34は、センシング部14からセンサ出力を取得し、取得したセンサ出力に応じて撮像部12のシャッタースピードを変更する。
感度変更部36は、シャッタースピード変更部34によるシャッタースピードの変更に連動して、撮像部12の感度を変更することで、シャッタースピードを高速度化に伴う光量の低下を補う。
図14は、実施の形態2に係るウェアラブルカメラ全体的な処理内容を示すフローチャートである。
図14(a)は、図8のフローと基本的には同様であり、フレームレート変更処理(S17)が追加されている。図14(a)中、図8の同様のステップには同じステップ番号を付して説明を省略する。
図14(b)に示すように、フレームレート変更処理では、フレームレート変更部32は、フレームレート変更許可があるかどうか判断し(S51)、ステップS13において補正されたセンサ情報に含まれるセンサ出力a’を取得し、閾値以上かどうか判断する(S52)。
閾値の設定方法は次のように行う。
上記したように、式5,式7より、あるフレームレートFrにおける画素移動量dが決定される。また、ウインドウ処理の性質上、ある特徴点が移動したとき、移動後の位置がウインドウの範囲内になければ動き検出を行うことができない。そこで、動き検出を行うことができる最大の移動量をdmaxとすると、フレームレートがFrの際に移動量がdmaxとなるような限界回転加速度amaxが得られる。例えば数式5において、d=dmaxとしてこの式をaについて解くと、amaxの値は以下の数式9で定義される。
Figure 2009150793
同様に、式7をaについて解くことで、Roll方向の回転における限界回転加速度の値を求めることができる。このamaxを閾値として用いることができる。
閾値以上であれば(S52:Yes)、フレームレート変更部32は撮像部12のフレームレートを、高フレームレートFr(a’)に変更する(S53)。具体的には、目標とする移動量をd’(ただし、d’<dmaxである)とすると、例えば式5よりFr(a’)は次の式10で与えられる.
Figure 2009150793
なお、閾値未満であれば(S52:No)、フレームレート変更部32は撮像部12のフレームレートを通常フレームレートに変更する(S54)。
そして、時間t1の間フレームレートを変更禁止に設定する(S55)。この設定は、フレームレートの変更間隔を規定するものであり、例えばt1は数秒程度に設定する。
フレームレートFrをFr(a’)へと高く変更することで、フレーム画像Ftと、その次に撮像するフレーム画像Ft+1との間の時間差が短くなる。このため、特徴点の移動量の小さくすることができる。また、Fr(a’)と変更することにより、フレーム画像Ft+1における特徴点を確実にウインドウ内に収めることができるので、カメラの動きと異なる方向に動く被写体の特徴点が存在するとしても、安定して動きとして検出することができる。
なお、上記フレームレートFr(a’)はいわばフレームレートの目標値であり、カメラの仕様などによって、元の値を目標値に変更するまでに時間を要したり、実際の値とはずれたりする場合もある。
また、フレームレートの変更は、次のように行っても構わない。以下、実施の形態2に係る変形例として説明する。
<変形例1>
図15は、センサ出力、フレームレート、感度、シャッタースピードの項目を含む変更テーブル40である。この変更テーブル40は制御部20のROM内に記憶されており、項目として、「センサ出力a’」40a、「フレームレートFr(a’)」40b、「感度ISO(a’)」40c、「シャッタースピードS(a’)」40dを含む。
「センサ出力a’」40aの値が大きくなるほど、「フレームレートFr(a’)」40bはより高くなり、「感度ISO(a’)」40cはより高感度になり、「シャッタースピードS(a’)」40dはより速くなるという関係性である。
なお、ウェアラブルカメラ11のフレームレートは最大60fpsという制約があるため、「センサ出力a’」が0.025の場合も0.020ときと同じ60fpsとなっている。
変形例1では、制御部20は、補正後のセンサ出力を取得し、変更テーブルを参照して、フレームレート、感度、シャッタースピードを変更する。本変形例1によれば、各変数を段階的に変更することで、消費電力を抑えつつ、特徴点を探索することができる。
また上述のようにフレームレートには制約があるため、物理的な動きが特に大きい状況下、すなわちセンサ出力a’が特に大きい状況下には、ウインドウ内に特徴点を収められない可能性が高くなる。
このため、物理的な動きが小さい間は、フレームレートの上昇により対応し、フレームレートが最大値に達すると(物理的な動きがある値を上回ると)、ウインドウサイズの拡大という手法を併用するとしても構わない。
<変形例2>
上記実施の形態2では、フレームレートはセンサ出力に基づいて変更するとして説明したが、変形例2では、フレームレートをウインドウのサイズにも基づいてフレームレートを決定する。
具体的には、式10においてフレームレートを決定する際に移動量d’を動き検出を行うことができる最大の移動量dmaxより小さい値と定義しているが、この移動量d’をウインドウの1辺の長さの半分より小さい値とすることでフレームレートを決定する。これによって、移動後の特徴点がウインドウをはみ出さないことが保証できる。なお、上記実施の形態1の変形例のようにウインドウが予測位置p’1を中心とする矩形でない場合、d’はそれぞれのウインドウの形態に応じて決定する。例えば、上記実施の形態1の変形例2のようにウインドウが楕円形である場合、d’を楕円の短軸の長さの半分とすることで、移動後の特徴点がウインドウをはみ出さないことが保証できる。なお、d’を最大の移動量dmaxおよびセンサ出力の双方に基づいて決定してもよい。
<補足>
以上、本発明の実施の形態について説明したが、本発明は上記の内容に限定されず、本発明の目的とそれに関連または付随する目的を達成するための各種形態においても実施可能であり、例えば、以下であってもよい。
(1)実施の形態1,2では、ウインドウサイズを固定的に設定するとして説明したが、所定フレーム数ごとにより大きなサイズのウインドウを設定するようにしても構わない。特に、所定フレーム数ごとに通常の画像全体を探索範囲と設定するようにしても構わない。
上述のように、ウインドウサイズは小さい方が好ましいが、ウインドウを特徴点の周りにだけ狭く設定することで、画像の揺らぎや障害物による遮蔽などで特徴点が検出されなくなり、その場合、特徴点は以降ウインドウから外れたままになってしまうことがある。
このため、所定フレーム数ごと1回は、画像全体に探索範囲に設定しなおすと、確実に探索範囲内に特徴点を収めることができ、より安定に動きを検出できるようになる。
(2)実施の形態1,2では、センシング部14として角速度センサを例に挙げて説明したが、角速度センサに限らず加速度センサであっても構わない。
(3)実施の形態1,2では、撮像装置としてウェアラブルカメラを例に挙げて説明したが、ウェアラブルカメラに限らず、デジタルビデオカメラをはじめとする動画の撮影が可能なあらゆる撮像装置に対しても実施の形態を適用することができ、特に、揺れや動きの大きい、過酷な環境下での使用が想定される撮像装置に有効である。
(4)実施の形態1,2では、前フレーム画像Ftから特徴点を抽出し、後フレーム画像Ft+1から抽出した特徴点に対応する特徴点を探索するとして説明した。要はフレーム画像Ft,Ft+1間のフレーム画像全体の動きを求められればよいので、反対に、後フレーム画像Ft+1から抽出し、前フレーム画像Ftから探索するという構成もあり得る。
また、フレーム画像Ft,Ft+1のように時間的に隣り合うフレーム画像間でなくてもよい。例えば第1フレーム画像F1と、第2フレーム画像F2(第1フレーム画像F1より時間的に後のフレーム画像)のいずれか一方から特徴点を抽出し、他方から対応する特徴点を探索しても、第1フレーム画像F1,F2間の画像全体の動きベクトルを求めることができる。
なお、この場合、センシング部14により、例えばこの両フレーム画像F1,F2間の時間における角速度を検出することで、画素移動量dを求めて、フレーム画像F1,F2間に特徴点が移動した位置を予測することができる。
(5)実施の形態2では特に触れなかったが、シャッタースピード変更部34や感度変更部36として、AE(Automatic Exposure)カメラなどにおいて一般的に利用されるAE機能を利用しても構わない。
(6)上述の実施の形態で示した動作、処理(図8〜図10)をウェアラブルカメラ等の撮像装置のプロセッサ、及びそのプロセッサに接続された各種回路に実行させるためのプログラムコードからなる制御プログラムを、記録媒体に記録すること、又は各種通信路を介して流通させ頒布することもできる。
このような記録媒体には、ICカード、ハードディスク、光ディスク、フレキシブルディスク、ROM等がある。
流通、頒布された制御プログラムは、プロセッサに読み出され得るメモリ等に格納されることにより利用に供され、そのプロセッサがその制御プログラムを実行することにより実施の形態で示したような各種機能が実現されるようになる。
本発明に係る撮像装置は、演算量の増加を抑えつつ、フレーム画像間の動きベクトルを検出できるので有用である。
10,11 ウェアラブルカメラ
12 撮像部
14 センシング部
16 動き検出部
20 制御部
22 特徴点抽出部
24 特徴点位置予測部
26 ウインドウ設定部
28 特徴点探索部
30 多数決処理部
32 フレームレート変更部
34 シャッタースピード変更部
36 感度変更部
t 前フレーム画像
t+1 現フレーム画像
a1,a2,a3,p1,p2 前フレーム画像Ftの特徴点
b1,b2,b3,q1,q2 現フレーム画像Ft+1の特徴点
d 画素移動量
p1’,p2’ 予測位置(それぞれ特徴点p1,p2を、画素移動量dに従って移動させた点)
w1〜w9 ウインドウ

Claims (15)

  1. 被写体を撮像する撮像部と、
    前記撮像部の物理的な動きをセンシングするセンシング部と、
    第1フレーム画像から特徴点を抽出する抽出部と、
    センシングされた動きに基づいて、前記第1フレーム画像から抽出された特徴点の第2フレーム画像中における位置を予測する予測部と、
    前記予測部により予測された位置に基づいて第2フレーム画像内にウインドウを設定する設定部と、
    設定されたウインドウを対象に、前記第1フレーム画像から抽出された特徴点に対応する特徴点を、第2フレーム画像から探索する探索部と、
    を備えることを特徴とする撮像装置。
  2. 前記設定部は、前記予測部により予測された位置を含むようにウインドウを設定する
    ことを特徴とする請求項1に記載の撮像装置。
  3. 前記設定部は、前記予測部により予測された位置を中心にウインドウを設定する
    ことを特徴とする請求項2に記載の撮像装置。
  4. 前記設定部は、前記第1フレーム画像における抽出された特徴点の位置と、前記予測部により予測された位置とを結ぶ中点を中心にウインドウを設定する請求項1に記載の撮像装置。
  5. センシング部によりセンシングされた物理的な動きの大きさが所定の閾値以上となると、前記撮像部のフレームレートを高い値に変更するフレームレート変更部を備えることを特徴とする請求項1に記載の撮像装置。
  6. 前記フレームレート変更部は、前記センシング部によりセンシングされた動きの大きさが前記所定の閾値以上になるとフレームレートを第1の値に変更し、前記センシング部によりセンシングされた動きの大きさが前記所定の閾値より大きい第2の閾値以上となると、フレームレートを前記第1の値より高い第2の値に変更することを特徴とする請求項5に記載の撮像装置。
  7. 前記フレームレート変更部は、前記センシング部によりセンシングされた物理的な動きの大きさが大きいほど、フレームレートをより高い値に変更することを特徴とする請求項5に記載の撮像装置。
  8. 前記フレームレート変更部は、フレーム画像間の時間間隔より長い所定の時間間隔でフレームレートの変更動作を行うことを特徴とする請求項5に記載の撮像装置。
  9. センシング部によりセンシングされた物理的な動きの大きさが所定の閾値以上となると、前記撮像部のシャッタースピードを速い値に変更するシャッタースピード変更部を備える
    ことを特徴とする請求項5に記載の撮像装置。
  10. センシング部によりセンシングされた物理的な動きの大きさが所定の閾値以上となると、前記撮像部の感度を高い値に変更する感度変更部を備えることを特徴とする請求項9に記載の撮像装置。
  11. 前記設定部は、前記センシング部によりセンシングされた物理的な動きの大きさに応じて、設定するウインドウの大きさを変化させる
    ことを特徴とする請求項5に記載の撮像装置。
  12. 前記設定部は、前記センシング部によりセンシングされた物理的な動きの大きさが予め定められた値を上回ると、前記ウインドウの大きさの変化を行うことを特徴とする請求項11に記載の撮像装置。
  13. 前記設定部は、所定のフレーム数あたりに1回は、画像全体を探索範囲と設定することを特徴とする請求項1に記載の撮像装置。
  14. 前記センシング部は、角速度センサまたは加速度センサの少なくとも1つにより構成される
    ことを特徴とする請求項1に記載の撮像装置。
  15. 撮像部により被写体を撮像する撮像ステップと、
    前記撮像ステップにおける撮像部の動きをセンサによりセンシングするセンシングステップと、
    第1フレーム画像から特徴点を抽出する抽出ステップと、
    センシングされた動きに基づいて、前記第1フレーム画像から抽出された特徴点の第2フレーム画像中における位置を予測する予測ステップと、
    前記予測ステップにより予測された位置に基づいて第2フレーム画像内にウインドウを設定する設定ステップと、
    設定されたウインドウを対象に、前記第1フレーム画像から抽出された特徴点に対応する特徴点を、第2フレーム画像から探索する探索ステップと、
    を備えることを特徴とする撮像方法。
JP2010502371A 2008-06-09 2009-06-02 撮像装置、撮像方法 Active JP5451593B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010502371A JP5451593B2 (ja) 2008-06-09 2009-06-02 撮像装置、撮像方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008150168 2008-06-09
JP2008150168 2008-06-09
JP2010502371A JP5451593B2 (ja) 2008-06-09 2009-06-02 撮像装置、撮像方法
PCT/JP2009/002457 WO2009150793A1 (ja) 2008-06-09 2009-06-02 撮像装置、撮像方法

Publications (2)

Publication Number Publication Date
JPWO2009150793A1 true JPWO2009150793A1 (ja) 2011-11-10
JP5451593B2 JP5451593B2 (ja) 2014-03-26

Family

ID=41416506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010502371A Active JP5451593B2 (ja) 2008-06-09 2009-06-02 撮像装置、撮像方法

Country Status (3)

Country Link
US (1) US8395671B2 (ja)
JP (1) JP5451593B2 (ja)
WO (1) WO2009150793A1 (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186636A (ja) * 2010-03-05 2011-09-22 Sony Corp 情報処理装置および方法、並びにプログラム
JP5394296B2 (ja) * 2010-03-25 2014-01-22 富士フイルム株式会社 撮像装置及び画像処理方法
JP5810307B2 (ja) * 2010-05-10 2015-11-11 パナソニックIpマネジメント株式会社 撮像装置
JP2011257502A (ja) * 2010-06-07 2011-12-22 Sony Corp 画像安定化装置、画像安定化方法、及びプログラム
KR101856947B1 (ko) * 2011-10-07 2018-05-11 삼성전자주식회사 촬영장치, 움직임 추정장치, 영상 보정 방법, 움직임 추정방법 및 컴퓨터 판독가능 기록매체
CN103889879B (zh) 2011-10-19 2017-03-22 克朗设备公司 识别、匹配并跟踪图像序列中的多个对象
US9571723B2 (en) * 2011-11-18 2017-02-14 National Science Foundation Automatic detection by a wearable camera
US9568977B2 (en) 2012-12-11 2017-02-14 Intel Corporation Context sensing for computing devices
JP2015061200A (ja) * 2013-09-18 2015-03-30 コニカミノルタ株式会社 画像表示装置、画像表示方法、および画像表示プログラム
JP6248780B2 (ja) * 2014-04-21 2017-12-20 富士通株式会社 脈波検出装置、脈波検出方法及び脈波検出プログラム
US20160182866A1 (en) * 2014-12-19 2016-06-23 Sony Corporation Selective high frame rate video capturing in imaging sensor subarea
US9979890B2 (en) 2015-04-23 2018-05-22 Apple Inc. Digital viewfinder user interface for multiple cameras
JP6598549B2 (ja) * 2015-07-23 2019-10-30 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置およびその制御方法
KR102457617B1 (ko) * 2015-09-16 2022-10-21 한화테크윈 주식회사 영상 움직임 추정 방법 및 장치, 영상 안정화 방법 및 장치, 및 컴퓨터 기록매체
US9838604B2 (en) * 2015-10-15 2017-12-05 Ag International Gmbh Method and system for stabilizing video frames
US9990535B2 (en) 2016-04-27 2018-06-05 Crown Equipment Corporation Pallet detection using units of physical length
US10009536B2 (en) 2016-06-12 2018-06-26 Apple Inc. Applying a simulated optical effect based on data received from multiple camera sensors
US11076100B2 (en) * 2017-03-31 2021-07-27 Lenovo (Singapore) Pte. Ltd. Displaying images on a smartglasses device based on image data received from external camera
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
US10764499B2 (en) * 2017-06-16 2020-09-01 Microsoft Technology Licensing, Llc Motion blur detection
CN109325962B (zh) * 2017-07-31 2022-04-12 株式会社理光 信息处理方法、装置、设备以及计算机可读存储介质
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
CN110337811A (zh) 2018-02-14 2019-10-15 北京大学 运动补偿的方法、装置和计算机系统
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
CN110909730A (zh) * 2018-09-14 2020-03-24 恒景科技股份有限公司 移动检测的成像系统
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
JPWO2020137313A1 (ja) * 2018-12-28 2020-07-02
JP7240241B2 (ja) * 2019-04-24 2023-03-15 キヤノン株式会社 撮像装置及びその制御方法、姿勢角算出装置、プログラム、記憶媒体
CN111901476B (zh) * 2019-05-06 2022-06-10 苹果公司 用于捕获和管理视觉媒体的用户界面
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000092499A (ja) * 1998-09-08 2000-03-31 Canon Inc 画像符号化制御装置、画像符号化制御方法及び記憶媒体
JP2002112252A (ja) * 2000-09-28 2002-04-12 Toshiba Corp 画像処理装置及び画像処理方法
JP2003244738A (ja) * 2002-02-14 2003-08-29 Nec Software Chubu Ltd 情報提供システム
JP2007303886A (ja) * 2006-05-09 2007-11-22 Sony Corp 位置推定装置、位置推定方法及びプログラム記録媒体
JP2008089314A (ja) * 2006-09-29 2008-04-17 Topcon Corp 位置測定装置及びその方法
JP2008112210A (ja) * 2006-10-27 2008-05-15 Matsushita Electric Works Ltd 自動追尾方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPR676201A0 (en) * 2001-08-01 2001-08-23 Canon Kabushiki Kaisha Video feature tracking with loss-of-track detection
KR100850705B1 (ko) * 2002-03-09 2008-08-06 삼성전자주식회사 시공간적 복잡도를 고려한 적응적 동영상 부호화 방법 및그 장치
JP2003304486A (ja) 2002-04-09 2003-10-24 Hitachi Ltd 記憶システムとそれを用いたサービスの販売方法
EP1710751A1 (en) * 2004-01-06 2006-10-11 Sony Corporation Image processing device and method, recording medium, and program
GB0425860D0 (en) * 2004-11-25 2004-12-29 Ibm A method for ensuring the quality of a service in a distributed computing environment
JP2007281961A (ja) 2006-04-07 2007-10-25 Canon Inc 撮像装置、撮像装置制御方法及び撮像制御方法
JP5141559B2 (ja) * 2006-12-18 2013-02-13 ソニー株式会社 撮像装置及び方法、記録装置及び方法、再生装置及び方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000092499A (ja) * 1998-09-08 2000-03-31 Canon Inc 画像符号化制御装置、画像符号化制御方法及び記憶媒体
JP2002112252A (ja) * 2000-09-28 2002-04-12 Toshiba Corp 画像処理装置及び画像処理方法
JP2003244738A (ja) * 2002-02-14 2003-08-29 Nec Software Chubu Ltd 情報提供システム
JP2007303886A (ja) * 2006-05-09 2007-11-22 Sony Corp 位置推定装置、位置推定方法及びプログラム記録媒体
JP2008089314A (ja) * 2006-09-29 2008-04-17 Topcon Corp 位置測定装置及びその方法
JP2008112210A (ja) * 2006-10-27 2008-05-15 Matsushita Electric Works Ltd 自動追尾方法

Also Published As

Publication number Publication date
WO2009150793A1 (ja) 2009-12-17
US20110157379A1 (en) 2011-06-30
US8395671B2 (en) 2013-03-12
JP5451593B2 (ja) 2014-03-26

Similar Documents

Publication Publication Date Title
JP5451593B2 (ja) 撮像装置、撮像方法
US8488010B2 (en) Generating a stabilized video sequence based on motion sensor data
EP2214403B1 (en) Image processing device, photographing device, reproducing device, integrated circuit, and image processing method
US20130107066A1 (en) Sensor aided video stabilization
KR102126513B1 (ko) 카메라의 포즈를 판단하기 위한 장치 및 방법
JP6098874B2 (ja) 撮像装置および画像処理装置
JP6395506B2 (ja) 画像処理装置および方法、プログラム、並びに撮像装置
US8818046B2 (en) Image processing device, image processing method, and program
JP5694300B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6539091B2 (ja) 撮像装置およびその制御方法
EP2053844A1 (en) Image processing device, image processing method, and program
US20170150054A1 (en) Image pickup apparatus for detecting moving amount of main subject or background, method for controlling image pickup apparatus, and storage medium
US8436906B2 (en) Image processing apparatus, image processing method, program, and recording medium
US9210323B2 (en) Image capture device and image processor
US20130107064A1 (en) Sensor aided image stabilization
US10104277B2 (en) Panning index display apparatus and processing method
JP5968379B2 (ja) 画像処理装置およびその制御方法
JP2011188345A (ja) 携帯電子機器
JP2005130159A (ja) 撮像装置および撮像装置の手振れ補正方法
JP5539565B2 (ja) 撮像装置及び被写体追跡方法
JP2011259342A (ja) 画像処理装置および画像処理方法
CN110892705A (zh) 通过判断最佳状况来进行拍摄的方法及执行该方法的装置
US20170041546A1 (en) Image processing apparatus and control method thereof
CN108632528B (zh) 图像处理装置、图像处理方法以及记录介质
JP2010028418A (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131226

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5451593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250