JP2008288797A - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JP2008288797A
JP2008288797A JP2007130712A JP2007130712A JP2008288797A JP 2008288797 A JP2008288797 A JP 2008288797A JP 2007130712 A JP2007130712 A JP 2007130712A JP 2007130712 A JP2007130712 A JP 2007130712A JP 2008288797 A JP2008288797 A JP 2008288797A
Authority
JP
Japan
Prior art keywords
image
main subject
subject
cpu
moving direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007130712A
Other languages
English (en)
Inventor
Saeko Samejima
冴映子 鮫島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007130712A priority Critical patent/JP2008288797A/ja
Publication of JP2008288797A publication Critical patent/JP2008288797A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】 被写体の移動方向を考慮してより好ましい構図の画像を容易に取得できる手段を提供する。
【解決手段】 撮像装置は、撮像部と、メモリと、被写体認識部と、移動方向判定部と、構図調整部とを備える。撮像部は、被写体を撮像して画像のデータを生成する。メモリは、認識対象となる主要被写体の特徴情報を記憶する。被写体認識部は、特徴情報に基づいて画像に含まれる主要被写体を認識する。移動方向判定部は、主要被写体の移動方向を判定する。構図調整部は、画像内での主要被写体の位置と主要被写体の移動方向とに基づいて、画像のトリミング範囲を決定する第1の処理を実行する。
【選択図】 図1

Description

本発明は、画像の一部を切り出すトリミング機能を備えた撮像装置に関する。
従来から、撮影した画像の一部を切り出して良好な構図の画像を提供するカメラが種々提案されている。例えば、特許文献1には、撮影モードに応じた画像解析の結果に基づいて画像の一部を切り出すことで、撮影するシーンに適した構図の画像を取得できるカメラが開示されている。
特開2005−175684号公報
しかし、従来のカメラでは、画像のトリミングのときに被写体の動きや向きが考慮されておらず、被写体の動きや向きを反映した好ましい構図の画像を得ることができない点で改善の余地があった。
本発明は上記従来技術のいずれかの課題を解決するためのものである。本発明の目的の一つは、被写体の移動方向を考慮してより好ましい構図の画像を容易に取得できる手段を提供することにある。
また、本発明の目的の一つは、被写体の向きを考慮してより好ましい構図の画像を容易に取得できる手段を提供することにある。
第1の発明の撮像装置は、撮像部と、メモリと、被写体認識部と、移動方向判定部と、構図調整部とを備える。撮像部は、被写体を撮像して画像のデータを生成する。メモリは、認識対象となる主要被写体の特徴情報を記憶する。被写体認識部は、特徴情報に基づいて画像に含まれる主要被写体を認識する。移動方向判定部は、主要被写体の移動方向を判定する。構図調整部は、画像内での主要被写体の位置と主要被写体の移動方向とに基づいて、画像のトリミング範囲を決定する第1の処理を実行する。
第2の発明は、第1の発明において、構図調整部は、第1の処理のときに、主要被写体の位置を基準として、移動方向側のスペースが反対側よりも大きくなるようにトリミング範囲を決定する。
第3の発明は、第1の発明において、移動方向判定部は、画像の背景部分に参照点を設定する。また、移動方向判定部は、前後して撮像された2以上の画像間における主要被写体および参照点の位置関係の変化に基づいて、移動方向を判定する。
第4の発明は、第1の発明において、移動方向判定部は、前後して撮像された2以上の画像間における主要被写体の位置変化に基づいて、移動方向を判定する。
第5の発明は、第1の発明において、装置に加わる振動を検知する動きセンサを撮像装置がさらに備える。また、移動方向判定部は、動きセンサの出力に基づいて、移動方向を判定する。
第6の発明は、第1の発明において、モニタと第1操作部とを撮像装置がさらに備える。モニタは、第1の処理で決定されたトリミング範囲を画像とともに表示する。第1操作部は、トリミング範囲の変更操作をユーザーから受け付ける。
第7の発明は、第1の発明において、構図調整部は、移動方向判定部が主要被写体の移動方向を判定できないときに、第1の処理を省略する。
第8の発明は、第1の発明において、構図調整部は、主要被写体の周囲に少なくとも所定量の余白を確保してトリミング範囲を決定する。また、構図調整部は、余白を確保すると画像からトリミング範囲がはみ出す場合にトリミング範囲を再設定する。
第9の発明は、第1の発明において、顔検出部と、第2操作部とを撮像装置がさらに備える。顔検出部は、画像から人物の顔を検出するとともに、顔の向きを判定する。第2操作部は、第1のモードと第2のモードとの選択操作をユーザーから受け付ける。そして、構図調整部は、第1のモードの状態では第1の処理を実行する。また、構図調整部は、第2のモードの状態では、主要被写体が人物であるときに画像内での主要被写体の位置と主要被写体の顔の向きとに基づいて、トリミング範囲を決定する第2の処理を実行する。
第10の発明は、第9の発明において、構図調整部は、第2の処理のときに、主要被写体の位置を基準として、顔の向く方向のスペースが反対側よりも大きくなるようにトリミング範囲を決定する。
第11の発明の撮像装置は、撮像部と、メモリと、被写体認識部と、構図調整部とを備える。撮像部は、被写体を撮像して画像のデータを生成する。メモリは、認識対象となる主要被写体の向きを示す特徴情報を記憶する。被写体認識部は、特徴情報に基づいて画像に含まれる主要被写体を認識するとともに、主要被写体の向きを判定する。構図調整部は、画像内での主要被写体の位置と主要被写体の向きとに基づいて、画像のトリミング範囲を決定する。
第12の発明は、第11の発明において、特徴情報は、人物の顔の向きを判定するためのデータを含む。また、構図調整部は、画像内での主要被写体の人物の位置と主要被写体の顔の向きとに基づいて、トリミング範囲を決定する。
第13の発明は、第11の発明において、被写体認識部は、前後して撮像された2以上の画像で所定の追尾対象を継続的に主要被写体に設定する。また、構図調整部は、追尾対象を基準としてトリミング範囲を決定する。
本発明の一の形態では、主要被写体の位置および移動方向に基づいて画像のトリミング範囲が決定され、被写体の移動方向を考慮した構図の画像をユーザーが容易に取得できるようになる。
また、本発明の他の形態では、主要被写体の位置および向きに基づいて画像のトリミング範囲が決定され、被写体の向きを考慮した構図の画像をユーザーが容易に取得できるようになる。
図1は、第1実施形態の電子カメラの構成を説明するブロック図である。本実施形態の電子カメラは、被写体認識機能を備えている。
電子カメラは、撮像光学系11およびレンズ駆動部12と、撮像素子13と、AFE14と、画像処理部15と、第1メモリ16と、記録I/F17と、通信I/F18と、モニタ19と、操作部材20と、レリーズ釦21と、第2メモリ22と、振動センサ23と、CPU24およびバス25とを有している。ここで、画像処理部15、第1メモリ16、記録I/F17、通信I/F18、モニタ19、第2メモリ22およびCPU24は、バス25を介してそれぞれ接続されている。また、レンズ駆動部12、操作部材20およびレリーズ釦21、振動センサ23は、それぞれCPU24に接続されている。
撮像光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成されている。撮像光学系11のフォーカシングレンズのレンズ位置は、レンズ駆動部12によって光軸方向に調整される。なお、簡単のため、図1では撮像光学系11を1枚のレンズとして図示する。
撮像素子13は、撮像光学系11の像空間側に配置されている。撮像素子13は、撮像光学系11を通過した光束による被写体像を光電変換してアナログの画像信号を生成する。この撮像素子13の出力はAFE14に接続されている。
ここで、電子カメラの動作モードの一つである撮影モードにおいて、撮像素子13はレリーズ釦21の全押し操作に応答して記録画像(本画像)を撮像する。また、撮影モードでの撮像素子13は、撮影待機時にも所定間隔毎にスルー画像を撮像する。なお、スルー画像のデータは、間引き読み出しで撮像素子13から出力されて、モニタ19での画像表示や、CPU24による各種の演算処理などに使用される。
AFE14は、撮像素子13の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このAFE14は、相関二重サンプリングや、画像信号のゲインの調整や、画像信号のA/D変換を行う。なお、AFE14の出力は画像処理部15に接続されている。
画像処理部15は、1フレーム分のデジタル画像信号に対して、各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整など)を施す。なお、画像処理部15は、本画像の解像度変換処理や、本画像の一部を切り出してトリミング画像を生成するトリミング処理や、本画像のデータの圧縮処理または伸長処理も実行する。
第1メモリ16は、画像処理部15による画像処理の前工程や後工程で画像のデータを一時的に記憶するバッファメモリである。
記録I/F17には、記憶媒体26を接続するためのコネクタが形成されている。そして、記録I/F17は、コネクタに接続された記憶媒体26に対してデータの書き込み/読み込みを実行する。上記の記憶媒体26は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記憶媒体26の一例としてメモリカードを図示する。
通信I/F18は、有線または無線による公知の通信規格の仕様に準拠して、外部の装置とのデータ送受信を制御する。
モニタ19は、CPU24の指示に応じて各種画像を表示する。なお、本実施形態でのモニタ19の構成は、接眼部を有する電子ファインダや、カメラ筐体の背面などに設けられる液晶表示パネルのいずれでもよい。
モニタ19には、撮影モードでの撮影待機時にCPU24の制御によりスルー画像が動画表示される。このとき、CPU24は、モニタ19上のスルー画像に、撮影に必要となる各種情報の表示を重畳させることもできる。また、CPU24は、モニタ19に、各種の設定項目の入力が可能なメニュー画面を表示することもできる。
操作部材20は、例えば、コマンドダイヤル、十字状のカーソルキー、決定釦、登録ボタンなどで構成される。そして、操作部材20は電子カメラの各種入力をユーザーから受け付ける。例えば、操作部材20は、上記のメニュー画面での入力操作や、電子カメラのモード選択操作や、トリミング処理のモード選択操作、後述のトリミング範囲の指定操作などに用いられる。
レリーズ釦21は、半押し操作による撮影前のオートフォーカス(AF)動作開始の指示入力と、全押し操作による撮像動作開始の指示入力とをユーザーから受け付ける。
第2メモリ22は、フラッシュメモリ等の不揮発性の記憶媒体で構成される。この第2メモリ22は、被写体認識の対象となる登録被写体の特徴情報(スルー画像から登録被写体を認識するためのデータ)を記憶する。本実施形態の電子カメラでは、人間、動物、建築物、乗物などを含むあらゆる物を登録被写体として登録することが可能である。
なお、本実施形態での第2メモリ22には、人間の顔領域を検出するための参照データ(例えば、人物の顔のパーツに対応する画像データや、人物の顔のパターンを示す特徴点のデータなど)が予め記憶されている。
ここで、本実施形態での特徴情報は、登録被写体を撮像した画像のデータで構成される。このように登録被写体の画像自体を特徴情報とする場合には、登録時に登録被写体の大きさなどを予め正規化しておいてもよい。なお、人間が登録被写体である場合には、各登録被写体の顔の特徴情報を第2メモリ22に予め登録することで、電子カメラで登録被写体の人物認証を行うことも可能となる。
また、第2メモリ22に記録された特徴情報は、各々の登録被写体ごとに対応付けされてデータベース化されている。すなわち、第2メモリ22には、同一の登録被写体について複数の特徴情報をグループ化して登録できる。例えば、被写体認識の精度を向上させるために、1つの登録被写体について、撮影角度、撮影方向などが相違する特徴情報(例えば、人物の顔であれば向きの異なる画像)を複数登録しておくこともできる。なお、第2メモリ22には、各々の登録被写体ごとに、指定被写体の属性情報(被写体の名前や被写体のサイズなどのテキストデータ)や、サムネイル画像などを登録しておくこともできる。
振動センサ23は、電子カメラに対する振動を検知する。第1実施形態での振動センサ23は、電子カメラの縦揺れを検出する縦方向角速度センサと、電子カメラの横揺れを検出する横方向角速度センサとを備えている。上記の各々の角速度センサには、例えば回転によるコリオリ力を検出する圧電振動式角速度センサなどが用いられる。
CPU24は、電子カメラの各部を統括的に制御するプロセッサである。一例として、CPU24は、スルー画像のデータに基づいて、コントラスト検出方式による公知のAF演算や、公知のAE演算などを実行する。
ここで、本実施形態のCPU24は、不図示のROMに格納されたプログラムの実行により、被写体認識部24a、移動方向判定部24b、構図調整部24cとして機能する。
被写体認識部24aは、撮影モードの一つである被写体認識モードにおいて、上記の特徴情報に基づいてスルー画像から登録被写体を認識する。また、被写体認識部24aは、画像から検出した登録被写体の向きを特徴情報に基づいて判定することもできる。さらに、被写体認識部24aは、ユーザーの操作に応じて、画像のデータから登録被写体の特徴情報を生成するとともに、第2メモリ22に登録被写体および特徴情報を登録する。
一例として、被写体認識部24aは、特徴情報(登録被写体の画像)に基づいて、スルー画像の被写体を解析するマッチング処理を実行する。なお、被写体認識部24aは、例えば、画像の輝度成分、色差成分、輪郭成分、コントラスト比などのパターンの共通性に着目してマッチング処理を実行する。次に、被写体認識部24aは、上記のマッチング処理の結果に基づいて、スルー画像の被写体の登録被写体に対する類似度を各々の登録被写体ごとに演算する。そして、被写体認識部24aは、上記の類似度が閾値以上となる場合にはその登録被写体がスルー画像内に存在するものと判定する。
ここで、同一の画像内に複数の被写体が存在する場合には、被写体認識部24aは各々の被写体に対して上記のマッチング処理をそれぞれ実行する。また、スルー画像内の同一の被写体に対して類似度が閾値以上となる登録被写体が複数あるときには、被写体認識部24aは類似度が最も高い登録被写体を優先して認識する。
なお、被写体認識モードでの被写体認識部24aは、被写体認識の結果に基づいて、撮影画面内での登録被写体の対応位置を焦点検出エリアとして継続的に選択することができる。これにより、被写体認識モードにおいて、CPU24は登録被写体を追尾してAFを行うことができる。
移動方向判定部24bは、スルー画像の解析結果または振動センサ23の出力に基づいて、登録被写体の移動方向を判定する。
構図調整部24cは、上記のトリミング処理がオンに設定されているときに、登録被写体の移動方向や登録被写体の向きに基づいて、本画像のトリミング範囲を決定する。なお、決定されたトリミング範囲は画像処理部15に入力される。
以下、図2、図3の流れ図を参照しつつ、第1実施形態における電子カメラの被写体認識モードでの動作例を説明する。なお、以下の動作例では、予めメニュー画面の設定操作で「トリミング処理の実行」の項目がオンに設定されているとともに、ユーザーが人物を主要被写体として撮像を行うことを前提として説明を行う。
ステップ101:CPU24は、撮像素子13を駆動させてスルー画像の撮像を開始する。その後、スルー画像は所定間隔ごとに逐次生成されることとなる。また、CPU24は、スルー画像をモニタ19に動画表示させる。したがって、ユーザーは、モニタ19のスルー画像を参照して、撮影構図を決定するためのフレーミングを行うことができる。
ステップ102:CPU24はレリーズ釦21が半押しされたか否かを判定する。レリーズ釦21が半押しされた場合(YES側)にはS103に移行する。一方、レリーズ釦21が半押しされていない場合(NO側)には、CPU24はレリーズ釦21の半押しを待機する。
ステップ103:CPU24は、半押し時に撮像されたスルー画像に基づいて、登録被写体の特徴情報を生成する。なお、本実施形態では、S103で特徴情報が生成された登録被写体を主要被写体として説明を行う。
一例として、CPU24は、スルー画像の動画表示中に登録ボタンの押圧を検知すると、モニタ19上のスルー画像の所定位置(例えば画面中央)に登録被写体を指定するための矩形の枠を表示する。そして、登録ボタンが押圧された状態でさらにレリーズ釦21が半押しされると、CPU24は、スルー画像のうちから矩形の枠内の画像を切り出して登録被写体の特徴情報を生成する。すなわち、CPU24は、レリーズ釦21の半押し時に上記の矩形の枠内に位置する被写体を主要被写体とする。その後、CPU24は、上記の特徴情報を第2メモリ22に記録する。なお、被写体認識の精度を高めるために、CPU24は、レリーズ釦21の半押し時に撮像されたフレームだけでなく、その前後のフレームからも特徴情報を生成してもよい。
また、図4に登録被写体(主要被写体)の抽出位置の一例を模式的に示す。図4の例では、スルー画像のサイズがQVGA(320×240画素)であるときに、画面中央部から40×40画素の画像を切り出して登録被写体の特徴情報を生成している。
ステップ104:CPU24は、半押し時に撮像されたスルー画像の背景部分から、主要被写体の移動方向を解析するための参照点のデータを生成する。
具体的には、CPU24は、上記のスルー画像において、登録被写体の特徴情報(S103)を抽出した領域の上下左右に4つの参照点を設定する。次に、CPU24は、スルー画像の各々の参照点の位置から所定のサイズの画像をそれぞれ切り出す。そして、CPU24は、画像内における各々の参照点の位置と、各々の参照点の画像と対応付けする。
なお、図4に、S103のケースでの参照点の抽出位置の一例を示す。図4の例では、CPU24は、登録被写体の抽出範囲の上下左右にそれぞれ50画素ずつ間隔を開けて参照点を設定する。そして、CPU24は、各々の参照点を中心とする16×16画素のマクロブロックをそれぞれスルー画像から切り出している。
ステップ105:CPU24は、主要被写体と参照点との相対位置データを生成する。例えば、CPU24は、登録被写体の特徴情報を抽出した範囲の中心点の位置と、各々の参照点の重心位置とを演算する。そして、CPU24は、上記の中心点の位置と参照点の重心位置とのズレの大きさおよび方向から、上記の相対位置データを生成する。
なお、その後にCPU24は、主要被写体の位置情報と、各々の参照点の画像(マクロブロック)および位置情報と、上記の相対位置データとを第2メモリ22に記録する。
ステップ106:CPU24は、主要被写体の移動方向の判定を行う新たなスルー画像のフレーム(移動方向判定フレーム)が撮像されたか否かを判定する。上記要件を満たす場合(YES側)には、CPU24はS107に移行する。一方、上記要件を満たさない場合(NO側)には、CPU24は、次回の判定対象となるスルー画像の撮像を待機する。なお、本実施形態では、撮像されるスルー画像のうちの一部のフレームを判定対象として、CPU24が所定間隔ごとに移動方向の判定を実行する。勿論、CPU24はスルー画像のすべてのフレームで移動方向の判定を行ってもよい。
ステップ107:CPU24は、主要被写体の特徴情報(S103で取得したもの)に基づいて、移動方向判定フレーム(S106)に被写体認識処理を実行する。そして、CPU24は、被写体認識処理の結果に基づいて、上記の移動方向判定フレームにおける主要被写体の位置を判定する。
なお、S107で移動方向判定フレームから主要被写体を認識できない場合(主要被写体をロストした場合)には、CPU24は、主要被写体をロストした旨のエラー表示をモニタ19に出力する。そして、CPU24は、レリーズ釦21の半押し解除後にS102に戻って上記動作を繰り返す。
ステップ108:CPU24は、今回の移動方向判定フレーム(S106)の画像から各々の参照点(S104)に対応する位置を探索する。
具体的には、CPU24は、移動方向判定フレームの画像に対して、各々の参照点の画像(S104で取得したもの)とのマッチング処理を実行する。そして、CPU24は、上記のマッチング処理の結果に基づいて、今回の移動方向判定フレームにおける各々の参照点の位置のデータを取得する。
ステップ109:CPU24は、今回の移動方向判定フレームから全ての参照点(S104)が検出できたか(参照点のロストが発生していないか)否かを判定する。全ての参照点が検出できた場合(YES側)には、CPU24はS110に移行する。一方、いずれかの参照点が検出できない場合(NO側)には、CPU24はS112に移行する。
ステップ110:CPU24は、今回の移動方向判定フレームでの主要被写体と参照点との相対位置データを生成する。
第1に、CPU24は、S108で新たに取得した各々の参照点の重心位置を求める。第2に、CPU24は、今回の移動方向判定フレームでの主要被写体の中心点の位置と、上記の参照点の重心位置とから、S105と同様に主要被写体と参照点との相対位置データを生成する。
ステップ111:CPU24は、前後して撮像された2つのフレームの相対位置データから、主要被写体の移動方向を判定する。具体的には、CPU24は、第2メモリ22に記憶されている以前の相対位置データと、S110で求めた新たな相対位置データとを比較し、フレーム間での主要被写体の位置変化から主要被写体の移動方向を判定する。
一例として、電子カメラが正位置に構えられている状態では、CPU24は、主要被写体が右方向または左方向のいずれに移動しているかを判定する。なお、フレーム間での主要被写体の位置変化が閾値以下の場合には、CPU24は主要被写体が静止しているものと判定する。
その後、CPU24は、第2メモリ22に記憶されているデータのうちで、主要被写体の位置情報と、各々の参照点の位置情報と、新たな相対位置データ(S110で求めたもの)とをそれぞれ更新する。また、CPU24は、主要被写体の移動方向の履歴データを第2メモリ22に記録して、S114に移行する。なお、上記の移動方向の履歴データは、CPU24によって主要被写体の移動方向の判定が行われるたびに逐次追加されることとなる。
ステップ112:このステップは、例えば、電子カメラのパンニングやズームなどでいずれかの参照点がフレームアウトした場合に相当する。
この場合には、CPU24は、今回の移動方向判定フレーム(S106)の背景部分から、参照点のデータを再び生成する。例えば、CPU24は、今回の移動方向判定フレーム(S106)において、最初の参照点の抽出位置(S103)と同じ位置に参照点を設定し、各々の参照点の位置から所定のサイズの画像をそれぞれ切り出す。
ステップ113:CPU24は、今回の移動方向判定フレームでの主要被写体と参照点との相対位置データを生成する。なお、このステップはS110に対応するので重複説明は省略する。
その後、CPU24は、第2メモリ22に記憶されているデータのうちで、主要被写体の位置情報と、再設定された各々の参照点の画像および位置情報(S112で生成したもの)と、新たな相対位置データ(S113で求めたもの)とをそれぞれ更新する。なお、S113の場合には、CPU24は、上記の移動方向の履歴データ(S111)として、移動方向が判定不能である旨のデータを第2メモリ22に記録する。
ステップ114:CPU24は、レリーズ釦21が全押しされたか否かを判定する。レリーズ釦21が全押しされた場合(YES側)には、CPU24はS116に移行する。一方、レリーズ釦21が全押しされていない場合(NO側)には、CPU24はS115に移行する。
ステップ115:CPU24は、レリーズ釦21の半押しが解除されたか否かを判定する。レリーズ釦21の半押しが解除された場合(YES側)には、CPU24はS102に戻って上記動作を繰り返す。一方、レリーズ釦21の半押しが継続する場合(NO側)には、CPU24はS106に戻って上記動作を繰り返す。
ステップ116:CPU24は、撮像素子13を駆動させて本画像を撮像する。その後、画像処理部15によって本画像のデータが生成される。なお、本画像のデータは、この段階では第1メモリ16に一時的に記憶される。
ステップ117:CPU24は、移動方向の履歴データ(S111)を参照して、過去数回分の主要被写体の移動方向がすべて一致するか否かを判定する。なお、移動方向の履歴データに判定不能である旨のデータ(S113で生成されたもの)がある場合には、CPU24は、判定不能である旨のデータを除外して上記の判定を実行する。
上記の要件を満たす場合(YES側)には、CPU24はS118に移行する。なお、この場合にCPU24は、移動方向の履歴データ(S111)の示す方向を主要被写体の移動方向に決定する。
一方、上記の要件を満たさない場合(NO側)には、CPU24はS126に移行する。なお、この場合にCPU24は、主要被写体が静止しているものとみなして以下の処理を実行する。
ステップ118:CPU24は、トリミング処理のモード設定が第1のモードまたは第2のモードのいずれに設定されているかを判定する。ここで、第1のモードでは、CPU24は主要被写体の移動方向を優先して本画像のトリミング範囲を決定する。第2のモードでは、CPU24は主要被写体の顔の向きを優先して本画像のトリミング範囲を決定する。
第1のモードである場合(CASE1)には、CPU24はS119に移行する。一方、第2のモードである場合(CASE2)には、CPU24はS120に移行する。
ステップ119:CPU24は、主要被写体の移動方向に基づいて本画像のトリミング範囲を決定する。その後、CPU24はS121に移行する。
一例として、本画像が正位置で撮影されるとともに、主要被写体の移動方向が左右のいずれかである場合には、CPU24は以下の(1)から(4)の工程でトリミング範囲を決定する。
(1)まず、CPU24は、第2メモリ22から撮影直前の主要被写体の位置情報を読み出して、本画像における主要被写体の位置を求める。なお、CPU24は、本画像に被写体認識処理を施して主要被写体の位置を求めてもよい。
(2)CPU24は、上記(1)で求めた主要被写体の位置を基準として、主要被写体の周囲に少なくとも所定量の余白を確保する。次に、CPU24は、本画像におけるトリミング範囲の上下のラインを決定する。
例えば、主要被写体の上下の間隔を揃える設定のときには、CPU24は、主要被写体の上下の間隔が等しくなるように、トリミング範囲の上側および下側のライン位置を決定する(図5(a)参照)。
同様に、主要被写体を上側に寄せて配置する設定のときには、CPU24は、余白の上端に合わせてトリミング範囲の上側のラインを決定する。そして、CPU24は、トリミング範囲のサイズに基づいて、トリミング範囲の下側のラインを決定する。
(3)CPU24は、主要被写体の移動方向に基づいて、トリミング範囲の左右のラインを決定する。このとき、CPU24は、主要被写体の位置を基準として移動方向側のスペースが反対側よりも大きくなるようにトリミング範囲を決定する。すなわち、CPU24は、主要被写体の位置が移動方向と反対側のラインに近づくようにする(図5(a)参照)。
(4)CPU24は、上記の工程で決定されたトリミング範囲が本画像のサイズからはみ出しているか否かを判定する。トリミング範囲が本画像に収まる場合には、CPU24は、上記(3)の工程で決定されたトリミング範囲をそのまま適用する。一方、トリミング範囲が本画像からはみ出す場合には、CPU24はトリミング範囲が本画像に収まるように再設定する。
一例として、本画像では主要被写体が上側に位置する一方で、トリミングのときに上下の間隔を揃える設定の状態を考える。この場合には、上記のアルゴリズムでトリミング範囲を決定すると、トリミング範囲の上側が本画像からはみ出して、トリミング後の画像では所定のアスペクト比を確保できなくなる場合がある。したがって、このような場合には、CPU24はトリミング範囲の上側のラインが本画像の上端と重なるようにトリミング範囲を再設定する(図5(b)参照)。これにより、トリミング後の画像のアスペクト比を一定に保つことが可能となる。
ステップ120:CPU24は、主要被写体の顔の向きを判定するとともに、主要被写体の顔の向きに基づいて本画像のトリミング範囲を決定する。
第1に、CPU24は、主要被写体の位置情報に基づいて、本画像の主要被写体に対応する範囲から主要被写体の顔領域を検出する。この顔検出処理は、公知のアルゴリズムによって実行される。一例として、CPU24は、公知の特徴点抽出処理によって、本画像から眉、目、鼻、唇の各端点などの特徴点を抽出し、これらの特徴点に基づいて顔領域か否かを判定する。あるいは、CPU24は、予め用意された参照データの顔画像と判定対象の画像(本画像)との相関係数を求めて、この相関係数が一定の閾値を超えるときに顔領域と判定してもよい。
第2に、CPU24は、検出した顔領域の向きを判定する。このとき、CPU24は、人物の顔のパーツの幾何学的な形状の変化や、顔のパーツの位置関係、顔の特徴点の相対距離などから顔の向きを判定する。一例として、CPU24は、顔領域における顔の輪郭と目との間の肌色部分に着目して、人物が右向きか左向きかを判定する。例えば、本画像の顔領域において、右目と輪郭との間の肌色部分が少なく、左目と輪郭との間の肌色部分が多いときには、CPU24は主要被写体の顔が画像中において左向きであると判定する(図6参照)。なお、CPU24は、各々の顔の向きに対応する複数の顔形状モデルを参照データとして用意し、本画像の顔の向きがどの向きの顔形状モデルに類似するかに基づいて、主要被写体の顔の向きを判定してもよい(この場合の図示は省略する)。
第3に、CPU24は、主要被写体の顔の向きに基づいて本画像のトリミング範囲を決定する。この場合、CPU24は、主要被写体の位置を基準として顔の向く方向のスペースが反対側よりも大きくなるようにトリミング範囲を決定する。なお、トリミング範囲を決定する工程は、S119の場合とほぼと同様であるので重複説明を省略する。
このS120では、主要被写体の顔の向き先に合わせて大きなスペースが確保される。そのため、例えば、主要被写体の人物が後退しつつ、前方から飛んでくるボールを迎えるシーンでは、顔の向きに合わせてボールの来る方向に大きなスペースが確保されるので、主要被写体の移動方向を優先してトリミング範囲を決定する場合よりも適切な構図となる。
ステップ121:CPU24は、本画像に対応するプレビュー画像をモニタ19に表示する。このとき、CPU24は、モニタ19のプレビュー画像上でトリミング範囲を示す枠を重畳表示する。なお、CPU24は、ユーザーの操作に応じて、トリミング範囲に対応するプレビュー画像をモニタ19上に拡大表示してもよい。
このS121の段階では、モニタ19上で示されたトリミング範囲をユーザーは所定の操作で変更することができる。一方、上記のトリミング範囲を変更しない場合には、ユーザーは操作部材20の決定釦を押圧する。なお、所定時間以内にユーザーの変更操作がない場合には、CPU24は、表示中のトリミング範囲を確定してS125に移行してもよい。
ステップ122:CPU24は、トリミング範囲の変更操作をユーザーから受け付けたか否かを判定する。上記の変更操作を受け付けた場合(YES側)には、CPU24はS123に移行する。一方、上記の変更操作がない場合(NO側)には、CPU24はS124に移行する。
ステップ123:CPU24は、ユーザーの変更操作に応じてトリミング範囲を再設定する。その後、CPU24はS122に戻って上記動作を繰り返す。
一例として、S123でのCPU24は、操作部材20のカーソルキーの操作に応じてプレビュー画像上のトリミング範囲を示す枠を移動させる。この場合においても、CPU24は、ユーザーの操作に応じて、変更後のトリミング範囲に対応するプレビュー画像をモニタ19上に拡大表示してもよい。
ステップ124:CPU24は、操作部材20の決定釦が押圧されたか否かを判定する。決定釦が押圧された場合(YES側)には、CPU24はトリミング範囲を確定してS125に移行する。一方、決定釦の押圧がない場合(NO側)には、CPU24はS122に戻って上記動作を繰り返す。
ステップ125:画像処理部15は、CPU24から指示されたトリミング範囲に基づいて、本画像のデータからトリミング画像のデータを生成する。そして、CPU24は、本画像のデータとトリミング画像のデータとをそれぞれ記憶媒体26に記録して一連の処理を終了する。
ステップ126:この場合には、CPU24は、モニタ19に本画像のプレビュー画像を表示した後に、トリミング画像を生成することなく本画像のデータを記憶媒体26に記録して一連の処理を終了する。以上で図2、図3の説明を終了する。
以下、第1実施形態の作用効果を説明する。第1実施形態の電子カメラでは、スルー画像を解析して主要被写体の移動方向を判定する。そして、電子カメラは、主要被写体の位置と主要被写体の移動方向とに基づいて、移動方向側のスペースが反対側よりも大きくなるように本画像のトリミング範囲を決定する。したがって、本画像から生成されるトリミング画像は、被写体の移動方向を考慮したバランスのよい構図となる。
また、第1実施形態の電子カメラでは、トリミング処理のモード切替に応じて、主要被写体の顔の向きを優先して、顔の向く方向のスペースが反対側よりも大きくなるように本画像のトリミング範囲を決定する。したがって、ユーザーはモードの切替により、撮影するシーンに応じてより適切な構図のトリミング画像を容易に取得できるようになる。
さらに、第1実施形態では、ユーザーの操作に応じてトリミング範囲を調整できるので、ユーザーの意図により忠実なトリミング画像を生成することができる。
(第2実施形態の説明)
図7は、第2実施形態における電子カメラの被写体認識モードでの動作例を説明する流れ図である。ここで、第2実施形態の電子カメラの構成は、図1に示す第1実施形態の電子カメラと共通するので重複説明は省略する。
ここで、第2実施形態では、登録被写体の特徴情報が予め第2メモリ22に記憶されていることを前提として説明を行う。また、第2実施形態における各々の登録被写体の特徴情報は、被写体の向きがそれぞれ相違する複数の特徴情報で構成されている。一例として、一つの登録被写体に対する特徴情報は、登録被写体の正面、正面右斜め、正面左斜め、右側面、左側面、背面、背面右斜め、背面左斜めから撮影した画像のデータで生成される。この登録被写体の画像は、例えば、人間、動物、乗物などのいずれのものであってもよい。
さらに、各々の登録被写体の特徴情報には、本画像のトリミング範囲を示すテキストデータ(トリミングサイズデータ)が対応付けされている。このトリミングサイズデータでは、トリミング後の画像で確保すべき余白の量が、登録被写体の向く方向ごとに規定されている。また、トリミングサイズデータの余白の量は、特徴情報の画像サイズ(基本サイズ)を基準として正規化されている。
なお、第2実施形態での特徴情報およびトリミングサイズデータは、ユーザーが電子カメラ上で作成したものでもよく、あるいは、通信I/F18によるダウンロードや記憶媒体26からの読み込みによって既製のデータを使用するものであってもよい。
ステップ201:CPU24は、ユーザーの操作に応じて、トリミング処理に関するメニュー画面を立ち上げる。なお、メニュー画面での表示処理などはいずれもCPU24が実行する。
このメニュー画面においてユーザーが「トリミング処理の実行」の項目をオンに設定すると、CPU24は第2メモリ22に記憶されている登録被写体をモニタ19上に選択可能に表示して、登録被写体の指定入力をユーザーから受け付ける。そして、CPU24は、ユーザーから登録被写体の指定を受け付けると、指定された登録被写体を主要被写体に設定する。なお、ユーザーが設定変更を必要としない場合、CPU24はメニュー画面の立ち上げを省略してS202に移行してもよい。
ステップ202:CPU24は、撮像素子13を駆動させてスルー画像の撮像を開始する。なお、このステップは、第1実施形態のS101に対応するので重複説明を省略する。
ここで、第2実施形態でのCPU24は、スルー画像に対して被写体認識処理を施して、撮影画面内における主要被写体の位置をメモリ(第1メモリ16または第2メモリ22)に逐次記録する。そして、CPU24は、撮影画面内に主要被写体が位置する場合には、主要被写体の対応位置を焦点検出エリアとして継続的にAFを実行する。そのため、前後して撮像されたスルー画像内で主要被写体の位置が変化する場合には、CPU24は主要被写体を追尾してAFを実行することとなる。
ステップ203:CPU24はレリーズ釦21が全押しされたか否かを判定する。レリーズ釦21が半押しされた場合(YES側)にはS204に移行する。一方、レリーズ釦21が全押しされていない場合(NO側)には、CPU24はレリーズ釦21の全押しを待機する。
ステップ204:CPU24は、撮像素子13を駆動させて本画像を撮像する。その後、画像処理部15によって本画像のデータが生成される。なお、本画像のデータは、この段階では第1メモリ16に一時的に記憶される。
ステップ205:CPU24は、本画像(S204)に主要被写体が含まれているか否かを判定する。例えば、CPU24は、本画像の撮影直前におけるスルー画像の被写体認識結果に基づいて上記の判定を行う。なお、CPU24は、この段階で本画像のデータに被写体認識処理を施して主要被写体の有無を判定してもよい。
本画像に主要被写体が含まれている場合(YES側)には、CPU24はS206に移行する。一方、本画像に主要被写体が含まれていない場合(NO側)には、CPU24は本画像のデータを記憶媒体26に記録して一連の処理を終了する。
ステップ206:CPU24は、本画像のデータに被写体認識処理を施して、本画像における主要被写体の向きと、主要被写体の位置とを判定する。なお、S206でのCPU24は、本画像の主要被写体が特徴情報のうちのどの向きに最も類似するかに基づいて、主要被写体の向きを判定する。そして、CPU24は、主要被写体の向きおよび位置の情報をメモリに記録する。
ステップ207:CPU24は、被写体認識処理の結果から、本画像における主要被写体の撮影サイズを検出する。この撮影サイズは、そして、CPU24は、トリミングサイズデータの基本サイズと上記の撮影サイズとの比を求める。この基本サイズと撮影サイズとの比は、トリミングサイズの補正係数となる。
ステップ208:CPU24は、本画像のトリミング範囲を、以下の(1)から(3)の工程で決定する。
(1)CPU24は、トリミングサイズデータを参照して、主要被写体の向く方向(S206)に対応する余白の量の値を求める。
(2)CPU24は、上記(1)で取得した余白の量に、S207で求めた補正係数(基本サイズと撮影サイズとの比)を乗じて、主要被写体の向く方向に対応するトリミング範囲の余白量を確定する。
(3)そして、CPU24は、主要被写体の位置を基準として、上記(2)で確定した余白量を確保することで、主要被写体の向く方向のトリミング範囲のラインを決定する。その後、CPU24は、予め設定されたトリミング範囲のサイズ設定に応じて、トリミング範囲の他のラインを決定する。このとき、CPU24は、主要被写体の向く方向以外のラインについてもトリミングサイズデータに基づいて決定してもよい。
なお、CPU24は、第1実施形態と同様にトリミング範囲をモニタ19に表示して、ユーザーによるトリミング範囲の変更操作を受け付けるようにしてもよい。
ステップ209:画像処理部15は、CPU24から指示されたトリミング範囲に基づいて、本画像のデータからトリミング画像のデータを生成する。そして、CPU24は、本画像のデータとトリミング画像のデータとをそれぞれ記憶媒体26に記録して一連の処理を終了する。以上で、図7の説明を終了する。
ここで、第2実施形態によるトリミング処理の一例として、主要被写体として人物を撮影した場合を図8を参照しつつ説明する。一般に、人物を撮影する場合には、人物の目線を広い空間に向けると、背景の広がりが強調されて奥行き感のある構図となる。そのため、第2実施形態の電子カメラでは、人物の顔の向きに応じてスペースを確保するトリミングを行うことで、好ましい構図のトリミング画像を取得することが可能となる。なお、第2実施形態では、主要被写体の人物に動きがある場合でも、主要被写体を追尾対象としてAFを行うため、主要被写体にピントの合った画像をより確実に取得できるようになる。
また、第2実施形態によるトリミング処理の他の例として、主要被写体として乗物(自動車)を撮影した場合を図9を参照しつつ説明する。一般に、乗物などを撮影する場合には、乗物の前方にスペースを確保すると好ましい構図となる。そのため、第2実施形態の電子カメラでは、乗物の向きに応じて正面側にスペースを確保するトリミングを行うことで、好ましい構図のトリミング画像を取得することが可能となる。
(実施形態の補足事項)
(1)第1実施形態でのCPU24は、2つのスルー画像間における主要被写体および参照点の位置関係の変化に基づいて移動方向を判定したが、本発明での移動方向の判定手法は上記に限定されることはない。
例えば、三脚などで電子カメラが静止状態で固定されている場合には、CPU24は、スルー画像内に参照点を設定することなく、2つのスルー画像間における主要被写体の位置変化のみに基づいて主要被写体の移動方向を判定してもよい。勿論、電子カメラを手持ちで撮影する場合においても、CPU24は2つのスルー画像間における主要被写体の位置変化のみに基づいて移動方向を判定してもよい。
また、CPU24は、2つのスルー画像間における主要被写体の位置変化とともに、振動センサ23の出力に基づいて移動方向を判定してもよい。一例として、CPU24は、振動の大きさを示すパラメータを振動センサ23から取得し、上記の振動の大きさを示すパラメータを所定の換算式を用いて画像上での被写体移動量に換算する。そして、CPU24は、スルー画像から検出できた主要被写体の移動量と、振動センサ23の出力から求めた被写体移動量とに基づいて、最終的に主要被写体の移動方向を決定する。例えば、電子カメラを主要被写体に追従させてパンさせると、主要被写体が大きく移動しているにも拘わらずスルー画像内では主要被写体の位置変化が生じない。このような状況においても振動センサ23の出力をモニタすることで、CPU24は主要被写体の移動方向をより精度良く検出できる。
(2)第1実施形態では、CPU24は、主要被写体の上方向または下方向への移動を判定するとともに、これらの方向にスペースを確保してトリミング画像を生成するようにしてもよい。
(3)第1実施形態では、半押し時の画像に基づいて主要被写体を決定する例を説明したが、例えば、電子カメラは、第2メモリ22に記憶されている登録被写体からユーザーが指定した被写体を主要被写体として、スルー画像に基づいて移動方向を判定するものであってもよい。
(4)なお、上記の実施形態において、特徴情報は登録被写体の画像に限定されることはない。例えば、特徴情報は、撮像画像の輪郭成分、輝度、色差、コントラスト比などのパラメータを示すデータであってもよい。また、登録被写体が人物の顔である場合には、顔の特徴点の位置、各特徴点の相対距離などを特徴情報とすることもできる。
なお、本発明は、その精神またはその主要な特徴から逸脱することなく他の様々な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。
第1実施形態の電子カメラの構成を説明するブロック図 第1実施形態における電子カメラの被写体認識モードの動作例を示す流れ図 図2の続きの流れ図 登録被写体および参照点の抽出位置の一例を模式的に示す図 第1実施形態での移動方向に基づくトリミング範囲の決定方法を示す図 第1実施形態での顔の向きの判定方法を説明する模式図 第2実施形態での電子カメラの被写体認識モードの動作例を示す流れ図 第2実施形態で人物を主要被写体としてトリミング処理を行う例を示す説明図 第2実施形態で自動車を主要被写体としてトリミング処理を行う例を示す説明図
符号の説明
13…撮像素子、15…画像処理部、19…モニタ、20…操作部材、22…第2メモリ、23…振動センサ、24…CPU、24a…被写体認識部、24b…移動方向判定部、24c…構図調整部

Claims (13)

  1. 被写体を撮像して画像のデータを生成する撮像部と、
    認識対象となる主要被写体の特徴情報を記憶するメモリと、
    前記特徴情報に基づいて前記画像に含まれる前記主要被写体を認識する被写体認識部と、
    前記主要被写体の移動方向を判定する移動方向判定部と、
    前記画像内での前記主要被写体の位置と前記主要被写体の移動方向とに基づいて、前記画像のトリミング範囲を決定する第1の処理を実行する構図調整部と、
    を備えることを特徴とする撮像装置。
  2. 請求項1に記載の撮像装置において、
    前記構図調整部は、前記第1の処理のときに、前記主要被写体の位置を基準として、前記移動方向側のスペースが反対側よりも大きくなるように前記トリミング範囲を決定することを特徴とする撮像装置。
  3. 請求項1に記載の撮像装置において、
    前記移動方向判定部は、前記画像の背景部分に参照点を設定するとともに、前後して撮像された2以上の前記画像間における前記主要被写体および前記参照点の位置関係の変化に基づいて、前記移動方向を判定することを特徴とする撮像装置。
  4. 請求項1に記載の撮像装置において、
    前記移動方向判定部は、前後して撮像された2以上の前記画像間における前記主要被写体の位置変化に基づいて、前記移動方向を判定することを特徴とする撮像装置。
  5. 請求項1に記載の撮像装置において、
    装置に加わる振動を検知する動きセンサをさらに備え、
    前記移動方向判定部は、前記動きセンサの出力に基づいて、前記移動方向を判定することを特徴とする撮像装置。
  6. 請求項1に記載の撮像装置において、
    前記第1の処理で決定された前記トリミング範囲を前記画像とともに表示するモニタと、
    前記トリミング範囲の変更操作をユーザーから受け付ける第1操作部と、
    をさらに備えることを特徴とする撮像装置。
  7. 請求項1に記載の撮像装置において、
    前記構図調整部は、前記移動方向判定部が前記主要被写体の移動方向を判定できないときに、前記第1の処理を省略することを特徴とする撮像装置。
  8. 請求項1に記載の撮像装置において、
    前記構図調整部は、前記主要被写体の周囲に少なくとも所定量の余白を確保して前記トリミング範囲を決定するとともに、前記余白を確保すると前記画像から前記トリミング範囲がはみ出す場合に前記トリミング範囲を再設定することを特徴とする撮像装置。
  9. 請求項1に記載の撮像装置において、
    前記画像から人物の顔を検出するとともに、前記顔の向きを判定する顔検出部と、
    第1のモードと第2のモードとの選択操作をユーザーから受け付ける第2操作部と、をさらに備え、
    前記構図調整部は、前記第1のモードの状態では前記第1の処理を実行し、前記第2のモードの状態では、前記主要被写体が人物であるときに前記画像内での前記主要被写体の位置と前記主要被写体の顔の向きとに基づいて、前記トリミング範囲を決定する第2の処理を実行することを特徴とする撮像装置。
  10. 請求項9に記載の撮像装置において、
    前記構図調整部は、前記第2の処理のときに、前記主要被写体の位置を基準として、顔の向く方向のスペースが反対側よりも大きくなるように前記トリミング範囲を決定することを特徴とする撮像装置。
  11. 被写体を撮像して画像のデータを生成する撮像部と、
    認識対象となる主要被写体の向きを示す特徴情報を記憶するメモリと、
    前記特徴情報に基づいて前記画像に含まれる前記主要被写体を認識するとともに、前記主要被写体の向きを判定する被写体認識部と、
    前記画像内での前記主要被写体の位置と前記主要被写体の向きとに基づいて、前記画像のトリミング範囲を決定する構図調整部と、
    を備えることを特徴とする撮像装置。
  12. 請求項11に記載の撮像装置において、
    前記特徴情報は、人物の顔の向きを判定するためのデータを含み、
    前記構図調整部は、前記画像内での前記主要被写体の人物の位置と前記主要被写体の顔の向きとに基づいて、前記トリミング範囲を決定することを特徴とする撮像装置。
  13. 請求項11に記載の撮像装置において、
    前記被写体認識部は、前後して撮像された2以上の前記画像で所定の追尾対象を継続的に前記主要被写体に設定し、
    前記構図調整部は、前記追尾対象を基準として前記トリミング範囲を決定することを特徴とする撮像装置。
JP2007130712A 2007-05-16 2007-05-16 撮像装置 Withdrawn JP2008288797A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007130712A JP2008288797A (ja) 2007-05-16 2007-05-16 撮像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007130712A JP2008288797A (ja) 2007-05-16 2007-05-16 撮像装置

Publications (1)

Publication Number Publication Date
JP2008288797A true JP2008288797A (ja) 2008-11-27

Family

ID=40148130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007130712A Withdrawn JP2008288797A (ja) 2007-05-16 2007-05-16 撮像装置

Country Status (1)

Country Link
JP (1) JP2008288797A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011030160A (ja) * 2009-07-29 2011-02-10 Sony Corp 画像対応装置、動作設定方法、プログラム
JP2013175922A (ja) * 2012-02-24 2013-09-05 Nikon Corp 映像編集装置、テレビジョン受像機、および映像編集プログラム
WO2014034137A1 (ja) * 2012-08-31 2014-03-06 パナソニック株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2014097536A1 (en) 2012-12-20 2014-06-26 Sony Corporation Image processing device, image processing method, and recording medium
WO2016167017A1 (ja) * 2015-04-14 2016-10-20 ソニー株式会社 画像処理装置、画像処理方法、および画像処理システム
US11736794B2 (en) 2020-05-12 2023-08-22 Canon Kabushiki Kaisha Imaging apparatus and control method for imaging apparatus

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011030160A (ja) * 2009-07-29 2011-02-10 Sony Corp 画像対応装置、動作設定方法、プログラム
CN101990064A (zh) * 2009-07-29 2011-03-23 索尼公司 控制设备、操作设置方法和程序
JP2013175922A (ja) * 2012-02-24 2013-09-05 Nikon Corp 映像編集装置、テレビジョン受像機、および映像編集プログラム
WO2014034137A1 (ja) * 2012-08-31 2014-03-06 パナソニック株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2014097536A1 (en) 2012-12-20 2014-06-26 Sony Corporation Image processing device, image processing method, and recording medium
US9781337B2 (en) 2012-12-20 2017-10-03 Sony Corporation Image processing device, image processing method, and recording medium for trimming an image based on motion information
WO2016167017A1 (ja) * 2015-04-14 2016-10-20 ソニー株式会社 画像処理装置、画像処理方法、および画像処理システム
JPWO2016167017A1 (ja) * 2015-04-14 2018-02-08 ソニー株式会社 画像処理装置、画像処理方法、および画像処理システム
US11263769B2 (en) 2015-04-14 2022-03-01 Sony Corporation Image processing device, image processing method, and image processing system
US11736794B2 (en) 2020-05-12 2023-08-22 Canon Kabushiki Kaisha Imaging apparatus and control method for imaging apparatus

Similar Documents

Publication Publication Date Title
JP5056061B2 (ja) 撮像装置
JP5867424B2 (ja) 画像処理装置、画像処理方法、プログラム
JP5251215B2 (ja) デジタルカメラ
US8649574B2 (en) Imaging apparatus, control method of imaging apparatus, and computer program
US8594390B2 (en) Composition determination device, composition determination method, and program
US20070266312A1 (en) Method for displaying face detection frame, method for displaying character information, and image-taking device
JP6184189B2 (ja) 被写体検出装置およびその制御方法、撮像装置、被写体検出装置の制御プログラムおよび記憶媒体
JP5331128B2 (ja) 撮像装置
US8988535B2 (en) Photographing control method and apparatus according to motion of digital photographing apparatus
JP6071436B2 (ja) 撮像装置、撮像方法およびプログラム
JP5210843B2 (ja) 撮像装置
JP2007279601A (ja) カメラ
US8593545B2 (en) Imaging apparatus, imaging method, and computer-readable recording medium with switched image capturing mode
US20170111574A1 (en) Imaging apparatus and imaging method
US9826146B2 (en) Video capturing apparatus, video capturing system and video capturing method
US20160330366A1 (en) Image processing device and method, and program
JP2008288797A (ja) 撮像装置
JP4888192B2 (ja) 撮像装置
JP2009089220A (ja) 撮像装置
JP4807582B2 (ja) 画像処理装置、撮像装置及びそのプログラム
JP2009175442A (ja) 撮像装置
JP4632417B2 (ja) 撮像装置、及びその制御方法
JP2007259004A (ja) デジタルカメラ、画像処理装置及び画像処理プログラム
JP4983479B2 (ja) 撮像装置
WO2020129620A1 (ja) 撮像制御装置、撮像装置、撮像制御方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100803