JP2004205884A - Imaging apparatus and method, and program - Google Patents

Imaging apparatus and method, and program Download PDF

Info

Publication number
JP2004205884A
JP2004205884A JP2002376100A JP2002376100A JP2004205884A JP 2004205884 A JP2004205884 A JP 2004205884A JP 2002376100 A JP2002376100 A JP 2002376100A JP 2002376100 A JP2002376100 A JP 2002376100A JP 2004205884 A JP2004205884 A JP 2004205884A
Authority
JP
Japan
Prior art keywords
area
imaging
unit
user
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002376100A
Other languages
Japanese (ja)
Other versions
JP3969304B2 (en
Inventor
Kentaro Tanaka
謙太郎 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002376100A priority Critical patent/JP3969304B2/en
Priority to US10/743,760 priority patent/US7551223B2/en
Publication of JP2004205884A publication Critical patent/JP2004205884A/en
Application granted granted Critical
Publication of JP3969304B2 publication Critical patent/JP3969304B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus and an imaging method, and a program for realizing a more suitable automatic focusing. <P>SOLUTION: A PDA (personal digital assistants) 1 performs AF (auto focus) processing by setting an AF area of a comparatively wide range centering at the center of a photographic image frame as an object when a user does not designate the position of an AF frame 261 in a still picture taking mode. When the user taps an optional position on the EVF area 221 of a touch panel superimposed on a display, the touch panel detects the coordinates of the tapped position, and an AF area of a narrower range than the range of the AF area when the user does not designate the position of the AF frame 261 is arranged so that the AF frame 261 has the coordinates in its center, and the AF processing is performed by setting the AF area as an object. When the user taps on the EVF area 221 twice with a specified short interval, the PDA 1 returns the AF area to a state where the user does not designate the position of the AF frame 261. The invention can be applied to the PDA. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は撮像装置および方法、並びにプログラムに関し、特に、より好適な自動合焦を行うことができるようにした、撮像装置および方法、並びにプログラムに関する。
【0002】
【従来の技術】
近年、デジタルスチルカメラや撮像機能を有するPDA(Personal Digital Assistants)等に代表される撮像機能を有する小型の電子機器が普及するとともに、これらの撮像機能の高機能化が進んでいる。
【0003】
例えば、これらの撮像装置は、通常、LCD(Liquid Crystal Display)等のディスプレイを備えており、レンズを介して取り込んだ画像を表示することができ、ユーザは、この表示された画像を見ることによって構図を確認しながら、被写体を撮像することができる。
【0004】
また、ディスプレイにタッチパネルを重畳することにより、ユーザが、構図を確認するだけでなく、ディスプレイに重畳されたタッチパネルを操作することにより、自動合焦機能(以下、AF(Auto Focus)と称する)や、自動露出機能(以下、AE(Auto Exposure)と称する)等を調整することができる撮像装置も存在する。
【0005】
例えば、ユーザが、デジタルスチルカメラに設けられたディスプレイに表示されている取り込み画像の被写体をそのディスプレイ上で指示すると、デジタルスチルカメラは、ディスプレイに重畳されているタッチパネルによってその位置を検出し、ユーザが指示した位置の被写体に焦点を合わせる(例えば、特許文献1参照)。
【0006】
【特許文献1】
特開平11−355617号公報(第5−7ページ、図5−7)
【0007】
【発明が解決しようとする課題】
ユーザが焦点を合わせる位置を指示していない場合、AFは、撮像素子により映像信号化される映像の範囲(以下の説明では撮影画枠と称する)内の中央付近の領域を対象とするが、この場合、被写体の大きさなどが特定できないので、AFの対象となる領域がユーザの望む被写体から外れてしまう中抜けを抑制するために、その領域はある程度広くするほうが望ましい。
【0008】
また、ユーザが焦点を合わせる位置を指示した場合、通常、ユーザは、自分が望む被写体、または、その被写体の特定部分を指定するので、その他の被写体(ユーザの望まない位置)にピントが合わないように、AFの対象となる領域は、焦点を合わせる位置が指示されていない場合よりも狭い方が望ましい。
【0009】
しかしながら、以上のような方法においては、AFの対象となる領域の位置を制御することしかできず、ユーザの望まない位置に合焦してしまう場合があるという課題があった。
【0010】
本発明はこのような状況に鑑みてなされたものであり、より好適な自動合焦を行うことができるようにしたものである。
【0011】
【課題を解決するための手段】
本発明の撮像装置は、被写体を撮像し、被写体の動画像および静止画像を取り込む撮像手段と、焦点距離を調整し、撮像手段による撮像範囲内の所定の第1の領域に含まれる被写体に合焦させる合焦手段と、ユーザにより入力される、撮像範囲内における第1の領域の位置の指定を受け付ける受け付け手段と、受け付け手段により受け付けられた指定に基づいて、第1の領域を、撮像範囲内の任意の位置に設定する位置設定手段と、位置設定手段により設定された位置に応じて、第1の領域の範囲を設定する範囲設定手段とを備えることを特徴とする。
【0012】
前記位置設定手段は、受け付け手段により指定が受け付けられていない場合、第1の領域の中心が撮像範囲の中心に位置するように、第1の領域の位置を設定するようにすることができる。
【0013】
前記位置設定手段は、受け付け手段により指定が受け付けられた場合、第1の領域の中心が、ユーザが指定した座標に位置するように、第1の領域の位置を設定するようにすることができる。
【0014】
前記範囲設定手段は、受け付け手段により指定が受け付けられた場合、指定が受け付けられていない場合の第1の領域の範囲よりも狭くなるように、第1の領域の範囲を設定するようにすることができる。
【0015】
前記撮像手段により被写体を撮像して得られた動画像を表示する表示手段をさらに備え、受け付け手段は、表示手段に重畳されたタッチパネルにより構成され、ユーザが表示手段により表示されている動画像を確認しながら第1の方法で入力した座標を検出し、指定として受け付けるようにすることができる。
【0016】
前記第1の方法は、ユーザがタッチパネルを1回タップする方法であるようにすることができる。
【0017】
前記第1の領域の設定を初期化して、受け付け手段により指定が受け付けられた状態の設定から、指定が受け付けられていない状態の設定に戻す初期化手段をさらに備え、受け付け手段は、ユーザが第2の方法で入力した、第1の領域の設定の初期化の指示をさらに受け付け、初期化手段は、受け付け手段により受け付けられた指示に基づいて、第1の領域の設定を初期化するようにすることができる。
【0018】
前記第2の方法は、ユーザがタッチパネルを所定の時間内に2回タップする方法であるようにすることができる。
【0019】
前記第2の方法は、ユーザが所定の時間以上接触するようにタッチパネルをタップする方法であるようにすることができる。
【0020】
前記表示手段は、合焦手段が第1の領域に含まれる被写体に合焦させた場合、動画像に重畳して第1の領域の外枠を所定の回数点滅表示するようにすることができる。
【0021】
前記合焦手段は、撮像手段が静止画像を取り込む場合と、位置設定手段が第1の領域の位置を設定する場合に、焦点距離を調整し、被写体に合焦させるようにすることができる。
【0022】
前記合焦手段が第1の領域に含まれる被写体に合焦させた場合、撮像手段が静止画像を取り込む際の、合焦手段による調整処理を禁止する禁止手段をさらに備えるようにすることができる。
【0023】
前記撮像範囲内の所定の第2の領域を対象として露出を調整する露出調整手段をさらに備え、位置設定手段は、第2の領域の中心が、受け付け手段により受け付けられた指定に基づいて、撮像範囲内の任意の位置に設定した第1の領域の中心に位置するように、第2の領域の位置をさらに設定するようにすることができる。
【0024】
本発明の撮像方法は、撮像部において撮像された被写体の動画像および静止画像の取り込みを制御する取り込み制御ステップと、撮像部の焦点距離を調整し、撮像部の撮像範囲内における所定の第1の領域に含まれる被写体に合焦させる合焦ステップと、ユーザにより入力される、撮像範囲内における第1の領域の位置に関する指定の受け付けを制御する受け付け制御ステップと、受け付け制御ステップの処理により制御され、受け付けられた指定に基づいて、第1の領域を、撮像範囲内の任意の位置に設定する位置設定ステップと、位置設定ステップの処理により設定された位置に応じて、第1の領域の範囲を設定する範囲設定ステップとを含むことを特徴とする。
【0025】
本発明のプログラムは、撮像部において撮像された被写体の動画像および静止画像の取り込みを制御する取り込み制御ステップと、撮像部の焦点距離を調整し、撮像部の撮像範囲内における所定の第1の領域に含まれる被写体に合焦させる合焦ステップと、ユーザにより入力される、撮像範囲内における第1の領域の位置に関する指定の受け付けを制御する受け付け制御ステップと、受け付け制御ステップの処理により制御され、受け付けられた指定に基づいて、第1の領域を、撮像範囲内の任意の位置に設定する位置設定ステップと、位置設定ステップの処理により設定された位置に応じて、第1の領域の範囲を設定する範囲設定ステップとをコンピュータに実現させることを特徴とする。
【0026】
本発明の撮像装置および方法、並びにプログラムにおいては、被写体が撮像され、被写体の動画像および静止画像が取り込まれ、焦点距離が調整され、撮像範囲内の所定の第1の領域に含まれる被写体が合焦され、ユーザにより入力される、撮像範囲内における第1の領域の位置の指定が受け付けられ、その指定に基づいて、第1の領域が、撮像範囲内の任意の位置に設定されるとともに、その位置に応じて、第1の領域の範囲が設定される。
【0027】
【発明の実施の形態】
図1は、本発明を適用したPDAの正面の構成例を表す図である。
【0028】
図1に示されるように、PDA1は、中央のヒンジ部12を境に、表示部11と本体部13とに分けられており、ヒンジ部12を介して折り畳み可能に形成されている。
【0029】
換言すると、表示部11は、後述する図3に示されるように、軸12−1(仮想的なもの)を中心として回動して本体部13に対して開閉自在とされている。さらに、表示部11は、軸12−1に対して略垂直な軸11−6(仮想的なもの)を中心として本体部13に対して回動自在とされている。即ち、表示部11は、ヒンジ部12と対向する面11−3(LCD28が設けられている面11−1と垂直な図3中下方の面)と平行に、回動されるようになされている。
【0030】
図1に戻り、表示部11の面11−1のほぼ全面には、LCD(Liquid Crystal Display)28、および、LCD28の表面上に積層された透明な感圧式のタッチパネル36が設けられている。即ち、タッチペン35が、LCD28上の任意の位置に配置されると、その座標がタッチパネル36により検出され、検出された座標に対応する所定の処理が行われる。
【0031】
また、タッチパネル36の所定の領域(LCD28の図中下方の領域)には、文字を入力するための文字入力エリア29が設けられており、文字入力エリア29には、種々のソフトボタンや文字入力エリア等が表示される。ユーザが、タッチペン35を操作して、その文字入力エリア上にそれらの特殊文字を書くと、その特殊文字が入力される。即ち、タッチペン35が移動した軌跡がタッチパネル36により検知され、その軌跡に対応する文字が入力される。
【0032】
さらに、ユーザが、タッチペン35を操作してソフトボタン43を押下すると、文字入力エリア29には、キーボードのキー配列を表示したGUI(Graphical User Interface)であるソフトキーボードが表示される。ユーザが、タッチペン35を操作して、ソフトキーボード上の任意のキーを押下すると、その押下されたキーに対応する文字(または記号等)が入力される。即ち、タッチペン35が配置されている座標がタッチパネル36により検知され、その座標に対応するキーが認識され、認識されたキーに割り当てられている文字(または記号等)が入力される。
【0033】
このように、ユーザは、タッチペン35、および、ソフトウエアとしての文字入力エリア29を利用して、容易、かつ迅速に文字を入力することができる。なお、LCD28の表示面上全体に渡ってタッチパネル36が積層されているので、文字入力エリア29のLCD28に対する位置は、図1に示される位置に限定されず、例えば、後述するように、表示された画像の上下左右が反転されると、文字入力エリア29は、図1中上方に配置され、上下逆に表示される。このような場合においても、ユーザは、上述した例と同様に、文字を入力することができる。
【0034】
ヒンジ部12には、図中右方に、PDA1の電源をオンまたはオフ状態にする電源ボタン31が、その左隣に、PDA1に内蔵されているバッテリ(図示せず)が充電中の場合には点灯し、充電が終了すると消灯するLED(Light Emitting Diode)30が、さらにその左隣に、CCD(Charge Coupled Device)よりなるカメラ部22が、左端には、カメラ部22で被写体を撮像するとき操作されるメカキャプチャボタン23が、それぞれ設けられている。カメラ部22は、ヒンジ部12の、表示部11とともに本体部13に対して回動する部分に固定されており、後述するように、ユーザは、表示部11を本体部13に対して開閉させることにより、カメラ部22を回動させることができる。
【0035】
即ち、ユーザは、被写体を撮像する場合、メカキャプチャボタン23を1回押下して、カメラ機能(被写体をカメラ部22により撮像し、その撮像された被写体の画像を記録する機能)を有するアプリケーションソフトウェアを起動させ、カメラ部22の撮像方向を被写体に向けるように表示部11を回動させる。このとき、LCD28には、後述するように、カメラ部22が撮像している画像(被写体の画像)が表示されるので、ユーザは、LCD28を確認しながらカメラ部22の位置を確定し、さらに、各種の設定処理を行った後、シャッタボタンとして動作するメカキャプチャボタン23を再度押下する。これにより、メカキャプチャボタン23が押下された時点のカメラ部22により撮像された画像が、PDA1のメモリ(後述する図8のRAM133等)に記憶される。
【0036】
なお、メカキャプチャボタン23には、押下の方法として、ストロークの最後まで押下する「全押し」と、ストロークの途中である所定の位置まで押下する「半押し」とがある。例えば、ユーザがメカキャプチャボタン23を「半押し」すると、PDA1はカメラ部22において撮影される画像のAF処理やAE処理等を行い、その状態から、ユーザがメカキャプチャボタン23を「全押し」すると、PDA1はカメラ部22より取り込まれた画像をキャプチャする。このように、メカキャプチャボタン23は、押下の方法(深さ)によって、対応する処理を変えるようにすることができる。
【0037】
なお、ユーザがメカキャプチャボタン23を押下していない状態から「全押し」した場合は、PDA1は「半押し」に対応する処理を行った後、「全押し」に対応する処理を実行する。即ち、上述したような場合、ユーザが「全押し」すると、PDA1はカメラ部22において撮影される画像のAF処理やAE処理等を行った後、カメラ部22より取り込まれた画像をキャプチャする。
【0038】
本体部13の折り畳んだとき表示部11に対向する面13−1には、図中上方に、PDA1にインストールされているアプリケーションソフトウェアのそれぞれを表すシンボルが印刷されたボタン32が設けられており、ユーザがその指でボタン32を押下すると、それに対応するアプリケーションソフトウェアが起動される。
【0039】
また、面13−1のボタン32が配置されている領域の中央部には、LCD28に表示されている画像をスクロールするためのスクロールボタン33が設けられている。さらに、面13−1のボタン32の下方には、文字(記号等を含む)を入力するためのキーボード34が設けられている。
【0040】
本体部13の面13−1と垂直な面(側面)13−2の、図中上方には、リモートコントローラ、または、外部のヘッドホンと接続し、接続したそれらに音声を出力するためのヘッドホンジャック24が設けられており、その下方には、押下および回転自在なジョグダイヤル25が面13−2から僅かに突出した状態で設けられており、その下方には、直前の操作を取り消したりするためのバックボタン26が設けられており、さらにその下方には、誤って他のボタンが押下された場合、それに対応する機能の実行を禁止するためのホールドスイッチ27が設けられている。
【0041】
本体部13の面13−1に垂直な面(図中下側の端面)13−4の、中央部には、付属機器を接続するためのコネクタ67が設けられている。
【0042】
図2は、PDA1の裏面の構成例を表している。図2に示されるように、ヒンジ部12の図中左側上部には、抜き差し自在な所定のメモリカードや機能拡張モジュールが装着されるスロット64、メモリカード内のデータが読み書きされている場合に点灯するランプ63、および、赤外線で他の装置と通信するための赤外線ポート62が設けられている。
【0043】
メモリカードは、例えば、小型薄型形状のプラスチックケース内に電気的に書き換えや消去が可能な不揮発性メモリであるEEPROM(Electrically Erasable andProgrammable Read Only Memory)の一種であるフラッシュメモリ素子を格納したものであり、画像や音声、音楽等の各種情報(データ)の書き込みおよび読み出しが可能となっている。
【0044】
またメモリカードは、大容量化等による内蔵フラッシュメモリの仕様変更に対しても、使用する機器で互換性を確保することができる独自のシリアルプロトコルを採用し、最大書込速度1.5[MB/S] 、最大読出速度2.45[MB/S]の高速性能を実現していると共に、誤消去防止スイッチを設けて高い信頼性を確保しているようにしてもよい。
【0045】
従って、PDA1は、このようなメモリカードを挿着することができるために、メモリカードを介して他の装置との間でデータの共有化を図ることができる。
【0046】
本体部13の面13−1の反対側の面13−3の中央部の図中左側には、PDA1をリセットするためのリセットボタン65が設けられており、その下方には、音声を出力するためのスピーカ66が設けられている。
【0047】
本体部13の面13−1,13−3に垂直な面(図中下側の端面)13−4の、中央部には、上述したように、コネクタ67が設けられており、その図中左方には、タッチペン35を収納する収納口68が設けられている。
【0048】
次に、表示部11の開閉および回動の操作について、図面を参照して、以下、詳しく説明する。
【0049】
図3に示されるように、ユーザは、表示部11を、軸11−6を中心として回動させることができる。さらに、図4に示されるように、ユーザは、表示部11を、軸11−6を中心として略180度回動させた後、軸12−1を中心として回動させ、図5に示されるように、本体部13に対して閉じることができる。即ち、ユーザは、図1に示される状態のみならず、図5に示されるような状態で、PDA1を利用することができる。
【0050】
例えば、いま、LCD28には、図3に示されるような文字「F」が表示されているものとする。即ち、文字「F」の上方向は、表示部の面11−4側(図3中上方向)に表示されているものとする。
【0051】
このとき、PDA1は、表示部11が所定の基準位置から回動された場合、表示部11の軸11−6を中心とする回動角度を検出し、その回動角度が、表示部11が回動可能な範囲(この例では、図1に示されるように表示部11が配置された場合の回動角度が0度とされると、0度以上180度以下の範囲)のうちの所定の範囲(この例では、0度以上180度未満)に含まれる場合、画像(文字「F」)の上方向を面11−4側とするように、文字「F」をLCD28に表示させる。
【0052】
一方、PDA1は、その回動角度が、その範囲から外れると(この例では、180度になると)、文字「F」の上方向を、面(端面)11−4の反対側の面(端面)11−3側とするように、文字「F」をLCD28に表示させる。換言すると、PDA1は、表示部11の回動角度が所定の範囲から外れた場合、回動角度がその範囲に含まれる場合の画像(例えば、上方向が面11−4側となる文字「F」)に対して、上下左右を反転させた画像(例えば、上方向が面11−3と反対側の面11−3側となる文字「F」)を、LCD28に表示させる。
【0053】
具体的には、図3に示される状態の場合、表示部11の回動角度は180度未満であるので(上述した所定の範囲に含まれるので)、文字「F」は、その上方向が面11−4側(図3中上方向)とされるようにLCD28に表示される。
【0054】
一方、図4と図5に示される状態の場合、表示部11の回動角度は180度であるので(上述した所定の範囲から外れるので)、文字「F」は、その上方向が面11−4の反対側の面11−3側(図4中下方向)とされるようにLCD28に表示される。
【0055】
このように、PDA1は、その表示部11の回動および開閉状態によらず、ユーザにとって自然な方向に画像を表示させることが可能になる。
【0056】
さらに、ユーザは、PDA1が図4に示される状態のみならず、図1に示される状態の場合も、表示部11を、軸12−1を中心として回動させ、本体部13に対して閉じることができる。即ち、ユーザは、図示は省略するが、PDA1を持ち運びする場合等に、PDA1を図5に示されるようなLCD28が外側に露出した状態にしないことで、PDA1(特にLCD28)を保護することができる。
【0057】
また、以上のように表示部11を回動させることにより、ユーザは、カメラ部22の向き、即ち、撮影方向を変更することができる。
【0058】
例えば、図6に示されるように、PDA1のユーザと反対側に位置する他人101を被写体とする場合(PDA1から見てユーザと反対の方向を撮影する場合)、ユーザは、PDA1を図5に示される状態(表示部11を本体部13に対して閉じた状態)にすることにより、LCD28をユーザに向けたまま、カメラ部22の撮影方向をPDA1のユーザと反対側(即ち、被写体である他人101の方向に)に向けることができる。これにより、ユーザは、PDA1のLCD28に表示されたカメラ部22より取り込まれた取り込み画像を確認しながら、PDA1の反対側に位置する被写体である他人101を撮像することができる。
【0059】
一方、図7に示されるように、PDA1のユーザ102が自分自身を被写体とする場合(PDA1から見てユーザ102の方向を撮影する場合)、ユーザ102は、PDA1を図1に示される状態(表示部11を本体部13に対して開いた状態)にすることにより、LCD28をユーザ102に向けたまま、カメラ部22の撮影方向もユーザ102の方向(即ち、被写体である自分自身の方向に)に向けることができる。これにより、ユーザ102は、PDA1のLCD28に表示されたカメラ部22より取り込まれた取り込み画像を確認しながら、PDA1の同じ側に位置する被写体である自分自身を撮像することができる。
【0060】
以上のようにして、ユーザは、PDA1に対するカメラ部22の方向、即ち、撮影方向を設定することができ、常に、LCD28に表示された取り込み画像を確認し、タッチパネル36を用いて調整作業を行いながら、撮影作業を行うことができる。
【0061】
図8は、PDA1の内部の構成例を示すブロック図である。
【0062】
CPU(Central Processing Unit)131は、ROM(Read Only Memory)132に記憶されているプログラム、または記憶部139からRAM(Random Access Memory)133にロードされたプログラムに従って各種の処理を実行する。
【0063】
RAM133にはまた、CPU131が各種の処理を実行する上において必要なデータなども適宜記憶される。
【0064】
CPU131、ROM132、およびRAM133は、バス134を介して相互に接続されている。このバス134にはまた、LCD28に表示させる画像を制御する表示制御部136が接続されている。
【0065】
表示制御部136には、CPU131の制御に基づいて、上述したカメラ部22、および、LCD28の他、VRAM138が接続されている。表示制御部136は、カメラ部22により撮像された画像を、VRAM138に記憶させ、そのVRAM138に記憶されている画像や、他のメモリ(RAM133、記憶部139、スロット64に接続されたメモリカード143)に記憶されている画像を、LCD28に表示させる。
【0066】
バス134にはさらにまた、入出力インタフェース135も接続されている。
【0067】
入出力インタフェース135には、上述したキーボード34、各種ボタン22,32,33、および、ジョグダイヤル25等からなる入力部137、タッチパネル36、赤外線通信ポート62、メモリカード143若しくは機能拡張モジュール121が装着されるスロット64、PDA1が内蔵するバッテリ(図示せず)を充電させるとともに、他の外部装置152との通信の中継装置となるクレードル91等が接続されるコネクタ67、並びに、リモートコントローラ101若しくはヘッドホン153と接続される音声出力部としてのヘッドホンジャック24が接続されている。
【0068】
なお、タッチパネル36により検出された座標は、入出力インタフェース135、バス134を介してCPU131に提供され、CPU131は、提供されたその座標に対応する所定の情報を取得する。
【0069】
例えば、後述するように、撮影時に、ユーザが、LCD28に表示された取り込み画像上の任意の位置をタップすると、タッチパネル36は、そのユーザがタップした位置の座標を検出し、その座標情報を入出力インタフェース135、バス134を介してCPU131に提供する。CPU131は、その提供された座標情報より、取り込み画像上の位置であることを確認すると、その位置に所定のサイズのAF枠を移動させるなど、各部を制御して対応する処理を実行する。
【0070】
入出力インタフェース135にはまた、必要に応じて、EEPROMまたはハードディスクなどより構成される記憶部139が接続される。外部装置152に適宜装着される磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどから読み出されたコンピュータプログラムは、赤外線ポート62を介する無線通信、無線LANモジュール(機能拡張モジュール)121を介する無線通信、または、クレードル91を介する有線通信等の手段により、必要に応じてPDA1に対して供給され、記憶部139にインストールされる。または、スロット64に適宜装着されるメモリカード143から読み出されたコンピュータプログラムも、必要に応じて記憶部139にインストールされる。
【0071】
入出力インタフェース135にはさらにまた、表示部11が本体部13に対して閉状態の場合、オン状態となり、かつ、表示部11が本体部13に対して開状態の場合、オフ状態となるLCD開閉スイッチ144、および、表示部11が所定の回動角度以上回動された場合にオン状態となるLCD回転スイッチ145が設けられている。
【0072】
即ち、この例においては、CPU131は、LCD開閉スイッチ144と、LCD回転スイッチ145の、それぞれのオン状態またはオフ状態に基づいて、表示部11の本体部13に対する開閉の状態(以下、LCD開閉状態と称する)、および回動状態を認識する。
【0073】
カメラ部22は、図9に示されるように構成される。図示せぬ被写体からの光はレンズ部201を介して、前面にイエロー(Ye)、シアン(Cy)、マゼンタ(Mg)、およびグリーン(G)のカラーフィルタがモザイク状に配列された補色系フィルタが装着された、CCD(Charge Coupled Device)等を用いた撮像素子により構成されるCCD202に入射され、光電変換される。
【0074】
CCD202は、受光部において光電変換した映像信号を出力し、AGC(Automatic Gain Control)回路203に供給する。AGC回路203は、映像信号のゲインを調整し、そのゲインが調整された映像信号をCDS回路(Correlated Double Sampling circuit)204に供給する。CDS回路204は、入力された映像信号に相関二重サンプリングを施してノイズを除去した後、A/D(Analog / Digital)変換回路205に供給する。
【0075】
A/D変換回路205は、入力されたアナログ信号を所定のサンプリング周波数でデジタル信号に変換し、取り込まれた画像データを処理するDSP(Digital Signal Processor)206に供給する。
【0076】
DSP206は、EEPROM(Electrically Erasable and Programmable Read only Memory)207にインストールされたプログラムやデータを用いて、内蔵するSDRAM(Synchronous Dynamic Random Access Memory)等の半導体メモリにより構成される内蔵RAM206Aを用いて、供給された映像信号を保持して所定のフォーマットの画像データを生成し、さらに、生成された画像データに、画質調整や、圧縮処理等の各種のデジタル処理を施す。そして、DSP206は、生成された画像データを図8の表示制御部136に供給する。
【0077】
また、DSP206は、画像データのデジタル処理の際に、レンズ部201乃至A/D変換回路205を制御するための情報をカメラ制御部210に供給する。
【0078】
カメラ制御部210は、DSP206より供給された情報、および図8のCPU131より供給された制御情報に基づいて、レンズ部駆動回路211を介してレンズ部201のレンズ位置、絞り、またはメカシャッタを制御したり、CCD駆動回路212を介して、CCD202の電気的動作を制御したりするとともに、AGC回路203、CDS回路204、およびA/D変換回路205の動作タイミング等を制御する。
【0079】
レンズ部駆動回路211は、モータ等により構成され、カメラ制御部210より供給された制御信号に基づいて、レンズ部201のレンズ位置を移動させて焦点位置を調整したり、絞りやメカシャッタの開閉を調整して露光量を調整したりする。CCD駆動回路212は、カメラ制御部210より供給されたタイミング信号等に基づいて、CCD202を駆動させる信号を生成し、画像の取り込みタイミング等を調整する。
【0080】
例えば、カメラ制御部210は、CPU131より供給された制御信号に基づいてTTL(Through The Lens)コントラスト検出方式によるオートフォーカス処理を行う。CPU131よりAF領域を指定されると、カメラ制御部210は、DSP206より供給される取り込み画像の信号より、撮影画枠内の、指定されたAF領域のコントラストを検出し、レンズ部駆動回路211を介して、レンズ201のレンズを移動させ、その領域に存在する被写体に焦点が合うように(コントラストが最も高くなるように)、レンズ位置を調整する。
【0081】
ユーザがカメラアプリケーションを起動すると、カメラアプリケーションを実行したCPU131により各部が制御され、カメラ部22を用いた静止画撮像を行うための静止画撮影モードに移行する。その際、CPU131は、LCD28に図10に示されるようなGUIを表示させる。
【0082】
図10において、メイン画面220は、静止画撮影モード時の各種の操作を受け付けるためのGUIであり、取り込み画像やキャプチャされた撮影画像を表示するEVFエリア221、動画像撮影モード用アプリケーションを起動する動画像撮影用アプリケーション呼び出しボタン222、各種のアイコンを表示するアイコンエリア223、各種の設定を行うためのGUIである設定画面を表示させる設定画面呼び出しボタン224、撮影される画像のサイズや画質に関するGUIを表示させるサイズ・画質切り替えボタン225、撮影される画像の露光量を調整するEV(Exposure Value)補正スライダ226、CCD202より静止画像をキャプチャするソフトキャプチャボタン227、撮像して得られた画像データの保存先フォルダを選択するアルバムカテゴリ選択欄228、設定画面において設定された機能を実行するカスタムボタン229、フラッシュのモードを切り替えるフラッシュモード切り替えボタン230、撮影された画像のズームを調整するズームボタン231、撮像して得られた画像データのサムネイル画像を表示する簡易ビューエリア232乃至234、EVFエリア221に表示されている撮影画像の表示を90度ずつ回転させる回転ボタン235、撮像して得られた画像データを削除する削除ボタン236、並びに、画像データのタイトル等、各種の文字データを表示するタイトルバーエリア237により構成されている。
【0083】
図11は、図10のEVFエリア221の詳細な表示例を示す図である。図11に示されるように、EVFエリア221には取り込み画像に重畳して、各種の情報を表示するアイコン群が表示される。フラッシュモードアイコン251は、必要に応じて、現在設定されているフラッシュのモードを表示し、手ブレ警告アイコン252は、撮影時に手ブレが発生した場合、点灯して警告し、バッテリアイコン253は、バッテリの残容量が少なくなり、充電が必要である場合、点灯して通知し、AF・AEロックインジケータ254は、点灯したり点滅したりすることで、AFやAEの状態を表示し、撮影不可通知アイコン255は、撮影画像データを記録するメモリの空き容量が足りない場合等に点灯し、新たな画像のキャプチャが行えないことを通知し、撮影状況モードアイコン256は、夜景モード、屋内モード、遠景モード、または接写モード等のような、状況に応じた撮影処理に関するモードの、現在設定されているモードに応じて点灯し、シャッタスピードアイコン257は、マニュアル設定時に点灯し、現在設定されているシャッタスピードを表示する。
【0084】
また、EVFエリア221には、その他にも、焦点距離を手動で設定する際に表示されるマニュアルフォーカス用ゲージ258、現在の焦点距離を示すポインタであるマニュアルフォーカス用ゲージポインタ259が、マニュアルフォーカス時に表示される。
【0085】
さらに、EVFエリア221には、スポット測光時に測光される領域の中心を示すスポット測光用ポインタ260、および、AF領域の範囲を示すAF枠261が表示される。撮影を行うユーザは、AFのモードによって、このEVFエリア221上をタップすることにより、AF枠261やスポット測光用ポインタ260の位置を移動させることができる。
【0086】
なお、これらのアイコンは、ユーザが設定を行うことにより、表示・非表示を切り替えることができる。
【0087】
以上のようなPDA1において、フォーカスのモードは後述するように3つ用意されており、ユーザは、図10のメイン画面220において、設定画面呼び出しボタン224を操作して(LCD28の設定画面呼び出しボタン224上をタップする等して)、図12に示されるような設定画面を呼び出して、複数用意されたこのフォーカスモードの切り替えを行う。
【0088】
図12は、LCD28に表示される設定画面301の構成例を示す図である。図12において、設定画面301は、各種の設定項目およびそれらの現在の状態を示す設定一覧表示エリア302、設定一覧表示エリア302に一度に表示できない項目を表示するために、設定一覧表示エリア302の表示内容をスクロールするスクロールバー303、設定一覧表示エリア302に表示されている項目を図中下側の方向にスクロールさせる下スクロールボタン304、設定一覧表示エリア302に表示されている項目を図中上側の方向にスクロールさせる上スクロールボタン305、LCD28に表示されている画面をメイン画面220に戻す、戻るボタン306、設定画面301において、設定が反映された取り込み画像を表示し、ユーザがその効果を確認するためのEVFエリア311により構成されている。
【0089】
設定一覧表示エリア302には、例えば、撮影モード、ホワイトバランス、サイズ・クオリティ、スポット測光、記録先、セルフタイマー、およびフォーカスモード等の撮影に関する様々な項目が表示される。ユーザは、スクロールバー303、下スクロールボタン304、若しくは上スクロールボタン305を操作したり、または、ジョグダイヤル25を回転させたりするなどして、設定したい項目を設定一覧表示エリア302に表示させる。そして、項目が表示されている部分をタップするか、ジョグダイヤル25を回転させる等して、設定したい項目にアンカーを移動させる。
【0090】
そして、ユーザは、アンカーが位置する項目の右側の設定内容が表示されている部分をタップするか、ジョグダイヤル25を押下するなどして、アンカーが位置する項目の変更を指示する。例えば、図12において、アンカーは、フォーカスモードに位置しており、この状態で、「常時AF」と表示されている部分をタップするか、ジョグダイヤル25を押下すると、ユーザは、フォーカスモードの設定を変更することができる。
【0091】
ユーザが、図12に示されるように、アンカーをフォーカスモードに位置させて指定すると、LCD28には、図12に示される設定画面301に重畳して、図13に示されるような、設定内容選択画面が表示される。
【0092】
図13において、設定画面301の設定一覧表示エリア302の、ユーザが選択した項目フォーカスモード以外の項目は、暗く表示される。ユーザが選択した項目321の右側には、対応する設定の一覧が表示された設定内容選択画面322が表示される。図13において、設定内容選択画面322には、フォーカスモードに対応する設定として、「マニュアルフォーカス」、「常時AF」、および「ワンショットAF」の3つのモードが表示されており、現在設定されているモード(図13の場合、「常時AF」)には、マークが表示されている。また、設定内容選択画面322において、現在選択されているモード(図13の場合、「ワンショットAF」)には、アンカーが表示されている。
【0093】
ユーザは、図13に示される設定内容選択画面322に表示されている一覧の中から、選択するモードの部分をタップしたり、ジョグダイヤル25を回転させてアンカーを移動させ、押下することで選択するモードを指示したりして、モードの設定を行う。
【0094】
次に、フォーカスの「マニュアルフォーカスモード」、「常時AFモード」、および「ワンショットAFモード」の各モードについて説明する。
【0095】
マニュアルフォーカスモードはユーザが焦点距離を手動で設定するモードである。このとき、図11に示されるように、EVFエリア221には、マニュアルフォーカス用ゲージ258およびマニュアルフォーカス用ゲージポインタ259が表示される。ユーザは、マニュアルフォーカス用ゲージ258に従って、目的の距離の部分を1回タップするか、ジョグダイヤル25を回転させることによって、マニュアルフォーカス用ゲージポインタ259を、マニュアルフォーカス用ゲージ258上の所望の位置に移動させて、焦点距離を設定する。
【0096】
図9のカメラ制御部210は、図8のCPU131より供給された制御信号に基づいて、ユーザが指定した焦点距離に合焦するように、レンズ部駆動回路211を介してレンズ部201のレンズ位置を制御する。
【0097】
なお、マニュアルフォーカス用ゲージポインタ259を初期値(ユーザがマニュアルフォーカス用ゲージポインタ259を移動させる前の最初の位置)に戻したい場合、ユーザは、LCD28を、所定の短い時間の間に2回連続でタップ(以下、ダブルタップと称する)する。CPU131は、タッチパネル36よりユーザがダブルタップしたことを示す情報を取得すると、表示制御部136を制御して、LCD28に表示されているマニュアルフォーカス用ゲージポインタ259を初期値に戻す。
【0098】
常時AFモードは、AF領域内の被写体に対して、カメラ部22がTTLコントラスト検出方式によりAF処理を行うモードである。常時AFモードにおいては、AF領域の位置は、撮影画枠内においてユーザにより任意に決定される。また、AF処理は、ユーザがAF領域を移動させた時、ユーザがメイン画面220のソフトキャプチャボタン227上をタップした時、または、ユーザが図1のメカキャプチャボタン23を「半押し」した時に実行される。さらに常時AFモードにおいては、図14Aに示されるように、EVFエリア221には、AF領域の範囲を示すAF枠261が表示される。
【0099】
初期状態(ユーザがAF領域の位置を移動させていない状態)において、AF枠261の中心は、EVFエリア221の中央に配置される。このとき、AF枠261に示されるAF領域は、撮影画枠の中心からずれた被写体が、AF領域から外れてしまう、いわゆる「中抜け」を抑制するために、例えば、図14Aに示されるように、EVFエリア221の大きさが320ドット×240ドットであるのに対して、108ドット×60ドットと比較的広く設定されている。
【0100】
このとき、ユーザが図10のソフトキャプチャボタン227を操作したり、メカキャプチャボタン23を押下(全押し)したりすると、カメラ制御部210は、CPU131より供給されたAF枠261の位置情報に基づいて、AF枠261が囲むAF領域を対象として、TTLコントラスト検出方式によるAF処理等の調整処理を行った後、画像のキャプチャ処理を行う。なお、メカキャプチャボタン23を半押しした場合は、AF処理等の調整処理のみを行う。これによりユーザは、被写体をEVFエリア221の中央付近に位置させるようにPDA1を移動させ、ソフトキャプチャボタン227またはメカキャプチャボタン23を操作するだけで、被写体に焦点の合った画像を得ることができる。
【0101】
また、このAF枠261の位置は、EVFエリア221内であれば、ユーザが任意に指定することができる。すなわち、ユーザが、図14Bに示されるように、タッチペン35等を用いて、EVFエリア221上を1回タップすると、CPU131は、タッチパネル36より供給された位置情報に基づいて、ユーザがタップした位置がAF領域の中心となるように、AF枠261を移動させる。
【0102】
この場合、ユーザは、通常、焦点を合わせたい被写体をタップするので、いわゆる「中抜け」の現象が発生する可能性は低い。逆に、不必要にAF領域が広いと、AF領域内のユーザが指定した被写体と異なる被写体に焦点が合う可能性が大きくなってしまう。従って、このように、ユーザがAF枠261の位置を指定した場合、AF領域は、図14Bに示されるように、図14Aに示される場合(ユーザがAF枠261の位置を指定していない場合)のAF領域(108ドット×60ドット)より狭い範囲(30ドット×30ドット)に設定される。
【0103】
このとき、カメラ制御部210は、CPU131より供給されたAF枠261の位置情報に基づいて、AF枠261が囲むAF領域を対象として、TTLコントラスト検出方式によるAF処理を行う。合焦すると、CPU131は、ユーザに通知するために、図14Cに示されるように、EVFエリア221に表示されているAF枠261を所定の時間点滅させる。
【0104】
そして、ユーザが図10のソフトキャプチャボタン227を操作したり、メカキャプチャボタン23を押下(全押し)したりすると、カメラ制御部210は、CPU131より供給されたAF枠261の位置情報に基づいて、AF枠261が囲む領域を対象として、TTLコントラスト検出方式によるオートフォーカス処理を行った後、画像のキャプチャ処理を行う。なお、メカキャプチャボタン23を半分押下する「半押し」した場合は、オートフォーカス処理のみを行う。以上のようにして、ユーザは、被写体がEVFエリア221のどこに位置していても、その被写体に焦点を合わせた画像を容易に得ることができる。
【0105】
AF枠261(AF領域)を初期状態(図14Aに示される状態)に戻したい場合、ユーザは、EVFエリア221上において、ダブルタップを行う。CPU131は、タッチパネル36より供給された、ユーザがダブルタップを行ったことを示す情報に基づいて、表示制御部136を制御して、LCD28に表示されているAF枠261を初期状態に戻し、カメラ制御部210を制御して、AF処理を実行させる。
【0106】
なお、図14Dに示されるように、EVFエリア221に縦方向および横方向の複数のグリッド線を設け、AF枠261の中心の座標は、それらのグリッド線の交点に位置させるようにしてもよい。図14Dにおいては、EVFエリア221には、所定の間隔で、図中縦方向のグリッド線331乃至338、並びに、図中横方向のグリッド線341乃至345が設定されている。ユーザが、EVFエリア221上を1回タップすると、CPU131は、ユーザがタップした位置の位置情報をタッチパネル36より取得し、最も近い位置のグリッド線の交点を算出し、その交点の座標がAF領域の中心となるようにAF枠261を移動させ、カメラ制御部210にAF処理を実行させる。
【0107】
このようにすることにより、AF枠261の位置をある程度限定することが出来るので、ユーザは、より正確に同じ位置にAF枠261を移動させることができるようになる。
【0108】
図14Dに示される例においては、EVFエリア221に、8本の図中縦方向のグリッド線と5本の図中横方向のグリッド線を設けるように説明したが、EVFエリア221に設けるグリッド線の本数は何本であってもよい。また、各グリッド線の間隔は、一定であってもよいし、グリッド線毎に異なるようにしてもよい。さらに、各グリッド線は、LCD28に表示しないようにしてもよい。
【0109】
なお、以上において、EVFエリア221のサイズは、320ドット×240ドットであり、初期状態のAF領域(AF枠261)のサイズは、108ドット×60ドットであり、ユーザがAF領域(AF枠261)の位置を指定した場合のAF領域(AF枠261)のサイズは、30ドット×30ドットであるように説明したが、これらのサイズは、これに限るものではなく、どのようなサイズであってもよい。
【0110】
また、AF領域の範囲を示すAF枠261は、通常時、LCD28に表示されないようにし、AF処理が行われた後の合焦を示す際に、図14Cに示されるように、設定された位置で所定の時間点滅するようにしてもよい。
【0111】
さらに、合焦の通知は、図14Cに示されるようなAF枠261の点滅によって行われるように説明したが、これに限らず、例えば、図11のAF・AEロックインジケータ254のような別のインジケータによって行われるようにしてもよい。
【0112】
ワンショットAFモードは、常時AFモードと同様に、AF領域内の被写体に対して、カメラ部22がTTLコントラスト検出方式によりAF処理を行うモードである。ワンショットAFモードにおいても、図14Aに示されるように、EVFエリア221には、AF領域の範囲を示すAF枠261が表示され、そのAF領域(AF枠261)の位置は、撮影画枠内においてユーザにより任意に決定される。
【0113】
ただし、ワンショットAFモードにおいて、AF処理は、ユーザがAF領域を移動させた時にのみ行われ、ユーザがメイン画面220のソフトキャプチャボタン227上をタップした時、または、ユーザが図1のメカキャプチャボタン23を「半押し」した時には実行されない。すなわち、ワンショットAFモードにおいては、ユーザがメカキャプチャボタン23およびソフトキャプチャボタン227のいずれを操作しても、キャプチャ処理の指示のみが入力されるだけで、AF等の調整処理の指示は入力されないように、CPU131は各部を制御する。
【0114】
AF枠261のサイズや位置等の構成および動作、またはAF枠261の制御方法等は上述した常時AFモードと同様であるので、その説明は省略する。
【0115】
従来においては、AF処理後の焦点距離を固定したまま撮影する、いわゆる「置きピン」の撮影をする場合、ユーザは、シャッタボタンを半押ししてAF処理を行った後、その半押しの状態を維持し、撮影タイミングになった時に、その状態からシャッタボタンを全押ししてキャプチャを指示するなど、煩雑な作業が必要であったが、以上のようなワンショットAFモードにすることで、キャプチャ直前のAF処理を省略することができるので、ユーザは、容易に、「置きピン」の撮影を行うことができる。
【0116】
次に、上述した常時AFモードにおける撮影に関する処理について、具体的に説明する。
【0117】
ユーザがPDA1を操作して、静止画撮影モードを指示すると、PDA1は、静止画撮影モードに移行し、撮像処理を開始する。図15のフローチャートを参照して、撮像処理を説明する。
【0118】
最初に、PDA1のCPU131は、カメラ部22のカメラ制御部210を制御して、カメラ部22を起動し、カメラ部22の初期化処理を行い、ステップS2において、RAM133や記憶部139等に記憶されているカメラ部22に関する設定情報を読み込み、読み込んだ設定情報をカメラ部22のカメラ制御部210に供給し、カメラ部22の設定処理を行う。さらにCPU131は、ステップS3において、表示制御部136を制御して、図10に示されるメイン画面220のような静止画撮影モード用のGUIをLCD28に表示させる。
【0119】
ステップS4において、カメラ部22のDSP206は、レンズ部201より入射され、CCD202において取り込まれた取り込み画像のデータを表示制御部136に供給し、表示制御部136は、その取り込み画像をLCD28に表示させる。
【0120】
ステップS5において、CPU131は、タッチパネル36や入力部137の各ボタンを制御して、ユーザより設定に関する新たな入力が行われ、現在の設定が変更されたか否かを判定する。設定が変更されたと判定した場合、CPU131は、その新たな設定をRAM133や記憶部139等に保存し、処理をステップS7に進める。
【0121】
ステップS5において、設定が変更されていないと判定した場合、CPU131は、ステップS6の処理を省略し、ステップS7に処理を進める。
【0122】
ステップS7において、CPU131は、タッチパネル36や入力部137を監視し、ユーザにより静止画像のキャプチャが指示されたか否かを判定する。指示されたと判定した場合、CPU131は、カメラ部22のカメラ制御部210に画像のキャプチャを指示し、カメラ制御部210は、その指示に基づいて、カメラ部22の各部を制御して、静止画像をキャプチャする。
【0123】
そして、DSP206は、キャプチャした画像の画像データを、画像処理を施した後、表示制御部136に供給し、表示制御部136は、ステップS9において、そのキャプチャした画像をGUIのEVFエリア221に合成し、LCD28に表示させる。キャプチャした画像が表示されるとCPU131は、処理をステップS10に進める。
【0124】
また、ステップS7において、キャプチャが指示されていないと判定した場合、CPU131は、ステップS8およびS9の処理を省略し、ステップS10に処理を進める。
【0125】
ステップS10において、CPU131は、静止画撮影モードを終了するか否かを判定し、終了すると判定した場合、撮像処理を終了する。
【0126】
また、静止画撮影モードを終了しないと判定した場合、CPU131は、処理をステップS4に戻し、それ以降の処理を繰り返す。
【0127】
以上のようにして、PDA1は、静止画撮影モードにおいて撮像処理を実行する。
【0128】
次に、図16および図17のフローチャートを参照して、常時AFモードにおけるAF処理である常時AF処理について説明する。図14Aを参照して上述したように、常時AFモードの初期状態(ユーザがAF枠261の位置を指定していない状態)において、EVFエリア221には、広めのAF領域の範囲を示す第1のサイズのAF枠261が、その中心がEVFエリア221の中心に位置するように、設けられている。
【0129】
CPU131は、ステップS21において、タッチパネル36を制御し、図14Bに示されるように、ユーザによりAF枠261の位置が指定されたか否かを判定する。ユーザがLCD28のEVFエリア221上を1回タップすると、タッチパネル36は、それを検出し、CPU131にその位置情報を供給する。
【0130】
タッチパネル36よりタップされた位置の位置情報が供給され、AF枠261の位置が指定されたと判定した場合、CPU131は、ステップS22に処理を進め、供給された位置情報に基づいて、第1のサイズより小さい第2のサイズのAF枠を指定された位置に配置する。
【0131】
そして、CPU131は、ステップS23において、AF枠261の位置情報をカメラ部22のカメラ制御部210に供給する。カメラ制御部210は、その位置情報に基づいて、配置されたAF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整する。
【0132】
そして、フォーカス調整処理により合焦すると、CPU131は、処理をステップS24に進め、AF枠の位置、およびフォーカス処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261を所定の時間点滅させる。点滅が終了するとCPU131は、処理をステップS25に進める。
【0133】
ステップS21において、タッチパネル36より位置情報が供給されておらず、AF枠261の位置が指定されていないと判定した場合、CPU131は、ステップS22乃至S24の処理を省略し、ステップS25に処理を進める。
【0134】
ステップS25において、タッチパネル36を制御し、ユーザによりAF枠261の初期化が指示されたか否かを判定する。ユーザがLCD28のEVFエリア221上をダブルタップすると、タッチパネル36は、それを検出し、CPU131にその情報を供給する。
【0135】
タッチパネル36よりダブルタップの情報が供給され、AF枠261の初期化が指示されたと判定した場合、CPU131は、ステップS26に処理を進め、第1のサイズのAF枠を初期の位置に配置する。すなわち、CPU131は、AF領域の中心がEVFエリア221の中心にくるような位置に、AF枠261を配置する。
【0136】
そして、CPU131は、ステップS27において、AF枠261の位置情報をカメラ部22のカメラ制御部210に供給する。カメラ制御部210は、その位置情報に基づいて、配置されたAF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整する。
【0137】
そして、フォーカス調整処理により合焦すると、CPU131は、処理をステップS28に進め、AF枠の位置、およびフォーカス処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261を所定の時間点滅させる。点滅が終了するとCPU131は、処理を図17のステップS29に進める。
【0138】
ステップS25において、ユーザにより、AF枠261の初期化が指示されていないと判定した場合、CPU131は、ステップS26乃至S28の処理を省略し、図17のステップS29に処理を進める。
【0139】
ステップS29において、CPU131は、タッチパネル36および入力部137を監視し、ユーザにより、メカキャプチャボタン23が半押し操作された、若しくは、メイン画面220上のソフトキャプチャボタン227が操作れたかを判定する。
【0140】
メカキャプチャボタン23が半押し操作された、若しくは、メイン画面220上のソフトキャプチャボタン227が操作れたと判定した場合、CPU131は、ステップS30において、AF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整する。
【0141】
そして、フォーカス調整処理により合焦すると、CPU131は、処理をステップS31に進め、AF枠の位置、およびフォーカス処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261を所定の時間点滅させる。点滅が終了するとCPU131は、処理をステップS32に進める。
【0142】
ステップS29において、メカキャプチャボタン23が半押し操作されておらず、かつ、メイン画面220上のソフトキャプチャボタン227が操作れていないと判定した場合、CPU131は、ステップS30およびS31の処理を省略し、ステップS32に処理を進める。
【0143】
ステップS32において、CPU131は、ユーザの指示等に基づいて、フォーカス処理を終了するか否かを判定する。終了しないと判定した場合、CPU131は、処理を図16のステップS21に戻し、それ以降の処理を繰り返す。
【0144】
また、ステップS32において、フォーカス処理を終了すると判定した場合、CPU131は、ステップS33において終了処理を行った後、常時AF処理を終了する。
【0145】
以上のような常時AFモードにより、どのような画像構成であっても、ユーザは、容易に、より好適なAF処理を行った静止画像を得ることができる。
【0146】
次に、図18および図19のフローチャートを参照して、ワンショットAFモードにおけるAF処理であるワンショットAF処理について説明する。上述したように、ワンショットAFモードの初期状態(ユーザがAF枠261の位置を指定していない状態)においても、常時AFモードの場合と同様に、図14Aに示されるように、EVFエリア221には、広めのAF領域の範囲を示す第1のサイズのAF枠261が、その中心がEVFエリア221の中心に位置するように、設けられている。
【0147】
CPU131は、ステップS61において、タッチパネル36を制御し、図14Bに示されるように、ユーザによりAF枠261の位置が指定されたか否かを判定する。ユーザがLCD28のEVFエリア221上を1回タップすると、タッチパネル36は、それを検出し、CPU131にその位置情報を供給する。
【0148】
タッチパネル36よりタップされた位置の位置情報が供給され、AF枠261の位置が指定されたと判定した場合、CPU131は、ステップS62に処理を進め、供給された位置情報に基づいて、第1のサイズより小さい第2のサイズのAF枠を指定された位置に配置する。
【0149】
そして、CPU131は、ステップS63において、AF枠261の位置情報をカメラ部22のカメラ制御部210に供給し、カメラ制御部210は、その位置情報に基づいて、配置されたAF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整する。
【0150】
そして、フォーカス調整処理により合焦すると、CPU131は、処理をステップS64に進め、AF枠の位置、およびフォーカス処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261を所定の時間点滅させる。
【0151】
CPU131は、ステップS65において、合焦した時点で、カメラ制御部210を制御して、レンズ部201のレンズ位置を固定させ、ステップS66において、メカキャプチャボタン23およびソフトキャプチャボタン227の操作による半押し処理を無効にする。
【0152】
すなわち、CPU131は、ユーザがメカキャプチャボタン23を半押し操作してもフォーカスの調整処理が行われないようにし、ユーザがメカキャプチャボタン23を全押し操作した場合、および、ユーザがソフトキャプチャボタン227を操作した場合、フォーカスの調整処理を行わずに、静止画像のキャプチャのみを行うようにする。
【0153】
半押し処理を無効にしたCPU131は、処理を図19のステップS67に進める。
【0154】
図18のステップS61において、タッチパネル36より位置情報が供給されておらず、AF枠261の位置が指定されていないと判定した場合、CPU131は、ステップS62乃至S66の処理を省略し、図19のステップS67に処理を進める。
【0155】
図19のステップS67において、CPU131は、タッチパネル36を制御し、ユーザによりAF枠261の初期化が指示されたか否かを判定する。ユーザがLCD28のEVFエリア221上をダブルタップすると、タッチパネル36は、それを検出し、CPU131にその情報を供給する。
【0156】
タッチパネル36よりダブルタップの情報が供給され、AF枠261の初期化が指示されたと判定した場合、CPU131は、ステップS68に処理を進め、第1のサイズのAF枠を初期の位置に配置する。すなわち、CPU131は、AF領域の中心がEVFエリア221の中心にくるような位置に、AF枠261を配置する。
【0157】
そして、ステップS69において、カメラ制御部210は、配置されたAF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整する。
【0158】
そして、フォーカス調整処理により合焦すると、CPU131は、処理をステップS70に進め、AF枠の位置、およびフォーカス処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261を所定の時間点滅させる。
【0159】
CPU131は、ステップS65およびS66の場合と同様に、ステップS71において、合焦した時点で、カメラ制御部210を制御して、レンズ部201のレンズ位置を固定させ、ステップS72において、メカキャプチャボタン23およびソフトキャプチャボタン227の操作による半押し処理を無効にする。そして、CPU131は、処理をステップS73に進める。
【0160】
ステップS67において、ユーザにより、AF枠261の初期化が指示されていないと判定した場合、CPU131は、ステップS68乃至S72の処理を省略し、ステップS73に処理を進める。
【0161】
ステップS73において、CPU131は、ユーザの指示等に基づいて、フォーカス処理を終了するか否かを判定する。終了しないと判定した場合、CPU131は、処理を図18のステップS61に戻し、それ以降の処理を繰り返す。
【0162】
また、ステップS73において、フォーカス処理を終了すると判定した場合、CPU131は、ステップS74において終了処理を行った後、ワンショットAF処理を終了する。
【0163】
以上のようなワンショットAFモードにより、いわゆる「置きピン」の撮影においても、ユーザは、容易に、より好適なAF処理を行った静止画像を得ることができる。
【0164】
以上においては、AF処理について説明したが、露光調整(AE処理)時に、狭い領域に対して測光処理を行うスポット測光の際に、撮影画枠の中心だけでなく、上述したAF領域のようにユーザがその位置を指定することができるようにしてもよい。
【0165】
ユーザが、図12に示される設定画面301において、アンカーをスポット測光に位置させて指定すると、LCD28には、図12に示される設定画面301に重畳して、図20に示されるような、設定内容選択画面が表示される。
【0166】
図20において、設定画面301の設定一覧表示エリア302の、ユーザが選択した項目スポット測光以外の項目は、暗く表示される。ユーザが選択した項目351の右側には、対応する設定の一覧が表示された設定内容選択画面352が表示され、スポット測光に対応する設定として、「切」および「入」の2つのモードが表示される。現在設定されている「切」には、マークが表示されており、現在選択されている「入」には、アンカーが表示されている。
【0167】
ユーザは、図20に示される設定内容選択画面352に表示されている一覧の中から、「入」の部分をタップしたり、ジョグダイヤル25を回転させてアンカーを移動させ、押下したりすることで、スポット測光モードを指示することができる。
【0168】
通常のAE処理は、図21Aに示されるように、EVFエリア221(撮影画枠)のほぼ全域であるAE領域361を対象として行われる。図20において、ユーザがスポット測光モードを設定すると、AE領域361は、図21Bに示されるように、図21Aの場合より狭くなり、AE領域の中心を示すAE処理は、この狭いAE領域361を対象として行われる。
【0169】
また、スポット測光モード時は、EVFエリア221に、AE領域361の中心を示すスポット測光用ポインタ260が表示される。
【0170】
なお、この初期状態の場合(ユーザがAE領域361の位置を指定していない場合)、AE領域361は、その中心がEVFエリア221(撮影画枠)の中心に位置するように配置される。
【0171】
このとき、ユーザが図10のソフトキャプチャボタン227を操作したり、メカキャプチャボタン23を押下(全押し)したりすると、カメラ制御部210は、このAE領域を対象として、AE処理等の調整処理を行った後、画像のキャプチャ処理を行う。なお、メカキャプチャボタン23を半押しした場合は、AE処理等の調整処理のみを行う。また、AE処理が完了した時点で、スポット測光用ポインタ260が点滅するようにしてもよいし、所定の確認音が鳴るようにしてもよい。
【0172】
これによりユーザは、ソフトキャプチャボタン227またはメカキャプチャボタン23を操作するだけで、撮影画枠の中心付近のみで露光量が調整された画像(例えば、中央の被写体を浮き上がらせるなどの効果を施した画像)を得ることができる。
【0173】
また、このAE枠361の位置は、EVFエリア221内であれば、ユーザが任意に指定することができる。すなわち、ユーザが、図21Cに示されるように、タッチペン35等を用いて、EVFエリア221上を1回タップすると、CPU131は、タッチパネル36より供給された位置情報に基づいて、ユーザがタップした位置がAE領域361の中心となるように、スポット測光用ポインタ260を移動させ、そのAE領域361を対象としたAE処理をカメラ部22に実行させる。
【0174】
AE領域361を初期状態(図21Aに示される状態)に戻したい場合、ユーザは、EVFエリア221上において、ダブルタップを行う。CPU131は、タッチパネル36より供給された、ユーザがダブルタップを行ったことを示す情報に基づいて、AE領域を初期化するとともに、表示制御部136を制御して、LCD28に表示されているスポット測光用ポインタ260を初期状態に戻し、カメラ制御部210を制御して、AE処理を実行させる。
【0175】
なお、図21Dに示されるように、上述した常時AFモードまたはワンショットAFモードにおいて、ユーザがAF枠261を移動させた際に、スポット測光用ポインタ260がAF領域の中心に位置するように、AE領域361も同様に移動させるようにしてもよい。
【0176】
さらに、図示は省略するが、図14Dにの場合と同様に、EVFエリア221に所定の間隔で、複数のグリッド線を設定しておき、ユーザが、EVFエリア221上を1回タップすると、CPU131が、ユーザがタップした位置の位置情報をタッチパネル36より取得し、最も近い位置のグリッド線の交点を算出し、その交点の座標がAE領域361の中心となるようにスポット測光用ポインタ260を移動させ、カメラ制御部210にAE処理を実行させるようにしてもよい。
【0177】
なお、以上において、AE領域361の範囲の広さは、通常時のAE領域361の広さが、スポット測光時の広さよりも広ければ、どのような広さであってもよい。また、AE領域361およびスポット測光用ポインタ260は、EVFエリア221に表示するようにしてもよいし、表示しないようにしてもよい。
【0178】
次に、上述したスポット測光モードにおけるAE処理について、具体的に説明する。ユーザが、図20の設定画面301において、スポット測光項目351で「入」を選択すると、スポット測光モードに移行し、AE領域が、図21Aの状態から、図21Bの状態に変化する。そして、PDA1は、スポットAE処理を開始する。
【0179】
図22および図23のフローチャートを参照して、スポット測光モードにおけるスポットAE処理について説明する。図21Bを参照して上述したように、スポット測光モードの初期状態(ユーザがAE領域361の位置を指定していない状態)において、EVFエリア221には、狭い範囲のAE領域が、その中心がEVFエリア221の中心に位置するように、設定されており、EVFエリア221の中心にスポット測光用ポインタ260が表示されている。
【0180】
CPU131は、ステップS91において、タッチパネル36を制御し、図21Cに示されるように、ユーザによりAE領域の位置が指定されたか否かを判定する。ユーザがLCD28のEVFエリア221上を1回タップすると、タッチパネル36は、それを検出し、CPU131にその位置情報を供給する。
【0181】
タッチパネル36よりタップされた位置の位置情報が供給され、AE領域361の位置が指定されたと判定した場合、CPU131は、ステップS92に処理を進め、供給された位置情報に基づいて、スポット測光用ポインタ260を指定された位置に配置する。すなわち、CPU131は、AE領域361を、ユーザに指定された位置が中心となるように設定する。
【0182】
そして、ステップS93において、カメラ制御部210は、CPU131より供給されたAE領域の位置情報に基づいて、設定されたAE領域361について露出を調整し、AE処理を行う。
【0183】
そして、AE処理が完了すると、CPU131は、処理をステップS94に進め、スポット測光用ポインタ260の位置、およびAE処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているスポット測光用ポインタ260を所定の時間点滅させる。点滅が終了するとCPU131は、処理をステップS95に進める。
【0184】
ステップS91において、タッチパネル36より位置情報が供給されておらず、AE領域361の位置が指定されていないと判定した場合、CPU131は、ステップS92乃至S94の処理を省略し、ステップS95に処理を進める。
【0185】
ステップS95において、タッチパネル36を制御し、ユーザによりAE領域361の初期化が指示されたか否かを判定する。ユーザがLCD28のEVFエリア221上をダブルタップすると、タッチパネル36は、それを検出し、CPU131にその情報を供給する。
【0186】
タッチパネル36よりダブルタップの情報が供給され、AE領域361の初期化が指示されたと判定した場合、CPU131は、ステップS96に処理を進め、スポット測光用ポインタ260を初期の位置に配置する。すなわち、CPU131は、AE領域の中心がEVFエリア221の中心にくるような位置に、スポット測光用ポインタ260を配置する。
【0187】
そして、ステップS97において、カメラ制御部210は、CPU131に供給されたAE領域361の位置情報に基づいて、設定されたAE領域361について露出を調整し、AE処理を行う。
【0188】
そして、AE処理が終了すると、CPU131は、処理をステップS98に進め、スポット測光用ポインタの位置、およびAE処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているスポット測光用ポインタ260を所定の時間点滅させる。点滅が終了するとCPU131は、処理を図23のステップS99に進める。
【0189】
ステップS95において、ユーザにより、AE領域361の初期化が指示されていないと判定した場合、CPU131は、ステップS96乃至S98の処理を省略し、図23のステップS99に処理を進める。
【0190】
図23のステップS99において、CPU131は、タッチパネル36および入力部137を監視し、ユーザにより、メカキャプチャボタン23が半押し操作された、若しくは、メイン画面220上のソフトキャプチャボタン227が操作れたかを判定する。
【0191】
メカキャプチャボタン23が半押し操作された、若しくは、メイン画面220上のソフトキャプチャボタン227が操作れたと判定した場合、CPU131は、ステップS100において、AE領域361について、AE処理を実行する。
【0192】
そして、AE処理が終了すると、CPU131は、処理をステップS101に進め、スポット測光用ポインタ260の位置、およびAE処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているスポット測光用ポインタ260を所定の時間点滅させる。点滅が終了するとCPU131は、処理をステップS102に進める。
【0193】
ステップS99において、メカキャプチャボタン23が半押し操作されておらず、かつ、メイン画面220上のソフトキャプチャボタン227が操作れていないと判定した場合、CPU131は、ステップS100およびS101の処理を省略し、ステップS102に処理を進める。
【0194】
ステップS102において、CPU131は、ユーザの指示等に基づいて、スポットAE処理を終了するか否かを判定する。終了しないと判定した場合、CPU131は、処理を図22のステップS91に戻し、それ以降の処理を繰り返す。
【0195】
また、ステップS102において、スポットAE処理を終了すると判定した場合、CPU131は、ステップS103において終了処理を行った後、スポットAE処理を終了する。
【0196】
以上のようなスポット測光モードにより、ユーザは、容易に、撮影画枠内の任意の位置を対象とするスポットAE処理を行った静止画像を得ることができる。
【0197】
次に、図21Dに示されるように、スポット測光用ポインタ260を、常にAE枠261の中心に位置させるように配置する場合のAF処理およびAE処理について説明する。
【0198】
最初に、上述した場合の、常時AFモードにおいて実行される常時AF処理について、図24および図25のフローチャートを参照して説明する。この場合も、上述した常時AFモードの場合と同様に、初期状態(ユーザがAF枠261の位置を指定していない状態)において、EVFエリア221には、広めのAF領域の範囲を示す第1のサイズのAF枠261が、その中心がEVFエリア221の中心に位置するように配置されている。また、スポット測光モードである場合、図21Bに示されるように、EVFエリア221の中心にスポット測光用ポインタ260が配置されている。
【0199】
CPU131は、ステップS121において、タッチパネル36を制御し、図21Dに示されるように、ユーザによりAF枠261の位置が指定されたか否かを判定する。ユーザがLCD28のEVFエリア221上を1回タップすると、タッチパネル36は、それを検出し、CPU131にその位置情報を供給する。
【0200】
タッチパネル36よりタップされた位置の位置情報が供給され、AF枠261の位置が指定されたと判定した場合、CPU131は、ステップS122に処理を進め、供給された位置情報に基づいて、第1のサイズより小さい第2のサイズのAF枠を指定された位置に配置する。
【0201】
そして、ステップS123において、CPU131は、AEのモードがスポット測光モードであるか否かを判定し、スポット測光モードであると判定した場合、ステップS124において、AE領域361の中心がAF領域の中心と同じ位置になるように、スポット測光用ポインタ260を配置する。スポット測光用ポインタ260を配置したCPU131は、処理をステップS125に進める。
【0202】
また、ステップS123において、スポット測光モードではないと判定した場合、CPU131は、ステップS124の処理を省略し、ステップS125に処理を進める。
【0203】
ステップS125において、カメラ制御部210は、CPU131より供給されたAF領域およびAE領域361の位置情報に基づいて、配置されたAF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整するとともに、配置されたAE領域361を対象として露出を調整する。
【0204】
そして、フォーカス調整および露出調整が終了すると、CPU131は、処理をステップS126に進め、AF枠261およびスポット測光用ポインタ260の位置、並びに調整処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261およびスポット測光用ポインタ260を所定の時間点滅させる。点滅が終了するとCPU131は、処理をステップS127に進める。
【0205】
ステップS121において、タッチパネル36より位置情報が供給されておらず、AF枠261の位置が指定されていないと判定した場合、CPU131は、ステップS122乃至S126の処理を省略し、ステップS127に処理を進める。
【0206】
ステップS127において、CPU131は、タッチパネル36を制御し、ユーザによりAF枠261の初期化が指示されたか否かを判定する。ユーザがLCD28のEVFエリア221上をダブルタップすると、タッチパネル36は、それを検出し、CPU131にその情報を供給する。
【0207】
タッチパネル36よりダブルタップの情報が供給され、AF枠261の初期化が指示されたと判定した場合、CPU131は、ステップS128に処理を進め、第1のサイズのAF枠261を初期の位置に配置する。
【0208】
そして、CPU131は、ステップS129において、AEのモードがスポット測光モードであるか否かを判定し、スポット測光モードであると判定した場合、ステップS130において、AE領域361の中心がAF領域の中心と同じ位置になるように、スポット測光用ポインタ260を配置する。スポット測光用ポインタ260を配置したCPU131は、処理をステップS131に進める。
【0209】
また、ステップS129において、スポット測光モードではないと判定した場合、CPU131は、ステップS130の処理を省略し、ステップS131に処理を進める。
【0210】
ステップS131において、カメラ制御部210は、CPU131より供給されたAF枠261およびスポット測光用ポインタ260の位置情報に基づいて、配置されたAF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整するとともに、AE領域361を対象とした露出の調整を行う。
【0211】
そして、それらの調整処理が終了すると、CPU131は、処理をステップS132に進め、AF枠261およびスポット測光用ポインタ260の位置、並びに調整処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261およびスポット測光用ポインタ260を所定の時間点滅させる。点滅が終了するとCPU131は、処理を図25のステップS133に進める。
【0212】
ステップS127において、ユーザにより、AF枠261の初期化が指示されていないと判定した場合、CPU131は、ステップS128乃至S132の処理を省略し、図25のステップS133に処理を進める。
【0213】
図25のステップS133において、CPU131は、タッチパネル36および入力部137を監視し、ユーザにより、メカキャプチャボタン23が半押し操作された、若しくは、メイン画面220上のソフトキャプチャボタン227が操作れたかを判定する。
【0214】
メカキャプチャボタン23が半押し操作された、若しくは、メイン画面220上のソフトキャプチャボタン227が操作れたと判定した場合、CPU131は、ステップS134において、AF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整するとともに、AE領域361を対象とした露出の調整を行う。
【0215】
そして、調整処理が終了すると、CPU131は、処理をステップS135に進め、AF枠261およびスポット測光用ポインタ260の位置、並びに調整処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261およびスポット測光用ポインタ260を所定の時間点滅させる。点滅が終了するとCPU131は、処理をステップS136に進める。
【0216】
ステップS133において、メカキャプチャボタン23が半押し操作されておらず、かつ、メイン画面220上のソフトキャプチャボタン227が操作れていないと判定した場合、CPU131は、ステップS134およびS135の処理を省略し、ステップS136に処理を進める。
【0217】
ステップS136において、CPU131は、ユーザの指示等に基づいて、フォーカス処理を終了するか否かを判定する。終了しないと判定した場合、CPU131は、処理を図24のステップS121に戻し、それ以降の処理を繰り返す。
【0218】
また、ステップS136において、フォーカス処理を終了すると判定した場合、CPU131は、ステップS137において終了処理を行った後、常時AF処理を終了する。
【0219】
以上のような常時AFモードにより、どのような画像構成であっても、ユーザは、容易に、より好適なAF処理、および、より効果的なAE処理を行った静止画像を得ることができる。
【0220】
次に、図26および図27のフローチャートを参照して、上述したような場合の、ワンショットAFモードにおけるAF処理であるワンショットAF処理について説明する。上述したように、ワンショットAFモードの初期状態(ユーザがAF枠261の位置を指定していない状態)においても、常時AFモードの場合と同様に、図21Bに示されるように、EVFエリア221には、広めのAF領域の範囲を示す第1のサイズのAF枠261が、その中心がEVFエリア221の中心に位置するように、設けられている。また、スポット測光モードである場合、図21Bに示されるように、EVFエリア221の中心にスポット測光用ポインタ260が配置されている。
【0221】
CPU131は、ステップS151において、タッチパネル36を制御し、図21Dに示されるように、ユーザによりAF枠261の位置が指定されたか否かを判定する。ユーザがLCD28のEVFエリア221上を1回タップすると、タッチパネル36は、それを検出し、CPU131にその位置情報を供給する。
【0222】
タッチパネル36よりタップされた位置の位置情報が供給され、AF枠261の位置が指定されたと判定した場合、CPU131は、ステップS152に処理を進め、供給された位置情報に基づいて、第1のサイズより小さい第2のサイズのAF枠を指定された位置に配置する。
【0223】
ステップS153において、CPU131は、AEのモードがスポット測光モードであるか否かを判定し、スポット測光モードであると判定した場合、ステップS154において、AE領域361の中心がAF領域の中心と同じ位置になるように、スポット測光用ポインタ260を配置する。スポット測光用ポインタ260を配置したCPU131は、処理をステップS155に進める。
【0224】
また、ステップS153において、スポット測光モードではないと判定した場合、CPU131は、ステップS154の処理を省略し、ステップS155に処理を進める。
【0225】
ステップS155において、CPU133は、AF枠261の位置情報をカメラ部22のカメラ制御部210に供給し、カメラ制御部210は、その位置情報に基づいて、配置されたAF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整するとともに、AE領域361を対象としてAE処理を行い、露出の調整を行う。
【0226】
そして、調整処理が終了すると、CPU131は、処理をステップS156に進め、AF枠261およびスポット測光用ポインタ260の位置、および調整処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261およびスポット測光用ポインタ260を所定の時間点滅させる。
【0227】
CPU131は、ステップS157において、調整処理が終了した時点で、カメラ制御部210を制御して、レンズ部201の絞りおよびレンズ位置を固定させ、露出およびフォーカスを固定する。さらにCPU131は、ステップS158において、メカキャプチャボタン23およびソフトキャプチャボタン227の操作による半押し処理を無効にする。
【0228】
半押し処理を無効にしたCPU131は、処理を図27のステップS159に進める。
【0229】
図26のステップS151において、タッチパネル36より位置情報が供給されておらず、AF枠261の位置が指定されていないと判定した場合、CPU131は、ステップS152乃至S158の処理を省略し、図27のステップS159に処理を進める。
【0230】
図27のステップS159において、CPU131は、タッチパネル36を制御し、ユーザによりAF枠261の初期化が指示されたか否かを判定する。ユーザがLCD28のEVFエリア221上をダブルタップすると、タッチパネル36は、それを検出し、CPU131にその情報を供給する。
【0231】
タッチパネル36よりダブルタップの情報が供給され、AF枠261の初期化が指示されたと判定した場合、CPU131は、ステップS160に処理を進め、第1のサイズのAF枠を初期の位置に配置する。
【0232】
CPU131は、ステップS161において、AEのモードがスポット測光モードであるか否かを判定し、スポット測光モードであると判定した場合、ステップS162において、AE領域361の中心がAF領域の中心と同じ位置になるように、スポット測光用ポインタ260を配置する。スポット測光用ポインタ260を配置したCPU131は、処理をステップS163に進める。
【0233】
また、ステップS161において、スポット測光モードではないと判定した場合、CPU131は、ステップS162の処理を省略し、ステップS163に処理を進める。
【0234】
そして、ステップS163において、カメラ制御部210は、配置されたAF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整するとともに、AE領域361を対象としてAE処理を行い、露出を調整する。
【0235】
調整処理が終了すると、CPU131は、処理をステップS164に進め、AF枠261およびスポット測光用ポインタ260の位置、および調整処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261およびスポット測光用ポインタ260を所定の時間点滅させる。
【0236】
CPU131は、ステップS157およびS158の場合と同様に、ステップS165において、調整処理が終了した時点で、カメラ制御部210を制御して、レンズ部201の絞りおよびレンズ位置を固定させ、露出およびフォーカス位置を固定し、ステップS166において、メカキャプチャボタン23およびソフトキャプチャボタン227の操作による半押し処理を無効にする。そして、CPU131は、処理をステップS167に進める。
【0237】
ステップS159において、ユーザにより、AF枠261の初期化が指示されていないと判定した場合、CPU131は、ステップS160乃至S166の処理を省略し、ステップS167に処理を進める。
【0238】
ステップS167において、CPU131は、ユーザの指示等に基づいて、フォーカス処理を終了するか否かを判定する。終了しないと判定した場合、CPU131は、処理を図26のステップS151に戻し、それ以降の処理を繰り返す。
【0239】
また、ステップS167において、フォーカス処理を終了すると判定した場合、CPU131は、ステップS168において終了処理を行った後、ワンショットAF処理を終了する。
【0240】
以上のようなワンショットAFモードにより、いわゆる「置きピン」の撮影においても、ユーザは、容易に、より好適なAF処理、および、より効果的なAE処理を行った静止画像を得ることができる。
【0241】
以上において、AF処理は、TTLコントラスト検出方式を用いて行うように説明したが、AF処理の方法はこれ以外であってもよく、例えば、赤外線や超音波を出力することにより被写体までの距離を測定する各種のアクティブ方式や、撮影レンズを通った光を二つに分け、そのズレの量と方向を検出してピント位置を検出するTTL位相差検出方式等であってもよい。
【0242】
また、AF処理およびAE処理等の調整処理の終了を、AF枠261およびスポット測光用ポインタ260を点滅させることでユーザに通知するように説明したが、これに限らず、他のインジケータを用いるようにしてもよいし、確認音を出力するようにしてもよいし、さらに、複数の方法を組み合わせるようにしてもよい。
【0243】
さらに、確認音は、例えば、フォーカスモードが切り替えられた時や静止画像がキャプチャされた時などのように、その他の処理が行われる毎に出力されるようにしてもよい。その際、確認音が対応する処理によって確認音の内容を変更するようにしてもよい。
【0244】
なお、ユーザによるAF領域やAE領域の位置の指定は、各領域の中心であるように説明したが、これに限らず、例えば、領域の右上端の座標等、領域のどの位置を指定するようにしてもよい。さらに、ユーザが指定した座標が領域の外に位置するように、AF領域やAE領域を移動するようにしてもよい。
【0245】
また、ユーザによるAF領域やAE領域の位置の指定は、ユーザがEVFエリア221上をダブルタップした場合に、初期化されるように説明したが、これに限らず、ユーザが、所定の時間より長時間EVFエリア221上をタップした場合に初期化されるようにしてもよいし、静止画像がキャプチャされた場合に初期化されるようにしてもよいし、これらのうち、いずれかの場合に初期化されるようにしてもよい。
【0246】
以上においては、撮像機能付きPDAを用いて説明したが、これに限らず、例えば、デジタルスチルカメラや撮像機能を有する携帯型電話機等のように、AF機能およびAE機能を含む撮像機能を備え、さらに、得られた画像を表示するディスプレイを備える電子機器であれば何でもよい。
【0247】
従って、上述した例のように、ディスプレイにタッチパネルが重畳されていなくても、例えば、十字キー等のような、AF枠261やスポット測光用ポインタの位置を自在に移動させることのできる入力部を備えた電子機器であればよいが、特に、ディスプレイにタッチパネルが重畳された、撮像機能を有するPDAやノート型パーソナルコンピュータ等の場合、AF枠261やスポット測光用ポインタの操作をより容易に行うことができる。
【0248】
また、以上においては、カメラ22やLCD28等は、1台のPDAとして構成されるように説明したが、これに限らず、上述したPDA1の各部が別体で構成されるようにしてもよい。
【0249】
また、上述した例においては、スロット64に装着されるメモリは、メモリカード143であったが、スロット64が対応できる記録媒体であれば限定されない。例えば、図示はしないが、その他の半導体メモリ、磁気ディスク、光ディスク、または光磁気ディスク等でもよい。
【0250】
なお、以上の処理は、ハードウェアにより実行することができるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムがPDA1に、ネットワークや記録媒体からインストールされる。ただし、記録媒体は、PDA1に直接装着される場合のみならず、必要に応じて他の装置に装着される場合もある。この場合、他の装置とPDA1が相互に通信を行うことで、プログラムがPDA1にインストールされる。
【0251】
この記録媒体は、図8に示されるように、装置本体とは別に、ユーザにプログラムを供給するために配布される、プログラムが記憶されているメモリスティック143といった半導体メモリのみならず、図示はしないが、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read only Memory),DVD(Digital Versatile Disk)を含む)、もしくは光磁気ディスク(MD(Mini-Disk)を含む)などよりなるパッケージメディアにより構成されることができる。さらに、装置本体に予め組み込まれた状態でユーザに供給される、プログラムが記憶されているROM132や、EEPROMやハードディスクとしての記憶部139などで構成される。
【0252】
なお、以上においては、各フローチャートに示される処理は、図8のCPU131がソフトウェアにより実行するようにしたが、各処理を実行するハードウェアを用意するようにして、ハードウェアにより実行されるようにすることも、もちろん可能である。
【0253】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0254】
【発明の効果】
以上のように、本発明によれば、被写体を撮像することができる。特に、より好適な自動合焦を行うことができる。
【図面の簡単な説明】
【図1】本発明を適用したPDAの正面の構成例を表す外観図である。
【図2】図1のPDAの裏面の構成例を表す外観図である。
【図3】図1のPDAの表示部の回動および開閉操作を説明する斜視図である。
【図4】図1のPDAの表示部の回動および開閉操作を説明する斜視図である。
【図5】図1のPDAの表示部の回動および開閉操作を説明する斜視図である。
【図6】図1のPDAの使用状態を示す図である。
【図7】図1のPDAの使用状態を示す図である。
【図8】図1のPDAの内部の構成例を示すブロック図である。
【図9】図24のPDAのカメラ部の内部の構成例を示すブロック図である。
【図10】静止画撮影モード時のメイン画面の様子を示す模式図である。
【図11】図10のEVFエリアの表示例を示す模式図である。
【図12】設定画面の構成例を示す模式図である。
【図13】設定画面の他の構成例を示す模式図である。
【図14】AF枠の表示例を示す模式図である。
【図15】図1のPDAの撮像処理を説明するフローチャートである。
【図16】図1のPDAの常時AF処理について説明するフローチャートである。
【図17】図1のPDAの常時AF処理について説明する、図16に続くフローチャートである。
【図18】図1のPDAのワンショットAF処理について説明するフローチャートである。
【図19】図1のPDAのワンショットAF処理について説明する、図18に続くフローチャートである。
【図20】設定画面の、さらに他の構成例を示す模式図である。
【図21】スポット測光用ポインタの表示例を示す模式図である。
【図22】図1のPDAのスポットAE処理について説明するフローチャートである。
【図23】図1のPDAのスポットAE処理について説明する、図22に続くフローチャートである。
【図24】図1のPDAの常時AF処理の他の例について説明するフローチャートである。
【図25】図1のPDAの常時AF処理の他の例について説明する、図24に続くフローチャートである。
【図26】図1のPDAのワンショットAF処理の他の例について説明するフローチャートである。
【図27】図1のPDAのワンショットAF処理の他の例について説明する、図26に続くフローチャートである。
【符号の説明】
22 カメラ, 23 メカキャプチャボタン, 28 LCD, 131 CPU, 136 表示制御部, 201 レンズ部, 202 CCD, 210 カメラ制御部, 211 レンズ部駆動回路, 221 EVFエリア, 227 ソフトキャプチャボタン, 260 スポット測光用ポインタ, 261 AF枠, 361 AE領域
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging apparatus, a method, and a program, and more particularly, to an imaging apparatus, a method, and a program capable of performing more suitable automatic focusing.
[0002]
[Prior art]
2. Description of the Related Art In recent years, small electronic devices having an imaging function represented by a digital still camera, a PDA (Personal Digital Assistants) having an imaging function, and the like have become widespread, and the functions of these imaging functions have been advanced.
[0003]
For example, these imaging devices usually include a display such as an LCD (Liquid Crystal Display), and can display an image captured through a lens. The user can view the displayed image by viewing the displayed image. The subject can be imaged while checking the composition.
[0004]
In addition, by superimposing the touch panel on the display, the user can not only check the composition, but also operate the touch panel superimposed on the display to provide an automatic focusing function (hereinafter referred to as AF (Auto Focus)). There is also an imaging apparatus that can adjust an automatic exposure function (hereinafter, referred to as AE (Auto Exposure)) and the like.
[0005]
For example, when the user indicates on the display the subject of the captured image displayed on the display provided on the digital still camera, the digital still camera detects the position by a touch panel superimposed on the display, and Focus on the subject at the position indicated by (for example, see Patent Document 1).
[0006]
[Patent Document 1]
JP-A-11-355617 (page 5-7, FIG. 5-7)
[0007]
[Problems to be solved by the invention]
When the user does not specify the position to focus, AF targets an area near the center in the range of an image to be converted into a video signal by the image sensor (hereinafter, referred to as a shooting image frame), In this case, since the size of the subject or the like cannot be specified, it is desirable to increase the size of the subject to a certain extent in order to suppress the hollow area in which the subject of AF deviates from the subject desired by the user.
[0008]
Also, when the user designates a position to be focused, the user usually designates a subject desired by himself or a specific portion of the subject, so that other subjects (positions not desired by the user) are not focused. As described above, it is desirable that the area to be subjected to AF is narrower than the case where the focus position is not specified.
[0009]
However, in the above-described method, there is a problem that only the position of the area to be subjected to AF can be controlled, and there is a case where focusing is performed at a position not desired by the user.
[0010]
The present invention has been made in view of such a situation, and is intended to perform more suitable automatic focusing.
[0011]
[Means for Solving the Problems]
The imaging apparatus of the present invention captures a subject, captures a moving image and a still image of the subject, adjusts a focal length, and adjusts a subject included in a predetermined first area within an imaging range of the imaging unit. Focusing means for focusing; receiving means for receiving a designation of the position of the first area in the imaging range, which is input by the user; and, based on the designation received by the receiving means, the first area is defined by the imaging range. And a range setting means for setting a range of the first area in accordance with the position set by the position setting means.
[0012]
The position setting means may set the position of the first area such that the center of the first area is located at the center of the imaging range when the specification is not received by the receiving means.
[0013]
The position setting means may set the position of the first area such that the center of the first area is located at the coordinates specified by the user when the specification is received by the receiving means. .
[0014]
The range setting means sets the range of the first area so that, when the specification is received by the receiving means, the range is smaller than the range of the first area when the specification is not received. Can be.
[0015]
The image capturing apparatus further includes a display unit that displays a moving image obtained by capturing an image of a subject, and the receiving unit is configured by a touch panel superimposed on the display unit, and a user displays the moving image displayed by the display unit. The coordinates input by the first method can be detected while checking, and the coordinates can be received as specified.
[0016]
The first method may be a method in which a user taps a touch panel once.
[0017]
The apparatus further includes initialization means for initializing the setting of the first area and returning the setting from a state in which the specification has been received by the receiving means to a setting in a state in which the specification has not been received. An instruction for initializing the setting of the first area input by the method 2 is further received, and the initializing means initializes the setting of the first area based on the instruction received by the receiving means. can do.
[0018]
The second method may be a method in which a user taps the touch panel twice within a predetermined time.
[0019]
The second method may be a method of tapping a touch panel so that a user touches the touch panel for a predetermined time or more.
[0020]
When the focusing unit focuses on a subject included in the first region, the display unit may blink the outer frame of the first region by a predetermined number of times so as to be superimposed on a moving image. .
[0021]
The focusing unit may adjust the focal length to focus on the subject when the imaging unit captures a still image and when the position setting unit sets the position of the first area.
[0022]
When the focusing unit focuses on a subject included in the first area, the imaging unit may further include a prohibition unit that prohibits an adjustment process by the focusing unit when capturing a still image. .
[0023]
The image processing apparatus further includes an exposure adjustment unit that adjusts exposure for a predetermined second area in the imaging range, wherein the position setting unit captures the center of the second area based on a specification received by the reception unit. The position of the second region can be further set so as to be located at the center of the first region set at an arbitrary position within the range.
[0024]
An image capturing method according to the present invention includes a capturing control step of controlling capturing of a moving image and a still image of a subject captured by an image capturing unit, and adjusting a focal length of the image capturing unit so that a predetermined first image within an image capturing range of the image capturing unit is obtained. A focusing step of focusing on a subject included in the area, a reception control step of controlling reception of a specification of a position of the first area in the imaging range, which is input by the user, and control by the processing of the reception control step. Then, based on the received specification, a position setting step of setting the first area to an arbitrary position within the imaging range, and a position of the first area according to the position set by the processing of the position setting step. And a range setting step of setting a range.
[0025]
A program according to the present invention includes a capture control step of controlling capture of a moving image and a still image of a subject captured by an image capturing unit, a focal length of the image capturing unit, and a predetermined first image in an image capturing range of the image capturing unit. A focusing step of focusing on a subject included in the area, a receiving control step of controlling reception of a specification of a position of the first area in the imaging range, which is input by a user, and a receiving control step. A position setting step of setting the first area to an arbitrary position within the imaging range based on the received specification, and a range of the first area according to the position set by the processing of the position setting step. And setting a range setting step of setting a value to a computer.
[0026]
In the imaging apparatus, the method, and the program according to the present invention, a subject is imaged, a moving image and a still image of the subject are captured, the focal length is adjusted, and the subject included in a predetermined first area within the imaging range is detected. The specification of the position of the first area in the imaging range, which is focused and input by the user, is received, and based on the specification, the first area is set to an arbitrary position in the imaging range, and The range of the first region is set according to the position.
[0027]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a diagram illustrating a configuration example of the front of a PDA to which the present invention is applied.
[0028]
As shown in FIG. 1, the PDA 1 is divided into a display section 11 and a main body section 13 with a center hinge section 12 as a boundary, and is formed to be foldable via the hinge section 12.
[0029]
In other words, as shown in FIG. 3 to be described later, the display unit 11 is rotatable about a shaft 12-1 (virtual one) so as to be freely opened and closed with respect to the main body unit 13. Further, the display unit 11 is rotatable with respect to the main unit 13 about an axis 11-6 (virtual) substantially perpendicular to the axis 12-1. That is, the display unit 11 is rotated in parallel with a surface 11-3 facing the hinge unit 12 (a lower surface in FIG. 3 perpendicular to the surface 11-1 on which the LCD 28 is provided). I have.
[0030]
Returning to FIG. 1, an LCD (Liquid Crystal Display) 28 and a transparent pressure-sensitive touch panel 36 laminated on the surface of the LCD 28 are provided on almost the entire surface 11-1 of the display unit 11. That is, when the touch pen 35 is placed at an arbitrary position on the LCD 28, the coordinates are detected by the touch panel 36, and a predetermined process corresponding to the detected coordinates is performed.
[0031]
Further, a character input area 29 for inputting a character is provided in a predetermined area of the touch panel 36 (an area below the LCD 28 in the figure). The character input area 29 includes various soft buttons and character input. An area or the like is displayed. When the user operates the touch pen 35 and writes those special characters on the character input area, the special characters are input. That is, the trajectory of the movement of the touch pen 35 is detected by the touch panel 36, and a character corresponding to the trajectory is input.
[0032]
Further, when the user operates the touch pen 35 and presses the soft button 43, the character input area 29 displays a soft keyboard which is a GUI (Graphical User Interface) displaying a keyboard key arrangement. When the user operates the touch pen 35 and presses an arbitrary key on the soft keyboard, a character (or a symbol or the like) corresponding to the pressed key is input. That is, the coordinates at which the touch pen 35 is arranged are detected by the touch panel 36, a key corresponding to the coordinates is recognized, and a character (or a symbol or the like) assigned to the recognized key is input.
[0033]
In this way, the user can easily and quickly input characters using the touch pen 35 and the character input area 29 as software. Since the touch panel 36 is laminated on the entire display surface of the LCD 28, the position of the character input area 29 with respect to the LCD 28 is not limited to the position shown in FIG. When the image is inverted upside down and left and right, the character input area 29 is arranged above in FIG. 1 and displayed upside down. Even in such a case, the user can input characters as in the example described above.
[0034]
A power button 31 for turning on or off the power of the PDA 1 is provided on the hinge 12 on the right side in the figure, and a battery (not shown) built in the PDA 1 is on the left side when the battery (not shown) is being charged. Is turned on, and an LED (Light Emitting Diode) 30 is turned off when charging is completed. Further, a camera unit 22 composed of a CCD (Charge Coupled Device) is provided on the left side, and a camera unit 22 captures an image of a subject at the left end. A mechanical capture button 23 that is operated at each time is provided. The camera section 22 is fixed to a portion of the hinge section 12 that rotates with the display section 11 with respect to the main body section 13. As described later, the user opens and closes the display section 11 with respect to the main body section 13. Thereby, the camera unit 22 can be rotated.
[0035]
That is, when capturing an image of a subject, the user presses the mechanical capture button 23 once, and application software having a camera function (a function of capturing the subject by the camera unit 22 and recording the captured image of the subject). Is started, and the display unit 11 is rotated so that the imaging direction of the camera unit 22 is directed to the subject. At this time, an image (image of a subject) captured by the camera unit 22 is displayed on the LCD 28, as described later. Therefore, the user determines the position of the camera unit 22 while checking the LCD 28, and furthermore, After performing various setting processes, the mechanical capture button 23 that operates as a shutter button is pressed again. As a result, the image captured by the camera unit 22 at the time when the mechanical capture button 23 is pressed is stored in the memory of the PDA 1 (such as a RAM 133 in FIG. 8 described later).
[0036]
Note that the mechanical capture button 23 can be depressed in two ways: "full press" to depress the end of the stroke, and "half press" to depress to a predetermined position in the middle of the stroke. For example, when the user “half-presses” the mechanical capture button 23, the PDA 1 performs AF processing, AE processing, and the like on an image captured by the camera unit 22, and from that state, the user “full-presses” the mechanical capture button 23. Then, the PDA 1 captures the image captured by the camera unit 22. As described above, the corresponding processing can be changed by the method (depth) of pressing the mechanical capture button 23.
[0037]
When the user presses “fully press” from a state in which the user does not press the mechanical capture button 23, the PDA 1 performs a process corresponding to “half press” and then performs a process corresponding to “full press”. That is, in the case described above, when the user presses “fully”, the PDA 1 performs AF processing, AE processing, and the like on an image captured by the camera unit 22, and then captures an image captured by the camera unit 22.
[0038]
On the surface 13-1 facing the display unit 11 when the main body unit 13 is folded, a button 32 on which a symbol representing each of application software installed in the PDA 1 is printed is provided in the upper part of the figure. When the user presses the button 32 with the finger, the corresponding application software is activated.
[0039]
A scroll button 33 for scrolling an image displayed on the LCD 28 is provided at the center of the area of the surface 13-1 where the buttons 32 are arranged. Further, below the button 32 on the surface 13-1, a keyboard 34 for inputting characters (including symbols) is provided.
[0040]
A headphone jack for connecting to a remote controller or an external headphone and outputting sound to the connected headphone is provided above the surface (side surface) 13-2 perpendicular to the surface 13-1 of the main body 13 in the figure. 24, a jog dial 25 that can be pressed and rotated is provided below the surface 13-2 so as to slightly protrude from the surface 13-2, and a jog dial 25 is provided below the jog dial 25 for canceling the immediately preceding operation. A back button 26 is provided, and below the back button 26 is provided a hold switch 27 for inhibiting execution of a function corresponding to another button being pressed by mistake.
[0041]
A connector 67 for connecting an attached device is provided at the center of a surface 13-4 perpendicular to the surface 13-1 (the lower end surface in the figure) 13-4 of the main body 13.
[0042]
FIG. 2 illustrates a configuration example of the back surface of the PDA 1. As shown in FIG. 2, the upper left portion of the hinge section 12 in the drawing has a slot 64 in which a predetermined memory card or a function expansion module that can be inserted and removed is installed, and lights when data in the memory card is read or written. A lamp 63 and an infrared port 62 for communicating with other devices by infrared rays.
[0043]
The memory card is, for example, a type in which a flash memory element which is a kind of EEPROM (Electrically Erasable and Programmable Read Only Memory) which is a nonvolatile memory which can be electrically rewritten and erased is stored in a small and thin plastic case. It is possible to write and read various information (data) such as images, sounds, and music.
[0044]
Also, the memory card adopts a unique serial protocol that can ensure compatibility with the device to be used even when the specification of the built-in flash memory changes due to large capacity etc., and the maximum writing speed is 1.5 [MB / S However, high-speed performance with a maximum read speed of 2.45 [MB / S] may be realized, and an erasure prevention switch may be provided to ensure high reliability.
[0045]
Therefore, the PDA 1 can insert such a memory card, and thus can share data with another device via the memory card.
[0046]
A reset button 65 for resetting the PDA 1 is provided on the left side in the center of the surface 13-3 on the opposite side of the surface 13-1 of the main body 13 and outputs a sound below the reset button 65. Speaker 66 is provided.
[0047]
As described above, the connector 67 is provided at the center of the surface 13-4 (the lower end surface in the figure) perpendicular to the surfaces 13-1 and 13-3 of the main body 13, as shown above. A storage port 68 for storing the touch pen 35 is provided on the left side.
[0048]
Next, operations for opening and closing and rotating the display unit 11 will be described in detail below with reference to the drawings.
[0049]
As shown in FIG. 3, the user can rotate the display unit 11 about the axis 11-6. Further, as shown in FIG. 4, the user rotates the display unit 11 approximately 180 degrees about the axis 11-6, and then rotates about the axis 12-1, and as shown in FIG. Thus, it can be closed with respect to the main body 13. That is, the user can use the PDA 1 not only in the state shown in FIG. 1 but also in the state shown in FIG.
[0050]
For example, it is assumed that a character “F” as shown in FIG. 3 is displayed on the LCD 28 now. That is, it is assumed that the upward direction of the character "F" is displayed on the surface 11-4 side of the display unit (upward in FIG. 3).
[0051]
At this time, when the display unit 11 is rotated from a predetermined reference position, the PDA 1 detects a rotation angle of the display unit 11 about the axis 11-6, and determines that the rotation angle is A predetermined range within a rotatable range (in this example, a range of 0 degree or more and 180 degrees or less when a rotation angle when the display unit 11 is arranged as shown in FIG. 1 is 0 degree). (In this example, 0 ° or more and less than 180 °), the character “F” is displayed on the LCD 28 such that the upper direction of the image (the character “F”) is on the surface 11-4 side.
[0052]
On the other hand, when the rotation angle of the PDA 1 is out of the range (180 degrees in this example), the upward direction of the character “F” is changed to the surface (end surface) opposite to the surface (end surface) 11-4. ) The character "F" is displayed on the LCD 28 so as to be on the 11-3 side. In other words, when the rotation angle of the display unit 11 is out of the predetermined range, the PDA 1 displays an image when the rotation angle is included in the range (for example, a character “F whose upper direction is on the surface 11-4 side”). )), The LCD 28 displays an image in which the top, bottom, left, and right are reversed (for example, a character “F” in which the upward direction is the surface 11-3 side opposite to the surface 11-3).
[0053]
Specifically, in the state shown in FIG. 3, since the rotation angle of the display unit 11 is less than 180 degrees (because it is included in the above-described predetermined range), the upward direction of the character “F” is The image is displayed on the LCD 28 so as to face the surface 11-4 (upward in FIG. 3).
[0054]
On the other hand, in the state shown in FIGS. 4 and 5, the rotation angle of the display unit 11 is 180 degrees (because it is out of the above-described predetermined range). 4 is displayed on the LCD 28 so as to be on the surface 11-3 side (downward in FIG. 4) opposite to -4.
[0055]
Thus, the PDA 1 can display an image in a direction that is natural for the user, regardless of the rotation and the open / closed state of the display unit 11.
[0056]
Furthermore, the user rotates the display unit 11 about the axis 12-1 and closes the main unit 13 not only when the PDA 1 is in the state shown in FIG. be able to. That is, although not shown, the user can protect the PDA 1 (especially the LCD 28) by keeping the PDA 1 from being exposed to the outside as shown in FIG. 5 when carrying the PDA 1 or the like. it can.
[0057]
Further, by rotating the display unit 11 as described above, the user can change the direction of the camera unit 22, that is, the shooting direction.
[0058]
For example, as shown in FIG. 6, when the other person 101 located on the opposite side to the user of the PDA 1 is set as a subject (when photographing in the direction opposite to the user as viewed from the PDA 1), the user sets the PDA 1 in FIG. In the state shown (the display unit 11 is closed with respect to the main body unit 13), the shooting direction of the camera unit 22 is set to the opposite side to the user of the PDA 1 (that is, the subject) while the LCD 28 faces the user. (In the direction of the other person 101). Thus, the user can take an image of the other person 101, which is a subject located on the opposite side of the PDA 1, while checking the captured image captured by the camera unit 22 displayed on the LCD 28 of the PDA 1.
[0059]
On the other hand, as shown in FIG. 7, when the user 102 of the PDA 1 sets himself / herself as a subject (in the case of photographing the direction of the user 102 as viewed from the PDA 1), the user 102 holds the PDA 1 in the state shown in FIG. By making the display unit 11 open with respect to the main body unit 13, the shooting direction of the camera unit 22 is also changed to the direction of the user 102 (that is, the direction of the subject itself, while the LCD 28 faces the user 102). ). Thus, the user 102 can image himself / herself, which is a subject located on the same side of the PDA 1, while checking the captured image captured by the camera unit 22 displayed on the LCD 28 of the PDA 1.
[0060]
As described above, the user can set the direction of the camera unit 22 with respect to the PDA 1, that is, the shooting direction, always check the captured image displayed on the LCD 28, and perform the adjustment operation using the touch panel 36. It is possible to perform a photographing operation while doing so.
[0061]
FIG. 8 is a block diagram showing an example of the internal configuration of the PDA 1.
[0062]
A CPU (Central Processing Unit) 131 executes various processes according to a program stored in a ROM (Read Only Memory) 132 or a program loaded from a storage unit 139 into a RAM (Random Access Memory) 133.
[0063]
The RAM 133 also appropriately stores data necessary for the CPU 131 to execute various processes.
[0064]
The CPU 131, the ROM 132, and the RAM 133 are mutually connected via a bus 134. A display control unit 136 that controls an image to be displayed on the LCD 28 is also connected to the bus 134.
[0065]
The display control unit 136 is connected to the VRAM 138 in addition to the camera unit 22 and the LCD 28 under the control of the CPU 131. The display control unit 136 stores the image captured by the camera unit 22 in the VRAM 138, and stores the image stored in the VRAM 138 and another memory (the RAM 133, the storage unit 139, and the memory card 143 connected to the slot 64). ) Is displayed on the LCD 28.
[0066]
An input / output interface 135 is also connected to the bus 134.
[0067]
The input / output interface 135 is equipped with the keyboard 34, the various buttons 22, 32, and 33, the input unit 137 including the jog dial 25, the touch panel 36, the infrared communication port 62, the memory card 143, and the function expansion module 121. Slot 64, a battery (not shown) built in the PDA 1 is charged, a connector 67 to which a cradle 91 or the like serving as a relay device for communication with another external device 152 is connected, and a remote controller 101 or headphones 153. A headphone jack 24 is connected as an audio output unit connected to the terminal.
[0068]
The coordinates detected by the touch panel 36 are provided to the CPU 131 via the input / output interface 135 and the bus 134, and the CPU 131 obtains predetermined information corresponding to the provided coordinates.
[0069]
For example, as described later, when the user taps an arbitrary position on the captured image displayed on the LCD 28 at the time of shooting, the touch panel 36 detects the coordinates of the position tapped by the user and enters the coordinate information. The output interface 135 is provided to the CPU 131 via the bus 134. When the CPU 131 confirms that the position is on the captured image from the provided coordinate information, the CPU 131 controls each unit and executes a corresponding process such as moving an AF frame of a predetermined size to the position.
[0070]
The input / output interface 135 is also connected to a storage unit 139 including an EEPROM or a hard disk as needed. A computer program read from a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like, which is appropriately mounted on the external device 152, performs wireless communication via the infrared port 62 and wireless communication via the wireless LAN module (function expansion module) 121. The information is supplied to the PDA 1 as necessary by means of communication or wired communication via the cradle 91, and is installed in the storage unit 139. Alternatively, a computer program read from the memory card 143 appropriately mounted in the slot 64 is also installed in the storage unit 139 as necessary.
[0071]
The input / output interface 135 further has an LCD that is turned on when the display unit 11 is closed with respect to the main unit 13 and is turned off when the display unit 11 is open with respect to the main unit 13. An open / close switch 144 and an LCD rotation switch 145 that is turned on when the display unit 11 is rotated by a predetermined rotation angle or more are provided.
[0072]
That is, in this example, the CPU 131 opens and closes the main body 13 of the display unit 11 based on the ON / OFF state of the LCD open / close switch 144 and the LCD rotation switch 145 (hereinafter, the LCD open / close state). ) And the rotation state.
[0073]
The camera unit 22 is configured as shown in FIG. Light from a subject (not shown) passes through a lens unit 201, and is a complementary color filter in which yellow (Ye), cyan (Cy), magenta (Mg), and green (G) color filters are arranged in a mosaic shape on the front surface. Is incident on a CCD 202 constituted by an image sensor using a CCD (Charge Coupled Device) or the like, on which is mounted, and is photoelectrically converted.
[0074]
The CCD 202 outputs a video signal photoelectrically converted in the light receiving unit and supplies the video signal to an AGC (Automatic Gain Control) circuit 203. The AGC circuit 203 adjusts the gain of the video signal, and supplies the video signal with the adjusted gain to a CDS circuit (Correlated Double Sampling circuit) 204. The CDS circuit 204 performs correlated double sampling on the input video signal to remove noise, and then supplies it to an A / D (Analog / Digital) conversion circuit 205.
[0075]
The A / D conversion circuit 205 converts the input analog signal into a digital signal at a predetermined sampling frequency and supplies the digital signal to a DSP (Digital Signal Processor) 206 that processes the captured image data.
[0076]
The DSP 206 is supplied by using a program and data installed in an EEPROM (Electrically Erasable and Programmable Read Only Memory) 207 and by using a built-in RAM 206A constituted by a built-in semiconductor memory such as a built-in SDRAM (Synchronous Dynamic Random Access Memory). The image data in a predetermined format is generated by holding the obtained video signal, and various digital processes such as image quality adjustment and compression are performed on the generated image data. Then, the DSP 206 supplies the generated image data to the display control unit 136 in FIG.
[0077]
Further, the DSP 206 supplies information for controlling the lens unit 201 to the A / D conversion circuit 205 to the camera control unit 210 at the time of digital processing of image data.
[0078]
The camera control unit 210 controls the lens position, aperture, or mechanical shutter of the lens unit 201 via the lens unit driving circuit 211 based on the information supplied from the DSP 206 and the control information supplied from the CPU 131 in FIG. And controls the electrical operation of the CCD 202 via the CCD drive circuit 212 and controls the operation timing and the like of the AGC circuit 203, the CDS circuit 204, and the A / D conversion circuit 205.
[0079]
The lens unit driving circuit 211 is configured by a motor or the like, and based on a control signal supplied from the camera control unit 210, adjusts the focal position by moving the lens position of the lens unit 201, and opens and closes a diaphragm and a mechanical shutter. Or to adjust the exposure. The CCD drive circuit 212 generates a signal for driving the CCD 202 based on a timing signal and the like supplied from the camera control unit 210, and adjusts an image capture timing and the like.
[0080]
For example, the camera control unit 210 performs an autofocus process based on a TTL (Through The Lens) contrast detection method based on a control signal supplied from the CPU 131. When the AF area is designated by the CPU 131, the camera control unit 210 detects the contrast of the designated AF area within the photographing image frame from the signal of the captured image supplied from the DSP 206, and activates the lens unit driving circuit 211. Then, the lens of the lens 201 is moved, and the lens position is adjusted so that the subject existing in the area is focused (to maximize the contrast).
[0081]
When the user activates the camera application, each unit is controlled by the CPU 131 that has executed the camera application, and shifts to a still image capturing mode for capturing a still image using the camera unit 22. At this time, the CPU 131 causes the LCD 28 to display a GUI as shown in FIG.
[0082]
In FIG. 10, a main screen 220 is a GUI for accepting various operations in the still image shooting mode, and starts an EVF area 221 for displaying a captured image or a captured image, and a moving image shooting mode application. A moving image capturing application call button 222, an icon area 223 for displaying various icons, a setting screen call button 224 for displaying a setting screen which is a GUI for performing various settings, a GUI relating to the size and image quality of a captured image , A size / image quality switching button 225 for displaying an image, an EV (Exposure Value) correction slider 226 for adjusting the exposure amount of a captured image, a soft capture button 227 for capturing a still image from the CCD 202, and an image data obtained by imaging. Select destination folder Select album category A column 228, a custom button 229 for executing a function set on the setting screen, a flash mode switching button 230 for switching a flash mode, a zoom button 231 for adjusting the zoom of a captured image, and a Simple view areas 232 to 234 for displaying thumbnail images, a rotation button 235 for rotating the display of the captured image displayed in the EVF area 221 by 90 degrees, a delete button 236 for deleting image data obtained by imaging, and , A title bar area 237 for displaying various character data such as a title of image data.
[0083]
FIG. 11 is a diagram showing a detailed display example of the EVF area 221 in FIG. As shown in FIG. 11, an icon group for displaying various information is displayed in the EVF area 221 so as to be superimposed on the captured image. The flash mode icon 251 displays the currently set flash mode as needed, the camera shake warning icon 252 lights up and warns when camera shake occurs during shooting, and the battery icon 253 shows When the remaining battery capacity is low and the battery needs to be charged, it lights up to notify it, and the AF / AE lock indicator 254 illuminates or flashes to indicate the status of AF or AE, making it impossible to shoot The notification icon 255 is turned on when there is not enough free space in the memory for recording the captured image data, and notifies that a new image cannot be captured. The shooting status mode icon 256 includes a night view mode, an indoor mode, Lights according to the currently set mode, such as the distant view mode or the close-up mode, related to the shooting process according to the situation, and Jitter speed icon 257 is lit during the manual setting, to display the shutter speed that is currently set.
[0084]
In addition, the EVF area 221 further includes a manual focus gauge 258 displayed when manually setting the focal length, and a manual focus gauge pointer 259 which is a pointer indicating the current focal length during manual focus. Is displayed.
[0085]
Further, in the EVF area 221, a spot metering pointer 260 indicating the center of the area measured during spot metering and an AF frame 261 indicating the range of the AF area are displayed. The user who shoots can move the positions of the AF frame 261 and the spot metering pointer 260 by tapping on the EVF area 221 in the AF mode.
[0086]
In addition, these icons can be switched between display and non-display by setting by the user.
[0087]
In the PDA 1 as described above, three focus modes are prepared as described later, and the user operates the setting screen call button 224 on the main screen 220 of FIG. 10 (the setting screen call button 224 of the LCD 28). A setting screen as shown in FIG. 12 is called up (by tapping on the upper portion, etc.), and a plurality of prepared focus modes are switched.
[0088]
FIG. 12 is a diagram showing a configuration example of the setting screen 301 displayed on the LCD 28. In FIG. 12, a setting screen 301 includes a setting list display area 302 showing various setting items and their current states, and an item that cannot be displayed at once in the setting list display area 302. A scroll bar 303 for scrolling the display contents, a lower scroll button 304 for scrolling the items displayed in the setting list display area 302 in the lower direction in the figure, and an item displayed in the setting list display area 302 as the upper side in the figure Scroll button 305 to scroll in the direction of, the screen displayed on the LCD 28 is returned to the main screen 220, the return button 306, the setting screen 301 displays the captured image reflecting the settings, the user confirms the effect And an EVF area 311 for performing the operation.
[0089]
In the setting list display area 302, for example, various items related to photographing such as a photographing mode, white balance, size / quality, spot metering, a recording destination, a self-timer, and a focus mode are displayed. The user operates the scroll bar 303, the lower scroll button 304, or the upper scroll button 305, or rotates the jog dial 25 to display an item to be set in the setting list display area 302. Then, the user moves the anchor to the item to be set by tapping the portion where the item is displayed or rotating the jog dial 25.
[0090]
Then, the user instructs to change the item at which the anchor is located, for example, by tapping a portion on the right side of the item at which the anchor is located, in which the setting content is displayed, or pressing the jog dial 25. For example, in FIG. 12, the anchor is located in the focus mode, and in this state, if the user taps a portion displayed as “always AF” or presses the jog dial 25, the user sets the focus mode. Can be changed.
[0091]
When the user designates the anchor in the focus mode as shown in FIG. 12, the LCD 28 superimposes the setting screen 301 shown in FIG. The screen is displayed.
[0092]
In FIG. 13, items other than the item focus mode selected by the user in the setting list display area 302 of the setting screen 301 are displayed dark. On the right side of the item 321 selected by the user, a setting content selection screen 322 displaying a list of corresponding settings is displayed. In FIG. 13, on the setting content selection screen 322, three modes of “manual focus”, “always AF”, and “one-shot AF” are displayed as settings corresponding to the focus mode. The mark is displayed in the mode in which it is present ("Always AF" in FIG. 13). In the setting content selection screen 322, an anchor is displayed for the currently selected mode (“one-shot AF” in FIG. 13).
[0093]
The user taps the mode to be selected from the list displayed on the setting content selection screen 322 shown in FIG. 13 or rotates the jog dial 25 to move the anchor and press it to select. The mode is set by instructing the mode.
[0094]
Next, the respective modes of the focus “manual focus mode”, “always AF mode”, and “one-shot AF mode” will be described.
[0095]
The manual focus mode is a mode in which the user manually sets the focal length. At this time, a manual focus gauge 258 and a manual focus gauge pointer 259 are displayed in the EVF area 221 as shown in FIG. The user moves the manual focus gauge pointer 259 to a desired position on the manual focus gauge 258 by tapping once at a target distance or rotating the jog dial 25 according to the manual focus gauge 258. To set the focal length.
[0096]
The camera control unit 210 of FIG. 9 controls the lens position of the lens unit 201 via the lens unit driving circuit 211 based on the control signal supplied from the CPU 131 of FIG. Control.
[0097]
When the user wants to return the manual focus gauge pointer 259 to the initial value (the initial position before the user moves the manual focus gauge pointer 259), the user sets the LCD 28 twice for a predetermined short time. Tap (hereinafter, referred to as double tap). When acquiring information indicating that the user has double-tapped from the touch panel 36, the CPU 131 controls the display control unit 136 to return the manual focus gauge pointer 259 displayed on the LCD 28 to the initial value.
[0098]
The constant AF mode is a mode in which the camera unit 22 performs an AF process on a subject in the AF area by the TTL contrast detection method. In the constant AF mode, the position of the AF area is arbitrarily determined by the user within the image frame. The AF process is performed when the user moves the AF area, when the user taps on the soft capture button 227 on the main screen 220, or when the user “half-presses” the mechanical capture button 23 in FIG. Be executed. Further, in the constant AF mode, an AF frame 261 indicating the range of the AF area is displayed in the EVF area 221 as shown in FIG. 14A.
[0099]
In an initial state (a state in which the user has not moved the position of the AF area), the center of the AF frame 261 is arranged at the center of the EVF area 221. At this time, the AF area shown in the AF frame 261 is, as shown in FIG. 14A, for example, as shown in FIG. In addition, while the size of the EVF area 221 is 320 dots × 240 dots, it is set relatively wide as 108 dots × 60 dots.
[0100]
At this time, when the user operates the soft capture button 227 in FIG. 10 or presses (fully presses) the mechanical capture button 23, the camera control unit 210 determines the position of the AF frame 261 supplied from the CPU 131 based on the position information. Then, after performing adjustment processing such as AF processing by the TTL contrast detection method on the AF area surrounded by the AF frame 261, image capture processing is performed. When the mechanical capture button 23 is half-pressed, only adjustment processing such as AF processing is performed. Thus, the user can move the PDA 1 so that the subject is positioned near the center of the EVF area 221 and operate the soft capture button 227 or the mechanical capture button 23 to obtain an image in focus on the subject. .
[0101]
The position of the AF frame 261 can be arbitrarily specified by the user as long as the position is within the EVF area 221. That is, as shown in FIG. 14B, when the user taps once on the EVF area 221 using the touch pen 35 or the like, the CPU 131 determines the position where the user has tapped based on the position information supplied from the touch panel 36. The AF frame 261 is moved so that is at the center of the AF area.
[0102]
In this case, since the user usually taps the subject to be focused, the possibility of the phenomenon of so-called “missing” is low. Conversely, if the AF area is unnecessarily large, the possibility that the subject in the AF area is different from the subject specified by the user is likely to be in focus. Accordingly, when the user specifies the position of the AF frame 261 as described above, the AF area is, as shown in FIG. 14B, as shown in FIG. 14A (when the user has not specified the position of the AF frame 261). ) Is set to a range (30 dots × 30 dots) narrower than the AF area (108 dots × 60 dots).
[0103]
At this time, based on the position information of the AF frame 261 supplied from the CPU 131, the camera control unit 210 performs the AF process by the TTL contrast detection method on the AF area surrounded by the AF frame 261. When the focus is achieved, the CPU 131 causes the AF frame 261 displayed in the EVF area 221 to blink for a predetermined time, as shown in FIG. 14C, to notify the user.
[0104]
Then, when the user operates the soft capture button 227 in FIG. 10 or presses (fully presses) the mechanical capture button 23, the camera control unit 210 determines based on the position information of the AF frame 261 supplied from the CPU 131. After performing auto-focus processing by the TTL contrast detection method on a region surrounded by the AF frame 261, image capture processing is performed. When the mechanical capture button 23 is "half-pressed" by half-pressing, only the auto focus process is performed. As described above, the user can easily obtain an image focused on the subject no matter where the subject is located in the EVF area 221.
[0105]
To return the AF frame 261 (AF area) to the initial state (the state shown in FIG. 14A), the user performs a double tap on the EVF area 221. The CPU 131 controls the display control unit 136 based on the information indicating that the user has performed the double tap supplied from the touch panel 36 to return the AF frame 261 displayed on the LCD 28 to the initial state, and The control unit 210 is controlled to execute the AF processing.
[0106]
As shown in FIG. 14D, a plurality of vertical and horizontal grid lines may be provided in the EVF area 221, and the coordinates of the center of the AF frame 261 may be located at the intersection of those grid lines. . In FIG. 14D, the grid lines 331 to 338 in the vertical direction in the figure and the grid lines 341 to 345 in the horizontal direction in the figure are set at predetermined intervals in the EVF area 221. When the user taps once on the EVF area 221, the CPU 131 acquires the position information of the position where the user has tapped from the touch panel 36, calculates the intersection of the closest grid line, and sets the coordinates of the intersection to the AF area. The AF frame 261 is moved so as to be at the center of the camera, and the camera controller 210 executes the AF process.
[0107]
By doing so, the position of the AF frame 261 can be limited to some extent, so that the user can more accurately move the AF frame 261 to the same position.
[0108]
In the example illustrated in FIG. 14D, it has been described that eight vertical grid lines and five horizontal grid lines in the figure are provided in the EVF area 221, but grid lines provided in the EVF area 221 are provided. May be any number. The intervals between the grid lines may be constant, or may be different for each grid line. Further, each grid line may not be displayed on the LCD 28.
[0109]
In the above description, the size of the EVF area 221 is 320 dots × 240 dots, the size of the AF area (AF frame 261) in the initial state is 108 dots × 60 dots, and the user sets the AF area (AF frame 261). )), The size of the AF area (AF frame 261) is described as being 30 dots × 30 dots. However, the size is not limited to this, and any size is possible. You may.
[0110]
In addition, the AF frame 261 indicating the range of the AF area is normally not displayed on the LCD 28, and when indicating the focus after the AF processing is performed, the set position is set as shown in FIG. 14C. For a predetermined time.
[0111]
Further, it has been described that the in-focus notification is performed by blinking the AF frame 261 as shown in FIG. 14C. However, the present invention is not limited to this, and another notification such as the AF / AE lock indicator 254 in FIG. It may be performed by an indicator.
[0112]
The one-shot AF mode is a mode in which the camera unit 22 performs an AF process on a subject in the AF area by the TTL contrast detection method, similarly to the constant AF mode. Also in the one-shot AF mode, as shown in FIG. 14A, an AF frame 261 indicating the range of the AF area is displayed in the EVF area 221, and the position of the AF area (AF frame 261) is within the shooting image frame. Is arbitrarily determined by the user.
[0113]
However, in the one-shot AF mode, the AF process is performed only when the user moves the AF area, and when the user taps on the soft capture button 227 on the main screen 220, or when the user It is not executed when the button 23 is "half-pressed". That is, in the one-shot AF mode, even if the user operates either the mechanical capture button 23 or the soft capture button 227, only the capture processing instruction is input, and no adjustment processing instruction such as AF is input. As described above, the CPU 131 controls each unit.
[0114]
The configuration and operation of the AF frame 261 such as the size and position, the control method of the AF frame 261 and the like are the same as those in the above-described constant AF mode, and thus the description thereof is omitted.
[0115]
Conventionally, when performing shooting with a fixed focal length after AF processing, that is, when shooting with a so-called “place pin”, the user presses the shutter button halfway to perform AF processing, and then performs the half-pressed state When shooting timing was reached, complicated work was required, such as pressing the shutter button fully from the state and instructing capture, but by setting the one-shot AF mode as described above, Since the AF process immediately before the capture can be omitted, the user can easily shoot the “placement pin”.
[0116]
Next, the processing related to shooting in the above-described constant AF mode will be specifically described.
[0117]
When the user operates the PDA 1 to instruct the still image shooting mode, the PDA 1 shifts to the still image shooting mode and starts the imaging process. The imaging process will be described with reference to the flowchart in FIG.
[0118]
First, the CPU 131 of the PDA 1 controls the camera control unit 210 of the camera unit 22, activates the camera unit 22, performs initialization processing of the camera unit 22, and stores it in the RAM 133, the storage unit 139, or the like in step S2. The setting information about the camera unit 22 is read, and the read setting information is supplied to the camera control unit 210 of the camera unit 22 to perform the setting process of the camera unit 22. Further, in step S3, the CPU 131 controls the display control unit 136 to display a GUI for a still image shooting mode such as the main screen 220 shown in FIG.
[0119]
In step S <b> 4, the DSP 206 of the camera unit 22 supplies the data of the captured image input from the lens unit 201 and captured by the CCD 202 to the display control unit 136, and the display control unit 136 causes the LCD 28 to display the captured image. .
[0120]
In step S5, the CPU 131 controls the buttons on the touch panel 36 and the input unit 137 to determine whether a new input related to the setting has been performed by the user and the current setting has been changed. When determining that the setting has been changed, the CPU 131 stores the new setting in the RAM 133, the storage unit 139, or the like, and proceeds with the process to step S7.
[0121]
If it is determined in step S5 that the setting has not been changed, the CPU 131 skips the process in step S6 and proceeds to step S7.
[0122]
In step S7, the CPU 131 monitors the touch panel 36 and the input unit 137, and determines whether the user has instructed to capture a still image. If it is determined that the instruction has been given, the CPU 131 instructs the camera control unit 210 of the camera unit 22 to capture an image, and the camera control unit 210 controls each unit of the camera unit 22 based on the instruction to obtain a still image. To capture.
[0123]
Then, after performing image processing on the image data of the captured image, the DSP 206 supplies the captured image data to the display control unit 136. In step S9, the display control unit 136 combines the captured image with the EVF area 221 of the GUI. Then, it is displayed on the LCD 28. When the captured image is displayed, the CPU 131 advances the processing to step S10.
[0124]
If it is determined in step S7 that capture has not been instructed, the CPU 131 skips steps S8 and S9 and proceeds to step S10.
[0125]
In step S10, the CPU 131 determines whether or not to end the still image shooting mode, and when it is determined to end, ends the imaging process.
[0126]
If it is determined that the still image shooting mode is not to be ended, the CPU 131 returns the process to step S4, and repeats the subsequent processes.
[0127]
As described above, the PDA 1 executes the imaging process in the still image shooting mode.
[0128]
Next, with reference to the flowcharts of FIGS. 16 and 17, the constant AF processing that is the AF processing in the constant AF mode will be described. As described above with reference to FIG. 14A, in the initial state of the constant AF mode (the state in which the user has not designated the position of the AF frame 261), the EVF area 221 has the first AF area indicating a wider AF area. The AF frame 261 of the size of is provided such that the center thereof is located at the center of the EVF area 221.
[0129]
In step S21, the CPU 131 controls the touch panel 36 to determine whether or not the user has designated the position of the AF frame 261 as shown in FIG. 14B. When the user taps once on the EVF area 221 of the LCD 28, the touch panel 36 detects this and supplies the position information to the CPU 131.
[0130]
If the position information of the tapped position is supplied from the touch panel 36 and it is determined that the position of the AF frame 261 has been designated, the CPU 131 advances the process to step S22, and based on the supplied position information, sets the first size. An AF frame of a smaller second size is arranged at the designated position.
[0131]
Then, the CPU 131 supplies the position information of the AF frame 261 to the camera control unit 210 of the camera unit 22 in step S23. The camera control unit 210 adjusts the focus of the AF area surrounded by the placed AF frame 261 by the TTL contrast detection method based on the position information.
[0132]
Then, when focusing is performed by the focus adjustment processing, the CPU 131 advances the processing to step S24, controls the display control unit 136 so as to notify the position of the AF frame, and the end of the focus processing, and the display is performed on the LCD 28. The existing AF frame 261 is blinked for a predetermined time. When the blinking ends, the CPU 131 advances the processing to step S25.
[0133]
If it is determined in step S21 that the position information has not been supplied from the touch panel 36 and the position of the AF frame 261 has not been designated, the CPU 131 skips steps S22 to S24 and proceeds to step S25. .
[0134]
In step S25, the touch panel 36 is controlled to determine whether or not the user has instructed to initialize the AF frame 261. When the user double taps on the EVF area 221 of the LCD 28, the touch panel 36 detects the double tap and supplies the information to the CPU 131.
[0135]
When the information of the double tap is supplied from the touch panel 36 and it is determined that the initialization of the AF frame 261 has been instructed, the CPU 131 advances the process to step S26, and arranges the AF frame of the first size at the initial position. That is, the CPU 131 places the AF frame 261 at a position where the center of the AF area is located at the center of the EVF area 221.
[0136]
Then, the CPU 131 supplies the position information of the AF frame 261 to the camera control unit 210 of the camera unit 22 in step S27. The camera control unit 210 adjusts the focus of the AF area surrounded by the placed AF frame 261 by the TTL contrast detection method based on the position information.
[0137]
Then, when focusing is performed by the focus adjustment processing, the CPU 131 advances the processing to step S28, controls the display control unit 136 to notify the position of the AF frame, and the end of the focus processing, and the display is performed on the LCD 28. The existing AF frame 261 is blinked for a predetermined time. When the blinking ends, the CPU 131 advances the processing to step S29 in FIG.
[0138]
If it is determined in step S25 that initialization of the AF frame 261 has not been instructed by the user, the CPU 131 skips steps S26 to S28 and proceeds to step S29 in FIG.
[0139]
In step S29, the CPU 131 monitors the touch panel 36 and the input unit 137, and determines whether the user has half-pressed the mechanical capture button 23 or operated the soft capture button 227 on the main screen 220.
[0140]
If it is determined that the mechanical capture button 23 has been half-pressed or the soft capture button 227 on the main screen 220 has been operated, the CPU 131 determines in step S30 the TTL contrast of the AF area surrounded by the AF frame 261. The focus is adjusted by the detection method.
[0141]
Then, when focusing is performed by the focus adjustment processing, the CPU 131 advances the processing to step S31, controls the display control unit 136 to notify the position of the AF frame, and the end of the focus processing, and the display is performed on the LCD 28. The existing AF frame 261 is blinked for a predetermined time. When the blinking ends, the CPU 131 advances the processing to step S32.
[0142]
If it is determined in step S29 that the mechanical capture button 23 has not been half-pressed and the soft capture button 227 on the main screen 220 has not been operated, the CPU 131 omits the processing in steps S30 and S31. Then, the process proceeds to step S32.
[0143]
In step S32, the CPU 131 determines whether to end the focus processing based on a user instruction or the like. If it is determined that the processing is not to be ended, the CPU 131 returns the processing to step S21 in FIG. 16 and repeats the processing thereafter.
[0144]
If it is determined in step S32 that the focus processing is to be ended, the CPU 131 performs the end processing in step S33, and thereafter always ends the AF processing.
[0145]
With the constant AF mode as described above, the user can easily obtain a still image that has been subjected to more suitable AF processing, regardless of the image configuration.
[0146]
Next, the one-shot AF process which is the AF process in the one-shot AF mode will be described with reference to the flowcharts of FIGS. As described above, in the initial state of the one-shot AF mode (a state in which the user has not designated the position of the AF frame 261), similarly to the case of the constant AF mode, as shown in FIG. , An AF frame 261 of a first size indicating a wider AF area is provided so that the center thereof is located at the center of the EVF area 221.
[0147]
In step S61, the CPU 131 controls the touch panel 36, and determines whether or not the user has designated the position of the AF frame 261 as shown in FIG. 14B. When the user taps once on the EVF area 221 of the LCD 28, the touch panel 36 detects this and supplies the position information to the CPU 131.
[0148]
When the position information of the tapped position is supplied from the touch panel 36 and it is determined that the position of the AF frame 261 has been designated, the CPU 131 advances the process to step S62, based on the supplied position information, the first size. An AF frame of a smaller second size is arranged at the designated position.
[0149]
Then, in step S63, the CPU 131 supplies the position information of the AF frame 261 to the camera control unit 210 of the camera unit 22, and the camera control unit 210 is surrounded by the placed AF frame 261 based on the position information. The focus is adjusted for the AF area using the TTL contrast detection method.
[0150]
Then, when the focus is achieved by the focus adjustment processing, the CPU 131 advances the processing to step S64, controls the display control unit 136 to notify the position of the AF frame, and the end of the focus processing, and the display is performed on the LCD 28. The existing AF frame 261 is blinked for a predetermined time.
[0151]
The CPU 131 controls the camera control unit 210 to fix the lens position of the lens unit 201 at the time of focusing in step S65, and in step S66, half-presses by operating the mechanical capture button 23 and the soft capture button 227. Disable processing.
[0152]
That is, the CPU 131 prevents the focus adjustment processing from being performed even when the user half-presses the mechanical capture button 23, and when the user has fully pressed the mechanical capture button 23, and when the user has pressed the soft capture button 227. Is operated, only the capture of a still image is performed without performing focus adjustment processing.
[0153]
The CPU 131 that has invalidated the half-press process advances the process to step S67 in FIG.
[0154]
If it is determined in step S61 of FIG. 18 that the position information is not supplied from the touch panel 36 and the position of the AF frame 261 is not specified, the CPU 131 omits the processing of steps S62 to S66 and The process proceeds to step S67.
[0155]
In step S67 in FIG. 19, the CPU 131 controls the touch panel 36 to determine whether or not the user has instructed to initialize the AF frame 261. When the user double taps on the EVF area 221 of the LCD 28, the touch panel 36 detects the double tap and supplies the information to the CPU 131.
[0156]
When the information of the double tap is supplied from the touch panel 36 and it is determined that the initialization of the AF frame 261 has been instructed, the CPU 131 advances the process to step S68, and arranges the AF frame of the first size at the initial position. That is, the CPU 131 places the AF frame 261 at a position where the center of the AF area is located at the center of the EVF area 221.
[0157]
Then, in step S69, the camera control section 210 adjusts the focus of the AF area surrounded by the placed AF frame 261 by the TTL contrast detection method.
[0158]
Then, when focusing is performed by the focus adjustment processing, the CPU 131 advances the processing to step S70, controls the display control unit 136 so as to notify the position of the AF frame, and the end of the focus processing, and the display is performed on the LCD 28. The existing AF frame 261 is blinked for a predetermined time.
[0159]
The CPU 131 controls the camera control unit 210 to fix the lens position of the lens unit 201 at the time of focusing in step S71, similarly to the case of steps S65 and S66, and in step S72, the mechanical capture button 23 And half-pressing processing by the operation of the soft capture button 227 is invalidated. Then, the CPU 131 advances the processing to step S73.
[0160]
If it is determined in step S67 that the initialization of the AF frame 261 has not been instructed by the user, the CPU 131 skips the processing of steps S68 to S72 and proceeds to step S73.
[0161]
In step S73, the CPU 131 determines whether to end the focus processing based on a user instruction or the like. If it is determined that the processing is not to be ended, the CPU 131 returns the processing to step S61 in FIG. 18 and repeats the processing thereafter.
[0162]
If it is determined in step S73 that the focus processing is to be ended, the CPU 131 performs the end processing in step S74, and then ends the one-shot AF processing.
[0163]
With the one-shot AF mode as described above, the user can easily obtain a still image that has been subjected to more suitable AF processing even when shooting with a so-called “place pin”.
[0164]
In the above, the AF processing has been described. However, in the exposure adjustment (AE processing), not only the center of the photographing frame but also the above-described AF area is used in spot metering in which light measurement processing is performed on a narrow area. The user may be able to specify the position.
[0165]
When the user designates an anchor at spot metering on the setting screen 301 shown in FIG. 12, the LCD 28 superimposes the setting on the setting screen 301 shown in FIG. The content selection screen is displayed.
[0166]
In FIG. 20, items other than the item spot metering selected by the user in the setting list display area 302 of the setting screen 301 are displayed dark. On the right side of the item 351 selected by the user, a setting content selection screen 352 displaying a list of corresponding settings is displayed, and two modes of “off” and “on” are displayed as settings corresponding to spot metering. Is done. A mark is displayed at the currently set “off”, and an anchor is displayed at the currently selected “on”.
[0167]
The user taps the “ON” portion from the list displayed on the setting content selection screen 352 shown in FIG. 20, or moves the anchor by rotating the jog dial 25 and presses it. , The spot metering mode can be designated.
[0168]
As shown in FIG. 21A, the normal AE processing is performed on the AE area 361 which is almost the entire area of the EVF area 221 (photographing frame). In FIG. 20, when the user sets the spot metering mode, the AE area 361 becomes narrower than the case of FIG. 21A as shown in FIG. 21B, and the AE processing indicating the center of the AE area performs Performed as an object.
[0169]
In the spot metering mode, a spot metering pointer 260 indicating the center of the AE area 361 is displayed in the EVF area 221.
[0170]
In this initial state (when the user has not designated the position of the AE area 361), the AE area 361 is arranged such that its center is located at the center of the EVF area 221 (image frame).
[0171]
At this time, when the user operates the soft capture button 227 in FIG. 10 or presses (fully presses) the mechanical capture button 23, the camera control unit 210 performs an adjustment process such as an AE process on the AE area. After that, an image capture process is performed. When the mechanical capture button 23 is half-pressed, only adjustment processing such as AE processing is performed. When the AE process is completed, the spot metering pointer 260 may blink, or a predetermined confirmation sound may be emitted.
[0172]
Thus, the user merely operates the soft capture button 227 or the mechanical capture button 23, and an image in which the exposure amount is adjusted only near the center of the shooting image frame (for example, an effect such as floating the subject at the center is provided. Image).
[0173]
The position of the AE frame 361 can be arbitrarily specified by the user as long as the position is within the EVF area 221. That is, as shown in FIG. 21C, when the user taps once on the EVF area 221 using the touch pen 35 or the like, the CPU 131 determines the position where the user has tapped based on the position information supplied from the touch panel 36. Is moved to the center of the AE area 361, and the camera unit 22 executes AE processing for the AE area 361.
[0174]
To return the AE area 361 to the initial state (the state shown in FIG. 21A), the user performs a double tap on the EVF area 221. The CPU 131 initializes the AE area based on the information supplied from the touch panel 36 indicating that the user has performed the double tap, and controls the display control unit 136 so that the spot metering displayed on the LCD 28 is performed. The pointer 260 is returned to the initial state, and the camera controller 210 is controlled to execute AE processing.
[0175]
As shown in FIG. 21D, in the above-described constant AF mode or one-shot AF mode, when the user moves the AF frame 261, the spot metering pointer 260 is positioned at the center of the AF area. The AE area 361 may be similarly moved.
[0176]
14D, a plurality of grid lines are set at predetermined intervals in the EVF area 221 as in the case of FIG. 14D, and when the user taps on the EVF area 221 once, the CPU 131 Obtains the position information of the position tapped by the user from the touch panel 36, calculates the intersection of the closest grid lines, and moves the spot metering pointer 260 so that the coordinates of the intersection become the center of the AE area 361. Then, the camera control unit 210 may execute the AE process.
[0177]
In the above description, the range of the AE area 361 may be any area as long as the area of the AE area 361 in the normal state is wider than the area in spot metering. The AE area 361 and the spot metering pointer 260 may be displayed in the EVF area 221 or may not be displayed.
[0178]
Next, the AE processing in the spot metering mode described above will be specifically described. When the user selects “ON” in the spot metering item 351 on the setting screen 301 in FIG. 20, the mode shifts to the spot metering mode, and the AE area changes from the state in FIG. 21A to the state in FIG. 21B. Then, the PDA 1 starts the spot AE process.
[0179]
The spot AE process in the spot metering mode will be described with reference to the flowcharts in FIGS. As described above with reference to FIG. 21B, in the initial state of the spot metering mode (a state in which the user has not specified the position of the AE area 361), the EVF area 221 has a narrow range AE area, It is set so as to be located at the center of the EVF area 221, and the spot metering pointer 260 is displayed at the center of the EVF area 221.
[0180]
In step S91, the CPU 131 controls the touch panel 36, and determines whether or not the position of the AE area has been designated by the user as shown in FIG. 21C. When the user taps once on the EVF area 221 of the LCD 28, the touch panel 36 detects this and supplies the position information to the CPU 131.
[0181]
If the position information of the tapped position is supplied from the touch panel 36 and it is determined that the position of the AE area 361 has been designated, the CPU 131 advances the process to step S92, and based on the supplied position information, the spot metering pointer 260 is placed at the designated position. That is, the CPU 131 sets the AE area 361 so that the position designated by the user is the center.
[0182]
Then, in step S93, the camera control section 210 adjusts the exposure for the set AE area 361 based on the AE area position information supplied from the CPU 131, and performs AE processing.
[0183]
When the AE process is completed, the CPU 131 advances the process to step S94, controls the display control unit 136 to notify the position of the spot metering pointer 260, and the end of the AE process, and displays the image on the LCD 28. The spot metering pointer 260 blinks for a predetermined time. When the blinking ends, the CPU 131 advances the processing to step S95.
[0184]
If it is determined in step S91 that the position information has not been supplied from the touch panel 36 and the position of the AE area 361 has not been designated, the CPU 131 skips steps S92 to S94 and proceeds to step S95. .
[0185]
In step S95, the touch panel 36 is controlled to determine whether or not the user has instructed to initialize the AE area 361. When the user double taps on the EVF area 221 of the LCD 28, the touch panel 36 detects the double tap and supplies the information to the CPU 131.
[0186]
When the information of the double tap is supplied from the touch panel 36 and it is determined that the initialization of the AE area 361 has been instructed, the CPU 131 advances the process to step S96, and places the spot metering pointer 260 at the initial position. That is, the CPU 131 places the spot metering pointer 260 at a position where the center of the AE area is located at the center of the EVF area 221.
[0187]
Then, in step S97, the camera control unit 210 adjusts the exposure for the set AE area 361 based on the position information of the AE area 361 supplied to the CPU 131, and performs AE processing.
[0188]
When the AE process ends, the CPU 131 advances the process to step S98, controls the display control unit 136 so as to notify the position of the spot metering pointer, and the end of the AE process, and displays the image on the LCD 28. The spot metering pointer 260 is blinked for a predetermined time. When the blinking ends, the CPU 131 advances the processing to step S99 in FIG.
[0189]
If it is determined in step S95 that the user has not instructed to initialize the AE area 361, the CPU 131 skips steps S96 to S98 and proceeds to step S99 in FIG.
[0190]
In step S99 of FIG. 23, the CPU 131 monitors the touch panel 36 and the input unit 137 to determine whether the user has half-pressed the mechanical capture button 23 or operated the soft capture button 227 on the main screen 220. judge.
[0191]
When it is determined that the mechanical capture button 23 has been half-pressed or the soft capture button 227 on the main screen 220 has been operated, the CPU 131 executes an AE process on the AE area 361 in step S100.
[0192]
When the AE process ends, the CPU 131 advances the process to step S101, controls the display control unit 136 so as to notify the position of the spot metering pointer 260 and the end of the AE process, and displays the image on the LCD 28. The spot metering pointer 260 blinks for a predetermined time. When the blinking ends, the CPU 131 advances the processing to step S102.
[0193]
If it is determined in step S99 that the mechanical capture button 23 has not been half-pressed and the soft capture button 227 on the main screen 220 has not been operated, the CPU 131 skips the processing of steps S100 and S101. The process proceeds to step S102.
[0194]
In step S102, the CPU 131 determines whether to end the spot AE process based on a user's instruction or the like. If it is determined that the processing is not to be ended, the CPU 131 returns the processing to step S91 in FIG. 22, and repeats the processing thereafter.
[0195]
If it is determined in step S102 that the spot AE processing is to be ended, the CPU 131 ends the spot AE processing after performing the end processing in step S103.
[0196]
With the spot metering mode as described above, the user can easily obtain a still image on which spot AE processing has been performed on an arbitrary position in the image frame.
[0197]
Next, AF processing and AE processing in a case where the spot metering pointer 260 is always positioned at the center of the AE frame 261 as shown in FIG. 21D will be described.
[0198]
First, the constant AF processing executed in the constant AF mode in the case described above will be described with reference to the flowcharts of FIGS. Also in this case, similarly to the case of the above-described constant AF mode, in the initial state (the state in which the user has not designated the position of the AF frame 261), the EVF area 221 has a first AF area indicating a wider AF area. Are arranged such that the center thereof is located at the center of the EVF area 221. In the case of the spot metering mode, the spot metering pointer 260 is arranged at the center of the EVF area 221 as shown in FIG. 21B.
[0199]
In step S121, the CPU 131 controls the touch panel 36 to determine whether or not the user has designated the position of the AF frame 261 as shown in FIG. 21D. When the user taps once on the EVF area 221 of the LCD 28, the touch panel 36 detects this and supplies the position information to the CPU 131.
[0200]
When the position information of the tapped position is supplied from the touch panel 36 and it is determined that the position of the AF frame 261 has been designated, the CPU 131 advances the process to step S122, and based on the supplied position information, sets the first size. An AF frame of a smaller second size is arranged at the designated position.
[0201]
Then, in step S123, the CPU 131 determines whether or not the AE mode is the spot metering mode. If the CPU 131 determines that the AE mode is the spot metering mode, the CPU 131 determines in step S124 that the center of the AE area 361 is the center of the AF area. The pointer 260 for spot metering is arranged at the same position. The CPU 131 in which the spot metering pointer 260 is arranged advances the processing to step S125.
[0202]
If it is determined in step S123 that the mode is not the spot metering mode, the CPU 131 skips step S124 and proceeds to step S125.
[0203]
In step S125, based on the position information of the AF area and the AE area 361 supplied from the CPU 131, the camera control unit 210 focuses on the AF area surrounded by the placed AF frame 261 by the TTL contrast detection method. In addition to the adjustment, the exposure is adjusted for the placed AE area 361.
[0204]
When the focus adjustment and the exposure adjustment are completed, the CPU 131 advances the processing to step S126, and controls the display control unit 136 to notify the positions of the AF frame 261 and the spot metering pointer 260 and the end of the adjustment processing. Then, the AF frame 261 and the spot metering pointer 260 displayed on the LCD 28 are blinked for a predetermined time. When the blinking ends, the CPU 131 advances the processing to step S127.
[0205]
If it is determined in step S121 that the position information has not been supplied from the touch panel 36 and the position of the AF frame 261 has not been specified, the CPU 131 skips steps S122 to S126 and proceeds to step S127. .
[0206]
In step S127, the CPU 131 controls the touch panel 36 and determines whether or not the user has instructed to initialize the AF frame 261. When the user double taps on the EVF area 221 of the LCD 28, the touch panel 36 detects the double tap and supplies the information to the CPU 131.
[0207]
When the information of the double tap is supplied from the touch panel 36 and it is determined that the initialization of the AF frame 261 has been instructed, the CPU 131 advances the process to step S128, and arranges the AF frame 261 of the first size at the initial position. .
[0208]
Then, in step S129, the CPU 131 determines whether or not the AE mode is the spot metering mode. If the CPU 131 determines that the AE mode is the spot metering mode, in step S130, the center of the AE area 361 coincides with the center of the AF area. The pointer 260 for spot metering is arranged at the same position. The CPU 131 in which the spot metering pointer 260 is arranged advances the processing to step S131.
[0209]
If it is determined in step S129 that the mode is not the spot metering mode, the CPU 131 omits the process of step S130 and proceeds to step S131.
[0210]
In step S131, based on the position information of the AF frame 261 and the spot metering pointer 260 supplied from the CPU 131, the camera control unit 210 uses the TTL contrast detection method for the AF area surrounded by the placed AF frame 261. In addition, the focus is adjusted, and the exposure is adjusted for the AE area 361.
[0211]
When the adjustment processing ends, the CPU 131 advances the processing to step S132, and controls the display control unit 136 to notify the positions of the AF frame 261 and the spot metering pointer 260 and the end of the adjustment processing. Then, the AF frame 261 and the spot metering pointer 260 displayed on the LCD 28 blink for a predetermined time. When the blinking ends, the CPU 131 advances the processing to step S133 in FIG.
[0212]
If it is determined in step S127 that the initialization of the AF frame 261 has not been instructed by the user, the CPU 131 skips the processing of steps S128 to S132 and proceeds to step S133 of FIG.
[0213]
In step S133 in FIG. 25, the CPU 131 monitors the touch panel 36 and the input unit 137, and determines whether the user has half-pressed the mechanical capture button 23 or operated the soft capture button 227 on the main screen 220. judge.
[0214]
If it is determined that the mechanical capture button 23 has been half-pressed or the soft capture button 227 on the main screen 220 has been operated, the CPU 131 determines in step S134 the TTL contrast of the AF area surrounded by the AF frame 261. The focus is adjusted and the exposure is adjusted for the AE area 361 by the detection method.
[0215]
When the adjustment process ends, the CPU 131 advances the process to step S135, controls the display control unit 136 to notify the positions of the AF frame 261 and the spot metering pointer 260, and the end of the adjustment process. The AF frame 261 and the spot metering pointer 260 displayed on the LCD 28 blink for a predetermined time. When the blinking ends, the CPU 131 advances the processing to step S136.
[0216]
If it is determined in step S133 that the mechanical capture button 23 has not been half-pressed and the soft capture button 227 on the main screen 220 has not been operated, the CPU 131 omits the processing in steps S134 and S135. Then, the process proceeds to step S136.
[0219]
In step S136, the CPU 131 determines whether to end the focus processing based on a user instruction or the like. If it is determined that the processing is not to be terminated, the CPU 131 returns the processing to step S121 in FIG. 24, and repeats the processing thereafter.
[0218]
If it is determined in step S136 that the focus processing is to be ended, the CPU 131 performs the end processing in step S137, and thereafter always ends the AF processing.
[0219]
With the constant AF mode as described above, the user can easily obtain a still image that has been subjected to more suitable AF processing and more effective AE processing, regardless of the image configuration.
[0220]
Next, a one-shot AF process which is an AF process in the one-shot AF mode in the above-described case will be described with reference to flowcharts of FIGS. 26 and 27. As described above, even in the initial state of the one-shot AF mode (the state in which the user has not designated the position of the AF frame 261), similarly to the case of the constant AF mode, as shown in FIG. , An AF frame 261 of a first size indicating a wider AF area is provided so that the center thereof is located at the center of the EVF area 221. In the case of the spot metering mode, the spot metering pointer 260 is arranged at the center of the EVF area 221 as shown in FIG. 21B.
[0221]
In step S151, the CPU 131 controls the touch panel 36, and determines whether or not the user has designated the position of the AF frame 261 as shown in FIG. 21D. When the user taps once on the EVF area 221 of the LCD 28, the touch panel 36 detects this and supplies the position information to the CPU 131.
[0222]
When the position information of the tapped position is supplied from the touch panel 36 and it is determined that the position of the AF frame 261 has been designated, the CPU 131 advances the process to step S152, and based on the supplied position information, the first size An AF frame of a smaller second size is arranged at the designated position.
[0223]
In step S153, the CPU 131 determines whether or not the AE mode is the spot metering mode. If the CPU 131 determines that the AE mode is the spot metering mode, the CPU 131 determines in step S154 that the center of the AE area 361 is the same as the center of the AF area. The spot metering pointer 260 is arranged such that The CPU 131 in which the spot metering pointer 260 is arranged advances the processing to step S155.
[0224]
If it is determined in step S153 that the mode is not the spot metering mode, the CPU 131 skips the processing in step S154 and proceeds to step S155.
[0225]
In step S155, the CPU 133 supplies the position information of the AF frame 261 to the camera control unit 210 of the camera unit 22, and the camera control unit 210 performs an AF operation based on the position information based on the position information. For the area, the focus is adjusted by the TTL contrast detection method, and the AE processing is performed on the AE area 361 to adjust the exposure.
[0226]
When the adjustment process ends, the CPU 131 advances the process to step S156, controls the display control unit 136 to notify the position of the AF frame 261 and the spot metering pointer 260, and the end of the adjustment process, and The AF frame 261 and the spot metering pointer 260 displayed on the LCD 28 blink for a predetermined time.
[0227]
In step S157, when the adjustment process is completed, the CPU 131 controls the camera control unit 210 to fix the aperture and the lens position of the lens unit 201 and fix the exposure and the focus. Further, in step S158, the CPU 131 invalidates the half-press process by operating the mechanical capture button 23 and the soft capture button 227.
[0228]
The CPU 131 that has invalidated the half-pressing process proceeds with the process to step S159 in FIG.
[0229]
If it is determined in step S151 in FIG. 26 that the position information has not been supplied from the touch panel 36 and the position of the AF frame 261 has not been designated, the CPU 131 omits the processing in steps S152 to S158 and proceeds to step S151 in FIG. The process proceeds to step S159.
[0230]
In step S159 of FIG. 27, the CPU 131 controls the touch panel 36 to determine whether or not the user has instructed to initialize the AF frame 261. When the user double taps on the EVF area 221 of the LCD 28, the touch panel 36 detects the double tap and supplies the information to the CPU 131.
[0231]
When the information of the double tap is supplied from the touch panel 36 and it is determined that the initialization of the AF frame 261 has been instructed, the CPU 131 advances the process to step S160, and arranges the AF frame of the first size at the initial position.
[0232]
In step S161, the CPU 131 determines whether the AE mode is the spot metering mode. If the CPU 131 determines that the AE mode is the spot metering mode, the CPU 131 determines in step S162 that the center of the AE area 361 is the same as the center of the AF area. The spot metering pointer 260 is arranged such that The CPU 131 in which the spot metering pointer 260 is arranged advances the process to step S163.
[0233]
If it is determined in step S161 that the mode is not the spot metering mode, the CPU 131 skips the process of step S162 and proceeds to step S163.
[0234]
In step S163, the camera control unit 210 adjusts the focus of the AF area surrounded by the placed AF frame 261 by the TTL contrast detection method, performs AE processing on the AE area 361, and performs exposure. To adjust.
[0235]
When the adjustment process is completed, the CPU 131 advances the process to step S164, controls the display control unit 136 to notify the position of the AF frame 261 and the position of the spot metering pointer 260, and the end of the adjustment process. The displayed AF frame 261 and the spot metering pointer 260 blink for a predetermined time.
[0236]
As in the case of steps S157 and S158, the CPU 131 controls the camera control unit 210 to fix the aperture and the lens position of the lens unit 201 at the time of completion of the adjustment processing in step S165, and Is fixed, and in step S166, the half-press process by operating the mechanical capture button 23 and the soft capture button 227 is invalidated. Then, the CPU 131 advances the processing to step S167.
[0237]
If it is determined in step S159 that the initialization of the AF frame 261 has not been instructed by the user, the CPU 131 skips the processing of steps S160 to S166, and proceeds to step S167.
[0238]
In step S167, the CPU 131 determines whether to end the focus processing based on a user instruction or the like. If it is determined that the processing is not to be ended, the CPU 131 returns the processing to step S151 in FIG. 26, and repeats the processing thereafter.
[0239]
If it is determined in step S167 that the focus processing is to be ended, the CPU 131 performs the end processing in step S168, and then ends the one-shot AF processing.
[0240]
With the one-shot AF mode as described above, the user can easily obtain a still image that has been subjected to more suitable AF processing and more effective AE processing even in shooting of so-called “place-by-pin”. .
[0241]
In the above, the AF processing has been described to be performed using the TTL contrast detection method. However, the AF processing method may be other methods, for example, by outputting infrared rays or ultrasonic waves to reduce the distance to the subject. Various types of active methods for measurement, a TTL phase difference detection method in which light passing through a photographing lens is divided into two, and the amount and direction of the deviation is detected to detect a focus position may be used.
[0242]
In addition, although the end of the adjustment processing such as the AF processing and the AE processing is notified to the user by blinking the AF frame 261 and the spot metering pointer 260, the invention is not limited thereto, and another indicator may be used. Or a confirmation sound may be output, or a plurality of methods may be combined.
[0243]
Further, the confirmation sound may be output every time another process is performed, for example, when the focus mode is switched or when a still image is captured. At this time, the content of the confirmation sound may be changed by a process corresponding to the confirmation sound.
[0244]
Note that the specification of the position of the AF area or the AE area by the user has been described as being the center of each area. However, the present invention is not limited to this. For example, any position of the area such as the coordinates of the upper right end of the area may be specified. It may be. Further, the AF area or the AE area may be moved so that the coordinates specified by the user are located outside the area.
[0245]
In addition, the description has been made such that the user specifies the position of the AF area or the AE area when the user double-tap on the EVF area 221. However, the present invention is not limited to this. It may be initialized when the user taps on the EVF area 221 for a long time, may be initialized when a still image is captured, or may be initialized in any of these cases. It may be initialized.
[0246]
In the above, the description has been made using a PDA with an imaging function.However, the invention is not limited thereto, and includes an imaging function including an AF function and an AE function, such as a digital still camera or a mobile phone having an imaging function. Further, any electronic device having a display for displaying the obtained image may be used.
[0247]
Therefore, even if the touch panel is not superimposed on the display as in the above-described example, for example, an input unit that can freely move the position of the AF frame 261 or the spot metering pointer, such as a cross key, is provided. Any electronic device can be used as long as it has a touch panel superimposed on a display. In particular, in the case of a PDA or a notebook-type personal computer having an imaging function, the operation of the AF frame 261 and the spot metering pointer can be performed more easily. Can be.
[0248]
In the above description, the camera 22, the LCD 28, and the like are described as being configured as one PDA. However, the present invention is not limited to this, and each unit of the PDA 1 may be configured separately.
[0249]
In the above-described example, the memory mounted in the slot 64 is the memory card 143. However, the memory is not limited as long as the slot 64 can support the recording medium. For example, although not shown, another semiconductor memory, a magnetic disk, an optical disk, a magneto-optical disk, or the like may be used.
[0250]
The above processing can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software is installed in the PDA 1 from a network or a recording medium. However, the recording medium may be mounted not only directly on the PDA 1 but also on another device as needed. In this case, the program is installed in the PDA 1 by the other device and the PDA 1 communicating with each other.
[0251]
This recording medium is not shown, as shown in FIG. 8, as well as a semiconductor memory such as a memory stick 143 in which the program is stored, which is distributed to supply the program to the user separately from the apparatus main body. Includes, for example, a magnetic disk (including a floppy disk), an optical disk (including a CD-ROM (Compact Disk-Read only Memory), a DVD (Digital Versatile Disk)), or a magneto-optical disk (MD (Mini-Disk)). ) And the like. Further, it is configured by a ROM 132 in which a program is stored, which is supplied to the user in a state of being incorporated in the apparatus main body in advance, and a storage unit 139 as an EEPROM or a hard disk.
[0252]
In the above description, the processing shown in each flowchart is executed by software by the CPU 131 in FIG. 8. However, the hardware for executing each processing is prepared so that the processing is executed by hardware. It is, of course, possible.
[0253]
In this specification, a step of describing a program recorded on a recording medium may be performed in chronological order according to the described order, or may be performed in parallel or not necessarily in chronological order. This also includes processes executed individually.
[0254]
【The invention's effect】
As described above, according to the present invention, a subject can be imaged. In particular, more suitable automatic focusing can be performed.
[Brief description of the drawings]
FIG. 1 is an external view illustrating a configuration example of a front surface of a PDA to which the present invention is applied.
FIG. 2 is an external view illustrating a configuration example of a back surface of the PDA of FIG. 1;
FIG. 3 is a perspective view illustrating a rotation and an opening / closing operation of a display unit of the PDA of FIG. 1;
FIG. 4 is a perspective view illustrating a rotation and opening / closing operation of a display unit of the PDA in FIG. 1;
FIG. 5 is a perspective view illustrating a rotation and opening / closing operation of a display unit of the PDA in FIG. 1;
FIG. 6 is a diagram showing a use state of the PDA of FIG. 1;
FIG. 7 is a diagram illustrating a use state of the PDA of FIG. 1;
FIG. 8 is a block diagram showing an example of the internal configuration of the PDA of FIG. 1;
9 is a block diagram showing an example of the internal configuration of a camera unit of the PDA in FIG. 24.
FIG. 10 is a schematic diagram showing a state of a main screen in a still image shooting mode.
11 is a schematic diagram illustrating a display example of an EVF area in FIG. 10;
FIG. 12 is a schematic diagram illustrating a configuration example of a setting screen.
FIG. 13 is a schematic diagram showing another configuration example of the setting screen.
FIG. 14 is a schematic diagram illustrating a display example of an AF frame.
FIG. 15 is a flowchart illustrating an imaging process of the PDA of FIG. 1;
FIG. 16 is a flowchart illustrating a constant AF process of the PDA of FIG. 1;
FIG. 17 is a flowchart illustrating the constant AF process of the PDA of FIG. 1, following FIG. 16;
FIG. 18 is a flowchart illustrating one-shot AF processing of the PDA of FIG. 1;
FIG. 19 is a flowchart illustrating the one-shot AF process of the PDA of FIG. 1, following FIG. 18;
FIG. 20 is a schematic diagram showing still another configuration example of a setting screen.
FIG. 21 is a schematic diagram showing a display example of a spot metering pointer.
FIG. 22 is a flowchart illustrating a spot AE process of the PDA of FIG. 1;
FIG. 23 is a flowchart illustrating the spot AE process of the PDA of FIG. 1, following FIG. 22;
FIG. 24 is a flowchart illustrating another example of the constant AF process of the PDA of FIG. 1;
25 is a flowchart illustrating another example of the constant AF process of the PDA in FIG. 1, following FIG. 24;
FIG. 26 is a flowchart illustrating another example of the one-shot AF process of the PDA of FIG. 1;
27 is a flowchart illustrating another example of the one-shot AF process of the PDA in FIG. 1, following FIG. 26;
[Explanation of symbols]
22 camera, 23 mechanical capture button, 28 LCD, 131 CPU, 136 display control unit, 201 lens unit, 202 CCD, 210 camera control unit, 211 lens unit drive circuit, 221 EVF area, 227 soft capture button, 260 spot metering Pointer, 261 AF frame, 361 AE area

Claims (15)

被写体を撮像し、前記被写体の動画像および静止画像を取り込む撮像手段と、
焦点距離を調整し、前記撮像手段による撮像範囲内の所定の第1の領域に含まれる前記被写体に合焦させる合焦手段と、
ユーザにより入力される、前記撮像範囲内における前記第1の領域の位置の指定を受け付ける受け付け手段と、
前記受け付け手段により受け付けられた前記指定に基づいて、前記第1の領域を、前記撮像範囲内の任意の位置に設定する位置設定手段と、
前記位置設定手段により設定された位置に応じて、前記第1の領域の範囲を設定する範囲設定手段と
を備えることを特徴とする撮像装置。
Imaging means for imaging a subject and capturing a moving image and a still image of the subject;
A focusing unit that adjusts a focal length and focuses on the subject included in a predetermined first area within an imaging range of the imaging unit;
Accepting means for accepting designation of a position of the first area in the imaging range, which is input by a user;
Position setting means for setting the first area to an arbitrary position within the imaging range based on the designation received by the receiving means;
An imaging apparatus comprising: a range setting unit that sets a range of the first region according to a position set by the position setting unit.
前記位置設定手段は、前記受け付け手段により前記指定が受け付けられていない場合、前記第1の領域の中心が前記撮像範囲の中心に位置するように、前記第1の領域の位置を設定する
ことを特徴とする請求項1に記載の撮像装置。
The position setting unit sets the position of the first region such that the center of the first region is located at the center of the imaging range when the designation is not received by the receiving unit. The imaging device according to claim 1, wherein:
前記位置設定手段は、前記受け付け手段により前記指定が受け付けられた場合、前記第1の領域の中心が、前記ユーザが指定した座標に位置するように、前記第1の領域の位置を設定する
ことを特徴とする請求項1に記載の撮像装置。
The position setting means sets the position of the first area such that the center of the first area is located at the coordinates specified by the user when the specification is received by the receiving means. The imaging device according to claim 1, wherein:
前記範囲設定手段は、前記受け付け手段により前記指定が受け付けられた場合、前記指定が受け付けられていない場合の前記第1の領域の範囲よりも狭くなるように、前記第1の領域の範囲を設定する
ことを特徴とする請求項1に記載の撮像装置。
The range setting means sets the range of the first area so that, when the specification is received by the receiving means, the range is smaller than the range of the first area when the specification is not received. The imaging device according to claim 1, wherein:
前記撮像手段により前記被写体を撮像して得られた動画像を表示する表示手段をさらに備え、
前記受け付け手段は、前記表示手段に重畳されたタッチパネルにより構成され、前記ユーザが前記表示手段により表示されている前記動画像を確認しながら第1の方法で入力した座標を検出し、前記指定として受け付ける
ことを特徴とする請求項1に記載の撮像装置。
Further comprising display means for displaying a moving image obtained by imaging the subject by the imaging means,
The receiving unit is configured by a touch panel superimposed on the display unit, detects coordinates input by the user in the first method while checking the moving image displayed on the display unit, and detects the coordinates as the designation. The imaging device according to claim 1, wherein the imaging device receives the image.
前記第1の方法は、前記ユーザが前記タッチパネルを1回タップする方法である
ことを特徴とする請求項5に記載の撮像装置。
The imaging apparatus according to claim 5, wherein the first method is a method in which the user taps the touch panel once.
前記第1の領域の設定を初期化して、前記受け付け手段により前記指定が受け付けられた状態の設定から、前記指定が受け付けられていない状態の設定に戻す初期化手段をさらに備え、
前記受け付け手段は、前記ユーザが第2の方法で入力した、前記第1の領域の設定の初期化の指示をさらに受け付け、
前記初期化手段は、前記受け付け手段により受け付けられた前記指示に基づいて、前記第1の領域の設定を初期化する
ことを特徴とする請求項5に記載の撮像装置。
Initializing means for initializing the setting of the first area and returning the setting from the state in which the specification is received by the receiving means to the setting in a state in which the specification is not received,
The receiving unit further receives an instruction for initializing the setting of the first area, which is input by the user in a second method,
The imaging apparatus according to claim 5, wherein the initialization unit initializes the setting of the first area based on the instruction received by the reception unit.
前記第2の方法は、前記ユーザが前記タッチパネルを所定の時間内に2回タップする方法である
ことを特徴とする請求項7に記載の撮像装置。
The imaging apparatus according to claim 7, wherein the second method is a method in which the user taps the touch panel twice within a predetermined time.
前記第2の方法は、前記ユーザが所定の時間以上接触するように前記タッチパネルをタップする方法である
ことを特徴とする請求項7に記載の撮像装置。
The imaging apparatus according to claim 7, wherein the second method is a method of tapping the touch panel so that the user makes contact with the touch panel for a predetermined time or more.
前記表示手段は、前記合焦手段が前記第1の領域に含まれる前記被写体に合焦させた場合、前記動画像に重畳して前記第1の領域の外枠を所定の回数点滅表示する
ことを特徴とする請求項5に記載の撮像装置。
When the focusing unit focuses on the subject included in the first region, the display unit blinks an outer frame of the first region a predetermined number of times so as to be superimposed on the moving image. The imaging device according to claim 5, wherein:
前記合焦手段は、前記撮像手段が前記静止画像を取り込む場合と、前記位置設定手段が前記第1の領域の位置を設定する場合に、前記焦点距離を調整し、前記被写体に合焦させる
ことを特徴とする請求項1に記載の撮像装置。
The focusing unit adjusts the focal length to focus on the subject when the imaging unit captures the still image and when the position setting unit sets the position of the first area. The imaging device according to claim 1, wherein:
前記合焦手段が前記第1の領域に含まれる前記被写体に合焦させた場合、前記撮像手段が前記静止画像を取り込む際の、前記合焦手段による調整処理を禁止する禁止手段をさらに備える
ことを特徴とする請求項11に記載の撮像装置。
When the focusing unit focuses on the subject included in the first area, the image capturing unit further includes a prohibition unit that prohibits an adjustment process by the focusing unit when capturing the still image. The imaging device according to claim 11, wherein:
前記撮像範囲内の所定の第2の領域を対象として露出を調整する露出調整手段をさらに備え、
前記位置設定手段は、前記第2の領域の中心が、前記受け付け手段により受け付けられた前記指定に基づいて、前記撮像範囲内の任意の位置に設定した前記第1の領域の中心に位置するように、前記第2の領域の位置をさらに設定する
ことを特徴とする請求項1に記載の撮像装置。
An exposure adjustment unit that adjusts exposure for a predetermined second area in the imaging range,
The position setting unit may be configured such that a center of the second region is located at a center of the first region set at an arbitrary position within the imaging range based on the designation received by the receiving unit. 2. The imaging apparatus according to claim 1, wherein a position of the second area is further set.
被写体を撮像する撮像部を有する撮像装置の撮像方法において、
前記撮像部において撮像された前記被写体の動画像および静止画像の取り込みを制御する取り込み制御ステップと、
前記撮像部の焦点距離を調整し、前記撮像部の撮像範囲内における所定の第1の領域に含まれる前記被写体に合焦させる合焦ステップと、
ユーザにより入力される、前記撮像範囲内における前記第1の領域の位置に関する指定の受け付けを制御する受け付け制御ステップと、
前記受け付け制御ステップの処理により制御され、受け付けられた前記指定に基づいて、前記第1の領域を、前記撮像範囲内の任意の位置に設定する位置設定ステップと、
前記位置設定ステップの処理により設定された位置に応じて、前記第1の領域の範囲を設定する範囲設定ステップと
を含むことを特徴とする撮像方法。
In an imaging method of an imaging device having an imaging unit for imaging a subject,
A capture control step of controlling capture of a moving image and a still image of the subject captured by the imaging unit,
A focusing step of adjusting a focal length of the imaging unit and focusing on the subject included in a predetermined first area within an imaging range of the imaging unit;
A reception control step of controlling reception of designation of a position of the first area in the imaging range, which is input by a user;
A position setting step of setting the first area to an arbitrary position within the imaging range based on the received specification, which is controlled by the processing of the reception control step;
A range setting step of setting a range of the first area according to a position set by the processing of the position setting step.
撮像部を用いて被写体を撮像する処理をコンピュータに行わせるプログラムであって、
前記撮像部において撮像された前記被写体の動画像および静止画像の取り込みを制御する取り込み制御ステップと、
前記撮像部の焦点距離を調整し、前記撮像部の撮像範囲内における所定の第1の領域に含まれる前記被写体に合焦させる合焦ステップと、
ユーザにより入力される、前記撮像範囲内における前記第1の領域の位置に関する指定の受け付けを制御する受け付け制御ステップと、
前記受け付け制御ステップの処理により制御され、受け付けられた前記指定に基づいて、前記第1の領域を、前記撮像範囲内の任意の位置に設定する位置設定ステップと、
前記位置設定ステップの処理により設定された位置に応じて、前記第1の領域の範囲を設定する範囲設定ステップと
を含むことを特徴とするプログラム。
A program that causes a computer to perform processing of imaging a subject using an imaging unit,
A capture control step of controlling capture of a moving image and a still image of the subject captured by the imaging unit,
A focusing step of adjusting a focal length of the imaging unit and focusing on the subject included in a predetermined first area within an imaging range of the imaging unit;
A reception control step of controlling reception of designation of a position of the first area in the imaging range, which is input by a user;
A position setting step of setting the first area to an arbitrary position within the imaging range based on the received specification, which is controlled by the processing of the reception control step;
A range setting step of setting a range of the first area according to a position set by the processing of the position setting step.
JP2002376100A 2002-12-26 2002-12-26 Imaging apparatus and method, and program Expired - Fee Related JP3969304B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002376100A JP3969304B2 (en) 2002-12-26 2002-12-26 Imaging apparatus and method, and program
US10/743,760 US7551223B2 (en) 2002-12-26 2003-12-24 Apparatus, method, and computer program for imaging and automatic focusing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002376100A JP3969304B2 (en) 2002-12-26 2002-12-26 Imaging apparatus and method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007102243A Division JP4561767B2 (en) 2007-04-09 2007-04-09 Imaging apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2004205884A true JP2004205884A (en) 2004-07-22
JP3969304B2 JP3969304B2 (en) 2007-09-05

Family

ID=32813646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002376100A Expired - Fee Related JP3969304B2 (en) 2002-12-26 2002-12-26 Imaging apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP3969304B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006203347A (en) * 2005-01-18 2006-08-03 Nikon Corp Image processing program, and digital camera
JP2009008954A (en) * 2007-06-28 2009-01-15 Sony Corp Imaging device, image display control method and program
JP2010271723A (en) * 2010-06-08 2010-12-02 Sony Corp Device and method and program
JP2011159166A (en) * 2010-02-02 2011-08-18 Canon Inc Display control device and display control method
JP2013013469A (en) * 2011-06-30 2013-01-24 Kyoraku Sangyo Kk Player terminal
US8525892B2 (en) * 2005-04-21 2013-09-03 Canon Kabushiki Kaisha Imaging apparatus and control method therefor
JP2014059915A (en) * 2013-12-27 2014-04-03 Canon Inc Display control device, control method for display control device, and program
KR20160069482A (en) * 2014-12-08 2016-06-16 캐논 가부시끼가이샤 Image capturing apparatus, control method therefor, and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4530067B2 (en) 2008-03-27 2010-08-25 ソニー株式会社 Imaging apparatus, imaging method, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006203347A (en) * 2005-01-18 2006-08-03 Nikon Corp Image processing program, and digital camera
JP4513580B2 (en) * 2005-01-18 2010-07-28 株式会社ニコン Image processing program and digital camera
US8525892B2 (en) * 2005-04-21 2013-09-03 Canon Kabushiki Kaisha Imaging apparatus and control method therefor
JP2009008954A (en) * 2007-06-28 2009-01-15 Sony Corp Imaging device, image display control method and program
JP2011159166A (en) * 2010-02-02 2011-08-18 Canon Inc Display control device and display control method
JP2010271723A (en) * 2010-06-08 2010-12-02 Sony Corp Device and method and program
JP2013013469A (en) * 2011-06-30 2013-01-24 Kyoraku Sangyo Kk Player terminal
JP2014059915A (en) * 2013-12-27 2014-04-03 Canon Inc Display control device, control method for display control device, and program
KR20160069482A (en) * 2014-12-08 2016-06-16 캐논 가부시끼가이샤 Image capturing apparatus, control method therefor, and storage medium
KR101879256B1 (en) * 2014-12-08 2018-07-17 캐논 가부시끼가이샤 Image capturing apparatus, control method therefor, and storage medium

Also Published As

Publication number Publication date
JP3969304B2 (en) 2007-09-05

Similar Documents

Publication Publication Date Title
US7551223B2 (en) Apparatus, method, and computer program for imaging and automatic focusing
JP4561767B2 (en) Imaging apparatus and method, and program
JP6765956B2 (en) Imaging control device and its control method
JP4284998B2 (en) Imaging apparatus and method, and program
US7471328B2 (en) Apparatus and method for rotating image in digital camera
JP2011028345A (en) Condition change device, camera, mobile apparatus and program
US10715719B2 (en) Image capturing apparatus and control method thereof
JP5765594B2 (en) Imaging apparatus and method, and program
JP6833505B2 (en) Imaging control device and its control method
JP2006279307A (en) Image recording and reproducing apparatus and key assign revision method
JP5988860B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP3969304B2 (en) Imaging apparatus and method, and program
JP4368106B2 (en) Imaging apparatus and method, and program
US11375115B2 (en) Image capturing apparatus, control method thereof, and recording medium thereof
US11418703B2 (en) Electronic equipment to perform functions based on different touches to a touch detecting face
JP2010271723A (en) Device and method and program
JP2017174028A (en) Movable image display device
JP2007097152A (en) Photographing apparatus
JP2021002746A (en) Image processing device, image processing method, and program
US11599976B2 (en) Display apparatus and control method with images of different dynamic ranges
US20230281768A1 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
JP2018006996A (en) Communication device, imaging device, control method of those, program, and storage medium
JP2018113538A (en) Imaging apparatus and control method
JP6461284B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP6242446B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070528

R151 Written notification of patent or utility model registration

Ref document number: 3969304

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100615

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100615

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110615

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120615

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130615

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees