JP6103526B2 - 撮影機器,画像表示機器,及び画像表示機器の表示制御方法 - Google Patents

撮影機器,画像表示機器,及び画像表示機器の表示制御方法 Download PDF

Info

Publication number
JP6103526B2
JP6103526B2 JP2013054252A JP2013054252A JP6103526B2 JP 6103526 B2 JP6103526 B2 JP 6103526B2 JP 2013054252 A JP2013054252 A JP 2013054252A JP 2013054252 A JP2013054252 A JP 2013054252A JP 6103526 B2 JP6103526 B2 JP 6103526B2
Authority
JP
Japan
Prior art keywords
image
unit
display
main subject
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013054252A
Other languages
English (en)
Other versions
JP2014179940A (ja
Inventor
浩一 新谷
浩一 新谷
伸祐 本間
伸祐 本間
貴之 松橋
貴之 松橋
岳彦 田端
岳彦 田端
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2013054252A priority Critical patent/JP6103526B2/ja
Publication of JP2014179940A publication Critical patent/JP2014179940A/ja
Application granted granted Critical
Publication of JP6103526B2 publication Critical patent/JP6103526B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, camcorders, webcams, camera modules specially adapted for being embedded in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/232Devices for controlling television cameras, e.g. remote control ; Control of cameras comprising an electronic image sensor
    • H04N5/23293Electronic viewfinders
    • H04N5/232939Electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N5/232945Region indicators or field of view
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, camcorders, webcams, camera modules specially adapted for being embedded in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/232Devices for controlling television cameras, e.g. remote control ; Control of cameras comprising an electronic image sensor
    • H04N5/23218Control of camera operation based on recognized objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, camcorders, webcams, camera modules specially adapted for being embedded in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/232Devices for controlling television cameras, e.g. remote control ; Control of cameras comprising an electronic image sensor
    • H04N5/23218Control of camera operation based on recognized objects
    • H04N5/23219Control of camera operation based on recognized objects where the recognized objects include parts of the human body, e.g. human faces, facial parts or facial expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, camcorders, webcams, camera modules specially adapted for being embedded in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/232Devices for controlling television cameras, e.g. remote control ; Control of cameras comprising an electronic image sensor
    • H04N5/23293Electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, camcorders, webcams, camera modules specially adapted for being embedded in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/232Devices for controlling television cameras, e.g. remote control ; Control of cameras comprising an electronic image sensor
    • H04N5/23296Control of means for changing angle of the field of view, e.g. optical zoom objective, electronic zooming or combined use of optical and electronic zooming

Description

この発明は、高倍率ズーム機能を備えた撮影機器において所望の撮影対象物(被写体)を確実にファインダ視野内に補足し得る構成を備えた撮影機器に関するものである。

従来、撮影光学系により結像された光学像を光電変換素子等によって順次画像信号に変換し、これにより得られた画像信号を所定の形態の画像データとして記録媒体に記録し得ると共に、この記録媒体に記録された画像データを画像として再生表示する画像表示装置、例えば液晶表示装置(LCD)等を備えて構成された撮影機器、例えばデジタルカメラやビデオカメラ等が一般に実用化され広く普及している。

また、近年、この種の撮影機器において適用される撮影光学系として、光学ズーム倍率が例えば20倍以上の高倍率ズームレンズを備えたものが実用化されつつある。さらに、これに加えて、撮像画像データに対して所定の画像処理を施すことによって、さらなる拡大画像を生成し得るいわゆる電子ズーム機能を備えたものが普及している。この電子ズーム機能を持つ撮影機器では、最短焦点距離に対するズーム倍率が例えば80倍等といった極めて高倍率のズーム機能をもつものがある。

この種の高倍率ズーム機能を備えた撮影機器を用いて撮影を行なう際に、短焦点側に設定されている状態から急激なズーミングを行なった場合、撮影を所望する主要被写体がファインダ視野内、詳しくはファインダとして使用する表示装置(背面表示パネル若しくはEVF(Electric View Finder))の画像表示範囲内から外れてしまい、主要被写体を見失ってしまうことがある。このように、ファインダ視野内から見失ってしまった主要被写体をファインダ視野内(画像表示範囲内)に捉え直すことは、設定ズーム域が長焦点側に設定されている程、困難になるという問題点がある。

従来のカメラにおいては、例えば特開2001−69496号公報等によって開示されている監視カメラ等のように、操作者がカメラの撮影位置や撮影方向を指定する簡単な操作を行うことで、カメラの向きを目標位置に合わせることができるように構成したものが提案され実用化されている。

特開2001−69496号公報

ところが、上記特開2001−69496号公報等によって開示されている手段は、固定されて撮影可能範囲が特定された監視カメラであって、特定の撮影範囲内における所望の位置や方向を指定することによって、カメラの向きを目標位置に合わせるような制御を行なうというものである。つまり、上記公報に記載の手段は、撮影しようとする被写体を目標としているのではなく、所望の撮影範囲を指定してカメラの向きを容易に遠隔制御することを目的とした技術である。

したがって、一般的な撮影機器(カメラ)を用いた撮影を行なう際に、上述したような状況、即ち急激なズーミングによって所望の被写体をファインダ視野内から見失うといった状況下において、その所望の被写体にカメラの向きを合わせて、ファインダ視野内に所望の被写体を再度表示させるといった場合には、上記公報に記載の手段は対応することができないと言える。

本発明は、上述した点に鑑みてなされたものであって、その目的とするところは、撮影光学系として高倍率の光学ズームレンズを備えていたり、高倍率の電子ズーム機能が備えられた撮影機器において、長焦点距離側のズーム設定をした時に手ブレ等の影響によって、撮影を所望する被写体がファインダ視野内の撮影可能領域から外れて見失ってしまったとしても、再度ファインダ視野内に捕らえ直すことが容易にできるように操作性を改善した撮影機器,画像表示機器,及び画像表示機器の表示制御方法を提供することである。

上記目的を達成するために、本発明の一態様の撮影機器は、対象物を狙うための撮影光学系と撮像素子とからなる撮像部と、上記撮像部から出力される画像信号を受けて画像を表示する表示部と、上記表示部の表示を制御する表示制御部と、上記撮像部から出力される画像信号に基いて上記対象物を設定する主要被写体設定部と、上記対象物をズーミングするズーム制御部と、上記ズーム制御部によるズーミング実行前に上記撮影光学系の短焦点側の焦点領域にて取得した画像信号に基いて主要被写体がファインダ視野内の略中央に配置されている状態の画像であって、ズーミングによる連続的な画角変化中の任意のタイミングに対応する理想画像を表す複数の理想画像データを作成する理想画像作成部と、上記理想画像作成部によって作成された上記理想画像データと、上記撮像部から順次出力される画像信号に基く出力画像データとを比較する画像比較部と、を具備し、上記表示制御部は、上記表示部に表示される画像に重畳させて、上記主要被写体設定部によって設定された上記対象物の位置を明示するための補助表示を行ない、上記画像比較部は、画像比較処理の結果に基いて上記理想画像データと上記出力画像データとの差異領域を判別し、上記表示制御部は、上記差異領域を上記補助表示として視認可能に表示する
また、本発明の他の一態様の画像表示機器は、観察画角を変更して画像取得可能な画像表示機器において、主要被写体がファインダ視野内の略中央に配置されている状態の画像であって、画角変更操作による連続的な画角変化中の任意のタイミングに対応する理想画像を表す複数の理想画像データを作成する理想画像作成部と、上記理想画像データと、上記画角変更操作に基いて取得された画像データとを逐次比較する画像比較部と、上記画像比較部が、画像比較処理の結果に基いて上記理想画像データと上記画角変更操作に基づいて取得された画像データとの差異領域を判別した結果に従って、上記差異領域を視認可能に表示する表示制御部とを有する。
そして、本発明の一態様の画像表示機器の表示制御方法は、観察画角を変更して画像取得可能な画像表示機器の表示制御方法において、主要被写体がファインダ視野内の略中央に配置されている状態の画像であって、画角変更操作による連続的な画角変化中の任意のタイミングに対応する理想画像を表す複数の理想画像データを作成する理想画像作成ステップと、上記理想画像データと、上記画角変更操作に基いて取得された画像データとを逐次比較する画像比較ステップと、上記画像比較処理の結果に基いて上記理想画像データと上記画角変更操作に基づいて取得された画像データとの差異領域を判別して視認可能に表示するステップとを有する。

本発明によれば、撮影光学系として高倍率の光学ズームレンズを備えていたり、高倍率の電子ズーム機能が備えられた撮影機器において、長焦点距離側のズーム設定をした時に手ブレ等の影響によって、撮影を所望する被写体がファインダ視野内の撮影可能領域から外れて見失ってしまったとしても、再度ファインダ視野内に捕らえ直すことが容易にできるように操作性を改善した撮影機器,画像表示機器,及び画像表示機器の表示制御方法を提供することができる。

本発明の第1の実施形態の撮影機器(カメラ)の内部主要構成を概略的に示すブロック構成図 図1の撮影機器(カメラ)を用いて撮影者が所望の被写体の撮影を行なっている際の様子を示す概念図 図2の状況において短焦点域側のズーム設定から長焦点域側へと理想的にズーミングが行なわれた場合に取得し得る各理想画像の範囲を概念的に示す概念図 図2に示す状況におけるズーミング時に手ブレが生じた場合の従来カメラのファインダ画像の変化を示す概念図 図1の撮影機器(カメラ)において、ズーミング実行中にファインダ画像にずれが生じた場合のようすを説明する図 図1の撮影機器(カメラ)の撮影モード時の処理シーケンスを示すフローチャート 本発明の第2の実施形態の撮影機器(カメラ)を主要被写体に向けた場合に撮影機器(カメラ)の垂直方向の姿勢を説明する図 図7の状態にある撮影機器(カメラ)の表示部に表示されるファインダ画面を示す図 本発明の第2の実施形態の撮影機器(カメラ)を主要被写体に向けた場合に撮影機器(カメラ)の水平方向の姿勢を説明する図 図9の状態にある撮影機器(カメラ)の表示部に表示されるファインダ画面を示す図 本発明の第2の実施形態の撮影機器(カメラ)の撮影モード時の処理シーケンスを示すフローチャート 図11の処理シーケンス中におけるターゲット選択処理サブルーチン(図11のステップS200)のフローチャート 図11の処理シーケンス中におけるターゲット座標算出/予測処理サブルーチン(図11のステップS300)のフローチャート 図11の処理シーケンス中におけるアシスト画面背景用静止画保存処理サブルーチン(図11のステップS400)のフローチャート 図11の処理シーケンス中におけるアシスト表示処理サブルーチン(図11のステップS500)のフローチャート 本発明の第2の実施形態の撮影機器(カメラ)におけるファインダ画像を示し、ズームレンズを短焦点側に設定したときのファインダ画像を例示する図 図16の状況からズームレンズを長焦点側に設定したときのファインダ画像を例示する図 図16の状況からズームレンズを長焦点側に設定したときのファインダ画像を例示する別の図 図16の状況からズームレンズを長焦点側に設定したときのファインダ画像を例示するさらに別の図 図16の状況からズームレンズを長焦点側に設定したときのファインダ画像を例示し、表示部の表示範囲から主要被写体を見失った状態のアシスト表示の例を示す図 図16の状況からズームレンズを長焦点側に設定したときのファインダ画像を例示し、表示部の表示範囲から主要被写体を見失った状態のアシスト表示の別の例を示す図

以下、図示の実施の形態によって本発明を説明する。以下の説明に用いる各図面においては、各構成要素を図面上で認識可能な程度の大きさとするため、各構成要素毎に縮尺を異ならせて示している場合がある。したがって、本発明は、これらの図面に記載された構成要素の数量,構成要素の形状,構成要素の大きさの比率及び各構成要素の相対的な位置関係は、図示の形態のみに限定されるものではない。

[第1の実施形態]
本発明の第1の実施形態は、高倍率ズームレンズを構成する撮影光学系を具備し、この撮影光学系の光学レンズ等によって形成された光学像を固体撮像素子を用いて光電変換し、これによって得られる画像信号を静止画像や動画像を表わすデジタルデータとして記録媒体に記録し、また記録媒体に記録されたデジタル画像データに基いて静止画像や動画像を表示装置に再生表示し得るように構成される撮影機器(以下、単にカメラという)を例示するものである。なお、この種の撮影機器は、上述したように画像を表示する表示装置を備えていることから、画像表示機器としての機能も有している。

まず、本発明の第1の実施形態の撮影機器であるカメラの概略的な構成について以下に説明する。図1は、本発明の第1の実施形態の撮影機器(カメラ)の内部主要構成を概略的に示すブロック構成図である。

本実施形態の撮影機器であるカメラ1は、図1に示すように、カメラボディ10とレンズ鏡筒20とによって構成されている。本カメラ1は、カメラボディ10に対してレンズ鏡筒20が着脱自在に構成されるいわゆるレンズ交換式カメラである。なお、本実施形態では、レンズ交換式カメラを例に挙げて説明するものであるが、本発明を適用し得るカメラとしては、この形態に限られることはなく、例えばカメラボディ10とレンズ鏡筒20とが一体に構成された形態のカメラであっても全く同様に適用することができる。

カメラボディ10は、信号処理制御部11と、ボディ側通信部12と、撮像素子13と、記録部14と、操作部15と、一時記録部16と、加速度角速度センサ17と、表示部18と、タッチパネル18bと、時計部19と、回動判定部30と、顔検出部31と、方位センサ32等を有して構成されている。

信号処理制御部11は、本カメラ1の全体の動作を統括的に制御する制御部としての機能を備え、各種構成ユニットの制御信号を処理すると共に、撮像素子13によって取得した画像信号(画像データ)に対する各種の信号処理等を行う信号処理部としての機能を備えた回路部である。

信号処理制御部11の内部には、ズーム判定部11aと、画像処理部11bと、タッチ判定部11cと、画像比較部11dと、表示制御部11eと、動体予測部11fと、手ブレ判定部11gと、座標判定部11hと、理想画像作成部11i等の各種の回路部が具備されている。

このうち、ズーム判定部11aは、手動ズーム操作に基く手動ズーミングであるか、若しくはカメラボディ10側の操作部15に含まれるズームレバー等(不図示)又はレンズ鏡筒20側の操作部23に含まれるズームスイッチ等(不図示;詳細は後述する)を操作することによってなされる電動ズーミングであるか等を検出し判定する回路部である。その判定処理は、例えばズームリング,ズームレバー,ズームスイッチ等が操作されることにより生じる指示信号を受けて行われる。さらに、ズーム判定部11aは、さらにズーミング方向、即ち実行されたズーム操作が、短焦点(広角)側から長焦点(望遠)側へのズーミングか、若しくはその逆方向かの判定をも行なう。

画像処理部11bは、撮像素子13によって取得された画像データに基いて各種の画像処理を施す信号処理回路部である。

タッチ判定部11cは、タッチパネル18bからの指示入力信号を受けて、その指示内容を判定する信号処理回路である。タッチ判定部11cによる判定結果に基いて、信号処理制御部11内における各種の制御が実行される。

画像比較部11dは、撮像素子13によって連続的に取得される複数の画像データ、即ちライブビュー画像を形成する複数の画像データと、理想的なズーミングがなされた時の画角変化を予想して得られるズーム量に応じた複数の理想画像とを比較する画像比較処理を行なう回路部である。

表示制御部11eは、表示部18を駆動制御する制御回路部である。表示制御部11eは、撮像素子13及びレンズ26等(後述する)からなる撮像部によって生成され取得された画像データを受けて、これを表示部18の表示パネル上に画像として表示させるための制御を行う。

ここで、上記撮像部は、撮影対象とする対象物(被写体)からの光を透過させて被写体の光学像を結像させる撮影光学系であるレンズ26等(後述する)と、このレンズ26によって結像された被写体像を受けて光電変換処理を行う撮像素子13とを含んで構成されるユニットである。

動体予測部11fは、撮像素子13によって連続的に取得される複数の画像データに基いて、被写体のフレーム間における動きベクトルを算出して動体を検出し、その動体の画像中における移動方向や移動速度を予測演算する像移動量算出処理等を実行する回路部である。この動体予測部11fによって検出された動体を主要被写体として設定するようにしてもよい。この場合、動体予測部11fは主要被写体設定部としても機能する。

手ブレ判定部11gは、撮像素子13によって連続的に取得される複数の画像データ若しくは加速度角速度センサ17や方位センサ32等からの出力に基いて、カメラ1の姿勢状態等を判定し、カメラ1に加わる手ブレ等を演算により判定する回路部からなる姿勢判定部である。また、手ブレ判定部11gは、上記画像比較部11dによる画像比較処理の結果に基いて、カメラ1のずれ量やずれ方向等を判定する回路部としても機能する。

座標判定部11hは、撮像素子13によって取得される画像データに基いて、画像内における特定の被写体像の位置を特定し、その座標を演算により判定する回路部である。

理想画像作成部11iは、レンズ26のズーム倍率が短焦点側に設定されている状態で設定された撮影対象とする主要被写体(図3等で示す符号101参照)に対し、理想的なズーミングがなされた時の画角変化(撮影領域の変化)の具合を予想して、そのズーミング中のズーム量に応じた複数の画像データを作成する画像信号処理回路部である。

ここで、主要被写体とは、撮影者が撮影を所望する主体となる被写体である。通常の場合、撮影者は、主要被写体に向けてカメラ1を構え、その主要被写体をファインダ視野内に入れた状態で、ズーミング,焦点調節操作等を行なう。この場合において、ズーミングは、主要被写体をファインダ視野の略中心に配置するようにしてなされるのが普通である。また、焦点調節操作は、主要被写体の主要な部位、例えば人物等では目の位置等に対して行われる。したがって、例えばファインダ視野内の略中央部に配置された被写体に対して、焦点調節操作がなされた場合に、その被写体を主要被写体として設定すればよい。この場合、焦点調節を行なうためのAF選択エリアの位置によって、焦点調節操作がなされた領域を判別することができる。

また、理想的なズーミングとは、主要被写体(101)が常にファインダ視野内の略中央部分に配置され続けるように行われるズーミングをいう。また、このような理想的なズーミングが行なわれた場合に、取得されるであろうと予想される複数の画像を理想画像というものとする。つまり、理想画像は、主要被写体(101)が常にファインダ視野内の略中央部分に配置されている状態の画像であって、ズーミングによる連続的な画角変化中の任意のタイミングに対応する画像をいうものとしている(後述の図3参照)。この理想画像は、上述したように、ズーミングによる画角変化に基いて演算によって予想し、例えば広角端画像データに基いてトリミング処理等を施すことによって作成することができるものである。そして、理想画像作成部11iは、上記理想画像のうち、ズーム倍率を例えば最大の高倍率(最望遠側)に設定した場合に取得し得る理想画像を基準画像として作成する。この基準画像は、後述するように、一時記録部16に一時的に記録される(後述する図6のステップS104の処理参照)。

撮像素子13は、例えばCCD(Charge Coupled Device;電荷結合素子)等の回路素子を用いたCCDイメージセンサー若しくはMOS(Metal Oxide Semiconductor;金属酸化膜半導体)等を用いたMOS型イメージセンサー等の固体撮像素子である光電変換素子等が適用される。撮像素子13によって生成されたアナログ画像信号は、信号処理制御部11の画像処理部11bへと出力されて各種の画像信号処理が実行される。

記録部14は、撮像素子13から出力され上記画像処理部11bにて処理済みの画像信号を受けて、これを所定の形態に変換する信号処理回路部と、この信号処理回路部によって生成された画像データを記録する記録媒体と、この記録媒体を駆動制御する制御部等を含んで構成される構成部である。ここで行われる画像信号の変換処理としては、例えば信号圧縮処理等を行って記録形態の画像データ変換する処理や、記録媒体に記録済みの画像データを読み込んで伸長処理等を施して画像信号を復元させる信号処理等である。なお、この種の圧縮伸長処理については、記録部14に含まれる信号処理回路部で行なう形態に限られることはなく、例えば信号処理制御部11内に同様の信号処理回路部を設け、それによって実行するような形態としてもよい。

一時記録部16は、撮像素子13によって取得された画像データ等を一時的に記録しておく回路部であって、例えばEEPROM(Electrically Erasable Programmable Read-Only Memory),RAM(Random Access Memory)等の半導体メモリ素子等が適用される。

操作部15は、カメラ1のカメラボディ10の外装部分に設けられる通常の押しボタン式若しくはスライド式,ダイヤル式等の形態の各種の操作部材であって、例えばシャッターリリースボタン(特に図示せず)等、各種の一般的な操作部材を含めた操作用の構成部を指すものである。

なお、本実施形態のカメラ1においては、上記操作部15とは別の操作用の操作部材として、タッチパネル18bを有している。このタッチパネル18bは、表示部18の表示面上に配置されており、撮影者が表示パネル上に表示中の画像に対応する所定領域に対してタッチ操作やスライド操作等を行うことによって、各種の操作指示信号が発生するように構成された操作部材である。このタッチパネル18bからの指示入力信号は、信号処理制御部11のタッチ判定部11cに送られて、その操作入力が判定される。

表示部18は、撮像素子13から出力された画像データ等若しくは記録部14により伸長処理された画像データ等に基いて、上記表示制御部11eの制御下において画像表示を行う構成部である。表示部18としては、例えば液晶ディスプレイ(LCD;Liquid Crystal Display),プラズマディスプレイ(PDP;Plasma Display),有機エレクトロルミネッセンスディスプレイ(OEL;Organic Electro-Luminescence Display)等の表示パネルが適用される。この表示部18は、撮影記録済みの画像データに基く画像を再生表示する機能を備えると共に、撮像素子13から出力された画像データを順次連続的に受けて画像を表示し続けることで、撮影動作時の撮影範囲を観察,確認を行なうファインダとしても機能する。なお、表示部としては、機器背面に設けた表示パネルのほかに、電子ビューファインダ(EVF;Electric View Finder)として利用する小型パネルを設けてもよい。通常のカメラの場合、ファインダを用いて観察し得る範囲をファインダ視野というが、上述したように、本実施形態のカメラ1においては、ファインダとして撮像素子13から出力された画像データに基く画像を表示させる表示装置を用いている。このことから、本実施形態のカメラ1によるファインダである表示部18で観察し得る観察像は、画像データに基く表示画像であ。したがって、以下の説明においては、ファインダとしての表示部18に表示される画像をファインダ画像というものとする。

時計部19は、いわゆるリアルタイムクロック(Real-Time Clock;RTC)と言われるコンピュータの内部時計である。時計部19は、例えばデータファイル等の日時情報の付与を行ったり、制御処理中における計時や時間制御等の際に利用される。

加速度角速度センサ17は、カメラ1の水平垂直を基準とした姿勢、即ち撮影光学系の光軸の垂直方向に対する傾き状態(例えば仰角)を検出したり、カメラ1の構え方、即ち縦位置,横位置等の構え方についての姿勢状態、換言すれば画像の上下方向を判定したり(加速度センサ)、光軸に直交する軸周りのカメラ1の回転量を測定する角速度センサ等を含む検出信号処理回路部である。加速度角速度センサ17としては、例えば角速度センサとしてのジャイロセンサ等が適用される。

方位センサ32は、カメラ1の撮影光学系の光軸が向いている方位を検出する検出信号処理回路部である。方位センサ32としては、例えば地磁気センサ,電子コンパス等が適用される。

ボディ側通信部12は、後述するレンズ側通信部22との間で電気的に接続することによって、カメラボディ10とレンズ鏡筒20との間で制御信号,情報信号等をやり取りするカメラボディ10側の通信用信号処理回路部である。

回動判定部30は、上記加速度角速度センサ17等によって検出されるカメラ1の姿勢変化情報に基いて、カメラ1が光軸周りに回動されたか否か、回動された場合にその回動方向等を判定する判定回路部である。この回動判定部30による判定結果を受けて、画像処理回路11bにおいて、表示部18の表示パネル上に表示中の画像の上下左右関係を適正に表示させるための表示画像回転処理が行なわれる。

顔検出部31は、撮像素子13によって取得され画像処理部11bにて画像処理がなされて出力される画像データに基いて表される画像中において、人間の顔や特定種類の動植物等(例えば犬,猫,鳥,花等)の被写体に対応する画像が存在するかどうかを検出するための被写体検出部としての画像信号処理回路部である。顔検出部31としては、顔画像を検出するだけでなく、これに加えて、例えば色検出やパターン検出等を行なうものも含めてよい。そして、信号処理制御部11は、顔検出部31によって検出された被写体に対しては、動体予測部11fとの連繋によって動体予測制御を行ないつつ、自動的に画像内での動体追尾を行なって、常に追尾被写体にピントを合わせ続けるといった制御を行う。

レンズ鏡筒20は、レンズ制御部21と、レンズ側通信部22と、レンズ側操作部23と、ズーム駆動部24aと、フォーカス駆動部24bと、ズームレンズ位置検出部25aと、フォーカスレンズ位置検出部25bと、撮影光学系であるレンズ26と、レンズ側記録部27等によって主に構成されている。

レンズ制御部21は、上記カメラボディ10側の信号処理制御部11の制御下においてレンズ鏡筒20側の各構成ユニットの動作を制御する制御部である。

操作部23は、レンズ側の切り換え操作、例えば通常撮影モードと近接撮影モードとの切り換えや、自動焦点調節動作(オートフォーカス(AF)動作)と手動焦点調節動作(マニュアルフォーカス(MF)動作)等の操作や、焦点調節操作を行なうピントリング,ズーム操作を行なうズームリング等、若しくは電動用ズームスイッチ等の操作部材を含む総体をいう。

ズーム駆動部24aは、上記レンズ26のうちズーム動作に関与するズーム光学系の駆動を行うための駆動モータ及びその駆動力を伝達する駆動機構等を含む駆動ユニットである。また、フォーカス駆動部24bは、上記レンズ26のうちフォーカス動作に関与するフォーカス光学系の駆動を行うための駆動モータ及びその駆動力を伝達する駆動機構等を含む駆動ユニットである。

ズームレンズ位置検出部25aは、ズーム光学系の光軸上の位置を検出する位置検出回路である。また、フォーカスレンズ位置検出部25bは、フォーカス光学系の光軸上の位置を検出する位置検出回路である。

レンズ側記録部27は、本レンズ鏡筒20に関する各種の情報等を予め記録させた記録媒体を含む記録用回路部である。この記録部27に記録されている各種情報は、レンズ制御部21から各通信部22,12を介してカメラボディ10側へと伝達されて、適宜必要に応じて利用されるものである。このレンズ側記録部27としては、例えばEEPROM,ROM(Read Only Memory),フラッシュメモリ等の不揮発性半導体メモリ素子等が適用される。

レンズ26の内部には、複数の光学レンズ等によって構成され被写体の光学像を結像させる撮影光学系や、この撮影光学系の個々の光学レンズをそれぞれ保持する複数の鏡筒部材や、これら複数の鏡筒部材をそれぞれ個別に光軸方向に進退させる駆動用鏡筒等のほか、撮影光学系のうちの一部であるズーム光学系を制御するズーム制御部26aと、撮影光学系のうちの一部であるフォーカス光学系を制御するピント制御部26bと、撮影光学系を透過する光束の光量を調整する絞り機構と、この絞り機構を駆動制御する絞り制御部26c等が具備されている。なお、上述したように、上記レンズ26とカメラボディ10の撮像素子13とによって撮像部が構成される。

なお、本実施形態では、レンズ26に含まれる撮影光学系として、例えば20〜50倍程度の光学ズーム倍率を実現し得るいわゆる高倍率の光学ズームレンズが適用される。また、本実施形態のレンズ鏡筒20における撮影光学系であるレンズ26は、ズーム駆動部24aに含まれる駆動モータ等によって進退移動されることによってズーミングを行ない得るいわゆる電動式ズーム機構を具備している。その具体的な構成については、従来のカメラに適用される一般的な構成の電動式高倍率ズームレンズと略同様の構成からなるものとして、詳細説明及び図示は省略する。

また、上記レンズ鏡筒20の形態としては、電動式ズーム機構を備えたものに限られることはなく、例えばレンズ鏡筒外周面に設けられたレンズ操作部のうちのズームリングを撮影者が任意に回動操作することによってズーミングを行ない得る手動式ズーム機構を備えたものであってもよい。

レンズ側通信部22は、上記ボディ側通信部12との間で電気的に接続することによって、レンズ鏡筒20とカメラボディ10との間で制御信号,情報信号等をやり取りするレンズ鏡筒20側の通信用信号処理回路部である。

なお、カメラボディ10,レンズ鏡筒20は、上述した構成部以外にもその他の各種構成ユニット等を有して構成されているものであるが、それらの各種構成ユニット等は、本発明に直接関連しない構成であるので、従来の一般的なカメラと同様の構成を具備するものとして、その詳細説明及び図示を省略している。

例えば、撮影光学系の光路を開閉し、撮影動作の際に撮影光学系を透過する光束の光量を調整するためのシャッター機構については図示及び説明を省略しているが、本実施形態のカメラ1においても、従来のカメラと同様の通常のシャッター機構を有している。このシャッター機構は、カメラボディ10側に配設するフォーカルプレーンシャッターでもよいし、レンズ鏡筒20側に配設するレンズシャッターでもよい。シャッター機構がカメラボディ10側に配設されている場合には、シャッター機構は主にボディー側の制御部によって制御される。また、シャッター機構がレンズ鏡筒20側に配設されている場合には、シャッター機構は主にボディー側の制御部の制御下においてレンズ制御部21を介して制御される。

また、本実施形態のカメラ1に適用されているレンズ鏡筒20は、高倍率の光学ズームレンズとして構成しているが、これに代えて(若しくは加えて)、カメラボディ10側に電子ズーム機能が備わっていてもよい。この電子ズーム機能を実現するための構成は、例えば信号処理制御部11内の画像処理部11b等によって、撮像素子13で取得した画像データに対して所定の画像処理を施す等、従来一般に実用化されている手段を用いればよい。さらに、レンズ鏡筒20自体は、高倍率の光学ズームレンズでなくとも、カメラボディ10側に高倍率の電子ズーム機能を備えているような構成でもよい。したがって、カメラ1においては、光学ズーム機能を制御するためにズーム制御部26aを備え、また、これに代えて(若しくは加えて)、電子ズーム機能を制御するための電子的なズーム制御部を備えるようにすればよい。

このように構成された本実施形態のカメラ1を用いて撮影を行なう際に、レンズ26が広角寄りに設定されている状態から急激なズーミング操作若しくは迅速な電動ズーム動作が行なわれる際の様子を以下に説明する。図2は、本実施形態のカメラを用いて撮影者が所望の被写体の撮影を行なっている際の様子を示す概念図である。図3は、図2の状況において短焦点域側のズーム設定から長焦点域側へと理想的にズーミングが行なわれた場合に取得し得る各理想画像の範囲を概念的に示す概念図である。

図2に示す状況は、次のようなものである。即ち、撮影者100は撮影を行なおうとして、自身の前方に広がる風景に相対してカメラ1を構えている。この場合において、撮影者100は、自身の前方風景のうち遠方(図2の例では建物の上方)にいる鳥101を主要被写体として撮影を行なおうとしており、その方向にカメラ1のレンズ鏡筒20を向けている状況を示している。なお、図2において点線で示す枠50は、カメラ1において所定の焦点領域、例えばレンズ鏡筒20の光学ズーム設定を最短焦点域付近若しくは最短焦点域から2〜3倍程度のズーム設定した時に撮影されるべき領域を示している。

図3は、このときのカメラ1の表示部18の全表示領域18aを概念的に示している。そして、図3に示す状態から、撮影者100がさらにズーミングを行なう場合、主要被写体101が常に画像中央部近傍に配置されるようになるのが望ましい。即ち、図3の枠50の画像が表示部18の表示パネルに表示されている状態において、ズーミングが行なわれると、通常の場合、撮影領域は、図3の表示領域18aの四隅から延びる矢印符号Zに示すように狭まっていくことになる。つまり、ズーミング実行中においては、図3で示す点線枠51,52,53の順に撮影領域が狭まる方向で変化する。なお、ズーミング中において、実際に表示部18の表示パネルに表示されるファインダ画像は、各時点において上記点線枠51,52,53で示す領域内の画像が表示パネルの表示領域いっぱいに拡大されて表示される形態となる。

このように、撮影者100が撮影を所望する主要被写体101が判明しており、かつその主要被写体101が撮影領域の中央部分、即ち表示部18に表示されるファインダ画像の略中央部近傍に配置されている状況において適切なズーミングがなされた場合、そのズーミングによる撮影領域の変化の具合は、カメラ1の信号処理制御部11によって予想することができる。

ところが、高倍率ズーム機能の長焦点域側に設定して撮影を行なう場合、撮影領域が極めて狭い範囲となることから、特にカメラ1を手持ちで撮影を行なう場合には、手ブレ等がわずかでも生じると撮影対象とする主要被写体がファインダ画像の範囲内から外れてしまい見失ってしまうということがある。図4はこのような場合の状況を示している。

図4は、図2に示す状況におけるズーミング時に手ブレが生じた場合のファインダ画像の変化を示す概念図である。このうち、図4(A)はズーミング開始時のファインダ画像(図3と同じ状態)の表示状態と、ズーミングによる撮影領域の変化を示している。実線で示す枠50は。図3の枠50に相当する。この状態でズーミングが行なわれ、そのズーミングの実行中においてカメラ1の向きが図4(A)に示す矢印Y1方向へずれたとする。その場合、図4(A)で示す点線枠51a,52a,53aの順にズーミングに伴って撮影領域が狭まる方向で変化することになる。なお、図4(A),図4(B),図4(C)において符号Tで示す点線枠は、主要被写体101を明示するために表示されるターゲット枠である。このターゲット枠Tは、例えば撮影者100が撮影を所望する主要被写体101を指定する等の操作や、若しくは顔検出部31によって検出された被写体の近傍に表示されるものである。図4(A)の状態では、主要被写体101を含むターゲット枠Tが、ファインダ画像の略中央部近傍に設定されているものとする。

ここで、図4(A)の状態から、上述したように、ズーミング中に矢印Y1方向へのずれが生じたとすると、図4(A)の点線枠51aに対応するファインダ画像は図4(B)のようになる。この図4(B)の状態では、図4(A)の状態から拡大された主要被写体101を含むターゲット枠Tは、ファインダ画像の略中央部分よりも若干ずれた位置(本例ではファインダ画像下端寄りの位置)となっている。

続いてズーミングがなされた後の図4(A)の点線枠52aに対応するファインダ画像は図4(C)のようになる。この図4(C)の状態では、図4(B)の状態から拡大された主要被写体101を含むターゲット枠Tは、さらにファインダ画像下端寄りの位置に表示されている。

さらに続いて、ズーミングがなされた後の図4(A)の点線枠53aに対応するファインダ画像は図4(D)のようになる。この図4(D)の状態では、図4(C)の状態からさらに画像が拡大されることによって、主要被写体101を含むターゲット枠Tは、ファインダ画像の下端縁よりも外側に外れてしまった状態、即ち主要被写体101がファインダ画像内から完全に見失ってしまった状態を示している。

このように、撮影を所望する目標物となる遠方被写体としての主要被写体101を、例えばファインダ画像の略中央部近傍に設定してズーミングを行なうような場合、高倍率ズーム機能の長焦点域においては、わずかな手ブレ等が影響して、主要被写体101をファインダ画像内から見失ってしまうことがある。

そこで、本実施形態のカメラ1においては、ファインダ画像中における主要被写体101の位置を常に把握し得るようなターゲットマークを表示させると共に、ファインダ画像として連続的に表示されるライブビュー画像の各フレーム画像と、対応する理想画像とを比較する画像比較処理を行なって、ズーミングの実行中に生じた手ブレ等に起因するカメラ1(ファインダ画像)のずれを判定し、そのずれ量やずれ方向等の視覚的な情報を同ファインダ画像中に表示して、撮影者に手ブレ等の発生を知らせる手段を有している。

図5は、本実施形態のカメラ1において、ズーミング実行中にファインダ画像にずれが生じた場合のようすを説明する図である。このうち、図5(A)は、ズーミング実行中のある時点におけるファインダ画像(図3の枠50に相当する)を示し、この状態から長焦点域へのズーミングを行なった場合のファインダ画像の変化を点線で示している。この場合において、ファインダ画像中には、水平線40a及び垂直線40bからなるターゲットマークT1が表示される。ターゲットマークT1は、主要被写体101のある付近を交点とするように、即ち主要被写体101に照準を合わせた形態で表示される。ターゲットマークT1は、例えばカメラ1の手ブレ等によるファインダ画像内の主要被写体101の像移動、若しくは主要被写体101が動体である場合における実際の移動に伴うファインダ画像内での像移動に従って、その主要被写体101をファインダ画像内において追跡移動する。

図5(B)は、図5(A)の点線枠51で示すファインダ画像が表示部18の表示パネルに拡大表示されている状態を示す図である。この時点におけるファインダ画像としては理想的な画像枠51内の理想画像が表示されている。同時にターゲットマークT1の交点、即ち主要被写体101はファインダ画像内における略中央部に配置された状態にある。

図5(C)は、図5(B)の状態において手ブレ等が生じた場合のファインダ画像を例示し、これに理想画像を重ねて示している。なお、図5(C)で示すファインダ画像は、図4(A)の点線枠51a,図4(B)に対応している。図5(B)の状態で手ブレ等が生じて、例えば図5に示す矢印Y1方向に(上方に)カメラ1の向きがずれた場合を想定する。このとき、図5(B)のファインダ画像は、符号54で示すような位置変化が生じることになる。ここで、図5(C)の領域54a+54cで示される枠領域は、手ブレ等が生じなかった場合の理想画像である。この理想画像に対して、手ブレ等に起因してカメラ1の向きに符号54で示す変化が生じると、手ブレ等が生じた場合のファインダ画像は、図5(C)の領域54a+54bの枠領域で示す範囲となる。ここで、領域54a+54bで示されるファインダ画像を手ブレ画像というものとする。なお、領域54aは主要被写体101を含む画像領域である。また、領域54bは、手ブレ等に伴って余分に表示される画像領域である。つまり、領域54bは、理想画像に対して本来表示されるべきではない領域であり、また、理想画像と手ブレ画像との差異領域である。そして、領域54cは、手ブレ等が伴って理想画像のうちの表示されなくなる領域である。つまり、領域54cは、理想画像において本来表示されるべき領域である。

また、図5(C)の手ブレ画像(54a+54b)においては、ターゲットマークT1の交点(即ち主要被写体101)は、略中央部から下方寄りにずれていることがファインダ画像を見るだけでわかる。さらに、本実施形態のカメラ1においては、図5(C)の手ブレ画像(ファインダ画像)では、余分となる差異領域54bの半透明表示若しくは暗転表示等(図5(C)においては領域54bを点線ハッチングで表記している)の補助表示を行なって、当該領域54bと、その他の領域54aとを一目で判別できるように明確な表示を行なっている。これらに加えて、さらにターゲットマークT1の表示、例えば線の太さや表示色等をずれの状況に応じて変化させる等によって、手ブレ等の発生を告知するようにすることができる。図5(C)に示す例では、ターゲットマークT1の表示を、図5(B)の状態に比べて若干太く表示させている。この場合において、ターゲットマークT1のうち、手ブレ等の生じている方向のマーク、即ち図5(C)の例では水平線40aのみを太線表示としている。

このように、本実施形態のカメラ1においては、ファインダ画像を見るだけで、主要被写体101に対してカメラ1の向きがずれていることが判る。これと同時に、カメラ1の向きのずれ方向やずれ量も容易に判別できる。したがって、撮影者は、主要被写体101が略中央部分(若しくは所望の位置)に配置されるような理想画像となるように、カメラ1の向きを容易に修正することができる。ズーミングは光学ズームでも電子ズームでもよく、この観察範囲、領域の切り換えを観察画角変更という言葉で表せば、電子的な望遠鏡のような画像表示機器などにも応用可能なことは明らかである。つまり、観察画角を変更して画像取得可能な画像表示機器において、画角を狭くする際の理想的な画角変化画像を予想して生成した複数の理想画像データを作成する理想画像作成部と、上記理想画像と、画角変更操作に基いて取得された画像とを逐次比較する画像比較部と、をさらに具備すればこの発明は応用可能である。そして、上記画像比較部は、画像比較処理の結果に基いて理想画像と取得画像との差異領域を判別し、上記差異領域を上記補助表示として視認可能に表示する表示制御部があれば、図4、図5で説明したことは達成可能である。視認可能表示は、黒や半透明ではなく、枠と区別できるように、明らかに被写体とは異なる色にしてもよい。また、この部分にガイド表示を行ってもよい。

図5(D)は、図5(C)の状態からさらにずれが生じた場合のファインダ画像の例を示している。なお、図5(D)で示すファインダ画像は、図4(A)の点線枠52a,図4(C)に対応している。図5(D)の差異領域54bbは、図5(C)の状態に比べて広くなっている(領域54b<領域54bb)。つまり、図5(D)の状態は図5(C)の状態に比べてカメラ1の向きのずれ量が増加していることを示している。これに伴って、図5(D)の領域54aaは、図5(C)の領域54aに比べてその範囲が狭まっている(領域54a>領域54aa)。この場合にも、差異領域54bbを半透明表示若しくは暗転表示等の補助表示によって明確化すると共に、主要被写体101に照準を合わせたターゲットマークT1を合わせて表示している。

図5(E)は、図5(D)の状態からさらにずれが生じた場合のファインダ画像の例を示している。なお、図5(E)で示すファインダ画像は、図4(A)の点線枠53a,図4(D)に対応している。つまり、ファインダ画像から主要被写体101を完全に見失った状態を示している。図5(E)の差異領域54bbbは、図5(D)の状態に比べて広くなっていて(領域54bb<領域54bbb)、ファインダ画像の殆どを差異領域54bbbが占めている。本実施形態のカメラ1においては、このような状況になったときには、図5(E)に示すように、差異領域54bbbを半透明表示若しくは暗転表示等の補助表示を行なう。これに加えて、ファインダ画像の略中央部近傍には、予め一時的に記録しておいた基礎画像を所定サイズに縮小しアイコン化した画像を表示させ、加えてずれ方向を明示する矢印アイコン56等の補助表示を表示させる。この矢印アイコン56は、その矢印の示す方向の表示パネルによる表示範囲外に、主要被写体101が存在していることを指し示す指標である。カメラ1の向きのずれ量に応じて、矢印アイコン56の大きさを変化させるような表示制御を行なうようにしてもよい。

このように本実施形態のカメラ1は、撮影動作時に表示部18に表示される画像(ファインダ画像)に、所定の条件(例えば顔検出機能等)に基いて検出された主要被写体101を交点とする水平垂直線40a,40bからなるターゲットマークT1を追跡表示させると共に、ズーミング実行中に手ブレ等が生じてカメラ1の向きが主要被写体101からずれた場合(ファインダ画像が理想画像に対してずれが生じた場合)には、表示部18のファインダ画像に、理想画像に対するずれ領域(54b,54bb,54bbb)を明確に表わすことのできる補助表示(半透明表示等)を行なうようにしている。したがって、撮影者は、通常の場合必ず行なわれる行為、即ちファインダ画像を観察するという行為に伴って、主要被写体101に対するカメラ1の向きのずれ方向やずれ量を容易に知ることができる。したがって、高倍率ズーム機能を用いたズーミングを行なった場合に、手ブレ等に起因するカメラ1の向きのずれが生じても、また、たとえファインダ画像内から主要被写体101を完全に見失ったとしても、カメラ1の向きの修正を確実に実行し、ファインダ画像の略中央部分、若しくはファインダ画像の表示範囲内の所望の位置に、主要被写体101を確実に配置することができ、よって理想的な画像を撮影することができる。

次に、上述したようなファインダ画像の表示制御等の作用を実現するための処理シーケンスを、図6のフローチャートを用いて以下に説明する。図6は、本実施形態の撮影機器(カメラ)の撮影モード時の処理シーケンスを示すフローチャートである。

まず、本実施形態のカメラ1が電源オン状態とされて起動している状態にあり、かつ動作モードが撮影モードに設定されている状態にあるものとする。

この状態にあるとき、ステップS101において、信号処理制御部11は、撮像素子13及びレンズ26等からなる撮像部,表示部18等を制御してライブビュー画像表示処理を実行する。

続いて、ステップS102において、信号処理制御部11は、操作部15若しくはタッチパネル18b等からの指示信号を監視すると共に、ズーム判定部11aによる判定結果等に基いて、短焦点(広角)側から長焦点(望遠)側へのズーム操作(望遠側ズーム操作という)が行なわれたか否かの確認を行なう。この時点において望遠側ズーム操作が行われる場合は、次のような状況であると考えられる。即ち、撮影者は、カメラ1を構え、そのレンズ26の光軸を、撮影を所望する主要被写体に向けていることになる。

このとき、カメラ1のファインダ画像内(表示部18のライブビュー画像内)には、その主要被写体101が捉えられており、かつ主要被写体101がファインダ画像の略中央部分近傍に配置された状態となっている。

こうして、撮影者が主要被写体101をファインダ画像内に捉えた状態で自動焦点調節操作等の通常の撮影動作に先立って行なう操作を行なうと、ピントが合った瞬間に主要被写体101に対する被写体検出部(顔検出部31等)において顔,色,パターン検出等が行われ、主要被写体101として判別するのと同時に、その主要被写体101を自動的に動体追尾する制御がなされる。このような動作の流れによって主要被写体101が設定される。したがって、主要被写体101を設定する手段であり主要被写体設定部としては、例えば被写体検出部(31)や自動焦点調節動作を実行するピント制御部(26b)等が含まれる。

このステップS102の処理にて、短焦点(広角)側から長焦点(望遠)側へのズーム操作が行なわれたことが確認された場合には、次のステップS103の処理に進む。また、その旨が確認されない場合には、ステップS121の処理に進む。

ステップS103において、信号処理制御部11は、一時記録部16に所定の基準画像データが既に記録されているか否かの確認を行なう。この基準画像データは、理想画像作成部11iによって作成された基準画像を表わす画像データである。ここで、基準画像データが未だ記録されていないことが確認された場合には、次のステップS104の処理に進む。また、基準画像データが記録済みであることが確認された場合には、ステップS106の処理に進む。

ステップS104において、信号処理制御部11の理想画像作成部11iは、表示中のライブビュー画像データ、即ち撮像部からの出力データに基いて、上記ステップS102の処理にて実行された望遠側ズーム操作の開始時点で設定済みの主要被写体101を含む基準画像を記録する基準画像記録処理を実行する。つまり、この基準画像記録処理は、上記ステップS102の処理の望遠側ズーム操作の開始直前のファインダー画像について、その略中央部分の所定の領域の画像を基準画像として切り取り、その基準画像データを一時記録部16に一時的に仮記録する処理である。

続いて、ステップS105において、信号処理制御部11は、撮像部,表示部18等を制御して、表示部18に表示中のライブビュー画像若しくはファインダ画像に対して所定のターゲットマーク表示を行なう表示制御処理を実行する。ここで、ターゲットマークとは、設定された主要被写体(101)を表示部18の表示画面上において明示するためのマーク表示,アイコン表示等である。ターゲットマークを表示させるための表示用画像データ,アイコンデータ等は、例えば記録部14の一部、若しくはカメラボディ10内のいずれかの部位に設けられた内蔵メモリ(不図示)等に予め記憶されているものとする。ターゲットマークは、図4の例では符号Tで示す枠線表示であり、図5の例では水平垂直線40a,40bからなり、符号T1で示す二本の直線である。

ステップS106において、信号処理制御部11は、通信部12,22を介してレンズ制御部21を制御する。レンズ制御部21は、ズーム駆動部24aを介してズーム制御部26aを制御してレンズ26の長焦点(望遠)側へのズーミングを実行する(望遠側ズーム動作処理)。その後、ステップS107の処理に進む。

ステップS107において、信号処理制御部11の画像比較部11dは、上述のステップS106の望遠側ズーム動作によるズーム量に応じて都度取得される複数の画像データ(撮像部からの出力データ)と、これら各画像データのそれぞれのズーム量に対応する理想画像とを比較する画像比較処理を行なう。

続いて、ステップS111において、信号処理制御部11は、上述のステップS107の処理による画像比較処理結果に基いて、画像比較が可能であるか否かの確認を行なう。ここで、画像比較が可能であることが確認された場合には、次のステップS112の処理に進む。また、画像比較が不可能であることが確認された場合には、ステップS117の処理に進む。

次に、ステップS112において、信号処理制御部11は、表示制御部11eを介して表示部18の制御を行なって、表示部18において本来見えなくて良い所(上記差異領域;図5(C)参照)を半透明表示や暗転表示等の補助表示(図5(C),図5(D)図5(E)参照)を行なう。

ここで、カメラ1の向きが大幅にずれてしまって差異領域がファインダ画像の殆どを占めてしまうような状況になった場合には、次のステップS113において、信号処理制御部11は、同様に表示制御部11eを介して表示部18の制御を行なって、表示部18の上記差異領域(半透明表示部分若しくは暗転表示部分)に、上記ステップS104の処理にて一時記録部16に一時記録しておいた仮記録画像、即ち基本画像を重畳表示させる(図5(E)参照)。

一方、上述のステップS102の処理にて、短焦点(広角)側から長焦点(望遠)側へのズーム操作が確認されない場合にステップS121の処理に進むと、このステップS121において、信号処理制御部11は、操作部15若しくはタッチパネル18b等からの指示信号を監視すると共に、ズーム判定部11aによる判定結果等に基いて、長焦点(望遠)側から短焦点(広角)側へのズーム操作が行なわれたか否かの確認を行なう。ここで、長焦点(望遠)側から短焦点(広角)側へのズーム操作が行なわれたことが確認された場合には、次のステップS122の処理に進む。また、その旨が確認されない場合には、ステップS131の処理に進む。

ステップS122において、信号処理制御部11は、表示制御部11eを介して表示部18等を制御して、表示部18に表示中の補助表示、例えば半透明補助表示(図5(C),図5(D)参照)や仮記録画像表示(図5(E)参照)等の表示を終了させ、通常のライブビュー画像のみの表示とする。

続いて、ステップS123において、信号処理制御部11は、通信部12,22を介してレンズ制御部21と連繋して、ズーム駆動部24aを介してズーム制御部26aを制御し、レンズ26の短焦点(広角)側へのズーミングを実行する。その後、ステップS131の処理に進む。

そして、ステップS131において、信号処理制御部11は、操作部15若しくはタッチパネル18b等からの指示信号を監視して、撮影動作を実行するための操作がなされてその旨の指示信号が発生したか否かの確認を行なう。ここで、撮影操作が確認されない場合には、上述のステップS101の処理に進み、以降の処理を繰り返す。一方、撮影操作が確認された場合には、所定の撮影処理シーケンスへ移行する。なお、本実施形態のカメラ1における撮影処理シーケンスは、従来一般的な形態の撮影機器(カメラ)と同様の処理シーケンスであるものとして、その詳細についての図示及び説明は省略する。

なお、上述のステップS111の処理にて、画像比較が不可能であると判定される場合とは、例えば上記ステップS106の処理における望遠側ズーム動作によって実際に取得された画像と、この画像のズーム量に対応する理想画像とが、大幅に異なるような場合、例えばズーミング中にカメラ1の向き等に大きなずれが生じる等に起因して、実際に取得された画像と理想画像とが大きく異なる画像となってしまったような場合や、主要被写体が高速に移動する動体等である場合等が考えられる。このような場合(画像比較不可能な場合)には、上述したように、ステップS117の処理に進む。

すると、このステップS117において、信号処理制御部11は、別の方法での判定処理を実行する。これに続いて、ステップS118において、信号処理制御部11は、上記ステップS117の処理による別方法によって所定の補助表示を行なう。なお、上記ステップS117,S118の処理(別方法)については、本発明の第2の実施形態として、その詳細を後述するものとする。

以上説明したように上記第1の実施形態によれば、高倍率ズーム機能を備えた撮影機器(カメラ1)において、ファインダ画像(表示部18のライブビュー画像)内に撮影を所望する主要被写体101を設定した後、望遠側ズーム動作を行なうと、カメラ1は、設定した主要被写体101を中心とする理想画像を作成し、その理想画像と実際のズーミングに伴って連続的に取得される画像との画像比較を行なって、理想画像に対する実際の画像のずれ量やずれ方向を判別する。そして、カメラ1は、その判別結果に基いて表示部18のライブビュー画像に重畳させて、カメラ1の向きのずれ量やずれ方向等を明示する補助表示(半透明表示,暗転表示等)を行なう。

このような構成により、撮影者は、この補助表示をガイドとして主要被写体101がファインダ画像の略中央部分に配置されるように、カメラ1の向きを修正すれば、容易に主要被写体101をファインダ画像内に捉え続けることができる。

また、主要被写体101がファインダ画像外にはずれて完全に見失ってしまった場合には、基準画像の表示や矢印アイコン等の補助表示を行うことで、撮影者は、カメラ1の向きの修正方向や修正量等を把握することができる。したがって、撮影者は、極めて容易にファインダ画像内に主要被写体101を捉え直すことが容易にできる。

上述の第1の実施形態においては、予め作成した理想画像と、実際に取得した画像とを比較することで、手ブレ等に起因する撮影機器の向き、即ちファインダ画像のずれ量やずれ方向を判別するように構成した。しかしながら、画像比較処理によってはファインダ画像のずれを判別することができない場合がある(例えばずれが大きかったり主要被写体が動体である場合等;上述の図6のフローチャートのステップS111参照)。そのような場合には、上述の第1の実施形態における図6のフローチャートにて説明したように、別の方法での判定処理を行ない(図6ステップS117)、別方法による補助表示を行なう(図6ステップS118)。この別方法の判定処理,補助表示を、次の第2の実施形態として説明する。

[第2の実施形態]
本発明の第2の実施形態の撮影機器の基本的な構成は、上述の第1の実施形態と略同様であって、その制御シーケンスを若干異ならせたものである。したがって、上述の第1の実施形態と同様の構成については、同じ符号を附してその詳細説明を省略し、異なる部分についてのみ以下に説明する。

図7〜図18は、本発明の第2の実施形態を示す図である。このうち図7は、本実施形態の撮影機器(カメラ)を主要被写体に向けた場合に撮影機器(カメラ)の垂直方向の姿勢を説明する図である。図8は、図7の状態にある撮影機器(カメラ)の表示部に表示されるファインダ画面を示す図である。図9は、本実施形態の撮影機器(カメラ)を主要被写体に向けた場合に撮影機器(カメラ)の水平方向の姿勢を説明する図である。図10は、図9の状態にある撮影機器(カメラ)の表示部に表示されるファインダ画面を示す図である。

図11は、本実施形態の撮影機器(カメラ)の撮影モード時の処理シーケンスを示すフローチャートである。図12は、図11の処理シーケンス中におけるターゲット選択処理サブルーチン(図11のステップS200)のフローチャートである。図13は、図11の処理シーケンス中におけるターゲット座標算出/予測処理サブルーチン(図11のステップS300)のフローチャートである。図14は、図11の処理シーケンス中におけるアシスト画面背景用静止画保存処理サブルーチン(図11のステップS400)のフローチャートである。図15は、図11の処理シーケンス中におけるアシスト表示処理サブルーチン(図11のステップS500)のフローチャートである。

図16〜図19は、本実施形態の撮影機器(カメラ)におけるファインダ画像を示す図である。このうち図16は、ズームレンズを短焦点側に設定したときのファインダ画像を例示する図である。図17は、ズームレンズを長焦点側に設定したときのファインダ画像を例示する図であって、表示部の表示範囲から主要被写体を見失ってしまった状態において、サブ画面に全体イメージを表示している状態を示している。図18は、ズームレンズを長焦点側に設定したときのファインダ画像を例示する図であって、表示部の表示範囲から主要被写体を見失ってしまった状態を示している。図19は、ズームレンズを長焦点側に設定したときのファインダ画像を例示する図であって、表示部の表示範囲内に主要被写体を捉えている状態を示している。図20,図21は、ズームレンズを長焦点側に設定したときのファインダ画像を例示する図であって、表示部の表示範囲から主要被写体を見失ってしまった状態におけるアシスト表示(補助表示)の例を示している。このうち、図20は、ファインダ画像に表示し得る領域に対して、比較的近い位置に主要被写体が存在する場合の補助矢印アイコンの形態を示す図である。図21は、ファインダ画像に表示し得る領域に対して、主要被写体が遠くに存在する場合の補助矢印アイコンの形態を示す図である。

本実施形態においては、ファインダ画像内における主要被写体の位置情報として、撮影機器(カメラ)を基準とした座標情報を演算により取得して持つようにしている。つまり、この座標情報は、例えば撮影機器(カメラ)の姿勢(水平状態),向き(方位)を基準として、その基準状態からの傾き角度等の情報である。

本実施形態のカメラ1においては、撮影者によってファインダ画像内に主要被写体が設定されると、その主要被写体の画像内における位置が演算により算出される。この場合における主要被写体の設定は、上述の第1の実施形態と同様に、次のように行われる。

即ち、
カメラ1のファインダ画像内(表示部18のライブビュー画像内)に撮影を所望する主要被写体を捉える。
その主要被写体をファインダ画像の略中央部分近傍に配置するようにカメラ1の姿勢を維持し続ける。
主要被写体をファインダ画像内に捉えた状態で合焦動作等の通常の撮影動作に先立って行なう操作を行なう。
ピントが合った瞬間に主要被写体に対する顔,色,パターン検出等が行われて主要被写体が判別される。このとき同時に、該主要被写体の動体追尾制御が自動的に開始される。

このようにして主要被写体が設定されると、続いて、主要被写体の画像内における位置を、カメラ1の光軸Oが向いている仰角や方位等に基いて算出する演算処理が実行される。この場合における主要被写体位置を算出する演算処理は、例えばカメラ1の信号処理制御部11内の座標判定部11h等が主に行なう。主要被写体位置算出演算処理は、次のように行われる。

ここで、カメラ1が主要被写体101に向けられている状態として、図7,図9に示す状態を例示する。また、カメラ1がこのような状態にある時の表示部18のファインダ画像は、図8,図10に示すようになる。このような状況にあるときのファインダ画像内における主要被写体(ターゲット)位置の算出処理の流れを以下に例示する。

まず、矩形状のファインダ画像内における主要被写体101の垂直方向(Y方向)の位置Ytを求める(図7,図8参照)。ここで図7,図8に示す符号は次の通りである。
O:撮影光学系(レンズ26)の光軸線
H:水平線
Gv:画面垂直方向の画角端(図7では上端のみを示す)
Sv:撮影光学系(レンズ26)と主要被写体101とを結んだ仮想線
Y:ファインダ画像の垂直方向の幅寸法(ピクセル)
Yt:光軸線から主要被写体までの垂直方向の離間距離(ピクセル)
θav:撮影光学系(レンズ)26の垂直方向の画角の2分の1
θav=180/π×2atan(Y/2f)/2 [deg.]
ここで、f=焦点距離である。
θbv:光軸線Oと主要被写体101の位置を示す仮想線Svとのなす角(被写体角度)
θbv=θav×(Yt/(Y/2))
θcv:水平線Hと光軸線Oとのなす角度。このθcvは加速度角速度センサ17の検出結果より取得される。なお、近年の加速度センサ,角速度センサ等は、被写体までの距離が10m程度の場合、角度約0.1度程度の精度を有するものが実用化されており、鳥程度の大きさの被写体の位置を特定するのには充分な精度である。
θdv:水平線と被写体位置とのなす角(垂直方向)
θdv=θbv+θcv
このようにして、ファインダ画面内における主要被写体101の垂直方向の位置が算出される。

次に、矩形状のファインダ画像内における主要被写体101の水平方向(X方向)の位置Xtを求める(図9,図10参照)。ここで、図9,図10に示す符号は次の通りである。なお、図7,図8と同じ符号の説明は省略する。また、平面上で表わす方位角は、北(N)を基準(0度)として時計周りに、東(E)を90度、南(S)を180度、西(W)を270度とする角度で表わすのが一般的である。本実施形態においても、従来一般的な形態に準じる。即ち、
N:方位角の基準(0度)であって北(N)を示す
E:方位角の基準から時計周りに90度の位置であって東(E)を示す
S:方位角の基準から時計周りに180度の位置であって南(S)を示す
W:方位角の基準から時計周りに270度の位置であって西(W)を示す
Gh:画面水平方向の画角端(図9では左端のみを示す)
Sh:撮影光学系(レンズ26)と主要被写体101とを結んだ仮想線
X:ファインダ画像の水平方向の幅寸法(ピクセル)
Xt:光軸線から主要被写体までの水平方向の離間距離(ピクセル)
θah:撮影光学系(レンズ)26の水平方向の画角の2分の1
θah=180/π×2atan(X/2f)/2 [deg.]
ここで、f=焦点距離である。
θbh:光軸線Oと主要被写体101の位置を示す仮想線Shとのなす角(被写体角度)
θbh=θah×(Xt/(X/2))
θch:方位角O度線Nと光軸線Oとのなす角度。このθchは方位センサ32の検出結果より取得される。
θdh:方位角0度線Nと被写体位置とのなす角(水平方向)
θdh=θbh+θch

次に、本実施形態の撮影機器(カメラ)を用いた撮影動作時において、表示部に表示されるファインダ画像の表示形態の概念を、図16〜図19を用いて説明する。

本実施形態においては、ズーミング経過中の表示部18のライブビュー画像(ファインダ画像)内の一部の領域に補助的な小画面を表示させるようにしている。この補助的小画面をアシスト画面というものとする。このアシスト画面には、例えばズーミングを開始する直前の画像、即ちレンズ26の短焦点(広角)側に設定しているときに、上記理想画像作成部11i(図1参照)によって作成された静止画像等を表示させるようにする。

例えば、図16は、ズームレンズを短焦点側に設定したときの表示部18の表示領域18a(ファインダ画像)を例示するものである。図16において、撮影を所望する主要被写体を符号101で示し、この場合は飛ぶ鳥をターゲット(主要被写体)とするものとする。この例示においては、主要被写体101はファインダ画像内を移動している。図16のファインダ画像内においては、主要被写体101が所定の時間後に移動した様子を符号101xで示している。

この図16に示す状態(短焦点状態)から、長焦点側へのズーミングを行なうと、本実施形態の撮影機器(カメラ1)においては、その表示部18の表示領域18a(ファインダ画像)内には、図17に示すように、ライブビュー画像内の所定の領域にアシスト画面枠60が表示される。このアシスト画面60内には、予め主要被写体を設定した後、ズーミングを行なう直前の画像60aが表示されるようになっている。この画像60aは、ズーミング前の状態、即ちレンズ26が短焦点側に設定されている状態で取得された静止画像である。本実施形態においては、この画像60aをズーミング前に予め一時記録するようにしている。なお、この画像60aは、上述したようにアシスト画面枠60内に表示する画像であることからアシスト画面背景画像というものとする。

また、この画像60aには、その略中央部近傍に枠表示61が表示されている。この枠表示61は、アシスト画面背景画像60aの画角に対して現在設定されているレンズ26の焦点距離に対応する画角を示す指標枠である。したがって、図17に示す例では、表示部18の表示領域18a内には、現在リアルタイムで取得中のライブビュー画像が表示される(主要被写体の一部のみが表示されている)と共に、アシスト画面枠60が表示されている。この場合においては、アシスト画面枠60内には一時記録済みのアシスト画面背景画像60aがアシスト画面枠60の全領域を使って表示されていると共に、これに重畳させて、現在設定されている焦点距離に対応する枠表示61が合わせて表示されている。

一方、図18は、長焦点側にズーミングしたときのファインダ画像の別の状態(アシスト表示)を例示する図である。図18の表示例では、表示部18の表示範囲内から主要被写体101がはずれた状態となっている。つまり、図18で示す状態は、カメラ1の向きが主要被写体からずれてしまい、ファインダ画像内から主要被写体を見失った状態を示している。この状態となったときには、アシスト画面枠60には、外縁周囲に余白部を持たせて縮小されたアシスト画面背景画像60aと、そのアシスト画面背景画像60a内の所定領域に現在のズーム設定(焦点距離)に対応する枠表示61とが表示されており、さらにアシスト画面背景画像60aの外縁周囲余白部に、動体予測部11fによって予測される位置に主要被写体を表わすアイコン画像60bが表示されている。なお、主要被写体を表わすアイコン画像60bは、例えば主要被写体が設定されたときに、撮像素子13により取得される撮像画像データに基いて作成される。また、記録部14等に予め用意されたアイコン画像集の中から、撮像素子13により取得される撮像画像データに基いて顔検出部31によって検出された顔,動植物等の被写体に対応するアイコン画像を読み出して使用するようにしてもよい。

このようなアシスト画面枠60をライブビュー画像(ファインダ画像)の一部として表示させることにより、本実施形態の撮影機器(カメラ1)においては、見失った主要被写体のおおまかな予測位置を把握することができるようなアシスト表示がなされる。したがって、撮影者は、主要被写体の予測位置がアシスト画面枠60内に含まれるようにカメラ1の向きを修正するだけで、主要被写体をライブビュー画像(ファインダ画像)内に捉え直すことができるようになる。

なお、図19は、長焦点側にズーミングしたときのファインダ画像の別の状態を例示する図である。この例では、表示部18の表示領域18a内に主要被写体が捉えられている状態を示している。

図20,図21は、長焦点側にズーミングしたときのファインダ画像のさらに別の状態(アシスト表示)を例示する図である。

図20は、主要被写体101がファインダ画像の表示範囲内からはずれた直後の状態を示している。また、図21は、図20の状態の後の状況、即ち主要被写体101がさらにファインダ画像の表示範囲内から遠ざかった状態を示している。

このような状況となったとき、本実施形態の撮影機器(カメラ1)においては、表示部18のファインダ画像内において、主要被写体101の画面外におけるおおまかな位置を指し示すための指標として矢印アイコン63a,63bを表示する。

図20の例では、主要被写体101が画面右上隅近傍から画面外に外れていく状況である。このとき、主要被写体101の存在を示すための矢印アイコン63aは、その主要被写体101が退出した近傍、即ちファインダ画像の画面右上隅近傍に表示される。

図21の例では、図20の状態から時間が経過して、主要被写体101はファインダ画面から遠ざかった状況である。このとき、主要被写体101の存在を示すための矢印アイコン63bは、上記矢印アイコン63aと略位置に表示される。この場合において、図20の矢印アイコン63aに比べて、図21の矢印アイコン63bの方を、小サイズで表示している。ここで、主要被写体101が画面外へ外れた後、ファインダ画像の表示範囲から遠ざかった度合いを、矢印アイコン(63a,63b)のサイズの変化で表わすようにした例である。したがって、例えば、表示部18のファインダ画像の表示範囲内から主要被写体101を見失ってしまったような状況下において、上記矢印アイコンのサイズが大きければ、主要被写体101が近傍にあることがわかる。そこで撮影者は矢印アイコンの指し示す方向にカメラ1を向け直せば、再度ファインダ画像の表示範囲内に主要被写体101を捉え直すことができる可能性が高い。一方、上記矢印アイコンのサイズが小さい場合には、主要被写体101が遠くにあることを示している。この場合には、撮影者は矢印アイコンの指し示す方向に、大きくカメラ1を振る必要があることがわかる。そうすれば、再度ファインダ画像の表示範囲内に主要被写体101を捉え直すことができる可能性がある。

上記図20,図21に示す例では、矢印アイコン(63a,63b)のサイズを、主要被写体が遠ざかる程、小さく表示するようにした。この場合には、矢印アイコンの大きさ変化を大から小へと変位させ、主要被写体の遠ざかる距離に比例するように設定する。

この例に限ることはなく、ほかの例としては、例えば主要被写体が遠ざかる程、矢印アイコンが大きく表示されるようにしてもよい。この場合には、矢印アイコンの大きさを、主要被写体を捉え直すのに必要なカメラの向きの修正量に比例させるよう設定する。いずれの場合にも、画面画に外れた主要被写体の位置情報に応じて、矢印アイコンのサイズを変化させて表示することで、撮影者は直感的に操作することができる。

次に、本実施形態の撮影機器(カメラ)における撮影動作の処理シーケンスを、図11のフローチャートを用いて以下に説明する。カメラ1が電源オン状態とされて起動している状態にあるものとする。

この状態にあるとき、ステップS150において、信号処理制御部11は、現在設定されている動作モードが撮影モードであるか否かの確認を行なう。ここで、撮影モードに設定されていることが確認された場合には、次のステップS151の処理に進む。また、撮影モード以外に設定されていることが確認された場合には、ステップS181の処理に進む。

ステップS181において、信号処理制御部11は、現在設定されている動作モードが再生モードであるか否かの確認を行なう。ここで、再生モードに設定されていることが確認された場合には、所定の再生処理シーケンスへ移行する。なお、本実施形態のカメラ1における再生処理シーケンスは、従来一般的な形態の撮影機器(カメラ)と同様の処理シーケンスであるものとして、その詳細についての図示及び説明は省略する。一方、再生モード以外に設定されていることが確認された場合は、他の動作モードへ移行するようにしてもよいが、それらの他の動作モードについては、本発明に直接関係しないので、その詳細説明及び図示は省略し、図11のフローチャートにおいては、簡易的に、上述のステップS150の処理に戻ることとしている。

上述のステップS150の処理にて撮影モードの設定が確認されて、ステップS151の処理に進むと、このステップS151において、信号処理制御部11は、撮像素子13及びレンズ26等からなる撮像部等を制御して撮像動作処理を開始する。なお、詳細は省略するが、この撮像動作処理を開始するトリガーとしては、例えば撮像動作を開始するための操作部材であるシャッタレリーズ操作の第1段操作、即ち第1(1st.:ファースト)レリーズ操作、若しくはタッチパネル18bの任意の位置へのタッチ操作等である。したがって、実際には撮影者がこれら所定の第1レリーズ操作を行なうことで、撮像動作処理が開始する。

ステップS152において、信号処理制御部11は、自動露出(AE;Auto Exposure)制御処理を開始する。

続いて、ステップS153において、信号処理制御部11は、撮像部からの出力を受けて測光を行ない、その測光結果に基いて所定の露出演算処理を実行する。
ステップS154において、信号処理制御部11は、AE処理が完了したか否か、即ち安定した露出値が設定されたか否かの確認を行なう。ここで、AE処理が完了するまで、上記ステップS150〜S154と同様の処理を繰り返し、AE処理が完了したことが確認された場合には、次のステップS155の処理に進む。

ステップS155において、信号処理制御部11は、自動焦点調節(AF;Auto Focus)制御処理を開始する。なお、このAF制御処理を開始するトリガーとしては、例えばタッチパネル18bのタッチ操作等である。つまり、撮影者が、表示部18に表示中のライブビュー画像を見ながら所望の被写体に対応する位置をタッチパネル18bを介してタッチ操作することによってAF処理制御処理は開始する。

続いて、ステップS156において、信号処理制御部11は、撮像部からの出力を受けて、通信部12,22を介してレンズ制御部21と連繋して、フォーカス駆動部24bを介してピント制御部26bを制御し、ピント位置制御処理を実行する。

次に、ステップS157において、信号処理制御部11は、撮像部からの出力(取得した画像データ)に基く所定の画像処理を実行する。

ステップS158において、信号処理制御部11は、顔検出部31からの出力に基いて被写体の顔,色,パターン検出等を行なう顔検出処理を実行する。

続いて、ステップS159において、信号処理制御部11は、撮像素子13によって連続的に取得される複数の画像データに基いて、被写体のフレーム間における動きベクトルを算出する像移動量算出処理を実行する。この像移動量算出処理は、例えば動体予測部11f等において行われる。

ステップS160において、信号処理制御部11は、撮像部,表示部18等を制御してライブビュー画像表示処理を実行する。その後、ステップS161の処理に進む。

ステップS161において、信号処理制御部11は、現在設定されている動作モードが撮影モードのうちの動画撮影を行うための動画モードであるか否かの確認を行なう。ここで、動画モードに設定されていることが確認された場合には、ステップS162の処理に進み、このステップS162において、所定の動画記録処理を実行する。また、動画モードに設定されていない場合には、ステップS200の処理に進む。

なお、上述のステップS151〜S160,S162の各処理における個々の具体的な処理は、従来一般のカメラにおいて広く普及している一般的な処理が行われるものとして、その詳細説明は省略する。

次に、ステップS200において、信号処理制御部11は、ターゲット選択処理を実行する。図12にターゲット選択処理サブルーチンのフローチャートを示す。なお、ここで、ターゲットとは、撮影を所望する主要被写体をいうものとする。

図12のターゲット選択処理シーケンスが実行されると、まず、ステップS201において、信号処理制御部11は、撮像素子13から出力され連続的に生成されるライブビュー画像データに基いて、ファインダ画像内に所望のターゲット(主要被写体101)が存在するか否かの確認を行なう。ここで、ファインダ画像内に所望のターゲット(主要被写体101)が存在しない場合には、次のステップS202の処理に進む。また、ファインダ画像内に所望のターゲット(主要被写体101)が存在することが確認された場合には、ステップS210の処理に進む。

ステップS202において、信号処理制御部11は、例えば上述の図11のステップS151,S155等の処理においてタッチ操作がなされたか否かの確認を行なう。ここで、タッチ操作が確認されない場合には、次のステップS203の処理に進む。また、所定のタッチ操作が確認された場合には、ステップS208の処理に進む。

続いて、ステップS208において、信号処理制御部11は、上述のステップS202において確認されたタッチ操作等の指示を受けて、タッチ操作が行なわれた位置座標(タッチ位置座標)にある被写体を、ターゲット(主要被写体)であると判断し、これをターゲットとして選択する。その後、ステップS210の処理に進む。

一方、ステップS203において、信号処理制御部11は、上述の図11のステップS158の顔検出処理の結果に基いて、ファインダ画像内に顔(若しくは所定の色,パターン等)が検出されたか否かの確認を行なう。ここで、ファインダ画像内に顔等が検出されていない場合には、次のステップS204の処理に進む。また、ファインダ画像内に顔等が検出された場合には、ステップS207の処理に進む。

ステップS207において、信号処理制御部11は、上記顔検出処理の結果、検出されたファインダ画像内の顔等を含む画像領域をターゲット(主要被写体)であると判断し、これをターゲットとして選択する。その後、ステップS210の処理に進む。

一方、ステップS204において、信号処理制御部11は、上述の図11のステップS159の像移動量算出処理の結果に基いて、ファインダ画像内に動体が存在するか否かの確認を行なう。ここで、ファインダ画像内に動体が確認されない場合には、次のステップS205の処理に進む。また、ファインダ画像内に動体が確認された場合には、ステップS206の処理に進む。

ステップS206において、信号処理制御部11は、確認されたファインダ画像内の動体を含む画像領域をターゲット(主要被写体)であると判断し、これをターゲットとして選択する。その後、ステップS210の処理に進む。

一方、ステップS205において、信号処理制御部11は、上述の図11のステップS155等処理にてAF選択エリアの選択設定がされているか否かの確認を行なう。ここで、AF選択エリアの設定が確認されない場合には、一連の処理を終了し、図11の元の処理シーケンスに戻る(リターン)。また、AF選択エリアの設定が確認された場合には、ステップS209の処理に進む。

ステップS209において、信号処理制御部11は、ファインダ画像内に設定されたAF選択エリアを含む画像領域をターゲット(主要被写体)であると判断し、これをターゲットとして選択する。その後、ステップS210の処理に進む。

ステップS210において、信号処理制御部11は、上述のステップS206〜S209の各処理にて選択設定されたターゲット(主要被写体)を含む画像の情報を抽出する処理を実行する。この情報抽出処理は、例えば画像処理部11b等において行われる。

続いて、ステップS211において、信号処理制御部11は、上述のステップS210の処理にて抽出されたターゲット画像をアイコン化するターゲット画像アイコン生成処理を実行する。その後、一連の処理を終了し、図11の元の処理シーケンスに戻る(リターン)。そして、図11に戻ると、次のステップS300の処理に進む。

なお、上述のステップS201〜S205の各処理のうちいずれの処理によってもターゲットの選択に失敗して、図11の処理シーケンスに戻る(リターンする)場合は、例えば手ブレ等が大きかったり、ファインダ画像内における被写体の移動量が大きい等の起因して、主要被写体を捉えることができなかった等の状況が考えられる。したがって、そのような場合は、次のステップS300以降の処理を継続し得ないことから、上述のステップS100の処理に戻る処理シーケンスとしてもよい。

次に、ステップS300において、信号処理制御部11は、ターゲット座標算出/予測処理を実行する。図13にターゲット座標算出/予測処理サブルーチンのフローチャートを示す。

図13のターゲット座標算出/予測処理シーケンスが実行されると、まず、ステップS301において信号処理制御部11は、ライブビュー画像内にターゲット(主要被写体)が存在するか否かの確認を行なう。ここで、ターゲット(主要被写体)が存在することが確認された場合には、ステップS304の処理に進む。また、ターゲット(主要被写体)が存在しない場合には、ステップS302の処理に進む。

ステップS302において信号処理制御部11は、ターゲット(主要被写体)位置情報が複数あるか否かの確認を行なう。ここで、ターゲット(主要被写体)位置情報が複数ある場合には、ステップS303の処理に進む。また、ターゲット(主要被写体)位置情報が複数ない場合には、一連の処理を終了し、図11の元の処理シーケンスに戻る(リターン)。

ステップS303において信号処理制御部11は、ターゲット位置予測情報を算出する処理を実行する。その後、一連の処理を終了し、図11の元の処理シーケンスに戻る(リターン)。

一方、上述のステップS301の処理にて、ターゲット(主要被写体)の存在が確認されてステップS304の処理に進むと、このステップS304において信号処理制御部11は、方位センサ32からの情報を取得する。ここで取得した情報は、データとして一時記録部16に一時的に記録される。

次いで、ステップS305において信号処理制御部11は、加速度角速度センサ17からの情報を取得する。ここで取得した情報は、データとして一時記録部16に一時的に記録される。

続いて、ステップS306において信号処理制御部11は、通信部12,22を介してレンズ制御部21との連繋により、レンズ鏡筒20側から焦点距離情報を取得する。ここで取得した情報は、データとして一時記録部16に一時的に記録される。

次に、ステップS307において信号処理制御部11は、ターゲット位置情報を算出する処理を実行する。このターゲット位置情報算出処理は、例えば上述の図7〜図10で説明した算出処理を用いる。

続いて、ステップS308において信号処理制御部11は、上述のステップS307の処理にて算出されたターゲット位置情報をデータとして、例えば一時記録部16に一時的に記録保持する処理を行なう。その後、一連の処理を終了し、図11の元の処理シーケンスに戻る(リターン)。そして、図11に戻ると、次のステップS400の処理に進む。

次に、ステップS400において、信号処理制御部11は、アシスト画面背景用静止画保存処理を実行する。図14にアシスト画面背景用静止画保存処理のフローチャートを示す。

図14のアシスト画面背景用静止画保存処理シーケンスが実行されると、まず、ステップS401において信号処理制御部11は、アシスト画面背景画像が存在するか否かの確認を行なう。ここで、アシスト画面背景画像が存在しない場合には、ステップS402の処理に進む。また、アシスト画面背景画像が存在する場合には、ステップS403の処理に進む。

ステップS402において、信号処理制御部11は、確認されたアシスト画面背景画像を静止画像として一時記録部16に一時的に保存する処理を実行する。その後、一連の処理を終了し、図11の元の処理シーケンスに戻る(リターン)。

一方、ステップS403において、信号処理制御部11は、旧背景画像焦点距離と現在の焦点距離とを比較する処理を行なう。ここで、「旧背景画像焦点距離>現在の焦点距離」である場合には、ステップS402の処理に進む。また、「旧背景画像焦点距離≦現在の焦点距離」である場合、即ち長焦点側から短焦点側へ向けてのズーミングである場合には、一連の処理を終了し、図11の元の処理シーケンスに戻る(リターン)。そして、図11に戻ると、次のステップS500の処理に進む。

次に、ステップS500において、信号処理制御部11は、アシスト表示処理を実行する。図15にアシスト表示処理のフローチャートを示す。

図15のアシスト表示処理シーケンスが実行されると、まず、ステップS501において信号処理制御部11は、撮像部から連続的に出力される画像データに基いて主要被写体(ターゲット)を見失った(ロストした)か否かの確認を行なう。ここで、ターゲットロスト状態が確認されない場合は、図11の元の処理シーケンスに戻る(リターン)。そして、図11に戻ると、次のステップS163の処理に進む。ターゲットロスト状態を確認した場合には、ステップS502の処理に進む。

ステップS502において信号処理制御部11は、現在ズーム動作中であるか否かの確認を行なう。ここで、ズーム動作中であることが確認された場合には、ステップS506の処理に進む。また、ズーム動作中ではないことが確認された場合には、ステップS503の処理に進む。

ステップS503において信号処理制御部11は、表示制御部11eを介して表示部18等を制御して、表示中のライブビュー画像内の所定の領域にアシスト画面を表示させ、そのアシスト画面内にアシスト画面背景用静止画を表示させる(図17符号60参照)。

次に、ステップS504において信号処理制御部11は、現在の予測位置にターゲット画像アイコンを表示させる(図17符号60a,図18符号60b参照)。

続いて、ステップS505において信号処理制御部11は、現在のカメラの向いている方向の枠表示を行なう(図17〜図19符号61参照)。その後、図11の元の処理シーケンスに戻る(リターン)。そして、図11に戻ると、次のステップS163の処理に進む。

上述のステップS502の処理にて、ズーム動作中である場合に、ステップS506の処理に進むと、このステップS506において信号処理制御部11は、アシスト用の矢印アイコンのサイズを算出する。このサイズ算出処理は、動体予測部11fによる出力結果等に基いて演算がなされる。

続いて、ステップS507において信号処理制御部11は、アシスト用の矢印アイコンを表示させる制御を行なう。その後、図11の元の処理シーケンスに戻る(リターン)。そして、図11に戻ると、次のステップS163の処理に進む。

図11に戻って、ステップS163において、信号処理制御部11は、操作部15からの指示信号を監視して、第2(2nd.:セカンド)レリーズ操作が実行されたか否かの確認を行なう。ここで、第2レリーズ操作が実行されたことが確認された場合には、次のステップS164の処理に進む。また、第2レリーズ操作の実行が、例えば所定の時間、確認されない場合には、ステップS150の処理に戻る。

第2レリーズ操作が実行されたことが確認されて、ステップS163の処理に進むと、このステップS163において、信号処理制御部11は、静止画撮影動作処理を実行する。これにより、上記第2レリーズ操作の実行時点における静止画像データが取得され、記録部14に所定の形態の画像データとして記録された後、上記ステップS150の処理に戻る。

以上説明したように、上記第2の実施形態によれば、高倍率ズーム機能を備えた撮影機器(カメラ1)において、ファインダ画像(表示部18のライブビュー画像)内に撮影を所望する主要被写体101を設定すると、カメラ1は、設定した主要被写体101のファインダ画像内における位置情報を演算により算出し、さらに、その動体予測を行なう。望遠側ズーム動作を行なうと、ライブビュー画像内の所定の領域にアシスト画面枠60を表示させ、このアシスト画面枠60内に予め取得済みのアシスト画面背景用静止画を表示させ、そのアシスト画面背景用静止画上に主要被写体を表わすターゲット用アイコンを表示させる。

このような構成により、撮影者は、アシスト画面枠60内の表示をガイドとして主要被写体101がファインダ画像の略中央部分に配置されるように、カメラ1の向きを修正すれば、容易に主要被写体101をファインダ画像内に捉え続けることができる。

また、主要被写体101がファインダ画像外にはずれて完全に見失ってしまった場合には、アシスト用の矢印アイコン(図20,図21符号63a,63b)を表示させるようにしたので、ファインダ画像から外れた位置にあるべき主要被写体のおおまかな位置を知ることができ、これをガイドとして、撮影者は再度主要被写体101をファインダ画像内に捉え直すことが容易にできる。
なお、上記各実施形態においては、ズーミングによる遠距離被写体の拡大について説明したが、顕微鏡などでは近距離対象物についても同様の問題が起こりうるので、例えば対物レンズ入れ変え時などに、こうした補助表示は操作者にとって大変有効になる。

また、本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。

特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、これらの動作フローを構成する各ステップは、発明の本質に影響しない部分については、適宜省略も可能であることは言うまでもない。

また、ここで説明した技術のうち、主にフローチャートで説明した制御や機能は、多くがプログラムにより設定可能であり、そのプログラムをコンピュータが読み取り実行することで上述した制御や機能を実現することができる。そのプログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD−ROM等、不揮発性メモリ等の可搬媒体や、ハードディスク、揮発性メモリ等の記憶媒体に、その全体あるいは一部を記録又は記憶することができ、製品出荷時又は可搬媒体或いは通信回線を介して流通又は提供可能である。利用者は、通信ネットワークを介してそのプログラムをダウンロードしてコンピュータにインストリールしたり、あるいは記録媒体からコンピュータにインストールすることで、容易に本実施の形態の撮影機器を実現することができる。

本発明は、デジタルカメラ等の撮影機能に特化した電子機器である撮影機器に限られることはなく、高倍率ズーム機能(光学ズーム,電子ズームに関りなく)を備え、かつ撮影機能を備えた他の形態の電子機器、例えば携帯電話,スマートフォン,録音機器,電子手帳,パーソナルコンピュータ,タブレット端末機器,ゲーム機器,携帯テレビ,時計,GPS(Global Positioning System)を利用したナビゲーション機器等、各種の撮影機能付き電子機器にも広く適用することができる。
さらに、撮像素子を用いて画像を取得し、その取得画像を表示装置に表示する機能を有する電子機器、例えば望遠鏡,双眼鏡,顕微鏡等の観察用機器に対しても同様に適用することができる。

1……カメラ,10……カメラボディ,
11……信号処理制御部,11a……ズーム判定部,11b……画像処理部,11c……タッチ判定部,11d……画像比較部,11e……表示制御部,11f……動体予測部,11g……手ブレ判定部,11h……座標判定部,11i……理想画像作成部,
12……ボディ側通信部,13……撮像素子,14……記録部,15……操作部,16……一時記録部,17……加速度角速度センサ,18……表示部,18b……タッチパネル,19……時計部,
20……レンズ鏡筒,
21……レンズ制御部,22……レンズ側通信部,23……レンズ側操作部,24a……ズーム駆動部,24b……フォーカス駆動部,25a……ズームレンズ位置検出部,25b……フォーカスレンズ位置検出部,26……レンズ,26a……ズーム制御部,26b……ピント制御部,26c……制御部,27……レンズ側記録部,
30……回動判定部,31……顔検出部,32……方位センサ,

Claims (13)

  1. 対象物を狙うための撮影光学系と撮像素子とからなる撮像部と、
    上記撮像部から出力される画像信号を受けて画像を表示する表示部と、
    上記表示部の表示を制御する表示制御部と、
    上記撮像部から出力される画像信号に基いて上記対象物を設定する主要被写体設定部と、
    上記対象物をズーミングするズーム制御部と、
    上記ズーム制御部によるズーミング実行前に上記撮影光学系の短焦点側の焦点領域にて取得した画像信号に基いて主要被写体がファインダ視野内の略中央に配置されている状態の画像であって、ズーミングによる連続的な画角変化中の任意のタイミングに対応する理想画像を表す複数の理想画像データを作成する理想画像作成部と、
    上記理想画像作成部によって作成された上記理想画像データと、上記撮像部から順次出力される画像信号に基く出力画像データとを比較する画像比較部と、
    を具備し、
    上記表示制御部は、上記表示部に表示される画像に重畳させて、上記主要被写体設定部によって設定された上記対象物の位置を明示するための補助表示を行ない、
    上記画像比較部は、画像比較処理の結果に基いて上記理想画像データと上記出力画像データとの差異領域を判別し、
    上記表示制御部は、上記差異領域を上記補助表示として視認可能に表示することを特徴とする撮影機器。
  2. 上記補助表示は、上記ズーム制御部によるズーミングの実行中に行われることを特徴とする請求項1に記載の撮影機器。
  3. 上記画像比較部により判別された差異領域が、画像の全領域にわたったときには、上記理想画像作成部により作成された上記理想画像データに基く画像を上記補助表示として表示することを特徴とする請求項1に記載の撮影機器。
  4. 上記ズーム制御部は、上記撮影光学系を駆動させてズーミング制御を行なわしめることを特徴とする請求項1に記載の撮影機器。
  5. 上記撮像部から出力される画像信号に画像処理を施す画像処理部を有し、
    上記ズーム制御部は、上記画像処理部を制御して電子的なズーミング制御を行なわしめることを特徴とする請求項1に記載の撮影機器。
  6. 上記主要被写体設定部は、被写体検出部であり顔検出部であることを特徴とする請求項1に記載の撮影機器。
  7. 上記主要被写体設定部は、上記撮像部から順次出力される画像信号のフレーム間における動きベクトルを算出して動体を検出する動体予測部であることを特徴とする請求項1に記載の撮影機器。
  8. 手ブレを判定する手ブレ判定部を有し、
    上記手ブレ判定部は、加速度センサ,角速度センサの検出結果に基いて機器の姿勢を判定し、判定結果に基づいて主要被写体の位置を判定することを特徴とする請求項1に記載の撮影機器。
  9. 上記撮像部から出力される画像信号に基く画像内の主要被写体の位置を判定する座標判定部を、さらに具備し、
    上記座標判定部は、加速度センサ,角速度センサ,方位センサの検出結果に基いて主要被写体の位置を判定することを特徴とする請求項1に記載の撮影機器。
  10. 上記表示部に表示される画像の一部の領域に、上記理想画像作成部により作成された上記理想画像データに基く画像を上記補助表示として表示することを特徴とする請求項1に記載の撮影機器。
  11. 上記表示部に表示される画像の一部の領域に表示された上記補助表示の画像に重畳させて、上記動体予測部により検出された動体の予測位置に主要被写体を示すアイコンを表示することを特徴とする請求項7に記載の撮影機器。
  12. 観察画角を変更して画像取得可能な画像表示機器において、主要被写体がファインダ視野内の略中央に配置されている状態の画像であって、画角変更操作による連続的な画角変化中の任意のタイミングに対応する理想画像を表す複数の理想画像データを作成する理想画像作成部と、
    上記理想画像データと、上記画角変更操作に基いて取得された画像データとを逐次比較する画像比較部と、
    上記画像比較部が、画像比較処理の結果に基いて上記理想画像データと上記画角変更操作に基づいて取得された画像データとの差異領域を判別した結果に従って、上記差異領域を視認可能に表示する表示制御部とを有することを特徴とする画像表示機器。
  13. 観察画角を変更して画像取得可能な画像表示機器の表示制御方法において、主要被写体がファインダ視野内の略中央に配置されている状態の画像であって、画角変更操作による連続的な画角変化中の任意のタイミングに対応する理想画像を表す複数の理想画像データを作成する理想画像作成ステップと、
    上記理想画像データと、上記画角変更操作に基いて取得された画像データとを逐次比較する画像比較ステップと、
    上記画像比較処理の結果に基いて上記理想画像データと上記画角変更操作に基づいて取得された画像データとの差異領域を判別して視認可能に表示するステップとを有することを特徴とする表示制御方法。
JP2013054252A 2013-03-15 2013-03-15 撮影機器,画像表示機器,及び画像表示機器の表示制御方法 Active JP6103526B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013054252A JP6103526B2 (ja) 2013-03-15 2013-03-15 撮影機器,画像表示機器,及び画像表示機器の表示制御方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013054252A JP6103526B2 (ja) 2013-03-15 2013-03-15 撮影機器,画像表示機器,及び画像表示機器の表示制御方法
US14/204,426 US9215375B2 (en) 2013-03-15 2014-03-11 Photographing apparatus, image display apparatus, and display control method of image display apparatus
CN201410095594.9A CN104052923B (zh) 2013-03-15 2014-03-14 拍摄设备、图像显示设备和图像显示设备的显示控制方法

Publications (2)

Publication Number Publication Date
JP2014179940A JP2014179940A (ja) 2014-09-25
JP6103526B2 true JP6103526B2 (ja) 2017-03-29

Family

ID=51505256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013054252A Active JP6103526B2 (ja) 2013-03-15 2013-03-15 撮影機器,画像表示機器,及び画像表示機器の表示制御方法

Country Status (3)

Country Link
US (1) US9215375B2 (ja)
JP (1) JP6103526B2 (ja)
CN (1) CN104052923B (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102021857B1 (ko) * 2013-07-23 2019-09-17 엘지전자 주식회사 이동 단말기 및 그의 파노라마 촬영방법
CN105578015B (zh) * 2014-10-09 2018-12-21 聚晶半导体股份有限公司 对象追踪图像处理方法及其系统
CN104469167B (zh) * 2014-12-26 2017-10-13 小米科技有限责任公司 自动对焦方法及装置
US10042031B2 (en) * 2015-02-11 2018-08-07 Xerox Corporation Method and system for detecting that an object of interest has re-entered a field of view of an imaging device
WO2016140016A1 (ja) * 2015-03-03 2016-09-09 日立建機株式会社 車両の周囲監視装置
US10091432B2 (en) 2015-03-03 2018-10-02 Canon Kabushiki Kaisha Image capturing apparatus, control method thereof and storage medium storing control program therefor
JP6573211B2 (ja) * 2015-03-04 2019-09-11 カシオ計算機株式会社 表示装置、画像表示方法及びプログラム
US10078827B2 (en) * 2015-03-30 2018-09-18 Ncr Corporation Item substitution fraud detection
JP6640460B2 (ja) * 2015-03-30 2020-02-05 富士フイルム株式会社 画像撮影装置、画像撮影方法、プログラムおよび記録媒体
JP6473048B2 (ja) * 2015-06-01 2019-02-20 日本電信電話株式会社 移動装置操作端末、移動装置操作方法及び移動装置操作プログラム
CN105827958A (zh) * 2016-03-17 2016-08-03 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
US10764485B2 (en) * 2016-06-01 2020-09-01 Canon Kabushiki Kaisha Display control apparatus and control method therefor
KR20180018213A (ko) * 2016-08-12 2018-02-21 삼성전자주식회사 전자 장치 및 그 제어 방법
CN106713756A (zh) * 2016-12-30 2017-05-24 努比亚技术有限公司 一种实现图像拍摄的方法及终端
TWI670646B (zh) * 2018-06-15 2019-09-01 財團法人工業技術研究院 資訊顯示方法及其顯示系統
CN109639974A (zh) * 2018-12-20 2019-04-16 Oppo广东移动通信有限公司 控制方法、控制装置、电子装置及介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5794078A (en) * 1995-09-11 1998-08-11 Nikon Corporation Image movement correction of camera
JP2001069496A (ja) 1999-08-31 2001-03-16 Matsushita Electric Ind Co Ltd 監視カメラ装置及び監視カメラの制御方法
JP2007208937A (ja) * 2006-02-06 2007-08-16 Canon Inc 撮像装置
JP4761146B2 (ja) * 2006-06-30 2011-08-31 カシオ計算機株式会社 撮像装置及びそのプログラム
JP4964807B2 (ja) * 2008-03-07 2012-07-04 パナソニック株式会社 撮像装置及び撮像方法
JP5409189B2 (ja) * 2008-08-29 2014-02-05 キヤノン株式会社 撮像装置及びその制御方法
JP2012029245A (ja) * 2010-07-27 2012-02-09 Sanyo Electric Co Ltd 撮像装置
JP2012049651A (ja) * 2010-08-24 2012-03-08 Ricoh Co Ltd 撮像装置及び撮像方法
JP5809925B2 (ja) * 2010-11-02 2015-11-11 オリンパス株式会社 画像処理装置、それを備えた画像表示装置及び撮像装置、画像処理方法、並びに画像処理プログラム
JP5782813B2 (ja) * 2011-04-27 2015-09-24 株式会社リコー 撮像装置および画像表示方法
JP2013013050A (ja) * 2011-05-27 2013-01-17 Ricoh Co Ltd 撮像装置及びこの撮像装置を用いた表示方法

Also Published As

Publication number Publication date
CN104052923A (zh) 2014-09-17
US9215375B2 (en) 2015-12-15
CN104052923B (zh) 2017-08-11
US20140267803A1 (en) 2014-09-18
JP2014179940A (ja) 2014-09-25

Similar Documents

Publication Publication Date Title
US9560261B2 (en) Display control for a camera
US9001255B2 (en) Imaging apparatus, imaging method, and computer-readable storage medium for trimming and enlarging a portion of a subject image based on touch panel inputs
US8976270B2 (en) Imaging device and imaging device control method capable of taking pictures rapidly with an intuitive operation
US8466996B2 (en) Condition changing device
EP1130906B1 (en) Pointing device for digital camera display
JP3896505B2 (ja) 電子カメラ
US9172881B2 (en) Camera and method of controlling operation of same
US9025044B2 (en) Imaging device, display method, and computer-readable recording medium
JP5779968B2 (ja) 天体自動追尾撮影方法及びカメラ
JP4178009B2 (ja) 撮影システム
US10491828B2 (en) Display control apparatus and control method of the same
JP5550989B2 (ja) 撮影装置、その制御方法、及びプログラム
US9509913B2 (en) Image pickup apparatus, method of controlling image pickup apparatus, image pickup apparatus system, and image pickup control program stored in storage medium of image pickup apparatus
JP6296801B2 (ja) 撮像装置、撮像装置の制御方法、および撮像装置の制御プログラム
US8482649B2 (en) Image display device, portable device with photography function, image display method and computer readable medium
US8676047B2 (en) Image capture apparatus and method of controlling the same
US10015404B2 (en) Image display device displaying partial areas and positional relationship therebetween
JP6429454B2 (ja) 撮像装置、撮像装置の制御方法および撮像装置の制御プログラム
US8844148B2 (en) Direction determining method and apparatus using a triaxial electronic compass
US20070263904A1 (en) Subject tracking device, subject tracking method, subject tracking program product and optical device
JP5506499B2 (ja) 撮像装置、その制御方法、プログラム及び記録媒体
US7693405B2 (en) Image pickup device, method of controlling image pickup device, and recording medium
JP5194650B2 (ja) 電子カメラ
US8670064B2 (en) Image capturing apparatus and control method therefor
US20140267869A1 (en) Display apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170221

R150 Certificate of patent or registration of utility model

Ref document number: 6103526

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250