JP2021005168A - 画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラム - Google Patents

画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラム Download PDF

Info

Publication number
JP2021005168A
JP2021005168A JP2019117755A JP2019117755A JP2021005168A JP 2021005168 A JP2021005168 A JP 2021005168A JP 2019117755 A JP2019117755 A JP 2019117755A JP 2019117755 A JP2019117755 A JP 2019117755A JP 2021005168 A JP2021005168 A JP 2021005168A
Authority
JP
Japan
Prior art keywords
image
action
display
output
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019117755A
Other languages
English (en)
Other versions
JP7362312B2 (ja
Inventor
朝日 鈴木
Asahi Suzuki
朝日 鈴木
松岡 正明
Masaaki Matsuoka
正明 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019117755A priority Critical patent/JP7362312B2/ja
Priority to US16/890,312 priority patent/US11327606B2/en
Publication of JP2021005168A publication Critical patent/JP2021005168A/ja
Priority to US17/724,595 priority patent/US11816294B2/en
Application granted granted Critical
Publication of JP7362312B2 publication Critical patent/JP7362312B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00411Display of information to the user, e.g. menus the display also being used for user input, e.g. touch screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】撮影画像の再生表示時に画像送りと合わせて表示画像の評価値の表示を可能にする画像処理装置を提供することである。【解決手段】デジタルカメラは、画像又は画像の複数の領域に対応する評価値の分布情報を出力する出力手段と、第1のアクション及び第1のアクションとは異なる第2のアクションを受け付ける操作手段と、出力手段が第1の画像を出力しているときに、操作手段が第1のアクションを受け付けた場合は出力手段が第2の画像を出力し、操作手段が第2のアクションを受け付けた場合は出力手段が第1の画像に対応する評価値の分布情報を出力する出力制御を実行する制御手段と、を有する。【選択図】図3

Description

本発明は、画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラムに関する。
従来、画像処理装置の例として、装置内のメモリあるいは装置に装着された記録媒体に記憶された複数の撮影画像を再生するときに、ユーザからの操作に基づいて画像送りができる撮像装置が知られている。例えば、スマートフォンやデジタルカメラではディスプレイの表示面を横スワイプすることで画像送りができる。特許文献1には、撮影画像の再生時に、横スワイプによる画像送りに加えて、所定のタッチ操作で表示画像の保護、消去などのアクションが行える技術の開示がある。
特開2011−40008号公報
しかしながら特許文献1に記載の従来技術は、撮影画像の再生表示時に、画像送りと合わせて各表示画像に対応する評価値を表示させる操作を受け付けることについては何ら考慮されていなかった。
上記課題に鑑み、本発明は、撮影画像の再生表示時に画像送りと合わせて表示画像の評価値の表示を可能にする画像処理装置を提供することを目的とする。
本発明の一実施形態の画像処理装置は、画像、又は前記画像の複数の領域に対応する評価値の分布情報を出力する出力手段と、第1のアクション、及び前記第1のアクションとは異なる第2のアクションを受け付ける操作手段と、前記出力手段が第1の画像を出力しているときに、前記操作手段が前記第1のアクションを受け付けた場合は前記出力手段が第2の画像を出力し、前記操作手段が前記第2のアクションを受け付けた場合は前記出力手段が前記第1の画像に対応する前記評価値の分布情報を出力する出力制御を実行する制御手段と、を有することを特徴とする。
本発明によれば、撮影画像の再生表示時に画像送りと合わせて表示画像の評価値の表示を可能にする。
本発明の実施例1における画像表示装置の機能構成を示すブロック図である。 本発明の実施例1に係る撮像部の構成を説明するための図である。 本発明の実施例1に係る画像再生処理を説明するためのフローチャートである。 (A)、(B)及び(C)は、横構図画像における画像送り機能を示す図である。 (A)、(B)及び(C)は、本発明の実施例1による横構図画像におけるピントマップを表示する方法を示す図である。 (A)、(B)及び(C)は、縦構図画像における画像送り機能を示す図である。 (A)、(B)及び(C)は、本発明の第1実施形態による縦構図画像におけるピントマップを表示する方法を示す図である。 本発明の実施例2に係る画像再生処理を説明するためのフローチャートである。 本発明の実施例2に係る画像再生処理を説明するためのフローチャートである。 (A)及び(B)は、横構図画像における表示部の姿勢に応じて画像の表示方法を変える方法を示す図である。 (A)、(B)、(C)、(D)、(E)及び(F)は、本発明の実施例2による横構図画像における表示部の姿勢に応じて画像とピントマップとの表示方法を変える方法を示す図である。 (A)及び(B)は、縦構図画像における表示部の姿勢に応じて画像の表示方法を変える方法を示す図である。 (A)、(B)、(C)、(D)、(E)及び(F)は、本発明の実施例2による縦構図画像における表示部の姿勢に応じて画像とピントマップとの表示方法を変える方法を示す図である。 (A)、(B)及び(C)は、本発明の実施例3によるピントマップから次の画像を表示する方法を示す図である。 (A)、(B)及び(C)は、本発明の実施例4によるピントマップから次のピントマップを表示する方法を示す図である。 (A)、(B)、(C)、(D)及び(E)は、本発明の実施例5による連写グループに応じてピントマップおよび画像を表示する方法を示す図である。 本発明の実施例1による横構図画像におけるピントマップを表示する方法の変形例を示す図である。
以下、本発明の好適な実施形態について、図面を参照して詳細に説明する。なお、以下に説明する実施形態は画像処理装置であり、画像処理装置の一例としてのデジタルカメラ(撮像装置)に本発明を適用した例を説明する。
(実施例1)
図1は、本発明の実施例1に係るデジタルカメラの機能構成を示すブロック図である。
図1では、撮像装置であるデジタルカメラを画像処理装置の一例として示すが、本発明の適用範囲は、図1に示す撮像装置に限定されない。すなわち、本発明は、画像又は後述するピントマップを表示する画像処理装置の他、当該画像又はピントマップを外部装置に出力して、外部装置に表示させる画像処理装置にも適用できる。なお、以下で説明する図面において、同じ機能を有するものは同一の符号を付し、その説明を省略又は簡潔にすることもある。
デジタルカメラ100は、制御部101乃至バス112を備える。制御部101、ROM102、RAM103、撮像部105、A/D変換部106、画像処理部107、記録媒体108、姿勢取得部109、表示部110及び操作部111は、それぞれバス112に接続されている。
制御部101は、デジタルカメラ100全体を制御するものであり、例えばCPUである。制御部101は、デジタルカメラ100が備える各構成の動作プログラムをROM102から読み出し、RAM103に展開して実行することによりデジタルカメラ100が備える各構成の動作を制御する。CPUは、Central Processing Unitの略称である。ROMは、Read Only Memoryの略称である。また、RAMは、Random Access Memoryの略称である。ROM102は、書き換え可能な不揮発性メモリであり、デジタルカメラ100が備える各構成の動作プログラムに加え、各構成の動作に必要なパラメータ等を記憶する。ROM102としては、例えばフラッシュROM等が用いられる。RAM103は、書き換え可能な揮発性メモリであり、デジタルカメラ100が備える各構成の動作において出力されたデータの一時的な記憶領域として用いられる。制御部101及び画像処理部107は、RAM103をワークメモリとして使用する。
光学系104は、被写体像を撮像部105に結像する。光学系104には、例えば、固定レンズ、焦点距離を変更する変倍レンズ、焦点調節を行うフォーカスレンズ等が含まれている。光学系104には絞りも含まれており、絞りにより光学系の開口径を調節することで撮影時の光量調節を行う。
撮像部105は、例えばCCDイメージセンサやCMOSイメージセンサ等の撮像素子を含む。撮像部105は、光学系104により撮像素子に結像された光学像を光電変換してアナログ画像信号を得る。撮像部105は、得られたアナログ画像信号をA/D変換部106に出力する。CCDは、Charge Coupled Deviceの略称である。CMOSは、Complementary Metal Oxide Semiconductorの略称である。
A/D変換部106は、入力されたアナログ画像信号にA/D変換処理を適用してデジタル画像データを得る。A/D変換部106は、得られたデジタル画像データをRAM103に出力して記憶させる。このとき、制御部101は、画像が縦構図であるか横構図であるかを示す縦横情報も、画像とともにRAM103に記憶させる。制御部101は、RAM103の縦横情報を読み出すことで、各画像が縦構図であるか横構図であるかを判定することができる。
画像処理部107は、RAM103に記憶されている画像データに対して画像処理を行う。具体的には、画像処理部107は、例えば、ホワイトバランス調整、色補間、縮小/拡大等の処理や、さらに、評価値マップ(評価値の分布情報)の生成や、フィルタ処理等の様々な画像処理を行う。画像処理部107は、画像処理後の画像を記録媒体108に記録する。
記録媒体108は、例えば、デジタルカメラ100に対して着脱可能なメモリカード等である。記録媒体108には、RAM103に記憶されている画像処理部107で処理された画像やA/D変換部106でA/D変換された画像等が、記録画像として記録される。
姿勢取得部109は、例えば、加速度センサである。姿勢取得部109は、デジタルカメラ100の姿勢すなわち表示部110の姿勢を取得する。
表示部110は、例えば、液晶モニタである。表示部110は、ユーザの操作に応じて、RAM103に記憶されている画像処理部107で処理された画像やA/D変換部106でA/D変換された画像や記録媒体108に記録された画像等を表示する。
なお、本発明に係る画像処理装置としては、表示部110を有しない構成であってもよい。この場合、表示部110の機能に相当する機能を有する表示装置を画像処理装置の外部に備え、画像処理装置は、表示データを表示装置に出力する出力手段を有するようにしてもよい。また、この場合、画像処理装置と表示装置とを有して撮像装置を構成してもよい。表示部110は、画像を出力する出力手段の一例である。デジタルカメラ100が、出力手段の一例として、画像を外部装置に送信する送信部を有していてもよい。そして、制御部101が、送信部を制御して、画像を外部装置に送信させ、外部装置に表示させる出力制御を実行するようにしてもよい。
操作部111は、キーボードなどの文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッドなどを含む、ユーザ操作を受け付けるための入力デバイスである。タッチパネルは、表示部110の液晶モニタに重ね合わせて平面的に構成され、接触された位置に応じた座標情報、タッチオン、タッチオフが出力されるようにした入力デバイスである。操作部111は、ユーザのアクションを受け付ける。これにより、ユーザはデジタルカメラ100の各種設定や各種情報を入力する。また上述したような、表示装置を外部に備えた構成の場合、操作部111あるいは制御部101は、外部の表示装置に備えられたタッチパネルから接触された位置に応じた座標情報、タッチオン、タッチオフなどの情報を受け取ることで入力を受け付ける。
なお操作部111にタッチパネルが含まれる場合、制御部101はタッチパネルへの以下の操作。あるいは状態を検出できる。
・タッチパネルにタッチしていなかった指やペンが新たにタッチパネルにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)。
・タッチパネルを指やペンでタッチしている状態であること(以下、タッチオン(Touch−On)と称する)。
・タッチパネルを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)。
・タッチパネルへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)。
・タッチパネルに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)。
タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
これらの操作・状態や、タッチパネル上に指やペンがタッチしている位置座標は内部バスを通じて制御部101に通知され、制御部101は通知された情報に基づいてタッチパネル上にどのような操作が行なわれたかを判定する。タッチムーブについてはタッチパネル上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル上の垂直成分・水平成分毎に判定できる。またタッチパネル上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式ものがあるが、いずれの方式でもよい。
バス112は、デジタルカメラ100が備える各構成を接続する。デジタルカメラ100が備える各構成は、バス112を介して各種信号及び各種データの送受信を行う。
画像処理部107は、撮像部105が取得した画像信号を解析することで、当該画像信号に係る画像に対応する評価値の分布情報として、ピントマップを取得する。ピントマップは、被写体のピント分布に関連する情報(ピントの分布情報)である。ピントマップは、画像処理部107が取得する画像である。画像処理部107は、取得したピントマップをRAM103に記憶する。
図2は、撮像部105の構成を説明するための図である。
撮像部105は、図2に示す撮像素子を有する。図2に示す撮像素子は、1つのマイクロレンズ201に対して複数(図2では、2つ)の光電変換部203、204を有する画素202を複数備える。複数の画素202は、二次元的に規則的に配列されている。画素202が有する光電変換部203、204は、それぞれ、光学系104の異なる射出瞳を通過した光を光電変換する。これにより、画素202から一対の画像(2像)としてA像とB像が出力される。すなわち、撮像素子は、異なる瞳領域をそれぞれ通過する光に対応する2像を出力する。
デジタルカメラ100が備える画像処理部107は、制御部101の制御にしたがって、さらにA像とB像の位相差に関する分布(位相差分布)をピントマップとして出力する。画像処理部107は、例えば、特許文献2が開示する技術を適用して、デフォーカス量分布を検出し、ピントマップとして出力してもよい。画像処理部107が、ピントマップとして、A像とB像のずれ量であるシフト量の分布を取得するようにしてもよい。また、シフト量は、検出ピッチ(同一種類の画素の配置ピッチ)を乗算することで、マイクロメートルなどの長さの単位で表してもよい。また、画像処理部107が、ピントマップとして、デフォーカス量を焦点深度(2Fδ、又は1Fδ。Fは絞り値、δは許容錯乱円径)で正規化した値の分布を取得するようにしてもよい。
図3は、表示部110に画像を表示する画像再生処理を説明するためのフローチャートである。図4(A)、図4(B)及び図4(C)は、表示部110が表示画面内の横長のアスペクト比の表示領域(横長画面)に横長のアスペクト比(横構図)の撮影画像を表示する画像再生処理における、画像送り機能について説明する図である。図5(A)、図5(B)及び図5(C)は、表示部110が横長画面のときに横構図の撮影画像を表示する画像再生処理における、ピントマップ表示機能について説明する図である。図6(A)、図6(B)及び図6(C)は、表示部110が表示画面内の縦長のアスペクト比の表示領域(縦長画面)に縦長のアスペクト比(縦構図)の撮影画像を表示する画像再生処理における、画像送り機能について説明する図である。図7(A)、図7(B)及び図7(C)は、表示部110が縦長画面のときに縦構図の撮影画像を表示する画像再生処理における、ピントマップ表示機能について説明する図である。図6、7のように、撮影画像の表示と対応するピントマップの表示は画像の各領域と各領域に対応するピント状態の評価値の位置が同期している形で行われるので、ユーザはピントマップを見たときに画像のどの領域のピント状態を示しているかをすぐに認識できる。また、ピント情報を輝度や色の画素信号に換算するなどして可視化することでユーザが直感的に各領域のピント状態を認識することができる。すなわち、各評価値の対応する画像の領域の位置に各評価値が可視化された評価値の分布情報としてのピントマップが表示される。なお、制御部101は、RAM103に画像とともに記憶した縦横情報によって、画像が縦構図であるか横構図であるかを判定可能である。制御部101は、表示部110が横長画面に撮影画像を表示させようとしているか縦長画面に撮影画像を表示させようとしているかは既知の如何なる手法で検知してもよい。また、横長画面、縦長画面は必ずしも表示部110の表示画面の表示領域全域を用いていなくてもよく、表示領域の一部に横長あるいは縦長に撮影画像あるいはピントマップ表示用の表示領域が設定されていてもよい。
まず、図4(A)、図4(B)及び図4(C)を用いて画像送り機能について説明する。画像送り機能とは、制御部101に制御されて実現される機能であって、画像再生中に、操作部111がユーザのアクションを受け付けることで、表示部110に表示する画像を第1の画像から第2の画像に切り替える機能である。
図4(A)は、表示部110に、第1の画像401を表示している図である。ここでは、表示部110に第1の画像401を表示している状態から、第2の画像402を表示する状態に切り替える過程を説明する。図4(A)に示すように、表示部110に第1の画像401が表示された状態で、ユーザは、表示部110と一体のタッチパネルである操作部111の操作面に対してアクション403を行う。本実施例では、第1のアクションとしてのアクション403は、操作部111の操作面に対する横方向スワイプ動作である。本発明において、第1のアクションは、これに限られるものではなく、デジタルカメラ100に対する如何なる操作であってもよい。第1のアクションは、例えば、第1の方向へのアクションである。
アクション403は、図4(A)の矢印が指す方向へのスワイプ動作であるが、図4(A)の矢印が指す方向へのフリック動作であってもよい。制御部101は、操作部111がアクション403を受け付けたことに応じて、表示部110に第2の画像402を表示させる出力制御を実行する。この制御部101による出力制御では、表示部110の表示を、第1の画像401から第2の画像402へと、他の如何なるコンテンツの表示も挟まずに切り替えてもよい。図4(C)は、表示部110に、第2の画像402を表示している図である。
但し、本実施例では、表示部110の表示を、第1の画像401から第2の画像402へと切り替える際に、間にコンテンツ404の表示を挟む。図4(B)は、コンテンツ404を表示している表示部110を示す図である。コンテンツ404は、第1の画像401の一部である部分画像401aと、第2の画像402の一部である部分画像402aと、部分画像401aと部分画像402aとの境界を示す境界線404aと、を表示するコンテンツである。境界線404aは、縦方向に延びる線であり、その左側に部分画像401aが表示され、その右側に部分画像402aが表示される。コンテンツ404は、境界線404aの表示位置を右から左へと移動させることで、表示部110における部分画像401aの表示割合を徐々に減少させ、部分画像402aの表示割合を徐々に増加させるコンテンツである。部分画像401aと部分画像402aの表示割合を徐々に変更する表示は、アクション403のスワイプ動作のスワイプの操作量に応じて変化してもよい。ユーザがスワイプ動作の途中でタッチオンのまま静止させた場合には、対応する表示割合で部分画像401aと部分画像402aを表示させたままにしてもよい。このように画像送りの際にコンテンツ404の表示を挿入することで、操作部111に対して左右方向の操作を行うことで表示される画像が切替わることをよりユーザに直感的に知らしめることができる。
制御部101は、表示部110に第1の画像401を表示(図4(A))させる出力制御を実行し、操作部111がアクション403を受け付けたことに応じて、表示部110にコンテンツ404を表示(図4(B))させる出力制御を実行する。制御部101は、その後、表示部110に第2の画像402を表示(図4(C))させる出力制御を実行する。
次に、図5(A)、図5(B)及び図5(C)を用いてピントマップ表示機能について説明する。ピントマップ表示機能とは、制御部101に制御されて実現される機能であって、画像再生中に、操作部111がユーザのアクションを受け付けることで、表示部110に表示する画像を第1の画像からピントマップに切り替える機能である。なお、本実施例では、ピントマップはデフォーカス量の分布情報であり、図面においては、デフォーカス量をグレースケールの濃淡で表すが、本発明はこの限りではない。
図5(A)は、表示部110に、第1の画像501を表示している図である。ここでは、表示部110に第1の画像501を表示している状態から、ピントマップ502を表示する状態に切り替える過程を説明する。図5(A)に示すように、表示部110に第1の画像501が表示された状態で、ユーザは、操作部111の操作面に対してアクション503を行う。本実施例では、第2のアクションとしてのアクション503は、操作部111の操作面に対する縦方向スワイプ動作である。本発明において、第2のアクションは、これに限られるものではなく、第1のアクションと異なる操作であれば、デジタルカメラ100に対する如何なる操作であってもよい。第2のアクションは、例えば、第1の方向と異なる第2の方向へのアクションである。第2の方向は、例えば、第1の方向と直交する方向である。
アクション503は、図5(A)の矢印が指す方向へのスワイプ動作であるが、図5(A)の矢印が指す方向へのフリック動作であってもよい。制御部101は、操作部111がアクション503を受け付けたことに応じて、表示部110にピントマップ502を表示させる出力制御を実行する。この制御部101による出力制御では、表示部110の表示を、第1の画像501からピントマップ502へと、他の如何なるコンテンツの表示も挟まずに切り替えてもよい。図5(C)は、表示部110に、ピントマップ502を表示している図である。ピントマップ502は、画像処理部107によって取得された、第1の画像501に対応する評価値の分布情報としてのピントマップである。
但し、本実施例では、表示部110の表示を、第1の画像501からピントマップ502へと切り替える際に、間にコンテンツ504の表示を挟む。図5(B)は、コンテンツ504を表示している表示部110を示す図である。コンテンツ504は、第1の画像501の一部である部分画像501aと、ピントマップ502の一部である部分ピントマップ502aと、部分画像501aと部分ピントマップ502aとの境界を示す境界線504aと、を表示するコンテンツである。境界線504aは、横方向に延びる線であり、その上側に部分画像501aが表示され、その下側に部分ピントマップ502aが表示される。コンテンツ504は、境界線504aの表示位置を下から上へと移動させることで、表示部110における部分画像501aの表示割合を徐々に減少させ、部分ピントマップ502aの表示割合を徐々に増加させるコンテンツである。コンテンツ504の表示も、コンテンツ404の表示と同様、アクション503のスワイプ動作のスワイプの操作量に応じて部分画像501aと部分ピントマップ502aの表示割合を制御してもよい。このように、ここでは第1の画像501からピントマップ502への表示切り替えの際にコンテンツ504の表示を挿入する。このようにすることで、操作部111に対して上下方向の操作を行うことで互いに対応関係にある撮影画像とピントマップとの表示が切替わることをよりユーザに直感的に知らしめることができる。また制御部101は、ピントマップ502が表示された状態でさらにアクション503を受け付けると、ピントマップ502以外のその他の付加情報を表示する表示に切り替わるよう出力制御が行われてもよい。ピントマップ502以外のその他の付加情報は、ピントマップと同様に第1の画像501に対応している。その他の付加情報とは、例えば撮影日時、絞り、シャッター速度、焦点距離、撮影モードなどの撮影条件、シェーディング補正の有無、ホワイトバランス補正の有無などの画像処理パラメータなどである。
制御部101は、表示部110に第1の画像501を表示(図5(A))させる出力制御を実行し、操作部111がアクション503を受け付けたことに応じて、表示部110にコンテンツ504を表示(図5(B))させる出力制御を実行する。制御部101は、その後、表示部110にピントマップ502を表示(図5(C))させる出力制御を実行する。本実施例のピントマップ表示機能によれば、画像再生中に画像送り機能の操作感を損なうことなく、画像に対応するピントマップを表示することができる。
図4(A)乃至図4(C)及び図5(A)乃至図5(C)では、第1の画像が横構図の場合について説明した。以下では、表示部110の縦長画面に縦構図の第1の画像が表示される場合について説明する。
図6(A)は、表示部110に、縦構図の画像である第1の画像601を表示している図である。図6(A)に示すように、表示部110に第1の画像601が表示された状態で、ユーザは、操作部111の操作面に対してアクション603を行う。本実施例では、第1のアクションとしてのアクション603は、操作部111の操作面に対する、図6(A)の矢印が指す方向へのスワイプ動作である。
制御部101は、操作部111がアクション603を受け付けたことに応じて、表示部110に第2の画像602を表示させる出力制御を実行する。図6(C)は、表示部110に、第2の画像602を表示している図である。本実施例では、表示部110の表示を、第1の画像601から第2の画像602へと切り替える際に、間にコンテンツ604の表示を挟む。図6(B)は、コンテンツ604を表示している表示部110を示す図である。コンテンツ604は、第1の画像601の一部である部分画像601aと、第2の画像602の一部である部分画像602aと、部分画像601aと部分画像602aとの境界を示す境界線604aと、を表示するコンテンツである。境界線604aは、縦方向に延びる線であり、その左側に部分画像601aが表示され、その右側に部分画像602aが表示される。コンテンツ604は、境界線604aの表示位置を右から左へと移動させることで、表示部110における部分画像601aの表示割合を徐々に減少させ、部分画像602aの表示割合を徐々に増加させるコンテンツである。コンテンツ604の表示も、コンテンツ404の表示と同様、アクション603のスワイプ動作のスワイプの操作量に応じて部分画像601aと部分画像602aの表示割合を制御してもよい。このように画像送りの際にコンテンツ604の表示を挿入することで、操作部111に対して左右方向の操作を行うことで表示される画像が切替わることをよりユーザに直感的に知らしめることができる。
制御部101は、表示部110に第1の画像601を表示(図6(A))させる出力制御を実行し、操作部111がアクション603を受け付けたことに応じて、表示部110にコンテンツ604を表示(図6(B))させる出力制御を実行する。制御部101は、その後、表示部110に第2の画像602を表示(図6(C))させる出力制御を実行する。
図7(A)は、表示部110に、縦構図の画像である第1の画像701を表示している図である。図7(A)に示すように、表示部110に第1の画像701が表示された状態で、ユーザは、操作部111の操作面に対してアクション703を行う。本実施例では、第2のアクションとしてのアクション703は、操作部111の操作面に対する、図7(A)の矢印が指す方向へのスワイプ動作である。
制御部101は、操作部111がアクション703を受け付けたことに応じて、表示部110にピントマップ702を表示させる出力制御を実行する。図7(C)は、表示部110に、ピントマップ702を表示している図である。ピントマップ702は、画像処理部107によって取得された、第1の画像701に対応する評価値の分布情報としてのピントマップである。
本実施例では、表示部110の表示を、第1の画像701からピントマップ702へと切り替える際に、間にコンテンツ704の表示を挟む。図7(B)は、コンテンツ704を表示している表示部110を示す図である。コンテンツ704は、第1の画像701の一部である部分画像701aと、ピントマップ702の一部である部分ピントマップ702aと、部分画像701aと部分ピントマップ702aとの境界を示す境界線704aと、を表示するコンテンツである。境界線704aは、横方向に延びる線であり、その上側に部分画像701aが表示され、その下側に部分ピントマップ702aが表示される。コンテンツ704は、境界線704aの表示位置を下から上へと移動させることで、表示部110における部分画像701aの表示割合を徐々に減少させ、部分ピントマップ702aの表示割合を徐々に増加させるコンテンツである。コンテンツ704の表示も、コンテンツ404の表示と同様、アクション703のスワイプ動作のスワイプの操作量に応じて部分画像701aと部分ピントマップ702aの表示割合を制御してもよい。このように、ここでは第1の画像701からピントマップ702への表示切り替えの際にコンテンツ704の表示を挿入する。このようにすることで、操作部111に対して上下方向の操作を行うことで互いに対応関係にある撮影画像とピントマップとの表示が切替わることをよりユーザに直感的に知らしめることができる。また制御部101は、ピントマップ702が表示された状態でさらにアクション703を受け付けると、第1の画像701に対応するピントマップ702以外のその他の情報を表示する表示に切り替わるよう出力制御が行われてもよい。第1の画像701に対応するピントマップ702以外のその他の情報は、例えば撮影日時、絞り、シャッター速度、焦点距離などの撮影条件、撮影モードなどの付加情報である。
制御部101は、表示部110に第1の画像701を表示(図7(A))させる出力制御を実行し、操作部111がアクション703を受け付けたことに応じて、表示部110にコンテンツ704を表示(図7(B))させる出力制御を実行する。制御部101は、その後、表示部110にピントマップ702を表示(図7(C))させる出力制御を実行する。
制御部101は、画像再生処理の実行を指示するユーザの操作を受け付けることで、表示部110に画像を表示する画像再生処理(図3の処理)を実行する。以下、図3のフローチャートを参照して説明する。まず、制御部101は、画像再生処理の実行を指示するユーザの操作に応じた第1の画像を、表示部110に表示(図4(A)、図5(A)、図6(A)、図7(A))させる出力制御を実行する(ステップS301)。
続いて、制御部101は、操作部111が第1のアクション(アクション403、アクション603)を受け付けたかを判定する(ステップS302)。操作部111が第1のアクションを受け付けた場合(ステップS302:Yes)、処理はステップS303へ進む。制御部101は、第1の画像に続く画像である第2の画像を、表示部110に表示(図4(B)、図4(C)、図6(B)、図6(C))させる出力制御を実行する(ステップS303)。制御部101は、画像再生処理の終了を指示するユーザの操作を受け付けることで、画像再生処理(図3の処理)を終了する(ステップS306:Yes)。制御部101は、ステップS306において再生が終了するまでは、ステップS302に戻り、ユーザの操作に応じた処理を繰り返す(ステップS306:No)。
操作部111が第1のアクションを受け付けていない場合(ステップS302:No)、制御部101は、操作部111が第2のアクション(アクション503、アクション703)を受け付けたかを判定する(ステップS304)。操作部111が第2のアクションを受け付けた場合(ステップS304:Yes)、処理はステップS305へ進む。制御部101は、第1の画像に対応したピントマップを、表示部110に表示(図5(B)、図5(C)、図7(B)、図7(C))させる出力制御を実行する(ステップS305)。制御部101は、画像再生処理の終了を指示するユーザの操作を受け付けることで、画像再生処理(図3の処理)を終了する(ステップS306:Yes)。制御部101は、ステップS306において再生が終了するまでは、ステップS302に戻り、ユーザの操作に応じた処理を繰り返す(ステップS306:No)。
以上のように、本実施例では、撮影画像の再生表示時に画像送りと合わせて表示画像の評価値の表示を可能にする。さらに本実施例に係る画像送り機能とピントマップ表示機能によれば、画像再生中に画像送り機能の操作感を損なうことなく、画像に対応するピントマップ表示への切替わり操作を直感的に行うことができる。
本実施例では、評価値の分布情報として、ピントマップを表示する構成としたが、本発明はこれに限定されるものではなく、評価値の分布情報として、ピント以外の評価値をマップにしたものを表示する場合にも適用可能である。評価値の分布情報は、例えば、画像データより得られた動きベクトルなどに基づく画像一面のブレ度合いの分布情報であってもよい。また、評価値の分布情報は、例えば、画像信号のレベルを判定することによって得られる画像一面の白飛び・黒潰れ度合いの分布情報であってもよい。また、評価値の分布情報は、例えば、ピントマップをさらにレンズ情報、撮影条件に基づいて被写体距離に変換するなどして得られる画像一面の距離情報の分布情報であってもよい。また、評価値の分布情報は、例えば、画像解析によって得られる画像一面の法線方向分布の情報であってもよい。また、評価値の分布情報は、例えば、画像解析によって被写体検出、動き検出などが行われて得られる画像一面の意味的領域分割の確率分布情報(例えば、人物や植物、行動検知等の認識スコア分布情報)であってもよい。またこれらの評価値の分布情報の少なくともいずれか1つを表示する実施形態であればよい。複数種類の評価値の分布情報をもって、切替わり操作のたびに順に表示させる態様としてもよい。
本実施例では、2つの画素データ間のずらし量に基づいて算出されたデフォーカス量を、ピント情報としているが、本発明はこれに限定されるものではない。ピント情報は、例えば、ピントや絞り値が異なる2枚の画像の相関からデフォーカス量を取得するDFD(Depth From Defocus)方式を用いたデフォーカス量でもよい。また、ピント情報は、例えば、TOF(Time of Flight)方式等の測距センサモジュールから得た距離情報を用いてもよい。この距離情報は、画像内の被写体の奥行き方向の深さを示す深度情報である。このように構成すれば、ユーザは、ピントの合い具合を把握したうえで、ピントマップを光学系の焦点距離を決定することにも活用することができる。また、距離を前方被写界深度及び後方被写界深度で正規化すれば、ピントの合い具合を把握するのにさらに都合が良い。また、制御部101は、距離情報の分布情報を、TOF方式のほか、レンズを複数並べた多眼光学系の視差を利用して取得しても良いし、デフォーカス量を距離に変換することで取得しても良い。
本実施例では、第2のアクション(図5のアクション503)に応じてピントマップ502を表示しているが、本発明はこれに限定されるものではない。例えば、制御部101は、操作部111がアクション503を受け付けたことに応じて、表示部110にコンテンツ504b(図17参照)を表示させる出力制御を実行してもよい。コンテンツ504bは、横構図の第1の画像501を縮小した画像501bと、ピントマップ502を縮小したピントマップ502bと、を縦に並べて一画面に配置して表示するコンテンツである。コンテンツ504bのような表示形態をとることにより、ユーザは元の撮影画像を確認しながら対応する被写体(領域)のピント情報(評価値情報)を一覧して確認することが出来る。さらに制御部101は、コンテンツ504bが表示された状態で第2のアクション(アクション503)を受け付けると、ピントマップ502を一面に表示させる出力制御を実行してもよい。
また例えば、制御部101は、操作部111がアクション503を受け付けたことに応じて、第1の画像501に対して、透過するピントマップ502を重畳させた画像及びピントマップを、表示部110に表示させる出力制御を実行してもよい。このようにピントマップ502を透過させ重畳した画像およびピントマップを表示する表示形態をとることにより、ユーザは元の撮影画像の被写体(領域)とピントマップにおけるピント情報(評価値情報)との対応を容易に確認することが出来る。また、このような透過表示の実施形態において、スワイプ動作の始点と同じ側の画像端からスワイプの操作方向へ徐々に重畳領域を増やしてピントマップ502が重畳されるように表示させる出力制御を行ってもよい。ピントマップ502が重畳される表示は、アクション503のスワイプ動作のスワイプの操作量に応じて、徐々に重畳領域を増やしてもよい。
本実施例では、デフォーカス量をグレースケールの濃淡で表すこととしたが、本発明はこれに限定されるものではない。例えば、制御部101は、デフォーカス量の分布情報をカラーコンターマップで表示部110に表示させる出力制御を実行してもよい。また、例えば、制御部101は、ピント情報の分布情報において、ピントの合っている箇所を任意の色で塗りつぶして表示部110に表示させる出力制御を実行してもよい。また、例えば、制御部101は、ピント情報の分布情報において、ピントの合っている箇所に任意の色を重畳して表示部110に表示させる出力制御を実行してもよい。また、例えば、制御部101は、ピント情報の分布情報を、三次元グラフ状にして表示部110に表示させる出力制御を実行してもよい。
本実施例では、第1のアクション(アクション403)を操作部111の操作面に対する横方向スワイプ動作とし、第2のアクション(アクション503)を操作部111の操作面に対する縦方向スワイプ動作としたが、本発明はこれに限定されるものではない。例えば、第1のアクションを操作部111の操作面に対する縦方向スワイプ動作とし、第2のアクションを操作部111の操作面に対する横方向スワイプ動作としてもよい。また例えば、第1のアクション及び第2のアクションは、操作部111の操作面のうち、表示部110に第1の画像が表示されている位置に対するアクションに限定してもよい。
本実施例では、表示部110の表示において、横長画面に横構図の撮影画像が表示されている場合に横方向のアクション403で画像送り、縦方向のアクション503でピントマップ502への切り替えとする例を示した。ただ本実施例では、横長画面に左右の領域をブラックアウトさせて縦構図の撮影画像が表示されている場合でも、同様に横方向のアクション403で画像送り、縦方向のアクション503でピントマップ502への切り替えとする。また本実施例では、縦長画面に縦構図の撮影画像が表示されている場合に、横方向のアクション603で画像送り、縦方向のアクション703でピントマップ702への切り替えとする例を示した。ただ本実施例では、縦長画面に上下の領域をブラックアウトさせて横構図の撮影画像が表示されている場合でも、同様に横方向のアクション603で画像送り、縦方向のアクション703でピントマップ702への切り替えとする。
本実施例では、タッチパネルをユーザの操作を受け付ける操作部とすることで、ユーザは表示されている画像に直接触れているように感じ、直感的でわかりやすい。また、本実施例では、画像送りあるいは画像と評価値の分布情報との表示の切り替えに係るユーザのアクションを、タッチパネルを操作部としたスワイプ動作としたが、本発明はこれに限定されるものではない。例えば、第1のアクションをタッチパネルの四辺のうち短辺側をタップする(短辺タップ)動作とし、第2のアクションをタッチパネルの四辺のうち長辺側をタップする(長辺タップ)動作とするなど、制御部101が識別可能な動作であればよい。
また、操作部111に含まれるタッチパネル以外の操作手段を用いても本発明は適用可能である。例えば、デジタルカメラが操作部として十字キー状の操作部を有する場合において、十字キーの左右入力と上下入力の一方を第1のアクションとし、他方を第2のアクションとしてもよい。例えば、デジタルカメラがスティック状の操作部を有する場合において、この操作部の左右入力と上下入力の一方を第1のアクションとし、他方を第2のアクションとしてもよい。このようなユーザが直接動かす操作部を用いることで、ユーザは確実な操作感を得ることができる。
また、本発明は、EVF(Electronic View Finder)を表示部としてもよい。このとき、例えば、ユーザの視線を検出する視線センサを操作部とし、視線の左右移動と上下移動の一方を第1のアクションとし、他方を第2のアクションとしてもよい。これにより、EVF上で画像を再生しているときに手を使わずに簡単に操作できる。
また、本発明は、テレビのような大型モニタを表示部としてもよい。このとき、例えば、ユーザのジェスチャーを検出するジェスチャー検出部を操作部とし、左右方向のジェスチャーと上下方向のジェスチャーの一方を第1のアクションとし、他方を第2のアクションとしてもよい。これにより、表示部から離れて画像を鑑賞していても画像表示を操作できる。
また、本発明は、小型端末装置が有する画像表示装置で表示するときに、画像表示装置の画面をタッチせずに小型端末装置を動かすだけで操作できるようにしてもよい。例えば、加速度センサを操作部とし、画像表示装置の左右移動と上下移動の一方を第1のアクションとし、他方を第2のアクションとしてもよい。これにより、ボタンの配置やタッチ操作が困難な小さな端末でも、画像表示を操作できる。
また、本発明は、PC(Personal Computer)上での操作を考慮した操作部を用いてもよい。例えば、マウスを操作部とし、マウスの左右方向のドラッグと上下方向のドラッグの一方を第1のアクションとし、他方を第2のアクションとしてもよい。このようにすることで、タッチパネル等の専用の操作デバイスがなくても操作することができる。また、例えば、タッチパッドを操作部とし、タッチパッドの左右方向の動作と上下方向の動作の一方を第1のアクションとし、他方を第2のアクションとしてもよい。また、例えば、トラックボールを操作部とし、トラックボールの左右方向の回転と上下方向の回転の一方を第1のアクションとし、他方を第2のアクションとしてもよい。すなわち、第1のアクション及び第2のアクションは、操作部に対する左右操作及び上下操作であってもよい。さらに本発明では、上記に説明したこれらの各種操作部からの操作の少なくとも1つからの操作入力によって第1のアクションおよび第2のアクションを受け付けてもよい。すなわち、上記複数種類の操作部からの操作入力を同時にあるいは優先順位をつけて受付可能に実装されていてもよいものとする。
(実施例2)
以下、本発明の実施例2について、図面を参照して詳細に説明する。なお、以下に説明する本実施例でも、画像処理装置の一例であるデジタルカメラを例に説明する。実施例2に係るデジタルカメラの機能構成は、図1に示した実施例1と同様であるので、ここでは、図1を参照して説明する。本実施例では、制御部101が、表示部110の姿勢あるいは表示の設定に応じた、画像及びピントマップを表示部110に表示させる出力制御を実行する例について説明する。具体的に本実施例では、表示部110の姿勢あるいは表示部の設定によって、例えば縦長画面に対して上下をブラックアウトさせて横構図の画像が表示されている場合には、上下方向に画像およびピントマップを並べて表示する。この場合、ピントマップ画像の表示(切り替え)指示に応じてピントマップだけを表示させることはしない。また、例えば横長画面に対して左右をブラックアウトさせて縦構図の画像が表示されている場合には、ピントマップ画像の表示(切り替え)指示に応じてピントマップだけを表示させるのではなく、左右方向に画像およびピントマップを並べて表示する。これにより、ブラックアウトされて情報の表示に使われていない領域を有効利用してピントマップを表示することで、画像およびピントマップを一覧させることができ、利便性が向上する。
図8及び図9は、本発明の実施例2に係る画像再生処理を説明するためのフローチャートである。図10(A)及び図10(B)は、横構図画像における表示部の姿勢あるいは表示の設定に応じて画像の表示方法を変える方法を示す図である。図11(A)、図11(B)、図11(C)、図11(D)、図11(E)及び図11(F)は、本発明の実施例2による横構図画像における表示部の姿勢に応じて画像とピントマップとの表示方法を変える方法を示す図である。図12(A)及び図12(B)は、縦構図画像における表示部の姿勢あるいは表示の設定に応じて画像の表示方法を変える方法を示す図である。図13(A)、図13(B)、図13(C)、図13(D)、図13(E)及び図13(F)は、本発明の実施例2による縦構図画像における表示部の姿勢あるいは表示の設定に応じて画像とピントマップとの表示方法を変える方法を示す図である。
まず、図10(A)及び図10(B)を用いて表示部110の姿勢に応じた画像を表示する姿勢対応画像表示機能について説明する。姿勢対応画像表示機能とは、制御部101に制御されて実現される機能であって、画像再生中に、姿勢取得部109によって取得した表示部110の姿勢に応じて、表示部110に表示する画像を第1の画像から第2の画像に切り替える機能である。
図10(A)は、表示部110を横長画面の向きにしたときに、表示部110に、横構図の画像である第1の画像1001を表示している図である。このとき、制御部101は、継続して、姿勢取得部109により表示部110の姿勢を取得する。制御部101は、姿勢取得部109により取得した表示部110の姿勢が横長画面の向きから縦長画面の向きへと変更したことに応じて、表示部110の表示を図10(A)の表示から図10(B)の表示へと切り替える出力制御を行う。図10(B)は、表示部110を縦長画面の向きにしたときに、表示部110に、横構図の画像である画像1011を表示している図である。画像1011は、第1の画像1001を縮小した画像である。画像1011の横の長さは、表示部110を縦長画面にしたときの表示領域の横の長さ以下である。表示部110の表示画面において、画像1011の上部には余白1015が配置され、画像1011の下部には余白1016が配置される。制御部101は、表示部110に余白1015及び余白1016を白色で表示する出力制御を行ってもよいし、表示部110に余白1015及び余白1016を白色以外の色で表示する出力制御を行ってもよい。図10(B)では、余白1015及び余白1016を黒色で塗りつぶして表示している。このような姿勢対応画像表示機能によれば、ユーザが表示部110の姿勢を変更しても、表示部110において、横構図の第1の画像1001を横構図のまま画像1011として表示することができる。制御部101は、表示部110が図10(B)の表示をしているときに、姿勢取得部109により取得した表示部110の姿勢が横長画面の向きへと変更したことに応じて、表示部110の表示を図10(A)の表示へと切り替える出力制御を行う。
次に、図11(A)、図11(B)、図11(C)、図11(D)、図11(E)及び図11(F)を用いてピントマップ表示機能について説明する。ピントマップ表示機能とは、制御部101に制御されて実現される機能であって、画像再生中に、操作部111がユーザのアクションを受け付けることで、表示部110に表示する画像を第1の画像からピントマップに切り替える機能である。なお、本実施例では、ピントマップはデフォーカス量の分布情報であり、図面においては、デフォーカス量をグレースケールの濃淡で表すが、本発明はこの限りではない。
図11(A)乃至図11(C)は、図5(A)乃至図5(C)に対応する。図11(A)の第1の画像1101は、図5(A)の第1の画像501に対応する。図11(A)のアクション1103は、図5(A)のアクション503に対応する。図11(B)の部分画像1101aは、図5(B)の部分画像501aに対応する。図11(B)の部分ピントマップ1102aは、図5(B)の部分ピントマップ502aに対応する。図11(B)のコンテンツ1104は、図5(B)のコンテンツ504に対応する。図11(B)の境界線1104aは、図5(B)の境界線504aに対応する。図11(C)のピントマップ1102は、図5(C)のピントマップ502に対応する。図11(A)乃至図11(C)に示す動作は、図5(A)乃至図5(C)を参照して上述した動作と同様であるので、ここでは説明を省略する。
図11(D)は、図10(B)に対応し、横構図である第1の画像1101を縮小した画像1111を、縦長画面の表示部110に表示している図である。図10(B)と同様に、表示部110において、画像1111の上部には余白1115が表示され、画像1111の下部には余白1116が表示される。本実施例では、この余白1115及び余白1116の表示領域を有効に活用する。制御部101は、第1の画像1101を縮小した画像1111と、第1の画像1101に対応するピントマップ1102を縮小したピントマップ1112とを並べた画像1117(図11(F))を、表示部110に表示する出力制御を実行する。
図11(D)に示すように、表示部110に画像1111が表示された状態で、ユーザは、操作部111の操作面に対してアクション1113を行う。アクション1113は、例えば操作部111の操作面に対する縦方向スワイプ動作である。制御部101は、操作部111がアクション1113を受け付けたことに応じて、表示部110に画像1117を表示させる出力制御を実行する。この制御部101による出力制御では、表示部110の表示を、画像1111から画像1117へと、他の如何なるコンテンツの表示も挟まずに切り替えてもよい。
但し、本実施例では、表示部110の表示を、画像1111から画像1117へと切り替える際に、間にコンテンツ1114の表示を挟む。図11(E)は、コンテンツ1114を表示している表示部110を示す図である。コンテンツ1114は、画像1111と、ピントマップ1112の一部である部分ピントマップ1112aと、余白1115と、を表示するコンテンツである。コンテンツ1114は、画像1111の表示位置を下から上へと移動させることで、表示部110における余白1115の表示割合を徐々に減少させ、部分ピントマップ1112aの表示割合を徐々に増加させるコンテンツである。コンテンツ1114の表示も、コンテンツ704の表示と同様、アクション1113のスワイプ動作のスワイプの操作量に応じて余白1115と部分ピントマップ1112aの表示割合を制御してもよい。本実施例では、画像1111から画像1117への表示切り替えの際にコンテンツ1114の表示を挿入する。このようにすることで、操作部111に対して上下方向の操作を行うことで互いに対応関係にある撮影画像と撮影画像及びピントマップとで表示が切替わることをよりユーザに直感的に知らしめることができる。
図11(D)から図11(E)に遷移する際は、図11(D)の余白1116の位置に部分ピントマップ1112aを表示させた後、画像1111の表示位置を下から上へと移動させてもよい。図11(D)から図11(E)に遷移する際は、画像1111を余白1116の位置に下げた後、画像1111の表示位置を下から上へと移動させてもよい。
制御部101は、表示部110に画像1111を表示(図11(D))させる出力制御を実行し、操作部111がアクション1113を受け付けたことに応じて、表示部110にコンテンツ1114を表示(図11(E))させる出力制御を実行する。制御部101は、その後、表示部110に画像1117を表示(図11(F))させる出力制御を実行する。第1の画像1101が横構図の画像の場合、表示部110を縦長画面にしたとき、画像1111とピントマップ1112とを縦に並べて配置することで、これらを表示領域に無駄なく敷き詰めることができる。また、図11(C)の状態のときに表示部110を縦長画面にすると、制御部101は、姿勢取得部109により取得した表示部110の姿勢が縦長画面の向きへと変更したことに応じて、表示部110の表示を図11(F)の表示へと切り替える出力制御を行う。また、図11(F)の状態のときに表示部110を横長画面にすると、制御部101は、姿勢取得部109により取得した表示部110の姿勢が横長画面の向きへと変更したことに応じて、表示部110の表示を図11(C)の表示へと切り替える出力制御を行う。また、図11(A)の状態のときに表示部110を縦長画面にすると、制御部101は、この姿勢の変更を姿勢取得部109により取得し、それに応じて表示部110の表示を図11(F)の表示へと切り替える出力制御を行ってもよい。本実施例によれば、このように表示部110の姿勢に応じて画像とピントマップとの表示方法を切り替えることで、表示部110の表示領域の面積を有効に活用することができる。
図10(A)、図10(B)及び図11(A)乃至図11(F)では画像が横構図の場合について説明したが、図12(A)、図12(B)及び図13(A)乃至図13(F)では画像が縦構図の場合について示す。
図12(A)は、表示部110を縦長画面の向きにしたときに、表示部110に、縦構図の画像である第1の画像1201を表示している図である。このとき、制御部101は、継続して、姿勢取得部109により表示部110の姿勢を取得する。制御部101は、姿勢取得部109により取得した表示部110の姿勢が縦長画面の向きから横長画面の向きへと変更したことに応じて、表示部110の表示を図12(A)の表示から図12(B)の表示へと切り替える出力制御を行う。図12(B)は、表示部110を横長画面の向きにしたときに、表示部110に、縦構図の画像である画像1211を表示している図である。画像1211は、第1の画像1201を縮小した画像である。画像1211の縦の長さは、表示部110を横長画面にしたとき表示領域の縦の長さ以下である。表示部110の表示画面において、画像1211の左部には余白1215が配置され、画像1211の右部には余白1216が配置される。制御部101は、表示部110が図12(B)の表示をしているときに、姿勢取得部109により取得した表示部110の姿勢が縦長画面の向きへと変更したことに応じて、表示部110の表示を図12(A)の表示へと切り替える出力制御を行う。
次に、図13(A)、図13(B)、図13(C)、図13(D)、図13(E)及び図13(F)を用いてピントマップ表示機能について説明する。図13(A)乃至図13(C)は、図7(A)乃至図7(C)に対応する。図13(A)の第1の画像1301は、図7(A)の第1の画像701に対応する。図13(A)のアクション1303は、図7(A)のアクション703に対応する。図13(B)の部分画像1301aは、図7(B)の部分画像701aに対応する。図13(B)の部分ピントマップ1302aは、図7(B)の部分ピントマップ702aに対応する。図13(B)のコンテンツ1304は、図7(B)のコンテンツ704に対応する。図13(B)の境界線1304aは、図7(B)の境界線704aに対応する。図13(C)のピントマップ1302は、図7(C)のピントマップ702に対応する。図13(A)乃至図13(C)に示す動作は、図7(A)乃至図7(C)を参照して上述した動作と同様であるので、ここでは説明を省略する。
図13(D)は、図12(B)に対応し、縦構図である第1の画像1301を縮小した画像1311を、横長画面の表示部110に表示している図である。図12(B)と同様に、表示部110において、画像1311の左部には余白1315が表示され、画像1311の右部には余白1316が表示される。制御部101は、第1の画像1301を縮小した画像1311と、第1の画像1301に対応するピントマップ1302を縮小したピントマップ1312とを並べた画像1317(図13(F))を、表示部110に表示する出力制御を実行する。
図13(D)に示すように、表示部110に画像1311が表示された状態で、ユーザは、操作部111の操作面に対してアクション1313を行う。アクション1313は、例えば操作部111の操作面に対する縦方向スワイプ動作である。制御部101は、操作部111がアクション1313を受け付けたことに応じて、表示部110に画像1317を表示させる出力制御を実行する。この制御部101による出力制御では、表示部110の表示を、画像1311から画像1317へと、他の如何なるコンテンツの表示も挟まずに切り替えてもよい。
但し、本実施例では、表示部110の表示を、画像1311から画像1317へと切り替える際に、間にコンテンツ1314の表示を挟む。図13(E)は、コンテンツ1314を表示している表示部110を示す図である。コンテンツ1314は、画像1311と、ピントマップ1312の一部である部分ピントマップ1312aと、余白1315と、を表示するコンテンツである。コンテンツ1314は、画像1311の表示位置を右から左へと移動させることで、表示部110における余白1315の表示割合を徐々に減少させ、部分ピントマップ1312aの表示割合を徐々に増加させるコンテンツである。コンテンツ1314の表示は、アクション1313のスワイプ動作のスワイプの操作量に応じて余白1315と部分ピントマップ1312aの表示割合を制御してもよい。本実施例では、画像1311から画像1317への表示切り替えの際にコンテンツ1314の表示を挿入する。このようにすることで、操作部111に対して上下方向の操作を行うことで互いに対応関係にある撮影画像と撮影画像及びピントマップとで表示が切替わることをよりユーザに直感的に知らしめることができる。
図13(D)から図13(E)に遷移する際は、図13(D)の余白1316の位置に部分ピントマップ1312aを表示させた後、画像1311の表示位置を右から左へと移動させてもよい。図13(D)から図13(E)に遷移する際は、画像1311を余白1316の位置に右寄せした後、画像1311の表示位置を右から左へと移動させてもよい。
制御部101は、表示部110に画像1311を表示(図13(D))させる出力制御を実行し、操作部111がアクション1313を受け付けたことに応じて、表示部110にコンテンツ1314を表示(図13(E))させる出力制御を実行する。制御部101は、その後、表示部110に画像1317を表示(図13(F))させる出力制御を実行する。第1の画像1301が縦構図の画像の場合、表示部110を横長画面にしたとき、画像1311とピントマップ1312とを横に並べて配置することで、これらを表示領域に無駄なく敷き詰めることができる。また、図13(C)の状態のときに表示部110を横長画面にすると、制御部101は、姿勢取得部109により取得した表示部110の姿勢が横長画面の向きへと変更したことに応じて、表示部110の表示を図13(F)の表示へと切り替える出力制御を行う。また、図13(F)の状態のときに表示部110を縦長画面にすると、制御部101は、姿勢取得部109により取得した表示部110の姿勢が縦長画面の向きへと変更したことに応じて、表示部110の表示を図13(C)の表示へと切り替える出力制御を行う。また、図13(A)の状態のときに表示部110を横長画面にすると、制御部101は、この姿勢の変更を姿勢取得部109により取得し、それに応じて表示部110の表示を図13(F)の表示へと切り替える出力制御を行ってもよい。本実施例によれば、このように表示部110の姿勢に応じて画像とピントマップとの表示方法を切り替えることで、表示部110の表示領域の面積を有効に活用することができる。
制御部101は、画像再生処理の実行を指示するユーザの操作を受け付けることで、表示部110に画像を表示する画像再生処理(図8及び図9の処理)を実行する。以下、図8及び図9のフローチャートを参照して説明する。まず、制御部101は、画像再生処理の実行を指示するユーザの操作に応じた第1の画像を、表示部110に表示(図10(A)、図11(A)、図12(A)、図13(A))させる出力制御を実行する(ステップS801)。
続いて、制御部101は、姿勢取得部109で取得した表示部110の姿勢が変更されたかを判定する(ステップS802)。表示部110の姿勢が変更された場合(ステップS802:Yes)、制御部101は、図9のステップS901へと処理を進める。表示部110の姿勢が変更されていない場合(ステップS802:No)、制御部101は、ステップS804へと処理を進める。
ステップS804において、制御部101は、操作部111が第1のアクションを受け付けたかを判定する。操作部111が第1のアクションを受け付けた場合(ステップS804:Yes)、制御部101は、第1の画像に続く画像である第2の画像を、表示部110に表示させる出力制御を実行する(ステップS805)。制御部101は、画像再生処理の終了を指示するユーザの操作を受け付けることで、画像再生処理(図8及び図9の処理)を終了する(ステップS808:Yes)。制御部101は、ステップS808において再生が終了するまでは、ステップS802に戻り、ユーザの操作に応じた処理を繰り返す(ステップS808:No)。
操作部111が第1のアクションを受け付けていない場合(ステップS804:No)、制御部101は、操作部111が第2のアクション(アクション1103、アクション1303)を受け付けたかを判定する(ステップS806)。操作部111が第2のアクションを受け付けた場合(ステップS806:Yes)、処理はステップS807へ進む。制御部101は、第1の画像に対応したピントマップを、表示部110に表示(図11(B)、図11(C)、図13(B)、図13(C))させる出力制御を実行する(ステップS807)。制御部101は、画像再生処理の終了を指示するユーザの操作を受け付けることで、画像再生処理(図8及び図9の処理)を終了する(ステップS808:Yes)。制御部101は、ステップS808において再生が終了するまでは、ステップS802に戻り、ユーザの操作に応じた処理を繰り返す(ステップS808:No)。
ステップS802において、表示部110の姿勢が変更された場合(ステップS802:Yes)、制御部101は、図9のステップS901へと処理を進める。ステップS901において、制御部101は、第1の画像を縮小した画像を、表示部110に表示((図10(B)、図11(D)、図12(B)、図13(D)))させる出力制御を実行する。
続いて、制御部101は、姿勢取得部109で取得した表示部110の姿勢が変更されたかを判定する(ステップS902)。表示部110の姿勢が変更された場合(ステップS902:Yes)、制御部101は、図8のステップS803へと処理を進める。図8のステップS803において、制御部101は、縮小していない第1の画像を、表示部110に表示((図10(A)、図11(A)、図12(A)、図13(A)))させる出力制御を実行する。その後、制御部101は、上述したステップS804以降の処理を実行する。
図9のステップS902において、表示部110の姿勢が変更されていない場合(ステップS902:No)、制御部101は、図9のステップS903へと処理を進める。ステップS903において、制御部101は、操作部111が第1のアクションを受け付けたかを判定する。操作部111が第1のアクションを受け付けた場合(ステップS903:Yes)、制御部101は、第1の画像に続く画像である第2の画像を、表示部110に表示させる出力制御を実行する(ステップS904)。制御部101は、画像再生処理の終了を指示するユーザの操作を受け付けることで、画像再生処理(図8及び図9の処理)を終了する(ステップS907:Yes)。制御部101は、ステップS907において再生が終了するまでは、ステップS902に戻り、ユーザの操作に応じた処理を繰り返す(ステップS907:No)。
操作部111が第1のアクションを受け付けていない場合(ステップS903:No)、制御部101は、操作部111が第2のアクション(アクション1113、アクション1313)を受け付けたかを判定する(ステップS905)。操作部111が第2のアクションを受け付けた場合(ステップS905:Yes)、制御部101は、画像及びピントマップを、表示部110に表示(図11(F)、図13(F))する出力制御を実行する(ステップS906)。ステップS906において表示する画像及びピントマップは、第1の画像を縮小した画像と、第1の画像に対応するピントマップを縮小したピントマップとを並べた画像である。制御部101は、画像再生処理の終了を指示するユーザの操作を受け付けることで、画像再生処理(図8及び図9の処理)を終了する(ステップS907:Yes)。制御部101は、ステップS907において再生が終了するまでは、ステップS902に戻り、ユーザの操作に応じた処理を繰り返す(ステップS907:No)。
(実施例3)
以下、本発明の実施例3について、図面を参照して詳細に説明する。なお、以下に説明する本実施例でも、画像処理装置の一例であるデジタルカメラを例に説明する。実施例3に係るデジタルカメラの機能構成は、図1に示した実施例1と同様であるので、ここでは、図1を参照して説明する。本実施例では、制御部101が、例えば実施例1に準じて第1の画像に対応したピントマップを表示部110に表示させているときに、さらに画像送りに相当するアクションを起こした場合の出力制御の例について説明する。本実施例では、この場合に、次の撮影画像へ画像送りする出力制御を実行する。本実施例では複数の撮影画像のピントマップ(評価値)を確認しながら順次チェックしていく場合にまず画像が確認できる。これにより、被写体の表情、姿勢などであまり良くなく、ピント(評価値)以外の理由で評価が下がる画像の評価値まで無駄に確認するという作業を割愛することができる。
図14(A)は、図5(C)に対応し、表示部110に第1の画像に対応したピントマップ1401を表示している。図14(A)のピントマップ1401は、図5(C)のピントマップ502に対応する。図14(A)のアクション1403は、図4(A)のアクション403に対応する。本実施例では、実施例1の動作に従って表示部110にピントマップ1401を表示しているときに、第1のアクションとしてのアクション1403を受け付けた場合の処理について説明する。
図14(A)に示すように、表示部110にピントマップ1401が表示された状態で、ユーザは、操作部111の操作面に対してアクション1403を行う。制御部101は、操作部111がアクション1403を受け付けたことに応じて、表示部110に第2の画像1402を表示させる出力制御を実行する。この制御部101による出力制御では、表示部110の表示を、ピントマップ1401から第2の画像1402へと、他の如何なるコンテンツの表示も挟まずに切り替えてもよい。図14(C)は、表示部110に、第2の画像1402を表示している図である。
但し、本実施例では、表示部110の表示を、ピントマップ1401から第2の画像1402へと切り替える際に、間にコンテンツ1404の表示を挟む。図14(B)は、コンテンツ1404を表示している表示部110を示す図である。コンテンツ1404は、ピントマップ1401の一部である部分ピントマップ1401aと、第2の画像1402の一部である部分画像1402aと、を表示するコンテンツである。また、コンテンツ1404は、部分ピントマップ1401aと部分画像1402aとの境界を示す境界線1404aを表示するコンテンツである。境界線1404aは、縦方向に延びる線であり、その左側に部分ピントマップ1401aが表示され、その右側に部分画像1402aが表示される。コンテンツ1404は、境界線1404aの表示位置を右から左へと移動させることで、表示部110における部分ピントマップ1401aの表示割合を徐々に減少させ、部分画像1402aの表示割合を徐々に増加させるコンテンツである。コンテンツ1404の表示は、アクション1403のスワイプ動作のスワイプの操作量に応じて部分ピントマップ1401aと部分画像1402aの表示割合を制御してもよい。このように本実施例では、ピントマップから次の画像へ表示を切り替える際にコンテンツ1404の表示を挿入する。このようにすることで、操作部111に対して左右方向の操作を行うことで表示される画像が切替わることをよりユーザに直感的に知らしめることができる。
制御部101は、表示部110にピントマップ1401を表示(図14(A))させる出力制御を実行し、操作部111がアクション1403を受け付けたことに応じて、表示部110にコンテンツ1404を表示(図14(B))させる出力制御を実行する。制御部101は、その後、表示部110に第2の画像1402を表示(図14(C))させる出力制御を実行する。これにより、ユーザは、第1の画像に対応するピントマップを確認しているとき、画像送りをして、まず第2の画像を確認することができる。
(実施例4)
以下、本発明の実施例4について、図面を参照して詳細に説明する。なお、以下に説明する本実施例でも、画像処理装置の一例であるデジタルカメラを例に説明する。実施例4に係るデジタルカメラの機能構成は、図1に示した実施例1と同様であるので、ここでは、図1を参照して説明する。本実施例では、制御部101が、例えば実施例1に準じて第1の画像に対応したピントマップを表示部110に表示させているときにさらに画像送りに対応するアクションを行った場合の出力制御の例について説明する。本実施例では、この場合に、表示されるものが次の撮影画像のピントマップに送られる出力制御を実行する。本実施例では例えば略同一の被写体を連写等で複数撮像して得られた複数の画像において、ピント状態の良好な画像を特定するに当たって、ピントマップ間で直接表示を送ることが可能であるためにより素早くピント評価の高い画像を特定することができる。
図15(A)は、図5(C)に対応し、表示部110に第1の画像に対応したピントマップ1501を表示している。図15(A)のピントマップ1501は、図5(C)のピントマップ502に対応する。図15(A)のアクション1503は、図4(A)のアクション403に対応する。本実施例では、実施例1の動作に従って表示部110にピントマップ1501を表示しているときに、第1のアクションとしてのアクション1503を受け付けた場合の処理について説明する。
図15(A)に示すように、表示部110にピントマップ1501が表示された状態で、ユーザは、操作部111の操作面に対してアクション1503を行う。制御部101は、操作部111がアクション1503を受け付けたことに応じて、第2の画像に対応したピントマップ1502を表示部110に表示させる出力制御を実行する。この制御部101による出力制御では、表示部110の表示を、ピントマップ1501からピントマップ1502へと、他の如何なるコンテンツの表示も挟まずに切り替えてもよい。図15(C)は、表示部110に、ピントマップ1502を表示している図である。
但し、本実施例では、表示部110の表示を、ピントマップ1501からピントマップ1502へと切り替える際に、間にコンテンツ1504の表示を挟む。図15(B)は、コンテンツ1504を表示している表示部110を示す図である。コンテンツ1504は、ピントマップ1501の一部である部分ピントマップ1501aと、ピントマップ1502の一部である部分ピントマップ1502aと、を表示するコンテンツである。また、コンテンツ1504は、部分ピントマップ1501aと部分ピントマップ1502aとの境界を示す境界線1504aを表示するコンテンツである。境界線1504aは、縦方向に延びる線であり、その左側に部分ピントマップ1501aが表示され、その右側に部分ピントマップ1502aが表示される。コンテンツ1504は、境界線1504aの表示位置を右から左へと移動させることで、表示部110における部分ピントマップ1501aの表示割合を徐々に減少させ、部分ピントマップ1502aの表示割合を徐々に増加させるコンテンツである。コンテンツ1504の表示は、アクション1503のスワイプ動作のスワイプの操作量に応じて部分ピントマップ1501aと部分ピントマップ1502aの表示割合を制御してもよい。このように本実施例では、ピントマップから次のピントマップへと表示を切り替える際にコンテンツ1504の表示を挿入する。このようにすることで、操作部111に対して左右方向の操作を行うことで表示されるピントマップが切替わることをよりユーザに直感的に知らしめることができる。
制御部101は、表示部110にピントマップ1501を表示(図15(A))させる出力制御を実行し、操作部111がアクション1503を受け付けたことに応じて、表示部110にコンテンツ1504を表示(図15(B))させる出力制御を実行する。制御部101は、その後、表示部110にピントマップ1502を表示(図15(C))させる出力制御を実行する。これにより、ユーザは、第1の画像に対応するピントマップを確認しているとき、続けて第2の画像に対応するピントマップを確認することができる。
なお、制御部101は、操作部111が第1のアクションを受け付けた後、所定時間経過前に再度第1のアクションを受け付けた場合には、図15(C)に示した第2の画像に対応したピントマップを表示する出力制御を実行するようにしてもよい。すなわち制御部101は、操作部111が前回の第1のアクションから所定時間経過前に次の第1のアクションを受け付けた場合には、第2の画像に対応したピントマップを表示する出力制御を実行する。
また、制御部101は、操作部111が第1のアクションを受け付けた後、所定時間経過後に再度第1のアクションを受け付けた場合には、図14(C)に示した第2の画像を表示する出力制御を実行するようにしてもよい。すなわち制御部101は、操作部111が前回の第1のアクションから所定時間経過後に次の第1のアクションを受け付けた場合には、第2の画像を表示する出力制御を実行する。
このようにすることで、ユーザは、ピント情報だけを確認したい場合は、連続して第1のアクションを行うことで即座にピントマップを確認できる。また、ユーザは、長時間ピントマップを確認した後は、第1のアクションで次の画像が表示されることで、次の画像がどのようなシーンであったかを思い出しやすい。
また、制御部101は、表示部110にピントマップ1501を表示しているときに、第1のアクションとしてのアクション1503を受け付けた場合に、次の第2の画像に対応するピントマップが生成されていない場合も考えられる。この場合、アクション1503を受け付けたことに応じて、画像処理部107にて第2の画像に対応するピントマップを生成させてから表示部110に生成されたピントマップを表示するよう制御してもよい。あるいは制御部101は、アクション1503を受け付けたことに応じて、画面一面をブラックアウトして表示するなど、第2の画像に対応するピントマップが存在しないことを示す表示を行ってもよい。あるいは制御部101は、アクション1503を受け付けたことに応じて、実施例3と同様に第2の画像の表示に切り替えるように出力制御を実行してもよい。
(実施例5)
以下、本発明の実施例5について、図面を参照して詳細に説明する。なお、以下に説明する本実施例でも、画像処理装置の一例であるデジタルカメラを例に説明する。実施例5に係るデジタルカメラの機能構成は、図1に示した実施例1と同様であるので、ここでは、図1を参照して説明する。本実施例では、制御部101が、連写画像を再生する場合において、同一連写グループに属する画像を再生するときと、異なる連写グループに属する画像を再生するときとで処理を異ならせる。なお、同一連写グループに属する画像とは、例えば、同一のレリーズアクションで得られた連写画像のことである。異なる連写グループに属する画像とは、例えば、異なるレリーズアクションで得られた画像のことである。制御部101は、この各画像がどの連写グループに属するかを示す連写グループ情報を、画像とともにRAM103に記憶させる。制御部101は、RAM103の連写グループ情報を読み出すことで、各画像がどの連写グループに属するかを判定することができる。
本実施例では、第1の連写グループに属する第1の画像と、第1の連写グループに属する第2の画像と、第2の連写グループに属する第3の画像と、が記録媒体108に記録されている場合を例に説明する。ユーザが第1の画像のピントマップを確認しているとき、画像送りで次に表示される第2の画像は第1の画像と同一連写グループであって構図が大きく変化しないため、画像送りで第2の画像のピントマップを表示することでユーザは確認しやすく利便性が高い。ユーザが第2の画像のピントマップを確認しているとき、画像送りで次に表示される第3の画像は第2の画像と異なる連写グループであって構図が大きく変化するため、画像送りで第3の画像を表示することで、ユーザは、まず画像を確認できて利便性が高い。
図16(A)は、図5(C)に対応し、表示部110に第1の画像に対応したピントマップ1601を表示している。図16(A)のピントマップ1601は、図5(C)のピントマップ502に対応する。図16(A)のアクション1603aは、図4(A)のアクション403に対応する。本実施例では、まず、表示部110にピントマップ1601を表示しているときに、第1のアクションとしてのアクション1603aを受け付けた場合の処理について説明する。
図16(A)に示すように、表示部110にピントマップ1601が表示された状態で、ユーザは、操作部111の操作面に対してアクション1603aを行う。制御部101は、画像送りで第1の画像の次に表示すべき画像が、第1の画像と同一連写グループであるかを判定する。ここでは、画像送りで第1の画像の次に表示すべき画像は第2の画像であって、この第2の画像は第1の画像と同一連写グループである。このため、制御部101は、操作部111がアクション1603aを受け付けたことに応じて、第2の画像に対応したピントマップ1602を表示部110に表示させる出力制御を実行する。制御部101は、表示部110の表示を、ピントマップ1601からピントマップ1602へと切り替える際に、図15(B)と同様に、図16(B)のコンテンツ1604の表示を間に挟んでもよい。図16(B)のコンテンツ1604は、図15(B)のコンテンツ1504に対応する。図16(B)の部分ピントマップ1601aは、図15(B)の部分ピントマップ1501aに対応する。図16(B)の部分ピントマップ1602aは、図15(B)の部分ピントマップ1502aに対応する。図16(B)の境界線1604aは、図15(B)の境界線1504aに対応する。
制御部101は、表示部110にピントマップ1601を表示(図16(A))させる出力制御を実行し、操作部111がアクション1603aを受け付けたことに応じて、表示部110にコンテンツ1604を表示(図16(B))させる出力制御を実行する。制御部101は、その後、表示部110にピントマップ1602を表示(図16(C))させる出力制御を実行する。これにより、ユーザは、第1の画像に対応するピントマップを確認しているとき、続けて同一連写グループの画像である第2の画像に対応するピントマップを確認することができる。
図16(C)のアクション1603bは、図4(A)のアクション403に対応する。なお、アクション1603bは、アクション1603aと同じアクションである。図16(C)に示すように、表示部110にピントマップ1602が表示された状態で、ユーザは、操作部111の操作面に対してアクション1603bを行う。制御部101は、画像送りで第2の画像の次に表示すべき画像が、第2の画像と同一連写グループであるかを判定する。ここでは、画像送りで第2の画像の次に表示すべき画像は第3の画像であって、この第3の画像は第2の画像と異なる連写グループである。このため、制御部101は、操作部111がアクション1603bを受け付けたことに応じて、第3の画像1608を表示部110に表示させる出力制御を実行する。制御部101は、表示部110の表示を、ピントマップ1602から第3の画像1608へと切り替える際に、図14(B)と同様に、図16(D)のコンテンツ1609の表示を間に挟んでもよい。図16(D)のコンテンツ1609は、図14(B)のコンテンツ1404に対応する。図16(D)の部分ピントマップ1602aは、図14(B)の部分ピントマップ1401aに対応する。図16(D)の部分画像1608aは、図14(B)の部分画像1402aに対応する。図16(D)の境界線1609aは、図14(B)の境界線1404aに対応する。
制御部101は、表示部110にピントマップ1602を表示(図16(C))させる出力制御を実行し、操作部111がアクション1603bを受け付けたことに応じて、表示部110にコンテンツ1609を表示(図16(D))させる出力制御を実行する。制御部101は、その後、表示部110に第3の画像1608を表示(図16(E))させる出力制御を実行する。これにより、ユーザは、第2の画像に対応するピントマップを確認しているとき、異なる連写グループの第3の画像に対しては、第3の画像に対応するピントマップではなく、まず第3の画像を確認することができる。
なお、本実施例では、図11(C)及び図13(C)のように表示部110にピントマップのみが表示されている状態で説明を行った。しかしながら、本発明は、図11(F)及び図13(F)のように表示部110に画像とピントマップとが縮小されて同時に表示されている状態であっても、同様の機能が実現できるのは勿論である。例えば、制御部101は、表示部110に画像及びピントマップが表示された状態で第1のアクションで画像送りされた場合、次の画像及び次の画像に対応するピントマップを表示する出力制御を実行してもよい。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 デジタルカメラ
101 制御部
102 ROM
103 RAM
104 光学系
105 撮像部
106 A/D変換部
107 画像処理部
108 記録媒体
109 姿勢取得部
110 表示部
111 操作部
112 バス

Claims (18)

  1. 画像、又は前記画像の複数の領域に対応する評価値の分布情報を出力する出力手段と、
    第1のアクション、及び前記第1のアクションとは異なる第2のアクションを受け付ける操作手段と、
    前記出力手段が第1の画像を出力しているときに、前記操作手段が前記第1のアクションを受け付けた場合は前記出力手段が第2の画像を出力し、前記操作手段が前記第2のアクションを受け付けた場合は前記出力手段が前記第1の画像に対応する前記評価値の分布情報を出力する出力制御を実行する制御手段と、を有する
    ことを特徴とする画像処理装置。
  2. 前記制御手段は、前記出力手段により出力される画像および評価値の分布情報が表示手段により表示されるよう前記出力制御を実行することを特徴とする請求項1に記載の画像処理装置。
  3. 前記制御手段は、各評価値の対応する画像の領域の位置に各評価値が可視化された評価値の分布情報を表示手段に表示させるよう前記出力制御を実行することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記制御手段は、前記出力手段が前記第1の画像に対応する前記評価値の分布情報を出力しているときに、前記操作手段が前記第1のアクションを受け付けた場合は前記出力手段が前記第2の画像を出力する出力制御を実行する
    ことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記制御手段は、前記出力手段が前記第1の画像に対応する前記評価値の分布情報を出力しているときに、前記操作手段が前記第1のアクションを受け付けた場合は前記出力手段が前記第2の画像に対応する前記評価値の分布情報を出力する出力制御を実行する
    ことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  6. 前記制御手段は、前記出力手段が前記第1の画像に対応する前記評価値の分布情報を出力しているときに、
    前記操作手段が、前回の前記第1のアクションから所定時間経過前に前記第1のアクションを受け付けた場合は前記出力手段が前記第2の画像に対応する前記評価値の分布情報を出力し、
    前記操作手段が、前回の前記第1のアクションから所定時間経過後に前記第1のアクションを受け付けた場合は前記出力手段が前記第2の画像を出力する出力制御を実行する
    ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記制御手段は、前記出力手段が前記第1の画像に対応する前記評価値の分布情報を出力しているときに、
    前記第2の画像が前記第1の画像と同一の連写グループに属する画像であって前記操作手段が前記第1のアクションを受け付けた場合は前記出力手段が前記第2の画像に対応する前記評価値の分布情報を出力し、
    前記第2の画像が前記第1の画像と異なる連写グループに属する画像であって前記操作手段が前記第1のアクションを受け付けた場合は前記出力手段が前記第2の画像を出力する出力制御を実行する
    ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記評価値の分布情報は、ピント情報の分布情報を含むことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記評価値の分布情報は、ブレ度合いの分布情報、白飛び・黒潰れ度合いの分布情報、距離情報の分布情報、法線方向分布の情報、又は意味的領域分割の確率分布情報のうちの少なくともいずれか1つを含む
    ことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 前記操作手段は、タッチパネルからの操作入力を受け付け、
    前記第1のアクション及び前記第2のアクションは、前記タッチパネルに対するスワイプ動作、又は短辺タップ及び長辺タップである
    ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 前記操作手段は、十字キー状、又はスティック状の操作部からの入力を受け付け、
    前記第1のアクション及び前記第2のアクションは、前記操作部に対する左右入力及び上下入力である
    ことを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 前記操作手段は、ユーザの視線を検出する視線センサ、ユーザのジェスチャーを検出するジェスチャー検出部、加速度センサおよびマウスの少なくとも1つからの操作入力を受け付け、前記第1のアクションおよび前記第2のアクションを受け付けることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記画像処理装置の姿勢を取得する姿勢取得部を有し、
    前記制御手段は、前記画像処理装置の姿勢に応じて前記出力手段の出力を異ならせる出力制御を実行する
    ことを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 前記制御手段は、前記画像の縦横情報に応じて前記出力手段の出力を異ならせる出力制御を実行する
    ことを特徴とする請求項13に記載の画像処理装置。
  15. 前記制御手段は、前記画像の縦横情報及び前記画像処理装置の姿勢に応じて前記出力手段の出力を異ならせる出力制御を実行する
    ことを特徴とする請求項14に記載の画像処理装置。
  16. 請求項1乃至15のいずれか1項に記載の画像処理装置と、前記出力手段が出力する画像又は前記評価値の分布情報を表示する表示手段と、を有する
    ことを特徴とする撮像装置。
  17. 第1のアクション、及び前記第1のアクションとは異なる第2のアクションを受け付ける操作手段を有する画像処理装置の制御方法であって、
    画像、又は前記画像の複数の領域に対応する評価値の分布情報を出力する出力工程と、
    前記出力工程で第1の画像を出力しているときに、前記操作手段が前記第1のアクションを受け付けた場合は前記出力工程で第2の画像を出力し、前記操作手段が前記第2のアクションを受け付けた場合は前記出力工程で前記第1の画像に対応する前記評価値の分布情報を出力する出力制御を実行する制御工程と、を有する
    ことを特徴とする画像処理装置の制御方法。
  18. コンピュータを請求項1乃至15のいずれか1項に記載の画像処理装置が備える各手段として機能させることを特徴とするプログラム。
JP2019117755A 2019-06-25 2019-06-25 画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラム Active JP7362312B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019117755A JP7362312B2 (ja) 2019-06-25 2019-06-25 画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラム
US16/890,312 US11327606B2 (en) 2019-06-25 2020-06-02 Image processing device, imaging device, method of controlling image processing device, and recording medium, with outputting image if accepting first action and with outputting distribution information of evaluation values corresponding to image if accepting second action
US17/724,595 US11816294B2 (en) 2019-06-25 2022-04-20 Image processing device, imaging device, method of controlling image processing device, and recording medium, with outputting image if accepting first action and with outputting distribution information of evaluation values if accepting second action

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019117755A JP7362312B2 (ja) 2019-06-25 2019-06-25 画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021005168A true JP2021005168A (ja) 2021-01-14
JP7362312B2 JP7362312B2 (ja) 2023-10-17

Family

ID=74044029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019117755A Active JP7362312B2 (ja) 2019-06-25 2019-06-25 画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラム

Country Status (2)

Country Link
US (2) US11327606B2 (ja)
JP (1) JP7362312B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7362312B2 (ja) * 2019-06-25 2023-10-17 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006065349A (ja) * 2005-10-28 2006-03-09 Casio Comput Co Ltd 撮像装置および輝度分布表示方法
JP2016034135A (ja) * 2015-10-22 2016-03-10 オリンパス株式会社 撮像装置および撮像装置におけるモード切換え方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4760608A (en) 1981-04-08 1988-07-26 Canon Kabushiki Kaisha Image processing method and apparatus
EP0259981B2 (en) 1986-08-13 1999-05-06 Canon Kabushiki Kaisha Colour image processing method and apparatus
DE69130025T2 (de) 1990-03-30 1999-03-25 Canon K.K., Tokio/Tokyo Bildverarbeitungsverfahren und -gerät
US5414531A (en) 1991-02-22 1995-05-09 Canon Kabushiki Kaisha Image forming control based on a stored operation condition
JPH07264392A (ja) 1994-02-04 1995-10-13 Canon Inc 画像編集装置、画像処理装置及び画像処理方法
JP3812824B2 (ja) * 2002-03-12 2006-08-23 カシオ計算機株式会社 撮像装置、合焦状況表示方法及びプログラム
JP5066851B2 (ja) 2006-07-05 2012-11-07 株式会社ニコン 撮像装置
JP5306105B2 (ja) 2009-08-18 2013-10-02 キヤノン株式会社 表示制御装置及び表示制御装置の制御方法、プログラム、記憶媒体
JP2011248205A (ja) * 2010-05-28 2011-12-08 Sanyo Electric Co Ltd 制御装置および投写型映像表示装置
CN104488256B (zh) * 2012-07-20 2018-01-09 富士胶片株式会社 照相机及其动作控制方法
JP6102602B2 (ja) * 2013-07-23 2017-03-29 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
JP6936592B2 (ja) 2017-03-03 2021-09-15 キヤノン株式会社 演算処理装置およびその制御方法
JP7071227B2 (ja) * 2018-06-21 2022-05-18 キヤノン株式会社 電子機器およびその制御方法
JP7362312B2 (ja) * 2019-06-25 2023-10-17 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006065349A (ja) * 2005-10-28 2006-03-09 Casio Comput Co Ltd 撮像装置および輝度分布表示方法
JP2016034135A (ja) * 2015-10-22 2016-03-10 オリンパス株式会社 撮像装置および撮像装置におけるモード切換え方法

Also Published As

Publication number Publication date
US11327606B2 (en) 2022-05-10
US11816294B2 (en) 2023-11-14
US20200409527A1 (en) 2020-12-31
US20220244831A1 (en) 2022-08-04
JP7362312B2 (ja) 2023-10-17

Similar Documents

Publication Publication Date Title
US10205869B2 (en) Video processing apparatus, control method, and recording medium
JP6153564B2 (ja) カメラとマーク出力とによるポインティング装置
JP6214236B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
US20120105590A1 (en) Electronic equipment
JP2014197824A5 (ja)
JP6701033B2 (ja) 電子機器およびその制御方法
US20200021748A1 (en) Image sensing apparatus and control method of image sensing apparatus
US20070097246A1 (en) Image capture device and method of capturing an image
US20220244831A1 (en) Image processing device, imaging device, method of controlling image processing device, and recording medium
JP7337562B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラム
JP2017143340A (ja) 情報処理装置及びプログラム
US10924680B2 (en) Image capture control apparatus and method of controlling the same
JP6120541B2 (ja) 表示制御装置及びその制御方法
JP6679430B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
KR20110060299A (ko) 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 매체
JP2021012619A (ja) 電子機器及びその制御方法
US11375123B2 (en) Image processing apparatus, image capturing apparatus, control method for image processing apparatus, and program storage medium with coordinated display of image and display of distribution information of evaluation value
US20240236503A1 (en) Electronic device, control method thereof and non-transitory computer-readable medium
US20240020073A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP7466304B2 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
US20240073511A1 (en) Electronic apparatus, control method for electronic apparatus and storage medium
JP2022189536A (ja) 撮像装置および方法
JP2023184106A (ja) 表示制御装置、表示制御方法、プログラム、および記憶媒体
JP2021061531A (ja) 撮像制御装置及びその制御方法、プログラム、記憶媒体
KR101477540B1 (ko) 자동 패닝샷 기능을 구비한 촬상 장치와 패닝샷 촬영 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231004

R151 Written notification of patent or utility model registration

Ref document number: 7362312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151