JP2017050742A - 映像処理装置、映像処理方法、及びプログラム - Google Patents

映像処理装置、映像処理方法、及びプログラム Download PDF

Info

Publication number
JP2017050742A
JP2017050742A JP2015173285A JP2015173285A JP2017050742A JP 2017050742 A JP2017050742 A JP 2017050742A JP 2015173285 A JP2015173285 A JP 2015173285A JP 2015173285 A JP2015173285 A JP 2015173285A JP 2017050742 A JP2017050742 A JP 2017050742A
Authority
JP
Japan
Prior art keywords
focus
subject
mark
video processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015173285A
Other languages
English (en)
Other versions
JP2017050742A5 (ja
JP6576171B2 (ja
Inventor
森 重樹
Shigeki Mori
重樹 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015173285A priority Critical patent/JP6576171B2/ja
Priority to US15/251,589 priority patent/US10205869B2/en
Publication of JP2017050742A publication Critical patent/JP2017050742A/ja
Publication of JP2017050742A5 publication Critical patent/JP2017050742A5/ja
Application granted granted Critical
Publication of JP6576171B2 publication Critical patent/JP6576171B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

【課題】特定の被写体に合焦させるまでのフォーカスの調整のための操作を、容易に行うことを可能にする。
【解決手段】表示画面上に表示された、撮像装置で撮像される被写体のうち、ユーザによって指定された被写体に対するフォーカスを調整する映像処理装置100である。指定された被写体に対するフォーカスを調整する前の撮像装置のフォーカスレンズの位置に基づく第1のマークと、指定された被写体に合焦させる場合のフォーカスレンズの位置に基づく第2のマークとを、表示画面に表示するよう制御する表示制御手段210と、表示画面に表示された第1のマークに対応する位置から、第2のマークに対応する位置へ、第1のマークを移動させるための指示を入力する入力手段212と、入力手段によって入力された指示に基づく移動の距離に応じて、フォーカスレンズの駆動量を検出する検出手段208と、を有する。
【選択図】図2

Description

本発明は、撮像装置で撮像される被写体に対してフォーカスの調整を行うための技術に関する。
従来、撮像装置で撮像される被写体に対してフォーカスの調整を行う場合、操作者(ユーザ)は、撮像装置のレンズの脇に設置された操作ダイヤルやリモコン等を使用して、焦点を調整するための操作をしていた。ユーザは、被写体や被写体の周囲の状況等を直接視認しつつ、専用のモニターで被写体への合焦具合を確認しながら操作を行っていた。この時、ユーザは、被写体に合焦させる場合のレンズのフォーカスリングの位置を、フォーカスの操作ダイヤルに物理的にマーキングしたり、合焦させる場合のレンズの位置情報をリモコンに記憶させたりして、焦点を調整するための操作の助けとしていた。また、ユーザは、被写体の動きを予測しながら、焦点を調整するための操作を手動で行うことによって、合焦経過や合焦のタイミングを制御していた。
上述のような、ユーザによる焦点を調整するための操作をサポートするために、次のような技術がある。特許文献1には、現在のレンズ位置と測距結果による合焦位置との差が算出され、合焦指標と、現在のレンズ位置と測距結果とのズレ量に対応する1以上のドット表示素子が表示されることが記載されている。
特開平08−43918号公報
しかしながら、特許文献1に記載のファインダ内表示方式では、ユーザは合焦位置を示すドット表示と、現在のレンズの焦点位置を示すドット表示を見ながら、操作ダイヤル等を用いてフォーカスの調整をしなければならず、細かい操作を行うことは困難であった。
本発明は、特定の被写体に合焦させるまでのフォーカスの調整のための操作を、容易に行うことが可能な映像処理装置、方法、及びプログラムを提供することを目的とする。
上記の課題を解決するための一手段として、本発明の映像処理装置は、以下の構成を備える。即ち、表示画面上に表示された、撮像装置で撮像される被写体のうち、ユーザによって指定された被写体に対するフォーカスを調整する映像処理装置であって、前記指定された被写体に対するフォーカスを調整する前の前記撮像装置のフォーカスレンズの位置に基づく第1のマークと、前記指定された被写体に合焦させる場合の前記フォーカスレンズの位置に基づく第2のマークとを、前記表示画面に表示するよう制御する表示制御手段と、前記表示画面に表示された前記第1のマークに対応する位置から、前記第2のマークに対応する位置へ、前記第1のマークを移動させるための指示を入力する入力手段と、前記入力手段によって入力された指示に基づく前記移動の距離に応じて、前記フォーカスレンズの駆動量を決定する決定手段と、を有する。
本発明によれば、特定の被写体に合焦させるまでのフォーカスの調整のための操作を、容易に行うことができる。
映像処理装置のハードウェア構成例を示すブロック図 映像処理装置の機能構成例を示すブロック図 像面位相差AF方式の詳細を説明する図 実施形態1における映像処理装置の処理を説明するフローチャート 実施形態1のフォーカスの調整を行う場合における表示画面を示す図 実施形態2における映像処理装置の処理を説明するフローチャート 実施形態2のフォーカスの調整を行う場合における表示画面を示す図 実施形態3における映像処理装置の処理を説明するフローチャート 実施形態3のフォーカスの調整を行う場合における表示画面を示す図 実施形態4における映像処理装置の処理を説明するフローチャート 実施形態4のフォーカスの調整を行う場合における表示画面を示す図 実施形態5における映像処理装置の処理を説明するフローチャート 実施形態5のフォーカスの調整を行う場合における表示画面を示す図 実施形態6における映像処理装置の処理を説明するフローチャート 実施形態6のフォーカスの調整を行う場合における表示画面を示す図
以下、添付の図面を参照して、本発明の実施形態の一例を詳細に説明する。尚、以下の実施形態において示す情報は一例に過ぎず、図示された構成に限定されるものではない。即ち、本発明は下記の実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
(実施形態1)
図1は、本実施形態における映像処理装置100のハードウェア構成例を示す図である。尚、図1に示すハードウェア構成例に限定されず、図1の1つのブロックを複数の回路によって実現しても構わないし、複数のブロックを単一の回路によって実現しても構わない。本実施形態における映像処理装置は撮像装置であるが、これに限定されない。図1において、CPU101は各種処理のための演算や論理判断等を行い、バス109に接続された各部102〜108の構成要素を制御する。ROM102は、CPU101による制御のためのプログラムであって、後述する流れ図の処理手順を含む各種の指示を示すプログラムを格納する。RAM103は、外部記憶装置(不図示)等からロードされたプログラムやデータ、I/F(インターフェイス)を介して外部から取得したデータ等を一時的に記憶する。尚、RAM103がCPU101による制御のためのプログラムを記憶しても構わない。
カメラユニット104は、フォーカスレンズ、及びズームレンズ等のレンズ、レンズを駆動させるレンズ駆動部、被写体を撮像する撮像部、グラフィック処理用のメディアプロセッサ等から構成されている。また、カメラユニット104におけるレンズ駆動部は、被写体に対するフォーカス処理(フォーカスの調整)を行うために、撮像光学系の光軸方向にフォーカスレンズを駆動させる。また、カメラユニット104における撮像部は、撮像センサを含む。撮像センサは、レンズから入力された画像を電気信号に変換して映像信号を生成する。また、本実施形態における撮像センサは、光学系の合焦状態を検出する焦点検出部を兼ねている。即ち、撮像センサは、1つの画素に1つのマイクロレンズと複数の光電変換部(受光素子)とを有する構造となっており位相差信号と映像信号とを出力することが可能である。そして、映像処理装置100は、出力された位相差信号に基づいて、合焦状態を検出することができる。このように、位相差信号に基づいて合焦状態を検出してフォーカス処理を行う方法を、像面位相差AF(オートフォーカス)方式と称す。尚、像面位相差AF方式の詳細については、後述する。
映像信号I/F105及び無線通信I/F107は、映像処理装置100の外部との接続するI/Fである。映像信号I/F105は、映像のストリーム信号を扱うI/Fである。例えば、映像信号I/F105は、各種の有線インターフェースにより外部機器と接続する。また、無線通信I/F107は、映像ストリームを送受信し、所定のバンド幅、及び1以上のチャンネルを保持している。例えば、無線通信I/F107は、無線インターフェースにより外部機器と接続する。ストレージI/F106は、映像信号を蓄積又はキャッシュ(一時的に保存)する。例えば、ストレージI/F106は、映像処理装置100に接続されたメモリカードに、撮影された映像信号の記録や撮影に関する設定情報の読み書きを行う。
UIユニット108は、映像処理装置100のUI(ユーザインターフェース)を構成するデバイスである。本実施形態におけるUIユニット108は、表示部及び入力部から成るユニットである。表示部は、液晶ディスプレイやCRTディスプレイ等であり、表示画面を備える。また、入力部は、操作パネル(タッチパネル)であり、タッチ操作やタッチ操作された表示画面上の座標位置を入力するためのセンサ等を備える。ユーザがUIユニット108の表示部における表示画面をタッチ操作することによって、UIユニット108の入力部は、表示部への操作に対応する指示及び情報を取得する。例えば、ユーザが表示部の表示画面に対してピンチアウト操作をすることによって、UIユニット108の入力部は、表示部へのピンチアウト操作に対応する拡大指示を取得するようにしてもよい。このように、本実施形態におけるUIユニット108は、入出力一体型の装置として実現される。
図2は、本実施形態に係る映像処理装置100の機能の構成例を示すブロック図である。図2における各部は、映像処理装置100のCPU101がROM102に記憶されたプログラムを実行することにより実現される。
撮像制御部205は、カメラユニット104の撮像部を制御する処理部であって、撮像部における撮影、再生、露出、ホワイトバランス等に関する機能の制御を行う。
取得部212は、UIユニット108の入力部に入力されたユーザによる操作に基づいて、操作に関する情報を取得する。例えば、取得部212は、操作に関する情報として、ユーザによって指定(タッチ)された表示画面上の位置、タッチされ続けている時間等に関する情報を取得する。検出部208は、取得部212によって取得された操作に関する情報、及び撮像部から取得した位相差に関する情報を取得する。そして、検出部208は、取得した操作に関する情報及び位相差に関する情報に基づいて、ユーザによって指定された表示画面上の位置に対応する被写体に合焦させるためのレンズの駆動方向及び駆動量を検出する。
レンズ制御部207は、検出部208によって検出されたレンズの駆動方向及び駆動量に基づいて、カメラユニット104のレンズ駆動部を制御する。表示情報生成部210は、取得部212によって取得された操作に関する情報、及び、検出部208によって検出されたレンズの駆動方向及び駆動量に基づいて、表示部に表示する情報を生成する。尚、表示情報生成部210によって生成される情報については、後述する。表示制御部206は、UIユニット108における表示部を制御する処理部である。本実施形態における表示制御部206は、カメラユニット104の撮像部によって撮像された映像、及び表示情報生成部210によって生成された情報を、表示部に表示するよう制御する。
次に、像面位相差AF方式の詳細について、図3を用いて説明する。図3(a)は、UIユニット108の表示画面(操作画面)301に被写体302が表示されている様子を示す。そして、図3(a)に示すように、表示画面301上の、被写体302に対応する位置303が、ユーザによってタッチされている。この場合に、本実施形態のカメラユニット104における撮像部の撮像センサが焦点状態を検出する処理について、以下説明する。
図3(b)は、タッチ操作された位置303に対応する撮像センサの拡大図を示す。さらに、撮像センサの1画素は、図3(c)に示すように、一つのマイクロレンズに対応する受光素子が、素子304と素子305の左右に2つ設けられており、撮像する際にはこれらの素子304と素子305とが一つの受光素子として機能する。
表示画面301上の位置303がタッチ操作された場合、本実施形態における撮像センサは、位置303に対応する画素群の範囲(図3(b)に示す範囲)における素子304及び素子305によって取得された情報を抽出する。
図3(d)、(e)、及び(f)は、説明のために、素子304及び素子305においてそれぞれ受光される信号306及び信号307の波形を簡略化して示した図である。例えば、位置303に対応する被写体302に焦点が合っていない場合、図3(d)に示すように、図3(b)の範囲において素子304及び素子305によって検出される信号は、それぞれ異なる位置でピークとなる。即ち、素子304が受光した信号306は位置308においてピークが検出され、素子305が受光した信号307は、位置308からずれた位置309においてピークが検出される。また、被写体302に焦点がより近い状態の場合、図3(e)に示すように、素子304及び素子305によって検出される信号306及び信号307は、それぞれ位置312及び位置313でピークとなる。即ち、図3(d)に示したよりも両者のピークの位置の差が小さくなる。また、被写体302に焦点が合っている状態(合焦状態)の場合、図3(f)に示すように、素子304及び素子305によって検出される信号306及び信号307は、両者とも位置315でピークとなる。即ち、素子304及び素子305によって検出された信号のピークの位置は一致する。
このように、本実施形態における撮像センサは、図3(d)及び図3(e)に示すような、素子304及び素子305によって受光された信号のピークの位置の差(位相差)を検出する。そして、映像処理装置100は、撮像センサによって検出された位相差に基づいて、被写体302に合焦させるためのフォーカスレンズの駆動量を検出することができる。即ち、図3(d)においては、素子304で受光された信号306のピークの位置308と、素子305で受光された信号307のピークの位置309との距離に基づいて、フォーカスレンズの駆動量を検出することができる。また、図3(e)においては、信号306のピークの位置312と、信号307のピークの位置313との距離に基づいて、フォーカスレンズの駆動量を検出することができる。また、素子304及び素子305それぞれで受光した信号のピークの位置が、図3(d)及び図3(e)に示す左右のどちら側にずれて検出されたかを計測することによって、フォーカスレンズの駆動方向を検出することができる。尚、像面位相差AF方式は、既存の技術であるため、説明を割愛する。
次に、本実施形態における映像処理装置100による処理の詳細について、図4及び図5を用いて説明する。図4は、本実施形態に係る映像処理装置100の、撮像されている対象(被写体)に対してフォーカス処理を施す動作の詳細を示すフローチャートである。また、図5(a)、(b)、(c)、(d)、(e)、(f)、(g)、及び(h)は、映像処理装置100が被写体に対してフォーカス処理を施す場合の、映像処理装置100のUIユニット108の表示部における表示画面(操作画面)を示す図である。
まず、図5(a)、(b)、(c)、(d)、(e)、(f)、(g)、及び(h)を用いて、映像処理装置100による処理を説明する。尚、図5(a)、(b)、(c)、(d)、(e)、(f)、(g)、及び(h)において、焦点が合っている(合焦度が閾値より高い)部分の輪郭を実線で示し、焦点が合っていない(合焦度が閾値より低い)部分の輪郭を点線で示す。さらに、焦点が合っていない部分の輪郭のうち、合焦度が閾値より低く所定値より高い部分の輪郭を細かい点線で示し、合焦度が閾値より低い部分の輪郭を粗い点線で示す。
図5(a)は、ユーザが合焦させたい被写体を指定するタッチ操作を行った場合に、UIユニット108の表示画面301に表示される画像を示す図である。図5(a)に示すように、表示画面301には、合焦させたい被写体502が表示される。そして、ユーザによって被写体502を指定する操作(ここでは、表示画面301に対するタッチ操作)が行われた場合、UIユニット108の入力部はユーザによる操作を入力する。そして、CPU101は取得部212の機能を実行することによって、ユーザによってタッチされた表示画面301の位置503を取得する。そして、CPU101は、表示制御部206の機能を実行することによって、表示画面301上の、タッチされた位置503に基づく位置(位置503から所定距離以内の位置)に、カーソル(アイコン)504を表示するよう制御する。このように、表示画面301上の操作された位置にカーソル504を表示することによって、ユーザにとって指定した位置を視認し易くすることができる。
図5(b)は、ユーザによってタッチされた位置503に対応する被写体502に合焦させる場合のカメラユニット104のフォーカスレンズの位置を測定した場合に、表示画面301に表示される画像を示す。即ち、CPU101は、フォーカス処理を施す前のフォーカスレンズの光軸方向における位置(焦点位置)から、位置503に対応する被写体に合焦させる場合のフォーカスレンズの位置(合焦位置)までの距離を測定する。そして、CPU101は、測定した焦点位置から合焦位置までの距離に基づいて、被写体502に合焦するためのフォーカスレンズの駆動方向及び駆動量(駆動ステップ数)を算出する。尚、フォーカスレンズの駆動方向及び駆動量を算出することを、以下、測距と称す。そして、CPU101は、図5(b)に示すように、測距を完了したことを示すメッセージ505を、表示画面301に表示するよう制御する。例えば、メッセージ505は、OSD(On Screen Display)メッセージである。また、CPU101は、図5(b)に示すように、ユーザに対して次の操作を示す操作ガイド506を表示画面301に表示するよう制御する。
図5(c)は、操作ガイド506に基づいて、ユーザがAF(オートフォーカス)に対応する操作を行っている様子を示す。図5(c)における位置507は、ユーザがAFに対応するタップ操作を行った表示画面301上の位置を示す。図5(d)は、図5(c)に示す位置507においてタップ操作が行われた結果、表示画面301に表示される画像を示す。図5(d)に示すように、図5(c)の位置507におけるタップ操作が行われた場合、被写体502に合焦される。
また、図5(e)は、図5(b)に示す画像が表示画面301に表示された後に、ユーザがMF(マニュアルフォーカス)に対応する操作を行っている様子を示す。図5(e)における位置509は、ユーザがMFに対応する長押し操作(ロングプレス操作)を行った位置を示す。尚、長押し操作とは、最初にタッチした位置から所定距離以内において所定時間以上、連続的にタッチし続ける操作のことである。図5(f)は、図5(e)に示す位置509において長押し操作が行われた結果、表示画面301に表示される画像を示す。図5(f)に示すように、MF操作に用いるUIとして、フォーカスレンズの焦点位置と合焦位置との距離に対応する長さのスライドバー510、及びフォーカスレンズの光軸方向の位置を指示(変更)するためのハンドル511が表示画面301に表示される。ここで、スライドバー510は、スライダー形式のUIであって、ハンドル511はスライドさせるスライドオブジェクト(アイコン、マーク)である。尚、長押し操作が行われた後に表示されるハンドル511の表示画面301上の位置は、フォーカスの調整(MF処理)を行う前のフォーカスレンズの位置に対応する。また、合焦マーク512は、図5(a)でユーザがタッチした位置503に対応する被写体502に合焦させる場合のフォーカスレンズの光軸方向の位置(合焦位置)を示す図形(マーク)である。
尚、図5(e)及び図5(f)では、ユーザによって表示画面301上の位置509で長押し操作された場合について示したが、位置509以外の位置で長押し操作された場合についても本実施形態を適応することができる。即ち、本実施形態において映像処理装置100は、表示画面301上で長押し操作された位置に、フォーカスレンズの光軸方向の位置を指示するためのハンドル511を表示させるようにする。このように表示することによって、ユーザは、長押し操作をした位置から、フォーカスレンズの位置を指示するための操作を開始することができる。
図5(g)は、図5(f)に示す画像が表示画面301に表示された後、ユーザがハンドル511を位置514から位置513に移動させる操作を行った場合に、表示画面301に表示される画像を示す。図5(g)に示すように、ハンドル511が位置514にある場合(図5(f))よりも、位置513にある場合の方が、より被写体502に焦点が合っている(被写体502の輪郭の点線が細かくなっている)。図5(h)は、ユーザがハンドル511を、被写体502に合焦する位置である合焦マーク512の位置に移動させる操作を行った場合に、表示画面301に表示される画像を示す。図5(h)に示すように、ハンドル511が合焦マーク512の位置にある場合、被写体502に合焦されている。
次に、図4を用いて、本実施形態における映像処理装置100による処理の詳細を説明する。映像処理装置100は、図5(a)に示すように、ユーザによって、フォーカス処理を施す対象として被写体502を指定するための操作が行われた場合、図4に示す処理を開始する。
ステップS401においてUIユニット108(入力手段)は、撮像される対象(図5(a)の被写体502)に対するフォーカス処理を行うための、表示画面301上の位置303における操作(ここでは、タッチ操作)を検出(入力)する。
ステップS402においてCPU101は、取得部212の機能を実行することによって、ステップS401においてタッチ操作が検出された表示画面301上の位置(図5(a)位置503を示す座標の情報)を取得する。
ステップS403においてCPU101は、検出部208の機能を実行することによって、ステップS402で取得された座標に対応する、カメラユニット104の撮像部(図3(c)に示す2つの受光素子)によって受光された信号の位相差を取得する。
ステップS404においてCPU101は、検出部208の機能を実行する。即ち、CPU101は、ステップS403で取得した位相差及び/又はカメラユニット104のフォーカスレンズの仕様に基づいて、被写体502に合焦するためのフォーカスレンズの駆動方向及び駆動量(駆動ステップ数)を算出(測距)する。尚、本実施形態において、カメラユニット104のフォーカスレンズの仕様に関する情報は、RAM103に記憶されており、CPU101がRAM103からフォーカスレンズの仕様に関する情報を読み出す。しかしながらこれに限定されず、カメラユニット104のフォーカスレンズの仕様に関する情報は、映像処理装置100内のROM102、メモリ(不図示)、又は外部装置(不図示)に記憶されていて、CPU101がこれを読み出すようにしても構わない。また、本実施形態では、撮像センサが像面位相差センサを兼ねる構成として、ステップS403及びステップS404においてCPU101が検出部208の機能を実行することによって、フォーカスレンズの駆動方向及び駆動量を算出したが、これに限定されない。例えば、フォーカスレンズの駆動方向及び駆動量を検出可能な他の種類のセンサを用いて、特定の被写体に合焦さるためのフォーカスレンズの駆動方向及び駆動量を算出しても構わない。
ステップS405においてCPU101は、表示制御部206の機能を実行することによって、図5(b)に示すように、メッセージ505及び操作ガイド506を表示画面301に表示するよう制御する。ここで、メッセージ505は、測距が完了したことを示す通知である。また、操作ガイド506を表示することによって、ユーザは次の操作の候補を視認することができる。
ステップS406においてUIユニット108は、ユーザによる操作を入力し、ステップS407においてCPU101は、取得部212の機能を実行することにより、ステップS406において検出された操作が長押し操作であるか否かを判定する。
ステップS407において、検出されたタッチ操作が長押し操作でなく、図5(c)に示すようなタップ操作(所定時間未満、押下される操作)であったと判定された場合(ステップS407におけるNO)、映像処理装置100はAF(オートフォーカス)処理を実行すべく、ステップS408の処理へ進む。ステップS408においてレンズ制御部207は、ステップS404で算出された合焦のためのフォーカスレンズの駆動方向及び駆動量(駆動ステップ数)に基づいて、カメラユニット104のレンズ駆動部の駆動を制御する。上述の処理を行うことによって、図5(d)に示すように、被写体502に合焦させることができる。
一方、ステップS407にて、検出されたタッチ操作が図5(e)に示すような長押し操作であったと判定された場合(ステップS407におけるYES)、映像処理装置100は、MF(マニュアルフォーカス)処理を実行すべくステップS409の処理へ進む。ステップS409においてCPU101は、検出部208の機能を実行することにより、表示画面301上でのユーザがハンドル511を移動させた距離(ドラッグ操作された距離)に対するフォーカスレンズの駆動量(ステップ値)を計算する。ハンドル511の移動はドラッグ操作に限らず、移動先の位置でタップ操作することによって、ハンドル511を指定された移動先まで移動させるようにする等してもよい。尚、ハンドル511の移動距離に対応するフォーカスレンズの駆動量を算出することを、以下、スケール演算と称す。また、本実施形態における映像処理装置100は、表示部と入力部とを含む入出力一体型の装置であり、表示部の表示画面301における解像度の1ドットと、入力部が入力できる操作の単位とが同一である。即ち、入力部においてハンドル511を1ステップ分移動させる操作を入力した場合、表示部はハンドル511を1ドット分移動させて表示させる。
例えば、表示画面301上に表示された、フォーカスレンズの駆動量を指示するためのスライドバーの長さ(表示画面301の解像度のドット数)が、720ドットであるとする。また、ステップS404で算出された合焦するためのフォーカスレンズの駆動量が120ステップであるとする。この場合、CPU101は、次のようにスケール演算を行う。即ち、720÷120=6であることから、CPU101は、入力部が6ドット分の操作を入力する毎に、フォーカスレンズを1ステップ駆動するよう制御する。例えば、レンズ制御部207は、スライドバー上のハンドルを6ドット操作すると、フォーカスレンズを1ステップ移動させるようにレンズ駆動部を制御する。
尚、スケール演算は、上記の方法に限定されず、操作単位に対して均等の駆動量を割り当てなくても構わない。即ち、ユーザの操作感覚に適した、不均等の駆動量を割り当てても構わない。例えば、スライドバー上の合焦位置の近傍(合焦位置を示すカーソルから所定距離以内)で1ドット分の操作が入力された場合、フォーカスレンズを1ステップ駆動させてもよい。そして、スライドバー上の他の領域で1ドット分の操作が入力された場合、フォーカスレンズを3ステップ駆動させるようにしてもよい。このように、不均等の駆動量を割り当てることによって、合焦位置の近傍では、その他の領域よりも、フォーカスレンズの駆動量を細かく指示することができるUIを提供することができる。また、本実施形態においてCPU101は、スケール演算によって、6ドットの操作が入力された場合にフォーカスレンズを1ステップ移動させるようにレンズ駆動部を制御するが、ハンドル511の移動距離に対するフォーカスレンズの駆動量はこれに限定されない。例えば、CPU101は、フォーカスレンズの仕様や合焦位置までのフォーカスレンズの駆動量に基づいて、スケール演算を行っても構わない。
ステップS410においてCPU101は、表示制御部206の機能を実行することによって、フォーカスレンズの駆動量を指示するためのUI(図5(f)のスライドバー510、ハンドル511)を表示画面301に表示するよう制御する。さらに、ステップS411においてCPU101は、表示制御部206の機能を実行することによって、ユーザによって指定された被写体502に合焦させるためのフォーカスレンズの光軸方向の位置(合焦位置)を示す図形を表示するよう制御する。即ち、CPU101は、ステップS410で表示されたUI(図5(f)のスライドバー510)上の、ステップS404で算出された合焦のためのフォーカスレンズの駆動量に対応する位置に、合焦位置を示す図形(合焦マーク512)を表示するよう制御する。尚、図5(f)に示すように、CPU101は、ハンドル511の位置から合焦マーク512の位置までの範囲の両端に所定の範囲(遊び)を加えた範囲を、フォーカス処理を指示するためのスライドバー510の操作範囲とする。これにより、フォーカス処理を開始した時のレンズの位置(ハンドル511の位置)よりも、合焦位置から遠ざかる位置にレンズの位置を指定し、焦点をぼやかすように制御することができる。
ステップS412においてUIユニット108の入力部は、ユーザによる、フォーカスレンズの駆動量を指示するためのUI(図5(f)のスライドバー510上のハンドル511)に対するドラッグ操作を検出する。そして、CPU101は、取得部212の機能を実行することによって、ユーザによってドラッグ操作された後の、フォーカスレンズの位置を指示するためのハンドル511の表示画面301上の位置を取得する。
ステップS413においてCPU101は、検出部208の機能を実行することによって、ステップ412で取得されたハンドル511の位置と、ステップS409におけるスケール演算の結果とに基づいて、フォーカスレンズの駆動方向及び駆動量を決定する。そして、CPU101は、レンズ制御部207の機能を実行することによって、決定された駆動方向及び駆動量でフォーカスレンズを駆動させるよう制御する。例えば、ステップS412で取得されたハンドル511の位置が、合焦位置を示す合焦マーク512の位置と一致した場合、CPU101は、フォーカスレンズを合焦位置に駆動させることにより、被写体502に合焦させることができる。
ステップS414においてCPU101は、ユーザによる操作が終了したか否かを判定する。例えば、CPU101は、表示画面301に対してタッチしていたユーザの指が表示画面301から離れたことを検出し、表示画面301に表示されたハンドル511の移動を指示する操作が終了した場合に、ユーザによる操作が終了したと判定する。そして、ステップS414においてCPU101がユーザによる操作が終了していないと判定した場合(ステップS414におけるNO)、ステップS412の処理へ戻る。一方、ステップS414においてCPU101がユーザによる操作が終了したと判定した場合(ステップS414におけるYES)、フォーカス処理を終了する。即ち、本実施形態における映像処理装置100は、ユーザがレンズの駆動量を指示するためのUIに対するドラッグ操作の終了を検出するまで、各ステップS412〜S414の処理を繰り返す。
上述した図4の処理を行うことによって、本実施形態の映像処理装置100は、被写体に対するフォーカス処理(焦点の調整)をする場合に、フォーカスレンズの位置を指定するためのUI(スライドバー、及びハンドル)を表示することができる。また、映像処理装置100は、被写体に合焦させる場合のフォーカスレンズの位置(合焦位置)を示す図形(合焦マーク)をUI上に表示することができる。このような表示をすることによって、ユーザは、表示されたUI及び合焦マークを用いて、被写体に対するフォーカスを調整するための操作を直感的に行うことができる。
上述したように、本実施形態における映像処理装置100によれば、特定の被写体に合焦するまでのフォーカスを調整するための操作を、直感的に行うことが可能となる。即ち、本実施形態によれば、ユーザにとって、被写体への合焦までのフォーカスの移動速度変位や、合焦のタイミング等を操作し易い装置を提供することができる。
尚、本実施形態においては、図4のステップS409において、スライドバーUIの合焦の為の操作のストロークを適切な長さとしてスケール演算を行ったが、フォーカスレンズが駆動可能な全範囲をスライドバーのストロークとしても良い。このような構成にすることによって、ユーザは、スライドバー上のハンドルを操作することによって、フォーカスレンズの駆動可能な全範囲を操作することが可能である。また、このような構成にすることによって、ステップS409における処理(スケール演算)を省略することができる。また、フォーカスレンズの駆動可能な全範囲を操作するためのスライドバーと、ステップS409によるスケール演算の結果に基づいて作成したスライドバーとを両方表示しても構わない。このような構成にすることによって、ユーザは、被写体により速く合焦させたい場合と、被写体に滑らかに合焦させたい(焦点の調整をしたい)場合とで、スライドバーを使い分けることができる。
また、本実施形態において映像処理装置100は、ステップS406で検出した2回目のタッチ操作の種類をステップS407で判定することによって、MF処理又はAF処理の開始を識別していたが、これらを明示的なUI操作により判別しても良い。即ち、ステップS405で操作ガイドを表示する際に、AF処理を開始するボタンと、MF処理を開始するためのスライドバーを表示するボタンとを設けても構わない。
また、本実施形態において映像処理装置100は、ステップS409でスケール演算を行った後に、ステップS410でフォーカスレンズの駆動量を指示するためのUI(図5(f)のスライドバー510、ハンドル511)を表示画面301に表示した。しかしながら、これらの処理の順序に限定されず、フォーカスレンズの駆動量を指示するためのUIを表示した後に、スケール演算を行っても構わない。
(実施形態2)
上述の実施形態1では、ユーザによってフォーカス処理を施す対象として一つの被写体が指定された場合の、映像処理装置100によるフォーカス処理について説明した。本実施形態2では、ユーザによって複数の被写体が指定された場合の、映像処理装置100によるフォーカス処理について説明する。
以下、本実施形態2における映像処理装置100による処理の詳細について、図6及び図7を用いて説明する。図6は、本実施形態2に係る映像処理装置100の、被写体に対してフォーカス処理を施す動作の詳細を示すフローチャートである。また、図7(a)及び図7(b)は、映像処理装置100が被写体に対してフォーカス処理を施す場合の、映像処理装置100のUIユニット108の表示部における表示画面を示す図である。
まず、図7(a)及び図7(b)を用いて、映像処理装置100による処理を説明する。図7(a)は、ユーザが合焦させたい複数の被写体を指定するタッチ操作を行った場合に、UIユニット108の表示画面301に表示される画像を示す図である。図7(a)に示すように、表示画面301には、合焦させたい被写体702、被写体403、及び被写体704が表示される。そして、ユーザによって各被写体702〜704を指定するために、表示画面301に対してタッチ操作が行われた場合、CPU101は次の処理を行う。即ち、CPU101は、取得部212の機能を実行することによって、ユーザによってタッチされた表示画面301の位置705、位置706、位置707を取得する。そして、CPU101は、表示制御部206の機能を実行することによって、表示画面301上の取得した各位置705〜707に基づく位置に、カーソル708、カーソル709、及びカーソル710を表示するよう制御する。尚、図7(a)に示すように、各被写体702〜704が、被写体702、被写体703、被写体704の順で、ユーザにより指定された場合について、以下、説明する。また、ボタン711は、被写体が指定された後に、指定を取り消すために用いられるボタンあり、ボタン712は、指定された被写体に対するMF処理を開始するために用いられるボタンである。
図7(b)は、図7(a)に示すように、各被写体702〜704が指定された後に、ボタン712が操作され、MF(マニュアルフォーカス)処理が開始された場合に、表示画面301に表示される画像を示す図である。図7(b)に示すように、MF処理のための操作に用いるUIとして、フォーカスレンズの焦点位置と合焦位置との距離に対応する長さのスライドバー713、及びフォーカスレンズの光軸方向の位置を指示(変更)するためのハンドル714が表示画面301に表示される。また、合焦マーク715、合焦マーク716、及び合焦マーク717は、図7(a)でユーザがタッチした各位置705〜707に対応する各被写体702〜704に合焦させる場合のフォーカスレンズの光軸方向の位置(合焦位置)をそれぞれ示す図形である。また、マーク718、マーク719、及びマーク720は、ユーザによって指定された各被写体702〜704の順番を示す。また、図7(b)に示すボタン712は、図7(a)に示す状態において、ユーザによってボタン712に対する操作が行われた場合に、MF処理を開始したことを示すように表示される。
次に、図6を用いて、本実施形態における映像処理装置100による処理の詳細を説明する。映像処理装置100は、図7(a)に示すように、ユーザによって、フォーカス処理を施す対象(例えば、各被写体702〜704のうちの少なくともいずれか)を指定する操作が行われた場合、図6に示す処理を開始する。
図6の各ステップS601〜604の処理は、実施形態1における図4の各ステップS401〜404と同様の処理であるため、説明を省略する。まず、ステップS601においてUIユニット108は、撮像される対象として、図7(a)の被写体702に対するフォーカス処理を行うための、表示画面301上の位置(図7(a)の位置705)におけるタッチ操作を検出するとして、以下、説明する。この場合、ステップS604においてCPU101は、検出部208の機能を実行することによって、一番目に指示された被写体702に合焦するためのフォーカスレンズの駆動方向及び駆動量を算出(測距)する。
ステップS605においてCPU101は、ステップS604において算出されたフォーカスレンズの駆動量と被写体702とを対応付けてROM102、RAM103又は他のメモリ(不図示)に蓄積するよう制御する。そして、CPU101は、表示制御部206の機能を実行することによって、図7(a)に示すように、被写体702に対応するユニークなカーソル708を、表示画面301上のタッチされた位置705に表示するよう制御する。
ステップS606においてUIユニット108は、ユーザによる次の操作を検出する。そして、ステップS607においてCPU101は、検出部208の機能を実行することによって、ステップS606で検出された操作が、ステップS601で指示された被写体を取り消す操作(ボタン711に対する操作)であるか否かを判定する。ステップS607において、ステップS606で検出された操作が被写体を取り消す操作であると判定された場合(ステップS607におけるYES)、映像処理装置100はフォーカス処理を終了する。一方、ステップ607において、ステップS606で検出された操作が被写体を取り消す操作でないと判定された場合(ステップS607におけるNO)、映像処理装置100はステップS608の処理へ進む。
ステップS608においてCPU101は、検出部208の機能を実行することによって、ステップS606で検出された操作が、ステップS601で指示された被写体に対するMF処理を開始する操作(ボタン712に対する操作)であるか否かを判定する。ステップS608において、ステップS606で検出された操作が被写体に対するMF処理を開始する操作であると判定された場合(ステップS608におけるYES)、映像処理装置100はステップS609の処理へ進む。一方、ステップS608において、ステップS606で検出された操作が被写体に対するMF処理を開始する操作でないと判定された場合(ステップS608におけるNO)、映像処理装置100はステップS602の処理へ戻る。例えば、ステップS606で検出された操作がMF処理を開始する操作でなく、フォーカス処理を施す次の対象(例えば、図7(a)の被写体703)を指定する操作である場合、映像処理装置100は各ステップS602〜605の処理を行う。即ち、CPU101は、ステップS604で算出されたフォーカスレンズの駆動量と被写体703とを対応付けて蓄積し、図7(a)に示すように、被写体703に対応するユニークなカーソル709を、表示画面301上の位置706に表示するよう制御する。尚、映像処理装置100は、フォーカス処理を施す次の対象として、図7(a)の被写体704を指定する操作が入力された場合についても、同様に処理を行う。即ち、CPU101は、ステップS604で算出されたフォーカスレンズの駆動量と被写体704とを対応付けて蓄積し、図7(a)に示すように、被写体704に対応するユニークなカーソル710を、表示画面301上の位置707に表示するよう制御する。
一方、ボタン712が操作された場合、ステップS609においてCPU101は、検出部208の機能を実行することにより、指定された被写体のうち、フォーカスレンズの駆動量が一番大きい被写体のフォーカスレンズの駆動量に基づいてスケール演算を行う。ここでは、CPU101は、指定された各被写体702〜704のうち、フォーカスレンズの駆動量が一番大きい被写体703に対応するフォーカスレンズの駆動量に基づいて、スケール演算を行う。ステップS609におけるスケール演算によって、映像処理装置100は、各被写体702〜704に対するフォーカス処理を施す際に、フォーカスレンズの駆動量を指示するためのUI(図7(b)のスライドバー713)を生成することができる。
ステップS610においてCPU101は、表示制御部206の機能を実行する。即ち、CPU101は、ステップS609のスケール演算の結果に基づいて、フォーカスレンズの駆動量を指示するためのUI(図7(b)のスライドバー713、ハンドル714)を表示画面301に表示するよう制御する。ステップS611においてCPU101は、ステップS605で蓄積された、複数の被写体(各被写体702〜704)のそれぞれに対応するフォーカスレンズの駆動量(駆動ステップ数)を読み込む。
ステップS612においてCPU101は、表示制御部206の機能を実行する。そして、CPU101は、ステップS611で読み込まれた各フォーカスレンズの駆動量(駆動ステップ数)に基づいて、各被写体702〜704に合焦させるためのフォーカスレンズの光軸方向の位置(合焦位置)を示す図形をそれぞれ表示するよう制御する。即ち、CPU101は、ステップS610で表示されたUI(図7(b)のスライドバー713)上の、ステップS404で算出された合焦のためのフォーカスレンズの駆動量に対応する位置に、図形(各合焦マーク715〜717)を表示するよう制御する。尚、図7(b)に示すように、各合焦マーク715〜717は、図7(a)において表示された、各被写体702〜704に対応するユニークな各カーソル708〜709と同じ図形で表示される。以後、各ステップS613〜S615の処理は、実施形態1における図4の各ステップS412〜S414と同様の処理であるため、説明を省略する。
上述した図6の処理を行うことによって、本実施形態の映像処理装置100は、複数の被写体に対するフォーカス処理(焦点の調整)をする場合に、フォーカスレンズの位置を指定するためのUI(スライドバー、及びハンドル)を表示することができる。また、映像処理装置100は、各被写体に合焦させる場合のフォーカスレンズの位置(合焦位置)を示す図形(合焦マーク)をUI上に表示することができる。このような表示をすることによって、ユーザは、表示されたUI及び合焦マークを用いて、各被写体に対するフォーカスを調整するための操作を直感的に行うことができる。また、複数の被写体が指定された場合であっても、ユーザは、各被写体に対応する合焦マークを視認しつつ、焦点を調整したい被写体を間違えずに操作することができる。
上述したように、本実施形態における映像処理装置100によれば、特定の被写体に合焦するまでのフォーカスを調整するための操作を、直感的に行うことが可能となる。即ち、本実施形態によれば、ユーザにとって、被写体への合焦までのフォーカスの移動速度変位や、合焦のタイミング等を操作し易い装置を提供することができる。
また、本実施形態の映像処理装置100は、ユーザによって複数の被写体がフォーカスを調整する対象として指定された場合に、各被写体に合焦させる場合のフォーカスレンズの位置を示す図(合焦マーク)及び指定された順番を示すマークを表示する。このような表示をすることによって、ユーザが、複数の被写体を指定した場合であっても、被写体を指定した順番を間違えずに、複数の被写体に対するフォーカスを調整するための操作をすることができる。
(実施形態3)
上述の実施形態2において映像処理装置100は、図7(b)に示すように、単一のスライドバー713に複数の被写体に対応する各合焦マーク715〜717をそれぞれ配置して、MF処理を行っていた。本実施形態において映像処理装置100は、図9に示すように、ユーザに指定された複数の被写体に対応する各合焦マークを、表示画面301上の被写体の位置に基づく位置に表示させる。
以下、本実施形態3における映像処理装置100による処理の詳細について、図8及び図9を用いて説明する。図8は、本実施形態3に係る映像処理装置100の、被写体に対してフォーカス処理を施す動作の詳細を示すフローチャートである。また、図9は、映像処理装置100が被写体に対してフォーカス処理を施す場合の、映像処理装置100のUIユニット108の表示部における表示画面を示す図である。
まず、図9を用いて、映像処理装置100による処理を説明する。尚、本実施形態において、ユーザが合焦させたい複数の被写体を指定するタッチ操作を行った場合に、UIユニット108の表示画面301に表示される画像は、実施形態2における図7(a)と同様である。
図9は、図7(a)に示すように、各被写体702〜704が指定された後に、ボタン712が操作され、MF(マニュアルフォーカス)処理が開始された場合に、表示画面301に表示される画像を示す図である。ここで、図9に示すように、図7(a)でユーザがタッチした各位置705〜707に対応する各被写体702〜704に合焦させる場合のフォーカスレンズの光軸方向の位置(合焦位置)を示す各合焦マーク917〜919が表示される。また、フォーカスレンズの光軸方向の位置を指示するためのハンドル916と合焦マーク917の間にスライドバー913が表示される。さらに、合焦マーク917と合焦マーク918との間にはスライドバー914が、合焦マーク918と合焦マーク919との間にはスライドバー915がそれぞれ表示される。また、図9に示すボタン712は、図7(a)に示す状態において、ユーザによってボタン712に対する操作が行われた場合に、MF処理を開始したことを示すように表示される。
次に、図8を用いて、本実施形態における映像処理装置100による処理の詳細を説明する。映像処理装置100は、図7(a)に示すように、ユーザによって、フォーカス処理を施す対象(例えば、各被写体702〜704のうちの少なくともいずれか)を指定する操作が行われた場合、図8に示す処理を開始する。
図8の各ステップS801〜804の処理は、実施形態1における図4の各ステップS401〜404及び、実施形態2における図6の各ステップS601〜604と同様の処理であるため、説明を省略する。まず、ステップS801においてUIユニット108は、撮像される対象として、図7(a)の被写体702に対するフォーカス処理を行うための、表示画面301上の位置(図7(a)の位置705)におけるタッチ操作を検出するとして、以下、説明する。この場合、ステップS804においてCPU101は、検出部208の機能を実行することによって、一番目に指示された被写体702に合焦するためのフォーカスレンズの駆動方向及び駆動量を算出(測距)する。ここで、算出される駆動量は、初期(フォーカス処理を開始する前)のフォーカスレンズの光軸方向における位置(焦点位置)から被写体702に合焦させる場合のフォーカスレンズの位置(合焦位置)までに、フォーカスレンズを駆動させる量である。
ステップS805にてCPU101は、ユーザにより指定された被写体702の表示画面301上の位置と、ステップS804で算出されたフォーカス駆動量(駆動ステップ数)とをROM102、RAM103又は他のメモリ(不図示)に蓄積するよう制御する。
ステップS806においてUIユニット108は、ユーザによる次の操作を検出する。そして、ステップS807においてCPU101は、検出部208の機能を実行することによって、ステップS806で検出された操作が、ステップS801で指示された被写体を取り消す操作(ボタン711に対する操作)であるか否かを判定する。ステップS807において、ステップS806で検出された操作が被写体を取り消す操作であると判定された場合(ステップS807におけるYES)、映像処理装置100はフォーカス処理を終了する。一方、ステップ807において、ステップS806で検出された操作が被写体を取り消す操作でないと判定された場合(ステップS807におけるNO)、映像処理装置100はステップS808の処理へ進む。
ステップS808においてCPU101は、検出部208の機能を実行することによって、ステップS806で検出された操作が、ステップS801で指示された被写体に対するMF処理を開始する操作(ボタン712に対する操作)であるか否かを判定する。
ここでは、ステップS808において、ステップS806で検出された操作が、MF処理を施す次の対象(例えば、図7(a)の被写体703)を指定する操作である場合について、以下説明する。この場合、映像処理装置100は、被写体703に対して、各ステップS802〜804の処理を行う。そして、ステップS805においてCPU101は、次の情報を、ROM102、RAM103又は他のメモリ(不図示)に蓄積するよう制御する。即ち、CPU101は、新たに指定された被写体703の表示画面301上の位置と、直前で指定された被写体702に合焦するためのフォーカスレンズの駆動量とステップS804で算出されたフォーカスレンズの駆動量との差分を蓄積するよう制御する。更に、ステップS806でMF処理を施す次の被写体704を指定する操作が検出された場合、映像処理装置100は、上記の被写体703に対する処理と同様に被写体704に対する各ステップS802〜S805の処理を実行する。
そして、各被写体702〜704に対するステップS802〜805の処理の後、ステップS806においてUIユニット108が、ユーザによるMF処理を開始する操作(ボタン712に対する操作)を検出する。この場合、映像処理装置100は、ステップS807及びステップS808の処理を行い、ステップS809の処理へと進む。
ステップS809においてCPU101は、フォーカスレンズの駆動量を指示するためスライドバーにおける起点の位置(ここでは、ハンドル916の位置)を読み込む。ステップS810においてCPU101は、ユーザによって指定された最初の被写体902に対するタッチ操作がされた位置705、及び、最初の被写体702に合焦させるためフォーカスレンズの駆動量(駆動ステップ数)を読み込む。
ステップS811においてCPU101は、検出部208の機能を実行することにより、スケール演算を行う。尚、ステップS811においてCPU101は、ステップS809で読み込まれた起点の位置(ハンドル916の位置)からステップS810で読み込まれた最初の被写体902に対する位置(位置705)までの距離をスライドバー913の長さとして決定する。また、CPU101は、ステップS810で読み込まれたフォーカスレンズの駆動量に基づいて、スライドバー913上におけるハンドル916の移動量に対応する、フォーカスレンズの駆動量のステップ値を決定する。
ステップS812においてCPU101は、各ステップS809〜S811の処理によって得られた情報に基づいてスライドバー913を生成し、図9に示すように、スライドバー913を表示画面301に表示するよう制御する。
ステップS813においてCPU101は、ユーザによって指定された全ての被写体に対するMF処理のためのUIを生成・表示したか否かを判定する。ここでは、被写体703及び被写体704に対するMF処理を指示するためのUIの生成・表示が完了していないため(ステップS813におけるNO)、映像処理装置100はステップS809の処理へと戻る。そして、ステップS809においてCPU101は、次の被写体703に対するMF処理を指示するためのスライドバーの起点の位置(ここでは、直前に指定された被写体702の位置705)を読み込む。ステップS810においてCPU101は、ユーザによって指定された2番目の被写体703に対するタッチ操作がされた位置706を読みこむ。さらに、ステップS810においてCPU101は、ステップS805で蓄積された、被写体703に合焦させるためのフォーカスレンズの駆動量と、被写体702に合焦させるためのフォーカスレンズの駆動量との差分値を読み込む。
ステップS811においてCPU101は、ステップS809で読み込まれた起点の位置(被写体702の位置705)から、ステップS810で読み込まれた被写体703に対する位置(位置706)までの距離をスライドバー914の長さとして決定する。また、CPU101は、ステップS810で読み込まれたフォーカスレンズの駆動量に基づいて、スライドバー914上におけるハンドル916の移動量に対応する、フォーカスレンズの駆動量のステップ値を決定する。ステップS812においてCPU101は、各ステップS809〜S811の処理によって得られた情報に基づいてスライドバー914を生成し、図9に示すように、スライドバー914を表示画面301に表示するよう制御する。
次のステップS813においても、被写体704に対するMF処理を指示するためのUIの生成・表示が完了していないため(ステップS813におけるNO)、映像処理装置100はステップS809の処理へと戻る。ステップS809においてCPU101は、次の被写体704に対するMF処理を指示するためのスライドバーの起点の位置(ここでは、直前に指定された被写体703の位置706)を読み込む。以後、映像処理装置100は、上記の被写体703に対する処理と同様に被写体704に対する各ステップS810〜S812の処理を実行する。このような処理を行うことによって、CPU101は、図9に示すように、スライドバー915を表示画面301に表示するよう制御することができる。
そして、各被写体702〜704に対するステップS809〜812の処理の後、ステップS813にてCPU101は、指定された全ての被写体に対するMF処理のためのUIを生成・表示した(ステップS813におけるYES)と判定する。そして、映像処理装置100は、ステップS814の処理へ進む。
ステップS814においてCPU101は、最初に生成されたスライドバー913上に対応する、ステップS811で演算されたフォーカスレンズの駆動量のステップ値を取得(設定)する。ステップS815においてCPU101は、スライドバー913上におけるハンドル916の移動量を検出する。そして、ステップS816においてCPU101は、ステップS815において検出されたスライドバー913上のハンドル916の移動量に基づいて、フォーカスレンズの駆動量を決定する。そして、CPU101は、決定された駆動量でフォーカスレンズを駆動させるよう制御する。ステップS817においてCPU101は、実施形態1における図4のステップS414と同様に、ユーザによる操作が終了したか否かを判定する。
即ち、CPU101は、表示画面301に対してタッチしていたユーザの指が表示画面301から離れたことを検出し、表示画面301に表示されたハンドル916の移動を指示する操作が終了した場合に、ユーザによる操作が終了したと判定する。そして、ステップS817においてCPU101がユーザによる操作が終了したと判定した場合(ステップS817におけるYES)、フォーカス処理を終了する。一方、ステップS817においてユーザによる操作が終了していない(ステップS817におけるNO)と判定した場合、映像処理装置100はステップS818の処理へ進む。
ステップS818においてCPU101は、移動中のスライドバー(ここではスライドバー913)上において、当該移動中のスライドバーの終点である合焦マーク(ここでは、合焦マーク917)にハンドル916が達したか否かを判定する。ステップS818において、ハンドル916が終点の合焦マークに達していないと判定された場合(ステップS818におけるNO)、映像処理装置100は各ステップS816〜S818の処理を繰り返する。そして、移動中のスライドバー(スライドバー913)上の終点の被写体(被写体702)に対するMF処理を行う。一方、ステップS818において、ハンドル916が終点の合焦マークに達したと判定された場合(ステップS818におけるYES)、映像処理装置100はステップS819の処理へ進む。
ステップS819においてCPU101は、ステップS818で達したと判定された合焦マークに対応する被写体が、ユーザによって指定された最終の被写体であるか否かを判定する。即ち、CPU101は、ユーザによって指定された全ての被写体に対して、各ステップS814〜818の処理が完了されたか否かを判定する。ここでは、被写体903、及び被写体904に対する処理が完了していないため(ステップS819におけるNO)、映像処理装置100はステップS814の処理へ戻る。そして、ステップS814においてCPU101は、次に生成されたスライドバー914上に対応する、ステップS811で演算したフォーカスレンズの駆動量のステップ値を取得(設定)する。以後、スライドバー914上のハンドル916が、スライドバー914の終点である合焦マーク(ここでは、被写体703に対応する合焦マーク918)に達するまで、映像処理装置100は各ステップS815〜S818の処理を繰り返す。
更に、ステップS819においてCPU101は、被写体904に対する処理が完了していないと判定するため、映像処理装置100は、上記の被写体703に対する処理と同様に被写体704に対する各ステップS815〜ステップS818の処理を繰り返す。その後、ステップS819においてCPU101は、ユーザによって指定された全ての被写体に対して、各ステップS814〜818の処理が完了された(ステップS819におけるYES)と判定し、フォーカス処理を終了する。
上述した図8の処理を行うことによって、本実施形態の映像処理装置100は、被写体に対するフォーカス処理(焦点の調整)をする場合に、フォーカスレンズの位置を指定するためのUI(スライドバー、及びハンドル)を表示することができる。また、映像処理装置100は、被写体に合焦させる場合のフォーカスレンズの位置(合焦位置)を示す図形(合焦マーク)を、UI上の、表示画面に表示された被写体の位置に表示することができる。このような表示をすることによって、ユーザは、表示されたUI及び合焦マークを用いて、被写体に対するフォーカスを調整するための操作を直感的に行うことができる。
上述したように、本実施形態における映像処理装置100によれば、特定の被写体に合焦するまでのフォーカスを調整するための操作を、直感的に行うことが可能となる。即ち、本実施形態によれば、ユーザにとって、被写体への合焦までのフォーカスの移動速度変位や、合焦のタイミング等を操作し易い装置を提供することができる。
また、本実施形態の映像処理装置100は、指定された複数の被写体の表示画面上の位置に基づいて、各被写体の表示画面上の位置を始点及び/又は終点とするUI(スライドバー)を、指定した順序で各被写体の間に表示する。このような表示をすることによって、ユーザは、フォーカス処理を施す順番や、各被写体に対応する合焦位置までのフォーカスレンズの位置を視認しながら、焦点を調整するための操作を行うことができる。
(実施形態4)
上述の実施形態3において映像処理装置100は、図9に示すように、ユーザによって指定された複数の被写体の間に、フォーカスレンズの駆動量を指示するためのスライドバーを線分で表示させた。本実施形態4において映像処理装置100は、図11に示すように、指定された複数の被写体の間にスライドバーを表示する場合、複数の被写体の間の距離に基づいて、スライドバーを曲線で表示させる。
以下、本実施形態4における映像処理装置100による処理の詳細について、図10及び図11を用いて説明する。図10は、本実施形態4に係る映像処理装置100の、被写体に対してフォーカス処理を施す動作の詳細を示すフローチャートである。また、図11(a)及び図11(b)は、映像処理装置100が被写体に対してフォーカス処理を施す場合の、映像処理装置100のUIユニット108の表示部における表示画面を示す図である。
まず、図11(a)及び図11(b)を用いて、映像処理装置100による処理を説明する。尚、本実施形態の図11(a)において、実施形態2の図7(a)と同じ部分には、同じ符号を付し、その説明を省略する。本実施形態の図11(a)は、表示画面301上の被写体703に対応する位置が位置1106である点が、実施形態2の図7(a)と異なる。
図11(b)は、図11(a)に示すように、各被写体702〜704が指定された後に、ボタン712が操作され、MF処理が開始された場合に、表示画面301に表示される画像を示す図である。尚、本実施形態の図11(b)において、実施形態3の図9と同じ部分には、同じ符号を付し、その説明を省略する。本実施形態の図11(b)は、表示画面301上の被写体703に対応する位置が位置1106である点が、実施形態3の図9と異なる。また、図11(b)は、位置1106に対応する被写体703に合焦させる場合のフォーカスレンズの光軸方向の位置(合焦位置)を示す合焦マーク1118が表示される点が、図9と異なる。さらに、図11(b)は、合焦マーク917と合焦マーク1118との間にスライドバー1114が表示される点と、合焦マーク1118と合焦マーク919との間にスライドバー1115が表示される点とが、図9とは異なる。尚、図11(b)に示すスライドバー1114は、表示画面301上でタッチされた、被写体702に対する位置705と被写体703に対する1106とを結ぶ線分では無く、曲線(迂回路)である点が、図9のスライドバー914とは異なる。
次に、図10を用いて、本実施形態における映像処理装置100による処理の詳細を説明する。映像処理装置100は、図11(a)に示すように、ユーザによって、フォーカス処理を施す対象(例えば、各被写体702〜704のうちの少なくともいずれか)を指定する操作が行われた場合、図10に示す処理を開始する。尚、図10の各ステップS1001〜S1011の処理は、実施形態3における図8の各ステップS801〜S811の処理と同様の処理であるため、説明を省略する。
ステップS1012においてCPU101は、ステップS1011で演算されたスケール値が、特定の値より大きいか否かを判定する。前述したように、スケール値は、ユーザによりドラッグ操作された移動距離に対するフォーカスレンズの駆動量(ステップ値)を示す値である。即ち、ユーザによりドラッグ操作された移動距離を1とすると、フォーカスレンズの駆動量が大きいほどスケール値が大きくなる。そして、スケール値が大きくなるほど、ユーザによる微少な操作をフォーカスレンズの駆動量に反映しにくくなり、ユーザの操作性も低下する。このことから、本実施形態における映像処理装置100は、スケール値が特定の値より大きいか(ユーザの操作性が低下するか)どうかを判定し、判定結果に応じてフォーカスレンズの駆動量を指示するためのUIを生成・表示するよう制御する。
ステップS1012において、ステップS1011で算出されたスケール値が特定の値より大きくないと判定された場合(ステップS1012におけるNO)、映像処理装置100はステップS1015の処理へ進む。一方、ステップS1012において、ステップS1011で算出されたスケール値が特定の値より大きいと判定された場合(ステップS1012におけるYES)、映像処理装置100はステップS1013の処理へ進む。
図11(a)及び図11(b)に示す例では、起点の位置(ハンドル916の位置)から最初に指定された被写体702の位置(位置705)までの距離に基づいて算出されるフォーカスレンズの駆動量のステップ値は、特定の値より小さい。このことから、ステップS1015の処理へ進む。ステップS1015においてCPU101は、実施形態3の図8におけるステップS812の処理と同様に、図11(b)に示すようにスライドバー913を表示画面301に表示するよう制御する。さらに、ステップS1016においてCPU101は、実施形態3の図8におけるステップS813の処理と同様に、ユーザによって指定された全ての被写体に対するMF処理のためのUIを生成・表示したか否かを判定する。ここでは、被写体703及び被写体704に対するMF処理を指示するためのUIの生成・表示が完了していないため(ステップS1016におけるNO)、映像処理装置100はステップS1009の処理へと戻る。そして、CPU101は、二番目に指定された被写体703に対して、各ステップS1009〜S1011の処理を繰り返す。
尚、ステップS1011においてCPU101は、次のようにスライドバー1411の長さを決定する。即ち、CPU101は、ステップS1009で読み込まれた起点の位置(被写体702の位置705)から、ステップS1010で読み込まれた被写体703に対する位置(位置706)までの距離をスライドバー1114の長さとして決定する。また、CPU101は、ステップS1010で読み込まれたフォーカスレンズの駆動量に基づいて、スライドバー1114上におけるハンドル916の移動量に対応する、フォーカスレンズの駆動量のステップ値を決定する。
さらに、ステップS1012においてCPU101は、ステップS1011で演算されたスケール値が、特定の値より大きいと判定し(ステップS1012におけるYES)、映像処理装置100はステップS1013の処理へ進む。このように、被写体702の位置705から被写体703の位置706までの長さに対するフォーカスレンズの駆動量の差分値の比率が、特定の値より大きい場合、ユーザによるフォーカスレンズの駆動を指示するための操作がしにくくなる。即ち、スライドバー1114を、被写体702の位置705から被写体703の位置までの線分にしてしまうと、線分の長さが短く、ユーザによってスライドバー1114上でハンドル916を移動させる操作(MF操作)がしにくい。このことから、本実施形態において映像処理装置100は、スケール値が特定の値より大きい場合に、スライドバーを曲線で表示するよう制御する。
ステップS1013においてCPU101は、被写体702の位置705から被写体703の位置706までの線分の長さに対して長くなるように、スライドバー1114の長さを決定する。尚、ステップS1013においてCPU101は、ユーザ等によって予め設定された長さ以上になるように、スライドバーの長さを決定しても構わない。
ステップS1014においてCPU101は、ステップS1013で決定された長さと、ステップS1010で読み込まれたフォーカスレンズの駆動量に基づいて、再度、スケール演算を行う。即ち、CPU101は、このスケール演算によって、スライドバー1114上におけるハンドル916の移動量に対応する、フォーカスレンズの駆動量のステップ値を決定する。そして、ステップS1015においてCPU101は、図11(b)に示すように、スライドバー1114を表示画面301に表示するよう制御する。
以後、映像処理装置100は、次に指定された被写体704についても同様の処理を行い、図11(b)に示すように、スライドバー1115を表示画面301に表示するよう制御する。そして、各被写体702〜704に対するステップS1015の処理の後、ステップS1016においてCPU101は、指定された全ての被写体に対するMF処理のためのUIを生成・表示した(ステップS1016におけるYES)と判定する。そして、映像処理装置100は、ステップS1017の処理へ進む。尚、各ステップS1017〜S1022の処理は、実施形態3における図8の各ステップS814〜S819と同様の処理であるため、説明を省略する。
上述した図10の処理を行うことによって、本実施形態の映像処理装置100は、被写体のフォーカス処理(焦点の調整)をする場合に、フォーカスレンズの位置を指定するためのUI(スライドバー、及びハンドル)を表示することができる。また、映像処理装置100は、被写体に合焦させる場合のフォーカスレンズの位置(合焦位置)を示す図形(合焦マーク)を、UI上の、表示画面に表示された被写体の位置に表示することができる。このような表示をすることによって、ユーザは、表示されたUI及び合焦マークを用いて、被写体に対してフォーカスを調整するための操作を直感的に行うことができる。加えて、図10の処理を行うことによって、本実施形態の映像処理装置100は、表示画面上の被写体の位置が近く、各被写体の間に表示させるスライドバーの長さが短くなってしまう場合には、スライドバーを曲線で表示する。このような表示をすることによって、ユーザは、スライドバー上でハンドルを操作し易くなる。
上述したように、本実施形態における映像処理装置100によれば、特定の被写体に合焦するまでのフォーカスを調整するための操作を、直感的に行うことが可能となる。即ち、本実施形態によれば、ユーザにとって、被写体への合焦までのフォーカスの移動速度変位や、合焦のタイミング等を操作し易い装置を提供することができる。
また、本実施形態の映像処理装置100は、指定された複数の被写体の表示画面上の位置に基づいて、各被写体の表示画面上の位置を始点及び/又は終点とするUI(スライドバー)を、指定した順番で各被写体の間に表示する。さらに、映像処理装置100は、スライドバー上でハンドルを操作可能な単位に比べて、フォーカスレンズの駆動量のステップ値が所定値より大きい場合に、スライドバーを線分ではなく曲線(迂回路)で表示する。このような表示をすることによって、ユーザは、スライドバーを線分で表示する場合よりも、快適に焦点を調整するための操作を行うことができる。
(実施形態5)
上述の各実施形態1〜4において映像処理装置100は、ユーザによって、スライドバー上においてハンドルを合焦マークと一致させる操作が行われた場合、合焦マークと対応する被写体に合焦させる処理を行っていた。本実施形態5において映像処理装置100は、スライドバー上にハンドルと被写界深度の幅を示す枠を表示して、フォーカス処理を行う。
以下、本実施形態5における映像処理装置100による処理の詳細について、図12及び図13(a)、(b)、(c)、及び(d)を用いて説明する。図12は、本実施形態3に係る映像処理装置100の、被写体に対してフォーカス処理を施す動作の詳細を示すフローチャートである。また、図13(a)、(b)、(c)、及び(d)は、映像処理装置100が被写体に対してフォーカス処理を施す場合の、映像処理装置100のUIユニット108の表示部における表示画面を示す図である。
まず、図13(a)、(b)、(c)、及び(d)を用いて、映像処理装置100による処理を説明する。図13(a)は、ユーザが合焦させたい複数の被写体を指定するタッチ操作を行った場合に、UIユニット108の表示画面301に表示される画像を示す図である。図7(a)に示すように、表示画面301には、合焦させたい被写体1302、被写体1303、及び被写体1304が表示される。また、各被写体1302〜1304に対応する表示画面301上の位置に、カーソル1305、カーソル1306、及びカーソル1307が表示される。
図13(b)は、図13(a)に示すように、各被写体1302〜1304が指定された後に、ボタン712が操作され、MF処理が開始された場合に、表示画面301に表示される画像を示す図である。図13(b)に示すように、MF操作に用いるUIとして、フォーカスレンズの焦点位置と合焦位置との距離に対応する長さのスライドバー1310、及びフォーカスレンズの光軸方向の位置を指示するためのハンドル1311が表示画面301に表示される。また、各被写体1302〜1304に合焦させる場合のフォーカスレンズの光軸方向の位置(合焦位置)をそれぞれ示す、合焦マーク715、合焦マーク716、及び合焦マーク717が表示される。さらに、ハンドル1311に付加された被写界深度の幅を示す枠1315、及び、フォーカス処理を行う前のフォーカスレンズの絞り値を示す情報1316が表示される。
図13(c)及び図13(d)は、ユーザによってハンドル1311が操作された場合に、表示画面301に表示される画像を示す図である。尚、図13(c)及び図13(d)の詳細については後述する。
次に、図12を用いて、本実施形態における映像処理装置100による処理の詳細を説明する。映像処理装置100は、図13(a)に示すように、ユーザによって、フォーカス処理を施す対象(例えば、各被写体702〜704のうちの少なくともいずれか)を指定する操作が行われた場合、図12に示す処理を開始する。
図12の各ステップS1201〜S1209の処理は、実施形態2における図6の各ステップS601〜S609の処理と同様の処理であるため、説明を省略する。尚、本実施形態において、指定された各被写体1302〜1304のうち、フォーカスレンズの駆動量が一番大きいのは被写体1304である。このことから、ステップS1209においてCPU101は、被写体1304に対するフォーカスレンズの駆動量を用いてスケール演算を行う。
ステップS1210においてCPU101は、被写界深度に関する情報を取得する。ここで、被写界深度とは、合焦している位置に対し、その前後の位置において同時に焦点が合っていると見なすことのできる許容範囲のことである。また、例えば、被写界深度は、カメラユニット104のレンズの絞り値(F値)、焦点距離、撮像距離(被写体と撮像部との距離)、及び撮像部の撮像素子の解像度等の情報に基づいて算出されるが、被写界深度の算出方法に限定されない。
ステップS1211においてCPU101は、ステップS1210で取得した被写界深度に関する情報に基づいて、被写界深度を示す枠の幅(図13(b)の枠1315の横幅)を決定する。即ち、CPU101は、被写界深度が深いほど被写界深度を示す枠の幅を大きくし、被写界深度が浅いほど被写界深度を示す枠の幅を小さくするように決定する。
ステップS1212においてCPU101は、表示制御部206の機能を実行する。即ち、CPU101は、ステップS1209のスケール演算の結果に基づいて、フォーカスレンズの駆動量を指示するためのUI(図13(b)のスライドバー1310、ハンドル1311)を表示画面301に表示するよう制御する。さらに、CPU101は、ステップS1211で決定された被写界深度を示す枠の幅に基づいて、被写界深度を示す枠1315を表示するよう制御する。被写界深度を示す枠1315は、ハンドル1311の移動と同時に移動する。尚、本実施形態において被写界深度を示す枠1315は、ハンドル1311の位置を中心として表示される。CPU101は、ユーザによるハンドル1311への操作の結果、被写界深度を示す枠1315の範囲内に合焦位置を示す合焦マークが含まれる場合に、枠1315に含まれる合焦マークに対応する被写体に合焦させることができる。また、ステップS1212においてCPU101は、ステップS1210で取得した絞り値に基づいて、絞り値を示す情報1316を表示するよう制御する。このように、絞り値を示す情報1316を表示することによって、ユーザが絞り値を視認することができる。
以後、各ステップS1213〜1217の処理は、実施形態2における図6の各ステップ611〜615と同様の処理であるため、説明を省略する。即ち、ステップ1214においてCPU101は、スライドバー1310上に、複数の被写体(各被写体1302〜1304)の合焦位置を示す各合焦マーク1312〜1314を表示するよう制御する。そして、ステップS1216においてCPU101は、ユーザによるハンドル1311及び被写界深度を示す枠1315に対する操作に基づいて、被写界深度を示す枠1315の範囲内の合焦マークに対する被写体に合焦させる。
ここで、図13(c)及び図13(d)を用いて、ユーザによってハンドル1311が操作された場合における、映像処理装置100によるフォーカス処理の例について説明する。例えば、図13(c)に示すように、ユーザによりハンドル1311が操作された結果、被写界深度を示す枠1315の範囲内に合焦マーク1312が含まれる場合について説明する。この場合、映像処理装置100は、合焦マーク1312に対応する被写体1302に合焦しているとみなせる程度にフォーカス処理を行うことができる。このように、ハンドル1311が合焦マーク1312の位置に一致していない状態であっても、枠1315内に合焦マーク1312が入っていれば、被写体1302に合焦することができる。また、他の例として、図13(d)に示すように、ユーザによりハンドル1311が操作された結果、被写界深度を示す枠1315の範囲内に、合焦マーク1312と合焦マーク1313とが含まれる場合について説明する。この場合、映像処理装置100は、合焦マーク1312に対応する被写体1302と、合焦マーク1313に対応する被写体1303との両方に合焦しているとみなせる程度にフォーカス処理を行う。
上述した図12の処理を行うことによって、本実施形態の映像処理装置100は、被写体のフォーカス処理(焦点の調整)をする場合に、フォーカスレンズの位置を指定するためのUI(スライドバー、及びハンドル)を表示することができる。また、映像処理装置100は、被写体に合焦させる場合のフォーカスレンズの位置(合焦位置)を示す図形(合焦マーク)を、UI上に表示することができる。加えて、図12の処理を行うことによって、本実施形態の映像処理装置100は、スライドバー上にハンドルと被写界深度の幅を示す枠を表示することができる。このような表示をすることによって、ユーザは、被写界深度を考慮して、被写体に対するフォーカスを調整するための操作を行うことができる。
上述したように、本実施形態における映像処理装置100によれば、特定の被写体に合焦するまでのフォーカスを調整するための操作を、直感的に行うことが可能となる。即ち、本実施形態によれば、ユーザによって、被写体への合焦までのフォーカスの移動速度変位や、合焦のタイミング等を操作し易い装置を提供することができる。
また、本実施形態の映像処理装置100は、スライドバー上に、ハンドルと被写界深度の幅を示す枠とを表示する。そして、映像処理装置100は、被写界深度の幅を示す枠の中に含まれる、合焦マークに対応する被写体に、合焦させることができる。このような構成によって、ユーザは、被写界深度を考慮して、合焦させたい被写体に合焦させるための操作を、容易に行うことができる。また、ユーザは、合焦させたくない被写体に合焦あせないために、合焦させたくない被写体に対応する合焦マークが被写界深度の幅を示す枠の中に含まれないように、ハンドルを操作する。このように、ユーザは、合焦させたくない被写体に対しても被写界深度を考慮して、合焦させないように操作することが容易にできる。
(実施形態6)
上述の実施形態1〜4において映像処理装置100は、ユーザによって、スライドバー上のハンドルを合焦マークの位置に一致させる操作が行われた場合に、合焦マークに対応する被写体に合焦させる処理を行っていた。本実施形態6においては、スライドバー上のハンドルが合焦マークに一致していなくても、十分近づいた位置に操作された場合に、合焦マークに対応する被写体に合焦させる。
以下、本実施形態5における映像処理装置100による処理の詳細について、図14、図15(a)、及び図15(b)を用いて説明する。図14は、本実施形態6に係る映像処理装置100の、被写体に対してフォーカス処理を施す動作の詳細を示すフローチャートである。また、図15(a)及び図15(b)は、映像処理装置100が被写体に対してフォーカス処理を施す場合の、映像処理装置100のUIユニット108の表示部における表示画面を示す図である。
まず、図15(a)及び図15(b)を用いて、映像処理装置100による処理を説明する。図15(a)は、各被写体1502〜1504が指定された後に、ボタン712が操作され、MF処理が開始された場合に、表示画面301に表示される画像を示す図である。図15(a)に示すように、表示画面301には、合焦させたい被写体1502、被写体1503、及び被写体1504が表示される。また、ユーザによって各被写体702〜704を指定するタッチ操作が行われた場合、ユーザによってタッチされた表示画面301の各位置に、カーソル1505、カーソル1506、及びカーソル1507が表示される。さらに、図15(a)に示すように、MF操作に用いるUIとしてスライドバー1508、及びフォーカスレンズの光軸方向の位置を指示(変更)するためのハンドル1509が表示画面301に表示される。また、スライドバー1508上には、各被写体1502〜1504に合焦させる場合のフォーカスレンズの光軸方向の位置(合焦位置)をそれぞれ示す合焦マーク715、合焦マーク716、及び合焦マーク717が表示される。尚、図15(a)に示すボタン712は、ユーザによって各被写体1502〜1504が指定された後、ボタン712に対する操作が行われた場合に、MF処理を開始したことを示すように表示される。
図15(b)は、ユーザによってハンドル1509が操作された場合に、表示画面301に表示される画像を示す図である。図15(b)に示すように、ハンドル1509は、合焦マーク1510に十分近い位置に配置されているものとする。
次に、図14を用いて、本実施形態における映像処理装置100による処理の詳細を説明する。映像処理装置100は、図15(a)に示すように、ユーザによって、フォーカス処理を施す対象(例えば、各被写体1502〜1504のうちの少なくともいずれか)を指定する操作が行われた場合、図14に示す処理を開始する。尚、図14の各ステップS1401〜S1414の処理は、実施形態2における図6の各ステップS601〜S614の処理と同様の処理であるため、説明を省略する。
ステップS1415にてCPU101は、フォーカスレンズの光軸方向の位置を指示するためのハンドル(図15(b)のハンドル1509)からの所定距離以内に、合焦マーク(各合焦マーク1510〜1512の少なくともいずれか)があるか否かを判定する。そして、ステップS1415において、所定距離以内に合焦マークがあると判定した場合(ステップS1415におけるYES)、ステップS1416の処理へ進む。一方、ステップS1415において、所定距離以内に合焦マークがないと判定した場合(ステップS1415におけるNO)、ステップS1419の処理へ進む。例えば、ユーザによる操作の結果、ハンドル1514が図15(b)に示す位置にある場合、ステップS1415においてCPU101は、次のように処理を行う。即ち、CPU101は、ハンドル1514から所定距離以内(十分近い範囲)に被写体1502に対応する合焦マーク1510があると判定し、ステップS1416の処理へ進む。
ステップS1416においてCPU101は、ステップS1409におけるスケール演算の結果(スケール値)に基づいて、AF処理を行う場合におけるフォーカスレンズの駆動速度を設定する。即ち、CPU101は、スケール値(スライドバーの移動距離に対するフォーカスレンズの駆動量)が大きいほどAF処理におけるフォーカスレンズの駆動速度を速くし、スケール値が小さいほど駆動速度を遅く設定する。
ステップS1417において映像処理装置100は、ステップS1415の判定結果に基づいて、ハンドルから所定距離以内にある合焦マークに対応する被写体に対して、AF処理を実行する。即ち、ステップS1417において映像処理装置100は、図15(b)に示すように、ハンドル1509から所定距離以内にある合焦マーク1510に対応する被写体1502に対して、AF処理を実行する。
ステップS1418においてCPU101は、ハンドル(図15(b)のハンドル1514)を、ステップS1415においてハンドルから所定距離以内にあると判定された合焦マーク(合焦マーク1510)の位置に移動させて表示させる。
ステップS1419においてCPU101は、実施形態1の図4におけるステップS414と同様の処理を行うことにより、ユーザによる操作が終了したか否かを判定する。そして、ステップS1419においてCPU101がユーザによる操作が終了していないと判定した場合(ステップS1419におけるNO)、ステップS1414の処理へ戻る。一方、ステップS1419においてCPU101がユーザによる操作が終了したと判定した場合(ステップS1419におけるYES)、フォーカス処理を終了する。
上述した図14の処理を行うことによって、本実施形態の映像処理装置100は、被写体に対するフォーカス処理(焦点の調整)をする場合に、フォーカスレンズの位置を指定するためのUI(スライドバー、及びハンドル)を表示することができる。また、映像処理装置100は、被写体に合焦させる場合のフォーカスレンズの位置(合焦位置)を示す図形(合焦マーク)を、UI上に表示することができる。加えて、図14の処理を行うことによって、本実施形態の映像処理装置100は、スライドバー上のハンドルが合焦マークに一致していなくても、十分近づいた位置に操作された場合に、合焦マークに対応する被写体に合焦させることができる。
上述したように、本実施形態における映像処理装置100によれば、特別な経験がないユーザでも、特定の被写体に合焦するまでのフォーカスを調整するための操作を、直感的に行うことが可能となる。即ち、本実施形態によれば、ユーザにとって、被写体への合焦までのフォーカスの移動速度変位や、合焦のタイミング等を操作し易い装置を提供することができる。
また、本実施形態の映像処理装置100は、ユーザによって操作されたハンドルの位置と、合焦マークの位置とが所定距離以内である場合に、合焦マークに対応する被写体に合焦させることができる。このような構成によって、ユーザによるMF処理のためのハンドル操作において、ハンドルの位置が合焦マークの位置と所定距離ずれた場合でも、映像処理装置100は、合焦マークに対応する被写体に合焦させることができる。さらに、映像処理装置100は、ユーザがMF処理のための操作を行っている最中に、被写体が移動した場合であっても、AF処理を行うことによって、移動した被写体に合焦させることができる。
(その他の実施形態)
上述の各実施形態1〜6において映像処理装置のハードウェアの各部は、単一の装置に含まれる構成としたが、これに限定されない。即ち、映像処理装置の各部の一部が他の装置に含まれる構成としてもよい。例えば、映像処理装置100のUIユニット108を、他の装置(例えば、タブレット装置)が備えていて、当該他の装置と映像処理装置100とが有線又は無線で接続されている構成でも構わない。また、映像処理装置100のカメラユニット104を他の装置(例えば、撮像装置)が備えていて、当該他の装置と映像処理装置100とが有線又は無線で接続されている構成でも構わない。
また、上述の各実施形態1〜6において映像処理装置100は、MF処理のために用いるUIとして、表示画面上にスライダー形式のUI(スライドバー)を表示したが、他の種類のUIを使用しても構わない。即ち、ユーザにとってフォーカスを調整するための操作を直感的に行うことのできるUIであって、且つ、被写体に合焦させる場合のフォーカスレンズの位置(合焦マーク)を視認することのできるUIであれば構わない。
また、スライドバー及び/又はハンドルを表示せずに、フォーカスの調整を開始した時点でのフォーカスレンズの光軸方向の位置(開始位置)を示す図形と、被写体に合焦させる場合のフォーカスレンズの位置(合焦位置)を示す図形とを表示してもよい。そして、ユーザによってフォーカスレンズの位置を指示する操作が行われた場合、ユーザによってタッチされた位置と、開始位置を示す図形の位置と、合焦位置を示す図形の位置とに基づいて、フォーカスレンズの位置を設定するようにしてもよい。例えば、開始位置を示す図形が座標(1,3)の位置にあり、合焦位置を示す図形が座標(11,3)の位置にあり、ユーザによってタッチされた位置が座標(6,3)である場合、映像処理装置100は次のように処理する。即ち、合焦させる場合のフォーカスレンズの位置までの距離が、フォーカスの調整を開始した時点でのフォーカスレンズの位置から合焦させる場合のフォーカスレンズの位置までの距離の半分になるように、フォーカスレンズの位置を移動させるよう制御する。
また、上述の各実施形態1〜6において映像処理装置100は、複数の被写体に対応する合焦マークをユニークな形状のアイコンとすることによって、ユーザにとって各被写体に対応する合焦位置を識別可能なように表示したが、合焦マークの表示に限定されない。即ち、複数の被写体に対応する合焦マークをそれぞれ識別可能なように表示すればよい。例えば、各被写体に対応する合焦マークを、異なる色、異なる文字記号、及び/又は被写体の呼称等を用いて、被写体毎に対応するように表示しても構わない。
また、上述の各実施形態1〜6において映像処理装置100は、ユーザによって複数の被写体がフォーカスの調整を行う対象として指定された場合に、指定された全ての被写体に対応する合焦マークをスライドバー上に表示したが、これに限定されない。例えば、被写体が指定された順番に基づいて、次に焦点を調整すべき被写体の合焦マークのみを、スライドバー上に表示するようにしても構わない。このような構成によって、ユーザは、多数の被写体を指定した場合であっても、焦点を調整すべき被写体を容易に確認することができる。
また、上述した各実施形態1〜6において、表示画面上301には、被写体が指定された後に指定を取り消すボタン711と、指定された被写体に対するMF処理を開始するためのボタン712とを表示した。しかしながら、これに限定されず、ボタン711及び/又はボタン712は物理的なボタンでも構わない。即ち、物理的なボタンをユーザが押下した場合に、映像処理装置100のUIユニット108における入力部が、押下されたボタンを検知するようにしても構わない。
また、上述の各実施形態1〜6のうち、少なくとも2つの実施形態を組み合わせる構成としてもよい。例えば、実施形態5の図13に示すような、被写界深度の幅を示す枠を、他の実施形態で示した表示に加えて表示しても構わない。
また、上述の各実施形態1〜6において映像処理装置100は、フォーカスの調整を行う方法として、像面位相差AF方式を用いたが、これに限定されず、コントラスト方式を用いても構わない。即ち、合焦状態を検出する種々の方法を用いても構わない。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 映像処理装置
205 撮像制御部
206 表示制御部
207 レンズ制御部
208 検出部
210 表示情報生成部
212 取得部

Claims (13)

  1. 表示画面上に表示された、撮像装置で撮像される被写体のうち、ユーザによって指定された被写体に対するフォーカスを調整する映像処理装置であって、
    前記指定された被写体に対するフォーカスを調整する前の前記撮像装置のフォーカスレンズの位置に基づく第1のマークと、前記指定された被写体に合焦させる場合の前記フォーカスレンズの位置に基づく第2のマークとを、前記表示画面に表示するよう制御する表示制御手段と、
    前記表示画面に表示された前記第1のマークに対応する位置から、前記第2のマークに対応する位置へ、前記第1のマークを移動させるための指示を入力する入力手段と、
    前記入力手段によって入力された指示に基づく前記移動の距離に応じて、前記フォーカスレンズの駆動量を決定する決定手段と、
    を有することを特徴とする映像処理装置。
  2. 前記表示制御手段は、ユーザによって、フォーカスを調整する対象として複数の被写体が指定された場合に、前記複数の被写体に合焦させる場合のフォーカスレンズの位置に基づくマークを、前記表示画面上にそれぞれ表示するよう制御することを特徴とする請求項1に記載の映像処理装置。
  3. 前記表示制御手段は、前記複数の被写体に合焦させる場合のフォーカスレンズの位置に基づくマークを、前記複数の被写体がユーザによって指定された順番に基づいて、前記表示画面に表示するよう制御することを特徴とする請求項2に記載の映像処理装置。
  4. 前記表示制御手段は、前記第1のマークと前記第2のマークとを結ぶスライダー状のユーザインターフェースを前記表示画面に表示するよう制御することを特徴とする請求項1乃至請求項3のいずれか一項に記載の映像処理装置。
  5. 前記表示制御手段は、前記指定された被写体に対するフォーカスを調整する前の前記撮像装置のフォーカスレンズの位置と、前記指定された被写体に合焦させる場合の前記フォーカスレンズの位置とに基づく長さで、前記スライダー状のユーザインターフェースを表示するよう制御することを特徴とする請求項4に記載の映像処理装置。
  6. 前記表示制御手段は、前記決定手段の決定結果に基づいて、前記スライダー状のユーザインターフェースを、線分又は曲線で表示するよう制御することを特徴とする請求項4又は請求項5に記載の映像処理装置。
  7. 前記表示制御手段は、前記決定手段によって決定された前記フォーカスレンズの駆動量が、特定の値よりも大きい場合に、前記スライダー状のユーザインターフェースを曲線で表示するよう制御することを特徴とする請求項4乃至請求項6のいずれか一項に記載の映像処理装置。
  8. 前記表示制御手段は、前記第1のマーク及び前記第2のマークに加えて、被写界深度の幅を示す枠を、前記スライダー状のユーザインターフェース上に表示するよう制御することを特徴とする請求項4乃至請求項7のいずれか一項に記載の映像処理装置。
  9. さらに、前記入力手段によって入力された指示と、前記決定手段によって決定された前記フォーカスレンズの駆動量とに基づいて、前記フォーカスレンズを駆動するよう制御するレンズ制御手段を有し、
    前記レンズ制御手段は、前記入力手段によって、前記被写界深度の幅を示す枠内に前記第1のマークが含まれるように指示された場合に、前記被写界深度の幅を示す枠内に含まれる第2のマークに対応する被写体に合焦させるように、前記フォーカスレンズを駆動するよう制御することを特徴とする請求項1乃至請求項8のいずれか一項に記載の映像処理装置。
  10. 前記レンズ制御手段は、前記入力手段によって、前記表示画面上における前記第2のマークの位置から所定距離以内に、前記第1のマークを移動させる指示が入力された場合に、前記第2のマークに対応する被写体に合焦させるように、前記フォーカスレンズを駆動するよう制御することを特徴とする請求項9に記載の映像処理装置。
  11. 前記第1のマークはスライドオブジェクトであることを特徴とする請求項1乃至請求項10のいずれか一項に記載の映像処理装置。
  12. 表示画面上に表示された、撮像装置で撮像される被写体のうち、ユーザによって指定された被写体に対するフォーカスを調整する映像処理方法であって、
    前記指定された被写体に対するフォーカスを調整する前の前記撮像装置のフォーカスレンズの位置に基づく第1のマークと、前記指定された被写体に合焦させる場合の前記フォーカスレンズの位置に基づく第2のマークとを、前記表示画面に表示するよう制御する表示制御工程と、
    前記表示画面に表示された前記第1のマークに対応する位置から、前記第2のマークに対応する位置へ、前記第1のマークを移動させるための指示を入力する入力工程と、
    前記入力工程によって入力された指示に基づく前記移動の距離に応じて、前記フォーカスレンズの駆動量を決定する決定工程と、
    を有することを特徴とする映像処理方法。
  13. コンピュータを、請求項1乃至請求項1のいずれか一項に記載の映像処理装置の各手段として機能させるためのプログラム。
JP2015173285A 2015-09-02 2015-09-02 映像処理装置、映像処理方法、及びプログラム Active JP6576171B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015173285A JP6576171B2 (ja) 2015-09-02 2015-09-02 映像処理装置、映像処理方法、及びプログラム
US15/251,589 US10205869B2 (en) 2015-09-02 2016-08-30 Video processing apparatus, control method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015173285A JP6576171B2 (ja) 2015-09-02 2015-09-02 映像処理装置、映像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2017050742A true JP2017050742A (ja) 2017-03-09
JP2017050742A5 JP2017050742A5 (ja) 2018-10-04
JP6576171B2 JP6576171B2 (ja) 2019-09-18

Family

ID=58104491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015173285A Active JP6576171B2 (ja) 2015-09-02 2015-09-02 映像処理装置、映像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US10205869B2 (ja)
JP (1) JP6576171B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019168940A (ja) * 2018-03-23 2019-10-03 キヤノン株式会社 電子機器及びその制御方法
JP2019168555A (ja) * 2018-03-22 2019-10-03 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 表示制御装置、撮像装置、スマートフォン、表示制御方法、及びプログラム
JP2019203967A (ja) * 2018-05-22 2019-11-28 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 表示制御装置、撮像装置、表示制御方法、及びプログラム

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9918017B2 (en) 2012-09-04 2018-03-13 Duelight Llc Image sensor apparatus and method for obtaining multiple exposures with zero interframe time
US9531961B2 (en) 2015-05-01 2016-12-27 Duelight Llc Systems and methods for generating a digital image using separate color and intensity data
US10558848B2 (en) 2017-10-05 2020-02-11 Duelight Llc System, method, and computer program for capturing an image with correct skin tone exposure
US9807322B2 (en) 2013-03-15 2017-10-31 Duelight Llc Systems and methods for a digital image sensor
US9819849B1 (en) 2016-07-01 2017-11-14 Duelight Llc Systems and methods for capturing digital images
EP3010224A4 (en) * 2013-08-01 2016-06-15 Huawei Device Co Ltd PHOTOGRAPHIC PROCESS AND DEVICE
US10924688B2 (en) 2014-11-06 2021-02-16 Duelight Llc Image sensor apparatus and method for obtaining low-noise, high-speed captures of a photographic scene
US11463630B2 (en) 2014-11-07 2022-10-04 Duelight Llc Systems and methods for generating a high-dynamic range (HDR) pixel stream
JP6548437B2 (ja) * 2015-04-06 2019-07-24 キヤノン株式会社 焦点調節装置、その制御方法、および制御プログラム、並びに撮像装置
CN109792478B (zh) 2016-09-01 2021-11-12 迪尤莱特公司 基于焦点目标信息调整焦点的装置和方法
JP2018084701A (ja) * 2016-11-24 2018-05-31 オリンパス株式会社 焦点調節装置、カメラシステム及び焦点調節方法
JP7173841B2 (ja) * 2018-11-14 2022-11-16 キヤノン株式会社 画像処理装置およびその制御方法ならびにプログラム
JP7198055B2 (ja) 2018-11-16 2022-12-28 キヤノン株式会社 画像処理装置およびその制御方法ならびにプログラム
EP3919958B1 (en) * 2019-01-31 2024-04-03 Panasonic Intellectual Property Management Co., Ltd. Imaging device
US11985420B2 (en) * 2019-03-27 2024-05-14 Sony Group Corporation Image processing device, image processing method, program, and imaging device
JP7337562B2 (ja) * 2019-06-25 2023-09-04 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラム
JP7315010B2 (ja) 2019-09-05 2023-07-26 ソニーグループ株式会社 撮影プログラム、情報処理装置、および方法
CN111866381B (zh) * 2020-07-08 2022-05-10 Oppo广东移动通信有限公司 一种调焦方法、装置、设备及计算机可读存储介质
WO2022034938A1 (ko) * 2020-08-11 2022-02-17 엘지전자 주식회사 이미지 촬영 장치 및 그 제어 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093422A (ja) * 2008-10-06 2010-04-22 Canon Inc 撮像装置
US20150103223A1 (en) * 2013-10-15 2015-04-16 Samsung Electronics Co., Ltd. Photographing device for displaying a manual focus guide and method thereof

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0843918A (ja) 1994-07-29 1996-02-16 Kyocera Corp カメラのファインダ内表示方式
US7271838B2 (en) * 2002-05-08 2007-09-18 Olympus Corporation Image pickup apparatus with brightness distribution chart display capability
JP5188071B2 (ja) * 2007-02-08 2013-04-24 キヤノン株式会社 焦点調節装置、撮像装置及び、焦点調節方法
US8237807B2 (en) * 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
US8913176B2 (en) * 2008-09-05 2014-12-16 Lg Electronics Inc. Mobile terminal and method of performing multi-focusing and photographing image including plurality of objects using the same
JP2012002951A (ja) * 2010-06-15 2012-01-05 Ricoh Co Ltd 撮像装置、合焦位置検出方法および合焦位置検出プログラム
JP5848561B2 (ja) * 2011-09-20 2016-01-27 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体
KR101901910B1 (ko) * 2011-12-23 2018-09-27 삼성전자주식회사 선택 영역을 변화시키는 결과 영상을 생성 또는 저장하는 장치 및 방법
KR102257620B1 (ko) * 2014-03-20 2021-05-28 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US9313397B2 (en) * 2014-05-30 2016-04-12 Apple Inc. Realtime capture exposure adjust gestures

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093422A (ja) * 2008-10-06 2010-04-22 Canon Inc 撮像装置
US20150103223A1 (en) * 2013-10-15 2015-04-16 Samsung Electronics Co., Ltd. Photographing device for displaying a manual focus guide and method thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019168555A (ja) * 2018-03-22 2019-10-03 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 表示制御装置、撮像装置、スマートフォン、表示制御方法、及びプログラム
JP2019168940A (ja) * 2018-03-23 2019-10-03 キヤノン株式会社 電子機器及びその制御方法
JP7143098B2 (ja) 2018-03-23 2022-09-28 キヤノン株式会社 電子機器及びその制御方法
JP2019203967A (ja) * 2018-05-22 2019-11-28 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 表示制御装置、撮像装置、表示制御方法、及びプログラム

Also Published As

Publication number Publication date
US20170064192A1 (en) 2017-03-02
US10205869B2 (en) 2019-02-12
JP6576171B2 (ja) 2019-09-18

Similar Documents

Publication Publication Date Title
JP6576171B2 (ja) 映像処理装置、映像処理方法、及びプログラム
US10560625B2 (en) Image shooting apparatus for setting image shooting condition easily and method thereof
TWI460491B (zh) 聚焦控制裝置,聚焦控制方法,透鏡系統,聚焦透鏡驅動方法,及程式
KR101739318B1 (ko) 표시 제어장치, 촬상 시스템, 표시 제어방법, 및 기록 매체
JP2017050742A5 (ja)
JP5591006B2 (ja) 自動追尾カメラシステムの制御装置及びそれを有する自動追尾カメラシステム
JP6384541B2 (ja) 電子機器、機器操作方法およびプログラム
JP5936008B2 (ja) 顕微鏡
JP4873729B2 (ja) 光学機器
JPWO2016063736A1 (ja) 操作装置、操作装置を備える情報処理装置、及び情報処理装置のための操作受付方法
JP6774233B2 (ja) 焦点検出装置、制御方法およびプログラム
US8876291B2 (en) Control apparatus, ophthalmologic apparatus, system, control method, and program
US10429632B2 (en) Microscopy system, microscopy method, and computer-readable recording medium
JP2011186547A (ja) 表示制御装置、およびその制御方法、プログラム、記憶媒体
JP2015216543A (ja) 制御装置、撮像システム、制御方法、及び、プログラム
JP6112985B2 (ja) 表示制御装置、方法及びプログラム並びに記憶媒体
JP6980483B2 (ja) 光学機器、およびその制御方法
JP5550431B2 (ja) 表示制御装置及び表示制御方法
JP2016059061A (ja) 撮像装置及びその制御方法
JP2018180144A (ja) 撮像装置
JP7204622B2 (ja) ズーム制御装置およびその制御方法
JP6627116B1 (ja) 制御装置
JP7172512B2 (ja) 表示装置、撮像装置、表示方法、及び、表示プログラム
JP6662441B2 (ja) 画像測定用プログラム、画像測定機、及び画像測定方法
JP5585215B2 (ja) 顕微鏡制御装置、撮像システムおよびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180821

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190820

R151 Written notification of patent or utility model registration

Ref document number: 6576171

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151