JP5967422B2 - Imaging apparatus, imaging processing method, and program - Google Patents

Imaging apparatus, imaging processing method, and program Download PDF

Info

Publication number
JP5967422B2
JP5967422B2 JP2012117399A JP2012117399A JP5967422B2 JP 5967422 B2 JP5967422 B2 JP 5967422B2 JP 2012117399 A JP2012117399 A JP 2012117399A JP 2012117399 A JP2012117399 A JP 2012117399A JP 5967422 B2 JP5967422 B2 JP 5967422B2
Authority
JP
Japan
Prior art keywords
subject
live view
imaging apparatus
imaging
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012117399A
Other languages
Japanese (ja)
Other versions
JP2013246189A (en
Inventor
英明 松田
英明 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012117399A priority Critical patent/JP5967422B2/en
Publication of JP2013246189A publication Critical patent/JP2013246189A/en
Application granted granted Critical
Publication of JP5967422B2 publication Critical patent/JP5967422B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、被写体を撮影する撮像手段を備えた撮像装置及び撮像処理方法並びにプログラムに関する。   The present invention relates to an imaging apparatus, an imaging processing method, and a program that include an imaging unit that captures an image of a subject.

一般に、デジタルスチルカメラやビデオカメラなどの撮像装置にはセルフタイマ撮影機能が備えられており、このセルフタイマ撮影機能による撮影時には撮影者が被写体となるために被写体が撮影範囲内から外れている状態、つまり、フレームアウトしている状態でフレーミングなどを行わなければならず、撮影失敗の大きな原因となることが多かった。そこで、従来では、セルフタイマ撮影時のシャッタ押下後に顔認識機能により撮影者(被写体)がフレームインしたことを認識すると、その被写体(人物)にフォーカスを合わせてから撮影を行うようにした技術が開示されている(特許文献1参照)。   In general, an imaging device such as a digital still camera or a video camera has a self-timer shooting function, and the subject is out of the shooting range because the photographer becomes a subject when shooting with the self-timer shooting function. In other words, framing or the like has to be performed in the state of being out of frame, which is often a major cause of shooting failure. Therefore, conventionally, when the photographer (subject) recognizes that the photographer (subject) has entered the frame by the face recognition function after pressing the shutter during the self-timer photographing, a technique has been adopted in which the subject (person) is focused before photographing. It is disclosed (see Patent Document 1).

特開2008−136035号公報JP 2008-136035 A

このようにセルフタイマ撮影時にフォーカスを再調整する特許文献1の技術にあっては、被写体となる人物に確実にフォーカスを合わせることができるようになる反面、背景などのその他の部分のフォーカスがどのような状態となるのかを確認することはできなかった。このことは、セルフタイマ撮影に限らず、人物などの被写体がフレームアウトしている状態であっても同様であり、被写体とその背景がどのようにフォーカスされるのかを事前に確認することはできなかった。一方、撮影テクニックとして、例えば、後から人物などの被写体を合成するために背景のみを先行して撮影する場合に、その背景に焦点が合っていないような画像(意識的に背景をぼかしたような画像)を撮影したいという要望もある。   As described above, in the technique of Patent Document 1 in which the focus is readjusted at the time of self-timer shooting, it is possible to surely focus on the person who is the subject, but on the other side, such as the background, It was not possible to confirm whether this would be the case. This is not limited to self-timer shooting, and even when a subject such as a person is out of frame, it is possible to confirm in advance how the subject and its background will be focused. There wasn't. On the other hand, as a shooting technique, for example, when shooting only the background in advance to synthesize a subject such as a person, an image that does not focus on the background (such as a consciously blurred background) There is also a desire to take a picture.

本発明の課題は、被写体が撮影範囲内から外れている状態であっても撮影に先立って、撮影者にあってはその被写体にフォーカスが合った画像を事前に確認できるようにすることである。   An object of the present invention is to enable a photographer to confirm in advance an image focused on a subject before photographing even when the subject is out of the photographing range. .

上述した課題を解決するために本発明の撮像装置は、
被写体を撮影する撮像手段を備えた撮像装置であって、
前記撮像手段からの画像がライブビュー画像として表示されているライブビュー画面内に特定の実被写体に対応した仮想被写体を配置して合成表示する配置手段と、
前記特定の実被写体がライブビュー画面内に存在しない状態で、前記配置手段により当該ライブビュー画面内に合成表示されている仮想被写体の表示サイズに基づいて、当該特定の実被写体が当該ライブビュー画面内に存在する場合の被写体距離を算出する算出手段と、
前記算出手段により算出された被写体距離を報知する報知手段と、
を備えたことを特徴とする撮像装置である。
In order to solve the above-described problems, an imaging apparatus of the present invention
An imaging apparatus having an imaging means for photographing a subject,
And positioning means that image by arranging the virtual object corresponding to a particular real object to the live view screen which is displayed as a live view image synthesizing display from said image pickup means,
In a state where the specific real object is not present in the live view screen, based on the display size of the virtual object that is synthesized and displayed on the live view screen by the placement means, the specific real object the live view screen A calculation means for calculating a subject distance when existing in
An informing means for informing the subject distance calculated by the calculating means;
It is an imaging device characterized by comprising.

上述した課題を解決するために本発明の撮像処理方法は、
被写体を撮影する撮像手段からの画像がライブビュー画像として表示されているライブビュー画面内に特定の実被写体に対応した仮想被写体を配置して合成表示する処理と、
前記特定の実被写体がライブビュー画面内に存在しない状態で、前記ライブビュー画面内に合成表示されている仮想被写体の表示サイズに基づいて、当該特定の実被写体が当該ライブビュー画面内に存在する場合の被写体距離を算出する処理と、
前記算出された被写体距離を報知する処理と、
を含むことを特徴とする撮像処理方法である。
In order to solve the above-described problem, the imaging processing method of the present invention provides:
And processing the image from the imaging means for imaging a subject in a live view screen which is displayed as a live view image is synthesized and displayed by arranging the virtual object corresponding to a particular real object,
In a state where the specific real object is not present in the live view screen, based on the display size of the virtual object that is synthesized and displayed on the live view screen, the specific real object is present in the live view screen Processing to calculate the subject distance in the case ,
A process for notifying the calculated subject distance;
It is the imaging processing method characterized by including this.

上述した課題を解決するために本発明のプログラムは、
コンピュータに対して、
被写体を撮影する撮像手段からの画像がライブビュー画像として表示されているライブビュー画面内に特定の実被写体に対応した仮想被写体を配置して合成表示する機能と、
前記特定の実被写体がライブビュー画面内に存在しない状態で、前記ライブビュー画面内に合成表示されている仮想被写体の表示サイズに基づいて、当該特定の実被写体が当該ライブビュー画面内に存在する場合の被写体距離を算出する機能と、
前記算出された被写体距離を報知する機能と、
を実現させるためのプログラムである。
In order to solve the above-described problems, the program of the present invention
Against the computer,
The live view screen in which the images from the imaging means for photographing an object are displayed as a live view image, a function of combining arranges and displays virtual object corresponding to a particular real object,
In a state where the specific real object is not present in the live view screen, based on the display size of the virtual object that is synthesized and displayed on the live view screen, the specific real object is present in the live view screen A function to calculate the subject distance in the case ,
A function of notifying the calculated subject distance;
It is a program for realizing.

本発明によれば、被写体が撮影範囲内から外れている状態であっても撮影に先立って、撮影者にあってはその被写体にフォーカスが合った画像を事前に確認することができ、所望する画像を的確に撮影することが可能となる。   According to the present invention, even when the subject is out of the shooting range, it is possible for the photographer to check in advance the image focused on the subject prior to shooting. It becomes possible to take an image accurately.

撮像装置として適用したデジタルカメラの基本的な構成要素を示したブロック図。The block diagram which showed the basic component of the digital camera applied as an imaging device. (1)〜(4)は、セルフタイマ撮影モードでのシミュレーション表示を説明するための図。(1)-(4) is a figure for demonstrating the simulation display in self-timer imaging | photography mode. (1)〜(4)は、実際の被写体が撮影範囲内から外れている状態であってもその被写体距離の算出式を説明するための図。(1)-(4) is a figure for demonstrating the calculation formula of the to-be-photographed object distance, even if it is the state from which the actual to-be-photographed object is out of the imaging | photography range. セルフタイマ撮影に関する準備処理を示したフローチャート。The flowchart which showed the preparation process regarding self-timer imaging | photography. セルフタイマ撮影モードに切り替えられた際に実行開始されるフローチャート。The flowchart which is started to be executed when the mode is switched to the self-timer photographing mode. 図5の動作に続くフローチャート。6 is a flowchart following the operation of FIG.

以下、図1〜図6を参照して本発明の本実施形態を説明する。
本実施形態は、撮像装置としてデジタルカメラに適用した場合を例示したもので、図1は、このデジタルカメラの基本的な構成要素を示したブロック図である。
撮像装置(デジタルカメラ)は、静止画像のほかに動画像の撮影も可能なコンパクトカメラや一眼レフカメラであり、撮像機能、計時機能などの基本的な機能のほか、シャッタ押下操作よりも遅れて撮影を開始するセルフタイマ機能、被写体(人物)の顔を認識してその被写体にフォーカスを合わせる顔認識オートフォーカス機能などを備えている。制御部1は、電源部(二次電池)2からの電力供給によって動作し、記憶部3内の各種のプログラムに応じてこの撮像装置の全体動作を制御するもので、この制御部1には図示しないCPU(中央演算処理装置)やメモリなどが設けられている。
Hereinafter, this embodiment of the present invention will be described with reference to FIGS.
This embodiment exemplifies a case where the present invention is applied to a digital camera as an image pickup apparatus, and FIG. 1 is a block diagram showing basic components of the digital camera.
An imaging device (digital camera) is a compact camera or single-lens reflex camera that can capture still images as well as moving images. In addition to basic functions such as the imaging function and timekeeping function, it is delayed from the shutter pressing operation. It has a self-timer function that starts shooting, a face recognition autofocus function that recognizes the face of a subject (person) and focuses the subject. The control unit 1 operates by supplying power from the power source unit (secondary battery) 2 and controls the overall operation of the imaging apparatus according to various programs in the storage unit 3. A CPU (Central Processing Unit) and a memory (not shown) are provided.

記憶部3は、例えば、ROM、フラッシュメモリなどを有する構成で、後述する図4〜図6に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているプログラムメモリ3aと、この撮像装置が動作するために必要となる各種の情報(例えば、フラグ、セルフタイマの計測時間など)を一時的に記憶するワークメモリ3bなどを有している。なお、記憶部3は、例えば、SDカード、ICカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、図示しないが、通信機能を介してネットワークに接続されている状態においては所定のサーバ装置側の記憶領域を含むものであってもよい。   The storage unit 3 includes, for example, a ROM, a flash memory, and the like, and stores a program and various applications for realizing the present embodiment in accordance with operation procedures shown in FIGS. A program memory 3a, and a work memory 3b for temporarily storing various information necessary for the operation of the imaging apparatus (for example, a flag, a self-timer measurement time). The storage unit 3 may include a removable portable memory (recording medium) such as an SD card or an IC card, and is connected to a network via a communication function (not shown). The state may include a storage area on a predetermined server device side.

操作部4は、押しボタン式のキーとして、撮影可能な状態とする撮影モード(セルフタイマ撮影モード、連写撮影モードなど)、撮影済み画像を再生する再生モードなどを切り替えるモード変更キー4aを備えているほか、撮影開始を指示するシャッタキー4b、露出やシャッタスピードなどの撮影条件の設定操作などを行うための各種のキー(図示省略)を備え、制御部1は、この操作部4から操作キーに対応して出力される入力操作信号に応じて、例えば、モード変更処理、撮影処理、撮影条件の設定処理などを行う。   The operation unit 4 includes a mode change key 4a for switching a shooting mode (self-timer shooting mode, continuous shooting mode, etc.), a playback mode for playing back a shot image, and the like as a push button type key. In addition, a shutter key 4b for instructing the start of shooting and various keys (not shown) for setting shooting conditions such as exposure and shutter speed are provided. The control unit 1 is operated from the operation unit 4. In accordance with the input operation signal output corresponding to the key, for example, a mode change process, a shooting process, a shooting condition setting process, and the like are performed.

撮像部5は、図示省略したが、光学レンズからの被写体像が撮像素子(CCDやCMOSなど)に結像されることにより被写体を高精細に撮影可能なカメラ部を構成するもので、撮影レンズ(例えば、ズームレンズ)、撮像素子、ストロボ、各種のセンサ、アナログ処理部、デジタル処理部を有している。そして、撮像部5は、静止画像のほかに動画像の撮影も可能なもので、光電変換された画像信号(アナログ値の信号)は、色分離やRGBの色成分毎のゲイン調整などが行われた後、デジタル値のデータに変換される。デジタル変換された画像データは、色補間処理(デモザイク処理)が施されてタッチ表示部6にフルカラー表示される。また、本実施形態においては、オートフォーカス処理(AF処理)、露出調整処理(AE処理)、オートホワイトバランス調整処理(AWB)、画像圧縮処理、画像復元処理なども実行可能となっている。   Although not shown, the imaging unit 5 constitutes a camera unit capable of photographing a subject with high definition by forming a subject image from an optical lens on an imaging element (CCD, CMOS, etc.). (For example, a zoom lens), an image sensor, a strobe, various sensors, an analog processing unit, and a digital processing unit. The imaging unit 5 can capture a moving image in addition to a still image. The photoelectrically converted image signal (analog value signal) is subjected to color separation and gain adjustment for each RGB color component. After being converted, it is converted into digital value data. The digitally converted image data is subjected to color interpolation processing (demosaic processing) and is displayed in full color on the touch display unit 6. In the present embodiment, autofocus processing (AF processing), exposure adjustment processing (AE processing), auto white balance adjustment processing (AWB), image compression processing, image restoration processing, and the like can also be executed.

タッチ表示部6は、表示パネル6aにタッチパネル6bを積層配設した構成で、表示パネル6aは、例えば、縦横比(横4:縦3)の異なる画面を有した高精細液晶ディスプレイあるいは有機EL(Electro Luminescence)ディスプレイで、撮影画像(ライブビュー画像)を表示するモニタ画面(ライブビュー画面)となったり、撮影済み画像を再生する再生画面となったりする。タッチパネル6bは、撮影者の指などでタッチ操作された位置を検知してその座標データを入力するタッチスクリーンを構成するもので、例えば、静電容量方式あるいは抵抗皮膜方式を採用しているが、その他の方式であってもよい。スピーカ7は、シャッタ押下操作時にシャッタ音を発生したり、セルフタイマ撮影時に所定の条件で警報音を発生したりする。   The touch display unit 6 has a configuration in which a touch panel 6b is stacked on a display panel 6a. The display panel 6a is, for example, a high-definition liquid crystal display or an organic EL display having screens having different aspect ratios (width 4: height 3). On the Electro Luminescence) display, it becomes a monitor screen (live view screen) that displays a captured image (live view image) or a playback screen that plays back a captured image. The touch panel 6b constitutes a touch screen that detects a position touched by a photographer's finger and inputs coordinate data, and employs, for example, a capacitance method or a resistance film method. Other methods may be used. The speaker 7 generates a shutter sound when the shutter is pressed, or generates an alarm sound under a predetermined condition during self-timer shooting.

図2(1)〜(4)は、セルフタイマ撮影モードでのシミュレーション表示を説明するための図である。
ここで、シミュレーション表示とは、セルフタイマ撮影モードに切り替えられている状態において、その撮影に先立ってタッチ表示部6上のライブビュー画面で行われるシミュレーション表示であり、制御部1は、実際の被写体(実被写体:撮影者)が撮影範囲内から外れている状態(フレームアウトしている状態)であってもフォーカスをその被写体に合わせた状態のライブビュー画像をシミュレーション表示するようにしている。このようなシミュレーション表示を行うために本実施形態においては、セルフタイマ撮影を行う前のライブビュー画面内に任意サイズの仮想被写体をタッチ表示部6に合成表示させるようにしている。仮想被写体は、例えば、実被写体(撮影者)の全身像であり、実被写体を撮影した撮影画像から人型に切り抜き生成された画像(全身像)あるいは実被写体を模した模型(人型)のイラスト画像(全身像)などのデータである。
また、撮影画角内に占める位置や領域サイズが分かる形状であれば、他の簡易な形状であってもよい。
2 (1) to (4) are diagrams for explaining the simulation display in the self-timer photographing mode.
Here, the simulation display is a simulation display performed on the live view screen on the touch display unit 6 prior to the shooting in a state where the mode is switched to the self-timer shooting mode. Even when (actual subject: photographer) is out of the photographing range (out of frame), a live view image in a state where the focus is set on the subject is displayed by simulation. In order to perform such a simulation display, in this embodiment, a virtual subject of any size is synthesized and displayed on the touch display unit 6 in the live view screen before the self-timer shooting is performed. The virtual subject is, for example, a whole-body image of a real subject (photographer), and is an image (whole-body image) cut out in a human form from a photographed image obtained by photographing the real subject or a model (human type) imitating a real subject. Data such as illustration images (whole body images).
Further, any other simple shape may be used as long as the position and area size occupying within the shooting angle of view are known.

図2(1)〜(4)は、セルフタイマ撮影モードにおいてシミュレーション表示が行われるまでの処理過程を示した図である。図2(1)は、仮想被写体を任意に選択するために記憶部3から読み出した各種の画像がタッチ表示部6にサムネイル画像として一覧表示されるサムネイル画面を示した図である。この一覧画面(サムネイル画面)の中から所望する画像が表示されている位置(領域)が指などでタッチされると、制御部1は、その画像を仮想被写体作成用の画像として選択指定し、この選択画像から人型(全身像)を切り抜きして拡大あるいは縮小処理したりして所望する仮想被写体を作成するようにしている。図2(2)は、セルフタイマ撮影モード時にタッチ表示部6に表示されるライブビュー画面を示した図で、撮影者(実被写体)が撮影範囲内から外れているフレームアウトの状態を示している。   2 (1) to 2 (4) are diagrams showing processing steps until simulation display is performed in the self-timer photographing mode. FIG. 2A is a diagram showing a thumbnail screen in which various images read from the storage unit 3 for arbitrarily selecting a virtual subject are displayed as a list of thumbnail images on the touch display unit 6. When a position (area) where a desired image is displayed is touched with a finger or the like from the list screen (thumbnail screen), the control unit 1 selects and designates the image as a virtual subject creation image, A desired virtual subject is created by cutting out a human figure (whole body image) from the selected image and enlarging or reducing it. FIG. 2B is a diagram showing a live view screen displayed on the touch display unit 6 in the self-timer shooting mode, and shows a frame-out state in which the photographer (real subject) is out of the shooting range. Yes.

図2(3)は、図2(2)に示したライブビュー画面内において、図2(1)で選択した仮想被写体を配置して合成表示させた場合の合成画像表示画面を示した図で、ライブビュー画面内に仮想被写体が合成表示されている状態において、制御部1は、特定の実被写体を撮影する際の被写体距離を算出し、その算出結果(被写体距離)にフォーカス位置を設定すると共に、その算出結果(被写体距離)をライブビュー画面内に数値表示するようにしている。そして、図2(3)は、被写体距離として「6.6m」がガイド表示された状態を示している。   FIG. 2 (3) is a view showing a composite image display screen when the virtual subject selected in FIG. 2 (1) is arranged and compositely displayed in the live view screen shown in FIG. 2 (2). In a state where the virtual subject is composited and displayed on the live view screen, the control unit 1 calculates the subject distance when shooting a specific real subject and sets the focus position to the calculation result (subject distance). At the same time, the calculation result (subject distance) is numerically displayed on the live view screen. FIG. 2C shows a state in which “6.6 m” is displayed as a subject distance as a guide.

図2(4)は、例えば、2本の指によるタッチ操作(例えば、ズームイン操作)により仮想被写体を拡大あるいは縮小させることにより被写体距離を変化させた場合の合成画像表示画面を示した図である。すなわち、合成画像表示画面が表示されている状態において、その画面内の仮想被写体へのタッチ操作によりその表示位置や表示サイズの変更が指示されると、制御部1は、仮想被写体の表示位置や表示サイズを調整する処理を行うようにしている。この場合、制御部1は、仮想被写体の表示サイズの変更に応じて被写体距離を変更し、更に、被写体距離の変化に応じてフォーカス位置を変更すると共に、ライブビュー画面内の数値表示を変更する。なお、図示の例は、仮想被写体の全体(全身)を拡大することにより被写体距離が「6.6m」から「4.0m」に変更された場合である。   FIG. 2 (4) is a diagram showing a composite image display screen when the subject distance is changed by enlarging or reducing the virtual subject by a touch operation (for example, a zoom-in operation) with two fingers, for example. . That is, in the state where the composite image display screen is displayed, when a change in the display position or display size is instructed by a touch operation on the virtual subject in the screen, the control unit 1 displays the display position of the virtual subject. Processing to adjust the display size is performed. In this case, the control unit 1 changes the subject distance in accordance with the change in the display size of the virtual subject, further changes the focus position in accordance with the change in the subject distance, and changes the numerical display in the live view screen. . The illustrated example is a case where the subject distance is changed from “6.6 m” to “4.0 m” by enlarging the entire virtual subject (whole body).

図3(1)〜(4)は、被写体距離をどのように算出するかを説明するための図である。
図3(1)は、ライブビュー表示状態での画角、撮影レンズの焦点距離、撮像素子(例えば、CCD)のフレームサイズを図示したもので、図中、“θl”は画角、“xl”はレンズの焦点距離、“y”は撮像素子のフレームサイズ(高さ)を示している。図3(2)は、ライブビュー画面内に仮想被写体を合成表示(挿入表示)させた場合において、実被写体のサイズ、実被写体を撮影する際の被写体距離、この被写体距離の位置での撮影領域の高さを図示したもので、図中、“vy”は実被写体のサイズ(高さ:身長)、“vx”は実被写体を撮影する際の撮影レンズの主点からの被写体距離、“py”は被写体距離の位置上での撮影領域(撮影範囲)のサイズ(高さ)を示している。なお、実被写体の高さ(身長)vyは、予めユーザ操作によって入力された入力値である。
3 (1) to 3 (4) are diagrams for explaining how to calculate the subject distance.
FIG. 3A illustrates the angle of view in the live view display state, the focal length of the photographing lens, and the frame size of the image sensor (for example, CCD). In the figure, “θl” is the angle of view, and “xl "" Indicates the focal length of the lens, and "y" indicates the frame size (height) of the image sensor. FIG. 3 (2) shows the size of the real subject, the subject distance when photographing the real subject, and the photographing area at the position of the subject distance when the virtual subject is compositely displayed (inserted display) on the live view screen. In the figure, “vy” is the size of the actual subject (height: height), “vx” is the subject distance from the principal point of the photographing lens when photographing the real subject, and “py” "" Indicates the size (height) of the shooting area (shooting range) at the position of the subject distance. Note that the height (height) vy of the actual subject is an input value input in advance by a user operation.

図3(3)は、ライブビュー画面内に仮想被写体を合成表示(挿入表示)させた場合において、そのライブビュー画面内での仮想被写体のサイズとライブビュー画面のサイズを図示したもので、図中、“gvy”はライブビュー画面内での仮想被写体の表示サイズ(高さ)、“gpy”はライブビュー画面のサイズ(高さ)を示している。なお、ライブビュー画面内での仮想被写体の高さgvyは、ライブビュー画像を解析することによって計測された計測値である。図3(4)は、撮影レンズの主点からの被写体距離vxを算出する式を示し、次式にしたがって被写体距離vxを求める。
py=vy×gpy/gvy
tan(θl/2)=y/2xl=py/2vx
したがって、vx=xl×py/y
FIG. 3 (3) shows the size of the virtual subject and the size of the live view screen in the live view screen when the virtual subject is synthesized and displayed (inserted display) in the live view screen. In the figure, “gvy” indicates the display size (height) of the virtual subject in the live view screen, and “gpy” indicates the size (height) of the live view screen. Note that the height gvy of the virtual subject in the live view screen is a measurement value measured by analyzing the live view image. FIG. 3 (4) shows an equation for calculating the subject distance vx from the principal point of the photographing lens, and the subject distance vx is obtained according to the following equation.
py = vy × gpy / gvy
tan (θl / 2) = y / 2xl = py / 2vx
Therefore, vx = xl × py / y

ここで、撮像素子のフレームサイズ(高さ):y=1/2.3型=4.6mm
ライブビュー表示時でのズームレンズの焦点距離(f=5〜35mm):f=15mm
実被写体のサイズ(高さ):vy=170cm=1700mm
ライブビュー画面のサイズ(高さ):gpy=480ピクセル
ライブビュー画面内での仮想被写体の表示サイズ(高さ):gvy=400ピクセル
とすると、
py=1700×480/400=2040
vx=15×2040/4.6=6652.2mm
被写体距離 vx=665.2cm
Here, the frame size (height) of the image sensor: y = 1 / 2.3 type = 4.6 mm
Focal length of zoom lens during live view display (f = 5-35 mm): f = 15 mm
Real subject size (height): vy = 170 cm = 1700 mm
Live view screen size (height): gpy = 480 pixels Display size (height) of virtual subject in live view screen: gvy = 400 pixels
py = 1700 × 480/400 = 2040
vx = 15 × 2040 / 4.6 = 6652.2 mm
Subject distance vx = 665.2 cm

次に、本実施形態における撮像装置の動作概念を図4〜図6に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。すなわち、伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。なお、図4〜図6は、撮像装置の全体動作のうち、本実施形態の特徴部分の動作概要を示したフローチャートであり、この図4〜図6のフローから抜けた際には、全体動作のメインフロー(図示省略)に戻る。   Next, the operation concept of the imaging apparatus in the present embodiment will be described with reference to the flowcharts shown in FIGS. Here, each function described in these flowcharts is stored in the form of a readable program code, and operations according to the program code are sequentially executed. Further, it is possible to sequentially execute the operation according to the above-described program code transmitted via a transmission medium such as a network. In other words, the operation unique to the present embodiment can be executed using the program / data supplied from the outside via the transmission medium. 4 to 6 are flowcharts showing an outline of the operation of the characteristic part of the present embodiment in the entire operation of the imaging apparatus. When the flow of FIGS. Return to the main flow (not shown).

図4は、セルフタイマ撮影に関する準備処理を示したフローチャートで、各種の設定モードの中からセルフタイマ撮影に関する設定モードがユーザ操作により選択された際に実行開始される。
この準備処理は、シミュレーション表示用の仮想被写体を特定するための処理で、先ず、タッチ表示部6に処理メニュー画面を表示させる(ステップA1)。このメニュー画面には、「1」:仮想被写体を任意に作成するのか、「2」:過去にユーザが作成した作成済みの仮想被写体を利用するのか、「3」:予め設定されている設定仮想被写体を利用するのか、を選択するためのメニュー項目を有し、その中から任意の項目が選択されると、その選択項目は、「1」:仮想被写体の作成を指示する項目であるか(ステップA2)、「2」:作成済み仮想被写体の利用を指示する項目であるかを調べる(ステップA3)。
FIG. 4 is a flowchart showing a preparatory process related to self-timer shooting, which is started when a setting mode related to self-timer shooting is selected from various setting modes by a user operation.
This preparation process is a process for specifying a virtual subject for simulation display. First, a process menu screen is displayed on the touch display unit 6 (step A1). In this menu screen, “1”: whether a virtual subject is arbitrarily created, “2”: whether a previously created virtual subject created by the user is used, or “3”: preset virtual A menu item for selecting whether to use the subject, and when an arbitrary item is selected from among the menu items, the selection item is “1”: is an item instructing creation of a virtual subject ( Step A2), “2”: It is checked whether the item is an instruction to use the created virtual subject (Step A3).

いま、「1」:仮想被写体の作成を指示するメニュー項目が選択されたときには(ステップA2でYES)、図2(1)に示すように記憶部3から読み出した各種の画像を選択候補としてサムネイル画面に一覧表示させると共に(ステップA4)、そのサムネイル画面の中から撮影者の所望する画像が選択指定されると(ステップA5)、その選択画像から仮想被写体を作成する処理に移る(ステップA6)。この場合、選択画像から人物の全身像を切り抜きしたり、拡大縮小したりすることにより所望する仮想被写体を作成する。このようにして仮想被写体が作成されると、ユーザ操作により実被写体(撮影者)のサイズデータ(身長データ)を置数入力する処理に移る(ステップA7)。そして、作成した仮想被写体と入力された身長データとを対応付けて記憶部3内にセルフタイマ撮影用の情報として記憶保存させる(ステップA8)。   Now, “1”: When a menu item for instructing the creation of a virtual subject is selected (YES in step A2), thumbnails are selected with various images read from the storage unit 3 as selection candidates as shown in FIG. When a list is displayed on the screen (step A4) and an image desired by the photographer is selected and designated from the thumbnail screen (step A5), the process proceeds to a process of creating a virtual subject from the selected image (step A6). . In this case, a desired virtual subject is created by cutting out or enlarging or reducing a whole body image of a person from the selected image. When the virtual subject is created in this way, the process proceeds to a process of inputting the number data (height data) of the real subject (photographer) by the user operation (step A7). Then, the created virtual subject and the input height data are associated with each other and stored in the storage unit 3 as information for self-timer shooting (step A8).

また、「2」:作成済み仮想被写体の利用を指示するメニュー項目が選択されたときには(ステップA3でYES)、記憶部3から作成済み仮想被写体を読み出すと共に(ステップA9)、それに対応付けられている仮想被写体のサイズデータ(身長データ)を読み出す(ステップA10)。また、それ以外のメニュー項目が選択されたときには(ステップA3でNO)、「3」:設定仮想被写体の利用を指示するメニュー項目が選択されたものとして、予め設定されている画像として、実被写体を模した模型画像あるいは一般人物の人型画像を仮想被写体として読み出すと共に(ステップA11)、実被写体の模型画像あるいは一般人物の人型画像に対応付けて設定されている仮想被写体のサイズデータ(身長データ)を読み出す(ステップA12)。この場合、実被写体の模型画像に対応する身長データは、その実被写体の実際の身長であるが、一般人物の人型画像に対応する身長データは、平均的な身長データである。なお、一般人物の人型画像や身長データは、男女別などに対応して複数用意されており、その中から実被写体(撮影者)に近い人型及び身長データを選択するようにしている。   “2”: When a menu item for instructing the use of the created virtual subject is selected (YES in step A3), the created virtual subject is read from the storage unit 3 (step A9) and associated therewith. The size data (height data) of the virtual subject is read (step A10). When any other menu item is selected (NO in step A3), “3”: the menu item instructing the use of the set virtual subject is selected, and the actual subject is set as a preset image. A model image imitating a person or a human figure image of a general person is read out as a virtual subject (step A11), and size data (height of the virtual subject) set in association with a model image of a real subject or a human figure image of a general person Data) is read (step A12). In this case, the height data corresponding to the model image of the real subject is the actual height of the real subject, but the height data corresponding to the humanoid image of the general person is average height data. Note that a plurality of human-type images and height data of general persons are prepared corresponding to sexes and the like, and the human-type and height data close to the actual subject (photographer) are selected from among them.

図5及び図6は、セルフタイマ撮影モードに切り替えられた際に実行開始されるフローチャートである。
先ず、制御部1は、撮像部5による撮影画像をライブビュー画像としてタッチ表示部6に表示するライブビュー表示動作を開始する(図5のステップB1)。そして、上述の準備処理で特定した仮想被写体及びその仮想被写体のサイズデータ(身長データ)を取得し(ステップB2)、タッチ表示部6のライブビュー画面内に仮想被写体を配置して合成表示(シミュレーション表示)させる(ステップB3)。この場合、仮想被写体は、予め決められている初期位置に初期サイズで表示される。
5 and 6 are flowcharts that are started when the mode is switched to the self-timer shooting mode.
First, the control unit 1 starts a live view display operation for displaying an image captured by the imaging unit 5 as a live view image on the touch display unit 6 (step B1 in FIG. 5). Then, the virtual subject specified in the above-described preparation process and the size data (height data) of the virtual subject are acquired (step B2), and the virtual subject is arranged in the live view screen of the touch display unit 6 and displayed in combination (simulation). Display) (step B3). In this case, the virtual subject is displayed in an initial size at a predetermined initial position.

このようにライブビュー画面(シミュレーション画面)内に仮想被写体を初期表示させた状態において、被写体距離を上述した計算式「py=vy×gpy/gvy、vx=xl×py/y」にしたがって算出する(ステップB4)。ここで、実被写体のサイズ(高さ):vy=1700mm、ライブビュー画面のサイズ(高さ):gpy=480ピクセル、ライブビュー画面内での仮想被写体の表示サイズ(初期サイズ):gvy=400ピクセルとすると、上述したように、py=1700×480/400=2040、vx=15×2040/4.6=6652.2mm、vx=665.2cmとなる。これによって算出した被写体距離vxをシミュレーション画面内に数値表示(案内表示)させると共に(ステップB5)、この被写体距離にフォーカスが合うようにその位置をシミュレーションフォーカス位置として撮像部5に設定する(ステップB6)。   Thus, in a state where the virtual subject is initially displayed in the live view screen (simulation screen), the subject distance is calculated according to the above-described calculation formulas “py = vy × gpy / gvy, vx = xl × py / y”. (Step B4). Here, the size (height) of the real subject: vy = 1700 mm, the size (height) of the live view screen: gpy = 480 pixels, the display size of the virtual subject in the live view screen (initial size): gvy = 400 Assuming the pixel, as described above, py = 1700 × 480/400 = 2040, vx = 15 × 2040 / 4.6 = 6652.2 mm, and vx = 665.2 cm. The calculated subject distance vx is displayed as a numerical value (guidance display) in the simulation screen (step B5), and the position is set as the simulation focus position in the imaging unit 5 so that the subject distance is in focus (step B6). ).

次に、シミュレーション画面に対してタッチ操作が行われたかを調べたり(ステップB7)、シャッタ押下操作が行われたかを調べたり(ステップB10)、その他の操作が行われたかを調べたりする(ステップB11)。いま、いずれの操作も行われなければ(ステップB11でNO)、上述のステップB7に戻って操作待ち状態となるが、その他の操作が行われたときには(ステップB11でYES)、操作に応じた処理として、例えば、露出調整、ズーム調整などの処理(ステップB12)を行った後、上述のステップB7に戻る。なお、その他の操作としてセルフタイマ撮影モードを解除する操作が行われた場合には、図5及び図6のフローから抜ける(図示省略)。   Next, it is checked whether a touch operation has been performed on the simulation screen (step B7), whether a shutter pressing operation has been performed (step B10), or whether other operations have been performed (step B10). B11). If no operation is performed (NO in step B11), the process returns to the above-described step B7 and waits for an operation. If any other operation is performed (YES in step B11), the operation is performed. As processing, for example, processing such as exposure adjustment and zoom adjustment (step B12) is performed, and then the processing returns to step B7 described above. Note that when an operation for canceling the self-timer photographing mode is performed as another operation, the flow of FIGS. 5 and 6 is omitted (not shown).

いま、シミュレーション画面に対してタッチ操作が行われたときには(ステップB7でYES)、そのタッチの種類に応じて仮想被写体の表示位置や表示サイズを調整する処理を行う(ステップB8)。ここで、仮想被写体の表示位置を変更する場合には、仮想被写体の表示領域にタッチしながら所望の位置まで移動するスライド操作(なぞり操作)を行い、また、仮想被写体の表示サイズを変更する場合には、仮想被写体の表示領域に2本の指でタッチしながら各指を開く方向に移動するマルチタッチ操作(ズームイン操作)を行ったり、2本の指を閉じる方向に移動するマルチタッチ操作(ズームアウト操作)を行ったりする。   Now, when a touch operation is performed on the simulation screen (YES in step B7), processing for adjusting the display position and display size of the virtual subject is performed according to the type of touch (step B8). Here, when changing the display position of the virtual subject, a slide operation (tracing operation) to move to a desired position while touching the display area of the virtual subject is performed, and the display size of the virtual subject is changed. Includes a multi-touch operation (zoom-in operation) for moving each finger in the direction of opening each finger while touching the display area of the virtual subject with two fingers, or a multi-touch operation for moving the two fingers in the closing direction ( Zoom out).

このようにして仮想被写体の表示位置や表示サイズが任意に変更されると、制御部1は、変更後の仮想被写体を解析することによりその表示サイズ(高さ)を検出する(ステップB9)。そして、上述のステップB4に戻り、変更後の仮想被写体の表示サイズに基づいて新たな被写体距離を算出し、この算出した被写体距離vxをシミュレーション画面内に案内表示させると共に(ステップB5)、この被写体距離にフォーカスが合うようにその位置をシミュレーションフォーカス位置として撮像部5に設定する(ステップB6)。この場合、仮想被写体の全体(全身)を拡大することにより被写体距離は、その表示サイズの変更量に応じて、例えば、図2(4)に示すように「6.6m」から「4.0m」に変更される。以下、仮想被写体の表示サイズが変更される毎に、上述の動作が繰り返される(ステップB4〜B9)。   When the display position and display size of the virtual subject are arbitrarily changed in this way, the control unit 1 detects the display size (height) by analyzing the changed virtual subject (step B9). Then, returning to the above-mentioned step B4, a new subject distance is calculated based on the changed display size of the virtual subject, and the calculated subject distance vx is guided and displayed in the simulation screen (step B5). The position is set as the simulation focus position in the imaging unit 5 so that the distance is in focus (step B6). In this case, by enlarging the entire virtual subject (whole body), the subject distance can be changed from “6.6 m” to “4.0 m” as shown in FIG. Is changed. Hereinafter, every time the display size of the virtual subject is changed, the above-described operation is repeated (steps B4 to B9).

一方、セルフタイマ撮影モードにおいてシャッタ押下操作が行われたときには(ステップB10でYES)、図6のフローに移り、ライブビュー画面内の仮想被写体を消去すると共に(ステップB13)、セルフタイマの計測動作を開始させる(ステップB14)。そして、顔認識オートフォーカス機能が動作可能なオン状態に設定されているかを調べ(ステップB15)、それがオフ状態に設定されていれば(ステップB15でNO)、ステップB21に移るが、オン状態に設定されていれば(ステップB15でYES)、顔認識オートフォーカス機能を動作させる(ステップB16)。この場合、予め登録されている認識情報(人物の顔画像やその特徴情報)に基づいてライブビュー画面内にフレームインされた実被写体を認識し、この顔認識により認識されたに実被写体に対してオートフォーカスを行う。   On the other hand, when the shutter pressing operation is performed in the self-timer shooting mode (YES in step B10), the flow proceeds to the flow of FIG. 6 and the virtual subject in the live view screen is deleted (step B13), and the self-timer measurement operation is performed. Is started (step B14). Then, it is checked whether the face recognition autofocus function is set to an operable on state (step B15). If it is set to an off state (NO in step B15), the process proceeds to step B21. Is set (YES in step B15), the face recognition autofocus function is operated (step B16). In this case, an actual subject framed in the live view screen is recognized based on recognition information (a person's face image and its characteristic information) registered in advance, and the real subject recognized by this face recognition is recognized. Autofocus.

次に、このオートフォーカス位置と上述のシミュレーション表示時のフォーカス位置とを比較してその差(絶対値)を算出し(ステップB17)、その差が所定値(例えば、30cm)以上離れているかを調べる(ステップB18)。ここで、その差が所定値未満であれば(ステップB18でNO)、上述のシミュレーション表示時のフォーカス位置に設定したままとするが、その差が所定値以上であれば(ステップB18でYES)、上述のシミュレーション表示時のフォーカス位置に代わってオートフォーカス位置を撮像部5に設定する(ステップB19)。そして、フレームインした位置が正しい位置ではないことを報知するためにスピーカ7から警報音を発生させる(ステップB20)。   Next, the autofocus position is compared with the focus position at the time of the simulation display described above to calculate the difference (absolute value) (step B17), and whether the difference is more than a predetermined value (for example, 30 cm). Check (step B18). If the difference is less than the predetermined value (NO in step B18), the focus position at the time of the simulation display is kept set, but if the difference is greater than or equal to the predetermined value (YES in step B18). Then, instead of the focus position at the time of the simulation display described above, an autofocus position is set in the imaging unit 5 (step B19). Then, an alarm sound is generated from the speaker 7 in order to notify that the frame-in position is not the correct position (step B20).

次に、セルフタイマがタイムアウトとなったかを調べ(ステップB21)、タイムアウトの前であれば(ステップB21でNO)、ライブビュー画面内の実被写体画像を解析し(ステップB22)、その実被写体がフォーカス位置に影響を与える所定値以上移動したかを調べる(ステップB23)。いま、実被写体が移動していないとき、移動したとしてもその移動量が所定値未満のときには(ステップB23でNO)、上述のステップB21に戻り、セルフタイマがタイムアウトになるまで待機状態となるが、実被写体が所定値以上移動したときには(ステップB23でYES)、上述のステップB15に戻る。この場合、オートフォーカスがオン状態であれば(ステップB15でYES)、再度、移動後の実被写体をオートフォーカスした後、以下、上述の動作を繰り返す。いま、タイムアウトを検出したときには(ステップB21でYES)、撮像部5は現在設定されているフォーカス位置で撮影処理を行う(ステップB24)。その後、図5及び図6のフローから抜ける。   Next, it is checked whether the self-timer has timed out (step B21). If it is before the time-out (NO in step B21), the real subject image in the live view screen is analyzed (step B22), and the real subject is in focus. It is checked whether or not it has moved beyond a predetermined value that affects the position (step B23). Now, when the actual subject is not moving, even if it is moved, if the amount of movement is less than a predetermined value (NO in step B23), the process returns to the above-mentioned step B21 and enters a standby state until the self-timer times out. When the actual subject has moved by a predetermined value or more (YES in step B23), the process returns to step B15 described above. In this case, if the autofocus is in an on state (YES in step B15), the above-described operation is repeated after autofocusing the moved real subject again. If a timeout is detected (YES in step B21), the imaging unit 5 performs a shooting process at the currently set focus position (step B24). Thereafter, the flow of FIGS. 5 and 6 is exited.

以上のように、本実施形態において制御部1は、ライブビュー画面内に任意サイズの仮想被写体を配置して合成表示させると共に、その仮想被写体の表示サイズに基づいて実被写体を撮影する際の被写体距離を算出してその被写体距離に撮像部5のフォーカス位置を設定するようにしたので、実際の被写体が撮影範囲内から外れている状態であっても撮影に先立って、撮影者にあってはその被写体にフォーカスが合った画像を事前に確認することができ、所望する画像を的確に撮影することが可能となる。その結果、セルフタイマ撮影時などで有効なものとなり、更に、例えば、後から人物などの被写体を合成するために背景のみを先行して撮影する際に、その背景に焦点が合っていない画像(意識的に背景をぼかしたような画像)を撮影する場合にも有効なものとなる。   As described above, in the present embodiment, the control unit 1 arranges and displays a virtual subject of an arbitrary size in the live view screen, and subjects a subject to be photographed based on the display size of the virtual subject. Since the distance is calculated and the focus position of the imaging unit 5 is set to the subject distance, even if the actual subject is out of the shooting range, the photographer must An image focused on the subject can be confirmed in advance, and a desired image can be accurately captured. As a result, it becomes effective at the time of self-timer shooting, and further, for example, when shooting only the background in advance to synthesize a subject such as a person later, an image that is not focused on the background ( This is also effective when shooting an image with a consciously blurred background.

撮影対象となる実被写体の高さを特定した場合に、ライブビュー画面内の仮想被写体の高さと特定した実被写体の高さ及び撮影画角に基づいて実想被写体を撮影する際の被写体距離を算出するようにしたので、実想被写体の位置にフォーカスを合わせるための被写体距離を容易に得ることができる。   When the height of the real subject to be photographed is specified, the subject distance when shooting the actual subject based on the height of the virtual subject in the live view screen, the height of the real subject and the shooting angle of view is determined. Since the calculation is made, the subject distance for focusing on the position of the actual subject can be easily obtained.

撮影対象となる実被写体の高さをユーザ操作により入力するようにしたので、実被写体の高さを正確に特定することができる。   Since the height of the real subject to be photographed is input by a user operation, the height of the real subject can be specified accurately.

予め高さの分かっている複数の実被写体のいずれかをユーザ操作により選択するようにしたので、実被写体の高さを容易に特定することができる。   Since any one of a plurality of real subjects whose heights are known in advance is selected by a user operation, the height of the real subject can be easily specified.

セルフタイマ撮影時に実被写体が撮影範囲内から外れていても仮想被写体の表示位置(略同位置)にフレームインするようにすれば、実被写体に焦点が合ったセルフタイマ撮影が可能となり、撮影失敗を抑えることが可能となる。   Even if the real subject is out of the shooting range during self-timer shooting, if the frame is placed in the display position (substantially the same position) of the virtual subject, self-timer shooting that focuses on the real subject becomes possible, and shooting fails. Can be suppressed.

セルフタイマ撮影のタイマ計測動作中でのオートフォーカス位置とシミュレーション表示時のフォーカス位置とを比較してその差が所定値以上であれば、シミュレーション表示時のフォーカス位置に代わってオートフォーカス位置を撮像部5に設定してセルフタイマ撮影を行うようにしたので、実被写体がフレームインした位置が正しい位置でなくてもその実被写体にフォーカスが合った撮影が可能となる。   If the difference between the autofocus position during the timer measurement operation of self-timer shooting and the focus position during simulation display is greater than or equal to a predetermined value, the autofocus position is substituted for the focus position during simulation display. Since the self-timer shooting is performed with the setting of 5, the shooting can be performed with the real subject in focus even if the position where the real subject is framed in is not the correct position.

セルフタイマ撮影のタイマ計測動作中でのオートフォーカス位置とシミュレーション表示時のフォーカス位置とを比較してその差が所定値以上であれば、警告を出力するようにしたので、実被写体がフレームインした場合に正しい位置でないことを知らせることができる。   Compared the auto focus position during the timer measurement operation of self-timer shooting and the focus position during simulation display, and if the difference is greater than or equal to a predetermined value, a warning is output, so the real subject has entered the frame You can be informed that the position is not correct.

オートフォーカス時には、予め登録されている認識情報に基づいてライブビュー画面内の実被写体を認識してオートフォーカスするようにしたので、撮影対象である実被写体へのフォーカスがより確実なものとなる。   At the time of autofocus, since the real subject in the live view screen is recognized and autofocused based on the recognition information registered in advance, the focus on the real subject that is the shooting target is more reliable.

撮影対象となる実被写体を撮影した画像から切り抜き生成された画像を仮想被写体としてライブビュー画面内に合成表示するようにしたので、例えば、直近に撮影された画像から仮想被写体を生成することができ、より現実味の高いシミュレーションが可能となる。   Since an image cut out from an image obtained by photographing an actual subject to be photographed is combined and displayed as a virtual subject in the live view screen, for example, a virtual subject can be generated from an image taken most recently. A more realistic simulation is possible.

撮影対象となる実被写体を模した模型の画像データを仮想被写体としてライブビュー画面内に合成表示するようにしたので、仮想被写体を作成する作業が不要となる。   Since the model image data imitating the real subject to be imaged is displayed as a virtual subject in the live view screen, the work of creating the virtual subject is not necessary.

仮想被写体は、人物の全身像であるので、仮想被写体の表示サイズに基づいて焦点距離を算出する際に、その表示サイズを身長とすることができる。   Since the virtual subject is a full-body image of a person, when calculating the focal length based on the display size of the virtual subject, the display size can be used as the height.

算出した被写体距離を、ライブビュー画面内に仮想被写体と併せて表示するようにしたので、実被写体がフレームインする際に、表示されている被写体距離を目安として、どの辺りに入ればよいかを確認することができる。   The calculated subject distance is displayed together with the virtual subject in the live view screen, so when the real subject enters the frame, the distance to the target subject can be determined using the displayed subject distance as a guide. Can be confirmed.

なお、上述した実施形態においては、実被写体を撮影する際の距離を演算によって算出しているが、被写体までの距離と実被写体のサイズ(身長データ)を対応付けたテーブルを記憶し、そのテーブルを基に実被写体を算出する際の距離を算出してもよい。   In the above-described embodiment, the distance when photographing a real subject is calculated, but a table in which the distance to the subject and the size (height data) of the real subject are associated is stored. The distance for calculating the actual subject may be calculated based on the above.

また、上述した実施形態においては、実被写体のサイズ(身長データ)を入力するようにしたが、例えば、予め設定されている日本人の男女別の平均的なサイズ(身長)を利用するようにしてもよい。
また、実被写体のサイズ(身長データ)が入力された複数の仮想被写体を登録可能とし、選択できるようにしてもよい。
In the above-described embodiment, the size (height data) of the actual subject is input, but for example, a preset average size (height) for Japanese men and women is used. May be.
Further, a plurality of virtual subjects to which the size (height data) of the actual subject is input may be registered and may be selected.

上述した実施形態においては、仮想被写体として人物の全身像としたが、胸から上の画像あるいは顔画像であってもよい。この場合、仮想被写体の表示サイズとして胸から上の画像あるいは顔画像の高さとすればよい。また、実被写体の高さとして胸から上あるいは顔の高さ(長さ)とすればよい。更に、仮想被写体としては、実際の被写体(実被写体)と同一の人物の撮影画像、一般的な人型の画像のほか、人物に限らず、ペットやキャラクタなどの画像であってもよく、ユーザが所望する任意の画像を仮想被写体としてもよい。   In the embodiment described above, the whole body image of the person is used as the virtual subject, but it may be an image above the chest or a face image. In this case, the display size of the virtual subject may be the height above the chest or the height of the face image. In addition, the height of the actual subject may be the height above the chest or the height (length) of the face. Furthermore, the virtual subject may be a photographed image of the same person as the actual subject (real subject), a general human-type image, or an image of a pet or character, not limited to a person. Any desired image may be used as a virtual subject.

また、上述した実施形態においては、セルフタイマ撮影のタイマ計測動作中でのオートフォーカス位置とシミュレーション表示時のフォーカス位置とを比較してその差が所定値以上であれば、警告音を出力するようにしたが、ランプの点灯や点滅表示によって警告するようにしてもよい。また、上述した実施形態においては、その差が所定値以上である場合でも撮影を行うようにしたが、警告のみ出力するようにしてもよい。   In the embodiment described above, the autofocus position during the timer measurement operation of the self-timer shooting is compared with the focus position during simulation display, and if the difference is greater than or equal to a predetermined value, a warning sound is output. However, the warning may be made by lighting or blinking the lamp. In the above-described embodiment, the photographing is performed even when the difference is a predetermined value or more. However, only the warning may be output.

また、上述した実施形態においては、セルフタイマ撮影に適用した場合を示したが、人物がフレームインするまでの間を利用してシミュレーション表示により撮影状況を確認する場合でも同様に適用可能である。   In the above-described embodiment, the case where the present invention is applied to the self-timer shooting is shown. However, the present invention can be similarly applied to the case where the shooting state is confirmed by simulation display using the time until the person enters the frame.

また、上述した実施形態においては、仮想被写体を先に配置してから実被写体を撮影する際の被写体距離を算出するようにしたが、実被写体を撮影する際の被写体距離を先に決めて対応するサイズで仮想被写体を表示させるようにしてもよい。この場合、撮像部5からの画像がライブビュー画像として表示されているライブビュー画面内に特定の実被写体に対応した仮想被写体を表示させる場合に、特定の実被写体を撮影する際の被写体距離に基づいてその実被写体に対応した仮想被写体の表示サイズを算出し、この算出した表示サイズの仮想被写体をライブビュー画面内に配置して合成表示するようにすればよい。このように、実被写体を撮影する際の被写体距離を先に決めからその仮想被写体のサイズを算出して仮想被写体を合成表示するようにしても上述した実施形態と同様の効果を有し、撮影者にあってはその被写体にフォーカスが合った画像を事前に確認することができ、所望する画像を的確に撮影することが可能となる。   Further, in the above-described embodiment, the subject distance when the real subject is photographed after the virtual subject is arranged first is calculated. The virtual subject may be displayed at a size to be used. In this case, when a virtual subject corresponding to a specific real subject is displayed in the live view screen in which the image from the imaging unit 5 is displayed as a live view image, the subject distance when shooting the specific real subject is set. Based on this, the display size of the virtual subject corresponding to the real subject may be calculated, and the virtual subject having the calculated display size may be arranged on the live view screen for composite display. As described above, the same effect as that of the above-described embodiment can be obtained even if the subject distance when photographing the real subject is determined first, the size of the virtual subject is calculated, and the virtual subject is synthesized and displayed. A person can check in advance an image focused on the subject, and can accurately capture a desired image.

また、上述した実施形態においては、デジタルコンパクトカメラに適用した場合を示したが、デジタル一眼レフカメラであってもよく、また、カメラ機能付きパーソナルコンピュータ・PDA(個人向け携帯型情報通信機器)・音楽プレイヤー・電子ゲームなどであってもよい。   In the above-described embodiment, the present invention is applied to a digital compact camera. However, a digital single-lens reflex camera may be used, and a personal computer with a camera function, a PDA (personal portable information communication device), It may be a music player or an electronic game.

また、上述した実施形態において示した“装置”や“部”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。   Further, the “apparatus” and “unit” shown in the above-described embodiments may be separated into a plurality of cases by function, and are not limited to a single case. In addition, each step described in the above-described flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or separately.

以上、この発明の実施形態について説明したが、この発明は、これに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下、本願出願の特許請求の範囲に記載された発明を付記する。
(付記)
(請求項1)
請求項1に記載の発明は、
被写体を撮影する撮像手段を備えた撮像装置であって、
前記撮像手段からの画像がライブビュー画像として表示されているライブビュー画面内に特定の実被写体に対応した任意サイズの仮想被写体を配置して合成表示する配置手段と、
前記配置手段によりライブビュー画面内に合成表示されている仮想被写体の表示サイズに基づいて前記特定の実被写体を撮影する際の被写体距離を算出する算出手段と、
前記算出手段により算出された被写体距離に前記撮像手段のフォーカス位置を設定するフォーカス設定手段と、
を備えたことを特徴とする撮像装置である。
(請求項2)
請求項2に記載の発明は、請求項1に記載の撮像装置において、
撮影対象となる実被写体の高さを特定する特定手段を更に備え、
前記算出手段は、前記ライブビュー画面内の仮想被写体の高さと前記特定手段により特定された実被写体の高さ及び撮影画角に基づいて前記実想被写体を撮影する際の被写体距離を算出する、
ようにしたことを特徴とする撮像装置。
(請求項3)
請求項3に記載の発明は、請求項2に記載の撮像装置において、
前記特定手段は、撮影対象となる実被写体の高さをユーザ操作により入力する、
ようにしたことを特徴とする撮像装置である。
(請求項4)
請求項4に記載の発明は、請求項2に記載の撮像装置において、
前記特定手段は、予め高さの分かっている複数の実被写体のいずれかをユーザ操作により選択する、
ようにしたことを特徴とする撮像装置である。
(請求項5)
請求項5に記載の発明は、請求項1〜請求項4のいずれかに記載の撮像装置において、
前記フォーカス設定手段により設定されているフォーカス位置で前記撮像手段によるセルフタイマ撮影を実行するセルフタイマ撮影手段を更に備える、
ようにしたことを特徴とする撮像装置である。
(請求項6)
請求項6に記載の発明は、請求項5に記載の撮像装置において、
オートフォーカス手段と、
前記セルフタイマ撮影手段によるセルフタイマ撮影の実行時に前記オートフォーカス手段によりオートフォーカスされたフォーカス位置と前記フォーカス設定手段により設定されたフォーカス位置との差が所定値以上であるか否かを判別する判別手段と、
を更に備え、
前記セルフタイマ撮影手段は、前記判別手段により前記差が所定値以上であると判別された場合に、前記オートフォーカス手段によるフォーカス位置で前記セルフタイマ撮影を実行する、
ようにしたことを特徴とする撮像装置である。
(請求項7)
請求項7に記載の発明は、請求項5に記載の撮像装置において、
オートフォーカス手段と、
前記セルフタイマ撮影手段によるセルフタイマ撮影の実行時に前記オートフォーカス手段によりオートフォーカスされたフォーカス位置と前記フォーカス設定手段により設定されたフォーカス位置との差が所定値以上であるか否かを判別する判別手段と、
前記判別手段により前記差が所定値以上であると判別された場合に、警告を出力する警告手段と、
を更に備える、
ようにしたことを特徴とする撮像装置である。
(請求項8)
請求項8に記載の発明は、請求項6あるいは請求項7に記載の撮像装置において、
予め登録されている認識情報に基づいて前記ライブビュー画面内に撮影対象として表示されている実被写体を認識する認識手段を更に備え、
前記オートフォーカス手段は、前記認識手段により認識されたに実被写体に対してオートフォーカスを行う、
ようにしたことを特徴とする撮像装置である。
(請求項9)
請求項9に記載の発明は、請求項1〜請求項8のいずれかに記載の撮像装置において、
撮影対象となる実被写体を撮影した画像から切り抜き生成された生成画像データを前記仮想被写体として取得する取得手段を更に備え、
前記配置手段は、前記取得手段により取得された生成画像データを前記ライブビュー画面内に仮想被写体として合成表示させる、
ようにしたことを特徴とする撮像装置である。
(請求項10)
請求項10に記載の発明は、請求項1〜請求項8のいずれかに記載の撮像装置において、
撮影対象となる実被写体を模した模型画像データを前記仮想被写体として取得する取得手段を更に備え、
前記配置手段は、前記取得手段により取得された模型画像データを前記ライブビュー画面内に仮想被写体として合成表示させる、
ようにしたことを特徴とする撮像装置である。
(請求項11)
請求項11に記載の発明は、請求項9あるいは請求項10に記載の撮像装置において、
前記仮想被写体は、人物の全身像、胸から上の画像、顔画像のいずれかである、
ことを特徴とする撮像装置である。
(請求項12)
請求項12に記載の発明は、請求項1〜請求項11のいずれかに記載の撮像装置において、
前記算出手段により算出された被写体距離を、前記ライブビュー画面内に前記仮想被写体と併せて表示する表示制御手段を更に備える、
ようにしたことを特徴とする撮像装置。
(請求項13)
請求項13に記載の発明は、
被写体を撮影する撮像手段を備えた撮像装置であって、
前記撮像手段からの画像がライブビュー画像として表示されているライブビュー画面内に特定の実被写体に対応した仮想被写体を表示させる場合に、前記特定の実被写体を撮影する際の被写体距離に基づいてその実被写体に対応した仮想被写体の表示サイズを算出する算出手段と、
前記算出手段により算出された表示サイズの仮想被写体を前記ライブビュー画面内に配置して合成表示する配置手段と、
を備えたことを特徴とする撮像装置である。
(請求項14)
請求項14に記載の発明は、
被写体を撮影する撮像手段からの画像がライブビュー画像として表示されているライブビュー画面内に特定の実被写体に対応した任意のサイズで仮想被写体を配置して合成表示するステップと、
前記ライブビュー画面内に合成表示されている仮想被写体の表示サイズに基づいて前記特定の実被写体を撮影する際の被写体距離を算出するステップと、
前記算出された被写体距離に前記撮像手段のフォーカス位置を設定するステップと、
を含むことを特徴とする撮像処理方法である。
(請求項15)
請求項15に記載の発明は、
コンピュータに対して、
被写体を撮影する撮像手段からの画像がライブビュー画像として表示されているライブビュー画面内に特定の実被写体に対応した任意のサイズで仮想被写体を配置して合成表示する機能と、
前記ライブビュー画面内に合成表示されている仮想被写体の表示サイズに基づいて前記特定の実被写体を撮影する際の被写体距離を算出する機能と、
前記算出された被写体距離に前記撮像手段のフォーカス位置を設定する機能と、
を実現させるためのプログラムである。
The embodiment of the present invention has been described above. However, the present invention is not limited to this, and includes the invention described in the claims and the equivalent scope thereof.
Hereinafter, the invention described in the claims of the present application will be appended.
(Appendix)
(Claim 1)
The invention described in claim 1
An imaging apparatus having an imaging means for photographing a subject,
Arrangement means for arranging and displaying a virtual subject of an arbitrary size corresponding to a specific real subject in a live view screen in which an image from the imaging means is displayed as a live view image;
Calculating means for calculating a subject distance when photographing the specific real subject based on a display size of the virtual subject that is combined and displayed in the live view screen by the placement means;
Focus setting means for setting the focus position of the imaging means to the subject distance calculated by the calculating means;
It is an imaging device characterized by comprising.
(Claim 2)
The invention according to claim 2 is the imaging apparatus according to claim 1,
Further comprising a specifying means for specifying the height of an actual subject to be photographed;
The calculating means calculates a subject distance when shooting the virtual subject based on the height of the virtual subject in the live view screen, the height of the real subject specified by the specifying means, and the shooting angle of view.
An imaging apparatus characterized by being configured as described above.
(Claim 3)
The invention according to claim 3 is the imaging apparatus according to claim 2,
The specifying means inputs a height of an actual subject to be photographed by a user operation.
The imaging apparatus is characterized by the above.
(Claim 4)
The invention according to claim 4 is the imaging apparatus according to claim 2,
The specifying means selects any one of a plurality of real subjects whose heights are known in advance by a user operation.
The imaging apparatus is characterized by the above.
(Claim 5)
The invention according to claim 5 is the imaging apparatus according to any one of claims 1 to 4,
A self-timer photographing means for performing self-timer photographing by the imaging means at a focus position set by the focus setting means;
The imaging apparatus is characterized by the above.
(Claim 6)
The invention described in claim 6 is the imaging apparatus according to claim 5,
Autofocus means;
Discrimination to determine whether or not a difference between a focus position autofocused by the autofocus unit and a focus position set by the focus setting unit is greater than or equal to a predetermined value when the selftimer imaging unit performs self-timer imaging Means,
Further comprising
The self-timer photographing unit performs the self-timer photographing at a focus position by the autofocus unit when the determination unit determines that the difference is a predetermined value or more.
The imaging apparatus is characterized by the above.
(Claim 7)
The invention according to claim 7 is the imaging apparatus according to claim 5,
Autofocus means;
Discrimination to determine whether or not a difference between a focus position autofocused by the autofocus unit and a focus position set by the focus setting unit is greater than or equal to a predetermined value when the selftimer imaging unit performs self-timer imaging Means,
Warning means for outputting a warning when the difference is determined to be greater than or equal to a predetermined value by the determination means;
Further comprising
The imaging apparatus is characterized by the above.
(Claim 8)
The invention according to claim 8 is the imaging apparatus according to claim 6 or 7,
Recognizing means for recognizing an actual subject displayed as a photographing target in the live view screen based on pre-registered recognition information;
The autofocus means performs autofocus on an actual subject recognized by the recognition means;
The imaging apparatus is characterized by the above.
(Claim 9)
The invention according to claim 9 is the imaging apparatus according to any one of claims 1 to 8,
An acquisition means for acquiring, as the virtual subject, generated image data cut out from an image obtained by photographing a real subject to be photographed;
The arrangement unit displays the generated image data acquired by the acquisition unit as a virtual subject in the live view screen.
The imaging apparatus is characterized by the above.
(Claim 10)
The invention according to claim 10 is the imaging device according to any one of claims 1 to 8,
Further comprising an acquisition means for acquiring model image data imitating a real subject to be photographed as the virtual subject,
The arrangement unit displays the model image data acquired by the acquisition unit as a virtual subject in the live view screen.
The imaging apparatus is characterized by the above.
(Claim 11)
The invention according to claim 11 is the imaging apparatus according to claim 9 or 10,
The virtual subject is any one of a full body image of a person, an image above the chest, and a face image.
This is an imaging apparatus.
(Claim 12)
The invention according to claim 12 is the imaging apparatus according to any one of claims 1 to 11,
Display control means for displaying the subject distance calculated by the calculation means together with the virtual subject in the live view screen;
An imaging apparatus characterized by being configured as described above.
(Claim 13)
The invention according to claim 13
An imaging apparatus having an imaging means for photographing a subject,
When displaying a virtual subject corresponding to a specific real subject in a live view screen in which an image from the imaging means is displayed as a live view image, based on the subject distance at the time of shooting the specific real subject Calculating means for calculating the display size of the virtual subject corresponding to the real subject;
Arrangement means for arranging and displaying a virtual subject having a display size calculated by the calculation means in the live view screen;
It is an imaging device characterized by comprising.
(Claim 14)
The invention according to claim 14
Arranging and displaying a virtual subject in an arbitrary size corresponding to a specific real subject in a live view screen in which an image from an imaging means for photographing the subject is displayed as a live view image;
Calculating a subject distance when photographing the specific real subject based on a display size of a virtual subject that is compositely displayed in the live view screen;
Setting the focus position of the imaging means to the calculated subject distance;
It is the imaging processing method characterized by including this.
(Claim 15)
The invention according to claim 15 is:
Against the computer,
A function of arranging and displaying a virtual subject in an arbitrary size corresponding to a specific real subject in a live view screen in which an image from an imaging means for photographing the subject is displayed as a live view image;
A function of calculating a subject distance when photographing the specific real subject based on a display size of a virtual subject that is compositely displayed in the live view screen;
A function of setting the focus position of the imaging means to the calculated subject distance;
It is a program for realizing.

1 制御部
3 記憶部
3a プログラムメモリ
4 操作部
5 撮像部
6 タッチ表示部
6a 表示パネル
6b タッチパネル
DESCRIPTION OF SYMBOLS 1 Control part 3 Memory | storage part 3a Program memory 4 Operation part 5 Imaging part 6 Touch display part 6a Display panel 6b Touch panel

Claims (15)

被写体を撮影する撮像手段を備えた撮像装置であって、
前記撮像手段からの画像がライブビュー画像として表示されているライブビュー画面内に特定の実被写体に対応した仮想被写体を配置して合成表示する配置手段と、
前記特定の実被写体がライブビュー画面内に存在しない状態で、前記配置手段により当該ライブビュー画面内に合成表示されている仮想被写体の表示サイズに基づいて、当該特定の実被写体が当該ライブビュー画面内に存在する場合の被写体距離を算出する算出手段と、
前記算出手段により算出された被写体距離を報知する報知手段と、
を備えたことを特徴とする撮像装置。
An imaging apparatus having an imaging means for photographing a subject,
Arrangement means for arranging and displaying a virtual subject corresponding to a specific real subject in a live view screen in which an image from the imaging means is displayed as a live view image;
Based on the display size of the virtual subject synthesized and displayed in the live view screen by the placement means in a state where the specific real subject does not exist in the live view screen, the specific real subject is displayed in the live view screen. A calculation means for calculating a subject distance when existing in
An informing means for informing the subject distance calculated by the calculating means;
An imaging apparatus comprising:
前記算出手段により算出された被写体距離に前記撮像手段のフォーカス位置を設定するフォーカス設定手段と、
前記フォーカス設定手段により設定されているフォーカス位置で前記撮像手段によるセルフタイマ撮影を実行するセルフタイマ撮影手段を更に備える、
ようにしたことを特徴とする請求項1に記載の撮像装置。
Focus setting means for setting the focus position of the imaging means to the subject distance calculated by the calculating means;
A self-timer photographing means for performing self-timer photographing by the imaging means at a focus position set by the focus setting means;
The imaging apparatus according to claim 1, which is configured as described above.
前記配置手段による合成表示と、前記算出手段による被写体距離の算出は、セルフタイマ撮影のタイマ計測動作の開始前に実行される、
ようにしたことを特徴とする請求項2に記載の撮像装置。
The composite display by the arrangement unit and the calculation of the subject distance by the calculation unit are executed before the start of the timer measurement operation of self-timer shooting.
The imaging apparatus according to claim 2, wherein the imaging apparatus is configured as described above.
前記タイマ計測動作の開始時に、前記仮被写体を前記ライブビュー画像内から消去する、
ようにしたことを特徴とする請求項3に記載の撮像装置。
At the start of the timer measurement operation, erasing the virtual object from the live view image,
The imaging apparatus according to claim 3, which is configured as described above.
前記セルフタイマ撮影手段は、前記特定の実被写体が前記ライブビュー画像内に存在する状態で、撮影を実行する、
ようにしたことを特徴とする請求項2〜請求項4のいずれかに記載の撮像装置。
The self-timer photographing means performs photographing in a state where the specific real subject exists in the live view image.
The imaging apparatus according to claim 2, wherein the imaging apparatus is configured as described above.
前記セルフタイマ撮影手段によるセルフタイマ撮影のタイマ計測動作開始後に、前記特定の実被写体が前記ライブビュー画像内に存在する状態で、当該特定の実被写体に対してオートフォーカスにより取得される前記撮像手段のフォーカス位置を取得するオートフォーカス手段と、
前記セルフタイマ撮影手段によるセルフタイマ撮影の実行時に前記オートフォーカス手段により取得されたフォーカス位置と、前記フォーカス設定手段により設定されたフォーカス位置との差が所定値以上であるか否かを判別する判別手段と、
を更に備え、
前記セルフタイマ撮影手段は、前記判別手段により前記差が所定値以上であると判別された場合に、前記オートフォーカス手段によるフォーカス位置で前記セルフタイマ撮影を実行する、
ようにしたことを特徴とする請求項2〜請求項5のいずれかに記載の撮像装置。
After the start of the timer measurement operation of self-timer photographing by the self-timer photographing means, the imaging obtained by autofocusing on the specific real subject in a state where the specific real subject is present in the live view image Auto-focus means for acquiring the focus position of the means;
Discrimination for determining whether or not a difference between the focus position acquired by the autofocus unit and the focus position set by the focus setting unit when the self-timer imaging unit performs self-timer imaging is equal to or greater than a predetermined value. Means,
Further comprising
The self-timer photographing unit performs the self-timer photographing at a focus position by the autofocus unit when the determination unit determines that the difference is a predetermined value or more.
The imaging apparatus according to claim 2, wherein the imaging apparatus is configured as described above.
前記セルフタイマ撮影手段によるセルフタイマ撮影のタイマ計測動作開始後に、前記特定の実被写体が前記ライブビュー画像内に存在する状態で、当該特定の実被写体に対してオートフォーカスにより取得される前記撮像手段のフォーカス位置を取得するオートフォーカス手段と、
前記セルフタイマ撮影手段によるセルフタイマ撮影の実行時に前記オートフォーカス手段により取得されたフォーカス位置と、前記フォーカス設定手段により設定されたフォーカス位置との差が所定値以上であるか否かを判別する判別手段と、
を更に備え、
前記判別手段により前記差が所定値以上であると判別された場合に、警告を出力する警告手段と、
ようにしたことを特徴とする請求項2〜請求項5のいずれかに記載の撮像装置。
After the start of the timer measurement operation of self-timer photographing by the self-timer photographing means, the imaging obtained by autofocusing on the specific real subject in a state where the specific real subject is present in the live view image Auto-focus means for acquiring the focus position of the means;
Discrimination for determining whether or not a difference between the focus position acquired by the autofocus unit and the focus position set by the focus setting unit when the self-timer imaging unit performs self-timer imaging is equal to or greater than a predetermined value. Means,
Further comprising
Warning means for outputting a warning when the difference is determined to be greater than or equal to a predetermined value by the determination means;
The imaging apparatus according to claim 2, wherein the imaging apparatus is configured as described above.
予め登録されている認識情報に基づいて前記ライブビュー画面内に撮影対象として表示されている実被写体を認識する認識手段を更に備え、
オートフォーカス手段は、前記認識手段により認識されたに実被写体に対してオートフォーカスを行う、
ようにしたことを特徴とする請求項6あるいは請求項7に記載の撮像装置。
Recognizing means for recognizing an actual subject displayed as a photographing target in the live view screen based on pre-registered recognition information;
Before SL autofocus unit performs the autofocus the real subject recognized by the recognizing means,
The imaging apparatus according to claim 6, wherein the imaging apparatus is configured as described above.
撮影対象となる実被写体の高さを特定する特定手段を更に備え、
前記算出手段は、前記ライブビュー画面内の仮想被写体の高さと前記特定手段により特定された実被写体の高さ及び撮影画角に基づいて前記実被写体を撮影する際の被写体距離を算出する、
ようにしたことを特徴とする請求項1〜請求項8のいずれかに記載の撮像装置。
Further comprising a specifying means for specifying the height of an actual subject to be photographed;
The calculating means calculates the subject distance when capturing the real object Utsushitai based on the height and the shooting angle of the real object specified by the height and the specifying unit of the virtual object of the live view screen ,
The imaging apparatus according to claim 1, wherein the imaging apparatus is configured as described above.
前記配置手段は、ユーザ操作に応じて、ライブビュー画像内における前記仮想被写体の位置またはサイズを調整する、
ようにしたことを特徴とする請求項1〜請求項9のいずれかに記載の撮像装置。
The arrangement means adjusts the position or size of the virtual subject in a live view image according to a user operation.
The imaging apparatus according to claim 1, wherein the imaging apparatus is configured as described above.
撮影対象となる実被写体を撮影した画像から切り抜き生成された生成画像データを前記仮想被写体として取得する取得手段を更に備え、
前記配置手段は、前記取得手段により取得された生成画像データを前記ライブビュー画面内に仮想被写体として合成表示させる、
ようにしたことを特徴とする請求項1〜請求項10のいずれかに記載の撮像装置。
An acquisition means for acquiring, as the virtual subject, generated image data cut out from an image obtained by photographing a real subject to be photographed;
The arrangement unit displays the generated image data acquired by the acquisition unit as a virtual subject in the live view screen.
The imaging apparatus according to claim 1, wherein the imaging apparatus is configured as described above.
撮影対象となる実被写体を模した模型画像データを前記仮想被写体として取得する取得手段を更に備え、
前記配置手段は、前記取得手段により取得された模型画像データを前記ライブビュー画面内に仮想被写体として合成表示させる、
ようにしたことを特徴とする請求項1〜請求項10のいずれかに記載の撮像装置。
Further comprising an acquisition means for acquiring model image data imitating a real subject to be photographed as the virtual subject,
The arrangement unit displays the model image data acquired by the acquisition unit as a virtual subject in the live view screen.
The imaging apparatus according to claim 1, wherein the imaging apparatus is configured as described above.
前記報知手段は、前記算出手段により算出された被写体距離を、前記ライブビュー画面内に前記仮想被写体と併せて表示する、
ようにしたことを特徴とする請求項1〜請求項12のいずれかに記載の撮像装置。
The notifying means displays the subject distance calculated by the calculating means together with the virtual subject in the live view screen;
The imaging apparatus according to claim 1, wherein the imaging apparatus is configured as described above.
被写体を撮影する撮像手段からの画像がライブビュー画像として表示されているライブビュー画面内に、特定の実被写体に対応した仮想被写体を配置して合成表示する処理と、
前記特定の実被写体がライブビュー画面内に存在しない状態で、前記ライブビュー画面内に合成表示されている仮想被写体の表示サイズに基づいて、当該特定の実被写体当該ライブビュー画面内に存在する場合の被写体距離を算出する処理と、
前記算出された被写体距離を報知する処理と、
を含むことを特徴とする撮像処理方法。
A process of arranging and displaying a virtual subject corresponding to a specific real subject in a live view screen in which an image from an imaging means for photographing the subject is displayed as a live view image;
In a state where the specific real object is not present in the live view screen, based on the display size of the virtual object that is synthesized and displayed on the live view screen, the specific real object is present in the live view screen Processing to calculate the subject distance in the case,
A process for notifying the calculated subject distance;
An imaging processing method comprising:
コンピュータに対して、
被写体を撮影する撮像手段からの画像がライブビュー画像として表示されているライブビュー画面内に、特定の実被写体に対応した仮想被写体を配置して合成表示する機能と、
前記特定の実被写体がライブビュー画面内に存在しない状態で、前記ライブビュー画面内に合成表示されている仮想被写体の表示サイズに基づいて、当該特定の実被写体当該ライブビュー画面内に存在する場合の被写体距離を算出する機能と、
前記算出された被写体距離を報知する機能と、
を実現させるためのプログラム。
Against the computer,
A function for arranging and displaying a virtual subject corresponding to a specific real subject in a live view screen in which an image from an imaging means for photographing the subject is displayed as a live view image;
In a state where the specific real object is not present in the live view screen, based on the display size of the virtual object that is synthesized and displayed on the live view screen, the specific real object is present in the live view screen A function to calculate the subject distance in the case,
A function of notifying the calculated subject distance;
A program to realize
JP2012117399A 2012-05-23 2012-05-23 Imaging apparatus, imaging processing method, and program Expired - Fee Related JP5967422B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012117399A JP5967422B2 (en) 2012-05-23 2012-05-23 Imaging apparatus, imaging processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012117399A JP5967422B2 (en) 2012-05-23 2012-05-23 Imaging apparatus, imaging processing method, and program

Publications (2)

Publication Number Publication Date
JP2013246189A JP2013246189A (en) 2013-12-09
JP5967422B2 true JP5967422B2 (en) 2016-08-10

Family

ID=49846037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012117399A Expired - Fee Related JP5967422B2 (en) 2012-05-23 2012-05-23 Imaging apparatus, imaging processing method, and program

Country Status (1)

Country Link
JP (1) JP5967422B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115278084A (en) * 2022-07-29 2022-11-01 维沃移动通信有限公司 Image processing method, image processing device, electronic equipment and storage medium

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05203862A (en) * 1992-01-28 1993-08-13 Nikon Corp Automatic photography device of camera
JPH0651188A (en) * 1992-07-27 1994-02-25 Asahi Optical Co Ltd Autofocusing camera and photographing method
JPH08184881A (en) * 1995-01-05 1996-07-16 Nikon Corp Camera
JP4269908B2 (en) * 2003-11-25 2009-05-27 カシオ計算機株式会社 Electronic camera, electronic camera control program
JP2005191978A (en) * 2003-12-25 2005-07-14 Casio Comput Co Ltd Mobile electronic apparatus, photographing method, and program
JP4771524B2 (en) * 2004-12-10 2011-09-14 カシオ計算機株式会社 Imaging apparatus and program thereof
US20070206175A1 (en) * 2006-03-03 2007-09-06 Rai Barinder S Range finder integrated digital camera
JP5060233B2 (en) * 2007-09-25 2012-10-31 富士フイルム株式会社 Imaging apparatus and automatic photographing method thereof
JP5402341B2 (en) * 2009-01-26 2014-01-29 株式会社Jvcケンウッド Automatic imaging apparatus and automatic imaging method
JP5636660B2 (en) * 2009-09-30 2014-12-10 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP5445420B2 (en) * 2010-09-27 2014-03-19 フリュー株式会社 Photo sticker creation apparatus, photo sticker creation method, and program

Also Published As

Publication number Publication date
JP2013246189A (en) 2013-12-09

Similar Documents

Publication Publication Date Title
JP5999336B2 (en) Imaging apparatus, imaging processing method, and program
JP5713055B2 (en) Imaging apparatus, imaging method, and program
JP2010010936A (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
KR20170027266A (en) Image capture apparatus and method for operating the image capture apparatus
JP3971240B2 (en) Camera with advice function
JP6512961B2 (en) Imaging control apparatus, control method therefor, program, and storage medium
JP5880135B2 (en) Detection apparatus, detection method, and program
JP2010268019A (en) Photographing apparatus
JP2008136024A (en) Photographing device, photographing system, and photographing method
US9767587B2 (en) Image extracting apparatus, image extracting method and computer readable recording medium for recording program for extracting images based on reference image and time-related information
TWI693828B (en) Image-capturing device and method for operating the same
JP2009171428A (en) Control method and program for digital camera apparatus and electronic zoom
US10447935B2 (en) Image generating apparatus, image generating method and computer readable recording medium for recording program for generating new image from images related to reference image
US9374525B2 (en) Shooting apparatus and shooting method
JP2014068081A (en) Imaging apparatus and control method of the same, program and storage medium
JP5206422B2 (en) Composition selection device and program
JP6494455B2 (en) Video processing apparatus, video processing method, and program
JP2010028446A (en) Imaging apparatus, imaging method, and program
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
JP5967422B2 (en) Imaging apparatus, imaging processing method, and program
JP6242428B2 (en) Imaging apparatus and imaging method
JP2009267468A (en) Imaging device
JP2012073512A (en) Photographing device and program
KR20190142290A (en) Method for control a camera apparatus and the camera apparatus
JP5370577B2 (en) Composition selection device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160506

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160622

R150 Certificate of patent or registration of utility model

Ref document number: 5967422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees