JP2014011578A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2014011578A
JP2014011578A JP2012145927A JP2012145927A JP2014011578A JP 2014011578 A JP2014011578 A JP 2014011578A JP 2012145927 A JP2012145927 A JP 2012145927A JP 2012145927 A JP2012145927 A JP 2012145927A JP 2014011578 A JP2014011578 A JP 2014011578A
Authority
JP
Japan
Prior art keywords
unit
subject
control unit
slide operation
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012145927A
Other languages
Japanese (ja)
Other versions
JP2014011578A5 (en
JP6045223B2 (en
Inventor
Junichi Shimoyama
順一 霜山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2012145927A priority Critical patent/JP6045223B2/en
Publication of JP2014011578A publication Critical patent/JP2014011578A/en
Publication of JP2014011578A5 publication Critical patent/JP2014011578A5/ja
Application granted granted Critical
Publication of JP6045223B2 publication Critical patent/JP6045223B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To reliably take an image of a subject moving within an imaging visual field at a desired position and with desired timing, by an intuitive and simple operation.SOLUTION: An imaging apparatus comprises: an imaging unit which takes an image of a subject; a display control unit which performs display based on the taken image taken by the imaging unit; a touch panel which receives slide operation corresponding to the taken image displayed by the display control unit; a subject determination unit which determines the subject in the taken image; and a control unit which determines the imaging timing of the subject moving to the apparatus in the taken image, in accordance with the slide operation.

Description

本発明は、タッチパネルを備えた撮影機器に関する。   The present invention relates to an imaging device provided with a touch panel.

近年、デジタルカメラなどの撮影機能付き携帯機器(撮影機器)が普及している。この種の撮影機器においては表示部を有して、撮影画像を表示する機能を有するものもある。また、表示部にメニュー画面を表示して、撮影機器の操作を容易にしたものもある。更に、表示部にタッチパネルを配置して、タッチパネルに対するタッチ操作によって撮影機器の操作が可能なものもある。   In recent years, portable devices with a photographing function (photographing devices) such as digital cameras have become widespread. Some types of photographing apparatuses have a display unit and a function of displaying a photographed image. Some display screens display a menu screen to facilitate operation of the photographing device. In addition, there is a display device in which a touch panel is arranged so that the photographing apparatus can be operated by a touch operation on the touch panel.

従来、撮影機器により移動する被写体を撮影することがある。例えば、徒競走等において、希望する被写体を希望する位置において撮影しようとすることが考えられる。しかしながら、移動する被写体を所望のタイミングで撮影するためには、撮影ボタンの押下に要する時間や実際に撮像が行われるまでのタイムラグを考慮して撮影を行う必要があり、必ずしも希望する被写体を希望するタイミングで撮影することができない場合がある。   Conventionally, a moving subject may be photographed by a photographing device. For example, it is conceivable to take a picture of a desired subject at a desired position in a race run or the like. However, in order to shoot a moving subject at a desired timing, it is necessary to shoot in consideration of the time required to press the shoot button and the time lag until actual shooting is performed. You may not be able to shoot at the timing.

そこで、特許文献1においては、撮像視野内に構図線を設定し、設定した構図線と移動体の位置が一致すると撮影を行うことで、移動体を確実に撮影する技術が提案されている。   In view of this, Japanese Patent Laid-Open No. 2004-228867 proposes a technique for reliably photographing a moving body by setting a composition line in the imaging field of view and photographing when the set composition line matches the position of the moving body.

特開2009−77143号公報     JP 2009-77143 A

しかしながら、特許文献1の発明においては、メニューや操作ボタンを駆使して構図線を設定するものであり、構図線の変更操作等は容易ではなく、構図線の設定のためにシャッターチャンスを逃すことがあるか又は、構図線に束縛されて、必ずしも撮影者が希望する撮影位置やタイミングで撮影を行うことができるとは限らないという問題があった。   However, in the invention of Patent Document 1, the composition line is set by making full use of menus and operation buttons, and the composition line changing operation is not easy, and a photo opportunity is missed for setting the composition line. There is a problem in that there is a problem that the camera is not necessarily captured at the shooting position and timing desired by the photographer because of being bound by the composition line.

本発明は、直感的で且つ簡単な操作により、撮像視野内を移動する被写体を所望の位置及びタイミングで確実に撮影することができる撮影機器を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide an imaging device capable of reliably imaging a subject moving within an imaging visual field at a desired position and timing by an intuitive and simple operation.

本発明に係る撮影機器は、被写体を撮像する撮像部と、上記撮像部で撮像して得た撮像画像に基づく表示を行う表示制御部と、上記表示制御部によって表示された撮像画像に対応するスライド操作を受け付けるタッチパネルと、上記撮像画像中の被写体を判定する被写体判定部と、上記スライド操作に従って、上記撮像画像中を移動してくる被写体の撮影タイミングを決定する制御部とを具備する。   An imaging device according to the present invention corresponds to an imaging unit that images a subject, a display control unit that performs display based on a captured image obtained by imaging with the imaging unit, and a captured image displayed by the display control unit. A touch panel that accepts a slide operation; a subject determination unit that determines a subject in the captured image; and a control unit that determines a shooting timing of a subject moving in the captured image according to the slide operation.

本発明によれば、直感的で且つ簡単な操作により、撮像視野内を移動する被写体を所望の位置及びタイミングで確実に撮影することができるという効果を有する。   According to the present invention, there is an effect that a subject moving within the imaging field of view can be reliably photographed at a desired position and timing by an intuitive and simple operation.

本発明の第1の実施の形態に係る撮影機器の回路構成を示すブロック図。1 is a block diagram showing a circuit configuration of a photographing apparatus according to a first embodiment of the present invention. 撮影の様子を示す説明図。Explanatory drawing which shows the mode of imaging | photography. タッチレリーズを説明するための説明図。Explanatory drawing for demonstrating a touch release. 構図自動設定モードを説明するための説明図。Explanatory drawing for demonstrating composition automatic setting mode. カメラ制御を説明するためのフローチャート。The flowchart for demonstrating camera control. 本発明の第2の実施の形態を示すブロック図。The block diagram which shows the 2nd Embodiment of this invention. 第2の実施の形態を説明するための説明図。Explanatory drawing for demonstrating 2nd Embodiment. 第2の実施の形態を説明するための説明図。Explanatory drawing for demonstrating 2nd Embodiment. 構図設定ラインの方向が垂直方向の場合における動体判定方向の一例を示す説明図。Explanatory drawing which shows an example of the moving body determination direction in case the direction of a composition setting line is a perpendicular direction. 動体判定方向が構図設定ラインの方向に対して略直交する場合の撮影を説明するための説明図。Explanatory drawing for demonstrating imaging | photography when a moving body determination direction is substantially orthogonal to the direction of a composition setting line. 第2の実施の形態を説明するための説明図。Explanatory drawing for demonstrating 2nd Embodiment. 第2の実施の形態を説明するための説明図。Explanatory drawing for demonstrating 2nd Embodiment. 動体判定方向が構図設定ラインの方向に対して略一致する場合の撮影を説明するための説明図。Explanatory drawing for demonstrating imaging | photography when a moving body determination direction substantially corresponds with the direction of a composition setting line. 構図設定ラインの設定を解除するための操作の例を示す説明図。Explanatory drawing which shows the example of operation for canceling | releasing the setting of a composition setting line. 操作部の操作によって手動で構図自動設定モードを設定する場合の動作フローを示すフローチャート。6 is a flowchart showing an operation flow when a composition automatic setting mode is manually set by operation of an operation unit. ユーザのスライド操作に応答して自動的に構図自動設定モードが設定される場合の動作フローを示すフローチャート。The flowchart which shows the operation | movement flow in case a composition automatic setting mode is set automatically in response to a user's slide operation.

以下、図面を参照して本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
図1は本発明の第1の実施の形態に係る撮影機器の回路構成を示すブロック図である。本実施の形態における撮影機器1は、本体部10、交換レンズ20及び表示部30によって構成されている。本体部10は、撮影機器1の主要な回路部分が収納された筐体であり、前面に交換レンズ20が着脱自在に取り付けられ、背面に表示部30が設けられている。
(First embodiment)
FIG. 1 is a block diagram showing a circuit configuration of the photographing apparatus according to the first embodiment of the present invention. The photographing apparatus 1 in the present embodiment includes a main body unit 10, an interchangeable lens 20, and a display unit 30. The main body 10 is a housing in which main circuit portions of the photographing apparatus 1 are housed, and the interchangeable lens 20 is detachably attached to the front surface, and the display unit 30 is provided on the back surface.

表示部30は、後述するように、撮像画像を表示する表示画面31を有している。また、表示画面31上には、タッチパネル32が設けられている。タッチパネル32は、ユーザが指で指し示した表示画面31上の位置に応じた操作信号を発生することができる。この操作信号は、本体部10の後述する信号処理及び制御部11に供給される。これにより、信号処理及び制御部11は、ユーザがタッチした表示画面31上の位置やユーザが表示画面31上を指でスライドさせるスライド操作を行った場合には、そのスライド位置及び方向を検出することができ、ユーザ操作に対応した処理を実行することができるようになっている。   The display unit 30 has a display screen 31 that displays a captured image, as will be described later. A touch panel 32 is provided on the display screen 31. The touch panel 32 can generate an operation signal according to the position on the display screen 31 pointed by the user with a finger. This operation signal is supplied to a signal processing and control unit 11 described later of the main body unit 10. Thereby, the signal processing and control unit 11 detects the position and direction of the slide when the user touches the position on the display screen 31 or when the user performs a slide operation to slide the display screen 31 with a finger. It is possible to execute a process corresponding to a user operation.

表示部30は、本体部10の背面にヒンジ部材33によって回動自在に取り付けられている。表示画面31を本体部10の背面に沿って収納した状態では、撮影者は、撮影時に表示画面31上に表示されたスルー画を確認することができ、スルー画を確認しながら撮影操作を行うことができる。また、ヒンジ部材33によって表示部30を傾斜させることで、表示画面31を下方に向けることができ、撮影者は、ハイアングル撮影時においても、下方から表示画面31上の表示を確認することができるようになっている。   The display unit 30 is rotatably attached to the back surface of the main body unit 10 by a hinge member 33. In a state where the display screen 31 is stored along the back surface of the main body unit 10, the photographer can check the through image displayed on the display screen 31 at the time of shooting, and performs a shooting operation while checking the through image. be able to. Further, by tilting the display unit 30 with the hinge member 33, the display screen 31 can be directed downward, and the photographer can confirm the display on the display screen 31 from below even during high-angle shooting. It can be done.

交換レンズ20は、本体部10の撮像部12に被写体像を導くレンズ部21を有している。レンズ部21は、ズームやフォーカシングのためのレンズ等を備えており、これらのレンズを駆動制御するための操作部22を備えている。ズームリングやピントリング等によって構成される操作部22の操作によって、ピントのみならず、ズーム位置や絞りの調整も可能である。   The interchangeable lens 20 includes a lens unit 21 that guides a subject image to the imaging unit 12 of the main body unit 10. The lens unit 21 includes a lens for zooming and focusing, and the like, and includes an operation unit 22 for driving and controlling these lenses. By operating the operation unit 22 configured by a zoom ring, a focus ring, or the like, not only the focus but also the zoom position and the aperture can be adjusted.

操作部22は、ユーザ操作に基づく操作信号を制御部23に出力する。制御部23は、マイコン等によって構成されており、操作部22からの操作信号に基づいて、回転操作及びシフト操作に基づくフォーカス信号及びズーム信号を発生して、駆動部24を制御する。   The operation unit 22 outputs an operation signal based on a user operation to the control unit 23. The control unit 23 is configured by a microcomputer or the like, and generates a focus signal and a zoom signal based on a rotation operation and a shift operation based on an operation signal from the operation unit 22 to control the drive unit 24.

モーター等によって構成された駆動部24は、レンズ部21に設けられたピント合わせに関連するピントレンズ及びズーミングに関連するズームレンズを駆動し、ピント制御及びズーム制御を行う。レンズ部21にはピント制御部21a、ズーム制御部21b及び絞り制御部21cが設けられている。ピント制御部21aはピントレンズの位置に対応した信号をピント位置判定部25aに出力する。また、ズーム制御部21bはズームレンズの位置(ズーム位置)に対応した信号をズーム位置判定部25bに出力する。絞り制御部21cは、レンズ内の軸状光束を制限するための絞り制御部である。   The drive unit 24 configured by a motor or the like drives a focus lens related to focusing and a zoom lens related to zooming provided in the lens unit 21 to perform focus control and zoom control. The lens unit 21 is provided with a focus control unit 21a, a zoom control unit 21b, and an aperture control unit 21c. The focus control unit 21a outputs a signal corresponding to the position of the focus lens to the focus position determination unit 25a. Further, the zoom control unit 21b outputs a signal corresponding to the position (zoom position) of the zoom lens to the zoom position determination unit 25b. The aperture controller 21c is an aperture controller for limiting the axial light flux in the lens.

ピント位置判定部25aは、ピント制御部21aの出力に基づいてピント位置を判定して判定結果を制御部23に出力する。ズーム位置判定部25bは、ズーム制御部21bの出力に基づいてズーム位置を判定して判定結果を制御部23に出力する。制御部23は、ピント位置及びズーム位置の判定結果が与えられ、操作部22の操作に対応したピント位置及びズーム位置となるように、駆動部24を制御する。   The focus position determination unit 25 a determines the focus position based on the output of the focus control unit 21 a and outputs the determination result to the control unit 23. The zoom position determination unit 25 b determines the zoom position based on the output of the zoom control unit 21 b and outputs the determination result to the control unit 23. The control unit 23 receives the determination result of the focus position and the zoom position, and controls the drive unit 24 so that the focus position and the zoom position corresponding to the operation of the operation unit 22 are obtained.

交換レンズ20には、通信部28が設けられている。また、本体部10には通信部13が設けられている。通信部28は、所定の伝送路を介して本体部10の通信部13との間で情報の送受を行う。制御部23は、本体部10の通信部13との間の通信が確立すると、記録部26に格納したレンズ情報及びズーム操作に関するズーム情報等を通信部28,13によって本体部10に送信させることができる。   The interchangeable lens 20 is provided with a communication unit 28. The main body unit 10 is provided with a communication unit 13. The communication unit 28 transmits and receives information to and from the communication unit 13 of the main body unit 10 via a predetermined transmission path. When communication with the communication unit 13 of the main body 10 is established, the control unit 23 causes the communication units 28 and 13 to transmit the lens information stored in the recording unit 26 and zoom information related to the zoom operation to the main body 10. Can do.

レンズ情報により、本体部10は、交換レンズ20がどのようなズーム機能を有しているか、ズームレンズの焦点距離範囲(倍率)、焦点距離、明るさナンバー等を認識することができる。また、本体部10には、操作部22からの回転操作の情報も与えられるようになっている。制御部23は、通信部13,28介して本体部10の信号処理及び制御部11から制御信号が供給されて、信号処理及び制御部11によって制御可能に構成されている。   Based on the lens information, the main body 10 can recognize what zoom function the interchangeable lens 20 has, the focal length range (magnification), the focal length, the brightness number, and the like of the zoom lens. Further, the main body unit 10 is also provided with information on a rotation operation from the operation unit 22. The control unit 23 is configured to be controlled by the signal processing and control unit 11 by being supplied with a control signal from the signal processing and control unit 11 of the main body unit 10 via the communication units 13 and 28.

なお、本実施の形態においては、種々の交換レンズを採用することができ、更に、交換レンズだけでなく、交換不能なレンズを採用してもよい。   In the present embodiment, various interchangeable lenses can be adopted, and not only interchangeable lenses but also non-replaceable lenses may be employed.

撮影機器1を構成する本体部10は、CCDやCMOSセンサ等の撮像素子によって構成された撮像部12を有している。撮像部12は、本体部10の前面に設けられた交換レンズ20からの被写体像を光電変換して撮影画像を得る。撮像部12は、信号処理及び制御部11によって駆動制御されて、撮影画像を出力する。   The main body 10 constituting the photographing apparatus 1 has an imaging unit 12 configured by an imaging element such as a CCD or a CMOS sensor. The imaging unit 12 photoelectrically converts a subject image from the interchangeable lens 20 provided on the front surface of the main body unit 10 to obtain a captured image. The imaging unit 12 is driven and controlled by the signal processing and control unit 11 and outputs a captured image.

信号処理及び制御部11は、撮像部12に撮像素子の駆動信号を出力すると共に、撮像部12からの撮影画像を読み出す。信号処理及び制御部11は、読み出した撮影画像に対して、所定の信号処理、例えば、色調整処理、マトリックス変換処理、ノイズ除去処理、その他各種の信号処理を行う。   The signal processing and control unit 11 outputs a driving signal for the imaging element to the imaging unit 12 and reads a captured image from the imaging unit 12. The signal processing and control unit 11 performs predetermined signal processing, for example, color adjustment processing, matrix conversion processing, noise removal processing, and other various signal processing on the read captured image.

本体部10には、時計部14及び操作判定部15も配設されている。時計部14は信号処理及び制御部11が用いる時間情報を発生する。操作判定部15は、本体部10に設けられた図示しないレリーズボタン、ファンクションボタン、撮影モード設定等の各種スイッチ等を含む操作部に対するユーザ操作に基づく操作信号を発生して、信号処理及び制御部11に出力するようになっている。信号処理及び制御部11は、操作信号に基づいて、各部を制御する。   The main body unit 10 is also provided with a clock unit 14 and an operation determination unit 15. The clock unit 14 generates time information used by the signal processing and control unit 11. The operation determination unit 15 generates an operation signal based on a user operation with respect to an operation unit including a release button, a function button, and various switches such as a shooting mode setting (not shown) provided in the main body unit 10, and a signal processing and control unit 11 is output. The signal processing and control unit 11 controls each unit based on the operation signal.

信号処理及び制御部11は、信号処理後の撮影画像を圧縮処理し、圧縮後の画像を記録部16に与えて記録させることができる。記録部16としては、例えばカードインターフェースを採用することができ、記録部16はメモリカード等の記録媒体に画像情報及び音声情報等を記録可能である。   The signal processing and control unit 11 can compress the captured image after signal processing, and can apply the compressed image to the recording unit 16 for recording. As the recording unit 16, for example, a card interface can be adopted, and the recording unit 16 can record image information, audio information, and the like on a recording medium such as a memory card.

また、信号処理及び制御部11の表示制御部11aは表示に関する各種処理を実行する。表示制御部11aは、信号処理後の撮影画像を表示部30及び接眼表示部17に与えることができる。表示部30及び接眼表示部17は、夫々LCD等の表示画面を有しており、表示制御部11aから与えられた画像を表示する。また、表示制御部11aは、各種メニュー表示等をこれらの表示画面に表示させることもできるようになっている。   Further, the display control unit 11a of the signal processing and control unit 11 executes various processes related to display. The display control unit 11 a can give the captured image after the signal processing to the display unit 30 and the eyepiece display unit 17. The display unit 30 and the eyepiece display unit 17 each have a display screen such as an LCD, and display an image given from the display control unit 11a. Moreover, the display control part 11a can also display various menu displays etc. on these display screens.

また、本体部10には、ユーザが目を接眼表示部17の接眼する部分に近接させたことを検出するアイセンサ35が設けられている。アイセンサ35の検出結果によって、信号処理及び制御部11は、ユーザが目を接眼する部分に近接させたか否かを判定することができるようになっている。   Further, the main body unit 10 is provided with an eye sensor 35 that detects that the user has brought his / her eye close to the eyepiece part of the eyepiece display unit 17. Based on the detection result of the eye sensor 35, the signal processing and control unit 11 can determine whether or not the user has brought the eye close to the eyepiece.

タッチ・スライド操作検出部11bは、タッチパネル32の出力等に基づいて、ユーザがタッチパネル32をタッチ又はスライド操作したことを検知することができる。タッチ・スライド操作検出部11bは、ユーザのタッチ又はスライド操作を検知すると、検知結果を表示制御部11a、動体判定部11c、及び予測・撮影決定部11dに出力する。   The touch / slide operation detection unit 11b can detect that the user touches or slides the touch panel 32 based on the output of the touch panel 32 or the like. When the touch / slide operation detection unit 11b detects a user's touch or slide operation, the touch / slide operation detection unit 11b outputs the detection result to the display control unit 11a, the moving body determination unit 11c, and the prediction / shooting determination unit 11d.

タッチ・スライド操作検出部11bは、ユーザがタッチパネル32をタッチすると、タッチレリーズ操作が行われたものと判定する。この場合には、信号処理及び制御部11は、タッチ・スライド操作検出部11bの判定結果に基づいて、例えばタッチ位置を合焦させるよう制御すると共に撮像部12からの撮像画像を得て、信号処理を行った後記録する。   When the user touches the touch panel 32, the touch / slide operation detection unit 11b determines that a touch release operation has been performed. In this case, the signal processing and control unit 11 performs control so as to focus the touch position, for example, based on the determination result of the touch / slide operation detection unit 11b and obtains a captured image from the imaging unit 12 to obtain a signal. Record after processing.

本実施の形態においては、タッチ・スライド操作検出部11bは、ユーザがタッチパネル32上をスライド操作すると、このスライド操作が構図自動設定モードにおける構図設定ラインを指定するものであると判定し、構図自動設定モードを設定する。構図自動設定モードにおいては、構図設定ラインと被写体との位置関係に応じて、自動的に撮影が行われるようになっている。   In the present embodiment, when the user performs a slide operation on the touch panel 32, the touch / slide operation detection unit 11b determines that this slide operation specifies a composition setting line in the composition automatic setting mode, and the composition automatic Set the setting mode. In the composition automatic setting mode, shooting is automatically performed according to the positional relationship between the composition setting line and the subject.

なお、タッチ・スライド操作検出部11bは、タッチパネル32をタッチした瞬間に、タッチレリーズ操作が行われたものと判定することができる。この場合には、タッチ操作とスライド操作とを区別するために、タッチ・スライド操作検出部11bは、例えば、画面端部からスライドを開始した場合にタッチと判定せず、スライド操作の開始であるものと判定するようにしてもよい。また、タッチ・スライド操作検出部11bは、タッチパネル32をタッチした後スライドさせずに離した瞬間に、タッチレリーズ操作が行われたものと判定することができる。この場合には、タッチ・スライド操作検出部11bは、タッチレリーズの検出タイミングは若干遅延するが、画面上のいずれの位置からスライド操作を開始しても、タッチ操作とスライド操作とを区別することができる。   Note that the touch / slide operation detection unit 11b can determine that the touch release operation has been performed at the moment when the touch panel 32 is touched. In this case, in order to distinguish between the touch operation and the slide operation, for example, the touch / slide operation detection unit 11b does not determine the touch when the slide starts from the edge of the screen, but starts the slide operation. You may make it determine with a thing. Further, the touch / slide operation detection unit 11b can determine that the touch release operation has been performed at the moment when the touch panel 32 is touched and then released without being slid. In this case, although the touch / slide operation detection unit 11b slightly delays the detection timing of the touch release, the touch / slide operation detection unit 11b can distinguish the touch operation from the slide operation regardless of the position on the screen. Can do.

構図自動設定モードが設定されると、表示制御部11aは、スライド操作の情報に基づいて、例えば表示画面31上にスライド操作の軌跡に沿った構図設定ラインを表示する。動体判定部11cは、構図自動設定モードにおいて、撮像画像中の動体を検出し、予測・撮影決定部11dは、スライド操作に応じた構図設定ラインに動体が到達するタイミングを予測し、動体が構図設定ラインに到達するタイミングで撮像部12が撮影を行うように、制御する。   When the composition automatic setting mode is set, the display control unit 11a displays a composition setting line along the locus of the slide operation on the display screen 31, for example, based on the slide operation information. The moving object determination unit 11c detects a moving object in the captured image in the composition automatic setting mode, and the prediction / photographing determination unit 11d predicts the timing at which the moving object reaches the composition setting line according to the slide operation. Control is performed so that the imaging unit 12 performs imaging at the timing of reaching the setting line.

なお、予測・撮影決定部11dは、予測処理を行うことなく、動体が構図設定ラインに到達したタイミングを検出し、信号処理及び制御部11は、このタイミングの検出結果に応じて撮像部12からの撮像画像を取り込むようにしてもよい。   Note that the prediction / photographing determination unit 11d detects the timing at which the moving object reaches the composition setting line without performing the prediction process, and the signal processing and control unit 11 determines whether or not the imaging unit 12 determines the timing detection result. The captured image may be captured.

次に、このように構成された実施の形態の動作について図2乃至図5を参照して説明する。図2は撮影の様子を示す説明図であり、図3はタッチレリーズを説明するための説明図であり、図4は構図自動設定モードを説明するための説明図である。また、図5はカメラ制御を説明するためのフローチャートである。   Next, the operation of the embodiment configured as described above will be described with reference to FIGS. FIG. 2 is an explanatory view showing a state of shooting, FIG. 3 is an explanatory view for explaining a touch release, and FIG. 4 is an explanatory view for explaining an automatic composition setting mode. FIG. 5 is a flowchart for explaining camera control.

本実施の形態における撮影機器1は、図2(a),(b)に示すように、本体部10の背面に表示部30が設けられている。ユーザ41は、例えば、本体部10を右手43で把持して、表示部30の表示画面31を見ながら被写体42を視野範囲に捉えた状態で、左手44で表示部30上のタッチパネル32をタッチすることで撮影を行う。なお、図2(b)は、ユーザ41が右手43aによるレリーズボタンの押下操作によって、被写体42を撮影する様子を示している。   As shown in FIGS. 2A and 2B, the photographing apparatus 1 in the present embodiment is provided with a display unit 30 on the back surface of the main body unit 10. For example, the user 41 holds the main body unit 10 with the right hand 43 and touches the touch panel 32 on the display unit 30 with the left hand 44 in a state where the subject 42 is captured in the field of view while viewing the display screen 31 of the display unit 30. To shoot. FIG. 2B shows a state where the user 41 captures an image of the subject 42 by pressing the release button with the right hand 43a.

撮影機器1の電源が投入されると、信号処理及び制御部11は、図5のステップS1で撮影モードが指示されたか否かを判定する。撮影モードが指示されていない場合には、信号処理及び制御部11は、ステップS2において、再生モードが指示されたか否かを判定する。再生モードが指示されると、信号処理及び制御部11は、ステップS3において選択画像の再生を行う。ユーザが再生画像の変更を指示すると、信号処理及び制御部11は、ステップS4から処理をステップS5に移行して画像の変更を行う。なお、信号処理及び制御部11は、ステップS2において再生モードが指定されていない場合には、ステップS6において撮影画像を送信する画像通信モードに移行する。   When the photographing apparatus 1 is turned on, the signal processing and control unit 11 determines whether or not the photographing mode is instructed in step S1 of FIG. If the shooting mode is not instructed, the signal processing and control unit 11 determines whether or not the playback mode is instructed in step S2. When the reproduction mode is instructed, the signal processing and control unit 11 reproduces the selected image in step S3. When the user instructs to change the reproduced image, the signal processing and control unit 11 shifts the process from step S4 to step S5 and changes the image. Note that if the playback mode is not designated in step S2, the signal processing and control unit 11 shifts to an image communication mode in which the captured image is transmitted in step S6.

一方、撮影モードが指示されると、信号処理及び制御部11は、ステップS11において、レンズ交換が行われたか否かを判定して、レンズ交換が行われた場合には、交換レンズ20の制御部23との間で通信を行ってレンズ情報を取得する(ステップS12)。次に、信号処理及び制御部11は、ステップS13において、スルー画の表示を開始する。   On the other hand, when the photographing mode is instructed, the signal processing and control unit 11 determines whether or not the lens has been replaced in step S11, and when the lens has been replaced, controls the interchangeable lens 20. The lens information is acquired by communicating with the unit 23 (step S12). Next, the signal processing and control unit 11 starts displaying a through image in step S13.

次のステップS14では、接眼判定が行われる。図2(b)に示すように、ユーザ41が接眼表示部17に近接させることで、本体部10に設けたアイセンサ35によってユーザの接眼が検出される。接眼時には、信号処理及び制御部11は、接眼表示部17の表示画面上にスルー画の表示を行う(ステップS15)。接眼時には、ユーザはレリーズボタンの押下操作によって撮影を行う。従って、接眼時には、タッチ・スライド操作検出部11bは、タッチパネル32を構図設定ライン設定のためのスライド検出用としてのみ用いる(ステップS16)。   In the next step S14, eyepiece determination is performed. As shown in FIG. 2B, when the user 41 is brought close to the eyepiece display unit 17, the eyepiece of the user is detected by the eye sensor 35 provided in the main body unit 10. At the time of eyepiece, the signal processing and control unit 11 displays a through image on the display screen of the eyepiece display unit 17 (step S15). At the time of eye contact, the user takes a picture by pressing the release button. Therefore, at the time of eye contact, the touch / slide operation detection unit 11b uses the touch panel 32 only for slide detection for composition setting line setting (step S16).

一方、ユーザが接眼していない場合には、表示制御部11aは、表示部30の表示画面31上にスルー画を表示する。次に、タッチ・スライド操作検出部11bは、ステップS22においてタッチ操作があったか否かを判定し、ステップS24においてスライド操作があったか否かを判定する。タッチ・スライド操作検出部11bによってタッチ操作があったことが検出されると、信号処理及び制御部11は、ステップS23において、タッチ点で合焦、露出制御を行って撮影を行う。   On the other hand, when the user does not have an eye, the display control unit 11 a displays a through image on the display screen 31 of the display unit 30. Next, the touch / slide operation detection unit 11b determines whether or not there is a touch operation in step S22, and determines whether or not there is a slide operation in step S24. When the touch / slide operation detection unit 11b detects that a touch operation has been performed, the signal processing and control unit 11 performs focusing and exposure control at the touch point in step S23 to perform shooting.

図3はタッチレリーズ操作時の、表示画面31上に表示されるスルー画51及びレックビュー画像52を示している。図3(a)には被写体42を含むスルー画51の表示中において、ユーザが左手44の人差し指44aによって被写体42の表示部分をタッチレリーズする操作を示している。これにより、図3(b)のレックビュー画像52に示す撮像画像が得られる。   FIG. 3 shows a through image 51 and a REC view image 52 displayed on the display screen 31 during the touch release operation. FIG. 3A shows an operation in which the user touch-releases the display portion of the subject 42 with the index finger 44 a of the left hand 44 while the through image 51 including the subject 42 is displayed. Thereby, the captured image shown in the REC view image 52 of FIG. 3B is obtained.

一方、ステップS17,S24において、タッチ・スライド操作検出部11bがスライド操作があったものと判定した場合には、ステップS25,S27において、構図設定ラインが設定される。図4は構図自動設定モード時の、表示画面31上に表示されるスルー画55及びレックビュー画像56を示している。図4(b)には被写体42を含むスルー画55の表示中において、ユーザが左手44の人差し指44aによって、構図設定ラインを設定するスライド操作を行ったことを示している。このスライド操作によって、表示制御部11aは、構図設定ラインの表示57を表示する。   On the other hand, if the touch / slide operation detection unit 11b determines in step S17 or S24 that a slide operation has been performed, a composition setting line is set in steps S25 or S27. FIG. 4 shows a through image 55 and a REC view image 56 displayed on the display screen 31 in the composition automatic setting mode. FIG. 4B shows that the user has performed a slide operation for setting a composition setting line with the index finger 44 a of the left hand 44 while the through image 55 including the subject 42 is being displayed. By this sliding operation, the display control unit 11a displays the composition setting line display 57.

構図自動設定モード時には、動体判定部11cによって撮影範囲内の動体が判定され、予測・撮影決定部11dは、動体が構図設定ラインに到達することを予測する(ステップS26,S28)。信号処理及び制御部11は、ユーザによる露出等のパラメータ設定の操作があった場合には、ステップS29からステップS30に処理を移行し、パラメータ設定を行う。信号処理及び制御部11は、動体である被写体が構図設定ラインに到達するタイミングになると(ステップS31)、撮像部12からの撮像画像を取り込んで画像処理した後、記録を行う(ステップS32)。これにより、図4(b)のレックビュー画像56に示す撮像画像が得られる。   In the composition automatic setting mode, the moving object determination unit 11c determines a moving object within the shooting range, and the prediction / shooting determination unit 11d predicts that the moving object reaches the composition setting line (steps S26 and S28). When there is an operation for setting parameters such as exposure by the user, the signal processing and control unit 11 shifts the processing from step S29 to step S30 and performs parameter setting. When it is time for the moving subject to reach the composition setting line (step S31), the signal processing and control unit 11 captures the captured image from the imaging unit 12, performs image processing, and performs recording (step S32). Thereby, the captured image shown in the REC view image 56 of FIG. 4B is obtained.

このように本実施の形態においては、画面上でスライド操作を行うという極めて簡単な操作によって、被写体を撮像する位置及びタイミングを決定するための構図設定ラインを設定することができる。この構図設定ラインに被写体が到達するタイミングで撮影を行うようになっており、動く被写体を確実に撮影可能である。このように、直感的で且つ簡単な操作により、撮像視野内を移動する被写体を所望の位置及びタイミングで確実に撮影することができる。   As described above, in this embodiment, a composition setting line for determining the position and timing at which a subject is imaged can be set by a very simple operation of performing a slide operation on the screen. Shooting is performed at the timing when the subject reaches the composition setting line, and a moving subject can be reliably shot. In this way, an object that moves within the imaging field of view can be reliably photographed at a desired position and timing by an intuitive and simple operation.

(第2の実施の形態)
図6は本発明の第2の実施の形態を示すブロック図である。図6において図1と同一の構成要素には同一符号を付して説明を省略する。また、図7及び図8は第2の実施の形態を説明するための説明図である。
(Second Embodiment)
FIG. 6 is a block diagram showing a second embodiment of the present invention. In FIG. 6, the same components as those in FIG. 7 and 8 are explanatory diagrams for explaining the second embodiment.

本実施の形態は、方向判定部11eを付加した点が図1の実施の形態と異なる。第1の実施の形態においては、構図設定ラインに到達する被写体の全てを撮影した。しかし、ユーザが撮影したい被写体以外の被写体が撮影されてしまう可能性がある。そこで、本実施の形態は、構図設定ラインの方向を判定し、この方向に対して所定の角度範囲で構図設定ラインに進入する被写体のみを撮影することで、誤撮影を防止するものである。   This embodiment is different from the embodiment of FIG. 1 in that a direction determination unit 11e is added. In the first embodiment, all the subjects that reach the composition setting line are photographed. However, there is a possibility that a subject other than the subject that the user wants to photograph is photographed. Therefore, in the present embodiment, the direction of the composition setting line is determined, and only a subject that enters the composition setting line within a predetermined angle range with respect to this direction is photographed to prevent erroneous photographing.

方向判定部11eは、タッチ・スライド操作検出部11bの検出結果が与えられて、構図設定ラインの方向を判定する。いま、図7に示すように、本体部61の背面に設けられた表示画面31上に、スルー画62が表示されているものとする。スルー画62は、徒競走のゴール近傍を撮像して得たものであり、人物60a,60bが持つゴールテープ64が表示されている。いま、ユーザがゴールテープ64に到達する被写体を撮像しようとするものとする。この場合には、ユーザは、例えば右手63の人差し指63aで表示画面31上のタッチパネル32を、ゴールテープ64に沿ってスライド操作する。タッチ・スライド操作検出部11bは、このスライド操作に基づく構図設定ラインを設定し、表示制御部11aは設定された構図設定ラインに基づく構図設定ライン表示65をスルー画62上に表示させる。例えば、タッチ・スライド操作検出部11bは、スライド操作の始点と終点とを結ぶ直線を構図設定ラインに設定し、始点と終点とを結ぶ直線の表示を構図設定ライン表示65としてもよい。   The direction determination unit 11e receives the detection result of the touch / slide operation detection unit 11b and determines the direction of the composition setting line. Now, as shown in FIG. 7, it is assumed that a through image 62 is displayed on the display screen 31 provided on the back surface of the main body 61. The through image 62 is obtained by capturing an image of the vicinity of the goal of the student race, and displays a goal tape 64 possessed by the persons 60a and 60b. Now, assume that the user tries to image a subject that reaches the goal tape 64. In this case, for example, the user slides the touch panel 32 on the display screen 31 along the goal tape 64 with the index finger 63 a of the right hand 63. The touch / slide operation detection unit 11 b sets a composition setting line based on the slide operation, and the display control unit 11 a displays a composition setting line display 65 based on the set composition setting line on the through image 62. For example, the touch / slide operation detection unit 11b may set a straight line connecting the start point and the end point of the slide operation as the composition setting line, and display the straight line connecting the start point and the end point as the composition setting line display 65.

方向判定部11eは、設定された構図設定ラインの方向を判定する。例えば、方向判定部11eは、図8に示すように、スライド操作の始点と終点である構図設定ラインの両端点の画面上の座標(x1,y1),(x2,y2)を求め、x1−x2=xSubとし、y1−y2=ySubとして、xSub>ySubの場合には構図設定ラインは水平方向であると判定し、xSub<ySubの場合には構図設定ラインは垂直方向であると判定してもよい。方向判定部11eは、構図設定ラインの方向に対して所定角度範囲の方向(以下、動体判定方向という)から構図設定ラインに進入した被写体のみを撮影の対象とし、動体判定部11c及び予測・撮影決定部11dを制御する。例えば、方向判定部11eは、構図設定ラインの方向に対し略垂直方向を動体判定方向とし、動体判定方向から構図設定ラインに進入した被写体を撮影の対象とするように制御を行う。   The direction determination unit 11e determines the direction of the set composition setting line. For example, as shown in FIG. 8, the direction determination unit 11e obtains coordinates (x1, y1), (x2, y2) on the screen of the end points of the composition setting line that are the start point and the end point of the slide operation, and x1− If x2 = xSub, y1-y2 = ySub, and xSub> ySub, it is determined that the composition setting line is in the horizontal direction, and if xSub <ySub, it is determined that the composition setting line is in the vertical direction. Also good. The direction determination unit 11e captures only a subject that has entered the composition setting line from a direction within a predetermined angle range with respect to the direction of the composition setting line (hereinafter referred to as a moving object determination direction). The determination unit 11d is controlled. For example, the direction determination unit 11e performs control such that a direction substantially perpendicular to the direction of the composition setting line is a moving object determination direction, and a subject that has entered the composition setting line from the moving object determination direction is an object to be photographed.

図9は構図設定ラインの方向が垂直方向の場合における動体判定方向の一例を示す説明図である。図9の構図設定ライン表示65の例は、xSub<ySubであり、構図設定ラインの方向は垂直方向である。この場合には、方向判定部11eの判定結果によって、動体判定部11cは、例えば図9の矢印66a,66b方向を動体判定方向として動体を検出する。そして、予測・撮影決定部11dは、図9の矢印66a,66bに示す動体判定方向から構図設定ラインに進入した被写体を撮影する。   FIG. 9 is an explanatory diagram illustrating an example of the moving object determination direction when the direction of the composition setting line is the vertical direction. An example of the composition setting line display 65 in FIG. 9 is xSub <ySub, and the direction of the composition setting line is the vertical direction. In this case, based on the determination result of the direction determination unit 11e, the moving body determination unit 11c detects the moving body using, for example, the directions of arrows 66a and 66b in FIG. 9 as the moving body determination direction. Then, the prediction / photographing determination unit 11d photographs the subject that has entered the composition setting line from the moving object determination direction indicated by the arrows 66a and 66b in FIG.

図10は動体判定方向が構図設定ラインの方向に対して略直交する場合の撮影を説明するための説明図である。図10は図7に対応したものであり、図10(a)に示すように、表示画面31上には、スルー画62が表示され、スルー画62上には、ユーザのスライド操作の軌跡に基づいて設定された構図設定ライン表示65が表示されている。上述したように、スルー画62は、徒競走のゴール近傍を撮像して得たものであり、例えば、ユーザがゴールテープ64に沿ってスライド操作を行うことで、構図設定ライン表示65にて示す構図設定ラインが設定される。   FIG. 10 is an explanatory diagram for explaining shooting when the moving object determination direction is substantially orthogonal to the direction of the composition setting line. FIG. 10 corresponds to FIG. 7. As shown in FIG. 10A, a through image 62 is displayed on the display screen 31, and on the through image 62, the locus of the user's slide operation is displayed. A composition setting line display 65 set based on the setting is displayed. As described above, the through image 62 is obtained by capturing an image of the vicinity of the goal of the student race. For example, when the user performs a slide operation along the goal tape 64, the composition setting line display 65 shows the composition. A setting line is set.

図10(a)はスルー画62の左端にユーザが撮影を希望する被写体の一部が撮像されて表示67aとして表示されていることを示している。ユーザは、視野範囲をゴール近傍に設定して、ゴールに向かって走っている被写体を撮影しようとしたものである。図10(a)の撮像時から所定時間経過後には、被写体は画像中の位置まで移動して表示67bとして表示されている(図10(b))。更に、被写体がゴールテープ64に到達すると、撮影が行われて、被写体は表示67cとして撮像画像中に表示される(図10(c))。   FIG. 10A shows that a part of the subject that the user wants to shoot is captured at the left end of the through image 62 and displayed as a display 67a. The user sets the visual field range in the vicinity of the goal and tries to photograph the subject running toward the goal. After a predetermined time has elapsed from the time of imaging in FIG. 10A, the subject moves to a position in the image and is displayed as a display 67b (FIG. 10B). Further, when the subject reaches the goal tape 64, photographing is performed, and the subject is displayed as a display 67c in the captured image (FIG. 10C).

図7乃至図10は動体判定方向が構図設定ラインの方向に対して略直交する場合の例を示した。更に、本実施の形態においては、動体判定方向を構図設定ラインの方向に略一致させる制御も可能である。   7 to 10 show examples in which the moving object determination direction is substantially orthogonal to the direction of the composition setting line. Furthermore, in the present embodiment, it is also possible to perform control so that the moving object determination direction substantially coincides with the direction of the composition setting line.

図11乃至図13はこの場合の例を示す説明図である。図11乃至図13は夫々図7、図8及び図10に対応したものであり、同一物には同一の符号を付して説明を省略する。   11 to 13 are explanatory diagrams showing an example of this case. 11 to 13 correspond to FIGS. 7, 8, and 10, respectively, and the same components are denoted by the same reference numerals and description thereof is omitted.

いま、ユーザがゴールテープ64に到達する被写体を撮像しようとするものとする。図11の例では、ユーザは、例えば右手63の人差し指63aで表示画面31上のタッチパネル32に触れて、撮像しようとする被写体が進む方向であって、ゴールテープ64を終点とするスライド操作を行う。タッチ・スライド操作検出部11bは、このスライド操作に基づく構図設定ラインを設定し、表示制御部11aは設定された構図設定ラインに基づく構図設定ライン表示71をスルー画62上に表示させる。例えば、タッチ・スライド操作検出部11bは、スライド操作の始点と終点とを結ぶ直線を構図設定ラインに設定し、始点と終点とを結ぶ直線の表示を構図設定ライン表示71とする。   Now, assume that the user tries to image a subject that reaches the goal tape 64. In the example of FIG. 11, the user touches the touch panel 32 on the display screen 31 with the index finger 63a of the right hand 63, for example, and performs a slide operation in the direction in which the subject to be imaged advances and the goal tape 64 is the end point. . The touch / slide operation detection unit 11 b sets a composition setting line based on the slide operation, and the display control unit 11 a displays a composition setting line display 71 based on the set composition setting line on the through image 62. For example, the touch / slide operation detection unit 11b sets a straight line connecting the start point and end point of the slide operation as the composition setting line, and displays the straight line connecting the start point and the end point as the composition setting line display 71.

方向判定部11eは、設定された構図設定ラインの方向を判定する。例えば、方向判定部11eは、図12に示すように、スライド操作の始点と終点である構図設定ラインの両端点の画面上の座標(x1,y1),(x2,y2)を求め、x1−x2=xSubとし、y1−y2=ySubとして、xSub>ySubの場合には構図設定ラインは水平方向であると判定し、xSub<ySubの場合には構図設定ラインは垂直方向であると判定してもよい。図11乃至図13の例では、方向判定部11eは、動体判定方向を構図設定ラインの方向に略一致した方向に設定する。これにより、構図設定ラインに略一致した動体判定方向から進入した被写体を撮影の対象とするように制御を行う。また、この場合には、予測・撮影決定部11dは、構図設定ラインの終点座標近傍に被写体が到達したことによって、撮像部12からの撮像画像を取り込んで撮影を行うようになっている。   The direction determination unit 11e determines the direction of the set composition setting line. For example, as shown in FIG. 12, the direction determination unit 11e obtains coordinates (x1, y1), (x2, y2) on the screen of both end points of the composition setting line that are the start point and the end point of the slide operation, and x1− If x2 = xSub, y1-y2 = ySub, and xSub> ySub, it is determined that the composition setting line is in the horizontal direction, and if xSub <ySub, it is determined that the composition setting line is in the vertical direction. Also good. In the example of FIGS. 11 to 13, the direction determination unit 11 e sets the moving body determination direction to a direction that substantially matches the direction of the composition setting line. As a result, control is performed so that the subject that has entered from the moving object determination direction substantially coincident with the composition setting line is set as the subject of photographing. Further, in this case, the prediction / photographing determination unit 11d captures a captured image from the image capturing unit 12 when the subject reaches the vicinity of the end point coordinates of the composition setting line.

図13は動体判定方向が構図設定ラインの方向に対して略一致する場合の撮影を説明するための説明図である。図13(a)に示すように、表示画面31上には、スルー画62が表示され、スルー画62上には、ユーザのスライド操作の軌跡に基づいて設定された構図設定ライン表示71が表示されている。上述したように、スルー画62は、徒競走のゴール近傍を撮像して得たものであり、例えば、ユーザが被写体の進入方向からゴールテープ64に向かってスライド操作を行うことで、構図設定ライン表示71にて示す構図設定ラインが設定される。   FIG. 13 is an explanatory diagram for explaining shooting when the moving object determination direction substantially matches the direction of the composition setting line. As shown in FIG. 13A, a through image 62 is displayed on the display screen 31, and a composition setting line display 71 set based on the locus of the user's slide operation is displayed on the through image 62. Has been. As described above, the through image 62 is obtained by imaging the vicinity of the goal of the student race. For example, when the user performs a sliding operation from the entry direction of the subject toward the goal tape 64, the composition setting line display is performed. A composition setting line indicated by 71 is set.

図13(a)はスルー画62の左端にユーザが撮影を希望する被写体の一部が撮像されて表示67aとして表示されていることを示している。ユーザは、視野範囲をゴール近傍に設定して、ゴールに向かって走っている被写体を撮影しようとしたものである。図13(a)の撮像時から所定時間経過後には、被写体は画像中の位置まで移動して表示67bとして表示されている(図13(b))。更に、被写体が構図設定ラインの終点71aの位置、即ち、ゴールライン64に到達すると、撮影が行われて、被写体は表示67cとして撮像画像中に表示される(図13(c))。   FIG. 13A shows that a part of the subject that the user wants to shoot is captured at the left end of the through image 62 and displayed as a display 67a. The user sets the visual field range in the vicinity of the goal and tries to photograph the subject running toward the goal. After a predetermined time has elapsed from the time of imaging in FIG. 13A, the subject moves to a position in the image and is displayed as a display 67b (FIG. 13B). Further, when the subject reaches the position of the end point 71a of the composition setting line, that is, the goal line 64, photographing is performed, and the subject is displayed as a display 67c in the captured image (FIG. 13C).

このように本実施の形態においては、方向判定部11eによって動体判定方向を求めており、ユーザが撮影しようとする被写体をより確実に撮影することができる。また、予測・撮影決定部11dは、動体判定方向に進行する被写体を追尾して構図設定ラインに到達するタイミングを推定する。予測・撮影決定部11dは、動体判定方向に進む被写体の速度を、例えば1フレーム当たりの動体判定方向の移動量から求めることができ、比較的容易に被写体が構図設定ラインに到達するタイミングを推定することができる。   As described above, in the present embodiment, the moving body determination direction is obtained by the direction determination unit 11e, and the subject that the user intends to capture can be captured more reliably. In addition, the prediction / photographing determination unit 11d estimates the timing of tracking the subject moving in the moving object determination direction and reaching the composition setting line. The prediction / photographing determination unit 11d can determine the speed of the subject moving in the moving object determination direction from, for example, the amount of movement in the moving object determination direction per frame, and can estimate the timing at which the subject reaches the composition setting line relatively easily. can do.

また、予測・撮影決定部11dは、動体判定方向に移動する被写体の速度が比較的速い場合には、撮像部12等を制御して、フレームレートを高くするようにしてもよい。例えば、1フレーム当たりに画面内(視野範囲)を何%移動するかに応じて、フレームレートを設定してもよい。これにより、被写体の速度が比較的速い場合でも、被写体が構図設定ラインに到達するタイミング近傍のタイミングで、被写体を撮像することが可能である。   In addition, when the speed of the subject moving in the moving object determination direction is relatively high, the prediction / photographing determination unit 11d may control the imaging unit 12 or the like to increase the frame rate. For example, the frame rate may be set according to what percentage the screen (viewing field range) moves per frame. Thereby, even when the speed of the subject is relatively high, the subject can be imaged at a timing near the timing at which the subject reaches the composition setting line.

なお、ユーザは構図設定ラインの設定のためのスライド操作を間違うことも考えられる。そこで、タッチ・スライド操作検出部11bは、ユーザがスライド操作の中止又は解除のための操作を行った場合には、これらの操作(以下、解除操作という)を検出して構図設定ラインの設定を中止又は取り消すようになっている。   Note that the user may mistake the slide operation for setting the composition setting line. Therefore, when the user performs an operation for canceling or canceling the slide operation, the touch / slide operation detection unit 11b detects these operations (hereinafter referred to as a release operation) and sets the composition setting line. Cancel or cancel.

図14は構図設定ラインの設定を解除するための操作の例を示す説明図である。図14(a)〜(c)は構図設定ラインの確定前の中止操作を示している。図14(a),(b)はユーザが最初の直線状のスライド操作に続けて、1つ以上の折れ線状のスライド操作を行った例を示している。表示制御部11aは、スライド操作の軌跡に沿って表示を行うようになっており、表示画面31上には、最初のスライド操作に基づく表示81aに続けて、1つ以上の折れ線状のスライド操作に基づく表示81bが表示されている。   FIG. 14 is an explanatory diagram illustrating an example of an operation for canceling the setting of the composition setting line. FIGS. 14A to 14C show a cancel operation before the composition setting line is confirmed. FIGS. 14A and 14B show an example in which the user performs one or more broken line-shaped slide operations following the initial linear slide operation. The display control unit 11a performs display along the locus of the slide operation. On the display screen 31, following the display 81a based on the first slide operation, one or more broken line-like slide operations are performed. A display 81b based on is displayed.

また、図14(c)は、ユーザが円形又は楕円形状のスライド操作を行ったことを示している。表示制御部11aによって、表示画面31上には、ユーザのスライド操作の軌跡に沿った表示82が表示されている。   FIG. 14C shows that the user has performed a circular or elliptical slide operation. A display 82 along the locus of the user's slide operation is displayed on the display screen 31 by the display control unit 11a.

このように、図14(a)乃至図14(c)は、ユーザが指をタッチパネル32から離間させることなく、連続的にスライド操作することによって、構図設定ラインの設定のためのスライド操作を解除する解除操作を示している。   As described above, FIGS. 14A to 14C cancel the slide operation for setting the composition setting line by continuously sliding the user without separating the finger from the touch panel 32. Indicates the release operation to be performed.

また、図14(d)は図7に対応する構図設定ラインの設定のためのスライド操作が行われた例を示している。このスライド操作に基づいて、構図設定ライン表示83aが表示される。これにより、一旦は構図設定ラインが設定される。ユーザはこの構図設定ラインを取り消すために、例えば、この構図設定ライン表示83aに略直交させるようにスライド操作を行う。この解除操作によって、タッチ・スライド操作検出部11bは、設定した構図設定ラインの設定を解除する。また、表示制御部11aは、解除のためのスライド操作に基づく表示83bを表示する。   FIG. 14D shows an example in which a slide operation for setting a composition setting line corresponding to FIG. 7 is performed. Based on this slide operation, a composition setting line display 83a is displayed. Thereby, a composition setting line is set once. In order to cancel the composition setting line, for example, the user performs a slide operation so as to be substantially orthogonal to the composition setting line display 83a. By this canceling operation, the touch / slide operation detecting unit 11b cancels the setting of the set composition setting line. Further, the display control unit 11a displays a display 83b based on a slide operation for release.

また、図14(e)は図11に対応する構図設定ラインの設定のためのスライド操作が行われた例を示している。このスライド操作に基づいて、構図設定ライン表示84aが表示される。これにより、一旦は構図設定ラインが設定される。ユーザはこの構図設定ラインを取り消すために、例えば、この構図設定ライン表示84aに略直交させるようにスライド操作を行う。この解除操作によって、タッチ・スライド操作検出部11bは、設定した構図設定ラインの設定を取り消す。また、表示制御部11aは、解除のためのスライド操作に基づく表示84bを表示する。   FIG. 14E shows an example in which a slide operation for setting a composition setting line corresponding to FIG. 11 is performed. Based on this sliding operation, a composition setting line display 84a is displayed. Thereby, a composition setting line is set once. In order to cancel the composition setting line, for example, the user performs a slide operation so as to be substantially orthogonal to the composition setting line display 84a. By this release operation, the touch / slide operation detection unit 11b cancels the setting of the set composition setting line. In addition, the display control unit 11a displays a display 84b based on a slide operation for release.

次に、このように構成された実施の形態の動作について図15及び図16を参照して説明する。   Next, the operation of the embodiment configured as described above will be described with reference to FIGS.

図15は操作部の操作によって手動で構図自動設定モードを設定する場合の動作フローを示し、図16はユーザのスライド操作に応答して自動的に構図自動設定モードが設定される場合の動作フローを示している。図15及び図16においては、図7乃至図10による構図設定ラインの設定方法をモードAとし、図11乃至図13による構図設定ラインの設定方法をモードBとして説明する。   FIG. 15 shows an operation flow when the composition automatic setting mode is manually set by operation of the operation unit, and FIG. 16 shows an operation flow when the composition automatic setting mode is automatically set in response to a user's slide operation. Is shown. 15 and FIG. 16, the setting method of the composition setting line according to FIGS. 7 to 10 will be described as mode A, and the setting method of the composition setting line according to FIGS. 11 to 13 will be described as mode B.

図15のステップS41,S42において、信号処理及び制御部11は、操作判定部15からの操作信号に基づいて、モードAが指定されたか否か、モードBが指定されたか否かを判定する。   In steps S41 and S42 of FIG. 15, the signal processing and control unit 11 determines whether mode A is specified or whether mode B is specified based on the operation signal from the operation determination unit 15.

信号処理及び制御部11は、ステップS51,S71において、表示制御部11aを制御して、構図設定ラインを設定するためのスライド操作を促すためのメッセージ表示を表示画面31に表示させる。なお、モードAにおいては、撮影する被写体が到達する位置において、被写体の進入方向に略直交する構図設定ラインを指定するように、メッセージ表示を行う。また、モードBにおいては、撮影する被写体が進入する位置から撮影位置に到達するまでの進入方向に略沿った構図設定ラインを指定するように、メッセージ表示を行う。   In steps S51 and S71, the signal processing and control unit 11 controls the display control unit 11a to display on the display screen 31 a message display for prompting a slide operation for setting a composition setting line. In mode A, a message is displayed so that a composition setting line that is substantially orthogonal to the approach direction of the subject is designated at the position where the subject to be photographed reaches. In mode B, a message is displayed so as to designate a composition setting line that is substantially along the approach direction from the position where the subject to be photographed enters until it reaches the photographing position.

ステップS52,72においては、タッチ・スライド操作検出部11bは、例えば図14に示す解除操作が行われた否かを検出する。解除操作が行われていない場合には、タッチ・スライド操作検出部11bは、ステップS53において、スライド操作が開始されたか否かを判定する。   In steps S52 and S72, the touch / slide operation detection unit 11b detects whether or not the release operation illustrated in FIG. 14 is performed, for example. If the release operation has not been performed, the touch / slide operation detection unit 11b determines whether or not the slide operation has been started in step S53.

タッチ・スライド操作検出部11bは、スライド操作の開始点を検出し、表示制御部11aは、この開始点からスライド操作に対応して構図設定ライン表示の表示を開始する(ステップS54,S74)。次に、タッチ・スライド操作検出部11bは、スライド操作が終了したか否かを判定する(ステップS55,S75)。タッチ・スライド操作検出部11bは、スライド操作の終了点を検出し、表示制御部11aは、このスライド操作に対応して構図設定ライン表示の終了点を決定する(ステップS56,S76)。   The touch / slide operation detection unit 11b detects the start point of the slide operation, and the display control unit 11a starts displaying the composition setting line display corresponding to the slide operation from the start point (steps S54 and S74). Next, the touch / slide operation detection unit 11b determines whether or not the slide operation has ended (steps S55 and S75). The touch / slide operation detection unit 11b detects the end point of the slide operation, and the display control unit 11a determines the end point of the composition setting line display corresponding to the slide operation (steps S56 and S76).

これにより、タッチ・スライド操作検出部11bは、構図設定ラインを設定し、方向判定部11eは、動体判定方向を決定する。即ち、モードAにおいては、方向判定部11eは、例えば、構図設定ラインに略直交する動体判定方向を決定し(ステップS77)、モードBにおいては、方向判定部11eは、例えば、構図設定ラインに略一致する方向の動体判定方向を決定する(ステップS57)。   Thereby, the touch / slide operation detection unit 11b sets a composition setting line, and the direction determination unit 11e determines a moving body determination direction. That is, in mode A, the direction determination unit 11e determines, for example, a moving body determination direction that is substantially orthogonal to the composition setting line (step S77). In mode B, the direction determination unit 11e displays, for example, the composition setting line. A moving body determination direction in a substantially coincident direction is determined (step S57).

動体判定部11cは、視野範囲内で動体判定方向に移動する被写体を判定する。ステップS58,S78においてタッチ・スライド操作検出部11bによって解除操作が検出されなければ、ステップS59,S79において動体判定部11cによって動体が検出されたか否かが判定される。動体判定部11cは、検出した動体を追尾し、解除操作がなければ(ステップS60,S80)、動体が構図設定ライン(モードA)又は終点(モードB)に到達したか否かが判定される(ステップS61,S81)。   The moving object determination unit 11c determines a subject that moves in the moving object determination direction within the visual field range. If a release operation is not detected by the touch / slide operation detection unit 11b in steps S58 and S78, it is determined whether or not a moving object is detected by the moving object determination unit 11c in steps S59 and S79. The moving object determination unit 11c tracks the detected moving object, and if there is no release operation (steps S60 and S80), it is determined whether the moving object has reached the composition setting line (mode A) or the end point (mode B). (Steps S61 and S81).

予測・撮影決定部11dは、Aモードにおいて動体が構図設定ラインに到達すると撮影を行い、Bモードにおいて動体が構図設定ラインの終点に到達すると撮影を行う。こうして、ユーザが簡単なスライド操作によって設定した構図設定ラインによって、動く被写体が所望の位置に到達した時点で確実に撮影を行うことができる。   The prediction / shooting determination unit 11d performs shooting when the moving object reaches the composition setting line in the A mode, and performs shooting when the moving object reaches the end point of the composition setting line in the B mode. In this way, it is possible to reliably perform shooting when the moving subject reaches a desired position by the composition setting line set by a simple slide operation by the user.

信号処理及び制御部11は、ステップS63,S83において、構図設定ラインの設定変更が発生した場合には、夫々処理をステップS51,S71に戻して、構図設定ラインの再設定を行う。また、信号処理及び制御部11は、ステップS64,S84において、モード変更の指示があるか否かを判定する。モード変更の指示が無い場合には、夫々ステップS59,S79に処理を戻し動体検出を繰り返す。   When the setting change of the composition setting line occurs in steps S63 and S83, the signal processing and control unit 11 returns the processing to steps S51 and S71 to reset the composition setting line. Further, the signal processing and control unit 11 determines whether or not there is a mode change instruction in steps S64 and S84. If there is no instruction to change the mode, the process is returned to steps S59 and S79, and the moving object detection is repeated.

従って、特に指定がなければ、動作判定方向から構図設定ライン又はその終点に到達する全ての被写体が順次撮影される。例えば、徒競走においてゴールライン上に構図設定ライン又はその終点を設定した場合には、ゴールラインに到達する被写体が順次静止画撮影されることになる。また、ユーザが明示的に動体判定する被写体を指定するようにしてもよい。また、ユーザが構図設定ライン又はその終点に到達するn番目の被写体のみを撮影するように指示することも可能である。また、ユーザのシャッターボタンの操作による撮影と構図自動設定モードにおける撮影との両方の撮影を許可するように構成しもよい。   Therefore, unless otherwise specified, all subjects that reach the composition setting line or its end point from the motion determination direction are sequentially photographed. For example, when a composition setting line or an end point thereof is set on the goal line in a self-running race, a subject that reaches the goal line is sequentially photographed as a still image. In addition, the user may specify a subject to be explicitly determined as a moving object. It is also possible for the user to instruct to shoot only the nth subject that reaches the composition setting line or its end point. Further, it may be configured to permit both photographing by the user's operation of the shutter button and photographing in the composition automatic setting mode.

また、本実施の形態においても、ユーザのタッチ・スライド操作によって、タッチレリーズ操作と構図自動設定モードのための操作とを区別することができる。図16のステップS91において、表示制御部11aは、表示画面31上にスルー画を表示する。タッチ・スライド操作検出部11bは、ステップS92において解除操作が発生したか否かを判定し、解除操作があった場合には通常撮影モードに移行する。   Also in the present embodiment, the touch release operation and the operation for the composition automatic setting mode can be distinguished by the user's touch / slide operation. In step S <b> 91 of FIG. 16, the display control unit 11 a displays a through image on the display screen 31. The touch / slide operation detection unit 11b determines whether or not a release operation has occurred in step S92. If there is a release operation, the touch / slide operation detection unit 11b shifts to the normal shooting mode.

解除操作がない場合には、タッチ・スライド操作検出部11bは、ステップS93においてタッチ検出を行う。ユーザがタッチパネル32に触れると、タッチ・スライド操作検出部11bはタッチを検出し、ステップS94においてユーザが触れた位置が画面の周辺部であるか否かを判定する。タッチレリーズ操作時にタッチする注目被写体は、通常画面の中央部側に位置しており、タッチレリーズ操作時にはユーザは画面周辺部以外の部分をタッチする可能性が高い。そこで、タッチ・スライド操作検出部11bは、ユーザが画面周辺部以外をタッチした場合には、タッチレリーズ操作が発生したものと判定し、ステップS95においてタッチレリーズを行う。   If there is no release operation, the touch / slide operation detection unit 11b performs touch detection in step S93. When the user touches the touch panel 32, the touch / slide operation detection unit 11b detects the touch, and determines in step S94 whether the position touched by the user is a peripheral part of the screen. The subject of interest to be touched during the touch release operation is normally positioned on the center side of the screen, and the user is likely to touch a portion other than the peripheral portion of the screen during the touch release operation. Accordingly, the touch / slide operation detection unit 11b determines that a touch release operation has occurred when the user touches a portion other than the periphery of the screen, and performs a touch release in step S95.

ユーザが画面周辺部をタッチした場合には、タッチ・スライド操作検出部11bは、ユーザがタッチを離した位置が、タッチを開始した位置と異なる位置であって画面の周辺部であるか否かを判定する(ステップS96)。Bモードでは、ユーザが被写体を撮影したい位置は、通常画面の中央側に位置すると考えられることから、Bモードにおいて構図設定ラインを設定するためのスライド操作の終点位置は、画面周辺部以外の部分になると考えられる。そこで、タッチ・スライド操作検出部11bは、ユーザが画面の周辺部においてスライドを終了させた場合にはAモードを設定し(ステップS97)、周辺部以外の位置においてスライドを終了させた場合にはBモードを設定し(ステップS97)た後、撮影を行う(ステップS99)。こうして、タッチパネル32のタッチ及びスライド操作によって、タッチレリーズ操作と構図設定ラインを設定するためのスライド操作とを区別することが可能である。   When the user touches the periphery of the screen, the touch / slide operation detection unit 11b determines whether the position where the user releases the touch is different from the position where the touch is started and is the periphery of the screen. Is determined (step S96). In the B mode, it is considered that the position where the user wants to shoot the subject is normally located on the center side of the screen. It is thought that it becomes. Therefore, the touch / slide operation detection unit 11b sets the A mode when the user ends the slide at the periphery of the screen (step S97), and when the user ends the slide at a position other than the periphery. After setting the B mode (step S97), shooting is performed (step S99). In this way, it is possible to distinguish between a touch release operation and a slide operation for setting a composition setting line by touching and sliding on the touch panel 32.

このように本実施の形態においては、第1の実施の形態と同様の効果が得られると共に、動体判定する被写体の移動方向を決定するようになっており、希望しない被写体が撮影される誤撮影を防止することができる。また、動体判定する被写体の移動方向が決定されるので、被写体が構図設定ライン又はその終点に到達するタイミングの予測が容易となり、ユーザがスライド操作によって指定した位置での撮影がより正確に行われる。   As described above, in the present embodiment, the same effect as in the first embodiment can be obtained, and the moving direction of the subject to be determined as a moving object is determined, and erroneous shooting in which an undesired subject is photographed is determined. Can be prevented. In addition, since the moving direction of the subject for moving object determination is determined, it is easy to predict the timing at which the subject reaches the composition setting line or its end point, and shooting at the position specified by the user by the slide operation is performed more accurately. .

また、本実施の形態においては、撮影対象とする被写体の移動方向を規定することができるので、動き予測が付きにくい動物等の撮影にも有効である。例えば、水面やその近くに構図設定ラインを設定することで、水面に辿り着く鳥の様子や、水辺から飛び立つ鳥の様子を撮影することもできる。また、移動方向を特定しているので移動速度の算出が容易であり、高速で移動する物体に合わせてフレームレートを変更することができ、高速で移動する物体の撮影にも有効である。   Further, in the present embodiment, the moving direction of the subject to be photographed can be defined, which is effective for photographing animals and the like that are difficult to predict motion. For example, by setting a composition setting line at or near the surface of the water, it is possible to photograph a bird that reaches the water surface or a bird that flies off the water. In addition, since the moving direction is specified, it is easy to calculate the moving speed, the frame rate can be changed according to the object moving at high speed, and it is effective for photographing the object moving at high speed.

また、図11乃至図13の例では、構図設定ラインに略一致する方向を動体判定方向とし、動体判定方向から構図設定ラインの終点近傍に到達する被写体を追尾して撮影するものとしたが、構図設定ライン近傍のコースを移動する物体のみを撮影対象の被写体としてもよい。この場合には、構図設定ラインによって特定するコースを移動する被写体のみを撮影することができる。   In the examples of FIGS. 11 to 13, the direction that approximately matches the composition setting line is set as the moving object determination direction, and the subject that reaches the end point of the composition setting line from the moving object determination direction is tracked and photographed. Only an object moving on a course in the vicinity of the composition setting line may be set as a subject to be imaged. In this case, only the subject moving on the course specified by the composition setting line can be photographed.

また、構図設定ラインが直線状である例について説明したが、曲線状であってもよい。   Moreover, although the example in which the composition setting line is linear has been described, it may be curved.

さらに、本発明の各実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話やスマートフォンなど携帯情報端末(PDA:Personal Digital Assist)等に内蔵されるカメラでも勿論構わない。   Furthermore, in each embodiment of the present invention, a digital camera has been described as an apparatus for photographing. However, the camera may be a digital single lens reflex camera or a compact digital camera, such as a video camera or a movie camera. A camera for moving images may be used, and a camera built in a personal digital assistant (PDA) such as a mobile phone or a smartphone may of course be used.

本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

なお、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、これらの動作フローを構成する各ステップは、発明の本質に影響しない部分については、適宜省略も可能であることは言うまでもない。   It should be noted that even if the operation flow in the claims, the description, and the drawings is described using “first,” “next,” etc. for convenience, it is essential to carry out in this order. It doesn't mean. In addition, it goes without saying that the steps constituting these operation flows can be omitted as appropriate for portions that do not affect the essence of the invention.

1…撮影機器、10…本体部、11…信号処理及び制御部、11a…表示制御部、11b…タッチ・スライド操作検出部、11c…動体判定部、11d…予測・撮影決定部、12…撮像部、14…時計部、15…操作判定部、16…記録部、17…接眼表示部、20…交換レンズ、30…表示部、31…表示画面、32…タッチパネル。     DESCRIPTION OF SYMBOLS 1 ... Imaging device, 10 ... Main-body part, 11 ... Signal processing and control part, 11a ... Display control part, 11b ... Touch / slide operation detection part, 11c ... Moving body determination part, 11d ... Prediction / shooting determination part, 12 ... Imaging Reference numeral 14 ... Clock part 15 ... Operation determination part 16 ... Recording part 17 ... Eyepiece display part 20 ... Interchangeable lens 30 ... Display part 31 ... Display screen 32 ... Touch panel

Claims (7)

被写体を撮像する撮像部と、
上記撮像部で撮像して得た撮像画像に基づく表示を行う表示制御部と、
上記表示制御部によって表示された撮像画像に対応するスライド操作を受け付けるタッチパネルと、
上記撮像画像中の被写体を判定する被写体判定部と、
上記スライド操作に従って、上記撮像画像中を移動してくる被写体の撮影タイミングを決定する制御部と
を具備したことを特徴する撮影機器。
An imaging unit for imaging a subject;
A display control unit for performing display based on a captured image obtained by imaging with the imaging unit;
A touch panel that accepts a slide operation corresponding to the captured image displayed by the display control unit;
A subject determination unit for determining a subject in the captured image;
An imaging device comprising: a control unit that determines an imaging timing of a subject moving in the captured image according to the slide operation.
上記タッチパネルは、上記撮像画像を表示する表示部上に配設される
ことを特徴する請求項1に記載の撮影機器。
The photographing device according to claim 1, wherein the touch panel is disposed on a display unit that displays the captured image.
上記制御部は、上記被写体が上記スライド操作に対応する上記撮像画像中の位置に到達するタイミングを上記撮影タイミングとする
ことを特徴する請求項1又は2に記載の撮影機器。
The photographing apparatus according to claim 1, wherein the control unit sets the timing at which the subject reaches a position in the captured image corresponding to the slide operation as the photographing timing.
上記制御部は、上記被写体が上記スライド操作に対応する上記撮像画像中の位置に到達するタイミングを予測して上記撮影タイミングを得る
ことを特徴する請求項1又は2に記載の撮影機器。
The imaging device according to claim 1, wherein the control unit obtains the imaging timing by predicting a timing at which the subject reaches a position in the captured image corresponding to the slide operation.
上記制御部は、上記スライド操作の操作方向に基づく動体判定方向に移動する上記被写体を撮影する
ことを特徴する請求項1乃至4のいずれか1つに記載の撮影機器。
The photographing apparatus according to claim 1, wherein the control unit photographs the subject moving in a moving body determination direction based on an operation direction of the slide operation.
上記制御部は、上記タッチパネルに対するタッチ操作によって撮影を行う
ことを特徴する請求項1乃至5のいずれか1つに記載の撮影機器。
The photographing apparatus according to claim 1, wherein the control unit performs photographing by a touch operation on the touch panel.
上記制御部は、上記タッチパネルに触れた位置に応じて撮影操作であるか又は上記スライド操作であるかを判定する
ことを特徴する請求項6に記載の撮影機器。
The imaging device according to claim 6, wherein the control unit determines whether the operation is an imaging operation or the sliding operation according to a position touched by the touch panel.
JP2012145927A 2012-06-28 2012-06-28 Photography equipment Expired - Fee Related JP6045223B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012145927A JP6045223B2 (en) 2012-06-28 2012-06-28 Photography equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012145927A JP6045223B2 (en) 2012-06-28 2012-06-28 Photography equipment

Publications (3)

Publication Number Publication Date
JP2014011578A true JP2014011578A (en) 2014-01-20
JP2014011578A5 JP2014011578A5 (en) 2015-07-02
JP6045223B2 JP6045223B2 (en) 2016-12-14

Family

ID=50107907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012145927A Expired - Fee Related JP6045223B2 (en) 2012-06-28 2012-06-28 Photography equipment

Country Status (1)

Country Link
JP (1) JP6045223B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019058691A1 (en) * 2017-09-20 2019-03-28 富士フイルム株式会社 Imaging control device, imaging device, imaging control method, and imaging control program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336353A (en) * 2006-06-16 2007-12-27 Canon Inc Information processor
JP2009200713A (en) * 2008-02-20 2009-09-03 Sony Corp Image processing device, image processing method, and program
JP2012027347A (en) * 2010-07-27 2012-02-09 Sharp Corp Imaging apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336353A (en) * 2006-06-16 2007-12-27 Canon Inc Information processor
JP2009200713A (en) * 2008-02-20 2009-09-03 Sony Corp Image processing device, image processing method, and program
JP2012027347A (en) * 2010-07-27 2012-02-09 Sharp Corp Imaging apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019058691A1 (en) * 2017-09-20 2019-03-28 富士フイルム株式会社 Imaging control device, imaging device, imaging control method, and imaging control program
JPWO2019058691A1 (en) * 2017-09-20 2020-10-08 富士フイルム株式会社 Imaging control device, imaging device, imaging control method, and imaging control program
US11095845B2 (en) 2017-09-20 2021-08-17 Fujifilm Corporation Imaging control device, imaging apparatus, imaging control method, and imaging control program

Also Published As

Publication number Publication date
JP6045223B2 (en) 2016-12-14

Similar Documents

Publication Publication Date Title
JP4884417B2 (en) Portable electronic device and control method thereof
US8976270B2 (en) Imaging device and imaging device control method capable of taking pictures rapidly with an intuitive operation
JP5936183B2 (en) Photography equipment
JPWO2006038577A1 (en) Electronic apparatus having a projector device
JP2006140695A (en) Imaging apparatus
JP2013157724A (en) Imaging apparatus
TW201023633A (en) An image capturing device for automatically position indicating and the automatic position indicating method thereof
KR20100027700A (en) Photographing method and apparatus
JP2014038195A (en) Photographing equipment
JP2013009189A (en) Imaging device and imaging method
JP6512961B2 (en) Imaging control apparatus, control method therefor, program, and storage medium
JP6263740B2 (en) Imaging device
JP2013117650A (en) Digital camera
JP2014107750A (en) Photographing apparatus
JP2010041365A (en) Imaging apparatus
JP2005198068A (en) Image pickup device capable of easily and quickly recording still picture during photographing of animation
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2014053863A (en) Photographing apparatus
JP6045223B2 (en) Photography equipment
JP2009147853A (en) Photographing device and photographing method
JP2018037807A (en) Imaging apparatus, control method, program, and storage medium
CN112040095A (en) Electronic device, control method of electronic device, and storage medium
WO2006011492A1 (en) Portable telephone and autofucusing method
JP2012027302A (en) Imaging apparatus with projection function
JP2008178031A (en) Imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150416

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161115

R151 Written notification of patent or utility model registration

Ref document number: 6045223

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees