JP6365748B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP6365748B2
JP6365748B2 JP2017158413A JP2017158413A JP6365748B2 JP 6365748 B2 JP6365748 B2 JP 6365748B2 JP 2017158413 A JP2017158413 A JP 2017158413A JP 2017158413 A JP2017158413 A JP 2017158413A JP 6365748 B2 JP6365748 B2 JP 6365748B2
Authority
JP
Japan
Prior art keywords
distance
subject
shooting
cpu
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017158413A
Other languages
Japanese (ja)
Other versions
JP2018007262A (en
Inventor
顕之 利根川
顕之 利根川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2017158413A priority Critical patent/JP6365748B2/en
Publication of JP2018007262A publication Critical patent/JP2018007262A/en
Application granted granted Critical
Publication of JP6365748B2 publication Critical patent/JP6365748B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

被写体距離を予め設定し、その被写体距離に被写体が位置したときに自動的に撮影動作を開始する撮像装置が知られている(例えば、特許文献1)。   An imaging apparatus is known in which a subject distance is set in advance and a photographing operation is automatically started when the subject is located at the subject distance (for example, Patent Document 1).

実公昭64−4095号公報Japanese Utility Model Publication No. 64-4095

自動撮影を開始する距離を予め設定する方法ではカメラが移動する場合などにおいて、被写体が意図した位置にいるタイミングに合わせて撮影を行うことは困難であった。   In the method of setting the distance for starting automatic shooting in advance, it is difficult to perform shooting in accordance with the timing at which the subject is at the intended position when the camera moves.

撮像装置は、移動する被写体を選択する選択部と、前記選択部により選択された被写体を追尾する追尾部と、第1の位置を設定する位置設定部と、前記被写体までの距離と前記第1の位置までの距離とをそれぞれ複数回測距する測距部と、前記被写体までの距離が、前記第1の位置までの距離に到達したとき、撮影動作を開始する制御を行う制御部と、を備える。 The imaging apparatus includes a selection unit that selects a moving subject, a tracking unit that tracks the subject selected by the selection unit, a position setting unit that sets a first position, a distance to the subject, and the first A distance measuring unit that measures the distance to the position a plurality of times, a control unit that performs control to start a shooting operation when the distance to the subject reaches the distance to the first position ; Is provided.

本発明によれば、被写体が意図した位置にいるタイミングで適切に撮影できる。   According to the present invention, it is possible to appropriately shoot at the timing when the subject is at the intended position.

本発明の第1の実施の形態による撮像装置のブロック構成図である。It is a block block diagram of the imaging device by the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像装置の自動撮影モードの動作について説明するための図である。It is a figure for demonstrating operation | movement of the automatic imaging | photography mode of the imaging device in the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像装置の自動撮影モードの動作に関するフローチャートである。3 is a flowchart relating to an operation in an automatic shooting mode of the imaging apparatus according to the first embodiment of the present invention. 本発明の第2の実施の形態における撮像装置の自動撮影モードの動作について説明するための図である。It is a figure for demonstrating operation | movement of the automatic imaging | photography mode of the imaging device in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における撮像装置の自動撮影モードの動作に関するフローチャートである。It is a flowchart regarding operation | movement of the automatic imaging | photography mode of the imaging device in the 2nd Embodiment of this invention. 本発明の第3の実施の形態における撮像装置の自動撮影モードの動作について説明するための図である。It is a figure for demonstrating operation | movement of the automatic imaging | photography mode of the imaging device in the 3rd Embodiment of this invention. 本発明の第3の実施の形態における撮像装置の自動撮影モードの動作に関するフローチャートである。It is a flowchart regarding operation | movement of the automatic imaging | photography mode of the imaging device in the 3rd Embodiment of this invention. 本発明の第4の実施の形態における撮像装置の自動撮影モードの動作について説明するための図である。It is a figure for demonstrating operation | movement of the automatic imaging | photography mode of the imaging device in the 4th Embodiment of this invention. 本発明の第4の実施の形態における撮像装置の自動撮影モードの動作に関するフローチャートである。It is a flowchart regarding operation | movement of the automatic imaging | photography mode of the imaging device in the 4th Embodiment of this invention.

(第1の実施の形態)
図1は、本発明の第1の実施の形態による撮像装置のブロック構成図である。図1に例示された撮像装置はデジタルカメラ100(以降、カメラ100と略記する)である。カメラ100は、撮影モードと再生モードと自動撮影モードとを有する。
(First embodiment)
FIG. 1 is a block diagram of an imaging apparatus according to the first embodiment of the present invention. The imaging device illustrated in FIG. 1 is a digital camera 100 (hereinafter abbreviated as camera 100). The camera 100 has a shooting mode, a playback mode, and an automatic shooting mode.

カメラ100の撮影レンズ11を透過した被写体光束は、撮像素子12で撮像され、その撮像信号は画像処理部13に入力される。画像処理部13を構成する画像処理回路13aは、入力された撮像信号に種々の処理を施して画像データを生成する。画像データは、表示回路13bによる処理を経て液晶モニタ14に画像として表示される。液晶モニタ14は、例えばカメラの背面に設けられる。   The subject light flux that has passed through the photographing lens 11 of the camera 100 is picked up by the image pickup device 12, and the image pickup signal is input to the image processing unit 13. The image processing circuit 13a constituting the image processing unit 13 performs various processes on the input imaging signal to generate image data. The image data is displayed as an image on the liquid crystal monitor 14 through processing by the display circuit 13b. The liquid crystal monitor 14 is provided on the back surface of the camera, for example.

カメラ100が撮影モードに設定されているときは、上記撮像(表示のための撮影)が繰り返され、その都度得られる画像データに基づく画像が液晶モニタ14に逐次更新表示される。この逐次更新表示は、ライブビュー表示またはスルー画表示と呼ばれる。撮影者は、ライブビュー表示により表示される画像を見ながら構図を決定する。   When the camera 100 is set to the shooting mode, the above imaging (shooting for display) is repeated, and images based on the image data obtained each time are sequentially updated and displayed on the liquid crystal monitor 14. This sequential update display is called live view display or live view display. The photographer determines the composition while viewing the image displayed by the live view display.

ライブビュー表示が行われているときに撮影者が操作部17を用いてレリーズ操作を行うと、改めて撮像(記録のための撮影)が行われる。その撮像によって生成された画像データは、コンピュータで扱うことが可能な画像ファイルとして、記録/再生回路13cによりメモリカード等の記録媒体15へ記録される。なお、カメラ100は、静止画像撮影、連写撮影、動画像撮影を行うことができる。   When the photographer performs a release operation using the operation unit 17 while the live view display is performed, imaging (shooting for recording) is performed again. The image data generated by the imaging is recorded on the recording medium 15 such as a memory card by the recording / reproducing circuit 13c as an image file that can be handled by a computer. The camera 100 can perform still image shooting, continuous shooting, and moving image shooting.

カメラ100が再生モードに設定されているときは、記録媒体15に記録された画像データ(静止画像、動画像)が記録/再生回路13cにより読み出される。そして、その画像データは、画像処理回路13aおよび表示回路13bを経て、液晶モニタ14に画像として表示される。   When the camera 100 is set to the reproduction mode, the image data (still image, moving image) recorded on the recording medium 15 is read by the recording / reproducing circuit 13c. The image data is displayed as an image on the liquid crystal monitor 14 through the image processing circuit 13a and the display circuit 13b.

CPU16は、操作部17からの入力に応答して、画像処理部13やAF駆動回路18、その他の不図示の回路を制御し、上述したライブビュー表示、撮影(撮像)、再生等の種々の動作を行う。また、CPU16は、位相差検出方式による焦点検出処理を実行して、AF駆動回路18へ光学系の駆動に関する指示を行う。AF駆動回路18は、CPU16からの指示に応じてAFモータ19を駆動し、撮影レンズ11の焦点調節を行う。さらに、CPU16は、撮影者が指定した被写体を追尾するターゲット追尾処理を実行する。   In response to the input from the operation unit 17, the CPU 16 controls the image processing unit 13, the AF drive circuit 18, and other circuits (not shown), and performs various operations such as the above-described live view display, shooting (imaging), and reproduction. Perform the action. Further, the CPU 16 executes focus detection processing by a phase difference detection method, and instructs the AF drive circuit 18 regarding driving of the optical system. The AF driving circuit 18 drives the AF motor 19 in accordance with an instruction from the CPU 16 to adjust the focus of the photographing lens 11. Further, the CPU 16 executes target tracking processing for tracking the subject designated by the photographer.

操作部17は、レリーズボタン、録画ボタン、電源ボタン、液晶モニタ14上に配置されたタッチパネル、その他の複数の操作部材を含む。   The operation unit 17 includes a release button, a recording button, a power button, a touch panel disposed on the liquid crystal monitor 14, and a plurality of other operation members.

カメラ100の自動撮影モードについて説明する。カメラ100が自動撮影モードに設定されているとき、撮影者は、ライブビュー画面(撮影画面)の中から被写体を指定する。この被写体がターゲット追尾処理による追尾対象となる。さらに撮影者は、実空間上の位置を指定するため、ライブビュー画面の中からその位置にある物体を指定する。カメラ100は、その物体を用いて指定された実空間上の位置に被写体が達したとき、CPU16の制御により自動的に記録のための撮影動作を開始する。   The automatic shooting mode of the camera 100 will be described. When the camera 100 is set to the automatic shooting mode, the photographer designates a subject from the live view screen (shooting screen). This subject is a tracking target by the target tracking process. Further, the photographer designates an object at the position from the live view screen in order to designate a position in the real space. When the subject reaches the position in the real space designated by using the object, the camera 100 automatically starts a shooting operation for recording under the control of the CPU 16.

図2(a)および(b)を用いてカメラ100の自動撮影モードについて説明する。図2(a)および(b)には、カメラ100と被写体Xと物体Yが図示されている。図2(a)および(b)の例では、被写体Xは陸上選手であり、物体Yはハードルである。被写体Xは物体Yに向けて走っている。カメラ100は、物体Yを挟んで被写体Xの反対側に設置されており、被写体Xを撮影するため撮影レンズ11(図2では不図示)が被写体Xに向けられている。   The automatic shooting mode of the camera 100 will be described with reference to FIGS. 2 (a) and 2 (b). 2A and 2B show the camera 100, the subject X, and the object Y. In the example of FIGS. 2A and 2B, the subject X is a track and field athlete and the object Y is a hurdle. The subject X is running toward the object Y. The camera 100 is installed on the opposite side of the subject X across the object Y, and a photographing lens 11 (not shown in FIG. 2) is directed toward the subject X in order to photograph the subject X.

カメラ100の液晶モニタ14(図2では不図示)には、ライブビュー画面が表示されており、そのライブビュー画面には被写体Xと物体Yとが含まれている。撮影者は、そのライブビュー画面の中から被写体Xと物体Yを選択している。   A live view screen is displayed on the liquid crystal monitor 14 (not shown in FIG. 2) of the camera 100, and the live view screen includes a subject X and an object Y. The photographer has selected the subject X and the object Y from the live view screen.

被写体Xの位置と物体Yの位置Pは、焦点検出処理により繰り返し測距される。また、被写体Xは、ターゲット追尾処理により追尾される。カメラ100は、図2(b)のように被写体Xが物体Yの位置Pに到達したときに静止画撮影の撮影動作を開始する。   The position of the subject X and the position P of the object Y are repeatedly measured by focus detection processing. The subject X is tracked by the target tracking process. The camera 100 starts the still image shooting operation when the subject X reaches the position P of the object Y as shown in FIG.

カメラ100が物体Yを繰り返し測距しているため、撮影者がカメラ100を光軸方向に動かす場合や物体Yがカメラ100の画角内で移動した場合などでも、カメラ100は適切なタイミングで撮影動作を開始することができる。   Since the camera 100 repeatedly measures the distance of the object Y, even when the photographer moves the camera 100 in the optical axis direction or when the object Y moves within the angle of view of the camera 100, the camera 100 is at an appropriate timing. The shooting operation can be started.

図3は、自動撮影モードにおけるカメラ100の動作に関するフローチャートである。図3に示される処理は、CPU16によって実行される。ステップS1000では、CPU16は、カメラ100から物体Yまでの距離L(図2)を測距する。測距した距離Lは、RAMなどに一時的に記録される。 FIG. 3 is a flowchart regarding the operation of the camera 100 in the automatic shooting mode. The process shown in FIG. 3 is executed by the CPU 16. In step S1000, the CPU 16 measures the distance L Y (FIG. 2) from the camera 100 to the object Y. The measured distance L Y is temporarily recorded in a RAM or the like.

ステップS1001では、CPU16は、被写体Xまでの距離Lを測距する。ステップS1002では、CPU16は、ターゲット追尾処理により被写体Xを追尾する。ステップS1003では、CPU16は、被写体Xが物体Yの位置Pに到達したか否かを判定する。すなわち、被写体Xまでの距離Lと物体Yまでの距離Lとが一致したか否かを判定する。CPU16は、ステップS1003が肯定判定された場合はステップS1004に処理を進め、ステップS1003が否定判定された場合はステップS1000に処理を進める。ステップS1004では、CPU16は、静止画撮影の撮影動作を開始する。 In step S1001, CPU 16 is ranging the distance L X to the object X. In step S1002, the CPU 16 tracks the subject X by target tracking processing. In step S1003, the CPU 16 determines whether or not the subject X has reached the position P of the object Y. That is, it is determined whether the distance L Y Distance to L X and the object Y to the subject X matches. If the determination in step S1003 is affirmative, the CPU 16 proceeds to step S1004, and if the determination in step S1003 is negative, the CPU 16 proceeds to step S1000. In step S1004, the CPU 16 starts a still image shooting operation.

(第2の実施の形態)
本発明による第2の実施の形態について説明する。第2の実施の形態では、自動撮影モードにおけるカメラ100の動作内容が異なっている。なお、自動撮影モードの動作内容以外については、第1の実施の形態と同様のため、説明を省略する。
(Second Embodiment)
A second embodiment according to the present invention will be described. In the second embodiment, the operation content of the camera 100 in the automatic shooting mode is different. Other than the operation content of the automatic shooting mode, the description is omitted because it is the same as that of the first embodiment.

図4を用いて第2の実施の形態における自動撮影モードの動作内容について説明する。図4には、図2と同様にカメラ100と被写体Xとが図示されており、図2の物体Yの代わりに物体Y1およびY2が図示されている。図4の例では、物体Y1およびY2は、図2の物体Yと同様にハードルである。物体Y2の位置P2は、物体Y1の位置P1より被写体Xから遠く離れている。   The operation content of the automatic shooting mode in the second embodiment will be described with reference to FIG. 4 shows the camera 100 and the subject X as in FIG. 2, and objects Y1 and Y2 are shown instead of the object Y in FIG. In the example of FIG. 4, the objects Y1 and Y2 are hurdles like the object Y of FIG. The position P2 of the object Y2 is farther from the subject X than the position P1 of the object Y1.

カメラ100の液晶モニタ14(図4では不図示)には、ライブビュー画面が表示されており、そのライブビュー画面には被写体Xと物体Y1と物体Y2が含まれる。撮影者は、そのライブビュー画面から被写体Xと物体Y1と物体Y2を選択している。   A live view screen is displayed on the liquid crystal monitor 14 (not shown in FIG. 4) of the camera 100, and the live view screen includes a subject X, an object Y1, and an object Y2. The photographer has selected subject X, object Y1, and object Y2 from the live view screen.

被写体Xの位置と物体Y1の位置P1と物体Y2の位置P2は、焦点検出処理により繰り返し測距される。カメラ100は、被写体Xが物体Y1の位置P1に到達したとき連写撮影または動画撮影を開始し、被写体Xが物体Y2の位置P2に到達したとき連写撮影または動画撮影を終了する。   The position of the subject X, the position P1 of the object Y1, and the position P2 of the object Y2 are repeatedly measured by the focus detection process. The camera 100 starts continuous shooting or moving image shooting when the subject X reaches the position P1 of the object Y1, and ends continuous shooting or moving image shooting when the subject X reaches the position P2 of the object Y2.

図5は、第2の実施の形態における自動撮影モードの動作内容に関するフローチャートである。図5に示される処理は、CPU16によって実行される。なお、図3と同様の処理には、図3と同一の符号を付して、その処理の説明を省略する。   FIG. 5 is a flowchart relating to the operation content of the automatic shooting mode according to the second embodiment. The process shown in FIG. 5 is executed by the CPU 16. Note that the same processes as those in FIG. 3 are denoted by the same reference numerals as those in FIG.

ステップS2000では、CPU16は、カメラ100から物体Y1およびY2までの距離LY1(図4)および距離LY2(図4)を測距する。測距した距離LY1および距離LY2は、RAMなどに一時的に記録される。 In step S2000, the CPU 16 measures the distance L Y1 (FIG. 4) and the distance L Y2 (FIG. 4) from the camera 100 to the objects Y1 and Y2. The measured distance L Y1 and distance L Y2 are temporarily recorded in a RAM or the like.

ステップS2003では、CPU16は、被写体Xが物体Y1の位置P1に到達したか否かを判定する。CPU16は、ステップS2003が肯定判定された場合はステップS2004に処理を進め、ステップS2003が否定判定された場合はステップS2005に処理を進める。ステップS2004では、CPU16は、静止画像の連写撮影または動画撮影の撮影動作を開始する。   In step S2003, the CPU 16 determines whether or not the subject X has reached the position P1 of the object Y1. When step S2003 is positively determined, the CPU 16 proceeds to step S2004, and when step S2003 is negative, the process proceeds to step S2005. In step S2004, the CPU 16 starts a shooting operation for continuous shooting or moving image shooting of still images.

ステップS2005では、CPU16は、被写体Xが物体Y2の位置P2に到達したか否かを判定する。CPU16は、ステップS2005が肯定判定された場合はステップS2006に処理を進め、ステップS2005が否定判定された場合はステップS2000に処理を進める。ステップS2006では、CPU16は、ステップS2004で開始した静止画像の連写撮影または動画撮影の撮影動作を終了する。   In step S2005, the CPU 16 determines whether or not the subject X has reached the position P2 of the object Y2. If the determination in step S2005 is affirmative, the CPU 16 proceeds to step S2006, and if the determination in step S2005 is negative, the CPU 16 proceeds to step S2000. In step S2006, the CPU 16 ends the still image continuous shooting or moving image shooting operation started in step S2004.

(第3の実施の形態)
本発明による第3の実施の形態について説明する。第3の実施の形態では、自動撮影モードにおけるカメラ100の動作内容が異なっている。なお、自動撮影モードの動作内容以外については、第1の実施の形態と同様のため、説明を省略する。
(Third embodiment)
A third embodiment according to the present invention will be described. In the third embodiment, the operation content of the camera 100 in the automatic shooting mode is different. Other than the operation content of the automatic shooting mode, the description is omitted because it is the same as that of the first embodiment.

図6を用いて第3の実施の形態における自動撮影モードの動作内容について説明する。図6には、図2と同様にカメラ100と被写体Xと物体Yが図示されている。第3の実施の形態では、物体Yを測距する際に静止画の連写撮影または動画像の撮影を行う自動撮影範囲Aを設定する。自動撮影範囲Aは、撮影レンズ11を物体Yに合焦させたときの撮影レンズ11の被写界深度と一致する。被写界深度の端点A1および端点A2は、撮影レンズ11の焦点距離、物体Yまでの距離Lなどに基づいてCPU16が公知の方法で算出する。 The operation content of the automatic shooting mode in the third embodiment will be described with reference to FIG. 6 shows the camera 100, the subject X, and the object Y as in FIG. In the third embodiment, when the object Y is measured, an automatic shooting range A is set in which continuous shooting of still images or moving images is shot. The automatic shooting range A matches the depth of field of the shooting lens 11 when the shooting lens 11 is focused on the object Y. Endpoint A1 and the end point A2 of depth of field, focal length of the taking lens 11, CPU 16 based on such as the distance L Y to the object Y is calculated in a known manner.

第3の実施の形態では、カメラ100は、被写体Xが端点A1に到達したとき連写撮影または動画撮影の撮影動作を開始し、被写体Xが端点A2に到達したとき連写撮影または動画撮影の撮影動作を終了する。   In the third embodiment, the camera 100 starts the continuous shooting or moving image shooting operation when the subject X reaches the end point A1, and the continuous shooting or moving image shooting operation when the subject X reaches the end point A2. End the shooting operation.

図7は、第3の実施の形態における自動撮影モードの動作内容に関するフローチャートである。図7に示される処理は、CPU16によって実行される。なお、図3および図5と同様の処理には、図3および図5と同一の符号を付して、その処理の説明を省略する。   FIG. 7 is a flowchart relating to the operation content of the automatic shooting mode according to the third embodiment. The process shown in FIG. 7 is executed by the CPU 16. 3 and FIG. 5 are denoted by the same reference numerals as those in FIG. 3 and FIG.

ステップS3000では、CPU16は、カメラ100から物体Yの距離L(図6)を測距し、撮影レンズ11の焦点距離、物体Yの距離Lから被写界深度の端点A1と端点A2の位置を算出する。
ステップS3003では、CPU16は、被写体Xが端点A1の位置に到達したか否かを判定する。CPU16は、ステップS3003が肯定判定された場合は図7のステップS2004に処理を進め、ステップS3003が否定判定された場合はステップS3005に処理を進める。
ステップS3005では、CPU16は、被写体Xが端点A2の位置に到達したか否かを判定する。CPU16は、ステップS3005が肯定判定された場合は図7のステップS2006に処理を進め、ステップS3005が否定判定された場合はステップS3000に処理を進める。
In step S3000, the CPU 16 measures the distance L Y (FIG. 6) from the camera 100 to the object Y, and determines the focal length of the taking lens 11 and the distance Y of the object Y from the end points A1 and A2 of the depth of field. Calculate the position.
In step S3003, the CPU 16 determines whether or not the subject X has reached the position of the end point A1. If the determination in step S3003 is affirmative, the CPU 16 proceeds to step S2004 in FIG. 7. If the determination in step S3003 is negative, the CPU 16 proceeds to step S3005.
In step S3005, the CPU 16 determines whether or not the subject X has reached the position of the end point A2. If the determination in step S3005 is affirmative, the CPU 16 proceeds to step S2006 in FIG. 7. If the determination in step S3005 is negative, the CPU 16 proceeds to step S3000.

(第4の実施の形態)
図面を参照して、本発明による第4の実施の形態について説明する。第4の実施の形態では、自動撮影モードにおけるカメラ100の動作内容が異なっている。なお、自動撮影モードの動作内容以外については、第1の実施の形態と同様のため、説明を省略する。
(Fourth embodiment)
A fourth embodiment according to the present invention will be described with reference to the drawings. In the fourth embodiment, the operation content of the camera 100 in the automatic shooting mode is different. Other than the operation content of the automatic shooting mode, the description is omitted because it is the same as that of the first embodiment.

図8を用いて第4の実施の形態における自動撮影モードの動作内容について説明する。図8には、図2と同様にカメラ100と被写体Xと物体Yが図示されている。第4の実施の形態では、被写体Xを測距する際に範囲Bを設定する。範囲Bは、撮影レンズ11を被写体Xに合焦させたときの撮影レンズ11の被写界深度と一致する。被写界深度の端点B1および端点B2は、撮影レンズ11の焦点距離、物体Xの距離Lなどに基づいてCPU16が公知の方法で演算する。 The operation content of the automatic shooting mode in the fourth embodiment will be described with reference to FIG. FIG. 8 shows the camera 100, the subject X, and the object Y as in FIG. In the fourth embodiment, a range B is set when the subject X is measured. The range B matches the depth of field of the photographing lens 11 when the photographing lens 11 is focused on the subject X. Endpoints B1 and the end point of the depth of field B2 is, CPU 16 is calculated in a known manner on the basis of the focal length of the taking lens 11, such as the distance L X of the object X.

第4の実施の形態では、カメラ100は、端点B2が物体Yの位置に到達したとき連写撮影または動画撮影の撮影動作を開始し、端点B1が物体Yに到達したとき連写撮影または動画撮影の撮影動作を終了する。   In the fourth embodiment, the camera 100 starts the continuous shooting or moving image shooting operation when the end point B2 reaches the position of the object Y, and the continuous shooting or moving image when the end point B1 reaches the object Y. Ends the shooting operation.

図9は、第4の実施の形態における自動撮影モードのカメラ100の動作内容に関するフローチャートである。図9に示される処理は、CPU16によって実行される。なお、図3、図5、図7と同様の処理には、それぞれ同一の符号を付して、その処理の説明を省略する。
ステップS4001では、CPU16は、被写体Xまでの距離Lを測距し、範囲Bの端点B1およびB2の位置を算出する。
ステップS4003では、CPU16は、端点B2が物体Yの位置Pに到達したか否かを判定する。CPU16は、ステップS4003が肯定判定された場合は図9のステップS2004に処理を進め、ステップS4003が否定判定された場合はステップS4005に処理を進める。ステップS4005では、CPU16は、端点B1が物体Yの位置Pに到達したか否かを判定する。CPU16は、ステップS4005が肯定判定された場合は図9のステップS2006に処理を進め、ステップS4005が否定判定された場合は図9のステップS1000に処理を進める。
FIG. 9 is a flowchart regarding the operation content of the camera 100 in the automatic shooting mode according to the fourth embodiment. The process shown in FIG. 9 is executed by the CPU 16. In addition, the same code | symbol is attached | subjected to each process similar to FIG.3, FIG.5, FIG.7, and description of the process is abbreviate | omitted.
In step S4001, the CPU 16 measures the distance L X to the subject X and calculates the positions of the end points B1 and B2 of the range B.
In step S4003, the CPU 16 determines whether or not the end point B2 has reached the position P of the object Y. If the determination in step S4003 is affirmative, the CPU 16 proceeds to step S2004 in FIG. 9, and if the determination in step S4003 is negative, the CPU 16 proceeds to step S4005. In step S4005, the CPU 16 determines whether or not the end point B1 has reached the position P of the object Y. If step S4005 is positively determined, the CPU 16 proceeds to step S2006 in FIG. 9, and if step S4005 is negatively determined, the process proceeds to step S1000 in FIG.

以上説明した実施形態によれば、次の作用効果が得られる。
(1)本発明の第1の実施の形態による撮像装置は、ターゲット追尾処理と焦点検出処理を実行するCPU16を備える。CPU16は、ユーザが選択した物体Yまでの距離Lを測距して(図3のステップS1000)、実空間内に位置Pを設定する。CPU16は、ターゲット追尾処理により被写体Xを追尾して(図3のステップS1002)、被写体Xが物体Yの位置Pに到達したとき撮影動作を開始する。これにより、被写体が意図した位置にいるタイミングで適切に撮影できる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The imaging device according to the first embodiment of the present invention includes a CPU 16 that executes target tracking processing and focus detection processing. The CPU 16 measures the distance L Y to the object Y selected by the user (step S1000 in FIG. 3), and sets the position P in the real space. The CPU 16 tracks the subject X by the target tracking process (step S1002 in FIG. 3), and starts the shooting operation when the subject X reaches the position P of the object Y. Thereby, it is possible to appropriately shoot at the timing when the subject is at the intended position.

(2)本発明の第2の実施の形態による撮像装置は、ターゲット追尾処理と焦点検出処理を実行するCPU16を備える。CPU16は、ユーザが選択した物体Y1およびY2までの距離LY1およびLY2を測距して(図5のステップS2000)、実空間内に位置P1およびP2を設定する。CPU16は、ターゲット追尾処理により被写体Xを追尾する(図5のステップS1002)。CPU16は、被写体Xが物体Y1の位置P1に到達したとき(図5のステップS2003 YES)撮影動作を開始する(図5のステップS2004)。CPU16は、被写体Xが物体Y2の位置P2に到達したとき(図5のステップS2005 YES)静止画像の連写撮影や動画撮影の撮影動作を終了する(図5のステップS2006)。これにより、被写体が意図した位置にいるタイミングで適切に連写撮影や動画撮影の開始と終了を行うことができる。 (2) An imaging apparatus according to the second embodiment of the present invention includes a CPU 16 that executes target tracking processing and focus detection processing. The CPU 16 measures the distances L Y1 and L Y2 to the objects Y1 and Y2 selected by the user (step S2000 in FIG. 5), and sets the positions P1 and P2 in the real space. The CPU 16 tracks the subject X by the target tracking process (step S1002 in FIG. 5). When the subject X reaches the position P1 of the object Y1 (YES in step S2003 in FIG. 5), the CPU 16 starts a photographing operation (step S2004 in FIG. 5). When the subject X reaches the position P2 of the object Y2 (YES in step S2005 in FIG. 5), the CPU 16 ends the shooting operation for still image continuous shooting and moving image shooting (step S2006 in FIG. 5). Accordingly, it is possible to appropriately start and end continuous shooting and moving image shooting at the timing when the subject is at the intended position.

(3)本発明の第3の実施の形態による撮像装置は、ターゲット追尾処理と焦点検出処理を実行するCPU16を備える。CPU16は、ユーザが選択した物体Yまでの距離を測距して端点A1と端点A2を含む被写界深度Aを算出する(図7のステップS3000)。そして、CPU16は、ターゲット追尾処理により被写体Xを追尾する(図7のステップS1002)。CPU16は、被写体Xが端点A1に到達したとき(図7のステップS3003 YES)、静止画像の連写撮影や動画撮影の撮影動作を開始する(図7のステップS2004)。また、被写体Xが端点A2に到達したとき(図7のステップS3005 YES)、静止画像の連写撮影や動画撮影の撮影動作を終了する(図7のステップS2006)。これにより、実空間上の位置を一つ指定するだけで、被写体Xと物体Yの両方が合焦状態となるタイミングで適切に連写撮影や動画撮影の開始と終了を行うことができる。 (3) An imaging apparatus according to the third embodiment of the present invention includes a CPU 16 that executes target tracking processing and focus detection processing. The CPU 16 measures the distance to the object Y selected by the user and calculates the depth of field A including the end points A1 and A2 (step S3000 in FIG. 7). Then, the CPU 16 tracks the subject X by the target tracking process (step S1002 in FIG. 7). When the subject X reaches the end point A1 (YES in step S3003 in FIG. 7), the CPU 16 starts a still image continuous shooting or moving image shooting operation (step S2004 in FIG. 7). When the subject X reaches the end point A2 (YES in step S3005 in FIG. 7), the still image continuous shooting and moving image shooting operation ends (step S2006 in FIG. 7). Thus, it is possible to appropriately start and end the continuous shooting and the moving image shooting at the timing when both the subject X and the object Y are in focus by only specifying one position in the real space.

(4)本発明の第4の実施の形態による撮像装置は、ターゲット追尾処理と焦点検出処理を実行するCPU16を備える。CPU16は、ユーザが選択した物体Yまでの距離を測距して(図9のステップS1000)、実空間内に位置Pを設定する。CPU16は、被写体追尾処理により被写体Xを追尾する(図9のステップS1002)。CPU16は、被写体Xを測距するとき被写界深度Bを算出する(図9のステップS4001)。CPU16は、被写界深度Bの端点B2が位置P1に到達したとき(図9のステップS4003 YES)、静止画像の連写撮影や動画撮影の撮影動作を開始する(図9のステップS2004)。また、被写界深度Bの端点B1が位置P1に到達したとき(図9のステップS4005 YES)、静止画像の連写撮影や動画撮影の撮影動作を終了する(図9のステップS2006)。これにより、被写体が意図した位置に到達するまでに、確実に連写撮影や動画撮影を開始することができる。 (4) An imaging apparatus according to the fourth embodiment of the present invention includes a CPU 16 that executes target tracking processing and focus detection processing. The CPU 16 measures the distance to the object Y selected by the user (step S1000 in FIG. 9), and sets the position P in the real space. The CPU 16 tracks the subject X by subject tracking processing (step S1002 in FIG. 9). The CPU 16 calculates the depth of field B when measuring the subject X (step S4001 in FIG. 9). When the end point B2 of the depth of field B reaches the position P1 (YES in step S4003 in FIG. 9), the CPU 16 starts a still image continuous shooting or moving image shooting operation (step S2004 in FIG. 9). When the end point B1 of the depth of field B has reached the position P1 (YES in step S4005 in FIG. 9), the still image continuous shooting and moving image shooting operations are terminated (step S2006 in FIG. 9). Thus, continuous shooting and moving image shooting can be surely started before the subject reaches the intended position.

(変形例1)本発明は、一眼レフデジタルカメラ、コンパクトカメラ、カメラ付き携帯端末など、様々な撮像装置に適用できる。 (Modification 1) The present invention can be applied to various imaging apparatuses such as a single-lens reflex digital camera, a compact camera, and a portable terminal with a camera.

(変形例2)第2および第3の実施の形態では、被写体Xが位置P2や端点A2に到達したとき(たとえば、被写体Xがカメラ100に接近する猫の場合、猫の頭が位置P2に到達したとき)静止画撮影の連写撮影や動画撮影を終了することとした。しかし、被写体Xが位置P2や端点A2を通過したとき(たとえば、前述の猫の尻尾が位置P2に到達したとき)に静止画撮影の連写撮影や動画撮影を終了することにしてもよい。 (Modification 2) In the second and third embodiments, when the subject X reaches the position P2 or the end point A2 (for example, when the subject X is a cat approaching the camera 100, the head of the cat is at the position P2. When it arrives), we decided to end the continuous shooting and still image shooting. However, when the subject X passes the position P2 or the end point A2 (for example, when the aforementioned cat's tail reaches the position P2), the continuous shooting or the moving image shooting of the still image shooting may be ended.

(変形例3)第2の実施の形態では、被写体Xが位置P1に到達したとき静止画像の連写撮影または動画撮影の撮影動作を開始し、被写体Xが位置P2に到達したとき静止画像の連写撮影または動画撮影の撮影動作を終了することとした。しかし、被写体Xが位置P1に到達したときと位置P2に到達したときにそれぞれ静止画像撮影の撮影動作を行うことにしてもよい。第3の実施の形態および第4の実施の形態についても同様である。 (Modification 3) In the second embodiment, when the subject X reaches the position P1, the continuous shooting or moving image shooting operation is started when the subject X reaches the position P1, and when the subject X reaches the position P2, the still image is captured. The shooting operation for continuous shooting or movie shooting was ended. However, when the subject X reaches the position P1, and when the subject X reaches the position P2, a still image shooting operation may be performed. The same applies to the third embodiment and the fourth embodiment.

(変形例4)上記の実施の形態では、カメラ100から物体Y、物体Y1、物体Y2までの距離をパッシブ方式で測距したが、それ以外の方法で測距してもよい。たとえば、カメラ100に超音波測距部やレーザ測距部を備えて、物体Y、物体Y1、物体Y2までの距離をアクティブ方式で測距することにしてもよい。 (Modification 4) In the above embodiment, the distances from the camera 100 to the object Y, the object Y1, and the object Y2 are measured by the passive method, but may be measured by other methods. For example, the camera 100 may be provided with an ultrasonic distance measuring unit or a laser distance measuring unit, and the distances to the object Y, the object Y1, and the object Y2 may be measured by an active method.

(変形例5)第2の実施の形態と第3の実施の形態とは組み合わせて実施をしてもよい。すなわち、物体Y1に合焦して測距するときに物体Y1の位置P1を基準とする被写界深度Cを算出し、物体Y2に合焦して測距するときに物体Y2の位置P2を基準とする被写界深度Dを算出することにしてもよい。そして、被写体Xが被写界深度Cおよび被写界深度Dの中にいるとき、連写撮影や動画撮影を行うことにしてもよいし、被写界深度CおよびDの各々の両端で被写体Xが到達したときに静止画撮影の撮影動作を開始することにしてもよい。 (Modification 5) The second embodiment and the third embodiment may be implemented in combination. That is, the depth of field C is calculated based on the position P1 of the object Y1 when the object Y1 is focused and the distance is measured, and the position P2 of the object Y2 is determined when the object Y2 is focused and the distance is measured. A reference depth of field D may be calculated. Then, when the subject X is in the depth of field C and the depth of field D, continuous shooting or moving image shooting may be performed, and the subject is captured at both ends of the depth of field C and D. When X arrives, a still image shooting operation may be started.

(変形例6)第1の実施の形態では、図3のステップS1003が肯定判定されて撮影動作を開始するまでの間、CPU16は、物体Yまでの距離Lを繰り返し測距することとした。しかし、図3の処理を開始したときのみ物体Yまでの距離Lを測距することにしてもよい。すなわち、図3のステップS1003が否定判定されたとき、ステップS1000ではなくステップS1001に進むことにしてもよい。また、カメラ100の姿勢が大きく変化したときにのみ物体Yまでの距離Lを再び測距することにしてもよい。 (Modification 6) In the first embodiment, step S1003 of FIG. 3 until the start of the photographing operation is affirmative determination, CPU 16, it was decided to repeat the distance measurement of the distance L Y to the object Y . However, it may be to the distance measuring the distance L Y to see the object Y at the start of the process of FIG. That is, when a negative determination is made in step S1003 of FIG. 3, the process may proceed to step S1001 instead of step S1000. Further, the distance L Y to the object Y may be possible to re-ranging only when the posture of the camera 100 has changed significantly.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。また、以上で説明した実施の形態や変形例は発明の特徴が損なわれない限り組み合わせて実行してもよい。   The above description is merely an example, and is not limited to the configuration of the above embodiment. Further, the embodiments and modifications described above may be combined and executed as long as the features of the invention are not impaired.

100:カメラ,16:CPU
X:被写体,Y:物体,Y1:物体,Y2:物体
100: Camera, 16: CPU
X: Subject, Y: Object, Y1: Object, Y2: Object

Claims (6)

移動する被写体を選択する選択部と、
前記選択部により選択された被写体を追尾する追尾部と、
第1の位置を設定する位置設定部と、
前記被写体までの距離と前記第1の位置までの距離とをそれぞれ複数回測距する測距部と、
前記被写体までの距離が、前記第1の位置までの距離に到達したとき、撮影動作を開始する制御を行う制御部と、
を備える撮像装置。
A selection unit for selecting a moving subject;
A tracking unit that tracks the subject selected by the selection unit;
A position setting unit for setting the first position;
A distance measuring unit that measures the distance to the subject and the distance to the first position multiple times;
A control unit that performs control to start a photographing operation when the distance to the subject reaches the distance to the first position ;
An imaging apparatus comprising:
請求項1に記載の撮像装置において、The imaging device according to claim 1,
前記撮像装置の撮影者が操作可能である操作部を備え、An operation unit that can be operated by a photographer of the imaging apparatus;
前記操作部により、前記撮影者が前記選択部の選択操作と前記位置設定部の位置設定操作とを行う撮像装置。An imaging apparatus in which the photographer performs a selection operation of the selection unit and a position setting operation of the position setting unit by the operation unit.
請求項1または請求項2に記載の撮像装置において、In the imaging device according to claim 1 or 2,
前記位置設定部は、前記第1の位置を含む複数の位置を設定して、The position setting unit sets a plurality of positions including the first position,
前記測距部は、前記位置設定部が設定した前記複数の位置までの距離をそれぞれ複数回測距する撮像装置。The distance measuring unit is an imaging device that measures a distance to the plurality of positions set by the position setting unit a plurality of times.
請求項3に記載の撮像装置において、The imaging device according to claim 3.
前記複数の位置は、前記撮像装置からの距離が前記第1の位置とは異なる第2の位置を含み、The plurality of positions includes a second position whose distance from the imaging device is different from the first position,
前記制御部は、前記被写体の距離が前記第1の位置までの距離に基づいた距離に到達したとき、動画撮影または連写撮影の撮影動作を開始して、前記被写体の距離が前記第2の位置までの距離に基づいた距離に到達したとき動画撮影または連写撮影を終了する撮像装置。When the distance of the subject reaches a distance based on the distance to the first position, the control unit starts a shooting operation of moving image shooting or continuous shooting, and the distance of the subject is set to the second distance. An imaging device that ends moving image shooting or continuous shooting when a distance based on a distance to a position is reached.
請求項4に記載の撮像装置において、The imaging apparatus according to claim 4,
前記制御部は、前記被写体の一端または他端のいずれか一方までの距離が前記第2の位置までの距離に基づいた距離に到達したとき、撮影動作を終了する撮像装置。The control unit ends the shooting operation when the distance to one of the one end and the other end of the subject reaches a distance based on the distance to the second position.
請求項1に記載の撮像装置において、The imaging device according to claim 1,
前記測距部が前記第1の位置の測距を開始してから前記制御部が撮像動作を開始するまでの間に、前記撮像装置は移動可能である撮像装置。An imaging apparatus in which the imaging apparatus is movable between the distance measurement unit starting distance measurement of the first position and the control unit starting an imaging operation.
JP2017158413A 2017-08-21 2017-08-21 Imaging device Active JP6365748B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017158413A JP6365748B2 (en) 2017-08-21 2017-08-21 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017158413A JP6365748B2 (en) 2017-08-21 2017-08-21 Imaging device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012115554A Division JP2013243529A (en) 2012-05-21 2012-05-21 Imaging apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018128290A Division JP6587014B2 (en) 2018-07-05 2018-07-05 Imaging device

Publications (2)

Publication Number Publication Date
JP2018007262A JP2018007262A (en) 2018-01-11
JP6365748B2 true JP6365748B2 (en) 2018-08-01

Family

ID=60948118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017158413A Active JP6365748B2 (en) 2017-08-21 2017-08-21 Imaging device

Country Status (1)

Country Link
JP (1) JP6365748B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS644095Y2 (en) * 1980-04-28 1989-02-02
JPH05188266A (en) * 1992-01-09 1993-07-30 Nikon Corp Electric driving device fop lens distance ring
JPH11142725A (en) * 1997-11-13 1999-05-28 Casio Comput Co Ltd Camera apparatus and autofocusing control method
JP2005215373A (en) * 2004-01-30 2005-08-11 Konica Minolta Photo Imaging Inc Imaging apparatus
DE112005000929B4 (en) * 2004-04-28 2011-07-21 Chuo Electronics Co. Ltd., Tokyo Automatic imaging method and device
JP2010041299A (en) * 2008-08-04 2010-02-18 Nikon Corp Electronic camera
JP5402341B2 (en) * 2009-01-26 2014-01-29 株式会社Jvcケンウッド Automatic imaging apparatus and automatic imaging method

Also Published As

Publication number Publication date
JP2018007262A (en) 2018-01-11

Similar Documents

Publication Publication Date Title
JP6335434B2 (en) Imaging apparatus, control method thereof, and program
US7466356B2 (en) Method and apparatus for setting a marker on an object and tracking the position of the object
JP2011087010A (en) Image pickup device
JP2016201626A (en) Shift element controller, shift element control program and optical apparatus
US9781346B2 (en) Image capturing control apparatus, image capturing apparatus and storage medium storing image capturing control program for driving a movable element when motion vectors have mutually different magnitudes
JP2010171748A (en) Imaging apparatus and imaging control program
JP2008058399A (en) Focus adjustment device, imaging apparatus and control method
JP6587014B2 (en) Imaging device
JP6076106B2 (en) Imaging apparatus and imaging method
JP2015194686A (en) Imaging apparatus
JP2015210493A (en) Blur correction device, blur correction method and program, and imaging device
JP6365748B2 (en) Imaging device
US10917556B2 (en) Imaging apparatus
JP2013243529A (en) Imaging apparatus
JP2006033242A (en) Image reproducing method and image pickup device
JP2010170042A (en) Imaging apparatus and method for controlling the same
JP6613149B2 (en) Image blur correction apparatus and control method therefor, imaging apparatus, program, and storage medium
JP2009232325A5 (en)
JP2009260413A (en) Image pickup apparatus and method for controlling image pickup apparatus
JP6335503B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP5962974B2 (en) Imaging apparatus, imaging method, and program
JP5635340B2 (en) Movie shooting device, movie shooting method, program, and image processing device
JP5135813B2 (en) Optical system drive device and camera
JP2018201095A (en) Imaging apparatus having motion prediction function
JP5379449B2 (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180618

R150 Certificate of patent or registration of utility model

Ref document number: 6365748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250