JP2010226554A - Camera, and subject tracking method - Google Patents
Camera, and subject tracking method Download PDFInfo
- Publication number
- JP2010226554A JP2010226554A JP2009073125A JP2009073125A JP2010226554A JP 2010226554 A JP2010226554 A JP 2010226554A JP 2009073125 A JP2009073125 A JP 2009073125A JP 2009073125 A JP2009073125 A JP 2009073125A JP 2010226554 A JP2010226554 A JP 2010226554A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- unit
- moving
- moving object
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、カメラおよび被写体追尾方法に関し、詳しくは、動きの速い被写体を見失わずに追跡できるカメラおよび被写体追尾方法に関する。 The present invention relates to a camera and a subject tracking method, and more particularly to a camera and a subject tracking method capable of tracking without losing sight of a fast-moving subject.
カメラ等の撮影装置においては、光学ファインダや液晶モニタ等において被写体を観察し、構図を決めてから撮影を行っている。例えば、鳥のように移動する被写体においては、カメラを向けて構図を決めている最中に、被写体が画面外に移動してしまい、見失ってしまうことがある。見失ってしまうと、撮影者はどこに被写体が移動したのかわからず、カメラをいろいろな方向に向けるが結局見つからないことが多い。 In a photographing apparatus such as a camera, a subject is observed with an optical finder, a liquid crystal monitor, or the like, and a composition is determined before photographing. For example, in a subject moving like a bird, the subject may move out of the screen while deciding on the composition while facing the camera, and may be lost. If you lose sight, the photographer does not know where the subject has moved, and often turns the camera in various directions, but in the end it is often not found.
そこで、被写体を自動的に追尾することのできる自動追尾装置を備えたカメラが種々提案されている。例えば、特許文献1には、追尾対象の被写体が撮影画面内から外に出そうになると、撮影画角を拡張することによって、被写体像の追尾範囲を拡張するようにしたカメラが開示されている。 Various cameras have been proposed that include an automatic tracking device that can automatically track a subject. For example, Patent Document 1 discloses a camera that expands the tracking range of a subject image by extending the shooting angle of view when the subject to be tracked is about to go out of the shooting screen. .
特許文献1に開示のカメラでは、被写体が撮影画面から外れそうになる場合にはワイド側に変化することによって、追尾可能としているが、撮影レンズの最短焦点距離を超えて追尾することができない。また、ワイド側に変化することにより、撮影者の意図しない焦点距離となってしまうことがある。 In the camera disclosed in Patent Document 1, tracking is possible by changing to the wide side when the subject is likely to deviate from the shooting screen, but cannot be tracked beyond the shortest focal length of the shooting lens. In addition, the focal length may be unintended by the photographer by changing to the wide side.
本発明は、このような事情を鑑みてなされたものであり、撮影者の意図しない焦点距離となることなく、移動する被写体を追尾できるカメラおよび被写体追尾方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a camera and a subject tracking method that can track a moving subject without a focal length unintended by a photographer.
上記目的を達成するため第1の発明に係わるカメラは、被写体を撮像する撮像部と、上記撮像部による撮像結果を表示する表示部と、カメラが構えられているか否かを判定するホールディング判定部と、上記ホールディング判定部によって上記カメラが構えられていると判定された際に、上記表示部の画面内を移動する移動体を判定する移動被写体判定部と、上記移動被写体判定部による判定結果と上記撮像部の画角に基づいて、上記移動体の存在する方向を判定し、上記ホールディング判定によって上記カメラが構えられていると判定された時から、上記カメラの撮影方向の変化と上記移動体の存在方向を比較し、その比較結果を告知する告知部と、を有する。 In order to achieve the above object, a camera according to a first aspect of the present invention includes an imaging unit that captures an image of a subject, a display unit that displays an imaging result of the imaging unit, and a holding determination unit that determines whether the camera is held. A moving subject determination unit that determines a moving body that moves within the screen of the display unit when the holding determination unit determines that the camera is held, and a determination result by the moving subject determination unit The direction in which the moving body exists is determined based on the angle of view of the imaging unit, and the change in the shooting direction of the camera and the moving body from when the holding determination determines that the camera is held. And a notification unit for comparing the direction of the presence and notification of the comparison result.
第2の発明に係わるカメラは、上記第1の発明において、上記ホールディング判定部は、所定時間の間、上記カメラに振動がないこと、および/または所定値を保持している。
第3の発明に係わるカメラは、上記第1の発明において、上記告知部は、上記移動体の存在する方向を、上記表示部に表示する。
In the camera according to a second aspect of the present invention, in the first aspect, the holding determination unit has no vibration and / or maintains a predetermined value for a predetermined time.
In the camera according to a third aspect of the present invention, in the first aspect, the notification unit displays the direction in which the moving body is present on the display unit.
第4の発明に係わるカメラは、被写体像を画像データに変換する撮像部と、上記画像データに基づいて、動体が存在するか否かを判定する動体判定部と、上記動体判定部によって判定された動体の移動速度よび移動方向に基づいて、現時点における位置を予測する位置予測部と、カメラの動きを検知し、上記現時点における位置に上記カメラが達したかを判定する動き判定部と、上記動き判定部による判定結果を告知する告知部と、を有する。 A camera according to a fourth aspect of the invention is determined by an imaging unit that converts a subject image into image data, a moving object determination unit that determines whether or not a moving object exists based on the image data, and the moving object determination unit. A position prediction unit that predicts a current position based on a moving speed and a moving direction of the moving object, a motion determination unit that detects the movement of the camera and determines whether the camera has reached the current position, and A notification unit that notifies the determination result by the motion determination unit.
第5の発明に係わるカメラは、上記第4の発明において、上記動体判定部は、上記カメラが空間上で固定された状態において、上記動体が存在するか否かを判定する。
第6の発明に係わるカメラは、上記第4の発明において、上記動体判定部は、上記動体が存在することを判定した場合には、上記動体の移動方向も判定し、上記告知部は、上記動体の移動方向を表示する。
In the camera according to a fifth aspect based on the fourth aspect, the moving object determination unit determines whether or not the moving object exists in a state where the camera is fixed in space.
In the camera according to a sixth aspect of the present invention, in the fourth aspect of the invention, when the moving object determination unit determines that the moving object exists, the moving unit also determines a moving direction of the moving object, and the notification unit Displays the moving direction of the moving object.
第7の発明に係わる被写体追尾方法は、被写体を撮像部によって画像データに変換し、上記画像データに基づいて被写体像を表示部に表示し、カメラが構えられているか否かを判定し、上記カメラが構えられていると判定された際に、上記表示部の画面内を移動する移動体を判定し、上記移動体の移動方向を判定し、上記カメラが構えられていると判定された時から、上記カメラの撮影方向の変化と上記移動体の存在方向を比較し、その比較結果を告知する。 In the subject tracking method according to the seventh invention, the subject is converted into image data by the imaging unit, the subject image is displayed on the display unit based on the image data, it is determined whether or not the camera is held, and When it is determined that the camera is held, the moving body that moves within the screen of the display unit is determined, the moving direction of the moving body is determined, and the camera is determined to be held Then, the change in the shooting direction of the camera is compared with the direction in which the moving object exists, and the comparison result is announced.
本発明によれば、撮影者の意図しない焦点距離となることなく、移動する被写体を追尾できるカメラおよび被写体追尾方法を提供することができる。 According to the present invention, it is possible to provide a camera and a subject tracking method that can track a moving subject without a focal length not intended by the photographer.
以下、図面に従って本発明を適用したデジタルカメラを用いて好ましい一実施形態について説明する。図1は、本発明の一実施形態に係わるカメラ10の構成を示すブロック図である。カメラ10は、画像処理及び制御部1、撮像部2、ズームレンズ2a、振動部3、記録部4、加速度検知部5、角加速度検知部7、操作判定部6、表示部8、タッチパネル8b、時計部9を有している。 Hereinafter, a preferred embodiment using a digital camera to which the present invention is applied will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a camera 10 according to an embodiment of the present invention. The camera 10 includes an image processing and control unit 1, an imaging unit 2, a zoom lens 2a, a vibration unit 3, a recording unit 4, an acceleration detection unit 5, an angular acceleration detection unit 7, an operation determination unit 6, a display unit 8, a touch panel 8b, A clock unit 9 is provided.
撮像部2は、ズームレンズ2aによって形成された被写体像を光電変換する撮像素子を有し、画像データを画像処理及び制御部1等に出力する。ズームレンズ2aは焦点距離可変であり、ワイド側やテレ側に焦点状態を変更することができ、また焦点距離情報が画像処理及び制御部1に出力される。画像処理及び制御部1は、撮像部2から出力される画像データの画像処理を行う。また、画像処理及び制御部1は、予め記憶部(不図示)に格納されたプログラムに従って、カメラ10全体の制御を行う。なお、画像処理としては、静止画画像処理および動画画像処理が可能である。 The imaging unit 2 includes an imaging element that photoelectrically converts a subject image formed by the zoom lens 2a, and outputs image data to the image processing and control unit 1 and the like. The zoom lens 2 a has a variable focal length, can change the focal state to the wide side or the tele side, and the focal length information is output to the image processing and control unit 1. The image processing and control unit 1 performs image processing on the image data output from the imaging unit 2. The image processing and control unit 1 controls the entire camera 10 according to a program stored in advance in a storage unit (not shown). Note that as the image processing, still image processing and moving image processing are possible.
画像処理及び制御部1内には、動体判定部1a、位置予測部1b、動き判定部1cが設けられている。動体判定部1aは、撮像部2から入力する画像データに基づいて、被写体像の中に移動体が存在するか否かを判定し、移動体が存在する場合には、移動体の形状を認識し、その移動体の動きの方向と速度を判定する。位置予測部1bは、動体判定部1aの判定結果を用いて、被写体の位置予測を行う。ここでの位置予測結果は、後述する表示部8に表示し、撮影者に被写体の予測位置を告知し、その方向にカメラ10の向きを誘導する。 In the image processing and control unit 1, a moving object determination unit 1a, a position prediction unit 1b, and a motion determination unit 1c are provided. The moving object determination unit 1a determines whether or not a moving object exists in the subject image based on the image data input from the imaging unit 2, and recognizes the shape of the moving object when the moving object exists. Then, the direction and speed of the movement of the moving body are determined. The position predicting unit 1b performs subject position prediction using the determination result of the moving object determining unit 1a. The position prediction result here is displayed on the display unit 8 to be described later, the photographer is notified of the predicted position of the subject, and the direction of the camera 10 is guided in that direction.
動き判定部1cは、後述する角加速度検知部7からの検知出力に基づいて、撮影者がカメラ10をいずれの方向にどの位、移動させたかを判定する。振動部3は、カメラ10を振動させ、撮影者に告知する。動き判定部1cによって検知された移動方向・移動量が、位置予測部1bによって予測される位置と一致した場合に、振動部3によって、カメラ10を振動させ、被写体が移動したと予測される位置に達したことを告知する。なお、撮影者への告知は、振動部3以外にも、表示部8での視覚表示や、またブザー等の発音部材を設け聴覚表示でも良い。 The motion determination unit 1c determines how much the photographer has moved the camera 10 in which direction based on a detection output from an angular acceleration detection unit 7 described later. The vibration unit 3 vibrates the camera 10 and notifies the photographer. When the movement direction / movement amount detected by the movement determination unit 1c matches the position predicted by the position prediction unit 1b, the vibration unit 3 vibrates the camera 10 and is predicted to have moved the subject. Announce that you have reached In addition to the vibration unit 3, the notification to the photographer may be a visual display on the display unit 8 or an audio display provided with a sounding member such as a buzzer.
加速度検知部3は、カメラ10に加えられた加速度を検出する。この加速度に基づいて、カメラ10の長手方向やこれと直交する方向への移動や、カメラ10がしっかり保持されているか否かを判定する。角加速度検知部7は、カメラ10に加えられた角加速度を検出する。この角加速度に基づいて、カメラ10の長手方向の軸周りや、これと直交する方向の軸周りの回動を判定する。加速度検知部3の構造については図2を用いて、また角加速度検知部7の構造については図3を用いて後述する。 The acceleration detector 3 detects acceleration applied to the camera 10. Based on this acceleration, it is determined whether the camera 10 is moved in the longitudinal direction or in a direction orthogonal thereto, and whether the camera 10 is firmly held. The angular acceleration detection unit 7 detects angular acceleration applied to the camera 10. Based on this angular acceleration, a rotation around the longitudinal axis of the camera 10 or around an axis in a direction orthogonal thereto is determined. The structure of the acceleration detector 3 will be described later with reference to FIG. 2, and the structure of the angular acceleration detector 7 will be described later with reference to FIG.
操作判定部6は、カメラ10に設けられたレリーズ釦、ズーム釦、再生釦、メニュー釦等の操作部材の操作状態を判定する。メニューモードにおいては、種々のモード、例えば、動画撮影モード、静止画撮影モード等を設定可能である。時計部9は、日時情報を出力し、また前述の位置予測部1bにおける位置予測の際に被写体の移動時間の計時にも使用する。記録部4は、画像データを記録する記録媒体である。画像処理及び制御部1は、操作判定部6によって撮影指示の操作がなされたことを判定すると、画像データとこの画像データに関連付けて撮影日時情報を記録部4に記録する。撮影日時に基づいて画像管理を可能とするためである。 The operation determination unit 6 determines an operation state of operation members such as a release button, a zoom button, a reproduction button, and a menu button provided on the camera 10. In the menu mode, various modes such as a moving image shooting mode and a still image shooting mode can be set. The clock unit 9 outputs date and time information, and also uses it to measure the movement time of the subject when the position is predicted by the position prediction unit 1b. The recording unit 4 is a recording medium that records image data. When the image processing and control unit 1 determines that the operation of the shooting instruction has been performed by the operation determination unit 6, the image processing and control unit 1 records the shooting date and time information in association with the image data in the recording unit 4. This is to enable image management based on the shooting date and time.
表示部8は、カメラ10の背面等に配置された、液晶モニタ等の表示装置で構成される。また、表示部8は、撮像部2からの画像データに基づいて、被写体像を動画でライブビュー表示したり、また記録部4に記録されている撮影画像を再生可能である。表示部8の表面には、タッチパネル8bが配置されており、撮影者の指等のタッチを検出可能である。メニューモードに設定されると、表示部8にはメニュー画面が表示され、表示されているメニュー、例えば、動画撮影、静止画撮影等をタッチすることにより設定可能である。また、再生モードが選択された場合には、一覧表示された撮影画像の中から、希望する画像をタッチすることにより、拡大して表示することも可能である。 The display unit 8 includes a display device such as a liquid crystal monitor disposed on the back surface of the camera 10. Further, the display unit 8 can display a subject image in live view as a moving image based on the image data from the imaging unit 2, and can reproduce a captured image recorded in the recording unit 4. A touch panel 8b is disposed on the surface of the display unit 8, and a touch of a photographer's finger or the like can be detected. When the menu mode is set, a menu screen is displayed on the display unit 8 and can be set by touching a displayed menu, for example, moving image shooting, still image shooting, or the like. Further, when the playback mode is selected, it is possible to display an enlarged image by touching a desired image from a list of captured images.
次に、カメラ10に加えられた加速度を検出する加速度検知部5の加速度センサ50の構造について図2を用いて説明する。加速度センサ50は、チップ表面の金属部52と、架橋された金属部51から構成されている。すなわち、加速度センサ50は、金属部51は、4つの基点51aとこの基点51aによって保持されるH形状をした架橋部51bと、金属部52と対向する検知部51cとから構成される。加速度センサ50は、検知部51cと金属部52で構成されるコンデンサの容量を検知する。図2中の矢印方向に金属部51が移動すると、コンデンサの容量が変化することから、この変化量を求めることにより、矢印方向の加速度を検知することができる。 Next, the structure of the acceleration sensor 50 of the acceleration detection unit 5 that detects the acceleration applied to the camera 10 will be described with reference to FIG. The acceleration sensor 50 includes a metal part 52 on the chip surface and a cross-linked metal part 51. That is, in the acceleration sensor 50, the metal part 51 includes four base points 51a, an H-shaped bridge part 51b held by the base point 51a, and a detection part 51c facing the metal part 52. The acceleration sensor 50 detects the capacitance of the capacitor formed by the detection unit 51 c and the metal unit 52. When the metal part 51 moves in the direction of the arrow in FIG. 2, the capacitance of the capacitor changes. Therefore, by obtaining this amount of change, the acceleration in the direction of the arrow can be detected.
カメラ10の軸周りに加えられた角加速度を検出する角加速度検知部7の角加速度センサの構造について図3を用いて説明する。図3(a)は、角加速度センサ55の構造を示す。この角加速度センサ55は、圧電セラミック素子56の対から構成される。この一対の圧電セラミック素子56を振動させ、角速度が発生したときに生じるコリオリの力が、圧電セラミック素子56を変形させ、このために電圧が生ずる。このときの出力電圧を、図5(b)に示すように、積分(ジャイロ積分)すると、回転量を求めることができる。 The structure of the angular acceleration sensor of the angular acceleration detector 7 that detects the angular acceleration applied around the axis of the camera 10 will be described with reference to FIG. FIG. 3A shows the structure of the angular acceleration sensor 55. The angular acceleration sensor 55 is composed of a pair of piezoelectric ceramic elements 56. The Coriolis force generated when the pair of piezoelectric ceramic elements 56 is vibrated and an angular velocity is generated causes the piezoelectric ceramic elements 56 to be deformed, thereby generating a voltage. When the output voltage at this time is integrated (gyro integration) as shown in FIG. 5B, the rotation amount can be obtained.
カメラ10において、図4に示すように、加速度センサ50によって横スライドを検出し(矢印61の方向)、また、カメラ10の横(左右方向)にパンニングする動きを角加速度センサ55によって検出することができる(矢印62周りの動き)。また、カメラ10の縦(上下方向)にパンニングする動きを検出する角加速度センサ55も別に設けておく。 In the camera 10, as shown in FIG. 4, a lateral slide is detected by the acceleration sensor 50 (in the direction of the arrow 61), and a movement of panning to the side (horizontal direction) of the camera 10 is detected by the angular acceleration sensor 55. (Movement around arrow 62). In addition, an angular acceleration sensor 55 that detects the movement of panning in the vertical direction (vertical direction) of the camera 10 is also provided.
次に、タッチパネル8bの構造を、図5に示す。このタッチパネル8bは、光電センサ型タッチパネルである。このタッチパネル8bは、図5(a)に示すように、液晶80内に光センサ80bが所定の間隔で2次元的に配列されており、液晶80の背面にはバックライト80aが設けられている。なお、この光電センサ型のタッチパネルは、液晶上に配置されるのではなく、液晶内に一体に組み込まれる。タッチパネルとしては、光電センサ型以外にも、抵抗膜方式等、他のタッチパネルを用いても良い。 Next, the structure of the touch panel 8b is shown in FIG. This touch panel 8b is a photoelectric sensor type touch panel. In the touch panel 8b, as shown in FIG. 5A, optical sensors 80b are two-dimensionally arranged in a liquid crystal 80 at a predetermined interval, and a backlight 80a is provided on the back surface of the liquid crystal 80. . Note that this photoelectric sensor type touch panel is not disposed on the liquid crystal but integrated into the liquid crystal. As the touch panel, other than the photoelectric sensor type, another touch panel such as a resistive film type may be used.
ユーザの指81がタッチパネル8bに近づくと、図5(b)に示すように、バックライト80aからの光が、指81によって反射され、光センサ80bによって検出される。いずれの光センサ80bが指81からの反射光を検出したかによって、タッチ位置を検出することができる。 When the user's finger 81 approaches the touch panel 8b, the light from the backlight 80a is reflected by the finger 81 and detected by the optical sensor 80b, as shown in FIG. 5B. The touch position can be detected depending on which optical sensor 80 b detects the reflected light from the finger 81.
前述の加速度検知部5の検知出力と、タッチパネル8bからの検知出力を用いることによって、カメラ10をしっかりと保持しているか否かの判定を行うことができる。図6に示すように、カメラ10を撮影者がしっかり保持すると、手ブレによる振動はなくなり、加速度検知部5の加速度センサ50の検知出力は略ゼロとなる。また、撮影者の指等は、タッチパネル8bの右上部分を保持するので、タッチパネル8bの右上部分のタッチ信号を検知する。したがって、これらの検知信号を検知した場合には、カメラ10は正しく保持されていると判定することができる。 By using the detection output of the acceleration detection unit 5 and the detection output from the touch panel 8b, it is possible to determine whether or not the camera 10 is firmly held. As shown in FIG. 6, when the photographer holds the camera 10 firmly, vibration due to camera shake disappears, and the detection output of the acceleration sensor 50 of the acceleration detection unit 5 becomes substantially zero. Further, since the photographer's finger or the like holds the upper right portion of the touch panel 8b, the touch signal of the upper right portion of the touch panel 8b is detected. Therefore, when these detection signals are detected, it can be determined that the camera 10 is held correctly.
次に、本実施形態に係わるカメラ10の使用方法について図7乃至図11を用いて説明する。カメラ10を構えながら、動く被写体、ここではメジロ等の鳥を撮影する場合を例に挙げて説明する。図7(a)は、メジロ等の移動する被写体を見つけ、カバン等からカメラ10を取り出し、構える様子を示している。図7(b)は、カメラ10を構えて、構図を決めている最中に、メジロが飛び立ち、逃げ去ったために、撮影者がカメラ10を構えたまま、表示部8を見ながら探している様子を示す。 Next, a method of using the camera 10 according to the present embodiment will be described with reference to FIGS. An example will be described in which a moving subject, here a bird such as a white-eye, is photographed while holding the camera 10. FIG. 7A shows a state where a moving subject such as a white-eye is found, the camera 10 is taken out from a bag or the like, and is held. FIG. 7B shows that the photographer is looking at the display unit 8 while holding the camera 10 because the white-eye fly up and escape while the camera 10 is held and the composition is determined. Show the state.
図8に、図7の状況における表示部8と被写体との関係を示す。図8(a)は、表示部8内にメジロ等の被写体15aが表示されている場合に、被写体15aが飛び去り、表示部8の外側に被写体15bが移動した様子を示している。被写体15bは、表示部8の画面外であることから、撮影者は観察することができない。そこで、図8(b)に示すように、撮影者は被写体15c、15dを探すが、移動体であることから、簡単には見つからず、表示部8で観察することができない。 FIG. 8 shows the relationship between the display unit 8 and the subject in the situation of FIG. FIG. 8A shows a state in which when the subject 15 a such as a white-eye is displayed in the display unit 8, the subject 15 a has jumped away and the subject 15 b has moved to the outside of the display unit 8. Since the subject 15b is outside the screen of the display unit 8, the photographer cannot observe it. Therefore, as shown in FIG. 8B, the photographer searches for the subjects 15c and 15d, but since it is a moving body, it cannot be easily found and cannot be observed on the display unit 8.
そこで、本実施形態においては、位置予測部1b等によって、被写体15の移動先を予測し、図9に示すように、この移動先を表示部8に告知表示18aを行い、撮影者がカメラ10の向きを被写体15の方向に向けるように誘導する。図9に示す例では、「こっちです」と表示し、その方向を矢印で示しているが、表示方法は適宜、変えても良い。そして、予測方向に予測した移動量だけ移動し、予測位置に到達したことを、動き判定部1c等によって検出すると、表示部8に告知表示18bを行ったり、振動部3による振動によって告知を行うようにしている。図9に示す例では、「この辺です」と表示しているが、この表示方法は適宜、変えても良い。 Therefore, in this embodiment, the position prediction unit 1b or the like predicts the movement destination of the subject 15, and displays the movement destination on the display unit 8 as shown in FIG. Is directed toward the subject 15. In the example shown in FIG. 9, “This is” is displayed and the direction is indicated by an arrow, but the display method may be changed as appropriate. When the movement determining unit 1c or the like detects that it has moved by the amount of movement predicted in the prediction direction and has reached the predicted position, a notification display 18b is displayed on the display unit 8 or notification is performed by vibration from the vibration unit 3. I am doing so. In the example shown in FIG. 9, “this side” is displayed, but this display method may be changed as appropriate.
次に、動体位置の予測方法について、図10を用いて説明する。撮像部2の画角をθ0とし(θ0は画面の中央から端までの角度)、画面範囲を1とする。時刻T=0における被写体15gが、画面の端から1/Aの位置にあったとし、時刻T=T0のときに、被写体15hが画面の端に来たとする。現在の時刻をT=Tとすると、このときの被写体15jの画面中央からの角度θは、時刻T=0と時刻T=T0の間の角度θ1および距離1/Aを用いて、
θ=θ1×(T/T0)
=θ0×(1/A)×(T/T0) ・・・(式1)
により求められる。
Next, a method for predicting the moving object position will be described with reference to FIG. The angle of view of the imaging unit 2 is θ0 (θ0 is the angle from the center to the end of the screen), and the screen range is 1. Assume that the subject 15g at the time T = 0 is at a position 1 / A from the edge of the screen, and the subject 15h comes to the edge of the screen at the time T = T0. Assuming that the current time is T = T, the angle θ from the center of the subject 15j at this time is obtained by using the angle θ1 between the time T = 0 and the time T = T0 and the distance 1 / A.
θ = θ1 × (T / T0)
= Θ0 × (1 / A) × (T / T0) (Formula 1)
Is required.
したがって、撮影者は、図11に示すように、式1によって求められた角度θだけ、回動させることにより、被写体15jを再び、表示部8において捕捉することができる。このときの回動角(角度θ)は動き判定部1cによって判定すれば良い。 Therefore, as shown in FIG. 11, the photographer can capture the subject 15j again on the display unit 8 by rotating it by the angle θ obtained by Expression 1. The rotation angle (angle θ) at this time may be determined by the motion determination unit 1c.
次に、本実施形態の動作について、図12に示すカメラ制御のフローチャートを用いて説明する。このカメラ制御のフローに入ると、まず、電源スイッチがオンか否かの判定を行う(S101)。この判定の結果、操作判定部6による判定の結果、電源スイッチがオンでなかった場合には、このカメラ制御のフローを終了する。終了するとスリープ状態に入り、電源スイッチがオンとなると、割り込み処理が行われ、ステップS101より実行する。 Next, the operation of the present embodiment will be described with reference to the camera control flowchart shown in FIG. If the camera control flow is entered, it is first determined whether or not the power switch is on (S101). As a result of this determination, if the result of determination by the operation determination unit 6 is that the power switch is not on, this camera control flow is terminated. When finished, the sleep state is entered, and when the power switch is turned on, an interrupt process is performed, which is executed from step S101.
ステップS101における判定の結果、電源スイッチがオンであった場合には、次に、撮影モードか否かの判定を行う(S102)。この判定の結果、撮影モードに設定されている場合には、次に、画像の取り込みを行い(S103)、画像表示を行う(S104)。すなわち、撮像部2から画像データの取り込みを行い、表示部8に被写体像を動画でライブビュー表示する。撮影者は、このライブビュー表示を見て、構図を決定する。 If the result of determination in step S101 is that the power switch is on, it is next determined whether or not it is in shooting mode (S102). If the result of this determination is that shooting mode has been set, then image capture is performed (S103) and image display is performed (S104). That is, the image data is taken in from the imaging unit 2 and the subject image is displayed in live view on the display unit 8 as a moving image. The photographer determines the composition by looking at the live view display.
画像表示を行うと、次に、振動等の判定を行う(S105)。このステップでは、加速度検知部5の検知出力を入力し、またタッチパネル8bからタッチ検知出力を入力する。続いて、カメラを構えているか否かの判定を行う(S106)。ここでは、加速度検知部5およびタッチパネル8bからの検知出力に基づいて、カメラ10を正しく保持しているか否かの判定を行う。この判定の詳細については、図13を用いて後述する。 Once image display is performed, next, vibration and the like are determined (S105). In this step, the detection output of the acceleration detector 5 is input, and the touch detection output is input from the touch panel 8b. Subsequently, it is determined whether or not the camera is held (S106). Here, it is determined whether or not the camera 10 is correctly held based on detection outputs from the acceleration detection unit 5 and the touch panel 8b. Details of this determination will be described later with reference to FIG.
ステップS106における判定の結果、カメラを構えていた場合には、ステップS111以降において、動体追尾動作を行う。まず、動体有りか否かの判定を行う(S111)。このステップでは、動体判定部1aにおいて、撮像部2からの画像データに基づいて、被写体像の中に、移動する被写体15が存在するか否かの判定を行う。この判定の結果、動体が存在している場合には、方向判定を行う(S112)。このステップでは、動体判定部1aによって、移動している被写体15の移動方向を判定する。続いて、方向位置の表示を行う(S113)。このステップでは、表示部8に、図9に示したような告知表示18aを行い、撮影者にカメラ10を向ける方向を表示する。 If the result of determination in step S106 is that the camera is held, a moving object tracking operation is performed in step S111 and subsequent steps. First, it is determined whether or not there is a moving object (S111). In this step, the moving body determination unit 1a determines whether or not the moving subject 15 exists in the subject image based on the image data from the imaging unit 2. If the result of this determination is that there is a moving object, direction determination is performed (S112). In this step, the moving body determination unit 1a determines the moving direction of the moving subject 15. Subsequently, the direction position is displayed (S113). In this step, the notification display 18a as shown in FIG. 9 is displayed on the display unit 8 to display the direction in which the camera 10 is directed to the photographer.
ステップS106における判定の結果、カメラを構えていなかった場合、またはステップS111における判定の結果、動体がなかった場合、またはステップS113において方向位置表示を行うと、次に、撮影を行うか否かの判定を行う(S121)。このステップでは、レリーズ釦が操作されたか否かを操作判定部6において判定する。 As a result of the determination in step S106, if the camera is not held, or if the result of determination in step S111 is that there is no moving object, or if the direction position display is performed in step S113, whether or not to perform shooting next A determination is made (S121). In this step, the operation determination unit 6 determines whether or not the release button has been operated.
ステップS121における判定の結果、撮影でなかった場合には、次に、動体位置の判定を行う(S124)。このステップでは、位置予測部1bにおいて、移動する被写体15の予測位置を式1に基づいて求める。この動体位置判定の詳細は、図14を用いて後述する。続いて、方向判定、計時開始、およびジャイロ積分を開始する(S125)。ここでは、動き判定部1cにおいて、カメラ10の動きを判定する。すなわち、角加速度検知部7の角加速度センサ55の検知出力に基づいて、カメラ10の動きの方向を検出し、また検知出力を積分することにより移動量を求める。また、時計部9において、ステップS106においてカメラ10がしっかり保持された時点からの時間を計時する。 If the result of determination in step S <b> 121 is that there is no shooting, the moving object position is next determined (S <b> 124). In this step, the position prediction unit 1b obtains the predicted position of the moving subject 15 based on Equation 1. Details of this moving object position determination will be described later with reference to FIG. Subsequently, direction determination, timing start, and gyro integration are started (S125). Here, the movement determination unit 1c determines the movement of the camera 10. That is, based on the detection output of the angular acceleration sensor 55 of the angular acceleration detection unit 7, the direction of movement of the camera 10 is detected, and the movement amount is obtained by integrating the detection output. Further, the timepiece 9 measures the time from when the camera 10 is firmly held in step S106.
次に、カメラの向きが動体位置に達したか否かの判定を行う(S126)。ここでは、ステップS124において予測された位置にカメラ10が到達したか否かを、ステップS125で求めた移動方向、移動量、および移動時間を用いて判定する。この判定の結果、到達した場合には、OK表示、振動、発音を行う(S127)。ここでは、図9に示した告知表示18bのように、被写体15の近傍に達したことを表示部8に告知し、また、振動部3による振動や、ブザー等による発音で告知する。 Next, it is determined whether the camera orientation has reached the moving object position (S126). Here, whether or not the camera 10 has reached the position predicted in step S124 is determined using the moving direction, moving amount, and moving time obtained in step S125. If the result of this determination is that it has reached, OK display, vibration and sounding are performed (S127). Here, as in the notification display 18b shown in FIG. 9, the display unit 8 is notified that the object 15 has been reached, and is also notified by vibrations from the vibration unit 3 and pronunciation by a buzzer or the like.
ステップS126における判定の結果、カメラが動体位置に達していない場合、またはステップS127においてOK表示等を行うと、次に、所定時間が経過したか否かを判定する(S128)。ここでは、時計部9の計時機能を利用し、ステップS106において、カメラを構えたときから、ステップS124〜S127を処理していた時間が予め決めた時間よりも経過したか否かを判定する。 If the result of determination in step S126 is that the camera has not reached the moving object position, or if OK display or the like is performed in step S127, it is next determined whether or not a predetermined time has passed (S128). Here, the time counting function of the clock unit 9 is used, and in step S106, it is determined whether or not the time during which the steps S124 to S127 have been processed has elapsed from the predetermined time since the camera was held.
ステップS128における判定の結果、所定時間が経過していなかった場合には、ステップS121に戻る。一方、所定時間が経過すると、初期化を行う(S129)。ここでは、ステップS106でカメラを構えたことを検知した時に開始した計時動作や、移動する被写体の移動方向等の情報を初期化する。初期化すると、ステップS101に戻る。 If the result of determination in step S128 is that the predetermined time has not elapsed, processing returns to step S121. On the other hand, when a predetermined time has elapsed, initialization is performed (S129). In this step, information such as the timing operation started when the camera is held in step S106 and the moving direction of the moving subject are initialized. After initialization, the process returns to step S101.
ステップS121における判定の結果、撮影であった場合には、撮影を行う(S122)。このステップでは、撮像部2からの画像データを取得する。続いて、日付等と共に記録を行う(S123)。ここでは、取得した画像データについて、画像処理および制御部1において画像処理を行い、画像処理された画像データを記録部4に記録する。また、記録にあたっては、時計部9から取得した撮影日時情報も画像に関連付けて記録する。記録を行うと、ステップS101に戻る。 If the result of determination in step S121 is shooting, shooting is performed (S122). In this step, image data from the imaging unit 2 is acquired. Subsequently, recording is performed together with the date (S123). Here, the acquired image data is subjected to image processing in the image processing and control unit 1, and the image processed image data is recorded in the recording unit 4. In recording, the shooting date / time information acquired from the clock unit 9 is also recorded in association with the image. After recording, the process returns to step S101.
ステップS102における判定の結果、撮影モードでなかった場合には、再生モードか否かの判定を行う(S131)。ここでは、操作判定部6によって再生釦が操作されたか否かの判定を行う。この判定の結果、再生モードでなかった場合には、ステップS101に戻る。一方、再生モードが設定された場合には、再生を行う(S132)。ここでは、記録部4に記録されている画像データを読み出し、表示部8に再生表示する。 If the result of determination in step S <b> 102 is not shooting mode, it is determined whether or not playback mode is set (S <b> 131). Here, it is determined whether or not the playback button has been operated by the operation determination unit 6. If the result of this determination is not playback mode, processing returns to step S101. On the other hand, if the playback mode is set, playback is performed (S132). Here, the image data recorded in the recording unit 4 is read out and reproduced and displayed on the display unit 8.
再生を行うと、次に、再生終了か否かの判定を行う(S133)。ここでは、操作判定部6によって再生終了のための操作がなされたか否かの判定を行う。この判定の結果、再生終了でなかった場合には、ステップS132に戻り、再生を続行する。一方、判定の結果、再生終了であった場合には、ステップS101に戻る。 Once playback has been carried out, it is next determined whether or not playback has ended (S133). Here, it is determined whether or not the operation determining unit 6 has performed an operation for ending reproduction. If the result of this determination is that playback has not ended, processing returns to step S132 and playback continues. On the other hand, if the result of determination is that playback has ended, processing returns to step S101.
このように、本実施形態におけるカメラ制御のフローにおいては、メジロ等の移動する被写体がいた場合には、この被写体の追尾動作を行うことができる。すなわち、カメラ10をしっかり構えたことを検知し(S106)、被写体像の中に動体がいた場合には(S111)、その方向を判定・表示する(S112、S113)。そして、動体の位置を予測すると共にカメラ10の動きを検出し(S124、S125)、予測位置に達するまで動体位置の予測とカメラ10の動き量の検出を繰り返し行い(ステップS124、S125、126→No)、予測位置に達すると(S126→Yes)、その旨を撮影者に告知している(S127)。 Thus, in the camera control flow according to the present embodiment, when there is a moving subject such as a white-eye, the subject can be tracked. That is, it is detected that the camera 10 is firmly held (S106), and if there is a moving object in the subject image (S111), the direction is determined and displayed (S112, S113). Then, the position of the moving object is predicted and the movement of the camera 10 is detected (S124, S125), and the prediction of the moving object position and the detection of the movement amount of the camera 10 are repeated until the predicted position is reached (steps S124, S125, 126 → When the predicted position is reached (S126 → Yes), the photographer is notified of this (S127).
なお、本実施形態においては、カメラ10が正しく構えられたことをステップS106において判定されないと、動体追尾を開始することができず、そのまま通常の撮影モードを実行する。カメラ10が正しく構えられていないと動体追尾を開始しないのは、しっかり構えられていない状態では、動体の方向判定(S112参照)を正しく行うことができず、動体追尾の精度が低下してしまうためである。また、ステップS128において、所定時間が経過したかを判定しているのは、所定時間かけて追尾しても被写体を捕捉できない場合には、追尾を停止するためである。 In this embodiment, if it is not determined in step S106 that the camera 10 is correctly held, the moving body tracking cannot be started, and the normal shooting mode is executed as it is. If the camera 10 is not properly held, the moving object tracking is not started. If the camera 10 is not held firmly, the moving object direction determination (see S112) cannot be performed correctly, and the moving object tracking accuracy decreases. Because. In step S128, it is determined whether or not the predetermined time has elapsed because the tracking is stopped when the subject cannot be captured even after tracking over the predetermined time.
次に、ステップS106におけるカメラを構えたか否かの判定について、図13に示すフローチャートを用いて説明する。図13に示すフローに入ると、まず、横構図か否かを判定し(S201)、横構図でなかった場合には、縦構図か否かの判定を行う(S202)。横構図か縦構図かは、加速度検知部5の出力に基づいて判定する。なお、加速度検知部5以外にも、例えば、重心検知器等を設けて、この出力で判定するようにしても良い。 Next, the determination of whether or not the camera is held in step S106 will be described using the flowchart shown in FIG. When the flow shown in FIG. 13 is entered, it is first determined whether or not the composition is horizontal (S201). If the composition is not horizontal, it is determined whether or not the composition is vertical (S202). Whether the composition is horizontal or vertical is determined based on the output of the acceleration detector 5. In addition to the acceleration detection unit 5, for example, a center of gravity detector may be provided and the determination may be made based on this output.
ステップS201またはステップS202において、Yesと判定された場合、すなわち、横構図か縦構図であった場合には、次に、1秒間振動なしか否かの判定を行う(S203)。このステップでは、加速度検知部5の検知出力に基づいて、1秒間の間、振動がなかったか否かを判定する。なお、1秒間は例示であり、この時間は、これよりも長くても、短くても良く、カメラを正しく構えたといえる程度の時間の間、振動がなければ良い。 If YES is determined in step S201 or step S202, that is, if the composition is a horizontal composition or a vertical composition, it is next determined whether or not there is no vibration for one second (S203). In this step, based on the detection output of the acceleration detector 5, it is determined whether or not there has been no vibration for one second. Note that one second is an example, and this time may be longer or shorter than this, and it is sufficient that there is no vibration for a time period that can be said to hold the camera correctly.
ステップS203における判定の結果、1秒間の間、振動がなければ、次に、所定位置をタッチしているか否かの判定を行う(S204)。このステップでは、タッチパネル8bよりの検知出力に基づいて判定する。横構図の場合には、図6に示すように、右上を保持されることから、この部分に対応する検知出力があるか否かを判定する。また、縦構図の場合にも、この部分を保持されるので、同様にタッチパネル8bの検知出力に基づいて判定する。 If the result of determination in step S203 is that there is no vibration for 1 second, it is next determined whether or not a predetermined position has been touched (S204). In this step, the determination is made based on the detection output from the touch panel 8b. In the case of the horizontal composition, as shown in FIG. 6, since the upper right is held, it is determined whether or not there is a detection output corresponding to this portion. Also, in the case of the vertical composition, since this portion is held, the determination is similarly made based on the detection output of the touch panel 8b.
ステップS204における判定の結果、所定位置がタッチされていた場合には、Yes判定とする。すなわち、この場合には、横構図または縦構図で所定時間の間、振動がなく、撮影者が所定位置を把持していることから、カメラを正しく構えたと判定される。一方、ステップS202における判定の結果、横構図でも縦構図でなかった場合、またはステップS203において、振動があった場合、またはステップS204における判定の結果、所定位置をタッチしていなかった場合には、No判定とする。この場合は、カメラを正しく構えている状態でない。 If the result of determination in step S204 is that a predetermined position has been touched, a Yes determination is made. That is, in this case, it is determined that the camera is correctly held because there is no vibration for a predetermined time in the horizontal composition or the vertical composition and the photographer holds the predetermined position. On the other hand, if the result of determination in step S202 is neither horizontal composition nor vertical composition, if there is vibration in step S203, or if the result of determination in step S204 is that the predetermined position has not been touched, No. In this case, the camera is not properly held.
このように、図13に示すフローでは、カメラをしっかりと把持しているか否かを判定することができる。前述したように、カメラ制御のフローでは、カメラをしっかりと把持している時点を基準として、動体追尾を開始するようにしている。 Thus, in the flow shown in FIG. 13, it can be determined whether or not the camera is firmly held. As described above, in the camera control flow, moving object tracking is started on the basis of the time when the camera is firmly held.
次に、ステップS124における動体位置判定について、図14に示すフローチャートを用いて説明する。このフローチャートでは、動体の位置を時々刻々、予測するフローである。図14に示すフローに入ると、まず、動くもの判定を行う(S301)。このステップでは、動体判定部1aによって、画像データの中から動く被写体が存在するか否かを判定する。動体が存在するか否かは、加速度検知部5によってカメラ10が動いていないにもかかわらず、少なくとも2時点での画像データに変化する部分があった場合には、動体があると判定する。 Next, the moving body position determination in step S124 will be described using the flowchart shown in FIG. In this flowchart, the position of the moving object is predicted every moment. When the flow shown in FIG. 14 is entered, first, a moving object is determined (S301). In this step, the moving object determination unit 1a determines whether or not there is a moving subject from the image data. Whether or not there is a moving object is determined when there is a portion that changes in the image data at at least two time points even though the camera 10 is not moving by the acceleration detection unit 5.
ステップS301において動くもの判定を行うと、次に、Tカウントを行う(S302)。ここでは、図10に示した時刻Tを、時計部9によって計時する。続いて、動体が画面外にあるか否かを判定する(S303)。このステップでは、動体判定部1aによって判定された動体が画面外に出たかを判定する。この判定の結果、画面内にある場合には、画面外になるまで待機する。 If it is determined in step S301 that the object moves, then T count is performed (S302). Here, the time T shown in FIG. Subsequently, it is determined whether or not the moving object is outside the screen (S303). In this step, it is determined whether the moving object determined by the moving object determination unit 1a has gone out of the screen. If the result of this determination is that it is within the screen, it waits until it is outside the screen.
ステップS303における判定の結果、動体が画面外に出ると、次に、そのときの時刻TをT0とする(S304)。続いて、ズーム位置より画角θ0を検出する(S305)。このステップでは、ズームレンズ2aの焦点距離(ズーム位置)を検出し、この焦点距離から決まる画角θ0を求める。画角θ0を検出すると、続いて、現時刻Tにおける動体の予測位置(画角θ)を式1、すなわち、θ=θ0×(1/A)×(T/T0)により求める(S306)。動体の予測位置(画角θ)を求めると、元のフローに戻る。 If the moving object goes out of the screen as a result of the determination in step S303, the time T at that time is set to T0 (S304). Subsequently, the angle of view θ0 is detected from the zoom position (S305). In this step, the focal length (zoom position) of the zoom lens 2a is detected, and the angle of view θ0 determined from this focal length is obtained. When the angle of view θ0 is detected, the predicted position (field angle θ) of the moving object at the current time T is then obtained by Equation 1, that is, θ = θ0 × (1 / A) × (T / T0) (S306). When the predicted position (angle of view θ) of the moving object is obtained, the original flow is restored.
このように、動体位置判定においては、動体が存在する場合には、撮像部2の画角θ0と、動体の初期位置から画面端までの距離(1/A)と、動体が画面外に出るまでの時間(T0)に基づいて、現時刻Tにおける動体の予測位置(画角θ)を求めることができる。このため、時々刻々移動する動体の位置を予測することができる。なお、図12のフローにおいては、動体が画面外に出てからも、動体位置判定のフローを繰り返し実行するが、その場合には、ステップS301〜S305をスキップし、ステップS306を実行すれば良い。 As described above, in the moving object position determination, when a moving object exists, the angle of view θ0 of the imaging unit 2, the distance (1 / A) from the initial position of the moving object to the screen edge, and the moving object goes out of the screen. The predicted position (view angle θ) of the moving object at the current time T can be obtained based on the time until (T0). For this reason, it is possible to predict the position of the moving object that moves moment by moment. In the flow of FIG. 12, the moving object position determination flow is repeatedly executed even after the moving object goes out of the screen. In this case, steps S301 to S305 may be skipped and step S306 may be executed. .
以上説明したように、本発明の一実施形態においては、移動する被写体が存在すると判定された場合には、カメラの撮影方向の変化と、移動被写体の存在方向を比較し、その比較結果を告知するようにしている。このため、撮影者の意図しない焦点距離となることなく、移動する被写体を追尾できる。 As described above, in the embodiment of the present invention, when it is determined that there is a moving subject, the change in the shooting direction of the camera is compared with the direction in which the moving subject exists, and the comparison result is notified. Like to do. For this reason, a moving subject can be tracked without a focal length not intended by the photographer.
また、本発明の一実施形態においては、移動被写体の存在を判定するにあたって、カメラが正しく構えられたときに行うようにしているので、正確に移動被写体の存在を判定することができる。また、移動被写体の存在を判定した場合には、その移動方向を判定し、表示するようにしているので、撮影者は、一旦、移動被写体を見失っても、カメラを移動被写体がいる方向に向けることができ、短時間で、移動被写体を捕捉することができる。 In the embodiment of the present invention, the presence of the moving subject is determined when the camera is correctly held, so that the presence of the moving subject can be accurately determined. Further, when the presence of the moving subject is determined, the moving direction is determined and displayed, so that even if the photographer once loses sight of the moving subject, he orients the camera in the direction in which the moving subject exists. The moving subject can be captured in a short time.
さにら、本発明の一実施形態においては、移動被写体が存在するか否かの判定にあたって、カメラが空間上で固定された位置(すなわち、カメラが正しく構えられた位置)で行うようにしているので、移動被写体の存在を正確に判定することができる。また、この時点を基準にして、移動被写体の移動速度を検出するようにしているので、移動被写体の移動位置を正確に予測することができる。 Furthermore, in one embodiment of the present invention, the determination as to whether or not there is a moving subject is performed at a position where the camera is fixed in space (that is, the position where the camera is correctly held). Therefore, it is possible to accurately determine the presence of the moving subject. Further, since the moving speed of the moving subject is detected based on this time point, the moving position of the moving subject can be accurately predicted.
なお、本発明の一実施形態においては、撮影にあたっては静止画撮影を行っている例について説明したが、動画も撮影するようにしても良い。この場合には、動画の撮影時に移動する被写体が存在する場合には、一実施形態と同様に、移動方向を示し、予測された位置に到達した場合に、表示部8に視覚表示を行うようにすれば良い。 In the embodiment of the present invention, an example in which still image shooting is performed at the time of shooting has been described, but a moving image may also be shot. In this case, if there is a moving subject when shooting a moving image, the moving direction is indicated as in the case of the embodiment, and when the predicted position is reached, visual display is performed on the display unit 8. You can do it.
また、本発明の一実施形態においては、移動する被写体の移動位置の予測にあたって、初期位置から画面の端まで移動するのに要する時間と、その間の距離に基づいて、移動位置の予測を行っていたが、画面内の任意の位置から任意の位置に移動するのに要する時間と、その間の距離に基づいて、移動位置を予測するようにしても良い。 In one embodiment of the present invention, in predicting the movement position of a moving subject, the movement position is predicted based on the time required to move from the initial position to the edge of the screen and the distance therebetween. However, the moving position may be predicted based on the time required to move from an arbitrary position on the screen to an arbitrary position and the distance between them.
さらに、本発明の一実施形態においては、カメラを正しく構えているかの判定にあたって(図13参照)、構図、振動の有無、および所定位置のタッチの3つの条件で判定していたが、条件は、この3条件以外に加えてもよく、また3条件の内の1条件または2条件としても良い。さらに、予測位置に到達した際に、振動、視覚表示、および聴覚表示の3つの表示方法で告知していたが、このうちの1つでの、またいずれかを組み合わせるようにしても良い。 Furthermore, in one embodiment of the present invention, in determining whether the camera is correctly held (see FIG. 13), the determination is made based on three conditions: composition, presence / absence of vibration, and touch at a predetermined position. In addition to these three conditions, one condition or two conditions among the three conditions may be added. Further, when the predicted position is reached, the notification is made by three display methods of vibration, visual display, and auditory display, but any one of them may be combined.
さらに、本発明の一実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話や携帯情報端末(PDA:Personal Digital Assist)、ゲーム機器等に内蔵されるカメラでも構わない。 Furthermore, in the embodiment of the present invention, the digital camera is used as the photographing device. However, the camera may be a digital single lens reflex camera or a compact digital camera, such as a video camera or a movie camera. It may be a camera for moving images, or may be a camera built in a mobile phone, a personal digital assistant (PDA), a game device, or the like.
本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
1・・・画像処理及び制御部、1a・・・動体判定部、1b・・・位置予測部、1c・・・動き判定部、2・・・撮像部、2a・・・ズームレンズ、3・・・振動部、4・・・記録部、5・・・加速度検知部、6・・・操作判定部、7・・・角加速度検知部、8・・・表示部、8b・・・タッチパネル、9・・・時計部、10・・・カメラ、15a〜15j・・・被写体、18a・・・告知表示、18b・・・告知表示、50・・・加速度センサ、51・・・金属部、51a・・・基点、51b・・・架橋部、51c・・・検知部、52・・・金属部、55・・・角加速度センサ、56・・・圧電セラミック素子、61・・・矢印、62・・・矢印、80・・・液晶、80a・・・バックライト、80b・・・光センサ、81・・・指 DESCRIPTION OF SYMBOLS 1 ... Image processing and control part, 1a ... Moving body determination part, 1b ... Position prediction part, 1c ... Motion determination part, 2 ... Imaging part, 2a ... Zoom lens, 3. ..Vibration unit, 4 ... recording unit, 5 ... acceleration detection unit, 6 ... operation determination unit, 7 ... angular acceleration detection unit, 8 ... display unit, 8b ... touch panel, DESCRIPTION OF SYMBOLS 9 ... Clock part, 10 ... Camera, 15a-15j ... Subject, 18a ... Notification display, 18b ... Notification display, 50 ... Acceleration sensor, 51 ... Metal part, 51a・ ・ ・ Base point, 51b ・ ・ ・ Bridged part, 51c ・ ・ ・ Sensing part, 52 ・ ・ ・ Metal part, 55 ・ ・ ・ Angular acceleration sensor, 56 ・ ・ ・ Piezoelectric ceramic element, 61 ・ ・ ・ Arrow, 62 ..Arrow, 80 ... Liquid crystal, 80a ... Backlight, 80b ... Optical sensor, 81 ... Finger
Claims (7)
上記撮像部による撮像結果を表示する表示部と、
カメラが構えられているか否かを判定するホールディング判定部と、
上記ホールディング判定部によって上記カメラが構えられていると判定された際に、上記表示部の画面内を移動する移動体を判定する移動被写体判定部と、
上記移動被写体判定部による判定結果と上記撮像部の画角に基づいて、上記移動体の存在する方向を判定し、上記ホールディング判定によって上記カメラが構えられていると判定された時から、上記カメラの撮影方向の変化と上記移動体の存在方向を比較し、その比較結果を告知する告知部と、
を有することを特徴とするカメラ。 An imaging unit for imaging a subject;
A display unit for displaying a result of imaging by the imaging unit;
A holding determination unit for determining whether or not the camera is held;
A moving subject determination unit that determines a moving body that moves within the screen of the display unit when the holding determination unit determines that the camera is held;
Based on the determination result by the moving subject determination unit and the angle of view of the imaging unit, the direction in which the moving object is present is determined, and the camera is determined to have been held by the holding determination. A notification section for comparing the change in the shooting direction of the moving object and the direction in which the moving object exists, and notifying the comparison result,
A camera characterized by comprising:
上記画像データに基づいて、動体が存在するか否かを判定する動体判定部と、
上記動体判定部によって判定された動体の移動速度よび移動方向に基づいて、現時点における位置を予測する位置予測部と、
カメラの動きを検知知、上記現時点における位置に上記カメラが達したかを判定する動き判定部と、
上記動き判定部による判定結果を告知する告知部と、
を有することを特徴とするカメラ。 An imaging unit for converting a subject image into image data;
A moving object determination unit that determines whether a moving object exists based on the image data;
A position predicting unit that predicts a current position based on the moving speed and moving direction of the moving object determined by the moving object determining unit;
Detecting the movement of the camera, and a motion determination unit for determining whether the camera has reached the current position;
A notification unit for notifying the determination result by the motion determination unit;
A camera characterized by comprising:
上記告知部は、上記動体の移動方向を表示する、
ことを特徴とする請求項4に記載のカメラ。 When the moving object determining unit determines that the moving object exists, the moving object determining unit also determines a moving direction of the moving object,
The notification unit displays the moving direction of the moving object.
The camera according to claim 4.
上記画像データに基づいて被写体像を表示部に表示し、
カメラが構えられているか否かを判定し、
上記カメラが構えられていると判定された際に、上記表示部の画面内を移動する移動体を判定し、
上記移動体の移動方向を判定し、
上記カメラが構えられていると判定された時から、上記カメラの撮影方向の変化と上記移動体の存在方向を比較し、その比較結果を告知する、
を有することを特徴とする被写体追尾方法。 The subject is converted into image data by the imaging unit,
A subject image is displayed on the display unit based on the image data,
Determine if the camera is set up,
When it is determined that the camera is set, a moving body that moves within the screen of the display unit is determined,
Determine the moving direction of the moving body,
Since it is determined that the camera is set up, the change in the shooting direction of the camera is compared with the direction in which the moving object is present, and the comparison result is announced.
An object tracking method characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009073125A JP5325626B2 (en) | 2009-03-25 | 2009-03-25 | Camera and subject tracking method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009073125A JP5325626B2 (en) | 2009-03-25 | 2009-03-25 | Camera and subject tracking method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010226554A true JP2010226554A (en) | 2010-10-07 |
JP2010226554A5 JP2010226554A5 (en) | 2012-05-10 |
JP5325626B2 JP5325626B2 (en) | 2013-10-23 |
Family
ID=43043237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009073125A Expired - Fee Related JP5325626B2 (en) | 2009-03-25 | 2009-03-25 | Camera and subject tracking method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5325626B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006074368A (en) * | 2004-09-01 | 2006-03-16 | Nikon Corp | Electronic camera |
JP2007129480A (en) * | 2005-11-02 | 2007-05-24 | Omron Corp | Imaging device |
-
2009
- 2009-03-25 JP JP2009073125A patent/JP5325626B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006074368A (en) * | 2004-09-01 | 2006-03-16 | Nikon Corp | Electronic camera |
JP2007129480A (en) * | 2005-11-02 | 2007-05-24 | Omron Corp | Imaging device |
Also Published As
Publication number | Publication date |
---|---|
JP5325626B2 (en) | 2013-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5495602B2 (en) | Imaging apparatus and imaging method | |
US20080231714A1 (en) | System and method for capturing images | |
KR101352879B1 (en) | Electronic apparatus and control method thereof | |
JP2010193031A (en) | Photographic apparatus and method for controlling the same | |
JP2011180262A (en) | Focus control apparatus | |
JP2013017165A (en) | Imaging apparatus | |
JP2009038515A (en) | Vibration control device, vibration control method, and program | |
JP2003107338A (en) | Auto-focusing device | |
JP5325626B2 (en) | Camera and subject tracking method | |
JP2007189384A (en) | Imaging apparatus, control method, and control program | |
JP5941584B2 (en) | Mobile terminal, power control method for mobile terminal, program, and photographing apparatus | |
JP2007199668A (en) | Image pickup device, method and program of controlling image pickup device | |
JP2005316305A (en) | Imaging apparatus and imaging method | |
JP2015119299A (en) | Imaging apparatus | |
JP5927273B2 (en) | Focus control device and control method of focus control device | |
JP5495579B2 (en) | Detection device and control method of detection device | |
JP6506433B2 (en) | INFORMATION TERMINAL, POWER SUPPLY CONTROL METHOD OF INFORMATION TERMINAL, AND PROGRAM | |
JP2007180990A (en) | Imaging apparatus, control method, and control program | |
JP6521900B2 (en) | Camera phone, camera phone power control method and program | |
JP2007194813A (en) | Imaging apparatus, control method, and control program | |
JP5785288B2 (en) | Image capturing apparatus and method for controlling image capturing apparatus | |
JP2021033089A (en) | Imaging device, method for controlling the same, and program | |
JP2006005417A (en) | Photographing apparatus | |
JP2007208814A (en) | Imaging apparatus, control method, and control program | |
JP2015167309A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120315 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120315 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130319 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130410 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130624 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130722 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5325626 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |