JP7064609B2 - Shooting equipment, shooting method, and program - Google Patents
Shooting equipment, shooting method, and program Download PDFInfo
- Publication number
- JP7064609B2 JP7064609B2 JP2020548105A JP2020548105A JP7064609B2 JP 7064609 B2 JP7064609 B2 JP 7064609B2 JP 2020548105 A JP2020548105 A JP 2020548105A JP 2020548105 A JP2020548105 A JP 2020548105A JP 7064609 B2 JP7064609 B2 JP 7064609B2
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- event
- folder
- shooting
- image file
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 53
- 238000001514 detection method Methods 0.000 claims description 59
- 230000008859 change Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 23
- 238000012545 processing Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 16
- 238000000605 extraction Methods 0.000 description 15
- 230000033001 locomotion Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000422 nocturnal effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/02—Bodies
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/02—Bodies
- G03B17/16—Bodies for containing both motion-picture camera and still-picture camera
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B7/00—Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
- G03B7/08—Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
- G03B7/091—Digital circuits
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/92—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Studio Devices (AREA)
- Structure And Mechanism Of Cameras (AREA)
- Television Signal Processing For Recording (AREA)
- Exposure Control For Cameras (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
Description
本発明は、撮影装置、撮影方法、及びプログラムに関し、特に動画ファイルを記憶する技術に関する。
The present invention relates to a photographing device, a photographing method, and a program, and particularly to a technique for storing a moving image file.
従来より、動画撮影を行いながら、静止画を取得する技術が知られている。
Conventionally, a technique for acquiring a still image while shooting a moving image has been known.
例えば、特許文献1では、動画撮影時に動画の中から静止画として出力するのに適した画像のみを特定する技術が提案されている。具体的には、特許文献1に記載の技術では、動画撮影時にその撮影画像の変化度合いが所定レベル(50%)以上であることを判別し、その時点での画像フレームを静止画の出力候補として特定して候補フラグを付加する。そして、特許文献1に記載の技術では、動画ファイルに対して静止画の出力が指示された際に、候補フラグが付加されている各画像フレームを抽出して静止画の出力候補として一覧表示させた後、この一覧表示の中から任意に選択された画像フレームを静止画として出力させている。
For example,
又近年、被写体の一瞬のシーンを捉えるために、静止画抽出用の動画を撮影する動画撮影モードを有する撮影装置が提案されている。例えば、特許文献2に記載の技術では、静止画抽出用の動画が、通常の動画と比べて1フレームの露光時間が短く設定されたものである。
Further, in recent years, in order to capture a momentary scene of a subject, a shooting device having a moving image shooting mode for shooting a moving image for extracting a still image has been proposed. For example, in the technique described in Patent Document 2, the moving image for extracting a still image is set so that the exposure time of one frame is shorter than that of a normal moving image.
ここで、動画撮影を行いながらユーザが意図するイベントが発生した際の静止画を抽出したいというニーズがある。予測が可能なイベントの静止画を撮影する場合には、ユーザはイベントの発生を予測して撮影指示を出し、撮影指示から数十秒程度の動画又は静止画を記録する。そしてユーザは、その動画又は静止画を確認することにより、イベントの発生を捉えた所望の静止画を得ることができる。尚、ある程度予測が可能なイベントとは、例えばスポーツにおいてはテニスラケットでボールを打つ瞬間、サッカーでシュートする瞬間等である。
Here, there is a need to extract a still image when an event intended by the user occurs while shooting a moving image. When shooting a still image of a predictable event, the user predicts the occurrence of the event, issues a shooting instruction, and records a moving image or a still image of about several tens of seconds from the shooting instruction. Then, the user can obtain a desired still image that captures the occurrence of the event by checking the moving image or the still image. In sports, for example, an event that can be predicted to some extent is a moment of hitting a ball with a tennis racket, a moment of shooting with soccer, or the like.
一方で、雷や夜行性動物の観察など、いつ起こるか予測ができないイベントに対しては長時間において動画を記録する必要がある。長時間の動画から特定のイベントを捉えたフレームを手作業で見つけ出すのには、大きな労力と時間が必要となる。そこで、このような場合には、例えば特許文献1に記載されたように、自動(撮影画像の変化度合い)でイベントを捉えたフレームを特定し、特定されたフレームに対して候補フラグを付加する技術を適用することが考えられる。
On the other hand, for events where it is unpredictable when it will occur, such as lightning and observation of nocturnal animals, it is necessary to record moving images for a long time. It takes a lot of effort and time to manually find a frame that captures a specific event from a long video. Therefore, in such a case, for example, as described in
しかし、このような候補フラグを付加する技術は必ずしも標準化されておらず、記録メディアを介した外部機器とのデータ通信を行った場合に、候補フラグが上手く機能しない場合がある。
However, the technique for adding such a candidate flag is not always standardized, and the candidate flag may not function well when data communication with an external device is performed via a recording medium.
又、候補フラグが付加されたフレームを抽出する場合には、改めて全フレームを解析して候補フラグが付加されたフレームを抽出する必要があり、候補フラグが付加されたフレーム(イベントフレーム)の抽出及び表示に時間が必要となる。
In addition, when extracting the frame to which the candidate flag is added, it is necessary to analyze all the frames again and extract the frame to which the candidate flag is added, and to extract the frame to which the candidate flag is added (event frame). And time is required for display.
又、特許文献1に記載された技術のように、イベントの発生の検出を画像処理等により自動で行って候補フラグを付加する技術は、必ずしもユーザが所望するフレームに候補フラグを付加できるとは限らない。例えば、自動での候補フラグの付加が上手く作用していない場合や、自動での候補フラグの付加は上手く作用しているが、ユーザとしてはイベントフレームの前後のフレームを所望する場合がある。
Further, a technique such as the technique described in
本発明はこのような事情に鑑みてなされたもので、その目的は、記録メディアを介した外部機器とのデータ通信を行った場合においても、ユーザが所望するイベントを捉えたフレームを簡便に且つ迅速に見つけだすことができる撮影装置、撮影方法、及びプログラムを提供することである。
The present invention has been made in view of such circumstances, and an object of the present invention is to easily and easily capture a frame that captures an event desired by a user even when data communication is performed with an external device via a recording medium. It is to provide a shooting device, a shooting method, and a program that can be quickly found.
上記目的を達成するための本発明の一の態様である撮影装置は、第1の動画撮影モード、又は、第1の動画撮影モードと撮影条件が異なる第2の動画撮影モードに基づいて動画を撮影する撮影部と、撮影部で取得した動画から複数の動画ファイルを生成する動画ファイル生成部と、動画ファイルを記憶する第1のフォルダと第2のフォルダを有する記憶部と、動画を構成する複数のフレームからイベントを含むイベントフレームを検出するイベント検出部と、第2の動画撮影モードが選択された場合に、複数の動画ファイルのうちイベントフレームが含まれる第1の動画ファイルを第1のフォルダに、イベントフレームが含まれない動画ファイルを第2のフォルダに保存する制御部と、を備える。
The shooting device according to one aspect of the present invention for achieving the above object captures a moving image based on a first moving image shooting mode or a second moving image shooting mode in which shooting conditions are different from those of the first movie shooting mode. A video is composed of a shooting unit for shooting, a video file generation unit for generating a plurality of video files from the video acquired by the shooting unit, and a storage unit having a first folder and a second folder for storing the video files. When the event detection unit that detects an event frame containing an event from a plurality of frames and the second video recording mode are selected, the first video file containing the event frame among the plurality of video files is used as the first video file. The folder includes a control unit that saves a moving image file that does not include an event frame in a second folder.
本態様によれば、動画ファイル生成部により複数の動画ファイルが生成され、イベントを含むイベントフレームが含まれる第1の動画ファイルが第1のフォルダに、イベントフレームが含まれない第2の動画ファイルが第2のフォルダに保存される。これにより、本態様は、記録メディアを介した外部機器とのデータ通信を行った場合においても、ユーザが所望するイベントを捉えたフレームを簡便に且つ迅速に見つけだすことができる。
According to this aspect, a plurality of video files are generated by the video file generation unit, and the first video file containing the event frame containing the event is in the first folder and the second video file not containing the event frame. Is saved in the second folder. Thereby, in this aspect, even when data communication with an external device is performed via a recording medium, it is possible to easily and quickly find a frame that captures an event desired by the user.
好ましくは、動画ファイル生成部は、動画を設定された時間ごとに分割して複数の動画ファイルを生成するものであって、制御部は、複数の動画ファイルのうち、第1の動画ファイルの時系列において前の第2の動画ファイル、又は、第1の動画ファイルの時系列において後の第3の動画ファイルを第1のフォルダに保存する。
Preferably, the moving image file generation unit generates a plurality of moving image files by dividing the moving image at a set time, and the control unit is the first moving image file among the plurality of moving image files. The second moving image file before the sequence or the third moving image file after the third moving image file in the time series of the first moving image file is saved in the first folder.
好ましくは、撮影装置は、第1の動画ファイルにおけるイベントフレームの位置を特定するフレーム位置特定部を備え、制御部は、特定されたフレームの位置に基づいて、第2の動画ファイル、又は、第3の動画ファイルを第1のフォルダに保存する。
Preferably, the photographing device includes a frame position specifying unit for specifying the position of the event frame in the first moving image file, and the control unit is a second moving image file or a second moving unit based on the position of the specified frame. Save the video file of 3 in the first folder.
好ましくは、動画ファイル生成部は、第1のフォルダに保存された第1の動画ファイルと、第2の動画ファイル、又は、第3の動画ファイルを連結して一つの連結動画ファイルを生成する。
Preferably, the moving image file generation unit concatenates the first moving image file stored in the first folder with the second moving image file or the third moving image file to generate one connected moving image file.
好ましくは、制御部は、第1の動画ファイルを第2のフォルダにも保存する。
Preferably, the control unit also stores the first moving image file in the second folder.
好ましくは、記憶部は、第1の記憶メディアと第2の記憶メディアとで構成されており、第1のフォルダは第1の記憶メディアに設けられ、第2のフォルダは第2の記憶メディアに設けられている。
Preferably, the storage unit is composed of a first storage medium and a second storage medium, the first folder is provided in the first storage medium, and the second folder is in the second storage medium. It is provided.
好ましくは、第1のフォルダ及び第2のフォルダは、仮想フォルダである。
Preferably, the first folder and the second folder are virtual folders.
好ましくは、第2の動画撮影モードは、第1の動画撮影モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、及びホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、且つ/又は第1の動画撮影モードに対してフレームレートが高く設定される。
Preferably, in the second moving image shooting mode, at least one of the shutter speed, the autofocus speed, the autoexposure following speed, and the white balance following speed is set to be higher than that of the first moving image shooting mode. And / or the frame rate is set higher than that of the first moving image shooting mode.
好ましくは、イベント検出部は、動画を構成するフレームにおいて、撮影シーンの変化を検出することによりイベントを検出する。
Preferably, the event detection unit detects an event by detecting a change in the shooting scene in the frame constituting the moving image.
好ましくは、撮影装置は、動画の撮影中にユーザからの指示を受け付ける指示受付部を備え、イベント検出部は、指示に基づいてイベントを検出する。
Preferably, the shooting device includes an instruction receiving unit that receives an instruction from the user during shooting of a moving image, and the event detecting unit detects an event based on the instruction.
好ましくは、記憶部は、第2のフォルダに保存される動画ファイルを上書きする。
Preferably, the storage unit overwrites the moving image file stored in the second folder.
好ましくは、記憶部は、第2のフォルダに保存される動画ファイルを所定の条件に基づいて自動的に削除する。
Preferably, the storage unit automatically deletes the moving image file stored in the second folder based on a predetermined condition.
本発明の他の態様である撮影方法は、第1の動画撮影モード、又は、第1の動画撮影モードと撮影条件が異なる第2の動画撮影モードに基づいて動画を撮影するステップと、撮影するステップで撮影した動画から複数の動画ファイルを生成するステップと、動画を構成する複数のフレームからイベントを含むイベントフレームを検出するステップと、第2の動画撮影モードが選択された場合に、複数の動画ファイルのうち、イベントフレームが含まれる第1の動画ファイルを記憶部の第1のフォルダに、イベントフレームが含まれない動画ファイルを記憶部の第2のフォルダに記憶するステップと、を含む。
The shooting method according to another aspect of the present invention includes a step of shooting a moving image based on a first moving image shooting mode or a second moving image shooting mode in which shooting conditions are different from those of the first moving image shooting mode. A step to generate multiple video files from the video shot in the step, a step to detect an event frame containing an event from multiple frames constituting the video, and a plurality of steps when the second video shooting mode is selected. Among the moving image files, the first moving image file including the event frame is stored in the first folder of the storage unit, and the moving image file not including the event frame is stored in the second folder of the storage unit.
好ましくは、動画ファイルを生成するステップは、動画を設定された時間ごとに分割して複数の動画ファイルを生成するものであって、記憶するステップは、複数の動画ファイルのうち、第1の動画ファイルの時系列において前の第2の動画ファイル、又は、第1の動画ファイルの時系列において後の第3の動画ファイルを第1のフォルダに保存する。
Preferably, the step of generating a moving image file is to divide the moving image into a set time to generate a plurality of moving image files, and the step of storing the moving image is the first moving image among the plurality of moving image files. The second moving image file before in the time series of files or the third moving image file after in the time series of the first moving image file is saved in the first folder.
好ましくは、第1の動画ファイルにおけるイベントフレームの位置を特定するステップを備え、記憶するステップは、特定されたフレームの位置に基づいて、第2の動画ファイル、又は、第3の動画ファイルを第1のフォルダに保存する。
Preferably, the step of identifying the position of the event frame in the first moving image file is provided, and the step of storing the second moving image file or the third moving image file is based on the position of the identified frame. Save to 1 folder.
好ましくは、動画ファイルを生成するステップは、第1のフォルダに保存された第1の動画ファイルと、第2の動画ファイル、又は、第3の動画ファイルを連結して一つの連結動画ファイルを生成する。
Preferably, the step of generating a video file is to concatenate the first video file stored in the first folder with the second video file or the third video file to generate one concatenated video file. do.
好ましくは、記憶するステップは、第1の動画ファイルを第2のフォルダにも保存する。
Preferably, the memorizing step also saves the first moving image file to a second folder.
好ましくは、記憶部は、第1の記憶メディアと第2の記憶メディアとで構成されており、第1のフォルダは第1の記憶メディアに設けられ、第2のフォルダは第2の記憶メディアに設けられている。
Preferably, the storage unit is composed of a first storage medium and a second storage medium, the first folder is provided in the first storage medium, and the second folder is in the second storage medium. It is provided.
好ましくは、第1のフォルダ及び第2のフォルダは、仮想フォルダである。
Preferably, the first folder and the second folder are virtual folders.
好ましくは、第2の動画撮影モードは、第1の動画撮影モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、及びホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、且つ/又は第1の動画撮影モードに対してフレームレートが高く設定される。
Preferably, in the second moving image shooting mode, at least one of the shutter speed, the autofocus speed, the autoexposure following speed, and the white balance following speed is set to be higher than that of the first moving image shooting mode. And / or the frame rate is set higher than that of the first moving image shooting mode.
好ましくは、検出するステップは、動画を構成するフレームにおいて、撮影シーンの変化を検出することによりイベントを検出する。
Preferably, the detection step detects an event by detecting a change in the shooting scene in the frame constituting the moving image.
好ましくは、動画の撮影中にユーザからの指示を受け付けるステップを含み、検出するステップは、指示に基づいてイベントを検出する。
Preferably, the step of receiving an instruction from the user during the shooting of the moving image includes the step of detecting the event based on the instruction.
本発明の他の態様であるプログラムは、第1の動画撮影モード、又は、第1の動画撮影モードと撮影条件が異なる第2の動画撮影モードに基づいて動画を撮影する撮影ステップと、撮影ステップで撮影した動画から複数の動画ファイルを生成する動画ファイル生成ステップと、動画を構成する複数のフレームからイベントを含むイベントフレームを検出する検出ステップと、第2の動画撮影モードが選択された場合に、複数の動画ファイルのうち、イベントフレームが含まれる第1の動画ファイルを記憶部の第1のフォルダに、イベントフレームが含まれない動画ファイルを記憶部の第2のフォルダに記憶する記憶ステップと、を含む撮影工程をコンピュータに実行させる。
The program according to another aspect of the present invention includes a shooting step of shooting a moving image based on a first moving image shooting mode or a second moving image shooting mode having different shooting conditions from the first moving image shooting mode, and a shooting step. A video file generation step that generates multiple video files from the video shot in
本発明によれば、動画ファイル生成部により複数の動画ファイルが生成され、イベントを含むイベントフレームが含まれる第1の動画ファイルが第1のフォルダに、イベントフレームが含まれない第2の動画ファイルが第2のフォルダに保存されるので、記録メディアを介した外部機器とのデータ通信を行った場合においても、ユーザが所望するイベントを捉えたフレームを簡便に且つ迅速に見つけだすことができる。
According to the present invention, a plurality of moving image files are generated by the moving image file generation unit, and the first moving image file containing an event frame containing an event is in the first folder and the second moving image file not containing an event frame. Is stored in the second folder, so that even when data communication with an external device is performed via a recording medium, a frame that captures an event desired by the user can be easily and quickly found.
以下、添付図面にしたがって本発明にかかる撮影装置、撮影方法、及びプログラムの好ましい実施の形態について説明する。
Hereinafter, preferred embodiments of the photographing apparatus, photographing method, and program according to the present invention will be described with reference to the accompanying drawings.
図1は、本発明の撮影装置10の構成を示す図である。撮影装置10は交換レンズ100及び撮影装置本体200により構成され、後述するズームレンズ110を含む撮影レンズにより被写体像(光学像)を撮像素子210に結像させる。交換レンズ100と撮影装置本体200とは、図示せぬマウントを介して装着及び取り外しすることができる。
FIG. 1 is a diagram showing the configuration of the photographing
交換レンズ100は、ズームレンズ110と、フォーカスレンズ120と、絞り130と、レンズ駆動部140とを備える。レンズ駆動部140は、CPU(Central Processing Unit)240からの指令に応じてズームレンズ110、フォーカスレンズ120を進退駆動してズーム(光学ズーム)調整、フォーカス調整を行う。ズーム調整及びフォーカス調整は、CPU240からの指令に応じて行う他に、ユーザが行ったズーム操作、フォーカス操作(図示せぬズームリング、フォーカスリングの回動等)に応じて行ってもよい。又、レンズ駆動部140はCPU240からの指令に応じて絞り130を制御し、露出を調整する。一方、ズームレンズ110及びフォーカスレンズ120の位置、絞り130の開放度等の情報がCPU240に入力される。尚、交換レンズ100は光軸Lを有する。
The
撮影装置本体200は、撮像素子210、AFE220(AFE:Analog Front End)、A/D変換器230(A/D:Analog to Digital)、及びCPU240を備える。撮影装置本体200は、撮像素子210に透過させる光を遮光するためのシャッター(不図示)を有していてもよい。撮像素子210は、多数の受光素子がマトリクス状に配列された受光面を備え、ズームレンズ110、フォーカスレンズ120、及び絞り130を透過した被写体光が撮像素子210の受光面上に結像され、各受光素子によって電気信号に変換される。撮像素子210の受光面上にはR(赤),G(緑),又はB(青)のカラーフィルタが設けられており、各色の信号に基づいて被写体のカラー画像を取得することができる。尚、撮像素子210としては、CMOS(Complementary Metal-Oxide Semiconductor)、CCD(Charge-Coupled Device)等の様々な光電変換素子を用いることができる。AFE220は撮像素子210から出力されるアナログ画像信号のノイズ除去、増幅等を行い、A/D変換器230は、取り込んだアナログ画像信号を階調幅があるデジタル画像信号に変換する。
The image pickup device
撮影装置10は撮影モードとして静止画撮影モード、通常動画撮影モード(第1の動画撮影モード)、静止画抽出用動画撮影モード(第2の動画撮影モード)のいずれかを設定することができる。静止画撮影モード、通常動画撮影モードは通常のデジタルカメラと同様のモードであり、静止画抽出用動画撮影モードでは通常動画撮影モードと撮影条件が異なる動画(動画自体の鑑賞よりも静止画の抽出を重視した撮影条件の動画)を撮影する。具体的には、静止画抽出用動画撮影モードでは、通常動画撮影モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、ホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、且つ/又は通常動画撮影モードに対してフレームレートが高く設定される。又、解像度及びフレームレートは撮影装置10で設定可能な最高値(例えば4,000×2,000画素、30フレーム/秒)に設定され、色調も静止画抽出を前提として設定される。ISO感度の上限も通常動画撮影モードより高くする。
The
例えばシャッタースピードに関しては、通常動画撮影モードでは記録する動画のフレームレートに対応した値(フレームレートが30フレーム/秒の場合、1/30秒)に設定されるが、静止画抽出用動画モードではフレーム間隔よりも高速(例えば、1/30秒未満)に設定される。通常動画撮影モードでは、滑らかな動画が再生されるようにシャッタースピードが動画のフレームレートに対応した値に設定されるが、この場合動く被写体に対してはブレが生じる可能性がある。このため、静止画抽出用動画撮影モードではシャッタースピードを通常動画撮影モードよりも高速(フレーム間隔よりも高速)に設定しており、これにより被写体のブレが少ない高画質な静止画を抽出することが可能になる。同様に、ISO感度の上限を高くすることでシャッタースピードを高速化でき、これによりブレが少ない静止画を抽出することができる。又、オートフォーカスの速度,自動露出の追従速度やオートホワイトバランスの追従速度等が通常動画撮影モードよりも高速に設定されることで、被写体に合焦したフレーム、露出が適正なフレーム等を多く取得することができる。フレームレートについても、高レートに設定することで動画のフレーム間隔が短くなり、静止画として抽出できるフレームが増加する。
For example, the shutter speed is usually set to a value corresponding to the frame rate of the recorded video (1/30 seconds when the frame rate is 30 frames / sec) in the video shooting mode, but in the still image extraction video mode. It is set to be faster than the frame interval (for example, less than 1/30 second). In the normal movie shooting mode, the shutter speed is set to a value corresponding to the frame rate of the movie so that a smooth movie is played, but in this case, blurring may occur for a moving subject. For this reason, in the still image extraction movie shooting mode, the shutter speed is set to be faster than the normal movie shooting mode (faster than the frame interval), which allows you to extract high-quality still images with less blurring of the subject. Will be possible. Similarly, by increasing the upper limit of the ISO sensitivity, the shutter speed can be increased, and as a result, a still image with less blurring can be extracted. In addition, the autofocus speed, auto-exposure tracking speed, auto-white balance tracking speed, etc. are set faster than in the normal movie shooting mode, so there are many frames that are in focus on the subject and frames that are properly exposed. Can be obtained. By setting the frame rate to a high rate, the frame interval of the moving image becomes shorter, and the number of frames that can be extracted as a still image increases.
上述した静止画抽出用動画撮影モードによれば、動画を記憶しておき動画を構成するフレームを静止画として抽出することができるので、ユーザはいつ発生するか分からないイベント(自然現象やアクシデント、ハプニング等)の写真、時間の経過と共に状態が変化する被写体や動きのある被写体の瞬間的な状態の写真等を容易に撮影することができる。この際、詳細を後述するように、静止画の記録を指示したタイミングだけでなくその他のタイミングについても静止画を抽出できるので、ユーザは所望のタイミングの静止画を取得することができる。又、静止画抽出に適した撮影条件(上述したシャッタースピード、解像度、フレームレート等)を設定することにより高画質の静止画を抽出することができる。
According to the above-mentioned still image extraction video shooting mode, the video can be stored and the frames constituting the video can be extracted as a still image, so that the user does not know when an event (natural phenomenon, accident, accident, etc.) will occur. It is possible to easily take a picture of a happening, etc., a picture of a subject whose state changes with the passage of time, or a picture of a moving subject in a momentary state. At this time, as will be described in detail later, the still image can be extracted not only at the timing in which the recording of the still image is instructed but also at other timings, so that the user can acquire the still image at a desired timing. Further, by setting shooting conditions suitable for still image extraction (shutter speed, resolution, frame rate, etc. described above), high-quality still images can be extracted.
記憶部260は、通常フォルダ(第2のフォルダ)21とイベントフォルダ(第1のフォルダ)23とを備える(図3)。記憶部260は、通常フォルダ21に保存される動画ファイルに上書きを行うことができる。また、記憶部260は、通常フォルダ21に保存される動画ファイルを自動的(規定容量や時間が経過した場合)に削除することもできる。例えば、撮影終了後に、ユーザにファイルを削除するかを確認し、ユーザの削除の指示に応じて記憶部260は、通常フォルダ21に保存されている動画ファイルを削除してもよい。通常フォルダ21及びイベントフォルダ23に関しては後で詳細な説明をする。記憶部260は各種の光磁気記録媒体、半導体メモリ等の非一時的記録媒体及びその制御回路により構成され、動画、静止画、動画から抽出した静止画等を記憶する。記録媒体は撮影装置本体200に対し着脱できるタイプを用いることができる。又、プログラム及びCPU240の各種制御にかかる情報等が記憶される。
The
モニタ270はタッチパネル型の液晶表示パネルにより構成され、動画、静止画、静止画抽出用フレーム等を表示することができる。モニタ270は撮影装置本体200の背面側、天面側等に配置することができる。撮影装置10はファインダを備えていてもよい。ファインダは例えば液晶表示パネル、プリズム、レンズ等により構成され、ユーザは図示せぬ接眼部を介して動画、静止画、静止画抽出用フレーム等を視認することができる。ファインダとしては「光学式ビューファインダ(OVF:Optical View Finder)」、「電子式ビューファインダ(EVF:Electronic View Finder)」、あるいはこれらの組合せである「ハイブリッド式ビューファインダ(HVF:Hybrid View Finder)」を用いることができる。
The
図2は、撮影装置10に搭載されるCPU240で実現される機能の構成例を示すブロック図である。CPU240は各種制御を実行するハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の機能部として作用する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
FIG. 2 is a block diagram showing a configuration example of a function realized by the
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。又、複数の機能部を1つのプロセッサで構成してもよい。複数の機能部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の機能部として作用させる形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の機能部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の機能部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
One processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). You may. Further, a plurality of functional units may be configured by one processor. As an example of configuring a plurality of functional units with one processor, first, one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client or a server. There is a form in which the processor acts as a plurality of functional parts. Secondly, as typified by System On Chip (SoC), there is a form of using a processor that realizes the functions of the entire system including a plurality of functional parts with one IC (Integrated Circuit) chip. be. As described above, the various functional units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.
CPU240は、撮影部11、動画ファイル生成部13、イベント検出部15、及び制御部19を備える。
The
撮影部11は、通常動画撮影モード(第1の動画撮影モード)、又は、静止画抽出用動画撮影モード(第2の動画撮影モード)に基づいて動画を撮影し取得する。尚、撮影部11は、他に交換レンズ100、撮像素子210、AFE220、及びA/D変換器230等の撮影を行うために必要な機器により構成される。
The
動画ファイル生成部13は、撮影部11で取得した動画から複数の動画ファイルを生成する。具体的には動画ファイル生成部13は、撮影部11で撮影された動画を設定された所定の時間ごとの複数の動画ファイルを生成する。例えば動画ファイル生成部は、1分間ごと又は2分間ごとに分割された複数の動画ファイルを生成する。
The moving image
イベント検出部15は、動画を構成する複数のフレームからイベントを含むイベントフレームを検出する。具体的にはイベント検出部15は、フレームを画像処理することによりフレームにイベントが捉えられた否かを判定し、フレームがイベントを捉えたと判定した場合にはイベントフラグをそのフレームに立てる(付加する)。イベント検出部15は、様々な方法により、フレームが捉えたイベントの検出を行うことができる。例えば、イベント検出部15は、フレームにおいて、撮影シーンの変化を検出することにより、イベントを検出する。具体的には、イベント検出部15は、画像全体、あるいはROI(Region Of Interest)におけるフレーム間の差分値が一定以上のフレームをイベント有りとして、イベントフラグを立てイベントフレームとする。又、イベント検出部15は、動体検出を行って動体がフレームに侵入してきたことを判定することにより、フレームがイベントを捉えたか否かを判定してもよい。イベント検出部15が検出するイベントは、ユーザが予め指定することが出来る。例えば、ユーザが画像のROIと、ROIにおいてイベントとして検出するフレーム間差分値の閾値を予め指定し、イベント検出部15は、ユーザが指定したROIにおけるフレーム間差分値が閾値以上の場合にイベントを捉えたと判定するようにしてもよい。また、ユーザが予め特定の動体(動物や人物等)を指定し、イベント検出部15は、ユーザが指定した動体がフレームに侵入してきたことを検出し、イベントを捉えたと判定するようにしてもよい。また、ユーザは、複数のイベントを予め指定してもよく、この場合、ユーザに指定された複数のイベント毎にイベントフォルダ23を作成し、イベント動画ファイルを保存するようにしてもよい。
The
又、イベント検出部15は、動画の撮影中にユーザからの指示を操作部(指示受付部)250を介して受け付けて、それに基づいてイベントの検出を行ってもよい。具体的には、ユーザがイベントを確認した際に操作部250を介して指示を入力し、その指示が有った時点又は指示があった近傍のフレームにイベントフラグを立ててイベントフレームとしてもよい。また、イベント検出部15は、撮影中の撮影装置10の姿勢の変化(例えば、撮影装置10の縦横の変化)に基づいてイベントを検出してもよい。この場合、イベント検出部15は、撮影装置10に備えられるジャイロセンサ等のセンサからの信号に基づいて、撮影装置10の姿勢の変化を検出する。
Further, the
制御部19は、動画ファイルの記憶部260への保存の制御を行う。具体的には、制御部19は、静止画抽出用動画撮影モードが選択された場合に、複数の動画ファイルのうちイベントフレームが含まれるイベント動画ファイルをイベントフォルダ23に、イベントフレームが含まれない動画ファイルを通常フォルダ21に保存する。又、別の態様としては、静止画抽出用動画撮影モードが選択されている場合に、制御部19は、イベント動画ファイルをイベントフォルダ23及び通常フォルダ21にも保存してもよい。
The
図3は、記憶部260の記憶構成例を示す図である。記憶部260は、撮影部11で撮影された複数の動画ファイルを記憶する通常フォルダ(第2のフォルダ)21と、イベント動画ファイルを記憶するイベントフォルダ(第1のフォルダ)23とを有する。イベントフォルダ23にイベント動画ファイルが移動され保存されるので、ユーザは所望のイベントフレームを探すときには、イベントフォルダ23内を探せば良く、簡便且つ迅速に所望のイベントフレームを見つけ出すことができる。なお、静止画抽出用動画撮影モードの場合には、ユーザの所望のイベントフレームは静止画として抽出される。又、イベントフォルダ23は特別の仕様は必要なく公知の技術で生成されるフォルダであるので、記録メディアを介した外部機器とのデータ通信等をした場合であっても、特別の仕様を有していない外部機器においてもイベントフォルダ23を確認することができる。また、通常フォルダ21とイベントフォルダ23は、仮想フォルダとして設けられてもよい。
FIG. 3 is a diagram showing an example of a storage configuration of the
通常フォルダ21には、イベントフレームを有さない動画ファイルが保存される。又、通常フォルダ21には、撮影部11で取得された動画ファイルが一旦保存され、その後に、イベント検出部15でイベントが検出されたイベント動画ファイルを、制御部19によりイベントフォルダ23に移動させて保存してもよい。又、通常フォルダ21には、撮影部11で取得された動画ファイルが一旦保存され、その後に、イベント検出部15でイベントが検出されたイベント動画ファイルを、制御部19により、通常フォルダ21に保存したままイベントフォルダ23に複製して保存してもよい。
A moving image file having no event frame is saved in the
記憶部260は、単数又は複数の記憶メディアにより構成されていてもよい。記憶部260が複数の記憶メディアにより構成される場合には、例えば記憶部260が第1の記憶メディアと第2の記憶メディアとで構成される。そして、イベントフォルダ23が第1の記憶メディアに設けられ、通常フォルダ21が第2の記憶メディアに設けられている。
The
<第1の実施形態>
図4は、動画ファイルの生成とイベント検出との関係を示す模式図である。図4(A)では撮影部11で動画が撮影され、動画ファイル生成部13により複数の動画ファイルが生成されるタイミングが示されており、図4(B)では記憶部260への記録開始処理のタイミングが示されており、図4(C)では各動画ファイルのクローズ処理のタイミングが示されており、図4(D)ではイベント検出部15で行われるイベント検出のタイミングが示されている。
<First Embodiment>
FIG. 4 is a schematic diagram showing the relationship between the generation of a moving image file and the event detection. FIG. 4A shows the timing at which a moving image is shot by the
図4では、所定の時間で区切られた動画ファイルV1からV8が連続的に撮影されている。静止画抽出用動画撮影モードにより、動画の撮影が開始され、それと同時に通常フォルダ21への動画ファイルの記録開始処理が行われる。その後、所定の時間が経過した後に動画ファイルV1のクローズ処理が行われる。そして、この動画ファイルV1に対してイベント検出部15によりイベント検出が行われる。イベント検出部15は、動画ファイルにおいてイベント25を含むイベントフレーム27を検出した場合には、イベント検出部15は動画ファイルにイベントフラグを立てる。図中では、イベントフラグが立っている動画ファイル(イベント動画ファイル)を「TRUE」とし、イベントフラグが立っていない動画ファイルを「FALSE」と記載している。
In FIG. 4, moving image files V1 to V8 separated by a predetermined time are continuously photographed. In the still image extraction moving image shooting mode, the moving image shooting is started, and at the same time, the recording start processing of the moving image file in the
動画ファイルV4においては、イベント検出部15がイベント25を含むイベントフレーム27を検出している。具体的には、動画ファイルV4の撮影期間において、イベント25が発生しておりそのイベント25を捉えたフレームであるイベントフレーム27がイベント検出部15により検出されている。この場合には、イベント検出部15はイベントフラグを立てて「TRUE」とする。
In the moving image file V4, the
図5は、撮影装置10を使用して行われる撮影方法(撮影工程)を示すフローチャートである。
FIG. 5 is a flowchart showing a shooting method (shooting process) performed by using the
動画ファイルの撮影の初期化として、動画撮影が開始されイベント検出が開始される(ステップS10)。その後、ユーザから、動画記録の開始指示が操作部250を介して入力される(ステップS11)。そして、撮影部11で撮影された動画ファイルが通常フォルダ21への記録が開始される(ステップS12)。次に、動画ファイル生成部13は、動画記録の終了指示があるか否かを判定し(ステップS13)、動画記録の終了指示がある場合には動画ファイルをクローズする(ステップS15)。又、動画ファイル生成部13は、動画記録が予めユーザにより設定された所定時間を経過したか否かを判定し(ステップS14)、動画記録が所定時間を経過した場合には動画ファイルをクローズする(ステップS15)。
As the initialization of the shooting of the moving image file, the moving image shooting is started and the event detection is started (step S10). After that, the user inputs an instruction to start video recording via the operation unit 250 (step S11). Then, the moving image file shot by the
その後、イベント検出部15により動画ファイル中のイベント25の検出が行われ(ステップS16)、動画ファイルにイベント25が検出された場合には、制御部19はこの動画ファイルをイベントフォルダ23に移動させて保存する(ステップS17)。尚、イベント検出部15により、動画ファイル中にイベント25が検出されなかった場合には、動画ファイルは通常フォルダ21に保存されたままとする。その後、操作部250を介してユーザより動画撮影を終了する指示が有るか否かの判定が行われ(ステップS18)、終了の指示が有った場合には撮影部11は動画撮影が終了する。一方、動画記録の終了の指示が無い場合には、次の動画ファイルの記録が通常フォルダ21に行われる。
After that, the
上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。
Each of the above configurations and functions can be appropriately realized by any hardware, software, or a combination of both. For example, for a program that causes a computer to perform the above-mentioned processing steps (processing procedure), a computer-readable recording medium (non-temporary recording medium) that records such a program, or a computer on which such a program can be installed. However, it is possible to apply the present invention.
以上で説明したように、本態様では、所定の期間の複数の動画ファイルのうちイベントフレーム27を有するイベント動画ファイルが、イベントフォルダ23に保存されるので、ユーザは簡便に且つ迅速に所望のイベントフレーム27を見つけ出すことができる。又、記録メディアを介した外部機器とのデータ通信を行う場合であっても、データ通信先の外部機器においても、特別の仕様を必要とせずに、ユーザは簡便に且つ迅速に所望のイベントフレーム27を見つけ出すことができる。
As described above, in the present embodiment, the event video file having the
<第2の実施形態>
次に、本発明の第2の実施形態に関して説明する。本実施形態では、イベント動画ファイルの直前に記録された動画ファイル、又はイベント動画ファイルの直後に記録された動画ファイルについては、イベントフレーム27を含んでいなくても、イベント動画ファイルと同様にイベントフォルダ23に移動し保存する。
<Second embodiment>
Next, a second embodiment of the present invention will be described. In the present embodiment, the video file recorded immediately before the event video file or the video file recorded immediately after the event video file does not include the
図6は、動画ファイルの生成とイベント検出との関係を示す模式図である。尚、図4で既に説明を行った箇所は同じ符号を付し説明を省略する。
FIG. 6 is a schematic diagram showing the relationship between the generation of a moving image file and the event detection. The parts already described in FIG. 4 are designated by the same reference numerals and the description thereof will be omitted.
図6に示された例では、動画ファイルV4においてイベントフレーム27が検出されている。そして、イベント検出部15は、動画ファイルV4に対してイベントフラグを立てる(図中では「TRUE」と表記)。その後、イベント検出部15は、動画ファイルV4の時系列的に前に撮影された、イベントフレーム27が検出されていない動画ファイルV3に関してもイベントフラグの修正を行いイベントフラグを立てる(図中では「TRUE」と表記)。又、イベント検出部15は、動画ファイルV4の時系列的に後に撮影された、イベントフレーム27が検出されていない動画ファイルV5に関してもイベントフラグの修正を行いイベントフラグを立てる(図中では「TRUE」と表記)。これにより、イベントフラグが修正された後には、動画ファイルV3、動画ファイルV4、及び動画ファイルV5がイベント動画ファイルとなる。そして制御部19は、イベントフラグが立てられた動画ファイルV3、V4、V5をイベントフォルダ23に保存する。
In the example shown in FIG. 6, the
図7は、本実施形態の撮影装置10を使用して行われる撮影方法(撮影工程)を示すフローチャートである。
FIG. 7 is a flowchart showing a photographing method (imaging process) performed by using the photographing
動画ファイルの撮影の初期化として、動画撮影が開始されイベント検出が開始される(ステップS20)。その後、ユーザから、動画記録の開始指示が操作部250を介して入力される(ステップS21)。そして、撮影部11で撮影された動画ファイルが通常フォルダ21への記録が開始される(ステップS22)。次に、動画ファイル生成部13は、動画記録の終了指示があるか否かを判定し(ステップS23)、動画記録の終了指示がある場合には動画ファイルをクローズする(ステップS25)。又、動画ファイル生成部13は、動画記録が予めユーザにより設定された所定時間を経過したか否かを判定し(ステップS24)、動画記録が所定時間を経過した場合には動画ファイルをクローズする(ステップS25)。
As the initialization of the shooting of the moving image file, the moving image shooting is started and the event detection is started (step S20). After that, the user inputs an instruction to start video recording via the operation unit 250 (step S21). Then, the moving image file shot by the
その後、イベント検出部15により、今回の動画ファイル中のイベント25の検出が行われ(ステップS26)、今回の動画ファイルにイベント25が検出された場合には、制御部19は今回の動画ファイルをイベントフォルダ23に移動させ保存する(ステップS27)。一方、イベント検出部15により、今回の動画ファイル中にイベント25が検出されなかった場合には、制御部19は前回の動画ファイル中にイベント25が検出されたか否かを判定し(ステップS30)、前回の動画ファイルにイベント25があった場合には、今回の動画ファイルをイベントフォルダ23に移動し保存する(ステップS31)。
After that, the
又、制御部19は、前回の動画ファイル中にイベント25が検出されたか否かを判定し(ステップS28)、前回の動画ファイルにイベント25が検出されていない場合には、前回の動画ファイルをイベントフォルダ23に移動させる(ステップS29)。その後、操作部250を介してユーザより動画撮影を終了する指示が有るか否かの判定が行われ(ステップS33)、終了の指示が有った場合には撮影部11は動画撮影が終了する。一方、動画記録の終了の指示が無い場合には、次の動画ファイルの記録が通常フォルダ21に行われる。
Further, the
以上で説明したように、本実施形態においては、イベント25が動画ファイル間を跨がっており上手くイベント25が検出できなかった場合においても、イベントフレーム27を有する動画ファイルをイベントフォルダ23に保存することができる。又、イベント25の発生の前後を捉えたフレームを有する動画ファイルをイベントフォルダ23に保存することができる。これにより、ユーザは、所望のフレームを容易に且つ迅速に見つけ出すことができる。
As described above, in the present embodiment, even if the
<第2の実施形態の変形例>
次に、第2の実施形態の変形例に関して説明する。本例では、イベントフレーム27がイベント動画ファイルの時系列的にどの箇所であるかを判定して、動画ファイルの保存を制御する。具体的には、検出したイベント25の発生時刻が、動画記録の開始時刻に近い場合は、制御部19はその動画ファイルの直前の動画ファイルもイベントフォルダ23に保存する。又、検出したイベント25の発生時刻が、動画記録の終了時刻に近い場合は、制御部19はその動画ファイルの直後の動画ファイルもイベントフォルダ23に保存する。これにより、本態様ではイベント25が動画ファイル間を跨がっており上手くイベント25が検出できなかった場合においても、イベントフレーム27を有する動画ファイルをイベントフォルダ23に保存することができる。又、イベント25の発生の前後を捉えたフレームをユーザに提供することができる。
<Modified example of the second embodiment>
Next, a modification of the second embodiment will be described. In this example, the location of the
図8は、本発明のCPUで実現される機能の構成例を示すブロック図である。尚、図2で既に説明を行った箇所は、同じ符号を付し説明は省略する。
FIG. 8 is a block diagram showing a configuration example of a function realized by the CPU of the present invention. The parts already described in FIG. 2 are designated by the same reference numerals and the description thereof will be omitted.
本実施形態のイベント検出部15はフレーム位置特定部17を備える。フレーム位置特定部17は、イベント動画ファイルにおけるイベントフレーム27の時系列的な位置を特定する。具体的には、イベント検出部15においてイベントフレーム27が検出され、そのイベントフレーム27の位置が動画ファイルの開始時刻又は終了時刻からの時間で特定する。
The
図9は、本実施形態の撮影装置10を使用して行われる撮影方法(撮影工程)を示すフローチャートである。
FIG. 9 is a flowchart showing a photographing method (imaging process) performed by using the photographing
動画ファイルの撮影の初期化として、動画撮影が開始されイベント検出が開始される(ステップS40)。その後、ユーザから、動画記録の開始指示が操作部250を介して入力される(ステップS41)。そして、撮影部11で撮影された動画ファイルが通常フォルダ21への記録が開始される(ステップS42)。次に、動画ファイル生成部13は、動画記録の終了指示があるか否かを判定し(ステップS43)、動画記録の終了指示がある場合には動画ファイルをクローズする(ステップS45)。又、動画ファイル生成部13は、動画記録が予めユーザにより設定された所定時間を経過したか否かを判定し(ステップS44)、動画記録が所定時間を経過した場合には動画ファイルをクローズする(ステップS45)。
As the initialization of the shooting of the moving image file, the moving image shooting is started and the event detection is started (step S40). After that, the user inputs an instruction to start video recording via the operation unit 250 (step S41). Then, the moving image file shot by the
その後、イベント検出部15により、今回の動画ファイル中のイベント25の検出が行われ(ステップS46)、今回の動画ファイルにイベント25が検出された場合には、制御部19この動画ファイルをイベントフォルダ23に移動させて保存する(ステップS47)。一方、イベント検出部15により、今回の動画ファイル中にイベント25が検出されなかった場合には、制御部19は前回の動画ファイル中の後半にイベント25が検出されたか否かを判定し(ステップS51)、前回の動画ファイルにイベント25があった場合には、今回の動画ファイルをイベントフォルダ23に移動し保存する(ステップS52)。
After that, the
又、制御部19は、前回の動画ファイル中にイベント25が検出されたか否かを判定し(ステップS48)、前回の動画ファイルにイベント25がない場合には、今回の動画ファイル中の前半にイベント25が有るか否かを判定し(ステップS49)、前半にイベント25がある場合には、前回の動画ファイルをイベントフォルダ23に移動して保存する(ステップS50)。その後、操作部250を介してユーザより動画撮影を終了する指示が有るか否かの判定が行われ(ステップS53)、終了の指示が有った場合には撮影部11は動画撮影が終了する。一方、動画記録の終了の指示が無い場合には、次の動画ファイルの記録が通常フォルダ21に行われる。
Further, the
尚、上記の説明における動画ファイルの前半及び後半とは、動画ファイルの期間における前半及び後半を意味する。例えば、一つの動画ファイルが2分間である場合には、前半が開始10秒以内、後半が終了時刻から10秒前の範囲である。
The first half and the second half of the moving image file in the above description mean the first half and the second half of the period of the moving image file. For example, when one moving image file is for 2 minutes, the first half is within 10 seconds from the start and the second half is within 10 seconds before the end time.
以上で説明した本実施形態によればイベント25が動画ファイル間を跨がっており上手くイベント25が検出できなかった場合においても、イベントフレーム27を有する動画ファイルをイベントフォルダ23に保存することができる。又、イベント25の発生の前後を捉えたフレームをユーザに提供することができる。
According to the present embodiment described above, even if the
<第3の実施形態>
次に、本発明の第3の実施形態に関して説明する。本実施形態では、イベント動画ファイルとその前の動画ファイル、又は後の動画ファイルを連結して連結動画ファイルを生成する。
<Third embodiment>
Next, a third embodiment of the present invention will be described. In the present embodiment, the event video file and the video file before or after the event video file are concatenated to generate a concatenated video file.
本実施形態の動画ファイルの連結は、動画ファイル生成部13で行われる。動画ファイルの連結は、公知の技術により行われる。動画ファイル生成部13は、イベント動画ファイル(第1の動画ファイル)の時系列において前の動画ファイル(第2の動画ファイル)がイベントフォルダ23に保存されている場合には、それらを連結して連結動画ファイルとする。又、動画ファイル生成部13は、イベント動画ファイルの時系列において後の動画ファイル(第3の動画ファイル)がイベントフォルダ23に保存されている場合には、それらを連結して連結動画ファイルとする。又、動画ファイル生成部13は、イベント動画ファイルに前後の動画ファイルを連結してもよい。さらに、動画ファイル生成部13は、動画ファイルの連結及び分割を行って、イベント25が時間的に中間に位置するように動画ファイルを作成してもよい。
The moving image files of the present embodiment are concatenated by the moving image
図10は、本実施形態の撮影装置10を使用して行われる撮影方法(撮影工程)を示すフローチャートである。
FIG. 10 is a flowchart showing a photographing method (imaging process) performed by using the photographing
動画ファイルの撮影の初期化として、動画撮影が開始されイベント検出が開始される(ステップS60)。その後、ユーザから、動画記録の開始指示が操作部250を介して入力される(ステップS61)。そして、撮影部11で撮影された動画ファイルが通常フォルダ21への記録が開始される(ステップS62)。次に、動画ファイル生成部13は、動画記録の終了指示があるか否かを判定し(ステップS63)、動画記録の終了指示がある場合には動画ファイルをクローズする(ステップS65)。又、動画ファイル生成部13は、動画記録が予めユーザにより設定された所定時間を経過したか否かを判定し(ステップS64)、動画記録が所定時間を経過した場合には動画ファイルをクローズする(ステップS65)。
As the initialization of the shooting of the moving image file, the moving image shooting is started and the event detection is started (step S60). After that, the user inputs an instruction to start video recording via the operation unit 250 (step S61). Then, the moving image file shot by the
その後、イベント検出部15により、今回の動画ファイル中のイベント25の検出が行われ(ステップS66)、今回の動画ファイルにイベント25が検出された場合には、制御部19は、この動画ファイルをイベントフォルダ23に移動させ保存する(ステップS67)。一方、イベント検出部15により、今回の動画ファイル中にイベント25が検出されなかった場合には、制御部19は、前回の動画ファイル中にイベント25が検出されたか否かを判定し(ステップS71)、前回の動画ファイルにイベント25があった場合には、今回の動画ファイルをイベントフォルダ23に移動し保存する(ステップS72)。又、制御部19は、前回の動画ファイル中にイベント25が検出されたか否かを判定し(ステップS68)、前回の動画ファイルにイベント25がない場合には、前回の動画ファイルをイベントフォルダ23に移動させ保存する(ステップS69)。
After that, the
その後、動画ファイル生成部13は、イベントフォルダ23に保存されている。イベント動画ファイル及び動画ファイルを連結させる(ステップS70)。その後、操作部250を介してユーザより動画撮影を終了する指示が有るか否かの判定が行われ(ステップS73)、終了の指示が有った場合には撮影部11は動画撮影が終了する。一方、動画記録の終了の指示が無い場合には、次の動画ファイルの記録が通常フォルダ21に行われる。
After that, the moving image
以上で説明したように、イベントフォルダ23に保存された動画を連結して一つの動画ファイルとすることで、イベント25が複数の動画ファイルに跨がって発生している場合には、イベント25を途切れることなく再生することができる。
As described above, by concatenating the videos saved in the
<その他>
以上の説明では、イベント動画ファイルと通常の動画ファイルとの区別の手法として、イベントフォルダ23及び通常フォルダ21への動画ファイルの保存に関して説明してきた。しかし、イベント動画ファイルと通常の動画ファイルとの区別の手法はこれに限られるものではない。例えば、区別の手法として、動画のファイル名を変更することが挙げられる。具体的には、ファイル名「DSCF0001.MOV」、「DSCF0002.MOV」、「DSCF0003.MOV」、及び「DSCF0004.MOV」の動画ファイルの場合、「DSCF0003.MOV」にイベントフレーム27が検出された場合には、ファイル名を「DSCF0003A.MOV」に変更する。このように、イベント動画ファイルのファイル名を変更することにより、動画ファイルを区別してもよい。
<Others>
In the above description, as a method of distinguishing between the event video file and the normal video file, the storage of the video file in the
<スマートフォンの構成>
上述の説明では、撮影装置10の一例として、レンズ交換式のカメラを用いて説明をしたが、本発明の適用はこれに限定されるものではない。本発明を適用可能な他の態様としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、本発明を適用可能なスマートフォンの一例について説明する。
<Smartphone configuration>
In the above description, an interchangeable lens camera has been used as an example of the photographing
図11は、本発明の撮影装置10の一実施形態であるスマートフォン500の外観を示す図である。図11に示すスマートフォン500は、平板状の筐体502を有し、筐体502の一方の面に表示部としての表示パネル521と、入力部としての操作パネル522とが一体となった表示入力部520を備えている。又、係る筐体502は、スピーカ531と、マイクロホン532、操作部540と、カメラ部541とを備えている。尚、筐体502の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用することもできる。
FIG. 11 is a diagram showing the appearance of the
図12は、図11に示すスマートフォン500の構成を示すブロック図である。図12に示すように、スマートフォンの主たる構成要素として、基地局と移動通信網とを介した移動無線通信を行う無線通信部510と、表示入力部520と、通話部530と、操作部540と、カメラ部541と、記録部550と、外部入出力部560と、GPS(Global Positioning System)受信部570と、モーションセンサ部580と、電源部590と、主制御部501とを備える。
FIG. 12 is a block diagram showing the configuration of the
無線通信部510は、主制御部501の指示にしたがって、移動通信網に収容された基地局に対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信、Webデータ及びストリーミングデータなどの受信を行う。
The
表示入力部520は、主制御部501の制御により、画像(静止画及び動画)や文字情報などを表示して視覚的にユーザに情報を伝達し、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル521と、操作パネル522とを備える。
The
表示パネル521は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル522は、表示パネル521の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。かかるデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部501に出力する。次いで、主制御部501は、受信した検出信号に基づいて、表示パネル521上の操作位置(座標)を検出する。
The
図11に示すように、本発明の撮影装置10の一実施形態として例示しているスマートフォン500の表示パネル521と操作パネル522とは一体となって表示入力部520を構成しているが、操作パネル522が表示パネル521を完全に覆うような配置となっている。かかる配置を採用した場合、操作パネル522は、表示パネル521外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル522は、表示パネル521に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル521に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
As shown in FIG. 11, the
尚、表示領域の大きさと表示パネル521の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。又、操作パネル522が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。さらに、外縁部分の幅は、筐体502の大きさなどに応じて適宜設計されるものである。又、操作パネル522で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
The size of the display area and the size of the
通話部530は、スピーカ531やマイクロホン532を備え、マイクロホン532を通じて入力されたユーザの音声を主制御部501にて処理可能な音声データに変換して主制御部501に出力したり、無線通信部510あるいは外部入出力部560により受信された音声データを復号してスピーカ531から出力するものである。又、図11に示すように、例えば、スピーカ531、マイクロホン532を表示入力部520が設けられた面と同じ面に搭載することができる。
The
操作部540は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図11に示すように、操作部540は、スマートフォン500の筐体502の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
The
記録部550は、主制御部501の制御プログラム、制御データ、アプリケーションソフトウェア(本発明に係る画像処理プログラムを含む)、通信相手の名称及び電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータ、及びダウンロードしたコンテンツデータを記憶し、又ストリーミングデータなどを一時的に記憶するものである。又、記録部550は、スマートフォン内蔵の内部記憶部551と着脱自在な外部メモリスロットを有する外部記憶部552により構成される。尚、記録部550を構成するそれぞれの内部記憶部551と外部記憶部552は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、Micro SD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの記録媒体を用いて実現される。
The
外部入出力部560は、スマートフォン500に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、及びIEEE1394など)又はネットワーク(例えば、インターネット、無線LAN(Local Area Network)、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
The external input /
スマートフォン500に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)、SIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、又はオーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオビデオ機器、無線接続される外部オーディオビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、及びイヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン500の内部の各構成要素に伝達し、又はスマートフォン500の内部のデータを外部機器に伝送することが可能である。
Examples of the external device connected to the
GPS受信部570は、主制御部501の指示にしたがって、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン500の緯度、経度、及び高度からなる位置を検出する。GPS受信部570は、無線通信部510や外部入出力部560(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
The
モーションセンサ部580は、例えば、3軸の加速度センサ及びジャイロセンサなどを備え、主制御部501の指示にしたがって、スマートフォン500の物理的な動きを検出する。スマートフォン500の物理的な動きを検出することにより、スマートフォン500の動く方向や加速度が検出される。この検出結果は、主制御部501に出力されるものである。
The
電源部590は、主制御部501の指示にしたがって、スマートフォン500の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
The
主制御部501は、マイクロプロセッサを備え、記録部550が記憶する制御プログラム及び制御データにしたがって動作し、スマートフォン500の各部を統括して制御するものである。又、主制御部501は、無線通信部510を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能及びアプリケーション処理機能を備える。
The
アプリケーション処理機能は、記録部550が記憶するアプリケーションソフトウェアにしたがって主制御部501が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部560を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能、本発明に係る圧縮処理を行う画像処理機能などがある。
The application processing function is realized by operating the
又、主制御部501は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画や動画のデータ)に基づいて、映像を表示入力部520に表示する等の画像処理機能を備える。画像処理機能とは、主制御部501が、上記画像データを復号し、係る復号結果に画像処理を施して、画像を表示入力部520に表示する機能のことをいう。
Further, the
さらに、主制御部501は、表示パネル521に対する表示制御と、操作部540、操作パネル522を通じたユーザ操作を検出する操作検出制御を実行する。
Further, the
表示制御の実行により、主制御部501は、アプリケーションソフトウェアを起動するためのアイコン及びスクロールバーなどのソフトウェアキーを表示したり、或いは電子メールを作成するためのウィンドウを表示する。尚、スクロールバーとは、表示パネル521の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
By executing the display control, the
又、操作検出制御の実行により、主制御部501は、操作部540を通じたユーザ操作を検出したり、操作パネル522を通じてアイコンに対する操作、及びウィンドウの入力欄に対する文字列の入力を受け付け、或いはスクロールバーを通じた表示画像のスクロール要求を受け付ける。
Further, by executing the operation detection control, the
さらに、操作検出制御の実行により主制御部501は、操作パネル522に対する操作位置が、表示パネル521に重なる重畳部分(表示領域)か、それ以外の表示パネル521に重ならない外縁部分(非表示領域)かを判定し、操作パネル522の感応領域及びソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
Further, by executing the operation detection control, the
又、主制御部501は、操作パネル522に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、或いはこれらを組合せて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
Further, the
カメラ部541は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラであり、図1に示した撮影装置10に相当する。又、カメラ部541は、主制御部501の制御により、撮影によって得た静止画の画像データを、例えばJPEG(Joint Photographic coding Experts Group)で圧縮し、又は動画の画像データを、例えばH.264/AVCで圧縮して記録部550に記録したり、外部入出力部560や無線通信部510を通じて出力することができる。図11に示すようにスマートフォン500において、カメラ部541は表示入力部520と同じ面に搭載されているが、カメラ部541の搭載位置はこれに限らず、表示入力部520の背面に搭載されてもよいし、或いは、複数のカメラ部541が搭載されてもよい。尚、複数のカメラ部541が搭載されている場合、撮影に供するカメラ部541を切り替えて単独にて撮影したり、或いは、複数のカメラ部541を同時に使用して撮影することもできる。
The
又、カメラ部541はスマートフォン500の各種機能に利用することができる。例えば、表示パネル521にカメラ部541で取得した画像を表示することや、操作パネル522の操作入力のひとつとして、カメラ部541の画像を利用することができる。又、GPS受信部570が位置を検出する際に、カメラ部541からの画像を参照して位置を検出することもできる。さらには、カメラ部541からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサ(ジャイロセンサ)と併用して、スマートフォン500のカメラ部541の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部541からの画像をアプリケーションソフトウェア内で利用することもできる。
Further, the
その他、静止画又は動画の画像データにGPS受信部570により取得した位置情報、マイクロホン532により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部580により取得した姿勢情報等などを付加して記録部550に記録したり、外部入出力部560や無線通信部510を通じて出力することもできる。
In addition, the position information acquired by the
尚、上述した説明でのCPU240は主制御部501に対応しており、記憶部260は記録部550に対応している。
The
以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
Although the example of the present invention has been described above, it is needless to say that the present invention is not limited to the above-described embodiment and various modifications can be made without departing from the spirit of the present invention.
10 :撮影装置
11 :撮影部
13 :動画ファイル生成部
15 :イベント検出部
17 :フレーム位置特定部
19 :制御部
21 :通常フォルダ
23 :イベントフォルダ
100 :交換レンズ
110 :ズームレンズ
120 :フォーカスレンズ
130 :絞り
140 :レンズ駆動部
200 :撮影装置本体
210 :撮像素子
230 :A/D変換器
240 :CPU
250 :操作部
260 :記憶部
270 :モニタ
500 :スマートフォン
501 :主制御部
502 :筐体
510 :無線通信部
520 :表示入力部
521 :表示パネル
522 :操作パネル
530 :通話部
531 :スピーカ
532 :マイクロホン
540 :操作部
541 :カメラ部
550 :記録部
551 :内部記憶部
552 :外部記憶部
560 :外部入出力部
570 :GPS受信部
570 :受信部
580 :モーションセンサ部
590 :電源部
10: Imaging device
11: Shooting section
13: Video file generator
15: Event detector
17: Frame position identification part
19: Control unit
21: Normal folder
23: Event folder
100: Interchangeable lens
110: Zoom lens
120: Focus lens
130: Aperture
140: Lens drive unit
200: Shooting device body
210: Image sensor
230: A / D converter
240: CPU
250: Operation unit
260: Storage unit
270: Monitor
500: Smartphone
501: Main control unit
502: Housing
510: Wireless communication unit
520: Display input unit
521: Display panel
522: Operation panel
530: Call section
531: Speaker
532: Microphone
540: Operation unit
541: Camera unit
550: Recording unit
551: Internal storage unit
552: External storage unit
560: External input / output unit
570: GPS receiver
570: Receiver
580: Motion sensor unit
590: Power supply unit
Claims (23)
前記撮影部で取得した動画から複数の動画ファイルを生成する動画ファイル生成部と、
前記動画ファイルを記憶する第1のフォルダと第2のフォルダを有する記憶部と、
前記動画を構成する複数のフレームからイベントを含むイベントフレームを検出するイベント検出部と、
前記第2の動画撮影モードが選択された場合に、前記複数の動画ファイルのうち前記イベントフレームが含まれる第1の動画ファイルを前記第1のフォルダに、前記イベントフレームが含まれない動画ファイルを前記第2のフォルダに保存する制御部と、
を備える撮影装置。 A shooting unit that shoots a moving image based on a first moving image shooting mode or a second moving image shooting mode whose shooting conditions are different from those of the first moving image shooting mode.
A video file generation unit that generates a plurality of video files from the video acquired by the shooting unit, and a video file generation unit.
A storage unit having a first folder and a second folder for storing the moving image file,
An event detection unit that detects an event frame containing an event from a plurality of frames constituting the moving image, and an event detection unit.
When the second moving image shooting mode is selected, the first moving image file containing the event frame among the plurality of moving image files is placed in the first folder, and the moving image file not including the event frame is placed in the first folder. The control unit saved in the second folder and
A shooting device equipped with.
前記制御部は、前記複数の動画ファイルのうち、前記第1の動画ファイルの時系列において前の第2の動画ファイル、又は、前記第1の動画ファイルの時系列において後の第3の動画ファイルを前記第1のフォルダに保存する請求項1に記載の撮影装置。 The moving image file generation unit divides the moving image into a set time and generates a plurality of moving image files.
Among the plurality of moving image files, the control unit is a second moving image file before the time series of the first moving image file, or a third moving image file after the first moving image file in the time series. The photographing apparatus according to claim 1, wherein the image is stored in the first folder.
前記制御部は、前記フレーム位置特定部により特定された前記イベントフレームの位置に基づいて、前記第2の動画ファイル、又は、前記第3の動画ファイルを前記第1のフォルダに保存する請求項2に記載の撮影装置。 A frame position specifying unit for specifying the position of the event frame in the first moving image file is provided.
2. The control unit saves the second moving image file or the third moving image file in the first folder based on the position of the event frame specified by the frame position specifying unit. The imaging device described in.
前記イベント検出部は、前記指示に基づいて前記イベントを検出する請求項1から9のいずれか1項に記載の撮影装置。 It is equipped with an instruction reception unit that receives instructions from the user during the shooting of the moving image.
The imaging device according to any one of claims 1 to 9, wherein the event detection unit detects the event based on the instruction.
前記撮影するステップで撮影した動画から複数の動画ファイルを生成するステップと、
前記動画を構成する複数のフレームからイベントを含むイベントフレームを検出するステップと、
前記第2の動画撮影モードが選択された場合に、前記複数の動画ファイルのうち、前記イベントフレームが含まれる第1の動画ファイルを記憶部の第1のフォルダに、前記イベントフレームが含まれない動画ファイルを前記記憶部の第2のフォルダに記憶するステップと、
を含む撮影方法。 A step of shooting a moving image based on a first moving image shooting mode or a second moving image shooting mode having different shooting conditions from the first moving image shooting mode.
The step of generating multiple video files from the video shot in the above shooting step, and
A step of detecting an event frame containing an event from a plurality of frames constituting the moving image, and
When the second moving image shooting mode is selected, the event frame is not included in the first folder of the storage unit of the first moving image file containing the event frame among the plurality of moving image files. The step of storing the video file in the second folder of the storage unit,
Shooting methods including.
前記記憶するステップは、前記複数の動画ファイルのうち、前記第1の動画ファイルの時系列において前の第2の動画ファイル、又は、前記第1の動画ファイルの時系列において後の第3の動画ファイルを前記第1のフォルダに保存する請求項13に記載の撮影方法。 The step of generating the moving image file is to divide the moving image into a set time and generate a plurality of moving image files.
The storage step is a second moving image file before the time series of the first moving image file, or a third moving image after the time series of the first moving image file among the plurality of moving image files. The photographing method according to claim 13, wherein the file is stored in the first folder.
前記記憶するステップは、特定された前記イベントフレームの位置に基づいて、前記第2の動画ファイル、又は、前記第3の動画ファイルを前記第1のフォルダに保存する請求項14に記載の撮影方法。 A step of identifying the position of the event frame in the first moving image file is provided.
The shooting method according to claim 14, wherein the memorizing step is to save the second moving image file or the third moving image file in the first folder based on the position of the specified event frame. ..
前記検出するステップは、前記指示に基づいて前記イベントを検出する請求項13から21のいずれか1項に記載の撮影方法。 Including the step of accepting an instruction from the user during the shooting of the moving image.
The imaging method according to any one of claims 13 to 21, wherein the detection step detects the event based on the instruction.
前記撮影するステップで撮影した動画から複数の動画ファイルを生成するステップと、
前記動画を構成する複数のフレームからイベントを含むイベントフレームを検出するステップと、
前記第2の動画撮影モードが選択された場合に、前記複数の動画ファイルのうち、前記イベントフレームが含まれる第1の動画ファイルを記憶部の第1のフォルダに、前記イベントフレームが含まれない動画ファイルを前記記憶部の第2のフォルダに記憶するステップと、
を含む撮影工程をコンピュータに実行させるプログラム。 A step of shooting a moving image based on a first moving image shooting mode or a second moving image shooting mode having different shooting conditions from the first moving image shooting mode.
The step of generating multiple video files from the video shot in the above shooting step, and
A step of detecting an event frame containing an event from a plurality of frames constituting the moving image, and
When the second moving image shooting mode is selected, the event frame is not included in the first folder of the storage unit of the first moving image file containing the event frame among the plurality of moving image files. The step of storing the video file in the second folder of the storage unit,
A program that causes a computer to perform a shooting process that includes.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018179971 | 2018-09-26 | ||
JP2018179971 | 2018-09-26 | ||
PCT/JP2019/031090 WO2020066316A1 (en) | 2018-09-26 | 2019-08-07 | Photographing apparatus, photographing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020066316A1 JPWO2020066316A1 (en) | 2021-08-30 |
JP7064609B2 true JP7064609B2 (en) | 2022-05-10 |
Family
ID=69952620
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020548105A Active JP7064609B2 (en) | 2018-09-26 | 2019-08-07 | Shooting equipment, shooting method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7064609B2 (en) |
WO (1) | WO2020066316A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005229236A (en) | 2004-02-12 | 2005-08-25 | Casio Comput Co Ltd | Camera apparatus and program |
JP2006093956A (en) | 2004-09-22 | 2006-04-06 | Canon Inc | Imaging apparatus |
JP2008301013A (en) | 2007-05-30 | 2008-12-11 | Fujifilm Corp | Photographing device, method, and program |
JP2009077026A (en) | 2007-09-19 | 2009-04-09 | Fujifilm Corp | Imaging apparatus and method, and program |
-
2019
- 2019-08-07 WO PCT/JP2019/031090 patent/WO2020066316A1/en active Application Filing
- 2019-08-07 JP JP2020548105A patent/JP7064609B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005229236A (en) | 2004-02-12 | 2005-08-25 | Casio Comput Co Ltd | Camera apparatus and program |
JP2006093956A (en) | 2004-09-22 | 2006-04-06 | Canon Inc | Imaging apparatus |
JP2008301013A (en) | 2007-05-30 | 2008-12-11 | Fujifilm Corp | Photographing device, method, and program |
JP2009077026A (en) | 2007-09-19 | 2009-04-09 | Fujifilm Corp | Imaging apparatus and method, and program |
Also Published As
Publication number | Publication date |
---|---|
WO2020066316A1 (en) | 2020-04-02 |
JPWO2020066316A1 (en) | 2021-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11696021B2 (en) | Video recording device and camera function control program | |
EP2161924B1 (en) | Camera system and method | |
KR20200019728A (en) | Shooting mobile terminal | |
CN107743191B (en) | Terminal, anti-shake photographing method thereof and storage device | |
WO2017092128A1 (en) | Method and device for displaying preview image | |
EP3062513B1 (en) | Video apparatus and photography method thereof | |
US11438521B2 (en) | Image capturing device, image capturing method, and program | |
WO2021219141A1 (en) | Photographing method, graphic user interface, and electronic device | |
US11805320B2 (en) | Imaging device, imaging method, and imaging program | |
JPWO2020158069A1 (en) | Imaging device, imaging method, and program | |
US11032483B2 (en) | Imaging apparatus, imaging method, and program | |
US20210174090A1 (en) | Imaging device, imaging method, and program | |
JP6998454B2 (en) | Imaging equipment, imaging methods, programs and recording media | |
JP7064609B2 (en) | Shooting equipment, shooting method, and program | |
WO2020209097A1 (en) | Image display device, image display method, and program | |
JP2021192544A (en) | Image processor, imaging device, method for processing image, and image processing program | |
JP7003286B2 (en) | Shooting equipment, shooting method, and program | |
JP5182395B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP2009124210A (en) | Image pickup apparatus, image pickup method, image searching apparatus and image searching method | |
JP7551725B2 (en) | Imaging device, imaging method, and program | |
JP7150053B2 (en) | IMAGING DEVICE, IMAGING METHOD, AND PROGRAM | |
WO2020003944A1 (en) | Imaging device, imaging method, and program | |
JPWO2020174911A1 (en) | Image display device, image display method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210428 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210816 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220422 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7064609 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |