WO2020066316A1 - Photographing apparatus, photographing method, and program - Google Patents

Photographing apparatus, photographing method, and program Download PDF

Info

Publication number
WO2020066316A1
WO2020066316A1 PCT/JP2019/031090 JP2019031090W WO2020066316A1 WO 2020066316 A1 WO2020066316 A1 WO 2020066316A1 JP 2019031090 W JP2019031090 W JP 2019031090W WO 2020066316 A1 WO2020066316 A1 WO 2020066316A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving image
event
image file
folder
unit
Prior art date
Application number
PCT/JP2019/031090
Other languages
French (fr)
Japanese (ja)
Inventor
田中 康一
和田 哲
哲也 藤川
幸徳 西山
林 健吉
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2020548105A priority Critical patent/JP7064609B2/en
Publication of WO2020066316A1 publication Critical patent/WO2020066316A1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/16Bodies for containing both motion-picture camera and still-picture camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback

Abstract

Provided are a photographing apparatus, a photographing method, and a program which make it possible to easily and rapidly find a frame in which an event desired by a user is captured, even when data communication with an external device via a recording medium is performed. A photographing apparatus 10 is provided with: a photographing unit 11; a moving image file generation unit 13 that generates a plurality of moving image files from a moving image acquired by the photographing unit; a storage unit having a first folder and a second folder that store the moving image files; an event detection unit 15 that detects an event frame including an event from a plurality of frames constituting the moving image; and a control unit 19 that, when a second moving image capturing mode is selected, causes, among the plurality of moving image files, a first moving image file including the event frame to be saved in the first folder, and causes moving image files not including the event frame to be saved in the second folder.

Description

撮影装置、撮影方法、及びプログラムImaging device, imaging method, and program

 本発明は、撮影装置、撮影方法、及びプログラムに関し、特に動画ファイルを記憶する技術に関する。

The present invention relates to a photographing device, a photographing method, and a program, and more particularly, to a technique for storing a moving image file.

 従来より、動画撮影を行いながら、静止画を取得する技術が知られている。

2. Description of the Related Art A technique for acquiring a still image while capturing a moving image has been known.

 例えば、特許文献1では、動画撮影時に動画の中から静止画として出力するのに適した画像のみを特定する技術が提案されている。具体的には、特許文献1に記載の技術では、動画撮影時にその撮影画像の変化度合いが所定レベル(50%)以上であることを判別し、その時点での画像フレームを静止画の出力候補として特定して候補フラグを付加する。そして、特許文献1に記載の技術では、動画ファイルに対して静止画の出力が指示された際に、候補フラグが付加されている各画像フレームを抽出して静止画の出力候補として一覧表示させた後、この一覧表示の中から任意に選択された画像フレームを静止画として出力させている。

For example, Patent Literature 1 proposes a technique for specifying only an image suitable for being output as a still image from a moving image at the time of shooting a moving image. Specifically, according to the technology described in Patent Document 1, it is determined that the degree of change of a captured image at the time of capturing a moving image is equal to or higher than a predetermined level (50%), and an image frame at that time is output as a still image output candidate. And a candidate flag is added. According to the technology described in Patent Document 1, when a still image output is instructed for a moving image file, each image frame to which a candidate flag is added is extracted and displayed as a list of still image output candidates. After that, the image frame arbitrarily selected from the list display is output as a still image.

 又近年、被写体の一瞬のシーンを捉えるために、静止画抽出用の動画を撮影する動画撮影モードを有する撮影装置が提案されている。例えば、特許文献2に記載の技術では、静止画抽出用の動画が、通常の動画と比べて1フレームの露光時間が短く設定されたものである。

In recent years, an imaging device having a moving image shooting mode for shooting a moving image for extracting a still image has been proposed in order to capture a momentary scene of a subject. For example, in the technique described in Patent Literature 2, the exposure time of one frame of a moving image for extracting a still image is set shorter than that of a normal moving image.

特開2005-229236号公報JP 2005-229236 A 特開2016-32303号公報JP 2016-32303 A

 ここで、動画撮影を行いながらユーザが意図するイベントが発生した際の静止画を抽出したいというニーズがある。予測が可能なイベントの静止画を撮影する場合には、ユーザはイベントの発生を予測して撮影指示を出し、撮影指示から数十秒程度の動画又は静止画を記録する。そしてユーザは、その動画又は静止画を確認することにより、イベントの発生を捉えた所望の静止画を得ることができる。尚、ある程度予測が可能なイベントとは、例えばスポーツにおいてはテニスラケットでボールを打つ瞬間、サッカーでシュートする瞬間等である。

Here, there is a need to extract a still image when an event intended by the user occurs while shooting a moving image. When photographing a still image of an event that can be predicted, the user predicts the occurrence of the event, issues a photographing instruction, and records a moving image or a still image for about several tens of seconds from the photographing instruction. Then, the user can obtain a desired still image capturing the occurrence of the event by checking the moving image or the still image. The event that can be predicted to some extent is, for example, the moment of hitting a ball with a tennis racket or the moment of shooting with soccer in sports.

 一方で、雷や夜行性動物の観察など、いつ起こるか予測ができないイベントに対しては長時間において動画を記録する必要がある。長時間の動画から特定のイベントを捉えたフレームを手作業で見つけ出すのには、大きな労力と時間が必要となる。そこで、このような場合には、例えば特許文献1に記載されたように、自動(撮影画像の変化度合い)でイベントを捉えたフレームを特定し、特定されたフレームに対して候補フラグを付加する技術を適用することが考えられる。

On the other hand, it is necessary to record a moving image for a long time for an event such as lightning and observation of nocturnal animals, which cannot be predicted at any time. It takes a lot of effort and time to manually find a frame that captures a specific event from a long video. Therefore, in such a case, as described in Patent Literature 1, for example, a frame in which an event is captured automatically (the degree of change in a captured image) is specified, and a candidate flag is added to the specified frame. It is conceivable to apply technology.

 しかし、このような候補フラグを付加する技術は必ずしも標準化されておらず、記録メディアを介した外部機器とのデータ通信を行った場合に、候補フラグが上手く機能しない場合がある。

However, such a technique of adding a candidate flag is not always standardized, and when data communication is performed with an external device via a recording medium, the candidate flag may not function well.

 又、候補フラグが付加されたフレームを抽出する場合には、改めて全フレームを解析して候補フラグが付加されたフレームを抽出する必要があり、候補フラグが付加されたフレーム(イベントフレーム)の抽出及び表示に時間が必要となる。

When extracting a frame to which a candidate flag is added, it is necessary to analyze all the frames again to extract a frame to which the candidate flag is added, and to extract a frame to which the candidate flag is added (event frame). And time is required for display.

 又、特許文献1に記載された技術のように、イベントの発生の検出を画像処理等により自動で行って候補フラグを付加する技術は、必ずしもユーザが所望するフレームに候補フラグを付加できるとは限らない。例えば、自動での候補フラグの付加が上手く作用していない場合や、自動での候補フラグの付加は上手く作用しているが、ユーザとしてはイベントフレームの前後のフレームを所望する場合がある。

Also, a technique of automatically detecting occurrence of an event by image processing or the like and adding a candidate flag as in the technique described in Patent Document 1 does not necessarily mean that the candidate flag can be added to a frame desired by the user. Not exclusively. For example, there is a case where the automatic addition of the candidate flag does not work well, or the case where the automatic addition of the candidate flag works well, but the user wants the frames before and after the event frame.

 本発明はこのような事情に鑑みてなされたもので、その目的は、記録メディアを介した外部機器とのデータ通信を行った場合においても、ユーザが所望するイベントを捉えたフレームを簡便に且つ迅速に見つけだすことができる撮影装置、撮影方法、及びプログラムを提供することである。

The present invention has been made in view of such circumstances, and a purpose of the present invention is to simply and easily capture a frame that captures an event desired by a user even when performing data communication with an external device via a recording medium. An object of the present invention is to provide an imaging device, an imaging method, and a program that can be quickly found.

 上記目的を達成するための本発明の一の態様である撮影装置は、第1の動画撮影モード、又は、第1の動画撮影モードと撮影条件が異なる第2の動画撮影モードに基づいて動画を撮影する撮影部と、撮影部で取得した動画から複数の動画ファイルを生成する動画ファイル生成部と、動画ファイルを記憶する第1のフォルダと第2のフォルダを有する記憶部と、動画を構成する複数のフレームからイベントを含むイベントフレームを検出するイベント検出部と、第2の動画撮影モードが選択された場合に、複数の動画ファイルのうちイベントフレームが含まれる第1の動画ファイルを第1のフォルダに、イベントフレームが含まれない動画ファイルを第2のフォルダに保存する制御部と、を備える。

In order to achieve the above object, an imaging device according to one embodiment of the present invention is configured to generate a moving image based on a first moving image shooting mode or a second moving image shooting mode having different shooting conditions from the first moving image shooting mode. A shooting unit for shooting, a moving image file generating unit for generating a plurality of moving image files from the moving images acquired by the shooting unit, a storage unit having a first folder and a second folder for storing the moving image files, and a moving image An event detection unit that detects an event frame including an event from the plurality of frames; and a first moving image file including the event frame among the plurality of moving image files when the second moving image shooting mode is selected. A control unit that stores a moving image file that does not include an event frame in the second folder.

 本態様によれば、動画ファイル生成部により複数の動画ファイルが生成され、イベントを含むイベントフレームが含まれる第1の動画ファイルが第1のフォルダに、イベントフレームが含まれない第2の動画ファイルが第2のフォルダに保存される。これにより、本態様は、記録メディアを介した外部機器とのデータ通信を行った場合においても、ユーザが所望するイベントを捉えたフレームを簡便に且つ迅速に見つけだすことができる。

According to this aspect, the plurality of moving image files are generated by the moving image file generating unit, the first moving image file including the event frame including the event is stored in the first folder, and the second moving image file not including the event frame is included in the first folder. Is stored in the second folder. Thus, according to this aspect, even when data communication is performed with an external device via a recording medium, a frame capturing an event desired by the user can be easily and quickly found.

 好ましくは、動画ファイル生成部は、動画を設定された時間ごとに分割して複数の動画ファイルを生成するものであって、制御部は、複数の動画ファイルのうち、第1の動画ファイルの時系列において前の第2の動画ファイル、又は、第1の動画ファイルの時系列において後の第3の動画ファイルを第1のフォルダに保存する。

Preferably, the moving image file generating unit generates the plurality of moving image files by dividing the moving image at set time intervals, and the control unit determines whether the moving image file is a first moving image file among the plurality of moving image files. A second moving image file before in the series or a third moving image file after in the time series of the first moving image file is stored in the first folder.

 好ましくは、撮影装置は、第1の動画ファイルにおけるイベントフレームの位置を特定するフレーム位置特定部を備え、制御部は、特定されたフレームの位置に基づいて、第2の動画ファイル、又は、第3の動画ファイルを第1のフォルダに保存する。

Preferably, the imaging device includes a frame position specifying unit that specifies a position of the event frame in the first moving image file, and the control unit determines whether the second moving image file or the second moving image file is based on the specified position of the frame. 3 is saved in the first folder.

 好ましくは、動画ファイル生成部は、第1のフォルダに保存された第1の動画ファイルと、第2の動画ファイル、又は、第3の動画ファイルを連結して一つの連結動画ファイルを生成する。

Preferably, the moving image file generating unit generates one connected moving image file by connecting the first moving image file stored in the first folder and the second moving image file or the third moving image file.

 好ましくは、制御部は、第1の動画ファイルを第2のフォルダにも保存する。

Preferably, the control unit also saves the first moving image file in the second folder.

 好ましくは、記憶部は、第1の記憶メディアと第2の記憶メディアとで構成されており、第1のフォルダは第1の記憶メディアに設けられ、第2のフォルダは第2の記憶メディアに設けられている。

Preferably, the storage unit includes a first storage medium and a second storage medium, wherein the first folder is provided on the first storage medium, and the second folder is provided on the second storage medium. Is provided.

 好ましくは、第1のフォルダ及び第2のフォルダは、仮想フォルダである。

Preferably, the first folder and the second folder are virtual folders.

 好ましくは、第2の動画撮影モードは、第1の動画撮影モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、及びホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、且つ/又は第1の動画撮影モードに対してフレームレートが高く設定される。

Preferably, in the second moving image shooting mode, at least one of a shutter speed, an autofocus speed, an automatic exposure following speed, and a white balance following speed is set to be higher than the first moving image shooting mode, And / or the frame rate is set higher than the first moving image shooting mode.

 好ましくは、イベント検出部は、動画を構成するフレームにおいて、撮影シーンの変化を検出することによりイベントを検出する。

Preferably, the event detection unit detects an event by detecting a change in a shooting scene in a frame constituting a moving image.

 好ましくは、撮影装置は、動画の撮影中にユーザからの指示を受け付ける指示受付部を備え、イベント検出部は、指示に基づいてイベントを検出する。

Preferably, the imaging device includes an instruction receiving unit that receives an instruction from a user during shooting of the moving image, and the event detection unit detects an event based on the instruction.

 好ましくは、記憶部は、第2のフォルダに保存される動画ファイルを上書きする。

Preferably, the storage unit overwrites the moving image file stored in the second folder.

 好ましくは、記憶部は、第2のフォルダに保存される動画ファイルを所定の条件に基づいて自動的に削除する。

Preferably, the storage unit automatically deletes the moving image file stored in the second folder based on a predetermined condition.

 本発明の他の態様である撮影方法は、第1の動画撮影モード、又は、第1の動画撮影モードと撮影条件が異なる第2の動画撮影モードに基づいて動画を撮影するステップと、撮影するステップで撮影した動画から複数の動画ファイルを生成するステップと、動画を構成する複数のフレームからイベントを含むイベントフレームを検出するステップと、第2の動画撮影モードが選択された場合に、複数の動画ファイルのうち、イベントフレームが含まれる第1の動画ファイルを記憶部の第1のフォルダに、イベントフレームが含まれない動画ファイルを記憶部の第2のフォルダに記憶するステップと、を含む。

According to another embodiment of the present invention, there is provided a photographing method for photographing a moving image based on a first moving image photographing mode or a second moving image photographing mode having different photographing conditions from the first moving image photographing mode. Generating a plurality of moving image files from the moving image captured in the step, detecting an event frame including an event from a plurality of frames forming the moving image, and selecting a plurality of moving image files when a second moving image shooting mode is selected. And storing the first moving image file including the event frame in the first folder of the storage unit and the moving image file not including the event frame in the second folder of the storage unit among the moving image files.

 好ましくは、動画ファイルを生成するステップは、動画を設定された時間ごとに分割して複数の動画ファイルを生成するものであって、記憶するステップは、複数の動画ファイルのうち、第1の動画ファイルの時系列において前の第2の動画ファイル、又は、第1の動画ファイルの時系列において後の第3の動画ファイルを第1のフォルダに保存する。

Preferably, the step of generating a moving image file includes generating the plurality of moving image files by dividing the moving image at set time intervals, and the step of storing the first moving image file among the plurality of moving image files A second moving image file preceding in the time series of the file or a third moving image file following in the time series of the first moving image file is stored in the first folder.

 好ましくは、第1の動画ファイルにおけるイベントフレームの位置を特定するステップを備え、記憶するステップは、特定されたフレームの位置に基づいて、第2の動画ファイル、又は、第3の動画ファイルを第1のフォルダに保存する。

Preferably, the method further comprises the step of specifying the position of the event frame in the first moving image file, and the storing step stores the second moving image file or the third moving image file based on the specified position of the frame. 1 folder.

 好ましくは、動画ファイルを生成するステップは、第1のフォルダに保存された第1の動画ファイルと、第2の動画ファイル、又は、第3の動画ファイルを連結して一つの連結動画ファイルを生成する。

Preferably, the step of generating a moving image file includes generating one connected moving image file by connecting the first moving image file stored in the first folder and the second moving image file or the third moving image file. I do.

 好ましくは、記憶するステップは、第1の動画ファイルを第2のフォルダにも保存する。

Preferably, the storing step also stores the first moving image file in the second folder.

 好ましくは、記憶部は、第1の記憶メディアと第2の記憶メディアとで構成されており、第1のフォルダは第1の記憶メディアに設けられ、第2のフォルダは第2の記憶メディアに設けられている。

Preferably, the storage unit includes a first storage medium and a second storage medium, wherein the first folder is provided on the first storage medium, and the second folder is provided on the second storage medium. Is provided.

 好ましくは、第1のフォルダ及び第2のフォルダは、仮想フォルダである。

Preferably, the first folder and the second folder are virtual folders.

 好ましくは、第2の動画撮影モードは、第1の動画撮影モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、及びホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、且つ/又は第1の動画撮影モードに対してフレームレートが高く設定される。

Preferably, in the second moving image shooting mode, at least one of a shutter speed, an autofocus speed, an automatic exposure following speed, and a white balance following speed is set to be higher than the first moving image shooting mode, And / or the frame rate is set higher than the first moving image shooting mode.

 好ましくは、検出するステップは、動画を構成するフレームにおいて、撮影シーンの変化を検出することによりイベントを検出する。

Preferably, in the detecting step, an event is detected by detecting a change in a shooting scene in a frame constituting the moving image.

 好ましくは、動画の撮影中にユーザからの指示を受け付けるステップを含み、検出するステップは、指示に基づいてイベントを検出する。

Preferably, the method includes a step of receiving an instruction from a user while capturing a moving image, and the detecting step detects an event based on the instruction.

 本発明の他の態様であるプログラムは、第1の動画撮影モード、又は、第1の動画撮影モードと撮影条件が異なる第2の動画撮影モードに基づいて動画を撮影する撮影ステップと、撮影ステップで撮影した動画から複数の動画ファイルを生成する動画ファイル生成ステップと、動画を構成する複数のフレームからイベントを含むイベントフレームを検出する検出ステップと、第2の動画撮影モードが選択された場合に、複数の動画ファイルのうち、イベントフレームが含まれる第1の動画ファイルを記憶部の第1のフォルダに、イベントフレームが含まれない動画ファイルを記憶部の第2のフォルダに記憶する記憶ステップと、を含む撮影工程をコンピュータに実行させる。

A program according to another aspect of the present invention includes a shooting step of shooting a moving image based on a first moving image shooting mode or a second moving image shooting mode having different shooting conditions from the first moving image shooting mode; A moving image file generating step of generating a plurality of moving image files from a moving image photographed in the step, a detecting step of detecting an event frame including an event from a plurality of frames constituting the moving image, and a case where a second moving image shooting mode is selected. Storing a first moving image file including an event frame among a plurality of moving image files in a first folder of the storage unit, and storing a moving image file not including an event frame in a second folder of the storage unit; And causing the computer to execute a photographing step including:

 本発明によれば、動画ファイル生成部により複数の動画ファイルが生成され、イベントを含むイベントフレームが含まれる第1の動画ファイルが第1のフォルダに、イベントフレームが含まれない第2の動画ファイルが第2のフォルダに保存されるので、記録メディアを介した外部機器とのデータ通信を行った場合においても、ユーザが所望するイベントを捉えたフレームを簡便に且つ迅速に見つけだすことができる。

According to the present invention, a plurality of moving image files are generated by the moving image file generating unit, a first moving image file including an event frame including an event is included in a first folder, and a second moving image file including no event frame is included in a first folder. Is stored in the second folder, so that even when data communication is performed with an external device via a recording medium, a frame that captures an event desired by the user can be easily and quickly found.

図1は、撮影装置の構成を示す図である。FIG. 1 is a diagram illustrating a configuration of the imaging device. 図2は、CPUで実現される機能の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of a function realized by the CPU. 図3は、記憶部の記憶構成例を示す図である。FIG. 3 is a diagram illustrating a storage configuration example of a storage unit. 図4は、動画ファイルの生成とイベント検出との関係を示す模式図である。FIG. 4 is a schematic diagram illustrating the relationship between the generation of a moving image file and event detection. 図5は、撮影方法を示すフローチャートである。FIG. 5 is a flowchart showing a photographing method. 図6は、動画ファイルの生成とイベント検出との関係を示す模式図である。FIG. 6 is a schematic diagram illustrating the relationship between the generation of a moving image file and event detection. 図7は、撮影方法を示すフローチャートである。FIG. 7 is a flowchart illustrating a photographing method. 図8は、CPUで実現される機能の構成例を示すブロック図である。FIG. 8 is a block diagram illustrating a configuration example of a function realized by the CPU. 図9は、撮影方法を示すフローチャートである。FIG. 9 is a flowchart illustrating a photographing method. 図10は、撮影方法を示すフローチャートである。FIG. 10 is a flowchart showing a photographing method. 図11は、スマートフォンの外観を示す図である。FIG. 11 is a diagram illustrating an appearance of a smartphone. 図12は、スマートフォンの構成を示すブロック図である。FIG. 12 is a block diagram illustrating a configuration of a smartphone.

 以下、添付図面にしたがって本発明にかかる撮影装置、撮影方法、及びプログラムの好ましい実施の形態について説明する。

Hereinafter, preferred embodiments of a photographing device, a photographing method, and a program according to the present invention will be described with reference to the accompanying drawings.

 図1は、本発明の撮影装置10の構成を示す図である。撮影装置10は交換レンズ100及び撮影装置本体200により構成され、後述するズームレンズ110を含む撮影レンズにより被写体像(光学像)を撮像素子210に結像させる。交換レンズ100と撮影装置本体200とは、図示せぬマウントを介して装着及び取り外しすることができる。

FIG. 1 is a diagram showing a configuration of a photographing apparatus 10 according to the present invention. The photographing apparatus 10 includes an interchangeable lens 100 and a photographing apparatus main body 200, and forms a subject image (optical image) on the image sensor 210 by a photographing lens including a zoom lens 110 described later. The interchangeable lens 100 and the photographing apparatus main body 200 can be attached and detached via a mount (not shown).

 交換レンズ100は、ズームレンズ110と、フォーカスレンズ120と、絞り130と、レンズ駆動部140とを備える。レンズ駆動部140は、CPU(Central Processing Unit)240からの指令に応じてズームレンズ110、フォーカスレンズ120を進退駆動してズーム(光学ズーム)調整、フォーカス調整を行う。ズーム調整及びフォーカス調整は、CPU240からの指令に応じて行う他に、ユーザが行ったズーム操作、フォーカス操作(図示せぬズームリング、フォーカスリングの回動等)に応じて行ってもよい。又、レンズ駆動部140はCPU240からの指令に応じて絞り130を制御し、露出を調整する。一方、ズームレンズ110及びフォーカスレンズ120の位置、絞り130の開放度等の情報がCPU240に入力される。尚、交換レンズ100は光軸Lを有する。

The interchangeable lens 100 includes a zoom lens 110, a focus lens 120, a diaphragm 130, and a lens driving unit 140. The lens driving unit 140 performs zoom (optical zoom) adjustment and focus adjustment by driving the zoom lens 110 and the focus lens 120 forward and backward in response to a command from a CPU (Central Processing Unit) 240. The zoom adjustment and the focus adjustment may be performed in accordance with a zoom operation and a focus operation (a zoom ring, a rotation of a focus ring, and the like, not shown) performed by the user, in addition to performing the adjustment in response to a command from the CPU 240. Further, the lens driving unit 140 controls the aperture 130 according to a command from the CPU 240 to adjust the exposure. On the other hand, information such as the positions of the zoom lens 110 and the focus lens 120 and the degree of opening of the aperture 130 are input to the CPU 240. The interchangeable lens 100 has an optical axis L.

 撮影装置本体200は、撮像素子210、AFE220(AFE:Analog Front End)、A/D変換器230(A/D:Analog to Digital)、及びCPU240を備える。撮影装置本体200は、撮像素子210に透過させる光を遮光するためのシャッター(不図示)を有していてもよい。撮像素子210は、多数の受光素子がマトリクス状に配列された受光面を備え、ズームレンズ110、フォーカスレンズ120、及び絞り130を透過した被写体光が撮像素子210の受光面上に結像され、各受光素子によって電気信号に変換される。撮像素子210の受光面上にはR(赤),G(緑),又はB(青)のカラーフィルタが設けられており、各色の信号に基づいて被写体のカラー画像を取得することができる。尚、撮像素子210としては、CMOS(Complementary Metal-Oxide Semiconductor)、CCD(Charge-Coupled Device)等の様々な光電変換素子を用いることができる。AFE220は撮像素子210から出力されるアナログ画像信号のノイズ除去、増幅等を行い、A/D変換器230は、取り込んだアナログ画像信号を階調幅があるデジタル画像信号に変換する。

The image capturing apparatus main body 200 includes an image sensor 210, an AFE 220 (Analog Front End), an A / D converter 230 (A / D: Analog to Digital), and a CPU 240. The imaging device main body 200 may include a shutter (not shown) for blocking light transmitted to the imaging element 210. The imaging element 210 includes a light receiving surface in which a large number of light receiving elements are arranged in a matrix, and subject light transmitted through the zoom lens 110, the focus lens 120, and the diaphragm 130 is imaged on the light receiving surface of the imaging element 210, The light is converted into an electric signal by each light receiving element. An R (red), G (green), or B (blue) color filter is provided on the light receiving surface of the image sensor 210, and a color image of a subject can be obtained based on signals of each color. In addition, as the imaging element 210, various photoelectric conversion elements such as a complementary metal-oxide semiconductor (CMOS) and a charge-coupled device (CCD) can be used. The AFE 220 performs noise removal and amplification of the analog image signal output from the image sensor 210, and the A / D converter 230 converts the captured analog image signal into a digital image signal having a gradation width.

 撮影装置10は撮影モードとして静止画撮影モード、通常動画撮影モード(第1の動画撮影モード)、静止画抽出用動画撮影モード(第2の動画撮影モード)のいずれかを設定することができる。静止画撮影モード、通常動画撮影モードは通常のデジタルカメラと同様のモードであり、静止画抽出用動画撮影モードでは通常動画撮影モードと撮影条件が異なる動画(動画自体の鑑賞よりも静止画の抽出を重視した撮影条件の動画)を撮影する。具体的には、静止画抽出用動画撮影モードでは、通常動画撮影モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、ホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、且つ/又は通常動画撮影モードに対してフレームレートが高く設定される。又、解像度及びフレームレートは撮影装置10で設定可能な最高値(例えば4,000×2,000画素、30フレーム/秒)に設定され、色調も静止画抽出を前提として設定される。ISO感度の上限も通常動画撮影モードより高くする。

The photographing apparatus 10 can set any one of a still image photographing mode, a normal moving image photographing mode (first moving image photographing mode), and a still image extracting moving image photographing mode (second moving image photographing mode) as a photographing mode. The still image shooting mode and the normal moving image shooting mode are the same modes as a normal digital camera. In the moving image shooting mode for extracting a still image, a moving image having different shooting conditions from the normal moving image shooting mode (extracting a still image rather than watching the moving image itself) (Movies with shooting conditions with emphasis on). Specifically, in the moving image shooting mode for extracting a still image, at least one of a shutter speed, an autofocus speed, a tracking speed of an automatic exposure, and a tracking speed of a white balance is set to a high speed with respect to the normal moving image shooting mode, And / or the frame rate is set higher than the normal moving image shooting mode. Further, the resolution and the frame rate are set to the maximum values (for example, 4,000 × 2,000 pixels, 30 frames / sec) which can be set in the photographing apparatus 10, and the color tone is also set on the assumption that a still image is extracted. The upper limit of the ISO sensitivity is also set higher than the normal moving image shooting mode.

 例えばシャッタースピードに関しては、通常動画撮影モードでは記録する動画のフレームレートに対応した値(フレームレートが30フレーム/秒の場合、1/30秒)に設定されるが、静止画抽出用動画モードではフレーム間隔よりも高速(例えば、1/30秒未満)に設定される。通常動画撮影モードでは、滑らかな動画が再生されるようにシャッタースピードが動画のフレームレートに対応した値に設定されるが、この場合動く被写体に対してはブレが生じる可能性がある。このため、静止画抽出用動画撮影モードではシャッタースピードを通常動画撮影モードよりも高速(フレーム間隔よりも高速)に設定しており、これにより被写体のブレが少ない高画質な静止画を抽出することが可能になる。同様に、ISO感度の上限を高くすることでシャッタースピードを高速化でき、これによりブレが少ない静止画を抽出することができる。又、オートフォーカスの速度,自動露出の追従速度やオートホワイトバランスの追従速度等が通常動画撮影モードよりも高速に設定されることで、被写体に合焦したフレーム、露出が適正なフレーム等を多く取得することができる。フレームレートについても、高レートに設定することで動画のフレーム間隔が短くなり、静止画として抽出できるフレームが増加する。

For example, the shutter speed is set to a value corresponding to the frame rate of the moving image to be recorded in the normal moving image shooting mode (1/30 second when the frame rate is 30 frames / second), but in the still image extracting moving image mode. It is set faster than the frame interval (for example, less than 1/30 second). In the normal moving image shooting mode, the shutter speed is set to a value corresponding to the frame rate of the moving image so that a smooth moving image is reproduced. In this case, a moving subject may be blurred. For this reason, in the moving image shooting mode for extracting still images, the shutter speed is set faster (faster than the frame interval) than in the normal moving image shooting mode, thereby extracting a high-quality still image with less subject blur. Becomes possible. Similarly, by increasing the upper limit of the ISO sensitivity, the shutter speed can be increased, and a still image with less blur can be extracted. Also, by setting the auto-focus speed, the auto-exposure tracking speed, and the auto-white balance tracking speed to be higher than those in the normal moving image shooting mode, the number of frames that are in focus on the subject and the frames that have an appropriate exposure are increased. Can be obtained. By setting the frame rate to a high rate, the frame interval between moving images is shortened, and the number of frames that can be extracted as a still image is increased.

 上述した静止画抽出用動画撮影モードによれば、動画を記憶しておき動画を構成するフレームを静止画として抽出することができるので、ユーザはいつ発生するか分からないイベント(自然現象やアクシデント、ハプニング等)の写真、時間の経過と共に状態が変化する被写体や動きのある被写体の瞬間的な状態の写真等を容易に撮影することができる。この際、詳細を後述するように、静止画の記録を指示したタイミングだけでなくその他のタイミングについても静止画を抽出できるので、ユーザは所望のタイミングの静止画を取得することができる。又、静止画抽出に適した撮影条件(上述したシャッタースピード、解像度、フレームレート等)を設定することにより高画質の静止画を抽出することができる。

According to the above-described still image extraction moving image shooting mode, since a moving image can be stored and frames constituting the moving image can be extracted as a still image, the user cannot know when an event (natural phenomenon, accident, (E.g., happening), a subject whose state changes over time, or a photograph of an instantaneous state of a moving subject can be easily taken. At this time, as will be described in detail later, since the still image can be extracted not only at the timing at which the recording of the still image was instructed but also at other timings, the user can obtain the still image at the desired timing. Further, a high-quality still image can be extracted by setting shooting conditions (such as the above-described shutter speed, resolution, and frame rate) suitable for extracting a still image.

 記憶部260は、通常フォルダ(第2のフォルダ)21とイベントフォルダ(第1のフォルダ)23とを備える(図3)。記憶部260は、通常フォルダ21に保存される動画ファイルに上書きを行うことができる。また、記憶部260は、通常フォルダ21に保存される動画ファイルを自動的(規定容量や時間が経過した場合)に削除することもできる。例えば、撮影終了後に、ユーザにファイルを削除するかを確認し、ユーザの削除の指示に応じて記憶部260は、通常フォルダ21に保存されている動画ファイルを削除してもよい。通常フォルダ21及びイベントフォルダ23に関しては後で詳細な説明をする。記憶部260は各種の光磁気記録媒体、半導体メモリ等の非一時的記録媒体及びその制御回路により構成され、動画、静止画、動画から抽出した静止画等を記憶する。記録媒体は撮影装置本体200に対し着脱できるタイプを用いることができる。又、プログラム及びCPU240の各種制御にかかる情報等が記憶される。

The storage unit 260 includes a normal folder (second folder) 21 and an event folder (first folder) 23 (FIG. 3). The storage unit 260 can overwrite the moving image file stored in the normal folder 21. In addition, the storage unit 260 can automatically delete the moving image file stored in the normal folder 21 (when the specified capacity or time has elapsed). For example, the storage unit 260 may delete the moving image file stored in the normal folder 21 in response to the user's instruction to delete the file after the shooting is completed. The normal folder 21 and the event folder 23 will be described later in detail. The storage unit 260 includes various types of magneto-optical recording media, non-temporary recording media such as semiconductor memories, and control circuits therefor, and stores moving images, still images, still images extracted from moving images, and the like. As the recording medium, a type that can be attached to and detached from the imaging apparatus main body 200 can be used. Also, a program and information related to various controls of the CPU 240 are stored.

 モニタ270はタッチパネル型の液晶表示パネルにより構成され、動画、静止画、静止画抽出用フレーム等を表示することができる。モニタ270は撮影装置本体200の背面側、天面側等に配置することができる。撮影装置10はファインダを備えていてもよい。ファインダは例えば液晶表示パネル、プリズム、レンズ等により構成され、ユーザは図示せぬ接眼部を介して動画、静止画、静止画抽出用フレーム等を視認することができる。ファインダとしては「光学式ビューファインダ(OVF:Optical View Finder)」、「電子式ビューファインダ(EVF:Electronic View Finder)」、あるいはこれらの組合せである「ハイブリッド式ビューファインダ(HVF:Hybrid View Finder)」を用いることができる。

The monitor 270 includes a touch panel type liquid crystal display panel, and can display a moving image, a still image, a still image extracting frame, and the like. The monitor 270 can be arranged on the back side, the top side, or the like of the imaging device main body 200. The imaging device 10 may include a finder. The finder is composed of, for example, a liquid crystal display panel, a prism, a lens, and the like, and a user can visually recognize a moving image, a still image, a still image extracting frame, and the like through an eyepiece (not shown). As the finder, an "optical view finder (OVF)", an "electronic view finder (EVF)", or a hybrid view finder (HVF: Hybrid View Finder), which is a combination of these, is used. Can be used.

 図2は、撮影装置10に搭載されるCPU240で実現される機能の構成例を示すブロック図である。CPU240は各種制御を実行するハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の機能部として作用する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。

FIG. 2 is a block diagram illustrating a configuration example of a function realized by the CPU 240 mounted on the imaging device 10. The hardware structure of the CPU 240 for executing various controls is various processors as described below. For various processors, the circuit configuration can be changed after the production of CPUs (Central Processing Units), FPGAs (Field Programmable Gate Arrays), etc., which are general-purpose processors that act as various functional units by executing software (programs). Logic devices (Programmable Logic Devices: PLDs), ASICs (Application Specific Integrated Circuits), etc., including dedicated electrical circuits that are processors with a circuit configuration specifically designed to execute specific processing. It is.

 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。又、複数の機能部を1つのプロセッサで構成してもよい。複数の機能部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の機能部として作用させる形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の機能部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の機能部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。

One processing unit may be configured by one of these various processors, or configured by two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). You may. Further, a plurality of functional units may be configured by one processor. As an example of configuring a plurality of functional units with one processor, first, as represented by a computer such as a client or a server, one processor is configured by a combination of one or more CPUs and software. There is a form in which a processor acts as a plurality of functional units. Second, as represented by a system-on-chip (System On Chip: SoC), a form using a processor that realizes the functions of the entire system including a plurality of functional units by one IC (Integrated Circuit) chip is used. is there. As described above, the various functional units are configured by using one or more of the above various processors as a hardware structure.

 CPU240は、撮影部11、動画ファイル生成部13、イベント検出部15、及び制御部19を備える。

The CPU 240 includes a photographing unit 11, a moving image file generation unit 13, an event detection unit 15, and a control unit 19.

 撮影部11は、通常動画撮影モード(第1の動画撮影モード)、又は、静止画抽出用動画撮影モード(第2の動画撮影モード)に基づいて動画を撮影し取得する。尚、撮影部11は、他に交換レンズ100、撮像素子210、AFE220、及びA/D変換器230等の撮影を行うために必要な機器により構成される。

The imaging unit 11 captures and acquires a moving image based on a normal moving image shooting mode (first moving image shooting mode) or a still image extraction moving image shooting mode (second moving image shooting mode). Note that the imaging unit 11 is configured by other devices necessary for imaging, such as the interchangeable lens 100, the image sensor 210, the AFE 220, and the A / D converter 230.

 動画ファイル生成部13は、撮影部11で取得した動画から複数の動画ファイルを生成する。具体的には動画ファイル生成部13は、撮影部11で撮影された動画を設定された所定の時間ごとの複数の動画ファイルを生成する。例えば動画ファイル生成部は、1分間ごと又は2分間ごとに分割された複数の動画ファイルを生成する。

The moving image file generating unit 13 generates a plurality of moving image files from the moving image acquired by the photographing unit 11. More specifically, the moving image file generating unit 13 generates a plurality of moving image files for a predetermined time set for the moving image captured by the image capturing unit 11. For example, the moving image file generation unit generates a plurality of moving image files divided every minute or every two minutes.

 イベント検出部15は、動画を構成する複数のフレームからイベントを含むイベントフレームを検出する。具体的にはイベント検出部15は、フレームを画像処理することによりフレームにイベントが捉えられた否かを判定し、フレームがイベントを捉えたと判定した場合にはイベントフラグをそのフレームに立てる(付加する)。イベント検出部15は、様々な方法により、フレームが捉えたイベントの検出を行うことができる。例えば、イベント検出部15は、フレームにおいて、撮影シーンの変化を検出することにより、イベントを検出する。具体的には、イベント検出部15は、画像全体、あるいはROI(Region Of Interest)におけるフレーム間の差分値が一定以上のフレームをイベント有りとして、イベントフラグを立てイベントフレームとする。又、イベント検出部15は、動体検出を行って動体がフレームに侵入してきたことを判定することにより、フレームがイベントを捉えたか否かを判定してもよい。イベント検出部15が検出するイベントは、ユーザが予め指定することが出来る。例えば、ユーザが画像のROIと、ROIにおいてイベントとして検出するフレーム間差分値の閾値を予め指定し、イベント検出部15は、ユーザが指定したROIにおけるフレーム間差分値が閾値以上の場合にイベントを捉えたと判定するようにしてもよい。また、ユーザが予め特定の動体(動物や人物等)を指定し、イベント検出部15は、ユーザが指定した動体がフレームに侵入してきたことを検出し、イベントを捉えたと判定するようにしてもよい。また、ユーザは、複数のイベントを予め指定してもよく、この場合、ユーザに指定された複数のイベント毎にイベントフォルダ23を作成し、イベント動画ファイルを保存するようにしてもよい。

The event detection unit 15 detects an event frame including an event from a plurality of frames forming a moving image. Specifically, the event detection unit 15 determines whether an event is captured in the frame by performing image processing on the frame, and sets an event flag in the frame when determining that the frame captures the event (addition Do). The event detection unit 15 can detect an event captured by a frame by various methods. For example, the event detection unit 15 detects an event by detecting a change in a shooting scene in a frame. Specifically, the event detection unit 15 sets an event flag and sets an event flag as an event frame, assuming that an entire image or a frame in which a difference value between frames in a ROI (Region Of Interest) is equal to or greater than a certain value. Further, the event detection unit 15 may determine whether or not the frame has captured the event by detecting the moving object and determining that the moving object has entered the frame. The event detected by the event detection unit 15 can be specified in advance by the user. For example, the user previously specifies a ROI of an image and a threshold value of an inter-frame difference value to be detected as an event in the ROI, and the event detection unit 15 detects an event when the inter-frame difference value in the ROI specified by the user is equal to or larger than the threshold value. It may be determined that it has been caught. In addition, the user specifies a specific moving object (animal, person, or the like) in advance, and the event detection unit 15 detects that the moving object specified by the user has entered the frame, and determines that the event has been captured. Good. Further, the user may designate a plurality of events in advance. In this case, the event folder 23 may be created for each of the plurality of events designated by the user, and the event moving image file may be stored.

 又、イベント検出部15は、動画の撮影中にユーザからの指示を操作部(指示受付部)250を介して受け付けて、それに基づいてイベントの検出を行ってもよい。具体的には、ユーザがイベントを確認した際に操作部250を介して指示を入力し、その指示が有った時点又は指示があった近傍のフレームにイベントフラグを立ててイベントフレームとしてもよい。また、イベント検出部15は、撮影中の撮影装置10の姿勢の変化(例えば、撮影装置10の縦横の変化)に基づいてイベントを検出してもよい。この場合、イベント検出部15は、撮影装置10に備えられるジャイロセンサ等のセンサからの信号に基づいて、撮影装置10の姿勢の変化を検出する。

Further, the event detection unit 15 may receive an instruction from a user via the operation unit (instruction reception unit) 250 during shooting of a moving image, and detect an event based on the instruction. Specifically, when the user confirms the event, an instruction may be input via the operation unit 250, and an event flag may be set on a frame at the time when the instruction is given or near a frame where the instruction is given, to be an event frame. . In addition, the event detection unit 15 may detect an event based on a change in the posture of the imaging device 10 during imaging (for example, a change in the vertical and horizontal directions of the imaging device 10). In this case, the event detection unit 15 detects a change in the attitude of the imaging device 10 based on a signal from a sensor such as a gyro sensor provided in the imaging device 10.

 制御部19は、動画ファイルの記憶部260への保存の制御を行う。具体的には、制御部19は、静止画抽出用動画撮影モードが選択された場合に、複数の動画ファイルのうちイベントフレームが含まれるイベント動画ファイルをイベントフォルダ23に、イベントフレームが含まれない動画ファイルを通常フォルダ21に保存する。又、別の態様としては、静止画抽出用動画撮影モードが選択されている場合に、制御部19は、イベント動画ファイルをイベントフォルダ23及び通常フォルダ21にも保存してもよい。

The control unit 19 controls storage of the moving image file in the storage unit 260. Specifically, when the still image extraction moving image shooting mode is selected, the control unit 19 stores the event moving image file including the event frame among the plurality of moving image files in the event folder 23 and does not include the event frame. The moving image file is stored in the normal folder 21. As another mode, when the still image extraction moving image shooting mode is selected, the control unit 19 may store the event moving image file in the event folder 23 and the normal folder 21.

 図3は、記憶部260の記憶構成例を示す図である。記憶部260は、撮影部11で撮影された複数の動画ファイルを記憶する通常フォルダ(第2のフォルダ)21と、イベント動画ファイルを記憶するイベントフォルダ(第1のフォルダ)23とを有する。イベントフォルダ23にイベント動画ファイルが移動され保存されるので、ユーザは所望のイベントフレームを探すときには、イベントフォルダ23内を探せば良く、簡便且つ迅速に所望のイベントフレームを見つけ出すことができる。なお、静止画抽出用動画撮影モードの場合には、ユーザの所望のイベントフレームは静止画として抽出される。又、イベントフォルダ23は特別の仕様は必要なく公知の技術で生成されるフォルダであるので、記録メディアを介した外部機器とのデータ通信等をした場合であっても、特別の仕様を有していない外部機器においてもイベントフォルダ23を確認することができる。また、通常フォルダ21とイベントフォルダ23は、仮想フォルダとして設けられてもよい。

FIG. 3 is a diagram illustrating a storage configuration example of the storage unit 260. The storage unit 260 has a normal folder (second folder) 21 for storing a plurality of moving image files shot by the shooting unit 11, and an event folder (first folder) 23 for storing event moving image files. Since the event moving image file is moved and stored in the event folder 23, when searching for a desired event frame, the user only has to search the event folder 23, and can easily and quickly find the desired event frame. In the case of the still image extraction moving image shooting mode, an event frame desired by the user is extracted as a still image. Further, the event folder 23 is a folder generated by a known technique without any special specifications, and therefore has a special specification even when data communication with an external device via a recording medium is performed. The event folder 23 can be confirmed even in an external device that is not connected. Further, the normal folder 21 and the event folder 23 may be provided as virtual folders.

 通常フォルダ21には、イベントフレームを有さない動画ファイルが保存される。又、通常フォルダ21には、撮影部11で取得された動画ファイルが一旦保存され、その後に、イベント検出部15でイベントが検出されたイベント動画ファイルを、制御部19によりイベントフォルダ23に移動させて保存してもよい。又、通常フォルダ21には、撮影部11で取得された動画ファイルが一旦保存され、その後に、イベント検出部15でイベントが検出されたイベント動画ファイルを、制御部19により、通常フォルダ21に保存したままイベントフォルダ23に複製して保存してもよい。

The normal folder 21 stores a moving image file having no event frame. The moving image file acquired by the photographing unit 11 is temporarily stored in the normal folder 21, and thereafter, the event moving image file in which the event is detected by the event detecting unit 15 is moved to the event folder 23 by the control unit 19. May be saved. Further, the moving image file acquired by the photographing unit 11 is temporarily stored in the normal folder 21, and thereafter, the event moving image file in which the event is detected by the event detecting unit 15 is stored in the normal folder 21 by the control unit 19. The data may be copied and stored in the event folder 23 as it is.

 記憶部260は、単数又は複数の記憶メディアにより構成されていてもよい。記憶部260が複数の記憶メディアにより構成される場合には、例えば記憶部260が第1の記憶メディアと第2の記憶メディアとで構成される。そして、イベントフォルダ23が第1の記憶メディアに設けられ、通常フォルダ21が第2の記憶メディアに設けられている。

The storage unit 260 may be configured by one or more storage media. When the storage unit 260 includes a plurality of storage media, for example, the storage unit 260 includes a first storage medium and a second storage medium. Then, the event folder 23 is provided on the first storage medium, and the normal folder 21 is provided on the second storage medium.

 <第1の実施形態>

 図4は、動画ファイルの生成とイベント検出との関係を示す模式図である。図4(A)では撮影部11で動画が撮影され、動画ファイル生成部13により複数の動画ファイルが生成されるタイミングが示されており、図4(B)では記憶部260への記録開始処理のタイミングが示されており、図4(C)では各動画ファイルのクローズ処理のタイミングが示されており、図4(D)ではイベント検出部15で行われるイベント検出のタイミングが示されている。

<First embodiment>

FIG. 4 is a schematic diagram illustrating the relationship between the generation of a moving image file and event detection. 4A shows a timing at which a moving image is shot by the shooting unit 11 and a plurality of moving image files are generated by the moving image file generation unit 13. FIG. 4B shows a process of starting recording in the storage unit 260. 4 (C) shows the timing of the closing process of each moving image file, and FIG. 4 (D) shows the timing of the event detection performed by the event detection unit 15. .

 図4では、所定の時間で区切られた動画ファイルV1からV8が連続的に撮影されている。静止画抽出用動画撮影モードにより、動画の撮影が開始され、それと同時に通常フォルダ21への動画ファイルの記録開始処理が行われる。その後、所定の時間が経過した後に動画ファイルV1のクローズ処理が行われる。そして、この動画ファイルV1に対してイベント検出部15によりイベント検出が行われる。イベント検出部15は、動画ファイルにおいてイベント25を含むイベントフレーム27を検出した場合には、イベント検出部15は動画ファイルにイベントフラグを立てる。図中では、イベントフラグが立っている動画ファイル(イベント動画ファイル)を「TRUE」とし、イベントフラグが立っていない動画ファイルを「FALSE」と記載している。

In FIG. 4, moving image files V1 to V8 separated by a predetermined time are continuously photographed. In the moving image shooting mode for extracting a still image, shooting of a moving image is started, and at the same time, recording of a moving image file in the normal folder 21 is started. Thereafter, after a predetermined time has elapsed, the closing process of the moving image file V1 is performed. Then, the event detection unit 15 performs event detection on the moving image file V1. When detecting the event frame 27 including the event 25 in the moving image file, the event detecting unit 15 sets an event flag in the moving image file. In the figure, a moving image file with an event flag set (event moving image file) is described as “TRUE”, and a moving image file without an event flag set is described as “FALSE”.

 動画ファイルV4においては、イベント検出部15がイベント25を含むイベントフレーム27を検出している。具体的には、動画ファイルV4の撮影期間において、イベント25が発生しておりそのイベント25を捉えたフレームであるイベントフレーム27がイベント検出部15により検出されている。この場合には、イベント検出部15はイベントフラグを立てて「TRUE」とする。

In the moving image file V4, the event detection unit 15 detects the event frame 27 including the event 25. Specifically, during the shooting period of the moving image file V4, the event 25 occurs, and the event detection unit 15 detects an event frame 27 that is a frame capturing the event 25. In this case, the event detection unit 15 sets the event flag to “TRUE”.

 図5は、撮影装置10を使用して行われる撮影方法(撮影工程)を示すフローチャートである。

FIG. 5 is a flowchart illustrating an imaging method (imaging step) performed using the imaging device 10.

 動画ファイルの撮影の初期化として、動画撮影が開始されイベント検出が開始される(ステップS10)。その後、ユーザから、動画記録の開始指示が操作部250を介して入力される(ステップS11)。そして、撮影部11で撮影された動画ファイルが通常フォルダ21への記録が開始される(ステップS12)。次に、動画ファイル生成部13は、動画記録の終了指示があるか否かを判定し(ステップS13)、動画記録の終了指示がある場合には動画ファイルをクローズする(ステップS15)。又、動画ファイル生成部13は、動画記録が予めユーザにより設定された所定時間を経過したか否かを判定し(ステップS14)、動画記録が所定時間を経過した場合には動画ファイルをクローズする(ステップS15)。

As initialization of shooting of a moving image file, moving image shooting is started and event detection is started (step S10). Thereafter, a moving image recording start instruction is input from the user via the operation unit 250 (step S11). Then, the recording of the moving image file photographed by the photographing unit 11 into the normal folder 21 is started (step S12). Next, the moving image file generation unit 13 determines whether or not there is a moving image recording end instruction (Step S13), and closes the moving image file if there is a moving image recording end instruction (Step S15). In addition, the moving image file generation unit 13 determines whether or not the moving image recording has passed a predetermined time set in advance by the user (Step S14), and closes the moving image file if the moving image recording has passed the predetermined time. (Step S15).

 その後、イベント検出部15により動画ファイル中のイベント25の検出が行われ(ステップS16)、動画ファイルにイベント25が検出された場合には、制御部19はこの動画ファイルをイベントフォルダ23に移動させて保存する(ステップS17)。尚、イベント検出部15により、動画ファイル中にイベント25が検出されなかった場合には、動画ファイルは通常フォルダ21に保存されたままとする。その後、操作部250を介してユーザより動画撮影を終了する指示が有るか否かの判定が行われ(ステップS18)、終了の指示が有った場合には撮影部11は動画撮影が終了する。一方、動画記録の終了の指示が無い場合には、次の動画ファイルの記録が通常フォルダ21に行われる。

Thereafter, the event detector 15 detects the event 25 in the moving image file (step S16). If the event 25 is detected in the moving image file, the controller 19 moves the moving image file to the event folder 23. And save (step S17). When the event detection unit 15 does not detect the event 25 in the moving image file, the moving image file is kept stored in the normal folder 21. Thereafter, it is determined whether or not there is an instruction from the user via the operation unit 250 to end the moving image shooting (step S18), and if there is an end instruction, the shooting unit 11 ends the moving image shooting. . On the other hand, if there is no instruction to end the moving image recording, the next moving image file is recorded in the normal folder 21.

 上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。

The above-described configurations and functions can be appropriately realized by arbitrary hardware, software, or a combination of both. For example, a program that causes a computer to execute the above-described processing steps (processing procedure), a computer-readable recording medium (non-transitory recording medium) on which such a program is recorded, or a computer on which such a program can be installed However, the present invention can be applied.

 以上で説明したように、本態様では、所定の期間の複数の動画ファイルのうちイベントフレーム27を有するイベント動画ファイルが、イベントフォルダ23に保存されるので、ユーザは簡便に且つ迅速に所望のイベントフレーム27を見つけ出すことができる。又、記録メディアを介した外部機器とのデータ通信を行う場合であっても、データ通信先の外部機器においても、特別の仕様を必要とせずに、ユーザは簡便に且つ迅速に所望のイベントフレーム27を見つけ出すことができる。

As described above, in the present embodiment, the event moving image file having the event frame 27 among the plurality of moving image files for the predetermined period is stored in the event folder 23, so that the user can easily and quickly obtain the desired event. The frame 27 can be found. In addition, even when performing data communication with an external device via a recording medium, the user can easily and quickly obtain a desired event frame without requiring special specifications in the external device of the data communication destination. 27 can be found.

 <第2の実施形態>

 次に、本発明の第2の実施形態に関して説明する。本実施形態では、イベント動画ファイルの直前に記録された動画ファイル、又はイベント動画ファイルの直後に記録された動画ファイルについては、イベントフレーム27を含んでいなくても、イベント動画ファイルと同様にイベントフォルダ23に移動し保存する。

<Second embodiment>

Next, a second embodiment of the present invention will be described. In the present embodiment, a moving image file recorded immediately before an event moving image file, or a moving image file recorded immediately after an event moving image file, does not include the event frame 27, and is similar to an event moving image file. Move to folder 23 and save.

 図6は、動画ファイルの生成とイベント検出との関係を示す模式図である。尚、図4で既に説明を行った箇所は同じ符号を付し説明を省略する。

FIG. 6 is a schematic diagram illustrating the relationship between the generation of a moving image file and event detection. The parts already described in FIG. 4 are denoted by the same reference numerals, and description thereof will be omitted.

 図6に示された例では、動画ファイルV4においてイベントフレーム27が検出されている。そして、イベント検出部15は、動画ファイルV4に対してイベントフラグを立てる(図中では「TRUE」と表記)。その後、イベント検出部15は、動画ファイルV4の時系列的に前に撮影された、イベントフレーム27が検出されていない動画ファイルV3に関してもイベントフラグの修正を行いイベントフラグを立てる(図中では「TRUE」と表記)。又、イベント検出部15は、動画ファイルV4の時系列的に後に撮影された、イベントフレーム27が検出されていない動画ファイルV5に関してもイベントフラグの修正を行いイベントフラグを立てる(図中では「TRUE」と表記)。これにより、イベントフラグが修正された後には、動画ファイルV3、動画ファイルV4、及び動画ファイルV5がイベント動画ファイルとなる。そして制御部19は、イベントフラグが立てられた動画ファイルV3、V4、V5をイベントフォルダ23に保存する。

In the example shown in FIG. 6, the event frame 27 is detected in the moving image file V4. Then, the event detection unit 15 sets an event flag for the moving image file V4 (depicted as "TRUE" in the figure). After that, the event detection unit 15 also corrects the event flag and sets the event flag for the moving image file V3 that is photographed before the moving image file V4 in chronological order and for which the event frame 27 is not detected (in the figure, “ TRUE "). Also, the event detection unit 15 corrects the event flag and sets the event flag for the moving image file V5 in which the event frame 27 is not detected, which is photographed after the moving image file V4 in chronological order ("TRUE" in the figure). "). Thus, after the event flag is corrected, the moving image file V3, the moving image file V4, and the moving image file V5 become the event moving image files. Then, the control unit 19 stores the moving image files V3, V4, and V5 for which the event flags are set in the event folder 23.

 図7は、本実施形態の撮影装置10を使用して行われる撮影方法(撮影工程)を示すフローチャートである。

FIG. 7 is a flowchart illustrating an imaging method (imaging step) performed using the imaging device 10 of the present embodiment.

 動画ファイルの撮影の初期化として、動画撮影が開始されイベント検出が開始される(ステップS20)。その後、ユーザから、動画記録の開始指示が操作部250を介して入力される(ステップS21)。そして、撮影部11で撮影された動画ファイルが通常フォルダ21への記録が開始される(ステップS22)。次に、動画ファイル生成部13は、動画記録の終了指示があるか否かを判定し(ステップS23)、動画記録の終了指示がある場合には動画ファイルをクローズする(ステップS25)。又、動画ファイル生成部13は、動画記録が予めユーザにより設定された所定時間を経過したか否かを判定し(ステップS24)、動画記録が所定時間を経過した場合には動画ファイルをクローズする(ステップS25)。

As initialization of shooting of a moving image file, shooting of a moving image is started, and event detection is started (step S20). Thereafter, a moving image recording start instruction is input from the user via the operation unit 250 (step S21). Then, the recording of the moving image file photographed by the photographing unit 11 into the normal folder 21 is started (step S22). Next, the moving image file generation unit 13 determines whether or not there is a moving image recording end instruction (Step S23), and closes the moving image file if there is a moving image recording end instruction (Step S25). Also, the moving image file generation unit 13 determines whether or not the moving image recording has elapsed a predetermined time set in advance by the user (step S24), and closes the moving image file if the moving image recording has elapsed the predetermined time. (Step S25).

 その後、イベント検出部15により、今回の動画ファイル中のイベント25の検出が行われ(ステップS26)、今回の動画ファイルにイベント25が検出された場合には、制御部19は今回の動画ファイルをイベントフォルダ23に移動させ保存する(ステップS27)。一方、イベント検出部15により、今回の動画ファイル中にイベント25が検出されなかった場合には、制御部19は前回の動画ファイル中にイベント25が検出されたか否かを判定し(ステップS30)、前回の動画ファイルにイベント25があった場合には、今回の動画ファイルをイベントフォルダ23に移動し保存する(ステップS31)。

Thereafter, the event detecting unit 15 detects the event 25 in the current moving image file (Step S26). When the event 25 is detected in the current moving image file, the control unit 19 determines whether the current moving image file is the current moving image file. It is moved to and stored in the event folder 23 (step S27). On the other hand, when the event detection unit 15 does not detect the event 25 in the current moving image file, the control unit 19 determines whether the event 25 has been detected in the previous moving image file (step S30). If there is an event 25 in the previous movie file, the current movie file is moved to the event folder 23 and stored (step S31).

 又、制御部19は、前回の動画ファイル中にイベント25が検出されたか否かを判定し(ステップS28)、前回の動画ファイルにイベント25が検出されていない場合には、前回の動画ファイルをイベントフォルダ23に移動させる(ステップS29)。その後、操作部250を介してユーザより動画撮影を終了する指示が有るか否かの判定が行われ(ステップS33)、終了の指示が有った場合には撮影部11は動画撮影が終了する。一方、動画記録の終了の指示が無い場合には、次の動画ファイルの記録が通常フォルダ21に行われる。

The control unit 19 determines whether the event 25 has been detected in the previous moving image file (step S28). If the event 25 has not been detected in the previous moving image file, the control unit 19 deletes the previous moving image file. It is moved to the event folder 23 (step S29). Thereafter, it is determined whether or not there is an instruction from the user via the operation unit 250 to end the moving image shooting (step S33), and if there is an end instruction, the shooting unit 11 ends the moving image shooting. . On the other hand, if there is no instruction to end the moving image recording, the next moving image file is recorded in the normal folder 21.

 以上で説明したように、本実施形態においては、イベント25が動画ファイル間を跨がっており上手くイベント25が検出できなかった場合においても、イベントフレーム27を有する動画ファイルをイベントフォルダ23に保存することができる。又、イベント25の発生の前後を捉えたフレームを有する動画ファイルをイベントフォルダ23に保存することができる。これにより、ユーザは、所望のフレームを容易に且つ迅速に見つけ出すことができる。

As described above, in the present embodiment, even when the event 25 crosses the moving image file and the event 25 cannot be detected successfully, the moving image file having the event frame 27 is stored in the event folder 23. can do. In addition, a moving image file having frames captured before and after the occurrence of the event 25 can be stored in the event folder 23. This allows the user to easily and quickly find a desired frame.

 <第2の実施形態の変形例>

 次に、第2の実施形態の変形例に関して説明する。本例では、イベントフレーム27がイベント動画ファイルの時系列的にどの箇所であるかを判定して、動画ファイルの保存を制御する。具体的には、検出したイベント25の発生時刻が、動画記録の開始時刻に近い場合は、制御部19はその動画ファイルの直前の動画ファイルもイベントフォルダ23に保存する。又、検出したイベント25の発生時刻が、動画記録の終了時刻に近い場合は、制御部19はその動画ファイルの直後の動画ファイルもイベントフォルダ23に保存する。これにより、本態様ではイベント25が動画ファイル間を跨がっており上手くイベント25が検出できなかった場合においても、イベントフレーム27を有する動画ファイルをイベントフォルダ23に保存することができる。又、イベント25の発生の前後を捉えたフレームをユーザに提供することができる。

<Modification of Second Embodiment>

Next, a modification of the second embodiment will be described. In this example, it is determined which part of the event moving image file the event frame 27 is in chronological order, and the saving of the moving image file is controlled. Specifically, when the occurrence time of the detected event 25 is close to the start time of the moving image recording, the control unit 19 also stores the moving image file immediately before the moving image file in the event folder 23. If the occurrence time of the detected event 25 is close to the end time of the moving image recording, the control unit 19 also stores the moving image file immediately after the moving image file in the event folder 23. Thus, in the present embodiment, even when the event 25 straddles between the moving image files and the event 25 cannot be detected satisfactorily, the moving image file having the event frame 27 can be stored in the event folder 23. In addition, a frame captured before and after the occurrence of the event 25 can be provided to the user.

 図8は、本発明のCPUで実現される機能の構成例を示すブロック図である。尚、図2で既に説明を行った箇所は、同じ符号を付し説明は省略する。

FIG. 8 is a block diagram illustrating a configuration example of a function realized by the CPU of the present invention. The parts already described in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted.

 本実施形態のイベント検出部15はフレーム位置特定部17を備える。フレーム位置特定部17は、イベント動画ファイルにおけるイベントフレーム27の時系列的な位置を特定する。具体的には、イベント検出部15においてイベントフレーム27が検出され、そのイベントフレーム27の位置が動画ファイルの開始時刻又は終了時刻からの時間で特定する。

The event detecting unit 15 of the present embodiment includes a frame position specifying unit 17. The frame position specifying unit 17 specifies a time-series position of the event frame 27 in the event moving image file. Specifically, the event frame 27 is detected by the event detection unit 15, and the position of the event frame 27 is specified by the time from the start time or the end time of the moving image file.

 図9は、本実施形態の撮影装置10を使用して行われる撮影方法(撮影工程)を示すフローチャートである。

FIG. 9 is a flowchart illustrating an imaging method (imaging step) performed using the imaging apparatus 10 of the present embodiment.

 動画ファイルの撮影の初期化として、動画撮影が開始されイベント検出が開始される(ステップS40)。その後、ユーザから、動画記録の開始指示が操作部250を介して入力される(ステップS41)。そして、撮影部11で撮影された動画ファイルが通常フォルダ21への記録が開始される(ステップS42)。次に、動画ファイル生成部13は、動画記録の終了指示があるか否かを判定し(ステップS43)、動画記録の終了指示がある場合には動画ファイルをクローズする(ステップS45)。又、動画ファイル生成部13は、動画記録が予めユーザにより設定された所定時間を経過したか否かを判定し(ステップS44)、動画記録が所定時間を経過した場合には動画ファイルをクローズする(ステップS45)。

As initialization of shooting of a moving image file, shooting of a moving image is started and event detection is started (step S40). Thereafter, a moving image recording start instruction is input from the user via the operation unit 250 (step S41). Then, the recording of the moving image file photographed by the photographing unit 11 into the normal folder 21 is started (step S42). Next, the moving image file generation unit 13 determines whether or not there is a moving image recording end instruction (step S43), and closes the moving image file if there is a moving image recording end instruction (step S45). In addition, the moving image file generation unit 13 determines whether or not the moving image recording has elapsed a predetermined time set in advance by the user (step S44), and closes the moving image file when the moving image recording has elapsed the predetermined time. (Step S45).

 その後、イベント検出部15により、今回の動画ファイル中のイベント25の検出が行われ(ステップS46)、今回の動画ファイルにイベント25が検出された場合には、制御部19この動画ファイルをイベントフォルダ23に移動させて保存する(ステップS47)。一方、イベント検出部15により、今回の動画ファイル中にイベント25が検出されなかった場合には、制御部19は前回の動画ファイル中の後半にイベント25が検出されたか否かを判定し(ステップS51)、前回の動画ファイルにイベント25があった場合には、今回の動画ファイルをイベントフォルダ23に移動し保存する(ステップS52)。

Thereafter, the event detecting unit 15 detects the event 25 in the current moving image file (step S46). If the event 25 is detected in the current moving image file, the control unit 19 stores the moving image file in the event folder. 23 and save it (step S47). On the other hand, when the event detection unit 15 does not detect the event 25 in the current moving image file, the control unit 19 determines whether the event 25 is detected in the second half of the previous moving image file (step S <b> 1). S51) If there is an event 25 in the previous moving image file, the current moving image file is moved to and stored in the event folder 23 (step S52).

 又、制御部19は、前回の動画ファイル中にイベント25が検出されたか否かを判定し(ステップS48)、前回の動画ファイルにイベント25がない場合には、今回の動画ファイル中の前半にイベント25が有るか否かを判定し(ステップS49)、前半にイベント25がある場合には、前回の動画ファイルをイベントフォルダ23に移動して保存する(ステップS50)。その後、操作部250を介してユーザより動画撮影を終了する指示が有るか否かの判定が行われ(ステップS53)、終了の指示が有った場合には撮影部11は動画撮影が終了する。一方、動画記録の終了の指示が無い場合には、次の動画ファイルの記録が通常フォルダ21に行われる。

Further, the control unit 19 determines whether or not the event 25 has been detected in the previous moving image file (step S48). It is determined whether or not the event 25 exists (step S49). If the event 25 exists in the first half, the previous moving image file is moved to the event folder 23 and stored (step S50). Thereafter, it is determined whether or not there is an instruction from the user via the operation unit 250 to end the moving image shooting (step S53), and if there is an end instruction, the shooting unit 11 ends the moving image shooting. . On the other hand, if there is no instruction to end the moving image recording, the next moving image file is recorded in the normal folder 21.

 尚、上記の説明における動画ファイルの前半及び後半とは、動画ファイルの期間における前半及び後半を意味する。例えば、一つの動画ファイルが2分間である場合には、前半が開始10秒以内、後半が終了時刻から10秒前の範囲である。

The first and second half of the moving image file in the above description means the first and second half of the period of the moving image file. For example, when one moving image file is 2 minutes, the first half is within 10 seconds from the start, and the second half is within 10 seconds before the end time.

 以上で説明した本実施形態によればイベント25が動画ファイル間を跨がっており上手くイベント25が検出できなかった場合においても、イベントフレーム27を有する動画ファイルをイベントフォルダ23に保存することができる。又、イベント25の発生の前後を捉えたフレームをユーザに提供することができる。

According to the above-described embodiment, even when the event 25 straddles the moving image file and the event 25 cannot be detected successfully, the moving image file having the event frame 27 can be stored in the event folder 23. it can. In addition, a frame captured before and after the occurrence of the event 25 can be provided to the user.

 <第3の実施形態>

 次に、本発明の第3の実施形態に関して説明する。本実施形態では、イベント動画ファイルとその前の動画ファイル、又は後の動画ファイルを連結して連結動画ファイルを生成する。

<Third embodiment>

Next, a third embodiment of the present invention will be described. In the present embodiment, a connected moving image file is generated by connecting an event moving image file and a moving image file before or after the event moving image file.

 本実施形態の動画ファイルの連結は、動画ファイル生成部13で行われる。動画ファイルの連結は、公知の技術により行われる。動画ファイル生成部13は、イベント動画ファイル(第1の動画ファイル)の時系列において前の動画ファイル(第2の動画ファイル)がイベントフォルダ23に保存されている場合には、それらを連結して連結動画ファイルとする。又、動画ファイル生成部13は、イベント動画ファイルの時系列において後の動画ファイル(第3の動画ファイル)がイベントフォルダ23に保存されている場合には、それらを連結して連結動画ファイルとする。又、動画ファイル生成部13は、イベント動画ファイルに前後の動画ファイルを連結してもよい。さらに、動画ファイル生成部13は、動画ファイルの連結及び分割を行って、イベント25が時間的に中間に位置するように動画ファイルを作成してもよい。

The connection of the moving image files according to the present embodiment is performed by the moving image file generation unit 13. The connection of the moving image files is performed by a known technique. If the previous moving image file (second moving image file) in the time series of the event moving image file (first moving image file) is stored in the event folder 23, the moving image file generating unit 13 connects them. It is a linked moving image file. In addition, when a moving image file (third moving image file) that is later in the time series of the event moving image file is stored in the event folder 23, the moving image file generating unit 13 connects the moving image files to form a connected moving image file. . In addition, the moving image file generation unit 13 may connect the preceding and following moving image files to the event moving image file. Furthermore, the moving image file generation unit 13 may create and connect the moving image file so that the event 25 is located at an intermediate point in time.

 図10は、本実施形態の撮影装置10を使用して行われる撮影方法(撮影工程)を示すフローチャートである。

FIG. 10 is a flowchart illustrating an imaging method (imaging step) performed using the imaging device 10 of the present embodiment.

 動画ファイルの撮影の初期化として、動画撮影が開始されイベント検出が開始される(ステップS60)。その後、ユーザから、動画記録の開始指示が操作部250を介して入力される(ステップS61)。そして、撮影部11で撮影された動画ファイルが通常フォルダ21への記録が開始される(ステップS62)。次に、動画ファイル生成部13は、動画記録の終了指示があるか否かを判定し(ステップS63)、動画記録の終了指示がある場合には動画ファイルをクローズする(ステップS65)。又、動画ファイル生成部13は、動画記録が予めユーザにより設定された所定時間を経過したか否かを判定し(ステップS64)、動画記録が所定時間を経過した場合には動画ファイルをクローズする(ステップS65)。

As initialization of shooting of a moving image file, moving image shooting is started and event detection is started (step S60). Thereafter, a moving image recording start instruction is input from the user via the operation unit 250 (step S61). Then, the recording of the moving image file photographed by the photographing unit 11 into the normal folder 21 is started (step S62). Next, the moving image file generation unit 13 determines whether or not there is a moving image recording end instruction (step S63), and closes the moving image file if there is a moving image recording end instruction (step S65). Also, the moving image file generation unit 13 determines whether or not the moving image recording has passed a predetermined time set in advance by the user (step S64), and closes the moving image file if the moving image recording has passed the predetermined time. (Step S65).

 その後、イベント検出部15により、今回の動画ファイル中のイベント25の検出が行われ(ステップS66)、今回の動画ファイルにイベント25が検出された場合には、制御部19は、この動画ファイルをイベントフォルダ23に移動させ保存する(ステップS67)。一方、イベント検出部15により、今回の動画ファイル中にイベント25が検出されなかった場合には、制御部19は、前回の動画ファイル中にイベント25が検出されたか否かを判定し(ステップS71)、前回の動画ファイルにイベント25があった場合には、今回の動画ファイルをイベントフォルダ23に移動し保存する(ステップS72)。又、制御部19は、前回の動画ファイル中にイベント25が検出されたか否かを判定し(ステップS68)、前回の動画ファイルにイベント25がない場合には、前回の動画ファイルをイベントフォルダ23に移動させ保存する(ステップS69)。

Thereafter, the event detecting unit 15 detects the event 25 in the current moving image file (Step S66). When the event 25 is detected in the current moving image file, the control unit 19 deletes the moving image file. Move to event folder 23 and save (step S67). On the other hand, when the event detection unit 15 does not detect the event 25 in the current video file, the control unit 19 determines whether the event 25 is detected in the previous video file (step S71). If there is an event 25 in the previous moving image file, move the current moving image file to the event folder 23 and save it (step S72). The control unit 19 determines whether the event 25 is detected in the previous moving image file (step S68). If the event 25 is not present in the previous moving image file, the control unit 19 stores the previous moving image file in the event folder 23. And store it (step S69).

 その後、動画ファイル生成部13は、イベントフォルダ23に保存されている。イベント動画ファイル及び動画ファイルを連結させる(ステップS70)。その後、操作部250を介してユーザより動画撮影を終了する指示が有るか否かの判定が行われ(ステップS73)、終了の指示が有った場合には撮影部11は動画撮影が終了する。一方、動画記録の終了の指示が無い場合には、次の動画ファイルの記録が通常フォルダ21に行われる。

After that, the moving image file generation unit 13 is stored in the event folder 23. The event moving image file and the moving image file are linked (step S70). Thereafter, it is determined whether or not there is an instruction from the user via the operation unit 250 to end the moving image shooting (step S73), and if there is an end instruction, the shooting unit 11 ends the moving image shooting. . On the other hand, if there is no instruction to end the moving image recording, the next moving image file is recorded in the normal folder 21.

 以上で説明したように、イベントフォルダ23に保存された動画を連結して一つの動画ファイルとすることで、イベント25が複数の動画ファイルに跨がって発生している場合には、イベント25を途切れることなく再生することができる。

As described above, by linking the moving images stored in the event folder 23 into one moving image file, if the event 25 occurs across a plurality of moving image files, the event 25 Can be reproduced without interruption.

 <その他>

 以上の説明では、イベント動画ファイルと通常の動画ファイルとの区別の手法として、イベントフォルダ23及び通常フォルダ21への動画ファイルの保存に関して説明してきた。しかし、イベント動画ファイルと通常の動画ファイルとの区別の手法はこれに限られるものではない。例えば、区別の手法として、動画のファイル名を変更することが挙げられる。具体的には、ファイル名「DSCF0001.MOV」、「DSCF0002.MOV」、「DSCF0003.MOV」、及び「DSCF0004.MOV」の動画ファイルの場合、「DSCF0003.MOV」にイベントフレーム27が検出された場合には、ファイル名を「DSCF0003A.MOV」に変更する。このように、イベント動画ファイルのファイル名を変更することにより、動画ファイルを区別してもよい。

<Others>

In the above description, storage of the moving image file in the event folder 23 and the normal folder 21 has been described as a technique for distinguishing the event moving image file from the normal moving image file. However, the method of distinguishing an event moving image file from a normal moving image file is not limited to this. For example, changing the file name of a moving image can be cited as a method of distinction. Specifically, in the case of the moving image files having the file names “DSCF0001.MOV”, “DSCF0002.MOV”, “DSCF0003.MOV”, and “DSCF0004.MOV”, the event frame 27 is detected in “DSCF0003.MOV”. In this case, the file name is changed to “DSCF0003A.MOV”. Thus, the moving image file may be distinguished by changing the file name of the event moving image file.

 <スマートフォンの構成>

 上述の説明では、撮影装置10の一例として、レンズ交換式のカメラを用いて説明をしたが、本発明の適用はこれに限定されるものではない。本発明を適用可能な他の態様としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、本発明を適用可能なスマートフォンの一例について説明する。

<Configuration of smartphone>

In the above description, the interchangeable lens type camera has been described as an example of the image capturing apparatus 10, but the application of the present invention is not limited to this. Other embodiments to which the present invention can be applied include, for example, a mobile phone or a smartphone having a camera function, a PDA (Personal Digital Assistants), and a portable game machine. Hereinafter, an example of a smartphone to which the present invention can be applied will be described.

 図11は、本発明の撮影装置10の一実施形態であるスマートフォン500の外観を示す図である。図11に示すスマートフォン500は、平板状の筐体502を有し、筐体502の一方の面に表示部としての表示パネル521と、入力部としての操作パネル522とが一体となった表示入力部520を備えている。又、係る筐体502は、スピーカ531と、マイクロホン532、操作部540と、カメラ部541とを備えている。尚、筐体502の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用することもできる。

FIG. 11 is a diagram illustrating an appearance of a smartphone 500 which is an embodiment of the photographing device 10 of the present invention. The smartphone 500 illustrated in FIG. 11 includes a flat housing 502, and a display input in which a display panel 521 as a display unit and an operation panel 522 as an input unit are integrated on one surface of the housing 502. A section 520 is provided. The housing 502 includes a speaker 531, a microphone 532, an operation unit 540, and a camera unit 541. Note that the configuration of the housing 502 is not limited to this. For example, a configuration in which the display unit and the input unit are independent from each other, or a configuration including a folding structure and a slide mechanism may be employed.

 図12は、図11に示すスマートフォン500の構成を示すブロック図である。図12に示すように、スマートフォンの主たる構成要素として、基地局と移動通信網とを介した移動無線通信を行う無線通信部510と、表示入力部520と、通話部530と、操作部540と、カメラ部541と、記録部550と、外部入出力部560と、GPS(Global Positioning System)受信部570と、モーションセンサ部580と、電源部590と、主制御部501とを備える。

FIG. 12 is a block diagram showing a configuration of smartphone 500 shown in FIG. As shown in FIG. 12, the main components of the smartphone include a wireless communication unit 510 that performs mobile wireless communication via a base station and a mobile communication network, a display input unit 520, a communication unit 530, and an operation unit 540. , A camera unit 541, a recording unit 550, an external input / output unit 560, a GPS (Global Positioning System) receiving unit 570, a motion sensor unit 580, a power supply unit 590, and a main control unit 501.

 無線通信部510は、主制御部501の指示にしたがって、移動通信網に収容された基地局に対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信、Webデータ及びストリーミングデータなどの受信を行う。

The wireless communication unit 510 performs wireless communication with a base station accommodated in a mobile communication network according to an instruction from the main control unit 501. Using this wireless communication, transmission and reception of various file data such as audio data and image data, e-mail data, and the like, and reception of Web data and streaming data are performed.

 表示入力部520は、主制御部501の制御により、画像(静止画及び動画)や文字情報などを表示して視覚的にユーザに情報を伝達し、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル521と、操作パネル522とを備える。

Under the control of the main control unit 501, the display input unit 520 displays images (still images and moving images), character information, and the like, visually transmits information to the user, and detects a user operation on the displayed information. The touch panel includes a display panel 521 and an operation panel 522.

 表示パネル521は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル522は、表示パネル521の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。かかるデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部501に出力する。次いで、主制御部501は、受信した検出信号に基づいて、表示パネル521上の操作位置(座標)を検出する。

The display panel 521 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device. The operation panel 522 is a device that is mounted so that an image displayed on the display surface of the display panel 521 can be visually recognized, and detects one or a plurality of coordinates operated by a user's finger or a stylus. When such a device is operated by a user's finger or a stylus, a detection signal generated due to the operation is output to the main control unit 501. Next, the main control unit 501 detects an operation position (coordinate) on the display panel 521 based on the received detection signal.

 図11に示すように、本発明の撮影装置10の一実施形態として例示しているスマートフォン500の表示パネル521と操作パネル522とは一体となって表示入力部520を構成しているが、操作パネル522が表示パネル521を完全に覆うような配置となっている。かかる配置を採用した場合、操作パネル522は、表示パネル521外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル522は、表示パネル521に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル521に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。

As shown in FIG. 11, the display panel 521 and the operation panel 522 of the smartphone 500 exemplified as an embodiment of the photographing apparatus 10 of the present invention constitute a display input unit 520 integrally. The panel 522 is arranged so as to completely cover the display panel 521. When such an arrangement is adopted, the operation panel 522 may have a function of detecting a user operation even in an area outside the display panel 521. In other words, the operation panel 522 includes a detection area (hereinafter, referred to as a display area) for a superimposed portion overlapping the display panel 521 and a detection area (hereinafter, a non-display area) for an outer edge portion not overlapping the display panel 521. ).

 尚、表示領域の大きさと表示パネル521の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。又、操作パネル522が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。さらに、外縁部分の幅は、筐体502の大きさなどに応じて適宜設計されるものである。又、操作パネル522で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。

Note that the size of the display area and the size of the display panel 521 may completely match, but it is not always necessary to match them. Further, the operation panel 522 may include two sensitive regions, an outer edge portion and an inner portion other than the outer edge portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 502 and the like. Examples of the position detection method adopted by the operation panel 522 include a matrix switch method, a resistive film method, a surface acoustic wave method, an infrared ray method, an electromagnetic induction method, a capacitance method, and the like. You can also.

 通話部530は、スピーカ531やマイクロホン532を備え、マイクロホン532を通じて入力されたユーザの音声を主制御部501にて処理可能な音声データに変換して主制御部501に出力したり、無線通信部510あるいは外部入出力部560により受信された音声データを復号してスピーカ531から出力するものである。又、図11に示すように、例えば、スピーカ531、マイクロホン532を表示入力部520が設けられた面と同じ面に搭載することができる。

The communication unit 530 includes a speaker 531 and a microphone 532, converts the user's voice input through the microphone 532 into voice data that can be processed by the main control unit 501, and outputs the voice data to the main control unit 501. The audio data received by the external input / output unit 510 or the external input / output unit 560 is decoded and output from the speaker 531. Further, as shown in FIG. 11, for example, the speaker 531 and the microphone 532 can be mounted on the same surface as the surface on which the display input unit 520 is provided.

 操作部540は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図11に示すように、操作部540は、スマートフォン500の筐体502の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。

The operation unit 540 is a hardware key using a key switch or the like, and receives an instruction from a user. For example, as shown in FIG. 11, the operation unit 540 is mounted on a side surface of the housing 502 of the smartphone 500 and is turned on when pressed with a finger or the like, and turned off due to a restoring force such as a spring when the finger is released. It is a push button type switch.

 記録部550は、主制御部501の制御プログラム、制御データ、アプリケーションソフトウェア(本発明に係る画像処理プログラムを含む)、通信相手の名称及び電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータ、及びダウンロードしたコンテンツデータを記憶し、又ストリーミングデータなどを一時的に記憶するものである。又、記録部550は、スマートフォン内蔵の内部記憶部551と着脱自在な外部メモリスロットを有する外部記憶部552により構成される。尚、記録部550を構成するそれぞれの内部記憶部551と外部記憶部552は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、Micro SD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの記録媒体を用いて実現される。

The recording unit 550 includes a control program of the main control unit 501, control data, application software (including the image processing program according to the present invention), address data that associates the name and telephone number of a communication partner, and the transmitted and received e-mails. It stores data, Web data downloaded by Web browsing, and downloaded content data, and temporarily stores streaming data and the like. The recording unit 550 includes an internal storage unit 551 built in the smartphone and an external storage unit 552 having a removable external memory slot. The internal storage unit 551 and the external storage unit 552 constituting the recording unit 550 include a flash memory type, a hard disk type, a multimedia card micro type, This is realized using a recording medium such as a card type memory (for example, a Micro SD (registered trademark) memory or the like), a RAM (Random Access Memory), a ROM (Read Only Memory).

 外部入出力部560は、スマートフォン500に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、及びIEEE1394など)又はネットワーク(例えば、インターネット、無線LAN(Local Area Network)、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。

The external input / output unit 560 serves as an interface with all external devices connected to the smartphone 500, and communicates with other external devices (for example, a universal serial bus (USB), IEEE 1394, or the like) or Network (for example, Internet, wireless LAN (Local Area Network), Bluetooth (registered trademark), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association: IrDA) (registered trademark), UWB (Ultra Wideband) ( (Registered trademark), ZigBee (registered trademark), etc.).

 スマートフォン500に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)、SIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、又はオーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオビデオ機器、無線接続される外部オーディオビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、及びイヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン500の内部の各構成要素に伝達し、又はスマートフォン500の内部のデータを外部機器に伝送することが可能である。

The external devices connected to the smartphone 500 include, for example, a wired / wireless headset, wired / wireless external charger, wired / wireless data port, a memory card connected via a card socket, and a SIM (Subscriber). Identity Module Card / UIM (User Identity Module Card) card or external audio / video equipment connected via audio / video I / O (Input / Output) terminal, external audio / video equipment wirelessly connected, wired / wireless There are a smartphone to be connected, a personal computer to be wired / wirelessly connected, a PDA to be wired / wirelessly connected, and an earphone. The external input / output unit can transmit data transmitted from such an external device to each component inside the smartphone 500, or can transmit data inside the smartphone 500 to the external device.

 GPS受信部570は、主制御部501の指示にしたがって、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン500の緯度、経度、及び高度からなる位置を検出する。GPS受信部570は、無線通信部510や外部入出力部560(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。

The GPS receiving unit 570 receives the GPS signals transmitted from the GPS satellites ST1 to STn according to the instruction of the main control unit 501, executes a positioning calculation process based on the received GPS signals, A position consisting of longitude and altitude is detected. When the GPS receiving unit 570 can acquire position information from the wireless communication unit 510 or the external input / output unit 560 (for example, a wireless LAN), the GPS receiving unit 570 can also detect the position using the position information.

 モーションセンサ部580は、例えば、3軸の加速度センサ及びジャイロセンサなどを備え、主制御部501の指示にしたがって、スマートフォン500の物理的な動きを検出する。スマートフォン500の物理的な動きを検出することにより、スマートフォン500の動く方向や加速度が検出される。この検出結果は、主制御部501に出力されるものである。

The motion sensor unit 580 includes, for example, a three-axis acceleration sensor and a gyro sensor, and detects a physical movement of the smartphone 500 according to an instruction from the main control unit 501. By detecting the physical movement of the smartphone 500, the moving direction and the acceleration of the smartphone 500 are detected. This detection result is output to the main control unit 501.

 電源部590は、主制御部501の指示にしたがって、スマートフォン500の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。

The power supply unit 590 supplies power stored in a battery (not shown) to each unit of the smartphone 500 according to an instruction from the main control unit 501.

 主制御部501は、マイクロプロセッサを備え、記録部550が記憶する制御プログラム及び制御データにしたがって動作し、スマートフォン500の各部を統括して制御するものである。又、主制御部501は、無線通信部510を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能及びアプリケーション処理機能を備える。

The main control unit 501 includes a microprocessor, operates according to a control program and control data stored in the recording unit 550, and controls the components of the smartphone 500 in an integrated manner. In addition, the main control unit 501 includes a mobile communication control function and an application processing function for controlling each unit of a communication system in order to perform voice communication and data communication via the wireless communication unit 510.

 アプリケーション処理機能は、記録部550が記憶するアプリケーションソフトウェアにしたがって主制御部501が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部560を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能、本発明に係る圧縮処理を行う画像処理機能などがある。

The application processing function is realized by the main control unit 501 operating according to the application software stored in the recording unit 550. The application processing functions include, for example, an infrared communication function for controlling the external input / output unit 560 to perform data communication with a counterpart device, an e-mail function for transmitting / receiving e-mail, a Web browsing function for browsing Web pages, and the present invention. And an image processing function for performing a compression process according to the above.

 又、主制御部501は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画や動画のデータ)に基づいて、映像を表示入力部520に表示する等の画像処理機能を備える。画像処理機能とは、主制御部501が、上記画像データを復号し、係る復号結果に画像処理を施して、画像を表示入力部520に表示する機能のことをいう。

In addition, the main control unit 501 has an image processing function such as displaying a video on the display input unit 520 based on image data (still image or moving image data) such as received data or downloaded streaming data. The image processing function refers to a function in which the main control unit 501 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 520.

 さらに、主制御部501は、表示パネル521に対する表示制御と、操作部540、操作パネル522を通じたユーザ操作を検出する操作検出制御を実行する。

Further, the main control unit 501 executes display control on the display panel 521 and operation detection control for detecting a user operation through the operation unit 540 and the operation panel 522.

 表示制御の実行により、主制御部501は、アプリケーションソフトウェアを起動するためのアイコン及びスクロールバーなどのソフトウェアキーを表示したり、或いは電子メールを作成するためのウィンドウを表示する。尚、スクロールバーとは、表示パネル521の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。

By executing the display control, the main control unit 501 displays an icon for starting application software and software keys such as a scroll bar, or displays a window for creating an e-mail. Note that the scroll bar is a software key for receiving an instruction to move a display portion of an image such as a large image that cannot be accommodated in the display area of the display panel 521.

 又、操作検出制御の実行により、主制御部501は、操作部540を通じたユーザ操作を検出したり、操作パネル522を通じてアイコンに対する操作、及びウィンドウの入力欄に対する文字列の入力を受け付け、或いはスクロールバーを通じた表示画像のスクロール要求を受け付ける。

By executing the operation detection control, the main control unit 501 detects a user operation through the operation unit 540, receives an operation on an icon through the operation panel 522, and receives an input of a character string in an input field of a window, or scrolls. A request to scroll a display image through a bar is received.

 さらに、操作検出制御の実行により主制御部501は、操作パネル522に対する操作位置が、表示パネル521に重なる重畳部分(表示領域)か、それ以外の表示パネル521に重ならない外縁部分(非表示領域)かを判定し、操作パネル522の感応領域及びソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。

Further, by executing the operation detection control, the main control unit 501 determines whether the operation position with respect to the operation panel 522 overlaps the display panel 521 with a superimposed portion (display region) or an outer edge portion that does not overlap with the display panel 521 (non-display region). ) Is provided, and a touch panel control function for controlling the sensitive area of the operation panel 522 and the display position of the software key is provided.

 又、主制御部501は、操作パネル522に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、或いはこれらを組合せて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。

In addition, the main control unit 501 can detect a gesture operation on the operation panel 522 and execute a preset function according to the detected gesture operation. The gesture operation is not a conventional simple touch operation but an operation of drawing a trajectory with a finger or the like, specifying a plurality of positions at the same time, or combining these to draw a trajectory for at least one from a plurality of positions. means.

 カメラ部541は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラであり、図1に示した撮影装置10に相当する。又、カメラ部541は、主制御部501の制御により、撮影によって得た静止画の画像データを、例えばJPEG(Joint Photographic coding Experts Group)で圧縮し、又は動画の画像データを、例えばH.264/AVCで圧縮して記録部550に記録したり、外部入出力部560や無線通信部510を通じて出力することができる。図11に示すようにスマートフォン500において、カメラ部541は表示入力部520と同じ面に搭載されているが、カメラ部541の搭載位置はこれに限らず、表示入力部520の背面に搭載されてもよいし、或いは、複数のカメラ部541が搭載されてもよい。尚、複数のカメラ部541が搭載されている場合、撮影に供するカメラ部541を切り替えて単独にて撮影したり、或いは、複数のカメラ部541を同時に使用して撮影することもできる。

The camera unit 541 is a digital camera that performs electronic photographing using an image sensor such as a complementary metal oxide semiconductor (CMOS) or a charge-coupled device (CCD), and corresponds to the photographing device 10 illustrated in FIG. Also, under the control of the main control unit 501, the camera unit 541 compresses still image data obtained by shooting using, for example, JPEG (Joint Photographic coding Experts Group), or compresses moving image data into, for example, H.264. It can be compressed by H.264 / AVC and recorded in the recording unit 550, or output through the external input / output unit 560 or the wireless communication unit 510. As shown in FIG. 11, in the smartphone 500, the camera unit 541 is mounted on the same surface as the display input unit 520, but the mounting position of the camera unit 541 is not limited to this, and the camera unit 541 is mounted on the back surface of the display input unit 520. Alternatively, a plurality of camera units 541 may be mounted. When a plurality of camera units 541 are mounted, the camera unit 541 to be used for photographing can be switched to perform shooting independently, or shooting can be performed using a plurality of camera units 541 simultaneously.

 又、カメラ部541はスマートフォン500の各種機能に利用することができる。例えば、表示パネル521にカメラ部541で取得した画像を表示することや、操作パネル522の操作入力のひとつとして、カメラ部541の画像を利用することができる。又、GPS受信部570が位置を検出する際に、カメラ部541からの画像を参照して位置を検出することもできる。さらには、カメラ部541からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサ(ジャイロセンサ)と併用して、スマートフォン500のカメラ部541の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部541からの画像をアプリケーションソフトウェア内で利用することもできる。

Further, the camera unit 541 can be used for various functions of the smartphone 500. For example, the image acquired by the camera unit 541 can be displayed on the display panel 521, and the image of the camera unit 541 can be used as one of the operation inputs of the operation panel 522. When the GPS receiving section 570 detects the position, the position can be detected with reference to the image from the camera section 541. Further, referring to the image from the camera unit 541, the optical axis direction of the camera unit 541 of the smartphone 500 is used without using the three-axis acceleration sensor or in combination with the three-axis acceleration sensor (gyro sensor). Can be determined, and the current use environment can also be determined. Of course, the image from the camera unit 541 can be used in the application software.

 その他、静止画又は動画の画像データにGPS受信部570により取得した位置情報、マイクロホン532により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部580により取得した姿勢情報等などを付加して記録部550に記録したり、外部入出力部560や無線通信部510を通じて出力することもできる。

In addition, position information obtained by the GPS receiving unit 570 to image data of a still image or a moving image, audio information obtained by the microphone 532 (may be converted into text information by performing audio-to-text conversion by the main control unit or the like), Posture information or the like acquired by the motion sensor unit 580 can be added and recorded in the recording unit 550, or output via the external input / output unit 560 or the wireless communication unit 510.

 尚、上述した説明でのCPU240は主制御部501に対応しており、記憶部260は記録部550に対応している。

The CPU 240 in the above description corresponds to the main control unit 501, and the storage unit 260 corresponds to the recording unit 550.

 以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。

Although an example of the present invention has been described above, the present invention is not limited to the above-described embodiment, and it goes without saying that various modifications can be made without departing from the spirit of the present invention.

10     :撮影装置

11     :撮影部

13     :動画ファイル生成部

15     :イベント検出部

17     :フレーム位置特定部

19     :制御部

21     :通常フォルダ

23     :イベントフォルダ

100    :交換レンズ

110    :ズームレンズ

120    :フォーカスレンズ

130    :絞り

140    :レンズ駆動部

200    :撮影装置本体

210    :撮像素子

230    :A/D変換器

240    :CPU

250    :操作部

260    :記憶部

270    :モニタ

500    :スマートフォン

501    :主制御部

502    :筐体

510    :無線通信部

520    :表示入力部

521    :表示パネル

522    :操作パネル

530    :通話部

531    :スピーカ

532    :マイクロホン

540    :操作部

541    :カメラ部

550    :記録部

551    :内部記憶部

552    :外部記憶部

560    :外部入出力部

570    :GPS受信部

570    :受信部

580    :モーションセンサ部

590    :電源部

10: Photographing device

11: Shooting unit

13: Movie file generator

15: Event detector

17: Frame position specifying unit

19: Control unit

21: Normal folder

23: Event folder

100: Interchangeable lens

110: Zoom lens

120: Focus lens

130: Aperture

140: Lens drive unit

200: Photographing device body

210: Image sensor

230: A / D converter

240: CPU

250: Operation unit

260: Storage unit

270: Monitor

500: Smartphone

501: Main control unit

502: Housing

510: Wireless communication unit

520: display input section

521: Display panel

522: Operation panel

530: Call section

531: Speaker

532: Microphone

540: Operation unit

541: Camera section

550: Recorder

551: Internal storage unit

552: External storage unit

560: External input / output unit

570: GPS receiver

570: Receiver

580: Motion sensor unit

590: Power supply section

Claims (23)


  1.  第1の動画撮影モード、又は、前記第1の動画撮影モードと撮影条件が異なる第2の動画撮影モードに基づいて動画を撮影する撮影部と、

     前記撮影部で取得した動画から複数の動画ファイルを生成する動画ファイル生成部と、

     前記動画ファイルを記憶する第1のフォルダと第2のフォルダを有する記憶部と、

     前記動画を構成する複数のフレームからイベントを含むイベントフレームを検出するイベント検出部と、

     前記第2の動画撮影モードが選択された場合に、前記複数の動画ファイルのうち前記イベントフレームが含まれる第1の動画ファイルを前記第1のフォルダに、前記イベントフレームが含まれない動画ファイルを前記第2のフォルダに保存する制御部と、

     を備える撮影装置。

    A photographing unit for photographing a moving image based on a first moving image photographing mode or a second moving image photographing mode in which photographing conditions are different from the first moving image photographing mode;

    A moving image file generating unit that generates a plurality of moving image files from the moving image acquired by the shooting unit;

    A storage unit having a first folder and a second folder for storing the moving image file,

    An event detection unit that detects an event frame including an event from a plurality of frames configuring the moving image,

    When the second moving image shooting mode is selected, a first moving image file including the event frame among the plurality of moving image files is stored in the first folder, and a moving image file not including the event frame is stored in the first folder. A control unit for storing the data in the second folder;

    An imaging device comprising:

  2.  前記動画ファイル生成部は、前記動画を設定された時間ごとに分割して複数の動画ファイルを生成するものであって、

    前記制御部は、前記複数の動画ファイルのうち、前記第1の動画ファイルの時系列において前の第2の動画ファイル、又は、前記第1の動画ファイルの時系列において後の第3の動画ファイルを前記第1のフォルダに保存する請求項1に記載の撮影装置。

    The moving image file generating unit generates the plurality of moving image files by dividing the moving image for each set time,

    The control unit may include, among the plurality of moving image files, a second moving image file preceding in the time series of the first moving image file, or a third moving image file following in the time series of the first moving image file. The photographing apparatus according to claim 1, wherein the image data is stored in the first folder.

  3.  前記第1の動画ファイルにおける前記イベントフレームの位置を特定するフレーム位置特定部を備え、

     前記制御部は、前記特定されたフレームの位置に基づいて、前記第2の動画ファイル、又は、前記第3の動画ファイルを前記第1のフォルダに保存する請求項2に記載の撮影装置。

    A frame position specifying unit that specifies a position of the event frame in the first moving image file;

    The photographing apparatus according to claim 2, wherein the control unit stores the second moving image file or the third moving image file in the first folder based on the position of the specified frame.

  4. 前記動画ファイル生成部は、前記第1のフォルダに保存された前記第1の動画ファイルと、前記第2の動画ファイル、又は、前記第3の動画ファイルを連結して一つの連結動画ファイルを生成する請求項2又は3に記載の撮影装置。

    The moving image file generation unit generates one connected moving image file by connecting the first moving image file stored in the first folder and the second moving image file or the third moving image file. The photographing apparatus according to claim 2, wherein:

  5.  前記制御部は、前記第1の動画ファイルを前記第2のフォルダにも保存する請求項1から4のいずれか1項に記載の撮影装置。

    The imaging device according to claim 1, wherein the control unit stores the first moving image file also in the second folder.

  6.  前記記憶部は、第1の記憶メディアと第2の記憶メディアとで構成されており、前記第1のフォルダは前記第1の記憶メディアに設けられ、前記第2のフォルダは前記第2の記憶メディアに設けられている請求項1から5のいずれか1項に記載の撮影装置。

    The storage unit includes a first storage medium and a second storage medium, wherein the first folder is provided on the first storage medium, and wherein the second folder is provided on the second storage medium. The photographing device according to claim 1, wherein the photographing device is provided on a medium.

  7.  前記第1のフォルダ及び前記第2のフォルダは、仮想フォルダである請求項1から6のいずれか1項に記載の撮影装置。

    The photographing device according to claim 1, wherein the first folder and the second folder are virtual folders.

  8. 前記第2の動画撮影モードは、前記第1の動画撮影モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、及びホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、且つ/又は前記第1の動画撮影モードに対してフレームレートが高く設定される請求項1から7のいずれか1項に記載の撮影装置。

    In the second moving image shooting mode, at least one of a shutter speed, an autofocus speed, an automatic exposure following speed, and a white balance following speed is set to be higher than the first moving image shooting mode, and 8. The imaging device according to claim 1, wherein a frame rate is set higher than the first moving image imaging mode. 9.

  9.  前記イベント検出部は、前記動画を構成する前記フレームにおいて、撮影シーンの変化を検出することにより前記イベントを検出する請求項1から8のいずれか1項に記載の撮影装置。

    9. The imaging device according to claim 1, wherein the event detection unit detects the event by detecting a change in an imaging scene in the frame configuring the moving image. 10.

  10.  前記動画の撮影中にユーザからの指示を受け付ける指示受付部を備え、

     前記イベント検出部は、前記指示に基づいて前記イベントを検出する請求項1から9のいずれか1項に記載の撮影装置。

    An instruction receiving unit that receives an instruction from a user during shooting of the moving image,

    The imaging device according to claim 1, wherein the event detection unit detects the event based on the instruction.

  11.  前記記憶部は、前記第2のフォルダに保存される前記動画ファイルを上書きする請求項1から10のいずれか1項に記載の撮影装置。

    The imaging device according to any one of claims 1 to 10, wherein the storage unit overwrites the moving image file stored in the second folder.

  12.  前記記憶部は、前記第2のフォルダに保存される前記動画ファイルを所定の条件に基づいて自動的に削除する請求項1から11のいずれか1項に記載の撮影装置。

    The imaging device according to claim 1, wherein the storage unit automatically deletes the moving image file stored in the second folder based on a predetermined condition.

  13.  第1の動画撮影モード、又は、前記第1の動画撮影モードと撮影条件が異なる第2の動画撮影モードに基づいて動画を撮影するステップと、

     前記撮影するステップで撮影した動画から複数の動画ファイルを生成するステップと、

     前記動画を構成する複数のフレームからイベントを含むイベントフレームを検出するステップと、

     前記第2の動画撮影モードが選択された場合に、前記複数の動画ファイルのうち、前記イベントフレームが含まれる第1の動画ファイルを記憶部の第1のフォルダに、前記イベントフレームが含まれない動画ファイルを前記記憶部の第2のフォルダに記憶するステップと、

     を含む撮影方法。

    Shooting a moving image based on a first moving image shooting mode or a second moving image shooting mode having different shooting conditions from the first moving image shooting mode;

    Generating a plurality of video files from the video captured in the capturing step;

    Detecting an event frame including an event from a plurality of frames constituting the moving image;

    When the second moving image shooting mode is selected, the first moving image file including the event frame among the plurality of moving image files is not included in the first folder of the storage unit and the event frame is not included. Storing a video file in a second folder of the storage unit;

    Shooting methods including:

  14.  前記動画ファイルを生成するステップは、前記動画を設定された時間ごとに分割して複数の動画ファイルを生成するものであって、

     前記記憶するステップは、前記複数の動画ファイルのうち、前記第1の動画ファイルの時系列において前の第2の動画ファイル、又は、前記第1の動画ファイルの時系列において後の第3の動画ファイルを前記第1のフォルダに保存する請求項13に記載の撮影方法。

    The step of generating the moving image file is to generate a plurality of moving image files by dividing the moving image for each set time,

    The storing step includes, among the plurality of moving image files, a second moving image file preceding in the time series of the first moving image file, or a third moving image following in the time series of the first moving image file. 14. The imaging method according to claim 13, wherein a file is stored in the first folder.

  15.  前記第1の動画ファイルにおける前記イベントフレームの位置を特定するステップを備え、

     前記記憶するステップは、前記特定されたフレームの位置に基づいて、前記第2の動画ファイル、又は、前記第3の動画ファイルを前記第1のフォルダに保存する請求項14に記載の撮影方法。

    Identifying the position of the event frame in the first video file,

    The method according to claim 14, wherein the storing step stores the second moving image file or the third moving image file in the first folder based on the position of the specified frame.

  16.  前記動画ファイルを生成するステップは、前記第1のフォルダに保存された前記第1の動画ファイルと、前記第2の動画ファイル、又は、前記第3の動画ファイルを連結して一つの連結動画ファイルを生成する請求項14又は15に記載の撮影方法。

    The step of generating the moving image file may include connecting the first moving image file stored in the first folder and the second moving image file or the third moving image file to form one connected moving image file. The imaging method according to claim 14, wherein the image is generated.

  17.  前記記憶するステップは、前記第1の動画ファイルを前記第2のフォルダにも保存する請求項13から16のいずれか1項に記載の撮影方法。

    17. The imaging method according to claim 13, wherein said storing step stores the first moving image file also in the second folder.

  18.  前記記憶部は、第1の記憶メディアと第2の記憶メディアとで構成されており、前記第1のフォルダは前記第1の記憶メディアに設けられ、前記第2のフォルダは前記第2の記憶メディアに設けられている請求項13から17のいずれか1項に記載の撮影方法。

    The storage unit includes a first storage medium and a second storage medium, wherein the first folder is provided on the first storage medium, and wherein the second folder is provided on the second storage medium. The imaging method according to claim 13, wherein the imaging method is provided on a medium.

  19.  前記第1のフォルダ及び前記第2のフォルダは、仮想フォルダである請求項13から18のいずれか1項に記載の撮影方法。

    The method according to any one of claims 13 to 18, wherein the first folder and the second folder are virtual folders.

  20.  前記第2の動画撮影モードは、前記第1の動画撮影モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、及びホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、且つ/又は前記第1の動画撮影モードに対してフレームレートが高く設定される請求項13から19のいずれか1項に記載の撮影方法。

    The second moving image shooting mode is such that at least one of a shutter speed, an autofocus speed, an automatic exposure following speed, and a white balance following speed is set to be higher than the first moving image shooting mode, and 20. The photographing method according to claim 13, wherein a frame rate is set higher than the first moving image photographing mode.

  21.  前記検出するステップは、前記動画を構成する前記フレームにおいて、撮影シーンの変化を検出することにより前記イベントを検出する請求項13から20のいずれか1項に記載の撮影方法。

    The photographing method according to any one of claims 13 to 20, wherein the detecting comprises detecting the event by detecting a change in a photographing scene in the frame constituting the moving image.

  22.  前記動画の撮影中にユーザからの指示を受け付けるステップを含み、

     前記検出するステップは、前記指示に基づいて前記イベントを検出する請求項13から21のいずれか1項に記載の撮影方法。

    Including receiving an instruction from the user during the shooting of the moving image,

    22. The imaging method according to claim 13, wherein the detecting detects the event based on the instruction.

  23.  第1の動画撮影モード、又は、前記第1の動画撮影モードと撮影条件が異なる第2の動画撮影モードに基づいて動画を撮影するステップと、

     前記撮影するステップで撮影した動画から複数の動画ファイルを生成するステップと、

     前記動画を構成する複数のフレームからイベントを含むイベントフレームを検出するステップと、

     前記第2の動画撮影モードが選択された場合に、前記複数の動画ファイルのうち、前記イベントフレームが含まれる第1の動画ファイルを記憶部の第1のフォルダに、前記イベントフレームが含まれない動画ファイルを前記記憶部の第2のフォルダに記憶するステップと、

    を含む撮影工程をコンピュータに実行させるプログラム。

    Shooting a moving image based on a first moving image shooting mode or a second moving image shooting mode having different shooting conditions from the first moving image shooting mode;

    Generating a plurality of video files from the video captured in the capturing step;

    Detecting an event frame including an event from a plurality of frames constituting the moving image;

    When the second moving image shooting mode is selected, the first moving image file including the event frame among the plurality of moving image files is not included in the first folder of the storage unit and the event frame is not included. Storing a video file in a second folder of the storage unit;

    A program for causing a computer to execute an imaging step including:
PCT/JP2019/031090 2018-09-26 2019-08-07 Photographing apparatus, photographing method, and program WO2020066316A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020548105A JP7064609B2 (en) 2018-09-26 2019-08-07 Shooting equipment, shooting method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-179971 2018-09-26
JP2018179971 2018-09-26

Publications (1)

Publication Number Publication Date
WO2020066316A1 true WO2020066316A1 (en) 2020-04-02

Family

ID=69952620

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/031090 WO2020066316A1 (en) 2018-09-26 2019-08-07 Photographing apparatus, photographing method, and program

Country Status (2)

Country Link
JP (1) JP7064609B2 (en)
WO (1) WO2020066316A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005229236A (en) * 2004-02-12 2005-08-25 Casio Comput Co Ltd Camera apparatus and program
JP2006093956A (en) * 2004-09-22 2006-04-06 Canon Inc Imaging apparatus
JP2008301013A (en) * 2007-05-30 2008-12-11 Fujifilm Corp Photographing device, method, and program
JP2009077026A (en) * 2007-09-19 2009-04-09 Fujifilm Corp Imaging apparatus and method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005229236A (en) * 2004-02-12 2005-08-25 Casio Comput Co Ltd Camera apparatus and program
JP2006093956A (en) * 2004-09-22 2006-04-06 Canon Inc Imaging apparatus
JP2008301013A (en) * 2007-05-30 2008-12-11 Fujifilm Corp Photographing device, method, and program
JP2009077026A (en) * 2007-09-19 2009-04-09 Fujifilm Corp Imaging apparatus and method, and program

Also Published As

Publication number Publication date
JP7064609B2 (en) 2022-05-10
JPWO2020066316A1 (en) 2021-08-30

Similar Documents

Publication Publication Date Title
US11696021B2 (en) Video recording device and camera function control program
KR101477178B1 (en) Portable terminal having dual camera and photographing method using the same
US11438521B2 (en) Image capturing device, image capturing method, and program
WO2021219141A1 (en) Photographing method, graphic user interface, and electronic device
US11805320B2 (en) Imaging device, imaging method, and imaging program
US11032483B2 (en) Imaging apparatus, imaging method, and program
JPWO2020158069A1 (en) Imaging device, imaging method, and program
JP6998454B2 (en) Imaging equipment, imaging methods, programs and recording media
JP7060703B2 (en) Shooting equipment, shooting method, and program
WO2020209097A1 (en) Image display device, image display method, and program
WO2020066316A1 (en) Photographing apparatus, photographing method, and program
JP7003286B2 (en) Shooting equipment, shooting method, and program
JP7186854B2 (en) Image display device, image display method, and program
JP7191980B2 (en) IMAGING DEVICE, IMAGING METHOD, AND PROGRAM
JP6941744B2 (en) Image processing device, photographing device, image processing method and image processing program
JP6810298B2 (en) Image alignment aids, methods and programs and imaging devices
JP6840903B2 (en) Imaging device, imaging method, and program
JP6354377B2 (en) Imaging apparatus and control method and program thereof
JPWO2020116102A1 (en) Imaging device, imaging method, and program
JP2005192097A (en) Imaging apparatus, moving image photography method, and photography control program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19864680

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020548105

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19864680

Country of ref document: EP

Kind code of ref document: A1