JP7064609B2 - Shooting equipment, shooting method, and program - Google Patents

Shooting equipment, shooting method, and program Download PDF

Info

Publication number
JP7064609B2
JP7064609B2 JP2020548105A JP2020548105A JP7064609B2 JP 7064609 B2 JP7064609 B2 JP 7064609B2 JP 2020548105 A JP2020548105 A JP 2020548105A JP 2020548105 A JP2020548105 A JP 2020548105A JP 7064609 B2 JP7064609 B2 JP 7064609B2
Authority
JP
Japan
Prior art keywords
moving image
event
folder
shooting
image file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020548105A
Other languages
Japanese (ja)
Other versions
JPWO2020066316A1 (en
Inventor
康一 田中
哲 和田
哲也 藤川
幸徳 西山
健吉 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020066316A1 publication Critical patent/JPWO2020066316A1/en
Application granted granted Critical
Publication of JP7064609B2 publication Critical patent/JP7064609B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/16Bodies for containing both motion-picture camera and still-picture camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Television Signal Processing For Recording (AREA)
  • Exposure Control For Cameras (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)

Description


本発明は、撮影装置、撮影方法、及びプログラムに関し、特に動画ファイルを記憶する技術に関する。

The present invention relates to a photographing device, a photographing method, and a program, and particularly to a technique for storing a moving image file.


従来より、動画撮影を行いながら、静止画を取得する技術が知られている。

Conventionally, a technique for acquiring a still image while shooting a moving image has been known.


例えば、特許文献1では、動画撮影時に動画の中から静止画として出力するのに適した画像のみを特定する技術が提案されている。具体的には、特許文献1に記載の技術では、動画撮影時にその撮影画像の変化度合いが所定レベル(50%)以上であることを判別し、その時点での画像フレームを静止画の出力候補として特定して候補フラグを付加する。そして、特許文献1に記載の技術では、動画ファイルに対して静止画の出力が指示された際に、候補フラグが付加されている各画像フレームを抽出して静止画の出力候補として一覧表示させた後、この一覧表示の中から任意に選択された画像フレームを静止画として出力させている。

For example, Patent Document 1 proposes a technique for specifying only an image suitable for output as a still image from a moving image when shooting a moving image. Specifically, in the technique described in Patent Document 1, it is determined that the degree of change of the captured image is a predetermined level (50%) or more at the time of video recording, and the image frame at that time is a candidate for output of a still image. And add a candidate flag. Then, in the technique described in Patent Document 1, when the output of a still image is instructed to the moving image file, each image frame to which the candidate flag is added is extracted and displayed as a list as output candidates of the still image. After that, the image frame arbitrarily selected from this list display is output as a still image.


又近年、被写体の一瞬のシーンを捉えるために、静止画抽出用の動画を撮影する動画撮影モードを有する撮影装置が提案されている。例えば、特許文献2に記載の技術では、静止画抽出用の動画が、通常の動画と比べて1フレームの露光時間が短く設定されたものである。

Further, in recent years, in order to capture a momentary scene of a subject, a shooting device having a moving image shooting mode for shooting a moving image for extracting a still image has been proposed. For example, in the technique described in Patent Document 2, the moving image for extracting a still image is set so that the exposure time of one frame is shorter than that of a normal moving image.


特開2005-229236号公報Japanese Unexamined Patent Publication No. 2005-229236 特開2016-32303号公報Japanese Unexamined Patent Publication No. 2016-32303


ここで、動画撮影を行いながらユーザが意図するイベントが発生した際の静止画を抽出したいというニーズがある。予測が可能なイベントの静止画を撮影する場合には、ユーザはイベントの発生を予測して撮影指示を出し、撮影指示から数十秒程度の動画又は静止画を記録する。そしてユーザは、その動画又は静止画を確認することにより、イベントの発生を捉えた所望の静止画を得ることができる。尚、ある程度予測が可能なイベントとは、例えばスポーツにおいてはテニスラケットでボールを打つ瞬間、サッカーでシュートする瞬間等である。

Here, there is a need to extract a still image when an event intended by the user occurs while shooting a moving image. When shooting a still image of a predictable event, the user predicts the occurrence of the event, issues a shooting instruction, and records a moving image or a still image of about several tens of seconds from the shooting instruction. Then, the user can obtain a desired still image that captures the occurrence of the event by checking the moving image or the still image. In sports, for example, an event that can be predicted to some extent is a moment of hitting a ball with a tennis racket, a moment of shooting with soccer, or the like.


一方で、雷や夜行性動物の観察など、いつ起こるか予測ができないイベントに対しては長時間において動画を記録する必要がある。長時間の動画から特定のイベントを捉えたフレームを手作業で見つけ出すのには、大きな労力と時間が必要となる。そこで、このような場合には、例えば特許文献1に記載されたように、自動(撮影画像の変化度合い)でイベントを捉えたフレームを特定し、特定されたフレームに対して候補フラグを付加する技術を適用することが考えられる。

On the other hand, for events where it is unpredictable when it will occur, such as lightning and observation of nocturnal animals, it is necessary to record moving images for a long time. It takes a lot of effort and time to manually find a frame that captures a specific event from a long video. Therefore, in such a case, for example, as described in Patent Document 1, a frame that automatically captures an event (the degree of change in the captured image) is specified, and a candidate flag is added to the specified frame. It is conceivable to apply the technique.


しかし、このような候補フラグを付加する技術は必ずしも標準化されておらず、記録メディアを介した外部機器とのデータ通信を行った場合に、候補フラグが上手く機能しない場合がある。

However, the technique for adding such a candidate flag is not always standardized, and the candidate flag may not function well when data communication with an external device is performed via a recording medium.


又、候補フラグが付加されたフレームを抽出する場合には、改めて全フレームを解析して候補フラグが付加されたフレームを抽出する必要があり、候補フラグが付加されたフレーム(イベントフレーム)の抽出及び表示に時間が必要となる。

In addition, when extracting the frame to which the candidate flag is added, it is necessary to analyze all the frames again and extract the frame to which the candidate flag is added, and to extract the frame to which the candidate flag is added (event frame). And time is required for display.


又、特許文献1に記載された技術のように、イベントの発生の検出を画像処理等により自動で行って候補フラグを付加する技術は、必ずしもユーザが所望するフレームに候補フラグを付加できるとは限らない。例えば、自動での候補フラグの付加が上手く作用していない場合や、自動での候補フラグの付加は上手く作用しているが、ユーザとしてはイベントフレームの前後のフレームを所望する場合がある。

Further, a technique such as the technique described in Patent Document 1 that automatically detects the occurrence of an event by image processing or the like and adds a candidate flag does not necessarily mean that the candidate flag can be added to a frame desired by the user. Not exclusively. For example, there are cases where the automatic addition of the candidate flag does not work well, or the automatic addition of the candidate flag works well, but the user wants frames before and after the event frame.


本発明はこのような事情に鑑みてなされたもので、その目的は、記録メディアを介した外部機器とのデータ通信を行った場合においても、ユーザが所望するイベントを捉えたフレームを簡便に且つ迅速に見つけだすことができる撮影装置、撮影方法、及びプログラムを提供することである。

The present invention has been made in view of such circumstances, and an object of the present invention is to easily and easily capture a frame that captures an event desired by a user even when data communication is performed with an external device via a recording medium. It is to provide a shooting device, a shooting method, and a program that can be quickly found.


上記目的を達成するための本発明の一の態様である撮影装置は、第1の動画撮影モード、又は、第1の動画撮影モードと撮影条件が異なる第2の動画撮影モードに基づいて動画を撮影する撮影部と、撮影部で取得した動画から複数の動画ファイルを生成する動画ファイル生成部と、動画ファイルを記憶する第1のフォルダと第2のフォルダを有する記憶部と、動画を構成する複数のフレームからイベントを含むイベントフレームを検出するイベント検出部と、第2の動画撮影モードが選択された場合に、複数の動画ファイルのうちイベントフレームが含まれる第1の動画ファイルを第1のフォルダに、イベントフレームが含まれない動画ファイルを第2のフォルダに保存する制御部と、を備える。

The shooting device according to one aspect of the present invention for achieving the above object captures a moving image based on a first moving image shooting mode or a second moving image shooting mode in which shooting conditions are different from those of the first movie shooting mode. A video is composed of a shooting unit for shooting, a video file generation unit for generating a plurality of video files from the video acquired by the shooting unit, and a storage unit having a first folder and a second folder for storing the video files. When the event detection unit that detects an event frame containing an event from a plurality of frames and the second video recording mode are selected, the first video file containing the event frame among the plurality of video files is used as the first video file. The folder includes a control unit that saves a moving image file that does not include an event frame in a second folder.


本態様によれば、動画ファイル生成部により複数の動画ファイルが生成され、イベントを含むイベントフレームが含まれる第1の動画ファイルが第1のフォルダに、イベントフレームが含まれない第2の動画ファイルが第2のフォルダに保存される。これにより、本態様は、記録メディアを介した外部機器とのデータ通信を行った場合においても、ユーザが所望するイベントを捉えたフレームを簡便に且つ迅速に見つけだすことができる。

According to this aspect, a plurality of video files are generated by the video file generation unit, and the first video file containing the event frame containing the event is in the first folder and the second video file not containing the event frame. Is saved in the second folder. Thereby, in this aspect, even when data communication with an external device is performed via a recording medium, it is possible to easily and quickly find a frame that captures an event desired by the user.


好ましくは、動画ファイル生成部は、動画を設定された時間ごとに分割して複数の動画ファイルを生成するものであって、制御部は、複数の動画ファイルのうち、第1の動画ファイルの時系列において前の第2の動画ファイル、又は、第1の動画ファイルの時系列において後の第3の動画ファイルを第1のフォルダに保存する。

Preferably, the moving image file generation unit generates a plurality of moving image files by dividing the moving image at a set time, and the control unit is the first moving image file among the plurality of moving image files. The second moving image file before the sequence or the third moving image file after the third moving image file in the time series of the first moving image file is saved in the first folder.


好ましくは、撮影装置は、第1の動画ファイルにおけるイベントフレームの位置を特定するフレーム位置特定部を備え、制御部は、特定されたフレームの位置に基づいて、第2の動画ファイル、又は、第3の動画ファイルを第1のフォルダに保存する。

Preferably, the photographing device includes a frame position specifying unit for specifying the position of the event frame in the first moving image file, and the control unit is a second moving image file or a second moving unit based on the position of the specified frame. Save the video file of 3 in the first folder.


好ましくは、動画ファイル生成部は、第1のフォルダに保存された第1の動画ファイルと、第2の動画ファイル、又は、第3の動画ファイルを連結して一つの連結動画ファイルを生成する。

Preferably, the moving image file generation unit concatenates the first moving image file stored in the first folder with the second moving image file or the third moving image file to generate one connected moving image file.


好ましくは、制御部は、第1の動画ファイルを第2のフォルダにも保存する。

Preferably, the control unit also stores the first moving image file in the second folder.


好ましくは、記憶部は、第1の記憶メディアと第2の記憶メディアとで構成されており、第1のフォルダは第1の記憶メディアに設けられ、第2のフォルダは第2の記憶メディアに設けられている。

Preferably, the storage unit is composed of a first storage medium and a second storage medium, the first folder is provided in the first storage medium, and the second folder is in the second storage medium. It is provided.


好ましくは、第1のフォルダ及び第2のフォルダは、仮想フォルダである。

Preferably, the first folder and the second folder are virtual folders.


好ましくは、第2の動画撮影モードは、第1の動画撮影モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、及びホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、且つ/又は第1の動画撮影モードに対してフレームレートが高く設定される。

Preferably, in the second moving image shooting mode, at least one of the shutter speed, the autofocus speed, the autoexposure following speed, and the white balance following speed is set to be higher than that of the first moving image shooting mode. And / or the frame rate is set higher than that of the first moving image shooting mode.


好ましくは、イベント検出部は、動画を構成するフレームにおいて、撮影シーンの変化を検出することによりイベントを検出する。

Preferably, the event detection unit detects an event by detecting a change in the shooting scene in the frame constituting the moving image.


好ましくは、撮影装置は、動画の撮影中にユーザからの指示を受け付ける指示受付部を備え、イベント検出部は、指示に基づいてイベントを検出する。

Preferably, the shooting device includes an instruction receiving unit that receives an instruction from the user during shooting of a moving image, and the event detecting unit detects an event based on the instruction.


好ましくは、記憶部は、第2のフォルダに保存される動画ファイルを上書きする。

Preferably, the storage unit overwrites the moving image file stored in the second folder.


好ましくは、記憶部は、第2のフォルダに保存される動画ファイルを所定の条件に基づいて自動的に削除する。

Preferably, the storage unit automatically deletes the moving image file stored in the second folder based on a predetermined condition.


本発明の他の態様である撮影方法は、第1の動画撮影モード、又は、第1の動画撮影モードと撮影条件が異なる第2の動画撮影モードに基づいて動画を撮影するステップと、撮影するステップで撮影した動画から複数の動画ファイルを生成するステップと、動画を構成する複数のフレームからイベントを含むイベントフレームを検出するステップと、第2の動画撮影モードが選択された場合に、複数の動画ファイルのうち、イベントフレームが含まれる第1の動画ファイルを記憶部の第1のフォルダに、イベントフレームが含まれない動画ファイルを記憶部の第2のフォルダに記憶するステップと、を含む。

The shooting method according to another aspect of the present invention includes a step of shooting a moving image based on a first moving image shooting mode or a second moving image shooting mode in which shooting conditions are different from those of the first moving image shooting mode. A step to generate multiple video files from the video shot in the step, a step to detect an event frame containing an event from multiple frames constituting the video, and a plurality of steps when the second video shooting mode is selected. Among the moving image files, the first moving image file including the event frame is stored in the first folder of the storage unit, and the moving image file not including the event frame is stored in the second folder of the storage unit.


好ましくは、動画ファイルを生成するステップは、動画を設定された時間ごとに分割して複数の動画ファイルを生成するものであって、記憶するステップは、複数の動画ファイルのうち、第1の動画ファイルの時系列において前の第2の動画ファイル、又は、第1の動画ファイルの時系列において後の第3の動画ファイルを第1のフォルダに保存する。

Preferably, the step of generating a moving image file is to divide the moving image into a set time to generate a plurality of moving image files, and the step of storing the moving image is the first moving image among the plurality of moving image files. The second moving image file before in the time series of files or the third moving image file after in the time series of the first moving image file is saved in the first folder.


好ましくは、第1の動画ファイルにおけるイベントフレームの位置を特定するステップを備え、記憶するステップは、特定されたフレームの位置に基づいて、第2の動画ファイル、又は、第3の動画ファイルを第1のフォルダに保存する。

Preferably, the step of identifying the position of the event frame in the first moving image file is provided, and the step of storing the second moving image file or the third moving image file is based on the position of the identified frame. Save to 1 folder.


好ましくは、動画ファイルを生成するステップは、第1のフォルダに保存された第1の動画ファイルと、第2の動画ファイル、又は、第3の動画ファイルを連結して一つの連結動画ファイルを生成する。

Preferably, the step of generating a video file is to concatenate the first video file stored in the first folder with the second video file or the third video file to generate one concatenated video file. do.


好ましくは、記憶するステップは、第1の動画ファイルを第2のフォルダにも保存する。

Preferably, the memorizing step also saves the first moving image file to a second folder.


好ましくは、記憶部は、第1の記憶メディアと第2の記憶メディアとで構成されており、第1のフォルダは第1の記憶メディアに設けられ、第2のフォルダは第2の記憶メディアに設けられている。

Preferably, the storage unit is composed of a first storage medium and a second storage medium, the first folder is provided in the first storage medium, and the second folder is in the second storage medium. It is provided.


好ましくは、第1のフォルダ及び第2のフォルダは、仮想フォルダである。

Preferably, the first folder and the second folder are virtual folders.


好ましくは、第2の動画撮影モードは、第1の動画撮影モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、及びホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、且つ/又は第1の動画撮影モードに対してフレームレートが高く設定される。

Preferably, in the second moving image shooting mode, at least one of the shutter speed, the autofocus speed, the autoexposure following speed, and the white balance following speed is set to be higher than that of the first moving image shooting mode. And / or the frame rate is set higher than that of the first moving image shooting mode.


好ましくは、検出するステップは、動画を構成するフレームにおいて、撮影シーンの変化を検出することによりイベントを検出する。

Preferably, the detection step detects an event by detecting a change in the shooting scene in the frame constituting the moving image.


好ましくは、動画の撮影中にユーザからの指示を受け付けるステップを含み、検出するステップは、指示に基づいてイベントを検出する。

Preferably, the step of receiving an instruction from the user during the shooting of the moving image includes the step of detecting the event based on the instruction.


本発明の他の態様であるプログラムは、第1の動画撮影モード、又は、第1の動画撮影モードと撮影条件が異なる第2の動画撮影モードに基づいて動画を撮影する撮影ステップと、撮影ステップで撮影した動画から複数の動画ファイルを生成する動画ファイル生成ステップと、動画を構成する複数のフレームからイベントを含むイベントフレームを検出する検出ステップと、第2の動画撮影モードが選択された場合に、複数の動画ファイルのうち、イベントフレームが含まれる第1の動画ファイルを記憶部の第1のフォルダに、イベントフレームが含まれない動画ファイルを記憶部の第2のフォルダに記憶する記憶ステップと、を含む撮影工程をコンピュータに実行させる。

The program according to another aspect of the present invention includes a shooting step of shooting a moving image based on a first moving image shooting mode or a second moving image shooting mode having different shooting conditions from the first moving image shooting mode, and a shooting step. A video file generation step that generates multiple video files from the video shot in step 1 and a detection step that detects event frames containing events from multiple frames that make up the video, and when the second video shooting mode is selected. A storage step of storing the first video file containing the event frame in the first folder of the storage unit and the video file not including the event frame in the second folder of the storage unit among the plurality of video files. Have the computer perform the shooting process including.


本発明によれば、動画ファイル生成部により複数の動画ファイルが生成され、イベントを含むイベントフレームが含まれる第1の動画ファイルが第1のフォルダに、イベントフレームが含まれない第2の動画ファイルが第2のフォルダに保存されるので、記録メディアを介した外部機器とのデータ通信を行った場合においても、ユーザが所望するイベントを捉えたフレームを簡便に且つ迅速に見つけだすことができる。

According to the present invention, a plurality of moving image files are generated by the moving image file generation unit, and the first moving image file containing an event frame containing an event is in the first folder and the second moving image file not containing an event frame. Is stored in the second folder, so that even when data communication with an external device is performed via a recording medium, a frame that captures an event desired by the user can be easily and quickly found.


図1は、撮影装置の構成を示す図である。FIG. 1 is a diagram showing a configuration of a photographing device. 図2は、CPUで実現される機能の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of a function realized by a CPU. 図3は、記憶部の記憶構成例を示す図である。FIG. 3 is a diagram showing an example of a storage configuration of a storage unit. 図4は、動画ファイルの生成とイベント検出との関係を示す模式図である。FIG. 4 is a schematic diagram showing the relationship between the generation of a moving image file and the event detection. 図5は、撮影方法を示すフローチャートである。FIG. 5 is a flowchart showing a shooting method. 図6は、動画ファイルの生成とイベント検出との関係を示す模式図である。FIG. 6 is a schematic diagram showing the relationship between the generation of a moving image file and the event detection. 図7は、撮影方法を示すフローチャートである。FIG. 7 is a flowchart showing a shooting method. 図8は、CPUで実現される機能の構成例を示すブロック図である。FIG. 8 is a block diagram showing a configuration example of a function realized by the CPU. 図9は、撮影方法を示すフローチャートである。FIG. 9 is a flowchart showing a shooting method. 図10は、撮影方法を示すフローチャートである。FIG. 10 is a flowchart showing a shooting method. 図11は、スマートフォンの外観を示す図である。FIG. 11 is a diagram showing the appearance of a smartphone. 図12は、スマートフォンの構成を示すブロック図である。FIG. 12 is a block diagram showing the configuration of a smartphone.


以下、添付図面にしたがって本発明にかかる撮影装置、撮影方法、及びプログラムの好ましい実施の形態について説明する。

Hereinafter, preferred embodiments of the photographing apparatus, photographing method, and program according to the present invention will be described with reference to the accompanying drawings.


図1は、本発明の撮影装置10の構成を示す図である。撮影装置10は交換レンズ100及び撮影装置本体200により構成され、後述するズームレンズ110を含む撮影レンズにより被写体像(光学像)を撮像素子210に結像させる。交換レンズ100と撮影装置本体200とは、図示せぬマウントを介して装着及び取り外しすることができる。

FIG. 1 is a diagram showing the configuration of the photographing apparatus 10 of the present invention. The photographing device 10 is composed of an interchangeable lens 100 and a photographing device main body 200, and a subject image (optical image) is formed on the image pickup element 210 by a photographing lens including a zoom lens 110 described later. The interchangeable lens 100 and the photographing apparatus main body 200 can be attached to and detached from each other via a mount (not shown).


交換レンズ100は、ズームレンズ110と、フォーカスレンズ120と、絞り130と、レンズ駆動部140とを備える。レンズ駆動部140は、CPU(Central Processing Unit)240からの指令に応じてズームレンズ110、フォーカスレンズ120を進退駆動してズーム(光学ズーム)調整、フォーカス調整を行う。ズーム調整及びフォーカス調整は、CPU240からの指令に応じて行う他に、ユーザが行ったズーム操作、フォーカス操作(図示せぬズームリング、フォーカスリングの回動等)に応じて行ってもよい。又、レンズ駆動部140はCPU240からの指令に応じて絞り130を制御し、露出を調整する。一方、ズームレンズ110及びフォーカスレンズ120の位置、絞り130の開放度等の情報がCPU240に入力される。尚、交換レンズ100は光軸Lを有する。

The interchangeable lens 100 includes a zoom lens 110, a focus lens 120, a diaphragm 130, and a lens driving unit 140. The lens drive unit 140 drives the zoom lens 110 and the focus lens 120 forward and backward in response to a command from the CPU (Central Processing Unit) 240 to perform zoom (optical zoom) adjustment and focus adjustment. The zoom adjustment and the focus adjustment may be performed according to a zoom operation or a focus operation (zoom ring (not shown, rotation of the focus ring, etc.)) performed by the user, in addition to the zoom adjustment and the focus adjustment performed in response to a command from the CPU 240. Further, the lens driving unit 140 controls the aperture 130 in response to a command from the CPU 240 to adjust the exposure. On the other hand, information such as the positions of the zoom lens 110 and the focus lens 120 and the degree of opening of the aperture 130 is input to the CPU 240. The interchangeable lens 100 has an optical axis L.


撮影装置本体200は、撮像素子210、AFE220(AFE:Analog Front End)、A/D変換器230(A/D:Analog to Digital)、及びCPU240を備える。撮影装置本体200は、撮像素子210に透過させる光を遮光するためのシャッター(不図示)を有していてもよい。撮像素子210は、多数の受光素子がマトリクス状に配列された受光面を備え、ズームレンズ110、フォーカスレンズ120、及び絞り130を透過した被写体光が撮像素子210の受光面上に結像され、各受光素子によって電気信号に変換される。撮像素子210の受光面上にはR(赤),G(緑),又はB(青)のカラーフィルタが設けられており、各色の信号に基づいて被写体のカラー画像を取得することができる。尚、撮像素子210としては、CMOS(Complementary Metal-Oxide Semiconductor)、CCD(Charge-Coupled Device)等の様々な光電変換素子を用いることができる。AFE220は撮像素子210から出力されるアナログ画像信号のノイズ除去、増幅等を行い、A/D変換器230は、取り込んだアナログ画像信号を階調幅があるデジタル画像信号に変換する。

The image pickup device main body 200 includes an image sensor 210, an AFE 220 (AFE: Analog Front End), an A / D converter 230 (A / D: Analog to Digital), and a CPU 240. The image pickup device main body 200 may have a shutter (not shown) for blocking light transmitted through the image pickup device 210. The image pickup element 210 includes a light receiving surface in which a large number of light receiving elements are arranged in a matrix, and subject light transmitted through the zoom lens 110, the focus lens 120, and the aperture 130 is imaged on the light receiving surface of the image pickup element 210. It is converted into an electric signal by each light receiving element. An R (red), G (green), or B (blue) color filter is provided on the light receiving surface of the image sensor 210, and a color image of the subject can be acquired based on the signals of each color. As the image pickup device 210, various photoelectric conversion elements such as CMOS (Complementary Metal-Oxide Semiconductor) and CCD (Charge-Coupled Device) can be used. The AFE 220 performs noise removal, amplification, and the like of the analog image signal output from the image sensor 210, and the A / D converter 230 converts the captured analog image signal into a digital image signal having a gradation width.


撮影装置10は撮影モードとして静止画撮影モード、通常動画撮影モード(第1の動画撮影モード)、静止画抽出用動画撮影モード(第2の動画撮影モード)のいずれかを設定することができる。静止画撮影モード、通常動画撮影モードは通常のデジタルカメラと同様のモードであり、静止画抽出用動画撮影モードでは通常動画撮影モードと撮影条件が異なる動画(動画自体の鑑賞よりも静止画の抽出を重視した撮影条件の動画)を撮影する。具体的には、静止画抽出用動画撮影モードでは、通常動画撮影モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、ホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、且つ/又は通常動画撮影モードに対してフレームレートが高く設定される。又、解像度及びフレームレートは撮影装置10で設定可能な最高値(例えば4,000×2,000画素、30フレーム/秒)に設定され、色調も静止画抽出を前提として設定される。ISO感度の上限も通常動画撮影モードより高くする。

The shooting device 10 can set any of a still image shooting mode, a normal moving image shooting mode (first moving image shooting mode), and a still image extraction moving image shooting mode (second moving image shooting mode) as the shooting mode. The still image shooting mode and normal movie shooting mode are the same modes as a normal digital camera, and the still image extraction movie shooting mode has different shooting conditions from the normal movie shooting mode (still image extraction rather than watching the movie itself). Shoot a movie with shooting conditions that emphasizes. Specifically, in the still image extraction video shooting mode, at least one of the shutter speed, the autofocus speed, the autoexposure tracking speed, and the white balance tracking speed is set higher than that of the normal video shooting mode. And / or the frame rate is set higher than that of the normal moving image shooting mode. Further, the resolution and the frame rate are set to the maximum values that can be set by the photographing apparatus 10 (for example, 4,000 × 2,000 pixels, 30 frames / sec), and the color tone is also set on the premise of still image extraction. The upper limit of ISO sensitivity is also set higher than that of the normal movie shooting mode.


例えばシャッタースピードに関しては、通常動画撮影モードでは記録する動画のフレームレートに対応した値(フレームレートが30フレーム/秒の場合、1/30秒)に設定されるが、静止画抽出用動画モードではフレーム間隔よりも高速(例えば、1/30秒未満)に設定される。通常動画撮影モードでは、滑らかな動画が再生されるようにシャッタースピードが動画のフレームレートに対応した値に設定されるが、この場合動く被写体に対してはブレが生じる可能性がある。このため、静止画抽出用動画撮影モードではシャッタースピードを通常動画撮影モードよりも高速(フレーム間隔よりも高速)に設定しており、これにより被写体のブレが少ない高画質な静止画を抽出することが可能になる。同様に、ISO感度の上限を高くすることでシャッタースピードを高速化でき、これによりブレが少ない静止画を抽出することができる。又、オートフォーカスの速度,自動露出の追従速度やオートホワイトバランスの追従速度等が通常動画撮影モードよりも高速に設定されることで、被写体に合焦したフレーム、露出が適正なフレーム等を多く取得することができる。フレームレートについても、高レートに設定することで動画のフレーム間隔が短くなり、静止画として抽出できるフレームが増加する。

For example, the shutter speed is usually set to a value corresponding to the frame rate of the recorded video (1/30 seconds when the frame rate is 30 frames / sec) in the video shooting mode, but in the still image extraction video mode. It is set to be faster than the frame interval (for example, less than 1/30 second). In the normal movie shooting mode, the shutter speed is set to a value corresponding to the frame rate of the movie so that a smooth movie is played, but in this case, blurring may occur for a moving subject. For this reason, in the still image extraction movie shooting mode, the shutter speed is set to be faster than the normal movie shooting mode (faster than the frame interval), which allows you to extract high-quality still images with less blurring of the subject. Will be possible. Similarly, by increasing the upper limit of the ISO sensitivity, the shutter speed can be increased, and as a result, a still image with less blurring can be extracted. In addition, the autofocus speed, auto-exposure tracking speed, auto-white balance tracking speed, etc. are set faster than in the normal movie shooting mode, so there are many frames that are in focus on the subject and frames that are properly exposed. Can be obtained. By setting the frame rate to a high rate, the frame interval of the moving image becomes shorter, and the number of frames that can be extracted as a still image increases.


上述した静止画抽出用動画撮影モードによれば、動画を記憶しておき動画を構成するフレームを静止画として抽出することができるので、ユーザはいつ発生するか分からないイベント(自然現象やアクシデント、ハプニング等)の写真、時間の経過と共に状態が変化する被写体や動きのある被写体の瞬間的な状態の写真等を容易に撮影することができる。この際、詳細を後述するように、静止画の記録を指示したタイミングだけでなくその他のタイミングについても静止画を抽出できるので、ユーザは所望のタイミングの静止画を取得することができる。又、静止画抽出に適した撮影条件(上述したシャッタースピード、解像度、フレームレート等)を設定することにより高画質の静止画を抽出することができる。

According to the above-mentioned still image extraction video shooting mode, the video can be stored and the frames constituting the video can be extracted as a still image, so that the user does not know when an event (natural phenomenon, accident, accident, etc.) will occur. It is possible to easily take a picture of a happening, etc., a picture of a subject whose state changes with the passage of time, or a picture of a moving subject in a momentary state. At this time, as will be described in detail later, the still image can be extracted not only at the timing in which the recording of the still image is instructed but also at other timings, so that the user can acquire the still image at a desired timing. Further, by setting shooting conditions suitable for still image extraction (shutter speed, resolution, frame rate, etc. described above), high-quality still images can be extracted.


記憶部260は、通常フォルダ(第2のフォルダ)21とイベントフォルダ(第1のフォルダ)23とを備える(図3)。記憶部260は、通常フォルダ21に保存される動画ファイルに上書きを行うことができる。また、記憶部260は、通常フォルダ21に保存される動画ファイルを自動的(規定容量や時間が経過した場合)に削除することもできる。例えば、撮影終了後に、ユーザにファイルを削除するかを確認し、ユーザの削除の指示に応じて記憶部260は、通常フォルダ21に保存されている動画ファイルを削除してもよい。通常フォルダ21及びイベントフォルダ23に関しては後で詳細な説明をする。記憶部260は各種の光磁気記録媒体、半導体メモリ等の非一時的記録媒体及びその制御回路により構成され、動画、静止画、動画から抽出した静止画等を記憶する。記録媒体は撮影装置本体200に対し着脱できるタイプを用いることができる。又、プログラム及びCPU240の各種制御にかかる情報等が記憶される。

The storage unit 260 includes a normal folder (second folder) 21 and an event folder (first folder) 23 (FIG. 3). The storage unit 260 can overwrite the moving image file normally stored in the folder 21. Further, the storage unit 260 can also automatically delete the moving image file stored in the normal folder 21 (when a specified capacity or time has elapsed). For example, after the shooting is completed, the user may be asked if the file should be deleted, and the storage unit 260 may delete the moving image file normally stored in the folder 21 in response to the user's deletion instruction. The normal folder 21 and the event folder 23 will be described in detail later. The storage unit 260 is composed of various optical magnetic recording media, a non-temporary recording medium such as a semiconductor memory, and a control circuit thereof, and stores moving images, still images, still images extracted from moving images, and the like. As the recording medium, a type that can be attached to and detached from the photographing apparatus main body 200 can be used. In addition, information related to the program and various controls of the CPU 240 is stored.


モニタ270はタッチパネル型の液晶表示パネルにより構成され、動画、静止画、静止画抽出用フレーム等を表示することができる。モニタ270は撮影装置本体200の背面側、天面側等に配置することができる。撮影装置10はファインダを備えていてもよい。ファインダは例えば液晶表示パネル、プリズム、レンズ等により構成され、ユーザは図示せぬ接眼部を介して動画、静止画、静止画抽出用フレーム等を視認することができる。ファインダとしては「光学式ビューファインダ(OVF:Optical View Finder)」、「電子式ビューファインダ(EVF:Electronic View Finder)」、あるいはこれらの組合せである「ハイブリッド式ビューファインダ(HVF:Hybrid View Finder)」を用いることができる。

The monitor 270 is composed of a touch panel type liquid crystal display panel, and can display moving images, still images, still image extraction frames, and the like. The monitor 270 can be arranged on the back side, the top surface side, or the like of the photographing apparatus main body 200. The photographing device 10 may include a finder. The finder is composed of, for example, a liquid crystal display panel, a prism, a lens, or the like, and the user can visually recognize a moving image, a still image, a frame for extracting a still image, or the like through an eyepiece (not shown). The finder includes "Optical View Finder (OVF)", "Electronic View Finder (EVF)", or a combination of these, "Hybrid View Finder (HVF)". Can be used.


図2は、撮影装置10に搭載されるCPU240で実現される機能の構成例を示すブロック図である。CPU240は各種制御を実行するハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の機能部として作用する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。

FIG. 2 is a block diagram showing a configuration example of a function realized by the CPU 240 mounted on the photographing apparatus 10. The hardware-like structure of the CPU 240 that executes various controls is various processors as shown below. For various processors, the circuit configuration can be changed after manufacturing CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), etc., which are general-purpose processors that execute software (programs) and act as various functional units. Programmable Logic Device (PLD), which is a processor, and a dedicated electric circuit, which is a processor having a circuit configuration specially designed to execute a specific process such as ASIC (Application Specific Integrated Circuit). Is done.


1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。又、複数の機能部を1つのプロセッサで構成してもよい。複数の機能部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の機能部として作用させる形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の機能部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の機能部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。

One processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). You may. Further, a plurality of functional units may be configured by one processor. As an example of configuring a plurality of functional units with one processor, first, one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client or a server. There is a form in which the processor acts as a plurality of functional parts. Secondly, as typified by System On Chip (SoC), there is a form of using a processor that realizes the functions of the entire system including a plurality of functional parts with one IC (Integrated Circuit) chip. be. As described above, the various functional units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.


CPU240は、撮影部11、動画ファイル生成部13、イベント検出部15、及び制御部19を備える。

The CPU 240 includes a shooting unit 11, a moving image file generation unit 13, an event detection unit 15, and a control unit 19.


撮影部11は、通常動画撮影モード(第1の動画撮影モード)、又は、静止画抽出用動画撮影モード(第2の動画撮影モード)に基づいて動画を撮影し取得する。尚、撮影部11は、他に交換レンズ100、撮像素子210、AFE220、及びA/D変換器230等の撮影を行うために必要な機器により構成される。

The shooting unit 11 shoots and acquires a moving image based on the normal moving image shooting mode (first moving image shooting mode) or the still image extraction moving image shooting mode (second moving image shooting mode). The photographing unit 11 is further composed of an interchangeable lens 100, an image sensor 210, an AFE 220, an A / D converter 230, and other devices necessary for photographing.


動画ファイル生成部13は、撮影部11で取得した動画から複数の動画ファイルを生成する。具体的には動画ファイル生成部13は、撮影部11で撮影された動画を設定された所定の時間ごとの複数の動画ファイルを生成する。例えば動画ファイル生成部は、1分間ごと又は2分間ごとに分割された複数の動画ファイルを生成する。

The moving image file generation unit 13 generates a plurality of moving image files from the moving image acquired by the shooting unit 11. Specifically, the moving image file generation unit 13 generates a plurality of moving image files at predetermined time intervals for the moving images taken by the shooting unit 11. For example, the moving image file generation unit generates a plurality of moving image files divided every 1 minute or every 2 minutes.


イベント検出部15は、動画を構成する複数のフレームからイベントを含むイベントフレームを検出する。具体的にはイベント検出部15は、フレームを画像処理することによりフレームにイベントが捉えられた否かを判定し、フレームがイベントを捉えたと判定した場合にはイベントフラグをそのフレームに立てる(付加する)。イベント検出部15は、様々な方法により、フレームが捉えたイベントの検出を行うことができる。例えば、イベント検出部15は、フレームにおいて、撮影シーンの変化を検出することにより、イベントを検出する。具体的には、イベント検出部15は、画像全体、あるいはROI(Region Of Interest)におけるフレーム間の差分値が一定以上のフレームをイベント有りとして、イベントフラグを立てイベントフレームとする。又、イベント検出部15は、動体検出を行って動体がフレームに侵入してきたことを判定することにより、フレームがイベントを捉えたか否かを判定してもよい。イベント検出部15が検出するイベントは、ユーザが予め指定することが出来る。例えば、ユーザが画像のROIと、ROIにおいてイベントとして検出するフレーム間差分値の閾値を予め指定し、イベント検出部15は、ユーザが指定したROIにおけるフレーム間差分値が閾値以上の場合にイベントを捉えたと判定するようにしてもよい。また、ユーザが予め特定の動体(動物や人物等)を指定し、イベント検出部15は、ユーザが指定した動体がフレームに侵入してきたことを検出し、イベントを捉えたと判定するようにしてもよい。また、ユーザは、複数のイベントを予め指定してもよく、この場合、ユーザに指定された複数のイベント毎にイベントフォルダ23を作成し、イベント動画ファイルを保存するようにしてもよい。

The event detection unit 15 detects an event frame including an event from a plurality of frames constituting the moving image. Specifically, the event detection unit 15 determines whether or not an event has been captured in the frame by performing image processing on the frame, and if it is determined that the frame has captured the event, sets an event flag in the frame (addition). do). The event detection unit 15 can detect the event captured by the frame by various methods. For example, the event detection unit 15 detects an event by detecting a change in the shooting scene in the frame. Specifically, the event detection unit 15 sets an event flag and sets an event frame as a frame in which the difference value between frames in the entire image or ROI (Region Of Interest) is equal to or higher than a certain value. Further, the event detection unit 15 may determine whether or not the frame has captured the event by detecting the moving object and determining that the moving object has invaded the frame. The event detected by the event detection unit 15 can be specified in advance by the user. For example, the user specifies in advance the threshold value of the ROI of the image and the inter-frame difference value detected as an event in the ROI, and the event detection unit 15 sets an event when the inter-frame difference value in the ROI specified by the user is equal to or greater than the threshold value. It may be determined that it has been captured. Further, even if the user specifies a specific moving object (animal, person, etc.) in advance, the event detection unit 15 detects that the moving object specified by the user has invaded the frame, and determines that the event has been captured. good. Further, the user may specify a plurality of events in advance, and in this case, an event folder 23 may be created for each of the plurality of events designated by the user, and the event moving image file may be saved.


又、イベント検出部15は、動画の撮影中にユーザからの指示を操作部(指示受付部)250を介して受け付けて、それに基づいてイベントの検出を行ってもよい。具体的には、ユーザがイベントを確認した際に操作部250を介して指示を入力し、その指示が有った時点又は指示があった近傍のフレームにイベントフラグを立ててイベントフレームとしてもよい。また、イベント検出部15は、撮影中の撮影装置10の姿勢の変化(例えば、撮影装置10の縦横の変化)に基づいてイベントを検出してもよい。この場合、イベント検出部15は、撮影装置10に備えられるジャイロセンサ等のセンサからの信号に基づいて、撮影装置10の姿勢の変化を検出する。

Further, the event detection unit 15 may receive an instruction from the user during the shooting of the moving image via the operation unit (instruction reception unit) 250, and detect the event based on the instruction. Specifically, when the user confirms an event, an instruction may be input via the operation unit 250, and an event flag may be set at the time when the instruction is given or in the vicinity of the instruction to be used as an event frame. .. Further, the event detection unit 15 may detect an event based on a change in the posture of the photographing device 10 during photography (for example, a change in the vertical and horizontal directions of the photographing device 10). In this case, the event detection unit 15 detects a change in the posture of the photographing device 10 based on a signal from a sensor such as a gyro sensor provided in the photographing device 10.


制御部19は、動画ファイルの記憶部260への保存の制御を行う。具体的には、制御部19は、静止画抽出用動画撮影モードが選択された場合に、複数の動画ファイルのうちイベントフレームが含まれるイベント動画ファイルをイベントフォルダ23に、イベントフレームが含まれない動画ファイルを通常フォルダ21に保存する。又、別の態様としては、静止画抽出用動画撮影モードが選択されている場合に、制御部19は、イベント動画ファイルをイベントフォルダ23及び通常フォルダ21にも保存してもよい。

The control unit 19 controls the storage of the moving image file in the storage unit 260. Specifically, when the still image extraction video recording mode is selected, the control unit 19 puts an event video file containing an event frame among a plurality of video files in the event folder 23, and the event frame is not included. Save the video file in the normal folder 21. As another aspect, when the still image extraction moving image shooting mode is selected, the control unit 19 may also save the event moving image file in the event folder 23 and the normal folder 21.


図3は、記憶部260の記憶構成例を示す図である。記憶部260は、撮影部11で撮影された複数の動画ファイルを記憶する通常フォルダ(第2のフォルダ)21と、イベント動画ファイルを記憶するイベントフォルダ(第1のフォルダ)23とを有する。イベントフォルダ23にイベント動画ファイルが移動され保存されるので、ユーザは所望のイベントフレームを探すときには、イベントフォルダ23内を探せば良く、簡便且つ迅速に所望のイベントフレームを見つけ出すことができる。なお、静止画抽出用動画撮影モードの場合には、ユーザの所望のイベントフレームは静止画として抽出される。又、イベントフォルダ23は特別の仕様は必要なく公知の技術で生成されるフォルダであるので、記録メディアを介した外部機器とのデータ通信等をした場合であっても、特別の仕様を有していない外部機器においてもイベントフォルダ23を確認することができる。また、通常フォルダ21とイベントフォルダ23は、仮想フォルダとして設けられてもよい。

FIG. 3 is a diagram showing an example of a storage configuration of the storage unit 260. The storage unit 260 has a normal folder (second folder) 21 for storing a plurality of moving image files shot by the shooting unit 11, and an event folder (first folder) 23 for storing event moving image files. Since the event moving image file is moved and saved in the event folder 23, the user may search in the event folder 23 when searching for a desired event frame, and can easily and quickly find the desired event frame. In the case of the moving image shooting mode for still image extraction, the event frame desired by the user is extracted as a still image. Further, since the event folder 23 does not require any special specifications and is a folder generated by a known technique, it has special specifications even when data communication with an external device is performed via a recording medium. The event folder 23 can be confirmed even in an external device that does not have the event folder 23. Further, the normal folder 21 and the event folder 23 may be provided as virtual folders.


通常フォルダ21には、イベントフレームを有さない動画ファイルが保存される。又、通常フォルダ21には、撮影部11で取得された動画ファイルが一旦保存され、その後に、イベント検出部15でイベントが検出されたイベント動画ファイルを、制御部19によりイベントフォルダ23に移動させて保存してもよい。又、通常フォルダ21には、撮影部11で取得された動画ファイルが一旦保存され、その後に、イベント検出部15でイベントが検出されたイベント動画ファイルを、制御部19により、通常フォルダ21に保存したままイベントフォルダ23に複製して保存してもよい。

A moving image file having no event frame is saved in the normal folder 21. Further, the moving image file acquired by the shooting unit 11 is temporarily stored in the normal folder 21, and then the event moving image file in which the event is detected by the event detecting unit 15 is moved to the event folder 23 by the control unit 19. You may save it. Further, the moving image file acquired by the shooting unit 11 is temporarily saved in the normal folder 21, and then the event moving image file in which the event is detected by the event detecting unit 15 is saved in the normal folder 21 by the control unit 19. You may copy and save it in the event folder 23 as it is.


記憶部260は、単数又は複数の記憶メディアにより構成されていてもよい。記憶部260が複数の記憶メディアにより構成される場合には、例えば記憶部260が第1の記憶メディアと第2の記憶メディアとで構成される。そして、イベントフォルダ23が第1の記憶メディアに設けられ、通常フォルダ21が第2の記憶メディアに設けられている。

The storage unit 260 may be composed of a single storage medium or a plurality of storage media. When the storage unit 260 is composed of a plurality of storage media, for example, the storage unit 260 is composed of a first storage medium and a second storage medium. The event folder 23 is provided on the first storage medium, and the normal folder 21 is provided on the second storage medium.


<第1の実施形態>

図4は、動画ファイルの生成とイベント検出との関係を示す模式図である。図4(A)では撮影部11で動画が撮影され、動画ファイル生成部13により複数の動画ファイルが生成されるタイミングが示されており、図4(B)では記憶部260への記録開始処理のタイミングが示されており、図4(C)では各動画ファイルのクローズ処理のタイミングが示されており、図4(D)ではイベント検出部15で行われるイベント検出のタイミングが示されている。

<First Embodiment>

FIG. 4 is a schematic diagram showing the relationship between the generation of a moving image file and the event detection. FIG. 4A shows the timing at which a moving image is shot by the shooting unit 11 and a plurality of moving image files are generated by the moving image file generation unit 13, and FIG. 4B shows a recording start process in the storage unit 260. 4 (C) shows the timing of closing processing of each moving image file, and FIG. 4 (D) shows the timing of event detection performed by the event detection unit 15. ..


図4では、所定の時間で区切られた動画ファイルV1からV8が連続的に撮影されている。静止画抽出用動画撮影モードにより、動画の撮影が開始され、それと同時に通常フォルダ21への動画ファイルの記録開始処理が行われる。その後、所定の時間が経過した後に動画ファイルV1のクローズ処理が行われる。そして、この動画ファイルV1に対してイベント検出部15によりイベント検出が行われる。イベント検出部15は、動画ファイルにおいてイベント25を含むイベントフレーム27を検出した場合には、イベント検出部15は動画ファイルにイベントフラグを立てる。図中では、イベントフラグが立っている動画ファイル(イベント動画ファイル)を「TRUE」とし、イベントフラグが立っていない動画ファイルを「FALSE」と記載している。

In FIG. 4, moving image files V1 to V8 separated by a predetermined time are continuously photographed. In the still image extraction moving image shooting mode, the moving image shooting is started, and at the same time, the recording start processing of the moving image file in the normal folder 21 is performed. Then, after a predetermined time has elapsed, the moving image file V1 is closed. Then, the event detection unit 15 detects the event for the moving image file V1. When the event detection unit 15 detects an event frame 27 including the event 25 in the moving image file, the event detecting unit 15 sets an event flag in the moving image file. In the figure, the moving image file (event moving image file) in which the event flag is set is described as "TRUE", and the moving image file in which the event flag is not set is described as "FALSE".


動画ファイルV4においては、イベント検出部15がイベント25を含むイベントフレーム27を検出している。具体的には、動画ファイルV4の撮影期間において、イベント25が発生しておりそのイベント25を捉えたフレームであるイベントフレーム27がイベント検出部15により検出されている。この場合には、イベント検出部15はイベントフラグを立てて「TRUE」とする。

In the moving image file V4, the event detection unit 15 detects the event frame 27 including the event 25. Specifically, during the shooting period of the moving image file V4, the event 25 is generated, and the event frame 27, which is a frame that captures the event 25, is detected by the event detection unit 15. In this case, the event detection unit 15 sets an event flag and sets it as "TRUE".


図5は、撮影装置10を使用して行われる撮影方法(撮影工程)を示すフローチャートである。

FIG. 5 is a flowchart showing a shooting method (shooting process) performed by using the shooting device 10.


動画ファイルの撮影の初期化として、動画撮影が開始されイベント検出が開始される(ステップS10)。その後、ユーザから、動画記録の開始指示が操作部250を介して入力される(ステップS11)。そして、撮影部11で撮影された動画ファイルが通常フォルダ21への記録が開始される(ステップS12)。次に、動画ファイル生成部13は、動画記録の終了指示があるか否かを判定し(ステップS13)、動画記録の終了指示がある場合には動画ファイルをクローズする(ステップS15)。又、動画ファイル生成部13は、動画記録が予めユーザにより設定された所定時間を経過したか否かを判定し(ステップS14)、動画記録が所定時間を経過した場合には動画ファイルをクローズする(ステップS15)。

As the initialization of the shooting of the moving image file, the moving image shooting is started and the event detection is started (step S10). After that, the user inputs an instruction to start video recording via the operation unit 250 (step S11). Then, the moving image file shot by the shooting unit 11 is started to be recorded in the normal folder 21 (step S12). Next, the moving image file generation unit 13 determines whether or not there is an instruction to end the moving image recording (step S13), and closes the moving image file if there is an instruction to end the moving image recording (step S15). Further, the moving image file generation unit 13 determines whether or not the moving image recording has elapsed a predetermined time set in advance by the user (step S14), and closes the moving image file when the moving image recording has elapsed the predetermined time. (Step S15).


その後、イベント検出部15により動画ファイル中のイベント25の検出が行われ(ステップS16)、動画ファイルにイベント25が検出された場合には、制御部19はこの動画ファイルをイベントフォルダ23に移動させて保存する(ステップS17)。尚、イベント検出部15により、動画ファイル中にイベント25が検出されなかった場合には、動画ファイルは通常フォルダ21に保存されたままとする。その後、操作部250を介してユーザより動画撮影を終了する指示が有るか否かの判定が行われ(ステップS18)、終了の指示が有った場合には撮影部11は動画撮影が終了する。一方、動画記録の終了の指示が無い場合には、次の動画ファイルの記録が通常フォルダ21に行われる。

After that, the event detection unit 15 detects the event 25 in the moving image file (step S16), and when the event 25 is detected in the moving image file, the control unit 19 moves the moving image file to the event folder 23. And save (step S17). If the event detection unit 15 does not detect the event 25 in the moving image file, the moving image file is kept stored in the normal folder 21. After that, it is determined whether or not there is an instruction to end the moving image shooting from the user via the operation unit 250 (step S18), and if there is an instruction to end, the shooting unit 11 ends the moving image shooting. .. On the other hand, if there is no instruction to end the moving image recording, the next moving image file is recorded in the normal folder 21.


上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。

Each of the above configurations and functions can be appropriately realized by any hardware, software, or a combination of both. For example, for a program that causes a computer to perform the above-mentioned processing steps (processing procedure), a computer-readable recording medium (non-temporary recording medium) that records such a program, or a computer on which such a program can be installed. However, it is possible to apply the present invention.


以上で説明したように、本態様では、所定の期間の複数の動画ファイルのうちイベントフレーム27を有するイベント動画ファイルが、イベントフォルダ23に保存されるので、ユーザは簡便に且つ迅速に所望のイベントフレーム27を見つけ出すことができる。又、記録メディアを介した外部機器とのデータ通信を行う場合であっても、データ通信先の外部機器においても、特別の仕様を必要とせずに、ユーザは簡便に且つ迅速に所望のイベントフレーム27を見つけ出すことができる。

As described above, in the present embodiment, the event video file having the event frame 27 among the plurality of video files in a predetermined period is stored in the event folder 23, so that the user can easily and quickly obtain a desired event. You can find the frame 27. Further, even when data communication is performed with an external device via a recording medium, the user can easily and quickly obtain a desired event frame without requiring special specifications for the external device of the data communication destination. You can find 27.


<第2の実施形態>

次に、本発明の第2の実施形態に関して説明する。本実施形態では、イベント動画ファイルの直前に記録された動画ファイル、又はイベント動画ファイルの直後に記録された動画ファイルについては、イベントフレーム27を含んでいなくても、イベント動画ファイルと同様にイベントフォルダ23に移動し保存する。

<Second embodiment>

Next, a second embodiment of the present invention will be described. In the present embodiment, the video file recorded immediately before the event video file or the video file recorded immediately after the event video file does not include the event frame 27, but the event is the same as the event video file. Move to the folder 23 and save.


図6は、動画ファイルの生成とイベント検出との関係を示す模式図である。尚、図4で既に説明を行った箇所は同じ符号を付し説明を省略する。

FIG. 6 is a schematic diagram showing the relationship between the generation of a moving image file and the event detection. The parts already described in FIG. 4 are designated by the same reference numerals and the description thereof will be omitted.


図6に示された例では、動画ファイルV4においてイベントフレーム27が検出されている。そして、イベント検出部15は、動画ファイルV4に対してイベントフラグを立てる(図中では「TRUE」と表記)。その後、イベント検出部15は、動画ファイルV4の時系列的に前に撮影された、イベントフレーム27が検出されていない動画ファイルV3に関してもイベントフラグの修正を行いイベントフラグを立てる(図中では「TRUE」と表記)。又、イベント検出部15は、動画ファイルV4の時系列的に後に撮影された、イベントフレーム27が検出されていない動画ファイルV5に関してもイベントフラグの修正を行いイベントフラグを立てる(図中では「TRUE」と表記)。これにより、イベントフラグが修正された後には、動画ファイルV3、動画ファイルV4、及び動画ファイルV5がイベント動画ファイルとなる。そして制御部19は、イベントフラグが立てられた動画ファイルV3、V4、V5をイベントフォルダ23に保存する。

In the example shown in FIG. 6, the event frame 27 is detected in the moving image file V4. Then, the event detection unit 15 sets an event flag for the moving image file V4 (denoted as "TRUE" in the figure). After that, the event detection unit 15 corrects the event flag and sets the event flag for the video file V3 in which the event frame 27 is not detected, which was shot before the video file V4 in chronological order (in the figure, ". Notated as "TRUE"). Further, the event detection unit 15 corrects the event flag and sets the event flag for the video file V5 in which the event frame 27 is not detected, which was shot later in the time series of the video file V4 (in the figure, "TRUE"). Notation). As a result, after the event flag is corrected, the moving image file V3, the moving image file V4, and the moving image file V5 become the event moving image file. Then, the control unit 19 saves the moving image files V3, V4, and V5 in which the event flag is set in the event folder 23.


図7は、本実施形態の撮影装置10を使用して行われる撮影方法(撮影工程)を示すフローチャートである。

FIG. 7 is a flowchart showing a photographing method (imaging process) performed by using the photographing apparatus 10 of the present embodiment.


動画ファイルの撮影の初期化として、動画撮影が開始されイベント検出が開始される(ステップS20)。その後、ユーザから、動画記録の開始指示が操作部250を介して入力される(ステップS21)。そして、撮影部11で撮影された動画ファイルが通常フォルダ21への記録が開始される(ステップS22)。次に、動画ファイル生成部13は、動画記録の終了指示があるか否かを判定し(ステップS23)、動画記録の終了指示がある場合には動画ファイルをクローズする(ステップS25)。又、動画ファイル生成部13は、動画記録が予めユーザにより設定された所定時間を経過したか否かを判定し(ステップS24)、動画記録が所定時間を経過した場合には動画ファイルをクローズする(ステップS25)。

As the initialization of the shooting of the moving image file, the moving image shooting is started and the event detection is started (step S20). After that, the user inputs an instruction to start video recording via the operation unit 250 (step S21). Then, the moving image file shot by the shooting unit 11 is started to be recorded in the normal folder 21 (step S22). Next, the moving image file generation unit 13 determines whether or not there is an instruction to end the moving image recording (step S23), and closes the moving image file if there is an instruction to end the moving image recording (step S25). Further, the moving image file generation unit 13 determines whether or not the moving image recording has elapsed a predetermined time set in advance by the user (step S24), and closes the moving image file when the moving image recording has elapsed the predetermined time. (Step S25).


その後、イベント検出部15により、今回の動画ファイル中のイベント25の検出が行われ(ステップS26)、今回の動画ファイルにイベント25が検出された場合には、制御部19は今回の動画ファイルをイベントフォルダ23に移動させ保存する(ステップS27)。一方、イベント検出部15により、今回の動画ファイル中にイベント25が検出されなかった場合には、制御部19は前回の動画ファイル中にイベント25が検出されたか否かを判定し(ステップS30)、前回の動画ファイルにイベント25があった場合には、今回の動画ファイルをイベントフォルダ23に移動し保存する(ステップS31)。

After that, the event detection unit 15 detects the event 25 in the current video file (step S26), and when the event 25 is detected in the current video file, the control unit 19 detects the current video file. Move to the event folder 23 and save (step S27). On the other hand, when the event detection unit 15 does not detect the event 25 in the current video file, the control unit 19 determines whether or not the event 25 is detected in the previous video file (step S30). If there is an event 25 in the previous video file, the current video file is moved to the event folder 23 and saved (step S31).


又、制御部19は、前回の動画ファイル中にイベント25が検出されたか否かを判定し(ステップS28)、前回の動画ファイルにイベント25が検出されていない場合には、前回の動画ファイルをイベントフォルダ23に移動させる(ステップS29)。その後、操作部250を介してユーザより動画撮影を終了する指示が有るか否かの判定が行われ(ステップS33)、終了の指示が有った場合には撮影部11は動画撮影が終了する。一方、動画記録の終了の指示が無い場合には、次の動画ファイルの記録が通常フォルダ21に行われる。

Further, the control unit 19 determines whether or not the event 25 is detected in the previous moving image file (step S28), and if the event 25 is not detected in the previous moving image file, the previous moving image file is used. Move to the event folder 23 (step S29). After that, it is determined whether or not there is an instruction to end the moving image shooting from the user via the operation unit 250 (step S33), and if there is an instruction to end, the shooting unit 11 ends the moving image shooting. .. On the other hand, if there is no instruction to end the moving image recording, the next moving image file is recorded in the normal folder 21.


以上で説明したように、本実施形態においては、イベント25が動画ファイル間を跨がっており上手くイベント25が検出できなかった場合においても、イベントフレーム27を有する動画ファイルをイベントフォルダ23に保存することができる。又、イベント25の発生の前後を捉えたフレームを有する動画ファイルをイベントフォルダ23に保存することができる。これにより、ユーザは、所望のフレームを容易に且つ迅速に見つけ出すことができる。

As described above, in the present embodiment, even if the event 25 straddles the video files and the event 25 cannot be detected well, the video file having the event frame 27 is saved in the event folder 23. can do. Further, a moving image file having a frame before and after the occurrence of the event 25 can be saved in the event folder 23. This allows the user to easily and quickly find the desired frame.


<第2の実施形態の変形例>

次に、第2の実施形態の変形例に関して説明する。本例では、イベントフレーム27がイベント動画ファイルの時系列的にどの箇所であるかを判定して、動画ファイルの保存を制御する。具体的には、検出したイベント25の発生時刻が、動画記録の開始時刻に近い場合は、制御部19はその動画ファイルの直前の動画ファイルもイベントフォルダ23に保存する。又、検出したイベント25の発生時刻が、動画記録の終了時刻に近い場合は、制御部19はその動画ファイルの直後の動画ファイルもイベントフォルダ23に保存する。これにより、本態様ではイベント25が動画ファイル間を跨がっており上手くイベント25が検出できなかった場合においても、イベントフレーム27を有する動画ファイルをイベントフォルダ23に保存することができる。又、イベント25の発生の前後を捉えたフレームをユーザに提供することができる。

<Modified example of the second embodiment>

Next, a modification of the second embodiment will be described. In this example, the location of the event frame 27 in the time series of the event moving image file is determined, and the saving of the moving image file is controlled. Specifically, when the detected event 25 occurrence time is close to the start time of the moving image recording, the control unit 19 also saves the moving image file immediately before the moving image file in the event folder 23. Further, when the occurrence time of the detected event 25 is close to the end time of the moving image recording, the control unit 19 also saves the moving image file immediately after the moving image file in the event folder 23. Thereby, in this embodiment, even if the event 25 straddles the moving image files and the event 25 cannot be detected well, the moving image file having the event frame 27 can be saved in the event folder 23. Further, it is possible to provide the user with a frame that captures before and after the occurrence of the event 25.


図8は、本発明のCPUで実現される機能の構成例を示すブロック図である。尚、図2で既に説明を行った箇所は、同じ符号を付し説明は省略する。

FIG. 8 is a block diagram showing a configuration example of a function realized by the CPU of the present invention. The parts already described in FIG. 2 are designated by the same reference numerals and the description thereof will be omitted.


本実施形態のイベント検出部15はフレーム位置特定部17を備える。フレーム位置特定部17は、イベント動画ファイルにおけるイベントフレーム27の時系列的な位置を特定する。具体的には、イベント検出部15においてイベントフレーム27が検出され、そのイベントフレーム27の位置が動画ファイルの開始時刻又は終了時刻からの時間で特定する。

The event detection unit 15 of the present embodiment includes a frame position specifying unit 17. The frame position specifying unit 17 specifies the time-series position of the event frame 27 in the event moving image file. Specifically, the event frame 27 is detected by the event detection unit 15, and the position of the event frame 27 is specified by the time from the start time or the end time of the moving image file.


図9は、本実施形態の撮影装置10を使用して行われる撮影方法(撮影工程)を示すフローチャートである。

FIG. 9 is a flowchart showing a photographing method (imaging process) performed by using the photographing apparatus 10 of the present embodiment.


動画ファイルの撮影の初期化として、動画撮影が開始されイベント検出が開始される(ステップS40)。その後、ユーザから、動画記録の開始指示が操作部250を介して入力される(ステップS41)。そして、撮影部11で撮影された動画ファイルが通常フォルダ21への記録が開始される(ステップS42)。次に、動画ファイル生成部13は、動画記録の終了指示があるか否かを判定し(ステップS43)、動画記録の終了指示がある場合には動画ファイルをクローズする(ステップS45)。又、動画ファイル生成部13は、動画記録が予めユーザにより設定された所定時間を経過したか否かを判定し(ステップS44)、動画記録が所定時間を経過した場合には動画ファイルをクローズする(ステップS45)。

As the initialization of the shooting of the moving image file, the moving image shooting is started and the event detection is started (step S40). After that, the user inputs an instruction to start video recording via the operation unit 250 (step S41). Then, the moving image file shot by the shooting unit 11 is started to be recorded in the normal folder 21 (step S42). Next, the moving image file generation unit 13 determines whether or not there is an instruction to end the moving image recording (step S43), and closes the moving image file if there is an instruction to end the moving image recording (step S45). Further, the moving image file generation unit 13 determines whether or not the moving image recording has elapsed a predetermined time set in advance by the user (step S44), and closes the moving image file when the moving image recording has elapsed the predetermined time. (Step S45).


その後、イベント検出部15により、今回の動画ファイル中のイベント25の検出が行われ(ステップS46)、今回の動画ファイルにイベント25が検出された場合には、制御部19この動画ファイルをイベントフォルダ23に移動させて保存する(ステップS47)。一方、イベント検出部15により、今回の動画ファイル中にイベント25が検出されなかった場合には、制御部19は前回の動画ファイル中の後半にイベント25が検出されたか否かを判定し(ステップS51)、前回の動画ファイルにイベント25があった場合には、今回の動画ファイルをイベントフォルダ23に移動し保存する(ステップS52)。

After that, the event detection unit 15 detects the event 25 in the current video file (step S46), and when the event 25 is detected in the current video file, the control unit 19 stores this video file in the event folder. Move to 23 and save (step S47). On the other hand, when the event detection unit 15 does not detect the event 25 in the current video file, the control unit 19 determines whether or not the event 25 is detected in the latter half of the previous video file (step). S51) If there is an event 25 in the previous video file, the current video file is moved to the event folder 23 and saved (step S52).


又、制御部19は、前回の動画ファイル中にイベント25が検出されたか否かを判定し(ステップS48)、前回の動画ファイルにイベント25がない場合には、今回の動画ファイル中の前半にイベント25が有るか否かを判定し(ステップS49)、前半にイベント25がある場合には、前回の動画ファイルをイベントフォルダ23に移動して保存する(ステップS50)。その後、操作部250を介してユーザより動画撮影を終了する指示が有るか否かの判定が行われ(ステップS53)、終了の指示が有った場合には撮影部11は動画撮影が終了する。一方、動画記録の終了の指示が無い場合には、次の動画ファイルの記録が通常フォルダ21に行われる。

Further, the control unit 19 determines whether or not the event 25 is detected in the previous video file (step S48), and if the previous video file does not have the event 25, the control unit 19 is in the first half of the current video file. It is determined whether or not there is an event 25 (step S49), and if there is an event 25 in the first half, the previous moving image file is moved to the event folder 23 and saved (step S50). After that, it is determined whether or not there is an instruction to end the moving image shooting from the user via the operation unit 250 (step S53), and if there is an instruction to end, the shooting unit 11 ends the moving image shooting. .. On the other hand, if there is no instruction to end the moving image recording, the next moving image file is recorded in the normal folder 21.


尚、上記の説明における動画ファイルの前半及び後半とは、動画ファイルの期間における前半及び後半を意味する。例えば、一つの動画ファイルが2分間である場合には、前半が開始10秒以内、後半が終了時刻から10秒前の範囲である。

The first half and the second half of the moving image file in the above description mean the first half and the second half of the period of the moving image file. For example, when one moving image file is for 2 minutes, the first half is within 10 seconds from the start and the second half is within 10 seconds before the end time.


以上で説明した本実施形態によればイベント25が動画ファイル間を跨がっており上手くイベント25が検出できなかった場合においても、イベントフレーム27を有する動画ファイルをイベントフォルダ23に保存することができる。又、イベント25の発生の前後を捉えたフレームをユーザに提供することができる。

According to the present embodiment described above, even if the event 25 straddles the video files and the event 25 cannot be detected successfully, the video file having the event frame 27 can be saved in the event folder 23. can. Further, it is possible to provide the user with a frame that captures before and after the occurrence of the event 25.


<第3の実施形態>

次に、本発明の第3の実施形態に関して説明する。本実施形態では、イベント動画ファイルとその前の動画ファイル、又は後の動画ファイルを連結して連結動画ファイルを生成する。

<Third embodiment>

Next, a third embodiment of the present invention will be described. In the present embodiment, the event video file and the video file before or after the event video file are concatenated to generate a concatenated video file.


本実施形態の動画ファイルの連結は、動画ファイル生成部13で行われる。動画ファイルの連結は、公知の技術により行われる。動画ファイル生成部13は、イベント動画ファイル(第1の動画ファイル)の時系列において前の動画ファイル(第2の動画ファイル)がイベントフォルダ23に保存されている場合には、それらを連結して連結動画ファイルとする。又、動画ファイル生成部13は、イベント動画ファイルの時系列において後の動画ファイル(第3の動画ファイル)がイベントフォルダ23に保存されている場合には、それらを連結して連結動画ファイルとする。又、動画ファイル生成部13は、イベント動画ファイルに前後の動画ファイルを連結してもよい。さらに、動画ファイル生成部13は、動画ファイルの連結及び分割を行って、イベント25が時間的に中間に位置するように動画ファイルを作成してもよい。

The moving image files of the present embodiment are concatenated by the moving image file generation unit 13. The video files are concatenated by a known technique. If the previous video file (second video file) is saved in the event folder 23 in the time series of the event video file (first video file), the video file generation unit 13 concatenates them. Make it a linked video file. Further, when the later moving image file (third moving image file) is saved in the event folder 23 in the time series of the event moving image file, the moving image file generation unit 13 concatenates them to form a connected moving image file. .. Further, the moving image file generation unit 13 may concatenate the moving image files before and after the event moving image file. Further, the moving image file generation unit 13 may concatenate and divide the moving image files to create the moving image file so that the event 25 is located in the middle in time.


図10は、本実施形態の撮影装置10を使用して行われる撮影方法(撮影工程)を示すフローチャートである。

FIG. 10 is a flowchart showing a photographing method (imaging process) performed by using the photographing apparatus 10 of the present embodiment.


動画ファイルの撮影の初期化として、動画撮影が開始されイベント検出が開始される(ステップS60)。その後、ユーザから、動画記録の開始指示が操作部250を介して入力される(ステップS61)。そして、撮影部11で撮影された動画ファイルが通常フォルダ21への記録が開始される(ステップS62)。次に、動画ファイル生成部13は、動画記録の終了指示があるか否かを判定し(ステップS63)、動画記録の終了指示がある場合には動画ファイルをクローズする(ステップS65)。又、動画ファイル生成部13は、動画記録が予めユーザにより設定された所定時間を経過したか否かを判定し(ステップS64)、動画記録が所定時間を経過した場合には動画ファイルをクローズする(ステップS65)。

As the initialization of the shooting of the moving image file, the moving image shooting is started and the event detection is started (step S60). After that, the user inputs an instruction to start video recording via the operation unit 250 (step S61). Then, the moving image file shot by the shooting unit 11 is started to be recorded in the normal folder 21 (step S62). Next, the moving image file generation unit 13 determines whether or not there is an instruction to end the moving image recording (step S63), and closes the moving image file if there is an instruction to end the moving image recording (step S65). Further, the moving image file generation unit 13 determines whether or not the moving image recording has elapsed a predetermined time set in advance by the user (step S64), and closes the moving image file when the moving image recording has elapsed the predetermined time. (Step S65).


その後、イベント検出部15により、今回の動画ファイル中のイベント25の検出が行われ(ステップS66)、今回の動画ファイルにイベント25が検出された場合には、制御部19は、この動画ファイルをイベントフォルダ23に移動させ保存する(ステップS67)。一方、イベント検出部15により、今回の動画ファイル中にイベント25が検出されなかった場合には、制御部19は、前回の動画ファイル中にイベント25が検出されたか否かを判定し(ステップS71)、前回の動画ファイルにイベント25があった場合には、今回の動画ファイルをイベントフォルダ23に移動し保存する(ステップS72)。又、制御部19は、前回の動画ファイル中にイベント25が検出されたか否かを判定し(ステップS68)、前回の動画ファイルにイベント25がない場合には、前回の動画ファイルをイベントフォルダ23に移動させ保存する(ステップS69)。

After that, the event detection unit 15 detects the event 25 in the video file this time (step S66), and when the event 25 is detected in the video file this time, the control unit 19 detects this video file. Move to the event folder 23 and save (step S67). On the other hand, when the event detection unit 15 does not detect the event 25 in the current video file, the control unit 19 determines whether or not the event 25 is detected in the previous video file (step S71). ), If there is an event 25 in the previous video file, the current video file is moved to the event folder 23 and saved (step S72). Further, the control unit 19 determines whether or not the event 25 is detected in the previous video file (step S68), and if the previous video file does not have the event 25, the previous video file is stored in the event folder 23. Move to and save (step S69).


その後、動画ファイル生成部13は、イベントフォルダ23に保存されている。イベント動画ファイル及び動画ファイルを連結させる(ステップS70)。その後、操作部250を介してユーザより動画撮影を終了する指示が有るか否かの判定が行われ(ステップS73)、終了の指示が有った場合には撮影部11は動画撮影が終了する。一方、動画記録の終了の指示が無い場合には、次の動画ファイルの記録が通常フォルダ21に行われる。

After that, the moving image file generation unit 13 is stored in the event folder 23. The event video file and the video file are concatenated (step S70). After that, it is determined whether or not there is an instruction to end the moving image shooting from the user via the operation unit 250 (step S73), and if there is an instruction to end, the shooting unit 11 ends the moving image shooting. .. On the other hand, if there is no instruction to end the moving image recording, the next moving image file is recorded in the normal folder 21.


以上で説明したように、イベントフォルダ23に保存された動画を連結して一つの動画ファイルとすることで、イベント25が複数の動画ファイルに跨がって発生している場合には、イベント25を途切れることなく再生することができる。

As described above, by concatenating the videos saved in the event folder 23 into one video file, if the event 25 occurs across a plurality of video files, the event 25 Can be played back without interruption.


<その他>

以上の説明では、イベント動画ファイルと通常の動画ファイルとの区別の手法として、イベントフォルダ23及び通常フォルダ21への動画ファイルの保存に関して説明してきた。しかし、イベント動画ファイルと通常の動画ファイルとの区別の手法はこれに限られるものではない。例えば、区別の手法として、動画のファイル名を変更することが挙げられる。具体的には、ファイル名「DSCF0001.MOV」、「DSCF0002.MOV」、「DSCF0003.MOV」、及び「DSCF0004.MOV」の動画ファイルの場合、「DSCF0003.MOV」にイベントフレーム27が検出された場合には、ファイル名を「DSCF0003A.MOV」に変更する。このように、イベント動画ファイルのファイル名を変更することにより、動画ファイルを区別してもよい。

<Others>

In the above description, as a method of distinguishing between the event video file and the normal video file, the storage of the video file in the event folder 23 and the normal folder 21 has been described. However, the method for distinguishing between an event video file and a normal video file is not limited to this. For example, one method of distinguishing is to change the file name of the moving image. Specifically, in the case of moving image files having file names "DSCF0001.MOV", "DSCF0002.MOV", "DSCF0003.MOV", and "DSCF0004.MOV", the event frame 27 was detected in "DSCF0003.MOV". If so, change the file name to "DSCF0003A.MOV". In this way, the moving image files may be distinguished by changing the file name of the event moving image file.


<スマートフォンの構成>

上述の説明では、撮影装置10の一例として、レンズ交換式のカメラを用いて説明をしたが、本発明の適用はこれに限定されるものではない。本発明を適用可能な他の態様としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、本発明を適用可能なスマートフォンの一例について説明する。

<Smartphone configuration>

In the above description, an interchangeable lens camera has been used as an example of the photographing apparatus 10, but the application of the present invention is not limited to this. Other embodiments to which the present invention can be applied include, for example, mobile phones and smartphones having a camera function, PDAs (Personal Digital Assistants), and portable game machines. Hereinafter, an example of a smartphone to which the present invention can be applied will be described.


図11は、本発明の撮影装置10の一実施形態であるスマートフォン500の外観を示す図である。図11に示すスマートフォン500は、平板状の筐体502を有し、筐体502の一方の面に表示部としての表示パネル521と、入力部としての操作パネル522とが一体となった表示入力部520を備えている。又、係る筐体502は、スピーカ531と、マイクロホン532、操作部540と、カメラ部541とを備えている。尚、筐体502の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用することもできる。

FIG. 11 is a diagram showing the appearance of the smartphone 500, which is an embodiment of the photographing device 10 of the present invention. The smartphone 500 shown in FIG. 11 has a flat plate-shaped housing 502, and a display input in which a display panel 521 as a display unit and an operation panel 522 as an input unit are integrated on one surface of the housing 502. The unit 520 is provided. Further, the housing 502 includes a speaker 531, a microphone 532, an operation unit 540, and a camera unit 541. The configuration of the housing 502 is not limited to this, and for example, a configuration in which the display unit and the input unit are independent can be adopted, or a configuration having a folding structure or a slide mechanism can be adopted.


図12は、図11に示すスマートフォン500の構成を示すブロック図である。図12に示すように、スマートフォンの主たる構成要素として、基地局と移動通信網とを介した移動無線通信を行う無線通信部510と、表示入力部520と、通話部530と、操作部540と、カメラ部541と、記録部550と、外部入出力部560と、GPS(Global Positioning System)受信部570と、モーションセンサ部580と、電源部590と、主制御部501とを備える。

FIG. 12 is a block diagram showing the configuration of the smartphone 500 shown in FIG. As shown in FIG. 12, as the main components of the smartphone, a wireless communication unit 510 that performs mobile wireless communication via a base station and a mobile communication network, a display input unit 520, a call unit 530, and an operation unit 540. It includes a camera unit 541, a recording unit 550, an external input / output unit 560, a GPS (Global Positioning System) receiving unit 570, a motion sensor unit 580, a power supply unit 590, and a main control unit 501.


無線通信部510は、主制御部501の指示にしたがって、移動通信網に収容された基地局に対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信、Webデータ及びストリーミングデータなどの受信を行う。

The wireless communication unit 510 performs wireless communication to a base station accommodated in the mobile communication network in accordance with the instruction of the main control unit 501. Using this wireless communication, various file data such as voice data and image data, transmission / reception of e-mail data, and reception of Web data and streaming data are performed.


表示入力部520は、主制御部501の制御により、画像(静止画及び動画)や文字情報などを表示して視覚的にユーザに情報を伝達し、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル521と、操作パネル522とを備える。

The display input unit 520 displays images (still images and moving images), character information, and the like under the control of the main control unit 501, visually conveys the information to the user, and detects the user operation for the displayed information. It is a touch panel and includes a display panel 521 and an operation panel 522.


表示パネル521は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル522は、表示パネル521の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。かかるデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部501に出力する。次いで、主制御部501は、受信した検出信号に基づいて、表示パネル521上の操作位置(座標)を検出する。

The display panel 521 uses an LCD (Liquid Crystal Display), an OLED (Organic Electro-Luminescence Display), or the like as a display device. The operation panel 522 is a device on which an image displayed on the display surface of the display panel 521 is visibly placed and detects one or a plurality of coordinates operated by a user's finger or a stylus. When such a device is operated with a user's finger or a stylus, a detection signal generated due to the operation is output to the main control unit 501. Next, the main control unit 501 detects the operation position (coordinates) on the display panel 521 based on the received detection signal.


図11に示すように、本発明の撮影装置10の一実施形態として例示しているスマートフォン500の表示パネル521と操作パネル522とは一体となって表示入力部520を構成しているが、操作パネル522が表示パネル521を完全に覆うような配置となっている。かかる配置を採用した場合、操作パネル522は、表示パネル521外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル522は、表示パネル521に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル521に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。

As shown in FIG. 11, the display panel 521 and the operation panel 522 of the smartphone 500 exemplified as an embodiment of the photographing apparatus 10 of the present invention integrally constitute a display input unit 520, but the operation is performed. The panel 522 is arranged so as to completely cover the display panel 521. When such an arrangement is adopted, the operation panel 522 may have a function of detecting a user operation even in an area outside the display panel 521. In other words, the operation panel 522 has a detection area (hereinafter referred to as a display area) for the overlapping portion overlapping the display panel 521 and a detection area (hereinafter, non-display area) for the outer edge portion not overlapping the other display panel 521. ) And may be provided.


尚、表示領域の大きさと表示パネル521の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。又、操作パネル522が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。さらに、外縁部分の幅は、筐体502の大きさなどに応じて適宜設計されるものである。又、操作パネル522で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。

The size of the display area and the size of the display panel 521 may be completely matched, but it is not always necessary to match the two. Further, the operation panel 522 may be provided with two sensitive regions, an outer edge portion and an inner portion other than the outer edge portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 502 and the like. Further, examples of the position detection method adopted in the operation panel 522 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, a capacitance method, and the like, and any of these methods is adopted. You can also do it.


通話部530は、スピーカ531やマイクロホン532を備え、マイクロホン532を通じて入力されたユーザの音声を主制御部501にて処理可能な音声データに変換して主制御部501に出力したり、無線通信部510あるいは外部入出力部560により受信された音声データを復号してスピーカ531から出力するものである。又、図11に示すように、例えば、スピーカ531、マイクロホン532を表示入力部520が設けられた面と同じ面に搭載することができる。

The call unit 530 includes a speaker 531 and a microphone 532, converts the user's voice input through the microphone 532 into voice data that can be processed by the main control unit 501, and outputs the data to the main control unit 501, or a wireless communication unit. The voice data received by the 510 or the external input / output unit 560 is decoded and output from the speaker 531. Further, as shown in FIG. 11, for example, the speaker 531 and the microphone 532 can be mounted on the same surface as the surface on which the display input unit 520 is provided.


操作部540は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図11に示すように、操作部540は、スマートフォン500の筐体502の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。

The operation unit 540 is a hardware key using a key switch or the like, and receives an instruction from the user. For example, as shown in FIG. 11, the operation unit 540 is mounted on the side surface of the housing 502 of the smartphone 500, and is turned on when pressed with a finger or the like, and turned off by a restoring force such as a spring when the finger is released. It is a push button type switch.


記録部550は、主制御部501の制御プログラム、制御データ、アプリケーションソフトウェア(本発明に係る画像処理プログラムを含む)、通信相手の名称及び電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータ、及びダウンロードしたコンテンツデータを記憶し、又ストリーミングデータなどを一時的に記憶するものである。又、記録部550は、スマートフォン内蔵の内部記憶部551と着脱自在な外部メモリスロットを有する外部記憶部552により構成される。尚、記録部550を構成するそれぞれの内部記憶部551と外部記憶部552は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、Micro SD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの記録媒体を用いて実現される。

The recording unit 550 includes the control program of the main control unit 501, control data, application software (including the image processing program according to the present invention), address data associated with the name and telephone number of the communication partner, and the transmitted / received e-mail. It stores data, Web data downloaded by Web browsing, downloaded content data, and temporarily stores streaming data and the like. Further, the recording unit 550 is composed of an internal storage unit 551 built in the smartphone and an external storage unit 552 having a detachable external memory slot. The internal storage unit 551 and the external storage unit 552 constituting the recording unit 550 include a flash memory type, a hard disk type, and a multimedia card micro type. It is realized by using a recording medium such as a card type memory (for example, Micro SD (registered trademark) memory), RAM (Random Access Memory), ROM (Read Only Memory), and the like.


外部入出力部560は、スマートフォン500に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、及びIEEE1394など)又はネットワーク(例えば、インターネット、無線LAN(Local Area Network)、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。

The external input / output unit 560 serves as an interface with all external devices connected to the smartphone 500, and communicates with other external devices (for example, universal serial bus (USB), IEEE 1394, etc.) or Network (for example, Internet, wireless LAN (Local Area Network), Bluetooth (Bluetooth) (registered trademark), RFID (Radio Frequency Identification), Infrared Data Association (IrDA) (registered trademark), UWB (Ultra Wideband) ( (Registered trademark), ZigBee (registered trademark), etc.) for direct or indirect connection.


スマートフォン500に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)、SIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、又はオーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオビデオ機器、無線接続される外部オーディオビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、及びイヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン500の内部の各構成要素に伝達し、又はスマートフォン500の内部のデータを外部機器に伝送することが可能である。

Examples of the external device connected to the smartphone 500 include a presence / wireless headset, a presence / wireless external charger, a presence / wireless data port, a memory card connected via a card socket, and a SIM (Subscriber). External audio / video device connected via Identity Module Card) / UIM (User Identity Module Card) card or audio / video I / O (Input / Output) terminal, wirelessly connected external audio / video device, Yes / Wireless There are smartphones to be connected, personal computers to be connected / wirelessly connected, PDAs to be connected / wirelessly connected, earphones, and the like. The external input / output unit can transmit the data transmitted from such an external device to each component inside the smartphone 500, or can transmit the data inside the smartphone 500 to the external device.


GPS受信部570は、主制御部501の指示にしたがって、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン500の緯度、経度、及び高度からなる位置を検出する。GPS受信部570は、無線通信部510や外部入出力部560(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。

The GPS receiving unit 570 receives GPS signals transmitted from the GPS satellites ST1 to STn according to the instruction of the main control unit 501, executes positioning calculation processing based on the received plurality of GPS signals, and performs positioning calculation processing based on the received plurality of GPS signals. Detects a position consisting of longitude and altitude. When the GPS receiving unit 570 can acquire the position information from the wireless communication unit 510 or the external input / output unit 560 (for example, wireless LAN), the GPS receiving unit 570 can also detect the position using the position information.


モーションセンサ部580は、例えば、3軸の加速度センサ及びジャイロセンサなどを備え、主制御部501の指示にしたがって、スマートフォン500の物理的な動きを検出する。スマートフォン500の物理的な動きを検出することにより、スマートフォン500の動く方向や加速度が検出される。この検出結果は、主制御部501に出力されるものである。

The motion sensor unit 580 includes, for example, a three-axis acceleration sensor and a gyro sensor, and detects the physical movement of the smartphone 500 according to the instruction of the main control unit 501. By detecting the physical movement of the smartphone 500, the moving direction and acceleration of the smartphone 500 are detected. This detection result is output to the main control unit 501.


電源部590は、主制御部501の指示にしたがって、スマートフォン500の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。

The power supply unit 590 supplies electric power stored in a battery (not shown) to each unit of the smartphone 500 according to the instruction of the main control unit 501.


主制御部501は、マイクロプロセッサを備え、記録部550が記憶する制御プログラム及び制御データにしたがって動作し、スマートフォン500の各部を統括して制御するものである。又、主制御部501は、無線通信部510を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能及びアプリケーション処理機能を備える。

The main control unit 501 includes a microprocessor, operates according to the control program and control data stored in the recording unit 550, and controls each unit of the smartphone 500 in an integrated manner. Further, the main control unit 501 includes a mobile communication control function and an application processing function that control each unit of the communication system in order to perform voice communication and data communication through the wireless communication unit 510.


アプリケーション処理機能は、記録部550が記憶するアプリケーションソフトウェアにしたがって主制御部501が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部560を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能、本発明に係る圧縮処理を行う画像処理機能などがある。

The application processing function is realized by operating the main control unit 501 according to the application software stored in the recording unit 550. Examples of the application processing function include an infrared communication function that controls an external input / output unit 560 to perform data communication with an opposite device, an e-mail function that sends and receives e-mail, a web browsing function that browses a web page, and the present invention. There is an image processing function that performs compression processing related to.


又、主制御部501は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画や動画のデータ)に基づいて、映像を表示入力部520に表示する等の画像処理機能を備える。画像処理機能とは、主制御部501が、上記画像データを復号し、係る復号結果に画像処理を施して、画像を表示入力部520に表示する機能のことをいう。

Further, the main control unit 501 is provided with an image processing function such as displaying an image on the display input unit 520 based on image data (still image or moving image data) such as received data or downloaded streaming data. The image processing function refers to a function in which the main control unit 501 decodes the image data, performs image processing on the decoded result, and displays the image on the display input unit 520.


さらに、主制御部501は、表示パネル521に対する表示制御と、操作部540、操作パネル522を通じたユーザ操作を検出する操作検出制御を実行する。

Further, the main control unit 501 executes display control for the display panel 521 and operation detection control for detecting a user operation through the operation unit 540 and the operation panel 522.


表示制御の実行により、主制御部501は、アプリケーションソフトウェアを起動するためのアイコン及びスクロールバーなどのソフトウェアキーを表示したり、或いは電子メールを作成するためのウィンドウを表示する。尚、スクロールバーとは、表示パネル521の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。

By executing the display control, the main control unit 501 displays a software key such as an icon and a scroll bar for starting the application software, or displays a window for composing an e-mail. The scroll bar is a software key for receiving an instruction to move a display portion of an image for a large image or the like that cannot fit in the display area of the display panel 521.


又、操作検出制御の実行により、主制御部501は、操作部540を通じたユーザ操作を検出したり、操作パネル522を通じてアイコンに対する操作、及びウィンドウの入力欄に対する文字列の入力を受け付け、或いはスクロールバーを通じた表示画像のスクロール要求を受け付ける。

Further, by executing the operation detection control, the main control unit 501 detects a user operation through the operation unit 540, receives an operation for an icon through the operation panel 522, and receives an input of a character string in an input field of the window, or scrolls. Accepts scrolling requests for displayed images through the bar.


さらに、操作検出制御の実行により主制御部501は、操作パネル522に対する操作位置が、表示パネル521に重なる重畳部分(表示領域)か、それ以外の表示パネル521に重ならない外縁部分(非表示領域)かを判定し、操作パネル522の感応領域及びソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。

Further, by executing the operation detection control, the main control unit 501 has an overlapping portion (display area) in which the operation position with respect to the operation panel 522 overlaps the display panel 521, or an outer edge portion (non-display area) in which the operation position does not overlap the other display panel 521. ), And has a touch panel control function to control the sensitive area of the operation panel 522 and the display position of the software key.


又、主制御部501は、操作パネル522に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、或いはこれらを組合せて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。

Further, the main control unit 501 can also detect a gesture operation on the operation panel 522 and execute a preset function according to the detected gesture operation. Gesture operation is not a conventional simple touch operation, but an operation of drawing a locus with a finger or the like, specifying multiple positions at the same time, or combining these to draw a locus of at least one from multiple positions. means.


カメラ部541は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラであり、図1に示した撮影装置10に相当する。又、カメラ部541は、主制御部501の制御により、撮影によって得た静止画の画像データを、例えばJPEG(Joint Photographic coding Experts Group)で圧縮し、又は動画の画像データを、例えばH.264/AVCで圧縮して記録部550に記録したり、外部入出力部560や無線通信部510を通じて出力することができる。図11に示すようにスマートフォン500において、カメラ部541は表示入力部520と同じ面に搭載されているが、カメラ部541の搭載位置はこれに限らず、表示入力部520の背面に搭載されてもよいし、或いは、複数のカメラ部541が搭載されてもよい。尚、複数のカメラ部541が搭載されている場合、撮影に供するカメラ部541を切り替えて単独にて撮影したり、或いは、複数のカメラ部541を同時に使用して撮影することもできる。

The camera unit 541 is a digital camera that performs electronic photography using an image pickup device such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge-Coupled Device), and corresponds to the image pickup device 10 shown in FIG. Further, the camera unit 541 compresses the image data of the still image obtained by shooting under the control of the main control unit 501 by, for example, JPEG (Joint Photographic coding Experts Group), or compresses the image data of the moving image, for example, H. It can be compressed by 264 / AVC and recorded in the recording unit 550, or output through the external input / output unit 560 or the wireless communication unit 510. As shown in FIG. 11, in the smartphone 500, the camera unit 541 is mounted on the same surface as the display input unit 520, but the mounting position of the camera unit 541 is not limited to this, and is mounted on the back surface of the display input unit 520. Alternatively, a plurality of camera units 541 may be mounted. When a plurality of camera units 541 are mounted, the camera units 541 used for shooting can be switched for shooting independently, or the plurality of camera units 541 can be used at the same time for shooting.


又、カメラ部541はスマートフォン500の各種機能に利用することができる。例えば、表示パネル521にカメラ部541で取得した画像を表示することや、操作パネル522の操作入力のひとつとして、カメラ部541の画像を利用することができる。又、GPS受信部570が位置を検出する際に、カメラ部541からの画像を参照して位置を検出することもできる。さらには、カメラ部541からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサ(ジャイロセンサ)と併用して、スマートフォン500のカメラ部541の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部541からの画像をアプリケーションソフトウェア内で利用することもできる。

Further, the camera unit 541 can be used for various functions of the smartphone 500. For example, the image acquired by the camera unit 541 can be displayed on the display panel 521, or the image of the camera unit 541 can be used as one of the operation inputs of the operation panel 522. Further, when the GPS receiving unit 570 detects the position, the position can be detected by referring to the image from the camera unit 541. Further, referring to the image from the camera unit 541, the optical axis direction of the camera unit 541 of the smartphone 500, without using the 3-axis accelerometer or in combination with the 3-axis accelerometer (gyro sensor). It is also possible to judge the current usage environment. Of course, the image from the camera unit 541 can also be used in the application software.


その他、静止画又は動画の画像データにGPS受信部570により取得した位置情報、マイクロホン532により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部580により取得した姿勢情報等などを付加して記録部550に記録したり、外部入出力部560や無線通信部510を通じて出力することもできる。

In addition, the position information acquired by the GPS receiving unit 570, the voice information acquired by the microphone 532 (the voice text may be converted by the main control unit or the like to become the text information) in the image data of the still image or the moving image. It is also possible to add posture information or the like acquired by the motion sensor unit 580 and record it in the recording unit 550, or output it through the external input / output unit 560 or the wireless communication unit 510.


尚、上述した説明でのCPU240は主制御部501に対応しており、記憶部260は記録部550に対応している。

The CPU 240 in the above description corresponds to the main control unit 501, and the storage unit 260 corresponds to the recording unit 550.


以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。

Although the example of the present invention has been described above, it is needless to say that the present invention is not limited to the above-described embodiment and various modifications can be made without departing from the spirit of the present invention.


10 :撮影装置

11 :撮影部

13 :動画ファイル生成部

15 :イベント検出部

17 :フレーム位置特定部

19 :制御部

21 :通常フォルダ

23 :イベントフォルダ

100 :交換レンズ

110 :ズームレンズ

120 :フォーカスレンズ

130 :絞り

140 :レンズ駆動部

200 :撮影装置本体

210 :撮像素子

230 :A/D変換器

240 :CPU

250 :操作部

260 :記憶部

270 :モニタ

500 :スマートフォン

501 :主制御部

502 :筐体

510 :無線通信部

520 :表示入力部

521 :表示パネル

522 :操作パネル

530 :通話部

531 :スピーカ

532 :マイクロホン

540 :操作部

541 :カメラ部

550 :記録部

551 :内部記憶部

552 :外部記憶部

560 :外部入出力部

570 :GPS受信部

570 :受信部

580 :モーションセンサ部

590 :電源部

10: Imaging device

11: Shooting section

13: Video file generator

15: Event detector

17: Frame position identification part

19: Control unit

21: Normal folder

23: Event folder

100: Interchangeable lens

110: Zoom lens

120: Focus lens

130: Aperture

140: Lens drive unit

200: Shooting device body

210: Image sensor

230: A / D converter

240: CPU

250: Operation unit

260: Storage unit

270: Monitor

500: Smartphone

501: Main control unit

502: Housing

510: Wireless communication unit

520: Display input unit

521: Display panel

522: Operation panel

530: Call section

531: Speaker

532: Microphone

540: Operation unit

541: Camera unit

550: Recording unit

551: Internal storage unit

552: External storage unit

560: External input / output unit

570: GPS receiver

570: Receiver

580: Motion sensor unit

590: Power supply unit

Claims (23)

第1の動画撮影モード、又は、前記第1の動画撮影モードと撮影条件が異なる第2の動画撮影モードに基づいて動画を撮影する撮影部と、
前記撮影部で取得した動画から複数の動画ファイルを生成する動画ファイル生成部と、
前記動画ファイルを記憶する第1のフォルダと第2のフォルダを有する記憶部と、
前記動画を構成する複数のフレームからイベントを含むイベントフレームを検出するイベント検出部と、
前記第2の動画撮影モードが選択された場合に、前記複数の動画ファイルのうち前記イベントフレームが含まれる第1の動画ファイルを前記第1のフォルダに、前記イベントフレームが含まれない動画ファイルを前記第2のフォルダに保存する制御部と、
を備える撮影装置。
A shooting unit that shoots a moving image based on a first moving image shooting mode or a second moving image shooting mode whose shooting conditions are different from those of the first moving image shooting mode.
A video file generation unit that generates a plurality of video files from the video acquired by the shooting unit, and a video file generation unit.
A storage unit having a first folder and a second folder for storing the moving image file,
An event detection unit that detects an event frame containing an event from a plurality of frames constituting the moving image, and an event detection unit.
When the second moving image shooting mode is selected, the first moving image file containing the event frame among the plurality of moving image files is placed in the first folder, and the moving image file not including the event frame is placed in the first folder. The control unit saved in the second folder and
A shooting device equipped with.
前記動画ファイル生成部は、前記動画を設定された時間ごとに分割して複数の動画ファイルを生成するものであって、
前記制御部は、前記複数の動画ファイルのうち、前記第1の動画ファイルの時系列において前の第2の動画ファイル、又は、前記第1の動画ファイルの時系列において後の第3の動画ファイルを前記第1のフォルダに保存する請求項1に記載の撮影装置。
The moving image file generation unit divides the moving image into a set time and generates a plurality of moving image files.
Among the plurality of moving image files, the control unit is a second moving image file before the time series of the first moving image file, or a third moving image file after the first moving image file in the time series. The photographing apparatus according to claim 1, wherein the image is stored in the first folder.
前記第1の動画ファイルにおける前記イベントフレームの位置を特定するフレーム位置特定部を備え、
前記制御部は、前記フレーム位置特定部により特定された前記イベントフレームの位置に基づいて、前記第2の動画ファイル、又は、前記第3の動画ファイルを前記第1のフォルダに保存する請求項2に記載の撮影装置。
A frame position specifying unit for specifying the position of the event frame in the first moving image file is provided.
2. The control unit saves the second moving image file or the third moving image file in the first folder based on the position of the event frame specified by the frame position specifying unit. The imaging device described in.
前記動画ファイル生成部は、前記第1のフォルダに保存された前記第1の動画ファイルと、前記第2の動画ファイル、又は、前記第3の動画ファイルを連結して一つの連結動画ファイルを生成する請求項2又は3に記載の撮影装置。 The moving image file generation unit generates one linked moving image file by concatenating the first moving image file stored in the first folder with the second moving image file or the third moving image file. The photographing apparatus according to claim 2 or 3. 前記制御部は、前記第1の動画ファイルを前記第2のフォルダにも保存する請求項1から4のいずれか1項に記載の撮影装置。 The photographing device according to any one of claims 1 to 4, wherein the control unit also stores the first moving image file in the second folder. 前記記憶部は、第1の記憶メディアと第2の記憶メディアとで構成されており、前記第1のフォルダは前記第1の記憶メディアに設けられ、前記第2のフォルダは前記第2の記憶メディアに設けられている請求項1から5のいずれか1項に記載の撮影装置。 The storage unit is composed of a first storage medium and a second storage medium, the first folder is provided in the first storage medium, and the second folder is the second storage. The photographing apparatus according to any one of claims 1 to 5, which is provided on the media. 前記第1のフォルダ及び前記第2のフォルダは、仮想フォルダである請求項1から6のいずれか1項に記載の撮影装置。 The photographing apparatus according to any one of claims 1 to 6, wherein the first folder and the second folder are virtual folders. 前記第2の動画撮影モードは、前記第1の動画撮影モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、及びホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、且つ/又は前記第1の動画撮影モードに対してフレームレートが高く設定される請求項1から7のいずれか1項に記載の撮影装置。 In the second moving image shooting mode, at least one of the shutter speed, the autofocus speed, the automatic exposure tracking speed, and the white balance following speed is set to be higher than that of the first moving image shooting mode, and the second moving image shooting mode is set to a higher speed. / Or the photographing apparatus according to any one of claims 1 to 7, wherein the frame rate is set higher than that of the first moving image photographing mode. 前記イベント検出部は、前記動画を構成する前記フレームにおいて、撮影シーンの変化を検出することにより前記イベントを検出する請求項1から8のいずれか1項に記載の撮影装置。 The photographing device according to any one of claims 1 to 8, wherein the event detecting unit detects the event by detecting a change in a shooting scene in the frame constituting the moving image. 前記動画の撮影中にユーザからの指示を受け付ける指示受付部を備え、
前記イベント検出部は、前記指示に基づいて前記イベントを検出する請求項1から9のいずれか1項に記載の撮影装置。
It is equipped with an instruction reception unit that receives instructions from the user during the shooting of the moving image.
The imaging device according to any one of claims 1 to 9, wherein the event detection unit detects the event based on the instruction.
前記記憶部は、前記第2のフォルダに保存される前記動画ファイルを上書きする請求項1から10のいずれか1項に記載の撮影装置。 The photographing device according to any one of claims 1 to 10, wherein the storage unit overwrites the moving image file stored in the second folder. 前記記憶部は、前記第2のフォルダに保存される前記動画ファイルを所定の条件に基づいて自動的に削除する請求項1から11のいずれか1項に記載の撮影装置。 The photographing device according to any one of claims 1 to 11, wherein the storage unit automatically deletes the moving image file stored in the second folder based on a predetermined condition. 第1の動画撮影モード、又は、前記第1の動画撮影モードと撮影条件が異なる第2の動画撮影モードに基づいて動画を撮影するステップと、
前記撮影するステップで撮影した動画から複数の動画ファイルを生成するステップと、
前記動画を構成する複数のフレームからイベントを含むイベントフレームを検出するステップと、
前記第2の動画撮影モードが選択された場合に、前記複数の動画ファイルのうち、前記イベントフレームが含まれる第1の動画ファイルを記憶部の第1のフォルダに、前記イベントフレームが含まれない動画ファイルを前記記憶部の第2のフォルダに記憶するステップと、
を含む撮影方法。
A step of shooting a moving image based on a first moving image shooting mode or a second moving image shooting mode having different shooting conditions from the first moving image shooting mode.
The step of generating multiple video files from the video shot in the above shooting step, and
A step of detecting an event frame containing an event from a plurality of frames constituting the moving image, and
When the second moving image shooting mode is selected, the event frame is not included in the first folder of the storage unit of the first moving image file containing the event frame among the plurality of moving image files. The step of storing the video file in the second folder of the storage unit,
Shooting methods including.
前記動画ファイルを生成するステップは、前記動画を設定された時間ごとに分割して複数の動画ファイルを生成するものであって、
前記記憶するステップは、前記複数の動画ファイルのうち、前記第1の動画ファイルの時系列において前の第2の動画ファイル、又は、前記第1の動画ファイルの時系列において後の第3の動画ファイルを前記第1のフォルダに保存する請求項13に記載の撮影方法。
The step of generating the moving image file is to divide the moving image into a set time and generate a plurality of moving image files.
The storage step is a second moving image file before the time series of the first moving image file, or a third moving image after the time series of the first moving image file among the plurality of moving image files. The photographing method according to claim 13, wherein the file is stored in the first folder.
前記第1の動画ファイルにおける前記イベントフレームの位置を特定するステップを備え、
前記記憶するステップは、特定された前記イベントフレームの位置に基づいて、前記第2の動画ファイル、又は、前記第3の動画ファイルを前記第1のフォルダに保存する請求項14に記載の撮影方法。
A step of identifying the position of the event frame in the first moving image file is provided.
The shooting method according to claim 14, wherein the memorizing step is to save the second moving image file or the third moving image file in the first folder based on the position of the specified event frame. ..
前記動画ファイルを生成するステップは、前記第1のフォルダに保存された前記第1の動画ファイルと、前記第2の動画ファイル、又は、前記第3の動画ファイルを連結して一つの連結動画ファイルを生成する請求項14又は15に記載の撮影方法。 In the step of generating the moving image file, the first moving image file stored in the first folder and the second moving image file or the third moving image file are concatenated into one concatenated moving image file. The photographing method according to claim 14 or 15. 前記記憶するステップは、前記第1の動画ファイルを前記第2のフォルダにも保存する請求項13から16のいずれか1項に記載の撮影方法。 The shooting method according to any one of claims 13 to 16, wherein the storage step is to save the first moving image file in the second folder as well. 前記記憶部は、第1の記憶メディアと第2の記憶メディアとで構成されており、前記第1のフォルダは前記第1の記憶メディアに設けられ、前記第2のフォルダは前記第2の記憶メディアに設けられている請求項13から17のいずれか1項に記載の撮影方法。 The storage unit is composed of a first storage medium and a second storage medium, the first folder is provided in the first storage medium, and the second folder is the second storage. The photographing method according to any one of claims 13 to 17, which is provided on the media. 前記第1のフォルダ及び前記第2のフォルダは、仮想フォルダである請求項13から18のいずれか1項に記載の撮影方法。 The photographing method according to any one of claims 13 to 18, wherein the first folder and the second folder are virtual folders. 前記第2の動画撮影モードは、前記第1の動画撮影モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、及びホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、且つ/又は前記第1の動画撮影モードに対してフレームレートが高く設定される請求項13から19のいずれか1項に記載の撮影方法。 In the second moving image shooting mode, at least one of the shutter speed, the autofocus speed, the automatic exposure tracking speed, and the white balance tracking speed is set higher than that of the first moving image shooting mode, and the second moving image shooting mode is set to a higher speed. / Or the shooting method according to any one of claims 13 to 19, wherein the frame rate is set higher than that of the first moving image shooting mode. 前記検出するステップは、前記動画を構成する前記フレームにおいて、撮影シーンの変化を検出することにより前記イベントを検出する請求項13から20のいずれか1項に記載の撮影方法。 The shooting method according to any one of claims 13 to 20, wherein the detection step detects the event by detecting a change in a shooting scene in the frame constituting the moving image. 前記動画の撮影中にユーザからの指示を受け付けるステップを含み、
前記検出するステップは、前記指示に基づいて前記イベントを検出する請求項13から21のいずれか1項に記載の撮影方法。
Including the step of accepting an instruction from the user during the shooting of the moving image.
The imaging method according to any one of claims 13 to 21, wherein the detection step detects the event based on the instruction.
第1の動画撮影モード、又は、前記第1の動画撮影モードと撮影条件が異なる第2の動画撮影モードに基づいて動画を撮影するステップと、
前記撮影するステップで撮影した動画から複数の動画ファイルを生成するステップと、
前記動画を構成する複数のフレームからイベントを含むイベントフレームを検出するステップと、
前記第2の動画撮影モードが選択された場合に、前記複数の動画ファイルのうち、前記イベントフレームが含まれる第1の動画ファイルを記憶部の第1のフォルダに、前記イベントフレームが含まれない動画ファイルを前記記憶部の第2のフォルダに記憶するステップと、
を含む撮影工程をコンピュータに実行させるプログラム。
A step of shooting a moving image based on a first moving image shooting mode or a second moving image shooting mode having different shooting conditions from the first moving image shooting mode.
The step of generating multiple video files from the video shot in the above shooting step, and
A step of detecting an event frame containing an event from a plurality of frames constituting the moving image, and
When the second moving image shooting mode is selected, the event frame is not included in the first folder of the storage unit of the first moving image file containing the event frame among the plurality of moving image files. The step of storing the video file in the second folder of the storage unit,
A program that causes a computer to perform a shooting process that includes.
JP2020548105A 2018-09-26 2019-08-07 Shooting equipment, shooting method, and program Active JP7064609B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018179971 2018-09-26
JP2018179971 2018-09-26
PCT/JP2019/031090 WO2020066316A1 (en) 2018-09-26 2019-08-07 Photographing apparatus, photographing method, and program

Publications (2)

Publication Number Publication Date
JPWO2020066316A1 JPWO2020066316A1 (en) 2021-08-30
JP7064609B2 true JP7064609B2 (en) 2022-05-10

Family

ID=69952620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020548105A Active JP7064609B2 (en) 2018-09-26 2019-08-07 Shooting equipment, shooting method, and program

Country Status (2)

Country Link
JP (1) JP7064609B2 (en)
WO (1) WO2020066316A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005229236A (en) 2004-02-12 2005-08-25 Casio Comput Co Ltd Camera apparatus and program
JP2006093956A (en) 2004-09-22 2006-04-06 Canon Inc Imaging apparatus
JP2008301013A (en) 2007-05-30 2008-12-11 Fujifilm Corp Photographing device, method, and program
JP2009077026A (en) 2007-09-19 2009-04-09 Fujifilm Corp Imaging apparatus and method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005229236A (en) 2004-02-12 2005-08-25 Casio Comput Co Ltd Camera apparatus and program
JP2006093956A (en) 2004-09-22 2006-04-06 Canon Inc Imaging apparatus
JP2008301013A (en) 2007-05-30 2008-12-11 Fujifilm Corp Photographing device, method, and program
JP2009077026A (en) 2007-09-19 2009-04-09 Fujifilm Corp Imaging apparatus and method, and program

Also Published As

Publication number Publication date
WO2020066316A1 (en) 2020-04-02
JPWO2020066316A1 (en) 2021-08-30

Similar Documents

Publication Publication Date Title
US11696021B2 (en) Video recording device and camera function control program
EP2161924B1 (en) Camera system and method
KR20200019728A (en) Shooting mobile terminal
CN107743191B (en) Terminal, anti-shake photographing method thereof and storage device
WO2017092128A1 (en) Method and device for displaying preview image
EP3062513B1 (en) Video apparatus and photography method thereof
US11438521B2 (en) Image capturing device, image capturing method, and program
WO2021219141A1 (en) Photographing method, graphic user interface, and electronic device
US11805320B2 (en) Imaging device, imaging method, and imaging program
JPWO2020158069A1 (en) Imaging device, imaging method, and program
US11032483B2 (en) Imaging apparatus, imaging method, and program
US20210174090A1 (en) Imaging device, imaging method, and program
JP6998454B2 (en) Imaging equipment, imaging methods, programs and recording media
JP7064609B2 (en) Shooting equipment, shooting method, and program
WO2020209097A1 (en) Image display device, image display method, and program
JP2021192544A (en) Image processor, imaging device, method for processing image, and image processing program
JP7003286B2 (en) Shooting equipment, shooting method, and program
JP5182395B2 (en) Imaging apparatus, imaging method, and imaging program
JP2009124210A (en) Image pickup apparatus, image pickup method, image searching apparatus and image searching method
JP7551725B2 (en) Imaging device, imaging method, and program
JP7150053B2 (en) IMAGING DEVICE, IMAGING METHOD, AND PROGRAM
WO2020003944A1 (en) Imaging device, imaging method, and program
JPWO2020174911A1 (en) Image display device, image display method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210428

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220422

R150 Certificate of patent or registration of utility model

Ref document number: 7064609

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150