JP2023024521A - Imaging device, imaging method, and program - Google Patents

Imaging device, imaging method, and program Download PDF

Info

Publication number
JP2023024521A
JP2023024521A JP2022195597A JP2022195597A JP2023024521A JP 2023024521 A JP2023024521 A JP 2023024521A JP 2022195597 A JP2022195597 A JP 2022195597A JP 2022195597 A JP2022195597 A JP 2022195597A JP 2023024521 A JP2023024521 A JP 2023024521A
Authority
JP
Japan
Prior art keywords
moving image
unit
imaging device
control unit
file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022195597A
Other languages
Japanese (ja)
Inventor
康一 田中
Koichi Tanaka
哲 和田
Satoru Wada
哲也 藤川
Tetsuya Fujikawa
幸徳 西山
Yukinori Nishiyama
健吉 林
Kenkichi Hayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JP2023024521A publication Critical patent/JP2023024521A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device, an imaging method, and a program that enable a user to easily select a frame of a moving image to be extracted as a still image.
SOLUTION: An imaging device according to the first aspect of the present invention includes a direction detection unit that detects the direction of an imaging device with respect to the direction of gravity, an imaging unit that shoots a moving image, and a control unit, and the control unit has a first moving image mode capable of generating a moving image file of the moving image captured by the imaging unit and extracting a still image from the moving image file, and in the first moving image mode, the control unit divides the moving image to generate a first moving image and a second moving image when the direction detection unit determines that the direction of the imaging device has changed with respect to the direction of gravity. A first moving image file of the first moving image and a second moving image file of a second moving image are stored in a storage unit, a third moving image is generated between the first moving image and the second moving image in time, and the third moving image includes a moving image of a first period of directional change.
SELECTED DRAWING: Figure 5
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は動画を撮影する撮像装置、撮像方法、及びプログラムに関し、特に動画を構成するフレームを静止画として抽出可能な撮像装置、撮像方法、及びプログラムに関する。 The present invention relates to an image capturing apparatus, an image capturing method, and a program for capturing a moving image, and more particularly to an image capturing apparatus, an image capturing method, and a program capable of extracting frames constituting a moving image as still images.

撮影後に静止画を抽出することを目的として動画を撮影する技術が知られている。この技術では、例えばいつ起こるか分からない一瞬の事象(イベント)を捉えるために動画を撮影及び記録しておき、撮影後にユーザが所望のフレームを選択するが、動画撮影中にいつイベントが発生するかは予測が難しい。そのため、ある程度の時間にわたって動画を撮影し続ける必要があり、記録メディアの残容量が切迫する、あるいは長時間の動画からイベントが発生したフレームをユーザが選択するのに非常に大きな労力を要する、という課題がある。 2. Description of the Related Art Techniques for capturing moving images for the purpose of extracting still images after capturing are known. With this technology, for example, a moving image is shot and recorded in order to capture an instantaneous event (event) that may occur at any time, and the user selects a desired frame after shooting. is difficult to predict. For this reason, it is necessary to continue shooting movies for a certain amount of time, and the remaining capacity of the recording media is tight, or it takes a lot of effort for the user to select the frame where the event occurred from a long movie. I have a problem.

上述した課題に対応するために、動画へのタグ付けやマーキングを行うことが考えられる。例えば、イベントを検出し、イベント発生時のフレームに対してイベント情報を表すタグを付加する。また、例えば特許文献1には、動画の撮影中にユーザの指示により静止画取得タイミングで動画にマーキングし、動画撮影終了後にマーキング箇所及びその前後の動画フレームを抽出及び表示することで、ユーザが動画における静止画抽出のタイミングを選択することを可能にする旨が記載されている。 In order to deal with the above-mentioned problems, it is conceivable to tag or mark videos. For example, an event is detected, and a tag representing event information is added to the frame when the event occurs. Further, for example, in Patent Document 1, a moving image is marked at the timing of acquiring a still image according to a user instruction during recording of the moving image, and after the moving image recording is completed, the marked portion and the moving image frames before and after the marking are extracted and displayed so that the user can It is described that it is possible to select the timing of extracting a still image from a moving image.

特開2016-32303号公報JP 2016-32303 A

しかしながら、上述したタグの付加を行う場合、イベント情報を表すタグは標準化されておらず、撮影に用いた撮像装置を含む特定の機器でしか認識できず、またイベントフレームを再生するにあたっては全フレームのタグ情報を解析する必要があり、イベントフレームの再生までに時間を要するという課題がある。また、特許文献1に記載の技術ではマーキング情報が記録されるだけなので、マーキングしたフレームを抽出及び表示する度に動画のデコード(静止画処理)が必要であり、撮像装置への処理負荷が高い。このように、従来の技術は静止画として抽出したい動画のフレームをユーザが容易に選択できるものではなかった。 However, when adding tags as described above, tags representing event information are not standardized and can only be recognized by specific equipment including the imaging device used for shooting. tag information needs to be analyzed, and there is a problem that it takes time to reproduce the event frame. In addition, since the technique described in Patent Document 1 only records marking information, video decoding (still image processing) is required each time a marked frame is extracted and displayed, which imposes a high processing load on the imaging device. . As described above, the conventional technology does not allow the user to easily select frames of a moving image to be extracted as a still image.

本発明はこのような事情に鑑みてなされたもので、静止画として抽出したい動画のフレームをユーザが容易に選択することができる撮像装置、撮像方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide an imaging apparatus, an imaging method, and a program that enable a user to easily select a frame of a moving image to be extracted as a still image.

上述した目的を達成するため、本発明の第1の態様に係る撮像装置は、撮像装置であって、重力方向に対する撮像装置の方向を検出する方向検出部と、動画を撮影する撮影部と、制御部と、を備え、制御部は、撮影部が撮影した動画の動画ファイルを生成し、動画ファイルから静止画を抽出可能な第1動画モードを有し、制御部は、第1動画モードにおいて、方向検出部が撮像装置の重力方向に対する方向変化が起きたと判断した場合、動画を分割して第1動画と第2動画を生成し、制御部は第1動画の第1動画ファイルを、記憶部の第1フォルダに保存し、第2動画の第2動画ファイルを記憶部の第2フォルダに保存する。 In order to achieve the above object, an imaging device according to a first aspect of the present invention is an imaging device comprising: a direction detection unit for detecting the direction of the imaging device with respect to the direction of gravity; an imaging unit for capturing moving images; a control unit, wherein the control unit has a first moving image mode capable of generating a moving image file of a moving image captured by the imaging unit and extracting a still image from the moving image file; , when the direction detection unit determines that the direction of the imaging device has changed with respect to the direction of gravity, the moving image is divided to generate a first moving image and a second moving image, and the control unit stores the first moving image file of the first moving image. The second moving image file of the second moving image is stored in the second folder of the storage unit.

通常、静止画撮影においては、ユーザは所望の構図に応じてカメラ(撮像装置)を横向き(カメラ底面が地面と平行)になるように、あるいは縦向き(カメラ底面が重力方向と平行)になるように構えて撮影する。これに対し動画撮影においては、撮影中に縦と横を切り替えることは少ない。一方、静止画の抽出を行うための動画撮影においては、事後的にフレーム切り出しを行うという特性上、動画撮影中にもカメラの構え方が縦と横で変化することが想定される。この縦と横の変化は、ユーザの動作に起因する一種のイベントであると考えることができる。このような観点から、第1の態様では、重力方向に対する撮像装置の方向(撮像装置の姿勢)の変化が起きた場合に動画を分割して第1動画と第2動画を生成し、第1動画の第1動画ファイルと第2動画の第2動画ファイルをそれぞれ別フォルダ(第1フォルダ、第2フォルダ)に保存する。これにより各動画を撮影した際の撮像装置の姿勢を容易に識別でき、ユーザは静止画として抽出したいフレームを含む動画を撮像装置の姿勢を手がかりにして容易に選択することができる。また、静止画として抽出するフレームは分割され記録時間が短くなった動画の中で探せばよいので、所望のフレームを迅速に探すことができる。 Normally, in still image shooting, the user sets the camera (imaging device) horizontally (the bottom surface of the camera is parallel to the ground) or vertically (the bottom surface of the camera is parallel to the direction of gravity) depending on the desired composition. Hold the camera as shown. In video shooting, on the other hand, it is rare to switch between vertical and horizontal orientations during shooting. On the other hand, in moving image shooting for extracting still images, it is assumed that the way the camera is held changes between vertical and horizontal during moving image shooting due to the characteristic that frames are cut out after the fact. This vertical and horizontal change can be considered as a kind of event caused by the user's action. From such a point of view, in the first aspect, when the direction of the imaging device (posture of the imaging device) with respect to the direction of gravity changes, the moving image is divided to generate the first moving image and the second moving image, and the first moving image and the second moving image are generated. The first moving image file of the moving image and the second moving image file of the second moving image are stored in separate folders (first folder and second folder). This makes it possible to easily identify the posture of the imaging device when each moving image was shot, and the user can easily select a moving image including a frame to be extracted as a still image by using the posture of the imaging device as a clue. In addition, since the frame to be extracted as a still image can be found in the divided moving image whose recording time is shortened, the desired frame can be quickly found.

このように、第1の態様によれば、静止画として抽出したい動画のフレームをユーザが容易に選択することができる。さらに、第1の態様ではタグやマーキング等の情報を用いる必要がないので、第1の態様で記録された動画に基づくと、フレームの選択や静止画の抽出を、他の撮像装置や画像再生装置、画像処理装置でも行うことができる。なお、記憶部は撮像装置に備えられたものでもよいし、外部の装置でもよい。 Thus, according to the first aspect, the user can easily select a frame of a moving image to be extracted as a still image. Furthermore, in the first mode, there is no need to use information such as tags and markings, so based on the moving image recorded in the first mode, selection of frames and extraction of still images can be performed by other imaging devices or image reproduction. It can also be performed with an apparatus or an image processing apparatus. Note that the storage unit may be provided in the imaging device, or may be an external device.

第2の態様に係る撮像装置は第1の態様において、制御部は、時間において、第1動画と第2動画の間にある第3動画を生成し、第3動画は、方向変化が起きている第1期間の動画を含む。第2の態様では、方向変化が起きている期間(第1期間)を第1,第2動画とは別の動画(第3動画)にして、ユーザが容易に識別できるようにしている。 In the imaging device according to the second aspect, in the first aspect, the control unit generates a third moving image that is between the first moving image and the second moving image in time, and the third moving image is generated when the direction change occurs. Includes videos from the first period. In the second aspect, the period during which the direction change occurs (first period) is a moving image (third moving image) different from the first and second moving images so that the user can easily identify it.

第3の態様に係る撮像装置は第1の態様において、時間において、第1動画は第2動画よりも前であり、方向検出部は、撮像装置が水平方向に沿っている第1状態、撮像装置が重力方向に沿っている第2状態、又は、撮像装置が第1状態と第2状態との間で変化している状態である第3状態のいずれかであるかを検出し、第1動画は、撮像装置が第3状態である期間の動画を含む。第3の態様において、例えば第1,第2状態の中間状態、撮像装置の方向が不定の状態、撮像装置の姿勢が第1状態と第2状態との間で変化している状態等を第3状態とすることができる。 In the imaging device according to the third aspect, in the first aspect, the first moving image precedes the second moving image in terms of time, and the direction detection unit captures the first state in which the imaging device is along the horizontal direction. detecting whether the device is in a second state in which the device is along the direction of gravity or in a third state in which the imaging device is changing between the first state and the second state; The moving image includes a moving image during the period when the imaging device is in the third state. In the third aspect, for example, an intermediate state between the first and second states, a state in which the direction of the imaging device is indefinite, a state in which the orientation of the imaging device is changing between the first state and the second state, etc. It can be in 3 states.

第4の態様に係る撮像装置は第2の態様において、制御部は、第3動画を記憶部に保存しない。第4の態様によれば、方向変化が起きている期間(第1期間)の動画を保存しないことで、記憶部の容量を節約することができる。 In the second aspect of the imaging device according to the fourth aspect, the control unit does not store the third moving image in the storage unit. According to the fourth aspect, it is possible to save the capacity of the storage unit by not saving the moving image during the period in which the direction change occurs (the first period).

第5の態様に係る撮像装置は第2の態様において、制御部は、第3動画を記憶部の第1フォルダに保存する。すなわち、第3動画は第1動画と同じフォルダに保存される。 In the second aspect of the imaging device according to the fifth aspect, the control unit saves the third moving image in the first folder of the storage unit. That is, the third moving image is saved in the same folder as the first moving image.

第6の態様に係る撮像装置は第4又は第5の態様において、第3動画は、方向変化が終了した後の第2期間の動画も含む。第6の態様は、方向変化が終了しても構図の変化に伴い撮影条件が安定していない可能性があるため、方向変化が終了した後も第2期間においては第3動画に含めている。 In the imaging device according to the sixth aspect, in the fourth or fifth aspect, the third moving image also includes the moving image of the second period after the direction change is completed. In the sixth aspect, even after the change in direction ends, the shooting conditions may not be stable due to the change in composition, so even after the change in direction ends, it is included in the third moving image in the second period. .

第7の態様に係る撮像装置は第1又は第2の態様において、第1動画は、方向変化が終了した後の第2期間の動画も含む。第6の態様は、方向変化が終了しても構図の変化に伴い撮影条件が安定していない可能性があるため、方向変化が終了した後も第2期間においては第1動画に含めている。 In the imaging device according to the seventh aspect, in the first or second aspect, the first moving image also includes the moving image of the second period after the direction change is completed. In the sixth aspect, since there is a possibility that the shooting conditions are not stable due to the change in composition even after the direction change is completed, the first moving image is included in the second period even after the direction change is completed. .

第8の態様に係る撮像装置は第6又は第7の態様において、第2期間は、撮像装置が、動画の露出、動画のホワイトバランス、又は、動画中の被写体のフォーカスを調整している期間である。第8の態様は、第2期間の内容を具体的に規定するものである。 An imaging device according to an eighth aspect is the imaging device according to the sixth or seventh aspect, wherein the second period is a period during which the imaging device adjusts the exposure of the moving image, the white balance of the moving image, or the focus of the subject in the moving image. is. The eighth aspect specifically defines the content of the second period.

第9の態様に係る撮像装置は第1ないし第8の態様のいずれか1つにおいて、制御部は、第1動画ファイルと第2動画ファイルに、重力方向に対する撮像装置の方向に関する情報を付与する。例えば、ファイル名もしくはその一部、動画ファイルのヘッダやフッタ等に情報を付与することができる。 A ninth aspect of the imaging device according to any one of the first to eighth aspects, wherein the control unit adds information about the direction of the imaging device with respect to the direction of gravity to the first moving image file and the second moving image file. . For example, the information can be added to the file name or part thereof, the header or footer of the moving image file, and the like.

第10の態様に係る撮像装置は第1ないし第9の態様のいずれか1つにおいて、制御部は、ユーザの指示を受け付ける受付部を有し、第2動画の終了タイミングは、受付部によるユーザの第2動画終了指示又は動画撮影終了指示の受付に対応する。第10の態様によれば、ユーザは所望のタイミングで第2動画を終了させることができる。 According to a tenth aspect, in any one of the first to ninth aspects, the control unit has a reception unit that receives a user's instruction, and the end timing of the second moving image is determined by the reception unit. , the reception of the second moving image end instruction or the moving image shooting end instruction. According to the tenth aspect, the user can end the second moving image at desired timing.

第11の態様に係る撮像装置は第1ないし第10の態様のいずれか1つにおいて、制御部内にあるユーザの指示を受け付ける受付部、又は特定のイベントを検出するイベント検出部を備え、制御部は、受付部によるユーザの指示の受付中又はイベント検出部による特定のイベントの検出中に、方向検出部により方向変化を検出した場合、動画を分割しない。第11の態様によれば、ユーザの指示又は特定のイベントの発生中に撮像装置の方向変化(姿勢変化)があった場合は動画を分割しないので、ユーザの指示又はイベントに関連した一連のシーンを1つの動画で確認することができる。 An imaging apparatus according to an eleventh aspect, in any one of the first to tenth aspects, is provided with a reception unit for receiving a user's instruction in the control unit or an event detection unit for detecting a specific event, the control unit does not divide the moving image if the orientation detection unit detects a direction change while the reception unit is accepting a user's instruction or the event detection unit is detecting a specific event. According to the eleventh aspect, if there is a direction change (orientation change) of the imaging device during the user's instruction or occurrence of a specific event, the moving image is not split, so that a sequence of scenes related to the user's instruction or event is generated. can be seen in one video.

第12の態様に係る撮像装置は第1ないし第11の態様のいずれか1つにおいて、制御部は、第1動画モードと撮影条件が異なる第2動画モードを有し、制御部は、第2動画モードにおいて、方向検出部が方向変化を検出した場合、動画を分割しない。例えば、動画からの静止画の抽出を行わない通常の動画モードを第2動画モードとすることができる。 An imaging apparatus according to a twelfth aspect is any one of the first to eleventh aspects, wherein the control unit has a second moving image mode different in imaging conditions from the first moving image mode, In moving image mode, if the direction detection unit detects a direction change, the moving image is not divided. For example, a normal moving image mode in which still images are not extracted from a moving image can be set as the second moving image mode.

第13の態様に係る撮像装置は第12の態様において、第1動画モードは、第2動画モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、ホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、かつ/又は第2動画モードに対してフレームレートが高く設定される。第13の態様は、第1動画モードと第2動画モードとの撮影条件の違いの一態様を規定するものであり、第1動画モードの撮影条件をこのように設定することで、動画から高画質な静止画を抽出することができる。 In the imaging apparatus according to the thirteenth aspect, in the twelfth aspect, the first moving image mode has at least one of a shutter speed, an autofocus speed, an automatic exposure follow-up speed, and a white balance follow-up speed with respect to the second moving image mode. One is set to fast and/or the frame rate is set to high for the second video mode. The thirteenth aspect defines one aspect of the difference in shooting conditions between the first moving image mode and the second moving image mode. High-quality still images can be extracted.

第14の態様に係る撮像装置は第1ないし第13の態様のいずれか1つにおいて、第1動画ファイルと第2動画ファイルは、ファイル名の拡張子を除く少なくとも一部が共通している。これにより、ユーザは第1動画ファイルと第2動画ファイルとが1つの動画を分割して生成されたファイルであることを容易に識別することができる。 According to a fourteenth aspect, in any one of the first to thirteenth aspects, the first moving image file and the second moving image file have at least part in common except for the extension of the file name. Thereby, the user can easily identify that the first moving image file and the second moving image file are files generated by dividing one moving image.

上述した目的を達成するため、本発明の第15の態様に係る撮像方法は、重力方向に対する撮像装置の方向を検出する方向検出部と、動画を撮影する撮影部と、撮影部が撮影した動画のファイルから静止画を抽出可能な第1動画モードを有する制御部と、を備える撮像装置の撮像方法であって、第1動画モードにおいて、方向検出部が撮像装置の重力方向に対する方向変化が起きたか否か判断する判断ステップと、第1動画モードにおいて方向変化が起きたと判断された場合、制御部が動画を分割して第1動画と第2動画を生成する動画生成ステップと、第1動画の第1動画ファイルを、記憶部の第1フォルダに保存し、第2動画の第2動画ファイルを記憶部の第2フォルダに保存する動画保存ステップと、を有する。第15の態様に係る撮像方法によれば、第1の態様と同様に撮影した動画からユーザが所望のフレームを容易に選択することができる。なお、第15の態様において第2の態様から第14の態様と同様の構成をさらに備えていてもよい。 To achieve the above-described object, an imaging method according to a fifteenth aspect of the present invention includes a direction detection unit for detecting the direction of an imaging device with respect to the direction of gravity, an imaging unit for capturing a moving image, and a moving image captured by the imaging unit. and a control unit having a first moving image mode capable of extracting a still image from a file, wherein, in the first moving image mode, the direction detection unit changes the direction of the image capturing device with respect to the direction of gravity. a determining step of determining whether or not a direction change has occurred in the first moving image mode, a moving image generating step of dividing the moving image by the control unit to generate a first moving image and a second moving image; and a first moving image and a moving image saving step of saving the first moving image file of the above in a first folder of the storage unit, and saving the second moving image file of the second moving image in a second folder of the storage unit. According to the imaging method according to the fifteenth aspect, the user can easily select a desired frame from the captured moving image as in the first aspect. Note that the fifteenth aspect may further include the same configuration as those of the second to fourteenth aspects.

上述した目的を達成するため、本発明の第16の態様に係るプログラムは、重力方向に対する撮像装置の方向を検出する方向検出部と、動画を撮影する撮影部と、撮影部が撮影した動画のファイルから静止画を抽出可能な第1動画モードを有する制御部と、を備える撮像装置を動作させるプログラムであって、第1動画モードにおいて、方向検出部が撮像装置の重力方向に対する方向変化が起きたか否か判断させ、第1動画モードにおいて方向変化が起きたと判断された場合、制御部が動画を分割して第1動画と第2動画を生成させ、第1動画の第1動画ファイルを記憶部の第1フォルダに保存させ、第2動画の第2動画ファイルを記憶部の第2フォルダに保存させる、プログラムである。第16の態様に係るプログラムによれば、第1,第15の態様と同様に、撮影した動画からユーザが所望のフレームを容易に選択することができる。なお、第16の態様において第2の態様から第14の態様と同様の構成をさらに備えていてもよい。また、これら態様のプログラムは、コンピュータ読み取り可能なコードを記録した非一時的記録媒体に記録されていてもよい。 To achieve the above-described object, a program according to a sixteenth aspect of the present invention includes: a direction detection unit that detects the direction of an imaging device with respect to the direction of gravity; a shooting unit that shoots a moving image; and a control unit having a first moving image mode capable of extracting a still image from a file. If it is determined that a direction change has occurred in the first moving image mode, the control unit divides the moving image to generate a first moving image and a second moving image, and stores the first moving image file of the first moving image. a second moving image file of a second moving image in a second folder of a storage unit. According to the program according to the sixteenth aspect, the user can easily select a desired frame from the captured moving image, as in the first and fifteenth aspects. Note that the sixteenth aspect may further include the same configuration as those of the second to fourteenth aspects. Also, the programs of these aspects may be recorded in a non-temporary recording medium recording computer-readable codes.

以上説明したように、本発明の撮像装置、撮像方法、及びプログラムによれば、撮影した動画からユーザが所望のフレームを容易に選択することができる。 As described above, according to the imaging apparatus, imaging method, and program of the present invention, a user can easily select a desired frame from a captured moving image.

図1は、第1の実施形態に係るカメラの構成を示す図である。FIG. 1 is a diagram showing the configuration of a camera according to the first embodiment. 図2は、画像処理装置の機能構成を示す図である。FIG. 2 is a diagram showing the functional configuration of the image processing apparatus. 図3は、カメラの座標系を示す図である。FIG. 3 is a diagram showing the coordinate system of the camera. 図4は、姿勢判定と動画分割の例を示す図である。FIG. 4 is a diagram illustrating an example of posture determination and moving image division. 図5は、撮像方法の処理を示すフローチャートである。FIG. 5 is a flow chart showing the processing of the imaging method. 図6は、カメラの姿勢変化と動画の分割及び保存の様子を示す図である。6A and 6B are diagrams showing changes in the posture of the camera and how the moving image is divided and saved. 図7は、フォルダ構成の例を示す図である。FIG. 7 is a diagram showing an example of a folder structure. 図8は、フォルダ構成の例を示す他の図である。FIG. 8 is another diagram showing an example of the folder structure. 図9は、縦動画及び横動画のアイコン表示の例を示す図である。FIG. 9 is a diagram showing an example of icon display for a vertical video and a horizontal video. 図10は、縦動画及び横動画にサムネイル画像を付した様子を示す図である。FIG. 10 is a diagram showing how thumbnail images are attached to a vertical moving image and a horizontal moving image. 図11は、撮像方法の処理を示す他のフローチャートである。FIG. 11 is another flow chart showing the processing of the imaging method. 図12は、姿勢判定と動画分割の他の例を示す図である。FIG. 12 is a diagram showing another example of posture determination and moving image division. 図13は、姿勢判定と動画分割のさらに他の例を示す図である。FIG. 13 is a diagram showing still another example of posture determination and moving image division. 図14は、姿勢判定と動画分割のさらに他の例を示す図である。FIG. 14 is a diagram showing still another example of posture determination and moving image division. 図15は、姿勢判定と動画分割のさらに他の例を示す図である。FIG. 15 is a diagram showing still another example of posture determination and moving image division. 図16は、撮像方法の処理を示すさらに他のフローチャートである。FIG. 16 is still another flow chart showing the processing of the imaging method. 図17は、撮像方法の処理を示すさらに他のフローチャートである。FIG. 17 is still another flow chart showing the processing of the imaging method. 図18は、第1モード及び第2モードにおける動画記録の処理を示すフローチャートである。FIG. 18 is a flow chart showing processing of moving image recording in the first mode and the second mode. 図19は、第1モード及び第2モードにおける動画記録の処理を示すフローチャート(図18の続き)である。FIG. 19 is a flowchart (a continuation of FIG. 18) showing the moving image recording process in the first mode and the second mode. 図20は、静止画として抽出するフレームを選択する様子を示す図である。FIG. 20 is a diagram showing how a frame to be extracted as a still image is selected. 図21は、第2の実施形態に係るスマートフォンの外観図である。FIG. 21 is an external view of a smartphone according to the second embodiment. 図22は、第2の実施形態に係るスマートフォンの構成を示すブロック図である。FIG. 22 is a block diagram showing the configuration of the smartphone according to the second embodiment. 図23は、第2の実施形態に係るスマートフォンの姿勢を示す図である。FIG. 23 is a diagram illustrating the posture of the smartphone according to the second embodiment; 図24は、角度によるスマートフォンの姿勢判定の様子を示す図である。FIG. 24 is a diagram illustrating how the orientation of the smartphone is determined based on the angle.

以下、添付図面を参照しつつ、本発明に係る撮像装置、撮像方法、及びプログラムを実施するための形態について詳細に説明する。 DETAILED DESCRIPTION OF THE INVENTION Modes for carrying out an imaging apparatus, an imaging method, and a program according to the present invention will be described in detail below with reference to the accompanying drawings.

<第1の実施形態>
<撮像装置の全体構成>
図1は第1の実施形態に係るカメラ10(撮像装置)の構成を示す図である。カメラ10は交換レンズ100(撮影部、撮像装置)及び撮像装置本体200(撮像装置)により構成され、後述するズームレンズ110を含む撮影レンズにより被写体像(光学像)を撮像素子210に結像させる。交換レンズ100と撮像装置本体200とは、図示せぬマウントを介して装着及び取り外しすることができる。
<First embodiment>
<Overall Configuration of Imaging Device>
FIG. 1 is a diagram showing the configuration of a camera 10 (imaging device) according to the first embodiment. The camera 10 is composed of an interchangeable lens 100 (image pickup unit, image pickup device) and an image pickup device main body 200 (image pickup device). . The interchangeable lens 100 and the imaging device main body 200 can be attached and detached via a mount (not shown).

<交換レンズの構成>
交換レンズ100は、ズームレンズ110と、フォーカスレンズ120と、絞り130と、レンズ駆動部140とを備える。レンズ駆動部140は、画像処理装置240(図2のレンズ駆動制御部240F)からの指令に応じてズームレンズ110、フォーカスレンズ120を進退駆動してズーム(光学ズーム)調整、フォーカス調整を行う。ズーム調整及びフォーカス調整は、画像処理装置240からの指令に応じて行う他に、ユーザが行ったズーム操作、フォーカス操作(図示せぬズームリング、フォーカスリングの回動等)に応じて行ってもよい。また、レンズ駆動部140は画像処理装置240からの指令に応じて絞り130を制御し、露出を調整する。一方、ズームレンズ110及びフォーカスレンズ120の位置、絞り130の開放度等の情報が画像処理装置240に入力される。なお、交換レンズ100は光軸Lを有する。
<Configuration of Interchangeable Lens>
The interchangeable lens 100 includes a zoom lens 110 , a focus lens 120 , an aperture 130 and a lens driver 140 . The lens driving unit 140 advances and retreats the zoom lens 110 and the focus lens 120 according to a command from the image processing device 240 (lens driving control unit 240F in FIG. 2) to perform zoom (optical zoom) adjustment and focus adjustment. Zoom adjustment and focus adjustment may be performed in response to a command from the image processing device 240, or may be performed in response to a zoom operation or focus operation (rotation of a zoom ring or focus ring (not shown), etc.) performed by the user. good. Also, the lens drive unit 140 controls the aperture 130 according to a command from the image processing device 240 to adjust the exposure. On the other hand, information such as the positions of the zoom lens 110 and the focus lens 120 and the opening degree of the diaphragm 130 is input to the image processing device 240 . Note that the interchangeable lens 100 has an optical axis L. As shown in FIG.

<撮像装置本体の構成>
撮像装置本体200は、撮像素子210(撮影部)、AFE220(AFE:Analog FrontEnd、撮影部)、A/D変換器230(A/D:Analog toDigital、撮影部)、画像処理装置240、操作部250、記憶部260、モニタ270、及び姿勢センサ280(方向検出部)を備える。撮像装置本体200は、撮像素子210に透過させる光を遮光するためのシャッター(不図示)を有していてもよい。撮像素子210は、多数の受光素子がマトリクス状に配列された受光面を備える。そして、ズームレンズ110、フォーカスレンズ120、及び絞り130を透過した被写体光が撮像素子210の受光面上に結像され、各受光素子によって電気信号に変換される。撮像素子210の受光面上にはR(赤),G(緑),又はB(青)のカラーフィルタが設けられており、各色の信号に基づいて被写体のカラー画像を取得することができる。なお、撮像素子210としては、CMOS(Complementary Metal-OxideSemiconductor)、CCD(Charge-Coupled Device)等の様々な光電変換素子を用いることができる。AFE220は撮像素子210から出力されるアナログ画像信号のノイズ除去、増幅等を行い、A/D変換器230は、取り込んだアナログ画像信号を階調幅があるデジタル画像信号に変換する。
<Structure of imaging device body>
The imaging device main body 200 includes an imaging element 210 (imaging unit), an AFE 220 (AFE: Analog Front End, imaging unit), an A/D converter 230 (A/D: Analog to Digital, imaging unit), an image processing device 240, and an operation unit. 250, a storage unit 260, a monitor 270, and an orientation sensor 280 (direction detection unit). The imaging device main body 200 may have a shutter (not shown) for blocking light to be transmitted through the imaging element 210 . The imaging element 210 has a light receiving surface in which a large number of light receiving elements are arranged in a matrix. Subject light transmitted through the zoom lens 110, the focus lens 120, and the diaphragm 130 forms an image on the light receiving surface of the imaging element 210, and is converted into an electric signal by each light receiving element. A color filter of R (red), G (green), or B (blue) is provided on the light receiving surface of the imaging device 210, and a color image of the subject can be acquired based on the signals of each color. As the imaging element 210, various photoelectric conversion elements such as CMOS (Complementary Metal-Oxide Semiconductor) and CCD (Charge-Coupled Device) can be used. The AFE 220 removes noise and amplifies the analog image signal output from the imaging device 210, and the A/D converter 230 converts the captured analog image signal into a digital image signal having a gradation range.

<画像処理装置の構成>
図2は、画像処理装置240の機能構成を示す図である。画像処理装置240は、画像取得部240A、方向検出部240B(方向検出部)、制御部240C(制御部)、イベント検出部240D(イベント検出部)、静止画抽出部240E(静止画抽出部)、及びレンズ駆動制御部240F(レンズ駆動制御部)を備える。制御部240Cはユーザの指示を受け付ける受付部を有し、この受付部は操作部250を介したユーザの指示を受け付けることができる。そして、画像処理装置240は、A/D変換器230から入力されたデジタル画像信号に基づいて動画の撮影及びファイル生成、静止画ファイル生成、動画を構成する複数のフレームに対する処理、静止画の抽出等の処理を行う。画像処理装置240による処理の詳細は後述する。
<Configuration of image processing apparatus>
FIG. 2 is a diagram showing the functional configuration of the image processing device 240. As shown in FIG. The image processing device 240 includes an image acquisition section 240A, a direction detection section 240B (direction detection section), a control section 240C (control section), an event detection section 240D (event detection section), and a still image extraction section 240E (still image extraction section). , and a lens drive control section 240F (lens drive control section). The control unit 240</b>C has a reception unit that receives user instructions, and this reception unit can receive user instructions via the operation unit 250 . Then, based on the digital image signal input from the A/D converter 230, the image processing device 240 shoots a moving image, generates a file, generates a still image file, processes a plurality of frames constituting a moving image, and extracts a still image. etc. are processed. Details of the processing by the image processing device 240 will be described later.

画像処理装置240の機能は、各種のプロセッサ(processor)を用いて実現できる。各種のプロセッサには、例えばソフトウェア(プログラム)を実行して各種の機能を実現する汎用的なプロセッサであるCPU(Central ProcessingUnit)が含まれる。また、上述した各種のプロセッサには、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)も含まれる。さらに、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路なども上述した各種のプロセッサに含まれる。 The functions of the image processing device 240 can be implemented using various processors. Various processors include, for example, a CPU (Central Processing Unit), which is a general-purpose processor that executes software (programs) to realize various functions. In addition, the above-mentioned various processors include GPUs (Graphics Processing Units), which are processors specialized for image processing, and FPGAs (Field Programmable Gate Arrays), which are processors whose circuit configuration can be changed after manufacturing. Programmable Logic Devices (PLDs) are also included. Furthermore, a dedicated electric circuit, which is a processor having a circuit configuration specially designed for executing specific processing such as ASIC (Application Specific Integrated Circuit), is also included in the various processors described above.

上述したプロセッサあるいは電気回路がソフトウェア(プログラム)を実行する際は、実行するソフトウェアのプロセッサ(コンピュータ)読み取り可能なコードをROM(Read Only Memory)等の非一時的記録媒体に記憶しておく。そして、プロセッサがそのソフトウェアを参照する。非一時的記録媒体に記憶しておくソフトウェアは、本発明に係る撮像方法を実行するためのプログラム(本発明に係る、撮像装置を動作させるプログラム)を含む。ROMではなく各種光磁気記録装置、半導体メモリ等の非一時的記録媒体にコードを記録してもよい。ソフトウェアを用いた処理の際には例えばRAM(Random Access Memory)が一時的記憶領域として用いられ、また例えば不図示のEEPROM(Electronically Erasable and Programmable Read Only Memory)に記憶されたデータを参照することもできる。 When the processor or electric circuit described above executes software (program), the processor (computer) readable code of the software to be executed is stored in a non-temporary recording medium such as a ROM (Read Only Memory). The processor then references that software. The software stored in the non-temporary recording medium includes a program for executing the imaging method according to the invention (a program for operating the imaging device according to the invention). Codes may be recorded in non-temporary recording media such as magneto-optical recording devices and semiconductor memories instead of ROMs. When processing using software, for example, RAM (Random Access Memory) is used as a temporary storage area, and data stored in EEPROM (not shown) can also be referred to. can.

画像処理装置240は、上述の各部の他にROM242を備える。ROM242には、画像の撮影、記録、表示等に必要なプログラム(本発明に係る撮像方法を実行するためのプログラムを含む)のコンピュータ読み取り可能なコードが記録される。 The image processing device 240 includes a ROM 242 in addition to the above units. The ROM 242 stores computer-readable codes of programs necessary for photographing, recording, displaying images, etc. (including programs for executing the imaging method according to the present invention).

<操作部>
操作部250は図示せぬレリーズボタン、操作用ボタン(例えば十字ボタン、Quickボタン、OKボタン等)、ダイヤル、スイッチ等を有し、ユーザは撮影モード設定、動画撮影指示、静止画抽出指示等、各種の操作を行うことができる。なお、モニタ270(タッチパネル型)を操作部250として使用してもよい。
<Operation part>
The operation unit 250 has a release button (not shown), operation buttons (for example, cross button, Quick button, OK button, etc.), dials, switches, etc., and the user can set the shooting mode, instruct movie shooting, extract still images, etc. Various operations can be performed. Note that the monitor 270 (touch panel type) may be used as the operation unit 250 .

<記憶部>
記憶部260(記憶部)は各種の光磁気記録媒体、半導体メモリ等の非一時的記録媒体及びその制御回路により構成され、動画、静止画、動画から抽出した静止画等を保存する。記録媒体は撮像装置本体200に対し着脱できるタイプを用いることができる。撮影した画像(動画、静止画)を例えば無線通信により外部の記録媒体(記憶部)に送信して保存してもよい。
<Memory unit>
The storage unit 260 (storage unit) is composed of non-temporary recording media such as various magneto-optical recording media and semiconductor memories, and their control circuits, and stores moving images, still images, still images extracted from moving images, and the like. A recording medium that can be attached to and detached from the imaging apparatus main body 200 can be used. A captured image (moving image, still image) may be transmitted to and stored in an external recording medium (storage unit), for example, by wireless communication.

<モニタ及びファインダ>
モニタ270(表示装置)はタッチパネル型の液晶表示パネルにより構成され、動画、静止画、静止画抽出用フレーム等を表示することができる。モニタ270は撮像装置本体200の背面側、天面側等に配置することができる。また、カメラ10はファインダを備えていてもよい。
<Monitor and viewfinder>
The monitor 270 (display device) is configured by a touch panel type liquid crystal display panel, and can display moving images, still images, still image extraction frames, and the like. The monitor 270 can be arranged on the back side, the top side, or the like of the imaging device body 200 . Also, the camera 10 may have a viewfinder.

<撮影モード>
カメラ10は撮影モードとして静止画撮影モード、静止画抽出用動画撮影モード(第1動画モード)、通常動画撮影モード(第2動画モード)のいずれかを設定することができる。静止画撮影モード、通常動画撮影モードは通常のデジタルカメラと同様のモードである。一方、静止画抽出用動画撮影モードは動画のファイルから静止画を抽出可能なモードであり、通常動画撮影モードと撮影条件が異なる動画(動画自体の鑑賞よりも静止画の抽出を重視した撮影条件の動画)を撮影する。具体的には、静止画抽出用動画撮影モードでは、通常動画撮影モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、ホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、かつ/又は通常動画撮影モードに対してフレームレートが高く設定される。また、解像度及びフレームレートはカメラ10で設定可能な最高値(例えば4,000×2,000画素、30フレーム/秒)に設定され、色調も静止画抽出を前提として設定される。ISO感度の上限も通常動画撮影モードより高くする。
<Shooting mode>
The camera 10 can set any one of a still image shooting mode, a moving image shooting mode for still image extraction (first moving image mode), and a normal moving image shooting mode (second moving image mode) as a shooting mode. A still image shooting mode and a normal moving image shooting mode are modes similar to those of a normal digital camera. On the other hand, the movie shooting mode for extracting still images is a mode that allows you to extract still images from movie files. movies). Specifically, in the movie shooting mode for still image extraction, at least one of the shutter speed, autofocus speed, automatic exposure follow-up speed, and white balance follow-up speed is set to be faster than in the normal movie shooting mode, and/or the frame rate is set higher than the normal moving image shooting mode. Also, the resolution and frame rate are set to the maximum values that can be set by the camera 10 (eg, 4,000×2,000 pixels, 30 frames/second), and the color tone is also set on the premise of still image extraction. The upper limit of the ISO sensitivity is also set higher than in the normal movie shooting mode.

例えばシャッタースピードに関しては、通常動画撮影モードでは記録する動画のフレームレートに対応した値(フレームレートが30フレーム/秒の場合、1/30秒)に設定される。一方、静止画抽出用動画モードではフレーム間隔よりも高速(例えば、1/30秒未満)に設定される。通常動画撮影モードでは、滑らかな動画が再生されるようにシャッタースピードが動画のフレームレートに対応した値に設定されるが、この場合動く被写体に対してはブレが生じる可能性がある。このため、静止画抽出用動画撮影モードではシャッタースピードを通常動画撮影モードよりも高速(フレーム間隔よりも高速)に設定しており、これにより被写体のブレが少ない高画質な静止画を抽出することが可能になる。同様に、ISO感度(ISO:International Organizationfor Standardization)の上限を高くすることでシャッタースピードを高速化でき、これによりブレが少ない静止画を抽出することができる。また、オートフォーカスの速度,自動露出の追従速度やオートホワイトバランスの追従速度等が通常動画撮影モードよりも高速に設定される。これによって、被写体に合焦したフレーム、露出が適正なフレーム等を多く取得することができる。フレームレートについても、高レートに設定することで動画のフレーム間隔が短くなり、静止画として抽出できるフレームが増加する。 For example, the shutter speed is set to a value corresponding to the frame rate of the moving image to be recorded in the normal moving image shooting mode (1/30 second if the frame rate is 30 frames/second). On the other hand, in the moving image mode for still image extraction, the frame interval is set to be faster (for example, less than 1/30 second). In normal movie shooting mode, the shutter speed is set to a value corresponding to the frame rate of the movie so that the movie can be reproduced smoothly. For this reason, in the movie shooting mode for extracting still images, the shutter speed is set faster than in the normal movie shooting mode (faster than the frame interval). becomes possible. Similarly, by increasing the upper limit of ISO sensitivity (ISO: International Organization for Standardization), the shutter speed can be increased, thereby extracting a still image with less blurring. Further, the speed of autofocus, the follow-up speed of automatic exposure, the follow-up speed of auto white balance, etc. are set faster than in the normal moving image shooting mode. As a result, it is possible to obtain many frames in which the subject is in focus, frames with appropriate exposure, and the like. As for the frame rate, by setting a high rate, the frame interval of moving images becomes shorter, and the number of frames that can be extracted as still images increases.

上述した静止画抽出用動画撮影モードによれば、動画を構成するフレームを事後的に静止画として抽出することができる。よって、ユーザはいつ発生するか分からないイベント(自然現象やアクシデント、ハプニング等)の写真、時間の経過と共に状態が変化する被写体や動きのある被写体の瞬間的な状態の写真等を容易に撮影することができる。この際、詳細を後述するように、静止画の記録を指示したタイミングだけでなくその他のタイミングについても静止画を抽出できる。よって、ユーザは所望のタイミングの静止画を取得することができる。また、静止画抽出に適した撮影条件(上述したシャッタースピード、解像度、フレームレート等)を設定することにより高画質の静止画を抽出することができる。なお、このような静止画の事後的抽出に加えて、静止画抽出用動画撮影モード及び通常動画撮影モードにおいては、動画撮影中に静止画を撮影(保存)することができる。 According to the moving image shooting mode for still image extraction described above, the frames constituting the moving image can be extracted as still images afterward. Therefore, the user can easily take a photograph of an event (natural phenomenon, accident, happening, etc.) whose occurrence is unknown at any time, a photograph of a subject whose state changes with the passage of time, or a photograph of an instantaneous state of a moving subject. be able to. At this time, as will be described later in detail, still images can be extracted not only at the timing when the still image recording is instructed, but also at other timings. Therefore, the user can obtain a still image at desired timing. Also, high-quality still images can be extracted by setting shooting conditions suitable for still image extraction (shutter speed, resolution, frame rate, etc. described above). In addition to such post-extraction of still images, still images can be captured (saved) during moving image capturing in the moving image capturing mode for still image extraction and the normal moving image capturing mode.

<カメラの姿勢>
図3はカメラ10に対して規定される座標系の例を示す図である。図3に示す例では、X軸が光軸方向(被写体に向かう方向)、Z軸が撮像装置本体200の上方に向かう方向であり、(X軸,Y軸,Z軸)で右手系の座標系を構成する。カメラ10が縦位置(カメラ10の上面及び底面が鉛直方向と平行)であるか横位置(カメラ10の上面及び底面が地面と平行)であるかは、例えばX軸周りの角度(撮像装置本体200の上面及び底面が地面と平行の状態で0degとする)で判断することができる。図4はX軸周りの角度と姿勢(縦又は横)の関係の例を示す図である。方向検出部240B(方向検出部)は角度が(-45deg以上+45deg以下)、及び(+135deg以上+225deg以下)の範囲である場合に「横」と判定し、それ以外の場合に「縦」と判定することができる。上述のようにカメラ10は姿勢センサ280(例えば、3軸方向の加速度を測定する加速度センサ;図1参照)を備えているので、方向検出部240Bは、姿勢センサ280の測定結果に基づいてカメラ10の姿勢(重力方向に対する方向)を検出することができる。
<Position of camera>
FIG. 3 is a diagram showing an example of a coordinate system defined for the camera 10. As shown in FIG. In the example shown in FIG. 3, the X-axis is the direction of the optical axis (the direction toward the subject), the Z-axis is the direction toward the top of the imaging device body 200, and (X-axis, Y-axis, Z-axis) is a right-handed coordinate system. construct the system. Whether the camera 10 is in the vertical position (the top and bottom surfaces of the camera 10 are parallel to the vertical direction) or in the horizontal position (the top and bottom surfaces of the camera 10 are parallel to the ground) depends on, for example, the angle around the X-axis (imaging device main body 200 is set to 0 degrees when the top and bottom surfaces are parallel to the ground). FIG. 4 is a diagram showing an example of the relationship between the angle about the X-axis and the posture (vertical or horizontal). The direction detection unit 240B (direction detection unit) determines “horizontal” when the angle is in the range of (−45 deg to +45 deg) and (+135 deg to +225 deg), and otherwise determines “vertical”. can do. As described above, the camera 10 includes the orientation sensor 280 (for example, an acceleration sensor that measures acceleration in three axial directions; see FIG. 1). Ten poses (orientations relative to the direction of gravity) can be detected.

なお、図4に示す角度の範囲は一例であり、これと異なる範囲で姿勢を判定してもよい。例えば方向検出部240Bは角度が(-30deg以上+30deg以下)、及び(+150deg以上+210deg以下)の範囲である場合に「横」と判定し、それ以外の場合に「縦」と判定してもよい。 Note that the range of angles shown in FIG. 4 is an example, and the posture may be determined in a different range. For example, the direction detection unit 240B may determine "horizontal" when the angle is in the range of (-30deg or more +30deg or less) and (+150deg or more +210deg or less), and otherwise determine "vertical". .

<静止画抽出用動画撮影モードにおける処理>
上述した構成のカメラ10における撮像方法について説明する。図5は、静止画抽出用動画撮影モードにおける処理を示すフローチャートである。例えば操作部250の図示せぬモードダイヤルの操作によりカメラ10が静止画抽出用動画撮影モードになる。そして、制御部240Cは、撮影部(交換レンズ100、撮像素子210、AFE220、A/D変換器230)を第1動画モードに設定する。そして、図5の処理が開始され、制御部240Cは、カメラ10の状態を初期化(ライブビュー画像の取得及び表示、姿勢の初期化、姿勢判定の開始等)する(ステップS100:初期化ステップ)。
<Processing in Movie Shooting Mode for Still Image Extraction>
An imaging method in the camera 10 having the above configuration will be described. FIG. 5 is a flow chart showing the processing in the moving image shooting mode for still image extraction. For example, by operating a mode dial (not shown) of the operation unit 250, the camera 10 enters a moving image shooting mode for still image extraction. Then, the control unit 240C sets the photographing unit (interchangeable lens 100, image sensor 210, AFE 220, A/D converter 230) to the first moving image mode. Then, the processing of FIG. 5 is started, and the control unit 240C initializes the state of the camera 10 (acquisition and display of the live view image, initialization of orientation, start of orientation determination, etc.) (step S100: initialization step ).

<動画記録開始指示>
制御部240Cは動画記録開始指示がされたか否かを判断する(ステップS110:撮影ステップ、動画生成ステップ)。例えば操作部250の図示せぬレリーズボタンが押し下げされた場合に「動画記録開始指示がされた」と判断することができる。判断が肯定されるとステップS120へ進む。
<Video recording start instruction>
The control unit 240C determines whether or not a moving image recording start instruction has been issued (step S110: photographing step, moving image generating step). For example, when a release button (not shown) of the operation unit 250 is pressed, it can be determined that "a moving image recording start instruction has been given." If the determination is affirmative, the process proceeds to step S120.

<姿勢の判定>
方向検出部240Bは、姿勢センサ280の出力に基づいてカメラ10(撮像装置)の姿勢(重力方向に対する方向)を検出する(ステップS120:姿勢検出ステップ、判断ステップ)。図3,4について上述したように、方向検出部240Bは、X軸周りの角度により姿勢が「縦」、「横」、「不定」のいずれであるかを判定する。姿勢が「不定」には、ユーザがカメラ10を地面や空に向けて構えている場合のように、Y軸周りの角度が大きく「縦」又は「横」を特定できない状態を含めることができる。なお、方向検出部240Bは、カメラ10の「不定」状態を検出しなくてもよい。
<Determination of Posture>
The orientation detection unit 240B detects the orientation (direction relative to the direction of gravity) of the camera 10 (imaging device) based on the output of the orientation sensor 280 (step S120: orientation detection step, judgment step). As described above with reference to FIGS. 3 and 4, the direction detection unit 240B determines whether the posture is “vertical”, “horizontal”, or “undefined” based on the angle about the X-axis. The "undefined" posture can include a state in which the angle around the Y-axis is large and "vertical" or "horizontal" cannot be specified, such as when the user holds the camera 10 facing the ground or the sky. . Note that the direction detection unit 240B does not have to detect the “undefined” state of the camera 10 .

<姿勢に応じたフォルダへの記録>
ステップS120でカメラ10の姿勢が「横」又は「不定」と判断された場合、制御部240Cは撮影した動画を圧縮して新たな動画ファイルとする。そして制御部240Cは、記憶部260の横動画用フォルダ(第1フォルダ)に動画ファイルの記録(保存)を開始する(ステップS130:動画保存ステップ)。動画の圧縮は、例えばMPEG形式(MPEG2、MPEG4等)で行うことができる。一方、カメラ10の姿勢が「縦」と判断された場合、制御部240Cは横動画用フォルダとは別の縦動画用フォルダ(第2フォルダ)に動画ファイルの記録(保存)を開始する(ステップS140:動画保存ステップ)。カメラ10に設けられた図示せぬマイクロフォンにより音声を合わせて収録及び保存してもよい。なお、「横動画」、「縦動画」は、それぞれ姿勢が横又は不定の場合、縦の場合の動画であり、「横動画用フォルダ」、「縦動画用フォルダ」はそれぞれ横動画、縦動画を保存するフォルダである。
<Recording to folder according to posture>
If it is determined in step S120 that the orientation of the camera 10 is "horizontal" or "undefined", the control unit 240C compresses the captured moving image and creates a new moving image file. Then, the control unit 240C starts recording (saving) the moving image file in the horizontal moving image folder (first folder) of the storage unit 260 (step S130: moving image saving step). Moving images can be compressed, for example, in MPEG format (MPEG2, MPEG4, etc.). On the other hand, when the orientation of the camera 10 is determined to be "vertical", the control unit 240C starts recording (saving) a moving image file in a vertical moving image folder (second folder) different from the horizontal moving image folder (step S140: moving picture saving step). A microphone (not shown) provided in the camera 10 may be used to record and store sounds together. In addition, "horizontal video" and "vertical video" are videos when the posture is horizontal or indefinite and vertical, respectively. is a folder to save .

<姿勢が不定の場合の扱い>
なお、図5のフローチャートでは「姿勢が横から不定に変化した場合」及び「不定から横に変化した場合」は同一フォルダ及び同一ファイルでの記録を継続する。そして、「姿勢が縦から不定に変化した場合」及び「不定から縦に変化した場合」は、「姿勢が変化した」と判断して動画の分割及び別フォルダへの記録を行う態様について説明している。しかしながら姿勢が不定の場合に縦動画用フォルダに記録してもよいし、横動画用フォルダ及び縦動画用フォルダとは別のフォルダに記録してもよい(後述する他の態様を参照)。
<Treatment when posture is indeterminate>
In addition, in the flowchart of FIG. 5, recording in the same folder and the same file is continued in "when the attitude changes from horizontal to undefined" and "when the attitude changes from undefined to horizontal". Then, "when the posture changes from vertical to indefinite" and "when the posture changes from indefinite to vertical", it is determined that "the posture has changed", and the video is divided and recorded in a separate folder. ing. However, when the posture is indefinite, it may be recorded in the vertical video folder, or may be recorded in a folder different from the horizontal video folder and the vertical video folder (see other modes described later).

方向検出部240Bは動画の撮影と並行してカメラ10の姿勢検出を継続し、「カメラ10(撮像装置)の重力方向に対する方向変化が起きたか否か」を判断する(ステップS170:判断ステップ)。「方向変化が起きたか否か」は姿勢センサ280の出力(例えば、3軸方向の加速度)に基づいて判断することができる。方向検出部240Bが「方向変化が起きた」と判断した場合、具体的には「カメラ10の姿勢が「横又は不定」と「縦」との間で変化した」と判断した場合(ステップS170でYes)は、制御部240Cは記録中の動画ファイルをクローズして動画を分割する(ステップS180:動画生成ステップ)。そして、ステップS190の判断を否定してステップS120に戻る。 The direction detection unit 240B continues to detect the orientation of the camera 10 in parallel with the moving image shooting, and determines "whether or not the direction of the camera 10 (imaging device) has changed with respect to the direction of gravity" (step S170: determination step). . “Whether or not a direction change has occurred” can be determined based on the output of the attitude sensor 280 (for example, acceleration in three axial directions). If the direction detection unit 240B determines that "a direction change has occurred", specifically, if it determines that "the orientation of the camera 10 has changed between 'horizontal or undefined' and 'vertical'" (step S170). Yes), the control unit 240C closes the moving image file being recorded and divides the moving image (step S180: moving image generating step). Then, the determination in step S190 is denied and the process returns to step S120.

戻ってきたステップS120では、制御部240Cは動画ファイルの記録開始時と同様にカメラ10の姿勢が「縦」、「横」、及び、「不定」のいずれであるかを判断する。そして、制御部240Cは、その結果に応じて、分割に係る新たな動画ファイルを記憶部260の横動画用フォルダ又は縦動画用フォルダに保存する。例えば、カメラ10の姿勢が記録開始時の「横」から「縦」に変化した場合、制御部240Cは、記録開始時は横動画用フォルダに動画ファイル(第1動画の第1動画ファイル)を保存し、姿勢変化に起因して生成された新たな動画ファイル(第2動画の第2動画ファイル)を縦動画用フォルダに保存する。なお、ステップS170において、カメラの姿勢が再度変化した場合(ステップS170でYes)に、動画はクローズしなくてもよい。カメラの姿勢変化が起きるたびに、繰り返して動画を分割すると、動画のファイル数が増えすぎてしまうからである。 In the returned step S120, the control unit 240C determines whether the orientation of the camera 10 is "vertical", "horizontal", or "undefined", as at the start of recording the moving image file. Then, the control unit 240C saves the new moving image file related to the division in the horizontal moving image folder or the vertical moving image folder of the storage unit 260 according to the result. For example, when the orientation of the camera 10 changes from “horizontal” at the start of recording to “vertical”, the control unit 240C stores a moving image file (the first moving image file of the first moving image) in the horizontal moving image folder at the start of recording. A new moving image file (second moving image file of the second moving image) generated due to the posture change is stored in the vertical moving image folder. It should be noted that, in step S170, when the orientation of the camera changes again (Yes in step S170), the moving image does not have to be closed. This is because if the moving image is repeatedly divided each time the camera posture changes, the number of moving image files will increase too much.

画像取得部240A、方向検出部240B、及び制御部240Cは、このようなカメラ10の姿勢に応じた動画の分割及び動画ファイルの保存を、動画撮影終了まで(ステップS190の判断がNoの間)継続して行う。方向検出部240B及び制御部240Cは、第1動画ファイル及び第2動画ファイルに対しカメラ10の姿勢(重力方向に対する方向)に関する情報を付与しておき、動画ファイルのアイコン表示や動画再生の際等に参照できるようにすることが好ましい。方向検出部240B及び制御部240Cは、カメラ10の姿勢に関する情報をヘッダやフッタに記録することができる。例えば、縦の場合は“01”、横の場合は“02”、その他(斜め、不定等)は“03”とすることができる。 The image acquisition unit 240A, the direction detection unit 240B, and the control unit 240C continue dividing the moving image and saving the moving image file according to the orientation of the camera 10 until the end of the moving image shooting (while the determination in step S190 is No). continue. The direction detection unit 240B and the control unit 240C add information about the attitude of the camera 10 (direction with respect to the direction of gravity) to the first moving image file and the second moving image file. It is preferable to be able to refer to The direction detection unit 240B and the control unit 240C can record information about the orientation of the camera 10 in the header and footer. For example, it can be "01" for vertical, "02" for horizontal, and "03" for others (oblique, indeterminate, etc.).

なお、図6の例のように、カメラ10が横状態から縦状態に移行し縦状態で動画の撮影を終了する場合がある。この場合、第2動画(縦動画;縦状態での動画)の終了タイミングは、制御部240C内にある受付部によるユーザの第2動画終了指示又は動画撮影終了指示の受付に対応する。この受付部は、操作部250を介したユーザの指示を受け付けることができる。同様に、縦状態から再度横状態に移行し横状態で動画の撮影を終了する場合がある。この場合、第1動画(横動画;横状態での動画)の終了タイミングは、受付部によるユーザの第1動画終了指示又は動画撮影終了指示の受付に対応する。これらの動画終了タイミングは、後述する態様においても同様である。 As in the example of FIG. 6, there is a case where the camera 10 shifts from the horizontal state to the vertical state and ends the shooting of the moving image in the vertical state. In this case, the end timing of the second moving image (vertical moving image; moving image in the vertical state) corresponds to reception of the user's second moving image end instruction or moving image shooting end instruction by the reception unit in the control unit 240C. This reception unit can receive a user's instruction via the operation unit 250 . Similarly, there is a case where the vertical state is changed to the horizontal state again, and the shooting of the moving image ends in the horizontal state. In this case, the end timing of the first moving image (horizontal moving image; moving image in horizontal state) corresponds to reception of the user's first moving image end instruction or moving image shooting end instruction by the reception unit. These moving image end timings are the same in the aspects described later.

図6はX軸周りの角度に基づく方向変化の判断例を示す図である。図6の例では、経過時間がゼロからt1の間は姿勢が「横」、経過時間t1の時点で角度が45deg(しきい値)を超えて「縦」と判断されており、これにより経過時間t1で動画が分割されている。制御部240Cは経過時間がゼロからt1までの第1動画の動画ファイル(第1動画ファイル)を横動画用フォルダ(第1フォルダ)に保存し、経過時間t1以降の第2動画の動画ファイル(第2動画ファイル)は縦動画用フォルダ(第2フォルダ)に保存する。なお、カメラ10の姿勢は細かく変動する可能性があるので、姿勢が変化した状態が決められた時間以上継続した時点で「姿勢が変化した」と判断してもよい。なお、図6ではカメラ10の姿勢が横から縦に変化する例を示しているが、縦から横に変化する場合も同様に処理することができる(この場合、縦動画が第1動画、横動画が第2動画となる。また、縦動画用フォルダが第1フォルダ、横動画用フォルダが第2フォルダとなる;他の態様についても同様である)。 FIG. 6 is a diagram showing an example of determining a direction change based on an angle about the X-axis. In the example of FIG. 6, the posture is determined to be "horizontal" during the elapsed time from 0 to t1, and the angle exceeds 45 degrees (threshold value) at the elapsed time t1 and is determined to be "vertical". The moving image is divided at time t1. The control unit 240C saves the moving image file of the first moving image (first moving image file) whose elapsed time is from 0 to t1 in the horizontal moving image folder (first folder), and saves the moving image file of the second moving image after the elapsed time t1 ( second moving image file) is stored in the vertical moving image folder (second folder). It should be noted that, since the attitude of the camera 10 may change minutely, it may be determined that "the attitude has changed" when the state in which the attitude has changed continues for a predetermined time or longer. Note that FIG. 6 shows an example in which the orientation of the camera 10 changes from horizontal to vertical. The moving image becomes the second moving image, the vertical moving image folder becomes the first folder, and the horizontal moving image folder becomes the second folder;

制御部240Cは、カメラ10の姿勢が変化した場合(ステップS170でYes)の他、ステップS150で「動画記録終了指示(動画撮影終了指示)があった」と判断した場合、及びステップS160で「記録メディアの残容量が十分でない」と判断した場合にも動画ファイルをクローズする(ステップS180)。しかし、これらの場合は動画の撮影も終了させる(ステップS190でYes)。ステップS150では、制御部240Cは操作部250の図示せぬレリーズボタンが押し下げされた場合、モニタ270を介した終了指示がされた場合等に「動画記録終了指示がされた」と判断することができる。 The control unit 240C not only changes the posture of the camera 10 (Yes in step S170), but also determines in step S150 that "an instruction to end moving image recording (instruction to end moving image shooting) has been issued", and in step S160 " Also when it is determined that the remaining capacity of the recording medium is not sufficient, the moving image file is closed (step S180). However, in these cases, the moving image shooting is also ended (Yes in step S190). In step S150, the control unit 240C can determine that "an instruction to end moving image recording has been issued" when a release button (not shown) of the operation unit 250 is pressed, or when an end instruction is issued via the monitor 270. can.

第1の実施形態では、このように「静止画抽出用動画撮影モード(第1動画モード)においてカメラ10(撮像装置)の重力方向に対する方向(姿勢)が変化した」と判断された場合は、動画を分割して横動画(第1動画)と縦動画(第2動画)を生成する。そして、横動画の動画ファイル(第1動画ファイル)を横動画用フォルダ(第1フォルダ)に保存し、縦動画の動画ファイル(第2動画ファイル)を縦動画用フォルダ(第2フォルダ)に保存する。 In the first embodiment, when it is determined that "the direction (orientation) of the camera 10 (imaging device) with respect to the direction of gravity has changed in the moving image capturing mode for still image extraction (first moving image mode)", A moving image is divided to generate a horizontal moving image (first moving image) and a vertical moving image (second moving image). Then, save the horizontal video file (first video file) in the horizontal video folder (first folder), and save the vertical video file (second video file) in the vertical video folder (second folder). do.

これによりユーザは各動画を撮影した際のカメラ10の姿勢を容易に識別でき、静止画として抽出したいフレームを含む動画をカメラ10の姿勢を手がかりにして容易に選択することができる。また、ユーザは静止画として抽出するフレームを分割され記録時間が短くなった動画の中で探せばよいので、所望のフレームを迅速に探すことができる。このように、第1の実施形態によれば、撮影した動画からユーザが所望のフレームを容易に選択することができる。 Thereby, the user can easily identify the posture of the camera 10 when each moving image is taken, and can easily select the moving image including the frame to be extracted as a still image by using the posture of the camera 10 as a clue. In addition, the user can search for a frame to be extracted as a still image in a divided moving image whose recording time is shortened, so that a desired frame can be quickly searched. Thus, according to the first embodiment, the user can easily select a desired frame from the captured moving image.

<フォルダ構成の例>
図7は動画を保存するフォルダ構成の例を示す図である。同図の例では、撮影日ごとにフォルダが生成され、撮影日ごとのフォルダ内には撮影番号ごとにフォルダが生成されている。例えば、図5のフローチャートにおいて、ステップS110で動画記録開始が指示されてからステップS190で動画撮影を終了するまでを1つの撮影番号とすることができる。各撮影番号のフォルダに対し、横動画用フォルダと縦動画用フォルダが設けられており、それぞれ横動画、縦動画が保存される。このようなフォルダ構成は、制御部240Cによりモニタ270に表示することができる。
<Example of folder structure>
FIG. 7 is a diagram showing an example of a folder structure for storing moving images. In the example shown in the figure, a folder is generated for each shooting date, and a folder is generated for each shooting number within the folder for each shooting date. For example, in the flowchart of FIG. 5, one photographing number can be set from when the start of moving image recording is instructed in step S110 to when the moving image recording ends in step S190. A horizontal moving image folder and a vertical moving image folder are provided for each shooting number folder, and the horizontal moving image and the vertical moving image are stored, respectively. Such a folder structure can be displayed on the monitor 270 by the control unit 240C.

図8は、横動画用フォルダ(第1フォルダ)と縦動画用フォルダ(第2フォルダ)をそれぞれ横向き、縦向きのアイコンでモニタ270に表示した様子を示している。このようなフォルダ表示の態様によれば、ユーザは縦動画用フォルダと縦動画用フォルダを視覚により容易に把握でき、所望のフレームを容易に選択することができる。 FIG. 8 shows how the folder for horizontal moving images (first folder) and the folder for vertical moving images (second folder) are displayed on the monitor 270 with horizontal and vertical icons, respectively. According to such a folder display mode, the user can easily visually grasp the vertical video folder and the vertical video folder, and can easily select a desired frame.

<動画ファイルのアイコン表示及びファイル名>
図9は動画ファイルのアイコン表示の例を示す図である。同図の(a)部分は、横動画の動画ファイルについて横型アイコンに「横動画」の文字を付して表示した様子を示している。アイコン中の記号はファイルの指定により再生可能であることを示す。同様に、図9の(b)部分は縦動画の動画ファイルについてのアイコン表示の例を示しており、縦型アイコンに「縦動画」の文字を付して表示している。図9の例において、ファイル名はファイル作成日(2018年10月23日)、撮影番号(001)、縦横識別情報(横動画はH(Horizontal)、縦動画はV(Vertical))、ファイル番号(001,002,・・・)、ファイルサイズ(10MB等)、拡張子(ここでは“.mpg”)から構成されている。そして、横動画の動画ファイル(第1動画ファイル)と縦動画の動画ファイル(第2動画ファイル)はファイル名の拡張子を除く一部が共通している。なお、縦横識別情報はカメラ10(撮像装置)の重力方向に対する方向に関する情報の一例である。
<Video file icon display and file name>
FIG. 9 is a diagram showing an example of icon display of a moving image file. Part (a) of the same figure shows a state in which a moving image file of a horizontal moving image is displayed with the characters "horizontal moving image" added to the horizontal icon. A symbol in the icon indicates that the file can be reproduced by specifying the file. Similarly, part (b) of FIG. 9 shows an example of icon display for a moving image file of a vertical moving image, and the vertical icon is displayed with the characters "vertical moving image" added. In the example of FIG. 9, the file name is file creation date (October 23, 2018), shooting number (001), vertical and horizontal identification information (horizontal video is H (Horizontal), vertical video is V (Vertical)), file number (001, 002, . . . ), file size (10 MB, etc.), and extension (here, “.mpg”). The moving image file of the horizontal moving image (first moving image file) and the moving image file of the vertical moving image (second moving image file) are partially common except for the extension of the file name. The vertical/horizontal identification information is an example of information regarding the direction of the camera 10 (imaging device) with respect to the direction of gravity.

ファイル名はファイルの種類を示す情報、ファイル作成日時、及び縦横識別情報を含んでいてもよい。例えば、2018/1/1 12:30に作成した横動画のファイルに対し“IMG201801011230_H.MOV”というファイル名を付与し、2018/1/1 12:40にファイル名を作成した縦動画のファイルに対し“IMG201801011240_H.MOV”というファイル名を付与することができる。ファイル名中、“IMG”は画像ファイルであることを示す情報の一例である。この場合においても、ファイル名はファイルサイズを示す情報を含んでいてもよい。 The file name may include information indicating the file type, file creation date and time, and vertical/horizontal identification information. For example, give the file name "IMG201801011230_H.MOV" to the horizontal video file created at 2018/1/1 12:30, and the vertical video file created at 2018/1/1 12:40 A file name of "IMG201801011240_H.MOV" can be given to the file. "IMG" in the file name is an example of information indicating that the file is an image file. Also in this case, the file name may contain information indicating the file size.

図10はアイコンにサムネイル画像を表示した様子を示す図である。同図の(a)部分は横動画の場合の例であり、(b)部分は縦動画の場合の例である。表示する画像は横動画又は縦動画の最初のフレームでもよいし、途中のフレーム(例えば、イベントが発生したフレーム等)でもよい。 FIG. 10 is a diagram showing how thumbnail images are displayed on icons. Part (a) of the figure is an example in the case of horizontal moving images, and part (b) is an example in the case of vertical moving images. The image to be displayed may be the first frame of the horizontal moving image or the vertical moving image, or may be an intermediate frame (for example, a frame in which an event occurs).

以上に例示した動画ファイルのアイコン表示、サムネイル表示、ファイル名の付与により、ユーザは縦動画と横動画とを容易に識別でき、所望のフレームを含む動画を容易に選択することができる。なお、動画ファイルのアイコン表示、サムネイル表示、ファイル名の付与は制御部240Cが行うことができる。 By displaying icons, displaying thumbnails, and assigning file names to moving image files as illustrated above, the user can easily distinguish between vertical moving images and horizontal moving images, and can easily select moving images containing desired frames. Note that icon display, thumbnail display, and file name assignment of moving image files can be performed by the control unit 240C.

<動画の分割及び記録の他の態様>
動画の分割及び記録(保存)の他の態様について説明する。なお、以下で説明するフローチャートのうち図5と同じ処理には同じステップ番号を付し、詳細な説明を省略する。
<Other Aspects of Splitting and Recording Moving Images>
Another aspect of dividing and recording (saving) a moving image will be described. In the flowcharts described below, the same step numbers are assigned to the same processes as those in FIG. 5, and detailed description thereof will be omitted.

(態様1:姿勢変化中の期間を独立した動画ファイルとする態様)
図5について説明した態様ではカメラ10の姿勢(X軸周りの角度)がしきい値を超えたら「方向変化が起きた」と判断している。しかし、図11に示す態様1では姿勢変化中の動画は横動画及び縦動画とは別の動画ファイルとして別のフォルダに保存する。図11は態様1での処理を示すフローチャートであり、方向検出部240Bは、カメラ10の姿勢(重力方向に対する方向)が「横」、「縦」、「変化中」のいずれであるかを判断する(ステップS122:姿勢検出ステップ)。
(Aspect 1: Aspect in which the period during posture change is set as an independent video file)
In the embodiment described with reference to FIG. 5, it is determined that "a direction change has occurred" when the posture of the camera 10 (angle around the X axis) exceeds the threshold value. However, in mode 1 shown in FIG. 11, the moving image during posture change is stored in a separate folder as a moving image file separate from the horizontal moving image and the vertical moving image. FIG. 11 is a flowchart showing the processing in mode 1. The orientation detection unit 240B determines whether the orientation of the camera 10 (direction relative to the direction of gravity) is "horizontal,""vertical," or "changing." (step S122: posture detection step).

制御部240Cは、姿勢が「横」である場合は横動画(第1動画)として横動画用フォルダ(第1フォルダ)に動画ファイル(第1動画ファイル)の記録(保存)を開始する(ステップS130)。制御部240Cは、「縦」である場合は縦動画(第2動画)として縦動画用フォルダ(第2フォルダ)に記録を開始する(ステップS140)。「変化中」である場合は変化中動画(第3動画)として変化中動画用フォルダ(第3フォルダ)に記録を開始する(ステップS124)。態様1においては、各撮影番号のフォルダの下位の階層に、横動画用フォルダ及び縦動画用フォルダに加えて、変化中動画用フォルダを作成することができる。 When the posture is "horizontal", the control unit 240C starts recording (saving) a moving image file (first moving image file) in a horizontal moving image folder (first folder) as a horizontal moving image (first moving image) (step S130). If it is "vertical", the control unit 240C starts recording as a vertical moving image (second moving image) in the vertical moving image folder (second folder) (step S140). If it is "changing", recording is started as a changing moving image (third moving image) in a changing moving image folder (third folder) (step S124). In mode 1, in addition to the horizontal moving image folder and the vertical moving image folder, the changing moving image folder can be created in the hierarchy below the folder of each shooting number.

態様1では、方向検出部240Bが「カメラ10の姿勢変化が開始又は完了した」と判断した場合(ステップS172(判断ステップ)でYes)に動画を分割(動画ファイルのクローズ、新たな動画ファイルの生成)する。この際、カメラ10の姿勢は手振れその他により細かく変動する場合があるので、方向検出部240BはX軸周りの角度が一定時間に決められた値以上変化したら「姿勢変化が開始した」と判断する。同様に、方向検出部240Bは、角度の変動が決められた範囲内に収まる時間が一定時間以上継続したら「姿勢変化が完了した」と判断することが好ましい。例えば、図12に示す例では、経過時間t1とt2の間で角度が大きく変化しており、経過時間t3とt4の間で角度が安定している。 In aspect 1, when the direction detection unit 240B determines that "the change in the orientation of the camera 10 has started or completed" (Yes in step S172 (determination step)), the moving image is divided (moving image file closed, new moving image file created). generate). At this time, since the posture of the camera 10 may change minutely due to camera shake or the like, the direction detection unit 240B determines that "posture change has started" when the angle around the X axis changes by a predetermined value or more within a certain period of time. . Similarly, direction detection section 240B preferably determines that "posture change is completed" when the time period in which the change in angle is within a predetermined range continues for a certain period of time or longer. For example, in the example shown in FIG. 12, the angle changes greatly between elapsed times t1 and t2, and is stable between elapsed times t3 and t4.

よって、方向検出部240Bは経過時間t2からt4まで「姿勢が変化中である」と判断し、経過時間t4において「姿勢変化が完了した」と判断する(カメラ10の実際の姿勢と姿勢の判定結果が変化するまでの時間ズレを考慮している)。この判断に対応して、制御部240Cは経過時間t2からt4までの間、時間において横動画(第1動画;経過時間ゼロからt2まで)と縦動画(第2動画;経過時間t4以降)の間にある変化中動画(第3動画)を生成する。図12に示すように、変化中動画(第3動画)は、カメラ10の姿勢が変化中である(方向変化が起きている)第1期間の動画を含む。 Therefore, the direction detection unit 240B determines that "the attitude is changing" from the elapsed time t2 to t4, and determines that "the attitude change is completed" at the elapsed time t4 (determination of the actual attitude and attitude of the camera 10). Considering the time lag until the result changes). In response to this determination, the control unit 240C determines whether the horizontal video (first video; elapsed time from zero to t2) and vertical video (second video; after elapsed time t4) are displayed in time from elapsed time t2 to t4. A moving image (third moving image) in between is generated. As shown in FIG. 12, the moving image during change (third moving image) includes a moving image of the first period during which the orientation of the camera 10 is changing (direction change occurs).

(態様2:姿勢変化中は前の期間の動画ファイルに継続して記録する態様)
上述した態様1では姿勢変化中(第1期間)は独立した動画(第3動画)として記録している。しかし、態様2では、姿勢変化中は変化開始前の期間についての動画ファイルに継続して記録する。具体的には、図13に示すように、態様2では方向検出部240Bはカメラ10(撮像装置)が第1状態(カメラ10の底面が水平方向に沿っている状態;横状態)、第2状態(カメラ10の底面が重力方向に沿っている状態;縦状態)、又は第3状態(第1状態と第2状態との間で変化している状態)のいずれであるかを検出する。そして、制御部240Cはカメラ10が第3状態(姿勢が変化中)である期間の動画を第1動画に含めて第1フォルダ(横動画用フォルダ)に記録する。
(Aspect 2: Aspect in which recording is continued to the video file of the previous period while the posture is changing)
In mode 1 described above, during a posture change (first period), an independent moving image (third moving image) is recorded. However, in mode 2, while the posture is changing, the moving image file for the period before the start of the change is continuously recorded. Specifically, as shown in FIG. 13, in mode 2, the direction detection unit 240B detects that the camera 10 (imaging device) is in the first state (state in which the bottom surface of the camera 10 is in the horizontal direction; horizontal state), and in the second state. It detects whether it is in a state (a state in which the bottom surface of the camera 10 is aligned with the direction of gravity; vertical state) or a third state (a state in which the state changes between the first state and the second state). Then, the control unit 240C records the moving image of the period in which the camera 10 is in the third state (while the posture is changing) in the first moving image in the first folder (horizontal moving image folder).

(態様3:姿勢変化終了後の期間の一部を変化中の期間の動画ファイルに継続して記録する態様)
カメラ10の姿勢が変化した状況では、モニタ270の画面における構図が大きく変化している場合がある。その場合、カメラ10(撮像装置)が動画の露出(AE:AutoExposure)、動画のホワイトバランス(AWB:Auto White Balance)、又は動画中の被写体のフォーカス(AF:Auto Focus)等を調整する期間が必要になる可能性がある。そこで態様3では、姿勢変化終了後の決められた期間(第2期間)は、カメラ10の姿勢が安定していても姿勢が変化中である場合と同様に扱う。具体的には、例えば図14に示すように、方向検出部240Bは経過時間t2からt4までの期間(第1期間)に加えて経過時間t4からt5までの期間(第2期間)についても「カメラ10の姿勢が変化している」として扱う。
(Aspect 3: Aspect in which a part of the period after the end of the posture change is continuously recorded in the moving image file during the period during the change)
In situations where the attitude of the camera 10 has changed, the composition on the screen of the monitor 270 may change significantly. In that case, the camera 10 (imaging device) has a period during which the exposure of the moving image (AE: AutoExposure), the white balance of the moving image (AWB: Auto White Balance), or the focus of the subject in the moving image (AF: Auto Focus) is adjusted. may be needed. Therefore, in mode 3, the predetermined period (second period) after the orientation change is completed is handled in the same manner as the case where the orientation of the camera 10 is changing even if the orientation is stable. Specifically, for example, as shown in FIG. 14, the direction detection unit 240B " The attitude of the camera 10 has changed."

そして、これら第1期間及び第2期間については第3動画として記録(保存)する。すなわち、第3動画は方向変化が終了した後の第2期間の動画も含む。なお、制御部240Cは動画を分割して第3動画を横動画(第1動画)及び縦動画(第2動画)とは別の動画ファイル(第3動画ファイル)とし、横動画用フォルダ(第1フォルダ)に記録することができる。しかし、第3動画は独立した変化中動画用フォルダ(第3フォルダ)に記録してもよい。姿勢変化中や撮影条件が不安定な期間の画像は重要性が低い場合があるが、態様3ではそのような期間は横動画及び縦動画とは別の動画として保存するので、静止画として抽出したいフレームの選択や動画ファイル、フォルダの整理を容易に行うことができる。 Then, these first period and second period are recorded (saved) as a third moving image. That is, the third moving image also includes the moving image of the second period after the direction change ends. Note that the control unit 240C divides the moving image, sets the third moving image as a moving image file (third moving image file) separate from the horizontal moving image (first moving image) and the vertical moving image (second moving image), and creates a horizontal moving image folder (second moving image). 1 folder). However, the third moving image may be recorded in an independent folder for changing moving images (third folder). An image during a posture change or a period when the shooting conditions are unstable may be less important, but in mode 3, such a period is saved as a moving image separate from the horizontal moving image and the vertical moving image, so it is extracted as a still image. You can easily select the frame you want to use and organize video files and folders.

(態様4:姿勢変化終了後の期間の一部までを当初の動画ファイルに継続して記録する態様)
上述した態様3では、カメラ10の姿勢変化中(第1期間)及び姿勢変化が終了してから決められた期間(第2期間)については「第3動画」としている。しかし、態様4では、図15に示すように第1期間(経過時間t2からt4まで)及び第2期間(経過時間t4からt5まで)については「第1動画」として横動画用フォルダ(第1フォルダ)に記録する。
(Aspect 4: Aspect in which part of the period after the end of posture change is continuously recorded in the original video file)
In mode 3 described above, the period during which the orientation of the camera 10 is changed (first period) and the period (second period) determined after the orientation change is completed are referred to as the "third moving image". However, in aspect 4, as shown in FIG. 15, the first period (elapsed time t2 to t4) and the second period (elapsed time t4 to t5) are defined as the "first moving image" in the horizontal moving image folder (first folder).

(態様5:姿勢変化中は動画を記録しない態様)
上述した態様1から態様4では姿勢変化中の期間(及びその後姿勢が安定するまでの期間)について動画を記録しているが、姿勢変化中は動画を記録しない態様も採用することができる。具体的には、図16のフローチャートに示すように、方向検出部240Bが「カメラ10の姿勢が横(第1状態)、縦(第2状態)、又は変化中(第3状態)のいずれであるか」を検出する(ステップS122)。そして、姿勢が変化中の場合は動画ファイルの記録を開始しない(ステップS122に戻る)。
(Aspect 5: Aspect in which moving images are not recorded during a posture change)
In modes 1 to 4 described above, a moving image is recorded during the period during which the posture is changed (and the period until the posture is stabilized thereafter), but a mode in which the moving image is not recorded during the posture change can also be adopted. Specifically, as shown in the flowchart of FIG. 16, the orientation detection unit 240B detects whether the orientation of the camera 10 is horizontal (first state), vertical (second state), or changing (third state). is detected (step S122). Then, when the posture is changing, recording of the moving image file is not started (returns to step S122).

また、カメラ10の姿勢が横又は縦であり動画の記録を開始(ステップS130、ステップS140)した後にカメラ10の姿勢変化が開始すると(ステップS174(判断ステップ)でYes)、制御部240CはステップS180で動画ファイルをクローズしてステップS122に戻る。そして、カメラ10は、カメラ10の姿勢が横又は縦となってから動画の記録を再開する(ステップS130、ステップS140)。クローズされた動画ファイルは対応するフォルダに保存される。姿勢変化中の画像は重要性が低い場合があるが、態様5ではそのような期間は動画を保存しないので記録メディアの残容量を節約することができる。またユーザは静止画として抽出したいフレームの選択や動画ファイル、フォルダの整理を容易に行うことができる。 Further, when the orientation of the camera 10 is horizontal or vertical and the orientation of the camera 10 starts to change after recording of the moving image has started (step S130, step S140) (Yes in step S174 (judgment step)), the control unit 240C moves to step At S180, the moving image file is closed and the process returns to step S122. Then, the camera 10 resumes recording the moving image after the orientation of the camera 10 becomes horizontal or vertical (steps S130 and S140). The closed video file is saved in the corresponding folder. Images during posture changes may be of low importance, but in aspect 5, since moving images are not saved during such periods, the remaining capacity of the recording medium can be saved. Also, the user can easily select a frame to be extracted as a still image and organize moving image files and folders.

(態様6:姿勢変化があった場合でもイベント発生の直後は動画を分割しない態様)
図17のフローチャートに示す態様6は、カメラ10の姿勢変化が開始もしくは完了した(ステップS172(判断ステップ)でYes)場合についての他の態様である。この態様では、カメラ10の姿勢変化開始もしくは完了したタイミングから決められた時間(ステップS176では“T秒前”と記載)前までの間に特定のイベントが発生していた場合、制御部240Cは動画ファイルをクローズしない(ステップS176でYesとなりステップS180に進まない)。したがってこの場合、動画の分割を行わない。また、一定時間前までに特定イベントが発生していた場合だけではなく、特定のイベントの検出中(イベントが継続中)である場合、及び受付部によるユーザの指示の受付中である場合(ユーザの指示、又はユーザの指示に基づく処理が継続中である場合を含む)も同様である。
(Aspect 6: Aspect in which the video is not divided immediately after the event occurs even if there is a posture change)
Aspect 6 shown in the flowchart of FIG. 17 is another aspect of the case where the attitude change of the camera 10 has started or completed (Yes in step S172 (determination step)). In this aspect, if a specific event has occurred before a predetermined time (described as "T seconds before" in step S176) from the timing when the attitude change of the camera 10 is started or completed, the control unit 240C Do not close the moving image file (Yes in step S176 and do not proceed to step S180). Therefore, in this case, the moving image is not divided. In addition, not only when a specific event has occurred before a certain period of time, but also when a specific event is being detected (an event is continuing), and when a user instruction is being received by the reception unit (user (including the case where the processing based on the instruction of the user or the processing based on the instruction of the user is being continued) is the same.

制御部240Cは、操作部250を介したユーザの操作に応じて、あるいはユーザの操作によらずにTの値(例えば30秒とすることができるが、他の値でもよい)を設定することができる。特定のイベントが発生したかどうかは、イベント検出部240D(図2を参照)が周知の画像処理によって被写体の動き量、大きさや形の変化、明るさの変化等を自動的に検出して判断してもよい。また、特定のイベントが発生したかどうかは、操作部250又は受付部(モニタ270をタッチパネルとして使用する場合を含む)を介したユーザの指示により判断してもよい。例えば、制御部240Cは、受付部がユーザによる動画撮影中に静止画の撮影指示を受け付けた場合に「(特定の)イベントが発生した」と判断してもよい。イベント検出部240D及び制御部240Cは、イベントを検出した場合、イベント検出タイミングを示す情報を動画ファイルに付与する(例えば、ヘッダやフッタに記録する)ことが好ましい。この情報を参照することで、ユーザは静止画として抽出したいフレームを容易に選択することができる(後述)。 The control unit 240C can set the value of T (for example, 30 seconds, but other values are also possible) according to the user's operation via the operation unit 250 or without depending on the user's operation. can be done. Whether or not a specific event has occurred is determined by the event detection unit 240D (see FIG. 2) automatically detecting the amount of movement of the subject, changes in size and shape, changes in brightness, etc., through well-known image processing. You may Further, whether or not a specific event has occurred may be determined based on a user's instruction via the operation unit 250 or reception unit (including the case where the monitor 270 is used as a touch panel). For example, the control unit 240C may determine that "a (specific) event has occurred" when the reception unit receives a still image shooting instruction from the user during video shooting. When an event is detected, the event detection section 240D and the control section 240C preferably add information indicating event detection timing to the moving image file (for example, record it in the header or footer). By referring to this information, the user can easily select a frame to be extracted as a still image (described later).

上述のように、カメラ10の姿勢変化があった場合でも姿勢変化前にイベントが発生していた場合は動画を分割しないことで、ユーザはイベントに関連した一連の流れを1つの動画で確認することができ、撮影した動画から所望のフレームを容易に選択することができる。なお、図17のフローチャートは図11(姿勢変化中の動画は横動画及び縦動画とは別動画とし、別フォルダに保存する態様)をベースとしているが、図5、15のフローチャートをベースとしてもよい。 As described above, even if there is a change in the posture of the camera 10, if an event occurs before the change in posture, the video is not divided, so that the user can confirm the series of events related to the event in one video. A desired frame can be easily selected from the captured moving image. The flowchart in FIG. 17 is based on FIG. 11 (a mode in which the moving image during posture change is stored separately from the horizontal and vertical moving images and stored in a separate folder), but the flow charts in FIGS. good.

なお、カメラ10において、上述した態様1から態様6を含めたいずれの態様で動画の分割及び記録(保存)を行うかを、操作部250を介したユーザの操作に応じて決定してもよい。 In addition, in the camera 10, it may be determined in accordance with the user's operation via the operation unit 250 which of the modes 1 to 6 described above is used to divide and record (save) the moving image. .

<第1モード及び第2モードを考慮した場合の処理>
図5,11,16,17に示すフローチャートでは第1動画モードにおける処理について説明したが、第1動画モード及び第2動画モードを考慮した場合の処理について、図18,19を参照しつつ説明する。なお、図5,11,16,17と同様の処理については同一のステップ番号を付し、詳細な説明を省略する。
<Processing when Considering First Mode and Second Mode>
The flowcharts shown in FIGS. 5, 11, 16, and 17 describe the processing in the first moving image mode, but the processing in consideration of the first moving image mode and the second moving image mode will be described with reference to FIGS. . 5, 11, 16, and 17 are assigned the same step numbers, and detailed description thereof will be omitted.

制御部240Cは、カメラ10が第1動画モード(静止画抽出用動画モード)か第2動画モード(通常の動画モード)かを判断する(ステップS112)。第1動画モードの場合、制御部240Cは、第1動画モードに適した撮影条件を設定する(ステップS114)。ステップS114で設定する撮影条件は、「撮影モード」の項で上述したように、動画自体の鑑賞よりも静止画の抽出を重視した撮影条件である。第1動画モードにおけるステップS114以降の処理は図5のフローチャートと同様であるので、詳細な説明を省略する。 The control unit 240C determines whether the camera 10 is in the first moving image mode (still image extraction moving image mode) or the second moving image mode (normal moving image mode) (step S112). In the case of the first moving image mode, the control unit 240C sets shooting conditions suitable for the first moving image mode (step S114). The shooting condition set in step S114 is a shooting condition that emphasizes extraction of a still image rather than watching a moving image itself, as described above in the section of "shooting mode". Since the processing after step S114 in the first moving image mode is the same as the flowchart in FIG. 5, detailed description thereof will be omitted.

一方、ステップS112での判断の結果が第2動画モードであった場合、制御部240Cは、第2動画モードに適した撮影条件を設定する(図19のステップS191)。方向検出部240Bはカメラ10の姿勢を判定し(ステップS192)、制御部240Cは、記憶部260の第2動画用フォルダに動画ファイルの記録(保存)を開始する(ステップS193:動画保存ステップ)。ステップS194,S195の処理は第1動画モードについてのステップS150,S160の処理と同様である。動画記録終了指示があった場合(ステップS194でYes)及び記録メディア残容量が十分でない場合(ステップS195でNo)は、制御部240Cは動画ファイルをクローズして(ステップS197)、図18のステップS190(動画撮影終了か否かの判定)へ戻る。 On the other hand, if the result of determination in step S112 is the second moving image mode, the control unit 240C sets shooting conditions suitable for the second moving image mode (step S191 in FIG. 19). The direction detection unit 240B determines the orientation of the camera 10 (step S192), and the control unit 240C starts recording (saving) the moving image file in the second moving image folder of the storage unit 260 (step S193: moving image saving step). . The processing of steps S194 and S195 is the same as the processing of steps S150 and S160 for the first moving image mode. If there is an instruction to end moving image recording (Yes in step S194) and if the remaining capacity of the recording medium is insufficient (No in step S195), the control unit 240C closes the moving image file (step S197), and the step in FIG. The process returns to S190 (determining whether or not moving image shooting is finished).

動画記録終了指示がなく(ステップS194でNo)、記録メディア残容量が十分である(ステップS195でYes)場合、制御部240Cは動画の記録を継続する。しかし、第2動画モードにおいては、第1動画モードの場合と異なり、方向検出部240Bがカメラ10の姿勢の変化(方向変化)を検出しない場合(ステップS196でNo)も、検出した場合(ステップS196でYes)も動画を分割しない。第2動画モードにおいてカメラ10の姿勢が変化しても動画を分割しないのは、第2動画モードは静止画の抽出を目的とした動画を撮影するモードではなく、第1動画モードのように動画を分割して特定のシーンを探しやすくしなくてもよいからである。 If there is no moving image recording end instruction (No in step S194) and the remaining capacity of the recording medium is sufficient (Yes in step S195), the control unit 240C continues recording the moving image. However, in the second moving image mode, unlike in the first moving image mode, the direction detection unit 240B does not detect a change in the posture (direction change) of the camera 10 (No in step S196), but also detects it (step Yes in S196) also does not divide the moving image. The reason why the moving image is not divided in the second moving image mode even if the posture of the camera 10 changes is that the second moving image mode is not a mode for shooting moving images for the purpose of extracting still images, but the moving image is divided like the first moving image mode. This is because it is not necessary to divide the .

<フォルダ構成の例>
第1,第2動画モードを考慮する場合、制御部240Cは、記憶部260(記憶部)の撮影日ごとのフォルダ内に第1動画モードのフォルダと第2モードのフォルダを生成することができる。この場合、制御部240Cは、第1動画モードのフォルダ内に撮影番号ごとのフォルダを生成し、各撮影番号のフォルダ内に横動画用フォルダ(第1フォルダの例)と縦動画用フォルダ(第2フォルダの例)を設けて、それぞれ横動画(第1動画の例)、縦動画(第2動画の例)を保存する。一方、第2動画モードのフォルダについては、制御部240Cは、撮影日ごとのフォルダに、その撮影日に撮影された動画のファイルを記録する。また、制御部240Cは、撮影日のフォルダの下位に第1,第2動画モードのフォルダを設けるのではなく、第1,第2動画モードのフォルダを上位とし、その下位に撮影日のフォルダを設けてもよい。このようなフォルダ構成は、図7の場合と同様に、制御部240Cによりモニタ270に表示することができる。
<Example of folder structure>
When considering the first and second moving image modes, the control unit 240C can generate a folder for the first moving image mode and a folder for the second mode in folders for each shooting date in the storage unit 260 (storage unit). . In this case, the control unit 240C creates a folder for each shooting number in the folder for the first moving image mode, and creates a folder for horizontal movies (example of first folder) and a folder for vertical movies (example of first folder) in the folder for each shooting number. Example of two folders) are provided, and horizontal moving images (example of first moving image) and vertical moving images (example of second moving image) are stored respectively. On the other hand, for folders in the second moving image mode, the control unit 240C records files of moving images shot on the shooting date in folders for each shooting date. In addition, the control unit 240C does not provide the folders for the first and second moving image modes under the folder for the shooting date, but places the folders for the first and second moving image modes at the upper level, and then creates the folders for the shooting date at the lower level. may be provided. Such a folder structure can be displayed on the monitor 270 by the control section 240C, as in the case of FIG.

<静止画の抽出>
以下の例で説明するように、カメラ10では動画を構成するフレームを静止画として抽出することができる。なお、カメラ10で記録した動画ファイルを用いて、パーソナルコンピュータ等の他の装置で静止画の抽出を行ってもよい。
<Extraction of still image>
As described in the following example, the camera 10 can extract frames forming a moving image as still images. Still images may be extracted by another device such as a personal computer using the moving image file recorded by the camera 10 .

(例1)
制御部240Cは横動画、縦動画、又は変化中動画(第1動画、第2動画、第3動画)の動画ファイルのうち、ユーザが選択したファイルをモニタ270に再生表示させる。連続的な再生ではなくコマ送りで再生(ユーザの操作に応じて1フレームずつ表示)してもよい。制御部240Cはユーザの操作により再生を停止し、停止した時点で表示されているフレームの選択をユーザの操作に応じて確定することで、静止画抽出部240Eがそのフレームを静止画として抽出する。
(Example 1)
The control unit 240C causes the monitor 270 to reproduce and display the file selected by the user from the moving image files of the horizontal moving image, the vertical moving image, or the changing moving image (the first moving image, the second moving image, and the third moving image). Instead of continuous reproduction, frame-by-frame reproduction (frame by frame display according to user's operation) may be performed. The control unit 240C stops the reproduction by the user's operation, and by confirming the selection of the frame displayed at the time of stopping according to the user's operation, the still image extracting unit 240E extracts the frame as a still image. .

(例2)
動画ファイルにイベントの検出を示す情報が付与されている場合、制御部240Cは、その情報を参照してイベントが検出されたフレームを含む複数のフレームをモニタ270(図1参照)に表示してもよい。図20はそのような表示の例であり、フレーム1052を含む5つのフレーム1051~1055が表示されている。また、静止画が記録されたフレーム1052(静止画の記録はイベント発生の一例である)については、静止画抽出部240Eによりカメラ状のアイコン1060が付されている。これによって、ユーザは静止画が記録されたフレームであることを把握することができる。
(Example 2)
If information indicating the detection of an event is added to the moving image file, the control unit 240C refers to the information and displays a plurality of frames including the frame in which the event was detected on the monitor 270 (see FIG. 1). good too. FIG. 20 is an example of such a display, where five frames 1051-1055 are displayed, including frame 1052. FIG. Further, a camera-like icon 1060 is attached to a frame 1052 in which a still image is recorded (recording of a still image is an example of event occurrence) by the still image extraction unit 240E. This allows the user to recognize that the frame is a recorded still image.

なお、表示する静止画抽出用フレームの範囲は、「記録した静止画ファイルに対応するフレーム」(図20の例ではフレーム1052)に対し時間的に前のフレーム(フレーム1051)及び後のフレーム(フレーム1053~1055)を含めてもよい。また、表示する静止画抽出用フレームの範囲は、「時間的に前のフレームだけを含める」態様あるいは「時間的に後のフレームだけを含める」態様でもよい。表示する静止画抽出用フレームの範囲はユーザの指定に応じて設定してもよいし、ユーザの指定によらずに設定してもよい。また、表示するフレームの範囲を時間で規定(例えば、静止画が記録されたフレームの前後1秒ずつ)してもよいし、フレーム数で規定(例えば、静止画が記録されたフレームの前後の10フレームずつ)してもよい。また、初期状態では静止画として記録されたフレームのみを一覧表示し、その中から選択されたフレームについて時間的に前及び/又は後ろのフレームを表示してもよい。 Note that the range of frames for still image extraction to be displayed is temporally before (frame 1051) and after (frame 1052 in the example of FIG. 20) the frame corresponding to the recorded still image file. frames 1053-1055) may be included. Further, the range of still image extraction frames to be displayed may be in a mode of "including only temporally previous frames" or a mode of "including only temporally subsequent frames". The range of still image extraction frames to be displayed may be set according to the user's designation, or may be set regardless of the user's designation. Also, the range of frames to be displayed may be specified by time (for example, one second before and after the frame in which the still image is recorded), or by the number of frames (for example, the number of frames before and after the frame in which the still image is recorded). 10 frames each). Alternatively, in the initial state, only the frames recorded as still images are displayed in a list, and a frame selected from the list may be displayed temporally before and/or after.

<抽出するフレームの選択>
ユーザは、表示された静止画抽出用フレームからフレームを選択することができる。図20の例では、ユーザは操作部250及び/又はモニタ270を介して所望のフレームに対するチェックボックス1070をチェックすることによりフレームを選択することができ、複数のフレームを選択することもできる。なお、ユーザによって指定された静止画が記録されたフレームが、必ずしもベストのタイミングで記録されたとは限らない。他の関連フレームを合わせて表示することで、ユーザが他のフレームを選択したいと思う場合もある。よって、静止画が記録されたフレームに加えてその前及び/又は後ろのフレームから選択できるように、モニタ270に表示することが好ましい。図20では、静止画が記録されたフレーム(アイコン1060が付されたフレーム1052)と異なるフレーム1053をユーザが選択した状態を示している。
<Selection of frame to extract>
The user can select a frame from the displayed frames for still image extraction. In the example of FIG. 20, the user can select a frame by checking checkbox 1070 for the desired frame via operation unit 250 and/or monitor 270, and can select multiple frames. Note that the frame in which the still image specified by the user is recorded is not necessarily recorded at the best timing. By displaying other related frames together, the user may wish to select other frames. Therefore, it is preferable to display on the monitor 270 such that the frame in which the still image was recorded, as well as the frames before and/or after it, can be selected. FIG. 20 shows a state in which the user has selected a frame 1053 different from the frame in which the still image was recorded (frame 1052 with icon 1060).

静止画抽出部240Eは、選択されたフレームを静止画として抽出する(静止画抽出ステップ)。なお、動画ファイルはMPEG形式等の動画用フォーマットで記憶されているので、静止画抽出部240Eは選択されたフレームのデータを静止画用のフォーマット(JPEG形式等)に変換する。ユーザは、動画(第1動画、第2動画、第3動画)から所望のタイミングにおける静止画を抽出することができる。 The still image extraction unit 240E extracts the selected frame as a still image (still image extraction step). Since the moving image file is stored in a moving image format such as MPEG format, the still image extraction unit 240E converts the selected frame data into a still image format (JPEG format, etc.). The user can extract a still image at a desired timing from the moving images (the first moving image, the second moving image, and the third moving image).

<第2の実施形態>
第1の実施形態では、デジタルカメラであるカメラ10について説明したが、撮像装置の構成はこれに限定されない。本発明のその他の撮像装置としては、例えば、内蔵型又は外付け型のPC用カメラ(PC:Personal Computer)、あるいは、以下に説明するような、撮影機能を有する携帯端末装置とすることができる。
<Second embodiment>
Although the camera 10, which is a digital camera, has been described in the first embodiment, the configuration of the imaging device is not limited to this. Other imaging devices of the present invention can be, for example, a built-in or external PC camera (PC: Personal Computer), or a mobile terminal device having an imaging function as described below. .

本発明の撮像装置の一実施形態である携帯端末装置としては、例えば、携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、スマートフォンを例に挙げ、図面を参照しつつ、詳細に説明する。 Portable terminal devices, which are an embodiment of the imaging device of the present invention, include, for example, mobile phones, smart phones, PDAs (Personal Digital Assistants), and portable game machines. Hereinafter, a smart phone will be taken as an example, and a detailed description will be given with reference to the drawings.

図21は本発明の撮像装置の一実施形態であるスマートフォン1(撮像装置)の外観を示す図であり、同図の(a)部分は正面図、(b)部分は背面図である。図21に示すスマートフォン1は平板状の筐体2を有し、筐体2の一方の面に表示部としての表示パネル21(表示装置)と、入力部としての操作パネル22(操作部)とが一体となった表示入力部20を備えている。また、筐体2は、スピーカ31と、マイクロフォン32、操作部40(操作部)と、カメラ部41,42(撮像装置、撮影部、イベント検出部、制御部、静止画抽出部、レンズ駆動制御部)、ストロボ43とを備えている。なお、筐体2の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用してもよいし、折り畳み構造やスライド機構を有する構成を採用してもよい。 FIG. 21 is a diagram showing the appearance of a smartphone 1 (imaging device) that is an embodiment of the imaging device of the present invention, in which part (a) is a front view and part (b) is a rear view. A smartphone 1 shown in FIG. 21 has a flat housing 2, and a display panel 21 (display device) as a display unit and an operation panel 22 (operation unit) as an input unit are provided on one surface of the housing 2. is provided with a display input unit 20 integrated with. The housing 2 includes a speaker 31, a microphone 32, an operation unit 40 (operation unit), camera units 41 and 42 (imaging device, imaging unit, event detection unit, control unit, still image extraction unit, lens drive control part) and a strobe 43 . The configuration of the housing 2 is not limited to this. For example, a configuration in which the display unit and the input unit are independent may be adopted, or a configuration having a folding structure or a slide mechanism may be adopted.

図22は、図21に示すスマートフォン1の構成を示すブロック図である。図22に示すように、スマートフォン1の主たる構成要素として、無線通信部11と、表示入力部20と、通話部30と、操作部40と、カメラ部41,42と、ストロボ43と、記憶部50と、外部入出力部60と、GPS受信部70(GPS:Global Positioning System)と、モーションセンサ部80と、電源部90と、主制御部101(撮影部、動画ファイル生成部、静止画ファイル生成部、イベント検出部、表示制御部、静止画抽出部、レンズ駆動制御部)とを備える。また、スマートフォン1の主たる機能として、基地局装置と移動通信網とを介した移動無線通信を行う無線通信機能を備える。 FIG. 22 is a block diagram showing the configuration of the smartphone 1 shown in FIG. 21. As shown in FIG. As shown in FIG. 22, the main components of the smartphone 1 include a wireless communication unit 11, a display input unit 20, a call unit 30, an operation unit 40, camera units 41 and 42, a strobe 43, and a storage unit. 50, an external input/output unit 60, a GPS receiving unit 70 (GPS: Global Positioning System), a motion sensor unit 80, a power supply unit 90, a main control unit 101 (shooting unit, moving image file generating unit, still image file generation unit, event detection unit, display control unit, still image extraction unit, lens drive control unit). In addition, as a main function of the smartphone 1, it has a wireless communication function for performing mobile wireless communication via a base station device and a mobile communication network.

無線通信部11は、主制御部101の指示にしたがって、移動通信網に収容された基地局装置に対し無線通信を行う。斯かる無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。 Radio communication section 11 performs radio communication with a base station apparatus accommodated in a mobile communication network according to instructions from main control section 101 . Such wireless communication is used to transmit and receive various file data such as audio data and image data, e-mail data, etc., and to receive Web data, streaming data, and the like.

表示入力部20は、主制御部101の制御により、画像(静止画像及び/又は動画像)や文字情報などを表示して視覚的にユーザに情報を伝達すると共に、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル21と、操作パネル22とを備える。 Under the control of the main control unit 101, the display input unit 20 displays images (still images and/or moving images), character information, etc. to visually transmit information to the user, and also allows the user to operate the displayed information. It is a so-called touch panel that detects, and includes a display panel 21 and an operation panel 22 .

表示パネル21においては、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などが表示デバイスとして用いられる。操作パネル22は、表示パネル21の表示面上に表示される画像を視認可能に載置され、ユーザの指やペン等の導体によって操作される1又は複数の座標を検出するデバイスである。斯かるデバイスをユーザの指やペン等の導体によって操作すると、操作パネル22は、操作に起因して発生する検出信号を主制御部101に出力する。次いで、主制御部101は、受信した検出信号に基づいて、表示パネル21上の操作位置(座標)を検出する。 In the display panel 21, an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like is used as a display device. The operation panel 22 is a device that is placed so that an image displayed on the display surface of the display panel 21 can be visually recognized, and that detects one or more coordinates operated by a conductor such as a user's finger or pen. When such a device is operated by a user's finger or a conductor such as a pen, the operation panel 22 outputs a detection signal generated by the operation to the main control section 101 . Next, the main control unit 101 detects the operating position (coordinates) on the display panel 21 based on the received detection signal.

図21に示すように、本発明の撮像装置の一実施形態として例示しているスマートフォン1の表示パネル21と操作パネル22とは一体となって表示入力部20を構成しているが、操作パネル22が表示パネル21を完全に覆う配置となっている。斯かる配置を採用した場合、操作パネル22は、表示パネル21外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル22は、表示パネル21に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル21に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。 As shown in FIG. 21, a display panel 21 and an operation panel 22 of a smart phone 1 exemplified as an embodiment of the imaging device of the present invention are integrated to form a display input unit 20. 22 is arranged to completely cover the display panel 21 . When such an arrangement is adopted, the operation panel 22 may have a function of detecting user operations in areas outside the display panel 21 as well. In other words, the operation panel 22 has a detection area (hereinafter referred to as a display area) for the overlapping portion overlapping the display panel 21 and a detection area (hereinafter referred to as a non-display area) for the outer edge portion not overlapping the display panel 21. ) may be provided.

通話部30は、スピーカ31やマイクロフォン32を備え、マイクロフォン32を通じて入力されたユーザの音声を主制御部101にて処理可能な音声データに変換して主制御部101に出力すること、無線通信部11あるいは外部入出力部60により受信された音声データを復号してスピーカ31から出力することができる。また、図21に示すように、例えばスピーカ31を表示入力部20が設けられた面と同じ面に搭載し、マイクロフォン32を筐体2の側面に搭載することができる。 The call unit 30 includes a speaker 31 and a microphone 32, converts the user's voice input through the microphone 32 into voice data that can be processed by the main control unit 101, and outputs the data to the main control unit 101; 11 or the external input/output unit 60 can decode the audio data and output it from the speaker 31 . Further, as shown in FIG. 21 , for example, the speaker 31 can be mounted on the same surface as the display input unit 20 is provided, and the microphone 32 can be mounted on the side surface of the housing 2 .

操作部40は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるデバイスである。例えば図21に示すように、操作部40は、スマートフォン1の筐体2の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。 The operation unit 40 is a hardware key using a key switch or the like, and is a device that receives instructions from a user. For example, as shown in FIG. 21, the operation unit 40 is mounted on the side surface of the housing 2 of the smartphone 1, is turned on when pressed with a finger or the like, and is turned off by the restoring force of a spring or the like when the finger is released. It is a button type switch.

記憶部50は、主制御部101の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶する。また、記憶部50は、スマートフォン内蔵の内部記憶部51と着脱自在な外部メモリスロットを有する外部記憶部52により構成される。なお、記憶部50を構成するそれぞれの内部記憶部51と外部記憶部52は、公知の格納媒体を用いて実現される。 The storage unit 50 stores control programs and control data of the main control unit 101, application software, address data associated with names and telephone numbers of communication partners, data of sent and received e-mails, web data downloaded by web browsing, It stores downloaded content data and temporarily stores streaming data and the like. The storage unit 50 is configured by an internal storage unit 51 built into the smartphone and an external storage unit 52 having a detachable external memory slot. The internal storage unit 51 and the external storage unit 52 that configure the storage unit 50 are each realized using a known storage medium.

外部入出力部60は、スマートフォン1に連結される全ての外部機器とのインターフェースの役割を果たす。スマートフォン1は、外部入出力部60を介して他の外部機器に通信等により直接的又は間接的に接続される。通信等の手段としては、例えば、ユニバーサルシリアルバス(USB:Universal Serial Bus)、IEEE1394、ネットワーク(例えば、インターネット、無線LAN)を挙げることができる。この他、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra WideBand)(登録商標)、ジグビー(ZigBee)(登録商標)なども通信等の手段として挙げることができる。 The external input/output unit 60 functions as an interface with all external devices connected to the smartphone 1 . The smartphone 1 is directly or indirectly connected to another external device through communication or the like via the external input/output unit 60 . Examples of communication means include Universal Serial Bus (USB), IEEE1394, and networks (eg, the Internet and wireless LAN). In addition, Bluetooth (registered trademark), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association: IrDA) (registered trademark), UWB (Ultra WideBand) (registered trademark), ZigBee (registered trademark) ) can also be cited as a means of communication.

スマートフォン1に連結される外部機器としては、例えば、有線/無線ヘッドセット、有線/無線外部充電器、有線/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カードが挙げられる。また、オーディオ及びビデオI/O(Input/Output)端子を介して接続される外部オーディオ及びビデオ機器、無線接続される外部オーディオ及びビデオ機器、有線/無線接続されるスマートフォン、有線/無線接続されるPDA、有線/無線接続されるパーソナルコンピュータ、イヤホンなどの外部機器も連結することができる。外部入出力部60は、このような外部機器から伝送を受けたデータをスマートフォン1の内部の各構成要素に伝達することや、スマートフォン1の内部のデータを外部機器に伝送することができる。 External devices connected to the smartphone 1 include, for example, a wired/wireless headset, a wired/wireless external charger, a wired/wireless data port, a memory card or a SIM (subscriber) connected through a card socket. Identity Module Card)/UIM (User Identity Module Card) cards. In addition, external audio and video devices connected via audio and video I/O (Input/Output) terminals, external audio and video devices wirelessly connected, smart phones connected wired/wirelessly, wired/wireless connected External devices such as a PDA, a wired/wireless personal computer, and an earphone can also be connected. The external input/output unit 60 can transmit data received from such an external device to each component inside the smartphone 1 and transmit data inside the smartphone 1 to an external device.

モーションセンサ部80は、例えば、3軸の加速度センサや傾斜センサなどを備え、主制御部101の指示にしたがって、スマートフォン1の物理的な動きを検出する。スマートフォン1の物理的な動きを検出することにより、スマートフォン1の動く方向や加速度、姿勢が検出される。斯かる検出結果は、主制御部101に出力されるものである。電源部90は、主制御部101の指示にしたがって、スマートフォン1の各部に、バッテリ(不図示)に蓄えられる電力を供給する。 The motion sensor unit 80 includes, for example, a triaxial acceleration sensor and a tilt sensor, and detects physical movements of the smartphone 1 according to instructions from the main control unit 101 . By detecting the physical movement of the smartphone 1, the moving direction, acceleration, and posture of the smartphone 1 are detected. Such detection results are output to the main control section 101 . The power supply unit 90 supplies power stored in a battery (not shown) to each unit of the smartphone 1 according to instructions from the main control unit 101 .

主制御部101は、マイクロプロセッサを備え、記憶部50が記憶する制御プログラムや制御データにしたがって動作し、カメラ部41を含むスマートフォン1の各部を統括して制御する。また、主制御部101は、無線通信部11を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。 The main control unit 101 includes a microprocessor, operates according to control programs and control data stored in the storage unit 50 , and controls each unit of the smartphone 1 including the camera unit 41 in an integrated manner. Further, the main control unit 101 has a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 11 .

また、主制御部101は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部20に表示する等の画像処理機能を備える。画像処理機能とは、主制御部101が、画像データを復号し、斯かる復号結果に画像処理を施して、画像を表示入力部20に表示する機能のことをいう。 The main control unit 101 also has an image processing function such as displaying an image on the display/input unit 20 based on image data (still image or moving image data) such as received data or downloaded streaming data. The image processing function is a function in which the main control unit 101 decodes image data, applies image processing to the decoded result, and displays the image on the display input unit 20 .

カメラ部41,42は、CMOSやCCDなどの撮像素子を用いて電子撮影するデジタルカメラ(撮像装置)である。また、カメラ部41,42は、主制御部101の制御により、撮像によって得た画像データ(動画、静止画)を例えばMPEGやJPEGなどの圧縮した画像データに変換し、記憶部50に記録することや、外部入出力部60や無線通信部11を通じて出力することができる。また、カメラ部41は、主制御部101の制御により、動画の分割及び結合、高画質な静止画(RAW画像等)の取得、フレームの入れ替え及び加工、動画からの静止画の抽出を行うこともできる。図21,22に示すスマートフォン1において、カメラ部41,42の一方を用いて撮影することもできるし、カメラ部41,42を同時に使用して撮影することもできる。カメラ部42を用いる場合はストロボ43を使用することができる。 The camera units 41 and 42 are digital cameras (imaging devices) that perform electronic photography using imaging devices such as CMOS and CCD. Under the control of the main control unit 101, the camera units 41 and 42 convert image data (moving images and still images) obtained by imaging into compressed image data such as MPEG or JPEG, and record the data in the storage unit 50. Alternatively, it can be output through the external input/output unit 60 or the wireless communication unit 11 . In addition, the camera unit 41 is controlled by the main control unit 101 to divide and combine moving images, acquire high-quality still images (such as RAW images), replace and process frames, and extract still images from moving images. can also In the smartphone 1 shown in FIGS. 21 and 22, either one of the camera units 41 and 42 can be used for photographing, or the camera units 41 and 42 can be used simultaneously for photographing. A strobe 43 can be used when the camera unit 42 is used.

また、カメラ部41,42はスマートフォン1の各種機能に利用することができる。例えば、スマートフォン1は、表示パネル21にカメラ部41,42で取得した画像を表示できる。また、スマートフォン1は、操作パネル22の操作入力のひとつとして、カメラ部41,42の画像を利用することができる。また、スマートフォン1は、GPS受信部70が位置を検出する際に、カメラ部41,42からの画像を参照して位置を検出することもできる。さらには、スマートフォン1は、カメラ部41,42からの画像を参照して、3軸の加速度センサを用いずに、あるいは、3軸の加速度センサと併用して、スマートフォン1のカメラ部41の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、スマートフォン1は、カメラ部41,42からの画像をアプリケーションソフトウェア内で利用することもできる。その他、スマートフォン1は、静止画又は動画の画像データにGPS受信部70により取得した位置情報、マイクロフォン32により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部80により取得した姿勢情報等を付加して記憶部50に記録することもできる。また、スマートフォン1は、これらの静止画又は動画の画像データを外部入出力部60や無線通信部11を通じて出力することもできる。 Also, the camera units 41 and 42 can be used for various functions of the smartphone 1 . For example, the smartphone 1 can display images acquired by the camera units 41 and 42 on the display panel 21 . Further, the smartphone 1 can use the images of the camera units 41 and 42 as one of the operation inputs of the operation panel 22 . The smartphone 1 can also detect the position by referring to the images from the camera units 41 and 42 when the GPS receiver 70 detects the position. Furthermore, the smartphone 1 refers to the images from the camera units 41 and 42, and uses the light from the camera unit 41 of the smartphone 1 without using the three-axis acceleration sensor or in combination with the three-axis acceleration sensor. It is also possible to determine the axial direction and the current usage environment. Of course, the smartphone 1 can also use the images from the camera units 41 and 42 within the application software. In addition, the smartphone 1 uses position information acquired by the GPS receiving unit 70 for image data of still images or moving images, and voice information acquired by the microphone 32 (which is converted into text information by performing voice-to-text conversion by the main control unit or the like). Alternatively, posture information and the like acquired by the motion sensor unit 80 may be added and recorded in the storage unit 50 . The smartphone 1 can also output the image data of these still images or moving images through the external input/output unit 60 and the wireless communication unit 11 .

<スマートフォンの姿勢>
図23の(a)部分はスマートフォン1に対して規定される座標系の例を示す図であり、この例ではX軸周りの角度で姿勢を決める。(a)部分は角度0degの縦状態(スマートフォン1(撮像装置)が重力方向に沿っている第2状態)を示し、同図の(b)部分は角度90degの横状態(スマートフォン1(撮像装置)が水平方向に沿っている第1状態)を示す。また、図24はX軸周りの角度とスマートフォン1の姿勢(縦又は横)との関係の例を示す図である。なお、第1の実施形態に係るカメラ10の場合(図4を参照)と同様に、横状態(図23の(b)部分に示す状態)を基準(角度0deg)として姿勢及び状態(第1状態、第2状態、第3状態)を規定してもよい。
<Smartphone posture>
Part (a) of FIG. 23 is a diagram showing an example of a coordinate system defined for the smartphone 1. In this example, the attitude is determined by the angle around the X axis. Part (a) shows a vertical state at an angle of 0 degrees (second state in which the smartphone 1 (imaging device) is aligned with the direction of gravity), and part (b) of the figure shows a horizontal state at an angle of 90 degrees (smartphone 1 (imaging device) ) along the horizontal direction). Also, FIG. 24 is a diagram showing an example of the relationship between the angle around the X-axis and the orientation (vertical or horizontal) of the smartphone 1 . Note that, as in the case of the camera 10 according to the first embodiment (see FIG. 4), the horizontal state (the state shown in (b) of FIG. 23) is used as a reference (angle of 0 degrees) and the posture and state (first state, second state, third state) may be defined.

上述した構成のスマートフォン1においても、第1の実施形態に係るカメラ10と同様に本発明に係る撮像方法の処理(動画の撮影、分割、及び記録、静止画の記録、静止画抽出等)を実行することができる。具体的には、第1の実施形態(態様1から態様6の処理を含む)において画像処理装置240(図2に示す各部)が実行する処理をスマートフォン1ではカメラ部41,42及び主制御部101が実行できる。その他、第1の実施形態における操作部250、記憶部260、モニタ270の機能は、スマートフォン1において操作部40、記憶部50及び操作パネル22、表示パネル21及び操作パネル22によりそれぞれ実現することができる。 In the smartphone 1 configured as described above, as in the camera 10 according to the first embodiment, the processing of the imaging method according to the present invention (moving image shooting, division, and recording, still image recording, still image extraction, etc.) can be performed. can be executed. Specifically, the processing executed by the image processing device 240 (each unit shown in FIG. 2) in the first embodiment (including the processing of aspects 1 to 6) is performed by the camera units 41 and 42 and the main control unit in the smartphone 1. 101 can be executed. In addition, the functions of the operation unit 250, the storage unit 260, and the monitor 270 in the first embodiment can be realized by the operation unit 40, the storage unit 50, the operation panel 22, the display panel 21, and the operation panel 22 in the smartphone 1, respectively. can.

これにより、第2の実施形態に係るスマートフォン1においても、第1の実施形態に係るカメラ10と同様の効果(静止画として抽出したいフレームの選択や、動画ファイル、フォルダの整理を容易に行うことができること等)を得ることができる。 As a result, the smartphone 1 according to the second embodiment has the same effects as the camera 10 according to the first embodiment (selection of frames to be extracted as still images, easy organization of video files and folders). etc.) can be obtained.

以上で本発明の実施形態及び他の態様に関して説明してきたが、本発明は上述した実施形態及び態様に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能である。 Although the embodiments and other aspects of the present invention have been described above, the present invention is not limited to the above-described embodiments and aspects, and various modifications are possible without departing from the spirit of the present invention.

1 スマートフォン
2 筐体
10 カメラ
11 無線通信部
20 表示入力部
21 表示パネル
22 操作パネル
30 通話部
31 スピーカ
32 マイクロフォン
40 操作部
41 カメラ部
42 カメラ部
43 ストロボ
50 記憶部
51 内部記憶部
52 外部記憶部
60 外部入出力部
70 GPS受信部
80 モーションセンサ部
90 電源部
100 交換レンズ
101 主制御部
110 ズームレンズ
120 フォーカスレンズ
130 絞り
140 レンズ駆動部
200 撮像装置本体
210 撮像素子
220 AFE
230 A/D変換器
240 画像処理装置
240A 画像取得部
240B 方向検出部
240C 制御部
240D イベント検出部
240E 静止画抽出部
240F レンズ駆動制御部
242 ROM
250 操作部
260 記憶部
270 モニタ
280 姿勢センサ
1051 フレーム
1052 フレーム
1053 フレーム
1054 フレーム
1055 フレーム
1060 アイコン
1070 チェックボックス
L 光軸
S100~S197 撮像方法の各ステップ
ST1 GPS衛星
STn GPS衛星
1 smartphone 2 housing 10 camera 11 wireless communication unit 20 display input unit 21 display panel 22 operation panel 30 call unit 31 speaker 32 microphone 40 operation unit 41 camera unit 42 camera unit 43 strobe 50 storage unit 51 internal storage unit 52 external storage unit 60 External Input/Output Unit 70 GPS Receiving Unit 80 Motion Sensor Unit 90 Power Supply Unit 100 Interchangeable Lens 101 Main Control Unit 110 Zoom Lens 120 Focus Lens 130 Aperture 140 Lens Drive Unit 200 Imaging Apparatus Body 210 Imaging Device 220 AFE
230 A/D converter 240 Image processing device 240A Image acquisition unit 240B Direction detection unit 240C Control unit 240D Event detection unit 240E Still image extraction unit 240F Lens drive control unit 242 ROM
250 Operation unit 260 Storage unit 270 Monitor 280 Attitude sensor 1051 Frame 1052 Frame 1053 Frame 1054 Frame 1055 Frame 1060 Icon 1070 Check box L Optical axis S100 to S197 Each step of imaging method ST1 GPS satellite STn GPS satellite

Claims (16)

撮像装置であって、
重力方向に対する前記撮像装置の方向を検出する方向検出部と、
動画を撮影する撮影部と、
制御部と、
を備え、
前記制御部は、前記撮影部が撮影した動画の動画ファイルを生成し、前記動画ファイルから静止画を抽出可能な第1動画モードを有し、
前記制御部は、前記第1動画モードにおいて、前記方向検出部が撮像装置の重力方向に対する方向変化が起きたと判断した場合、動画を分割して第1動画と第2動画を生成し、
前記制御部は、
前記第1動画の第1動画ファイルと前記第2動画の第2動画ファイルを記憶部に保存し、
時間において、前記第1動画と前記第2動画の間にある第3動画を生成し、
前記第3動画は、前記方向変化が起きている第1期間の動画を含む、撮像装置。
An imaging device,
a direction detection unit that detects the direction of the imaging device with respect to the direction of gravity;
a shooting unit that shoots moving images;
a control unit;
with
The control unit has a first moving image mode capable of generating a moving image file of the moving image captured by the imaging unit and extracting a still image from the moving image file,
In the first moving image mode, the control unit divides the moving image to generate a first moving image and a second moving image when the direction detection unit determines that a direction change with respect to the direction of gravity of the imaging device has occurred,
The control unit
storing a first moving image file of the first moving image and a second moving image file of the second moving image in a storage unit;
generating a third animation that is between the first animation and the second animation in time;
The imaging device, wherein the third moving image includes a moving image of the first period in which the direction change occurs.
時間において、前記第1動画は前記第2動画よりも前であり、
前記方向検出部は、前記撮像装置が水平方向に沿っている第1状態、前記撮像装置が重力方向に沿っている第2状態、又は、前記撮像装置が前記第1状態と前記第2状態との間で変化している状態である第3状態のいずれかであるかを検出し、
前記第1動画は、前記撮像装置が前記第3状態である期間の動画を含む、請求項1に記載の撮像装置。
the first moving image is earlier than the second moving image in time;
The direction detection unit detects a first state in which the imaging device is aligned in a horizontal direction, a second state in which the imaging device is aligned in a direction of gravity, or a state in which the imaging device is in the first state and the second state. Detecting whether it is in any of the third states that are changing between
The imaging device according to claim 1, wherein said first moving image includes a moving image of a period in which said imaging device is in said third state.
前記制御部は、前記第3動画を前記記憶部に保存しない、請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein said control section does not store said third moving image in said storage section. 前記制御部は、前記第3動画を、前記第1動画ファイルを記憶するフォルダと同一のフォルダに保存する、請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein said control unit stores said third moving image in the same folder as a folder storing said first moving image file. 前記第3動画は、前記方向変化が終了した後の第2期間の動画も含む、請求項1、3又は4のいずれか1項に記載の撮像装置。 The imaging apparatus according to any one of claims 1, 3, and 4, wherein said third moving image also includes a moving image of a second period after said direction change is finished. 前記第1動画は、前記方向変化が終了した後の第2期間の動画も含む、請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein said first moving image also includes a moving image of a second period after said direction change is finished. 前記第2期間は、前記撮像装置が、動画の露出、動画のホワイトバランス、又は、動画中の被写体のフォーカスを調整している期間である、請求項5又は6に記載の撮像装置。 7. The imaging device according to claim 5, wherein said second period is a period during which said imaging device adjusts exposure of a moving image, white balance of a moving image, or focus of a subject in a moving image. 前記制御部は、前記第1動画ファイルと前記第2動画ファイルに、重力方向に対する前記撮像装置の方向に関する情報を付与する、請求項1ないし7のいずれか1項に記載の撮像装置。 8. The imaging apparatus according to any one of claims 1 to 7, wherein said control unit adds information regarding a direction of said imaging apparatus with respect to a direction of gravity to said first moving image file and said second moving image file. 前記制御部は、ユーザの指示を受け付ける受付部を有し、
前記第2動画の終了タイミングは、前記受付部によるユーザの第2動画終了指示又は動画撮影終了指示の受付に対応する、請求項1ないし8のいずれか1項に記載の撮像装置。
The control unit has a reception unit that receives a user's instruction,
The imaging apparatus according to any one of claims 1 to 8, wherein the end timing of the second moving image corresponds to reception of a user's second moving image end instruction or moving image shooting end instruction by the reception unit.
前記制御部内にあるユーザの指示を受け付ける受付部、又は特定のイベントを検出するイベント検出部を備え、
前記制御部は、前記受付部によるユーザの指示の受付中又は前記イベント検出部による特定のイベントの検出中に、前記方向検出部により前記方向変化を検出した場合、前記動画を分割しない、請求項9に記載の撮像装置。
A reception unit that receives user instructions in the control unit, or an event detection unit that detects a specific event,
The control unit does not divide the moving image when the direction detection unit detects the direction change while the reception unit is accepting a user's instruction or the event detection unit is detecting a specific event. 10. The imaging device according to 9.
前記制御部は、前記第1動画モードと撮影条件が異なる第2動画モードを有し、
前記制御部は、前記第2動画モードにおいて、前記方向検出部が前記方向変化を検出した場合、動画を分割しない、請求項1ないし10のいずれか1項に記載の撮像装置。
The control unit has a second moving image mode with different shooting conditions from the first moving image mode,
The imaging apparatus according to any one of claims 1 to 10, wherein in the second moving image mode, the control unit does not divide the moving image when the direction detection unit detects the direction change.
前記第1動画モードは、前記第2動画モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、ホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、かつ/又は前記第2動画モードに対してフレームレートが高く設定される請求項11に記載の撮像装置。 In the first moving image mode, at least one of a shutter speed, an autofocus speed, an automatic exposure follow-up speed, and a white balance follow-up speed is set higher than that in the second moving image mode, and/or 12. The imaging apparatus according to claim 11, wherein a higher frame rate is set for moving image mode. 前記第1動画ファイルと前記第2動画ファイルは、ファイル名の拡張子を除く少なくとも一部が共通している、請求項1ないし12のいずれか1項に記載の撮像装置。 13. The imaging apparatus according to any one of claims 1 to 12, wherein said first moving image file and said second moving image file have at least part in common except for an extension of a file name. 前記制御部は、前記第1動画ファイルを前記記憶部の第1フォルダに保存し、前記第2動画ファイルを前記記憶部の第2フォルダに保存する請求項1ないし13のいずれか1項に記載の撮像装置。 14. The control unit according to any one of claims 1 to 13, wherein the control unit saves the first moving image file in a first folder of the storage unit and saves the second moving image file in a second folder of the storage unit. imaging device. 重力方向に対する撮像装置の方向を検出する方向検出部と、動画を撮影する撮影部と、前記撮影部が撮影した動画のファイルから静止画を抽出可能な第1動画モードを有する制御部と、を備える撮像装置の撮像方法であって、
前記第1動画モードにおいて、前記方向検出部が撮像装置の重力方向に対する方向変化が起きたか否か判断する判断ステップと、
前記第1動画モードにおいて前記方向変化が起きたと判断された場合、前記制御部が動画を分割して第1動画と第2動画を生成する動画生成ステップと、
前記制御部が前記第1動画の第1動画ファイルと前記第2動画の第2動画ファイルを記憶部に保存する動画保存ステップと、
前記制御部が、時間において、前記第1動画と前記第2動画の間にある第3動画を生成する第3動画生成ステップと、
を有し、
前記第3動画は、前記方向変化が起きている第1期間の動画を含む撮像方法。
A direction detection unit that detects the direction of the imaging device with respect to the direction of gravity, a shooting unit that shoots a moving image, and a control unit that has a first moving image mode capable of extracting a still image from the file of the moving image shot by the shooting unit. An imaging method for an imaging device comprising
a determination step of determining whether or not the direction detection unit changes the direction of the imaging device with respect to the direction of gravity in the first moving image mode;
a moving image generation step of dividing the moving image by the control unit to generate a first moving image and a second moving image when it is determined that the direction change has occurred in the first moving image mode;
a moving image saving step in which the control unit saves a first moving image file of the first moving image and a second moving image file of the second moving image in a storage unit;
a third moving image generation step in which the control unit generates a third moving image that is between the first moving image and the second moving image in time;
has
The imaging method, wherein the third moving image includes a moving image of the first period in which the direction change occurs.
重力方向に対する撮像装置の方向を検出する方向検出部と、動画を撮影する撮影部と、前記撮影部が撮影した動画のファイルから静止画を抽出可能な第1動画モードを有する制御部と、を備える撮像装置を動作させるプログラムであって、
前記第1動画モードにおいて、前記方向検出部が撮像装置の重力方向に対する方向変化が起きたか否か判断させ、
前記第1動画モードにおいて前記方向変化が起きたと判断された場合、前記制御部が動画を分割して第1動画と第2動画を生成させ、
前記第1動画の第1動画ファイルと前記第2動画の第2動画ファイルを記憶部に保存させ、
前記制御部が、時間において、前記第1動画と前記第2動画の間にある第3動画を生成させ、
前記第3動画は、前記方向変化が起きている第1期間の動画を含むプログラム。
A direction detection unit that detects the direction of the imaging device with respect to the direction of gravity, a shooting unit that shoots a moving image, and a control unit that has a first moving image mode capable of extracting a still image from the file of the moving image shot by the shooting unit. A program for operating an imaging device comprising
causing the direction detection unit to determine whether or not a direction change has occurred with respect to the gravity direction of the imaging device in the first moving image mode;
when it is determined that the direction change has occurred in the first moving image mode, the control unit divides the moving image to generate a first moving image and a second moving image;
storing a first moving image file of the first moving image and a second moving image file of the second moving image in a storage unit;
The control unit generates a third animation that is between the first animation and the second animation in time;
The program, wherein the third moving image includes a moving image of the first period in which the direction change occurs.
JP2022195597A 2018-11-28 2022-12-07 Imaging device, imaging method, and program Pending JP2023024521A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018222661 2018-11-28
JP2018222661 2018-11-28
JP2020558308A JP7191980B2 (en) 2018-11-28 2019-11-12 IMAGING DEVICE, IMAGING METHOD, AND PROGRAM

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020558308A Division JP7191980B2 (en) 2018-11-28 2019-11-12 IMAGING DEVICE, IMAGING METHOD, AND PROGRAM

Publications (1)

Publication Number Publication Date
JP2023024521A true JP2023024521A (en) 2023-02-16

Family

ID=70853147

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020558308A Active JP7191980B2 (en) 2018-11-28 2019-11-12 IMAGING DEVICE, IMAGING METHOD, AND PROGRAM
JP2022195597A Pending JP2023024521A (en) 2018-11-28 2022-12-07 Imaging device, imaging method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020558308A Active JP7191980B2 (en) 2018-11-28 2019-11-12 IMAGING DEVICE, IMAGING METHOD, AND PROGRAM

Country Status (2)

Country Link
JP (2) JP7191980B2 (en)
WO (1) WO2020110710A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005328279A (en) 2004-05-13 2005-11-24 Canon Inc Recording device
JP2006093956A (en) 2004-09-22 2006-04-06 Canon Inc Imaging apparatus
US8013925B2 (en) 2005-12-01 2011-09-06 Panasonic Corporation Imaging device, display control device, display device, and image display system for improved thumbnail image display
JP2018074417A (en) 2016-10-31 2018-05-10 オリンパス株式会社 Imaging apparatus
JP2017163611A (en) 2017-06-12 2017-09-14 パナソニックIpマネジメント株式会社 Imaging apparatus

Also Published As

Publication number Publication date
JP7191980B2 (en) 2022-12-19
WO2020110710A1 (en) 2020-06-04
JPWO2020110710A1 (en) 2021-10-14

Similar Documents

Publication Publication Date Title
US10165243B2 (en) Image processing device, imaging device, image processing method, and program
US10021361B2 (en) Image processing device, imaging device, image processing method, and program
US11438521B2 (en) Image capturing device, image capturing method, and program
US20170013242A1 (en) Image processing device, imaging device, image processing method, and program
US20140210941A1 (en) Image capture apparatus, image capture method, and image capture program
US11032483B2 (en) Imaging apparatus, imaging method, and program
JP7110406B2 (en) IMAGING DEVICE, IMAGING METHOD, AND PROGRAM
US8189055B2 (en) Digital photographing apparatus and method of controlling the same
JP7191980B2 (en) IMAGING DEVICE, IMAGING METHOD, AND PROGRAM
JP7150053B2 (en) IMAGING DEVICE, IMAGING METHOD, AND PROGRAM
US20220094935A1 (en) Image processing device, imaging device, image processing method, and image processing program
JP7060703B2 (en) Shooting equipment, shooting method, and program
KR20060013085A (en) Apparatus and method for editing a part of picture in mobile communication terminal
CN106993138B (en) Time-gradient image shooting device and method
JPWO2020161969A1 (en) Image processing device, photographing device, image processing method and image processing program
JP7003286B2 (en) Shooting equipment, shooting method, and program
US20240223763A1 (en) Device and method for adaptive quantization based on video capturing mode
WO2020003944A1 (en) Imaging device, imaging method, and program
WO2020066316A1 (en) Photographing apparatus, photographing method, and program
CN115989670A (en) Imaging device, imaging instruction method, and imaging instruction program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240624