JP7150053B2 - IMAGING DEVICE, IMAGING METHOD, AND PROGRAM - Google Patents

IMAGING DEVICE, IMAGING METHOD, AND PROGRAM Download PDF

Info

Publication number
JP7150053B2
JP7150053B2 JP2020559846A JP2020559846A JP7150053B2 JP 7150053 B2 JP7150053 B2 JP 7150053B2 JP 2020559846 A JP2020559846 A JP 2020559846A JP 2020559846 A JP2020559846 A JP 2020559846A JP 7150053 B2 JP7150053 B2 JP 7150053B2
Authority
JP
Japan
Prior art keywords
moving image
imaging device
control unit
file
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020559846A
Other languages
Japanese (ja)
Other versions
JPWO2020116102A1 (en
Inventor
哲 和田
健吉 林
康一 田中
幸徳 西山
哲也 藤川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020116102A1 publication Critical patent/JPWO2020116102A1/en
Application granted granted Critical
Publication of JP7150053B2 publication Critical patent/JP7150053B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/46Means for exposing single frames in motion-picture camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Description


本発明は動画を撮影する撮像装置、撮像方法、及びプログラムに関し、特に動画を構成するフレームを静止画として抽出可能な撮像装置、撮像方法、及びプログラムに関する。

The present invention relates to an image capturing apparatus, an image capturing method, and a program for capturing moving images, and more particularly to an image capturing apparatus, an image capturing method, and a program capable of extracting frames constituting a moving image as still images.


撮影後に静止画を抽出することを目的として動画を撮影する技術が知られている。この技術では、例えばいつ起こるか分からない一瞬の事象(イベント)を捉えるために動画を撮影及び記録しておき、撮影後にユーザが所望のフレームを選択するが、動画撮影中にいつイベントが発生するかは予測が難しい。そのため、ある程度の時間にわたって動画を撮影し続ける必要があり、記録メディアの残容量が切迫する、あるいは長時間の動画から所望のフレームをユーザが選択するのに非常に大きな労力を要する、といった課題がある。

2. Description of the Related Art Techniques for capturing moving images for the purpose of extracting still images after capturing are known. With this technology, for example, a moving image is captured and recorded in order to capture an instantaneous event that cannot be predicted at any time, and the user selects a desired frame after capturing. is difficult to predict. For this reason, it is necessary to continue shooting moving images for a certain amount of time, and there are problems such as the remaining capacity of the recording medium becoming scarce and the user having to select desired frames from a long moving image requiring a great deal of effort. be.


そこで、上述した課題に対応する技術が提案されている。例えば特許文献1には、動画の撮影中にユーザの指示により静止画取得タイミングで動画にマーキングし、動画撮影終了後にマーキング箇所及びその前後の動画フレームを抽出及び表示することで、ユーザが動画における静止画抽出のタイミングを選択することを可能にする旨が記載されている。

Therefore, techniques for dealing with the above problems have been proposed. For example, in Patent Literature 1, a moving image is marked at the timing of obtaining a still image according to a user's instruction during recording of the moving image, and after the moving image recording is completed, the marked portion and the moving image frames before and after the marking are extracted and displayed, thereby enabling the user to view the moving image. It is described that the timing of still image extraction can be selected.


特開2016-32303号公報JP 2016-32303 A


しかしながら、上述した特許文献1に記載の技術ではマーキング情報が記録されるだけなので、マーキングしたフレームを抽出及び表示する度に画像ファイルの検索処理が必要であり、撮像装置への処理負荷が高い。また、特許文献1に記載の技術では撮影した動画全体に対して処理を行うため、抽出するフレームの選択に手間が掛かり、動画の撮影時間が長い場合はこの問題が顕著になる。さらに、特許文献1では静止画抽出用の動画を撮影している間の構図変化について考慮されていなかった。このため、従来の技術は、動画から静止画を抽出する際にユーザが所望の構図の動画フレームを迅速かつ容易に選択できるものではなかった。

However, since the technique described in Patent Document 1 described above only records marking information, image file search processing is required each time a marked frame is extracted and displayed, and the processing load on the imaging device is high. In addition, since the technique described in Patent Document 1 performs processing on the entire captured moving image, it takes time and effort to select frames to be extracted, and this problem becomes significant when the moving image capturing time is long. Furthermore, in Japanese Patent Application Laid-Open No. 2002-200010, no consideration is given to a change in composition while shooting a moving image for extracting still images. For this reason, the conventional technology does not allow the user to quickly and easily select a moving image frame with a desired composition when extracting a still image from a moving image.


本発明はこのような事情に鑑みてなされたもので、動画から静止画を抽出する際に、ユーザが所望の構図の動画フレームを迅速かつ容易に選択することができる撮像装置、撮像方法、及びプログラムを提供することを目的とする。

SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and provides an imaging apparatus, an imaging method, and an imaging apparatus that enable a user to quickly and easily select a moving image frame with a desired composition when extracting a still image from a moving image. The purpose is to provide a program.


上述した目的を達成するため、本発明の第1の態様に係る撮像装置は、撮像装置であって、重力方向に対する撮像装置の方向を検出する方向検出部と、動画を撮影する撮影部と、制御部と、を備え、制御部は、撮影部が撮影した動画の動画ファイルを生成し、動画ファイルから静止画を抽出可能な第1動画モードを有し、制御部は、第1動画モードにおいて、方向検出部が撮像装置の重力方向に対する方向変化が起きたと判断した場合、動画を分割して第1動画と第2動画を生成し、制御部は、第1動画の第1動画ファイルと第2動画の第2動画ファイルを、記憶部の同一のフォルダに保存する。

In order to achieve the above object, an imaging device according to a first aspect of the present invention is an imaging device comprising: a direction detection unit for detecting the direction of the imaging device with respect to the direction of gravity; an imaging unit for capturing moving images; a control unit, wherein the control unit generates a moving image file of a moving image captured by the imaging unit, and has a first moving image mode capable of extracting a still image from the moving image file; , when the direction detection unit determines that the direction of the imaging device has changed with respect to the direction of gravity, the moving image is divided to generate a first moving image and a second moving image. The second moving image files of the two moving images are stored in the same folder in the storage unit.


通常、静止画撮影においては、ユーザは所望の構図に応じてカメラ(撮像装置)を横向き(カメラ底面が地面と平行)になるように、あるいは縦向き(カメラ底面が重力方向と平行)になるように構えて撮影する。これに対し動画撮影においては、撮影中に縦と横を切り替えることは少ない。一方、静止画の抽出を行うための動画撮影においては、事後的にフレーム切り出しを行うという特性上、動画撮影中にもカメラの構え方が縦と横で変化することが想定される。このような観点から、第1の態様では、重力方向に対する方向変化(撮像装置の姿勢の変化)が起きた場合に動画を分割して第1動画と第2動画を生成し、第1動画の第1動画ファイルと第2動画の第2動画ファイルを記憶部の同一のフォルダに保存する。この「同一のフォルダ」内において第1動画と第2動画とが別ファイルになっているので、各動画を撮影した際の撮像装置の姿勢を容易に識別でき、ユーザは所望の構図のフレームを含む動画を撮像装置の姿勢を手がかりにして迅速かつ容易に選択することができる。

Normally, in still image shooting, the user sets the camera (imaging device) horizontally (the bottom surface of the camera is parallel to the ground) or vertically (the bottom surface of the camera is parallel to the direction of gravity) depending on the desired composition. Hold the camera like this and shoot. In video shooting, on the other hand, it is rare to switch between vertical and horizontal orientations during shooting. On the other hand, in moving image shooting for extracting still images, it is assumed that the way the camera is held changes between vertical and horizontal during moving image shooting due to the characteristic that frames are cut out after the fact. From this point of view, in the first aspect, when a change in direction with respect to the direction of gravity (a change in the attitude of the imaging device) occurs, the video is divided to generate the first video and the second video, and the first video and the second video are generated. The first moving image file and the second moving image file of the second moving image are saved in the same folder in the storage unit. Since the first moving image and the second moving image are separate files in this "same folder", it is possible to easily identify the posture of the imaging device when each moving image was shot, and the user can select frames with a desired composition. It is possible to quickly and easily select a moving image including the moving image by using the attitude of the imaging device as a clue.


また、第1動画ファイルと第2動画ファイルとを同一のフォルダに保存することで、連続したシーンを同一フォルダに保存することができ、フォルダ内でファイル情報のみからシーンの絞り込みを行うことができる。このため動画ファイルの検索処理に長時間を要することがない。また、動画ファイルの途中で姿勢が切り替わっている場合は表示方向の切り替えをファイルデコード中に行わなければならず、処理時間が不連続となり表示がスムーズに切り替わらないが、第1の態様では姿勢が変化したら動画を分割するので、ファイルを開く際に縦横方向の属性が分かり、ファイル先頭より一定間隔で表示の更新が可能となる。

Also, by saving the first moving image file and the second moving image file in the same folder, consecutive scenes can be saved in the same folder, and the scenes can be narrowed down only from the file information in the folder. . Therefore, it does not take a long time to search for moving image files. Also, if the orientation is switched in the middle of the moving image file, the display direction must be switched during file decoding, and the processing time becomes discontinuous, and the display does not switch smoothly. Since the video is split when it changes, the vertical and horizontal attributes can be known when the file is opened, and the display can be updated at regular intervals from the beginning of the file.


また、静止画として抽出するフレームは分割され記録時間が短くなった動画の中で探せばよいので、所望のフレームを迅速に探すことができる。このように、第1の態様によれば、動画から静止画を抽出する際に、ユーザが所望の構図の動画フレームを迅速かつ容易に選択することができる。さらに、第1の態様ではタグやマーキング等の情報を用いる必要がないので、第1の態様で記録された動画に基づくと、フレームの選択や静止画の抽出を、他の撮像装置や画像再生装置、画像処理装置でも行うことができる。なお、動画ファイルを保存する記憶部は撮像装置に備えられたものでもよいし、外部の装置でもよい。

In addition, since the frame to be extracted as a still image can be found in the divided moving image whose recording time is shortened, the desired frame can be quickly found. Thus, according to the first aspect, when extracting a still image from a moving image, the user can quickly and easily select a moving image frame with a desired composition. Furthermore, since it is not necessary to use information such as tags and markings in the first mode, frame selection and still image extraction based on moving images recorded in the first mode can be performed by other imaging devices or image reproduction. It can also be performed with an apparatus or an image processing apparatus. Note that the storage unit that stores the moving image file may be provided in the imaging device, or may be an external device.


第2の態様に係る撮像装置は第1の態様において、制御部は、重力方向に対する撮像装置の方向に関する情報に基づいて、第1動画ファイルと第2動画ファイルを保存する。例えば、ファイル名もしくはその一部、動画ファイルのヘッダやフッタ等に情報を付与して保存することができる。

In the first aspect of the imaging device according to the second aspect, the control unit stores the first moving image file and the second moving image file based on information regarding the direction of the imaging device with respect to the direction of gravity. For example, it is possible to add information to a file name or a part thereof, a header or footer of a moving image file, and save the information.


第3の態様に係る撮像装置は第1又は第2の態様において、制御部は、時間において、第1動画と第2動画の間にある第3動画を生成し、第3動画は、方向変化が起きた第1期間の動画を含む。第3の態様では、方向変化が起きている期間(第1期間)を第1,第2動画とは別の動画(第3動画)にして、方向変化が起きている期間をユーザが容易に識別できるようにしている。

In the imaging device according to the third aspect, in the first or second aspect, the control unit generates a third moving image that is between the first moving image and the second moving image in time, and the third moving image is the direction change Includes videos of the first period when the In the third aspect, the period during which the direction change occurs (first period) is set to a moving image (third moving image) different from the first and second moving images, so that the user can easily see the period during which the direction change occurs. making it identifiable.


第4の態様に係る撮像装置は第3の態様において、制御部は、第3動画を記憶部に保存をしない。第4の態様によれば、方向変化が起きている期間(第1期間)の動画を保存しないことで、記憶部の容量を節約することができる。

In the third aspect of the imaging device according to the fourth aspect, the control unit does not store the third moving image in the storage unit. According to the fourth aspect, it is possible to save the capacity of the storage unit by not saving the moving image during the period in which the direction change occurs (the first period).


第5の態様に係る撮像装置は第3の態様において、制御部は、第3動画を同一のフォルダとは別のフォルダに保存する。第5の態様では、方向変化が起きている期間の動画(第3動画)を第1,第2動画を保存するフォルダとは別のフォルダにすることにより、第1,第2動画と第3動画とをユーザが容易に識別できるようにしている。

In the third aspect of the imaging device according to the fifth aspect, the control unit saves the third moving image in a folder different from the same folder. In the fifth aspect, by storing the moving image (third moving image) during the period in which the direction change occurs in a folder different from the folder for saving the first and second moving images, the first and second moving images and the third moving image The user can easily identify the moving image.


第6の態様に係る撮像装置は第3ないし第5の態様のいずれか1つにおいて、第3動画は、方向変化が終了した後の第2期間の動画も含む。方向変化が終了しても構図の変化に伴い撮影条件が安定していない可能性があるため、第6の態様では、方向変化が終了した後も第2期間においては第3動画に含めている。

In any one of the third to fifth aspects, the imaging device according to the sixth aspect includes the third moving image including the moving image of the second period after the direction change is completed. Since there is a possibility that the shooting conditions may not be stable due to the change in composition even after the change in direction is completed, in the sixth aspect, even after the end of the change in direction is included in the third moving image in the second period. .


第7の態様に係る撮像装置は第6の態様において、第2期間は、撮像装置が、動画の露出、動画のホワイトバランス、又は、動画中の被写体のフォーカスを調整している期間である。第7の態様は、第2期間の内容を具体的に規定するものである。

An imaging device according to a seventh aspect is the imaging device according to the sixth aspect, wherein the second period is a period during which the imaging device adjusts the exposure of the moving image, the white balance of the moving image, or the focus of the subject in the moving image. A seventh aspect specifically defines the content of the second period.


第8の態様に係る撮像装置は第1ないし第7の態様のいずれか1つにおいて、第1動画ファイルおよび第2動画ファイルは、ファイル名の拡張子を除く少なくとも一部が共通している。これにより、ユーザは第1動画ファイルと第2動画ファイルとが1つの動画を分割して生成されたファイルであることを容易に識別することができる。

According to an eighth aspect, in any one of the first to seventh aspects, the first moving image file and the second moving image file share at least a part except for the extension of the file name. Thereby, the user can easily identify that the first moving image file and the second moving image file are files generated by dividing one moving image.


第9の態様に係る撮像装置は第1ないし第8の態様のいずれか1つにおいて、制御部は、第1動画モードと撮影条件が異なる第2動画モードを有し、制御部は、第2動画モードにおいて、方向検出部が方向変化を検出した場合、動画を分割しない。例えば、動画からの静止画の抽出を前提としない通常の動画モードを第2動画モードとすることができる。

An imaging device according to a ninth aspect is any one of the first to eighth aspects, wherein the control unit has a second moving image mode different in imaging conditions from the first moving image mode, In moving image mode, when the direction detection unit detects a direction change, the moving image is not divided. For example, a normal moving image mode that does not presuppose extraction of still images from a moving image can be set as the second moving image mode.


第10の態様に係る撮像装置は第9の態様において、第1動画モードは、第2動画モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、ホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、かつ/または第2動画モードに対してフレームレートが高く設定される。第10の態様は、第1動画モードと第2動画モードとの撮影条件の違いの一態様を規定するものであり、第1動画モードの撮影条件をこのように設定することで、動画から高画質な静止画を抽出することができる。

In the imaging apparatus according to the tenth aspect, in the ninth aspect, the first moving image mode has at least one of a shutter speed, an autofocus speed, an automatic exposure follow-up speed, and a white balance follow-up speed with respect to the second moving image mode. One is set to fast and/or the frame rate is set to high for the second video mode. The tenth aspect defines one aspect of the difference in shooting conditions between the first moving image mode and the second moving image mode. High-quality still images can be extracted.


上述した目的を達成するため、本発明の第11の態様に係る撮像装置は撮像装置であって、重力方向に対する撮像装置の方向を検出する方向検出部と、動画を撮影する撮影部と、制御部と、を備え、制御部は、撮影部が撮影した動画の動画ファイルから静止画を抽出可能な第1動画モードと、第1動画モードと撮影条件が異なる第2動画モードを有し、制御部は、第1動画モードにおいて、方向検出部が撮像装置の重力方向に対する方向変化が起きたと判断した場合、動画を分割して第1動画と第2動画を生成し、制御部は、第2動画モードにおいて、方向検出部が、方向変化が起きたと判断した場合、動画を分割しない。第11の態様では、第1動画モードにおいて、重力方向に対する方向変化(撮像装置の姿勢の変化)が起きた場合に動画を分割して第1動画と第2動画を生成する。これにより各動画を撮影した際の撮像装置の姿勢を容易に識別でき、ユーザは静止画として抽出したいフレームを含む動画を撮像装置の姿勢を手がかりにして容易に選択することができる。なお、例えば動画からの静止画の抽出を前提としない通常の動画モードを第2動画モードとすることができる。

To achieve the above object, an imaging device according to an eleventh aspect of the present invention is an imaging device comprising a direction detection unit for detecting the direction of the imaging device with respect to the direction of gravity, an imaging unit for capturing moving images, and a control unit. a control unit having a first moving image mode capable of extracting a still image from a moving image file of a moving image captured by the imaging unit, and a second moving image mode having different shooting conditions from the first moving image mode, and controlling In the first moving image mode, the unit divides the moving image to generate a first moving image and a second moving image when the direction detecting unit determines that the direction of the imaging device has changed with respect to the gravity direction, and the control unit generates the second moving image. In moving image mode, when the direction detection unit determines that a direction change has occurred, the moving image is not divided. In the eleventh aspect, in the first moving image mode, the moving image is divided to generate the first moving image and the second moving image when a direction change with respect to the gravity direction (a change in the attitude of the imaging device) occurs. This makes it possible to easily identify the posture of the imaging device when each moving image is taken, and the user can easily select a moving image including a frame to be extracted as a still image by using the posture of the imaging device as a clue. Note that, for example, a normal moving image mode that does not presuppose extraction of still images from a moving image can be set as the second moving image mode.


第12の態様に係る撮像装置は第11の態様において、制御部は、重力方向に対する撮像装置の方向に関する情報に基づいて、第1動画の第1動画ファイルと第2動画の第2動画ファイルを保存する。例えば、ファイル名もしくはその一部、動画ファイルのヘッダやフッタ等に情報を付与して保存することができる。

An imaging device according to a twelfth aspect is the eleventh aspect, wherein the control unit converts the first moving image file of the first moving image and the second moving image file of the second moving image based on information about the direction of the imaging device with respect to the direction of gravity. save. For example, it is possible to add information to a file name or a part thereof, a header or footer of a moving image file, and save the information.


第13の態様に係る撮像装置は第11又は第12の態様において、制御部は、時間において、第1動画と第2動画の間にある第3動画を生成し、第3動画は、方向変化が起きている第1期間の動画を含む。第13の態様では、方向変化が起きている期間(第1期間)を第1,第2動画とは別の動画(第3動画)にして、ユーザが容易に識別できるようにしている。

In the eleventh or twelfth aspect of the imaging device according to the thirteenth aspect, the control unit generates a third moving image that is between the first moving image and the second moving image in terms of time, and the third moving image changes direction. Includes a video of the first period in which is occurring. In the thirteenth aspect, the period during which the direction change occurs (first period) is a moving image (third moving image) different from the first and second moving images so that the user can easily identify it.


第14の態様に係る撮像装置は第13の態様において、制御部は、第3動画を保存しない。第14の態様によれば、方向変化が起きている期間(第1期間)の動画を保存しないことで、記憶部の容量を節約することができる。

In the thirteenth aspect of the imaging device according to the fourteenth aspect, the control unit does not save the third moving image. According to the fourteenth aspect, it is possible to save the capacity of the storage unit by not saving the moving image during the period in which the direction change occurs (the first period).


第15の態様に係る撮像装置は第13の態様において、制御部は、第3動画を第1動画を保存するフォルダ及び第2動画を保存するフォルダとは別のフォルダに保存する。第15の態様では、方向変化が起きている期間の動画(第3動画)を第1,第2動画を保存するフォルダとは別のフォルダにすることにより、第1,第2動画と第3動画とをユーザが容易に識別できるようにしている。

In the imaging apparatus according to the fifteenth aspect, in the thirteenth aspect, the control unit stores the third moving image in a folder different from the folder storing the first moving image and the folder storing the second moving image. In the fifteenth aspect, by storing the moving image (third moving image) during the period in which the direction change occurs in a folder different from the folder for storing the first and second moving images, the first and second moving images and the third moving image The user can easily identify the moving image.


第16の態様に係る撮像装置は第13又は第14の態様において、第3動画は、方向変化が終了した後の第2期間の動画も含む。第16の態様は、方向変化が終了しても構図の変化に伴い撮影条件が安定していない可能性があるため、方向変化が終了した後も第2期間においては第3動画に含めている。

In the thirteenth or fourteenth aspect, the imaging device according to the sixteenth aspect is such that the third moving image also includes the moving image of the second period after the direction change is completed. In the sixteenth aspect, even after the change in direction is completed, the shooting conditions may not be stable due to the change in composition, so even after the change in direction is completed, it is included in the third moving image in the second period. .


第17の態様に係る撮像装置は第16の態様において、第2期間は、撮像装置が、動画の露出、動画のホワイトバランス、又は、動画中の被写体のフォーカスを調整している期間である。第17の態様は、第2期間の内容を具体的に規定するものである。

An imaging device according to a seventeenth aspect is the imaging device according to the sixteenth aspect, wherein the second period is a period during which the imaging device adjusts the exposure of the moving image, the white balance of the moving image, or the focus of the subject in the moving image. The seventeenth aspect specifically defines the content of the second period.


第18の態様に係る撮像装置は第11ないし第17の態様のいずれか1つにおいて、第1動画の第1動画ファイルおよび第2動画の第2動画ファイルのファイル名は、少なくとも一部が共通している。これにより、ユーザは第1動画ファイルと第2動画ファイルとが1つの動画を分割して生成されたファイルであることを容易に識別することができる。

An imaging device according to an eighteenth aspect is the imaging device according to any one of the eleventh to seventeenth aspects, wherein the file names of the first moving image file of the first moving image and the second moving image file of the second moving image are at least partly common. is doing. Thereby, the user can easily identify that the first moving image file and the second moving image file are files generated by dividing one moving image.


第19の態様に係る撮像装置は第2又は第12の態様において、制御部は、第1動画ファイルと第2動画ファイルに重力方向に対する撮像装置の方向に関する情報を付与する。

In the imaging device according to the nineteenth aspect, in the second or twelfth aspect, the control unit adds information about the direction of the imaging device with respect to the direction of gravity to the first moving image file and the second moving image file.


上述した目的を達成するため、本発明の第20の態様に係る撮像方法は、重力方向に対する撮像装置の方向を検出する方向検出部と、動画を撮影する撮影部と、撮影部が撮影した動画の動画ファイルから静止画を抽出可能な第1動画モードを有する制御部とを備える撮像装置の撮像方法であって、第1動画モードにおいて、方向検出部が撮像装置の重力方向に対する方向変化が起きたか否か判断する判断ステップと、方向検出部により、方向変化が起きたと判断された場合は、動画を分割して第1動画と第2動画を生成する生成ステップと、第1動画の第1動画ファイルと第2動画の第2動画ファイルを、記憶部の同一のフォルダに保存する保存ステップと、を備える。第20の態様によれば、第1の態様と同様に、第1動画モードにおいて重力方向に対する方向変化(撮像装置の姿勢の変化)が起きた場合に動画を分割して第1動画と第2動画を生成する。これにより各動画を撮影した際の撮像装置の姿勢を容易に識別でき、ユーザは動画から静止画を抽出する際に、ユーザが所望の構図の動画フレームを迅速かつ容易に選択することができる。なお、第20の態様において、第2~第10の態様と同様の構成をさらに備えていてもよい。

To achieve the above object, an imaging method according to a twentieth aspect of the present invention includes a direction detection unit for detecting the direction of an imaging device with respect to the direction of gravity, an imaging unit for capturing a moving image, and a moving image captured by the imaging unit. and a control unit having a first moving image mode capable of extracting a still image from a moving image file, wherein in the first moving image mode, the orientation detection unit changes the orientation of the imaging device with respect to the gravity direction. a generation step of dividing the moving image to generate a first moving image and a second moving image when the direction detecting unit determines that a direction change has occurred; a generating step of generating a first moving image and a second moving image; and a saving step of saving the moving image file and the second moving image file of the second moving image in the same folder of the storage unit. According to the twentieth aspect, as in the first aspect, when a change in direction with respect to the direction of gravity (a change in the posture of the imaging device) occurs in the first moving image mode, the moving image is divided into the first moving image and the second moving image. Generate videos. This makes it possible to easily identify the posture of the imaging device when each moving image is taken, and when the user extracts a still image from the moving image, the user can quickly and easily select a moving image frame with a desired composition. Note that the twentieth aspect may further include a configuration similar to that of the second to tenth aspects.


上述した目的を達成するため、本発明の第21の態様に係る撮像方法は、重力方向に対する撮像装置の方向を検出する方向検出部と、動画を撮影する撮影部と、撮影部が撮影した動画の動画ファイルから静止画を抽出可能な第1動画モード及び第1動画モードと撮影条件が異なる第2動画モードを有する制御部とを備える撮像装置の撮像方法であって、第1動画モードにおいて、方向検出部が撮像装置の重力方向に対する方向変化が起きたか否か判断する判断ステップと、方向検出部により、方向変化が起きたと判断された場合は、第1動画モードにおいて動画を分割して第1動画と第2動画を生成し、第2動画モードにおいて動画を分割しない動画生成ステップと、を有する。第21の態様によれば、第11の態様と同様に、第1動画モードにおいて重力方向に対する方向変化(撮像装置の姿勢の変化)が起きた場合に動画を分割して第1動画と第2動画を生成する。これにより各動画を撮影した際の撮像装置の姿勢を容易に識別でき、ユーザは動画から静止画を抽出する際に、ユーザが所望の構図の動画フレームを迅速かつ容易に選択することができる。なお、例えば動画からの静止画の抽出を行わない通常の動画モードを第2動画モードとすることができる。なお、第21の態様において、第12~第18の態様と同様の構成をさらに備えていてもよい。

To achieve the above object, an imaging method according to a twenty-first aspect of the present invention includes a direction detection unit for detecting the direction of an imaging device with respect to the direction of gravity, an imaging unit for capturing a moving image, and a moving image captured by the imaging unit. a first moving image mode capable of extracting a still image from a moving image file and a control unit having a second moving image mode having different shooting conditions from the first moving image mode, wherein in the first moving image mode, a determination step in which the direction detection unit determines whether or not a direction change with respect to the direction of gravity of the imaging device has occurred; generating a first moving image and a second moving image, and not dividing the moving image in the second moving image mode. According to the twenty-first aspect, as in the eleventh aspect, when a change in direction with respect to the direction of gravity (a change in the posture of the imaging device) occurs in the first moving image mode, the moving image is divided into the first moving image and the second moving image. Generate videos. This makes it possible to easily identify the posture of the imaging device when each moving image is shot, and when the user extracts a still image from the moving image, the user can quickly and easily select a moving image frame with a desired composition. For example, a normal moving image mode in which still images are not extracted from a moving image can be set as the second moving image mode. The twenty-first aspect may further include the same configuration as the twelfth to eighteenth aspects.


上述した目的を達成するため、本発明の第22の態様に係るプログラムは、重力方向に対する撮像装置の方向を検出する方向検出部と、動画を撮影する撮影部と、撮影部が撮影した動画のファイルから静止画を抽出可能な第1動画モードを有する制御部とを備える撮像装置に用いられるプログラムであって、第1動画モードにおいて、方向検出部に撮像装置の重力方向に対する方向変化が起きたか否か判断させ、方向検出部により、第1動画モードにおいて方向変化が起きたと判断された場合、制御部に動画を分割させて第1動画と第2動画を生成させ、制御部に、第1動画の第1動画ファイルと第2動画の第2動画ファイルを、記憶部の同一のフォルダに保存させる。第21の態様により得られる効果は第20の態様と同様である。なお、第22の態様において、第2~第10の態様と同様の構成をさらに備えていてもよい。また、これら態様のプログラムのコンピュータ読み取り可能なコードを記録した非一時的記録媒体も、本発明の態様として挙げることができる。

To achieve the above object, a program according to a twenty-second aspect of the present invention includes: a direction detection unit for detecting the direction of an imaging device with respect to the direction of gravity; A program for use in an image capturing apparatus comprising a control unit having a first moving image mode capable of extracting a still image from a file, wherein in the first moving image mode, whether or not the orientation of the image capturing unit changes with respect to the direction of gravity of the image capturing unit. If the direction detection unit determines that a direction change has occurred in the first moving image mode, the control unit is caused to divide the moving image to generate a first moving image and a second moving image, and the control unit causes the first moving image to be generated. The first moving image file of the moving image and the second moving image file of the second moving image are stored in the same folder of the storage unit. The effects obtained by the twenty-first aspect are the same as those of the twentieth aspect. Note that the twenty-second aspect may further include the same configuration as those of the second to tenth aspects. In addition, a non-transitory recording medium in which computer-readable codes of programs of these aspects are recorded can also be cited as an aspect of the present invention.


上述した目的を達成するため、本発明の第23の態様に係るプログラムは、重力方向に対する撮像装置の方向を検出する方向検出部と、動画を撮影する撮影部と、撮影部が撮影した動画のファイルから静止画を抽出可能な第1動画モード及び第1動画モードと撮影条件が異なる第2動画モードを有する制御部とを備える撮像装置に用いられるプログラムであって、第1動画モードにおいて、方向検出部に撮像装置の重力方向に対する方向変化が起きたか否か判断させ、方向検出部により、第1動画モードにおいて方向変化が起きたと判断された場合、制御部に動画を分割させて第1動画と第2動画を生成させ、方向検出部により、第2動画モードにおいて方向変化が起きたと判断された場合、動画を分割させない。第23の態様により得られる効果は第21の態様と同様である。なお、第23の態様において、第12~第18の態様と同様の構成をさらに備えていてもよい。また、これら態様のプログラムのコンピュータ読み取り可能なコードを記録した非一時的記録媒体も、本発明の態様として挙げることができる。

To achieve the above object, a program according to a twenty-third aspect of the present invention includes: a direction detection unit for detecting the direction of an imaging device with respect to the direction of gravity; A program for use in an imaging device comprising a first moving image mode capable of extracting a still image from a file and a control unit having a second moving image mode in which shooting conditions are different from the first moving image mode, wherein in the first moving image mode, a direction causing the detection unit to determine whether or not a direction change has occurred with respect to the gravity direction of the imaging device, and if the direction detection unit determines that a direction change has occurred in the first moving image mode, causes the control unit to divide the moving image into the first moving image; and the second moving image is generated, and the moving image is not divided when the direction detection unit determines that the direction change has occurred in the second moving image mode. The effect obtained by the twenty-third aspect is the same as that of the twenty-first aspect. Note that the twenty-third aspect may further include a configuration similar to that of the twelfth to eighteenth aspects. In addition, a non-transitory recording medium in which computer-readable codes of programs of these aspects are recorded can also be cited as an aspect of the present invention.


以上説明したように、本発明の撮像装置、撮像方法、及びプログラムによれば、動画から静止画を抽出する際に、ユーザが所望の構図の動画フレームを迅速かつ容易に選択することができる。

As described above, according to the image capturing apparatus, image capturing method, and program of the present invention, the user can quickly and easily select moving image frames with a desired composition when extracting still images from moving images.


図1は、第1の実施形態に係るカメラの構成を示す図である。FIG. 1 is a diagram showing the configuration of a camera according to the first embodiment. 図2は、画像処理装置の機能構成を示す図である。FIG. 2 is a diagram showing the functional configuration of the image processing apparatus. 図3は、カメラの座標系を示す図である。FIG. 3 is a diagram showing the coordinate system of the camera. 図4は、姿勢判定と動画分割の例を示す図である。FIG. 4 is a diagram illustrating an example of posture determination and moving image division. 図5は、撮像方法の処理を示すフローチャートである。FIG. 5 is a flow chart showing the processing of the imaging method. 図6は、動画の分割記録の様子を示す図である。FIG. 6 is a diagram showing how a moving image is divided and recorded. 図7は、カメラの姿勢変化と動画の分割及び保存の様子を示す図である。FIG. 7 is a diagram showing changes in camera posture and how moving images are divided and saved. 図8は、フォルダ構成の例を示す図である。FIG. 8 is a diagram showing an example of a folder structure. 図9は、フォルダ構成の例を示す他の図である。FIG. 9 is another diagram showing an example of the folder structure. 図10は、動画ファイルのアイコン表示の例を示す図である。FIG. 10 is a diagram showing an example of icon display of a moving image file. 図11は、動画ファイルのアイコンにサムネイル画像を付した様子を示す図である。FIG. 11 is a diagram showing a state in which thumbnail images are added to icons of moving image files. 図12は、ファイル情報によるシーン絞り込み表示の例を示す図である。FIG. 12 is a diagram showing an example of scene narrowing-down display based on file information. 図13は、撮像方法の処理を示す他のフローチャートである。FIG. 13 is another flow chart showing the processing of the imaging method. 図14は、姿勢判定と動画分割の他の例を示す図である。FIG. 14 is a diagram illustrating another example of posture determination and moving image division. 図15は、姿勢判定と動画分割のさらに他の例を示す図である。FIG. 15 is a diagram showing still another example of posture determination and moving image division. 図16は、姿勢判定と動画分割のさらに他の例を示す図である。FIG. 16 is a diagram showing still another example of posture determination and moving image division. 図17は、姿勢判定と動画分割のさらに他の例を示す図である。FIG. 17 is a diagram showing still another example of posture determination and moving image division. 図18は、撮像方法の処理を示すさらに他のフローチャートである。FIG. 18 is still another flow chart showing the processing of the imaging method. 図19は、撮像方法の処理を示すさらに他のフローチャートである。FIG. 19 is still another flow chart showing the processing of the imaging method. 図20は、動画ファイルのサイズを変更して再生する様子を示す図である。FIG. 20 is a diagram showing how a moving image file is resized and played back. 図21は、動画ファイルのサイズを変更して再生する様子を示す他の図である。FIG. 21 is another diagram showing how a moving image file is resized and played back. 図22は、第1モード及び第2モードにおける動画記録の処理を示すフローチャートである。FIG. 22 is a flow chart showing processing of moving image recording in the first mode and the second mode. 図23は、第1モード及び第2モードにおける動画記録の処理を示すフローチャート(図22の続き)である。FIG. 23 is a flowchart (a continuation of FIG. 22) showing the moving image recording process in the first mode and the second mode. 図24は、第1モード及び第2モードに関するフォルダ構成の例を示す図である。FIG. 24 is a diagram showing an example of the folder structure regarding the first mode and the second mode. 図25は、静止画として抽出するフレームを選択する様子を示す図である。FIG. 25 is a diagram showing how a frame to be extracted as a still image is selected. 図26は、第2の実施形態に係るスマートフォンの外観図である。FIG. 26 is an external view of a smartphone according to the second embodiment. 図27は、第2の実施形態に係るスマートフォンの構成を示すブロック図である。FIG. 27 is a block diagram showing the configuration of the smartphone according to the second embodiment. 図28は、第2の実施形態に係るスマートフォンの姿勢を示す図である。FIG. 28 is a diagram illustrating the posture of the smartphone according to the second embodiment; 図29は、角度によるスマートフォンの姿勢判定の様子を示す図である。FIG. 29 is a diagram illustrating how the orientation of the smartphone is determined based on the angle.


以下、添付図面を参照しつつ、本発明に係る撮像装置、撮像方法、及びプログラムを実施するための形態について詳細に説明する。

DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments for implementing an imaging apparatus, an imaging method, and a program according to the present invention will be described in detail below with reference to the accompanying drawings.


<第1の実施形態>

<撮像装置の全体構成>

図1は第1の実施形態に係るカメラ10(撮像装置)の構成を示す図である。カメラ10は交換レンズ100(撮影部、撮像装置)及び撮像装置本体200(撮影部、撮像装置)により構成され、後述するズームレンズ110を含む撮影レンズにより被写体像(光学像)を撮像素子210に結像させる。交換レンズ100と撮像装置本体200とは、図示せぬマウントを介して装着及び取り外しすることができる。

<First embodiment>

<Overall Configuration of Imaging Device>

FIG. 1 is a diagram showing the configuration of a camera 10 (imaging device) according to the first embodiment. The camera 10 is composed of an interchangeable lens 100 (imaging unit, imaging device) and an imaging device main body 200 (imaging unit, imaging device). form an image. The interchangeable lens 100 and the imaging device main body 200 can be attached and detached via a mount (not shown).


<交換レンズの構成>

交換レンズ100は、ズームレンズ110と、フォーカスレンズ120と、絞り130と、レンズ駆動部140とを備える。レンズ駆動部140は、画像処理装置240(図2のレンズ駆動制御部240F)からの指令に応じてズームレンズ110、フォーカスレンズ120を進退駆動してズーム(光学ズーム)調整、フォーカス調整を行う。ズーム調整及びフォーカス調整は、画像処理装置240からの指令に応じて行う他に、ユーザが行ったズーム操作、フォーカス操作(図示せぬズームリング、フォーカスリングの回動等)に応じて行ってもよい。また、レンズ駆動部140は画像処理装置240からの指令に応じて絞り130を制御し、露出を調整する。一方、ズームレンズ110及びフォーカスレンズ120の位置、絞り130の開放度等の情報が画像処理装置240に入力される。なお、交換レンズ100は光軸Lを有する。

<Configuration of Interchangeable Lens>

The interchangeable lens 100 includes a zoom lens 110 , a focus lens 120 , an aperture 130 and a lens driver 140 . The lens driving unit 140 advances and retreats the zoom lens 110 and the focus lens 120 according to a command from the image processing device 240 (lens driving control unit 240F in FIG. 2) to perform zoom (optical zoom) adjustment and focus adjustment. Zoom adjustment and focus adjustment may be performed in response to a command from the image processing device 240, or may be performed in response to a zoom operation or focus operation (rotation of a zoom ring or focus ring (not shown), etc.) performed by the user. good. Also, the lens drive unit 140 controls the aperture 130 according to a command from the image processing device 240 to adjust the exposure. On the other hand, information such as the positions of the zoom lens 110 and the focus lens 120 and the opening degree of the diaphragm 130 is input to the image processing device 240 . Note that the interchangeable lens 100 has an optical axis L. As shown in FIG.


<撮像装置本体の構成>

撮像装置本体200は、撮像素子210(撮影部)、AFE220(AFE:Analog Front End、撮影部)、A/D変換器230(A/D:Analog to Digital、撮影部)、画像処理装置240、操作部250、記憶部260、モニタ270、及び姿勢センサ280(方向検出部)を備える。撮像装置本体200は、撮像素子210に透過させる光を遮光するためのシャッター(不図示)を有していてもよい。撮像素子210は、多数の受光素子がマトリクス状に配列された受光面を備える。そして、ズームレンズ110、フォーカスレンズ120、及び絞り130を透過した被写体光が撮像素子210の受光面上に結像され、各受光素子によって電気信号に変換される。撮像素子210の受光面上にはR(赤),G(緑),又はB(青)のカラーフィルタが設けられており、各色の信号に基づいて被写体のカラー画像を取得することができる。

<Structure of imaging device body>

The imaging device main body 200 includes an imaging device 210 (imaging unit), an AFE 220 (AFE: Analog Front End, imaging unit), an A/D converter 230 (A/D: Analog to Digital, imaging unit), an image processing device 240, It includes an operation unit 250, a storage unit 260, a monitor 270, and an orientation sensor 280 (direction detection unit). The imaging device main body 200 may have a shutter (not shown) for blocking light to be transmitted through the imaging element 210 . The imaging element 210 has a light receiving surface in which a large number of light receiving elements are arranged in a matrix. Subject light transmitted through the zoom lens 110, the focus lens 120, and the diaphragm 130 forms an image on the light receiving surface of the imaging element 210, and is converted into an electric signal by each light receiving element. A color filter of R (red), G (green), or B (blue) is provided on the light receiving surface of the imaging device 210, and a color image of the subject can be acquired based on the signals of each color.


なお、撮像素子210としては、CMOS(Complementary Metal-Oxide Semiconductor)、CCD(Charge-Coupled Device)等の様々な光電変換素子を用いることができる。AFE220は撮像素子210から出力されるアナログ画像信号のノイズ除去、増幅等を行い、A/D変換器230は、取り込んだアナログ画像信号を階調幅があるデジタル画像信号に変換する。

As the imaging element 210, various photoelectric conversion elements such as CMOS (Complementary Metal-Oxide Semiconductor) and CCD (Charge-Coupled Device) can be used. The AFE 220 removes noise and amplifies the analog image signal output from the imaging device 210, and the A/D converter 230 converts the captured analog image signal into a digital image signal having a gradation range.


<画像処理装置の構成>

図2は、画像処理装置240の機能構成を示す図である。画像処理装置240は、画像取得部240A、方向検出部240B(方向検出部)、制御部240C(制御部)、イベント検出部240D(イベント検出部)、静止画抽出部240E(静止画抽出部)、及びレンズ駆動制御部240F(レンズ駆動制御部)を備える。そして、画像処理装置240は、A/D変換器230から入力されたデジタル画像信号に基づいて動画の撮影及びファイル生成、静止画ファイル生成、動画を構成する複数のフレームに対する処理、静止画の抽出等の処理を行う。画像処理装置240による処理の詳細は後述する。

<Configuration of image processing apparatus>

FIG. 2 is a diagram showing the functional configuration of the image processing device 240. As shown in FIG. The image processing device 240 includes an image acquisition section 240A, a direction detection section 240B (direction detection section), a control section 240C (control section), an event detection section 240D (event detection section), and a still image extraction section 240E (still image extraction section). , and a lens drive control section 240F (lens drive control section). Then, based on the digital image signal input from the A/D converter 230, the image processing device 240 shoots a moving image, generates a file, generates a still image file, processes a plurality of frames constituting a moving image, and extracts a still image. etc. are processed. Details of the processing by the image processing device 240 will be described later.


画像処理装置240の機能は、各種のプロセッサ(Processor)を用いて実現できる。各種のプロセッサには、例えばソフトウェア(プログラム)を実行して各種の機能を実現する汎用的なプロセッサであるCPU(Central Processing Unit)が含まれる。また、上述した各種のプロセッサには、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)などのプログラマブルロジックデバイス(Programmable Logic Device:PLD)も含まれる。プログラマブルロジックデバイスは、製造後に回路構成を変更可能なプロセッサである。さらに、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路なども上述した各種のプロセッサに含まれる。

The functions of the image processing device 240 can be realized using various processors. Various processors include, for example, a CPU (Central Processing Unit), which is a general-purpose processor that executes software (programs) to realize various functions. The various processors described above also include programmable logic devices (PLDs) such as GPUs (Graphics Processing Units), which are processors specialized for image processing, and FPGAs (Field Programmable Gate Arrays). A programmable logic device is a processor whose circuitry can be changed after manufacture. Furthermore, a dedicated electric circuit, which is a processor having a circuit configuration specially designed for executing specific processing such as ASIC (Application Specific Integrated Circuit), is also included in the various processors described above.


上述したプロセッサあるいは電気回路がソフトウェア(プログラム)を実行する際は、実行するソフトウェアのプロセッサ(コンピュータ)読み取り可能なコードをROM(Read Only Memory)等の非一時的記録媒体に記憶しておく。そして、プロセッサがそのソフトウェアを参照する。非一時的記録媒体に記憶しておくソフトウェアは、本発明に係る撮像方法を実行するためのプログラムを含む。ROMではなく各種光磁気記録装置、半導体メモリ等の非一時的記録媒体にコードを記録してもよい。ソフトウェアを用いた処理の際には例えばRAM(Random Access Memory)が一時的記憶領域として用いられ、また例えば不図示のEEPROM(Electronically Erasable and Programmable Read Only Memory)に記憶されたデータを参照することもできる。

When the processor or electric circuit described above executes software (program), the processor (computer) readable code of the software to be executed is stored in a non-temporary recording medium such as a ROM (Read Only Memory). The processor then references that software. Software stored in the non-temporary recording medium includes a program for executing the imaging method according to the present invention. Codes may be recorded in non-temporary recording media such as magneto-optical recording devices and semiconductor memories instead of ROMs. When processing using software, for example, RAM (Random Access Memory) is used as a temporary storage area, and data stored in EEPROM (not shown) can also be referred to. can.


画像処理装置240は、上述の各部の他にROM242を備える。ROM242には、画像の撮影、記録、表示等に必要なプログラム(本発明に係る撮像方法を実行するためのプログラム(本発明に係るプログラム)を含む)のコンピュータ読み取り可能なコードが記録される。

The image processing device 240 includes a ROM 242 in addition to the above units. The ROM 242 stores computer-readable codes of programs necessary for photographing, recording, displaying images, etc. (including programs for executing the imaging method according to the present invention (the program according to the present invention)).


<操作部>

操作部250は図示せぬレリーズボタン、操作用ボタン(例えば十字ボタン、Quickボタン、OKボタン等)、ダイヤル、スイッチ等を有し、ユーザは撮影モード設定、動画撮影指示、静止画抽出指示等、各種の操作を行うことができる。なお、モニタ270(タッチパネル型)を操作部250として使用してもよい。

<Operation section>

The operation unit 250 includes a release button (not shown), operation buttons (for example, a cross button, a Quick button, an OK button, etc.), dials, switches, etc., and the user can set a shooting mode, instruct movie shooting, extract a still image, etc. Various operations can be performed. Note that the monitor 270 (touch panel type) may be used as the operation unit 250 .


<記憶部>

記憶部260(記憶部)は各種の光磁気記録媒体、半導体メモリ等の非一時的記録媒体及びその制御回路により構成され、動画、静止画、動画から抽出した静止画等を保存する。記録媒体は撮像装置本体200に対し着脱できるタイプを用いることができる。撮影した画像(動画、静止画)を例えば無線通信により外部の記録媒体(記憶部)に送信して保存してもよい。

<Memory unit>

A storage unit 260 (storage unit) is composed of non-temporary recording media such as various magneto-optical recording media and semiconductor memories, and their control circuits, and stores moving images, still images, and still images extracted from moving images. A recording medium that can be attached to and detached from the imaging apparatus main body 200 can be used. A captured image (moving image, still image) may be transmitted to and stored in an external recording medium (storage unit), for example, by wireless communication.


<モニタ及びファインダ>

モニタ270(表示装置)はタッチパネル型の液晶表示パネルにより構成され、動画、静止画、静止画抽出用フレーム等を表示することができる。モニタ270は撮像装置本体200の背面側、天面側等に配置することができる。また、カメラ10はファインダを備えていてもよい。

<Monitor and viewfinder>

The monitor 270 (display device) is configured by a touch panel type liquid crystal display panel, and can display moving images, still images, still image extraction frames, and the like. The monitor 270 can be arranged on the back side, the top side, or the like of the imaging device body 200 . Also, the camera 10 may have a viewfinder.


<撮影モード>

カメラ10は撮影モードとして静止画撮影モード、静止画抽出用動画撮影モード(第1動画モード)、通常動画撮影モード(第2動画モード)のいずれかを設定することができる。静止画撮影モード及び通常動画撮影モードは通常のデジタルカメラと同様のモードである。一方、静止画抽出用動画撮影モードは動画のファイルから静止画を抽出可能なモードであり、通常動画撮影モードと撮影条件が異なる動画(動画自体の鑑賞よりも静止画の抽出を重視した撮影条件の動画)を撮影する。具体的には、静止画抽出用動画撮影モードでは、通常動画撮影モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、ホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、かつ/又は通常動画撮影モードに対してフレームレートが高く設定される。また、解像度及びフレームレートはカメラ10で設定可能な最高値(例えば4,000×2,000画素、30フレーム/秒)に設定され、色調も静止画抽出を前提として設定される。ISO感度の上限も通常動画撮影モードより高くする。

<Shooting mode>

The camera 10 can set any one of a still image shooting mode, a moving image shooting mode for still image extraction (first moving image mode), and a normal moving image shooting mode (second moving image mode) as a shooting mode. A still image shooting mode and a normal moving image shooting mode are modes similar to those of a normal digital camera. On the other hand, the movie shooting mode for extracting still images is a mode that allows you to extract still images from movie files. movies). Specifically, in the still image extraction video shooting mode, at least one of the shutter speed, autofocus speed, auto exposure tracking speed, and white balance tracking speed is set to a higher speed than in the normal video shooting mode, and/or the frame rate is set higher than the normal moving image shooting mode. Also, the resolution and frame rate are set to the maximum values that can be set by the camera 10 (eg, 4,000×2,000 pixels, 30 frames/second), and the color tone is also set on the premise of still image extraction. The upper limit of the ISO sensitivity is also set higher than in the normal movie shooting mode.


例えばシャッタースピードに関しては、通常動画撮影モードでは記録する動画のフレームレートに対応した値(フレームレートが30フレーム/秒の場合、1/30秒)に設定される。一方、静止画抽出用動画モードではフレーム間隔よりも高速(例えば、1/30秒未満)に設定される。通常動画撮影モードでは、滑らかな動画が再生されるようにシャッタースピードが動画のフレームレートに対応した値に設定されるが、この場合動く被写体に対してはブレが生じる可能性がある。このため、静止画抽出用動画撮影モードではシャッタースピードを通常動画撮影モードよりも高速(フレーム間隔よりも高速)に設定しており、これにより被写体のブレが少ない高画質な静止画を抽出することが可能になる。

For example, the shutter speed is set to a value corresponding to the frame rate of the moving image to be recorded in the normal moving image shooting mode (1/30 second if the frame rate is 30 frames/second). On the other hand, in the moving image mode for still image extraction, the frame interval is set to be faster (for example, less than 1/30 second). In normal movie shooting mode, the shutter speed is set to a value corresponding to the frame rate of the movie so that the movie can be reproduced smoothly. For this reason, in the movie shooting mode for extracting still images, the shutter speed is set faster than in the normal movie shooting mode (faster than the frame interval). becomes possible.


同様に、ISO感度(ISO:International Organization for Standardization)の上限を高くすることでシャッタースピードを高速化でき、これによりブレが少ない静止画を抽出することができる。また、オートフォーカスの速度,自動露出の追従速度やオートホワイトバランスの追従速度等が通常動画撮影モードよりも高速に設定される。これによって、被写体に合焦したフレーム、露出が適正なフレーム等を多く取得することができる。フレームレートについても、高レートに設定することで動画のフレーム間隔が短くなり、静止画として抽出できるフレームが増加する。

Similarly, by raising the upper limit of ISO sensitivity (ISO: International Organization for Standardization), the shutter speed can be increased, thereby extracting a still image with less blurring. Further, the speed of autofocus, the follow-up speed of automatic exposure, the follow-up speed of auto white balance, etc. are set faster than in the normal moving image shooting mode. As a result, it is possible to obtain many frames in which the subject is in focus, frames with appropriate exposure, and the like. As for the frame rate, by setting a high rate, the frame interval of moving images becomes shorter, and the number of frames that can be extracted as still images increases.


上述した静止画抽出用動画撮影モードによれば、動画を構成するフレームを事後的に静止画として抽出することができる。よって、ユーザはいつ発生するか分からないイベント(自然現象やアクシデント、ハプニング等)の写真、時間の経過と共に状態が変化する被写体や動きのある被写体の瞬間的な状態の写真等を容易に撮影することができる。この際、詳細を後述するように、静止画の記録を指示したタイミングだけでなくその他のタイミングについても静止画を抽出できる。よって、ユーザは所望のタイミングの静止画を取得することができる。また、静止画抽出に適した撮影条件(上述したシャッタースピード、解像度、フレームレート等)を設定することにより高画質の静止画を抽出することができる。なお、このような静止画の事後的抽出に加えて、静止画抽出用動画撮影モード及び通常動画撮影モードにおいては、動画撮影中に静止画を撮影(保存)することができる。

According to the moving image shooting mode for still image extraction described above, the frames forming the moving image can be extracted as still images afterward. Therefore, the user can easily take a photograph of an event (natural phenomenon, accident, happening, etc.) whose occurrence is unknown at any time, a photograph of a subject whose state changes with the passage of time, or a photograph of an instantaneous state of a moving subject. be able to. At this time, as will be described in detail later, still images can be extracted not only at the timing when the still image recording is instructed, but also at other timings. Therefore, the user can obtain a still image at desired timing. Also, high-quality still images can be extracted by setting photographing conditions (shutter speed, resolution, frame rate, etc. described above) suitable for still image extraction. In addition to such post-extraction of still images, still images can be captured (saved) during moving image capturing in the moving image capturing mode for still image extraction and the normal moving image capturing mode.


<カメラの姿勢>

図3はカメラ10に対して規定される座標系の例を示す図である。図3に示す例では、X軸が光軸方向(被写体に向かう方向)、Z軸が撮像装置本体200の上方に向かう方向であり、(X軸,Y軸,Z軸)で右手系の座標系を構成する。カメラ10が縦位置(カメラ10の上面及び底面が鉛直方向と平行)であるか横位置(カメラ10の上面及び底面が地面と平行)であるかは、例えばX軸周りの角度(撮像装置本体200の上面及び底面が地面と平行の状態で0degとする)で判断することができる。図4はX軸周りの角度と姿勢(縦又は横)の関係の例を示す図である。方向検出部240B(方向検出部)は角度が(-45deg以上+45deg以下)、及び(+135deg以上+225deg以下)の範囲である場合に「横」と判定し、それ以外の場合に「縦」と判定することができる。上述のようにカメラ10は姿勢センサ280(例えば、3軸方向の加速度を測定する加速度センサ;図1参照)を備えているので、方向検出部240Bは、姿勢センサ280の測定結果に基づいてカメラ10の姿勢(重力方向に対する方向)を検出することができる。

<Position of camera>

FIG. 3 is a diagram showing an example of a coordinate system defined for the camera 10. As shown in FIG. In the example shown in FIG. 3, the X-axis is the direction of the optical axis (the direction toward the subject), the Z-axis is the direction toward the top of the imaging device body 200, and (X-axis, Y-axis, Z-axis) is a right-handed coordinate system. construct the system. Whether the camera 10 is in the vertical position (the top and bottom surfaces of the camera 10 are parallel to the vertical direction) or in the horizontal position (the top and bottom surfaces of the camera 10 are parallel to the ground) depends on, for example, the angle around the X-axis (imaging device main body 200 is set to 0 degrees when the top and bottom surfaces are parallel to the ground). FIG. 4 is a diagram showing an example of the relationship between the angle about the X-axis and the posture (vertical or horizontal). The direction detection unit 240B (direction detection unit) determines “horizontal” when the angle is in the range of (−45 deg to +45 deg) and (+135 deg to +225 deg), and otherwise determines “vertical”. can do. As described above, the camera 10 includes the orientation sensor 280 (for example, an acceleration sensor that measures acceleration in three axial directions; see FIG. 1). Ten poses (orientations relative to the direction of gravity) can be detected.


なお、図4に示す角度の範囲は一例であり、これと異なる範囲で姿勢を判定してもよい。例えば方向検出部240Bは角度が(-30deg以上+30deg以下)、及び(+150deg以上+210deg以下)の範囲である場合に「横」と判定し、それ以外の場合に「縦」と判定してもよい。

Note that the range of angles shown in FIG. 4 is an example, and the posture may be determined in a different range. For example, the direction detection unit 240B may determine "horizontal" when the angle is in the range of (-30deg or more +30deg or less) and (+150deg or more +210deg or less), and otherwise determine "vertical". .


<静止画抽出用動画撮影モードにおける処理>

上述した構成のカメラ10における撮像方法について説明する。図5は、静止画抽出用動画撮影モード(第1動画モード)における処理を示すフローチャートである。図5のフローチャートは本発明に係る撮像方法の1つの態様を示しており、本発明に係るプログラムを用いて実行することができる(後述する他のフローチャートについても同様である)。例えば操作部250の図示せぬモードダイヤルの操作によりカメラ10が静止画抽出用動画撮影モードになる。そして、制御部240Cは、撮影部(交換レンズ100、撮像素子210、AFE220、A/D変換器230)を第1動画モードに設定する。そして、図5の処理が開始され、制御部240Cはカメラ10の状態を初期化(ライブビュー画像の取得及び表示、姿勢の初期化、姿勢判定の開始等)する(ステップS100:初期化ステップ)。

<Processing in Movie Shooting Mode for Still Image Extraction>

An imaging method in the camera 10 having the above configuration will be described. FIG. 5 is a flow chart showing processing in the moving image shooting mode for still image extraction (first moving image mode). The flowchart of FIG. 5 shows one aspect of the imaging method according to the present invention, which can be executed using the program according to the present invention (the same applies to other flowcharts described later). For example, by operating a mode dial (not shown) of the operation unit 250, the camera 10 enters a still image extraction moving image shooting mode. Then, the control unit 240C sets the photographing unit (interchangeable lens 100, image sensor 210, AFE 220, A/D converter 230) to the first moving image mode. Then, the processing of FIG. 5 is started, and the control unit 240C initializes the state of the camera 10 (acquisition and display of a live view image, initialization of orientation, start of orientation determination, etc.) (step S100: initialization step). .


<動画記録開始指示>

制御部240Cは動画記録開始指示がされたか否かを判断する(ステップS110:撮影ステップ、動画生成ステップ)。制御部240Cは、例えば操作部250の図示せぬレリーズボタンが押し下げされた場合に「動画記録開始指示がされた」と判断することができる。判断が肯定されるとステップS120へ進む。

<Video recording start instruction>

The control unit 240C determines whether or not a moving image recording start instruction has been issued (step S110: photographing step, moving image generating step). For example, when a release button (not shown) of the operation unit 250 is pressed, the control unit 240C can determine that "an instruction to start recording a moving image has been issued." If the determination is affirmative, the process proceeds to step S120.


<姿勢の判定>

方向検出部240Bは、姿勢センサ280の出力に基づいてカメラ10(撮像装置)の姿勢(重力方向に対する方向)を検出する(ステップS120:姿勢検出ステップ、判断ステップ)。図3,4について上述したように、方向検出部240Bは、X軸周りの角度により姿勢が「縦」、「横」、「不定」のいずれであるかを判定する。姿勢が「不定」には、ユーザがカメラ10を地面や空に向けて構えている場合のように、Y軸周りの角度が大きく「縦」又は「横」を特定できない状態を含めることができる。なお、方向検出部240Bは、カメラ10の「不定」状態を検出しなくてもよい。

<Determination of Posture>

The orientation detection unit 240B detects the orientation (direction relative to the direction of gravity) of the camera 10 (imaging device) based on the output of the orientation sensor 280 (step S120: orientation detection step, judgment step). As described above with reference to FIGS. 3 and 4, the direction detection unit 240B determines whether the posture is “vertical”, “horizontal”, or “undefined” based on the angle about the X-axis. The "undefined" posture can include a state in which the angle around the Y-axis is large and "vertical" or "horizontal" cannot be specified, such as when the user holds the camera 10 facing the ground or the sky. . Note that the direction detection unit 240B does not have to detect the “undefined” state of the camera 10 .


<姿勢に応じたフォルダへの記録>

ステップS120でカメラ10の姿勢が「横」又は「不定」と判断された場合、制御部240Cは撮影部が撮影した動画を圧縮して新たな動画ファイルを生成する。そして制御部240Cは、記憶部260の縦横動画用フォルダ(第1フォルダ)に横動画ファイルの記録(保存)を開始する(ステップS130:動画保存ステップ)。制御部240Cは、例えばMPEG形式(MPEG2、MPEG4等)で動画の圧縮を行うことができる。一方、カメラ10の姿勢が「縦」と判断された場合、制御部240Cは撮影部が撮影した動画を圧縮して新たな動画ファイルを生成する。そして制御部240Cは、横動画と同一の縦横動画用フォルダ(第1フォルダ)に縦動画ファイルの記録(保存)を開始する(ステップS140:動画保存ステップ)。制御部240Cは、カメラ10に設けられた図示せぬマイクロフォンにより音声を合わせて収録及び保存してもよい。なお、「横動画」、「縦動画」は、それぞれ姿勢が横又は不定の場合、縦の場合の動画であり、「縦横動画用フォルダ」は縦動画及び横動画を保存するフォルダである。

<Recording to folder according to posture>

If it is determined in step S120 that the orientation of the camera 10 is "horizontal" or "undefined", the control unit 240C compresses the moving image captured by the imaging unit and generates a new moving image file. Then, the control unit 240C starts recording (saving) the horizontal moving image file in the vertical/horizontal moving image folder (first folder) of the storage unit 260 (step S130: moving image saving step). The control unit 240C can compress moving images in MPEG format (MPEG2, MPEG4, etc.), for example. On the other hand, when the orientation of the camera 10 is determined to be "vertical", the control unit 240C compresses the moving image captured by the imaging unit and generates a new moving image file. Then, the control unit 240C starts recording (saving) the vertical/horizontal moving image file in the same vertical/horizontal moving image folder (first folder) as the horizontal/horizontal moving image (step S140: moving image saving step). The control unit 240C may record and store voices together using a microphone (not shown) provided in the camera 10 . Note that “horizontal moving image” and “vertical moving image” are moving images when the orientation is horizontal or indefinite and vertical, respectively, and “vertical/horizontal moving image folder” is a folder for storing vertical and horizontal moving images.


<姿勢が不定の場合の扱い>

なお、図5のフローチャートでは「姿勢が横から不定に変化した場合」及び「不定から横に変化した場合」は同一ファイルでの記録を継続する。そして、「姿勢が縦から不定に変化した場合」及び「不定から縦に変化した場合」は「姿勢が変化した」と判断して動画の分割(別ファイルでの記録)を行う態様について説明している。しかしながら、姿勢が不定の場合に縦横動画用フォルダとは別のフォルダに記録してもよいし、記録(保存)をしなくてもよい(後述する他の態様を参照)。

<Treatment when posture is indeterminate>

Note that in the flowchart of FIG. 5, the same file continues to be recorded in the case of "when the attitude changes from horizontal to indefinite" and "when the attitude changes from indefinite to horizontal". Then, we will explain how to divide the video (record it in a separate file) by determining that "the posture has changed" when "the posture changes from vertical to undefined" and "when the posture changes from undefined to vertical". ing. However, when the posture is indefinite, it may be recorded in a folder different from the vertical/horizontal moving image folder, or may not be recorded (saved) (see other aspects described later).


方向検出部240Bは動画の撮影と並行してカメラ10の姿勢検出を継続し、「カメラ10(撮像装置)の重力方向に対する方向変化が起きたか否か」を判断する(ステップS170:判断ステップ)。「方向変化が起きたか否か」は姿勢センサ280の出力(例えば、3軸方向の加速度)に基づいて判断することができる。方向検出部240Bが「方向変化が起きた」と判断した場合、具体的には「カメラ10の姿勢が「横又は不定」と「縦」との間で変化した」と判断した場合(ステップS170でYes)は、制御部240Cは記録中の動画ファイルをクローズして動画を分割する(ステップS180:動画生成ステップ)。この場合、制御部240CはステップS190の判断を否定してステップS120に戻る。

The direction detection unit 240B continues to detect the orientation of the camera 10 in parallel with the moving image shooting, and determines "whether or not the direction of the camera 10 (imaging device) has changed with respect to the direction of gravity" (step S170: determination step). . “Whether or not a direction change has occurred” can be determined based on the output of the attitude sensor 280 (for example, acceleration in three axial directions). If the direction detection unit 240B determines that "a direction change has occurred", specifically, if it determines that "the orientation of the camera 10 has changed between 'horizontal or undefined' and 'vertical'" (step S170). Yes), the control unit 240C closes the moving image file being recorded and divides the moving image (step S180: moving image generating step). In this case, the controller 240C denies the determination in step S190 and returns to step S120.


戻ってきたステップS120では、制御部240Cは動画ファイルの記録開始時と同様にカメラ10の姿勢が「縦」、「横」、及び、「不定」のいずれであるかを判断する。そして、制御部240Cは、その結果に応じて、分割に係る新たな動画ファイル(分割前とは別の動画ファイル)を記憶部260の縦横動画用フォルダ(分割前と同一のフォルダ)に保存する。例えば、カメラ10の姿勢が記録開始時の「横」から「縦」に変化した場合、制御部240Cは、記録開始時は縦横動画用フォルダに横動画ファイル(第1動画の第1動画ファイル)を保存し、姿勢変化に起因して生成された新たな縦動画ファイル(第2動画の第2動画ファイル)も縦横動画用フォルダに保存する。なお、ステップS170において、カメラの姿勢が再度変化した場合(ステップS170でYes)に、動画はクローズしなくてもよい。カメラの姿勢変化が起きるたびに、繰り返して動画を分割すると、動画のファイル数が増えすぎてしまう場合があるからである。

In the returned step S120, the control unit 240C determines whether the orientation of the camera 10 is "vertical", "horizontal", or "undefined", in the same manner as at the start of recording the moving image file. Then, according to the result, the control unit 240C saves the new moving image file related to the division (moving image file different from the one before the division) in the vertical/horizontal moving image folder (the same folder as before the division) of the storage unit 260. . For example, when the orientation of the camera 10 changes from “horizontal” at the start of recording to “vertical”, the control unit 240C stores a horizontal moving image file (first moving image file of the first moving image) in the vertical/horizontal moving image folder at the start of recording. , and a new vertical moving image file (second moving image file of the second moving image) generated due to the posture change is also stored in the vertical/horizontal moving image folder. It should be noted that, in step S170, when the orientation of the camera changes again (Yes in step S170), the moving image does not have to be closed. This is because, if the moving image is repeatedly divided each time the posture of the camera changes, the number of moving image files may increase excessively.


画像取得部240A、方向検出部240B、及び制御部240Cは、このようなカメラ10の姿勢に応じた動画の分割及び動画ファイルの保存を、動画撮影終了まで(ステップS190の判断がNoの間)継続して行う。方向検出部240B及び制御部240Cは、第1動画ファイル及び第2動画ファイルに対しカメラ10の姿勢(重力方向に対する方向)に関する情報を付与しておき、動画ファイルのアイコン表示や動画再生の際等に参照できるようにすることが好ましい。方向検出部240B及び制御部240Cは、カメラ10の姿勢に関する情報(重力方向に対する方向に関する情報)をヘッダやフッタに記録することができる。例えば、縦の場合は“01”、横の場合は“02”、その他(斜め、不定等)は“03”とすることができる。

The image acquisition unit 240A, the direction detection unit 240B, and the control unit 240C continue dividing the moving image and saving the moving image file according to the orientation of the camera 10 until the end of the moving image shooting (while the determination in step S190 is No). continue. The direction detection unit 240B and the control unit 240C add information about the attitude of the camera 10 (direction with respect to the direction of gravity) to the first moving image file and the second moving image file. It is preferable to be able to refer to The direction detection unit 240B and the control unit 240C can record information about the attitude of the camera 10 (information about the direction with respect to the direction of gravity) in the header and footer. For example, it can be "01" for vertical, "02" for horizontal, and "03" for others (oblique, indeterminate, etc.).


図6は動画の分割記録の様子を示す図である。同図の上部は動画のフレーム1001~1005が順次記録されていく様子を示している。この状況で、フレーム1002(フレーム番号:N-1)まで記録した時点でカメラ10の姿勢が「横又は不定」から「縦」に切り替わった(ステップS170でYes)ものとする。この場合、制御部240Cは記録中の動画ファイル1010(第1動画ファイル)をクローズして動画を分割する(ステップS180:動画生成ステップ)。そして制御部240Cは、フレーム1003(フレーム番号:N)から始まる動画を新たな動画ファイル1020(第2動画ファイル)として記録開始する(ステップS140)。制御部240Cは、動画ファイル1010,1020を記憶部260の同一のフォルダ(縦横動画用フォルダ)に保存する。

FIG. 6 is a diagram showing how moving images are divided and recorded. The upper part of the figure shows how frames 1001 to 1005 of the moving image are sequentially recorded. In this situation, it is assumed that the orientation of the camera 10 is switched from "horizontal or undefined" to "vertical" (Yes in step S170) at the time of recording up to frame 1002 (frame number: N-1). In this case, the control unit 240C closes the moving image file 1010 (first moving image file) being recorded and divides the moving image (step S180: moving image generating step). Then, the control unit 240C starts recording a moving image starting from frame 1003 (frame number: N) as a new moving image file 1020 (second moving image file) (step S140). Control unit 240C saves moving image files 1010 and 1020 in the same folder (vertical/horizontal moving image folder) of storage unit 260 .


図7はX軸周りの角度に基づく方向変化の判断例を示す図である。図7の例では、経過時間がゼロからt1の間は姿勢が「横」、経過時間t1の時点で角度が45deg(しきい値)を超えて「縦」と判断されており、これにより経過時間t1で動画が分割されている。制御部240Cは経過時間がゼロからt1までの第1動画の動画ファイル(第1動画ファイル)を縦横動画用フォルダ(第1フォルダ)に保存し、経過時間t1以降の第2動画の動画ファイル(第2動画ファイル)も縦横動画用フォルダ(第1フォルダ)に保存する。なお、カメラ10の姿勢は細かく変動する可能性があるので、制御部240Cは姿勢が変化した状態が決められた時間以上継続した時点で「姿勢が変化した」と判断してもよい。また、図7ではカメラ10の姿勢が横から縦に変化する例を示しているが、縦から横に変化する場合も同様に処理することができる(この場合、縦動画が第1動画、横動画が第2動画となる。他の態様についても同様である)。

FIG. 7 is a diagram showing an example of determining a direction change based on an angle about the X-axis. In the example of FIG. 7, the posture is determined to be "horizontal" during the elapsed time from 0 to t1, and the angle exceeds 45 degrees (threshold value) at the elapsed time t1 and is determined to be "vertical". The moving image is divided at time t1. The control unit 240C saves the moving image file of the first moving image (first moving image file) whose elapsed time is from 0 to t1 in the vertical/horizontal moving image folder (first folder), and saves the moving image file of the second moving image after the elapsed time t1 ( 2nd moving image file) is also saved in the vertical/horizontal moving image folder (first folder). Note that the attitude of the camera 10 may change minutely, so the control unit 240C may determine that "the attitude has changed" when the state in which the attitude has changed continues for a predetermined time or longer. Also, FIG. 7 shows an example in which the orientation of the camera 10 changes from horizontal to vertical. The moving image becomes the second moving image (the same applies to other aspects).


制御部240Cは、カメラ10の姿勢が変化した場合(ステップS170でYes)の他、ステップS150で「動画記録終了指示(動画撮影終了指示)があった」と判断した場合、及びステップS160で「記録メディアの残容量が十分でない」と判断した場合にも動画ファイルをクローズする(ステップS180)。しかしながら制御部240Cは、これらの場合は動画の撮影も終了させる(ステップS190でYes)。ステップS150では、制御部240Cは操作部250の図示せぬレリーズボタンが押し下げされた場合、モニタ270を介した終了指示がされた場合等に「動画記録終了指示がされた」と判断することができる。

The control unit 240C not only changes the posture of the camera 10 (Yes in step S170), but also determines in step S150 that "an instruction to end moving image recording (instruction to end moving image shooting) has been issued", and in step S160 " Also when it is determined that the remaining capacity of the recording medium is not sufficient, the moving image file is closed (step S180). However, in these cases, the control unit 240C also terminates the moving image shooting (Yes in step S190). In step S150, the control unit 240C can determine that "an instruction to end moving image recording has been issued" when a release button (not shown) of the operation unit 250 is pressed, or when an end instruction is issued via the monitor 270. can.


なお、図7の例のようにカメラ10が横状態から縦状態に移行し縦状態で動画の撮影を終了する場合、第2動画(縦動画;縦状態での動画)の終了タイミングは、ユーザの第2動画終了指示又は動画撮影終了指示に対応する。同様に、縦状態から再度横状態に移行し横状態で動画の撮影を終了する場合、第1動画(横動画;横状態での動画)の終了タイミングは、ユーザの第1動画終了指示又は動画撮影終了指示に対応する。これらの動画終了タイミングは、後述する態様においても同様である。

Note that when the camera 10 shifts from the horizontal state to the vertical state and finishes shooting the moving image in the vertical state as in the example of FIG. corresponds to the instruction to end the second moving image or the instruction to end moving image shooting. Similarly, when moving from the vertical state to the horizontal state again and shooting the moving image in the horizontal state is finished, the end timing of the first moving image (horizontal moving image; moving image in the horizontal state) depends on the user's instruction to end the first moving image or the moving image. Respond to the shooting end instruction. These moving image end timings are the same in the aspects described later.


第1の実施形態では、このように「静止画抽出用動画撮影モード(第1動画モード)においてカメラ10(撮像装置)の重力方向に対する方向(姿勢)が変化した」と判断された場合は動画を分割して横動画(第1動画)と縦動画(第2動画)を生成する。生成した横動画の動画ファイル(第1動画ファイル)及び縦動画の動画ファイル(第2動画ファイル)は、縦横動画用フォルダ(第1フォルダ)に保存する。

In the first embodiment, when it is determined that "the direction (orientation) of the camera 10 (imaging device) with respect to the direction of gravity has changed in the moving image shooting mode for still image extraction (first moving image mode)" as described above, the moving image is divided to generate a horizontal video (first video) and a vertical video (second video). The generated horizontal moving image file (first moving image file) and vertical moving image file (second moving image file) are stored in the vertical/horizontal moving image folder (first folder).


これによりユーザは各動画を撮影した際のカメラ10の姿勢を容易に識別でき、静止画として抽出したいフレームを含む動画をカメラ10の姿勢を手がかりにして容易に選択することができる。また、ユーザは静止画として抽出するフレームを分割され記録時間が短くなった動画の中で探せばよいので、所望のフレームを迅速に探すことができる。このように、第1の実施形態によれば、ユーザは所望の構図の動画フレームを迅速かつ容易に選択することができる。

Thereby, the user can easily identify the posture of the camera 10 when each moving image is taken, and can easily select the moving image including the frame to be extracted as a still image by using the posture of the camera 10 as a clue. In addition, the user can search for a frame to be extracted as a still image in a divided moving image whose recording time is shortened, so that a desired frame can be quickly searched. Thus, according to the first embodiment, the user can quickly and easily select a moving image frame with a desired composition.


<フォルダ構成の例>

図8は動画を保存するフォルダ構成の例を示す図である。同図の例では、制御部240Cにより撮影日ごとにフォルダが生成され、撮影日ごとのフォルダ内には撮影番号ごとにフォルダが生成されている。例えば、図5のフローチャートにおいて、ステップS110で動画記録開始が指示されてからステップS190で動画撮影を終了するまでを1つの撮影番号とすることができる。各撮影番号のフォルダに対し、動画の分割に応じた数の縦横動画が保存される。このようなフォルダ構成は、制御部240Cによりモニタ270(表示装置)に表示することができる。図9は、撮影番号が異なる縦横動画用フォルダ(第1フォルダ)を、各フォルダを示すアイコンによりモニタ270に表示した様子を示している。

<Example of folder structure>

FIG. 8 is a diagram showing an example of a folder structure for storing moving images. In the example shown in the figure, the control unit 240C generates a folder for each shooting date, and within each folder for each shooting date, a folder is created for each shooting number. For example, in the flow chart of FIG. 5, one photographing number can be set from the instruction to start moving image recording in step S110 to the end of moving image recording in step S190. The number of vertical and horizontal moving images corresponding to the division of the moving image is saved in each shooting number folder. Such a folder structure can be displayed on the monitor 270 (display device) by the control unit 240C. FIG. 9 shows vertical and horizontal video folders (first folders) with different shooting numbers displayed on the monitor 270 by icons indicating each folder.


<動画ファイルのアイコン表示及びファイル名>

図10は動画ファイルのアイコン表示の例を示す図である。同図は、制御部240Cが横動画の動画ファイルについて横型アイコンに「横動画」の文字を付し、縦型アイコンに「縦動画」の文字を付して表示した様子を示している。アイコン中の記号はファイルの指定により再生可能であることを示す。図10の例では、制御部240Cは横動画及び縦動画の動画ファイル(第1動画ファイル、第2動画ファイル)を記憶部260の同一のフォルダに保存している。また、図10の例において、ファイル名はファイル作成日(2018年10月23日)、撮影番号(001)、縦横識別情報(横動画はH(Horizontal)、縦動画はV(Vertical))、ファイル番号(001,002,・・・)、ファイルサイズ(10MB等)、拡張子(ここでは“.mpg”)から構成されている。また、横動画の動画ファイル(第1動画ファイル)と縦動画の動画ファイル(第2動画ファイル)はファイル名の拡張子を除く一部が共通している。なお、縦横識別情報はカメラ10(撮像装置)の重力方向に対する方向に関する情報の一例である。

<Video file icon display and file name>

FIG. 10 is a diagram showing an example of icon display of a moving image file. The figure shows how the control unit 240C displays horizontal moving image files by adding the characters "horizontal moving image" to the horizontal icon and adding the characters "vertical moving image" to the vertical icon. A symbol in the icon indicates that the file can be reproduced by specifying the file. In the example of FIG. 10 , the control unit 240</b>C saves moving image files of horizontal moving images and vertical moving images (first moving image file, second moving image file) in the same folder of the storage unit 260 . In the example of FIG. 10, the file name is the file creation date (October 23, 2018), the shooting number (001), vertical and horizontal identification information (horizontal video is H (Horizontal), vertical video is V (Vertical)), It consists of a file number (001, 002, . Also, the moving image file of the horizontal moving image (first moving image file) and the moving image file of the vertical moving image (second moving image file) are partially common except for the extension of the file name. The vertical/horizontal identification information is an example of information regarding the direction of the camera 10 (imaging device) with respect to the direction of gravity.


制御部240Cは、ファイルの種類を示す情報、ファイル作成日時、及び縦横識別情報をファイル名に含めてもよい。例えば、制御部240Cは、2018/1/1 12:30に作成した横動画のファイルに対し“IMG201801011230_H.MOV”というファイル名を付与し、2018/1/1 12:40にファイル名を作成した縦動画のファイルに対し“IMG201801011240_V.MOV”というファイル名を付与することができる。ファイル名中、“IMG”は画像ファイルであることを示す情報の一例である。この場合においても、ファイル名はファイルサイズを示す情報を含んでいてもよい。

The control unit 240C may include information indicating the file type, file creation date and time, and vertical/horizontal identification information in the file name. For example, the control unit 240C gives the file name "IMG201801011230_H.MOV" to the horizontal video file created at 12:30 on January 1, 2018, and creates the file name at 12:40 on January 1, 2018. A file name of "IMG201801011240_V.MOV" can be given to the vertical moving image file. "IMG" in the file name is an example of information indicating that the file is an image file. Also in this case, the file name may contain information indicating the file size.


図11は動画ファイルのアイコンにサムネイル画像を表示した様子を示す図である。同図の(a)部分は横動画の場合の例であり、(b)部分は縦動画の場合の例である。表示する画像は横動画又は縦動画の最初のフレームでもよいし、途中のフレーム(例えば、イベントが発生したフレーム等)でもよい。

FIG. 11 is a diagram showing how thumbnail images are displayed on icons of moving image files. Part (a) of the figure is an example in the case of horizontal moving images, and part (b) is an example in the case of vertical moving images. The image to be displayed may be the first frame of the horizontal moving image or the vertical moving image, or may be an intermediate frame (for example, a frame in which an event occurs).


以上に例示した動画ファイルのアイコン表示、サムネイル表示、ファイル名の付与により、ユーザは縦動画と横動画とを容易に識別でき、所望のフレームを含む動画を迅速かつ容易に選択することができる。なお、動画ファイルのアイコン表示、サムネイル表示、ファイル名の付与は制御部240Cが行うことができる。

By displaying icons, displaying thumbnails, and assigning file names to moving image files as illustrated above, the user can easily distinguish between vertical moving images and horizontal moving images, and can quickly and easily select a moving image containing a desired frame. Note that icon display, thumbnail display, and file name assignment of moving image files can be performed by the control unit 240C.


<ファイル情報によるシーン絞り込み表示例>

図12はファイル情報によるシーン絞り込み表示の例を示す図である。同図の(a)部分は、経過時間t6からt7まで、経過時間t7からt8まで、経過時間t8からt9まで、経過時間t9からt10までをそれぞれ横動画ファイル1030、縦動画ファイル1032、横動画ファイル1034、縦動画ファイル1036として記録した様子を示している。制御部240Cは、ファイル名等のファイル情報を参照して、記録時間の長さに応じた幅を有する矩形等の図形により、各動画ファイルをモニタ270(又は外部の表示装置)に表示する。制御部240Cは、動画ファイルを示す図形に対し、縦動画と横動画とで異なる色彩を付す等の識別表示を行ってもよい。

<Example of display of scenes narrowed down by file information>

FIG. 12 is a diagram showing an example of scene narrowing-down display based on file information. In the part (a) of the figure, the elapsed time from t6 to t7, the elapsed time from t7 to t8, the elapsed time from t8 to t9, and the elapsed time from t9 to t10 are represented by horizontal video file 1030, vertical video file 1032, and horizontal video file 1032, respectively. A file 1034 and a vertical moving image file 1036 are shown. The control unit 240C refers to the file information such as the file name and displays each moving image file on the monitor 270 (or an external display device) using a figure such as a rectangle having a width corresponding to the length of the recording time. The control unit 240C may perform identification display, such as adding different colors to the figure indicating the moving image file for the vertical moving image and the horizontal moving image.


図12の(a)部分に示す例では、横動画ファイル1030及び縦動画ファイル1036の記録時間が長いことが分かる。なお、表示された動画ファイルをユーザがモニタ270及び/又は操作部250を介して選択すると、制御部240Cは、選択された動画ファイル又はその動画ファイルを構成する一部のフレームをモニタ270あるいは外部の表示装置に表示することができる。これによりユーザは静止画として抽出したい所望のフレームを選択することができる(後述する「静止画の抽出」の項及び図25を参照)。

In the example shown in part (a) of FIG. 12, it can be seen that the recording time of the horizontal moving image file 1030 and the vertical moving image file 1036 is long. Note that when the user selects a displayed moving image file via the monitor 270 and/or the operation unit 250, the control unit 240C displays the selected moving image file or a part of the frames that constitute the moving image file on the monitor 270 or externally. can be displayed on the display device. This allows the user to select a desired frame to be extracted as a still image (see "Extraction of Still Image", which will be described later, and FIG. 25).


シーン絞り込み表示の際に、制御部240Cは、イベントが発生したタイミングを併せて表示してもよい。図12の(b)部分に示す例では、イベント検出部240Dがイベントを検出したタイミングを、動画ファイルを示す矩形内に点線で示している。図12に例示するシーン絞り込み表示を参照することにより、ユーザは、動画から静止画を抽出する際に所望の構図(横動画か縦動画か)の動画フレームを迅速かつ容易に選択することができる。

At the time of scene narrowing display, the control unit 240C may also display the timing at which the event occurred. In the example shown in part (b) of FIG. 12, the timing at which the event detection unit 240D detects an event is indicated by a dotted line within the rectangle indicating the moving image file. By referring to the scene refinement display illustrated in FIG. 12, the user can quickly and easily select a moving image frame with a desired composition (horizontal moving image or vertical moving image) when extracting a still image from a moving image. .


<動画の分割及び記録の他の態様>

動画の分割及び記録(保存)の他の態様について説明する。なお、以下で説明するフローチャートのうち図5と同じ処理には同じステップ番号を付し、詳細な説明を省略する。

<Other Aspects of Splitting and Recording Moving Images>

Another aspect of dividing and recording (saving) a moving image will be described. In the flowcharts described below, the same step numbers are assigned to the same processes as those in FIG. 5, and detailed description thereof will be omitted.


(態様1:姿勢変化中の期間を独立した動画ファイルとする態様)

図5について説明した態様ではカメラ10の姿勢(X軸周りの角度)がしきい値を超えたら「方向変化が起きた」と判断している。しかし、図13に示す態様1では姿勢変化中の動画は横動画及び縦動画とは別の動画ファイルとして別のフォルダに保存する。図13は態様1での処理を示すフローチャートであり、方向検出部240Bは、カメラ10の姿勢(重力方向に対する方向)が「横」、「縦」、「変化中」のいずれであるかを判断する(ステップS122:姿勢検出ステップ)。

(Aspect 1: Aspect in which the period during posture change is set as an independent video file)

In the embodiment described with reference to FIG. 5, it is determined that "a direction change has occurred" when the posture of the camera 10 (angle around the X-axis) exceeds the threshold value. However, in mode 1 shown in FIG. 13, the moving image during posture change is stored in a separate folder as a moving image file separate from the horizontal moving image and the vertical moving image. FIG. 13 is a flowchart showing the processing in mode 1. The orientation detection unit 240B determines whether the orientation of the camera 10 (direction relative to the direction of gravity) is "horizontal", "vertical", or "changing". (step S122: posture detection step).


制御部240Cは、姿勢が「横」である場合は横動画(第1動画)として縦横動画用フォルダ(第1フォルダ)に動画ファイル(第1動画ファイル)の記録(保存)を開始する(ステップS130)。制御部240Cは、姿勢が「縦」である場合は縦動画(第2動画)として縦横動画用フォルダ(第1フォルダ)に記録を開始し(ステップS140)、「変化中」である場合は変化中動画(第3動画)として変化中動画用フォルダ(第3フォルダ)に記録を開始する(ステップS124)。態様1においては、制御部240Cは、各撮影番号のフォルダの下位の階層に、縦横動画用フォルダに加えて変化中動画用フォルダを作成することができる。

When the posture is "horizontal", the control unit 240C starts recording (saving) a moving image file (first moving image file) as a horizontal moving image (first moving image) in a vertical/horizontal moving image folder (first folder) (step S130). The control unit 240C starts recording a vertical moving image (second moving image) in the vertical/horizontal moving image folder (first folder) when the posture is "vertical" (step S140), and when the posture is "changing" Recording of the middle moving image (third moving image) in the changing moving image folder (third folder) is started (step S124). In aspect 1, the control unit 240C can create a changing moving image folder in addition to the vertical/horizontal moving image folder in the hierarchy below the folder of each shooting number.


態様1では、方向検出部240Bが「カメラ10の姿勢変化が開始又は完了した」と判断した場合(ステップS172(判断ステップ)でYes)に動画を分割(動画ファイルのクローズ、新たな動画ファイルの生成)する。この際、カメラ10の姿勢は手振れその他により細かく変動する場合があるので、方向検出部240BはX軸周りの角度が一定時間に決められた値以上変化したら「姿勢変化が開始した」と判断する。同様に、方向検出部240Bは、角度の変動が決められた範囲内に収まる時間が一定時間以上継続したら「姿勢変化が完了した」と判断することが好ましい。例えば、図14に示す例では、経過時間t1とt2の間で角度が大きく変化しており、経過時間t3とt4の間で角度が安定している。

In aspect 1, when the direction detection unit 240B determines that "the change in the orientation of the camera 10 has started or completed" (Yes in step S172 (determination step)), the moving image is divided (moving image file closed, new moving image file created). generate). At this time, since the posture of the camera 10 may change minutely due to camera shake or the like, the direction detection unit 240B determines that "posture change has started" when the angle around the X axis changes by a predetermined value or more within a certain period of time. . Similarly, direction detection section 240B preferably determines that "posture change is completed" when the time period in which the change in angle is within a predetermined range continues for a certain period of time or longer. For example, in the example shown in FIG. 14, the angle changes greatly between elapsed times t1 and t2, and is stable between elapsed times t3 and t4.


よって、方向検出部240Bは経過時間t2からt4まで「姿勢が変化中である」と判断し、経過時間t4において「姿勢変化が完了した」と判断する(カメラ10の実際の姿勢と姿勢の判定結果が変化するまでの時間ズレを考慮している)。この判断に対応して、制御部240Cは経過時間t2からt4までの間、時間において横動画(第1動画;経過時間ゼロからt2まで)と縦動画(第2動画;経過時間t4以降)の間にある変化中動画(第3動画)を生成する。図14に示すように、変化中動画(第3動画)は、カメラ10の姿勢が変化中である(方向変化が起きている)第1期間の動画を含む。

Therefore, the direction detection unit 240B determines that "the attitude is changing" from the elapsed time t2 to t4, and determines that "the attitude change is completed" at the elapsed time t4 (determination of the actual attitude and the attitude of the camera 10). Considering the time lag until the result changes). In response to this determination, the control unit 240C determines whether the horizontal video (first video; elapsed time 0 to t2) and vertical video (second video; after elapsed time t4) are displayed between the elapsed time t2 and t4. A transition moving image (third moving image) in between is generated. As shown in FIG. 14, the in-change moving image (third moving image) includes a first period moving image in which the orientation of the camera 10 is changing (a direction change occurs).


(態様2:姿勢変化中は前の期間の動画ファイルに継続して記録する態様)

上述した態様1では姿勢変化中(第1期間)は独立した動画(第3動画)として記録している。しかし、態様2では、姿勢変化中は変化開始前の期間についての動画ファイルに継続して記録する。具体的には、図15に示すように、方向検出部240Bはカメラ10(撮像装置)が第1状態(カメラ10の底面が水平方向に沿っている状態;横状態)、第2状態(カメラ10の底面が重力方向に沿っている状態;縦状態)、又は第3状態(第1状態と第2状態との間で変化している状態)のいずれであるかを検出する。そして、制御部240Cは、カメラ10が第3状態(姿勢が変化中)である期間の動画を第1動画に含めて縦横動画用フォルダ(第1フォルダ)に記録する。

(Aspect 2: Aspect in which recording is continued to the video file of the previous period while the posture is changing)

In mode 1 described above, during a posture change (first period), an independent moving image (third moving image) is recorded. However, in mode 2, while the posture is changing, the moving image file for the period before the start of the change is continuously recorded. Specifically, as shown in FIG. 15, the direction detection unit 240B detects that the camera 10 (imaging device) is in the first state (the bottom surface of the camera 10 is in the horizontal direction; horizontal state), the second state (the camera It detects whether the bottom surface of 10 is in the direction of gravity; the vertical state) or the third state (the state in which it is changing between the first state and the second state). Then, the control unit 240C records the moving image of the period in which the camera 10 is in the third state (while the posture is changing) in the first moving image in the vertical/horizontal moving image folder (first folder).


(態様3:姿勢変化終了後の期間の一部を変化中の期間の動画ファイルに継続して記録する態様)

カメラ10の姿勢が変化した状況では、モニタ270の画面における構図が大きく変化している場合がある。その場合、カメラ10(撮像装置)が動画の露出(AE:AutoExposure)、動画のホワイトバランス(AWB:Auto White Balance)、又は動画中の被写体のフォーカス(AF:Auto Focus)等を調整する期間が必要になる可能性がある。そこで態様3では、姿勢変化終了後の決められた期間(第2期間)は、カメラ10の姿勢が安定していても姿勢が変化中である場合と同様に扱う。具体的には、例えば図16に示すように、方向検出部240Bは経過時間t2からt4までの期間(第1期間)に加えて経過時間t4からt5までの期間(第2期間)についても「カメラ10の姿勢が変化している」として扱う。

(Aspect 3: Aspect in which a part of the period after the end of the posture change is continuously recorded in the moving image file during the period during the change)

In situations where the attitude of the camera 10 has changed, the composition on the screen of the monitor 270 may change significantly. In that case, the camera 10 (imaging device) has a period during which the exposure of the moving image (AE: AutoExposure), the white balance of the moving image (AWB: Auto White Balance), or the focus of the subject in the moving image (AF: Auto Focus) is adjusted. may be needed. Therefore, in mode 3, the predetermined period (second period) after the orientation change is completed is handled in the same manner as the case where the orientation of the camera 10 is changing even if the orientation is stable. Specifically, for example, as shown in FIG. 16, the direction detection unit 240B " The attitude of the camera 10 has changed."


そして、これら第1期間及び第2期間については第3動画として記録(保存)する。すなわち、第3動画は方向変化が終了した後の第2期間の動画も含む。なお、制御部240Cは動画を分割して第3動画を横動画(第1動画)及び縦動画(第2動画)とは別の動画ファイル(第3動画ファイル)とし、縦横動画用フォルダ(第1フォルダ)に記録することができる。しかし、第3動画は独立した変化中動画用フォルダ(第3フォルダ)に記録してもよい。姿勢変化中や撮影条件が不安定な期間の画像は重要性が低い場合があるが、態様3ではそのような期間は横動画及び縦動画とは別の動画として保存するので、静止画として抽出したいフレームの選択や動画ファイル、フォルダの整理を容易に行うことができる。

Then, these first period and second period are recorded (saved) as a third moving image. That is, the third moving image also includes the moving image of the second period after the direction change ends. Note that the control unit 240C divides the moving image, sets the third moving image as a moving image file (third moving image file) separate from the horizontal moving image (first moving image) and the vertical moving image (second moving image), and creates a vertical/horizontal moving image folder (second moving image). 1 folder). However, the third moving image may be recorded in an independent folder for changing moving images (third folder). An image during a posture change or a period when the shooting conditions are unstable may be less important, but in mode 3, such a period is saved as a moving image separate from the horizontal moving image and the vertical moving image, so it is extracted as a still image. You can easily select the frame you want to use and organize video files and folders.


(態様4:姿勢変化終了後の期間の一部までを当初の動画ファイルに継続して記録する態様)

上述した態様3では、カメラ10の姿勢変化中(第1期間)及び姿勢変化が終了してから決められた期間(第2期間)については「第3動画」としている。しかし、態様4では、図17に示すように第1期間(経過時間t2からt4まで)及び第2期間(経過時間t4からt5まで)については「第1動画」として縦横動画用フォルダ(第1フォルダ)に記録する。

(Aspect 4: Aspect in which part of the period after the end of posture change is continuously recorded in the original video file)

In mode 3 described above, the period during which the orientation of the camera 10 is changing (the first period) and the period (the second period) determined after the orientation is changed are referred to as the "third moving image". However, in mode 4, as shown in FIG. 17, the first period (elapsed time from t2 to t4) and the second period (elapsed time from t4 to t5) are defined as the "first moving image" folder for vertical and horizontal moving images (first folder).


(態様5:姿勢変化中は動画を記録しない態様)

上述した態様1から態様4では姿勢変化中の期間(及びその後姿勢が安定するまでの期間)について動画を記録しているが、姿勢変化中は動画を記録しない態様も採用することができる。具体的には、図18のフローチャートに示すように、方向検出部240Bが「カメラ10の姿勢が横(第1状態)、縦(第2状態)、又は変化中(第3状態)のいずれであるか」を検出する(ステップS122)。そして、姿勢が変化中の場合は動画ファイルの記録を開始しない(ステップS122に戻る)。

(Aspect 5: Aspect in which moving images are not recorded during a posture change)

In modes 1 to 4 described above, a moving image is recorded during the period during which the posture is changed (and the period until the posture is stabilized thereafter), but a mode in which the moving image is not recorded during the posture change can also be adopted. Specifically, as shown in the flowchart of FIG. 18, the orientation detection unit 240B detects whether the orientation of the camera 10 is horizontal (first state), vertical (second state), or changing (third state). is detected (step S122). Then, when the posture is changing, recording of the moving image file is not started (returns to step S122).


また、カメラ10の姿勢が横又は縦であり動画の記録を開始(ステップS130、ステップS140)した後にカメラ10の姿勢変化が開始すると(ステップS174でYes)、制御部240CはステップS180で動画ファイルをクローズしてステップS122に戻る。そして、カメラ10の姿勢が横又は縦となってから動画の記録を再開する(ステップS130、ステップS140)。姿勢変化中の画像は重要性が低い場合があるが、態様5ではそのような期間は動画を保存しないので記録メディアの残容量を節約することができる。また、またユーザは静止画として抽出したいフレームの選択や動画ファイル、フォルダの整理を容易に行うことができる。

Also, if the orientation of the camera 10 is horizontal or vertical and the orientation of the camera 10 starts to change after recording of the moving image has started (steps S130 and S140) (Yes in step S174), the control unit 240C converts the moving image file to the moving image file in step S180. is closed and the process returns to step S122. Then, after the orientation of the camera 10 becomes horizontal or vertical, recording of moving images is resumed (steps S130 and S140). Images during posture changes may be of low importance, but in aspect 5, since moving images are not saved during such periods, the remaining capacity of the recording medium can be saved. In addition, the user can easily select a frame to be extracted as a still image and organize moving image files and folders.


(態様6:姿勢変化があった場合でもイベント発生の直後は動画を分割しない態様)

図19のフローチャートに示す態様6は、カメラ10の姿勢変化が開始もしくは完了した場合の態様である。この態様では、カメラ10の姿勢変化が開始もしくは完了したタイミングから決められた時間(ステップS176では“T秒前”と記載)前までの間に特定のイベントが発生していた場合、制御部240Cは動画ファイルをクローズしない(ステップS176でYesとなりステップS180に進まない)。したがってこの場合、動画の分割を行わない。また、一定時間前までに特定イベントが発生していた場合だけではなく、特定のイベントの発生中(継続中)である場合も同様である。

(Aspect 6: Aspect in which the video is not divided immediately after the event occurs even if there is a posture change)

Mode 6 shown in the flowchart of FIG. 19 is a mode when the orientation change of the camera 10 is started or completed. In this aspect, if a specific event has occurred before a predetermined time (described as “T seconds before” in step S176) from the timing when the attitude change of the camera 10 is started or completed, the control unit 240C does not close the moving image file (Yes in step S176 and does not proceed to step S180). Therefore, in this case, the moving image is not divided. The same applies not only to the case where a specific event has occurred before a certain period of time, but also to the case where the specific event is occurring (continuing).


制御部240Cは、操作部250を介したユーザの操作に応じて、あるいはユーザの操作によらずにTの値(例えば30秒とすることができるが、他の値でもよい)を設定することができる。特定のイベントが発生したかどうかはイベント検出部240D(図2を参照)が周知の画像処理によって被写体の動き量、大きさや形の変化、明るさの変化等を自動的に検出して判断してもよい。また、特定のイベントが発生したかどうかは、操作部250(モニタ270をタッチパネルとして使用する場合を含む)を介したユーザの指示により判断してもよい。また、ユーザが動画撮影中に静止画の撮影を指示した場合に「イベントが発生した」と判断してもよい。イベント検出部240D及び制御部240Cは、イベントを検出した場合、イベント検出タイミングを示す情報を動画ファイルに付与する(例えば、ヘッダやフッタに記録する)ことが好ましい。この情報を参照することで、ユーザは静止画として抽出したいフレームを迅速かつ容易に選択することができる(後述)。

The control unit 240C can set the value of T (for example, 30 seconds, but other values are also possible) according to the user's operation via the operation unit 250 or without depending on the user's operation. can be done. The event detector 240D (see FIG. 2) determines whether a specific event has occurred by automatically detecting the amount of movement of the subject, changes in size and shape, changes in brightness, etc., through well-known image processing. may Further, whether or not a specific event has occurred may be determined by a user's instruction via the operation unit 250 (including the case where the monitor 270 is used as a touch panel). Alternatively, it may be determined that "an event has occurred" when the user instructs to shoot a still image while shooting a moving image. When an event is detected, the event detection section 240D and the control section 240C preferably add information indicating event detection timing to the moving image file (for example, record it in the header or footer). By referring to this information, the user can quickly and easily select a frame to be extracted as a still image (described later).


上述のように、カメラ10の姿勢変化があった場合でも姿勢変化前にイベントが発生していた場合は動画を分割しないことで、ユーザはイベントに関連した一連の流れを1つの動画で確認することができ、撮影した動画から所望のフレームを迅速かつ容易に選択することができる。なお、図19のフローチャートは図13(姿勢変化中の動画は横動画及び縦動画とは別動画とし、別フォルダに保存する態様)をベースとしているが、図5、18のフローチャートをベースとしてもよい。

As described above, even if there is a change in the posture of the camera 10, if an event occurs before the change in posture, the video is not divided, so that the user can confirm the series of events related to the event in one video. A desired frame can be quickly and easily selected from the captured moving image. The flowchart in FIG. 19 is based on FIG. 13 (moving images during posture change are separate from horizontal and vertical moving images and stored in separate folders), but the flow charts in FIGS. good.


なお、制御部240Cは、上述した態様1から態様6を含めたいずれの態様で動画の分割及び記録(保存)を行うかを、操作部250を介したユーザの操作に応じて決定してもよい。

It should be noted that the control unit 240C may determine in which mode, including modes 1 to 6, the moving image is to be divided and recorded (saved) according to the user's operation via the operation unit 250. good.


<画像の縦横サイズを変更して表示する例>

カメラ10では、保存した動画(又は動画から抽出した静止画)をモニタ270等の表示装置に表示することができる。この際、動画は横撮り(カメラ10の姿勢が「横」の状態での撮影)される場合と縦撮り(カメラ10の姿勢が「縦」の状態での撮影)される場合があるので、撮影画像のサイズを維持しつつ撮影時と異なる向きで表示すると、「画像の一部が表示されない」等の問題が生じる場合がある。そこで、制御部240Cは、画像(動画、静止画)を表示する際に、撮影時及び表示時におけるカメラ10の姿勢との関係に基づいて、画像の縦方向及び/又は横方向のサイズを変更することができる。撮影時のカメラ10の姿勢は、ファイル名やヘッダ内の情報等のファイル情報を参照することにより把握することができる。

<Example of changing the vertical and horizontal size of the image and displaying it>

The camera 10 can display the saved moving image (or a still image extracted from the moving image) on a display device such as the monitor 270 or the like. At this time, the moving image may be horizontally shot (shooting with the camera 10 in the “horizontal” orientation) or vertically (shooting with the camera 10 in the “vertical” orientation). If the captured image is displayed in an orientation different from that at the time of capturing while maintaining the size of the captured image, problems such as "a part of the image is not displayed" may occur. Therefore, when displaying an image (moving image, still image), the control unit 240C changes the size of the image in the vertical direction and/or the horizontal direction based on the relationship with the posture of the camera 10 at the time of shooting and display. can do. The orientation of the camera 10 at the time of photographing can be grasped by referring to file information such as information in the file name and header.


図20は画像のサイズ変更の例を示す図である。同図の(a)部分は、横撮りした画像1040を、カメラ10が横向きの状態でモニタ270(表示装置)に表示した例(撮影時と同じ向きで表示)である。この場合、画像1040のサイズを変更する必要はない。一方、同図の(b)部分は、カメラ10が縦向きの状態で画像を表示した例(撮影時と異なる向きで表示)である。この場合、画像1040をそのまま表示すると、画像の全てを表示することができない。このため、制御部240Cは、画像1040の縦方向及び横方向のサイズを変更(縮小)し、画像1042として表示する。この際、制御部240Cは、サイズ変更の前後で画像のアスペクト比(例えば横:縦=16:9)を維持している。

FIG. 20 is a diagram showing an example of resizing an image. Part (a) of the figure is an example of displaying an image 1040 shot horizontally on the monitor 270 (display device) with the camera 10 oriented horizontally (displayed in the same orientation as when shooting). In this case, there is no need to resize image 1040 . On the other hand, part (b) of FIG. 10 is an example of displaying an image with the camera 10 in the portrait orientation (displaying in a different orientation from when the image was taken). In this case, if the image 1040 is displayed as it is, the entire image cannot be displayed. Therefore, the control unit 240</b>C changes (reduces) the size of the image 1040 in the vertical and horizontal directions and displays it as an image 1042 . At this time, the control unit 240C maintains the aspect ratio of the image (for example, horizontal:vertical=16:9) before and after resizing.


図21は、画像のサイズ変更の他の例を示す図である。同図の(a)部分は、縦撮りした画像1044を、カメラ10が縦向きの状態で表示した例である。この場合、画像1044のサイズを変更する必要はない。一方、同図の(b)部分は、カメラ10が横向きの状態で画像を表示した例(撮影時と異なる向きで表示)である。この場合、そのまま表示すると、画像1044の全てを表示することができない。このため、制御部240Cは、画像1044の縦方向及び横方向のサイズを変更(縮小)し、画像1046として表示する。この際、制御部240Cは、サイズ変更の前後で画像のアスペクト比(例えば横:縦=16:9)を維持している。

FIG. 21 is a diagram showing another example of resizing an image. Part (a) of the figure is an example in which an image 1044 taken vertically is displayed in a state in which the camera 10 is oriented vertically. In this case, there is no need to resize image 1044 . On the other hand, part (b) of FIG. 10 is an example of displaying an image with the camera 10 in landscape orientation (displaying in a different orientation from when photographing). In this case, if displayed as it is, the entire image 1044 cannot be displayed. Therefore, the control unit 240</b>C changes (reduces) the size of the image 1044 in the vertical and horizontal directions and displays it as an image 1046 . At this time, the control unit 240C maintains the aspect ratio of the image (for example, horizontal:vertical=16:9) before and after resizing.


図20,21に例示するサイズの変更は、縦方向及び横方向のうち一方でもよいし、両方でもよい。

The size change illustrated in FIGS. 20 and 21 may be in one or both of the vertical and horizontal directions.


<第1モード及び第2モードを考慮した場合の処理>

図5,13,18,19に示すフローチャートでは第1動画モードにおける処理について説明したが、第1動画モード及び第2動画モードを考慮した場合の処理について、図22,23を参照しつつ説明する。なお、図5,13,18,19と同様の処理については同一のステップ番号を付し、詳細な説明を省略する。

<Processing when Considering First Mode and Second Mode>

The flowcharts shown in FIGS. 5, 13, 18, and 19 describe the processing in the first moving image mode, but the processing in consideration of the first moving image mode and the second moving image mode will be described with reference to FIGS. . 5, 13, 18, and 19 are assigned the same step numbers, and detailed description thereof will be omitted.


制御部240Cは、カメラ10が第1動画モード(静止画抽出用動画モード)か第2動画モード(通常の動画モード)かを判断する(ステップS112)。第1動画モードの場合、制御部240Cは、第1動画モードに適した撮影条件を設定する(ステップS114)。ステップS114で設定する撮影条件は、「撮影モード」の項で上述したように、動画自体の鑑賞よりも静止画の抽出を重視した撮影条件である。第1動画モードにおけるステップS114以降の処理は図5のフローチャートと同様であるので、詳細な説明を省略する。

The control unit 240C determines whether the camera 10 is in the first moving image mode (still image extraction moving image mode) or the second moving image mode (normal moving image mode) (step S112). In the case of the first moving image mode, the control unit 240C sets shooting conditions suitable for the first moving image mode (step S114). The shooting condition set in step S114 is a shooting condition that emphasizes the extraction of still images rather than the viewing of moving images, as described above in the section of "shooting mode". Since the processing after step S114 in the first moving image mode is the same as that of the flowchart of FIG. 5, detailed description thereof will be omitted.


一方、ステップS112での判断の結果が第2動画モードであった場合、制御部240Cは、第2動画モードに適した撮影条件を設定する(図23のステップS191)。方向検出部240Bはカメラ10の姿勢を判定し(ステップS192)、制御部240Cは、記憶部260の縦横動画用フォルダ(第1フォルダ)に動画ファイルの生成、記録(保存)を開始する(ステップS193:動画保存ステップ)。ステップS194,S195の処理は第1動画モードについてのステップS150,S160の処理と同様である。動画記録終了指示があった場合(ステップS194でYes)及び記録メディア残容量が十分でない場合(ステップS195でNo)は、制御部240Cは動画ファイルをクローズして(ステップS197)、図22のステップS190(動画撮影終了か否かの判定)へ戻る。

On the other hand, if the result of determination in step S112 is the second moving image mode, the control unit 240C sets shooting conditions suitable for the second moving image mode (step S191 in FIG. 23). The direction detection unit 240B determines the orientation of the camera 10 (step S192), and the control unit 240C starts generating and recording (saving) a moving image file in the vertical/horizontal moving image folder (first folder) of the storage unit 260 (step S192). S193: moving picture saving step). The processing of steps S194 and S195 is the same as the processing of steps S150 and S160 for the first moving image mode. If there is an instruction to end moving image recording (Yes in step S194) and if the remaining capacity of the recording medium is insufficient (No in step S195), the control unit 240C closes the moving image file (step S197), and the step shown in FIG. The process returns to S190 (determining whether or not moving image shooting is finished).


動画記録終了指示がなく(ステップS194でNo)、記録メディア残容量が十分である(ステップS195でYes)場合、制御部240Cは動画の記録を継続する。しかし、第2動画モードにおいては、第1動画モードの場合と異なり、方向検出部240Bが「カメラ10の姿勢の変化(方向変化)が起きた」と判断しない場合(ステップS196でNo)も、「姿勢の変化が起きた」と判断した場合(ステップS196でYes)も動画を分割しない。第2動画モードにおいてカメラ10の姿勢が変化しても動画を分割しないのは、第2動画モードは静止画の抽出を目的とした動画を撮影するモードではなく、第1動画モードのように動画を分割して特定のシーンを探しやすくしなくてもよいからである。

If there is no moving image recording end instruction (No in step S194) and the remaining capacity of the recording medium is sufficient (Yes in step S195), the control unit 240C continues recording the moving image. However, in the second moving image mode, unlike the first moving image mode, even if the direction detection unit 240B does not determine that "a change in the posture (orientation) of the camera 10 has occurred" (No in step S196), When it is determined that "the posture has changed" (Yes in step S196), the moving image is not divided. In the second moving image mode, the moving image is not divided even if the orientation of the camera 10 changes. This is because it is not necessary to divide the .


<第1モード及び第2モードを考慮した場合のフォルダ構成>

図24は第1モード及び第2モードを考慮した場合のフォルダ構成の例を示す図である。同図の例では、制御部240Cにより撮影日ごとにフォルダが生成され、撮影日ごとのフォルダ内に第1動画モードのフォルダと第2動画モードのフォルダが生成される。制御部240Cは、第1動画モードのフォルダ内には撮影番号ごとにフォルダを生成し、各撮影番号のフォルダに対し、動画の分割に応じた数の横動画及び縦動画を保存する。一方、第2動画モードでは姿勢の変化に応じた動画の分割を行わないので、制御部240Cは、第2動画モードのフォルダ内に動画ファイルを記録する。なお、図24の例では撮影日のフォルダの下位に第1,第2動画モードのフォルダを設けているが、第1,第2動画モードのフォルダを上位とし、その下位に撮影日のフォルダを設けてもよい。このようなフォルダ構成は、制御部240Cによりモニタ270(表示装置)に表示することができる。

<Folder structure when considering the first mode and second mode>

FIG. 24 is a diagram showing an example of the folder structure when considering the first mode and the second mode. In the example shown in the figure, the control unit 240C generates a folder for each shooting date, and within each folder for each shooting date, a folder for the first moving image mode and a folder for the second moving image mode are created. The control unit 240C creates a folder for each shooting number in the folder of the first moving image mode, and saves the number of horizontal and vertical moving images corresponding to the division of the moving image in the folder of each shooting number. On the other hand, in the second moving image mode, since the moving image is not divided according to the change in posture, the control unit 240C records the moving image file in the folder of the second moving image mode. In the example of FIG. 24, the folders for the first and second moving image modes are provided below the folder for the shooting date. may be provided. Such a folder structure can be displayed on the monitor 270 (display device) by the control unit 240C.


<静止画の抽出>

以下の例で説明するように、カメラ10では動画を構成するフレームを静止画として抽出することができる。なお、カメラ10で記録した動画ファイルを用いて、パーソナルコンピュータ等の他の装置で静止画の抽出を行ってもよい。

<Extraction of still image>

As described in the following example, the camera 10 can extract frames forming a moving image as still images. Still images may be extracted by another device such as a personal computer using the moving image file recorded by the camera 10 .


(例1)

制御部240Cは横動画、縦動画、又は変化中動画(第1動画、第2動画、第3動画)の動画ファイルのうち、ユーザが選択したファイルをモニタ270に再生表示させる。連続的な再生ではなくコマ送りで再生(ユーザの操作に応じて1フレームずつ表示)してもよい。制御部240Cはユーザの操作により再生を停止し、停止した時点で表示されているフレームの選択をユーザの操作に応じて確定することで、静止画抽出部240Eがそのフレームを静止画として抽出する。

(Example 1)

The control unit 240C causes the monitor 270 to reproduce and display the file selected by the user from the moving image files of the horizontal moving image, the vertical moving image, or the changing moving image (the first moving image, the second moving image, and the third moving image). Instead of continuous reproduction, frame-by-frame reproduction (frame by frame display according to user's operation) may be performed. The control unit 240C stops the reproduction by the user's operation, and by confirming the selection of the frame displayed at the time of stopping according to the user's operation, the still image extracting unit 240E extracts the frame as a still image. .


(例2)

動画ファイルにイベントの検出を示す情報が付与されている場合、制御部240Cは、その情報を参照してイベントが検出されたフレームを含む複数のフレームをモニタ270に表示してもよい。図25はそのような表示の例であり、フレーム1052を含む5つのフレーム1051~1055が表示されている。また、静止画が記録されたフレーム1052(静止画の記録はイベント発生の一例である)については、静止画抽出部240Eによりカメラ状のアイコン1060が付されている。アイコン1060により、ユーザは静止画が記録されたフレームであることを把握することができる。

(Example 2)

When information indicating event detection is added to the moving image file, the control unit 240C may refer to the information and display a plurality of frames including the frame in which the event was detected on the monitor 270 . FIG. 25 is an example of such a display, where five frames 1051-1055 are displayed, including frame 1052. FIG. Further, a camera-like icon 1060 is attached to a frame 1052 in which a still image is recorded (recording of a still image is an example of event occurrence) by the still image extraction unit 240E. The icon 1060 allows the user to understand that the frame is a still image recorded.


なお、表示する静止画抽出用フレームの範囲は「記録した静止画ファイルに対応するフレーム」(図25の例ではフレーム1052)に対し時間的に前のフレーム(フレーム1051)及び後のフレーム(フレーム1053~1055)を含めてもよい。また、表示する静止画抽出用フレームの範囲は、「時間的に前のフレームだけを含める」態様あるいは「時間的に後のフレームだけを含める」態様でもよい。表示する静止画抽出用フレームの範囲はユーザの指定に応じて設定してもよいし、ユーザの指定によらずに設定してもよい。また、表示するフレームの範囲を時間で規定(例えば、静止画が記録されたフレームの前後1秒ずつ)してもよいし、フレーム数で規定(例えば、静止画が記録されたフレームの前後の10フレームずつ)してもよい。また、初期状態では静止画として記録されたフレームのみを一覧表示し、その中から選択されたフレームについて時間的に前及び/又は後ろのフレームを表示してもよい。

Note that the range of frames for still image extraction to be displayed is the frame (frame 1051) temporally before and the frame after (frame 1052 in the example of FIG. 25) with respect to the “frame corresponding to the recorded still image file”. 1053-1055) may be included. Further, the range of still image extraction frames to be displayed may be in a mode of "including only temporally previous frames" or a mode of "including only temporally subsequent frames". The range of still image extraction frames to be displayed may be set according to the user's designation, or may be set regardless of the user's designation. Also, the range of frames to be displayed may be specified by time (for example, one second before and after the frame in which the still image is recorded), or by the number of frames (for example, the number of frames before and after the frame in which the still image is recorded). 10 frames each). Alternatively, in the initial state, only the frames recorded as still images are displayed in a list, and a frame selected from the list may be displayed temporally before and/or after.


<抽出するフレームの選択>

ユーザは、表示された静止画抽出用フレームからフレームを選択することができる。図25の例では、ユーザは操作部250及び/又はモニタ270を介して所望のフレームに対するチェックボックス1070をチェックすることによりフレームを選択することができ、複数のフレームを選択することもできる。なお、ユーザによって指定された静止画が記録されたフレームが、必ずしもベストのタイミングで記録されたとは限らない。他の関連フレームを合わせて表示することで、ユーザが他のフレームを選択したいと思う場合もある。よって、静止画が記録されたフレームに加えてその前及び/又は後ろのフレームから選択できるようにすることが好ましい。図25では、静止画が記録されたフレーム(アイコン1060が付されたフレーム1052)と異なるフレーム1053をユーザが選択した状態を示している。

<Selection of frame to extract>

The user can select a frame from the displayed frames for still image extraction. In the example of FIG. 25, the user can select a frame by checking checkbox 1070 for the desired frame via operation unit 250 and/or monitor 270, and can select multiple frames. Note that the frame in which the still image specified by the user is recorded is not necessarily recorded at the best timing. By displaying other related frames together, the user may wish to select other frames. Therefore, it is preferable to be able to select from frames before and/or after in addition to the frame in which the still image was recorded. FIG. 25 shows a state in which the user has selected a frame 1053 different from the frame in which the still image was recorded (frame 1052 with icon 1060).


静止画抽出部240Eは、選択されたフレームを静止画として抽出する(静止画抽出ステップ)。なお、動画ファイルはMPEG形式等の動画用フォーマットで記憶されているので、静止画抽出部240Eは選択されたフレームのデータを静止画用のフォーマット(JPEG形式等)に変換する。ユーザは、動画(第1動画、第2動画、第3動画)から所望のタイミングにおける静止画を抽出することができる。

The still image extraction unit 240E extracts the selected frame as a still image (still image extraction step). Since the moving image file is stored in a moving image format such as MPEG format, the still image extraction unit 240E converts the selected frame data into a still image format (JPEG format, etc.). The user can extract a still image at a desired timing from the moving images (the first moving image, the second moving image, and the third moving image).


<第2の実施形態>

第1の実施形態では、デジタルカメラであるカメラ10について説明したが、撮像装置の構成はこれに限定されない。本発明のその他の撮像装置としては、例えば、内蔵型又は外付け型のPC用カメラ(PC:Personal Computer)、あるいは、以下に説明するような、撮影機能を有する携帯端末装置とすることができる。

<Second embodiment>

Although the camera 10, which is a digital camera, has been described in the first embodiment, the configuration of the imaging device is not limited to this. Other imaging devices of the present invention can be, for example, a built-in or external PC camera (PC: Personal Computer), or a mobile terminal device having an imaging function as described below. .


本発明の撮像装置の一実施形態である携帯端末装置としては、例えば、携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、スマートフォンを例に挙げ、図面を参照しつつ、詳細に説明する。

Portable terminal devices, which are an embodiment of the imaging device of the present invention, include, for example, mobile phones, smart phones, PDAs (Personal Digital Assistants), and portable game machines. Hereinafter, a smart phone will be taken as an example, and a detailed description will be given with reference to the drawings.


図26は本発明の撮像装置の一実施形態であるスマートフォン1(撮像装置)の外観を示す図であり、同図の(a)部分は正面図、(b)部分は背面図である。図26に示すスマートフォン1は平板状の筐体2を有し、筐体2の一方の面に表示部としての表示パネル21(表示装置)と、入力部としての操作パネル22(操作部)とが一体となった表示入力部20を備えている。また、筐体2は、スピーカ31と、マイクロフォン32、操作部40(操作部)と、カメラ部41,42(撮像装置、撮影部、イベント検出部、制御部、静止画抽出部、レンズ駆動制御部)、ストロボ43とを備えている。なお、筐体2の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用してもよいし、折り畳み構造やスライド機構を有する構成を採用してもよい。

FIG. 26 is a diagram showing the appearance of a smartphone 1 (imaging device) that is an embodiment of the imaging device of the present invention, in which part (a) is a front view and part (b) is a rear view. A smartphone 1 shown in FIG. 26 has a flat housing 2, and a display panel 21 (display device) as a display unit and an operation panel 22 (operation unit) as an input unit are provided on one surface of the housing 2. is provided with a display input unit 20 integrated with. The housing 2 includes a speaker 31, a microphone 32, an operation unit 40 (operation unit), camera units 41 and 42 (imaging device, imaging unit, event detection unit, control unit, still image extraction unit, lens drive control part) and a strobe 43 . The configuration of the housing 2 is not limited to this. For example, a configuration in which the display unit and the input unit are independent may be adopted, or a configuration having a folding structure or a slide mechanism may be adopted.


図27は、図26に示すスマートフォン1の構成を示すブロック図である。図27に示すように、スマートフォン1の主たる構成要素として、無線通信部11と、表示入力部20と、通話部30と、操作部40と、カメラ部41,42と、ストロボ43と、記憶部50(記憶部)と、外部入出力部60と、GPS受信部70(GPS:Global Positioning System)と、モーションセンサ部80と、電源部90と、主制御部101とを備える。主制御部101は、撮影部、動画ファイル生成部、静止画ファイル生成部、イベント検出部、表示制御部、静止画抽出部、レンズ駆動制御部として機能する。また、スマートフォン1の主たる機能として、基地局装置と移動通信網とを介した移動無線通信を行う無線通信機能を備える。

FIG. 27 is a block diagram showing the configuration of the smartphone 1 shown in FIG. 26. As shown in FIG. As shown in FIG. 27, the main components of the smartphone 1 are a wireless communication unit 11, a display input unit 20, a call unit 30, an operation unit 40, camera units 41 and 42, a strobe 43, and a storage unit. 50 (storage unit), an external input/output unit 60 , a GPS receiver unit 70 (GPS: Global Positioning System), a motion sensor unit 80 , a power supply unit 90 and a main control unit 101 . The main control unit 101 functions as an imaging unit, a moving image file generation unit, a still image file generation unit, an event detection unit, a display control unit, a still image extraction unit, and a lens drive control unit. In addition, as a main function of the smartphone 1, a radio communication function is provided to perform mobile radio communication via a base station device and a mobile communication network.


無線通信部11は、主制御部101の指示にしたがって、移動通信網に収容された基地局装置に対し無線通信を行う。斯かる無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。

Radio communication section 11 performs radio communication with a base station apparatus accommodated in a mobile communication network according to instructions from main control section 101 . Such wireless communication is used to transmit and receive various file data such as audio data and image data, e-mail data, etc., and to receive Web data, streaming data, and the like.


表示入力部20は、主制御部101の制御により、画像(静止画像及び/又は動画像)や文字情報などを表示して視覚的にユーザに情報を伝達すると共に、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル21と、操作パネル22とを備える。

Under the control of the main control unit 101, the display input unit 20 displays images (still images and/or moving images), character information, etc. to visually transmit information to the user, and also allows the user to operate the displayed information. It is a so-called touch panel for detecting, and includes a display panel 21 and an operation panel 22 .


表示パネル21としては、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などが表示デバイスとして用いられる。操作パネル22は、表示パネル21の表示面上に表示される画像を視認可能に載置され、ユーザの指やペン等の導体によって操作される1又は複数の座標を検出するデバイスである。斯かるデバイスをユーザの指やペン等の導体によって操作すると、操作パネル22は、操作に起因して発生する検出信号を主制御部101に出力する。次いで、主制御部101は、受信した検出信号に基づいて、表示パネル21上の操作位置(座標)を検出する。

As the display panel 21, an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like is used as a display device. The operation panel 22 is a device that is placed so that an image displayed on the display surface of the display panel 21 can be visually recognized, and that detects one or more coordinates operated by a conductor such as a user's finger or pen. When such a device is operated by a user's finger or a conductor such as a pen, the operation panel 22 outputs a detection signal generated by the operation to the main control section 101 . Next, the main control unit 101 detects the operating position (coordinates) on the display panel 21 based on the received detection signal.


図26に示すように、本発明の撮像装置の一実施形態として例示しているスマートフォン1の表示パネル21と操作パネル22とは一体となって表示入力部20を構成しているが、操作パネル22が表示パネル21を完全に覆う配置となっている。斯かる配置を採用した場合、操作パネル22は、表示パネル21外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル22は、表示パネル21に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル21に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。

As shown in FIG. 26, the display panel 21 and the operation panel 22 of the smart phone 1 exemplified as an embodiment of the imaging device of the present invention are integrated to form the display input unit 20. However, the operation panel 22 is arranged to completely cover the display panel 21 . When such an arrangement is adopted, the operation panel 22 may have a function of detecting user operations in areas outside the display panel 21 as well. In other words, the operation panel 22 has a detection area for the overlapping portion overlapping the display panel 21 (hereinafter referred to as a display area) and a detection area for the outer edge portion not overlapping the display panel 21 (hereinafter referred to as a non-display area). ) may be provided.


通話部30は、スピーカ31やマイクロフォン32を備え、マイクロフォン32を通じて入力されたユーザの音声を主制御部101にて処理可能な音声データに変換して主制御部101に出力すること、無線通信部11あるいは外部入出力部60により受信された音声データを復号してスピーカ31から出力することができる。また、図26に示すように、例えばスピーカ31を表示入力部20が設けられた面と同じ面に搭載し、マイクロフォン32を筐体2の側面に搭載することができる。

The call unit 30 includes a speaker 31 and a microphone 32, converts the user's voice input through the microphone 32 into voice data that can be processed by the main control unit 101, and outputs the data to the main control unit 101; 11 or the external input/output unit 60 can decode the audio data and output it from the speaker 31 . Further, as shown in FIG. 26 , for example, the speaker 31 can be mounted on the same surface as the display input unit 20 is provided, and the microphone 32 can be mounted on the side surface of the housing 2 .


操作部40は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるデバイスである。例えば図26に示すように、操作部40は、スマートフォン1の筐体2の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。

The operation unit 40 is a hardware key using a key switch or the like, and is a device that receives instructions from a user. For example, as shown in FIG. 26, the operation unit 40 is mounted on the side surface of the housing 2 of the smartphone 1, is turned on when pressed with a finger or the like, and is turned off by the restoring force of a spring or the like when the finger is released. It is a button type switch.


記憶部50は、主制御部101の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶する。また、記憶部50は、スマートフォン内蔵の内部記憶部51と着脱自在な外部メモリスロットを有する外部記憶部52により構成される。なお、記憶部50を構成するそれぞれの内部記憶部51と外部記憶部52は、公知の格納媒体を用いて実現される。

The storage unit 50 stores the control program and control data of the main control unit 101, application software, address data associated with names and telephone numbers of communication partners, data of sent and received e-mails, web data downloaded by web browsing, It stores downloaded content data and temporarily stores streaming data and the like. The storage unit 50 is configured by an internal storage unit 51 built into the smartphone and an external storage unit 52 having a detachable external memory slot. The internal storage unit 51 and the external storage unit 52 constituting the storage unit 50 are each realized using a known storage medium.


外部入出力部60は、スマートフォン1に連結される全ての外部機器とのインターフェースの役割を果たす。スマートフォン1は、外部入出力部60を介して他の外部機器に通信等により直接的又は間接的に接続される。通信等の手段としては、例えば、ユニバーサルシリアルバス(USB:Universal Serial Bus)、IEEE1394、ネットワーク(例えば、インターネット、無線LAN)を挙げることができる。この他、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wide Band)(登録商標)、ジグビー(ZigBee)(登録商標)なども通信等の手段として挙げることができる。

The external input/output unit 60 functions as an interface with all external devices connected to the smartphone 1 . The smartphone 1 is directly or indirectly connected to another external device through communication or the like via the external input/output unit 60 . Examples of communication means include Universal Serial Bus (USB), IEEE1394, and networks (eg, the Internet and wireless LAN). In addition, Bluetooth (registered trademark), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association: IrDA) (registered trademark), UWB (Ultra Wide Band) (registered trademark), ZigBee (registered trademark) Trademark) can also be cited as a means of communication.


スマートフォン1に連結される外部機器としては、例えば、有線/無線ヘッドセット、有線/無線外部充電器、有線/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カードが挙げられる。また、オーディオ及びビデオI/O(Input/Output)端子を介して接続される外部オーディオ及びビデオ機器、無線接続される外部オーディオ及びビデオ機器、有線/無線接続されるスマートフォン、有線/無線接続されるPDA、有線/無線接続されるパーソナルコンピュータ、イヤホンなどの外部機器も連結することができる。外部入出力部60は、このような外部機器から伝送を受けたデータをスマートフォン1の内部の各構成要素に伝達することや、スマートフォン1の内部のデータを外部機器に伝送することができる。

External devices connected to the smart phone 1 include, for example, a wired/wireless headset, a wired/wireless external charger, a wired/wireless data port, a memory card and a SIM (subscriber) connected through a card socket. Identity Module Card)/UIM (User Identity Module Card) cards. In addition, external audio and video devices connected via audio and video I/O (Input/Output) terminals, external audio and video devices wirelessly connected, smartphones connected wired/wirelessly, wired/wireless connected External devices such as a PDA, a wired/wireless personal computer, and an earphone can also be connected. The external input/output unit 60 can transmit data received from such an external device to each component inside the smartphone 1 and transmit data inside the smartphone 1 to an external device.


モーションセンサ部80は、例えば、3軸の加速度センサや傾斜センサなどを備え、主制御部101の指示にしたがって、スマートフォン1の物理的な動きを検出する。スマートフォン1の物理的な動きを検出することにより、スマートフォン1の動く方向や加速度、姿勢が検出される。斯かる検出結果は、主制御部101に出力されるものである。電源部90は、主制御部101の指示にしたがって、スマートフォン1の各部に、バッテリ(不図示)に蓄えられる電力を供給する。

The motion sensor unit 80 includes, for example, a triaxial acceleration sensor and a tilt sensor, and detects physical movements of the smartphone 1 according to instructions from the main control unit 101 . By detecting the physical movement of the smartphone 1, the moving direction, acceleration, and posture of the smartphone 1 are detected. Such detection results are output to the main control section 101 . The power supply unit 90 supplies electric power stored in a battery (not shown) to each unit of the smartphone 1 according to instructions from the main control unit 101 .


主制御部101は、マイクロプロセッサを備え、記憶部50が記憶する制御プログラムや制御データにしたがって動作し、カメラ部41を含むスマートフォン1の各部を統括して制御する。また、主制御部101は、無線通信部11を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。

The main control unit 101 includes a microprocessor, operates according to control programs and control data stored in the storage unit 50 , and controls each unit of the smartphone 1 including the camera unit 41 in an integrated manner. Further, the main control unit 101 has a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 11 .


また、主制御部101は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部20に表示する等の画像処理機能を備える。画像処理機能とは、主制御部101が、画像データを復号し、斯かる復号結果に画像処理を施して、画像を表示入力部20に表示する機能のことをいう。

The main control unit 101 also has an image processing function such as displaying an image on the display/input unit 20 based on image data (still image or moving image data) such as received data or downloaded streaming data. The image processing function is a function in which the main control unit 101 decodes image data, applies image processing to the decoded result, and displays the image on the display input unit 20 .


カメラ部41,42は、CMOSやCCDなどの撮像素子を用いて電子撮影するデジタルカメラ(撮像装置)である。また、カメラ部41,42は、主制御部101の制御により、撮像によって得た画像データ(動画、静止画)を例えばMPEGやJPEGなどの圧縮した画像データに変換し、記憶部50に記録することや、外部入出力部60や無線通信部11を通じて出力することができる。また、カメラ部41は、主制御部101の制御により、動画の分割及び結合、高画質な静止画(RAW画像等)の取得、フレームの入れ替え及び加工、動画からの静止画の抽出を行うこともできる。図26,27に示すスマートフォン1において、カメラ部41,42の一方を用いて撮影することもできるし、カメラ部41,42を同時に使用して撮影することもできる。カメラ部42を用いる場合はストロボ43を使用することができる。

The camera units 41 and 42 are digital cameras (imaging devices) that perform electronic photography using imaging devices such as CMOS and CCD. Under the control of the main control unit 101, the camera units 41 and 42 convert image data (moving images and still images) obtained by imaging into compressed image data such as MPEG or JPEG, and record the data in the storage unit 50. Alternatively, it can be output through the external input/output unit 60 or the wireless communication unit 11 . In addition, the camera unit 41 is controlled by the main control unit 101 to divide and combine moving images, acquire high-quality still images (such as RAW images), replace and process frames, and extract still images from moving images. can also In the smart phone 1 shown in FIGS. 26 and 27, either one of the camera units 41 and 42 can be used for photographing, or the camera units 41 and 42 can be used simultaneously for photographing. A strobe 43 can be used when the camera unit 42 is used.


また、カメラ部41,42はスマートフォン1の各種機能に利用することができる。例えば、表示パネル21にカメラ部41,42で取得した画像を表示することや、操作パネル22の操作入力のひとつとして、カメラ部41,42の画像を利用することができる。また、GPS受信部70が位置を検出する際に、カメラ部41,42からの画像を参照して位置を検出することもできる。さらには、カメラ部41,42からの画像を参照して、3軸の加速度センサを用いずに、あるいは、3軸の加速度センサと併用して、スマートフォン1のカメラ部41の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部41,42からの画像をアプリケーションソフトウェア内で利用することもできる。その他、静止画又は動画の画像データにGPS受信部70により取得した位置情報、マイクロフォン32により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部80により取得した姿勢情報等を付加して記憶部50に記録することや、外部入出力部60や無線通信部11を通じて出力することもできる。

Also, the camera units 41 and 42 can be used for various functions of the smartphone 1 . For example, it is possible to display images acquired by the camera units 41 and 42 on the display panel 21, and to use the images of the camera units 41 and 42 as one of the operation inputs of the operation panel 22. FIG. Further, when the GPS receiving section 70 detects the position, it is also possible to detect the position by referring to the images from the camera sections 41 and 42 . Furthermore, by referring to the images from the camera units 41 and 42, the optical axis direction of the camera unit 41 of the smartphone 1 is determined without using the 3-axis acceleration sensor or in combination with the 3-axis acceleration sensor. It is also possible to determine the current usage environment. Of course, the images from the camera units 41 and 42 can also be used within the application software. In addition, positional information acquired by the GPS receiving unit 70 in image data of still images or moving images, audio information acquired by the microphone 32 (which may be converted into text information by performing audio-to-text conversion by the main control unit etc.), It is also possible to add posture information acquired by the motion sensor unit 80 and record it in the storage unit 50 or to output it through the external input/output unit 60 or the wireless communication unit 11 .


<スマートフォンの姿勢>

図28の(a)部分はスマートフォン1に対して規定される座標系の例を示す図であり、この例ではX軸周りの角度で姿勢を決める。(a)部分は角度0degの縦状態(スマートフォン1(撮像装置)が重力方向に沿っている第2状態)を示し、同図の(b)部分は角度90degの横状態(スマートフォン1(撮像装置)が水平方向に沿っている第1状態)を示す。また、図29はX軸周りの角度とスマートフォン1の姿勢(縦又は横)との関係の例を示す図である。なお、第1の実施形態に係るカメラ10の場合(図4を参照)と同様に、横状態(図28の(b)部分に示す状態)を基準(角度0deg)として姿勢及び状態(第1状態、第2状態、第3状態)を規定してもよい。

<Smartphone posture>

Part (a) of FIG. 28 is a diagram showing an example of a coordinate system defined for the smartphone 1. In this example, the attitude is determined by the angle around the X axis. Part (a) shows a vertical state at an angle of 0 degrees (second state in which the smartphone 1 (imaging device) is aligned with the direction of gravity), and part (b) of the figure shows a horizontal state at an angle of 90 degrees (smartphone 1 (imaging device) ) along the horizontal direction). Also, FIG. 29 is a diagram showing an example of the relationship between the angle around the X-axis and the orientation (vertical or horizontal) of the smartphone 1 . Note that, as in the case of the camera 10 according to the first embodiment (see FIG. 4), the horizontal state (the state shown in FIG. state, second state, third state) may be defined.


上述した構成のスマートフォン1においても、第1の実施形態に係るカメラ10と同様に本発明に係る撮像方法の処理(動画の撮影、分割、及び記録、静止画の記録、静止画抽出等)を実行することができる。具体的には、第1の実施形態(態様1から態様6の処理を含む)において画像処理装置240(図2に示す各部)が実行する処理をスマートフォン1では主としてカメラ部41,42及び主制御部101が実行することにより、本発明に係る撮像方法の処理を行うことができる。その他、第1の実施形態における操作部250、記憶部260、モニタ270の機能は、スマートフォン1において操作部40、記憶部50及び操作パネル22、表示パネル21及び操作パネル22によりそれぞれ実現することができる。

In the smartphone 1 having the configuration described above, as in the camera 10 according to the first embodiment, the processing of the imaging method according to the present invention (moving image shooting, division, and recording, still image recording, still image extraction, etc.) can be performed. can be executed. Specifically, in the smartphone 1, the processing executed by the image processing device 240 (each unit shown in FIG. 2) in the first embodiment (including the processing of aspects 1 to 6) is performed mainly by the camera units 41 and 42 and the main controller. By being executed by the unit 101, processing of the imaging method according to the present invention can be performed. In addition, the functions of the operation unit 250, the storage unit 260, and the monitor 270 in the first embodiment can be realized by the operation unit 40, the storage unit 50, the operation panel 22, the display panel 21, and the operation panel 22 in the smartphone 1, respectively. can.


これにより、第2の実施形態に係るスマートフォン1においても、第1の実施形態に係るカメラ10と同様の効果(ユーザが、所望の構図のフレームを含む動画を迅速かつ容易に選択することができること等)を得ることができる。

As a result, the smartphone 1 according to the second embodiment has the same effect as the camera 10 according to the first embodiment (the user can quickly and easily select a video including frames with a desired composition). etc.) can be obtained.


以上で本発明の実施形態及び他の態様に関して説明してきたが、本発明は上述した実施形態及び態様に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能である。

Although the embodiments and other aspects of the present invention have been described above, the present invention is not limited to the above-described embodiments and aspects, and various modifications are possible without departing from the spirit of the present invention.


1 スマートフォン

2 筐体

10 カメラ

11 無線通信部

20 表示入力部

21 表示パネル

22 操作パネル

30 通話部

31 スピーカ

32 マイクロフォン

40 操作部

41 カメラ部

42 カメラ部

43 ストロボ

50 記憶部

51 内部記憶部

52 外部記憶部

60 外部入出力部

70 GPS受信部

80 モーションセンサ部

90 電源部

100 交換レンズ

101 主制御部

110 ズームレンズ

120 フォーカスレンズ

130 絞り

140 レンズ駆動部

200 撮像装置本体

210 撮像素子

220 AFE

230 A/D変換器

240 画像処理装置

240A 画像取得部

240B 方向検出部

240C 制御部

240D イベント検出部

240E 静止画抽出部

240F レンズ駆動制御部

242 ROM

250 操作部

260 記憶部

270 モニタ

280 姿勢センサ

1001 フレーム

1002 フレーム

1003 フレーム

1004 フレーム

1005 フレーム

1010 動画ファイル

1020 動画ファイル

1030 横動画ファイル

1032 縦動画ファイル

1034 横動画ファイル

1036 縦動画ファイル

1040 画像

1042 画像

1044 画像

1046 画像

1051 フレーム

1052 フレーム

1053 フレーム

1054 フレーム

1055 フレーム

1060 アイコン

1070 チェックボックス

L 光軸

S100~S196 撮像方法の各ステップ

ST1 GPS衛星

STn GPS衛星

1 smartphone

2 housing

10 camera

11 wireless communication unit

20 display input unit

21 display panel

22 Operation panel

30 call part

31 speaker

32 Microphones

40 operation part

41 Camera section

42 Camera section

43 Strobe

50 storage unit

51 internal memory

52 external memory

60 external input/output unit

70 GPS receiver

80 motion sensor

90 power supply

100 interchangeable lenses

101 main control unit

110 zoom lens

120 focus lens

130 aperture

140 lens driver

200 imaging device body

210 image sensor

220 AFE

230 A/D converter

240 image processor

240A image acquisition unit

240B direction detector

240C control unit

240D event detector

240E still image extractor

240F lens drive controller

242 ROMs

250 Operation unit

260 storage unit

270 monitor

280 attitude sensor

1001 frames

1002 frames

1003 frames

1004 frames

1005 frames

1010 video files

1020 video files

1030 horizontal video file

1032 vertical video files

1034 horizontal video file

1036 vertical video files

1040 images

1042 images

1044 images

1046 images

1051 frames

1052 frames

1053 frames

1054 frames

1055 frames

1060 icon

1070 checkbox

L optical axis

S100 to S196 Each step of the imaging method

ST1 GPS satellite

STn GPS satellites

Claims (11)

撮像装置であって、An imaging device,
重力方向に対する前記撮像装置の方向を検出する方向検出部と、a direction detection unit that detects the direction of the imaging device with respect to the direction of gravity;
動画を撮影する撮影部と、a shooting unit that shoots moving images;
制御部と、a control unit;
を備え、with
前記制御部は、前記撮影部が撮影した動画の動画ファイルから静止画を抽出可能な第1動画モードと、前記第1動画モードと撮影条件が異なる第2動画モードを有し、The control unit has a first moving image mode capable of extracting a still image from a moving image file of a moving image captured by the imaging unit, and a second moving image mode having different shooting conditions from the first moving image mode,
前記制御部は、前記第1動画モードにおいて、前記方向検出部が前記撮像装置の重力方向に対する方向変化が起きたと判断した場合、動画を分割して第1動画と第2動画を生成し、In the first moving image mode, the control unit divides the moving image to generate a first moving image and a second moving image when the direction detection unit determines that a direction change with respect to the direction of gravity of the imaging device has occurred,
前記制御部は、前記第2動画モードにおいて、前記方向検出部が、前記方向変化が起きたと判断した場合、動画を分割しない、撮像装置。The imaging device, wherein the control unit does not divide the moving image when the direction detection unit determines that the direction change has occurred in the second moving image mode.
前記制御部は、重力方向に対する前記撮像装置の方向に関する情報に基づいて、前記第1動画の第1動画ファイルと前記第2動画の第2動画ファイルを保存する、請求項1に記載の撮像装置。The imaging device according to claim 1, wherein the control unit saves a first moving image file of the first moving image and a second moving image file of the second moving image based on information regarding a direction of the imaging device with respect to a direction of gravity. . 前記制御部は、時間において、前記第1動画と前記第2動画の間にある第3動画を生成し、The control unit generates a third moving image that is between the first moving image and the second moving image in time,
前記第3動画は、前記方向変化が起きている第1期間の動画を含む、請求項1又は2に記載の撮像装置。The imaging device according to claim 1 or 2, wherein the third moving image includes a moving image of the first period in which the direction change occurs.
前記制御部は、前記第3動画を保存しない、請求項3に記載の撮像装置。The imaging device according to claim 3, wherein said control unit does not save said third moving image. 前記制御部は、前記第3動画を前記第1動画を保存するフォルダ及び前記第2動画を保存するフォルダとは別のフォルダに保存する、請求項3に記載の撮像装置。4. The imaging apparatus according to claim 3, wherein said control unit stores said third moving image in a folder different from a folder storing said first moving image and a folder storing said second moving image. 前記第3動画は、前記方向変化が終了した後の第2期間の動画も含む、請求項3又は4に記載の撮像装置。5. The imaging device according to claim 3, wherein said third moving image also includes a moving image of a second period after said direction change is completed. 前記第2期間は、前記撮像装置が、動画の露出、動画のホワイトバランス、又は、動画中の被写体のフォーカスを調整している期間である、請求項6に記載の撮像装置。7. The imaging device according to claim 6, wherein said second period is a period during which said imaging device adjusts exposure of a moving image, white balance of a moving image, or focus of a subject in a moving image. 前記第1動画の第1動画ファイルおよび前記第2動画の第2動画ファイルのファイル名は、少なくとも一部が共通している、請求項1ないし7のいずれか1項に記載の撮像装置。8. The imaging apparatus according to any one of claims 1 to 7, wherein file names of the first moving image file of the first moving image and the second moving image file of the second moving image are at least partially common. 前記制御部は、前記第1動画ファイルと前記第2動画ファイルに前記重力方向に対する前記撮像装置の方向に関する情報を付与する、請求項2に記載の撮像装置。3. The imaging apparatus according to claim 2, wherein said control unit adds information regarding a direction of said imaging apparatus with respect to said direction of gravity to said first moving image file and said second moving image file. 重力方向に対する撮像装置の方向を検出する方向検出部と、動画を撮影する撮影部と、前記撮影部が撮影した動画のファイルから静止画を抽出可能な第1動画モード及び前記第1動画モードと撮影条件が異なる第2動画モードを有する制御部とを備える撮像装置の撮像方法であって、A direction detection unit that detects the direction of the imaging device with respect to the direction of gravity, a shooting unit that shoots a moving image, a first moving image mode capable of extracting a still image from the file of the moving image shot by the shooting unit, and the first moving image mode An imaging method for an imaging device including a control unit having a second moving image mode with different imaging conditions,
前記第1動画モードにおいて、前記方向検出部が前記撮像装置の重力方向に対する方向変化が起きたか否か判断する判断ステップと、a determination step of determining whether or not the direction detection unit has changed in the direction of gravity of the imaging device in the first moving image mode;
前記方向検出部により、前記方向変化が起きたと判断された場合は、前記第1動画モードにおいて動画を分割して第1動画と第2動画を生成し、前記第2動画モードにおいて動画を分割しない動画生成ステップと、When the direction detection unit determines that the direction change has occurred, the moving image is divided in the first moving image mode to generate a first moving image and a second moving image, and the moving image is not divided in the second moving image mode. a video generation step;
を有する撮像方法。An imaging method comprising:
重力方向に対する撮像装置の方向を検出する方向検出部と、動画を撮影する撮影部と、前記撮影部が撮影した動画の動画ファイルから静止画を抽出可能な第1動画モード及び前記第1動画モードと撮影条件が異なる第2動画モードを有する制御部とを備える撮像装置に用いられるプログラムであって、A direction detection unit that detects the direction of the imaging device with respect to the direction of gravity, a shooting unit that shoots a moving image, and a first moving image mode capable of extracting a still image from a moving image file of the moving image shot by the shooting unit, and the first moving image mode. and a control unit having a second moving image mode with different shooting conditions, wherein
前記第1動画モードにおいて、前記方向検出部に前記撮像装置の重力方向に対する方向変化が起きたか否か判断させ、In the first moving image mode, causing the direction detection unit to determine whether or not a direction change with respect to the direction of gravity of the imaging device has occurred;
前記方向検出部により、前記第1動画モードにおいて前記方向変化が起きたと判断された場合、前記制御部に動画を分割させて第1動画と第2動画を生成させ、when the direction detection unit determines that the direction change has occurred in the first moving image mode, causing the control unit to divide the moving image to generate a first moving image and a second moving image;
前記方向検出部により、前記第2動画モードにおいて前記方向変化が起きたと判断された場合、動画を分割させない、プログラム。A program that does not divide a moving image when the direction detection unit determines that the direction change has occurred in the second moving image mode.
JP2020559846A 2018-12-05 2019-11-12 IMAGING DEVICE, IMAGING METHOD, AND PROGRAM Active JP7150053B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018228267 2018-12-05
JP2018228267 2018-12-05
PCT/JP2019/044379 WO2020116102A1 (en) 2018-12-05 2019-11-12 Imaging device, imaging method, and program

Publications (2)

Publication Number Publication Date
JPWO2020116102A1 JPWO2020116102A1 (en) 2021-10-21
JP7150053B2 true JP7150053B2 (en) 2022-10-07

Family

ID=70973610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020559846A Active JP7150053B2 (en) 2018-12-05 2019-11-12 IMAGING DEVICE, IMAGING METHOD, AND PROGRAM

Country Status (2)

Country Link
JP (1) JP7150053B2 (en)
WO (1) WO2020116102A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005328279A (en) 2004-05-13 2005-11-24 Canon Inc Recording device
JP2006093956A (en) 2004-09-22 2006-04-06 Canon Inc Imaging apparatus
JP2007074536A (en) 2005-09-08 2007-03-22 Canon Inc Imaging apparatus
JP2017163611A (en) 2017-06-12 2017-09-14 パナソニックIpマネジメント株式会社 Imaging apparatus
JP2018074417A (en) 2016-10-31 2018-05-10 オリンパス株式会社 Imaging apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005328279A (en) 2004-05-13 2005-11-24 Canon Inc Recording device
JP2006093956A (en) 2004-09-22 2006-04-06 Canon Inc Imaging apparatus
JP2007074536A (en) 2005-09-08 2007-03-22 Canon Inc Imaging apparatus
JP2018074417A (en) 2016-10-31 2018-05-10 オリンパス株式会社 Imaging apparatus
JP2017163611A (en) 2017-06-12 2017-09-14 パナソニックIpマネジメント株式会社 Imaging apparatus

Also Published As

Publication number Publication date
WO2020116102A1 (en) 2020-06-11
JPWO2020116102A1 (en) 2021-10-21

Similar Documents

Publication Publication Date Title
JP5190117B2 (en) System and method for generating photos with variable image quality
US10165243B2 (en) Image processing device, imaging device, image processing method, and program
US11438521B2 (en) Image capturing device, image capturing method, and program
US11032483B2 (en) Imaging apparatus, imaging method, and program
JP7110406B2 (en) IMAGING DEVICE, IMAGING METHOD, AND PROGRAM
WO2021193403A1 (en) Imaging device, imaging method, and imaging program
JP6534780B2 (en) Imaging device, imaging method, and program
JP7150053B2 (en) IMAGING DEVICE, IMAGING METHOD, AND PROGRAM
JP7191980B2 (en) IMAGING DEVICE, IMAGING METHOD, AND PROGRAM
JP7060703B2 (en) Shooting equipment, shooting method, and program
CN117441341A (en) Image processing method, device, mobile terminal and storage medium
KR20060013085A (en) Apparatus and method for editing a part of picture in mobile communication terminal
JP7003286B2 (en) Shooting equipment, shooting method, and program
JP6941744B2 (en) Image processing device, photographing device, image processing method and image processing program
WO2020066316A1 (en) Photographing apparatus, photographing method, and program
WO2020003944A1 (en) Imaging device, imaging method, and program
JPWO2020161969A1 (en) Image processing device, photographing device, image processing method and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220927

R150 Certificate of patent or registration of utility model

Ref document number: 7150053

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150