JP2023162709A - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP2023162709A JP2023162709A JP2022073271A JP2022073271A JP2023162709A JP 2023162709 A JP2023162709 A JP 2023162709A JP 2022073271 A JP2022073271 A JP 2022073271A JP 2022073271 A JP2022073271 A JP 2022073271A JP 2023162709 A JP2023162709 A JP 2023162709A
- Authority
- JP
- Japan
- Prior art keywords
- video
- scene
- image
- imaging device
- video data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 claims abstract description 36
- 238000004458 analytical method Methods 0.000 claims abstract description 13
- 230000008451 emotion Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 description 23
- 238000012545 processing Methods 0.000 description 18
- 239000003550 marker Substances 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Abstract
Description
本発明は撮像装置に関する。 The present invention relates to an imaging device.
近年、ユーザが撮影指示を与えることなく定期的および継続的に撮影を行うカメラが開発され実用化が進んでいる。例えば、室内の任意の場所にこのようなカメラを設置し、カメラが自動で撮影することで、日常の何気ない風景を記録する。 2. Description of the Related Art In recent years, cameras that regularly and continuously take pictures without the user giving a shooting instruction have been developed and are being put into practical use. For example, such a camera can be installed anywhere indoors and automatically take pictures to record casual scenes from everyday life.
このようなカメラで記録された動画や音声を再生する際、記録されたままの動画を再生するだけでは動きの少ない動画となってしまい鑑賞者にとって面白味に欠ける動画となってしまう場合がある。そのため、記録された動画を編集して、鑑賞者にとってより好適な動画にして再生することが望まれる。 When playing back moving images and audio recorded with such a camera, simply playing back the moving image as it was recorded may result in a moving image with little movement, resulting in a moving image that is uninteresting for viewers. Therefore, it is desirable to edit the recorded moving image to make it more suitable for viewers and to play it back.
これに対し、特許文献1では入力された音声からキーワードを抽出し、予め定められた複数の画像の中からキーワードに応じた画像を検索し、その画像を表示する技術が開示されている。 On the other hand, Patent Document 1 discloses a technique of extracting a keyword from input voice, searching for an image corresponding to the keyword from among a plurality of predetermined images, and displaying the image.
特許文献1に開示された従来技術では、音声に応じた関連画像を表示することができる。しかしながら記録された動画に付随する音声に対して同様の技術を適用した場合、動画の再生中に関連画像をどのように付加して再生するかが課題となる。 In the conventional technology disclosed in Patent Document 1, it is possible to display related images according to audio. However, when similar techniques are applied to audio accompanying recorded moving images, the problem becomes how to add and reproduce related images during playback of the moving image.
そこで本発明は、動画と共に記録された音声に合わせた付加情報を、付加情報に応じた方法で動画に付加して記録することを目的とする。 Therefore, an object of the present invention is to record additional information that matches the audio recorded together with the moving image by adding it to the moving image using a method that corresponds to the additional information.
本発明は、撮像手段と、マイクと、前記撮像手段からの動画データと前記マイクからの音声データとを記録媒体に記録する記録手段と、前記記録媒体に記録された動画データ内の主要シーンを判定する主要シーン判定手段と、前記主要シーンに対応した音声データを解析しキーワードを抽出する音声解析手段と、前記キーワードに関連する静止画あるいは動画を関連画像として取得する取得手段と、前記主要シーンのうち前記キーワードが抽出されたシーンを編集するように前記記録された動画データを編集する編集手段を有し、前記編集手段は、前記取得手段が取得した前記関連画像を、前記関連画像に応じた方法で、前記動画データ内の前記キーワードが抽出されたシーンに付加する。 The present invention includes an imaging means, a microphone, a recording means for recording moving image data from the imaging means and audio data from the microphone on a recording medium, and a recording means for recording main scenes in the moving image data recorded on the recording medium. a main scene determination means for determining a main scene; an audio analysis means for analyzing audio data corresponding to the main scene and extracting a keyword; an acquisition means for obtaining a still image or a moving image related to the keyword as a related image; The editing means edits the recorded video data so as to edit the scene from which the keyword is extracted, and the editing means edits the related image acquired by the acquisition means according to the related image. The keywords in the video data are added to the extracted scenes in a method according to the method described above.
本発明によれば、動画と共に記録された音声に合わせた付加情報を、付加情報に応じた方法で動画に付加して記録する。 According to the present invention, additional information matching the audio recorded together with the moving image is added to the moving image and recorded using a method according to the additional information.
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail based on the accompanying drawings.
以下、図1を参照して、本発明の実施形態における撮像装置100について説明する。レンズ1001はズームレンズ及びフォーカスレンズを含むレンズ群である。レンズ制御部1002は、後述する評価部1010での算出結果や、認識部1011によって抽出された被写体情報に基づいて、レンズ1001の焦点距離や絞りの状態を制御するレンズ制御処理の機能を有する。CPU1003は撮像装置100全体の制御を行う。CPUバス1004はCPU1003と各機能ブロックとの通信を行う。
Hereinafter, with reference to FIG. 1, an
RAM制御部1007は、各機能ブロックからのRAMアクセス要求に基づき、RAM1006へアクセスする制御を行う。RAMバス1005は、RAM制御部1007と各機能ブロックとの通信を行う。RAMバス1005は各機能ブロックからRAM1006へのアクセスを調停する機能も有する。
The
撮像部1008は、レンズ1001により取り込んだ光信号を不図示の撮像センサにより電気信号へ変換する撮像手段であり、得られた画像データに対してレンズ収差を補正する処理や、撮像センサの欠陥画素を補間する処理の機能を有する。現像部1009は、撮像部1008で生成した画像データに対し、デベイヤー処理を施して、輝度信号と色差信号から成る信号に変換し、各信号に含まれるノイズ除去、光学的な歪の補正、画像の適正化等の現像処理の機能を有する。評価部1010は、撮像部1008で生成した画像データに基づいて、フォーカス状態や露出状態等の評価値を算出する評価値算出処理の機能を有する。
The
認識部1011は、現像部1009で現像処理された画像データ内の被写体情報を検出し、また、認識し、被写体情報を生成する認識処理の機能を有する。例えば、画像データ内の顔を検出し、検出した場合は、顔の位置を示す情報を出力し、さらに顔などの特徴情報に基づいて特定の人物の認証などを行う。
The
表示制御部1012は、現像部1009で現像処理された画像データに所定の表示処理を行った後、表示部1015に出力する表示制御処理の機能を有する。表示部1015は、画像データを再生する再生手段であって、例えば液晶ディスプレイによって構成される。
The
動画符号化部1013は、現像部1009で現像処理された画像データをMEPG等の所定の動画圧縮方式を用いて圧縮符号化し、情報量が圧縮された動画に変換する動画符号化処理の機能を有する。記録制御部1014は、現像部1009で現像処理された画像データを記録媒体1016に記録する記録制御処理の機能を有する。記録媒体1016は、例えば、不揮発性のメモリカードやハードディスクなどである。
The
マイク1017は、音声を音声信号に変換する。マイク制御部1018は、マイク1017と接続し、マイク1017の制御、収音の開始、及び、停止や、マイク1017からの音声の取得などを行う機能を有している。マイク1017の制御は例えば、ゲイン調整や、状態取得などである。音声符号/復号化部1019は、マイク1017からの音声信号をAAC等の所定の符号化方式で符号化あるいは復号化する。スピーカ1020は、音声符号/復号化部1019により復号化された音声信号を出力する。
Microphone 1017 converts voice into an audio signal. The
音声解析部1021は、マイク1017により取得した音声を解析する音声解析手段であり、音声データ内の特定のキーワードの検出や、音声データ内の音量変化の検出等の解析を行う。
The
通信部1022は、有線又は無線によって撮像装置100と他の装置とを接続し、画像データや音声データ等を送受信する通信インタフェースであって、無線LANやインターネット等のネットワークにも接続できる。通信部1022は撮像装置100で取得された画像データ並びに記録部1016に記録されている画像データを外部に送信でき、外部機器から画像データおよび各種情報を受信できる。
The
操作部1023は、撮像装置100の各種設定を行うための、ユーザからの種々の操作を受け付ける。関連画像取得部1024は、音声解析部1021が検出したキーワードに関連する関連画像を、記録部1016あるいは通信部1022を介して接続するインターネット上から取得する。
The operation unit 1023 accepts various operations from the user to perform various settings of the
主要シーン判定部1025は、認識部1011による画像の認識結果あるいは音声解析部1021による音声の解析結果に基づいて、撮影中のシーンが主要シーンであるかどうかを判定する主要シーン判定手段である。動画編集部1026は、記録媒体1016に記録された動画を編集し、関連画像取得部1024が取得した関連画像を付加する動画編集手段である。
The main
次に、図2を参照して、撮像装置100における動画の撮影処理について説明する。図2のフローチャートは、撮像装置100の図示しない電源スイッチがONかつ、動画撮影モードに設定されている状態であるときに実行される。
Next, with reference to FIG. 2, a video capturing process in the
ステップS201では、操作部1023に対するユーザの撮影開始指示操作により動画撮影を開始する。ステップS202では、CPU1003により動画の記録処理、および、音声の取得処理を開始する。動画の記録処理では、設定されたフレームレートで撮像部1008により連続的に撮影を行い、取得した画像信号を動画符号化部1013により符号化し、動画データとしてRAMバス1005およびRAM制御部1007を介してRAM1006に記録する。
In step S201, video shooting is started by the user's operation on the operation unit 1023 to instruct the start of shooting. In step S202, the
また、動画の記録と並行して、マイク制御部1018によりマイク1017からの音声の取得を行い、取得した音声データを音声符号/復号化部1019により符号化し、動画データに付随する音声データとしてRAM1006に記録する。RAM1006に記録された動画データおよび音声データを一つの動画ファイルとして、記録制御部1014を介して記録媒体1016に記録する。この一連の動画の記録処理および音声の取得処理は、ユーザによる撮影終了指示操作があるまで繰り返し実行される。
In addition, in parallel with recording the video, the
ステップS203では、操作部1023に対する、ユーザからの撮影の終了指示の操作があったかどうかを判定する。撮影の終了指示の操作があった場合はステップS208に進む。撮影の終了指示の操作がない場合はステップS204に進む。 In step S203, it is determined whether the user operates the operation unit 1023 to instruct the end of photographing. If there is an operation to instruct the end of photographing, the process advances to step S208. If there is no operation to instruct the end of photographing, the process advances to step S204.
ステップS204では、主要シーン判定部1025により、撮影中のシーンが主要シーンであるかを判定する。主要シーンとは、例えば、撮影中のシーンの音量が高まった時とする。撮影中のシーンが主要シーンであると判定した場合はステップS205に進む。主要シーンでないと判定した場合はステップS203に戻る。
In step S204, the main
ステップS205では、音声解析部1021が、マイク1017からの音声データを解析する。ステップS206では、音声解析部1021により音声データにキーワードがあるかどうかを判定する。キーワードは予めユーザにより設定され、記録部1016に記録されているものとする。また、キーワードとは例えば特定の場所を示す地名、あるいは特定の人物を示す人名であるとする。音声データにキーワードがある場合はステップS207に進む。キーワードがない場合はステップS203に戻る。
In step S205, the
ステップS207では、取得された動画のうち、キーワードがあると判定されたシーンに対して、動画符号化部1013が動画データの符号化処理と合わせて内部マーカを付与する。内部マーカとして付与される情報には、当該シーン内で取得されたキーワードを示す情報が含まれる。付与された内部マーカは、後述する動画編集処理における編集点の目印となる。
In step S207, the
ステップS208では、動画の撮影を開始してから終了するまで、連続して動画の記録処理により記録した動画と音声を一つの動画ファイルとして記録媒体1016に記録し、動画ファイルをクローズする。そして一連の処理を終了する。
In step S208, the moving image and audio continuously recorded by the moving image recording process from the start to the end of shooting the moving image are recorded on the
このように、動画の撮影処理の際には、記録される音声にキーワードが含まれている場合に、対応する動画データ内のシーンに対して編集点の目印となる内部マーカを付与する。 In this way, when a video is shot, if a keyword is included in the audio to be recorded, an internal marker that serves as a mark of an editing point is added to a scene in the corresponding video data.
次に、図3を参照して、記録された動画ファイルに対する編集処理について説明する。図3のフローチャートは、CPU1003により、図2の動画の撮影処理が終了した後、引き続いて自動的に実行される。
Next, editing processing for recorded video files will be described with reference to FIG. The flowchart in FIG. 3 is continuously and automatically executed by the
ステップS301では、CPU1003により記録媒体1016に記録された動画ファイルに編集処理がまだ実行されていない内部マーカがあるかどうかを判定する。未処理の内部マーカがある場合はステップS302に進む。未処理の内部マーカがない場合は処理を終了する。
In step S301, it is determined whether or not there is an internal marker in the video file recorded on the
ステップS302では、未処理の内部マーカからキーワードを取得する。ステップS303では、関連画像取得部1024により、ステップS302で取得されたキーワードに関連する関連画像を取得する。関連画像とは、例えば、キーワードが特定の場所を示す地名であった場合は、当該キーワードが示す場所で撮影された画像とする。また、キーワードが特定の人物を示す場合は、当該キーワードが示す人物が被写体に含まれる画像とする。関連画像取得部1024は、記録媒体1016に記録された他の動画ファイルから関連画像を取得する。また、関連画像取得部1024は、通信部1022を介して接続された、不図示のネットワーク上のサーバー等から、関連画像を取得する。
In step S302, keywords are acquired from unprocessed internal markers. In step S303, the related
ステップS304では、ステップS303で取得した関連画像が動画であるかどうかを判定する。動画である場合はステップ305に進む。動画ではなく静止画である場合はステップS307に進む。 In step S304, it is determined whether the related image acquired in step S303 is a moving image. If it is a video, the process advances to step 305. If the image is a still image rather than a moving image, the process advances to step S307.
ステップS305では、ステップS303で取得した動画が、所定時間以上の長さがある動画かどうかを判定する。所定時間以上の動画である場合はステップS306に進む。所定時間未満の動画である場合は当該動画を関連動画としてS307に進む。 In step S305, it is determined whether the video acquired in step S303 has a length longer than a predetermined time. If the video is longer than the predetermined time, the process advances to step S306. If the video is shorter than the predetermined time, the video is treated as a related video and the process advances to S307.
ステップS306では、ステップS303で取得した動画から所定時間切り出し、編集用の関連動画を作成する。動画の切り出しは、例えば動画の先頭から所定時間分を切り出すようにしてもよいし、先頭から一定時間経過した後の所定時間分を切り出すようにしてもよい。 In step S306, a predetermined period of time is cut out from the video acquired in step S303 to create a related video for editing. The video may be cut out, for example, by cutting out a predetermined amount of time from the beginning of the video, or by cutting out a predetermined amount of time after a certain amount of time has elapsed from the beginning.
ステップS307では、動画編集部1026が、ステップS303で取得した関連画像あるいはステップS306で作成した関連動画を、記録部1016に記録された動画ファイルの内部マーカが付与されているシーンに付加するように編集を行う。
In step S307, the
ステップS303で取得した関連画像が静止画の場合は、動画ファイル内の内部マーカが付与されているシーンのタイミングで、当該静止画を所定時間表示するように動画ファイルを編集する。ステップS303で取得した関連画像が動画である場合は、その動画あるいはステップS306で切り出した関連動画を、動画ファイル内の内部マーカが付与されているシーンのタイミングで再生するように編集する。 If the related image acquired in step S303 is a still image, the video file is edited so that the still image is displayed for a predetermined period of time at the timing of a scene to which an internal marker is attached in the video file. If the related image acquired in step S303 is a video, the video or the related video cut out in step S306 is edited so as to be played back at the timing of the scene to which the internal marker is attached in the video file.
ここでの編集方法は、動画ファイルに付加する関連画像である静止画あるいは動画の内容に応じて決定する。例えば、関連画像内に主要な被写体が含まれている場合、鑑賞者にとって重要度の高い関連画像である可能性が高いため、当該シーンに関連画像を所定時間挿入して表示する方法で動画ファイルを編集する。関連画像内に主要な被写体が含まれていない場合、鑑賞者にとって重要度の高い関連画像である可能性が低いため、当該シーンの右下等に小さく重畳して表示する方法で動画ファイルを編集する。 The editing method here is determined depending on the content of the still image or moving image that is a related image to be added to the moving image file. For example, if the main subject is included in a related image, there is a high possibility that the related image is of high importance to the viewer, so the video file is created by inserting the related image into the relevant scene for a predetermined period of time and displaying it. Edit. If the main subject is not included in the related image, it is unlikely that the related image is of high importance to the viewer, so edit the video file by displaying it in a small superimposed position, such as in the lower right corner of the relevant scene. do.
ステップS307の後、ステップS301に戻り、動画ファイルに付与されている全ての内部マーカに対して動画編集処理を完了するまで、一連の処理を繰り返す。 After step S307, the process returns to step S301 and repeats a series of processes until the video editing process is completed for all internal markers added to the video file.
このように、音声解析部1021が検出したキーワードに関連する画像を取得し、その関連画像を付加した動画を作成することで、鑑賞者にとってより好適な動画を得ることができる。
In this way, by acquiring images related to the keywords detected by the
図4に、撮像装置100によって撮影された動画と、その動画に関連画像を付加した後の動画の一例を示す。図4(a)は撮像装置100によって撮影された動画である。図4(a)に示す動画には、時間の流れに沿ってシーン401~403がある。音声解析部1021によってシーン401に付随する音声データ内にキーワードが検出された場合、シーン401の後に関連画像が付加され、図4(b)に示すような動画が作成される。図4(b)ではシーン401とシーン402の間に、関連画像404が挿入されている。
FIG. 4 shows an example of a moving image captured by the
以上説明したように本実施例によれば、記録した動画の音声情報に合わせた付加情報を、付加情報に応じた方法で記録動画に付加して記録する撮像装置を提供することを目的とする。 As described above, the present embodiment aims to provide an imaging device that adds and records additional information matching audio information of a recorded video to a recorded video using a method according to the additional information. .
前述の実施形態では、関連画像取得部1024が取得した関連画像が一つである場合について記載したが、複数の画像を取得した場合は、取得した画像のうち撮影日時が新しい画像から優先的に付加するようにしても良い。
In the above-described embodiment, the related
また、図2のステップS204における主要シーンとは、撮影中のシーンの音声データの音量が高まった時としたが、これに限定しない。例えば、シーン内の複数の被写体が話している時としても良いし、音声データが示す感情の変化が大きい時としても良い。 Further, although the main scene in step S204 of FIG. 2 is defined as a time when the volume of audio data of the scene being photographed increases, the main scene is not limited to this. For example, it may be set when multiple subjects in the scene are talking, or when there is a large change in emotion indicated by the audio data.
また、編集後の動画ファイルの鑑賞性を高めるため、記録した動画ファイルに対する編集回数は所定時間ごとに1回以下等の制限を設けても良い。 Furthermore, in order to improve the viewing experience of the edited video file, the number of times a recorded video file can be edited may be limited to once or less every predetermined period of time.
さらに鑑賞性を高めるため、編集回数の少ない動画ファイルよりも編集回数が多い動画ファイルを優先的に再生するよう、編集回数が多い動画ファイルを推奨動画としてユーザに提案するようにしても良い。 Furthermore, in order to improve the viewing experience, a video file that has been edited many times may be suggested to the user as a recommended video so that video files that have been edited many times are played preferentially over video files that have been edited few times.
また、動画の撮影の終了後、引き続いて動画の編集処理を開始するようにしたが、ユーザによる開始指示に応じて動画の編集処理を開始するようにしても良い。ユーザによる開始指示は、例えば操作部1023に対する操作としても良いし、マイク1017を介した音声による指示としても良い。表示部1015は例えば液晶ディスプレイとしたが、これに限定しない。例えばプロジェクタ機能を有し、撮像装置100外に投影するようにしても良い。
Further, although the video editing process is started after the video shooting ends, the video editing process may be started in response to a start instruction from the user. The user's start instruction may be, for example, an operation on the operation unit 1023 or a voice instruction via the
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the invention.
100 撮像装置 100 Imaging device
Claims (14)
マイクと、
前記撮像手段からの動画データと前記マイクからの音声データとを記録媒体に記録する記録手段と、
前記記録媒体に記録された動画データ内の主要シーンを判定する主要シーン判定手段と、
前記主要シーンに対応した音声データを解析しキーワードを抽出する音声解析手段と、
前記キーワードに関連する静止画あるいは動画を関連画像として取得する取得手段と、
前記主要シーンのうち前記キーワードが抽出されたシーンを編集するように前記記録された動画データを編集する編集手段を有し、
前記編集手段は、前記取得手段が取得した前記関連画像を、前記関連画像に応じた方法で、前記動画データ内の前記キーワードが抽出されたシーンに付加することを特徴とする撮像装置。 an imaging means;
Mike and
recording means for recording video data from the imaging means and audio data from the microphone on a recording medium;
Main scene determining means for determining a main scene in video data recorded on the recording medium;
audio analysis means for analyzing audio data corresponding to the main scenes and extracting keywords;
acquisition means for acquiring a still image or video related to the keyword as a related image;
comprising editing means for editing the recorded video data so as to edit a scene from which the keyword is extracted from among the main scenes;
The image capturing apparatus is characterized in that the editing means adds the related image acquired by the acquisition means to the scene from which the keyword is extracted in the moving image data in a method according to the related image.
ことを特徴とする、請求項1~6に記載の撮像装置。 The imaging device according to claim 1, wherein the main scene is a scene in which the emotion of audio in the video data changes significantly.
前記記録媒体に記録された動画データの中から前記編集手段により編集されたシーンがより多い前記動画データを推奨動画として再生する再生手段を有することを特徴とする請求項1から12のいずれか1項に記載の撮像装置。 The editing means records the video data edited by the video editing means on the recording means,
13. Any one of claims 1 to 12, further comprising a reproducing means for reproducing, as a recommended moving image, the moving image data having more scenes edited by the editing means from among the moving image data recorded on the recording medium. The imaging device described in section.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022073271A JP2023162709A (en) | 2022-04-27 | 2022-04-27 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022073271A JP2023162709A (en) | 2022-04-27 | 2022-04-27 | Imaging device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023162709A true JP2023162709A (en) | 2023-11-09 |
Family
ID=88650851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022073271A Pending JP2023162709A (en) | 2022-04-27 | 2022-04-27 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023162709A (en) |
-
2022
- 2022-04-27 JP JP2022073271A patent/JP2023162709A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4873031B2 (en) | Imaging apparatus, imaging method, and program | |
JP4768028B2 (en) | Image capture method and device | |
JP4379409B2 (en) | Imaging apparatus, information processing method, and computer program | |
US9124860B2 (en) | Storing a video summary as metadata | |
JP5568178B2 (en) | How to summarize videos | |
KR20140010989A (en) | Video summary including a particular person | |
JP4923517B2 (en) | Imaging device, imaging method, and semiconductor device | |
CN102630003B (en) | Image data recording apparatus and control method thereof | |
JP2002176613A (en) | Moving image editing unit, moving image editing method and recording medium | |
KR101909126B1 (en) | Method and apparatus for displaying a summary video | |
JP5434337B2 (en) | Image processing apparatus and program | |
JP5600405B2 (en) | Image processing apparatus, image processing method, and program | |
JP6081788B2 (en) | Moving image processing apparatus and moving image processing method | |
JP2009017598A (en) | Imaging apparatus, information treatment method, and computer program | |
WO2013187796A1 (en) | Method for automatically editing digital video files | |
JP6355333B2 (en) | Imaging apparatus, image processing apparatus, image processing method, and program | |
JP5168375B2 (en) | Imaging apparatus, imaging method, and program | |
JP2023162709A (en) | Imaging device | |
JP4599630B2 (en) | Video data processing apparatus with audio, video data processing method with audio, and video data processing program with audio | |
JP2007266661A (en) | Imaging apparatus, information processor, and imaging display system | |
KR20240002919A (en) | Image capturing apparatus, control method thereof, and storage medium | |
JP2009033277A (en) | Camcorder | |
JP2010045518A (en) | Image processing apparatus | |
JP2008091978A (en) | Imaging apparatus and image storing method | |
JP2021040217A (en) | Imaging apparatus, control method of the same, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |