JP2017108326A - Information processing device, control method thereof, and program - Google Patents
Information processing device, control method thereof, and program Download PDFInfo
- Publication number
- JP2017108326A JP2017108326A JP2015241766A JP2015241766A JP2017108326A JP 2017108326 A JP2017108326 A JP 2017108326A JP 2015241766 A JP2015241766 A JP 2015241766A JP 2015241766 A JP2015241766 A JP 2015241766A JP 2017108326 A JP2017108326 A JP 2017108326A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- frame
- information processing
- processing apparatus
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims description 70
- 238000000034 method Methods 0.000 title claims description 39
- 238000003384 imaging method Methods 0.000 claims description 2
- 230000007246 mechanism Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 27
- 230000008569 process Effects 0.000 description 27
- 238000012545 processing Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 7
- 238000003825 pressing Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
Images
Abstract
Description
本発明は、動画の撮影中にサウンドが再生されたフレームを識別可能に表示して、容易にユーザに確認させることが可能な情報処理装置、その制御方法、及びプログラムに関する。 The present invention relates to an information processing apparatus capable of discriminatingly displaying a frame in which sound is reproduced during moving image shooting and allowing a user to easily confirm the frame, a control method thereof, and a program.
従来、写真や動画等を撮影し、編集するための撮影アプリケーションが多く存在する。ユーザはこの撮影アプリケーションを用いて、通常のカメラにはない効果を用いながら撮影を行ったり、撮影した画像を加工したりすることで画像データを生成している。 Conventionally, there are many photographing applications for photographing and editing pictures and moving images. The user uses this shooting application to generate image data by performing shooting while using an effect that is not found in a normal camera or by processing a shot image.
撮影した画像の中には、撮影時に工夫しなければ後の加工処理では修正出来ない画像が存在する。例えば、撮影する被写体が犬や猫といった動物である場合や赤ん坊である場合は、自分が撮影されているといった意識自体が出来ないために、撮影するカメラの方向を向かないことがある。撮影時に被写体の姿や表情が上手く撮影できなかった場合は後の加工ではどうすることも出来ず、再度撮影を行わなければならない。 Among the captured images, there are images that cannot be corrected by later processing unless they are devised at the time of shooting. For example, when the subject to be photographed is an animal such as a dog or a cat or a baby, since the consciousness that the subject is photographed is not possible, the direction of the photographing camera may not be pointed. If the subject's figure or facial expression cannot be photographed well at the time of shooting, the subsequent processing cannot be done and the image must be taken again.
そこで、一定時間動画を撮影して、その動画の中からユーザが任意の瞬間を選択し、静止画として切り出す方法が考えられる。動画という連続した画像から静止画を切り出すことで、一枚の静止画を撮影する時よりも、被写体となる対象のより自然な姿を撮影できたり、ユーザ自身が好みの瞬間を選んだりすることが出来る。 Therefore, a method is conceivable in which a moving image is taken for a certain period of time, a user selects an arbitrary moment from the moving image, and cut out as a still image. Capturing a still image from a series of video images allows you to shoot a more natural appearance of the subject that is the subject than when shooting a single still image, or you can choose the moment you like I can do it.
また、その際に動画を構成するフレームを時系列に並べてフィルムロールのように表示すると、ユーザは動画を再生することなく内容を把握することができる。 Moreover, if the frames which comprise a moving image are arranged in time series and displayed like a film roll in that case, the user can grasp | ascertain the content, without reproducing | regenerating a moving image.
特許文献1では、動画を撮影しながら各種ポイント情報を記録し、そのポイント情報から重要シーンと判定したポイントの画像を抽出してフィルムロール表示し、動画を再生する仕組みが開示されている。これにより、撮影した動画の中から、ユーザはあらかじめ重要と判定された瞬間の画像を優先的に確認することができる。各種ポイント情報とは、動画撮影中のユーザのズーム操作を行ったポイント、マイクから入力された音声レベルがピークになったポイント、現在時刻の切りの良いポイントなどを示す。
しかしながら、特定の情報から予め抽出された画像が、必ずしもユーザが求める画像である保障はない。例えば、重要シーンの判定方法には、撮影装置が備える加速度センサを用いてユーザが撮影装置を動かしたタイミングを重要シーンとする方法や、時間経過情報を用いて日付が変わる瞬間を重要シーンとする方法がある。しかしながら、被写体が動物や赤ん坊などこちらの意図を汲み取れないものであると、ユーザが撮影中に撮影装置を動かしても、ユーザの思うとおりに動かない場合が多く、被写体が望む方向を向いてくれるとは限らない。また人間であれば、大晦日から新年に代わる瞬間などが重要シーンとなるが、赤ん坊や動物は当然時間経過状況を理解できないため、そうした被写体に何ら影響を及ぼさず重要シーンとなり得ない。このようにユーザの撮影操作や外部要因は一部の被写体には影響を及ぼさず、意味の無いものとなる可能性がある。 However, there is no guarantee that an image extracted in advance from specific information is an image requested by the user. For example, as an important scene determination method, an important scene is a timing at which the user moves the photographing device using an acceleration sensor provided in the photographing device, or a moment when a date changes using time lapse information. There is a way. However, if the subject cannot capture this intention, such as animals or babies, even if the user moves the photographic device during shooting, it often does not move as the user thinks, and the subject points in the desired direction. Not necessarily. For humans, the moment from New Year's Eve to the New Year is an important scene. However, since babies and animals cannot understand the time-lapse situation, they cannot affect the subject and cannot become an important scene. As described above, the user's shooting operation and external factors do not affect some subjects and may be meaningless.
また、特許文献1のように、フレーム動画を構成するフレームを時系列に並べてフィルムロールのように表示することで、ユーザは再生せずとも大まかな動画の内容を把握することが出来る。しかし、撮影した中で偶然撮ることができた任意のシーンや任意のフレームを確認したい場合、細かなフレームの特定はフィルムロール形式の表示では難しく、結局動画を再生するか、連続したフレームを確認して探すしかなく、不便である。
Further, as in
そこで本発明は、動画の撮影中にサウンドが再生されたフレームを識別可能に表示して、容易にユーザに確認させることが可能な仕組みを提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a mechanism that allows a user to easily identify a frame in which sound is reproduced during moving image shooting so that the user can easily confirm the frame.
上記の目的を達成するために、本発明の情報処理装置は、動画を撮影可能な撮影装置を備える情報処理装置であって、前記撮影装置による動画撮影中にサウンドを再生するサウンド再生手段と、前記撮影装置で撮影された動画のフレームを、タイムライン形式で表示する表示手段と、前記サウンド再生手段でサウンドが再生された時間に対応する前記フレームを特定するフレーム特定手段とを備え、前記表示手段は、前記フレーム特定手段で特定された前記フレームを、前記フレーム特定手段で特定されなかった前記フレームとは識別可能に表示することを特徴とする。 In order to achieve the above object, an information processing apparatus of the present invention is an information processing apparatus including a photographing device capable of photographing a moving image, and a sound reproducing unit that reproduces sound during moving image photographing by the photographing device; A display means for displaying a frame of a moving picture taken by the photographing apparatus in a timeline format; and a frame specifying means for specifying the frame corresponding to a time when the sound is reproduced by the sound reproducing means. The means displays the frame specified by the frame specifying means so as to be distinguishable from the frame not specified by the frame specifying means.
本発明によれば、動画の撮影中にサウンドが再生されたフレームを識別可能に表示して、容易にユーザに確認させることが可能となる。 According to the present invention, it is possible to display a frame in which a sound is reproduced during shooting of a moving image so as to be identifiable and allow the user to easily confirm the frame.
以下、図面を参照して、本発明の第1の実施形態を詳細に説明する。 Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings.
図1は、本発明の第1の実施形態における情報処理装置100のハードウェア構成を説明する構成図である。尚、図1に示すハードウェア構成はあくまで一例である。
FIG. 1 is a configuration diagram illustrating a hardware configuration of the
情報処理装置100は、タッチパネルを備える装置である。本実施形態では、いわゆるスマートフォンやタブレット端末のような装置を想定して説明を行うが、特にこれに限らない。タッチパネルを備える装置であれば、パーソナルコンピュータであってもよい。
The
CPU101は、システムバスを介してメモリやコントローラを統括的に制御する。ROM102あるいはフラッシュメモリ114には、CPU101の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステムが記憶されている。更には、情報処理装置100が実行する機能を実現するために必要な、後述する各種プログラム等が記憶されている。
The
RAM103は、CPU101の主メモリ、ワークエリア等として機能する。CPU101は、処理の実行に際して必要なプログラム等をRAM103にロードして、プログラムを実行することで各種動作を実現するものである。
The
ディスプレイコントローラ104は、ディスプレイ110(表示部)等の表示装置への表示を制御する。ディスプレイ110は例えば液晶ディスプレイである。また、ディスプレイ110の表面にはタッチパネル111が備えられている。タッチパネル111に対するタッチ操作の検知をタッチパネルコントローラ105が制御する。タッチパネルコントローラ105は、タッチパネル111に対する複数の箇所に対するタッチ操作(以下、マルチタッチという。)も検知することが可能である。
The
カメラコントローラ106は、カメラ112における撮影を制御する。カメラ112はデジタルカメラであり、カメラコントローラ106からの制御で撮影した画像を撮影素子でデジタルデータに変換する。カメラ112は静止画と動画を撮影可能である。
The
センサコントローラ107は、情報処理装置100が備える各種センサ113からの入力を制御する。情報処理装置100のセンサ113には様々なセンサが存在し、例えば方位センサ、加速度センサ等である。
The
ネットワークコントローラ108は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。
The
フラッシュメモリコントローラ109は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するフラッシュメモリ114へのアクセスを制御する。本実施形態においては、フラッシュメモリとして説明を行うが、ハードディスクやフレキシブルディスク、或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の記憶媒体であってもよい。
The
前述したCPU101、各メモリ、各コントローラは、1つのチップ115に統合されている。いわゆるSoC(System on Chip)の形態で情報処理装置100の内部に備えられている。
The
尚、CPU101は、例えばRAM103内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ110での表示を可能としている。
For example, the
本発明の情報処理装置100が後述する各種処理を実行するために用いられる各種プログラム等はフラッシュメモリ114に記録されており、必要に応じてRAM103にロードされることによりCPU101によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルはフラッシュメモリ114に格納されている。以上が、本実施形態における情報処理装置100のハードウェア構成である。
Various programs and the like used by the
図2は、情報処理装置100の機能構成を示す図である。尚、図2に示す機能構成はあくまで一例である。
FIG. 2 is a diagram illustrating a functional configuration of the
情報処理装置100の機能部として、記憶部201、表示制御部202、操作検知部203、撮影制御部204、及びサウンド再生部205を備えている。これらはオペレーティングシステム200において動作する機能部である。
As functional units of the
記憶部201は、後述する各種テーブルの情報や各種画面、カメラ112で撮影することにより生成された画像データ等を構成する情報をRAM103やフラッシュメモリ114に記憶するための機能部である。必要に応じて、情報の追加・更新・削除を行う。また、後述する撮影アプリ210からの要求があった場合も同様に動作する。
The
表示制御部202は、ディスプレイ110の表示を制御するための機能部である。表示制御部202から画面等の表示指示がなされると、ディスプレイコントローラ104を介してディスプレイ110に表示指示が送信される。そして、ディスプレイ110はこの指示を受信すると、指示に従って画面等を表示する(表示手段)。
The
操作検知部203は、タッチパネル111に対するタッチ操作を検知するための機能部である。タッチパネル111に対するタッチ操作の位置、タッチ操作された数等を検知することができる。また、タッチパネル111に対して1度タッチ操作がなされたのか、タッチ操作したままスライドした(以下、スライド操作という。)のか等、タッチ操作の種別も検知することができる。
The
撮影制御部204は、カメラ112での撮影を制御するための機能部である。撮影制御部204から撮影指示がなされると、カメラコントローラ106を介してカメラ112に撮影指示が送信される。そして、カメラ112はこの指示を受信すると、指示に従って撮影を開始する。
The photographing
サウンド再生部205は、後述するサウンド制御部215からの指示でサウンドを再生するための機能部である。サウンド制御部215からサウンド再生指示がなされると、サウンド再生部205はサウンド再生指示を受信する。そして、サウンド再生部205は指示に従ってサウンドを再生する(サウンド再生手段)。
The
また情報処理装置100は、オペレーティングシステム200において動作可能な撮影アプリ210がインストールされている。撮影アプリ210は、動画データ制御部211、時間記憶部212、操作取得部213、サウンド記憶部214、サウンド制御部215、及び静止画取得部216を備えている。
The
動画データ制御部211は、記憶部201に記憶されている動画データに対して処理を実行するための機能部である。動画データ制御部211は、動画データの取得や保存を行うことができる。
The moving image
時間記憶部212は、撮影アプリ210で撮影する動画の時間の長さや、サウンド再生部205で制御されるサウンド再生の時間などを記憶するための機能部である。時間記憶部212は、時間記憶部212で記憶した時間を記憶部201に渡して記憶する。
The
操作取得部213は、操作検知部203で検知したタッチ操作の内容を取得するための機能部である。撮影アプリ210は、操作検知部203から操作取得部213に渡されたタッチ操作の内容に応じて、各機能部が撮影の制御や画面の表示制御等を実行する。
The
サウンド記憶部214は、サウンド制御部215で制御されるサウンドや、各サウンドに対応づく情報を記憶するための機能部である。サウンド記憶部214は、記憶部201から取得したサウンドと各サウンドに対応づく識別形態情報を記憶し、必要に応じてサウンドの追加・変更・削除も行う(記憶手段)。
The
サウンド制御部215は、サウンド記憶部214に記憶されたサウンドを制御するための機能部である。ユーザから選択されたサウンドを再生するよう、サウンド再生部205に再生指示を出す。
The
静止画取得部216は、動画データ制御部211で制御された動画から静止画を取得するための機能部である。本実施形態において、動画データ制御部211で動画データのフレームをタイムライン形式に表示し、操作検知部203で検知したユーザの選択に基づき、静止画取得部216は、任意のフレームを静止画として取得する。以上が、本実施形態における機能構成である。
The still
次に、本実施形態における一連の処理の流れについて、図3、図6、図9のフローチャートを用いて説明する。 Next, a flow of a series of processing in the present embodiment will be described with reference to the flowcharts of FIGS.
ステップS301では、情報処理装置100のCPU101は、ユーザからの指示に応じて撮影アプリ210のプログラムをフラッシュメモリ114から読み出して、これを起動する。
In step S301, the
ステップS302では、情報処理装置100のCPU101は、操作取得部213の機能により、ユーザからのタッチ操作を検知し、動画の撮影ボタンが押下されたか否かを判定する。撮影ボタンが押下されたと判定した場合はステップS303へ処理を進める。撮影ボタンが押下されたと判定しなかった場合は、撮影ボタンの押下を検知するまでステップS302の処理を繰り返す。撮影ボタンについては後述する。
In step S <b> 302, the
ステップS303では、情報処理装置100のCPU101は、ステップS302で取得したユーザからの動画撮影ボタンの押下に応じて、撮影制御部204で動画の撮影を開始する。
In step S <b> 303, the
ステップS304では、情報処理装置100のCPU101は、操作取得部213の機能により、ユーザからのタッチ操作を検知し、サウンドボタンが押下されたか否かを判定する。サウンドボタンが押下されたと判定した場合は、ステップS304へ処理を進める。サウンドボタンの押下を判定しなかった場合は、ステップS309に処理を進める。サウンドボタンについては後述する。
In step S304, the
図4は撮影アプリ210の撮影画面の画面構成の一例を示す図である。撮影画面は撮影ボタン401と、サウンドボタン402と、サウンドボタン403と、サウンドボタン404とが配置されている。撮影ボタン401は、撮影を開始するボタンである。撮影中に撮影ボタン401を再度押下すると撮影を終了する。すなわち、撮影中には撮影終了ボタンの役割を果たす。サウンドボタン402、サウンドボタン403、サウンドボタン404はサウンドを再生するためのボタンである。サウンドボタン402から404にはそれぞれ異なるサウンドが設定されており、ユーザからのタッチ操作に応じてそれぞれ押下を受け付けたサウンドボタンに設定されているサウンドを再生する。動画を撮影中にサウンドを再生することにより、被写体の興味をひく効果を発生させる。尚、サウンドボタンの数は3つに限らず、1つであっても複数であってもよい。
FIG. 4 is a diagram showing an example of the screen configuration of the shooting screen of the shooting application 210. The shooting screen includes a
ステップS305では、情報処理装置100のCPU101は、ステップS304で検知したサウンドボタンの押下に応じてサウンドを再生する。より具体的には、操作取得部213でタッチ操作を検知したサウンドボタンに対応するレコードをサウンドボタンテーブル1000から特定する。そして押下したサウンドボタンに対応するサウンドをサウンド再生部205で再生する。
In step S305, the
ステップS306では、情報処理装置100のCPU101は、時間記憶部212の機能によりサウンド再生部205でサウンド再生を開始した時間を記録する。より具体的には、操作取得部213でユーザがどのサウンドボタンを押下したのかを取得する。取得したサウンドボタンのIDと、動画を録画してから起算したサウンド再生開始時間をサウンド再生時間記録テーブル500(図5参照)に書き込む。サウンド再生時間記録テーブル500については後述する。
In step S <b> 306, the
サウンド再生時間記録テーブル500は、動画撮影中にサウンドが再生されたとき、サウンドの再生開始時間と再生終了時間を記録するデータテーブルである。サウンド再生時間記録テーブル500は、ボタンID501と、サウンド再生開始時間502と、サウンド再生終了時間503とを備える。ボタンID501は、記憶部201に記憶されたサウンドボタンごとに割り振られる一意の識別情報を示し、ユーザの押下したサウンドボタンのIDがボタンが押されるごとにテーブルに書き込まれる。サウンド再生開始時間502は、サウンドが再生開始された時間を示す。サウンド再生終了時間503は、サウンドが再生終了した時間を示す。サウンドが再生開始、または再生終了するとその時間がこのデータテーブルに書き込まれる。記録される時間は、動画を録画開始した時点から起算する。つまり録画ボタンが押されてからサウンドボタンが押下されるまでの経過時間をサウンド再生開始時間として記録し、サウンド再生終了時間も録画ボタンが押下されてから起算してサウンドが再生終了するまでの経過時間を記録する。
The sound playback time recording table 500 is a data table for recording the playback start time and playback end time of a sound when the sound is played back during moving image shooting. The sound reproduction time recording table 500 includes a
ステップS307では、情報処理装置100のCPU101は、サウンド再生部205で再生したサウンドを、サウンド制御部215で再生終了する。サウンドの再生終了は、サウンドデータをすべて再生してから終了してもよいし、ユーザのサウンドボタンの押下を検知して再生の途中で終了させてもよい。
In step S <b> 307, the
ステップS308では、情報処理装置100のCPU101は、時間記憶部212の機能によりサウンド再生部205で再生したサウンドの再生終了時間を記録する。より具体的には、ステップS307でサウンドの再生が終了した再生終了時間を、サウンド再生時間記録テーブル500に書き込む。
In step S308, the
ステップS309では、情報処理装置100のCPU101は、操作取得部213の機能により、ユーザからのタッチ操作を取得し、撮影終了ボタンが押下されたか否かを判定する。撮影終了ボタンが押下されたと判定した場合にはステップS309へ処理を進める。撮影終了ボタンが押下されたと判定しなかった場合はステップS304に処理を戻す。
In step S309, the
ステップS310では、情報処理装置100のCPU101は、ステップS309で撮影終了ボタンが押下されたと判定すると、動画の撮影を終了する。
In step S310, when the
説明を図6に移す。ステップS601では、情報処理装置100のCPU101は、動画データ制御部211と表示制御部202の機能により、撮影した動画をタイムライン形式に表示する。より具体的には、撮影した動画のフレームを時系列に並べて表示する。
The description will be moved to FIG. In step S601, the
図7は、ステップS601で表示された、タイムライン形式の動画表示を含む動画の再生前の画面構成の一例である。動画再生ボタン701と、タイムライン表示702とを備える。動画再生ボタン701を押下するとステップS303で撮影された動画の再生ができる。その際に、タイムライン表示702を同時に表示させることで、動画を構成するフレームを確認しながら動画の再生を行うことができる。あくまでも画面は動画表示方法の一例であり、動画の再生は行わずとも、動画をタイムライン表示するだけでもよい。
FIG. 7 is an example of a screen configuration before reproduction of a moving image including the moving image display in the timeline format displayed in step S601. A moving
ステップS602では、情報処理装置100のCPU101は、時間記憶部212の機能により、サウンド再生開始時間を取得する。より具体的には、サウンド再生時間記録テーブル500のサウンド再生開始時間502より、サウンドが再生を開始した時間を特定する。
In step S <b> 602, the
ステップS603では、情報処理装置100のCPU101は、ステップS306で記録したサウンド再生開始時間と、フレームの撮影時間とを照らし合わせて、サウンド再生開始時間に撮影されたフレームを特定する。より具体的には、サウンド再生時間記録テーブル500のサウンド再生開始時間502と、フレーム撮影時間記録テーブル800(図8参照)とを用いて時間を照合する。サウンド再生開始時間と同じ時間に撮影されたフレーム情報を取得し、フレームIDを特定する(フレーム特定手段)。
In step S603, the
フレーム撮影時間記録テーブル800は、フレームが撮影された時間を記録するデータテーブルである。フレーム撮影時間記録テーブル800は、フレームID801と、フレーム撮影時間802とを備える。フレームID801は、動画データ制御部211に記憶されたフレームごとに割り振られる一意の識別情報を示す。フレーム撮影時間802は、フレームが撮影された時間を示す。動画が撮影されると、動画を構成するフレームが撮影された時間が、次々にフレーム撮影時間記録テーブル800に書き込まれる。
The frame shooting time record table 800 is a data table that records the time at which a frame was shot. The frame shooting time recording table 800 includes a
ステップS604では、情報処理装置100のCPU101は、ステップS603で特定したサウンド再生開始時のフレームが、表示制御部202の機能によりタイムライン表示で画面に表示されているか否かを判定する。動画データを構成するフレームの数は非常に多く、フレームを時系列に並べてタイムライン形式に表示する場合には、すべてのフレームを画面上に並べることが不可能な場合がある。その場合はある程度フレームを削ってタイムライン表示を行う。よって表示制御部202でサウンド再生開始時のフレームの表示を制御しているか否かを判定する。サウンド再生開始時のフレームが、タイムライン表示されていると判定した場合は、ステップS606に処理を進める。サウンド再生開始時のフレームが画面上にタイムライン表示されていると判定しなかった場合にはステップS605に処理を進める。
In step S <b> 604, the
ステップS605では、情報処理装置100のCPU101は、ステップS603で特定したフレームより時系列が後のフレームのうち、当該特定したフレームの撮影時間に最も近い時間に撮影され、かつタイムライン表示されているフレームを、フレーム撮影時間記録テーブル800を用いて特定する。
In step S605, the
ステップS606では、情報処理装置100のCPU101は、ステップS603で特定したサウンド再生開始時のフレーム、もしくはステップS605で特定したサウンド再生開始時の直後に撮影されたタイムライン表示フレームを、識別表示開始フレームに決定する。
In step S606, the
ステップS607では、情報処理装置100のCPU101は、時間記憶部212の機能により、サウンド再生終了時間を取得する。より具体的には、サウンド再生時間記録テーブル500のサウンド再生終了時間503より、サウンドが再生を終了した時間を特定する。
In step S <b> 607, the
ステップS608では、情報処理装置100のCPU101は、ステップS308で記録したサウンド再生終了時間と、フレームの撮影時間とを照らし合わせて、サウンド再生終了時間に撮影されたフレームを特定する。より具体的には、サウンド再生時間記録テーブル500のサウンド再生終了時間503と、フレーム撮影時間記録テーブル800とを用いて時間を照合する。サウンド再生終了時間と同じ時間に撮影されたフレーム情報を取得し、フレームIDを特定する(フレーム特定手段)。
In step S608, the
ステップS609では、情報処理装置100のCPU101は、表示制御部202でサウンド再生終了時のフレームの表示を制御しているか否かを判定する。サウンド再生終了時のフレームが、タイムライン表示されていると判定した場合は、ステップS611に処理を進める。サウンド再生終了時のフレームが画面上にタイムライン表示されていると判定しなかった場合にはステップS610に処理を進める。
In step S609, the
ステップS610では、情報処理装置100のCPU101は、ステップS608で特定したフレームより時系列が後のフレームのうち、当該特定したフレームの撮影時間に最も近い時間に撮影され、かつタイムライン表示されているフレームを、フレーム撮影時間記録テーブル800を用いて特定する。
In step S610, the
ステップS611では、情報処理装置100のCPU101は、ステップS608で特定したサウンド再生終了時のフレーム、もしくはステップS605で特定したサウンド再生終了時の直後に撮影されたタイムライン表示フレームを、識別表示終了フレームに決定する。
In step S611, the
説明を図9に移す。ステップS901では、情報処理装置100のCPU101は、ステップS304で押下されたサウンドボタンに対応するボタンID1001を、サウンドボタンテーブル1000(図10参照)を用いて特定する。
The description is moved to FIG. In step S901, the
サウンドボタンテーブル1000は、撮影アプリ210の撮影画面に配置されているサウンドボタンのデータを記録しているデータテーブルである。サウンドボタンテーブル1000は、ボタンID1001と、カラー1002と、サウンド1003と、ファイル1004とを備える。ボタンID1001は記憶部201で記憶されたボタンごとに割り振られる一意の識別情報を示す。カラー1002はボタンID1001のそれぞれのボタンに対応づいた色の情報(以下、識別色情報という。)を示す。サウンド1003は、ボタンID1001のそれぞれのボタンに対応づいたサウンド情報を示す。ファイル1004は、サウンド1003に示されているサウンドファイルの保存場所を示す。
The sound button table 1000 is a data table in which data of sound buttons arranged on the shooting screen of the shooting application 210 is recorded. The sound button table 1000 includes a
ステップS902では、情報処理装置100のCPU101は、ステップS901で特定したボタンID1001に対応づいたカラー1002から識別色情報を取得する。
In step S902, the
ステップS903では、情報処理装置100のCPU101は、ステップS606で決定した識別開始フレームと、ステップS611で決定した識別終了フレームの間の区間に並べられたフレームを、ステップS902で取得した色で識別表示する。これにより、サウンドを再生した区間(以下、サウンド再生区間)をサウンドが再生されていない区間と識別することができ、またボタンに対応付けた色で識別することで、どのボタンが押下されたときのフレームであるかも識別可能に表示することができる。
In step S903, the
ステップS904では、情報処理装置100のCPU101は、ステップS903で識別表示した区間のほかに、識別表示されていないサウンド再生区間があるか否かを判定する。識別表示されていないサウンド再生区間があると判定した場合はステップS602へ処理を戻し、識別表示されていないサウンド再生区間を識別表示するよう処理を進める。識別表示されていないサウンド再生区間があると判定しなかった場合はステップS905へ処理を進める。
In step S904, the
ステップS905では、情報処理装置100のCPU101は、操作取得部213の機能により、動画のタイムライン表示上で、ユーザからのタッチ操作もしくはスライド操作でフレームの指定を受け付けたか否かを判定する。ユーザからフレームの指定を受け付けたと判定した場合にはステップS906へ処理を進める。フレームの指定を受け付けたと判定しなかった場合には一連の処理を終了する(フレーム選択手段)。
In step S <b> 905, the
ステップS906では、情報処理装置100のCPU101は、操作取得部213の機能によりユーザからのタッチ操作を取得し、指定を受け付けたフレームを表示制御部202の機能で静止画として表示画面に表示する。
In step S <b> 906, the
ステップS907では、情報処理装置100のCPU101は、ステップS906で表示したフレームを、画面上の保存ボタンを押下するなどしてユーザから保存指示を受け付けたか否かを判定する。同一画面上に保存ボタンがありそれを押下してもよいし、ユーザが画像を長押しする操作によって画像を保存してもよい。フレームの保存指示を受付けたと判定した場合にはステップS908へ処理を進める。フレームの保存指示を受け付けたと判定しなかった場合にはステップS905に処理を戻す(保存手段)。
In step S907, the
ステップS908では、情報処理装置100のCPU101は、ステップS907で保存指示を受け付けたフレームを静止画として静止画取得部216で保存する。このようにサウンド再生区間をサウンド再生されていない区間と識別表示することで、動画を再生せずともサウンドが動画のどの時点で流れているのかを確認することができる。さらに、再生されたサウンドに被写体が興味を示してカメラの方を向いた瞬間など、被写体がサウンドに影響を受けた瞬間の画像を動画内から見つけやすくすることが出来るとともに、サウンドボタンが複数ある場合は、どのボタンを押下したときに被写体の反応が強かったのか、などを確認することも出来る。また、「サウンドを再生した区間」という、動画から重要シーンを有る程度抽出することで、タイムライン上のスライド操作やタッチ操作によってユーザの好みのフレームを静止画として識別区間から選択できるという効果も有する。
In step S908, the
図11は、動画を録画中に3つの異なるサウンドボタンを押下し、その後動画の録画を終了してタイムライン形式に動画のフレームを表示したタイムライン識別表示1100の図である。この図において、サウンド再生区間は、押下したボタンに対応づく色でそれぞれ識別表示している。識別表示1101は、図4のサウンドボタン402を押下したサウンド再生区間を示す。識別表示1102は、図4のサウンドボタン403を押下したサウンド再生区間を示す。識別表示1103は、図4のサウンドボタン404を押下したサウンド再生区間を示す。本実施形態では、フレームの上下を色付けして識別しているが、写真自体が色づいてもよいし、マークで識別してもよい。ボタンやサウンドに対応していれば識別方法はフレームのどの部分を色付けしても良いし、色でなくともよい。
FIG. 11 is a diagram of a timeline identification display 1100 in which three different sound buttons are pressed during video recording, and then video recording is terminated and video frames are displayed in a timeline format. In this figure, each sound playback section is identified and displayed in a color corresponding to the pressed button. The
図12は、タイムライン表示し、サウンド再生区間を識別表示した動画から、任意のフレームを選択し、静止画として保存する際の一例を示す図である。識別表示したフレームの中から、タッチ操作やスライド操作によって任意のフレームを選択する。選択した図は静止画として画面上に表示され、確認することが出来る。そこでユーザが任意の静止画を見つけられた場合は、保存ボタン1202を押下して、動画とは別に静止画を保存する。
FIG. 12 is a diagram illustrating an example when an arbitrary frame is selected from a moving image displayed in a timeline and the sound reproduction section is identified and stored as a still image. An arbitrary frame is selected from the identified and displayed frames by a touch operation or a slide operation. The selected figure is displayed on the screen as a still image and can be confirmed. If the user finds an arbitrary still image, the user presses the
次に、第2の実施形態について説明する。第1の実施形態では、ユーザが押下したサウンドボタンに対応づいた識別色によってサウンド再生区間を識別表示する処理を行っていたが、第2の実施形態では、ユーザが設定した任意のサウンドに対応づいた識別色によってサウンド再生区間を識別表示する処理について説明する。 Next, a second embodiment will be described. In the first embodiment, the process of identifying and displaying the sound playback section by the identification color corresponding to the sound button pressed by the user is performed. However, in the second embodiment, it corresponds to an arbitrary sound set by the user. A process for identifying and displaying the sound reproduction section by the identified identification color will be described.
以下、第2の実施形態について説明するが、第2の実施形態におけるハードウェア構成、機能構成は第1の実施形態と同様であるので説明は省略する。 Hereinafter, the second embodiment will be described. However, the hardware configuration and the functional configuration in the second embodiment are the same as those in the first embodiment, and the description thereof will be omitted.
次に、サウンドボタンにユーザが任意のサウンドと識別色を設定する処理の流れについて、図13のフローチャートを用いて説明する。 Next, the flow of processing in which the user sets an arbitrary sound and identification color for the sound button will be described with reference to the flowchart of FIG.
まずステップS1301では、情報処理装置100のCPU101は、ユーザからの指示に応じて撮影アプリ210の設定プログラムを起動する。
First, in step S <b> 1301, the
設定画面1400(図14参照)は、撮影アプリ210のサウンド再生時の音量やサウンドの選択、サウンドを自動再生する際のタイマー設定時間などを設定する画面の一例を示す図である。設定画面1400は、サウンドボタン1401と、サウンドボタン1402と、サウンドボタン1403とを含む。設定画面1400に配置されているサウンドボタンをユーザが押下すると、サウンドボタンのそれぞれの設定を変更できる。サウンドボタンの設定の流れについては、以下ステップS1302からステップS1306で説明する。
The setting screen 1400 (see FIG. 14) is a diagram illustrating an example of a screen for setting a volume and sound selection at the time of sound reproduction of the photographing application 210, a timer setting time for automatically reproducing the sound, and the like. The setting screen 1400 includes a
ステップS1302では、情報処理装置100のCPU101は、設定画面1400でユーザからのサウンドボタンの押下を受け付ける。
In step S <b> 1302, the
ステップS1303では、情報処理装置100のCPU101は、ユーザから押下されたサウンドボタンに対応するサウンドの選択を受け付ける。より具体的には、サウンド記憶部214に記憶されているサウンドから任意のサウンドの選択を受け付ける。
In step S1303, the
図15は、ユーザがサウンドボタン1401に対応づくサウンドを選択している図である。ユーザが設定画面1400でサウンドボタン1401を押下すると、表示制御部202はサウンド記憶部214に記憶されているサウンドを、サウンド選択画面1500に一覧表示する。ユーザは任意のサウンド、図15では1501に示すようにねこの鳴声のサウンドを選択する。
FIG. 15 is a diagram in which the user selects a sound corresponding to the
ステップS1304では、情報処理装置100のCPU101は、ユーザから選択された識別色の選択を受け付ける。
In step S1304, the
ステップS1305では、情報処理装置100のCPU101は、操作取得部213の機能により、設定登録ボタンの押下を受け付けたか否かを判定する。設定登録ボタンが押下されたと判定した場合はステップS1306へと処理を進める。設定登録ボタンが押下されたと判定しなかった場合は、設定が保存されないため設定は変更されず、サウンドボタン設定の一連の処理を終了する。
In step S <b> 1305, the
ステップS1306では、情報処理装置100のCPU101は、ステップS1305でユーザからの設定登録ボタンの押下を受け付けると、サウンドボタンに対する設定の変更を記憶部201に保存する。より具体的には、ステップS1302で選択を受け付けたサウンドと、サウンドの保存場所であるファイル情報と、サウンドボタンの情報がサウンドボタンテーブル1700(図17参照)に書き込まれる。サウンドボタンテーブル1700については後述する。また、ステップS1304で選択を受け付けた識別色の情報が、サウンド色テーブル1800(図18参照)に書き込まれる。サウンド色テーブル1800については後述する。
In step S <b> 1306, when the
図16は、図15で選択を受け付けたサウンドに対応づく識別色を選択する一例を示す図である。カラー選択ボタン1601は、押下するとプルダウン形式で選択できる識別色一覧が表示される。尚、本実施形態の識別色選択の方法は一例であり、カラー選択の際の表示方法はプルダウン形式に限るものではない。カラーの選択が完了し、ユーザが設定登録ボタンであるOKボタン1602を押下すると、サウンドに対する設定が記憶部201に保存される。
FIG. 16 is a diagram illustrating an example of selecting an identification color corresponding to the sound that has been selected in FIG. When the
サウンドボタンテーブル1700は、設定画面1400で受け付けたサウンドボタンに対応づくサウンドを記録するテーブルである。サウンドボタンテーブル1700は、ボタンID1701と、サウンド1702と、ファイル1703とを備える。ボタンID1701は、記憶部201で記憶されたボタンごとに割り振られる一意の識別情報を示す。サウンド1702は、ボタンID1701に設定されたサウンドのファイル名とファイルの種類を示す。ファイル1703は、サウンド1702に記載のサウンドの保存場所の情報を示す。
The sound button table 1700 is a table for recording a sound corresponding to the sound button received on the setting screen 1400. The sound button table 1700 includes a
サウンド色テーブル1800は、サウンドに設定された識別色情報を記録するためのテーブルである。サウンド色テーブル1800は、サウンド1801と、カラー1802と、サウンドファイル1803とを備える。サウンド1801は、サウンド記憶部214に記憶されているサウンドのサウンド名を示す。カラー1802は、サウンド1801に対応付けられた識別色を示す。サウンドファイル1803は、サウンド1801のサウンドのファイル名とファイルの種類を示す。図16の識別色選択画面でユーザから選択された色が、カラー1802に書き込まれる。
The sound color table 1800 is a table for recording identification color information set for a sound. The sound color table 1800 includes a
次に、本実施形態におけるタイムライン表示した動画のサウンド再生区間の識別表示処理の流れについて、図19のフローチャートを用いて説明する。また、図19は、第1の実施形態における図9の変形例である。よって、図19のフローチャートは、第1の実施形態の図3及び図6からの続きである。 Next, the flow of the identification display processing of the sound reproduction section of the moving image displayed on the timeline in the present embodiment will be described with reference to the flowchart of FIG. FIG. 19 is a modification of FIG. 9 in the first embodiment. Therefore, the flowchart of FIG. 19 is a continuation from FIG. 3 and FIG. 6 of the first embodiment.
ステップS1901では、情報処理装置100のCPU101は、ステップS304で押下されたサウンドボタンに対応するボタンID1701を、サウンドボタンテーブル1700を用いて特定する。
In step S1901, the
ステップS1902では、情報処理装置100のCPU101は、ステップS1901で特定したボタンID1701に対応しているサウンド1702を、サウンドボタンテーブル1700を用いて特定する。
In step S1902, the
ステップS1903では、情報処理装置100のCPU101は、ステップS1902で取得したサウンドに対応する識別色を、サウンド色テーブル1800のカラー1802から取得する。
In step S1903, the
ステップS1904では、情報処理装置100のCPU101は、ステップS606で決定した識別開始フレームと、ステップS611で決定した識別終了フレームの間の区間に並べられたフレームを、ステップS1903で取得した色で識別表示する。これにより、サウンドを再生した区間をサウンドが再生されていない区間と識別することができ、またサウンドに対応付けた色で識別することで、どのサウンドが再生されたときのフレームであるかも識別可能に表示することができる。
In step S1904, the
ステップS1905からステップS1909までの処理は、図9のステップ904からステップ908までの処理と同様であるので説明を省略する。 The processing from step S1905 to step S1909 is the same as the processing from step 904 to step 908 in FIG.
このようにして、サウンドに識別色をそれぞれ設定し、サウンドの再生区間をユーザが選択した識別色で識別表示することで、どのサウンドに一番被写体が興味を持ち、反応を示したのかを確認しやすくすることが出来る。 In this way, by setting the identification color for each sound and identifying and displaying the sound playback section with the identification color selected by the user, it is possible to check which sound the subject is most interested in and responded to. Can be made easier.
以上、説明したように、本実施形態によれば、動画の撮影中にサウンドが再生されたフレームを識別可能に表示して、容易にユーザに確認させることを可能にする。 As described above, according to the present embodiment, it is possible to display the frame in which the sound is reproduced during the shooting of the moving image in an identifiable manner so that the user can easily confirm the frame.
本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。 The present invention can be implemented as a system, apparatus, method, program, storage medium, or the like, and can be applied to a system including a plurality of devices. You may apply to the apparatus which consists of one apparatus.
なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行可能することによっても達成される場合も本発明に含まれる。 Note that the present invention includes a software program that implements the functions of the above-described embodiments directly or remotely from a system or apparatus. The present invention also includes a case where the object is achieved by the computer of the system or apparatus reading out and executing the supplied program code.
したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。 Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. That is, the present invention also includes a computer program for realizing the functional processing of the present invention.
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。 In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。 Examples of the recording medium for supplying the program include a flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, and CD-RW. In addition, there are magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), and the like.
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。 As another program supply method, a browser on a client computer is used to connect to an Internet home page. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.
また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。 It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。 In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let me. It is also possible to execute the encrypted program by using the downloaded key information and install the program on a computer.
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。 Further, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。 Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.
なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
101 CPU
102 ROM
103 RAM
104 ディスプレイコントローラ
105 タッチパネルコントローラ
106 カメラコントローラ
107 センサコントローラ
108 ネットワークコントローラ
109 フラッシュメモリコントローラ
110 ディスプレイ
111 タッチパネル
112 カメラ
113 センサ
114 フラッシュメモリ
101 CPU
102 ROM
103 RAM
104
Claims (7)
前記撮影装置による動画撮影中にサウンドを再生するサウンド再生手段と、
前記撮影装置で撮影された動画のフレームを、タイムライン形式で表示する表示手段と、
前記サウンド再生手段でサウンドが再生された時間に対応する前記フレームを特定するフレーム特定手段と
を備え、
前記表示手段は、前記フレーム特定手段で特定された前記フレームを、前記フレーム特定手段で特定されなかった前記フレームとは識別可能に表示することを特徴とする情報処理装置。 An information processing apparatus including a photographing device capable of photographing a movie,
Sound playback means for playing back sound during moving image shooting by the shooting device;
Display means for displaying a frame of a moving image shot by the shooting device in a timeline format;
Frame specifying means for specifying the frame corresponding to the time when the sound is played by the sound playing means,
The information processing apparatus, wherein the display means displays the frame specified by the frame specifying means so as to be distinguishable from the frame not specified by the frame specifying means.
前記フレーム特定手段は、当該フレーム特定手段で特定された前記フレームが前記表示手段で表示されていない場合には、当該特定したフレームの撮影時間に最も近い時間に撮影され、かつ前記表示手段で表示されているフレームを特定することを特徴とする請求項1に記載の情報処理装置。 The display means displays one of the frames of the moving image shot by the shooting device in a timeline format,
When the frame specified by the frame specifying means is not displayed on the display means, the frame specifying means is shot at a time closest to the shooting time of the specified frame and displayed on the display means The information processing apparatus according to claim 1, wherein a specified frame is specified.
前記表示手段で表示された前記フレームのうち、ユーザから指示された前記フレームを選択するフレーム選択手段と、
前記フレーム選択手段で選択されたフレームを、静止画として保存する保存手段と
を更に備えることを特徴とする請求項1または2に記載の情報処理装置。 The information processing apparatus includes:
Frame selecting means for selecting the frame instructed by the user from among the frames displayed by the display means;
The information processing apparatus according to claim 1, further comprising: a storage unit that stores the frame selected by the frame selection unit as a still image.
前記サウンド再生手段で再生するサウンドに対応する識別形態を記憶する記憶手段
を更に備え、
前記表示手段は、前記フレーム特定手段で特定された前記フレームを、前記サウンド再生手段で再生された前記サウンドに対応する前記識別形態によって識別可能に表示することを特徴とする請求項1乃至4に記載の情報処理装置。 The information processing apparatus includes:
Storage means for storing an identification form corresponding to the sound reproduced by the sound reproduction means;
5. The display unit according to claim 1, wherein the display unit displays the frame specified by the frame specifying unit so that the frame can be identified by the identification form corresponding to the sound reproduced by the sound reproduction unit. The information processing apparatus described.
前記情報処理装置のサウンド再生手段が、前記撮影装置による動画撮影中にサウンドを再生するサウンド再生ステップと、
前記情報処理装置のタイムライン表示手段が、前記撮影装置で撮影された動画のフレームを、タイムライン形式で表示する表示ステップと、
前記情報処理装置のフレーム特定手段が、前記サウンド再生ステップでサウンドが再生された時間に対応する前記フレームを特定するフレーム特定ステップと
を備え、
前記情報処理装置の前記表示ステップは、前記フレーム特定ステップで特定された前記フレームを、前記フレーム特定ステップで特定されなかった前記フレームとは識別可能に表示することを特徴とする情報処理装置の制御方法。 A method for controlling an information processing apparatus including a photographing device capable of photographing a movie,
A sound reproduction step in which the sound reproduction means of the information processing apparatus reproduces a sound during moving image shooting by the imaging apparatus;
A display step in which the timeline display means of the information processing device displays a frame of a moving image shot by the shooting device in a timeline format;
A frame specifying unit for specifying the frame corresponding to the time at which the sound was played in the sound playing step;
The display step of the information processing apparatus displays the frame specified in the frame specifying step so as to be distinguishable from the frame not specified in the frame specifying step. Method.
前記情報処理装置を、
前記撮影装置による動画撮影中にサウンドを再生するサウンド再生手段と、
前記撮影装置で撮影された動画のフレームを、タイムライン形式で表示する表示手段と、
前記サウンド再生手段でサウンドが再生された時間に対応する前記フレームを特定するフレーム特定手段
として機能させ、
前記表示手段は、前記フレーム特定手段で特定された前記フレームを、前記フレーム特定手段で特定されなかった前記フレームとは識別可能に表示することを特徴とするプログラム。
A program capable of executing a control method of an information processing device including a photographing device capable of photographing a movie,
The information processing apparatus;
Sound playback means for playing back sound during moving image shooting by the shooting device;
Display means for displaying a frame of a moving image shot by the shooting device in a timeline format;
Function as frame specifying means for specifying the frame corresponding to the time when the sound was played by the sound playback means;
The display means displays the frame specified by the frame specifying means so as to be distinguishable from the frame not specified by the frame specifying means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015241766A JP6597263B2 (en) | 2015-12-11 | 2015-12-11 | Information processing apparatus, control method thereof, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015241766A JP6597263B2 (en) | 2015-12-11 | 2015-12-11 | Information processing apparatus, control method thereof, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017108326A true JP2017108326A (en) | 2017-06-15 |
JP6597263B2 JP6597263B2 (en) | 2019-10-30 |
Family
ID=59060224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015241766A Active JP6597263B2 (en) | 2015-12-11 | 2015-12-11 | Information processing apparatus, control method thereof, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6597263B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004221666A (en) * | 2003-01-09 | 2004-08-05 | Canon Inc | Imaging recording apparatus |
US20090232471A1 (en) * | 2008-03-12 | 2009-09-17 | Hitachi, Ltd. | Information Recording Apparatus |
JP2013207530A (en) * | 2012-03-28 | 2013-10-07 | Sony Corp | Information processing device, information processing method and program |
-
2015
- 2015-12-11 JP JP2015241766A patent/JP6597263B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004221666A (en) * | 2003-01-09 | 2004-08-05 | Canon Inc | Imaging recording apparatus |
US20090232471A1 (en) * | 2008-03-12 | 2009-09-17 | Hitachi, Ltd. | Information Recording Apparatus |
JP2009218976A (en) * | 2008-03-12 | 2009-09-24 | Hitachi Ltd | Information recording device |
JP2013207530A (en) * | 2012-03-28 | 2013-10-07 | Sony Corp | Information processing device, information processing method and program |
Also Published As
Publication number | Publication date |
---|---|
JP6597263B2 (en) | 2019-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5528008B2 (en) | Playback apparatus and playback method | |
JP2008148118A (en) | Imaging apparatus and imaging method, reproducing apparatus and reproducing method, and program | |
EP2160892B1 (en) | Method and system for facilitating creation of content | |
JP2007060028A (en) | Image processor and object processing method | |
JP2002101372A (en) | Camera incorporated type data recording and reproducing device and data recording and reproducing method | |
JP2015082692A (en) | Video editing device, video editing method, and video editing program | |
JP6597263B2 (en) | Information processing apparatus, control method thereof, and program | |
JP2018074337A (en) | Moving image processing device, moving image processing method, and program | |
JP2009232114A (en) | Image reproducing apparatus, its method and image reproducing program | |
JP2007258934A (en) | Information processing apparatus and information processing method | |
JP4692336B2 (en) | Image display system, image display apparatus, and image display method | |
JP2009265122A (en) | Image projection apparatus and control method therefor | |
JP4319380B2 (en) | Image editing apparatus, recording medium, and print ordering apparatus | |
JP2018093315A (en) | Web conference system, control method thereof, and program | |
US8340508B2 (en) | Record/playback apparatus and control method therefor | |
JP2000004419A (en) | Electronic album preparing device | |
JP2007310553A (en) | Program and method for creating composite image | |
JP2005136892A (en) | Image recording apparatus, its control method and imaging system | |
JP2019102852A (en) | Information processing device, control method thereof, and program | |
JP2008092335A (en) | Printer and its control method | |
JP2003289506A (en) | Synchronism management apparatus for video-audio media and application, synchronism management method, synchronism management program, and recording medium recorded with such synchronism management program | |
JP5901364B2 (en) | REPRODUCTION CONTROL DEVICE AND REPRODUCTION CONTROL METHOD | |
JP6715907B2 (en) | Image editing apparatus, image editing method, and program | |
US20230137452A1 (en) | Information processing device, inforamtion processing method, and program | |
JP2004297618A (en) | Image extraction method and image extraction apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20161101 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20161101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20180703 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20181031 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181203 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190823 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190916 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6597263 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |