JP2017108326A - Information processing device, control method thereof, and program - Google Patents

Information processing device, control method thereof, and program Download PDF

Info

Publication number
JP2017108326A
JP2017108326A JP2015241766A JP2015241766A JP2017108326A JP 2017108326 A JP2017108326 A JP 2017108326A JP 2015241766 A JP2015241766 A JP 2015241766A JP 2015241766 A JP2015241766 A JP 2015241766A JP 2017108326 A JP2017108326 A JP 2017108326A
Authority
JP
Japan
Prior art keywords
sound
frame
information processing
processing apparatus
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015241766A
Other languages
Japanese (ja)
Other versions
JP6597263B2 (en
Inventor
田中 伸治
Shinji Tanaka
伸治 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Original Assignee
Canon Marketing Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc filed Critical Canon Marketing Japan Inc
Priority to JP2015241766A priority Critical patent/JP6597263B2/en
Publication of JP2017108326A publication Critical patent/JP2017108326A/en
Application granted granted Critical
Publication of JP6597263B2 publication Critical patent/JP6597263B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a mechanism for causing a user to easily confirm a frame by displaying the frame in which sound is reproduced during photographing a moving image in an identifiable manner.SOLUTION: Sound is reproduced during photographing a moving image. Frames of the photographed moving image are arranged in time series, and displayed in a time line format. A section in which the sound is reproduced on a time line is specified by specifying frames corresponding to a time when the sound reproduction is started and a time when the sound reproduction is ended. Specified sound reproduction sections and sections with no sound reproduced are displayed in an identifiable manner so that a user can easily confirm frames of the sections in which the sound is reproduced in the photographed moving image.SELECTED DRAWING: Figure 11

Description

本発明は、動画の撮影中にサウンドが再生されたフレームを識別可能に表示して、容易にユーザに確認させることが可能な情報処理装置、その制御方法、及びプログラムに関する。   The present invention relates to an information processing apparatus capable of discriminatingly displaying a frame in which sound is reproduced during moving image shooting and allowing a user to easily confirm the frame, a control method thereof, and a program.

従来、写真や動画等を撮影し、編集するための撮影アプリケーションが多く存在する。ユーザはこの撮影アプリケーションを用いて、通常のカメラにはない効果を用いながら撮影を行ったり、撮影した画像を加工したりすることで画像データを生成している。   Conventionally, there are many photographing applications for photographing and editing pictures and moving images. The user uses this shooting application to generate image data by performing shooting while using an effect that is not found in a normal camera or by processing a shot image.

撮影した画像の中には、撮影時に工夫しなければ後の加工処理では修正出来ない画像が存在する。例えば、撮影する被写体が犬や猫といった動物である場合や赤ん坊である場合は、自分が撮影されているといった意識自体が出来ないために、撮影するカメラの方向を向かないことがある。撮影時に被写体の姿や表情が上手く撮影できなかった場合は後の加工ではどうすることも出来ず、再度撮影を行わなければならない。   Among the captured images, there are images that cannot be corrected by later processing unless they are devised at the time of shooting. For example, when the subject to be photographed is an animal such as a dog or a cat or a baby, since the consciousness that the subject is photographed is not possible, the direction of the photographing camera may not be pointed. If the subject's figure or facial expression cannot be photographed well at the time of shooting, the subsequent processing cannot be done and the image must be taken again.

そこで、一定時間動画を撮影して、その動画の中からユーザが任意の瞬間を選択し、静止画として切り出す方法が考えられる。動画という連続した画像から静止画を切り出すことで、一枚の静止画を撮影する時よりも、被写体となる対象のより自然な姿を撮影できたり、ユーザ自身が好みの瞬間を選んだりすることが出来る。   Therefore, a method is conceivable in which a moving image is taken for a certain period of time, a user selects an arbitrary moment from the moving image, and cut out as a still image. Capturing a still image from a series of video images allows you to shoot a more natural appearance of the subject that is the subject than when shooting a single still image, or you can choose the moment you like I can do it.

また、その際に動画を構成するフレームを時系列に並べてフィルムロールのように表示すると、ユーザは動画を再生することなく内容を把握することができる。   Moreover, if the frames which comprise a moving image are arranged in time series and displayed like a film roll in that case, the user can grasp | ascertain the content, without reproducing | regenerating a moving image.

特許文献1では、動画を撮影しながら各種ポイント情報を記録し、そのポイント情報から重要シーンと判定したポイントの画像を抽出してフィルムロール表示し、動画を再生する仕組みが開示されている。これにより、撮影した動画の中から、ユーザはあらかじめ重要と判定された瞬間の画像を優先的に確認することができる。各種ポイント情報とは、動画撮影中のユーザのズーム操作を行ったポイント、マイクから入力された音声レベルがピークになったポイント、現在時刻の切りの良いポイントなどを示す。   Patent Document 1 discloses a mechanism for recording various point information while shooting a moving image, extracting an image of a point determined to be an important scene from the point information, displaying it on a film roll, and reproducing the moving image. Thereby, the user can preferentially confirm the image at the moment determined to be important in advance from the captured moving images. The various types of point information indicate points at which the user has performed a zoom operation during moving image shooting, points at which the sound level input from the microphone has peaked, points at which the current time is well cut, and the like.

特開2007−134771号公報JP 2007-134771 A

しかしながら、特定の情報から予め抽出された画像が、必ずしもユーザが求める画像である保障はない。例えば、重要シーンの判定方法には、撮影装置が備える加速度センサを用いてユーザが撮影装置を動かしたタイミングを重要シーンとする方法や、時間経過情報を用いて日付が変わる瞬間を重要シーンとする方法がある。しかしながら、被写体が動物や赤ん坊などこちらの意図を汲み取れないものであると、ユーザが撮影中に撮影装置を動かしても、ユーザの思うとおりに動かない場合が多く、被写体が望む方向を向いてくれるとは限らない。また人間であれば、大晦日から新年に代わる瞬間などが重要シーンとなるが、赤ん坊や動物は当然時間経過状況を理解できないため、そうした被写体に何ら影響を及ぼさず重要シーンとなり得ない。このようにユーザの撮影操作や外部要因は一部の被写体には影響を及ぼさず、意味の無いものとなる可能性がある。   However, there is no guarantee that an image extracted in advance from specific information is an image requested by the user. For example, as an important scene determination method, an important scene is a timing at which the user moves the photographing device using an acceleration sensor provided in the photographing device, or a moment when a date changes using time lapse information. There is a way. However, if the subject cannot capture this intention, such as animals or babies, even if the user moves the photographic device during shooting, it often does not move as the user thinks, and the subject points in the desired direction. Not necessarily. For humans, the moment from New Year's Eve to the New Year is an important scene. However, since babies and animals cannot understand the time-lapse situation, they cannot affect the subject and cannot become an important scene. As described above, the user's shooting operation and external factors do not affect some subjects and may be meaningless.

また、特許文献1のように、フレーム動画を構成するフレームを時系列に並べてフィルムロールのように表示することで、ユーザは再生せずとも大まかな動画の内容を把握することが出来る。しかし、撮影した中で偶然撮ることができた任意のシーンや任意のフレームを確認したい場合、細かなフレームの特定はフィルムロール形式の表示では難しく、結局動画を再生するか、連続したフレームを確認して探すしかなく、不便である。   Further, as in Patent Document 1, by arranging the frames constituting the frame moving image in time series and displaying like a film roll, the user can grasp the contents of the rough moving image without playing. However, if you want to check any scene or frame that you could shoot accidentally while shooting, it is difficult to specify the detailed frame in the film roll format display, and eventually play a video or check consecutive frames There is no choice but to search and it is inconvenient.

そこで本発明は、動画の撮影中にサウンドが再生されたフレームを識別可能に表示して、容易にユーザに確認させることが可能な仕組みを提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a mechanism that allows a user to easily identify a frame in which sound is reproduced during moving image shooting so that the user can easily confirm the frame.

上記の目的を達成するために、本発明の情報処理装置は、動画を撮影可能な撮影装置を備える情報処理装置であって、前記撮影装置による動画撮影中にサウンドを再生するサウンド再生手段と、前記撮影装置で撮影された動画のフレームを、タイムライン形式で表示する表示手段と、前記サウンド再生手段でサウンドが再生された時間に対応する前記フレームを特定するフレーム特定手段とを備え、前記表示手段は、前記フレーム特定手段で特定された前記フレームを、前記フレーム特定手段で特定されなかった前記フレームとは識別可能に表示することを特徴とする。   In order to achieve the above object, an information processing apparatus of the present invention is an information processing apparatus including a photographing device capable of photographing a moving image, and a sound reproducing unit that reproduces sound during moving image photographing by the photographing device; A display means for displaying a frame of a moving picture taken by the photographing apparatus in a timeline format; and a frame specifying means for specifying the frame corresponding to a time when the sound is reproduced by the sound reproducing means. The means displays the frame specified by the frame specifying means so as to be distinguishable from the frame not specified by the frame specifying means.

本発明によれば、動画の撮影中にサウンドが再生されたフレームを識別可能に表示して、容易にユーザに確認させることが可能となる。   According to the present invention, it is possible to display a frame in which a sound is reproduced during shooting of a moving image so as to be identifiable and allow the user to easily confirm the frame.

情報処理装置100のハードウェア構成を示す図である。2 is a diagram illustrating a hardware configuration of the information processing apparatus 100. FIG. 情報処理装置100の機能構成を示す図である。2 is a diagram illustrating a functional configuration of the information processing apparatus 100. FIG. 本実施形態における一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes in this embodiment. 動画撮影前の画面構成例を示す図である。It is a figure which shows the example of a screen structure before video recording. サウンド再生時間記録テーブルの500のテーブル構成を示す図である。It is a figure which shows the table structure of 500 of a sound reproduction time recording table. 図3の処理の続きであり、本実施形態における一連の処理の流れを示すフローチャートである。FIG. 4 is a continuation of the process of FIG. 3 and is a flowchart showing a flow of a series of processes in the present embodiment. 動画撮影後の画面構成例を示す図である。It is a figure which shows the example of a screen structure after video recording. フレーム撮影時間記録テーブル800のテーブル構成を示す図である。It is a figure which shows the table structure of the frame imaging | photography time recording table. 図6の処理の続きであり、本実施形態における一連の処理の流れを示すフローチャートである。FIG. 7 is a continuation of the process of FIG. 6 and is a flowchart showing a flow of a series of processes in the present embodiment. サウンドボタンテーブル1000のテーブル構成を示す図である。It is a figure which shows the table structure of the sound button table. タイムライン表示した動画のフレームを識別表示した一例を示す図である。It is a figure which shows an example which identified and displayed the frame of the moving image displayed on the timeline. タイムライン表示した動画から静止画を切り取る一例を示す図である。It is a figure which shows an example which cuts out a still image from the moving image displayed on the timeline. サウンドボタンの設定の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a sound button setting. 設定画面の画面構成例を示す図である。It is a figure which shows the example of a screen structure of a setting screen. サウンドボタンと対応するサウンドを決定する画面例を示す図である。It is a figure which shows the example of a screen which determines the sound corresponding to a sound button. サウンドと対応する色を決定する画面例を示す図である。It is a figure which shows the example of a screen which determines the color corresponding to a sound. サウンドボタンテーブル1700のテーブル構成を示す図である。5 is a diagram showing a table configuration of a sound button table 1700. FIG. サウンド色テーブル1800のテーブル構成を示す図である。5 is a diagram showing a table configuration of a sound color table 1800. FIG. 図6の処理の続きであり、本実施形態における一連の処理の流れを示すフローチャートである。FIG. 7 is a continuation of the process of FIG. 6 and is a flowchart showing a flow of a series of processes in the present embodiment.

以下、図面を参照して、本発明の第1の実施形態を詳細に説明する。   Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings.

図1は、本発明の第1の実施形態における情報処理装置100のハードウェア構成を説明する構成図である。尚、図1に示すハードウェア構成はあくまで一例である。   FIG. 1 is a configuration diagram illustrating a hardware configuration of the information processing apparatus 100 according to the first embodiment of the present invention. Note that the hardware configuration shown in FIG. 1 is merely an example.

情報処理装置100は、タッチパネルを備える装置である。本実施形態では、いわゆるスマートフォンやタブレット端末のような装置を想定して説明を行うが、特にこれに限らない。タッチパネルを備える装置であれば、パーソナルコンピュータであってもよい。   The information processing apparatus 100 is an apparatus that includes a touch panel. In the present embodiment, description will be made assuming a device such as a so-called smartphone or tablet terminal, but the present invention is not limited to this. A personal computer may be used as long as the device includes a touch panel.

CPU101は、システムバスを介してメモリやコントローラを統括的に制御する。ROM102あるいはフラッシュメモリ114には、CPU101の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステムが記憶されている。更には、情報処理装置100が実行する機能を実現するために必要な、後述する各種プログラム等が記憶されている。   The CPU 101 comprehensively controls the memory and the controller via the system bus. The ROM 102 or the flash memory 114 stores a basic input / output system (BIOS) that is a control program of the CPU 101 and an operating system. Furthermore, various programs described below that are necessary for realizing the functions executed by the information processing apparatus 100 are stored.

RAM103は、CPU101の主メモリ、ワークエリア等として機能する。CPU101は、処理の実行に際して必要なプログラム等をRAM103にロードして、プログラムを実行することで各種動作を実現するものである。   The RAM 103 functions as a main memory, work area, and the like for the CPU 101. The CPU 101 implements various operations by loading a program or the like necessary for execution of processing into the RAM 103 and executing the program.

ディスプレイコントローラ104は、ディスプレイ110(表示部)等の表示装置への表示を制御する。ディスプレイ110は例えば液晶ディスプレイである。また、ディスプレイ110の表面にはタッチパネル111が備えられている。タッチパネル111に対するタッチ操作の検知をタッチパネルコントローラ105が制御する。タッチパネルコントローラ105は、タッチパネル111に対する複数の箇所に対するタッチ操作(以下、マルチタッチという。)も検知することが可能である。   The display controller 104 controls display on a display device such as the display 110 (display unit). The display 110 is a liquid crystal display, for example. A touch panel 111 is provided on the surface of the display 110. The touch panel controller 105 controls detection of a touch operation on the touch panel 111. The touch panel controller 105 can also detect touch operations (hereinafter referred to as multi-touch) on a plurality of locations on the touch panel 111.

カメラコントローラ106は、カメラ112における撮影を制御する。カメラ112はデジタルカメラであり、カメラコントローラ106からの制御で撮影した画像を撮影素子でデジタルデータに変換する。カメラ112は静止画と動画を撮影可能である。   The camera controller 106 controls photographing with the camera 112. The camera 112 is a digital camera, and an image photographed under the control of the camera controller 106 is converted into digital data by a photographing element. The camera 112 can capture still images and moving images.

センサコントローラ107は、情報処理装置100が備える各種センサ113からの入力を制御する。情報処理装置100のセンサ113には様々なセンサが存在し、例えば方位センサ、加速度センサ等である。   The sensor controller 107 controls input from various sensors 113 included in the information processing apparatus 100. Various sensors exist in the sensor 113 of the information processing apparatus 100, such as an orientation sensor and an acceleration sensor.

ネットワークコントローラ108は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。   The network controller 108 is connected to and communicates with an external device via a network, and executes communication control processing on the network. For example, Internet communication using TCP / IP is possible.

フラッシュメモリコントローラ109は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するフラッシュメモリ114へのアクセスを制御する。本実施形態においては、フラッシュメモリとして説明を行うが、ハードディスクやフレキシブルディスク、或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の記憶媒体であってもよい。   The flash memory controller 109 controls access to the flash memory 114 that stores a boot program, browser software, various applications, font data, user files, editing files, various data, and the like. In this embodiment, the flash memory is described, but a storage medium such as a hard disk, a flexible disk, or a card-type memory connected to a PCMCIA card slot via an adapter may be used.

前述したCPU101、各メモリ、各コントローラは、1つのチップ115に統合されている。いわゆるSoC(System on Chip)の形態で情報処理装置100の内部に備えられている。   The CPU 101, each memory, and each controller described above are integrated into one chip 115. The information processing apparatus 100 is provided in the form of a so-called SoC (System on Chip).

尚、CPU101は、例えばRAM103内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ110での表示を可能としている。   For example, the CPU 101 can perform display on the display 110 by executing outline font rasterization processing on a display information area in the RAM 103.

本発明の情報処理装置100が後述する各種処理を実行するために用いられる各種プログラム等はフラッシュメモリ114に記録されており、必要に応じてRAM103にロードされることによりCPU101によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルはフラッシュメモリ114に格納されている。以上が、本実施形態における情報処理装置100のハードウェア構成である。   Various programs and the like used by the information processing apparatus 100 of the present invention to execute various processes described later are recorded in the flash memory 114, and are executed by the CPU 101 by being loaded into the RAM 103 as necessary. is there. Further, definition files and various information tables used by the program according to the present invention are stored in the flash memory 114. The above is the hardware configuration of the information processing apparatus 100 in the present embodiment.

図2は、情報処理装置100の機能構成を示す図である。尚、図2に示す機能構成はあくまで一例である。   FIG. 2 is a diagram illustrating a functional configuration of the information processing apparatus 100. Note that the functional configuration shown in FIG. 2 is merely an example.

情報処理装置100の機能部として、記憶部201、表示制御部202、操作検知部203、撮影制御部204、及びサウンド再生部205を備えている。これらはオペレーティングシステム200において動作する機能部である。   As functional units of the information processing apparatus 100, a storage unit 201, a display control unit 202, an operation detection unit 203, a shooting control unit 204, and a sound reproduction unit 205 are provided. These are functional units that operate in the operating system 200.

記憶部201は、後述する各種テーブルの情報や各種画面、カメラ112で撮影することにより生成された画像データ等を構成する情報をRAM103やフラッシュメモリ114に記憶するための機能部である。必要に応じて、情報の追加・更新・削除を行う。また、後述する撮影アプリ210からの要求があった場合も同様に動作する。   The storage unit 201 is a functional unit for storing, in the RAM 103 and the flash memory 114, information constituting various tables described later, various screens, information constituting image data generated by photographing with the camera 112, and the like. Add, update, and delete information as necessary. The same operation is performed when there is a request from the photographing application 210 described later.

表示制御部202は、ディスプレイ110の表示を制御するための機能部である。表示制御部202から画面等の表示指示がなされると、ディスプレイコントローラ104を介してディスプレイ110に表示指示が送信される。そして、ディスプレイ110はこの指示を受信すると、指示に従って画面等を表示する(表示手段)。   The display control unit 202 is a functional unit for controlling display on the display 110. When a display instruction such as a screen is issued from the display control unit 202, the display instruction is transmitted to the display 110 via the display controller 104. Upon receiving this instruction, the display 110 displays a screen or the like according to the instruction (display means).

操作検知部203は、タッチパネル111に対するタッチ操作を検知するための機能部である。タッチパネル111に対するタッチ操作の位置、タッチ操作された数等を検知することができる。また、タッチパネル111に対して1度タッチ操作がなされたのか、タッチ操作したままスライドした(以下、スライド操作という。)のか等、タッチ操作の種別も検知することができる。   The operation detection unit 203 is a functional unit for detecting a touch operation on the touch panel 111. The position of the touch operation on the touch panel 111, the number of touch operations, and the like can be detected. In addition, the type of touch operation such as whether the touch operation has been performed once on the touch panel 111 or whether the user has slid while performing the touch operation (hereinafter referred to as a slide operation) can also be detected.

撮影制御部204は、カメラ112での撮影を制御するための機能部である。撮影制御部204から撮影指示がなされると、カメラコントローラ106を介してカメラ112に撮影指示が送信される。そして、カメラ112はこの指示を受信すると、指示に従って撮影を開始する。   The photographing control unit 204 is a functional unit for controlling photographing with the camera 112. When a shooting instruction is issued from the shooting control unit 204, the shooting instruction is transmitted to the camera 112 via the camera controller 106. When the camera 112 receives this instruction, it starts shooting according to the instruction.

サウンド再生部205は、後述するサウンド制御部215からの指示でサウンドを再生するための機能部である。サウンド制御部215からサウンド再生指示がなされると、サウンド再生部205はサウンド再生指示を受信する。そして、サウンド再生部205は指示に従ってサウンドを再生する(サウンド再生手段)。   The sound reproduction unit 205 is a functional unit for reproducing sound in response to an instruction from a sound control unit 215 described later. When a sound reproduction instruction is issued from the sound control unit 215, the sound reproduction unit 205 receives the sound reproduction instruction. Then, the sound reproduction unit 205 reproduces the sound according to the instruction (sound reproduction means).

また情報処理装置100は、オペレーティングシステム200において動作可能な撮影アプリ210がインストールされている。撮影アプリ210は、動画データ制御部211、時間記憶部212、操作取得部213、サウンド記憶部214、サウンド制御部215、及び静止画取得部216を備えている。   The information processing apparatus 100 is installed with a shooting application 210 that can operate in the operating system 200. The shooting application 210 includes a moving image data control unit 211, a time storage unit 212, an operation acquisition unit 213, a sound storage unit 214, a sound control unit 215, and a still image acquisition unit 216.

動画データ制御部211は、記憶部201に記憶されている動画データに対して処理を実行するための機能部である。動画データ制御部211は、動画データの取得や保存を行うことができる。   The moving image data control unit 211 is a functional unit for executing processing on moving image data stored in the storage unit 201. The moving image data control unit 211 can acquire and save moving image data.

時間記憶部212は、撮影アプリ210で撮影する動画の時間の長さや、サウンド再生部205で制御されるサウンド再生の時間などを記憶するための機能部である。時間記憶部212は、時間記憶部212で記憶した時間を記憶部201に渡して記憶する。   The time storage unit 212 is a functional unit for storing the length of time of a moving image shot by the shooting application 210, the time of sound playback controlled by the sound playback unit 205, and the like. The time storage unit 212 passes the time stored in the time storage unit 212 to the storage unit 201 for storage.

操作取得部213は、操作検知部203で検知したタッチ操作の内容を取得するための機能部である。撮影アプリ210は、操作検知部203から操作取得部213に渡されたタッチ操作の内容に応じて、各機能部が撮影の制御や画面の表示制御等を実行する。   The operation acquisition unit 213 is a functional unit for acquiring the content of the touch operation detected by the operation detection unit 203. In the photographing application 210, each functional unit executes photographing control, screen display control, and the like according to the content of the touch operation passed from the operation detection unit 203 to the operation acquisition unit 213.

サウンド記憶部214は、サウンド制御部215で制御されるサウンドや、各サウンドに対応づく情報を記憶するための機能部である。サウンド記憶部214は、記憶部201から取得したサウンドと各サウンドに対応づく識別形態情報を記憶し、必要に応じてサウンドの追加・変更・削除も行う(記憶手段)。   The sound storage unit 214 is a functional unit for storing sounds controlled by the sound control unit 215 and information corresponding to each sound. The sound storage unit 214 stores the sound acquired from the storage unit 201 and identification form information corresponding to each sound, and performs addition / change / deletion of the sound as necessary (storage unit).

サウンド制御部215は、サウンド記憶部214に記憶されたサウンドを制御するための機能部である。ユーザから選択されたサウンドを再生するよう、サウンド再生部205に再生指示を出す。   The sound control unit 215 is a functional unit for controlling the sound stored in the sound storage unit 214. A reproduction instruction is issued to the sound reproduction unit 205 to reproduce the sound selected by the user.

静止画取得部216は、動画データ制御部211で制御された動画から静止画を取得するための機能部である。本実施形態において、動画データ制御部211で動画データのフレームをタイムライン形式に表示し、操作検知部203で検知したユーザの選択に基づき、静止画取得部216は、任意のフレームを静止画として取得する。以上が、本実施形態における機能構成である。   The still image acquisition unit 216 is a functional unit for acquiring a still image from the moving image controlled by the moving image data control unit 211. In the present embodiment, the moving image data control unit 211 displays moving image data frames in a timeline format, and based on the user's selection detected by the operation detection unit 203, the still image acquisition unit 216 sets any frame as a still image. get. The functional configuration in the present embodiment has been described above.

次に、本実施形態における一連の処理の流れについて、図3、図6、図9のフローチャートを用いて説明する。   Next, a flow of a series of processing in the present embodiment will be described with reference to the flowcharts of FIGS.

ステップS301では、情報処理装置100のCPU101は、ユーザからの指示に応じて撮影アプリ210のプログラムをフラッシュメモリ114から読み出して、これを起動する。   In step S301, the CPU 101 of the information processing apparatus 100 reads out the program of the photographing application 210 from the flash memory 114 according to an instruction from the user, and activates it.

ステップS302では、情報処理装置100のCPU101は、操作取得部213の機能により、ユーザからのタッチ操作を検知し、動画の撮影ボタンが押下されたか否かを判定する。撮影ボタンが押下されたと判定した場合はステップS303へ処理を進める。撮影ボタンが押下されたと判定しなかった場合は、撮影ボタンの押下を検知するまでステップS302の処理を繰り返す。撮影ボタンについては後述する。   In step S <b> 302, the CPU 101 of the information processing apparatus 100 detects a touch operation from the user by the function of the operation acquisition unit 213, and determines whether the moving image shooting button is pressed. If it is determined that the shooting button has been pressed, the process proceeds to step S303. If it is not determined that the shooting button has been pressed, the processing in step S302 is repeated until the pressing of the shooting button is detected. The shooting button will be described later.

ステップS303では、情報処理装置100のCPU101は、ステップS302で取得したユーザからの動画撮影ボタンの押下に応じて、撮影制御部204で動画の撮影を開始する。   In step S <b> 303, the CPU 101 of the information processing apparatus 100 starts moving image shooting by the shooting control unit 204 in response to the pressing of the moving image shooting button from the user acquired in step S <b> 302.

ステップS304では、情報処理装置100のCPU101は、操作取得部213の機能により、ユーザからのタッチ操作を検知し、サウンドボタンが押下されたか否かを判定する。サウンドボタンが押下されたと判定した場合は、ステップS304へ処理を進める。サウンドボタンの押下を判定しなかった場合は、ステップS309に処理を進める。サウンドボタンについては後述する。   In step S304, the CPU 101 of the information processing apparatus 100 detects a touch operation from the user by the function of the operation acquisition unit 213, and determines whether or not the sound button is pressed. If it is determined that the sound button has been pressed, the process proceeds to step S304. If it is not determined that the sound button has been pressed, the process proceeds to step S309. The sound button will be described later.

図4は撮影アプリ210の撮影画面の画面構成の一例を示す図である。撮影画面は撮影ボタン401と、サウンドボタン402と、サウンドボタン403と、サウンドボタン404とが配置されている。撮影ボタン401は、撮影を開始するボタンである。撮影中に撮影ボタン401を再度押下すると撮影を終了する。すなわち、撮影中には撮影終了ボタンの役割を果たす。サウンドボタン402、サウンドボタン403、サウンドボタン404はサウンドを再生するためのボタンである。サウンドボタン402から404にはそれぞれ異なるサウンドが設定されており、ユーザからのタッチ操作に応じてそれぞれ押下を受け付けたサウンドボタンに設定されているサウンドを再生する。動画を撮影中にサウンドを再生することにより、被写体の興味をひく効果を発生させる。尚、サウンドボタンの数は3つに限らず、1つであっても複数であってもよい。   FIG. 4 is a diagram showing an example of the screen configuration of the shooting screen of the shooting application 210. The shooting screen includes a shooting button 401, a sound button 402, a sound button 403, and a sound button 404. The shooting button 401 is a button for starting shooting. When the shooting button 401 is pressed again during shooting, shooting is finished. That is, it functions as a shooting end button during shooting. The sound button 402, the sound button 403, and the sound button 404 are buttons for reproducing sound. Different sounds are set for the sound buttons 402 to 404, respectively, and the sound set for the sound button that has been pressed is reproduced in response to a touch operation from the user. Playing a sound while shooting a movie produces an effect that attracts the interest of the subject. Note that the number of sound buttons is not limited to three, and may be one or more.

ステップS305では、情報処理装置100のCPU101は、ステップS304で検知したサウンドボタンの押下に応じてサウンドを再生する。より具体的には、操作取得部213でタッチ操作を検知したサウンドボタンに対応するレコードをサウンドボタンテーブル1000から特定する。そして押下したサウンドボタンに対応するサウンドをサウンド再生部205で再生する。   In step S305, the CPU 101 of the information processing apparatus 100 plays a sound in response to pressing of the sound button detected in step S304. More specifically, the record corresponding to the sound button whose touch operation is detected by the operation acquisition unit 213 is specified from the sound button table 1000. Then, the sound corresponding to the pressed sound button is reproduced by the sound reproduction unit 205.

ステップS306では、情報処理装置100のCPU101は、時間記憶部212の機能によりサウンド再生部205でサウンド再生を開始した時間を記録する。より具体的には、操作取得部213でユーザがどのサウンドボタンを押下したのかを取得する。取得したサウンドボタンのIDと、動画を録画してから起算したサウンド再生開始時間をサウンド再生時間記録テーブル500(図5参照)に書き込む。サウンド再生時間記録テーブル500については後述する。   In step S <b> 306, the CPU 101 of the information processing apparatus 100 records the time when the sound reproduction unit 205 starts sound reproduction by the function of the time storage unit 212. More specifically, the operation acquisition unit 213 acquires which sound button the user has pressed. The acquired sound button ID and the sound playback start time calculated after recording the moving image are written in the sound playback time recording table 500 (see FIG. 5). The sound playback time recording table 500 will be described later.

サウンド再生時間記録テーブル500は、動画撮影中にサウンドが再生されたとき、サウンドの再生開始時間と再生終了時間を記録するデータテーブルである。サウンド再生時間記録テーブル500は、ボタンID501と、サウンド再生開始時間502と、サウンド再生終了時間503とを備える。ボタンID501は、記憶部201に記憶されたサウンドボタンごとに割り振られる一意の識別情報を示し、ユーザの押下したサウンドボタンのIDがボタンが押されるごとにテーブルに書き込まれる。サウンド再生開始時間502は、サウンドが再生開始された時間を示す。サウンド再生終了時間503は、サウンドが再生終了した時間を示す。サウンドが再生開始、または再生終了するとその時間がこのデータテーブルに書き込まれる。記録される時間は、動画を録画開始した時点から起算する。つまり録画ボタンが押されてからサウンドボタンが押下されるまでの経過時間をサウンド再生開始時間として記録し、サウンド再生終了時間も録画ボタンが押下されてから起算してサウンドが再生終了するまでの経過時間を記録する。   The sound playback time recording table 500 is a data table for recording the playback start time and playback end time of a sound when the sound is played back during moving image shooting. The sound reproduction time recording table 500 includes a button ID 501, a sound reproduction start time 502, and a sound reproduction end time 503. The button ID 501 indicates unique identification information assigned to each sound button stored in the storage unit 201, and the ID of the sound button pressed by the user is written in the table every time the button is pressed. The sound reproduction start time 502 indicates the time when the sound starts to be reproduced. The sound reproduction end time 503 indicates the time when the sound has been reproduced. When the sound starts or ends, the time is written in this data table. The recording time is calculated from the time when the moving image starts to be recorded. In other words, the elapsed time from when the record button is pressed until the sound button is pressed is recorded as the sound playback start time, and the sound playback end time is also elapsed from when the record button is pressed until the sound finishes playing Record the time.

ステップS307では、情報処理装置100のCPU101は、サウンド再生部205で再生したサウンドを、サウンド制御部215で再生終了する。サウンドの再生終了は、サウンドデータをすべて再生してから終了してもよいし、ユーザのサウンドボタンの押下を検知して再生の途中で終了させてもよい。   In step S <b> 307, the CPU 101 of the information processing apparatus 100 ends the reproduction of the sound reproduced by the sound reproduction unit 205 by the sound control unit 215. The sound reproduction may be terminated after all sound data has been reproduced, or may be terminated in the middle of reproduction upon detection of a user's sound button press.

ステップS308では、情報処理装置100のCPU101は、時間記憶部212の機能によりサウンド再生部205で再生したサウンドの再生終了時間を記録する。より具体的には、ステップS307でサウンドの再生が終了した再生終了時間を、サウンド再生時間記録テーブル500に書き込む。   In step S308, the CPU 101 of the information processing apparatus 100 records the playback end time of the sound played back by the sound playback unit 205 by the function of the time storage unit 212. More specifically, the reproduction end time when the sound reproduction ends in step S307 is written in the sound reproduction time recording table 500.

ステップS309では、情報処理装置100のCPU101は、操作取得部213の機能により、ユーザからのタッチ操作を取得し、撮影終了ボタンが押下されたか否かを判定する。撮影終了ボタンが押下されたと判定した場合にはステップS309へ処理を進める。撮影終了ボタンが押下されたと判定しなかった場合はステップS304に処理を戻す。   In step S309, the CPU 101 of the information processing apparatus 100 acquires a touch operation from the user by the function of the operation acquisition unit 213, and determines whether or not the shooting end button has been pressed. If it is determined that the shooting end button has been pressed, the process proceeds to step S309. If it is not determined that the shooting end button has been pressed, the process returns to step S304.

ステップS310では、情報処理装置100のCPU101は、ステップS309で撮影終了ボタンが押下されたと判定すると、動画の撮影を終了する。   In step S310, when the CPU 101 of the information processing apparatus 100 determines that the shooting end button has been pressed in step S309, the shooting of the moving image ends.

説明を図6に移す。ステップS601では、情報処理装置100のCPU101は、動画データ制御部211と表示制御部202の機能により、撮影した動画をタイムライン形式に表示する。より具体的には、撮影した動画のフレームを時系列に並べて表示する。   The description will be moved to FIG. In step S601, the CPU 101 of the information processing apparatus 100 displays the captured moving image in a timeline format by using the functions of the moving image data control unit 211 and the display control unit 202. More specifically, the frames of the captured moving images are displayed in time series.

図7は、ステップS601で表示された、タイムライン形式の動画表示を含む動画の再生前の画面構成の一例である。動画再生ボタン701と、タイムライン表示702とを備える。動画再生ボタン701を押下するとステップS303で撮影された動画の再生ができる。その際に、タイムライン表示702を同時に表示させることで、動画を構成するフレームを確認しながら動画の再生を行うことができる。あくまでも画面は動画表示方法の一例であり、動画の再生は行わずとも、動画をタイムライン表示するだけでもよい。   FIG. 7 is an example of a screen configuration before reproduction of a moving image including the moving image display in the timeline format displayed in step S601. A moving image playback button 701 and a timeline display 702 are provided. When the movie playback button 701 is pressed, the movie shot in step S303 can be played. At that time, by displaying the timeline display 702 at the same time, the moving image can be reproduced while checking the frames constituting the moving image. The screen is merely an example of a moving image display method, and the moving image may be displayed on the timeline without reproducing the moving image.

ステップS602では、情報処理装置100のCPU101は、時間記憶部212の機能により、サウンド再生開始時間を取得する。より具体的には、サウンド再生時間記録テーブル500のサウンド再生開始時間502より、サウンドが再生を開始した時間を特定する。   In step S <b> 602, the CPU 101 of the information processing apparatus 100 acquires the sound reproduction start time by the function of the time storage unit 212. More specifically, the sound reproduction start time 502 of the sound reproduction time recording table 500 is used to specify the time when the sound has started reproduction.

ステップS603では、情報処理装置100のCPU101は、ステップS306で記録したサウンド再生開始時間と、フレームの撮影時間とを照らし合わせて、サウンド再生開始時間に撮影されたフレームを特定する。より具体的には、サウンド再生時間記録テーブル500のサウンド再生開始時間502と、フレーム撮影時間記録テーブル800(図8参照)とを用いて時間を照合する。サウンド再生開始時間と同じ時間に撮影されたフレーム情報を取得し、フレームIDを特定する(フレーム特定手段)。   In step S603, the CPU 101 of the information processing apparatus 100 identifies the frame shot at the sound playback start time by comparing the sound playback start time recorded in step S306 with the frame shooting time. More specifically, the time is collated using the sound reproduction start time 502 of the sound reproduction time recording table 500 and the frame shooting time recording table 800 (see FIG. 8). Frame information taken at the same time as the sound reproduction start time is acquired, and a frame ID is specified (frame specifying means).

フレーム撮影時間記録テーブル800は、フレームが撮影された時間を記録するデータテーブルである。フレーム撮影時間記録テーブル800は、フレームID801と、フレーム撮影時間802とを備える。フレームID801は、動画データ制御部211に記憶されたフレームごとに割り振られる一意の識別情報を示す。フレーム撮影時間802は、フレームが撮影された時間を示す。動画が撮影されると、動画を構成するフレームが撮影された時間が、次々にフレーム撮影時間記録テーブル800に書き込まれる。   The frame shooting time record table 800 is a data table that records the time at which a frame was shot. The frame shooting time recording table 800 includes a frame ID 801 and a frame shooting time 802. The frame ID 801 indicates unique identification information assigned to each frame stored in the moving image data control unit 211. The frame shooting time 802 indicates the time when the frame was shot. When a moving image is shot, the times when the frames constituting the moving image are shot are written in the frame shooting time recording table 800 one after another.

ステップS604では、情報処理装置100のCPU101は、ステップS603で特定したサウンド再生開始時のフレームが、表示制御部202の機能によりタイムライン表示で画面に表示されているか否かを判定する。動画データを構成するフレームの数は非常に多く、フレームを時系列に並べてタイムライン形式に表示する場合には、すべてのフレームを画面上に並べることが不可能な場合がある。その場合はある程度フレームを削ってタイムライン表示を行う。よって表示制御部202でサウンド再生開始時のフレームの表示を制御しているか否かを判定する。サウンド再生開始時のフレームが、タイムライン表示されていると判定した場合は、ステップS606に処理を進める。サウンド再生開始時のフレームが画面上にタイムライン表示されていると判定しなかった場合にはステップS605に処理を進める。   In step S <b> 604, the CPU 101 of the information processing apparatus 100 determines whether or not the frame at the start of sound reproduction specified in step S <b> 603 is displayed on the screen in a timeline display by the function of the display control unit 202. The number of frames constituting the moving image data is very large. When frames are arranged in time series and displayed in a timeline format, it may not be possible to arrange all the frames on the screen. In that case, the timeline is displayed with some frames removed. Therefore, it is determined whether or not the display control unit 202 controls display of the frame at the start of sound reproduction. If it is determined that the frame at the start of sound reproduction is displayed on the timeline, the process proceeds to step S606. If it is not determined that the frame at the start of sound reproduction is displayed on the timeline on the screen, the process proceeds to step S605.

ステップS605では、情報処理装置100のCPU101は、ステップS603で特定したフレームより時系列が後のフレームのうち、当該特定したフレームの撮影時間に最も近い時間に撮影され、かつタイムライン表示されているフレームを、フレーム撮影時間記録テーブル800を用いて特定する。   In step S605, the CPU 101 of the information processing apparatus 100 is photographed at a time closest to the photographing time of the specified frame among the frames whose time series is later than the frame specified in step S603, and is displayed on the timeline. The frame is specified using the frame shooting time recording table 800.

ステップS606では、情報処理装置100のCPU101は、ステップS603で特定したサウンド再生開始時のフレーム、もしくはステップS605で特定したサウンド再生開始時の直後に撮影されたタイムライン表示フレームを、識別表示開始フレームに決定する。   In step S606, the CPU 101 of the information processing apparatus 100 uses the frame at the start of sound playback specified in step S603 or the timeline display frame taken immediately after the start of sound playback specified in step S605 as the identification display start frame. To decide.

ステップS607では、情報処理装置100のCPU101は、時間記憶部212の機能により、サウンド再生終了時間を取得する。より具体的には、サウンド再生時間記録テーブル500のサウンド再生終了時間503より、サウンドが再生を終了した時間を特定する。   In step S <b> 607, the CPU 101 of the information processing apparatus 100 acquires the sound reproduction end time by the function of the time storage unit 212. More specifically, the sound reproduction end time 503 in the sound reproduction time recording table 500 is used to specify the time when the sound has finished reproduction.

ステップS608では、情報処理装置100のCPU101は、ステップS308で記録したサウンド再生終了時間と、フレームの撮影時間とを照らし合わせて、サウンド再生終了時間に撮影されたフレームを特定する。より具体的には、サウンド再生時間記録テーブル500のサウンド再生終了時間503と、フレーム撮影時間記録テーブル800とを用いて時間を照合する。サウンド再生終了時間と同じ時間に撮影されたフレーム情報を取得し、フレームIDを特定する(フレーム特定手段)。   In step S608, the CPU 101 of the information processing apparatus 100 identifies the frame shot at the sound playback end time by comparing the sound playback end time recorded in step S308 with the frame shooting time. More specifically, the time is collated using the sound reproduction end time 503 of the sound reproduction time recording table 500 and the frame shooting time recording table 800. Frame information taken at the same time as the sound reproduction end time is acquired, and a frame ID is specified (frame specifying means).

ステップS609では、情報処理装置100のCPU101は、表示制御部202でサウンド再生終了時のフレームの表示を制御しているか否かを判定する。サウンド再生終了時のフレームが、タイムライン表示されていると判定した場合は、ステップS611に処理を進める。サウンド再生終了時のフレームが画面上にタイムライン表示されていると判定しなかった場合にはステップS610に処理を進める。   In step S609, the CPU 101 of the information processing apparatus 100 determines whether or not the display control unit 202 controls display of a frame at the end of sound reproduction. If it is determined that the frame at the end of sound reproduction is displayed on the timeline, the process proceeds to step S611. If it is not determined that the frame at the end of sound playback is displayed on the screen as a timeline, the process proceeds to step S610.

ステップS610では、情報処理装置100のCPU101は、ステップS608で特定したフレームより時系列が後のフレームのうち、当該特定したフレームの撮影時間に最も近い時間に撮影され、かつタイムライン表示されているフレームを、フレーム撮影時間記録テーブル800を用いて特定する。   In step S610, the CPU 101 of the information processing apparatus 100 is photographed at a time closest to the photographing time of the identified frame among the frames whose time series is later than the frame identified in step S608, and is displayed on the timeline. The frame is specified using the frame shooting time recording table 800.

ステップS611では、情報処理装置100のCPU101は、ステップS608で特定したサウンド再生終了時のフレーム、もしくはステップS605で特定したサウンド再生終了時の直後に撮影されたタイムライン表示フレームを、識別表示終了フレームに決定する。   In step S611, the CPU 101 of the information processing apparatus 100 uses the frame at the end of sound playback specified in step S608 or the timeline display frame taken immediately after the end of sound playback specified in step S605 as the identification display end frame. To decide.

説明を図9に移す。ステップS901では、情報処理装置100のCPU101は、ステップS304で押下されたサウンドボタンに対応するボタンID1001を、サウンドボタンテーブル1000(図10参照)を用いて特定する。   The description is moved to FIG. In step S901, the CPU 101 of the information processing apparatus 100 specifies the button ID 1001 corresponding to the sound button pressed in step S304 using the sound button table 1000 (see FIG. 10).

サウンドボタンテーブル1000は、撮影アプリ210の撮影画面に配置されているサウンドボタンのデータを記録しているデータテーブルである。サウンドボタンテーブル1000は、ボタンID1001と、カラー1002と、サウンド1003と、ファイル1004とを備える。ボタンID1001は記憶部201で記憶されたボタンごとに割り振られる一意の識別情報を示す。カラー1002はボタンID1001のそれぞれのボタンに対応づいた色の情報(以下、識別色情報という。)を示す。サウンド1003は、ボタンID1001のそれぞれのボタンに対応づいたサウンド情報を示す。ファイル1004は、サウンド1003に示されているサウンドファイルの保存場所を示す。   The sound button table 1000 is a data table in which data of sound buttons arranged on the shooting screen of the shooting application 210 is recorded. The sound button table 1000 includes a button ID 1001, a color 1002, a sound 1003, and a file 1004. A button ID 1001 indicates unique identification information assigned to each button stored in the storage unit 201. A color 1002 indicates color information (hereinafter referred to as identification color information) corresponding to each button of the button ID 1001. A sound 1003 indicates sound information corresponding to each button of the button ID 1001. A file 1004 indicates a storage location of the sound file indicated by the sound 1003.

ステップS902では、情報処理装置100のCPU101は、ステップS901で特定したボタンID1001に対応づいたカラー1002から識別色情報を取得する。   In step S902, the CPU 101 of the information processing apparatus 100 acquires identification color information from the color 1002 corresponding to the button ID 1001 specified in step S901.

ステップS903では、情報処理装置100のCPU101は、ステップS606で決定した識別開始フレームと、ステップS611で決定した識別終了フレームの間の区間に並べられたフレームを、ステップS902で取得した色で識別表示する。これにより、サウンドを再生した区間(以下、サウンド再生区間)をサウンドが再生されていない区間と識別することができ、またボタンに対応付けた色で識別することで、どのボタンが押下されたときのフレームであるかも識別可能に表示することができる。   In step S903, the CPU 101 of the information processing apparatus 100 identifies and displays the frames arranged in the section between the identification start frame determined in step S606 and the identification end frame determined in step S611 in the color acquired in step S902. To do. As a result, the section in which the sound is played back (hereinafter referred to as the sound playback section) can be identified as the section in which the sound is not played back, and by identifying the color associated with the button, which button is pressed This frame can also be displayed in an identifiable manner.

ステップS904では、情報処理装置100のCPU101は、ステップS903で識別表示した区間のほかに、識別表示されていないサウンド再生区間があるか否かを判定する。識別表示されていないサウンド再生区間があると判定した場合はステップS602へ処理を戻し、識別表示されていないサウンド再生区間を識別表示するよう処理を進める。識別表示されていないサウンド再生区間があると判定しなかった場合はステップS905へ処理を進める。   In step S904, the CPU 101 of the information processing apparatus 100 determines whether there is a sound playback section that is not identified and displayed in addition to the section identified and displayed in step S903. If it is determined that there is a sound playback section that is not identified and displayed, the process returns to step S602, and the process proceeds to identify and display the sound playback section that is not identified and displayed. If it is not determined that there is a sound playback section that is not identified and displayed, the process proceeds to step S905.

ステップS905では、情報処理装置100のCPU101は、操作取得部213の機能により、動画のタイムライン表示上で、ユーザからのタッチ操作もしくはスライド操作でフレームの指定を受け付けたか否かを判定する。ユーザからフレームの指定を受け付けたと判定した場合にはステップS906へ処理を進める。フレームの指定を受け付けたと判定しなかった場合には一連の処理を終了する(フレーム選択手段)。   In step S <b> 905, the CPU 101 of the information processing apparatus 100 determines whether a frame designation is received by a touch operation or a slide operation from the user on the timeline display of the moving image, using the function of the operation acquisition unit 213. If it is determined that the designation of a frame has been received from the user, the process proceeds to step S906. If it is not determined that the frame designation has been received, the series of processing ends (frame selection means).

ステップS906では、情報処理装置100のCPU101は、操作取得部213の機能によりユーザからのタッチ操作を取得し、指定を受け付けたフレームを表示制御部202の機能で静止画として表示画面に表示する。   In step S <b> 906, the CPU 101 of the information processing apparatus 100 acquires a touch operation from the user using the function of the operation acquisition unit 213, and displays the frame that has received the designation on the display screen as a still image using the function of the display control unit 202.

ステップS907では、情報処理装置100のCPU101は、ステップS906で表示したフレームを、画面上の保存ボタンを押下するなどしてユーザから保存指示を受け付けたか否かを判定する。同一画面上に保存ボタンがありそれを押下してもよいし、ユーザが画像を長押しする操作によって画像を保存してもよい。フレームの保存指示を受付けたと判定した場合にはステップS908へ処理を進める。フレームの保存指示を受け付けたと判定しなかった場合にはステップS905に処理を戻す(保存手段)。   In step S907, the CPU 101 of the information processing apparatus 100 determines whether the frame displayed in step S906 has been accepted from the user by pressing a save button on the screen. There is a save button on the same screen, and it may be pressed, or the image may be saved by an operation of the user pressing and holding the image for a long time. If it is determined that a frame save instruction has been received, the process advances to step S908. If it is not determined that a frame save instruction has been received, the process returns to step S905 (save means).

ステップS908では、情報処理装置100のCPU101は、ステップS907で保存指示を受け付けたフレームを静止画として静止画取得部216で保存する。このようにサウンド再生区間をサウンド再生されていない区間と識別表示することで、動画を再生せずともサウンドが動画のどの時点で流れているのかを確認することができる。さらに、再生されたサウンドに被写体が興味を示してカメラの方を向いた瞬間など、被写体がサウンドに影響を受けた瞬間の画像を動画内から見つけやすくすることが出来るとともに、サウンドボタンが複数ある場合は、どのボタンを押下したときに被写体の反応が強かったのか、などを確認することも出来る。また、「サウンドを再生した区間」という、動画から重要シーンを有る程度抽出することで、タイムライン上のスライド操作やタッチ操作によってユーザの好みのフレームを静止画として識別区間から選択できるという効果も有する。   In step S908, the CPU 101 of the information processing apparatus 100 stores the frame for which the storage instruction has been received in step S907 as a still image by the still image acquisition unit 216. Thus, by displaying the sound reproduction section as the section where the sound is not reproduced, it is possible to confirm at which point in time the sound is flowing without reproducing the moving image. In addition, it makes it easier to find an image of the moment when the subject is affected by the sound, such as when the subject is interested in the played sound and turns to the camera, and there are multiple sound buttons. In this case, it is possible to confirm which button was pressed and the subject's reaction was strong. In addition, by extracting a certain amount of important scenes from the video called “sound playback section”, it is possible to select a user's favorite frame as a still image from the identification section by slide operation or touch operation on the timeline. Have.

図11は、動画を録画中に3つの異なるサウンドボタンを押下し、その後動画の録画を終了してタイムライン形式に動画のフレームを表示したタイムライン識別表示1100の図である。この図において、サウンド再生区間は、押下したボタンに対応づく色でそれぞれ識別表示している。識別表示1101は、図4のサウンドボタン402を押下したサウンド再生区間を示す。識別表示1102は、図4のサウンドボタン403を押下したサウンド再生区間を示す。識別表示1103は、図4のサウンドボタン404を押下したサウンド再生区間を示す。本実施形態では、フレームの上下を色付けして識別しているが、写真自体が色づいてもよいし、マークで識別してもよい。ボタンやサウンドに対応していれば識別方法はフレームのどの部分を色付けしても良いし、色でなくともよい。   FIG. 11 is a diagram of a timeline identification display 1100 in which three different sound buttons are pressed during video recording, and then video recording is terminated and video frames are displayed in a timeline format. In this figure, each sound playback section is identified and displayed in a color corresponding to the pressed button. The identification display 1101 indicates a sound playback section in which the sound button 402 in FIG. 4 is pressed. The identification display 1102 indicates a sound playback section in which the sound button 403 in FIG. 4 is pressed. The identification display 1103 indicates a sound playback section in which the sound button 404 in FIG. 4 is pressed. In the present embodiment, the upper and lower sides of the frame are identified by being colored, but the photograph itself may be colored or may be identified by a mark. As long as it corresponds to a button or sound, the identification method may color any part of the frame or may not be a color.

図12は、タイムライン表示し、サウンド再生区間を識別表示した動画から、任意のフレームを選択し、静止画として保存する際の一例を示す図である。識別表示したフレームの中から、タッチ操作やスライド操作によって任意のフレームを選択する。選択した図は静止画として画面上に表示され、確認することが出来る。そこでユーザが任意の静止画を見つけられた場合は、保存ボタン1202を押下して、動画とは別に静止画を保存する。   FIG. 12 is a diagram illustrating an example when an arbitrary frame is selected from a moving image displayed in a timeline and the sound reproduction section is identified and stored as a still image. An arbitrary frame is selected from the identified and displayed frames by a touch operation or a slide operation. The selected figure is displayed on the screen as a still image and can be confirmed. If the user finds an arbitrary still image, the user presses the save button 1202 to save the still image separately from the moving image.

次に、第2の実施形態について説明する。第1の実施形態では、ユーザが押下したサウンドボタンに対応づいた識別色によってサウンド再生区間を識別表示する処理を行っていたが、第2の実施形態では、ユーザが設定した任意のサウンドに対応づいた識別色によってサウンド再生区間を識別表示する処理について説明する。   Next, a second embodiment will be described. In the first embodiment, the process of identifying and displaying the sound playback section by the identification color corresponding to the sound button pressed by the user is performed. However, in the second embodiment, it corresponds to an arbitrary sound set by the user. A process for identifying and displaying the sound reproduction section by the identified identification color will be described.

以下、第2の実施形態について説明するが、第2の実施形態におけるハードウェア構成、機能構成は第1の実施形態と同様であるので説明は省略する。   Hereinafter, the second embodiment will be described. However, the hardware configuration and the functional configuration in the second embodiment are the same as those in the first embodiment, and the description thereof will be omitted.

次に、サウンドボタンにユーザが任意のサウンドと識別色を設定する処理の流れについて、図13のフローチャートを用いて説明する。   Next, the flow of processing in which the user sets an arbitrary sound and identification color for the sound button will be described with reference to the flowchart of FIG.

まずステップS1301では、情報処理装置100のCPU101は、ユーザからの指示に応じて撮影アプリ210の設定プログラムを起動する。   First, in step S <b> 1301, the CPU 101 of the information processing apparatus 100 activates a setting program for the photographing application 210 in accordance with an instruction from the user.

設定画面1400(図14参照)は、撮影アプリ210のサウンド再生時の音量やサウンドの選択、サウンドを自動再生する際のタイマー設定時間などを設定する画面の一例を示す図である。設定画面1400は、サウンドボタン1401と、サウンドボタン1402と、サウンドボタン1403とを含む。設定画面1400に配置されているサウンドボタンをユーザが押下すると、サウンドボタンのそれぞれの設定を変更できる。サウンドボタンの設定の流れについては、以下ステップS1302からステップS1306で説明する。   The setting screen 1400 (see FIG. 14) is a diagram illustrating an example of a screen for setting a volume and sound selection at the time of sound reproduction of the photographing application 210, a timer setting time for automatically reproducing the sound, and the like. The setting screen 1400 includes a sound button 1401, a sound button 1402, and a sound button 1403. When the user presses a sound button arranged on the setting screen 1400, each setting of the sound button can be changed. The flow of setting sound buttons will be described below in steps S1302 to S1306.

ステップS1302では、情報処理装置100のCPU101は、設定画面1400でユーザからのサウンドボタンの押下を受け付ける。   In step S <b> 1302, the CPU 101 of the information processing apparatus 100 accepts pressing of a sound button from the user on the setting screen 1400.

ステップS1303では、情報処理装置100のCPU101は、ユーザから押下されたサウンドボタンに対応するサウンドの選択を受け付ける。より具体的には、サウンド記憶部214に記憶されているサウンドから任意のサウンドの選択を受け付ける。   In step S1303, the CPU 101 of the information processing apparatus 100 accepts selection of a sound corresponding to the sound button pressed by the user. More specifically, selection of an arbitrary sound is accepted from the sounds stored in the sound storage unit 214.

図15は、ユーザがサウンドボタン1401に対応づくサウンドを選択している図である。ユーザが設定画面1400でサウンドボタン1401を押下すると、表示制御部202はサウンド記憶部214に記憶されているサウンドを、サウンド選択画面1500に一覧表示する。ユーザは任意のサウンド、図15では1501に示すようにねこの鳴声のサウンドを選択する。   FIG. 15 is a diagram in which the user selects a sound corresponding to the sound button 1401. When the user presses the sound button 1401 on the setting screen 1400, the display control unit 202 displays a list of sounds stored in the sound storage unit 214 on the sound selection screen 1500. The user selects an arbitrary sound, that is, a cat sound as shown by 1501 in FIG.

ステップS1304では、情報処理装置100のCPU101は、ユーザから選択された識別色の選択を受け付ける。   In step S1304, the CPU 101 of the information processing apparatus 100 accepts selection of an identification color selected by the user.

ステップS1305では、情報処理装置100のCPU101は、操作取得部213の機能により、設定登録ボタンの押下を受け付けたか否かを判定する。設定登録ボタンが押下されたと判定した場合はステップS1306へと処理を進める。設定登録ボタンが押下されたと判定しなかった場合は、設定が保存されないため設定は変更されず、サウンドボタン設定の一連の処理を終了する。   In step S <b> 1305, the CPU 101 of the information processing apparatus 100 determines whether the setting registration button has been pressed by the function of the operation acquisition unit 213. If it is determined that the setting registration button has been pressed, the process proceeds to step S1306. If it is not determined that the setting registration button has been pressed, the setting is not saved and the setting is not changed, and the series of sound button setting processing ends.

ステップS1306では、情報処理装置100のCPU101は、ステップS1305でユーザからの設定登録ボタンの押下を受け付けると、サウンドボタンに対する設定の変更を記憶部201に保存する。より具体的には、ステップS1302で選択を受け付けたサウンドと、サウンドの保存場所であるファイル情報と、サウンドボタンの情報がサウンドボタンテーブル1700(図17参照)に書き込まれる。サウンドボタンテーブル1700については後述する。また、ステップS1304で選択を受け付けた識別色の情報が、サウンド色テーブル1800(図18参照)に書き込まれる。サウンド色テーブル1800については後述する。   In step S <b> 1306, when the CPU 101 of the information processing apparatus 100 accepts pressing of the setting registration button from the user in step S <b> 1305, the CPU 101 saves the setting change for the sound button in the storage unit 201. More specifically, the sound that has been selected in step S1302, the file information that is the storage location of the sound, and the sound button information are written in the sound button table 1700 (see FIG. 17). The sound button table 1700 will be described later. Also, the identification color information that has been selected in step S1304 is written into the sound color table 1800 (see FIG. 18). The sound color table 1800 will be described later.

図16は、図15で選択を受け付けたサウンドに対応づく識別色を選択する一例を示す図である。カラー選択ボタン1601は、押下するとプルダウン形式で選択できる識別色一覧が表示される。尚、本実施形態の識別色選択の方法は一例であり、カラー選択の際の表示方法はプルダウン形式に限るものではない。カラーの選択が完了し、ユーザが設定登録ボタンであるOKボタン1602を押下すると、サウンドに対する設定が記憶部201に保存される。   FIG. 16 is a diagram illustrating an example of selecting an identification color corresponding to the sound that has been selected in FIG. When the color selection button 1601 is pressed, a list of identification colors that can be selected in a pull-down format is displayed. Note that the identification color selection method of this embodiment is an example, and the display method at the time of color selection is not limited to the pull-down format. When the color selection is completed and the user presses an OK button 1602 that is a setting registration button, the settings for the sound are stored in the storage unit 201.

サウンドボタンテーブル1700は、設定画面1400で受け付けたサウンドボタンに対応づくサウンドを記録するテーブルである。サウンドボタンテーブル1700は、ボタンID1701と、サウンド1702と、ファイル1703とを備える。ボタンID1701は、記憶部201で記憶されたボタンごとに割り振られる一意の識別情報を示す。サウンド1702は、ボタンID1701に設定されたサウンドのファイル名とファイルの種類を示す。ファイル1703は、サウンド1702に記載のサウンドの保存場所の情報を示す。   The sound button table 1700 is a table for recording a sound corresponding to the sound button received on the setting screen 1400. The sound button table 1700 includes a button ID 1701, a sound 1702, and a file 1703. The button ID 1701 indicates unique identification information assigned to each button stored in the storage unit 201. A sound 1702 indicates the file name and file type of the sound set in the button ID 1701. A file 1703 shows information on the storage location of the sound described in the sound 1702.

サウンド色テーブル1800は、サウンドに設定された識別色情報を記録するためのテーブルである。サウンド色テーブル1800は、サウンド1801と、カラー1802と、サウンドファイル1803とを備える。サウンド1801は、サウンド記憶部214に記憶されているサウンドのサウンド名を示す。カラー1802は、サウンド1801に対応付けられた識別色を示す。サウンドファイル1803は、サウンド1801のサウンドのファイル名とファイルの種類を示す。図16の識別色選択画面でユーザから選択された色が、カラー1802に書き込まれる。   The sound color table 1800 is a table for recording identification color information set for a sound. The sound color table 1800 includes a sound 1801, a color 1802, and a sound file 1803. The sound 1801 indicates the sound name of the sound stored in the sound storage unit 214. A color 1802 indicates an identification color associated with the sound 1801. A sound file 1803 indicates the file name and file type of the sound 1801. The color selected by the user on the identification color selection screen in FIG.

次に、本実施形態におけるタイムライン表示した動画のサウンド再生区間の識別表示処理の流れについて、図19のフローチャートを用いて説明する。また、図19は、第1の実施形態における図9の変形例である。よって、図19のフローチャートは、第1の実施形態の図3及び図6からの続きである。   Next, the flow of the identification display processing of the sound reproduction section of the moving image displayed on the timeline in the present embodiment will be described with reference to the flowchart of FIG. FIG. 19 is a modification of FIG. 9 in the first embodiment. Therefore, the flowchart of FIG. 19 is a continuation from FIG. 3 and FIG. 6 of the first embodiment.

ステップS1901では、情報処理装置100のCPU101は、ステップS304で押下されたサウンドボタンに対応するボタンID1701を、サウンドボタンテーブル1700を用いて特定する。   In step S1901, the CPU 101 of the information processing apparatus 100 specifies the button ID 1701 corresponding to the sound button pressed in step S304 using the sound button table 1700.

ステップS1902では、情報処理装置100のCPU101は、ステップS1901で特定したボタンID1701に対応しているサウンド1702を、サウンドボタンテーブル1700を用いて特定する。   In step S1902, the CPU 101 of the information processing apparatus 100 specifies the sound 1702 corresponding to the button ID 1701 specified in step S1901 using the sound button table 1700.

ステップS1903では、情報処理装置100のCPU101は、ステップS1902で取得したサウンドに対応する識別色を、サウンド色テーブル1800のカラー1802から取得する。   In step S1903, the CPU 101 of the information processing apparatus 100 acquires the identification color corresponding to the sound acquired in step S1902 from the color 1802 of the sound color table 1800.

ステップS1904では、情報処理装置100のCPU101は、ステップS606で決定した識別開始フレームと、ステップS611で決定した識別終了フレームの間の区間に並べられたフレームを、ステップS1903で取得した色で識別表示する。これにより、サウンドを再生した区間をサウンドが再生されていない区間と識別することができ、またサウンドに対応付けた色で識別することで、どのサウンドが再生されたときのフレームであるかも識別可能に表示することができる。   In step S1904, the CPU 101 of the information processing apparatus 100 identifies and displays the frames arranged in the section between the identification start frame determined in step S606 and the identification end frame determined in step S611 in the color acquired in step S1903. To do. This makes it possible to identify the section where the sound is played as the section where the sound is not played, and by identifying the color associated with the sound, it is also possible to identify which sound is the frame when it was played. Can be displayed.

ステップS1905からステップS1909までの処理は、図9のステップ904からステップ908までの処理と同様であるので説明を省略する。   The processing from step S1905 to step S1909 is the same as the processing from step 904 to step 908 in FIG.

このようにして、サウンドに識別色をそれぞれ設定し、サウンドの再生区間をユーザが選択した識別色で識別表示することで、どのサウンドに一番被写体が興味を持ち、反応を示したのかを確認しやすくすることが出来る。   In this way, by setting the identification color for each sound and identifying and displaying the sound playback section with the identification color selected by the user, it is possible to check which sound the subject is most interested in and responded to. Can be made easier.

以上、説明したように、本実施形態によれば、動画の撮影中にサウンドが再生されたフレームを識別可能に表示して、容易にユーザに確認させることを可能にする。   As described above, according to the present embodiment, it is possible to display the frame in which the sound is reproduced during the shooting of the moving image in an identifiable manner so that the user can easily confirm the frame.

本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。   The present invention can be implemented as a system, apparatus, method, program, storage medium, or the like, and can be applied to a system including a plurality of devices. You may apply to the apparatus which consists of one apparatus.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行可能することによっても達成される場合も本発明に含まれる。   Note that the present invention includes a software program that implements the functions of the above-described embodiments directly or remotely from a system or apparatus. The present invention also includes a case where the object is achieved by the computer of the system or apparatus reading out and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. That is, the present invention also includes a computer program for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。   Examples of the recording medium for supplying the program include a flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, and CD-RW. In addition, there are magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。   As another program supply method, a browser on a client computer is used to connect to an Internet home page. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let me. It is also possible to execute the encrypted program by using the downloaded key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。   Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.

なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

101 CPU
102 ROM
103 RAM
104 ディスプレイコントローラ
105 タッチパネルコントローラ
106 カメラコントローラ
107 センサコントローラ
108 ネットワークコントローラ
109 フラッシュメモリコントローラ
110 ディスプレイ
111 タッチパネル
112 カメラ
113 センサ
114 フラッシュメモリ

101 CPU
102 ROM
103 RAM
104 Display controller 105 Touch panel controller 106 Camera controller 107 Sensor controller 108 Network controller 109 Flash memory controller 110 Display 111 Touch panel 112 Camera 113 Sensor 114 Flash memory

Claims (7)

動画を撮影可能な撮影装置を備える情報処理装置であって、
前記撮影装置による動画撮影中にサウンドを再生するサウンド再生手段と、
前記撮影装置で撮影された動画のフレームを、タイムライン形式で表示する表示手段と、
前記サウンド再生手段でサウンドが再生された時間に対応する前記フレームを特定するフレーム特定手段と
を備え、
前記表示手段は、前記フレーム特定手段で特定された前記フレームを、前記フレーム特定手段で特定されなかった前記フレームとは識別可能に表示することを特徴とする情報処理装置。
An information processing apparatus including a photographing device capable of photographing a movie,
Sound playback means for playing back sound during moving image shooting by the shooting device;
Display means for displaying a frame of a moving image shot by the shooting device in a timeline format;
Frame specifying means for specifying the frame corresponding to the time when the sound is played by the sound playing means,
The information processing apparatus, wherein the display means displays the frame specified by the frame specifying means so as to be distinguishable from the frame not specified by the frame specifying means.
前記表示手段は、前記撮影装置で撮影された動画のフレームのうち、いずれかのフレームをタイムライン形式で表示し、
前記フレーム特定手段は、当該フレーム特定手段で特定された前記フレームが前記表示手段で表示されていない場合には、当該特定したフレームの撮影時間に最も近い時間に撮影され、かつ前記表示手段で表示されているフレームを特定することを特徴とする請求項1に記載の情報処理装置。
The display means displays one of the frames of the moving image shot by the shooting device in a timeline format,
When the frame specified by the frame specifying means is not displayed on the display means, the frame specifying means is shot at a time closest to the shooting time of the specified frame and displayed on the display means The information processing apparatus according to claim 1, wherein a specified frame is specified.
前記情報処理装置は、
前記表示手段で表示された前記フレームのうち、ユーザから指示された前記フレームを選択するフレーム選択手段と、
前記フレーム選択手段で選択されたフレームを、静止画として保存する保存手段と
を更に備えることを特徴とする請求項1または2に記載の情報処理装置。
The information processing apparatus includes:
Frame selecting means for selecting the frame instructed by the user from among the frames displayed by the display means;
The information processing apparatus according to claim 1, further comprising: a storage unit that stores the frame selected by the frame selection unit as a still image.
前記表示手段は、前記フレームをタイムライン形式で表示すると共に、更に、前記フレーム選択手段で選択したフレームの静止画を表示することを特徴とする請求項3に記載の情報処理装置。   The information processing apparatus according to claim 3, wherein the display unit displays the frame in a timeline format, and further displays a still image of the frame selected by the frame selection unit. 前記情報処理装置は、
前記サウンド再生手段で再生するサウンドに対応する識別形態を記憶する記憶手段
を更に備え、
前記表示手段は、前記フレーム特定手段で特定された前記フレームを、前記サウンド再生手段で再生された前記サウンドに対応する前記識別形態によって識別可能に表示することを特徴とする請求項1乃至4に記載の情報処理装置。
The information processing apparatus includes:
Storage means for storing an identification form corresponding to the sound reproduced by the sound reproduction means;
5. The display unit according to claim 1, wherein the display unit displays the frame specified by the frame specifying unit so that the frame can be identified by the identification form corresponding to the sound reproduced by the sound reproduction unit. The information processing apparatus described.
動画を撮影可能な撮影装置を備える情報処理装置の制御方法であって、
前記情報処理装置のサウンド再生手段が、前記撮影装置による動画撮影中にサウンドを再生するサウンド再生ステップと、
前記情報処理装置のタイムライン表示手段が、前記撮影装置で撮影された動画のフレームを、タイムライン形式で表示する表示ステップと、
前記情報処理装置のフレーム特定手段が、前記サウンド再生ステップでサウンドが再生された時間に対応する前記フレームを特定するフレーム特定ステップと
を備え、
前記情報処理装置の前記表示ステップは、前記フレーム特定ステップで特定された前記フレームを、前記フレーム特定ステップで特定されなかった前記フレームとは識別可能に表示することを特徴とする情報処理装置の制御方法。
A method for controlling an information processing apparatus including a photographing device capable of photographing a movie,
A sound reproduction step in which the sound reproduction means of the information processing apparatus reproduces a sound during moving image shooting by the imaging apparatus;
A display step in which the timeline display means of the information processing device displays a frame of a moving image shot by the shooting device in a timeline format;
A frame specifying unit for specifying the frame corresponding to the time at which the sound was played in the sound playing step;
The display step of the information processing apparatus displays the frame specified in the frame specifying step so as to be distinguishable from the frame not specified in the frame specifying step. Method.
動画を撮影可能な撮影装置を備える情報処理装置の制御方法を実行可能なプログラムであって、
前記情報処理装置を、
前記撮影装置による動画撮影中にサウンドを再生するサウンド再生手段と、
前記撮影装置で撮影された動画のフレームを、タイムライン形式で表示する表示手段と、
前記サウンド再生手段でサウンドが再生された時間に対応する前記フレームを特定するフレーム特定手段
として機能させ、
前記表示手段は、前記フレーム特定手段で特定された前記フレームを、前記フレーム特定手段で特定されなかった前記フレームとは識別可能に表示することを特徴とするプログラム。

A program capable of executing a control method of an information processing device including a photographing device capable of photographing a movie,
The information processing apparatus;
Sound playback means for playing back sound during moving image shooting by the shooting device;
Display means for displaying a frame of a moving image shot by the shooting device in a timeline format;
Function as frame specifying means for specifying the frame corresponding to the time when the sound was played by the sound playback means;
The display means displays the frame specified by the frame specifying means so as to be distinguishable from the frame not specified by the frame specifying means.

JP2015241766A 2015-12-11 2015-12-11 Information processing apparatus, control method thereof, and program Active JP6597263B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015241766A JP6597263B2 (en) 2015-12-11 2015-12-11 Information processing apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015241766A JP6597263B2 (en) 2015-12-11 2015-12-11 Information processing apparatus, control method thereof, and program

Publications (2)

Publication Number Publication Date
JP2017108326A true JP2017108326A (en) 2017-06-15
JP6597263B2 JP6597263B2 (en) 2019-10-30

Family

ID=59060224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015241766A Active JP6597263B2 (en) 2015-12-11 2015-12-11 Information processing apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP6597263B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004221666A (en) * 2003-01-09 2004-08-05 Canon Inc Imaging recording apparatus
US20090232471A1 (en) * 2008-03-12 2009-09-17 Hitachi, Ltd. Information Recording Apparatus
JP2013207530A (en) * 2012-03-28 2013-10-07 Sony Corp Information processing device, information processing method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004221666A (en) * 2003-01-09 2004-08-05 Canon Inc Imaging recording apparatus
US20090232471A1 (en) * 2008-03-12 2009-09-17 Hitachi, Ltd. Information Recording Apparatus
JP2009218976A (en) * 2008-03-12 2009-09-24 Hitachi Ltd Information recording device
JP2013207530A (en) * 2012-03-28 2013-10-07 Sony Corp Information processing device, information processing method and program

Also Published As

Publication number Publication date
JP6597263B2 (en) 2019-10-30

Similar Documents

Publication Publication Date Title
JP5528008B2 (en) Playback apparatus and playback method
JP2008148118A (en) Imaging apparatus and imaging method, reproducing apparatus and reproducing method, and program
EP2160892B1 (en) Method and system for facilitating creation of content
JP2007060028A (en) Image processor and object processing method
JP2002101372A (en) Camera incorporated type data recording and reproducing device and data recording and reproducing method
JP2015082692A (en) Video editing device, video editing method, and video editing program
JP6597263B2 (en) Information processing apparatus, control method thereof, and program
JP2018074337A (en) Moving image processing device, moving image processing method, and program
JP2009232114A (en) Image reproducing apparatus, its method and image reproducing program
JP2007258934A (en) Information processing apparatus and information processing method
JP4692336B2 (en) Image display system, image display apparatus, and image display method
JP2009265122A (en) Image projection apparatus and control method therefor
JP4319380B2 (en) Image editing apparatus, recording medium, and print ordering apparatus
JP2018093315A (en) Web conference system, control method thereof, and program
US8340508B2 (en) Record/playback apparatus and control method therefor
JP2000004419A (en) Electronic album preparing device
JP2007310553A (en) Program and method for creating composite image
JP2005136892A (en) Image recording apparatus, its control method and imaging system
JP2019102852A (en) Information processing device, control method thereof, and program
JP2008092335A (en) Printer and its control method
JP2003289506A (en) Synchronism management apparatus for video-audio media and application, synchronism management method, synchronism management program, and recording medium recorded with such synchronism management program
JP5901364B2 (en) REPRODUCTION CONTROL DEVICE AND REPRODUCTION CONTROL METHOD
JP6715907B2 (en) Image editing apparatus, image editing method, and program
US20230137452A1 (en) Information processing device, inforamtion processing method, and program
JP2004297618A (en) Image extraction method and image extraction apparatus

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161101

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181203

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190916

R151 Written notification of patent or utility model registration

Ref document number: 6597263

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250