JP2015032846A - Imaging device, sound output device, imaging method, and program - Google Patents
Imaging device, sound output device, imaging method, and program Download PDFInfo
- Publication number
- JP2015032846A JP2015032846A JP2013158662A JP2013158662A JP2015032846A JP 2015032846 A JP2015032846 A JP 2015032846A JP 2013158662 A JP2013158662 A JP 2013158662A JP 2013158662 A JP2013158662 A JP 2013158662A JP 2015032846 A JP2015032846 A JP 2015032846A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- timing information
- sound
- imaging
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
本発明は、撮像装置、音声出力装置、撮像方法及びプログラムに関する。 The present invention relates to an imaging device, an audio output device, an imaging method, and a program.
従来、音楽を再生してスピーカやヘッドフォン等で音を出力しながら、それに合わせて踊っているダンス等の動画を撮影することが行われている。
例えば、複数の曲をつないだり、テンポを変更したりしてダンス用に編集された音楽に合わせて踊っている姿を撮影し、その動画を確認することで、ダンスの練習が行われる。
このように撮影された動画を再生する場合、撮影時に被写体の周囲に流れていた音楽に関するテンポの変更、曲の切り換わる瞬間等の情報が動画ファイルに反映されないため、撮影した動画の再生中にテンポ等が変更された部分、曲の切り換わる瞬間等に対応する被写体の撮影状態を確認するために検索したくとも、コマ戻し等で巻き戻すしか方法がなく視聴しやすいとは言えない。
ここで、特許文献1には、画像と共にファイルに記録されているオーディオ再生データに基づいて、撮影された画像に対応した音声を自動でオーディオ再生する技術が開示されている。
特許文献1に記載の技術は、オーディオ再生中の音声が格納されている場所を示すオーディオ再生情報を撮影した画像と共に記憶するものであり、容易に画像と音声とを同時に鑑賞することを可能とするものである。
2. Description of the Related Art Conventionally, it has been practiced to shoot a moving image such as dancing while playing music and outputting sound with a speaker or headphones while dancing.
For example, a dance practice is performed by connecting a plurality of songs, changing the tempo, shooting a figure that is dancing to music edited for dance, and checking the video.
When playing back movies shot in this way, information such as the tempo change and music switching moments around the subject at the time of shooting is not reflected in the movie file. Even if it is desired to search to confirm the shooting state of the subject corresponding to the part where the tempo or the like has been changed, the moment when the music switches, etc., it cannot be said that there is only a method of rewinding by frame rewinding or the like.
Here,
The technology described in
しかしながら、特許文献1に記載の技術においては、自動でオーディオ再生する音声は、撮影時に被写体の周囲に流れていた音声とは無関係な音声であり、撮影時の音声と被写体の状態とを関連付けて検索することはできない。
However, in the technique described in
本発明は、このような状況に鑑みてなされたものであり、音声に合わせて撮影された動画において、音声の切り換わるタイミングに対応する部分の動画を容易に検索可能とすることを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to make it possible to easily search for a moving image of a portion corresponding to the timing at which the sound is switched in a moving image shot in accordance with the sound. .
上記目的を達成するため、本発明の一態様の撮像装置は、
所定の音声と同期して動画を撮影する動画撮影手段と、
前記所定の音声の所定箇所に関する外部機器から出力されるタイミング情報を取得するタイミング情報取得手段と、
前記タイミング情報取得手段によって取得された前記タイミング情報を、前記動画撮影手段によって撮影される動画と対応付けて記憶するタイミング情報記憶手段と、
を備えることを特徴とする。
In order to achieve the above object, an imaging device of one embodiment of the present invention includes:
A video recording means for recording a video in synchronization with a predetermined sound;
Timing information acquisition means for acquiring timing information output from an external device relating to the predetermined location of the predetermined sound;
Timing information storage means for storing the timing information acquired by the timing information acquisition means in association with a moving image shot by the moving image shooting means;
It is characterized by providing.
本発明によれば、音声に合わせて撮影された動画において、音声の切り換わるタイミングに対応する部分の動画を容易に検索することが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, in the moving image image | photographed according to the audio | voice, it becomes possible to search easily the moving image of the part corresponding to the timing which switches an audio | voice.
以下、本発明の実施形態について、図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[第1実施形態]
[構成]
図1は、本発明の一実施形態に係る撮像システム1のシステム構成を示す図である。
図1において、撮像システム1は、音声出力装置100と、撮像装置200とを含んで構成され、音声出力装置100と撮像装置200とは、通信可能に構成されている。なお、音声出力装置100と撮像装置200との通信は、WiFi、ブルートゥース、赤外線通信等の無線通信あるいは通信ケーブルを介した有線通信によって行うことが可能である。
[First Embodiment]
[Constitution]
FIG. 1 is a diagram showing a system configuration of an
In FIG. 1, the
図2は、本発明の一実施形態に係る音声出力装置100のハードウェア構成を示すブロック図である。
音声出力装置100は、例えばスピーカを備えたポータブル音楽プレーヤーとして構成される。なお、音声出力装置100として、スピーカに代えて、ヘッドフォンを介して音楽を出力する構成としてもよい。
音声出力装置100は、CPU(Central Processing Unit)111と、ROM(Read Only Memory)112と、RAM(Random Access Memory)113と、バス114と、入出力インターフェース115と、入力部116と、出力部117と、記憶部118と、電源制御部119と、通信部120と、ドライブ121と、を備えている。
FIG. 2 is a block diagram showing a hardware configuration of the
The
The
CPU111は、ROM112に記録されているプログラム、または、記憶部118からRAM113にロードされたプログラムにしたがって各種の処理を実行する。例えば、CPU111は、音楽出力のためのプログラムにしたがって、所定形式(例えばMP3形式等)の音楽のデータをデコードすることにより、音楽の出力処理を実行する。
The
また、CPU111は、音楽の出力処理を行う場合に、設定されたタイミングで、音楽のデータに対応付けられているイベント情報を撮像装置200に出力する。
ここで、イベント情報とは、音声出力装置100によって再生される音楽のデータにおいて、編集された箇所(以下、適宜「編集点」と呼ぶ)を示す情報であり、例えば、曲の先頭箇所、曲の変更箇所、テンポの変更箇所あるいは曲の終了箇所等を表すイベント情報が音楽のデータに対応付けて設定されている。
Further, when performing the music output process, the
Here, the event information is information indicating the edited part (hereinafter referred to as “edit point” as appropriate) in the music data reproduced by the
RAM113には、CPU111が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The
CPU111、ROM112及びRAM113は、バス114を介して相互に接続されている。このバス114にはまた、入出力インターフェース115も接続されている。入出力インターフェース115には、入力部116、出力部117、記憶部118、電源制御部119、通信部120及びドライブ121が接続されている。
The
入力部116は、電源ボタン、再生開始ボタン、再生停止ボタン等、各種ボタンで構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部117は、ディスプレイやスピーカ等で構成され、画像や音楽を出力する。
記憶部118は、DRAM(Dynamic Random Access Memory)等の半導体メモリで構成され、各種音楽や画像のデータ等を記憶する。
電源制御部119は、不図示のバッテリの充電状態を検出し、充電状態を示すデータをCPU111に出力する。
通信部120は、撮像装置200との間で行う通信を制御する。
The
The
The
The power
The
ドライブ121には、半導体メモリ等よりなるリムーバブルメディア131が適宜装着される。ドライブ121によってリムーバブルメディア131から読み出されたプログラムは、必要に応じて記憶部118にインストールされる。また、リムーバブルメディア131は、記憶部118に記憶されている音楽のデータ等の各種データも、記憶部118と同様に記憶することができる。
A
図3は、本発明の一実施形態に係る撮像装置200のハードウェアの構成を示すブロック図である。
撮像装置200は、例えばデジタルカメラとして構成される。
FIG. 3 is a block diagram showing a hardware configuration of the
The
撮像装置200は、CPU211と、ROM212と、RAM213と、バス214と、入出力インターフェース215と、撮像部216と、入力部217と、出力部218と、記憶部219と、通信部220と、電源制御部221と、ドライブ222と、を備えている。
The
CPU211は、ROM212に記録されているプログラム、または、記憶部219からRAM213にロードされたプログラムにしたがって各種の処理を実行する。また、CPU211には、撮像部216の出力信号が入力される。撮像部216の出力信号によって表されるデータを、以下、「撮像画像のデータ」と呼ぶ。
The
また、CPU211は、撮像部216から連続して出力される複数の撮像画像のデータに基づいて、連続的に撮像画像を表示する処理を実行する。即ち、CPU211は、撮像部216による撮像動作が継続されている間、撮像部216から順次出力される撮像画像のデータをメモリ(RAM213等)に一時的に記憶させると共に、一時的に記憶された撮像画像のデータを順次読み出して出力部218のディスプレイに画像を表示するライブビュー表示を実行する。ライブビュー表示において、出力部218のディスプレイに表示される画像を以下、「ライブビュー画像」と呼ぶ。なお、ライブビュー画像は、出力部218のディスプレイにおける表示領域全体に表示される。
さらに、CPU211は、シャッタボタンの押下等による動画の撮影記録の指示にしたがって、撮像部216から連続して出力される複数の撮像画像のデータを動画像のデータとして記録する処理を実行する。
Further, the
Further, the
RAM213には、CPU211が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The
CPU211、ROM212及びRAM213は、バス214を介して相互に接続されている。このバス214にはまた、入出力インターフェース215も接続されている。入出力インターフェース215には、撮像部216、入力部217、出力部218、記憶部219、通信部220、電源制御部221及びドライブ222が接続されている。
The
撮像部216は、図示はしないがフォーカスレンズやズームレンズを含む光学レンズ部と、イメージセンサと、を備えている。
Although not shown, the
光学レンズ部は、被写体を撮影するために、フォーカスレンズやズームレンズ等の各種レンズで構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit includes various lenses such as a focus lens and a zoom lens in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.
イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部216の出力信号として出力される。
このような撮像部216の出力信号によって表されるデータは、撮像画像のデータとして、CPU211やRAM213等に適宜供給される。
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. Through various signal processing, a digital signal is generated and output as an output signal of the
Data represented by such an output signal of the
入力部217は、電源ボタン、シャッタボタン等、各種ボタンで構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部218は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部219は、ハードディスクあるいはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部220は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The
The
The
The
電源制御部221は、不図示のバッテリの充電状態を検出し、充電状態を示すデータをCPU211に出力する。
ドライブ222には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア231が適宜装着される。ドライブ222によってリムーバブルメディア231から読み出されたプログラムは、必要に応じて記憶部219にインストールされる。また、リムーバブルメディア231は、記憶部219に記憶されている撮像画像のデータ等の各種データも、記憶部219と同様に記憶することができる。
The power
A
図4は、このような音声出力装置100の機能的構成のうち、音楽出力処理を実行するための機能的構成を示す機能ブロック図である。
音楽出力処理とは、複数の曲の連結、テンポの変更等の編集が施され、その編集点にイベント情報が対応付けられた音楽ファイルに基づいて、音楽と共に、設定されているイベント情報を順次出力する一連の処理をいう。
FIG. 4 is a functional block diagram showing a functional configuration for executing a music output process among the functional configurations of the
Music output processing refers to music events that have been edited, such as concatenation of multiple songs, changes in tempo, etc., and event information associated with the editing points. A series of processing to be output.
音楽出力処理が実行される場合、CPU111においては、撮影信号受信制御部141と、音楽出力部142と、イベント送信制御部143とが機能する。
撮影信号受信制御部141は、撮像装置200から送信された動画像の撮影開始を示す信号(撮影開始信号)及び撮影終了を示す信号(撮影終了信号)を受信する。そして、撮影信号受信制御部141は、受信した撮影開始信号あるいは撮影終了信号を音楽出力部142に出力する。
When the music output process is executed, in the
The shooting signal
音楽出力部142は、撮影信号受信制御部141から撮影開始信号が入力されると、ユーザによって出力が指示された音楽の音楽ファイルについて記憶部118からの読み出しを開始し、音楽ファイルに含まれている音楽のデータをデコードする。そして、音楽出力部142は、デコードして得られる音楽を出力部117を介して出力する。また、音楽出力部142は、撮影信号受信制御部141から撮影終了信号が入力されると、音楽の出力を終了する。
さらに、音楽出力部142は、音楽ファイルに含まれている音楽に設定されたイベント情報を検出し、検出したイベント情報をイベント送信制御部143に出力する。
イベント送信制御部143は、出力される音楽に合わせて、イベント情報が検出されたタイミングで、音楽出力部142から入力されたイベント情報を通信部220を介して撮像装置200に送信する。
When the shooting start signal is input from the shooting signal
Furthermore, the
The event
次に、撮像装置200の機能的構成について説明する。
図5は、撮像装置200の機能的構成のうち、動画撮影処理を実行するための機能的構成を示す機能ブロック図である。
動画撮影処理とは、音声出力装置100から受信したイベント情報に基づいて、そのイベントを表すイベントタグと対応付けながら、被写体の動画像を撮影する一連の処理をいう。
Next, a functional configuration of the
FIG. 5 is a functional block diagram illustrating a functional configuration for executing the moving image shooting process among the functional configurations of the
The moving image shooting process refers to a series of processes for shooting a moving image of a subject based on event information received from the
動画撮影処理が実行される場合、CPU211においては、撮影信号送信制御部241と、イベント受信制御部242と、動画データ生成部243とが機能する。
撮影信号送信制御部241は、入力部217を介して動画像の撮影開始が指示されると、音声出力装置100に対して、撮影開始信号を送信する。また、撮影信号送信制御部241は、入力部217を介して動画像の撮影終了が指示されると、音声出力装置100に対して、撮影終了信号を送信する。
イベント受信制御部242は、通信部220を介してイベント情報を受信すると、受信したイベント情報及び受信した時刻を動画データ生成部243に出力する。
When the moving image shooting process is executed, in the
The shooting signal
When receiving event information via the
動画データ生成部243は、入力部217を介して動画像の撮影が指示されると、撮影信号送信制御部241の動作と共に、撮像部216から入力される撮像画像のデータを動画像のデータとして記録する。
また、動画データ生成部243は、イベント受信制御部242からイベント情報及び受信時刻が入力されると、受信時刻における動画像のデータのフレームと対応付けて、イベント情報が表すイベントのイベントタグを記録する。動画データ生成部243は、例えば、イベントタグを動画像のデータのフレームにおけるヘッダ領域に格納することにより、イベントタグを記録する。
ここで、イベントタグとは、イベント情報が表すイベントの内容を示すタグ情報であり、動画像のデータにおけるフレームに付されることで、そのフレームのタイミングで、音声出力装置100が出力する音楽に特定のイベントが発生したことを示すものである。
When the moving image
Further, when the event information and the reception time are input from the event
Here, the event tag is tag information indicating the content of the event represented by the event information, and is attached to the frame in the moving image data, so that the music output by the
図6は、イベントタグが示すイベントの例を表す図である。
図6に示すように、本実施形態においては、イベントタグが示すイベントとして、曲の先頭、曲の変更、テンポの変更、曲の終了、任意に設定された編集点等が定義されている。
FIG. 6 is a diagram illustrating an example of an event indicated by an event tag.
As shown in FIG. 6, in the present embodiment, as the event indicated by the event tag, the beginning of the song, the change of the song, the change of the tempo, the end of the song, the editing point set arbitrarily, and the like are defined.
図7は、音声出力装置100によって出力される音楽と、撮像装置200によって撮像される動画像との関係を示す模式図である。
図7において、音声出力装置100によって出力される音楽は、時刻T1において曲Aが始まり、時刻T2において曲Bに移行する。また、時刻T3において曲Bのテンポが変更され、時刻T4において曲Cに移行する。
この場合、音声出力装置100は、時刻T1において、曲Aの先頭を示すイベント情報、時刻T2において、曲Bの先頭を示すイベント情報、時刻T3において、テンポの変更を示すイベント情報、時刻T4において、曲Cの先頭を示すイベント情報を撮像装置200に送信する。
FIG. 7 is a schematic diagram illustrating a relationship between music output by the
In the music output by the
In this case, the
そして、撮像装置200は、各時刻において音声出力装置100から受信したイベント情報に応じたイベントタグを、その時刻に撮像されたフレームのヘッダに格納し、動画像データにイベントタグを対応付ける。
このように動画データ生成部243によって生成された動画像のデータには、音声出力装置100によって出力された音楽の編集点のタイミングで、イベントタグが設定されている。
Then, the
Thus, event tags are set in the moving image data generated by the moving image
したがって、音楽の編集点を基準として動画像のデータを検索できるため、例えば音楽に合わせてダンスをしているシーンを撮影した動画像において、音楽における特定の編集点のダンスのシーンを容易に検索することができる。
また、動画像のデータとイベントタグとが一体のファイルとなるため、データの管理が容易なものとなる。
Therefore, since it is possible to search for moving image data based on music editing points, for example, in a moving image obtained by shooting a scene dancing according to music, it is easy to search for a dance scene at a specific editing point in music. can do.
In addition, since the moving image data and the event tag are integrated into one file, the data can be easily managed.
[動作]
次に、動作を説明する。
初めに、撮像システム1全体における動作例の概略を説明する。
図8は、撮像システム1全体の概略的な動作例の流れを説明するフローチャートである。
撮像システム1が動作する場合、初めに、撮像装置200は、動画像を撮影するモード(動画モード)に設定され、音声出力装置100は、撮像装置200と通信を行うモード(通信モード)に設定される。これにより、動作のためのスタンバイ状態となる。
[Operation]
Next, the operation will be described.
First, an outline of an operation example in the
FIG. 8 is a flowchart illustrating a flow of a schematic operation example of the
When the
ステップC1において、撮像装置200は、タイマを一致させる等、音声出力装置100との同期を行うための信号(同期開始信号)を送信する。
ステップM1において、音声出力装置100は、撮像装置200から送信される同期開始信号に応じて、タイマの設定等を行い、同期を開始する。
ステップC2において、撮像装置200は、ユーザの操作に応じて、動画像の撮影を開始し、音声出力装置100に撮影開始信号を送信する。
In step C1, the
In step M1, the
In step C <b> 2, the
一方、ステップM2において、音声出力装置100は、撮像装置200から撮影開始信号を受信したことに応じて、音楽ファイルの再生を開始する。
次に、ステップM3において、音声出力装置100は、再生中の音楽ファイルにおいて、曲の先頭を示すイベント情報を検出すると、そのイベント情報を撮像装置200に送信する。
ステップC3において、撮像装置200は、曲の先頭を示すイベント情報を受信し、撮影中の動画像のフレームに、受信したイベント情報に対応するイベントタグ(曲の先頭)を設定する。
On the other hand, in step M2, the
Next, in step M3, when the
In step C3, the
次に、ステップM4において、音声出力装置100は、再生中の音楽ファイルにおける曲の変更を示すイベント情報を検出すると、そのイベント情報を撮像装置200に送信する。
ステップC4において、撮像装置200は、曲の変更を示すイベント情報を受信し、撮影中の動画像のフレームに、受信したイベント情報に対応するイベントタグ(曲の変更)を設定する。
Next, in step M4, when the
In step C4, the
次に、ステップM5において、音声出力装置100は、再生中の音楽ファイルにおけるテンポの変更を示すイベント情報を検出すると、そのイベント情報を撮像装置200に送信する。
ステップC5において、撮像装置200は、テンポの変更を示すイベント情報を受信し、撮影中の動画像のフレームに、受信したイベント情報に対応するイベントタグ(テンポの変更)を設定する。
Next, in step M5, when the
In step C5, the
次に、ステップC6において、撮像装置200は、音声出力装置100に撮影終了信号を送信し、動画像の撮影を終了する。
ステップC6の後、撮像装置200は、動画モードを終了する。
ステップM6において、音声出力装置100は、撮像装置200から撮影終了信号を受信したことに応じて、音楽ファイルの再生を終了する。
ステップM6の後、音声出力装置100は、通信モードを終了する。
Next, in step C <b> 6, the
After step C6, the
In step M6, the
After step M6, the
次に、このような動作を行うための音声出力装置100及び撮像装置200の具体的な処理について説明する。
図9は、図4の機能的構成を有する図2の音声出力装置100が実行する音楽出力処理の流れを説明するフローチャートである。
音楽出力処理は、撮像装置200から撮影開始信号を受信したことを契機として開始される。
ステップS1において、音楽出力部142は、タイマtをゼロにセット(t=0)する。このタイマtの値は、撮像装置200から送信されるタイマf(後述)と比較され、撮像装置200との同期を取るために用いられる。
Next, specific processing of the
FIG. 9 is a flowchart for explaining the flow of music output processing executed by the
The music output process is started when an imaging start signal is received from the
In step S1, the
ステップS2において、音楽出力部142は、音楽ファイルの再生終了が指示されたか否か(即ち、撮像装置200から撮影終了信号を受信したか否か)の判定を行う。
音楽ファイルの再生終了が指示された場合、ステップS2においてYESと判定されて、処理は終了となる。
これに対し、音楽ファイルの再生終了が指示されていない場合、ステップS2においてNOと判定されて、処理はステップS3に移行する。
ステップS3において、音楽出力部142は、再生中の音楽ファイルにおいて、曲の先頭を示すイベント情報が検出されたか否かの判定を行う。
In step S <b> 2, the
If an instruction to end reproduction of the music file is given, it is determined YES in step S2, and the process ends.
On the other hand, if it is not instructed to end the reproduction of the music file, NO is determined in step S2, and the process proceeds to step S3.
In step S3, the
再生中の音楽ファイルにおいて、曲の先頭を示すイベント情報が検出された場合、ステップS3においてYESと判定されて、処理はステップS4に移行する。
これに対し、曲の先頭を示すイベント情報が検出されていない場合、ステップS3においてNOと判定されて、処理はステップS5に移行する。
ステップS4において、音楽出力部142は、イベント送信制御部143を介して曲の先頭を示すイベント情報を撮像装置200に送信する。
ステップS4の後、処理はステップS5に移行する。
If event information indicating the beginning of the song is detected in the music file being reproduced, YES is determined in step S3, and the process proceeds to step S4.
On the other hand, if event information indicating the beginning of the song has not been detected, NO is determined in step S3, and the process proceeds to step S5.
In step S <b> 4, the
After step S4, the process proceeds to step S5.
ステップS5において、音楽出力部142は、再生中の音楽ファイルにおいて、曲の変更を示すイベント情報が検出されたか否かの判定を行う。
再生中の音楽ファイルにおいて、曲の変更を示すイベント情報が検出された場合、ステップS5においてYESと判定されて、処理はステップS6に移行する。
これに対し、再生中の音楽ファイルにおいて、曲の変更を示すイベント情報が検出されていない場合、ステップS5においてNOと判定されて、処理はステップS7に移行する。
In step S5, the
If event information indicating a change in music is detected in the music file being played back, YES is determined in step S5, and the process proceeds to step S6.
On the other hand, if event information indicating a change in music is not detected in the music file being played back, NO is determined in step S5, and the process proceeds to step S7.
ステップS6において、音楽出力部142は、イベント送信制御部143を介して曲の変更を示すイベント情報を撮像装置200に送信する。
ステップS6の後、処理はステップS7に移行する。
ステップS7において、音楽出力部142は、再生中の音楽ファイルにおいて、テンポの変更を示すイベント情報が検出されたか否かの判定を行う。
再生中の音楽ファイルにおいて、テンポの変更を示すイベント情報が検出された場合、ステップS7においてYESと判定されて、処理はステップS8に移行する。
これに対し、再生中の音楽ファイルにおいて、テンポの変更を示すイベント情報が検出されていない場合、ステップS7においてNOと判定されて、処理はステップS9に移行する。
In step S <b> 6, the
After step S6, the process proceeds to step S7.
In step S7, the
If event information indicating a tempo change is detected in the music file being played back, YES is determined in step S7, and the process proceeds to step S8.
On the other hand, if event information indicating a change in tempo is not detected in the music file being played back, NO is determined in step S7, and the process proceeds to step S9.
ステップS8において、音楽出力部142は、イベント送信制御部143を介してテンポの変更を示すイベント情報を撮像装置200に送信する。
ステップS8の後、処理はステップS9に移行する。
ステップS9において、音楽出力部142は、再生中の音楽ファイルにおいて、任意に設定された編集点を示すイベント情報が検出されたか否かの判定を行う。
再生中の音楽ファイルにおいて、任意に設定された編集点を示すイベント情報が検出された場合、ステップS9においてYESと判定されて、処理はステップS10に移行する。
In step S <b> 8, the
After step S8, the process proceeds to step S9.
In step S9, the
If event information indicating an arbitrarily set editing point is detected in the music file being played back, YES is determined in step S9, and the process proceeds to step S10.
これに対し、再生中の音楽ファイルにおいて、任意に設定された編集点を示すイベント情報が検出されていない場合、ステップS9においてNOと判定されて、処理はステップS11に移行する。
ステップS10において、音楽出力部142は、イベント送信制御部143を介して任意に設定された編集点を示すイベント情報を撮像装置200に送信する。
ステップS10の後、処理はステップS11に移行する。
ステップS11において、音楽出力部142は、タイマtの値をインクリメントする。
ステップS11の後、処理はステップS2に戻る。
On the other hand, if event information indicating an arbitrarily set editing point is not detected in the music file being played back, NO is determined in step S9, and the process proceeds to step S11.
In step S <b> 10, the
After step S10, the process proceeds to step S11.
In step S11, the
After step S11, the process returns to step S2.
次に、撮像装置200が実行する処理について説明する。
図10は、図5の機能的構成を有する図3の撮像装置200が実行する撮像処理の流れを説明するフローチャートである。
撮像処理は、ユーザにより入力部217に対して、動画像の撮影を実行するための操作がなされたことを契機として開始される。
ステップS21において、撮影信号送信制御部241は、音声出力装置100に撮影開始信号を送信する。
ステップS22において、動画データ生成部243は、動画像のデータを格納するファイルを作成する。
Next, processing executed by the
FIG. 10 is a flowchart for explaining the flow of imaging processing executed by the
The imaging process is started when the user performs an operation on the
In step S <b> 21, the shooting signal
In step S22, the moving image
ステップS23において、動画データ生成部243は、タイマfをゼロにセット(f=0)する。このタイマtの値は、音声出力装置100との同期を取るために、音声出力装置100に対して随時送信される。
ステップS24において、動画データ生成部243は、動画像の撮影を終了する操作が行われたか否かの判定を行う。
動画像の撮影を終了する操作が行われた場合、ステップS24においてYESと判定されて、処理はステップS35に移行する。
これに対し、動画像の撮影を終了する操作が行われていない場合、ステップS24においてNOと判定されて、処理はステップS25に移行する。
In step S23, the moving image
In step S <b> 24, the moving image
If an operation to end shooting of a moving image is performed, YES is determined in step S24, and the process proceeds to step S35.
On the other hand, if the operation for ending moving image shooting is not performed, NO is determined in step S24, and the process proceeds to step S25.
ステップS25において、動画データ生成部243は、撮像部216から入力される撮像画像のデータから動画像のフレームを作成する。ここで作成されたフレームは、順次記憶部219に記憶された動画像のファイルに格納される。
ステップS26において、動画データ生成部243は、イベント受信制御部242を介して曲の先頭を示すイベント情報を受信したか否かの判定を行う。
イベント受信制御部242を介して曲の先頭を示すイベント情報を受信した場合、ステップS26においてYESと判定されて、処理はステップS27に移行する。
これに対し、イベント受信制御部242を介して曲の先頭を示すイベント情報を受信していない場合、ステップS26においてNOと判定されて、処理はステップS28に移行する。
In step S <b> 25, the moving image
In step S <b> 26, the moving image
When event information indicating the beginning of a song is received via the event
On the other hand, if event information indicating the beginning of the song has not been received via the event
ステップS27において、動画データ生成部243は、曲の先頭を示すイベントタグをフレームのヘッダに格納する。
ステップS27の後、処理はステップS28に移行する。
ステップS28において、動画データ生成部243は、イベント受信制御部242を介して曲の変更を示すイベント情報を受信したか否かの判定を行う。
イベント受信制御部242を介して曲の変更を示すイベント情報を受信した場合、ステップS28においてYESと判定されて、処理はステップS29に移行する。
これに対し、イベント受信制御部242を介して曲の変更を示すイベント情報を受信していない場合、ステップS28においてNOと判定されて、処理はステップS30に移行する。
In step S27, the moving image
After step S27, the process proceeds to step S28.
In step S <b> 28, the moving image
When event information indicating the change of music is received via the event
On the other hand, when event information indicating a change in music is not received via the event
ステップS29において、動画データ生成部243は、曲の変更を示すイベントタグをフレームのヘッダに格納する。
ステップS29の後、処理はステップS30に移行する。
ステップS30において、動画データ生成部243は、イベント受信制御部242を介してテンポの変更を示すイベント情報を受信したか否かの判定を行う。
イベント受信制御部242を介してテンポの変更を示すイベント情報を受信した場合、ステップS30においてYESと判定されて、処理はステップS31に移行する。
これに対し、イベント受信制御部242を介してテンポの変更を示すイベント情報を受信していない場合、ステップS30においてNOと判定されて、処理はステップS32に移行する。
In step S29, the moving image
After step S29, the process proceeds to step S30.
In step S <b> 30, the moving image
If event information indicating a change in tempo is received via the event
On the other hand, when event information indicating a change in tempo is not received via the event
ステップS31において、動画データ生成部243は、テンポの変更を示すイベントタグをフレームのヘッダに格納する。
ステップS31の後、処理はステップS32に移行する。
ステップS32において、動画データ生成部243は、イベント受信制御部242を介して任意に設定された編集点を示すイベント情報を受信したか否かの判定を行う。
イベント受信制御部242を介して任意に設定された編集点を示すイベント情報を受信した場合、ステップS32においてYESと判定されて、処理はステップS33に移行する。
これに対し、イベント受信制御部242を介して任意に設定された編集点を示すイベント情報を受信していない場合、ステップS32においてNOと判定されて、処理はステップS34に移行する。
In step S31, the moving image
After step S31, the process proceeds to step S32.
In step S <b> 32, the moving image
When event information indicating an arbitrarily set editing point is received via the event
On the other hand, when event information indicating an editing point arbitrarily set via the event
ステップS33において、動画データ生成部243は、任意に設定された編集点を示すイベントタグをフレームのヘッダに格納する。
ステップS33の後、処理はステップS34に移行する。
ステップS34において、動画データ生成部243は、タイマfをインクリメントする。
ステップS34の後、処理はステップS24に戻る。
In step S33, the moving image
After step S33, the process proceeds to step S34.
In step S34, the moving image
After step S34, the process returns to step S24.
ステップS35において、動画データ生成部243は、動画像のデータを格納するファイルをクローズし、ファイルの作成を終了する。
ステップS36において、撮影信号送信制御部241は、撮影終了信号を音声出力装置100に送信する。
ステップS36の後、撮像処理は終了となる。
In step S35, the moving image
In step S <b> 36, the shooting signal
After step S36, the imaging process ends.
以上のように、本実施形態における撮像装置200は、イベント受信制御部242と、動画データ生成部243と、を備える。
動画データ生成部243は、所定の音声(例えば音楽ファイルに含まれる音楽)と同期して動画を録画する。
イベント受信制御部242は、外部機器(例えば音声出力装置100)から出力される音声出力中の音声の編集箇所に関する編集情報(イベント情報)を取得する。
動画データ生成部243は、編集情報を録画されている動画と対応付けて記憶する。
このような構成により、曲をつないだりテンポを変えたりといった編集を行いスピーカやヘッドフォン等で出力された音声と同期して、音楽に合わせた踊り等の撮影を行う場合に、曲の変更やテンポの変更といった音声の編集箇所に関する編集情報を取得して、録画中の動画の録画動作を制御することで、動画再生時のタイミングに関する検索が容易になる。
即ち、本発明によれば、編集された音楽に合わせて撮影された動画において、音楽の種々の編集箇所に対応する部分の動画を容易に検索することが可能となる。
As described above, the
The moving image
The event
The moving image
With this configuration, when editing songs such as connecting songs or changing the tempo, and shooting dances or other music in sync with the sound output from speakers or headphones, the song changes or tempo. By acquiring the editing information related to the edited portion of the audio such as the change of the video and controlling the recording operation of the moving image being recorded, it becomes easy to search for the timing at the time of moving image reproduction.
That is, according to the present invention, it is possible to easily search for moving images of portions corresponding to various editing portions of music in moving images shot in accordance with edited music.
また、動画データ生成部243は、音声出力されている音声を録音しながら前記動画を録画する。
このような構成により、映像と音声の一体感があり、臨場感にあふれる動画を得ることができる。
In addition, the moving image
With such a configuration, it is possible to obtain a moving image with a sense of unity between video and audio and a sense of realism.
また、動画データ生成部243は、編集情報をその取得されたタイミングで録画された動画のフレームの位置を示す情報として記録する。
このような構成により、音声の編集箇所に関する編集情報に基づいて動画の検索が可能となるので、動画再生時に、曲の切り換わる瞬間や曲のテンポが変わったタイミングに容易にジャンプできる。
In addition, the moving image
With such a configuration, it is possible to search for a moving image based on editing information related to the edited portion of the audio. Therefore, when reproducing a moving image, it is possible to easily jump to the moment when the song switches or when the tempo of the song changes.
また、音声出力される音声は、編集され記録されている音声データが再生された音声である。
このような構成により、事前に編集しておいた音声データを再生するだけで、音声の編集箇所に関する編集情報を取得して、録画中の動画に関連させて記録できる。
Also, the audio output is audio obtained by reproducing audio data that has been edited and recorded.
With such a configuration, it is possible to acquire editing information relating to the edited portion of the audio and record it in association with the moving image being recorded simply by reproducing the audio data that has been edited in advance.
また、本実施形態に係る撮像装置200は、撮影信号送信制御部241を備える。
撮影信号送信制御部241は、動画データ生成部243による録画の開始あるいは終了に応じて、外部機器(音声出力装置100)に音声出力の開始あるいは終了を制御させる。
このような構成により、撮像装置200側で録画の開始、終了を行うだけで、自動的に音楽再生の開始、終了を制御し、音声の編集箇所に関する編集情報を取得して、録画中の動画に関連させて記録できる。
In addition, the
The shooting signal
With such a configuration, simply by starting and ending recording on the
また、動画データ生成部243は、編集情報を録画されている動画(例えばフレームのヘッダ)に埋め込んで記録する。
このような構成により、1つの動画ファイルのみに全てのデータが記録されるので、データの管理が容易になる。
In addition, the moving image
With such a configuration, since all data is recorded only in one moving image file, data management becomes easy.
また、本実施形態に係る音声出力装置100は、音楽出力部142と、イベント送信制御部143と、を備える。
音楽出力部142は、外部(撮像装置200)で録画される動画と同期して音声を出力する。
イベント送信制御部143は、出力される音声の編集箇所に関する編集情報を外部機器に対して出力する。
このような構成により、音声を出力する装置から動画を撮影する装置に対して音声の編集箇所を通知することができるため、動画を撮影する装置において、動画と対応付けて音声の編集箇所を記録することができる。
The
The
The event
With such a configuration, a voice editing location can be notified from a device that outputs sound to a device that shoots a moving image. Therefore, in a device that shoots a moving image, the voice editing location is recorded in association with the video. can do.
[変形例]
上述の実施形態において、音声出力装置100は、複数の曲の連結、テンポの変更等の編集が施され、その編集点にイベント情報が対応付けられた音楽ファイルを再生するものとして説明した。
これに対し、リアルタイムに曲やテンポ等が変更される状況(例えばディスクジョッキーによる音楽パフォーマンス等)においても、本発明を適用することが可能である。
即ち、曲やテンポ等が変更される毎に、そのイベントに対応したイベント情報(編集点を示す情報)を音楽に対応付けて撮像装置200に送信することで、リアルタイムに変化される音楽においても、イベントタグを設定した動画像を撮影することが可能となる。
[Modification]
In the above-described embodiment, the
On the other hand, the present invention can be applied even in a situation where a song, tempo, etc. are changed in real time (for example, music performance by a disc jockey).
That is, every time a song, tempo, or the like is changed, event information (information indicating editing points) corresponding to the event is transmitted to the
このように、本変形例に係る撮像装置200において、動画データ生成部243は、所定の音声と同期して動画を録画し、その音声は、リアルタイムで編集される音声データの音声であることとしてもよい。
このような構成により、クラブのDJのように臨機応変に音声出力の編集を行う場合であっても、音声の編集箇所に関する編集情報を取得して、録画中の動画に関連させて記録できる。
As described above, in the
With such a configuration, even when audio output is edited flexibly as in the case of a club DJ, editing information relating to the audio editing location can be acquired and recorded in association with the video being recorded.
[第2実施形態]
次に、本発明の第2実施形態について説明する。
第1実施形態においては、撮像装置200が撮像処理を実行する場合、動画像のフレームにおけるヘッダにイベントタグを格納することとした。
即ち、撮像装置200によって生成される動画像のファイルは、動画像のデータとイベントタグとが一体となったファイルである。
一方、撮像装置200が撮像処理を実行する場合、動画像のデータとイベントタグとを別ファイルに記録することができる。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.
In the first embodiment, when the
That is, the moving image file generated by the
On the other hand, when the
図11は、動画像のデータとは別ファイルに記録されたイベントタグを示す模式図である。
図11において、イベントタグを示す数字は、図6におけるイベントタグが示すイベントの種類と対応するものであり、図7に示すイベントタグを別ファイルとした例を示している。
図11に示すように、動画像のデータにおけるタイムスタンプ(先頭からの時間(時:分:秒))と、イベントタグとを対応付けて記録することで、動画像のデータを汎用性の高いものとできる。
FIG. 11 is a schematic diagram showing event tags recorded in a separate file from moving image data.
In FIG. 11, the numbers indicating the event tags correspond to the types of events indicated by the event tags in FIG. 6, and show an example in which the event tag shown in FIG. 7 is a separate file.
As shown in FIG. 11, the time stamp (time (hour: minute: second) from the beginning) in the moving image data and the event tag are recorded in association with each other, thereby making the moving image data highly versatile. I can do it.
このように、本実施形態における撮像装置200の動画データ生成部243は、編集情報を録画されている動画とは別ファイルとして記録する。
このような構成により、動画ファイルには手を加えないため、動画ファイルの汎用性を高いものとできる。
As described above, the moving image
With this configuration, since the moving image file is not modified, the versatility of the moving image file can be increased.
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.
上述の実施形態では、撮像装置200から音声出力装置100に撮影開始信号及び撮影終了信号を送信し、音声出力装置100は、撮影開始信号を受信することに対応して音楽ファイルの再生を開始したり、撮影終了信号を受信することに対応して音楽ファイルの再生を終了したりすることとした。
これに対し、撮像装置200が、音声出力装置100から音楽ファイルの再生を開始したことを示す信号(再生開始信号)を受信することに対応して、動画像の撮影を開始したり、音楽ファイルの再生を終了したことを示す信号(再生終了信号)を受信することに対応して、動画像の撮影を終了したりすることとしてもよい。
即ち、撮像装置200における動画データ生成部243は、外部機器(音声出力装置100)における音声出力の開始あるいは終了に応じて、動画の録画の開始あるいは終了を制御する。
このような構成により、外部機器側で音声の開始、終了を行うだけで、自動的に録画の開始、終了を制御し、音声のタイミングに関連する情報を取得して、録画中の動画に関連させて記録できる。
また、上述の実施形態では、まず撮像装置200から音声出力装置100との間で同期を取り、その後に開始信号の送受信を行っているが、開始信号の送受信と同時に同期を取るようにしてもよい。
In the above-described embodiment, the imaging start signal and the shooting end signal are transmitted from the
On the other hand, in response to receiving a signal (playback start signal) indicating that the
In other words, the moving image
With such a configuration, simply start and end audio on the external device side, automatically control the start and end of recording, acquire information related to audio timing, and related to the video being recorded Can be recorded.
In the above-described embodiment, first, synchronization is performed between the
また、上述の実施形態において、音声出力装置100が、曲の先頭を示すイベント情報や曲の変更を示すイベント情報を検出した場合に、曲名やアーティスト名を取得して、取得した曲名やアーティスト名をイベント情報に含めて撮像装置200に送信することとしてもよい。
また、上述の実施形態では、音声出力装置100が出力する音声は音楽として説明しているが、これに限らず、ダンスの振り付けを指示する人物の声といったものであってもよい。
また、上述の実施形態では、動画撮影処理中にイベントタグの設定を行っているが、動画撮影中にイベントタグの種類とタイミングを一時記憶しておき、動画撮影が終わってからまとめてイベントタグの設定を行うようにしてもよい。
In the above-described embodiment, when the
In the above-described embodiment, the sound output from the
In the above-described embodiment, the event tag is set during the moving image shooting process. However, the type and timing of the event tag are temporarily stored during the moving image shooting, and the event tag is collectively collected after the moving image shooting ends. You may make it perform the setting of.
また、上述の実施形態において、音声出力装置100において、音楽の出力及びイベント情報の送信を共に行うこととして説明したが、これらを異なる装置によって行うこととしてもよい。例えば、ポータブル音楽プレーヤーによって音楽を出力し、その音楽に対応付けられたイベント情報を、ポータブル音楽プレーヤーと同期したPCやスマートフォン等の情報処理装置から、撮像装置200に送信することとしてもよい。
In the above-described embodiment, the
また、上述の実施形態では、本発明が適用される音声出力装置100は、ポータブル音楽プレーヤーを例として説明したが、特にこれに限定されない。
例えば、本発明は、音楽出力機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム、DJ(DISK JOCKEY)機器等に適用可能である。
In the above-described embodiment, the
For example, the present invention can be applied to general electronic devices having a music output function. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a smartphone, a portable game, a DJ (DISK JOKKEY) device, and the like. It is.
また、上述の実施形態では、本発明が適用される撮像装置200は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、撮影機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the
For example, the present invention can be applied to general electronic devices having a photographing function. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a smartphone, a portable game machine, and the like.
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図4及び5の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が音声出力装置100あるいは撮像装置200に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図4及び5の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIGS. 4 and 5 is merely an example, and is not particularly limited. That is, it is sufficient that the
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図2及び3のリムーバブルメディア131、231により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア131、231は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray Disc(ブルーレイディスク)(登録商標)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図2、3のROM112、212や、図2、3の記憶部118、219に含まれるハードディスク等で構成される。
A recording medium including such a program is not only configured by the
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the order, but is not necessarily performed in chronological order, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalents thereof.
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
所定の音声と同期して動画を撮影する動画撮影手段と、
前記所定の音声の所定箇所に関する外部機器から出力されるタイミング情報を取得するタイミング情報取得手段と、
前記タイミング情報取得手段によって取得された前記タイミング情報を、前記動画撮影手段によって撮影される動画と対応付けて記憶するタイミング情報記憶手段と、
を備えることを特徴とする撮像装置。
[付記2]
前記所定の音声は、前記外部機器から音声出力され、
前記動画撮影手段は、前記外部機器から音声出力されている音声を録音しながら前記動画を撮影することを特徴とする付記1に記載の撮像装置。
[付記3]
前記タイミング情報記憶手段は、前記タイミング情報を前記タイミング情報取得手段によって取得されたタイミングで撮影された前記動画のフレームの位置を示す情報として記録することを特徴とする付記1または2に記載の撮像装置。
[付記4]
前記所定の音声は、編集され記録されている音声データが再生された音声であることを特徴とする付記1から3のいずれか1つに記載の撮像装置。
[付記5]
前記動画撮影手段による撮影の開始あるいは終了に応じて、外部機器に音声出力の開始あるいは終了を制御させる音声出力制御手段を備えることを特徴とする付記4に記載の撮像装置。
[付記6]
前記所定の音声は、リアルタイムで編集される音声データの音声であることを特徴とする付記1から3のいずれか1つに記載の撮像装置。
[付記7]
前記動画撮影手段は、外部機器における音声出力の開始あるいは終了に応じて、前記動画の撮影の開始あるいは終了を制御することを特徴とする付記4または6に記載の撮像装置。
[付記8]
前記タイミング情報記憶手段は、前記タイミング情報取得手段によって取得された前記タイミング情報を、前記動画撮影手段によって撮影されている動画に埋め込んで記録することを特徴とする付記4または6に記載の撮像装置。
[付記9]
前記タイミング情報記憶手段は、前記タイミング情報取得手段によって取得された前記タイミング情報を、前記動画撮影手段によって撮影されている動画とは別ファイルとして記録することを特徴とする付記4または6に記載の撮像装置。
[付記10]
外部機器で撮影される動画と同期して音声を出力する音声出力手段と、
前記音声出力手段によって出力される音声の所定箇所に関するタイミング情報を前記外部機器に対して出力するタイミング情報出力手段と、
を備えることを特徴とする音声出力装置。
[付記11]
所定の音声と同期して動画を撮影する動画撮影ステップと、
前記所定の音声の所定箇所に関する外部機器から出力されるタイミング情報を取得するタイミング情報取得ステップと、
前記タイミング情報取得ステップにおいて取得された前記タイミング情報を、前記動画撮影ステップにおいて撮影される動画と対応付けて記憶するタイミング情報記憶ステップと、
を含むことを特徴とする撮像方法。
[付記12]
コンピュータを、
所定の音声と同期して動画を撮影する動画撮影手段と、
前記所定の音声の所定箇所に関する外部機器から出力されるタイミング情報を取得するタイミング情報取得手段と、
前記タイミング情報取得手段によって取得された前記タイミング情報を、前記動画撮影手段によって撮影される動画と対応付けて記憶するタイミング情報記憶手段と、
として機能させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
A video recording means for recording a video in synchronization with a predetermined sound;
Timing information acquisition means for acquiring timing information output from an external device relating to the predetermined location of the predetermined sound;
Timing information storage means for storing the timing information acquired by the timing information acquisition means in association with a moving image shot by the moving image shooting means;
An imaging apparatus comprising:
[Appendix 2]
The predetermined sound is output as sound from the external device,
The imaging apparatus according to
[Appendix 3]
The imaging according to
[Appendix 4]
The imaging apparatus according to any one of
[Appendix 5]
The imaging apparatus according to
[Appendix 6]
The imaging apparatus according to any one of
[Appendix 7]
The imaging apparatus according to
[Appendix 8]
The imaging apparatus according to
[Appendix 9]
7. The
[Appendix 10]
An audio output means for outputting audio in synchronization with a video shot by an external device;
Timing information output means for outputting timing information regarding a predetermined portion of the sound output by the sound output means to the external device;
An audio output device comprising:
[Appendix 11]
A video recording step for recording a video in synchronization with a predetermined sound;
A timing information acquisition step of acquiring timing information output from an external device relating to the predetermined location of the predetermined audio;
A timing information storage step for storing the timing information acquired in the timing information acquisition step in association with a moving image shot in the moving image shooting step;
An imaging method comprising:
[Appendix 12]
Computer
A video recording means for recording a video in synchronization with a predetermined sound;
Timing information acquisition means for acquiring timing information output from an external device relating to the predetermined location of the predetermined sound;
Timing information storage means for storing the timing information acquired by the timing information acquisition means in association with a moving image shot by the moving image shooting means;
A program characterized by functioning as
1・・・撮像システム、100・・・音声出力装置、200・・・撮像装置、111、211・・・CPU、112,212・・・ROM、113、213・・・RAM、114、214・・・バス、115、215・・・入出力インターフェース、216・・・撮像部、116、217・・・入力部、117、218・・・出力部、118、219・・・記憶部、119、221・・・電源制御部、120、220・・・通信部、121、222・・・ドライブ、131、231・・・リムーバブルメディア、141・・・撮影信号受信制御部、142・・・音楽出力部、143・・・イベント送信制御部、241・・・撮影信号送信制御部、242・・・イベント受信制御部、243・・・動画データ生成部
DESCRIPTION OF
Claims (12)
前記所定の音声の所定箇所に関する外部機器から出力されるタイミング情報を取得するタイミング情報取得手段と、
前記タイミング情報取得手段によって取得された前記タイミング情報を、前記動画撮影手段によって撮影される動画と対応付けて記憶するタイミング情報記憶手段と、
を備えることを特徴とする撮像装置。 A video recording means for recording a video in synchronization with a predetermined sound;
Timing information acquisition means for acquiring timing information output from an external device relating to the predetermined location of the predetermined sound;
Timing information storage means for storing the timing information acquired by the timing information acquisition means in association with a moving image shot by the moving image shooting means;
An imaging apparatus comprising:
前記動画撮影手段は、前記外部機器から音声出力されている音声を録音しながら前記動画を撮影することを特徴とする請求項1に記載の撮像装置。 The predetermined sound is output as sound from the external device,
The imaging apparatus according to claim 1, wherein the moving image capturing unit captures the moving image while recording sound output from the external device.
前記音声出力手段によって出力される音声の所定箇所に関するタイミング情報を前記外部機器に対して出力するタイミング情報出力手段と、
を備えることを特徴とする音声出力装置。 An audio output means for outputting audio in synchronization with a video shot by an external device;
Timing information output means for outputting timing information regarding a predetermined portion of the sound output by the sound output means to the external device;
An audio output device comprising:
前記所定の音声の所定箇所に関する外部機器から出力されるタイミング情報を取得するタイミング情報取得ステップと、
前記タイミング情報取得ステップにおいて取得された前記タイミング情報を、前記動画撮影ステップにおいて撮影される動画と対応付けて記憶するタイミング情報記憶ステップと、
を含むことを特徴とする撮像方法。 A video recording step for recording a video in synchronization with a predetermined sound;
A timing information acquisition step of acquiring timing information output from an external device relating to the predetermined location of the predetermined audio;
A timing information storage step for storing the timing information acquired in the timing information acquisition step in association with a moving image shot in the moving image shooting step;
An imaging method comprising:
所定の音声と同期して動画を撮影する動画撮影手段と、
前記所定の音声の所定箇所に関する外部機器から出力されるタイミング情報を取得するタイミング情報取得手段と、
前記タイミング情報取得手段によって取得された前記タイミング情報を、前記動画撮影手段によって撮影される動画と対応付けて記憶するタイミング情報記憶手段と、
として機能させることを特徴とするプログラム。 Computer
A video recording means for recording a video in synchronization with a predetermined sound;
Timing information acquisition means for acquiring timing information output from an external device relating to the predetermined location of the predetermined sound;
Timing information storage means for storing the timing information acquired by the timing information acquisition means in association with a moving image shot by the moving image shooting means;
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013158662A JP6229356B2 (en) | 2013-07-31 | 2013-07-31 | Imaging apparatus, imaging method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013158662A JP6229356B2 (en) | 2013-07-31 | 2013-07-31 | Imaging apparatus, imaging method, and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017201584A Division JP2018038058A (en) | 2017-10-18 | 2017-10-18 | Sound output device, imaging system, sound output method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015032846A true JP2015032846A (en) | 2015-02-16 |
JP6229356B2 JP6229356B2 (en) | 2017-11-15 |
Family
ID=52517870
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013158662A Expired - Fee Related JP6229356B2 (en) | 2013-07-31 | 2013-07-31 | Imaging apparatus, imaging method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6229356B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108806560A (en) * | 2018-06-27 | 2018-11-13 | 四川长虹电器股份有限公司 | Screen singing display screen and sound field picture synchronization localization method |
JP2021150795A (en) * | 2020-03-18 | 2021-09-27 | 楽天グループ株式会社 | Moving image generation device, moving image generation method, moving image generation program, playback device, moving image distribution device, and moving image system |
JP2023136435A (en) * | 2022-03-17 | 2023-09-29 | 本田技研工業株式会社 | Image processing device and image processing method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07169172A (en) * | 1992-07-31 | 1995-07-04 | Kenwood Corp | Sound recording system of digital sound recording/ reproducing device |
JP2003037796A (en) * | 2001-07-24 | 2003-02-07 | Hitachi Ltd | Information recording and reproducing device |
JP2003348534A (en) * | 2002-05-27 | 2003-12-05 | Fuji Photo Film Co Ltd | Image recording apparatus and image recording method |
JP2012100216A (en) * | 2010-11-05 | 2012-05-24 | Nikon Corp | Camera and moving image capturing program |
-
2013
- 2013-07-31 JP JP2013158662A patent/JP6229356B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07169172A (en) * | 1992-07-31 | 1995-07-04 | Kenwood Corp | Sound recording system of digital sound recording/ reproducing device |
JP2003037796A (en) * | 2001-07-24 | 2003-02-07 | Hitachi Ltd | Information recording and reproducing device |
JP2003348534A (en) * | 2002-05-27 | 2003-12-05 | Fuji Photo Film Co Ltd | Image recording apparatus and image recording method |
JP2012100216A (en) * | 2010-11-05 | 2012-05-24 | Nikon Corp | Camera and moving image capturing program |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108806560A (en) * | 2018-06-27 | 2018-11-13 | 四川长虹电器股份有限公司 | Screen singing display screen and sound field picture synchronization localization method |
JP2021150795A (en) * | 2020-03-18 | 2021-09-27 | 楽天グループ株式会社 | Moving image generation device, moving image generation method, moving image generation program, playback device, moving image distribution device, and moving image system |
US11228802B2 (en) | 2020-03-18 | 2022-01-18 | Rakuten Group, Inc. | Video distribution system, video generation method, and reproduction device |
JP7051923B2 (en) | 2020-03-18 | 2022-04-11 | 楽天グループ株式会社 | Video generator, video generation method, video generator, playback device, video distribution device, and video system |
JP2023136435A (en) * | 2022-03-17 | 2023-09-29 | 本田技研工業株式会社 | Image processing device and image processing method |
JP7470726B2 (en) | 2022-03-17 | 2024-04-18 | 本田技研工業株式会社 | Image processing device and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP6229356B2 (en) | 2017-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4853932B2 (en) | Imaging apparatus and program | |
JP4777180B2 (en) | Imaging apparatus and control method thereof | |
JP2004201282A (en) | Photographing device and photographing method | |
JP2008148118A (en) | Imaging apparatus and imaging method, reproducing apparatus and reproducing method, and program | |
JPWO2006028172A1 (en) | Recording apparatus and method, reproducing apparatus and method, and program | |
JP4993012B2 (en) | Imaging apparatus and image processing apparatus | |
JP2012060218A5 (en) | ||
JP6004475B2 (en) | REPRODUCTION CONTROL DEVICE, REPRODUCTION CONTROL METHOD, AND PROGRAM | |
JP2012100216A (en) | Camera and moving image capturing program | |
JP2011250340A (en) | Imaging apparatus and control method of same | |
JP5741659B2 (en) | Movie sorting device, movie sorting method and program | |
JP6229356B2 (en) | Imaging apparatus, imaging method, and program | |
JP4804141B2 (en) | Imaging device | |
JP4189556B2 (en) | Moving image processing apparatus and program thereof | |
JP2018038058A (en) | Sound output device, imaging system, sound output method, and program | |
JP6952584B2 (en) | Imaging device, imaging method and imaging program | |
JP2011114347A (en) | Photographing apparatus, and photographing apparatus system | |
JP2004088518A (en) | Imaging/recording apparatus, image reproducing apparatus, and image recording/reproducing control program | |
JP2019096950A5 (en) | ||
JP2003283987A (en) | Digital camera | |
JP2005218126A (en) | Photographing device and photographing method | |
JP5500188B2 (en) | Imaging device | |
JP2006314136A (en) | Photographic device and photographing method | |
JP6020665B2 (en) | REPRODUCTION CONTROL DEVICE, REPRODUCTION CONTROL METHOD, AND PROGRAM | |
JP4616895B2 (en) | Digital still camera with music playback function and image music playback device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160601 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170403 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170919 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171002 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6229356 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |