JP6229356B2 - Imaging apparatus, imaging method, and program - Google Patents

Imaging apparatus, imaging method, and program Download PDF

Info

Publication number
JP6229356B2
JP6229356B2 JP2013158662A JP2013158662A JP6229356B2 JP 6229356 B2 JP6229356 B2 JP 6229356B2 JP 2013158662 A JP2013158662 A JP 2013158662A JP 2013158662 A JP2013158662 A JP 2013158662A JP 6229356 B2 JP6229356 B2 JP 6229356B2
Authority
JP
Japan
Prior art keywords
timing information
moving image
shooting
output
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013158662A
Other languages
Japanese (ja)
Other versions
JP2015032846A (en
Inventor
和真 川原
和真 川原
光喜 中村
光喜 中村
浩良 小川
浩良 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013158662A priority Critical patent/JP6229356B2/en
Publication of JP2015032846A publication Critical patent/JP2015032846A/en
Application granted granted Critical
Publication of JP6229356B2 publication Critical patent/JP6229356B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

本発明は、撮像装置、撮像方法及びプログラムに関する。 The present invention relates to an imaging apparatus, a IMAGING METHOD AND PROGRAM.

従来、音楽を再生してスピーカやヘッドフォン等で音を出力しながら、それに合わせて踊っているダンス等の動画を撮影することが行われている。
例えば、複数の曲をつないだり、テンポを変更したりしてダンス用に編集された音楽に合わせて踊っている姿を撮影し、その動画を確認することで、ダンスの練習が行われる。
このように撮影された動画を再生する場合、撮影時に被写体の周囲に流れていた音楽に関するテンポの変更、曲の切り換わる瞬間等の情報が動画ファイルに反映されないため、撮影した動画の再生中にテンポ等が変更された部分、曲の切り換わる瞬間等に対応する被写体の撮影状態を確認するために検索したくとも、コマ戻し等で巻き戻すしか方法がなく視聴しやすいとは言えない。
ここで、特許文献1には、画像と共にファイルに記録されているオーディオ再生データに基づいて、撮影された画像に対応した音声を自動でオーディオ再生する技術が開示されている。
特許文献1に記載の技術は、オーディオ再生中の音声が格納されている場所を示すオーディオ再生情報を撮影した画像と共に記憶するものであり、容易に画像と音声とを同時に鑑賞することを可能とするものである。
2. Description of the Related Art Conventionally, it has been practiced to shoot a moving image such as dancing while playing music and outputting sound with a speaker or headphones while dancing.
For example, a dance practice is performed by connecting a plurality of songs, changing the tempo, shooting a figure that is dancing to music edited for dance, and checking the video.
When playing back movies shot in this way, information such as the tempo change and music switching moments around the subject at the time of shooting is not reflected in the movie file. Even if it is desired to search to confirm the shooting state of the subject corresponding to the part where the tempo or the like has been changed, the moment when the music switches, etc., it cannot be said that there is only a method of rewinding by frame rewinding etc.
Here, Patent Document 1 discloses a technique for automatically reproducing audio corresponding to a captured image based on audio reproduction data recorded in a file together with the image.
The technology described in Patent Document 1 stores audio reproduction information indicating a location where audio during audio reproduction is stored together with a photographed image, and allows easy viewing of the image and audio simultaneously. To do.

特開2001−28703号公報JP 2001-28703 A

しかしながら、特許文献1に記載の技術においては、自動でオーディオ再生する音声は、撮影時に被写体の周囲に流れていた音声とは無関係な音声であり、撮影時の音声と被写体の状態とを関連付けて検索することはできない。   However, in the technique described in Patent Document 1, the audio that is automatically played back by audio is a sound that is unrelated to the sound that flows around the subject at the time of shooting, and associates the sound at the time of shooting with the state of the subject. You can't search.

本発明は、このような状況に鑑みてなされたものであり、音声に合わせて撮影された動画において、音声の切り換わるタイミングに対応する部分の動画を容易に検索可能とすることを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to make it possible to easily search for a moving image of a portion corresponding to the timing at which the sound is switched in a moving image shot in accordance with the sound. .

上記目的を達成するため、本発明の一態様の撮像装置は、
所定の音声と同期して動画を撮影する動画撮影手段と、
前記所定の音声の所定箇所に関する外部機器から出力されるタイミング情報を取得するタイミング情報取得手段と、
前記タイミング情報取得手段によって取得された前記タイミング情報を、前記動画撮影手段によって撮影される動画と対応付けて記憶するタイミング情報記憶手段と、
を備えることを特徴とする。
In order to achieve the above object, an imaging device of one embodiment of the present invention includes:
A video recording means for recording a video in synchronization with a predetermined sound;
Timing information acquisition means for acquiring timing information output from an external device relating to the predetermined location of the predetermined sound;
Timing information storage means for storing the timing information acquired by the timing information acquisition means in association with a moving image shot by the moving image shooting means;
It is characterized by providing.

本発明によれば、音声に合わせて撮影された動画において、音声の切り換わるタイミングに対応する部分の動画を容易に検索することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, in the moving image image | photographed according to the audio | voice, it becomes possible to search easily the moving image of the part corresponding to the timing which a sound switches.

本発明の一実施形態に係る撮像システムのシステム構成を示す図である。1 is a diagram illustrating a system configuration of an imaging system according to an embodiment of the present invention. 本発明の一実施形態に係る音声出力装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the audio | voice output apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the imaging device which concerns on one Embodiment of this invention. 音声出力装置の機能的構成のうち、音楽出力処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing a music output process among the functional structures of an audio | voice output apparatus. 撮像装置の機能的構成のうち、動画撮影処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing a moving image | photographing process among the functional structures of an imaging device. イベントタグが示すイベントの例を表す図である。It is a figure showing the example of the event which an event tag shows. 音声出力装置によって出力される音楽と、撮像装置によって撮像される動画像との関係を示す模式図である。It is a schematic diagram which shows the relationship between the music output by an audio | voice output apparatus, and the moving image imaged with an imaging device. 撮像システム全体の概略的な動作例の流れを説明するフローチャートである。It is a flowchart explaining the flow of the schematic operation example of the whole imaging system. 図4の機能的構成を有する図2の音声出力装置が実行する音楽出力処理の流れを説明するフローチャートである。5 is a flowchart for explaining a flow of music output processing executed by the audio output device of FIG. 2 having the functional configuration of FIG. 4. 図5の機能的構成を有する図3の撮像装置が実行する撮像処理の流れを説明するフローチャートである。6 is a flowchart for explaining a flow of imaging processing executed by the imaging apparatus of FIG. 3 having the functional configuration of FIG. 5. 動画像のデータとは別ファイルに記録されたイベントタグを示す模式図である。It is a schematic diagram which shows the event tag recorded on the file different from the data of a moving image.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
[構成]
図1は、本発明の一実施形態に係る撮像システム1のシステム構成を示す図である。
図1において、撮像システム1は、音声出力装置100と、撮像装置200とを含んで構成され、音声出力装置100と撮像装置200とは、通信可能に構成されている。なお、音声出力装置100と撮像装置200との通信は、WiFi、ブルートゥース、赤外線通信等の無線通信あるいは通信ケーブルを介した有線通信によって行うことが可能である。
[First Embodiment]
[Constitution]
FIG. 1 is a diagram showing a system configuration of an imaging system 1 according to an embodiment of the present invention.
In FIG. 1, the imaging system 1 is configured to include an audio output device 100 and an imaging device 200, and the audio output device 100 and the imaging device 200 are configured to be communicable. Communication between the audio output device 100 and the imaging device 200 can be performed by wireless communication such as WiFi, Bluetooth, infrared communication, or wired communication via a communication cable.

図2は、本発明の一実施形態に係る音声出力装置100のハードウェア構成を示すブロック図である。
音声出力装置100は、例えばスピーカを備えたポータブル音楽プレーヤーとして構成される。なお、音声出力装置100として、スピーカに代えて、ヘッドフォンを介して音楽を出力する構成としてもよい。
音声出力装置100は、CPU(Central Processing Unit)111と、ROM(Read Only Memory)112と、RAM(Random Access Memory)113と、バス114と、入出力インターフェース115と、入力部116と、出力部117と、記憶部118と、電源制御部119と、通信部120と、ドライブ121と、を備えている。
FIG. 2 is a block diagram showing a hardware configuration of the audio output device 100 according to the embodiment of the present invention.
The audio output device 100 is configured as a portable music player including a speaker, for example. Note that the audio output device 100 may be configured to output music via headphones instead of speakers.
The audio output apparatus 100 includes a CPU (Central Processing Unit) 111, a ROM (Read Only Memory) 112, a RAM (Random Access Memory) 113, a bus 114, an input / output interface 115, an input unit 116, and an output unit. 117, a storage unit 118, a power supply control unit 119, a communication unit 120, and a drive 121.

CPU111は、ROM112に記録されているプログラム、または、記憶部118からRAM113にロードされたプログラムにしたがって各種の処理を実行する。例えば、CPU111は、音楽出力のためのプログラムにしたがって、所定形式(例えばMP3形式等)の音楽のデータをデコードすることにより、音楽の出力処理を実行する。   The CPU 111 executes various processes according to a program recorded in the ROM 112 or a program loaded from the storage unit 118 to the RAM 113. For example, the CPU 111 executes music output processing by decoding music data in a predetermined format (for example, MP3 format) according to a program for music output.

また、CPU111は、音楽の出力処理を行う場合に、設定されたタイミングで、音楽のデータに対応付けられているイベント情報を撮像装置200に出力する。
ここで、イベント情報とは、音声出力装置100によって再生される音楽のデータにおいて、編集された箇所(以下、適宜「編集点」と呼ぶ)を示す情報であり、例えば、曲の先頭箇所、曲の変更箇所、テンポの変更箇所あるいは曲の終了箇所等を表すイベント情報が音楽のデータに対応付けて設定されている。
Further, when performing the music output process, the CPU 111 outputs event information associated with the music data to the imaging apparatus 200 at the set timing.
Here, the event information is information indicating the edited part (hereinafter referred to as “edit point” as appropriate) in the music data reproduced by the audio output device 100. Event information indicating a change location, a tempo change location, a song end location, or the like is set in association with music data.

RAM113には、CPU111が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 113 appropriately stores data necessary for the CPU 111 to execute various processes.

CPU111、ROM112及びRAM113は、バス114を介して相互に接続されている。このバス114にはまた、入出力インターフェース115も接続されている。入出力インターフェース115には、入力部116、出力部117、記憶部118、電源制御部119、通信部120及びドライブ121が接続されている。   The CPU 111, ROM 112, and RAM 113 are connected to each other via a bus 114. An input / output interface 115 is also connected to the bus 114. An input unit 116, an output unit 117, a storage unit 118, a power supply control unit 119, a communication unit 120, and a drive 121 are connected to the input / output interface 115.

入力部116は、電源ボタン、再生開始ボタン、再生停止ボタン等、各種ボタンで構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部117は、ディスプレイやスピーカ等で構成され、画像や音楽を出力する。
記憶部118は、DRAM(Dynamic Random Access Memory)等の半導体メモリで構成され、各種音楽や画像のデータ等を記憶する。
電源制御部119は、不図示のバッテリの充電状態を検出し、充電状態を示すデータをCPU111に出力する。
通信部120は、撮像装置200との間で行う通信を制御する。
The input unit 116 includes various buttons such as a power button, a playback start button, and a playback stop button, and inputs various types of information according to user instruction operations.
The output unit 117 includes a display, a speaker, and the like, and outputs images and music.
The storage unit 118 includes a semiconductor memory such as a DRAM (Dynamic Random Access Memory), and stores various music, image data, and the like.
The power supply control unit 119 detects a state of charge of a battery (not shown) and outputs data indicating the state of charge to the CPU 111.
The communication unit 120 controls communication performed with the imaging device 200.

ドライブ121には、半導体メモリ等よりなるリムーバブルメディア131が適宜装着される。ドライブ121によってリムーバブルメディア131から読み出されたプログラムは、必要に応じて記憶部118にインストールされる。また、リムーバブルメディア131は、記憶部118に記憶されている音楽のデータ等の各種データも、記憶部118と同様に記憶することができる。   A removable medium 131 made of a semiconductor memory or the like is appropriately attached to the drive 121. The program read from the removable medium 131 by the drive 121 is installed in the storage unit 118 as necessary. The removable medium 131 can also store various data such as music data stored in the storage unit 118 in the same manner as the storage unit 118.

図3は、本発明の一実施形態に係る撮像装置200のハードウェアの構成を示すブロック図である。
撮像装置200は、例えばデジタルカメラとして構成される。
FIG. 3 is a block diagram showing a hardware configuration of the imaging apparatus 200 according to an embodiment of the present invention.
The imaging device 200 is configured as a digital camera, for example.

撮像装置200は、CPU211と、ROM212と、RAM213と、バス214と、入出力インターフェース215と、撮像部216と、入力部217と、出力部218と、記憶部219と、通信部220と、電源制御部221と、ドライブ222と、を備えている。   The imaging apparatus 200 includes a CPU 211, a ROM 212, a RAM 213, a bus 214, an input / output interface 215, an imaging unit 216, an input unit 217, an output unit 218, a storage unit 219, a communication unit 220, a power source A control unit 221 and a drive 222 are provided.

CPU211は、ROM212に記録されているプログラム、または、記憶部219からRAM213にロードされたプログラムにしたがって各種の処理を実行する。また、CPU211には、撮像部216の出力信号が入力される。撮像部216の出力信号によって表されるデータを、以下、「撮像画像のデータ」と呼ぶ。   The CPU 211 executes various processes according to a program recorded in the ROM 212 or a program loaded from the storage unit 219 to the RAM 213. Further, the CPU 211 receives an output signal of the imaging unit 216. The data represented by the output signal of the imaging unit 216 is hereinafter referred to as “captured image data”.

また、CPU211は、撮像部216から連続して出力される複数の撮像画像のデータに基づいて、連続的に撮像画像を表示する処理を実行する。即ち、CPU211は、撮像部216による撮像動作が継続されている間、撮像部216から順次出力される撮像画像のデータをメモリ(RAM213等)に一時的に記憶させると共に、一時的に記憶された撮像画像のデータを順次読み出して出力部218のディスプレイに画像を表示するライブビュー表示を実行する。ライブビュー表示において、出力部218のディスプレイに表示される画像を以下、「ライブビュー画像」と呼ぶ。なお、ライブビュー画像は、出力部218のディスプレイにおける表示領域全体に表示される。
さらに、CPU211は、シャッタボタンの押下等による動画の撮影記録の指示にしたがって、撮像部216から連続して出力される複数の撮像画像のデータを動画像のデータとして記録する処理を実行する。
Further, the CPU 211 executes processing for continuously displaying captured images based on data of a plurality of captured images continuously output from the imaging unit 216. That is, the CPU 211 temporarily stores the captured image data sequentially output from the imaging unit 216 in the memory (such as the RAM 213) while the imaging operation by the imaging unit 216 is continued. Live view display is executed in which the captured image data is sequentially read and displayed on the display of the output unit 218. In the live view display, an image displayed on the display of the output unit 218 is hereinafter referred to as a “live view image”. The live view image is displayed on the entire display area on the display of the output unit 218.
Further, the CPU 211 executes a process of recording data of a plurality of captured images continuously output from the imaging unit 216 as moving image data in accordance with an instruction to record and record a moving image by pressing a shutter button or the like.

RAM213には、CPU211が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 213 appropriately stores data necessary for the CPU 211 to execute various processes.

CPU211、ROM212及びRAM213は、バス214を介して相互に接続されている。このバス214にはまた、入出力インターフェース215も接続されている。入出力インターフェース215には、撮像部216、入力部217、出力部218、記憶部219、通信部220、電源制御部221及びドライブ222が接続されている。   The CPU 211, ROM 212, and RAM 213 are connected to each other via a bus 214. An input / output interface 215 is also connected to the bus 214. An imaging unit 216, an input unit 217, an output unit 218, a storage unit 219, a communication unit 220, a power supply control unit 221, and a drive 222 are connected to the input / output interface 215.

撮像部216は、図示はしないがフォーカスレンズやズームレンズを含む光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 216 includes an optical lens unit including a focus lens and a zoom lens, and an image sensor.

光学レンズ部は、被写体を撮影するために、フォーカスレンズやズームレンズ等の各種レンズで構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit includes various lenses such as a focus lens and a zoom lens in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.

AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部216の出力信号として出力される。
このような撮像部216の出力信号によって表されるデータは、撮像画像のデータとして、CPU211やRAM213等に適宜供給される。
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. Through various signal processing, a digital signal is generated and output as an output signal of the imaging unit 216.
Data represented by such an output signal of the imaging unit 216 is appropriately supplied to the CPU 211, the RAM 213, and the like as captured image data.

入力部217は、電源ボタン、シャッタボタン等、各種ボタンで構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部218は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部219は、ハードディスクあるいはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部220は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The input unit 217 includes various buttons such as a power button and a shutter button, and inputs various information according to a user's instruction operation.
The output unit 218 includes a display, a speaker, and the like, and outputs an image and sound.
The storage unit 219 includes a hard disk or a DRAM (Dynamic Random Access Memory), and stores various image data.
The communication unit 220 controls communication performed with another device (not shown) via a network including the Internet.

電源制御部221は、不図示のバッテリの充電状態を検出し、充電状態を示すデータをCPU211に出力する。
ドライブ222には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア231が適宜装着される。ドライブ222によってリムーバブルメディア231から読み出されたプログラムは、必要に応じて記憶部219にインストールされる。また、リムーバブルメディア231は、記憶部219に記憶されている撮像画像のデータ等の各種データも、記憶部219と同様に記憶することができる。
The power supply control unit 221 detects the state of charge of a battery (not shown) and outputs data indicating the state of charge to the CPU 211.
A removable medium 231 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 222. The program read from the removable medium 231 by the drive 222 is installed in the storage unit 219 as necessary. The removable medium 231 can also store various data such as captured image data stored in the storage unit 219 in the same manner as the storage unit 219.

図4は、このような音声出力装置100の機能的構成のうち、音楽出力処理を実行するための機能的構成を示す機能ブロック図である。
音楽出力処理とは、複数の曲の連結、テンポの変更等の編集が施され、その編集点にイベント情報が対応付けられた音楽ファイルに基づいて、音楽と共に、設定されているイベント情報を順次出力する一連の処理をいう。
FIG. 4 is a functional block diagram showing a functional configuration for executing a music output process among the functional configurations of the audio output device 100.
Music output processing refers to music events that have been edited, such as concatenation of multiple songs, changes in tempo, etc., and event information associated with the editing points. A series of processing to be output.

音楽出力処理が実行される場合、CPU111においては、撮影信号受信制御部141と、音楽出力部142と、イベント送信制御部143とが機能する。
撮影信号受信制御部141は、撮像装置200から送信された動画像の撮影開始を示す信号(撮影開始信号)及び撮影終了を示す信号(撮影終了信号)を受信する。そして、撮影信号受信制御部141は、受信した撮影開始信号あるいは撮影終了信号を音楽出力部142に出力する。
When the music output process is executed, in the CPU 111, the photographing signal reception control unit 141, the music output unit 142, and the event transmission control unit 143 function.
The shooting signal reception control unit 141 receives a signal indicating the start of shooting of a moving image (shooting start signal) and a signal indicating the end of shooting (shooting end signal) transmitted from the imaging apparatus 200. Then, the shooting signal reception control unit 141 outputs the received shooting start signal or shooting end signal to the music output unit 142.

音楽出力部142は、撮影信号受信制御部141から撮影開始信号が入力されると、ユーザによって出力が指示された音楽の音楽ファイルについて記憶部118からの読み出しを開始し、音楽ファイルに含まれている音楽のデータをデコードする。そして、音楽出力部142は、デコードして得られる音楽を出力部117を介して出力する。また、音楽出力部142は、撮影信号受信制御部141から撮影終了信号が入力されると、音楽の出力を終了する。
さらに、音楽出力部142は、音楽ファイルに含まれている音楽に設定されたイベント情報を検出し、検出したイベント情報をイベント送信制御部143に出力する。
イベント送信制御部143は、出力される音楽に合わせて、イベント情報が検出されたタイミングで、音楽出力部142から入力されたイベント情報を通信部220を介して撮像装置200に送信する。
When the shooting start signal is input from the shooting signal reception control unit 141, the music output unit 142 starts reading out the music file of the music for which output is instructed by the user from the storage unit 118, and is included in the music file. Decode the music data that you have. Then, the music output unit 142 outputs the music obtained by decoding through the output unit 117. Also, the music output unit 142 ends the output of music when the shooting end signal is input from the shooting signal reception control unit 141.
Furthermore, the music output unit 142 detects event information set for music included in the music file, and outputs the detected event information to the event transmission control unit 143.
The event transmission control unit 143 transmits the event information input from the music output unit 142 to the imaging device 200 via the communication unit 220 at the timing when the event information is detected in accordance with the music to be output.

次に、撮像装置200の機能的構成について説明する。
図5は、撮像装置200の機能的構成のうち、動画撮影処理を実行するための機能的構成を示す機能ブロック図である。
動画撮影処理とは、音声出力装置100から受信したイベント情報に基づいて、そのイベントを表すイベントタグと対応付けながら、被写体の動画像を撮影する一連の処理をいう。
Next, a functional configuration of the imaging apparatus 200 will be described.
FIG. 5 is a functional block diagram illustrating a functional configuration for executing the moving image shooting process among the functional configurations of the imaging apparatus 200.
The moving image shooting process refers to a series of processes for shooting a moving image of a subject based on event information received from the audio output device 100 and associated with an event tag representing the event.

動画撮影処理が実行される場合、CPU211においては、撮影信号送信制御部241と、イベント受信制御部242と、動画データ生成部243とが機能する。
撮影信号送信制御部241は、入力部217を介して動画像の撮影開始が指示されると、音声出力装置100に対して、撮影開始信号を送信する。また、撮影信号送信制御部241は、入力部217を介して動画像の撮影終了が指示されると、音声出力装置100に対して、撮影終了信号を送信する。
イベント受信制御部242は、通信部220を介してイベント情報を受信すると、受信したイベント情報及び受信した時刻を動画データ生成部243に出力する。
When the moving image shooting process is executed, in the CPU 211, the shooting signal transmission control unit 241, the event reception control unit 242, and the moving image data generation unit 243 function.
The shooting signal transmission control unit 241 transmits a shooting start signal to the audio output device 100 when an instruction to start shooting a moving image is given via the input unit 217. In addition, when the shooting signal transmission control unit 241 is instructed to end shooting of a moving image via the input unit 217, the shooting signal transmission control unit 241 transmits a shooting end signal to the audio output device 100.
When receiving event information via the communication unit 220, the event reception control unit 242 outputs the received event information and the received time to the moving image data generation unit 243.

動画データ生成部243は、入力部217を介して動画像の撮影が指示されると、撮影信号送信制御部241の動作と共に、撮像部216から入力される撮像画像のデータを動画像のデータとして記録する。
また、動画データ生成部243は、イベント受信制御部242からイベント情報及び受信時刻が入力されると、受信時刻における動画像のデータのフレームと対応付けて、イベント情報が表すイベントのイベントタグを記録する。動画データ生成部243は、例えば、イベントタグを動画像のデータのフレームにおけるヘッダ領域に格納することにより、イベントタグを記録する。
ここで、イベントタグとは、イベント情報が表すイベントの内容を示すタグ情報であり、動画像のデータにおけるフレームに付されることで、そのフレームのタイミングで、音声出力装置100が出力する音楽に特定のイベントが発生したことを示すものである。
When the moving image data generation unit 243 is instructed to capture a moving image via the input unit 217, the captured image data input from the imaging unit 216 is used as moving image data together with the operation of the imaging signal transmission control unit 241. Record.
Further, when the event information and the reception time are input from the event reception control unit 242, the moving image data generation unit 243 records the event tag of the event represented by the event information in association with the moving image data frame at the reception time. To do. For example, the moving image data generation unit 243 records the event tag by storing the event tag in the header area in the frame of the moving image data.
Here, the event tag is tag information indicating the content of the event represented by the event information, and is attached to the frame in the moving image data, so that the music output by the audio output device 100 at the timing of the frame is added. It indicates that a specific event has occurred.

図6は、イベントタグが示すイベントの例を表す図である。
図6に示すように、本実施形態においては、イベントタグが示すイベントとして、曲の先頭、曲の変更、テンポの変更、曲の終了、任意に設定された編集点等が定義されている。
FIG. 6 is a diagram illustrating an example of an event indicated by an event tag.
As shown in FIG. 6, in the present embodiment, as the event indicated by the event tag, the beginning of the song, the change of the song, the change of the tempo, the end of the song, the editing point set arbitrarily, and the like are defined.

図7は、音声出力装置100によって出力される音楽と、撮像装置200によって撮像される動画像との関係を示す模式図である。
図7において、音声出力装置100によって出力される音楽は、時刻T1において曲Aが始まり、時刻T2において曲Bに移行する。また、時刻T3において曲Bのテンポが変更され、時刻T4において曲Cに移行する。
この場合、音声出力装置100は、時刻T1において、曲Aの先頭を示すイベント情報、時刻T2において、曲Bの先頭を示すイベント情報、時刻T3において、テンポの変更を示すイベント情報、時刻T4において、曲Cの先頭を示すイベント情報を撮像装置200に送信する。
FIG. 7 is a schematic diagram illustrating a relationship between music output by the audio output device 100 and a moving image captured by the imaging device 200.
In the music output by the audio output device 100 in FIG. 7, the music A starts at time T1 and shifts to music B at time T2. Further, the tempo of the music B is changed at the time T3, and the music C is shifted to the music C at the time T4.
In this case, the audio output device 100 has event information indicating the beginning of song A at time T1, event information indicating the beginning of song B at time T2, event information indicating change in tempo at time T3, and time T4. , Event information indicating the beginning of the song C is transmitted to the imaging apparatus 200.

そして、撮像装置200は、各時刻において音声出力装置100から受信したイベント情報に応じたイベントタグを、その時刻に撮像されたフレームのヘッダに格納し、動画像データにイベントタグを対応付ける。
このように動画データ生成部243によって生成された動画像のデータには、音声出力装置100によって出力された音楽の編集点のタイミングで、イベントタグが設定されている。
Then, the imaging device 200 stores an event tag corresponding to the event information received from the audio output device 100 at each time in the header of the frame imaged at that time, and associates the event tag with the moving image data.
Thus, event tags are set in the moving image data generated by the moving image data generation unit 243 at the timing of the edit point of the music output by the audio output device 100.

したがって、音楽の編集点を基準として動画像のデータを検索できるため、例えば音楽に合わせてダンスをしているシーンを撮影した動画像において、音楽における特定の編集点のダンスのシーンを容易に検索することができる。
また、動画像のデータとイベントタグとが一体のファイルとなるため、データの管理が容易なものとなる。
Therefore, since it is possible to search for moving image data based on music editing points, for example, in a moving image obtained by shooting a scene dancing according to music, it is easy to search for a dance scene at a specific editing point in music. can do.
In addition, since the moving image data and the event tag are integrated into one file, the data can be easily managed.

[動作]
次に、動作を説明する。
初めに、撮像システム1全体における動作例の概略を説明する。
図8は、撮像システム1全体の概略的な動作例の流れを説明するフローチャートである。
撮像システム1が動作する場合、初めに、撮像装置200は、動画像を撮影するモード(動画モード)に設定され、音声出力装置100は、撮像装置200と通信を行うモード(通信モード)に設定される。これにより、動作のためのスタンバイ状態となる。
[Operation]
Next, the operation will be described.
First, an outline of an operation example in the entire imaging system 1 will be described.
FIG. 8 is a flowchart illustrating a flow of a schematic operation example of the entire imaging system 1.
When the imaging system 1 operates, first, the imaging apparatus 200 is set to a mode for capturing moving images (moving image mode), and the audio output apparatus 100 is set to a mode for communicating with the imaging apparatus 200 (communication mode). Is done. Thereby, it will be in the standby state for operation | movement.

ステップC1において、撮像装置200は、タイマを一致させる等、音声出力装置100との同期を行うための信号(同期開始信号)を送信する。
ステップM1において、音声出力装置100は、撮像装置200から送信される同期開始信号に応じて、タイマの設定等を行い、同期を開始する。
ステップC2において、撮像装置200は、ユーザの操作に応じて、動画像の撮影を開始し、音声出力装置100に撮影開始信号を送信する。
In step C1, the imaging device 200 transmits a signal (synchronization start signal) for synchronizing with the audio output device 100 such as matching the timers.
In step M1, the audio output device 100 sets a timer or the like according to the synchronization start signal transmitted from the imaging device 200, and starts synchronization.
In step C <b> 2, the imaging device 200 starts shooting a moving image in response to a user operation, and transmits a shooting start signal to the audio output device 100.

一方、ステップM2において、音声出力装置100は、撮像装置200から撮影開始信号を受信したことに応じて、音楽ファイルの再生を開始する。
次に、ステップM3において、音声出力装置100は、再生中の音楽ファイルにおいて、曲の先頭を示すイベント情報を検出すると、そのイベント情報を撮像装置200に送信する。
ステップC3において、撮像装置200は、曲の先頭を示すイベント情報を受信し、撮影中の動画像のフレームに、受信したイベント情報に対応するイベントタグ(曲の先頭)を設定する。
On the other hand, in step M2, the audio output device 100 starts playing the music file in response to receiving the shooting start signal from the imaging device 200.
Next, in step M3, when the audio output device 100 detects event information indicating the beginning of a song in the music file being reproduced, the audio output device 100 transmits the event information to the imaging device 200.
In step C3, the imaging apparatus 200 receives event information indicating the beginning of a song, and sets an event tag (the beginning of the song) corresponding to the received event information in the frame of the moving image being shot.

次に、ステップM4において、音声出力装置100は、再生中の音楽ファイルにおける曲の変更を示すイベント情報を検出すると、そのイベント情報を撮像装置200に送信する。
ステップC4において、撮像装置200は、曲の変更を示すイベント情報を受信し、撮影中の動画像のフレームに、受信したイベント情報に対応するイベントタグ(曲の変更)を設定する。
Next, in step M4, when the audio output device 100 detects event information indicating a change in music in the music file being reproduced, the audio output device 100 transmits the event information to the imaging device 200.
In step C4, the imaging apparatus 200 receives event information indicating change of music, and sets an event tag (change of music) corresponding to the received event information in a frame of a moving image being shot.

次に、ステップM5において、音声出力装置100は、再生中の音楽ファイルにおけるテンポの変更を示すイベント情報を検出すると、そのイベント情報を撮像装置200に送信する。
ステップC5において、撮像装置200は、テンポの変更を示すイベント情報を受信し、撮影中の動画像のフレームに、受信したイベント情報に対応するイベントタグ(テンポの変更)を設定する。
Next, in step M5, when the audio output device 100 detects event information indicating a tempo change in the music file being reproduced, the audio output device 100 transmits the event information to the imaging device 200.
In step C5, the imaging apparatus 200 receives event information indicating a change in tempo, and sets an event tag (tempo change) corresponding to the received event information in a frame of a moving image being shot.

次に、ステップC6において、撮像装置200は、音声出力装置100に撮影終了信号を送信し、動画像の撮影を終了する。
ステップC6の後、撮像装置200は、動画モードを終了する。
ステップM6において、音声出力装置100は、撮像装置200から撮影終了信号を受信したことに応じて、音楽ファイルの再生を終了する。
ステップM6の後、音声出力装置100は、通信モードを終了する。
Next, in step C <b> 6, the imaging device 200 transmits a shooting end signal to the audio output device 100 and ends shooting of the moving image.
After step C6, the imaging apparatus 200 ends the moving image mode.
In step M6, the audio output device 100 ends the reproduction of the music file in response to receiving the shooting end signal from the imaging device 200.
After step M6, the audio output device 100 ends the communication mode.

次に、このような動作を行うための音声出力装置100及び撮像装置200の具体的な処理について説明する。
図9は、図4の機能的構成を有する図2の音声出力装置100が実行する音楽出力処理の流れを説明するフローチャートである。
音楽出力処理は、撮像装置200から撮影開始信号を受信したことを契機として開始される。
ステップS1において、音楽出力部142は、タイマtをゼロにセット(t=0)する。このタイマtの値は、撮像装置200から送信されるタイマf(後述)と比較され、撮像装置200との同期を取るために用いられる。
Next, specific processing of the audio output device 100 and the imaging device 200 for performing such operations will be described.
FIG. 9 is a flowchart for explaining the flow of music output processing executed by the audio output device 100 of FIG. 2 having the functional configuration of FIG.
The music output process is started when an imaging start signal is received from the imaging apparatus 200.
In step S1, the music output unit 142 sets a timer t to zero (t = 0). The value of the timer t is compared with a timer f (described later) transmitted from the imaging device 200 and used to synchronize with the imaging device 200.

ステップS2において、音楽出力部142は、音楽ファイルの再生終了が指示されたか否か(即ち、撮像装置200から撮影終了信号を受信したか否か)の判定を行う。
音楽ファイルの再生終了が指示された場合、ステップS2においてYESと判定されて、処理は終了となる。
これに対し、音楽ファイルの再生終了が指示されていない場合、ステップS2においてNOと判定されて、処理はステップS3に移行する。
ステップS3において、音楽出力部142は、再生中の音楽ファイルにおいて、曲の先頭を示すイベント情報が検出されたか否かの判定を行う。
In step S <b> 2, the music output unit 142 determines whether or not an instruction to end reproduction of the music file has been given (that is, whether or not a shooting end signal has been received from the imaging device 200).
If an instruction to end reproduction of the music file is given, it is determined YES in step S2, and the process ends.
On the other hand, if it is not instructed to end the reproduction of the music file, NO is determined in step S2, and the process proceeds to step S3.
In step S3, the music output unit 142 determines whether or not event information indicating the beginning of the song has been detected in the music file being played.

再生中の音楽ファイルにおいて、曲の先頭を示すイベント情報が検出された場合、ステップS3においてYESと判定されて、処理はステップS4に移行する。
これに対し、曲の先頭を示すイベント情報が検出されていない場合、ステップS3においてNOと判定されて、処理はステップS5に移行する。
ステップS4において、音楽出力部142は、イベント送信制御部143を介して曲の先頭を示すイベント情報を撮像装置200に送信する。
ステップS4の後、処理はステップS5に移行する。
If event information indicating the beginning of the song is detected in the music file being reproduced, YES is determined in step S3, and the process proceeds to step S4.
On the other hand, if event information indicating the beginning of the song has not been detected, NO is determined in step S3, and the process proceeds to step S5.
In step S <b> 4, the music output unit 142 transmits event information indicating the beginning of the song to the imaging apparatus 200 via the event transmission control unit 143.
After step S4, the process proceeds to step S5.

ステップS5において、音楽出力部142は、再生中の音楽ファイルにおいて、曲の変更を示すイベント情報が検出されたか否かの判定を行う。
再生中の音楽ファイルにおいて、曲の変更を示すイベント情報が検出された場合、ステップS5においてYESと判定されて、処理はステップS6に移行する。
これに対し、再生中の音楽ファイルにおいて、曲の変更を示すイベント情報が検出されていない場合、ステップS5においてNOと判定されて、処理はステップS7に移行する。
In step S5, the music output unit 142 determines whether or not event information indicating a song change has been detected in the music file being played back.
If event information indicating a change in music is detected in the music file being played back, YES is determined in step S5, and the process proceeds to step S6.
On the other hand, if event information indicating a change in music is not detected in the music file being played back, NO is determined in step S5, and the process proceeds to step S7.

ステップS6において、音楽出力部142は、イベント送信制御部143を介して曲の変更を示すイベント情報を撮像装置200に送信する。
ステップS6の後、処理はステップS7に移行する。
ステップS7において、音楽出力部142は、再生中の音楽ファイルにおいて、テンポの変更を示すイベント情報が検出されたか否かの判定を行う。
再生中の音楽ファイルにおいて、テンポの変更を示すイベント情報が検出された場合、ステップS7においてYESと判定されて、処理はステップS8に移行する。
これに対し、再生中の音楽ファイルにおいて、テンポの変更を示すイベント情報が検出されていない場合、ステップS7においてNOと判定されて、処理はステップS9に移行する。
In step S <b> 6, the music output unit 142 transmits event information indicating a song change to the imaging device 200 via the event transmission control unit 143.
After step S6, the process proceeds to step S7.
In step S7, the music output unit 142 determines whether event information indicating a change in tempo has been detected in the music file being played.
If event information indicating a tempo change is detected in the music file being played back, YES is determined in step S7, and the process proceeds to step S8.
On the other hand, if event information indicating a change in tempo is not detected in the music file being played back, NO is determined in step S7, and the process proceeds to step S9.

ステップS8において、音楽出力部142は、イベント送信制御部143を介してテンポの変更を示すイベント情報を撮像装置200に送信する。
ステップS8の後、処理はステップS9に移行する。
ステップS9において、音楽出力部142は、再生中の音楽ファイルにおいて、任意に設定された編集点を示すイベント情報が検出されたか否かの判定を行う。
再生中の音楽ファイルにおいて、任意に設定された編集点を示すイベント情報が検出された場合、ステップS9においてYESと判定されて、処理はステップS10に移行する。
In step S <b> 8, the music output unit 142 transmits event information indicating a change in tempo to the imaging apparatus 200 via the event transmission control unit 143.
After step S8, the process proceeds to step S9.
In step S9, the music output unit 142 determines whether event information indicating an arbitrarily set editing point has been detected in the music file being played back.
If event information indicating an arbitrarily set editing point is detected in the music file being played back, YES is determined in step S9, and the process proceeds to step S10.

これに対し、再生中の音楽ファイルにおいて、任意に設定された編集点を示すイベント情報が検出されていない場合、ステップS9においてNOと判定されて、処理はステップS11に移行する。
ステップS10において、音楽出力部142は、イベント送信制御部143を介して任意に設定された編集点を示すイベント情報を撮像装置200に送信する。
ステップS10の後、処理はステップS11に移行する。
ステップS11において、音楽出力部142は、タイマtの値をインクリメントする。
ステップS11の後、処理はステップS2に戻る。
On the other hand, if event information indicating an arbitrarily set editing point is not detected in the music file being played back, NO is determined in step S9, and the process proceeds to step S11.
In step S <b> 10, the music output unit 142 transmits event information indicating editing points arbitrarily set via the event transmission control unit 143 to the imaging apparatus 200.
After step S10, the process proceeds to step S11.
In step S11, the music output unit 142 increments the value of the timer t.
After step S11, the process returns to step S2.

次に、撮像装置200が実行する処理について説明する。
図10は、図5の機能的構成を有する図3の撮像装置200が実行する撮像処理の流れを説明するフローチャートである。
撮像処理は、ユーザにより入力部217に対して、動画像の撮影を実行するための操作がなされたことを契機として開始される。
ステップS21において、撮影信号送信制御部241は、音声出力装置100に撮影開始信号を送信する。
ステップS22において、動画データ生成部243は、動画像のデータを格納するファイルを作成する。
Next, processing executed by the imaging apparatus 200 will be described.
FIG. 10 is a flowchart for explaining the flow of imaging processing executed by the imaging apparatus 200 of FIG. 3 having the functional configuration of FIG.
The imaging process is started when the user performs an operation on the input unit 217 to execute moving image shooting.
In step S <b> 21, the shooting signal transmission control unit 241 transmits a shooting start signal to the audio output device 100.
In step S22, the moving image data generation unit 243 creates a file that stores moving image data.

ステップS23において、動画データ生成部243は、タイマfをゼロにセット(f=0)する。このタイマtの値は、音声出力装置100との同期を取るために、音声出力装置100に対して随時送信される。
ステップS24において、動画データ生成部243は、動画像の撮影を終了する操作が行われたか否かの判定を行う。
動画像の撮影を終了する操作が行われた場合、ステップS24においてYESと判定されて、処理はステップS35に移行する。
これに対し、動画像の撮影を終了する操作が行われていない場合、ステップS24においてNOと判定されて、処理はステップS25に移行する。
In step S23, the moving image data generation unit 243 sets the timer f to zero (f = 0). The value of the timer t is transmitted to the audio output device 100 as needed to synchronize with the audio output device 100.
In step S <b> 24, the moving image data generation unit 243 determines whether an operation for ending moving image shooting has been performed.
If an operation to end shooting of a moving image is performed, YES is determined in step S24, and the process proceeds to step S35.
On the other hand, if the operation for ending moving image shooting is not performed, NO is determined in step S24, and the process proceeds to step S25.

ステップS25において、動画データ生成部243は、撮像部216から入力される撮像画像のデータから動画像のフレームを作成する。ここで作成されたフレームは、順次記憶部219に記憶された動画像のファイルに格納される。
ステップS26において、動画データ生成部243は、イベント受信制御部242を介して曲の先頭を示すイベント情報を受信したか否かの判定を行う。
イベント受信制御部242を介して曲の先頭を示すイベント情報を受信した場合、ステップS26においてYESと判定されて、処理はステップS27に移行する。
これに対し、イベント受信制御部242を介して曲の先頭を示すイベント情報を受信していない場合、ステップS26においてNOと判定されて、処理はステップS28に移行する。
In step S <b> 25, the moving image data generation unit 243 creates a moving image frame from the captured image data input from the imaging unit 216. The frames created here are sequentially stored in a moving image file stored in the storage unit 219.
In step S <b> 26, the moving image data generation unit 243 determines whether event information indicating the beginning of a song has been received via the event reception control unit 242.
When event information indicating the beginning of a song is received via the event reception control unit 242, YES is determined in step S26, and the process proceeds to step S27.
On the other hand, if event information indicating the beginning of the song has not been received via the event reception control unit 242, it is determined NO in step S26, and the process proceeds to step S28.

ステップS27において、動画データ生成部243は、曲の先頭を示すイベントタグをフレームのヘッダに格納する。
ステップS27の後、処理はステップS28に移行する。
ステップS28において、動画データ生成部243は、イベント受信制御部242を介して曲の変更を示すイベント情報を受信したか否かの判定を行う。
イベント受信制御部242を介して曲の変更を示すイベント情報を受信した場合、ステップS28においてYESと判定されて、処理はステップS29に移行する。
これに対し、イベント受信制御部242を介して曲の変更を示すイベント情報を受信していない場合、ステップS28においてNOと判定されて、処理はステップS30に移行する。
In step S27, the moving image data generation unit 243 stores an event tag indicating the beginning of the song in the header of the frame.
After step S27, the process proceeds to step S28.
In step S <b> 28, the moving image data generation unit 243 determines whether or not event information indicating a song change has been received via the event reception control unit 242.
When event information indicating the change of music is received via the event reception control unit 242, YES is determined in step S28, and the process proceeds to step S29.
On the other hand, when event information indicating a change in music is not received via the event reception control unit 242, it is determined NO in step S28, and the process proceeds to step S30.

ステップS29において、動画データ生成部243は、曲の変更を示すイベントタグをフレームのヘッダに格納する。
ステップS29の後、処理はステップS30に移行する。
ステップS30において、動画データ生成部243は、イベント受信制御部242を介してテンポの変更を示すイベント情報を受信したか否かの判定を行う。
イベント受信制御部242を介してテンポの変更を示すイベント情報を受信した場合、ステップS30においてYESと判定されて、処理はステップS31に移行する。
これに対し、イベント受信制御部242を介してテンポの変更を示すイベント情報を受信していない場合、ステップS30においてNOと判定されて、処理はステップS32に移行する。
In step S29, the moving image data generation unit 243 stores an event tag indicating the change of music in the header of the frame.
After step S29, the process proceeds to step S30.
In step S <b> 30, the moving image data generation unit 243 determines whether event information indicating a change in tempo has been received via the event reception control unit 242.
If event information indicating a change in tempo is received via the event reception control unit 242, a determination of YES is made in step S30, and the process proceeds to step S31.
On the other hand, when event information indicating a change in tempo is not received via the event reception control unit 242, it is determined as NO in Step S30, and the process proceeds to Step S32.

ステップS31において、動画データ生成部243は、テンポの変更を示すイベントタグをフレームのヘッダに格納する。
ステップS31の後、処理はステップS32に移行する。
ステップS32において、動画データ生成部243は、イベント受信制御部242を介して任意に設定された編集点を示すイベント情報を受信したか否かの判定を行う。
イベント受信制御部242を介して任意に設定された編集点を示すイベント情報を受信した場合、ステップS32においてYESと判定されて、処理はステップS33に移行する。
これに対し、イベント受信制御部242を介して任意に設定された編集点を示すイベント情報を受信していない場合、ステップS32においてNOと判定されて、処理はステップS34に移行する。
In step S31, the moving image data generation unit 243 stores an event tag indicating a change in tempo in the header of the frame.
After step S31, the process proceeds to step S32.
In step S <b> 32, the moving image data generation unit 243 determines whether or not event information indicating an editing point arbitrarily set is received via the event reception control unit 242.
When event information indicating an arbitrarily set editing point is received via the event reception control unit 242, it is determined as YES in Step S32, and the process proceeds to Step S33.
On the other hand, when event information indicating an editing point arbitrarily set via the event reception control unit 242 is not received, it is determined as NO in Step S32, and the process proceeds to Step S34.

ステップS33において、動画データ生成部243は、任意に設定された編集点を示すイベントタグをフレームのヘッダに格納する。
ステップS33の後、処理はステップS34に移行する。
ステップS34において、動画データ生成部243は、タイマfをインクリメントする。
ステップS34の後、処理はステップS24に戻る。
In step S33, the moving image data generation unit 243 stores an event tag indicating an arbitrarily set editing point in the header of the frame.
After step S33, the process proceeds to step S34.
In step S34, the moving image data generation unit 243 increments the timer f.
After step S34, the process returns to step S24.

ステップS35において、動画データ生成部243は、動画像のデータを格納するファイルをクローズし、ファイルの作成を終了する。
ステップS36において、撮影信号送信制御部241は、撮影終了信号を音声出力装置100に送信する。
ステップS36の後、撮像処理は終了となる。
In step S35, the moving image data generation unit 243 closes the file that stores the moving image data, and ends the creation of the file.
In step S <b> 36, the shooting signal transmission control unit 241 transmits a shooting end signal to the audio output device 100.
After step S36, the imaging process ends.

以上のように、本実施形態における撮像装置200は、イベント受信制御部242と、動画データ生成部243と、を備える。
動画データ生成部243は、所定の音声(例えば音楽ファイルに含まれる音楽)と同期して動画を録画する。
イベント受信制御部242は、外部機器(例えば音声出力装置100)から出力される音声出力中の音声の編集箇所に関する編集情報(イベント情報)を取得する。
動画データ生成部243は、編集情報を録画されている動画と対応付けて記憶する。
このような構成により、曲をつないだりテンポを変えたりといった編集を行いスピーカやヘッドフォン等で出力された音声と同期して、音楽に合わせた踊り等の撮影を行う場合に、曲の変更やテンポの変更といった音声の編集箇所に関する編集情報を取得して、録画中の動画の録画動作を制御することで、動画再生時のタイミングに関する検索が容易になる。
即ち、本発明によれば、編集された音楽に合わせて撮影された動画において、音楽の種々の編集箇所に対応する部分の動画を容易に検索することが可能となる。
As described above, the imaging apparatus 200 according to the present embodiment includes the event reception control unit 242 and the moving image data generation unit 243.
The moving image data generation unit 243 records a moving image in synchronization with predetermined sound (for example, music included in a music file).
The event reception control unit 242 acquires editing information (event information) related to the edited portion of the sound being output from the external device (for example, the audio output device 100).
The moving image data generation unit 243 stores the editing information in association with the recorded moving image.
With this configuration, when editing songs such as connecting songs or changing the tempo, and shooting dances or other music in sync with the sound output from speakers or headphones, the song changes or tempo. By acquiring the editing information related to the edited portion of the audio such as the change of the video and controlling the recording operation of the moving image being recorded, it becomes easy to search for the timing at the time of moving image reproduction.
That is, according to the present invention, it is possible to easily search for moving images of portions corresponding to various editing portions of music in moving images shot in accordance with edited music.

また、動画データ生成部243は、音声出力されている音声を録音しながら前記動画を録画する。
このような構成により、映像と音声の一体感があり、臨場感にあふれる動画を得ることができる。
In addition, the moving image data generation unit 243 records the moving image while recording the sound that is output as sound.
With such a configuration, it is possible to obtain a moving image with a sense of unity between video and audio and a sense of realism.

また、動画データ生成部243は、編集情報をその取得されたタイミングで録画された動画のフレームの位置を示す情報として記録する。
このような構成により、音声の編集箇所に関する編集情報に基づいて動画の検索が可能となるので、動画再生時に、曲の切り換わる瞬間や曲のテンポが変わったタイミングに容易にジャンプできる。
In addition, the moving image data generation unit 243 records the editing information as information indicating the position of the frame of the moving image recorded at the acquired timing.
With such a configuration, it is possible to search for a moving image based on editing information related to the edited portion of the audio. Therefore, when reproducing a moving image, it is possible to easily jump to the moment when the song switches or when the tempo of the song changes.

また、音声出力される音声は、編集され記録されている音声データが再生された音声である。
このような構成により、事前に編集しておいた音声データを再生するだけで、音声の編集箇所に関する編集情報を取得して、録画中の動画に関連させて記録できる。
Also, the audio output is audio obtained by reproducing audio data that has been edited and recorded.
With such a configuration, it is possible to acquire editing information relating to the edited portion of the audio and record it in association with the moving image being recorded simply by reproducing the audio data that has been edited in advance.

また、本実施形態に係る撮像装置200は、撮影信号送信制御部241を備える。
撮影信号送信制御部241は、動画データ生成部243による録画の開始あるいは終了に応じて、外部機器(音声出力装置100)に音声出力の開始あるいは終了を制御させる。
このような構成により、撮像装置200側で録画の開始、終了を行うだけで、自動的に音楽再生の開始、終了を制御し、音声の編集箇所に関する編集情報を取得して、録画中の動画に関連させて記録できる。
In addition, the imaging apparatus 200 according to the present embodiment includes an imaging signal transmission control unit 241.
The shooting signal transmission control unit 241 controls the external device (the audio output device 100) to start or end the audio output in response to the start or end of the recording by the moving image data generation unit 243.
With such a configuration, simply by starting and ending recording on the imaging device 200 side, the start and end of music playback are automatically controlled, editing information relating to the audio editing location is acquired, and the video being recorded is recorded. Can be recorded in relation to

また、動画データ生成部243は、編集情報を録画されている動画(例えばフレームのヘッダ)に埋め込んで記録する。
このような構成により、1つの動画ファイルのみに全てのデータが記録されるので、データの管理が容易になる。
In addition, the moving image data generation unit 243 records the editing information embedded in the recorded moving image (for example, a frame header).
With such a configuration, since all data is recorded only in one moving image file, data management becomes easy.

また、本実施形態に係る音声出力装置100は、音楽出力部142と、イベント送信制御部143と、を備える。
音楽出力部142は、外部(撮像装置200)で録画される動画と同期して音声を出力する。
イベント送信制御部143は、出力される音声の編集箇所に関する編集情報を外部機器に対して出力する。
このような構成により、音声を出力する装置から動画を撮影する装置に対して音声の編集箇所を通知することができるため、動画を撮影する装置において、動画と対応付けて音声の編集箇所を記録することができる。
The audio output device 100 according to the present embodiment includes a music output unit 142 and an event transmission control unit 143.
The music output unit 142 outputs sound in synchronization with a moving image recorded externally (the imaging device 200).
The event transmission control unit 143 outputs editing information related to the edited portion of the output sound to the external device.
With such a configuration, a voice editing location can be notified from a device that outputs sound to a device that shoots a moving image. Therefore, in a device that shoots a moving image, the voice editing location is recorded in association with the video. can do.

[変形例]
上述の実施形態において、音声出力装置100は、複数の曲の連結、テンポの変更等の編集が施され、その編集点にイベント情報が対応付けられた音楽ファイルを再生するものとして説明した。
これに対し、リアルタイムに曲やテンポ等が変更される状況(例えばディスクジョッキーによる音楽パフォーマンス等)においても、本発明を適用することが可能である。
即ち、曲やテンポ等が変更される毎に、そのイベントに対応したイベント情報(編集点を示す情報)を音楽に対応付けて撮像装置200に送信することで、リアルタイムに変化される音楽においても、イベントタグを設定した動画像を撮影することが可能となる。
[Modification]
In the above-described embodiment, the audio output device 100 has been described as reproducing a music file in which editing such as connection of a plurality of songs and change of tempo is performed and event information is associated with the editing point.
On the other hand, the present invention can be applied even in a situation where a song, tempo, etc. are changed in real time (for example, music performance by a disc jockey).
That is, every time a song, tempo, or the like is changed, event information (information indicating editing points) corresponding to the event is transmitted to the imaging device 200 in association with the music, so that even in music that changes in real time. It is possible to shoot a moving image with an event tag set.

このように、本変形例に係る撮像装置200において、動画データ生成部243は、所定の音声と同期して動画を録画し、その音声は、リアルタイムで編集される音声データの音声であることとしてもよい。
このような構成により、クラブのDJのように臨機応変に音声出力の編集を行う場合であっても、音声の編集箇所に関する編集情報を取得して、録画中の動画に関連させて記録できる。
As described above, in the imaging apparatus 200 according to the present modification, the moving image data generation unit 243 records a moving image in synchronization with a predetermined sound, and the sound is sound of sound data edited in real time. Also good.
With such a configuration, even when audio output is edited flexibly as in the case of a club DJ, editing information relating to the audio editing location can be acquired and recorded in association with the video being recorded.

[第2実施形態]
次に、本発明の第2実施形態について説明する。
第1実施形態においては、撮像装置200が撮像処理を実行する場合、動画像のフレームにおけるヘッダにイベントタグを格納することとした。
即ち、撮像装置200によって生成される動画像のファイルは、動画像のデータとイベントタグとが一体となったファイルである。
一方、撮像装置200が撮像処理を実行する場合、動画像のデータとイベントタグとを別ファイルに記録することができる。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.
In the first embodiment, when the imaging apparatus 200 executes the imaging process, the event tag is stored in the header of the moving image frame.
That is, the moving image file generated by the imaging apparatus 200 is a file in which moving image data and an event tag are integrated.
On the other hand, when the imaging apparatus 200 executes an imaging process, moving image data and event tags can be recorded in separate files.

図11は、動画像のデータとは別ファイルに記録されたイベントタグを示す模式図である。
図11において、イベントタグを示す数字は、図6におけるイベントタグが示すイベントの種類と対応するものであり、図7に示すイベントタグを別ファイルとした例を示している。
図11に示すように、動画像のデータにおけるタイムスタンプ(先頭からの時間(時:分:秒))と、イベントタグとを対応付けて記録することで、動画像のデータを汎用性の高いものとできる。
FIG. 11 is a schematic diagram showing event tags recorded in a separate file from moving image data.
In FIG. 11, the numbers indicating the event tags correspond to the types of events indicated by the event tags in FIG. 6, and show an example in which the event tag shown in FIG. 7 is a separate file.
As shown in FIG. 11, the time stamp (time (hour: minute: second) from the beginning) in the moving image data and the event tag are recorded in association with each other, thereby making the moving image data highly versatile. I can do it.

このように、本実施形態における撮像装置200の動画データ生成部243は、編集情報を録画されている動画とは別ファイルとして記録する。
このような構成により、動画ファイルには手を加えないため、動画ファイルの汎用性を高いものとできる。
As described above, the moving image data generation unit 243 of the imaging apparatus 200 according to the present embodiment records the editing information as a separate file from the recorded moving image.
With this configuration, since the moving image file is not modified, the versatility of the moving image file can be increased.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

上述の実施形態では、撮像装置200から音声出力装置100に撮影開始信号及び撮影終了信号を送信し、音声出力装置100は、撮影開始信号を受信することに対応して音楽ファイルの再生を開始したり、撮影終了信号を受信することに対応して音楽ファイルの再生を終了したりすることとした。
これに対し、撮像装置200が、音声出力装置100から音楽ファイルの再生を開始したことを示す信号(再生開始信号)を受信することに対応して、動画像の撮影を開始したり、音楽ファイルの再生を終了したことを示す信号(再生終了信号)を受信することに対応して、動画像の撮影を終了したりすることとしてもよい。
即ち、撮像装置200における動画データ生成部243は、外部機器(音声出力装置100)における音声出力の開始あるいは終了に応じて、動画の録画の開始あるいは終了を制御する。
このような構成により、外部機器側で音声の開始、終了を行うだけで、自動的に録画の開始、終了を制御し、音声のタイミングに関連する情報を取得して、録画中の動画に関連させて記録できる。
また、上述の実施形態では、まず撮像装置200から音声出力装置100との間で同期を取り、その後に開始信号の送受信を行っているが、開始信号の送受信と同時に同期を取るようにしてもよい。
In the above-described embodiment, the imaging start signal and the shooting end signal are transmitted from the imaging device 200 to the audio output device 100, and the audio output device 100 starts playing the music file in response to receiving the shooting start signal. Or the playback of the music file is terminated in response to receiving the shooting end signal.
On the other hand, in response to receiving a signal (playback start signal) indicating that the image output device 100 has started playback of the music file from the audio output device 100, the imaging device 200 starts shooting a moving image, In response to receiving a signal (reproduction end signal) indicating that the reproduction of the video has been completed, the shooting of the moving image may be terminated.
In other words, the moving image data generation unit 243 in the imaging device 200 controls the start or end of moving image recording in accordance with the start or end of audio output in the external device (audio output device 100).
With such a configuration, simply start and end audio on the external device side, automatically control the start and end of recording, acquire information related to audio timing, and related to the video being recorded Can be recorded.
In the above-described embodiment, first, synchronization is performed between the imaging device 200 and the audio output device 100, and then transmission / reception of the start signal is performed. However, synchronization may be performed simultaneously with transmission / reception of the start signal. Good.

また、上述の実施形態において、音声出力装置100が、曲の先頭を示すイベント情報や曲の変更を示すイベント情報を検出した場合に、曲名やアーティスト名を取得して、取得した曲名やアーティスト名をイベント情報に含めて撮像装置200に送信することとしてもよい。
また、上述の実施形態では、音声出力装置100が出力する音声は音楽として説明しているが、これに限らず、ダンスの振り付けを指示する人物の声といったものであってもよい。
また、上述の実施形態では、動画撮影処理中にイベントタグの設定を行っているが、動画撮影中にイベントタグの種類とタイミングを一時記憶しておき、動画撮影が終わってからまとめてイベントタグの設定を行うようにしてもよい。
In the above-described embodiment, when the audio output device 100 detects event information indicating the beginning of a song or event information indicating change of a song, the song name or artist name is acquired, and the acquired song name or artist name is acquired. May be included in the event information and transmitted to the imaging apparatus 200.
In the above-described embodiment, the sound output from the sound output device 100 is described as music. However, the present invention is not limited to this, and may be a voice of a person who instructs dance choreography.
In the above-described embodiment, the event tag is set during the moving image shooting process. However, the type and timing of the event tag are temporarily stored during the moving image shooting, and the event tag is collectively collected after the moving image shooting ends. You may make it perform the setting of.

また、上述の実施形態において、音声出力装置100において、音楽の出力及びイベント情報の送信を共に行うこととして説明したが、これらを異なる装置によって行うこととしてもよい。例えば、ポータブル音楽プレーヤーによって音楽を出力し、その音楽に対応付けられたイベント情報を、ポータブル音楽プレーヤーと同期したPCやスマートフォン等の情報処理装置から、撮像装置200に送信することとしてもよい。   In the above-described embodiment, the audio output device 100 has been described as performing both music output and event information transmission, but these may be performed by different devices. For example, music may be output by a portable music player, and event information associated with the music may be transmitted to the imaging apparatus 200 from an information processing apparatus such as a PC or a smartphone synchronized with the portable music player.

また、上述の実施形態では、本発明が適用される音声出力装置100は、ポータブル音楽プレーヤーを例として説明したが、特にこれに限定されない。
例えば、本発明は、音楽出力機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム、DJ(DISK JOCKEY)機器等に適用可能である。
In the above-described embodiment, the audio output device 100 to which the present invention is applied has been described by taking a portable music player as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having a music output function. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a smartphone, a portable game, a DJ (DISK JOKKEY) device, and the like. It is.

また、上述の実施形態では、本発明が適用される撮像装置200は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、撮影機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the imaging apparatus 200 to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having a photographing function. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a smartphone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図4及び5の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が音声出力装置100あるいは撮像装置200に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図4及び5の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIGS. 4 and 5 is merely an example, and is not particularly limited. That is, it is sufficient that the audio output device 100 or the imaging device 200 has a function capable of executing the above-described series of processes as a whole. What functional blocks are used to realize this function are particularly shown in FIG. It is not limited to 5 examples.
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図2及び3のリムーバブルメディア131、231により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア131、231は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray Disc(ブルーレイディスク)(登録商標)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図2、3のROM112、212や、図2、3の記憶部118、219に含まれるハードディスク等で構成される。   A recording medium including such a program is not only configured by the removable media 131 and 231 of FIGS. 2 and 3 distributed separately from the apparatus main body in order to provide the program to the user, but is also preinstalled in the apparatus main body. It is composed of a recording medium provided to the user in a recorded state. The removable media 131 and 231 are configured by, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disc is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disc), a Blu-ray Disc (Blu-ray Disc) (registered trademark), and the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. The recording medium provided to the user in a state of being incorporated in the apparatus main body is included in, for example, the ROMs 112 and 212 in FIGS. 2 and 3 and the storage units 118 and 219 in FIGS. Hard disk etc.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the order, but is not necessarily performed in chronological order, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalents thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
所定の音声と同期して動画を撮影する動画撮影手段と、
前記所定の音声の所定箇所に関する外部機器から出力されるタイミング情報を取得するタイミング情報取得手段と、
前記タイミング情報取得手段によって取得された前記タイミング情報を、前記動画撮影手段によって撮影される動画と対応付けて記憶するタイミング情報記憶手段と、
を備えることを特徴とする撮像装置。
[付記2]
前記所定の音声は、前記外部機器から音声出力され、
前記動画撮影手段は、前記外部機器から音声出力されている音声を録音しながら前記動画を撮影することを特徴とする付記1に記載の撮像装置。
[付記3]
前記タイミング情報記憶手段は、前記タイミング情報を前記タイミング情報取得手段によって取得されたタイミングで撮影された前記動画のフレームの位置を示す情報として記録することを特徴とする付記1または2に記載の撮像装置。
[付記4]
前記所定の音声は、編集され記録されている音声データが再生された音声であることを特徴とする付記1から3のいずれか1つに記載の撮像装置。
[付記5]
前記動画撮影手段による撮影の開始あるいは終了に応じて、外部機器に音声出力の開始あるいは終了を制御させる音声出力制御手段を備えることを特徴とする付記4に記載の撮像装置。
[付記6]
前記所定の音声は、リアルタイムで編集される音声データの音声であることを特徴とする付記1から3のいずれか1つに記載の撮像装置。
[付記7]
前記動画撮影手段は、外部機器における音声出力の開始あるいは終了に応じて、前記動画の撮影の開始あるいは終了を制御することを特徴とする付記4または6に記載の撮像装置。
[付記8]
前記タイミング情報記憶手段は、前記タイミング情報取得手段によって取得された前記タイミング情報を、前記動画撮影手段によって撮影されている動画に埋め込んで記録することを特徴とする付記4または6に記載の撮像装置。
[付記9]
前記タイミング情報記憶手段は、前記タイミング情報取得手段によって取得された前記タイミング情報を、前記動画撮影手段によって撮影されている動画とは別ファイルとして記録することを特徴とする付記4または6に記載の撮像装置。
[付記10]
外部機器で撮影される動画と同期して音声を出力する音声出力手段と、
前記音声出力手段によって出力される音声の所定箇所に関するタイミング情報を前記外部機器に対して出力するタイミング情報出力手段と、
を備えることを特徴とする音声出力装置。
[付記11]
所定の音声と同期して動画を撮影する動画撮影ステップと、
前記所定の音声の所定箇所に関する外部機器から出力されるタイミング情報を取得するタイミング情報取得ステップと、
前記タイミング情報取得ステップにおいて取得された前記タイミング情報を、前記動画撮影ステップにおいて撮影される動画と対応付けて記憶するタイミング情報記憶ステップと、
を含むことを特徴とする撮像方法。
[付記12]
コンピュータを、
所定の音声と同期して動画を撮影する動画撮影手段と、
前記所定の音声の所定箇所に関する外部機器から出力されるタイミング情報を取得するタイミング情報取得手段と、
前記タイミング情報取得手段によって取得された前記タイミング情報を、前記動画撮影手段によって撮影される動画と対応付けて記憶するタイミング情報記憶手段と、
として機能させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
A video recording means for recording a video in synchronization with a predetermined sound;
Timing information acquisition means for acquiring timing information output from an external device relating to the predetermined location of the predetermined sound;
Timing information storage means for storing the timing information acquired by the timing information acquisition means in association with a moving image shot by the moving image shooting means;
An imaging apparatus comprising:
[Appendix 2]
The predetermined sound is output as sound from the external device,
The imaging apparatus according to appendix 1, wherein the moving image capturing unit captures the moving image while recording a sound output from the external device.
[Appendix 3]
The imaging according to appendix 1 or 2, wherein the timing information storage unit records the timing information as information indicating a position of a frame of the moving image shot at a timing acquired by the timing information acquisition unit. apparatus.
[Appendix 4]
The imaging apparatus according to any one of appendices 1 to 3, wherein the predetermined sound is a sound obtained by reproducing sound data that has been edited and recorded.
[Appendix 5]
The imaging apparatus according to appendix 4, further comprising: an audio output control unit that causes an external device to control the start or end of audio output in accordance with the start or end of shooting by the moving image shooting unit.
[Appendix 6]
The imaging apparatus according to any one of appendices 1 to 3, wherein the predetermined sound is a sound of sound data edited in real time.
[Appendix 7]
The imaging apparatus according to appendix 4 or 6, wherein the moving image shooting unit controls the start or end of shooting of the moving image according to the start or end of audio output in an external device.
[Appendix 8]
The imaging apparatus according to appendix 4 or 6, wherein the timing information storage unit records the timing information acquired by the timing information acquisition unit by being embedded in a moving image captured by the moving image capturing unit. .
[Appendix 9]
7. The appendix 4 or 6, wherein the timing information storage unit records the timing information acquired by the timing information acquisition unit as a separate file from the moving image shot by the moving image shooting unit. Imaging device.
[Appendix 10]
An audio output means for outputting audio in synchronization with a video shot by an external device;
Timing information output means for outputting timing information regarding a predetermined portion of the sound output by the sound output means to the external device;
An audio output device comprising:
[Appendix 11]
A video recording step for recording a video in synchronization with a predetermined sound;
A timing information acquisition step of acquiring timing information output from an external device relating to the predetermined location of the predetermined audio;
A timing information storage step for storing the timing information acquired in the timing information acquisition step in association with a moving image shot in the moving image shooting step;
An imaging method comprising:
[Appendix 12]
Computer
A video recording means for recording a video in synchronization with a predetermined sound;
Timing information acquisition means for acquiring timing information output from an external device relating to the predetermined location of the predetermined sound;
Timing information storage means for storing the timing information acquired by the timing information acquisition means in association with a moving image shot by the moving image shooting means;
A program characterized by functioning as

1・・・撮像システム、100・・・音声出力装置、200・・・撮像装置、111、211・・・CPU、112,212・・・ROM、113、213・・・RAM、114、214・・・バス、115、215・・・入出力インターフェース、216・・・撮像部、116、217・・・入力部、117、218・・・出力部、118、219・・・記憶部、119、221・・・電源制御部、120、220・・・通信部、121、222・・・ドライブ、131、231・・・リムーバブルメディア、141・・・撮影信号受信制御部、142・・・音楽出力部、143・・・イベント送信制御部、241・・・撮影信号送信制御部、242・・・イベント受信制御部、243・・・動画データ生成部   DESCRIPTION OF SYMBOLS 1 ... Imaging system, 100 ... Sound output device, 200 ... Imaging device, 111, 211 ... CPU, 112, 212 ... ROM, 113, 213 ... RAM, 114, 214 ..Bus, 115, 215 ... I / O interface, 216 ... Imaging unit, 116, 217 ... Input unit, 117, 218 ... Output unit, 118, 219 ... Storage unit, 119, 221: Power control unit, 120, 220 ... Communication unit, 121, 222 ... Drive, 131, 231 ... Removable media, 141 ... Shooting signal reception control unit, 142 ... Music output , 143 ... event transmission control unit, 241 ... shooting signal transmission control unit, 242 ... event reception control unit, 243 ... video data generation unit

Claims (15)

所定の音声と同期して動画を撮影する動画撮影手段と、
前記所定の音声の所定箇所に関する外部機器から出力されるタイミング情報を取得するタイミング情報取得手段と、
前記タイミング情報取得手段によって取得された前記タイミング情報を、前記動画撮影手段によって撮影される動画と対応付けて記憶するタイミング情報記憶手段と、
を備えることを特徴とする撮像装置。
A video recording means for recording a video in synchronization with a predetermined sound;
Timing information acquisition means for acquiring timing information output from an external device relating to the predetermined location of the predetermined sound;
Timing information storage means for storing the timing information acquired by the timing information acquisition means in association with a moving image shot by the moving image shooting means;
An imaging apparatus comprising:
前記所定の音声は、前記外部機器から音声出力され、
前記動画撮影手段は、前記外部機器から音声出力されている音声を録音しながら前記動画を撮影することを特徴とする請求項1に記載の撮像装置。
The predetermined sound is output as sound from the external device,
The imaging apparatus according to claim 1, wherein the moving image capturing unit captures the moving image while recording sound output from the external device.
外部機器から出力される所定の音声と並行して動画を撮影する動画撮影手段と、
前記所定の音声の所定箇所に関する前記外部機器から出力されるタイミング情報を取得するタイミング情報取得手段と、
前記タイミング情報取得手段によって取得された前記タイミング情報を、前記動画撮影手段によって撮影される動画と対応付けて記憶するタイミング情報記憶手段と、
を備えることを特徴とする撮像装置。
Movie shooting means for shooting a movie in parallel with a predetermined sound output from an external device,
Timing information acquisition means for acquiring timing information output from the external device relating to a predetermined location of the predetermined sound ;
Timing information storage means for storing the timing information acquired by the timing information acquisition means in association with a moving image shot by the moving image shooting means;
An imaging apparatus comprising:
前記動画撮影手段は、前記外部機器から音声出力されている音声を録音しながら前記動画を撮影することを特徴とする請求項3に記載の撮像装置。The imaging apparatus according to claim 3, wherein the moving image capturing unit captures the moving image while recording a sound output from the external device. 前記タイミング情報記憶手段は、前記タイミング情報を前記タイミング情報取得手段によって取得されたタイミングで撮影された前記動画のフレームの位置を示す情報として記録することを特徴とする請求項1から4のいずれか1項に記載の撮像装置。 5. The timing information storage unit records the timing information as information indicating a position of a frame of the moving image shot at a timing acquired by the timing information acquisition unit . The imaging apparatus according to item 1 . 前記所定の音声は、編集され記録されている音声データが再生された音声であることを特徴とする請求項1からのいずれか1項に記載の撮像装置。 It said predetermined audio, imaging device according to claim 1, wherein in any one of 5 the audio data recorded and edited is voice reproduced. 前記動画撮影手段による撮影の開始あるいは終了に応じて、外部機器に音声出力の開始あるいは終了を制御させる音声出力制御手段を備えることを特徴とする請求項に記載の撮像装置。 The imaging apparatus according to claim 6 , further comprising: an audio output control unit that causes an external device to control the start or end of audio output in accordance with the start or end of shooting by the moving image shooting unit. 前記所定の音声は、リアルタイムで編集される音声データの音声であることを特徴とする請求項1からのいずれか1項に記載の撮像装置。 Said predetermined audio, imaging device according to claim 1, wherein in any one of 5 to be a voice of voice data to be edited in real time. 前記動画撮影手段は、外部機器における音声出力の開始あるいは終了に応じて、前記動画の撮影の開始あるいは終了を制御することを特徴とする請求項またはに記載の撮像装置。 It said video recording means in response to the start or end of the audio output in the external apparatus, an imaging apparatus according to claim 6 or 8, wherein the controller controls the start or end of the photographing of the moving image. 前記タイミング情報記憶手段は、前記タイミング情報取得手段によって取得された前記タイミング情報を、前記動画撮影手段によって撮影されている動画に埋め込んで記録することを特徴とする請求項またはに記載の撮像装置。 The timing information storage means, image pickup of claim 6 or 8, characterized in that said timing information acquired by said timing information acquiring means, recorded embedded in video being captured by the video recording means apparatus. 前記タイミング情報記憶手段は、前記タイミング情報取得手段によって取得された前記タイミング情報を、前記動画撮影手段によって撮影されている動画とは別ファイルとして記録することを特徴とする請求項またはに記載の撮像装置。 The said timing information storage means records the said timing information acquired by the said timing information acquisition means as a file different from the moving image currently image | photographed by the said moving image imaging means, The Claim 6 or 8 characterized by the above-mentioned. Imaging device. 所定の音声と同期して動画を撮影する動画撮影処理と、
前記所定の音声の所定箇所に関する外部機器から出力されるタイミング情報を取得するタイミング情報取得処理と、
前記タイミング情報取得処理において取得された前記タイミング情報を、前記動画撮影処理において撮影される動画と対応付けて記憶するタイミング情報記憶処理と、
を含むことを特徴とする撮像方法。
A video shooting process for shooting a video in synchronization with a predetermined sound,
Timing information acquisition processing for acquiring timing information output from an external device relating to a predetermined portion of the predetermined sound;
A timing information storage process for storing the timing information acquired in the timing information acquisition process in association with a moving image shot in the moving image shooting process ;
An imaging method comprising:
外部機器から出力される所定の音声と並行して動画を撮影する動画撮影処理と、A video shooting process for shooting a video in parallel with a predetermined sound output from an external device;
前記所定の音声の所定箇所に関する前記外部機器から出力されるタイミング情報を取得するタイミング情報取得処理と、Timing information acquisition processing for acquiring timing information output from the external device relating to a predetermined location of the predetermined audio;
前記タイミング情報取得処理において取得された前記タイミング情報を、前記動画撮影処理において撮影される動画と対応付けて記憶するタイミング情報記憶処理と、A timing information storage process for storing the timing information acquired in the timing information acquisition process in association with a moving image shot in the moving image shooting process;
を含むことを特徴とする撮像方法。An imaging method comprising:
コンピュータ
所定の音声と同期して動画を撮影する動画撮影機能と、
前記所定の音声の所定箇所に関する外部機器から出力されるタイミング情報を取得するタイミング情報取得機能と、
前記タイミング情報取得機能によって取得された前記タイミング情報を、前記動画撮影機能によって撮影される動画と対応付けて記憶するタイミング情報記憶機能と、
を実現させるためのプログラム。
On the computer,
A video recording function for recording video in synchronization with a predetermined sound,
A timing information acquisition function for acquiring timing information output from an external device related to a predetermined location of the predetermined audio;
A timing information storage function for storing the timing information acquired by the timing information acquisition function in association with a moving image shot by the moving image shooting function ;
A program to realize
コンピュータに、
外部機器から出力される所定の音声と並行して動画を撮影する動画撮影機能と、
記所定の音声の所定箇所に関する前記外部機器から出力されるタイミング情報を取得するタイミング情報取得機能と、
前記タイミング情報取得機能によって取得された前記タイミング情報を、前記動画撮影機能によって撮影される動画と対応付けて記憶するタイミング情報記憶機能と、
を実現させるためのプログラム。
On the computer,
A video shooting function for shooting a video in parallel with a predetermined sound output from an external device;
And timing information acquisition function of acquiring the timing information output from the external device for a given position of the previous SL predetermined sound,
A timing information storage function for storing the timing information acquired by the timing information acquisition function in association with a moving image shot by the moving image shooting function;
A program to realize
JP2013158662A 2013-07-31 2013-07-31 Imaging apparatus, imaging method, and program Expired - Fee Related JP6229356B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013158662A JP6229356B2 (en) 2013-07-31 2013-07-31 Imaging apparatus, imaging method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013158662A JP6229356B2 (en) 2013-07-31 2013-07-31 Imaging apparatus, imaging method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017201584A Division JP2018038058A (en) 2017-10-18 2017-10-18 Sound output device, imaging system, sound output method, and program

Publications (2)

Publication Number Publication Date
JP2015032846A JP2015032846A (en) 2015-02-16
JP6229356B2 true JP6229356B2 (en) 2017-11-15

Family

ID=52517870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013158662A Expired - Fee Related JP6229356B2 (en) 2013-07-31 2013-07-31 Imaging apparatus, imaging method, and program

Country Status (1)

Country Link
JP (1) JP6229356B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108806560A (en) * 2018-06-27 2018-11-13 四川长虹电器股份有限公司 Screen singing display screen and sound field picture synchronization localization method
JP7051923B2 (en) 2020-03-18 2022-04-11 楽天グループ株式会社 Video generator, video generation method, video generator, playback device, video distribution device, and video system
JP7470726B2 (en) * 2022-03-17 2024-04-18 本田技研工業株式会社 Image processing device and image processing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2512853B2 (en) * 1992-07-31 1996-07-03 株式会社ケンウッド Digital recording / playback device recording method
JP2003037796A (en) * 2001-07-24 2003-02-07 Hitachi Ltd Information recording and reproducing device
JP4062724B2 (en) * 2002-05-27 2008-03-19 富士フイルム株式会社 Image recording apparatus and image recording method
JP2012100216A (en) * 2010-11-05 2012-05-24 Nikon Corp Camera and moving image capturing program

Also Published As

Publication number Publication date
JP2015032846A (en) 2015-02-16

Similar Documents

Publication Publication Date Title
JP4853932B2 (en) Imaging apparatus and program
JP2008148118A (en) Imaging apparatus and imaging method, reproducing apparatus and reproducing method, and program
JP2004201282A (en) Photographing device and photographing method
JP4993012B2 (en) Imaging apparatus and image processing apparatus
JP2012060218A5 (en)
JP2007159088A (en) Imaging apparatus and method of controlling same
JP6004475B2 (en) REPRODUCTION CONTROL DEVICE, REPRODUCTION CONTROL METHOD, AND PROGRAM
JP2012100216A (en) Camera and moving image capturing program
JP2011250340A (en) Imaging apparatus and control method of same
JP5741659B2 (en) Movie sorting device, movie sorting method and program
JP6229356B2 (en) Imaging apparatus, imaging method, and program
JP4804141B2 (en) Imaging device
JP4189556B2 (en) Moving image processing apparatus and program thereof
JP2018038058A (en) Sound output device, imaging system, sound output method, and program
JP6952584B2 (en) Imaging device, imaging method and imaging program
JP6427859B2 (en) Image processing apparatus, image processing method, and program
JP2011114347A (en) Photographing apparatus, and photographing apparatus system
JP2019096950A5 (en)
JP2007235432A (en) Image sound recorder and image sound recording control program
JP2004088518A (en) Imaging/recording apparatus, image reproducing apparatus, and image recording/reproducing control program
JP2003283987A (en) Digital camera
JP5500188B2 (en) Imaging device
JP2005218126A (en) Photographing device and photographing method
JP2006314136A (en) Photographic device and photographing method
JP2010239363A (en) Moving image processing device, moving image reproduction method, moving image recording method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171002

R150 Certificate of patent or registration of utility model

Ref document number: 6229356

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees