JP7451999B2 - Recording device, video system, recording method, and program - Google Patents

Recording device, video system, recording method, and program Download PDF

Info

Publication number
JP7451999B2
JP7451999B2 JP2019233075A JP2019233075A JP7451999B2 JP 7451999 B2 JP7451999 B2 JP 7451999B2 JP 2019233075 A JP2019233075 A JP 2019233075A JP 2019233075 A JP2019233075 A JP 2019233075A JP 7451999 B2 JP7451999 B2 JP 7451999B2
Authority
JP
Japan
Prior art keywords
song
information
data
recorded data
playback
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019233075A
Other languages
Japanese (ja)
Other versions
JP2021101525A (en
JP2021101525A5 (en
Inventor
徹 海和
将史 植本
政樹 武井
亜希 濱田
宏充 浅香
美紗 鈴木
美陽 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2019233075A priority Critical patent/JP7451999B2/en
Publication of JP2021101525A publication Critical patent/JP2021101525A/en
Publication of JP2021101525A5 publication Critical patent/JP2021101525A5/ja
Application granted granted Critical
Publication of JP7451999B2 publication Critical patent/JP7451999B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は録画装置、動画システム、録画方法、及びプログラムに関する。 The present invention relates to a recording device, a moving image system, a recording method, and a program.

ドライブレコーダに関する機能についての様々な研究開発が行なわれている。例えば、特許文献1は、ドライブ映像を要約したダイジェスト映像に対し、車両の走行速度に応じたテンポのBGM(background music)を付加する技術について開示している。 Various research and developments are being conducted on functions related to drive recorders. For example, Patent Document 1 discloses a technique for adding BGM (background music) with a tempo that corresponds to the traveling speed of a vehicle to a digest video summarizing a drive video.

また、近年、ドライブレコーダを事故の記録のためだけでなく、ドライブ映像を楽しむためにも利用したいというニーズがある。なお、カメラにより撮影された画像を楽しむための技術として、例えば、特許文献2に記載された技術がある。この技術では、画像記録装置が、カーステレオから流れている楽曲をマイクにより検出し、当該楽曲の楽曲データを取得し、この楽曲データと画像データとを対応付けている。このようにすることで、撮影時に流れていた楽曲を撮影画像に対応付けることができる。このため、当該技術によれば、撮影当時の雰囲気を思い出しながら撮影画像を再生することができる電子アルバムを提供することができる。 Furthermore, in recent years, there has been a need to use drive recorders not only for recording accidents but also for enjoying driving images. Note that, as a technique for enjoying images taken by a camera, there is a technique described in Patent Document 2, for example. In this technology, an image recording device uses a microphone to detect music playing from a car stereo, acquires music data of the music, and associates this music data with image data. By doing this, the music that was being played at the time of photography can be associated with the photographed image. Therefore, according to this technique, it is possible to provide an electronic album that allows the user to play back photographed images while remembering the atmosphere at the time of photography.

特開2016-167771号公報Japanese Patent Application Publication No. 2016-167771 特開2006-109151号公報Japanese Patent Application Publication No. 2006-109151

上述したとおり、近年、録画されたドライブ映像を楽しみたいというニーズがある。このため、そのようなニーズに応える様々な技術の提供が求められている。特に、車両のカメラの映像を楽しむ視聴についての利便性を向上する技術の提供が求められている。 As mentioned above, in recent years, there has been a need to enjoy recorded drive videos. Therefore, there is a need to provide various technologies that meet such needs. In particular, there is a need to provide technology that improves the convenience of viewing and enjoying images from a vehicle's camera.

本開示の目的は、車両のカメラの映像を楽しむ視聴についての利便性を向上することができる録画装置、動画システム、録画方法、及びプログラムを提供することにある。 An object of the present disclosure is to provide a recording device, a video system, a recording method, and a program that can improve the convenience of viewing and enjoying videos from a vehicle camera.

第1の態様にかかる録画装置は、
車内又は車外の動画を撮影するカメラと、
前記カメラの撮影中の前記車内の音を取得するマイクと、
前記マイクによって取得された音のオーディオデータから、前記カメラの撮影中に歌われた曲の曲情報と、当該曲の動画内における開始タイミングと終了タイミングとを取得する曲情報取得部と、
前記曲情報と、前記開始タイミングと、前記終了タイミングとを前記カメラにより撮影された動画の映像データに付加した録画データを生成する録画データ生成部と
を有する。
The recording device according to the first aspect includes:
A camera that takes videos inside or outside the vehicle,
a microphone that captures sounds inside the car while the camera is shooting;
a song information acquisition unit that acquires song information of a song sung during shooting with the camera, and a start timing and an end timing of the song in a video from audio data of a sound acquired by the microphone;
and a recorded data generation unit that generates recorded data in which the song information, the start timing, and the end timing are added to video data of a moving image shot by the camera.

第2の態様にかかる動画システムは、
録画データを生成する録画装置と、
前記録画データを前記録画装置から取得して前記録画データを再生する再生装置と
を備え、
前記録画装置は、
車内又は車外の動画を撮影するカメラと、
前記カメラの撮影中の前記車内の音を取得するマイクと、
前記マイクによって取得された音のオーディオデータから、前記カメラの撮影中に歌われた曲の曲情報と、当該曲の動画内における開始タイミングと終了タイミングとを取得する曲情報取得部と、
前記曲情報と、前記開始タイミングと、前記終了タイミングとを前記カメラにより撮影された動画の映像データに付加した録画データを生成する録画データ生成部と
を有し、
前記再生装置は、
前記録画データを再生する際、前記開始タイミングから前記終了タイミングまでの区間の再生中、前記曲情報に基づいて曲を出力するよう制御する再生制御部を有する。
The video system according to the second aspect includes:
a recording device that generates recorded data;
a playback device that acquires the recorded data from the recording device and plays the recorded data;
The recording device is
A camera that takes videos inside or outside the vehicle,
a microphone that captures sounds inside the car while the camera is shooting;
a song information acquisition unit that acquires song information of a song sung during shooting with the camera, and a start timing and an end timing of the song in a video from audio data of a sound acquired by the microphone;
a recorded data generation unit that generates recorded data in which the song information, the start timing, and the end timing are added to video data of a moving image shot by the camera;
The playback device includes:
When reproducing the recorded data, the apparatus includes a reproduction control section that controls to output a song based on the song information during reproduction of the section from the start timing to the end timing.

第3の態様にかかる録画方法では、
車内又は車外の動画を撮影するカメラの撮影中の前記車内の音を取得するマイクによって取得された音のオーディオデータから、前記カメラの撮影中に歌われた曲の曲情報と、当該曲の動画内における開始タイミングと終了タイミングとを取得し、
前記曲情報と、前記開始タイミングと、前記終了タイミングとを前記カメラにより撮影された動画の映像データに付加した録画データを生成する。
In the recording method according to the third aspect,
From the audio data of the sound acquired by the microphone that acquires the sound inside the car while the camera that takes video inside or outside the car is recording, the song information of the song sung while the camera is recording, and the video of the song. Obtain the start timing and end timing within
Recording data is generated by adding the song information, the start timing, and the end timing to video data of a moving image shot by the camera.

第4の態様にかかるプログラムは、
車内又は車外の動画を撮影するカメラの撮影中の前記車内の音を取得するマイクによって取得された音のオーディオデータから、前記カメラの撮影中に歌われた曲の曲情報と、当該曲の動画内における開始タイミングと終了タイミングとを取得する曲情報取得ステップと、
前記曲情報と、前記開始タイミングと、前記終了タイミングとを前記カメラにより撮影された動画の映像データに付加した録画データを生成する録画データ生成ステップと
をコンピュータに実行させる。
The program according to the fourth aspect is
From the audio data of the sound acquired by the microphone that acquires the sound inside the car while the camera that takes video inside or outside the car is recording, the song information of the song sung while the camera is recording, and the video of the song. a song information acquisition step of acquiring a start timing and an end timing within the song;
A computer is caused to execute a recorded data generation step of generating recorded data in which the song information, the start timing, and the end timing are added to video data of a moving image shot by the camera.

本発明によれば、車両のカメラの映像を楽しむ視聴についての利便性を向上することができる録画装置、動画システム、録画方法、及びプログラムを提供することができる。 According to the present invention, it is possible to provide a recording device, a video system, a recording method, and a program that can improve the convenience of viewing and enjoying videos from a vehicle camera.

実施の形態にかかる動画システムの構成の一例を示す模式図である。1 is a schematic diagram showing an example of the configuration of a video system according to an embodiment. 実施の形態にかかる録画装置のハードウェア構成の一例を示すブロック図である。1 is a block diagram showing an example of a hardware configuration of a recording device according to an embodiment. FIG. 実施の形態にかかる再生装置のハードウェア構成の一例を示すブロック図である。1 is a block diagram showing an example of a hardware configuration of a playback device according to an embodiment. FIG. 実施の形態にかかる録画装置の機能構成の一例を示すブロック図である。1 is a block diagram showing an example of a functional configuration of a recording device according to an embodiment. FIG. 実施の形態にかかる再生装置の機能構成の一例を示すブロック図である。1 is a block diagram showing an example of a functional configuration of a playback device according to an embodiment. FIG. 実施の形態にかかる録画装置によるタグ情報の設定動作の一例を示すフローチャートである。7 is a flowchart illustrating an example of a tag information setting operation performed by the recording device according to the embodiment. 録画データに設定されるタグ情報を示す模式図である。FIG. 3 is a schematic diagram showing tag information set in recorded data. 実施の形態にかかる再生装置による再生動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of a playback operation by the playback device according to the embodiment. 実施の形態にかかる再生装置の機能構成の一例を示すブロック図である。1 is a block diagram showing an example of a functional configuration of a playback device according to an embodiment. FIG. 実施の形態にかかる録画装置による曲情報に関するタグ情報の設定動作の一例を示すフローチャートである。7 is a flowchart illustrating an example of an operation of setting tag information regarding song information by the recording device according to the embodiment. ユーザによる曲情報の設定処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of a process for setting music information by a user. 出力する曲の決定についての処理の流れの一例を示すフローチャートである。12 is a flowchart illustrating an example of a process flow for determining a song to output. 実施の形態にかかる録画装置のハードウェア構成の一例を示すブロック図である。1 is a block diagram showing an example of a hardware configuration of a recording device according to an embodiment. FIG. 曲が歌われた区間の録画データを他の記憶装置に移動する処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process of moving the recorded data of the section in which a song was sung to another storage device. 実施の形態にかかる再生装置のハードウェア構成の一例を示すブロック図である。1 is a block diagram showing an example of a hardware configuration of a playback device according to an embodiment. FIG. 実施の形態にかかる再生装置の機能構成の一例を示すブロック図である。1 is a block diagram showing an example of a functional configuration of a playback device according to an embodiment. FIG. 録画データの再生開始位置について示す模式図である。FIG. 3 is a schematic diagram showing a playback start position of recorded data. 録画データの再生開始位置について示す模式図である。FIG. 3 is a schematic diagram showing a playback start position of recorded data. 録画データの再生開始位置の決定動作の流れの一例を示すフローチャートである。12 is a flowchart illustrating an example of the flow of an operation for determining a playback start position of recorded data. 実施の形態にかかる録画装置の機能構成の一例を示すブロック図である。1 is a block diagram showing an example of a functional configuration of a recording device according to an embodiment. FIG. 実施の形態にかかる録画装置によるタグ情報の設定動作の一例を示すフローチャートである。7 is a flowchart illustrating an example of a tag information setting operation performed by the recording device according to the embodiment.

以下、実施の形態について、図面を参照しながら説明する。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。 Embodiments will be described below with reference to the drawings. For clarity of explanation, the following description and drawings are omitted and simplified as appropriate.

<実施の形態1>
図1は、実施の形態1にかかる動画システム1の構成の一例を示す模式図である。動画システム1は、録画データを生成する録画装置10と、録画データを録画装置10から取得して録画データを再生する再生装置20とを含む。なお、再生装置20は、有線又は無線の通信により、録画装置10から直接的に録画データを取得してもよいし、録画装置10から他の装置等を介して録画データを取得してもよい。
<Embodiment 1>
FIG. 1 is a schematic diagram showing an example of the configuration of a video system 1 according to the first embodiment. The video system 1 includes a recording device 10 that generates recorded data, and a playback device 20 that acquires recorded data from the recording device 10 and plays back the recorded data. Note that the playback device 20 may acquire recorded data directly from the recording device 10 through wired or wireless communication, or may acquire recorded data from the recording device 10 via another device or the like. .

以下、録画装置10及び再生装置20について具体的に説明する。図2は、録画装置10のハードウェア構成の一例を示すブロック図である。また、図3は、再生装置20のハードウェア構成の一例を示すブロック図である。また、図4は、録画装置10の機能構成の一例を示すブロック図である。そして、図5は、再生装置20の機能構成の一例を示すブロック図である。 The recording device 10 and the playback device 20 will be specifically explained below. FIG. 2 is a block diagram showing an example of the hardware configuration of the recording device 10. As shown in FIG. Further, FIG. 3 is a block diagram showing an example of the hardware configuration of the playback device 20. As shown in FIG. Further, FIG. 4 is a block diagram showing an example of the functional configuration of the recording device 10. As shown in FIG. FIG. 5 is a block diagram showing an example of the functional configuration of the playback device 20.

録画装置10は、4輪自動車などの車両に設けられる装置であり、いわゆるドライブレコーダである。図2に示すように、録画装置10は、カメラ11、マイク12、ネットワークインタフェース13、記憶装置14、及びプロセッサ15を含む。 The recording device 10 is a device installed in a vehicle such as a four-wheeled vehicle, and is a so-called drive recorder. As shown in FIG. 2, the recording device 10 includes a camera 11, a microphone 12, a network interface 13, a storage device 14, and a processor 15.

カメラ11は、デジタルカメラであり、録画装置10が搭載されている車両の車内又は車外の動画を撮影する。マイク12は、車内の音を集音する装置であり、カメラ11の撮影中の車内の音を取得する。 The camera 11 is a digital camera, and takes a video of the inside or outside of the vehicle in which the recording device 10 is mounted. The microphone 12 is a device that collects sounds inside the car, and acquires the sounds inside the car while the camera 11 is photographing.

ネットワークインタフェース13は、他の装置と通信するために使用される。なお、他の装置とは、例えば、録画装置10の処理の一部を代行するサーバであってもよいし、録画データを受信する再生装置20であってもよい。ネットワークインタフェース13は、例えば、ネットワークインタフェースカード(NIC)を含んでもよい。 Network interface 13 is used to communicate with other devices. Note that the other device may be, for example, a server that performs part of the processing of the recording device 10, or may be the playback device 20 that receives recorded data. Network interface 13 may include, for example, a network interface card (NIC).

記憶装置14は、揮発性メモリ及び不揮発性メモリのいずれか若しくは両方を備えたメモリ群と、HDD(Hard Disk Drive)またはSSD(Solid State Drive)などの内部ストレージとを含む。なお、本実施の形態では、メモリと内部ストレージとをまとめて、記憶装置14と称すが、メモリと内部ストレージは、一つの装置として録画装置10に内蔵されていなくてもよく、別々の装置として録画装置10に内蔵されていてもよい。 The storage device 14 includes a memory group including one or both of volatile memory and nonvolatile memory, and internal storage such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive). Note that in this embodiment, the memory and internal storage are collectively referred to as the storage device 14, but the memory and internal storage do not need to be built into the recording device 10 as a single device, but may be installed as separate devices. It may be built into the recording device 10.

内部ストレージは、例えば、録画データや、録画装置10の処理に必要な各種データなどを格納するために用いられる。メモリは、例えば、プロセッサ15により実行される、1以上の命令を含むソフトウェア(コンピュータプログラム)などを格納するために使用される。 The internal storage is used to store, for example, recorded data and various data necessary for processing of the recording device 10. The memory is used to store, for example, software (computer program) that is executed by the processor 15 and includes one or more instructions.

このプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、Compact Disc Read Only Memory(CD-ROM)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、Programmable ROM(PROM)、Erasable PROM(EPROM)、フラッシュROM、Random Access Memory(RAM))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 The program can be stored and provided to a computer using various types of non-transitory computer readable media. Non-transitory computer-readable media includes various types of tangible storage media. Examples of non-transitory computer-readable media are magnetic recording media (e.g., flexible disks, magnetic tape, hard disk drives), magneto-optical recording media (e.g., magneto-optical disks), Compact Disc Read Only Memory (CD-ROM), CD- R, CD-R/W, semiconductor memory (e.g., mask ROM, programmable ROM (PROM), erasable PROM (EPROM), flash ROM, random access memory (RAM)). The program may also be supplied to the computer on various types of transitory computer readable media. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can provide the program to the computer via wired communication channels, such as electrical wires and optical fibers, or wireless communication channels.

プロセッサ15は、メモリからソフトウェア(コンピュータプログラム)を読み出して実行することで、例えば、図4に示す構成要素の処理を行う。すなわち、図4に示す曲情報取得部100、録画データ生成部101、及び記憶制御部102の各処理は、プログラムの実行により実現されてもよい。このように、録画装置10は、コンピュータとしての機能を備えている。プロセッサ15は、例えば、マイクロプロセッサ、MPU(Micro Processor Unit)、又はCPU(Central Processing Unit)などであってもよい。プロセッサ15は、複数のプロセッサを含んでもよい。 The processor 15 performs processing of the components shown in FIG. 4, for example, by reading software (computer program) from the memory and executing it. That is, each process of the music information acquisition section 100, the recorded data generation section 101, and the storage control section 102 shown in FIG. 4 may be realized by executing a program. In this way, the recording device 10 has the function of a computer. The processor 15 may be, for example, a microprocessor, an MPU (Micro Processor Unit), or a CPU (Central Processing Unit). Processor 15 may include multiple processors.

再生装置20は、録画装置10により記録された録画データを再生する装置であり、具体的には、例えば、スマートフォン、タブレット端末、PC(Personal Computer)等である。再生装置20は、図3に示すように、録画データの映像を表示するディスプレイ21と、録画データの音声を出力するスピーカ22とを有する。また、録画装置10は、さらに、入力装置23、ネットワークインタフェース24、記憶装置25、及びプロセッサ26も含む。 The playback device 20 is a device that plays back recorded data recorded by the recording device 10, and specifically, is, for example, a smartphone, a tablet terminal, a PC (Personal Computer), or the like. As shown in FIG. 3, the playback device 20 includes a display 21 that displays video of recorded data, and a speaker 22 that outputs audio of recorded data. The recording device 10 further includes an input device 23, a network interface 24, a storage device 25, and a processor 26.

入力装置23は、再生装置20を利用するユーザの操作入力を受け付ける装置であり、例えば、ポインティングデバイスなどである。
ネットワークインタフェース24は、録画データを送信する録画装置10などの他の装置と通信するために使用される。ネットワークインタフェース24は、例えば、ネットワークインタフェースカード(NIC)を含んでもよい。
The input device 23 is a device that receives operation input from a user who uses the playback device 20, and is, for example, a pointing device.
Network interface 24 is used to communicate with other devices such as recording device 10 that transmits recorded data. Network interface 24 may include, for example, a network interface card (NIC).

記憶装置25は、録画装置10における記憶装置14と同様、メモリ群と内部ストレージを含む。内部ストレージは、例えば、録画装置10から取得した録画データや、再生装置20の処理に必要な各種データなどを格納するために用いられる。メモリは、例えば、プロセッサ26により実行される、1以上の命令を含むソフトウェア(コンピュータプログラム)などを格納するために使用される。このプログラムも、様々なタイプの非一時的なコンピュータ可読媒体を用いてコンピュータに供給されうるし、様々なタイプの一時的なコンピュータ可読媒体によってコンピュータに供給されうる。 The storage device 25, like the storage device 14 in the recording device 10, includes a memory group and internal storage. The internal storage is used, for example, to store recorded data acquired from the recording device 10 and various data necessary for processing by the playback device 20. The memory is used, for example, to store software (computer programs) including one or more instructions that are executed by the processor 26. The program may also be provided to the computer using various types of non-transitory computer readable media, and may be provided to the computer by various types of temporary computer readable media.

プロセッサ26は、メモリからソフトウェア(コンピュータプログラム)を読み出して実行することで、例えば、図5に示す構成要素の処理を行う。すなわち、図5に示す再生制御部200、指示受付部201、及び曲データ取得部202の各処理は、プログラムの実行により実現されてもよい。このように、再生装置20も、コンピュータとしての機能を備えている。プロセッサ26は、例えば、マイクロプロセッサ、MPU、又はCPUなどであってもよい。プロセッサ26は、複数のプロセッサを含んでもよい。 The processor 26 reads software (computer program) from the memory and executes it, thereby processing the components shown in FIG. 5, for example. That is, each process of the reproduction control section 200, the instruction reception section 201, and the music data acquisition section 202 shown in FIG. 5 may be realized by executing a program. In this way, the playback device 20 also has the function of a computer. Processor 26 may be, for example, a microprocessor, MPU, or CPU. Processor 26 may include multiple processors.

次に、録画装置10の機能構成について、説明する。図4に示すように、録画装置10は、曲情報取得部100と、録画データ生成部101と、記憶制御部102とを有する。録画装置10は、ドライブ中などの際にユーザが曲を歌った場合に、この曲の曲情報を取得し、この曲情報をカメラ11の映像データと関連づける。このとき、映像データにおけるどの時点からどの時点までが実際にユーザが歌っていた期間であるのかを特定して、映像データと曲情報とを対応付ける。なお、鼻歌などのように、歌詞を伴わずに曲のメロディを歌った場合の曲情報が取得されてもよいし、歌詞を歌った場合の曲情報が取得されてもよい。 Next, the functional configuration of the recording device 10 will be explained. As shown in FIG. 4, the recording device 10 includes a song information acquisition section 100, a recorded data generation section 101, and a storage control section 102. When the user sings a song while driving or the like, the recording device 10 acquires the song information of the song and associates this song information with the video data of the camera 11. At this time, it is specified from which point in the video data to which point in time the user was actually singing, and the video data is associated with the song information. Note that song information may be obtained when the melody of a song is sung without lyrics, such as humming, or song information may be obtained when the lyrics are sung.

曲情報取得部100は、マイク12によって取得された音のオーディオデータから、カメラ11の撮影中に歌われた曲の曲情報と、当該曲の動画内における開始タイミングと終了タイミングとを取得する。ここで、曲情報とは、曲の識別情報である。すなわち、曲を一意に特定するため情報である。また、曲情報取得部100は、開始タイミングにおいてマイク12により取得された曲の一部分について、当該曲の全体における位置を特定する位置情報をさらに取得してもよい。すなわち、曲情報取得部100は、ある曲が歌われた場合、その歌い出しが、当該曲のどこからであるか(例えば、曲の冒頭からなのか、サビからなのか、2番からなのかなど)を特定する位置情報を取得する。例えば、この位置情報は、曲の開始から経過時間を示す時間情報である。 The song information acquisition unit 100 acquires, from the audio data of the sound acquired by the microphone 12, the song information of the song sung during the shooting with the camera 11, and the start timing and end timing of the song in the video. Here, the song information is song identification information. In other words, it is information for uniquely identifying a song. Further, the song information acquisition unit 100 may further acquire position information for specifying the position in the entire song for a portion of the song acquired by the microphone 12 at the start timing. That is, when a certain song is sung, the song information acquisition unit 100 determines where in the song the song begins (for example, from the beginning of the song, from the chorus, from the second verse, etc.) ) to obtain location information that identifies the location. For example, this position information is time information indicating the elapsed time from the start of the song.

曲情報取得部100は、具体的には、例えば次のようにして、これらを取得する。曲情報取得部100は、マイク12によって取得された音のオーディオデータを継続的に監視し、ユーザの音声が検出されたか否かを判定する。音声が検出されると、曲情報取得部100は、検出した音声のオーディオデータのバッファへの蓄積を開始する。所定の単位時間分のオーディオデータが蓄積されると、この単位時間分のオーディオデータに対して、曲情報の解析を行なう。本実施の形態では、この解析処理は、例えば、録画装置10と通信可能に接続されたサーバにより行なわれる。なお、このサーバは、例えば、サーバのメモリに記憶されたプログラムをサーバのプロセッサが実行することにより解析処理を行なう。 Specifically, the song information acquisition unit 100 acquires these in the following manner, for example. The song information acquisition unit 100 continuously monitors the audio data of the sound acquired by the microphone 12, and determines whether the user's voice is detected. When a voice is detected, the song information acquisition unit 100 starts accumulating audio data of the detected voice in a buffer. When audio data for a predetermined unit time is accumulated, song information is analyzed for the audio data for a predetermined unit time. In this embodiment, this analysis process is performed by, for example, a server communicably connected to the recording device 10. Note that this server performs analysis processing by, for example, having a processor of the server execute a program stored in a memory of the server.

曲情報取得部100は、単位時間分のオーディオデータをサーバに送信する。このサーバは、音声から曲を検索するハミング検索などの公知の楽曲検索技術を用いて、受信したオーディオデータの音楽特徴量と類似する音楽特徴量を有する曲を、楽曲毎の音楽特徴量を格納した楽曲データベースを参照して検索する。曲情報取得部100は、サーバから、解析対象のオーディオデータとの類似度が所定の閾値(第1の閾値)を超える曲の曲情報を取得する。後述する録画データ生成部101は、この第1の閾値を超える曲の曲情報を映像データに付加する。なお、第1の閾値を超える曲の曲情報として、複数の曲の曲情報が取得された場合、すなわち、カメラ11の撮影中に歌われた1つの曲の曲情報として複数の候補を取得した場合、録画データ生成部101は、類似度が一番高い曲の曲情報を映像データに付加する。ただし、録画データ生成部101は、いずれかを選ばず、後述するように、これら複数の曲の曲情報を候補リストとして映像データに付加してもよい。 The song information acquisition unit 100 transmits audio data for a unit time to the server. This server uses known song search technology such as humming search, which searches for songs from audio, to search for songs that have similar music features to the music features of the received audio data, and stores the music features for each song. Search by referring to the song database. The song information acquisition unit 100 acquires, from the server, song information of songs whose similarity to the audio data to be analyzed exceeds a predetermined threshold (first threshold). The recorded data generation unit 101, which will be described later, adds song information of songs that exceed this first threshold to the video data. Note that if the song information of multiple songs is acquired as the song information of the song exceeding the first threshold, that is, if multiple candidates are acquired as the song information of one song sung while the camera 11 is shooting. In this case, the recorded data generation unit 101 adds the song information of the song with the highest degree of similarity to the video data. However, the recorded data generation unit 101 may add song information of these plural songs as a candidate list to the video data, as described later, without selecting one of them.

上述の通り、曲情報取得部100は、録画中の歌い出しが、曲のどこからであるかを特定する位置情報を取得してもよい。これは、例えば、解析対象とされた単位時間分のオーディオデータが、このオーディオデータと類似すると判定された曲のどの部分の音楽特徴量と対応しているかをサーバにおいて特定することにより行なうことができる。 As described above, the song information acquisition unit 100 may acquire position information that specifies where in the song the song that is being recorded begins. This can be done, for example, by specifying on the server which part of the music feature of a song that is determined to be similar to the audio data for a unit time that is the subject of analysis corresponds to this audio data. can.

また、曲情報取得部100は、連続する単位時間毎のオーディオデータの解析結果に基づいて、曲の開始タイミング及び終了タイミングを取得する。すなわち、曲情報取得部100は、解析により或る曲に類似すると判定されたオーディオデータが得られたタイミングをこの曲の開始タイミングとし、この曲に類似すると判定されるオーディオデータが得られなくなったタイミングをこの曲の終了タイミングとする。 The song information acquisition unit 100 also acquires the start timing and end timing of a song based on the analysis results of audio data for each continuous unit time. That is, the song information acquisition unit 100 sets the timing at which audio data determined to be similar to a certain song is obtained through analysis as the start timing of this song, and the timing when audio data determined to be similar to this song is no longer obtained. Set the timing as the end timing of this song.

曲情報取得部100は、1回の録画中に複数の期間で曲が歌われた場合、それら各期間に対する曲情報、開始タイミング、及び終了タイミングを取得する。また、曲情報取得部100は、異なる曲が連続して順次歌われている場合に、歌われている曲毎に、曲情報、開始タイミング、及び終了タイミングを取得してもよい。 When a song is sung in multiple periods during one recording, the song information acquisition unit 100 acquires the song information, start timing, and end timing for each period. Furthermore, when different songs are sung one after another, the song information acquisition unit 100 may acquire the song information, start timing, and end timing for each song being sung.

なお、上述した通り、本実施の形態では、解析処理はサーバにより行なわれるが、曲情報取得部100の処理として行なわれてもよい。すなわち、サーバの処理として説明された全ての処理又は一部の処理が録画装置10における処理として行なわれてもよい。 Note that, as described above, in this embodiment, the analysis process is performed by the server, but it may also be performed as a process by the music information acquisition unit 100. That is, all or part of the processing described as server processing may be performed as processing in recording device 10.

録画データ生成部101は、曲情報取得部100が取得した曲情報と開始タイミングと終了タイミングとをカメラ11により撮影された動画の映像データに付加した録画データを生成する。具体的には、録画データ生成部101は、曲が歌われた期間ごとに、動画内における歌の開始タイミングを示す時刻情報及び終了タイミングを示す時刻情報と、当該期間に歌われた曲の曲情報とをタグ情報として、映像データに付加する。なお、曲情報取得部100により、歌い出しの位置を特定する上述した位置情報が取得されている場合には、録画データ生成部101は、さらに、タグ情報として、この位置情報を曲毎に付加した録画データを生成してもよい。これにより、後述する再生装置20における再生の際、この位置情報で示される位置から曲を出力することができる。 The recorded data generation unit 101 generates recorded data by adding the song information, start timing, and end timing acquired by the song information acquisition unit 100 to the video data of the moving image captured by the camera 11. Specifically, the recorded data generation unit 101 generates, for each period in which the song was sung, time information indicating the start timing and end timing of the song in the video, and the songs sung during the period. information is added to the video data as tag information. Note that if the song information acquisition unit 100 has acquired the above-mentioned position information that specifies the position at which the song begins, the recorded data generation unit 101 further adds this position information to each song as tag information. You may also generate recorded data. Thereby, when the music is played back by the playback device 20, which will be described later, it is possible to output the music from the position indicated by this position information.

また、録画データ生成部101は、曲情報取得部100がカメラ11の撮影中に歌われた1つの曲の曲情報として複数の候補を取得した場合、取得した複数の曲情報を当該曲の曲情報の候補リストとして付加した録画データを生成してもよい。すなわち、タグ情報として、候補リストを録画データに設定してもよい。これにより、後述するように、ユーザは、候補としてあげられた曲情報の中から、適切な曲情報を選択することができる。 In addition, when the song information acquisition section 100 acquires a plurality of candidates as song information for one song sung while the camera 11 is shooting, the recording data generation section 101 uses the acquired plurality of song information as the song information for the song. Recorded data added as an information candidate list may be generated. That is, a candidate list may be set in the recorded data as tag information. Thereby, as will be described later, the user can select appropriate song information from among the song information listed as candidates.

なお、録画データ生成部101は、カメラ11により撮影された動画の映像データを含む録画データを生成すればよいが、映像データと、マイク12により取得された音のオーディオデータとを含む録画データを生成してもよい。 Note that the recorded data generation unit 101 may generate recorded data that includes video data of a moving image captured by the camera 11; May be generated.

記憶制御部102は、録画データ生成部101により生成された録画データの記憶装置14(内部ストレージ)への記憶を制御する。例えば、記憶制御部102は、記憶装置14の空き容量がなくなると、古い録画データから順に上書き処理をすることにより、新たな録画データを記憶するよう制御する。記憶制御部102は、開始タイミングから終了タイミングまでの録画データについて、上書きを禁止してもよい。このようにすることにより、曲が歌われた区間の録画データが削除されることを防ぐことができる。すなわち、印象的な場面の映像が削除されてしまうことを防ぐことができる。なお、記憶制御部102は、記憶装置14における、新たな録画データの記憶可能容量が所定の基準量を下回った場合、開始タイミングから終了タイミングまでの録画データについての上書き禁止を解除してもよい。ここで、新たな録画データの記憶可能容量とは、上書き処理が許可されている容量と空き容量との総量である。録画装置10では、例えば、車両の事故発生時の映像などのように、より重要な映像を記憶する必要がある場合がある。このため、新たな録画データの記憶可能容量が少なくなった場合に、そのような重要な映像を記憶できないというのは好ましくない。上書き禁止を解除することにより、そのような事態の発生を抑制することができる。 The storage control unit 102 controls storage of the recorded data generated by the recorded data generation unit 101 in the storage device 14 (internal storage). For example, when the storage device 14 runs out of free space, the storage control unit 102 controls to store new recorded data by sequentially overwriting the oldest recorded data. The storage control unit 102 may prohibit overwriting of recorded data from the start timing to the end timing. By doing this, it is possible to prevent the recorded data of the section in which the song was sung from being deleted. In other words, it is possible to prevent images of impressive scenes from being deleted. Note that the storage control unit 102 may cancel the overwriting prohibition on the recorded data from the start timing to the end timing when the storage capacity of new recorded data in the storage device 14 is less than a predetermined reference amount. . Here, the storable capacity of new recorded data is the total amount of capacity for which overwriting processing is permitted and free capacity. The recording device 10 may need to store more important images, such as images taken when a vehicle accident occurs. For this reason, it is undesirable that such important video cannot be stored when the storage capacity of new recorded data is reduced. By canceling the overwrite prohibition, it is possible to prevent such a situation from occurring.

次に、再生装置20の機能構成について、説明する。図5に示すように、再生装置20は、再生制御部200と、指示受付部201と、曲データ取得部202とを有する。 Next, the functional configuration of the playback device 20 will be explained. As shown in FIG. 5, the playback device 20 includes a playback control section 200, an instruction reception section 201, and a music data acquisition section 202.

再生制御部200は、録画装置10から取得した録画データを再生し、ディスプレイ21に録画データの映像を表示する。また、録画データが、マイク12により取得された音のオーディオデータを含む場合、このオーディオデータの音声をスピーカ22から出力してもよい。 The playback control unit 200 plays back the recorded data acquired from the recording device 10 and displays an image of the recorded data on the display 21. Further, when the recorded data includes audio data of the sound acquired by the microphone 12, the sound of this audio data may be output from the speaker 22.

また、再生制御部200は、録画データを再生する際、開始タイミングから終了タイミングまでの区間の再生中、当該区間に関連づけられた曲情報に基づいて曲をスピーカ22から出力するよう制御する。具体的には、再生制御部200は、この曲情報に基づいて取得された曲のオーディオデータを用いて、この曲をスピーカ22から出力するよう制御する。再生制御部200は、当該区間の再生中、曲データ取得部202が取得したオーディオデータを用いて、曲をスピーカ22から出力する。なお、この出力は、マイク12により取得された音のオーディオデータの音声の出力と重畳されてもよい。重畳される両者の音量の比率は任意に設定することができる。また、マイク12により取得された音をミュートするよう設定してもよい。 Furthermore, when playing back recorded data, the playback control unit 200 controls the speaker 22 to output a song based on song information associated with the section during playback of the section from the start timing to the end timing. Specifically, the playback control unit 200 controls the speaker 22 to output this song using the audio data of the song acquired based on this song information. The playback control unit 200 outputs the song from the speaker 22 using the audio data acquired by the song data acquisition unit 202 during playback of the section. Note that this output may be superimposed on the output of the sound of the audio data of the sound acquired by the microphone 12. The ratio of the two volumes to be superimposed can be set arbitrarily. Further, the sound acquired by the microphone 12 may be set to be muted.

また、再生制御部200は、録画データに対して上述した位置情報が付与されている場合、曲を出力するとき、この位置情報に基づいて特定された位置から曲を再生して出力するよう制御してもよい。すなわち、再生制御部200は、実際に歌われたときの歌い出しと、再生時の歌い出しとがそろうように、曲の出力を行なってもよい。このようにすることにより、録画時の状況をより忠実に再現することができる。 Furthermore, when the above-mentioned location information is added to the recorded data, when outputting the song, the playback control unit 200 controls the playback and output of the song from the position specified based on this location information. You may. That is, the playback control unit 200 may output the song so that the beginning of the song when it is actually sung and the beginning of the song during playback are the same. By doing so, the situation at the time of recording can be more faithfully reproduced.

また、録画データが開始タイミングから終了タイミングまでの区間を複数備え、隣接する区間の間隔が所定の時間よりも短い場合、再生制御部200は、一方の区間で出力する曲と他方の区間で出力する曲とをクロスフェードさせて出力するよう制御してもよい。すなわち、再生制御部200は、先行する曲をフェードアウトさせるとともに、後続する曲をフェードインするように曲の出力を行なってもよい。このようにすることにより、より自然に曲を楽しむことができる。 In addition, if the recorded data has multiple sections from the start timing to the end timing, and the interval between adjacent sections is shorter than a predetermined time, the playback control unit 200 outputs the song in one section and the song output in the other section. It may also be possible to control the output so as to cross-fade the music. That is, the playback control unit 200 may output the music so that the preceding music is faded out and the following music is faded in. By doing this, you can enjoy the music more naturally.

また、開始タイミングから終了タイミングまでの区間の長さが当該区間に対応付けられている曲の長さよりも長い場合、再生制御部200は、当該曲をループして出力するよう制御してもよい。すなわち、この区間の長さが、後述する曲データ取得部202により取得された曲の長さよりも長い場合、再生制御部200は、当該区間の再生中、曲データ取得部202により取得された曲を繰り返し出力するよう制御してもよい。このようにすることにより、歌われていた実際の期間と同じだけ曲を出力することができるので、録画時の状況をより忠実に再現することができる。 Furthermore, if the length of the section from the start timing to the end timing is longer than the length of the song associated with the section, the playback control unit 200 may control the song to be looped and output. . That is, if the length of this section is longer than the length of the song acquired by the song data acquisition section 202, which will be described later, the playback control section 200 controls the length of the song acquired by the song data acquisition section 202 while playing the section. may be controlled to be output repeatedly. By doing this, the song can be output for the same length of time as the actual period in which it was sung, so the situation at the time of recording can be more faithfully reproduced.

なお、再生制御部200は、録画データの全体を再生してもよいし、録画データのダイジェスト再生を行なってもよい。ダイジェスト再生を行なう場合、再生制御部200は、録画データのうち、開始タイミングから終了タイミングまでの区間を抽出して、ダイジェスト再生してもよい。このようにすることにより、印象的な場面を抽出したダイジェスト再生を提供することができる。 Note that the playback control unit 200 may play back the entire recorded data, or may perform digest playback of the recorded data. When performing digest playback, the playback control unit 200 may extract a section from the start timing to the end timing from the recorded data and perform digest playback. By doing so, it is possible to provide a digest playback in which impressive scenes are extracted.

指示受付部201は、開始タイミングから終了タイミングまでの区間の曲の出力に関する指示を受け付ける。指示受付部201は、入力装置23を介してユーザが入力した指示を受け付ける。再生制御部200は、受け付けられた指示に従って、開始タイミングから終了タイミングまでの区間の曲の出力を行なうよう制御してもよい。例えば、録画データにおいて、ある区間の1つの曲に対し、複数の曲情報を含む候補リストが付加されている場合、指示受付部201は、候補リストに挙げられた曲情報の中からいずれかを選択する指示を受け付ける。この場合、再生制御部200は、選択された曲情報に基づいて曲を出力するよう制御する。すなわち、再生制御部200は、選択された曲情報に基づいて取得された曲のオーディオデータを用いて、この曲をスピーカ22から出力するよう制御する。このような構成によれば、ユーザは、候補としてあげられた曲情報の中から適切な曲情報を選択することができるため、適切な曲を聞くことができる。 The instruction receiving unit 201 receives instructions regarding the output of the music in the section from the start timing to the end timing. The instruction receiving unit 201 receives instructions input by the user via the input device 23. The playback control unit 200 may control the output of the song in the section from the start timing to the end timing according to the received instruction. For example, in the recorded data, if a candidate list including multiple pieces of song information is added to one song in a certain section, the instruction receiving unit 201 selects one of the pieces of song information listed in the candidate list. Accept instructions to select. In this case, the playback control unit 200 controls to output the song based on the selected song information. That is, the playback control unit 200 controls the speaker 22 to output this song using the audio data of the song acquired based on the selected song information. According to such a configuration, the user can select appropriate song information from among the song information listed as candidates, and therefore can listen to an appropriate song.

また、例えば、指示受付部201は、曲における再生開始位置を指定する指示を受け付けてもよい。この場合、再生制御部200は、開始タイミングから終了タイミングまでの区間で曲を出力するとき、曲における指定された再生開始位置からこの曲を再生して出力するよう制御する。例えば、曲の2番から再生するよう指示された場合、再生制御部200は、曲の2番から出力する。このようにすることで、ユーザは、所望の再生開始位置から曲を聞くことができる。 Further, for example, the instruction receiving unit 201 may receive an instruction specifying a playback start position in a song. In this case, when outputting a song in the section from the start timing to the end timing, the playback control unit 200 controls the song to be played and output from a specified playback start position in the song. For example, if an instruction is given to play the song starting from the second song, the playback control unit 200 outputs the song starting from the second song. By doing so, the user can listen to the song from the desired playback start position.

曲データ取得部202は、録画データにおける開始タイミングから終了タイミングまでの区間の再生中に出力される曲のオーディオデータを取得する。具体的には、曲データ取得部202は、録画装置10の録画中に歌われた曲の原曲のオーディオデータを取得する。すなわち、曲データ取得部202は、実際のアーティストが歌っている曲又は演奏している曲のオーディオデータを取得する。本実施の形態では、曲データ取得部202は、録画データに付与されている曲情報と一致する曲情報を持つオーディオデータを取得する。ただし、曲データ取得部202は、指示受付部201により候補リストから曲情報が選択されている場合には、選択された曲情報に一致する曲情報を持つオーディオデータを取得する。 The song data acquisition unit 202 acquires audio data of a song that is output during playback of the section from the start timing to the end timing in the recorded data. Specifically, the song data acquisition unit 202 acquires the audio data of the original song of the song sung during recording by the recording device 10 . That is, the song data acquisition unit 202 acquires audio data of a song sung or performed by an actual artist. In this embodiment, the song data acquisition unit 202 acquires audio data having song information that matches the song information added to the recorded data. However, if the instruction receiving unit 201 selects song information from the candidate list, the song data acquisition unit 202 acquires audio data having song information that matches the selected song information.

曲データ取得部202は、再生装置20の記憶装置25に記憶されているオーディオデータ群から、当該区間の再生中に出力すべきオーディオデータを取得してもよいし、ネットワークインタフェース24を介して、有線又は無線により通信可能に接続された他の装置からオーディオデータを取得してもよい。例えば、ネットワークストリーミングにより配信されたオーディオデータを取得してもよい。上述の通り、再生制御部200は、曲データ取得部202が取得したオーディオデータを用いて、開始タイミングから終了タイミングまでの録画データの再生中に、曲の出力を行なう。 The song data acquisition unit 202 may acquire audio data to be output during playback of the section from the audio data group stored in the storage device 25 of the playback device 20, or may acquire the audio data to be output during playback of the section, via the network interface 24, Audio data may be acquired from another device communicatively connected by wire or wirelessly. For example, audio data distributed by network streaming may be acquired. As described above, the playback control unit 200 uses the audio data acquired by the song data acquisition unit 202 to output a song while playing the recorded data from the start timing to the end timing.

次に、動画システム1の動作の一例についてフローチャートを用いて説明する。図6は、録画装置10によるタグ情報の設定動作の一例を示すフローチャートである。以下、図6に沿って、タグ情報の設定動作の一例を説明する。 Next, an example of the operation of the video system 1 will be described using a flowchart. FIG. 6 is a flowchart showing an example of the tag information setting operation by the recording device 10. An example of the tag information setting operation will be described below with reference to FIG.

ステップS100において、曲情報取得部100が、マイク12によって取得された音のオーディオデータを継続的に監視し、ユーザの音声が検出されたか否かを判定する。音声が検出されない場合(ステップS100でNo)、本ステップが継続する。音声が検出された場合(ステップS100でYes)、処理はステップS101へ移行する。 In step S100, the song information acquisition unit 100 continuously monitors the audio data of the sound acquired by the microphone 12, and determines whether the user's voice is detected. If no audio is detected (No in step S100), this step continues. If audio is detected (Yes in step S100), the process moves to step S101.

ステップS101において、曲情報取得部100は、検出した音声のオーディオデータのバッファへの蓄積を開始する。 In step S101, the song information acquisition unit 100 starts accumulating audio data of the detected voice in the buffer.

次に、ステップS102において、曲情報取得部100は、音声が検出されなくなったか否かを判定する。音声が検出されている場合(ステップS102でNo)、処理はステップS103へ移行し、音声が検出されなくなった場合(ステップS102でYes)、処理はステップS109に移行する。 Next, in step S102, the song information acquisition unit 100 determines whether or not audio is no longer detected. If audio is detected (No in step S102), the process moves to step S103, and if audio is no longer detected (Yes in step S102), the process moves to step S109.

ステップS103において、曲情報取得部100は、所定の単位時間分のオーディオデータが蓄積されたか否かを判定する。単位時間分のオーディオデータが蓄積された場合(ステップS103でYes)、処理はステップS104へ移行し、そうでない場合(ステップS103でNo)、処理はステップS102へ戻る。 In step S103, the song information acquisition unit 100 determines whether audio data for a predetermined unit time has been accumulated. If audio data for a unit time has been accumulated (Yes in step S103), the process moves to step S104; otherwise (No in step S103), the process returns to step S102.

ステップS104において、曲情報取得部100は、蓄積されたオーディオデータを用いて、曲情報を取得する。具体的には、曲情報取得部100は、上述した通り、このオーディオデータを用いた楽曲検索で得られた曲情報を取得する。なお、曲情報取得部100は、このオーディオデータが、曲のどの位置に対応するかについての情報である上述した位置情報を取得してもよい。 In step S104, the song information acquisition unit 100 uses the accumulated audio data to acquire song information. Specifically, as described above, the song information acquisition unit 100 acquires song information obtained through a song search using this audio data. Note that the song information acquisition unit 100 may acquire the above-mentioned position information, which is information about which position in the song this audio data corresponds to.

次に、ステップS105において、曲情報取得部100は、開始タイミングのタグ情報を設定済みであるか否かを判定する。なお、開始タイミング及び終了タイミングで特定される区間が1つの録画データに対して複数設定されうることを考慮すると、より詳細には、本ステップの判定は、終了タイミングのタグ情報と未だ対をなしていない開始タイミングのタグ情報が設定されているか否かの判定である。したがって、既に、対をなす開始タイミングと終了タイミングのタグ情報が1組以上設定されているとしても、そのような開始タイミングのタグ情報については無視して、開始タイミングのタグ情報を設定済みであるか否かの判定が行なわれる。開始タイミングのタグ情報が設定されていない場合(ステップS105でNo)、処理はステップS106へ移行する。これに対し、開始タイミングのタグ情報が設定されている場合(ステップS105でYes)、処理はステップS107へ移行する。 Next, in step S105, the song information acquisition unit 100 determines whether the tag information of the start timing has been set. In addition, considering that multiple sections specified by the start timing and end timing can be set for one recorded data, more specifically, the determination in this step is not yet paired with the tag information of the end timing. This is a determination as to whether tag information with a start timing that is not specified is set. Therefore, even if one or more sets of tag information for a pair of start timing and end timing have already been set, such tag information for the start timing is ignored and the tag information for the start timing has already been set. A determination is made as to whether or not. If the tag information of the start timing is not set (No in step S105), the process moves to step S106. On the other hand, if the tag information of the start timing is set (Yes in step S105), the process moves to step S107.

ステップS106において、曲情報取得部100は、ステップS104の処理に用いられたオーディオデータの取得タイミングを開始タイミングとする。このようにして、曲情報取得部100は開始タイミングを取得する。そして、録画データ生成部101は、この開始タイミングのタグ情報を、このオーディオデータの取得タイミングに相当する録画時刻におけるタグ情報として、録画データに設定する。また、録画データ生成部101は、ステップS104で得られた曲情報のタグ情報についても、このオーディオデータの取得タイミングに相当する録画時刻におけるタグ情報として、録画データに設定する。なお、ステップS104において、位置情報も取得している場合、録画データ生成部101は、この位置情報のタグ情報についても、このオーディオデータの取得タイミングに相当する録画時刻におけるタグ情報として、録画データに設定する。 In step S106, the song information acquisition unit 100 sets the acquisition timing of the audio data used in the process of step S104 as the start timing. In this way, the song information acquisition unit 100 acquires the start timing. Then, the recorded data generation unit 101 sets the tag information of this start timing in the recorded data as the tag information of the recording time corresponding to the acquisition timing of this audio data. The recorded data generation unit 101 also sets the tag information of the song information obtained in step S104 in the recorded data as tag information at the recording time corresponding to the acquisition timing of this audio data. Note that in step S104, if the location information is also acquired, the recorded data generation unit 101 also adds the tag information of this location information to the recorded data as tag information at the recording time corresponding to the acquisition timing of this audio data. Set.

ステップS106の後、処理はステップS102に戻り、上述した処理が繰り返される。すなわち、音声が継続している場合、次の単位時間分のオーディオデータに対して、楽曲の検索が行なわれることとなる。上述した通り、音声が検出されなくなった場合(ステップS102でYes)、処理はステップS109に移行する。 After step S106, the process returns to step S102, and the above-described process is repeated. That is, if the audio continues, the next unit time worth of audio data will be searched for music. As described above, if audio is no longer detected (Yes in step S102), the process moves to step S109.

ステップS109では、曲情報取得部100は、音声が検出されなくなったタイミングを終了タイミングとする。このようにして、曲情報取得部100は終了タイミングを取得する。すなわち、録画データ生成部101は、この終了タイミングのタグ情報を、音声が検出されなくなったタイミングに相当する録画時刻におけるタグ情報として、録画データに設定する。そして、オーディオデータの蓄積が終了される。なお、終了タイミングのタグ情報の設定は、開始タイミングのタグ情報だけが設定されている場合に行なわれる。 In step S109, the song information acquisition unit 100 sets the timing at which no audio is detected as the end timing. In this way, the song information acquisition unit 100 acquires the end timing. That is, the recorded data generation unit 101 sets the tag information of this end timing in the recorded data as the tag information of the recording time corresponding to the timing when audio is no longer detected. Then, the accumulation of audio data is completed. Note that the end timing tag information is set when only the start timing tag information is set.

一方、ステップS107では、前回のオーディオデータに対して検索された曲情報と、今回のオーディオデータに対して検索された曲情報とが異なるか否かを判定する。すなわち、検索された曲が前回と比べて変化したか否かを判定する。これにより、歌われる曲が変わったとしても、適切にタグ情報を付与することができる。検索された曲が前回と比べて変化した場合(ステップS107でYes)、処理はステップS108へ移行する。検索された曲が前回と比べて変化していない場合(ステップS107でNo)、処理はステップS102へ戻り、上述した処理が繰り返される。すなわち、音声が継続している場合、次の単位時間分のオーディオデータに対して、楽曲の検索が行なわれることとなる。 On the other hand, in step S107, it is determined whether the song information searched for the previous audio data and the song information searched for the current audio data are different. That is, it is determined whether the searched song has changed compared to the previous time. Thereby, even if the song being sung changes, tag information can be appropriately added. If the searched song has changed compared to the previous time (Yes in step S107), the process moves to step S108. If the searched song has not changed compared to the previous time (No in step S107), the process returns to step S102, and the above-described process is repeated. That is, if the audio continues, the next unit time worth of audio data will be searched for music.

ステップS108において、曲情報取得部100は、ステップS104の処理に用いられたオーディオデータの取得タイミングを終了タイミングとする。このようにして、曲情報取得部100は終了タイミングを取得する。すなわち、録画データ生成部101は、この終了タイミングのタグ情報を、このオーディオデータの取得タイミングに相当する録画時刻におけるタグ情報として、録画データに設定する。ステップS108の後、処理は、ステップS106へ移行する。 In step S108, the song information acquisition unit 100 sets the acquisition timing of the audio data used in the process of step S104 as the end timing. In this way, the song information acquisition unit 100 acquires the end timing. That is, the recorded data generation unit 101 sets the tag information of this end timing in the recorded data as the tag information of the recording time corresponding to the acquisition timing of this audio data. After step S108, the process moves to step S106.

以上のような処理により、録画データに対して、例えば図7に示すようなタグ情報が設定される。 Through the processing described above, tag information as shown in FIG. 7, for example, is set for the recorded data.

次に、再生装置20の動作の一例について説明する。図8は、再生装置20による再生動作の一例を示すフローチャートである。以下、図8に沿って、再生動作の一例を説明する。 Next, an example of the operation of the playback device 20 will be described. FIG. 8 is a flowchart showing an example of a playback operation by the playback device 20. An example of the reproduction operation will be described below with reference to FIG.

ステップS200において、再生制御部200は、映像の再生が終了されたか否かを判定する。再生が終了された場合(ステップS200でYes)、処理は終了する。再生が継続している場合(ステップS200でNo)、処理はステップS201へ移行する。 In step S200, the playback control unit 200 determines whether the playback of the video has ended. If the playback is finished (Yes in step S200), the process ends. If playback continues (No in step S200), the process moves to step S201.

ステップS201において、再生制御部200は、開始タイミングのタグ情報を検出したか否かを判定する。すなわち、再生制御部200は、現在再生している録画データについて開始タイミングが到来したか否かを判定する。開始タイミングが到来していない場合(ステップS201でNo)、処理はステップS200に戻る。開始タイミングが到来した場合(ステップS201でYes)、処理はステップS202へ移行する。 In step S201, the playback control unit 200 determines whether tag information of the start timing is detected. That is, the playback control unit 200 determines whether the start timing has arrived for the recorded data currently being played back. If the start timing has not arrived (No in step S201), the process returns to step S200. When the start timing has arrived (Yes in step S201), the process moves to step S202.

ステップS202において、曲データ取得部202は、録画データにタグとして付与されている曲情報に基づいて曲のオーディオデータを取得する。 In step S202, the song data acquisition unit 202 acquires the audio data of the song based on the song information added as a tag to the recorded data.

次に、ステップS203において、再生制御部200は、ステップS202で取得されたオーディオデータを用いて曲を出力する。すなわち、再生制御部200は、曲を映像に重畳させて録画データを再生する。 Next, in step S203, the playback control unit 200 outputs a song using the audio data acquired in step S202. That is, the playback control unit 200 plays back the recorded data by superimposing the song on the video.

次に、ステップS204において、再生制御部200は、終了タイミングのタグ情報を検出したか否かを判定する。すなわち、再生制御部200は、現在再生している録画データについて終了タイミングが到来したか否かを判定する。終了タイミングが到来していない場合(ステップS204でNo)、曲の再生が継続される。 Next, in step S204, the reproduction control unit 200 determines whether tag information of the end timing has been detected. That is, the playback control unit 200 determines whether the end timing has arrived for the recorded data currently being played back. If the end timing has not arrived (No in step S204), reproduction of the song continues.

これに対し、終了タイミングが到来した場合(ステップS204でYes)、処理はステップS205に移行し、ステップS205において、再生制御部200は、曲の再生を終了する。ステップS205の後、処理はステップS200に戻る。 On the other hand, when the end timing has arrived (Yes in step S204), the process moves to step S205, and in step S205, the playback control unit 200 ends the playback of the song. After step S205, the process returns to step S200.

以上、実施の形態1について説明した。上述した録画装置10によれば、録画中に曲が歌われた場合に、録画データのどの区間において歌われたのかを特定する情報(すなわち、開始タイミング及び終了タイミング)と、どの曲が歌われたかについての情報(曲情報)を記録することができる。このため、ユーザは、車両のカメラの映像を再生する際に、実際に曲が歌われたタイミングで、その曲を聞くことができる。このため、ユーザは車両のカメラの映像を楽しむことができる。したがって、映像の視聴についての利便性を向上することができる。 The first embodiment has been described above. According to the recording device 10 described above, when a song is sung during recording, information specifying in which section of the recorded data the song was sung (i.e., start timing and end timing) and which song is sung are provided. Information about music (song information) can be recorded. Therefore, the user can listen to the song at the timing when the song is actually sung when playing back the video from the vehicle's camera. Therefore, the user can enjoy the video captured by the vehicle's camera. Therefore, the convenience of viewing videos can be improved.

なお、上述した実施の形態では、曲情報は、曲の識別情報であるとしたが、曲情報を曲のオーディオデータとすることもできる。この場合、録画データ生成部101は、開始タイミングから終了タイミングまでの区間について、映像データと曲のオーディオデータとを重畳した録画データを生成してもよい。このようにすることにより、一般的な再生装置においても、録画データの再生の際、曲が歌われた区間に曲を出力することができる。 Note that in the embodiment described above, the song information is the identification information of the song, but the song information can also be the audio data of the song. In this case, the recorded data generation unit 101 may generate recorded data in which the video data and the audio data of the song are superimposed for the section from the start timing to the end timing. By doing so, even in a general playback device, when playing back recorded data, a song can be output in the section where the song is sung.

なお、録画装置10において、映像データと曲のオーディオデータとを重畳した録画データを生成する場合、録画データ生成部101は、2種類の録画データを生成してもよい。すなわち、録画データ生成部101は、映像データと曲のオーディオデータとを重畳した録画データである第1の録画データと、曲のオーディオデータが重畳されていない映像データの録画データである第2の録画データとを生成してもよい。曲のオーディオデータを重畳することはドライブ映像が加工されることを意味するため、ドライブ映像としての価値が失われかねない。このため、2種類の録画データを作成することにより、そのような事態を回避することができる。 Note that when the recording device 10 generates recorded data in which video data and audio data of a song are superimposed, the recorded data generation unit 101 may generate two types of recorded data. That is, the recorded data generation unit 101 generates first recorded data, which is recorded data in which video data and audio data of a song are superimposed, and second recorded data, which is recorded data of video data on which audio data of a song is not superimposed. Recorded data may also be generated. Superimposing the audio data of a song means that the driving video is processed, which may cause it to lose its value as a driving video. Therefore, such a situation can be avoided by creating two types of recorded data.

また、上述した実施の形態では、録画と同時に、曲の解析処理を行なったが、必ずしも録画中に行なわれなくてもよい。 Further, in the embodiment described above, song analysis processing is performed at the same time as recording, but it does not necessarily have to be performed during recording.

<実施の形態2>
上述した実施の形態では、解析対象のオーディオデータとの類似度が所定の閾値(第1の閾値)を超える曲が見つからなかった場合、開始タイミングから終了タイミングの区間に対応付ける曲を決定することができない。したがって、そのような場合には、当該区間の再生の際、曲を出力することができない。そこで、本実施の形態では、そのような場合であっても、曲を出力することができる技術を提供する。以下、上述した実施の形態と異なる点について説明する。
<Embodiment 2>
In the embodiment described above, if no song is found whose similarity to the audio data to be analyzed exceeds a predetermined threshold (first threshold), it is possible to determine a song to be associated with the section from the start timing to the end timing. Can not. Therefore, in such a case, the song cannot be output when playing that section. Therefore, in this embodiment, a technique is provided that allows music to be output even in such a case. Hereinafter, points different from the embodiments described above will be explained.

本実施の形態では、曲情報取得部100は、解析対象のオーディオデータとの類似度が第1の閾値を超える曲が見つからなかった場合、第1の閾値よりも低い所定の第2の閾値を超える曲の曲情報を取得する。すなわち、曲情報取得部100は、カメラ11の撮影中に歌われた曲との類似度が所定の第1の閾値を超える曲が存在する場合には、当該曲の曲情報を、カメラ11の撮影中に歌われた曲の曲情報として取得する。そして、曲情報取得部100は、カメラ11の撮影中に歌われた曲との類似度が所定の第1の閾値を超える曲が存在しない場合には、類似度が第2の閾値を超える曲の曲情報を、カメラ11の撮影中に歌われた曲の曲情報の候補として取得する。 In the present embodiment, if no song is found whose similarity to the audio data to be analyzed exceeds the first threshold, the song information acquisition unit 100 sets a predetermined second threshold that is lower than the first threshold. Get song information for songs that exceed. In other words, if there is a song whose similarity to the song sung while the camera 11 was shooting exceeds a predetermined first threshold, the song information acquisition unit 100 acquires the song information of the song from the camera 11. Obtained as song information for songs sung during shooting. Then, if there is no song whose similarity with the song sung while the camera 11 was shooting exceeds a predetermined first threshold, the song information acquisition unit 100 selects a song whose similarity exceeds a second threshold. The song information of the song sung while the camera 11 was shooting is acquired as a song information candidate.

また、本実施の形態では、録画データ生成部101は、第2の閾値を超える曲の曲情報が取得された場合、第2の閾値を超える曲の曲情報をカメラ11の撮影中に歌われた曲の曲情報の候補リストとして付加した録画データを生成する。すなわち、録画データ生成部101は、タグ情報として、第2の閾値を超える曲の曲情報を含む候補リストを録画データに設定する。 Further, in the present embodiment, when the song information of the song exceeding the second threshold is acquired, the recording data generation unit 101 generates the song information of the song exceeding the second threshold that is sung while the camera 11 is shooting. The recorded data added as a candidate list of song information of the selected songs is generated. That is, the recorded data generation unit 101 sets, as tag information, a candidate list including song information of songs exceeding the second threshold value in the recorded data.

そして、本実施の形態の再生装置20では、第1の閾値を超える曲が存在しない場合、すなわち、第1の閾値を超える曲の曲情報が得られなかった場合、指示受付部201は、第2の閾値を超える曲の曲情報を含む候補リストに挙げられた曲情報の中からいずれかを選択する指示をユーザから受け付ける。そして、再生制御部200は、第1の閾値を超える曲が存在しない場合、すなわち、第1の閾値を超える曲の曲情報が得られたかった場合、指示で選択された曲情報に基づいて開始タイミングから終了タイミングまでの区間の曲の出力を行なうよう制御する。このため、曲データ取得部202は、指示で選択された曲情報を持つ曲のオーディオデータを取得する。なお、第1の閾値を超える曲の曲情報が得られている場合には、再生制御部200は、実施の形態1で説明したように、この曲情報に基づいて開始タイミングから終了タイミングまでの区間の曲の出力を行なうよう制御する。 In the playback device 20 of the present embodiment, if there is no song exceeding the first threshold, that is, if song information of a song exceeding the first threshold is not obtained, the instruction receiving unit 201 An instruction is received from the user to select one of the song information listed in the candidate list that includes the song information of the song that exceeds the threshold value of 2. Then, if there is no song that exceeds the first threshold, that is, if it is desired to obtain song information of a song that exceeds the first threshold, the playback control unit 200 starts playback based on the song information selected by the instruction. Control is performed to output the music in the section from the timing to the end timing. Therefore, the song data acquisition unit 202 acquires the audio data of the song having the song information selected by the instruction. Note that if song information of a song that exceeds the first threshold is obtained, the playback control unit 200 performs playback from the start timing to the end timing based on this song information, as described in the first embodiment. Controls the output of the section of music.

なお、指示受付部201は、例えば、録画データの再生前に予め指示を受け付ける。本実施の形態では、指示受付部201は、受け付けた指示で指定された曲情報をタグ情報として録画データに設定する。 Note that the instruction receiving unit 201 receives an instruction in advance, for example, before playing the recorded data. In this embodiment, the instruction receiving unit 201 sets the music information specified by the received instruction in the recording data as tag information.

ユーザに曲情報を指示してもらうために、注意喚起する構成を設けてもよい。すなわち、図9に示すように、再生装置20は注意喚起部203をさらに有してもよい。注意喚起部203の処理は、例えばプロセッサ26によるプログラムの実行により実現される。注意喚起部203は、開始タイミングから終了タイミングまでの区間の再生中に出力する曲が特定されていない録画データが存在する場合に、注意喚起を行なう。例えば、注意喚起部203は、ユーザが、曲が特定されていない録画データの再生を行なおうとした際に、曲情報の指定を促す表示を行なってもよい。また、注意喚起部203は、再生可能な録画データの一覧画面において、曲が特定されていない録画データに対し、曲が特定されていない録画データであることを表わすマークを表示してもよい。このようにすることで、ユーザに対して曲の指定を促すことができる。 In order to have the user specify the song information, a configuration may be provided to alert the user. That is, as shown in FIG. 9, the playback device 20 may further include an attention calling section 203. The processing of the attention calling unit 203 is realized by, for example, executing a program by the processor 26. The attention calling unit 203 calls attention when there is recorded data for which a song to be output is not specified during playback of the section from the start timing to the end timing. For example, when the user attempts to play recorded data for which no song has been specified, the attention calling unit 203 may display a message prompting the user to specify song information. Further, the attention calling unit 203 may display a mark indicating that the recorded data for which no song is specified is the recorded data for which no song is specified on the list screen of playable recorded data. By doing so, it is possible to prompt the user to specify a song.

なお、再生制御部200は、開始タイミングから終了タイミングまでの区間の再生中に出力する曲が特定されていない録画データの再生が開始された場合、当該区間の再生中、所定の曲を出力するよう制御してもよい。すなわち、ユーザによる曲の指定が行なわれていない状態で、録画データが再生された場合、おすすめの曲などといった所定の曲を再生するようにしてもよい。特に、この所定の曲として、候補リストに挙げられた曲情報のいずれかにより特定される曲が用いられてもよい。このようにすることにより、曲が指定されていない場合であっても、当該区間において、曲を出力することができる。 Note that, if playback of recorded data for which a song to be output is not specified is started during playback of the section from the start timing to the end timing, the playback control unit 200 outputs a predetermined song during playback of the section. It may be controlled as follows. That is, when recorded data is played back without the user specifying a song, a predetermined song such as a recommended song may be played back. In particular, a song specified by any of the song information listed in the candidate list may be used as the predetermined song. By doing this, even if a song is not specified, it is possible to output the song in the section.

また、指示受付部201は、第2の閾値を超える曲が存在しない場合に、曲を指定する指示を受け付けてもよい。第2の閾値を超える曲が存在しない場合、録画データには上述した候補リストが設定されていないため、開始タイミングから終了タイミングまでの区間の再生中に出力する曲を特定することできない。そこで、そのような場合には、ユーザから曲を指定する指示を受け付けることにより、当該区間の再生中に出力する曲を特定することが可能となる。この場合、再生制御部200は、当該区間の再生中、指示受付部201が受け付けた指示で指定された曲を出力するよう制御する。 Further, the instruction receiving unit 201 may receive an instruction to specify a song when there is no song that exceeds the second threshold value. If there is no song that exceeds the second threshold, the above-mentioned candidate list is not set in the recorded data, so it is not possible to specify the song to be output during playback of the section from the start timing to the end timing. Therefore, in such a case, by receiving an instruction from the user to specify a song, it becomes possible to specify the song to be output during playback of the section. In this case, the reproduction control unit 200 controls to output the music specified by the instruction received by the instruction receiving unit 201 while the section is being reproduced.

次に、本実施の形態における動作の一例についてフローチャートを用いて説明する。図10は、録画装置10による曲情報に関するタグ情報の設定動作の一例を示すフローチャートである。以下、図10に沿って、本実施の形態における曲情報に関するタグ情報の設定動作の一例を説明する。 Next, an example of the operation in this embodiment will be described using a flowchart. FIG. 10 is a flowchart illustrating an example of the operation of setting tag information regarding song information by the recording device 10. An example of the operation of setting tag information regarding song information in this embodiment will be described below with reference to FIG.

ステップS300において、録画データ生成部101は、類似度が第1の閾値を超える曲が検索されたかを判定する。すなわち、録画データ生成部101は、類似度が第1の閾値を超える曲の曲情報を曲情報取得部100が取得したか否かを判定する。類似度が第1の閾値を超える曲が検索された場合(ステップS300でYes)、処理はステップS301へ移行し、そうでない場合(ステップS300でNo)、処理はステップS303に移行する。 In step S300, the recorded data generation unit 101 determines whether a song with a degree of similarity exceeding a first threshold has been searched. That is, the recorded data generation unit 101 determines whether the song information acquisition unit 100 has acquired the song information of a song whose similarity exceeds the first threshold. If a song whose similarity exceeds the first threshold is retrieved (Yes in step S300), the process moves to step S301; otherwise (No in step S300), the process moves to step S303.

ステップS301において、録画データ生成部101は、類似度が最も高い曲の曲情報をタグ情報として録画データに設定する。すなわち、録画データ生成部101は、類似度が第1の閾値を超える曲が複数見つかった場合、それらのうち、最も類似度が高い曲の曲情報をタグ情報として録画データに設定する。ステップS301の後、処理はステップS302へ移行する。 In step S301, the recorded data generation unit 101 sets the song information of the song with the highest degree of similarity as tag information in the recorded data. That is, when a plurality of songs whose similarity exceeds the first threshold is found, the recorded data generation unit 101 sets the song information of the song with the highest similarity among them as tag information in the recorded data. After step S301, the process moves to step S302.

ステップS302において、録画データ生成部101は、第1の閾値を超える曲が複数ある場合、それらの曲情報を候補リストのタグ情報として録画データに設定する。これにより、実施の形態1で述べたように、ユーザは、候補としてあげられた曲情報の中から、適切な曲情報を選択することができる。ステップS302が終わると、曲情報に関するタグ情報の設定を終了する。 In step S302, if there are a plurality of songs that exceed the first threshold, the recorded data generation unit 101 sets information about those songs in the recorded data as tag information of the candidate list. Thereby, as described in the first embodiment, the user can select appropriate song information from among the song information listed as candidates. When step S302 is completed, the setting of tag information regarding the song information is completed.

一方、ステップS303では、録画データ生成部101は、検索条件に該当する曲がないことを示すタグ情報、すなわち、第1の閾値を超える曲が存在しないことを示すタグ情報を録画データに設定する。ステップS303の後、処理はステップS304へ移行する。 On the other hand, in step S303, the recorded data generation unit 101 sets tag information indicating that there is no song matching the search condition, that is, tag information indicating that there is no song exceeding the first threshold, in the recorded data. . After step S303, the process moves to step S304.

ステップS304において、録画データ生成部101は、第2の閾値を超える曲がある場合、それらの曲情報を候補リストのタグ情報として録画データに設定する。すなわち、類似度が第2の閾値を超える曲の曲情報を曲情報取得部100が取得している場合、録画データ生成部101は、そのような曲の曲情報を候補リストのタグ情報として録画データに設定する。これにより、検索条件に該当する曲が見つからなかった場合であっても、ユーザは、所望の曲情報を選択することができる。 In step S304, if there are songs that exceed the second threshold, the recorded data generation unit 101 sets information about those songs in the recorded data as tag information of the candidate list. That is, if the song information acquisition unit 100 has acquired song information of a song whose similarity exceeds the second threshold, the recording data generation unit 101 records the song information of such a song as tag information of the candidate list. Set to data. Thereby, even if a song matching the search conditions is not found, the user can select desired song information.

図11は、ユーザによる曲情報の設定処理の一例を示すフローチャートである。以下、図11に沿って、本実施の形態におけるユーザによる曲情報の設定処理の一例を説明する。ユーザは、例えば、第1の閾値を超える曲が存在しないことを示すタグ情報が付加されている録画データについて、曲を指定する操作を行なう。 FIG. 11 is a flowchart illustrating an example of a process for setting music information by a user. An example of a process for setting music information by a user in this embodiment will be described below with reference to FIG. 11. For example, the user performs an operation to specify a song for recorded data to which tag information indicating that there is no song exceeding a first threshold value is added.

ステップS400において、指示受付部201は、録画データに候補リストが設定されているか否かを判定する。候補リストが設定されている場合(ステップS400でYes)、処理はステップS401へ移行する。これに対し、候補リストが設定されていない場合(ステップS400でNo)、処理はステップS403へ移行する。 In step S400, the instruction receiving unit 201 determines whether a candidate list is set in the recorded data. If a candidate list has been set (Yes in step S400), the process moves to step S401. On the other hand, if the candidate list has not been set (No in step S400), the process moves to step S403.

ステップS401において、指示受付部201は、候補リストに挙げられている曲情報の一覧をユーザに提示する。ステップS401の後、処理はステップS402へ移行する。 In step S401, the instruction receiving unit 201 presents the user with a list of song information listed in the candidate list. After step S401, the process moves to step S402.

ステップS402において、指示受付部201は、候補リストに挙げられている曲情報のいずれか一つを選択する指示をユーザから受け付ける。そして、指示受付部201は、この指示で指定された曲情報を、曲情報のタグ情報として、当該録画データに新たに設定する。以上により、曲情報の設定処理を終了する。 In step S402, the instruction receiving unit 201 receives an instruction from the user to select one of the pieces of music information listed in the candidate list. Then, the instruction receiving unit 201 newly sets the song information specified by this instruction to the recorded data as tag information of the song information. With the above steps, the song information setting process is completed.

一方、ステップS403では、指示受付部201は、曲情報の入力をユーザから受け付ける。そして、指示受付部201は、入力された曲情報を、曲情報のタグ情報として、当該録画データに新たに設定する。以上により、曲情報の設定処理を終了する。 On the other hand, in step S403, the instruction receiving unit 201 receives input of song information from the user. Then, the instruction receiving unit 201 newly sets the input song information to the recorded data as tag information of the song information. With the above steps, the song information setting process is completed.

以上、実施の形態2について説明した。本実施の形態によれば、検索条件に該当する曲が見つからなかった場合、ユーザは、所望の曲情報を選択することができる。このため、検索条件に該当する曲が見つからなかった場合であっても、録画データの再生の際、曲を出力することができる。 The second embodiment has been described above. According to this embodiment, if a song matching the search conditions is not found, the user can select desired song information. Therefore, even if a song matching the search conditions is not found, the song can be output when playing recorded data.

<実施の形態3>
上述した実施の形態では、録画装置10により録画データに設定された曲情報で特定される曲のオーディオデータ取得できない場合、再生装置20は、録画データにおける曲の開始タイミングから終了タイミングの区間の再生の際、曲を出力することができない。そこで、本実施の形態では、録画装置10により録画データに設定された曲情報で特定される曲のオーディオデータ取得できない場合であっても、曲の再生を可能にする技術を提供する。以下、上述した実施の形態と異なる点について説明する。
<Embodiment 3>
In the embodiment described above, when the recording device 10 cannot acquire the audio data of the song specified by the song information set in the recorded data, the playback device 20 reproduces the section from the start timing to the end timing of the song in the recorded data. In this case, the song cannot be output. Therefore, in the present embodiment, a technique is provided that allows the recording device 10 to reproduce a song even when the audio data of the song specified by the song information set in the recording data cannot be acquired. Hereinafter, points different from the embodiments described above will be explained.

本実施の形態にかかる曲データ取得部202は、録画装置10により録画データに設定された曲情報により特定される曲のオーディオデータが取得できない場合、この曲情報により特定される曲と関連しオーディオデータが取得可能な曲を、開始タイミングから終了タイミングの区間の再生中に出力する曲の候補とする。すなわち、曲データ取得部202は、曲情報により特定される曲と関連する曲であって、オーディオデータが取得可能な曲のリストである関連曲リストを作成する。この関連曲リストに挙げられた曲が、録画データの再生の際に出力される曲の候補となる。なお、関連曲リストは候補リストと称されてもよい。そして、再生制御部200は、録画装置10により録画データに設定された曲情報により特定される曲のオーディオデータが取得できない場合、当該区間の再生中、上述した候補に含まれる曲のいずれかを出力するよう制御する。すなわち、再生制御部200は、関連曲リストに挙げられている曲のいずれかを出力する。 When the recording device 10 cannot acquire the audio data of the song specified by the song information set in the recording data, the song data acquisition unit 202 according to the present embodiment is configured to perform an audio recording system that performs audio data related to the song specified by this song information. Songs for which data can be obtained are selected as song candidates to be output during playback in the section from the start timing to the end timing. That is, the song data acquisition unit 202 creates a related song list that is a list of songs that are related to the song specified by the song information and for which audio data can be obtained. The songs listed in this related song list become song candidates to be output when playing the recorded data. Note that the related song list may also be referred to as a candidate list. If the audio data of the song specified by the song information set in the recording data by the recording device 10 cannot be acquired, the playback control unit 200 selects one of the songs included in the above-mentioned candidates during playback of the section. Control output. That is, the playback control unit 200 outputs any of the songs listed in the related song list.

ここで、関連する曲とは、例えば、曲に関する所定の属性が同じである曲をいう。具体的には、例えば、関連する曲は、同じアルバムに収録されている曲であってもよいし、同じアーティストの曲であってもよいし、同じジャンルの曲であってもよいし、アーティストが属するカテゴリが同じである曲であってもよいし、同じリリース年の曲であってもよい。なお、これらは例に過ぎず、他の所定の関連基準に従って、関連する曲が定義されてもよい。曲データ取得部202は、例えば、曲についてのデータベースを参照することにより、関連する曲を特定する。 Here, related songs refer to, for example, songs that have the same predetermined attributes. Specifically, for example, related songs may be songs included in the same album, songs by the same artist, songs of the same genre, or songs by the same artist. The songs may belong to the same category or may be released in the same year. Note that these are just examples, and related songs may be defined according to other predetermined related criteria. The song data acquisition unit 202 identifies related songs, for example, by referring to a database about songs.

再生制御部200は、関連曲リストに挙げられている曲のうち自動的に選択された曲を出力してもよいし、ユーザからの指示にしたがい選択された曲を出力してもよい。自動的に選択される場合、例えば、再生制御部200は、録画データの開始タイミングから終了タイミングまでの区間の再生中、関連曲リストに含まれる曲のうち(すなわち、候補に含まれる曲のうち)、所定の選択ルールにしたがって選択された曲を出力するよう制御する。このとき、曲データ取得部202は、選択された曲のオーディオデータを取得し、再生制御部200は、このオーディオデータを用いて曲を出力する。なお、所定の選択ルールは、任意のルールを用いることができる。所定の選択ルールは、例えば、ランダムに選択するというルールであってもよいし、曲がリリースされた時期が最も新しい曲を選択するというルールであってもよい。自動的に選択することにより、ユーザが指定する手間を省くことができる。 The playback control unit 200 may output a song that is automatically selected from among the songs listed in the related song list, or may output a song that is selected according to an instruction from the user. In the case of automatic selection, for example, the playback control unit 200 selects one of the songs included in the related song list (i.e., one of the songs included in the candidates) during playback of the section from the start timing to the end timing of the recorded data. ), the selected songs are controlled to be output according to a predetermined selection rule. At this time, the song data acquisition section 202 acquires the audio data of the selected song, and the playback control section 200 outputs the song using this audio data. Note that any arbitrary rule can be used as the predetermined selection rule. The predetermined selection rule may be, for example, a rule of selecting at random, or a rule of selecting a song released most recently. Automatic selection saves the user the trouble of specifying.

また、ユーザからの指示にしたがい選択する場合、例えば、指示受付部201が、関連曲リストに含まれる曲のうち(すなわち、候補に含まれる曲のうち)、いずれかを指定する指示をユーザから受け付ける。そして、再生制御部200は、録画データの開始タイミングから終了タイミングまでの区間の再生中、指示により指定された曲を出力するよう制御する。このとき、曲データ取得部202は、指定された曲のオーディオデータを取得し、再生制御部200は、このオーディオデータを用いて曲を出力する。ユーザの指示により曲を選択することにより、ユーザは所望の曲を聴くことができる。 Further, when selecting according to an instruction from the user, for example, the instruction receiving unit 201 receives an instruction from the user to specify one of the songs included in the related song list (that is, songs included in the candidates). accept. Then, the playback control unit 200 controls to output the music specified by the instruction during playback of the section from the start timing to the end timing of the recorded data. At this time, the song data acquisition section 202 acquires the audio data of the specified song, and the playback control section 200 outputs the song using this audio data. By selecting a song according to the user's instructions, the user can listen to the desired song.

また、本実施の形態においても、ユーザによる曲の選択を促すために、注意喚起する構成を設けてもよい。すなわち、再生装置20は注意喚起部203を有してもよい。この場合、注意喚起部203は、録画装置10により録画データに設定された曲情報により特定される曲のオーディオデータが取得できない場合に、注意喚起を行なう。例えば、注意喚起部203は、ユーザが、曲が選択されていない録画データの再生を行なおうとした際に、関連曲リストから曲を選択することを促す表示を行なってもよい。また、注意喚起部203は、再生可能な録画データの一覧画面において、オーディオデータが取得できない曲が設定されている録画データに対し、その旨を表わすマークを表示してもよい。このようにすることで、ユーザに対して曲の選択を促すことができる。 Further, in this embodiment as well, a configuration may be provided to alert the user in order to encourage the user to select a song. That is, the playback device 20 may include the attention calling section 203. In this case, the alert unit 203 issues an alert when audio data of a song specified by the song information set in the recording data by the recording device 10 cannot be obtained. For example, when the user attempts to play recorded data for which no song has been selected, the attention calling unit 203 may display a message prompting the user to select a song from the related song list. Further, the attention calling unit 203 may display a mark indicating this on the list screen of reproducible recorded data for recorded data in which a song for which audio data cannot be obtained is set. By doing so, it is possible to prompt the user to select a song.

なお、関連曲リストに含まれる曲のうちいずれかを指定する指示が指示受付部201により受け付けられた場合、曲データ取得部202は、指定された曲のオーディオデータが存在する場所を示す情報を保存するようにしてもよい。また、曲データ取得部202は、録画装置10により録画データに設定された曲情報により特定される曲のオーディオデータが取得できる場合に、この曲のオーディオデータが存在する場所を示す情報を記憶装置25に保存するようにしてもよい。また、曲データ取得部202は、オーディオデータが存在する場所を示す情報をタグ情報として録画データに設定してもよい。ここで、曲のオーディオデータが存在する場所を示す情報は、例えば、ファイルパスであってもよいし、当該曲を配信するネットワークストリーミングサービスのURL(Uniform Resource Locator)であってもよいし、ダウンロードするためのURLであってもよい。このように、一旦、曲のオーディオデータが存在する場所を示す情報を保存しておくことにより、繰り返し録画データを再生する場合に、オーディオデータを容易に取得することが可能となる。 Note that when the instruction receiving unit 201 receives an instruction to specify one of the songs included in the related song list, the song data acquisition unit 202 receives information indicating the location where the audio data of the specified song exists. You may also save it. In addition, when audio data of a song specified by the song information set in the recording data by the recording device 10 can be obtained, the song data acquisition unit 202 transmits information indicating the location where the audio data of this song exists to the storage device. 25 may be stored. Further, the song data acquisition unit 202 may set information indicating a location where audio data exists in the recorded data as tag information. Here, the information indicating the location where the audio data of the song exists may be, for example, a file path, a URL (Uniform Resource Locator) of a network streaming service that distributes the song, or a download It may be a URL for doing so. In this way, by temporarily storing information indicating the location where the audio data of a song exists, it becomes possible to easily obtain the audio data when repeatedly playing recorded data.

次に、本実施の形態において、録画データの再生時に開始タイミングから終了タイミングまでの区間で出力する曲の決定についての処理の流れの一例を説明する。図12は、出力する曲の決定についての処理の流れの一例を示すフローチャートである。以下、図12に沿って、出力する曲の決定についての処理の流れの一例を説明する。 Next, in the present embodiment, an example of a process flow for determining a song to be output in the interval from the start timing to the end timing when playing recorded data will be described. FIG. 12 is a flowchart illustrating an example of the process flow for determining the music to be output. An example of the flow of processing for determining the music to be output will be described below with reference to FIG. 12.

曲データ取得部202は、録画装置10により録画データに設定された曲情報により特定される曲のオーディオデータを検索する。具体的には、以下のステップS500からステップS502の処理を行なう。 The song data acquisition unit 202 searches for audio data of a song specified by the song information set in the recording data by the recording device 10. Specifically, the following steps S500 to S502 are performed.

ステップS500において、曲データ取得部202は、再生装置20内を検索する。具体的には、曲データ取得部202は、記憶装置25に記憶されている音楽ライブラリを検索する。再生装置20内に検索対象のオーディオデータが存在しない場合(ステップS500でNo)、処理はステップS501へ移行する。これに対し、再生装置20内に検索対象のオーディオデータが存在する場合(ステップS500でYes)、処理はステップS507へ移行する。 In step S500, the song data acquisition unit 202 searches the playback device 20. Specifically, the song data acquisition unit 202 searches a music library stored in the storage device 25. If the audio data to be searched does not exist in the playback device 20 (No in step S500), the process moves to step S501. On the other hand, if the audio data to be searched exists in the playback device 20 (Yes in step S500), the process moves to step S507.

ステップS501において、曲データ取得部202は、ネットワークを介して、検索対象のオーディオデータを検索する。本ステップでは、曲データ取得部202は、ネットワーク上のユーザが利用可能なデータを検索する。曲データ取得部202は、例えば、クラウド上のオンラインストレージを検索してもよいし、ユーザが利用可能な音楽配信サービスにより提供されるオーディオデータを検索してもよい。なお、このとき、曲データ取得部202は、再生装置20のユーザのアカウントを利用するなどして、これらの接続先にアクセスしてもよい。検索対象のオーディオデータが、ネットワークを介して利用可能でない場合(ステップS501でNo)、処理はステップS502へ移行する。これに対し、検索対象のオーディオデータが、ネットワークを介して利用可能である場合(ステップS501でYes)、処理はステップS507へ移行する。 In step S501, the song data acquisition unit 202 searches for search target audio data via the network. In this step, the song data acquisition unit 202 searches for data that can be used by users on the network. For example, the song data acquisition unit 202 may search online storage on the cloud, or search for audio data provided by a music distribution service available to the user. Note that at this time, the song data acquisition unit 202 may access these connection destinations by using the account of the user of the playback device 20, for example. If the audio data to be searched is not available via the network (No in step S501), the process moves to step S502. On the other hand, if the audio data to be searched is available via the network (Yes in step S501), the process moves to step S507.

ステップS502は、ユーザが現在利用可能ではない音楽配信サービスにより提供されるオーディオデータの中に、検索対象のオーディオデータが存在するか否かを検索する。ここで、ユーザが現在利用可能ではない音楽配信サービスとは、具体的には例えば、ユーザが当該音楽配信サービスとの間にサービス提供についての契約又は購入手続きをしていないサービスをいう。検索対象のオーディオデータが、現在利用可能ではない音楽配信サービスにより提供可能である場合(ステップS502でYes)、処理はステップS503へ移行し、そうでない場合(ステップS502でNo)、処理はステップS505へ移行する。 In step S502, a search is performed to determine whether or not audio data to be searched exists among audio data provided by a music distribution service that is not currently available to the user. Here, the music distribution service that is not currently available to the user specifically refers to, for example, a service for which the user has not entered into a contract or purchase procedure for service provision with the music distribution service. If the audio data to be searched can be provided by a music distribution service that is not currently available (Yes in step S502), the process moves to step S503; otherwise (No in step S502), the process moves to step S505. Move to.

ステップS503において、曲データ取得部202は、検索対象のオーディオデータを提供可能な音楽配信サービスであって、ユーザが現在利用可能でない音楽配信サービスに関する情報をディスプレイ21に提示する。すなわち、そのような音楽配信サービスを利用することにより、オーディオデータを取得できることをユーザに通知する。これにより、そのような音楽配信サービスとのストリーミング配信契約またはダウンロード購入手続きを促す。このように、曲データ取得部202は、曲情報により特定される曲のオーディオデータの取得のために、ユーザが現在利用可能ではない音楽配信サービスからのオーディオデータの提供が必要である場合、当該音楽配信サービスに関する情報を提示してもよい。こうすることにより、曲情報により特定される曲を出力することが可能となる。ステップS503の後、処理はステップS504へ移行する。 In step S503, the song data acquisition unit 202 presents on the display 21 information regarding a music distribution service that can provide the audio data to be searched and that is not currently available to the user. That is, the user is notified that audio data can be obtained by using such a music distribution service. This prompts the user to enter into a streaming distribution contract or download purchase procedure with such a music distribution service. In this way, if it is necessary to provide audio data from a music distribution service that is not currently available to the user in order to acquire audio data of a song specified by the song information, the song data acquisition unit 202 Information regarding music distribution services may also be presented. By doing so, it becomes possible to output a song specified by the song information. After step S503, the process moves to step S504.

ステップS504において、曲データ取得部202は、検索対象のオーディオデータを提供可能な音楽配信サービスが利用可能となったか否かを判定する。音楽配信サービスが利用可能となっていない場合(ステップS504でNo)、処理はステップS505へ移行する。これに対し、音楽配信サービスが利用可能となった場合(ステップS504でYes)、処理はステップS507へ移行する。 In step S504, the song data acquisition unit 202 determines whether a music distribution service that can provide the audio data to be searched is available. If the music distribution service is not available (No in step S504), the process moves to step S505. On the other hand, if the music distribution service becomes available (Yes in step S504), the process moves to step S507.

ステップS505において、曲データ取得部202は、曲情報により特定される曲と関連する曲であって、オーディオデータが取得可能な曲のリスト(すなわち、関連曲リスト)を作成する。ステップS505の後、処理はステップS506へ移行する。 In step S505, the song data acquisition unit 202 creates a list of songs that are related to the song specified by the song information and for which audio data can be obtained (ie, a related song list). After step S505, the process moves to step S506.

ステップS506において、指示受付部201が、関連曲リストから曲を選択する指示をユーザから受け付ける。ステップS506の後、処理はステップS507へ移行する。 In step S506, the instruction receiving unit 201 receives an instruction from the user to select a song from the related song list. After step S506, the process moves to step S507.

ステップS507において、再生制御部200は、開始タイミングから終了タイミングまでの区間の再生中に出力する曲を決定する。再生装置20内に検索対象のオーディオデータが存在する場合(ステップS500でYes)、ネットワークを介して利用可能である場合(ステップS501でYes、又はステップS504でYes)、再生制御部200は、録画データに設定された曲情報により特定される曲を出力対象の曲とする。これに対し、関連曲リストの中から指定された場合(ステップS506)、再生制御部200は、指定された曲を出力対象の曲とする。なお、出力する曲の決定に伴い、再生制御部200は、録画データにタグ情報として設定された曲情報を、決定された曲の曲情報に更新してもよい。すなわち、再生制御部200は、タグ情報を更新してもよい。 In step S507, the playback control unit 200 determines a song to be output during playback in the section from the start timing to the end timing. If the audio data to be searched exists in the playback device 20 (Yes in step S500) or is available via the network (Yes in step S501 or Yes in step S504), the playback control unit 200 controls the recording The song specified by the song information set in the data is the song to be output. On the other hand, if the song is specified from the related song list (step S506), the playback control unit 200 sets the specified song as the song to be output. Note that, upon determining the song to be output, the playback control unit 200 may update the song information set as tag information in the recorded data to the song information of the determined song. That is, the playback control unit 200 may update the tag information.

以上、実施の形態3について説明した。本実施の形態によれば、関連曲リストが作成される。このため、録画装置10により録画データに設定された曲情報で特定される曲のオーディオデータ取得できない場合であっても、曲の再生を可能にすることができる。 The third embodiment has been described above. According to this embodiment, a related song list is created. Therefore, even if the audio data of the song specified by the song information set in the recording data by the recording device 10 cannot be obtained, the song can be played back.

<実施の形態4>
上述した実施の形態では、記憶装置14の空き容量がなくなると、古い録画データから順に上書き処理をすることにより、新たな録画データを記憶するよう制御する。このため、上書き処理により、曲が歌われた区間の録画データが削除される恐れがある。これを防ぐために、上述の通り、曲が歌われた区間の録画データを上書き禁止にすることも可能である。しかしながら、その場合、上書きが禁止された録画データが記憶装置14において増加すればするほど、新たな録画データの記憶可能容量が減少してしまい、車両の事故発生時の映像などのように、より重要な映像を記憶できなくなる恐れがある。これを防ぐために、上述の通り、新たな録画データの記憶可能容量が少なくなった場合に、上書き禁止を解除することも可能である。しかしながら、その場合、曲が歌われた区間の録画データが削除される恐れが再び生じる。このように、上述した実施の形態では、曲が歌われた区間の録画データ及びより重要な録画データについて保存することが困難となる恐れがある。そこで、本実施の形態では、録画データを適切に保存することができる技術を提供する。以下、上述した実施の形態と異なる点について説明する。
<Embodiment 4>
In the embodiment described above, when the storage device 14 runs out of free space, control is performed to store new recorded data by sequentially overwriting the oldest recorded data. Therefore, there is a risk that the recorded data of the section in which the song was sung may be deleted due to the overwriting process. In order to prevent this, as described above, it is also possible to prohibit overwriting of the recorded data of the section in which the song is sung. However, in that case, the more recorded data that is prohibited to be overwritten increases in the storage device 14, the more the storage capacity of new recorded data decreases, and the more recorded data that is prohibited to be overwritten increases, the more the storage capacity of new recorded data decreases. There is a risk that you will not be able to remember important images. To prevent this, as described above, it is also possible to cancel the overwrite prohibition when the storage capacity of new recorded data becomes small. However, in that case, there is a risk that the recorded data of the section in which the song was sung may be deleted. As described above, in the embodiment described above, it may be difficult to save the recorded data of the section in which the song was sung and the more important recorded data. Therefore, the present embodiment provides a technique that can appropriately store recorded data. Hereinafter, points different from the embodiments described above will be explained.

図13は、本実施の形態における録画装置10のハードウェア構成の一例を示すブロック図である。図13に示した構成は、メモリカード、USB(Universal Serial Bus)メモリなどのリムーバブルメディア19が接続される外部ストレージインタフェース16をさらに有する点で、図2に示した構成と異なっている。外部ストレージインタフェース16は、録画装置10の外部ストレージとして機能するリムーバブルメディア19と録画装置10とを通信可能に接続するインタフェース回路である。 FIG. 13 is a block diagram showing an example of the hardware configuration of the recording device 10 in this embodiment. The configuration shown in FIG. 13 differs from the configuration shown in FIG. 2 in that it further includes an external storage interface 16 to which a removable medium 19 such as a memory card or a USB (Universal Serial Bus) memory is connected. The external storage interface 16 is an interface circuit that communicably connects the removable medium 19 that functions as an external storage for the recording device 10 and the recording device 10 .

本実施の形態における記憶制御部102は、録画データのうち開始タイミングから終了タイミングまでの区間のデータ、すなわち曲が歌われた区間のデータを記憶装置14から他の記憶装置に移動するよう制御する。より詳細には、記憶制御部102は、上述した他の記憶装置の空き容量が、当該区間のデータのサイズ以上である場合、当該区間のデータを記憶装置14から他の記憶装置に移動する。ここで、他の記憶装置は、記憶装置14以外の任意の外部のストレージを言い、具体的には、リムーバブルメディア19であってもよいし、ネットワークインタフェース13を介して接続されるオンラインストレージであってもよい。なお、他の記憶装置としてオンラインストレージが用いられる場合、外部ストレージインタフェース16は必ずしも設けられなくてもよい。 The storage control unit 102 in the present embodiment controls to move the data of the section from the start timing to the end timing of the recorded data, that is, the data of the section in which the song was sung, from the storage device 14 to another storage device. . More specifically, if the free space of the other storage device mentioned above is greater than or equal to the size of the data in the section, the storage control unit 102 moves the data in the section from the storage device 14 to the other storage device. Here, the other storage device refers to any external storage other than the storage device 14, and specifically, it may be the removable media 19 or an online storage connected via the network interface 13. It's okay. Note that when online storage is used as another storage device, the external storage interface 16 does not necessarily need to be provided.

次に、本実施の形態において、曲が歌われた区間の録画データを他の記憶装置に移動する動作の流れの一例を説明する。図14は、曲が歌われた区間の録画データを他の記憶装置に移動する処理の流れの一例を示すフローチャートである。以下、図14に沿って、録画データの移動の流れの一例を説明する。 Next, in this embodiment, an example of the flow of operations for moving recorded data of a section in which a song was sung to another storage device will be described. FIG. 14 is a flowchart showing an example of the flow of processing for moving recorded data of a section in which a song was sung to another storage device. An example of the flow of moving recorded data will be described below with reference to FIG.

ステップS600において、記憶制御部102は、曲が歌われた区間を含む録画データが記憶装置14に記憶されているか否かを判定する。すなわち、記憶制御部102は、開始タイミングのタグ情報と終了タイミングのタグ情報とが設定された録画データが記憶装置14に記憶されているか否かを判定する。記憶制御部102は、そのような録画データがない場合、所定時間後に本ステップを繰り返す(ステップS600でNo)。これに対し、そのような録画データが記憶装置14に記憶されている場合(ステップS600でYes)、処理はステップS601へ移行する。 In step S600, the storage control unit 102 determines whether recorded data including the section in which the song was sung is stored in the storage device 14. That is, the storage control unit 102 determines whether the recording data in which the tag information of the start timing and the tag information of the end timing are set is stored in the storage device 14. If there is no such recorded data, the storage control unit 102 repeats this step after a predetermined period of time (No in step S600). On the other hand, if such recorded data is stored in the storage device 14 (Yes in step S600), the process moves to step S601.

ステップS601において、記憶制御部102は、ステップS600で見つかった、曲が歌われた区間を含む録画データについて、当該区間部分を移動対象とする。すなわち、記憶制御部102は、曲が歌われた区間を含む録画データのうち、当該区間部分に対応する部分的な録画データを他の記憶装置への移動対象とする。 In step S601, the storage control unit 102 sets the recorded data including the section in which the song was sung, found in step S600, as a moving target. That is, the storage control unit 102 selects partial recorded data corresponding to the section of the recorded data including the section in which the song is sung to be moved to another storage device.

ステップS602において、記憶制御部102は、アクセス可能かつ空き容量が十分である他の記憶装置が存在するか否かを判定する。ここで、空き容量が十分であるとは、移動対象のデータのサイズ以上の空き容量があることをいう。なお、他の記憶装置として複数が存在しうる場合には、記憶制御部102は、これら全てについて順に、アクセス可能かつ空き容量が十分であるか否かを確認する。いずれかの他の記憶装置について、アクセス可能かつ空き容量が十分である場合(ステップS602でYes)、処理はステップS603へ移行する。これに対し、アクセス可能かつ空き容量が十分である他の記憶装置が存在しない場合(ステップS602でNo)、所定時間後、再び、ステップS600以降の処理が行なわれる。 In step S602, the storage control unit 102 determines whether there is another storage device that is accessible and has sufficient free space. Here, "sufficient free space" means that there is free space that is larger than the size of the data to be moved. Note that if there may be a plurality of other storage devices, the storage control unit 102 sequentially checks whether all of these storage devices are accessible and have sufficient free space. If any other storage device is accessible and has sufficient free space (Yes in step S602), the process moves to step S603. On the other hand, if there is no other storage device that is accessible and has sufficient free space (No in step S602), the processes from step S600 onward are performed again after a predetermined period of time.

ステップS603において、記憶制御部102は、記憶装置14から、ステップS601で移動対象とされたデータを、アクセス可能かつ空き容量が十分である他の記憶装置へ移動する。これにより、移動対象とされたデータのサイズだけ、記憶装置14の記憶容量が回復する。ステップS603の後、所定時間後、再び、ステップS600以降の処理が行なわれる。 In step S603, the storage control unit 102 moves the data targeted for movement in step S601 from the storage device 14 to another storage device that is accessible and has sufficient free space. As a result, the storage capacity of the storage device 14 is recovered by the size of the data targeted for movement. After a predetermined period of time after step S603, the processes from step S600 onwards are performed again.

以上、実施の形態4について説明した。上述の通り、本実施の形態では、記憶制御部102は、曲が歌われた区間のデータを、録画データが記憶される記憶装置14から他の記憶装置へと移動する。これにより、曲が歌われた区間のデータが、記憶装置14において上書きされてしまって削除されることを防ぐことができるとともに、車両の事故発生時の映像などのようにより重要な映像を記憶するための記憶容量を確保することができる。 The fourth embodiment has been described above. As described above, in this embodiment, the storage control unit 102 moves the data of the section in which the song was sung from the storage device 14 where the recorded data is stored to another storage device. This prevents the data of the section in which the song was sung from being overwritten and deleted in the storage device 14, and also allows more important images, such as images from a vehicle accident, to be stored. It is possible to secure storage capacity for

<実施の形態5>
本実施の形態では、録画データの再生開始位置の指定についての利便性を向上させる技術を提供する。具体的には、再生装置20は、ユーザが曲を歌った場合、その曲に対応する位置へ録画データの再生位置を移動する。以下、上述した実施の形態と異なる点について説明する。
<Embodiment 5>
This embodiment provides a technique that improves the convenience of specifying the playback start position of recorded data. Specifically, when the user sings a song, the playback device 20 moves the playback position of the recorded data to a position corresponding to the song. Hereinafter, points different from the embodiments described above will be explained.

図15は、本実施の形態にかかる再生装置20のハードウェア構成の一例を示すブロック図である。図15に示した再生装置20は、マイク27が追加されている点で、図3に示した構成と異なっている。マイク27は、再生装置20の周辺の音を集音する装置であり、再生装置のユーザの声を取得する。 FIG. 15 is a block diagram showing an example of the hardware configuration of the playback device 20 according to this embodiment. The playback device 20 shown in FIG. 15 differs from the configuration shown in FIG. 3 in that a microphone 27 is added. The microphone 27 is a device that collects sounds around the playback device 20, and acquires the voice of the user of the playback device.

図16は、本実施の形態にかかる再生装置20の機能構成の一例を示すブロック図である。図16に示した再生装置20は、曲情報取得部204が追加されている点で、図5に示した構成と異なっている。曲情報取得部204の処理は、例えばプロセッサ26によるプログラムの実行により実現される。なお、本実施の形態の再生装置20も、図9と同様、注意喚起部203をさらに有してもよい。 FIG. 16 is a block diagram showing an example of the functional configuration of the playback device 20 according to the present embodiment. The playback device 20 shown in FIG. 16 differs from the configuration shown in FIG. 5 in that a song information acquisition section 204 is added. The processing of the music information acquisition unit 204 is realized by, for example, executing a program by the processor 26. Note that the playback device 20 of this embodiment may also further include an attention calling unit 203 as in FIG. 9 .

曲情報取得部204は、マイク27によって取得された音のオーディオデータから、再生装置20を利用するユーザにより歌われた曲の曲情報(例えば、識別情報)を取得する。また、曲情報取得部204は、ユーザによる歌い出しに対応する曲の一部分について、当該曲の全体における位置を特定する位置情報をさらに取得してもよい。つまり、曲情報取得部204は、ある曲が歌われた場合、その歌い出しが、当該曲のどこからであるか(例えば、曲の冒頭からなのか、サビからなのか、2番からなのか)を特定する位置情報を取得してもよい。なお、曲情報取得部204による曲情報の取得及び位置情報の取得については、録画装置10における曲情報取得部100と同様の処理により可能である。したがって、曲情報取得部204は、サーバから、解析対象のオーディオデータとの類似度が所定の閾値を超える曲の曲情報と、位置情報とを取得する。なお、再生装置20における曲情報及び位置情報の取得においても、解析処理は、サーバではなく、曲情報取得部204(すなわち、再生装置20)の処理として行なわれてもよい。 The song information acquisition unit 204 acquires song information (for example, identification information) of a song sung by the user using the playback device 20 from the audio data of the sound acquired by the microphone 27 . Further, the song information acquisition unit 204 may further acquire position information for specifying the position in the entire song for a portion of the song that corresponds to the beginning of the song by the user. In other words, when a certain song is sung, the song information acquisition unit 204 determines where in the song the song begins (for example, from the beginning of the song, from the chorus, from the second verse). You may also obtain location information that specifies the location. Note that the song information acquisition unit 204 can acquire the song information and position information using the same process as the song information acquisition unit 100 in the recording device 10. Therefore, the song information acquisition unit 204 acquires the song information and position information of the song whose similarity to the audio data to be analyzed exceeds a predetermined threshold value from the server. Note that when acquiring the song information and position information in the playback device 20, the analysis process may be performed by the song information acquisition unit 204 (that is, the playback device 20) instead of the server.

本実施の形態にかかる再生制御部200は、曲情報取得部204が曲情報を取得した場合、録画データに付加されている曲情報のうち、再生装置20の曲情報取得部204が取得した曲情報に対応する曲情報と関連づけられている区間を再生開始位置とする。そして、再生制御部200は、その再生開始位置から、曲の出力を伴いつつ録画データを再生する。図17は、録画データの再生開始位置について示す模式図である。図17に示すように、例えば、ある録画データにおいて、曲Aが関連づけられている区間と曲Bが関連づけられている区間が設定されているものとする。この場合、再生装置20の曲情報取得部204が曲Aの曲情報を取得した場合、再生制御部200は、曲Aの区間(具体的には例えば曲Aの区間の開始タイミングである再生開始位置P)から録画データの再生を開始する。これにより、ユーザは、所望の曲が歌われている箇所の視聴を容易に開始することができる。 When the song information acquisition unit 204 acquires song information, the playback control unit 200 according to the present embodiment controls the playback control unit 200 to select a song that has been acquired by the song information acquisition unit 204 of the playback device 20 from among the song information added to the recorded data. The section associated with the song information corresponding to the information is set as the playback start position. Then, the playback control unit 200 plays back the recorded data from the playback start position while outputting the song. FIG. 17 is a schematic diagram showing the playback start position of recorded data. As shown in FIG. 17, for example, assume that in some recorded data, a section to which song A is associated and a section to which song B is associated are set. In this case, when the song information acquisition unit 204 of the playback device 20 acquires the song information of the song A, the playback control unit 200 starts the playback at the start timing of the section of the song A (specifically, for example, the start timing of the section of the song A). Playback of recorded data is started from position P). Thereby, the user can easily start viewing the part where the desired song is sung.

上述した再生開始位置の制御では、曲が歌われた区間の冒頭へのスキップが行なわれたが、位置情報を用いることにより、曲が歌われた区間の途中へのスキップも可能となる。すなわち、録画データが歌い出しの位置情報(以下、第1の位置情報と称す)を含み、再生装置20の曲情報取得部204が歌い出しの位置情報(以下、第2の位置情報と称す)を取得した場合、再生制御部200は、第1の位置情報と第2の位置情報の差に応じて、録画データの再生開始位置を調整してもよい。これについて、図18を用いて、具体的に説明する。図18は、録画データの再生開始位置について示す模式図である。図18に示すように、例えば、ある録画データにおいて、曲Aが関連づけられている区間と曲Bが関連づけられている区間が設定されているものとする。特に、曲Aが関連づけられている区間の開始タイミングには、第1の位置情報として、曲の冒頭から1分15秒経過した位置を表わす位置情報が関連づけられているものとする。すなわち、この場合、再生装置20は、曲が歌われた区間を開始タイミングから再生するとき、当該曲の途中から(より詳細には曲の冒頭から1分15秒経過した位置から)、当該曲を出力する。ここで、再生装置20の曲情報取得部204が、曲Aの曲情報を取得し、さらに、第2の位置情報として、曲Aの冒頭から2分15秒経過した位置を表わす位置情報を取得したとする。この場合、再生制御部200は、曲Aが歌われた区間の冒頭から1分(=[2分15秒]-[1分15秒])経過した時点である再生開始位置Pから録画データの再生を開始する。これにより、より詳細に再生開始位置を決定することができる。 In controlling the playback start position described above, skipping is performed to the beginning of the section in which the song is sung, but by using position information, it is also possible to skip to the middle of the section in which the song is sung. That is, the recorded data includes the position information of the beginning of the song (hereinafter referred to as first position information), and the song information acquisition unit 204 of the playback device 20 includes the position information of the beginning of the song (hereinafter referred to as second position information). , the playback control unit 200 may adjust the playback start position of the recorded data according to the difference between the first position information and the second position information. This will be specifically explained using FIG. 18. FIG. 18 is a schematic diagram showing the playback start position of recorded data. As shown in FIG. 18, for example, assume that in some recorded data, a section to which song A is associated and a section to which song B is associated are set. In particular, it is assumed that the start timing of the section to which song A is associated is associated with position information representing a position 1 minute and 15 seconds after the beginning of the song as first position information. That is, in this case, when reproducing the section in which the song is sung from the start timing, the playback device 20 starts from the middle of the song (more specifically, from the position 1 minute and 15 seconds after the beginning of the song). Output. Here, the song information acquisition unit 204 of the playback device 20 acquires the song information of song A, and further acquires position information representing a position 2 minutes and 15 seconds after the beginning of song A as second position information. Suppose we did. In this case, the playback control unit 200 starts the recording data from the playback start position P, which is the time when one minute (=[2 minutes 15 seconds] - [1 minute 15 seconds]) has elapsed from the beginning of the section in which song A was sung. Start playing. Thereby, the playback start position can be determined in more detail.

また、本実施の形態において、取得された曲情報に基づく再生開始位置からの再生を実施して良いか否かについて、ユーザが指示してもよい。すなわち、指示受付部201は、再生装置20の曲情報取得部204が取得した曲情報に対応する曲情報と関連づけられている録画データの区間が特定された場合に、当該区間を再生開始位置とすることを許可する指示を受け付けてもよい。この場合、再生制御部200は、許可する指示が得られた場合に、当該区間を再生開始位置とする。このような構成によれば、ユーザは、曲情報による再生開始位置の制御を行なうか否かを決定することができる。 Furthermore, in the present embodiment, the user may instruct whether or not to perform playback from the playback start position based on the acquired song information. That is, when a section of recorded data associated with song information corresponding to the song information acquired by the song information acquisition section 204 of the playback device 20 is specified, the instruction receiving section 201 sets the section as the playback start position. You may also accept instructions that allow you to do so. In this case, when an instruction to permit is obtained, the reproduction control unit 200 sets the relevant section as the reproduction start position. According to such a configuration, the user can decide whether or not to control the playback start position based on the song information.

また、指示受付部201は、再生装置20の曲情報取得部204が取得した曲情報に対応する曲情報と関連づけられている録画データの区間が複数特定された場合に、いずれの区間を再生開始位置とするかを選択する指示を受け付けてもよい。この場合、再生制御部200は、指示により選択された区間を再生開始位置とする。このような構成によれば、より適切な区間を再生することができる。 In addition, when a plurality of sections of recorded data associated with the song information corresponding to the song information acquired by the song information acquisition section 204 of the playback device 20 are identified, the instruction receiving section 201 starts the reproduction of which section. An instruction to select the location may be accepted. In this case, the playback control unit 200 sets the section selected by the instruction as the playback start position. According to such a configuration, a more appropriate section can be reproduced.

なお、指示受付部201は、曲情報に基づく再生開始位置をユーザに明示するために、曲情報に基づく再生開始位置における時刻情報又はサムネイル画像の一覧をディスプレイ21に表示してもよい。 Note that the instruction receiving unit 201 may display time information or a list of thumbnail images at the playback start position based on the song information on the display 21 in order to clearly indicate to the user the playback start position based on the song information.

次に、本実施の形態における、再生開始位置の決定動作の流れの一例を説明する。図19は、録画データの再生開始位置の決定動作の流れの一例を示すフローチャートである。以下、図19に沿って、再生開始位置の決定動作の流れの一例を説明する。 Next, an example of the flow of the operation for determining the playback start position in this embodiment will be described. FIG. 19 is a flowchart showing an example of the flow of the operation for determining the playback start position of recorded data. An example of the flow of the operation for determining the playback start position will be described below with reference to FIG.

ステップS700において、再生制御部200は、曲情報取得部204が曲情報を取得したか否かを判定する。曲情報が取得されていない場合(ステップS700でNo)、本処理が繰り返される。曲情報が取得されると(ステップS700でYes)、処理はステップS701へ移行する。 In step S700, the playback control unit 200 determines whether the song information acquisition unit 204 has acquired song information. If the song information has not been acquired (No in step S700), this process is repeated. When the song information is acquired (Yes in step S700), the process moves to step S701.

ステップS701において、再生制御部200は、再生対象の録画データに、曲情報取得部204が取得した曲情報が設定された区間があるか否かを判定する。再生対象の録画データに当該曲情報が設定された区間がない場合(ステップS701でNo)、処理はステップS700に戻る。これに対し、再生対象の録画データに当該曲情報が設定された区間がある場合(ステップS701でYes)、処理はステップS702へ移行する。 In step S701, the playback control unit 200 determines whether the recorded data to be played includes a section in which the song information acquired by the song information acquisition unit 204 is set. If there is no section in which the song information is set in the recorded data to be played back (No in step S701), the process returns to step S700. On the other hand, if there is a section in which the song information is set in the recorded data to be played back (Yes in step S701), the process moves to step S702.

ステップS702において、再生制御部200は、指示受付部201が所定の指示を受け付けたか否かを判定する。具体的には、再生制御部200は、取得された曲情報に基づく再生開始位置からの再生を許可する指示が受け付けられたか否かを判定する。また、再生対象の録画データに、取得された曲情報が設定された区間が複数ある場合には、再生制御部200は、いずれの区間を再生開始位置とするかを選択する指示が受け付けられたか否かを判定する。そのような指示が受付けられなかった場合(ステップS702でNo)、処理はステップS700に戻る。これに対し、そのような指示が受付けられた場合(ステップS702でYes)、処理はステップS703へ移行する。 In step S702, the reproduction control unit 200 determines whether the instruction receiving unit 201 has received a predetermined instruction. Specifically, the playback control unit 200 determines whether an instruction to permit playback from the playback start position based on the acquired song information has been received. Furthermore, if the recorded data to be played includes multiple sections in which the acquired song information is set, the playback control unit 200 determines whether an instruction to select which section is to be the playback start position is received. Determine whether or not. If such an instruction is not accepted (No in step S702), the process returns to step S700. On the other hand, if such an instruction is accepted (Yes in step S702), the process moves to step S703.

ステップS703において、再生制御部200は、曲情報に基づく位置を、再生開始位置とする。これにより、再生装置20のユーザが歌った曲が歌われている区間から録画データの再生が開始される。 In step S703, the playback control unit 200 sets the position based on the song information as the playback start position. As a result, playback of the recorded data is started from the section in which the song sung by the user of the playback device 20 is sung.

以上、実施の形態5について説明した。上述の通り、本実施の形態では、再生装置20のユーザが歌った曲に対応する位置から録画データが再生される。したがって、本実施の形態によれば、録画データの再生開始位置の指定についての利便性を向上させることができる。 The fifth embodiment has been described above. As described above, in this embodiment, the recorded data is played back from the position corresponding to the song sung by the user of the playback device 20. Therefore, according to the present embodiment, it is possible to improve the convenience of specifying the playback start position of recorded data.

<実施の形態6>
本実施の形態では、車内で複数人の人物が同時に曲を歌った場合であっても、適切に曲情報を録画データに設定することができる技術を提供する。以下、上述した実施の形態と異なる点について説明する。
<Embodiment 6>
The present embodiment provides a technology that allows song information to be appropriately set in recorded data even when a plurality of people sing a song at the same time in a car. Hereinafter, points different from the embodiments described above will be explained.

本実施の形態にかかる録画データ生成部101は、所定の優先ルールにしたがって決定された人物により歌われた曲の曲情報と、当該曲の開始タイミングと、当該曲の終了タイミングとをカメラ11により撮影された動画の映像データに付加した録画データを生成する。このような構成によれば、車内で複数人の人物が同時に曲を歌った場合であっても、適切に曲情報を録画データに設定することができる。 The recorded data generation unit 101 according to the present embodiment uses the camera 11 to collect song information of a song sung by a person determined according to a predetermined priority rule, the start timing of the song, and the end timing of the song. Recording data added to the video data of the shot moving image is generated. According to such a configuration, even if a plurality of people sing a song at the same time in the car, the song information can be appropriately set in the recorded data.

上述した所定の優先ルールは、例えば、車内の座席に対して設定された優先度により、曲情報の取得対象の人物を決定するものである。具体的には、例えば、特定の座席の人物が歌う曲の曲情報の取得を優先するために、当該特定の座席を他の座席よりも優先するというルールが用いられる。つまり、この特定の座席には、他の座席よりも高い優先度が設定されている。なお、特定の座席は、例えば、右側の後部座席であってもよいし、左側の後部座席であってもよいし、運転席であってもよい。なお、これらの席種は例に過ぎず、車両に設けられた任意の位置の座席が特定の座席として用いられてもよい。また、優先度は、いずれか1つの座席を他の座席よりも優先するために、当該1つの座席だけに他の座席よりも高い優先度を設定してもよいし、複数の座席の優先順位を決めるために、各座席に対して優先順位に相当する優先度を設定してもよい。 The above-mentioned predetermined priority rule determines the person from whom music information is to be acquired, for example, based on the priority set for the seats in the car. Specifically, for example, in order to prioritize the acquisition of song information of a song sung by a person in a specific seat, a rule is used that prioritizes the specific seat over other seats. In other words, this particular seat is given a higher priority than other seats. Note that the specific seat may be, for example, the right rear seat, the left rear seat, or the driver's seat. Note that these seat types are merely examples, and a seat at any position provided in the vehicle may be used as the specific seat. In addition, in order to give priority to any one seat over other seats, a higher priority may be set for only that one seat than other seats, or a priority for multiple seats may be set. In order to determine this, a priority level corresponding to the priority level may be set for each seat.

所定の優先ルールとして、車内の座席に対して設定された優先度により、曲情報の取得対象の人物を決定するものが用いられる場合、録画データ生成部101は、次のような録画データを生成する。すなわち、この場合、録画データ生成部101は、優先度に基づいて選ばれる座席にいる人物により歌われた曲の曲情報と、当該曲の前記開始タイミングと、当該曲の前記終了タイミングとをカメラ11により撮影された動画の映像データに付加した録画データを生成する。 When a predetermined priority rule is used that determines the person from whom song information is to be acquired based on the priority set for the seats in the car, the recorded data generation unit 101 generates the following recorded data. do. That is, in this case, the recorded data generation unit 101 uses the camera to collect the song information of the song sung by the person in the seat selected based on the priority, the start timing of the song, and the end timing of the song. 11 to generate recorded data added to the video data of the moving image photographed.

なお、優先度に基づいて選ばれる座席にいる人物により歌われた曲の曲情報は、次のようにして取得することができる。例えば、マイク12として指向性マイクを用いることにより、特定の座席の人物の声を抽出することができる。また、例えば、マイクロフォンアレーなどのような複数のマイク12を用いた公知のブラインド信号分離により、特定の座席の人物の声を抽出してもよい。曲情報取得部100は、このようにして抽出された声を使って、曲情報を取得する。すなわち、曲情報取得部100は、優先度に基づいて選ばれる座席からの声のオーディオデータを使って、当該座席にいる人物が歌った曲の曲情報を取得する。 Note that the song information of the song sung by the person in the seat selected based on the priority can be acquired as follows. For example, by using a directional microphone as the microphone 12, it is possible to extract the voice of a person in a specific seat. Alternatively, the voice of a person at a particular seat may be extracted by known blind signal separation using a plurality of microphones 12 such as a microphone array. The song information acquisition unit 100 uses the voice extracted in this way to acquire song information. That is, the song information acquisition unit 100 uses the audio data of the voice from the seat selected based on the priority to acquire the song information of the song sung by the person in the seat.

また、上述した所定の優先ルールは、人物の声に対して設定された優先度により、曲情報の取得対象の人物を決定するものであってもよい。具体的には、例えば、特定の人物が歌う曲の曲情報の取得を優先するために、当該特定の人物の声を他の人物の声よりも優先するというルールが用いられる。つまり、この特定の人物の声には、他の人物の声よりも高い優先度が設定されている。また、優先度は、いずれか1人を他の人物よりも優先するために、当該1人の声だけに他の人物の声よりも高い優先度を設定してもよいし、複数の人物の優先順位を決めるために、複数の人物の声に対して優先順位に相当する優先度を設定してもよい。 Further, the above-mentioned predetermined priority rule may determine the person from whom the song information is to be acquired based on the priority set for the person's voice. Specifically, for example, in order to prioritize the acquisition of song information for a song sung by a specific person, a rule is used in which the voice of the specific person is given priority over the voices of other people. In other words, this specific person's voice is given a higher priority than other people's voices. In addition, in order to give priority to one person over the others, the voice of one person may be given a higher priority than the voices of other people, or the voice of multiple people may be given higher priority than the voices of other people. In order to determine the priority order, priorities corresponding to the priority order may be set for the voices of a plurality of people.

所定の優先ルールとして、人物の声に対して設定された優先度により、曲情報の取得対象の人物を決定するものが用いられる場合、録画データ生成部101は、次のような録画データを生成する。すなわち、この場合、録画データ生成部101は、優先度に基づいて選ばれる声の人物により歌われた曲の曲情報と、当該曲の開始タイミングと、当該曲の終了タイミングとをカメラ11により撮影された動画の映像データに付加した録画データを生成する。 When a predetermined priority rule is used that determines the person from whom song information is to be acquired based on the priority set for the person's voice, the recorded data generation unit 101 generates the following recorded data. do. That is, in this case, the recorded data generation unit 101 uses the camera 11 to photograph the song information of the song sung by the person whose voice is selected based on the priority, the start timing of the song, and the end timing of the song. This process generates recorded data added to the video data of the video.

なお、優先度に基づいて選ばれる声の人物により歌われた曲の曲情報は、次のようにして取得することができる。曲情報取得部100は、公知の音源分離技術を用いて、マイク12によって取得されたオーディオデータから、特定の人物の声を抽出する。例えば、曲情報取得部100は、特定の人物の声を含む訓練データを用いて深層学習などの機械学習によって予め学習されたモデルに対し、マイク12によって取得されたオーディオデータを入力することにより音源分離処理を行ない、特定の人物の声を抽出する。曲情報取得部100は、このようにして抽出された声を使って、曲情報を取得する。すなわち、曲情報取得部100は、優先度に基づいて選ばれる声のオーディオデータを使って、当該声をもつ人物が歌った曲の曲情報を取得する。 Note that the song information of the song sung by the person whose voice is selected based on the priority can be acquired as follows. The song information acquisition unit 100 extracts the voice of a specific person from the audio data acquired by the microphone 12 using a known sound source separation technique. For example, the song information acquisition unit 100 inputs audio data acquired by the microphone 12 to a model that has been trained in advance by machine learning such as deep learning using training data that includes the voice of a specific person. Separation processing is performed to extract the voice of a specific person. The song information acquisition unit 100 uses the voice extracted in this way to acquire song information. That is, the song information acquisition unit 100 uses the audio data of the voice selected based on the priority to acquire the song information of the song sung by the person with the voice.

優先度を曲情報の取得対象の決定以外に用いてもよい。例えば、図20に示すように、録画装置10はカメラ制御部103をさらに有してもよい。カメラ制御部103の処理は、例えばプロセッサ15によるプログラムの実行により実現される。カメラ制御部103は、優先ルールにしたがって決定された人物にズームインして撮影を行なうよう、車内を撮影するカメラ11を制御する。このような構成によれば、優先度の高い人物について注目した録画データを生成することができる。具体的には、車内の座席に対して設定された優先度が用いられる場合、カメラ制御部103は、例えば、車内の各座席とカメラ11との相対的な位置関係を予め定義した情報を用いて、カメラ11の撮影範囲及びズーム倍率を制御する。また、人物の声に対して設定された優先度が用いられる場合、カメラ制御部103は、例えば、予め登録された当該人物の顔画像とカメラ11が撮影した画像とを照合する顔認識処理により、当該人物の位置を特定し、カメラ11の撮影範囲及びズーム倍率を制御する。 The priority may be used for purposes other than determining the acquisition target of song information. For example, as shown in FIG. 20, the recording device 10 may further include a camera control section 103. The processing of the camera control unit 103 is realized, for example, by execution of a program by the processor 15. The camera control unit 103 controls the camera 11 that photographs the interior of the vehicle so as to zoom in and photograph the person determined according to the priority rule. According to such a configuration, it is possible to generate recorded data focusing on a person with a high priority. Specifically, when the priority set for the seats in the car is used, the camera control unit 103 uses, for example, information that predefines the relative positional relationship between each seat in the car and the camera 11. to control the photographing range and zoom magnification of the camera 11. In addition, when the priority set for a person's voice is used, the camera control unit 103 performs, for example, a face recognition process that compares a pre-registered face image of the person with an image captured by the camera 11. , the position of the person is specified, and the photographing range and zoom magnification of the camera 11 are controlled.

なお、撮影時に、優先ルールにしたがって決定された人物にズームインを行なうのではなく、録画データの再生時に当該人物にズームインした映像表示が行なわれてもよい。すなわち、再生装置20の再生制御部200は、曲が歌われた区間の再生の際に、当該人物にズームインした映像表示を行なってもよい。車内の座席に対して設定された優先度が用いられる場合、具体的には、例えば、次のようにして、優先ルールにしたがって決定された人物にズームインした映像表示が実現される。録画データ生成部101は、どの座席の人物の曲情報を付加したかを示す情報を、曲が歌われた区間毎に録画データに対し付加する。再生装置20の再生制御部200は、この情報と、カメラ11の撮影画像内のどの領域に各座席が写されるかを示す予め定義された情報とを用いて、カメラ11の撮影画像のうち当該領域を拡大することにより、当該人物にズームインした映像表示を行なう。また、人物の声に対して設定された優先度が用いられる場合、具体的には、例えば、次のようにして、優先ルールにしたがって決定された人物にズームインした映像表示が実現される。録画データ生成部101は、予め登録された当該人物の顔画像とカメラ11が撮影した画像とを照合する顔認識処理により、当該人物の画像内の位置を特定し、この位置を示す情報を曲が歌われた区間毎に録画データに対し付加する。再生装置20の再生制御部200は、この情報を用いて、カメラ11の撮影画像のうち当該人物が位置する領域を拡大することにより、当該人物にズームインした映像表示を行なう。 Note that, instead of zooming in on the person determined according to the priority rule at the time of photographing, an image zoomed in on the person may be displayed when the recorded data is played back. That is, the playback control unit 200 of the playback device 20 may display a zoomed-in image of the person when playing back the section in which the song is sung. When priorities set for seats in a car are used, specifically, for example, a zoomed-in video display of a person determined according to the priority rules is realized in the following manner. The recorded data generation unit 101 adds information indicating to which seat the music information of the person is added to the recorded data for each section in which the song is sung. The playback control unit 200 of the playback device 20 uses this information and predefined information indicating in which area in the image shot by the camera 11 each seat is to be photographed. By enlarging the area, a zoomed-in image of the person is displayed. Further, when the priority set for the voice of a person is used, specifically, for example, a video display zoomed in on the person determined according to the priority rule is realized in the following manner. The recorded data generation unit 101 identifies the position of the person in the image through face recognition processing that compares the face image of the person registered in advance with the image captured by the camera 11, and converts information indicating this position. is added to the recorded data for each section in which the song is sung. Using this information, the playback control unit 200 of the playback device 20 displays an image zoomed in on the person by enlarging the area where the person is located in the image taken by the camera 11.

ところで、曲情報取得部100は、例えば、優先度に基づいて選ばれる一人について曲情報を取得するが、複数人の人物のそれぞれについて曲情報を取得してもよい。すなわち、曲情報取得部100は、マイク12によって取得された音のオーディオデータから、カメラ11の撮影中に同時に歌われた曲のそれぞれの曲情報を取得してもよい。この場合、曲情報取得部100は、マイク12によって取得された音のオーディオデータから、人物毎の声をそれぞれ抽出し、各声のオーディオデータを用いて、それぞれの曲情報を取得する。これにより、曲情報取得部100は、各人物が歌った曲をそれぞれ特定することができるため、優先度に基づいて選ばれる一人が、他の人物と同じ曲について合唱しているか否かを判定することができる。このため、複数人の人物のそれぞれについて曲情報を取得した場合、この判定結果を他の処理の制御に利用することができる。具体的には、例えば、カメラ制御部103が、次のような制御を行なってもよい。カメラ制御部103は、同時に歌われた曲の曲情報が同じである場合には、優先ルールにしたがって決定された人物にズームインせずに車内の全体を撮影するようカメラ11を制御し、同時に歌われた曲の曲情報が異なる場合に、優先ルールにしたがって決定された人物にズームインして撮影を行なうようカメラ11を制御してもよい。このような構成によれば、状況に応じた映像内容の録画データを生成することができる。なお、録画データの再生時にこのような制御が行なわれた映像表示が行なわれてもよい。この場合、録画データ生成部101は、曲が歌われた区間毎に、同時に歌われた曲の曲情報が同じであるか否かを示す情報を録画データに付加し、再生制御部200はこの情報に基づいて、上述した制御を行なう。 By the way, the song information acquisition unit 100 acquires the song information for one person selected based on the priority, but may acquire the song information for each of a plurality of people. That is, the song information acquisition unit 100 may acquire the song information of each song sung simultaneously while the camera 11 is shooting from the audio data of the sound acquired by the microphone 12. In this case, the song information acquisition unit 100 extracts each person's voice from the audio data of the sound acquired by the microphone 12, and uses the audio data of each voice to acquire the respective song information. As a result, the song information acquisition unit 100 can identify the songs sung by each person, so it can be determined whether one person selected based on the priority is singing the same song as another person. can do. Therefore, when music information is acquired for each of a plurality of people, this determination result can be used to control other processes. Specifically, for example, the camera control unit 103 may perform the following control. If the song information of the songs sung at the same time is the same, the camera control unit 103 controls the camera 11 to photograph the entire inside of the car without zooming in on the person determined according to the priority rule, If the song information of the selected song is different, the camera 11 may be controlled to zoom in on and photograph the person determined according to the priority rule. According to such a configuration, it is possible to generate recorded data of video content depending on the situation. Note that video display under such control may be performed when the recorded data is played back. In this case, the recorded data generation section 101 adds information indicating whether or not the song information of the songs sung at the same time is the same for each section in which the songs are sung, and the playback control section 200 adds this information to the recorded data. The above-mentioned control is performed based on the information.

次に、本実施の形態にかかる録画装置10によるタグ情報の設定動作について説明する。図21は、録画装置10によるタグ情報の設定動作の一例を示すフローチャートである。以下、図21に沿って、タグ情報の設定動作の一例を説明するが、図6に示したフローチャートと同様の処理については適宜、説明を省略する。 Next, the tag information setting operation by the recording device 10 according to the present embodiment will be explained. FIG. 21 is a flowchart showing an example of the tag information setting operation by the recording device 10. An example of the tag information setting operation will be described below with reference to FIG. 21, but descriptions of processes similar to the flowchart shown in FIG. 6 will be omitted as appropriate.

図21に示したフローチャートでは、ステップS100において、ユーザの音声が検出された場合(ステップS100でYes)、処理はステップS800へ移行する。 In the flowchart shown in FIG. 21, if the user's voice is detected in step S100 (Yes in step S100), the process moves to step S800.

ステップS800において、曲情報取得部100は、マイク12からのオーディオデータから、曲情報の取得対象の人物のオーディオデータを抽出する。優先度に基づいて選ばれる一人だけについて曲情報を取得する場合、曲情報取得部100は、マイク12からのオーディオデータから当該一人の声のオーディオデータを抽出する。また、複数人の人物のそれぞれについて曲情報を取得する場合、曲情報取得部100は、マイク12からのオーディオデータからこれらの人物の声のオーディオデータをそれぞれ抽出する。ステップS800の後、処理はステップS801へ移行する。 In step S800, the song information acquisition unit 100 extracts the audio data of the person from whom the song information is to be obtained from the audio data from the microphone 12. When acquiring song information for only one person selected based on the priority, the song information acquisition unit 100 extracts the audio data of the voice of the one person from the audio data from the microphone 12. Further, when acquiring song information for each of a plurality of people, the song information acquisition unit 100 extracts audio data of each of these people's voices from the audio data from the microphone 12. After step S800, the process moves to step S801.

ステップS801において、曲情報取得部100は、ステップS800で抽出したオーディオデータのバッファへの蓄積を開始する。 In step S801, the song information acquisition unit 100 starts accumulating the audio data extracted in step S800 in the buffer.

次に、ステップS802において、曲情報取得部100は、曲情報の取得対象の人物の音声が検出されなくなったか否かを判定する。曲情報の取得対象の人物の音声が検出されなくなった場合(ステップS802でYes)、処理は図6を参照して説明したS109に移行する。すなわち、ステップS109では、開始タイミングのタグ情報だけが設定されている場合、終了タイミングのタグ情報が設定される。そして、オーディオデータの蓄積が終了される。曲情報の取得対象の人物の音声が検出されている場合(ステップS802でNo)、処理はステップS103へ移行する。 Next, in step S802, the song information acquisition unit 100 determines whether the voice of the person from whom song information is to be acquired is no longer detected. If the voice of the person whose song information is to be acquired is no longer detected (Yes in step S802), the process moves to S109 described with reference to FIG. 6. That is, in step S109, if only the tag information of the start timing is set, the tag information of the end timing is set. Then, the accumulation of audio data is completed. If the voice of the person whose song information is to be acquired is detected (No in step S802), the process moves to step S103.

ステップS103以降の処理は、図6を参照して説明した各ステップの処理と同じである。ただし、本実施の形態では、上述した通り、録画データに設定される曲情報、開始タイミング、及び終了タイミングのタグ情報は、所定の優先ルールにしたがって決定された一人についての曲情報、開始タイミング、及び終了タイミングである。 The processing after step S103 is the same as the processing of each step described with reference to FIG. However, in this embodiment, as described above, the tag information of the song information, start timing, and end timing set in the recording data is the song information, start timing, and tag information for one person determined according to a predetermined priority rule. and end timing.

以上、実施の形態6について説明した。上述の通り、本実施の形態では、優先ルールにしたがって、いずれの人物についての曲情報を録画データに付加するのかが制御される。したがって、車内で複数人の人物が同時に曲を歌った場合であっても、適切に曲情報を録画データに設定することができる。 The sixth embodiment has been described above. As described above, in this embodiment, which person's song information is added to the recorded data is controlled according to the priority rule. Therefore, even if a plurality of people sing a song simultaneously in the car, the song information can be appropriately set in the recorded data.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。技術的に矛盾が生じない限り、各実施の形態に記載された構成又は機能の一部又は全てを他の実施の形態に記載された構成又は機能と組み合わせてもよい。また、技術的に矛盾が生じない限り、各実施の形態の一部の機能又は構成を除いてもよい。 Note that the present invention is not limited to the above embodiments, and can be modified as appropriate without departing from the spirit. Unless technically inconsistent, some or all of the configurations or functions described in each embodiment may be combined with the configurations or functions described in other embodiments. Furthermore, some functions or configurations of each embodiment may be omitted unless technically inconsistent.

1 動画システム
10 録画装置
11 カメラ
12 マイク
13 ネットワークインタフェース
14 記憶装置
15 プロセッサ
16 外部ストレージインタフェース
19 リムーバブルメディア
20 再生装置
21 ディスプレイ
22 スピーカ
23 入力装置
24 ネットワークインタフェース
25 記憶装置
26 プロセッサ
27 マイク
100 曲情報取得部
101 録画データ生成部
102 記憶制御部
103 カメラ制御部
200 再生制御部
201 指示受付部
202 曲データ取得部
203 注意喚起部
204 曲情報取得部
1 Video system 10 Recording device 11 Camera 12 Microphone 13 Network interface 14 Storage device 15 Processor 16 External storage interface 19 Removable media 20 Playback device 21 Display 22 Speaker 23 Input device 24 Network interface 25 Storage device 26 Processor 27 Microphone 100 Song information acquisition unit 101 Recorded data generation section 102 Storage control section 103 Camera control section 200 Playback control section 201 Instruction reception section 202 Song data acquisition section 203 Attention calling section 204 Song information acquisition section

Claims (9)

車内又は車外の動画を撮影するカメラと、
前記カメラの撮影中の前記車内の音を取得するマイクと、
前記カメラの撮影中に前記マイクによって取得した音声のオーディオデータをサーバに送信し、前記サーバから前記音声のオーディオデータに対応するを一意に特定する識別情報である曲情報を取得し、当該曲の動画内における開始タイミングと終了タイミングとを取得する曲情報取得部と、
前記曲情報と、前記開始タイミングと、前記終了タイミングとを前記カメラにより撮影された動画の映像データに付加した録画データを生成する録画データ生成部と
を有する録画装置。
A camera that takes videos inside or outside the vehicle,
a microphone that captures sounds inside the car while the camera is shooting;
Send the audio data of the voice acquired by the microphone during shooting with the camera to a server, acquire song information that is identification information that uniquely identifies a song corresponding to the audio data of the voice from the server, a song information acquisition unit that acquires the start timing and end timing in the video;
A recording device comprising: a recording data generation unit that generates recording data in which the song information, the start timing, and the end timing are added to video data of a moving image shot by the camera.
前記曲情報取得部は、前記開始タイミングにおいて前記マイクにより取得された曲の一部分について、当該曲の全体における位置を特定する位置情報をさらに取得し、
前記録画データ生成部は、前記位置情報をさらに付加した前記録画データを生成する請求項1に記載の録画装置。
The song information acquisition unit further acquires position information for specifying a position in the entire song for a portion of the song acquired by the microphone at the start timing,
The recording device according to claim 1, wherein the recorded data generation section generates the recorded data to which the position information is further added.
前記録画データ生成部は、前記曲情報取得部が前記カメラの撮影中に歌われた1つの曲の曲情報として複数の候補を取得した場合、取得した複数の曲情報を当該曲の曲情報の候補リストとして付加した前記録画データを生成する
請求項1又は2に記載の録画装置。
When the song information acquisition section acquires a plurality of candidates as song information of one song sung during the shooting with the camera, the recording data generation section converts the acquired plurality of song information into song information of the song. The recording device according to claim 1 or 2, wherein the recording data added as a candidate list is generated.
取得される前記曲情報は、前記曲のオーディオデータをさらに含み
前記録画データ生成部は、前記映像データと前記曲のオーディオデータとを重畳した前記録画データを生成する
請求項1又は2に記載の録画装置。
The acquired song information further includes audio data of the song,
The recording device according to claim 1 or 2, wherein the recorded data generation unit generates the recorded data in which the video data and audio data of the song are superimposed.
録画データを生成する録画装置と、
前記録画データを前記録画装置から取得して前記録画データを再生する再生装置と
を備え、
前記録画装置は、
車内又は車外の動画を撮影するカメラと、
前記カメラの撮影中の前記車内の音を取得するマイクと、
前記カメラの撮影中に前記マイクによって取得した音声のオーディオデータをサーバに送信し、前記サーバから前記音声のオーディオデータに対応するを一意に特定する識別情報である曲情報を取得し、当該曲の動画内における開始タイミングと終了タイミングとを取得する曲情報取得部と、
前記曲情報と、前記開始タイミングと、前記終了タイミングとを前記カメラにより撮影された動画の映像データに付加した録画データを生成する録画データ生成部と
を有し、
前記再生装置は、
前記録画データを再生する際、前記開始タイミングから前記終了タイミングまでの区間の再生中、前記曲情報により特定されたのオーディオデータを用いて、前記曲をスピーカから出力するよう制御する再生制御部を有する
動画システム。
a recording device that generates recorded data;
a playback device that acquires the recorded data from the recording device and plays the recorded data;
The recording device is
A camera that takes videos inside or outside the vehicle,
a microphone that captures sounds inside the car while the camera is shooting;
Send the audio data of the voice acquired by the microphone during shooting with the camera to a server, acquire song information that is identification information that uniquely identifies the song corresponding to the audio data of the voice from the server, a song information acquisition unit that acquires the start timing and end timing in the video;
a recorded data generation unit that generates recorded data in which the song information, the start timing, and the end timing are added to video data of a moving image shot by the camera;
The playback device includes:
When playing back the recorded data, playback control controls to output the song from a speaker using the audio data of the song specified by the song information during playback of the section from the start timing to the end timing. A video system with a division.
前記曲情報取得部は、前記開始タイミングにおいて前記マイクにより取得された曲の一部分について、当該曲の全体における位置を特定する位置情報をさらに取得し、
前記録画データ生成部は、前記位置情報をさらに付加した前記録画データを生成し、
前記再生制御部は、前記曲を前記スピーカから出力する場合、前記位置情報に基づいて特定された位置から前記曲を再生して前記スピーカから出力するよう制御する
請求項5に記載の動画システム。
The song information acquisition unit further acquires position information for specifying a position in the entire song for a portion of the song acquired by the microphone at the start timing,
The recorded data generation unit generates the recorded data to which the position information is further added,
The video system according to claim 5, wherein, when the song is output from the speaker , the playback control unit controls the song to be played from a position specified based on the position information and output from the speaker.
前記再生装置は、前記開始タイミングから前記終了タイミングまでの区間の曲の前記スピーカからの出力に関する指示を受け付ける指示受付部をさらに有し、
前記再生制御部は、前記指示に従って、前記開始タイミングから前記終了タイミングまでの区間の曲の前記スピーカからの出力を行なうよう制御する
請求項5又は6のいずれか1項に記載の動画システム。
The playback device further includes an instruction receiving unit that receives an instruction regarding the output of the song from the speaker in the section from the start timing to the end timing,
The video system according to claim 5 , wherein the playback control unit controls the speaker to output a song in a section from the start timing to the end timing in accordance with the instruction.
車内又は車外の動画を撮影するカメラの撮影中にマイクによって取得した前記車内の音声のオーディオデータをサーバに送信し、前記サーバから前記音声のオーディオデータに対応するを一意に特定する識別情報である曲情報を取得し、当該曲の動画内における開始タイミングと終了タイミングとを取得し、
前記曲情報と、前記開始タイミングと、前記終了タイミングとを前記カメラにより撮影された動画の映像データに付加した録画データを生成する
録画方法。
The audio data of the voice inside the car acquired by a microphone during the shooting of a camera that takes a video inside or outside the car is transmitted to a server, and the identification information that uniquely identifies the song corresponding to the audio data of the voice from the server. Acquire certain song information, acquire the start timing and end timing of the song in the video,
A recording method that generates recorded data by adding the song information, the start timing, and the end timing to video data of a moving image shot by the camera.
車内又は車外の動画を撮影するカメラの撮影中にマイクによって取得した前記車内の音声のオーディオデータをサーバに送信し、前記サーバから前記音声のオーディオデータに対応するを一意に特定する識別情報である曲情報を取得し、当該曲の動画内における開始タイミングと終了タイミングとを取得する曲情報取得ステップと、
前記曲情報と、前記開始タイミングと、前記終了タイミングとを前記カメラにより撮影された動画の映像データに付加した録画データを生成する録画データ生成ステップと
をコンピュータに実行させるプログラム。
The audio data of the voice inside the car acquired by a microphone during the shooting of a camera that takes a video inside or outside the car is transmitted to a server, and the identification information that uniquely identifies the song corresponding to the audio data of the voice from the server. a song information obtaining step of obtaining certain song information and obtaining the start timing and end timing of the song in the video;
A program that causes a computer to execute a recording data generation step of generating recording data in which the song information, the start timing, and the end timing are added to video data of a moving image shot by the camera.
JP2019233075A 2019-12-24 2019-12-24 Recording device, video system, recording method, and program Active JP7451999B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019233075A JP7451999B2 (en) 2019-12-24 2019-12-24 Recording device, video system, recording method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019233075A JP7451999B2 (en) 2019-12-24 2019-12-24 Recording device, video system, recording method, and program

Publications (3)

Publication Number Publication Date
JP2021101525A JP2021101525A (en) 2021-07-08
JP2021101525A5 JP2021101525A5 (en) 2022-03-16
JP7451999B2 true JP7451999B2 (en) 2024-03-19

Family

ID=76650886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019233075A Active JP7451999B2 (en) 2019-12-24 2019-12-24 Recording device, video system, recording method, and program

Country Status (1)

Country Link
JP (1) JP7451999B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7470726B2 (en) 2022-03-17 2024-04-18 本田技研工業株式会社 Image processing device and image processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002311986A (en) 2001-04-17 2002-10-25 Alpine Electronics Inc Navigator
JP2006109151A (en) 2004-10-06 2006-04-20 Olympus Corp Image recording device and electronic album creation system
JP2009015535A (en) 2007-07-03 2009-01-22 Nippon Laboatec Kk Similar music retrieval device, similar music retrieval method, similar music retrieval program and computer-readable recording medium
JP2016167771A (en) 2015-03-10 2016-09-15 株式会社デンソー Digest video generation device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002311986A (en) 2001-04-17 2002-10-25 Alpine Electronics Inc Navigator
JP2006109151A (en) 2004-10-06 2006-04-20 Olympus Corp Image recording device and electronic album creation system
JP2009015535A (en) 2007-07-03 2009-01-22 Nippon Laboatec Kk Similar music retrieval device, similar music retrieval method, similar music retrieval program and computer-readable recording medium
JP2016167771A (en) 2015-03-10 2016-09-15 株式会社デンソー Digest video generation device

Also Published As

Publication number Publication date
JP2021101525A (en) 2021-07-08

Similar Documents

Publication Publication Date Title
JP4683116B2 (en) Information processing apparatus, information processing method, information processing program, and imaging apparatus
JP2007026133A (en) Information providing device and method thereof
KR20100055458A (en) Contents reproducing device, and contents reproducing method
US7587136B2 (en) Image capturing apparatus, image capturing method, output apparatus, output method and program
JP7451999B2 (en) Recording device, video system, recording method, and program
JP2009272816A (en) Server, information processing system and information processing method
US9990911B1 (en) Method for creating preview track and apparatus using the same
JP2021101530A (en) Recording device, moving image system, recording method and program
JP7452000B2 (en) Recording device, recording method, and program
JP2021101526A (en) Moving image system, reproduction method and program
JP2021101527A (en) Moving image system, reproduction method and program
JP2021101529A (en) Moving image system, reproduction method and program
JP2006091680A (en) Mobile communication terminal and program
JP2006109151A (en) Image recording device and electronic album creation system
JP4353084B2 (en) Video reproduction method, apparatus and program
JP6110731B2 (en) Command input recognition system by gesture
JP6582024B2 (en) Information support system for shows
JP2006135895A (en) Image recording/reproducing system and electronic album creation system
JP6651413B2 (en) Karaoke system
JP2023125040A (en) video creation program
JP2016131329A (en) Image and sound recording device, image and sound recording method, and image and sound recording program
KR102493886B1 (en) Method for storing mood information during the taking pictures and playing thereof
JP7149203B2 (en) karaoke system
JP2012137559A (en) Karaoke device and control method and control program for karaoke device
JP2012137560A (en) Karaoke device and control method and control program for karaoke device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220308

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240219

R150 Certificate of patent or registration of utility model

Ref document number: 7451999

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150