JP2012124723A - 映像音声処理装置および映像音声処理方法 - Google Patents

映像音声処理装置および映像音声処理方法 Download PDF

Info

Publication number
JP2012124723A
JP2012124723A JP2010274081A JP2010274081A JP2012124723A JP 2012124723 A JP2012124723 A JP 2012124723A JP 2010274081 A JP2010274081 A JP 2010274081A JP 2010274081 A JP2010274081 A JP 2010274081A JP 2012124723 A JP2012124723 A JP 2012124723A
Authority
JP
Japan
Prior art keywords
data
encoded
audio
video
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010274081A
Other languages
English (en)
Other versions
JP5304774B2 (ja
Inventor
Yoshiko Hozumi
芳子 穂積
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=46199475&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2012124723(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2010274081A priority Critical patent/JP5304774B2/ja
Priority to US13/313,434 priority patent/US8615154B2/en
Publication of JP2012124723A publication Critical patent/JP2012124723A/ja
Application granted granted Critical
Publication of JP5304774B2 publication Critical patent/JP5304774B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

【課題】映像データを同期させるための事後的なタイミング調整作業を行うことなく、また、撮像環境におけるノイズの有無に拘わらず、複数の映像の同期を容易かつ確実にとることが可能となる。
【解決手段】映像音声処理装置100の抽出部106は、ストリーム取得部104が取得したストリームから符号化音声データを抽出する。音声制御部132は、抽出された符号化音声データを復号した音声データを、音声出力部110に出力させる。撮像部112は、音声データの音声出力部への出力と同期させて被写体を撮像し、第1の映像データ(練習撮像映像データ)を生成する。多重化部120は、データ符号化部116が符号化し、記録制御部134が符号化メモリ118に保持させた第1の符号化映像データと、符号化音声データとを多重化し、第1のストリーム(符号化練習撮像映像/音声データ)を生成する。
【選択図】図1

Description

本発明は、別のタイミングで取得された映像データと音声データとを同期させる映像音声処理装置および映像音声処理方法に関する。
ダンスや日本舞踊、エアロビクス等の踊りや、フィットネスのための体操等を練習する場合、ユーザが、自身のフォームと、先生や師匠、インストラクター等の手本となるフォームとを見比べて比較したいという要望がある。そこで、ユーザ自身を撮像し、その撮像によって得られた映像と、手本となる先生等のフォームの映像とを同期させて並べて表示できれば、ユーザは、映像を通じて自身のフォームと手本となるフォームとを比較し、その違いを確認することが可能となる。
複数の映像を同期させて再生する技術として、例えば、撮像開始時にホイッスルや電子音、音声等を収音しておき、収音した音に基づき、複数の映像データ間の同期をとって再生する技術が提案されている(例えば、特許文献1)。
また、2つの撮像装置による撮像の際に録音された2つの音声データについて、時間をずらして相関値を導出し、相関値が高くなる時間のずれに基づいて、映像データの再生タイミングを制御し、映像を同期させる技術も提案されている(例えば、特許文献2)。
特開2001−36867号公報 特開2008−193561号公報
しかし、上述した特許文献1および2の技術では、映像データを同期させるための煩雑なタイミング調整作業を要し、その作業は大変手間であった。また、特許文献1の技術では、撮像を開始する際に音の発生を要し、ユーザにタイミング調整作業だけでなく音の発生作業という面倒を強いることになっていた。さらに、特許文献1および2の技術では、周囲の雑音等に基づく音声信号のノイズや、映像信号のノイズの影響によって誤認識が生じてしまい、ユーザの意図した通りに映像信号や音声信号を同期させることができないといった事態が生じることが推察される。
そこで、本発明は、ユーザに煩雑なタイミング調整作業等を強いることなく、容易に複数の映像の同期をとることが可能な映像音声処理装置および映像音声処理方法を提供することを目的としている。
また、本発明は、周囲に雑音等のノイズが発生している撮像環境であっても、確実に複数の映像の同期をとることが可能な映像音声処理装置および映像音声処理方法を提供することを目的としている。
上記課題を解決するために、本発明の映像音声処理装置は、符号化音声データを取得するストリーム取得部(104)と、取得された前記符号化音声データを復号して音声データを生成するデータ復号部(108)と、生成された前記音声データを、音声出力部(110)に出力させる音声制御部(132)と、前記音声データの音声出力部(110)への出力と同期させて被写体を撮像し、第1の映像データを生成する撮像部(112)と、生成された前記第1の映像データを符号化して第1の符号化映像データを生成するデータ符号化部(116)と、前記第1の符号化映像データを、符号化メモリ(118)に保持させる記録制御部(134)と、符号化音声データと前記第1の符号化映像データとを多重化し、第1のストリームを生成する多重化部(120)とを備えることを特徴とする。
前記ストリーム取得部(104)は、第2の符号化映像データと符号化音声データが多重化された第2のストリームを取得し、前記映像音声処理装置(100)は、前記ストリーム取得部(104)が前記第2のストリームを取得した場合、前記第2のストリームから前記符号化音声データを抽出する抽出部(106)をさらに備え、前記データ復号部(108)は、前記抽出部(106)が抽出した前記符号化音声データを復号して音声データを生成し、前記多重化部(120)は、前記抽出部(106)が抽出した前記符号化音声データと前記第1の符号化映像データとを多重化し、第1のストリームを生成してもよい。
上記映像音声処理装置(100)の前記抽出部(106)は、前記第2のストリームから前記第2の符号化映像データを抽出し、前記データ復号部(108)は、抽出された前記第2の符号化映像データを復号して第2の映像データを生成し、生成された前記第2の映像データを、前記音声出力部(110)による音声データの出力と同期させて表示部(140)に表示させる表示制御部(136)をさらに備えてもよい。
上記課題を解決するために、本発明の映像音声処理方法は、符号化音声データを取得し、取得した前記符号化音声データを復号して音声データを生成し、生成された前記音声データを、音声出力部(110)に出力させ、前記音声データの音声出力部(110)への出力と同期させて被写体を撮像し、第1の映像データを生成し、生成した前記第1の映像データを符号化して第1の符号化映像データを生成し、前記第1の符号化映像データを保持し、前記符号化音声データと前記第1の符号化映像データとを多重化し、第1のストリームを生成することを特徴とする。
上記映像音声処理方法は、第2の符号化映像データと符号化音声データが多重化された第2のストリームを取得し、取得した前記第2のストリームから前記符号化音声データを抽出し、抽出した前記符号化音声データを復号して音声データを生成し、抽出した前記符号化音声データと前記第1の符号化映像データとを多重化し、第1のストリームを生成してもよい。
本発明によれば、ユーザは煩雑なタイミング調整作業等を行わなくとも、容易に複数の映像の同期をとることが可能となる。
また、周囲に雑音等のノイズが発生している撮像環境であっても、確実に複数の映像の同期をとること可能となる。
第1の実施形態にかかる映像音声処理装置の概略的な構成を示した機能ブロック図である。 第1の実施形態にかかる映像音声処理装置を用いた映像音声処理方法の処理の流れを説明したフローチャートである。 第1の実施形態にかかる映像音声処理装置を用いた映像音声処理方法の処理の流れを説明したフローチャートである。 第1の実施形態にかかる映像音声処理装置を用いた映像音声処理方法の処理の流れを説明したフローチャートである。 通常撮像モードにおけるデータ符号化部と多重化部の具体的な処理を説明するための概念図である。 練習撮像モードにおける多重化部の具体的な処理を説明するための概念図である。 表示制御部が通常撮像映像データと練習撮像映像データとを並行して映像表示装置に表示させる例を説明するための説明図である。 第2の実施形態にかかる映像音声処理装置の概略的な構成を示した機能ブロック図である。 第2の実施形態にかかる映像音声処理装置を用いた映像音声処理方法の処理の流れを説明したフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。
(第1の実施形態)
ダンス等の踊りや体操等を練習する場合、ユーザが、自身のフォームと、手本となるフォームとを比較したいという要望がある。そこで、本実施形態では、踊りや体操等の練習を例に挙げ、容易かつ確実に練習風景の映像と手本となる映像との同期をとり、ユーザがそれらを比較することができる映像音声処理装置100について述べる。
以下、映像音声処理装置100の具体的な構成について詳述し、後に、映像音声処理装置100を用いた映像音声処理方法について説明する。
また、本実施形態において映像音声処理装置100は、手本となる映像と音声とに基づくストリーム(映像データおよび音声データ)を生成する通常の撮像モード(以下、単に「通常撮像モード」と称する)、ユーザ自身の練習風景の映像に基づくストリームを生成するモード(以下、単に「練習撮像モード」と称する)、および、生成したストリームを再生するモード(以下、単に「再生モード」と称する)の3つのモードを有する。ユーザは後述する操作部等への操作入力により何れかのモードを選択することで、これらの3つのモードを切り換えることができる。
通常撮像モードは、映像音声処理装置100の撮像部が被写体を撮像して映像データ(以下、「通常撮像映像データ」という)を生成し、音声入力部が撮像と並行して入力された音声から音声データを生成し、生成された通常撮像映像データと音声データとを符号化し多重化してストリームを生成するモードである。
練習撮像モードは、通常撮像モードで生成したストリーム、又は外部記憶媒体から取得したストリームを参照して、撮像部が、その参照したストリームの音声データに合わせたユーザの動作を撮像し、その撮像した映像データ(以下、「練習撮像映像データ」という)と参照したストリームの音声データを符号化し多重化してストリームを生成するモードである。
以下、練習撮像モードで参照するストリームを、通常撮像モードで生成した符号化通常撮像映像/音声データとし、練習撮像モードで生成されるストリームを符号化練習撮像映像/音声データとする。
再生モードは、通常撮像モードや練習撮像モードで生成されたストリームや外部記憶媒体から取得したストリームのうち映像データを表示部等に出力させ、音声データを音声出力部に出力させる(再生する)モードである。
再生モードにおいて、映像音声処理装置100は、通常撮像モードで生成されたストリーム、又は外部記憶媒体から取得したストリームと、練習撮像モードで生成されたストリームとを並行して再生することもできる(以下、単に「並行再生モードと称する」)。この場合、映像音声処理装置100は、通常撮像モードで生成されたストリーム等の映像データと練習撮像モードで生成された練習撮像映像データを並行して表示し、通常撮像モードで生成されたストリーム等のストリームの音声データまたは練習撮像モードで生成された音声データを出力する。
以下、映像音声処理装置100の具体的な構成を詳述し、その後、上述した各モードの処理の流れを説明する。
(映像音声処理装置100)
図1は、第1の実施形態にかかる映像音声処理装置100の概略的な構成を示した機能ブロック図である。図1に示すように、映像音声処理装置100は、操作部102と、ストリーム取得部104と、抽出部106と、データ復号部108と、音声出力部110と、撮像部112と、タイムスタンプ生成部114と、データ符号化部116と、符号化メモリ118と、多重化部120と、装置メモリ122と、中央制御部124と、表示部140と、音声入力部142とを含んで構成される。図1中、データの流れを実線の矢印で示し、制御の流れを破線の矢印で示す。
操作部102は、レリーズスイッチを含む操作キー、十字キー、ジョイスティック、後述する表示部140の表示画面に配されたタッチパネル等で構成され、撮像の開始や停止、通常撮像モード、練習撮像モード、および、再生モードの選択による切り換え等のユーザによる操作入力を受け付ける。
ストリーム取得部104は、操作部102を通じてユーザに選択されたストリームの記録位置(後述する装置メモリ122やDVD(Digital Versatile Disc)の読み取り装置等、ストリームが確保されている場所)から、ストリームを取得する。例えば、練習撮像モードや再生モードにおいて、ユーザによる操作部102への操作入力に応じて、装置メモリ122が選択されると、ストリーム取得部104は、まず、ストリームの記録位置として、装置メモリ122を選択する。そして、ユーザによるさらなる操作部102への操作入力に応じて、符号化通常撮像映像/音声データが選択されると、ストリーム取得部104は、装置メモリ122から符号化通常撮像映像/音声データを取得する。
ここで、ストリームは、符号化映像データと符号化音声データとが多重化されたものである。本実施形態においてストリーム取得部104は、装置メモリ122から取得する例を挙げて説明するが、ストリームを、DVD、BD(Blu-ray Disc)、フラッシュメモリ等の外部記録媒体150から取得してもよい。
抽出部106は、ストリーム取得部104が取得したストリームから符号化音声データおよび符号化映像データを抽出する。本実施形態において、抽出部106が符号化通常撮像映像/音声データから抽出する符号化映像データを符号化通常撮像映像データとし、符号化音声データを符号化通常音声データとする。
データ復号部108は、抽出部106が抽出した符号化音声データを復号して音声データを生成し、符号化映像データを復号して映像データを生成する。
音声出力部110は、スピーカ等で構成され、後述する音声制御部132の制御指令に応じて、データ復号部108が復号した音声データに基づく音声を出力する。以下、音声出力部110が、音声データに基づく音声を出力する動作を、単に、音声出力部110が音声データを出力するとして省略して記載する場合もある。
詳細は後述する映像音声処理方法の中で説明するが、音声出力部110は、通常撮像モードが選択されている場合、音声データの出力を行わないが、練習撮像モードが選択されている場合、参照する符号化通常撮像映像/音声データの通常音声データを出力する。
撮像部112は、図示しない焦点調整に用いられるフォーカスレンズ、露光調整に用いられる絞り(アイリス)、撮像対象の拡大および縮小に用いられるズームレンズ、各レンズを通じて入射した光を光電変換し映像データにA/D変換する撮像素子、フォーカスレンズ、絞り、ズームレンズ、および、撮像素子を駆動させる駆動回路等を含んで構成され、後述する撮像制御部130の制御に応じてこれらを制御し、映像データを生成する。
練習撮像モードでは、撮像部112は、音声出力部110による通常音声データの出力と同期をとって被写体(例えば、ユーザの練習風景)を撮像し、練習撮像映像データを生成する。
タイムスタンプ生成部114は、自機のクロックに基づいて、映像データや音声データの作成開始時刻を示す情報であるタイムスタンプを生成する。
データ符号化部116は、撮像部112が生成した映像データを符号化して、符号化映像データ(符号化通常撮像映像データおよび符号化練習撮像映像データ)を生成し、タイムスタンプ生成部114が生成したタイムスタンプをその符号化映像データに付す。また、データ符号化部116は、音声入力部142が生成した音声データを符号化して、符号化音声データを生成し、タイムスタンプ生成部114が生成したタイムスタンプをその符号化音声データに付す。
そして、データ符号化部116は、生成した符号化映像データおよび符号化音声データを符号化メモリ118に出力する。
符号化メモリ118は、SRAM(Static Random Access Memory)、DRAM(Dynamic RAM)等の記憶媒体で構成され、後述する記録制御部134の制御指令に応じて、データ符号化部116が生成した符号化映像データおよび符号化音声データを一時的に保持する。
多重化部120は、符号化メモリ118に保持された符号化映像データと符号化音声データとを多重化する。多重化部120は、通常撮像モードが選択されている場合は、符号化通常撮像映像データと符号化通常音声データとを多重化して符号化通常撮像映像/音声データを生成し、練習撮像モードが選択されている場合は、符号化練習撮像映像データと符号化通常撮像映像/音声データの符号化通常音声データとを多重化して符号化練習撮像映像/音声データを生成する。
通常撮像モードおよび練習撮像モードにおける多重化部120の具体的な処理については、後述する映像音声処理方法で説明する。
装置メモリ122は、RAM、EEPROM(Electrically Erasable and Programmable Read Only Memory)、不揮発性RAM、フラッシュメモリ、HDD(Hard Disk Drive)等の記憶媒体で構成され、記録制御部の制御指令に応じて、多重化部120が生成したストリーム(符号化通常撮像映像/音声データおよび符号化練習撮像映像/音声データ)を記録する。
中央制御部124は、中央処理装置(CPU)、中央制御部124を動作するためのプログラム等を格納したROM、一時的なデータ保存およびワークエリアとして利用されるRAM等を含む半導体集積回路で構成され、装置メモリ122や他の電子回路と協働して映像音声処理装置100全体を管理および制御する。また、中央制御部124は、撮像制御部130、音声制御部132、記録制御部134、表示制御部136としても機能する。
撮像制御部130は、ユーザの操作入力に応じて、撮像部112を制御する。例えば、撮像制御部130は、適切な映像データが得られるように、ズームレンズ、フォーカスレンズ、絞りおよび撮像素子を駆動回路に駆動させる。また、撮像制御部130は、ズーム機能(倍率変更機能)を遂行させる場合、ズームレンズおよびフォーカスレンズを移動させる。
音声制御部132は、データ復号部108が復号した音声データを音声出力部110に出力させる。本実施形態において音声制御部132は、練習撮像モードが選択されている場合、符号化通常撮像映像/音声データの符号化通常音声データを復号した通常音声データを音声出力部110に出力させ、並行再生モードが選択されている場合、符号化通常撮像映像/音声データまたは符号化練習撮像映像/音声データのいずれか一方の符号化通常音声データを復号した通常音声データを音声出力部110に出力させる。また、音声制御部132は、後述する音声入力部142に、収音した音声を音声データに変換させる。
記録制御部134は、符号化映像データおよび符号化音声データを符号化メモリ118に保持させる。さらに、記録制御部134は、多重化部120が生成したストリームを装置メモリ122に記録させる。
表示制御部136は、練習撮像モードにおいて、撮像中の映像やデータ復号部108が復号した通常撮像映像データに基づく映像を、音声出力部110による通常音声データの出力と同期させて、表示部140や、映像音声処理装置100とは別体の映像表示装置160に表示させる。また、表示制御部136は、通常撮像モードにおいて、撮像中の映像を表示部140に表示させたり、再生モードにおいて、再生の対象となるストリームの映像データに基づく映像を表示部140や映像表示装置160に表示させる。以下、表示部140や映像表示装置160が、映像データに基づく映像を表示する動作を、単に、表示部140や映像表示装置160が、映像データを表示するとして省略して記載する場合もある。
したがって、練習撮像モードにおいて、ユーザは、通常音声データに基づく音声に加え、表示部140や映像表示装置160を通じて、撮像中の映像(自身の練習風景の映像)を視認することができる。また、ユーザは、通常音声データに基づく音声に加え、表示部140や映像表示装置160を通じて、手本となる通常撮像映像データに基づく映像をも視認しながら、踊りや体操等の何らかの動作を行うことができる。
本実施形態において、表示制御部136は、並行再生モードが選択されている場合、符号化通常撮像映像/音声データの通常撮像映像データと符号化練習撮像映像/音声データの練習撮像映像データとを並行して表示部140や映像表示装置160に表示させる。並行再生モードにおける表示制御部136の具体的な処理については、後述する映像音声処理方法で説明する。
表示部140は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等で構成され、表示制御部136の制御指令に応じて、通常撮像映像データに基づく映像、撮像中の映像、再生の対象となるストリームの映像データ(通常撮像映像データおよび練習撮像映像データ)に基づく映像等を表示する。
音声入力部142は、マイク等で構成され、通常撮像モードである場合、音声制御部132の制御指令に応じて、撮像時に入力された音声を電気信号に変換して、通常音声データを生成する。
(映像音声処理方法)
図2〜図4は、第1の実施形態にかかる映像音声処理装置100を用いた映像音声処理方法の処理の流れを説明したフローチャートである。ここで、図2は通常撮像モードにおける映像音声処理装置100の処理の流れを示し、図3は、練習撮像モードにおける映像音声処理装置100の処理の流れを示し、図4は、再生モードにおける映像音声処理装置100の処理の流れを示す。
図2に示すように、ユーザによる操作部102への操作入力に応じて、通常撮像モードが選択された状態で、撮像の開始指示があると(S200におけるYES)、ユーザによる操作部102への撮像開始入力に応じて、撮像制御部130は、撮像部112に通常撮像映像データを生成させ、音声制御部132は、音声入力部142に入力された音声から通常音声データを生成する(S202)。
そして、データ符号化部116は、データ生成ステップS202で生成された通常撮像映像データを符号化しタイムスタンプを付して符号化通常撮像映像データを生成し、通常音声データを符号化しタイムスタンプを付して符号化通常音声データを生成し(S204)、記録制御部134は、符号化通常撮像映像データおよび符号化通常音声データを一旦符号化メモリ118に保持させる(S206)。
多重化部120は、符号化ステップS204において生成された符号化通常撮像映像データと符号化通常音声データとを多重化する(S208)。
そして、ユーザによる、操作部102への通常撮像モードの停止指示の入力があるまで(S210におけるNO)、データ生成ステップS202以降の処理を遂行し、ユーザによる、操作部102への通常撮像モードの停止指示の入力があると(S210におけるYES)、多重化部120は符号化通常撮像映像データと符号化通常音声データとを多重化した符号化通常撮像映像/音声データを生成する(S212)。そして記録制御部134は、ストリーム生成ステップS212で生成されたストリーム(符号化通常撮像映像/音声データ)を装置メモリ122に記録させる(S214)。
図5は、通常撮像モードにおけるデータ符号化部116と多重化部120の具体的な処理を説明するための概念図である。図5(a)に示すように、通常撮像モードである場合、データ符号化部116は、フレーム単位の通常撮像映像データ170を符号化して符号化通常撮像映像データ172を生成し、タイムスタンプ(図5中、VT0〜VT2で示す)を付す。また、データ符号化部116は、図5(b)に示すように、フレーム単位の音声データ174を符号化して符号化通常音声データ176を生成し、タイムスタンプ(図5中、AT0〜AT3で示す)を付す。
そして、多重化部120は、図5(c)に示すように、符号化通常撮像映像データと符号化通常音声データとを多重化して符号化通常撮像映像/音声データ178を生成する。
このような通常撮像モードでは、例えば、手本となる先生や師匠、インストラクター等の踊りや体操等のフォームを撮像して、手本となるストリームを生成できる。そして、生成された符号化通常撮像映像/音声データは、練習撮像モードで参照される。
<練習撮像モード>
図3に示すように、ユーザによる操作部102への操作入力に応じて、練習撮像モードが選択された状態で、符号化通常撮像映像/音声データの記録位置が選択されると(S220におけるYES)、ストリーム取得部104は、選択された記録位置から符号化通常撮像映像/音声データを取得する(S222)。抽出部106は、ストリーム取得ステップS222で取得した符号化通常撮像映像/音声データから符号化通常音声データおよび符号化通常撮像映像データを抽出し(S224)、データ復号部108は、符号化通常音声データを復号して通常音声データを生成し、符号化通常撮像映像データを復号して通常撮像映像データを生成する(S226)。
そして、ユーザによる操作部102への操作入力に応じて、撮像の開始指示があると(S228におけるYES)、音声制御部132は、復号ステップS226で復号された通常音声データを音声出力部110に順次出力させ(S230)、表示制御部136は、撮像中の映像を表示部140に順次表示させ、撮像部112は、通常音声データの音声出力部110への出力と同期させて被写体を撮像し、練習撮像映像データを生成する(S232)。
具体的に撮像部112は、抽出部106が符号化通常音声データの抽出を開始し(S224)、データ復号部108が通常音声データを生成して(S226)、音声バッファ(図示せず)に通常音声データがある程度保持されたところで、被写体の撮像を開始する。
そして、撮像ステップS232で、撮像部112が生成した練習撮像映像データは、フレーム単位で映像バッファ(図示せず)に入力されて、データ符号化部116は、フレーム単位の練習撮像映像データを符号化して符号化練習撮像映像データを生成し、タイムスタンプ生成部114が生成したタイムスタンプを付す(S234)。
具体的に音声制御部132は、練習撮像映像データが符号化された時刻を符号化通常撮像映像/音声データの時刻として扱い、練習撮像映像データが符号化されたときに付されたタイムスタンプに示された時刻に同期させて通常音声データを音声出力部110に出力させる。すなわち、練習撮像モードでは、映像データこそ基準となる時刻に応じてタイムスタンプが付されるが、音声データには予めタイムスタンプが付されており、そのタイムスタンプに示された時刻と基準となる時刻とが一致するように音声データが音声出力部110に出力される。
出力ステップS230で、表示制御部136が撮像中の映像を表示部140に表示させる構成により、ユーザは、通常音声データに基づく音声に加え、表示部140や映像表示装置160を通じて、撮像中の映像(自身の練習風景の映像)を視認することができる。
なお、出力ステップS230で、表示制御部136は、データ復号部108が復号した通常撮像映像データを表示部140に表示させることもできる。これにより、ユーザは、通常音声データに基づく音声に加え、表示部140や映像表示装置160を通じて、手本となる通常撮像映像データに基づく映像をも視認しながら、踊りや体操等の何らかの動作を行うことができる。
記録制御部134は、符号化ステップS234で符号化した符号化練習撮像映像データを符号化メモリ118に保持させ(S236)、多重化部120は、抽出部106が抽出した符号化通常音声データと符号化練習撮像映像データとを多重化する(S238)。
音声出力部110による通常音声データの出力(再生)が終了するまで、または、操作部102へのユーザによる、練習撮像モードの停止指示の入力があるまで(S240におけるNO)、出力ステップS230以降の処理を遂行する。
音声出力部110による通常音声データの出力(再生)が終了した、または、操作部102へのユーザによる、練習撮像モードの停止指示の入力があると(S240におけるYES)、多重化部120は符号化通常音声データと符号化練習撮像映像データとを多重化したストリーム(符号化練習撮像映像/音声データ)を生成する(S242)。そして記録制御部134は、ストリーム生成ステップS242で生成された符号化練習撮像映像/音声データを装置メモリ122に記録させる(S244)。この際、中央制御部124は、符号化通常音声データの基となる符号化通常撮像映像/音声データと、符号化練習撮像映像/音声データとを関連付けるための管理情報を生成し、装置メモリ122に保持させる。
図6は、練習撮像モードにおける多重化部120の具体的な処理を説明するための概念図である。図6(a)に示すように、ストリーム取得部104は、符号化通常撮像映像/音声データ180を取得し、抽出部106は、図6(b)に示すように、符号化通常撮像映像/音声データ180から符号化通常音声データ182を抽出する。
撮像部112が、被写体の撮像を開始すると、図6(c)に示すように、音声制御部132は、練習撮像映像データ184が符号化されたときに付されたタイムスタンプに示された時刻(図6中、VT0〜VT2で示す)を符号化通常撮像映像/音声データの時刻として扱い、練習撮像映像データ184が符号化されたときに付されたタイムスタンプに示された時刻に同期させて通常音声データ186を音声出力部110に出力させる。そして、多重化部120は、図6(d)に示すように、生成された符号化練習撮像映像データと既存の符号化通常音声データ182とを多重化して符号化練習撮像映像/音声データ188を生成する。この際、中央制御部124は、符号化通常音声データの基となる符号化通常撮像映像/音声データと、符号化練習撮像映像/音声データとを関連付けるための管理情報を生成し、装置メモリ122に保持させる。
このように、練習撮像モードにおいて、ユーザは、通常音声データに基づく音声を聞きながら習っている踊りを踊る等の何らかの動作を行い、撮像部112は、かかる通常音声データに同期したユーザの動作を撮像して練習撮像映像データを生成する。したがって、練習撮像映像データ内の被写体の動作が通常音声データと同期する。
さらに多重化部120は、符号化通常音声データと、通常音声データを参照して何らかの動作を行っている被写体を撮像して生成した、通常音声データと同期した練習撮像映像データとを多重化して符号化練習撮像映像/音声データを生成するため、通常音声データを通じて符号化通常撮像映像/音声データに同期した符号化練習撮像映像/音声データを生成することができる。また、通常撮像モードで生成された符号化通常撮像映像/音声データと、これを参照して練習撮像モードで生成された符号化練習撮像映像/音声データとが管理情報によって関連付けられているため、ユーザは、練習撮像モードで生成した符号化練習撮像映像/音声データと、手本となる符号化通常撮像映像/音声データとを並行再生モードで比較することができる。
<再生モード>
図4に示すように、まず、映像音声処理装置100は、ユーザによる、操作部102への操作入力が、並行再生モードを選択するものであるか否かを判定する(S250)。並行再生モードを選択するものでない(単なる再生モードを選択するものである)場合(S250のNO)、ユーザによる、操作部102への操作入力に応じて、ストリームの記録位置が選択され、ストリーム取得部104は、選択された記録位置から、例えば、ストリームとして、符号化通常撮像映像/音声データや符号化練習撮像映像/音声データを順次取得する(S252)。抽出部106は、ストリーム取得ステップS252で取得したストリームから符号化映像データおよび符号化音声データを順次抽出し(S254)、データ復号部108は、符号化映像データを復号して映像データを生成し、符号化音声データを復号して音声データを生成する(S256)。そして、表示制御部136は、復号ステップS256で復号された映像データを表示部140に順次表示させ、音声制御部132は、音声データを音声出力部110に順次出力させる(S258)。
一方、並行再生モードを選択するものである場合(S250のYES)、ユーザによる、操作部102への操作入力に応じて、ストリームの記録位置が選択され、ストリーム取得部104は、選択された記録位置から、符号化練習撮像映像/音声データを順次取得する。そして、ストリーム取得部104は、装置メモリ122の保持されている管理情報を参照し、取得した符号化練習撮像映像/音声データに関連付けられた符号化通常撮像映像/音声データをさらに順次取得する(S260)。抽出部106は、ストリーム取得ステップS252で取得した符号化通常撮像映像/音声データから符号化通常撮像映像データおよび符号化通常音声データを順次抽出し、符号化練習撮像映像/音声データから符号化練習撮像映像データを順次抽出する(S262)。データ復号部108は、符号化通常撮像映像データを復号して通常撮像映像データを、符号化練習撮像映像データを復号して練習撮像映像データを生成し、符号化通常音声データを復号して通常音声データを生成する(S264)。そして、表示制御部136は、復号ステップS264で復号された通常撮像映像データおよび練習撮像映像データを並行して表示部140に順次表示させ、音声制御部132は、通常音声データを音声出力部110に順次出力させる(S266)。
図7は、表示制御部136が通常撮像映像データと練習撮像映像データとを並行して映像表示装置160に表示させる例を説明するための説明図である。図7(a)に示すように、例えば、表示制御部136は、映像表示装置160の画面を2つに分割して、一方に通常撮像映像データに基づく映像162を、他方に練習撮像映像データに基づく映像164を表示させる。なお、符号化通常撮像映像/音声データと符号化練習撮像映像/音声データとは通常音声データを介して同期がとれているため、両者を先頭から再生するだけで通常撮像映像データと練習撮像映像データの同期をとることができる。
また、図7(b)に示すように、表示制御部136は、映像表示装置160の画面のうち背景となる部分に、練習撮像映像データに基づく映像164を表示させ、PinP(Picture in Picture)で通常撮像映像データに基づく映像162を表示させてもよい。
これにより、手本となる先生や師匠、インストラクター等を撮像して生成された通常撮像映像データと、ユーザの練習風景を撮像して生成された練習撮像映像データとが同期した状態で同時に映像表示装置160に表示されるので、ユーザは、表示(再生)された映像を視認して自身のフォームと手本となるフォームとの違いを容易に確認することが可能となる。
図4に戻って、表示部140による通常撮像映像データまたは練習撮像映像データの表示(再生)、もしくは、音声出力部110による通常音声データの出力(再生)が終了したか否か、または、操作部102へのユーザによる、再生モードの停止指示の入力があったか否かを判定し(S270)、表示部140による通常撮像映像データまたは練習撮像映像データの表示(再生)、もしくは、音声出力部110による通常音声データの出力(再生)が終了していない、または、操作部102へのユーザによる、再生モードの停止指示の入力がない場合で(S270におけるNO)、現在のモードが、並行再生モードであるか否かを判定する(S272)。そして、並行再生モードでない場合(S272におけるNO)、ストリーム取得ステップS252以降の処理を遂行し、並行再生モードである場合(S272におけるYES)、ストリーム取得ステップS260以降の処理を遂行する。
以上説明したように、本実施形態にかかる映像音声処理方法によっても、ユーザは煩雑なタイミング調整作業等を行わなくとも、容易に複数の映像の同期をとることが可能となる。また、周囲に雑音等のノイズが発生している撮像環境であっても、確実に複数の映像の同期をとること可能となる。
(第2の実施形態:映像音声処理装置300)
上述した第1の実施形態では、映像音声処理装置100は、音声データと映像データとが多重化されたストリームを取得し、そのストリームから音声データを抽出しているが、音声データのみを取得して、その音声データの出力と同期させて映像データの生成を行うこともできる。第2の実施形態では、音声データのみに基づいて、複数の映像データを同期させることが可能な映像音声処理装置300について説明する。
図8は、第2の実施形態にかかる映像音声処理装置300の概略的な構成を示した機能ブロック図である。図8に示すように映像音声処理装置300は、操作部102と、ストリーム取得部304と、データ復号部108と、音声出力部110と、撮像部112と、タイムスタンプ生成部114と、データ符号化部116と、符号化メモリ118と、多重化部120と、装置メモリ122と、中央制御部124と、表示部140と、音声入力部142とを含んで構成され、中央制御部124は、撮像制御部130、音声制御部132、記録制御部134、表示制御部136としても機能する。第1の実施形態における構成要素として既に述べた、操作部102、データ復号部108、音声出力部110、撮像部112、タイムスタンプ生成部114、データ符号化部116、符号化メモリ118、多重化部120、装置メモリ122、中央制御部124、表示部140、音声入力部142、撮像制御部130、音声制御部132、記録制御部134、表示制御部136は、実質的に機能が等しいので重複説明を省略し、ここでは、構成が相違する音声データ取得部304を主に説明する。
ストリーム取得部304は、DVD、BD、フラッシュメモリ等の外部記録媒体350に記録された符号化音声データを取得する。映像音声処理装置300に、音声入力部142が収音した音声に基づいて符号化音声データのみを生成する機能を備えている場合、ストリーム取得部304は、映像音声処理装置300が生成した符号化音声データを、装置メモリ122から取得してもよい。
本実施形態では、練習撮像モードにおいて、複数回映像データを生成すると、ストリーム取得部304が取得した1の音声データと同期した映像データを複数作成することができる。これにより、例えば、手本となる映像データはないが、参照する音声データのみが決定している場合であっても、音声データに基づいて複数の映像データを同期させて生成することが可能となる。また、例えば、映像音声処理装置300を用いて、一人のユーザが、1の楽曲について複数の楽器を演奏している様子をそれぞれ撮像して映像データを生成すれば、1の楽曲の音声データにすべての映像データを同期させることができるため、一人で複数の楽器を同時に演奏しているかのようなプロモーションビデオ等を制作することもできる。
(映像音声処理方法)
図9は、第2の実施形態にかかる映像音声処理装置300を用いた映像音声処理方法の処理の流れ、特に練習撮像モードの処理の流れを説明したフローチャートである。なお、図9は、第1の実施形態における図3の練習撮像モードに対応し、第1の実施形態における映像音声処理方法としてすでに説明した、S228、S232〜S244は実質的に処理が等しいので同一の符号を付して重複説明を省略する。
図9に示すように、ユーザによる操作部102への操作入力に応じて、練習撮像モードが選択された状態で、符号化音声データの記録位置が選択されると(S400におけるYES)、ストリーム取得部304は、選択された記録位置から符号化音声データを取得する(S402)。データ復号部108は、符号化音声データを復号して音声データを生成する(S404)。そして、ユーザによる操作部102への操作入力に応じて、撮像の開始指示があると(S228におけるYES)、音声制御部132は、復号ステップS404で復号された音声データを音声出力部110に順次出力させる(S406)。
以上、説明したように、本実施形態にかかる映像音声処理方法によっても、ユーザは煩雑なタイミング調整作業等を行わなくとも、容易に複数の映像の同期をとることが可能となる。また、周囲に雑音等のノイズが発生している撮像環境であっても、確実に複数の映像の同期をとること可能となる。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
なお、本明細書の映像音声処理方法の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。
本発明は、映像データと音声データとを同期させる映像音声処理装置および映像音声処理方法に利用することができる。
100、300 …映像音声処理装置
104、304 …ストリーム取得部
106 …抽出部
108 …データ復号部
110 …音声出力部
112 …撮像部
116 …データ符号化部
118 …符号化メモリ
120 …多重化部
132 …音声制御部
134 …記録制御部
140 …表示部

Claims (5)

  1. 符号化音声データを取得するストリーム取得部と、
    取得された前記符号化音声データを復号して音声データを生成するデータ復号部と、
    生成された前記音声データを、音声出力部に出力させる音声制御部と、
    前記音声データの音声出力部への出力と同期させて被写体を撮像し、第1の映像データを生成する撮像部と、
    生成された前記第1の映像データを符号化して第1の符号化映像データを生成するデータ符号化部と、
    前記第1の符号化映像データを、符号化メモリに保持させる記録制御部と、
    前記符号化音声データと前記第1の符号化映像データとを多重化し、第1のストリームを生成する多重化部と、
    を備えることを特徴とする映像音声処理装置。
  2. 前記ストリーム取得部は、第2の符号化映像データと符号化音声データが多重化された第2のストリームを取得し、
    前記映像音声処理装置は、前記ストリーム取得部が前記第2のストリームを取得した場合、前記第2のストリームから前記符号化音声データを抽出する抽出部をさらに備え、
    前記データ復号部は、前記抽出部が抽出した前記符号化音声データを復号して音声データを生成し、
    前記多重化部は、前記抽出部が抽出した前記符号化音声データと前記第1の符号化映像データとを多重化し、第1のストリームを生成することを特徴とする請求項1に記載の映像音声処理装置。
  3. 前記抽出部は、前記第2のストリームから前記第2の符号化映像データを抽出し、
    前記データ復号部は、抽出された前記第2の符号化映像データを復号して第2の映像データを生成し、
    生成された前記第2の映像データを、前記音声出力部による前記音声データの出力と同期させて表示部に表示させる表示制御部をさらに備えることを特徴とする請求項2に記載の映像音声処理装置。
  4. 符号化音声データを取得し、
    取得した前記符号化音声データを復号して音声データを生成し、
    生成された前記音声データを、音声出力部に出力させ、
    前記音声データの音声出力部への出力と同期させて被写体を撮像し、第1の映像データを生成し、
    生成した前記第1の映像データを符号化して第1の符号化映像データを生成し、
    前記第1の符号化映像データを保持し、
    前記符号化音声データと前記第1の符号化映像データとを多重化し、第1のストリームを生成することを特徴とする映像音声処理方法。
  5. 第2の符号化映像データと符号化音声データが多重化された第2のストリームを取得し、
    取得した前記第2のストリームから前記符号化音声データを抽出し、
    抽出した前記符号化音声データを復号して音声データを生成し、
    抽出した前記符号化音声データと前記第1の符号化映像データとを多重化し、第1のストリームを生成することを特徴とする請求項4に記載の映像音声処理方法。
JP2010274081A 2010-12-08 2010-12-08 映像音声処理装置および映像音声処理方法 Active JP5304774B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010274081A JP5304774B2 (ja) 2010-12-08 2010-12-08 映像音声処理装置および映像音声処理方法
US13/313,434 US8615154B2 (en) 2010-12-08 2011-12-07 Video-audio processing apparatus and video-audio processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010274081A JP5304774B2 (ja) 2010-12-08 2010-12-08 映像音声処理装置および映像音声処理方法

Publications (2)

Publication Number Publication Date
JP2012124723A true JP2012124723A (ja) 2012-06-28
JP5304774B2 JP5304774B2 (ja) 2013-10-02

Family

ID=46199475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010274081A Active JP5304774B2 (ja) 2010-12-08 2010-12-08 映像音声処理装置および映像音声処理方法

Country Status (2)

Country Link
US (1) US8615154B2 (ja)
JP (1) JP5304774B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012262A (ja) * 2011-06-28 2013-01-17 Pioneer Electronic Corp 同期再生装置及び同期再生方法
JP2015012544A (ja) * 2013-07-01 2015-01-19 キヤノン株式会社 画像処理装置及び画像処理方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011001468A1 (ja) * 2009-07-01 2011-01-06 富士通株式会社 コンテンツの処理方法、記録装置、プログラム、及び記録媒体
CN103686337B (zh) * 2013-12-30 2018-02-16 深圳Tcl新技术有限公司 一种视频图像数据的传送方法及系统
US10110911B2 (en) * 2014-11-11 2018-10-23 Cisco Technology, Inc. Parallel media encoding
US11272192B2 (en) * 2019-03-04 2022-03-08 Comcast Cable Communications, Llc Scene classification and learning for video compression
CN116800976B (zh) * 2023-07-17 2024-03-12 武汉星巡智能科技有限公司 伴睡婴幼儿时音视频压缩和还原方法、装置及设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916752A (ja) * 1995-07-03 1997-01-17 Sanyo Electric Co Ltd カラオケシステム
JP2000029472A (ja) * 1998-07-08 2000-01-28 Yamaha Corp カラオケ装置
JP2003078863A (ja) * 2001-08-30 2003-03-14 Hitachi Ltd 記録装置およびこれを用いた携帯通信装置
JP2007110219A (ja) * 2005-10-11 2007-04-26 Canon Inc 記録再生装置、データ編集方法並びにプログラム
JP2009218900A (ja) * 2008-03-11 2009-09-24 Casio Comput Co Ltd 撮像装置、動画記録再生方法、および、プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5184295A (en) * 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US5815634A (en) * 1994-09-30 1998-09-29 Cirrus Logic, Inc. Stream synchronization method and apparatus for MPEG playback system
US5904484A (en) * 1996-12-23 1999-05-18 Burns; Dave Interactive motion training device and method
JP2001036867A (ja) 1999-07-23 2001-02-09 Gen Tec:Kk 複数チャネル動画像同期表示装置
US6537076B2 (en) * 2001-02-16 2003-03-25 Golftec Enterprises Llc Method and system for presenting information for physical motion analysis
CN1243444C (zh) * 2002-04-19 2006-02-22 松下电器产业株式会社 再现速度转换装置
JP4748075B2 (ja) 2007-02-07 2011-08-17 カシオ計算機株式会社 画像同期システム及び画像同期方法
US20090207277A1 (en) * 2008-02-20 2009-08-20 Kabushiki Kaisha Toshiba Video camera and time-lag correction method
JP4504452B1 (ja) * 2009-01-15 2010-07-14 株式会社東芝 映像視聴装置及び映像再生制御方法及び記録再生用プログラム
US8418085B2 (en) * 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916752A (ja) * 1995-07-03 1997-01-17 Sanyo Electric Co Ltd カラオケシステム
JP2000029472A (ja) * 1998-07-08 2000-01-28 Yamaha Corp カラオケ装置
JP2003078863A (ja) * 2001-08-30 2003-03-14 Hitachi Ltd 記録装置およびこれを用いた携帯通信装置
JP2007110219A (ja) * 2005-10-11 2007-04-26 Canon Inc 記録再生装置、データ編集方法並びにプログラム
JP2009218900A (ja) * 2008-03-11 2009-09-24 Casio Comput Co Ltd 撮像装置、動画記録再生方法、および、プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012262A (ja) * 2011-06-28 2013-01-17 Pioneer Electronic Corp 同期再生装置及び同期再生方法
JP2015012544A (ja) * 2013-07-01 2015-01-19 キヤノン株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JP5304774B2 (ja) 2013-10-02
US20120148208A1 (en) 2012-06-14
US8615154B2 (en) 2013-12-24

Similar Documents

Publication Publication Date Title
JP5304774B2 (ja) 映像音声処理装置および映像音声処理方法
JP5146503B2 (ja) 動画処理装置、動画再生装置、動画処理方法、動画再生方法及びプログラム
JP4978324B2 (ja) 画像記録装置、画像記録システム、画像再生方法
JP2009156888A (ja) 音声補正装置及びそれを備えた撮像装置並びに音声補正方法
JP2006352529A (ja) 撮像装置
JP2009065587A (ja) 音声記録装置及び音声再生装置
CN102164242A (zh) 摄像装置以及摄像控制方法
JP2012100216A (ja) カメラおよび動画撮影プログラム
JP2014086787A (ja) 再生制御装置、再生制御方法及びプログラム
JP2010178124A (ja) 記録装置及び記録方法
JP2010206593A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2007180739A (ja) 画像データ記録装置、画像データ記録方法、およびプログラム
JP2010258917A (ja) 撮影装置、プログラム、及び撮影方法
JP4651307B2 (ja) 照明環境再現装置及び方法、映像再生装置
JP6229356B2 (ja) 撮像装置、撮像方法及びプログラム
JP2013055440A (ja) 撮像装置及び画像音声再生装置
JP2014179943A (ja) 再生装置、再生方法、再生制御方法
JP2007104405A (ja) 音声付き映像データ処理装置、音声付き映像データ処理方法及び音声付き映像データ処理用プログラム
JP2014235301A (ja) ジェスチャーによるコマンド入力識別システム
JP2017211995A (ja) 再生装置、再生方法、再生プログラム、音声要約装置、音声要約方法および音声要約プログラム
JP2019096950A5 (ja)
JP2019096950A (ja) 撮像装置、撮像方法及び撮像プログラム
JP5279028B2 (ja) 音声処理装置、音声処理方法、及び、プログラム
JP5621645B2 (ja) 映像記憶装置および映像記憶制御方法
JP4422538B2 (ja) 音付映像の再生装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130610

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5304774

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250