JP4488091B2 - 電子機器、映像コンテンツ編集方法及びプログラム - Google Patents
電子機器、映像コンテンツ編集方法及びプログラム Download PDFInfo
- Publication number
- JP4488091B2 JP4488091B2 JP2008164652A JP2008164652A JP4488091B2 JP 4488091 B2 JP4488091 B2 JP 4488091B2 JP 2008164652 A JP2008164652 A JP 2008164652A JP 2008164652 A JP2008164652 A JP 2008164652A JP 4488091 B2 JP4488091 B2 JP 4488091B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- evaluation value
- face
- audio signal
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 31
- 230000005236 sound signal Effects 0.000 claims description 100
- 238000011156 evaluation Methods 0.000 claims description 98
- 238000004364 calculation method Methods 0.000 claims description 11
- 230000001815 facial effect Effects 0.000 claims description 9
- 238000001514 detection method Methods 0.000 description 55
- 238000012545 processing Methods 0.000 description 47
- 230000006870 function Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000003595 spectral effect Effects 0.000 description 5
- 238000003780 insertion Methods 0.000 description 4
- 230000037431 insertion Effects 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
- H04N9/8211—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a sound signal
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
- G10H1/368—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/046—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for differentiation between music and non-music signals, based on the identification of musical parameters, e.g. based on tempo detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
- G10L2021/105—Synthesis of the lips movements from speech, e.g. for talking heads
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Television Signal Processing For Recording (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Description
上記第1の入力手段は、第1の映像コンテンツを構成する画像信号及び第1の音声信号を入力する。
上記第2の入力手段は、上記第1の音声信号とは異なる第2の音声信号を入力する。
上記第1の算出手段は、上記入力された画像信号から、人物の顔が表れた顔画像領域を検出して、当該検出された顔画像領域の確からしさを評価する顔評価値を算出する。
上記第2の算出手段は、上記入力された第1の音声信号から、上記人物の声を検出して、当該検出された声の大きさを評価する声評価値を算出する。
上記設定手段は、上記算出された顔評価値及び声評価値を基に、上記画像信号毎に、上記第1の音声信号の重みを示す第1の重み係数及び上記第2の音声信号の重みを示す第2の重み係数を設定する。
上記生成手段は、上記設定された第1及び第2の重み係数を基に、上記第1及び第2の音声信号を混合した第3の音声信号を生成し、当該第3の音声信号及び上記画像信号により構成される第2の映像コンテンツを生成する。
ここで電子機器とは、例えばPC(Personal Computer)、HDD(Hard Disk Drive)/DVD/BD(Blu-ray Disc)等の記録媒体を用いた記録再生装置、デジタルビデオカメラ、携帯型AV機器、携帯電話機、ゲーム機器等の電化製品等である。第1の映像コンテンツとは、例えばカムコーダ等の機器により記録された映像コンテンツや、ネットワークを介して受信された映像コンテンツ等である。第2の音声信号とは、例えばBGMや効果音用の音声信号である。
この構成により、電子機器は、第1の映像コンテンツ中に含まれる顔画像と声とを基に、第1及び第2の音声信号の重みを可変して、第1の映像コンテンツから第2の映像コンテンツを生成することができる。したがって、第1の映像コンテンツに単に別の音声を挿入するような場合に比べて、シーンに応じて、人物の声をそのまま残したり、別の音声を挿入したりすることで、編集効果を高めて、より印象的な第2の映像コンテンツを生成することができる。
顔評価値と声評価値とが共に大きい場合には、第1の映像コンテンツに現れる人物が話している可能性が高いと考えられる。したがって、そのような場合には第1の重み係数を第2の重み係数よりも極力大きくして当該人物の声を強調することで、当該人物をより印象付けることができる。ここで、上記第1の値は1に設定されてもよい。
顔評価値と声評価値とが共に小さい場合には、第1の映像コンテンツには人物が現れない可能性が高いと考えられる。したがって、そのような場合には第1の重み係数を第2の重み係数よりも極力小さくして、第2の音声信号を強調することで、第1の映像コンテンツの平凡なシーンをより魅力的なものに編集することができる。ここで、第2の値は0に設定されてもよい。
顔評価値が大きく、声評価値が小さい場合には、第1の映像コンテンツ中に人物の顔が表れているため、声は小さくとも、その人物が何らかの声を発していると考えられる。したがって、そのような場合には、第2の音声信号を付加しつつも、第1の音声信号の重みを大きくすることで、第1の音声信号を強調しながら第2の音声信号の効果を付加することができる。
顔評価値が小さく、声評価値が大きい場合には、第1の映像コンテンツに人物がほとんど映っていないため、人物の声が含まれていても、その声は画像とはあまり関係ない人物の声であると考えられる。したがって、そのような場合には、第1の音声信号を残しつつも、第2の音声信号の重みを大きくすることで、第1の音声信号の効果を残しながら第2の音声信号の効果を高めることができる。
この場合、上記第1の算出手段は、上記記憶された顔特徴データを基に、上記特定の人物の顔が表れた顔画像領域を検出可能であってもよい。
これにより、映像コンテンツ中に複数の人物の顔が現れる場合でも、特定の人物の顔を他の人物の顔と区別して検出することができる。したがって、特定の人物に特化して、第1及び第2の音声信号の重み係数設定処理をより効果的に実行することができる。
この場合、上記第2の算出手段は、上記記憶された声特徴データを基に、上記特定の人物の声を検出可能であってもよい。
これにより、映像コンテンツ中に複数の人物の声が含まれる場合でも、特定の人物の声を他の人物の声と区別して検出することができる。したがって、特定の人物に特化して、第1及び第2の音声信号の重み係数設定処理をより効果的に実行することができる。
上記入力された画像信号からは、人物の顔が表れた顔画像領域を検出され、当該検出された顔画像領域の確からしさを評価する顔評価値を算出される。
上記入力された第1の音声信号からは、上記人物の声を検出され、当該検出された声の大きさを評価する声評価値を算出される。
上記算出された顔評価値及び声評価値を基に、上記画像信号毎に、上記第1の音声信号の重みを示す第1の重み係数及び上記第2の音声信号の重みを示す第2の重み係数が設定される。
上記設定された第1及び第2の重み係数を基に、上記第1及び第2の音声信号が混合された第3の音声信号が生成され、当該第3の音声信号及び上記画像信号により構成される第2の映像コンテンツが生成される。
この構成により、第1の映像コンテンツに単に別の音声を挿入するような場合に比べて、シーンに応じて、人物の声をそのまま残したり、別の音声を挿入したりすることで、編集効果を高めて、より印象的な第2の映像コンテンツを生成することができる。
上記第1の入力ステップは、第1の映像コンテンツを構成する画像信号及び第1の音声信号を入力する。
上記第2の入力ステップは、上記第1の音声信号とは異なる第2の音声信号を入力する。
上記第1の算出ステップは、上記入力された画像信号から、人物の顔が表れた顔画像領域を検出して、当該検出された顔画像領域の確からしさを評価する顔評価値を算出する。
上記第2の算出ステップは、上記入力された第1の音声信号から、上記人物の声を検出して、当該検出された声の大きさを評価する声評価値を算出する。
上記設定ステップは、上記算出された顔評価値及び声評価値を基に、上記画像信号毎に、上記第1の音声信号の重みを示す第1の重み係数及び上記第2の音声信号の重みを示す第2の重み係数を設定する。
上記生成ステップは、上記設定された第1及び第2の重み係数を基に、上記第1及び第2の音声信号を混合した第3の音声信号を生成し、当該第3の音声信号及び上記画像信号により構成される第2の映像コンテンツを生成する。
同図に示すように、本実施形態に係る記録再生装置100は、画像信号入力部1及び3、音声信号入力部2及び4、入力画像処理部5、入力音声処理部6、画像特徴検出部7、音声特徴検出部8、記録部9、記録媒体10を有する。記録再生装置100はまた、再生部11、出力画像処理部12、出力音声処理部13、ユーザインタフェース部14、CPU(Central Processing Unit)15及びRAM(Random Access Memory)16を有する。
入力音声処理部6は、入力された音声信号に、デジタル変換処理やエンコード処理等の種々の信号処理を施し、デジタル音声信号として音声特徴検出部8及び記録部9へ出力する。
音声特徴検出部8は、入力音声処理部6から供給された音声信号中から、人の声を検出し、当該検出された声の大きさを評価する声評価値を算出する。
出力音声処理部13は、アナログ変換処理等の種々の信号処理を施し、当該音声信号を上記外部機器や内蔵液晶ディスプレイへ出力する。
同図に示すように、記録再生装置100の上記記録媒体10には、様々な人物の顔画像のサンプルを表す顔画像サンプルデータと、非顔画像のサンプルを表す非顔画像サンプルデータとがそれぞれ学習用データとしてデータベース化され記憶されている。
ここで、画像特徴検出部7は、サンプル画像データからは、顔領域の大きさ及び位置を認識できない。したがって、画像特徴検出部7は、上記特徴フィルターの枠の大きさを変えて特徴フィルターにかけた場合に、最も確からしい検出値が得られたときの特徴フィルターの大きさを、顔領域の大きさと認識して顔特徴の抽出を行う。また、画像特徴検出部7は、サンプル画像データの全ての領域を特徴フィルターでスキャンした場合に、最も確からしい検出値が得られたときの特徴フィルターの位置を、顔領域の位置と認識して顔特徴の抽出を行う。
また、判別関数を用いた判別分析処理の代わりに、例えばサポートベクターマシン(SMV)、Ada-boost、ニューラルネットワーク等の機械学習的な手法を用いた判別分析処理が実行されてもよい。この場合、判別関数の代わりに、その判別処理を実行する処理モジュールが記録再生装置100に組み込まれる。これは、以下の説明において判別関数が関係する処理についても同様である。
同図に示すように、まず、編集対象の映像コンテンツが、記録媒体10から読み出され、または画像信号入力部1または3及び音声信号入力部2または4から入力される。続いてCPU15は、当該映像コンテンツから、所定区間(所定数の連続フレーム)の画像信号及び音声信号を抽出する(ステップ31)。抽出された所定区間の画像信号は、上記画像特徴検出部7へ供給され、所定区間の音声信号は、上記音声特徴検出部8へ供給される。
図8は、エッジ強度画像を用いた顔認識処理を概念的に示した図である。
同図に示すように、記録媒体10等には、顔認識したい人の特徴データ(辞書パターン)として、濃淡画像と、エッジ強度画像とが記憶されている。画像特徴検出部7は、検出された顔画像から、特徴データとして、濃淡画像及びエッジ強度画像を抽出する。そして、画像特徴検出部7は、この抽出した濃淡画像及びエッジ強度画像と、上記記憶された、顔認識したい人の濃淡画像及びエッジ強度画像とをパターンマッチングにより比較処理することで、特定の人の顔画像を認識することができる。この場合、画像特徴検出部7は、顔画像の認識率(マッチング率)を百分率で表して、顔評価値とすればよい。画像特徴検出部7は、目や鼻等の顔特徴点の情報が得られる場合には、上記エッジ強度画像等に加えてそれらの情報を併用することもできる。
この処理により、例えば上記図7の例では、多数の子供の中から、ユーザの子供の顔のみを検出及び認識する等、特定の人の顔の認識率に応じて、映像コンテンツにBGMを挿入することができる。これにより、編集後の映像コンテンツをより印象深いものとすることができる。
この処理により、特定の人の声の認識率に応じて、映像コンテンツにBGMを挿入することができるため、編集後の映像コンテンツをより印象深いものとすることができる。
2、4…音声信号入力部
5…入力画像処理部
6…入力音声処理部
7…画像特徴検出部
8…音声特徴検出部
9…記録部
10…記録媒体
11…再生部
12…出力画像処理部
13…出力音声処理部
14…ユーザインタフェース部
15…CPU
16…RAM
17…外部音声ソース
100…記録再生装置
Claims (9)
- 第1の映像コンテンツを構成する画像信号及び第1の音声信号を入力する第1の入力手段と、
前記第1の音声信号とは異なる第2の音声信号を入力する第2の入力手段と、
前記入力された画像信号から、人物の顔が表れた顔画像領域を検出して、当該検出された顔画像領域の確からしさを評価する顔評価値を算出する第1の算出手段と、
前記入力された第1の音声信号から、前記人物の声を検出して、当該検出された声の大きさを評価する声評価値を算出する第2の算出手段と、
前記算出された顔評価値及び声評価値を基に、前記画像信号毎に、前記第1の音声信号の重みを示す第1の重み係数及び前記第2の音声信号の重みを示す第2の重み係数を設定する設定手段と、
前記設定された第1及び第2の重み係数を基に、前記第1及び第2の音声信号を混合した第3の音声信号を生成し、当該第3の音声信号及び前記画像信号により構成される第2の映像コンテンツを生成する生成手段と
を具備する電子機器。 - 請求項1に記載の電子機器であって、
前記設定手段は、前記顔評価値が第1の閾値以上であり、かつ、前記声評価値が第2の閾値以上である場合に、前記第1の重み係数を前記第2の重み係数よりも大きい第1の値に設定する
電子機器。 - 請求項2に記載の電子機器であって、
前記設定手段は、前記顔評価値が前記第1の閾値未満であり、かつ、前記声評価値が前記第2の閾値未満である場合に、前記第1の重み係数を前記第2の重み係数よりも小さい第2の値に設定する
電子機器。 - 請求項3に記載の電子機器であって、
前記設定手段は、前記顔評価値が前記第1の閾値以上であり、かつ、前記声評価値が前記第2の閾値未満である場合に、前記顔評価値及び前記声評価値に応じて、前記第1の重み係数を前記第2の重み係数よりも大きく設定する
電子機器。 - 請求項3に記載の電子機器であって、
前記設定手段は、前記顔評価値が前記第1の閾値未満であり、かつ、前記声評価値が前記第2の閾値以上である場合に、前記顔評価値及び前記声評価値に応じて、前記第1の重み係数を前記第2の重み係数よりも小さく設定する
電子機器。 - 請求項3に記載の電子機器であって、
特定の人物の顔の特徴を示す顔特徴データを記憶する記憶手段を更に具備し、
前記第1の算出手段は、前記記憶された顔特徴データを基に、前記特定の人物の顔が表れた顔画像領域を検出可能である
電子機器。 - 請求項3に記載の電子機器であって、
特定の人物の声の特徴を示す声特徴データを記憶する記憶手段を更に具備し、
前記第2の算出手段は、前記記憶された声特徴データを基に、前記特定の人物の声を検出可能である
電子機器。 - 第1の映像コンテンツを構成する画像信号及び第1の音声信号を入力し、
前記第1の音声信号とは異なる第2の音声信号を入力し、
前記入力された画像信号から、人物の顔が表れた顔画像領域を検出して、当該検出された顔画像領域の確からしさを評価する顔評価値を算出し、
前記入力された第1の音声信号から、前記人物の声を検出して、当該検出された声の大きさを評価する声評価値を算出し、
前記算出された顔評価値及び声評価値を基に、前記画像信号毎に、前記第1の音声信号の重みを示す第1の重み係数及び前記第2の音声信号の重みを示す第2の重み係数を設定し、
前記設定された第1及び第2の重み係数を基に、前記第1及び第2の音声信号を混合した第3の音声信号を生成し、当該第3の音声信号及び前記画像信号により構成される第2の映像コンテンツを生成する
映像コンテンツ編集方法。 - 電子機器に、
第1の映像コンテンツを構成する画像信号及び第1の音声信号を入力するステップと、
前記第1の音声信号とは異なる第2の音声信号を入力するステップと、
前記入力された画像信号から、人物の顔が表れた顔画像領域を検出して、当該検出された顔画像領域の確からしさを評価する顔評価値を算出するステップと、
前記入力された第1の音声信号から、前記人物の声を検出して、当該検出された声の大きさを評価する声評価値を算出するステップと、
前記算出された顔評価値及び声評価値を基に、前記画像信号毎に、前記第1の音声信号の重みを示す第1の重み係数及び前記第2の音声信号の重みを示す第2の重み係数を設定するステップと、
前記設定された第1及び第2の重み係数を基に、前記第1及び第2の音声信号を混合した第3の音声信号を生成し、当該第3の音声信号及び前記画像信号により構成される第2の映像コンテンツを生成するステップと
を実行させるためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008164652A JP4488091B2 (ja) | 2008-06-24 | 2008-06-24 | 電子機器、映像コンテンツ編集方法及びプログラム |
KR1020090033176A KR101590186B1 (ko) | 2008-06-24 | 2009-04-16 | 전자 기기, 영상 콘텐츠 편집 방법 및 프로그램이 기록된 기록매체 |
US12/456,825 US8494338B2 (en) | 2008-06-24 | 2009-06-23 | Electronic apparatus, video content editing method, and program |
CN2009101499726A CN101615389B (zh) | 2008-06-24 | 2009-06-24 | 电子设备和视频内容编辑方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008164652A JP4488091B2 (ja) | 2008-06-24 | 2008-06-24 | 電子機器、映像コンテンツ編集方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010010780A JP2010010780A (ja) | 2010-01-14 |
JP4488091B2 true JP4488091B2 (ja) | 2010-06-23 |
Family
ID=41495001
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008164652A Expired - Fee Related JP4488091B2 (ja) | 2008-06-24 | 2008-06-24 | 電子機器、映像コンテンツ編集方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US8494338B2 (ja) |
JP (1) | JP4488091B2 (ja) |
KR (1) | KR101590186B1 (ja) |
CN (1) | CN101615389B (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5427622B2 (ja) * | 2010-01-22 | 2014-02-26 | Necパーソナルコンピュータ株式会社 | 音声変更装置、音声変更方法、プログラム及び記録媒体 |
JP5353835B2 (ja) * | 2010-06-28 | 2013-11-27 | ブラザー工業株式会社 | 情報処理プログラムおよび情報処理装置 |
US8879804B1 (en) * | 2010-12-18 | 2014-11-04 | Alexey Konoplev | System and method for automatic detection and recognition of facial features |
US20130162752A1 (en) * | 2011-12-22 | 2013-06-27 | Advanced Micro Devices, Inc. | Audio and Video Teleconferencing Using Voiceprints and Face Prints |
CN102760444B (zh) * | 2012-04-25 | 2014-06-11 | 清华大学 | 基于支撑向量机的基带时域音频信号分类方法 |
JP6253671B2 (ja) | 2013-12-26 | 2017-12-27 | 株式会社東芝 | 電子機器、制御方法およびプログラム |
CN104065977B (zh) * | 2014-06-06 | 2018-05-15 | 北京音之邦文化科技有限公司 | 音/视频文件的处理方法及装置 |
KR102282704B1 (ko) | 2015-02-16 | 2021-07-29 | 삼성전자주식회사 | 영상 데이터를 재생하는 전자 장치 및 방법 |
US20170092089A1 (en) * | 2015-09-30 | 2017-03-30 | Tianjin Hualai Technology Co., Ltd. | Security monitoring apparatus, camera having the same and security monitoring method |
CN107027053A (zh) * | 2017-05-08 | 2017-08-08 | 深圳Tcl数字技术有限公司 | 音频播放方法、终端及计算机可读存储介质 |
US10825480B2 (en) * | 2017-05-31 | 2020-11-03 | Apple Inc. | Automatic processing of double-system recording |
US10719692B2 (en) | 2017-09-09 | 2020-07-21 | Apple Inc. | Vein matching for difficult biometric authentication cases |
US10949715B1 (en) | 2019-08-19 | 2021-03-16 | Neon Evolution Inc. | Methods and systems for image and voice processing |
US10671838B1 (en) | 2019-08-19 | 2020-06-02 | Neon Evolution Inc. | Methods and systems for image and voice processing |
US10803646B1 (en) | 2019-08-19 | 2020-10-13 | Neon Evolution Inc. | Methods and systems for image and voice processing |
US10658005B1 (en) * | 2019-08-19 | 2020-05-19 | Neon Evolution Inc. | Methods and systems for image and voice processing |
KR102349180B1 (ko) * | 2020-01-06 | 2022-01-07 | 이상훈 | 사운드 재구성을 통한 멀티미디어 콘텐츠 생성 방법 및 콘텐츠 관리 서버 |
US11308657B1 (en) | 2021-08-11 | 2022-04-19 | Neon Evolution Inc. | Methods and systems for image processing using a learning engine |
CN116095564B (zh) * | 2023-04-10 | 2023-06-23 | 深圳市嘉润原新显科技有限公司 | 显示器混音电路及显示器 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2323421C (en) * | 1998-03-11 | 2008-09-23 | Entropic, Inc. | Face synthesis system and methodology |
DE19983916B4 (de) * | 1999-01-28 | 2010-02-18 | Intel Corporation, Santa Clara | Verfahren und Einrichtung zum Bearbeiten einer Videoaufzeichnung mit einer Audio-Auswahl |
JP2001202082A (ja) | 2000-01-17 | 2001-07-27 | Matsushita Electric Ind Co Ltd | 映像信号編集装置および方法 |
US6778252B2 (en) * | 2000-12-22 | 2004-08-17 | Film Language | Film language |
JP2002374494A (ja) * | 2001-06-14 | 2002-12-26 | Fuji Electric Co Ltd | ビデオコンテンツファイル生成システムおよびビデオコンテンツファイル検索方法。 |
JP2003051797A (ja) * | 2001-08-07 | 2003-02-21 | Star Collaboration Kk | デジタルコンテンツの配信方法、配信装置、再生装置、コンピュータプログラム |
EP1443498B1 (en) * | 2003-01-24 | 2008-03-19 | Sony Ericsson Mobile Communications AB | Noise reduction and audio-visual speech activity detection |
US7649988B2 (en) * | 2004-06-15 | 2010-01-19 | Acoustic Technologies, Inc. | Comfort noise generator using modified Doblinger noise estimate |
JP4712812B2 (ja) * | 2005-10-21 | 2011-06-29 | パナソニック株式会社 | 記録再生装置 |
CN101202876A (zh) * | 2006-12-15 | 2008-06-18 | 天津三星电子有限公司 | 在dvr中利用音视频复合通道实现声音与图像同步的方法 |
US7521622B1 (en) * | 2007-02-16 | 2009-04-21 | Hewlett-Packard Development Company, L.P. | Noise-resistant detection of harmonic segments of audio signals |
-
2008
- 2008-06-24 JP JP2008164652A patent/JP4488091B2/ja not_active Expired - Fee Related
-
2009
- 2009-04-16 KR KR1020090033176A patent/KR101590186B1/ko active IP Right Grant
- 2009-06-23 US US12/456,825 patent/US8494338B2/en active Active
- 2009-06-24 CN CN2009101499726A patent/CN101615389B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN101615389B (zh) | 2012-08-22 |
US20100008641A1 (en) | 2010-01-14 |
CN101615389A (zh) | 2009-12-30 |
KR20100002090A (ko) | 2010-01-06 |
JP2010010780A (ja) | 2010-01-14 |
KR101590186B1 (ko) | 2016-01-29 |
US8494338B2 (en) | 2013-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4488091B2 (ja) | 電子機器、映像コンテンツ編集方法及びプログラム | |
Anina et al. | Ouluvs2: A multi-view audiovisual database for non-rigid mouth motion analysis | |
US10847185B2 (en) | Information processing method and image processing apparatus | |
US8582804B2 (en) | Method of facial image reproduction and related device | |
JP5323770B2 (ja) | ユーザ指示取得装置、ユーザ指示取得プログラムおよびテレビ受像機 | |
US9749684B2 (en) | Multimedia processing method and multimedia apparatus | |
US8326623B2 (en) | Electronic apparatus and display process method | |
CN109168067A (zh) | 视频时序矫正方法、矫正终端及计算机可读存储介质 | |
JP4641389B2 (ja) | 情報処理方法、情報処理装置 | |
US11871084B2 (en) | Systems and methods for displaying subjects of a video portion of content | |
JP2007101945A (ja) | 音声付き映像データ処理装置、音声付き映像データ処理方法及び音声付き映像データ処理用プログラム | |
Galatas et al. | Audio-visual speech recognition using depth information from the Kinect in noisy video conditions | |
US8437611B2 (en) | Reproduction control apparatus, reproduction control method, and program | |
JP2009278202A (ja) | 映像編集装置及び方法及びプログラム及びコンピュータ読み取り可能な記録媒体 | |
Petridis et al. | Audiovisual laughter detection based on temporal features | |
EP3223516A1 (en) | Information processing method, video processing device, and program | |
JP2003109022A (ja) | 図書製作システムと図書製作方法 | |
KR101985669B1 (ko) | 동영상을 이용한 카툰 생성장치 및 방법 | |
JP2022015167A (ja) | 画像処理装置および画像処理方法 | |
JP6838739B2 (ja) | 近時記憶支援装置 | |
JP2006154531A (ja) | 音声速度変換装置、音声速度変換方法、および音声速度変換プログラム | |
Friedland et al. | Using artistic markers and speaker identification for narrative-theme navigation of seinfeld episodes | |
CN118590714A (zh) | 视觉媒体数据处理方法、程序产品、存储介质及电子设备 | |
CN118158453A (zh) | 多人对话视频生成方法、装置、电子设备和存储介质 | |
EP3794592A2 (en) | Systems and methods for displaying subjects of a portion of content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100309 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100322 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130409 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4488091 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130409 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140409 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |