JP5353835B2 - 情報処理プログラムおよび情報処理装置 - Google Patents
情報処理プログラムおよび情報処理装置 Download PDFInfo
- Publication number
- JP5353835B2 JP5353835B2 JP2010146870A JP2010146870A JP5353835B2 JP 5353835 B2 JP5353835 B2 JP 5353835B2 JP 2010146870 A JP2010146870 A JP 2010146870A JP 2010146870 A JP2010146870 A JP 2010146870A JP 5353835 B2 JP5353835 B2 JP 5353835B2
- Authority
- JP
- Japan
- Prior art keywords
- text
- voice
- still image
- editing point
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 106
- 238000000605 extraction Methods 0.000 claims abstract description 18
- 238000001514 detection method Methods 0.000 claims abstract description 17
- 238000000034 method Methods 0.000 claims description 62
- 230000002194 synthesizing effect Effects 0.000 claims description 13
- 238000004458 analytical method Methods 0.000 claims description 7
- 230000015572 biosynthetic process Effects 0.000 claims description 2
- 238000003786 synthesis reaction Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 description 43
- 238000012545 processing Methods 0.000 description 24
- 239000002131 composite material Substances 0.000 description 20
- 238000007493 shaping process Methods 0.000 description 9
- 238000007639 printing Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000008451 emotion Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000007664 blowing Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 206010002953 Aphonia Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Television Signal Processing For Recording (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
面積=指定フォントの文字の高さ*(指定フォントの文字の幅+文字間空白)*テキスト項目44に格納されたテキストの文字数 ・・・(1)
<その他>
<手段>
技術的思想1:順次出力される複数の静止画を含む動画と、前記動画と同期して再生される音声とを処理するコンピュータにおいて実行される情報処理プログラムであって、前記動画の再生区間のうち、同期して再生される前記音声に声音が含まれる有声音区間を検出する音声検出手段と、前記動画の再生区間に含まれるいずれかの時点を、動画編集点として設定する動画編集点設定手段と、前記動画編集点設定手段により設定される前記動画編集点が、前記音声検出手段により検出される前記有声音区間に含まれるかを判断する動画編集点判断手段と、前記動画編集点判断手段により、前記動画編集点が前記有声音区間に含まれると判断される場合、前記音声検出手段により検出される前記有声音区間のうち、前記動画編集点を含む前記有声音区間の開始時点に基づいて、音声編集点を設定する音声編集点設定手段と、前記音声編集点設定手段により設定された前記音声編集点以降に再生される声音を、テキストに変換して抽出するテキスト抽出手段と、前記動画を構成する複数の静止画のうち、前記動画編集点設定手段により設定された前記動画編集点に出力される静止画を選択する静止画選択手段と、前記静止画選択手段により選択された前記静止画に、前記テキスト抽出手段により抽出されたテキストを合成する合成手段とを前記コンピュータに実行させる情報処理プログラム。
技術的思想2:前記音声検出手段により検出される前記有声音区間に再生される前記声音の発話者を特定する発話者特定手段を前記コンピュータに実行させるものであり、前記合成手段は、前記発話者特定手段により特定される前記発話者に関連づけて、前記テキストを前記静止画に合成するものである技術的思想1記載の情報処理プログラム。
技術的思想3:前記静止画選択手段により選択された前記静止画に登場する静止画内人物を認識する静止画内人物認識手段と、前記静止画内人物認識手段により認識される前記静止画内人物と、前記発話者特定手段により特定される前記発話者とを照合する照合手段とを前記コンピュータに実行させるものであり、前記合成手段は、前記照合手段により、前記発話者特定手段により特定される前記発話者と同一人物であると判断される前記静止画内人物に、該静止画内人物に基づくテキストを関連づけて合成するものである技術的思想2記載の情報処理プログラム。
技術的思想4:前記静止画内人物に関連づけたテキスト領域を、前記静止画内に設定するテキスト領域設定手段を、前記コンピュータに実行させるものであり、前記合成手段は、前記テキスト領域設定手段により設定された前記テキスト領域に、該テキスト領域に関連づけられた前記静止画内人物に基づくテキストを合成するものである技術的思想3記載の情報処理プログラム。
技術的思想5:前記テキスト領域設定手段は、前記静止画内人物から吹き出す形状の吹き出しを、前記静止画内人物に関連づけたテキスト領域として設定するものである技術的思想4記載の情報処理プログラム。
技術的思想6:前記テキスト領域設定手段は、前記照合手段により、前記発話者特定手段により特定される前記発話者が前記静止画内人物に含まれないと判断される場合、前記静止画の縁から内側へ向けて吹き出す形状の吹き出しを、前記テキスト領域として設定するものであり、前記合成手段は、前記静止画の縁から内側へ向けて吹き出す形状の前記吹き出しに、前記静止画内人物には含まれない発話者に基づくテキストを合成するものである技術的思想5記載の情報処理プログラム。
技術的思想7:前記音声に含まれる前記声音を発話者毎に分割する第1分割手段を前記コンピュータに実行させるものであり、前記テキスト領域設定手段は、前記第1分割手段により分割された前記声音の各々について、前記テキスト領域を設定するものである技術的思想4から6のいずれかに記載の情報処理プログラム。
技術的思想8:前記動画の再生区間のうち、前記音声検出手段により検出されない区間を境界として、前記音声に含まれる前記声音を分割する第2分割手段を備え、前記テキスト領域設定手段は、前記第2分割手段により分割された前記声音の各々について、前記テキスト領域を設定するものである技術的思想4から7のいずれかに記載の情報処理プログラム。
技術的思想9:前記発話者特定手段は,前記第1分割手段または前記第2分割手段により分割された前記声音毎に、前記発話者を特定するものであり、前記テキスト領域設定手段は、前記発話者特定手段により特定される発話者毎に、前記テキスト領域の態様を異ならせるものである技術的思想7または8に記載の情報処理プログラム。
技術的思想10:前記第1分割手段または前記第2分割手段により分割された各声音を分析し、分析の結果に基づいて、前記第1分割手段または前記第2分割手段により分割された各声音を分類する分類手段として前記コンピュータを機能させるものであり、前記テキスト領域設定手段は、前記分類手段による分類毎に、前記テキスト領域の態様を異ならせるものである技術的思想7から9のいずれかに記載の情報処理プログラム。
技術的思想11:前記テキスト抽出手段は、前記第1分割手段または前記第2分割手段により分割された声音毎に、該声音をテキストに変換するものであって、前記テキスト抽出手段により変換された前記声音毎のテキストが、それぞれ所定の文字数以下となるように、各テキストの文字数を制限する文字数制限手段を前記コンピュータに実行させるものであり、前記合成手段は、前記文字数制限手段により文字数が制限された前記テキストを、前記静止画に合成するものである技術的思想7から10のいずれかに記載の情報処理プログラム。
技術的思想12:前記テキスト抽出手段は、前記音声編集点設定手段により設定された前記音声編集点から所定時間を経過した所定時間経過時点が、前記音声検出手段により検出される前記有声音区間に含まれる場合、前記所定時間経過時点を含む前記有声音区間の終了時点までの声音を、テキストに変換して抽出するものである技術的思想1から11のいずれかに記載の情報処理プログラム。
技術的思想13:順次出力される複数の静止画を含む動画と、前記動画と同期して再生される音声とを処理する情報処理装置であって、前記動画の再生区間のうち、同期して再生される前記音声に声音が含まれる有声音区間を検出する音声検出手段と、前記動画の再生区間に含まれるいずれかの時点を、動画編集点として設定する動画編集点設定手段と、前記動画編集点設定手段により設定される前記動画編集点が、前記音声検出手段により検出される前記有声音区間に含まれるかを判断する動画編集点判断手段と、前記動画編集点判断手段により、前記動画編集点が前記有声音区間に含まれると判断される場合、前記音声検出手段により検出される前記有声音区間のうち、前記動画編集点を含む前記有声音区間の開始時点に基づいて、音声編集点を設定する音声編集点設定手段と、前記音声編集点設定手段により設定された前記音声編集点以降に再生される声音を、テキストに変換して抽出するテキスト抽出手段と、前記動画を構成する複数の静止画のうち、前記動画編集点設定手段により設定された前記動画編集点に出力される静止画を選択する静止画選択手段と、前記静止画選択手段により選択された前記静止画に、前記テキスト抽出手段により抽出されたテキストを合成する合成手段とを備える情報処理装置。
<効果>
技術的思想1記載の情報処理プログラムによれば、動画編集点が有声音区間に含まれると判断される場合には、該動画編集点を含む前記有声音区間の開始時点に基づいて、音声編集点が設定される。そして、テキスト抽出手段により、音声編集点以降に再生される声音がテキストに変換して抽出される。また、動画を構成する複数の静止画のうち、前記動画編集点に出力される静止画が、静止画選択手段により選択される。そして、合成手段により、前記テキスト抽出手段により抽出されたテキストが前記静止画選択手段により選択された静止画に合成される。よって、動画の所定のタイミングにおける状況をより明確に表現する画像を生成できるという効果がある。
技術的思想2記載の情報処理プログラムによれば、技術的思想1記載の情報処理プログラムの奏する効果に加え、発話者に関連づけて、前記テキストが前記静止画に合成されるので、動画の所定のタイミングにおける状況をより明確に表現する画像を生成できるという効果がある。
技術的思想3記載の情報処理プログラムによれば、技術的思想2記載の情報処理プログラムの奏する効果に加え、発話者と同一人物であると判断される静止画内人物に、該静止画内人物に基づくテキストが関連づけて合成されるので、動画の所定のタイミングにおける状況をより明確に表現する画像を生成できるという効果がある。
ここで、「静止画内人物に基づくテキスト」とは、「静止画内人物が発話した声音を変換することにより得られるテキスト」を意味している。
技術的思想4記載の情報処理プログラムによれば、技術的思想3記載の情報処理プログラムの奏する効果に加え、静止画内人物に関連づけたテキスト領域に、該テキスト領域に関連づけられた前記静止画内人物に基づくテキストが合成されるので、静止画内人物とテキストとの関連が視覚的に分かりやすい画像を生成できるという効果がある。
技術的思想5記載の情報処理プログラムによれば、技術的思想4記載の情報処理プログラムの奏する効果に加え、静止画内人物から吹き出す形状の吹き出しが、前記静止画内人物に関連づけたテキスト領域として設定されるので、静止画内人物とテキストとの関連が視覚的に分かりやすい画像を生成できるという効果がある。
技術的思想6記載の情報処理プログラムによれば、技術的思想5記載の情報処理プログラムの奏する効果に加え、静止画の縁から内側へ向けて吹き出す形状の吹き出しに、静止画内人物には含まれない発話者に基づくテキストが合成されるので、静止画内人物には含まれない発話者に基づくテキストであっても、発話者との関連が視覚的に分かりやすいように合成できるという効果がある。
技術的思想7記載の情報処理プログラムによれば、技術的思想4から6のいずれかに記載の情報処理プログラムの奏する効果に加え、発話者毎に分割された声音毎にテキスト領域が設定されるので、発話者とテキストとの関連が視覚的に分かりやすい画像を生成できるという効果がある。
技術的思想8記載の情報処理プログラムによれば、技術的思想4から7のいずれかに記載の情報処理プログラムの奏する効果に加え、前記音声検出手段により検出されない区間を境界として分割された声音毎にテキスト領域が設定されるので、テキストを発言毎に区切った態様で、静止画に合成できるという効果がある。
技術的思想9記載の情報処理プログラムによれば、技術的思想7または8に記載の情報処理プログラムの奏する効果に加え、発話者毎に前記テキスト領域の態様を異ならせるので、発話者とテキストとの関連が視覚的に分かりやすい画像を生成できるという効果がある。
技術的思想10記載の情報処理プログラムによれば、技術的思想7から9のいずれかに記載の情報処理プログラムの奏する効果に加え、各声音を分析し、分析の結果に基づいて、分割した各声音を分類し、その分類毎に前記テキスト領域の態様を異ならせるので、動画の所定のタイミングにおける状況をより明確に表現する画像を生成できるという効果がある。
技術的思想11記載の情報処理プログラムによれば、技術的思想7から10のいずれかに記載の情報処理プログラムの奏する効果に加え、テキストがそれぞれ所定の文字数以下となるように、各テキストの文字数が制限されるので、合成されるテキストによって静止画が見難くなることを抑制できるという効果がある。
技術的思想12記載の情報処理プログラムによれば、技術的思想1から11のいずれかに記載の情報処理プログラムの奏する効果に加え、前記音声編集点から所定時間を経過した所定時間経過時点が有声音区間に含まれる場合、前記所定時間経過時点を含む前記有声音区間の終了時点までの声音を、テキストに変換して抽出するので、動画の所定のタイミングにおける状況をより明確に表現する画像を生成できるという効果がある。
技術的思想13記載の情報処理装置によれば、技術的思想1記載の情報処理プログラムを実行するコンピュータと同様の作用効果を奏する。
14a プリンタドライバ(情報処理プログラムの一例)
30 動画の再生区間
32 動画編集点
34 有声音区間
36 音声編集点
38 所定時間経過時点
51 静止画
52 静止画内人物
54 吹き出し(テキスト領域の一例)
Claims (13)
- 順次出力される複数の静止画を含む動画と、前記動画と同期して再生される音声とを処理するコンピュータにおいて実行される情報処理プログラムであって、
前記動画の再生区間のうち、同期して再生される前記音声に声音が含まれる有声音区間を検出する音声検出手段と、
前記動画の再生区間に含まれるいずれかの時点を、動画編集点として設定する動画編集点設定手段と、
前記動画編集点設定手段により設定される前記動画編集点が、前記音声検出手段により検出される前記有声音区間に含まれるかを判断する動画編集点判断手段と、
前記動画編集点判断手段により、前記動画編集点が前記有声音区間に含まれると判断される場合、前記音声検出手段により検出される前記有声音区間のうち、前記動画編集点を含む前記有声音区間の開始時点に基づいて、音声編集点を設定する音声編集点設定手段と、
前記音声編集点設定手段により設定された前記音声編集点以降に再生される声音を、テキストに変換して抽出するテキスト抽出手段と、
前記動画を構成する複数の静止画のうち、前記動画編集点設定手段により設定された前記動画編集点に出力される静止画を選択する静止画選択手段と、
前記静止画選択手段により選択された前記静止画に、前記テキスト抽出手段により抽出されたテキストを合成する合成手段とを前記コンピュータに実行させ、
前記音声編集点設定手段は、前記動画編集点が前記有声音区間内且つ該区間の開始時点よりも後にある場合、前記音声編集点を前記有声音区間の開始時点とするものである情報処理プログラム。 - 前記音声検出手段により検出される前記有声音区間に再生される前記声音の発話者を特定する発話者特定手段を前記コンピュータに実行させるものであり、
前記合成手段は、前記発話者特定手段により特定される前記発話者に関連づけて、前記テキストを前記静止画に合成するものである請求項1記載の情報処理プログラム。 - 前記静止画選択手段により選択された前記静止画に登場する静止画内人物を認識する静止画内人物認識手段と、
前記静止画内人物認識手段により認識される前記静止画内人物と、前記発話者特定手段により特定される前記発話者とを照合する照合手段とを前記コンピュータに実行させるものであり、
前記合成手段は、前記照合手段により、前記発話者特定手段により特定される前記発話者と同一人物であると判断される前記静止画内人物に、該静止画内人物に基づくテキストを関連づけて合成するものである請求項2記載の情報処理プログラム。 - 前記静止画内人物に関連づけたテキスト領域を、前記静止画内に設定するテキスト領域設定手段を、前記コンピュータに実行させるものであり、
前記合成手段は、前記テキスト領域設定手段により設定された前記テキスト領域に、該テキスト領域に関連づけられた前記静止画内人物に基づくテキストを合成するものである請求項3記載の情報処理プログラム。 - 前記テキスト領域設定手段は、前記静止画内人物から吹き出す形状の吹き出しを、前記静止画内人物に関連づけたテキスト領域として設定するものである請求項4記載の情報処理プログラム。
- 前記テキスト領域設定手段は、前記照合手段により、前記発話者特定手段により特定される前記発話者が前記静止画内人物に含まれないと判断される場合、前記静止画の縁から内側へ向けて吹き出す形状の吹き出しを、前記テキスト領域として設定するものであり、
前記合成手段は、前記静止画の縁から内側へ向けて吹き出す形状の前記吹き出しに、前記静止画内人物には含まれない発話者に基づくテキストを合成するものである請求項5記載の情報処理プログラム。 - 前記音声に含まれる前記声音を発話者毎に分割する第1分割手段を前記コンピュータに実行させるものであり、
前記テキスト領域設定手段は、前記第1分割手段により分割された前記声音の各々について、前記テキスト領域を設定するものである請求項4から6のいずれかに記載の情報処理プログラム。 - 前記動画の再生区間のうち、前記音声検出手段により検出されない区間を境界として、前記音声に含まれる前記声音を分割する第2分割手段を備え、
前記テキスト領域設定手段は、前記第2分割手段により分割された前記声音の各々について、前記テキスト領域を設定するものである請求項4から7のいずれかに記載の情報処理プログラム。 - 前記発話者特定手段は,前記第1分割手段または前記第2分割手段により分割された前記声音毎に、前記発話者を特定するものであり、
前記テキスト領域設定手段は、前記発話者特定手段により特定される発話者毎に、前記テキスト領域の態様を異ならせるものである請求項7または8に記載の情報処理プログラム。 - 前記第1分割手段または前記第2分割手段により分割された各声音を分析し、分析の結果に基づいて、前記第1分割手段または前記第2分割手段により分割された各声音を分類する分類手段として前記コンピュータを機能させるものであり、
前記テキスト領域設定手段は、前記分類手段による分類毎に、前記テキスト領域の態様を異ならせるものである請求項7から9のいずれかに記載の情報処理プログラム。 - 前記テキスト抽出手段は、前記第1分割手段または前記第2分割手段により分割された声音毎に、該声音をテキストに変換するものであって、
前記テキスト抽出手段により変換された前記声音毎のテキストが、それぞれ所定の文字数以下となるように、各テキストの文字数を制限する文字数制限手段を前記コンピュータに実行させるものであり、
前記合成手段は、前記文字数制限手段により文字数が制限された前記テキストを、前記静止画に合成するものである請求項7から10のいずれかに記載の情報処理プログラム。 - 前記テキスト抽出手段は、
前記音声編集点設定手段により設定された前記音声編集点から所定時間を経過した所定時間経過時点が、前記音声検出手段により検出される前記有声音区間に含まれる場合、前記所定時間経過時点を含む前記有声音区間の終了時点までの声音を、テキストに変換して抽出するものである請求項1から11のいずれかに記載の情報処理プログラム。 - 順次出力される複数の静止画を含む動画と、前記動画と同期して再生される音声とを処理する情報処理装置であって、
前記動画の再生区間のうち、同期して再生される前記音声に声音が含まれる有声音区間を検出する音声検出手段と、
前記動画の再生区間に含まれるいずれかの時点を、動画編集点として設定する動画編集点設定手段と、
前記動画編集点設定手段により設定される前記動画編集点が、前記音声検出手段により検出される前記有声音区間に含まれるかを判断する動画編集点判断手段と、
前記動画編集点判断手段により、前記動画編集点が前記有声音区間に含まれると判断される場合、前記音声検出手段により検出される前記有声音区間のうち、前記動画編集点を含む前記有声音区間の開始時点に基づいて、音声編集点を設定する音声編集点設定手段と、
前記音声編集点設定手段により設定された前記音声編集点以降に再生される声音を、テキストに変換して抽出するテキスト抽出手段と、
前記動画を構成する複数の静止画のうち、前記動画編集点設定手段により設定された前記動画編集点に出力される静止画を選択する静止画選択手段と、
前記静止画選択手段により選択された前記静止画に、前記テキスト抽出手段により抽出されたテキストを合成する合成手段とを備え、
前記音声編集点設定手段は、前記動画編集点が前記有声音区間内且つ該区間の開始時点よりも後にある場合、前記音声編集点を前記有声音区間の開始時点とするものである情報処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010146870A JP5353835B2 (ja) | 2010-06-28 | 2010-06-28 | 情報処理プログラムおよび情報処理装置 |
US13/044,020 US8611724B2 (en) | 2010-06-28 | 2011-03-09 | Computer readable medium, information processing apparatus and method for processing moving image and sound |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010146870A JP5353835B2 (ja) | 2010-06-28 | 2010-06-28 | 情報処理プログラムおよび情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012008973A JP2012008973A (ja) | 2012-01-12 |
JP5353835B2 true JP5353835B2 (ja) | 2013-11-27 |
Family
ID=45352642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010146870A Active JP5353835B2 (ja) | 2010-06-28 | 2010-06-28 | 情報処理プログラムおよび情報処理装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8611724B2 (ja) |
JP (1) | JP5353835B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10373648B2 (en) | 2015-01-20 | 2019-08-06 | Samsung Electronics Co., Ltd. | Apparatus and method for editing content |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5439455B2 (ja) * | 2011-10-21 | 2014-03-12 | 富士フイルム株式会社 | 電子コミック編集装置、方法及びプログラム |
JP5910379B2 (ja) * | 2012-07-12 | 2016-04-27 | ソニー株式会社 | 情報処理装置、情報処理方法、表示制御装置および表示制御方法 |
US9361278B2 (en) | 2013-03-15 | 2016-06-07 | Facebook, Inc. | Overlaying photographs with text on a social networking system |
US9342487B2 (en) * | 2013-09-04 | 2016-05-17 | Adobe Systems Incorporated | Method for layout of speech bubbles associated with characters in an image |
JP6176041B2 (ja) * | 2013-10-02 | 2017-08-09 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
JP2016189158A (ja) * | 2015-03-30 | 2016-11-04 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、プログラムおよび記録媒体 |
KR102165271B1 (ko) * | 2016-08-22 | 2020-10-13 | 스노우 주식회사 | 대화방을 통해 각 사용자의 상태를 반영한 화상 데이터를 공유하는 메시지 공유 방법메시지 공유 방법 및 상기 방법을 실행시키기 위한 컴퓨터 프로그램 |
CN113544772A (zh) * | 2019-03-15 | 2021-10-22 | 富士通株式会社 | 编辑支持程序、编辑支持方法和编辑支持装置 |
JP2021009608A (ja) * | 2019-07-02 | 2021-01-28 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP6856883B2 (ja) * | 2020-01-15 | 2021-04-14 | 株式会社ミクシィ | 情報処理装置,情報処理装置の制御方法及び制御プログラム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4154015B2 (ja) | 1997-12-10 | 2008-09-24 | キヤノン株式会社 | 情報処理装置およびその方法 |
JP4792686B2 (ja) * | 2000-02-07 | 2011-10-12 | ソニー株式会社 | 画像処理装置及び画像処理方法並びに記録媒体 |
JP2001265378A (ja) | 2000-03-22 | 2001-09-28 | Canon Inc | 情報処理装置、方法、システム及び記憶媒体 |
JP3364487B2 (ja) | 2001-06-25 | 2003-01-08 | 隆義 山本 | 複合音声データの音声分離方法、発言者特定方法、複合音声データの音声分離装置、発言者特定装置、コンピュータプログラム、及び、記録媒体 |
JP4226237B2 (ja) * | 2001-09-11 | 2009-02-18 | 日本放送協会 | 漫画生成装置及び漫画生成プログラム |
JP2003333509A (ja) * | 2002-05-10 | 2003-11-21 | Canon Inc | 情報処理装置 |
JP2004056286A (ja) * | 2002-07-17 | 2004-02-19 | Fuji Photo Film Co Ltd | 画像表示方法 |
JP2005202801A (ja) * | 2004-01-16 | 2005-07-28 | Sharp Corp | 表示装置 |
JP2006060648A (ja) | 2004-08-23 | 2006-03-02 | Seiko Epson Corp | 静止画像の選択方法および印刷装置 |
JP4599244B2 (ja) * | 2005-07-13 | 2010-12-15 | キヤノン株式会社 | 動画データから字幕を作成する装置及び方法、プログラム、並びに記憶媒体 |
JP4775066B2 (ja) * | 2006-03-28 | 2011-09-21 | カシオ計算機株式会社 | 画像加工装置 |
JP4699298B2 (ja) | 2006-06-28 | 2011-06-08 | 富士フイルム株式会社 | 人体領域抽出方法および装置並びにプログラム |
JP4488091B2 (ja) * | 2008-06-24 | 2010-06-23 | ソニー株式会社 | 電子機器、映像コンテンツ編集方法及びプログラム |
JP2010081457A (ja) * | 2008-09-29 | 2010-04-08 | Hitachi Ltd | 情報記録再生装置およびビデオカメラ |
US8370858B2 (en) * | 2008-12-11 | 2013-02-05 | Sap Ag | Creating step descriptions for application program interfaces |
US8392004B2 (en) * | 2009-04-30 | 2013-03-05 | Apple Inc. | Automatic audio adjustment |
-
2010
- 2010-06-28 JP JP2010146870A patent/JP5353835B2/ja active Active
-
2011
- 2011-03-09 US US13/044,020 patent/US8611724B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10373648B2 (en) | 2015-01-20 | 2019-08-06 | Samsung Electronics Co., Ltd. | Apparatus and method for editing content |
US10971188B2 (en) | 2015-01-20 | 2021-04-06 | Samsung Electronics Co., Ltd. | Apparatus and method for editing content |
Also Published As
Publication number | Publication date |
---|---|
US8611724B2 (en) | 2013-12-17 |
US20110317984A1 (en) | 2011-12-29 |
JP2012008973A (ja) | 2012-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5353835B2 (ja) | 情報処理プログラムおよび情報処理装置 | |
US11436780B2 (en) | Matching mouth shape and movement in digital video to alternative audio | |
JP4600828B2 (ja) | 文書対応付け装置、および文書対応付け方法 | |
EP3226245B1 (en) | System and method to insert visual subtitles in videos | |
JP6304941B2 (ja) | 会議情報記録システム、情報処理装置、制御方法およびコンピュータプログラム | |
CN112367551B (zh) | 视频编辑的方法及装置、电子设备和可读存储介质 | |
JP2007027990A (ja) | 動画データから字幕を作成する装置及び方法、プログラム、並びに記憶媒体 | |
CN107204027B (zh) | 图像处理装置、显示装置、动画生成方法以及动画显示方法 | |
JP2002150317A (ja) | 映像表示装置 | |
JP2003085572A (ja) | 漫画生成装置及び漫画生成プログラム | |
JP2010066844A (ja) | 動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラム | |
JP2020160341A (ja) | 動画出力システム | |
JP2016189158A (ja) | 画像処理装置、画像処理方法、プログラムおよび記録媒体 | |
JP2003216955A (ja) | ジェスチャ認識方法、ジェスチャ認識装置、対話装置及びジェスチャ認識プログラムを記録した記録媒体 | |
JP2004056286A (ja) | 画像表示方法 | |
JP2015212732A (ja) | 音喩認識装置、及びプログラム | |
JP2007101945A (ja) | 音声付き映像データ処理装置、音声付き映像データ処理方法及び音声付き映像データ処理用プログラム | |
JP6176041B2 (ja) | 情報処理装置及びプログラム | |
JP4818415B2 (ja) | 電子漫画製造装置及び電子漫画製造方法 | |
JP6690442B2 (ja) | プレゼンテーション支援装置、プレゼンテーション支援システム、プレゼンテーション支援方法及びプレゼンテーション支援プログラム | |
JP2009278202A (ja) | 映像編集装置及び方法及びプログラム及びコンピュータ読み取り可能な記録媒体 | |
JP2010061343A (ja) | 音声記録方法、音声再生方法、音声記録プログラム、音声再生プログラム | |
JP6641045B1 (ja) | コンテンツ生成システム、及びコンテンツ生成方法 | |
JP3222283B2 (ja) | 案内装置 | |
JP4235635B2 (ja) | データ検索装置及びその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120827 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130509 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130514 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130712 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130730 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130812 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5353835 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |