JP2022065694A - 情報処理方法、情報処理システムおよびプログラム - Google Patents

情報処理方法、情報処理システムおよびプログラム Download PDF

Info

Publication number
JP2022065694A
JP2022065694A JP2020174321A JP2020174321A JP2022065694A JP 2022065694 A JP2022065694 A JP 2022065694A JP 2020174321 A JP2020174321 A JP 2020174321A JP 2020174321 A JP2020174321 A JP 2020174321A JP 2022065694 A JP2022065694 A JP 2022065694A
Authority
JP
Japan
Prior art keywords
sound
moving image
section
data
sound data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020174321A
Other languages
English (en)
Inventor
直之 安立
Naoyuki Adachi
克己 石川
Katsumi Ishikawa
大智 井芹
Hirotomo Iseri
祐二 小池
Yuji Koike
謙一良 齋藤
Kenichiro Saito
康之介 加藤
Konosuke Kato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2020174321A priority Critical patent/JP2022065694A/ja
Publication of JP2022065694A publication Critical patent/JP2022065694A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

【課題】動画データが表す動画に対する影響を抑制しながら、当該動画と音との間に統一感があるコンテンツを生成する。【解決手段】編集システム20は、複数の動画区間を含む動画データX1と複数の音区間を含む音データY1とを処理するシステムであり、複数の動画区間のうち第1動画区間と当該第1動画区間に後続する第2動画区間との境界点において、複数の音区間のうちの第1音区間から当該第1音区間以外の第2音区間に切替わるように、音データY1を処理する音データ処理部53を具備する。【選択図】図3

Description

本開示は、動画と音とを含むコンテンツを生成するための技術に関する。
動画と音とを含むコンテンツを作成するための各種の技術が従来から提案されている。例えば特許文献1には、楽曲の曲調が変化する時点において動画が切替わるようにスライドショー動画を生成する技術が開示されている。
特開2007-188561号公報
特許文献1の技術においては、楽曲の曲調が変化する時点において動画が強制的に切替わるため、作成者が意図した動画を含むコンテンツを作成することは実際には困難である。以上の事情を考慮して、本開示のひとつの態様は、動画データが表す動画に対する影響を抑制しながら、当該動画と音との間に統一感があるコンテンツを生成することを目的とする。
以上の課題を解決するために、本開示のひとつの態様に係る情報処理方法は、複数の動画区間を含む動画データと複数の音区間を含む音データとを処理する情報処理方法であって、前記複数の動画区間のうち第1動画区間と当該第1動画区間に後続する第2動画区間との境界点において、前記複数の音区間のうちの第1音区間から当該第1音区間以外の第2音区間に切替わるように、前記音データを処理する。本開示の他の態様に係る情報処理方法は、複数の動画区間を含む動画データと音を表す音データとを処理する情報処理方法であって、前記複数の動画区間のうち第1動画区間と当該第1動画区間に後続する第2動画区間との境界点を含む遷移期間内において音量が減少するように、前記音データを処理する。
本開示のひとつの態様に係る情報処理システムは、複数の動画区間を含む動画データと複数の音区間を含む音データとを処理する情報処理システムであって、前記複数の動画区間のうち第1動画区間と当該第1動画区間に後続する第2動画区間との境界点において、前記複数の音区間のうちの第1音区間から当該第1音区間以外の第2音区間に切替わるように、前記音データを処理する音データ処理部を具備する。本開示の他の態様に係る情報処理システムは、複数の動画区間を含む動画データと音を表す音データとを処理する情報処理システムであって、前記複数の動画区間のうち第1動画区間と当該第1動画区間に後続する第2動画区間との境界点を含む遷移期間内において音量が減少するように、前記音データを処理する音データ処理部を具備する。
本開示のひとつの態様に係るプログラムは、複数の動画区間を含む動画データと複数の音区間を含む音データとを処理するためのプログラムであって、コンピュータを、前記複数の動画区間のうち第1動画区間と当該第1動画区間に後続する第2動画区間との境界点において、前記複数の音区間のうちの第1音区間から当該第1音区間以外の第2音区間に切替わるように、前記音データを処理する音データ処理部として機能させる。本開示の他の態様に係るプログラムは、複数の動画区間を含む動画データと音を表す音データとを処理するためのプログラムであって、コンピュータを、前記複数の動画区間のうち第1動画区間と当該第1動画区間に後続する第2動画区間との境界点を含む遷移期間内において音量が減少するように、前記音データを処理する音データ処理部として機能させる。
第1実施形態に係る情報システムの構成を例示するブロック図である。 編集システムの構成を例示するブロック図である。 編集システムの機能的な構成を例示するブロック図である。 編集システムの制御装置が実行する動作のフローチャートである。 第1実施形態における編集処理の説明図である。 第1実施形態における編集処理のフローチャートである。 第2実施形態における編集処理の説明図である。 第2実施形態における編集処理のフローチャートである。 第3実施形態における編集処理の説明図である。 第3実施形態における編集処理のフローチャートである。 第4実施形態における編集処理の説明図である。 第5実施形態における端末装置の構成を例示するブロック図である。 第5実施形態における端末装置の機能的な構成を例示するブロック図である。
A:第1実施形態
図1は、第1実施形態における情報システム100の構成を例示するブロック図である。第1実施形態の情報システム100は、端末装置10と編集システム20とを具備する。端末装置10と編集システム20とは、例えばインターネット等の通信網30を介して相互に通信する。
端末装置10は、例えば携帯電話機、スマートフォン、タブレット端末またはパーソナルコンピュータ等の情報端末である。端末装置10は、素材データDを編集システム20に送信する。素材データDは、動画データX1と音データY1とを含む。動画データX1は、動画を表すデータである。例えば、端末装置10に搭載された撮像装置により動画データX1が生成される。音データY1は、動画データX1の動画に対して並行に再生されるべき音を表すデータである。具体的には、第1実施形態の音データY1は、動画データX1の動画の背景音楽として再生される楽曲の演奏音(楽器音または歌唱音)を表すデータである。
編集システム20は、端末装置10から受信した素材データDを利用してコンテンツCを生成するコンピュータシステムである。コンテンツCは、動画データX2と音データY2とを含む映像コンテンツである。動画データX2は、動画データX1の編集により生成される。音データY2は、音データY1の編集により生成される。すなわち、素材データDは、コンテンツCの素材となるデータである。編集システム20は、コンテンツCを端末装置10に送信する。端末装置10は、編集システム20から受信したコンテンツCを再生する。すなわち、動画データX2が表す動画と音データY2が表す音(具体的には楽曲の演奏音)とが並行に再生される。
図2は、編集システム20の構成を例示するブロック図である。編集システム20は、制御装置21と記憶装置22と通信装置23とを具備する。なお、編集システム20は、単体の装置で実現されるほか、相互に別体で構成された複数の装置でも実現される。
制御装置21は、編集システム20の各要素を制御する単数または複数のプロセッサである。具体的には、例えばCPU(Central Processing Unit)、SPU(Sound Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、またはASIC(Application Specific Integrated Circuit)等の1種類以上のプロセッサにより、制御装置21が構成される。
記憶装置22は、制御装置21が実行するプログラムと制御装置21が使用する各種のデータとを記憶する単数または複数のメモリである。記憶装置22は、例えば磁気記録媒体もしくは半導体記録媒体等の公知の記録媒体、または、複数種の記録媒体の組合せで構成される。また、編集システム20に対して着脱される可搬型の記録媒体、または制御装置21が通信網30を介して書込または読出を実行可能な記録媒体(例えばクラウドストレージ)を、記憶装置22として利用してもよい。
通信装置23は、端末装置10との間で通信網30を介して通信する。具体的には、通信装置23は、端末装置10から送信された素材データDを受信する。また、通信装置23は、素材データDから生成したコンテンツCを端末装置10に送信する。
図3は、編集システム20の機能的な構成を例示するブロック図である。編集システム20の制御装置21は、記憶装置22に記憶されたプログラムを実行することで、素材データDからコンテンツCを生成および提供するための複数の機能(素材データ取得部51,動画データ処理部52,音データ処理部53およびコンテンツ提供部54)を実現する。素材データ取得部51は、端末装置10から送信された素材データDを通信装置23により取得する。
動画データ処理部52は、素材データDの動画データX1から動画データX2を生成する。具体的には、動画データ処理部52は、動画データX1に対して画像処理を実行することで動画データX2を生成する。画像処理は、例えば動画のうち特定の区間の抽出または画質の調整等の各種の処理を含む。なお、動画データX1および動画データX2の形式は任意である。
音データ処理部53は、素材データDの音データY1から音データY2を生成する。第1実施形態における音データY1および音データY2は、例えば音の波形を表すサンプルの時系列で構成される。動画データ処理部52が生成した動画データX2と音データ処理部53が生成した音データY2とによりコンテンツCが構成される。すなわち、動画データ処理部52および音データ処理部53は、素材データDからコンテンツCを生成する要素として機能する。コンテンツ提供部54は、動画データX2と音データY2とを含むコンテンツCを、通信装置23から端末装置10に送信する。
図4は、制御装置21が実行する動作の具体的な手順を例示するフローチャートである。端末装置10の利用者からの指示を契機として図4の処理が開始される。処理が開始されると、制御装置21(素材データ取得部51)は、端末装置10から送信された素材データDを通信装置23により受信する(Sa)。動画データ処理部52は、素材データDの動画データX1から動画データX2を生成する(Sb)。音データ処理部53は、素材データDの音データY1から音データY2を生成する(Sc:編集処理)。コンテンツ提供部54は、動画データX2と音データY2とを含むコンテンツCを通信装置23から端末装置10に送信する(Sd)。
図5は、編集処理Scの説明図である。動画データX2は、時間軸上に配列された複数(M個)の動画区間V1~VMを含む(Mは2以上の自然数)。各動画区間Vm(m=1~M)は、動画データX2が表す動画をシーン毎に時間軸上で区分した期間である。M個の動画区間V1~VMは、相互に間隔をあけずに時間軸上で連続し、ひとつの主題に関連する一連のストーリーを構成する。例えば、ひとつの企業を紹介する動画、または当該企業が取扱う製品を紹介する動画等、観念的に統一感がある一連のストーリーが、M個の動画区間V1~VMにより構成される。M個の動画区間V1~VMのうち任意の1個の動画区間Vmは、例えば、動画のうち意味的な纏まりがある1個の場面に対応する区間、または、撮像装置による1回の撮像動作で撮像された区間である。ただし、1個の動画区間Vmが複数の場面を含む場合、または、1個の動画区間Vmが複数回の撮像動作で撮像された期間を含む場合も想定される。なお、M個の動画区間V1~VMの時間的または観念的な連続性は必須ではない。例えば、各動画区間Vmが間隔をあけて前後する形態、または2以上の動画区間Vmに関する主題が相違する形態も想定される。また、1個の動画区間Vmにおける意味的な纏まりも必須ではない。
各動画区間Vmは可変長である。各動画区間Vmの時間長は、基本的には相違する。ただし、任意の2以上の動画区間Vmにわたり時間長が共通してもよい。動画データX2においては、時間軸上で相前後する動画区間Vmと動画区間Vm+1との境界の時点(以下「境界点」という)Pmが指定される。境界点Pmは、動画区間Vmの端点(具体的には終点)とも換言される。
音データY1は、時間軸上に配列された複数(M個)の音区間A1~AMを含む。動画データX2の各動画区間Vmと音データY1の各音区間Amとは相互に対応する。具体的には、動画データX1の各動画区間Vmと音データY1の各音区間Amとが相互に対応付けられた素材データDを、素材データ取得部51は端末装置10から取得する。例えば、端末装置10の利用者からの指示に応じて各動画区間Vmに対応する音区間Amが選択される。なお、音データY1は、M個の音区間A1~AMにわたり連続するひとつのデータ、または、相異なる音区間Amに対応する複数のデータの集合である。
各音区間Amは、音データY1が表す楽曲を音楽的な意味に応じて時間軸上で区分した構造区間である。例えば、各音区間Amは、イントロ(intro)、Aメロ(verse)、Bメロ(bridge)、サビ(chorus)およびアウトロ(outro)等の期間に該当する。各音区間Amの端点(始点または終点)を指定するデータが、音データY1には設定される。各音区間Amの端点を指定するデータは、各構造区間の始点を指示するリハーサルマークに相当する。なお、各音区間Amの時間長は、当該音区間Amに対応する動画区間Vmの時間長を上回る。
音データ処理部53は、動画データX2のM個の動画区間V1~VMの各々において当該動画区間Vmに対応する音区間Amが開始されるように、音データY1を加工することで音データY2を生成する。すなわち、音データ処理部53は、M個の動画区間V1~VMのうち動画区間Vmと直後の動画区間Vm+1との境界点Pmにおいて、M個の音区間A1~AMのうち音区間Amから直後の音区間Am+1に切替わるように、音データY1から音データY2を生成する。例えば、動画区間V1と動画区間V2との境界点P1において音区間A1から音区間A2への切替が発生し、動画区間V2と動画区間V3との境界点P2において音区間A2から音区間A3への切替が発生する。具体的には、第1実施形態の音データ処理部53は、音区間Amのうち境界点Pmに一致する途中の時点から直後の音区間Am+1に切替わるように、音データY1を処理することで音データY2を生成する。
具体的には、第1実施形態の音データ処理部53は、音データY1の音区間Amのうち始点を含む一部の期間(以下「特定区間」という)Bmを抽出し、相異なる音区間Amに対応するM個の特定区間B1~BMを時系列に順番で相互に連結することで音データY2を生成する。特定区間Bmは、音区間Amのうち当該音区間Amの始点から動画区間Vmの時間長にわたる区間である。音区間Amのうち終点を含む一部の区間(特定区間Bm以外の区間)は除去される。以上の説明から理解される通り、各音区間Amの時間長が動画区間Vmの時間長に一致するように、音区間Amのうち末尾側の区間が除去される。
図6は、編集処理Scの具体的な手順を例示するフローチャートである。動画データ処理部52による動画データX2の生成を契機として編集処理Scが開始される。
編集処理Scが開始されると、音データ処理部53は、動画データX2のM個の動画区間V1~VMから1個の動画区間Vmを選択する(Sc11)。各動画区間Vmが時系列の順番で順次に選択される。音データ処理部53は、音データY1のM個の音区間A1~AMのうち動画区間Vmに対応する1個の音区間Amを選択する(Sc12)。音データ処理部53は、選択中の音区間Amのうち当該音区間Amの始点から動画区間Vmの時間長にわたる特定区間Bmを抽出する(Sc13:抽出処理)。音データ処理部53は、抽出処理Sc13で抽出した特定区間Bmを、直前の抽出処理Sc13で抽出した特定区間Bm-1の末尾に連結する(Sc14:連結処理)。なお、最初の音区間A1から抽出された特定区間B1は、音データY2の先頭に配置される。
音データ処理部53は、M個の音区間A1~AMの全部について以上の処理(Sc11-Sc14)を実行したか否かを判定する(Sc15)。未処理の音区間Amが残存する場合(Sc15:NO)、音データ処理部53は、動画データX2のM個の動画区間V1~VMのうち現時点で選択している動画区間Vmの直後の動画区間Vm+1を処理対象の動画区間Vmとして選択し(Sc11)、更新後の動画区間Vmについて音区間Amの選択(Sc12)と抽出処理Sc13と連結処理Sc14とを実行する。他方、M個の音区間A1~AMの全部を処理した場合(Sc15:YES)、音データ処理部53は編集処理Scを終了する。以上の説明から理解される通り、編集処理Scにおいて動画データX2は編集されない。
以上の例示の通り、動画区間Vmと後続の動画区間Vm+1との境界点Pmにおいて音区間Amから音区間Am+1に切替わるように、音データ処理部53は音データY1を処理する。したがって、各動画区間Vmと各音区間Amとが並行し、かつ、動画区間Vmの始点において音区間Amが開始するコンテンツCが生成される。すなわち、端末装置10により再生される動画が動画区間Vmから動画区間Vm+1に遷移する境界点Pmにおいて、端末装置10が再生する音は、音区間Amの途中の時点(特定区間Bmの終点)から音区間Am+1に切替わる。他方、動画データX2が指定する各動画区間Vmの時間長は変更されない。以上の説明から理解される通り、第1実施形態によれば、動画データX2が表す動画に対する影響を抑制しながら、当該動画の変化と音の変化との間に統一感があるコンテンツCを生成できる。
また、第1実施形態においては、各動画区間Vmの境界点Pmにおいて音区間Am+1を開始させる簡便な処理により、動画区間Vmと動画区間Vm+1との境界点Pmにおいて音区間Amから音区間Am+1への切替を発生させることが可能である。なお、動画区間Vmは「第1動画区間」の一例であり、動画区間Vm+1は「第2動画区間」の一例である。また、音区間Amは「第1音区間」の一例であり、直後の音区間Am+1は「第2音区間」の一例である。
B:第2実施形態
第2実施形態について説明する。なお、以下に例示する各形態において機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
図7は、第2実施形態における編集処理Scの説明図である。第1実施形態においては、各音区間Amのうち終点を含む一部を削除することで、各音区間Amの端点と各動画区間Vmの端点とを時間軸上で一致させた。第2実施形態の音データ処理部53は、各音区間Amを時間軸上において短縮または伸長することで、各音区間Amの端点と各動画区間Vmの端点とを時間軸上で一致させる。具体的には、音データ処理部53は、各音区間Amの進行速度(例えばテンポ)を調整することで、当該音区間Amを動画区間Vmの時間長に短縮または伸長する。
図8は、第2実施形態における編集処理Scの具体的な手順を例示するフローチャートである。編集処理Scが開始されると、音データ処理部53は、第1実施形態と同様に、動画区間Vmの選択(Sc21)と音区間Amの選択(Sc22)とを実行する。
第2実施形態の音データ処理部53は、第1実施形態の抽出処理Sc13に代えて伸縮処理Sc23を実行する。伸縮処理Sc23は、音区間Amの時間長が動画区間Vmの時間長に一致するように音区間Amを短縮または伸長する処理である。伸縮処理Sc23には公知の伸縮技術が任意に採用される。音データ処理部53は、伸縮処理Sc23による伸縮後の音区間Amを、直前の伸縮処理Sc23による伸縮後の音区間Am-1の末尾に連結する(Sc24)。なお、最初の音区間Amは音データY2の先頭に配置される。M個の音区間A1~AMの全部について以上の処理が反復される(Sc25)。第1実施形態と同様に、第2実施形態の編集処理Scにおいても動画データX2は編集されない。
以上に例示した編集処理Scにより、各動画区間Vmと各音区間Amとが並行し、かつ、動画区間Vmの始点において音区間Amが開始するコンテンツCが生成される。したがって、第1実施形態と同様に、動画データX2が表す動画に対する影響を抑制しながら、当該動画の変化と音の変化との間に統一感があるコンテンツCを生成できる。また、第2実施形態においては、各音区間Amが伸縮されるから、各音区間Amが途中の時点で不連続に途切れる可能性が低減される。また、音区間Amの時間長が動画区間Vmの時間長を下回る場合に、音区間Amを伸長することで、音区間Amが動画区間Vmに対して不足する可能性が低減される。
第1実施形態および第2実施形態における音データ処理部53は、動画区間Vmと動画区間Vm+1との境界点Pmにおいて音区間Amから音区間Am+1に切替わるように音データY1を処理する要素として包括的に表現される。
C:第3実施形態
図9は、第3実施形態の音データ処理部53が実行する編集処理Scの説明図である。第3実施形態においては、音データY1が表す音の各音区間Amの時間長が、動画データX2が表す動画の各動画区間Vmと同等の時間長に設定された場合を想定する。なお、第3実施形態および第4実施形態においては、各音区間Amの区別は必須ではない。
図9の遷移期間Qは、動画データX2が表す動画のM個の動画区間V1~VMのうち相前後する動画区間Vmと動画区間Vm+1との境界点Pmに対応する期間である。具体的には、遷移期間Qは境界点Pmを含む期間である。第1実施形態においては、境界点Pmを終点とする期間を遷移期間Qとして例示する。遷移期間Qは所定の時間長に設定される。ただし、遷移期間Qの時間長を、例えば端末装置10の利用者からの指示に応じた可変長としてもよい。
第3実施形態の音データ処理部53は、遷移期間Q内において遷移期間Q外よりも音量が減少するように音データY1を処理することで、音データY2を生成する。具体的には、音データ処理部53は、遷移期間Qの始点q1から終点q2にかけて音量が減少し、かつ、遷移期間Qの終点q2において音量が増加するように、音データY1を処理する。例えば、音データ処理部53は、音データY1を構成する各サンプルに調整値Gを乗算することで音データY2を生成する。音データ処理部53は、基準値gHと最小値gLとの間の範囲内で調整値Gを経時的に変化させる。基準値gHは、最小値gLを上回る数値である。例えば、基準値gHは1に設定され、最小値gLは0に設定される。
第3実施形態の音データ処理部53は、第1に、遷移期間Q外においては調整値Gを基準値gHに維持する。第2に、音データ処理部53は、遷移期間Qの始点q1から終点q2にかけて調整値Gを基準値gHから最小値gLまで経時的に減少させる。遷移期間Q内において、調整値Gは、例えば所定の変化率で直線的に減少する。ただし、調整値Gは、例えば可変の変化率で曲線的に変化してもよい。第3に、音データ処理部53は、遷移期間Qの終点q2において調整値Gを最小値gLから基準値gHまで増加させる。
図10は、第3実施形態における編集処理Scの具体的な手順を例示するフローチャートである。編集処理Scが開始されると、音データ処理部53は、動画データX2を参照することで、相異なる境界点Pmに対応する複数の遷移期間Qを時間軸上に設定する(Sc31)。音データ処理部53は、複数の遷移期間Qの何れかを選択する(Sc32)。
音データ処理部53は、選択中の遷移期間Q内において音量が減少するように音データY1の音量を調整する(Sc33:調整処理)。具体的には、音データ処理部53は、遷移期間Qの始点q1から終点q2にかけて調整値Gを基準値gHから最小値gLまで経時的に減少させ、当該終点q2において調整値Gを最小値gLから基準値gHまで増加させる。
音データ処理部53は、複数の遷移期間Qの全部について調整処理Sc33を実行したか否かを判定する(Sc34)。未処理の遷移期間Qが残存する場合(Sc34:NO)、音データ処理部53は、複数の遷移期間Qのうち現時点で選択している遷移期間の直後の遷移期間を選択し(Sc32)、更新後の遷移期間Qについて調整処理Sc33を実行する。他方、複数の遷移期間Qの全部について調整処理Sc33を実行した場合(Sc34:YES)、音データ処理部53は編集処理Scを終了する。以上の説明から理解される通り、編集処理Scにおいて動画データX2は編集されない。
以上に説明した通り、第3実施形態においては、動画区間Vmと動画区間Vm+1との境界点Pmに対応する遷移期間Q内において音量が減少するように音データY1が処理される。したがって、第1実施形態と同様に、動画データX2が表す動画に対する影響を抑制しながら、当該動画の変化と音の変化との間に統一感があるコンテンツCを生成できる。
第3実施形態においては特に、遷移期間Qの始点q1から終点q2(境界点Pm)にかけて音量が減少し、遷移期間Qの終点q2(動画区間Vmの始点)において音量が増加する。したがって、動画区間Vmの終点にかけて音量が経時的に減少し、かつ、動画区間Vm+1の開始とともに充分な音量で音が再生されるコンテンツCを生成できる。
D:第4実施形態
図11は、第4実施形態における編集処理Scの説明図である。第4実施形態においては、第3実施形態と同様に、音データY1が表す音の各音区間Amの時間長が、動画データX2が表す動画の各動画区間Vmと同等の時間長に設定された場合を想定する。第4実施形態においては、第3実施形態と同様に、動画データX2が表す動画の相異なる境界点Pmを含む複数の遷移期間Qが設定される。各遷移期間Qは、境界点Pmを終点とする期間である。
第4実施形態の音データ処理部53は、遷移期間Q内において遷移期間Q外よりも音量が減少するように音データY1を処理することで、音データY2を生成する。具体的には、音データ処理部53は、遷移期間Qの始点q1において音量が減少し、かつ、遷移期間Qの始点q1から終点q2にかけて音量が増加するように、音データY1を処理する。例えば、音データ処理部53は、第3実施形態と同様に、音データY1の各サンプルに乗算される調整値Gを、基準値gHと最小値gLとの間の範囲内で経時的に変化させる。
第4実施形態の音データ処理部53は、第1に、遷移期間Q外においては調整値Gを基準値gHに維持する。第2に、音データ処理部53は、遷移期間Qの始点q1において調整値Gを基準値gHから最小値gLまで減少させる。第3に、音データ処理部53は、遷移期間Qの始点q1から終点q2にかけて調整値Gを最小値gLから基準値gHまで経時的に増加させる。遷移期間Q内において、調整値Gは、例えば所定の変化率で直線的に増加する。ただし、調整値Gは、例えば可変の変化率で曲線的に変化してもよい。
第4実施形態における編集処理Scのうち調整処理Sc33以外の動作は第3実施形態と同様である。第4実施形態の調整処理Sc33において、音データ処理部53は、遷移期間Q内において音量が減少するように音データY1の音量を調整する。具体的には、第4実施形態の音データ処理部53は、遷移期間Qの始点q1において調整値Gを基準値gHから最小値gLまで減少させ、当該遷移期間Qの始点q1から終点q2にかけて調整値Gを最小値gLから基準値gHまで経時的に増加させる。
以上に説明した通り、第4実施形態においては、動画区間Vmと動画区間Vm+1との境界点Pmを含む遷移期間Q内において音量が減少するように音データY1が処理される。したがって、第3実施形態と同様に、動画データX2が表す動画に対する影響を抑制しながら、当該動画の変化と音の変化との間に統一感があるコンテンツCを生成できる。
第4実施形態においては特に、遷移期間Qの始点q1において音量が減少し、遷移期間Qの始点q1から終点q2(境界点Pm)にかけて音量が増加する。したがって、音量が経時的に増加しながら動画区間Vmから動画区間Vm+1に切り替わるコンテンツCを生成できる。
E:第5実施形態
図12は、第5実施形態における端末装置10の構成を例示するブロック図である。第1実施形態から第4実施形態においては、編集システム20が素材データDからコンテンツCを生成した。第5実施形態においては端末装置10が素材データDからコンテンツCを生成する。第5実施形態においては編集システム20が省略される。
端末装置10は、制御装置11と記憶装置12と再生装置13とを具備する。なお、端末装置10は、単体の装置で実現されるほか、相互に別体で構成された複数の装置でも実現される。例えば、再生装置13は、端末装置10とは別体で構成され、端末装置10に有線または無線で接続されてもよい。
制御装置11は、端末装置10の各要素を制御する単数または複数のプロセッサである。具体的には、例えばCPU、SPU、DSP、FPGA、またはASIC等の1種類以上のプロセッサにより、制御装置11が構成される。
記憶装置12は、制御装置11が実行するプログラムと制御装置11が使用する各種のデータとを記憶する単数または複数のメモリである。記憶装置12は、例えば磁気記録媒体もしくは半導体記録媒体等の公知の記録媒体、または、複数種の記録媒体の組合せで構成される。また、端末装置10に対して着脱される可搬型の記録媒体、または制御装置11が通信網30を介して書込または読出を実行可能な記録媒体(例えばクラウドストレージ)を、記憶装置12として利用してもよい。
再生装置13は、コンテンツCを再生する。具体的には、再生装置13は、コンテンツCの動画データX2が表す動画を表示する表示装置131と、当該コンテンツCの音データY2が表す音を放音する放音装置132(例えばスピーカまたはヘッドホン)とを具備する。
図13は、端末装置10の機能的な構成を例示するブロック図である。端末装置10の制御装置11は、記憶装置12に記憶されたプログラムを実行することで、素材データDからコンテンツCを生成および提供するための複数の機能(素材データ取得部51,動画データ処理部52,音データ処理部53および再生制御部55)を実現する。すなわち、端末装置10の機能は、第1実施形態から第4実施形態における編集システム20の機能のうちコンテンツ提供部54を再生制御部55に置換した関係にある。
素材データ取得部51は、動画データX1と音データY1とを含む素材データDを取得する。具体的には、素材データ取得部51は、端末装置10の利用者からの指示に応じて素材データDを生成または編集する。なお、素材データ取得部51は、端末装置10が通信網30を介して通信可能な外部装置から素材データDを受信してもよい。
動画データ処理部52は、第1実施形態と同様に、素材データDの動画データX1から動画データX2を生成する。音データ処理部53は、素材データDの音データY1から音データY2を生成する。具体的には、音データ処理部53は、第1実施形態から第4実施形態の何れかに例示した編集処理Scを音データY1に対して実行することで、音データY2を生成する。第1実施形態と同様に、動画データ処理部52が生成した動画データX2と音データ処理部53が生成した音データY2とによりコンテンツCが構成される。
再生制御部55は、コンテンツCを再生装置13に再生させる。具体的には、再生制御部55は、動画データX2の供給により表示装置131に動画を表示させ、音データY2の供給により放音装置132に音を放音させる。したがって、端末装置10の利用者はコンテンツCを視聴可能である。第5実施形態においても第1実施形態と同様の効果が実現される。
第1実施形態から第4実施形態に例示した編集システム20と、第5実施形態に例示した端末装置10とは、動画データX1と音データY1とを処理する情報処理システムとして包括的に表現される。
F:変形例
以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
(1)前述の各形態に係る構成は適宜に併合可能である。例えば、第1実施形態または第2実施形態に例示した抽出処理(Sc13,Sc23)により各音区間Amを各動画区間Vmと同等の時間長に調整したうえで、第3実施形態または第4実施形態に例示した調整処理Sc33により各遷移期間Q内の音量を調整してもよい。
(2)第3実施形態および第4実施形態においては、境界点Pmを終点とする遷移期間Qを例示したが、遷移期間Qと境界点Pmとの関係は以上の例示に限定されない。例えば、境界点Pmを始点として遷移期間Qを設定する形態、または、境界点Pmを中点として遷移期間Qを設定する形態も想定される。
(3)前述の各形態においては、音データY(Y1,Y2)が楽曲の演奏音(楽器音または歌唱音)を表す形態を例示したが、音データYが表す音は音楽的な音に限定されない。例えば、音楽的な要素を含まない発話音声(言語音)を音データYが表す形態も想定される。例えば、動画データX2が表す動画に並行に再生されるべき発話音声(例えば動画の登場人物による発話音声または当該動画の解説音声)を音データYが表してもよい。
(4)前述の各形態においては、素材データDが音データY1を含む構成を例示したが、素材データDが音データY1に代えて文字列データを含む形態も想定される。文字列データは、動画データX2の動画に対して並行に再生されるべき音声に対応する文字列を表すデータである。音データ処理部53は、素材データDの文字列データを適用した音声合成により音データY1を生成し、当該音データY1に対する編集処理Scにより音データY2を生成する。音声合成には公知の任意の方法が利用される。
(5)第1実施形態および第2実施形態においては、音データY1における各音区間Amの時間長を動画区間Vmの時間長に調整(削除または伸縮)したが、各音区間Amの時間長が動画区間Vmの時間長に応じて設定された音データY2を、音データ処理部53が合成処理により生成してもよい。合成処理は、音符の時系列を表す制御データから演奏音を合成する楽音合成、または、文字列を表す制御データから発話音声または歌唱音等の音声を合成する音声合成である。音データ処理部53は、例えば、各音区間Amが動画区間Vmと同等の時間長に設定された音データY2を、制御データを適用した合成処理により生成する。以上の説明から理解される通り、第1実施形態または第2実施形態において、音データY1に対する調整は省略されてもよい。また、第3実施形態または第4実施形態に利用される音データY1は、以上に例示した合成処理により生成されてもよい。
(6)前述の各形態においては、音データY(Y1,Y2)がサンプルの時系列で構成される形態を例示したが、音データYの形式は任意である。例えば、MIDI(Musical Instrument Digital Interface)規格に準拠した形式の音データYを利用してもよい。
(7)前述の各形態においては、動画データX(X1,X2)が動画を表す形態を例示したが、相互に並行に再生される動画および音の双方を動画データXが表す形態も想定される。コンテンツCが再生される状況では、動画データX2が表す音と音データY2が表す音とが並行に再生される。
(8)第1実施形態から第4実施形態における編集システム20の機能は、前述の通り、制御装置21を構成する単数または複数のプロセッサと、記憶装置22に記憶されたプログラムとの協働により実現される。同様に、第5実施形態における端末装置10の機能は、制御装置11を構成する単数または複数のプロセッサと、記憶装置12に記憶されたプログラムとの協働により実現される。
以上の機能を実現するためのプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体も包含される。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体も除外されない。また、配信装置が通信網を介してプログラムを配信する構成では、当該配信装置においてプログラムを記憶する記憶装置が、前述の非一過性の記録媒体に相当する。
G:付記
以上に例示した形態から、例えば以下の構成が把握される。
本開示のひとつの態様(態様1)に係る情報処理方法は、複数の動画区間を含む動画データと複数の音区間を含む音データとを処理する情報処理方法であって、前記複数の動画区間のうち第1動画区間と当該第1動画区間に後続する第2動画区間との境界点において、前記複数の音区間のうちの第1音区間から当該第1音区間以外の第2音区間に切替わるように、前記音データを処理する。以上の態様においては、第1動画区間と第2動画区間との境界点において第1音区間から第2音区間に遷移するように音データが処理される。したがって、動画データが表す動画に対する影響を抑制しながら、当該動画の変化と音の変化との間に統一感があるコンテンツを生成できる。
なお、「第1動画区間と第2動画区間との境界点において第1音区間から第2音区間に切替わる」とは、第1音区間から第2音区間への切替点が、第1動画区間と第2動画区間との境界点に実質的に一致することを意味する。「実質的に一致する」場合は、切替点が境界点に完全に一致する場合のほか、切替点と境界点とが厳密には一致しないけれども両者が一致すると同視できる場合も包含する。例えば、切替点と境界点とが実際には相違しても、切替点と境界点とが一致しているとコンテンツの視聴者が知覚できる程度に両者が近似する状態は、「実質的に一致する」と解釈できる。
態様1の具体例(態様2)において、前記音データの処理においては、前記第1音区間のうち前記境界点に一致する途中の時点から前記第2音区間に切替わるように、前記音データを処理する。以上の態様によれば、第1音区間のうち境界点に一致する途中の時点において第2音区間を開始させる簡便な処理により、第1動画区間と第2動画区間との境界点において第1音区間から第2音区間への切替を発生させることが可能である。
態様1の具体例(態様3)において、前記音データの処理においては、前記第1音区間および前記第2音区間の少なくとも一方を時間軸上において短縮または伸長することで、前記第1音区間から前記第2音区間への切替の時点を前記境界点に一致させる。以上の態様によれば、第1音区間が途中で途切れる可能性、または、第1音区間が第1動画区間に対して不足する可能性を低減できる。なお、音区間の伸縮は、例えば再生速度の調整により実現される。すなわち、再生速度を増加させることで音区間は短縮され、再生速度を減少させることで音区間は伸長される。
本開示の他の態様(態様4)に係る情報処理方法は、複数の動画区間を含む動画データと音を表す音データとを処理する情報処理方法であって、前記複数の動画区間のうち第1動画区間と当該第1動画区間に後続する第2動画区間との境界点を含む遷移期間内において音量が減少するように、前記音データを処理する。以上の態様においては、第1動画区間と第2動画区間との境界点を含む遷移期間内において音量が減少するように音データが処理される。したがって、動画データが表す動画に対する影響を抑制しながら、当該動画の変化と音の変化との間に統一感があるコンテンツを生成できる。
態様4の具体例(態様5)において、前記遷移期間は、前記境界点を終点とする期間であり、前記音データの処理においては、前記遷移期間の始点から終点にかけて前記音量が減少し、当該遷移期間の終点において前記音量が増加するように、前記音データを処理する。以上の態様においては、遷移期間の始点から終点(境界点)にかけて音量が減少し、遷移期間の終点(第2動画区間の始点)において音量が増加する。したがって、第1動画区間の終点にかけて音量が経時的に減少し、かつ、第2動画区間の開始とともに充分な音量で音が再生されるコンテンツを生成できる。
態様4の具体例(態様6)において、前記遷移期間は、前記境界点を終点とする期間であり、前記音データの処理においては、前記遷移期間の始点において前記音量が減少し、当該遷移期間の始点から終点にかけて前記音量が増加するように、前記音データを処理する。以上の態様においては、遷移期間の始点において音量が減少し、遷移期間の始点から終点(境界点)にかけて音量が増加する。したがって、音量が経時的に増加しながら第1動画区間から第2動画区間に切替わるコンテンツを生成できる。
本開示のひとつの態様に係る情報処理システムは、複数の動画区間を含む動画データと複数の音区間を含む音データとを処理する情報処理システムであって、前記複数の動画区間のうち第1動画区間と当該第1動画区間に後続する第2動画区間との境界点において、前記複数の音区間のうちの第1音区間から当該第1音区間以外の第2音区間に切替わるように、前記音データを処理する音データ処理部を具備する。また、本開示の他の態様に係る情報処理システムは、複数の動画区間を含む動画データと音を表す音データとを処理する情報処理システムであって、前記複数の動画区間のうち第1動画区間と当該第1動画区間に後続する第2動画区間との境界点を含む遷移期間内において音量が減少するように、前記音データを処理する音データ処理部を具備する。
本開示のひとつの態様に係るプログラムは、複数の動画区間を含む動画データと複数の音区間を含む音データとを処理するためのプログラムであって、コンピュータを、前記複数の動画区間のうち第1動画区間と当該第1動画区間に後続する第2動画区間との境界点において、前記複数の音区間のうちの第1音区間から当該第1音区間以外の第2音区間に切替わるように、前記音データを処理する音データ処理部として機能させる。また、本開示の他の態様に係るプログラムは、複数の動画区間を含む動画データと音を表す音データとを処理するためのプログラムであって、コンピュータを、前記複数の動画区間のうち第1動画区間と当該第1動画区間に後続する第2動画区間との境界点を含む遷移期間内において音量が減少するように、前記音データを処理する音データ処理部として機能させる。
100…情報システム、10…端末装置、11,21…制御装置、12,22…記憶装置、13…再生装置、131…表示装置、132…放音装置、20…編集システム、23…通信装置、51…素材データ取得部、52…動画データ処理部、53…音データ処理部、54…コンテンツ提供部、55…再生制御部。

Claims (10)

  1. 複数の動画区間を含む動画データと複数の音区間を含む音データとを処理する情報処理方法であって、
    前記複数の動画区間のうち第1動画区間と当該第1動画区間に後続する第2動画区間との境界点において、前記複数の音区間のうちの第1音区間から当該第1音区間以外の第2音区間に切替わるように、前記音データを処理する
    コンピュータにより実現される情報処理方法。
  2. 前記音データの処理においては、前記第1音区間のうち前記境界点に一致する途中の時点から前記第2音区間に切替わるように、前記音データを処理する
    請求項1の情報処理方法。
  3. 前記音データの処理においては、前記第1音区間および前記第2音区間の少なくとも一方を時間軸上において短縮または伸長することで、前記第1音区間から前記第2音区間への切替の時点を前記境界点に一致させる
    請求項1の情報処理方法。
  4. 複数の動画区間を含む動画データと音を表す音データとを処理する情報処理方法であって、
    前記複数の動画区間のうち第1動画区間と当該第1動画区間に後続する第2動画区間との境界点を含む遷移期間内において音量が減少するように、前記音データを処理する
    コンピュータにより実現される情報処理方法。
  5. 前記遷移期間は、前記境界点を終点とする期間であり、
    前記音データの処理においては、前記遷移期間の始点から終点にかけて前記音量が減少し、当該遷移期間の終点において前記音量が増加するように、前記音データを処理する
    請求項4の情報処理方法。
  6. 前記遷移期間は、前記境界点を終点とする期間であり、
    前記音データの処理においては、前記遷移期間の始点において前記音量が減少し、当該遷移期間の始点から終点にかけて前記音量が増加するように、前記音データを処理する
    請求項4の情報処理方法。
  7. 複数の動画区間を含む動画データと複数の音区間を含む音データとを処理する情報処理システムであって、
    前記複数の動画区間のうち第1動画区間と当該第1動画区間に後続する第2動画区間との境界点において、前記複数の音区間のうちの第1音区間から当該第1音区間以外の第2音区間に切替わるように、前記音データを処理する音データ処理部
    を具備する情報処理システム。
  8. 複数の動画区間を含む動画データと音を表す音データとを処理する情報処理システムであって、
    前記複数の動画区間のうち第1動画区間と当該第1動画区間に後続する第2動画区間との境界点を含む遷移期間内において音量が減少するように、前記音データを処理する音データ処理部
    を具備する情報処理システム。
  9. 複数の動画区間を含む動画データと複数の音区間を含む音データとを処理するためのプログラムであって、コンピュータを、
    前記複数の動画区間のうち第1動画区間と当該第1動画区間に後続する第2動画区間との境界点において、前記複数の音区間のうちの第1音区間から当該第1音区間以外の第2音区間に切替わるように、前記音データを処理する音データ処理部
    として機能させるプログラム。
  10. 複数の動画区間を含む動画データと音を表す音データとを処理するためのプログラムであって、コンピュータを、
    前記複数の動画区間のうち第1動画区間と当該第1動画区間に後続する第2動画区間との境界点を含む遷移期間内において音量が減少するように、前記音データを処理する音データ処理部
    として機能させるプログラム。
JP2020174321A 2020-10-16 2020-10-16 情報処理方法、情報処理システムおよびプログラム Pending JP2022065694A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020174321A JP2022065694A (ja) 2020-10-16 2020-10-16 情報処理方法、情報処理システムおよびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020174321A JP2022065694A (ja) 2020-10-16 2020-10-16 情報処理方法、情報処理システムおよびプログラム

Publications (1)

Publication Number Publication Date
JP2022065694A true JP2022065694A (ja) 2022-04-28

Family

ID=81387979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020174321A Pending JP2022065694A (ja) 2020-10-16 2020-10-16 情報処理方法、情報処理システムおよびプログラム

Country Status (1)

Country Link
JP (1) JP2022065694A (ja)

Similar Documents

Publication Publication Date Title
JP6665446B2 (ja) 情報処理装置、プログラム及び音声合成方法
KR20090110242A (ko) 오디오 신호를 처리하는 방법 및 장치
WO2008132265A1 (en) Modifying audiovisual output in a karaoke system based on performance context
KR20100058585A (ko) 상호작용 비디오에서 나타나는 아이템의 오디오 특징들을 rfid 태그들을 사용하여 변경을 허용하는 기법
JP2017021125A (ja) 音声対話装置
KR101518294B1 (ko) 멀티 트랙 미디어 파일이 기록된 기록 매체, 멀티 트랙 미디어 파일 편집 방법, 및 멀티 트랙 미디어 파일 편집 장치
JP6641045B1 (ja) コンテンツ生成システム、及びコンテンツ生成方法
JP2022065694A (ja) 情報処理方法、情報処理システムおよびプログラム
JP2009075280A (ja) コンテンツ再生装置
JP2015041091A (ja) 通信デュエット時における音声等の切換処理に特徴を有する通信カラオケシステム
JP2008146057A (ja) 音楽・映像再生装置
JP4645955B2 (ja) 音声付動画データの作成方法
JP6110731B2 (ja) ジェスチャーによるコマンド入力識別システム
JP2007200390A (ja) データ出力装置、データ出力方法、データ出力プログラム、および記録媒体
KR20220036210A (ko) 영상의 음질을 향상시키는 디바이스 및 방법
JP2009205039A (ja) オーディオデータ変換再生システム、オーディオデータ変換装置、オーディオデータ再生装置
JP5454530B2 (ja) カラオケ装置
JP4353084B2 (ja) 映像再生方法及び装置及びプログラム
KR20160010843A (ko) 진동 기능을 제공하는 오디오북 재생 방법, 장치 및 컴퓨터 판독 가능 매체
JP7051923B2 (ja) 動画生成装置、動画生成方法、動画生成プログラム、再生装置、動画配信装置、及び動画システム
JP6181920B2 (ja) 音声再生装置およびそのプログラム
JP7197688B2 (ja) 再生制御装置、プログラムおよび再生制御方法
KR20130092692A (ko) 사용자의 음성으로 구연될 수 있는 전자 도서 제작 방법 및 전자 도서 제작 프로그램이 저장된 컴퓨터 판독 가능한 기록 매체
WO2022079853A1 (ja) 音楽データ処理方法
Sapiro Beyond the barricade: Adapting Les Misérables for the cinema

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240912