JP2021175157A - 配信者端末、コンテンツ配信システム、コンテンツ生成方法、コンテンツ生成プログラム、および、記録媒体 - Google Patents

配信者端末、コンテンツ配信システム、コンテンツ生成方法、コンテンツ生成プログラム、および、記録媒体 Download PDF

Info

Publication number
JP2021175157A
JP2021175157A JP2020080551A JP2020080551A JP2021175157A JP 2021175157 A JP2021175157 A JP 2021175157A JP 2020080551 A JP2020080551 A JP 2020080551A JP 2020080551 A JP2020080551 A JP 2020080551A JP 2021175157 A JP2021175157 A JP 2021175157A
Authority
JP
Japan
Prior art keywords
data
content
low bit
bit rate
rate encoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020080551A
Other languages
English (en)
Other versions
JP6908756B1 (ja
Inventor
尚 小嶋
Takashi Kojima
一彦 草野
Kazuhiko Kusano
肇 加藤
Hajime Kato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2020080551A priority Critical patent/JP6908756B1/ja
Priority to US17/907,643 priority patent/US20230142432A1/en
Priority to PCT/JP2021/016747 priority patent/WO2021221046A1/ja
Priority to CN202180014290.3A priority patent/CN115088266B/zh
Priority to JP2021082570A priority patent/JP2021175199A/ja
Application granted granted Critical
Publication of JP6908756B1 publication Critical patent/JP6908756B1/ja
Publication of JP2021175157A publication Critical patent/JP2021175157A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/437Interfacing the upstream path of the transmission network, e.g. for transmitting client requests to a VOD server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/926Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】 コンテンツを配信元から配信先まで送信する経路に介在する構成に対する負荷を軽減するとともに、コンテンツの品位の低下を抑制するコンテンツ生成装置、コンテンツ配信システム、コンテンツ生成方法、および、コンテンツ生成プログラムを提供する。【解決手段】 実施形態によるコンテンツ生成装置40は、原データ33を低ビットレートへエンコードした低ビットレートエンコード済みデータ31を生成する第1生成部4c1と、機械学習による学習済みモデルに基づいて、低ビットレートエンコード済みデータ31を入力データとし、低ビットレートエンコード済みデータ31を人の知覚的に改良した改良データを生成するための機械学習済みモデルデータ32を生成可能である第2生成部4c2と、低ビットレートエンコード済みデータ31と、モデルデータ32と、を外部へ送信する第1送信部4aと、を備える。【選択図】 図3

Description

本発明は、コンテンツ生成装置、コンテンツ配信システム、コンテンツ生成方法、および、コンテンツ生成プログラムに関する。
従来、例えば、動画像または静止画像と、必要に応じて音声と組み合わせた画像コンテンツ(「画像番組」、「番組」、「コンテンツ」とも言い、以下ではこれらの用語も使用する)を、配信者端末から、配信用のサーバを経て視聴者が用いる端末へ送信し、視聴者の端末の表示画面に表示された画像コンテンツを視聴者が鑑賞するコンテンツ配信システムが用いられている。
近年、動画を撮影するカメラや視聴者側の表示装置の高解像度化および高機能化などの影響より、画像コンテンツのデータ容量は大きくなる傾向にあり、これに伴い、画像コンテンツを配信元から配信先まで配信する経路に介在する構成に対する負荷を抑えることが課題の一つとなっている。
より高効率に動画像コンテンツの帯域圧縮を行うための一つの選択肢として、動画像コンテンツデータを送信する送信レート(ビットレート)を小さくして、少ないデータ量として送信する方法がある。ところが、この方法では、動画像コンテンツデータに含まれるデータ量が減少し、画像品位の劣る、すなわちディテール情報が欠落したり、ブロックノイズやモスキートノイズを含んだりした画像表示がなされがちとなるため、視聴者(ユーザ)の不満が生じてしまう。
例えば下記の特許文献1に開示されたシステムが備えるエンコーダは、ビデオストリームをまず複数のシーンに分割し、それぞれのシーンについてシーンタイプとして、例えば、「高速動き」、「静止」、「トーキングヘッド」、「文字」、「スクロールクレジット」、「ほとんど黒色の画像」、「5つ以下の画像フレームの短いシーン」などのいずれかを決定して、各シーンタイプのためのあらかじめ規定されたビデオエンコーディングパラメータ(画像符号化パラメータ)を用いてエンコーディングされたビデオストリームを出力する、としている。
また、例えば下記の特許文献2には、超解像処理によって画像を鮮明化する技術において、撮像部により撮像され得る対象物の種類ごとの辞書データが記憶部に格納された監視システムが開示されている(例えば特許文献2[0013]段落)。特許文献2の監視システムにて用いられる辞書データは、例えば、多数の正解データである高解像度データと低解像度データの組み合わせをディープラーニング(Deep Learning)等の手法で学習することで生成される(例えば特許文献2[0029]段落)。
特開2017-123649号公報 特開2017-158067号公報
上記特許文献1に開示された技術では、複数のシーンタイプ毎に画像符号化パラメータを規定する必要があり、予め想定されたシーンタイプに該当しない画像に対しては効率よく符号化できない可能性があった。
また、上記特許文献2に開示された技術は画像を監視するためのものであり、特許文献2には、大容量の画像データを送信する通信路および通信経路に介在する構成の負荷を考慮した技術は開示されていない。
すなわち、上記に示した各特許文献においては、動画像コンテンツのような大容量の画像データを配信元から配信先へ送信する場合に、通信路などの負荷を軽減し、かつ、画像品位が妥当である動画像コンテンツ配信を行うための構成は何ら開示されておらず、示唆すらされていない。
本願発明は、上記事情を鑑みて成されたものであって、コンテンツを配信元から配信先まで送信する経路に介在する構成に対する負荷を軽減するとともに、コンテンツの品位の低下を抑制するコンテンツ生成装置、コンテンツ配信システム、コンテンツ生成方法、および、コンテンツ生成プログラムを提供することを目的とする。
本発明の第1態様によるコンテンツ生成装置は、原データを低ビットレートへエンコードした低ビットレートエンコード済みデータを生成する第1生成部と、機械学習による学習済みモデルに基づいて、前記低ビットレートエンコード済みデータを人の知覚的に改良した改良データを生成するための機械学習済みモデルデータを生成可能である第2生成部と、前記低ビットレートエンコード済みデータと、前記モデルデータと、を外部へ送信する第1送信部と、を備える。
本発明の第2態様によるコンテンツ生成装置は、第1態様によるコンテンツ生成装置において、過去に生成された前記モデルデータを記憶する記録部を更に備え、前記第2生成部は、過去に生成された前記モデルデータを前記低ビットレートエンコード済みデータとともに、前記第1送信部から外部へ送信させることができる。
本発明の第3態様によるコンテンツ生成装置は、第1又は第2態様によるコンテンツ生成装置において、前記原データは画像データであって、前記低ビットレートエンコード済みデータはメタ情報を含むものである。
本発明の第4態様によるコンテンツ生成装置は、第3態様によるコンテンツ生成装置において、前記低ビットレートエンコード済みデータの前記メタ情報が、画像符号化技術における符号化ブロック量子化パラメータ(QP)、予測誤差係数、予測モード情報、動きベクトル情報のうちの少なくともいずれかであるものである。
本発明の第5態様によるコンテンツ生成装置は、第2態様によるコンテンツ生成装置において、前記原データは、コンテンツを特性により分類するためのカテゴリ情報を含み、前記記録部は、前記カテゴリ情報に基づいて分類された前記モデルデータ若しくは前記モデルデータの初期値を記録している。
本発明の第6態様によるコンテンツ配信システムは、第1乃至第5態様のいずれかのコンテンツ生成装置と、前記コンテンツ生成装置から送信された前記低ビットレートエンコード済みデータと、前記モデルデータとを受信する受信部と、受信した前記低ビットレートエンコード済みデータおよび前記モデルデータから、当該低ビットレートエンコード済みデータ基づく前記改良データを生成する第3生成部と、前記改良データを配信する配信部と、を備えた、コンテンツ配信装置と、を備える。
本発明の第7態様によるコンテンツ生成方法は、原データを低ビットレートへエンコードした低ビットレートエンコード済みデータを生成する第1生成ステップと、機械学習による学習済みモデルに基づいて、前記低ビットレートエンコード済みデータを人の知覚的に改良した改良データを生成するための機械学習済みモデルデータを生成可能な第2生成ステップと、前記低ビットレートエンコード済みデータと、前記モデルデータとを外部へ送信する第1送信ステップと、を備える。
本発明の第8態様によるコンテンツ生成方法は、第7態様によるコンテンツ生成方法において、前記低ビットレートエンコード済みデータと、前記モデルデータとを受信する受信ステップと、受信した前記低ビットレートエンコード済みデータおよび前記モデルデータから、当該低ビットレートエンコード済みデータに基づく前記改良データを生成する第3生成ステップと、を更に備える。
本発明の第9態様によるコンテンツ生成プログラムは、第7又は第8態様に記載されたコンテンツ生成方法をコンピュータに実行させる。
本願発明によれば、上記事情を鑑みて成されたものであって、コンテンツを配信元から配信先まで送信する経路に介在する構成に対する負荷を軽減するとともに、コンテンツの品位の低下を抑制するコンテンツ生成装置、コンテンツ配信システム、コンテンツ生成方法、および、コンテンツ生成プログラムを提供することができる。
図1は、一実施形態のコンテンツ配信システムの一構成例を概略的に示す図である。 図2は、一実施形態のコンテンツ配信システムにおいて用いられる原データと、低ビットレートエンコード済みデータと、コンテンツデータと、の一例を示す図である。 図3は、図1に示すコンテンツ配信システムの配信者端末の一構成例を概略的に示す図である。 図4は、一実施形態のコンテンツ配信システムにおいて用いられる深層学習の概念の一例を説明するための図である。 図5は、図1に示すコンテンツ配信システムの動画像コンテンツ配信サーバの一構成例を概略的に示す図である。 図6は、図1に示すコンテンツ配信システムの視聴者端末の一構成例を概略的に示す図である。 図7は、一実施形態のコンテンツ生成方法の一例を説明するためのフローチャートである。 図8は、一実施形態のコンテンツ生成方法の一例を説明するためのフローチャートである。
以下に、コンテンツ生成装置、コンテンツ配信システム、コンテンツ生成方法、および、コンテンツ生成プログラムの一実施形態について、図面を参照して詳細に説明する。なお以下の説明において、同一又は一部が相違する複数の構成については、共通の符号を付して、重複する説明は適宜省略することがある。
図1は、一実施形態のコンテンツ配信システムの一構成例を概略的に示す図である。
本実施形態のコンテンツ配信システム1は、コンテンツ配信サーバ2と、配信者端末4と、を備えている。
配信者端末4は、インターネットなどのネットワーク3を介してコンテンツ配信サーバ2と通信可能に接続することができる。コンテンツ配信サーバ2は、ネットワーク3を介して、複数の視聴者端末11と通信可能に接続することができる。
配信者端末4は、例えばビデオカメラなどの動画ソースに接続可能なコンピュータなどの電子デバイス、例えば、テレビ受像機(インターネットテレビを含む)、PC(Personal Computer)、モバイル端末(例えば、タブレット、スマートフォン、ラップトップ、フィーチャーフォン、ポータブルゲーム機、デジタルミュージックプレイヤー、電子書籍リーダなど)、VR(Virtual Reality)端末、AR(Augmented Reality)端末などであり得るが、これらに限られない。配信者端末4は、例えば、少なくとも1つのプロセッサと、プロセッサにより実行されるプログラムが記憶された記憶部と、を備え、ソフトウエアにより又はソフトウエアとハードウエアとの組み合わせにより種々の機能を実現可能に構成されている。
配信者端末4は、コンテンツ生成装置40を含み得る。なお、コンテンツ生成装置40は、例えば、配信者端末4に組み込まれてもよく、配信者端末4に外付けされる構成であってもよく、配信者端末4と通信可能に接続されたコンピュータなどの電子デバイスであってもよい。
コンテンツ生成装置40は、原データ33を用いて、原データ33を低ビットレートにエンコードした低ビットレートエンコード済みデータ31を生成することができる。また、コンテンツ生成装置40は、低ビットレートエンコード済みデータ31から、より原データ33に近づけた(若しくは人の知覚的に改良された)コンテンツデータ(改良データ)30を生成するための機械学習済みモデルデータ32、を生成することができる。
コンテンツ生成装置40は、生成された低ビットレートエンコード済みデータ31とモデルデータ32とを、配信者端末4の入出力インタフェース(図2に示す)およびネットワーク3を介してコンテンツ配信サーバへ送信することができる。
図1では、原データ33、低ビットレートエンコード済みデータ31、および、コンテンツデータ30として、猫の画像データを採用した例を示している。なお、原データ33は静止画像データであってもよく、動画像データであってもよく、画像データ以外のデータ(例えば音響データや、テキストデータや、これらを組み合わせたデータなど)であっても構わない。
コンテンツ配信サーバ2は、例えば、少なくとも1つのプロセッサと、プロセッサにより実行されるプログラムが記録されたメモリと、を備えたコンテンツ配信装置であって、ソフトウエアにより又はソフトウエアとハードウエアとの組み合わせにより種々の機能を実現可能に構成されている。
コンテンツ配信サーバ2は、配信者端末4から受信した低ビットレートエンコード済みデータ31とモデルデータ32とを用いて、コンテンツデータ30を生成することができる。
コンテンツ配信サーバ2は、受信した配信要求に応じて配信先の視聴者端末11を選択し、コンテンツデータ30を選択した視聴者端末11へ配信することができる。
視聴者端末11は、コンピュータなどの電子デバイスであって、例えば、テレビ受像機(インターネットテレビを含む)、PC(Personal Computer)、モバイル端末(例えば、タブレット、スマートフォン、ラップトップ、フィーチャーフォン、ポータブルゲーム機、デジタルミュージックプレイヤー、電子書籍リーダなど)、VR(Virtual Reality)端末、AR(Augmented Reality)端末などであり得るが、これらに限られない。
視聴者端末11は、例えば、少なくとも1つのプロセッサと、プロセッサにより実行されるプログラムが記録されたメモリと、を備え、ソフトウエアにより又はソフトウエアとハードウエアとの組み合わせにより種々の機能を実現可能に構成されている。
視聴者端末11は、コンテンツ配信サーバ2からコンテンツデータ30を受信し、図示しない表示手段や音響手段などにより視聴者へコンテンツを提示することが可能である。
図2は、一実施形態のコンテンツ配信システムにおいて用いられる原データと、低ビットレートエンコード済みデータと、コンテンツデータと、の一例を示す図である。
なお、図2には画像データである原データ33を用いたときの、低ビットレートエンコード済みデータ31およびコンテンツデータ30の一例を示している。
低ビットレートエンコード済みデータ31は、原データ33の送信レート(ビットレート)を小さくして、データ量を圧縮したものである。図2に例示した原データ33による画像と低ビットレートエンコード済みデータ31による画像とを比較すると、低ビットレートエンコード済みの画像は、画像のディテール情報が欠落したものとなっている。
コンテンツデータ30は、低ビットレートエンコード済みデータ31とモデルデータ32とを用いて高画質化された画像データである。ここで、本明細書における高画質化した画像、あるいは、視覚的により原画像に近づけた画像は、低ビットレートエンコード済みの画像から、高ビットレートの画像を復号したかのように人間が感じるように改良した画像である。高画質化された画像データは、視覚的に原画像データに近づけたものに限定されるものではなく、低ビットレートエンコード済みデータ31よりも視覚的に(人の知覚的に)改良されているものを含む。例えば、コンテンツデータ30は、低ビットレートエンコード済みデータ31において欠落した画像のディテールが追加される等により、原画像よりも低い画素数にて視覚的に改良されたものであってもよい。すなわち、高画質化した画像(若しくは視覚的に改良した画像)、あるいは、視覚的により原画像に近づけた画像は、原画像および単に画素数を増やすなどの方法により復号された高画質画像よりもビットレートが低く、かつ、表示品位の低下が抑制された画像である。
原データ33が画像データ以外のデータである場合には、コンテンツデータ30は、低ビットレートエンコード済みデータ31とモデルデータ32とを用いて人の知覚的に改良されたデータである。ここで、本明細書における改良したデータ、あるいは、人の知覚により原データに近づけたデータは、低ビットレートエンコード済みのデータから、高ビットレートのデータを復号したかのように人の知覚により感じるデータである。すなわち、改良したデータ、あるいは、人の知覚により原データに近づけたデータは、原データおよび単にビットレートを増やすなどの方法により復号された復元データよりもビットレートが低く、かつ、再生されたデータの品位の低下が抑制されたものである。
図2に例示した原データ33による画像とコンテンツデータ30による画像とを比較すると、コンテンツデータ30による画像は、低ビットレートエンコード済みの画像よりも視覚的に原画像に近づいた(若しくは視覚的に改良された)印象を受ける画像となっている。
なお、動画像コンテンツの低ビットレートエンコード済みデータ31を高画質化(改良)する場合には、静止画における空間方向の高画質化処理だけではなく、動画における時間方向の高画質化処理をも含むようにしてもよい。
図3は、図1に示すコンテンツ配信システムの配信者端末の一構成例を概略的に示す図である。
配信者端末4は、入出力インタフェース(第1送信部)4aと、制御部4bと、学習部4cと、メモリ4jと、プログラム記憶部4fと、機械学習用記録部4gと、バスライン4iと、を備えている。なお、図3に示す例では、コンテンツ生成装置40は配信者端末4に組み込まれている。コンテンツ生成装置40は、少なくとも学習部4cと機械学習用記録部4gとを含み、学習部4cおよび機械学習用記録部4g以外の配信者端末4の構成を、他の機能と共有し得る。
入出力インタフェース4aは、配信者端末4内の構成と外部の構成との間でデータ接続を行う。
バスライン4iは、配信者端末4に含まれる複数の構成を、相互に通信可能となるように接続する。
メモリ4jは、例えば、制御部4bによりデータの書き込みおよび読み出しが可能であるRAMやDRAMなどの半導体記憶装置を含む。メモリ4jは、制御部4bが動作する際に種々のデータを一時記憶する領域として利用され得る。なお、メモリ4jは、配信者端末4の外部に接続されるハードディスクなどの外部記憶装置を含んでいてもよい。
プログラム記憶部4fは、制御部4bのプロセッサにより実行されるプログラムを、読み出し可能に記憶している。プログラム記憶部4fは、例えば配信者端末4の外部に接続された外部記憶装置に含まれていてもよく、コンピュータにより読み取り可能な記録媒体であってもよい。また、プログラム記憶部4fは、メモリ4jと一体に構成されても構わない。
機械学習用記録部4gは、例えば制御部4bによるデータの書き込みおよび読み出しが可能に構成され、例えばニューラルネットワークなどに基づく機械学習に用いるための、入カデータ、教師データ、および、機械学習により生成された学習済みモデル(変換行列Q,R)が記録され得る。機械学習に用いられる入力データは、例えば各種カテゴリ別のコンテンツの原データ33を低ビットレートにエンコードしたデータ(低ビットレートエンコード済みデータ31)を採用することが可能であり、機械学習に用いられる教師データは、例えば入力データに対応するコンテンツの原データ33や改良データを採用することが可能である。機械学習用記録部4gにおいて、原データ33と、該原データ33の低ビットレートエンコード済みデータ31と、改良データとは、関連付けられた状態で記録されている。
なお、本実施形態において、機械学習に用いられ得る原データ33(又は改良データ)と低ビットレートエンコード済みデータ31とは、入出力インタフェース4aを介して外部から供給されたデータであってもよく、配信者端末4の機能により生成されたデータであってもよい。
制御部4bは、CPU(セントラル・プロセッシング・ユニット)などのプロセッサを少なくとも1つ含む演算手段であって、学習部4cを備えている。制御部4bは、配信者端末4に含まれる複数の構成の動作を制御することができる。なお、制御部4bは、プログラム記憶部4fに記録されたプログラムを読み出して実行することにより、以下に説明する種々の機能をソフトウエアにより実現することが可能である。
学習部4cは、入力データおよび教師データを用い、例えばニューラルネットワークなどの深層学習により生成された学習済みモデルに基づいて、モデルデータ32を生成することができる。
学習部4cは、第1生成部4c1と、第2生成部4c2とを備えている。
第1生成部4c1は、例えば入出力インタフェース4aを介して外部から供給された原データ33を受信し、受信した原データ33を低ビットレートにエンコードした低ビットレートエンコード済みデータ31を生成することができる。
第2生成部4c2は、第1生成部4c1もしくは外部から供給される低ビットレートエンコード済みデータ31を入力データとし、該低ビットレートエンコード済みデータ31に関連付けられた原データ33又は改良データを教師データとして、例えば後述するように機械学習による学習済みモデル生成し、学習済みモデルに基づく変換行列Q,Rのデータ(モデルデータ32)を生成することができる。
なお、第2生成部4c2は、新たに入力データおよび教師データが入力される毎に、学習済みモデルを更新し、毎回新たなモデルデータ32を生成してもよく、機械学習用記録部4gに記録された学習済みモデルに基づく過去のモデルデータ32を用いてもよい。過去のモデルデータ32を用いる場合には、第2生成部4c2は、周期的に、機械学習用記録部4gに記録されたデータを用いて、学習済みモデルを更新することができる。
第2生成部4c2は、過去に生成した学習済みモデルに基づくモデルデータ32を、入力データのカテゴリ別に機械学習用記録部4gに記録することができる。第2生成部4c2は、新たに入力された入力データに対する変換行列Q、Rを生成する(学習済みモデルを更新する)際に、機械学習用記録部4gから過去の値を読み出して初期値として利用してもよい。
以下に、機械学習を用いてモデルデータ32を生成する方法の一例について説明する。
図4は、一実施形態のコンテンツ配信システムにおいて用いられる深層学習の概念の一例を説明するための図である。
本実施形態のコンテンツ配信システム1では、機械学習の中で、ニューラルネットワークを用いた、多次元の入力から多次元の出力を得る際に、入力データおよび教師データを用いて最適なモデルを得る手法を用いている。なお、以下に説明するニューラルネットワークを用いた機械学習の適用は一例にすぎない。以下の説明では、低ビットレートエンコード済みデータ31および原データ33は画像データであるが、これに限定されるものではない。また、ニューラルネットワークの他の機械学習の手法を用いてモデルデータ32を生成することも可能であり、そのような構成もまた本発明に含まれる。
図4に示す機械学習の概念は、入力層41と、中間層42と、出力層43と、教師データ層44と、を備えている。
入力層41は、ニューラルネットワーク技術における入カデータωとして、低ビットレートエンコード済みデータ31である画像データについての、例えば対象となるフレーム画像について、複数のサンプル画素における画素の値(輝度、色調)である複数(m個)のパラメータである、入カデータ・パラメータ1、入力データ・パラメータ2、・・・、入カデータ・パラメータmの、m次元のデータωを有している。
上述の低ビットレート画像に関する入カデータ・パラメータベクトルωは下記式(1)にて表すことができる。
Figure 2021175157
出力層43は、下記式(2)により表される出カデータ・パラメータベクトルxを有している。出カデータ・パラメータベクトルxは、後述する教師データ・パラメータベクトルβと同じくd次元である。
Figure 2021175157
中間層42は、下記式(3)により表されるk次元のベクトルy(中問データともいう)を有している。中間層42は、入力層41と出力層43との間に位置している。
Figure 2021175157
入力層41のデータは、変換行列Qによる線形変換により中間層42に変換され、その中間層42のデータは、変換行列Rによる線形変換がなされて出力層43のデータとして出力される。層41−43のそれぞれの内部については、各データ間には接続関係がなく独立している。
上記のように、本実施形態では、入カデータ・パラメータベクトルωから出カデータ・パラメータベクトルxに直接変換するのではなく、下記式(4)に示すように2段階の変換を行う。
y=Qω、 x=Ry ・・・(4)
上記式(4)において、QおよびRは先に説明をした線形変換を行うために用いられる行列である。そして、それぞれの変換行列Q,Rによる線形変換を行ったあと、それぞれの変数に対して非線形の関数により変換を行う。その関数は活性化関数と呼ばれるもので、本実施形態では下記式(5)に示す、ロジスティックシグモイド関数σ(a)を用いている。
Figure 2021175157
このロジスティックシグモイド関数σ(a)を用いると、上述した各データの変換は、下記式(6)のように4段階で表すことができる。
Figure 2021175157
一方、教師データ層44は、ニューラルネットワーク技術における教師データ(目標とする出力データ)として、原データ33若しくは改良データである画像データについての、例えば対象となるフレーム画像について、複数のサンプル画素における画素の値(輝度、色調)である複数(d個)のパラメータである、教師データ・パラメータ1、教師データ・パラメータ2、・・・、教師データ・パラメータdの、d次元のデータtを有している。
なお、上述の入カデータωと、教師データtとのそれぞれのパラメータの組みを、以下ではパラメータベクトルjという場合もある。また、入カデータωの各パラメータと、教師データtの各パラメータとは、一部あるいは全部が重複してもよい。
学習に際しては、出力変数の目標となるデータである、原画像が有する画素値である教師データt(下記式(7))があらかじめ与えられる。
Figure 2021175157
そして、ニューラルネットワークの各パラメータは、出力の値が教師データtに近くなるように、以下のような「推定」を行うことで決定される。
入カデータ・パラメータベクトルωを、中間層42に含まれる変数ベクトルyに変換するためのk行m列の行列を、Q=[qhj](qhjはh行j列の要素)で表すと、y=Qωとなり、要素(パラメータ)で表すと下記式(8)の通りとなる。
Figure 2021175157
さらに、上記式(8)に従って変換された変数ベクトルyは、上述したロジスティックシグモイド関数σ(a)によって、下記式(9)のように非線形的に変換することができる。
Figure 2021175157
同様に、中間層42から得られる変数ベクトルαを、出力層43に含まれる変数ベクトルxに変換するためのd行k列の行列を、R=[rih](rihはi行h列の要素)で表すと、x=Rαとなり、要素(パラメータ)で表すと下記式(10)のようになる。
Figure 2021175157
上述のように変換された変数ベクトルxは、上述したロジスティックシグモイド関数σ(a)によって、下記式(11)のように非線形的に変換することができる。
Figure 2021175157
次に、学習の過程である、2つの変換行列Q,Rの推定を行うプロセスについて説明する。この推定のために、本実施形態では、以下に説明する誤差逆伝搬法と呼ばれる方法を用いている。
すなわち、はじめに、原データ33若しくは改良データとしての画像データにおけるパラメータである教師データtと出力(教師データ・パラメータベクトル)βとの誤差を計算し、その誤差を用いて中間層42と出力層43との変換行列Rを変化させる量を求める。次に、入力層41と中間層42との変換行列Qを変化させる量を求める。
上記各変換行列Q,Rの要素パラメータの推定にあたっては、誤差の2乗和を最小にする推定を行うが、非線形の変換が途中に含まれているため、確率的勾配降下法を用いる。これは、学習用データの1サンプルごとに誤差の2乗和を減少させるよう、誤差の勾配に比例した量だけ行列の要素パラメータを変化させる方法である。
以上の各プロセスに従って、第2生成部4c2は、入力データに対する変換行列Q、Rを生成することができる。第2生成部4c2は、生成したモデルデータ32と、入力データである低ビットレートエンコード済みデータ31とを、入出力インタフェース4aおよびネットワーク3を介してコンテンツ配信サーバ2へ送信することができる。
図5は、図1に示すコンテンツ配信システムの動画像コンテンツ配信サーバの一構成例を概略的に示す図である。
コンテンツ配信サーバ2は、サーバ用コンピュータなどで実現されるものであって、入出力インタフェース2aと、制御部2bと、プログラム記憶部2fと、ユーザ管理部2gと、コンテンツ記録部2cと、コンテンツ配信部2dと、メモリ2hと、バスライン2iと、を備えている。
入出力インタフェース2aは、コンテンツ配信サーバ2と外部との間で情報の入力および出力を行う。
バスライン2iは、コンテンツ配信サーバ2に含まれる複数の構成を、相互に通信可能となるように接続する。
ユーザ管理部2gは、コンテンツの配信要求を送信した視聴者端末11が、例えば動画配信サイトの会員であるかなど、視聴者あるいは視聴者端末11に関する情報を記録し管理する。ユーザ管理部2gは、例えば、視聴者あるいは視聴者端末11に関する情報が記録されたテーブルを備えている。
コンテンツ記録部2cには、配信を行う動画像コンテンツが記録保管されている。なお、コンテンツ配信サーバ2が取り扱うコンテンツは動画像コンテンツに限らず、静止画コンテンツ、音声コンテンツなど他の仕様のコンテンツ、あるいはこれら各種コンテンツの組み合わせであってもよい。また、コンテンツ記録部2cは、例えば、それぞれのコンテンツに対して視聴者が投稿したテキストデータである「コメント」を、投稿を行った再生時間(コンテンツの先頭から計測した時間の情報)とともに記録することができる。
メモリ2hは、例えば、制御部2bによりデータの書き込みおよび読み出しが可能であるRAMやDRAMなどの半導体記憶装置を含む。メモリ2hは、制御部2bが動作する際に種々のデータを一時記憶する領域として利用され得る。なお、メモリ4jは、コンテンツ配信サーバ2の外部に接続されるハードディスクなどの外部記憶装置を含んでいてもよい。
プログラム記憶部2fは、制御部2bのプロセッサにより実行されるプログラムを、読み出し可能に記憶している。プログラム記憶部2fは、例えばコンテンツ配信サーバ2の外部に接続された外部記憶装置に含まれていてもよく、コンピュータにより読み取り可能な記録媒体であってもよい。また、プログラム記憶部2fは、メモリ2hと一体に構成されても構わない。
制御部2bは、CPU(セントラル・プロセッシング・ユニット)などのプロセッサを少なくとも1つ含む演算手段であって、コンテンツ配信サーバ2に含まれる複数の構成の動作を制御することができる。なお、制御部2bは、プログラム記憶部2fに記録されたプログラムを読み出して実行することにより、以下に説明する種々の機能をソフトウエアにより実現することが可能である。
制御部2bは、生成部(第3生成部)2eを備えている。
生成部2eは、配信者端末4から供給された、低ビットレートエンコード済みデータ31とモデルデータ32とを受信し、低ビットレートエンコード済みデータ31である低ビットレート画像の各パラメータ(各画素の麺度や色調を表す画素値や、画像符号化技術における各パラメータであってもよいし、他のパラメータでもよい)を、上述の式(6)に従って変換して、出カデータベクトルxを得ることにより、コンテンツデータ30に相当する高画質化した画像を描画するためのパラメータ(改良をしたデータを再生するためのパラメータ)を算出することができる。生成部2eは、算出したパラメータを用いて高画質化した各画像フレームを生成し、高画質化(改良)した動画像のコンテンツデータ30を生成し、コンテンツデータ30をコンテンツ記録部2cに記録させる。
図6は、図1に示すコンテンツ配信システムの視聴者端末の一構成例を概略的に示す図である。
視聴者端末11は、入出力インタフェース11aと、制御部11bと、メモリ11cと、表示部11fと、操作部11gと、プログラム記憶部11hと、データ記録部11iと、コメント投稿部11kと、バスライン11mと、を備えている。
入出力インタフェース11aは、視聴者端末11内の構成と外部の構成との間でデータ接続を行う。
バスライン11mは、視聴者端末11に含まれる複数の構成を、相互に通信可能となるように接続する。
制御部11bは、CPU(セントラル・プロセッシング・ユニット)などのプロセッサを少なくとも1つ含む演算手段である。制御部11bは、視聴者端末11に含まれる複数の構成の動作を制御することができる。
メモリ11cは、例えば、制御部11bによりデータの書き込みおよび読み出しが可能であるRAMやDRAMなどの半導体記憶装置を含む。メモリ11cは、制御部11bが動作する際に種々のデータを一時記憶する領域として利用され得る。なお、メモリ11cは、視聴者端末11の外部に接続されるハードディスクなどの外部記憶装置を含んでいてもよい。
表示部11fは、受信したコンテンツの内容を表示したり、コンテンツの操作画面その他を表示したりすることができる。表示部11fは、例えば、液晶表示装置や有機EL表示装置などの平面表示装置と、その駆動回路と、を備えている。
操作部11gは、キーボードやマウスなど、視聴者の操作することによる視聴者端末11に対する指令を、制御部11bへ送信することができる。
プログラム記憶部11hは、制御部11bのプロセッサにより実行されるプログラムを、読み出し可能に記憶している。プログラム記憶部11hは、例えば視聴者端末11の外部に接続された外部記憶装置に含まれていてもよく、コンピュータにより読み取り可能な記録媒体であってもよい。また、プログラム記憶部11hは、メモリ11cと一体に構成されても構わない。
データ記録部11iは、コンテンツ配信サーバ2から受信した低ビットレートエンコード済みデータ31に基づくコンテンツデータ30、および、他のコンテンツデータ等記録することができる。
コメント投稿部11kは、コンテンツ配信サーバ2に対して、視聴者によるコメントを投稿するための構成である。コメント投稿部1kは、操作部11gや図示しないマイクなどから得られた視聴者のコメント情報を、コンテンツ配信サーバ2へ送信することができる。
本実施形態のコンテンツ配信システム1によれば、限られた帯域幅のみを有するインターネット通信網など伝送路を介してコンテンツの送受を行うシステムにおいて、効率的な伝送帯域の圧縮と、原データに近い品位を有する(若しくは人の知覚的に改良されたと感じる)データ復元とを、実現可能である。
また、本実施形態のコンテンツ配信システム1では、配信者端末4にて、機械学習よる学習済みモデルに基づいて、低ビットレートエンコード済みデータ31のデータ復元に用いられるモデルデータ32を生成し、コンテンツ配信サーバ2にてコンテンツデータ30を生成するため、視聴者端末11では、低ビットレートエンコード済みデータ31に基づくコンテンツデータ(改良データ)30と他のコンテンツデータと区別することなく扱うことが可能である。したがって、視聴者端末11にてコンテンツデータ30を扱うための特別な機能を備える必要がなくなり、視聴者側の負担を軽減することが可能である。
また、本実施形態のシステムでは、配信者端末4(又はコンテンツ生成装置40)にて機械学習を行うことにより、モデルデータ32の精度を向上させることが可能である。複数のコンテンツを配信する配信者は、同じカテゴリに分類されるような類似したコンテンツを多く作成する可能性があるため、配信者端末4(又はコンテンツ生成装置40)にてデータ復元のための機械学習を行うことにより、より効率よく精度の高いモデルデータ32を生成することが可能となる。
次に、一実施形態のコンテンツ表示システムにおけるコンテンツ生成方法の一例について説明する。
図7および図8は、一実施形態のコンテンツ生成方法の一例を説明するためのフローチャートである。
なお、以下の説明において、コンテンツ生成装置40は、機械学習用記録部4gに記録されたサンプルデータ等を利用して予め機械学習を行い、予め生成された学習済みモデルに基づいて、モデルデータ32を生成した状態であるものとして説明する。
なお、例えば、特定の猫(ミケ)の画像データをアップロードしようとする際には、学習済みモデルは、特定の猫(ミケ)の画像データ(原データ又は改良データ、低ビットエンコード済みデータ)を入力データおよび教師データとして用いて生成されてもよく、特定の猫(ミケ)および他の猫の画像データ(原データ又は改良データ、低ビットエンコード済みデータ)を入力データおよび教師データとして用いて事前に学習されていてもよく、猫を含む動物全般の画像データ(原データ又は改良データ、低ビットエンコード済みデータ)を入力データおよび教師データとして用いて事前に学習されていてもよく、動物および他の画像データ(原データ又は改良データ、低ビットエンコード済みデータ)を入力データおよび教師データとして用いて事前に学習されていてもよい。
最初に、配信者端末4にて原データ33を取得し、第1生成部4c1により原データ33を低ビットレートにエンコードした低ビットレートエンコード済みデータ31を生成する(ステップS11)。配信者端末4は、外部より原データ33を受信してもよく、配信者端末4の種々の機能を用いて原データ33を生成してもよい。
続いて、第2生成部4c2において、低ビットレートエンコード済みデータ31を入力データとし、原データ33又は改良データを教師データとした機械学習により生成された学習済みモデルに基づいて、モデルデータ32を生成する(ステップS12)。
第2生成部4c2は、新たに入力された低ビットレートエンコード済みデータ31と原データ33とを用いて、学習済みモデルを更新し、更新された学習済みモデルに基づくモデルデータ32を生成することができる。また、第2生成部4c2は、例えば機械学習用記録部4gに記録された過去の学習済みモデルに基づくモデルデータ32を生成することができる。
このとき、例えば原データ33にカテゴリ情報(配信を行うコンテンツの種類、撮影されている内容、タイトル、撮影者、ジャンル、タグ、これらの組み合わせなど)が含まれている場合には、第2生成部4c2は原データ33のカテゴリに応じたモデルデータ32を生成することができる。
例えば、第2生成部4c2は、機械学習用記録部4gに、原データ33のカテゴリ毎にモデルデータ32を記録することが可能である。第2生成部4c2は、供給された原データ33のカテゴリ情報に基づいて機械学習用記録部4gに記録された複数のモデルデータ32の中から対応するものを初期値として選択し、新たな入力データおよび新たな教師データにより学習済みモデルを更新することができる。第2生成部4c2は、更新した学習済みモデルに基づいて新たなモデルデータ32を生成し、対応するカテゴリ情報と関連付けて機械学習用記録部4gに記録することができる。
上記のようにカテゴリ毎のモデルデータ32を生成することにより、モデルデータ32を用いてコンテンツデータ30を生成する際に、より原データ33に近づけた(若しくは人の知覚的に改良されたと感じる)コンテンツデータ30を生成することができる。例えば「猫」に関するコンテンツであれば、「動物」というコンテンツのカテゴリがあらかじめ用意され、この動物カテゴリに属するコンテンツ(原データ33又は改良データ)を教師データとして、そのコンテンツを低ビットレートエンコーディングしたデータ(低ビットレートエンコード済みデータ31)を入力データとして、機械学習により推定された変換行列Q,Rをモデルデータ32の初期値とすることができる。
なお、第2生成部4c2は、原データ33および低ビットレートエンコード済みデータ31が入力される度に、学習済みモデルを更新して新たなモデルデータ32を生成する必要はなく、既に生成されている(機械学習用記録部4gに記録されている)学習済みモデルに基づくモデルデータ32を用いることも可能である。例えば、学習用に十分な数のサンプルデータ(入力データおよび教師データ)を準備できる場合には、サンプルデータの教師データ、および、サンプルデータの低ビットレートエンコード済みデータを用いて、予め学習済みモデルに基づくモデルデータ32を生成しておいても構わない。第2生成部4c2は、入力された原データ33(又は原データ33の改良データ)とその低ビットレートエンコード済みデータ31とをサンプルデータとして機械学習用記録部4gに蓄積しておき、新たな(未だ機械学習に用いられていない)サンプルデータの数が所定数を超えた場合に、学習済みモデルを更新して新たなモデルデータ32を生成してもよい。その場合には、第2生成部4c2は、原データ33のカテゴリ等に応じて、予め生成されたモデルデータ32を利用することができ、機械学習を行う頻度を少なくすることが可能である。
なお、コンテンツの複数のカテゴリに対応する複数のモデルデータ32又はモデルデータ32の初期値を用意する場合には、配信者がよく作成するコンテンツのカテゴリに対応するモデルデータ32を用意しておけばよいため、モデルデータ32を生成することにより配信者端末4に高い負荷がかかるものではない。
続いて、第2生成部4c2は、低ビットレートエンコード済みデータ31と、モデルデータ32とを、入出力インタフェース4aを介して外部へ出力する(ステップS13)。
コンテンツ配信サーバ2は、低ビットレートエンコード済みデータ31とモデルデータ32とを、ネットワーク3を介して配信者端末4から受信する(ステップS21)。
コンテンツ配信サーバ2の生成部2eは、例えば、低ビットレートエンコード済みデータ31のパラメータ値を入力層とし、モデルデータ(例えば変換行列Q、R)32および活性化関数σを用いて、出力層のパラメータ値を生成する。例えば動画像コンテンツデータを生成する際には、生成部2eは、低ビットレートエンコード済みデータ31の各画像フレームに関する画素値(輝度、色調など)を入力層とし、モデルデータ(例えば変換行列Q、R)32および活性化関数σを用いて、高画質化した各画像フレームの画素値(輝度、色調など)を生成する(ステップS22)。
生成部2eは、生成した出力層のパラメータ値に基づいて、コンテンツデータ30を生成する。例えば動画像コンテンツデータを生成する際には、生成部2eは、高画質化した各画像フレームを集成し、高画質化した動画像コンテンツを生成する(ステップS23)。
上記コンテンツ生成方法において、例えば以下のような各項目は、各コンテンツの内容と密接に関連しており、コンテンツの特性を適例に分類することが可能である。配信者端末4において、これらの項目に従ってモデルデータを自動的に分類して準備し、コンテンツの低ビットレートエンコード済みデータ31とともにモデルデータ32を配信することも有効である。
そのために、先に説明をした、配信者端末4の第2生成部4c2は、入力された原データ33に最適なモデルデータ32又はモデルデータ32の初期値を、コンテンツの特性(カテゴリ)に対応して予め用意された複数のモデルデータ32の中から選択するための構成を有するようにしてもよい。選択を行う動作は、例えば以下のような項目が、配信するコンテンツに含まれている場合に、これら項目から自動的に、高画質化処理(改良処理)に適したモデルデータが選択されるにようにしてもよい。
・コンテンツを視聴した視聴者から投稿されたコメント情報
・コンテンツを説明する説明文情報
・コンテンツの作者に関する情報
・コンテンツの名称あるいはシリーズ名称の情報
・コンテンツを配信する配信者に関する情報
このように、コンテンツの内容に密接に関連した項目として、ほかに「タグ」情報があげられる。ここで、「タグ」とは、各コンテンツに付された、コンテンツ内容を指し示す検索用キーワードであり、一つのコンテンツに対して所定数(例えば10個)まで登録することができる。タグにより、例えば視聴者が所望する動画や、ある動画と似たような動画を容易に探せるような仕組みになっている。
タグは、コンテンツをコンテンツ配信サーバ2に投稿する動画投稿者だけではなく、これらコンテンツの視聴者(閲覧者ともいう)も自由に登録することができる。本来は検索機能として用いられるタグだが、コンテンツの内容に絡めたタグ付けや配信サイト特有のタグ付けも多く見られる。利用の実態としては、検索のための分類というより、そのコンテンツの動画の見所を視聴者に教える役割を果たすこともあり、タグを用いて視聴者同士のコミュニケーションに使われることもある。同じ素材(例えば「歌ってみた」「アイドルマスター」などの人気ジャンルに属する無数のサブジャンル)を扱った動画コンテンツや、同じ投稿者による動画コンテンツに対して閲覧者の間で自発的にタグが発明され、より深い検索のニーズに応えている側面もある。
本出願人は、動画像配信サイト「ニコニニ動画」https://WWW.nicovideo.jp/video_top?ref=nicotop_videを運営している。
この「ニコニコ動画」サイトで実際に用いられているタグとして、以下の例がある。
タグの上位分類である「カテゴリ」(「カテゴリタグ」ともいう)の分類において、「エンタメ・音楽」には、「VOICEROID劇場」、」、「オリジナル曲」、「バーチャルYouTuber」、「アイドル部」、「にじさんじ」、「アニソンfull」、「作業用 BGM」、「FateMMD」、「MMD 刀剣乱舞」、「ニコスロ」、「SCP解説」、「パチスロ」、「SCP」、「ボカロカラオケ DB」、「ゆっくり解説」、「声優ライブ」、「R.A.B」、「パチンコ」、「アニメ色のない作業用 BGM」、「歌うボイスロイド」、「VOCALOID」、「伝説入り」、「コスプレで踊ってみた」、「ニコパチ」、「VOCALOID 殿堂入り」、「うちいく TV」、「マイクラ肝試し」、「ゆっくり怪談」、「ハロプロ」、「洋楽名曲集」、「小説家になろう」、「探してたあの曲」、「洋楽」が例えば用いられている。
同様に、「生活一般・スポーツ」というカテゴリでは、「日米野球」、「ノリッチ」、「RTA(リアル登山アタック)」、「ゆっくり解説」、「VOICELOID 車載」、「WWE」、「コツメカワウソ」、「フィギュアスケート」、「世界の交通事情」、「バイク」、「ドライブレコーダー」、「異種仲良し動画リンク」、「しくじり企業」、「ゆっくり雑談」、「VOICELOID 解説」、「プロ野球」、「殺人毛玉」、「失われた野生」、「ボイ酒ロイド」、「ハイボールの人」、「世界の奇人・変人・偉人紹介」、「ゆっくり解説動画」、球界OBの現役時代のプレー集」、「柴犬」、「バーベキュー」、「戦闘民族」、「F1」、「ニコニコ海外旅行」、「ぬこぬこ動画」、「野生解放」、「野外料理」、「ラーメン」、「軍事」、「ホームラン集」、「ロードレース」、「懐かCM」、「犬」、「アザラシ」、「トースト」、「ゆっくり車載」、「野球」、「横浜DeNAベイスターズ」、「猫」、「絶叫するビーバー」、「犬と猫」などが例えば用いられている。
同じく、「科学技術」というカテゴリでは、「粉瘤」、「航空事故」、「銃」、「ドキュメンタリー」、「リボルバー」、「軍事」、「宇宙ヤバイ」、「ろくろを回すシリーズ」、「水素の音」、「拳銃」、「フィギュア」、「珍兵器」、「迷飛行機で行こうシリーズ」、「迷列車派生シリーズ」、「ナポリの男たち」、「プラモデル」、「日本刀」、「宇宙」、「衝撃映像」、「軍事訓練NG集」、「円周率」、「レトロPC」、「ミニ四駆」、「ニコニコ兵器開発局」、「JAXA」、「スバル」、「ニコニコ空想科学部」、「大きさ比較シリーズ」、「ブラックホール」、「車両接近通報装置シリーズ」、「F−22」、「世界の交通事情」、「羽ばたき機」、「理系ホイホイ」、「数学」などが例えば用いられる。
この結果、次のような格別な効果がある。
まず、タグは投稿者あるいはコンテンツの視聴者が付与するので、コンテンツ配信システム1の操作者や管理者が付与を行う工数がいらず、またコンテンツの中身を熟知している投稿者や視聴者が付与するので、付与が正確である。
また、上記のようにタグは、単なるカテゴリとは異なり細分化されているうえに、既存のタグを知った投稿者や視聴者が同じタグを付与することから、同じタグに属する動画像コンテンツは極めて近い内容であることが期待できるので、機械学習における学習過程が精度よく実行できる。
上記のように、本実施形態のコンテンツ生成方法によれば、限られた帯域幅のみを有するインターネット通信網など伝送路を介してコンテンツの送受を行うシステムにおいて、効率的な伝送帯域の圧縮と、原データに近い品位を有する(若しくは人の知覚的に改良されたと感じる)データ復元とを、実現可能である。
また、本実施形態のコンテンツ生成方法では、配信者端末4にて機械学習を行うことにより、モデルデータ32の精度を向上させることが可能である。複数のコンテンツを配信する配信者は、同じカテゴリに分類されるような類似したコンテンツを多く作成する可能性があるため、配信者端末4にてデータ復元のための機械学習を行うことにより、より効率よく精度の高いモデルデータ32を生成することが可能となる。
上記のように、本実施形態によれば、コンテンツを配信元から配信先まで送信する経路に介在する構成に対する負荷を軽減するとともに、コンテンツの品位の低下を抑制するコンテンツ生成装置、コンテンツ配信システム、コンテンツ生成方法、および、コンテンツ生成プログラムを提供することができる。
次に、第2実施形態のコンテンツ生成装置、コンテンツ配信システム、コンテンツ生成方法、および、コンテンツ生成プログラムについて説明する。
本実施形態のコンテンツ生成装置、コンテンツ配信システム、コンテンツ生成方法、および、コンテンツ生成プログラムは、以下の点以外の構成は先に説明をした第1実施形態と同様である。
すなわち、本実施形態のコンテンツ生成装置40にてモデルデータ32を生成するとき、原データ33が画像データである場合に、機械学習に用いるデータとして、先に説明をした低ビットレートエンコード済み画像フレーム、および原画像の画素の値(輝度、色調)とは別に、あるいはそれに加えて、次のような、画像符号化技術における項目の少なくともいずれかであって、次のような、高画質化をしたい低ビットレートエンコード済み動画像コンテンツのメタ情報が含まれているようにしてもよい。
・符号化ブロック量子化パラメータ
・予測誤差係数
・予測モード情報
・動きベクトル情報
なお、低ビットレートエンコード済みデータ31の上記項目は、第1生成部4c1にて原データ33から低ビットレートエンコード済みデータ31を生成する際に、低ビットレートエンコード済みデータ31に含めることが可能である。
上記項目の少なくともいずれかであるメタ情報を機械学習にて利用することにより、機械学習における推定の精度がより向上することが期待できる。すなわち、本実施形態によれば、上述の第1実施形態と同様に、コンテンツを配信元から配信先まで送信する経路に介在する構成に対する負荷を軽減するとともに、コンテンツの品位の低下を抑制するコンテンツ生成装置、コンテンツ配信システム、コンテンツ生成方法、および、コンテンツ生成プログラムを提供することができる。
なお、上述の複数の実施形態において、動画像コンテンツを配信する場合について主に説明したが、動画像コンテンツに限るごとなく、静止画、音声データなど様々なデータ種別について本発明を実施することができる。
例えば、送信装置である配信者端末4が、原データを低ビットレートヘエンコードした低ビットレートエンコード済みデータから、より原データに近づけた(若しくは人の知覚的に改良されたと感じる)改良データを生成するためのモデルデータを、機械学習により生成する学習部4cと、低ビットレートエンコード済みデータと、モデルデータとを当該装置の外部へ送信する送信部(入出力インタフェース)4aと、を備え、受信装置であるコンテンツ配信サーバ2が、受信した低ビットレートエンコード済みデータおよびモデルデータから、当該低ビットレートエンコードデータの改良データであるコンテンツデータ30を生成する生成部2eを有することを特徴とする、送受信システムであってもよい。
また、先に説明をしたコンテンツ配信システム1の各実施形態に含まれる各構成を、動画像コンテンツ対象に代えて、他のデータ形式あるいは汎用のデータ形式に適応するようにした構成を含むようにしてもよい。
これら各種データの送信に際しては、伝送路への負荷を削減することが要求され、また受信端末における再生に際しては、再生品質が高いことが求められている点は、動画像を配信する場合における課題と同様であって、本発明を実施することにより得られる効果も、先に各実施例で説明をした効果と同様である。
なお、本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
1…コンテンツ配信システム、2…コンテンツ配信サーバ、2a…入出力インタフェース、2b…制御部、2c…コンテンツ記録部、2d…コンテンツ配信部、2e…生成部(第3生成部)、2f…プログラム記憶部、2g…ユーザ管理部、3…ネットワーク、4…配信者端末、4a…入出力インタフェース(送信部)、4b…制御部、4c…学習部、4c1…第1生成部、4c2…第2生成部、4f…プログラム記憶部、4g…機械学習用記録部、11…視聴者端末、30…コンテンツデータ(改良データ)、31…低ビットレートエンコード済みデータ、32…モデルデータ、33…原データ、40…コンテンツ生成装置、41…入力層、42…中間層、43…出力層、44…教師データ層。
本発明の第1態様による配信者端末は、原データを低ビットレートへエンコードした低ビットレートエンコード済みデータを生成する第1生成部と、機械学習による学習済みモデルに基づいて、前記低ビットレートエンコード済みデータを人の知覚的に改良したデータであって、視聴者端末へ配信される改良データを生成するための機械学習済みモデルデータを生成可能である第2生成部と、前記低ビットレートエンコード済みデータと、前記モデルデータとを、ネットワークを介してコンテンツ配信サーバへ送信する第1送信部と、を備える。
本発明の第2態様による配信者端末は、第1態様によるコンテンツ生成装置において、前記モデルデータを記憶する記録部を更に備え、前記第2生成部は、生成した前記モデルデータを前記記録部に記録し、前記低ビットレートエンコード済みデータを受信したときに、前記記録部から前記モデルデータを取得し、前記低ビットレートエンコード済みデータと前記モデルデータとを前記第1送信部へ送信することができる。
本発明の第3態様による配信者端末は、第1又は第2態様によるコンテンツ生成装置において、前記原データは画像データであって、前記低ビットレートエンコード済みデータはメタ情報を含むものである。
本発明の第4態様による配信者端末は、第3態様によるコンテンツ生成装置において、前記低ビットレートエンコード済みデータの前記メタ情報が、画像符号化技術における符号化ブロック量子化パラメータ(QP)、予測誤差係数、予測モード情報、動きベクトル情報のうちの少なくともいずれかであるものである。
本発明の第5態様による配信者端末は、第2態様によるコンテンツ生成装置において、前記原データは、コンテンツを特性により分類するためのカテゴリ情報を含み、前記記録部は、前記カテゴリ情報に基づいて分類された前記モデルデータ若しくは前記モデルデータの初期値を記録している。
本発明の第6態様によるコンテンツ配信システムは、第1乃至第5態様のいずれかの配信者端末と、ネットワークを介して前記コンテンツ生成装置から送信された前記低ビットレートエンコード済みデータと、前記モデルデータとを受信する受信部と、受信した前記低ビットレートエンコード済みデータおよび前記モデルデータから、当該低ビットレートエンコード済みデータ基づく前記改良データを生成する第3生成部と、前記改良データを配信する配信部と、を備えるコンテンツ配信サーバと、を備える。
本発明の第7態様によるコンテンツ生成方法は、原データを低ビットレートへエンコードした低ビットレートエンコード済みデータを生成する第1生成ステップと、機械学習による学習済みモデルに基づいて、前記低ビットレートエンコード済みデータを人の知覚的に改良した視聴者端末向けの改良データを生成するための機械学習済みモデルデータを生成可能な第2生成ステップと、前記低ビットレートエンコード済みデータと、前記モデルデータとをコンテンツ配信サーバへ送信する第1送信ステップと、を備える。
本発明の第1態様による配信者端末は、コンテンツデータの配信元となる配信者端末であって、原データを低ビットレートへエンコードした低ビットレートエンコード済みデータを生成する第1生成部と、機械学習による学習済みモデルに基づいて、前記低ビットレートエンコード済みデータを人の知覚的に改良したデータであって、視聴者端末へ配信される改良データを生成するための機械学習済みモデルデータを生成可能である第2生成部と、コンテンツ配信サーバを介在して、前記コンテンツデータの配信先である前記視聴者端末へ、前記改良データを前記コンテンツデータとして配信するために、前記低ビットレートエンコード済みデータと、前記モデルデータとを、ネットワークを介して前記コンテンツ配信サーバへ送信する第1送信部と、を備える。
本発明の第2態様による配信者端末は、第1態様によるコンテンツ生成装置において、前記モデルデータを記憶する記録部を更に備え、前記第2生成部は、生成した前記モデルデータを前記記録部に記録し、前記低ビットレートエンコード済みデータを受信したときに、前記記録部から前記モデルデータを取得し、前記低ビットレートエンコード済みデータと前記モデルデータとを前記第1送信部へ送信することができる。
本発明の第3態様による配信者端末は、第1又は第2態様によるコンテンツ生成装置において、前記原データは画像データであって、前記低ビットレートエンコード済みデータはメタ情報を含み、前記メタ情報は前記機械学習に用いるデータに含まれる
本発明の第5態様による配信者端末は、前記原データは、コンテンツを特性により分類するためのカテゴリ情報を含み、前記カテゴリ情報は、前記コンテンツのタグを少なくとも含み、前記記録部は、前記カテゴリ情報に基づいて分類された前記モデルデータ、若しくは、前記モデルデータの初期値を記録している。
本発明の第7態様によるコンテンツ生成方法は、原データを低ビットレートへエンコードした低ビットレートエンコード済みデータを生成する第1生成ステップと、機械学習による学習済みモデルに基づいて、前記低ビットレートエンコード済みデータを人の知覚的に改良した視聴者端末向けの改良データを生成するための機械学習済みモデルデータを生成可能な第2生成ステップと、コンテンツデータの配信元となる配信者端末から、コンテンツ配信サーバを介在して、前記コンテンツデータの配信先である前記視聴者端末へ、前記改良データを前記コンテンツデータとして配信するために、前記低ビットレートエンコード済みデータと、前記モデルデータとを前記コンテンツ配信サーバへ送信する第1送信ステップと、を備える。

Claims (9)

  1. 原データを低ビットレートへエンコードした低ビットレートエンコード済みデータを生成する第1生成部と、
    機械学習による学習済みモデルに基づいて、前記低ビットレートエンコード済みデータを人の知覚的に改良した改良データを生成するための機械学習済みモデルデータを生成可能である第2生成部と、
    前記低ビットレートエンコード済みデータと、前記モデルデータと、を外部へ送信する第1送信部と、を備えた、コンテンツ生成装置。
  2. 過去に生成された前記モデルデータを記憶する記録部を更に備え、
    前記第2生成部は、過去に生成された前記モデルデータを前記低ビットレートエンコード済みデータとともに、前記第1送信部から外部へ送信させることができる、請求項1記載のコンテンツ生成装置。
  3. 前記原データは画像データであって、前記低ビットレートエンコード済みデータはメタ情報を含む、請求項1又は請求項2に記載のコンテンツ生成装置。
  4. 前記低ビットレートエンコード済みデータの前記メタ情報が、画像符号化技術における符号化ブロック量子化パラメータ(QP)、予測誤差係数、予測モード情報、動きベクトル情報のうちの少なくともいずれかである、請求項3に記載のコンテンツ生成装置。
  5. 前記原データは、コンテンツを特性により分類するためのカテゴリ情報を含み、
    前記記録部は、前記カテゴリ情報に基づいて分類された前記モデルデータ、若しくは、前記モデルデータの初期値を記録している、請求項2記載のコンテンツ生成装置。
  6. 請求項1乃至請求項5のいずれか1項に記載のコンテンツ生成装置と、
    前記コンテンツ生成装置から送信された前記低ビットレートエンコード済みデータと、前記モデルデータとを受信する受信部と、受信した前記低ビットレートエンコード済みデータおよび前記モデルデータから、当該低ビットレートエンコード済みデータ基づく前記改良データを生成する第3生成部と、前記改良データを配信する配信部と、を備えるコンテンツ配信装置と、
    を備えたコンテンツ配信システム。
  7. 原データを低ビットレートへエンコードした低ビットレートエンコード済みデータを生成する第1生成ステップと、
    機械学習による学習済みモデルに基づいて、前記低ビットレートエンコード済みデータを人の知覚的に改良した改良データを生成するための機械学習済みモデルデータを生成可能な第2生成ステップと、
    前記低ビットレートエンコード済みデータと、前記モデルデータとを外部へ送信する第1送信ステップと、を備えた、コンテンツ生成方法。
  8. 前記低ビットレートエンコード済みデータと、前記モデルデータとを受信する受信ステップと、
    受信した前記低ビットレートエンコード済みデータおよび前記モデルデータから、当該低ビットレートエンコード済みデータに基づく前記改良データを生成する第3生成ステップと、
    を更に備えた、請求項7記載のコンテンツ生成方法。
  9. 請求項7又は請求項8に記載されたコンテンツ生成方法をコンピュータに実行させる、コンテンツ生成プログラム。
JP2020080551A 2020-04-30 2020-04-30 配信者端末、コンテンツ配信システム、コンテンツ生成方法、コンテンツ生成プログラム、および、記録媒体 Active JP6908756B1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020080551A JP6908756B1 (ja) 2020-04-30 2020-04-30 配信者端末、コンテンツ配信システム、コンテンツ生成方法、コンテンツ生成プログラム、および、記録媒体
US17/907,643 US20230142432A1 (en) 2020-04-30 2021-04-27 Content Generating Device, Content Distribution System, Content Generating Method, And Content Generating Program
PCT/JP2021/016747 WO2021221046A1 (ja) 2020-04-30 2021-04-27 コンテンツ生成装置、コンテンツ配信システム、コンテンツ生成方法、および、コンテンツ生成プログラム
CN202180014290.3A CN115088266B (zh) 2020-04-30 2021-04-27 内容生成装置、内容分发系统、内容生成方法以及记录介质
JP2021082570A JP2021175199A (ja) 2020-04-30 2021-05-14 コンテンツ生成装置、コンテンツ配信システム、コンテンツ生成方法、および、コンテンツ生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020080551A JP6908756B1 (ja) 2020-04-30 2020-04-30 配信者端末、コンテンツ配信システム、コンテンツ生成方法、コンテンツ生成プログラム、および、記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021082570A Division JP2021175199A (ja) 2020-04-30 2021-05-14 コンテンツ生成装置、コンテンツ配信システム、コンテンツ生成方法、および、コンテンツ生成プログラム

Publications (2)

Publication Number Publication Date
JP6908756B1 JP6908756B1 (ja) 2021-07-28
JP2021175157A true JP2021175157A (ja) 2021-11-01

Family

ID=76967252

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020080551A Active JP6908756B1 (ja) 2020-04-30 2020-04-30 配信者端末、コンテンツ配信システム、コンテンツ生成方法、コンテンツ生成プログラム、および、記録媒体
JP2021082570A Pending JP2021175199A (ja) 2020-04-30 2021-05-14 コンテンツ生成装置、コンテンツ配信システム、コンテンツ生成方法、および、コンテンツ生成プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021082570A Pending JP2021175199A (ja) 2020-04-30 2021-05-14 コンテンツ生成装置、コンテンツ配信システム、コンテンツ生成方法、および、コンテンツ生成プログラム

Country Status (4)

Country Link
US (1) US20230142432A1 (ja)
JP (2) JP6908756B1 (ja)
CN (1) CN115088266B (ja)
WO (1) WO2021221046A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6900359B2 (ja) 2018-12-28 2021-07-07 株式会社ドワンゴ 画像送受信システム、データ送受信システム、送受信方法、コンピュータ・プログラム、画像送信システム、画像受信装置、送信システム、受信装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017195429A (ja) * 2016-04-18 2017-10-26 ルネサスエレクトロニクス株式会社 画像処理システム、画像処理方法及び画像送信装置
JP6305614B1 (ja) * 2017-09-04 2018-04-04 株式会社ドワンゴ コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム
JP6385538B1 (ja) * 2017-08-15 2018-09-05 株式会社ドワンゴ コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム
JP2019129328A (ja) * 2018-01-22 2019-08-01 西日本電信電話株式会社 高精細動画生成装置、高精細動画生成方法、およびプログラム
WO2019225793A1 (ko) * 2018-05-21 2019-11-28 주식회사 지디에프랩 Ai 영상학습 플랫폼 기반 vod 서비스 시스템

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4037318B2 (ja) * 2003-05-15 2008-01-23 富士フイルム株式会社 画像処理装置および方法並びにプログラム
JP4735375B2 (ja) * 2006-04-04 2011-07-27 株式会社日立製作所 画像処理装置及び動画像符号化方法。
US10979718B2 (en) * 2017-09-01 2021-04-13 Apple Inc. Machine learning video processing systems and methods
CN107610052A (zh) * 2017-09-22 2018-01-19 维沃移动通信有限公司 一种超分辨率重建方法及移动终端
JP2019067078A (ja) * 2017-09-29 2019-04-25 国立大学法人 筑波大学 画像処理方法、及び画像処理プログラム
US10721471B2 (en) * 2017-10-26 2020-07-21 Intel Corporation Deep learning based quantization parameter estimation for video encoding
JP2020005201A (ja) * 2018-06-29 2020-01-09 日本放送協会 送信装置及び受信装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017195429A (ja) * 2016-04-18 2017-10-26 ルネサスエレクトロニクス株式会社 画像処理システム、画像処理方法及び画像送信装置
JP6385538B1 (ja) * 2017-08-15 2018-09-05 株式会社ドワンゴ コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム
JP6305614B1 (ja) * 2017-09-04 2018-04-04 株式会社ドワンゴ コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム
JP2019129328A (ja) * 2018-01-22 2019-08-01 西日本電信電話株式会社 高精細動画生成装置、高精細動画生成方法、およびプログラム
WO2019225793A1 (ko) * 2018-05-21 2019-11-28 주식회사 지디에프랩 Ai 영상학습 플랫폼 기반 vod 서비스 시스템
JP2020524418A (ja) * 2018-05-21 2020-08-13 ジーディーエフラボ カンパニー リミテッド Ai映像学習プラットフォームベースのvodサービスシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHAO DONG ET AL.: "Image Super-Resolution Using Deep Convolutional Networks", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. Volume:38, Issue:2, JPN6020026004, 1 June 2015 (2015-06-01), pages 295 - 307, ISSN: 0004388972 *

Also Published As

Publication number Publication date
US20230142432A1 (en) 2023-05-11
CN115088266A (zh) 2022-09-20
JP6908756B1 (ja) 2021-07-28
WO2021221046A1 (ja) 2021-11-04
CN115088266B (zh) 2023-12-19
JP2021175199A (ja) 2021-11-01

Similar Documents

Publication Publication Date Title
Li et al. Fundamentals of multimedia
JP5903187B1 (ja) 映像コンテンツ自動生成システム
US8645832B2 (en) Methods and apparatus for interactive map-based analysis of digital video content
JP2001357008A (ja) コンテンツ検索配信装置およびコンテンツ検索配信方法
CN107980129A (zh) 用于重叠的媒体目录的全球推荐系统
US20100008639A1 (en) Media Generating System and Method
US20130073981A1 (en) Methods and apparatus for interactive network sharing of digital video content
US11748870B2 (en) Video quality measurement for virtual cameras in volumetric immersive media
KR20060025518A (ko) 디지털 비디오 컨텐트를 대화방식의 관점에서 저작하기위한 방법 및 장치
JP2018501693A (ja) 動画像を作成するための方法
US11792368B2 (en) System and method for improved content creation by means of combining content from multiple individual content capture devices
WO2021221046A1 (ja) コンテンツ生成装置、コンテンツ配信システム、コンテンツ生成方法、および、コンテンツ生成プログラム
WO2020137050A1 (ja) 画像送受信システム、データ送受信システム、送受信方法、コンピュータ・プログラム、画像送信システム、画像受信装置、送信システム、受信装置
CN110248195B (zh) 用于输出信息的方法和装置
CN113011909B (zh) 内容投放方法、装置、服务器及存储介质
CN113905254A (zh) 视频合成方法、装置、系统与可读存储介质
JP5880558B2 (ja) 映像処理システム、視聴者の嗜好判定方法、映像処理装置およびその制御方法と制御プログラム
CN117115713A (zh) 动态图像生成方法及其装置、设备、介质
CN116389849A (zh) 视频生成方法、装置、设备及存储介质
JP7336427B2 (ja) 画像送受信システム、データ送受信システム、送受信方法、コンピュータ・プログラム、画像送信システム、画像受信装置、送信システム、受信装置
CN113825018B (zh) 一种基于图像处理的视频处理管理平台
US11470404B2 (en) Consistent generation of media elements across media
Vayadande et al. Scaling Up Video-to-Audio Conversion: A High-Performance Architecture Approach
KR20210096868A (ko) 동영상의 프로그램화를 통한 동영상 제작 방법 및 시스템
Raposo PHOTO AND VIDEO PRODUCTION

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200430

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200430

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210514

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210514

C876 Explanation why request for accelerated appeal examination is justified

Free format text: JAPANESE INTERMEDIATE CODE: C876

Effective date: 20210514

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210524

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210701

R150 Certificate of patent or registration of utility model

Ref document number: 6908756

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250