JP6830634B1 - 情報処理方法、情報処理装置及びコンピュータプログラム - Google Patents

情報処理方法、情報処理装置及びコンピュータプログラム Download PDF

Info

Publication number
JP6830634B1
JP6830634B1 JP2020027209A JP2020027209A JP6830634B1 JP 6830634 B1 JP6830634 B1 JP 6830634B1 JP 2020027209 A JP2020027209 A JP 2020027209A JP 2020027209 A JP2020027209 A JP 2020027209A JP 6830634 B1 JP6830634 B1 JP 6830634B1
Authority
JP
Japan
Prior art keywords
moving image
image data
editing
information processing
server device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020027209A
Other languages
English (en)
Other versions
JP2021132328A (ja
Inventor
大資 玉城
大資 玉城
伸行 松下
伸行 松下
ヘーラト サマン
ヘーラト サマン
健一郎 金井
健一郎 金井
フェドトフ キリル
フェドトフ キリル
宏輝 藤原
宏輝 藤原
祐也 杉田
祐也 杉田
アブドゥルラーマン アブドゥルガニ
アブドゥルラーマン アブドゥルガニ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2020027209A priority Critical patent/JP6830634B1/ja
Application granted granted Critical
Publication of JP6830634B1 publication Critical patent/JP6830634B1/ja
Publication of JP2021132328A publication Critical patent/JP2021132328A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】動画像の編集を容易化することが期待できる情報処理方法、情報処理装置及びコンピュータプログラムを提供する。【解決手段】本実施の形態に係る情報処理方法は、情報処理装置が動画像データを生成する情報処理方法であって、前記情報処理装置が、動画像データを取得し、取得した動画像データの特徴を特定し、特定した特徴に応じて前記動画像データの編集処理を行う。また前記情報処理装置が、前記動画像データの中の同一時点で複数の特徴を特定し、特定した複数の特徴の組み合わせに応じて、前記動画像データに対して編集処理を行ってもよい。また前記情報処理装置が、前記動画像データから複数の部分動画像データを抽出し、抽出した前記部分動画像データに対して前記編集処理を行い、編集した部分動画像データを結合してもよい。【選択図】図7

Description

本発明は、動画像データに対する編集処理を行う情報処理方法、情報処理装置及びコンピュータプログラムに関する。
近年、動画像を撮影することができる機器が広く普及しており、多くのユーザが簡単に動画像の撮影を行うことができる。しかし、撮影された動画像データに対する編集処理はある程度の知識及び技術等が必要であり、一般のユーザにとって動画像の編集は敷居が高いものであった。
特許文献1においては、動画の撮像時又は再生時に撮像した操作者の動画からこの操作者の顔の表情を数値化して評価値を算出し、算出した評価値を元の動画と同じタイムラインで記録し、記録した評価値に基づいて元の動画の部分動画を順次抽出してダイジェストを生成する動画像処理装置が提案されている。
特開2014−112787号公報
しかしながら特許文献1に記載の動画像処理装置は、元の動画像から単に部分動画を抽出してダイジェストを生成するのみであり、ユーザによる動画像の編集の補助には不十分である。
本発明は、斯かる事情に鑑みてなされたものであって、その目的とするところは、動画像の編集を容易化することが期待できる情報処理方法、情報処理装置及びコンピュータプログラムを提供することにある。
一実施形態に係る情報処理方法は、情報処理装置が動画像データを生成する情報処理方法であって、前記情報処理装置が、施設に設置された一又は複数のカメラが撮影した動画像データを取得し、取得した動画像データから、登録されたユーザが映された複数の部分動画像データを抽出し、動画像データを入力として受け付けて当該動画像データに含まれるシーンの特徴を特定した情報を出力するよう機械学習がなされた学習モデルを用いて、抽出した部分動画像データを前記学習モデルへ入力して当該学習モデルが出力する情報を取得することで前記部分動画像データの特徴を特定し、前記情報に対応付けられた編集方法に基づいて前記部分動画像データの編集処理を行い、編集した部分動画像データを結合し、結合した動画像データを、登録された端末装置へ送信する。
一実施形態による場合は、動画像の編集を容易化することが期待できる。
本実施の形態に係る情報処理システムの概要を説明するための模式図である。 本実施の形態に係るサーバ装置の構成を示すブロック図である。 編集方法決定テーブルの一例を示す模式図である。 本実施の形態に係る端末装置の構成を示すブロック図である。 端末装置が表示する動画像再生画面の一例を示す模式図である。 本実施の形態に係る端末装置が行う処理の手順を示すフローチャートである。 サーバ装置が行う動画像データの編集処理を説明するための模式図である。 画像を重畳する編集処理の一例を説明するための模式図である。 本実施の形態においてサーバ装置が行う処理の手順を示すフローチャートである。 変形例1に係る端末装置が表示する編集設定画面の一例を示す模式図である。 変形例2に係る情報処理システムの構成を説明するための模式図である。
本発明の実施形態に係る情報処理システムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
<システム構成>
図1は、本実施の形態に係る情報処理システムの概要を説明するための模式図である。本実施の形態に係る情報処理システムは、動画像の編集サービスを提供するサーバ装置1と、このサービスを利用するユーザが所持するスマートフォン又はタブレット端末装置等の端末装置3とを備えて構成されている。サーバ装置1及び端末装置3は、携帯電話通信網、無線LAN(Local Area Network)及びインターネット等を含むネットワークNを介して通信を行うことができる。
例えばユーザは、端末装置3に搭載されたカメラにて動画像の撮影を行った後、撮影により得られた動画像データの自動編集を実施する指示を端末装置3へ与える。この指示に応じて端末装置3は、ネットワークNを介したサーバ装置1との通信を行うことにより、編集対象の動画像データをサーバ装置1へ送信する。サーバ装置1は、端末装置3から送信された動画像データを取得し、この動画像データに対して適宜の編集処理を行い、編集済みの動画像データを端末装置3へ返送する。端末装置3は、サーバ装置1から編集済みの動画像データを受信して記憶し、この動画像データの再生(表示)又はSNS(Social Networking Service)への投稿等の処理を行う。
図2は、本実施の形態に係るサーバ装置1の構成を示すブロック図である。本実施の形態に係るサーバ装置1は、処理部11、記憶部(ストレージ)12及び通信部(トランシーバ)13等を備えて構成されている。なお本実施の形態においては、1つのサーバ装置1にて処理が行われるものとして説明を行うが、複数のサーバ装置1が分散して処理を行ってもよい。
処理部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の演算処理装置、ROM(Read Only Memory)、及び、RAM(Random Access Memory)等を用いて構成されている。処理部11は、記憶部12に記憶されたサーバプログラム12aを読み出して実行することにより、動画像データの編集に係る種々の処理を行う。
記憶部12は、例えばハードディスク等の大容量の記憶装置を用いて構成されている。記憶部12は、処理部11が実行する各種のプログラム、及び、処理部11の処理に必要な各種のデータを記憶する。本実施の形態において記憶部12は、処理部11が実行するサーバプログラム12aと、編集処理に用いられる特徴特定モデル12b及び編集方法決定テーブル12cとを記憶している。
本実施の形態においてサーバプログラム12aは、メモリカード又は光ディスク等の記録媒体99に記録された態様で提供され、サーバ装置1は記録媒体99からサーバプログラム12aを読み出して記憶部12に記憶する。ただし、サーバプログラム12aは、例えばサーバ装置1の製造段階において記憶部12に書き込まれてもよい。また例えばサーバプログラム12aは、遠隔の他のサーバ装置等が配信するものをサーバ装置1が通信にて取得してもよい。例えばサーバプログラム12aは、記録媒体99に記録されたものを書込装置が読み出してサーバ装置1の記憶部12に書き込んでもよい。サーバプログラム12aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体99に記録された態様で提供されてもよい。
本実施の形態に係るサーバ装置1は、いわゆる人工知能を活用して動画像データの編集処理を行うものであり、編集処理に用いる特徴特定モデル12bを有している。特徴特定モデル12bは、予め機械学習がなされた学習済の学習モデルであり、例えばニューラルネットワーク又はSVM(Support Vector Machine)等の学習モデルが採用され得る。特徴特定モデル12bは、例えばサーバプログラム12aと共に記録媒体99を介して提供されてもよく、また例えばサーバプログラム12aとは別に他のサーバ装置等により配信されてもよく、どのような態様で提供されてもよい。本実施の形態に係るサーバ装置1は、予め機械学習がなされた特徴特定モデル12bを取得して記憶部12に記憶している。また本実施の形態においては、特徴特定モデル12bを機械学習により生成する処理は、サーバ装置1とは別の装置にて行われるものとするが、これに限るものではなく、サーバ装置1が機械学習を行ってもよい。また特徴特定モデル12bをサーバ装置1が備えていなくてもよく、特徴特定モデル12bを備える他の装置に対してサーバ装置1がこの特徴特定モデル12bを用いる処理を依頼し、他の装置からサーバ装置1が処理結果を取得してもよい。
特徴特定モデル12bは、動画像データの入力に対して、この動画像データに含まれるシーンの特徴を特定した情報を出力する学習モデルである。特徴特定モデル12bは、例えばCNN(Convolutional Neural Network)又はRNN(Recurrent Neural Network)等の種々の学習モデルが採用され得る。本実施の形態において特徴特定モデル12bが入力を受け付けるデータは動画像データとするが、動画像データに加えて例えばGPS(Global Positioning System)による位置情報又は時刻情報等の種々の情報が入力されてもよい。特徴特定モデル12bが出力する情報には、例えば動画像に写っているもの(人物、自動車、自転車、建物、木、動物及び植物等)が何であるかを示す情報、写っているものの属性(表情、年齢、性別及び動作等)を示す情報、動画像が撮影された場所(屋内、屋外、海、山、森及び都市)がどこであるかを示す情報、動画像が撮影された時間帯(朝、昼、夕方又は夜等)を示す情報、及び、動画像が撮影された際の天候(晴、雨、曇又は雪等)を示す情報等の種々の情報が含まれ得る。なお特徴特定モデル12bは、1つの学習モデルとして実現されるのではなく、例えば動画像に写っているものを検出する学習モデル、写っているものの属性を検出する学習モデル等のように、複数の学習モデルの集合体として実現されてよい。
編集方法決定テーブル12cは、動画像データに対して特定された特徴に係る一又は複数の情報であるシーン情報と、動画像データに対して行う編集方法とが対応付けて記憶されたテーブルである。図3は、編集方法決定テーブル12cの一例を示す模式図である。図示の編集方法決定テーブル12cでは、動画像データに関する天候、場所、時間帯、子供の有無、大人の有無及び自動車の有無等の特徴がシーン情報に含まれる特徴として例示されている。また図示の編集方法決定テーブル12cでは、これらのシーン情報の特徴の組み合わせに対して、編集方法として方法1及び方法2の2つが予め定められている。
本例の編集方法決定テーブル12cには、シーン情報として天候が晴、場所が屋外、時間帯が昼、子供が写っており性別が男且つ笑顔であるという特徴が動画像データから特定されている場合、笑いのエフェクト画像を追加する編集、及び、明るいBGMを追加する編集を行うことが編集方法として定められている。またシーン情報として場所が屋内、大人が写っており怒りを表しているという特徴が特定されている場合、怒りのエフェクト画像を追加する編集、及び、動画像に映された人物が発する声を変更する編集を行うことが編集方法として定められている。またシーン情報として場所が屋内、子供がハイハイ(四つ這い、ずり這い、いざり這い)しているという特徴が特定されている場合、キャラクタ画像を追加する編集を行うことが編集方法として定められている。また天候が雨、場所が屋外、時間帯が夕方、自動車が写っており走行しているという特徴が特定されている場合、動画をスロー再生する編集を行うことが編集方法として定められている。
なお上記の編集方法決定テーブル12cの内容は一例であって、これに限るものではない。シーン情報には、天候、場所、時間帯、子供の有無、大人の有無及び自動車の有無以外の種々の特徴が含まれ得る。編集方法は、シーン情報における1つの組み合わせに対して2つではなく、1つ又は3つ以上であってよい。
通信部13は、携帯電話通信網及びインターネット等を含むネットワークNを介して、種々の装置との間で通信を行う。本実施の形態において通信部13は、ネットワークNを介して、一又は複数の端末装置3との間で通信を行う。通信部13は、処理部11から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部11へ与える。
なお記憶部12は、サーバ装置1に接続された外部記憶装置であってよい。またサーバ装置1は、複数のコンピュータを含んで構成されるマルチコンピュータであってよく、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。またサーバ装置1は、上記の構成に限定されず、例えば可搬型の記憶媒体に記憶された情報を読み取る読取部、操作入力を受け付ける入力部、又は、画像を表示する表示部等を含んでもよい。
また本実施の形態に係るサーバ装置1の処理部11には、記憶部12に記憶されたサーバプログラム12aを処理部11が読み出して実行することにより、動画像取得部11a、部分動画像抽出部11b、特徴特定部11c、編集方法決定部11d、編集処理部11e、結合処理部11f及び編集済動画像送信部11g等が、ソフトウェア的な機能部として処理部11に実現される。
動画像取得部11aは、自動編集の対象となる動画像データを端末装置3から取得する処理を行う。動画像取得部11aは、例えば端末装置3から編集処理を実施する依頼と共に送信される動画像データを通信部13にて受信し、受信した動画像データを記憶部12の空き領域等に記憶することで、動画像データを取得する。また動画像取得部11aは、動画像データと共に、例えばこの動画像データが撮影された日時又は場所等の情報を取得してもよい。撮影日時の情報は、例えば端末装置3のカレンダー機能及び時計機能等に基づいて動画像データに付され得る。撮影場所の情報は、例えば端末装置3が受信したGPS信号に基づいて特定され、動画像データに付され得る。
部分動画像抽出部11bは、編集対象の動画像データから一又は複数の部分動画像データを抽出する処理を行う。部分動画像抽出部11bは、いわゆるダイジェストを生成するための動画像抽出処理を行う。部分動画像抽出部11bは、例えば特定の人もしくは物が映されている部分、写されている人の動きが大きい部分、写されている人が笑顔である部分、写されている人数が多い部分、場面が切り替わる部分、又は、音声の音量が大きい部分等のように、所定の特徴を有する部分画像を動画像データの全体から抽出する。なお、部分動画像抽出部11bによる部分動画像データの抽出処理は、既存の技術であるため、詳細な説明を省略する。例えば部分動画像抽出部11bは、特許文献1に記載の動画像処理装置と同様の技術により、動画像の撮像時又は再生時に撮像した操作者の顔の表情を数値化して評価値を算出し、算出した評価値に基づいて部分動画像データを抽出してもよい。また例えば部分動画像抽出部11bは、特徴特定モデル12bにより動画像データに含まれる一又は複数のシーンの特徴を特定し、所定の特徴を有するシーンを部分動画像データとして抽出することができる。
特徴特定部11cは、記憶部12に記憶された特徴特定モデル12bを用い、部分動画像抽出部11bが抽出した一又は複数の部分動画像データに対して、この部分動画像データに含まれるシーンの特徴を特定する処理を行う。特徴特定部11cは、抽出された部分動画像データを特徴特定モデル12bへ入力し、特徴特定モデル12bが出力する特徴の特定結果を取得する。特徴特定部11cは、部分動画像データに対して特定された一又は複数の特徴をまとめたシーン情報を作成する。また特徴特定部11cは、部分動画像データの撮影日時及び撮影場所等の情報を特徴特定モデル12bへ入力する構成であってもよい。
編集方法決定部11dは、特徴特定部11cが特定した特徴に関するシーン情報と、記憶部12に記憶された編集方法決定テーブル12cとに基づいて、部分動画像データに対して行う編集処理の方法を決定する処理を行う。編集方法決定部11dは、シーン情報にて特定された一又は複数の特徴に基づいて編集方法決定テーブル12cを参照し、特定された特徴に対応付けられた編集方法を取得することによって、編集方法を決定する。
なお本実施の形態において編集方法決定部11dは、編集方法決定テーブル12cを用いて編集方法を決定する構成とするが、これに限るものではなく、例えば動画像データやシーン情報等の入力に対して適した編集方法を出力するよう予め機械学習がなされた学習モデルを用いて編集方法を決定してもよい。編集方法の決定に学習モデルを用いる構成の場合、例えば編集後の動画像データを視聴したユーザから編集方法に対する評価を受け付けて、受け付けた評価に基づいて学習モデルの再学習処理を行うことができる。
編集処理部11eは、編集方法決定部11dが決定した編集方法に従って、部分動画像データに対する編集処理を行う。本実施の形態において編集処理部11eは、例えば装飾画像、キャラクタ画像又はエフェクト画像等の種々の画像を動画像に重畳する編集処理を行う。また例えば編集処理部11eは、動画像に含まれるシーンの時間帯を変更する(昼間から夜間へ、夜間から昼間へ、又は、昼間から夕方へ等)編集処理を行う。また例えば編集処理部11eは、動画像のスタイルを変更する(通常スタイルの動画から絵画風又はアニメ風等へ)編集処理を行う。また例えば編集処理部11eは、動画像データに対して効果音又は背景音を追加する編集処理を行う。また例えば編集処理部11eは、動画像に映された人が話す音声について声色又は声音等を変更する処理を行う。また例えば編集処理部11eは、動画像データの再生速度を変更する(スロー再生、コマ送り再生、倍速再生又は早送り再生等)編集処理を行う。上記の編集処理は一例であって、編集処理部11eはこれら以外の様々な編集処理を行う構成であってよい。
結合処理部11fは、部分動画像抽出部11bにて抽出されて編集処理部11eにて編集処理がなされた複数の部分動画像データを結合することによって、ダイジェスト動画像データを生成する処理を行う。
編集済動画像送信部11gは、結合処理部11fが部分動画像データを結合して生成したダイジェスト動画像データを、編集処理の依頼元である端末装置3へ送信する処理を行う。
図4は、本実施の形態に係る端末装置3の構成を示すブロック図である。本実施の形態に係る端末装置3は、処理部31、記憶部(ストレージ)32、通信部(トランシーバ)33、表示部(ディスプレイ)34、操作部35及びカメラ36等を備えて構成されている。端末装置3は、カメラ36による動画像の撮影機能を搭載した例えばスマートフォン、タブレット型端末装置又はパーソナルコンピュータ等の情報処理装置を用いて構成され得る。また端末装置3は、動画像を撮影するビデオカメラ等の撮影装置であってもよい。
処理部31は、CPU又はMPU等の演算処理装置、ROM及び等を用いて構成されている。処理部31は、記憶部32に記憶されたプログラム32aを読み出して実行することにより、カメラ36による動画像の撮影処理及び撮影した動画像の表示部34への表示処理等の種々の処理を行う。
記憶部32は、例えばフラッシュメモリ等の不揮発性のメモリ素子を用いて構成されている。記憶部32は、処理部31が実行する各種のプログラム、及び、処理部31の処理に必要な各種のデータを記憶する。本実施の形態において記憶部32は、処理部31が実行するプログラム32aを記憶している。本実施の形態においてプログラム32aは遠隔のサーバ装置等により配信され、これを端末装置3が通信にて取得し、記憶部32に記憶する。ただしプログラム32aは、例えば端末装置3の製造段階において記憶部32に書き込まれてもよい。例えばプログラム32aは、メモリカード又は光ディスク等の記録媒体98に記録されたプログラム32aを端末装置3が読み出して記憶部32に記憶してもよい。例えばプログラム32aは、記録媒体98に記録されたものを書込装置が読み出して端末装置3の記憶部32に書き込んでもよい。プログラム32aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体98に記録された態様で提供されてもよい。
通信部33は、携帯電話通信網及びインターネット等を含むネットワークNを介して、種々の装置との間で通信を行う。本実施の形態において通信部33は、ネットワークNを介して、サーバ装置1との間で通信を行う。通信部33は、処理部31から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部31へ与える。
表示部34は、液晶ディスプレイ等を用いて構成されており、処理部31の処理に基づいて種々の画像及び文字等を表示する。
操作部35は、ユーザの操作を受け付け、受け付けた操作を処理部31へ通知する。例えば操作部35は、機械式のボタン又は表示部34の表面に設けられたタッチパネル等の入力デバイスによりユーザの操作を受け付ける。また例えば操作部35は、マウス及びキーボード等の入力デバイスであってよく、これらの入力デバイスは端末装置3に対して取り外すことが可能な構成であってもよい。
カメラ36は、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を用いて構成されている。カメラ36は、例えば端末装置3の筐体の適所に配置されている。カメラ36は、撮像素子により撮影した画像を処理部11へ与える。本実施の形態においてカメラ36は、動画像を撮影することができる。なお本実施の形態においては、端末装置3がカメラ36を備え、カメラ36にて撮影された動画像データに対して編集処理が行われるものとするが、これに限るものではない。例えばデジタルビデオカメラ等の他の装置で撮影された動画像データを端末装置3が取得したものが編集処理の対象とされてもよく、インターネット等において公開されている動画像データを端末装置3が取得したものが編集対象とされてもよい。
また本実施の形態に係る端末装置3は、記憶部32に記憶されたプログラム32aを処理部31が読み出して実行することにより、撮影処理部31a、表示処理部31b、編集指示受付部31c、動画像送信部31d及び動画像受信部31e等がソフトウェア的な機能部として処理部31に実現される。なおプログラム32aは、本実施の形態に係る情報処理システムに専用のプログラムであってもよく、インターネットブラウザ又はウェブブラウザ等の汎用のプログラムであってもよい。プログラム32aは、例えば動画像を他のユーザと共有するSNS(Social Networking Service)のアプリケーションプログラムであってよい。
撮影処理部31aは、カメラ36による動画像の撮影に係る処理を行う。撮影処理部31aは、例えばカメラ36のシャッタースピード、フレームレート、ISO感度、露出及び絞り値等の制御を行う。また撮影処理部31aは、カメラ36が撮影した動画像のデータを取得し、例えばMP4又はAVI(Audio Video Interleave)等の適宜のファイル形式の動画像データとして記憶部32に記憶する。
表示処理部31bは、記憶部32に記憶された動画像データを再生して表示部34に表示する処理を行う。本実施の形態において表示処理部31bが表示する動画像データには、カメラ36によって撮影された動画像データと、サーバ装置1によって編集処理がなされた動画像データとが含まれる。また表示処理部31bは、ユーザが本システムを利用するためのメニュー画面、ホーム画面又は設定画面等の表示を行う。これらの画面表示に必要なデータは、プログラム32aと共に記憶部32に記憶されている。
編集指示受付部31cは、操作部35に対してなされた操作に基づいて、動画像データに対してサーバ装置1による自動的な編集処理を実施する指示をユーザから受け付ける処理を行う。例えば編集指示受付部31cは、表示処理部31bが動画像データを再生して表示する画面に設けられたボタン又はアイコン等に対するタッチ操作、タップ操作又はクリック操作等に応じて、動画像データに対する編集処理の実施指示を受け付ける。また例えば、表示処理部31bが撮影済みの動画像データのファイル名又はサムネイル画像等の一覧表示を行い、編集指示受付部31cは、一覧表示された動画像データから編集処理の対象とする一又は複数の動画像データの選択操作を受け付けることで、選択された動画像データに対する編集処理の実施指示を受け付ける。なお編集指示受付部31cによる編集指示の受け付け方法は一例であって、これに限るものではない。
動画像送信部31dは、編集指示受付部31cが編集指示を受け付けた場合に、編集対象の動画像データを記憶部32から読み出し、読み出した動画像データを通信部33にてサーバ装置1へ送信する処理を行う。動画像送信部31dは、編集処理の実施を依頼するメッセージ等と共に、動画像データをサーバ装置1へ送信する。またこのときに動画像送信部31dは、動画像データの自動編集に対する条件又は設定等の情報をサーバ装置1へ送信してもよい。
動画像受信部31eは、サーバ装置1が編集処理を行った編集済の動画像データを通信部33にて受信する処理を行う。動画像受信部31eは、受信した動画像データを記憶部32に記憶する。なお本実施の形態においては、サーバ装置1は編集した動画像データを端末装置3へ送信し、端末装置3は編集済の動画像データを記憶部32に記憶する構成とするが、これに限るものではない。例えば、編集済みの動画像データをサーバ装置1が記憶しておき、端末装置3は編集済みの動画像データを再生して表示する場合に、その都度、サーバ装置1から編集済の動画像データを取得して再生する、いわゆるストリーミング再生の構成が採用されてもよい。
<編集指示受付処理>
図5は、端末装置3が表示する動画像再生画面の一例を示す模式図である。本実施の形態に係る端末装置3は、動画像再生画面を表示部34に表示して、動画像データの再生及び表示を行う。例えば端末装置3は、動画像再生画面の最上部に、再生する動画像のタイトルを示す「タイトル:小学校の運動会」等の文字列を表示する。動画像のタイトルは、例えばユーザが予め付したものであってもよく、また例えば動画像データに付されたファイル名等であってもよい。端末装置3は、タイトルの文字列の下方に設けられた矩形の再生領域に、動画像を再生して表示する。再生領域の下部には、再生、停止及び早送り等を制御するためのアイコン等が並べて設けられており、端末装置3はこれらのアイコンに対するユーザの操作に応じて動画像の再生を制御する。
また操作用のアイコンの下方には動画像データに関する情報を表示する情報表示領域が設けられており、端末装置3は、例えば動画像データが撮影された日時又は場所等の情報をこの領域に表示する。本実施の形態において、動画像再生画面の情報表示領域の下部には、「自動編集」のラベルが付されたアイコン101と、「動画共有」のラベルが付されたアイコン102とが並べて設けられている。アイコン101は、動画像再生画面に表示されている動画像に対するユーザからの自動編集の指示を受け付けるためのものである。アイコン101に対するタッチ操作、タップ操作又はクリック操作等を受け付けた場合、端末装置3は、動画像データをサーバ装置1へ送信して、この動画像データの自動編集を依頼する。アイコン102は、動画像データを例えば動画像共有サイト又はSNS等へ投稿し、一又は複数の他ユーザにこの動画像データを公開するための操作を受け付ける。動画像データの共有については、既存の技術であるため、詳細な説明は省略する。
端末装置3からの編集処理の依頼に応じてサーバ装置1は、端末装置3から送信される動画像データを取得して、この動画像データに対する編集処理を自動的に行う。本実施の形態においてサーバ装置1は、元の動画像データから適宜のシーンを抽出し、抽出した各シーンに適宜の画像処理及び音声処理等を施して結合することによりダイジェスト動画像を作成する編集処理を自動的に行う。サーバ装置1は、編集済みの動画像データを、依頼元の端末装置3へ送信する。
アイコン101に対する操作に応じて動画像データをサーバ装置1へ送信した端末装置3は、例えば「しばらくお待ちください」等のメッセージを動画像再生画面に重畳して表示し、サーバ装置1から送信される編集済みの動画像データの受信を待機する。編集済みの動画像データを受信した場合、端末装置3は、編集前の動画像データに代えて、サーバ装置1から受信した編集済みの動画像データを再生領域にて再生して表示する。
また編集済みの動画像データを視聴したユーザは、例えば動画像データに対して行われた編集処理の内容に不満等を有する場合、自動編集のアイコン101に対する操作を再び行うことで、動画像データに対する再編集処理を依頼することが可能であってもよい。サーバ装置1は、端末装置3からの再編集の依頼に応じて、動画像データに対して以前とは異なる内容の編集処理を施して、端末装置3へ送信することができる。
図6は、本実施の形態に係る端末装置3が行う処理の手順を示すフローチャートである。本実施の形態に係る端末装置3の処理部31の表示処理部31bは、例えば記憶部32に記憶された一の動画像データの選択操作等を受け付けた場合に、選択された動画像データを再生すべく、図5に示した構成の動画像再生画面を表示部34に表示する(ステップS1)。表示処理部31bは、例えば動画像再生画面に設けられた再生アイコン等に対する操作を受け付けたか否かに基づいて、再生操作がなされたか否かを判定する(ステップS2)。再生操作がなされた場合(S2:YES)、表示処理部31bは、記憶部32から動画像データを読み出し、読み出した動画像データを再生して表示部34に表示する再生処理を行い(ステップS3)、処理を終了する。
再生操作がなされていない場合(S2:NO)、処理部31の編集指示受付部31cは、動画像再生画面に設けられた自動編集のアイコン101に対する操作がなされたか否かに基づいて、ユーザから動画像データの自動編集の指示が与えられたか否かを判定する(ステップS4)。自動編集の指示が与えられていない場合(S4:NO)、処理部31は、ステップS1へ処理を戻す。
自動編集の指示が与えられた場合(S4:YES)、処理部31の動画像送信部31dは、編集対象の動画像データを記憶部32から読み出して、読み出した動画像データをサーバ装置1へ送信する(ステップS5)。その後、処理部31の動画像受信部31eは、サーバ装置1が送信する編集済みの動画像データを受信したか否かを判定する(ステップS6)。編集済みの動画像データを受信していない場合(S6:NO)、動画像受信部31eは、サーバ装置1から動画像データを受信するまで待機する。サーバ装置1から編集済みの動画像データを動画像受信部31eが受信した場合(S6:YES)、表示処理部31bは、受信した編集済みの動画像データを再生して表示部34に表示する再生処理を行い(ステップS7)、処理を終了する。
<編集処理>
図7は、サーバ装置1が行う動画像データの編集処理を説明するための模式図である。本実施の形態に係るサーバ装置1は、端末装置3から編集依頼と共に送信される動画像データに対して編集処理を行い、ダイジェスト動画像データを生成する処理を行う。本図においては、端末装置3からサーバ装置1が取得した動画像データを全体動画像として最上部に図示している。
まず本実施の形態に係るサーバ装置1は、この全体動画像から一又は複数の部分動画像を抽出する処理を行う。なお、全体動画像から部分動画像を抽出してダイジェスト動画像を生成する技術は既存のものであるため、サーバ装置1が行う部分動画像の抽出方法の詳細な説明は省略する。サーバ装置1は、どのような方法で全体動画像から部分動画像を抽出してもよい。図示の例では、サーバ装置1は、全体動画像から3つの部分動画像を抽出している。
例えばサーバ装置1は、全体動画像の中で笑顔の人が映されている部分、笑顔の人がより多く映されている部分を抽出することができる。また例えばサーバ装置1は、特定の人又は物が映されている部分を抽出することができる。また例えばサーバ装置1は、全体動画像の中に映されている人又は物等の動作又は変化等が大きい部分を抽出することができ、動作又は変化等が小さい部分を抽出してもよい。また例えばサーバ装置1は、動画像に映されている人の会話の音量が閾値を超えた部分を抽出することができる。上記の部分動画像の抽出方法は一例であって、これに限るものではない。
次いでサーバ装置1は、抽出した部分動画像毎に、映されているシーンの特徴を特定する処理を行う。本実施の形態においてサーバ装置1は、記憶部32に記憶した特徴特定モデル12bに部分動画像のデータを入力し、この部分動画像データに含まれるシーンの特徴を特定した出力情報を特徴特定モデル12bから取得する。図示の例では、部分動画像に対して天候、撮影場所、時間帯、自動車の有無及び状態、人物1(子供且つ男)の有無及び状態、並びに、人物2(大人且つ女)の有無及び状態等の特徴が特定されている。また自動車に関しては走行しているか又は停車しているかが特徴として特定され、人物1に関しては笑顔であるか否かが特徴として特定され、人物2に関しては話しているか否かが特徴として特定されている。なお図示の特徴は一例であって、これに限るものではなく、動画像データからはこれら以外の種々の特徴が特定されてよい。例えば動画像データに自転車、建物、木、植物又は動物等が映されているか否かを特徴として特定としてもよく、映っている人又は物の属性として表情、年齢、性別又は動作等の種類を特徴として特定してもよい。
特徴特定モデル12bには、例えば動画像データを構成する複数のフレームが時系列で入力される。特徴特定モデル12bは、時系列で入力される各フレームについて上記の特徴を特定する。特徴特定モデル12bが出力する情報に基づいてサーバ装置1は、動画像データに対して特定された時系列の特徴の情報を取得することができる。サーバ装置1は、動画像データを構成するフレーム毎に特徴を特定してもよく、所定数のフレームの集まり毎に特徴を特定してもよく、動画像データの再生時間において1秒等の所定時間毎に特徴を特定してもよい。いずれにしても本実施の形態に係るサーバ装置1が特定する特徴は、時間の経過に従って変化し得る時系列の特徴である。
サーバ装置1は、特徴特定モデル12bとして、例えば動画像データの入力に対して、この動画像データに映されているシーンの天候が晴、曇、雨及び雪等のいずれであるかを分類する学習モデルを用いることができる。この特徴特定モデル12bは、例えば動画像データと天候のラベルとが対応付けられた教師データを用いて予め機械学習がなされることで生成される。またサーバ装置1は、特徴特定モデル12bとして、例えば動画像データの入力に対して、この動画像データに映されているシーンの撮影場所が屋内又は屋外のいずれであるかを分類する学習モデルを用いることができる。またサーバ装置1は、例えば動画像データの入力に対して、この動画像データに映されているシーンの時間帯が朝、昼間、夕方又は夜間のいずれであるかを分類する学習モデルを用いることができる。
またサーバ装置1は、特徴特定モデル12bとして、例えば動画像データの入力に対して、この動画像データに自動車が映されているか否か、写されている自動車の位置、及び、写されている自動車の属性として走行しているか又は停車しているか等を特定する学習モデルを用いることができる。図示の例では、部分動画像1において停車している自動車が映されている期間が特定されている。サーバ装置1は、特徴特定モデル12bから時系列の特徴を取得することによって、部分動画像1に自動車が映されているか否かのみでなく、部分動画像1に自動車が映されている期間を特定することができる。
同様にサーバ装置1は、特徴特定モデル12bとして、例えば動画像データの入力に対して、この動画像データに人が映されているか否か、写されている人の位置、並びに、写されている人の属性として表情、年齢及び性別等を特定する学習モデルを用いることができる。図示の例では、部分動画像1において子供の男性が映されている期間が特定され、更にこの子供の表情が笑顔である期間が特定されている。また図示の例では、部分動画像1において大人の女性が映されている期間が特定され、更にこの女性が話している期間が特定されている。
サーバ装置1は、上記のような複数の特徴を動画像データから特定する複数の学習モデルを、記憶部32に特徴特定モデル12bとして記憶している。サーバ装置1は、これら複数の学習モデルに対してそれぞれ動画像データを入力し、各学習モデルが出力する情報を取得することによって、動画像データから複数の特徴を特定することができる。ただし特徴特定モデル12bは、これら複数の特徴を出力する1つの学習モデルとして生成されてもよい。
各部分動画像について時系列の特徴を特定したサーバ装置1は、特定した特徴に基づいて記憶部32の編集方法決定テーブル12cを参照することによって、各部分動画像に対して行う編集処理を決定する。サーバ装置1は、特定された部分動画像についての時系列の特徴の組み合わせに合致する組み合わせを、編集方法決定テーブル12cにシーン情報として定められた複数の組み合わせの中から検索する。部分動画像から特定した特徴の組み合わせに合致する組み合わせが編集方法決定テーブル12cに存在する場合、サーバ装置1は、この組み合わせに対応付けられた編集方法を編集方法決定テーブル12cから取得する。
例えば、図7に示す例では、天候が晴、撮影場所が屋外、時間帯が昼間、且つ、子供の男性が笑顔という特徴の組み合わせが特定されるタイミングが存在している。これらの特徴の組み合わせは、図3に示す編集方法決定テーブル12cの1番目に存在しており、サーバ装置1は、対応する編集方法として「笑いエフェクト画像追加」及び「明るいBGM」の2種を編集方法決定テーブル12cから取得することができる。
サーバ装置1は、部分動画像に対して時系列に特定した複数の特徴の組み合わせに対して、時系列に編集方法を編集方法決定テーブル12cから取得して、時系列に編集方法を決定する。例えば、部分動画像のフレーム毎に特徴が特定されている場合、サーバ装置1は、フレーム毎に編集方法を決定することができる。ただしサーバ装置1は、フレーム毎に特徴が特定されている場合であっても、例えば10フレーム毎又は100フレーム毎等の所定フレーム毎に編集方法を決定してもよく、また例えば動画像の再生時間の1秒毎又は10秒毎等の所定時間毎に編集方法を決定してもよい。また例えばサーバ装置1は、部分動画像において最も長い時間に亘って現れる特徴の組み合わせを1つ又は複数選択して代表の特徴とし、選択した代表の特徴に基づいてこの部分動画像に対する編集方法を決定してもよい。
全体動画像から抽出した全ての部分動画像について編集方法を決定したサーバ装置1は、決定した編集方法による部分動画像の編集処理を行う。本実施の形態においてサーバ装置1は、例えば以下の編集処理を行うことができる。ただし以下に列挙する編集処理は一例であって、サーバ装置1はこれら以外の様々な編集処理を行ってよい。
・装飾画像、キャラクタ画像又はエフェクト画像等の画像を重畳する編集処理
・動画像に含まれるシーンの時間帯を変更する編集処理
・動画像のスタイルを変更する編集処理
・効果音又は背景音を追加する編集処理
・音声について声色又は声音等を変更する編集処理
・再生速度を変更する編集処理
図8は、画像を重畳する編集処理の一例を説明するための模式図である。画像を重畳する編集処理において、サーバ装置1は、例えば動画像に映された人に宇宙服の装飾画像を重畳することで、登場人物を宇宙飛行士に変身させることができる。また例えばサーバ装置1は、動画像に映された人の顔に眼鏡又はサングラスの装飾画像を重畳することで、登場人物を装飾することができる。また例えばサーバ装置1は、動画像に映された人に衣服の装飾画像を重畳することで、登場人物の服装を変更することができる。また例えばサーバ装置1は、動画像に映された赤ん坊の近くにひよこのキャラクタ画像を重畳することができる。また例えばサーバ装置1は、動画像に映されたサッカー選手の足元に存在するサッカーボールに対してエフェクト画像を重畳することができる。
サーバ装置1が動画像に重畳したこれらの画像は、動画像の再生に伴ってアニメーションにより動いてよい。サーバ装置1が重畳するこれらの画像のデータは、記憶部12に予め記憶されている。予め記憶された多数の画像のいずれを重畳するかは、例えば編集方法決定テーブル12cに定められていてもよく、また例えば特定された特定の特徴に対して予め紐付けられた画像を重畳してもよく、また例えば乱数に基づいて重畳する画像を選択してもよく、これら以外の種々の方法で重畳する画像を決定してよい。サーバ装置1は、重畳する画像を、元の動画像の適宜の位置に重畳する画像処理を行う。このときにサーバ装置1は、例えば動画像中での人又は物等の位置の検出、人の顔の検出、人の姿勢の検出、人又は物の移動方向又は移動速度の検出等を行って、重畳する画像の位置及び向き等を決定することができる。
また、サーバ装置1は、例えば元の動画像の色相、彩度、明度等を変更する画像処理を施すことによって、動画像に含まれるシーンの時間帯を変更することができる。これによりサーバ装置1は、例えば昼間から夕方又は夜間へ、夜間から昼間又は夕方へ、夕方から昼間又は夜間へ等の時間帯を変更する画像処理を行うことができる。
また、サーバ装置1は、動画像のスタイルを変更する編集処理を、いわゆる画風変換の学習モデルを利用して行うことができる。既存の技術であるため詳細な説明は省略するが、例えば画風変換の学習モデルは、入力画像に対してスタイル(画風)を変換した変換画像を出力するモデルであり、入力画像及びスタイル画像に近い変換画像を出力するように予め機械学習がなされる。学習モデルは変換するスタイル毎に生成され、サーバ装置1は、複数の画風変換の学習モデルを記憶部12に記憶して利用することができる。変換可能な複数のスタイルのうち、いずれのスタイルへ変換するかは、例えば編集方法決定テーブル12cに定められていてもよく、また例えば特定された特定の特徴に対して予め紐付けられたスタイルを採用してもよく、また例えば乱数に基づいてスタイルを決定してもよく、これら以外の種々の方法でスタイルを決定してよい。これらによりサーバ装置1は、例えば撮影された通常スタイルの動画像を、絵画風又はアニメ風等のスタイルに変更することができる。
また、サーバ装置1は、動画像に効果音又は背景音を追加する編集処理を行うことができ、追加する効果音又は背景音のデータは記憶部12に予め記憶されている。サーバ装置1は、例えば編集方法決定テーブル12cにて定められた効果音又は背景音に対応するデータを記憶部12から読み出して、この効果音又は背景音を動画像データに追加する処理を行う。
また、サーバ装置1は、動画像に映された人又は動物等が発した音声の声色又は声音等を変更する、例えば男性の声を女性の声に変換する又は人の声を特定のアニメーションキャラクターの声に変換する等の編集処理を行うことができる。サーバ装置1は、例えば動画像から人が発した音声を抽出し、抽出した音声の周波数変換等の処理を行うことによって、声色又は声音を変更する。
また、サーバ装置1は、動画像データの再生速度を変更する、例えばスロー再生、コマ送り再生、倍速再生又は早送り再生等の速度変更の処理を行う。これら複数の速度変更の方法うち、いずれの方法で速度変更を行うかは、例えば編集方法決定テーブル12cに定められていてもよく、また例えば特定された特定の特徴に対して予め紐付けられた方法を採用してもよく、また例えば乱数に基づいて速度変更の方法を決定してもよく、これら以外の種々の方法で速度変更の方法を決定してよい
なお本実施の形態においてサーバ装置1は、画像の重畳、時間帯の変更、効果音又は背景音の追加、声色又は声音の変更、再生速度の変更等の編集処理について、予め定められた方法(ルール)に従って画像処理又は音声処理等を行うことにより、動画像を編集するものとするが、これに限るものではない。サーバ装置1は、これらの編集処理についても、スタイル変更の編集処理と同様に、学習済の学習モデルを用いて編集処理を行ってよい。
全ての部分動画像に対して編集処理を行ったサーバ装置1は、複数の部分動画像を結合して1つの動画像データを生成する。これにより生成された動画像データが、編集済みのダイジェスト動画像データとして、サーバ装置1から編集依頼元の端末装置3へ送信される。
なおサーバ装置1は、編集済みの動画像データを端末装置3へ送信した後に、この端末装置3から再編集の依頼を受け付けてもよい。再編集の依頼を受け付けたサーバ装置1は、例えば未編集の全体動画像のデータから編集処理を再度行ってもよく、編集済みのダイジェスト動画像データに対して編集内容の変更、追加又は削除等を行ってもよい。サーバ装置1は、例えば編集方法決定テーブル12cにて決定される編集方法をランダムに別の編集方法へ変更してもよい。また例えば、編集方法決定テーブル12cに2回目の編集方法、3回目の編集方法…のように複数の編集方法を記憶しておき、サーバ装置1が編集方法決定テーブル12cにて定められた複数の編集方法を順番に実施してもよい。また例えばサーバ装置1は、前回の編集方法と再編集で行う編集方法とを対応付けたテーブルを予め記憶しておき、このテーブルを用いて再編集の編集方法を決定してもよい。サーバ装置1は、再編集の編集方法をどのように決定してもよい。
図9は、本実施の形態においてサーバ装置1が行う処理の手順を示すフローチャートである。本実施の形態に係るサーバ装置1の処理部11は、端末装置3からの依頼に応じて本処理を開始する。まず処理部11の動画像取得部11aは、端末装置3から編集処理を実施する依頼と共に送信される動画像データを、編集処理の対象とする全体動画像のデータとして取得する(ステップS11)。動画像取得部11aが取得した全体動画像のデータは、例えば記憶部12に一時的に記憶される。
次いで処理部11の部分動画像抽出部11bは、ステップS11にて取得した全体動画像のデータから一又は複数の部分動画像のデータを抽出する(ステップS12)。処理部11の特徴特定部11cは、記憶部12に記憶された特徴特定モデル12bを用いて、ステップS12にて抽出された各部分動画像のデータについて時系列の特徴を特定する処理を行う(ステップS13)。処理部11の編集方法決定部11dは、ステップS13にて特定された各部分動画像の特徴に基づいて、記憶部12に記憶された編集方法決定テーブル12cを参照し、編集方法決定テーブル12cに定められた編集方法を取得することにより、各部分動画像に対して行う編集方法を決定する(ステップS14)。
次いで処理部11の編集処理部11eは、ステップS14にて決定された編集方法に従って、各部分動画像のデータを編集する(ステップS15)。処理部11の結合処理部11fは、ステップS15にて編集処理が行われた全ての部分動画像のデータを時系列順に結合する(ステップS16)。処理部11の編集済動画像送信部11gは、ステップS16にて部分動画像を結合することにより得られた編集済みの動画像データを、編集処理の依頼元の端末装置3へ送信し(ステップS17)、処理を終了する。
<まとめ>
以上の構成の本実施の形態に係るサーバ装置1は、端末装置3から編集処理の対象となる動画像データを取得し、取得した動画像データの特徴を特定し、特定した特徴に応じて動画像データの編集処理を行う。これにより、サーバ装置1は動画像データの特徴に適した編集処理を自動的に行うことができ、ユーザは動画像データの編集処理を自ら行う必要がないため、ユーザにとって動画像データの編集を容易化することが期待できる。
また本実施の形態に係るサーバ装置1は、動画像データの中の同一時点で複数の特徴を特定し、特定した複数の特徴の組み合わせに応じて編集方法を決定して動画像データを編集する。これにより、サーバ装置1が多様な編集処理を動画像データに対して行うことが期待できる。
また本実施の形態に係るサーバ装置1は、装飾画像等を重畳する編集処理、シーンの時間帯を変更する編集処理、スタイルを変更する編集処理、効果音又は背景音を追加する編集処理、音声を変更する編集処理、及び、再生速度を変更する編集処理のうちの少なくとも1つの編集処理を行う。これにより、サーバ装置1は娯楽性又は趣向性の高い動画像データを作成することが期待できる。なお、サーバ装置1が行う編集処理は上記のものに限定されず、サーバ装置1はこれら以外の様々な編集処理を行ってよい。
また本実施の形態に係るサーバ装置1は、端末装置3から取得した動画像データの全体から複数の部分動画像のデータを抽出し、抽出した各部分動画像に対して編集処理を行い、編集した複数の部分動画像データを結合することによって、ダイジェスト動画像データを生成する。これによりサーバ装置1は、再生時間の長い動画像データに基づいて、再生時間を短縮し且つ編集処理を施したダイジェスト動画像データを生成することができる。なお本実施の形態においてサーバ装置1は、全体動画像から部分動画像を抽出して編集処理を行ったが、これに限るものではなく、部分動画像を抽出せず、全体動画像に対して編集処理を行ってもよい。これは、全体動画像の再生時間が短い場合等に好適である。換言すれば、サーバ装置1は、全体動画像から部分動画像を抽出する際に、全体動画像そのものを1つの部分動画像として抽出してもよい。
また本実施の形態に係る端末装置3は、動画像データに対する編集処理の実施指示を受け付けるアイコン101を、動画像再生画面に動画像と共に表示し、アイコン101に対する操作を受け付けることで編集処理の実施指示を受け付ける。実施指示を受け付けた場合に端末装置3は編集処理の依頼をサーバ装置1へ与え、この依頼に応じてサーバ装置1が動画像データの編集処理を行い、編集済みの動画像データを端末装置3へ送信する。端末装置3は、再生画面において、編集前の動画像データに代えて、サーバ装置1から受信した編集済みの動画像データを再生して表示する。これによりユーザは、動画像データの編集処理の実施指示を容易に行うことができると共に、編集処理がなされた動画像データを容易に視聴することが期待できる。
なお、本実施の形態において情報処理システムは、端末装置3からサーバ装置1が動画像データを取得して編集処理を行い、編集済みの動画像データをサーバ装置1から端末装置3へ送信する構成としたが、これに限るものではなく、例えば端末装置3にて編集処理等を行う構成としてもよく、この場合には情報処理システムにサーバ装置1が含まれていなくてもよい。本実施の形態において説明した情報処理は、複数の装置の協働により行われてもよく、単体の装置にて行われてもよい。
また本実施の形態においてサーバ装置1は、1つの動画像データに対して編集処理を行っているが、これに限るものではない。例えば端末装置3から複数の動画像データをサーバ装置1が取得し、複数の全体動画像からそれぞれ一又は複数の部分動画像を抽出して編集処理を行い、編集済みの複数の部分動画像を結合して1つのダイジェスト動画像を生成してもよい。
また本実施の形態においてサーバ装置1は、動画像データの入力に対してこの動画像データの特徴を出力する学習モデルを用いたが、例えば以下のような学習モデルを用いて編集処理を行ってもよい。例えば、動画像データの入力に対して、本実施の形態においてサーバ装置1の処理として説明した編集処理を施すように機械学習がなされた学習モデルを生成してもよい。サーバ装置1は、端末装置3から取得した動画像データをこの学習モデルへ入力し、学習モデルが出力する編集済みの動画像データを取得して端末装置3へ送信することができる。
また例えばサーバ装置1は、動画像データやシーン情報等の入力に対して又は特徴特定モデル12bにより特定した特徴の入力に対して、編集方法を出力する学習モデルを用いてもよい。サーバ装置1が編集済みの動画像データを端末装置3へ送信し、端末装置3が編集済みの動画像データを再生して表示した後、端末装置3は、この編集内容に対するユーザの評価を取得してもよい。例えば図5に示した動画像再生画面に設けられた動画共有のアイコン102に対する操作がなされた場合には編集内容に対して高評価がなされたものとし、自動編集のアイコン101に対する2回目以降の操作がなされた場合(即ち再編集の依頼がなされた場合)には編集内容に対して低評価がなされたものとして端末装置3が編集内容に対する評価を取得して蓄積することができる。端末装置3が取得した評価はサーバ装置1へフィードバックされ、編集方法を出力する学習モデルの再学習に用いることができる。ユーザの評価に基づいて再学習された学習モデルを用いることによって、よりユーザの好みを反映した編集処理を実現できる。
また本実施の形態においては端末装置3にて撮影した動画像データを編集処理の対象としたが、これに限るものではない。端末装置3とは異なるビデオカメラ等の装置にて撮影した動画像データをサーバ装置1が取得して編集処理を行い、編集済みの動画像データを端末装置3へ送信してもよい。またインターネット等にて公開されている動画像データをユーザが端末装置3にて取得し、取得した動画像データに対して編集処理を行ってもよい。またゲーム機にてプレイしたゲームの様子を動画像データとして保存し、この動画像データに対して編集処理を行ってもよい。この場合に編集処理はサーバ装置1が行ってもよく、ゲーム機が行ってもよい。
<変形例1>
図10は、変形例1に係る端末装置3が表示する編集設定画面の一例を示す模式図である。変形例1に係る情報処理システムでは、サーバ装置1が行う種々の編集処理に対して、ユーザが各編集処理の実施の可否を設定することが可能である。端末装置3は、例えば図示しないメニュー画面等において編集処理に関する設定の項目が選択された場合に、図示の編集設定画面を表示部34に表示する。
編集設定画面は、最上部に「編集設定」のタイトル文字列が表示されて、その下方に実施可能な編集処理の方法がチェックボックスと共に一覧表示される。端末装置3は、各チェックボックスに対するユーザの操作に応じてチェックの有無をトグル的に更新して表示する。図示の例では、「装飾画像の追加」、「キャラクタ画像の追加」、「エフェクト画像の追加」、「時間帯変更」、「スタイル変更」、「効果音追加」、「背景音追加」、「音声変更」及び「再生速度変更」の9項目が設定可能な編集方法として示されている。これらのうち、「時間帯変更」及び「再生速度変更」の2項目がチェックボックスにチェックされておらず、ユーザが編集方法から除外したものとみなされる。
編集設定画面の最下部には「OK」のラベルが付されたボタンが設けられている。端末装置3は、OKのボタンに対するタッチ操作、タップ操作又はクリック操作等を受け付けた場合に、編集設定画面に表示された各項目のチェックボックスのチェック状態を取得し、各編集方法の採用の可否を決定する。端末装置3は、サーバ装置1に対して動画像データの編集を依頼する際に、各編集方法の可否を示した設定情報をサーバ装置1へ送信する。
サーバ装置1は、端末装置3から送信される設定情報を受信し、受信した設定情報に基づいて各編集方法の適用の可否を判断する。例えばサーバ装置1は、動画像データから特定して特徴の組み合わせに基づいて編集方法決定テーブル12cを参照することで編集方法を決定するが、編集方法決定テーブル12cに定められた編集方法が適用不可に設定されている場合、この編集方法を用いた編集処理を行わない。この場合にサーバ装置1は、代わりの編集方法で編集処理を行ってもよく、編集処理を行わなくてもよい。
<変形例2>
図11は、変形例2に係る情報処理システムの構成を説明するための模式図である。変形例2に係る情報処理システムは、例えばテーマパーク、遊園地、動物園、イベント会場又は結婚式場等の施設に設置された一又は複数のカメラ5が撮影した動画像データをサーバ装置1が取得する。サーバ装置1は、カメラ5から取得した複数の動画像データから部分動画像を抽出してダイジェスト動画像データを生成する。サーバ装置1は、生成したダイジェスト動画像データを予め定められたユーザの端末装置3へ送信する。
変形例2に係るサーバ装置1は、例えば予め顔画像等が登録されたユーザについて、このユーザが映されているシーンを複数の動画像データから抽出することで複数の部分動画像を生成する。サーバ装置1は、これら複数の部分動画像に対して上述のような編集処理を施して結合したダイジェスト動画像データを生成することができる。サーバ装置1は、顔画像と共に登録されたユーザのメールアドレス等に対して生成した動画像データを送信することができる。
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
1 サーバ装置
3 端末装置
5 カメラ
11 処理部
11a 動画像取得部
11b 部分動画像抽出部
11c 特徴特定部
11d 編集方法決定部
11e 編集処理部
11f 結合処理部
11g 編集済動画像送信部
12 記憶部
12a サーバプログラム
12b 特徴特定モデル
12c 編集方法決定テーブル
13 通信部
31 処理部
31a 撮影処理部
31b 表示処理部
31c 編集指示受付部
31d 動画像送信部
31e 動画像受信部
32 記憶部
32a プログラム
33 通信部
34 表示部
35 操作部
36 カメラ
98,99 記録媒体
101,102 アイコン

Claims (7)

  1. 情報処理装置が動画像データを生成する情報処理方法であって、
    前記情報処理装置が、
    施設に設置された一又は複数のカメラが撮影した動画像データを取得し、
    取得した動画像データから、登録されたユーザが映された複数の部分動画像データを抽出し、
    動画像データを入力として受け付けて当該動画像データに含まれるシーンの特徴を特定した情報を出力するよう機械学習がなされた学習モデルを用いて、抽出した部分動画像データを前記学習モデルへ入力して当該学習モデルが出力する情報を取得することで前記部分動画像データの特徴を特定し、
    前記情報に対応付けられた編集方法に基づいて前記部分動画像データの編集処理を行い、
    編集した部分動画像データを結合し、
    結合した動画像データを、登録された端末装置へ送信する、
    情報処理方法。
  2. 前記情報処理装置が、
    前記動画像データの中の同一時点で複数の特徴を特定し、
    特定した複数の特徴の組み合わせに応じて、前記動画像データに対して編集処理を行う、
    請求項1に記載の情報処理方法。
  3. 前記編集処理には、
    前記動画像データに対する装飾画像、キャラクタ画像又はエフェクト画像を重畳する処理、
    前記動画像データに含まれるシーンの時間帯を変更する処理、
    前記動画像データのスタイルを変更する処理、
    前記動画像データに効果音又は背景音を追加する処理、
    前記動画像データに含まれる音声を変更する処理、及び、
    前記動画像データの再生速度を変更する処理
    の少なくとも1つの処理を含む、
    請求項1又は請求項2に記載の情報処理方法。
  4. 前記情報処理装置が、
    前記編集処理に係る設定を受け付け、
    受け付けた設定に応じて前記編集処理を行う、
    請求項1から請求項3までのいずれか1つに記載の情報処理方法。
  5. 前記動画像データに対する編集処理の実施指示を受け付ける画像を前記動画像データと共に出力し、
    前記実施指示を受け付けた場合に、前記情報処理装置が前記動画像データの編集処理を行い、
    編集前の前記動画像データに代えて、編集後の動画像データを出力する、
    請求項1から請求項4までのいずれか1つに記載の情報処理方法。
  6. 施設に設置された一又は複数のカメラが撮影した動画像データを取得する取得部と、
    前記取得部が取得した動画像データから、登録されたユーザが映された複数の部分動画像データを抽出する抽出部と、
    動画像データを入力として受け付けて当該動画像データに含まれるシーンの特徴を特定した情報を出力するよう機械学習がなされた学習モデルを用いて、抽出した部分動画像データを前記学習モデルへ入力して当該学習モデルが出力する情報を取得することで前記部分動画像データの特徴を特定する特定部と、
    前記情報に対応付けられた編集方法に基づいて前記部分動画像データの編集処理を行う編集部と、
    前記編集部が編集した部分動画像データを結合する結合部と、
    前記結合部が結合した動画像データを、登録された端末装置へ送信する送信部と
    を備える情報処理装置。
  7. コンピュータに、
    施設に設置された一又は複数のカメラが撮影した動画像データを取得し、
    取得した動画像データから、登録されたユーザが映された複数の部分動画像データを抽出し、
    動画像データを入力として受け付けて当該動画像データに含まれるシーンの特徴を特定した情報を出力するよう機械学習がなされた学習モデルを用いて、抽出した部分動画像データを前記学習モデルへ入力して当該学習モデルが出力する情報を取得することで前記部分動画像データの特徴を特定し、
    前記情報に対応付けられた編集方法に基づいて前記部分動画像データを編集し、
    編集した部分動画像データを結合し、
    結合した動画像データを、登録された端末装置へ送信する
    処理を実行させる、コンピュータプログラム。
JP2020027209A 2020-02-20 2020-02-20 情報処理方法、情報処理装置及びコンピュータプログラム Active JP6830634B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020027209A JP6830634B1 (ja) 2020-02-20 2020-02-20 情報処理方法、情報処理装置及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020027209A JP6830634B1 (ja) 2020-02-20 2020-02-20 情報処理方法、情報処理装置及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP6830634B1 true JP6830634B1 (ja) 2021-02-17
JP2021132328A JP2021132328A (ja) 2021-09-09

Family

ID=74562357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020027209A Active JP6830634B1 (ja) 2020-02-20 2020-02-20 情報処理方法、情報処理装置及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP6830634B1 (ja)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3919437B2 (ja) * 1999-10-08 2007-05-23 富士フイルム株式会社 画像撮影システム、画像処理システムおよびこれらを接続した画像提供システム
JP3992909B2 (ja) * 2000-07-03 2007-10-17 富士フイルム株式会社 本人画像提供システム
JP2003032647A (ja) * 2001-07-18 2003-01-31 Fujitsu Ltd 画像配信システム,画像配信方法,画像配信プログラム及び同プログラムを格納したコンピュータ読取可能な記録媒体
JP2004112153A (ja) * 2002-09-17 2004-04-08 Fujitsu Ltd 映像処理システム
JP4696762B2 (ja) * 2005-08-02 2011-06-08 ソニー株式会社 コンテンツ作成装置,コンテンツ作成方法およびコンピュータプログラム。
JP6081788B2 (ja) * 2012-12-05 2017-02-15 三星電子株式会社Samsung Electronics Co.,Ltd. 動画像処理装置及び動画像処理方法
JPWO2015125815A1 (ja) * 2014-02-20 2017-03-30 シャープ株式会社 映像編集装置
JP6478162B2 (ja) * 2016-02-29 2019-03-06 株式会社Hearr 携帯端末装置およびコンテンツ配信システム
JP6806040B2 (ja) * 2017-11-16 2021-01-06 株式会社豊田中央研究所 画像生成装置、表示システム、及びプログラム
JP7086331B2 (ja) * 2018-04-16 2022-06-20 株式会社Nhkテクノロジーズ ダイジェスト映像生成装置およびダイジェスト映像生成プログラム

Also Published As

Publication number Publication date
JP2021132328A (ja) 2021-09-09

Similar Documents

Publication Publication Date Title
US11533456B2 (en) Group display system
TWI581128B (zh) 基於媒體反應來控制媒體節目的方法、系統及電腦可讀取儲存記憶體
CN102945276B (zh) 生成和更新基于事件的回放体验
US9253447B2 (en) Method for group interactivity
US9247306B2 (en) Forming a multimedia product using video chat
JP5214825B1 (ja) プレゼンテーションコンテンツ生成装置、プレゼンテーションコンテンツ生成方法、プレゼンテーションコンテンツ生成プログラム、及び集積回路
CN111866404B (zh) 一种视频编辑方法及电子设备
Buckingham et al. Video cultures: Media technology and everyday creativity
US20160080835A1 (en) Synopsis video creation based on video metadata
WO2011114634A1 (ja) データ処理装置およびデータ処理方法
JP2004357272A (ja) ネットワーク拡張可能・再構成可能メディア装置
US9973649B2 (en) Photographing apparatus, photographing system, photographing method, and recording medium recording photographing control program
CN112188117A (zh) 视频合成方法、客户端及系统
CN103198084A (zh) 图像显示系统、图像显示装置、服务器、图像显示方法
JP2003078868A (ja) メディア作品制作支援装置及びプログラム
JP5878523B2 (ja) コンテンツ加工装置とその集積回路、方法、およびプログラム
JP2010252008A (ja) 撮影装置、表示装置、再生装置、撮影方法、および表示方法
JP5532661B2 (ja) 画像抽出プログラムおよび画像抽出装置
JP6830634B1 (ja) 情報処理方法、情報処理装置及びコンピュータプログラム
Garfield Get seen: Online video secrets to building your business
CN114222995A (zh) 图像处理方法、装置以及电子设备
WO2023130715A1 (zh) 一种数据处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品
CN112218102B (zh) 视频内容发包制作方法、客户端及系统
KR102493886B1 (ko) 사진 촬영시의 분위기 정보를 저장하는 방법 및 그 재생 방법
JP5106240B2 (ja) 画像処理装置および画像処理サーバー

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200220

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200220

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210112

R150 Certificate of patent or registration of utility model

Ref document number: 6830634

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250