JP2019102852A - 情報処理装置、及びその制御方法、プログラム - Google Patents
情報処理装置、及びその制御方法、プログラム Download PDFInfo
- Publication number
- JP2019102852A JP2019102852A JP2017228526A JP2017228526A JP2019102852A JP 2019102852 A JP2019102852 A JP 2019102852A JP 2017228526 A JP2017228526 A JP 2017228526A JP 2017228526 A JP2017228526 A JP 2017228526A JP 2019102852 A JP2019102852 A JP 2019102852A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- image data
- frame
- person
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
【課題】 動画データに含まれる人物と、当該人物の識別情報との関連付けに係る作業を軽減可能にする仕組みを提供すること。【解決手段】 人物が入れ替わり撮影された動画データの中から人物ごとの動画データを個々に分割して生成される順番に対応して、当該人物を個々に識別するための識別情報が定められた人物リストを記憶し、人物が入れ替わり撮影された動画データの中から、人物ごとの動画データを個々に順次分割して生成される動画データを、当該動画データが生成される順番に対応して定められた人物の識別情報と関連付けて登録し、当該動画データに含まれる音声又はジェスチャーに応じて、当該動画データを、後で差し替えるべき動画データとして、当該動画データが生成された順番に対応して人物リストに定められた識別情報と関連付けて登録することを特徴とする。【選択図】 図4
Description
本発明は、情報処理装置、及びその制御方法、プログラムに関し、特に、動画データに含まれる人物と、当該人物の識別情報との関連付けに係る作業を軽減可能にする技術に関する。
従来、動画の中から、一部の動画を切り出すためには、ユーザが、その動画の映像を確認しながら、動画の切り出し位置を手入力して指定し、切り出し処理を行っており、その作業が煩雑であった。
特許文献1は、ユーザが、一連の動画を確認しながら、切取開始時間、切取終了時間を操作キーから手入力して指定し、動画データからの切取処理を行うことが記載されている。
例えば、学生の卒業アルバムとしての学生毎の動画データを生成するサービスが考えられる。例えば、このようなサービスにおいて、効率的に複数の学生を撮影するために、1つのカメラが撮影を開始し、学生Aが当該カメラの撮影範囲に入ってきて一言コメントを言い、その後、学生Aが撮影範囲から出て、撮影を止めることなく、次の学生Bが当該カメラの撮影範囲に入ってきて一言コメントを言うようにして、各学生の動画を含む1つの動画ファイルを生成するケースが考えられる。
すなわち、1つのカメラが、複数の学生が入れ替わり撮影範囲に入ってきて一言コメントを言う各学生の撮影を継続して行い、各学生の動画を含む1つの動画ファイルを生成するケースが考えられる。
このようにして撮影して得られた1つの動画ファイルから、学生ごとに、当該学生が映っている動画ファイルを切り出すために、従来、ユーザは、当該1つの動画ファイルの映像を確認しながら、切取開始時間、切取終了時間を手入力して指定しなければならず、その作業が煩雑であった。また、ユーザは、その際に、複数の学生が入れ替わる際の映像(学生が映っていない映像)も確認することとなり、効率的に、切り取り作業を行うことは難しかった。
また、例えば、ある学生が撮影中に喋るコメントを忘れてしまい一時中断したいケースも考えられるが、そのような映像についても、ユーザは確認して、切取開始時間、切取終了時間を手入力して指定しなければならず、その作業が煩雑であった。
このように、従来、複数の人物が入れ替わり撮影された各人物の動画を含む1つの動画ファイルから、効率的に、人物毎に、当該人物を含む動画ファイルをそれぞれ生成することが難しかった。さらに、当該それぞれ生成された動画ファイルと人物の識別情報(氏名など)とを関連付けて登録する作業が手作業であったため、その作業負荷が高かった。
そこで、例えば、当該1つの動画ファイルの先頭から、人物ごとの動画データを個々に分割して生成し、順次生成された動画データを、当該動画データが生成された順番に対応して人物リスト(例えば、出席番号順)に定められた人物の識別情報(氏名など)と関連付けて登録する仕組みが考えられる。
しかしながら、例えば、一部の学生が撮影会に欠席した場合には、その人の分の動画の順番がずれてしまい、すなわち、分割して生成された動画データに含まれる人物と、人物リストの識別情報とが正しく関連付けられなくなってしまい、結局、手作業でその対応関係(関連付け)を正す必要があった。
そこで、本発明は、動画データに含まれる人物と、当該人物の識別情報との関連付けに係る作業を軽減可能にするための仕組みを提供することである。
本発明は、人物が入れ替わり撮影された動画データの中から人物ごとの動画データを個々に分割して生成される順番に対応して、当該人物を個々に識別するための識別情報が定められた人物リストを記憶する記憶手段を備える情報処理装置であって、人物が入れ替わり撮影された前記動画データの中から、人物ごとの動画データを個々に分割して生成する生成手段と、前記生成手段により順次生成された動画データを、当該動画データが生成された順番に対応して前記人物リストに定められた人物の識別情報と関連付けて登録する登録手段と、前記生成手段により生成される動画データに含まれる音声又はジェスチャーを検出する検出手段と、を備え、前記登録手段は、前記検出手段により検出された音声又はジェスチャーに応じて、当該音声又はジェスチャーを含む前記生成手段により生成された動画データを、後で差し替えるべき動画データとして、当該動画データが生成された順番に対応して前記人物リストに定められた識別情報と関連付けて登録することを特徴とする。
また、本発明は、人物が入れ替わり撮影された動画データの中から人物ごとの動画データを個々に分割して生成される順番に対応して、当該人物を個々に識別するための識別情報が定められた人物リストを記憶する記憶手段を備える情報処理装置における制御方法であって、人物が入れ替わり撮影された前記動画データの中から、人物ごとの動画データを個々に分割して生成する生成工程と、前記生成工程により順次生成された動画データを、当該動画データが生成された順番に対応して前記人物リストに定められた人物の識別情報と関連付けて登録する登録工程と、前記生成工程により生成される動画データに含まれる音声又はジェスチャーを検出する検出工程と、を備え、前記登録工程は、前記検出工程により検出された音声又はジェスチャーに応じて、当該音声又はジェスチャーを含む前記生成工程により生成された動画データを、後で差し替えるべき動画データとして、当該動画データが生成された順番に対応して前記人物リストに定められた識別情報と関連付けて登録することを特徴とする。
また、本発明は、当該制御方法を実行するためのプログラムであることを特徴とする。
本発明によれば、人動画データに含まれる人物と、当該人物の識別情報との関連付けに係る作業を軽減可能にすることが可能となる。
以下、図面を参照して、本発明の実施形態を詳細に説明する。
図1は、本発明の情報処理システムのシステム構成の一例を示すである。
PC101は、本発明の情報処理装置の適用例であり、デスクトップパソコン、ノートパソコン、タブレットPC等のPCである。
また、カメラ104は、動画及び写真を含む静止画を撮影することが可能なデジタルカメラ、又はデジタルビデオカメラである。カメラ104は、PC101と、有線又は無線通信により相互にデータを送受信する機能を備えている。そのため、カメラ104は、カメラ104で撮影された動画の動画ファイルを、PC101に、当該有線又は無線通信により送信して、PC101のメモリ等の記憶手段に記録することができる。
また、カメラ104は、SDカード等の可搬型メモリ(携帯記録媒体)を装着可能であり、カメラ104で撮影された動画の動画ファイルを当該可搬型メモリに記録する機能を備えている。
カメラ104の撮像範囲(撮影範囲)は、椅子105に座った被写体(人物103)を撮影することができる撮像範囲である。
カメラ104は、ユーザによる撮影指示を受け付けると、カメラ104は、動画(映像)の撮影を開始する。また、カメラ104は、当該撮影された動画、及び静止画を、通信を介してPC101の記憶手段に記憶するか、当該可搬型メモリに記録する。可搬型メモリに記憶した場合には、カメラ104から当該可搬型メモリを取り出して、PC101に当該取り出した可搬型メモリを装着して、当該可搬型メモリに記憶された動画、及び静止画を、PC101のメモリにコピー(展開)する。
このようにして、PC101は、カメラ104で撮影された動画、及び静止画を取得することができる。
カメラ104が動画の撮影を開始した後に、カメラ104の撮像範囲に人物(ユーザ)が入ってきて人物が椅子105に座る。そして、人物が、当該人物の動画の撮影の準備ができたら、「開始」という言葉を喋る。そして、当該人物が一言コメントを言う。また、当該人物が、一言コメントの途中で、例えば、コメントを忘れてしまい一時中断したい場合には、「中断」という言葉を喋る。
また、当該人物が、再度、撮影の準備ができたら、「再度開始」という言葉を喋る。そして、当該人物が、当該人物の動画の撮影が終了したい場合には、「終了」という言葉を喋る。
そして、椅子105に座っていた人物(ユーザ)が立ち、カメラ104の撮像範囲外に移動しフレームアウトすることとなる。
そして、撮影を止めることなく、次の異なる人物が、カメラ104の撮像範囲に入ってきて椅子105に座り、同様の動作を行うこととなる。このように、複数の学生が入れ替わり撮影範囲に入ってきて一言コメントを言うことで、カメラ104は、複数の学生の動画を含む1つの動画ファイルを生成し、当該生成された動画ファイルをPC101の記憶手段が記憶することとなる。
図12は、複数のユーザ(例えば、学生)が入れ替わり撮影され得られた、複数の学生の動画を含む1つの動画ファイル1201(動画データ)の概念図の一例を示す図である。
図12に示すように、複数の学生の動画を含む1つの動画ファイル1201には、木屋野太郎さんの一言コメント付きの動画1002が含まれており、そのあとに、木屋野次郎さんの一言コメント付きの動画1003が含まれており、そのあとに、木屋野三郎さんの一言コメント付きの動画1004が含まれており、そのあとに、木屋野四朗さんの一言コメント付きの動画1005が含まれていることを示している。
また、PC101の記憶手段(メモリ)には、予め、被写体の人物リスト801(図8)が記憶されており、この人物リスト801(図8)に示される順番で、撮影が行われる。
図8の801は、被写体の人物リストの一例を示す図である。
図8の801に示すように、1番目には、木屋野太郎さんが示されており、2番目には、木屋野次郎さんが示されており、3番目には、木屋野三郎さんが示されており、4番目には、木屋野四朗さんが示されている。
図8の801は、本発明の人物リストの適用例であり、動画データに含まれる各人物を個々に識別するための識別情報が、生成手段により動画データが生成される順番に対応して定められた人物リストである。
PC101の記憶手段には、後述するプログラム、各種リスト、テーブルが記憶されており、当該プログラムを実行することにより、本発明にかかる機能の動作・処理を実行する。
図2は、本発明の実施形態におけるPC101に適用可能な情報処理装置のハードウェア構成の一例を示すブロック図である。各装置ともに、同様な構成を備えるため、同一の符号を用いて説明する。
図2に示すように、情報処理装置は、システムバス204を介してCPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、入力コントローラ205、ビデオコントローラ206、メモリコントローラ207、および通信I/Fコントローラ208が接続される。
CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。
ROM202あるいは外部メモリ211等の記憶装置は、CPU201が実行する制御プログラムであるBIOS(Basic Input/Output System)やOS(Operating System)や、本情報処理方法を実現するためのコンピュータ読み取り実行可能なプログラムおよび必要な各種データ(データテーブルを含む)を保持している。
RAM203は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは外部メモリ211からRAM203にロードし、ロードしたプログラムを実行することで各種動作を実現する。
入力コントローラ205は、入力デバイス209からの入力を制御する。入力デバイス209としては、キーボード、タッチパネル、マウス等のポインティングデバイス等が挙げられる。
なお、入力デバイス209がタッチパネルの場合、ユーザがタッチパネルに表示されたアイコンやカーソルやボタンに合わせて押下(指等でタッチ)することにより、各種の指示を行うことができることとする。
また、タッチパネルは、マルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよい。
ビデオコントローラ206は、ディスプレイ210などの外部出力装置への表示を制御する。ディスプレイは本体と一体になったノート型パソコンのディスプレイも含まれるものとする。なお、外部出力装置はディスプレイに限ったものははく、例えばプロジェクタであってもよい。また、前述のタッチ操作により受け付け可能な装置については、入力デバイス209を提供する。
なおビデオコントローラ206は、表示制御を行うためのビデオメモリ(VRAM)を制御することが可能で、ビデオメモリ領域としてRAM203の一部を利用することもできるし、別途専用のビデオメモリを設けることも可能である。
メモリコントローラ207は、外部メモリ211へのアクセスを制御する。外部メモリとしては、ブートプログラム、各種アプリケーション、フォントデータ、ユーザファイル、編集ファイル、および各種データ等を記憶する外部記憶装置(ハードディスク)、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等を利用可能である。
通信I/Fコントローラ208は、ネットワークを介して外部機器(カメラ104)と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信、Wi−Fi、および3G回線を用いた通信が可能である。
なお、外部メモリ211等の記憶装置は情報を永続的に記憶するための媒体であって、その形態をハードディスク等の記憶装置に限定するものではない。例えば、SSD(Solid State Drive)などの媒体であってもよい。
また本実施形態における通信端末で行われる各種処理時の一時的なメモリエリアとしても利用可能である。
尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ210上での表示を可能としている。また、CPU201は、ディスプレイ210上の不図示のマウスカーソル等でのユーザ指示を可能とする。
次に、図6のフローチャートを用いて、本実施形態におけるPC101が実行する処理について説明する。
図6は、本実施形態の動画編集に係る処理を示すフローチャートの一例である。
図6は、PC101のCPU201が所定の制御プログラムを読み出して実行する処理である。
まず、PC101は、まず、所定の制御プログラムを起動すると、動画編集画面をディスプレイ210等の表示部に表示する。
そして、PC101は、処理対象となる図8の801に示す被写体の人物リストの選択をユーザにより受け付けて読み取る(S601)。PC101は、S601で読み取った人物リストのうち最も順番の早い(番号が低い)氏名(被写体を識別する情報)を処理対象として特定する。
そして、PC101は、S601で選択を受け付けた人物リストに対応し、処理対象とする1つの動画ファイルの読み取り指示をユーザにより受け付け、当該動画ファイルの読み取りを開始する(S602)。
例えば、クラスごとの動画ファイルを生成し、例えば、図8の801に示すような被写体の人物リストが、学生のクラスごとに、記憶されており、どのクラスの学生の動画を処理するかを選択し、そのクラスの動画ファイルを処理対象として読み込むことができる。
S602における動画ファイルの読み取り処理の開始は、動画の最初のフレームから順に読み取り開始することを意味する。
まず、PC101は、動画(フレーム)を読み込み、当該読み込んだ動画(フレーム)を解析して、当該フレームの中に人物が含まれているか、すなわち、当該フレーム中の人物を検出できたか否かを判定する(S603)。
そして、PC101は、当該フレームの中に人物が含まれていない、すなわち、当該フレーム中の人物を検出できなかったと判定された場合には(S603:NO)、次のフレームを読み取り、当該読み取ったフレームに対して、S603の処理を実行する。
PC101は、当該フレームの中に人物が含まれている、すなわち、当該フレーム中の人物を検出できたと判定された場合には(S603:YES)、人物を検出できなかったフレームと、人物を検出できたと判定されたフレームとの間の位置(時間)に、ファイル始点301を設定する(ステップS604)。
S603は、本発明の特定手段の適用例であり、人物が入れ替わり撮影された動画データの中から、人物ごとにフレームインした時間又はフレームを特定する。
図3は、動画の各フレームと、ファイル始点301、各IN点、各OUT点、ファイル終点306との位置(時間)の関係を示す図の一例である。
図3(A)は、人物が検出されなくなる前に「終了」音声を検知した場合の当該関係を示す図の一例である。
図3(B)は、人物が検出され「欠席」音声を検知した場合の当該関係を示す図の一例である。
図3(A)を例に説明すると、S604では、人物を検出できなかったフレーム307と、人物を検出できたと判定されたフレーム308との間の位置(時間)に、ファイル始点301を設定する。
そして、PC101は、次に、人物を検出できたフレーム(ファイル始点301からファイル終点306までの間のフレーム(308から313のフレーム))において、「欠席」音声を検出したか否かを判定する(S629)。
S629は、本発明の検出手段、及び判定手段の適用例であり、ここで、検出手段により検出された音声又はジェスチャーが、生成される動画データを後で差し替えるべき動画データとして登録するための所定の音声(例えば、欠席の音声)又はジェスチャー(例えば、欠席を示すジェスチャー)であるかを判定する。
そして、PC101は、人物を検出できたフレーム(ファイル始点301からファイル終点306までの間のフレーム(308から313のフレーム))において、「欠席」音声を検出していないと判定された場合には(S629:NO)、処理をS605に移行する。また、「欠席」音声を検出したと判定された場合には(S629:YES)、処理をS630に移行する。
PC101は、人物を検出できたフレームにおいて、「欠席」音声を検出したと判定された場合には(S629:YES)、
S630において、「欠席」音声を検出したと判定されたフレームの後続のフレームにおいて、人物が含まれていないか否か、すなわち、当該フレーム中の人物を検出できなかったか否かを判定する(S630)。
S630において、「欠席」音声を検出したと判定されたフレームの後続のフレームにおいて、人物が含まれていないか否か、すなわち、当該フレーム中の人物を検出できなかったか否かを判定する(S630)。
PC101は、フレームの中に人物が含まれている、すなわち、当該フレーム中の人物を検出できたと判定された場合には(S630:NO)、人物が含まれていない次のフレームまで繰り返しS630の処理を実行する。
PC101は、フレームの中に人物が含まれていない、すなわち、当該フレーム中の人物を検出できなかったと判定された場合には(S630:YES)、当該人物を検出できなかったと判定されたフレームと、その直前の人物を検出したフレームとの間の位置に、ファイル終点306を設定する(S631)。
そして、PC101は、S602で読み込んだ動画ファイルを、直近のS604で設定されたファイル始点301の位置(時間)と、S631で設定したファイル終点306位置(時間)とで、切り出して、当該切り出された動画ファイルと、現在の処理対象の氏名(被写体を識別する情報)とを対応付けて登録(設定)する。さらに、当該動画ファイルを差替対象動画として設定する(S632)。例えば、人物リスト801の「木屋野次郎」が欠席しており、他のユーザがフレームインして撮影され欠席を示す音声を発した場合には、当該他のユーザが撮影された動画ファイル2がS632で切り出され、動画ファイル2(動画ファイル名)として、「木屋野次郎」と関連付けられて関連付リスト802(A)に登録されると共に、当該動画ファイルに対して、差替対象動画であることを示す情報「要」が、関連付リスト802(A)の差替要否の項目に登録される(S632)。そして、処理をS621に移行する。
このように、S632は、本発明の生成手段、及び登録手段の適用例であり、人物が入れ替わり撮影された前記動画データの中から、人物ごとの動画データを個々に分割して生成し、S629の検出手段により検出された音声(例えば、欠席の音声)又はジェスチャー(例えば、欠席を示すジェスチャー)に応じて、当該音声又はジェスチャーを含む当該生成された動画データを、後で差し替えるべき動画データとして、当該動画データが生成された順番に対応して人物リスト(801)に定められた識別情報(例えば氏名など)と関連付けて登録する。
すなわち、S632の登録手段は、S629の判定手段により、S629の検出手段により検出された音声又はジェスチャーが、生成された動画データを後で差し替えるべき動画データとして登録するための所定の音声(例えば、欠席の音声)又はジェスチャー(例えば、欠席を示すジェスチャー)であると判定された場合に、当該所定の音声(例えば、欠席の音声)又はジェスチャー(例えば、欠席を示すジェスチャー)を含む動画データを、後で差し替えるべき動画データとして、当該動画データが生成された順番に対応して人物リストに定められた識別情報(例えば、氏名など)と関連付けて登録する。
PC101の記憶手段(メモリ)には、この関連付リスト802(A、B)が記憶(登録)される。
図8の802(A)、802(B)は、関連付リストの一例を示す図である。
PC101は、人物を検出できたフレーム(ファイル始点301からファイル終点306までの間のフレーム(308から313のフレーム))において、「欠席」音声を検出していないと判定された場合には(S629:NO)、S603で人物が検出されたフレームで「開始」という所定の音声を検出したか否かを判定する(S605)。そして、PC101は、「開始」という所定の音声を検出していないと判定されると(S605:NO)、次のフレームも処理対象にして、直前の過去に処理対象にしたフレーム(群)の音声も含めて、「開始」という所定の音声を検出するか否かを判定する(S605)。
S605、S608、S611、S615は、本発明の検出手段の適用例であり、人物が撮影された動画データに含まれる音声を検出する。
S605の検出手段は、イン点(302)を設定するための第1音声(開始)を検出し、S607の設定手段は、動画データの中で、S605の検出手段で第1音声が検出された時間又はフレームに基づき特定される位置にイン点を設定する。すなわち、S607の設定手段は、例えば、図9に示すように、動画データの中で、検出手段で第1音声が検出されたフレーム(308)と、当該フレームの後続のフレームであって第1音声が検出されなかったフレーム(309)との間の位置にイン点を設定する。
そして、PC101は、「開始」という所定の音声を検出できたと判定されると(S605:YES)、当該検出された「開始」という所定の音声の前後で継続して話が続いているか否かを判定する(S606)。具体的には、PC101は、当該「開始」という所定の音声が検出できたフレーム(フレーム群)の前後の隣接するフレーム(所定時間幅のフレーム群)を読み取り、当該検出された「開始」音声の前後で継続して話が続いているか否かを判定する(S606)。
そして、PC101は、当該検出された「開始」音声の前後で継続して話が続いていると判定された場合には(S606:YES)、次のフレームを処理対象にして、処理をS605に戻す。
また、PC101は、当該検出された「開始」音声の前後で継続して話が続いていないと判定された場合には(S606:NO)、「開始」という音声が検出されたフレームと、その直後のフレーム(「開始」という音声が検出されていないフレーム)との間の位置(時間)にIN点302を設定する(S607)。
S607、S610、S613、S617、S627は、本発明の設定手段の適用例であり、検出手段により検出される音声に基づいて特定される位置に動画データのイン点、又はアウト点を設定する。
図3(A)を例に説明すると、S607では、「開始」という音声が検出されたフレーム308と、その直後のフレーム309(「開始」という音声が検出されていないフレーム)との間の位置(時間)にIN点302を設定する。
説明を簡単にするために、図3、図5に示すファイル始点301とIN点302との間のフレーム308は1つのみを示しているが、複数のフレームが含まれていてもよい。同様に、IN点302とOUT点303との間にはフレーム309だけではなく複数のフレームが含まれていてもよい。また、同様に、OUT点303とIN点304との間にはフレーム310だけではなく複数のフレームが含まれていてもよい。また、同様に、IN点304とOUT点305との間にはフレーム311、312だけではなく3つ以上のフレームが含まれていてもよい。また、同様に、OUT点305とファイル終点306との間にはフレーム313だけではなく複数のフレームが含まれていてもよい。
図9に、動画データの各フレームと、当該フレーム(フレーム群)で検出される音声と、IN点、OUT点の位置(時間)を説明する概念図を示す。
図9は、動画データの各フレームと、当該フレーム(フレーム群)で検出される音声と、IN点、OUT点の位置(時間)を説明する概念図の一例を示す図である。
次に、PC101は、IN点302を設定すると、次のフレームを処理対象にして、「中断」という所定の音声を検出したか否かを判定する(S607)。そして、PC101は、「中断」という所定の音声を検出していないと判定されると(S607:NO)、処理をS614に移行する。PC101は、S614において、現在処理対象のフレームの中に人物が含まれていないか否か、すなわち、当該フレーム中の人物を検出できなかったか否かを判定する(S614)。
PC101は、フレームの中に人物が含まれている、すなわち、当該フレーム中の人物を検出できたと判定された場合には(S614:NO)、処理をS615に移行して、「終了」という所定の音声を検出できたか否かを判定する(S615)。そして、PC101は、「終了」という所定の音声を検出できなかったと判定された場合には(S615:NO)、次のフレームも処理対象にして、直前の過去に処理対象にしたフレーム(群)の音声も含めて、「中断」という所定の音声を検出するか否かを判定する(S608)。
S608は、本発明の検出手段の適用例であり、イン点(302)とアウト点(305)との間の動画データの中で、イン点(302)とは別の第1イン点(304)を設定するための第3音声(中断)を検出する。
S615の検出手段は、アウト点(305)を設定するための第2音声を検出し、S617の設定手段は、動画データの中で、検出手段で第2音声が検出された時間又はフレームに基づき特定される位置にアウト点(305)を設定する。すなわち、S617の設定手段は、動画データの中で、検出手段で第2音声が検出されたフレームと、当該フレームよりも前のフレームであって第2音声が検出されなかったフレームとの間の位置にアウト点(305)を設定する。
そして、PC101は、「中断」という所定の音声を検出した場合には(S608:YES)、当該検出された「中断」という所定の音声の前後で継続して話が続いているか否かを判定する(S609)。具体的には、PC101は、当該「中断」という所定の音声が検出できたフレーム(フレーム群)の前後の隣接するフレーム(所定時間幅のフレーム群)を読み取り、当該検出された「中断」音声の前後で継続して話が続いているか否かを判定する(S609)。
そして、PC101は、当該検出された「中断」音声の前後で継続して話が続いていると判定された場合には(S609:YES)、次のフレームを処理対象にして、処理をS608に戻す。
また、PC101は、当該検出された「中断」音声の前後で継続して話が続いていないと判定された場合には(S609:NO)、例えば、図9のように、「中断」という音声が検出されたフレームと、その直前のフレーム(「中断」という音声が検出されていないフレーム)との間の位置(時間)にOUT点303を設定する(S610)。
図3(A)を例に説明すると、S610では、「中断」という音声が検出されたフレーム310と、その直前のフレーム309(「中断」という音声が検出されていないフレーム)との間の位置(時間)にOUT点303を設定する。
S610は、本発明の設定手段の適用例であり、イン点(302)とアウト点(305)との間の動画データの中で、検出手段で第4音声(中断)が検出された時間又はフレームに基づき特定される時間に第1アウト点(303)を設定する。
そして、PC101は、OUT点303を設定すると、次のフレームを処理対象にして、「再度開始」という所定の音声を検出したか否かを判定する(S611)。そして、PC101は、「再度開始」という所定の音声を検出していないと判定されると(S611:NO)、次のフレームも処理対象にして、直前の過去に処理対象にしたフレーム(群)の音声も含めて、「再度開始」という所定の音声を検出するか否かを判定する(S611)。
S608は、本発明の検出手段の適用例であり、イン点(302)とアウト点(305)との間の動画データの中で、アウト点(305)とは別の第1アウト点(303)を設定するための第4音声(再度開始)を検出する。
そして、PC101は、「再度開始」という所定の音声を検出した場合には(S611:YES)、当該検出された「再度開始」という所定の音声の前後で継続して話が続いているか否かを判定する(S612)。具体的には、PC101は、当該「再度開始」という所定の音声が検出できたフレーム(フレーム群)の前後の隣接するフレーム(所定時間幅のフレーム群)を読み取り、当該検出された「再度開始」音声の前後で継続して話が続いているか否かを判定する(S612)。
そして、PC101は、当該検出された「再度開始」音声の前後で継続して話が続いていると判定された場合には(S612:YES)、次のフレームを処理対象にして、処理をS611に戻す。
PC101は、当該検出された「再度開始」音声の前後で継続して話が続いていないと判定された場合には(S612:YES)、例えば、図9のように、「再度開始」という音声が検出されたフレームと、その直後のフレーム(「再度開始」という音声が検出されていないフレーム)との間の位置(時間)にIN点304を設定する(S613)。
図3(A)を例に説明すると、S613では、「再度開始」という音声が検出されたフレーム310と、その直後のフレーム311(「再度開始」という音声が検出されていないフレーム)との間の位置(時間)にIN点304を設定する。
S613は、本発明の設定手段の適用例であり、イン点(302)とアウト点(305)との間の動画データの中で、検出手段で第3音声(再度開始)が検出された時間又はフレームに基づき特定される時間に第1イン点(304)を設定する。
このように、S608からS613の処理を実行することで、例えば、ある学生が撮影中に喋るコメントを忘れてしまい一時中断したい場合、その中断した映像をユーザが確認して、切取開始時間、切取終了時間を手入力して指定する作業を低減可能にすることができる。
そして、PC101は、IN点304を設定すると、次のフレームを処理対象にして、処理をS614に移行する。
PC101は、S614において、現在処理対象のフレームの中に人物が含まれていないか否か、すなわち、当該フレーム中の人物を検出できなかったか否かを判定する(S614)。
PC101は、フレームの中に人物が含まれている、すなわち、当該フレーム中の人物を検出できたと判定された場合には(S614:NO)、処理をS615に移行して、「終了」という所定の音声を検出できたか否かを判定する(S615)。そして、PC101は、「終了」という所定の音声を検出できなかったと判定された場合には(S615:NO)、次のフレームも処理対象にして、直前の過去に処理対象にしたフレーム(群)の音声も含めて、「中断」という所定の音声を検出するか否かを判定する(S608)。
そして、PC101は、「終了」という所定の音声を検出した場合には(S615:YES)、当該検出された「終了」という所定の音声の前後で継続して話が続いているか否かを判定する(S616)。具体的には、PC101は、当該「終了」という所定の音声が検出できたフレーム(フレーム群)の前後の隣接するフレーム(所定時間幅のフレーム群)を読み取り、当該検出された「終了」音声の前後で継続して話が続いているか否かを判定する(S616)。
そして、PC101は、当該検出された「終了」音声の前後で継続して話が続いていると判定された場合には(S616:YES)、次のフレームを処理対象にして、処理をS615に戻す。
PC101は、当該検出された「終了」音声の前後で継続して話が続いていないと判定された場合には(S616:YES)、例えば、図9のように、「終了」という音声が検出されたフレームと、その直前のフレーム(「終了」という音声が検出されていないフレーム)との間の位置(時間)にOUT点305を設定する(S617)。
このように、S607で、動画データの中で、第1音声(例えば、開始)が検出されたフレームと、当該フレームの後続のフレームであって第1音声が検出されなかったフレームとの間の位置にイン点(302)を設定し、S617で、第2音声(例えば、終了)が検出されたフレームと、当該フレームよりも前のフレームであって第2音声が検出されなかったフレームとの間の位置にアウト点(305)を設定するため、第1音声や、第2音声が、イン点(302)とアウト点(305)との間に含まれないようなり、好適なイン点(302)とアウト点(305)の設定を効率的に行うことが可能となる。
図3(A)を例に説明すると、S617では、「終了」という音声が検出されたフレーム313と、その直前のフレーム312(「終了」という音声が検出されていないフレーム)との間の位置(時間)にOUT点305を設定する。
そして、PC101は、OUT点305を設定すると、次のフレームを処理対象にして、処理をS618に移行する。
次に、PC101は、S618において、現在処理対象のフレームの中に人物が含まれていないか否か、すなわち、当該フレーム中の人物を検出できなかったか否かを判定する(S618)。
PC101は、フレームの中に人物が含まれている、すなわち、当該フレーム中の人物を検出できたと判定された場合には(S618:NO)、次のフレームを処理対象にして、再度、S618の処理を行う。
また、PC101は、フレームの中に人物が含まれていない、すなわち、当該フレーム中の人物を検出できないと判定された場合には(S618:YES)、人物が含まれていないと判定されたフレームと、その直前のフレーム(人物が検出されたフレーム)との間の位置(時間)にファイル終点306を設定する(S619)。
また、PC101は、S614において、フレームの中に人物が含まれていない、すなわち、当該フレーム中の人物を検出できなかったと判定された場合には(S614:YES)、人物が含まれていないと判定されたフレームと、その直前のフレーム(人物が検出されたフレーム)との間の位置(時間)にOUT点305を設定する(S627)。
図3(B)を例に説明すると、S627では、人物が含まれていないと判定されたフレーム314と、その直前のフレーム313(人物が検出されたフレーム)との間の位置(時間)にOUT点305を設定する。
PC101は、S627でOUT点305が設定された位置(時間)の直前の表示するフレーム(人物が検出されたフレーム)を識別可能に表示する(強調表示する)ための識別情報を当該フレームに対して付加する(S628)。そして、PC101は、図3(B)に示すように、S627で設定したOUT点305と同じ位置(時間)にファイル終点306を設定する(S619)。
S618、S614は、本発明の特定手段の適用例であり、人物が入れ替わり撮影された動画データの中から、人物ごとにフレームアウトした時間又はフレームを特定する。
S627は本発明の設定手段の適用例であり、検出手段でアウト点(305)を設定するための第2音声(終了)を検出できずに、動画データからフレームアウトした場合には、当該フレームアウトした時間又はフレームに基づき特定される分割位置に、アウト点を設定する。
PC101は、S602で読み込んだ動画ファイルを、S604でファイル始点301が設定された位置(時間)と、S619でファイル終点306が設定された位置(時間)とで切り出して、当該切り出された動画ファイルと、現在の処理対象の氏名(被写体を識別する情報)とを対応付けて登録(設定)する(S620)。
例えば、現在、人物リスト801の「木屋野太郎」が処理対象であり、撮影された動画ファイル1がS620で切り出され、動画ファイル1(動画ファイル名)として、「木屋野太郎」と関連付けられて関連付リスト802(A)に登録されると共に、当該動画ファイルに対して、差替対象の動画ではないことを示す情報「否」が、関連付リスト802(A)の差替要否の項目に登録される(S620)。
S620は、本発明の生成手段の適用例であり、S603、S618、S614の特定手段により特定された時間又はフレームに基づき特定される分割位置で動画データを分割して人物ごとの動画データを個々に生成する。
S620は、本発明の登録手段の適用例であり、生成手段により動画データの先頭から順次分割され生成された動画データを、当該動画データが生成された順番に対応して人物リスト(図8)に定められた人物の識別情報と関連付けて登録する。
すなわち、この登録手段は、判定手段により、検出手段により検出された音声又はジェスチャーが、生成された動画データを後で差し替えるべき動画データとして登録するための所定の音声(例えば、欠席の音声)又はジェスチャー(例えば、欠席を示すジェスチャー)ではないと判定された場合(S629:NO)に、当該生成された動画データを、後で差し替えるべき動画データではない動画データ(「否」が、関連付リスト802(A)の差替要否の項目に登録される動画データ)として、当該動画データが生成された順番に対応して人物リストに定められた人物の識別情報と関連付けて登録する。
そして、PC101は、S602で読み込んだ動画ファイルのすべてをS603からS619までの処理の処理対象にしたか否か、または、S601で読み取った人物リストの全ての氏名を処理対象として、S603からS619までの処理を実行したか否かを判定することにより、S602で読み込んだ動画ファイルの切り出し、IN点、OUT点の設定の処理を終了するか否かを判定する(S621)。
PC101は、S621において、S602で読み込んだ動画ファイルのすべてをS603からS619までの処理の処理対象にした、または、S601で読み取った人物リストの全ての氏名を処理対象として、S603からS619までの処理を実行したと判定された場合には、S602で読み込んだ動画ファイルの切り出し、IN点、OUT点の設定の処理を終了すると判定し(S621:YES)、処理をS622に移行する。
また、PC101は、S621において、S602で読み込んだ動画ファイルのすべてをS603からS619までの処理の処理対象にしていない、または、S601で読み取った人物リストの全ての氏名を処理対象として、S603からS619までの処理を実行していないと判定された場合には、S602で読み込んだ動画ファイルの切り出し、IN点、OUT点の設定の処理を終了しないと判定し(S621:NO)、S601で読み取った人物リストの未処理の氏名のうち最も順番の早い(番号が低い)氏名を処理対象にすると共に、引き続き、S602で読み込んだ動画ファイルの次のフレームを処理対象にして、処理をS603に移行する。
S621は、本発明の制御手段の適用例であり、特定手段により特定されたフレームインした時間又はフレームに基づき特定される分割位置と、特定手段により特定されたフレームアウトした時間又はフレームに基づき特定される分割位置との間の動画データに対して、検出手段による検出処理、及び設定手段による設定処理を行うように制御する。
PC101は、S602で切り出された動画ファイルと、当該動画ファイルと対応付けて登録された氏名との一覧(リスト)を、動画編集画面(図4)に表示する(S622)。
図4に示すように、動画編集画面の「木屋野次郎」(番号:2)のタイムラインについては、グレーアウト/ブラックアウトして表示されており、そのタイムライン上に「この方は、撮影会を欠席した方です。後日、この方を撮影して動画を差し替える必要があります。」というメッセージ416が表示されている。これは、PC101が関連付リスト802(A)を参照して、差替要否が「要」の動画ファイルについては、この差替える必要があることを示すメッセージ416を表示する。
このようにして、PC101は、差替対象の動画をユーザ(人物)(分割して生成された動画データ)ごとに識別表示する。
このように、S622は本発明の表示手段の適用例であり、S632、S620の登録手段により、後で差し替えるべき動画データとして識別情報と関連付けて登録された動画データと、後で差し替えるべき動画データではない動画データとして識別情報と関連付けて登録された動画データとを識別可能に表示する。
また、表示手段は、登録手段により、後で差し替えるべき動画データとして識別情報と関連付けて登録された動画データについて、当該動画データを差し替えるべき旨のメッセージ416を表示する。
S622は、本発明の表示手段の適用例であり、動画編集画面(図4)に示すように、動画データの複数のフレームの画像を時系列に表示すると共に、当該画像間の位置に設定手段により設定されたイン点に関するコントロール(501、506)、及びアウト点に関するコントロール(505、502)を表示する。
図4は、動画編集画面の一例を示す図である。
412は、図8に示す人物リストの順番の値であり、401は、氏名を示している。これらの被写体を識別する情報と対応付けてS620で登録された切り出された動画ファイルが、403、404に動画のタイムラインとして示されている。403は、IN点302とOUT点305との間の動画のライムラインを示しており、404は、OUT点305とファイル終点306との間の動画のタイムラインが示されている。また、405は、ファイル終点306以降の動画を示している。
また、402は、IN点302とOUT点305との間の動画、又はIN点302とOUT点303との間の動画の各フレームのうち先頭のフレームの縮小画像(例えばサムネイル画像)である。
また、408は、ファイル始点301とIN点302との間の動画のタイムラインとして示されている。
407は、切り出された動画ファイルに含まれる音の波形が表示される領域である。
406は、S620において、切り出された動画ファイルと、現在の処理対象の氏名(被写体を識別する情報)とが対応付けられて登録(設定)され、ユーザの指示により、S626において任意にIN点、OUT点の編集(変更)の設定がなされ、当該IN点、OUT点に基づき切り出され登録される動画ファイルの処理対象を選択するためのボタン(指示受付部)である。すなわち、誰の動画を処理対象にするにするかを選択するためのボタンである。
図4に示すように、上述の401、402、403、404、405、406、407、408、412は、氏名ごと(S620で切り出された動画ファイルごと)にそれぞれリスト表示されている。
411は、ファイル生成ボタンである。
415は、動画の差替えを行うための指示を受け付ける差替処理ボタン(差替指示受付手段)である。
図4に示すように、上述の401、402、403、404、405、406、407、408、412は、氏名ごと(S620で切り出された動画ファイルごと)にそれぞれリスト表示されているが、いずれかの動画又は氏名(被写体を識別する情報)が選択されると、当該動画のプレビュー表示を行う表示領域410を動画編集画面(図4)は備えている。また、413は、再生ボタンであり、当該いずれかの動画又は氏名(被写体を識別する情報)が選択され、再生ボタン413がユーザにより押下されると、当該動画のプレビューを表示領域410に表示する。
409は、リスト表示された動画又は氏名のいずれかが選択され、当該選択された動画のIN点、OUT点の編集指示をユーザにより受け付ける表示領域である。具体的には、409の表示領域には、例えば、図5(A)あるいは図5(B)が表示される表示領域である。
PC101は、S622において、動画編集画面(図4)にリスト表示された動画、氏名のうち、選択された動画、氏名の動画が表示領域409に表示するが、このとき、図5(A)に示すように、ファイル始点301からIN点302の間の動画のフレーム308、OUT点303からIN点304の間の動画のフレーム310(中断領域:中断映像の時間帯408のフレーム)、OUT点305からファイル終点306の間の動画のフレーム313については、ブラックアウト、又はフレームの枠の色を他のフレームの枠を変えるなどして、識別可能に表示する。
S628において、S627でOUT点305が設定された位置(時間)の直前の表示するフレーム(人物が検出されたフレーム)を識別可能に表示する(強調表示する)ための識別情報が、S628で当該フレームに対して付加されているため、当該識別情報が付加されたフレームを識別表示する。
この識別表示は、本発明の通知手段の適用例であり、PC101は、検出手段でアウト点を設定するための第2音声を検出できずに、動画データからフレームアウトした場合には、当該第2音声を検出できずに動画データからフレームアウトしたことをユーザに知らせるための通知を行う。
すなわち、通知手段は、検出手段でアウト点を設定するための第2音声を検出できずに、動画データからフレームアウトした場合には、当該フレームアウトしたフレームの直前の表示されるフレームを他のフレームの表示形態とは異なる形態で識別可能に表示する。
これにより、ユーザは、アウト点を設定するための第2音声を検出できずに、動画データからフレームアウトしたことを把握することができ、アウト点(305)のコントロール502の位置の調整を行う必要があることが分かり、コントロール502の位置調整をし忘れ難くなる。
図5は、表示領域409に表示される表示画面の一例である。
図5は、図3に示すファイル始点301からファイル終点306の範囲で切り出された動画の各フレームと、各IN点、各OUT点との位置(時間)の関係を示す図の一例である。
図5(A)は、人物が検出されなくなる前に「終了」音声を検出した場合の当該関係を示す図の一例である。
図5(B)は、人物が検出され「欠席」音声を検出した場合の当該関係を示す図の一例である。
図5(A)に示すように、表示領域409には、ユーザにより選択された動画の各フレームと、各IN点、各OUT点の編集(変更)をユーザにより受け付けることが可能なコントロール501、502、505、506とが表示される。
S604で設定されたファイル始点301と、S607で設定されたIN点302との間のフレームが308である。
S607で設定されたIN点302と、S610で設定されたOUT点303の間のフレームが309である。S610で設定されたOUT点303と、S613で設定されたIN点304との間のフレームが310である。そして、この中断映像の時間帯408を識別可能に表示している。
また、S613で設定されたIN点304と、S617で設定されたOUT点305との間のフレームが、311、312である。
また、S617で設定されたOUT点305と、S619で設定されたファイル終点306との間のフレームが313である(図5(A))。
図5(A)に示すように、ユーザによる編集指示を受け付ける前の初期画面では、S607で設定されたIN点302の位置に、IN点302の編集(変更)をユーザにより受け付けることが可能なコントロール501が表示される。
また、S610で設定されたOUT点303の位置には、OUT点303の編集(変更)をユーザにより受け付けることが可能なコントロール505が表示される。
また、S613で設定されたIN点304の位置には、IN点304の編集(変更)をユーザにより受け付けることが可能なコントロール506が表示される。
また、S617で設定されたOUT点305の位置には、OUT点305の編集(変更)をユーザにより受け付けることが可能なコントロール502が表示される。
また、図5(B)は、図4の木屋野次郎の表示個所を選択した際に表示される画面であり、欠席の音声を検出したフレームを含む、フレーム308からフレーム313がブラックアウト/グレーアウトして表示されている。そして、図5(B)に示すように、図4の416と同じメッセージ507を表示している。このように、PC101は、図4の木屋野次郎の表示個所が選択された場合に、図5(B)の表示を行う。
PC101は、動画編集画面(図4)を介して、ユーザによる操作指示を受け付ける(S623)。
例えば、PC101は、ユーザの操作に従って、コントロール501、505、506、502を任意のフレーム間の位置に移動(変更)する。これにより、各IN点、各OUT点の位置を任意の位置に変更することにより、動画の編集を行うことが可能なる。
また、PC101は、S622において、動画編集画面(図4)にリスト表示された動画、氏名のうち、選択された動画、氏名の動画を表示領域409に表示し、各動画について、同様の操作を行うことが出来る。
そして、PC101は、ユーザにより、動画編集画面(図4)にリスト表示された各動画、各氏名のボタン406(指示受付部)の選択を受け付け、ファイル生成ボタン411の押下を受け付ける(S623)。
PC101は、S623で、ユーザにより受け付けた操作内容が、IN点、又はOUT点の位置を任意の位置に変更することにより、動画の編集を行う編集指示であると判定された場合には(S624:編集指示)、ユーザ操作により任意にIN点、又はOUT点が変更された位置を登録する編集処理を実行する(S626)。そして、処理をS623に戻す。
S623は、本発明の受付手段の適用例であり、ユーザにより、表示手段により画像(フレーム)に対してコントロールが表示された位置の変更指示を受け付ける。
また、S626は、本発明の変更手段の適用例であり、S623の受付手段により受け付けた変更指示に従って、当該画像(フレーム)に対するコントロールの表示位置の変更、及び、設定手段により設定されたイン点、又はアウト点の位置の変更を行いその結果を表示する。
また、PC101は、S623で、ユーザにより受け付けた操作内容が、リスト表示された各動画、各氏名のボタン406(指示受付部)の選択を受け付け、ファイル生成ボタン411の押下を受け付けた指示(生成指示)であると判定された場合には(S624:生成指示)、当該選択された動画のファイルの生成を行う(S625)。具体的には、現在、登録されている各IN点、及び各OUT点の位置で、動画を切り取り、氏名(ユーザ)ごとの動画ファイルを、それぞれ生成する。すなわち、S626の編集処理が行われた場合には、当該編集されたIN点、及び/又はOUT点の位置で、動画を切り取り、氏名(ユーザ)ごとの動画ファイルを、それぞれ生成する。
例えば、図5(A)に示すように、フレーム308とフレーム309との間の位置に、IN点302のコントロール501が設定され、フレーム309とフレーム310との間の位置に、OUT点303のコントロール505が設定され、フレーム310とフレーム311との間の位置に、IN点304のコントロール506が設定され、フレーム312とフレーム313との間の位置に、OUT点305のコントロール502が設定されている場合、PC101は、S625において、コントロール501とコントロール505との間のフレーム(群)と、コントロール506とコントロール502との間のフレーム(群)とを切り出して、コントロール501とコントロール505との間のフレーム(群)と、コントロール506とコントロール502との間のフレーム(群)とを連結して1つの動画ファイルとして生成する。
また、ここで、コントロール505、及び506が無い場合には、コントロール501とコントロール502との間のフレーム(群)を切り出して、1つの動画ファイルとして生成する。
この処理を、S623でユーザにより選択された動画ごと(氏名(ユーザ)ごと)に実行し、氏名(ユーザ)ごとの動画ファイルを、それぞれ生成する(S625)。そして、処理を終了する。
次に、図7を用いて、動画のプレビュー再生を行う処理について説明する。
図7は、動画のプレビュー再生を行う処理を示すフローチャートの一例を示す図である。
図7に示すフローチャートは、PC101のCPU201が制御プログラムを読み出して実行する処理である。
図7に示す処理は、図6のS623で実行可能な処理である。
PC101は、ユーザにより、図4の動画編集画面にリスト表示された各氏名の各動画のうち1つの動画が選択され、ユーザにより、再生ボタン413の押下を受け付けたか否かを判定することにより、当該動画の再生指示を受け付けたか否かを判定する(S701)。
ここでは、S626の編集処理を行う前の動画、又は、S626の編集処理後の動画(S626でIN点、又はOUT点の位置を任意の位置に変更された動画)についての再生指示を受け付けたか否かを判定する。
そして、PC101は、動画の再生指示を受け付けたと判定された場合には、当該動画の動画ファイルの読み込みを行い(S702)、当該動画の再生を行う(S703)。ここでは、コントロール505とコントロール506との間のフレーム(群)については、スキップして再生されない。また、コントロール501以前のフレーム(群)、コントロール502以後のフレーム(群)についても、同様に再生されない。
ここで再生される動画は、コントロール501とコントロール505との間のフレーム(群)と、コントロール506とコントロール502との間のフレーム(群)とが連結された動画である。
PC101は、当該動画の再生が終了した場合には(S704:YES)、処理をS701に戻す。また、動画の再生が終了していない場合には、引き続き、当該動画の再生を行う(S703)。
PC101は、S606、S609、S612、S616で説明した通り、検出手段により、イン点、又はアウト点を設定するための音声の直前又は直後の所定時間内に音声が続けて検出された場合には(S606:NO、S609:NO、S612:NO、S616:NO)、イン点、又はアウト点を設定するための当該音声に基づく動画データのイン点、又はアウト点の設定を行わない。
PC101は、S606、S609、S612、S616で説明した通り、イン点、又はアウト点を設定するための音声の直前又は直後の所定時間内に音声が続けて検出されなかった場合には(S606:YES、S609:YES、S612:YES、S616:YES)、イン点、又はアウト点を設定するための当該音声に基づく動画データのイン点、又はアウト点の設定を行う(S607、S610、S613、S617)。
図10は、本実施形態の差替対象動画の差替処理を示すフローチャートの一例である。
図10は、PC101のCPU201が所定の制御プログラムを読み出して実行する処理である。
図10に示す処理は、図4に示す差替処理ボタン415がユーザにより押下されたときにPC101が実行する処理である。
例えば、木屋野次郎が撮影会に欠席し撮影できなかったときに、他のユーザがフレームインして「欠席」という言葉を喋りフレームアウトした動画が撮影され、当該他のユーザの動画が、S632で切り出され登録され、当該動画を、図10に示す処理で、後で撮影された木屋野次郎の動画に差し替える。
まず、PC101は、まず、所定の制御プログラムを起動すると、動画編集画面をディスプレイ210等の表示部に表示する。
図10において、図6に示す処理と同一の処理については、同一の符号を付しており、当該同一の処理については、説明を省略する。
まず、PC101は、ユーザに指示に応じて、PC101のメモリ等の記憶手段に記憶されている関連付リスト802(A)を読み取り取得する(S1001)。
S1001は、本発明の取得手段の適用例であり、後で差し替えるべき動画データとして識別情報(例えば、氏名など)と関連付けて登録された動画データを差し替えて登録する他の動画データを取得する。
そして、PC101は、関連付リスト802(A)の「差替要否」の項目が「要」のレコードを特定する(S1002)。例えば、関連付リスト802(A)の「差替要否」の項目が「要」のレコードとして「順番(番号)」が「2」、「氏名」が「木屋野次郎」、「動画ファイル名」が「動画ファイル2」のレコードを特定する。
そして、PC101は、撮影会を欠席したときよりも後に撮影された1つの動画ファイル(「木屋野次郎」が撮影された動画ファイル(動画データ))の読み取りを行う(S602)。そして、PC101は、S603からS619、S627、S628の処理を実行する。これらの処理については、図6で説明済みであるため、ここではその説明を省略する。
そして、S603からS619、S627、S628の処理によりファイル始点、ファイル終点、各イン点、各アウト点の設定がなされ、PC101は、当該設定されたファイル始点、及びファイル終点で動画ファイルを切り出して、当該切り出された動画ファイルを、S1002で特定されたレコードに登録されていた動画ファイル(例えば、「動画ファイル2」)と差し替えて登録する。また、PC101は、当該レコードの「差替要否」の項目を「要」から「否」に変更する(S1003)。このようにして変更された関連付リストを図8の802(B)に示す。そして、PC101は、処理をS621に移行する。
S621以降の処理は、図6と同様であるため、ここでは、説明を省略する。
このようにして、S1003で動画が差し替えられ、「木屋野次郎」(氏名)と、当該木屋野次郎の動画とが正しく関連付けられて登録され、図10のS622で表示される動画編集画面では、図11のように表示される。
S1003は、本発明の差替手段の適用例であり、S632の登録手段により、後で差し替えるべき動画データとして識別情報と関連付けて登録された動画データを、S1001の取得手段により取得した他の動画データに差し替えて当該識別情報と関連付けて登録する。
図11は、S1003で動画が差し替えられた後の動画編集画面の一例を示す図である。
図11に示すように、図4に示す416等のメッセージの表示は非表示となっており、「木屋野次郎」の一言メッセージの動画のタイムライン、画像などが表示されている。
上述の本実施形態では、S605で「開始」の音声を検出する例で説明したが、音声の代わりに被写体(人物)のジェスチャー(「開始」を示すジェスチャー)を検出するようにすることもできる。
また、同様に、S608で「中断」の音声を検出する例で説明したが、音声の代わりに被写体(人物)のジェスチャー(「中断」を示すジェスチャー)を検出するようにすることもできる。
また、同様に、S611で「再度開始」の音声を検出する例で説明したが、音声の代わりに被写体(人物)のジェスチャー(「再度開始」を示すジェスチャー)を検出するようにすることもできる。
また、同様に、S615で「終了」の音声を検出する例で説明したが、音声の代わりに被写体(人物)のジェスチャー(「終了」を示すジェスチャー)を検出するようにすることもできる。
S607、S613は、本発明のイン点設定手段の適用例であり、動画データの中で、検出手段で第1音声又は第1ジェスチャーが検出された時間又はフレームに基づき特定される位置にイン点を設定する。
また、イン点設定手段は、動画データの中で、検出手段で第1音声又は第1ジェスチャーが検出されたフレームと、当該フレームの後続のフレームであって第1音声又は第1ジェスチャーが検出されなかったフレームとの間の位置にイン点を設定する。
また、S610、S617、S627は、本発明のアウト点設定手段の適用例であり、動画データの中で、検出手段で第2音声又は第2ジェスチャーが検出された時間又はフレームに基づき特定される位置にアウト点を設定する。
また、アウト点設定手段は、動画データの中で、検出手段で第2音声又は第2ジェスチャーが検出されたフレームと、当該フレームよりも前のフレームであって第2音声又は第2ジェスチャーが検出されなかったフレームとの間の位置にアウト点を設定する。
以上、本発明によれば、動画データに含まれる人物と、当該人物の識別情報との関連付けに係る作業を軽減可能にすることができる。
また、本発明によれば、人物が撮影された動画データに含まれる音声に基づいて、動画データを編集するためのイン点、又はアウト点を効率的に設定することができる。
また、本発明によれば、複数の人物が入れ替わり撮影された各人物の動画を含む1つの動画ファイルから、効率的に、人物毎に、当該人物を含む動画ファイルをそれぞれ生成することが可能となる。
本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
また、本発明におけるプログラムは、図示したフローチャートの処理方法をコンピュータが実行可能なプログラムであり、本発明の記憶媒体は当該処理方法をコンピュータが実行可能なプログラムが記憶されている。なお、本発明におけるプログラムは各装置の処理方法ごとのプログラムであってもよい。
以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読み出し、実行することによっても本発明の目的が達成されることは言うまでもない。
この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記録した記録媒体は本発明を構成することになる。
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク等を用いることが出来る。
また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
また、本発明は、複数の機器から構成されるシステムに適用しても、ひとつの機器から成る装置に適用しても良い。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。
さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。
101 PC
102 撮影者
103 人物
104 カメラ
105 椅子
102 撮影者
103 人物
104 カメラ
105 椅子
Claims (12)
- 人物が入れ替わり撮影された動画データの中から人物ごとの動画データを個々に分割して生成される順番に対応して、当該人物を個々に識別するための識別情報が定められた人物リストを記憶する記憶手段を備える情報処理装置であって、
人物が入れ替わり撮影された前記動画データの中から、人物ごとの動画データを個々に分割して生成する生成手段と、
前記生成手段により順次生成された動画データを、当該動画データが生成された順番に対応して前記人物リストに定められた人物の識別情報と関連付けて登録する登録手段と、
前記生成手段により生成される動画データに含まれる音声又はジェスチャーを検出する検出手段と、
を備え、
前記登録手段は、前記検出手段により検出された音声又はジェスチャーに応じて、当該音声又はジェスチャーを含む前記生成手段により生成された動画データを、後で差し替えるべき動画データとして、当該動画データが生成された順番に対応して前記人物リストに定められた識別情報と関連付けて登録することを特徴とする情報処理装置。 - 人物が入れ替わり撮影された動画データの中から、人物ごとにフレームイン、及びフレームアウトした時間又はフレームを特定する特定手段を更に備え、
前記生成手段は、前記特定手段により特定された時間又はフレームに基づき特定される分割位置で前記動画データを分割して人物ごとの動画データを個々に生成することを特徴とする請求項1に記載の情報処理装置。 - 前記検出手段により検出された音声又はジェスチャーが、前記生成された動画データを後で差し替えるべき動画データとして登録するための所定の音声又はジェスチャーであるかを判定する判定手段を更に備え、
前記登録手段は、前記判定手段により、前記検出手段により検出された音声又はジェスチャーが、前記生成された動画データを後で差し替えるべき動画データとして登録するための所定の音声又はジェスチャーであると判定された場合に、当該所定の音声又はジェスチャーを含む前記生成手段により生成された動画データを、後で差し替えるべき動画データとして、当該動画データが生成された順番に対応して前記人物リストに定められた識別情報と関連付けて登録すること特徴とする請求項1又は2に記載の情報処理装置。 - 前記登録手段は、前記判定手段により、前記検出手段により検出された音声又はジェスチャーが、前記生成された動画データを後で差し替えるべき動画データとして登録するための所定の音声又はジェスチャーではないと判定された場合に、当該所定の音声又はジェスチャーを含む前記生成された動画データを、後で差し替えるべき動画データではない動画データとして、当該動画データが生成された順番に対応して前記人物リストに定められた識別情報と関連付けて登録し、
前記登録手段により、後で差し替えるべき動画データとして識別情報と関連付けて登録された動画データと、後で差し替えるべき動画データではない動画データとして識別情報と関連付けて登録された動画データとを識別可能に表示する表示手段を更に備える請求項3に記載の情報処理装置。 - 前記表示手段は、前記登録手段により、後で差し替えるべき動画データとして識別情報と関連付けて登録された動画データについて、当該動画データを差し替えるべき旨のメッセージを表示することを特徴とする請求項4に記載の情報処理装置。
- 後で差し替えるべき動画データとして前記識別情報と関連付けて登録された動画データを差し替えて登録する他の動画データを取得する取得手段と、
前記登録手段により、後で差し替えるべき動画データとして前記識別情報と関連付けて登録された動画データを、前記取得手段により取得した他の動画データに差し替えて当該識別情報と関連付けて登録する差替手段と、
を更に備えることを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。 - 前記検出手段は、前記生成される動画データを編集するためのイン点を設定するための第1音声又は第1ジェスチャーを検出し、
前記動画データの中で、前記検出手段で前記第1音声又は前記第1ジェスチャーが検出された時間又はフレームに基づき特定される位置に前記イン点を設定するイン点設定手段を更に備えることを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。 - 前記イン点設定手段は、前記動画データの中で、前記検出手段で前記第1音声又は第1ジェスチャーが検出されたフレームと、当該フレームの後続のフレームであって前記第1音声又は第1ジェスチャーが検出されなかったフレームとの間の位置に前記イン点を設定することを特徴とする請求項7に記載の情報処理装置。
- 前記検出手段は、前記生成される動画データを編集するためのアウト点を設定するための第2音声又は第2ジェスチャーを検出し、
前記動画データの中で、前記検出手段で前記第2音声又は第2ジェスチャーが検出された時間又はフレームに基づき特定される位置に前記アウト点を設定するアウト点設定手段を更に備えることを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。 - 前記アウト点設定手段は、前記動画データの中で、前記検出手段で前記第2音声又は前記第2ジェスチャーが検出されたフレームと、当該フレームよりも前のフレームであって前記第2音声又は第2ジェスチャーが検出されなかったフレームとの間の位置に前記アウト点を設定することを特徴とする請求項9に記載の情報処理装置。
- 人物が入れ替わり撮影された動画データの中から人物ごとの動画データを個々に分割して生成される順番に対応して、当該人物を個々に識別するための識別情報が定められた人物リストを記憶する記憶手段を備える情報処理装置における制御方法であって、
人物が入れ替わり撮影された前記動画データの中から、人物ごとの動画データを個々に分割して生成する生成工程と、
前記生成工程により順次生成された動画データを、当該動画データが生成された順番に対応して前記人物リストに定められた人物の識別情報と関連付けて登録する登録工程と、
前記生成工程により生成される動画データに含まれる音声又はジェスチャーを検出する検出工程と、
を備え、
前記登録工程は、前記検出工程により検出された音声又はジェスチャーに応じて、当該音声又はジェスチャーを含む前記生成工程により生成された動画データを、後で差し替えるべき動画データとして、当該動画データが生成された順番に対応して前記人物リストに定められた識別情報と関連付けて登録することを特徴とする制御方法。 - 請求項11に記載の制御方法を実行するためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017228526A JP2019102852A (ja) | 2017-11-29 | 2017-11-29 | 情報処理装置、及びその制御方法、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017228526A JP2019102852A (ja) | 2017-11-29 | 2017-11-29 | 情報処理装置、及びその制御方法、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019102852A true JP2019102852A (ja) | 2019-06-24 |
Family
ID=66974205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017228526A Pending JP2019102852A (ja) | 2017-11-29 | 2017-11-29 | 情報処理装置、及びその制御方法、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019102852A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220180904A1 (en) * | 2020-12-03 | 2022-06-09 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium |
-
2017
- 2017-11-29 JP JP2017228526A patent/JP2019102852A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220180904A1 (en) * | 2020-12-03 | 2022-06-09 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6093289B2 (ja) | 映像処理装置、映像処理方法およびプログラム | |
US9685199B2 (en) | Editing apparatus and editing method | |
US20080079693A1 (en) | Apparatus for displaying presentation information | |
JP4988012B2 (ja) | 電子機器およびインデキシング制御方法 | |
JP4940345B2 (ja) | 電子機器及び画像処理方法 | |
JP6176991B2 (ja) | 情報処理装置およびその制御方法およびプログラム | |
JP2019186784A (ja) | 映像作品を作成するための装置、方法、及びプログラム | |
JP2007288637A (ja) | 再生装置および方法、並びにプログラム | |
US20070040901A1 (en) | Video processing apparatus and object processing method | |
US9542098B2 (en) | Display control apparatus and method of controlling display control apparatus | |
JP2019102852A (ja) | 情報処理装置、及びその制御方法、プログラム | |
JP2008250700A (ja) | 情報処理装置、ウインドウ再生方法及びプログラム | |
JP2006099532A (ja) | 情報処理装置、画像データ出力方法およびプログラム | |
JP2019102850A (ja) | 情報処理装置、及びその制御方法、プログラム | |
JP2019102851A (ja) | 情報処理装置、及びその制御方法、プログラム | |
US9756238B2 (en) | Image capturing apparatus for performing authentication of a photographer and organizing image data for each photographer and control method thereof | |
JP6597263B2 (ja) | 情報処理装置、その制御方法、及びプログラム | |
JP4876736B2 (ja) | ドキュメントカメラ装置 | |
JP4366486B2 (ja) | 画像再生装置 | |
JP2006252208A (ja) | アノテーション付与装置、アノテーション付与方法およびプログラム | |
US11620259B2 (en) | Electronic device, method for controlling electronic device, and non-transitory computer readable medium | |
CN113261302B (zh) | 电子装置 | |
JP7150590B2 (ja) | 電子機器 | |
JP7150591B2 (ja) | 電子機器 | |
JP2019102944A (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20180703 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20181031 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190109 |