JP2015002533A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2015002533A
JP2015002533A JP2013127791A JP2013127791A JP2015002533A JP 2015002533 A JP2015002533 A JP 2015002533A JP 2013127791 A JP2013127791 A JP 2013127791A JP 2013127791 A JP2013127791 A JP 2013127791A JP 2015002533 A JP2015002533 A JP 2015002533A
Authority
JP
Japan
Prior art keywords
time
moving image
still image
region
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013127791A
Other languages
English (en)
Other versions
JP6261198B2 (ja
Inventor
伊藤 祥晴
Yoshiharu Ito
祥晴 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013127791A priority Critical patent/JP6261198B2/ja
Publication of JP2015002533A publication Critical patent/JP2015002533A/ja
Application granted granted Critical
Publication of JP6261198B2 publication Critical patent/JP6261198B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ホワイトボードなどを用いた会議を動画像で撮影し、後で所望の時点の会議の様子を参照するという場面が考えられるが、実態に即した手法が存在しない。【解決手段】情報処理装置は、動画像に含まれる静止画像同士を比較することで、静止画像同士の間で差のある前記動画像における領域、および、前記領域に対応付ける前記動画像における時刻を特定する。そして、前記領域と前記時刻とを関連付ける。後から動画像を参照する際には、ディスプレイに表示された、動画像に含まれる静止画像内の領域をユーザーが指し示す。この領域が特定した領域に対応する場合、関連付けられた時刻に基づいて動画像の再生をする。【選択図】図1

Description

本発明は、動画像を扱う情報処理装置、情報処理方法およびプログラムに関する。
過去に行われたプレゼンテーションを後から振り返ることを容易にする手法が知られている。例えば特許文献1の技術は、プレゼンテーションの動画像と、プレゼンターが使用したプレゼンテーション資料に対する操作履歴と、時刻とを保存する。そして、後でそのプレゼンテーションを参照する時に、プレゼンテーション資料上の位置を指定し、その位置に関連する時刻からプレゼンテーション動画像を再生する。
また一方でホワイトボードを用いた会議等を後から振り返ることを可能にする手法が知られている。例えば特許文献2の技術では、ホワイトボードをカメラで静止画撮影した画像を時系列で比較する。そして、画像の差分が検出された場合もしくは紙文書の貼り付けが検出された場合はその差分情報と時刻とを関連付けて保存する。そして、参照時にはこれら保存された差分情報と時刻とを元にプロジェクタで画像投影する。これにより、画像の差分だけでなく紙文書の情報を含むホワイトボードの状態を後から再現することを可能にする。
特開2012−65170号公報 特開2010−224666号公報
ホワイトボードなどを用いた会議を動画像で撮影し、後で所望の時点の会議の様子を参照するという場面が考えられるが、実態に即した手法が存在しない。
特許文献1の手法は、プレゼンテーション資料を説明した際のカーソル位置と時刻とを関連付けるものであり、既存の資料を用いて説明を行う場面に適用することは可能であるが、ホワイトボードのように新しく資料を作成する場面においては適していない。例えば、特許文献1の技術は同一ページ内のオブジェクトを最初に説明する際の時刻情報が付されるものであり、オブジェクトに関連付けられる時刻情報が1つに限られている。従って、ホワイトボード内の資料のように同一の構図内でオブジェクトが時系列に変化し得る場面では所望の箇所を後から簡易に参照できない。
また特許文献2の手法はホワイトボードの静止画の差分のみに焦点を置いており、後から参照する際にどのような会議の流れでホワイトボードの書き込みがなされたかを把握することは困難である。また、ホワイトボードに対して紙文書の貼り付けや専用マーカーによる書込みが追加される場合しか考慮されておらず、紙文書をはがした場合や書込みが消された場合のホワイトボードの状態を後から再現させることは困難である。
本発明に係る情報処理装置は、動画像に含まれる静止画像同士を比較することで、静止画像同士の間で差のある前記動画像における領域、および、前記領域に対応付ける前記動画像における時刻を特定する特定手段と、前記領域と前記時刻とを関連付ける関連付け手段と、を有することを特徴とする。
本発明によれば、所望の時点における動画像の再生が簡易に可能となる。
動画像撮影再生システムのハードウエア構成例を示す図である。 情報処理装置のハードウエア内部構成を示す図である。 動画像撮影再生システムの機能構成の例を示す図である。 動画像から静止画像を抽出した例の概略を示す図である。 領域時刻関連情報を生成する処理の一例を示すフローチャートである。 動画像から抽出された静止画像と差分領域を一覧にした例を示す図である。 差分情報の例を示す図である。 領域差分の例を示す図である。 動画像の再生を行う処理の一例を示すフローチャートである。 再生処理の初期画面表示の例を示す図である。 サムネイル画像の表示例を示す図である。 動画像の再生を行う処理の他の例を示すフローチャートである。 再生処理における表示例を示す図である。 動画像の再生を行う処理の他の例を示すフローチャートである。 再生処理における表示例を示す図である。
以下、図面を用いて本発明に係る実施形態を詳細に説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、この発明の範囲をそれらに限定する趣旨のものではない。
始めに本実施例の適用が想定される場面について説明する。例えば会議参加者がそれぞれホワイトボードに文字や図形などを書き込む会議を行うことがある。このような会議において、会議の内容を保存する方法としては、ホワイトボードの様子を撮影して静止画像として記録する方法がある。しかし会議中の細かな会話の内容や議論の経緯などは文字や図形で残りにくく、後から保存された静止画像を参照しても思い出すことが困難であることが多い。
そこで本実施例では、会議の内容を音声付きの動画像で全て保存しておき、後から参照するシステムを提供する。後から参照する際にはホワイトボードの静止画像から参照したい任意の書込み領域を選択し、任意の再生開始時刻から動画像が再生されるようにすることで動画参照の補助を行う。もちろん、会議のほかにも、授業の板書を音声付の動画像で保存するような場面においても本実施例を適用することができる。
図1は本実施例における動画像撮影再生システムのハードウエア構成例を示したものである。
図示するようにこの動画像撮影再生システムは、情報処理装置100と、ホワイトボード110と、ビデオカメラ120と、マイクロフォン130とにを含むシステムよって構成されている。
情報処理装置100は、ビデオカメラ120がホワイトボード110を撮影した動画像とマイクロフォン130から送られてくる音声とを保存する。また情報処理装置100は、後述する処理を行い内蔵する表示装置で静止画像や動画像の表示を行う。この情報処理装置100は、ビデオカメラとマイクロフォンが接続できるパーソナルコンピュータやワークステーションに限られることはなく、ビデオカメラとマイクロフォンを内蔵するタブレットなどのコンピュータシステムを用いても良い。すなわち、図1の例では情報処理装置とビデオカメラとマイクロフォンとが別々の装置である例を示しているが、これらを一体型にした単一の装置を用いてもよい。また、情報処理装置が表示装置を内蔵していなくてもよく、外部の表示装置に情報処理装置が静止画像や動画像を表示させてもよい。
ホワイトボード110は、専用のマーカーペンで文字や図形などを書込むのに用いる白い板で、専用のイレーサーを使うことで書込みを何度でも消去できる。壁面に貼るタイプの巻取り式のシート状のものを用いても良い。もちろん、ホワイトボードではなく黒板でもよく、資料や成果物等を対話等を通じて作成するような場面に用いられるものであればいずれの形状のものであってもよい。
ビデオカメラ120は、ホワイトボード110に書き込まれた文字や図形を撮影して動画像データを得る。ビデオカメラ120は動画像データを情報処理装置100へ送信する。ビデオカメラ120は動画像データを2次記憶等へ保存する機能を持っていても良いし、単に情報処理装置に送信する機能を持っていても良い。マイクロフォン130は、会議参加者の会話などの音声を音声データに変換し、情報処理装置100へ送信する。
ここではビデオカメラ120とマイクロフォン130は別体型を用いているが、マイクロフォンの機能を内蔵した一体型のビデオカメラを用いるようにしても良い。
図2は、情報処理装置100のハードウエア内部構成例を示す図である。情報理装置100は、CPU200、ROM201、RAM202、HDD203、ディスプレイ204、カメラI/F205、マイクI/F206、キーボード207、マウス208を有し、それらはシステムバス209によって接続されている。
CPU(プロセッサ)200は、情報処理装置100全体の制御を行うものであり、ROM201やHDD203などに記憶されたプログラムをRAM202に読み込み、各種処理を実行する。すなわち、情報処理装置100のCPU200は、コンピュータ読み取り可能な記憶媒体に記憶されたコンピュータプログラムを実行することにより、後述するフローチャートの各ステップを実行する制御部として機能する。ROM201は、CPU200を起動するためのプログラムを含む各種データを記憶している。RAM202は、ワークメモリとして用いられる。
HDD203はビデオカメラ120で得られた動画像データやマイクロフォン130から得られた音声データを保存する。また、動画像データと音声データとが重畳されエンコードされたMPEG、AVI等の動画ファイルを保存してもよい。ディスプレイ204は動画像や静止画像を表示する。カメラI/F205はビデオカメラ120からの動画像データを入力する。マイクI/F206はマイクロフォン130からの音声データを入力する。キーボード207やマウス208はユーザーからの操作指示を入力する。なお、キーボード207やマウス208の代わりにディスプレイ204と一体となったタッチパネルを用いてユーザーからの操作指示を入力してもよい。
図3は、動画像撮影再生システムの機能構成例を示す図である。
制御部300は、関連情報生成処理310に関連する機能部と動画像再生処理320に関する機能部とを有する。
関連情報生成処理310に関連する機能部は、動画像受信部311と、静止画像抽出部312と、時刻抽出部313と、差分抽出部314と、関連情報生成部315とである。
動画像生成処理320に関連する機能部は、動画像再生部321と、静止画像再生部322と、領域選択部323と、選択情報生成部324と、画像合成部325とである。
まず、関連情報生成処理310に関連する機能部について個々に説明する。
動画像受信部311は、動画像撮影部330から動画像データを受信して記憶部360へ動画像データ361として保存する。この動画像データは、前述のとおり動画像と音声とが重畳されたデータであってもよいし、音声を含まない動画像のみのデータであってもよい。
静止画像抽出部312は、動画像データ361から所定のタイミングで静止画像を抽出し、静止画像データ362として記憶部360に保存する。静止画像を抽出するタイミングについては、例えばユーザーが操作部350を用いて手動で指示したタイミングを用いて抽出したり、図示しない時刻計数部を用いて一定時刻間隔で取り出したりすることが考えられる。本実施例では、ユーザーが操作部350を用いて手動で指示したタイミングを用いて動画像データ361から静止画像データ362を抽出すると仮定する。
時刻抽出部313は、静止画像抽出部312が静止画像データを抽出した際の動画像中の時刻情報を抽出してその静止画像データに関連付ける。
差分抽出部314は、静止画像抽出部312が抽出した静止画像データを時系列順に比較し、差分情報を抽出する。すなわち、差分抽出部314は、時系列で隣接する静止画像同士を比較してその差分情報を抽出する。差分情報は例えば、前の時刻の静止画像から追加、変更、または削除された部分の領域を示す情報となる。詳細については後述する。
関連情報生成部315は、時刻抽出部313が抽出した時刻情報と、差分抽出部314が抽出した差分情報とを関連付け、領域時刻関連情報363を生成する。領域時刻関連情報は、静止画像間の差分領域を表す差分情報と、比較した静止画像のうち前の時刻の静止画像の抽出時刻とを関連付けた情報を少なくとも含む情報である。すなわち、領域時刻関連情報は、差分があった場合に、その差分が生じる直前の静止画像を抽出した時刻と差分情報とを関連付けた情報ともいえる。差分が生じる直前の静止画像の抽出時刻を関連付けておくことにより、後から再生する際にその直前の静止画像の抽出時刻から再生を開始することができる。従って、どのような経緯でその差分が形成されたのかを容易に参照することができる。領域時刻関連情報の詳細については後述する。生成した領域時刻関連情報363は記憶部360に保存される。
次に、動画像再生処理320に関連する各機能部について説明する。
動画再生部321は、領域時刻関連情報363に基づいて、動画像データ361を指定された再生開始時刻から読み出し、表示部340で表示する。静止画像再生部322は、静止画像データ362を読み出し、表示部340で表示する。記憶部360に保存されている動画像データ361が動画像のみを含み、音声を含まない場合には、動画像再生部321は、当該動画像の再生開始時刻に対応する音声データについても同様の再生開始時刻から再生する。
領域選択部323は、ユーザーが操作部350を操作することによって得られた領域選択情報を取得する。ユーザーが行う操作部350の操作は、座標情報の入力が可能なマウス208のクリック操作を用いる。また、表示部340に図示しない座標情報が得られるタッチ式の入力装置を付加し、画像を見ながらのタッチ入力によって情報を得るようにしても良い。
また、領域選択部323は、取得した領域選択情報によって特定される静止画像の領域を用いて、領域時刻関連情報363を走査する。すなわち、領域選択情報によって特定される静止画像の領域と、領域時刻関連情報に含まれる差分領域とを比較して、領域選択情報によって特定される領域と一致する差分領域を決定する。領域選択部323は、決定した差分領域に関連付けられている時刻情報を用いて動画像の再生開始時刻を決定し、動画像再生部321へ動画再生の指示を行う。
選択情報生成部324は、領域選択部323が領域時刻関連情報363を走査した結果、決定した差分領域に関連付けられている再生開始時刻が複数存在した場合の処理を行う。具体的には、選択情報生成部324は、該当する再生開始時刻の静止画像を複数読みだしてユーザーに選択を促すための表示画面用の画像(以下、サムネイル画像と称する)を生成する。
画像合成部325は、選択情報生成部324が生成したサムネイル画像などの複数の静止画像を同時に表示するために合成処理を行い、合成された画像を表示部340に表示する。
図4は動画像から静止画像を抽出する概略を示す図である。なお、以下では説明の簡略のため、動画像データのことを単に動画像と称し、静止画像データのことを静止画像と称する。
この例では、動画像400の中から動画像の最初のフレームの静止画像410、動画の最後のフレームの静止画像450までの間に、ユーザーが3”32、7”09、12”49の時刻で静止画像の抽出指示を行う例を示している。なお、3”32は、この動画像の開始から3分32秒経過したときの時刻を表す。図4は、この抽出指示の結果、静止画像410から静止画像450の合計5つの静止画像が得られたことを示している。また、静止画像440は、静止画像430と比較して一部の領域の書込みが削除されている画像を表している。
図5は、関連情報生成部315が、静止画像抽出部312によって抽出された静止画像を時系列順に比較し、領域時刻関連情報を生成する処理の一例を示すフローチャートである。図5に示す処理は、差分抽出部314と関連情報生成部315とによって処理される。より具体的には、RAM202に読み出されたプログラムをCPU200が実行することによって実現される。なお、以降のフローチャートに示す各処理についても同様に、RAM202に読み出されたプログラムをCPU200が実行することによって実現される。
差分抽出部314は、ステップS501からステップS506までの処理をIDの値1で初期化し、ループ処理の繰り返しごとにIDの値を加算しながら、比較する静止画像が存在する範囲で繰り返し実行する。IDの値は、静止画像抽出部312によって抽出された静止画像に対して時系列順に付された値であるとする。
ステップS502で差分抽出部314は、時系列順のID番目の静止画像と(ID+1)番目の静止画像とを比較することで静止画像の差分情報の抽出を行う。ステップS503で関連情報生成部315はステップS502の抽出の結果から得られる差分情報から差分の有無を判定する。すなわち、関連情報生成部315は、前の時刻の静止画像から追加、変更、または削除された部分の領域を示す情報が、後の時刻の静止画像に含まれるかを判定する。差分があった場合に関連情報生成部315は、さらにその差分が下地色であるか否かの判定をする。すなわちステップS504で関連情報生成部315は、ホワイトボード上に書かれてあった書込みが削除されたことに起因する差分であるかの確認を行う。差分が下地色でない場合、すなわち、前の時刻の静止画像から追加または変更があった場合はステップS505において関連情報生成部315は、領域時刻関連情報の生成を行う。領域時刻関連情報は画像の差分情報と、差分があった時の静止画像のID番目を抽出した時刻情報とを関連付けたものである。先に説明したように、静止時刻関連情報は、比較した静止画像同士のうち、時系列で前の静止画像を抽出した時刻情報と、差分情報とを少なくとも関連付けたものである。
一方、関連情報生成部315は、ステップS503で差分が無いと判定した場合またはステップS504で差分が下地であると判定した場合には、領域時刻関連情報を生成せずにステップS506へ処理を移す。ここで、差分が下地である場合に、領域時刻関連情報を生成しない理由について説明する。本実施例では、後述するように動画像の最終フレームの静止画像にホワイトボードの記載が全て含まれるであろうという観点から、最終フレームの静止画像をユーザーに提示して、再生を所望する領域を指定させる処理を行う。また、領域時刻関連情報を走査して、その領域に対応する複数の差分情報がある場合には、それらの複数の差分を表すサムネイル画像をユーザーに提示して、ユーザーから指示を受け付ける。ここで、差分が下地である場合、すなわち、記載を削除した場合には、サムネイル画像として元の記載が削除された時点の静止画像がユーザーに提示されることになる。ユーザーとしては、「ある記載」がされるに至った経緯などを後から参照したいにも関わらず、差分が下地の場合には、そもそも「ある記載」がない状態の画像が提示されることになってしまう。よって、ユーザーが簡易に参照したい項目を選択できるようにするために、差分が下地である場合に、領域時刻関連情報を生成しないことが好ましい。
ステップS506で差分抽出部314はIDの値を1加算して抽出された静止画像の数と比較し、同じ値になったら繰り返し処理を終了する。IDの値が静止画像の数に達していなかった場合には、差分抽出部314はステップS501から再度処理を行う。
図6は動画像から抽出された静止画像を入力した場合にステップS502の静止画像の差分抽出処理によって得られる静止画像の差分(差分領域)を一覧にしたものである。また、静止画像と静止画像を抽出した際の時刻(撮影時刻)と、抽出した静止画像に対して時系列順に付したIDと、を示している。また、ある静止画像Aとその静止画像Aの直後の静止画像Bとの差分を静止画像Bに関連付けている。図6の例では、例えばIDの値として2が付された静止画像のことをP(2)と特定する。また、そのIDの値として2が付された静止画像に関連付けられた差分領域のことをD(2)と特定する。
例えば、ステップ502を実行する時にIDの値が1だった場合は、静止画像P(1)と静止画像P(2)とを比較し、その結果として差分領域D(2)が得られる。差分領域D(2)は、点線の矩形内の領域Aが差分領域として抽出されることを示している。差分領域D(2)においては、差分が下地色ではないため、この場合は領域時刻関連情報が生成される。すなわち、少なくとも差分領域D(2)(領域A)を示す差分情報と、比較した静止画像のうち前の時刻の静止画像の抽出時刻である撮影時刻0”00とを関連付けた情報とが生成される。
またステップS502を実行する時にIDの値が3だった場合は、静止画像P(3)と静止画像P(4)とを比較し、その結果として差分領域D(4)が得られる。このときの差分領域D(4)(すなわち、点線の矩形内の領域B´)は、書込み610が消された下地色である。従って、この場合は領域時刻関連情報は生成されない。すなわち、差分領域D(4)(領域B´)に対応する領域時刻関連情報は生成されない。なお、図6の例では、領域Aと領域Bは位置的に異なる箇所であるが、領域Bと領域B´と、領域B”とは、位置的に同一箇所であると仮定する。
図7は、図6に示す静止画像を入力した場合にステップS605の領域時刻関連情報生成処理において生成される領域時刻関連情報を示したものである。
領域時刻関連情報は、例えば図7に示すように関連付けた項目を識別するためのID701と、差分情報702と、再生開始時刻情報703と、静止画像時刻情報704とを有する。差分情報702は、差分領域を示す情報のことである。再生開始時刻情報は、先に説明した、比較した静止画像のうち前の時刻の静止画像の抽出時刻のことである。図7の例では、4つの項目が関連付けられている情報を例として説明しているが、少なくとも差分情報702と再生開始時刻情報703(比較した静止画像のうち前の時刻の静止画像の抽出時刻)とが関連付けられていればよい。なお、静止画像時刻情報は、後述するサムネイル画像を生成する際に用いられるものである。再生開始時刻情報703と、静止画像時刻情報704とは、静止画像同士の間で差のある領域に対応付ける、動画像における時刻ともいえる。
差分情報702は静止画像の差分の領域を示す情報であり、領域を一意に特定できればどのようなデータ構造でも良い。図8を用いて差分情報の例について説明する。図8は、ユーザーによって追加された記載事項を静止画像の差分として抽出した結果の例を示す図である。例えば図8にある領域801のように、静止画像の差分に外接する矩形領域であれば、左上の座標であるX1,Y1、右下であるX2,Y2の情報を差分情報として保存すれば良い。また、領域802のように静止画像の差分の輪郭領域であれば、輪郭を示す座標の集合の情報を差分情報として保存すれば良い。再生開始時刻情報703は、比較した静止画像のうち前の時刻の静止画像の抽出時刻のことである。換言すれば、再生開始時刻情報703は、該当する領域に対して書込みが始まる時刻情報といえる。また静止画像時刻情報704は、比較した静止画像のうち後の時刻の静止画像の抽出時刻のことである。換言すれば、静止画像時刻情報704は該当する領域に対して書込みが終了した時刻情報といえる。
図7の領域時刻関連情報を図6の例を用いて具体的に説明する。図6において、IDの値が1であるときには、静止画像P(1)と静止画像P(2)との比較を行い、差分領域D(2)が抽出される。この差分領域D(2)を示す差分情報を領域Aとして図7のIDの値1の項目に保存する。また、差分領域の書込みが始まる時刻情報は比較した静止画像のうち前の時刻の静止画像の抽出時刻のことであるので、図6におけるIDが1であるときの撮影時刻である0“00を再生開始時刻として図7のIDの値が1の項目に保存する。また、書込みが終了した時刻情報は比較した静止画像のうち後の時刻の静止画像の抽出時刻のことであるので、図6におけるIDが2であるときの撮影時刻である3”22を静止画像時刻情報として図7のIDの値が1の項目に保存する。また同様に図6の例において、IDの値が2の場合と4の場合に領域時刻関連情報が生成される。
図9は、領域時刻関連情報と動画像と静止画像とを利用して任意の再生開始時刻から動画像の再生を行う処理の一例を示すフローチャートである。
まずステップS901において、静止画像再生部322は、最終静止画像を表示部340に表示する。この最終静止画像とは、静止画像抽出部312で抽出された、動画像における時系列の最後の静止画像のことである。図6の示す静止画像の例では静止画像P(5)が最終静止画像である。従って、ステップS901において、表示部340は図10のような表示をする。なお、図10の点線で示す矩形1002と1003とは差分を明示的に示しているものであり、表示部340では点線は表示されない。
ステップS901で最終静止画像を表示する理由について説明する。最終静止画像は、会議などが終了したときの最終的なホワイトボードの内容を撮影したものである。一般に、会議の終了時にはホワイトボードはメモ等で埋め尽くされていることが多い。従って、最終静止画像は、換言すれば、差分が次々に形成された最終結果を表す画像となる。このため、後からユーザーが参照する際に最終静止画像を用いることで、容易に所望の箇所を参照可能となる。なお、図9の例では、最終静止画像を用いる例を説明しているが、これに限られることはない。例えば、会議終了後に動画像の撮影を終了しておらず、ホワイトボードの記載を全て消去した場面の静止画像が最終静止画像となる場合もあり得る。このような場合には、最終静止画像を用いるのではなく、その前の静止画像を用いてもよい。
次にステップS902で領域選択部323は、ユーザーの操作部350に対する操作によって最終静止画像内に対する座標情報の入力を待つ。座標情報の入力を待つとは、前述のように、カーソルを所定の位置においた状態でのマウスクリックや、タッチパネルの所定位置のタッチを検出があるまで待つことである。ユーザーからの入力があった場合にはステップS903で領域選択部323は、入力された座標情報を元に差分領域時刻情報を走査する。より具体的には、入力された座標情報が差分領域時刻情報内の差分情報によって特定される各領域内に含まれているか否か走査する。次にS904で領域選択部323は、その走査の結果該当する領域(差分情報)がないと判定し場合には、ステップS902で再びユーザーの操作入力を待つ。一方、該当する領域があると判定した場合には、領域選択部323はステップS905に処理を進める。
次にステップS905において領域選択部323は、ステップS903による走査の結果、座標情報に対応する領域(差分情報)が複数存在するかを判定する。ここで複数あった場合の処理については後述し、先に座標情報に対応する差分情報が1つだけ存在する場合の処理の説明を行う。これは例えば図10の最終静止画像を表示部340に表示している場合に、領域1002内の座標がユーザーによって指定された場合である。座標情報に対応する差分情報が1つだけ存在する場合、領域選択部323は当該差分情報に関連付けられている再生開始時刻情報の時刻を、再生開始時刻として決定し、ステップS906に処理を進める。
ステップS906で動画像再生部321は、決定された再生開始時刻から、動画像の再生を開始する。次に動画像再生部321は、ステップS907でユーザーの操作部350を介した入力を待つ。入力があった場合は、たとえばユーザーが動画像を再生したものの、所望の箇所からの再生でないことが考えられる。従って、入力があった場合には、ステップS908で動画像の再生を中断した後にステップS901に処理を戻し、再び静止画像再生部322による静止画像の表示が行われる。一方、入力がなかった場合にはステップS909で動画像の再生が最後まで到達したかを判定する。動画像の再生が最後まで到達していなかった場合に動画像再生部321はステップS907で再びユーザーの操作入力を待ち、最後まで到達していた場合にはステップS901に処理を戻し、再び静止画像の表示を行う。
次にステップS902でユーザー入力された座標情報に対する領域の情報が、ステップS903の領域時刻関連情報の走査の結果、複数存在する場合の処理について説明する。これは例えば図10の最終静止画像を表示している場合において、領域1003内の座標が指定された場合である。
ステップS910で選択情報生成部324は、ユーザーが入力した座標情報に対応する領域(差分情報)に関連付けられた静止画像時刻情報が示す時刻の静止画像と、その領域に関連付けられた再生開始時刻情報とを含むサムネイル画像を、それぞれ生成する。そして、画像合成部325は生成された複数のサムネイル画像を最終静止画像に合成して表示部340に表示する。ここで、静止画像時刻情報が示す時刻の静止画像は、先に説明したように、静止画像抽出部312で抽出された静止画像を用いても良いし、抽出された静止画像の解像度などのサイズを縮小した画像であってもよい。
次に、図7のような領域時刻関連情報が記憶部360に保存されている場合に、ユーザーが入力した座標情報が領域Bであった場合について詳しく説明する。なお、先に説明したように、領域Bと領域B”とは同じ座標情報を有するものと仮定する。ステップS903による走査の結果、ユーザーが入力した座標情報に合致する差分情報は、図7のID値が2と3の差分情報である。ここで、選択情報生成部324は、ID値が2の静止画像時刻情報は7“09であるためこの時の静止画像と、再生開始時刻情報が3”32であるためこの時刻を表す画像とを含むサムネイル画像を生成する。同様にID値が3の場合のサムネイル画像を生成する。そして、画像合成部325が、これらの生成されたサムネイル画像を合成して表示部340に表示する。図11は合成されたサムネイル画像が表示部340に表示される例である。ID値が2のサムネイル画像が1101,ID値が3のサムネイル画像が1102である。なお、本例では、ユーザーが入力した座標情報に対応する領域(差分情報)に関連付けられた静止画像時刻情報が示す時刻の静止画像と、その領域に関連付けられた再生開始時刻情報とを含むサムネイル画像を生成する例を説明した。しかしながら、例えば再生開始時刻の代わりに、単に時間軸の前後関係を表すような情報を含むサムネイル画像を生成してもよい。また、静止画像のみから所望の箇所をユーザーが推定することができる場合も想定されるので、再生開始時刻がサムネイル画像に含まれていなくても良い。また、サムネイル画像に含まれる静止画像についても、例えば差分の領域のみを切り出した静止画像を用いても良い。
次にステップS911で領域選択部323は、ユーザーの操作部350に対する操作による座標情報の入力を待つ。入力があった場合にはステップS912で領域選択部323は、入力された座標情報が表示部340で表示されているサムネイル画像内であるかを判定する。座標情報がサムネイル画像外であった場合には、ステップS901に処理を戻し、静止画像再生部322が再び静止画像の表示を行う。これによってステップS910で表示されたサムネイル画像は表示部340から消去される。座標情報がサムネイル画像内であった場合には、ステップS913で領域選択部323は、その選択されたサムネイル画像に関連付けられた再生開始時刻を再生開始時刻として決定する。続く、ステップS9006で動画像再生部321は、決定された再生開始時刻から動画像の再生を開始する。
以上の処理により、表示された静止画像から注目したい箇所を指定することで、その領域に関連付けられた再生開始時刻から動画像の再生が開始される。またその箇所に複数の再生開始時刻が関連付けられていた場合でも、再生開始候補の画像を表示し選択を促すことで複数の中から1つを選択可能になる。従ってたとえばホワイトボードの各書込みに対して、書込みが開始されるところからの動画像が参照できる。また、誰が書込みを書いたかを容易に参照することができる。また、書込みに対する動画像中の音声を聞くことで会議中の会話や様子など、書込みがあった経緯を容易に把握することが可能になる。
実施例1では、動画像から抽出した静止画像を表示し、ユーザーからの入力を受け付ける例を説明した。しかしながら、ユーザーがどの領域を選択すればよいか判断に困る場面も想定される。
実施例2では動画像再生処理のユーザーからの入力を待つ状態で、入力可能な領域を明確に示すための手法について説明する。
実施例2におけるハードウエア構成や機能構成については実施例1で説明したものと同様のものとすることができるので、ここでの説明は省略する。
図12は本実施例における動画像の再生を行う処理の一例を示すフローチャートである。
まずステップS901において、静止画像再生部322は、最終静止画像を表示部340に表示する。この最終静止画像とは、静止画像抽出部312で抽出され記憶部360に保存した静止画像の中で、時系列において最後の静止画像のことである。図6の静止画像の例では静止画像P(5)が対応する。次にステップS1201において、領域選択部323は、指定可能な領域を表示する処理を行う。すなわち、差分領域として抽出されている領域を強調表示する。この処理は図7に示すような領域時刻関連情報を走査し、最終静止画像の中で図7に示すような各IDの差分情報702によって特定される領域に着色処理を行う。図13は、図7のような領域時刻関連情報を用いた着色の表示例である。図7のID値が1の箇所の着色例が領域1301であり、ID値が2及び3の箇所の着色例が領域1302である。領域選択部323は、IDの値ごとに着色する色や背景模様を変更してもよい。また、領域選択部323は、同一領域に複数の時刻情報が関連付けられている場合にはそれを示すような色や背景模様に変更する処理をしてもよい。
以降のステップS902からステップS913までの処理については、実施例1記載の処理と同等であるため、説明を割愛する。
以上の処理により、静止画像表示中のユーザーからの入力待ち状態において、ユーザーが入力可能な領域が明確になり、ユーザーの利便性が向上する。
実施例1および2では、ユーザーからの入力があった時点で、その入力された座標情報に基づいて処理を行う例を説明した。
実施例3では動画再生処理のユーザーからの入力を待つ状態で、複数の再生開始時刻情報を持った領域にマウスカーソルがかかった場合、すなわちマウスオーバーの場合に、自動的に再生候補時刻の表示を行う手法について説明する。
実施例3におけるハードウエア構成や機能構成については実施例1で説明したものと同様のものとすることができるので、ここでの説明は省略する。
図14は本実施例における動画像の再生を行う処理の一例を示すフローチャートである。
まずステップS901において、静止画像再生部322は、最終静止画像を表示部340に表示する。この最終静止画像とは、静止画像抽出部312で抽出され記憶部360に保存した静止画像の中で、時系列において最後の静止画像のことである。図6の静止画像の例では静止画像P(5)が対応する。
次に領域選択部323は、ステップS1401からS1403までの繰り返し処理を開始する。この処理はユーザーによる操作部350を介した座標の入力が行われるまでの間繰り返し実行される。すなわち、ユーザーによってマウスがクリックされることによる座標が入力されるまで繰り返し実行される。
ステップS1402で領域選択部323は、ユーザーの操作部350からの操作によって座標情報に変化があったかを判定する。例えば、マウスカーソルを移動させる操作を行った場合などに座標情報に変化があったと判定する。座標の変化があった場合には領域選択部323は、ステップS903からステップS905までの処理を実行する。本処理は基本的に実施例1記載の処理と同等である。本実施例では、マウスクリックされた座標情報ではなく、マウスが移動した際の座標情報を用いる点で異なる。
ステップS1401からS1403までの繰り返し処理を実行中に、ユーザーから操作部350を介する座標入力が行われた場合は繰り返し処理を終了する。すなわち、マウスを移動した後に、マウスクリックがされた場合には、繰り返し処理を終了する。そして、ステップS1404において領域選択部323は、入力された座標情報を元に領域時刻関連情報を走査する。この処理は符号が異なるだけでステップS903の処理と同等であるため説明を割愛する。次にステップS1405において領域選択部323は、ステップS1404による走査の結果、座標情報に対応する差分情報が存在するかを判定する。座標情報に対応する差分情報がないと判定した場合には、領域選択部323はステップS901に処理を戻し、静止画像再生部322が再び静止画像を表示部340に表示する。座標情報に対応する差分情報があると判定した場合には、ステップS906において動画像再生部321は、差分情報に対応する再生開始時刻情報より得られた再生開始時刻から、動画像の再生を開始する。以降のステップS907からS909までの処理については、実施例1記載の処理と同等であるため、説明を割愛する。
次にステップS1401からS1403までの繰り返し処理を実行中にユーザーから操作部350を介した座標入力が行われないまま、複数の再生開始時刻情報を持った領域に座標情報が変化した場合について説明する。これは図15に示すような、マウスカーソル1520が、マウスカーソル1530のように領域1510内へ移動した場合に相当する。この状態を検出するにはステップS903からS905までの同じ処理で判定可能であるため、説明を割愛する。
マウスカーソルが領域1510へ移動したらステップS910で選択情報生成部324は、ユーザーが入力した座標情報に対応する領域に関連付けられた複数の静止画像時刻情報に対応する静止画像と、再生開始時刻情報とを含むサムネイル画像を生成する。画像合成部325は、生成したサムネイル画像を最終静止画像に合成して表示部340に表示する。これは実施例1で説明した処理と同じである。次にステップS1406において領域選択部323は、ユーザーからの操作部350を介した座標入力が行われるのを待つ。この間に座標情報に変化があった場合はマウスカーソルの表示を移動させるが、次の処理には移行しない。ユーザーからの操作部350を介した座標入力が行われた場合はステップS912で領域選択部323は、座標情報がサムネイル画像内であるか判定する。座標情報がサムネイル画像外であった場合には、ステップS901に処理を戻し、静止画像再生部322が再び静止画像を表示部340に表示する。これによってステップS910で表示されたサムネイル画像は表示部340から消去される。座標情報がサムネイル画像内であった場合には、ステップS913で領域選択部323は、その選択されたサムネイル画像に関連付けられた再生開始時刻を再生開始時刻として決定する。そして、ステップS906で動画像再生部321はその再生開始時刻から動画像の再生を開始する。
以上処理により、静止画像表示中のユーザーからの入力を待つ状態で、複数の再生開始時刻情報を持った領域にマウスカーソルがかかった場合に、自動的に再生候補時刻の表示を行うようになり、ユーザーの利便性が向上する。
なお、実施例3では、複数の再生開始時刻情報を持った領域にマウスオーバーされた場合に、サムネイル画像を表示する例を説明した。しかしながら、1つの再生開始時刻情報を持った領域にマウスオーバーされた場合にも、その1つの再生開始時刻情報に対応するサムネイル画像を表示してもよい。すなわち、図14のステップS905を削除してステップS904の後にステップS910の処理を行うようにしてもよい。これにより、少なくとも再生開始時刻情報に対応する領域をマウスオーバーした場合にサムネイル画像が表示されるので、ユーザーの利便性が向上する。
<その他の実施例>
なお本発明は、上記実施の形態に限定されず、本発明の要旨を逸脱しない範囲で種々の変形が可能である。例えば図1のハードウエア構成例に、ホワイトボードを撮影するビデオカメラだけでなく会議参加者の様子を撮影するビデオカメラを追加し動画像を2種類保存し、動画像の再生時にピクチャーインピクチャーで両方の動画像を同時に再生してもよい。これにより会議の会話だけでなく参加者の様子も同時に確認できるため、より詳細な事後確認が可能になる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (15)

  1. 動画像に含まれる静止画像同士を比較することで、静止画像同士の間で差のある前記動画像における領域、および、前記領域に対応付ける前記動画像における時刻を特定する特定手段と、
    前記領域と前記時刻とを関連付ける関連付け手段と、
    を有することを特徴とする情報処理装置。
  2. 前記特定手段は、前記領域に対応付ける前記動画像における前記時刻として、比較した静止画像のうち時系列で前の静止画像を抽出した時刻を特定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記動画像に含まれる静止画像を表示手段に表示させる手段と、
    前記表示手段に表示された静止画像内の領域をユーザーが指し示すことで、当該領域に対応する前記動画像における領域を特定する手段と、
    ユーザーの前記指し示しによって特定された前記領域が、前記特定手段によって特定された前記領域に対応する場合に、前記特定手段によって特定された前記領域に関連付けられた前記時刻に基づいて、前記動画像の再生を行う手段と、
    を有することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記特定手段は、複数の領域を特定し、
    前記再生を行う手段は、ユーザーの前記指し示しによって特定された前記領域が、前記特定手段によって特定された前記複数の領域に対応する場合に、前記複数の領域それぞれに対応する複数の時刻のいずれに基づいて前記動画像の再生を行うかをユーザーに選択させ、ユーザーによって選択された時刻に基づいて前記動画像の再生を行うことを特徴とする請求項3に記載の情報処理装置。
  5. 前記関連付け手段は、前記領域に対応付ける前記動画像における前記時刻として、比較した静止画像のうち時系列で前の静止画像を抽出した時刻と、比較した静止画像のうち時系列で後の静止画像を抽出した時刻とを前記領域に関連付けることを特徴とする請求項4に記載の情報処理装置。
  6. 前記静止画像を表示手段に表示させる手段は、ユーザーの前記指し示しによって特定された前記領域が、前記特定手段によって特定された前記複数の領域に対応する場合に、前記複数の領域それぞれについて、関連付けられている後の静止画像を抽出した時刻に対応する静止画像を前記表示手段に表示させることを特徴とする請求項5に記載の情報処理装置。
  7. 前記静止画像を表示手段に表示させる手段は、関連付けられている前の静止画像を抽出した時刻を前記後の静止画像に対応する静止画像とともに前記表示手段に表示させることを特徴とする請求項6に記載の情報処理装置。
  8. 前記ユーザーによる選択は、マウスのクリックによって行われ、ユーザーの前記指し示しはマウスオーバーによって行われることを特徴とする請求項4から7のいずれか一項に記載の情報処理装置。
  9. 前記動画像に含まれる静止画像を表示手段に表示させる手段は、前記特定手段で特定された前記領域に対応する前記静止画像内の領域を強調表示させることを特徴とする請求項3から8のいずれか一項に記載の情報処理装置。
  10. 前記動画像に含まれる静止画像を表示手段に表示させる手段は、前記動画像に含まれる静止画像のうち時系列で最後の静止画像を前記表示手段に表示させることを特徴とする請求項3から9のいずれか一項に記載の情報処理装置。
  11. 前記関連付け手段は、前記特定手段で特定された領域の差が下地色である場合、当該領域の関連付けを行わないことを特徴とする請求項1から10のいずれか一項に記載の情報処理装置。
  12. 動画像に含まれる静止画像同士の間で差がある領域と、前記領域に対応付けられる時刻とを関連付けた情報を取得する手段と、
    前記動画像に含まれる静止画像を表示手段に表示させる手段と、
    前記表示手段に表示された静止画像内の領域をユーザーが指し示すことで、当該領域に対応する前記動画像における領域を特定する手段と、
    ユーザーの前記指し示しによって特定された前記領域が、取得した情報に含まれる領域に対応する場合に、該領域に関連付けられた前記時刻に基づいて、前記動画像の再生を行う手段と
    を有することを特徴とする情報処理装置。
  13. 動画像に含まれる静止画像同士を比較することで、静止画像同士の間で差のある前記動画像における領域、および、前記領域に対応付ける前記動画像における時刻を特定する特定工程と、
    前記領域と前記時刻とを関連付ける関連付け工程と、
    を有することを特徴とする情報処理方法。
  14. 動画像に含まれる静止画像同士の間で差がある領域と、前記領域に対応付けられる時刻とを関連付けた情報を取得する工程と、
    前記動画像に含まれる静止画像を表示手段に表示させる工程と、
    前記表示手段に表示された静止画像内の領域をユーザーが指し示すことで、当該領域に対応する前記動画像における領域を特定する工程と、
    ユーザーの前記指し示しによって特定された前記領域が、取得した情報に含まれる領域に対応する場合に、該領域に関連付けられた前記時刻に基づいて、前記動画像の再生を行う工程と
    を有することを特徴とする情報処理方法。
  15. コンピュータを、請求項1から12のいずれか一項に記載の情報処理装置として機能させるためのプログラム。
JP2013127791A 2013-06-18 2013-06-18 情報処理装置、情報処理方法およびプログラム Expired - Fee Related JP6261198B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013127791A JP6261198B2 (ja) 2013-06-18 2013-06-18 情報処理装置、情報処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013127791A JP6261198B2 (ja) 2013-06-18 2013-06-18 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2015002533A true JP2015002533A (ja) 2015-01-05
JP6261198B2 JP6261198B2 (ja) 2018-01-17

Family

ID=52296786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013127791A Expired - Fee Related JP6261198B2 (ja) 2013-06-18 2013-06-18 情報処理装置、情報処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6261198B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3502184A1 (en) 2015-01-07 2019-06-26 Mitsubishi Engineering-Plastics Corporation Polycarbonate resin composition for thin optical component, and thin optical component
CN114257773A (zh) * 2017-03-08 2022-03-29 索尼公司 图像处理设备和图像处理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167822A (ja) * 2003-12-04 2005-06-23 Canon Inc 情報再生装置及び情報再生方法
JP2005197883A (ja) * 2004-01-05 2005-07-21 Fuji Xerox Co Ltd 書込解析装置
JP2012217063A (ja) * 2011-04-01 2012-11-08 Sanyo Electric Co Ltd 電子機器、及び、録音/撮影方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167822A (ja) * 2003-12-04 2005-06-23 Canon Inc 情報再生装置及び情報再生方法
JP2005197883A (ja) * 2004-01-05 2005-07-21 Fuji Xerox Co Ltd 書込解析装置
JP2012217063A (ja) * 2011-04-01 2012-11-08 Sanyo Electric Co Ltd 電子機器、及び、録音/撮影方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3502184A1 (en) 2015-01-07 2019-06-26 Mitsubishi Engineering-Plastics Corporation Polycarbonate resin composition for thin optical component, and thin optical component
CN114257773A (zh) * 2017-03-08 2022-03-29 索尼公司 图像处理设备和图像处理方法

Also Published As

Publication number Publication date
JP6261198B2 (ja) 2018-01-17

Similar Documents

Publication Publication Date Title
WO2021109678A1 (zh) 视频生成方法、装置、电子设备及存储介质
US8363058B2 (en) Producing video and audio-photos from a static digital image
JP6171319B2 (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
RU2018118194A (ru) Способ записи, редактирования и воссоздания компьютерного сеанса
US10622021B2 (en) Method and system for video editing
JP2013027037A (ja) 注釈付きコンテンツをモバイル装置でキャプチャおよび編成するシステム、方法、およびプログラム
JP2014515512A (ja) ペンベースのコンピュータシステムにおけるコンテンツ選択
JP2017162434A (ja) ドキュメントのウェブベースコピーを生成する方法、プログラム及び装置
CN107748615B (zh) 屏幕的控制方法、装置、存储介质及电子设备
JP2013097808A (ja) 会議要旨生成装置、プログラム及びコンピュータ読み取り可能な記録媒体
JP2019101754A (ja) 要約装置及びその制御方法、要約システム、プログラム
JP6276570B2 (ja) 画像音声再生システム及び画像音声再生方法とプログラム
JP2016110676A (ja) 動画編集装置
JP6261198B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2007060028A (ja) 映像処理装置及びオブジェクト処理方法
JP5262888B2 (ja) 文書表示制御装置及びプログラム
JP2014120805A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2008250700A (ja) 情報処理装置、ウインドウ再生方法及びプログラム
JP2019047500A (ja) キー入力に基づいたアニメーション画像生成方法及び前記方法を行うユーザ端末
JP2008281715A (ja) 表示制御装置および表示制御方法
JP2016063477A (ja) 会議システム、情報処理方法、及びプログラム
KR101529254B1 (ko) 전자칠판 시스템을 이용한 회의록 작성 방법
JP2005260513A (ja) コンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラム
JP2005167822A (ja) 情報再生装置及び情報再生方法
JP5554214B2 (ja) 会議録システム及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171212

R151 Written notification of patent or utility model registration

Ref document number: 6261198

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees