JP2002204419A - 映像音声自動編集装置、方法及び記憶媒体 - Google Patents

映像音声自動編集装置、方法及び記憶媒体

Info

Publication number
JP2002204419A
JP2002204419A JP2000401382A JP2000401382A JP2002204419A JP 2002204419 A JP2002204419 A JP 2002204419A JP 2000401382 A JP2000401382 A JP 2000401382A JP 2000401382 A JP2000401382 A JP 2000401382A JP 2002204419 A JP2002204419 A JP 2002204419A
Authority
JP
Japan
Prior art keywords
video
scene
audio
amplitude
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000401382A
Other languages
English (en)
Other versions
JP3514236B2 (ja
Inventor
Kenichiro Ishijima
健一郎 石島
Kiyoharu Aizawa
清晴 相澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2000401382A priority Critical patent/JP3514236B2/ja
Publication of JP2002204419A publication Critical patent/JP2002204419A/ja
Application granted granted Critical
Publication of JP3514236B2 publication Critical patent/JP3514236B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 映像及び音響だけからの構造化手段の提供に
とどまっていた従来の自動編集装置では、結果としてユ
ーザーの興味を十分に反映させた編集は困難であり、長
時間の記録映像からユーザーにとって興味のある映像及
び音声だけを抽出するといった要約ができなかった。 【解決手段】本発明は、映像自動編集において、ユーザ
ーの興味を十分に反映させることが可能となるような新
たな特徴量として、映像及び音声と同期して記録した脳
波を利用し、長時間のユーザの体験映像から興味のある
ところだけを自動的に抽出する手段を提供する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ユーザがビデオカ
メラ(手持ちカメラまたは頭部搭載カメラ等)で記録し
た映像において、ユーザの覚醒水準が高いときの映像を
自動的に判別し編集する、映像の自動編集装置、方法及
び記憶媒体に関する。
【0002】
【従来の技術】従来、映像の自動編集手段として、色情
報、動き情報、形状情報、テクスチャ情報などの画像の
特徴量、周波数などの音響の特徴量に基づいて、映像の
ショット検出などの構造化手法が研究されてきた。これ
らの研究は主として放送映像を対象とした研究であっ
た。一方、個人がビデオカメラで撮影した映像等、全く
加工がなされていない映像に対しての取り組みも行なわ
れてきたが、これは画像及び音響の特徴量のみに基づく
解析であり、ユーザーの興味レベルを映像編集に反映さ
せる手段は提供されていなかった。
【0003】
【発明が解決しようとする課題】このように、従来は映
像及び音響だけからの構造化手段の提供にとどまってい
たため、結果としてユーザーの興味を十分に反映させた
編集は困難であり、長時間の記録映像からユーザーにと
って興味のある映像及び音声だけを抽出するといった要
約はできないという問題があった。
【0004】
【課題を解決するための手段】そこで、本発明は、映像
自動編集において、ユーザの興味を十分に反映させるこ
とが可能となるような新たな特徴量を提供し、長時間の
映像からユーザの興味のあるところだけを自動的に抽出
する手段を提供する。
【0005】具体的には、映像及び音声入力手段と、人
間の脳波の計測手段と、前記入力手段により入力された
映像、音声および脳波を同期させて記録する記録手段
と、前記計測手段で計測された脳波から、人間の覚醒水
準が高い状態を検出する検出手段と、前記検出手段の検
出結果に基づき映像及び音声を抽出する抽出手段と、前
記抽出手段によって抽出された映像及び音声から、要約
映像を生成する要約映像生成手段とからなる自動編集装
置を提供することにより、前記課題を解決する。
【0006】
【発明の実施の形態】図1は映像及び音声の自動編集の
ためのシステムの全体を示す図である。ユーザはビデオ
カメラ102で映像及び音声を映像音声記録媒体103
に記録する。映像及び音声の記録と同時に、ユーザの頭
部に装着した脳波計101を用いて、ユーザ自身の脳波
を映像及び音声と同期して記録する。この時、脳波は帯
域が狭いので映像音声記録媒体103の音声チャンネル
を用いることにより同期記録ができる。もちろん独立に
記録チャンネルを設定することも可能である。
【0007】映像及び音声、脳波の記録が終了した後、
ユーザは映像音声記録媒体103から映像音声データ、
脳波データを、自動編集プログラム104に入力する。
その際、脳波データはAD変換してコンピュータに取り
込み、高速フーリエ変換し、周波数ごとの時系列データ
として自動編集プログラム104で利用する。自動編集
プログラム104は脳波データに基づいて、ユーザの覚
醒水準が高いときの映像を自動的に判別して編集し、要
約映像105を生成する。ただし、要約映像とは映像だ
けではなく音声も含む。
【0008】図12a及び図12bは脳波を測定する電
極位置を説明するための図である。図12aは人間の頭
部を上から見た図であり、鼻が下の方にある。図12b
は人間の頭部を横から見た図である。
【0009】脳波計101はユーザの負担を少なくする
ため、例えば携帯可能な小型の1チャンネル脳波計を使
用して前頭極部(1201、1202、1211)の脳
波を測定する。測定する脳波は右(1201)と左(1
202)のどちらでも良い。なお、脳波計は必ずしも1
チャンネルである必要はないし、測定する脳波も必ずし
も前頭極部の脳波に限定されない。例えば、前頭極部
(1201、1202、1211)及び前頭部(120
3、1204、1212)、中心部(1205、120
6、1213)、頭頂部(1207、1208、121
4)、後頭部(1209、1210、1215)の脳波
のどれかを解析に利用するとしても良い。測定する脳波
はそれぞれ左右どちらでも良い。
【0010】あるいは複数の電極位置を選択して、例え
ば前頭極部及び前頭部、中心部、頭頂部、後頭部の脳波
をそれぞれ独立に解析して、それぞれの解析によって生
成されるそれぞれの要約映像の論理和をとることで、新
たに要約映像を生成するとしても良い。また、左右両方
の脳波を測定して解析に利用するとしても良い。なお、
電極位置は例えば国際10−20標準電極配置法に従う
ものとする。
【0011】図2は、図1における自動編集プログラム
104のフロー図である。7ヘルツから9ヘルツ帯域の
周波数の脳波を解析波1とし、13ヘルツから30ヘル
ツ帯域の周波数の脳波を解析波2とする。例えば、7.
5ヘルツの脳波データを解析波1とし、15ヘルツと2
2.5ヘルツ、30ヘルツの脳波データのそれぞれの平
均を解析波2とする。解析波1および解析波2を解析
し、ユーザの覚醒水準が高い状態、すなわち興奮及び注
意、集中等の状態にあるときの映像を自動的に判別して
編集する。なお、以降に記載する処理において、映像と
表記する場合、これは必ず音声も含むものとする。
【0012】ユーザの覚醒水準が高いときは、解析波1
の振幅が減少し解析波2の振幅が増加する。この現象
は、ユーザの覚醒水準が高い間は持続する。また、光や
音などの瞬時的な刺激に対しても、一過性の同様の反応
が生じる。前者の映像はユーザにとって重要度が高く、
後者は低いと考えられるため、この現象の持続時間に対
して時間閾値を設定すれば、一過性の反応を除いて、ユ
ーザの覚醒水準が高いときの映像を抜き出すことができ
る。この処理をショット抽出処理(201)と呼ぶこと
にし、ショット抽出処理によって抜き出される映像をシ
ョットと定義する。
【0013】このショット抽出処理では、解析波1に対
して振幅閾値Aを、解析波2に対して振幅閾値Bを設定
する。解析波1と解析波2の振幅に対して、全映像中の
それぞれの標準偏差を算出し、振幅閾値Aについては、
例えば偏差値43に相当する振幅値を設定し、振幅閾値
Bについては、例えば偏差値65に相当する振幅値を設
定する。これらの閾値はユーザが自由に設定変更するこ
とが可能であり、ユーザがこれらの値の組み合わせを変
えることによって、生成される要約映像を調節すること
ができる。
【0014】解析波1において、前述の振幅閾値Aを連
続して下回る区間の映像を谷と定義し、谷の番号をaで
表して、全映像中でa番目の谷を谷(a)と定義する。
また、谷(a−1)の終了時点から谷(a)の開始時点
までの区間の映像を山(a−1:a)と定義する。図3
は解析波1における谷と山を説明するための図である。
振幅閾値Aを連続して下回る区間が谷であり、谷(a−
1)と谷(a)の間の区間が山(a−1:a)である。
解析波1に関して、全映像中の谷の総数をVで表すこと
にする。一方、解析波2において、前述の振幅閾値Bを
連続して上回る区間の映像を山と定義し、山の番号をb
で表して、全映像中でb番目の山を山(b)と定義す
る。また、山(b−1)の終了時点から山(b)の開始
時点までの区間の映像を谷(b−1:b)と定義する。
図5は解析波2における山と谷を説明するための図であ
る。振幅閾値Bを連続して上回る区間が山であり、山
(b−1)と山(b)の間の区間が谷(b−1:b)で
ある。解析波2に関して、全映像中の山の総数をMで表
すことにする。
【0015】なお、解析波1に関して、全映像の開始時
点における振幅が振幅閾値A以上の場合は、全映像の開
始時点から谷(1)の開始時点までの映像を山(S:
1)と定義する。一方、解析波2に関して、全映像の開
始時点における振幅が振幅閾値B以下の場合、全映像の
開始時点から山(1)の開始時点までの映像を谷(S:
1)と定義する。また、解析波1に関して、全映像の終
了時点における振幅が振幅閾値A以上の場合、谷(V)
の終了時点から全映像の終了時点までの映像を山(V:
E)と定義する。一方、解析波2に関して、全映像の終
了時点における振幅が振幅閾値B以下の場合、山(M)
の終了時点から全映像の終了時点までの映像を谷(M:
E)と定義する。
【0016】解析波1に関して、次の処理を全映像中の
全ての谷に対して行う。すなわち、谷(a)の時間区間
が時間閾値T0以上ならば、その区間の映像を抜き出
す。一方、解析波2に関して、次の処理を全映像中の全
ての山に対して行う。すなわち、山(b)の時間区間が
時間閾値T0以上ならば、その区間の映像を抜き出す。
時間閾値T0は、例えば200ミリ秒と設定したところ
良好な結果が得られた。なお、この閾値は他の閾値と同
様にユーザが自由に設定変更することが可能である。も
ちろん、解析波1に用いる閾値と解析波2に用いる閾値
が同じ値である必要はない。
【0017】覚醒水準が高い状態にあっても脳波の振幅
は一定値となって安定することは少なく、振幅は増大と
減少を繰り返す。解析波1に関して、例えば10秒間と
いう長い区間を見たときは明らかに振幅が減少し覚醒水
準が高い状態にあっても、その区間内のある1秒間だけ
を見れば振幅閾値Aを上回る場合がある。解析波2に関
しても同様に、例えば10秒間という長い区間を見たと
きは明らかに振幅が増大し覚醒水準が高い状態にあって
も、その区間内のある1秒間だけを見れば振幅閾値Bを
下回る場合がある。従って、前記のショット抽出処理に
よって抜き出される映像は断片的で細切れの映像にな
る。また、覚醒水準が高い状態になく、その時点だけを
見れば抽出すべきでない映像であっても、要約映像を再
生したときの見やすさの観点からは抽出した方が良いと
いう場合がある。よって、興味の対象を中心にして全体
として見やすい映像としてまとめて抽出するために、解
析波1に関しては山の時間区間に対して時間閾値を設定
し、条件を満たした場合に谷だけでなく山の映像もまと
めて抽出するようにする。同様に解析波2に関しては谷
の時間区間に対して時間閾値を設定し、条件を満たした
場合には山だけでなく谷の映像もまとめて抽出するよう
にする。これをシーン生成処理(202)と呼ぶことに
し、シーン生成処理の結果、まとめて抽出される映像を
シーンと定義する。
【0018】図7aは、シーン生成処理の全体を説明す
るためのフローチャートである。まず、解析波1に関し
て、谷の番号aを2として初期化し(S701)、図7
bに示す解析波1処理部1の処理を行う(S702)。
解析波2に関しては、山の番号bを2として初期化し
(S703)、図7cに示す解析波2処理部1(S70
4)の処理を行う。次に、解析波1に関して、再び谷の
番号aを2として初期化し(S705)、図7dに示す
解析波1処理部2の処理を行う(S706)。解析波2
に関しては、再び山の番号bを2として初期化し(S7
07)、図7eに示す解析波2処理部2の処理を行う
(S708)。最後に、解析波1に関して、再び谷の番
号aを2として初期化し(S709)、図7fに示す解
析波1処理部3の処理を行う(S710)。解析波2に
関しては、再び山の番号bを2として初期化し(S71
1)、図7gに示す解析波2処理部3の処理を行う(S
712)。
【0019】図7bは、シーン生成処理における、解析
波1処理部1(S702)のフローチャートである。
【0020】解析波1に関して、谷(a−1)と谷
(a)に挟まれた山(a−1:a)の時間区間が時間閾
値T1以下ならば(S713)、S714に続く処理に
移る。そうでないならば、谷の番号aを1増やして(S
719)、谷の番号aがこの時点での谷の総数V以下で
あるならば(S720)、S713に続く処理に移る。
そうでないならば、解析波1処理部1(S702)を終
える。
【0021】山(a−1:a)の時間区間が時間閾値T
1以下の場合、次に示す処理を行う。まず、谷(a−
1)と山(a−1:a)と谷(a)をまとめて一つの谷
とし、新たに谷(a−1)と定義し直す(S714)。
時間閾値T1は、例えば500ミリ秒と設定したところ
良好な結果が得られた。他の閾値と同様に、この値はユ
ーザが自由に設定変更することが可能である。
【0022】図4は、解析波1において、図3の谷(a
−1)と山(a−1:a)と谷(a)をまとめて、新た
に谷(a−1)と定義し直した図である。山(a−1:
a)の時間区間内の振幅が振幅閾値Aよりも小さいもの
とみなしている。
【0023】次に、新たに定義し直した谷(a−1)の
時間区間が前述のショット抽出処理(201)で用いた
時間閾値T0以上ならば(S715)、谷(a−1)の
映像をまとめて抜き出す(S716)。そうでないなら
ば、S717の処理に移る。最後に、a+1番以降の全
ての谷について、谷(a+1)を新たに谷(a)と定義
し直して(S717)、谷の総数Vを1減らす(S71
8)。時間閾値T0は、201のショット抽出処理に用
いた値を設定しても良いし、別の値を設定しても良い。
なお、既に抽出されている映像を再び抽出すると判断さ
れる場合があるが、同じ部分の映像は上書きされ、実際
に抽出されるのは1度だけである。以下の処理について
も同様である。
【0024】谷の番号aが、この時点における谷の総数
V以下であるならば(S720)、S713の処理に移
る。そうでないならば、解析波1処理部1(S702)
を終える。
【0025】なお、解析波1処理部1(S702)の処
理を終えた後、次の処理を行う。すなわち、山(S:
1)が存在し、その時間区間が時間閾値T1以下で、山
(S:1)と谷(1)の時間区間の合計が時間閾値T0
以上であるならば、山(S:1)と谷(1)の映像をま
とめて新たに谷(1)と定義し直して、谷(1)の映像
を抜き出す。また、山(V:E)が存在し、その時間区
間が時間閾値T1以下で、谷(V)と山(V:E)の時
間区間の合計が時間閾値T0以上であるならば、谷
(V)と山(V:E)の映像をまとめて新たに谷(V)
と定義し直して、谷(V)の映像を抜き出す。
【0026】図7cは、シーン生成処理における、解析
波2処理部1(S704)のフローチャートである。
【0027】解析波2に関して、山(b−1)と山
(b)に挟まれた谷(b−1:b)の時間区間が時間閾
値T1以下ならば(S721)、S722に続く処理に
移る。そうでないならば、山の番号bを1増やして(S
727)、山の番号bがこの時点での山の総数M以下で
あるならば(S728)、S721に続く処理に移る。
そうでないならば、解析波2処理部1(S704)を終
える。
【0028】谷(b−1:b)の時間区間が時間閾値T
1以下の場合、次に示す処理を行う。まず、山(b−
1)と谷(b−1:b)と山(b)をまとめて一つの山
とし、新たに山(b−1)と定義し直す(S722)。
時間閾値T1は、例えば500ミリ秒と設定したところ
良好な結果が得られた。この閾値は解析波1において設
定した値と同じ値を設定しても良いし、別の値を設定し
ても良い。
【0029】図6は、解析波2において、図5の山(b
−1)と谷(b−1:b)と山(b)をまとめて、新た
に山(b−1)と定義し直した図である。谷(b−1:
b)の時間区間内の振幅が振幅閾値Bよりも大きいもの
とみなしている。
【0030】次に、新たに定義し直した山(b−1)の
時間区間が前述のショット抽出処理で用いた時間閾値T
0以上ならば(S723)、山(b−1)の映像をまと
めて抜き出す(S724)。そうでないならば、S72
5の処理に移る。最後に、b+1番以降の全ての山につ
いて、山(b+1)を新たに山(b)と定義し直して
(S725)、山の総数Mを1減らす(S726)。時
間閾値T0は、201のショット抽出処理に用いた値を
設定しても良いし、解析波1処理部1(S702)で用
いた値を設定しても良いし、それらとは別の値を設定し
ても良い。
【0031】山の番号bが、この時点における山の総数
M以下であるならば(S728)、S721の処理に移
る。そうでないならば、解析波2処理部1(S704)
を終える。
【0032】なお、解析波2処理部1(S704)の処
理を終えた後、次の処理を行う。すなわち、谷(S:
1)が存在し、その時間区間が時間閾値T1以下で、谷
(S:1)と山(1)の時間区間の合計が時間閾値T0
以上であるならば、谷(S:1)と山(1)の映像をま
とめて新たに山(1)と定義し直して、山(1)の映像
を抜き出す。また、谷(M:E)が存在し、その時間区
間が時間閾値T1以下で、山(M)と谷(M:E)の時
間区間の合計が時間閾値T0以上であるならば、山
(M)と谷(M:E)の映像をまとめて山(M)と定義
し直して、山(M)の映像を抜き出す。
【0033】図7dは、シーン生成処理における、解析
波1処理部2(S706)のフローチャートである。
【0034】解析波1に関して、谷(a−1)か谷
(a)のどちらか一方でも、この時点において抽出され
ているならば(S729)、S730に続く処理に移
る。そうでないならば、谷の番号aを1増やして(S7
35)、谷の番号aがこの時点での谷の総数V以下であ
るならば(S736)、S729に続く処理に移る。そ
うでないならば、解析波1処理部2(S706)を終え
る。
【0035】谷(a−1)か谷(a)のどちらか一方で
も抽出されている場合、次に示す処理を行う。まず、山
(a−1:a)の時間区間が時間閾値T2以下ならば
(S730)、S731に続く処理に移る。そうでない
ならば、S735の処理に移る。山(a−1:a)の時
間区間が時間閾値T2以下の場合、谷(a−1)と山
(a−1:a)と谷(a)をまとめて、新たに谷(a−
1)と定義し直し(S731)、新たに定義した谷(a
−1)の映像をまとめて抜き出す(S732)。時間閾
値T2は、例えば1000ミリ秒と設定したところ良好
な結果が得られた。時間閾値T1と同様に、この値はユ
ーザが自由に設定変更することができる。ただし、この
時間閾値T2は解析波1において設定した時間閾値T1
の値よりも大きくなければならない。次に、a+1番以
降の全ての谷について、谷(a+1)を新たに谷(a)
と定義し直して(S733)、谷の総数Vを1減らす
(S734)。
【0036】谷の番号aが、この時点における谷の総数
V以下であるならば(S736)、S729の処理に移
る。そうでないならば、解析波1処理部2(S706)
を終える。
【0037】なお、解析波1処理部2(S706)の処
理を終えた後、次の処理を行う。すなわち、山(S:
1)が存在し、谷(1)が抜き出されていて、山(S:
1)の時間区間が時間閾値T2以下であるならば、山
(S:1)と谷(1)をまとめて新たに谷(1)と定義
し直して、谷(1)の映像を抜き出す。また、山(V:
E)が存在し、谷(V)が抜き出されていて、山(V:
E)の時間区間が時間閾値T2以下であるならば、谷
(V)と山(V:E)をまとめて新たに谷(V)と定義
し直して、谷(V)の映像を抜き出す。
【0038】図7eは、シーン生成処理における、解析
波2処理部2(S708)のフローチャートである。
【0039】解析波2に関して、山(b−1)か山
(b)のどちらか一方でも、この時点において抽出され
ているならば(S737)、S738に続く処理に移
る。そうでないならば、山の番号bを1増やして(S7
43)、山の番号bがこの時点での山の総数M以下であ
るならば(S744)、S737に続く処理に移る。そ
うでないならば、解析波2処理部2(S708)を終え
る。
【0040】山(b−1)か山(b)のどちらか一方で
も抽出されている場合、次に示す処理を行う。まず、谷
(b−1:b)の時間区間が時間閾値T2以下ならば
(S738)、S739に続く処理に移る。そうでない
ならば、S743の処理に移る。谷(b−1:b)の時
間区間が時間閾値T2以下の場合、山(b−1)と谷
(b−1:b)と山(b)をまとめて、新たに山(b−
1)と定義し直して(S739)、新たに定義した山
(b−1)の映像をまとめて抜き出す(S740)。時
間閾値T2は、例えば1000ミリ秒と設定したところ
良好な結果が得られた。この閾値は解析波1において設
定した値と同じ値を設定しても良いし、別の値を設定し
ても良い。ただし、解析波2において設定した時間閾値
T1の値よりも大きくなければならない。次に、b+1
番以降の全ての山について、山(b+1)を新たに山
(b)と定義し直して(S741)、山の総数Mを1減
らす(S742)。
【0041】山の番号bが、この時点における山の総数
M以下であるならば(S744)、S737の処理に移
る。そうでないならば、解析波2処理部2(S708)
を終える。
【0042】なお、解析波2処理部2(S708)の処
理を終えた後、次の処理を行う。すなわち、谷(S:
1)が存在し、山(1)が抜き出されていて、谷(S:
1)の時間区間が時間閾値T2以下であるならば、谷
(S:1)と山(1)の映像をまとめて新たに山(1)
と定義し直して、山(1)の映像を抜き出す。また、谷
(M:E)が存在し、山(M)が抜き出されていて、谷
(M:E)の時間区間が時間閾値T2以下であるなら
ば、山(M)と谷(M:E)の映像をまとめて新たに山
(M)と定義し直して、山(M)の映像を抜き出す。
【0043】図7fは、シーン生成処理における、解析
波1処理部3(S710)のフローチャートである。
【0044】解析波1に関して、谷(a−1)と谷
(a)のどちらも、この時点において抽出されているな
らば(S745)、S746に続く処理に移る。そうで
ないならば、谷の番号aを1増やして(S751)、谷
の番号aがこの時点での谷の総数V以下であるならば
(S752)、S745に続く処理に移る。そうでない
ならば、解析波1処理部3(S710)を終える。
【0045】谷(a−1)と谷(a)のどちらも抽出さ
れている場合、次に示す処理を行う。まず、山(a−
1:a)の時間区間が時間閾値T3以下ならば(S74
6)、S747に続く処理に移る。そうでないならば、
S751の処理に移る。山(a−1:a)の時間区間が
時間閾値T3以下の場合、谷(a−1)と山(a−1:
a)と谷(a)をまとめて、新たに谷(a−1)として
定義し直して(S747)、新たに定義した谷(a−
1)の映像をまとめて抜き出す(S748)。時間閾値
T3は、例えば2000ミリ秒と設定したところ良好な
結果が得られた。時間閾値T1及び時間閾値T2と同様
に、この値はユーザが自由に設定変更することができ
る。ただし、解析波1において設定した時間閾値T2の
値よりも大きくなければならない。次に、a+1番以降
の全ての谷について、谷(a+1)を新たに谷(a)と
定義し直して(S749)、谷の総数Vを1減らす(S
750)。
【0046】谷の番号aが、この時点における谷の総数
V以下であるならば(S752)、S745の処理に移
る。そうでないならば、解析波1処理部3(S710)
を終える。
【0047】図7gは、シーン生成処理における、解析
波2処理部3(S712)のフローチャートである。
【0048】解析波2に関して、山(b−1)と山
(b)のどちらも、この時点において抽出されているな
らば(S753)、S754に続く処理に移る。そうで
ないならば、山の番号bを1増やして(S759)、山
の番号bがこの時点での山の総数M以下であるならば
(S760)、S753に続く処理に移る。そうでない
ならば、解析波2処理部3(S712)を終える。
【0049】山(b−1)と山(b)のどちらも抽出さ
れている場合、次に示す処理を行う。まず、谷(b−
1:b)の時間区間が時間閾値T3以下ならば(S75
4)、S755に続く処理に移る。そうでないならば、
S759の処理に移る。谷(b−1:b)の時間区間が
時間閾値T3以下の場合、山(b−1)と谷(b−1:
b)と山(b)をまとめて、新たに山(b−1)として
定義し直して(S755)、新たに定義した山(b−
1)の映像をまとめて抜き出す(S756)。時間閾値
T3は、例えば2000ミリ秒と設定したところ良好な
結果が得られた。この閾値は解析波1において設定した
値と同じ値を設定しても良いし、別の値を設定しても良
い。ただし、解析波2において設定した時間閾値T2の
値よりも大きくなければならない。次に、b+1番以降
の全ての山について、山(b+1)を新たに山(b)と
定義し直して(S757)、山の総数Mを1減らす(S
758)。
【0050】山の番号bが、この時点における山の総数
M以下であるならば(S760)、S753の処理に移
る。そうでないならば、解析波2処理部3(S712)
を終える。
【0051】前記の手法により、ユーザーの興味対象を
中心にして全体として見やすい映像をまとめて抽出する
ことが可能となるが、現実にはある刺激に対する脳波の
反応には遅延を伴う。従って、シーンとして本来抽出す
べき映像の開始部分において脳波反応に遅延が生じてい
る場合があり、次に示す処理によって、前述のシーン生
成処理により生成されるシーンの直前に映像を付加す
る。これを脳波反応遅延処理(203)と呼ぶことにす
る。
【0052】解析波1に関して、次の処理を全ての谷に
対して行う。すなわち、谷(a)が抜き出されている場
合、谷(a)の開始時点よりも時間閾値Tp前の時点か
ら、谷(a)の開始時点までの映像を抜き出す。解析波
2に関しては、次の処理を全ての山に対して行う。すな
わち、山(b)が抜き出されている場合、山(b)の開
始時点よりも時間閾値Tp前の時点から、山(b)の開
始時点までの映像を抜き出す。時間閾値Tpは例えば5
00ミリ秒と設定したところ良好な結果が得られた。他
の閾値と同様、この値はユーザが自由に設定変更するこ
とができる。もちろん、解析波1に設定する値と解析波
2に設定する値が同じである必要はない。
【0053】なお、解析波1に関して、谷(1)の開始
時点よりも時間閾値Tp前の時点の映像が存在しない場
合は、全映像の開始時点から谷(1)の開始時点までの
映像を抜き出す。解析波2に関しては、山(1)の開始
時点よりも時間閾値Tp前の時点の映像が存在しない場
合は、全映像の開始時点から山(1)の開始時点までの
映像を抜き出す。
【0054】また、現実に認められる現象として、同様
の刺激が繰り返されると脳波反応が抑制される、すなわ
ち慣れが起こるということがある。慣れは刺激の強度や
頻度、ユーザにとっての興味の大きさに依存している。
刺激が強いと慣れが起こりにくく、単位時間当たりの刺
激の頻度が高いと早く慣れが生じる。また、刺激に何か
他の情報が付加されている場合や刺激に特別な意味があ
る場合には慣れが起こりにくくなる。従って、シーンと
して本来抽出すべき映像の終了部分において脳波反応が
抑制される場合があり、次に示す処理によって、前述の
シーン生成処理により生成されるシーンの直後に映像を
付加する。これを脳波反応抑制処理(204)と呼ぶこ
とにする。なお、慣れによる脳波反応の抑制に対して時
間閾値を設定することは困難であり、振幅閾値を設定し
て処理を行う。
【0055】図8は解析波1における脳波反応抑制処理
を説明するための、脳波の一の状態を示す図である。谷
(a)が抜き出されている場合、谷(a)の時間区間に
おける振幅の最後の極小値をAm(a)とし、Am
(a)のRa%に相当する振幅をAr(a)として、谷
(a)の終了時点から振幅が初めてAr(a)となる時
点が、直後の山の時間区間に存在するならば、谷(a)
の終了時点から振幅が初めてAr(a)となる時点まで
の時間区間をTr(a)と定義し、その時間区間の映像
を抜き出す。Raは、例えば160と設定したところ良
好な結果が得られた。他の閾値と同様に、ユーザーが自
由に設定変更することが可能である。ただし、Ar
(a)が振幅閾値Aよりも小さい場合は、この脳波反応
抑制処理によって新たに映像が抽出されることはないも
のとする。
【0056】解析波1に関して、この処理を全ての谷に
ついて行った後、この処理によって定義された時間区間
Tr(a)の最大値をTaとし、この処理においてTr
(a)が存在しなかった全ての谷について、次の処理を
行う。すなわち、谷(a)が抜き出されているが、直後
の山の時間区間において振幅がAr(a)以上にならな
い場合、谷(a)の終了時点から時間区間Taの映像を
抜き出す。
【0057】図9は解析波2における脳波反応抑制処理
を説明するための、脳波の一の状態を示す図である。山
(b)が抜き出されている場合、山(b)の時間区間に
おける振幅の最後の極大値をBm(b)とし、Bm
(b)のRb%に相当する振幅をBr(b)として、山
(b)の終了時点から振幅が初めてBr(b)となる時
点が、直後の谷の時間区間に存在するならば、山(b)
の終了時点から振幅が初めてBr(b)となる時点まで
の時間区間をTr(b)と定義し、その時間区間の映像
を抜き出す。Rbは、例えば40と設定したところ良好
な結果が得られた。Raと同様にユーザーが自由に設定
変更することが可能である。ただし、Br(b)が振幅
閾値Bよりも大きい場合は、この脳波反応抑制処理によ
って新たに映像が抽出されることはないものとする。
【0058】解析波2に関して、この処理を全ての山に
ついて行った後、この処理によって定義された時間区間
Tr(b)の最大値をTbとし、この処理においてTr
(b)が存在しなかった全ての山について、次の処理を
行う。すなわち、山(b)が抜き出されているが、直後
の谷の時間区間において振幅がBr(b)以下にならな
い場合、山(b)の終了時点から時間区間Tbの映像を
抜き出す。
【0059】なお、解析波1に関して、谷(V)の終了
時点から時間区間Tr(V)の映像を抜き出す場合、あ
るいは谷(V)の終了時点から時間区間Taの映像を抜
き出す場合において、全映像中に抜き出すべき映像の全
てが存在しないならば、谷(V)の終了時点から全映像
の終了時点までの映像を抜き出す。解析波2に関して
は、山(M)の終了時点から時間区間Tr(M)の映像
を抜き出す場合、あるいは山(M)の終了時点から時間
区間Tbの映像を抜き出す場合において、全映像中に抜
き出すべき映像の全てが存在しないならば、山(M)の
終了時点から全映像の終了時点までの映像を抜き出す。
【0060】図10は、解析波統合処理(205)及び
シーン統合処理(206)、要約映像生成処理(20
7)について模式的に示した図である。解析波1の解析
により抜き出されるシーン(1001)と、解析波2の
解析により抜き出されるシーン(1002)において、
重なる部分はその論理和をとって新たなシーン(100
3)を生成する。これを解析波統合処理(205)と呼
ぶことにする。次に解析波統合処理により生成されるシ
ーン(1003)において、あるシーンの終了時点から
次のシーンの開始時点までの時間区間が時間閾値Tm以
下ならば、その時間区間と前後のシーンをまとめて新た
なシーン(1004)を生成する。これをシーン統合処
理(206)と呼ぶことにする。この処理は要約映像を
再生する際に見やすくするための便宜的なものであり、
脳波の特性とは関係がない。時間閾値Tmは、例えば1
000ミリ秒と設定したところ良好な結果が得られた。
この閾値はユーザが自由に設定変更することが可能であ
る。最後に、シーン統合処理により生成されるシーン
(1004)において、抜き出されるシーンのみを結合
して要約映像(1005)を生成する。これを要約映像
生成処理(207)と呼ぶことにする。なお、要約映像
とは映像だけではなく、音声も含む。
【0061】又以上説明した各処理を実行する本実施形
態における装置の基本構成を図11a及び図11bに示
す。同図に示す装置の基本構成は一般のコンピュータと
ほぼ同じである。
【0062】1101はCPUで、RAM1102やR
OM1103などのメモリ内に格納されたプログラムや
データなどを用いて装置全体の制御を行う。
【0063】1102はRAMで、外部記憶装置110
4からロードされたプログラムやデータなどを一時的に
格納するエリアを備えると共に、CPU1101が上述
の各種の処理を実行する際のワークエリアも備える。
【0064】1103はROMで、装置全体の制御プロ
グラムやデータなどを格納すると共に、文字コードなど
の設定データなども格納する。
【0065】1104は外部記憶装置で、CD−ROM
やフロッピー(登録商標)ディスク等の記憶媒体からイ
ンストールされたプログラムやデータなどを保存するこ
とができる。また、CPU1101のワークエリアのサ
イズがRAM1102のサイズを超えたときに、一時的
にワークエリアとして提供することもできる。
【0066】1105は操作部で、キーボードやマウス
などのポインティングデバイスにより構成されており、
各種の指示を装置に入力することができる。
【0067】1106は出力部で、CRTや液晶画面等
により構成される映像出力部では、各種の文字や映像を
表示することができる。また、スピーカー、アンプなど
により構成される音声出力部では、音声を出力すること
ができる。
【0068】1107a及び1007bはI/F(インタ
ーフェース)で、RS−232CやNCU等のインター
フェースにより構成されており、映像、音声及び脳波を
同期記録するレコーダーと接続して、記録データを取り
こむことが可能である。また、プリンタなどの周辺機器
を接続したり、ネットワークに接続することも当然に可
能である。
【0069】1108は上述の各部を繋ぐバスである。
【0070】1109は、同期取得された映像、音声及
び脳波データを格納する多重記録部である。
【0071】1110は処理対象の映像、音声及び脳波
を本発明の実施形態に対応した処理を行うために分離す
る分離部である。
【0072】1111は映像、音声記録部であり、例え
ば、デジタルビデオレコーダー等のような映像と音声の
同時記録が可能な装置により構成される。また、映像及
び音声を共通の同期信号と共に独立に記録できるような
装置で構成されても良い。
【0073】1112は入力部であり、映像及び音声を
取得するために、CCD等の小型ビデオカメラやマイク
等によって構成される。また、本発明の実施形態におい
ては、視線方向の映像を撮像可能な頭部に設置可能なカ
メラが好ましいが、カメラの設置場所は必ずしも頭部に
限定されない。
【0074】1113は脳波記録部であり、映像と独立
したハードディスク等の記録媒体で構成されても良い
し、ビデオレコーダーの音声チャネルの片方を利用して
記録する構成でもよい。後者の場合は、映像及び音声デ
ータと同時に脳波データを記録できるので同期を確保す
るのが容易になる利点がある。
【0075】1114は脳波計であり、携帯可能な小型
の1チャンネル脳波計等で構成される。
【0076】1115は上述の各部を繋ぐバスである。
【0077】また、図11a及び図11bに示すシステ
ムの構成は、各構成要素が一つの機器に統合されている
必要は無く、複数の機器から構成されるシステムで実現
されてもよいし、一方で、例えばビデオカメラ内蔵のパ
ーソナルコンピュータなどのような一つの機器からなる
装置で実現されてもよい。
【0078】[その他の実施形態]また、本発明の目的
は、前述した実施形態の機能を実現するソフトウェアの
プログラムコードを記録した記憶媒体(または記録媒
体)を、システムあるいは装置に供給し、そのシステム
あるいは装置のコンピュータ(またはCPUやMPU)
が記憶媒体に格納されたプログラムコードを読み出し実
行することによっても、達成されることは言うまでもな
い。この場合、記憶媒体から読み出されたプログラムコ
ード自体が前述した実施形態の機能を実現することにな
り、そのプログラムコードを記憶した記憶媒体は本発明
を構成することになる。また、コンピュータが読み出し
たプログラムコードを実行することにより、前述した実
施形態の機能が実現されるだけでなく、そのプログラム
コードの指示に基づき、コンピュータ上で稼働している
オペレーティングシステム(OS)などが実際の処理の
一部または全部を行い、その処理によって前述した実施
形態の機能が実現される場合も含まれることは言うまで
もない。
【0079】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
【0080】
【発明の効果】本発明は、以上説明したように構成され
ているので、以下に記載されるような効果を奏する。
【0081】本発明のシステムにおいては、映像及び音
声と同期して記録した脳波を解析して、ユーザの覚醒水
準が高いときの映像及び音声を自動的に判別し、ユーザ
ーの覚醒水準の高い状態のシーンを網羅しつつ、シーン
全体の流れを損なわない見やすい映像及び音声編集が可
能となる。
【0082】本発明は、映像及び音声を短時間で自動的
に編集できるので、ユーザがこれを手作業で編集した場
合に比べて、ユーザの手間と時間を省くことができる。
【0083】本発明は、編集作業に従来要していた手間
と時間を省くことができるので、ユーザがカメラを常時
身につけて記録した長期間の膨大な映像であっても自動
編集することができ、例えばユーザの数年から数十年の
要約映像を自動的に作ることができ、ユーザはこれを見
返すことができる。
【0084】本発明のシステムにおいては、脳波を利用
することによって、ユーザが興味をもったことを忘れて
いたシーンや、脳波反応に表れた潜在的に興味をもった
シーンなど、手作業で編集した場合には含まれないシー
ンも抽出することができ、これを見返すことでユーザは
自分の興味の対象を新たに発見することができる。
【図面の簡単な説明】
【図1】本発明の実施形態における自動編集装置及び方
法を説明するための概略ブロック図である。
【図2】本発明の実施形態における自動編集プログラム
を説明するためのフロー図である。
【図3】本発明の実施形態における解析波1の谷と山を
説明するための図である。
【図4】本発明の実施形態におけるシーン生成処理を説
明するための図である。
【図5】本発明の実施形態における解析波2の山と谷を
説明するための図である。
【図6】本発明の実施形態におけるシーン生成処理を説
明するための図である。
【図7a】本発明の実施形態におけるシーン生成処理の
全体を説明するためのフロー図である。
【図7b】本発明の実施形態におけるシーン生成処理の
解析波1処理部1を説明するためのフロー図である。
【図7c】本発明の実施形態におけるシーン生成処理の
解析波2処理部1を説明するためのフロー図である。
【図7d】本発明の実施形態におけるシーン生成処理の
解析波1処理部2を説明するためのフロー図である。
【図7e】本発明の実施形態におけるシーン生成処理の
解析波2処理部2を説明するためのフロー図である。
【図7f】本発明の実施形態におけるシーン生成処理の
解析波1処理部3を説明するためのフロー図である。
【図7g】本発明の実施形態におけるシーン生成処理の
解析波2処理部3を説明するためのフロー図である。
【図8】本発明の実施形態における脳波反応抑制処理を
説明するための図である。
【図9】本発明の実施形態における脳波反応抑制処理を
説明するための図である。
【図10】本発明の実施形態における解析波統合処理及
びシーン統合処理、要約映像生成処理を説明するための
図である。
【図11a】本発明の実施形態におけるシステムの概略
図である。
【図11b】本発明の実施形態におけるシステムの概略
図である。
【図12a】本発明の実施形態における電極位置を説明
するための人間の頭部を上から見た図である。
【図12b】本発明の実施形態における電極位置を説明
するための人間の頭部を横から見た図である。
─────────────────────────────────────────────────────
【手続補正書】
【提出日】平成13年7月5日(2001.7.5)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】請求項5
【補正方法】変更
【補正内容】
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】請求項8
【補正方法】変更
【補正内容】
───────────────────────────────────────────────────── フロントページの続き (72)発明者 相澤 清晴 東京都文京区千石3丁目14番5号 パーク ハイム千石303号 Fターム(参考) 4C027 AA03 EE00 EE01 FF00 FF01 GG01 GG07 GG09 GG11 GG13 GG15 HH08 KK00 KK03 4C038 PP05 PQ00 PS03 5C053 FA14 JA01 JA26 JA30 LA11

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】 記録した映像及び音声を編集し、要約映
    像を自動生成する映像音声自動編集装置であって、 映像入力手段と、 音声入力手段と、 人間の脳波の計測手段と、 前記入力手段により入力された映像、音声及び脳波を同
    期させて記録する記録手段と、 前記計測手段で計測された脳波から、人間の覚醒水準の
    高い状態を検出する検出手段と、 前記検出手段の検出結果に基づき映像及び音声を抽出す
    る抽出手段と、 前記抽出手段によって抽出された映像及び音声から、要
    約映像を生成する要約映像生成手段とを備える事を特徴
    とする映像音声自動編集装置。
  2. 【請求項2】 前記検出手段が、7ヘルツから9ヘルツ
    帯域の脳波の振幅の減少、あるいは、13ヘルツから3
    0ヘルツ帯域の脳波の振幅の増大を検出した場合に、 前記抽出手段が、その時点の映像及び音声を抽出する事
    を特徴とする、請求項1に記載の映像音声自動編集装
    置。
  3. 【請求項3】 記録した映像及び音声を編集し、要約映
    像を自動生成する映像音声自動編集方法であって、 映像入力工程と、 音声入力工程と、 人間の脳波の計測工程と、 前記入力工程において入力された、映像、音声及び脳波
    を同期させて記録する記録工程と、 前記計測工程で計測された脳波から、人間の覚醒水準の
    高い状態を検出する検出工程と、 前記検出工程の検出結果に基づき映像及び音声を抽出す
    る抽出工程と、 前記抽出工程によって抽出された映像及び音声から、要
    約映像を生成する要約映像生成工程とを備える事を特徴
    とする映像音声自動編集方法。
  4. 【請求項4】 前記検出工程が、7ヘルツから9ヘルツ
    帯域の脳波の振幅の減少、あるいは、13ヘルツから3
    0ヘルツ帯域の脳波の振幅の増大を検出した場合に、 前記抽出工程で、その時点の映像及び音声を抽出する事
    を特徴とする、請求項3に記載の映像音声自動編集方
    法。
  5. 【請求項5】 人間の脳波から人間の覚醒水準の高い状
    態を検出し、検出結果に基づき脳波と同期して記録した
    映像及び音声を自動編集するプログラムを記憶したコン
    ピュータで読取可能な記憶媒体であって、 人間の覚醒水準の高い状態における2種類の脳波を検出
    する検出ステップのコードと、 前記検出ステップにおいて検出された前記2種類の脳波
    にそれぞれ対応する映像及び音声のショットを抽出する
    ショット抽出ステップのコードと、 前記ショット抽出ステップにおいて抽出された各映像及
    び音声のショットをそれぞれ統合して前記2種類の脳波
    に対応するシーンを生成するシーン生成ステップのコー
    ドと、 前記シーン生成ステップにおいて生成された前記各シー
    ンにつき、2種類の脳波の反応遅延に基づき欠落した各
    シーン開始映像及び音声を補完する、脳波反応遅延処理
    ステップのコードと、 前記脳波反応遅延処理ステップにおいて補完されたシー
    ンにつき、2種類の脳波反応の抑制に基づき欠落した各
    シーン終了映像及び音声を補完する、脳波反応抑制処理
    ステップのコードと、 前記脳波反応抑制処理ステップにおいて処理された、前
    記2種類の脳波に対応するシーンを一に統合する解析波
    統合処理ステップのコードと、 前記解析波統合処理ステップにおいて統合されたシーン
    を、更に統合するシーン統合処理ステップのコードと、 前記シーン統合処理ステップにおいて統合されたシーン
    を結合させて要約映像及び音声を生成する要約映像音声
    生成処理ステップのコードとを備えることを特徴とする
    コンピュータで読取可能な記憶媒体。
  6. 【請求項6】 前記検出ステップにおいて検出される前
    記2種類の脳波が、脳波周波数7ヘルツから9ヘルツ帯
    域の第1の解析波と、脳波周波数13ヘルツから30ヘ
    ルツ帯域の第2の解析波であることを特徴とする、請求
    項5に記載のコンピュータで読取可能な記憶媒体。
  7. 【請求項7】 前記第1の解析波が7.5ヘルツの周波
    数の脳波であり、かつ、前記第2の解析波が15ヘルツ
    と22.5ヘルツと30ヘルツの脳波の平均であること
    をさらに特徴とする、請求項6に記載のコンピュータで
    読取可能な記憶媒体。
  8. 【請求項8】 前記ショット抽出ステップは、前記解析
    波1の振幅を第1の振幅閾値と比較し、前記第1の振幅
    閾値よりも小さくなる振幅の谷が第1の時間閾値よりも
    長く継続する場合に、対応する映像及び音声を第1のシ
    ョットとして抽出し、 前記解析波2の振幅を第2の振幅閾値と比較し、前記第
    2の振幅閾値よりも大きくなる振幅の山が第1の時間閾
    値よりも長く継続する場合に、対応する映像及び音声を
    第2のショットとして抽出することを特徴とする、請求
    項5乃至請求項7のいずれかに記載のコンピュータで読
    取可能な記録媒体。
  9. 【請求項9】 前記第1の時間閾値が200msである
    ことを特徴とする請求項8に記載のコンピュータで読み
    取り可能な記憶媒体。
  10. 【請求項10】 前記シーン生成ステップは、 2つの前記振幅の谷に挟まれた映像及び音声に対応する
    前記解析波1の振幅が、前記第1の振幅閾値よりも大き
    く、かつ、その大小関係が持続する時間が第2の時間閾
    値よりも短い場合には、前記映像及び音声をその前後の
    前記振幅の谷に対応する映像及び音声と結合し、その長
    さが前記第1の時間閾値よりも長い場合には第1のシー
    ンとして生成し抽出する第1のシーン生成抽出ステップ
    と、 前記ショット抽出ステップにおいて抽出された前記第1
    のショットまたは前記第1のシーン生成抽出ステップに
    おいて抽出された前記第1のシーンの直前または直後の
    映像及び音声に対応する前記解析波1の振幅が、前記第
    1の振幅閾値よりも大きく、かつ、その大小関係が持続
    する時間が第3の時間閾値よりも短い場合には、前記映
    像及び音声を、その前後の前記第1のショット、前記第
    1のシーン、またはこれらに含まれない前記振幅の谷に
    対応する映像及び音声のうちいずれか2つと結合して第
    2のシーンを生成し抽出する第2のシーン生成抽出ステ
    ップと、 前記第1または第2のシーン生成抽出ステップにおいて
    抽出された複数の前記第1または第2のシーンと、前記
    ショット抽出ステップによって抽出された複数の第1の
    ショットのうちのいずれか2つによって直接に挟まれた
    映像及び音声に対応する解析波1が、前記第1の振幅閾
    値よりも大きく、かつ、その大小関係が持続する時間が
    第4の時間閾値よりも短い場合には、前記映像及び音声
    を前後の前記第1または第2のシーンと前記第1のショ
    ットのいずれか2つと結合して第3のシーンを生成し抽
    出する第3のシーン生成抽出ステップと、 2つの前記振幅の山に挟まれた映像及び音声に対応する
    前記解析波2の振幅が、前記第2の振幅閾値よりも小さ
    く、かつ、その大小関係が持続する時間が第2の時間閾
    値よりも短い場合には、前記映像及び音声をその前後の
    前記振幅の山に対応する映像及び音声と結合し、その長
    さが前記第1の時間閾値よりも長い場合には第4のシー
    ンとして生成し抽出する第4のシーン生成抽出ステップ
    と、 前記ショット抽出ステップにおいて抽出された前記第2
    のショットまたは前記第4のシーン生成抽出ステップに
    おいて抽出された前記第4のシーンの直前または直後の
    映像及び音声に対応する前記解析波2の振幅が、前記第
    2の振幅閾値よりも小さく、かつ、その大小関係が持続
    する時間が第3の時間閾値よりも短い場合には、前記映
    像及び音声を、その前後の前記第2のショット、前記第
    4のシーン、またはこれらに含まれない前記振幅の山に
    対応する映像及び音声のうちいずれか2つと結合して第
    5のシーンを生成し抽出する第5のシーン生成抽出ステ
    ップと、 前記第4または第5のシーン生成抽出ステップにおいて
    抽出された複数の前記第4または第5のシーンと、前記
    ショット抽出ステップによって抽出された複数の第2の
    ショットのうちのいずれか2つによって直接に挟まれた
    映像及び音声に対応する解析波2が、前記第2の振幅閾
    値より小さく、かつ、その大小関係が持続する時間が第
    4の時間閾値よりも短い場合には、前記映像及び音声を
    前後の前記第4または第5のシーンと前記第2のショッ
    トのいずれか2つと結合して第6のシーンを生成し抽出
    する第6のシーン生成抽出ステップとを有することを特
    徴とする請求項8または請求項9に記載のコンピュータ
    で読み取り可能な記憶媒体。
  11. 【請求項11】 前記第2の時間閾値が500msであ
    り、前記第3の時間閾値が1000msであり、前記第
    4の時間閾値が2000msであることを特徴とする請
    求項10に記載のコンピュータで読み取り可能な記憶媒
    体。
  12. 【請求項12】 前記脳波反応遅延処理ステップが、 前記第3のシーン生成抽出ステップで抽出した第3のシ
    ーン及びこれに含まれない前記第1のショットに対し、
    シーン及びショット開始時点から第5の時間閾値だけ遡
    った時点からシーン及びショット開始時点までの映像及
    び音声から第7のシーンを生成して抽出する第7のシー
    ン生成抽出ステップと、 前記第6のシーン生成抽出ステップで抽出した第6のシ
    ーン及びこれに含まれない前記第2のショットに対し、
    シーン及びショット開始時点から第5の時間閾値だけ遡
    った時点からシーン及びショット開始時点までの映像及
    び音声から第8のシーンを生成して抽出する第8のシー
    ン生成抽出ステップとを有することを特徴とする、請求
    項10または請求項11に記載のコンピュータで読み取
    り可能な記憶媒体。
  13. 【請求項13】 前記第5の時間閾値が500msであ
    ることを特徴とする請求項12に記載のコンピュータで
    読み取り可能な記憶媒体。
  14. 【請求項14】 前記脳波反応抑制処理ステップが、 前記第7のシーンに対応する解析波1の振幅の極小値の
    うち、前記第7のシーンの末尾に位置するものの直後の
    振幅の山の振幅値が、前記シーン末尾の振幅の極小値に
    対し第1の振幅倍率だけ増加した場合は、その時点から
    前記第7のシーンの終了時点までの映像及び音声を前記
    第7のシーンに結合し、 増加しなかった場合は、前記第7のシーンとその直後の
    シーンとの間に挟まれる映像及び音声について、前記第
    7のシーン終了時点から第6の時間閾値の長さだけ抽出
    し、前記第7のシーンに結合するステップと、 前記第8のシーンに対応する解析波2の振幅の極大値の
    うち、前記第8のシーンの末尾に位置するものの直後の
    振幅の谷の振幅値が、前記シーン末尾の振幅の極大値に
    対し第2の振幅倍率だけ減少した場合は、その時点から
    前記第8のシーンの終了時点までの映像及び音声を前記
    第8のシーンに結合し、 減少しなかった場合は、前記第8のシーンとその直後の
    シーンとの間の映像及び音声について、前記第8のシー
    ン終了時点から第7の時間閾値の長さだけ抽出し、前記
    第8のシーンに結合するステップとを有することを特徴
    とする請求項12または請求項13に記載のコンピュー
    タで読み取り可能な記憶媒体。
  15. 【請求項15】 前記第1の振幅倍率が160%であ
    り、前記第2の振幅倍率が40%であることを特徴とす
    る請求項14に記載のコンピュータで読み取り可能な記
    憶媒体。
JP2000401382A 2000-12-28 2000-12-28 映像音声自動編集装置、方法及び記憶媒体 Expired - Fee Related JP3514236B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000401382A JP3514236B2 (ja) 2000-12-28 2000-12-28 映像音声自動編集装置、方法及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000401382A JP3514236B2 (ja) 2000-12-28 2000-12-28 映像音声自動編集装置、方法及び記憶媒体

Publications (2)

Publication Number Publication Date
JP2002204419A true JP2002204419A (ja) 2002-07-19
JP3514236B2 JP3514236B2 (ja) 2004-03-31

Family

ID=18865824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000401382A Expired - Fee Related JP3514236B2 (ja) 2000-12-28 2000-12-28 映像音声自動編集装置、方法及び記憶媒体

Country Status (1)

Country Link
JP (1) JP3514236B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100763236B1 (ko) 2006-05-09 2007-10-04 삼성전자주식회사 생체 신호를 이용하는 동영상 편집 장치 및 방법
US8125539B2 (en) 2007-11-09 2012-02-28 Sony Corporation Information-processing apparatus and method detecting living-body information
US8718447B2 (en) 2005-10-17 2014-05-06 Samsung Electronics Co., Ltd. Method and apparatus for providing multimedia data using event index
WO2014199010A1 (en) * 2013-06-11 2014-12-18 Nokia Corporation Method, apparatus and computer program product for gathering and presenting emotional response to an event
JP2019512822A (ja) * 2016-03-14 2019-05-16 フヴィ・コグニティヴ・ネットワーク・コーポレーション 暗記および意思決定を強化するための個人的感情ベースのコンピュータ可読認知感覚メモリおよび認知洞察
KR20210056183A (ko) * 2019-11-08 2021-05-18 사회복지법인 삼성생명공익재단 음성의 선택적 증폭 방법, 컴퓨터 프로그램 및 시스템
CN113767644A (zh) * 2019-04-22 2021-12-07 索可立谱公司 自动的音频-视频内容生成

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103258556B (zh) * 2012-02-20 2016-10-05 联想(北京)有限公司 一种信息处理方法及装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8718447B2 (en) 2005-10-17 2014-05-06 Samsung Electronics Co., Ltd. Method and apparatus for providing multimedia data using event index
KR100763236B1 (ko) 2006-05-09 2007-10-04 삼성전자주식회사 생체 신호를 이용하는 동영상 편집 장치 및 방법
US8157729B2 (en) 2006-05-09 2012-04-17 Samsung Electronics Co., Ltd. System, method and medium editing moving pictures using biometric signals
US8125539B2 (en) 2007-11-09 2012-02-28 Sony Corporation Information-processing apparatus and method detecting living-body information
WO2014199010A1 (en) * 2013-06-11 2014-12-18 Nokia Corporation Method, apparatus and computer program product for gathering and presenting emotional response to an event
US9681186B2 (en) 2013-06-11 2017-06-13 Nokia Technologies Oy Method, apparatus and computer program product for gathering and presenting emotional response to an event
JP2019512822A (ja) * 2016-03-14 2019-05-16 フヴィ・コグニティヴ・ネットワーク・コーポレーション 暗記および意思決定を強化するための個人的感情ベースのコンピュータ可読認知感覚メモリおよび認知洞察
CN113767644A (zh) * 2019-04-22 2021-12-07 索可立谱公司 自动的音频-视频内容生成
CN113767644B (zh) * 2019-04-22 2024-01-09 索可立谱公司 自动的音频-视频内容生成
KR20210056183A (ko) * 2019-11-08 2021-05-18 사회복지법인 삼성생명공익재단 음성의 선택적 증폭 방법, 컴퓨터 프로그램 및 시스템
KR102301149B1 (ko) 2019-11-08 2021-09-10 사회복지법인 삼성생명공익재단 음성의 선택적 증폭 방법, 컴퓨터 프로그램 및 시스템

Also Published As

Publication number Publication date
JP3514236B2 (ja) 2004-03-31

Similar Documents

Publication Publication Date Title
US8515254B2 (en) Video editing apparatus and video editing method
EP1921844A2 (en) Imaging apparatus and method
US20060291816A1 (en) Signal processing apparatus, signal processing method, program, and recording medium
JP4513699B2 (ja) 動画像編集装置、動画像編集方法及びプログラム
US8331691B2 (en) Image data processing apparatus and image data processing method
US8717504B2 (en) Picture processing apparatus, processing method for use therewith, and program
CN111491203B (zh) 视频回放方法、装置、设备和计算机可读存储介质
US8897603B2 (en) Image processing apparatus that selects a plurality of video frames and creates an image based on a plurality of images extracted and selected from the frames
JP5506324B2 (ja) 類似画像検索システム、および、類似画像検索方法
JP3514236B2 (ja) 映像音声自動編集装置、方法及び記憶媒体
CN108519811B (zh) 截图方法及相关产品
JP3886660B2 (ja) 人物認識装置における登録装置及びその方法
CN109997171A (zh) 显示装置以及程序
US20170374463A1 (en) Audio signal processing device, audio signal processing method, and storage medium
CN107689229A (zh) 一种用于可穿戴设备的语音处理方法及装置
EP1921629A2 (en) Information processor, method of detecting factor influencing health, and program
JP4934992B2 (ja) 画像処理装置、電子カメラおよび画像処理プログラム
CN113656638A (zh) 一种观看直播的用户信息处理方法、装置及设备
CN109905779B (zh) 视频数据分段方法、装置及电子设备
JP6635093B2 (ja) 画像記録装置、画像記録方法及びプログラム
JP2003018462A (ja) 文字挿入装置および文字挿入方法
US20020071650A1 (en) Image processor and image processing system using the image processor
CN104735342B (zh) 动态图像处理装置、动态图像处理方法及记录介质
JP3211319B2 (ja) 画像記録装置及び方法
KR100575635B1 (ko) 유에스비카메라를이용한영상처리장치및방법

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040106

LAPS Cancellation because of no payment of annual fees