JP3751608B2 - 情報処理装置 - Google Patents
情報処理装置 Download PDFInfo
- Publication number
- JP3751608B2 JP3751608B2 JP2003173076A JP2003173076A JP3751608B2 JP 3751608 B2 JP3751608 B2 JP 3751608B2 JP 2003173076 A JP2003173076 A JP 2003173076A JP 2003173076 A JP2003173076 A JP 2003173076A JP 3751608 B2 JP3751608 B2 JP 3751608B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- time
- viewpoint
- importance
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Description
【産業上の利用分野】
本発明は映像・音声・文書などを統合的に表示・記録・再生・編集するマルチメディア情報処理装置に関する。
【0002】
【従来の技術】
パーソナルコンピュータなどに搭載されるマイクロプロセッサ性能向上はめざましく、普及型のパーソナルコンピュータで大量の情報を高速に処理できる環境が整いつつあることは周知であろう。近年の光通信技術、通信制御技術や光磁気ディスク、高密度集積回路によるメモリ素子などの発展もあり、一方で情報伝送路が、一方で情報蓄積装置が大容量化していることも作用し、家庭やオフィスでも安価な装置で大量の情報を電子的に入手することができる世界が実現しつつある。また、同様に簡単な操作で情報を発信できるため、これまで放送局や新聞社などに限られていた情報発信の特権が一般の利用者へと広がり、さらに大量の情報が行き交うようになりつつある。このことは現在のパソコン通信や電子メール、電子ニュースなどの普及からうかがい知ることができる。また、パーソナルコンピュータに限らずこのように情報をやり取りできる端末は、電子手帳、携帯電話、ファクシミリなど、あらゆる装置の形で浸透している。そして、それらが扱うことのできる情報の種類も、従来の文字情報(テキストデータ)だけから、音声・音楽情報、静止画像情報、動画像情報へと広がり、その品質もそれぞれ飛躍的に向上している。
【0003】
しかし、情報分類の手法に関しては旧来の方法がとられている場面が多い。電子ニュースの世界を例にとれば、ニュースグループ(=話題ごとの「くくり」)が何百と存在し、各ニュースグループには1日数十もの投稿がなされる。ユーザは、その中から自分が必要とする/関心のあるニュースを探すために少なからず時間を費やさなければならない。これは各ニュースが、「ニュースグループ→ニュース」という、ごく単純な、そしてユーザが通常自分では定義できない層構造でとりあつかわれているためである。音楽テープやビデオテープにおいても、楽曲/番組ごとの開始位置は、無音部分あるいは録画開始のインデックス信号を検出することで判定できるが、その楽曲/番組の内容、あるいは特に関心のある場面や部分を指し示す情報は記録できないため、ユーザはそれらのラベルなどに自ら書き込むより他に方法がない。
【0004】
これら情報の分類、あるいは情報の中から特徴となる部分を抽出する作業を自動化しようとする開発は、現在も盛んに行われている。しかし、それらの中の多くは人間の判断機構を代用することを目標としており、高度な人工知能を必要とし、開発の時間の面からも、費用の面からも、現時点ではコストがかかるといわざるを得ない。また、そのような自動分類システムには、ユーザは自分が望むものを指示してやる必要があり、何が見たい、どんな風な情報を得たい、というビジョンのはっきりしないユーザには扱いづらい。このような不案内なユーザは情報があふれる時代にこそ、激増するものと想定できる。
【0005】
むしろ必要とされるのは、「重要だと感じる場所がここである」としめす情報であり、必ずしもその内容を記述することを必要としているわけではない。たとえば映画の中で1場面だけ魅力的な俳優が出演していたとき、その俳優が誰なのか、男なのか女なのか、さらにそのオブジェクト(被写体)が人間なのか、という情報は常には必要ではなく、ただその場面を指し示してくれる装置であれば十分用件は満たされる場合が多い。それなのに現在の情報分類の流れでは、「情報を装置が精査する→特徴となる部分を候補として抽出する→ユーザが入力した要求情報と照合する→分類・提示を行う」という手順であるため、いったん情報内容の解析を入念に行わなくてはならなくなる。
【0006】
一方、一般の利用者が情報発信源となりつつある現在、情報加工ツールの要求も高まっている。これまでの加工ツールとしては文書情報のためのワードプロセッサ、図形情報のためのCAD(Computer Aided Design )や描画ソフトウェアなどがある。しかし、とりわけビデオや音声に関しては操作性のよい一般向けのツールはきわめて少ないといわざるをえない。利用者は2台のデッキを接続して、一方のデッキでは目的となる場所を探して再生し、他方のデッキでそれを録画するという作業で「切り張り」編集を行っている。「切り張り」編集を行うためには最低でも2台のデッキが必要で、また操作も繁雑であるために、一般の利用者は編集作業を敬遠しがちである。現在、提案されている編集方法の中には、コンピュータのメモリやハードディスクなどの記憶媒体にビデオ/音声情報をいったん蓄積して、コンピュータの編集環境で情報加工するものもあるが、このためには大容量の記憶媒体を必要とするうえコストが高く、根本的には「切り張り」の編集であるために操作性の特段の向上は期待できない。
【0007】
以上のように簡便で効率的な情報自動分類機構や情報加工手段がないことは、今後のマルチメディア統合環境が普及することへの大きな妨げになる恐れがある。
【0008】
【発明が解決しようとする課題】
以上のように、従来の情報処理装置では、多種で多様な情報を、情報の種類を越えて効率よく、かつ利用者の意図を反映して分類・整理などを行う手段がなかった。このために利用者はその情報の処理作業に時間と労力を割かなければならず、これを装置として自動で行う場合にも、必ずしも個々の利用者に適応して処理できないという欠点があった。また従来は情報の加工方法も繁雑で、その実現のためには高コストとなりやすいという欠点もあった。
【0009】
本発明は、上記のような課題を解決するためになされたもので、多種多量の情報から簡便な操作で効率よく利用者が必要とする情報を加工・提示できる情報処理装置を提供する。
【0010】
【課題を解決するための手段】
前記課題のうち、画像中から被写体境界を判別せずに重要度水準の時間変化を推定するという課題を解決するために、本発明に係る情報処理装置は、画像、および画像と音声の情報を利用者に提示する装置において、該情報を視察または視聴している利用者の眼球運動を観測する手段と、この手段で観測した利用者の眼球運動の速度成分を逐次生成する手段と、この手段で生成した速度成分から眼球運動の活発さの度合いを求める手段と、この求める手段で求めた眼球運動の活発さの度合いをもとに該情報の重要度を推定する手段ととを含む。
【0011】
【作用】
この発明における情報処理装置では、視線を利用して利用者が提示情報をどれだけ重要と認識しているのかを数値で表現できる。利用者の意思表示の一部を視線の自然な動きから得るので、利用者は操作への習熟の手間が軽くなり、利用者にとっても計測されているという意識が少ないままに意思の入力が行われる。このようにして、原情報中で利用者が重要と認識している部分とその度合が平易な入力手法で得られるため、「重要部分」に偏った提示、並べ替えなどの処理を行うことが可能になり、情報アクセスの効率向上を望むことができる。
【0012】
【実施例】
以下、本発明の第1の実施例を図面に基づいて説明する。図1は本発明の一実施例に係わる情報処理装置の構成を示すブロック図である。また、図12〜図14は以下の処理の流れを説明するフローチャートである。
【0013】
記録媒体116に保存されているマルチメディア情報は、読み出し制御部114で読み出され、提示形態作成部113を経由して画像情報提示部110、音声情報提示部111、音楽情報提示部112などによって利用者101に提示される。提示形態作成部113とは、具体的にはビデオRAM、ビデオプロセッサ、あるいはサウンドマネージャ、スピーカードライバやMIDIインタフェースなどのことを指す。以上の過程においては、テレビジョンとビデオテープレコーダー(VTR)を組みあわせたものや、CD−ROMドライブを搭載したパーソナルコンピュータなど、従来のマルチメディア機器の情報提示の方法と違いはない。
【0014】
一方、このようにして提示された情報を視聴している利用者101の視線は視線検出器102にで測定され、視点演算部103に送られる。視線検出器にはどのような形態のものを用いてもよいが、以下では視点の2次元座標上の位置に対応して2チャンネルの電圧値を出力するような視線検出器を想定して説明する。視線検出器102から視点演算部103に送られるデータは例えば図4aのようなものである(図12においてはaの場所で図4のaのようなデータが流れている。以下同様である)。視点演算部103では、この電圧値を画面内の位置に変換し一時記憶部108に蓄積する(図12のS1201)。視点演算部103が出力するデータは図4bのようなものである。この座標データを元に、眼球運動種別判定部104が時刻時刻の眼球運動の種類を判定し、再び一時記憶部108に蓄積する(図12のS1203〜S1209)。
【0015】
人間の眼球運動は大きく分けて図2に示すように固視微動と追跡運動によって成っており、速度成分をみることで跳躍運動は固視微動や随従運動から区別することが可能である。図3には動画像視聴時の実際の視線の様子を模式化して示した。画面内には人物301とテレビ台302という主に2つのオブジェクト(被写体)が写っている。図3中の丸印(○)は60分の1秒ごとに記録した視点である。ここに示したように、オブジェクトを見ている間は低速の運動が続き(303)、オブジェクト間を移動する際には高速の運動を行っている(304)ことがわかる。
【0016】
図5には、同様に実際に記録された視点のデータを横軸に時間経過、縦軸に座標値をとって示した。図中実線と破線はそれぞれX座標とY座標を表している。図では3秒分を示しているが、極めて短時間のうちに急激に座標が変化する様子が5回みられる(501)。これが跳躍運動に相当する。一方、跳躍運動よりもはるかに大きいパルス状の運動も3回みられる(502)が、これはまばたきである。視線検出器の特性によってこのような動きになるが、パルス状の動きの前後で座標値がほとんど変化していないことから跳躍運動と弁別できる。
【0017】
以上のようにして、眼球運動を「まばたき」、「跳躍」、およびそれ以外の「注視」の3種類に区別するのが図1の眼球運動種別判定部104である。眼球運動種別判定部104によって判定されたデータは図4cのような形をとる。なお、まばたきの最中に視点を移動させたものは、オブジェクトの移動を伴っていることから「跳躍」とみなすべきであり、眼球運動種別判定部104でもそのように判定されるものとする。眼球運動種別判定部104によって時刻時刻の眼球運動種別は再び一時記憶部108に蓄積される。
【0018】
さて人間の視覚特性については、跳躍運動のあと200ミリ秒程度の間に見えている画像の解像度が低下している、ということが知られている。このことについてはたとえば「眼球運動の実験心理学」(名古屋大学出版会、1993年)などに記述されている。したがって、実際に通常の解像度でオブジェクトを注視できているのは跳躍運動後200ミリ秒後からといってよいだろう。したがってひとつひとつのオブジェクトを見ていた時間は図5の503のようになる。504は跳躍運動のために解像度低下が起こっている時間である。過去の単位時間あたりに「ひとつひとつのオブジェクトを見ていた時間」すなわち跳躍運動とその後200ミリ秒をのぞいた時間を「情報獲得率」と定義する(図13のS1302〜S1305)。ここでいう跳躍運動とは、まばたきの間にオブジェクトを移動した場合を含んでいる。逆にまばたきの前後での視点が大きく変化していないとき(図5の502)は、オブジェクトの移動をともなっていないので、以下の過程では注視と同様に取り扱われる。情報獲得率計算部105ではこのようにして眼球運動種別の時間推移から情報獲得率を計算し、再び一時記憶部108に保存する。このデータは例えば図4dのような形態をとる。
【0019】
情報獲得率が低下するときは、視覚系は跳躍運動による解像度低下という代償を払ってでも多くのオブジェクトをみようとしているということができる。逆に画面内にとくに見るべきオブジェクトが少ない場合、情報獲得率が高い時間が長いものと考えられる。そこで、情報獲得率が低下している時間を視覚系が情報収拾に活発であったとみなし、その活発さを評価する時間関数を「視覚活性水準」として定義する。視覚活性水準とは、過去単位時間内に情報獲得率が低下に向かっていた時間とする。「情報獲得率が低下に向かう」時間は、情報獲得率の時間による2階微分が0になる瞬間のうち連続した2回に囲まれる時間区間で、情報獲得率の極小値を含むものとする。すなわち図6の601の時間区間などである。図6で602は情報獲得率、603は情報獲得率602の2階微分が0になる時間、604は情報獲得率602の極小値である。実際のコンピュータ内部の計算では時間方向に離散的な値をとるため、上記の「微分」は「差分」と置き換えて計算を行ってもよい。このような計算を行うのが視覚活性水準計算部106である。視覚活性水準計算部106ではこれまでに計算された情報獲得率から上記のような計算過程を経て時刻時刻に眼球運動が「活発」「不活発」のどちらであったかを判定して出力する。この出力は再び一時記憶108に保存される(S1306〜S1308)。出力データは例えば図4eのような形態である。
【0020】
以上の過程の時間解像度は本発明の処理システムの能力によって規定されるものであるが、これを利用者にとって理解しやすい時間単位に分割する。システムによって規定される時間解像度は例えば30分の1秒、60分の1秒、100分の1秒などであり、利用者にとって理解しやすい時間単位とは、例えば「カット」や「シーン」あるいは30秒、3分、といったものである。重要度情報生成部107は、こうした利用者に理解しやすい時間単位で情報獲得率を演算し、その演算結果とその時間単位を重要度情報として出力する。つまり「カットナンバー14は3分23秒15フィールドから3分29秒27フィールドまで。その重要度は0.73」などといったデータである。ここでいうカットのような時間単位があらかじめ原情報とともに記録されている場合には、開始時刻や終了時刻に関する情報は省くことが可能である。また、どのような時間単位で重要度情報を付与するかは上記の「カット」、「シーン」、何秒、といった中から利用者の選択を許容してもよい。
【0021】
この時間単位は情報単位検出部109によって判定され、重要度情報生成部107に送られる。原情報に情報の切れ目が記録されていないような場合、情報単位検出部109は、画像情報の中で色調や輝度が急激に変化する瞬間などを検出することでシーンチェンジなどを検出する。これら情報単位の定義方法は、どのようなものでもよい。また、情報単位検出部109が自動検出した情報の区切りを利用者が特に訂正したい場合には、利用者が新たに定義した情報の区切りを重要度情報のための時間単位としてもよい。さらに、原情報にこのような時間単位があらかじめ記録されている場合には、情報単位検出部109は記録されているその時間単位を利用してもよい。
【0022】
時間単位内の重要度情報のうち、重要度の算出方法は例えば以下のようなものである。上述のように情報獲得率の「活発」「不活発」が時刻ごとにわかっているので、その時間単位に対して「活発」であった時間の割合を重要度として採用する(図14)。長さが10秒のカットに対して「活発」であった時間が合計4秒ならば重要度は0.40、長さが3分のシーンに対して「活発」であった時間が合計2分6秒ならば0.70、長さが2時間の映画に対して「活発」であった時間が合計40分ならば0.33などとなる。重要度情報は再び一時記憶部108に蓄積され、適切な時機に原情報と関連づけて記録媒体に記録される。適切な時機とは、システムの動作環境によって異なる。記録媒体116およびその周辺の機構が、情報再生と同時に記録が可能なものである時には、以上の過程を情報提示と同時に進行させ、再生・提示と平行して重要度情報を記録していってもよい。また情報提示が終了するまで一時記憶部108に蓄積したままにしておき、提示終了後に一括して重要度情報の記録にとりかかってもよい。一方、図1では記録媒体116として光ディスクのようなものを想定して描いているが、記録媒体116の形態は特にこれに限定されず、また、原情報と異なる媒体に重要度情報を記録してもよい。原情報や重要度情報記録のための記録媒体116としては、光ディスクや光磁気ディスク(MO)、ビデオテープなどの磁気テープ、フロッピー(R)ディスクやハードディスクなどの磁気ディスク、ICメモリー、あるいは通信ケーブルを介して遠隔のコンピュータなどを用いてもよい。
【0023】
このようにして記録された重要度は、同じ方法で時間単位を設定した他の重要度情報との比較に有効である。例えば家庭用ビデオカメラで撮影した家族旅行のビデオに上記の手段によって重要度が記録されているとき、再生装置は重要度0.35が付与されたカットと重要度0.64が付与されたカットでは後者の方が時間経過後に検索される可能性が高いものとシステムは推定して、あらかじめメモリー素子にそのカットの先頭数秒の画像音声情報を格納しておく。あらかじめメモリー素子に蓄積された情報はアクセスの高速化がはかれるため、利用者のより円滑に目的の画像に到達できることが期待できる。あるいは重要度0.20の映画と重要度0.77の映画の光ディスクがあったとき、ディスクチェンジャ(複数のディスクを格納できる再生装置)は後者を取り出し易い位置に格納しておくことで、同様の効果が期待できる。
【0024】
次に上記の方法で重要度を付与し、利用者が実際に考えていた重要度との合致を比較した実験結果を図7に示す。図7は5つのシーンからなる一連の動画像を被験者に提示し、そのシーンを被験者が「面白い/重要だと思った」順に並べ替えた際、その1位、2位、3位…の画像に本発明の方法を用いたシステムがどのような重要度を付与したかを示すグラフである。なお、画像は映画、CM、風景、音楽ビデオ、サッカーをそれぞれ30秒ずつ、15秒の無地画面をはさんで連続させたものである。本発明の方法が妥当であればグラフは単調減少の傾向を示すはずである。図7を見ると、被験者KNTにおいては被験者が申告した重要順と本システムが付与した重要度順が合致していることがわかる。また、被験者NZSにおいても3位の画像以外では順序が合致している。さらに被験者KTSのようなデータでも、1、2位と3〜5位の分別は可能である。
【0025】
CG(コンピュータグラフィックス)などにより生成された画像では、画面内のどの位置はどのオブジェクトに属すべきものかが既知である場合がある。このような場合には視点位置とオブジェクトとの関係を利用して、以上の方法の精度をあげられる可能性があるので、その方法について説明する。
【0026】
図8aのような画像があったとき、そのオブジェクト領域は図8bの人物801、紙802などのように既知で、それぞれの境界線が定義されていたとする。その際、視点が図8bの「○」あるいは「×」のようであったとすると、それら視点のうち「×」であるものは2つのオブジェクトのどちらにも属さない場所にある。図8bでいくつか見られる跳躍運動のうち、これまでに説明した重要度推定の手順では定義済みオブジェクト内の移動(803)、あるいは定義済みオブジェクト間の移動(804)と、非オブジェクト領域への移動(805)、非オブジェクト領域内での移動(806)は、まったく同等に扱われていた。このために、非オブジェクト領域に関する移動でありながら跳躍運動が多ければ「活発」とみなされ、高い重要度が付与される恐れがある。オブジェクト領域があらかじめ定義されているような場合には、その動きの終端が定義済みオブジェクトである場合に限って跳躍運動(オブジェクト間移動)とみなし、以下の情報獲得率、視覚活性水準、重要度の計算を行えばよい。この場合には記録媒体116に記録されているオブジェクト定義情報を読み出し制御部114で読みだし、オブジェクト情報として眼球運動種別判定部104に渡すなどして、対応する。また、オブジェクト領域があらかじめ定義されていない場合でも、若干の画像解析機能を備えたシステムでは、システム自身が画像の解析を行って、オブジェクト領域を定義して同様に用いてもよい。この解析に関しては、画像からオブジェクトの切り出しが可能であればどのような方法を用いてもよい。
【0027】
一方、オブジェクト情報に、さらにその動きに関する情報も含まれている場合、オブジェクトの動きと視点の動きの類似度により「活発」「不活発」を判定してもよい。図9aのような動画像があり、サッカーボール901は選手902に向かって飛んできているものとする。このとき、サッカーボールの動きベクトルが903のようであれば、ボールへの追随によって跳躍運動904が生じることが有り得る。ベクトル903とベクトル904の内積を計算すると、両ベクトルが「似ている」時には大きな数値となる。一方、視点がベクトル905のように動いたとき、これはオブジェクトの動き903とは無関係で、ベクトル905とベクトル903の内積は小さな(あるいは大きな負の)数値になる。画面内の全オブジェクトに対して領域情報に加えて動きが定義されている場合、視点の近くに視点ベクトルとの内積が大きな値をとるオブジェクトが存在しない場合、これは「オブジェクトをふまえない視点の動き」と考えることができる。このような場合には上述の場合と同様に重要度を計算するための跳躍運動とみなさない。
次に本発明の第2の実施例を図面に基づいて説明する。図10は本発明の一実施例に係わる情報処理装置の構成を示すブロック図である。また、図15は以下の処理の流れを説明するフローチャートである。
【0028】
記録媒体1013に記録された画像が画像情報提示部1009によって提示されるまでの過程については第1の実施例の冒頭で述べたのと同様であるから、ここでは省略する。画像を試聴している利用者1001の視線はやはり視線検出器1002によって検出され、第1の実施例と同様に視点演算部1003で画面上の位置として一時記憶部1006に送られる(図15のS1501)。一方、動き検出部1008は記録媒体1013に記録された画像情報から、輝度、色などを手がかりにしてオブジェクト領域の推定とその動き方向を検出する(S1502)。この動き検出の手段は現在用いられている方法を含め、どのようなものでもよい。動き検出部1008は各時刻でのオブジェクトの領域とその動きをベクトル比較部1004に送る。ベクトル比較部1004はこの動きと一時記憶部1006に蓄積されている視線の動きとを比較する(S1503)。図11にはベクトル比較部1004で行われる演算の様子を模式的に示す。画像が時間経過に伴って図11のa、b、cのように変化したとき、動き検出部はオブジェクト領域1101およびそのオブジェクトの動きベクトル1102を出力する(図ではaとd、bとe、cとfが対応している)。一方、そのときの視線の様子が図11d〜fの「○」のようであったとすると、d〜fそれぞれの瞬間から過去数データの平均をみることで視線の動きの傾向1103が得られる。さてオブジェクトの動きベクトル1102と視線の動きベクトル1103との内積をとると、同じ方向に移動しているときに大きな数値となる。視点がオブジェクトの上あるいはその近傍にあり、かつ視点とオブジェクトの動きベクトルの内積が大きな数字(それら2ベクトルの長さの積の70〜80%程度以上)であるとき、視線はそのオブジェクトに追従しており、利用者にとってそのオブジェクトが関心のあるものであったといえるだろう。こうして一つのオブジェクトに対して、視点がその上または近傍にある場合には、視点動きとオブジェクト動きベクトルの内積(あるいはその内積を両ベクトルの長さで除算したものでもよい。このとき除算した結果の数値は両ベクトルのなす角の余弦である)をもって重要度の指針とすることが可能になる。ベクトル比較部1004はこの内積の結果を一時記憶部1006に蓄積する。重要度情報生成部1005では、こうして蓄積された内積、および動き検出部1008が定義したオブジェクト領域の位置と動きを、情報単位検出部1007によって定義された情報の区切り(利用者が操作して決定してもよい。これについては第1の実施例で説明した)の単位で演算した結果とあわせて記録媒体に書き戻す形式に整えて再び一時記憶部1006に送る(S1504)。この重要度情報は適切な時機に書き込み制御部1012を経由して記録媒体1013に記録される。「適切な時機」については第1の実施例で説明した。また、原情報と重要度情報が別の記録媒体でもよく、これについても第1の実施例で説明したのでここでは省略する。さらに、原情報にオブジェクト領域やその動きに関する情報があらかじめ記録されている場合には、動き検出部1008は機能しなくてもよい。
【0029】
以上のようにして、動きをてがかりにしてオブジェクトの重要度が記録されている場合、次のような活用法が見込まれる。たとえば図11において、人物1104以外のオブジェクトが存在しており、その重要度は人物1104よりも低かったとする。するとこのシーン(あるいはカット)でもっとも主要なオブジェクトは人物1104であったと判断されるので、シーン検索のためのキー映像として主要オブジェクトが中心にある画像、すなわち図11bが選択される。
【0030】
【発明の効果】
本発明により、マルチメディア情報に対しての重要度という付加情報を生成することが可能になり、その重要度情報を用いることによって、利用者は自分にとって必要な情報に容易に、手早く到達できることが期待できる。また、視線を用いることによって、重要度情報の入力作業を、特に操作の意識なく行うことができる。これは大量のマルチメディア情報が誰にでも手に入るような環境において、操作に不慣れな利用者にとっても使いやすい情報検索・アクセス環境を提供する。
【図面の簡単な説明】
【図1】本発明の一実施例に係わる情報処理装置の構成を示すブロック図である。
【図2】本発明の一実施例に係わる眼球運動の速度による分類を示す図である。
【図3】本発明の一実施例に係わる人間の実際の視点の動きの例を示す図である。
【図4】本発明の一実施例に係わる情報処理装置の計算経過を示す図である。
【図5】本発明の一実施例に係わる人間の実際の眼球運動の例を示す図である。
【図6】本発明の一実施例に係わる情報処理装置の処理方法を示すグラフの図である。
【図7】本発明の一実施例で示した方法で行った実験結果を示すグラフの図である。
【図8】本発明の一実施例に係わる人間の視点の動きを示す概念図である。
【図9】本発明の一実施例に係わる人間の視点の動きを示す概念図である。
【図10】本発明の一実施例に係わる情報処理装置の構成を示すブロック図である。
【図11】本発明の一実施例に係わる情報処理装置の処理方法を示す概念図である。
【図12】本発明の一実施例に係わる情報処理装置の処理方法を示すフローチャートである。
【図13】本発明の一実施例に係わる情報処理装置の処理方法を示すフローチャートである。
【図14】本発明の一実施例に係わる情報処理装置の処理方法を示すフローチャートである。
【図15】本発明の一実施例に係わる情報処理装置の処理方法を示すフローチャートである。
【符号の説明】
303…注視しているときの視点
304…眼球が跳躍運動するときの視点の動き
501…眼球が跳躍運動しているときの視点座標の変化
502…まばたきを行ったときのデータの乱れ
504…視覚系の解像度が低下している時間
601…眼球運動が活発である時間
603…情報獲得率の2階差分が0になる時間
604…情報獲得率の極小点
803…オブジェクト内での跳躍運動
804…オブジェクト間の跳躍運動
805…オブジェクト外への跳躍運動
806…オブジェクト外での跳躍運動
903…ボールの動きベクトル
904…ボールに追随した眼球運動の動きベクトル
905…ボールの動きと無関係な眼球運動の動きベクトル
1102…オブジェクトの動きベクトル
1103…視点の動きベクトル
Claims (1)
- 利用者に画像情報を提示する手段と、
前記画像情報を見ている利用者の前記画像情報上における視点位置を逐次検出する視点検出手段と、
検出した視点から視点の動きベクトルを求める視点動き検出手段と、
前記画像情報中のオブジェクトの動きベクトルを検出するオブジェクト動き検出手段と、
前記オブジェクトの動きベクトルと前記視点の動きベクトルとの内積を計算する手段と、
求めた内積に基づいて画像中のオブジェクトの重要度を推定する重要度推定手段と、
を有する情報処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003173076A JP3751608B2 (ja) | 2003-06-18 | 2003-06-18 | 情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003173076A JP3751608B2 (ja) | 2003-06-18 | 2003-06-18 | 情報処理装置 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP23357095A Division JP3456806B2 (ja) | 1995-09-12 | 1995-09-12 | 情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004062883A JP2004062883A (ja) | 2004-02-26 |
JP3751608B2 true JP3751608B2 (ja) | 2006-03-01 |
Family
ID=31944694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003173076A Expired - Fee Related JP3751608B2 (ja) | 2003-06-18 | 2003-06-18 | 情報処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3751608B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006014121A (ja) * | 2004-06-29 | 2006-01-12 | Sanyo Electric Co Ltd | 画像符号化方法、画像符号化装置および撮像装置 |
EP1836682B1 (en) * | 2005-01-10 | 2011-05-25 | Thomson Licensing | Device and method for creating a saliency map of an image |
JP4559935B2 (ja) | 2005-08-25 | 2010-10-13 | 株式会社東芝 | 画像記憶装置及び方法 |
JP4530419B2 (ja) * | 2006-03-09 | 2010-08-25 | 任天堂株式会社 | 座標算出装置および座標算出プログラム |
EP2642425A1 (de) * | 2012-03-22 | 2013-09-25 | SensoMotoric Instruments GmbH | Verfahren und Vorrichtung zum Auswerten von Ergebnissen einer Blickerfassung |
-
2003
- 2003-06-18 JP JP2003173076A patent/JP3751608B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004062883A (ja) | 2004-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Truong et al. | Video abstraction: A systematic review and classification | |
US10031649B2 (en) | Automated content detection, analysis, visual synthesis and repurposing | |
US5963203A (en) | Interactive video icon with designated viewing position | |
Pritch et al. | Nonchronological video synopsis and indexing | |
USRE38401E1 (en) | Interactive video icon with designated viewing position | |
JP4364190B2 (ja) | マルチメディアデータストリームの非線形的再生制御方法及びその装置 | |
US8311277B2 (en) | Method and system for video indexing and video synopsis | |
EP2127368B1 (en) | Concurrent presentation of video segments enabling rapid video file comprehension | |
US7362950B2 (en) | Method and apparatus for controlling reproduction of video contents | |
JP5146315B2 (ja) | 映像再生装置、映像再生方法、および映像再生用プログラム | |
EP1557837A1 (en) | Redundancy elimination in a content-adaptive video preview system | |
US20070101266A1 (en) | Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing | |
EP0555028A2 (en) | An apparatus and method for manipulating digital data relating to motion video images | |
JP2009508379A (ja) | ビデオのナビゲーション方法及び装置 | |
KR20020050264A (ko) | 컬러링된 슬라이더 바를 제공하는 재생 장치 | |
Chen et al. | Resource allocation for personalized video summarization | |
KR101440168B1 (ko) | 개요 및 리포트를 이미 포함하는 시청각 도큐먼트의 새로운 개요를 생성하기 위한 방법 및 상기 방법을 구현할 수 있는 수신기 | |
US20040181545A1 (en) | Generating and rendering annotated video files | |
JP6031096B2 (ja) | オブジェクトの位置を通じた映像ナビゲーション | |
Zhang | Content-based video browsing and retrieval | |
JP2010258615A (ja) | 再生装置及びプログラム | |
JP3579111B2 (ja) | 情報処理装置 | |
JP3751608B2 (ja) | 情報処理装置 | |
JP2002281457A (ja) | ビデオ情報再生 | |
JP3456806B2 (ja) | 情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20050415 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050606 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20051201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20051206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20051207 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091216 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091216 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101216 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |