JP3456806B2 - Information processing device - Google Patents

Information processing device

Info

Publication number
JP3456806B2
JP3456806B2 JP23357095A JP23357095A JP3456806B2 JP 3456806 B2 JP3456806 B2 JP 3456806B2 JP 23357095 A JP23357095 A JP 23357095A JP 23357095 A JP23357095 A JP 23357095A JP 3456806 B2 JP3456806 B2 JP 3456806B2
Authority
JP
Japan
Prior art keywords
information
time
acquisition rate
information acquisition
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP23357095A
Other languages
Japanese (ja)
Other versions
JPH0981306A (en
Inventor
恒 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP23357095A priority Critical patent/JP3456806B2/en
Publication of JPH0981306A publication Critical patent/JPH0981306A/en
Application granted granted Critical
Publication of JP3456806B2 publication Critical patent/JP3456806B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は映像・音声・文書などを
統合的に表示・記録・再生・編集するマルチメディア情
報処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a multimedia information processing apparatus for displaying / recording / reproducing / editing video / audio / documents in an integrated manner.

【0002】[0002]

【従来の技術】パーソナルコンピュータなどに搭載され
るマイクロプロセッサ性能向上はめざましく、普及型の
パーソナルコンピュータで大量の情報を高速に処理でき
る環境が整いつつあることは周知であろう。近年の光通
信技術、通信制御技術や光磁気ディスク、高密度集積回
路によるメモリ素子などの発展もあり、一方で情報伝送
路が、一方で情報蓄積装置が大容量化していることも作
用し、家庭やオフィスでも安価な装置で大量の情報を電
子的に入手することができる世界が実現しつつある。ま
た、同様に簡単な操作で情報を発信できるため、これま
で放送局や新聞社などに限られていた情報発信の特権が
一般の利用者へと広がり、さらに大量の情報が行き交う
ようになりつつある。このことは現在のパソコン通信や
電子メール、電子ニュースなどの普及からうかがい知る
ことができる。また、パーソナルコンピュータに限らず
このように情報をやり取りできる端末は、電子手帳、携
帯電話、ファクシミリなど、あらゆる装置の形で浸透し
ている。そして、それらが扱うことのできる情報の種類
も、従来の文字情報(テキストデータ)だけから、音声
・音楽情報、静止画像情報、動画像情報へと広がり、そ
の品質もそれぞれ飛躍的に向上している。
2. Description of the Related Art It is well known that the performance of a microprocessor installed in a personal computer or the like has been remarkably improved, and an environment in which a wide variety of personal computers can process a large amount of information at high speed is being prepared. With the recent development of optical communication technology, communication control technology, magneto-optical disk, and memory device by high-density integrated circuit, on the one hand, the information transmission path and on the other hand, the fact that the information storage device has a large capacity also acts. A world is being realized in which a large amount of information can be electronically obtained with inexpensive devices even at home and office. Also, since information can be transmitted with a simple operation, the privilege of information transmission, which was previously limited to broadcasting stations and newspaper publishers, has been extended to general users, and more and more information is being exchanged. is there. This can be seen from the current spread of personal computer communications, electronic mail, electronic news and so on. Further, not only a personal computer but also a terminal capable of exchanging information in this way has spread in the form of various devices such as an electronic notebook, a mobile phone, and a facsimile. The types of information that can be handled are expanded from conventional character information (text data) to voice / music information, still image information, and moving image information, and the quality of each is dramatically improved. There is.

【0003】しかし、情報分類の手法に関しては旧来の
方法がとられている場面が多い。電子ニュースの世界を
例にとれば、ニュースグループ(=話題ごとの「くく
り」)が何百と存在し、各ニュースグループには1日数
十もの投稿がなされる。ユーザは、その中から自分が必
要とする/関心のあるニュースを探すために少なからず
時間を費やさなければならない。これは各ニュースが、
「ニュースグループ→ニュース」という、ごく単純な、
そしてユーザが通常自分では定義できない層構造でとり
あつかわれているためである。音楽テープやビデオテー
プにおいても、楽曲/番組ごとの開始位置は、無音部分
あるいは録画開始のインデックス信号を検出することで
判定できるが、その楽曲/番組の内容、あるいは特に関
心のある場面や部分を指し示す情報は記録できないた
め、ユーザはそれらのラベルなどに自ら書き込むより他
に方法がない。
However, in many cases, the conventional method is adopted as the information classification method. Taking the world of electronic news as an example, there are hundreds of newsgroups (= “kukuri” for each topic), and dozens of posts are posted to each newsgroup per day. The user must spend a considerable amount of time searching for the news that he / she needs / interests in. This is each news
"News group → News", a very simple
And it is because the users are usually dealt with in a layered structure that cannot be defined by themselves. Even for music tapes and video tapes, the start position of each song / program can be determined by detecting the silent part or the recording start index signal, but the content of the song / program, or the scene or part of particular interest, can be determined. Since the pointing information cannot be recorded, the user has no choice but to write on their labels etc. themselves.

【0004】これら情報の分類、あるいは情報の中から
特徴となる部分を抽出する作業を自動化しようとする開
発は、現在も盛んに行われている。しかし、それらの中
の多くは人間の判断機構を代用することを目標としてお
り、高度な人工知能を必要とし、開発の時間の面から
も、費用の面からも、現時点ではコストがかかるといわ
ざるを得ない。また、そのような自動分類システムに
は、ユーザは自分が望むものを指示してやる必要があ
り、何が見たい、どんな風な情報を得たい、というビジ
ョンのはっきりしないユーザには扱いづらい。このよう
な不案内なユーザは情報があふれる時代にこそ、激増す
るものと想定できる。
[0006] The development for automating the work of classifying the information or extracting the characteristic portion from the information is still actively carried out. However, many of them are aimed at substituting human judgment mechanisms, require advanced artificial intelligence, and are said to be costly at the moment, both in terms of development time and cost. I have no choice. In addition, such an automatic classification system requires the user to indicate what he / she wants, and is difficult to handle for users who have unclear vision of what they want to see and what kind of information they want to obtain. It can be assumed that such uninformed users will increase dramatically in an era when information is overflowing.

【0005】むしろ必要とされるのは、「重要だと感じ
る場所がここである」としめす情報であり、必ずしもそ
の内容を記述することを必要としているわけではない。
たとえば映画の中で1場面だけ魅力的な俳優が出演して
いたとき、その俳優が誰なのか、男なのか女なのか、さ
らにそのオブジェクト(被写体)が人間なのか、という
情報は常には必要ではなく、ただその場面を指し示して
くれる装置であれば十分用件は満たされる場合が多い。
それなのに現在の情報分類の流れでは、「情報を装置が
精査する→特徴となる部分を候補として抽出する→ユー
ザが入力した要求情報と照合する→分類・提示を行う」
という手順であるため、いったん情報内容の解析を入念
に行わなくてはならなくなる。
Rather, what is needed is information indicating that "the place where I feel is important is here", and it is not always necessary to describe the contents.
For example, when an attractive actor appears in only one scene in a movie, it is always necessary to know who the actor is, a man or a woman, and whether the object (subject) is a human. However, if the device just points to the scene, the requirements are often satisfied.
However, in the current flow of information classification, "the device examines the information → extracts characteristic parts as candidates → collates with the request information input by the user → performs classification / presentation"
Because of this procedure, it is necessary to carefully analyze the information content once.

【0006】一方、一般の利用者が情報発信源となりつ
つある現在、情報加工ツールの要求も高まっている。こ
れまでの加工ツールとしては文書情報のためのワードプ
ロセッサ、図形情報のためのCAD(Computer Aided D
esign )や描画ソフトウェアなどがある。しかし、とり
わけビデオや音声に関しては操作性のよい一般向けのツ
ールはきわめて少ないといわざるをえない。利用者は2
台のデッキを接続して、一方のデッキでは目的となる場
所を探して再生し、他方のデッキでそれを録画するとい
う作業で「切り張り」編集を行っている。「切り張り」
編集を行うためには最低でも2台のデッキが必要で、ま
た操作も繁雑であるために、一般の利用者は編集作業を
敬遠しがちである。現在、提案されている編集方法の中
には、コンピュータのメモリやハードディスクなどの記
憶媒体にビデオ/音声情報をいったん蓄積して、コンピ
ュータの編集環境で情報加工するものもあるが、このた
めには大容量の記憶媒体を必要とするうえコストが高
く、根本的には「切り張り」の編集であるために操作性
の特段の向上は期待できない。
On the other hand, now that general users are becoming sources of information, the demand for information processing tools is increasing. Conventional processing tools include word processors for document information and CAD (Computer Aided D) for graphic information.
esign) and drawing software. However, there are very few general-purpose tools that are easy to use, especially for video and audio. 2 users
We perform "cutting" editing by connecting two decks, searching for the desired location on one deck and playing it back, and recording it on the other deck. "Cutting"
Since at least two decks are required for editing and the operation is complicated, general users tend to avoid editing. Currently, some of the proposed editing methods temporarily store video / audio information in a storage medium such as a computer memory or hard disk and process the information in a computer editing environment. It requires a large-capacity storage medium and is expensive, and since the editing is basically "cutting", no particular improvement in operability can be expected.

【0007】以上のように簡便で効率的な情報自動分類
機構や情報加工手段がないことは、今後のマルチメディ
ア統合環境が普及することへの大きな妨げになる恐れが
ある。
The lack of a simple and efficient information automatic classification mechanism and information processing means as described above may greatly hinder the spread of the multimedia integrated environment in the future.

【0008】[0008]

【発明が解決しようとする課題】以上のように、従来の
情報処理装置では、多種で多様な情報を、情報の種類を
越えて効率よく、かつ利用者の意図を反映して分類・整
理などを行う手段がなかった。このために利用者はその
情報の処理作業に時間と労力を割かなければならず、こ
れを装置として自動で行う場合にも、必ずしも個々の利
用者に適応して処理できないという欠点があった。また
従来は情報の加工方法も繁雑で、その実現のためには高
コストとなりやすいという欠点もあった。
As described above, in the conventional information processing apparatus, various types of various information can be efficiently sorted across various types of information, and the user's intention can be reflected and sorted. There was no way to do. For this reason, the user has to spend time and labor for processing the information, and even when this is automatically performed by the device, there is a drawback that it cannot be processed by adapting to the individual user. In addition, conventionally, the information processing method is also complicated, and there is a drawback that the cost tends to be high to realize it.

【0009】本発明は、上記のような課題を解決するた
めになされたもので、多種多量の情報から簡便な操作で
効率よく利用者が必要とする情報を加工・提示できる情
報処理装置を提供する。
The present invention has been made to solve the above problems, and provides an information processing apparatus capable of efficiently processing and presenting information required by a user from a large amount of various kinds of information with a simple operation. To do.

【0010】[0010]

【課題を解決するための手段】本発明の情報処理装置
は、画像情報を利用者に提示する情報処理装置であっ
て、前記画像情報を見ている利用者の眼球運動を逐次観
測する観測手段と、観測された眼球運動をもとに、利用
者の情報収集の活発さを判定する判定手段と、任意の時
間内に占める情報収集が活発であった時間の割合から、
当該時間内における前記画像情報の重要度を推定する重
要度推定手段とを有することを特徴とする。また、本発
明の情報処理装置は、画像情報を利用者に提示する情報
処理装置であって、前記画像情報を見ている利用者の前
記画像情報上における視点位置を逐次検出する視点検出
手段と、視点位置の変化から眼球運動を少なくとも跳躍
と注視の2種類に分類して運動種別データを逐次生成す
る分類手段と、過去の単位時間にわたる前記運動種別デ
ータを用いて、単位時間から跳躍に分類された時間及び
跳躍後の所定時間を引いた時間の単位時間に占める割合
である、情報獲得率を逐次計算する情報獲得率計算手段
と、前記情報獲得率を用いて、利用者の情報収集が活発
か不活発かを時々刻々判定して視覚活性水準データを逐
次生成する視覚活性水準判定手段と、任意の時間内に占
める情報収集が活発であった時間の割合を求め、当該時
間内における前記画像情報の重要度を推定する重要度推
定手段とを有することを特徴とする。 また、本発明の情
報処理装置は、画像情報を利用者に提示する装置であっ
て、前記画像情報を見ている利用者の眼球運動の動きベ
クトルを検出する眼球運動検出手段と、前記画像情報中
のオブジェクトの動きベクトルを検出するオブジェクト
動き検出手段と、前記オブジェクトの動きベクトルと前
記眼球の動きベクトルとの内積を計算し、これに基づい
て画像中のオブジェクトの重要度を推定する重要度推定
手段とを有することを特徴とする。また、本発明の情報
処理装置は、画像情報を利用者に提示する装置であっ
て、前記画像情報を見ている利用者の前記画像情報上に
おける視点位置を逐次検出する視点検出手段と、検出し
た視点から視点の動きベクトルを求める視点動き検出手
段と、前記画像情報中のオブジェクトの動きベクトルを
検出するオブジェクト動 き検出手段と、前記オブジェク
トの動きベクトルと前記視点の動きベクトルとの内積を
計算し、これに基づいて画像中のオブジェクトの重要度
を推定する重要度推定手段とを有することを特徴とす
る。
Information processing apparatus of the present invention
Is an information processing device that presents image information to the user.
Sequentially watching the eye movements of the user watching the image information.
Use based on the observation means to be measured and the observed eye movement
Means to judge the activity of information collection of the person and at any time
From the percentage of the time that information collection was active in the period,
A weight that estimates the importance of the image information within the time.
And a means for estimating necessity. Also,
Ming's information processing device is the information that presents image information to the user.
A processing device, in front of the user who is viewing the image information
Viewpoint detection that sequentially detects the viewpoint position on the image information
At least jump eye movements from means and changes in viewpoint position
And gaze are categorized into two types and motion type data is generated sequentially
Classification means and the exercise type data for the past unit time.
Data, the time classified as jump from the unit time and
Percentage of unit time of the time after subtracting the predetermined time after jumping
The information acquisition rate calculation means for sequentially calculating the information acquisition rate
And using the information acquisition rate, information collection of users is active
Whether it is inactive or not, the visual activity level data is deleted.
The visual activation level determination means to be generated next and the occupancy within an arbitrary time
The percentage of the time that information collection was active
Importance estimation for estimating the importance of the image information in the space
It has a fixed means. In addition, the information of the present invention
The information processing device is a device that presents image information to the user.
The eye movement of the user watching the image information.
An eye movement detecting means for detecting a cutout,
Object to detect the motion vector of the object
Motion detecting means, motion vector of the object
Calculate the inner product with the motion vector of the eyeball and based on this
Estimation for estimating the importance of objects in images
And means. Also, the information of the present invention
The processing device is a device that presents image information to the user.
On the image information of the user who is viewing the image information.
The viewpoint detection means for sequentially detecting the viewpoint position in the
Viewpoint motion detection hand that obtains viewpoint motion vector from different viewpoints
And the motion vector of the object in the image information
And object moving-out detecting means for detecting said object
The inner product of the motion vector of
Calculate and based on this the importance of the object in the image
And an importance estimation means for estimating
It

【0011】[0011]

【作用】この発明における情報処理装置では、視線を利
用して利用者が提示情報をどれだけ重要と認識している
のかを数値で表現できる。利用者の意思表示の一部を視
線の自然な動きから得るので、利用者は操作への習熟の
手間が軽くなり、利用者にとっても計測されているとい
う意識が少ないままに意思の入力が行われる。このよう
にして、原情報中で利用者が重要と認識している部分と
その度合が平易な入力手法で得られるため、「重要部
分」に偏った提示、並べ替えなどの処理を行うことが可
能になり、情報アクセスの効率向上を望むことができ
る。
In the information processing apparatus according to the present invention, how much the user recognizes the presented information as important can be expressed by utilizing the line of sight. Since part of the user's intention display is obtained from the natural movement of the line of sight, the user is less proficient in operation, and the user can input the intention without being aware that it is being measured. Be seen. In this way, since the part of the original information that the user recognizes as important and the degree of that can be obtained by a simple input method, it is possible to perform processing such as presentation and rearrangement biased to "important part". It is possible, and we can hope to improve the efficiency of information access.

【0012】[0012]

【実施例】以下、本発明の第1の実施例を図面に基づい
て説明する。図1は本発明の一実施例に係わる情報処理
装置の構成を示すブロック図である。また、図12〜図
14は以下の処理の流れを説明するフローチャートであ
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of an information processing apparatus according to an embodiment of the present invention. 12 to 14 are flowcharts for explaining the flow of the following processing.

【0013】記録媒体116に保存されているマルチメ
ディア情報は、読み出し制御部114で読み出され、提
示形態作成部113を経由して画像情報提示部110、
音声情報提示部111、音楽情報提示部112などによ
って利用者101に提示される。提示形態作成部113
とは、具体的にはビデオRAM、ビデオプロセッサ、あ
るいはサウンドマネージャ、スピーカードライバやMI
DIインタフェースなどのことを指す。以上の過程にお
いては、テレビジョンとビデオテープレコーダー(VT
R)を組みあわせたものや、CD−ROMドライブを搭
載したパーソナルコンピュータなど、従来のマルチメデ
ィア機器の情報提示の方法と違いはない。
The multimedia information stored in the recording medium 116 is read by the read control unit 114, and passes through the presentation form creating unit 113 to the image information presenting unit 110,
It is presented to the user 101 by the voice information presentation unit 111, the music information presentation unit 112, and the like. Presentation form creation unit 113
Is a video RAM, video processor, or sound manager, speaker driver, or MI.
Refers to the DI interface. In the above process, the television and the video tape recorder (VT
There is no difference from the conventional method of presenting information in multimedia devices such as a combination of R) and a personal computer equipped with a CD-ROM drive.

【0014】一方、このようにして提示された情報を視
聴している利用者101の視線は視線検出器102で
定され、視点演算部103に送られる。視線検出器には
どのような形態のものを用いてもよいが、以下では視点
の2次元座標上の位置に対応して2チャンネルの電圧値
を出力するような視線検出器を想定して説明する。視線
検出器102から視点演算部103に送られるデータは
例えば図4aのようなものである(図12においてはa
の場所で図4のaのようなデータが流れている。以下同
様である)。視点演算部103では、この電圧値を画面
内の位置に変換し一時記憶部108に蓄積する(図12
のS1201)。視点演算部103が出力するデータは
図4bのようなものである。この座標データを元に、眼
球運動種別判定部104が時刻時刻の眼球運動の種類を
判定し、再び一時記憶部108に蓄積する(図12のS
1203〜S1209)。
On the other hand, the line-of- sight of the user 101 who is viewing the information presented in this way is measured by the line-of- sight detector 102 and sent to the viewpoint calculation unit 103. Any type of line-of-sight detector may be used, but the following description will be made assuming a line-of-sight detector that outputs voltage values of two channels corresponding to the position on the two-dimensional coordinates of the viewpoint. To do. The data sent from the line-of-sight detector 102 to the viewpoint calculation unit 103 is, for example, as shown in FIG.
At the location, data like a in FIG. 4 flows. The same applies hereinafter). The viewpoint calculation unit 103 converts this voltage value into a position on the screen and stores it in the temporary storage unit 108 (FIG. 12).
S1201). The data output by the viewpoint calculation unit 103 is as shown in FIG. 4b. Based on this coordinate data, the eye movement type determination unit 104 determines the type of eye movement at the time and time and stores it again in the temporary storage unit 108 (S in FIG. 12).
1203 to S1209).

【0015】人間の眼球運動は大きく分けて図2に示す
ように固視微動と追跡運動によって成っており、速度成
分をみることで跳躍運動は固視微動や随従運動から区別
することが可能である。図3には動画像視聴時の実際の
視線の様子を模式化して示した。画面内には人物301
とテレビ台302という主に2つのオブジェクト(被写
体)が写っている。図3中の丸印(○)は60分の1秒
ごとに記録した視点である。ここに示したように、オブ
ジェクトを見ている間は低速の運動が続き(303)、
オブジェクト間を移動する際には高速の運動を行ってい
る(304)ことがわかる。
Human eye movements are roughly divided into involuntary eye movements and tracking movements as shown in FIG. 2, and jumping movements can be distinguished from involuntary eye movements and follower movements by looking at the velocity component. is there. FIG. 3 schematically shows an actual line of sight when viewing a moving image. Person 301 in the screen
And two main objects (subjects), that is, the television stand 302 are shown. Circles (◯) in FIG. 3 are viewpoints recorded every 1/60 second. As shown here, slow motion continues while looking at the object (303),
It can be seen that when moving between objects, high speed motion is being performed (304).

【0016】図5には、同様に実際に記録された視点の
データを横軸に時間経過、縦軸に座標値をとって示し
た。図中実線と破線はそれぞれX座標とY座標を表して
いる。図では3秒分を示しているが、極めて短時間のう
ちに急激に座標が変化する様子が5回みられる(50
1)。これが跳躍運動に相当する。一方、跳躍運動より
もはるかに大きいパルス状の運動も3回みられる(50
2)が、これはまばたきである。視線検出器の特性によ
ってこのような動きになるが、パルス状の動きの前後で
座標値がほとんど変化していないことから跳躍運動と弁
別できる。
In FIG. 5, similarly, the actually recorded viewpoint data are shown with the horizontal axis representing time and the vertical axis representing coordinate values. In the figure, the solid line and the broken line represent the X coordinate and the Y coordinate, respectively. Although the figure shows 3 seconds, it can be seen that the coordinates change abruptly 5 times within an extremely short time (50
1). This corresponds to a jumping movement. On the other hand, a pulsed motion that is much larger than the jumping motion is also seen three times (50
2) but this is a blink. Although such movement occurs due to the characteristics of the line-of-sight detector, it can be distinguished from the jumping movement because the coordinate values hardly change before and after the pulse-like movement.

【0017】以上のようにして、眼球運動を「まばた
き」、「跳躍」、およびそれ以外の「注視」の3種類に
区別するのが図1の眼球運動種別判定部104である。
眼球運動種別判定部104によって判定されたデータは
図4cのような形をとる。なお、まばたきの最中に視点
を移動させたものは、オブジェクトの移動を伴っている
ことから「跳躍」とみなすべきであり、眼球運動種別判
定部104でもそのように判定されるものとする。眼球
運動種別判定部104によって時刻時刻の眼球運動種別
は再び一時記憶部108に蓄積される。
As described above, the eye movement type determination unit 104 of FIG. 1 distinguishes the eye movement into three types of "blinking", "jumping", and other "gaze".
The data determined by the eye movement type determination unit 104 has a shape as shown in FIG. 4c. It should be noted that moving the viewpoint during blinking should be regarded as "jumping" because it involves movement of the object, and the eye movement type determination unit 104 also makes such a determination. The eye movement type determination unit 104 stores the eye movement type at the time and time again in the temporary storage unit 108.

【0018】さて人間の視覚特性については、跳躍運動
のあと200ミリ秒程度の間に見えている画像の解像度
が低下している、ということが知られている。このこと
についてはたとえば「眼球運動の実験心理学」(名古屋
大学出版会、1993年)などに記述されている。したがっ
て、実際に通常の解像度でオブジェクトを注視できてい
るのは跳躍運動後200ミリ秒後からといってよいだろ
う。したがってひとつひとつのオブジェクトを見ていた
時間は図5の503のようになる。504は跳躍運動の
ために解像度低下が起こっている時間である。過去の単
位時間あたりに「ひとつひとつのオブジェクトを見てい
た時間」すなわち跳躍運動とその後200ミリ秒をのぞ
いた時間を「情報獲得率」と定義する(図13のS13
02〜S1305)。ここでいう跳躍運動とは、まばた
きの間にオブジェクトを移動した場合を含んでいる。逆
にまばたきの前後での視点が大きく変化していないとき
(図5の502)は、オブジェクトの移動をともなって
いないので、以下の過程では注視と同様に取り扱われ
る。情報獲得率計算部105ではこのようにして眼球運
動種別の時間推移から情報獲得率を計算し、再び一時記
憶部108に保存する。このデータは例えば図4dのよ
うな形態をとる。
With respect to human visual characteristics, it is known that the resolution of an image that is visible is reduced within about 200 milliseconds after a jumping motion. This is described, for example, in "Experimental Psychology of Eye Movements" (Nagoya University Press, 1993). Therefore, it can be said that the object can be actually gazed at the normal resolution after 200 ms after the jumping motion. Therefore, the time spent looking at each object is as shown by 503 in FIG. 504 is the time during which the resolution is degraded due to the jumping motion. The "time to look at each object" per unit time in the past, that is, the time excluding the jumping motion and 200 milliseconds thereafter is defined as the "information acquisition rate" (S13 in FIG. 13).
02-S1305). The jumping motion mentioned here includes a case where an object is moved during blinking. On the other hand, when the viewpoint before and after blinking has not changed significantly (502 in FIG. 5), the object is not moved, and therefore, in the following process, it is handled in the same manner as the gaze. In this way, the information acquisition rate calculation unit 105 calculates the information acquisition rate from the time transition of the eye movement type and stores it again in the temporary storage unit 108. This data takes the form of, for example, FIG. 4d.

【0019】情報獲得率が低下するときは、視覚系は跳
躍運動による解像度低下という代償を払ってでも多くの
オブジェクトをみようとしているということができる。
逆に画面内にとくに見るべきオブジェクトが少ない場
合、情報獲得率が高い時間が長いものと考えられる。そ
こで、情報獲得率が低下している時間を視覚系が情報収
拾に活発であったとみなし、その活発さを評価する時間
関数を「視覚活性水準」として定義する。視覚活性水準
とは、過去単位時間内に情報獲得率が低下に向かってい
た時間とする。「情報獲得率が低下に向かう」時間は、
情報獲得率の時間による2階微分が0になる瞬間のうち
連続した2回に囲まれる時間区間で、情報獲得率の極小
値を含むものとする。すなわち図6の601の時間区間
などである。図6で602は情報獲得率、603は情報
獲得率602の2階微分が0になる時間、604は情報
獲得率602の極小値である。実際のコンピュータ内部
の計算では時間方向に離散的な値をとるため、上記の
「微分」は「差分」と置き換えて計算を行ってもよい。
このような計算を行うのが視覚活性水準計算部106で
ある。視覚活性水準計算部106ではこれまでに計算さ
れた情報獲得率から上記のような計算過程を経て時刻時
刻に眼球運動が「活発」「不活発」のどちらであったか
を判定して出力する。この出力は再び一時記憶108に
保存される(S1306〜S1308)。出力データは
例えば図4eのような形態である。
When the information acquisition rate decreases, it can be said that the visual system tries to see many objects even at the cost of a reduction in resolution due to a jumping motion.
On the contrary, when there are few objects to be viewed on the screen, it is considered that the time when the information acquisition rate is high is long. Therefore, it is considered that the visual system is active in collecting information during the time when the information acquisition rate is decreasing, and the time function for evaluating the activity is defined as "visual activity level". The visual activity level is the time during which the information acquisition rate was decreasing in the past unit time. The time that “the information acquisition rate is going down” is
It is assumed that the minimum value of the information acquisition rate is included in a time section surrounded by two consecutive times at the moment when the second derivative of the information acquisition rate with time becomes zero. That is, it is the time interval 601 in FIG. In FIG. 6, 602 is the information acquisition rate, 603 is the time when the second derivative of the information acquisition rate 602 becomes zero, and 604 is the minimum value of the information acquisition rate 602. Since the actual calculation inside the computer takes discrete values in the time direction, the above "differential" may be replaced with "difference" to perform the calculation.
The visual activity level calculation unit 106 performs such a calculation. The visual activity level calculation unit 106 determines whether the eye movement is “active” or “inactive” at the time and time based on the information acquisition rate calculated up to now and through the above calculation process, and outputs it. This output is again stored in the temporary storage 108 (S1306 to S1308). The output data has a form as shown in FIG. 4e, for example.

【0020】以上の過程の時間解像度は本発明の処理シ
ステムの能力によって規定されるものであるが、これを
利用者にとって理解しやすい時間単位に分割する。シス
テムによって規定される時間解像度は例えば30分の1
秒、60分の1秒、100分の1秒などであり、利用者
にとって理解しやすい時間単位とは、例えば「カット」
や「シーン」あるいは30秒、3分、といったものであ
る。重要度情報生成部107は、こうした利用者に理解
しやすい時間単位で情報獲得率を演算し、その演算結果
とその時間単位を重要度情報として出力する。つまり
「カットナンバー14は3分23秒15フィールドから
3分29秒27フィールドまで。その重要度は0.7
3」などといったデータである。ここでいうカットのよ
うな時間単位があらかじめ原情報とともに記録されてい
る場合には、開始時刻や終了時刻に関する情報は省くこ
とが可能である。また、どのような時間単位で重要度情
報を付与するかは上記の「カット」、「シーン」、何
秒、といった中から利用者の選択を許容してもよい。
The time resolution of the above process is defined by the capability of the processing system of the present invention, and it is divided into time units that are easy for the user to understand. The time resolution defined by the system is, for example, 1/30
Seconds, 1 / 60th of a second, 1 / 100th of a second, etc., and a time unit that is easy for the user to understand is, for example, "cut".
Or "scene" or 30 seconds, 3 minutes. The importance degree information generation unit 107 calculates the information acquisition rate in such a time unit that the user can easily understand, and outputs the calculation result and the time unit as importance degree information. In other words, "cut number 14 is from 3 minutes 23 seconds 15 fields to 3 minutes 29 seconds 27 fields. Its importance is 0.7.
Data such as "3". When a time unit such as the cut here is recorded together with the original information in advance, the information on the start time and the end time can be omitted. In addition, the user may be allowed to select from among the above-mentioned “cut”, “scene”, and how many seconds as to what time unit the importance level information is given.

【0021】この時間単位は情報単位検出部109によ
って判定され、重要度情報生成部107に送られる。原
情報に情報の切れ目が記録されていないような場合、情
報単位検出部109は、画像情報の中で色調や輝度が急
激に変化する瞬間などを検出することでシーンチェンジ
などを検出する。これら情報単位の定義方法は、どのよ
うなものでもよい。また、情報単位検出部109が自動
検出した情報の区切りを利用者が特に訂正したい場合に
は、利用者が新たに定義した情報の区切りを重要度情報
のための時間単位としてもよい。さらに、原情報にこの
ような時間単位があらかじめ記録されている場合には、
情報単位検出部109は記録されているその時間単位を
利用してもよい。
This time unit is judged by the information unit detecting section 109 and sent to the importance degree information generating section 107. In the case where no break of information is recorded in the original information, the information unit detection unit 109 detects a scene change or the like by detecting the moment when the color tone or the brightness changes abruptly in the image information. Any method may be used to define these information units. Further, when the user particularly wants to correct the information division automatically detected by the information unit detection unit 109, the information division newly defined by the user may be used as the time unit for the importance information. Furthermore, if such a time unit is recorded in advance in the original information,
The information unit detection unit 109 may use the recorded time unit.

【0022】時間単位内の重要度情報のうち、重要度の
算出方法は例えば以下のようなものである。上述のよう
に情報獲得率の「活発」「不活発」が時刻ごとにわかっ
ているので、その時間単位に対して「活発」であった時
間の割合を重要度として採用する(図14)。長さが1
0秒のカットに対して「活発」であった時間が合計4秒
ならば重要度は0.40、長さが3分のシーンに対して
「活発」であった時間が合計2分6秒ならば0.70、
長さが2時間の映画に対して「活発」であった時間が合
計40分ならば0.33などとなる。重要度情報は再び
一時記憶部108に蓄積され、適切な時機に原情報と関
連づけて記録媒体に記録される。適切な時機とは、シス
テムの動作環境によって異なる。記録媒体116および
その周辺の機構が、情報再生と同時に記録が可能なもの
である時には、以上の過程を情報提示と同時に進行さ
せ、再生・提示と平行して重要度情報を記録していって
もよい。また情報提示が終了するまで一時記憶部108
に蓄積したままにしておき、提示終了後に一括して重要
度情報の記録にとりかかってもよい。一方、図1では記
録媒体116として光ディスクのようなものを想定して
描いているが、記録媒体116の形態は特にこれに限定
されず、また、原情報と異なる媒体に重要度情報を記録
してもよい。原情報や重要度情報記録のための記録媒体
116としては、光ディスクや光磁気ディスク(M
O)、ビデオテープなどの磁気テープ、フロッピーディ
スクやハードディスクなどの磁気ディスク、ICメモリ
ー、あるいは通信ケーブルを介して遠隔のコンピュータ
などを用いてもよい。
Of the importance information within the time unit, the method of calculating the importance is as follows, for example. As described above, "active" and "inactive" of the information acquisition rate are known for each time, so the ratio of the time of "active" to the time unit is adopted as the degree of importance (FIG. 14). Length 1
If a total of 4 seconds was "active" for a 0 second cut, the importance was 0.40, and a total of 2 minutes 6 seconds was "active" for a 3 minute long scene. Then 0.70,
If a movie that is 2 hours in length is "active" for a total of 40 minutes, it will be 0.33. The importance information is again stored in the temporary storage unit 108 and is recorded on the recording medium in association with the original information at an appropriate time. The appropriate time depends on the operating environment of the system. When the recording medium 116 and the mechanism around it are capable of recording at the same time as the information reproduction, the above process is performed simultaneously with the information presentation, and the importance information is recorded in parallel with the reproduction / presentation. Good. In addition, the temporary storage unit 108 is used until the information presentation is completed.
It is also possible to leave the data stored in the storage device and store the importance information in batch after the presentation. On the other hand, in FIG. 1, an optical disc is assumed as the recording medium 116, but the form of the recording medium 116 is not particularly limited to this, and the importance information is recorded on a medium different from the original information. May be. As the recording medium 116 for recording the original information and the importance information, an optical disk or a magneto-optical disk (M
O), a magnetic tape such as a video tape, a magnetic disk such as a floppy disk or a hard disk, an IC memory, or a remote computer through a communication cable may be used.

【0023】このようにして記録された重要度は、同じ
方法で時間単位を設定した他の重要度情報との比較に有
効である。例えば家庭用ビデオカメラで撮影した家族旅
行のビデオに上記の手段によって重要度が記録されてい
るとき、再生装置は重要度0.35が付与されたカット
と重要度0.64が付与されたカットでは後者の方が時
間経過後に検索される可能性が高いものとシステムは推
定して、あらかじめメモリー素子にそのカットの先頭数
秒の画像音声情報を格納しておく。あらかじめメモリー
素子に蓄積された情報はアクセスの高速化がはかれるた
め、利用者より円滑に目的の画像に到達できることが
期待できる。あるいは重要度0.20の映画と重要度
0.77の映画の光ディスクがあったとき、ディスクチ
ェンジャ(複数のディスクを格納できる再生装置)は後
者を取り出し易い位置に格納しておくことで、同様の効
果が期待できる。
The importance recorded in this way is effective for comparison with other importance information whose time unit is set by the same method. For example, when the importance is recorded by the above means in a video of a family trip taken with a home video camera, the playback device cuts the importance 0.35 and the importance 0.64. Then, the system presumes that the latter is more likely to be retrieved after a lapse of time, and stores the image / audio information of the first few seconds of the cut in advance in the memory element. Advance for information stored in the memory device in which high-speed access can be achieved, it is expected that the user can reach the more smoothly the purpose of the image. Alternatively, when there are optical discs of a movie with a degree of importance of 0.20 and a movie of a degree of importance of 0.77, the disc changer (playback device capable of storing a plurality of discs) stores the latter in a position where it is easy to take out. The effect of can be expected.

【0024】次に上記の方法で重要度を付与し、利用者
が実際に考えていた重要度との合致を比較した実験結果
を図7に示す。図7は5つのシーンからなる一連の動画
像を被験者に提示し、そのシーンを被験者が「面白い/
重要だと思った」順に並べ替えた際、その1位、2位、
3位…の画像に本発明の方法を用いたシステムがどのよ
うな重要度を付与したかを示すグラフである。なお、画
像は映画、CM、風景、音楽ビデオ、サッカーをそれぞ
れ30秒ずつ、15秒の無地画面をはさんで連続させたもの
である。本発明の方法が妥当であればグラフは単調減少
の傾向を示すはずである。図7を見ると、被験者KNT
においては被験者が申告した重要順と本システムが付与
した重要度順が合致していることがわかる。また、被験
者NZSにおいても3位の画像以外では順序が合致して
いる。さらに被験者KTSのようなデータでも、1、2
位と3〜5位の分別は可能である。
Next, FIG. 7 shows the results of an experiment in which the degree of importance is given by the above method and the agreement with the degree of importance actually considered by the user is compared. In Fig. 7, a series of moving images consisting of five scenes is presented to the subject, and the scene is presented to the subject as "interesting /
I thought it was important. "
6 is a graph showing how important the system using the method of the present invention gives the images of the third place ... The image is a movie, a commercial, a landscape, a music video, and soccer, each of which has a duration of 30 seconds and a continuous 15-second plain screen. If the method of the present invention is valid, the graph should show a monotonically decreasing trend. Looking at FIG. 7, subject KNT
In Fig. 6, it can be seen that the order of importance declared by the subjects and the order of importance given by this system match. Also, in the subject NZS, the order is the same except for the image of the third place. Furthermore, even with data such as subject KTS, 1, 2
It is possible to distinguish between 3rd and 5th place.

【0025】CG(コンピュータグラフィックス)など
により生成された画像では、画面内のどの位置はどのオ
ブジェクトに属すべきものかが既知である場合がある。
このような場合には視点位置とオブジェクトとの関係を
利用して、以上の方法の精度をあげられる可能性がある
ので、その方法について説明する。
In an image generated by CG (computer graphics) or the like, it may be known which position on the screen should belong to which object.
In such a case, there is a possibility that the accuracy of the above method can be improved by utilizing the relationship between the viewpoint position and the object, so that method will be described.

【0026】図8aのような画像があったとき、そのオ
ブジェクト領域は図8bの人物801、紙802などの
ように既知で、それぞれの境界線が定義されていたとす
る。その際、視点が図8bの「○」あるいは「×」のよ
うであったとすると、それら視点のうち「×」であるも
のは2つのオブジェクトのどちらにも属さない場所にあ
る。図8bでいくつか見られる跳躍運動のうち、これま
でに説明した重要度推定の手順では定義済みオブジェク
ト内の移動(803)、あるいは定義済みオブジェクト
間の移動(804)と、非オブジェクト領域への移動
(805)、非オブジェクト領域内での移動(806)
は、まったく同等に扱われていた。このために、非オブ
ジェクト領域に関する移動でありながら跳躍運動が多け
れば「活発」とみなされ、高い重要度が付与される恐れ
がある。オブジェクト領域があらかじめ定義されている
ような場合には、その動きの終端が定義済みオブジェク
トである場合に限って跳躍運動(オブジェクト間移動)
とみなし、以下の情報獲得率、視覚活性水準、重要度の
計算を行えばよい。この場合には記録媒体116に記録
されているオブジェクト定義情報を読み出し制御部11
4で読みだし、オブジェクト情報として眼球運動種別判
定部104に渡すなどして、対応する。また、オブジェ
クト領域があらかじめ定義されていない場合でも、若干
の画像解析機能を備えたシステムでは、システム自身が
画像の解析を行って、オブジェクト領域を定義して同様
に用いてもよい。この解析に関しては、画像からオブジ
ェクトの切り出しが可能であればどのような方法を用い
てもよい。
When there is an image as shown in FIG. 8a, it is assumed that the object area is known like the person 801 and the paper 802 in FIG. 8b, and the respective boundary lines are defined. At that time, if the viewpoint is “◯” or “x” in FIG. 8B, the “x” of those viewpoints is in a place that does not belong to either of the two objects. Among the jumping movements shown in FIG. 8b, in the procedure of importance estimation described above, movement within a defined object (803) or movement between defined objects (804) and movement to a non-object area are performed. Move (805), Move in non-object area (806)
Were treated exactly the same. For this reason, if there are many jumping movements in spite of movements related to the non-object area, it is regarded as “active”, and a high degree of importance may be given. When the object area is defined in advance, the jumping movement (movement between objects) is limited only when the end of the movement is a defined object.
Therefore, the following information acquisition rate, visual activity level, and importance may be calculated. In this case, the object definition information recorded on the recording medium 116 is read out by the control unit 11
It is read out in step 4 and passed as eye object information to the eye movement type determination unit 104, for example. Further, even if the object area is not defined in advance, in a system having a slight image analysis function, the system itself may analyze the image to define the object area and use the same. For this analysis, any method may be used as long as the object can be cut out from the image.

【0027】一方、オブジェクト情報に、さらにその動
きに関する情報も含まれている場合、オブジェクトの動
きと視点の動きの類似度により「活発」「不活発」を判
定してもよい。図9aのような動画像があり、サッカー
ボール901は選手902に向かって飛んできているも
のとする。このとき、サッカーボールの動きベクトルが
903のようであれば、ボールへの追随によって跳躍運
動904が生じることが有り得る。ベクトル903とベ
クトル904の内積を計算すると、両ベクトルが「似て
いる」時には大きな数値となる。一方、視点がベクトル
905のように動いたとき、これはオブジェクトの動き
903とは無関係で、ベクトル905とベクトル903
の内積は小さな(あるいは大きな負の)数値になる。画
面内の全オブジェクトに対して領域情報に加えて動きが
定義されている場合、視点の近くに視点ベクトルとの内
積が大きな値をとるオブジェクトが存在しない場合、こ
れは「オブジェクトをふまえない視点の動き」と考える
ことができる。このような場合には上述の場合と同様に
重要度を計算するための跳躍運動とみなさない。
On the other hand, when the object information further includes information about the movement of the object, it is possible to determine "active" or "inactive" based on the similarity between the movement of the object and the movement of the viewpoint. It is assumed that there is a moving image as shown in FIG. 9A and the soccer ball 901 is flying toward the player 902. At this time, if the motion vector of the soccer ball is 903, a jumping motion 904 may occur due to following the ball. When the inner product of the vector 903 and the vector 904 is calculated, a large numerical value is obtained when both vectors are “similar”. On the other hand, when the viewpoint moves like the vector 905, this is irrelevant to the motion 903 of the object, and the vector 905 and the vector 903
The dot product of becomes a small (or large negative) number. If motion is defined in addition to area information for all objects in the screen, and if there is no object near the viewpoint that has a large inner product with the viewpoint vector, this is You can think of it as "movement." In such a case, similar to the above case, it is not regarded as a jumping motion for calculating the importance.

【0028】次に本発明の第2の実施例を図面に基づい
て説明する。図10は本発明の一実施例に係わる情報処
理装置の構成を示すブロック図である。また、図15は
以下の処理の流れを説明するフローチャートである。
Next, a second embodiment of the present invention will be described with reference to the drawings. FIG. 10 is a block diagram showing the configuration of the information processing apparatus according to the embodiment of the present invention. In addition, FIG. 15 is a flowchart illustrating the flow of the following processing.

【0029】記録媒体1013に記録された画像が画像
情報提示部1009によって提示されるまでの過程につ
いては第1の実施例の冒頭で述べたのと同様であるか
ら、ここでは省略する。画像を試聴している利用者10
01の視線はやはり視線検出器1002によって検出さ
れ、第1の実施例と同様に視点演算部1003で画面上
の位置として一時記憶部1006に送られる(図15の
S1501)。一方、動き検出部1008は記録媒体1
013に記録された画像情報から、輝度、色などを手が
かりにしてオブジェクト領域の推定とその動き方向を検
出する(S1502)。この動き検出の手段は現在用い
られている方法を含め、どのようなものでもよい。動き
検出部1008は各時刻でのオブジェクトの領域とその
動きをベクトル比較部1004に送る。ベクトル比較部
1004はこの動きと一時記憶部1006に蓄積されて
いる視線の動きとを比較する(S1503)。図11に
はベクトル比較部1004で行われる演算の様子を模式
的に示す。画像が時間経過に伴って図11のa、b、c
のように変化したとき、動き検出部はオブジェクト領域
1101およびそのオブジェクトの動きベクトル110
2を出力する(図ではaとd、bとe、cとfが対応し
ている)。一方、そのときの視線の様子が図11d〜f
の「○」のようであったとすると、d〜fそれぞれの瞬
間から過去数データの平均をみることで視線の動きの傾
向1103が得られる。さてオブジェクトの動きベクト
ル1102と視線の動きベクトル1103との内積をと
ると、同じ方向に移動しているときに大きな数値とな
る。視点がオブジェクトの上あるいはその近傍にあり、
かつ視点とオブジェクトの動きベクトルの内積が大きな
数字(それら2ベクトルの長さの積の70〜80%程度
以上)であるとき、視線はそのオブジェクトに追従して
おり、利用者にとってそのオブジェクトが関心のあるも
のであったといえるだろう。こうして一つのオブジェク
トに対して、視点がその上または近傍にある場合には、
視点動きとオブジェクト動きベクトルの内積(あるいは
その内積を両ベクトルの長さで除算したものでもよい。
このとき除算した結果の数値は両ベクトルのなす角の余
弦である)をもって重要度の指針とすることが可能にな
る。ベクトル比較部1004はこの内積の結果を一時記
憶部1006に蓄積する。重要度情報生成部1005で
は、こうして蓄積された内積、および動き検出部100
8が定義したオブジェクト領域の位置と動きを、情報単
位検出部1007によって定義された情報の区切り(利
用者が操作して決定してもよい。これについては第1の
実施例で説明した)の単位で演算した結果とあわせて記
録媒体に書き戻す形式に整えて再び一時記憶部1006
に送る(S1504)。この重要度情報は適切な時機に
書き込み制御部1012を経由して記録媒体1013に
記録される。「適切な時機」については第1の実施例で
説明した。また、原情報と重要度情報が別の記録媒体で
もよく、これについても第1の実施例で説明したのでこ
こでは省略する。さらに、原情報にオブジェクト領域や
その動きに関する情報があらかじめ記録されている場合
には、動き検出部1008は機能しなくてもよい。
The process until the image recorded on the recording medium 1013 is presented by the image information presenting unit 1009 is the same as that described at the beginning of the first embodiment, and is omitted here. User 10 listening to images
The line-of-sight 01 is also detected by the line-of-sight detector 1002, and is sent to the temporary storage unit 1006 as a position on the screen by the viewpoint calculation unit 1003 as in the first embodiment (S1501 in FIG. 15). On the other hand, the motion detection unit 1008 uses the recording medium 1
From the image information recorded in 013, the estimation of the object area and its moving direction are detected by using the brightness, color, etc. as clues (S1502). This motion detecting means may be any method including the method currently used. The motion detection unit 1008 sends the object area and its motion at each time to the vector comparison unit 1004. The vector comparison unit 1004 compares this movement with the movement of the line of sight stored in the temporary storage unit 1006 (S1503). FIG. 11 schematically shows a state of calculation performed by the vector comparison unit 1004. The image shows a, b, c in FIG. 11 as time passes.
, The motion detection unit determines that the object region 1101 and the motion vector 110 of the object.
2 is output (a corresponds to a, b corresponds to e, c corresponds to f in the figure). On the other hand, the state of the line of sight at that time is shown in FIGS.
, The line movement tendency 1103 can be obtained by observing the average of the past several data from the respective moments d to f. Now, when the inner product of the motion vector 1102 of the object and the motion vector 1103 of the line of sight is taken, a large numerical value is obtained when moving in the same direction. The viewpoint is on or near the object,
Moreover, when the inner product of the viewpoint and the motion vector of the object is a large number (about 70 to 80% or more of the product of the lengths of the two vectors), the line of sight follows the object, and the object is of interest to the user. It can be said that it was something with. Thus, for one object, if the viewpoint is on or near it,
The inner product of the viewpoint motion and the object motion vector (or the inner product divided by the length of both vectors may be used.
At this time, the numerical value of the result of the division is the cosine of the angle formed by both vectors. The vector comparison unit 1004 stores the result of this inner product in the temporary storage unit 1006. In the importance information generation unit 1005, the inner product thus accumulated and the motion detection unit 100
The position and movement of the object area defined by 8 of the information delimiter defined by the information unit detection unit 1007 (may be determined by the user's operation. This is described in the first embodiment). The temporary storage unit 1006 prepares a format for writing back to the recording medium together with the result calculated in units.
To (S1504). This importance information is recorded on the recording medium 1013 via the write controller 1012 at an appropriate time. The “appropriate timing” has been described in the first embodiment. Further, the original information and the importance information may be different recording media, and since this is also described in the first embodiment, they are omitted here. Furthermore, when the object area and information about its movement are recorded in advance in the original information, the movement detection unit 1008 does not have to function.

【0030】以上のようにして、動きをてがかりにして
オブジェクトの重要度が記録されている場合、次のよう
な活用法が見込まれる。たとえば図11において、人物
1104以外のオブジェクトが存在しており、その重要
度は人物1104よりも低かったとする。するとこのシ
ーン(あるいはカット)でもっとも主要なオブジェクト
は人物1104であったと判断されるので、シーン検索
のためのキー映像として主要オブジェクトが中心にある
画像、すなわち図11bが選択される。
As described above, when the importance of an object is recorded based on the movement, the following utilization method is expected. For example, in FIG. 11, it is assumed that an object other than the person 1104 exists and its importance is lower than that of the person 1104. Then, since it is determined that the most main object in this scene (or cut) is the person 1104, the image in which the main object is at the center, that is, FIG. 11b is selected as the key image for scene search.

【0031】[0031]

【発明の効果】本発明により、マルチメディア情報に対
しての重要度という付加情報を生成することが可能にな
り、その重要度情報を用いることによって、利用者は自
分にとって必要な情報に容易に、手早く到達できること
が期待できる。また、視線を用いることによって、重要
度情報の入力作業を、特に操作の意識なく行うことがで
きる。これは大量のマルチメディア情報が誰にでも手に
入るような環境において、操作に不慣れな利用者にとっ
ても使いやすい情報検索・アクセス環境を提供する。
According to the present invention, it is possible to generate additional information of importance to multimedia information, and by using the importance information, the user can easily find the information necessary for himself. You can expect to reach it quickly. Further, by using the line of sight, the input operation of the importance information can be performed without being particularly conscious of the operation. This provides an information retrieval / access environment that is easy to use even for users who are unfamiliar with the operation in an environment where a large amount of multimedia information is available to anyone.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係わる情報処理装置の構成
を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an information processing apparatus according to an embodiment of the present invention.

【図2】本発明の一実施例に係わる眼球運動の速度によ
る分類を示す図である。
FIG. 2 is a diagram showing classification of eye movements according to velocity according to an embodiment of the present invention.

【図3】本発明の一実施例に係わる人間の実際の視点の
動きの例を示す図である。
FIG. 3 is a diagram showing an example of actual movement of a human eye according to an embodiment of the present invention.

【図4】本発明の一実施例に係わる情報処理装置の計算
経過を示す図である。
FIG. 4 is a diagram showing a calculation process of the information processing apparatus according to the embodiment of the present invention.

【図5】本発明の一実施例に係わる人間の実際の眼球運
動の例を示す図である。
FIG. 5 is a diagram showing an example of actual human eye movement according to an embodiment of the present invention.

【図6】本発明の一実施例に係わる情報処理装置の処理
方法を示すグラフの図である。
FIG. 6 is a graph showing a processing method of the information processing apparatus according to the embodiment of the present invention.

【図7】本発明の一実施例で示した方法で行った実験結
果を示すグラフの図である。
FIG. 7 is a graph showing a result of an experiment performed by the method shown in the example of the present invention.

【図8】本発明の一実施例に係わる人間の視点の動きを
示す概念図である。
FIG. 8 is a conceptual diagram showing movement of a human viewpoint according to an embodiment of the present invention.

【図9】本発明の一実施例に係わる人間の視点の動きを
示す概念図である。
FIG. 9 is a conceptual diagram showing movement of a human viewpoint according to an embodiment of the present invention.

【図10】本発明の一実施例に係わる情報処理装置の構
成を示すブロック図である。
FIG. 10 is a block diagram showing a configuration of an information processing apparatus according to an embodiment of the present invention.

【図11】本発明の一実施例に係わる情報処理装置の処
理方法を示す概念図である。
FIG. 11 is a conceptual diagram showing a processing method of the information processing apparatus according to the embodiment of the present invention.

【図12】本発明の一実施例に係わる情報処理装置の処
理方法を示すフローチャートである。
FIG. 12 is a flowchart showing a processing method of the information processing apparatus according to the embodiment of the present invention.

【図13】本発明の一実施例に係わる情報処理装置の処
理方法を示すフローチャートである。
FIG. 13 is a flowchart showing a processing method of the information processing apparatus according to the embodiment of the present invention.

【図14】本発明の一実施例に係わる情報処理装置の処
理方法を示すフローチャートである。
FIG. 14 is a flowchart showing a processing method of the information processing apparatus according to the embodiment of the present invention.

【図15】本発明の一実施例に係わる情報処理装置の処
理方法を示すフローチャートである。
FIG. 15 is a flowchart showing a processing method of the information processing apparatus according to the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

303…注視しているときの視点 304…眼球が跳躍運動するときの視点の動き 501…眼球が跳躍運動しているときの視点座標の変化 502…まばたきを行ったときのデータの乱れ 504…視覚系の解像度が低下している時間 601…眼球運動が活発である時間 603…情報獲得率の2階差分が0になる時間 604…情報獲得率の極小点 803…オブジェクト内での跳躍運動 804…オブジェクト間の跳躍運動 805…オブジェクト外への跳躍運動 806…オブジェクト外での跳躍運動 903…ボールの動きベクトル 904…ボールに追随した眼球運動の動きベクトル 905…ボールの動きと無関係な眼球運動の動きベクト
ル 1102…オブジェクトの動きベクトル 1103…視点の動きベクトル
303 ... Viewpoint when gazing 304 ... Viewpoint movement when eyeball jumps 501 ... Change in viewpoint coordinates when eyeball jumps 502 ... Disturbance of data when blinking 504 ... Vision Time when system resolution is reduced 601 Time when eye movement is active 603 Time when second difference of information acquisition rate becomes zero 604 Minimal point 803 of information acquisition rate Jumping motion 804 within object Jumping motion between objects 805 ... Jumping motion outside the object 806 ... Jumping motion outside the object 903 ... Motion vector 904 of the ball ... Motion vector 905 of eye movement following the ball ... Motion of eye movement unrelated to the movement of the ball Vector 1102 ... Object motion vector 1103 ... Viewpoint motion vector

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06F 3/00 601 - 680 G06F 3/033 G06F 17/30 ─────────────────────────────────────────────────── ─── Continuation of the front page (58) Fields surveyed (Int.Cl. 7 , DB name) G06F 3/00 601-680 G06F 3/033 G06F 17/30

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】画像情報を利用者に提示する情報処理装置
であって、 前記画像情報を見ている利用者の眼球運動を逐次観測す
る観測手段と、眼球運動を少なくとも跳躍と注視との2種類に分類して
運動種別データを逐次生成する分類手段と、 過去の単位時間にわたる前記運動種別データを用いて、
跳躍に分類された時間及び跳躍後の所定時間を単位時間
から除いた時間が単位時間に占める割合である、情報獲
得率を逐次計算する情報獲得率計算手段と、 前記情報獲得率が極小値になる時間を含む所定の時間区
間である情報獲得率低下時間内では利用者の情報収集が
活発と判定し、前記情報獲得率低下時間外では不活発と
判定して、視覚活性水準データを逐次生成する視覚活性
水準判定手段と、 任意の時間内に占める情報収集が活発であった時間の割
合を求め、当該時間内における前記画像情報の重要度を
推定する重要度推定手段とを有する情報処理装置。
1. An information processing apparatus for presenting image information to a user, comprising: an observing means for successively observing the eye movement of the user looking at the image information, and at least a jump and a gaze of the eye movement. Classified into types
Using the classification means for sequentially generating the exercise type data and the exercise type data over the past unit time,
Unit time is the time classified as jumping and the predetermined time after jumping
Information acquisition, which is the ratio of the time excluded from
An information acquisition rate calculation means for sequentially calculating the acquisition rate, and a predetermined time section including a time when the information acquisition rate becomes a minimum value
During the time when the information acquisition rate is low, which is between
Judged as active, and considered inactive outside the time when the information acquisition rate decreased.
Visual activity that determines and sequentially generates visual activity level data
An information processing apparatus comprising: a level determining unit; and an importance estimating unit that obtains a ratio of a time during which information collection is active in an arbitrary time and estimates the importance of the image information within the time.
【請求項2】前記観測手段は、前記画像情報を見ている
利用者の前記画像情報上における視点位置を逐次検出
し、 前記分類手段は、視点位置の変化から眼球運動を分類す
る、 請求項1記載の情報処理装置。
2. The observing means is watching the image information.
Sequentially detect the viewpoint position of the user on the image information
Then, the classification means classifies the eye movement from the change of the viewpoint position.
The information processing apparatus according to claim 1 , further comprising :
【請求項3】前記視覚活性水準判定手段は、 前記情報獲得率の2階微分値が正の値であり、かつ、前
記情報獲得率の極小値を含む区間を情報獲得率低下時間
とする、 請求項1または請求項2記載の情報処理装置。
3. The visual activity level determination means, wherein the second-order differential value of the information acquisition rate is a positive value, and
Information acquisition rate decrease time for the section containing the minimum value of information acquisition rate
That, the information processing apparatus according to claim 1 or claim 2, wherein.
JP23357095A 1995-09-12 1995-09-12 Information processing device Expired - Fee Related JP3456806B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23357095A JP3456806B2 (en) 1995-09-12 1995-09-12 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23357095A JP3456806B2 (en) 1995-09-12 1995-09-12 Information processing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003173076A Division JP3751608B2 (en) 2003-06-18 2003-06-18 Information processing device

Publications (2)

Publication Number Publication Date
JPH0981306A JPH0981306A (en) 1997-03-28
JP3456806B2 true JP3456806B2 (en) 2003-10-14

Family

ID=16957151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23357095A Expired - Fee Related JP3456806B2 (en) 1995-09-12 1995-09-12 Information processing device

Country Status (1)

Country Link
JP (1) JP3456806B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3879787B2 (en) * 1997-08-07 2007-02-14 富士ゼロックス株式会社 Document evaluation method and document evaluation apparatus
JPH11282921A (en) * 1998-03-31 1999-10-15 Nippon Telegr & Teleph Corp <Ntt> Sensitivity information acquiring method and systematic device
US7134074B2 (en) 1998-12-25 2006-11-07 Matsushita Electric Industrial Co., Ltd. Data processing method and storage medium, and program for causing computer to execute the data processing method
JP2001160066A (en) 1998-12-25 2001-06-12 Matsushita Electric Ind Co Ltd Device and method for processing data and recording medium, and program for allowing computer to execute data processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6121523A (en) * 1984-07-09 1986-01-30 Nec Corp Data retrieval system by automatic input
JPH05108795A (en) * 1991-10-21 1993-04-30 Fujitsu Ltd Picture processor
JP3372096B2 (en) * 1993-12-28 2003-01-27 株式会社東芝 Image information access device

Also Published As

Publication number Publication date
JPH0981306A (en) 1997-03-28

Similar Documents

Publication Publication Date Title
Truong et al. Video abstraction: A systematic review and classification
Ngo et al. Automatic video summarization by graph modeling
KR101456652B1 (en) Method and System for Video Indexing and Video Synopsis
US6587574B1 (en) System and method for representing trajectories of moving objects for content-based indexing and retrieval of visual animated data
CA2135938C (en) Method for detecting camera-motion induced scene changes
Luo et al. Towards extracting semantically meaningful key frames from personal video clips: from humans to computers
JP5031312B2 (en) Method and system for generating a video summary including a plurality of frames
Higuchi et al. Egoscanning: Quickly scanning first-person videos with egocentric elastic timelines
Tiwari et al. A survey of recent work on video summarization: approaches and techniques
USRE38401E1 (en) Interactive video icon with designated viewing position
JP5146315B2 (en) Video playback device, video playback method, and video playback program
US20150378544A1 (en) Automated Content Detection, Analysis, Visual Synthesis and Repurposing
US7362950B2 (en) Method and apparatus for controlling reproduction of video contents
EP1557837A1 (en) Redundancy elimination in a content-adaptive video preview system
Chen et al. Resource allocation for personalized video summarization
WO1999001830A1 (en) Interactive video interfaces
US20040181545A1 (en) Generating and rendering annotated video files
JP3312105B2 (en) Moving image index generation method and generation device
Shih A novel attention-based key-frame determination method
JPH10234004A (en) Time-varying image display device and display method
Zhang Content-based video browsing and retrieval
JP3372096B2 (en) Image information access device
JP3456806B2 (en) Information processing device
JP3751608B2 (en) Information processing device
CN1692373B (en) Video recognition system and method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees