JPH05108795A - Picture processor - Google Patents

Picture processor

Info

Publication number
JPH05108795A
JPH05108795A JP27216791A JP27216791A JPH05108795A JP H05108795 A JPH05108795 A JP H05108795A JP 27216791 A JP27216791 A JP 27216791A JP 27216791 A JP27216791 A JP 27216791A JP H05108795 A JPH05108795 A JP H05108795A
Authority
JP
Japan
Prior art keywords
line
sight
unit
image processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP27216791A
Other languages
Japanese (ja)
Inventor
Yoshiharu Arai
美晴 荒井
Morihito Shiobara
守人 塩原
Toshiyuki Yoshitake
敏幸 吉武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP27216791A priority Critical patent/JPH05108795A/en
Publication of JPH05108795A publication Critical patent/JPH05108795A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE:To efficiently perform a processing extracting an object from a picture and make it possible to easily perform a picture processing even by a user who has no knowledge of the picture processing. CONSTITUTION:In a picture processor extracting an arbitrary object from an inputted picture, a TV camera 5 imaging the face of a user 6, a display part 4 displaying an inputted picture, a line of sight detection part 3 detecting a line of sight from an outputted picture from the TV camera 5, a line of sight analysis part 2 classifying the movement of the line of sight into a hopping eye movement and a following eye movement by analyzing the movement of the line of sight detected by the line of sight detection part 3 and discriminating whether an object is moving or is still and a picture processing part 1 switching the extraction method of the object according to this discrimination result.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、利用者の視線の動きを
検出し、それを基に画像中の物体(領域)を抽出する画
像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for detecting a movement of a user's line of sight and extracting an object (region) in an image based on the movement.

【0002】画像解析や画像理解では、画像中の対象物
を背景(対象物以外の部分)と分離するという処理は、
頻繁に利用される重要な処理の一つである。しかし、こ
れを実現する手法は多種多様であり、扱う画像や対象物
によって最適な手法やパラメータも異なってくる。この
ため、任意の画像から対象物を抽出しようとする場合に
は、画像処理の手法や対象物の特徴などの知識が必要と
なるばかりではなく、試行錯誤的な選択をしなければな
らないことが多々ある。
In image analysis and image understanding, the process of separating an object in an image from a background (a part other than the object) is
This is one of the most frequently used important processes. However, there are various methods for realizing this, and the optimum method and parameters differ depending on the image to be handled and the object. For this reason, when trying to extract an object from an arbitrary image, not only knowledge of the image processing method and characteristics of the object is required, but also trial and error selection must be performed. There are many.

【0003】単一の製品の品質検査のように、一度パラ
メータを設定してしまえばよいものならば、システムを
提供する専門家が最初にパラメータを与えればよい。し
かし、処理対象とする画像の種類や目的を選ばず、利用
者がインタラクティブに画像を処理できるようなシステ
ムを考えた場合には、非専門家の利用者でも、手法やパ
ラメータの選択を意識することなく、それらの設定が容
易に実行できるインタフェースが必要となってくる。
If the parameters need to be set once, such as the quality inspection of a single product, the expert providing the system may first give the parameters. However, when considering a system that allows users to interactively process images regardless of the type or purpose of the image to be processed, even non-specialized users should be aware of the method and parameter selection. Without this, an interface that can easily perform those settings is needed.

【0004】例えば、コマーシャル・フィルムのような
映像を制作しようとした場合、静止画、動画、文字、ア
ニメ、CGなど、様々な種類の画像を扱い、それらを自
由に分割/合成して編集し、映像を作りあげなければな
らない。このとき、このシステムの利用者は映像を作る
ことが目的であり、画像の一部を取り出すのに必要なパ
ラメータを知ることは何の意味も持たない。
For example, when an image such as a commercial film is to be produced, various types of images such as still images, moving images, characters, animations, and CGs are handled, and they are freely divided / composed and edited. , I have to make a video. At this time, the purpose of the user of this system is to create an image, and it is meaningless to know the parameters necessary for extracting a part of the image.

【0005】つまり、パラメータや手法を設定すること
は、利用者にとっては目的外のことであり、これが複雑
であれば、利用者は余分な作業を強いられることにな
り、インタフェースとしては不適切である。
In other words, setting parameters and methods is not the purpose for the user, and if this is complicated, the user will be forced to do extra work and is inappropriate as an interface. is there.

【0006】本発明は、対話的に画像から対象物を抽出
する画像処理装置において、専門的知識を持たない人で
も扱うことのできる、あるいは手法選択を補助するマン
マシンインタフェースを実現するものである。
The present invention realizes a man-machine interface that can be handled even by a person who does not have specialized knowledge or that assists method selection in an image processing apparatus for interactively extracting an object from an image. ..

【0007】[0007]

【従来の技術】従来、画像処理装置においては、各種の
画像処理が行われていた。その内、例えば入力した画像
から、対象物を抽出するには、先ず、画像の分割(セグ
メンテーション)を行う。
2. Description of the Related Art Conventionally, various image processings have been performed in an image processing apparatus. Among them, for example, in order to extract an object from an input image, the image is first divided (segmentation).

【0008】これは、色、濃淡、テクスチャー(要素が
ある種の規則に従って配列されてできる繰り返しパター
ン)等の特徴を用い、一様な特徴を持つ領域毎に画像を
分割するものである。
This is to divide an image into regions having uniform features by using features such as color, shade, texture (a repeating pattern formed by elements being arranged according to a certain rule).

【0009】この処理は、エッジ検出(特徴の不連続部
分の検出)や領域分割(特徴の連結領域に画像を分割)
によって行われる。どちらの処理も多くの手法が提案さ
れているが、どの特徴を用い、どの手法を用いるかは、
扱う画像によって異なってくる。
This processing includes edge detection (detection of discontinuous portions of features) and area division (division of image into connected areas of features).
Done by Many methods have been proposed for both processes, but which feature and which method to use are
It depends on the image to be handled.

【0010】しかし、いずれの手法においても、誤りな
く画像を分割することは不可能であり、手法の組み合わ
せや、対象物のモデルや知識を用いることなどが必要で
ある。
However, in any of the methods, it is impossible to divide the image without error, and it is necessary to combine the methods and use the model and knowledge of the object.

【0011】[0011]

【発明が解決しようとする課題】上記のような従来のも
のにおいては、次のような課題があった。 (1) 従来の画像処理において、画像から対象物を抽出す
るには、画像や対象物の特徴が既知でなければならな
い。
SUMMARY OF THE INVENTION The above-mentioned conventional device has the following problems. (1) In conventional image processing, in order to extract an object from an image, the characteristics of the image and the object must be known.

【0012】(2) 画像から対象物を抽出する処理におい
て、対象物の特徴を与える際、その対象物を、画像処理
によって分離するためには、どのような特徴を与え、ど
のような手法を選択すればよいか、といった知識が必要
とされる。
(2) In the process of extracting an object from an image, when giving a characteristic of the object, what kind of characteristic should be given and what method should be used in order to separate the object by image processing. Knowledge of whether to choose is required.

【0013】従って、専門的な知識を持たない者は、前
記のような画像処理装置を利用することができなかっ
た。本発明は、このような従来の課題を解決し、画像中
から対象物を抽出する処理を効率良く行うと共に、画像
処理に関する知識を持たない利用者でも、容易に画像処
理を行うことができるようにすることを目的とする。
Therefore, a person who does not have specialized knowledge cannot use the image processing apparatus as described above. The present invention solves such a conventional problem, efficiently performs the process of extracting an object from an image, and enables a user who has no knowledge of image processing to easily perform the image processing. The purpose is to

【0014】[0014]

【課題を解決するための手段】図1は本発明の原理図で
あり、図中、1は画像処理部、2は視線解析部、3は視
線検出部、4は表示部、5はTVカメラ(テレビカメ
ラ)、6は利用者を示す。
FIG. 1 is a principle view of the present invention, in which 1 is an image processing unit, 2 is a line-of-sight analysis unit, 3 is a line-of-sight detection unit, 4 is a display unit, 5 is a TV camera. (TV camera), 6 shows a user.

【0015】本発明は上記の課題を解決するため、次の
ように構成した。 (1) 入力された画像から、任意の物体を抽出する画像処
理装置において、利用者6の視線を検出する視線検出部
3と、視線検出部3で検出した視線の動きを解析する視
線解析部2と、視線解析部2の解析結果に基づいて、入
力された画像から任意の物体を抽出する画像処理部1を
設けた。
In order to solve the above problems, the present invention has the following configuration. (1) In an image processing device that extracts an arbitrary object from an input image, a line-of-sight detection unit 3 that detects the line of sight of the user 6, and a line-of-sight analysis unit that analyzes the movement of the line of sight detected by the line-of-sight detection unit 3. 2 and the image processing unit 1 that extracts an arbitrary object from the input image based on the analysis result of the line-of-sight analysis unit 2.

【0016】(2) 前記構成(1)の視線解析部2におい
て、視線の動きを解析することにより、随従性眼球運動
と跳躍性眼球運動とに分類するようにした。 (3) 前記構成(2)の視線解析部2において、随従性眼
球運動と跳躍性眼球運動とに分類することにより、対象
物が静止しているか、運動しているかを判別して、画像
処理部1での対象物の抽出手法を切り換えるようにし
た。
(2) In the line-of-sight analysis unit 2 of the above configuration (1), the movement of the line-of-sight is analyzed to classify the eye movements into compliant eye movements and jumping eye movements. (3) In the line-of-sight analysis unit 2 of the configuration (2), it is discriminated whether the object is stationary or exercising by classifying it into compliant eye movements and jumping eye movements, and image processing is performed. The method of extracting the object in the part 1 is switched.

【0017】(4) 前記構成(3)の視線解析部2におい
て、跳躍性眼球運動を除き、随従性眼球運動についての
み、視線の平均運動速度(Vave)を求め、該平均運動
速度より、対象物が静止しているか、運動しているかを
判別するようにした。
(4) In the line-of-sight analysis unit 2 of the configuration (3), except for the jumping eye movement, the average movement speed (V ave ) of the line of sight is obtained only for the compliant eye movement, and from the average movement speed, I tried to determine whether the object is stationary or in motion.

【0018】(5) 前記構成(3)の視線解析部2におい
て、随従性眼球運動によって視線が動いている時の速度
及びその位置を検出し、その検出情報を画像処理部1へ
送出することにより、画像処理部1では、前記の検出情
報を利用して、動画像から、画像上で動いている対象物
を抽出するようにした。
(5) The line-of-sight analysis unit 2 of the above configuration (3) detects the speed and the position of the line of sight when the line of sight is moving due to the consequent eye movement, and sends the detection information to the image processing unit 1. Therefore, the image processing unit 1 uses the above detection information to extract the moving object on the image from the moving image.

【0019】[0019]

【作用】上記構成に基づく本発明の作用を、図1を参照
しながら説明する。処理すべき入力画像を表示部4で表
示し、この表示画面を利用者6が見ながら作業を行う。
この時、TVカメラ5により、利用者6の顔面を撮像
し、その画像を視線検出部3に送る。
The operation of the present invention based on the above construction will be described with reference to FIG. The input image to be processed is displayed on the display unit 4, and the user 6 works while watching this display screen.
At this time, the TV camera 5 images the face of the user 6 and sends the image to the line-of-sight detection unit 3.

【0020】視線検出部3では、入力した画像から利用
者6の視線の動きを検出する。そして、視線解析部2で
は、視線検出部3で検出した視線の動きを解析する。こ
の解析では、眼球運動の特性に基づき、一定期間の間の
視線の動く速度を求め、その速度から、随従性眼球運動
と跳躍性眼球運動とに分類する。
The line-of-sight detection unit 3 detects the line-of-sight movement of the user 6 from the input image. Then, the visual line analysis unit 2 analyzes the movement of the visual line detected by the visual line detection unit 3. In this analysis, the speed of movement of the line of sight during a certain period is obtained based on the characteristics of the eye movement, and the speed is classified into compliant eye movement and jumping eye movement.

【0021】この場合、跳躍性眼球運動は、静止した物
を見る場合だけでなく、運動物体を見る場合にも生じる
が、随従性眼球運動は、運動物体に注目した時のみ生じ
る特徴がある。そこで、跳躍性眼球運動を除き、随従性
眼球運動が含まれているかどうかによって、対象物が動
いているか静止しているかを判別する。
In this case, the jumping eye movement occurs not only when looking at a stationary object but also when looking at a moving object, but the compliant eye movement has a characteristic that occurs only when focusing on the moving object. Therefore, it is determined whether the object is moving or stationary depending on whether or not the compliant eye movement is included, excluding the jumping eye movement.

【0022】この判別結果により、画像処理部1の処理
手法を選択し、視線の位置や速度等の情報に従って、対
象物を抽出する。前記の対象物が動いているか静止して
いるかの判断は、視線解析部2において、随従性眼球運
動についてのみ平均運動速度を求め、この平均運動速度
が所定の値より大きいか、小さいかにより判別する。
Based on this determination result, the processing method of the image processing unit 1 is selected, and the object is extracted according to the information such as the position and speed of the line of sight. The determination as to whether the object is moving or stationary is performed by the line-of-sight analysis unit 2 by determining an average movement speed only for the compliant eye movements and determining whether the average movement speed is larger or smaller than a predetermined value. To do.

【0023】そして、対象物が動いていると判断した時
には、画像処理部1の動物体抽出処理の手法を選択し、
視線解析部2からの検出情報(速度、位置等の情報)を
用いて動いている対象物を抽出する。また、対象物が静
止していると判断した時は、静止物体抽出処理の手法を
選択し、静止している対象物を抽出する。
Then, when it is determined that the object is moving, the method of the moving object extracting process of the image processing unit 1 is selected,
The moving object is extracted using the detection information (information such as speed and position) from the line-of-sight analysis unit 2. When it is determined that the target object is still, the stationary object extraction processing method is selected and the stationary target object is extracted.

【0024】このように、視線を検出してその動きを解
析することで、対象物の位置や動きなどの情報を得るこ
とを可能とし、それによって画像の抽出処理手法を切り
換えるようにしている。このため、扱う画像や対象物に
よらず、利用者が画像を見るだけで、必要な対象物を抽
出することが可能となる。
As described above, by detecting the line of sight and analyzing the movement of the line of sight, it is possible to obtain information such as the position and movement of the object, thereby switching the image extraction processing method. Therefore, the user can extract the necessary target object only by looking at the image regardless of the image to be handled and the target object.

【0025】[0025]

【実施例】以下、本発明の実施例を図面に基づいて説明
する。図2〜図7は、本発明の1実施例を示した図であ
り、図2は眼球運動の例(Aは静止物体を注視した場
合、Bは運動物体を注視した場合)、図3は画像処理装
置の構成図、図4は視線検出部の構成図、図5は視線位
置蓄積部の構成図、図6は視線速度算出部及び運動判別
部の構成図、図7は平均速度算出処理フローチャートで
ある。
Embodiments of the present invention will be described below with reference to the drawings. 2 to 7 are views showing an embodiment of the present invention, FIG. 2 is an example of eye movement (A is a case of gazing at a stationary object, B is a case of gazing at a moving object), and FIG. 4 is a block diagram of the line-of-sight detecting unit, FIG. 5 is a block diagram of the line-of-sight position accumulating unit, FIG. 6 is a block diagram of the line-of-sight velocity calculating unit and the motion discriminating unit, and FIG. 7 is an average velocity calculating process. It is a flowchart.

【0026】図中、図1と同符号は同一のものを示す。
また、7は遅延回路、8は視線位置蓄積部、9は視線速
度算出部、10は運動判別部、11はスイッチ回路、1
2は動物体抽出処理部、13は静止物体処理部、14は
顔面画像入力部、15、16は特徴点抽出部、17は顔
の姿勢算出部、18は視線ベクトル算出部、19は注視
点算出部、20は速度算出部、21は速度蓄積部、22
は平均速度算出部、23は速度判定部、24は運動フラ
グ、25は運動判定部を示す。
In the figure, the same symbols as in FIG. 1 indicate the same components.
Further, 7 is a delay circuit, 8 is a line-of-sight position accumulation unit, 9 is a line-of-sight velocity calculation unit, 10 is a motion determination unit, 11 is a switch circuit, 1
2 is a moving object extraction processing unit, 13 is a stationary object processing unit, 14 is a face image input unit, 15 and 16 are feature point extraction units, 17 is a face posture calculation unit, 18 is a line-of-sight vector calculation unit, and 19 is a gazing point. Calculation unit, 20 is a speed calculation unit, 21 is a speed accumulation unit, 22
Is an average speed calculation unit, 23 is a speed determination unit, 24 is an exercise flag, and 25 is an exercise determination unit.

【0027】先ず、図2を参照しながら、眼球運動の例
について説明する。図2において、Aは静止物体を見る
時の視線の動く様子を表わしている。通常、人(利用
者)が静止した物体を見る場合には、250msec 程度
一点を固視した(図2Aの参照)後に、数十msec の
跳躍運動(図2Aの参照)をして視線を移動するとい
うことを繰り返し、対象物の情報を得ている。この跳躍
運動が跳躍眼球運動と呼ばれる。
First, an example of eye movement will be described with reference to FIG. In FIG. 2, A represents the movement of the line of sight when viewing a stationary object. Usually, when a person (user) looks at a stationary object, he or she gazes at one point for about 250 msec (see FIG. 2A), and then makes a jumping motion (see FIG. 2A) for several tens of msec to move the line of sight. Repeating that, the information of the object is obtained. This jumping movement is called jumping eye movement.

【0028】一回の跳躍運動による変位は3°〜6°
(視角)であり、速度にすると数100°/sec であ
る。一方、随従性眼球運動は、運動物体を注視している
時に生じる眼球運動であり、対象物の動きに伴って滑ら
かに視線は移動する(図2B参照)。
The displacement by one jumping motion is 3 ° to 6 °
(Visual angle), which is several 100 ° / sec in terms of speed. On the other hand, the compliant eye movement is an eye movement that occurs when gazing at a moving object, and the line of sight moves smoothly with the movement of the object (see FIG. 2B).

【0029】跳躍性眼球運動は、静止したものを見る場
合だけでなく、運動物体を見る場合にも生じる(図2B
の参照)が、随従性眼球運動は、運動物体に注目した
時にのみ生じると言われており、速度は5°/sec 程度
である。
Jumping eye movements occur not only when looking at a stationary object but also when looking at a moving object (FIG. 2B).
However, it is said that the consequent eye movement occurs only when attention is paid to a moving object, and the velocity is about 5 ° / sec.

【0030】これらの眼球運動の特性に基づき、一定期
間の間の視線の動く速度を求め、その速度から随従性眼
球運動か跳躍性眼球運動かを判別し、随従性眼球運動が
含まれているかどうかによって、対象物が動いているか
静止しているかを判別する。
Based on the characteristics of these eye movements, the speed of movement of the line of sight during a certain period of time is obtained, and it is discriminated whether the eye movements are compliant or jumping. Depending on how, it is determined whether the object is moving or stationary.

【0031】そして、それによって、画像処理の手法を
選択し、視線の位置や速度等の情報に従って対象物を抽
出する。次に、本実施例の画像処理装置を説明する。前
記画像処理装置は、図2に示したように、画像処理部
1、視線解析部2、視線検出部3、表示部4、TVカメ
ラ5、遅延回路7で構成される。
Then, the image processing method is selected, and the object is extracted according to the information such as the position and speed of the line of sight. Next, the image processing apparatus of this embodiment will be described. As shown in FIG. 2, the image processing apparatus includes an image processing unit 1, a visual line analysis unit 2, a visual line detection unit 3, a display unit 4, a TV camera 5, and a delay circuit 7.

【0032】そして、画像処理部1には、スイッチ回路
11、動物体抽出処理部12、静止物体抽出処理部13
を設け、視線解析部2には、視線位置蓄積部8、視線速
度算出部9、運動判別部10を設ける。
The image processing unit 1 includes a switch circuit 11, a moving object extraction processing unit 12, and a stationary object extraction processing unit 13.
The visual axis analysis unit 2 is provided with a visual line position storage unit 8, a visual line velocity calculation unit 9, and a motion determination unit 10.

【0033】TVカメラ5は、画像処理装置の利用者6
の前方に配置されていて、該利用者6の顔面を撮像する
カメラである。視線検出部3は、TVカメラで撮像した
画像を入力し、利用者6の眼の動きを検出するものであ
る。
The TV camera 5 is used by the user 6 of the image processing apparatus.
Is a camera that is arranged in front of the camera and captures an image of the face of the user 6. The line-of-sight detection unit 3 inputs the image captured by the TV camera and detects the movement of the eyes of the user 6.

【0034】視線解析部2は、視線検出部3で検出した
情報を入力し、視線の動きを解析するものである。画像
処理部1は、入力した画像から対象物を抽出する処理を
行うものである。遅延回路7は、画像処理部1へ入力す
る画像を、一定時間遅延させる回路である。
The line-of-sight analysis unit 2 inputs the information detected by the line-of-sight detection unit 3 and analyzes the movement of the line-of-sight. The image processing unit 1 performs a process of extracting an object from the input image. The delay circuit 7 is a circuit that delays an image input to the image processing unit 1 for a predetermined time.

【0035】スイッチ回路(SW)11は、運動判別部
10の出力信号に基づいてスイッチング動作を行うこと
により、画像処理部1への入力信号を、動物体抽出処理
部12、あるいは静止物体抽出処理部13へ送出する回
路である。
The switch circuit (SW) 11 performs a switching operation based on the output signal of the motion discriminating unit 10 so that the input signal to the image processing unit 1 is transferred to the moving object extraction processing unit 12 or the stationary object extraction processing. It is a circuit for sending to the unit 13.

【0036】図3に示した画像処理装置の動作時には、
画像の表示部4に、処理を行う入力画像を表示し、これ
を観察する利用者6の顔面をTVカメラ5で撮像し、視
線検出部3へ入力する。視線検出部3では、入力した画
像から、逐次利用者6の視線を検出する。
During operation of the image processing apparatus shown in FIG.
The input image to be processed is displayed on the image display unit 4, the face of the user 6 who observes the image is captured by the TV camera 5, and the image is input to the line-of-sight detection unit 3. The line-of-sight detection unit 3 sequentially detects the line of sight of the user 6 from the input image.

【0037】この場合、視線検出部3は、例えば図4の
ように、顔面画像入力部14、特徴点抽出部15、1
6、顔の姿勢算出部17、視線ベクトル算出部18、注
視点算出部19等で構成する。TVカメラ5の出力画像
は、顔面画像入力部14へ入力し、その後、特徴点抽出
部15、16で特徴点を抽出する。
In this case, the line-of-sight detection unit 3 is, for example, as shown in FIG. 4, the face image input unit 14, the feature point extraction units 15, 1
6, a face posture calculation unit 17, a line-of-sight vector calculation unit 18, a gazing point calculation unit 19, and the like. The output image of the TV camera 5 is input to the face image input unit 14 and then the characteristic points are extracted by the characteristic point extracting units 15 and 16.

【0038】また、顔の姿勢算出部17では、特徴点抽
出部15で抽出した特徴点情報を用いて、顔の姿勢を算
出する。視線ベクトル算出部18では、顔の姿勢算出部
17の出力情報と、特徴点抽出部16の出力情報を用い
て、視線ベクトルを算出する。
Further, the face posture calculating section 17 calculates the face posture using the feature point information extracted by the feature point extracting section 15. The line-of-sight vector calculation unit 18 calculates the line-of-sight vector using the output information of the face posture calculation unit 17 and the output information of the feature point extraction unit 16.

【0039】最後に、注視点算出部19では、視線ベク
トル算出部18の算出結果から、利用者6の注視点を算
出する。このようにして利用者6の視線を検出すると、
検出結果を視線解析部2へ出力する。視線解析部2で
は、入力したデータ(利用者6の視線の位置のデータ)
を、視線位置蓄積部8に蓄積する。
Finally, the gazing point calculation unit 19 calculates the gazing point of the user 6 from the calculation result of the line-of-sight vector calculation unit 18. In this way, when the line of sight of the user 6 is detected,
The detection result is output to the line-of-sight analysis unit 2. In the line-of-sight analysis unit 2, the input data (data of the position of the line of sight of the user 6)
Is stored in the line-of-sight position storage unit 8.

【0040】その後、視線速度算出部9により、視線速
度を算出し、その速度に基づいて、注目している対象物
が動いているか静止しているかを判別する。前記視線位
置蓄積部8は、跳躍性眼球運動が発生する周期にほぼ等
しい時間(数百msec )にサンプリングされる個数Nの
視線位置を記憶する容量を持つ。
After that, the line-of-sight velocity calculation unit 9 calculates the line-of-sight velocity, and based on the velocity, it is determined whether the object of interest is moving or stationary. The line-of-sight position storage unit 8 has a capacity of storing N number of line-of-sight positions sampled at a time period (several hundred msec) substantially equal to the cycle in which the jumping eye movement occurs.

【0041】例えば、その記憶方法は、図5のように、
視線の位置が一回入力される毎にデータをシフトして、
新しいデータを最後に書き込むというものである。シフ
トすることによって視線位置蓄積部8から出た最も古い
データ(Dt-N )は、画像処理部1へ出力される。
For example, the storing method is as shown in FIG.
The data is shifted every time the position of the line of sight is input,
The new data is written at the end. The oldest data (D tN ) output from the line-of-sight position storage unit 8 by shifting is output to the image processing unit 1.

【0042】図5の例では、1個の視線データを
t+1 ,Dt,Dt-1 ,Dt-2 ・・・Dt- N とすると、
視線位置蓄積部8には、Dt ,Dt-1 ,Dt-2 ・・・D
t-N から成るN個のデータが蓄積される。この場合、跳
躍性眼球運動の周期をTs 、視線のサンプリング周期を
Tとすると、N=Ts /Tの関係がある。
In the example of FIG. 5, assuming that one line-of-sight data is D t + 1 , D t , D t-1 , D t-2 ... D t- N ,
The line-of-sight position storage unit 8 has D t , D t-1 , D t-2, ... D t.
N pieces of data consisting of tN are stored. In this case, assuming that the period of the jumping eye movement is T s and the sampling period of the line of sight is T, there is a relationship of N = T s / T.

【0043】今、この状態でデータDt+1 が入力する
と、全てのデータが1個分だけシフト(図の右側へシフ
ト)して、最も古いデータであるDt-N が出力される。
このようにして、データが入力する毎にシフトを行い、
最も古いデータを順次出力する。
Now, when the data D t + 1 is input in this state, all the data are shifted by one (shifted to the right in the figure), and the oldest data D tN is output.
In this way, it shifts each time data is input,
The oldest data is sequentially output.

【0044】視線速度算出部9及び運動判別部10は、
例えば図6のように構成されている。すなわち、視線速
度算出部9は、速度算出部20、速度蓄積部21、平均
速度算出部22で構成し、運動判別部10は、速度判定
部23、運動フラグ24、運動判定部25で構成する。
The line-of-sight velocity calculator 9 and the motion discriminator 10 are
For example, it is configured as shown in FIG. That is, the line-of-sight velocity calculation unit 9 includes a velocity calculation unit 20, a velocity accumulation unit 21, and an average velocity calculation unit 22, and the motion determination unit 10 includes a velocity determination unit 23, a motion flag 24, and a motion determination unit 25. ..

【0045】先ず、視線速度算出部9の速度算出部20
において、視線位置蓄積部8に蓄積されている視線位置
データの内、最新のデータDt と、その前のデータD
t-1 の間での視線の移動速度Vt を算出し、これを速度
蓄積部21に入力する。
First, the speed calculation unit 20 of the line-of-sight speed calculation unit 9
In the line-of-sight position data storage unit 8, the latest data D t and the previous data D t are stored.
The moving speed V t of the line of sight during t-1 is calculated, and this is input to the speed accumulation unit 21.

【0046】この場合、視線の移動速度Vt は、次式で
求められる。
In this case, the moving speed V t of the line of sight is obtained by the following equation.

【0047】[0047]

【数1】 [Equation 1]

【0048】なお、前式で、Xt-1 ,Xt はX軸方向の
成分、Yt-1 ,Yt はY軸方向の成分である。また、速
度蓄積部21は、図5に示した視線位置蓄積部と同じ構
成であり、データが入力すると全てのデータがシフト
し、最も古いデータが出力する。
In the above equation, X t-1 and X t are components in the X-axis direction, and Y t-1 and Y t are components in the Y-axis direction. Further, the velocity storage unit 21 has the same configuration as the line-of-sight position storage unit shown in FIG. 5, and when data is input, all data is shifted and the oldest data is output.

【0049】運動判別部10の速度判定部23では、速
度蓄積部21に入力した前記移動速度Vt を取り込み、
該速度Vt が跳躍性眼球運動の速度であるかどうかを判
定する。この判定では、Vt >Vth0 ならば跳躍性眼球
運動、Vt ≦Vth0 ならば静止または随従性眼球運動と
する。ここでVth0 は、随従性眼球運動の限界速度であ
り、Vth0 =5°/sec 〜10°/sec の値である。
The speed determination unit 23 of the motion determination unit 10 fetches the moving speed V t input to the speed storage unit 21,
It is determined whether the velocity V t is the velocity of the jumping eye movement. In this determination, if V t > V th0 , jumping eye movement is performed, and if V t ≦ V th0 , resting or compliant eye movement is determined. Here, V th0 is the limit velocity of the saccadic eye movement, and is a value of V th0 = 5 ° / sec to 10 ° / sec.

【0050】跳躍運動でない場合、速度Vt を、平均速
度算出部22に入力すると共に、運動フラグ24のビッ
トを立てる。運動フラグ24は、シフトレジスタであ
り、1つのデータが入力する毎に1ビットシフトする。
平均速度算出部22では、速度判定部23から入力され
た速度Vt を順次加算すると共に、フローした運動フラ
グのビットが立っている場合、速度蓄積部21から出た
速度Vt-N を引く。
When it is not the jumping movement, the velocity V t is input to the average velocity calculating section 22 and the bit of the movement flag 24 is set. The movement flag 24 is a shift register, and shifts by 1 bit each time one data is input.
The average speed calculator 22 sequentially adds the speeds V t input from the speed determiner 23, and subtracts the speed V tN output from the speed accumulator 21 when the bit of the flowed motion flag is set.

【0051】そして、速度の和を現在の運動フラグのビ
ット数で割り、跳躍性運動を除いた視線の平均運動速度
ave を求める。この速度Vave は、運動判別部10の
運動判定部25に入力されると共に、画像処理部1に入
力される。
Then, the sum of the speeds is divided by the number of bits of the current motion flag to obtain the average motion speed V ave of the line of sight excluding the jumping motion. This speed V ave is input to the motion determination unit 25 of the motion determination unit 10 and the image processing unit 1.

【0052】運動判定部25では、入力された速度V
ave から対象物の運動を判定する。速度Vave は跳躍性
眼球運動を含まないので、対象物が静止している場合に
は速度Vave はほとんどゼロになるはずである。
In the motion determining section 25, the input velocity V
Determine the motion of the object from ave . Since the velocity V ave does not include jumping eye movements, the velocity V ave should be almost zero when the object is stationary.

【0053】従って、速度Vave >Vth1 (Vth0 は基
準値で、0に近い+の値)であれば対象物は動いている
として、1を画像処理部に入力する。そうでなければ、
静止しているとして、2を入力する(運動判定に平均速
度を用いたのは、静止物体を見ている時にも、眼球の微
動があるため)。
Therefore, if the velocity V ave > V th1 (V th0 is a reference value and a + value close to 0), it is determined that the object is moving and 1 is input to the image processing unit. Otherwise,
Assuming that the user is stationary, 2 is input (the reason why the average speed is used for the motion determination is that there is slight movement of the eyeball even when looking at a stationary object).

【0054】前記の平均運動速度Vave を求める際の処
理を、図7の処理フローチャートに基づいて説明する。
なお、図7の各処理番号をカッコ内に示す。先ず、速度
算出部20で算出した視線の移動速度Vt のデータが、
速度蓄積部21に入力すると、速度蓄積部21のデータ
をシフト(図の右方向へシフト)し、最も古いデータを
平均速度算出部22へ出力する。また前記移動速度Vt
のデータは、速度判定部23に入力する。この時、運動
フラグ24を1ビット左へシフトする(S1)。
The process for obtaining the average motion velocity V ave will be described with reference to the process flowchart of FIG.
The process numbers in FIG. 7 are shown in parentheses. First, the data of the moving speed V t of the line of sight calculated by the speed calculating unit 20 is
When input to the speed accumulation unit 21, the data in the speed accumulation unit 21 is shifted (shifted to the right in the figure), and the oldest data is output to the average speed calculation unit 22. Further, the moving speed V t
Is input to the speed determination unit 23. At this time, the motion flag 24 is shifted to the left by 1 bit (S1).

【0055】その後、速度判定部23では、入力した速
度Vt が、Vt >Vth0 かVt ≦V th0 かを判定する
(S2)。この判定結果がVt ≦Vth0 であれば、静止
または随従性眼球運動であるから、運動フラグ24の最
下位ビットを+1(S3)し、前記速度Vt のデータを
平均速度算出部22へ出力し、加算して速度の和Vsum
を求める(S4)。
After that, the speed determination unit 23 determines whether the input speed is
Degree VtBut Vt> Vth0Or Vt≤V th0Determine
(S2). This judgment result is Vt≤Vth0If so, stand still
Or, since the eye movement is compliant, the maximum movement flag 24
The lower bit is incremented by +1 (S3), and the speed VtData of
It is output to the average speed calculator 22 and added to add up the speed sum Vsum
Is calculated (S4).

【0056】また、Vt ≦Vth0 でなければ(S2)、
前記の処理(S3,S4)を行わない。その後、運動フ
ラグ24のキャリーfc がfc =1ならば(S5)、平
均速度算出部22では、速度蓄積部21から出力した速
度Vt-N を引き(−Vt-N を加算)、速度の和Vsum
求める(S6)。
If V t ≤V th0 is not satisfied (S2),
The above processing (S3, S4) is not performed. After that, if the carry f c of the motion flag 24 is f c = 1 (S5), the average speed calculation unit 22 subtracts the speed V tN output from the speed storage unit 21 (adds −V tN ) to obtain the sum of the speeds. V sum is calculated (S6).

【0057】また前記の処理(S5)において、fc
1でなければS6の処理を行わない。最後に、速度の和
sum を運動フラグ24の「1」のビット数nで割り
(Vsu m /n)、跳躍運動を除いた視線の平均運動速度
ave を求める(S7)。
In the above process (S5), f c =
If it is not 1, the process of S6 is not performed. Finally, divide the sum V sum at a rate of the number of bits n of "1" in the motion flag 24 (V su m / n) , determines the average motion velocity V ave of sight excluding the jumping movement (S7).

【0058】画像処理部1は図3のように、動物体抽出
処理部12、静止物体抽出処理部13、スイッチ回路1
1で構成されており、視線解析部2の運動判別部10か
ら出力される値に従って、前記スイッチ回路11を切り
換える。
As shown in FIG. 3, the image processing section 1 includes a moving object extraction processing section 12, a stationary object extraction processing section 13, and a switch circuit 1.
1 and switches the switch circuit 11 according to the value output from the motion discriminating unit 10 of the line-of-sight analyzing unit 2.

【0059】入力画像は、表示部4に与える画像と同じ
であるが、画像処理部1には、視線の速度算出に要する
時間だけ遅らせる遅延回路7を介して入力する。そし
て、スイッチ回路11によって切り換えられた動物体抽
出処理部12、あるいは静止物体抽出処理部13では、
視線の移動速度や位置の情報を基に対象物の抽出処理を
実行する。
The input image is the same as the image given to the display unit 4, but is input to the image processing unit 1 via the delay circuit 7 which delays by the time required to calculate the line-of-sight velocity. Then, in the moving object extraction processing unit 12 or the stationary object extraction processing unit 13 switched by the switch circuit 11,
The extraction process of the object is executed based on the information on the moving speed and the position of the line of sight.

【0060】[0060]

【発明の効果】以上説明したように、本発明によれば次
のような効果がある。すなわち、視線から対象物の情報
を得るため、利用者が画像を見るだけで、その利用者が
必要としている対象物を抽出することができる。従っ
て、画像処理に関する知識を持たない利用者にも容易に
画像処理を行うことができ、画像処理装置におけるマン
マシンインタフェースの性能向上が可能となる。
As described above, the present invention has the following effects. That is, since the information of the target object is obtained from the line of sight, the user can extract the target object only by looking at the image. Therefore, even a user who has no knowledge of image processing can easily perform image processing, and the performance of the man-machine interface in the image processing apparatus can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理図である。FIG. 1 is a principle diagram of the present invention.

【図2】本発明の1実施例における眼球運動(Aは静止
物体を注視した場合、Bは運動物体を注視した場合)の
例を示した図である。
FIG. 2 is a diagram showing an example of eye movements (A is a case of gazing at a stationary object and B is a case of gazing at a moving object) according to an embodiment of the present invention.

【図3】画像処理装置の構成図である。FIG. 3 is a configuration diagram of an image processing apparatus.

【図4】視線検出部の構成図である。FIG. 4 is a configuration diagram of a line-of-sight detection unit.

【図5】視線位置蓄積部の構成図である。FIG. 5 is a configuration diagram of a line-of-sight position accumulation unit.

【図6】視線速度算出部及び運動判別部の構成図であ
る。
FIG. 6 is a configuration diagram of a gaze velocity calculation unit and a motion determination unit.

【図7】平均運動速度算出処理フローチャートである。FIG. 7 is an average movement speed calculation processing flowchart.

【符号の説明】 1 画像処理部 2 視線解析部 3 視線検出部 4 表示部 5 TVカメラ 6 利用者[Explanation of reference numerals] 1 image processing unit 2 visual line analysis unit 3 visual line detection unit 4 display unit 5 TV camera 6 user

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 入力された画像から、任意の物体を抽出
する画像処理装置において、 利用者(6)の視線を検出する視線検出部(3)と、 視線検出部(3)で検出した視線の動きを解析する視線
解析部(2)と、 視線解析部(2)の解析結果に基づいて、入力された画
像から任意の物体を抽出する画像処理部(1)を設けた
ことを特徴とする画像処理装置。
1. In an image processing apparatus for extracting an arbitrary object from an input image, a line-of-sight detection unit (3) for detecting the line-of-sight of a user (6) and a line-of-sight detected by the line-of-sight detection unit (3). A line-of-sight analysis unit (2) for analyzing the movement of the human body and an image processing unit (1) for extracting an arbitrary object from the input image based on the analysis result of the line-of-sight analysis unit (2) are provided. Image processing device.
【請求項2】 前記視線解析部(2)において、視線の
動きを解析することにより、随従性眼球運動と跳躍性眼
球運動とに分類することを特徴とした請求項1記載の画
像処理装置。
2. The image processing apparatus according to claim 1, wherein the line-of-sight analysis unit (2) analyzes the movement of the line of sight to classify the eye movement into compliant eye movements and jumping eye movements.
【請求項3】 前記視線解析部(2)において、 随従性眼球運動と跳躍性眼球運動とに分類することによ
り、対象物が静止しているか、運動しているかを判別し
て、 画像処理部(1)での対象物の抽出手法を切り換えるこ
とを特徴とした請求項2記載の画像処理装置。
3. The line-of-sight analysis unit (2) classifies the subject's eye movements as jumping eye movements and jumping eye movements to determine whether the object is stationary or in motion, and an image processing unit. The image processing apparatus according to claim 2, wherein the method of extracting the object in (1) is switched.
【請求項4】 前記視線解析部(2)において、 跳躍性眼球運動を除き、随従性眼球運動についてのみ、
視線の平均運動速度(Vave )を求め、 該平均運動速度(Vave )より、対象物が静止している
か、運動しているかを判別することを特徴とした請求項
3記載の画像処理装置。
4. The line-of-sight analysis unit (2) excludes jumping eye movements, and only for compliant eye movements,
Obtains an average speed of motion of the line of sight (V ave), the average than motion velocity (V ave), or the object is stationary, motion and it was characterized by either determining and 3. The image processing apparatus according ..
【請求項5】 前記視線解析部(2)において、随従性
眼球運動によって視線が動いている時の速度及びその位
置を検出し、 その検出情報を画像処理部(1)へ送出することによ
り、 画像処理部(1)では、前記の検出情報を利用して、動
画像から、画像上で動いている対象物を抽出することを
特徴とした請求項3記載の画像処理装置。
5. The line-of-sight analysis unit (2) detects the velocity and the position of the line of sight when the line of sight is moving due to compliant eye movement, and sends the detection information to the image processing unit (1). The image processing apparatus according to claim 3, wherein the image processing unit (1) extracts the moving object on the image from the moving image using the detection information.
JP27216791A 1991-10-21 1991-10-21 Picture processor Withdrawn JPH05108795A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27216791A JPH05108795A (en) 1991-10-21 1991-10-21 Picture processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27216791A JPH05108795A (en) 1991-10-21 1991-10-21 Picture processor

Publications (1)

Publication Number Publication Date
JPH05108795A true JPH05108795A (en) 1993-04-30

Family

ID=17510015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27216791A Withdrawn JPH05108795A (en) 1991-10-21 1991-10-21 Picture processor

Country Status (1)

Country Link
JP (1) JPH05108795A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200632A (en) * 1993-12-28 1995-08-04 Toshiba Corp Information processor
JPH0981306A (en) * 1995-09-12 1997-03-28 Toshiba Corp Information processor
JP2008527522A (en) * 2005-01-10 2008-07-24 トムソン ライセンシング Apparatus and method for creating image saliency map

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200632A (en) * 1993-12-28 1995-08-04 Toshiba Corp Information processor
JPH0981306A (en) * 1995-09-12 1997-03-28 Toshiba Corp Information processor
JP2008527522A (en) * 2005-01-10 2008-07-24 トムソン ライセンシング Apparatus and method for creating image saliency map

Similar Documents

Publication Publication Date Title
Birchfield Elliptical head tracking using intensity gradients and color histograms
EP2200274B1 (en) Main face choosing device, method for controlling same, and image capturing apparatus
JP4377472B2 (en) Face image processing device
EP2293540B1 (en) Image processing apparatus and method for detection and correction of camera shake
KR101441333B1 (en) Detecting Apparatus of Human Component AND Method of the same
Osberger et al. Automatic detection of regions of interest in complex video sequences
US8706663B2 (en) Detection of people in real world videos and images
JP4373840B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus
JPH1051755A (en) Screen display controller for video conference terminal equipment
JP2007006427A (en) Video monitor
KR101558659B1 (en) Image processing device, image processing method, and storage medium
JP2001067459A (en) Method and device for face image processing
JP2017076288A (en) Information processor, information processing method and program
CN111986163A (en) Face image selection method and device
JP2010114752A (en) Device and method of imaging and program
JP6349448B1 (en) Information processing apparatus, information processing program, and information processing method
JP2017125974A (en) Display device, display method and program
JP2004062393A (en) Method and device for determining attention
JPH05108795A (en) Picture processor
WO2018179119A1 (en) Image analysis apparatus, image analysis method, and recording medium
JP4244593B2 (en) Object extraction device, object extraction method, and image display device
JPH09265538A (en) Automatic tracking device
JP2019040592A (en) Information processing device, information processing program, and information processing method
CN113544701A (en) Method and device for detecting associated object
JP3325823B2 (en) Video still image display method and apparatus, and video still image display program storage recording medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990107