JPH01141479A - Image communication equipment utilizing glance detection - Google Patents

Image communication equipment utilizing glance detection

Info

Publication number
JPH01141479A
JPH01141479A JP62301065A JP30106587A JPH01141479A JP H01141479 A JPH01141479 A JP H01141479A JP 62301065 A JP62301065 A JP 62301065A JP 30106587 A JP30106587 A JP 30106587A JP H01141479 A JPH01141479 A JP H01141479A
Authority
JP
Japan
Prior art keywords
image
information
line
sight
transmitting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP62301065A
Other languages
Japanese (ja)
Inventor
Akira Tomono
明 伴野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
A T R TSUSHIN SYST KENKYUSHO KK
Original Assignee
A T R TSUSHIN SYST KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by A T R TSUSHIN SYST KENKYUSHO KK filed Critical A T R TSUSHIN SYST KENKYUSHO KK
Priority to JP62301065A priority Critical patent/JPH01141479A/en
Publication of JPH01141479A publication Critical patent/JPH01141479A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To economically receive with high quality, an image obtained by means of a camera installed at an opponent side (transmitting side) by feeding back the glance information of a receiving person to a transmitting part and extracting transmitting image information from an original image based on it. CONSTITUTION:The image is reproduced from a receiving signal, it is displayed on an image displaying means 8, the movement of the glance of a receiving person 9 monitoring the image displaying means 9 is detected, and the glance information is transmitted to an image transmitting part 15. By the image transmitting part 15, the information quantity of the original image is weighted based on the glance position information, the transmitting image information is extracted, the extracted image information is transmitted to a receiving side, and the weighting is executed in the point of a transmitting information quantity between the image information of the central part of the glance important for the recognition of the receiving person and the image information of a gazing point periphery to have little concern to the recognition of a detail. Thus, the image information can be widely compressed, the image information can be made economical, and when the transmitting information quantity is fixed, an image communication which seems to have the high quality can be realized.

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は視線検出を利用した画像通信装置に関し、特
C゛こ、受信者の視線情報を送信側にフィードバックす
ることによって、画像品質を高めるとともに、大幅な情
報圧縮を図ることのできるような視線検出を利用した画
像通信装置に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to an image communication device that uses line of sight detection, and particularly improves image quality by feeding back line of sight information of a receiver to a transmitting side. The present invention also relates to an image communication device using line of sight detection that can significantly compress information.

[従来の技術] 第12図はテレビ会議、テレビ電話、動画像データベー
スへのアクセスなどの画像通信に用いられる従来の通信
方式の概略を示す図である。第12図において、画像送
信側の原画像抽出部1は、カメラ3によって人物の視覚
対象2をとらえる場合を示している。カメラ3によって
撮影された視覚対象2の原画像は画像符号化手段4に与
えられ、原画像が符号化される。符号化された原画像は
送信手段5によって受信側に伝送される。符号化された
原画像は画像受信側の受信手段6によって受信され、復
号手段7によって原画像に復元される。
[Prior Art] FIG. 12 is a diagram schematically showing a conventional communication method used for image communication such as video conferences, video telephone calls, and access to a moving image database. In FIG. 12, the original image extraction unit 1 on the image transmission side captures a visual object 2 of a person with the camera 3. The original image of the visual object 2 taken by the camera 3 is given to the image encoding means 4, and the original image is encoded. The encoded original image is transmitted to the receiving side by the transmitting means 5. The encoded original image is received by the receiving means 6 on the image receiving side and restored to the original image by the decoding means 7.

復元された原画像は表示手段8に表示され、受信者9は
その画像を見る。
The restored original image is displayed on the display means 8, and the recipient 9 views the image.

ここで、以下の説明では画像符号化手段4に入力される
前の画像を原画像とし、伝送のために情報が走査(圧縮
など)された画像情報を送信画像情報と呼ぶことにする
。この方式では、送信画像情報は各画面ごとに画面の全
領域で一様に、また直接的に符号化され、受信側に伝送
される形態がとられている。このため、107〜’10
8bpsの符号化レートとなり、伝送路として広い伝送
帯域が必要とされる。このために、第12図に示した形
態セ画像情報を伝送するには伝送コストが高価になると
いう問題点があった。 ′ 上述の問題点に対して、ビットレートを下げるために様
々な検討が行なわれている。実用化されたものとしては
、画面の濃淡の傾向や画素間の相関などの統計的な性質
を使用し1.空間的にあるいは時間的に予測を行なって
伝送情報を最少限にする方法がある。たとえば、動きの
部分だけを抽出したり、あるいは輪郭を抽出して伝送す
る方法などである。また、近年では、動画像の高能率符
号化方式として注目され、一部実用化されているものに
ベクトル量子化がある。これは、符号化の対象となる原
画像を小ブロックに分割し、各ブロックをに次元のベク
トルX−(X+ l  x2・・・xk)で表わし、こ
の各要素には予め用意したブロック集合Y= (Y+ 
) l=l 、N I  V+ −(Y+’+ 。
Here, in the following explanation, the image before being input to the image encoding means 4 will be referred to as an original image, and the image information whose information has been scanned (compressed, etc.) for transmission will be referred to as transmitted image information. In this method, the transmitted image information is encoded uniformly and directly in the entire screen area for each screen, and then transmitted to the receiving side. For this reason, 107~'10
The encoding rate is 8 bps, and a wide transmission band is required as a transmission path. For this reason, there is a problem in that the transmission cost becomes high when transmitting the formatted image information shown in FIG. 12. ′ Various studies have been conducted to reduce the bit rate to address the above-mentioned problems. The ones that have been put into practical use are: 1. Using statistical properties such as the tendency of screen shading and the correlation between pixels. There are ways to minimize transmitted information by making predictions spatially or temporally. For example, there are methods of extracting only the moving parts, or extracting and transmitting the contours. Furthermore, in recent years, vector quantization has attracted attention as a high-efficiency encoding method for moving images, and has been put into practical use to some extent. In this method, the original image to be encoded is divided into small blocks, each block is represented by a vector X-(X+l x2... = (Y+
) l=l, NIV+ -(Y+'+.

y12.・・・y、、)の中から適当なものを選び、X
、をy6.の添字iで置換えることによって符号化する
方式である。ここで、Yはコードブックと呼ばれる。
y12. ...y,,), and select the appropriate one from X.
, to y6. This is a method of encoding by replacing the subscript i with the subscript i. Here, Y is called a codebook.

第13図はベクトル量子化を用いた従来の画像情報の圧
縮方法を説明するための図である。原画像10はカメラ
3でとらえたものであり、この原画像10には視覚対象
11が含まれている。この原画像10はに個のブロック
に分割され、各ブロックはX、で表わされる。X、は4
画素×4画素のコードブック12の中のN個のブロック
と比較され、最も近いブロックiが選択され、X(はこ
のインデックスiに置換えられ、これが符号化される。
FIG. 13 is a diagram for explaining a conventional image information compression method using vector quantization. The original image 10 is captured by the camera 3, and includes a visual object 11. This original image 10 is divided into blocks, and each block is represented by X. X, is 4
It is compared with N blocks in the pixel by 4 pixel codebook 12, the closest block i is selected, X( is replaced with this index i, and this is encoded.

したがって、この操作が効率良くなされれば、X、をそ
のまま伝送するよりも少ない情報量で済むことになる。
Therefore, if this operation is performed efficiently, the amount of information will be smaller than if X is transmitted as is.

このベクトル量子化では、コードブック12の作り方お
よびコードブック12の使用にあたって原画像の入力ベ
クトルに一番近いベクトルをコードブックの中から検索
する方法が問題となる。コ−ドブック12の作り方につ
いては、原画像の種類−によって再生される画像の画質
に偏りが生じないようにするため、各種の方法が提案さ
れている。
In this vector quantization, the problem is how to create the codebook 12 and how to search the codebook for the vector closest to the input vector of the original image when using the codebook 12. Various methods have been proposed for creating the codebook 12 in order to prevent the quality of reproduced images from being biased depending on the type of original image.

また、検索については、コードブックの中のすべてのコ
ードベクトルと逐次比較を行なっていたのでは演算量が
大きくなりすぎるため、コードブックの中のベクトルを
いくつかのカテゴリに分類しておいて、入力ベクトルの
性質によって、このカテゴリを選択して検索することに
より、検索回数を減らす本検索法や複数のブロックサイ
ズを用意しておき、量子化誤差が所定の値まで小さくな
るように、大きなブロックから順次小さなブロックに分
割していく多段ベクトル量子化、さらにこれを小画面表
示装置に適用し、大小2段階のブロックを選択する適応
ブロックサイズベクトル量子化(泉岡、長谷、鈴木:適
応ブロックサイズベクトル量子化による小画面動画通信
、電子情報通信学会技術報告I E86−98参照)な
どが知られている。
Also, regarding the search, performing successive comparison with all code vectors in the codebook would require too much calculation, so the vectors in the codebook are classified into several categories. Depending on the nature of the input vector, by selecting this category and searching, we can use this search method to reduce the number of searches. Multi-stage vector quantization that sequentially divides blocks into smaller blocks, and adaptive block size vector quantization that selects blocks of two sizes (large and small) by applying this to small screen display devices (Izuoka, Hase, Suzuki: Adaptive block size vector Small-screen video communication using quantization (see Institute of Electronics, Information and Communication Engineers technical report IE86-98) is known.

また、最近、大幅な圧縮と自然な画像品質伝送を狙った
将来の画像通信方式として、符号化に知能処理を適用す
る検討がなされている。これは、送信側で原画像の特徴
を認識し、この特徴認識情報を符号化して伝送し、受信
側ではこれを元に蓄積されている画像特徴データベース
から物体像およびこの動きを実時間で高速生成し、表示
するものである。
Furthermore, recently, consideration has been given to applying intelligent processing to encoding as a future image communication system aiming at significant compression and transmission of natural image quality. The transmitter side recognizes the characteristics of the original image, encodes and transmits this feature recognition information, and then the receiver side uses the stored image feature database to determine the object image and its movement in real time at high speed. It is something that is generated and displayed.

[発明が解決しようとする問題点] 上述の従来の情報圧縮法は、いずれも画面全体を一様な
アルゴリズムに従って処理している点が共通している。
[Problems to be Solved by the Invention] The conventional information compression methods described above all have in common that the entire screen is processed according to a uniform algorithm.

さらに、ベクトル量子化について言えば、少なくとも量
子化の初期段階において、画面の分割方法が一様である
と言える。しかし、テレビ電話、テレビ会議など各種画
像サービスにおいて、当該画像が利用者にとって意味が
ある場合には、視線は一部分に注がれることが日常の経
験かられかる。すなわち、人は画面全体を一度に知覚す
るのではなく、関心のある部分を走査しながら画像を理
解しようとしているのである。この傾向は、関心の度合
が高いほど、また、画面が大きくなるほど強くなる。
Furthermore, regarding vector quantization, it can be said that the method of dividing the screen is uniform at least in the initial stage of quantization. However, in various image services such as video calls and video conferences, it is known from daily experience that if the image is meaningful to the user, the user's gaze will be focused on one part of the image. In other words, people do not perceive the entire screen at once, but try to understand the image by scanning the parts of interest. This tendency becomes stronger as the degree of interest increases and as the screen becomes larger.

人間の視覚特性がこのようであるにもかからず、前述の
従来の方法は画面全体を一様なアルゴリズムに従って符
号化処理するため、本来必要としない部分まで多くの情
報量で符号化することになり、無駄が多いという欠点が
ある。また、リアルタイムで伝送できる情報量が制限さ
れている場合には、全体を一様なアルゴリズムで伝送す
ることにより、符号化が粗くなり、注視点近傍の情報量
を十分得ることができず、画像品質が悪くなるなどの欠
点があった。
Despite these human visual characteristics, the conventional method described above encodes the entire screen according to a uniform algorithm, so even parts that are not originally needed are encoded with a large amount of information. The disadvantage is that there is a lot of waste. Furthermore, if the amount of information that can be transmitted in real time is limited, transmitting the entire image using a uniform algorithm will result in coarse encoding, making it impossible to obtain a sufficient amount of information near the gaze point, and There were drawbacks such as poor quality.

また、知能画像通信方式について言えば、各画面の全視
覚対象について、−様に特徴を抽出して符号化する場合
、処理時間が長くなる欠点がある。
In addition, regarding the intelligent image communication system, there is a drawback that processing time is increased when features are extracted and encoded in a manner similar to - for all visual objects on each screen.

また、リアルタイムで実行するためには処理装置が大き
くなるという欠点もあった。
Another disadvantage is that the processing device becomes large in order to execute in real time.

それゆえに、この発明の主たる目的は、人間の視覚特性
に着目し、画面全体を一様にアルゴリズムで情報圧縮す
るのではなく、受信側からフィードバックされた視線情
報をもとにして、受信者の認知にとって重要な視線の中
心部分の画像情報と、細部の認知にかかわりの少ない注
視点周辺の画像情報との間に伝送情報量の点で重みづけ
することにより、大幅な画像情報の圧縮さらには画像情
報の経済化を図ることができ、しかも品質の高いと感す
る画像通信を実現し得る視線検出を利用した画像通信装
置を提供することである。
Therefore, the main purpose of this invention is to focus on human visual characteristics, and instead of uniformly compressing information on the entire screen using an algorithm, the main purpose of this invention is to compress the information of the receiver based on the gaze information fed back from the receiver. By weighting the amount of transmitted information between the image information in the center of the line of sight, which is important for recognition, and the image information around the gaze point, which is less relevant to the recognition of details, it is possible to significantly compress image information. It is an object of the present invention to provide an image communication device using line of sight detection that can make image information economical and realize image communication with high quality.

[問題点を解決するための手段] この発明は画像受信部と画像送信部とからなり、受信者
の視線検出を利用した画像通信装置であって、画像受信
部は受信信号から画像を再生する画像復元手段と、受信
者が再生された画像をモニタするための画像表示手段と
、画像表示手段の表示画面上を動く受信者の視線の動き
を検出するための視線検出手段と、視線検出手段により
得られた視線情報を画像送信部に送信するための視線情
報送信手段とから構成される。
[Means for Solving the Problems] The present invention is an image communication device that includes an image receiving section and an image transmitting section and uses detection of the recipient's line of sight, and the image receiving section reproduces an image from a received signal. An image restoration means, an image display means for the receiver to monitor the reproduced image, a line of sight detection means for detecting the movement of the receiver's line of sight moving on the display screen of the image display means, and a line of sight detection means. and a line-of-sight information transmitting means for transmitting the line-of-sight information obtained by the above to the image transmitting section.

一方、画像送信部は、視線情報送信手段から送信された
視線位置情報に基づいて原画像の情報量に重みづけして
送信画像情報を抽出する送信画像情報抽出手段と、抽出
された画像情報を受信部に送信するための送信手段とに
よって構成される。
On the other hand, the image transmitting unit includes a transmission image information extraction unit that extracts transmission image information by weighting the information amount of the original image based on the gaze position information transmitted from the gaze information transmission unit; and a transmitting means for transmitting to the receiving section.

ここで、送信画像情報を抽出する手段の一例として、原
画像を符号化する部分と、受信者の注視点からの距離を
少なくとも1つのパラメータとして符号化に重みづけす
る部分とからなる例がある。
Here, as an example of a means for extracting transmitted image information, there is an example that includes a part that encodes the original image and a part that weights the encoding by using at least one parameter the distance from the receiver's gaze point. .

この場合、符号化の例としては、ベクトル量子化があり
、当該符号化のためのブロックサイズ選択に際して、注
視点からの距離を少なくとも1つの重みづけパラメータ
とする例がある。また、他のパラメータの例としては、
受信者の視力特性があり、これは注視塵を検出すること
により補正できる。送信画像情報抽出手段の他の例とし
ては、原画像から画像の特徴を認識する部分と、視線情
報に基づいて特徴認識走査に重みづけをする部分とから
なる例がある。この場合、受信側の画像復元手段は予め
蓄積されている対象画像に関する画像特徴データベース
と、送信部から伝送された特徴認識情報から対象画像の
特徴を理解して画像を復元する例がある。
In this case, an example of encoding is vector quantization, and there is an example in which the distance from the point of interest is used as at least one weighting parameter when selecting a block size for the encoding. Also, examples of other parameters are:
There are receiver visual acuity characteristics that can be corrected by detecting gazed dust. Another example of the transmitted image information extraction means is an example that includes a part that recognizes image features from the original image and a part that weights feature recognition scanning based on line-of-sight information. In this case, there is an example in which the image restoration means on the receiving side restores the image by understanding the characteristics of the target image from a pre-stored image feature database regarding the target image and the feature recognition information transmitted from the transmitter.

[作用] ゛この発明に係る視線検出を利用した画像通信装置は、
受信信号から画像を再生して画像表示手段に表示し、画
像表示手段をモニタしている受信者の視線の動きを検出
して、その視線情報を画像送信部に送信し、画像送信部
ではその視線位置情報に基づいて原画像の情報量に重み
づけして送信画像情報を抽出し、抽出された画像情報を
受信側に送信することにより、受信者の認知にとって重
要な視線の中心部分の画像情報と、細部の認知にかかわ
りの少ない注視点周辺の画像情報との間に伝送情報量の
点で重みづけすることにより、大幅な画像情報の圧縮を
図ることができるので、画像情報の経済化を図ることが
でき、伝送情報量が一定の場合には品質の高いと感する
画像通信を実現できる。
[Function] ゛The image communication device using line of sight detection according to the present invention has the following features:
An image is reproduced from the received signal and displayed on the image display means, the movement of the line of sight of the recipient who is monitoring the image display means is detected, and the line of sight information is transmitted to the image transmitting section. By weighting the amount of information in the original image based on the gaze position information and extracting the transmitted image information, and transmitting the extracted image information to the receiving side, an image of the central part of the gaze that is important for the recipient's recognition is created. By weighting the amount of transmitted information between information and image information around the gaze point that is less relevant to the recognition of details, it is possible to significantly compress image information, making image information more economical. When the amount of information to be transmitted is constant, it is possible to realize image communication that feels high quality.

[発明の実施例コ 第2図および第3図はこの発明の詳細な説明するための
図であって、特に、第2図は視覚に対する視力特性を示
し、第3図は表示装置における標準的な観察条件を示す
図である。
[Embodiment of the Invention] Figures 2 and 3 are diagrams for explaining the invention in detail. In particular, Figure 2 shows the visual acuity characteristics, and Figure 3 shows the standard characteristics of the display device. FIG. 2 is a diagram showing observation conditions.

まず、第2図および第3図を参照して、この発明の原理
について説明する。人が外界の情報を入手する場合、8
割以上は視覚によるものと言われている。一方、視力は
第2図に示すように、網膜において一様ではなく、視力
の高い部分は中心窩(視覚にして約1°)と呼ばれるご
く一部であり、視力0.3以上の部分は網膜全体の0.
5%程度であり、残りの大部分は視力0.1以下である
First, the principle of this invention will be explained with reference to FIGS. 2 and 3. When a person obtains information about the outside world, 8
It is said that more than half of this is due to visual perception. On the other hand, as shown in Figure 2, visual acuity is not uniform on the retina; the area with high visual acuity is a small part called the fovea (approximately 1° in visual terms), and the area with visual acuity of 0.3 or higher is 0 of the entire retina.
This accounts for about 5%, and the majority of the rest have visual acuity of 0.1 or less.

ここで、視力の比較的高い視覚数度の範囲を中心部と呼
び、視力が低下するその周辺を周辺視と呼ぶことにする
Here, the range of several degrees of visual acuity where visual acuity is relatively high will be referred to as the central area, and the periphery where visual acuity is reduced will be referred to as peripheral vision.

また、表示装置の視野角は、現行のテレビジョンやハイ
ビジョンを例にとると、標準的には第3図に示すようで
あり、他の表示装置でも10°以上のものが多い。また
、臨場感は画面の大きさに比例するため、将来的には視
覚はさらに大きくなると思われる。以上のことから、人
は表示画面の全範囲を高い視力で一度に知覚することが
できないことがわかる。したがって、人は画面内に興味
ある対象を抽出し、これに視線を合わせ、興味対象が移
るときには視線を動かすことにより情報を得ている。
Further, the standard viewing angle of a display device is as shown in FIG. 3, taking current televisions and high-definition televisions as examples, and many other display devices have viewing angles of 10° or more. Furthermore, since the sense of presence is proportional to the size of the screen, it is likely that visual perception will become even larger in the future. From the above, it can be seen that humans cannot perceive the entire range of the display screen at once with high visual acuity. Therefore, people obtain information by extracting an interesting object on the screen, fixing their line of sight on it, and moving their line of sight when the object of interest changes.

そこで、この眼球運動をリアルタイムで計測し、この情
報を送信側にフィードバックし、送信側では人が注目し
ている部分の情報については必要な程度忠実に伝送し、
他の部分の情報はビットレイトを落として伝送すること
により、伝送情報を圧縮することが考えられる。この原
理に基づいて、以下にこの発明の実施例について説明す
る。
Therefore, this eye movement is measured in real time, this information is fed back to the transmitting side, and the transmitting side transmits the information on the part that the person is paying attention to with as much fidelity as necessary.
It is conceivable to compress the transmitted information by transmitting other parts of the information at a lower bit rate. Based on this principle, embodiments of the present invention will be described below.

第1図はこの発明の一実施例の概略ブロック図である。FIG. 1 is a schematic block diagram of an embodiment of the present invention.

まず、第1図を参照して、この発明の一実施例の構成に
ついて説明する。原画像の抽出部1は前述の第12図に
示した従来例と同様にして、カメラ3により人物などの
視覚対象2の画像を抽出するものである。なお、カメラ
3に関連してカメラワーク制御手段21が設けられてい
て、このカメラワーク制御手段21によってカメラ3の
向く方向や倍率や焦点などが制御される。カメラ3の出
力である画像情報は画像符号化手段14に与えられて原
画像が符号化される。符号化された原画像情報は送信手
段15によって受信側に送信される。
First, the configuration of an embodiment of the present invention will be described with reference to FIG. The original image extraction unit 1 extracts an image of a visual object 2 such as a person using a camera 3 in the same manner as in the conventional example shown in FIG. 12 described above. A camera work control means 21 is provided in connection with the camera 3, and the camera work control means 21 controls the facing direction, magnification, focus, etc. of the camera 3. The image information output from the camera 3 is given to the image encoding means 14 and the original image is encoded. The encoded original image information is transmitted to the receiving side by the transmitting means 15.

受信部に含まれる受信手段16は送信された画像情報を
受信し、復号手段17は受信した画像情報の符号を表示
信号に復元する。表示手段8は復元された表示信号を表
示する。受信者9は表示手段8によって表示された画像
をモニタする。受信者9の視線の動きを検出するために
視線検出カメラ18が設けられていて、注視点検出・送
信手段19は視線検知カメラ18によって得られた画像
から視線情報としての注視点を検出して送信部に送信す
る。
A receiving means 16 included in the receiving section receives the transmitted image information, and a decoding means 17 restores the code of the received image information to a display signal. The display means 8 displays the restored display signal. The recipient 9 monitors the image displayed by the display means 8. A line-of-sight detection camera 18 is provided to detect the movement of the line-of-sight of the recipient 9, and the gaze point detection/transmission means 19 detects the gaze point as gaze information from the image obtained by the gaze detection camera 18. Send to the transmitter.

なお、送信部には、注視点重みづけ処理手段20が設け
られている。この注視点重みづけ処理手段20は受信部
からフィードバックされた注視点情報に基づいて、注視
点からの距離を少なくとも1つのパラメータとして、画
像符号化手段14による画像の復号化のアルゴリズムを
制御するものである。
Note that the transmitter is provided with a gaze point weighting processing means 20. The point-of-gaze weighting processing means 20 controls the image decoding algorithm by the image encoding means 14, using the distance from the point of interest as at least one parameter, based on the point-of-gaze information fed back from the receiving section. It is.

第4図は注視点に重みづけして画像を伝送する概念を説
明するための図である。第4図(a)において、第1図
に示したカメラ3によってとらえられた原画像22には
視覚対象2が含まれている。
FIG. 4 is a diagram for explaining the concept of transmitting an image by weighting the gaze point. In FIG. 4(a), the visual object 2 is included in the original image 22 captured by the camera 3 shown in FIG.

この原画像22は注視点重みづけ処理されて送信画像2
3となる。第4図(b)において、24は受信者の注視
点であり、25は中心視に相当する範囲で必要な程度忠
実に伝送される。さらに、26.27は周辺視に相当す
る範囲で画像情報はそれぞれ2つの段階に間引かれて伝
送される。
This original image 22 is subjected to gaze point weighting processing and transmitted image 2
It becomes 3. In FIG. 4(b), 24 is the receiver's gaze point, and 25 is the receiver's gaze point, and the signal is transmitted with the necessary degree of fidelity within the range corresponding to central vision. Furthermore, in the range corresponding to peripheral vision, image information is thinned out into two stages and transmitted.

第5図はこの発明をベクトル量子化に適用したときの符
号化方法を説明するための図である。次に、第1図、第
4図および第5図を参照して、この発明の一実施例にお
ける画像符号化について詳細に説明する。原画像30は
第1図に示した画像符号化手段14に入力され、第5図
に示すように7X7のブロックxkに分割される。ここ
で、注視点31が位置するブロックで顔の左エツジ部を
XI6とし、XI6と顔の中心を挾んで対象的な位置に
あるブロックで顔の右エツジ部をX20とする。ここで
、X、6とX20は第5図においては同等な情報量であ
るものとする。また、各ブロックは4X4の画素からな
るものとする。
FIG. 5 is a diagram for explaining an encoding method when the present invention is applied to vector quantization. Next, image encoding in one embodiment of the present invention will be described in detail with reference to FIGS. 1, 4, and 5. The original image 30 is input to the image encoding means 14 shown in FIG. 1, and is divided into 7×7 blocks xk as shown in FIG. Here, the left edge of the face in the block where the gaze point 31 is located is designated as XI6, and the right edge of the face in the block located at a symmetrical position between XI6 and the center of the face is designated as X20. Here, it is assumed that X, 6 and X20 have the same amount of information in FIG. It is also assumed that each block consists of 4×4 pixels.

各ブロックは4画素×4画素のコードブック32の中の
N個のブロックと順次比較され、それぞれ歪量が計算さ
れる。ここで、歪量が最も小さいブロックをiとすると
、従来の例ではこのiが選択された。これに対して、こ
の発明の一実施例では、この歪ii ’d (はさらに
しきい値A(r、h)と比較され、d、 <A (r、
  h)の条件を満足する場合、xkはこのインデック
スiに置換えられる。ここで、しきい値A (r、 h
)は、注視点31からの距Mrと注目度などの視覚特性
りをパラメータとする変数である。ここでは簡単のため
に、rが中心視向であれば、A (r+  )1) −
a +  (定数)とし、周辺視の領域であれば、A 
(r、  h)−a2とする。X20のブロックでは、
dl<a2の条件を満足するものと仮定し、第5図に示
すようにiが選択される。
Each block is sequentially compared with N blocks in the 4-pixel×4-pixel codebook 32, and the amount of distortion is calculated for each block. Here, assuming that the block with the smallest amount of distortion is i, this i was selected in the conventional example. In contrast, in one embodiment of the invention, this distortion ii'd (is further compared with a threshold value A(r,h), such that d, <A(r,
If the condition h) is satisfied, xk is replaced with this index i. Here, the threshold value A (r, h
) is a variable whose parameters are the distance Mr from the gaze point 31 and the visual characteristics such as the degree of attention. For simplicity, if r is the central view, then A (r+ )1) −
Let a + (constant), and if it is a peripheral vision area, then A
Let it be (r, h)-a2. In the block of X20,
Assuming that the condition dl<a2 is satisfied, i is selected as shown in FIG.

一方、xisのブロックでは、dl <a、を満たさな
い。すなわち、第5図に示すように、d1≧A D、h
)と仮定する。この場合、4画素×4画素のブロックX
ll+はさらに小さな4つの2画素×2画素のブロック
に分割され、2画素×2画素のコードブック33と比較
され、それぞれ最も近いブロックj、に、(1,mが選
択され、これが出力される。符号化の際には、各ブロッ
クX。
On the other hand, the xis block does not satisfy dl <a. That is, as shown in FIG. 5, d1≧A D, h
). In this case, a block of 4 pixels x 4 pixels
ll+ is further divided into four smaller blocks of 2 pixels x 2 pixels, which are compared with the 2 pixels x 2 pixels codebook 33, and the nearest block j, (1, m) is selected and output. .When encoding, each block X.

について、4画素×4画素のブロックであれば、コード
0を立て、その後に4X4コードブツク32の中のイン
デックスがコード化される。
If the block is 4 pixels x 4 pixels, code 0 is set, and then the index in the 4 x 4 code book 32 is coded.

また、4つの2画素×2画素のブロックであれば、コー
ド“1”を立て、その後に2×2コードブツク33の中
のインデックスJ、に、fl+ mがコード化される。
Further, if it is a block of four 2 pixels x 2 pixels, the code "1" is set, and then fl+m is coded into the index J in the 2 x 2 code book 33.

このように、原画像ではX1liとX20 とは同じ情
報量ブロックであるが、この実施例による重みづけを行
なう符号化によって、X20 はX1liよりも少なく
できる。他のブロックについても同様である。このよう
にして、視力の低い周辺視の部分では情報を削減できる
In this way, in the original image, X1li and X20 are the same information block, but by weighting encoding according to this embodiment, X20 can be made smaller than X1li. The same applies to other blocks. In this way, information can be reduced in the peripheral vision area where visual acuity is low.

ここで、情報圧縮量について説明する。動画像観察時の
眼球随従運動の速度は、5°/S以下が累積70%を占
める。この速度以内において、人は注視可能とみなせる
ため、よく見えている範囲(中心視)を5°程度と仮定
し、これ以外を周辺視と仮定する。次に、認識対象を人
物とし、認識限界画素数を心理実験により求めると、5
12X480画素の原画像に対して、約1720以下に
画素を削減すると、人物の大きな表情が判別できなくな
り、115〜1/10で細かい表情が判別できなくなる
ことが知られている(鎧沢、宮田二人物像の画素数と識
別可能情報の関係、テレビジョン学会技術報告ID87
−5参照)。そこで、視点から5°以上離れた部分の画
像について情報量を115に削減できると仮定すると、
情報圧縮率は現行テレビジョンで1/3程度となり、ハ
イビジョンで1/4程度となる。
Here, the amount of information compression will be explained. The cumulative speed of eyeball follow-up movement during moving image observation is 5°/s or less, accounting for 70% of the time. Within this speed, it can be assumed that a person can gaze, so it is assumed that the range of good visibility (central vision) is about 5 degrees, and the rest of the range is assumed to be peripheral vision. Next, when the recognition target is a person and the recognition limit pixel number is determined through a psychological experiment, it is 5.
It is known that if the pixels of an original image of 12 x 480 pixels are reduced to approximately 1720 or less, large facial expressions of a person cannot be distinguished, and fine facial expressions of 115 to 1/10 become indiscernible (Yorizawa, Miyata). Relationship between the number of pixels of two-person images and identifiable information, Television Society Technical Report ID87
-5)). Therefore, assuming that the amount of information can be reduced to 115 for the part of the image that is 5 degrees or more away from the viewpoint,
The information compression rate is about 1/3 for current television, and about 1/4 for high-definition.

以上、A (r、  h)が中心視と周辺視によりa、
と82の2段階に変化する場合について述べたが、人間
の視力はrの逆数にほぼ比例し、連続的に変化する。ま
た、中心点が興味ある対象であって、ここに意識が集中
している場合には、rに対する視力の変化はさらに急峻
になる。また、緊張しているときやリラックスしている
ときなどによっても視力は変化する。このような人の意
識にかかわるファクタをhで表わす。このとき、A(r
Above, A (r, h) is a, due to central vision and peripheral vision.
We have described the case where the visual acuity changes in two stages (1 and 82), but human visual acuity is approximately proportional to the reciprocal of r and changes continuously. Furthermore, if the central point is an interesting object and the attention is concentrated there, the change in visual acuity relative to r becomes even more steep. Visual acuity also changes depending on when you are nervous or relaxed. A factor related to such a person's consciousness is represented by h. At this time, A(r
.

h)の値を以上を踏まえて変化させてもよい。なお、注
目度については、目の瞳孔面積の測定や視線のサツケー
ドの頻度などから推定できる。すなわち、注目度が高く
なると瞳孔が拡がり、またサツケードは少なくなる傾向
がある。これらはカメラ3でとらえることができる。
The value of h) may be changed based on the above. Note that the degree of attention can be estimated from measurements of the pupil area of the eyes, the frequency of gaze saccades, and the like. That is, as the degree of attention increases, pupils tend to dilate and saccades tend to decrease. These can be captured by camera 3.

ところで、利用者の視線は意志を反映していると考えら
れる。そこで、さらに高度な制御として、受信側からフ
ィードバックされた注視点情報から第1図に示した注視
している視覚対象100を抽出し、これ以外の部分、た
とえば背景などをあまり重要でない情報とみなし、この
情報量を落とすように制御してもネい。この場合、利用
者は画面の中の注視対象を鮮明に認識することができる
By the way, the user's line of sight is considered to reflect their intentions. Therefore, as a more advanced control, the gazing visual object 100 shown in FIG. 1 is extracted from the gaze point information fed back from the receiving side, and other parts, such as the background, are regarded as less important information. , it is not possible to control the amount of information to be reduced. In this case, the user can clearly recognize the object of attention on the screen.

以上、視線情報として注視点位置をフィードバックする
例について述べたが、この他に、利用者が画面を見てい
るか否かの情報をフィードバックし、見ていない場合に
は画像の伝送を中断するなどの制御を行なうようにして
もよい。
Above, we have described an example of feeding back the gaze point position as line-of-sight information, but in addition to this, there are other ways to feed back information on whether the user is looking at the screen, and interrupt image transmission if the user is not looking at the screen. It may also be possible to perform control of the following.

次に、第1図において、注視点情報のカメラワーク制御
手段21へのフィードバックについて説明する。視線情
報から視覚対象が推定された場合、この視覚対象が表示
画面の中央にくるようにカメラワーク制御手段21によ
ってカメラ3を回転させ、さらには像を拡大させるなど
のように原画像を制御してもよい。なお、視覚対象の推
定は、受信側で行ない、これを視線情報として送信側に
フィードバックしてもよい。
Next, referring to FIG. 1, the feedback of the gaze point information to the camera work control means 21 will be explained. When a visual target is estimated from the line-of-sight information, the camera work control means 21 rotates the camera 3 so that the visual target is centered on the display screen, and further controls the original image by enlarging the image. You can. Note that the visual target may be estimated on the receiving side and fed back to the transmitting side as line-of-sight information.

第6図はこの発明の他の実施例における符号化方法を説
明するための図である。この第6図に示した実施例は、
A(r、h)が3段階に変化し、ブロックサイズを4段
階とした場合である。A(r、 h)は第6図に示すa
l r 82 r  aaとする。注視点45の近傍の
ブロックx4を例にとると、原画像は8画素X8画素で
あるため、8×8コードブツク46と比較される。d、
<A (r。
FIG. 6 is a diagram for explaining an encoding method in another embodiment of the invention. The embodiment shown in FIG.
This is a case where A(r,h) changes in three stages and the block size is set in four stages. A(r, h) is a shown in Figure 6.
Let l r 82 r aa. Taking block x4 in the vicinity of the gaze point 45 as an example, since the original image is 8 pixels by 8 pixels, it is compared with the 8×8 codebook 46. d,
<A (r.

h)であれば、8画素X8画素のブロックサイズを表わ
すコード“00“とともにiがコード化される。d1≧
A(r、h)であれば、4個の4×4ブロツク■に分割
され、それぞれ4×4コードブツク47と比較される。
h), i is coded together with the code "00" representing the block size of 8 pixels x 8 pixels. d1≧
If A(r,h), it is divided into four 4×4 blocks (2), and each is compared with the 4×4 codebook 47.

ここで、dff、 <A (r、  h)であれば、ブ
ロック■を表わすコード“011とともにmが符号化さ
れ、dlTl≧A(r、h)であれば、該当なしZを符
号化してブロック■に移る。同様にして、16個の2X
2ブロツク■(コード“10”)に分割され、それぞれ
は2X2コードブツク48と比較される。ここで、do
<A (r、h)であれば、nが符号化され、dn≧A
(r、h)であれば、該当なしZを符号化して、画素■
(コード“11“)を符号化する。
Here, if dff, < A (r, h), m is encoded with the code “011 representing block Move to ■.In the same way, 16 2X
It is divided into two blocks (code "10"), each of which is compared with the 2x2 code book 48. Here, do
If <A (r, h), then n is encoded and dn≧A
If (r, h), encode the not applicable Z and convert the pixel ■
(code “11”).

第7図は原画像を初期の段階から均等に分割することな
く、中心視の部分は小さなブロックに分割し、周辺視の
部分は大きなブロックで分割してからコードブックとの
比較を行なう実施例を説明するための図である。この第
7図に示した実施例においては、前述の第5図に示した
実施例と同様にして、ブロックサイズは2段階である。
Figure 7 shows an example in which the original image is not evenly divided from the initial stage, but the central vision part is divided into small blocks, the peripheral vision part is divided into large blocks, and then the comparison with the codebook is performed. FIG. In the embodiment shown in FIG. 7, the block size is in two stages, similar to the embodiment shown in FIG. 5 described above.

そして、全体は16個の大ブロックに分割されるが、こ
のうち中心視27の領域にかかるブロックについては、
初期の段階でさらに小さな小ブロックに分割される。す
なわち、パターンマツチングの初期において、注視点か
らの距離をパラメータとしてブロックサイズに重みづけ
する。符号化の処理は第5図に示した実施例と同様であ
る。
The whole is divided into 16 large blocks, among which the blocks covering the area of central vision 27 are as follows:
At an early stage, it is further divided into smaller blocks. That is, at the beginning of pattern matching, the block size is weighted using the distance from the point of interest as a parameter. The encoding process is similar to the embodiment shown in FIG.

また、この発明は動画伝送への適用のみでなく、高精細
な静止画を少ないビットレートで伝送する際にも適用で
きる。
Furthermore, the present invention can be applied not only to video transmission, but also to transmission of high-definition still images at a low bit rate.

第8図はこの発明を静止画通信に用いた例を示す図であ
る。第8図において、伝送の対象となる高精細画像55
には最初の注視点■が含まれている。対象画像の伝送開
始時においては、量子化は前述の動画伝送の場合と同様
にして、注視点近傍を平均すると伝送される情報密度が
高く、すなわちブロックサイズが小さい領域が多く、ま
た注視点周辺部は平均すると情報密度が低く、すなわち
ブロックサイズが大きい領域が多くなっている。
FIG. 8 is a diagram showing an example in which the present invention is applied to still image communication. In FIG. 8, a high-definition image 55 to be transmitted
contains the first fixation point■. At the beginning of transmission of the target image, quantization is performed in the same way as in the case of video transmission described above, and the information density to be transmitted is high when averaged around the point of interest, that is, there are many areas with small block sizes, and the area around the point of interest is On average, the area has a low information density, that is, there are many areas with large block sizes.

ここで、注視点が■、■のように移動するのに伴って、
それまで情報量の少なかった領域は、情報量の大きい画
像に置換えられていく。
Here, as the gaze point moves like ■, ■,
Areas that previously had a small amount of information are replaced with images that have a large amount of information.

この際、情報量に変化のない領域は伝送しなくてもよい
。このように制御することにより、利用者は受信の初期
段階から、対象画像が高精細であると知覚しながらこの
画像を受信することができる。
At this time, areas where the amount of information does not change do not need to be transmitted. By controlling in this manner, the user can receive the target image while perceiving it as having high definition from the initial stage of reception.

以上でベクトル量子化について説明したが、この発明は
他の圧縮手段、たとえば離散的コサイン変換、特徴抽出
による知的画像通信方式(村上。
Although vector quantization has been explained above, this invention also applies to other compression methods, such as discrete cosine transformation, intelligent image communication method using feature extraction (Murakami et al.

市原:知能画像通信方式の一構成法、?!!子情報通信
学会技術報告IE87−14参照)などにも適用できる
Ichihara: A method for constructing an intelligent image communication system? ! ! (Refer to Technical Report IE87-14 of the Institute of Information and Communication Engineers).

第9図はこの発明の知能画像通信方式に適用した実施例
を示す図である。この実施例は、概念的には、表示画像
に対する人の注視点を知ることにより、対象画像の特徴
認識について、注視されている部分は細かく行ない、そ
れ以外の部分は粗く、またはコンピュータアニメーショ
ン技術で代用することなどにより、送信する情報量を大
幅に削減しようとするものである。
FIG. 9 is a diagram showing an embodiment applied to the intelligent image communication system of the present invention. Conceptually, this embodiment recognizes the features of the target image by knowing the person's gaze point with respect to the displayed image, and recognizes the features of the target image finely in the part that is being watched, and coarsely in other parts, or by using computer animation technology. The aim is to significantly reduce the amount of information to be sent by using substitutions.

なお、第9図は、以下の点を除いて前述の第1図に示し
た実施例と同様にして構成される。すなわち、第1図に
示した送信側の画像符号化手段14に代えて画像認識符
号化手段61が設けられるとともに、画像データベース
62が設けられ、受信側の復号手段17に代えて画像生
成手段63と画像データベース64が設けられる。画像
認識符号化手段61は原画像の特徴を認識して符号化す
るものである。送信側および受信側の画像データベース
62および64はそれぞれ認識に必要な各画像の特徴を
有している。画像生成手段63は受信手段16によって
受信された認識情報に基づいて、画像データベース64
を参照しながら画像を生成することにより、原画像を復
元するものである。ここで、注視点重み付は処理手段2
0は、原画像の特徴を認識して符号化する際、画像の区
分け(ブロック)の数および認識のための命令要素(コ
マンド)の数などの認識のための操作を制御する。
Note that FIG. 9 is constructed in the same manner as the embodiment shown in FIG. 1 described above except for the following points. That is, an image recognition encoding means 61 is provided in place of the image encoding means 14 on the transmitting side shown in FIG. 1, an image database 62 is provided, and an image generating means 63 is provided in place of the decoding means 17 on the receiving side. and an image database 64 are provided. The image recognition and encoding means 61 recognizes and encodes the characteristics of the original image. The image databases 62 and 64 on the sending and receiving sides each have the characteristics of each image necessary for recognition. The image generating means 63 generates an image database 64 based on the recognition information received by the receiving means 16.
The original image is restored by generating the image while referring to the image. Here, the gaze point weighting is performed by the processing means 2.
0 controls operations for recognition, such as the number of image divisions (blocks) and the number of instruction elements (commands) for recognition, when recognizing and encoding features of the original image.

次に、第9図に示した実施例の動作について説明する。Next, the operation of the embodiment shown in FIG. 9 will be explained.

送信側および受信側に設けられる画像データベース62
.64には、大きく別けて、■静的画像データベースと
、■動的画像データベースとがある。静的画像データベ
ース■はシステム構成時に用意されるものであって、対
象画像が人物像の場合、標準的な形状が蓄積されたもの
である。
Image database 62 provided on the sending and receiving sides
.. 64 can be roughly divided into two types: (1) static image databases and (2) dynamic image databases. The static image database (2) is prepared at the time of system configuration, and stores standard shapes when the target image is a human image.

具体的には、人物を正面および側面方向がら撮影した画
像を用いて、三次元計測により小平面近似したものであ
る。すなわち、人の顔の方向および基本的な表情などを
人力すると、これに応じた典型的な顔ii!j像が表現
されるようなデータベースとなっている。したがって、
通信時には、対象人物の動きや表情などを認識し、これ
を符号化して伝送すると、受信側ではこのデータベース
を用いて典型顔画像が得られるものである。このデータ
ベース62.64は平面バッチ法と呼ばれ、物体を小平
面(あるいは曲面)で近似表現する方法である。
Specifically, small plane approximation is performed by three-dimensional measurement using images taken of a person from the front and side directions. In other words, if you manually determine the direction and basic expressions of a person's face, a typical face ii! It is a database in which the J image is expressed. therefore,
During communication, the target person's movements and facial expressions are recognized, encoded and transmitted, and the receiving side uses this database to obtain a typical facial image. This database 62, 64 is called a plane batch method, and is a method of approximately representing an object using a small plane (or curved surface).

動的画像データベース■は、実際の通信時に顔画像の各
小平面の近傍を自然に表現するためのデータベースであ
る。すなわち、静的画像データベース■で得られた画像
はモデルであり、当然として、原画像(通信時の画(!
a)とは異なるため、小平面の位置および法線方向など
を原画に近くなるように修正するためのものである。こ
のデータベースには、画像表現法と呼ばれ、物体をその
表面画素単位で表現する方法が用いられる。具体的な方
法としては、表面が対象物体の基点(たとえば中心)か
らどの位置にあり、面の法線はどの方向を向いているか
などが蓄積される。
The dynamic image database ■ is a database for naturally expressing the vicinity of each small plane of a face image during actual communication. In other words, the image obtained from the static image database ■ is a model, and naturally the original image (image at the time of communication (!
Since this is different from a), the purpose is to correct the position and normal direction of the small plane so that it becomes closer to the original image. This database uses a method called an image representation method, in which objects are represented in units of surface pixels. Specifically, information such as the position of the surface from the base point (for example, the center) of the target object and the direction in which the normal line of the surface faces is stored.

物体の記述はコマンド体系としてグループ化され、たと
えば頭部、目、鼻、耳、頬、皮膚などが相互関係ととも
に階層化され記述される。したがって、通信にあたって
、送信側では、小平面に位置する領域の各部分について
の表面の位置および法線方向を特徴認識情報として抽出
し、コマンドにより符号化して送信する。受信側では、
平面パッチ法で特徴認識された情報と画像表現法で認識
された情報を合せて画像を再生する。
Object descriptions are grouped as a command system, such as the head, eyes, nose, ears, cheeks, skin, etc., and are hierarchically described along with their interrelationships. Therefore, in communication, the transmitting side extracts the surface position and normal direction of each part of the area located on the small plane as feature recognition information, encodes it with a command, and transmits it. On the receiving side,
An image is reconstructed by combining the information recognized using the plane patch method and the information recognized using the image representation method.

以上の説明から明らかように、物体の表現は平面パッチ
法および画素表現法のいずれにしろ任意に細かくするこ
とができ、すなわち、階層化を複雑にすることができ、
これにより原画像自然再生度が上がる。しかし、ベクト
ル量子化の実施例と同様にして、画面全体にわたって一
様に視力特性以上に細分化する必要はないため、この実
施例では、送信にあたり受信側からフィードバックされ
た視線情報をコマンド選択に反映させ、必要十分な小画
面分割および表面表示を行なうこととする。
As is clear from the above explanation, the representation of objects can be made arbitrarily fine in both the plane patch method and the pixel representation method, that is, the layering can be complicated,
This increases the degree of natural reproduction of the original image. However, as in the vector quantization embodiment, it is not necessary to uniformly segment the entire screen to a level greater than visual acuity characteristics, so in this embodiment, the line of sight information fed back from the receiving side is used for command selection during transmission. We will reflect this and perform necessary and sufficient small screen division and surface display.

なお、この発明では、視線は非接触で測定されることが
望ましい。そこで、顔面に眼鏡などの機器の装着を必要
としない非接触な視線検出法の例について、第10図お
よび第11図を用いて簡単に説明する。第11図におい
て、眼球は2つの球71と72を第10図に示すように
中心をずらして重ねたモデルで表わすことができる。球
71゜72の曲率は、それぞれガラス体、角膜の曲率に
相当する。頭部を固定して目を回転すると、このモデル
では球71の中心に球72が太い実線円のように回転す
ることになる。そこで、この例では、顔の中の不動特徴
点位置を計測し、球72の中心座標を推定し、また瞳孔
の中心位置を測定し、これらの位置ベクトルを合わせる
ことにより、視線の方向を検出する。
Note that in the present invention, it is desirable that the line of sight be measured without contact. Therefore, an example of a non-contact line of sight detection method that does not require wearing a device such as glasses on the face will be briefly explained using FIGS. 10 and 11. In FIG. 11, the eyeball can be represented by a model in which two balls 71 and 72 are overlapped with their centers shifted as shown in FIG. The curvatures of the spheres 71 and 72 correspond to the curvatures of the vitreous body and the cornea, respectively. When the head is fixed and the eyes are rotated, in this model, the sphere 72 rotates at the center of the sphere 71 like a thick solid circle. Therefore, in this example, the direction of the line of sight is detected by measuring the position of a fixed feature point in the face, estimating the center coordinates of the sphere 72, measuring the center position of the pupil, and combining these position vectors. do.

不動特徴点の抽出方法の一例を第11図に示す。FIG. 11 shows an example of a method for extracting immobile feature points.

第11図で示した両眼の目尻の位置は、眼球の動作に対
して動きが少ない。そこで、左右の目尻の位置を計測し
、この中間の位置を不動特徴点として近似することがで
きる。不動特徴点および瞳孔中心の位置計測には3つの
カメラを用いた3点測量法などが適用できる。第10図
において、視線の方向はベクトルA、B、Cの和で表わ
される。
The positions of the outer corners of both eyes shown in FIG. 11 do not move much with respect to the movement of the eyeballs. Therefore, it is possible to measure the positions of the left and right outer corners of the eyes and approximate the intermediate position as a fixed feature point. A three-point survey method using three cameras can be applied to measure the positions of immobile feature points and the center of the pupil. In FIG. 10, the direction of the line of sight is represented by the sum of vectors A, B, and C.

ここで、球71の中心の座標は、このシステムの使用開
始時に、表示画面に決まった目標を提示し、利用者がこ
れを指示することにより求めることができる。すなわち
、キャリブレーションによって求めることができる。
Here, the coordinates of the center of the sphere 71 can be determined by presenting a fixed target on the display screen and instructing the user to do so at the beginning of using this system. That is, it can be determined by calibration.

なお、注視点の検出について、視線検出カメラ18を用
いた例を示したが、他のセンサ、たとえば眼球の定常電
位の測定から眼球の位置を測定するEOG (Elec
tro−Oculogram)法や角膜反射像を位置検
出センサで検出する方法を用いてもよい。
Although an example in which the line of sight detection camera 18 is used to detect the gaze point has been shown, other sensors, such as an EOG (Elec
A method (tro-oculogram) or a method of detecting a corneal reflection image using a position detection sensor may be used.

また、この発明は従来技術で述べた対象の動きの部分だ
けを抽出して伝送する情報圧縮技術と併用してもよいこ
とは勿論である。
Furthermore, it goes without saying that the present invention may be used in combination with the information compression technology described in the prior art, which extracts and transmits only the motion part of the object.

[発明の効果] 以上のように、この発明によれば、受信者の視線情報を
送信部にフィードバックし、これに基づいて、原画像か
ら送信画像情報を抽出するようにしたので、たとえばテ
レビ電話や遠隔ロボット制御などにおいて、相手側(送
信側)に設置したカメラによってとらえた画像を高い品
質で経済的に受信することが可能となる。また、両眼視
差を用いた画像通信にも適用できる。
[Effects of the Invention] As described above, according to the present invention, the receiver's line-of-sight information is fed back to the transmitter, and based on this, transmitted image information is extracted from the original image, so that, for example, videophone calls can be made. This makes it possible to economically receive images captured by a camera installed on the other party's side (sending side) with high quality in applications such as robot control and remote robot control. It can also be applied to image communication using binocular parallax.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明の一実施例の視線情報をフィードバッ
クする画像通信装置の一例を示す概略ブロック図である
。第2図は視覚に対する視力特性を示す図である。第3
図は表示装置の標準的な観察条件を説明するための図で
ある。第4図はこの発明の一実施例の動作を説明するた
めに注視点に重み付けをして伝送された画像の概念を示
す図である。第5図はこの発明の一実施例をベクトル量
子化に適用したときの符号化方法を説明するための図で
ある。第6図および第7図はこの発明の他の実施例にお
ける符号化方法を説明するための図である。第8図はこ
の発明を静止画通信に用いた実施例を説明するための図
である。第9図はこの発明を知能画像通信方式に適用し
た実施例の概略ブロック図である。第10図および第1
1図は非接触型視線検出方式の一例を示す図である。第
12図は従来の蝉像符号化通信装置の概略ブロック図で
ある。第13図はベクトル量子化を用いた従来の画像情
報圧縮方法を説明するための図である。 図において、1は原画像の抽出部、3はカメラ、8は表
示手段、14は画像符号化手段、15は送信手段、16
は受信手段、17は復号手段、18は視線検出カメラ、
19は注視点検出・送信手段、20は注視点重み付は処
理手段、21はカメラワーク制御手段、61は画像認識
符号化手段、62゜64は画像データベース、63は画
像生成手段を示す。 特許出願人 株式会社エイ・ティ・アール通信第2図 第3図 第10図 第11図 べ鳳 = 沁 曇 郭 ○ヂモ
FIG. 1 is a schematic block diagram showing an example of an image communication device that feeds back line-of-sight information according to an embodiment of the present invention. FIG. 2 is a diagram showing visual acuity characteristics with respect to vision. Third
The figure is a diagram for explaining standard viewing conditions of a display device. FIG. 4 is a diagram illustrating the concept of an image transmitted with weighted points of interest in order to explain the operation of an embodiment of the present invention. FIG. 5 is a diagram for explaining an encoding method when one embodiment of the present invention is applied to vector quantization. FIGS. 6 and 7 are diagrams for explaining an encoding method in another embodiment of the invention. FIG. 8 is a diagram for explaining an embodiment in which the present invention is used for still image communication. FIG. 9 is a schematic block diagram of an embodiment in which the present invention is applied to an intelligent image communication system. Figure 10 and 1
FIG. 1 is a diagram showing an example of a non-contact line of sight detection method. FIG. 12 is a schematic block diagram of a conventional cicada image encoding communication device. FIG. 13 is a diagram for explaining a conventional image information compression method using vector quantization. In the figure, 1 is an original image extraction unit, 3 is a camera, 8 is a display means, 14 is an image encoding means, 15 is a transmission means, 16
17 is a receiving means, 17 is a decoding means, 18 is a line of sight detection camera,
Reference numeral 19 denotes a gaze point detection/transmission means, 20 a gaze point weighting processing means, 21 a camera work control means, 61 an image recognition encoding means, 62 and 64 an image database, and 63 an image generation means. Patent applicant A.T.R. Communication Co., Ltd. Figure 2 Figure 3 Figure 10 Figure 11

Claims (6)

【特許請求の範囲】[Claims] (1)画像受信部と画像送信部とからなり、受信者の視
線検出を利用した画像通信装置であって、前記画像受信
部は、受信信号から画像を再生する画像復元手段と、受
信者が再生された画像をモニタするための画像表示手段
と、前記画像表示手段の表示画面上を動く受信者の視線
を動きを検出するための視線検出手段と、前記視線検出
手段により得られた視線情報を前記画像送信部に送信す
るための視線情報送信手段とを含み、前記画像送信部は
、前記送信手段から送信された視線位置情報に基づいて
原画像の情報量に重みづけして送信画像情報を抽出する
送信画像情報抽出手段と、前記送信画像情報抽出手段に
よって抽出された画像情報を前記受信部に送信するため
の送信手段を含むことを特徴とする、視線検出を利用し
た画像通信装置。
(1) An image communication device that includes an image receiving section and an image transmitting section and uses detection of the recipient's line of sight, wherein the image receiving section includes an image restoring means that reproduces an image from a received signal, and an image display means for monitoring a reproduced image; a line-of-sight detection means for detecting movement of the line of sight of a receiver moving on a display screen of the image display means; and line-of-sight information obtained by the line-of-sight detection means. and a line-of-sight information transmitting means for transmitting the line-of-sight information to the image transmitting unit, the image transmitting unit transmitting image information by weighting the information amount of the original image based on the line-of-sight position information transmitted from the transmitting unit. 1. An image communication device using line of sight detection, comprising: a transmission image information extraction means for extracting a transmission image information; and a transmission means for transmitting the image information extracted by the transmission image information extraction means to the reception section.
(2)前記送信画像情報抽出手段は、前記源画像を符号
化する符号化手段と、前記受信者の注視点からの距離を
少なくとも1つのパラメータとして、前記符号化に重み
づけする重みづけ手段とを含むことを特徴とする、特許
請求の範囲第1項記載の視線検出を利用した画像通信装
置。
(2) The transmission image information extraction means includes an encoding means for encoding the source image, and a weighting means for weighting the encoding using a distance from the receiver's gaze point as at least one parameter. An image communication device using line-of-sight detection according to claim 1, characterized in that the device includes:
(3)前記符号化手段はベクトル量子化により前記原画
像を符号化し、当該符号化のためのブロックサイズの選
択に際して、注視点からの距離を少なくとも1つの重み
づけパラメータとすることを特徴とする、特許請求の範
囲第2項記載の視線検出を利用した画像通信装置。
(3) The encoding means encodes the original image by vector quantization, and when selecting a block size for encoding, the distance from the point of interest is used as at least one weighting parameter. , an image communication device using line of sight detection according to claim 2.
(4)前記符号化手段は前記受信者の視力特性を他の重
みづけパラメータとすることを特徴とする、特許請求の
範囲第2項記載の視線検出を利用した画像通信装置。
(4) The image communication device using line of sight detection according to claim 2, wherein the encoding means uses visual acuity characteristics of the receiver as another weighting parameter.
(5)前記符号化手段は、注視度を検出して視力特性を
補正することを特徴とする、特許請求の範囲第4項記載
の視線検出を利用した画像通信装置。
(5) The image communication device using line of sight detection according to claim 4, wherein the encoding means detects the degree of gaze and corrects visual acuity characteristics.
(6)前記送信画像情報抽出手段は、前記原画像から画
像の特徴を認識する手段と、前記視線情報に基づいて、
前記特徴認識操作に重みづけすする手段とを含み、前記
画像復元手段は、予め蓄積されている対象画像に関する
画像特徴データベースと、前記画像送信部から伝送され
た特徴認識情報から対象画像の特徴を理解して画像を復
元する手段とを含むことを特徴とする、特許請求の範囲
第1項記載の視線検出を利用した画像通信装置。
(6) The transmitted image information extraction means includes means for recognizing image characteristics from the original image, and based on the line of sight information,
and means for weighting the feature recognition operation, and the image restoring means extracts the features of the target image from an image feature database related to the target image stored in advance and the feature recognition information transmitted from the image transmitter. An image communication device using line of sight detection according to claim 1, further comprising means for understanding and restoring an image.
JP62301065A 1987-11-28 1987-11-28 Image communication equipment utilizing glance detection Pending JPH01141479A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62301065A JPH01141479A (en) 1987-11-28 1987-11-28 Image communication equipment utilizing glance detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62301065A JPH01141479A (en) 1987-11-28 1987-11-28 Image communication equipment utilizing glance detection

Publications (1)

Publication Number Publication Date
JPH01141479A true JPH01141479A (en) 1989-06-02

Family

ID=17892442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62301065A Pending JPH01141479A (en) 1987-11-28 1987-11-28 Image communication equipment utilizing glance detection

Country Status (1)

Country Link
JP (1) JPH01141479A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01289388A (en) * 1988-05-16 1989-11-21 Nec Corp Moving picture signal encoding/decoding system
JPH02119464A (en) * 1988-10-28 1990-05-07 Nippon Telegr & Teleph Corp <Ntt> Encoding system for picture between two points
WO1997050253A1 (en) * 1996-06-27 1997-12-31 Sharp Kabushiki Kaisha Picture encoder and picture decoder
WO2000022823A1 (en) * 1998-10-09 2000-04-20 Sony Corporation Communication apparatus and method
JP2005027086A (en) * 2003-07-03 2005-01-27 Tadahiro Omi Data reproducing device, reproducing method, data compression apparatus and compression method
JP2018110399A (en) * 2016-12-30 2018-07-12 アクシス アーベー Method, device, and camera
US10855946B2 (en) 2014-06-10 2020-12-01 Socionext Inc. Semiconductor integrated circuit, display device provided with same, and control method
WO2022158220A1 (en) * 2021-01-25 2022-07-28 株式会社ソニー・インタラクティブエンタテインメント Image display system and image display method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5335313A (en) * 1976-09-13 1978-04-01 Nippon Telegr & Teleph Corp <Ntt> Picture image communication system
JPS62245183A (en) * 1986-04-04 1987-10-26 アプライド サイエンス グル−プ インコ−ポレ−テツド Method and system of generating distribution of audio-visualtime of television-commercial

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5335313A (en) * 1976-09-13 1978-04-01 Nippon Telegr & Teleph Corp <Ntt> Picture image communication system
JPS62245183A (en) * 1986-04-04 1987-10-26 アプライド サイエンス グル−プ インコ−ポレ−テツド Method and system of generating distribution of audio-visualtime of television-commercial

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01289388A (en) * 1988-05-16 1989-11-21 Nec Corp Moving picture signal encoding/decoding system
JPH02119464A (en) * 1988-10-28 1990-05-07 Nippon Telegr & Teleph Corp <Ntt> Encoding system for picture between two points
US6546142B2 (en) 1996-06-19 2003-04-08 Sharp Kabushiki Kaisha Motion image coding apparatus for performing hierarchical coding
WO1997050253A1 (en) * 1996-06-27 1997-12-31 Sharp Kabushiki Kaisha Picture encoder and picture decoder
US6295381B1 (en) 1996-06-27 2001-09-25 Sharp Kabushiki Kaisha Coding apparatus and decoding apparatus of image data and corresponding shape data at different resolutions
US6671412B2 (en) 1996-06-27 2003-12-30 Sharp Kabushiki Kaisha Motion image coding apparatus for performing hierarchical coding
WO2000022823A1 (en) * 1998-10-09 2000-04-20 Sony Corporation Communication apparatus and method
US6606111B1 (en) 1998-10-09 2003-08-12 Sony Corporation Communication apparatus and method thereof
JP2005027086A (en) * 2003-07-03 2005-01-27 Tadahiro Omi Data reproducing device, reproducing method, data compression apparatus and compression method
US10855946B2 (en) 2014-06-10 2020-12-01 Socionext Inc. Semiconductor integrated circuit, display device provided with same, and control method
JP2018110399A (en) * 2016-12-30 2018-07-12 アクシス アーベー Method, device, and camera
WO2022158220A1 (en) * 2021-01-25 2022-07-28 株式会社ソニー・インタラクティブエンタテインメント Image display system and image display method

Similar Documents

Publication Publication Date Title
US11546610B2 (en) Foveated video link for VR with gaze tracking
US11694353B2 (en) Single depth tracked accommodation-vergence solutions
KR101824501B1 (en) Device and method for controlling display of the image in the head mounted display
US5500671A (en) Video conference system and method of providing parallax correction and a sense of presence
US8299979B2 (en) Integral eye-path alignment on telephony and computer video devices using two or more image sensing devices
US7219364B2 (en) System and method for selectable semantic codec pairs for very low data-rate video transmission
CN107105333A (en) A kind of VR net casts exchange method and device based on Eye Tracking Technique
EP0557007A2 (en) Picture processing apparatus
CN107065197B (en) Human eye tracking remote rendering real-time display method and system for VR glasses
CN111710050A (en) Image processing method and device for virtual reality equipment
CN113362449B (en) Three-dimensional reconstruction method, device and system
CN113362450B (en) Three-dimensional reconstruction method, device and system
WO2016158014A1 (en) Information processing device, communication system, information processing method, and program
US11567567B2 (en) Encoders, methods and display apparatuses incorporating gaze-directed compression ratios
JPH01141479A (en) Image communication equipment utilizing glance detection
JP2017107359A (en) Image display device, program, and method that displays object on binocular spectacle display of optical see-through type
CN115022616B (en) Image focusing enhancement display device and display method based on human eye tracking
WO2022004130A1 (en) Information processing device, information processing method, and storage medium
JPH02100488A (en) Image transmission equipment
Hwang et al. 23.4: Augmented Edge Enhancement for Vision Impairment using Google Glas
CN114047822B (en) Near-to-eye display method and system
JP2011041190A (en) Moving image bit depth reduction apparatus and program
JP2020160226A (en) Image processing system and image processing method
WO2023079623A1 (en) Image display system, image transmission device, display control device, and image display method
CN115877573A (en) Display method, head-mounted display device, and storage medium