JP2013061988A - Display control device, display control method and display control program - Google Patents

Display control device, display control method and display control program Download PDF

Info

Publication number
JP2013061988A
JP2013061988A JP2013000264A JP2013000264A JP2013061988A JP 2013061988 A JP2013061988 A JP 2013061988A JP 2013000264 A JP2013000264 A JP 2013000264A JP 2013000264 A JP2013000264 A JP 2013000264A JP 2013061988 A JP2013061988 A JP 2013061988A
Authority
JP
Japan
Prior art keywords
screen
face
image
viewer
image control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013000264A
Other languages
Japanese (ja)
Inventor
Susumu Sawai
進 澤井
Kazuo Ishida
一雄 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013000264A priority Critical patent/JP2013061988A/en
Publication of JP2013061988A publication Critical patent/JP2013061988A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To alleviate an operator's load and intuitively execute a variety of operations.SOLUTION: A video imaging camera 10 detects a facial area from an imaged screen on the basis of a video of an imaged viewer and extracts feature points of the imaged person from a part of the facial area to determine which imaged person is the main viewer out of a plurality of the imaged persons on the basis of the feature points and face recognition data. The video imaging camera 10 detects the positions of the eyes of the main viewer and controls the image of an object displayed on a screen depending on a change in positions of the face or eyes.

Description

この発明は、視聴者の顔や眼の位置の変化に応じて、画面に表示される対象物の画像を
制御する画像制御装置、画像制御プログラムおよび画像制御方法に関する。
The present invention relates to an image control apparatus, an image control program, and an image control method for controlling an image of an object displayed on a screen in accordance with a change in the position of a viewer's face or eyes.

従来より、コンピュータの入力操作を行う場合に、マウスやキーボードを用いるのが一
般的である。これに対して、近年では、マウスやキーボードを用いずに、コンピュータの
入力操作として操作者の動作に関する情報を検出し、操作者の直感的な動きに応じて映像
表示画面を制御する技術の開発が行われている。
Conventionally, a mouse or a keyboard is generally used when performing an input operation of a computer. On the other hand, in recent years, the development of a technology that detects information related to the operation of the operator as a computer input operation without using a mouse or keyboard and controls the video display screen according to the intuitive movement of the operator. Has been done.

例えば、このような映像表示画面を制御する技術として、操作者の視線の位置の変化に
応じて、映像表示画面を制御する技術が知られている。具体的には、操作者の視線位置を
検出し、視線位置の移動速度が所定の速度を超えた場合に、画面をスクロールする処理を
行う(特許文献1参照)。
For example, as a technique for controlling such a video display screen, a technique for controlling the video display screen according to a change in the position of the line of sight of the operator is known. Specifically, a process of scrolling the screen is performed when the line-of-sight position of the operator is detected and the movement speed of the line-of-sight position exceeds a predetermined speed (see Patent Document 1).

特開平8−22385号公報JP-A-8-22385

ところで、上記した操作者の視線に対応して映像表示画面を制御する技術では、視線の
移動方向に基づいて、画面をスクロールさせるので、平面的な操作しかできず、例えば、
画面に表示されている対象物の画像を回転させるような立体的な操作ができない。この結
果、多様な操作ができないという課題があった。
By the way, in the technique for controlling the video display screen corresponding to the line of sight of the operator described above, the screen is scrolled based on the movement direction of the line of sight, so only a planar operation can be performed.
A three-dimensional operation that rotates the image of the object displayed on the screen is not possible. As a result, there is a problem that various operations cannot be performed.

また、上記した操作者の視線に対応して映像表示画面を制御する技術では、操作者が視
線の速度や向きを調整して移動させるので、眼に掛かる負担が大きく、操作者に掛かる負
担が大きいという課題もあった。
Further, in the technology for controlling the video display screen corresponding to the line of sight of the operator described above, since the operator moves the line by adjusting the speed and direction of the line of sight, the burden on the eye is large and the burden on the operator is large. There was also a problem of being big.

そこで、この発明は、上述した従来技術の課題を解決するためになされたものであり、
操作者の負担を軽減しつつ、多様な操作を直感的に行えることを実現することを目的とす
る。
Therefore, the present invention has been made to solve the above-described problems of the prior art,
The object is to realize various operations intuitively while reducing the burden on the operator.

上述した課題を解決し、目的を達成するため、この装置は、視聴者の顔または眼の位置
を検出し、顔または眼の位置の変化に応じて、画面に表示される対象物の画像を制御する
In order to solve the above-described problems and achieve the object, this apparatus detects the position of the viewer's face or eyes, and displays the image of the object displayed on the screen according to the change in the position of the face or eyes. Control.

開示の装置は、操作者の負担を軽減しつつ、多様な操作を直感的に行えるという効果を
奏する。
The disclosed apparatus has an effect that various operations can be intuitively performed while reducing the burden on the operator.

実施例1に係る画面制御装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a screen control apparatus according to a first embodiment. 視聴者の顔認識処理を説明するための図である。It is a figure for demonstrating a viewer's face recognition process. 主視聴者を認識する処理について説明するためのブロック図である。It is a block diagram for demonstrating the process which recognizes a main viewer. TV画面制御処理を説明するための図である。It is a figure for demonstrating TV screen control processing. TV画面の変更例を示す図である。It is a figure which shows the example of a change of TV screen. TV画面の変更例を示す図である。It is a figure which shows the example of a change of TV screen. TV画面の変更例を示す図である。It is a figure which shows the example of a change of TV screen. TV画面の変更例を示す図である。It is a figure which shows the example of a change of TV screen. TV画面の変更例を示す図である。It is a figure which shows the example of a change of TV screen. TV画面の変更例を示す図である。It is a figure which shows the example of a change of TV screen. 実施例1に係る画面制御装置の全体の処理手順を説明するためのフローチャートである。6 is a flowchart for explaining an overall processing procedure of the screen control apparatus according to the first embodiment. 実施例1に係る画面制御装置の主視聴者検出処理の手順を説明するためのフローチャートである。7 is a flowchart for explaining a procedure of main viewer detection processing of the screen control apparatus according to the first embodiment. 実施例1に係る画面制御装置のTV画面制御処理の手順を説明するためのフローチャートである。6 is a flowchart for explaining a procedure of TV screen control processing of the screen control apparatus according to the first embodiment. 画面制御プログラムを実行するコンピュータを示す図である。It is a figure which shows the computer which performs a screen control program.

以下に添付図面を参照して、この発明に係る画像制御装置、画像制御プログラムおよび
画像制御方法の実施例を詳細に説明する。
Exemplary embodiments of an image control apparatus, an image control program, and an image control method according to the present invention will be described below in detail with reference to the accompanying drawings.

以下の実施例では、実施例1に係る画面制御装置の構成および処理の流れを順に説明し
、最後に実施例1による効果を説明する。なお、以下では、利用者の眼の位置と両目の位
置関係に基づいて画面のスクロールと対象物の回転を制御する場合を説明する。
In the following embodiments, the configuration and processing flow of the screen control apparatus according to the first embodiment will be described in order, and finally the effects of the first embodiment will be described. In the following, a case will be described in which the scrolling of the screen and the rotation of the object are controlled based on the position of the user's eyes and the positional relationship between both eyes.

[画面制御装置の構成]
まず最初に、図1を用いて、画面制御装置1の構成を説明する。図1は、実施例1に係
る画像制御装置1の構成を示すブロック図である。同図に示すように、この画像制御装置
1は、映像撮影カメラ10、情報処理部20、映像表示部30を有し、バス等を介して各
部が接続されている。
[Configuration of screen controller]
First, the configuration of the screen control device 1 will be described with reference to FIG. FIG. 1 is a block diagram illustrating the configuration of the image control apparatus 1 according to the first embodiment. As shown in the figure, the image control apparatus 1 includes a video camera 10, an information processing unit 20, and a video display unit 30, and each unit is connected via a bus or the like.

画面制御装置1では、卵形のEGGレンズ11を取り付けた映像撮影カメラ10を使用
して撮影し、撮影された映像を情報処理部20で加工することにより、全周パノラマ映像
を作成して映像表示部に表示する。以下にこれらの各部の処理を説明する。
In the screen control device 1, the video camera 10 having the egg-shaped EGG lens 11 is used to shoot, and the captured video is processed by the information processing unit 20 to create an all-around panoramic video. Display on the display. The processing of each of these units will be described below.

映像撮影カメラ10は、視聴者の映像および視聴者が映像表示装置3で見る映像を撮影
し、撮影した映像データを情報処理部20に送信しているが、特に、EGGレンズ11、
CCD12、アナログ信号処理部13、A/D変換部14、内蔵メモリ15、AF制御部
16、カメラ駆動部17を有する。
The video camera 10 captures the viewer's video and the video viewed by the viewer on the video display device 3 and transmits the captured video data to the information processing unit 20.
It has a CCD 12, an analog signal processing unit 13, an A / D conversion unit 14, a built-in memory 15, an AF control unit 16, and a camera driving unit 17.

EGGレンズ11は、ドーナツ状に全集を撮影するための卵形のレンズである。撮像素
子12は、撮影光学系による被写体像を光電変換して画像信号を生成し、アナログ信号処
理部13に出力する。ここで、画像信号の座標について説明すると、座標(0,0,0)
が画面の左端上の座標であることを示し、座標(x、y、0)が画面の右端下の座標であ
ることを示している。
The EGG lens 11 is an egg-shaped lens for photographing the entire collection in a donut shape. The image sensor 12 photoelectrically converts a subject image obtained by the photographing optical system to generate an image signal, and outputs the image signal to the analog signal processing unit 13. Here, the coordinates of the image signal will be described. Coordinates (0, 0, 0)
Indicates that the coordinates are on the upper left edge of the screen, and coordinates (x, y, 0) indicate that the coordinates are on the lower right edge of the screen.

アナログ信号処理部13は、撮像素子12から出力された画像信号に対して感度補正や
ホワイトバランスを含む各種処理を施し、A/D変換部14に入力する。A/D変換部1
4は、アナログ信号処理部13から出力された画像信号をデジタル信号にデジタル変換し
、映像撮影全周パノラマ映像として内蔵メモリ15に入力する。
The analog signal processing unit 13 performs various processes including sensitivity correction and white balance on the image signal output from the image sensor 12 and inputs the processed signal to the A / D conversion unit 14. A / D converter 1
4 digitally converts the image signal output from the analog signal processing unit 13 into a digital signal, and inputs the digital signal to the built-in memory 15 as a panoramic video image.

内蔵メモリ15は、アナログ信号処理部13から出力された映像撮影全周パノラマ映像
を記憶する。AF制御部16は、焦点調節にかかる各部の処理および動作の制御を行う。
カメラ駆動部17は、EGGレンズ11を駆動して、全集を撮影できるように制御する。
The built-in memory 15 stores the video shooting all-around panoramic video output from the analog signal processing unit 13. The AF control unit 16 controls processing and operation of each unit related to focus adjustment.
The camera driving unit 17 drives the EGG lens 11 and controls it so that the entire collection can be taken.

情報処理部20は、映像撮影カメラ10によって撮影された映像を記憶し、視聴者の顔
や眼を検出して映像表示装置30で表示される画面を制御するが、特に、処理部21、記
憶部22を有する。
The information processing unit 20 stores the video captured by the video camera 10 and controls the screen displayed on the video display device 30 by detecting the viewer's face and eyes. Part 22.

記憶部22は、制御部21による各種処理に必要なデータおよびプログラムを格納する
が、特に、顔登録メモリ22aおよびTV画面メモリ22bを有する。
The storage unit 22 stores data and programs necessary for various processes performed by the control unit 21, and particularly includes a face registration memory 22a and a TV screen memory 22b.

この顔登録メモリ22aは、人物の顔の特徴点に基づいて生成された顔認識データと、
その顔認識データに対応する登録人物を示すためのインデックス画像データとを対応付け
して記録する。具体的には、顔登録メモリ22aは、未知入力画像の顔特徴ベクトル(展
開係数Ω)の計算に必要な視聴者顔認識データである固有顔(固有ベクトルの集合A)、
平均顔(平均値ベクトルx)、およびユークリッド距離の計算に必要な顔特徴ベクトルの
集合{Ω}を格納している。
The face registration memory 22a includes face recognition data generated based on the feature points of a person's face,
The index image data for indicating the registered person corresponding to the face recognition data is recorded in association with each other. Specifically, the face registration memory 22a is a unique face (set of eigenvectors A) that is viewer face recognition data necessary for calculation of a face feature vector (expansion coefficient Ω) of an unknown input image,
The average face (average value vector x) and a set of face feature vectors {Ω k } necessary for calculating the Euclidean distance are stored.

ここで、顔登録メモリ22aに記憶される固有顔(固有ベクトルの集合A)、平均顔(
平均値ベクトルx)、およびユークリッド距離の計算に必要な顔特徴ベクトルの集合{Ω
}について説明する。まず、映像撮影カメラ10から取り込んだ視聴者顔認識データ(
視聴者n人中k番目の視聴者の顔認識データ、以下「顔認識データ」と称す)の濃度値
は、次元配列f(i、j)で表現され、これを1次元化したものをxとする。また、顔
認識データのサイズをm×mピクセルとすると、下記(1)式となる。
Here, eigenfaces (set of eigenvectors A), average faces (stored in the face registration memory 22a)
Mean value vector x) and a set of face feature vectors {Ω for calculating the Euclidean distance
k } will be described. First, viewer face recognition data (from the video camera 10)
Viewer n 1 Review k th viewer's face recognition data, the following concentration values referred to as "face recognition data") is expressed by dimensional array f (i, j), a material obtained by one-dimensional this and x 1. When the size of the face recognition data is m 1 × m 1 pixel, the following equation (1) is obtained.

Figure 2013061988
Figure 2013061988

そして、n個の顔認識データ(の濃度値ベクトル)をxで示すと、下記(2)式の
ようになる。なお、「M=m×m」が総画素数を示し、「K」が顔認識データのイ
ンデックス画像データを示し、「l」が次元配列の画像を左上から1列に並べたときの画
素番号を示している。
Then, n 1 face recognition data (its density value vector) is represented by x k as shown in the following equation (2). “M 1 = m 1 × m 1 ” indicates the total number of pixels, “K” indicates the index image data of the face recognition data, and “l” indicates that the images of the dimension array are arranged in one column from the upper left. Indicates the pixel number.

Figure 2013061988
Figure 2013061988

そして、下記(3)に示すようなx全体の行列Xを顔濃度値行列と呼ぶ。また、顔濃
度値行列Xから分散共分散行列Sを求め、固有値λi、固有ベクトルa(i=1,2・
・・、L)を計算する。固有ベクトルで構成される行列Aは、下記(4)式に示すように
、正規直交基底の変換行列となる。
A matrix X of the entire xk as shown in (3) below is called a face density value matrix. Further, a variance covariance matrix S is obtained from the face density value matrix X, and an eigenvalue λi, an eigenvector a i (i = 1, 2,.
.., L) is calculated. The matrix A composed of eigenvectors is an orthonormal basis transformation matrix as shown in the following equation (4).

Figure 2013061988
Figure 2013061988

Figure 2013061988
Figure 2013061988

顔画像に対する固有ベクトルは、特に固有顔と呼ぶ。各顔認識データxと固有顔a
の内積から下記(5)式に示すように、展開係数を求める。平均値ベクトルxは平均顔と
呼ぶ。この展開係数と固有顔によって各顔認識データを復元できるので、下記(6)式に
示すような展開係数のベクトルΩを顔特徴ベクトルと呼ぶ。
The eigenvector for the face image is particularly called an eigenface. Each face recognition data x k and unique face a i
As shown in the following equation (5), the expansion coefficient is obtained from the inner product of. The average value vector x is called an average face. Since each face recognition data can be restored by using the expansion coefficient and the unique face, the expansion coefficient vector Ω k as shown in the following equation (6) is called a face feature vector.

Figure 2013061988
Figure 2013061988

Figure 2013061988
Figure 2013061988

図1の説明に戻ると、TV画面メモリ22bは、映像撮影カメラ10によって撮影され
た映像撮影全周パノラマ映像を記憶している。具体的には、TV画面メモリ22bは、T
V画面特徴ベクトル(展開係数Ω)の計算に必要なアウェアネスTV画面データである
固有TV画面(固有ベクトルの集合B)、平均TV画面(平均値ベクトルy)、およびユ
ークリッド距離の計算に必要なTV画面特徴ベクトルの集合{Ω}を格納している。
Returning to the description of FIG. 1, the TV screen memory 22 b stores video panoramic video shot by the video camera 10. Specifically, the TV screen memory 22b has T
Eigen TV screen (eigen vector set B), which is the awareness TV screen data necessary for calculating the V screen feature vector (expansion coefficient Ω k ), the average TV screen (average vector y), and the TV required for calculating the Euclidean distance A set of screen feature vectors {Ω k } is stored.

ここで、顔登録メモリ22aに記憶される固有TV画面(固有ベクトルの集合B)、平
均TV画面(平均値ベクトルy)、およびユークリッド距離の計算に必要なTV画面特徴
ベクトルの集合{Ω}について説明する。
Here, regarding the eigen TV screen (eigen vector set B), the average TV screen (average value vector y), and the TV screen feature vector set {Ω k } necessary for calculating the Euclidean distance stored in the face registration memory 22a. explain.

まず、映像撮影カメラ1から予め取り込んだアウェアネスTV画面データ(以下「TV
画面データ」と称す)濃度値は、次元配列g(i,j)で表現され、これを1次元化した
ものをyとする。TV画面データのサイズをm×mピクセルとすると、上記した(
1)式と同様になる。
First, awareness TV screen data (hereinafter referred to as “TV”) previously captured from the video camera 1.
Screen Data "and referred) density value is expressed with dimensional array g (i, j), a material obtained by one-dimensional so that the y l. Assuming that the size of the TV screen data is m 2 × m 2 pixels,
It becomes the same as the formula (1).

個のTV画面データ(の濃度値ベクトル)をyで示すと、下記(7)式に示すよ
うになる。ただし、M=m×mが総画素数である。Kは、TV画面データのインデ
ックス画像データを示し、lは、次元配列の画像を左上から1列に並べたときの画素番号
を示している。
n When the two TV screen data (density value vectors thereof) are represented by y k , the following equation (7) is obtained. However, M 2 = m 2 × m 2 is the total number of pixels. K indicates the index image data of the TV screen data, and l indicates the pixel number when the images of the dimension array are arranged in one column from the upper left.

Figure 2013061988
Figure 2013061988

また、下記(8)式に示すようなy全体の行列YをTV画面濃度値行列と呼ぶ。TV
画面濃度値行列Yから分散共分散行列sを求め、固有値λi、固有ベクトルb(i=1
、2、・・・・・、L)を計算します。固有ベクトルで構成される行列Bは、下記(9)
式に示すような正規直交基底の変換行列となる。
Further, the matrix Y of the entire y k as shown in the following equation (8) is called a TV screen density value matrix. TV
A variance-covariance matrix s is obtained from the screen density value matrix Y, and an eigenvalue λi, an eigenvector b i (i = 1).
, 2, ..., L). The matrix B composed of eigenvectors is given by (9)
The transformation matrix is an orthonormal basis as shown in the equation.

Figure 2013061988
Figure 2013061988

Figure 2013061988
Figure 2013061988

また、TV画面画像に対する固有ベクトルは特に固有TV画面と呼ぶ。各TV画面認識
データyと固有TV画面bの内積から下記(10)式に示すように、展開係数を求め
る。
Further, the eigenvector for the TV screen image is particularly called an eigenTV screen. The expansion coefficient is obtained from the inner product of each TV screen recognition data y k and the specific TV screen b i as shown in the following equation (10).

Figure 2013061988
Figure 2013061988

平均値ベクトルyは、平均TV画面と呼ぶ。この展開係数と固有TV画面によって各T
V画面認識データを復元できるので、下記(11)式に示すような展開係数のベクトルΩ
をTV画面特徴ベクトルと呼ぶ。
The average value vector y is called an average TV screen. This T and the specific TV screen
Since the V screen recognition data can be restored, the expansion coefficient vector Ω as shown in the following equation (11)
k is referred to as a TV screen feature vector.

Figure 2013061988
Figure 2013061988

また、未知入力画像にたいしても1次元化された濃度値ベクトルyを求めて復元できる
ので固有TV画面とbとの内積からTV画面特徴ベクトルΩを下記(12)を用いて作
成する。ただし、下記(13)式から、この平均値ベクトルは、TV画面顔認識データ
から求めた平均TV画面である。
Also, to create using the following (12) the TV screen feature vector Ω from the inner product of the specific TV screen and the b i so can be restored seek one-dimensional density value vector y also against unknown input image. However, from the following equation (13), this average value vector y is an average TV screen obtained from TV screen face recognition data.

Figure 2013061988
Figure 2013061988

Figure 2013061988
Figure 2013061988

図1の説明に戻ると、制御部21は、各種の処理手順などを規定したプログラムおよび
所要データを格納するための内部メモリを有し、これらによって種々の処理を実行するが
、特に、顔検出部21a、顔認識部21b、眼位置検出部21c、TV画像制御部21d
を有する。
Returning to the description of FIG. 1, the control unit 21 has a program defining various processing procedures and an internal memory for storing necessary data, and executes various processes using these programs. Unit 21a, face recognition unit 21b, eye position detection unit 21c, TV image control unit 21d
Have

顔検出部21aは、映像撮影カメラ10によって撮影された視聴者の映像に基づいて、
撮影画面の顔領域を検出し、その顔領域の部分から撮影人物の顔の特徴点を抽出し、顔認
識部21bに通知する。
The face detection unit 21a is based on the viewer's video shot by the video camera 10.
A face area of the shooting screen is detected, a feature point of the face of the photographed person is extracted from the face area portion, and notified to the face recognition unit 21b.

顔認識部21bは、顔検出部の抽出した特徴点および顔認識データに基づいて、複数の
撮影人物のうち、どの撮影人物が主視聴者であるかを判定する。ここで主視聴者とは、図
2に示すように、映像表示部30に最も近くにいる者とし、映像表示装置30から見て身
体の重なりが一番前と認識できる顔やその顔領域の部分が最も大きい視聴者を主視聴者と
して認識する。そして、顔認識部21bは、認識された主視聴者を眼位置検出部21cに
通知する。
The face recognition unit 21b determines which of the plurality of photographers is the main viewer based on the feature points and face recognition data extracted by the face detection unit. Here, as shown in FIG. 2, the main viewer is a person who is closest to the video display unit 30, and is a face or its face area that can be recognized as having the most overlapping body as viewed from the video display device 30. The viewer with the largest portion is recognized as the main viewer. Then, the face recognition unit 21b notifies the recognized main viewer to the eye position detection unit 21c.

ここで、顔認識処理について、図3を用いて具体的に説明する。同図に示すように、顔
認識部21bは、顔の認識処理として、映像撮影カメラ10によって撮像された視聴者の
画像(図3では、未知入力画像)に対しても1次元化された濃度値ベクトルxを算出し、
固有顔とaとの内積から、下記(14)式のように、顔特徴ベクトル「Ω」を作成する
。ただし、下記(15)式から、この平均値ベクトルは各顔認識データから求めた平均
顔である。
Here, the face recognition processing will be specifically described with reference to FIG. As shown in the figure, the face recognition unit 21b performs a one-dimensional density for a viewer image (an unknown input image in FIG. 3) captured by the video camera 10 as a face recognition process. Compute the value vector x,
A face feature vector “Ω” is created from the inner product of the eigenface and a i as shown in the following equation (14). However, from the following equation (15), this average value vector x is an average face obtained from each face recognition data.

Figure 2013061988
Figure 2013061988

Figure 2013061988
Figure 2013061988

顔認識部21bは、顔のマッチングの評価式として、ユークリッド距離を使用し、下記
(16)式を用いて、距離dが最も小さい時の顔特徴ベクトルΩの人物(顔認識デー
タのインデックス画像データk)を特定して、主視聴者として認識する。
Face recognition unit 21b, as an evaluation formula of the face matching, using the Euclidean distance, using the following equation (16), the distance d e is the index of the-face feature vectors Omega k (face recognizing data when the smallest Image data k) is identified and recognized as the main viewer.

Figure 2013061988
Figure 2013061988

眼位置検出部21cは、視聴者の顔または眼の位置を検出する。具体的には、眼位置検
出部23は、主視聴者の眼の位置を検出するとともに、主視聴者のゲイズアイコンタクト
の有無を検出する。つまり、主視聴者が映像画像表示画面を見つめているか否かを確認す
る。
The eye position detection unit 21c detects the position of the viewer's face or eyes. Specifically, the eye position detection unit 23 detects the position of the main viewer's eyes and also detects the presence or absence of the main viewer's gaze eye contact. That is, it is confirmed whether or not the main viewer is staring at the video image display screen.

その結果、眼位置検出部21cは、主視聴者のゲイズアイコンタクト有りと判定した場
合には、設定された検出間隔ごとに主視聴者の目の位置を検出し、主視聴者の眼の位置が
移動したか否かを判定する。なお、主視聴者が映像画像表示画面を見つめているか否かま
で厳密に確認する必要がない場合であれば、上記ゲイズアイコンタクトの有無の判定を行
わなくともよい。
As a result, when it is determined that there is a gaze eye contact of the main viewer, the eye position detection unit 21c detects the position of the main viewer's eyes at each set detection interval, and the position of the main viewer's eyes It is determined whether or not has moved. If it is not necessary to strictly check whether or not the main viewer is looking at the video image display screen, it is not necessary to determine whether or not there is a gaze eye contact.

その結果、眼位置検出部21cは、主視聴者の顔または眼の位置が移動した場合には、
その移動差分をTV画像制御部21dに通知する。なお、この場合の顔または目の位置の
移動とは、上記特許文献1のような視線位置の移動とは異なり、映像撮影カメラ10が撮
影した映像データ中における顔または目の位置の移動をいう。例えば、画像中における顔
または目の位置を座標で表す場合であれば、上記設定された検出間隔ごとのその座標の変
化をいうものとする。
As a result, the eye position detection unit 21c, when the position of the face or eyes of the main viewer moves,
The movement difference is notified to the TV image control unit 21d. Note that the movement of the face or eye position in this case refers to the movement of the face or eye position in the video data captured by the video camera 10, unlike the movement of the line-of-sight position as in Patent Document 1. . For example, in the case where the position of the face or eyes in the image is represented by coordinates, it means the change of the coordinates for each of the set detection intervals.

TV画像制御部21dは、顔または眼の位置の変化に応じて、画面に表示される対象物
の画像を制御する。具体的には、TV画像制御部21dは、眼位置検出部21cから移動
差分を受信すると、受信した移動差分に応じて、画面に表示される対象物の画像を制御す
る。
The TV image control unit 21d controls the image of the object displayed on the screen according to a change in the position of the face or eyes. Specifically, when the TV image control unit 21d receives the movement difference from the eye position detection unit 21c, the TV image control unit 21d controls the image of the object displayed on the screen according to the received movement difference.

ここで、TV画面制御処理について図4の例を用いて具体的に説明する。同図に示すよ
うに、TV画像制御部21dは、(1)の位置にいる主視聴者が映像表示画面31の左上
部分(3)をよく見ようと(2)の位置に接近した場合に、映像表示画面31の右上部分
(4)によく見たかった部分が接近して拡大するように制御する。
Here, the TV screen control process will be specifically described with reference to the example of FIG. As shown in the figure, when the main viewer at the position (1) approaches the position (2) to look closely at the upper left part (3) of the video display screen 31, as shown in FIG. Control is performed so that the part that the user wants to see closely to the upper right part (4) of the video display screen 31 approaches and enlarges.

また、TV画像制御部21dは、主視聴者の眼の位置(1)から主視聴者の眼の位置(
2)への移動差分をユークリッド距離dである場合には、映像表示画面31から映像表
示画面31への移動差分は、Cd(ユークリッド距離dの定数C倍)となる。なお、
定数Cは、TV画面の大きさ(インチ数)で決まる。
In addition, the TV image control unit 21d determines the position of the main viewer's eyes (1) from the position (1) of the eyes of the main viewer.
The movement differential to 2) when the Euclidean distance d e, the movement difference from the video display screen 31 to the video display screen 31 is a Cd e (constant C times the Euclidean distance d e). In addition,
The constant C is determined by the size (number of inches) of the TV screen.

つまり、TV画像制御部21dでは、TV画面の移動には視聴者の目の移動差分を反映
するユークリッド距離dの定数Cが使用される。この定数Cは、映像表示部30の映像
表示画面31の画面サイズにより、映像表示部30の初期設定時に利用者が設定する。し
たがって、TV画面の移動分は、下記(17)を用いてもとめられる。
That is, the TV image control unit 21d, the movement of the TV screen constant C of the Euclidean distance d e to reflect the moving difference eye of the viewer is used. The constant C is set by the user at the initial setting of the video display unit 30 according to the screen size of the video display screen 31 of the video display unit 30. Accordingly, the movement of the TV screen can be determined using the following (17).

Figure 2013061988
Figure 2013061988

ここで、視聴者の眼の位置の変化に応じて、画面に表示された対象物の画像が変化する
例について説明する。図5に例示するように、視聴者が顔を横に回転させた場合に、画面
に表示される対象物(図5の例では、自動車)の画像が横方向に回転する。
Here, an example will be described in which the image of the object displayed on the screen changes in accordance with the change in the position of the viewer's eyes. As illustrated in FIG. 5, when the viewer rotates his / her face sideways, the image of the target object (a car in the example of FIG. 5) is rotated in the horizontal direction.

また、図6に例示するように、視聴者が顔を横に平行移動すると、画像制御装置10は
、視聴者の眼の位置を検出し、画面に表示される対象物の画像が横にスクロールする。ま
た、図7に例示するように、視聴者が顔を画面に接近させると、画面に表示される対象物
の画像がアップになる。
In addition, as illustrated in FIG. 6, when the viewer moves the face horizontally, the image control apparatus 10 detects the position of the viewer's eyes, and the image of the target object displayed on the screen is scrolled horizontally. To do. Also, as illustrated in FIG. 7, when the viewer brings his face close to the screen, the image of the object displayed on the screen is increased.

また、図8に例示するように、視聴者が顔を上に移動させると、画面に表示される対象
物の上部の画像が見えるように回転する。また、図9に例示するように、視聴者が顔を下
に移動させると、画面に表示される対象物の下部の画像が見えるように回転する。
Further, as illustrated in FIG. 8, when the viewer moves his / her face up, the viewer rotates so that the image on the upper part of the object displayed on the screen can be seen. Further, as illustrated in FIG. 9, when the viewer moves his face down, the viewer rotates so that an image below the object displayed on the screen can be seen.

また、図10に例示するように、視聴者が顔を傾けると、画面に表示される対象物の裏
側の画像が見えるように回転する。つまり、視聴者の顔や眼の位置が移動することに連動
させて、画面に表示される対象物の画像を移動または回転するように制御することで、画
面内の対象物を立体的に操作できる。
Further, as illustrated in FIG. 10, when the viewer tilts his / her face, the viewer rotates so that the image on the back side of the object displayed on the screen can be seen. In other words, the object on the screen is manipulated in three dimensions by controlling the image of the object displayed on the screen to move or rotate in conjunction with the movement of the viewer's face and eye position. it can.

映像表示部30は、情報処理部20のTV画面メモリ22bに記憶された映像を表示す
るが、特に、映像表示画面31、アウェアネスTV台32を有する。映像表示画面31は
、前述したTV画面制御部21dによって制御され、情報処理部20のTV画面メモリ2
2bに記憶された映像撮影全周パノラマ映像のうちの一部の撮影画像を表示する。
The video display unit 30 displays the video stored in the TV screen memory 22 b of the information processing unit 20, and in particular has a video display screen 31 and an awareness TV stand 32. The video display screen 31 is controlled by the TV screen control unit 21d described above, and the TV screen memory 2 of the information processing unit 20 is controlled.
A part of the captured image of the panoramic image of the entire video recording stored in 2b is displayed.

入出力I/F40は、データを入出力する入出力インタフェースであり、例えば、TV
画面制御処理を開始する旨の指示であるウェアネスTV機能検出の指示や、視聴者から眼
の位置を検出する検出間隔の設定を受け付けるインタフェースである。入出力I/F40
によって設定された検出間隔(例えば、1秒)に従って、前述した眼位置検出部21cが
主視聴者の眼の位置を検出する。
The input / output I / F 40 is an input / output interface for inputting / outputting data.
It is an interface that accepts a wearness TV function detection instruction, which is an instruction to start screen control processing, and a detection interval setting for detecting the eye position from the viewer. Input / output I / F40
According to the detection interval set by (for example, 1 second), the eye position detection unit 21c described above detects the position of the eyes of the main viewer.

[画像制御処理による処理]
次に、図11〜図13を用いて、実施例1に係る画像制御装置10による処理を説明す
る。図11は、実施例1に係る画面制御装置の全体の処理手順を説明するためのフローチ
ャートである。図12は、実施例1に係る画面制御装置の主視聴者検出処理の手順を説明
するためのフローチャートである。図13は、実施例1に係る画面制御装置のTV画面制
御処理の手順を説明するためのフローチャートである。
[Processing by image control processing]
Next, processing performed by the image control apparatus 10 according to the first embodiment will be described with reference to FIGS. FIG. 11 is a flowchart for explaining the entire processing procedure of the screen control apparatus according to the first embodiment. FIG. 12 is a flowchart for explaining the procedure of the main viewer detection process of the screen control apparatus according to the first embodiment. FIG. 13 is a flowchart for explaining the procedure of the TV screen control process of the screen control apparatus according to the first embodiment.

同図に示すように、画像制御装置10は、電源が入力されると(ステップS101肯定
)、TV画面メモリ22bに記憶された撮影画像を映像表示画面31に表示する(ステッ
プS102)。そして、画像制御装置10は、アウェアネスTV機能検出の指示を受け付
けると(ステップS103肯定)、複数の視聴者から主視聴者を検出する主視聴者検出処
理(後に、図12を用いて詳述)を行う(ステップS104)。
As shown in the figure, when the power is input (Yes at Step S101), the image control apparatus 10 displays the captured image stored in the TV screen memory 22b on the video display screen 31 (Step S102). When the image control apparatus 10 receives an instruction to detect the awareness TV function (Yes in step S103), the main viewer detection process for detecting the main viewer from a plurality of viewers (detailed later using FIG. 12). Is performed (step S104).

そして、画像制御装置10は、主視聴者の眼の位置を検出し(ステップS105)、主
視聴者の眼の位置が移動したか否かを判定する(ステップS106)。その結果、画像制
御装置10は、主視聴者の眼の位置が移動した場合には(ステップS106肯定)、TV
画面変更の指示があるとして、画面制御処(後に、図13を用いて詳述)を行って、TV
画面を変更する処理を行う(ステップS107)。
Then, the image control apparatus 10 detects the position of the main viewer's eyes (step S105), and determines whether or not the position of the main viewer's eyes has moved (step S106). As a result, when the position of the eyes of the main viewer moves (Yes at Step S106), the image control apparatus 10
If there is an instruction to change the screen, a screen control process (described later in detail with reference to FIG. 13) is performed, and the TV is
Processing for changing the screen is performed (step S107).

続いて、画像制御装置10の主視聴者検出処理について図12を用いて説明する。同図
に示すように、画像制御装置10は、映像撮影カメラ10の前の顔を検出し(ステップS
201)、顔が検出されるか否かを判定する(ステップS202)。
Next, the main viewer detection process of the image control apparatus 10 will be described with reference to FIG. As shown in the figure, the image control apparatus 10 detects the front face of the video camera 10 (step S).
201), it is determined whether or not a face is detected (step S202).

その結果、画像制御装置10は、顔を検出すると(ステップS202肯定)、映像表示
部30に最も近くにいる者を主視聴者として検出し、主視聴の眼の位置を検出し、ゲイズ
アイコンタクト(gaze eye contact)の有無を検出して(ステップS2
03)、主視聴者のゲイズアイコンタクトの有無を判定する(ステップS204)。つま
り、主視聴者が映像画像表示画面を見つめているか否かを確認する。
As a result, when detecting a face (Yes at Step S202), the image control apparatus 10 detects the person closest to the video display unit 30 as the main viewer, detects the position of the main viewing eye, and performs gaze eye contact. The presence or absence of (gaze eye contact) is detected (step S2
03) The presence / absence of the gaze eye contact of the main viewer is determined (step S204). That is, it is confirmed whether or not the main viewer is staring at the video image display screen.

その結果、画像制御装置10は、主視聴者のゲイズアイコンタクトが有ると判定した場
合には(ステップS204肯定)、眼の位置の変化に応じて、画面に表示される対象部の
画像を制御する処理を開始する(ステップS205)。
As a result, if the image control apparatus 10 determines that there is a gaze eye contact of the main viewer (Yes in step S204), the image control apparatus 10 controls the image of the target portion displayed on the screen according to the change in the eye position. Is started (step S205).

続いて、画像制御装置10のTV画面制御処理について図13を用いて説明する。同図
に示すように、画像制御装置10は、主視聴者の目の移動差分を検出し(ステップS30
1)、移動差分がある場合には(ステップS302肯定)、TV画面移動差分を算出する
処理を行い(ステップS303)、算出されたTV画面移動差分が0以上であるか判定す
る(ステップS304)。
Next, TV screen control processing of the image control apparatus 10 will be described with reference to FIG. As shown in the figure, the image control device 10 detects the movement difference of the eyes of the main viewer (step S30).
1) If there is a movement difference (Yes at Step S302), a process for calculating a TV screen movement difference is performed (Step S303), and it is determined whether the calculated TV screen movement difference is 0 or more (Step S304). .

そして、画像制御装置10は、TV画面移動差分が0以上である場合には(ステップS
304肯定)、TV画面移動差分に応じて、画面に表示される対象物の画像を制御する(
ステップS305)。
When the TV screen movement difference is 0 or more, the image control apparatus 10 (step S
304 affirmation), the image of the target object displayed on the screen is controlled according to the TV screen movement difference (
Step S305).

[実施例1の効果]
上述してきたように、画像制御装置10は、視聴者の顔または眼の位置をし、顔または
眼の位置の変化に応じて、画面に表示される対象物の画像を制御する。このため、視聴者
の顔や眼の位置が移動することに連動させて、画面に表示される対象物の画像を移動また
は回転するように制御することで、画面内の対象物を立体的に操作できる結果、操作者の
負担を軽減しつつ、多様な操作を直感的に行うことが可能である。
[Effect of Example 1]
As described above, the image control apparatus 10 determines the position of the viewer's face or eyes, and controls the image of the object displayed on the screen in accordance with the change in the position of the face or eyes. For this reason, the object on the screen is three-dimensionally controlled by moving or rotating the image of the object displayed on the screen in conjunction with the movement of the position of the viewer's face and eyes. As a result of the operation, various operations can be performed intuitively while reducing the burden on the operator.

また、実施例1によれば、顔または眼の位置を検出する検出間隔の設定を受け付け、設
定された検出間隔で、視聴者の顔または眼の位置を検出するので、画像が変化する頻度を
調整することが可能である。
Further, according to the first embodiment, the setting of the detection interval for detecting the position of the face or eyes is accepted, and the position of the viewer's face or eyes is detected at the set detection interval. It is possible to adjust.

さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも
、種々の異なる形態にて実施されてよいものである。そこで、以下では実施例2として本
発明に含まれる他の実施例を説明する。
Although the embodiments of the present invention have been described so far, the present invention may be implemented in various different forms other than the embodiments described above. Therefore, another embodiment included in the present invention will be described below as a second embodiment.

(1)画像制御
本実施例では、視聴者の視線の位置も用いて画像制御を行うようにしてもよい。具体的
には、画像制御装置は、視聴者の視線の位置を検出し、検出された視線の位置が画面内に
あるか判定する。その結果、画像制御装置は、検出された視線の位置が画面内にある場合
には、顔または眼の位置の変化に応じて、画像を制御する。
(1) Image Control In this embodiment, image control may be performed using the position of the viewer's line of sight. Specifically, the image control apparatus detects the position of the viewer's line of sight and determines whether the detected line of sight is within the screen. As a result, when the position of the detected line of sight is within the screen, the image control apparatus controls the image according to a change in the position of the face or eyes.

一方、画像制御装置は、検出された視線の位置が画面内にない場合には、顔または眼の
位置の変化に応じて、画像の制御を中止する。つまり、画像制御装置は、視線が画面内に
ないような場合には、視聴者が画面を操作する意図で無く、顔や眼を移動させたとして、
画像の制御を行わない。
On the other hand, when the position of the detected line of sight is not within the screen, the image control apparatus stops the image control according to the change in the position of the face or eyes. That is, when the line of sight is not in the screen, the image control device assumes that the viewer has moved the face and eyes without intending to operate the screen.
Does not control the image.

このように、視聴者の視線の位置を検出し、検出された視線の位置が画面内にある場合
には、検出された顔または眼の位置の変化に応じて、画像を制御し、また、検出された視
線の位置が画面内にない場合には、画像の制御を中止するので、誤作動を防止することが
可能である。
In this way, the position of the viewer's line of sight is detected, and if the detected line of sight is within the screen, the image is controlled according to the detected change in the face or eye position, and When the detected line-of-sight position is not in the screen, the control of the image is stopped, so that malfunction can be prevented.

(2)システム構成等
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示
の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図
示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意
の単位で機能的または物理的に分散・統合して構成することができる。例えば、顔検出部
21aと顔認識部21bを統合してもよい。さらに、各装置にて行なわれる各処理機能は
、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラム
にて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
(2) System Configuration The components of the illustrated devices are functionally conceptual and need not be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, the face detection unit 21a and the face recognition unit 21b may be integrated. Further, all or any part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.

また、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明
した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわ
れるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともで
きる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデ
ータやパラメータを含む情報については、特記する場合を除いて任意に変更することがで
きる。
In addition, among the processes described in this embodiment, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedure, control procedure, specific name, and information including various data and parameters shown in the above-described document and drawings can be arbitrarily changed unless otherwise specified.

(3)プログラム
ところで、上記の実施例で説明した各種の処理は、あらかじめ用意された画面制御プロ
グラムをコンピュータで実行することによって実現することができる。そこで、以下では
、図14を用いて、上記の実施例と同様の機能を有するプログラムを実行するコンピュー
タの一例を説明する。図14は、画面制御プログラムを実行するコンピュータを示す図で
ある。
(3) Program By the way, the various processes described in the above embodiments can be realized by executing a screen control program prepared in advance by a computer. In the following, an example of a computer that executes a program having the same function as that of the above-described embodiment will be described with reference to FIG. FIG. 14 is a diagram illustrating a computer that executes a screen control program.

同図に示すように、画面制御装置としてのコンピュータ600は、HDD610、RA
M620、ROM630およびCPU640を有し、それぞれバス650を介して接続さ
れている。
As shown in the figure, a computer 600 as a screen control device includes an HDD 610, an RA
M620, ROM630, and CPU640 are connected via a bus 650, respectively.

そして、ROM630には、上記の実施例と同様の機能を発揮する画面制御プログラム
、つまり、図14に示すように、顔検出プログラム631、顔認識プログラム632、眼
位置検出プログラム633、TV画面制御プログラム634が予め記憶されている。なお
、プログラム631〜634については、図1に示した画面制御装置の各構成要素と同様
、適宜統合または分散してもよい。
The ROM 630 stores a screen control program that exhibits the same function as that of the above-described embodiment, that is, as shown in FIG. 14, a face detection program 631, a face recognition program 632, an eye position detection program 633, and a TV screen control program. 634 is stored in advance. Note that the programs 631 to 634 may be appropriately integrated or distributed in the same manner as each component of the screen control apparatus shown in FIG.

そして、CPU640が、これらのプログラム631〜634をROM630から読み
出して実行することで、図14に示すように、各プログラム631〜634は、顔検出プ
ロセス641、顔認識プロセス642、眼位置検出プロセス643、TV画面制御プロセ
ス644として機能するようになる。各プロセス641〜644は、図1に示した顔検出
部21a、顔認識部21b、眼位置検出部21c、TV画像制御部21dにそれぞれ対応
する。
Then, the CPU 640 reads out these programs 631 to 634 from the ROM 630 and executes them, so that each program 631 to 634 has a face detection process 641, a face recognition process 642, and an eye position detection process 643 as shown in FIG. Then, it functions as the TV screen control process 644. Each process 641 to 644 corresponds to the face detection unit 21a, the face recognition unit 21b, the eye position detection unit 21c, and the TV image control unit 21d shown in FIG.

また、HDD610には、図14に示すように、顔登録テーブル611、TV画面テー
ブル612が設けられる。なお、顔登録テーブル611、TV画面テーブル612は、図
1に示した顔登録メモリ22aおよびTV画面メモリ22bに対応する。そして、CPU
640は、顔登録テーブル611、TV画面テーブル612に対してデータを登録すると
ともに、顔登録テーブル611、TV画面テーブル612から顔登録データ621、TV
画面データ622をそれぞれ読み出してRAM620に格納し、RAM620に格納され
た顔登録データ621、TV画面データ622に基づいて処理を実行する。
Further, as shown in FIG. 14, the HDD 610 is provided with a face registration table 611 and a TV screen table 612. The face registration table 611 and the TV screen table 612 correspond to the face registration memory 22a and the TV screen memory 22b shown in FIG. And CPU
640 registers data in the face registration table 611 and the TV screen table 612, as well as the face registration data 621 and TV from the face registration table 611 and the TV screen table 612.
The screen data 622 is read out and stored in the RAM 620, and processing is executed based on the face registration data 621 and the TV screen data 622 stored in the RAM 620.

以上の実施例1〜2を含む実施形態に関し、更に以下の付記を開示する。   Regarding the embodiment including the above-described Examples 1 and 2, the following additional notes are further disclosed.

(付記1)視聴者の顔または眼の位置を検出する位置検出部と、
前記位置検出部によって検出された前記顔または眼の位置の変化に応じて、画面に表示
される対象物の画像を制御する画像制御部と、
を備えることを特徴とする画像制御装置。
(Supplementary note 1) a position detection unit for detecting the position of the viewer's face or eyes;
An image control unit that controls an image of an object displayed on a screen in accordance with a change in the position of the face or eye detected by the position detection unit;
An image control apparatus comprising:

(付記2)前記位置検出部によって前記顔または眼の位置を検出する検出間隔の設定を受
け付ける検出間隔設定受付部をさらに備え、
前記位置検出部は、前記検出間隔設定受付部によって設定された前記検出間隔で、前記
視聴者の顔または眼の位置を検出することを特徴とする付記1に記載の画像制御装置。
(Additional remark 2) It further has a detection interval setting reception part which receives the setting of the detection interval which detects the position of the face or eyes by the position detection part,
The image control apparatus according to appendix 1, wherein the position detection unit detects the position of the viewer's face or eye at the detection interval set by the detection interval setting reception unit.

(付記3)前記視聴者の視線の位置を検出する視線検出部をさらに備え、
前記画像制御部は、前記視線検出部によって検出された前記視線の位置が前記画面内に
ある場合には、前記位置検出部によって検出された前記顔または眼の位置の変化に応じて
、前記画像を制御し、また、前記視線検出部によって検出された前記視線の位置が前記画
面内にない場合には、前記画像の制御を中止することを特徴とする付記1または2に記載
の画像制御装置。
(Additional remark 3) It further has a gaze detection part which detects a position of a gaze of the viewer,
When the position of the line of sight detected by the line-of-sight detection unit is within the screen, the image control unit is configured to change the image according to a change in the position of the face or eye detected by the position detection unit. And the control of the image is stopped when the position of the line of sight detected by the line-of-sight detection unit is not in the screen. .

(付記4)視聴者の顔または眼の位置を検出する位置検出手順と、
前記位置検出手順によって検出された前記顔または眼の位置の変化に応じて、画面に表
示される対象物の画像を制御する画像制御手順と、
をコンピュータに実行させることを特徴とする画像制御プログラム。
(Appendix 4) A position detection procedure for detecting the position of the face or eye of the viewer;
An image control procedure for controlling an image of an object displayed on a screen in accordance with a change in the position of the face or eye detected by the position detection procedure;
An image control program for causing a computer to execute.

(付記5)前記位置検出手順によって前記顔または眼の位置を検出する検出間隔の設定を
受け付ける検出間隔設定受付手順をさらにコンピュータに実行させ、
前記位置検出手順は、前記検出間隔設定受付手順によって設定された前記検出間隔で、
前記視聴者の顔または眼の位置を検出することを特徴とする付記4に記載の画像制御プロ
グラム。
(Additional remark 5) Let a computer further perform the detection interval setting reception procedure which receives the setting of the detection interval which detects the position of the face or eyes by the position detection procedure,
The position detection procedure is the detection interval set by the detection interval setting reception procedure,
The image control program according to appendix 4, wherein the position of the viewer's face or eyes is detected.

(付記6)前記視聴者の視線の位置を検出する視線検出手順をさらにコンピュータに実行
させ、
前記画像制御手順は、前記視線検出手順によって検出された前記視線の位置が前記画面
内にある場合には、前記位置検出手順によって検出された前記顔または眼の位置の変化に
応じて、前記画像を制御し、また、前記視線検出手順によって検出された前記視線の位置
が前記画面内にない場合には、前記画像の制御を中止することを特徴とする付記4または
5に記載の画像制御プログラム。
(Supplementary Note 6) The computer further executes a gaze detection procedure for detecting the position of the gaze of the viewer,
In the case where the position of the line of sight detected by the line-of-sight detection procedure is within the screen, the image control procedure is configured to change the image according to a change in the position of the face or eye detected by the position detection procedure. And the control of the image is stopped when the position of the line of sight detected by the line-of-sight detection procedure is not in the screen. .

(付記7)視聴者の顔または眼の位置を検出する位置検出ステップと、
前記位置検出ステップによって検出された前記顔または眼の位置の変化に応じて、画面
に表示される対象物の画像を制御する画像制御ステップと、
を含んだことを特徴とする画像制御方法。
(Appendix 7) A position detection step for detecting the position of the face or eye of the viewer;
An image control step for controlling an image of an object displayed on a screen in accordance with a change in the position of the face or eye detected by the position detection step;
An image control method comprising:

(付記8)前記位置検出ステップによって前記顔または眼の位置を検出する検出間隔の設
定を受け付ける検出間隔設定受付ステップをさらに含み、
前記位置検出ステップは、前記検出間隔設定受付ステップによって設定された前記検出
間隔で、前記視聴者の顔または眼の位置を検出することを特徴とする付記7に記載の画像
制御方法。
(Additional remark 8) It further includes a detection interval setting reception step for receiving a setting of a detection interval for detecting the position of the face or eye by the position detection step,
The image control method according to appendix 7, wherein the position detecting step detects the position of the viewer's face or eyes at the detection interval set by the detection interval setting receiving step.

(付記9)前記視聴者の視線の位置を検出する視線検出ステップをさらにコンピュータに
実行させ、
前記画像制御ステップは、前記視線検出ステップによって検出された前記視線の位置が
前記画面内にある場合には、前記位置検出ステップによって検出された前記顔または眼の
位置の変化に応じて、前記画像を制御し、また、前記視線検出ステップによって検出され
た前記視線の位置が前記画面内にない場合には、前記画像の制御を中止することを特徴と
する付記7または8に記載の画像制御プログラム。
(Additional remark 9) Let a computer further perform the gaze detection step of detecting the position of the gaze of the viewer,
In the image control step, when the position of the line of sight detected by the line of sight detection step is within the screen, the image is controlled according to a change in the position of the face or eye detected by the position detection step. And the control of the image is stopped when the position of the line of sight detected by the line-of-sight detection step is not within the screen. .

1 画像制御装置
10 映像撮影カメラ
20 情報処理装置
21 処理部
21a 顔検出部
21b 顔認識部
21c 眼位置検出部
21d TV画面制御部
22 記憶部
22a 顔登録メモリ
22b TV画面メモリ
30 映像表示部
40 入出力I/F
DESCRIPTION OF SYMBOLS 1 Image control apparatus 10 Video camera 20 Information processing apparatus 21 Processing part 21a Face detection part 21b Face recognition part 21c Eye position detection part 21d TV screen control part 22 Storage part 22a Face registration memory 22b TV screen memory 30 Video display part 40 On Output I / F

以下に添付図面を参照して、この発明に係る表示制御装置、表示制御方法および表示制御プログラムの実施例を詳細に説明する。 Exemplary embodiments of a display control device, a display control method, and a display control program according to the present invention will be explained below in detail with reference to the accompanying drawings.

(付記9)前記視聴者の視線の位置を検出する視線検出ステップをさらにコンピュータに
実行させ、
前記画像制御ステップは、前記視線検出ステップによって検出された前記視線の位置が
前記画面内にある場合には、前記位置検出ステップによって検出された前記顔または眼の
位置の変化に応じて、前記画像を制御し、また、前記視線検出ステップによって検出され
た前記視線の位置が前記画面内にない場合には、前記画像の制御を中止することを特徴と
する付記7または8に記載の画像制御方法
(Additional remark 9) Let a computer further perform the gaze detection step of detecting the position of the gaze of the viewer,
In the image control step, when the position of the line of sight detected by the line of sight detection step is within the screen, the image is controlled according to a change in the position of the face or eye detected by the position detection step. controls, also when the position of the gaze detected by the gaze detecting step is not in the screen, the image control method according to note 7 or 8, characterized in that stops the control of the image .

Claims (5)

視聴者の顔または眼の位置を検出し、当該検出した位置の回転、平行移動、又は傾きのいずれかの変化を検出する位置検出部と、
前記位置検出部によって検出された前記顔または眼の位置の変化に従って、画面に表示される対象物の画像の回転、平行移動、又は傾きを変更する画像制御部と、
を備えることを特徴とする画像制御装置。
A position detection unit that detects the position of the viewer's face or eyes and detects any change in rotation, translation, or tilt of the detected position;
An image controller that changes the rotation, translation, or tilt of the image of the object displayed on the screen in accordance with the change in the position of the face or eye detected by the position detector;
An image control apparatus comprising:
前記位置検出部によって前記顔または眼の位置を検出する検出間隔の設定を受け付ける検出間隔設定受付部をさらに備え、
前記位置検出部は、前記検出間隔設定受付部によって設定された前記検出間隔で、前記視聴者の顔または眼の位置を検出することを特徴とする請求項1に記載の画像制御装置。
A detection interval setting receiving unit that receives a setting of a detection interval for detecting the position of the face or eye by the position detection unit;
The image control apparatus according to claim 1, wherein the position detection unit detects the position of the viewer's face or eye at the detection interval set by the detection interval setting reception unit.
前記視聴者の視線の位置を検出する視線検出部をさらに備え、
前記画像制御部は、前記視線検出部によって検出された前記視線の位置が前記画面内にある場合には、前記位置検出部によって検出された前記顔または眼の位置の変化に従って、前記画像の回転、平行移動、又は傾きを変更し、また、前記視線検出部によって検出された前記視線の位置が前記画面内にない場合には、前記画像の変更を中止することを特徴とする請求項1または2に記載の画像制御装置。
A line-of-sight detection unit that detects a position of the line of sight of the viewer;
When the line-of-sight position detected by the line-of-sight detection unit is within the screen, the image control unit rotates the image according to a change in the position of the face or eye detected by the position detection unit. The change of the image is stopped when the position of the line of sight detected by the line-of-sight detection unit is not within the screen. The image control apparatus according to 2.
視聴者の顔または眼の位置を検出し、当該検出した位置の回転、平行移動、又は傾きのいずれかの変化を検出する位置検出手順と、
前記位置検出手順によって検出された前記顔または眼の位置の変化に従って、画面に表示される対象物の画像の回転、平行移動、又は傾きを変更する画像制御手順と、
をコンピュータに実行させることを特徴とする画像制御プログラム。
A position detection procedure for detecting the position of the viewer's face or eyes and detecting any change in rotation, translation, or tilt of the detected position;
An image control procedure for changing the rotation, translation, or tilt of the image of the object displayed on the screen in accordance with the change in the position of the face or eye detected by the position detection procedure;
An image control program for causing a computer to execute.
視聴者の顔または眼の位置を検出し、当該検出した位置の回転、平行移動、又は傾きのいずれかの変化を検出する位置検出ステップと、
前記位置検出ステップによって検出された前記顔または眼の位置の変化に応じて、画面に表示される対象物の画像の回転、平行移動、又は傾きを変更する画像制御ステップと、
を含んだことを特徴とする画像制御方法。
A position detection step for detecting the position of the viewer's face or eyes and detecting any change in rotation, translation, or tilt of the detected position;
An image control step for changing the rotation, translation, or tilt of the image of the object displayed on the screen in accordance with the change in the position of the face or eye detected by the position detection step;
An image control method comprising:
JP2013000264A 2013-01-04 2013-01-04 Display control device, display control method and display control program Pending JP2013061988A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013000264A JP2013061988A (en) 2013-01-04 2013-01-04 Display control device, display control method and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013000264A JP2013061988A (en) 2013-01-04 2013-01-04 Display control device, display control method and display control program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008255523A Division JP2010086336A (en) 2008-09-30 2008-09-30 Image control apparatus, image control program, and image control method

Publications (1)

Publication Number Publication Date
JP2013061988A true JP2013061988A (en) 2013-04-04

Family

ID=48186534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013000264A Pending JP2013061988A (en) 2013-01-04 2013-01-04 Display control device, display control method and display control program

Country Status (1)

Country Link
JP (1) JP2013061988A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016224235A1 (en) * 2016-12-06 2018-06-07 Volkswagen Aktiengesellschaft Method and device for adapting the representation of image and / or operating elements on a graphical user interface

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1011249A (en) * 1996-06-20 1998-01-16 Matsushita Electric Ind Co Ltd Image forming display
JP2001056646A (en) * 1999-08-18 2001-02-27 Toshiba Corp Display device
JP2002366271A (en) * 2001-06-13 2002-12-20 Sharp Corp System and method for displaying image
JP2003186462A (en) * 2001-12-14 2003-07-04 Minolta Co Ltd Image display device
WO2005119591A1 (en) * 2004-06-04 2005-12-15 Matsushita Electric Industrial Co., Ltd. Display control device, display control method, program, and portable apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1011249A (en) * 1996-06-20 1998-01-16 Matsushita Electric Ind Co Ltd Image forming display
JP2001056646A (en) * 1999-08-18 2001-02-27 Toshiba Corp Display device
JP2002366271A (en) * 2001-06-13 2002-12-20 Sharp Corp System and method for displaying image
JP2003186462A (en) * 2001-12-14 2003-07-04 Minolta Co Ltd Image display device
WO2005119591A1 (en) * 2004-06-04 2005-12-15 Matsushita Electric Industrial Co., Ltd. Display control device, display control method, program, and portable apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016224235A1 (en) * 2016-12-06 2018-06-07 Volkswagen Aktiengesellschaft Method and device for adapting the representation of image and / or operating elements on a graphical user interface

Similar Documents

Publication Publication Date Title
JP2010086336A (en) Image control apparatus, image control program, and image control method
US8831282B2 (en) Imaging device including a face detector
US8934040B2 (en) Imaging device capable of setting a focus detection region and imaging method for imaging device
KR101679290B1 (en) Image processing method and apparatus
US9521310B2 (en) Method and apparatus for focusing on subject in digital image processing device
US10599920B2 (en) Automated digital magnifier system with hand gesture controls
JP2013076924A5 (en)
US8400532B2 (en) Digital image capturing device providing photographing composition and method thereof
CN108090463B (en) Object control method, device, storage medium and computer equipment
WO2018165912A1 (en) Imaging method and imaging control apparatus
JP2009086703A (en) Image display device, image display method and image display program
US10127424B2 (en) Image processing apparatus, image processing method, and image processing system
KR102228663B1 (en) Method of providing photographing guide and system therefor
JP2012238293A (en) Input device
JP2006268248A (en) Photographing device, and face direction determining method
JP2011095985A (en) Image display apparatus
CN109328355A (en) Method and system for intelligent group portrait
KR20180017591A (en) Camera apparatus, display apparatus and method of correcting a movement therein
JP5360406B2 (en) Image display device
CN111176425A (en) Multi-screen operation method and electronic system using same
JPWO2022074865A5 (en) LIFE DETECTION DEVICE, CONTROL METHOD, AND PROGRAM
JP6483661B2 (en) Imaging control apparatus, imaging control method, and program
KR101414362B1 (en) Method and apparatus for space bezel interface using image recognition
JP2013061988A (en) Display control device, display control method and display control program
EP3352446A1 (en) Multi-camera dynamic imaging systems and methods of capturing dynamic images

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140114

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140603